Categories
main mozilla po polsku tech

Tyler o ocenie błędów

uwaga: ten post jest moją prywatną opinią, nie jest stanowiskiem żadnego z projektów w których pracuję.

uwaga 2: ten post nie jest opinią o wszystkich portalach i vortalach informatycznych. Są wciąż serwisy które dbają o jakość informacji, które weryfikują dane, które szukają u źródeł, których dziennikarze interesują się tematem na który piszą, a i w tych które wywołam tutaj do tablicy nie zawsze jest tak źle. Ale jest źle wystarczająco często bym pozwolił sobie na uogólnienia.

Przepraszam, że niezbyt często tu piszę ostatnio, ale mam mnóstwo pracy z L20n, Pontoonem i innymi fantastycznymi projektami nad ktorymi pracujemy i coraz mniej motywacji do prostowania tego co panowie copy&pasterzy napichcą.

Tym razem jednak zbieram się w sobie i prostuję ponownie. Otóż webhosting, dziennik internautów i dobre programy znów łyknęły plotkę i bujde ze slashdota jak rybka haczyk i ucieszone donieść raczyły, że “były szef społeczności”, że “zrezygnował”, że zanim to zrobił doniósł o “nowy cykl wydawniczy (…) bardzo źle wpływa na jakość Firefoksa” i tak dalej i tak dalej.

Pewnie, można olać, wszak to, że panowie wykonująct te copy&paste tłumaczenia (czasem nawet z autorskim komentarzem, zazwyczaj sarkastycznym i definitiwnie wieszczącym kłopoty Mozilli, ewentualnie deklarującym ekspercką wiedzę jakoby innym przeglądarkom wiodło się lepiej) zrobią to następnym razem niezależnie co tu napiszę.

Wiemy to bo niecałe półtora tygodnia temu te same portale donosiły o nieuchronnym usunięciu numerków wersji z okna “O Programie” Firefoksa dokładnie w ten sam sposób klonując sensacyjne doniesienia slashdotów z tak samo poprzekręcanymi faktami, plotkami i przekłamaniami. A 4 dni temu donosiły, że Mozilla planuje walczyć z Chromem przez WebAPI… i tak dalej…

Wiemy też, że tak jak zawsze nie skorzystają ze starej dziennikarskiej zasady pytania u źródeł, albo chociaż dania szansy wypowiedzenia sie drugiej stronie do której kontakt dostają regularnie od Lukasza Kluja, ode mnie, googlając/bingując Mozillę w Polsce lub na ślepo wpisując press@aviary.pl. Nic to nie da.

I tym razem wpadka, pomyłka, nie przyniesie wstydu, w odróżnieniu od slashdota nie zaktualizują swoich wpisów, nie zawstydzą się a czytelnicy radośnie w komentarzach skorzystają z okazji do kolejnego flamewara na temat tego która przeglądarka jest lepsza i jakim epitetem obrzucić współkomentatora który śmie woleć inną.

No to dla sprostowania:

  • Mozilla nie jest firmą w tradycyjnym tego słowa znaczeniu. Jest projektem, społecznością. Wszyscy którzy się wypowiadają i pracują w nim to kontrybutorzy, członkowie społeczności. Tyler jest członkiem projektu Mozilla. Część osób jest zatrudniona w Mozilla Foundation w różnych formach do różnych zadań. Tyler nie jest.
  • Tyler nie zrezygnował z uczestnictwa w projekcie tylko z pracy w grupie zajmującej się oceną nowych zgłoszeń
  • Tyler nie napisał nic na temat wzrostu liczby błędów w Firefoksie w wyniku nowego modelu wydań
  • W projektach open source pojęcie “bug” odnosi się do każdego zgłoszenia – czy to jest błąd, czy propozycja zmiany, czy pomysł. Zdecydowana większość z tych zgłoszeń jest nieprawidłowa lub duplikuje zgłoszenie już istniejące. Pisanie więc o “6000 błędów w Firefoksie” jest więc po prostu myleniem czytelników.
  • Ocena zgłoszeń to praca która od zawsze w Mozilli jest ścieżką przez którą przechodzi wielu nowych wolontariuszy, ja zaczynałem od pracy nad tym, Gavin, i inni też. Od takiej funkcji sortowania i kategoryzowania błędów do realnej oceny wpływu szybkiego cyklu na stabilność przeglądarki i liczbę błędów w niej jest bardzo daleko.
  • Jeśli któryś z dziennikarzy interesuje się naprawde tematem stabilności przeglądarki to może zechce przetłumaczyć wpis Jessiego Rudmana na temat statystyk błędów krytycznych Firefoksa w kolejnych wersjach (i artykułu Kairo na ten temat?)
  • Bugzilla Mozilli w ogóle nie jest narzędziem “jakościowym” tylko “ilościowym”, zbieramy setki zgłoszeń dziennie, większość nigdy nie zostanie rozwiązana, bo albo nie ma sensu, albo nie jest ważna (w stylu: “Hinduska wersja Firefoksa na system Solaris sprzed trzech lat ustawiony z czcionką cyrylicy nie wyświetla poprawnie strony CNN w wersji z 2008 roku”), albo nie jest do odtworzenia, albo nie jest w ogóle problemem tylko propozycją którą nikt się nie zajął i czeka na kogoś kto się danym tematem zainteresuje. Rozmowa o liczbach w takim kontekście i emanowanie nimi jest wynikiem głębokiego niezrozumienia tematu o którym się pisze.
  • Tyler napisał dwa sprostowania. Niestety sprostowania są mniej skandaliczne, a więc mniej atrakcyjne, niż oryginalna plotka. Szkoda, prawda?

Dużo się dyskutuje ostatnio na temat przyszłości prasy i mediów w dobie Internetu. Niestety z przerażeniem obserwuje dewaluację jakości dziennikarstwa dotyczącego tematów komputerowych, które idzie równolegle ze wzrostem liczby osób używających Internetu i zwiększającą się dynamiką tego co się w Webie dzieje.

W tym samym czasie kiedy wszędzie wokół mnie w Polsce kiełkują społeczności eksperckie, sceny front-endowe, back-endowe, webappowe, HTML5, webgamingowe itp. dziennikarski front słabnie w oczach, redukuje siebie sam do formy it-plotek.pl i skupia się na straszeniu użytkowników.

Czasem zastanawiam się jak to jest pracować jako dziennikarz IT, podpisywać się nazwiskiem pod tekstami i do tego stopnia nie interesować się tym co się dzieje z Siecią. Nie rozumieć czym jest Mozilla, czym Webkit, jak tworzone są standardy, jak wygląda współpraca twórców przeglądarek, czym jest W3C, Ecma albo jak działają projekty open source.

To smutne, ale drodzy panowie redaktorzy – obserwowany przez Was spadek czytelnictwa nie wynika z “kryzysu” mediów ani tego, że ktoś Wam “kradnie” czytelników. Obniżacie jakość, skupiacie się na plotkach, właściwie większość tego co piszecie o wydarzeniach wokół przeglądarek jest pełna przeinaczeń, błędów i dowodów, że tak naprawde tym tematem niezbyt sie interesujecie i nie staracie się go poznać. Dziwi Was zatem odwrót czytelników? Moim zdaniem głosują nogami.

A panowie rednacze – newsy o przeglądarkach cieszą sie popularnością? To może zatrudnijcie do pisania ich osoby które interesują się przeglądarkami? Na eventach takich jak Front Trends, Falsy-Values, czy zbliżający się onGameStart właściwie każda, losowo wybrana osoba będzie się nadawać. Zyjemy w czasach pasjonatow, warto z tego korzystac do budowania wartosciowych srodowisk 🙂

Categories
main mozilla tech

Perceived proximity on the Web

Over the years of traveling around the world to evangelize about Open Web and explaining the position and role Mozilla holds, I’ve encountered an interesting phenomena that I tried to put into a social context for quite some time.

My last trip to China, where I had met with Mozilla community in Shanghai triggered me to write about it, so here it comes.

The Web

The Web is a virtual plane on which human interact. It’s an incredible and amazing plane which breaks a vast number of physical laws and, in consequence, economical laws, biological laws, psychological laws, and, maybe in a most profound way, social laws.

From the social perspective, the web changes everything because  it holds an unprecedented characteristic:

The Web almost fully neutralize three basic physical dimensions in which humans operate, and, if that was not enough, it also severely limits the fourth one – time!

Think about it for a moment, please. Isn’t it mind blowing that we’re here, now, as it happens?

Spatial dimensions

Things on the Web are equally “close” to each Web user and the “dimension” that is closest to replace spatial distance – connection speed – is just a temporary factor that is disappearing over the course of a few years becoming ignorable itself.

It may not be the first invention that reduces the eternal impact of spatial dimensions on human life – cars, planes, mail, they all contributed to the sense of the world getting smaller, but the Web just cut it off entirely. You have access to this text from each place on Earth at the very same moment and you can build meaningful connections with everyone on the planet using the same techniques we use to build connections with our neighbors.

The laws of physical proximity and its impact on our social life is being transferred onto the Web and suddenly everyone is socially close to everyone else.

Time

Similar shift happens with the fourth dimension. With mobiles devices, laptops, SMS, video chats, forums, and push&pull notification systems we’ve not only overcame physical distance limitations but we also built a plethora of technologies to store, in a lossless mode, every data byte transferred between human beings. Every piece of communication. Every smile, every word, every information, story or emotion that we manage to encode into any of the digital communication channels may be stored, multiplied, transformed and replayed forever.

Once again, the Web is not the first medium to do it, books, photographs, CD’s, vinyl and cameras where there before, but the Web brought it to the next level. Everything that manages to fit the web can be ripped of action-time limitation. It doesn’t matter when it happens, and how far did it happen. I can record my fingers typing this text and broadcast them to everyone around the world plus let anyone interested watch it in 100 years. All this interesting social/cultural/memetic implications about your daughter reading your blog posts from when you were sixteen kick in!

And the price limes is zero! It costs almost nothing and it will cost less and less! (making economy laws not fit anymore).

Physical vs. virtual

Hola, hola! – as many of my spanish fluent friends would say – but that’s all virtual. Yes, we removed spatial and time dimensions but only from information. Nothing changes in the realm of physical objects. No teleportation, no time travels, right? Right!

Categories
main mozilla tech

Pontoon – introduction

One of the three core types of content I described in my previous blog post is what I call rich content.

This type of localizable content has certain characteristics that are very different from the common UI entities. Starting from different goal (to provide information), through different size (long sentences, paragraphs), different l10n flexibility (needs ability to reorder, extend, shrink long texts) to much richer syntax (sentences can be styled with HTML, CSS).

Almost a year ago I started playing around some type of a web tool that would allow for WYSIWYG style localization for the web, later picked up by Ozten in his blog post about potential use cases, and finally landed on Fred Wenzel’s mind as he decided to give this idea a try. He ignited the project, and created first iteration of the UI, where I joined him, and added server side.

Now, the idea itself is neither new nor shocking. Many projects were experimenting with some forms of live localization for web content but the solutions we know so far are hardly adaptable for generic purposes. Some require a lot of prerequisites, others are gettext only, and they come as black-box solution which requires you to follow all the procedures and lock your process in.

Pontoon is different in the sense that it is a toolset that allows for rich content localization with grading amount of prerequisites and varying strictness of output. It’s a very alpha mode tool, so be kind, but I think it’s ready to get the first round of feedback 🙂

Pontoon – components

Pontoon is composed of three elements:

  • client – pontoon client is an application that allows for content navigation and localization. It’s responsible for analyzing content and providing ways for the user to translate it.
  • server – pontoon server is an application that the client communicates with in order to send/update translations provided by the localizer and store them later for the website to use.
  • hook – pontoon hook is a small library that can be hooked into a target application in order to provide additional information for the client to improve its abilities.

There are various clients possible, for now we have two – HTML website as a client, and Jetpack 0.8.1 based one. They share a lot of code and they operate quite similarly.

We have one server – django based one – that can receive translations provided by the client, and uses Silme to store them into a file (currently .po), and we have one hook – for PHP – that adds special meta headers and provides simple API for modified gettext calls that gives client direct information on where the entities are located, so that the client does not have to guess.

I’ll dig into details in a separate post, there’s much more into how Pontoon can operate and what are the possible enhancements for each of the three components, but for now, I’d like to present you a short video of Pontoon used to localize two old versions of our website projects.

The video is a coffee-long, so feel free to grab one and schedule 6 minutes 🙂

urls used in the video:

notes:

  • the locale codes that are supported by the server are usually ab_CD, not ab – for example de_DE, fr_FR etc.
  • pontoon does not support multiple users at the same time, so you may observe strange results when many people will try it at the same time. Enjoy alpha mode!
  • “0.1 alpha” means – I’m looking for feedback, comments, ideas and contributions 🙂