Výkonný ředitel Googlu Sundar Pichai v Berlíně, 22. ledna 2019. (Tobias Schwartz / AFP / Getty Images)
Výkonný ředitel Googlu Sundar Pichai v Berlíně, 22. ledna 2019. (Tobias Schwartz / AFP / Getty Images)

Dva zdroje z Googlu prozradily webovým novinám Breitbart, že Google upravuje výsledky vyhledávání témat, která internetový gigant považuje za „kontroverzní“. Někdy dokonce dělá zásahy i manuálně, což je v rozporu z přísežným prohlášením výkonného ředitele Sundara Pichaie.


Již několik měsíců přináší pravicově orientovaný Breitbart exkluzivní zprávy z uniklých informací z Googlu. Tentokrát, na základě získané interní komunikace, poukazuje na existenci seznamu vybraných témat, která jsou regulovaná, např. potraty, aktivista David Hogg, pád ruského letadla An-148 z února 2018, teroristický útok ve Štrasburku v prosinci 2018 atd.

V interní diskuzi poukazuje inženýr Googlu na změnu v zobrazených výsledcích hledání na Youtube (který Google provozuje) pro klíčové slovo „potrat“, která se udála krátce poté, co novinářka z levicového média Slate zpochybňovala u Googlu výsledky hledání, protože prý „byly téměř všechny proti potratům“. Inženýr nazval onu změnu „kouřící zbraní“.

„Novinářka listu Slate řekla, že si minulý pátek stěžovala a poté, než jí v pondělí Google odpověděl, viděla již jiné výsledky,“ napsal zaměstnanec. „A, světe div se, pohleďme na záznam o změně, který byl proveden v pátek 14. prosince v 15:17. “

Zaměstnanec Googlu poznamenal v diskuzi: „Vypadá to, že jsme docela nažhavení postarat se o výsledky hledání sociální a politické agendy levicových novinářů.“

Mluvčí Youtube sdělil The Epoch Times e-mailem: „Velmi otevřeně vysvětlujeme, že pracujeme na tom, aby se primárně zobrazovaly informace směrodatných médií. Tyto výsledky jsou generovány algoritmicky a nejsou upravovány, aby prospívaly specifické politické perspektivě nebo rozlišovaly mezi videi zastávajícími se potratů a videi proti nim. Ve skutečnosti v top výsledcích pro klíčové slovo ,potrat‘ zobrazujeme obojí, videa pro i proti.“

Ruční zásahy

I když se vyhledávací produkty Googlu většinou spoléhají na algoritmy, společnost používá i ruční zásahy, tvrdí Daniel Aaronson, senior stratég oddělení produktové strategie Trust & Safety v Google Search.

„V extrémních případech někdy potřebujeme rychle reagovat na něco, co není v pořádku, a kdy je reakční/manuální přístup nezbytný,“ řekl v diskuzním vláknu.

Toto tvrzení se zdá být v rozporu s přísežným prohlášením Pichaie, které poskytl 11. prosince 2018 Soudnímu výboru Sněmovny reprezentantů USA. „... manuálně nezasahujeme do jakéhokoliv konkrétního výsledku vyhledávání“.

Kultura společnosti

Aarson řekl, že „z perspektivy uživatele existují subjekty, které mají sklon obsah přehánět, mystifikovat a útočit“.

„Tyto texty jsou velmi subjektivní a to nikdo nepopírá,“ řekl. „Ale obecně můžeme souhlasit s tím, že v mnoha kulturách existují jasné hranice ohledně toho, co je ještě OK, a toho, co OK není.“

Aarsonova zmínka o kultuře coby rozhodčím toho, co je „OK“, koresponduje s obviněními z politického ovlivňování, kterému Google a další technologické společnosti čelí.

Bývalý inženýr Googlu James Damore poukázal na jednotnou levicovou kulturu Googlu, která vytváří „ideologickou komnatu ozvěn (situace, ve které se skupina osob vzájemnou komunikací utvrzuje ve svých názorech – pozn. red.)“.

Byl vyhozen poté, co napsal zprávu, ve které poukazuje na to, že průměrní muži a ženy mají různé schopnosti a preference a že Google by se to měl snažit reflektovat, aby pro firmu získal více žen.

Bývalý inženýr Googlu Yonatan Zunger odpověděl v blogu, že Damoreův názor byl tak urážlivý, že by ho nejraději nechal vyvést z kanceláře ostrahou.

„Dobrý cenzor“

Google a další platformy opakovaně přislíbily, že budou podporovat svobodu projevu, ale v praxi tomu tak není. Poukazuje na to dokument interního průzkumu Googlu z března 2018, který získal Breitbart.

Dokument nazvaný „Dobrý cenzor“ dokazuje, že „technologické firmy postupně přecházejí od nemoderované svobody projevu k cenzuře a moderování“.

Protože se online platformy běžně spoléhají na nahlašování nevhodného obsahu ze strany uživatelů, zdá se, že mechanismy preferují ty, kteří chtějí projev regulovat.


Přeložil a upravil z původního článku newyorské redakce: J. S.

Líbil se vám tento článek? Podpořte nás jeho sdílením na sociálních sítích.