...... El magazine per saber de tot

Guillaume Chaslot, exenginyer de Google: «L'algorisme de YouTube ens porta a consumir contingut extrem per a mantindre'ns pegats a la pantalla»

13/01/2020 JUAN F. SAMANIEGO  @ferjuangon

Article original: https://www.nobbot.com/entrevistas/entrevista-a-guillaume-chaslot/#.Xhw58in6Dkw.twitter


Entrem buscant respostes sobre el canvi climàtic i acabem en un vídeo de teories terraplanistas. En quin moment prenem la decisió que ens va portar allí?

En realitat, en cap. YouTube prioritza els vídeos que generen més engagement amb l'objectiu que els usuaris passen més temps en la seua plataforma. Una dinàmica que està tenint conseqüències en la forma en què percebem el nostre entorn. Almenys, així ho entén Guillaume Chaslot, exenginyer de Google i fundador d'Algotransparency.org, una plataforma que busca traure a la llum les conseqüències de determinades decisions algorítmiques en la nostra societat.

Chaslot, programador i doctor per la Universitat de Maastricht, als Països Baixos, és també assessor del Center for Humane Technology. En els últims anys, ha dedicat gran part del seu treball a estudiar com les xarxes neuronals, el tipus d'intel·ligència artificial en què es basa el sistema de recomanació de YouTube, amplifiquen els discursos extrems per damunt de qualsevol altre contingut.

– Treballes en YouTube fins a 2011, per què deixes la companyia?

Volia treballar i aprofundir més en el tema dels filtres bambolla, per què les xarxes socials creen bambolles d'opinió que només reforcen els punts de vista de l'usuari. Però Google no estava interessat a gastar massa temps en aquests temes. No podíem dedicar-li més del 20% del temps del projecte, però jo sentia que no era suficient.

Un dia, el meu mánager em va dir que deixara de treballar en aqueix tema, que no li dedicara més recursos. No ho vaig fer i em van acomiadar.

– Després de YouTube, vas provar amb altres projectes. Per exemple, Bayes Impact, fundat per Paul Duan, un altre exenginyer de Silicon Valley. Per què creus que hi ha tants enginyers de les grans tecnològiques que abandonen el vaixell i es dediquen a treballar per a visibilitzar la cara B d'aquestes companyies?

Bo… És que existeixen una sèrie de males pràctiques que es mantenen a fi de generar beneficis. I existeixen certs tipus de persones que volen que es parle d'elles, que la societat les conega.

– Més tard, en 2017, decideixes fundar Algotransparency.org. L'objectiu d'aquesta web és analitzar l'impacte dels algorismes de recomanació de YouTube. No se suposa que, com a enginyer que va treballar en aqueixos algorismes, hauries de conéixer ja aquest impacte?

Com a enginyer, saps com funciona, com està programat. Però desconeixes quin és el seu impacte real, què és el que aconsegueix. Quan l'estava programant en 2010, no tenia forma de saber quins efectes anava a tindre en 2019. Per això creu AlgoTransparency, per a entendre realment quins eren els efectes de l'algorisme de recomanació de YouTube.

En 2010 i 2011, quan treballava en YouTube, ni tan sols coneixíem detalladament què estàvem fent. Ens guiàvem per les mètriques. No analitzàvem mai les conseqüències del que estàvem fent.


– Com funciona el programari d'AlgoTransparency?

Analitzem el contingut de 1.000 canals diferents i les recomanacions que parteixen d'ells. Dins de cada canal analitzem els vídeos i les recomanacions que sorgeixen de cada vídeo. Així, podem assenyalar quins són els vídeos que prefereix destacar l'algorisme de YouTube. Si visites la web, pots veure els vídeos preferits per l'algorisme en un dia determinat o dins d'un tema concret.

– Què heu aconseguit descobrir a través d'aquesta eina?

Hem descobert que existeixen certs tipus de vídeos que són recomanats amb molta freqüència, com els de teories de la conspiració. En els últims temps han perdut pes, però encara hi ha certs dies en què l'algorisme els atorga molta visibilitat, els promociona per damunt d'un altre contingut. Per exemple, el passat dia 17 de novembre, el vídeo més recomanat de la plataforma va ser una teoria de la conspiració sobre les piràmides d'Egipte.

Com a regla general, també hem descobert que els vídeos més agressius i els més extrems tenen millors resultats en termes d'engagement i, com a tal, són els que més tendeix a recomanar l'algorisme. Els vídeos violents poden semblar importants, porten al clic. En el fons no és més que una altra forma de clickbait. I l'algorisme s'encarrega d'amplificar aqueix clickbait.

– Quin és l'objectiu que persegueix YouTube amb això?

Engagement. L'algorisme està portant a tota una generació a consumir contingut més extrem sol per a aconseguir que els usuaris consumisquen més vídeos i passen més temps en la plataforma. Ho fa per a mantindre'ns pegats a la pantalla.


– I quines són les conseqüències d'aquesta espiral de recomanacions?

Crea una societat més dividida, hipersegmentada, més agressiva i, en definitiva, més ineficient.

– Cada vegada que es toca aquest tema, les xarxes socials esquiven la seua responsabilitat. Sempre assenyalen als creadors i s'escuden en què les plataformes són sol canals de distribució.

Evidentment, aquestes empreses no volen assumir la seua responsabilitat. Però això no vol dir que no siguen, almenys parcialment, responsables d'amplificar certs continguts. Són responsables en la mesura en què han dissenyat els algorismes.

És cert que no es tracta del mateix nivell de responsabilitat que, per exemple, una empresa editora d'un mitjà de comunicació. Però no es pot ignorar que els seus algorismes estan creant problemes que han de ser solucionats.


– Com podem solucionar aquest repte? Quina és l'eixida?

Les empreses que estan darrere de les xarxes socials, per si mateixes, faran el mínim treball necessari. Solucionaran certes coses, però la base no canviarà. La solució pot seguir dos camins. O els usuaris estan més ben informats i s'adonen del que està passant i abandonen la plataforma. O establim millors sistemes de rendició de comptes.

Crec que, al principi, érem molt pocs els que parlàvem d'aquests temes. Quan vaig començar, vaig arribar a pensar que el problema el tenia jo. Però a poc a poc ens hem anat donant compte que molts milions de persones comparteixen les mateixes preocupacions.

Així que, d'una banda, necessitem més informació transparent i, per un altre, noves regulacions adaptades als nous problemes. Si no canviem res, les xarxes socials continuaran creant una societat més dividida i agressiva.

– Quan els que som aliens al món dels programadors pensem en algorismes, ens imaginem alguna cosa que està per damunt de tots, pur i objectiu. Però, en realitat, estan dissenyats per persones, amb els seus biaixos i prejudicis. Persones que, com deies, pot ser que ni tan sols tinguen clars els impactes del seu treball.

Necessitem crear algorismes el més justos possibles, tecnologia que no amplifique els nostres biaixos, que no discrimine. Però no és gens senzill. És un tema en el qual estic treballant ara mateix i m'estic donant compte de la complexitat que entranya.

– Creus que les xarxes socials han subestimat el poder dels algorismes de recomanació i de la intel·ligència artificial?

El problema principal és que els sistemes de recomanació no estan sotmesos a cap mena de control per part de l'usuari. Creiem que estem decidint què veure, que estem descobrint contingut. Però és l'algorisme el que decideix què és el que veurem d'entre milers de milions de vídeos. Quan fem clic, més del 99,9% del pes de la decisió recau en l'algorisme.

L'algorisme dissenya el camí i la direcció que prendrem. L'usuari només té el control sobre on posar el peu per a fer el següent pas. En YouTube no descobrim res nou. Veiem el que ens vol mostrar l'algorisme amb l'únic propòsit que no deixem de consumir.

Al principi, el sistema de recomanació pot tindre conseqüències innòcues. Però hem provat que a la llarga acaba portant-nos a continguts extrems, faules i teories de la conspiració perquè generen més engagement.

– Una altra de les conclusions que heu extret és que, a la llarga, els algorismes són entrenats pels usuaris que més usen la plataforma. És a dir, aprenen més dels hàbits de la gent que es passa hores veient vídeos que de l'usuari mitjà.

L'algorisme de recomanació de YouTube li dona més pes al contingut que consumeixen els superusuaris de la plataforma. I després acaba dirigint a la resta d'usuaris als vídeos que consumeixen aquests espectadors freqüents. Això acaba creant una sèrie de bambolles concretes que acaben per alterar la imatge que tenim del món. Si la majoria de vídeos que veiem mostren una visió molt concreta de les coses, acabarem pensant que aqueixa és la realitat.

– Cada vegada més grups aprenen a traure partit del funcionament de les xarxes socials per a estendre els seus discursos. Alguns d'ells amb visions extremes o clarament negatives per a la societat. Com podem evitar amplificar aqueixos discursos mentre protegim el dret a la llibertat d'expressió?

En realitat, totes dues coses no tenen per què estar relacionades. No tenim un problema amb la llibertat d'expressió. Tenim un problema amb com els algorismes de les xarxes socials amplifiquen certs discursos extrems. No faria falta que les xarxes socials bloquejaren el discurs de l'odi, discursos d'extrema esquerra o contingut d'extremistes religiosos si no ho amplificaren per damunt d'altres discursos tal com estan fent.

No parlem de llibertat d'expressió. Parlem de llibertat algorítmica, alguna cosa que jo crec que no està protegit en cap constitució. Qualsevol discurs ha de tindre cabuda en les xarxes socials. El que hem de controlar és com els algorismes utilitzen determinats discursos en benefici de la plataforma.

– Creus que aquest tipus de comportament algorítmic, que aquesta obsessió amb l'engagement, està afectant altres sectors, com, per exemple, els mitjans de comunicació?

Sí, clar que està afectant. Els mitjans de comunicació no poden ser aliens a les xarxes socials. A més, per a poder traure-li partit a aquestes eines de comunicació acaben fent el mateix i copien el tipus de contingut que recomanen els algorismes. En lloc d'amplificar contingut veraç i informatiu, amplifiquen contingut extrem, conspiracions i faules. I això els està funcionant en l'esfera online en la qual els ingressos arriben només a través de la publicitat i es busca maximitzar el nombre d'usuaris.

Comentaris

Potser també t'agrade

The English Game: la classe social en el futbol en una nova sèrie de Netflix

El coronavirus no matarà la globalització, però és inevitable una sacsejada

Els sorprenents avantatges de ser una persona introvertida

Autofàgia: quan menjar-nos a nosaltres mateixos allarga la vida

La importància dels equips rojos: el teu alter ego que t'ajuda a escoltar coses que no t'agraden.

Com fer una perfecta Fake News?

Hiperaules: així és l'escola que desbancarà el col·legi tradicional

Què és el Projecte Human Screenome? Què fem quan mirem les pantalles?

Què és la curiositat i per què és el més important l’èxit?

Filòsofs, passejos i casualitats que van canviar la història del pensament (com la poma de Newton)