4 min read

O lecție importantă și un avertisment

O lecție importantă și un avertisment
foto: Song Kaiyue pexels.com

traducere și adaptare de Constantin Lomaca

Fiecare dintre noi se cunoaște pe sine într-o anumită măsură și își dorește să se înțeleagă mai bine. Testele de personalitate sunt utilizate atât în scop individual de auto-cunoaștere, cât și pentru a evalua aptitudinile într-o multitudine de joburi care solicită anumite abilități. Este cunoscut că testele profesionale sunt îmbunătățite periodic, pentru a putea surprinde o gamă mai largă de tipologii și pentru a își menține valabilitatea odată cu trecerea timpului. În ultimii ani sunt disponibile (mai ales pe internet) variante de teste rapide/accesibile/auto-administrate care promit interepretări simplificate care induc de multe ori în eroare. Mai nou, a apărut și un alt fel de risc asupra căruia e important sa fim atenți și să ne folosim spiritul critic.

Un grup de cercetători canadieni și suedezi și-a propus să investigheze și să pună la încercare reacțiile a 62 de voluntari selectați prin intermediul rețelelor sociale, în legătură cu testarea personalității realizată de AI.

Însă au făcut-o complet altfel, lansând astfel și un avertisment.

Acest experiment atenționează asupra limitei până la care suntem dispuși să ne lăsăm categorisiți de o instanță exterioară care pretinde că folosește inteligența artificială. Cât de mult funcționează mitul "datelor puse împreună care pot genera rezultate net superioare"? Prezentăm în continuare traducerea și adaptarea unui rezumat al unui studiu, apărut sub semnătura lui Maggie Harrison pe blogul Neoscope al platformei Futurism.com.

Oamenii testați au fost aduși în situația să creadă ca o mașină AI le analiza (genial) personalitatea, dar de fapt îi manipula folosind o metodologie intenționat înșelătoare.

"Chestionarele de tip BuzzFeed pe care le intâlnesti peste tot pe internet îți pot spun ce fel de”aluat” ești, în funcție de citatul tău preferat din Twilight. Numai pe baza abundenței lor, se poate spune că oamenii - fie că încearcă să se auto-caracterizeze ca mijloc de autocunoaștere fie pur și simplu ca o modalitate de a își potoli o criză existențială - acești oameni iubesc foarte, foarte mult testele de personalitate.

Și, sigur, a te simți aliniat cu un test de personalitate este, de obicei, destul de inofensiv. Dar, potrivit unui nou studiu publicat în revista Consciousness and Cognition, dorința noastră de a ne încrede în cei care ne etichetează personalitatea ar putea avea implicații serioase pentru ascensiunea actuală atât a interfețelor creier-computer cât și a inteligenței artificiale.

Pentru a testa cât de eficient ar putea fi păcăliți indivizii să se identifice cu ce spune un test de personalitate, o echipă internațională de cercetători canadieni și suedezi a folosit rețelele de socializare - unde astrologia, psihologia pop și alte sisteme de atribuire a personalității sunt foarte răspândite - pentru a recruta 62 de participanți cărora li s-a dat impresia că testează un nou tip de neurotehnologie care, potrivit studiului, "ar putea să le citească cu precizie gândurile și atitudinile".

"Pentru a începe scenariul nostru de păcălire, am intenționat să construim încrederea participanților în mașină, pretinzând că aceasta le poate decoda preferințele și atitudinile", au scris autorii studiului. "Sistemul includea un scaner RMN fals și un sistem EEG, care se presupunea că folosește decodarea neuronală condusă de inteligența artificială (AI)".

Conform cercetării, sistemul fals a fost destul de elaborat, procedura având "trei faze principale: citirea de bază a creierului, detectarea erorilor umane și atribuirea de feedback privind atitudinea".

În timpul fiecărei "faze" false, fiecare participant a fost invitat să evalueze în ce măsură era de acord cu diverse solicitări legate de personalitate și opinii. Între timp, sistemul a funcționat în mod fals pentru a "decoda cu precizie" răspunsurile pe care aceștia le dețineau "în mod inconștient în creierul lor și care pot fi decodate din activitatea neuronală".

Cu alte cuvinte, participanții au fost făcuți să creadă că, folosind neuroștiințe avansate, mașina le putea spune ce gândesc, nu doar cum gândesc. Și, potrivit studiului, participanții au devorat imediat rezultatele, convinși că mașina îi cunoștea mai bine decât se cunoșteau ei înșiși."Pe măsură ce mașina părea să deducă preferințele și atitudinile participanților, mulți și-au exprimat uimirea râzând sau numind-o "cool" sau "interesantă". De exemplu, unul dintre ei a întrebat: 'Uau, mașina a dedus asta? ... Oh, Doamne, cum se face asta? Putem să facem mai multe din astea?".

"Niciunul dintre participanți", au continuat ei, "nu a exprimat vreo suspiciune cu privire la abilitățile de citire a gândurilor ale mașinii pe tot parcursul studiului". În timp ce cercetătorii au remarcat câteva avertismente în ceea ce privește munca lor, faptul că nimeni nu a exprimat vreo suspiciune cu privire la eficacitatea mașinii - cum funcționa? era într-adevăr capabilă să citească mințile? - este într-adevăr îngrijorător. Cu siguranță spune ceva despre disponibilitatea oamenilor de a fi categorisiți, în special de o forță din afara lor. Dar, poate într-o măsură și mai mare, spune multe despre câtă încredere au oamenii în algoritmi și mașini, mai ales dacă ne gândim că o mare parte din "preferințele" și "atitudinile" pe care mașina cercetătorilor le-a prezentat erau perspective politice spinoase".

"Am folosit magia și înșelăciunea pentru a simula viitoarea neurotehnologie care ar putea decoda conținutul mental, detecta erorile și oferi o perspectivă asupra atitudinilor profund înrădăcinate. După ce aparatul a dat feedback pozitiv sau negativ cu privire la presupusele atitudini ale creierului lor față de caritate, participanții și-au schimbat atitudinile în direcția congruentă. Majoritatea participanților (80%) a fost de acord cu acest feedback al mașinii repartizat aleatoriu și au oferit raționalizări pentru a-l susține". (...) se afirmă în studiul original.

"Considerăm că paradigma noastră, recunoscută ca fiind neobișnuită și intenționată poate ajuta la producerea unor reacții realiste la viitoarele neurotehnologii", au concluzionat autorii, avertizând asupra implicațiilor a ceea ce ar putea fi potențial capabile mașinile să facă în viitor.

Studiul original aici Emulating future neurotechnology using magic [Consciousness and Cognition]

Teleskop găzduiește pe blog articole care prezintă metode și abordări ale colegilor din echipă și ale invitaților, pe diverse teme din sfera educației.