Cat de “chatbots” online te pacalesc deja

Uneori, promisiunea sexului te pacaleste. Uneori se datoreaza faptului ca par intelepti, prietenosi sau pur si simplu amuzanti. Robotilor nu le pasa cu adevarat cum te pacalesc – singurul lor obiectiv este sa te faca sa crezi ca sunt oameni. De fapt, daca utilizati retelele sociale sau petreceti orice timp online, este foarte posibil sa fiti deja o victima.

In aceasta saptamana, s-a sustinut o controversata afirmatie ca un „chatbot” a trecut testul Turing la un eveniment organizat la Royal Society din Londra. In timpul unei serii de conversatii bazate pe text, un program de computer numit Eugene Goostman a convins judecatorii ca este un baiat ucrainean de 13 ani, trecand astfel un reper pentru inteligenta artificiala propus cu ani in urma de informaticianul Alan Turing.

Deci, acest anunt marcheaza era AI-ului uman, asa cum sa sustinut? Nu chiar. Testul lui Turing a incetat sa fie important pentru cercetarea AI in urma cu multi ani, iar multi oameni de stiinta vad concursurile ca fiind eronate, deoarece pot fi castigate cu inselaciuni – cum ar fi pretentia de a fi un vorbitor de limba engleza non-nativa.

Cu toate acestea, ceea ce sunt pe deplin capabili de chatbots in viata de zi cu zi este mult mai interesant. Suntem deja inconjurati de roboti capabili sa ne pacaleasca sa credem ca sunt oameni adevarati si nu intra in competitii. Unele sunt suficient de sofisticate pentru a se infiltra in retelele sociale si poate chiar sa influenteze opinia publica.

Array

Cu siguranta sunt destule acolo. Desi majoritatea oamenilor considera ca internetul este un loc frecventat in primul rand de oameni, realitatea se dovedeste a fi destul de diferita. Un raport recent a constatat ca 61,5% din traficul pe internet este generat de programe automate numite roboti.

Capcana cu miere

Robotii cu cea mai mare probabilitate de a ne pacali folosesc smecherii colorate, explica Richard Wallace de la Pandorabots, care face chatbots pentru servicii pentru clienti si alte utilizari. Wallace este creatorul unui bot numit Alice, care de trei ori a castigat Premiul Loebner – un concurs de tip Turing, in care chatbot-urile se intrec pentru a-i convinge pe judecatori ca sunt oameni.

„Oamenii care sunt cei mai abili autori ai acestor roboti nu sunt oameni care sunt programatori de computere, sunt oameni care lucreaza intr-un domeniu creativ”, spune Wallace. „Aceasta este cu adevarat cheia crearii unui chatbot credibil – scrierea raspunsurilor care sunt credibile, distractive si atragatoare.”

Escrocii sunt constienti de acest fenomen. Compania de cercetare de securitate Cloudmark a documentat aparitia unui bot cochet numit „TextGirlie”. Dupa ce a obtinut numele si numarul de telefon al victimei din profilul lor de socializare, TextGirlie i-ar trimite victimei un mesaj personalizat prin care ii cerea sa continue conversatia intr-o camera de chat online.

Cateva schimburi cochete mai tarziu, iar victimei i se va cere sa faca clic pe un link catre un site de intalniri pentru adulti sau cam web.

Cloudmark estimeaza ca pana la 15 milioane de mesaje text initiale TextGirlie ar fi putut fi trimise catre telefoanele mobile si confirma faptul ca inselatoria a functionat timp de cateva luni. Potrivit lui Andrew Conway, un analist de cercetare la firma, acesta este un bun indiciu ca atacul a avut intr-o oarecare masura succes.

Inselaciune automata

Este mai probabil ca oamenii sa fie pacaliti de un bot intr-o situatie in care s-ar astepta la un comportament ciudat sau la spargerea limbii engleze. In 1971, de exemplu, psihiatrul Kenneth Colby a reusit sa-i convinga pe cativa colegi practicanti ca vorbesc cu un pacient printr-un terminal de computer. De fapt, Colby a organizat pur si simplu sesiuni cu un program care simuleaza vorbirea unui schizofrenic paranoic.

Si mai recent, in 2006, psihologul Robert Epstein a fost pacalit de un computer inteligent programat, care purta masca unei ruse care spunea ca se indragosteste de el. In ultimul timp, robotii au inceput sa participe la retelele de intalniri online in masa, putand bloca mai multi singletoni nefericiti intr-o retea de inselaciune automata.

Uneori, robotii pot pacali chiar si cei care au experienta pe web. Birdie Jaworski stie cum se simte. Jaworski este un colaborator experimentat la Reddit si fan al monedei digitale numite dogecoin, o alternativa jucausa la Bitcoin. Pe forumul Reddit pentru pasionatii de dogecoin, a aparut recent un utilizator numit „wise_shibe”, care a postat remarci intelepte in stilul proverbelor antice. „El ti-ar raspunde cu un raspuns de tip cookie de avere”, isi aminteste Jaworski. “S-ar parea ca ceva ar putea spune Confucius.”

Aceste comentarii au inceput chiar sa castige bani de la wise_shibe, deoarece forumul le permite utilizatorilor sa-si trimita reciproc „sfaturi” de moneda digitala daca le place un comentariu care a fost facut. Replicile intelepte erau populare, asa ca erau pline de sfaturi. Dar lucrurile au inceput in curand sa para suspecte: contul a fost activ la orice ora si in cele din urma a inceput sa se repete. Cand intelept_shiba a fost demascat ca un bot, revelatia a impartit membrii forumului. Unii au fost suparati, in timp ce altii au spus ca nu le deranjeaza. Jaworski a fost amuzat, dar s-a simtit si inselat. „Deodata iti dai seama ca acest mic robot colecteaza toate aceste sfaturi”, spune ea.

Tweetere fantoma

Daca prezenta si interactiunile unui robot par suficient de naturale, se pare ca este putin probabil sa ne punem la indoiala legitimitatea – presupunem pur si simplu de la bun inceput ca este uman. Pentru Fabricio Benevenuto, acest fenomen a devenit obiectul unor cercetari serioase. Recent, el si alti trei academicieni au publicat o lucrare care explica cat de usor este sa se infiltreze Twitter cu socialbots, atata timp cat arata si actioneaza ca utilizatori reali de Twitter.

Benevenuto si colegii sai au creat 120 de conturi bot, asigurandu-se ca fiecare avea un profil convingator complet cu imagine si atribute precum sexul. Dupa o luna, au descoperit ca aproape 70% dintre roboti au fost lasati neatinsi de mecanismele de detectare a boturilor de pe Twitter. Mai mult, robotii au fost pre-programati pentru a interactiona cu alti utilizatori si au atras rapid o banda sanatoasa de adepti, in total 4.999.

Implicatiile acestui fapt nu sunt banale. „Daca socialbots-urile ar putea fi create in numar mare, ele pot fi utilizate potential pentru a influenta opinia publica, de exemplu, prin scrierea unor cantitati mari de mesaje false si pentru a imbunatati sau deteriora necinstit perceptia publica despre un subiect”, noteaza lucrarea.

Este o problema cunoscuta sub numele de „astroturfing”, in care o umflatura aparent autentica a opiniei de baza este de fapt fabricata de un batalion de roboti avizati. Potentialul ca astroturfingul sa influenteze alegerile a ridicat deja ingrijorari, o revizuire din Reuters a cerut in ianuarie o interzicere a utilizarii de catre candidati a robotilor inaintea votarii.

‘Mai sofisticat’

Ramificatiile astroturfingului sunt de fapt atat de grave incat Departamentul Apararii din SUA a finantat in comun cercetarea software-ului care poate determina daca un cont Twitter este condus de un bot. Aplicatia, numita BotOrNot, este disponibila public online si ofera o analiza predictiva bazata pe activitatea contului si pe semantica tweet-urilor, care sugereaza daca este probabil ca operatorul contului sa fie un om sau un bot.

Insa Emilio Ferrara, cercetator principal al proiectului, admite ca sistemul ar putea fi deja depasit. Antrenati pe date Twitter care au acum trei ani, este posibil ca cei mai buni roboti din ziua de azi sa se sustraga in continuare de detectare.

„Acum robotii sunt mai sofisticati”, spune el. „Ei se pricep mai bine sa-si mascheze identitatea si sa semene mai mult cu oamenii. Prin urmare, sarcina devine din ce in ce mai grea – nici macar nu stim acuratetea sistemului in detectarea celor mai recenti si mai avansati roboti de acolo. ”

Asadar, cresterea robotilor pare doar sa continue – cu sau fara aprobarea testului Turing. Pentru Fritz Kunze de la Pandorabots, speranta este ca oamenii vor fi mai buni la intrebarea utilizatorilor cu aspect nevinovat care ii contacteaza online, astfel incat sa nu fie inselati atat de usor. Dar este, de asemenea, extrem de constient de cat de grea va fi o sarcina care va fi in viitorul apropiat.

„Va fi un mare soc pentru majoritatea oamenilor”, spune el. „Si acesti roboti vor fi foarte, foarte buni – vor fi buni sa pacaleasca oamenii.”

Daca doriti sa comentati acest articol sau orice altceva pe care l-ati vazut pe viitor, accesati pagina noastra Facebook sau Google+ sau trimiteti-ne un mesaj pe Twitter .