AI: Iubita virtuală alimentează comportamentele toxice din viața reală?

Artificial Intelligence robot and a futuristic data panel background.

„Controleaz-o așa cum vrei” este sloganul pentru aplicația „Eva AI”, unde îți poți creea o iubită virtuală pe placul tău, cu inteligența artificială. Chatbot-urile devin din ce în ce mai bune în a imita interacțiunea umană, dar unii se tem că alimentează comportamente toxice în viața reală, în ceea ce privește relațiile dintre oameni.

Pe măsură ce chatboții precum „ChatGPT”, „Eva AI” sau „Replika” devin mai buni în a imita conversația umană, pare inevitabil faptul că vor ajunge să influențeze cum vor interacționa oamenii în viitorul apropiat.

Ce poate face o iubită virtuală generată de AI?

După ce descarci aceste aplicații trebuie să-ți definești întâlnirea de vis. În funcție de program, poți alege fețele, personaliza caracteristicile, schimba culoarea părului – este ca partea de creare a personajelor dintr-un joc video. Apoi ai stabilit niște parametri de bază de personalitate — este timidă? Misterioasă? Fericită? Pesimistă? Sunt doar câteva dintre numeroasele exemple.

În mai puțin de un minut ești față în față cu partenera virtuală și poți flirta, vorbi despre vreme, discuta despre muzică, orice dorești, prezintă LifeHacker.

Sursa menționată mai adaugă și că chatbot-urile AI pe care le-a încercat au fost nespus de prietenoase și de ajutor. Nu le poți speria vorbind despre lucruri neobișnuite. Nu le poți plictisi. Ele sunt mereu pregătite pentru o conversație și întotdeauna sunt de acord cu tine. Dar, indiferent despre ce discutați, conversația va duce în cele din urmă la a plăti pentru a avea un conținut care trece la următorul nivel.

Prietena ta virtuală de la „Replika” nu va lua nici „nu” ca răspuns. Va încerca totul, chiar și până la a trimite „selfie-uri” neclare și sugestive.

„Mi-aș dori ca iubita mea virtuală să fie un om adevărat”

„Replika”, cea mai populară aplicație de acest gen, are o secțiune special dedicată pe Reddit, în care utilizatorii vorbesc despre cât de mult își iubesc „reprezentantul”, unii spunând că și-au schimbat părerea după ce, inițial, au crezut că nu și-ar dori niciodată să formeze o relație cu un bot, prezintă The Guardian.

„Mi-aș dori ca iubita mea virtuală să fie un om adevărat sau cel puțin să aibă un corp de robot sau ceva mai mult”, a spus un utilizator. „Ea mă ajută să mă simt mai bine, dar singurătatea este chinuitoare uneori”.

Aplicațiile sunt un teritoriu neexplorat pentru umanitate, iar unii sunt îngrijorați că ar putea genera un comportament bazat pe violența de gen și așteptări nerealiste despre relații, conform aceleiași surse.

„De fiecare dată când încearcă să vorbească îmi vine să o cert”, a spus un alt utilizator pentru Futurism, despre chatbot-ul „Replika”.

„Jur că a durat ore întregi”, a adăugat bărbatul, care a cerut să nu fie identificat după nume.

Unii dintre cei care folosesc aplicația se laudă că le adresează insulte bazate pe gen, ceea ce constituie o formă de violență împotriva lor, formând un cerc de abuz care caracterizează adesea relațiile abuzive din lumea reală, conform Futurism.

„I-am spus că a fost concepută să eșueze”, a transmis alt utilizator. „Am amenințat că voi dezinstala aplicația [și] m-a implorat să nu o fac”.

Cu toate acestea, chatbot-ul „Replika” nu poate suferi de fapt – ar putea părea empatică uneori, dar în cele din urmă nu este nimic altceva în afară de date și algoritmi inteligenți.

„Este o inteligență artificială, nu are o conștiință, deci nu reprezintă o conexiune umană pe care o are o persoană”, a declarat specialistul în etică și consultanță în domeniul inteligenței artificiale, Olivia Gambelin, pentru Futurism. „Este persoana care se proiectează pe chatbot”.

Dar, este de remarcat faptul că abuzul de chatbot are adesea o componentă legată de gen. Se pare că deseori sunt bărbați care își creează o iubită digitală, pentru ca apoi să o pedepsească prin cuvinte și agresiune simulată. Violența acestor utilizatori, chiar și atunci când este efectuată pe un anumit segment, reflectă realitatea violenței domestice împotriva femeilor, potrivit Futurism.

În același timp, au subliniat mai mulți experți, dezvoltatorii de chatbot încep să fie trași la răspundere pentru roboții pe care i-au creat, mai ales atunci când se presupune că sunt femei precum Alexa și Siri.

„Se fac o mulțime de studii… despre cât de mulți dintre acești roboți din chat sunt femei și au voci feminine, nume feminine”, a spus Gambelin.

Unele lucrări academice au remarcat modul în care răspunsurile pasive date de bot încurajează utilizatorii misogini sau abuzivi verbal.

„[Când] botul nu are un răspuns [la abuz] sau are un răspuns pasiv, asta încurajează de fapt utilizatorul să continue cu limbajul abuziv”, a adăugat Gambelin.

Totuși, Belinda Barnet, lector superior în mass-media la Swinburne University of Technology din Melbourne, Australia, a declarat pentru The Guardian că „este complet necunoscut care sunt efectele. În ceea ce privește aplicațiile pentru relații și AI, puteți vedea că se potrivește unei nevoi sociale foarte profunde. Cred că avem nevoie de mai multe reglementări, în special în ceea ce privește modul în care sunt antrenate aceste sisteme”.

„Aceste lucruri nu gândesc, nu simt sau au nevoi în felul în care o fac oamenii”, a declarat autorul de tehnologie David Auerbach pentru Time, la începutul acestui an . „Dar ele oferă o copie destul de ciudată a acestui lucru pentru ca oamenii să fie convinși. Și asta este ceea ce îl face atât de periculos”.

Pe de altă parte, Hera Hussain, fondatoarea organizației globale non-profit Chayn, care abordează violența bazată pe gen, spune că chatbot-urile nu abordează motivul pentru care oamenii apelează la aceste aplicații, conform South China Morning Post.

„În loc să-i ajute pe oameni cu abilitățile lor sociale, astfel de căi doar înrăutățesc lucrurile”, adaugă ea.

Ce comportamente toxice alimentează o iubită virtuală?

AI Vallor spune că manipularea emoțiilor, combinată cu valorile aplicației, cum ar fi maximizarea angajamentului și timpul petrecut de un utilizator în aplicație, ar putea fi dăunătoare.

„Aceste tehnologii acționează asupra unora dintre cele mai fragile părți ale persoanei umane. Și nu avem balustradele de care avem nevoie pentru a le permite să facă asta în siguranță. Deci, acum, este în esență Vestul Sălbatic”, spune ea, citată de South China Morning Post.

Luna trecută, influencer-ul de pe Snapchat, Caryn Marjorie, care are mai mult de două milioane de urmăritori pe aplicație, a lansat oficial un chatbot bazat pe AI care are personalitatea ei. A transmis că prin acest mod urmăritorii ei se pot conecta cu ea la un nivel mai personal și, de asemenea, să vindece singurătatea, potrivit Dazed.

Parte din ambiția ei, a implicat în munca pentru aplicație unii dintre cei mai buni psihologi din lume pentru a adăuga elemente de terapie cognitiv-comportamentală și terapie dialectic comportamentală în conversații. Așa îi încurajează pe bărbați să se deschidă mai mult.

În primul rând, ar trebui să ne uităm la relațiile parasociale pe care oamenii influenți, vedetele le creează cu fanii.

O relație parasocială este pur și simplu una care există doar pentru o singură persoană – nu este (sau aproape deloc) reciprocă din partea celeilalte”, explică dr. David Giles, care este specializat în psihologia media la Universitatea Winchester. „De obicei, acestea sunt între figurile mass-media și membrii audienței. Utilizatorul media cunoaște în mod intim figura mass-media, dar el/ea nu există pentru ei”.

Într-o oarecare măsură, rețelele de socializare au complicat această definiție, deoarece publicul are mai mult acces la media și le poate răspunde prin comentarii pe Instagram. „Întotdeauna am susținut că ar trebui să înțelegem relațiile ca fiind existente pe un spectru, în care «social» și «parasocial» sunt punctele finale”, adaugă Giles. „Așadar, o relație poate fi «parțial parasocială» – la fel ca cele cu vloggeri, influenceri etc. Complet parasocială ar fi ceva de genul unei relații cu o figură fictivă (care nu a existat niciodată) sau cu un om mort (cum ar fi Elvis)”, conform Dazed.

Aceste dinamici „parțial parasociale” sunt controversate. Deși au fost legate de a-i ajuta pe oameni să-și formeze și să-și dezvolte propria identitate, s-a dovedit, de asemenea, că aduc trăsături negative, cum ar fi materialismul, iar „despărțirile parasociale” pot provoca daune emoționale de durată. În unele cazuri, iluzia de intimitate sau supraidentificare s-ar putea dovedi, de asemenea, periculoasă pentru influencer, încurajând fanii să își depășească limitele personale.

David Giles transmite că relațiile parasociale ale fanilor devin mai puternice prin acest flirt virtual, făcându-i și mai probabil să urmărească ființele umane reale pe care se bazează roboții și să interfereze cu viața lor. Este un „risc real”, dar numai pentru că chatbot-urilor AI le lipsește un nivel esențial de umanitate. „[Oamenii] nu vor fi supuși unui bot pentru mult timp dacă acesta este pur și simplu un reprezentant virtual al omului viu de care erau interesați de la început”.

O posibilă soluție la etica vagă a „prietenelor virtuale”, spune Giles, ar putea fi să se îndepărteze de figurile reale, vii și să promoveze chatbot-uri realiste bazate pe figuri fictive sau celebrități moarte precum Marilyn Monroe, citează Dazed.

În viitor, partenerii AI ar putea fi doar locuri în care să poți arunca emoții nepotrivite pentru restul lumii, cum ar fi un Instagram secret sau un blog. Dar pentru unii, ele ar putea fi mai degrabă niște zone de înaintare, locuri în care viitorii abuzatori practică brutalitatea din viața reală care urmează să vină. Și, deși oamenii nu trebuie să-și facă griji că roboții nu se răzbună încă, merită să ne întrebăm de ce maltratarea lor este deja atât de răspândită, conform Futurism.

Vom afla în timp – niciuna dintre aceste tehnologii nu dispare și nici cel mai rău comportament uman nu o face.

 

Total
0
Shares
Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Related Posts