Acasă Noutăţi ChatGPT-4 a trecut testul Turing, susțin cercetătorii. Ce înseamnă acest lucru

ChatGPT-4 a trecut testul Turing, susțin cercetătorii. Ce înseamnă acest lucru

de Ochiul Minţii
37 vizualizări

Majoritatea oamenilor nu au putut distinge ChatGPT de un utilizator uman, ceea ce sugerează că ChatGPT-4 a trecut testul Turing pentru prima dată.

Interacționăm online cu inteligența artificială (IA) nu doar mai mult ca niciodată, ci și mai mult decât ne dăm seama, așa că cercetătorii au cerut oamenilor să converseze cu patru agenți, dintre care unul uman și trei tipuri diferite de modele de IA, pentru a vedea dacă pot face diferența.

„Testul Turing”, propus pentru prima dată ca „jocul imitației” de către informaticianul Alan Turing în anul 1950, judecă dacă capacitatea unei mașini (în sensul de sistem tehnic alcătuit din piese cu mișcări determinate, nu de autoturism) de a demonstra inteligență este imposibil de distins de cea a unui om. Pentru ca o mașină să treacă testul Turing, aceasta trebuie să poată vorbi cu cineva și să îl păcălească să creadă că este un om.

Oamenii de știință au decis să reproducă acest test, cerând unui număr de 500 de persoane să vorbească cu patru respondenți, inclusiv un om și programul de inteligență artificială ELIZA din anii 1960, precum și GPT-3.5 și GPT-4, inteligența artificială care alimentează ChatGPT.[sursa]

ChatGPT-4 a trecut testul Turing
ChatGPT-4 a trecut testul Turing

ChatGPT-4 a trecut testul Turing

Conversațiile au durat cinci minute, după care participanții trebuiau să spună dacă credeau că vorbesc cu un om sau cu un model de IA. În cadrul studiului, publicat pe serverul pre-print arXiv, cercetătorii au constatat că participanții au considerat că GPT-4 este uman în 54% din cazuri, iar ELIZA, un sistem preprogramat cu răspunsuri, dar fără model de limbaj mare (LLM) sau arhitectură de rețea neuronală, a fost considerat uman în doar 22% din cazuri. GPT-3.5 a obținut un scor de 50%, în timp ce participantul uman a obținut un scor de 67%.

„Mașinile pot confabula, amestecând justificări plauzibile ex-post-facto pentru anumite lucruri, așa cum fac și oamenii”, a declarat Nell Watson, cercetător în domeniul IA la Institutul de Inginerie Electrică și Electronică (IEEE).

„Ele pot fi supuse unor prejudecăți cognitive, pot fi păcălite și manipulate și devin din ce în ce mai înșelătoare. Toate aceste elemente înseamnă că slăbiciunile și ciudățeniile asemănătoare celor umane sunt exprimate în sistemele de inteligență artificială, ceea ce le face mai umane decât abordările anterioare, care nu aveau mai mult decât o listă de răspunsuri prestabilite.”, a precizat cercetătoarea.

Studiul, care se bazează pe zeci de ani de încercări de a face ca agenții de inteligență artificială să treacă testul Turing, a reluat preocupările comune conform cărora sistemele de inteligență artificială considerate umane vor avea „consecințe sociale și economice de amploare”.

Oamenii de știință au susținut, de asemenea, că există critici valide cu privire la faptul că testul Turing este prea simplist în abordarea sa, afirmând că „factorii stilistici și socio-emoționali joacă un rol mai important în trecerea testului Turing decât noțiunile tradiționale de inteligență”. Acest lucru sugerează că am căutat inteligența mașinilor în locul greșit.

„Intelectul brut merge doar până la un anumit punct. Ceea ce contează cu adevărat este să fii suficient de inteligent pentru a înțelege o situație, abilitățile celorlalți și să ai empatia necesară pentru a conecta aceste elemente între ele. Capacitățile reprezintă doar o mică parte din valoarea inteligenței artificiale, capacitatea lor de a înțelege valorile, preferințele și limitele celorlalți este, de asemenea, esențială. Aceste calități sunt cele care vor permite IA să servească drept un concierge fidel și de încredere pentru viețile noastre.”, a mai precizat Watson.

Nell Watson a adăugat că studiul reprezintă o provocare pentru viitoarea interacțiune om-mașină și că vom deveni din ce în ce mai paranoici în ceea ce privește adevărata natură a interacțiunilor, în special în chestiuni sensibile. Cercetătoarea a adăugat că studiul evidențiază modul în care IA s-a schimbat în timpul erei GPT.

„ELIZA a fost limitată la răspunsuri în conserve, ceea ce i-a limitat foarte mult capacitățile. Putea păcăli pe cineva timp de cinci minute, dar în curând limitările deveneau evidente. Modelele lingvistice sunt infinit de flexibile, capabile să sintetizeze răspunsuri la o gamă largă de subiecte, să vorbească în anumite limbi sau sociolecturi și să se prezinte cu personalitate și valori bazate pe caracter. Este un pas enorm înainte față de ceva programat manual de o ființă umană, oricât de inteligent și atent ar fi.”, a mai spus Nell Watson.

Sigur o să-ţi placă:

Distribuie şi prietenilor tăi!

Nu ţine informaţiile doar pentru tine. Şi prietenii tăi şi-ar dori să citească asta.
X Închide