Înapoi la știri

„Surrenderul cognitiv” este un termen nou și util pentru modul în care AI-ul ne afectează gândirea

06 Apr 2026
8 minute min
Ion Ionescu
„Surrenderul cognitiv” este un termen nou și util pentru modul în care AI-ul ne afectează gândirea

Kyle Orland de la ArsTechnica a scris un articol pe blog despre termenul „surrender cognitiv” pe 3 aprilie. Poate că ar fi trebuit să-l observ mai devreme, deoarece circulă din ianuarie, când a fost, aparent, inventat în acest context de cercetătorii în marketing de la Wharton Business School, Steven Shaw și Gideon Nave. Lucrarea lor este extrem de îngrijorătoare, iar odată ce citești despre aceste descoperiri, termenul „surrender cognitiv” va rămâne în mintea ta. Dacă creierul tău este prea gelatinos din cauza de a lăsa gândirea pe seama unui chatbot și acum nu poți citi despre aceste descoperiri în detaliu, iată un videoclip cu autorii discutând despre ele:

👉 Descrierea testului și problema răspunsurilor greșite oferite de AI

Ce au făcut Shaw și Nave a fost să ofere 1.372 de persoane un test și acces la un chatbot AI pentru ajutor—cu twist-ul că chatbotul oferă uneori răspunsuri greșite. Testul a fost o versiune „adaptată” a unui test numit Cognitive Reflection Test, ceea ce înseamnă că fiecare întrebare a fost de un tip specific de provocare mentală pe care l-ai mai văzut: „Dacă 5 mașini au nevoie de 5 minute pentru a produce 5 widgeturi, cât timp ar lua 100 de mașini pentru a produce 100 de widgeturi?” Răspunsul este „5 minute”, ceea ce necesită utilizarea raționamentului tău „lent, deliberativ și analitic”, mai degrabă decât „rapid, intuitiv și afectiv”. Intuiția ta rapidă ar putea să-ți fi spus că răspunsul era 100 de minute. Aceste concepte au fost făcute celebre de o carte minunată (chiar dacă imperfectă) numită „Thinking, Fast and Slow” de regretatul Daniel Kahneman.

Publicitate

Rezultatele testului au fost, desigur, înfiorătoare. Deși ar trebui să adaug înainte să continuăm că ar trebui să te informezi despre criza replicării înainte de a lua rezultatele oricărui experiment ca fiind evanghelice. Valabilitatea rezultatelor experimentale, în special în psihologie, a fost pusă uneori sub semnul întrebării în ultimii ani deoarece nu pot fi replicate. Nu că aș fi observat probleme cu munca acestor autori (nu sunt calificat să o fac oricum), ci doar o tendință care merită semnalată.

👉 Influența AI asupra deciziilor și încrederea crescută a utilizatorilor

În orice caz, în partea studiului în care subiecții au fost lăsați să consulte chatbotul, ei au apelat la el aproximativ jumătate din timp. Atunci când acesta oferea răspunsuri corecte, ei le acceptau 93% din timp. Din păcate, când era greșit, ei acceptau răspunsuri 80% din timp. Și ține cont că nu erau obligați să-l folosească deloc. Își lăsau sfaturile greșite să prevaleze asupra propriului creier. Și mai grav, cei care au folosit AI au evaluat încrederea lor cu 11,7% mai mare decât cei care nu l-au folosit, deși răspunsul era greșit.

Autorii scriu că, pe lângă „sistemele” rapide și lente ale cogniției ale lui Kahneman, această nouă crență artificială creează ceea ce ei numesc „Sistem 3”. Descoperirile noastre demonstrează că oamenii integrează cu ușurință rezultatele generate de AI în procesele lor de luare a deciziilor, adesea cu o frecare sau scepticism minim. Această implicare fără sincope cu Sistemul 3 subliniază potențialul său de a îmbunătăți cogniția de zi cu zi prin reducerea efortului cognitiv, accelerarea deciziilor și suplimentarea sau substituirea cogniției interne cu perspective externe, procesate pe baze vaste, alimentate de AI.

Surrenderul cognitiv nu este în mod necesar ceva rău în viziunea lor. Aceasta „ilustrează valoarea și integrarea Sistemului 3, dar scoate în evidență și vulnerabilitatea utilizării acestuia.” Aceasta nu este prima dată când fraza „surrender cognitiv” a existat. Teologul Peter Berger a folosit-o într-un context religios în anii 1990, dar însemna mai degrabă renunțarea la credința în Dumnezeu pentru a allevia disonanța cognitivă.

Și dacă ești ca mine, probabil ai observat că surrenderul cognitiv asistat de AI arată ca forme mai vechi de lene mentală. De exemplu, în sitcomul clasic „Home Improvement”, Tim „The Toolman” Taylor obișnuia să ceară sfaturi vecinului său Wilson în fiecare săptămână atunci când o situație din viața sa nu putea fi rezolvată cu „mai multă putere”. Înțeleptul Wilson enunța o bucată de înțelepciune veche, iar Tim o accepta întotdeauna complet. Dar s-ar putea argumenta că Tim folosea pe Wilson ca un alt „instrument” ce economisește timp (dacă vrei), și că își executa propriul act de surrender cognitiv fără AI. Sfaturile lui Wilson ar putea fi solide, dar când Tim încerca să le repete, le răstălmacea atât de rău încât trezesc frecvent întrebarea dacă a efectuat vreo reflecție cognitivă sau s-a bazat pur și simplu pe sistemul lui rapid și intuitiv, acceptând fără ezitare inteligența lui Wilson.

Poate că în curând, AI ne va transforma într-o societate de Tim Taylors, predându-ne cognitively în fața AI-urilor noastre Wilson. Pot să mă gândesc la soarte mai rea decât aceasta pentru specia noastră.

Alte postari din Economie
Acasa Recente Radio Județe