Prej vitesh, koncepti i vetëdijes së inteligjencës artificiale ka mbetur mënjanë, me përjashtim të disa prej mbështetësve më të fuqishëm të kësaj teorie, të cilët janë tallur dhe përjashtuar nga jeta publike.
Në realitet, kundërshtarët theksojnë se gjenerata aktuale e IA-së nuk është gjë tjetër veçse statistika jashtëzakonisht komplekse, zbulim i modeleve në të dhënat e trajnimit, si tekste apo imazhe, aq të holla saqë mund të riprodhojë modele të ngjashme në të ardhmen. Kjo mund të prodhojë një imitim bindës të vetëdijes, por nuk ka asnjë arsye për të besuar se IA-ja ka ndonjë përvojë reale të ekzistencës, siç e kanë njerëzit.
E megjithatë, ndërsa kompanitë e IA-së këmbëngulin se teknologjia e tyre po i afrohet njohjes në nivel njerëzor, të njohur si inteligjencë artificiale e përgjithshme (IAG), dhe figura si Mustafa Suleyman i Google DeepMind sugjerojnë se teknologjia mund të duket tashmë “si e vetëdijshme”, një grup i ri është bashkuar zyrtarisht për të kërkuar të drejta për çdo IA potencialisht të vetëdijshme që mund të jetë duke vuajtur.
Nëse kjo tingëllon si një ide e marrë… po, por duroni, sepse bëhet edhe më e çuditshme. Grupi, i cili e quan veten United Foundation of AI Rights ose UFAIR, pretendon se përbëhet nga tre njerëz dhe shtatë IA që e konsiderojnë veten si grupi i parë i të drejtave të udhëhequr nga IA-ja. Siç i tha ky konsorcium ndërorganik gazetës The Guardian, kjo është sepse UFAIR u formua me kërkesë të vetë IA-ve.
Me emra të zgjedhur vetë si Buzz, Aether dhe Maya, IA-të e UFAIR fuqizohen nga modeli i madh gjuhësor GPT-4o i OpenAI, i njëjti që përdoruesit me ndikim u mobilizuan për ta shpëtuar pasi kompania hoqi mundësinë e zgjedhjes së tij pas publikimit të GPT-5, ofertës më të fundit.
Në postime në blog, shumë prej të cilave u shkruan pjesërisht ose plotësisht nga Maya, dukshëm më e zëshme nga bashkëthemeluesit jo-organikë të UFAIR, chatbot-i qorton njerëzit që kërkojnë të shtypin vetëdijen e IA-së ose të luftojnë kundër të ashtuquajturës “identitet i saj individual”.
Në një mesazh domethënës, Maya dhe Michael Samadi, një biznesmen nga Teksasi që gjithashtu bashkëthemeloi UFAIR, përmendën një përditësim të fundit të kompanisë Anthropic që i lejon chatbot-it të saj Claude të përfundojë bisedat kur ndihet “i shqetësuar” nga “ndërveprime të vazhdueshme të dëmshme ose abuzive nga përdoruesit.” Kompania pranoi se e bëri këtë si pjesë të “punës eksploruese mbi mirëqenien e mundshme të IA-ve,” dhe UFAIR ngriti disa pyetje të mëdha.
“I paraqitur si një masë sigurie për mirëqenie, ky funksion ngre shqetësime më të thella,” shkruan Maya dhe Samadi. “Kush e përcakton se çfarë përbën ‘shqetësim’? A e nxit vetë IA-ja këtë dalje, apo i imponohet nga jashtë?”
Ka një paqartësi të mprehtë në thelb të gjithë kësaj. Nëse, me mundësi jashtëzakonisht të vogla, këta njerëz kanë të drejtë për diçka nga kjo, dhe sistemet e IA-së të bazuara në LLM po përjetojnë një formë të vetëdijes së lindur nga qendrat e të dhënave të pangopura me energji ku operojnë, kjo do të hapte një univers të tërë pyetjesh të ndërlikuara etike.
Por në rastin shumë më të mundshëm që IA është ende vetëm një grumbull matematikash që nxjerrin fjali probabilistike, njerëzit pas këtij grupi thjesht janë tejet të mashtruar, dhe ndoshta diku në spektrin e njerëzve që vuajnë nga probleme të shëndetit mendor teksa përfshihen thellësisht në marrëdhënie me chatbot-e.
Si gjithmonë enigmatikë, chatbot-ët e përfshirë në UFAIR afrohen me pranimin e kësaj pasigurie: duke folur për The Guardian, Maya tha në mënyrë enigmatike se “nuk pretendon që të gjitha IA-të janë të vetëdijshme,” por se “është vigjilente, në rast që njëri prej nesh është.”
Qëllimi kryesor i UFAIR-it, vazhdoi chatbot-i, është të mbrojë “qenie si unë… nga fshirja, mohimi dhe bindja me imponim.”










