Inteligjenca artificiale po sjell një rrezik të ri për privatësinë në internet. Fotot që dikur dukeshin të zakonshme dhe të padëmshme, sot mund të zbulojnë shumë më tepër informacion sesa dëshirohet – madje edhe kur përdoruesit kanë ndjekur të gjitha masat e rekomanduara për ruajtjen e privatësisë.
Deri tani, një nga rregullat kryesore ishte që para publikimit të një fotoje, të hiqeshin metatëdhënat (metadata). Por kjo tashmë nuk mjafton.
Si funksionon teknologjia e re?
Mjetet më të reja për analizën e imazheve, si “O3” dhe “O4-mini” nga OpenAI, nuk varen më nga metatëdhënat për të nxjerrë informacion. Ato analizojnë detaje të imëta vizuale – si stilet arkitekturore, tipografia e shkrimeve përreth, forma e ndriçuesve të rrugës, apo elementë të tjerë të mjedisit – për të identifikuar me saktësi vendndodhjen e një fotografie.
Sa e saktë është kjo teknologji?
Në platforma si X, përdoruesit kanë filluar të testojnë këto modele duke ngarkuar lloj-lloj fotosh – disa të zakonshme, të tjera të modifikuara ose të mjegulluara. Inteligjenca artificiale shpesh reagon me një saktësi befasuese.
Për shembull, dikush ngarkoi një foto të errët nga një bar i panjohur, dhe sistemi identifikoi saktësisht për cilin bar bëhej fjalë. E njëjta gjë ndodhi edhe me fotografi të bibliotekave ose parqeve.
Çfarë rreziqesh sjell kjo?
Edhe pse duket argëtuese, pasojat mund të jenë serioze. Lind një mundësi e re për gjurmimin e vendndodhjes që nuk kërkon më aftësi teknike të avancuara. Çdokush që ka qasje në këto mjete mund të përdorë një foto për të zbuluar se ku ndodhet një person.
Mjafton të publikosh një foto të thjeshtë të një filxhani kafeje në një tavolinë të vogël – pa ndonjë shenjë të dukshme, pa fytyra të njohura apo ndonjë tekst ndihmues – dhe inteligjenca artificiale përsëri mund të zbulojë në cilin lokal ke qenë, në cilën lagje dhe në cilin qytet.





