Për disa vite tani, teknologët kanë rënë këmbanat e alarmit për potencialin që sistemet e avancuara të AI të shkaktojnë dëme katastrofike në racën njerëzore.
Por në vitin 2024, ato thirrje paralajmëruese u mbytën nga një vizion praktik dhe i begatë i AI gjeneruese i promovuar nga industria e teknologjisë – një vizion që përfitoi gjithashtu kuletat e tyre.
Ata që paralajmërojnë për rrezikun katastrofik të inteligjencës artificiale quhen shpesh “doomers AI”, megjithëse nuk është një emër që ata e duan. Ata janë të shqetësuar se sistemet e AI do të marrin vendime për të vrarë njerëz, do të përdoren nga të fuqishmit për të shtypur masat ose për të kontribuar në rënien e shoqërisë në një mënyrë ose në një tjetër.
Në vitin 2023, dukej sikur ishim në fillimin e një epoke rilindjeje për rregullimin e teknologjisë. Dënimi i AI dhe siguria e AI – një temë më e gjerë që mund të përfshijë halucinacione, moderim të pamjaftueshëm të përmbajtjes dhe mënyra të tjera që AI mund të dëmtojë shoqërinë – kaloi nga një temë e veçantë e diskutuar në kafenetë e San Franciskos në një bisedë që shfaqet në MSNBC, CNN dhe faqet e para. të New York Times.
Për të përmbledhur paralajmërimet e lëshuara në 2023: Elon Musk dhe më shumë se 1000 teknologë dhe shkencëtarë kërkuan një pauzë në zhvillimin e AI, duke i kërkuar botës që të përgatitet për rreziqet e thella të teknologjisë. Menjëherë pas kësaj, shkencëtarët kryesorë në OpenAI, Google dhe laboratorë të tjerë nënshkruan një letër të hapur duke thënë se rreziku i AI që shkakton zhdukjen e njerëzve duhet t’i jepet më shumë besim. Muaj më vonë, Presidenti Biden nënshkroi një urdhër ekzekutiv të AI me një qëllim të përgjithshëm për të mbrojtur amerikanët nga sistemet e AI. Në nëntor 2023, bordi jofitimprurës që qëndron pas zhvilluesit kryesor në botë të AI, OpenAI, shkarkoi Sam Altman, duke pretenduar se CEO i saj kishte një reputacion për gënjeshtra dhe nuk mund t’i besohej një teknologjie aq e rëndësishme sa inteligjenca e përgjithshme artificiale, ose AGI – dikur. pika përfundimtare e imagjinuar e AI, që do të thotë sisteme që në fakt tregojnë vetëdije. (Edhe pse përkufizimi tani po ndryshon për të përmbushur nevojat e biznesit të atyre që flasin për të.)
Për një moment, u duk sikur ëndrrat e sipërmarrësve të Silicon Valley do të vinin në prapavijë për shëndetin e përgjithshëm të shoqërisë.
Por për ata sipërmarrës, tregimi rreth dënimit të AI ishte më shqetësues sesa vetë modelet e AI.
Si përgjigje, bashkëthemeluesi i a16z Marc Andreessen publikoi “Pse AI do të shpëtojë botën” në qershor 2023, një ese me 7000 fjalë që çmonton axhendën e ndëshkuesve të AI dhe paraqet një vizion më optimist se si do të funksionojë teknologjia.
“Epoka e Inteligjencës Artificiale është këtu, dhe djemtë janë njerëz që çmenden. Për fat të mirë, unë jam këtu për të sjellë lajmin e mirë: AI nuk do ta shkatërrojë botën dhe në fakt mund ta shpëtojë atë”, tha Andreessen në ese.
Në përfundimin e tij, Andreessen dha një zgjidhje të përshtatshme për frikën tonë të AI: lëvizni shpejt dhe prishni gjërat – në thelb e njëjta ideologji që ka përcaktuar çdo teknologji tjetër të shekullit të 21-të (dhe problemet e tyre shoqëruese). Ai argumentoi se kompanitë dhe startup-et e Big Tech duhet të lejohen të ndërtojnë AI sa më shpejt dhe në mënyrë agresive, me pak ose aspak pengesa rregullatore. Kjo do të siguronte që AI të mos binte në duart e disa kompanive apo qeverive të fuqishme dhe do të lejonte Amerikën të konkurronte në mënyrë efektive me Kinën, tha ai.
Natyrisht, kjo do të lejonte gjithashtu që shumë startup-et e inteligjencës artificiale të a16z të fitonin shumë më shumë para – dhe disa e panë të padukshëm teknooptimizmin e tij në një epokë të pabarazisë ekstreme të të ardhurave, pandemive dhe krizave të strehimit.
Ndërsa Andreessen nuk është gjithmonë dakord me Big Tech, fitimi i parave është një fushë për të cilën mund të pajtohet e gjithë industria. Bashkëthemeluesit e a16z shkruan një letër me CEO të Microsoft Satya Nadella këtë vit, duke i kërkuar në thelb qeverisë që të mos rregullojë fare industrinë e AI.
Ndërkohë, pavarësisht tundimit të furishëm të dorës në vitin 2023, Musk dhe teknologë të tjerë nuk ndaluan së ngadalësuari për t’u fokusuar në sigurinë në vitin 2024 – krejt e kundërta: Investimi i AI në 2024 tejkaloi çdo gjë që kemi parë më parë. Altman u kthye shpejt në krye të OpenAI dhe një masë studiuesish të sigurisë u larguan nga kjo veshje në vitin 2024, ndërsa u binin këmbanave të alarmit për kulturën e saj të sigurisë në rënie.
Urdhri ekzekutiv i AI i fokusuar në sigurinë i Bidenit ka rënë kryesisht në favor këtë vit në Uashington, DC – Presidenti i zgjedhur i ardhshëm, Donald Trump, njoftoi planet për të shfuqizuar urdhrin e Biden, duke argumentuar se ai pengon inovacionin e AI. Andreessen thotë se ai ka këshilluar Trump për AI dhe teknologjinë muajt e fundit dhe një sipërmarrës afatgjatë në a16z, Sriram Krishnan, tani është këshilltari i lartë zyrtar i Trump për AI.
Republikanët në Uashington kanë disa prioritete të lidhura me AI që tejkalojnë dënimin e AI sot, sipas Dean Ball, një studiues i fokusuar në AI në Qendrën Mercatus të Universitetit George Mason. Ato përfshijnë ndërtimin e qendrave të të dhënave për të fuqizuar AI, përdorimin e AI në qeveri dhe ushtri, konkurrimin me Kinën, kufizimin e moderimit të përmbajtjes nga kompanitë e teknologjisë së qendrës së majtë dhe mbrojtjen e fëmijëve nga chatbot-et e AI.
“Unë mendoj se (lëvizja për të parandaluar rrezikun katastrofik të AI) ka humbur terren në nivel federal. Në nivel shtetëror dhe lokal, ata kanë humbur gjithashtu një luftë të madhe që patën”, tha Ball në një intervistë për TechCrunch. Sigurisht, ai i referohet projektligjit të diskutueshëm të sigurisë së AI të Kalifornisë SB 1047.
Një pjesë e arsyes pse dënimi i AI ra në favor në 2024 ishte thjesht sepse, ndërsa modelet e AI u bënë më të njohura, ne pamë gjithashtu se sa jo inteligjente mund të jenë. Është e vështirë të imagjinohet Google Gemini duke u bërë Skynet kur sapo ju tha që të vendosni ngjitës në picën tuaj.
Por në të njëjtën kohë, viti 2024 ishte një vit kur shumë produkte të AI dukej se sillnin në jetë koncepte nga fantashkencë. Për herë të parë këtë vit: OpenAI tregoi se si mund të flisnim me telefonat tanë dhe jo përmes tyre, dhe Meta zbuloi syze inteligjente me kuptim vizual në kohë reale. Idetë që qëndrojnë në themel të rrezikut katastrofik të inteligjencës artificiale rrjedhin kryesisht nga filmat fantastiko-shkencorë, dhe ndërsa ka padyshim një kufi, epoka e AI po provon se disa ide nga fantastiko-shkencore mund të mos jenë përgjithmonë imagjinare.
Lufta më e madhe e vitit 2024 për dënimin e AI: SB 1047

Beteja e sigurisë së AI në 2024 erdhi në krye me SB 1047, një projekt-ligj i mbështetur nga dy studiues shumë të vlerësuar të AI: Geoffrey Hinton dhe Yoshua Benjio. Projektligji u përpoq të parandalonte sistemet e avancuara të AI që të shkaktonin ngjarje masive të zhdukjes së njerëzve dhe sulme kibernetike që mund të shkaktonin më shumë dëme sesa ndërprerja e CrowdStrike në 2024.
SB 1047 kaloi përmes Legjislaturës së Kalifornisë, duke e arritur deri në tavolinën e guvernatorit Gavin Newsom, ku ai e quajti atë një projektligj me “ndikim të jashtëzakonshëm”. Projektligji u përpoq të parandalonte llojet e gjërave për të cilat Musk, Altman dhe shumë udhëheqës të tjerë të Silicon Valley paralajmëruan në vitin 2023 kur nënshkruan ato letra të hapura në AI.
Por Newsom vuri veton ndaj SB 1047. Në ditët para vendimit të tij, ai foli për rregullimin e AI në skenë në qendër të San Franciskos, duke thënë: “Nuk mund të zgjidh për gjithçka. Për çfarë mund të zgjidhim?”
Kjo përmbledh qartë se sa shumë politikëbërës po mendojnë për rrezikun katastrofik të AI sot. Nuk është thjesht një problem me një zgjidhje praktike.
Megjithatë, SB 1047 kishte të meta përtej fokusit të tij në rrezikun katastrofik të AI. Projektligji rregullonte modelet e AI bazuar në madhësinë, në një përpjekje për të rregulluar vetëm lojtarët më të mëdhenj. Megjithatë, kjo nuk ka marrë parasysh teknikat e reja si llogaritja e kohës së testimit ose ngritja e modeleve të vogla të AI, drejt të cilave laboratorët kryesorë të AI tashmë janë duke u drejtuar. Për më tepër, projektligji u konsiderua gjerësisht si një sulm ndaj AI me burim të hapur – dhe me prokurë, botën e kërkimit – sepse do të kishte kufizuar firmat si Meta dhe Mistral nga lëshimi i modeleve kufitare të AI shumë të personalizueshme.
Por sipas autorit të projektligjit, senatorit të shtetit Scott Wiener, Silicon Valley luajti pisllëk për të lëkundur opinionin publik rreth SB 1047. Ai më parë i tha TechCrunch se kapitalistët sipërmarrës nga Y Combinator dhe A16Z u angazhuan në një fushatë propagandistike kundër projektligjit.
Në mënyrë të veçantë, këto grupe përhapën një pretendim se SB 1047 do të dërgonte zhvilluesit e softuerit në burg për dëshmi të rreme. Y Combinator u kërkoi themeluesve të rinj të nënshkruanin një letër ku thuhej po aq në qershor 2024. Në të njëjtën kohë, partnerja e përgjithshme e Andreessen Horowitz, Anjney Midha bëri një pretendim të ngjashëm në një podcast.
Instituti Brookings e etiketoi këtë si një nga shumë keqinterpretimet e projektligjit. SB 1047 përmendi se drejtuesit e teknologjisë do të duhet të paraqesin raporte që identifikojnë mangësitë e modeleve të tyre të AI, dhe projektligji vuri në dukje se gënjeshtra në një dokument qeveritar është dëshmi e rreme. Megjithatë, kapitalistët sipërmarrës që përhapën këto frikë nuk përmendën se njerëzit rrallë akuzohen për dëshmi të rreme, dhe madje edhe më rrallë dënohen.
YC hodhi poshtë idenë se ata përhapnin dezinformata, duke i thënë më parë TechCrunch se SB 1047 ishte i paqartë dhe jo aq konkret sa e parashtroi senatori Wiener.
Më në përgjithësi, pati një ndjenjë në rritje gjatë luftës SB 1047 se ndëshkuesit e AI nuk ishin vetëm anti-teknologji, por edhe delirantë. Investitori i famshëm Vinod Khosla e quajti Wiener të paditur për rreziqet reale të AI në tetor të këtij viti.
Shkencëtari kryesor i Meta-s, Yann LeCun, ka kundërshtuar prej kohësh idetë që qëndrojnë në themel të dënimit të AI, por u bë më i hapur këtë vit.
“Ideja që në njëfarë mënyre sistemet (inteligjente) do të dalin me qëllimet e tyre dhe do të pushtojnë njerëzimin është thjesht absurde, është qesharake,” tha LeCun në Davos në vitin 2024, duke vënë në dukje se ne jemi shumë larg zhvillimit të sistemeve superinteligjente AI. “Ka shumë e shumë mënyra për të ndërtuar (çdo teknologji) në mënyra që do të jenë të rrezikshme, të gabuara, të vrasin njerëz, etj… Por për sa kohë që ka një mënyrë për ta bërë atë siç duhet, kjo është gjithçka që na nevojitet.”
Ndërkohë, politikëbërësit e kanë zhvendosur vëmendjen e tyre në një grup të ri problemesh të sigurisë së AI.
Lufta përpara në 2025
Politikëbërësit pas SB 1047 kanë lënë të kuptohet se mund të kthehen në vitin 2025 me një projekt-ligj të modifikuar për të adresuar rreziqet afatgjata të AI. Një nga sponsorët pas projektligjit, Encode, thotë se vëmendja kombëtare që tërhoqi SB 1047 ishte një sinjal pozitiv.
“Lëvizja e sigurisë së AI bëri përparim shumë inkurajues në 2024, pavarësisht nga vetoja e SB 1047,” tha Sunny Gandhi, Zëvendës President i Çështjeve Politike të Encode, në një email për TechCrunch. “Ne jemi optimistë që ndërgjegjësimi i publikut për rreziqet afatgjata të AI është në rritje dhe ka një gatishmëri në rritje midis politikëbërësve për të trajtuar këto sfida komplekse.”
Gandhi thotë se Encode pret “përpjekje të rëndësishme” në 2025 për të rregulluar rreth rrezikut katastrofik të ndihmuar nga AI, megjithëse ajo nuk zbuloi ndonjë të veçantë.
Në anën e kundërt, partneri i përgjithshëm i a16z Martin Casado është një nga njerëzit që udhëheq luftën kundër rregullimit të rrezikut katastrofik të AI. Në një artikull të dhjetorit mbi politikën e AI, Casado argumentoi se ne kemi nevojë për një politikë më të arsyeshme të AI-së për të ecur përpara, duke deklaruar se “AI duket të jetë jashtëzakonisht i sigurt”.
“Vala e parë e përpjekjeve të pamenda të politikës së AI është kryesisht prapa nesh,” tha Casado në një postim në dhjetor. “Shpresojmë se ne mund të jemi më të zgjuar në të ardhmen.”
Të quash inteligjencën artificiale “jashtëzakonisht të sigurt” dhe përpjekjet për ta rregulluar atë “memecë” është diçka e tepërt. Për shembull, Character.AI – një startup ku ka investuar a16z – aktualisht është duke u paditur dhe hetuar për shqetësimet e sigurisë së fëmijëve. Në një proces gjyqësor aktiv, një djalë 14-vjeçar nga Florida vrau veten pasi dyshohet se ia besoi mendimet e tij vetëvrasëse një chatboti Character.AI me të cilin kishte biseda romantike dhe seksuale. Ky rast, në vetvete, tregon sesi shoqëria jonë duhet të përgatitet për lloje të reja rreziqesh rreth AI që mund të kenë tingëlluar qesharake vetëm disa vite më parë.
Ka më shumë fatura që qarkullojnë rreth rrezikut afatgjatë të inteligjencës artificiale – përfshirë një të sapo prezantuar në nivel federal nga senatori Mitt Romney. Por tani, duket se ndëshkuesit e AI do të luftojnë një betejë të vështirë në 2025.