Etika e paplotësisë

636
fresco

Shumëkush shpreson se inteligjenca artificiale (IA) do të zbulojë të vërtetat etike. Por, siç tregon Gödel, përcaktimi i asaj që është e drejtë do të mbetet gjithmonë barra jonë.

Paramendojeni botën ku inteligjencës artificiale i besohet përgjegjësia më e lartë morale: dënimi i kriminelëve, shpërndarja e burimeve mjekësore, madje edhe ndërmjetësimi i konflikteve midis kombeve. Mund të duket si kulmi i përparimit njerëzor: një entitet i pandikuar nga emocionet, paragjykimet apo paqëndrueshmëria, merr vendime etike me një saktësi të përsosur. Ndryshe nga gjyqtarët apo politikanët njerëzorë, makina nuk ndikohet nga interesat personale apo gabimet në arsyetim. Ajo nuk gënjen. Nuk pranon ryshfete apo lutje. Nuk vajton për vendime të vështira.

Por, nën këtë vizion të një arbitri të idealizuar moral, qëndron një pyetje themelore: a mund të kuptojë makina moralin ashtu siç e kuptojnë njerëzit, apo është e kufizuar në silmulakrën e arsyetimit etik? Inteligjenca artificiale mund të përsërisë vendimet njerëzore pa i përmirësuar ato, duke bartur të njëjtat paragjykime, të meta dhe shtrembërime kulturore që gjenden në gjykimin moral njerëzor. Në përpjekjen për të na imituar, ajo mund të riprodhojë vetëm kufizimet tona, pa i kapërcyer ato. Por, ekziston një shqetësim edhe më i thellë. Gjykimi moral mbështetet në intuitë, ndërgjegjësim historik dhe kontekst – cilësi që i rezistojnë formalizmit. Etika mund të jetë aq e rrënjosur në përvojën e jetuar, saqë çdo përpjekje për ta koduar atë në struktura formale rrezikon të zhveshë tiparet e saj më thelbësore. Nëse është kështu, atëherë inteligjenca artificiale jo vetëm që do të pasqyronte mangësitë njerëzore; ajo do ta zhveshte moralin pikërisht nga thellësia që në radhë të parë e bën të mundur reflektimin etik.

Megjithatë, shumëkush ka tentuar të formalizojë etikën, duke trajtuar disa pohime morale – jo si përfundime, por si pikënisje. Një shembull klasik vjen nga utilitarizmi, i cili shpesh e merr si aksiomë themelore parimin se duhet vepruar për të maksimizuar mirëqenien e përgjithshme. Nga ky parim, mund të nxirren parime më të veçanta, për shembull se është e drejtë të përfitojë numri më i madh i njerëzve, ose se veprimet duhet të gjykohen në bazë të pasojave që kanë për lumturinë e përgjithshme. Me rritjen e kapaciteteve kompjuterike, inteligjenca artificiale po bëhet gjithnjë e më e përshtatshme për detyrën për të filluar nga supozimi i fiksuar etik dhe te analizimi i pasojave të tyre në situata të ndërlikuara.

Por, çfarë do të thotë, saktësisht, të formalizosh diçka si etika? Kjo pyetje kuptohet më lehtë duke analizuar fushat ku sistemet formale prej kohësh kanë luajtur një rol qendror. Fizika, për shembull, është mbështetur për shekuj të tërë në formalizëm. Nuk ekziston një teori e vetme fizike që shpjegon gjithçka. Në vend të kësaj, kemi shumë teori fizike, secila e projektuar për të përshkruar aspekte të veçanta të universit: nga sjellja e kuarkeve dhe elektroneve e deri te lëvizja e galaktikave. Këto teori shpesh ndryshojnë nga njëra-tjetra. Fizika aristoteliane, për shembull, shpjegonte rënien e trupave në termat e lëvizjes natyrore drejt qendrës së Tokës; mekanika njutoniane e zëvendësoi këtë me forcën universale të gravitetit. Këto shpjegime nuk janë thjesht të ndryshme; ato janë të papajtueshme. Megjithatë, të dyja kanë një strukturë të përbashkët: ato fillojnë me postulatet bazike – supozime për lëvizjen, forcën ose masën – dhe prej tyre nxjerrin pasoja gjithnjë e më komplekse. Ligjet e lëvizjes të Isaac Newtonit dhe ekuacionet e James Clerk Maxwellit janë shembuj klasikë: formulime të përmbledhura dhe elegante, prej të cilave mund të deduktohen parashikimet e gjera mbi botën fizike.

Teoritë etike kanë një strukturë të ngjashme. Ashtu si teoritë fizike, ato përpiqen të përshkruajnë një fushë – në këtë rast, peizazhin moral. Ato synojnë të japin përgjigje ndaj pyetjeve se cilat veprime janë të drejta apo të gabuara dhe pse. Edhe këto teori ndryshojnë ndërmjet vete dhe, edhe kur rekomandojnë veprime të ngjashme – si për shembull dhuratat për bamirësi – ato i justifikojnë ato në mënyra të ndryshme. Teoritë etike gjithashtu shpeshherë nisin nga një grup i vogël parimesh apo pohimesh themelore nga të cilat ndërtojnë arsyetime për problemet më të ndërlikuara morale. Një konsekuencialist fillon nga ideja se veprimet duhet të maksimizojnë mirëqenien; një deontolog nis nga ideja se veprimet duhet të respektojnë detyrimet apo të drejtat. Këto angazhime themelore funksionojnë në mënyrë të ngjashme me postulatet në fizikë: ato përcaktojnë strukturën e arsyetimit moral brenda çdo teorie etike.

Ashtu siç përdoret IA-ja në fizikë për të funksionuar brenda teorive ekzistuese – për shembull, për të optimizuar dizajnin e eksperimenteve apo për të parashikuar sjelljen e sistemeve të ndërlikuara – ajo mund të përdoret edhe në etikë për të zgjeruar arsyetimin moral brenda një kornize të caktuar. Në fizikë, IA-ja zakonisht operon brenda modeleve të pranuara dhe jo duke propozuar ligje të reja fizike apo një kuadër të ri konceptual. Ajo mund të llogarisë se si bashkëveprojnë disa forca dhe t; parashikojë efektin e tyre të përbashkët mbi një sistem fizik. Po ashtu, në etikë, IA-ja nuk gjeneron parime të reja morale, por zbaton ato ekzistueset në situata të reja dhe shpeshherë të ndërlikuara. Mund t’i peshojë vlera konkurruese – drejtësia, minimizimi i dëmit, barazia – dhe të vlerësojë pasojat e tyre të kombinuara për të përcaktuar se cili veprim është moralisht më i drejtë. Rezultati nuk është një sistem i ri moral, por një zbatim më i thellë i një sistemi ekzistues i formësuar nga i njëjti lloj arsyetimi formal që qëndron në themel të modelimit shkencor. Por, a ka një kufi të brendshëm për atë që IA-ja mund të dijë mbi moralin? A mund të ketë propozime të vërteta etike të cilat asnjë makinë, sado e avancuar, nuk do të mund t’i vërtetojë ndonjëherë?

Këto pyetje pasqyrojnë një zbulim themelor në logjikën matematikore – ndoshta depërtimin më themelor të vërtetuar ndonjëherë: teoremat e paplotësisë së Kurt Gödelit. Ato tregojnë se çdo sistem logjik – që është mjaftueshëm i fuqishëm për të përshkruar aritmetikën – është ose i pasaktë ose i paplotë. Në këtë ese, unë argumentoj se ky kufizim, megjithëse me origjinë matematikore, ka pasoja të thella për etikën dhe për mënyrën se si ne i projektojmë sistemet IA-së që arsyetojnë në aspektin moral.

Supozoni se po projektojmë një sistem të IA-së për të modeluar marrjen e vendimeve morale. Ashtu si sistemet e tjera të IA-së – qofshin ato që parashikojnë çmimet e aksioneve, të orientojnë në rrugë apo përzgjedhin përmbajtje – do të programohej për të maksimizuar disa objektiva të përcaktuara më parë. Për ta bërë këtë, duhet të mbështetet në logjikë formale, kompjuterike: ose në arsyetim deduktiv, i cili i nxjerr përfundimet nga rregullat dhe aksiomat fikse, ose në arsyetim probabilistik që vlerëson gjasat bazuar në modelet e nxjerra nga të dhënat. Në të dy rastet, IA-ja duhet të adoptojë një strukturë matematikore për vlerësimin moral. Por, teoremat e paplotësisë të Gödelit zbulojnë një kufizim themelor. Gödeli tregoi se çdo sistem formal që është mjaftueshëm i fuqishëm për të shprehur aritmetikën – si numrat natyrorë dhe veprimet mbi ta – nuk mund të jetë njëkohësisht i plotë dhe i qëndrueshëm. Nëse një sistem i tillë është i qëndrueshëm, gjithmonë do të ketë pohime të vërteta të cilat ai nuk mund t’i vërtetojë. Në veçanti, kur kjo aplikohet në IA, sugjeron se çdo sistem që është në gjendje të kryejë një arsyetim të pasur moral, në mënyrë të pashmangshme do të ketë “të meta morale”: të vërteta etike të cilat nuk do të mund t’i nxjerrë logjikisht. Këtu, “e vërteta” i referohet së vërtetës në kuptimin standard të aritmetikës – për shembull, pohimit se “2 + 2 = 4” që është i vërtetë sipas rregullave të zakonshme matematikore. Nëse sistemi është i paqëndrueshëm, atëherë ai do të mund të vërtetojë gjithçka, përfshirë edhe kundërshtitë, çka do ta bënte të pavlefshëm si udhërrëfyes për vendime etike.

Teoremat e paplotësisë të Gödelit nuk zbatohen vetëm për IA-në, por për çdo lloj arsyetimi etik të strukturuar brenda një sistemi formal. Dallimi kyç qëndron në faktin se njerëzit, të paktën në parim, mund t’i rishikojnë supozimet e veta, të adoptojnë parime të reja dhe të rimendojnë vetë kuadrin teorik. IA-ja, për dallim, mbetet e kufizuar brenda strukturave formale që i janë dhënë, ose operon brenda atyre që mund t’i ndryshojë vetëm sipas kufizimeve të paracaktuara. Në këtë mënyrë, teoremat e Gödelit vendosin një kufi logjik për atë që IA-ja, nëse ndërtohet mbi sisteme formale, mund të vërtetojë ose të konfirmojë plotësisht për moralin brenda atyre sistemeve.

Shumica prej nesh është njohur për herë të parë me aksiomat në shkollë, zakonisht përmes gjeometrisë. Një shembull i famshëm është postulati i paraleleve, i cili thotë se nëse zgjedh një pikë jashtë një vije, mund të vizatosh saktësisht një vijë tjetër përmes asaj pike që është paralele me vijën origjinale. Për më shumë se 2000 vjet, kjo është konsideruar si një e vërtetë e vetëkuptueshme. Por, në shekullin XIX, matematikanët si Carl Friedrich Gauss, Nikolai Lobachevsky dhe János Bolyai treguan se është e mundur të ndërtosh gjeometri të brendshme të qëndrueshme në të cilat postulati i paraleleve nuk vlen. Në disa nga këto gjeometri, nuk ekzistojnë fare vijat paralele; në disa të tjera ekzistojnë pafundësisht shumë. Këto gjeometri joeuklidiane e tronditën besimin se aksiomat e Euklidit përshkruanin në mënyrë unike hapësirën.

Ky zbulim ngjalli një shqetësim më të thellë: Nëse mund të hidhej poshtë postulati i paraleleve që për një kohë të gjatë u konsiderua i nënkuptueshëm, çfarë ndodh me aksiomat e aritmetikës të cilat përcaktojnë numrat natyrorë dhe veprimet e mbledhjes dhe të shumëzimit? Me çfarë baze mund të besojmë se ato janë të lira nga kundërthëniet e fshehura? Megjithatë, bashkë me këtë sfidë erdhi edhe një premtim. Nëse do të mund të vërtetohej që aksiomat e aritmetikës janë të qëndrueshme, atëherë mund të zgjerohej sistemi për të zhvilluar një grup aksiomash më të pasura që përcaktojnë numrat e plotë, racionalë, realë, kompleksë dhe më tej. Siç e shprehu matematikani i shekullit XIX, Leopold Kronecker: “Zoti krijoi numrat natyrorë; gjithçka tjetër është vepër e njeriut”. Vërtetimi i qëndrueshmërisë së aritmetikës do të thoshte vërtetim i qëndrueshmërisë së shumë fushave të rëndësishme të matematikës.

Metodën për vërtetimin e qëndrueshmërisë së aritmetikës e propozoi matematikani David Hilbert. Qasja e tij përfshinte dy hapa. Së pari, Hilberti argumentoi se për të vërtetuar qëndrueshmërinë e një sistemi formal, duhet të jetë e mundur të formulohet, brenda gjuhës simbolike të vetë sistemit, një pohim ekuivalent me “Ky sistem është i qëndrueshëm” dhe pastaj të vërtetohet ky pohim duke përdorur vetëm rregullat e arsyetimit të vetë sistemit. Prova nuk duhet të mbështetet në asgjë jashtë sistemit – madje as në “nënkuptimin” e supozuar të aksiomave të tij. Së dyti, Hilberti mbështeti argumentimin e aritmetikës në diçka edhe më bazike. Këtë detyrë e ndërmorën Bertrand Russell dhe Alfred North Whitehead në veprën e tyre monumentale Principia Mathematica (1910-1913). Duke punuar në fushën e logjikës simbolike – një fushë që nuk merret me numra, por me propozime abstrakte si “nëse x, atëherë y” – ata treguan se aksiomat e aritmetikës mund të nxirreshin si teorema nga një grup më i vogël aksiomash logjike. Kjo la vetëm një sfidë përfundimtare: a mundet që grupi i aksiomave të logjikës simbolike, mbi të cilin ndërtohet aritmetika, të vërtetojë qëndrueshmërinë e vet? Nëse do të ishte e mundur, ëndrra e Hilbertit do të përmbushej. Ky ishte aspirimi kryesor i matematikës në fillim të shekullit XX.

Pikërisht në këtë klimë optimizmi, Kurt Gödel, një logjicien i ri austriak, solli një rezultat që do ta shkatërronte vizionin e Hilbertit. Në vitin 1931, Gödeli publikoi teoremat e tij të paplotësisë, duke treguar se është e pamundur vetë ideja e një sistemi matematikor plotësisht të vetëmjaftueshëm. Më saktësisht, Gödeli tregoi se nëse një sistem formal përmbush disa kushte, ai do të përmbajë pohime të vërteta të cilat nuk mund t’i vërtetojë. Ai duhet të jetë mjaftueshëm kompleks për të shprehur aritmetikën, të përfshijë parimin e induksionit (i cili lejon që të provohen pohime të përgjithshme duke treguar se vlejnë për një rast bazik dhe në çdo hap pasues), të jetë i qëndrueshëm dhe të ketë një grup aksiomash të përcaktuara (që do të thotë se është e mundur të përcaktohet për çdo pohim nëse është aksiomë apo jo). Çdo sistem që përmbush këto kushte, si grupi i aksiomave logjike të zhvilluara nga Russell dhe Whitehead në Principia Mathematica, do të jetë domosdo i paplotë: gjithmonë do të ketë pohime që janë të shprehshme brenda sistemit, por të paverifikueshme prej aksiomave të tij. Akoma më interesant, Gödeli tregoi se një sistem i tillë mund të shprehë, por nuk mund të vërtetojë pohimin se vetë ai është i qëndrueshëm.

Prova e Gödelit, të cilën e thjeshtoj këtu, mbështetet në dy ide kryesore që burojnë nga aritmetizimi i sintaksës – një ide tepër e fuqishme që lidhet me shoqërimin e çdo fjalie të një sistemi formal me një numër të caktuar natyror të njohur si numri i Gödelit. Së pari, çdo sistem mjaftueshëm i ndërlikuar për të shprehur aritmetikën dhe induksionin, duhet të lejojë formula me variabla të lira, pra formula si S(x): “x = 10”, vlera e së cilës varet nga vlera që merr x. S(x) është e vërtetë kur x është realisht 10, dhe e pavërtetë në çdo rast tjetër. Meqë çdo pohim në sistem ka një numër unik të Gödelit, G(S), një formulë mund t’i referohet numrit të vet të Gödelit. Më saktësisht, sistemi mund të formulojë pohime të tilla si S(G(S)): “G(S) = 10”, vërtetësia e të cilit varet nga fakti nëse numri i Gödelit i S(x)-it është ose nuk është i barabartë me 10. Së dyti, në çdo sistem logjik, një provë e një formule S ka një strukturë të caktuar: ajo fillon me aksioma, aplikon rregulla për të nxjerrë formula të reja nga ato aksioma, dhe në fund nxjerr vetë formulën S. Ashtu siç çdo formulë S ka një numër të Gödelit, G(S), edhe çdo prove S i caktohet një numër i Gödelit duke trajtuar gjithë sekuencën e formulave në provë si një formulë të vetme të gjatë. Kështu mund të përkufizohet një marrëdhënie prove, P(x, y), ku P(x, y) vlen vetëm nëse x është numri i Gödelit i një prove të S-së, dhe y është numri i Gödelit i vetë S-së. Pohimi se – s-ja kodon një provë të S-së bëhet kështu një deklaratë brenda sistemit, pra P(x, y).

Së treti, duke u mbështetur mbi këto ide, Gödeli tregoi se çdo sistem formal që mund të shprehë aritmetikën dhe parimin e induksionit, është në gjendje të formulojë pohime për vetë provat e veta. Për shembull, sistemi mund të shprehë pohime të tilla si: “nuk ka asnjë n që të jetë numri i Gödelit i një prove të formulës S”. Me fjalë të tjera, sistemi mund të deklarojë se një formulë e caktuar S është e paprovuar brenda sistemit. Së katërti, Gödeli ndërtoi në mënyrë brilante një formulë vetëreferuese, P, e cila pohon: “Nuk ekziston ndonjë numër n që të jetë numër i Gödelit i një prove të formulës P”. Pra, P pohon për vetveten: “P nuk është i provueshëm”. Në këtë mënyrë, P është një deklaratë formale që shpreh vetë paprovueshmërinë e vet brenda sistemit.

Pasojat janë të menjëhershme: nëse formula P do të ishte e provueshme brenda sistemit, atëherë ajo do të ishte e pavërtetë sepse ajo pohon se nuk ka provë për të. Kjo do të nënkuptonte që sistemi vërteton një të pavërtetë, gjë që e bën atë të paqëndrueshëm. Prandaj, nëse sistemi është i qëndrueshëm, atëherë P nuk mund të provohet, që do të thotë se P është me të vërtetë i paprovueshëm.

Nga kjo rrjedh menjëherë se nëse formula P do të ishte e provueshme brenda sistemit, atëherë ajo do të ishte e pavërtetë, sepse ajo pohon se nuk ka provë. Kjo do të nënkuptonte që sistemi vërteton një të pavërtetë dhe, si rrjedhojë, është i paqëndrueshëm. Prandaj, nëse sistemi është i qëndrueshëm, atëherë P nuk mund të provohet dhe, për pasojë, P është vërtet i paprovueshëm. Kjo na çon në përfundimin se në çdo sistem të qëndrueshëm formal, që është mjaftueshëm i pasur për të shprehur aritmetikën dhe induksionin, do të ekzistojnë gjithmonë pohime të vërteta, por të paprovueshme – më e rëndësishmja nga të cilat është vetë pohimi i sistemit për qëndrueshmërinë.

Pasojat e teoremave të Gödelit ishin njëherësh të thella dhe shqetësuese. Ato shkatërruan shpresën e Hilbertit se matematika mund të reduktohej në një sistem të plotë, mekanik, të nxjerrjes së përfundimeve, dhe të ekspozojë kufijtë e brendshëm të arsyetimit formal. Fillimisht, gjetjet e Gödelit u përballën me rezistencë, me disa matematikanë që argumentuan se rezultatet e tij ishin më pak të përgjithshme nga sa dukeshin. Megjithatë, përderisa matematikanët dhe logjicienët e tjerë – më së shumti John von Neumann – konfirmuan saktësinë dhe zbatueshmërinë e gjerë të tyre, teoremat e Gödelit u pranuan gjerësisht si një nga zbulimet më të rëndësishme në themelet e matematikës moderne.

Rezultatet e Gödelit gjithashtu kanë nxitur debate filozofike. Për shembull, matematikani dhe fizikani Roger Penrose ka argumentuar se ato bëjnë me dije për një dallim themelor midis njohjes njerëzore dhe arsyetimit formal algoritmik. Ai pretendon se ndërgjegjja njerëzore na lejon të perceptojmë disa të vërteta – të tilla si ato që Gödeli tregoi se janë të paprovueshme brenda sistemeve formale – në një mënyrë që asnjë proces algoritmik nuk mund ta replikojë. Kjo sugjeron, sipas Penroseit, se disa aspekte të ndërgjegjes ndoshta qëndrojnë përtej fushës së përllogaritjes. Përfundimi i tij paralelizohet me argumentin e John Searleit të Dhomës kineze që pohon se kjo ndodh sepse algoritmet vetëm manipulojnë simbolet në mënyrë sintaksore, pa e kuptuar aspak përmbajtjen e tyre semantike. Megjithatë, duhet theksuar se përfundimet e Penroseit dhe Searleit nuk rrjedhin drejtpërdrejt nga teoremat e Gödelit. Rezultatet e Gödelit vlejnë ekskluzivisht për sistemet formale matematikore dhe nuk kanë asnjë pretendim për ndërgjegjen apo njohjen njerëzore. Nëse mendja njerëzore mund të njohë të vërteta të paprovueshme si të vërteta, apo nëse makinat ndonjëherë do të mund të kenë mendje që janë në gjendje të bëjnë një gjë të tillë, kjo mbetet një pyetje e hapur filozofike.

Megjithatë, teoremat e paplotësisë të Gödelit zbulojnë një kufizim të thellë të arsyetimit algoritmik, në veçanti të IA-së – një kufizim që ka të bëjë jo vetëm me llogaritjen, por me vetë arsyetimin moral. Pa teoremat e tij, ishte të paktën e mundshme të imagjinohej që një IA mund të formalizonte të gjitha të vërtetat morale dhe, përveç kësaj, t’i provonte ato nga një grup aksiomash të qëndrueshme. Por, puna e Gödelit tregon se kjo është e pamundur. Asnjë IA, sado e sofistikuar, nuk mund të provojë të gjitha të vërtetat morale që mund të shprehë. Hendeku midis pretendimeve për të vërtetën dhe provueshmërisë vendos një kufi themelor mbi atë se sa larg mund të shkojë arsyetimi formal moral, madje edhe për makinat më të fuqishme.

Kjo ngre dy probleme të dallueshme për etikën. I pari është një problem i lashtë. Siç sugjeron Platoni në Eutifro, moraliteti nuk ka të bëjë vetëm me të bërit e asaj që është e drejtë, por me të kuptuarit pse është e drejtë. Veprimi etik kërkon justifikim, një llogaridhënie të mbështetur në arsyetim. Ky ideal i justifikimit moral racional ka gjallëruar pjesën më të madhe të mendimit tonë etik, por teoremat e Gödelit sugjerojnë se, nëse arsyetimi moral formalizohet, atëherë do të ketë të vërteta morale që nuk mund të provohen brenda atyre sistemeve. Në këtë mënyrë, Gödeli nuk minoi vetëm vizionin e Hilbertit për të provuar qëndrueshmërinë e matematikës; ai mund të ketë lëkundur gjithashtu shpresën e Platonit për ta mbështetur etikën krejtësisht në arsyetim.

Problemi i dytë është më praktik. Edhe një IA me performancë të lartë mund të hasë situatat ku nuk mund të justifikojë ose të shpjegojë rekomandimet e saj duke përdorur vetëm kornizën etike që i është dhënë. Shqetësimi nuk është vetëm se IA-ja mund të veprojë në mënyrë joetike, por edhe se nuk mund të tregojë se veprimet e saj janë etike. Kjo bëhet veçanërisht urgjente kur IA-ja përdoret për të udhëzuar ose justifikuar vendimet që merren nga njerëzit. Edhe një IA me performancë të lartë do të përballet me një kufi përtej të cilit nuk mund të justifikojë ose shpjegojë vendimet e saj duke përdorur vetëm burimet e kornizës së saj. Pavarësisht se sa e avancuar bëhet, do të ketë të vërteta etike që ajo mund t’i shprehë, por kurrë nuk mund t’i provojë.

Zhvillimi i AI-së moderne përgjithësisht është ndarë në dy qasje: IA-ja e bazuar në logjikë, e cila nxjerr njohuri përmes deduksionit të rreptë, dhe modelet e mëdha të gjuhës (LLM) të cilat parashikojnë kuptimin nga modelet statistikore. Të dyja qasjet mbështeten në struktura matematikore. Logjika formale bazohet në manipulimin simbolik dhe teorinë e bashkësive. LLM-të nuk bazohen rreptësisht në logjikën deduktive, por përdorin një kombinim të inferencës statistikore, të njohjes së modeleve dhe teknikave kompjuterike për të gjeneruar përgjigje.

Ashtu siç aksiomat ofrojnë një themel për arsyetimin matematikor, LLM-të mbështeten në marrëdhënie statistikore në të dhëna për të afruar një arsyetim logjik. Ato angazhohen me etikën jo duke deduktuar të vërtetat morale, por duke riprodhuar mënyrën se si zhvillohen këto debate në gjuhë. Kjo arrihet përmes rënies së pjerrët [gradient descent], një algoritëm që minimizon një funksion humbjeje duke përditësuar peshat në drejtimin që redukton gabimin, duke afruar funksione komplekse që lidhin hyrjet [input] me daljet [output], duke u mundësuar atyre të përgjithësojnë modelet nga sasi të mëdha të dhënash. Ato nuk deduktojnë përgjigje, por gjenerojnë përgjigje të besueshme me “arsyetimin” që lind nga miliarda parametra të rrjetit nervor [të makinerisë] dhe jo nga rregullat e shprehura qartë. Ndërsa ato funksionojnë kryesisht si modele probabilistike që parashikojnë tekstin bazuar në modelet statistikore, logjika kompjuterike luan një rol në optimizim, në një arsyetim të bazuar në rregulla dhe në disa procese vendimmarrjeje brenda rrjeteve nervore.

Por, vetë probabiliteti dhe statistika janë sisteme formale, të bazuara jo vetëm në aritmetikë, por edhe në aksioma probabilistike – si ato të prezantuara nga matematikani sovjetik Andrey Kolmogorov, të cilat rregullojnë se si nxirret, përditësohet me të dhëna të reja dhe përmblidhet nëpër skenarë mundësia e ngjarjeve komplekse. Çdo gjuhë formale, mjaftueshëm komplekse për të shprehur pohime probabilistike ose statistike, mund të shprehë gjithashtu aritmetikë dhe për rrjedhojë i nënshtrohet teoremave të paplotësisë së Gödelit. Kjo do të thotë se LLM-të i trashëgojnë kufizimet godeliane. Edhe sistemet hibride, si IBM Watson, OpenAI Codex ose AlphaGo i DeepMind, të cilat kombinojnë arsyetimin logjik me modelimin probabilistik, mbeten të lidhura nga kufizimet godeliane. Të gjithë përbërësit e bazuar në rregulla janë të kufizuar nga teoremat e Gödelit, të cilat tregojnë se disa propozime të vërteta të shprehshme, në një sistem, nuk mund të provohen brenda tij. Përbërësit probabilistikë, nga ana e vet, udhëhiqen nga aksiomat formale që përcaktojnë se si përditësohen shpërndarjet e probabilitetit, si përmblidhen pasiguritë dhe se si nxirren përfundimet. Ata mund të japin përgjigje të besueshme, por nuk mund t’i justifikojnë ato përtej modeleve statistikore mbi të cilat janë trajnuar.

Në pamje të parë, kufizimet godeliane, mbi inteligjencën artificiale në përgjithësi dhe LLM-të në veçanti, mund të duken të parëndësishme. Fundja, shumica e sistemeve etike nuk janë krijuar për të zgjidhur çdo problem të imagjinueshëm moral. Ato janë krijuar për të udhëhequr fusha të caktuara, si lufta, ligji ose biznesi, dhe shpesh mbështeten në parime që janë vetëm pjesërisht të formalizuara. Nëse mund të zhvillohen modelet formale për raste specifike, dikush mund të argumentojë se paaftësia për të formalizuar plotësisht etikën nuk është veçanërisht shqetësuese. Për më tepër, teoremat e paplotësisë së Gödelit nuk ndaluan punën e përditshme të matematikanëve. Matematikanët vazhdojnë të kërkojnë prova, edhe duke ditur se disa pohime të vërteta mund të jenë të paprovueshme. Në të njëjtin frymëzim, fakti që disa të vërteta etike mund të jenë përtej provës formale, kjo nuk duhet të dekurajojë njerëzit, apo IA-të, nga kërkimi i tyre, artikulimi i tyre dhe përpjekja për t’i justifikuar ose për t’i provuar ato.

Por, zbulimet e Gödelit nuk ishin thjesht teorike. Ato kanë pasur pasoja praktike në vetë matematikën. Një rast i spikatur është hipoteza e vazhdueshmërisë, e cila pyet nëse ekziston një bashkësi, kardinaliteti i së cilës ndodhet krejtësisht midis numrave natyrorë dhe numrave realë. Kjo pyetje doli nga teoria e bashkësive, fusha matematikore që merret me koleksione entitetesh matematikore, si numra, funksione apo edhe bashkësi të tjera. Aksiomatizimi i pranuar më gjerësisht i saj, aksiomat e Zermelo-Fraenkelit të teorisë së bashkësive me Aksiomën e Zgjedhjes, qëndron në themel të pothuajse gjithë matematikës moderne. Në vitin 1938, vetë Gödeli tregoi se hipoteza e vazhdueshmërisë nuk mund të hidhet poshtë nga këto aksioma, me kusht që ato të jenë konsistente. Në vitin 1963, Paul Cohen vërtetoi të kundërtën: hipoteza e vazhdueshmërisë gjithashtu nuk mund të provohet nga të njëjtat aksioma. Ky rezultat historik konfirmoi se disa pyetje themelore matematikore ndodhen përtej zgjidhjes formale.

E njëjta gjë, them unë, vlen për etikën. Kufijtë që Gödeli zbuloi në matematikë nuk janë vetëm teorikisht të rëndësishëm për etikën e AI-së; ata kanë rëndësi praktike. Së pari, ashtu siç matematika përmban pohime të vërteta që nuk mund të provohen brenda aksiomave të saj, mund të ketë gjithashtu të vërteta etike që janë formalisht të paprovueshme, por etikisht të rëndësishme – ekuivalentet morale të hipotezës së vazhdueshmërisë. Këto mund të shfaqen në sisteme të krijuara për të trajtuar kompromise të vështira, si pesha ndërmjet drejtësisë dhe dëmit. Ne nuk mund të parashikojmë kur, apo madje nëse, një IA që funksionon brenda një kuadri etik formal do të përballet me kufizime të tilla. Ashtu siç u deshën më shumë se 30 vjet pas teoremave të paplotësisë së Gödelit që Cohen të provonte pavarësinë e hipotezës së vazhdueshmërisë, nuk mund të parashikojmë se kur, nëse ndonjëherë, do të ndeshim parimet etike që janë të shprehshme brenda sistemit etik të një IA-je, por që ende mbeten të paprovueshme.

Së dyti, Gödeli gjithashtu tregoi se asnjë sistem formal, mjaftueshëm kompleks, nuk mund të provojë konsistencën e vetvetes. Kjo është veçanërisht shqetësuese në etikë, ku është larg të qenit qartë që kuadrot tona etike janë të qëndrueshme. Ky nuk është një kufizim i veçantë për IA-në; edhe njerëzit nuk mund të provojnë konsistencën e sistemeve formale që ndërtojnë. Por, kjo ka rëndësi të veçantë për IA-në, sepse një nga premtimet e saj më ambicioze ka qenë të shkojë përtej gjykimit njerëzor: të arsyetojë më qartë, në mënyrë më të paanshme dhe në shkallë më të madhe.

Rezultatet e Gödelit vendosin një kufi të fortë mbi këtë aspiratë. Kufizimi është strukturor, jo thjesht teknik. Ashtu siç teoria e relativitetit e Albert Einsteinit vendos një kufi të sipërm shpejtësie në univers – pa marrë parasysh sa të avancuara janë anijet tona kozmike, ne nuk mund të tejkalojmë shpejtësinë e dritës – teoremat e Gödelit vendosin një kufi mbi arsyetimin formal: pa marrë parasysh sa e avancuar bëhet IA-ja, ajo nuk mund të shpëtojë nga paplotësia e sistemit formal brenda të cilit funksionon. Për më tepër, teoremat e Gödelit mund të kufizojnë arsyetimin etik praktik në mënyra të paparashikuara, ashtu siç disa hipoteza të rëndësishme matematikore janë treguar të paprovueshme nga aksiomat standarde të teorisë së bashkësive, ose, ashtu si shpejtësia e dritës, megjithëse e paarritshme, përsëri vendos kufizime reale mbi inxhinierinë dhe astrofizikën. Për shembull, ndërsa po e shkruaj këtë, Parker Solar Probe e NASA-s është objekti më i shpejtë i krijuar ndonjëherë nga njeriu, duke udhëtuar me rreth 430 000 milje (rreth 700 000 kilometra) në orë – vetëm 0.064 për qind e shpejtësisë së dritës. Megjithatë, ky kufi i sipërm mbetet thelbësor: shpejtësia e kufizuar e dritës ka ndikuar, për shembull, në projektimin e sondave hapësinore, zbarkuesve dhe robotëve lëvizës – të gjithë këta që kërkojnë të paktën funksionim gjysmë-autonom, sepse sinjalet radio nga Toka marrin minuta ose madje orë të tëra për të mbërritur. Teoremat e Gödelit mund të kufizojnë përllogaritjen etike në mënyra të ngjashme dhe të papritura.

Ekziston edhe një arsye tjetër pse rezultatet e Gödelit janë veçanërisht të rëndësishme për etikën e IA-së. Ndryshe nga sistemet statike të bazuara në rregulla, IA-ja e avancuar, veçanërisht modelet e mëdha gjuhësore dhe sistemet mësimore adaptive, munden jo vetëm të zbatojnë një kornizë etike të përcaktuar më parë, por edhe rishikojnë elementet e saj me kalimin e kohës. Një nga premtimet qendrore të arsyetimit moral të udhëhequr nga IA-ja është aftësia e saj për të rafinuar modelet etike përmes mësimit, duke adresuar paqartësitë dhe gabimet në gjykimin moral njerëzor. Ndërsa sistemet e AI-së evoluojnë, ato mund të përpiqen të modifikojnë vetë aksiomat ose parametrat e tyre si përgjigje ndaj të dhënave të reja ose reagimeve. Kjo është veçanërisht e vërtetë për sistemet e mësimit të makinave të trajnuara me grupe të mëdha dhe të ndryshueshme të dhënash, si dhe për modelet hibride që integrojnë arsyetimin logjik me konkluzione statistikore. Megjithatë, rezultatet e Gödelit zbulojnë një kufi strukturor: nëse një kornizë etike formalizohet brenda një sistemi të mjaftueshëm formal shprehës, atëherë asnjë grup i qëndrueshëm aksiomash nuk mund të provojë të gjitha pohimet e vërteta të shprehshme brenda tij.

Për ta ilustruar këtë, imagjino një IA të ngarkuar me ruajtjen e drejtësisë. Ajo mund të programohet me parime etike, gjerësisht të pranuara – për shembull, drejtësia dhe minimizimi i dëmit. Ndërsa modelet e krijuara nga njerëzit për drejtësinë, të bazuara në këto parime, janë në mënyrë të pashmangshme tepër të thjeshtëzuara, të kufizuara nga kapaciteti përllogaritës dhe paragjykimet njohëse, një IA, në teori, nuk ka kufizime të tilla. Ajo mund të mësojë vazhdimisht nga sjellja reale njerëzore, duke rafinuar kuptimin e saj dhe duke ndërtuar një koncept gjithnjë e më të nuancuar të drejtësisë, një të tillë që ndërthur gjithnjë e më shumë dimensione të përvojës njerëzore. Ajo madje mundet, siç u përmend, të ndryshojë vetë aksiomat e veta. Por, pa marrë parasysh sa shumë mëson një IA, apo si e modifikon veten, gjithmonë do të ketë pohime për drejtësinë të cilat, ndonëse mund t’i modelojë, nuk do të jetë kurrë në gjendje t’i provojë brenda sistemit të saj. Më shqetësuese akoma, IA-ja nuk do të jetë në gjendje të provojë që sistemi etik që ajo ndërton është në mënyrë të brendshme të qëndrueshme – që nuk e kundërshton veten diku në rrjetin e gjerë të arsyetimit të saj etik – përveç nëse është jokonsistent, në të cilin rast mund të provojë çdo gjë, përfshirë të pavërteta, siç është konsistenca e vet.

Në fund të fundit, teoremat e paplotësisë të Gödelit shërbejnë si një paralajmërim kundër idesë se IA-ja mund të arrijë një arsyetim të përsosur etik. Ashtu siç matematika do të përmbajë gjithmonë të vërteta që janë përtej provës formale, morali do të përmbajë gjithmonë kompleksitete që sfidojnë zgjidhjen algoritmike. Pyetja nuk është thjesht nëse IA-ja mund të marrë vendime morale, por nëse ajo mund të kapërcejë kufizimet e çdo sistemi të bazuar në logjikë të paracaktuar – kufizime që, siç tregoi Gödeli, mund të pengojnë që disa të vërteta të jenë ndonjëherë të provueshme brenda sistemit, edhe nëse ato janë të njohshme si të vërteta. Ndërsa etika e IA-së është përballur me çështje si paragjykimi, drejtësia dhe interpretimi, sfida më e thellë mbetet: a mundet IA-ja të njohë kufijtë e arsyetimit të saj etik? Kjo sfidë mund të vendosë një kufi të pakapërcyeshëm midis etikës artificiale dhe asaj njerëzore.

Marrëdhënia midis teoremave të paplotësisë të Gödelit dhe etikës së makinerive nxjerr në pah një paralelizëm strukturor: ashtu siç asnjë sistem formal nuk mund të jetë njëkohësisht i plotë dhe i vetëmjaftueshëm, asnjë IA nuk mund të arrijë arsyetimin moral që është njëkohësisht përfshirës dhe plotësisht i provueshëm. Në një aspekt, zbulimet e Gödelit e zgjerojnë dhe e ndërlikojnë traditën kantiane. Kanti argumentoi se njohuria varet nga të vërteta a priori, nga supozimet themelore që strukturojnë përvojën tonë të realitetit. Teoremat e Gödelit sugjerojnë se, edhe brenda sistemeve formale të ndërtuara mbi aksioma të përcaktuara mirë, ekzistojnë ende të vërtetat që tejkalojnë aftësitë e sistemit për t’i vërtetuar ato. Nëse Kanti synonte të përkufizonte kufijtë e arsyes përmes kushteve të domosdoshme për njohuri, Gödeli zbuloi një paplotësi të brendshme në vetë arsyetimin formal, një të tillë që asnjë grup aksiomash nuk mund ta zgjidhë nga brenda. Gjithmonë do të ekzistojnë të vërtetat morale, përtej mbërthimit përllogaritës – probleme etike që i rezistojnë zgjidhjes algoritmike.

Pra, problemi më i thellë qëndron në paaftësinë e AI-së për të njohur kufijtë e vetë kornizës së saj të arsyetimit – paaftësinë e saj për të ditur kur përfundimet e saj morale mbështeten mbi premisa të paplota, ose kur një problem ndodhet përtej asaj që sistemi i saj etik mund të zgjidhë në mënyrë formale. Ndërsa edhe njerëzit përballen me kufizime njohëse dhe epistemike, ne nuk jemi të kufizuar nga një strukturë e dhënë formale. Ne mund të shpikim aksioma të reja, të vëmë në pikëpyetje ato të vjetrat, ose të rishikojmë të gjithë kornizën tonë në dritën e njohurive filozofike ose shqyrtimit etik. Sistemet e IA-së, për dallim, mund të gjenerojnë ose të adoptojnë aksioma të reja vetëm nëse arkitektura e tyre e lejon këtë dhe, edhe atëherë, ndryshimet e tilla ndodhin brenda meta-rregullave të paracaktuara ose objektivave të optimizimit. Ato nuk kanë kapacitetin për reflektim konceptual që udhëheq zhvendosjet njerëzore në supozimet themelore. Edhe nëse një gjuhë formale, më e pasur, ose një grup më i pasur aksiomash mund të provojë disa të vërteta më parë të paprovueshme, asnjë grup i fundëm aksiomash, që përmbush kërkesat e Gödelit për vendosmërinë dhe konsistencën, nuk mund të provojë të gjitha të vërtetat që mund të shprehen në ndonjë sistem formal mjaftueshëm të fuqishëm. Në këtë kuptim, Gödeli vendos një kufi – jo vetëm mbi atë që makineritë mund të provojnë, por mbi atë që ato mund të justifikojnë ndonjëherë brenda një arkitekture të dhënë etike ose logjike.

Një nga shpresat, ose një frikë e madhe për IA-në është se ajo mund të evoluojë një ditë përtej parimeve etike që i janë programuar fillimisht dhe të simulojë një vetëvlerësim të tillë. Përmes mësimit të makinerisë, IA-ja mund të modifikojë vetë kornizën etike, duke gjeneruar njohuri të reja morale dhe duke zbuluar modele dhe zgjidhje të cilat mendimtarët njerëzorë, të kufizuar nga paragjykimet njohëse dhe kufizimet përllogaritëse, mund t’i anashkalojnë. Megjithatë, kjo përshtatshmëri sjell një rrezik të thellë: morali në zhvillim i një IA-je mund të devijojë aq rrënjësisht nga etika njerëzore saqë vendimet e saj të bëhen të pakuptueshme ose madje moralisht të neveritshme për ne. Kjo pasqyron disa koncepte fetare të etikës. Në disa tradita teologjike, morali hyjnor konsiderohet përtej kuptimit njerëzor, saqë mund të duket arbitrar apo edhe mizor – një temë qendrore në debatet mbi problemin e së keqes dhe teorinë e urdhrit hyjnor. Një sfidë e ngjashme lind me etikën e IA-së: ndërsa sistemet e IA-së bëhen gjithnjë e më autonome dhe vetëmodifikuese, vendimet e tyre morale mund të bëhen aq të errëta dhe të shkëputura nga arsyetimi njerëzor, saqë rrezikojnë të perceptohen si të paparashikueshme, të pashpjegueshme ose edhe të padrejta.

Megjithatë, ndonëse IA-ja mund të mos e zotërojë kurrë plotësisht arsyetimin moral, ajo mund të bëhet një mjet i fuqishëm për rafinimin e mendimit etik njerëzor. Ndryshe nga vendimmarrja njerëzore, e cila shpesh formësohet nga paragjykimi, intuita ose supozimet e paekzaminuara, IA-ja ka potencialin të zbulojë mospërputhje në arsyetimin tonë etik duke trajtuar rastet e ngjashme me paanshmëri formale. Ky potencial, megjithatë, varet nga aftësia e IA-së për të ditur se kur rastet janë moralisht të njëjta – një detyrë e ndërlikuar nga fakti se sistemet e IA-së, veçanërisht LLM-të, mund të internalizojnë dhe riprodhojnë vetë paragjykimet njerëzore që synojnë t’i zbusin. Kur IA-ja jep një vendim që duket moralisht i gabuar, kjo mund të na nxisë të rishqyrtojmë parimet që qëndrojnë pas gjykimeve tona. A po bëjmë dallime ndërmjet rasteve për arsye të mira morale, apo po zbatojmë standarde të dyfishta pa e kuptuar? IA-ja mund të ndihmojë në sfidimin dhe rafinimin e arsyetimit tonë etik – jo duke ofruar përgjigje përfundimtare, por duke zbuluar boshllëqe, kontradikta dhe supozime të anashkaluara në kornizën tonë morale.

IA-ja mund të largohet nga intuitat morale njerëzore në të paktën dy mënyra: duke trajtuar raste që ne i shohim si të ngjashme në mënyra të ndryshme, ose duke trajtuar raste që ne i shohim si të ndryshme në të njëjtën mënyrë. Në të dyja rastet, pyetja themelore është nëse IA-ja po identifikon saktë një dallim ose ngjashmëri moralisht të rëndësishëm, apo nëse thjesht po pasqyron modele të parëndësishme nga të dhënat e saj trajnuese. Në disa raste, kjo mospërputhje mund të rrjedhë nga paragjykimet njerëzore, si modelet diskriminuese të bazuara në racë, gjini apo status socio-ekonomik. Por, në raste të tjera, IA-ja mund të zbulojë veçori etikisht të rëndësishme të cilat gjykimi njerëzor i ka anashkaluar historikisht. Ajo mundet, për shembull, të zbulojë variante të reja të problemit të trolejbusit [trolley problem], duke sugjeruar që dy dëme në dukje të barabarta ndryshojnë në mënyra të rëndësishme morale. Në raste të tilla, IA-ja mund të zbulojë modele të reja etike përpara se ta bëjnë këtë filozofët njerëzorë. Sfida qëndron në faktin se ne nuk mund ta dimë paraprakisht se çfarë lloj devijimi kemi përballë. Çdo gjykim moral befasues nga IA duhet të vlerësohet në kushtet e veta – as të pranohet pa kritikë, as të hidhet poshtë pa menduar. Megjithatë, edhe kjo hapje ndaj njohurive të reja nuk e çliron IA-në nga kufijtë strukturorë të arsyetimit formal.

Ky është mësimi më i thellë. Teoremat e Gödelit nuk tregojnë thjesht që ekzistojnë të vërteta të cilat makineritë nuk mund t’i provojnë. Ato tregojnë që arsyetimi moral, ashtu si matematika, është gjithmonë i hapur, gjithmonë duke u shtrirë përtej asaj që mund të nxirret në mënyrë formale. Sfida, pra, nuk është vetëm si të kodifikohet arsyetimi etik në IA, por edhe si të sigurohet që korniza e saj morale, që është në zhvillim, të mbetet në përputhje me vlerat njerëzore dhe normat shoqërore. Përkundër gjithë shpejtësisë, saktësisë dhe fuqisë përllogaritëse të saj, IA-ja mbetet e paaftë për një gjë që e bën arsyetimin moral vërtet të mundur: aftësinë për të vënë në pikëpyetje jo vetëm atë që është e drejtë, por pse. Etika, për rrjedhojë, duhet të mbetet një përpjekje njerëzore – një përpjekje e vazhdueshme dhe e papërsosur të cilën asnjë makinë nuk do ta zotërojë ndonjëherë plotësisht.

Comments