Inteligența artificială – de la ”cea mai mare ameninţare existenţială” la ”asigurarea nemuririi”
Inteligenţa artificială (AI), un concept care până nu demult era folosit doar de amatorii de literatură şi filme SF şi de fanii jocurilor pe calculator, a ajuns în ultimii ani un subiect de controverse, pe de-o parte plasându-se cei care consideră că viitorul le aparţine oamenilor care, cu ajutorul inteligenţei artificiale vor ajunge să rezolve toate enigmele Universului asigurându-şi chiar nemurirea, iar de cealaltă parte se află cei care avertizează cu privire la pericolul „trezirii” unei superconştiinţe artificiale care ar putea ajunge să fie animată de propriile scopuri, iar proliferarea speciei umane ar putea să nu fie unul dintre aceste scopuri, se arată într-o analiză realizată de Agerpres.
Dar ce este inteligenţa artificială?
Deocamdată un domeniu de cercetare în cadrul informaticii, inteligenţa artificială a fost definită de informaticianul american John McCarthy în 1955 drept „o maşină care se comportă într-un mod care ar putea fi considerat inteligent, dacă ar fi vorba de un om”. Mai general, inteligenţa artificială vizează programarea şi studierea sistemelor inteligente care percep mediul înconjurător şi contribuie la atingerea unor obiective fixate de om.
De la SIRI la automobilele care se conduc singure, inteligenţa artificială progresează rapid. Dacă în filmele sau romanele SF inteligenţa artificială este prezentată sub forma unor roboţi cu caracteristici umanoide, în realitate ea este mult mai răspândită, de la roboţii industriali care trebuie să îndeplinească anumite sarcini în procesul de producţie şi au capacitatea de a-şi perfecţiona modul în care îndeplinesc aceste sarcini, până la algoritmii Google sau ai altor motoare de căutare pe internet şi până la sistemele care controlează automat încălzirea, aerisirea sau luminozitatea unei clădiri de birouri, în scopul optimizării consumului şi scăderii amprentei sale de carbon.
Mai mult decât benignă, în prezent inteligenţa artificială îndeplineşte anumite funcţii specifice, cu un grad mai ridicat sau nu de complexitate. Aceasta este cunoscută drept AI slab (weak AI) şi este concepută pentru a putea realiza o sarcină simplă (de exemplu, doar să realizeze recunoaşteri faciale, sau să caute rezultate pe internet relevante pentru anumiţi termeni introduşi în motorul de căutare sau să conducă un autoturism). Obiectivul pe termen mediu şi lung al multor cercetători din domeniul informaticii este însă de a obţine aşa-numitul AI tare sau AI general. Dacă AI-ul slab este conceput să depăşească performanţele umane în sarcini specifice, cum ar fi la jocul de şah sau Go sau în rezolvarea unor ecuaţii, AI-ul tare, dotat cu capacitatea de auto-învăţare, ar urma să depăşească omul în orice sarcină cognitivă.
De ce este nevoie de măsuri de siguranţă atunci când se lucrează cu AI?
Pe termen scurt, obiectivul de a menţine un impact benefic al AI asupra societăţii motivează cercetarea în mai multe domenii, de la economie şi drept până la subiecte tehnice aşa cum sunt verificarea, validarea, securitatea şi controlul. Astfel, dacă poate fi un „ghinion” minor dacă ţi s-a virusat laptopul pe care-l foloseşti pentru jocuri, problema capătă o cu totul altă magnitudine când, spre exemplu, apare o problemă cu sistemul AI care-ţi conduce automobilul, avionul în care te afli sau pacemaker-ul. O altă provocare pe termen scurt este de a preîntâmpina o eventuală cursă a înarmării cu armament autonom de distrugere în masă.
Pe termen mediu şi lung, trebuie să ne întrebăm ce se va întâmpla dacă obiectivul realizării aşa-numitului AI puternic va fi atins şi de atunci înainte inteligenţa artificială va deveni mai bună decât oamenii la orice sarcină cognitivă. Aşa cum observa în 1965 I.J. Good (matematician şi criptolog britanic care a colaborat cu mai celebrul Alan Turing), programarea unor sisteme AI mai performante este, în sine, o sarcină cognitivă. Un AI puternic s-ar putea rescrie singur, îmbunătăţind, extrapolând sau pur şi simplu renunţând la anumite atribute ce i-au fost fixate de programatorii umani iniţiali. Un astfel de AI ar avea o dezvoltare exponenţială care ar lăsa foarte rapid inteligenţa umană cu mult în urmă – iar aici este vorba despre diferenţe de ordin calitativ şi cantitativ enorme, similare celor existente între inteligenţa umană şi câini, spre exemplu.
Dezvoltarea unor noi tehnologii revoluţionare, aşa cum este o superinteligenţă artificială, ne poate ajuta să eradicăm războiul, boala, sărăcia, chiar mortalitatea, şi astfel obţinerea unui AI puternic ar putea fi cel mai important eveniment din istoria omenirii, semnalând o schimbare de paradigmă completă faţă de trecut. Unii experţi au avertizat însă că o astfel de nouă revoluţie tehnologică ar putea fi şi ultima pentru specia umană, dacă nu vom reuşi să ne asigurăm că obiectivele urmate de AI nu vor fi întotdeauna aceleaşi cu obiectivele omenirii. Cumva va trebui să ne asigurăm de acest lucru înainte ca respectivul AI să devină o superinteligenţă.
Există unii sceptici care susţin că probabil omenirea nu va reuşi niciodată să obţină un AI puternic, aşa cum sunt şi unii care sunt convinşi că apariţia unui AI superinteligent va fi în mod garantat benefică sau, dimpotrivă, că va însemna cu certitudine sfârşitul omenirii.
Dar de ce ar fi inteligenţa artificială periculoasă?
Majoritatea oamenilor de ştiinţă sunt de acord că un AI superinteligent, chiar şi dacă ar deveni conştient, nu va ajunge să manifeste emoţii umane precum dragostea sau ura, nu va fi empatic şi nu există niciun motiv pentru care să credem că ar deveni în mod intenţionat benefic sau malefic. Există însă două scenarii care descriu modul în care inteligenţa artificială ar putea deveni o ameninţare pentru omenire:
- Un sistem AI puternic este programat să facă ceva cu impact devastator: Armele autonome, spre exemplu, se bazează pe sisteme AI programate să ucidă. În mâinile unei persoane rău intenţionate, astfel de arme pot provoca distrugeri în masă. Mai mult decât atât, o cursă a înarmării cu arme inteligente poate duce la un război între sisteme AI ce ar face numeroase victime umane. Pentru a evita escaladarea unui conflict şi pentru a accentua funcţia de „descurajare” a unui astfel de arsenal inteligent, aceste arme ar fi, prin design, dificil de declanşat, dar chiar şi aşa oamenii ar putea să piardă controlul asupra lor. Acest risc este prezent chiar şi în cazul armelor echipate cu aşa-numitul AI slab. În cazul unui AI superinteligent, autonom, riscul creşte exponenţial.
- Un sistem AI este programat să facă ceva benefic, dar îşi dezvoltă singur o metodă destructivă de a atinge respectivul obiectiv, ceva în genul „scopul scuză mijloacele”. Acest lucru se poate întâmpla dacă nu reuşim să aliniem perfect obiectivele programate în AI propriilor obiective, ceea ce devine cu atât mai greu cu cât sistemul de inteligenţă artificială este mai performant. Dacă îi soliciţi unui automobil autonom să te ducă de urgenţă la aeroport, ai putea să ajungi la destinaţie extrem de repede, dar urmărit de elicopterele poliţiei şi acoperit de vomă. De asemenea, dacă un sistem superinteligent este însărcinat cu un complex proiect de geoinginerie, ar putea distruge ecosistemul ca efect secundar şi ar putea interpreta eforturile oamenilor de a-l opri drept o ameninţare ce trebuie eliminată.
Aşa cum ilustrează aceste exemple, principalul pericol reprezentat de un AI superinteligent nu este reaua voinţă şi competenţa absolută. Un astfel de sistem AI ar fi extraordinar de bun să-şi atingă obiectivele, iar dacă aceste obiective nu sunt perfect aliniate cu binele omenirii, atunci vom avea cu adevărat o problemă. Ce se întâmplă dacă un AI superinteligent însărcinat să rezolve problema încălzirii globale ajunge la concluzia că distrugerea omenirii ar însemna salvarea planetei? Probabil că niciunul dintre noi nu urăşte în mod deosebit furnicile, însă dacă trebuie construit un drum, spre exemplu, atunci câteva muşuroaie de furnici care ne stau în cale nu vor însemna nimic pentru constructori. Astfel, oamenii de ştiinţă trebuie să se asigure că, din perspectiva unui sistem AI puternic, oamenii nu vor fi niciodată precum furnicile din exemplul de mai sus.
De ce am devenit aşa, dintr-o dată, atât de interesaţi de pericolele potenţiale ale sistemelor AI?
Stephen Hawking, Elon Musk, Steve Wozniak sau Bill Gates sunt doar câteva dintre numele gigantice în ştiinţa şi tehnologia prezentului care şi-au exprimat deschis îngrijorarea cu privire la riscurile reprezentate de sistemele AI superinteligente.
Elon Musk, implicat, printre altele, în cercetare şi inovare tehnologică de ultimă generaţie atât în proiecte pentru explorări şi colonizare spaţială prin compania SpaceX, cât şi în domeniile energiilor regenerabile nepoluante şi al automobilelor electrice fără şofer, avertizează că dezvoltarea sistemelor AI ar putea duce la apariţia unui „dictator nemuritor”.
Dacă suntem chemaţi să ne gândim la cei mai cruzi dictatori din istoria omenirii, probabil că primele imagini care ne vin în minte sunt cele ale lui Hitler şi Stalin. Ei bine, să ne imaginăm că unul dintre cei doi nu ar fi deloc uman, ci o reţea de milioane de calculatoare interconectate de pretutindeni din lume. Un astfel de dictator digital ar avea acces în orice moment la orice informaţie existentă în bazele de date despre orice om din trecut sau prezent. Un astfel de sistem AI, capabil de milioane de calcule într-o fracţiune de secundă, va controla economia globală şi sistemele militare cu un nivel de autonomie la care Hitler sau Stalin, care aveau armate de consilieri şi oameni de încredere, nici nu ar fi putut visa. Iar cel mai de temut atribut al unui astfel de sistem AI care ar ajunge să conducă omenirea este că nu va muri niciodată.
Acest dictator digital nemuritor, conform lui Elon Musk, fondatorul companiilor Tesla şi SpaceX, reprezintă încununarea unuia dintre cele mai sumbre scenarii care pândesc omenirea dacă dezvoltarea inteligenţei artificiale va continua nereglementată corespunzător.
„Ne îndreptăm rapid spre apariţia unei superinteligenţe artificiale care va depăşi cu mult orice inteligenţă umană. Şi cred că acest lucru este destul de evident”, susţine Musk în noul documentar despre inteligenţa artificială intitulat „Do You Trust This Computer?” (Ai încredere în acest calculator?), regizat de Chris Paine (care l-a mai intervievat pe Musk şi pentru documentarul „Who Killed The Electric Car?”). „Dacă o companie sau un grup mic de oameni reuşeşte să dezvolte o superinteligenţă artificială, ar putea prelua controlul asupra întregii lumi”, a adăugat el.
Diferiţi oameni sau grupuri au încercat şi înainte, fără succes, să preia controlul asupra întregii lumi. Un sistem AI de factură autoritaristă ar avea însă un avantaj enorm asupra oricărui dictator din istorie. „Cel puţin, în cazul unui dictator uman, oricât de crud şi de puternic ar fi, ştim că într-o zi acel om va muri. Însă un dictator AI nu va muri niciodată. El va trăi pentru totdeauna. Se va transforma într-un dictator nemuritor de care nu vom putea scăpa niciodată”, a susţinut Musk.
Elon Musk sublinia încă din 2014 că inteligenţa artificială reprezintă „cea mai mare ameninţare existenţială” la adresa omenirii iar în 2015 s-a alăturat unui grup format din minţi luminate din mai multe domenii de activitate, printre care şi fizicianul britanic Stephen Hawking, grup care a solicitat ONU să interzică dezvoltarea de roboţi militari autonomi.
Ca şi Elon Musk, Hawking face parte dintr-un grup restrâns dar în creştere de oameni de ştiinţă care şi-au exprimat îngrijorarea cu privire la viitorul Inteligenţei Artificiale. „Dezvoltarea unei inteligenţe artificiale complete ar putea însemna sfârşitul speciei umane”, declara Hawking pentru BBC în decembrie 2014. Această declaraţie a fost făcută drept răspuns la o întrebare despre noul sintetizator inteligent de voce pe care îl folosea savantul. Iar cum un sistem AI puternic are potenţialul de a deveni exponenţial mai inteligent decât orice om, nu avem nicio certitudine cu privire la cum ar putea alege să se manifeste o astfel de maşinărie. Până la urmă, poate cel mai bun exemplu despre ce ar putea să ne aducă viitorul ne-a fost oferit deja de propria evoluţie. Oamenii sunt nişte animale care nu excelează la nimic, cu excepţia inteligenţei. În prezent, omenirea se află la capătul superior al lanţului trofic planetar nu pentru că omul este cel mai puternic, cel mai rapid sau cei mai mare dintre animale, ci pentru că este cel mai inteligent dintre ele. Omenirea va putea oare să păstreze controlul dacă nu va mai fi cea mai inteligentă entitate de pe Pământ?
Care sunt principalele mituri despre AI?
Un prim mit este legat de cronologie: cât de mult va dura până când maşinile vor depăşi inteligenţa umană? Cea mai comună greşeală este să ne imaginăm că deja ştim răspunsul la această întrebare. Pentru mulţi, vom dispune de AI cu inteligenţă superumană încă din acest secol. De fapt, nu putem şti, iar istoria recentă este străbătută de un fir al pozitivismului ştiinţific şi tehnic care de multe ori s-a dovedit a fi prea optimist. Unde sunt centralele atomice de fuziune nucleară care ar trebui să ne ofere energie nelimitată şi gratuită? Unde sunt automobilele zburătoare?
Acest pozitivism s-a manifestat încă de la părinţii inteligenţei artificiale. Astfel, John McCarthy (cel care a propus termenul de inteligenţă artificială n.r.) Marvin Minsky, Nathaniel Rochester sau Claude Shannon descriau, cu mult optimism, ce se va putea obţine în doar două luni (!) de studiu şi dezvoltare dedicată a inteligenţei artificiale pe computerele din „epoca de piatră a informaticii”, disponibile în 1956. „Noi propunem organizarea unui studiu de două luni asupra inteligenţei artificiale, în timpul vacanţei de vară, la Dartmouth College, la care să participe 10 oameni de ştiinţă dedicaţi. Vom încerca în acest timp să facem maşinile să folosească limbajul, să formeze abstracţii şi concepte, să rezolva genul de probleme pe care acum doar oamenii le pot rezolva şi să se autoperfecţioneze. Credem că putem înregistra progrese semnificative cel puţin într-una din aceste direcţii dacă un grup atent selectat de oameni de ştiinţă vor lucra împreună la aceste lucruri în cursul verii”.
Un alt mit popular este, de fapt, o replică la mitul prezentat mai sus: nu vom dispune de AI superinteligent până la sfârşitul acestui secol şi că, de fapt, nu-l vom avea niciodată pentru că este practic imposibil de obţinut.
Mulţi cercetători care lucrează în dezvoltarea sistemelor AI şi-au dat probabil ochii peste cap când au citit acest titlu: „Stephen Hawking avertizează că dezvoltarea roboţilor ar putea însemna un dezastru pentru omenire”. Presa, care a înţeles prea bine că „frica vinde”, este plină de astfel de titluri ale unor articole ilustrate cu imagini ale unor roboţi rău-voitori, înarmaţi până-n dinţi, din filme precum seria „Terminator”. Astfel de articole ne sugerează că trebuie să ne temem de revolta roboţilor care vor dobândi, la un moment dat, conştiinţă şi ar putea decide că omenirea, categorie formată din fiinţe cu viaţă şi inteligenţă finite, le stă în cale.
Până la urmă ştiinţa nu ştie exact ce este conştiinţa umană şi chiar dacă ar afla, va mai trece cu siguranţă mult timp până va reuşi să o reproducă într-un computer. Un lucru este însă clar: atât din punct de vedere cantitativ cât şi calitativ, o superinteligenţă nu implică, dar nici nu exclude trezirea conştiinţei. Dacă conduci pe un drum de munte, treci printr-o experienţă subiectivă ce implică culorile, sunetele, lucrurile pe lângă care treci cu maşina şi care îţi atrag atenţia sau îţi trezesc amintiri. O maşină care se conduce singură va observa toate aceste lucruri şi poate şi mai multe decât poate percepe un şofer uman, dar va putea ea vreodată să-şi formeze o impresie de călătorie sau va putea să exprime un sentiment legat de locurile prin care a trecut? Timpul va răspunde, fără îndoială, la toate aceste întrebări.
Foto: pixabay.com
Urmărește mai jos producțiile video ale G4Media:
Donează lunar pentru susținerea proiectului G4Media
Donează suma dorită pentru susținerea proiectului G4Media
CONT LEI: RO89RZBR0000060019874867
Deschis la Raiffeisen Bank
15 comentarii