Întrebare de baraj: "Credeţi, consideraţi, apreciaţi, evaluaţi, vă iese din analiză, calcule etc. că îmblînzirea unei scorpii este posibilă?" Dacă îl citiţi pe Shakespeare, atunci aflaţi că răspunsul este Da! Nu ştiu dacă acest fapt vă influenţează sau nu opinia, eu însă vă îndemn cu toată puterea să nu "citaţi" metodele folosite de Petruchio! O să daţi de belea cu "tigresele" feminismului radical şi, mai general, cu toţi "arhanghelii" neo-ideologiei totalitare, drapată în "cultură woke". Despre care scorpie este vorba? Aşa e, m-am luat cu vorba şi uitai să vă spun. Despre cea din editorialul meu de miercuri, Inteligenţa artificială (AI). O scorpie mult mai versatilă şi mai periculoasă decît Kate, căci nu se rezumă la respingerea de plano, fără nuanţe, radicală, a autorităţii instituţionale tradiţionale, familie-tată, căsătorie-bărbat, ci se află pe traiectoria periculoasă de a "îmblînzi" ea însăşi, de a supune, înlocui, uzurpa autoritatea sursei de la care îşi trage existenţa. Lăsată de capul ei şi folosită pe scară largă doar de "proşti", adică de oameni incapabili (temporar sau definitiv!) să utilizeze adecvat uneltele de care dispun, atunci cînd au o problemă de rezolvat, fie ea intelectuală sau practică, AI este pe cale să transforme omul într-o simplă anexă, să se dezică de el, să îl marginalizeze în chiar lumea pe care el încă o mai crede a lui. La limită, să îl elimine. De tot!! Întrebarea este, aşadar: care sunt căile pentru a reuşi într-o asemenea întreprindere, plină de primejdii şi necunoscut, cum este îmblînzirea scorpiei AI?
Inutil să pierdem vremea şi să mai căutăm răspunsurile de care avem nevoie prin vechile cuferele cu "interdicţii", "limitări imperative impuse bestiei" sau "distrugere fizică a golemului" prin care încă se mai amăgesc unii că ne-am putea feri de cele mai rele dintre consecinţele dezvoltării AI. Greşeala acestui tip de abordare este radicală şi evidentă. Nu unealta este de vină pentru consecinţele folosirii ei, ci aceia care o folosesc!!! Problema nu este la unealtă, ci la utilizator! Distrugerea sau incapacitarea uneltei este doar o falsă soluţie, temporară şi complet nesigură. Atunci?
O clasă de soluţii ar putea fi generată procedînd la un fel de "arendare a teritoriilor de activitate".
AI se ocupă de unele activităţi şi numai de ele, noi oamenii de altele. Chiar şi atunci cînd ele sunt părţi ale aceluiaşi lanţ cognitiv-acţional care duce la un scop/ţintă anume. Exemplul meu favorit şi radical, matematica. Fără nici o pierdere, ba chiar cu cîştig însemnat, putem lăsa pe seama AI verificarea unui imens lanţ de inferenţe, de condiţii şi precondiţii, evaluarea funcţiei de adevăr a unor propoziţii intermediare, verificarea iterativă numerică etc., dar să rezervăm strict pentru Inteligenţa Umană (HI) încoronarea demonstraţiei. Tema nu mai este nouă. Avem deja teoreme (teorema celor patru culori, spre exemplu) pentru care algoritmi logico-matematici utilizaţi de forme încă primitive ale AI au produs/facilitat o demonstraţie validă încă de acum patru decenii. Avem şi exemple de conlucrare HI-AI pentru producerea unei demonstraţii matematice valide. Comunitatea matematicienilor, deocamdată, pare să fie favorabilă propunerii avansată şi de mine, prin urmare, nu a recunoscut rezultatele "operei hibrid". Demonstraţia, încoronarea demersului pur de cunoaştere prin mijloace matematice ar trebui, ar putea, n-ar fi deloc rău, se pare, să rămînă un atribut uman! Ştiu, cîrcotaşii de serviciu vor spune că în felul acesta vom întîrzia inutil şi păgubitor, cu decenii, poate secole, dezvoltarea matematicii, ceea ce nu pare să fie nici în favoarea omului, nici a umanităţii. Se poate, dar dacă avem de ales între răul mai mic şi cel mai mare? N-ar fi bine să alegem, totuşi, răul cel mic? În aceeaşi cheie, dar la nivele mai reduse de complexitate am putea, spre exemplu, să "delegăm" AI majoritatea sau chiar toate activităţile care ţin de partea de "documentare" a unei cercetări. Ea consumă astăzi mai bine de 80% din timpul necesar obţinerii rezultatului final. Acest timp ar putea fi comprimat astfel încît rezultatele cercetării, indiferent dacă sunt în chimie, fizică, matematică, sociologie, psihologie, lingvistică etc. să fie produse într-un ritm turbo, cu avantaje masive pentru societate. În acelaşi fel, am putea delega AI, parţial sau total, partea de verificare a rezultatelor finale/intermediare ale cercetării. Un alt tip de activitate intens consumatoare de timp şi nu tocmai rar supusă "greşelii umane" în proporţii deloc de neglijat. Eliminarea sigură şi totală a erorilor de parcurs este o altă sursă sigură pentru creşterea radicală a performanţei de cercetare/inovare în orice domeniu.
O altă clasă de soluţii, pe care am amintit-o şi în editorialul de miercuri, este oprirea procesului dezvoltării AI pe platforme tehnologice independente şi integrarea ei totală cu platforma biologică numită OM. Cel mai probabil rezultatul va fi o nouă specie hibridă, post-umană. Acesta este preţul! În schimb, s-ar putea institui, astfel, un control permanent şi, cel puţin la prima vedere, fără fisură asupra ei, împiedicînd dezvoltarea AI contrar intereselor şi obiectivelor umane. AI devine o parte integrată dar subordonată a HI!
În sfîrşit, s-ar putea şi invers! HI să devină o parte total integrată şi subordonată sistemelor AI. Aparent oamenii ar fi pierdut bătălia, dar s-ar putea ca "înfrîngerea" aceasta să fie de fapt adevărata victorie. HI a dovedit cu vîrf şi îndesat că nu este capabilă să evite precipitarea celor mai rele dintre consecinţele activităţilor şi descoperirilor sale. Cu alte cuvinte, la capătul drumului pe care l-am deschis şi pe care mergem, în ciuda atîtor posibilităţi "bune" ne aşteaptă un singur eveniment: catastrofa! Poate că AI se va dovedi capabilă de mai mult. Integrarea HI în AI, ca parte subordonată, s-ar putea dovedi rădăcina tuturor soluţiilor bune pe care n-am fost în stare să le descoperim şi/sau să le aplicăm consecvent în cele cîteva sute de mii de ani de existentă ale speciei Homo Sapiens.