Miliardarul american Elon Musk, fondatorul companiei Tesla, a făcut o serie de avertizări publice cu privire la pericolele inteligenţei artificiale. Musk a intrat în conflict direct săptămâna trecută cu Mark Zuckerberg, fondatorul Facebook, pe tema roboţilor inteligenţi, continuându-şi tirada de declaraţii cu privire la nevoia de legislaţie care să limiteze inteligenţa artificială. Atât maşinile electrice Tesla, cât şi site-ul Facebook folosesc tehnologii de resort.
Inteligenţa artificială curentă înseamnă nu numai identificarea unor nevoi în mod independent (cum ar fi ajutarea căutărilor în motorul Google sau a unor oameni pe Facebook), în funcţie de nişte parametri largi. Ea reprezintă şi luarea unor decizii în situaţii limită.
"Tot trag semnalul de alarmă, dar va fi prea târziu când vom vedea roboţi omorând oameni pe stradă," a declarat Musk, la o întâlnire recentă cu guvernatorii statelor americane.
Zuckerberg a reacţionat la declaraţie, catalogând-o drept "destul de iresponsabilă". Fondatorul Tesla a răspuns, spunând că Zuckerberg are cunoştinţe "limitate" pe această temă.
Micul conflict public între cei doi este doar cea mai recentă şarjă dintr-un război început de Elon Musk acum mai bine de doi ani. Acesta a declarat că inteligenţa artificială este "cel mai serios pericol existenţial la adresa supravieţuirii rasei umane". Pentru Musk, inteligenţa artificială este precum un "demon" chemat din incantaţii păgâne, conform propriilor sale declaraţii.
Lăsând comparaţiile creative la o parte, Musk conduce firma Tesla, care produce maşini electrice. Acestea dispun de pilot automat, în măsura în care maşina se poate parcă singură, poate ieşi din parcare să ridice şoferul şi poate chiar să conducă în mod independent. În cea din urmă privinţă, au existat două probleme. Câteva accidente au fost deja înregistrate de şoferi neatenţi, care chiar au lăsat maşina să conducă de una singură, fără nicio intervenţie sau cu senzorii blocaţi. A doua problemă ţine de programarea maşinii.
Într-un test controlat, în care un şofer ar urma să producă un accident serios şi ar avea de ales între a răni o singură persoană sau mai mulţi oameni, computerele nu fac diferenţa morală între cele două. Oamenii de ştiinţă de la reputata instituţie MIT au dezvoltat o serie de teste pe această temă sub titlul "Moral Machine". Ce este "mai moral", pentru un om sau o maşină condusă de inteligenţă artificială, când nu mai funcţionează frâna şi ai o trecere de pietoni în faţă, pe care trec zeci de oameni? Scenariul poate fi groaznic pentru mintea umană, dar pentru un creier artificial anumite programări ar putea salva un număr cât mai mare de oameni.
Este interesant de observat că Elon Musk a ales tocmai MIT, atunci când a făcut primele declaraţii cu privire la pericolele inteligenţei artificiale. Musk a mai susţinut, în luna iunie, că este posibil ca omenirea să ajungă să trăiască într-o realitate virtuală, în măsura în care tehnologia avansează atât de rapid, încât nu vom mai şti ce este virtual şi ce este realitate. "Dacă luăm în calcul absolut orice rată de dezvoltare a tehnologiei, jocurile pe calculator vor deveni identice cu realitatea", a arătat Musk, adăugând că ubicuitatea acestor jocuri pe toate platformele şi evoluţia lor ar complica identificarea existenţei reale, pe termen lung.
Este neclar dacă miliardarul american vrea să pună frână evoluţiei tehnologice, în condiţiile în care o altă firmă a sa, SpaceX, doreşte să trimită oameni pe Marte până în 2030. Mai degrabă, pare să caute o serie de legi sau norme prin care orice fel de inteligenţă artificială este, din start, dedicată vieţii umane. Nici nu este singurul care avertizează lumea, pe această temă. În ianuarie i s-a alăturat Stephen Hawking şi alţi oameni de ştiinţă. Împreună, au semnat o scrisoare deschisă în care au subliniat 23 de principii cu privire la inteligenţa artificială.
Fanii de poveşti SF ar putea indica spre cele trei legi ale roboticii, inventate de scriitorul Isaac Asimov: 1) Un robot are voie să facă rău unui om sau, prin lipsă de acţiune, să permită rănirea unui om. 2) Un robot trebuie să asculte de ordinele date de un om, mai puţin când acestea intră în conflict cu prima lege. 3) Un robot trebuie să se protejeze pe sine, mai puţin în cazurile în care asta intră în conflict cu legile 1 şi 2. Acestea sunt considerate, însă, ca fiind prea simpliste pentru secolul XXI.
Şi totuşi, cele 23 de principii amintite mai sus ţin mai mult de cadrul de desfăşurare a cercetării în domeniu şi nicidecum de reguli impuse roboţilor. Este vorba de cercetare deschisă, de ne-militarizarea inteligenţei artificiale.
În măsura în care mai mulţi vizionari şi oameni de ştiinţă avertizează că o bună parte din slujbe vor fi preluate de roboţi în următoarele decade, iar automatizarea muncii va reprezenta următorul mare pas al omenirii, este clar că oameni precum Musk sunt ceva mai mult decât îngrijoraţi de proverbialul drob de sare. În ce măsură vom vedea robotizarea, în timpul vieţii noastre, în România, rămâne de văzut, dar în mod cert copiii noştri vor avea de înfruntat o cu totul altă realitate, în timpul vieţii lor. Măsura în care avertizori precum Musk au succesul dorit, poate reprezenta şi liniştea acestei generaţii, cu privire la viitor.
1. ERATA
(mesaj trimis de MAKE în data de 28.07.2017, 07:27)
Din primul principiu al lui Asimov, din nebagare de seama, a disparut negatia, astfel ca textul "1) Un robot are voie să facă rău unui om sau, prin lipsă de acţiune, să permită rănirea unui om", se va citi pe dos "1) Un robot NU are voie să facă rău unui om sau, prin lipsă de acţiune, să permită rănirea unui om.".
1.1. fără titlu (răspuns la opinia nr. 1)
(mesaj trimis de anonim în data de 28.07.2017, 13:02)
Ar fi interesanta, stimate domnule Make si o rubrica de dezbateri culturale , cuprinzand pietele literaturii (inclusiv "Cenusareasa" SF) ,arhitecturii sau a cinematografiei de pilda , nu doar despre piata tablourilor , respectabila dealtfel ...
1.2. multumesc (răspuns la opinia nr. 1.1)
(mesaj trimis de mihnea în data de 28.07.2017, 22:10)
nu e vina editarii, mi-era foamne. cer scuze.