Astrofizicianul britanic Stephen Hawking suferă de o maladie neuronală motorie similară sclerozei laterale amiotrofice (ALS) și de foarte mult timp a rămas paralizat, neputând vorbi decât cu ajutorul unui sintetizator de voce. Starea precară a sănătății nu l-a oprit, însă, pe celebrul profesor de la Universitatea Cambridge să-și continue activitatea de cercetare. El a făcut o serie de comentarii cu privire la pericolele cu care se va confrunta omenirea pe termen mediu și îndepărtat.Astfel, conform unui material publicat de Live Science, una dintre amenințări este reprezentată de dezvoltarea inteligenței artificiale. Hawking face parte dintr-un grup restrâns, dar în creștere de oameni de știință care și-au exprimat îngrijorarea cu privire la viitorul inteligenței artificiale. Acest tip de inteligență a mașinilor ar putea într-o zi să o egaleze sau chiar să o depășească pe cea umană, fapt ce ar putea declanșa un scenariu apocaliptic de tipul celor exploatate deja de Hollywood în filmele ”Matrix” sau ”Terminator”.Avertismentul lui Stephen Hawking nu a rămas fără ecou. Copilul teribil al erai digitale, miliardarul și omul de afaceri Elon Musk, CEO al companiilor SpaceX și Tesla Motors, a declarat la rândul său că ”inteligența artificială reprezintă cea mai gravă amenințare existențială la adresa omenirii”. În luna ianuarie a acestui an, Hawking, Musk și alți oameni de știință au semnat o scrisoare deschisă în care semnalează și explică atât riscurile, cât și beneficiile dezvoltării sistemelor de inteligență artificială.Mulți cercetători din domeniul inteligenței artificiale doresc însă să calmeze lucrurile și susțin că nu suntem nici măcar aproape de a produce o inteligență artificială capabilă de conștiință de sine și cu o capacitate superioară celei umane.
O altă amenințare planează asupra societății încă de la începuturi: agresivitatea umană. Dacă mașinile pe care le construim nu ne vor ucide, am putea ca noi să le folosim pentru a face acest lucru. Stepehn Hawking este convins că agresivitatea umană poate duce la distrugerea întregii civilizații.Fizicianul a făcut un tur al Muzeului Științelor de la Londra, în compania unui câștigător al unui concurs, Adaeze Uyanwah, un profesor de 24 de ani din California, al cărui premiu a fost tocmai întâlnirea cu celebrul astrofizician. Atunci când Uyanwah l-a întrebat ce defect uman ar dori să schimbe, dacă ar putea, Hawking a răspuns: ”Mi-ar plăcea să corectez agresivitatea umană. Chiar dacă ne-a oferit șansa de a supraviețui pe când nu ieșisem încă din peșteri, pentru a dobândi mai multă hrană, teritorii sau partenere pentru reproducere, agresivitatea în prezent amenință să ne distrugă pe toți.Spre exemplu, un război nuclear major ar pune capăt civilizației și ar putea chiar să ducă la dispariția speciei umane”.Întrebat ce calitate umană ar dori să întărească, Hawking a ales empatia, ”pentru că ne aduce împreună într-o stare pașnică și plină de dragoste”.De asemenea, Stephen Hawking consideră că explorarea spațiului este extraordinar de importantă pentru a asigura supraviețuirea speciei. ”Cred că, pe termen lung, viitorul omenirii este legat indisociabil de spațiul cosmic, care reprezintă o importantă asigurare de viață pentru supraviețuirea noastră ca specie, putând împiedica dispariția omenirii, prin colonizarea altor planete”.
Cea de-a treia amenințare importantă cu care se va confrunta omenirea este cea legată de viața extraterestră. Încă din 2010, Stephen Hawking avertiza că, dacă există viață extraterestră inteligentă, s-ar putea să nu fie tocmai prietenoasă cu oamenii. ”Dacă vom fi vizitați de extratereștri, cred că urmările vor fi similare debarcării lui Cristofor Columb în America, eveniment care nu a mers tocmai bine din punctul de vedere al indigenilor americani”, a susținut Hawking.”Civilizațiile extraterestre avansate ar putea deveni nomade prin Univers, căutând să cucerească și să colonizeze orice planetă le iese în cale. Dacă așa stau lucrurile, pentru ei ar fi important să exploateze resursele fiecărei planete, pentru a putea construi și mai multe nave stelare, pentru a-și putea continua drumul prin Univers. Cine știe care ar putea fi limitele unei astfel de civilizații?”, afirmă Hawking.
Citește și:
Cea mai mare fotografie astronomică a Căii Lactee
Stephen Hawking: E.T. va cuceri şi va coloniza omenirea
Uimitorul „paradox al pierderii de informaţii”, explicat de Stephen Hawking
Peste 1.000 de experţi denunţă o... cursă a înarmării cu roboţi ucigaşi
100 de milioane de dolari pentru savanţii care vor găsi viaţă inteligentă în spaţiu