Chatboții, printre care Bard și ChatGPT, sunt programe care folosesc inteligență artificială generativă pentru a conversa cu utilizatorii și pot răspunde la solicitările acestora. Evaluatori umani, care au acces la chat-urile respective, au descoperit că AI ar putea reproduce datele pe care le-a absorbit în timpul conversațiilor, creând un risc de scurgere al informațiilor. Google a lansat Bard în mai, în peste 180 de țări și în 40 de limbi. La 1 iunie, a actualizat o notificare de confidențialitate care stipulează
“Nu includeți informații confidențiale sau sensibile în conversațiile dumneavoastră cu Bard“.
Alphabet, compania care deține Google, și-a sfătuit angajații să nu introducă date confidențiale în chatboții AI, au declarat pentru Reuters, sub protecția anonimatului, patru persoane care au cunoștințe despre aceste informații. Compania a confirmat, invocând politica de lungă durată privind protecția informațiilor. De asemenea, Alphabet și-a alertat inginerii să evite utilizarea directă a codurilor pe care chatbotul le poate genera. Gigantul tehnologic a explicat că Bard poate face sugestii de cod care îi ajută pe programatori. Google a mai spus că își propune să fie transparentă cu privire la limitările tehnologiei sale.
Avertizarea Google reflectă ceea ce devine un standard de securitate pentru corporații, și anume avertizarea personalului cu privire la utilizarea programelor de chat disponibile public, și arată modul în care dorește să evite prejudicierea renumelui companiei din cauza software-ului pe care l-a lansat în concurență cu ChatGPT.
Un număr tot mai mare de companii din întreaga lume au instalat bariere pe chatboți AI, printre care Samsung. Amazon și Deutsche Bank. Apple nu a recunoscut acest lucru în mod public, dar, potrivit Reuters, se pare că a adoptat măsuri similare.
Sursă: Reuters, Biziday