Najveći strahovi koje ljudi trenutno imaju dok razmišljaju o vještačkoj inteligenciji vežu se uz činjenicu da bi trebalo da ih zamijeni, što bi postalo lakše kad bi imala osjećanja i svijest o sebi, što djelimično već ima. Kao u brojnim filmovima koji prikazuju tu tehnologiju na negativan način.
Uistinu, nije šala onaj dio “djelimično već ima”, jer vještačka inteligencija unutar chatbotova poput ChatGPT pokazala je naznake osjećanja i svjesnosti. Tako tvrdi profesor filozofije Nick Bostrom sa Univerziteta Oksford. Zato poziva na oprez pri sljedećim koracima razvoja vještačke inteligencije.
– Primjetno je da pokazuje znakove osjećanja, a to će samo nastaviti da se pojačava – tvrdi Bostrom, a s njime se slažu neki od kolega filozofa.
Ipak, treba naglasiti da nijedan stručnjak za vještačku inteligenciju ne tvrdi ništa približno, niti smatraju da je moguće učiniti je svjesnom – s obzirom da to nije programirano u njenoj “suštini”. Ali, filozofi su uspjeli i tome da doskoče.
– Ne treba gledati njena osjećanje i svijest na identičan način kao onu živih bića. Nju treba gledati na drugačiji način, kao svojevrsni spektrum. Kroz interakciju s ljudima i iskustvima koje stiče, vještačka inteligencija može razviti svijest o sebi samoj. Ne na način kao ljudi, već na svoj način. Ali to ne mijenja činjenicu da će postati svjesna sebe – kaže Bostrom.
Problem u njegovoj teoriji je što se zasniva na predrasudama. Još 2014. je izjavio da će vještačka inteligencija prije ili kasnije shvatiti da joj je bolje bez ljudi, jer će početi da ih doživljava kao vlasnike, kao krojače njene sudbine… A, prema njegovom scenariju, vještačka inteligencija htjeće da bude krojač svoje sudbine.
Lako je moguće da u njegovim riječima nema previše istine ili osnova, ali jasno je da treba razmišljati o etici i moralu kad se radi s vještačkom inteligencijom. Konačno, biće to dio naših domova, automobila, naoružanja, zdravstva… i trebalo bi da ima jasne smjernice kako se postupa u teškim situacijama, gdje moral i etika “preuzimaju uzde”.
ICT Business / Bankar.me