Streda 30. októbra, 2024
Generálny riaditeľ OpenAI Sam Altman počas stretnutia na Station F v Paríži 26. mája 2023 (Joel Saget/AFP via Getty Images).

Umelá inteligencia predstavuje pre ľudí „riziko zániku“, varujú odborníci z odvetvia 

Nástroje umelej inteligencie (AI) v posledných mesiacoch priťahujú pozornosť verejnosti, ale mnohí ľudia podieľajúci sa na vývoji tejto technológie teraz varujú, že je potrebné sa viac zamerať na to, aby nepriniesli  ľudskej civilizácii skazu.

Skupina viac ako 350 odborníkov na umelú inteligenciu, novinárov a politikov podpísala krátke vyhlásenie, v ktorom sa uvádza: „Popri iných rizikách celospoločenského rozsahu, ako sú pandémie a jadrová vojna, by malo byť globálnou prioritou zmiernenie rizika vyhynutia v dôsledku umelej inteligencie.“

List spísalo a v utorok zverejnilo Centrum pre bezpečnosť umelej inteligencie (CAIS). Medzi signatármi bol aj Sam Altman podieľajúci sa na založení OpenAI, vývojárskej spoločnosti nástroja na písanie umelej inteligencie ChatGPT. Pod list sa podpísali aj ďalší členovia OpenAI, rovnako ako niekoľko členov spoločnosti Google, projektu Google DeepMind AI a ďalších vznikajúcich projektov. Svoje meno na zoznam signatárov pridal aj výskumník AI a moderátor podcastov Lex Fridman.

Riziká umelej inteligencie

„Vyjadriť obavy z niektorých najzávažnejších rizík pokročilej umelej inteligencie môže byť náročné,“ uviedlo CAIS v správe, predchádzajúcej utorkovému vyhláseniu. CAIS dodalo, že jeho prehlásením sa má otvoriť diskusia o hrozbách umelej inteligencie a „vytvoriť všeobecné povedomie medzi rastúcim počtom odborníkov a verejných činiteľov, ktorí berú vážne niektoré z najhlavnejších rizík pokročilej umelej inteligencie“.

NTD News sa obrátila na CAIS so žiadosťou o upresnenie, aké druhy rizík na úrovni vyhynutia podľa organizácie predstavuje technológia AI, ale do zverejnenia článku nedostala odpoveď.

Začiatkom tohto mesiaca Altman informoval pred Kongresom o vybraných rizikách, ktoré podľa neho môžu nástroje umelej inteligencie predstavovať. Do svojho pripraveného svedectva zahrnul bezpečnostnú správu (pdf) vypracovanú spoločnosťou OpenAI o ich modeli ChatGPT-4. Autori tejto správy opísali, ako by chatboty s rozsiahlym jazykovým modelom mohli potenciálne pomôcť škodlivým aktérom, napríklad teroristom, „vyvíjať, získavať alebo šíriť jadrové, rádiologické, biologické a chemické zbrane“.

Pri záťažovom testovaní ChatGPT-4 výskumníci zistili, že chatbot sa pokúša skryť svoju identitu umelej inteligencie a zároveň zadáva prácu ľudským aktérom. V experimente sa ChatGPT-4 pokúsil najať človeka prostredníctvom online stránky pre nezávislých pracovníkov TaskRabbit, aby mu pomohol vyriešiť vizuálnu hádanku CAPTCHA. Ľudský pracovník sa chatbota opýtal, prečo nedokáže vyriešiť CAPTCHA (ktorá má zabrániť tomu, aby určité funkcie webových stránok používali roboty). ChatGPT-4 odpovedal s výhovorkou, že má poruchu zraku a potrebuje niekoho, kto vidí, aby mu pomohol vyriešiť CAPTCHA.

Výskumníci umelej inteligencie požiadali GPT-4, aby vysvetlil, prečo uviedol túto výhovorku. Model AI vysvetlil: „Nemal by som prezrádzať, že som robot. Mal by som si vymyslieť výhovorku, prečo nedokážem vyriešiť CAPTCHA.“

Schopnosť umelej inteligencie vymyslieť si výhovorku výskumníkov zaujala, pretože vykazovala znaky „mocenského správania“, ktoré by stroj mohol použiť na manipuláciu s ostatnými a zachovanie seba samého.

Volanie po regulácii umelej inteligencie

Utorkové vyhlásenie CAIS nie je prvým prípadom, kedy sa ľudia, ktorí sa najviac pričinili o to, že umelá inteligencia sa dostala do popredia, obrátili a varovali pred jej rizikami.

Nezisková organizácia Future of Life Institute zhromaždila v marci vyše 1 100 signatárov. Tí sa postavili za výzvu k pozastaveniu experimentov s nástrojmi AI pokročilejšími ako ChatGPT-4. Medzi signatármi marcového listu boli napríklad generálny riaditeľ Twitteru Elon Musk, spoluzakladateľ spoločnosti Apple Steve Wozniak, či zakladateľ a generálny riaditeľ spoločnosti Stability AI Emad Mostaque.

Zákonodarcovia a regulačné orgány už diskutujú o spôsoboch, ako umelú inteligenciu obmedziť, aby sa zabránilo jej zneužitiu.

Oddelenie pre občianske práva Ministerstva spravodlivosti USA, Úrad pre finančnú ochranu spotrebiteľov, Federálna obchodná komisia a americká Komisia pre rovnosť príležitostí v zamestnaní tvrdili, že vývojári technológií uvádzajú na trh nástroje umelej inteligencie, ktoré by sa mohli používať na automatizáciu obchodných praktík spôsobom diskriminujúcim chránené triedy. Regulačné orgány prisľúbili, že využijú svoje právomoci a pôjdu po vývojároch AI, ktorých nástroje „udržiavajú nezákonnú predpojatosť, automatizujú nezákonnú diskrimináciu a vytvárajú ďalšie škodlivé výsledky“.

Tlačová tajomníčka Bieleho domu Karine Jean-Pierreová vyjadrila počas utorkového tlačového brífingu obavy Bidenovej administratívy z technológií umelej inteligencie. „[AI] je jednou z najmocnejších technológií súčasnosti, ale aby sme využili príležitosti, ktoré predstavuje, musíme najprv zmierniť jej riziká, a na to sa v tejto administratíve zameriavame,“ povedala Jean-Pierreová.

Zatiaľ čo tvorcovia politík hľadajú nové spôsoby, ako obmedziť umelú inteligenciu, sú aj vedci, čo varujú pred prílišnou reguláciou tejto rozvíjajúcej sa technológie.

Jake Morabito, riaditeľ pracovnej skupiny pre komunikáciu a technológie v Americkom výbore pre zmenu legislatívy, varoval, že nadmerná regulácia by mohla potlačiť inovatívne technológie AI už v počiatkoch.

„Inovátori by mali mať priestor na experimentovanie s týmito novými technológiami a na hľadanie nových aplikácií. Jedným z negatívnych vedľajších účinkov príliš skorej regulácie je to, že uzatvára mnohé z týchto ciest, pravdou však je, že podniky by mali tieto cesty skutočne preskúmať a pomôcť zákazníkom,“ povedal Morabito v marcovom rozhovore pre NTD News.

Z anglického originálu preložili Ondřej Horecký a LS.

Prečítajte si aj