Piatok 22. novembra, 2024
Logo UI zmiešané so štyrmi falošnými účtami na Twitteri s profilovými obrázkami, ktoré zrejme vygeneroval softvér umelej inteligencie, v Helsinkách 6. júna 2023 (Olivier Morin/AFP via Getty Images)

V tréningových materiáloch umelej inteligencie sa našli fotky zneužívania detí

Výskumníci zo Stanfordskej univerzity našli obrázky detskej pornografie v materiáloch používaných na trénovanie populárnych generátorov obrázkov umelej inteligencie, pričom nelegálne obrázky boli identifikované už v apríli.

Stanfordské internetové observatórium objavilo viac ako tisíc vygenerovaných obrázkov sexuálneho zneužívania detí v otvorenom súbore dát s názvom LAION-5B, ktorý súvisí s tréningom londýnskeho generátora obrázkov umelej inteligencie (AI) Stable Diffusion. Stable Diffusion je súčasťou neziskovej organizácie Stability AI ponúkajúcej generátor umelej inteligencie na prevod textu na obrázky a na trénovanie svojej umelej inteligencie používa LAION-5B.

Obrázky s detskou pornografiou boli vytvorené vzorkovaním databázy z webových stránok sociálnych médií a ich kombináciou s obrázkami z pornografických webových stránok.

Výskumníci o svojich zisteniach informovali spriaznené neziskové organizácie v Spojených štátoch a Kanade. Obsah zobrazujúci zneužívanie si priamo nepozerali a výskum sa uskutočnil predovšetkým pomocou nástroja PhotoDNA spoločnosti Microsoft, ktorý porovnáva zaheslované obrázky s obrázkami zo súborov údajov neziskových organizácií s cieľom odhaliť obsah zobrazujúci zneužívanie.

Aplikáciu PhotoDNA vyvinula spoločnosť Microsoft na identifikáciu fotografií zneužívaných detí.

Výskumníci odporučili, aby sa v budúcich dátových súboroch používal detekčný nástroj, ako je PhotoDNA, na odfiltrovanie obrázkov zneužívania, ale je ťažké vyčistiť otvorené dátové súbory, ak neexistuje centrálny orgán, ktorý dáta hosťuje.

V predvečer zverejnenia správy Stanfordského internetového observatória spoločnosť LAION oznámila agentúre Associated Press, že dočasne odstraňuje svoje dátové súbory.

LAION, čo je skratka pre neziskovú organizáciu Large-scale Artificial Intelligence Open Network, vo svojom vyhlásení uviedla, že „uplatňuje politiku nulovej tolerancie voči nelegálnemu obsahu a v rámci opatrnosti sme stiahli datasety LAION, aby sme sa pred ich opätovným zverejnením uistili, že sú bezpečné“.

Hoci obrázky predstavujú len zlomok indexu LAION, ktorý obsahuje približne 5,8 miliardy obrázkov, stanfordská skupina uviedla, že pravdepodobne ovplyvňujú schopnosť nástrojov umelej inteligencie generovať škodlivé výstupy, čo zosilňuje zneužívanie skutočných obetí zobrazujúcich sa viackrát.

Stačí totiž len niekoľko obrázkov zneužívania, aby nástroj UI vytvoril tisíce ďalších deepfakes, ktoré ohrozujú mladých ľudí a deti na celom svete.

„Ponáhľanie sa na trh“

Mnohé projekty generovania umelej inteligencie „boli v skutočnosti uvedené na trh“ a sprístupnené širokej verejnosti, uviedol David Thiel, hlavný technológ Stanfordského internetového observatória, ktorý je autorom správy.

„Vziať celý internetový odpad a urobiť z neho súbor dát na trénovanie modelov je niečo, čo by malo byť obmedzené na výskumné aktivity, ak vôbec, a nie je to niečo, čo by malo byť otvorene dostupné bez prísnejšej kontroly,“ povedal Thiel v rozhovore.

Podľa správ o obetiach boli už vyrobené a na internete šírené milióny takýchto vygenerovaných snímok, pričom úrady identifikovali 19 000 obetí.

Významným užívateľom LAION, ktorý pomohol formovať vývoj súboru údajov, je londýnsky startup Stability AI, tvorca modelov Stable Diffusion na konverziu textu na obraz. Nové verzie modelu Stable Diffusion výrazne sťažili vytváranie škodlivého obsahu, ale staršia verzia predstavená minulý rok – ktorú spoločnosť Stability AI podľa svojich slov nezverejnila – je stále zapracovávaná do ďalších aplikácií a nástrojov a podľa správy Stanfordskej univerzity zostáva „najpopulárnejším modelom na vytváranie sexuálnych obrázkov“.

„Nemôžeme to vziať späť. Tento model je v rukách mnohých ľudí na ich lokálnych počítačoch,“ povedal Lloyd Richardson, riaditeľ informačných technológií v Kanadskom centre na ochranu detí, ktoré prevádzkuje kanadskú internetovú linku na nahlasovanie sexuálneho zneužívania.

Spoločnosť Stability AI uviedla, že hosťuje len filtrované verzie aplikácie Stable Diffusion a že „od doby, kedy prevzala výhradný vývoj aplikácie Stable Diffusion, podnikla proaktívne kroky na zníženie rizika zneužitia“.

„Tieto filtre odstraňujú škodlivý obsah, ktorý sa k modelom nedostane,“ uviedla spoločnosť v písomnom vyhlásení. „Odstránením takéhoto obsahu skôr, ako sa vôbec dostane do modelu, môžeme pomôcť zabrániť tomu, aby model generoval nebezpečný obsah.“

LAION je dielom nemeckého výskumníka a učiteľa Christopha Schuhmanna. Začiatkom minulého roka povedal pre agentúru AP, že čiastočným dôvodom sprístupnenia takejto obrovskej databázy verejnosti je zabezpečiť, aby budúcnosť vývoja umelej inteligencie nekontrolovala hŕstka mocných spoločností.

„Bude to oveľa bezpečnejšie a spravodlivejšie, ak ju dokážeme demokratizovať, aby z nej mohla mať prospech celá výskumná komunita a široká verejnosť,“ povedal.

Svetová legislatíva v oblasti UI

Spojené štáty sa chystajú spustiť inštitút pre bezpečnosť umelej inteligencie, ktorý bude vyhodnocovať známe a vznikajúce riziká takzvaných „okrajových“ modelov umelej inteligencie, uviedla ministerka obchodu Gina Raimondo na novembrovom summite o bezpečnosti umelej inteligencie vo Veľkej Británii.

Prezident Joe Biden vydal 30. októbra nariadenie, podľa ktorého musia vývojári systémov UI predstavujúcich riziko pre národnú bezpečnosť, hospodárstvo, verejné zdravie a bezpečnosť USA zdieľať výsledky bezpečnostných testov s vládou.

Americká Federálna obchodná komisia začala v júli vyšetrovanie spoločnosti OpenAI pre podozrenie, že porušuje zákony na ochranu spotrebiteľa.

Austrália prinúti vyhľadávače používať nové algoritmy, aby zabránili zdieľaniu materiálov o sexuálnom zneužívaní detí vytvorených umelou inteligenciou a výrobe ich deepfake verzií.

Na prvom globálnom summite o bezpečnosti umelej inteligencie v novembri vo Veľkej Británii sa poprední vývojári dohodli na spolupráci s vládami pri testovaní nových okrajových modelov pred ich zverejnením, aby tak pomohli zvládať riziká spojené s umelou inteligenciou.

Viac ako 25 krajín prítomných na summite vrátane Spojených štátov a Indie, ako aj Európskej únie podpísalo „Bletchleyskú deklaráciu“ o spolupráci a vytvorení spoločného prístupu ku kontrole.

Britská dozorná skupina pre ochranu osobných údajov v októbri uviedla, že vydala spoločnosti Snapchat predbežné exekučné oznámenie kvôli možnému zlyhaniu pri riadnom posudzovaní rizík pre súkromie jej generatívnych chatbotov pre užívateľov, najmä pre deti.

Na tejto správe sa podieľali agentúry Associated Press a Reuters.

Pôvodný článok.

Prečítajte si aj