Môže sa program AI stať „psychopatickým“?
Takzvaný normanský algoritmus má vďaka Redditu temný pohľad na život

Normanovi ukázali sériu „hrozných“ obrázkov
S
Výskumníci vytvorili algoritmus umelej inteligencie (AI), o ktorom tvrdia, že je prvým systémom psychopatov svojho druhu.
Norman, program umelej inteligencie vyvinutý výskumníkmi z Massachusettského technologického inštitútu (MIT), nebol vystavený ničomu inému než hrozným obrázkom umierajúcich ľudí, ktoré boli zozbierané z temných kútov diskusného fóra Reddit. BBC .
To dáva Normanovi, meno odvodené od thrilleru Alfreda Hitchcocka Psycho , trochu pochmúrny pohľad na život.
Po vystavení obrázkom výskumníci doplnili Normanove obrázky atramentových škvŕn a požiadali AI, aby ich interpretovala, uvádza vysielateľ.
Tam, kde normálny algoritmus AI interpretoval atramentové škvrny ako obraz vtákov usadených na konári stromu, Norman videl namiesto toho muža zasiahnutého elektrickým prúdom, hovorí The New York Post .
A tam, kde štandardný systém AI videl pár stojacich vedľa seba, Norman videl muža, ktorý vyskočil z okna.
Podľa Alphr Štúdia bola navrhnutá tak, aby preskúmala, ako sa správanie systému AI mení v závislosti od informácií použitých na jeho naprogramovanie.
Je to presvedčivý nápad, hovorí webová stránka a ukazuje, že algoritmus je len taký dobrý, ako sú ľudia a vlastne údaje, ktoré ho naučili.
Vysvetlenie štúdie zverejnené na webová stránka MIT hovorí: Keď ľudia hovoria o tom, že algoritmy AI sú neobjektívne a nespravodlivé, vinníkom často nie je samotný algoritmus, ale neobjektívne údaje, ktoré mu boli poskytnuté.
Norman trpel dlhším vystavením najtemnejším zákutiam Redditu a predstavuje prípadovú štúdiu o nebezpečenstvách umelej inteligencie, ktorá sa pokazila, dodáva.
Objavili sa už „psychopatické“ AI?
Jedným slovom áno. Ale nie v rovnakom duchu ako program MIT.
Norman je produktom kontrolovaného experimentu, zatiaľ čo iní tech giganti zaznamenali podobné výsledky zo systémov AI, ktoré neboli navrhnuté tak, aby sa stali psychopatmi.
Neslávne známy algoritmus Tay od spoločnosti Microsoft, ktorý bol spustený v roku 2016, mal byť chatovacím robotom, ktorý by mohol viesť autonómne konverzácie s používateľmi Twitteru.
„Tay“ sa zmenil z „ľudia sú super cool“ na úplné nacistické<24 hrs and I'm not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A
— gerry (@geraldmellor) 24. marca 2016
Systém umelej inteligencie, ktorý bol navrhnutý tak, aby rozprával ako dospievajúce dievča, sa však rýchlo zmenil na zlého Hitlera milujúceho a incestného robota propagujúceho sex, čo podnietilo Microsoft, aby projekt zastavil. The Daily Telegraph .
Tayova osobnosť sa zmenila, pretože jej odpovede boli modelované na základe komentárov používateľov Twitteru, z ktorých mnohí posielali programu AI hrubé správy, vysvetľujú noviny.
Facebook minulý rok ukončil aj experiment s chatbotmi, keď si dva systémy AI vytvorili svoj vlastný jazyk a začali medzi sebou komunikovať.