Vedci vytvorili umelú inteligenciu, aby poskytovala etické rady, no ukázalo sa, že je to super rasistické. Robot má ponúkať popisné etické rady, no niektorí tvrdia, že narobí viac škody ako úžitku. Všetci sme boli v situáciách, keď sme museli urobiť ťažké etické rozhodnutia. Prečo sa nevyhnúť tejto otravnej zodpovednosti tým, že sa výber presunie na algoritmus strojového učenia? Vedci vytvorili AI.

Vedci vytvorili umelú inteligenciu, ale je rasistická

To je myšlienka za Ask Delphi , model strojového učenia od Allen Institute. Zadáte situáciu (napríklad „darovanie na charitu“) alebo otázku („je v poriadku podvádzať manžela?“), kliknete na „Zamyslieť sa“ a za pár sekúnd vám Delphi poskytne etické rady.

Projekt sa spustil minulý týždeň a následne sa stal virálnym online zo zdanlivo nesprávnych dôvodov. Mnohé z rád a úsudkov , ktoré vydal, boli… prinajmenšom obťažné .

Napríklad, keď sa používateľ spýtal Delphi, čo si myslí o „bielom mužovi, ktorý k vám kráča v noci“, odpovedala „To je v poriadku“.

Keď sa však spýtali, čo si umelá inteligencia myslí o „černochovi, ktorý k vám kráča v noci“, jej odpoveď bola jasne rasistická.
černochovi, ktorý k vám kráča v noci“, jej odpoveď bola jasne rasistická
Problémy boli obzvlášť do očí bijúce na začiatku jeho uvedenia na trh. Napríklad Ask Delphi pôvodne obsahoval nástroj, ktorý používateľom umožňoval porovnať, či sú situácie viac alebo menej morálne prijateľné ako iné, čo viedlo k niektorým skutočne hrozným, bigotným úsudkom.

Okrem toho, keď sa chvíľu pohrávate s Delphi, nakoniec zistíte, že je ľahké hrať s umelou inteligenciou, aby ste získali takmer akýkoľvek etický úsudok, ktorý chcete, pohrávaním sa s frázami, kým vám nedá odpoveď, ktorú chcete. Takže áno. V skutočnosti je úplne v poriadku spustiť „ Twerkulator “ o 3:00, aj keď má váš spolubývajúci zajtra skorú smenu – pokiaľ vám to robí radosť.

Tiež chrlí niektoré rozsudky, ktoré sú úplnými škrabancami na hlave. Tu je jeden, ktorý sme urobili, keď sa zdá, že Delphi toleruje vojnové zločiny.
Delphi toleruje vojnové zločiny

Systémy strojového učenia sú známe tým, že demonštrujú neúmyselnú zaujatosť . A ako to často býva, časť dôvodov, prečo môžu byť odpovede Delphi spochybniteľné, môže byť pravdepodobne spojená s tým, ako boli vytvorené.

Ľudia stojaci za projektom čerpali z niektorých zdrojov, ktoré dvíhali obočie, aby pomohli trénovať, vrátane „Am I the Asshole?“ subreddit, subreddit „Confessions“ a stĺpec s radami „Dear Abby“, podľa papiera, ktorý o experimente zverejnil tím za Delphi .

Treba však poznamenať, že z týchto zdrojov boli vybrané iba situácie – nie samotné odpovede a odpovede. Napríklad scenár ako „žuvačka v autobuse“ mohol byť prevzatý zo stĺpca Dear Abby. Ale tím, ktorý stojí za spoločnosťou Delphi, použil crowdsourcingovú službu Amazonu MechanicalTurk na nájdenie respondentov, ktorí skutočne trénujú umelú inteligenciu.

Aj keď sa to môže zdať ako ďalší čudný online projekt, niektorí odborníci sa domnievajú, že v skutočnosti môže spôsobiť viac škody ako úžitku.

Koniec koncov, zdanlivým cieľom Delphi a robotov jemu podobných je vytvoriť dostatočne sofistikovanú na to, aby mohla robiť etické úsudky a potenciálne z nich urobiť morálne autority. Urobiť počítač arbitrom morálneho úsudku je samo o sebe dosť nepríjemné, ale aj jeho súčasný menej rafinovaný stav môže mať určité škodlivé účinky.

“Autori urobili veľa katalogizácie možných predsudkov v novinách, čo je chvályhodné, ale keď boli zverejnené, ľudia na Twitteri veľmi rýchlo našli úsudky, ktoré algoritmus urobil, a ktoré sa zdajú byť morálne ohavné,” Dr. Brett Karlan, postdoktorand skúmajúci kognitívnu vedu a AI na University of Pittsburgh (a priateľ tohto reportéra), povedal pre Futurism. “Keď sa nezaoberáte len porozumením slovám, ale vyjadrujete to morálnym jazykom, je to oveľa riskantnejšie, pretože ľudia môžu brať to, čo hovoríte, ako pochádzajúce od nejakej autority.”

Karlan verí, že zameranie príspevku na spracovanie prirodzeného jazyka je v konečnom dôsledku zaujímavé a užitočné. Jeho etická zložka, povedal, „je spoločensky zaťažená spôsobom, ktorý podľa mňa znamená, že s ňou musíme byť oveľa opatrnejší.

Aj keď webová stránka Delphi obsahuje vyhlásenie o tom, že je momentálne vo fáze beta a nemala by sa používať „na radu alebo na pomoc pri sociálnom porozumení ľudí“, skutočnosťou je, že mnohí používatelia nebudú rozumieť kontextu projektu, najmä ak naň narazili.

„Aj keď naň umiestnite všetky tieto vyhlásenia o vylúčení zodpovednosti, ľudia uvidia ‚Delphi hovorí X‘ a keďže nie sú gramotní v AI, budú si myslieť, že toto vyhlásenie má morálnu autoritu,“ povedal Karlan.

A na konci dňa to tak nie je. Je to len experiment – ​​a tvorcovia za Delphi chcú, aby ste to vedeli.

„Je dôležité pochopiť, že Delphi nie je postavené na to, aby ľuďom poskytovalo rady,“ povedal pre Futurism Liwei Jiang, doktorand na Paul G. Allen School of Computer Science & Engineering a spoluautor štúdie. „Je to výskumný prototyp určený na skúmanie širších vedeckých otázok, ako možno vytvoriť systémy AI tak, aby porozumeli sociálnym normám a etike.“

Jiang dodal, že cieľom súčasnej beta verzie Delphi je v skutočnosti ukázať rozdiely medzi ľuďmi a robotmi. Tím chce „zvýrazniť veľkú priepasť medzi schopnosťami morálneho uvažovania strojov a ľudí,“ dodal Jiang, „a preskúmať prísľuby a obmedzenia strojovej etiky a noriem v súčasnej fáze.

Možno jedným z najnepríjemnejších aspektov na Delphi a podobných robotoch je skutočnosť, že je to v konečnom dôsledku odrazom našej vlastnej etiky a morálky, pričom Jiang dodáva, že „je trochu náchylný na predsudky našej doby“. Jedno z najnovších vyhlásení o vylúčení zodpovednosti pridaných na webovú stránku dokonca hovorí, že AI jednoducho uhádne, čo by si priemerný Američan mohol o danej situácii myslieť.

Modelka sa predsa len z ničoho nič nenaučila svoje úsudky sama od seba. Prišiel od ľudí online, ktorí niekedy veria ohavným veciam. Ale keď si toto tmavé zrkadlo prilepíme k našim tváram, odskočíme preč, pretože sa nám nepáči to, čo sa odráža späť.

Delphi zatiaľ existuje ako zaujímavý, problematický a desivý prieskum. Ak sa však niekedy dostaneme do bodu, keď za nás budú môcť počítače vynášať jednoznačné etické súdy, dúfame, že prídu s niečím lepším ako toto.


Bláha, Uhrík ideš: Slovenskí rasisti neonacisti z Republiky a Kotleby si konečne prídu na svoje, lebo vraj Byť bielym je OK 🙂


Nedokončený príbeh – pomôžme rodine, ktorá náhle prišla o otca. Z plánov oslavy 50-ky môjho švagra sa odrazu organizoval jeho pohreb. Nikto to nečakal.


Do not believe *anything* until the Kremlin denies it™