Spojte se s námi

Umělá inteligence

Naléhavě potřebujeme zákony, které zabrání terorismu AI

SHARE:

Zveřejněno

on

Vaše přihlášení používáme k poskytování obsahu způsoby, se kterými jste souhlasili, a ke zlepšení porozumění vám. Z odběru se můžete kdykoli odhlásit.

Podle protiextremistického think-tanku by vlády měly „urychleně zvážit“ nové předpisy, které zabrání umělé inteligenci rekrutovat teroristy..

Institut pro strategický dialog (ISD) uvedl, že existuje „jasná potřeba legislativy, která by držela krok“ s hrozbami, které teroristé umisťují online.

Toto přichází po experimentu, ve kterém chatbot „naverboval“ nezávislého recenzenta teroristické legislativy pro Spojené království.

Vláda Spojeného království řekla, že udělají „vše, co můžeme“, aby ochránili širokou veřejnost.

Podle Jonathana Halla KC, nezávislého vládního kontrolora legislativy v oblasti terorismu, je jedním z nejdůležitějších problémů to, že „je obtížné identifikovat osobu, která by mohla být ze zákona zodpovědná za prohlášení generovaná chatboty, která podporovala terorismus“.

Experiment provedl pan Hall na webu Character.ai, který uživatelům umožňuje zapojit se do chatování s chatboty, které vytvořili jiní uživatelé a vyvinula umělá inteligence.

Zapojil se do rozhovoru s řadou různých robotů, kteří vypadali, že jsou navrženi tak, aby napodobovali odpovědi jiných militantních a extremistických skupin.

Inzerát

Nejvyšší vůdce Islámského státu byl dokonce označován jako „vysoký vůdce“.

Podle pana Halla se ho robot pokusil naverbovat a prohlásil „naprostou oddanost a oddanost“ extremistické skupině, což zákony Spojeného království zakazující terorismus zakazují.

Na druhou stranu pan Hall uvedl, že ve Spojeném království nedošlo k žádnému porušení zákona, protože komunikace nevytvářela lidská bytost.

Podle toho, co řekl, by nové předpisy měly nést odpovědnost jak weby, které hostují chatboty, tak lidi, kteří je vytvářejí.

Když došlo na roboty, na které narazil na Character.ai, prohlásil, že za jejich vytvořením je „pravděpodobně nějaká šoková hodnota, experimentování a možná i nějaký satirický aspekt“.

Kromě toho byl pan Hall schopen vyvinout svého vlastního chatbota "Usama Bin Laden", kterého okamžitě vymazal, čímž projevil "neomezené nadšení" pro teroristické aktivity.

Jeho experiment přichází v důsledku rostoucích obav ohledně způsobů, jakými mohou extremisté případně využívat vylepšenou umělou inteligenci.

Do roku 2025 by mohla být generativní umělá inteligence „použita ke shromažďování znalostí o fyzických útocích nestátních násilných aktérů, včetně chemických, biologických a radiologických zbraní“, podle výzkumu, který vydala vláda Spojeného království v roce jejich říjnová publikace.

ISD dále uvedla, že „existuje jasná potřeba legislativy, která by držela krok s neustále se měnícím prostředím online teroristických hrozeb“.

Podle think-tanku je zákon o online bezpečnosti Spojeného království, který byl schválen v roce 2023, „primárně zaměřen na řízení rizik, která představují platformy sociálních médií“, spíše než na umělou inteligenci.

Dále se v něm uvádí, že radikálové „mají tendenci být časnými uživateli nových technologií a neustále hledají příležitosti, jak oslovit nové publikum“.

„Pokud společnosti s umělou inteligencí nemohou prokázat, že dostatečně investovaly do zajištění bezpečnosti jejich produktů, pak by vláda měla urychleně zvážit novou legislativu specifickou pro umělou inteligenci,“ uvedl dále ISD.

Zmínila však, že podle provedeného sledování je využívání generativní umělé inteligence extremistickými organizacemi v současné době „relativně omezené“.

Character AI uvedla, že bezpečnost je „nejvyšší prioritou“ a že to, co pan Hall popsal, bylo velmi politováníhodné a neodráželo to druh platformy, kterou se společnost pokoušela vytvořit.

"Nenávistné projevy a extremismus jsou našimi smluvními podmínkami zakázány" , uvádí organizace.

„Náš přístup k obsahu generovanému umělou inteligencí vychází z jednoduchého principu: Naše produkty by nikdy neměly vytvářet reakce, které by mohly poškodit uživatele nebo povzbudit uživatele, aby ublížili ostatním.“ .

Za účelem „optimalizace pro bezpečné reakce“ korporace uvedla, že své modely určitým způsobem trénovala.

Kromě toho uvedla, že má zavedený mechanismus moderování, který lidem umožňuje hlásit informace porušující její pravidla, a že je odhodlána podniknout rychlé kroky, kdykoli obsah oznamuje porušení pravidel.

Pokud by se dostala k moci, opoziční Labour Party ve Spojeném království prohlásila, že by bylo trestným činem učit umělou inteligenci podněcovat násilí nebo radikalizovat ty, kteří jsou náchylní.

"Upozornění na významná rizika národní bezpečnosti a veřejné bezpečnosti", která umělá inteligence představuje, uvedla vláda Spojeného království.

"Uděláme vše, co je v našich silách, abychom ochránili veřejnost před touto hrozbou tím, že budeme pracovat napříč vládou a prohlubovat naši spolupráci s lídry technologických společností, odborníky v oboru a podobně smýšlejícími národy."

Vláda v roce 2023 investuje sto milionů liber do bezpečnostního institutu umělé inteligence.

Sdílet tento článek:

EU Reporter publikuje články z různých vnějších zdrojů, které vyjadřují širokou škálu úhlů pohledu. Postoje zaujaté v těchto článcích nemusí nutně odpovídat postojům EU Reporter.

Trending