WASHINGTON. Stovky akademikov, expertov a podnikateľov zapojených do vývoja umelej inteligencie (AI), vrátane miliardára Elona Muska, v novom vyhlásení žiadajú najmenej polročné pozastavenie vývoja nových modelov s ohľadom na "hlboké riziká pre spoločnosť a ľudstvo".
Navrhujú, aby vývojári túto pauzu využili na spoločnú prácu na bezpečnostných pravidlách a tiež na zväčšenie spolupráce so zákonodarcami na silnej regulácii odvetvia.
Výzva na okamžité prerušenie vývoja sa vzťahuje na "tréning systémov AI silnejších ako GPT-4", čo je nová generácia textového modelu, ktorú tento mesiac predstavila skupina OpenAI.
"Toto prerušenie by malo byť verejné a overiteľné... Ak ho nie je možné urobiť rýchlo, mali by zakročiť vlády a ustanoviť moratórium," uvádzajú signatári petície publikovanej neziskovou organizáciou Future of Life Institute.
Medzi signatármi je aj spoluzakladateľ Applu
Okrem Muska, ktorý patrí medzi sponzorov OpenAI, sú medzi nimi spoluzakladateľ firmy Apple Steve Wozniak, šéf spoločnosti Stability AI Emad Mostaque, filozof Yuval Noah Harari či profesori zo severoamerických i iných univerzít.
Apel prichádza po mesiacoch nekontrolovateľného vývoja v odbore takzvanej generatívnej umelej inteligencie, čo je označenie pre modely "vycvičené" na obrovskom množstve dát, ktoré vytvárajú originálne výstupy na základe identifikovaných vzorcov.

Môžu pri tom generovať nielen texty, ale aj obrázky či zvukové stopy pripomínajúce hlasy skutočných ľudí.
Vývoj vyvoláva obavy okrem iného zo záplavy dezinformácií a podvodov založených na autenticky vyzerajúcich vizuálnych a zvukových materiáloch.
Altman medzi signatármi nie je
Aj riaditeľ OpenAI Sam Altman v nedávnom rozhovore priznal, že sa "trošku bojí". "Musíme tu byť opatrní," povedal televízii ABC News pri príležitosti uvedenia GPT-4.
Tiež však vyjadril názor, že umelá inteligencia môže byť "najlepšou technológiou, akú doteraz ľudstvo vyvinulo". Altman podľa informácií agentúry Reuters však nebol medzi viac ako tisíc signatármi novej výzvy.
Výzva hneď v úvode varuje pred závažnými rizikami spojenými s umelou inteligenciou, "ako ukazuje výskum a uznali popredné laboratóriá AI".

"Laboratóriá a nezávislí experti by mali využiť toto prerušenie (vývoja), aby spoločne vyvinuli a implementovali sadu spoločných bezpečnostných protokolov pre dizajn a rozvoj pokročilej AI. .. Súbežne musia vývojári AI pracovať so zákonodarcami na dramatickom urýchlení rozvoja robustných systémov regulácie AI," píše sa vo vyhlásení.