Společnost OpenAI čelí stížnosti neziskové organizace, která požaduje pozastavení a následnou regulaci komerčního užívání velkých jazykových modelů. ChatGPt totiž představuje riziko pro soukromí a veřejnou bezpečnost. Informují o tom CNBC a Watcher Guru.
Federální obchodní komise (FTC) obdržela stížnost od neziskové výzkumné organizace Center for AI and Digital Policy (CAIDP) na společnost OpenAI, která podle ní svými velkými jazykovými modely porušuje zákon vládní agentury zakazující klamné obchodní praktiky.
CAIDP tvrdí, že ChatGPt představuje rizika pro soukromí uživatelů a veřejnou bezpečnost, uvedla americká televize CNBC. Navíc nesplňuje požadavky CAIDP pro transparentnost, vysvětlitelnost a spravedlnost.
OpenAI faces complaint to FTC that seeks investigation and suspension of ChatGPT releases https://t.co/4mH8903Tmo
— CNBC (@CNBC) March 30, 2023
Tyto jazykové modely kromě toho nejsou podle podání empiricky správné a nepodporují odpovědnost. Organizace od komise požaduje, aby přiměla OpenAI k dočasnému pozastavení komerčního užívání velkých jazykových modelů.
Před jejich nasazením by společnost nejprve měla vytvořit způsob nezávislého hodnocení produktů GPT a komise systém hlášení veřejných incidentů podobný jejímu systému hlášení podvodů spotřebitelů v případě ChatGPT-4.
Zastavte vývoj ještě pokročilejších modelů
CAIDP agenturu také požádala, aby převzala iniciativu v oblasti tvorby pravidel s cílem vytvořit standardy pro generativní produkty umělé inteligence. Dokument, jehož podepsal i prezident CAIDP Marc Rotenberg, OpenAI vyzvala k šestiměsíčnímu pozastavení výcviku modelů AI pokročilejších než ChatGPT-4, uvedl web Watcher Guru.
Generativní umělá inteligence vytváří obsah z již existujících údajů dostupných v digitálním prostoru. ChatGPT však zachází mnohem dál, neboť byl ve vytváření co nejpřesvědčivějších odpovědí vyškolen lidskými inženýry. Od uvedení v loňském listopadu vzbudil mnoho různorodých reakcí.
ChatGPT tvoří tak přesvědčivý obsah, že jej musely v obavách z podvádění studentů zakázat americké školy. Panují také obavy z toho, že kdyby padl do nesprávných rukou, mohl by se stát efektivním nástrojem pro šíření dezinformací. Chatbot totiž nemyslí a nechápe odpovědi, které vytváří. Neodpovídá tedy za jejich správnost.
ChatGPT-4 zachází ještě mnohem dál. Dokáže totiž pracovat s mnohem větším množstvím slov a obsah vytváří i v reakci na obrázky. ChatGPT nicméně vyděsil mnoho uživatelů poté, co jim umožnil nahlédnout do cizích konverzací. Jednalo se o první přímé ohrožení bezpečnosti uživatelů.