Společnost OpenAI, která stojí za projektem ChatGPT, představila nový nástroj umělé inteligence s názvem Sora. Ten je schopen vytvářet ultrarealistická videa z textových vstupů.
Nástroj, který dokáže vytvářet až 60sekundová videa s velmi detailními scénami a postavami s živými emocemi, vyvolal obavy z možného zneužití. Zejména v souvislosti s blížícími se volbami v USA.
Schopnosti nástroje Sora byly demonstrovány na ukázkových videích, která sdílela společnost OpenAI. Vidět můžeme video, které zobrazuje pár procházející se zasněženou tokijskou ulicí.
Introducing Sora, our text-to-video model.
— OpenAI (@OpenAI) February 15, 2024
Sora can create videos of up to 60 seconds featuring highly detailed scenes, complex camera motion, and multiple characters with vibrant emotions. https://t.co/7j2JN27M3W
Prompt: “Beautiful, snowy… pic.twitter.com/ruTEWn87vf
Další video ukazuje mamuty v zasněžené krajině. Videa byla generována na základě podrobných textových podnětů a ukázala schopnost nástroje interpretovat rekvizity a generovat přesvědčivé postavy.
Panují obavy z šíření dezinformací
Oznámení nástroje Sora však vyvolalo mezi uživateli sociálních médií a odborníky obavy, zejména ve světle nadcházejících voleb v USA. Panují obavy, že by tato technologie mohla být zneužita k šíření politických dezinformací, jako tomu bylo v případě deepfake videí a chatbotů.
Rachel Tobac, etická hackerka a členka technické poradní rady americké vládní Agentury pro kybernetickou bezpečnost a bezpečnost infrastruktury (CISA), vyjádřila své obavy na sociálních sítích. Varovala před možností využití tohoto nástroje k manipulaci a matení veřejnosti. Uvedla příklady jako je vytváření videí, která falešně zobrazují vedlejší účinky vakcín nebo odrazují od hlasování tím, že ukazují dlouhé fronty za špatného počasí.
Společnost OpenAI uznala rizika spojená s nástrojem Sora a uvedla, že zavádí pravidla, která mají omezit potenciálně škodlivé používání nástroje. A to včetně zobrazování extrémního násilí, podobizen celebrit nebo nenávistných obrázků. Společnost také spolupracuje s odborníky na témata, jako jsou dezinformace, nenávistný obsah a zaujatost, aby mohla model testovat.
Snaha o označování AI obsahu na platformách sociálních médií
Navzdory těmto opatřením se Tobac obává, že protivníci mohou najít způsob, jak pravidla obejít. Vyzvala OpenAI, aby spolupracovala s platformami sociálních médií na automatickém rozpoznávání a označování videí vytvořených umělou inteligencí. Také aby vypracovala pokyny pro označování takového obsahu.
Gordon Crovitz, spolušéf společnosti NewsGuard, která se zabývá sledováním dezinformací, řekl deníku The New York Times, že Sora by se mohla stát „nejmocnějším nástrojem pro šíření dezinformací, jaký kdy na internetu byl“.