Společnost Anthropic nedávno představila svůj průkopnický model umělé inteligence Claude 3.5 Sonnet, který je schopen samostatně ovládat počítač. Zahajuje tak novou éru schopností umělé inteligence.
Tento model, který je v beta testování pro vývojáře, je schopen plnit úkoly tradičně vykonávané lidmi. Vyvolává nejen nadšení, ale i obavy, jak by mohl ovlivnit pracovní místa v různých odvětvích. Cílem iniciativy společnosti Anthropic je získat zpětnou vazbu od vývojářů a zároveň zajistit bezpečnost uživatelů vzhledem k výkonným funkcím, které tento nástroj umělé inteligence nabízí.
Model Claude 3.5 Sonnet umožňuje vývojářům naprogramovat umělou inteligenci tak, aby napodobovala interakce s počítačem podobné lidským. Od pohybu kurzoru po klikání na tlačítka a psaní. „Obrovské množství moderní práce se odehrává prostřednictvím počítačů,“ zdůraznila společnost Anthropic. Věří, že když umožní AI přímo spolupracovat se softwarem, může tato inovace způsobit revoluci v procesech a rozšířit škálu aplikací dostupných pro asistenty AI. Vývojáři již s jejími schopnostmi experimentují a využívají ji k automatizaci opakujících se procesů a usnadnění úkolů, jako je testování softwaru a výzkum.
Introducing an upgraded Claude 3.5 Sonnet, and a new model, Claude 3.5 Haiku. We’re also introducing a new capability in beta: computer use.
— Anthropic (@AnthropicAI) October 22, 2024
Developers can now direct Claude to use computers the way people do—by looking at a screen, moving a cursor, clicking, and typing text. pic.twitter.com/ZlywNPVIJP
Budou lidské role zastaralé?
Navzdory potenciálním přínosům však fáze veřejného testování přináší i varovné signály. Ačkoli je schopen zvládnout mnoho základních funkcí, je Claude 3.5 Sonnet popisován jako stále v experimentální fázi, občas náchylný k chybám. Model dosáhl ve srovnávacích testech pouhých 14,9 procent bodů. To je sice výrazné zlepšení oproti konkurenčním AI, ale stále ještě zdaleka nedosahuje zdatnosti na úrovni člověka. Jak zdůrazňuje společnost Anthropic, „očekáváme, že se používání počítače bude rychle zlepšovat, aby se stalo rychlejším, spolehlivějším a užitečnějším pro úkoly, které chtějí naši uživatelé splnit.“
Zavedení tak výkonného nástroje umělé inteligence vede ke složitému dialogu o budoucnosti práce. Konverzace osciluje mezi pohledem na AI jako na transformační nástroj, který zvyšuje produktivitu, versus hrozbu, která může učinit lidské role zastaralými. Jak upozorňuje Anthropic, výzva spočívá v nalezení správné rovnováhy: „Jde jen o to, jaký bude poměr. A ten se může lišit podle situace nebo odvětví.“ Obavy týkající se vytěsňování pracovních míst jsou oprávněné, zejména ve světle automatizace a nastupující role umělé inteligence v různých odvětvích.
Ochranná opatření
V reakci na tyto oprávněné obavy společnost Anthropic začlenila několik ochranných opatření zaměřených na řešení možného zneužití své technologie. Společnost vyvinula klasifikátory, které pomáhají identifikovat a zmírnit zneužití, zejména pokud jde o nadcházející volby v USA. Bylo zvýšeno úsilí o monitorování zapojení Claude do činností souvisejících s volbami. Odráží to povědomí o významných důsledcích, které by tato technologie mohla mít pro integritu voleb a důvěru veřejnosti. Přestože ochranná opatření nejsou spolehlivá, jejich proaktivní zavádění znamená závazek k etickému nasazení umělé inteligence.
Zpětná vazba od vývojářů nadále formuje vývoj aplikace Claude 3.5 Sonnet. Širší důsledky pro pracovní trhy a každodenní pracovní procesy tak zůstávají nejisté. Společnost Anthropic je prý připravena postupovat opatrně při spojování cest inovací a odpovědnosti. Chce usilovat o zvýšení produktivity při respektování složitosti lidské pracovní síly. S rozvojem této technologie musí vývojáři i podniky zůstat ostražití, pokud jde o její zavádění a dopady, aby byl její potenciál náležitě využit a zároveň byla zmírněna rizika pro zaměstnanost a společnost jako celek.