S tím, jak se umělá inteligence vyvíjí a mění digitální prostředí, čelí Apple stále většímu odporu vydavatelů obsahu. S rostoucími obavami z porušování autorských práv a vlastnictví dat se mnoho velkých médií aktivně brání tomu, aby Apple umožnil shromažďování jejich webových stránek.
Tento odpor vyvolává důležité otázky ohledně budoucí trajektorie iniciativ společnosti Apple v oblasti umělé inteligence, zejména její snahy o posílení „Apple Intelligence“.
Nedávno se role webového prohlížeče umělé inteligence společnosti Apple, známého jako Applebot, který slouží jako základ pro její služby, jako jsou Siri a Spotlight, rozšířila o shromažďování dat pro trénink pokročilých modelů umělé inteligence. S rostoucím vlivem umělé inteligence se však různí vydavatelé postavili na odpor. Využívají jednoduchý, ale mocný nástroj známý jako robots.txt, aby si zajistili kontrolu nad online obsahem.
Big publishers are denying to let Apple intelligence train on data. pic.twitter.com/j9On35hpGl
— Germanium (@Germanium129853) August 30, 2024
Tento textový soubor umožňuje majitelům webových stránek sdělit webovým robotům, že si nepřejí, aby jejich stránky byly prohledávány. Tuto metodu hojně využívají významní hráči, jako jsou The New York Times, Facebook a Instagram. Účinně tak blokují přístup Applebotu ke svým materiálům.
„Zákon a vlastní podmínky služby The Times jasně říkají, že scrapovat nebo používat náš obsah ke komerčním účelům je bez našeho předchozího písemného souhlasu zakázáno,“ prohlásil Charlie Stadtlander, zástupce The New York Times.
Došlo už i na soudní spor
Je pozoruhodné, že mnoho vydavatelů se pouze neodvolává, ale aktivně se zapojuje do soudních sporů kvůli neoprávněnému scrapování ze strany společností, jako je OpenAI. To značí vážnost jejich postoje k právům na obsah. The New York Times je v současné době zapleten do soudního sporu s OpenAI. Týká se porušování práv v souvislosti se scrapingem obsahu umělou inteligencí.
Ve snaze řešit tyto obavy představila společnost Apple upravenou verzi svého webového crawleru, nazvanou Applebot-Extended. Umožňuje vydavatelům snadno odmítnout, aby jejich data byla zahrnuta do tréninku AI. Problémy však zůstávají. Navzdory nabídkám společnosti Apple, které údajně dosahují milionových částek za přístup k datům, mnoho webových stránek s vysokou návštěvností nadále blokuje Apple Intelligence. Studie odhalila, že 6 až 7 procent populárních webů využívá robots.txt k omezení Applebota. Více než 25 procent zkoumaných webů jej aktivně blokuje.
Důsledky tohoto odmítnutí jsou pro ambice společnosti Apple v oblasti umělé inteligence významné. Někteří vydavatelé tvrdí, že všechna data by měla být volně dostupná pro trénink AI. Jiní se však domnívají, že pro etické postupy při scrapování je nezbytné předchozí povolení.
Vzhledem k tomu, že debata pokračuje, bude možná nutné změnit dlouhodobou strategii společnosti Apple. Zda technologický gigant najde způsob, jak uklidnit vydavatele a podpořit spolupráci, zůstává nejisté. Prozatím přetrvává bitva o to, kdo vlastní digitální obsah a jak jej lze využít při tréninku umělé inteligence.