Úvod
Generativní umělá inteligence (generative AI nebo genAI) pro syntézu obrazu představuje jedno z nejmodernějších technologických řešení, které mění způsob, jakým lidé vytvářejí a konzumují vizuální obsah. Tyto nástroje, jako jsou Stable Diffusion, DALL-E či Midjourney, umožňují generování obrázků na základě textového popisu a nalézají uplatnění v mnoha oblastech, od marketingu přes vzdělávání až po uměleckou tvorbu. S rostoucím rozsahem jejich použití však narůstají i obavy spojené s etickými, právními a společenskými aspekty.
Autorská práva
Problém autorství lze na základě logiky návrhu generativní AI pro syntézu obrazu rozdělit na tři entity, kterých se týká – autory obsahu trénovacích dat (dat, na kterých se AI učí), uživatele nástrojů genAI a tvůrce těchto nástrojů. Nabízela by se i diskuse nad zahrnutím čtvrtého článku jako pseudoentity v podobě samotné umělé inteligence. Pro český legislativní systém je však přípustné pouze autorství fyzické osoby, která konkrétní dílo vytvořila, přičemž předpokládá, že pouze takováto osoba disponuje odpovídajícími tvůrčími schopnostmi. Na umělou inteligenci se tak nahlíží jako na neživou věc, které autorská práva není možné přiznat (Hašan, 2023).
I přes vypuštění úvah nad možným autorstvím neživé bytosti zůstává mnoho otázek nedořešených. První úskalí se objevuje již v počátečních procesech budování vhodného modelu. Jak již bylo zmíněno, pro generování nových obrazových dat je potřeba vhodných trénovacích dat, u nichž platí přímá úměra, tedy pro kvalitní výstup je potřeba kvalitní vstup. Taková trénovací data lze relativně rychle a snadno získat eticky kontroverzní metodou zvanou „web scraping“, která extrahuje data z webových stránek a ukládá je do strukturované podoby (Khder, 2021). Pro trénování AI schopné generovat nové obrázky či videa na základě slovního zadání se proto metoda využívá k ukládání adres URL konkrétních obrázků v kombinaci s jejich příslušnými textovými popisy. Obsah na webových stránkách tak může být sbírán bez vědomí jeho autorů.
Tato skutečnost se nelíbí zejména umělcům, kteří svoji pozici potvrdili hromadně podanou žalobou proti Stability AI, tvůrcům nástroje Stable Diffusion. Umělci si stěžují na neoprávněné použití jejich autorsky chráněných obrázků v trénovacích datasetech. Jelikož je Stable Diffusion open-source (s otevřenou licencí), vychází z něj mnoho dalších nástrojů, které jsou i využívány ke komerčním účelům. Přestože by se mohlo zdát, že problematický je pouze proces trénování, důsledky jsou patrné i ve výsledném obsahu. Umělci argumentují, že každé nové dílo vytvořené AI je odvozeným dílem, jelikož bylo vytvořeno na základě jejich původních děl (Lindberg, 2024).
V některých případech lze skutečně vypozorovat sémantickou replikaci trénovacích dat a konkrétně u Stable Diffusion jsou některé prvky rozpoznatelné bez složitějšího zkoumání. Za zmínku stojí například vodoznak z populární fotobanky Getty Images, který tak nepřímo prozrazuje, na jakých obrázcích byl používaný model AI trénován (Vincent, 2023), nebo lze poukázat na možnost vygenerování Jokera, nicméně na základě fotografie, kterou má licencovanou společnost Warner Bros. Nemusí se ovšem jednat pouze o logo či vodoznak, ale i o umělecký styl či specifický vzor. Tímto způsobem vzniká riziko vědomého či nevědomého vykrádání obsahu podléhajícího ochraně autorskými právy. Pro ovlivněné osoby je ovšem náročné tuto replikaci odhalit, a v případě špatně zdokumentovaných zdrojových dat trénovacího datasetu, ještě náročnější ji dokázat. Obrana tvůrců AI pro generování obrázků se často opírá o argument „fair use“, označujícího doktrínu, umožňující neautorizované použití chráněných děl za určitých okolností, například pro kritiku, komentář nebo vzdělávací a vědecké účely (Lindberg, 2024). Dosavadní vývoj ale spíše ukazuje postupný důraz na komercializaci.

Další entitou, které se týkají problémy autorství, jsou uživatelé nástrojů generativní AI. Ti se na výsledku zpravidla podílí vstupním slovním zadáním, tzv. promptem, jehož podstatu se nástroje snaží vizuálně vystihnout. Někteří uživatelé si autorství výsledného obrázku či videa nárokují právě na základě vstupních promptů, u nichž argumentují, že mohou být unikátní a originálně kreativní. V některých případech jako je Open AI a jejího nástroje DALL-E vychází provozovatelé své uživatelské základně vstříc a v podmínkách přisuzují autorství osobám, které do vstupního pole vložily textové zadání. Za předpokladu, že při zveřejnění výsledku bude zřejmá role AI, povoluje společnost také využití ke komerčním účelům. Tento příklad ovšem není univerzální a záleží tak na podmínkách jednotlivých společností. Chybějící legislativní opora celou situaci ztěžuje a aktuálně se tak autorství uživatelů pohybuje stále v nejasné zóně, ve které je nutné případy posuzovat individuálně (Mion, 2023; M. Sato, 2023).
Ani u tvůrců nástrojů není otázka autorství jednoduchá. Na vývoji se zpravidla podílí velké týmy tvořené výzkumníky, starající se o teoretický základ, vývojáři, kteří implementují algoritmy, vytváří a optimalizují trénovací postupy a datoví inženýři, kteří trénovací data shromažďují, čistí a analyzují. Je proto obtížné určit, jakou měrou se konkrétní jednotlivci podíleli na výsledném médiu.
Uvedené nejasnosti v autorství ukazují na riziko vzrůstajícího počtu právních sporů a finančních újem. Společnosti jako OpenAI, Meta a Stability AI již nyní čelí několika žalobám kvůli použití autorských děl při trénování svých modelů. (Madigan, 2024). současné autorské právo nemusí být dostatečně přizpůsobeno pro řešení právních otázek souvisejících s AI. Někteří odborníci navrhují vytvoření nových licenčních schémat, která by umožnila umělcům získat kompenzaci za použití jejich děl jako tréninkových dat, zatímco jiní navrhují změny v zákonech o autorských právech, aby lépe reflektovaly technologický pokrok.
Soukromí
V ústředí problému ochrany soukromí opět stojí způsob, jakým jsou získávána data pro trénování. Web scraping se kromě zmiňovaných děl chráněných autorskými právy nevyhýbá ani osobním obrázkům pocházejícím z různých zdrojů jako jsou sociální sítě, veřejné profily, blogy, osobní webové stránky či pirátské databáze. Evidovány jsou případy, kdy do tréninkových dat byla zahrnuta i taková citlivá data, jako jsou lékařské záznamy nebo soukromé fotografie (Leffer, 2023).
Nedávná zpráva od Human Rights Watch (HRW) dokonce odhalila, že v datasetu LAION-5B, který používají nástroje jako Stable Diffusion a Midjourney ke trénování, byly zahrnuty fotografie australských dětí bez jejich vědomí a souhlasu. Trénovací sada tak čerpala svá data mimo jiné i ze zdrojů jako jsou školních weby určené pro žáky a rodiče. HRW také zjistila, že některé fotografie obsahují citlivé informace, jako jsou jména, věk a školy dětí (Taylor, 2024).
Nastane-li obdobná situace, jako v předchozí kapitole čili že generativní model vytvoří obrázek se specifickými rysy objevujícími se v trénovacích datech, může to znamenat riziko úniku citlivých dat skutečných osob (Leffer, 2023). Ještě pravděpodobnější riziko lze spatřit ve zneužívání replikačních tendencí k vytváření obrázků s osobami, které mají vnější vzhled skutečných lidí, v tomto případě dětí. Předpokládáme-li, že vnější vzhled tvoří jednoduchou a rychlou formu autentizace v lidské komunikaci, lze hovořit i o možné krádeži identity.
Pro popsané problémy v současnosti neexistuje jednoduché a efektivní řešení. Skutečnosti také nepřispívá nedostatečná transparentnost ze strany společností, které generativní modely vyvíjejí. Mnohé z nich odmítají zveřejnit podrobnosti o původu jejich trénovací dat. Zákony na ochranu soukromí, jako jsou v Kalifornii nebo Evropské unii, sice dávají spotřebitelům právo požadovat smazání jejich dat, společnosti stojící za zasaženými nástroji ale často žádosti ignorují nebo tvrdí, že nemohou prokázat odkud data pocházejí (Leffer, 2023). Více než kdy předtím je tak soukromí jednotlivců a dětí ohroženo a nutí se zamýšlet a přehodnotit způsob, s jakým se nyní přistupuje k nahrávání obrázků na část internetu, která není chráněna přihlašovacími údaji.
Deepfakes
O deepfakes lze hovořit jako o AI systémech „..pro generování nebo manipulaci s obrazovým, zvukovým nebo video obsahem, který se znatelně podobá existujícím osobám, předmětům, místům, entitám nebo událostem a který by se sám osobě falešně jevil jako autentický nebo pravdivý“ (Artificial Intelligence Act, 2024). Nejběžněji jde o videa, kde je například tvář osoby nahrazena jinou, nebo zvukové záznamy, které imitují hlas konkrétního člověka. Technologie, dříve dostupná pouze expertům, je nyní snadno přístupná veřejnosti prostřednictvím nepřeberného množství nástrojů, které i běžným uživatelům s minimálními technickými znalostmi a s obyčejným spotřebitelským hardwarem umožňují vytvářet falešný obsah.
Jako u ostatních technologií jsou i deepfakes zejména zneužívány pro vytváření obsahu s intimní nebo sexuální tematikou (Hidalgo, 2023). Zpravidla je vytvářen bez souhlasu dotčených osob vedoucímu k vážným psychickým problémům nebo jiným negativním důsledkům pro veřejný život. Oběťmi deepfakes jsou nejčastěji ženy, nicméně snadným terčem jsou, díky množství dostupného obsahu pro trénování, také známé osobnosti jako celebrity a politici (Levinson, 2024). Internet Watch Foundation (IWF) však zaznamenala i případy velmi realistických videí zobrazujících sexuální zneužívání dětí, které byly vytvořeny nástroji pro generování deepfakes. Podobný obsah se rychle šíří na dark webu a již nyní představuje riziko zvyšujícího se počtu dětské pornografie a pedofilních tendencí (New IWF Report Shows Increase in AI Child Sexual Abuse Imagery, b.r.).
Řešení problému je opět velmi obtížné, jelikož je identifikace pachatelů často nemožná z důvodu používání falešných jmen a účtů, což ztěžuje právní postih. Podmínky proto přispívají k nárůstu digitálního násilí (Levinson, 2024; Toparlak, 2023).
Zneužívání deepfakes se však neomezuje pouze na pornografický a sexuálně explicitní obsah. Vedle vytváření dezinformací, popsaných v další kapitole, stále častěji nalézají deepfakes své uplatnění pro finanční podvody a korporátní krádeže. Například zaměstnanec finančního oddělení nadnárodní společnosti v Hongkongu byl oklamán deepfake videem, které napodobovalo jeho nadřízeného, následkem čehož došlo k několika transakcím v celkové hodnotě 25,5 milionu dolarů. Dostupnost deepfake nástrojů tak kromě snadného vytváření specifického sexuálního obsahu umožňuje podvodníkům provádět finanční podvody s nebývalou kreativitou a rozsahem (Nate Nelson, 2024).
Dezinformace
Jak již bylo zmíněno, deepfakes se často zaměřují na politiky a celebrity, protože jejich veřejně dostupná data poskytují snadný základ pro trénování generativních modelů. Technologie je proto často využívána k šíření dezinformací, podněcování nenávisti nebo cílené polarizaci společnosti (Bird et al., 2023; Räkköläinen, 2024) a přináší tak novou hrozbu pro demokratické procesy (Ryan-Mosley, 2023).
Fenomén je zvláště patrný v kontextu politických kampaní, voleb a propagandy. Aktuálně lze zmínit ruské propagandistické operace využívající generativní AI k ovlivnění názorů ruských občanů na probíhající válku na Ukrajině. Příkladem může být video, ve kterém falešný úředník Ministerstva zahraničí USA tvrdí, že ruské město je legitimním cílem pro ukrajinské útoky (Bond, 2024).
Sociální sítě sehrávají v šíření tohoto obsahu klíčovou roli, neboť jejich algoritmy upřednostňují příspěvky, které přitahují pozornost. Jakmile začnou uživatelé sítí deepfakes ohodnocovat („lajkovat“), komentovat nebo sdílet, začne se falešný obsah rychle šířit a posilovat jeho dopad. Jelikož jsou dnes sociální sítě pro mnoho lidí hlavním zdrojem informací, mohou důsledky AI technologií přesahovat rámec běžného informačního šumu. Masivní šíření vygenerovaného falešného obsahu může vést k riziku eroze důvěry v tradiční zpravodajské zdroje, protože uživatelé začnou pochybovat i o pravdivých informacích a podrývat důvěru v autentickou vizuální dokumentaci (Bird et al., 2023). Problémem může být také skutečnost, že i přes rozpoznání falešného obsahu, mají lidé tendenci na jeho základě podvědomě měnit své názory a rozhodnutí (Winns, 2024)
Ačkoli představují dezinformace, postavené na syntetických obrazových materiálech, nezpochybnitelné riziko, v současnosti se ukazuje, že jejich vliv na volby zatím není tak katastrofální, jak se mnozí obávali. I když AI nezměnila výsledky voleb, do budoucna bude důležité, aby byla zavedena lepší kombinace vzdělávacích, technických a legislativních opatření (Schneier & Sanders, 2024). Studie totiž potvrzují, že lidé s většími znalostmi o těchto technologiích jsou schopni lépe identifikovat falešný obsah (Goh, 2024).
Stereotypizace
Navzdory značným technologickým inovacím čelí generativní AI pro tvorbu obrázků či videí kritice za reprodukci a dokonce zesilování demografických a genderových stereotypů, které mohou mít vážné společenské důsledky jako diskriminace a prohlubování nerovností (Bianchi et al., 2023; García-Ull & Melero-Lázaro, 2023).
Studie ukázaly, že generativní modely často vytváří obrázky, které odpovídají stereotypům spojeným s určitými skupinami lidí, a to i při použití neutrálních vstupů. Například popis „atraktivní osoba“ v nástroji Stable Diffusion většinou vedl k vytvoření tváří odpovídajících „bílému ideálu krásy“. Naopak „terorista“ byl obvykle zobrazován jako osoba s tmavými vlasy a plnovousem, což odpovídá antimuslimským narativům (Bianchi et al., 2023). Problém se dotýká většiny nástrojů a nevyhýbá se ani populárnímu DALL-E, který byl v rámci studie „Gender stereotypes in AI-generated images“ testován na 37 různých profesích a výsledky odhalily výrazné genderové zaujatosti. Profese jako „učitel“ nebo „zdravotní sestra“ byly výhradně zobrazovány s ženami, zatímco „pilot“ nebo „mechanik“ byly výhradně mužské. Celkově 59,4 % generovaných obrázků obsahovalo silné genderové stereotypy. (García-Ull & Melero-Lázaro, 2023).
Hlavní příčinou výskytu těchto stereotypů jsou opět trénovací data z rozsáhlých obrazových a textových souborů z internetu. AI modely pak tyto zaujatosti nejen reflektují, ale často je zesilují. Tato dynamika vytváří „zpětnovazební smyčku“, kdy stereotypy, které AI posiluje, mohou ovlivnit lidské vnímání a dále podporovat nespravedlnosti a zaujatost (Bianchi et al., 2023; García-Ull & Melero-Lázaro, 2023).
Účinným řešením rizika prohloubení stereotypů se jeví být pouze integrovanější přístupy, zahrnující diverzifikaci trénovacích dat a důsledná evaluace na základě sociálních a psychologických poznatků (García-Ull & Melero-Lázaro, 2023). Technická opatření, jako jsou filtry nebo vyvažovací strategie, se totiž ukázala být nedostatečná. Například pokusy o zmírnění stereotypů zadáním výslovných instrukcí, jako „diverzifikovaný exotický člověk“, často vedly k výsledkům, které stereotypy pouze znovu potvrzovaly (Bianchi et al., 2023).
Závěr
Generativní umělá inteligence (AI) pro syntézu obrazu se stala revolučním nástrojem s širokým spektrem využití v mnoha oblastech, od umění a vzdělávání až po marketing. Přestože tato technologie přináší značné benefity, její použití s sebou nese i významná rizika. Analýza ukázala, že jedním z klíčových problémů je způsob, jakým se AI modely učí – jejich trénink je založen na masivních souborech dat získaných často bez vědomí autorů, což může vést k porušování autorských práv a dalším etickým dilematům.
Dalším závažným problémem je reprodukce a zesilování demografických a genderových stereotypů. Tyto předsudky, inherentní v trénovacích datech, se přenášejí do generovaných výstupů, což může prohlubovat společenské nerovnosti a diskriminaci. Tento problém nelze vyřešit pouze technickými opatřeními, jako jsou filtry nebo vyvažovací strategie, ale vyžaduje širší přístup zahrnující diverzifikaci trénovacích dat, transparentnost procesů a důslednou analýzu sociálních dopadů.
Pro zajištění etického a odpovědného využívání generativní AI je nezbytné posílit legislativní rámec, zlepšit vzdělávání a zavést mechanismy ochrany jak autorů dat, tak uživatelů nástrojů. Mezi klíčové kroky patří vývoj jasných pravidel pro použití autorsky chráněných a osobních materiálů a vytvoření systémů, které umožní kontrolu a případnou nápravu škod způsobených nesprávným využitím této technologie.
Práce ukázala, že generativní AI je nejen technologickým nástrojem, ale také zrcadlem naší společnosti. Budoucí výzkum by se měl zaměřit na integraci sociálních a technických přístupů, aby byla tato slibná technologie využívána v souladu s principy etiky a rovnosti.
Použité zdroje
- Artificial Intelligence Act. (2024). https://www.europarl.europa.eu/doceo/document/TA-9-2024-0138_EN.pdf
- Artificial intelligence and copyright on AI-generated images | Novagraaf. (2023, srpen 2). https://www.novagraaf.com/en/insights/artificial-intelligence-and-copyright-who-owns-ai-generated-images
- Bianch. (b.r.). Policy Brief Demographic Stereotypes | Stanford HAI. Získáno 8. prosinec 2024, z https://hai.stanford.edu/policy-brief-demographic-stereotypes
- Bianchi, F., Kalluri, P., Durmus, E., Ladhak, F., Cheng, M., Nozza, D., Jurafsky, D., Zou, J., & Caliskan, A. (2023). Demographic Stereotypes in Text-to-Image Generation.
https://hai.stanford.edu/sites/default/files/2023-11/Demographic-Stereotypes.pdf - Bird, C., Ungless, E. L., & Kasirzadeh, A. (2023). Typology of Risks of Generative Text-to-Image Models (arXiv:2307.05543). arXiv. https://doi.org/10.48550/arXiv.2307.05543
- Bond, S. (2024, červen 6). This is what Russian propaganda looks like in 2024. NPR. https://www.npr.org/2024/06/06/g-s1-2965/russia-propaganda-deepfakes-sham-websites-social-media-ukraine
- Desirée Winns. (2024). Russian Disinformation and the Psychology of Deepfakes | Heinrich Böll Stiftung | Washington, DC Office—USA, Canada, Global Dialogue. https://us.boell.org/en/2024/07/23/russian-disinformation-and-psychology-deepfakes
- García-Ull, F.-J., & Melero Lázaro, M. (2023). Gender stereotypes in AI-generated images. El Profesional de la información, 32. https://doi.org/10.3145/epi.2023.sep.05
- Hašan. (2023). Umělá inteligence a autorské právo: Kdo je autor. EPRAVO.CZ. https://www.epravo.cz/top/clanky/umela-inteligence-a-autorske-pravo-kdo-je-autorem-dila-116741.html
- Hidalgo. (2023, listopad 22). Deepfakes: Gender-Based Violence in the Era of Artificial Intelligence. ¿Y Si Hablamos de Igualdad? https://blogs.iadb.org/igualdad/en/deepfakes-gender-based-violence-in-the-era-of-artificial-intelligence/
- Khder, M. (2021). Web Scraping or Web Crawling: State of Art, Techniques, Approaches and Application. International Journal of Advances in Soft Computing and its Applications, 13, 145–168. https://doi.org/10.15849/IJASCA.211128.11
- Leffer, L. (2023). Your Personal Information Is Probably Being Used to Train Generative AI Models. Scientific American. https://www.scientificamerican.com/article/your-personal-information-is-probably-being-used-to-train-generative-ai-models/
- Levinson. (2024, únor 9). Deepfake porn: The ugly side of generative AI, and what states can do about it. Route Fifty. https://www.route-fifty.com/digital-government/2024/02/deepfake-porn-ugly-side-generative-ai-and-what-states-can-do-about-it/394089/
- Lindberg, M. (2024). Applying Current Copyright Law to Artificial Intelligence Image Generators in the Context of Anderson v. Stability AI, Ltd. 15.
https://open.mitchellhamline.edu/cybaris/vol15/iss1/3/ - M. Sato. (2023). No Copyright on A.I. Art (But How to Argue for It). https://www.linkedin.com/pulse/copyright-ai-pics-how-argue-eduard-m-sato
- Madigan, K. (2024, srpen 29). Top Takeaways from Order in the Andersen v. Stability AI Copyright Case. Copyright Alliance. https://copyrightalliance.org/andersen-v-stability-ai-copyright-case/
- Nate Nelson. (2024). Deepfake-Generating Apps Explode, Allowing Multimillion-Dollar Corporate Heists. https://www.darkreading.com/threat-intelligence/deepfake-apps-explode-multimillion-dollar-corporate-heists
- New IWF Report Shows Increase in AI Child Sexual Abuse Imagery. (b.r.). 2024. Získáno 8. prosinec 2024, z https://www.iwf.org.uk/news-media/news/ai-generated-videos-of-child-sexual-abuse-a-stark-vision-of-the-future/
- Räkköläinen. (2024). The impact of AI-generated content and deepfakes on dissemination of disinformation on social media and the education as solution to reduce it. ResearchGate. https://doi.org/10.13140/RG.2.2.29297.49761
- Ryan-Mosley. (2023). How generative AI is boosting the spread of disinformation and propaganda. MIT Technology Review. https://www.technologyreview.com/2023/10/04/1080801/generative-ai-boosting-disinformation-and-propaganda-freedom-house/
- Schneier, B., & Sanders, N. (2024b, prosinec 2). The apocalypse that wasn’t: AI was everywhere in 2024’s elections, but deepfakes and misinformation were only part of the picture. The Conversation. http://theconversation.com/the-apocalypse-that-wasnt-ai-was-everywhere-in-2024s-elections-but-deepfakes-and-misinformation-were-only-part-of-the-picture-244225
- Taylor, J. (2024, červenec 2). Photos of Australian children used in dataset to train AI, human rights group says. The Guardian. https://www.theguardian.com/technology/article/2024/jul/03/australian-children-used-ai-data-stability-midjourney
- Toparlak, R. (2023). Criminalising Deep Fake Pornography: A Gender-Specific Analysis of Image-Based Sexual Abuse. https://doi.org/10.5281/zenodo.7791799
- Vincent, J. (2023, leden 17). Getty Images is suing the creators of AI art tool Stable Diffusion for scraping its content. The Verge. https://www.theverge.com/2023/1/17/23558516/ai-art-copyright-stable-diffusion-getty-images-lawsuit