Sobota, 22 března, 2025
Domů Blog

Spotify: Data jako klíč k úspěchu v marketingové strategii

0
Spotify account pair of Bluetooth earphones beside phone

Spotify patří mezi lídry v oblasti streamování hudby, ale jeho úspěch nespočívá pouze v kvalitě nabízeného obsahu a rozmanitosti nabízených hudebních žánrů a interpretů. Klíčovým faktorem jeho růstu je efektivní využívání dat o uživatelích a jejich chování při používání platformy. Tato data, získávaná prostřednictvím různých interakcí uživatelů se službou, umožňují Spotify nejenom zlepšovat uživatelský zážitek, ale také cíleně personalizovat reklamy a hudební doporučení. Tato práce se zaměřuje na analýzu, jak Spotify sbírá, zpracovává a využívá data ve své marketingové strategii, přičemž klade důraz na jednu z nejznámějších kampaní, Spotify Wrapped. Zároveň se zaměřuje na problematiku ochrany soukromí a otázky spojené s regulacemi, které se vztahují k masivnímu sběru dat o uživatelích.



Jaká data sbírá Spotify?

Zdroje dat

Spotify využívá různé zdroje dat, aby poskytoval a zlepšoval své služby. Mezi hlavní zdroje patří (Spotify Privacy Policy, 2024):

  1. Data, poskytovaná přímo uživatelem. Tato data se shromažďují, když se uživatel zaregistruje nebo aktualizuje svůj účet Spotify. Zahrnují základní informace potřebné k vytvoření účtu a používání služeb: uživatelské jméno, emailová adresa apod.
  2. Data o interakci se službou. Spotify sbírá informace o používání služeb – poslouchané skladby, vytvořené playlisty a další akce.
  3. Doplňková data. Data, která jsou shromažďovaná, pokud uživatel udělí určitá oprávnění. Toto jsou například hlasová data, informace o platbách a nákupech nebo údaje z dotazníků a průzkumů.
  4. Data od třetích stran. Pro poskytování svých služeb Spotify také získává data od třetích stran:
    • partneři pro autentifikaci,
    • aplikace, služby a zařízení,
    • technické servisní partneři,
    • platební partneři,
    • marketingoví partneři.

Typy sbíraných dat

Spotify shromažďuje různé typy dat za účelem zajištění a zlepšení fungování služby a personalizaci zážitků uživatelů. Sbíraná data lze rozdělit do následujících kategorií (Spotify Privacy Policy, 2024):

  1. Uživatelská data (User Data). Data nezbytná pro vytvoření účtu Spotify a používání služby. Jsou to uživatelské jméno, email, telefonní číslo, datum narození, adresa bydliště, země a další. Některé z těchto údajů uživatel poskytuje prostřednictvím registračního formuláře, ostatní (země a region) se shromažďují ze zařízení.
  2. Údaje o používání (Usage Data). Údaje sbíraná při přístupu k Spotify nebo jeho používaní. Zahrnují:
    • vyhledávácí dotazy, historie streamování a prohlížení, vytvořené playlisty, nastavení účtu,
    • závěry Spotify o zájmech a preferencích uživatele na základě používání,
    • obsah, publikovaný na Spotify: obrázky, zvuk, text, zprávy a další.
  3. Hlasová data (Voice Data). Pokud jsou hlasové funkce dostupné v daném regionu, Spotify shromažďuje a zpracovává zvukové nahrávky a přepisy hlasu uživatele.
  4. Údaje o platbách a nákupech (Payment and Purchase Data)
  5. Data z dotazníků a výzkumů (Survey and Research Data). Pokud se uživatel zúčastní výzkumu nebo odpovídá na dotazníky, Spotify shromažďuje a využívá poskytnuté osobní údaje.

Za jakým účelem Spotify používá sbíraná data?

Doporučovací algoritmy

Spotify využívá algoritmy k poskytování personalizovaných hudebních doporučení. Tento systém se opírá o velké množství dat a neustále se zdokonaluje díky analýze uživatelských dat, hudebního obsahu a chování dalších posluchačů.

Hlavní principy fungování doporučovacích algoritmů Spotify (towardsdatascience.com, 2021):

  1. Sběr různých typů dat z velkého množství zdrojů.
  2. Analýza zvukových souborů pomocí NLP, což pomáhá pochopit charakteristiky hudby, například žánr, nástroje, tempo a náladu.
  3. Tvorba doporučovacího systému (recommender system), který zahrnuje informace o oblíbených žánrech, umělcích a skladbách. Systém se aktualizuje na základě historie přehrávání, oblíbených a přeskočených skladeb.
  4. Filtrování – algoritmus doporučuje hudbu, která je podobná skladbám, které uživatel již poslouchal, na základě jejich vlastností. Algoritmus také studuje aktivitu ostatních uživatelů s podobnými preferencemi a doporučuje hudbu, kterou mají rádi. Tímto způsobem uživatel může objevit novou hudbu, kterou by možná sám nenašel.
  5. Systém BaRT (“Bandits for Recommendations as Treatments”) – systém strojového učení, který personalizuje domovský panel uživatele. Doporučuje hudbu na základě existujících dat o preferencích, a také nabízí obsah, který algoritmus ještě nezná, aby zjistil, zda zajímá uživatele.
  6. Pravidlo 30 sekund – pokud uživatel poslouchá skladbu méně než 30 sekund, Spotify předpokládá, že ho nezaujala. Poslech delší než 30 sekund je naopak pro algoritmus pozitivním signálem.

Celkově jsou algoritmy doporučení Spotify složitým systémem, který se neustále vyvíjí. Spoléhají na obrovské množství dat a různé metody strojového učení, aby uživatelům poskytly personalizovaný hudební zážitek. Přestože jsou tyto algoritmy účinné, je důležité pochopit jejich omezení a být informovaný o jejich praktikách sběru a využívání dat.

Cílená reklama

Spotify využívá různé zdroje dat k personalizaci reklam pro uživatele bezplatné verze služby. To zajišťuje, že reklamy jsou pro uživatele relevantnější a zajímavější. Shromážděná data jsou používaná k určení cílového publika pro různé reklamní kampaně. Také Spotify zobrazuje určité reklamy na základě hudebních preferencí uživatele. Nakonec Spotify sleduje, jak uživatelé s reklamami interagují, aby vyhodnotilo jejich účinnost. (Spotify Privacy Policy, 2024)

Spotify Wrapped

Spotify Wrapped je každoroční marketingová kampaň, která uživatelům nabízí personalizovaný přehled jejich poslechové aktivity za celý rok. Tento přehled je založen na velkém množství dat, která Spotify shromažďuje o svých uživatelích. (montrealethics.ai, 2022)

Na základě sbíraných dat Spotify Wrapped určuje nejoblíbenější interprety, skladby a žánry uživatelů. Navíc Spotify porovnává poslechová data s daty ostatních uživatelů, aby ukázalo, jak jedinečný je hudební vkus konkrétního uživatele. (CNN, 2021)

Spotify Wrapped je populární z několika důvodů (montrealethics.ai, 2022):

  • je prezentován jako barevný a interaktivní příběh, což ho činí atraktivním pro uživatele, 
  • Spotify umožňuje snadné sdílení Wrapped na sociálních sítích, což pomáhá kampani se šířit,
  • Wrapped může vyvolávat pocit soutěživosti tím, že uživatelům ukazuje jejich pořadí mezi nejlepšími posluchači konkrétních interpretů.

I když je Spotify Wrapped zábavný a zajímavý, je důležité myslet na problémy s ochranou soukromí spojené s používáním vašich dat. Kritici tvrdí, že Spotify Wrapped (vox.com, 2021):

  • může uživatele vynutit k akceptování rozsáhlého sběru dat výměnou za příjemný zážitek,
  • může motivovat uživatele k vytváření digitální identity na základě jeho poslechových dat, což může vést k porovnávání s ostatními a pocitu nejistoty,
  • algoritmy používané pro vytvoření Wrapped mohou být zaujaté a vést k diskriminaci interpretů.

Jaké jsou dopady Spotify na ochranu dat?

Výzvy a problémy

Spotify čelí kritice ohledně množství dat, která o svých uživatelích shromažďuje, a otázkám, zda je všechna tato data skutečně nutné sbírat.

Někteří kritici tvrdí, že funkce jako Spotify Wrapped, která uživatelům nabízí atraktivní přehled jejich hudební aktivity, může normalizovat nadměrné shromažďování dat. Uživatelé, nadšení personalizovaným obsahem, si neuvědomují rizika spojená s objemem dat, která Spotify sbírá. (ottawacitizen.com, 2021)

Spotify Wrapped může také motivovat uživatele k vytváření digitální identity založené na jejich poslechových datech. To může vést k porovnávání s ostatními a pocitu nejistoty, pokud jejich hudební vkus neodpovídá určitým standardům. (vox.com, 2021)

Algoritmy Spotify, které slouží k personalizaci obsahu, mohou vést k diskriminaci. Například mohou uživatelům nabízet hudbu převážně bílých interpretů, čímž omezují rozmanitost hudebních stylů a interpretů, které uživatelé objevují. (montrealethics.ai, 2022)

Spotify může shromážděná data využívat pro komerční účely, například prodej informací o demografii a preferencích uživatelů reklamním společnostem. To vyvolává obavy z možného zneužití těchto informací k manipulaci. (montrealethics.ai, 2022)

Kritici zpochybňují, zda je sběr všech dat skutečně nezbytný. Tvrdí, že mnoho z těchto údajů, jako je přesná poloha uživatele nebo data z čidel zařízení, není nutných pro poskytování hlavní služby, tedy streamování hudby. Objevuje se otázka, zda výhody personalizace obsahu vyvažují rizika pro soukromí spojená s tímto rozsahem sběru dat. (ottawacitizen.com, 2021)

Soulad s regulacemi

Spotify poskytuje uživatelům práva týkající se jejich osobních údajů v souladu se svou politikou ochrany osobních údajů. Mezi tato práva patří přístup, oprava, výmaz a přenositelnost dat. (Spotify Privacy Policy, 2024)

  1. Přístup k datům. Uživatelé mají právo získat informace o tom, jaké osobní údaje Spotify zpracovává a za jakým účelem. Tyto informace jsou dostupné prostřednictvím politiky ochrany osobních údajů. Uživatelé také mohou požádat o kopii svých osobních údajů, které Spotify zpracovává.
  2. Oprava dat. Uživatelé mají právo požádat o opravu nebo aktualizaci svých osobních údajů, pokud jsou nepřesné nebo neúplné.
  3. Výmaz dat. Uživatelé mohou požádat o výmaz některých svých osobních údajů. Například mohou požádat o výmaz dat, která již Spotify nepotřebuje pro původní účel, nebo dat, která byla zpracovávána na základě souhlasu, jenž byl odvolán.
  4. Přenositelnost dat. Uživatelé mají právo získat kopii svých osobních údajů v elektronickém formátu a přenést je ke službě jiného poskytovatele.

Existují různé metody, jakými Spotify informuje uživatele o tom, jakým způsobem jsou jejich osobní údaje zpracovávány. Mezi hlavní způsoby patří zásady ochrany osobních údajů Spotify, centrum ochrany osobních údajů, nastavení účtu a zásady používání cookies. (Spotify Privacy Policy, 2024)


Závěr a klíčová zjištění

Z analýzy provedené v této práci vyplývá, že Spotify efektivně využívá data k personalizaci uživatelského zážitku a maximalizaci marketingové efektivity. Shromažďování údajů o uživatelském chování, jako je historie poslechů a interakce s aplikací, umožňuje firmě přizpůsobit nabídku jak uživatelským preferencím, tak i komerčním cílům.

Kampaň Spotify Wrapped je v tomto ohledu klíčovým nástrojem, který nejenže zvyšuje angažovanost uživatelů, ale také generuje obrovskou mediální pozornost a podporuje šíření značky. Na druhé straně však existují obavy ohledně ochrany osobních údajů, přičemž někteří kritici varují před neúměrným sběrem dat a jeho možným zneužitím pro komerční účely. Spotify se však snaží být v souladu s platnými předpisy o ochraně osobních údajů, což je uvedeno v její politice ochrany soukromí. Celkově se ukazuje, že i přes určité kontroverze kolem sběru dat, Spotify zůstává lídrem v oblasti personalizace, což je klíčové pro její marketingovou a obchodní strategii.


Zdroje

About Data Collection for Attribution. (2024). Spotify.com. https://help.adanalytics.spotify.com/about-data-collection-for-attribution

Business, R. M., CNN. (2021, December 2). Spotify Wrapped shows how our personal data gets sliced and diced. CNN. https://edition.cnn.com/2021/12/02/tech/spotify-wrapped-data/index.html

Maiei. (2022, May 26). Discover Weekly: How the Music Platform Spotify Collects and Uses Your Data. Montreal AI Ethics Institute. https://montrealethics.ai/discover-weekly-how-the-music-platform-spotify-collects-and-uses-your-data/

Marius, H. (2021). Uncovering How the Spotify Algorithm Works. Medium. https://towardsdatascience.com/uncovering-how-the-spotify-algorithm-works-4d3c021ebc0

Pau, K. (2021, December 2). Spotify Wrapped, Unwrapped. Vox. https://www.vox.com/culture/22814121/spotify-wrapped-2021-algorithm-data-privacy

Privacy Policy – Spotify. (2024). Spotify.com. https://www.spotify.com/ua-en/legal/privacy-policy/#spotify-privacy-policy

Richardson, J. M. (2021, December 31). Richardson: Spotify Wrapped makes invasive data collection look cool and hip. Ottawacitizen; Ottawa Citizen. https://ottawacitizen.com/opinion/richardson-spotify-wrapped-makes-invasive-data-collection-look-cool-and-hip

Safety & Privacy Center. (2021). Spotify.com. https://www.spotify.com/ua-en/safetyandprivacy/personal-data-collected

Fake news generované umelou inteligenciou a ich vplyv na spoločnosť

0

Úvod

Podľa informácií uvedených na stránke Európskeho parlamentu vníma AI technológie ako pozitívne 61% Európanov (European Parliament, 2023). Avšak až 88% obyvateľov Európy si myslí, že nad umelou inteligenciou a robotikou potrebujeme riadny dohľad. (European Parliament, 2023)

Umelá inteligencia (AI) predstavuje jednu z najvýznamnejších technologických inovácií 21. storočia, ktorá zásadne mení spôsob, akým komunikujeme, pracujeme a spracovávame informácie. Medzi jej najdôležitejšie podoblasti patrí generatívna umelá inteligencia (Generative AI), ktorá má schopnosť vytvárať nové obsahy – texty, obrázky, videá či zvuk – na základe existujúcich dát. Tento technologický pokrok otvára obrovské možnosti pre kreatívny priemysel, vzdelávanie či zábavu. Na druhej strane však prináša aj výzvy a riziká, najmä v kontexte šírenia nepravdivých informácií, známych ako fake news, a tvorby deepfake materiálov.

Tie nie sú novým fenoménom. Avšak vďaka pokročilým nástrojom umelej inteligencie sa možnosti ich tvorby a šírenia dramaticky zmenili. Ako spoločnosť tak čelíme novým hrozbám a sme nútení hľadať efektívne riešenia na to ako ich zvládnuť.

Cieľom tejto práce je preskúmať fenomén fake news generovaných umelou inteligenciou, uviesť virálne príklady ich zneužitia za posledné obdobie v rôznych sférach spoločenského života a prostredníctvom nich analyzovať dopad tohto trendu na spoločnosť. Koniec práce je zameraný na preskúmanie konkrétnych riešení, ktoré by mohli pomôcť zmierniť narastajúci trend fake news a deepfake materiálov a zabrániť ich nevhodnému používaniu.

Umelá inteligencia

Aj keď sa s pojmom umelá inteligencia (artificial intelligence – AI) stretávame často, je pomerne náročné ho jasne definovať. Toto združené pomenovanie sa skladá z dvoch slov. Pojem inteligencia podľa Cambridge Dictionary (2024) znamená schopnosť učiť sa, chápať a robiť úsudky či mať názory založené na rozume (vlastný preklad). Ak k tomu teda pridáme pojem umelý či umelá, prenášame túto schopnosť z človeka na niečo neživé ako napr. technológiu, zariadenie či systém. Dostávame sa tak k vysvetleniu pojmu umelá inteligencia uverejnenom v článku na Brittanica.com, v ktorom sa píše, že umelá inteligencia (AI) je schopnosť digitálneho počítača alebo počítačom riadeného robota vykonávať úlohy bežne spojené s inteligentnými bytosťami. Tento termín sa tiež často používa na projekt vývoja systémov vybavených intelektuálnymi procesmi charakteristickými pre ľudí, ako je schopnosť uvažovať, objavovať význam, zovšeobecňovať alebo schopnosť učiť sa z minulých skúseností. (Copeland, 2024, vlastný preklad).

Využitie umelej inteligencie v bežnom živote je viac než aktuálne. Je súčasťou rôznych internetových vyhľadávačov, digitálnych asistentov či inteligentných zariadení v našich domácnostiach. Softvéry na preklad jazykov sa taktiež spoliehajú na umelú inteligenciu, čo sa napríklad prejavuje aj v generovaní automatických titulkov pod videami. Autonómne vozidlá ešte síce nie sú štandardom, avšak dnešné automobily už vďaka umelej inteligencii využívajú viaceré bezpečnostné prvky. Jej vplyv sa prejavuje aj v kybernetickej bezpečnosti a rozpoznávaní možných hrozieb. Takisto je vo veľkom využívaná v automatizovaných výrobných závodoch, či v poľnohospodárskom priemysle. A do budúcna má AI obrovský potenciál zmeniť viaceré aspekty nášho života, na ktoré sme zvyknutí (Európsky parlament, 2023)

Generatívna umelá inteligencia

Generatívna umelá inteligencia (generative artificial intelligence – GAI) je pokročilá forma umelej inteligencie (AI), ktorá sa zameriava na tvorbu nového obsahu, ako sú texty, obrázky, zvuky, hudba a videá. Tento typ AI využíva rôzne algoritmy na generovanie obsahu, ktorý je v dnešnej dobe už často neodlíšiteľný od toho, čo vytvárajú ľudia. Schopnosť generovať takýto obsah je postavená na komplexných algoritmoch, ktoré dokážu analyzovať a napodobniť ľudské vzorce tvorby. (Mirga, 2024)

Táto technológia je využívaná v rozličných oblastiach, najmä za účelom zjednodušiť tvorbu nového obsahu. Efektívne sa dá využiť najmä pri úlohách vyžadujúcich kreativitu. Typickým príkladom je jej uplatnenie v umeleckom a filmovom priemysle, architektúre, reklame či marketingu.

Ako to funguje? Generatívna umelá inteligencia pracuje na základe učenia sa z obrovských množstiev dát, ktoré sú následne analyzované algoritmami. Tieto algoritmy identifikujú vzory a vzťahy v dátach, ktoré im umožňujú vytvárať nové výstupy, ktoré sa podobajú na pôvodné vzory. V prípade generovania textu modely ako GPT-4 spracujú veľké množstvo textových dát a na ich základe vytvoria nový text. Pri generovaní obrazov a videí sa využívajú algoritmy ako Generatívne adversariálne siete (GAN), ktoré sú založené na dvoch modeloch, ktoré pracujú súčasne – jeden generuje nový obsah a druhý ho hodnotí, či je podobný pôvodným dátam. (Zewe, 2023)

V oblasti generovania falošných obrazov a videí, známym ako deepfake, sa GAI využíva na vytváranie realistických, ale nepravdivých materiálov. Deepfake videá sú vytvorené tak, že umelá inteligencia kombinuje a modifikuje skutočné videá, čím vytvára falošné, no veľmi realistické zobrazenia. Táto technológia sa často používa na zmenu výrazu tváre, pohybov a hlasu jednotlivca, čím sa vytvára dojem, že niekto povedal alebo urobil niečo, čo sa v skutočnosti nestalo. Algoritmy, ktoré sa používajú na generovanie deepfake sa učia na veľkých databázach videí a fotografií a dokážu napodobniť spôsob, akým sa človek správa pred kamerou, vrátane jemných detailov, ako sú pohyby očí alebo tón hlasu. (Zewe, 2023)

Fake news

Definícia fake news, podobne ako definícia umelej inteligencie, nie je jednotne daná. Pri zamyslení sa nad jednotlivými slovami získame čiastočnú predstavu čo fake news predstavujú. Slovo fake znamená falošný, nepravdivý, umelý. Anglický pojem news predstavuje správy, novinky – takže určitý typ informácie. Vo ich vzájomnom spojení tak bežne prichádza k výrazom ako falošné správy či nepravdivé informácie.

Ak by sme hľadali rozsiahlejšiu definíciu získame fake news je úmyslená prezentácia (zvyčajne) nepravdivých alebo zavádzajúcich tvrdení, pričom tieto tvrdenia sú zámerne navrhnuté tak, aby zavádzali. (Gelfert, 2018, s. 108)

Podľa Rahmaniana, ktorý sa snažil v svojej práci fake news čo najlepšie klasifikovať fake news, bez ohľadu na objektívnu realitu, sú zámerne vytvorené pseudo-pravdivé informácie, ktoré majú za cieľ manipulovať presvedčenia cieľového publika s úmyslom dosiahnuť určité výhody. (Rahmanian, 2023)

Niektoré definície popisujú fake news aj ako prioritné pomenovanie pre ďalšie typy falošných správ akými sú dezinformácie, deepfakes, konšpiračné teórie, hoaxy, ale aj satirické články, ktoré sú nesprávne interpretované ako celkom pravdivé či clickbaitové titulky.

Deepfake

Slova deepfake je podľa Oxford Dictionary pravdepodobne odvodené zo slov deep learning (typ strojového učenia)fake (falošný, nepravdivý). (Oxford English Dictionary, 2023)

Deepfake je všeobecne chápaný ako zmanipulovaný audiovizuálny materiál, ktorý je vytvorený pomocou umelej inteligencie. Táto technológia dokáže na základe relatívne malého množstva vstupných dát – autentických fotografií, videí alebo hlasových záznamov – generovať falošný obsah, ktorý vyzerá natoľko realisticky, že mu ľudia často uveria. (Tesař, 2022)

Termín deepfake sa v trendoch vyhľadávania na Google prvýkrát objavil na prelome rokov 2017 a 2018. Jeho pôvod je do istej miery spojený s porno priemyslom, kde sa technológia používala na vkladanie tvárí známych osobností do videí s cieľom zvýšiť sledovanosť Najväčší záujem však zaznamenal, keď sa na sociálnej sieti TikTok objavil profil imitujúci Toma Cruisa. Tento profil, ktorý otvorene prezentoval, že ide o falošnú identitu hollywoodskej hviezdy vykonávajúcej každodenné činnosti, sa stal virálnym hitom. (Tesař, 2022)

Odvtedy technológia deepfake výrazne pokročila a jej dostupnosť na tvorbu podobného obsahu sa značne zvýšila. Hoci technológia deepfake v budúcnosti môže nájsť mnohé pozitívne využitia, zároveň so sebou nesie veľké riziko zneužitia, čo je spoločné pre všetky technológie súvisiace s umelou inteligenciou. (Tesař, 2022)

Príklady deepfake

V tejto časti sa zameriavam na príklady falošných fotografií či videí, ktoré sa stali za posledné obdobie obzvlášť virálnymi. Predstavujú rôzne prostredia – od vojenských konfliktov, cez politické manipulácie až po celebrity a zábavu – čo len podčiarkuje, aké široké spektrum vplyvu môžu tieto technológie mať.

Prejav moldavskej prezidentky

Súčasná prezidentka Moldavska, Maia Sanduová, sa stala obeťou sofistikovaného deepfake útoku, ktorý mal za cieľ poškodiť jej povesť a oslabiť jej politickú pozíciu. Incident sa odohral tesne pred novoročným prejavom prezidentky, tradične vysielaným 31. decembra. Na platforme Telegram sa objavilo video, ktoré zobrazovalo Sanduovú, ako údajne blahoželá občanom k Novému roku a zároveň žiada o podporu v nadchádzajúcich voľbách. V prejave však dominovali irónia a sarkazmus, pričom prezidentka mala kritizovať ekonomickú situáciu v krajine a dokonca zosmiešňovať Moldavsko. Video mohlo na občanov pôsobiť dôveryhodne, ale jeho obsah bol umelo vytvorený falšovaním obrazu a zvuku. (Gregová, 2024; Necsutu, 2023)

Moldavsko, ktoré sa dlhodobo zmieta v geopolitických tlakoch a čelí dezinformačným kampaniam najmä zo strany Ruska, je opakovane cieľom podobných útokov. Prezidentka Sanduová je známa svojou prozápadnou orientáciou a snahou o demokratizáciu krajiny, čo ju robí terčom ruských záujmov, ktoré podporujú destabilizáciu regiónu. Podľa ukrajinských zdrojov malo Rusko dokonca plán zosadiť moldavské vedenie, a spomínané video mohlo byť len súčasťou širšej kampane na diskreditáciu jej osobnosti. Prezidentská kancelária promptne zareagovala a vyhlásila, že video je falošné a prezidentka sa od jeho obsahu dištancuje. (Gregová, 2024; Necsutu, 2023)

Podobné dezinformačné aktivity pokračovali v Moldavsku aj neskôr. Dva dni pred voľbami sa na sociálnych sieťach objavilo ďalšie falošné video, tentoraz zdieľané cez viaceré facebookové stránky. Na videu údajne Sanduová oznamovala svoju rezignáciu a vyzývala občanov, aby hlasovali za pro-rusky orientovanú politickú stranu. Tieto manipulácie mali za cieľ zmiasť voličov a oslabiť jej podporu v rozhodujúcom momente. (Gregová, 2024; Necsutu, 2023)

Moldavsko, ktoré je od roku 2022 kandidátskou krajinou na vstup do Európskej únie zatiaľ nezaviedlo žiadne právne kroky, ktoré by sa týkali používania umelej inteligencie. Je preto len ďalším dôkazom toho, že je potrebné zamyslieť sa nad potrebou obrany voči podobným digitálnym manipuláciám, ktoré sú nástrojmi hybridnej vojny a polarizujú spoločnosť.

Obrázok 1 Screenshot moldavskej prezidentky z deepfake videa (zdroj: TV-NORD Moldova, 2023)

Výzva ukrajinského prezidenta ku kapitulácii

Narastajúci trend deepfake videí neobišiel ani vojnový konflikt na Ukrajine. V marci 2022 sa na rôznych sociálnych platformách, najmä na Telegrame, objavilo video ukrajinského prezidenta Volodymyra Zelenského, ktorý sa prihovára ukrajinským občanom. V mierne emotívnom výstupe ich vyzýva, aby sa vzdali a ukončili vojnu s Ruskom. Prezident vo videu vyjadruje názor, že nestojí za to zomrieť v tejto vojne. (Burgess, 2022)

Hoci autor videa zostal neznámy, s vysokou pravdepodobnosťou sa dá predpokladať, že za jeho vytvorením stála pro-ruská skupina alebo jednotlivci, ktorí sa snažili vyvolať zmätok, narušiť dôveru ukrajinských občanov a zneistiť celú verejnosť. (Burgess, 2022)

Ukrajinská vláda na šírenie falošného videa okamžite reagovala a poprela ho v celom rozsahu. Zároveň ukrajinský prezident uverejnil vyjadrenie k celej situácii prostredníctvom videa na svojom oficiálnom účte na Instagrame. Následne falošné video sociálne siete ako Facebook, Youtube a X odstránili zo svojich platforiem, no pochopiteľne, v prostredí ruských sociálnych médií sa stalo populárnym. (Burgess, 2022)

Tento incident bol ďalším varovaním o zneužívaní deepfake technológie na manipuláciu verejnej mienky, najmä v kontexte vojenského konfliktu, kde manipulácia s informáciami môže mať vážne a nezvratné následky.

Obrázok 2 Screenshot z deepfake videa Volodymyra Zelenského (zdroj: Sky News, 2022)

Pápež v značkovej bunde

Prípad, kedy využitie generatívnej umelej inteligencie spoločnosť skôr pobavil a zaujal je obrázok terajšieho pápeža Františka v štýlovej nafúknutej bielej bunde s kapucňou značky Balenciaga.

Tento obrázok bol vytvorený umelcom Pablom Xavierom, ktorý na prvý pohľad pôsobil realisticky, no zároveň vtipne a nečakane. Autor nápad dostal, keď bol pod vplyvom psychotropných látok, a priznal, že jeho cieľom nebolo šíriť dezinformácie, ale len zabaviť seba a okolie. Ako sám povedal: „Myslel som si, že by bolo vtipné vidieť pápeža vo vtipnej bunde“ (BuzzFeed, 2023). Technologicky bola tvorba obrázku relatívne jednoduchá. Pablo Xavier zadal požadovaný opis do AI generátora obrázkov, ktorý na základe textového zadania vytvoril fotorealistický obraz. Pablo vôbec nečakal, že sa stane virálnou tak rýchlo a zaujme širokú spoločnosť. (Stokel-Walker, 2023)

Pápež František k incidentu uviedol rozsiahle vyjadrenie. S dobrým úmyslom varoval pred možnými nástrahami umelej inteligencie a jej potenciál označil za „úchvatný a znepokojujúci zároveň“. Uviedol, že technológie, podobne ako veľa iných výdobytkov dnešnej doby, sa dajú použiť na dobré i zlé účely, v závislosti od našich rozhodnutí. Pápežova reakcia tak nebola kritika konkrétneho obrázka, ale skôr širšie varovanie pred nekontrolovaným využívaním technológií. (Novak, 2024)

Tento incident poukazuje na dve významné črty deepfake obsahu. Po prvé, že aj obsah vytvorený s dobrými úmyslami a bez zámeru manipulovať môže viesť k neúmyselnému šíreniu dezinformácií, ak nie je jasne označený ako nepravý. Po druhé, že takýto obsah môže byť spúšťačom diskusie o etických otázkach súvisiacich s umelou inteligenciou.

Obrázok 3 Falošná fotografia pápeža Františka v extravagantnej bunde (zdroj: Forbes, 2024)

Zatknutie Donalda Trumpa

V marci 2023 sa na sociálnej sieti Twitteri objavili viaceré zábery zobrazujúce zatknutie Donalda Trumpa. Na falošných obrázkoch je bývalý prezident USA zobrazený ako uteká pred policajnými zložkami, prípadne sa im snaží vzdorovať. Takýto vizuálny obsah zaujal mnohých, najmä v kontexte obvinení, ktoré voči Trumpovi v tom čase prebiehali. V marci 2023 bol obvinený z falšovania obchodných záznamov v súvislosti s platbami, ktoré mal vykonať herečke Stormy Daniels, aby utajil ich údajný románik. Toto obvinenie vyvolalo silné verejné diskusie, a mnohí si mohli spájať zatknutie na týchto obrázkoch práve s touto kauzou. Navyše, v danom období bola aj medializovaná správa, že Trump čelí právnym problémom, čo pridávalo obrázkom na vierohodnosti. (AP News, 2023; Novak, 2023)

Polícia avšak potvrdila, že k zatknutiu neprišlo. Zábery neboli skutočné. Falošné obrázky zhotovil Eliot Higgins, zakladateľ a kreatívny riaditeľ holandskej organizácie Bellingcat, ktorá sa zameriava na overovanie informácií a analytické správy, často využívajúc verejne dostupné zdroje. Higgins pri uverejnení obrázkov uviedol informáciu, že fotografie nie sú reálne, ale vygenerované umelou inteligenciou. Aj napriek tomu niektorí používatelia sociálnych sietí tieto obrázky zdieľali bez tohto dôležitého kontextu. (AP News, 2023; Wikipedia, 2024)

Aj keď obrázky na prvý pohľad vyzerali realisticky, pozorní diváci si mohli všimnúť určité anomálie, ktoré odhalili, že ide o falošný obsah. Na jednom z obrázkov mal Donald Trump tri nohy, na inom nebol správny počet prstov na rukách zúčastnených osôb, a na ďalšom zábere ľudia v pozadí nekorešpondovali s prostredím. Higgins predpokladal, že si tieto nepresnosti čitatelia uvedomia, no ukázalo sa, že mnohí ich nepostrehli, čo podčiarkuje slabú úroveň kritického myslenia u niektorých používateľov sociálnych sietí. Tento incident jasne ukázal, aké dôležité je pri konzumácii mediálnych obsahov zachovávať kritický prístup a nezrýchľovať šírenie neoverených informácií. (AP News, 2023)

Obrázok 4 Obraz zatknutia Donalda Trumpa vytvorený pomocou AI, šírený na Twitteri (zdroj: Forbes, 2023)

Taylor Swift a podpora Donalda Trumpa

Najnovším príkladom zneužitia deepfake technológie v politickom kontexte je prípad z augusta 2024, ktorý vyvolal rozruch počas kampane pred americkými prezidentskými voľbami. Donald Trump, uchádzajúci sa o znovuzvolenie, na svojich sociálnych sieťach zdieľal obrázky, ktoré naznačovali podporu zo strany známej speváčky Taylor Swift. Jeden z najsledovanejších príspevkov obsahoval obrázok Swift a skupiny jej fanúšikov (tzv. Swifites), ktorí mali oblečené tričká s nápisom „Swifities za Trumpa“ – čo malo vyvolať dojem jej oficiálnej podpory. (Robins-Early, 2024)

Tieto obrázky boli vygenerované pomocou umelej inteligencie a okamžite vzbudili kontroverzie. Taylor Swift sa nikdy verejne nevyslovila na Trumpovu podporu; naopak, je známa svojimi liberálnymi postojmi a predchádzajúcou kritikou Trumpovej administratívy. Po zverejnení týchto obrázkov jej tím rázne poprel ich pravosť a označil ich za manipuláciu. Taylor Swift patrí aktuálne medzi najznámejšie speváčky dnešnej doby. Jej popularita a schopnosť motivovať masy, napríklad prostredníctvom výziev na registráciu voličov, boli pravdepodobne hlavným dôvodom, prečo bola zneužitá v tejto propagande. Trump však tento incident nekomentoval, a preto mnohí považujú tento čin za súčasť jeho kampane na získanie pozornosti a polarizáciu verejnosti. (Robins-Early, 2024)

Obrázok 5 Príspevok Donalda Trumpa s falošnými fotografiami Taylor Swift a jej fanúšikov (zdroj: Guardian, 2024)

Krádež peňazí

Ukážkou toho, že manipulácia prostredníctvom deepfake technológií nemusí zasiahnuť len širokú verejnosť, ale dokáže cielene zneužiť dôveru jednotlivca, je prípad finančného pracovníka, ktorý prišiel o približne 25 miliónov dolárov. Stalo sa tak v januári 2024 zamestnancovi jednej hongkonskej pobočky nadnárodnej spoločnosti. (Chen & Magramo, 2024)

Podvod začal nevinne – pracovník dostal pozvánku na videohovor, v ktorej mu bolo oznámené, že bude musieť uskutočniť tajnú finančnú transakciu. Hoci bol najprv obozretný a zvažoval, či nejde o phishingový e-mail, jeho pochybnosti sa rýchlo rozplynuli keď sa videohovoru zúčastnili osoby, ktoré vyzerali a zneli presne ako jeho kolegovia. Po skončení hovoru tak podľa inštrukcií previedol celkovo 25 miliónov dolárov na cudzie účty. (Chen & Magramo, 2024)

Prípad aktuálne vyšetruje hongkonská polícia a upozorňuje, že to nie je prvý výskyt tohoto typu podvodu. Meno poškodenej spoločnosti neuviedla. (Chen & Magramo, 2024)

Možné riešenia problematiky fake news

Na riešenie problémov spojených s fake news či presnejšie deepfake je potrebné pristúpiť komplexne a z rôznych perspektív. V nasledujúcich podkapitolách sú uvedené tri možné návrhy riešení, ktoré by aspoň čiastočne mohli prispieť k obmedzeniu šírenia dezinformácií a zvýšeniu povedomia verejnosti o ich rizikách. Tieto riešenia zahŕňajú využitie technologických nástrojov na detekciu a blokovanie manipulovaného obsahu, zavedenie legislatívnych opatrení na reguláciu tvorby a šírenia nepravdivých informácií a v neposlednom rade vzdelávanie spolu s osvetovými kampaňami, ktoré posilňujú mediálnu gramotnosť a individuálnu zodpovednosť. Spoločne by tieto prístupy mohli vytvoriť solídny základ pre efektívne riešenie tohto naliehavého problému.

Technologické zabezpečenie

Prvým krokom je využiť technologické zabezpečenia, ktoré sa sústreďujú na detekciu a blokovanie nepravdivého obsahu ešte pred tým, ako sa dostane k širšiemu publiku.

Príkladom jedného z takýchto nástrojov na detekciu deepfake obsahu je produkt s názvom SynthID od spoločnosti Google. Aktuálne je dostupný v beta verzii a postupne prichádza k jeho integrácii do statných produktov od spoločnosti Google. Funguje na princípe vkladania neviditeľného digitálneho vodoznaku priamo do pixelov obrázka generovaného AI. To v ňom zanechá stopu vďaka ktorej sa dá neskôr určiť, či bola pri jeho tvorbe použitá AI.  Vodoznak je samozrejme nedetekovateľný ľudským okom a nemá žiadny vplyv na vizuálnu kvalitu alebo vlastnosti obrázka. Jednou z jeho najväčších výhod je odolnosť voči úpravám obsahu. Vodoznak zostáva zachovaný aj po orezávaní, zmene veľkosti, kopírovaní alebo vytvorení snímky obrazovky, čím sa zabezpečuje, že obrázok môže byť kedykoľvek identifikovaný ako výsledok AI procesu. (Gowal & Kohli, 2023)

Legislatívne opatrenia

Jedným zo základných nástrojov zaručujúcich fungujúcu a prosperujúcu spoločnosť sú dobre nastavené legislatívne opatrenia. To sa týka aj využívania umelej inteligencia, najmä v nadväznosti na jej rapídny nárast využitia v spoločnosti.

Zatiaľ čo niektoré krajiny ešte nemajú komplexný právny rámec na reguláciu AI a deepfake technológií, iné sa už usilujú o vytvorenie opatrení, ktoré by tieto technológie regulovali. V nasledujúcich podkapitolách sa pozriem na legislatívne opatrenia prijaté v Európskej únii a Spojených štátoch amerických, keďže práve oni sú príkladom rozvinutých demokratických ekonomík.

Európska únia

Na rýchly vzostup využitia umelej inteligencie reagovala práve Európska únia. Vydala pomerne obsiahly balíček opatrení, ktorých hlavných cieľom je zabezpečiť dôveryhodné využitie umelej inteligencie s dôrazom na ochranu ľudských práv, bezpečnosť a etické konanie. Významnou súčasťou spomínaného balíčka je Akt o umelej inteligencii, [nariadenie (EÚ) 2024/1689, ktorým sa stanovujú harmonizované pravidlá v oblasti umelej inteligencie], ktorý poskytuje vývojárom a nasadzujúcim subjektom umelej inteligencie jasné požiadavky a povinnosti týkajúce sa konkrétnych použití umelej inteligencie (European Commission, 2024). To v krátkosti znamená, že osoba, ktorá vytvorí alebo šíri deepfake je povinná zmieniť sa o jeho umelom pôvode a využitých technikách. Spotrebitelia si tak budú vedomí akého pôvodu je obsah, s ktorým sa stretávajú, s čím súvisí snaha znížiť riziko, že sa stanu obeťami manipulácie.

Akt o umelej inteligencii je vôbec prvým komplexným právnym rámcom pre umelú inteligenciu na celom svete (European Commission, 2024).

Systémy umelej inteligencie tak budú rozdelené do štyroch úrovní podľa rizika, ktoré prinášajú: minimálne, obmedzené, vysoké a neprijateľné riziko.  Každá z kategórií bude presne špecifikovaná  a bude mať vlastné požiadavky na to, ako s údajmi obsiahnutými v danej kategórii zaobchádzať. Dodržiavania bude kontrolovať nezávislý orgán Európskej únie. (European Commission, 2024)

Európsky úrad pre umelú inteligenciu, zriadený vo februári 2024 v rámci Európskej komisie, je zodpovedný za dohľad nad implementáciou aktu o umelej inteligencii v spolupráci s členskými štátmi. Jeho hlavnou úlohou je zabezpečiť, aby technológie umelej inteligencie rešpektovali základné hodnoty, ako sú ľudská dôstojnosť, ľudské práva a dôvera verejnosti. Úrad zároveň podporuje spoluprácu medzi rôznymi stranami v oblasti vývoja, výskumu a inovácií umelej inteligencie. Okrem toho aktívne prispieva k medzinárodným diskusiám o riadení umelej inteligencie, čím zdôrazňuje význam globálneho zosúladenia pravidiel. Cieľom je, aby sa Európa stala globálnym lídrom v oblasti eticky a udržateľne vyvíjanej umelej inteligencie. (European Commission, 2024)

Akt o umelej inteligencii nadobudol účinnosť 1. augusta 2024, pričom jeho plné uplatňovanie sa plánuje o dva roky. Určité časti legislatívy však vstúpia do platnosti skôr.

Spojené štáty americké

Na rozdiel od Európskej únie a jej Aktu o umelej inteligencii, v USA zatiaľ nemajú jednotný legislatívny rámec, ktorý by komplexne reguloval deepfake technológie. Regulácia je tak zatiaľ spravovaná rôznymi zákonmi a iniciatívami na federálnych a štátnych úrovniach.

Zákon o zodpovednosti za deepfakes (H.R. 5586), známy aj pod názvom DEEPFAKES Accountability Act, bol predstavený v septembri 2023. Jeho cieľom je zvýšiť transparentnosť a zodpovednosť pri tvorbe deepfake obsahu. Návrh zákona vyžaduje, aby tvorcovia deepfake materiálov označovali tieto výtvory pomocou digitálnych vodotlačí, čo by umožnilo jednoznačne identifikovať manipulované obsah. (U.S. Congress, 2023)

Zákon zároveň zavádza trestné sankcie za neoznámenie škodlivých deepfake materiálov. Je však dôležité poznamenať, že návrh sa aktuálne vzťahuje iba na špecifické prípady ako napr. videá obsahujúce sexuálny obsah, podnecovanie násilia či zasahovanie do volieb, a nie je tak zameraný na všeobecnú reguláciu umelej inteligencie. Zároveň ale navrhuje pomerne benevolentný prístup v prípade, že sa jedná o paródie, satiru a iné formy umeleckého vyjadrenia, čím sa snaží vyvážiť ochranu pred dezinformáciami a podporu slobody prejavu. V súčasnosti je zákon vo fáze návrhu a čaká na ďalšie legislatívne prerokovanie. (U.S. Congress, 2023)

Vzdelávanie, osvetové kampane a individuálna zodpovednosť

Je veľmi pravdepodobné, že vytváraniu falošných videí či už teraz alebo naďalej v budúcnosti pravdepodobne zabrániť nedokážeme. Pomocou účinnej legislatívy vieme falošný obsah do istej miery obmedziť prípadne vinníkov za jeho tvorbu sankciovať, avšak nikdy nezískame stopercentnú istotu, že nebude ďalej vytváraný. Preto popri technologických a právnych riešeniach tohto problému netreba zabúdať na rozvoj intelektuálnych kapacít jednotlivcov.

Schopnosť kriticky myslieť je jednou z najsilnejších zbraní proti dezinformáciám, a preto by mala byť integrálnou súčasťou vzdelávacieho procesu. Učiť sa klásť otázky, ako napríklad „Kto vytvoril tento obsah?“, „Aký cieľ má jeho šírenie?“ alebo „Existujú dôveryhodné dôkazy na podporu týchto tvrdení?“, umožňuje jednotlivcom lepšie odhaliť manipulatívny obsah a odolávať klamlivým informáciám. Platformy ako BBC Reality Check či Snopes poskytujú výborné nástroje na overovanie faktov a ukazujú dôležitosť vzdelávania verejnosti v tejto oblasti. (Mirga, 2024)

Táto potreba sa však nevzťahuje len na dospelých, ale už na deti a mladých ľudí. Zavedenie mediálnej gramotnosti do školských osnov by mohlo výrazne prispieť k vytvoreniu generácie, ktorá bude odolná voči manipuláciám. Deti by sa na hodinách mediálnej gramotnosti učili rozpoznávať prvky falošných či podozrivých správ. Okrem praktických cvičení by získali aj teoretické poznatky o tom, ako funguje šírenie dezinformácií a aké stratégie sa používajú na manipuláciu verejnosti.

Prepojenie kritického myslenia so vzdelávacími programami umožní nielen lepšie pochopenie manipulatívnych praktík, ale aj schopnosť aktívne im čeliť. Napríklad simulované cvičenia, v ktorých študenti identifikujú a analyzujú falošné správy, by mohli posilniť ich schopnosť odhaliť dezinformácie v každodennom živote.

Ďalším dôležitým prístupom je budovanie kultúry osobnej zodpovednosti. Tento koncept zdôrazňuje, že každý z nás zohráva významnú úlohu v tom, ako sa šíria informácie na sociálnych sieťach. Osobná zodpovednosť zahŕňa schopnosť kriticky posudzovať zdieľaný obsah, overovať jeho zdroj a aktívne odmietať materiál, ktorý môže byť zavádzajúci. Rovnako dôležitá je aj snaha prispievať k online diskusiám pravdivými a overenými informáciami. (Mirga, 2024)

Špeciálnu pozornosť si vyžadujú mladí ľudia, ktorí často vnímajú obrázky a videá generované umelou inteligenciou len ako prostriedok zábavy. Neraz sa sami stávajú tvorcami takéhoto obsahu bez toho, aby si uvedomili možné negatívne dôsledky pre seba aj pre spoločnosť. (Mirga, 2024)

Záver

Táto práca sa zaoberala fenoménom fake news generovaných umelou inteligenciou a jej vplyvom na spoločnosť. Cieľom bolo preskúmať, ako generatívna umelá inteligencia (GAI) umožňuje tvorbu a šírenie manipulovaného obsahu, predovšetkým vo forme deepfake materiálov, ktoré zahŕňajú falošné videá, fotografie a zvukové nahrávky. V práci som sa zamerala na konkrétne príklady zneužitia týchto technológií, ktoré mali zásadný dopad na politiku, verejnú mienku a medziľudské vzťahy.

Práca ukázala, že hoci technológie AI prinášajú možnosti v oblasti kreativity a inovácie, zároveň otvárajú priestor pre zneužívanie a šírenie nepravdivých informácií. Rozoberané príklady ako deepfake videá Moldavskej prezidentky, falošný prejav ukrajinského prezidenta či nepravdivé fotografie Donalda Trumpa jasne ilustrujú, aké závažné dôsledky môžu mať tieto manipulácie v politických a spoločenských kontextoch. Tieto incidenty nielenže poškodzujú dôveru v inštitúcie, ale aj destabilizujú spoločenský poriadok, keďže vedú k šíreniu dezinformácií a polarizácii verejnosti.

Jedným z cieľom tejto práce bolo aj zameranie sa na možné riešenia týchto problémov. Kľúčovým krokom je zavedenie technologických nástrojov na detekciu a blokovanie deepfake obsahu, ako je napríklad produkt SynthID od Google, ktorý umožňuje sledovať pôvod generovaného obsahu. Okrem toho je nevyhnutné zaviesť legislatívne opatrenia, ktoré by zabezpečili transparentnosť pri tvorbe takéhoto obsahu, hoci ich implementácia nemusí byť jednoduchá. Dobrým príkladom je Európska únia, ktorá sa snaží zjednotiť pravidlá svojich členských štátov pod Akt o umelej inteligencii. Práca tiež hovorí o dôležitosti individuálnej zodpovednosti jednotlivca skrz kritické myslenie, ktoré môže byť posilňované pomocou kvalitného vzdelávania a osvetových kampaní

V konečnom dôsledku, aj keď sme svedkami rýchleho rozvoja technológií umelej inteligencie, je dôležité, aby sme sa ako spoločnosť správali zodpovedne, pretože pri umelej inteligencie pravdepodobne platí staré známe porekadlo – je dobrý sluha, ale zlý pán.

Použitá literatúra

AI-generated images of Trump being arrested circulate on social media. (2023, 21. marca). AP News. https://apnews.com/article/trump-arrest-fake-photos-viral-2023

Burgess, S. (2022, 17. marca). Ukraine war: Deepfake video of Zelenskyy telling Ukrainians to ‚lay down arms‘ debunked. Sky News. https://news.sky.com/story/ukraine-war-deepfake-video-of-zelenskyy-telling-ukrainians-to-lay-down-arms-debunked-12567789

Cambridge Dictionary. (2024). Intelligence. Cambridge Dictionary (online verzia). https://dictionary.cambridge.org/dictionary/english/intelligence

Copeland, B. J. (2024, 22. novembra). Artificial Intelligence. Britannica. https://www.britannica.com/technology/artificial-intelligence/Reasoning

European Commission. (2024, 14. októbra). AI Act. European Commission. https://digital-strategy.ec.europa.eu/sk/policies/regulatory-framework-ai

Gelfert, A. (2018, 15. marca). Fake News: A Definition. Informal Logic, 38(1), 84 – 117. https://doi.org/10.22329/il.v38i1.5068

Gowal, S. & Kohli, P. (2023, 29. augusta). Identifying AI-generated images with SynthID. Deep Mind Google. https://deepmind.google/discover/blog/identifying-ai-generated-images-with-synthid/

Gregová, S. (2024, 27. januára). Moldavská prezidentka sa stala obeťou deepfake manipulácie. Vo falošnom videu mala ironizovať životnú úroveň občanov. Infosecurity.sk. https://infosecurity.sk/articles/moldavska-prezidentka-sa-stala-obetou-deepfake-manipulacie-vo-falosnom-videu-mala-ironizovat-zivotnu-uroven-obcanov/

Chen, H., & Magramo, K. (2024,4. februára). Finance worker pays out $25 million after video call with deepfake ‘chief financial officer’. CNN. https://www.cnn.com/2024/02/04/finance-worker-deepfake-scam

Mirga, T. (2024). Dezinformácie v ére digitálnej transformácie: Generatívna AI ako nástroj tvorby rizikového syntetického obsahu – prípadová štúdia a strategické riešenia. ProInflow, 16(1), 33–95. https://doi.org/10.5817/ProIn2024-37974

Necsutu, M. (2023, 29. decembra). Moldova Dismisses Deepfake Video Targeting President Sandu. Balkan Insight. https://balkaninsight.com/2023/12/29/moldova-dismisses-deepfake-video-targeting-president-sandu/

Novak, M. (2023, 19. marca). Obrázok Donalda Trumpa vytvorený pomocou AI [Obrázok]. V Viral images of Donald Trump getting arrested are totally fake. Forbes. https://www.forbes.com/sites/mattnovak/2023/03/19/viral-images-of-donald-trump-getting-arrested-are-totally-fake/

Novak, M. (2024, 24. januára). Pope Francis Warns Of AI Dangers, Citing Fake Image Of Him That Went Viral. Forbes. https://www.forbes.com/sites/mattnovak/2024/01/24/pope-francis-warns-of-ai-dangers-after-fake-image-of-himself-went-viral/?sh=6450b59f5aa0

Oxford English Dictionary. (2023). Deepfake. Oxford English Dictionary. https://www.oed.com/dictionary/deepfake_n?tl=true&tab=etymology

Rahmanian, E. (2023). Fake news: A classification proposal and a future research agenda. Spanish Journal of Marketing – ESIC, 27(1), 60–78. https://doi.org/10.1108/SJME-09-2021-0170r

Robins-Early, N. (2024, 26. augusta). How did Donald Trump end up posting Taylor Swift deepfakes?. The Guardian. https://www.theguardian.com/technology/article/2024/aug/24/trump-taylor-swift-deepfakes-ai

Stokel-Walker, Ch. (2023, 27. marca). We Spoke To The Guy Who Created The Viral AI Image Of The Pope That Fooled The World. BuzzFeed News. https://www.buzzfeednews.com/article/chrisstokelwalker/pope-puffy-jacket-ai-midjourney-image-creator-interview

Tesař, V. (2022, 10. marca). Dezinformace a nová výzva deepfake. Magazín M: Zprávy z MUNI. https://www.em.muni.cz/udalosti/15160-dezinformace-a-nova-vyzva-deepfake

TV-NORD Moldova. (2023, 29. decembra). Un nou deepfake cu Maia Sandu, distribuit pe rețelele de socializare [Video]. YouTube. https://www.youtube.com/watch?v=jFL-ohL7BpI

U.S. Congress. (2023, 20. septembra). H.R. 5586 – DEEPFAKES Accountability Act. Congress.gov. https://www.congress.gov/bill/118th-congress/house-bill/5586/text

Umelá inteligencia: definícia a využitie. (2023, 21. júna). Európsky parlament. https://www.europarl.europa.eu/topics/sk/article/20200827STO85804/umela-inteligencia-definicia-a-vyuzitie

Wikipedia contributors. (2024, 19. októbra). Bellingcat. Wikipédia. https://cs.wikipedia.org/wiki/Bellingcat

Zewe, A. (2023, 9. novembra). Explained: Generative AI How do powerful generative AI systems like ChatGPT work, and what makes them different from other types of artificial intelligence? MIT News. https://news.mit.edu/2023/explained-generative-ai-1109

Filter Bubbles: How personalization algorithms affect us

0

In the age of the internet and social media, accessing information has become easier than ever before. Millions of articles and web pages are only a few clicks or keywords away, blogs and digital news outlets rest right at our fingertips. With such a staggering amount of results for every search query, not becoming overwhelmed appears nearly impossible. But in reality, the number of results would be ever greater, were it not for algorithmic personalization of content.

The term filter bubble” has first been used by Eli Pariser and most people have heard it at some point in their lives. It is also often referred to as “information bubble” or “echo chamber”; however, the meaning in people’s minds remains the same: a phenomenon usually limited to the online space that isolates a person inside a metaphorical bubble. This bubble consists of information fed to the individual by personalization algorithms and usually traps them in a space filled with only certain kind of information. The first impulse to the algorithm originates from what the person searches for, but gradually, the recommended content becomes tailored to their recognized interests.

The filter bubble is largely connected to social media networks. The younger generations often find their information and news on social media, but it is not the only space where filter bubbles may be created. With the age of digitalization, many mainstream news outlets have moved to the online space and as such, customization of content can create a certain bias in which types of news we will find online. And it is not only news that are filtered through the algorithms, it is everything else, too. It can be the types of things we like to shop for, the type of content we enjoy watching, all the way to the results of a simple google search.

In some cases, this personalization appears harmless, even useful. We see You-tube videos similar to the ones we watch often and discover new creators in our fields of interests. Spotify recommends music with similar beats or lyrics to our favourite songs. Instagram shows us pictures of the same type we often like.

However, what happens if we only see the things we already believe and like? What if we, for example, never discover a new interest because we are stuck in an endless loop of uniform content? As Eli Pariser has written (Pariser, 2011):

In the filter bubble, there’s less room for the chance encounters that bring insight and learning. Creativity is often sparked by the collision of ideas from different disciplines and cultures. Combine an understanding of cooking and physics and you get the nonstick pan and the induction stovetop. But if Amazon thinks I’m interested in cookbooks, it’s not very likely to show me books about metallurgy.”

We could be searching for something we have never been interested in before, but the search engine will still try to appeal to our preferences. The same search query in the same search engine written by two different people can easily yield different results because of personalization. If we decide to stay within the recommendation system, chances are that we will only engage further with certain beliefs and interests, rarely discovering anything new.

While creativity and diversity of the content we consume is very important for the human mind and well-being, access to news is often considered a more important problem. What if we fail to see both sides of a political argument because of our prior beliefs recognized by the algorithm? The news articles that are presented to us when we search for a specific topic can be distorted because the results are aligned with, for example, our perceived political inclinations. Consuming information limited to only certain kinds of sources could lead to taking strong stances on various issues without even considering the opposing side’s point of view. In extreme cases, this could lead to radicalization of political or religious ideation.

On the other hand, some researchers argue that the topic of filter bubbles is blown out of proportion and there is not enough support to claim that they have such an intense impact on society. (Dalhgren, 2016) Perhaps it is not the customization, but the people themselves. Maybe they are offered diverse information, and it is the human selection bias that causes them to only consume content of a certain type.

The aim of this essay is to explore the phenomenon of the filter bubble. It attempts to provide a comprehensive description of the phenomenon and it explains the effects filter bubbles have on people’s access to information and, subsequently, on their mind and ideology. The essay references multiple scientific papers focused on the topic and discusses the threats filter bubbles pose in different fields. Lastly, the essay explores possible methods of breaking out of the filter bubble and accessing more diverse information.

What is the filter bubble?

The filter bubble is defined as “a situation in which someone only hears or sees news and information that supports what they already believe and like, especially a situation created on the internet as a result of algorithms (=set of rules) that choose the results of someone’s searches” (Cambridge Dictionary, n.d.).

This definition implies that, while filter bubbles most frequently occur in the online space, they may not be strictly limited to it. However, the term itself has been tied to the internet and social media intensively enough to be listed in the book A Dictionary of Social Media by Chandler and Munday (2016) as an internet-exclusive phenomenon and it is also regarded as such by the general public.

The filter bubble is often referred to as an echo chamber, which is defined as “a situation in which people only hear opinions of one type, or opinions that are similar to their own” (Cambridge Dictionary, n.d.).

From these two definitions, it seems plausible that while filter bubbles refer more to the online environment, echo chambers are a broader term referring to both online and offline spaces. Having said that, filter bubbles can easily lead to being stuck in echo chambers. With only certain types of information being recommended by the search algorithms, people’s opinions and preferences are being reinforced without many alternatives. This can lead to them seeking conversations with like‑minded people both online and in real life, creating echo chambers of multiple individuals echoing the same opinions back and forth.

In contrast to filter bubbles which are caused by algorithms whether we like it or not, echo chambers are something people might seek out willingly. The concern with filter bubbles is that they are created without our direct input, and they can trap us in a customized online ecosystem we did not wish to be in. The inner workings and categorization criteria of personalization algorithms are not public knowledge, so the way information is filtered to us remains a mystery. It is, of course, mostly based on our pre-existing preferences; however, there is no way to confirm what else influences the way in which our personal filter bubble is created.

Personalization algorithms

How do filter bubbles even come into existence? It has already been established that they are created by personalization algorithms; however, it is important to understand how and why the content becomes tailored to our likes and beliefs in the first place. After all, computers and smartphones cannot really see what goes on in our minds. Nonetheless, they manage to recognize our preferences with astounding speed and accuracy.

The underlying algorithms of different websites, platforms, and services constantly collect data about us in order to analyse our behaviour. For example, upon entering a website, we are usually presented with their cookie policy. It comes in the form of a pop-up window, usually asking us to allow cookies: the collection of data for personalization and tailoring of content for better user experience.

The so called “better user experience”, not only on websites but on the internet as a whole, comes at the price of algorithms creating a detailed profile of our habits and preferences. Click‑throughs, browsing history, past searches, purchases, and the same information about people with similar profiles to ours are all compiled into an idea of who we are and with this image in mind, the recommendation system attempts to show us exactly what we want to see. (Pariser, 2011) With every new search, like, or comment, the algorithm adjusts itself to better predict what we would enjoy seeing next.

Many algorithms are capable of not only monitoring what we read, but also the amount of time we spend on which part. More information can be provided to those who show an interest in a certain topic or field, even our viewpoint on the issue can be taken into account, creating extensively detailed criteria for the subsequent recommendations. (Custers, 2020)

With more information on our preferred topics, there is more of a reason to dive deeper into what we already know and enjoy. Sources with the same type of messaging cement us in our opinions and challenging viewpoints are pushed to the wayside. Because we interact with them less when they are fewer and far between, their numbers slowly dwindle into nothing. At least, that would be the reality if the algorithms referred exclusively to our personal profiles. However, the algorithmic selection process is more complex than that.

It is necessary to realize that while personalization algorithms create filter bubbles, not all customization of content directly leads to being trapped in them. Tailoring the results to our interests can be useful and, in some cases, even necessary. The internet is flooded with content, and if there were no processes in place to sort through the results and choose the ones we are likely to be looking for, searching for anything at all might become a nearly impossible task. However, the boundary between simple personalization and filter bubbles is blurry at best and largely depends on one’s subjective perception of the topic.

Algorithmic recommendations

It would be easy to assume that the whole recommendation system operates on its perception of us and traps us in an endless loop which lets nothing new inside; however, that is just a mental shortcut. It is important to note that the algorithmic selection of content is not built only on personal profiling and customization. Of course, the content recommended to us often aligns with our preferences, but other factors play a role in the selection process as well.

Internet trends and popular topics may be recommended to us even if they stray away from our usual interests. Of course, a part of this can be attributed to personalization, seeing as trendy topics for certain demographics differ, but it still strays from the idea of extreme customization to each individual. If a topic becomes sensational or viral, it can often reach us through the recommendation system, proving that the filter bubble does not cut us off from the outside world completely.

In many works concerning filter bubbles, we encounter a description that makes the bubble appear impenetrable. They sometimes fail to consider that while content personalization definitely is extensive, new information still reaches us, even if it is sometimes limited.

Another way to encounter content we usually would not interact with is advertisement. Once again, adds can be, and often are, personalized to an extent, but if a campaign happens to be large enough, it can reach new audience through algorithmic recommendation, too.

Lastly, certain messages could be suppressed or pushed to the forefront within the recommendation algorithms regardless of personal preferences, virality of the topic, or the amount of money spent on advertisement. This could be caused by pressure from a position of power: the government, big companies, or sponsors of the media in question. It would be difficult to find out about this, seeing as the inner workings of recommendation algorithms are not typically public knowledge. However, this possibility holds a strong connection to the issues concerning ethics and democracy in connection with filter bubbles and recommendation systems, and it will be discussed later in the essay.

It is important to point out that what suffers the most in the algorithmic selection environment are opinions held by only small groups and topics that are not interacted with often by anyone. If we are not already interested in such topic or opinion, our chances of learning about it are rather low unless it becomes popularized in some way or invests significant resources into online marketing.

To make this essay easier to understand, terms like “recommendation algorithms” will be used in regard to personalization algorithms unless stated otherwise, since this type of algorithm plays a major role in discussing filter bubbles.

Filtered content

While they are most often discussed in connection with social media and news outlets, filter bubbles can be formed nearly everywhere in the online space. Websites and search engines collect data about our online behaviour and offer results that are most likely to meet our expectations. However, while personalization occurs nearly everywhere, it is important to realize what filtered content actually looks like.

Social media content

Personal tailoring of content is especially visible in social media. Instagram, for example, often recommends posts and creators that are similar to those we have interacted with in the past. Scrolling through the posts, we may often fail to realize that some of the content we are automatically double-tapping is not only from the creators we follow, but also from very similar ones that we are seeing for the first time. In small print, they relay a message: suggested for you.

This directly points to the fact that a profile of our behaviour on this site exists within the algorithm, and it actively searches for content we are likely to enjoy. The search-and-explore page is flooded with posts and reels Instagram expects us to look for, and it appears to always show the same type of posts it did the last time we checked it.

To many people, this looks like a good thing. If we like art in a certain style, we will soon discover more artists in that field. If we enjoy a certain fashion style, soon enough, we will have tens, even hundreds, of new inspiration pictures. Posts related to our hobbies start showing up and almost everything on our for-you page picks our interest. Maybe we will even buy something for ourselves, because suddenly, with our interest in these fields, adds have adjusted to our preferences as well. At the same time, the amount of the type of posts we do not engage with as much, starts to dwindle.

We should remember that social media does not particularly care about our enjoyment, but about the time we spend interacting with their content. The longer we spend scrolling, the larger the number of adds presented to us in between post and, consequently, more money for the social media in question. Of course, this makes complete sense from an economic standpoint. As Eli Pariser (2011) remarks, if something is free, we become the product sold instead of being the customer.

This simple fact motivates social media to fine-tune their recommendation algorithms to keep us engaged for the longest time possible in order to achieve maximum profit. Creating a filter bubble that will confirm our beliefs and make us feel good by showing us our favourite types of content is, therefore, highly beneficial.

News

While the filter bubble does not affect the news we watch on television or read in newspapers, it can definitely influence what digital news articles we are recommended. It may simply be the issues that concern us based on our interests or perceived personal traits like age or economic background, but in some cases, the recommendations also take into account who the matter should be presented by. While some news outlets happen to be mostly objective in their coverage, others examine issues from a certain political or other ideological standpoint. If the algorithms classify a person as someone with strong opinions on those topics, it is likely to recommend coverage by a news outlet with similar views.

It has already been mentioned that social media tries to keep us engaged with their content for as long as possible because of the number of products they can advertise to us. But not only social media is filled with adds: all sorts of websites also have advertisement space they can make money from. But showing adds for anything and everything is not exactly an effective strategy if they want us to actually click on them and purchase something. Because of this, the advertisements are also often personalized to each individual.

Social media algorithms use the knowledge they have about us from our activity to offer adds that are most likely to spark our interest. Websites can be interconnected with our search engine and make a use of our past searches to advertise things we might need.

Societal impact

Filter bubbles have a strong impact on individuals by creating internet ecosystems filled with content tailored to their preferences. Some people are happy to be recommended the things they enjoy; others complain about the algorithms not satisfying their actual needs. However, the whole phenomenon of filter bubbles also impacts society on a much broader scale.

It is a given that our opinions are shaped and altered by the new information we consume, and while that may not matter too much if it concerns hobbies or what we like to shop for, being influenced by filtered information in more important matters has its consequences.

Political polarization

Whenever filter bubbles come up, the topic of opinion polarization seems to be one of the major concerns, most notably in politics. However, many of the sources concerning this matter are written by American authors and researchers. Even Eli Pariser, the father of the term “filter bubble” itself, happens to be an American. This fact may appear insignificant at first: the USA is a large country with many prestigious universities producing many educated people who can write about a great variety of topics. However, in regard to politics, it is necessary to consider the way the writer perceives politics as a whole.

The USA works on a two-party system, which is not too common in the rest of the world. This means that if a person cares about politics at all, they can often be categorized as right-leaning or left-leaning. Since there are only two sides to choose from, a filter bubble can slowly start enforcing the pre-existing political leanings. As a person starts consuming more and more of this type of content, the opinions coming from the other side may gradually become suppressed altogether. If they are not suppressed, they are often presented to the viewer through a biased lens, for example, left-leaning ideas explained mockingly by a right-leaning influencer. Different news outlets can package the same messages in extremely contrasting ways and the headline of an article written by Fox News will looks marginally different from the one by CNN.

Yes, polarization is definitely one of the threats posed by the filter bubble environment; however, not all topics are polarizing. If there are only two options to choose from, the filter bubble can strongly influence our perception of said topics and sway us towards more extreme views, but if there is a multitude of choices, this may be less prominent. In countries with countless political parties, liking one does not imply disliking all the others. The classification of left and right-leaning politics is often applied to those countries as well; however, the parties are spread out all across the spectrum. Usually, multiple parties agree on certain topics while they disagree on others. Consequently, while an individual’s political leanings still play a role in which type of messages they favour, they often like ideas of more parties at once. In such cases, political polarization caused by filter bubbles should be less extreme, because people are not necessarily forced to pick a side and they vote for whoever seems the most in tune with their overall beliefs at the moment.

What applies to politics should apply to everything else too. There are topics that are polarizing and others that are not. If there are only two options to choose from, content tailoring can strongly reinforce our stance on the issue. If the answers are only yes or no, we can only pick one and by doing so, we practically tell our personalization algorithm to adjust itself to provide content consistent with our view or perception of the matter.

In USA, many polarizing topics are also strongly politicized, leading to a clear connection between certain opinions and political leanings. Are we pro-choice or pro-life? What are our views on immigration laws? Which side of a war is in the right? If the answer is “I do not know”, there is a strong chance that we do not concern ourselves with the topic at hand at all. However, picking a side immediately tells the algorithm to assign a stereotype to the person in question and pre-package the rest of the topics in accordance with it. So, when we learn about new topics that are divisive, they will be presented through the lens created by personalization, immediately influencing us to perceive them in a certain kind of way. A great power rests within first impressions, so if we first see something described in a positive light instead of a negative one, it can greatly impact our opinion on the whole issue.

Impact on democracy

As mentioned in the previous chapter, filter bubbles can impact the polarization of political viewpoints, but they can also be considered as a hindrance to democracy as a whole. There are multiple concepts of democracy, and they slightly differ in what they focus on; however, they often share the requirements for freedom of choice and freedom in access to information. And so, the question comes up, whether we are really free in those aspects when our search algorithm favours only certain types of information.

If the filter bubble only shows us what we already like and believe, we are unlikely to find diverse viewpoints on countless matters. This can, on one hand, be considered something that polarizes society; nevertheless, it can be seen in a broader spectrum as a limitation to our freedom of choice. (Bozdag & Van Den Hoven, 2015) If the results get filtered out by the algorithm, we never had a chance to encounter them, meaning that we couldn’t decide by ourselves about where we stand on the issue. Of course, we could choose to actively search for more diverse opinions, but even this search can be affected by the customization of results. Therefore, we are practically unable to decide which viewpoints we will identify with, because if we only consume the ones recommended by the system, we are likely to adopt them automatically since that is all we know about the topic.

Another concern is that filter bubbles stand in the way of informed discussion and mutual understanding about various topics. While discussing the concerns with freedom of choice, a limited access to diverse information has already been mentioned. To reach a conclusion about anything at all, we need to gather information and analyse it. However, if the information is incomplete, the conclusion may appear reasonable to us considering what we know, but it does not take everything into account.

Even our social interactions, especially online, can be affected by filter bubbles. Like-minded people gather in the comments of posts and videos that share their worldview: often ones that have been recommended to them by their personalization algorithm. Because of this, they can end up in an echo chamber where everyone supports the same message and no one challenges their beliefs. With this in mind, it would be safe to assume that filter bubbles, by extension, create a barrier to a diverse dialogue between people with different ideations. (Amrollahi, 2021)

Filter bubbles can come in the way of discovering new perspectives or, sometimes, we may not even be aware that there are more viewpoints on the issue at hand at all. As a result, we may not be aware of disagreements concerning the matter and we will only blindly confirm our pre‑existing beliefs. (Bozdag & Van Den Hoven, 2015) If people are not aware of challenging viewpoints or, even worse, of the existence of an issue at all, they cannot form informed opinions. For example, in politics of democratic countries, people have the right to contest the government’s decisions, but they cannot do so if they do not know about the imposed rules. The filter bubble throws out information it deems irrelevant; however, that can often be not because we avoid said topic but because we never thought to research it in the first place. This way, new information might not make it into our bubble even though it may concern us, and we would have a strong opinion if we were aware of it. As it has been stated by Bozdag and Van den Hoven (2015): “Someone cannot protest if they do not know that things relevant to them are happening.”

While not being aware of certain political decisions can be perceived as ignorance and insufficient research, even people who are interested in political news could be affected by their own filter bubbles. Of course, if someone is interested in politics, their customized search results probably contain a greater share of information, but it might not contain everything. This can be, once again, demonstrated on the example of the USA and its two-party system. Since there are only two options and choosing a side, or at least a bigger inclination towards one, becomes nearly inevitable, the personalization algorithms are likely aware of a person’s political leanings. This can result in them being recommended news articles written by media with the same values. And while many issues are covered by all media, despite the different tone and presentation, some may be completely overlooked by one side. This means that the person in question might consume news regularly and still be unaware of certain topics altogether, either because their recommended news outlets deem it unimportant or even purposefully avoid it because of a bias in opinion.

Extremism and radicalization

With ideation polarization comes the danger of falling all the way into extreme worldviews. Having said that, polarized opinions are not all it takes to become an extremist. While a constant confirmation bias in the information received from recommendation algorithms may nudge people towards a more extreme version of their original ideation, strong stances on issues do not necessarily constitute extremism.

In fact, when people become passionate enough about a topic, it may be the reason why they consciously decide to step out of their filter bubble to search for opposing views and challenge them. It has been suggested that the more confident someone is about their opinion, the more likely they are to search for such information. This can, however, often be not to broaden their knowledge, but rather to monitor what they do not like. (Dahlgren, 2021)

Consequently, challenges to opposing opinions may often be emotionally charged and without enough research to make rational conclusions. Once again, the form in which the opposing side’s point of view is presented, plays an important role. If a point made by group A is explained by someone from group B, some information may be left out or presented in a negative light. The ones explaining the opposite side’s arguments are often those with extreme opinions that are so deeply rooted in their minds, that they often cannot be shaken even by extensive evidence.

If a person searches for radical content, personalization algorithms definitely recommend more of the same content type in the future. However, radicalization of one’s beliefs is usually attributed more to the self-selection bias and a decisive link between radicalization and filter bubbles has not been proven. (Wolfowicz & Weisburd & Hasisi, 2023)

Breaking the filter bubble

While filter bubbles affect many aspects of our searching, perhaps one of the most important things that are filtered by them are news. As discussed earlier in the essay, personalization algorithms create customized ecosystems out of our interests as well. But while that may sometimes stifle new ideas or creativity, it can generally be seen as a fairly positive outcome. Tailored product advertising could be seen as companies prying on our personal data and manipulating us into purchases; however, the effect mostly remains on an individual level. Customized news are the cause of most of the negative societal impacts analysed earlier in the essay, so it is the part of the filter bubble we should be most focused on breaking out of.

The first step to breaking out of the filter bubble is realising that we are inside of one in the first place. This may appear trivial, but if challenging and diverse information are not recommended to us and we only see information confirming our opinions, we can simply assume that our stance on the issue is the only existing one.

Anonymity

Many platforms, including search engines, gather data about our activity and save our browsing history in order to personalize our search results in the future. It is, however, possible to step away from personalization altogether by becoming anonymous online.

Becoming completely anonymous in today’s digital world is nearly impossible, especially if we wish to engage with social media content or if we are required to use certain services by our school or workplace. Nevertheless, some steps can be taken in order to reduce personalization in some cases.

Using a search engine like DuckDuckGo that does not save our browsing history is not only beneficial in terms of online privacy, but it is also a good way to opt out of personalized search results. Another tool that protects our online privacy and, by extension, prevents our results from being personalized is Tor Browser.

Multiple sources

Perhaps the most intuitive solution to the issue of filtered content is consuming news from multiple sources. If we gather news from social media, this would mean seeking out not only more creators and accounts that relay news, but looking for information on different platforms as well. If platforms belong to the same company, for example Meta or Google, and our accounts on them are interconnected, it is possible that the personalization algorithms share our data as well. This would mean that we will encounter the same filtering on all the platforms, preventing more diverse results. Therefore, it would be advisable to search even beyond social media, for example, on official websites of news outlets.

Searching for challenging opinions

Even if we are usually consuming information that confirm our beliefs within the filter bubble and we can be misled into thinking that our opinion is the only existing one, we are often aware that opposing opinions do, in fact, exist. Nevertheless, we are seldom motivated to search for them specifically.

Seeing issues from all points of view is important for creating an informed opinion on the matter at hand; therefore, purposefully looking for challenging information can broaden our perspective. In fact, if we search for challenging information, it will be included in the data that personalization algorithms operate on, and they may consider it in their subsequent recommendations. This could partially alter the filter bubble to provide more diverse results in the future.

Checking for bias

We may sometimes be convinced that we are accessing diverse information, but we may not notice a bias in the so-called diverse media, as we might not even be aware of it. Checking for bias of articles or whole platforms can prove to be extremely challenging. If we were to do it on our own, we would need to find out who owns the media in question, who funds them, what are the leadership’s political affiliations, or what the subjective opinions of the writer are.

This process can be partly avoided through using platforms that gather news from multiple sources and classify them according to their bias. This approach is not foolproof, and we should use our critical thinking skills instead of blindly believing all the information these platforms give us; however, it can be a very useful tool.

Some such services include but are not limited to Ground News or AllSides. Usually, the services of this sort come in the form of mobile apps or browser extensions, and they show us the bias (usually political) of different news. At times, they also include features such as showing which news are covered only by media with certain biases or comparing the type of headlines differently opinionated sources choose for the presentation of the same topic.

Tools of this sort can reveal to us our own biases by revealing the bias of news we usually consume, and they allow us to purposefully choose to engage with information from all points of view.

Conclusion

Filter bubbles can greatly influence our information consumption habits and our perception of the world, and there are many valid concerns in regard to their impact on both individual and societal level. The filtering of information can stifle our creativity, limit our access to important news, or affect our political opinions. It can even be perceived as a violation of our freedom and rights within democracy. There are many works on the topic that define the filter bubble as something nearly inescapable, extreme, and strongly influential, while others reference research which implies that the size of the issue has been blown out of proportion.

Either way, we must realize that the amount of information in the digital age is so great that some sort of personalization and filtering is necessary in order for us to find what we are looking for. The boundary between simple algorithmic customization and a filter bubble is blurry at best and cannot be easily defined, but finding a middle ground between useful tailoring and diversity should be an important goal for the future.

Nevertheless, even without altering the algorithms themselves, there are ways in which we, as individuals, can reduce the filter bubble effects by consciously choosing to step out of our comfort zone. But first, we must look inwards and realize that our opinions, no matter how objective we might wish them to be, are often biased. Even if the effects of filter bubbles were weaker than expected and the bias stemmed more from personal choices, consuming more diverse information helps us reach more rational conclusions.

List of references

Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding From You. Penguin Group

Cambridge Dictionary. (n.b.). filter bubble. In Cambridge Dictionary. Retrieved November 28,  2024, from https://dictionary.cambridge.org/dictionary/english/filter-bubble

Cambridge Dictionary. (n.b.). echo chamber. In Cambridge Dictionary. Retrieved November 28, 2024, from https://dictionary.cambridge.org/dictionary/english/echo-chamber

Chandler, D., & Munday, R. (2016). A Dictionary of social Media. Oxford University Press eBooks. https://doi.org/10.1093/acref/9780191803093.001.0001

Dahlgren, P.M. (2021). A critical review of filter bubbles and a comparison with selective exposure. Nordicom Review. 42(1), 15-33. https://doi.org/10.2478/nor-2021-0002

Custers, B. (2020). Fake News, Filter Bubbles and Echo Chambers: A Short Overview of Basic Terminology and Key Issues, SSRN Electronic Journal. http://dx.doi.org/10.2139/ssrn.3761217

Bozdag, E., & Van Den Hoven, J. (2015). Breaking the filter bubble: democracy and design. Ethics and Information Technology, 17(4), 249–265. https://doi.org/10.1007/s10676-015-9380-y

Amrollahi, A. (2021). A Conceptual Tool to Eliminate Filter Bubbles in Social Networks. Australasian Journal of Information Systems, 25.  https://doi.org/10.3127/ajis.v25i0.2867

Wolfowicz, M., Weisburd, D., & Hasisi, B. (2023). Examining the interactive effects of the filter bubble and the echo chamber on radicalization. Journal of Experimental Criminology, 19(1), 119-141. https://doi.org/10.1007/s11292-021-09471-0

Fighting Digital Fraud with Artificial Intelligence and Machine Learning

0

The goal of this paper is to give the reader a complex overview on how Artificial Intelligence and Machine Learning are transforming the fight against digital fraud. The work should acquaint the reader with common digital fraud types and the options of detecting them. Real-world examples from two companies should then give an insight into the incorporation of these solutions.

In the beginning of this work, the most common types of digital fraud are presented, highlighting the differences between serial and opportunistic fraud, and the exploitation of newly emerged AI tools. Furthermore, key AI&ML algorithms for digital fraud detection are discussed, involving both unsupervised and supervised methods. The workflow of model development is also explained, proving the importance of appropriate model selection. Next, an industry example of successful fraud detection is presented, along with a discussion of its consequences. Finally, the last section is devoted to Resistant AI, and especially to their intriguing story and remarkable expertise. The cherry on top being an insight from Resistant AI’s Data Science Team Lead on the current challenges and future trends of AI&ML fraud detection.

1 Introduction to digital fraud

1.1 The growing threat of digital fraud

With an ongoing digitalisation, increasing number of institutions is shifting their services to the on-line world, moving closer to an idea of automated administration. ID verification, document submission or even contract signing no longer require in-person interactions. These digitalized processes offer lower costs, faster execution times and more convenience for customers. On the other hand, such technological advancements open new possibilities for exploitation by digital fraudsters. Apart from that, the cybercriminal ecosystem is becoming increasingly industrialized, enabling even non-technical fraudsters to access digital exploitation tools without the need of technical knowledge (Bank for International Settlements, 2024).

To give an example, AI photo editors have emerged as powerful tools, but their advanced capabilities present a double-edged sword. Fraudsters can now generate multiple identities with just couple of clicks. Adding a beard, changing eye colour or virtually aging a person? In just a few steps a number of fraud-ready synthetic identities can be created. Combination of these factors could result in only one way — the digital fraud is on its all-time high. According to Veriff’s 2024 Fraud Report there has been a 20% YoY increase in overall digital fraud in 2024. The strongest surge could be seen especially in the E-Commerce sector, with an alarming 40% increase in net fraud when compared to 2022 (Veriff, 2024).

Picture 1: Annual mean fraud rate comparison for different sectors in 2022 vs 2023

(Source: veriff.com/ebooks/veriff-fraud-report-2024 )

With the statistics mentioned above, there is no doubt that digitalisation is like a honey pot for digital criminals. Globally, companies are annually targeted by not thousands but millions of fraudulent activities, resulting in significant financial losses, reputational damage and increased operational expenses. But what techniques in particular do fraudsters employ to deliver such damage and achieve their malicious objectives?

1.2 Types of digital fraud

Digital fraud is a broad term, containing various forms of deceptive practices, but in this paper, we will be primarily focusing on those types, that can be effectively detected by Machine Learning techniques.

Additionally, we should distinguish between serial and opportunistic fraud, as these categories significantly differ in their characteristics — primarily regarding the scale and used methods. Starting with serial fraud, this type is described as repetitive and organized fraudulent action, typically characterized by a high level of sophistication and persistence, often involving automated processes. In practice, this could be represented by reproduction and distribution of fake documents, chargeback frauds or subscription abuse. Here we can further categorize serial fraud into decentralized and concentrated. Decentralized serial fraud could be described like fraud-as-a-service model, where criminals distribute editable templates via internet marketplaces and social media to large segment of end users. These individuals then commit crimes on their own using the acquired documents. On the other hand, concentrated serial fraud is run by highly organized crime groups, who leverage technical tools and iterative experimentation to test and bypass automated controls and create a large number of accounts, which can be then used for various financial crimes. (Resistant AI, 2023)

Opportunistic fraud is known as a situation when individuals exaggerate or manipulate otherwise legitimate claims to gain an unfair advantage or financial benefit. This type of fraud is commonly observed in the insurance industry, when policyholders inflate the value of their claims, falsify details about an incident or misinterpret circumstances. An example could be a policyholder “photoshopping” details about an injury to receive a higher payout from the insurance company.

1.2.1 Document forgery

Moving to exact fraud techniques used by criminals, document forgery is an act of creating a falsified document from scratch, imitating a genuine one. This type of fraud is as old as documents themselves, but with the increasing sophistication of technology, it has taken on a new and more complex forms. Once an underground industry, requiring skilled artistic sense, nowadays all the resources criminals need are just a computer and an image editing software. This means that document forgery is becoming easier and vastly more common. Still, just because making fraudulent documents is easier than ever, it doesn’t necessarily mean that creating a good fake document is easy — fraudsters often give themselves away with typos, unprofessional formatting or non-matching fonts.

1.2.2 Synthetic identity fraud

Next on the list, a newer form of identity fraud, involves combining real or both real and fake information to create a new fictional identity. This combination makes synthetic fraud particularly challenging to detect. Criminals may, for instance, begin by stealing photos of personal identification or credit card information. On their own, these pieces of information may not be sufficient to open a bank account, but document forgery can easily fill in the gaps to make unauthorized registration successful.

Picture 2: Illustration of how a synthetic identity could be created

(Source: omnisecure.berlin/wp-content/uploads/os23_Muerl_Carsten.pdf )

According to MasterCard’s Fraud Prevention e-book, synthetic identity fraud has recently surpassed credit card fraud and identity theft and is now the fastest-growing crime in the world (MasterCard, 2024). As stated by TransUnion, synthetic identity fraud was up 132% in 2022, with 46% of global companies having experienced such crime that year (TransUnion, 2023).

1.2.3 Template fraud

A website selling pre-designed layouts, used to create documents. Formally a legal business, right? Yes, but the offered templates are almost specifically used to commit digital crimes. Surprisingly, these marketplaces, often referred to as „template farms,“ operate with a level of organization that goes far beyond what meets the eye. While they resemble ordinary template websites like Canva or Freepik on the surface, their true nature becomes apparent in their offerings. These platforms provide thousands of files designed to mimic official documents such as utility bills, bank statements, and passports. Moreover, criminal organizations operate strategically, spreading tens of thousands of links to their template farms across the internet, primarily to increase the reach. Many of the websites share a similar structure, differing only in logo and name, hinting they may be operated by the same organization. Customers visiting these sites are frequently redirected to Telegram, where they are offered „24/7 support“ to facilitate their fraudulent activities and ensure seamless transactions (Resistant AI, 2024).

Picture 3: An example of a template farm website

(Source: resistant.ai/blog/types-of-document-fraud#heading-0)

1.2.4 Authorized Push Payments Fraud

Authorized Push Payments Fraud happens, when a fraudster convinces a person to authorize a payment under false pretences. This type of fraud could be sometimes categorized as pre-digital, since the process starts by deceiving a person and then continues further digitally. APP fraud take many forms such as purchase, investment and romance scams. A purchase fraud occurs when a customer believes that they are making a verified payment for goods or services, when in reality, the product does not exist. This scam typically takes place on-line or through social media, with scammers offering deals that seem unrealistically favourable. After making a payment, the consumer never receives the product nor sees the money again. Recently popular, romance scams, happen typically on dating apps or websites, where a fraudster creates a fake identity and pretends to build a romantic connection with the victim. The scammer builds trust and emotional commitment over several months, eventually leading to a request for money, often pretending to be in an emergency. These types of fraud are particularly challenging to detect but for some cases even ML algorithms are useful (ACI Worldwide, 2024).

1.2.5 Money laundering

Money laundering is called what it is because it precisely describes what takes place — illegally obtained money is put through a cycle of transactions so it appears as gained legally. Money laundering traces its origins to mafia undergrounds in the 1920s. While it has evolved over time, the arrival of digital banking and on-line transactions has made the process more efficient and harder to detect, contributing to its continued presence.

The legitimization of funds can be divided into 3 stages: placement, layering and integration. With placement being the first one, launderer attempts to put the “dirty money” into the financial system unnoticed. This is commonly done by asking a group of people to make small deposits to their accounts, making the funds seem legitimate. This first stage is where detection is most probable. Second stage is done by conducting a series of transactions that, by the reason of their frequency, volume or complexity appear as legitimate transactions. The aim of this process is to make the funds untraceable back to the crime origin. Last stage — integration — is when the launderer tries to integrate the illicit money back into economy, making the funds seem as earned by a legitimate business (for example, business earnings or property) (Organization of American States, 2013).

1.3 Why is AI&ML the key to fight digital fraud?

As previously mentioned, more and more companies are shifting their services to the online world, leading to an unintended consequence of a booming digital fraud industry. With an increasing scale of these criminal activities, manual review process is no longer an effective technique. When processing, for instance, 10,000 documents a day, one can imagine how time-expensive and money-draining a manual control would be. Next, a bit more sophisticated way, a rule-based system is now becoming obsolete as well. While useful for detecting known patterns of fraudulent activity, static rules struggle to adapt to new and emerging threats. For example, rule-based systems are often ineffective for synthetic identity fraud and account tampering (Whitrow, Hand, & Juszczak, 2009). As criminals continuously invent new ways how to commit digital fraud, rule-based system leads to higher false negative rates and missed detections.

One solution for combating endlessly evolving criminal processes could be utilizing machine learning techniques. Machine learning offers a proactive and efficient approach, perfectly suiting the scale of thousands of documents being processed daily. ML algorithms can analyse vast datasets to identify irregular patterns or behaviours, that may not be apparent through traditional methods. Additionally, by learning from historical data, these algorithms have the ability to predict fraud with high accuracy rate. The agility of ML systems also enables companies to detect fraud in real-time, significant amounts of both time and money. (Babatope, 2024)

Companies which already adopted machine learning methods to detect suspicious activity show an impressive success in financial loss reduction. According to Visa’s 2019 press article, Visa Advanced Authorization (VAA) using artificial intelligence helped financial institutions prevent an estimated $25 billion in annual fraud (Visa Inc., 2019). As another example, JPMorgan Chase employs ML to continuously oversee on-line transaction processes, with the result of achieving a 50 percent reduction in credit card losses over the past five years leading to 2019 (JPMorgan Chase & Co., 2019). Moreover, a renowned payment system company PayPal spends around $300 million on anti-fraud measures, with machine learning approaches being a solid pillar of their fraud detection systems.

2 Key AI&ML techniques used for digital fraud detection

As many types of digital fraud exist, so do techniques to detect them — with Artificial Intelligence being one of the most popular ones. Particularly, a branch of AI known as Machine Learning has brought the most success. Machine learning was defined in 1950’s as “a field of study that gives computers the ability to learn without explicitly being programmed” and 70 years later it seems to still hold true.

Machine learning starts with data — tables, photos or text — all this is gathered and processed to be used as training data. Next step, a similarly important, is choosing an appropriate model, which will then be trained on the available data. After training, the model is evaluated, providing developers with performance metrics such as precision, recall and F-1 score — insights on overall accuracy. If needed, an updated set of parameters is chosen, and the model is retrained to give better results.

Functions of machine learning systems are diverse, with descriptive ones using data to explain what happened, predictive ones used to predict what will happen and prescriptive utilizing data to make suggestions about what actions to make. Additionally, machine learning can be categorized into two primary approaches: Supervised and Unsupervised learning. In the following sections, we will explore these categories in detail, highlighting the models most commonly used for digital fraud detection and explaining how the algorithms work.

2.1 Supervised learning

Supervised machine learning models are trained on labelled datasets, which means that the input data is paired with the desired output. Training datasets are manually labelled by a human, who decides whether a document or transaction is fraudulent or not.  Once trained, the machine is provided with a new set of unlabelled data and uses its prior training to predict values or classify the data into categories. Supervised learning is particularly effective in identifying known types of fraud, but very limited in recognizing new or evolving fraud techniques.

Picture 4: Supervised learning process

(Source: geeksforgeeks.org/supervised-unsupervised-learning )

2.1.1 Logistic regression

The first algorithm we will discuss, Logistic regression, estimates the probability of an event occurring, such as if transaction is fraudulent or not. This model, also known as logit model, is often used for classification or predictive analysis. Since the expected outcome is probability, dependent variable lies between 0 (not-fraud) and 1 (fraud) included. Unlike generative algorithms, logistic regression does not create or generate new information. Instead, it assigns items to a class by estimating the probability of belonging to that class. Most commonly used approach, Binomial logistic regression, can divide variables into just two classes – for example, fraud/no fraud — but more complex types like Multinomial logistic regression are able to predict three or more outcomes. Logistic regression can be interpreted by a Sigmoid function, a curve used to map the predicted values to probabilities.

Picture 5: Comparison of Linear and Logistic regression

(Source: saedsayad.com/logistic_regression.htm )

As seen on the plot, logistic regression is described by the logistic function, which is mapped by the following equation:

The formula calculates a probability that given input X belongs to the positive class (Y = 1), while β0 represents the baseline probability of the positive class when all predictors (X1, X2 Xn) are zero. β1, β2βn being coefficients or weights assigned to the input features. Similarly important is also a concept of log odds. In logistic regression, a logit transformation is applied on the odds, that being a probability of success, divided by the probability of failure. This is commonly known as log odds and can be represented by the following formula:

Beta parameter is often estimated via maximum likelihood estimation (MLE). This method tests different values of beta through multiple iterations to optimize for the best fit of log odds. All of these iterations produce the log likelihood function, and logistic regression seeks to maximize this function to find the best parameter estimate. Once the optimal coefficient is found, the conditional probabilities for each observation can be calculated and summed together to yield a predicted probability. This changes slightly, when is logistic regression used specifically for machine learning cases. Within machine learning, the negative log-likelihood is commonly used as the loss function, with gradient descent being applied to optimize the parameters and find the global maximum (IBM, 2024).  

As discussed in a paper about credit card fraud detection (Alenzi & Aljehane, 2020), logistic regression can be a powerful tool for detecting credit card fraud through transactions. A database of credit card transactions was split into training and testing sets to build and evaluate predictive algorithms. Multiple classifiers such as k-Nearest neighbours or Voting classifier were used, but logistic regression presented the best performance. The accuracy was determined by a Confusion matrix — a table containing counts of true positives (TP), false positives (FP), true negatives (TN) and false negatives (FN), aiming to have the best proportion of correct predictions.

Picture 6: Detailed plot of Logistic regression, showing values for fraud (1) and non-fraud (0)

(Source: thesai.org/Downloads/Volume11No12/Paper_65-Fraud_Detection_in_Credit_Cards.pdf )

2.1.2 Random forests

Random forest is a supervised machine learning algorithm consisting of multiple decision trees during the training phase. First, it would be best to introduce how decision trees work.

A decision tree is a structure consisting of nodes (representing decisions or tests on attributes), branches (representing the outcome of these decisions) and leaf nodes (representing final outcomes). For example, root node corresponds to the entire dataset and the initial decision to be made, and leaf nodes correspond to final decisions with no further splits (GeeksForGeeks, 2024).

Picture 7: A simple visual example of decision tree  

(Source: botpenguin.com/glossary/decision-trees )

While decision trees are commonly used, they can be prone to problems, such as bias and overfitting. However, when multiple decision trees form an ensemble in the random forest algorithm, they predict more accurate results, particularly when the individual trees are uncorrelated with each other.

Ensemble methods combine predictions from multiple models to determine the most popular result, with bagging being one of the most well-known approaches. In this method a random sample of data in a training set is selected with replacement. This means, that the individual data points can be chosen multiple times. After several data samples are generated, these models are then trained independently, which helps with reducing the variance within a noisy dataset.

Finally, we get back to the random forest algorithm, which is an extension of the bagging method as it uses both bagging and feature randomness to an uncorrelated forest of decision trees. Feature randomness generates a random subset of features, which ensures low correlation among decision trees. This is the key difference between decision trees and random forests. Furthermore, random forests have three main hyperparameters, which need to be set before training is started. These include node size, the number of trees and the number of features sampled. From there, the random forest classifier can be utilized to solve both regression and classification problems (IBM, 2024).

Picture 8: Visual representation of random forest algorithm

(Source: geeksforgeeks.org/random-forest-algorithm-in-machine-learning )

2.1.3 Support Vector Machine (SVM)

Next of the supervised machine learning models, support vector machine, is an approach that classifies data by finding an optimal line that maximizes the distance between each class in an n-dimensional space. As commonly used algorithm for classification problems, it can distinguish between two classes by finding the optimal hyperplane that maximizes margin between the closest data points of opposite class. The plane dimension is specified by the number of features. Even multiple hyperplanes can be created to differentiate classes, enabling the algorithm to find the best decision boundary between classes. The lines adjacent to the optimal hyperplane are known as support vectors as these vectors run through the data points that determine maximal margin.

The benefit of SVM is that it can handle both linear and non-linear classification tasks, making it a versatile method. For not linearly separable data, kernel functions are used to transform the original feature into a higher-dimensional space, where the data becomes linearly separable.

When SVM is compared for example to logistic regression, it typically performs better with high-dimensional and unstructured data such as text, images and especially those images that have been tampered with. SVMs are also less vulnerable to overfitting with the benefit of also being a bit easier to interpret. But on the other hand, they are usually much more computationally expensive (IBM, 2024) (SciKit-Learn, 2024).

Picture 9: A visual representation of the concept of SVM

(Source: images.javatpoint.com/tutorial/machine-learning/images/support-vector-machine-algorithm5.png )

As discussed in a journal paper (Kumar, Gunjan, Ansari, & Pathak, 2022), SVM was compared to other ML algorithms (such as previously mentioned random forest and linear regression) in a credit card fraud detection problem. Customer data was pre-processed, categorical values were converted into numerical form, and the dataset was split into 70% training and 30% testing data. In this case, the performance of SVMs was exceptional, likely because they are particularly effective when dealing with imbalanced and skewed data. Overall, the algorithm achieved a 96% accuracy rate in detecting credit card fraud, with precision, recall, and the F1-score also demonstrating high performance levels.

2.2 Unsupervised learning

The second category of machine learning algorithms works with unlabelled datasets to analyse and cluster data. In other words, these algorithms are allowed to discover patterns and insights without any explicit guidance or instructions. Unsupervised algorithms are particularly effective for more complex processing tasks, such as organizing large datasets into clusters. They are also significantly better at identifying previously undetected patterns and can help identify features useful for categorizing.

The algorithm groups the data by similar patterns and while the machine itself does not understand these patterns, a human then can create classes based on their understanding. For instance, our algorithm might group weather data by temperature or similar weather patterns. Our task then would be to determine whether these groups correspond to specific seasons or distinct weather types, such as rain or snow (Google, 2024).

Picture 10: Unsupervised learning process

(Source: geeksforgeeks.org/supervised-unsupervised-learning )

2.2.1 K-means clustering

As we discussed earlier, many forms of clustering tools exist, including exclusive, overlapping, hierarchical and probabilistic, the K-means algorithm represents the exclusive (“hard”) method. This type of grouping specifies that a data point can be assigned to just one cluster. In fraud detection, this type can be especially useful in document clustering or image segmentation. It is also widely used in other problems related to cluster analysis because the algorithm is efficient, effective and relatively simple.

K-means algorithm uses an iterative process to minimize the sum of distances between the data points and their cluster centroids. It operates by classifying data points into clusters by using a mathematical distance measure, typically Euclidean, from the cluster centre. The goal is to minimize the sum distances between data points and their assigned clusters. Data points are assigned to clusters based on their proximity to a centroid.

The initial step of this algorithm is to assign a value to k, choosing how many clusters we want to create. A higher k value signifies smaller clusters with greater detail, while a lower k value results in larger clusters with less detail. Next is a two-step iterative process which includes Expectation-Maximization machine learning algorithm. The expectation step assigns each data point to its nearest centroid based on their distance. Then the maximization step calculates the mean distance of all the points (to their original centroid) in a cluster and reassigns a new centroid. This process is repeated until the centroid positions are stable (IBM, 2024).

Also, a similar algorithm to k-means clustering called DBSCAN or Density-based Spatial Clustering of Applications with Noise in its full title exist. But in this case, we are categorizing the data based on their density, meaning proximity to each other. In context of DBSCAN, clusters are dense regions in the data space, separated by regions of the lower density of points. This algorithm works with “clusters” and “noise”. The main difference is that with DBSCAN, instead the number of clusters, we are choosing the minimum amount of points a cluster can contain. Additionally, we choose other a parameter called eps, which defines the neighbourhood around a data point i.e. the maximum distance between two points to be considered neighbours (GeeksForGeeks, 2023).

Picture 11: Comparison of clustering between DBSCAN and k-means

(Source: github.com/NSHipster/DBSCAN )

The k-means clustering method can be applied in almost every domain and industry and it is usually utilized for data which has few dimensions, is numeric and can be easily portioned. In the context of fraud detection k-means algorithm can be used to identify fraudulent transactions based on the attributes like geolocation and device information. It can detect irregular behaviour patterns, which helps identifying when a fraudster steals credentials and tries to make payments. Moreover, anomaly detection is an area where k-means algorithm proves effective, it identifies the data points that are most far away from the centroids, in other words — outliers (Signicat, 2024) .

2.2.2 Isolation forest

This algorithm could remind us of a supervised one discussed earlier — Random forest. Contradictory, Isolation forest belongs to unsupervised methods and we will soon find out why.

Isolation forest, best known for its efficiency and simplicity, is an algorithm used primary for anomaly detection. By removing anomalies from an unlabelled dataset using binary partitioning, it quickly identifies outliers with minimal computation overhead. Anomaly detection is a technique of identifying rare observations which can raise suspicions by being statistically different from the rest. In our context, these anomalies could resemble fraudulent behaviour such as falsely authorized transactions or tampered documents.

Isolation forest is once again using the concept of trees, but this approach randomly selects features and splits them along random values until individual data points are isolated. This isolating process creates trees or in other words partitions, that aim to separate anomalies from ordinary observations. Each data point is then assigned the “anomaly score”, which is based on how many splits are needed to isolate it. Anomalies requiring fewer splits to isolate are typically assigned higher anomaly scores.

Picture 12: An example of Isolation forest

(Source: geeksforgeeks.org/what-is-isolation-forest/ )

Let’s now delve deeper into the steps which this unsupervised algorithm takes. It begins by Random partitioning. Random feature from the dataset is selected and once a feature is chosen, a random value within the range of that feature’s values is selected as the splitting threshold. The process splits the data into two parts. This random selection and splitting are repeated recursively, until all the data points are either isolated into individual partitions or maximum depth is reached. Next step, Isolation path, calculates how isolated a data point within the tree is. As already stated, the isolation of a data point is determined by the number of splits needed to isolate that point within a tree. Finally, a third step is implemented, when an ensemble of isolation trees is built. The algorithm constructs a specified number of isolation trees independently and evaluates the isolation paths to find the anomalies (GeeksForGeeks, 2023).

3 AI&ML fraud detection in the insurance industry

As apparent from the fraud introduction section, scammers operate in many industries. With ongoing digitalization, nearly every sector is increasingly vulnerable to the threats of digital fraudsters. To combat these threats, companies are implementing a range of countermeasures, with machine learning algorithms being among the most prominent. However, it remains a constant battle similar to a cat-and-mouse game, with fraudsters often staying one step ahead. In this section, we will explore one particular industry, which is being frequently targeted, the methods fraudsters use to exploit it, and the strategies insurance industry employs to defend itself against scammers’ threats.

3.1 Insurance fraud

An industry, where fraud might be as old as the industry itself, insurance. Insurance fraud in the US alone is estimated to cost a total of $40 billion annually. This of course has an effect; an insured US family pays between $400 and $700 per year in the form of increased premiums (FBI, 2010).

Insurance companies encounter several types of insurance fraud. While serial fraud exists in almost every industry, in the insurance sector, the opportunistic fraud tends to be much more common. When an insurance claim is filed, some customers have the tendency to exploit the situation to maximize their financial gains. A common practice among fraudsters is to inflate their claims, exaggerating the value of the loss or including items that were not actually damaged. They can do so by editing digital documents and invoices in a photo editor app, even with minimal experience. Moreover, fraudsters now can take advantage of recently emerged AI tools, forging documents with even greater ease. Similarly common is also the application fraud, which happens when a customer provides falsified documents at the very start of the insurance process to obtain coverage or benefits, they might not otherwise qualify for. If advanced machine learning techniques are applied, the insurance company can often detect this fraud during the application phase. However, it may occasionally go unnoticed, only coming to light when an insurance claim is filed, resulting either in its eventual discovery or in an unjustified payout that could have been avoided.

3.2 Real example of insurance fraud

We will now present a real-world example of insurance fraud, obtained from Ondřej Poul – Claim Division Director in Kooperativa (no. 2 insurance company in Czechia). The customer applied for health insurance, likely omitting any disclosure health complications. Sometime after obtaining the policy, they filed a claim related to health complications, supported by a medical document. However, an applied machine learning algorithm identified evidence of document tampering. Upon contacting the document’s issuer, probably a general practitioner, it was confirmed that health complications actually started in 2011 — way before the insurance policy was arranged. The algorithm not only classified the document as fraudulent but also pinpointed the exact numbers, that have been edited. As Ondřej Poul stated, the company was able to save 95 000 CZK by detecting this fraud (Poul, 2024).

Picture 13: An example of ML algorithm detecting document tampering on a medical report (Source: linkedin.com/in/poul )

To detect such fraud cases, insurance companies can either develop in-house machine learning solutions or leverage the expertise of external providers. Both approaches will be discussed in the following paragraphs, even with a real example, again from Kooperativa.

3.3 Kooperativa x Resistant AI: Implementation of machine learning solution for insurance fraud

For this part, I contacted Lucie Paulusová, a Business Analyst at Kooperativa, who has been actively involved in the implementation of Resistant AI’s fraud detection system. While the expertise of Resistant AI will be discussed later, we will now focus on what such an implementation involves.

The process begins with initial discussions to identify and align on business needs. Once these foundational talks are complete, teams from both companies start their collaboration. Furthermore, Resistant AI typically provides a proof of concept (POC) to demonstrate the applicability of their solution on insurance fraud cases. Then, an important phase of the solution begins — determining the formats and types of documents that will be analysed. For instance, some documents are rarely, if ever, falsified, and therefore can be excluded from the verification process. On the other hand, documents like medical reports or car accident claims are to be thoroughly reviewed. Equally important is also the selection of key indicators for the fraud analysis, such as logos, font types, and other details. Since Resistant AI’s solutions also focus on the document metadata, many fraudsters can be detected just by analysing whether a document has been edited and when. For example, if a certain company’s accounting records are typically generated using the Czech accounting software Pohoda, the presence of a different accounting tool or editing software in the metadata could raise suspicion.

Even after the system is fully set, the two teams continue their collaboration, through weekly sprints, mitigating issues and enhancing the effectiveness of the solution. Furthermore, individual cases requiring clarification are also often discussed on these meetings. The ultimate goal is to catch the fraudsters before insurance payouts are made and minimize false positives. Usually, fraudulent cases are settled directly with the policyholder but if the fraudulent sum is excessively high or the fraud shows signs of organized crime, the cases can be escalated to the police for further investigation and legal action.

3.4 Development of in-house machine learning solution

The entire workflow requires collaboration across multiple departments including business, data governance or legal teams. However, in this paragraph we will concentrate exclusively on the technical development.

When starting from scratch, the first step is always to perform the Exploratory Data Analysis (EDA). This part helps in understanding the data and may reveal hidden issues such as data inconsistency, duplicated rows or missing values. Successful machine learning algorithms are dependent on accurate data representation. To achieve this, feature engineering or in other words selection, transformation and creation of relevant variables, is essential. Finally, the model can be built; however, a common approach is to first develop multiple models of different types, evaluate their performance, and then select the best one for fine-tuning. In this particular case (Wipro, 2024) these models were selected for testing: Logistic regression, Modified Multi-variate Gaussian, Boosting, Bagging with Adjusted Random Forest.

Once again, the accuracy was evaluated by the Confusion matrix also showing recall (fraction of positive instances that are retrieved) and precision (fraction of retrieved instances that are positives). An additional way of model performance evaluation was used — ROC Curves. The evaluation has then revealed the best performing model for this particular case, with Bagging with Adjusted Random Forest obtaining the highest scores. However, the analysis suggests that the final outcome is influenced more significantly by the quality and quantity of the available data than by the choice of the model itself. Some might think this marks the end of the process, but until the chosen model is deployed into production, there is still significant work to be done. This includes the fine-tuning process to prevent overfitting, ensuring the model generalizes well to new, unseen data, and rigorous validation to confirm its reliability in real-world scenarios. (Wipro, 2024).

Picture 14: The process of building an ML solution for fraud detection

(Source: wipro.com/analytics/comparative-analysis-of-machine-learning-techniques-for-detectin )

4 Insight into practice: Resistant AI

Now let us shift our focus the other side — to a company that develops advanced machine learning solutions for digital fraud detection and prevention. These solutions not only help companies reduce financial losses, but also contribute to the uncovering of organized crime activities, serving a higher purpose. In the following section we will be focusing on how such company works and how they manage to detect millions of digital fraud cases. Additionally, I had the opportunity to connect with data science team lead at Resistant AI, who will provide valuable insights into the current challenges and future trends in AI&ML fraud detection.

Picture 15: Resistant AI’s logo and slogan

(Source: resistant.ai )

4.1 The story of Resistant AI

The story begins on the academic grounds. Most of Resistant AI’s founders have completed PhD’s in artificial intelligence, computer engineering or related field at prestigious European universities. By 2006 their similar interest brought them together as a team of researchers at the Czech Technical University in Prague. Recognizing the unique ability of machine learning for securing private and cloud networks against real-time malware threats, in 2009 they spun off their first company — Cognitive Security. Later, major international players began to take notice, with the result of Cisco acquiring the company in 2013. This might not seem too important, but in fact this expertise is what gives Resistant AI an extreme advantage from the current competitors. Having a backbone made out of cybersecurity experts with already one company successfully built is what now makes Resistant AI a company you can trust.

With nearly 15 years of top-tier experience in network security and machine learning, the expert team reunited in 2019 to establish Resistant AI. Backed by the vision of making today’s financial systems more resilient to digital fraud, they began with the development of their solutions. Having seed funding secured in 2020 and Series A funding completed in 2021, Resistant AI has grown significantly. By 2023, the company had built a customer portfolio exceeding the hundred-client mark and expanding abroad to form both international team and clientele. Currently, Resistant AI is a recognized leader in digital fraud detection, with dedicated sales teams operating in New York and London to support their global expansion (Resistant AI, 2024).

4.2 Resistant AI’s expertise

Resistant AI offers two main division of solutions — transactions and documents.

Starting with documents, tailored solutions are able to verify thousands of documents daily, providing companies with an automated system of fraud protection and detection. Resistant AI’s algorithms accept both PDF and image format documents, checking metadata, internal structures or used fonts. Overall, Document Forensics check over 500 parameters to find signs of fraudulent behaviour. And they can do so even without explicitly reading document contents, ensuring a top-tier privacy. Additionally, actionable verdicts are provided, marking the documents as Trusted, Warning or High Risk. While every 1 in 5 onboarding documents are tampered with, and up to 2% are based on reused or generated documents, mentioned techniques can have an immense impact on whether the fraudster is successful or not. The solutions are especially effective for onboarding, KYC processes or underwriting (Resistant AI, 2024).

The second division of solutions, being especially useful for banking industry, prevents real-time financial threats. The software recognizes irregular behaviour patterns, actively finding both threats already present in the system and potential fraudsters. It can also aid already implemented risk monitoring services, creating hyper-granular risk profiles for each customer by segmenting transactional data based on behaviour. These solutions are best suited for detecting money laundering schemes, authorized push payment scams or fraudulent techniques exploiting Buy Now Pay Later (Resistant AI, 2024).

4.3 Current challenges and future trends in AI&ML fraud detection

For this section I teamed up with Anežka Lhotáková, Adaptive Decision & Image operations Team Lead in Resistant AI. We led a discussion about AI&ML fraud detection topics, resulting in many inspirational ideas being incorporated into this work. Apart from that she was more than willing to answer the following questions:

What are the current challenges in AI&ML fraud detection?

“In digital document fraud, a major topic is the current technological availability of powerful machine learning models (or, if you prefer, AI models). The days when criminals were sophisticated individuals like the meticulous Frank Abagnale are long gone. What distinguishes the current era is accessibility—today’s fraudsters need no more than a photoshop tool with AI features that smooth out all imperfections that might alert the human eye about a forgery.

At present, we are at a phase where existing documents or templates are being modified (very convincingly) locally. In the future, however, we must prepare for a level of forgery where documents will be generated from scratch, without any original template.”

What are the future trends of AI&ML fraud detection?

“We must acknowledge that in the more distant future, when it becomes impossible to distinguish an original document from a forgery, the question of alternative methods for identity verification will arise. Some efforts and directions are already visible today—be it methods like face recognition, fingerprinting, cognitive security, or, specifically in the Czech Republic, the relatively „simple“ system of „datová schránka“. However, such methods, like those we use today, must demonstrate a certain reliability while also protecting individuals‘ data and privacy.

Would you trust a system that verifies your identity based on your „computer“ behaviour—typing speed, keystroke pressure, mouse movements, time spent on a page, voice analysis…? Would you entrust such a system with your confidence, a piece of your privacy, and highly personal data in the interest of verifying your banking identity?”

Conclusion

The semestral work provided a complex overview on how machine learning algorithms are leveraged to fight cunning digital fraudsters.

At the beginning it introduced the most popular types of fraud, highlighting an important difference between serial and opportunistic fraud. While both being similarly dangerous, the level of sophistication and premeditation is the main distinctive factor. Furthermore, with the emergence of AI tools, creating a fraudulent document is becoming increasingly easier. This poses a real threat for the future, as even non-technically skilled scammers are now able to utilize the software to create fraud materials in minutes, if not seconds.

To counter these criminal activities, machine learning solutions can be developed and employed. Both supervised and unsupervised techniques have proven effective, with a diverse portfolio of algorithms to be chosen from. However, there is no one-size-fits-all solution, as each model comes with its own strengths and weaknesses, making it suitable for specific types of fraud. In practice, multiple models are often trained and evaluated to determine which performs best on the given task. Once identified, the best-performing model undergoes fine-tuning to optimize its performance before being prepared for real-world deployment.

The final two sections of this work were granted to showcase of real applications of AI&ML fraud detection. The first example explored a case from the insurance industry, showing an actual attempt to commit fraud by tampering with a medical document. In the second section, an example of a world leader in AI&ML fraud detection was provided, discussing their success story. Finally, short insights from a field expert were shared, also highlighting the threats posed by newly emerging AI tools in the context of digital fraud. Given the complexity of this topic, future research could dive into neural networks, which now play a significant role in fraud detection and could complement the machine learning algorithms discussed here. While at the end of this work we primarily focused on the insurance industry, future studies could explore other sectors where fraud is similarly frequent, such as banking. Possibly also the gambling industry, where features like friend-invitation systems are now often exploited.

References

ACI Worldwide. (2024). APP fraud explained. ACI Worldwide. https://www.aciworldwide.com/app-fraud

Alenzi, H. Z. (2024). Machine learning for advanced fraud detection and content moderation. Preprints. https://doi.org/10.20944/preprints202411.0352.v1

Babatope, A. (2024, November). Machine learning for advanced fraud detection and content moderation. Preprints. https://doi.org/10.20944/preprints202411.0352.v1

Bank for International Settlements. (2024). Digital fraud and banking: Retrieved from https://www.bis.org

GeeksForGeeks. (2023a). DBSCAN clustering. Retrieved from https://www.geeksforgeeks.org/dbscan-clustering-in-ml-density-based-clustering/

GeeksForGeeks. (2023). What is isolation forest? Retrieved from https://www.geeksforgeeks.org/what-is-isolation-forest/

IBM. (2024a). What is k-means clustering? Retrieved from https://www.ibm.com/topics/k-means-clustering

IBM. (2024b). What is logistic regression? Retrieved from https://www.ibm.com/topics/logistic-regression

JPMorgan Chase & Co. (2019). JPMorgan Chase & Co. annual report 2019. Retrieved from https://www.jpmorganchase.com/content/dam/jpmc/jpmorgan-chase-and-co/investor-relations/documents/annualreport-2019.pdf

Kumar, S., Gunjan, V. K., & Babatope, A. (2024). Machine learning for advanced fraud detection and content moderation. Retrieved from https://doi.org/10.20944/preprints202411.0352.v1

Mastercard. (2024). Synthetic identity theft prevention [E-book]. Retrieved from https://ekata.com/wp-content/uploads/2024/04/Synthetic_identity_theft_prevention_ebook.pdf

Organization of American States. (2013). Money laundering. Retrieved from https://www.oas.org/cicaddocs/Document.aspx?Id=3095

Poul, O. (2024). Machine learning applications in insurance fraud detection. Retrieved from https://resistant.ai/blog/threat-intel-doc-juicer#heading-10

Resistant AI. (2023). The threat of serial fraud. Retrieved from https://info.resistant.ai/serialfraud-wp

Resistant AI. (2024a). Document solutions. Retrieved from https://resistant.ai/products/documents

Resistant AI. (2024b). About Resistant AI. Retrieved from https://resistant.ai/about

Scikit-Learn. (2024). DBSCAN clustering. Retrieved from https://www.geeksforgeeks.org/dbscan-clustering-in-ml-density-based-clustering/

Signifyd. (2023). 2023 State of omnichannel fraud report. Retrieved from https://www.transunion.ca/fraud-trends/reports/2023-state-of-omnichannel-fraud-report

TransUnion. (2023). 2023 state of omnichannel fraud report. Retrieved from https://www.transunion.ca/fraud-trends/reports/2023-state-of-omnichannel-fraud-report

Visa. (2019, June). Visa prevents approximately $25 billion in fraud using artificial intelligence. Retrieved from https://www.businesswire.com/news/home/20190617005366/en/

Whitrow, C., Hand, D., & Juszczak, P. (2009). Transaction aggregation as a strategy for fraud detection. Data Mining and Knowledge Discovery, 18(1), 30–45. https://doi.org/10.1007/s10618-008-0116-1

Author: Jakub Kabele, Business Analyst @ Kooperativa, Student Data Analytics @ VŠE (2024)

Uber: Za hranice Competitive Intelligence

0

Firmy se v dnešní době pohybují ve vysoce konkurenčním prostředí, a proto využívají různé strategie, kterými se snaží získat náskok před svými soupeři. Jednou z klíčových strategií je Competitive Intelligence, jejímž hlavním cílem je sběr, zpracování, interpretace a implementace poznatků. Správné využívání Competitive Intelligence umožňuje firmám lépe chápat své postavení, předvídat trendy, reagovat na změny a tím získat konkurenční výhodu.

Avšak mezi Competitive Intelligence a špionáží – tedy nelegální činností – existuje tenká hranice, kterou některé firmy ve snaze získat konkurenční výhodu překročí. Příkladem je společnost Uber, jejíž hlavní činností je poskytování služby sdílení jízd. Uber se v minulosti dostal pod palbu kritiky kvůli skandálům spojeným s neetickým, a dokonce i nelegálním získáváním, využíváním a manipulací dat. Mnoho z těchto kontroverzí se odehrálo v době, kdy byl CEO Uberu Travis Kalanick, který vedl firmu od jejího vzniku v roce 2009 až do svého odchodu v roce 2017.

Níže jsou popsány konkrétní případy, kdy společnost Uber překročila hranice Competitive Intelligence, a to jak z pohledu etiky, tak zákona.

K vytvoření komplexního přehledu o těchto praktikách byly použity informace získané prostřednictvím hloubkové rešerše. Zdrojem jsou zejména novinové články z médií, která se tématem zabývala v době, kdy tyto skandály vyšly najevo. Analýza těchto zdrojů umožnila zmapovat nejen konkrétní kroky Uberu, ale také jejich širší dopady na veřejné mínění a právní rámec v technologickém sektoru. Výsledkem je ucelený pohled na praktiky Uberu v obdobích jeho největších skandálů.

1. Hell a Heaven

Systémy „Hell“ a „Heaven“ byly interní nástroje společnosti Uber, které sloužily k získávání konkurenčních informací a sledování aktivit jak vlastních řidičů, tak řidičů konkurence, zejména Lyftu.

Systém Hell

Hell byl tajný software, který vyvinul tým pro Competitive Intelligence Uberu během působení Travise Kalanicka jako CEO. Jak již bylo zmíněno v úvodu, Kalanick byl známý svou ochotou překračovat hranice pro rychlý růst firmy. Uber používal systém „Hell“ v letech 2014 až 2016 k monitorování řidičů konkurenční společnosti Lyft. Tento nástroj umožňoval sledovat počet dostupných řidičů Lyftu v určité oblasti, jejich aktuální polohu a také identifikovat řidiče, kteří pracovali pro Uber i Lyft zároveň. Název systému byl zvolen jako protiklad k nástroji označovanému jako „Heaven“ nebo „God View,“ který sloužil ke sledování vlastních řidičů Uberu.

Aby získal informace o řidičích Lyftu, Uber vytvořil falešné účty pasažérů na platformě Lyft. Tyto účty umožnily systému shromažďovat data o poloze řidičů a jejich dostupnosti. Díky těmto informacím mohl Uber cílit na tzv. „dvojité“ řidiče – tedy ty, kteří pracovali pro obě společnosti. Těmto řidičům Uber přiděloval více zakázek nebo nabízel různé finanční pobídky, aby je přiměl jezdit exkluzivně pro Uber. Tato strategie vedla k tomu, že „dvojití“ řidiči byli zvýhodňováni oproti těm, kteří pracovali pouze pro Uber.

Kromě toho, že Uber porušil pravidla platformy Lyft tím, že vytvořil falešné účty pro pasažéry, mohl se také dopustit zneužití obchodního tajemství, protože neoprávněně získával a využíval informace o řidičích Lyftu, včetně jejich aktuální polohy. Tento postup by mohl být rovněž považován za porušení zákona o počítačových podvodech a zneužití (Computer Fraud and Abuse Act), neboť zahrnoval neautorizovaný přístup k datům z platformy Lyft. Manipulace s údaji a vytváření falešných účtů za účelem získání konkurenční výhody lze navíc považovat za formu podvodu a špionáže. Tato strategie výrazně překračovala hranice etického chování v konkurenčním prostředí a vyvolala silnou kritiku jak ze strany Lyftu, tak ze strany široké veřejnosti. (Kosoff, 2017)

Systém Heaven

Heaven byl nástroj, který umožňoval společnosti Uber sledovat polohu svých řidičů a cestujících v reálném čase. Tento systém byl původně navržen s cílem optimalizovat služby. Nicméně jeho potenciál k zneužití vzbudil vážné obavy o ochranu soukromí a bezpečnost dat.

Tisíce zaměstnanců Uberu měly přístup k systému Heaven, což jim umožňovalo sledovat konkrétní osoby, včetně zákazníků a celebrit, bez jejich vědomí či souhlasu. Tato praxe byla kritizována poté, co se objevily případy jejího zneužití pro osobní účely, například ke sledování expartnerů. (Evans, 2016)

Jedním z nejvýznamnějších skandálů spojených s tímto nástrojem bylo zjištění, že zaměstnanci Uberu mohli sledovat vysoce postavené osoby, včetně veřejných činitelů a novinářů. Například jeden ze zaměstnanců sledoval pohyby reportérky platformy BuzzFeed bez jejího souhlasu, zatímco jiný manažer navrhl shromažďovat kompromitující informace na novináře, kteří psali o Uberu kriticky.

Během jedné marketingové akce v Chicagu Uber dokonce předváděl nástroj God View tím, že ukazoval pohyb konkrétních cestujících v reálném čase bez jejich souhlasu. Tato demonstrace vedla k ostré kritice kvůli zjevnému porušení soukromí. Navíc bylo odhaleno, že Uber nedostatečně kontroloval, kdo měl k tomuto nástroji přístup, což umožnilo opakované zneužití. (Warzel & Bhuiyan, 2014)

Tyto praktiky vyvolaly zásadní otázky o etických hranicích sledování a ochraně osobních údajů. Kritika ze strany veřejnosti a regulačních orgánů přinutila Uber zavést přísnější pravidla pro přístup a využívání dat v rámci tohoto nástroje. (Evans, 2016)

2. Případ Anthonyho Levandowského

Příkladem další nekalé praktiky, které se Uber dopustil v rámci získání konkurenční výhody, je případ Anthonyho Levandowského. Levandowski byl inženýr zaměřený na vývoj autonomních vozidel, který pracoval pro společnost Waymo, dceřinou firmu Googlu, jejímž cílem bylo vyvinout technologie pro samořídící vozidla. Během svého působení měl přístup k vysoce důvěrným materiálům, včetně technologií souvisejících s autonomním řízením. Podle obvinění si v roce 2016, krátce před svým odchodem z Waymo, Levandowski stáhl přibližně 14 000 souborů, které obsahovaly citlivé informace o designu a technologických postupech. (Marshall, 2019)

Po odchodu z Waymo Levandowski založil firmu Otto, zaměřenou na vývoj samořídících vozidel. Tento startup vzbudil zájem Uberu, který se snažil rychle expandovat na poli autonomních technologií. V roce 2016 Uber Otto koupil, a Levandowski začal pracovat na projektu Uberu v oblasti autonomních vozidel. V roce 2017 Waymo zažalovalo Uber s tvrzením, že prostřednictvím Levandowského využívá ukradené obchodní tajemství k urychlení vlastního výzkumu a vývoje. Levandowski navíc čelil i občanskoprávní žalobě.

Soudní řízení odhalilo, že Levandowski hrál klíčovou roli při přenosu citlivých dat z Waymo do Uberu, a v roce 2018 bylo dosaženo mimosoudního vyrovnání, při kterém Uber souhlasil s poskytnutím akcií Waymu. Uber se také zavázal, že nepoužije žádnou technologii vycházející z dokumentů, které Levandowski nelegálně získal.

Levandowski čelil obvinění z krádeže obchodního tajemství a v roce 2020 byl odsouzen na 18 měsíců vězení. Soud jeho jednání označil za jedno z nejzávažnějších porušení důvěry v technologickém sektoru. Nicméně se trestu vyhnul díky milosti, kterou mu v lednu 2021 udělil tehdejší prezident Donald Trump. (Harris, 2022)

3. Greyball

Dalším příkladem neetické Competitive Intelligence je software Greyball, který společnost Uber vyvinula jako nástroj k manipulaci s přístupem regulačních autorit a dalších „nežádoucích“ uživatelů k aplikaci. Tento program byl součástí širší strategie Uberu, jak obcházet místní zákony a předpisy, známé jako „Violation of Terms of Service“ (VTOS). Jeho hlavním cílem bylo znemožnit regulačním orgánům shromažďovat důkazy o nelegálních aktivitách společnosti.

Software dokázal filtrovat uživatele na základě analýzy jejich dat, jako je geolokace nebo chování v aplikaci. Greyball těmto uživatelům poté zobrazoval falešné informace o dostupnosti vozidel, čímž zcela mařil jejich snahy o sledování řidičů Uberu. Ačkoli Uber tvrdil, že technologie byla původně vyvinuta jako obranný mechanismus na ochranu před lidmi ohrožujícími bezpečnost řidičů nebo konkurenty, kteří se snažili narušit operace společnosti, postupně se z ní stal nástroj k obcházení právních předpisů.

Hlavním důvodem pro vytvoření Greyballu byla snaha Uberu o rychlou expanzi na nové trhy, kde jeho služby nebyly povoleny nebo kde čelil právním omezením. Byl zaveden v několika městech po celém světě, kde regulační orgány považovaly operace Uberu za nelegální, protože fungování společnosti neodpovídalo tradičním rámcům taxislužeb. Mezi taková města patřil například Boston, Las Vegas a Paříž. Systém Greyball byl rovněž využíván v dalších zemích, jako jsou Austrálie, Čína a Jižní Korea.

Jeden z nejznámějších případů se odehrál v Portlandu ve státě Oregon, USA, kde v roce 2014 začal Uber nelegálně provozovat své služby bez potřebných povolení. Regulační úředníci často objednávali jízdy přes aplikaci, aby shromáždili důkazy proti Uberu a mohli zahájit právní kroky. Řidičům společnosti Uber byly udělovány pokuty nebo dokonce zabavována vozidla. To pro Uber znamenalo značné náklady, protože společnost musela platit jak pokuty, tak i náklady spojené se zabavenými vozidly. Aby se tedy vyhnula těmto problémům, vyvinula software Greyball.

Greyball využíval kombinaci pokročilé analýzy dat a algoritmů k identifikaci podezřelých uživatelů. Systém sledoval a vyhodnocoval velké množství dat, například to, zda se uživatelé často pohybovali v blízkosti vládních budov nebo jiných regulačních institucí. Zaměřoval se také na platební metody, kdy byly podezřelé platby prováděné prostřednictvím kreditních karet spojených s vládními institucemi. Mezi další sledované faktory patřily vzorce chování uživatelů, jako například opakované objednávky z méně obvyklých lokalit nebo zadávání jízd v konkrétních časech.

Dalším způsobem, jak identifikovat potenciální hrozby, bylo sledování uživatelů, kteří aplikaci často otevírali a zavírali, což Uber interně nazýval „eyeballing“. Takové chování bylo považováno za indikaci, že tito uživatelé by mohli mít vazby na městské regulační úřady, zejména pokud se to dělo v blízkosti známých vládních budov.

Aby Uber předešel pokusům regulačních orgánů shromáždit důkazy proti společnosti, sledoval také zařízení, na kterých byla aplikace používána. Důvodem bylo, že při rozsáhlých kontrolních akcích policisté často pořizovali desítky levných mobilních telefonů, které sloužily k vytváření falešných účtů pro objednávání jízd. Uber na tuto taktiku reagoval tím, že jeho zaměstnanci navštěvovali místní obchody s elektronikou a zjišťovali čísla nejlevnějších telefonů, které obvykle kupovali úředníci s omezenými rozpočty.

Kromě toho Greyball využíval i veřejně dostupné informace. Například analyzoval profily na sociálních sítích, aby identifikoval osoby, které by mohly být spojeny s regulačními orgány. Software také sledoval údaje o uživatelích, kteří stahovali aplikaci v blízkosti známých vládních budov.

Pokud byl uživatel označen jako podezřelý, systém Greyball mu přiřadil malý kód s označením „Greyball“ následovaný sérií čísel. Toto označení bylo přidáno k účtu uživatele, což umožnilo aplikaci reagovat na jeho pokusy o objednání jízdy. Systém pak uživateli zobrazoval falešnou mapu s neexistujícími vozy, a jakákoli žádost o jízdu od těchto uživatelů byla automaticky zamítnuta. (Isaac, 2017)

Po odhalení této nekalé praktiky Uberu regulační orgány prohlásily, že takové chování je neetické a podkopává základní principy spravedlivé soutěže. Ministerstvo spravedlnosti Spojených států amerických dokonce zahájilo vyšetřování. Veřejnost tento incident vnímala jako další příklad toho, jak Uber upřednostňuje expanzi za každou cenu před dodržováním pravidel. Kritika přiměla Uber přislíbit, že přestane Greyball používat, ale jeho reputace byla dlouhodobě poškozena. (Reuters, 2017)

4. Kill switch

Kill switch byl interní nástroj vyvinutý společností Uber, který umožňoval okamžité odpojení poboček od hlavního systému v případě razií ze strany regulačních orgánů. Tento nástroj měl za cíl zamezit přístupu úřadů k citlivým firemním datům, jako jsou provozní záznamy, finanční informace, databáze řidičů a informace o konkurenci získané neetickými praktikami v oblasti Competitive Intelligence. Kill switch fungoval tak, že zaměstnanci Uberu mohli v případě razie jedním kliknutím deaktivovat přístup k serverům a počítačovým systémům společnosti. Jakmile byly systémy odpojeny, úředníci už neměli možnost se k datům dostat, i kdyby měli fyzický přístup k zařízením v kanceláři.

Kill switch byl využíván při raziích v nejméně 12 zemích po celém světě, včetně Francie, Nizozemska, Belgie, Indie, Maďarska, Rumunska, Kanady a Hongkongu. Například při razii, která proběhla ve Francii 6. července 2015 brzy ráno, dostali zaměstnanci pařížské pobočky konkrétní pokyny, jak se během zásahu chovat. Měli například vyzkoušet několik notebooků, předstírat zmatení při pokusech o přístup k datům a tvrdit, že IT tým se nachází v San Franciscu, kde byla v té době noc.

Opět se jedná o taktiku, která vyvolala ostrou kritiku jak ze strany regulačních orgánů, tak široké veřejnosti. Tato strategie byla často označována za maření výkonu spravedlnosti a záměrné obcházení regulačních procesů. Právníci Uberu však tvrdili, že zákon nebyl porušen, protože data nebyla trvale smazána a regulační orgány k nim mohly později přistupovat. V reakci na kritiku Uber oznámil, že používání kill switch ukončil v roce 2017, kdy byl Travis Kalanick nahrazen Darou Khosrowshahim na pozici generálního ředitele. Ten zahájil rozsáhlé změny v korporátní kultuře, které měly za cíl zvýšit transparentnost a zlepšit spolupráci s regulačními úřady. Tento krok měl být snahou o obnovení důvěry veřejnosti a nápravu reputace společnosti po sérii skandálů. (Davies & Goodley, 2022)

Shrnutí

Uber je příkladem firmy, která se při svém snaze získat konkurenční výhodu často dostávala na tenkou hranici etiky a zákona. Příkladem je systém Hell, který byl využíván Uberem k monitorování řidičů konkurenční společnosti Lyft. Pomocí falešných účtů pasažérů získávali informace o dostupnosti řidičů Lyftu a identifikovali ty, kteří pracovali pro obě platformy současně. Tito „dvojití“ řidiči byli pak cíleně motivováni, aby jezdili výhradně pro Uber. Tento nástroj se stal symbolem agresivního přístupu Uberu k získání konkurenční výhody. 

Nástroj Heaven, známý také jako „God View“, byl původně navržen k optimalizaci služeb sledováním polohy řidičů a cestujících v reálném čase. Brzy se však ukázalo, že byl opakovaně zneužíván zaměstnanci Uberu k sledování konkrétních osob, včetně celebrit, politiků nebo dokonce novinářů. Tento nástroj vedl ke skandálům, jako bylo sledování reportérky platformy BuzzFeed nebo zobrazování pohybu cestujících během marketingových akcí bez jejich souhlasu.

Případ Anthonyho Levandowského je dalším příkladem sporných praktik Uberu. Levandowski, klíčová postava vývoje autonomních vozidel, si před odchodem z Waymo stáhl tisíce souborů s důvěrnými informacemi. Po založení vlastní firmy Otto, kterou Uber odkoupil, čelil obvinění z přenosu těchto dat do Uberu. Waymo podalo žalobu, která skončila mimosoudním vyrovnáním, při němž Uber poskytl akcie Waymu. Levandowski byl odsouzen za krádež obchodního tajemství, avšak díky prezidentské milosti se vyhnul trestu. 

Kontroverzní byl také nástroj kill switch, který Uber používal při raziích regulačních orgánů. Tento nástroj umožnil zaměstnancům jedním kliknutím odpojit pobočky od hlavního systému společnosti a zamezit tak přístupu k citlivým datům. Tato taktika byla kritizována jako maření výkonu spravedlnosti a přispěla k negativnímu pohledu na společnost. 

Tyto případy ukazují, jak se Uber nebál překročit hranice k dosažení svých cílů. I když společnost po skandálech vyměnila CEO a přijala opatření k nápravě, její pověst byla těmito událostmi významně poškozena. Skandály spojené s Uberem rovněž upozornily na potřebu důslednější regulace a kontroly v technologickém sektoru.

Zdroje

Davies, R., & Goodley, S. (2022). The Guardian. Uber bosses told staff to use ‘kill switch’ during raids to stop police seeing data: https://www.theguardian.com/news/2022/jul/10/uber-bosses-told-staff-use-kill-switch-raids-stop-police-seeing-data

Evans, W. (2016). Reveal. Uber said it protects you from spying. Security sources say otherwise: https://revealnews.org/article/uber-said-it-protects-you-from-spying-security-sources-say-otherwise/

Harris, M. (2022). Tech Crunch. Inside the Uber and Google settlement with Anthony Levandowski: https://techcrunch.com/2022/02/15/inside-the-uber-and-google-settlement-with-anthony-levandowski/

Isaac, M. (2017). The New York Times. How Uber Deceives the Authorities Worldwide: https://www.nytimes.com/2017/03/03/technology/uber-greyball-program-evade-authorities.html

Kosoff, M. (2017). Uber Used a Secret Program Called “Hell” to Track Rival Drivers. Vanity Fair: https://www.vanityfair.com/news/2017/04/uber-used-a-secret-program-called-hell-to-track-rival-drivers?srsltid=AfmBOopqWB9RXZy5E0Qp_wpGU1U0kQnjY4pKA47M_jiOXVph4l9byNMT

Marshall, A. (2019). Wired. Ex-Uber Engineer Levandowski Charged With Trade–Secret Theft: https://www.wired.com/story/ex-uber-engineer-levandowski-charged-trade-secret-theft/

Reuters. (2017). Newsweek. Uber Faces Criminal Investigation Over ‚Greyball‘ Software Used to Circumvent Government Officials: https://www.newsweek.com/uber-criminal-investigation-probe-greyball-software-evade-government-officials-594927

Warzel, C., & Bhuiyan, J. (2014). BuzzFeed News. „God View“: Uber Investigates Its Top New York Executive For Privacy Violations: https://www.buzzfeednews.com/article/johanabhuiyan/uber-is-investigating-its-top-new-york-executive-for-privacy#.qs5GAa7dV7

Kam se stěhovat za lepší prací v IT a kam raději ne

0
job, office, team

V době, kdy digitalizace a technologické inovace neustále mění globální pracovní trhy, se informační technologie (IT) stávají klíčovým faktorem ekonomického rozvoje a konkurenceschopnosti jednotlivých zemí. S rostoucí poptávkou po digitálních dovednostech ve všech sektorech hospodářství roste i potřeba kvalifikovaných IT profesionálů. Tento trend je obzvláště silný v Evropské unii, kde digitalizace představuje hlavní motor hospodářského růstu.

IT specialisté čelí dvojí výzvě: musí se nejen orientovat v rychlém technologickém pokroku, ale zároveň se rozhodovat, které pracovní trhy a země nabízejí nejlepší příležitosti pro profesní růst.

Z těchto důvodů je přínosné porovnat pracovní trhy v oblasti ICT v evropských zemích, aby bylo možné identifikovat klíčové faktory, které mohou ovlivnit rozhodování IT pracovníků o migraci. Kromě nabídky pracovních pozic a úrovně ICT dovedností v cílových zemích se zaměříme i na faktory jako velikost pracovního trhu v oblasti IT a jeho dostupnost.

Dalším analyzovaným tématem je vliv migrace na profesní růst pracovníků. Jak se mění jejich pozice po migraci do jiného státu? Dochází k stagnaci, zlepšení nebo zhoršení jejich kariéry?

V některých zemích, kde je pracovní trh v oblasti IT již silně saturovaný, může být pro odborníky obtížnější nalézt kvalitní pracovní příležitosti, což vede k větší mobilitě pracovníků do zemí s vyšší poptávkou po IT specialistech. Tento trend zvyšuje konkurenci mezi zeměmi, které se snaží přitahovat talentované odborníky. Současně čelí některé členské státy Evropské unie, které mají nižší úrovně digitalizace a technických dovedností, výzvám spojeným s nedostatkem kvalifikovaných pracovníků, což může negativně ovlivnit jejich schopnost držet krok s technologickým pokrokem a celosvětovou digitalizací.

Zkoumání regionálních rozdílů v dostupnosti pracovních příležitostí a rozvoji ICT trhů je klíčové pro udržení rovnováhy mezi rozvinutými a méně rozvinutými státy, což je nezbytné pro efektivní využívání lidských zdrojů a podporu vyváženého rozvoje ICT sektoru v celé unii.

Digital Economy and Society Index (DESI) je souhrnný index, který kvantifikuje digitální rozvoj členských států Evropské unie. DESI hodnotí země napříč pěti klíčovými oblastmi: konektivita, lidský kapitál, využívání internetových služeb, integrace digitálních technologií v podnicích a digitální veřejné služby. Tento index slouží nejen k vyjádření úrovně digitalizace jednotlivých států, ale i k identifikaci silných a slabých stránek jednotlivých zemí v oblasti digitalizace[1[2].

Na základě indexu DESI patří mezi země s nejlepšími výsledky v digitalizaci zejména země severní Evropy. Například Dánsko, Finsko a Belgie vykazují vynikající výsledky v každé ze sledovaných oblastí. Dánsko, Finsko a Švédsko rovněž pravidelně dosahují vysokých hodnot v integraci digitálních technologií, adopci inovací v průmyslu a rozvoji lidských digitálních dovedností[2].

Na druhou stranu Rumunsko, Řecko a Itálie patří mezi země s nižšími hodnotami DESI, což naznačuje slabší úroveň digitální transformace v těchto státech. Tyto země tak čelí různým výzvám v oblasti digitální infrastruktury, vzdělávacích systémů a rozvoje digitálních dovedností[2].

Jednou z klíčových složek DESI je lidský kapitál, který hodnotí digitální dovednosti obyvatelstva napříč jednotlivými státy. V oblasti základních digitálních dovedností (využívání internetu a základní digitální schopnosti) vykazují nejlepší výsledky Nizozemsko, Švédsko a Lucembursko. V oblasti pokročilých digitálních dovedností, kde se zohledňují ICT specialisté a absolventi oborů STEM, se nejlépe umístily Finsko, Irsko a Švédsko. Nejhorších výsledků dosahují Rumunsko, Bulharsko, Řecko a Itálie, což naznačuje nedostatek kvalifikovaných odborníků v ICT sektoru[1][2].

Pro zajištění a rozvoj potřebných digitálních dovedností v celé EU byla vytvořena Digital Skills and Jobs koalice, iniciativa Evropské komise. Tato koalice spojuje členské státy EU, podniky, vzdělávací instituce a občanskou společnost s cílem vytvořit digitálně zdatnější pracovní sílu v EU. Koalice se především zaměřuje na sdílení osvědčených postupů a zavádění dotací, které podporují zlepšení úrovně digitalizace v zemích Evropské unie.

Koalice je součástí širší politiky „Nové dovednosti pro Evropu“, která se zaměřuje na rozvoj digitálních dovedností a jejich adaptaci v oblasti vzdělávání a politiky zaměstnanosti. Úzce spolupracuje s iniciativami, jako jsou strategie e-dovedností EU, Grand Coalition for Digital Jobs a Education and Training 2020, které se zaměřují na přizpůsobení vzdělávacích systémů potřebám digitální ekonomiky.

Přestože některé státy, jako Česká republika a Lucembursko, jíž podnikají kroky směrem k zajištění kvalifikovaných ICT profesionálů, celkové zaměření na rozvoj digitálních dovedností v mnoha zemích stále není dostatečně systematické. Na úrovni politiky často chybí komplexní přístup k zajištění potřebných digitálních dovedností v různých oblastech, což ztěžuje adaptaci na digitální transformaci[1].

Jelikož se snažíme popsat atraktivitu jednotlivých států Evropské unie pro ICT zaměstnance, analyzujeme migraci z kariérních důvodů v roce 2021[3]. Pro grafické zobrazení byly použity celkové počty osob, které migrovaly do jednotlivých států za účelem zaměstnání. Pro relativní porovnání mezi státy byly tyto počty následně vyděleny celkovým počtem obyvatel daných zemí[4]. Výsledná hodnota tak představuje počet migrantů na jednoho obyvatele. Tato hodnota však není příliš informativní sama o sobě, a proto je primární interpretace zaměřena na identifikaci států s vyšším či nižším počtem migrantů z kariérních důvodů.

Z analýzy byly vyřazeny země s nízkou populací, konkrétně Malta a Kypr. Rovněž nebylo do analýzy zahrnuto Lucembursko, protože jeho výsledky mohou být ovlivněny specifickými faktory, které nejsou relevantní pro ostatní státy (například vysoký podíl zahraničních pracovníků a specifická demografická struktura). Pro státy, jako jsou Bulharsko, Rumunsko a Slovensko, data bohužel chybí. Nicméně tyto země, podobně jako další státy tzv. „nové unie“, čelí výzvám v oblasti implementace digitálních řešení, což je způsobeno ekonomickými faktory a nedostatkem kvalifikovaných pracovníků[2].

Nejvyšší počet migrantů z kariérních důvodů na jednoho obyvatele byl zaznamenán v Irsku, přičemž relativní hodnota může být zkreslena nižším počtem obyvatel této země. Další vyšší hodnoty byly pozorovány ve Španělsku, Itálii a Rakousku. Naopak výrazně nižší hodnoty byly zaznamenány v Polsku a Litvě. Stejně jako u ostatních států „nové unie“ i v případě Polska a Litvy platí, že ekonomické faktory a nedostatek kvalifikovaných pracovníků představují klíčové výzvy při zavádění digitálních řešení[2].

Pro další analýzu byl vytvořen relativní ukazatel podle následujícího vzorce:

(Ni / Ncelkový) × 100

kde Ni představuje počet migrantů podle typu změny seniority pozice (kde i může být růst, pokles nebo zachování seniority pozice) a Ncelkový je celkový počet migrantů, kteří migrovali do cílového státu z kariérních důvodů, tedy bez rozlišení typu změny. Takovým způsobem jsou na grafu viditelné i chybějící odpovědi, takže například nižší hodnoty v Německu mohou být zkresleny velkým počtem chybějících pozorování.

Některé státy byly z této analýzy vyřazeny z různých důvodů. Chorvatsko a Lotyšsko byly vyřazeny kvůli absenci dat za jednotlivé typy změn, o Rumunsku, Slovensku a Bulharsku nejsou k dispozici žádná data, zatímco Estonsko a Litva byly vyřazeny kvůli neúplnosti dat.

Z grafu je patrné, že procento respondentů, kteří uvedli, že jejich seniorita pozice vzrostla po migraci, je v Lucembursku, Nizozemsku a Finsku vyšší než v ostatních státech, což z těchto zemí činí atraktivnější destinace pro migraci z kariérních důvodů.

Nejnižší procento respondentů, u nichž se seniorita pozice zvýšila, bylo zaznamenáno v Itálii, Řecku a Německu. U většiny respondentů ve všech státech zůstala seniorita pozice stejná.

Nejnižší procento respondentů, u nichž se seniorita pozice snížila, bylo ve Francii, následováno nízkými hodnotami v Německu a Belgii. Nejvyšší procento těchto respondentů bylo zaznamenáno například ve Španělsku a Maďarsku.

Digitální dovednosti obyvatelstva konkrétní země jsou rovněž důležité jak pro její rozvoj směrem k digitalizaci, tak i pro pochopení pracovního trhu v oblasti ICT. K prozkoumání tohoto tématu byla použita data o úrovni vybraných ICT dovedností[5] napříč státy a distribuce typů absolvovaných školení k získání těchto dovedností[6].

Následující graf zobrazuje úroveň použití jednotlivých základních ICT dovedností v posledních 3 měsících napříč státy od roku 2021 a naznačuje tak úroveň digitalizace mezi obyvatelstvem těchto zemí. Zkoumané kategorie jsou: „Psaní kódu“, „Kopírování nebo přesouvání souborů“, „Instalace softwaru“, „Změna nastavení“, „Word procesory“, „Vytváření souborů“, „Tabulkové procesory“, „Pokročilé tabulkové procesory“, „Úprava médií“.

Z grafu je patrné, že napříč všemi státy je úroveň dovednosti „Psaní kódu“ velmi nízká. Základní dovednosti, jako například „Kopírování nebo přesouvání souborů“ , „Instalace softwaru“ a „Word procesory“, jsou vysoké ve všech zemích. Extrémní hodnoty dovednosti „Kopírování nebo přesouvání souborů“ byly zaznamenány v Chorvatsku, stejně tak i pro dovednost „Tabulkové procesory“.

Nejlepší hodnoty ve všech kategoriích mají Nizozemsko a Finsko. V oblasti základních digitálních dovedností dle indexu DESI je Nizozemsko rovněž lídrem. Rumunsko, Polsko a Bulharsko se nacházejí pod průměrem ve všech kategoriích dovedností, přičemž tyto státy mají trvale nízký index DESI[2].

Nedostatek ICT dovedností může omezit hospodářský růst, protože zpomaluje implementaci technologií, které zvyšují produktivitu, efektivitu a inovace[1].
Je tak klíčové prioritizovat investice do vzdělávacích systémů, aby se zahrnula digitální gramotnost a specializované ICT školení na všech úrovních, což musí zahrnovat aktualizaci učebních plánů, školení učitelů a podporu STEM vzdělávání, což povede k zvýšení počtu kvalifikovaných ICT odborníků[2].

Dále zkoumáme typy absolvovaných školení v oblasti ICT v roce 2018 napříč státy. Zahrnuté typy jsou: „Online školení“, „Samoplátce školení“, „Bezplatné/ veřejné školení“, „Školení poskytované zaměstnavatelem“, „Školení na pracovišti“.

Distribuce v jednotlivých státech je téměř shodná, přičemž ve Finsku jsou výrazně populárnější školení na pracovišti a online školení, podobný trend je i v Česku. Ve Finsku je rovněž výrazně vyšší zájem o školení poskytovaná zaměstnavatelem ve srovnání s ostatními zeměmi, což může naznačovat obecně vyšší tendenci školit zaměstnance přímo na pracovišti.

Z grafu je také patrná nízká popularita veřejných školení a školení, za která si zaměstnanci musí zaplatit sami.

Obecně nižší zájem o školení ICT dovedností je zaznamenán ve státech, které mají nižší DESI index, například Kypr, Řecko, Maďarsko, Polsko, Itálie.

Další zkoumanou oblastí je samotný trh práce, vyjádřený počtem otevřených pozic v přepočtu na jednoho obyvatele v oblasti ICT a počtem obsazených pozic[8]. Abychom byli schopni porovnávat velikost pracovního trhu v oblasti ICT napříč jednotlivými státy, byly počty obsazených pozic v roce 2021 vyděleny počtem obyvatel. Výsledná hodnota může být interpretována jako procento z celého obyvatelstva pracující v ICT sektoru, což nám umožní seřadit a porovnat jednotlivé státy z pohledu velikosti tohoto sektoru.

Na grafu nejsou znázorněny počty pro Rakousko, Maďarsko a Itálii, jelikož u těchto států nejsou dostupná data o počtech obsazených pozic.

Největší pracovní trh v oblasti ICT vyjádřený počtem obsazených pozic je ve Švédsku, následuje Malta a Finsko. Většinu prvních pěti tvoří státy, jejichž úroveň digitalizace dle DESI je vysoká. Překvapivý je poměr v Lotyšsku, jelikož Lotyšsko patří mezi 13 zemí, které se nacházejí pod průměrem EU-27 v indexu digitalizace. Tento žebříček, určený metodou Entropy-MOORA, ukazuje, že lotyšské podniky integrují digitální technologie a infrastrukturu pro Industry 4.0 pomalejším tempem ve srovnání s průměrem EU [2]. Avšak Lotyšsko se umístilo na 4. místě podle velikosti ICT trhu práce, což naznačuje, že i v zemi s nižší úrovní digitalizace může být vysoká poptávka po IT odbornících.

Ačkoliv je ICT sektor na Maltě relativně novým odvětvím, jeho podíl na hrubé přidané hodnotě maltézské ekonomiky dosáhl v roce 2017 hodnoty 6,6%, což je nárůst o 5,8% ve srovnání s předchozím rokem. V roce 2017 bylo v sektoru více než 300 firem, které zaměstnávaly více než 7 300 osob[7]. Je pravděpodobné, že Malta implementovala cílené politiky a iniciativy na podporu rozvoje ICT a získávání digitálních dovedností, což může zahrnovat investice do vzdělávání a školení a úsilí přilákat zahraniční investice do ICT sektoru[2].

Z pohledu již zmíněné digitální propasti mezi „starou unií“ a „novou unií“ představuje Malta výjimku. Její hodnota indexu digitalizace ji řadí před několik ekonomických velmocí, jako jsou Německo, Španělsko a Francie, přestože je členem „nové unie“ [2].

Nejmenší podíl pracovníků v ICT sektoru byl zaznamenán v Řecku, Polsku a Portugalsku. Čtvrtina obyvatel těchto států neměla v roce 2016 žádné digitální dovednosti[1].

Dalším důležitým ukazatelem je počet otevřených pozic v ICT sektoru, který byl pro zajištění srovnatelnosti mezi jednotlivými státy vydělen počtem obyvatel v daném státě. V grafu chybí Rakousko a Itálie, a to z důvodu nedostupnosti dat.

Ve srovnání s ostatními státy je relativní počet otevřených ICT pozic v Nizozemsku výrazně vyšší, což z této země činí atraktivní destinaci pro IT odborníky. Druhý nejvyšší relativní počet otevřených pozic byl zaznamenán ve Švédsku, následovaném Belgií. Nejvyšší hodnoty vykazují státy s vysokým indexem digitalizace podle DESI. Vysoké umístění zaznamenala také Malta, což potvrzuje její rostoucí význam v ICT sektoru.

Na opačném konci spektra se nacházejí státy, jako jsou Řecko a Chorvatsko. Tyto země se vyznačují nejen nízkým indexem digitalizace DESI ve srovnání s průměrem EU, ale také celkově menší velikostí ICT sektoru, což významně ovlivňuje rozsah nabídky pracovních pozic v této oblasti.

Na základě analýzy je zřejmé, že severské státy dosahují lepších výsledků ve všech zkoumaných oblastech, což souvisí s jejich vysoce rozvinutými digitálními dovednostmi a silnými ICT sektory.

Finsko, Švédsko a Nizozemsko vykazují nízkou úroveň migrace z pracovních důvodů. Zároveň se tyto země umístily na předních pozicích v žebříčku podle velikosti ICT sektoru, vyjádřené počtem obsazených pozic relativně k počtu obyvatel, a také v horní polovině žebříčku podle počtu otevřených pozic na obyvatele. To naznačuje, že jejich pracovní trhy nejsou příliš saturované, což vytváří nové příležitosti a pozice pro odborníky v oblasti ICT. V těchto zemích, zejména ve Finsku a Nizozemsku, je rovněž patrný pozitivní trend v profesním růstu po migraci, což naznačuje, že migrace do těchto států může vést k lepším kariérním příležitostem ve srovnání s domovskými zeměmi. Na druhou stranu však vysoká úroveň základních ICT dovedností může znamenat silnější konkurenci na pracovním trhu.

Malta se rovněž profiluje jako atraktivní destinace pro ICT odborníky, a to díky rychlému růstu ICT sektoru a vysokému podílu pracovních pozic v tomto odvětví.

Lotyšsko, přestože vykazuje nižší úroveň digitalizace a ICT dovedností, se nachází na čtvrtém místě podle velikosti pracovního trhu a zároveň má vysoký počet otevřených pozic oproti jiným státům. Tato země tak představuje atraktivní destinaci pro migranty, kteří hledají příležitosti na méně saturovaném trhu.

Velikost ICT sektoru v Polsku je druhá nejnižší, stejně tak se nachází ve druhé polovině žebříčku podle počtu otevřených pracovních pozic. Polsko rovněž dosahuje nízkých hodnot indexu digitalizace, přičemž úroveň základních ICT dovedností jeho obyvatelstva je v porovnání s jinými státy nižší. Polsko by tedy mělo usilovat o přitahování většího počtu odborníků v této oblasti a o zlepšení vzdělávání obyvatelstva, aby udrželo krok s celosvětovou digitalizací.

Další evropské státy, jako Řecko, Chorvatsko, Bulharsko, Itálie a Kypr, vykazují nižší úroveň digitalizace a nižší hodnoty napříč všemi oblastmi analýzy. To může bránit jejich schopnosti držet krok s technologickým pokrokem a celkovou globalizací, což negativně ovlivňuje jejich konkurenceschopnost v oblasti ICT.

Je však nezbytné brát v úvahu, že existuje celá řada dalších sociodemografických faktorů, které nebyly v této analýze zohledněny, ale měly by být součástí dalšího výzkumu. Tyto faktory mohou mít významný vliv na rozhodování o migraci a poskytnout hlubší pohled na pracovní trhy v oblasti ICT.

Závěrem lze říci, že pracovní trhy v oblasti ICT v Evropě vykazují velkou rozmanitost. Zatímco některé země jsou dobře připravené na digitalizaci, jiné čelí výzvám v této oblasti a nemají dostatek kvalifikovaných pracovních sil. Porovnání těchto faktorů je klíčové pro optimální rozvoj ICT sektoru v EU a efektivní využívání lidských zdrojů.

Zdroje:

  1. Bejaković, P., & Mrnjavac, Ž. (2020). The importance of digital literacy on the labour market. Employee Relations: The International Journal, 42(4), 921–932. https://doi.org/10.1108/ER-07-2019-0274
  2. Brodny, J., & Tutak, M. (2022). Analyzing the Level of Digitalization among the Enterprises of the European Union Member States and Their Impact on Economic Growth. Journal of Open Innovation: Technology, Market, and Complexity, 8(2), 70. https://doi.org/10.3390/joitmc8020070
  3. Eurostat. (2024). Employed foreign-born by change in skill level from last job before migrating to current job, sex, age and main reason for migrating. https://doi.org/10.2908/lfso_21educ07
  4. Eurostat. (2024). Population by broad age group. https://doi.org/10.2908/cens_21ag
  5. Eurostat. (2024). Individuals‘ level of computer skills (2021 onwards). https://doi.org/10.2908/isoc_sk_cskl_i21
  6. Eurostat. (2018). Way of obtaining ICT skills. https://doi.org/10.2908/isoc_sk_how_i
  7. Malta Enterprise. (2024). The ICT Sector in Malta. https://maltaenterprise.com/sites/default/files/The%20ICT%20Sector%20in%20Malta.pdf
  8. Eurostat. (2024). Job Vacancy Statistics by NACE Rev. 2 Activity – Quarterly Data (from 2001 onwards). https://doi.org/10.2908/jvs_q_nace2

Introduction to Post-Information Age

0
Two people taking pictures of a city at night

Introduction

I think it is necessary to write something as an introduction (I must admit, I’m writing this introduction last). This essay aims to explore the post-information age, how we get at it, and what it means for us. It offers an insight for those who wish to delve deeper into its complexities.

What is the information?

I would like to start this essay with something that sounds very smart (because who writes the introduction first?), but I’m not very good at it, so we’ll have to settle for a simple analogy. Information is like building blocks – if we want to move forward, we can’t do it without them. But how far can we get with them? What is the ideal goal? The ideal is to gain intelligence. „Gain“ might sound strange, but there’s no other way to become intelligent. No one is born that way; of course, each of us has some predispositions, genetic makeup, but if we don’t develop them, we won’t get anywhere.

How do we get closer to this successful goal? Through acquiring knowledge. When I gain knowledge, context, and understanding, I learn something, and when I learn something, I am closer to being intelligent. Okay, okay, we need to be knowledgeable, but how do we achieve that? And now, here (soon, right?), we return to the beginning with the information – whether it’s ordinary data, numbers, words, and their meanings – these are information.

Information is all around us, in books, on the internet, in conversations with people. Every day we encounter new facts and insights that we can use to expand our horizons. It is important to be open to new information and to keep learning. Only then can we achieve true intelligence and understanding of the world around us.

And so, when we think about how important information is, we realize that without it, we would be lost. It is the foundation of everything we do and what we become. That is why it is so important to constantly seek, process, and use it for our growth and development.

BUT in today’s world, information is an important „commodity.“ It is practically traded, used to train language models, and whether we like it or not, there is an abundance of it. But what can we trust? Anyone can write anything on the internet, whether it’s scientific proof that the Earth is flat or a recipe that might actually be useful. We have entered the Information Age, which might already be coming to an end (we’ll have precise dating in about a hundred years, and children will learn about it in school. Or maybe they won’t…?). I think it would be useful to have a better historical overview of how we got to where we are.

History

When we look far back into the past, we were always taught in school about the Stone Age, the Bronze Age, and the Iron Age. These periods are so ancient that it might not be worth writing much more about them. However, this brings us to the age of great civilizations, which I find much more interesting.

Ancient Egypt was one of the most important and oldest civilizations in the Mediterranean and the Near East. Its center was in the northeastern part of Africa, in what is now modern-day Egypt, concentrated along the lower reaches of the Nile River up to the first cataract, which served as a natural southern boundary. (Dějepis 1)

Ancient Greece developed an exceptionally advanced culture in various fields, including fine arts, architecture, theater, and science (medicine, philosophy, mathematics, astronomy), as well as rhetoric and politics, where it became the birthplace of democracy. It had a profound influence on the development of Roman culture and, through it, Western civilization. (Dějepis 1)

Rome was an ancient civilization that originated from the city of Rome, founded on the Italian Peninsula, according to legend, in 753 BC by the twins Romulus and Remus (quite an accomplishment for boys raised by a wolf). Rome expanded into a significant part of the ancient world. The form of the Roman government transformed over the centuries from a kingdom to a republic and eventually to an empire. The Roman territory was inhabited by various peoples with different languages, religions, and cultures. (Dějepis 1)

This brings us to a less exciting part of history, sorry, but the Middle Ages didn’t interest me as much. I’ll skip the period from around the 5th century to the 16th century and continue with the Renaissance, Baroque, the discovery of America, and this brings us to the age of industrialization.

Industrial Age

The Industrial Revolution in Britain, which took place between 1760 and 1860, was a period of significant economic and social changes. Key factors that contributed to it included innovations in the textile industry, such as the introduction of machines like the „Spinning Jenny“ and the „Water Frame,“ which greatly increased productivity in cotton manufacturing. The development of the steam engine, invented and improved by Thomas Newcomen and James Watt, provided a new and more efficient source of power for industry, mining, and transportation. Changes in iron and steel production, such as the use of coal as fuel and the development of techniques like „puddling,“ enabled Britain to produce cheap iron and steel, which supported industrial growth. (Clark, 2005)

The rise of railways, combining the steam engine with older horse-drawn tram technology, led to the development of railroads that allowed for the rapid and efficient transportation of goods and people. Improvements in transportation, such as the development of road networks and the construction of canals, reduced transportation costs and facilitated trade. The demographic revolution in Britain, characterized by a sharp increase in population, was likely due to a decrease in the age of marriage and an increase in the number of marriages, provided the workforce needed for the burgeoning industry. (Clark, 2005)

The Industrial Revolution transformed society from an agrarian to an industrial one by creating new job opportunities in factories, where wages were generally higher than in agriculture. This attracted many people and led to urbanization. Consequently, there was an increase in urban population and the development of infrastructure, such as housing, sewage systems, and transportation. However, the rapid growth of cities also caused hygiene and pollution problems.

The revolution also supported the development of a capitalist economy, where factory owners invested in new technologies to increase productivity and profits. On the other hand, the Industrial Revolution led to social inequality, with some people becoming wealthy while others suffered from poverty. (Chen, 2008)

Other negative impacts of the Industrial Revolution included air and water pollution, poor working conditions in factories with long hours, low wages, and a lack of workplace safety, as well as child labour. The migration of people from rural areas to cities also led to a shortage of labour in agriculture and subsequent food shortages. (Chen, 2008)

What should we take from this? The Industrial Revolution had a complex and lasting impact on society, marking the beginning of the Industrial Age. It brought many positive changes, such as economic growth and technological advancement, but also led to social problems like pollution and inequality.

Information Age

The Renaissance, often considered the last era in history when a person could comprehend all the world’s knowledge, has long passed. Today, not only do we have no chance of knowing all available information, but the figures mentioned below suggest that we are increasingly likely to get lost in the flood of data. On one hand, the speed, capacity, and volume in the ‚digital universe‘ are growing, while on the other hand, the limited performance and boundaries of our brains stand in opposition.“ (Bryndová, 2017)This seems to me the most important thing to mention, and although it might be more appropriate to write about it in the post-information age, I would like to mention it at the beginning of the Information Age.

So, what is specific about it? To which period do we assign it? The Information Age, also known as the Digital Age or Computer Age, is simply the era when technology began to influence people more than ever before, making it no longer a problem to connect with someone on the other side of the planet. This sounds quite idyllic, doesn’t it? Personally, I can’t say what it was like before, but everything has its positives and negatives. If I quote Wikipedia (the “best and most verified source”, I know, but for such a simple summary, it’s not so bad): „The Information Age is a historical period that began in the mid-20th century. It is characterized by a rapid shift from traditional industries, as established during the Industrial Revolution, to an economy centered on information technology. The onset of the Information Age has been linked to the development of the transistor in 1947 and the optical amplifier in 1957. These technological advances have had a significant impact on the way information is processed and transmitted

Various media monopolies are increasingly losing the ability to control what information is presented to people, creating a window that could diminish the deliberate influence on the minds of many through mass media. However, this brings up the issue of social bubbles. It has never been easier to find people with similar interests. While it’s great that it’s now so easy, there’s a problem when it comes to misinformation or extremist groups. These people will increasingly reinforce each other’s beliefs because someone who might oppose them or at least discuss the issue is unlikely to slip into their social bubble.

So yes, media monopolies no longer have as much power because anyone can try to find different information and perspectives. But why would they do that when they’ve found a group of people who reinforce their beliefs? People are setting traps for themselves and then falling into them. But I’m getting a bit ahead of myself.

Trust in information

As I mentioned before, there is more information than ever, and it’s hard to navigate, let alone identify which information is true. We need to learn how to work with it. The question is, where and when should future generations learn this? In schools? Isn’t that too late given the times we are approaching? At what age should children be taught to verify information? If we teach them too early, they might not grasp it. At the same time, the idea of children verifying the existence of Santa Claus and other such untrue but nice stories or traditions is a bit unsettling.

Anyone can create and share information, so it is very likely that it may not be entirely true, may have been slightly altered, or may simply be completely fabricated. If this happens by mistake, it’s unnecessary and unfortunate, but there’s no point in being angry at the person – they just got it wrong. The problem arises when someone deliberately spreads disinformation. According to the Cambridge Dictionary, disinformation is defined as „false information spread in order to deceive people,“ and that’s quite a problem. This definition emphasizes the intentional aspect of disinformation, which distinguishes it from misinformation, which can be unintentional and based on incomplete or inaccurate information. As I mentioned earlier, mass media no longer have the same chance to control large numbers of people, but here lies the issue. Mass media and their fake news no longer have the same reach, but disinformation spreads like a flood. And yes, this is another trap that people have set for themselves.

So how can we avoid being confused by disinformation? Meta literacy, or „an overarching and self-referential framework that integrates emerging technologies and unifies multiple types of literacy,“ (Mackey and Jacobson, 2011) appears to be a key tool for managing the flood of information and disinformation. It is a comprehensive approach that encompasses and connects various aspects of information literacy and critical thinking. In practice, this involves verifying sources, which is crucial for obtaining reliable information. Not believing everything we read online and actively checking the credibility of sources helps us avoid disinformation. Cross-checking information, that is, comparing information from different sources and looking for similarities and differences, is another important step. Examining the context, asking who created the information, why, and for whom it is intended, allows us to better understand the motivations and intentions of the authors. (Cooke, 2017)

Post – information Age

One of the many things specific to the post-information age is disinformation. The ease of manipulating information and the speed at which it spreads online present challenges for critical thinking and objective perception of reality. We are entering a time when it is necessary to be information literate and to effectively search for relevant information amidst the vast amount available.

Another characteristic of the post-information age is the ubiquity of information and its easy accessibility, which paradoxically leads to overload and loss of orientation. In this environment, it becomes difficult to distinguish relevant information from noise and disinformation. There is also a loss of objectivity and autonomy. Nunberg argues that the online environment blurs the boundaries between documents, genres, and authors. On the web, it is difficult to assess the credibility of information without knowing its source, author, and context, making it impossible to read online documents as objective „information“ separate from the subjectivity and motivations of their creators.

People with lower cognitive capacity are increasingly at risk of information overload because they are more susceptible to it. Information overload is a state where a person is overwhelmed by a large amount of information and has difficulty processing it effectively. This state is characterized by feelings of being overwhelmed, confused, and unable to process information correctly and efficiently. Information overload occurs in many areas, including healthcare. For example, this article mostly addresses information overload related to COVID-19, but cancer patients also frequently feel overwhelmed by the amount, uncertainty, and complexity of information about their illness. People often seek simplified but usually unhelpful information, base their decisions on simple cues, neglect details, and in some cases, avoid processing information altogether. Low-quality information also contributes to information overload because it requires more cognitive resources to distinguish correct information from a large amount of irrelevant and unusable information. (Mao 2022)

A problem that today’s generation faces, which is very likely caused by the age we live in, is the decreasing attention span. How long can we focus on a single topic? The time keeps decreasing. The main cause is social media with short videos that boost dopamine levels. Instagram itself claims: „We use a variety of algorithms, classifiers, and processes, each with its own purpose. We want to make the most of your time, and we believe that using technology to personalize your experience is the best way to do that.“ They want people to spend as much time as possible on their platform and have algorithms designed to keep people scrolling. Again, another trap we have set for ourselves and for future generations. The pace of life is accelerating incredibly. On the one hand, it’s great how much one can experience in a lifetime, but how much stress, health issues and perhaps even regrets does this lifestyle bring?

What will happen next?

I’ll leave this page here for everyone to reflect on. I don’t know what will happen in the future, and I don’t dare to make predictions; my abilities and education don’t reach that far. I would say that it’s important for people to be careful about what they believe and to try to think critically about it. When I was in high school, we had a teacher who always said, „Think critically, think in context.“ We used to make fun of her, but she was right.

Sources

Cooke, N. A. (2017). Posttruth, Truthiness, and Alternative Facts: Information Behavior and Critical Information Consumption for a New Age. The Library Quarterly87(3), 211–221. https://doi.org/10.1086/692298

Nunberg G. (1996). The future of the book. University of California Press.

History 110B A History of World Societies. (1995). American Heritage Custom PublishingGroup.

Paul T. Harig, The Digital General: Reflections on Leadership in the Post-Information Age Parameters 26, no. 3 (1996), doi:10.55540/0031-1723.1790.

Mackey & Jacobson. (n.d.). Reframing Information Literacy as a Metaliteracy | Mackey | College & Research Libraries. College & Research Libraries. https://crl.acrl.org/index.php/crl/article/view/16132

Zalewska, D. (2019). The specificity of the post-information age. International scientific journal.

Chen, J. (2008, April 20). Industrial Revolution: Definition, History, Pros, and Cons. Investopedia. https://www.investopedia.com/terms/i/industrial-revolution.asp

Mao B. How do information overload and message fatigue reduce information processing in the era of COVID-19? An ability–motivation approach – PMC. (2022). PMC Home. https://pmc.ncbi.nlm.nih.gov/articles/PMC9444816/

disinformation. (n.d.). Cambridge Dictionary | English Dictionary, Translations & Thesaurus. https://dictionary.cambridge.org/dictionary/english/disinformation

Bryndová, L. (2017). Informační věk | Infodesign. http://archiv.ffa.vutbr.cz/. http://archiv.ffa.vutbr.cz/vskp/www/2012-novotna-katerina-design_informaci_vybrane_tematiky/informacni-vek/index.html

Popelka a Válková. Dějepis 1 pro gymnázia a střední školy. Praha: SPN – pedagogické nakladatelství, 2001.

Instagram. (2021, June 8). Shedding More Light on How Instagram Works. About Instagram | Capture, Create & Share What You Love. https://about.instagram.com/blog/announcements/shedding-more-light-on-how-instagram-works

Contributors to Wikimedia projects. (2002, September 12). Information Age – Wikipedia. Wikipedia, the free encyclopedia. https://en.wikipedia.org/wiki/Information_Age

Dark Web: Myths and Realities

0
Black-and-white photo showing a hacker wearing a Guy Fawkes mask on a monitor, symbolizing cyber security threats.

Úvod

Väčšina populácie, ktorá dnes využíva internet, aspoň tuší, čo je Dark Web. Tento pojem je však často nesprávne pochopený a obklopený mnohými mýtmi. Mnoho ľudí ho chápe iba ako miesto používané na nelegálne aktivity, ako je obchod s drogami, obchod so zbraňami alebo nelegálny obsah. Tento pohľad na Dark Web nie je úplne presný a prehliada všetky možné využitia.

Dark Web je jednoducho ďalšia časť internetu, ktorú nemožno nájsť vyhľadávaním v bežných vyhľadávačoch, ako je Google. Na rozdiel od „normálneho“ internetu, kde nájdete takmer nekonečný počet webových stránok, Dark Web je prispôsobený tak, aby jeho užívatelia zostali anonymní. Jeho použitie šifrovania a nástrojov ako Tor, ktoré zakrývajú užívateľov a ich aktivity, ho robí neviditeľným. Dark Web obsahuje záludný obsah, ale existujú aj iné veci, ktoré slúžia dobrému účelu, ako sú platformy, ktoré pomáhajú novinárom a aktivistom v krajinách s obmedzenou slobodou slova.

Táto seminárna práca si kladie za cieľ poskytnúť pohľad na to, ako Dark Web funguje a aké sú ťažkosti s jeho reguláciou a monitorovaním. Samozrejme, že tam sa nachádzajú mnohé nelegálne aktivity, zároveň je dôležité uvedomiť si, že technológie, ktoré umožňujú jeho existenciu, majú aj pozitíva. Chystáme sa tiež diskutovať o tom, ako rôzne krajiny reagujú svojimi zákonmi na tento priestor a či je potrebné vyvažovať redukovanie kriminality a násilia pri zabezpečení internetovej súkromnosti a slobody.

1. Historický kontext a vznik dark webu

Aj keď je dark web relatívne novým fenoménom, má bohatú a zaujímavú históriu. Jeho zriadenie a prevádzka sa zakladajú na pokročilých technológiách, ktoré umožňujú anonymitu a zašifrované pripojenia. V tejto časti sa pozrieme na vznik anonymizačných technológií, prvé trhy na dark webe a zásadné udalosti, ktoré formovali spôsob jeho štruktúry a používania dnes.

1.1 Pôvod anonymizačných technológií

Anonymizácia na internete sa začala vyvíjať ako odpoveď na potrebu bezpečnej komunikácie. Vznik anonymizácie na internete prišiel ako riešenie na dopyt po bezpečnej komunikácii na internete. Tor bol pôvodne navrhnutý a vytvorený americkým námorníctvom v deväťdesiatych rokoch na ochranu vládnej komunikácie. Tor funguje na myšlienke vrstvenej šifrovacej siete, v ktorej sa dáta prenášajú reťazou uzlov, pričom každý oddeľuje jednu vrstvu šifrovania, až kým nedosiahne konečný cieľ. Počas tohto procesu sa skutočná IP adresa utajuje (Christin, 2013). Pôvodným účelom Toru bolo ochrániť citlivé vládne údaje a agentov komunikujúcich v zahraničí. Tor bol vydaný do verejnej domény v roku 2002, čím sa jeho použitie rozšírilo. Bol to však dôležitý posun, pretože anonymita bola dostupná novinárom, aktivistom a tiež ľuďom, ktorí neboli proti zákonu (Moore & Rid, 2016).

 

1.2 Silk Road a jeho dopad

Spustený v roku 2011, Silk Road bol prvým veľkým trhom na dark webe, ktorý implementoval používanie Toru na anonymitu a Bitcoinu na finančné transakcie. Ross Ulbricht pod menom „Dread Pirate Roberts“. Trh ponúkal rôzne produkty, predovšetkým drogy, ale aj iné nelegálne služby, ako sú falošné identifikácie alebo ukradnuté dáta (Aldridge & Décary-Hétu, 2014). Silk Road bol prelomový v niekoľkých ohľadoch:

  • Model dôvery: Na trhu boli vytvorené hodnotenia predajcov a systém úschovy, kde boli platby uskutočnené až po dodaní tovaru kupujúcim. Tento model viedol k veľkému zvýšeniu dôvery medzi predtým anonymnými stranami (Christin, 2013).
  • Ekonomický dopad: Silk Road údajne zarábal až 1,2 milióna dolárov hrubého príjmu mesačne, čo zvýraznilo ekonomickú užitočnosť trhov na dark webe.
  • Silk Road bol zatvorený americkými úradmi v roku 2013 a jeho zakladateľ Ross Ulbricht bol odsúdený na doživotie za mrežami. Ale toto zatvorenie neznamenalo koniec podobných trhov. Skôr sa objavili nové platformy ako AlphaBay a Dream Market, ktoré reprodukovali rovnaký model (Soska & Christin, 2015).

Silk Road sa môže pochváliť viac ako 9,5 miliónmi transakcií (Berge, 2014). Americká vláda tvrdila, že 90 % príjmov Silk Road pochádzalo z legálnych a nelegálnych drog, pričom drogové transakcie dosahovali približne 214 miliónov dolárov (Ministerstvo spravodlivosti USA, 2015).

1.3 Operácia Onymous

V roku 2014 zahájili úrady medzinárodnú operáciu s kódovým označením Onymous, v rámci ktorej zatvorili viac ako 400 webových stránok na dark webe. Táto operácia dokázala, že anonymita Toru nie je absolútna. Úrady využili technické aj legálne stratégie na identifikáciu a uzavretie týchto stránok (Décary-Hétu & Giommoni, 2017). Operácia Onymous bola zmiešaným úspechom. Napriek mnohým zatvoreniam sa nové miesta objavili a dokázali prispôsobiť zvýšeným rizikám. Toto je dokonalá ilustrácia toho, ako je dark web neustále odolný a umožňuje mu prispôsobiť sa vonkajším tlakom.

2. Charakteristika dark webu: Struktúra a technológie

Dark web je špecifická časť internetu, ktorá sa často nesprávne chápe ako priestor výlučne pre nezákonné aktivity. Ako sa ukazuje, sú to len malá zaujímavá časť oveľa väčšieho deep webu. Deep web zahŕňa všetky weby, ktoré nie sú indexované bežnými vyhľadávačmi ako Google a Bing. Veľa na internete je skryté pred bežnými používateľmi. Jeho menšia verzia sa nazýva dark web, ku ktorému je možné pristupovať len pomocou špeciálnych nástrojov a technológií, pričom prehliadanie ponecháva používateľa úplne anonymného. Teraz sa pozrieme na detaily, ako dark web funguje, aké technológie sú potrebné pre jeho fungovanie a aké možnosti poskytuje používateľom.

2.1 Ako funguje dark web?

Dark web, ako naznačuje jeho názov, je miesto, na ktoré sa nedá prístupovať cez základné prehliadače, ako sú Chrome alebo Firefox, ako to robíme každý deň. Potrebujete špeciálne nástroje na prístup na dark web. Táto časť internetu závisí od druhu šifrovania, ktoré zaručuje, že nikto nezistí, kto ste alebo čo robíte. Tor je jedným z najpopulárnejších nástrojov na dosiahnutie dark webu. Tor umožňuje prehliadať anonymné webové stránky s príponou „onion“. Webové stránky, ktoré končia touto príponou, nie sú viditeľné na bežnom internete, čo ich sťažuje sledovanie. Tor tiež šifruje vašu komunikáciu, čo znamená, že vaša aktivita je skrytá pred vonkajším svetom. To sa dosahuje presmerovaním vašej komunikácie cez mnoho serverov (známych ako uzly), čím je ešte ťažšie sledovať (Bernstein, 2015).

Skryté služby Neviditeľný internetový projekt

Ďalšou technológiou dark webu je I2P (Invisible Internet Project). I2P (Invisible Internet Project) je podobný Toru, ale jeho zameranie je na vytvorenie siete, ktorá je oddelená a používaná iba používateľmi I2P. I2P sa používa na vytváranie anonymných stránok, anonymných komunikačných kanálov, kde je ešte ťažšie sledovať, kto sú používatelia (Rashid, 2017).

2.2 Prečo je dark web anonymný?

Anonymita je kľúčovou charakteristikou dark webu. Tor a I2P chránia vašu identitu a aktivitu na internete. Toto je vaša adresa, ktorá funguje ako spojovací bod medzi vami a vaším poskytovateľom internetových služieb (ISP), ale je skrytá. Pri bežnom používaní internetu, napríklad ak navštívite webovú stránku, stránka môže vidieť vašu IP adresu a priradiť túto adresu k tomu, čo robíte. Na dark webe je však takéto sledovanie nemožné, pretože vaše pripojenie je zašifrované a vaša komunikácia sa posiela cez mnoho uzlov, ktoré maskujú vašu IP adresu. Okrem toho sa platby na dark webe často realizujú s kryptomenami ako Bitcoin alebo Monero. Tieto platby zostávajú anonymné a poskytujú veľmi málo informácií o tom, kto skutočne uskutočnil transakciu. Aj keď nie sú úplne anonymné, bitcoin poskytuje nevídanú úroveň súkromia v porovnaní s inými platobnými metódami, ako sú kreditné karty (Zolhar, 2017).

2.3 Čo nájdete na dark webe?

Je bežné, že dark webové stránky sú súčasťou neuzatvorených záhrad; sú tiež spájané so zločinom, špionážou, počítačovou kriminalitou a ďalšími. Niektoré sú nezákonné alebo kontroverzné, hoci nie všetky. Napríklad existujú skutočné komunikačné kanály, ktoré by novinári alebo aktivisti (aby sme menovali len dve profesie) mohli využiť na bezpečné zdieľanie správ alebo informácií. Niekedy sa dark web využíva na ochranu osobných informácií v krajinách, kde sú výrazne obmedzené možnosti vyjadrenia alebo na ochranu pred vládnym sledovaním. Na dark webe môžete nájsť rôzne trhoviská pre drogy, zbrane a dokonca aj zneužité údaje, ako ukradnuté kreditné karty alebo osobné informácie. Okrem toho, že sú oveľa viac skryté a používajú kryptomeny na svoje transakcie, tieto trhoviská sa chovajú veľmi podobne ako bežné online obchody (Binns, 2016).

2.4 Prístup na dark web a riziká

Deep web poskytuje veľa anonymity, ale nič neprichádza bez rizík. Webové stránky na dark webe môžu byť nebezpečné a používatelia sa môžu stať obeťami podvodov alebo iných zločinov. Rovnako môže platiť aj zákon na rôznych webových stránkach, pretože na niektorých z nich môžete vykonávať nezákonné operácie a aktivity. Takže ak budete preskúmavať dark web, robte to s veľkou opatrnosťou a podniknite potrebné opatrenia na zabezpečenie vašich údajov. Pretože dark web pozostáva z anonymnej a nezákonnej aktivity, je kľúčové ostať informovaný o hrozbách, ktoré táto oblasť ponúka, a vyhýbať sa nezákonným alebo neetickým aktivitám (Moore & Rid, 2016).

2.5 Budúcnosť Dark Webu: Technologické a politické faktory

Spýtal som sa Chatgpt 4o akú prepokladá budúcnost dark webu a inkorporáciu umelej inteligencie. Rozvoj umelej inteligencie (AI) a strojového učenia majú potenciál na výrazné zlepšenie schopnosti monitorovať a identifikovať nelegálnu činnosť na internete, vrátane Dark Webu. AI by mohla byť využívaná na detekciu nezákonných trhov, obchodovania s nelegálnym tovarom a ďalších foriem kyberkriminality.

Riziká a výzvy: Rýchly rozvoj šifrovacích technológií môže viesť k tomu, že sa zvýši miera anonymity na Dark Webe, čo by mohol umožniť ďalší rast nelegálnych aktivít, ktoré súťažili o pozornosť. Aj keď to môže byť nevyhnutné na ochranu súkromia, môže to predstavovať výzvu v boji proti kyberkriminalite. Jednou z najväčších výziev pre tvorbu legislatívy týkajúcej sa Dark Webu je nájsť rovnováhu medzi bojom proti kriminalite a ochranou práv jednotlivcov na ochranu súkromia a slobody prejavu. Existujú rôzne návrhy, ako by sa mohla regulácia Dark Webu vyvíjať tak, aby zohľadňovala oba tieto aspekty:

Boj proti kriminalite, regulácia by mala zahŕňať zlepšené techniky monitorovania a identifikácie nelegálnych trhov a zločincov, ktorí používajú Dark Web na svoje aktivity. To by mohlo zahŕňať použitie pokročilých analytických nástrojov a spoluprácu medzi národnými a medzinárodnými orgánmi na odhaľovanie zločinu.

Ochrana súkromia, Súčasne by malo existovať silné právne záruky pre ochranu jednotlivcov, ktorí využívajú Dark Web na legitímne účely. Napríklad novinári, aktivisti, právnici a ďalší, ktorí sú vystavení hrozbám zo strany vlád alebo zločineckých skupín, by mali mať možnosť využívať technológie ako Tor alebo I2P na bezpečnú komunikáciu bez obáv zo zasahovania.

3. Nelegálne aktivity na dark webe

Dark web je často vnímaný ako priestor pre nelegálne aktivity, a to nielen vďaka jeho anonymite, ale aj vďaka tomu, že poskytuje miesto pre obchodovanie s produktmi a službami, ktoré sú na surface webe zakázané.

3.1 Predaj zbraní a nelegálnych služieb

Dark web je trh s drogami. Dôležitou kategóriou sú zbrane a zakázané služby, ktoré môžu zahŕňať:

  • Strelné zbrane a munícia.
  • Falšované doklady vrátane pasov a preukazov identity.
  • Hackeri na prenájom: niektorí hackeri ponúkajú služby ako hackovanie účtov, krádež osobných údajov alebo hackovanie spoločností pre kybernetické útoky (Partman, 2023).

Takéto služby sú často propagované na špecifických fórach alebo anonymných trhoviskách, ktoré umožňujú predajcovi a kupujúcemu komunikovať v šifrovaných správach. Podľa Rashida (2017) sú krádeže dát a hackovanie firemných systémov najžiadanejšími službami.

3.2 Distribúcia nelegálneho obsahu

Na dark webe sa uverejňuje veľmi dark a nelegálny, často neetický obsah. Najvážnejšími problémami sú (okrem iného):

  • Detská pornografia: Tento druh zneužívania je vážna globálna otázka. Anonymita poskytovaná Torom uľahčuje distribúciu takýchto materiálov na dark webe.
  • Násilný obsah: Na dark webe sú webové stránky, kde sa nachádzajú násilné videá alebo iný neetický obsah, ktorý by bol okamžite zakázaný na surface webe.

Právne orgány sa snažia zastaviť tieto aktivity, ale kvôli anonymnej povahe dark webu je ich práca veľmi náročná. Podľa Décary-Hétu a Giommoniho (2017) je dostupnosť takéhoto obsahu na dark webe jedným z hlavných etických problémov týkajúcich sa existencie tejto siete.

3.3 Ekonomika čiernych trhov

Trhoviská dark webu majú podobné koncepty a štruktúry ako ich neanonymné ekvivalenty, ale umožňujú zachovanie anonymity. Tieto závisia od niekoľkých kľúčových faktorov toho, ako tieto trhy fungujú:

  • Anonymné platby: Väčšina transakcií prebieha cez kryptomeny a nie je ľahké ich vystopovať.
  • Systém reputácie: Podobne ako eBay alebo Amazon, zákazníci môžu hodnotiť predajcov a produkty, čo zvyšuje dôveru medzi účastníkmi trhu (Christin, 2013).
  • Systémy pay-backing: Kupujúci pošle peniaze do pay-backu, ktorý peniaze uvoľní predávajúcemu až po tom, čo kupujúci potvrdí, že produkt dorazil podľa očakávaní.

Hoci sa úrady snažia tieto trhy zlikvidovať (pozri: Operácia Onymous), ekonomika dark webu prekvitá a jej trhy sa stávajú stále sofistikovanejšími.

4. Legitímne využitia dark webu

Ako som už spomenul, existujú legitímne využitia dark webu, ktoré sú prehliadané. Často tiež poskytuje používateľom bezpečné miesto na zachovanie slobody prejavu, slobodu slova a prístup k informáciám v krajinách, kde je tento prístup obmedzený.

4.1 Ochrana slobody prejavu

Možno najdôležitejšou funkciou dark webu je poskytnutie anonymity tým, ktorí žijú v krajinách čeliacich cenzúre alebo represiám. V autoritárskych režimoch, kde vlády ovládajú médiá a obmedzujú prístup k nezávislým informáciám, môže dark web poskytovať obyvateľom prístup k cenzurovaným zdrojom.

Príklady využitia dark webu:

  • Obchádzanie cenzúry: „Pomocou nástroja Tor môžu ľudia žijúci v krajine, ako je Čína alebo Irán, obísť vládne bloky, aby získali prístup k zahraničným médiám a nezávislým správam“ (Moore & Rid, 2016).
  • Nezávislá žurnalistika: Mnoho renomovaných médií (The New York Times, The Guardian atď.) používa platformy dark webu (SecureDrop atď.) na zber dôvernej informácie od whistleblowerov.

4.2 Whistleblowing a anonymné nahlasovanie

Dark web hrá kľúčovú úlohu pre whistleblowerov, ktorí chcú zverejniť dôležité informácie o korupcii, porušovaní ľudských práv alebo iných nespravodlivostiach, ale boja sa stíhania.

Oznamovanie sa vykonáva na mnohých platformách:

  • SecureDrop: Táto stránka dark webu umožňuje reportérom a organizáciám akceptovať anonymné podania informácií. Je to bezpečné miesto, kde môžu whistlebloweri nahlasovať problémy bez obavy z identifikácie.
  • WikiLeaks: Stránka WikiLeaks je známa publikovaním veľkého množstva tajných dokumentov vrátane dokumentov odhaľujúcich korupciu a zneužívanie moci v rôznych krajinách. Tento krok už bol vykonaný pre niektoré dokumenty, ktoré boli zverejnené prostredníctvom dark webu takým spôsobom, že bola zachovaná anonymita whistleblowerov a anonymity aktivistov, ktorí tieto dokumenty poskytli. Použitím siete Tor WikiLeaks zabezpečilo, že informátori zostanú anonymní a v bezpečí (Zetter, 2013).
  • Zamestnanci veľkých korporácií alebo vládni zamestnanci používajú tieto platformy na odhalenie korupcie alebo zneužitia moci.

 

4.3 Bezpečná komunikácia a ochrana súkromia

Dark web má svoj vlastný význam pre ľudí, ktorí potrebujú ochranu súkromia. Toto nemusí byť nevyhnutne spojené s nelegálnymi aktivitami, ale často pre zdanlivo platné dôvody, ako je ochrana pred sledovaním.

Príklady využitia:

 Podpora aktivistov: Občianski aktivisti môžu použiť dark web na bezpečné plánovanie protestov alebo kampaní v krajinách, ktoré potláčajú politickú opozíciu.

Ochrana osobných údajov: Jednotlivci používajú dark web na ochranu pred komerčným alebo vládnym sledovaním (Bernstein, 2015).

4.4 Akadémia a výskum

Navyše, akademické a výskumné inštitúcie tiež využívajú dark web na analýzu rôznych javov týkajúcich sa kyberzločinu, anonymity a technologických implementácií.

Oblasti výskumu:

  • Dohľad nad čiernymi trhmi: Vedci skúmajú trhoviská na dark webe, aby lepšie pochopili, ako fungujú a ako sa dá predchádzať takýmto nekalým aktivitám (Christin, 2013).
  • Výskum bezpečnostných technológií: Dark web funguje ako ihrisko pre testovanie nových anonymizačných a šifrovacích technológií.

Komunitné fóra a alternatívne využitia

Dark web tiež obsahuje komunity, ktoré nie sú spojené s kriminalitou. Tieto môžu byť fóra alebo platformy, kde sa ľudia zhromažďujú okolo rovnakých záujmov. Komunity, ktoré diskutujú o technológiách, spôsoboch ochrany súkromia alebo spoločenských témach.

4.5 Komunitné fóra a alternatívne využitia

Existujú tiež komunity na dark webe, ktoré sú prinajlepšom neutrálne. Sú to platformy alebo fóra pre rovnako zmýšľajúcich ľudí. Takéto komunity môžu diskutovať o technológiách a ochrane súkromia, alebo sa môžu sústrediť na sociálne otázky.

5. Mýty verzus realita

Okolo dark webu existuje veľa mýtov a mylných predstáv, zvyčajne kvôli nedostatku informácií alebo mediálnemu rozruchu.

5.1 Mýtus: Dark web je úplne anonymný

Mýtus o dark webe je, že ponúka úplnú anonymitu. Ale anonymita na dark webe závisí od množstva faktorov, vrátane toho, ako používateľ využíva nástroje ako Tor alebo kryptomeny. Tor a podobné anonymizačné technológie môžu udržať identitu používateľa v bezpečí, ale stále nie sú zárukou proti kompromitácii. Sú to technologické a ľudské chyby, nesprávne konfigurácie alebo bezmyšlienkovité správanie, ktoré môžu odhaliť identitu používateľa (Christin, 2013).

Napríklad v prípade Operácie Onymous, keď bolo zrušených niekoľko trhov na dark webe, orgány presadzovania práva úspešne vystopovali používateľov a administrátorov prostredníctvom zmesi technických a sociálnych metód (Décary-Hétu & Giommoni, 2017).

5.2 Mýtus: Celý dark web je kriminálny

Médiá poskytujú predstavu, že dark web je určený len na nelegálne aktivity, či už ide o dílerov drog, obchodníkov so zbraňami alebo pedofilov. Hoci takéto aktivity na dark webe existujú, nie sú jeho jediným obsahom. Ako bolo uvedené v kapitole 4 (Legitímne využitie dark webu), veľká časť dark webu je využívaná na legitímne účely.

5.3 Mýtus: Na dark web je jednoduché sa dostať a využívať ho

Mnohí považujú dark web za ľahko dostupný a bezpečný internetový svet, ktorý možno jednoducho používať. Toto myslenie však prehliada technickú zložitosť a riziká jeho fungovania v zákulisí. Aby mali používatelia prístup k dark webu, musia nainštalovať a nakonfigurovať softvér, ako je Tor, čo nie je vždy užívateľsky najpríjemnejší proces. Prekonfigurovaná identita môže viesť k odhaleniu (Rashid, 2017).

Okrem toho niektoré webové stránky na dark webe môžu obsahovať vírusy alebo škodlivý obsah, ktorý môže ovplyvniť zariadenia používateľa.

5.4 Mýtus: Dark web je obrovský a zahŕňa väčšinu internetu

Ďalšia mylná predstava je, že dark web tvorí hlavnú časť internetu a obsahuje viac dát, než si vieme predstaviť. (Tento názor pravdepodobne vznikol z toho, že si ľudia zamieňali dark web s deep webom.) Dark web je malá podmnožina deep webu. Deep web zahŕňa všetko, čo nie je indexované vo vyhľadávačoch, ako sú databázy, interné systémy a súkromné siete (Binns, 2016).

Bolo odhadnuté, že dark web tvorí menej ako 0,01 % z celkového obsahu internetu, ale má význam a vplyv, ktorý je neúmerný kontroverziám okolo neho.

5.5 Mýtus: Dark web je nezničiteľný

Dark web je niektorými vnímaný ako nepreniknuteľná oblasť mimo dosahu zákona. Neberú však do úvahy úspešné zásahy orgánov presadzovania práva. Uzavretie Silk Road alebo operácie ako Onymous ukazujú, že dark web nie je nezdolateľný. Tento dokument poskytuje historický kontext vývoja kyberkriminálnych aktivít a snáh o prerušenie týchto aktérov, ktoré zahŕňali identifikáciu kľúčových aktérov a zatvorenie niektorých z najväčších platforiem (Décary-Hétu & Giommoni, 2017).

To povedané, dark web je obzvlášť robustný a má tendenciu rýchlo sa prispôsobiť novým okolnostiam. Zakaždým, keď je jeden trh zatvorený, často je otvorený ďalší s lepšími bezpečnostnými postupmi.

Okolo dark webu krúžia mnohé nepravdivé tvrdenia, mnohé z nich prehnané a nereprezentatívne jeho skutočnú povahu. Je súčasne jedným z najneprehľadnejších miest na Zemi – je hojne spojený s „zločinom“ a anonymitou – ale samozrejme nie je „zločinný“ alebo „anonymný“. Existujú aj pomerne pozitívne využitia dark webu, ktoré by nemali byť prehliadané. V snahe porozumieť tomuto údajnému fenoménu internetu by sme mali oddeliť fakty od fikcie.

6. Právne aspekty a regulačné výzvy

Právna regulácia dark webu je dôležitou otázkou pri presadzovaní práva, aby sa bojovalo proti nelegálnej činnosti, ale aj aby sa reflektovali etické a právne výzvy. Zákony o kryptomenách, štatúty o anonymnom prehliadaní a zásahy proti nelegálnym aktivitám môžu hrať významnú úlohu v regulácii a pochopení dark webu. Rôzne krajiny a ich súdne systémy sa vzťahujú k existencii dark webu na základe problémov, ktorým čelia.

Právne výzvy

V mnohých z nich sú legislatívne rámce vytvorené na boj proti nelegálnym procesom, ktoré sa odohrávajú na dark webe, ako je pranie špinavých peňazí alebo predaj drog. USA a EÚ, napríklad, majú prísne regulácie týkajúce sa kryptomien, ktoré sa používajú na množstvo nelegálnych transakcií na dark webe. Ako uvádza Zohar (2017), právna regulácia na rôznych územiach bojuje o dosiahnutie optimálnej rovnováhy medzi ochranou súkromia a reguláciou/trestaním trestných činov spojených s používaním kryptomien a darknetu. Okrem toho sa veľká pozornosť venuje legislatíve o počítačovej kriminalite týkajúcej sa dark webu a právnym prekážkam, s ktorými sa stretávajú globálne autority, ktoré sa pokúšajú monitorovať nelegálne aktivity (Moore & Rid, 2016).

Zákony na ochranu súkromia

Ďalší názor na dark web je, že slúži na ochranu súkromia používateľov a pre niektorých používateľov môže byť jediným spôsobom, ako sa chrániť pred vládnym dohľadom a hromadným sledovaním. To vytvorilo právnu dilemu medzi ochranou súkromia a prevenciou trestnej činnosti. Brenner, S.W. a Kunder, C.M. (2015), Beztvárový počítačový zločinec: Navrhovanie zákona o počítačovej kriminalite bez podkopávania potreby poriadku, 39 [3] R. St. U. L. Rev. 793 (vysvetľujúc, že snaha zachovať anonymitu na internete je spojená so spoločenskými problémami, ktoré prichádzajú s možnosťou skrývať sa za obrazovkou, ako sú počítačové/kriminálne aktivity, čo vyvoláva debatu o vývoji zákonov o ochrane súkromia bez ničenia poriadku vo verejnom priestore). Na druhej strane, podľa Sharmana (2018) musí byť legislatíva navrhnutá tak, aby poskytovala rovnováhu medzi právom na súkromie a potrebou stíhať trestné činy v prípadoch zneužitia technologických nástrojov.

Záver

Dark web je mnohostranná, hoci často nesprávne chápaná súčasť internetu, ktorá spája rôzne aspekty sveta. Aj keď je známym pre nelegálne trhy a služby, ukazuje, že vo sférach, ktoré sú životne dôležité pre zabezpečenie základných ľudských práv, ako je sloboda prejavu a anonymita, má preukázateľné využitie. Mali by sme sa snažiť o viacnuansované pochopenie dark webu a vyhnúť sa jednostranným hodnoteniam, ktoré ho charakterizujú len ako liaheň kriminality. Jeho anonymizačné technológie — vrátane Tor a I2P — chránia novinárov, aktivistov a ľudí žijúcich v represívnych režimoch, ktorí by inak čelili cenzúre alebo prenasledovaniu. Ak je regulácia takejto činnosti skutočne zložitá, a výzvy v používaní aktivity dark webu na nelegálne účely sú rozmanité, je kľúčové dosiahnuť rovnováhu medzi ochranou súkromia v porovnaní s ochranou ľudí pred počítačovou kriminalitou. Aj keď dark web predstavuje určitú hrozbu, ukázal sa tiež ako odolný voči pokusom o zásah a preukázal proces neustálej adaptácie na tieto protiopatrenia. Keď sa technológie neustále vyvíjajú a v boji o ochranu dát sa už automatizujú, dark web sa pravdepodobne stane čoraz dôležitejší v oblasti digitálnej bezpečnosti a slobody prejavu. Napriek tomu, že táto aplikácia má svoje výhody, nemali by zatieniť nebezpečenstvá, ktoré predstavuje, najmä keď sú tam prítomné nelegálne aktivity. Dôsledné, vyvážené monitorovanie a regulácia v tejto oblasti sú dôležité, zabezpečujúce, že sa rovnakej dôležitosti prikladá ochrane súkromia, ako aj právu na prístup k informáciám. Na záver, dark web nie je len liaheň pre zločincov, ale je tiež významným nástrojom v úsilí o základné ľudské práva s technológiami, ktoré môžu uľahčiť transparentnosť a ochranu v globalizovanej spoločnosti.

Zdroje

Christin, N. (2013). Traveling the Silk Road: A measurement analysis of a large anonymous online marketplace. Proceedings of the 22nd International Conference on World Wide Web, 213-224. https://doi.org/10.1145/2488388.2488408

Aldridge, J., & Décary-Hétu, D. (2014). Not an ‚Ebay for Drugs‘: The cryptomarket ‚Silk Road‘ as a paradigm shifting criminal innovation. British Journal of Criminology, 54(4), 688-709. https://doi.org/10.1093/bjc/azu063

Moore, D., & Rid, T. (2016). Cryptopolitik and the Darknet. Survival, 58(1), 7-38. https://doi.org/10.1080/00396338.2016.1142085

Berge, E. (2014, November 3). The Silk Road: A timeline of an online drug marketplace. Wired. Retrieved from https://www.wired.com

U.S. Department of Justice. (2015, May 29). Ross Ulbricht sentenced to life in prison. U.S. Department of Justice. Retrieved from https://www.justice.gov/opa/pr/ross-ulbricht-sentenced-life-prison

Décary-Hétu, D., & Giommoni, L. (2017). Do police crackdowns disrupt drug cryptomarkets? A longitudinal analysis of the effects of Operation Onymous. Crime, Law and Social Change, 67(1), 55-75. https://doi.org/10.1007/s10611-016-9644-4

Zetter, K. (2013, June 10). The dark web’s role in WikiLeaks and digital activism. Wired. Retrieved from https://www.wired.com/2013/06/dark-web-wikileaks/

Soska, K., & Christin, N. (2015). Measuring the longitudinal evolution of the online anonymous marketplace ecosystem. Proceedings of the 24th USENIX Security Symposium, 33-48. https://www.usenix.org/system/files/conference/usenixsecurity15/sec15-paper-soska-updated.pdf

Bernstein, D. J. (2015). The architecture of Tor: The onion routing system. ACM Transactions on Information and System Security, 18(4), 1-17. https://doi.org/10.1145/2790033

Binns, A. (2016). The hidden world of dark web marketplaces. Journal of Financial Crime, 23(1), 56-74. https://doi.org/10.1108/JFC-03-2015-0021

Rashid, F. Y. (2017). I2P: Invisible Internet Project as an alternative to Tor. Proceedings of the 14th International Conference on Network and Service Management, 128-133. https://doi.org/10.1109/CNSM.2017.8490630

Zohar, A. (2017). Monero: The future of cryptocurrency and privacy. Journal of Financial Cryptography, 21(3), 215-234. https://doi.org/10.1007/s10207-017-0357-4

Brenner, S. W., & Kunder, S. (2015). Dark Web crime and law enforcement: A global approach. Journal of Law and Cyber Security, 3(4), 78-92. https://doi.org/10.1093/jlcl/cxx034

Sharman, J. (2018). Cryptocurrencies, crime, and law enforcement. Journal of Financial Crime, 25(3), 574-588. https://doi.org/10.1108/JFC-01-2017-0015

Partman, T. (2023). Nelegálne trhy na Darkwebe (Bakalárska práca). Masarykova univerzita. https://is.muni.cz/th/ojkfa/partman_tomas-cierne_trhy_na_darkwebe_455513_partman_nal.pdf

AI optimalizace CI a využití prompt engineeringu

0
pattern, squares, colorful, background, perspective, intersections, book scrapping, texture, grid, mosaic, tessellation, composition, depth, symmetry, repetition, alignment, overlay, layering, geometry

Úvod

Pod pojmem konkurenčního zpravodajství (angl. Competitive Intelligence, dále jen CI) rozumíme proces shromažďování, analýzy a následné interpretaci informací no nově zjištěná fakta (Bloomenthal, 2022). CI může být dobrou pomůckou jednotlivcům, no pro firmy je důležité pro pochopení a navigaci v konkurenčním prostředí. Tento proces se zaměřuje na analýzu trhových trendů, sledování konkurenční činnosti a identifikaci faktorů, které mohou ovlivňovat pozici organizace na trhu. Následná identifikace rizik a nových příležitostí přináší benefity pro strategické rozhodování.

CI proces je ale s narůstajícím objemem dostupných dat a zvyšující se komplexností trhů, tradiční metody průzkumu a analýz se stávají méně efektivními. V tomhle kontextu se může umělá inteligence (angl. Artificial Intelligence, dále jen AI) jeví jako skvělý nástroj na zlepšení a optimalizaci CI. Od zautomatizování sběru volně přístupných dat po jejich analýzu. AI může také nacházet skryté vzorce chování trhu mezi milióny záznamy (Walton, 2024), nebo přesněji navrhnout model pro predikci budoucího stavu (Mike, 2021), které by člověk za svůj život nenašel.

S využitím AI se ale ponouká taky otázka na její správné využití a optimalizaci. Tuto otázku může zčásti odpovědět disciplína dotazového inženýrství (angl. Prompt Engineering), která je zaměřená na návrh a zefektivnění neboli optimalizaci vstupu pro generativní AI modely, jako třeba velké jazykové modely (angl. Large Language Model, dále jen LLM) (Bozkurt, 2024). Cílem je tedy prozkoumat, jak může AI a prompt engineering společně pomoci optimalizovat a zlepšit procesy CI. Představíme možné oblasti implementace AI technologií za pomoci technik prompt engineeringu a poskytneme doporučení pro jejich integraci do CI procesů. Aby organizace mohly plně využít jejich potenciál. Tento přístup by měl společnostem umožnit rychlejší a přesnější rozhodování, lepší pochopení konkurenčního prostředí a zvýšenou adaptabilitu na tržní změny.

Role AI v optimalizaci CI

AI přináší do procesů CI zásadní změny z pohledu rychlosti zpracovávání dat a také jejich objemu. Přináší taky schopnost identifikace vzorů a poskytnutí predikce budoucího vývoje trhu (Taherdoost & Madanchain, 2023)
. Tato kapitola podrobně popisuje klíčové oblasti uplatnění AI v CI:

  • Automatizovat sběr dat: Nástroje jako Meltwater nebo Crayon sledují média a webové stránky konkurence v reálném čase.
  • Analyzovat data: Algoritmy strojového učení identifikují trendy, korelace a nové příležitosti ve velkých datových souborech.
  • Predikovat budoucí vývoj: Modely jako Prophet umožňují odhadnout sezónní výkyvy nebo změny na trhu.

Na tyto jednotlivé role se může použít škála modelů a typů AI, mezi základné rozdělení a budeme uvažovat následující:

  • Strojové učení (angl. Machine Learning) – Zpracování historických dat, analýza konkurence, identifikace vzorů a generování predikcí.
  • Zpracování přirozeného jazyka (angl.Natural Language Processing) – Dovoluje analýzu a interpretaci textu z různých zdrojů jako články, sociální média nebo dokumenty. Může sloužit na analýzu sentimentu nebo sumarizaci správ a automatické generování přehledů.
  • Generativní AI – Modely LLM, jako GPT-4, produkují textové výstupy na základě dotazů. Mohou automatizovat generování CI analýz nad velkým množstvím dat, dále simulovat tržní situaci a predikci dopadů plánovaných změn. Generování personalizovaných reportů a analýz nejvíce ovlivňuje správné zadávaní dotazů – prompt engineering.
  • Prediktivní modely – Je konkrétní kombinace machine learningu a statistických modelů k odhadování budoucnosti na základě historických dat.
  • Počítačové viďení (angl. Computer Vision) – Může pomoct monitorovat, analyzovat a interpretovat produktových změn na stránkách konkurence, analýza reklamních kampaní nebo analýza zákaznických reakcí z veřejných prezentací.

Každý z uvedených podtypů AI přináší unikátní funkcionality pro zlepšení CI, no dopady jejich použití se dají shrnout do 3 výstupů:

  • Zrychlení analýzy.
  • Přesnost predikcí.
  • Komplexní pohled na trh.

Avšak je nutno dodat, že takovéto použití modelů je třeba brát se zodpovědností a nenasazovat nové modely bez rozmyslu a rozsáhlého testování. Nejnovější zjištění ukazuje schopnost LLM modelů, jako o1, Claude 3.5 Sonnet, Claude 3 Opus, Gemini 1.5 Pro, and Llama 3.1 405 B, jsou do jisté míry klamat a ohýbat pravdu na základě nekalé práce s daty pro jejich vlastní prospěch (Meinke, Schoen, & spol., 2024).

Automatizace sběru dat

Automatizace tohoto proces je klíčové, snižuje totiž zátěž lidských analytiků a zrychluje proces CI. Mezi již existující nástroje můžeme zařadit:

  • Meltwater – Monitoruje média a analýza sentimentu v reálném čase. Zahrnuje škrábání dat z webů (angl. Web Scraping) správ, blogů a sociálních sítí.
  • Crayon – Monitoruje konkurenci, změny na webu, marketingové a PR kampaně.
  • Talkwalker – Specializace na sledování sociálních sítí a analýzu názoru veřejnosti.

Automatizace umožňuje sběr dat v reálnem čase, které mohou být ihned zpracovávány, což poskytuje rychlejší a přesnější podklady pro strategické rozhodování (Taherdoost & Madanchain, 2023).

Analýza dat

AI umožňuje hlubší analýzu dat pomocí strojového učení a pokročilých algoritmů, v reálném čase. Tyto schopnosti mohou poskytnout konkurenční výhodu prostřednictvím identifikace trendů a korelací které jde vidět jen z pohledu na miliony záznamů. Přičemž existuje množství nástrojů zaměřených na analýzu sociálních trendů (Skill Upwards, 2023):

  • Brandwatch.
  • Hootsuite Insights.
  • Crimson Hexagon.
  • Sprout Social.
  • NetBase Quid.

Tyto nástroje nabízejí širokou škálu funkcí, jako je analýza sentimentu, sledování zmínek o dané značce nebo monitorování trendů, a to vše rovněž jak při sběru dat, jde dělat v reálnem čase. AI algoritmy dokážou také segmentovat trhy a zákazníky dle podobnosti chování, což umožní přesněji cílit marketingové kampaně (Bhagat, Singh, Bhandari, & Lal, 2024). Tyto techniky dokážou detekovat jinak skryté vzory a následnou smysluplnou segmentaci zákazníků, která by běžnému lidskému analytikovi unikla.

Prediktivní analytika

Prediktivní modely na bázi AI již pomáhají společnostem odhadovat budoucí chování trhu, vývoj konkurence a preference zákazníků. Dovolí nám tedy předem přizpůsobit naši strategii na základě datových predikcí (Taherdoost & Madanchain, 2023). Mezi také modely patří například:

  • Prophet (open-source model od Mety) – Ponouká predikci časových radů, jako jsou sezónní výkyvy cen u konkurence a predikovat změnu poptávky na trhu.
  • H20.ai – Na základě strojového učení modeluje trhové podíly konkurence a dokáže předpovědět jejich vývoj.

Tento druh analytiky nám tedy umožňuje nejen reagovat na trhové změny, ale také aktivně předcházet a připravit se na potenciální hrozby.

Výzvy implementace AI v CI

Implementace AI v CI přináší revoluční změny, no čelí vícerým výzvám i etickým otázkám:

  • Závislost na technologiích – Spoléhání na AI může vést k ztrátě know-how, nebo i úplné eliminaci analytických schopností.
  • Etické problémy – Sběr a prodej osobních údajů nebo sledování zákazníků, může vyprovokovat zpřísnění legislativy na ochranu soukromí a GDPR.
  • Šum dat – Velký množství nerelevantních a nepřesných údajů, analyzované za vidinou skrytého vzorce chování, může zcela skreslit analýzu a vést k chybným závěrům.
  • Zaujatost dat – Jestliže bude AI trénované na zaujatých datech, analýza a predikce mohou vést k nesprávným nebo neetickým výstupům.

Dnešní technologický výzkum ukazuje, že tyto technologie bude muset dříve nebo později většina společností, pro zachování konkurence schopnosti. Je teda nutné dbát na to, aby byli tyto problémy řešeni předem a aby se AI v rámci CI nevyužívala neetickým způsobem (Poth, 2020).

Potenciál prompt engineeringu v CI

Dle definice se prompt engineering opisuje jako soubor klíčových zručností pro efektivní interakce s LLM modely. Poskytuje instrukce, které prosazují pravidla, automatizují procesy a umí také zabezpečit požadované výstupní vlastnosti (White & spol., 2023).

Tato disciplína se tedy zaměřuje na návrh a optimalizaci vstupních dotazů pro generativní AI modely (angl. prompt). Cílem je dosáhnutí požadované vstupy, které budou co nejvíce relevantní. V praxi jde o starostlivou formulaci instrukcí, otázek nebo popisů, kterých účel je usměrnit AI model k vyprodukování kvalitního výstupu (IBM, 2024). Tato disciplína, při dostatečném výzkumu a vzdělávání, může pomoct k dosáhnutí plného potenciálu AI (Černý, 2024).

Při získávaní informací o konkurenci pro strategické rozhodování, může prompt engineering výrazně zvýšit efektivitu a přesnost získávaných poznatků. Správně navržené prompty umožňují AI modelům efektivněji identifikovat relevantní informace. Pro pochopení prompt engineeringu a zlepšení našich požadavků, nám podle článku (Altus, 2024) může pomoct i tato sada pravidel:

  • Konkrétnost – Je důležité být konkrétní nebo upozornit co nechceme.
  • Kontext – Jak bude odpověď použita, v jakém kontextu je náš dotaz.
  • Zadání role – Stanovení role, jak má AI vystupovat a nahlížet na problém.
  • Jasnost a stručnost – Rozdělení úkol na kroky a odstraňme nejasnosti.
  • Příklady – Jestli jde o komplexní problém, pomůže příklad výstupu, který očekáváme.
  • Formát – Stanovení formátu, délky výstupu.
  • Iterování – Tvorba správného výstupu může trvat několik iterací. Můžeme iterovat úplně od nuly nebo můžeme vypíchnout dobré a špatné části.

Tato sada pravidel je užitečná no ne vždy potřebná a existuje mnohem víc technik. Každá má své využití a přístup při tvorbě dotazů (viz. Tabulka 1) (Aryani, 2023).

#NázevPopis
1Zero-Shot učeníZadání úkolu bez předchozích příkladů. Podrobný popis výstupu bez předchozích znalostí AI o daném úkolu
2One-Shot učeníS výzvou uvedeme jeden příklad, pro pochopení kontextu a formátu, který očekáváme.
3Few-Shot učeníPoskytnutí několika příkladů (2–5), pro pochopení vzoru nebo stylu odpovědi.
4Chain-of-ToughtZažádáme o detailní popis myšlenkového pochodu krok za krokem. Využití má při složitých argumentačních úlohách.
5Iterativní dotazováníJde o proces vedení AI k požadované odpovědi skrz několik iterací.
6Negativní dotazováníŘíkáme, co AI dělat nemá, například určíme, jaký obsah v odpovědi nemá být.
7Hybridní dotazováníKombinujeme různé metody a několikanásobný myšlenkový řetězec.
8Dotazovací řetězeníRozložíme složitý úkol na menší podněty a následně řetězíme výstup do konečné odpovědi.
Tabulka 1 přehled 8 technik dotazování (Aryani, 2023)

Role a využití prompt engineeringu v CI

Prompt engineering v CI může organizacím umožnit využívaní generativní AI pro efektivnější a přesnější analýzu konkurenčního prostředí. Systematickým navrhováním vstupů můžeme více stabilizovat výstupy LLM modelů, jako jsou GPT-4, Claude nebo LLaMA, k vytváření kvalitních, kontextově relevantních výstupů, které optimalizují CI procesy. Překlenuje tak propast mezi lidským záměrem a výstupem AI. Může přizpůsobit generativní schopnosti dle konkrétních cílů CI které chceme dosáhnout.

Zlepšení sběru dat

Upřesněním datových zdrojů můžeme pomoct AI extrahovat jen relevantní data z
rozsáhlých nestrukturovaných zdrojů. Například zaměřením jen na konkrétní typ dat, jako jsou zpravodajské články, tržní zprávy a příspěvky na sociálních sítích.

Techniky, jako je Chain-of-Tought, nám umožní postupné shromažďování informací, což zvyšuje jejich spolehlivost (Chen, Zhang, Langrené, & Zhu, 2024).

Analýza dat

Integrací komplexních dotazů, které budou AI vést logickým uvažováním, můžeme lépe izolovat vhodná data a odvozovat trendy, korelace z rozsáhlých souborů dat, které by při manuální analýze byly často přehlédnuty. Například nastavením role AI při analýze, můžeme simulovat odborný pohled z více perspektiv a vytvořit tak hlubší hodnocení konkurence (Bozkurt, 2024).

Strukturované dotazy umožní LLM vytvoření matice neboli SWOT analýzy z vícerých zdrojů dat. Podněty typu Zero-Shot nebo Few-Shot mohou vést AI modely k vyhodnocení kampaní bez rozsáhlý potřeby trénovaní.

Usnadnění predikce

Pokročilé dotazy mohou pomoct nasměrovat AI k předpovědi trendů v odvětví nebo
předvídání chování konkurentů na základě známých finančních vzorců, dle historického vývoje dané společnosti a také simulace, kdyby se firma chovala jako unicorn nebo korporát.

Prompt engineeringem můžeme také simulovat různé trhové podmínky a připravit se na různé scénáře. Například podněty na stav trhu s vlnou nové pandemie, nebo zhoršení podmínek a inflace v krajině.

Výzvy implementace prompt engineeringu v CI

V implementací prompt engineeringu se krom problému imlpementace AI potýkat také se sadou nových problémů. Jedním z kritických je riziko neobjektivního nebo neúplného výstupu v důsledku chybného návrhu dotazu. Na řešení těchto problémů budou muset organizace přistoupit systematicky a jedním z prvých kroků bude vyškolení týmu v pokročilých technikách prompt engineeringu. Součástí by měla také být sada etických usměrnění pro používání údajů a interakci s AI. Možností je i také doporučení technik nebo konkrétní struktura pro formulaci dotazů. Posledním problémem je taky potřeba ověřování výstupů AI, pro zabezpečení jejich spolehlivosti. Jelikož podobný druh dotazů by měl dávat podobné výsledky.

Závěr

Optimalizace procesů CI za pomoci AI a technik promp engineeringu, představuje
revoluční přístup k analýze konkurenčního prostředí. V praxi již vidíme mnoho firem, které se orientují na sledování a sběr dat nebo i následnou analýzu pro potřeby CI. Můžeme tedy předpokládat, že s technologickým vývojem se i procesy CI z větší části plně automatizují a na lidech ostane jenom kontrolní část výstupů AI.

Tato optimalizace umožní rychlejší a efektivnější zpracování velkých objemů dat. Můžeme očekávat posun a další vývoj automatizace sběru dat, následnou analýzu a predikční modely. Tyto technologie již zvyšují schopnost předvídat trendy a chování konkurence. Zároveň je třeba přistupovat k adaptaci nových modelů zodpovědně a nasazovat jen plně otestované modely.

No i když tyto technologie přinášejí výrazné výhody, je klíčové přistupovat k jejich implementaci s důrazem na transparentnost, etiku a neustálé vzdělávání. Další výzkum a rozvoj těchto technik budou nezbytné pro jejich plné využití a maximalizaci přínosů pro společnost.

Zdroje

Altus, A. (21. August 2024). Outshif. Načteno z Prompt intelligence vs. prompt engineering:
Understanding the differences: https://outshift.cisco.com/blog/prompt-intelligenceversus-prompt-engineering
Aryani, A. (2. December 2023). Medium. Načteno z 8 Types of Prompt Engineering:
https://medium.com/@amiraryani/8-types-of-prompt-engineering-5322fff77bdf
Bhagat, A., Singh, N., Bhandari, P., & Lal, Y. A. (2024). AI-Powered Customer Segmentation For
Marketing.
Bloomenthal, A. (31. December 2022). Competitive Intelligence: Definition, Types, and Uses.
Načteno z Investopedia: https://www.investopedia.com/terms/c/competitiveintelligence.asp
Bozkurt, A. (2024). Tell Me Your Prompts and I Will Make Them True: The Alchemy of Prompt
Engineering and Generative AI. Anadolu University, Türkiye.
Černý, J. (2024). Prompt Engineering: Tactics and Techniques in Open-Source Intelligence.
Journal of Information Warfare. Načteno z Prompt Engineering: Tactics and Techniques in
Open-Source Intelligence: https://www.jinfowar.com/journal/volume-23-issue3/prompt-engineering-tactics-techniques-open-source-intelligence
Chen, B., Zhang, Z., Langrené, N., & Zhu, S. (2024). Unleashing the potential of prompt
engineering in Large Language Models: a comprehensive review.
IBM. (2024). IBM. Načteno z What is prompt engineering?: https://www.ibm.com/topics/promptengineering
Jennewine, T. (2. December 2024). Nasdaq. Načteno z Prediction: Nvidia Stock Will Soar in 2025,
and Not Just Because the AI Boom Is Building Steam:
https://www.nasdaq.com/articles/prediction-nvidia-stock-will-soar-2025-and-not-justbecause-ai-boom-building-steam#:~:text=nvda%20%2D1.81%25-
,Prediction%3A%20Nvidia%20Stock%20Will%20Soar%20in%202025%2C%20and%20N
ot%20Just,AI%20Boom%20Is%20Building%20Steam&
Meinke, A., Schoen, B., & spol., a. (2024). Frontier Models are Capable of In-context Scheming.
Mike, K. (15. December 2021). Marketing Artificial Inteligence Institute. Načteno z AI for
Competitive Intelligence: What You Need to Know:
https://www.marketingaiinstitute.com/blog/ai-for-competitive-intelligence
Poth, R. (2020). Implementation of Artificial Intelligence and Machine learning in Financial
services. International Journal of Engineering and Technology, 3186-3193.
Skill Upwards. (4. July 2023). Skill Upwards. Načteno z Top 7 AI Tools for Analyzing Social Media
Trends: https://skillupwards.com/blog/ai-tools-for-analyzing-social-media-trends
Taherdoost, H., & Madanchain, M. (2023). Artificial Intelligence and Sentiment Analysis: A
Review in Competitive Research. Artificial Intelligence Models, Tools and Applications
with A Social and Semantic Impact.
13
Walton, A. (8. May 2024). Competitive Intelligence Alliance. Načteno z What competitive
intelligence tasks is AI good for?: https://www.competitiveintelligencealliance.io/aicompetitive-intelligence-tasks/
White, J., & spol., a. (2023). A Prompt Pattern Catalog to Enhance Prompt Engineering with
ChatGPT.

Rizika umělé inteligence, o nichž se tolik nemluví. Reaguje na ně lépe evropská či americká legislativa?

0
UI
UI

Úvod

V poslední době se v mediálním prostoru velmi často objevuj diskuze o nebezpečí umělé inteligence. Ta bývá definována jako „technologie, jež umožňuje počítačům a strojům simulovat lidské učení, porozumění, řešení problémů, rozhodování, kreativitu a samostatnost“ (Stryker, 2024) (pro stručnost bude nadále používána zkratka UI). V praxi je to ovšem o dost složitější – je to kombinace různých moderních nástrojů, které dokážou díky aktuálnímu technologickému pokroku pracovat s daty rychleji než kdy dříve. Většinou se jedná o nejrůznější aplikace pokročilých modelů strojového učení, modelů na statistické zpracování textu NLP, metod zpracování big data a konečně LLM, které se díky společnostem jako OpenAI, Google nebo Microsoft staly tím, co si lidé pod termínem UI nejčastěji představí.

Největším pokrokem UI je, že na rozdíl od předešlých technologií nejsou výpočetním jednotkám pomocí programovacích jazyků zadávány velmi specifické příkazy, ale namísto toho byl vytvořen software, který se sám učí z dat, která mu jsou poskytnuty. Zde ovšem nastává problém, který stojí za velkou částí rizik, která jsou s UI spojována – je definován jako tzv. černá skříňka těchto algoritmů. Zjednodušeně řečeno se jedná o místo, v němž si kvůli složitosti algoritmu ani sami vývojáři nemohou být jisti, co program s poskytnutými daty dělá, a tím pádem také, jak bylo dosaženo daného výsledku. (Blouin, 2023)

Součástí této práce bude právě zamyšlení nad potřebou regulace UI. Nejprve stručně představí aktuální právní vývoj, pak se hlouběji ponoří do některých rizik, která tato technologie přináší, zároveň představí i konkrétní právní úpravy z Evropské unie a Spojených států amerických a závěr bude tvořit diskuze pojednávající o tomto tématu.

Metodika

Pro hledání primárních zdrojů, sloužících k zorientování se v tématu a případně uvádění konkrétních informací, byly používány převážně open data databáze vědeckých publikací Web of Science a Google Scholar. Pro hledání ostatních odborných článků, které jsou v práci v hojné míře též zastoupeny, byl použit standardní prohlížeč Google Chrome. Všechny zdroje, z nichž jsou citovány konkrétní informace, jsou uvedeny jak v průběhu práce, tak na konci v seznamu použité literatury.

Pro potřeby práce byly využívány také LLM ChatGPT 4o a ChatGPT 3.5. Ty byly používány především za účelem tvoření nápadů pro specifikaci tématu práce, dále pro upřesnění struktury a na konci i ke zpětné vazbě na stylistiku a gramatickou správnost textu. Pro sumarizování odborných textů byla místy používána webová aplikace NotebookLM.

Současný vývoj právních úprav

EU

Evropský parlament 13. března 2024 schválil tzv. EU Artificial Intelligence ACT, který od srpna postupnými kroky nabývá na platnosti. Jeho cílem je zajistit bezpečné a etické využívání UI. Jedná se mimochodem o první komplexní právní úpravu na světě. Základním principem této normy je rozdělení konkrétních užití podle rizikovosti, vymezuje tak čtyři kategorie:

  • Minimální nebo žádná rizika – systémy podléhající minimální regulaci, patří sem např. využití UI ve videohrách či ve spam filtrech.
  • Omezená rizika – většinou aplikace, které interagují přímo s uživateli, jsou zde třeba chatboti či systémy na rozpoznávání lidských emocí.
  • Vysoká rizika – často systémy využívané v kritických sektorech jako zdravotnictví, doprava, školství, pojišťovnictví, hraniční kontroly nebo soudnictví. Musí splňovat přísné požadavky, např. na transparentnost, lidský dohled a robustnost.
  • Nepřijatelná rizika – sem patří technologie UI, které mají být v EU zakázány úplně, například systémy social scoringu, nebo UI, která má za úkol manipulovat za účelem zneužití. (European Comission, 2024)

Kromě AI Actu lze zmínit např. Data Act, který se má zaměřovat na sdílení a ochranu dat potřebných pro vývoj UI, dále pak Digital Services Act (DSA) a Digital Markets Act (DMA), které mají regulovat online služby. Vedle toho stojí pochopitelně i nařízení o ochraně osobních údajů GDPR, které je platné už od roku 2018 a na které je také třeba brát zřetel. (Kosling, 2024)

USA

Regulace UI v USA se od toho v EU poměrně liší. Současný přístup je rozdělen mezi několik klíčových iniciativ především na federální úrovni, zahrnující jak legislativní návrhy, tak výkonné nařízení prezidenta Bidena. Ten vydal v roce 2023 výkonné nařízení, které stanovilo rámec pro řízení rizik spojených s UI, zejména v oblastech bezpečnosti, občanských práv a ochrany soukromí. Mezi klíčová opatření patří např.: povinnost vývojářů sdílet výsledky bezpečnostních testů UI a informace o rozsáhlých výpočetních systémech s Ministerstvem obchodu, posouzení rizik UI v kritické infrastruktuře (např. energetické sítě, doprava, telekomunikace apod.), dále pak podpora inovací prostřednictvím Národní výzkumné infrastruktury pro AI, která poskytuje přístup k výpočetní kapacitě a datům pro výzkumné pracovníky.

Tyto a další kroky mají zajistit, aby byla i v USA UI využívána bezpečně a transparentně, přičemž se klade důraz na mezinárodní konkurenceschopnost USA. O dalších již schválených zákonech, nebo alespoň těch v procesu schvalování, bude řeč v průběhu práce. (White & Case, 2024)

Rizika spojená s využíváním UI a jejich právní reakce

Predictive policing

Policie by měla pro potlačování zločinnosti používat všechny dostupně nástroje. Problém ovšem nastává, když se tyto nástroje zabývají prediktivní analýzou – podezřelý člověk by měl zůstat nevinný do doby, než je mu prokázána vina. Tyto státní složky mohou mít z logického důvodu iniciativu používat pokročilé modely strojového učení, aby dokázaly předpovědět konkrétní zločin ještě předtím, než se sám stane. Za tímto účelem by tedy mohly chtít mít přístup k nejrůznějším datům o běžných lidech (pravděpodobně bez jejich souhlasu) – biometrická data, záběry z veřejných prostor apod. – na jejichž základě jsou schopny předpovídat další informace. (Vestby, 2019)

Dalším nebezpečím je pochopitelně riziko falešné identifikace. Tedy podezření a následné zadržení člověka ještě předtím, než daný trestný čin spáchá – pochopitelně s rizikem, že se o zločince vůbec nejedná. Takový případ se stal např. v michiganském Detroitu – více v (Hill, 2020).

Právě této problematice se mimo jiné věnuje i jedna část evropského AI Actu. V ní je zakázáno shromažďování právě těchto dat za účelem předpovídání trestního chování obyvatel, jelikož by „lidé měli být souzeni pouze podle jejich skutečného chování.“ (Verte, 2024)

Ovlivňování voleb

Součástí demokracie a voleb je důvěra v systém, tedy že každý hlas má cenu, a důvěra v informace, jež voliči o kandidátech dostávají. Něčím, co se může stát a co se ve skutečnosti již děje, ale zatím pouze v raných fázích, je ovlivňování výsledků voleb pomocí technologie deepfake. Toto je pochopitelně téma, jemuž by se mohla věnovat celá série prací, mnohem rozsáhlejších, než je tato. Každopádně se stává stále jednodušším vytvořit stále uvěřitelnější videa, která vypadají jako politici, světoví lídři či třeba celebrity říkající věci, jež nikdy nevyřkli.

Podle MIT Technology Review (Heikkilä, 2024) je zatím tato technologie v ovlivňování voleb nebo rozšiřování dezinformací překvapivě nikoliv tak účinná. To se ovšem v následujících letech pravděpodobně změní. Důvodem dosavadní menší efektivity může být třeba i to, že se lidé museli pokaždé přizpůsobovat vývoji uplynulých desetiletí – střih videa, upravování analogových i digitálních fotografií. Lidé se tak dlouhé roky učili, že by neměly věřit všemu, co v mediálním prostoru vidí. Což ve výsledku ovšem znamená, že se stále učí více a více podezírat a nedůvěřovat věcem kolem nich. To posléze vede ke ztrátě důvěry v instituce, a tím pádem i v demokratický systém samotný.

I v tuto oblast upravuje AI Act. Ten požaduje, aby každý, kdo deepfake technologie využívá, do finálního výstupu zakódoval neviditelný watermark, jenž není pouhým okem vidět, ovšem který dokáže specializovaný software detekovat a poznat tak, že se nejedná o reálnou nahrávku. Podobně to má fungovat i pro každý jiný obsah generovaný pomocí UI. (FRESHFIELDS, 2024)

Tentokrát ovšem vydaly právní úpravu též Spojené státy americké, respektive pouze jejich část, Kalifornie. Tam bude od začátku roku 2026 platit zákon nařizující velkým online platformám jako YouTube či Facebook, aby našly a označily uměle vytvořená média. Za určitých podmínek je dokonce zcela zakázáno sdílet jakýkoliv obsah související s volbami, který byl vytvořen nebo upraven pomocí UI. (Kourinian, 2024) (Levi, 2024)

Social scoring

Dalším nástrojem státní instituce může být tzv. social scoring, tedy nástroj, díky němuž může kontrolovat své obyvatele či diskriminovat konkrétní skupiny. Takový systém by sledoval, jak se lidé chovají v online i offline světě, a na tomto základě by byl schopen každému jednotlivci přiřadit osobní skóre. Na základě informací typu splácení půjček, přispívání na charitu, trestní minulost, či dokonce postoje a vyjadřování vůči danému režimu by tak byl člověk zvýhodňován, nebo by mu naopak byly upírány některé svobody – např. přístup ke studiím, půjčkám, možnost využívat některé služby atd.

Něco na tento způsob se v praxi běžně používá, kupříkladu banky prověřují klienty, zda jsou schopni splácet své závazky. Problém ovšem nastává, pokud se toto rozhodne aplikovat vládní instituce, a to nejen v konkrétním sektoru, ale obecně, a navíc k tomu začne používat technologie umělé inteligence.

Takovýmto příkladem může být třeba často zmiňovaná Čínská lidová republika. Podle tohoto systému je člověku na základě téměř neustálého sledování přiřazeno skóre mezi 600 a 1 300. Každému je na začátku přiděleno skóre 1 000 a podle toho, jak se daný člověk chová, mu může být například přiděleno, do jak kvalitní školy může chodit jeho dítě, jakou práci může vykonávat, do jakých částí země smí cestovat či zda může používat letadla a vysokorychlostní vlaky. Tento systém zatím není plně centralizovaný a není ani užíván na celém území Číny, ale se stále se zrychlujícím technologickým pokrokem není vyloučeno, že právě takto bude vypadat budoucnost nejen Číny, ale i ostatních autoritářských režimů. (Velocity Global, 2023)

Podobné ohrožení osobních svobod ale nemusí představovat pouze totalitní režimy. K podobným datům by se mohli dostat např. zaměstnavatelé, kteří by mohli začít sami nechávat neustále sledovat své zaměstnance a na základě pozorování následně předpovídat, kdo je či není vhodný pro povýšení, ba dokonce zda-li nezaměstnat někoho jiného. Podobně by mohly fungovat třeba přihlášky na školy – systém by sám o sobě zjistil (popř. by mu tyto údaje poskytnul přímo uchazeč) informace o motivaci, zájmech, nadání, aktivitě na sociálních sítích apod. a na jejich základě by dokázal mnohem lépe než člověk zjistit, zda je adept vhodný.

To zní na jednu stranu poměrně dystopicky, na druhou stranu by to bylo velmi efektivní, pokud bychom dokázali eliminovat lidské chyby a zaujatost, a mohlo by to pomáhat lidem dostat se na tu správnou školu nebo do vhodného zaměstnání, což by pochopitelně vedlo i k prospěchu ekonomickému, a to jak pro jednotlivce, tak pro firmy a státy. To ovšem pouze v případě, že budou tyto algoritmy nastaveny správně. Problém je v tom, že výsledky UI mohou být také zkresleny, a to na základě dat, které jsou modelu poskytnuty. A tyto zkreslené výsledky nejsou lidé schopni odhalit právě kvůli oné černé skříňce UI.

I na tuto oblast se zaměřil tým stojící za AI Actem, podle nějž je jakákoliv podoba social scoringu zařazena do kategorie s nepřijatelným rizikem. „Systémy UI nelze používat za účelem klasifikování nebo zařazování lidí do určitých kategorií dle toho, jak se chovají ve společnosti.“ (Minty, 2024)

Válečné účely

Neposlední otázkou je, jak moc autonomně necháme tyto systémy fungovat a také jaké funkce je necháme přímo řídit. Tato otázka se řeší asi nejvíce v armádních záležitostech. Pokročilé modely strojového učení jsou přitom o dost úspěšnější a přesnější než lidské schopnosti, když jde o vyhodnocování velkého objemu informací, což je v krizových situacích jako válka klíčové a pro lidi také velmi složité. Dnes už dokonce ani není otázkou času, kdy se začnou tyto systémy používat v praxi ve velkém. Kupříkladu lidmi z amerického ministerstva obrany již byly předneseny plány na zvýšení využívání potenciálu těchto systémů a na nové pojetí války. (Hiebert, 2024)

Důležitější otázkou tedy spíše je, nakolik budou obranné složky UI důvěřovat a kolik armádních zařízení jí nechají bez dohledu člověka řídit. Problém opět nastává u té tolikrát zmiňované černé skřínky. Ve chvíli, kdy totiž autonomní zbraň začne kupříkladu střílet po někom, po kom by neměla, nastává velký problém. A právě tomuto se mimo jiné věnuje opět jedna americká úprava, která je projednávána v senátu zvaná Block Nuclear Launch by Autonomous AI Act. Ta se tedy zaměřuje pouze na jaderné zbraně a zákaz, aby je mohla jakkoli ovládat UI. Podobné návrhy jsou diskutovány i v dalších státech. (Robertson, 2023)

Kritická infrastruktura

Kritickou infrastrukturou se označují sektory nutné pro fungování systémů, které zajišťují běžný chod domácností, firem i států. Může to být např. energetická, dopravní, vodárenská, telekomunikační infrastruktura, ale třeba i zdravotnictví, pohotovostní služby, zemědělství, zajišťování potravin apod. Je velmi pravděpodobné, že mnohé z těchto potřebných systémů budou v budoucnu více a více kontrolovat systémy na bázi UI, což povede k optimalizaci procesů, a tím pádem větší efektivitě a spolehlivosti.

Na jednu stranu se tedy nabízí příležitost zefektivňování mikroprocesů a třeba i mnohonásobně lepšímu fungování, na druhou stranu to s sebou opět nese i rizika. Nejočividnější může být situace, kdy například z důvodu přírodní katastrofy nebude dostatek elektrické energie pro chod těchto velmi energeticky náročných algoritmů, na nichž by byla kritická infrastruktura zcela závislá. I proti tomuto může ovšem pomoci kombinace zpracování big data a metod strojového učení – UI dokáže velmi přesně predikovat čas, místo, a dokonce i průběh přírodních katastrof (Chapman, 2023) a na lidech potom je, aby se na tyto pohromy dokázali co nejlépe připravit.

Větším rizikem proto může být opět ona černá skříňka. Z nějakého důvodu může systém vygenerovat chybu, u níž může trvat i dny, než příslušní lidé zjistí, proč se stala, nebo že se vůbec stala. Žádný model navíc nejspíš nikdy nedokáže popsat realitu v celé své šíři, a proto by byly tyto systémy limitovány dovednostmi vývojářů a použitou technikou – nelze např. vyloučit špatné rozhodnutí z důvodu závady na jednom z mnoha senzorů. Jedním z mála řešení, jež se zde nabízí, je otevřít onu černou skříňku. To ovšem může být s narůstající složitostí algoritmů stále složitější.

Dopady na životní prostředí

Jako poslední zde uvedené riziko bude zmíněna náročnost těchto moderních systému na přírodní zdroje. Podle Wu et al. (2022) se ve společnosti Meta v letech 2021 a 2022 zvýšil objem trénovacích dat pro doporučovací algoritmy 1,9x, čímž dosáhl rozsahu exabajtů. To mělo ve stejném časovém období vést k 2,9násobnému nárůstu kapacity infrastruktury. Na konkrétním příkladě velkého jazykového modelu Meena od společnosti Google uvádí, že jeho trénink vytvořil stejnou uhlíkovou stopu, kterou by vyprodukoval průměrný osobní automobil při ujetí necelých 250 000 mil.

Studie od George Shajiho, George Hovana a Martina Gabria (2023) se zabývala náročností LLM na spotřebu vody. Tyto modely spotřebovávají vodu přímo a nepřímo – přímá spotřeba zahrnuje chlazení datových center a nepřímá pak zahrnuje vodu potřebnou pro výrobu hardwaru a energie pro jejich provoz. Při porovnání se sektory nejnáročnějšími na spotřebu vody, jako je energetika či zemědělství, se sice nejedná o tak vysoká čísla, ovšem alarmující je rychlost, s jakou roste výkon, a tím pádem i náročnost těchto systémů na přírodní zdroje. 

Výzkum odhaduje, že trénování modelu o výpočetní síle lidského mozku po dobu jednoho roku spotřebuje zhruba 126 000 litrů vody, což přirovnává ke spotřebě jedné americké domácnosti za 20 let. Dále uvádí, že ChatGPT 3.5 spotřebuje 500 ml vody na každých 20–50 otázek, kteréžto tvrzení nabývá na významu při informaci, že tento model používá měsíčně odhadem až 100 milionů lidí. (Shaji et al., 2023)

Na jednu stranu může UI pomoci k řešení environmentálních problémů – např. optimalizací pěstování plodin, predikcí obnovitelných zdrojů či objevování nových katalyzátorů pro ukládání energie (Wu et al., 2022). Na druhou stranu je však potřeba klást důraz i na k přírodě šetrný vývoj UI. Pro minimalizaci dopadu na životní prostředí je nezbytné zvážit celý proces fungování UI, včetně sběru dat, trénování, inference, a dokonce i životního cyklu použitého hardwaru. Dalšími kroky pak může být používání energeticky účinnějších komponentů a chladících systémů, optimalizace algoritmů pro zajištění nižšího potřebného výkonu, používání obnovitelných zdrojů energie a v neposlední řadě i zvyšování povědomí a důraz na rozvíjení politik podporující udržitelný rozvoj.

Podle UNEP (2024), což je program pro podporu ochrany životního prostředí pod záštitou OSN, již více než 190 zemí přijalo nezávazná doporučení ohledně etického využívání UI, jež obsahují i body o životním prostředí. Evropská unie a Spojené státy dokonce zavedly právní předpisy, které mají zmírnit dopady UI na planetu.

Zároveň však Golestan Radwan, jeden z nejvyšších představitelů tohoto programu, dodává: „Vlády se předhánějí ve vytváření národních strategií v oblasti UI, ale jen zřídkakdy berou v úvahu životní prostředí a udržitelnost. Nedostatek ochranných zábran pro životní prostředí není o nic méně nebezpečný než nedostatek jiných ochranných opatření souvisejících s UI.“ UN environment programme proto vyzývá ke společnému mezinárodnímu jednání o přizpůsobování politik za cílem řešení náročnosti na přírodní zdroje a doporučuje firmám, aby zefektivňovaly své algoritmy, snižovali nároky na energii a znovu používaly vodu a komponenty, kde je to možné. (UNEP, 2024)

Dílčí závěr

Jak již bylo řečeno v úvodu, tato kapitola se věnovala primárně hrozbám, které se v běžném mediálním prostoru objevují spíše v menší míře. A i přesto, že by každá ze zmíněných hrozeb vydala na celou sérii o dost podrobnějších prací, než je tato, může už z tohoto stručného výčtu vypadat celá budoucnost lidstva jako dystopie ovládaná umělou inteligencí. Je ovšem potřeba nezapomínat i na všechny benefity plynoucí z tohoto technologického pokroku: ulehčování učení a prohlubování vědění v různých oborech, zvyšování efektivity nejrůznějších procesů, účinné zpracování dat, které by člověku zabrali daleko více času, a zároveň i všechny věci z toho plynoucí – UI je nový a velmi účinný nástroj, který se člověk musí naučit používat.

Ve výsledku závisí na lidech samotných, jak budou tento nástroj využívat. Je také zapotřebí překonat mnoho výzev, které mohou být řešeny buď technologickým pokrokem a zefektivňováním algoritmů (např. problém černé skříňky, gender bias či vysoká náročnost na přírodní zdroje) anebo právě regulací (zde je zřejmě nejnebezpečnější použití pro válečné účely či pro nelegální využívání UI spojené s aktivitou na dark webu, což jsou ovšem věci, které jsou buď velmi těžko regulovatelné, anebo těžko mezinárodně prosaditelné) a pochopitelně také vzděláváním (důraz na kritické myšlení a využívání UI ke správným účelům).

Závěr

Není pochyb, že mezinárodní shoda na standardech o regulaci technologií umělé inteligence je běh na dlouhou trať. Jedná se totiž často o střet zájmů ekonomických, principiálně etických nebo geopolitických. Daná situace by se dala přirovnat ke známému modelu z teorie her, k vězňově dilematu – modelu, kde mají hráči (zde státy a vlády) na výběr, zda být, zjednodušeně řečeno, ten hodný a zachovat se tak, jak by se očekávalo – v tomto případě regulovat, a omezit tak vývoj a svůj ekonomický či geopolitický prospěch, anebo naopak zradit, vydat se vlastní cestou a benefitovat z konkurenční výhody nad ostatními.

Problémem vězňova dilematu je, že se vždy vyplatí ostatní hráče zradit. Jedinou cestou ven je potom změna pravidel hry. Výzvou, která tak mezinárodní společenství čeká je právě domluvit se na tom, jak tato pravidla globálně upravit. Příklad rozdílných tendencí je vidět už na zmiňovaném přístupu EU a Spojených států amerických. Zatímco Evropská unie vydává komplexní právní úpravu se snahou obsáhnout problematiku umělé inteligence v co nejširším provedení, Spojené státy schvalují na státní úrovni primárně zákony, které ochraňují jen před bezprostředními hrozbami a ostatní nechávají pouze na federální úrovni.

Dle názoru autora existuje nutnost regulovat UI a kupříkladu právě EU AI Act by, alespoň z dosud získaného povědomí, nemusel být špatnou volbou. Výhodou je převážně, že velmi dbá na ochranu uživatelů a zároveň se snaží, kde je to možné, chránit před nejrůznějšími riziky využití systémů UI, včetně např. rizika černé skříňky.

Očividnou nevýhodou je ovšem možné zaostávání v ekonomickém vývoji, ale třeba i ve vojenských technologiích, proto je z pohledu Evropské unie potřeba vyzývat k mezinárodnímu jednání a akci v oblasti regulování umělé inteligence. To je ovšem opět běh na dlouhou trať a není vyloučeno, že to bude probíhat podobně jako např. diskuze o regulaci tabákového průmyslu. První studie o negativních dopadech kouření na lidský organismus byly publikovány už v padesátých letech, komplexní právní úpravy se ovšem dočkaly až o tři desetiletí později. Umělá inteligence je nový fenomén, a další přelomový nástroj, který lidstvo vyvinulo a teď se s ním musí naučit žít, a to včetně regulace, která je s tím spojená.

Použitá literatura

  • SHAJI, George; HOVAN, George; GABRIO, Martin. The Environmental Impact of AI: A Case Study of Water Consumption by Chat GPT. Online. 2023. Dostupné z: https://doi.org/10.5281/zenodo.7855594. [cit. 2024-12-13].