Středa, 3 září, 2025
Domů Blog Stránka 4

Zločiny na temnom webe: Ako technológie a právo spolupracujú

0

The Dark Web, skrytá časť internetu, sa stal miestom, kde prekvitajú rôzne nelegálne činnosti. Anonymita a šifrovacie techniky umožňujú páchanie zločinov, ktoré sa pohybujú od obchodovania s ľuďmi a drogami až po kyberkriminalitu a terorizmus. Hoci Dark Web ponúka závoj tajomstva, predstavuje vážnu výzvu pre orgány činné v trestnom konaní, tvorcov zákonov a celú spoločnosť. Ako technológie neustále napredujú, metódy, ktoré používatelia temného webu využívajú na vykonávanie trestnej činnosti, sa neustále vyvíjajú, čím vzniká zložité prostredie, kde sa hranice medzi právom, etikou a bezpečnosťou stále viac zatieňujú.

Táto práca sa zameriava na vzťah medzi kriminalitou, technológiami a právom na temnom webe, pričom sa venuje tomu, ako nelegálne aktivity ako obchodovanie s ľuďmi, pornografia, transakcie s drogami, terorizmus a kyberkriminalita prosperujú v tomto skrytom priestore. Skúma techniky a metódy, ktoré orgány činné v trestnom konaní používajú na monitorovanie a vyšetrovanie týchto zločinov, ako sú sieťové vyšetrovacie techniky a MLAT, a zároveň diskutuje o obmedzeniach a rizikách, ktoré sú s týmito metódami spojené. Práca tiež zdôrazňuje potrebu vyváženého prístupu k vymáhaniu práva, ktorý zohľadňuje nielen spravodlivosť, ale aj ochranu medzinárodných vzťahov.

Ako sa tento digitálny priestor naďalej rozširuje, je jasné, že existujúce právne rámce nie sú dostatočné na plné riešenie zložitosti zločinov na temnom webe. Cieľom tejto práce je poskytnúť predstavu toho, ako sa technológia a právo spájajú v boji proti kriminalite na temnom webe a ako nové politiky a vyšetrovacie nástroje musia evolvovať, aby sa vyrovnali s výzvami, ktoré tento neustále sa meniaci priestor prináša.

1. The Dark Web

World Wide Web (WWW) je komplexný systém, ktorý pozostáva z bezprecedentného množstva digitálnych informácií. Bežný internet používaný denne je dostupný cez štandardné vyhľadávače ako Google. Existujú však veľké časti internetu, ktoré sú neindexované a skryté pred bežnými vyhľadávacími nástrojmi. Touto skrytou časťou internetu je Deep Web. V rámci Deep Webu je podskupinou, ktorá sa väčšinou používa na nezákonné účely, Dark Web alebo Dark Net.(Nazah, Huda, Abawajy, & Hassan, 2020)

Dark Web spolu s technológiami, ktoré ho podporujú, drasticky mení spôsob, akým sa vykonáva trestná činnosť. Uľahčuje nadnárodnú trestnú činnosť, kde kľúčoví aktéri, dôkazy a finančné výnosy môžu existovať na viacerých právnych územiach. Použité technológie zakrývajú identitu páchateľov a povahu ich trestných činov. Existuje len málo náznakov, že právne systémy sú bližšie k riešeniu zločinov na temnom webe, najmä vzhľadom na to, že mnohé z týchto problémov sú dlhodobými výzvami, ktoré sa teraz objavujú v novej podobe. Použité technológie maskujú identitu jednotlivcov a povahu spáchaných zločinov. Sú to tieto zložitosti a neschopnosť zákona sa s nimi vysporiadať.(Shillito, 2019)

page4image39241968

2. The Silk Road

Hlboko pod povrchom WWW, Dread Pirate Roberts (DPR) riadil podzemné impérium kriminality. O DPR sa toho veľa nevedelo, okrem toho, že sa zdalo, že vybudoval Silk Road – globálne online trhovisko pre nezákonné služby a pašovanie. DPR – neskôr identifikovaný ako Ross Ulbricht – bol cieľom celosvetového pátrania, ktoré fungovalo v tme takmer tri roky. (Ghappour A. , 2017)
V tom čase prilákala Silk Road viac ako 100 000 používateľov, ktorí uskutočnili viac ako jeden milión obchodov, čo vygenerovalo odhadované celosvetové tržby vo výške 1,2 miliardy USD. (Leger, 2014)

The Silk Road bola postavená na uľahčenie transakcií na čiernom trhu. Hostil ho Dark Web, globálna sieť počítačov, ktoré na komunikáciu využívajú kryptografický protokol, ktorý používateľom umožňuje vykonávať transakcie anonymne bez toho, aby prezradili svoju polohu. Používatelia mohli uskutočňovať platby iba v digitálnej mene Bitcoin a transakcie prebiehali prostredníctvom „sérií falošných transakcií na zakrytie spojenia medzi kupujúcimi a predávajúcimi.“ Tisíce drogových dílerov sa hrnuli na Hodvábnu cestu kvôli anonymite, ktorú sľubovala. Tam previedli milión obchodov s drogami mimo dosahu najpokročilejších nástrojov elektronického sledovania orgánov činných v trestnom konaní. (Caldwell, 2016)

Po “Hodvábnej ceste“ sa vynorilo niekoľko podzemných trhovísk, čo poukazuje na asymetriu medzi schopnosťou vyšetrovateľov sledovať nezákonnú činnosť a schopnosťou zločincov páchať zločiny na temnom webe. Existencia skrytých služieb, ako je Silk Road, dramaticky znižuje vstupné bariéry do podzemnej ekonomiky – pre kupujúcich aj predávajúcich nezákonného tovaru a služieb. To viedlo tvorcov politiky k otázke, či má presadzovanie práva dostatočné nástroje na boj proti nezákonnému konaniu, ktoré môže prechádzať digitálnym podsvetím. (Ghappour A. , 2017)

page5image39245296

3. Nezákonné aktivity na temnom webe

Približne 57 % obsahu na temnom webe je spojených s kriminálnymi aktivitami a nelegálnymi materiálmi. To často zahŕňa nezákonné drogy, obchodovanie so zbraňami, zneužívanie detí, ukradnuté údaje, nelegálne fóra, falšované peniaze a iné nezákonné položky. V roku 2013, keď FBI zrušila Hodvábnu cestu, jeden z najznámejších trhovísk na temnom webe, prinieslo veľkú pozornosť týmto nezákonným operáciám. Na navigáciu na temnom webe a prístup k škodlivému obsahu sa používatelia zvyčajne spoliehajú na platformy ako Hidden Wiki a Deep vyhľadávače, ktoré poskytujú odkazy na rozsiahlu sieť ďalších skrytých stránok. Významnou výzvou, ktorej čelia forenzní vyšetrovatelia, je anonymita poskytovaná službami Dark Web, ktorá sťažuje vysledovanie nezákonných aktivít.
(Nazah, Huda, Abawajy, & Hassan, 2020)

3.1 Obchodovanie s ľuďmi
Obchodovanie s ľuďmi je veľkou časťou trestných činov a extrémne sa zvýšili vďaka online fóram, chatovacím službám a anonymite Deep Webu. Obchodovanie s ľuďmi sa považuje za významnú výzvu v oblasti ľudských práv. Asi 2,5 milióna jednotlivcov na celom svete je uväznených v nejakej forme moderného otroctva podľa Úradu OSN pre drogy a kriminalitu. (Greenemeier, 2015)

Obete sú nútené do otroctva ako žobráci, sexuálni pracovníci a detskí vojaci, robotníci v továrňach, domáci robotníci a robotníci v rôznych komerčných odvetviach. Pri nábore obetí obchodovania s ľuďmi a obchodovania so sexom obchodníci vyjednávajú a uzatvárajú zmluvy. Siete obchodovania s ľuďmi sa môžu vyhnúť systému odhaľovania, cenzúry a sledovania, ktorý používa vláda a organizácie bojujúce proti obchodovaniu s ľuďmi, keďže siete používané obchodníkmi sú dynamické. (R. Konrad and A. Trapp, 2017)

3.2 Transakcie s drogami

V rámci Deep Webu sa zvyčajne vyskytujú dva typy drogových trhov. Patria sem trhy, ktoré sa venujú jednému špecifickému typu drogy, ako je heroín. Vďaka odborným znalostiam produktov a vzťahu medzi predajcom a zákazníkom je tento typ veľmi populárny. Druhým typom drogových trhov je všeobecný obchod pre kupujúcich, kde sa ponúkajú všetky druhy nelegálnych produktov, ako sú zbrane, pornografia, ukradnuté šperky, cigarety na čiernom trhu a kreditné karty. Široký sortiment narkotík vrátane drogového hardvéru a chemikálií na výrobu liekov sú najbežnejšími položkami. (Christin, 2013)

Anonymita Deep Web pomohla výraznému nárastu transakcií s drogami z Deep Webu, ktorý vytvoril digitálny čierny trh s drogami. Keďže pri obchodovaní s drogami nie je potrebná žiadna komunikácia tvárou v tvár, nelegálni predajcovia používajú na nákup a predaj drog Dark Web. The Silk Road bola jedným z príkladov na trhu Dark Web, ktorý predal liek za viac ako miliardu dolárov a poslal lieky prostredníctvom DHL alebo dropshippingu. (Maddox, Barratt, Allen, & Lenton, 2016)

Mr. Nice Guy bol ďalší Dark Web trhovisko, ktoré uľahčovalo predaj nelegálnych drog, ako je marihuana a kokaín, spolu s rôznymi ďalšími legálnymi a nelegálnymi produktmi. Stránka bola známa svojimi pomerne silnými bezpečnostnými opatreniami, pričom proces registrácie ponúkal vyššiu úroveň ochrany v porovnaní s typickými webovými stránkami. (Nazah, Huda, Abawajy, & Hassan, 2020)

3.3 Terorizmus

Terorizmus a teroristické organizácie na Deep Web sú nebezpečnou hrozbou pre národnú bezpečnosť. Teroristické organizácie ako al-Káida/ISIS a ISIL ISIS využili výhody temného webu na naplnenie svojich negatívnych motívov a šírenie propagandy. (Bates, 2016)

Islamský štát v Iraku a Sýrii (ISIS) používa Dark Web ako zbraň na terorizmus, kde poskytuje živé vysielanie a nahrávanie rozsudkov smrti väzňov. Používajú Dark Web ako vysielacie médium, kde nahrávajú malé videoklipy zo svojich neľudských aktivít. Na nábor vojakov po celom svete využívajú aj Dark Web. (Singer & Brooking, 2018)

Aby ochránil identity a získal ochranu pred heckermi, ISIS sa obrátil na Dark Net. Šírili správy a propagandu z útokov v Paríži v novembri 2015 pomocou stránok Dark Net a online platforiem. Mediálne centrum ISIS, Al-Hayat Media Center, zverejnilo odkaz a vysvetlenie, ako sa dostať na ich novú stránku Dark Net na fóre spojenom s ISIS. Správa bola odoslaná telegramom, šifrovaným textovým programom, ktorý používa ISIS pre smartfóny a Windows cez linku prehliadača TOR. Vývojári Telegramu boli príliš sebavedomí na to, aby ponúkli peňažnú odmenu, kto by mohol prelomiť zabezpečenie a vyriešiť šifrovanie. (Weimann, 2016)

3.4 Služby na Dark Webe

Obsah a služby poskytované Dark Webom bežne používajú anonymné služby ako Tor, Freenet, I2P a JonDonym. (Montieri, Ciuonzo, Aceto, & Pescapé, 2017)
Najpopulárnejšou službou na temnom webe je sieť TOR, ktorá používateľom poskytuje možnosť tajne anonymne zdieľať informácie prostredníctvom pripojení peer-to-peer namiesto centralizovaného počítačového servera. (Jardine, 2015)

Táto služba bola určená na prístup k blokovanému obsahu, na obchádzanie cenzúry a na zachovanie súkromia citlivej komunikácie zo strany amerického námorného výskumného laboratória v roku 2002. Monitorovanie temného webu je veľmi náročné kvôli anonymnej štruktúre dizajnu siete TOR. Zločinci využívajú Onion Router (TOR) na navigáciu na Dark Web kvôli nevystopovateľnej a ťažko vypínateľnej infraštruktúre TOR. To je jeden z dôvodov obrovského tlaku na bezpečnostné agentúry a orgány činné v trestnom konaní, aby monitorovali a sledovali aktivity na temnom webe. Zločinci zvyčajne zriaďujú prenosovú stanicu v TOR a skrývajú svoje zločinecké aktivity v temnom webe. Výsledkom je, že orgány činné v trestnom konaní nachádzajú iba posledné výstupné relé TOR, keď prepoja IP adresu s identifikáciou spáchaného trestného činu pomocou prehliadača TOR. (Montieri, Ciuonzo, Aceto, & Pescapé, 2017)

4. Monitorovanie zločinov a vyšetrovanie Dark Webu

4.1 Techniky a metódy na lokalizáciu zločincov a zločinov s ich obmedzeniami

Výskumníci vyvinuli rôzne stratégie a metódy na monitorovanie a odhaľovanie rôznych zločinov a zločincov na Deep Web. Projekt Memex vyvinutý a implementovaný Agentúrou pre pokročilé obranné výskumné projekty Spojených štátov (DARPA) je jedným z úspešných nástrojov na dolovanie údajov v Dark Web. O niektorých technikách proaktívneho monitorovania skrytých častí internetu sa diskutovalo v štúdii, ktorá zahŕňa mapovanie adresára skrytých služieb, monitorovanie sociálnych stránok, monitorovanie údajov o zákazníkoch, sémantickú analýzu a profilovanie trhu. (Ciancaglini, Balduzzi, Goncharov, & McArdle, 2013)
Orgány činné v trestnom konaní tiež použili rôzne metódy na lokalizáciu zločincov, medzi ktoré patria sociálne médiá, IP adresy, monitorovanie aktivít používateľov, monitorovanie bitcoinových účtov. (Lightfoot & Pospisil, 2017)

4.2 MLAT

The Mutual Legal Assistance Treaty (MLAT), teda zmluva o vzájomnej právnej pomoci, pomáha pri presadzovaní práva na podporu ich vyšetrovania. Na pomoc pri presadzovaní práva vedú USA spoločné vyšetrovanie, ktoré umožňuje viac ako jednej krajine zapojiť sa do trestného vyšetrovania. Analytici môžu iniciovať oficiálnu udalosť informujúcu Úrad pre medzinárodné záležitosti (OIA) a vygenerovať protokoly MLAT. (Ghappour A. , 2017)

MLAT je jednou zo zavedených metód presadzovania práva pri cezhraničnom zdieľaní informácií. Ak štát žiada o prístup k digitálnym dôkazom, ktoré sa nachádzajú mimo hraníc tohto štátu, vyžaduje sa vyvolanie formálnej žiadosti. Cieľom MLAT je chrániť zákonné práva ľudí, u ktorých existuje pochybnosť o “offshore” trestnej činnosti. (Warren & Mann, 2017)

Proces MLAT je však pomalý, pretože často trvá mesiace, štruktúra je nepriehľadná a kvôli príliš veľkému množstvu požiadaviek pod stresom, a teda nepohodlná. V roku 2013 vydala vláda USA príkaz na prehliadku spoločnosti Microsoft za zabavenie informácií konkrétneho e-mailového účtu. Spoločnosť Microsoft však mohla byť proti, pretože e-maily boli na serverovom úložisku umiestnenom v Írsku. (Svantesson, 2017)

page9image38805216

9

4.3 Sieťová vyšetrovacia technika

Pojem „sieťová vyšetrovacia technika“ je eufemizmus pre hackovanie orgánov činných v trestnom konaní; opisuje metódu sledovania orgánov činných v trestnom konaní, ktorá zahŕňa vzdialený prístup a inštaláciu škodlivého softvéru do počítača bez povolenia jeho vlastníka alebo prevádzkovateľa. (Barratt, Ferris, & Winstock, 2016)

Sieťové vyšetrovacie techniky sú obzvlášť užitočné pri prenasledovaní podozrivých z trestnej činnosti, ktorí používajú anonymizačný softvér na zakrytie svojej polohy. Priamym prístupom k cieľovému počítaču a jeho premenou na sledovacie zariadenie, použitie sieťových vyšetrovacích techník obchádza potrebu poznať polohu cieľa a robí z novej sledovacej metódy praktické riešenie na prenasledovanie podozrivých z trestnej činnosti na temnom webe. Po nainštalovaní môže správny malvér spôsobiť, že počítač vykoná akúkoľvek úlohu, ktorú je počítač schopný vykonať. (Bates, 2016)

Malvér môže prinútiť cieľový počítač, aby skryte nahral súbory na server kontrolovaný orgánmi činnými v trestnom konaní, alebo prikáže kamere alebo mikrofónu počítača zhromažďovať obrázky a zvuk. Môže dokonca ovládnuť počítače, ktoré sa spájajú s cieľom, napríklad prístupom na webovú stránku, ktorú hosťuje. (Beckham & Prohaska, 2012)

Právny proces na použitie sieťových vyšetrovacích techník sa riadi federálnym pravidlom trestného poriadku 41, ktoré stanovuje postupy na získanie príkazu na prehliadku na federálnom súde. Bývalá verzia pravidla 41 obmedzovala právomoc vydávať príkazy na prehliadku okresu sudcu, ktorý o tom rozhoduje. To spôsobilo, že súdy zamietli príkazy na prehliadku počítačov, ktorých umiestnenie nebolo známe, pretože sa mohli nachádzať mimo okresu sudcu. (In re Warrant to Search a Target Comput. at Premises Unkown)

Dodatok k pravidlu stanovenému na odstránenie tejto administratívnej prekážky tým, že sa sudcom výslovne povolí vydať príkaz na prehliadku zariadenia, ak poloha zariadenia bola ukrytá technologickými prostriedkami. (Roberts, 2016)

4.4 Hackovanie ako vyšetrovací nástroj na Dark Webe

Nástroje anonymity nie sú prvou technologickou zmenou, ktorá prekoná možnosti dohľadu nad orgánmi činnými v trestnom konaní. 9 % FBI nazvala tento skokový fenomén “stmavnutie“. (Going Dark, 2017)
V 90. rokoch minulého storočia napríklad orgány činné v trestnom konaní stratili schopnosť odpočúvať hovory, keď telefónne spoločnosti prešli z medené káble k digitálnej telefónii.

Výsledkom bolo schválenie zákona “Communications Assistance for Law Enforcement Act“ v roku 1994, ktorý vyžadoval, aby si telefónni nosiči nainštalovali štandardizované vybavenie, aby mohli pomáhať polícii s elektronickými odpočúvaniami. Takéto “zadné vrátka“ však nie sú technologicky realizovateľné na temnom webe vďaka svojej decentralizovanej architektúre, používaniu otvoreného softvéru a požiadavkám na základné funkcie. (Communications Assistance for Law Enforcement Act, 2015)

Sieťové vyšetrovacie techniky obchádzajú výzvy, ktoré predstavuje temný web, pomocou internetu na uľahčenie dodania a inštalácie sledovacieho softvéru (malware101) na cieľové zariadenie. Predtým musel vyšetrovateľ, ktorý chcel prehľadávať počítač konvenčnými metódami, získať prístup k fyzickému umiestneniu počítača a vytvoriť kópiu jeho pevného disku. To si vyžaduje znalosť fyzickej polohy počítača, ktorú temný web zakrýva. Sieťové vyšetrovacie techniky vytvárajú spôsob, ako sa vyšetrovatelia dostanú k počítaču, ktorý nevyžaduje znalosť jeho fyzickej polohy. Namiesto prechádzania fyzickými cestami – ako sú cesty a mosty, aby sa dostali k fyzickej adrese cieľa, vyšetrovatelia nasadia malvér, ktorý prechádza virtuálnymi cestami – ako sú spojenia medzi počítačmi a mosty medzi sieťami – aby dosiahli virtuálnu IP adresu počítača. Dôležité je, že nové metódy môžu dosiahnuť rovnaký cieľ. Keď malvér prenikne do cieľa, premení počítač na sledovacie zariadenie. (Beale & King)

Sieťové vyšetrovacie techniky fungujú v dvoch krokoch: prístup k údajom a extrakcia údajov. “Krok prístupu“ si možno predstaviť ako príchod na miesto kartotéky a vybratie jej zámku a “Krok extrakcie“ možno považovať za prehrabávanie obsahu kartotéky. V prístupovom kroku orgány činné v trestnom konaní nasadia malvér, ktorý sa šíri cez internet do cieľového zariadenia, kde zneužijú chybu zabezpečenia softvéru, ktorá umožňuje prístup do systému. Rovnako ako vo fyzickom svete, aj v kyberpriestore sa môže vyšetrovateľ vydať jednou z mnohých rôznych ciest, aby dosiahol polohu cieľa. Na tento účel sa mechanizmy nasadenia rozdeľujú do troch kategórií: útoky “spear phishing”, operácie zalievania a útoky typu “man- in-the-middle“. V rámci operácie “spear phishing“ sa orgány činné v trestnom konaní zameriavajú na jednotlivé zariadenia tak, že cieľovému používateľovi posielajú komunikáciu (zvyčajne prostredníctvom e-mailu alebo sociálnych médií), aby ju presvedčili, aby vykonala konkrétnu akciu – napríklad kliknutie na odkaz alebo otvorenie prílohy – ktorý spúšťa doručovanie malvéru. (Valentino-DeVries & Yadron, 2013)

Pri operácii “watering hole” vyšetrovatelia najprv získajú kontrolu nad serverom a potom ho použijú na distribúciu útokov na všetkých návštevníkov. (Kindlund, 2013)

A pri útoku “man-in-the-middle“ sa vyšetrovatelia dostanú medzi dva koncové body komunikácie, aby mohli tajne preniesť alebo zmeniť komunikáciu medzi stranou. (Bellovin)

V kroku extrakcie sa na zariadení vykoná súbor inštrukcií škodlivého softvéru známych ako užitočné zaťaženie, čím sa zariadenie efektívne zmení na nástroj sledovania. Po nainštalovaní môže malvér spôsobiť, že počítač vykoná akúkoľvek úlohu, ktorú je počítač schopný vykonať. Môže napríklad nasmerovať súbory a komunikáciu na server kontrolovaný orgánmi činnými v trestnom konaní alebo zhromažďovať obrázky a zvuk kedykoľvek si to vykonávajúci agent zvolí. ( In re Warrant to Search a Target Computer at Premises Unknown, 2013)

Spoza obrazovky na druhom konci spojenia sú vyšetrovatelia schopní nasadiť nesmierne výkonné techniky, ktoré sa dajú ľahko vystopovať a sledovať podozrivých.

4.4.1 Riziko hackovania temného webu pre zahraničné vzťahy

Používanie sieťových vyšetrovacích techník na temnom webe je v očividnom napätí s medzinárodnými normami. Nie je jasné, či a do akej miery je konkrétna sieť vyšetrovacia technika v rozpore s medzinárodným právom alebo ako môžu cieľové štáty reagovať.

Táto neistota vedie k vzniku piatich kategórií rizika:.
1. Riziko pripisovania (“The risk of attribution”)
2. Riziko zraniteľnosti (“The risk of vulnerability”)
3. Riziko diplomatickej legitimity (“The risk of diplomatic legitimacy”) 4. Riziko zahraničného stíhania (“The risk of foreign prosecution”)

5. Rizikové protiopatrenia (“The risk countermeasures”) (Ghappour A. , 2017)

5. Presadzovanie práva

Menšie orgány činné v trestnom konaní nemajú technické znalosti na boj proti konkrétnym zločinom, keďže počítačoví zločinci zvýšili svoje schopnosti. Existuje niekoľko typov zákonov týkajúcich sa trestnej činnosti na temnom webe vrátane trestného práva, občianskeho práva a regulačného zákona. Trestné právo sa vzťahuje na trestné činy na vládnej úrovni miestnej, štátnej a federálnej. Typ trestu sa môže pohybovať od pokuty až po doživotné väzenie. V závislosti od štátu, v ktorom sa zločin stal, môže byť trestom aj smrť. Občianske právo sa vzťahuje na osobu alebo organizáciu, ktorá bola braná na zodpovednosť a bola inštruovaná zaplatiť pokutu alebo ktorá bola povinná vykonať službu ako súčasť trestu. V regulačnom práve má agentúra v rámci jurisdikcie právo udeľovať pokuty ako trest za činnosti. Regulačné agentúry majú právo zastaviť všetky obchodné operácie jednotlivcov alebo spoločností, ktoré nie sú v súlade. (Shinder, 2011)

5.1 Zlyhanie existujúcich pravidiel

Harmónia medzi konvenčnými metódami zhromažďovania dôkazov a obmedzeniami medzinárodného práva na jurisdikciu extrateritoriálneho presadzovania sa začína narušovať s praxou sieťových vyšetrovacích techník na temnom webe. Dodatok k pravidlu 41 upravujúcemu požiadavky na miesto príkazu na domovú prehliadku urobil len o niečo viac, než že odstránil procesnú prekážku v možnosti súdov vydávať príkazy na územné prehliadky a zaistenie. Pri uplatňovaní právneho procesu pre príkazy na prehliadku na sieťové vyšetrovacie techniky orgány činné v trestnom konaní a súdy predpokladajú, že anonymizované ciele sú teritoriálne umiestnené počas všetkých štádií implementácie a presadzovania. Napokon, súdom chýba ústavná a zákonná právomoc na vydávanie extrateritoriálnych príkazov a každý takýto príkaz by v cudzom štáte nemal žiadnu silu bez dohody o opaku.
Uplatňovanie existujúcich pravidiel na anonymizované ciele vedie k bizarnému štrukturálnemu usporiadaniu: súdy nemajú žiadnu právomoc nad extrateritoriálnym aspektom sieťových vyšetrovacích techník, avšak vydávanie príkazov na prehliadku je podmienkou ich vykonania. (Ghappour A. , 2017)

Čo sa týka vnútroinštitucionálnych kontrol a protiváh, existujúce protokoly ministerstva spravodlivosti o cezhraničnom vyšetrovaní nemožno použiť pred nasadením sieťových vyšetrovacích techník na temnom webe, pretože vyšetrovatelia nie sú schopní rozpoznať polohu cieľa, kým nebol napadnutý. Od vyšetrovateľov sa napríklad vyžaduje, aby vynaložili primerané úsilie na to, aby zistili, či sa príslušný počítačový systém, údaje, svedok alebo subjekt nachádzajú v cudzej jurisdikcii a dodržiavali zásady a postupy stanovené ich agentúrami pre medzinárodné vyšetrovanie. Ak však vyšetrovateľom chýbajú znalosti o

polohe cieľa, nemôžu tieto postupy efektívne využiť. (Ghappour A. , 2017)

5.2 Zlyhanie existujúceho právneho procesu

Samozrejme, zodpovednosť za zlyhanie súčasného systému nenesie celoinštitucionálna nekompetentnosť exekutívy v oblasti zahraničných vzťahov. Existujúci systém zlyháva, pretože oprávňuje radových úradníkov prijímať rozhodnutia, ktoré majú priame dôsledky pre zahraničnú politiku, bez zmysluplného vedenia alebo dohľadu.

Súdy sú obmedzené teritorialitou poverenia, širokou úctou k orgánom činným v trestnom konaní vo veciach vyšetrovania, a širokou úctou k výkonnej moci v záležitostiach zahraničnej politiky, najmä vzhľadom na zákonné mlčanie alebo nejednoznačnosť. Okrem toho magistrálnym sudcom chýba odborná znalosť v oblasti komplexných otázok v oblasti počítačovej vedy, a preto nie sú dostatočne vybavení na to, aby mohli skúmať aplikácie príkazu na prehliadku, ktoré zahŕňajú takéto technológie.
Implementačná schéma výkonnej agentúry má tú výhodu, že je schopná prispôsobiť sa rýchlo sa meniacim technológiám a neistotám vývoja medzinárodných noriem. Použitím výkonných nástrojov na stanovenie podstatných politických preferencií sú minimálne náklady na zmenu politiky, čo uľahčuje dynamický a svižný politický režim. Napríklad ministerstvo spravodlivosti môže jednoduchšie centralizovať rozhodovanie za chodu a poskytovať upozornenia prostredníctvom procesu tvorby pravidiel mechanizmov.
Kongres a súdy majú tendenciu byť pri rozhodovaní zdĺhavé alebo nejednotné. Súdy môžu skúmať meniace sa problémy od prípadu k prípadu, ale ich systém precedentného a jurisdikčného obmedzenia spomaľuje tvorbu rozhodovacích pravidiel, ktoré jednotnú národnú aplikáciu. Používanie cezhraničných sieťových vyšetrovacích techník podkopáva demokratickú legitímnosť ministerstva spravodlivosti do tej miery, že si vyžaduje výklad jeho štatutárneho vyšetrovacieho orgánu presahujúceho do zámoria. (Ghappour A. , 2017)

Rozšírenie hackerských právomocí presadzovania práva zo základných preferencií by malo vyvážiť záujmy presadzovania práva s konkurenčnými zahraničnými vzťahmi a záujmami národnej bezpečnosti. (Ghappour A. , 2017)

page14image38907264

Záver

Temný web predstavuje komplexnú a neustále sa vyvíjajúcu výzvu pre orgány činné v trestnom konaní, zákonodarcov a medzinárodné komunity. S rastúcim využívaním pokročilých technológií na skrytí identity a umiestnenia páchateľov sa stáva boj proti nelegálnym aktivitám na temnom webe čoraz náročnejší. Rôzne formy kriminality – od obchodovania s ľuďmi a drogami až po kyberkriminalitu a terorizmus – sa tu naďalej rozvíjajú, pričom zločinci využívajú anonymitu temného webu na obídenie tradičných právnych a bezpečnostných opatrení.

V tejto práci som sa zamerala na preskúmanie zločinov na temnom webe a vyšetrovacích techník, ako sú sieťové vyšetrovacie techniky a mechanizmy právnej pomoci medzi štátmi (MLAT), ktoré predstavujú kľúčové nástroje v boji proti zločinom na temnom webe. Avšak, ako sme ukázali, tieto techniky čelia mnohým obmedzeniam, ako sú nejasnosti v jurisdikcii, právne výzvy a riziká spojené s medzinárodnými vzťahmi. Súčasné právne rámce nie sú pripravené na to, aby plne pokryli komplexnosť situácie, čo vyžaduje nielen technologické inovácie, ale aj nové právne prístupy a medzinárodnú spoluprácu.

Aby sa zabezpečila účinnosť boja proti kriminalite na temnom webe, je nevyhnutné, aby sa orgány činné v trestnom konaní, legislatívne orgány a medzinárodné organizácie zjednotili v snahe prispôsobiť právne a technické nástroje novým výzvam, ktoré tento digitálny priestor prináša.

V budúcnosti bude dôležité, aby sa vyvinuli flexibilné a adaptabilné právne rámce, ktoré umožnia rýchlu reakciu na nové technológie a spôsoby páchania trestnej činnosti. Zároveň musí existovať efektívna medzinárodná spolupráca a koordinácia medzi štátmi, aby sa zabezpečilo dodržiavanie právnych noriem a ochrany práv jednotlivcov, čím sa zároveň posilní boj proti zločinu na temnom webe.

Použité zdroje

Caldwell, L. R. (21. November 2016). Ensuring Tech-Savvy Criminals Do Not Have
Immunity from Investigation. Dostupné na Internete: U.S. DEP’T JUST. BLOGS:
https://www.justice.gov/archives/opa/blog/ensuring-tech-savvy-criminals-do-not-
have-immunity-investigation
Ciancaglini, V., Balduzzi, M., Goncharov, M., & McArdle, R. (2013). Deepweb and
cybercrime.
Communications Assistance for Law Enforcement Act. (2015). Pub. L. No. 103-414, § 103,
108 Stat. 4279, 4280-82, codified as amended at 47 U.S.C. § 1002 (2015).
Christin, N. (2013). Traveling the Silk Road: A measurement analysis of a large anonymous
online marketplace. 22nd Int. Conf. World Wide Web.
In re Warrant to Search a Target Computer at Premises Unknown, 958 F. Supp. 2d 753, 755-
56, 761 (S.D. Tex. 2013) (2013).
Barratt, M. J., Ferris, J. A., & Winstock, A. R. (2016). Safer scoring? Cryptomarkets, social
supply and drug market violence. Int. J. Drug Policy, 35, s. 24-31.
Bates, R. (2016). Tracking lone wolf terrorists. J. Public Prof. Sociol., 8(1), s. 6.
Beckham, K., & Prohaska, A. (2012). Deviant men prostitution and the Internet: A qualitative
analysis of men who killed prostitutes whom they met online. Int. J. Criminal Justice
Sci., 7(2), s. 635-648.
Beale, S. S., & King, N. (dátum neznámy). Memorandum from Sara Sun Beale & Nancy King
to Advisory Comm. on Rules of Criminal Procedure.
Bellovin. (dátum neznámy). A man-in-the-middle.
Ghappour, A. (2017). Searching places unknown: Law enforcement jurisdiction on the dark
Web. Stan. L. Rev., 69(4), s. 1075.
Ghappour, A. (2017). Searching places unknown: Law enforcement jurisdiction on the dark
Web. Stan. L. Rev., 69(4), s. 1075.
Ghappour, A. (2017). Searching places unknown: Law enforcement jurisdiction on the dark
Web. Stan. L. Rev., 69(4), s. 1075.
Ghappour, A. (2017). Searching Places Unknown: Law Enforcement Jurisdiction on the Dark
Web. Dostupné na Internete: Stanford Law Review :
https://scholarship.law.bu.edu/cgi/viewcontent.cgi?article=1205&context=faculty_sch
olarship
Going Dark. (4. April 2017). Dostupné na Internete: FED. BUREAU INVESTIGATION:
https://www.fbi.gov/about/leadership-and-structure/lawful-access
Greenberg, A. (5. September 2024). The FBI Finally Says How It ‚Legally‘ Pinpointed Silk
Road’s Server. Dostupné na Internete: Wired: https://www.wired.com/2014/09/the-fbi-
finally-says-how-it-legally-pinpointed-silk-roads-server/
Greenemeier, L. (February 2015). Human traffickers caught on hidden Internet. Dostupné na
Internete: Scientific American: https://www.scientificamerican.com/article/human-
traffickers-caught-on-hidden-internet/
In re Warrant to Search a Target Comput. at Premises Unkown, 958 F.Supp. 2d at 757, 761.
Jardine, E. (2015). The Dark Web Dilemma: Tor Anonymity and Online Policing. Waterloo,
ON, Canada : The Centre for International Governance Innovation (CIGI).
Kindlund, D. (February 2013). Holiday Watering Hole Attack Proves Difficult to Detect and
Defend Against. ISSA Journal , s. 10-11.
Leger, D. L. (15. May 2014). How FBI brought down cyber-underworld site Silk Road.
Dostupné na Internete: USA TODAY NEWS:
https://eu.usatoday.com/story/news/nation/2013/10/21/fbi-cracks-silk-road/2984921/
17
Lightfoot, S., & Pospisil, F. (2017). Surveillance and privacy on the deep Web.
Maddox, A., Barratt, M. J., Allen, M., & Lenton, S. (January 2016). Constructive activism in
the dark Web: Cryptomarkets and illicit drugs in the digital ‘demimonde“.
Information, Communication & Society, s. 111-126.
Montieri, A., Ciuonzo, D., Aceto, G., & Pescapé, A. (2017). Anonymity services Tor I2P
JonDonym: Classifying in the dark. 29th International Teletraffic Congress (ITC 29)
(s. 81-89). Genoa, Italy: IEEE.
Nazah, S., Huda, S., Abawajy, J., & Hassan, M. M. (1. August 2020). Evolution of Dark Web
Threat Analysis and Detection: A Systematic Approach. IEEE Access(8), s. 23-27.
R. Konrad and A. Trapp. (2017). Data Science Can Help Us Fight Human Trafficking.
Dostupné na Internete: The conversation: https://theconversation.com/data-science-
can-help-us-fight-human-trafficking-81647
Roberts, J. G. (28. April 2016). Letter from Chief Justice John G. Roberts to Paul D.Ryan,
attachmnet at 6. Dostupné na Internete:
https://www.supremecourt.gov/orders/courtorders/frcr16_mj80.pdf
Shillito, M. R. (27. May 2019). Untangling the ‘Dark Web’: an emerging technological
challenge for the criminal law. Dostupné na Internete: Information &
Communications Technology Law: https://doi.org/10.1080/13600834.2019.1623449
Shinder, D. (2011). What makes cybercrime laws so difficult to enforce.
Singer, P. W., & Brooking, E. T. (2018). LikeWar: The Weaponization of Social Media. New
York, NY, USA: Eamon Dolan Books.
Svantesson, D. J. (September 2017). It’s too hard to get the data of Australian criminals when
it’s stored overseas. Dostupné na Internete: The Conversation:
https://theconversation.com/its-too-hard-to-get-the-data-of-australian-criminals-when-
its-stored-overseas-82828
Valentino-DeVries, J., & Yadron, D. (3. August 2013). FBI Taps Hacker Tactics to Spy on
Suspects. Dostupné na Internete: Wall Street Journal:
https://www.wsj.com/articles/SB10001424127887323997004578641993388259674
Warren, I. M., & Mann, M. (September 2017). Poisoned water holes: The legal dangers of
dark Web policing. Dostupné na Internete: News Pty Ltd:
https://www.news.com.au/technology/online/poisoned-water-holes-the-legal-dangers-
of-dark-web-policing/news-story/285655e36981515e35e2290360f9e646
Weimann, G. (March 2016). Going dark: Terrorism on the dark Web. Stud. Conflict
Terrorism, 39(3), s. 195-206.

TCP/IP Protocols and the Future of Internet Security: Balancing Privacy and Regulation

0

Introduction

The Transfer Control Protocol/Internet Protocol (TCP/IP) has emerged as a common means of communication worldwide. This is due to the ease of data sharing amongst networks. Its layered structure supports a variety of underlining applications of the internet from web surfing and using email services. With all its attributed significance in contemporary networking, it is critical to understand that TCP/IP was built with an emphasis on performance, not security. The situation is rapidly changing due to evolution of digital infrastructure where people require fast data transfer while privacy and compliance to regulations are respected. This position paper looks into structure, key protocols, services at the application-layer and security aspects of TCP/IP. It’s about new dangerous factors, legal systems the existence of which will make room for further development that can potentially enable securing of future internet communication.

This is a list of some important milestones in the TCP/IP evolution. It shows how TCP/IP grew from a fundamental project to the backbone of global communication. These milestones highlight its universal adoption and its role in establishing the modern Internet we rely on today.

1 Structure of TCP/IP

The suite of protocols called Transmission Control Protocol/Internet Protocol as referred to as TCP/IP has become the global standard and means for interconnecting hosts, networks and the internet which as such makes it one of the most influential inventions in facilitating the internet and networks around the globe. Though TCP/IP has a wide range of applications both the common ones and the rare ones, this entire set of applications rests on a set of basic protocols without which it is quite impossible to conceive the applications. Moreover, in order to comprehend what the workings of applications based on TCP/IP would be, one would need to understand what these basic protocols are.

1.1 History of TPC/IP

  • 1969 – Four-node ARPANET established.
  • 1973 – Development of TCP/IP suite begins.
  • 1977 – An internet tested using TCP/IP.
  • 1983 – TCP/IP becomes the official protocol for ARPANET.
  • 1986 – NSFNET established.
  • 1995 – Companies known as Internet Service Providers (ISPs) started.

This is a list of some important milestones in the TCP/IP evolution. It shows how TCP/IP grew from a fundamental project to the backbone of global communication. These milestones highlight its universal adoption and its role in establishing the modern Internet we rely on today.

1.2 TPC/IP protocol layers

TCP/IP is design in layers, creating the protocol stack. This stack allows for division of labour, ease of implementation, code testing, and the development of alternative layer implementations. Layers communicate via concise interfaces, providing services for the layer above and using services provided by the layer below. For example, the IP layer transfers data without guaranteeing reliable delivery or duplicate suppression, enabling applications to receive in-order data stream delivery.

1.2.1 Application Layer

The application layer is a program that uses TCP/IP for communication; it allows user processes to cooperate with another process on different hosts. Examples include Telnet and FTP. The interface is defined by port numbers and sockets.

1.2.2 Transport Layer

The transport layer provides a means for end-to-end data transfer between applications across multiple applications concurrently. Most commonly used protocol is the Transmission Control Protocol (TCP) because it offers reliable data delivery, duplicate suppression, congestion control, and flow control. The User Datagram Protocol (UDP) provides a connectionless, unreliable best-effort service, placing the responsibility of end-to-end integrity, flow control, and congestion control within the applications.

1.2.3 Internetwork Layer

The Internetwork layer, also called the network layer, offers the virtual network image of an internet to higher layers shielding them from physical network architecture. The most important protocol of this layer is the Internet Protocol; the protocols offer routing functions to transmit the messages to their destination. The protocols include IP, ICMP, IGMP, ARP, and RARP.

1.2.4 Network Interface Layer

The network interface layer connects to the network hardware below it and can be oriented to packets or streams. TCP/IP does not specify a link protocol but instead can operate any number of network interfaces – a reflection of the IP layer’s flexibility.

1.3 TPC/IP architecture

Application protocols are the highest layer interfaces in any internet host using the TCP/IP protocol stack. These protocols may be user-written or standardized and form part of the TCP/IP product. Examples include Telnet for terminal access, FTP for high-speed file transfers, and SMTP for internet mailing. Most applications use either UDP or TCP as a transport mechanism, with TCP being more reliable and allowing flow control. Some applications use UDP for improved performance. Most applications use the client/ server model of interaction. Each TCP/IP implementation includes a smaller or larger set of application protocols.

1.3.1 The client/server model

TCP is a peer-to-peer, connection-oriented protocol with no masters or subordinates. Applications usually communicate using a client-server model. A server is any application that provides services to users on the Internet. A client is one that requests a service. An application includes both a server and client part, which can either run on the same system or on different systems. Users invoke the client part, which forms a request for a service and sends it to the server part using TCP/IP. The server receives a request, performs the required service, and sends back results in a reply. Most servers wait at a well-known port for requests, but clients use an arbitrary ephemeral port to talk to it.

1.3.2 Bridges, routers, and gateways

A router is an internetworking device that connects networks at the network interface layer level allowing remote access to networks. It functions as a MAC relay and is transparent to IP. A router connects networks at the internetwork layer level and routes packets between them. It must understand the addressing structure associated with the networking protocols it supports and make decisions on whether or how to forward packets. The basic routing function is implemented in the IP layer of the TCP/ IP protocol stack. A router is visible to IP and can forward IP datagrams to the target host. A gateway connects networks at higher layers, usually supporting address mapping and end-to-end application connectivity. It is also opaque to IP and only sends IP datagrams to a gateway. Firewalls or firewall gateways are used to restrict access from the Internet or an untrusted network to an organization-controlled network due to security reasons.

2 TCP/IP Application Layer Protocols

The application layer in the TCP/IP Model represents a combination of the OSI model’s application, presentation, and session layers. It is responsible for initiating software programs to transfer data across the network. Presentation takes care of formatting the data so that it is understandable to the recipient. The different application layer protocols like HTTP, HTTPS, FTP, SMTP, POP3, IMAP, DNS, SNMP, Telnet, and DHCP enable the exchange of information between users. HTTPS is commonly used to secure data in transit. Each of these protocols has performance, security, and privacy issues.

2.1 HTTP & HTTPS

HTTP is the protocol of the application layer of a client-server architecture that allows communications between web browsers and servers. The security for data being transferred over the internet is very powerful with HTTP; it has integrity and confidentiality. However, several researchers view that HTTPS implementation causes higher power consumption and lack of flexibility that hampers performance and functionality.

While giant sites such as Facebook and YouTube have already widely adopted HTTPS as the standard protocol of secure communication, HTTPS has strong security benefits, its implications on power consumption and flexibility should be considered in designing Internet applications.

HTTPS reduces security vulnerability by including either SSL certificates or TLS, allowing for the security of encrypted connections between the server and the browser. This encryption serves to prevent any possible interception of personal data, including credit card numbers and passwords. Authentication plays another significant role in HTTPS by ensuring that both the server and the client can validate each other’s identities.

2.2 Telnet

Telnet is a TCP/IP protocol that connects to remote devices and makes local terminals appear directly connected to remote systems. It is a communication tool between users and remote devices. Telnet is used by network administrators in accessing remote devices for administration.

2.3 Secure Shell (SSH)

Secure Shell (SSH) is a secure alternative to Telnet, enabling users to manage and manipulate remote servers securely. It utilizes cryptography to ensure that communication is encrypted and secure. SSH authenticates the remote user and uses various encryption methods, such as Symmetric Encryption, which uses the same secret key for encryption and decryption, and Asymmetric Encryption, which uses different public and private keys for encryption and decryption, respectively, including but not limited to ciphers like RSA and Diffie-Hellman.

2.4 SMTP

The Simple Mail Transfer Protocol is an MTA that runs on port 25 and outlines the client and server MTAs in the exchange of email. It basically sets standards for data exchange between the two by command and response and thus provides a smooth structure for the transfer of emails over the Internet.

2.5 Post Office Protocol version 3 (POP3)

In the third phase of email retrieval, messages are pulled from the mail server to the recipient using a pull program. Here, message access agents are used, for example, Post Office Protocol version 3, abbreviated as POP3, which uses port number 110. The users connect to the server using a username and password for secure message retrieval.

2.6 IMAP 4

IMAP4 – Internet Mail Access Protocol version 4, is on Port 993 and has advanced capabilities than POP3 with more complex capabilities. These include previewing an e-mail without downloading it, download a partial of an e-mail, and actions such as creating, deleting, or renaming mailboxes on the mail server that hosts your account. The described capabilities also make IMAP4 more flexible than POP3.

2.7 File Transfer Protocol (FTP)

File Transfer Protocol-FTP is a protocol that uses TCP services to replicate the files between hosts. It establishes two connections: one for data transfer and the other for control information. The Control Connection remains open during the life of the FTP session, while the data transfer process uses the open connection for file transfer. The FTP model is shown below.

3 Security Concerns in Web Applications and Browsers

3.1 Caching Issues

Every Web browser caches pages visited by users in a temporary cache; this cache can be accessed by an attacker without authenticating any details like images, passwords, and usernames. These factors therefore raise several privacy issues. These risks can be reduced by regular clearance and disabling auto-saving of data.

3.2 Session Hijacking

Session hijacking is an attack wherein a hacker ‚acquires‘ an HTTP session by intercepting and stealing packets through packet sniffers. Successful session hijacking provides the hacker with full access and redirects communication from the client to the attacker. Such possible attacks require additional security measures in relation to authentication.

3.3 Cookie Poisoning

Cookies keep the session information, avoiding time-wasting frequent logins. However, the modification or theft of cookies could present possible attacks on personal information. When the attacker obtains a cookie holding login credentials, it may be used without verification; therefore, this is dangerous and presents an unauthorized access/ identity theft threat. These are prevented by the Web Application Firewalls.

3.4 Replay Attack

A replay attack is a cyber-attack where an unauthorized user intercepts and retransmits data, potentially altering it and redirecting the user’s machine to an unintended destination. To mitigate replay attacks, web browsers should implement session tracking mechanisms that distinguish legitimate from replayed traffic.

3.5 Cross-Site Scripting

Cross-Site Scripting (XSS) is an attack where malicious attackers inject malicious code into a web application or browser to hijack the user’s session by stealing session tokens and cookies. In defence, websites can disable the scripts, but this would minimize features. Another strategy would be to enhance security controls around cookie-based user authentication. 

3.6 Domain Name System

The DNS is an essential component of the internet that translates human-readable domain names into IP addresses. Attackers manipulate DNS records, which cause incorrect IP addresses and redirecting of legitimate traffic to malicious servers using protocol attacks.

3.7 DNS Protocol Attacks

DNS protocol attacks take advantage of vulnerabilities in network functions such as DNS cache poisoning, DNS spoofing, and DNS ID hijacking. These different kinds of attacks manipulate DNS cache, give wrong mappings, and redirect requests to malicious sites. DNS spoofing forges IP addresses to misdirect requests, while DNS ID hijacking impersonates a DNS server. Keeping the DNS server operating systems updated and implementing DNS Security Extensions will help prevent these attacks.

3.8 Dynamic Host Configuration Protocol (DHCP)

The Dynamic Host Configuration Protocol is used to assign temporary IP addresses to client machines on an IP network. Attackers take advantage of this and implement a DHCP starvation attack against any host, thereby sending false requests to the server until the server becomes overloaded.

3.9 Summary of the common attacks

It can prevent denial-of-service, whereby port security on the switch limits MAC addresses per port. This enables the DHCP server to effectively manage the allocation of IP addresses. The common application layer protocols attacks are summarized in Table 1.

Table 1. Summary of the common attacks at the application layer protocols. Adapted from (‘(PDF) Performance, Privacy, and Security Issues of TCP/IP at the Application Layer’, 2024).

4 Security and Privacy

The TCP/IP Application Layer faces significant security and privacy challenges, including Man-in-the-Middle (MitM) attacks, session hijacking, and unauthorized access. These vulnerabilities affect user-centric protocols such as HTTP, Telnet, and FTP, making system protection a critical concern. Proper system management and adherence to organizational or governmental security standards can reduce these risks.

Administrators may be required to comply with certain levels of security related to corporate policies or compliance laws like the U.S. DOD standards and the General Data Protection Regulation by the European Union. The standards encompass all aspects of the network infrastructure ranging from the operating system and application software to the administrative tools AIX System Management Guide, TCP/IP Security.

While TCP/IP security features ensure system protection, the balance between security and privacy and compliance remains tricky:

  • Data Confidentiality vs. Monitoring: Administrators may monitor network traffic for security reasons, but such monitoring should be compliant with privacy regulations like GDPR, requiring transparency and minimal data retention.
  • Encryption vs. System Performance: Enabling encryption through SSL/TLS enhances privacy but increases processing loads and network latency.
  • Access Control vs. Usability: The implementation of strict access controls, such as multi-factor authentication, strengthens security but may inconvenience users and reduce productivity.

It is here that organizations have to balance these trade-offs by integrating technical and administrative policies, ensuring security mechanisms comply with industry standards while respecting user privacy.

Conclusions

TCP/IP protocols are complicated but have really revolutionized internet communication by establishing a universal standard for the transfer of data across networks. Their flexibility in design has enabled the creation of an innumerable number of applications and services that power the modern digital world. This success comes at a price, though: significant security and privacy issues. Such threats as general weaknesses, such as session hijacking and DNS spoofing, encryption, regulatory, as well as many others, make security measures most needed while transmitting information over the Internet. As organizations operate against the backdrop of numerous privacy regulations and constantly evolving cyber threats, strengthening the TCP/IP protocols through cryptography, authenticated access, and trusted computing remains key. Otherwise, a balance of security, privacy, and performance would have to be struck so that the next phase of internet usage on a global scale would evolve as planned without sacrificing the users‘ confidence in it.

List of references

Forouzan, B. A. (2010). TCP/IP protocol suite (4. ed). McGraw-Hill Higher Education.

Leiden, C. (with Wilensky, M.). (2009). TCP/IP for dummies (6th ed). Wiley.

(PDF) Performance, Privacy, and Security issues of TCP/IP at the Application Layer: A Comprehensive Survey. (2024). ResearchGate. https://doi.org/10.30574/gscarr.2024.18.3.0106

Parziale, L. & International Business Machines Corporation (Eds.). (2006). TCP/IP tutorial and technical overview (8th ed). IBM International Technical Support Organization.

Vizualizace dat v Competitive Intelligence: základní nástroje

0

Competitive Intelligence (CI) je proces systematického získávání a analýzy informací o konkurenčním prostředí. Vizualizace dat za pomocí nástrojů jako Tableau, Power BI či Google Data Studio usnadňuje transformaci dat do přehledných analýz, které podporují přesné a rychlé rozhodování, které v moderním podnikání určuje úspěch.

Tyto nástroje umožňují transformovat složitá data do přehledných grafů, interaktivních dashboardů a analýz, které usnadňují identifikaci trendů, příležitostí a rizik. Vizualizace propojuje data s rozhodovacími procesy a podporuje efektivní strategické plánování.

Tento článek zkoumá přínosy a omezení vizualizačních nástrojů v CI, analyzuje jejich využití a zaměřuje se na překážky spojené s jejich implementací. Na závěr představuje kroky k efektivnímu využití vizualizace v konkurenčním zpravodajství, které organizacím pomáhá lépe reagovat na dynamické tržní změny.

Role vizualizace dat v CI

Vizualizace dat je zásadním nástrojem v oblasti konkurenčního zpravodajství, protože umožňuje transformovat komplexní informace do formy, která je snadno pochopitelná a použitelná pro strategické rozhodování. V současném podnikatelském prostředí, charakterizovaném neustále narůstajícím objemem informací, je schopnost efektivně zpracovávat a prezentovat data zásadní pro udržení konkurenční výhody. Prostřednictvím různých grafů, diagramů, map či interaktivních dashboardů lze rychle identifikovat vzory, souvislosti a trendy, které by jinak mohly zůstat skryté. Tím se zvyšuje schopnost organizací reagovat na dynamické změny na trhu a přijímat informovaná rozhodnutí.

Moderní nástroje, jako jsou Tableau, Microsoft Power BI a Google Data Studio, poskytují širokou škálu možností pro propojení datových zdrojů a pokročilou vizualizaci. Tyto nástroje podporují detailní analýzy a umožňují uživatelům zkoumat různé scénáře, simulovat dopady rozhodnutí a plánovat na základě reálných dat. Například geografická vizualizace pomáhá identifikovat regionální rozdíly v konkurenčním prostředí, zatímco časové řady odhalují sezónní trendy a změny ve spotřebitelském chování.

Vizualizace dat hraje důležitou roli také při podpoře komunikace a spolupráce uvnitř organizace. Srozumitelné grafy a interaktivní dashboardy zajišťují efektivní sdílení poznatků mezi jednotlivými odděleními. To přispívá k tvorbě jednotné strategie a umožňuje, aby strategická rozhodnutí vycházela z relevantních a společně pochopených dat. Tento přístup je obzvláště důležitý při plánování kroků, které mají dopad na celé organizace, například při vstupu na nové trhy nebo při zavádění nových produktů.

Navzdory mnoha výhodám přináší implementace vizualizačních technologií také určité výzvy. Mezi hlavní překážky patří nedostatek technických dovedností u zaměstnanců, omezené zdroje či nevhodný výběr nástroje. Špatně navržená vizualizace může vést k dezinterpretaci dat a následně k chybným rozhodnutím. Je proto nezbytné klást důraz na kvalitu vizualizací, která zahrnuje nejen obsahovou správnost, ale také vizuální přehlednost a přizpůsobení konkrétním potřebám organizace.

Do budoucna přinášejí nové technologie, jako je umělá inteligence a strojové učení, další možnosti pro automatizaci a zlepšení vizualizačních procesů. Tyto technologie umožňují rychlejší zpracování a interpretaci dat, čímž zvyšují celkovou efektivitu CI. Očekává se, že v následujících letech se role vizualizace v CI ještě více rozšíří, a to jak z hlediska nástrojů, tak přístupů, které umožní firmám lépe porozumět dynamickým trhům a rychle reagovat na jejich změny. 

Celkově je vizualizace dat nepostradatelným nástrojem v konkurenčním zpravodajství, který podporuje efektivní rozhodovací procesy, zlepšuje komunikaci uvnitř organizace a přispívá k udržení konkurenční výhody na trhu.

Analýza vizualizačních nástrojů v CI

Vizualizační nástroje hrají klíčovou roli při transformaci dat do přehledné podoby. Mezi nejpoužívanější nástroje v oblasti CI patří TableauMicrosoft Power BIGoogle Data Studio a Pythonové knihovny Matplotlib a Seaborn.

Tableau

Tableau, vyvinutý společností Tableau Software a nyní součást Salesforce, je jedním z nejpokročilejších a nejpopulárnějších nástrojů v oblasti datové vizualizace. Tento nástroj je zaměřen především na potřeby velkých korporací, které hledají řešení pro efektivní zpracování a analýzu rozsáhlých datových sad. Tableau je známé svou schopností vytvářet vizualizace, které jsou nejen esteticky příjemné, ale také mimořádně přehledné, a to díky svému intuitivnímu uživatelskému rozhraní a možnosti Drag-and-Drop. Tato funkce umožňuje snadné vytváření komplexních vizualizací i uživatelům bez pokročilých technických znalostí.

Mezi hlavní přednosti Tableau patří jeho robustnost a spolehlivost, zejména při práci s velkými objemy dat. Nástroj nabízí široké možnosti integrace s různými systémy, jako jsou Hadoop, SAP nebo cloudové platformy, což zajišťuje vysokou flexibilitu pro analytické procesy. Tableau umožňuje uživatelům vytvářet interaktivní dashboardy a využívat pokročilé analytické funkce, jako je clustering nebo prediktivní analýza, které pomáhají identifikovat trendy, vzory a vztahy v datech. Tyto funkce jsou zvláště cenné při strategickém plánování a řízení.

Navzdory mnoha výhodám má Tableau i své nevýhody. Nejčastěji zmiňovaným omezením je jeho vysoká cena, která činí tento nástroj méně dostupným pro menší organizace. Navíc může být jeho implementace náročná, protože často vyžaduje odborné školení zaměstnanců a pokročilé technické znalosti. Organizace s menším rozpočtem a omezenými technickými kapacitami proto někdy volí alternativní nástroje, jako je Microsoft Power BI, které nabízejí podobné funkce za nižší cenu.

Tableau je tedy ideální volbou pro velké organizace, které hledají spolehlivý nástroj s širokými možnostmi přizpůsobení a pokročilými funkcemi pro datovou analýzu. Jeho robustnost a flexibilita umožňují efektivní práci s rozsáhlými datovými sadami, avšak jeho implementace a provoz mohou být náročné pro firmy s omezenými zdroji.

Microsoft Power BI

Microsoft Power BI je moderní nástroj pro analýzu a vizualizaci dat, který je cenově dostupný a široce používaný napříč různými odvětvími. Tento nástroj, vyvinutý společností Microsoft, se vyznačuje především svou silnou integrací s dalšími produkty této společnosti, jako jsou Excel, SharePoint a Azure. Díky této integraci umožňuje snadné propojení dat z různých zdrojů a jejich efektivní analýzu, což z něj činí výkonný nástroj nejen pro datové analytiky, ale i pro méně technicky zdatné uživatele.

Power BI nabízí intuitivní uživatelské rozhraní, které umožňuje rychlou tvorbu interaktivních reportů a dashboardů. Uživatelé mohou snadno kombinovat data z různých zdrojů, analyzovat je v reálném čase a prezentovat výsledky ve vizuálně atraktivním formátu. Součástí nástroje je také bohatá knihovna předpřipravených šablon, které usnadňují práci a šetří čas při vytváření reportů.

Jedním z hlavních důvodů popularity Power BI je jeho cenová dostupnost. Na rozdíl od některých konkurenčních nástrojů nabízí Power BI robustní funkce za relativně nízké náklady, což z něj činí atraktivní volbu zejména pro malé a střední podniky. Tato dostupnost umožňuje firmám všech velikostí efektivně pracovat s daty a činit informovaná rozhodnutí.

Navzdory mnoha výhodám má Power BI i svá omezení. Při práci s velmi velkými datovými sadami může jeho výkon zaostávat za pokročilejšími řešeními, jako je Tableau. Navíc při složitějších analýzách nebo při potřebě vysoce přizpůsobených vizualizací může být nutné využít pokročilejší znalosti, například jazyka DAX. Tyto faktory mohou omezit jeho použitelnost v některých specifických scénářích, například při zpracování dat v reálném čase nebo při pokročilé prediktivní analýze.

Celkově je Microsoft Power BI ideálním řešením pro organizace, které hledají nákladově efektivní a snadno použitelný nástroj s dostatečnými analytickými možnostmi. Jeho silná integrace s ekosystémem Microsoftu a flexibilita z něj činí oblíbenou volbu pro širokou škálu firemních aplikací.

Google Data Studio

Google Data Studio je bezplatný nástroj pro vizualizaci dat, navržený tak, aby usnadnil analýzu a prezentaci dat širokému spektru uživatelů. Díky svému intuitivnímu uživatelskému rozhraní a přímé integraci s produkty Google, jako jsou Google Analytics, Google Ads a Google Sheets, je často preferovaným nástrojem pro marketingové týmy a menší firmy. Uživatelé mohou snadno vytvářet interaktivní reporty a dashboardy, které lze sdílet prostřednictvím odkazů a upravovat v reálném čase.

Jednou z hlavních předností Google Data Studio je jeho jednoduchost použití a přístupnost i pro netechnické uživatele. Nástroj umožňuje rychlé propojení s různými datovými zdroji a nabízí širokou škálu grafických prvků, které usnadňují interpretaci dat. Je často využíván pro analýzy zaměřené na sledování výkonu online kampaní, přehledy webového provozu nebo jiné základní reporty.

Navzdory své uživatelské přívětivosti má Google Data Studio i svá omezení. Při práci s velmi rozsáhlými datovými sadami může nástroj výkonově zaostávat za konkurenčními řešeními, jako jsou Tableau nebo Microsoft Power BI. Také mu chybí některé pokročilé analytické funkce, což jej činí méně vhodným pro komplexní podnikové aplikace.

Celkově je Google Data Studio efektivním nástrojem pro rychlou vizualizaci a sdílení dat, vhodným zejména pro menší projekty, které nevyžadují pokročilé analytické schopnosti. Jeho integrace s produkty Google a snadné použití jej činí přístupným nástrojem pro širokou škálu uživatelů.

Matplotlit a Seaborn

Pythonové knihovny Matplotlib a Seaborn nabízejí velkou flexibilitu při tvorbě vizualizací a umožňují analytikům detailní kontrolu nad výsledným výstupem. Tyto knihovny jsou oblíbené zejména mezi datovými vědci a pokročilými uživateli, kteří potřebují přizpůsobené grafy pro specifické analýzy. Jejich nevýhodou je vyšší technická náročnost a nutnost znalosti programování, což může omezit jejich využití pro běžné uživatele.

Každý z těchto nástrojů nabízí jedinečné vlastnosti, které odpovídají různým potřebám a požadavkům organizací. Výběr správného nástroje závisí na mnoha faktorech, včetně velikosti organizace, technických znalostí uživatelů a povahy analyzovaných dat.

Přínosy a omezení vizualizačních technologií v CI

Vizualizace dat přináší několik zásadních výhod, které zvyšují efektivitu CI:

  1. Rychlá identifikace trendů a příležitostí: Vizualizace umožňuje snadno rozpoznat klíčové trendy, vzorce a anomálie v datech, což usnadňuje strategické rozhodování.
  2. Zlepšená komunikace a podpora strategického plánování: Grafické znázornění dat usnadňuje prezentaci komplexních informací managementu a dalším zainteresovaným stranám, což podporuje efektivní sdílení poznatků a zjednodušuje proces strategického plánování. Interaktivní dashboardy propojené s aktuálními daty zároveň umožňují simulaci různých scénářů.
  3. Zlepšení rozhodovacích procesů: Vizualizace zkracuje čas potřebný k pochopení složitých dat a zvyšuje přesnost rozhodnutí.

Navzdory mnoha výhodám vizualizačních technologií existují i určitá omezení:

  1. Riziko špatné interpretace dat: Špatně navržené vizualizace nebo nesprávně interpretovaná data mohou vést k chybným závěrům a rozhodnutím. To zdůrazňuje důležitost správného designu a výběru vizualizačních technik.
  2. Náklady na implementaci a školení: Komplexní nástroje, jako Tableau, mohou být finančně náročné, zejména pro malé a střední podniky. Náklady na software, školení a implementaci mohou představovat významnou překážku. 

Výzvy implementace vizualizačních technologií v CI

Implementace vizualizačních technologií v CI často naráží na technické problémy. Integrace vizualizačních nástrojů, jako jsou Tableau nebo Microsoft Power BI, s existujícími systémy (například ERP nebo CRM platformami) může být složitá. Organizace často používají různé softwarové nástroje, které nejsou plně kompatibilní. Tento problém vyžaduje buď přizpůsobení stávajících systémů, nebo investici do middleware pro zajištění hladké integrace.  Nekompatibilita mezi systémy může výrazně zpomalit implementaci vizualizačních technologií.

Dále vizualizační technologie, zejména ty, které fungují v cloudu, přinášejí otázky týkající se ochrany citlivých informací. Bezpečnost dat je hlavní překážkou pro organizace působící ve vysoce regulovaných odvětvích, jako je zdravotnictví nebo finance. Bezpečnostní standardy, šifrování a dodržování pravidel, jako je GDPR, jsou klíčovými faktory pro úspěšnou implementaci.

Výzvy v implementaci se mohou objevovat i ze strany lidského faktoru. Pro určité vizualizační nástroje je potřeba specifických technických dovedností, jako je schopnost pracovat s jazyky DAX (pro Power BI) nebo znalost Pythonových knihoven (pro Matplotlib nebo Seaborn). Organizace pak často naráží na nedostatek vyškolených pracovníků, což opět zpomaluje implementaci technologií.

Zároveň jakékoliv zavedení nových technologií často vyžaduje změnu v pracovních postupech a organizační kultuře. Zaměstnanci, kteří jsou zvyklí na tradiční metody reportování (například pomocí Excelu), mohou projevovat odpor vůči pokročilým vizualizačním nástrojům, což ztěžuje jejich adaptaci. Řešením může být zavedení uživatelsky přívětivých nástrojů a důraz na školení, které se zaměřuje na praktické přínosy těchto technologií.

Mezi pomyslné výzvy by se určitě v některých případech daly zařadit i vysoké počáteční náklady, zahrnující nákup softwaru, školení zaměstnanců a úpravy infrastruktury. Tyto problémy mohou být řešeny postupnou implementací nástrojů a upřednostňováním open-source řešení.

Doporučení pro efektivní využití vizualizace v CI

Pro efektivní využití vizualizačních technologií v rámci CI je důležité dodržovat následující doporučení:

  1. Definujte jasné cíle vizualizace: Před zahájením tvorby vizualizací je nezbytné přesně určit, jaké informace chcete sdělit a jaký je jejich účel. Tím zajistíte, že výsledné vizualizace budou relevantní a přínosné pro uživatele. 
  2. Vyberte správné nástroje odpovídající potřebám organizace: Rozhodující je výběr nástroje, který odpovídá technickým možnostem organizace a schopnostem zaměstnanců. Velké korporace mohou těžit z robustních platforem, jako je Tableau, zatímco menší firmy mohou preferovat nákladově efektivnější řešení, například Google Data Studio.
  3. Zajistěte ochranu dat a dodržování bezpečnostních standardů: V CI je často nutné zpracovávat citlivé informace. Použití šifrování, autentizace uživatelů a dodržování předpisů, jako je GDPR, je klíčové. 
  4. Investujte do školení zaměstnanců: Úspěšné zavedení vizualizačních technologií vyžaduje technicky zdatné uživatele. Školení by mělo zahrnovat nejen používání konkrétních nástrojů, ale také základní principy efektivní vizualizace dat. Zaměření na praktické přínosy pro konkrétní pracovní činnosti pomáhá překonat případný odpor ke změnám.
  5. Vytvářejte přehledné a cílené vizualizace: Vizualizace by měla být navržena tak, aby byla snadno pochopitelná a přizpůsobená konkrétnímu publiku. Minimalizace rušivých prvků, využití kontrastních barev a volba správného typu grafu zvyšují přehlednost a efektivitu komunikace.
  6. Automatizujte procesy aktualizace dat: Automatizace datových toků a aktualizace vizualizací pomocí API nebo napojení na datové zdroje eliminuje manuální práci, minimalizuje chyby a zajišťuje, že informace jsou vždy aktuální.
  7. Monitorujte a zlepšujte vizualizační procesy: Pravidelně hodnoťte, jak dobře vizualizace přispívají k cílům CI, a provádějte potřebné úpravy. 

Závěr

Vizualizace dat je nepostradatelným prvkem moderního konkurenčního zpravodajství. Její schopnost přetvářet složité datové soubory do přehledných, snadno interpretovatelných vizuálních výstupů umožňuje organizacím efektivněji porozumět tržním trendům, identifikovat příležitosti a reagovat na hrozby. Přínosy vizualizace dat zahrnují rychlou identifikaci klíčových vzorců, zlepšení rozhodovacích procesů, podporu strategického plánování a posílení komunikace uvnitř organizací.

Analýza ukázala, že nástroje jako Tableau, Microsoft Power BI, Google Data Studio a Pythonové knihovny nabízejí široké spektrum funkcionalit, které lze přizpůsobit potřebám různých organizací. Zatímco robustní řešení jako Tableau a Power BI dominují na poli korporátní analýzy, dostupné a snadno použitelné nástroje jako Google Data Studio usnadňují přístup k vizualizaci i menším firmám. Flexibilita a škálovatelnost těchto nástrojů však přinášejí i výzvy, jako jsou náklady na implementaci, potřeba technických znalostí či zabezpečení dat.

Přes technologické pokroky zůstávají klíčové výzvy spojené s implementací vizualizačních technologií. Ty zahrnují nejen technickou složitost a potřebu vyškoleného personálu, ale také odpor vůči změnám v organizační kultuře. Efektivní zavedení vizualizace vyžaduje důkladnou přípravu, jasně stanovené cíle, vhodný výběr nástrojů, školení zaměstnanců a důraz na ochranu citlivých informací.

Do budoucna lze očekávat další rozvoj vizualizačních technologií díky integraci umělé inteligence a strojového učení, což přinese nové možnosti automatizace a interpretace dat. Organizace, které budou tyto inovace aktivně využívat, získají výraznou konkurenční výhodu a schopnost pružně reagovat na dynamiku trhů.

Zdroje

Bendlová, P. (2024). Analýza reportovacích nástrojů pro vizualizaci dat (Diplomová práce, Česká zemědělská univerzita v Praze). Česká zemědělská univerzita v Praze.https://theses.cz/id/lb4spj/zaverecna_prace.pdf_

Byteca (2023). Power BI vs. Tableau – Srovnání a kontrastní přehled těchto dvou nástrojů pro datovou analýzu. Byteca.https://byteca.com/cs/2023/07/20/power-bi-vs-tableau-srovnani-a-kontrastni-prehled-techto-dvou-nastroju-pro-datovou-analyzu/

Cuthbert, C. E., & Pearse, N. J. (2022). Strategic data pattern visualisation. Journal of Systemics, Cybernetics and Informatics.https://www.iiisci.org/Journal/PDV/sci/pdfs/IP151LL21.pdf

Červený, V. (2024). Regulace cloud computingu v České republice. GDPR.cz. https://www.gdpr.cz/regulace-cloud-computingu-v-ceske-republice

Děd, V. (2023). Competitive intelligence dashboard pro vybraný podnik (Bakalářská práce, Masarykova univerzita). Masarykova univerzita.https://is.muni.cz/th/vzgw1/Vaclav_Ded__bakalarska_prace__2_.pdf

Horáček, P. (2019). Vizualizační nástroje: Poradíme vám, podle jakého klíče vybrat ten pravý. Digichef. https://digichef.cz/vizualizacni-nastroje-poradime-vam-podle-jakeho-klice-vybrat-ten-pravy

Kratochvílová, L. (2023). Competitive Intelligence v organizaci (Diplomová práce, Univerzita Pardubice). Univerzita Pardubice. https://dk.upce.cz/server/api/core/bitstreams/6114864b-cfa6-4b66-a376-b453c9f60fbe/content

Marek, T. (n.d.). K čemu je nám vizualizace? KISK 4 FUTURE.https://kisk.phil.muni.cz/kisk4future/vizualizace/k-cemu-je-nam-vizualizace

Rose-Collins, F. (2024). 5 hlavních výhod implementace vizualizace dat do vaší obchodní strategie. Ranktracker.https://www.ranktracker.com/cs/blog/the-top-5-benefits-of-implementing-data-visualization-in-your-business-strategy/

TRG International. (2023). Data analytics and its roles in enterprises. TRG International.https://blog.trginternational.com/big-data-analytics-role-in-modern- business#theroleofdat

Waskom, M. (2021): Seaborn: Statistical data visualization.https://seaborn.pydata.org/

Spotify: Data jako klíč k úspěchu v marketingové strategii

0
Spotify account pair of Bluetooth earphones beside phone

Spotify patří mezi lídry v oblasti streamování hudby, ale jeho úspěch nespočívá pouze v kvalitě nabízeného obsahu a rozmanitosti nabízených hudebních žánrů a interpretů. Klíčovým faktorem jeho růstu je efektivní využívání dat o uživatelích a jejich chování při používání platformy. Tato data, získávaná prostřednictvím různých interakcí uživatelů se službou, umožňují Spotify nejenom zlepšovat uživatelský zážitek, ale také cíleně personalizovat reklamy a hudební doporučení. Tato práce se zaměřuje na analýzu, jak Spotify sbírá, zpracovává a využívá data ve své marketingové strategii, přičemž klade důraz na jednu z nejznámějších kampaní, Spotify Wrapped. Zároveň se zaměřuje na problematiku ochrany soukromí a otázky spojené s regulacemi, které se vztahují k masivnímu sběru dat o uživatelích.



Jaká data sbírá Spotify?

Zdroje dat

Spotify využívá různé zdroje dat, aby poskytoval a zlepšoval své služby. Mezi hlavní zdroje patří (Spotify Privacy Policy, 2024):

  1. Data, poskytovaná přímo uživatelem. Tato data se shromažďují, když se uživatel zaregistruje nebo aktualizuje svůj účet Spotify. Zahrnují základní informace potřebné k vytvoření účtu a používání služeb: uživatelské jméno, emailová adresa apod.
  2. Data o interakci se službou. Spotify sbírá informace o používání služeb – poslouchané skladby, vytvořené playlisty a další akce.
  3. Doplňková data. Data, která jsou shromažďovaná, pokud uživatel udělí určitá oprávnění. Toto jsou například hlasová data, informace o platbách a nákupech nebo údaje z dotazníků a průzkumů.
  4. Data od třetích stran. Pro poskytování svých služeb Spotify také získává data od třetích stran:
    • partneři pro autentifikaci,
    • aplikace, služby a zařízení,
    • technické servisní partneři,
    • platební partneři,
    • marketingoví partneři.

Typy sbíraných dat

Spotify shromažďuje různé typy dat za účelem zajištění a zlepšení fungování služby a personalizaci zážitků uživatelů. Sbíraná data lze rozdělit do následujících kategorií (Spotify Privacy Policy, 2024):

  1. Uživatelská data (User Data). Data nezbytná pro vytvoření účtu Spotify a používání služby. Jsou to uživatelské jméno, email, telefonní číslo, datum narození, adresa bydliště, země a další. Některé z těchto údajů uživatel poskytuje prostřednictvím registračního formuláře, ostatní (země a region) se shromažďují ze zařízení.
  2. Údaje o používání (Usage Data). Údaje sbíraná při přístupu k Spotify nebo jeho používaní. Zahrnují:
    • vyhledávácí dotazy, historie streamování a prohlížení, vytvořené playlisty, nastavení účtu,
    • závěry Spotify o zájmech a preferencích uživatele na základě používání,
    • obsah, publikovaný na Spotify: obrázky, zvuk, text, zprávy a další.
  3. Hlasová data (Voice Data). Pokud jsou hlasové funkce dostupné v daném regionu, Spotify shromažďuje a zpracovává zvukové nahrávky a přepisy hlasu uživatele.
  4. Údaje o platbách a nákupech (Payment and Purchase Data)
  5. Data z dotazníků a výzkumů (Survey and Research Data). Pokud se uživatel zúčastní výzkumu nebo odpovídá na dotazníky, Spotify shromažďuje a využívá poskytnuté osobní údaje.

Za jakým účelem Spotify používá sbíraná data?

Doporučovací algoritmy

Spotify využívá algoritmy k poskytování personalizovaných hudebních doporučení. Tento systém se opírá o velké množství dat a neustále se zdokonaluje díky analýze uživatelských dat, hudebního obsahu a chování dalších posluchačů.

Hlavní principy fungování doporučovacích algoritmů Spotify (towardsdatascience.com, 2021):

  1. Sběr různých typů dat z velkého množství zdrojů.
  2. Analýza zvukových souborů pomocí NLP, což pomáhá pochopit charakteristiky hudby, například žánr, nástroje, tempo a náladu.
  3. Tvorba doporučovacího systému (recommender system), který zahrnuje informace o oblíbených žánrech, umělcích a skladbách. Systém se aktualizuje na základě historie přehrávání, oblíbených a přeskočených skladeb.
  4. Filtrování – algoritmus doporučuje hudbu, která je podobná skladbám, které uživatel již poslouchal, na základě jejich vlastností. Algoritmus také studuje aktivitu ostatních uživatelů s podobnými preferencemi a doporučuje hudbu, kterou mají rádi. Tímto způsobem uživatel může objevit novou hudbu, kterou by možná sám nenašel.
  5. Systém BaRT (“Bandits for Recommendations as Treatments”) – systém strojového učení, který personalizuje domovský panel uživatele. Doporučuje hudbu na základě existujících dat o preferencích, a také nabízí obsah, který algoritmus ještě nezná, aby zjistil, zda zajímá uživatele.
  6. Pravidlo 30 sekund – pokud uživatel poslouchá skladbu méně než 30 sekund, Spotify předpokládá, že ho nezaujala. Poslech delší než 30 sekund je naopak pro algoritmus pozitivním signálem.

Celkově jsou algoritmy doporučení Spotify složitým systémem, který se neustále vyvíjí. Spoléhají na obrovské množství dat a různé metody strojového učení, aby uživatelům poskytly personalizovaný hudební zážitek. Přestože jsou tyto algoritmy účinné, je důležité pochopit jejich omezení a být informovaný o jejich praktikách sběru a využívání dat.

Cílená reklama

Spotify využívá různé zdroje dat k personalizaci reklam pro uživatele bezplatné verze služby. To zajišťuje, že reklamy jsou pro uživatele relevantnější a zajímavější. Shromážděná data jsou používaná k určení cílového publika pro různé reklamní kampaně. Také Spotify zobrazuje určité reklamy na základě hudebních preferencí uživatele. Nakonec Spotify sleduje, jak uživatelé s reklamami interagují, aby vyhodnotilo jejich účinnost. (Spotify Privacy Policy, 2024)

Spotify Wrapped

Spotify Wrapped je každoroční marketingová kampaň, která uživatelům nabízí personalizovaný přehled jejich poslechové aktivity za celý rok. Tento přehled je založen na velkém množství dat, která Spotify shromažďuje o svých uživatelích. (montrealethics.ai, 2022)

Na základě sbíraných dat Spotify Wrapped určuje nejoblíbenější interprety, skladby a žánry uživatelů. Navíc Spotify porovnává poslechová data s daty ostatních uživatelů, aby ukázalo, jak jedinečný je hudební vkus konkrétního uživatele. (CNN, 2021)

Spotify Wrapped je populární z několika důvodů (montrealethics.ai, 2022):

  • je prezentován jako barevný a interaktivní příběh, což ho činí atraktivním pro uživatele, 
  • Spotify umožňuje snadné sdílení Wrapped na sociálních sítích, což pomáhá kampani se šířit,
  • Wrapped může vyvolávat pocit soutěživosti tím, že uživatelům ukazuje jejich pořadí mezi nejlepšími posluchači konkrétních interpretů.

I když je Spotify Wrapped zábavný a zajímavý, je důležité myslet na problémy s ochranou soukromí spojené s používáním vašich dat. Kritici tvrdí, že Spotify Wrapped (vox.com, 2021):

  • může uživatele vynutit k akceptování rozsáhlého sběru dat výměnou za příjemný zážitek,
  • může motivovat uživatele k vytváření digitální identity na základě jeho poslechových dat, což může vést k porovnávání s ostatními a pocitu nejistoty,
  • algoritmy používané pro vytvoření Wrapped mohou být zaujaté a vést k diskriminaci interpretů.

Jaké jsou dopady Spotify na ochranu dat?

Výzvy a problémy

Spotify čelí kritice ohledně množství dat, která o svých uživatelích shromažďuje, a otázkám, zda je všechna tato data skutečně nutné sbírat.

Někteří kritici tvrdí, že funkce jako Spotify Wrapped, která uživatelům nabízí atraktivní přehled jejich hudební aktivity, může normalizovat nadměrné shromažďování dat. Uživatelé, nadšení personalizovaným obsahem, si neuvědomují rizika spojená s objemem dat, která Spotify sbírá. (ottawacitizen.com, 2021)

Spotify Wrapped může také motivovat uživatele k vytváření digitální identity založené na jejich poslechových datech. To může vést k porovnávání s ostatními a pocitu nejistoty, pokud jejich hudební vkus neodpovídá určitým standardům. (vox.com, 2021)

Algoritmy Spotify, které slouží k personalizaci obsahu, mohou vést k diskriminaci. Například mohou uživatelům nabízet hudbu převážně bílých interpretů, čímž omezují rozmanitost hudebních stylů a interpretů, které uživatelé objevují. (montrealethics.ai, 2022)

Spotify může shromážděná data využívat pro komerční účely, například prodej informací o demografii a preferencích uživatelů reklamním společnostem. To vyvolává obavy z možného zneužití těchto informací k manipulaci. (montrealethics.ai, 2022)

Kritici zpochybňují, zda je sběr všech dat skutečně nezbytný. Tvrdí, že mnoho z těchto údajů, jako je přesná poloha uživatele nebo data z čidel zařízení, není nutných pro poskytování hlavní služby, tedy streamování hudby. Objevuje se otázka, zda výhody personalizace obsahu vyvažují rizika pro soukromí spojená s tímto rozsahem sběru dat. (ottawacitizen.com, 2021)

Soulad s regulacemi

Spotify poskytuje uživatelům práva týkající se jejich osobních údajů v souladu se svou politikou ochrany osobních údajů. Mezi tato práva patří přístup, oprava, výmaz a přenositelnost dat. (Spotify Privacy Policy, 2024)

  1. Přístup k datům. Uživatelé mají právo získat informace o tom, jaké osobní údaje Spotify zpracovává a za jakým účelem. Tyto informace jsou dostupné prostřednictvím politiky ochrany osobních údajů. Uživatelé také mohou požádat o kopii svých osobních údajů, které Spotify zpracovává.
  2. Oprava dat. Uživatelé mají právo požádat o opravu nebo aktualizaci svých osobních údajů, pokud jsou nepřesné nebo neúplné.
  3. Výmaz dat. Uživatelé mohou požádat o výmaz některých svých osobních údajů. Například mohou požádat o výmaz dat, která již Spotify nepotřebuje pro původní účel, nebo dat, která byla zpracovávána na základě souhlasu, jenž byl odvolán.
  4. Přenositelnost dat. Uživatelé mají právo získat kopii svých osobních údajů v elektronickém formátu a přenést je ke službě jiného poskytovatele.

Existují různé metody, jakými Spotify informuje uživatele o tom, jakým způsobem jsou jejich osobní údaje zpracovávány. Mezi hlavní způsoby patří zásady ochrany osobních údajů Spotify, centrum ochrany osobních údajů, nastavení účtu a zásady používání cookies. (Spotify Privacy Policy, 2024)


Závěr a klíčová zjištění

Z analýzy provedené v této práci vyplývá, že Spotify efektivně využívá data k personalizaci uživatelského zážitku a maximalizaci marketingové efektivity. Shromažďování údajů o uživatelském chování, jako je historie poslechů a interakce s aplikací, umožňuje firmě přizpůsobit nabídku jak uživatelským preferencím, tak i komerčním cílům.

Kampaň Spotify Wrapped je v tomto ohledu klíčovým nástrojem, který nejenže zvyšuje angažovanost uživatelů, ale také generuje obrovskou mediální pozornost a podporuje šíření značky. Na druhé straně však existují obavy ohledně ochrany osobních údajů, přičemž někteří kritici varují před neúměrným sběrem dat a jeho možným zneužitím pro komerční účely. Spotify se však snaží být v souladu s platnými předpisy o ochraně osobních údajů, což je uvedeno v její politice ochrany soukromí. Celkově se ukazuje, že i přes určité kontroverze kolem sběru dat, Spotify zůstává lídrem v oblasti personalizace, což je klíčové pro její marketingovou a obchodní strategii.


Zdroje

About Data Collection for Attribution. (2024). Spotify.com. https://help.adanalytics.spotify.com/about-data-collection-for-attribution

Business, R. M., CNN. (2021, December 2). Spotify Wrapped shows how our personal data gets sliced and diced. CNN. https://edition.cnn.com/2021/12/02/tech/spotify-wrapped-data/index.html

Maiei. (2022, May 26). Discover Weekly: How the Music Platform Spotify Collects and Uses Your Data. Montreal AI Ethics Institute. https://montrealethics.ai/discover-weekly-how-the-music-platform-spotify-collects-and-uses-your-data/

Marius, H. (2021). Uncovering How the Spotify Algorithm Works. Medium. https://towardsdatascience.com/uncovering-how-the-spotify-algorithm-works-4d3c021ebc0

Pau, K. (2021, December 2). Spotify Wrapped, Unwrapped. Vox. https://www.vox.com/culture/22814121/spotify-wrapped-2021-algorithm-data-privacy

Privacy Policy – Spotify. (2024). Spotify.com. https://www.spotify.com/ua-en/legal/privacy-policy/#spotify-privacy-policy

Richardson, J. M. (2021, December 31). Richardson: Spotify Wrapped makes invasive data collection look cool and hip. Ottawacitizen; Ottawa Citizen. https://ottawacitizen.com/opinion/richardson-spotify-wrapped-makes-invasive-data-collection-look-cool-and-hip

Safety & Privacy Center. (2021). Spotify.com. https://www.spotify.com/ua-en/safetyandprivacy/personal-data-collected

Fake news generované umelou inteligenciou a ich vplyv na spoločnosť

0

Úvod

Podľa informácií uvedených na stránke Európskeho parlamentu vníma AI technológie ako pozitívne 61% Európanov (European Parliament, 2023). Avšak až 88% obyvateľov Európy si myslí, že nad umelou inteligenciou a robotikou potrebujeme riadny dohľad. (European Parliament, 2023)

Umelá inteligencia (AI) predstavuje jednu z najvýznamnejších technologických inovácií 21. storočia, ktorá zásadne mení spôsob, akým komunikujeme, pracujeme a spracovávame informácie. Medzi jej najdôležitejšie podoblasti patrí generatívna umelá inteligencia (Generative AI), ktorá má schopnosť vytvárať nové obsahy – texty, obrázky, videá či zvuk – na základe existujúcich dát. Tento technologický pokrok otvára obrovské možnosti pre kreatívny priemysel, vzdelávanie či zábavu. Na druhej strane však prináša aj výzvy a riziká, najmä v kontexte šírenia nepravdivých informácií, známych ako fake news, a tvorby deepfake materiálov.

Tie nie sú novým fenoménom. Avšak vďaka pokročilým nástrojom umelej inteligencie sa možnosti ich tvorby a šírenia dramaticky zmenili. Ako spoločnosť tak čelíme novým hrozbám a sme nútení hľadať efektívne riešenia na to ako ich zvládnuť.

Cieľom tejto práce je preskúmať fenomén fake news generovaných umelou inteligenciou, uviesť virálne príklady ich zneužitia za posledné obdobie v rôznych sférach spoločenského života a prostredníctvom nich analyzovať dopad tohto trendu na spoločnosť. Koniec práce je zameraný na preskúmanie konkrétnych riešení, ktoré by mohli pomôcť zmierniť narastajúci trend fake news a deepfake materiálov a zabrániť ich nevhodnému používaniu.

Umelá inteligencia

Aj keď sa s pojmom umelá inteligencia (artificial intelligence – AI) stretávame často, je pomerne náročné ho jasne definovať. Toto združené pomenovanie sa skladá z dvoch slov. Pojem inteligencia podľa Cambridge Dictionary (2024) znamená schopnosť učiť sa, chápať a robiť úsudky či mať názory založené na rozume (vlastný preklad). Ak k tomu teda pridáme pojem umelý či umelá, prenášame túto schopnosť z človeka na niečo neživé ako napr. technológiu, zariadenie či systém. Dostávame sa tak k vysvetleniu pojmu umelá inteligencia uverejnenom v článku na Brittanica.com, v ktorom sa píše, že umelá inteligencia (AI) je schopnosť digitálneho počítača alebo počítačom riadeného robota vykonávať úlohy bežne spojené s inteligentnými bytosťami. Tento termín sa tiež často používa na projekt vývoja systémov vybavených intelektuálnymi procesmi charakteristickými pre ľudí, ako je schopnosť uvažovať, objavovať význam, zovšeobecňovať alebo schopnosť učiť sa z minulých skúseností. (Copeland, 2024, vlastný preklad).

Využitie umelej inteligencie v bežnom živote je viac než aktuálne. Je súčasťou rôznych internetových vyhľadávačov, digitálnych asistentov či inteligentných zariadení v našich domácnostiach. Softvéry na preklad jazykov sa taktiež spoliehajú na umelú inteligenciu, čo sa napríklad prejavuje aj v generovaní automatických titulkov pod videami. Autonómne vozidlá ešte síce nie sú štandardom, avšak dnešné automobily už vďaka umelej inteligencii využívajú viaceré bezpečnostné prvky. Jej vplyv sa prejavuje aj v kybernetickej bezpečnosti a rozpoznávaní možných hrozieb. Takisto je vo veľkom využívaná v automatizovaných výrobných závodoch, či v poľnohospodárskom priemysle. A do budúcna má AI obrovský potenciál zmeniť viaceré aspekty nášho života, na ktoré sme zvyknutí (Európsky parlament, 2023)

Generatívna umelá inteligencia

Generatívna umelá inteligencia (generative artificial intelligence – GAI) je pokročilá forma umelej inteligencie (AI), ktorá sa zameriava na tvorbu nového obsahu, ako sú texty, obrázky, zvuky, hudba a videá. Tento typ AI využíva rôzne algoritmy na generovanie obsahu, ktorý je v dnešnej dobe už často neodlíšiteľný od toho, čo vytvárajú ľudia. Schopnosť generovať takýto obsah je postavená na komplexných algoritmoch, ktoré dokážu analyzovať a napodobniť ľudské vzorce tvorby. (Mirga, 2024)

Táto technológia je využívaná v rozličných oblastiach, najmä za účelom zjednodušiť tvorbu nového obsahu. Efektívne sa dá využiť najmä pri úlohách vyžadujúcich kreativitu. Typickým príkladom je jej uplatnenie v umeleckom a filmovom priemysle, architektúre, reklame či marketingu.

Ako to funguje? Generatívna umelá inteligencia pracuje na základe učenia sa z obrovských množstiev dát, ktoré sú následne analyzované algoritmami. Tieto algoritmy identifikujú vzory a vzťahy v dátach, ktoré im umožňujú vytvárať nové výstupy, ktoré sa podobajú na pôvodné vzory. V prípade generovania textu modely ako GPT-4 spracujú veľké množstvo textových dát a na ich základe vytvoria nový text. Pri generovaní obrazov a videí sa využívajú algoritmy ako Generatívne adversariálne siete (GAN), ktoré sú založené na dvoch modeloch, ktoré pracujú súčasne – jeden generuje nový obsah a druhý ho hodnotí, či je podobný pôvodným dátam. (Zewe, 2023)

V oblasti generovania falošných obrazov a videí, známym ako deepfake, sa GAI využíva na vytváranie realistických, ale nepravdivých materiálov. Deepfake videá sú vytvorené tak, že umelá inteligencia kombinuje a modifikuje skutočné videá, čím vytvára falošné, no veľmi realistické zobrazenia. Táto technológia sa často používa na zmenu výrazu tváre, pohybov a hlasu jednotlivca, čím sa vytvára dojem, že niekto povedal alebo urobil niečo, čo sa v skutočnosti nestalo. Algoritmy, ktoré sa používajú na generovanie deepfake sa učia na veľkých databázach videí a fotografií a dokážu napodobniť spôsob, akým sa človek správa pred kamerou, vrátane jemných detailov, ako sú pohyby očí alebo tón hlasu. (Zewe, 2023)

Fake news

Definícia fake news, podobne ako definícia umelej inteligencie, nie je jednotne daná. Pri zamyslení sa nad jednotlivými slovami získame čiastočnú predstavu čo fake news predstavujú. Slovo fake znamená falošný, nepravdivý, umelý. Anglický pojem news predstavuje správy, novinky – takže určitý typ informácie. Vo ich vzájomnom spojení tak bežne prichádza k výrazom ako falošné správy či nepravdivé informácie.

Ak by sme hľadali rozsiahlejšiu definíciu získame fake news je úmyslená prezentácia (zvyčajne) nepravdivých alebo zavádzajúcich tvrdení, pričom tieto tvrdenia sú zámerne navrhnuté tak, aby zavádzali. (Gelfert, 2018, s. 108)

Podľa Rahmaniana, ktorý sa snažil v svojej práci fake news čo najlepšie klasifikovať fake news, bez ohľadu na objektívnu realitu, sú zámerne vytvorené pseudo-pravdivé informácie, ktoré majú za cieľ manipulovať presvedčenia cieľového publika s úmyslom dosiahnuť určité výhody. (Rahmanian, 2023)

Niektoré definície popisujú fake news aj ako prioritné pomenovanie pre ďalšie typy falošných správ akými sú dezinformácie, deepfakes, konšpiračné teórie, hoaxy, ale aj satirické články, ktoré sú nesprávne interpretované ako celkom pravdivé či clickbaitové titulky.

Deepfake

Slova deepfake je podľa Oxford Dictionary pravdepodobne odvodené zo slov deep learning (typ strojového učenia)fake (falošný, nepravdivý). (Oxford English Dictionary, 2023)

Deepfake je všeobecne chápaný ako zmanipulovaný audiovizuálny materiál, ktorý je vytvorený pomocou umelej inteligencie. Táto technológia dokáže na základe relatívne malého množstva vstupných dát – autentických fotografií, videí alebo hlasových záznamov – generovať falošný obsah, ktorý vyzerá natoľko realisticky, že mu ľudia často uveria. (Tesař, 2022)

Termín deepfake sa v trendoch vyhľadávania na Google prvýkrát objavil na prelome rokov 2017 a 2018. Jeho pôvod je do istej miery spojený s porno priemyslom, kde sa technológia používala na vkladanie tvárí známych osobností do videí s cieľom zvýšiť sledovanosť Najväčší záujem však zaznamenal, keď sa na sociálnej sieti TikTok objavil profil imitujúci Toma Cruisa. Tento profil, ktorý otvorene prezentoval, že ide o falošnú identitu hollywoodskej hviezdy vykonávajúcej každodenné činnosti, sa stal virálnym hitom. (Tesař, 2022)

Odvtedy technológia deepfake výrazne pokročila a jej dostupnosť na tvorbu podobného obsahu sa značne zvýšila. Hoci technológia deepfake v budúcnosti môže nájsť mnohé pozitívne využitia, zároveň so sebou nesie veľké riziko zneužitia, čo je spoločné pre všetky technológie súvisiace s umelou inteligenciou. (Tesař, 2022)

Príklady deepfake

V tejto časti sa zameriavam na príklady falošných fotografií či videí, ktoré sa stali za posledné obdobie obzvlášť virálnymi. Predstavujú rôzne prostredia – od vojenských konfliktov, cez politické manipulácie až po celebrity a zábavu – čo len podčiarkuje, aké široké spektrum vplyvu môžu tieto technológie mať.

Prejav moldavskej prezidentky

Súčasná prezidentka Moldavska, Maia Sanduová, sa stala obeťou sofistikovaného deepfake útoku, ktorý mal za cieľ poškodiť jej povesť a oslabiť jej politickú pozíciu. Incident sa odohral tesne pred novoročným prejavom prezidentky, tradične vysielaným 31. decembra. Na platforme Telegram sa objavilo video, ktoré zobrazovalo Sanduovú, ako údajne blahoželá občanom k Novému roku a zároveň žiada o podporu v nadchádzajúcich voľbách. V prejave však dominovali irónia a sarkazmus, pričom prezidentka mala kritizovať ekonomickú situáciu v krajine a dokonca zosmiešňovať Moldavsko. Video mohlo na občanov pôsobiť dôveryhodne, ale jeho obsah bol umelo vytvorený falšovaním obrazu a zvuku. (Gregová, 2024; Necsutu, 2023)

Moldavsko, ktoré sa dlhodobo zmieta v geopolitických tlakoch a čelí dezinformačným kampaniam najmä zo strany Ruska, je opakovane cieľom podobných útokov. Prezidentka Sanduová je známa svojou prozápadnou orientáciou a snahou o demokratizáciu krajiny, čo ju robí terčom ruských záujmov, ktoré podporujú destabilizáciu regiónu. Podľa ukrajinských zdrojov malo Rusko dokonca plán zosadiť moldavské vedenie, a spomínané video mohlo byť len súčasťou širšej kampane na diskreditáciu jej osobnosti. Prezidentská kancelária promptne zareagovala a vyhlásila, že video je falošné a prezidentka sa od jeho obsahu dištancuje. (Gregová, 2024; Necsutu, 2023)

Podobné dezinformačné aktivity pokračovali v Moldavsku aj neskôr. Dva dni pred voľbami sa na sociálnych sieťach objavilo ďalšie falošné video, tentoraz zdieľané cez viaceré facebookové stránky. Na videu údajne Sanduová oznamovala svoju rezignáciu a vyzývala občanov, aby hlasovali za pro-rusky orientovanú politickú stranu. Tieto manipulácie mali za cieľ zmiasť voličov a oslabiť jej podporu v rozhodujúcom momente. (Gregová, 2024; Necsutu, 2023)

Moldavsko, ktoré je od roku 2022 kandidátskou krajinou na vstup do Európskej únie zatiaľ nezaviedlo žiadne právne kroky, ktoré by sa týkali používania umelej inteligencie. Je preto len ďalším dôkazom toho, že je potrebné zamyslieť sa nad potrebou obrany voči podobným digitálnym manipuláciám, ktoré sú nástrojmi hybridnej vojny a polarizujú spoločnosť.

Obrázok 1 Screenshot moldavskej prezidentky z deepfake videa (zdroj: TV-NORD Moldova, 2023)

Výzva ukrajinského prezidenta ku kapitulácii

Narastajúci trend deepfake videí neobišiel ani vojnový konflikt na Ukrajine. V marci 2022 sa na rôznych sociálnych platformách, najmä na Telegrame, objavilo video ukrajinského prezidenta Volodymyra Zelenského, ktorý sa prihovára ukrajinským občanom. V mierne emotívnom výstupe ich vyzýva, aby sa vzdali a ukončili vojnu s Ruskom. Prezident vo videu vyjadruje názor, že nestojí za to zomrieť v tejto vojne. (Burgess, 2022)

Hoci autor videa zostal neznámy, s vysokou pravdepodobnosťou sa dá predpokladať, že za jeho vytvorením stála pro-ruská skupina alebo jednotlivci, ktorí sa snažili vyvolať zmätok, narušiť dôveru ukrajinských občanov a zneistiť celú verejnosť. (Burgess, 2022)

Ukrajinská vláda na šírenie falošného videa okamžite reagovala a poprela ho v celom rozsahu. Zároveň ukrajinský prezident uverejnil vyjadrenie k celej situácii prostredníctvom videa na svojom oficiálnom účte na Instagrame. Následne falošné video sociálne siete ako Facebook, Youtube a X odstránili zo svojich platforiem, no pochopiteľne, v prostredí ruských sociálnych médií sa stalo populárnym. (Burgess, 2022)

Tento incident bol ďalším varovaním o zneužívaní deepfake technológie na manipuláciu verejnej mienky, najmä v kontexte vojenského konfliktu, kde manipulácia s informáciami môže mať vážne a nezvratné následky.

Obrázok 2 Screenshot z deepfake videa Volodymyra Zelenského (zdroj: Sky News, 2022)

Pápež v značkovej bunde

Prípad, kedy využitie generatívnej umelej inteligencie spoločnosť skôr pobavil a zaujal je obrázok terajšieho pápeža Františka v štýlovej nafúknutej bielej bunde s kapucňou značky Balenciaga.

Tento obrázok bol vytvorený umelcom Pablom Xavierom, ktorý na prvý pohľad pôsobil realisticky, no zároveň vtipne a nečakane. Autor nápad dostal, keď bol pod vplyvom psychotropných látok, a priznal, že jeho cieľom nebolo šíriť dezinformácie, ale len zabaviť seba a okolie. Ako sám povedal: „Myslel som si, že by bolo vtipné vidieť pápeža vo vtipnej bunde“ (BuzzFeed, 2023). Technologicky bola tvorba obrázku relatívne jednoduchá. Pablo Xavier zadal požadovaný opis do AI generátora obrázkov, ktorý na základe textového zadania vytvoril fotorealistický obraz. Pablo vôbec nečakal, že sa stane virálnou tak rýchlo a zaujme širokú spoločnosť. (Stokel-Walker, 2023)

Pápež František k incidentu uviedol rozsiahle vyjadrenie. S dobrým úmyslom varoval pred možnými nástrahami umelej inteligencie a jej potenciál označil za „úchvatný a znepokojujúci zároveň“. Uviedol, že technológie, podobne ako veľa iných výdobytkov dnešnej doby, sa dajú použiť na dobré i zlé účely, v závislosti od našich rozhodnutí. Pápežova reakcia tak nebola kritika konkrétneho obrázka, ale skôr širšie varovanie pred nekontrolovaným využívaním technológií. (Novak, 2024)

Tento incident poukazuje na dve významné črty deepfake obsahu. Po prvé, že aj obsah vytvorený s dobrými úmyslami a bez zámeru manipulovať môže viesť k neúmyselnému šíreniu dezinformácií, ak nie je jasne označený ako nepravý. Po druhé, že takýto obsah môže byť spúšťačom diskusie o etických otázkach súvisiacich s umelou inteligenciou.

Obrázok 3 Falošná fotografia pápeža Františka v extravagantnej bunde (zdroj: Forbes, 2024)

Zatknutie Donalda Trumpa

V marci 2023 sa na sociálnej sieti Twitteri objavili viaceré zábery zobrazujúce zatknutie Donalda Trumpa. Na falošných obrázkoch je bývalý prezident USA zobrazený ako uteká pred policajnými zložkami, prípadne sa im snaží vzdorovať. Takýto vizuálny obsah zaujal mnohých, najmä v kontexte obvinení, ktoré voči Trumpovi v tom čase prebiehali. V marci 2023 bol obvinený z falšovania obchodných záznamov v súvislosti s platbami, ktoré mal vykonať herečke Stormy Daniels, aby utajil ich údajný románik. Toto obvinenie vyvolalo silné verejné diskusie, a mnohí si mohli spájať zatknutie na týchto obrázkoch práve s touto kauzou. Navyše, v danom období bola aj medializovaná správa, že Trump čelí právnym problémom, čo pridávalo obrázkom na vierohodnosti. (AP News, 2023; Novak, 2023)

Polícia avšak potvrdila, že k zatknutiu neprišlo. Zábery neboli skutočné. Falošné obrázky zhotovil Eliot Higgins, zakladateľ a kreatívny riaditeľ holandskej organizácie Bellingcat, ktorá sa zameriava na overovanie informácií a analytické správy, často využívajúc verejne dostupné zdroje. Higgins pri uverejnení obrázkov uviedol informáciu, že fotografie nie sú reálne, ale vygenerované umelou inteligenciou. Aj napriek tomu niektorí používatelia sociálnych sietí tieto obrázky zdieľali bez tohto dôležitého kontextu. (AP News, 2023; Wikipedia, 2024)

Aj keď obrázky na prvý pohľad vyzerali realisticky, pozorní diváci si mohli všimnúť určité anomálie, ktoré odhalili, že ide o falošný obsah. Na jednom z obrázkov mal Donald Trump tri nohy, na inom nebol správny počet prstov na rukách zúčastnených osôb, a na ďalšom zábere ľudia v pozadí nekorešpondovali s prostredím. Higgins predpokladal, že si tieto nepresnosti čitatelia uvedomia, no ukázalo sa, že mnohí ich nepostrehli, čo podčiarkuje slabú úroveň kritického myslenia u niektorých používateľov sociálnych sietí. Tento incident jasne ukázal, aké dôležité je pri konzumácii mediálnych obsahov zachovávať kritický prístup a nezrýchľovať šírenie neoverených informácií. (AP News, 2023)

Obrázok 4 Obraz zatknutia Donalda Trumpa vytvorený pomocou AI, šírený na Twitteri (zdroj: Forbes, 2023)

Taylor Swift a podpora Donalda Trumpa

Najnovším príkladom zneužitia deepfake technológie v politickom kontexte je prípad z augusta 2024, ktorý vyvolal rozruch počas kampane pred americkými prezidentskými voľbami. Donald Trump, uchádzajúci sa o znovuzvolenie, na svojich sociálnych sieťach zdieľal obrázky, ktoré naznačovali podporu zo strany známej speváčky Taylor Swift. Jeden z najsledovanejších príspevkov obsahoval obrázok Swift a skupiny jej fanúšikov (tzv. Swifites), ktorí mali oblečené tričká s nápisom „Swifities za Trumpa“ – čo malo vyvolať dojem jej oficiálnej podpory. (Robins-Early, 2024)

Tieto obrázky boli vygenerované pomocou umelej inteligencie a okamžite vzbudili kontroverzie. Taylor Swift sa nikdy verejne nevyslovila na Trumpovu podporu; naopak, je známa svojimi liberálnymi postojmi a predchádzajúcou kritikou Trumpovej administratívy. Po zverejnení týchto obrázkov jej tím rázne poprel ich pravosť a označil ich za manipuláciu. Taylor Swift patrí aktuálne medzi najznámejšie speváčky dnešnej doby. Jej popularita a schopnosť motivovať masy, napríklad prostredníctvom výziev na registráciu voličov, boli pravdepodobne hlavným dôvodom, prečo bola zneužitá v tejto propagande. Trump však tento incident nekomentoval, a preto mnohí považujú tento čin za súčasť jeho kampane na získanie pozornosti a polarizáciu verejnosti. (Robins-Early, 2024)

Obrázok 5 Príspevok Donalda Trumpa s falošnými fotografiami Taylor Swift a jej fanúšikov (zdroj: Guardian, 2024)

Krádež peňazí

Ukážkou toho, že manipulácia prostredníctvom deepfake technológií nemusí zasiahnuť len širokú verejnosť, ale dokáže cielene zneužiť dôveru jednotlivca, je prípad finančného pracovníka, ktorý prišiel o približne 25 miliónov dolárov. Stalo sa tak v januári 2024 zamestnancovi jednej hongkonskej pobočky nadnárodnej spoločnosti. (Chen & Magramo, 2024)

Podvod začal nevinne – pracovník dostal pozvánku na videohovor, v ktorej mu bolo oznámené, že bude musieť uskutočniť tajnú finančnú transakciu. Hoci bol najprv obozretný a zvažoval, či nejde o phishingový e-mail, jeho pochybnosti sa rýchlo rozplynuli keď sa videohovoru zúčastnili osoby, ktoré vyzerali a zneli presne ako jeho kolegovia. Po skončení hovoru tak podľa inštrukcií previedol celkovo 25 miliónov dolárov na cudzie účty. (Chen & Magramo, 2024)

Prípad aktuálne vyšetruje hongkonská polícia a upozorňuje, že to nie je prvý výskyt tohoto typu podvodu. Meno poškodenej spoločnosti neuviedla. (Chen & Magramo, 2024)

Možné riešenia problematiky fake news

Na riešenie problémov spojených s fake news či presnejšie deepfake je potrebné pristúpiť komplexne a z rôznych perspektív. V nasledujúcich podkapitolách sú uvedené tri možné návrhy riešení, ktoré by aspoň čiastočne mohli prispieť k obmedzeniu šírenia dezinformácií a zvýšeniu povedomia verejnosti o ich rizikách. Tieto riešenia zahŕňajú využitie technologických nástrojov na detekciu a blokovanie manipulovaného obsahu, zavedenie legislatívnych opatrení na reguláciu tvorby a šírenia nepravdivých informácií a v neposlednom rade vzdelávanie spolu s osvetovými kampaňami, ktoré posilňujú mediálnu gramotnosť a individuálnu zodpovednosť. Spoločne by tieto prístupy mohli vytvoriť solídny základ pre efektívne riešenie tohto naliehavého problému.

Technologické zabezpečenie

Prvým krokom je využiť technologické zabezpečenia, ktoré sa sústreďujú na detekciu a blokovanie nepravdivého obsahu ešte pred tým, ako sa dostane k širšiemu publiku.

Príkladom jedného z takýchto nástrojov na detekciu deepfake obsahu je produkt s názvom SynthID od spoločnosti Google. Aktuálne je dostupný v beta verzii a postupne prichádza k jeho integrácii do statných produktov od spoločnosti Google. Funguje na princípe vkladania neviditeľného digitálneho vodoznaku priamo do pixelov obrázka generovaného AI. To v ňom zanechá stopu vďaka ktorej sa dá neskôr určiť, či bola pri jeho tvorbe použitá AI.  Vodoznak je samozrejme nedetekovateľný ľudským okom a nemá žiadny vplyv na vizuálnu kvalitu alebo vlastnosti obrázka. Jednou z jeho najväčších výhod je odolnosť voči úpravám obsahu. Vodoznak zostáva zachovaný aj po orezávaní, zmene veľkosti, kopírovaní alebo vytvorení snímky obrazovky, čím sa zabezpečuje, že obrázok môže byť kedykoľvek identifikovaný ako výsledok AI procesu. (Gowal & Kohli, 2023)

Legislatívne opatrenia

Jedným zo základných nástrojov zaručujúcich fungujúcu a prosperujúcu spoločnosť sú dobre nastavené legislatívne opatrenia. To sa týka aj využívania umelej inteligencia, najmä v nadväznosti na jej rapídny nárast využitia v spoločnosti.

Zatiaľ čo niektoré krajiny ešte nemajú komplexný právny rámec na reguláciu AI a deepfake technológií, iné sa už usilujú o vytvorenie opatrení, ktoré by tieto technológie regulovali. V nasledujúcich podkapitolách sa pozriem na legislatívne opatrenia prijaté v Európskej únii a Spojených štátoch amerických, keďže práve oni sú príkladom rozvinutých demokratických ekonomík.

Európska únia

Na rýchly vzostup využitia umelej inteligencie reagovala práve Európska únia. Vydala pomerne obsiahly balíček opatrení, ktorých hlavných cieľom je zabezpečiť dôveryhodné využitie umelej inteligencie s dôrazom na ochranu ľudských práv, bezpečnosť a etické konanie. Významnou súčasťou spomínaného balíčka je Akt o umelej inteligencii, [nariadenie (EÚ) 2024/1689, ktorým sa stanovujú harmonizované pravidlá v oblasti umelej inteligencie], ktorý poskytuje vývojárom a nasadzujúcim subjektom umelej inteligencie jasné požiadavky a povinnosti týkajúce sa konkrétnych použití umelej inteligencie (European Commission, 2024). To v krátkosti znamená, že osoba, ktorá vytvorí alebo šíri deepfake je povinná zmieniť sa o jeho umelom pôvode a využitých technikách. Spotrebitelia si tak budú vedomí akého pôvodu je obsah, s ktorým sa stretávajú, s čím súvisí snaha znížiť riziko, že sa stanu obeťami manipulácie.

Akt o umelej inteligencii je vôbec prvým komplexným právnym rámcom pre umelú inteligenciu na celom svete (European Commission, 2024).

Systémy umelej inteligencie tak budú rozdelené do štyroch úrovní podľa rizika, ktoré prinášajú: minimálne, obmedzené, vysoké a neprijateľné riziko.  Každá z kategórií bude presne špecifikovaná  a bude mať vlastné požiadavky na to, ako s údajmi obsiahnutými v danej kategórii zaobchádzať. Dodržiavania bude kontrolovať nezávislý orgán Európskej únie. (European Commission, 2024)

Európsky úrad pre umelú inteligenciu, zriadený vo februári 2024 v rámci Európskej komisie, je zodpovedný za dohľad nad implementáciou aktu o umelej inteligencii v spolupráci s členskými štátmi. Jeho hlavnou úlohou je zabezpečiť, aby technológie umelej inteligencie rešpektovali základné hodnoty, ako sú ľudská dôstojnosť, ľudské práva a dôvera verejnosti. Úrad zároveň podporuje spoluprácu medzi rôznymi stranami v oblasti vývoja, výskumu a inovácií umelej inteligencie. Okrem toho aktívne prispieva k medzinárodným diskusiám o riadení umelej inteligencie, čím zdôrazňuje význam globálneho zosúladenia pravidiel. Cieľom je, aby sa Európa stala globálnym lídrom v oblasti eticky a udržateľne vyvíjanej umelej inteligencie. (European Commission, 2024)

Akt o umelej inteligencii nadobudol účinnosť 1. augusta 2024, pričom jeho plné uplatňovanie sa plánuje o dva roky. Určité časti legislatívy však vstúpia do platnosti skôr.

Spojené štáty americké

Na rozdiel od Európskej únie a jej Aktu o umelej inteligencii, v USA zatiaľ nemajú jednotný legislatívny rámec, ktorý by komplexne reguloval deepfake technológie. Regulácia je tak zatiaľ spravovaná rôznymi zákonmi a iniciatívami na federálnych a štátnych úrovniach.

Zákon o zodpovednosti za deepfakes (H.R. 5586), známy aj pod názvom DEEPFAKES Accountability Act, bol predstavený v septembri 2023. Jeho cieľom je zvýšiť transparentnosť a zodpovednosť pri tvorbe deepfake obsahu. Návrh zákona vyžaduje, aby tvorcovia deepfake materiálov označovali tieto výtvory pomocou digitálnych vodotlačí, čo by umožnilo jednoznačne identifikovať manipulované obsah. (U.S. Congress, 2023)

Zákon zároveň zavádza trestné sankcie za neoznámenie škodlivých deepfake materiálov. Je však dôležité poznamenať, že návrh sa aktuálne vzťahuje iba na špecifické prípady ako napr. videá obsahujúce sexuálny obsah, podnecovanie násilia či zasahovanie do volieb, a nie je tak zameraný na všeobecnú reguláciu umelej inteligencie. Zároveň ale navrhuje pomerne benevolentný prístup v prípade, že sa jedná o paródie, satiru a iné formy umeleckého vyjadrenia, čím sa snaží vyvážiť ochranu pred dezinformáciami a podporu slobody prejavu. V súčasnosti je zákon vo fáze návrhu a čaká na ďalšie legislatívne prerokovanie. (U.S. Congress, 2023)

Vzdelávanie, osvetové kampane a individuálna zodpovednosť

Je veľmi pravdepodobné, že vytváraniu falošných videí či už teraz alebo naďalej v budúcnosti pravdepodobne zabrániť nedokážeme. Pomocou účinnej legislatívy vieme falošný obsah do istej miery obmedziť prípadne vinníkov za jeho tvorbu sankciovať, avšak nikdy nezískame stopercentnú istotu, že nebude ďalej vytváraný. Preto popri technologických a právnych riešeniach tohto problému netreba zabúdať na rozvoj intelektuálnych kapacít jednotlivcov.

Schopnosť kriticky myslieť je jednou z najsilnejších zbraní proti dezinformáciám, a preto by mala byť integrálnou súčasťou vzdelávacieho procesu. Učiť sa klásť otázky, ako napríklad „Kto vytvoril tento obsah?“, „Aký cieľ má jeho šírenie?“ alebo „Existujú dôveryhodné dôkazy na podporu týchto tvrdení?“, umožňuje jednotlivcom lepšie odhaliť manipulatívny obsah a odolávať klamlivým informáciám. Platformy ako BBC Reality Check či Snopes poskytujú výborné nástroje na overovanie faktov a ukazujú dôležitosť vzdelávania verejnosti v tejto oblasti. (Mirga, 2024)

Táto potreba sa však nevzťahuje len na dospelých, ale už na deti a mladých ľudí. Zavedenie mediálnej gramotnosti do školských osnov by mohlo výrazne prispieť k vytvoreniu generácie, ktorá bude odolná voči manipuláciám. Deti by sa na hodinách mediálnej gramotnosti učili rozpoznávať prvky falošných či podozrivých správ. Okrem praktických cvičení by získali aj teoretické poznatky o tom, ako funguje šírenie dezinformácií a aké stratégie sa používajú na manipuláciu verejnosti.

Prepojenie kritického myslenia so vzdelávacími programami umožní nielen lepšie pochopenie manipulatívnych praktík, ale aj schopnosť aktívne im čeliť. Napríklad simulované cvičenia, v ktorých študenti identifikujú a analyzujú falošné správy, by mohli posilniť ich schopnosť odhaliť dezinformácie v každodennom živote.

Ďalším dôležitým prístupom je budovanie kultúry osobnej zodpovednosti. Tento koncept zdôrazňuje, že každý z nás zohráva významnú úlohu v tom, ako sa šíria informácie na sociálnych sieťach. Osobná zodpovednosť zahŕňa schopnosť kriticky posudzovať zdieľaný obsah, overovať jeho zdroj a aktívne odmietať materiál, ktorý môže byť zavádzajúci. Rovnako dôležitá je aj snaha prispievať k online diskusiám pravdivými a overenými informáciami. (Mirga, 2024)

Špeciálnu pozornosť si vyžadujú mladí ľudia, ktorí často vnímajú obrázky a videá generované umelou inteligenciou len ako prostriedok zábavy. Neraz sa sami stávajú tvorcami takéhoto obsahu bez toho, aby si uvedomili možné negatívne dôsledky pre seba aj pre spoločnosť. (Mirga, 2024)

Záver

Táto práca sa zaoberala fenoménom fake news generovaných umelou inteligenciou a jej vplyvom na spoločnosť. Cieľom bolo preskúmať, ako generatívna umelá inteligencia (GAI) umožňuje tvorbu a šírenie manipulovaného obsahu, predovšetkým vo forme deepfake materiálov, ktoré zahŕňajú falošné videá, fotografie a zvukové nahrávky. V práci som sa zamerala na konkrétne príklady zneužitia týchto technológií, ktoré mali zásadný dopad na politiku, verejnú mienku a medziľudské vzťahy.

Práca ukázala, že hoci technológie AI prinášajú možnosti v oblasti kreativity a inovácie, zároveň otvárajú priestor pre zneužívanie a šírenie nepravdivých informácií. Rozoberané príklady ako deepfake videá Moldavskej prezidentky, falošný prejav ukrajinského prezidenta či nepravdivé fotografie Donalda Trumpa jasne ilustrujú, aké závažné dôsledky môžu mať tieto manipulácie v politických a spoločenských kontextoch. Tieto incidenty nielenže poškodzujú dôveru v inštitúcie, ale aj destabilizujú spoločenský poriadok, keďže vedú k šíreniu dezinformácií a polarizácii verejnosti.

Jedným z cieľom tejto práce bolo aj zameranie sa na možné riešenia týchto problémov. Kľúčovým krokom je zavedenie technologických nástrojov na detekciu a blokovanie deepfake obsahu, ako je napríklad produkt SynthID od Google, ktorý umožňuje sledovať pôvod generovaného obsahu. Okrem toho je nevyhnutné zaviesť legislatívne opatrenia, ktoré by zabezpečili transparentnosť pri tvorbe takéhoto obsahu, hoci ich implementácia nemusí byť jednoduchá. Dobrým príkladom je Európska únia, ktorá sa snaží zjednotiť pravidlá svojich členských štátov pod Akt o umelej inteligencii. Práca tiež hovorí o dôležitosti individuálnej zodpovednosti jednotlivca skrz kritické myslenie, ktoré môže byť posilňované pomocou kvalitného vzdelávania a osvetových kampaní

V konečnom dôsledku, aj keď sme svedkami rýchleho rozvoja technológií umelej inteligencie, je dôležité, aby sme sa ako spoločnosť správali zodpovedne, pretože pri umelej inteligencie pravdepodobne platí staré známe porekadlo – je dobrý sluha, ale zlý pán.

Použitá literatúra

AI-generated images of Trump being arrested circulate on social media. (2023, 21. marca). AP News. https://apnews.com/article/trump-arrest-fake-photos-viral-2023

Burgess, S. (2022, 17. marca). Ukraine war: Deepfake video of Zelenskyy telling Ukrainians to ‚lay down arms‘ debunked. Sky News. https://news.sky.com/story/ukraine-war-deepfake-video-of-zelenskyy-telling-ukrainians-to-lay-down-arms-debunked-12567789

Cambridge Dictionary. (2024). Intelligence. Cambridge Dictionary (online verzia). https://dictionary.cambridge.org/dictionary/english/intelligence

Copeland, B. J. (2024, 22. novembra). Artificial Intelligence. Britannica. https://www.britannica.com/technology/artificial-intelligence/Reasoning

European Commission. (2024, 14. októbra). AI Act. European Commission. https://digital-strategy.ec.europa.eu/sk/policies/regulatory-framework-ai

Gelfert, A. (2018, 15. marca). Fake News: A Definition. Informal Logic, 38(1), 84 – 117. https://doi.org/10.22329/il.v38i1.5068

Gowal, S. & Kohli, P. (2023, 29. augusta). Identifying AI-generated images with SynthID. Deep Mind Google. https://deepmind.google/discover/blog/identifying-ai-generated-images-with-synthid/

Gregová, S. (2024, 27. januára). Moldavská prezidentka sa stala obeťou deepfake manipulácie. Vo falošnom videu mala ironizovať životnú úroveň občanov. Infosecurity.sk. https://infosecurity.sk/articles/moldavska-prezidentka-sa-stala-obetou-deepfake-manipulacie-vo-falosnom-videu-mala-ironizovat-zivotnu-uroven-obcanov/

Chen, H., & Magramo, K. (2024,4. februára). Finance worker pays out $25 million after video call with deepfake ‘chief financial officer’. CNN. https://www.cnn.com/2024/02/04/finance-worker-deepfake-scam

Mirga, T. (2024). Dezinformácie v ére digitálnej transformácie: Generatívna AI ako nástroj tvorby rizikového syntetického obsahu – prípadová štúdia a strategické riešenia. ProInflow, 16(1), 33–95. https://doi.org/10.5817/ProIn2024-37974

Necsutu, M. (2023, 29. decembra). Moldova Dismisses Deepfake Video Targeting President Sandu. Balkan Insight. https://balkaninsight.com/2023/12/29/moldova-dismisses-deepfake-video-targeting-president-sandu/

Novak, M. (2023, 19. marca). Obrázok Donalda Trumpa vytvorený pomocou AI [Obrázok]. V Viral images of Donald Trump getting arrested are totally fake. Forbes. https://www.forbes.com/sites/mattnovak/2023/03/19/viral-images-of-donald-trump-getting-arrested-are-totally-fake/

Novak, M. (2024, 24. januára). Pope Francis Warns Of AI Dangers, Citing Fake Image Of Him That Went Viral. Forbes. https://www.forbes.com/sites/mattnovak/2024/01/24/pope-francis-warns-of-ai-dangers-after-fake-image-of-himself-went-viral/?sh=6450b59f5aa0

Oxford English Dictionary. (2023). Deepfake. Oxford English Dictionary. https://www.oed.com/dictionary/deepfake_n?tl=true&tab=etymology

Rahmanian, E. (2023). Fake news: A classification proposal and a future research agenda. Spanish Journal of Marketing – ESIC, 27(1), 60–78. https://doi.org/10.1108/SJME-09-2021-0170r

Robins-Early, N. (2024, 26. augusta). How did Donald Trump end up posting Taylor Swift deepfakes?. The Guardian. https://www.theguardian.com/technology/article/2024/aug/24/trump-taylor-swift-deepfakes-ai

Stokel-Walker, Ch. (2023, 27. marca). We Spoke To The Guy Who Created The Viral AI Image Of The Pope That Fooled The World. BuzzFeed News. https://www.buzzfeednews.com/article/chrisstokelwalker/pope-puffy-jacket-ai-midjourney-image-creator-interview

Tesař, V. (2022, 10. marca). Dezinformace a nová výzva deepfake. Magazín M: Zprávy z MUNI. https://www.em.muni.cz/udalosti/15160-dezinformace-a-nova-vyzva-deepfake

TV-NORD Moldova. (2023, 29. decembra). Un nou deepfake cu Maia Sandu, distribuit pe rețelele de socializare [Video]. YouTube. https://www.youtube.com/watch?v=jFL-ohL7BpI

U.S. Congress. (2023, 20. septembra). H.R. 5586 – DEEPFAKES Accountability Act. Congress.gov. https://www.congress.gov/bill/118th-congress/house-bill/5586/text

Umelá inteligencia: definícia a využitie. (2023, 21. júna). Európsky parlament. https://www.europarl.europa.eu/topics/sk/article/20200827STO85804/umela-inteligencia-definicia-a-vyuzitie

Wikipedia contributors. (2024, 19. októbra). Bellingcat. Wikipédia. https://cs.wikipedia.org/wiki/Bellingcat

Zewe, A. (2023, 9. novembra). Explained: Generative AI How do powerful generative AI systems like ChatGPT work, and what makes them different from other types of artificial intelligence? MIT News. https://news.mit.edu/2023/explained-generative-ai-1109

Filter Bubbles: How personalization algorithms affect us

0

In the age of the internet and social media, accessing information has become easier than ever before. Millions of articles and web pages are only a few clicks or keywords away, blogs and digital news outlets rest right at our fingertips. With such a staggering amount of results for every search query, not becoming overwhelmed appears nearly impossible. But in reality, the number of results would be ever greater, were it not for algorithmic personalization of content.

The term filter bubble” has first been used by Eli Pariser and most people have heard it at some point in their lives. It is also often referred to as “information bubble” or “echo chamber”; however, the meaning in people’s minds remains the same: a phenomenon usually limited to the online space that isolates a person inside a metaphorical bubble. This bubble consists of information fed to the individual by personalization algorithms and usually traps them in a space filled with only certain kind of information. The first impulse to the algorithm originates from what the person searches for, but gradually, the recommended content becomes tailored to their recognized interests.

The filter bubble is largely connected to social media networks. The younger generations often find their information and news on social media, but it is not the only space where filter bubbles may be created. With the age of digitalization, many mainstream news outlets have moved to the online space and as such, customization of content can create a certain bias in which types of news we will find online. And it is not only news that are filtered through the algorithms, it is everything else, too. It can be the types of things we like to shop for, the type of content we enjoy watching, all the way to the results of a simple google search.

In some cases, this personalization appears harmless, even useful. We see You-tube videos similar to the ones we watch often and discover new creators in our fields of interests. Spotify recommends music with similar beats or lyrics to our favourite songs. Instagram shows us pictures of the same type we often like.

However, what happens if we only see the things we already believe and like? What if we, for example, never discover a new interest because we are stuck in an endless loop of uniform content? As Eli Pariser has written (Pariser, 2011):

In the filter bubble, there’s less room for the chance encounters that bring insight and learning. Creativity is often sparked by the collision of ideas from different disciplines and cultures. Combine an understanding of cooking and physics and you get the nonstick pan and the induction stovetop. But if Amazon thinks I’m interested in cookbooks, it’s not very likely to show me books about metallurgy.”

We could be searching for something we have never been interested in before, but the search engine will still try to appeal to our preferences. The same search query in the same search engine written by two different people can easily yield different results because of personalization. If we decide to stay within the recommendation system, chances are that we will only engage further with certain beliefs and interests, rarely discovering anything new.

While creativity and diversity of the content we consume is very important for the human mind and well-being, access to news is often considered a more important problem. What if we fail to see both sides of a political argument because of our prior beliefs recognized by the algorithm? The news articles that are presented to us when we search for a specific topic can be distorted because the results are aligned with, for example, our perceived political inclinations. Consuming information limited to only certain kinds of sources could lead to taking strong stances on various issues without even considering the opposing side’s point of view. In extreme cases, this could lead to radicalization of political or religious ideation.

On the other hand, some researchers argue that the topic of filter bubbles is blown out of proportion and there is not enough support to claim that they have such an intense impact on society. (Dalhgren, 2016) Perhaps it is not the customization, but the people themselves. Maybe they are offered diverse information, and it is the human selection bias that causes them to only consume content of a certain type.

The aim of this essay is to explore the phenomenon of the filter bubble. It attempts to provide a comprehensive description of the phenomenon and it explains the effects filter bubbles have on people’s access to information and, subsequently, on their mind and ideology. The essay references multiple scientific papers focused on the topic and discusses the threats filter bubbles pose in different fields. Lastly, the essay explores possible methods of breaking out of the filter bubble and accessing more diverse information.

What is the filter bubble?

The filter bubble is defined as “a situation in which someone only hears or sees news and information that supports what they already believe and like, especially a situation created on the internet as a result of algorithms (=set of rules) that choose the results of someone’s searches” (Cambridge Dictionary, n.d.).

This definition implies that, while filter bubbles most frequently occur in the online space, they may not be strictly limited to it. However, the term itself has been tied to the internet and social media intensively enough to be listed in the book A Dictionary of Social Media by Chandler and Munday (2016) as an internet-exclusive phenomenon and it is also regarded as such by the general public.

The filter bubble is often referred to as an echo chamber, which is defined as “a situation in which people only hear opinions of one type, or opinions that are similar to their own” (Cambridge Dictionary, n.d.).

From these two definitions, it seems plausible that while filter bubbles refer more to the online environment, echo chambers are a broader term referring to both online and offline spaces. Having said that, filter bubbles can easily lead to being stuck in echo chambers. With only certain types of information being recommended by the search algorithms, people’s opinions and preferences are being reinforced without many alternatives. This can lead to them seeking conversations with like‑minded people both online and in real life, creating echo chambers of multiple individuals echoing the same opinions back and forth.

In contrast to filter bubbles which are caused by algorithms whether we like it or not, echo chambers are something people might seek out willingly. The concern with filter bubbles is that they are created without our direct input, and they can trap us in a customized online ecosystem we did not wish to be in. The inner workings and categorization criteria of personalization algorithms are not public knowledge, so the way information is filtered to us remains a mystery. It is, of course, mostly based on our pre-existing preferences; however, there is no way to confirm what else influences the way in which our personal filter bubble is created.

Personalization algorithms

How do filter bubbles even come into existence? It has already been established that they are created by personalization algorithms; however, it is important to understand how and why the content becomes tailored to our likes and beliefs in the first place. After all, computers and smartphones cannot really see what goes on in our minds. Nonetheless, they manage to recognize our preferences with astounding speed and accuracy.

The underlying algorithms of different websites, platforms, and services constantly collect data about us in order to analyse our behaviour. For example, upon entering a website, we are usually presented with their cookie policy. It comes in the form of a pop-up window, usually asking us to allow cookies: the collection of data for personalization and tailoring of content for better user experience.

The so called “better user experience”, not only on websites but on the internet as a whole, comes at the price of algorithms creating a detailed profile of our habits and preferences. Click‑throughs, browsing history, past searches, purchases, and the same information about people with similar profiles to ours are all compiled into an idea of who we are and with this image in mind, the recommendation system attempts to show us exactly what we want to see. (Pariser, 2011) With every new search, like, or comment, the algorithm adjusts itself to better predict what we would enjoy seeing next.

Many algorithms are capable of not only monitoring what we read, but also the amount of time we spend on which part. More information can be provided to those who show an interest in a certain topic or field, even our viewpoint on the issue can be taken into account, creating extensively detailed criteria for the subsequent recommendations. (Custers, 2020)

With more information on our preferred topics, there is more of a reason to dive deeper into what we already know and enjoy. Sources with the same type of messaging cement us in our opinions and challenging viewpoints are pushed to the wayside. Because we interact with them less when they are fewer and far between, their numbers slowly dwindle into nothing. At least, that would be the reality if the algorithms referred exclusively to our personal profiles. However, the algorithmic selection process is more complex than that.

It is necessary to realize that while personalization algorithms create filter bubbles, not all customization of content directly leads to being trapped in them. Tailoring the results to our interests can be useful and, in some cases, even necessary. The internet is flooded with content, and if there were no processes in place to sort through the results and choose the ones we are likely to be looking for, searching for anything at all might become a nearly impossible task. However, the boundary between simple personalization and filter bubbles is blurry at best and largely depends on one’s subjective perception of the topic.

Algorithmic recommendations

It would be easy to assume that the whole recommendation system operates on its perception of us and traps us in an endless loop which lets nothing new inside; however, that is just a mental shortcut. It is important to note that the algorithmic selection of content is not built only on personal profiling and customization. Of course, the content recommended to us often aligns with our preferences, but other factors play a role in the selection process as well.

Internet trends and popular topics may be recommended to us even if they stray away from our usual interests. Of course, a part of this can be attributed to personalization, seeing as trendy topics for certain demographics differ, but it still strays from the idea of extreme customization to each individual. If a topic becomes sensational or viral, it can often reach us through the recommendation system, proving that the filter bubble does not cut us off from the outside world completely.

In many works concerning filter bubbles, we encounter a description that makes the bubble appear impenetrable. They sometimes fail to consider that while content personalization definitely is extensive, new information still reaches us, even if it is sometimes limited.

Another way to encounter content we usually would not interact with is advertisement. Once again, adds can be, and often are, personalized to an extent, but if a campaign happens to be large enough, it can reach new audience through algorithmic recommendation, too.

Lastly, certain messages could be suppressed or pushed to the forefront within the recommendation algorithms regardless of personal preferences, virality of the topic, or the amount of money spent on advertisement. This could be caused by pressure from a position of power: the government, big companies, or sponsors of the media in question. It would be difficult to find out about this, seeing as the inner workings of recommendation algorithms are not typically public knowledge. However, this possibility holds a strong connection to the issues concerning ethics and democracy in connection with filter bubbles and recommendation systems, and it will be discussed later in the essay.

It is important to point out that what suffers the most in the algorithmic selection environment are opinions held by only small groups and topics that are not interacted with often by anyone. If we are not already interested in such topic or opinion, our chances of learning about it are rather low unless it becomes popularized in some way or invests significant resources into online marketing.

To make this essay easier to understand, terms like “recommendation algorithms” will be used in regard to personalization algorithms unless stated otherwise, since this type of algorithm plays a major role in discussing filter bubbles.

Filtered content

While they are most often discussed in connection with social media and news outlets, filter bubbles can be formed nearly everywhere in the online space. Websites and search engines collect data about our online behaviour and offer results that are most likely to meet our expectations. However, while personalization occurs nearly everywhere, it is important to realize what filtered content actually looks like.

Social media content

Personal tailoring of content is especially visible in social media. Instagram, for example, often recommends posts and creators that are similar to those we have interacted with in the past. Scrolling through the posts, we may often fail to realize that some of the content we are automatically double-tapping is not only from the creators we follow, but also from very similar ones that we are seeing for the first time. In small print, they relay a message: suggested for you.

This directly points to the fact that a profile of our behaviour on this site exists within the algorithm, and it actively searches for content we are likely to enjoy. The search-and-explore page is flooded with posts and reels Instagram expects us to look for, and it appears to always show the same type of posts it did the last time we checked it.

To many people, this looks like a good thing. If we like art in a certain style, we will soon discover more artists in that field. If we enjoy a certain fashion style, soon enough, we will have tens, even hundreds, of new inspiration pictures. Posts related to our hobbies start showing up and almost everything on our for-you page picks our interest. Maybe we will even buy something for ourselves, because suddenly, with our interest in these fields, adds have adjusted to our preferences as well. At the same time, the amount of the type of posts we do not engage with as much, starts to dwindle.

We should remember that social media does not particularly care about our enjoyment, but about the time we spend interacting with their content. The longer we spend scrolling, the larger the number of adds presented to us in between post and, consequently, more money for the social media in question. Of course, this makes complete sense from an economic standpoint. As Eli Pariser (2011) remarks, if something is free, we become the product sold instead of being the customer.

This simple fact motivates social media to fine-tune their recommendation algorithms to keep us engaged for the longest time possible in order to achieve maximum profit. Creating a filter bubble that will confirm our beliefs and make us feel good by showing us our favourite types of content is, therefore, highly beneficial.

News

While the filter bubble does not affect the news we watch on television or read in newspapers, it can definitely influence what digital news articles we are recommended. It may simply be the issues that concern us based on our interests or perceived personal traits like age or economic background, but in some cases, the recommendations also take into account who the matter should be presented by. While some news outlets happen to be mostly objective in their coverage, others examine issues from a certain political or other ideological standpoint. If the algorithms classify a person as someone with strong opinions on those topics, it is likely to recommend coverage by a news outlet with similar views.

It has already been mentioned that social media tries to keep us engaged with their content for as long as possible because of the number of products they can advertise to us. But not only social media is filled with adds: all sorts of websites also have advertisement space they can make money from. But showing adds for anything and everything is not exactly an effective strategy if they want us to actually click on them and purchase something. Because of this, the advertisements are also often personalized to each individual.

Social media algorithms use the knowledge they have about us from our activity to offer adds that are most likely to spark our interest. Websites can be interconnected with our search engine and make a use of our past searches to advertise things we might need.

Societal impact

Filter bubbles have a strong impact on individuals by creating internet ecosystems filled with content tailored to their preferences. Some people are happy to be recommended the things they enjoy; others complain about the algorithms not satisfying their actual needs. However, the whole phenomenon of filter bubbles also impacts society on a much broader scale.

It is a given that our opinions are shaped and altered by the new information we consume, and while that may not matter too much if it concerns hobbies or what we like to shop for, being influenced by filtered information in more important matters has its consequences.

Political polarization

Whenever filter bubbles come up, the topic of opinion polarization seems to be one of the major concerns, most notably in politics. However, many of the sources concerning this matter are written by American authors and researchers. Even Eli Pariser, the father of the term “filter bubble” itself, happens to be an American. This fact may appear insignificant at first: the USA is a large country with many prestigious universities producing many educated people who can write about a great variety of topics. However, in regard to politics, it is necessary to consider the way the writer perceives politics as a whole.

The USA works on a two-party system, which is not too common in the rest of the world. This means that if a person cares about politics at all, they can often be categorized as right-leaning or left-leaning. Since there are only two sides to choose from, a filter bubble can slowly start enforcing the pre-existing political leanings. As a person starts consuming more and more of this type of content, the opinions coming from the other side may gradually become suppressed altogether. If they are not suppressed, they are often presented to the viewer through a biased lens, for example, left-leaning ideas explained mockingly by a right-leaning influencer. Different news outlets can package the same messages in extremely contrasting ways and the headline of an article written by Fox News will looks marginally different from the one by CNN.

Yes, polarization is definitely one of the threats posed by the filter bubble environment; however, not all topics are polarizing. If there are only two options to choose from, the filter bubble can strongly influence our perception of said topics and sway us towards more extreme views, but if there is a multitude of choices, this may be less prominent. In countries with countless political parties, liking one does not imply disliking all the others. The classification of left and right-leaning politics is often applied to those countries as well; however, the parties are spread out all across the spectrum. Usually, multiple parties agree on certain topics while they disagree on others. Consequently, while an individual’s political leanings still play a role in which type of messages they favour, they often like ideas of more parties at once. In such cases, political polarization caused by filter bubbles should be less extreme, because people are not necessarily forced to pick a side and they vote for whoever seems the most in tune with their overall beliefs at the moment.

What applies to politics should apply to everything else too. There are topics that are polarizing and others that are not. If there are only two options to choose from, content tailoring can strongly reinforce our stance on the issue. If the answers are only yes or no, we can only pick one and by doing so, we practically tell our personalization algorithm to adjust itself to provide content consistent with our view or perception of the matter.

In USA, many polarizing topics are also strongly politicized, leading to a clear connection between certain opinions and political leanings. Are we pro-choice or pro-life? What are our views on immigration laws? Which side of a war is in the right? If the answer is “I do not know”, there is a strong chance that we do not concern ourselves with the topic at hand at all. However, picking a side immediately tells the algorithm to assign a stereotype to the person in question and pre-package the rest of the topics in accordance with it. So, when we learn about new topics that are divisive, they will be presented through the lens created by personalization, immediately influencing us to perceive them in a certain kind of way. A great power rests within first impressions, so if we first see something described in a positive light instead of a negative one, it can greatly impact our opinion on the whole issue.

Impact on democracy

As mentioned in the previous chapter, filter bubbles can impact the polarization of political viewpoints, but they can also be considered as a hindrance to democracy as a whole. There are multiple concepts of democracy, and they slightly differ in what they focus on; however, they often share the requirements for freedom of choice and freedom in access to information. And so, the question comes up, whether we are really free in those aspects when our search algorithm favours only certain types of information.

If the filter bubble only shows us what we already like and believe, we are unlikely to find diverse viewpoints on countless matters. This can, on one hand, be considered something that polarizes society; nevertheless, it can be seen in a broader spectrum as a limitation to our freedom of choice. (Bozdag & Van Den Hoven, 2015) If the results get filtered out by the algorithm, we never had a chance to encounter them, meaning that we couldn’t decide by ourselves about where we stand on the issue. Of course, we could choose to actively search for more diverse opinions, but even this search can be affected by the customization of results. Therefore, we are practically unable to decide which viewpoints we will identify with, because if we only consume the ones recommended by the system, we are likely to adopt them automatically since that is all we know about the topic.

Another concern is that filter bubbles stand in the way of informed discussion and mutual understanding about various topics. While discussing the concerns with freedom of choice, a limited access to diverse information has already been mentioned. To reach a conclusion about anything at all, we need to gather information and analyse it. However, if the information is incomplete, the conclusion may appear reasonable to us considering what we know, but it does not take everything into account.

Even our social interactions, especially online, can be affected by filter bubbles. Like-minded people gather in the comments of posts and videos that share their worldview: often ones that have been recommended to them by their personalization algorithm. Because of this, they can end up in an echo chamber where everyone supports the same message and no one challenges their beliefs. With this in mind, it would be safe to assume that filter bubbles, by extension, create a barrier to a diverse dialogue between people with different ideations. (Amrollahi, 2021)

Filter bubbles can come in the way of discovering new perspectives or, sometimes, we may not even be aware that there are more viewpoints on the issue at hand at all. As a result, we may not be aware of disagreements concerning the matter and we will only blindly confirm our pre‑existing beliefs. (Bozdag & Van Den Hoven, 2015) If people are not aware of challenging viewpoints or, even worse, of the existence of an issue at all, they cannot form informed opinions. For example, in politics of democratic countries, people have the right to contest the government’s decisions, but they cannot do so if they do not know about the imposed rules. The filter bubble throws out information it deems irrelevant; however, that can often be not because we avoid said topic but because we never thought to research it in the first place. This way, new information might not make it into our bubble even though it may concern us, and we would have a strong opinion if we were aware of it. As it has been stated by Bozdag and Van den Hoven (2015): “Someone cannot protest if they do not know that things relevant to them are happening.”

While not being aware of certain political decisions can be perceived as ignorance and insufficient research, even people who are interested in political news could be affected by their own filter bubbles. Of course, if someone is interested in politics, their customized search results probably contain a greater share of information, but it might not contain everything. This can be, once again, demonstrated on the example of the USA and its two-party system. Since there are only two options and choosing a side, or at least a bigger inclination towards one, becomes nearly inevitable, the personalization algorithms are likely aware of a person’s political leanings. This can result in them being recommended news articles written by media with the same values. And while many issues are covered by all media, despite the different tone and presentation, some may be completely overlooked by one side. This means that the person in question might consume news regularly and still be unaware of certain topics altogether, either because their recommended news outlets deem it unimportant or even purposefully avoid it because of a bias in opinion.

Extremism and radicalization

With ideation polarization comes the danger of falling all the way into extreme worldviews. Having said that, polarized opinions are not all it takes to become an extremist. While a constant confirmation bias in the information received from recommendation algorithms may nudge people towards a more extreme version of their original ideation, strong stances on issues do not necessarily constitute extremism.

In fact, when people become passionate enough about a topic, it may be the reason why they consciously decide to step out of their filter bubble to search for opposing views and challenge them. It has been suggested that the more confident someone is about their opinion, the more likely they are to search for such information. This can, however, often be not to broaden their knowledge, but rather to monitor what they do not like. (Dahlgren, 2021)

Consequently, challenges to opposing opinions may often be emotionally charged and without enough research to make rational conclusions. Once again, the form in which the opposing side’s point of view is presented, plays an important role. If a point made by group A is explained by someone from group B, some information may be left out or presented in a negative light. The ones explaining the opposite side’s arguments are often those with extreme opinions that are so deeply rooted in their minds, that they often cannot be shaken even by extensive evidence.

If a person searches for radical content, personalization algorithms definitely recommend more of the same content type in the future. However, radicalization of one’s beliefs is usually attributed more to the self-selection bias and a decisive link between radicalization and filter bubbles has not been proven. (Wolfowicz & Weisburd & Hasisi, 2023)

Breaking the filter bubble

While filter bubbles affect many aspects of our searching, perhaps one of the most important things that are filtered by them are news. As discussed earlier in the essay, personalization algorithms create customized ecosystems out of our interests as well. But while that may sometimes stifle new ideas or creativity, it can generally be seen as a fairly positive outcome. Tailored product advertising could be seen as companies prying on our personal data and manipulating us into purchases; however, the effect mostly remains on an individual level. Customized news are the cause of most of the negative societal impacts analysed earlier in the essay, so it is the part of the filter bubble we should be most focused on breaking out of.

The first step to breaking out of the filter bubble is realising that we are inside of one in the first place. This may appear trivial, but if challenging and diverse information are not recommended to us and we only see information confirming our opinions, we can simply assume that our stance on the issue is the only existing one.

Anonymity

Many platforms, including search engines, gather data about our activity and save our browsing history in order to personalize our search results in the future. It is, however, possible to step away from personalization altogether by becoming anonymous online.

Becoming completely anonymous in today’s digital world is nearly impossible, especially if we wish to engage with social media content or if we are required to use certain services by our school or workplace. Nevertheless, some steps can be taken in order to reduce personalization in some cases.

Using a search engine like DuckDuckGo that does not save our browsing history is not only beneficial in terms of online privacy, but it is also a good way to opt out of personalized search results. Another tool that protects our online privacy and, by extension, prevents our results from being personalized is Tor Browser.

Multiple sources

Perhaps the most intuitive solution to the issue of filtered content is consuming news from multiple sources. If we gather news from social media, this would mean seeking out not only more creators and accounts that relay news, but looking for information on different platforms as well. If platforms belong to the same company, for example Meta or Google, and our accounts on them are interconnected, it is possible that the personalization algorithms share our data as well. This would mean that we will encounter the same filtering on all the platforms, preventing more diverse results. Therefore, it would be advisable to search even beyond social media, for example, on official websites of news outlets.

Searching for challenging opinions

Even if we are usually consuming information that confirm our beliefs within the filter bubble and we can be misled into thinking that our opinion is the only existing one, we are often aware that opposing opinions do, in fact, exist. Nevertheless, we are seldom motivated to search for them specifically.

Seeing issues from all points of view is important for creating an informed opinion on the matter at hand; therefore, purposefully looking for challenging information can broaden our perspective. In fact, if we search for challenging information, it will be included in the data that personalization algorithms operate on, and they may consider it in their subsequent recommendations. This could partially alter the filter bubble to provide more diverse results in the future.

Checking for bias

We may sometimes be convinced that we are accessing diverse information, but we may not notice a bias in the so-called diverse media, as we might not even be aware of it. Checking for bias of articles or whole platforms can prove to be extremely challenging. If we were to do it on our own, we would need to find out who owns the media in question, who funds them, what are the leadership’s political affiliations, or what the subjective opinions of the writer are.

This process can be partly avoided through using platforms that gather news from multiple sources and classify them according to their bias. This approach is not foolproof, and we should use our critical thinking skills instead of blindly believing all the information these platforms give us; however, it can be a very useful tool.

Some such services include but are not limited to Ground News or AllSides. Usually, the services of this sort come in the form of mobile apps or browser extensions, and they show us the bias (usually political) of different news. At times, they also include features such as showing which news are covered only by media with certain biases or comparing the type of headlines differently opinionated sources choose for the presentation of the same topic.

Tools of this sort can reveal to us our own biases by revealing the bias of news we usually consume, and they allow us to purposefully choose to engage with information from all points of view.

Conclusion

Filter bubbles can greatly influence our information consumption habits and our perception of the world, and there are many valid concerns in regard to their impact on both individual and societal level. The filtering of information can stifle our creativity, limit our access to important news, or affect our political opinions. It can even be perceived as a violation of our freedom and rights within democracy. There are many works on the topic that define the filter bubble as something nearly inescapable, extreme, and strongly influential, while others reference research which implies that the size of the issue has been blown out of proportion.

Either way, we must realize that the amount of information in the digital age is so great that some sort of personalization and filtering is necessary in order for us to find what we are looking for. The boundary between simple algorithmic customization and a filter bubble is blurry at best and cannot be easily defined, but finding a middle ground between useful tailoring and diversity should be an important goal for the future.

Nevertheless, even without altering the algorithms themselves, there are ways in which we, as individuals, can reduce the filter bubble effects by consciously choosing to step out of our comfort zone. But first, we must look inwards and realize that our opinions, no matter how objective we might wish them to be, are often biased. Even if the effects of filter bubbles were weaker than expected and the bias stemmed more from personal choices, consuming more diverse information helps us reach more rational conclusions.

List of references

Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding From You. Penguin Group

Cambridge Dictionary. (n.b.). filter bubble. In Cambridge Dictionary. Retrieved November 28,  2024, from https://dictionary.cambridge.org/dictionary/english/filter-bubble

Cambridge Dictionary. (n.b.). echo chamber. In Cambridge Dictionary. Retrieved November 28, 2024, from https://dictionary.cambridge.org/dictionary/english/echo-chamber

Chandler, D., & Munday, R. (2016). A Dictionary of social Media. Oxford University Press eBooks. https://doi.org/10.1093/acref/9780191803093.001.0001

Dahlgren, P.M. (2021). A critical review of filter bubbles and a comparison with selective exposure. Nordicom Review. 42(1), 15-33. https://doi.org/10.2478/nor-2021-0002

Custers, B. (2020). Fake News, Filter Bubbles and Echo Chambers: A Short Overview of Basic Terminology and Key Issues, SSRN Electronic Journal. http://dx.doi.org/10.2139/ssrn.3761217

Bozdag, E., & Van Den Hoven, J. (2015). Breaking the filter bubble: democracy and design. Ethics and Information Technology, 17(4), 249–265. https://doi.org/10.1007/s10676-015-9380-y

Amrollahi, A. (2021). A Conceptual Tool to Eliminate Filter Bubbles in Social Networks. Australasian Journal of Information Systems, 25.  https://doi.org/10.3127/ajis.v25i0.2867

Wolfowicz, M., Weisburd, D., & Hasisi, B. (2023). Examining the interactive effects of the filter bubble and the echo chamber on radicalization. Journal of Experimental Criminology, 19(1), 119-141. https://doi.org/10.1007/s11292-021-09471-0

Fighting Digital Fraud with Artificial Intelligence and Machine Learning

0

The goal of this paper is to give the reader a complex overview on how Artificial Intelligence and Machine Learning are transforming the fight against digital fraud. The work should acquaint the reader with common digital fraud types and the options of detecting them. Real-world examples from two companies should then give an insight into the incorporation of these solutions.

In the beginning of this work, the most common types of digital fraud are presented, highlighting the differences between serial and opportunistic fraud, and the exploitation of newly emerged AI tools. Furthermore, key AI&ML algorithms for digital fraud detection are discussed, involving both unsupervised and supervised methods. The workflow of model development is also explained, proving the importance of appropriate model selection. Next, an industry example of successful fraud detection is presented, along with a discussion of its consequences. Finally, the last section is devoted to Resistant AI, and especially to their intriguing story and remarkable expertise. The cherry on top being an insight from Resistant AI’s Data Science Team Lead on the current challenges and future trends of AI&ML fraud detection.

1 Introduction to digital fraud

1.1 The growing threat of digital fraud

With an ongoing digitalisation, increasing number of institutions is shifting their services to the on-line world, moving closer to an idea of automated administration. ID verification, document submission or even contract signing no longer require in-person interactions. These digitalized processes offer lower costs, faster execution times and more convenience for customers. On the other hand, such technological advancements open new possibilities for exploitation by digital fraudsters. Apart from that, the cybercriminal ecosystem is becoming increasingly industrialized, enabling even non-technical fraudsters to access digital exploitation tools without the need of technical knowledge (Bank for International Settlements, 2024).

To give an example, AI photo editors have emerged as powerful tools, but their advanced capabilities present a double-edged sword. Fraudsters can now generate multiple identities with just couple of clicks. Adding a beard, changing eye colour or virtually aging a person? In just a few steps a number of fraud-ready synthetic identities can be created. Combination of these factors could result in only one way — the digital fraud is on its all-time high. According to Veriff’s 2024 Fraud Report there has been a 20% YoY increase in overall digital fraud in 2024. The strongest surge could be seen especially in the E-Commerce sector, with an alarming 40% increase in net fraud when compared to 2022 (Veriff, 2024).

Picture 1: Annual mean fraud rate comparison for different sectors in 2022 vs 2023

(Source: veriff.com/ebooks/veriff-fraud-report-2024 )

With the statistics mentioned above, there is no doubt that digitalisation is like a honey pot for digital criminals. Globally, companies are annually targeted by not thousands but millions of fraudulent activities, resulting in significant financial losses, reputational damage and increased operational expenses. But what techniques in particular do fraudsters employ to deliver such damage and achieve their malicious objectives?

1.2 Types of digital fraud

Digital fraud is a broad term, containing various forms of deceptive practices, but in this paper, we will be primarily focusing on those types, that can be effectively detected by Machine Learning techniques.

Additionally, we should distinguish between serial and opportunistic fraud, as these categories significantly differ in their characteristics — primarily regarding the scale and used methods. Starting with serial fraud, this type is described as repetitive and organized fraudulent action, typically characterized by a high level of sophistication and persistence, often involving automated processes. In practice, this could be represented by reproduction and distribution of fake documents, chargeback frauds or subscription abuse. Here we can further categorize serial fraud into decentralized and concentrated. Decentralized serial fraud could be described like fraud-as-a-service model, where criminals distribute editable templates via internet marketplaces and social media to large segment of end users. These individuals then commit crimes on their own using the acquired documents. On the other hand, concentrated serial fraud is run by highly organized crime groups, who leverage technical tools and iterative experimentation to test and bypass automated controls and create a large number of accounts, which can be then used for various financial crimes. (Resistant AI, 2023)

Opportunistic fraud is known as a situation when individuals exaggerate or manipulate otherwise legitimate claims to gain an unfair advantage or financial benefit. This type of fraud is commonly observed in the insurance industry, when policyholders inflate the value of their claims, falsify details about an incident or misinterpret circumstances. An example could be a policyholder “photoshopping” details about an injury to receive a higher payout from the insurance company.

1.2.1 Document forgery

Moving to exact fraud techniques used by criminals, document forgery is an act of creating a falsified document from scratch, imitating a genuine one. This type of fraud is as old as documents themselves, but with the increasing sophistication of technology, it has taken on a new and more complex forms. Once an underground industry, requiring skilled artistic sense, nowadays all the resources criminals need are just a computer and an image editing software. This means that document forgery is becoming easier and vastly more common. Still, just because making fraudulent documents is easier than ever, it doesn’t necessarily mean that creating a good fake document is easy — fraudsters often give themselves away with typos, unprofessional formatting or non-matching fonts.

1.2.2 Synthetic identity fraud

Next on the list, a newer form of identity fraud, involves combining real or both real and fake information to create a new fictional identity. This combination makes synthetic fraud particularly challenging to detect. Criminals may, for instance, begin by stealing photos of personal identification or credit card information. On their own, these pieces of information may not be sufficient to open a bank account, but document forgery can easily fill in the gaps to make unauthorized registration successful.

Picture 2: Illustration of how a synthetic identity could be created

(Source: omnisecure.berlin/wp-content/uploads/os23_Muerl_Carsten.pdf )

According to MasterCard’s Fraud Prevention e-book, synthetic identity fraud has recently surpassed credit card fraud and identity theft and is now the fastest-growing crime in the world (MasterCard, 2024). As stated by TransUnion, synthetic identity fraud was up 132% in 2022, with 46% of global companies having experienced such crime that year (TransUnion, 2023).

1.2.3 Template fraud

A website selling pre-designed layouts, used to create documents. Formally a legal business, right? Yes, but the offered templates are almost specifically used to commit digital crimes. Surprisingly, these marketplaces, often referred to as „template farms,“ operate with a level of organization that goes far beyond what meets the eye. While they resemble ordinary template websites like Canva or Freepik on the surface, their true nature becomes apparent in their offerings. These platforms provide thousands of files designed to mimic official documents such as utility bills, bank statements, and passports. Moreover, criminal organizations operate strategically, spreading tens of thousands of links to their template farms across the internet, primarily to increase the reach. Many of the websites share a similar structure, differing only in logo and name, hinting they may be operated by the same organization. Customers visiting these sites are frequently redirected to Telegram, where they are offered „24/7 support“ to facilitate their fraudulent activities and ensure seamless transactions (Resistant AI, 2024).

Picture 3: An example of a template farm website

(Source: resistant.ai/blog/types-of-document-fraud#heading-0)

1.2.4 Authorized Push Payments Fraud

Authorized Push Payments Fraud happens, when a fraudster convinces a person to authorize a payment under false pretences. This type of fraud could be sometimes categorized as pre-digital, since the process starts by deceiving a person and then continues further digitally. APP fraud take many forms such as purchase, investment and romance scams. A purchase fraud occurs when a customer believes that they are making a verified payment for goods or services, when in reality, the product does not exist. This scam typically takes place on-line or through social media, with scammers offering deals that seem unrealistically favourable. After making a payment, the consumer never receives the product nor sees the money again. Recently popular, romance scams, happen typically on dating apps or websites, where a fraudster creates a fake identity and pretends to build a romantic connection with the victim. The scammer builds trust and emotional commitment over several months, eventually leading to a request for money, often pretending to be in an emergency. These types of fraud are particularly challenging to detect but for some cases even ML algorithms are useful (ACI Worldwide, 2024).

1.2.5 Money laundering

Money laundering is called what it is because it precisely describes what takes place — illegally obtained money is put through a cycle of transactions so it appears as gained legally. Money laundering traces its origins to mafia undergrounds in the 1920s. While it has evolved over time, the arrival of digital banking and on-line transactions has made the process more efficient and harder to detect, contributing to its continued presence.

The legitimization of funds can be divided into 3 stages: placement, layering and integration. With placement being the first one, launderer attempts to put the “dirty money” into the financial system unnoticed. This is commonly done by asking a group of people to make small deposits to their accounts, making the funds seem legitimate. This first stage is where detection is most probable. Second stage is done by conducting a series of transactions that, by the reason of their frequency, volume or complexity appear as legitimate transactions. The aim of this process is to make the funds untraceable back to the crime origin. Last stage — integration — is when the launderer tries to integrate the illicit money back into economy, making the funds seem as earned by a legitimate business (for example, business earnings or property) (Organization of American States, 2013).

1.3 Why is AI&ML the key to fight digital fraud?

As previously mentioned, more and more companies are shifting their services to the online world, leading to an unintended consequence of a booming digital fraud industry. With an increasing scale of these criminal activities, manual review process is no longer an effective technique. When processing, for instance, 10,000 documents a day, one can imagine how time-expensive and money-draining a manual control would be. Next, a bit more sophisticated way, a rule-based system is now becoming obsolete as well. While useful for detecting known patterns of fraudulent activity, static rules struggle to adapt to new and emerging threats. For example, rule-based systems are often ineffective for synthetic identity fraud and account tampering (Whitrow, Hand, & Juszczak, 2009). As criminals continuously invent new ways how to commit digital fraud, rule-based system leads to higher false negative rates and missed detections.

One solution for combating endlessly evolving criminal processes could be utilizing machine learning techniques. Machine learning offers a proactive and efficient approach, perfectly suiting the scale of thousands of documents being processed daily. ML algorithms can analyse vast datasets to identify irregular patterns or behaviours, that may not be apparent through traditional methods. Additionally, by learning from historical data, these algorithms have the ability to predict fraud with high accuracy rate. The agility of ML systems also enables companies to detect fraud in real-time, significant amounts of both time and money. (Babatope, 2024)

Companies which already adopted machine learning methods to detect suspicious activity show an impressive success in financial loss reduction. According to Visa’s 2019 press article, Visa Advanced Authorization (VAA) using artificial intelligence helped financial institutions prevent an estimated $25 billion in annual fraud (Visa Inc., 2019). As another example, JPMorgan Chase employs ML to continuously oversee on-line transaction processes, with the result of achieving a 50 percent reduction in credit card losses over the past five years leading to 2019 (JPMorgan Chase & Co., 2019). Moreover, a renowned payment system company PayPal spends around $300 million on anti-fraud measures, with machine learning approaches being a solid pillar of their fraud detection systems.

2 Key AI&ML techniques used for digital fraud detection

As many types of digital fraud exist, so do techniques to detect them — with Artificial Intelligence being one of the most popular ones. Particularly, a branch of AI known as Machine Learning has brought the most success. Machine learning was defined in 1950’s as “a field of study that gives computers the ability to learn without explicitly being programmed” and 70 years later it seems to still hold true.

Machine learning starts with data — tables, photos or text — all this is gathered and processed to be used as training data. Next step, a similarly important, is choosing an appropriate model, which will then be trained on the available data. After training, the model is evaluated, providing developers with performance metrics such as precision, recall and F-1 score — insights on overall accuracy. If needed, an updated set of parameters is chosen, and the model is retrained to give better results.

Functions of machine learning systems are diverse, with descriptive ones using data to explain what happened, predictive ones used to predict what will happen and prescriptive utilizing data to make suggestions about what actions to make. Additionally, machine learning can be categorized into two primary approaches: Supervised and Unsupervised learning. In the following sections, we will explore these categories in detail, highlighting the models most commonly used for digital fraud detection and explaining how the algorithms work.

2.1 Supervised learning

Supervised machine learning models are trained on labelled datasets, which means that the input data is paired with the desired output. Training datasets are manually labelled by a human, who decides whether a document or transaction is fraudulent or not.  Once trained, the machine is provided with a new set of unlabelled data and uses its prior training to predict values or classify the data into categories. Supervised learning is particularly effective in identifying known types of fraud, but very limited in recognizing new or evolving fraud techniques.

Picture 4: Supervised learning process

(Source: geeksforgeeks.org/supervised-unsupervised-learning )

2.1.1 Logistic regression

The first algorithm we will discuss, Logistic regression, estimates the probability of an event occurring, such as if transaction is fraudulent or not. This model, also known as logit model, is often used for classification or predictive analysis. Since the expected outcome is probability, dependent variable lies between 0 (not-fraud) and 1 (fraud) included. Unlike generative algorithms, logistic regression does not create or generate new information. Instead, it assigns items to a class by estimating the probability of belonging to that class. Most commonly used approach, Binomial logistic regression, can divide variables into just two classes – for example, fraud/no fraud — but more complex types like Multinomial logistic regression are able to predict three or more outcomes. Logistic regression can be interpreted by a Sigmoid function, a curve used to map the predicted values to probabilities.

Picture 5: Comparison of Linear and Logistic regression

(Source: saedsayad.com/logistic_regression.htm )

As seen on the plot, logistic regression is described by the logistic function, which is mapped by the following equation:

The formula calculates a probability that given input X belongs to the positive class (Y = 1), while β0 represents the baseline probability of the positive class when all predictors (X1, X2 Xn) are zero. β1, β2βn being coefficients or weights assigned to the input features. Similarly important is also a concept of log odds. In logistic regression, a logit transformation is applied on the odds, that being a probability of success, divided by the probability of failure. This is commonly known as log odds and can be represented by the following formula:

Beta parameter is often estimated via maximum likelihood estimation (MLE). This method tests different values of beta through multiple iterations to optimize for the best fit of log odds. All of these iterations produce the log likelihood function, and logistic regression seeks to maximize this function to find the best parameter estimate. Once the optimal coefficient is found, the conditional probabilities for each observation can be calculated and summed together to yield a predicted probability. This changes slightly, when is logistic regression used specifically for machine learning cases. Within machine learning, the negative log-likelihood is commonly used as the loss function, with gradient descent being applied to optimize the parameters and find the global maximum (IBM, 2024).  

As discussed in a paper about credit card fraud detection (Alenzi & Aljehane, 2020), logistic regression can be a powerful tool for detecting credit card fraud through transactions. A database of credit card transactions was split into training and testing sets to build and evaluate predictive algorithms. Multiple classifiers such as k-Nearest neighbours or Voting classifier were used, but logistic regression presented the best performance. The accuracy was determined by a Confusion matrix — a table containing counts of true positives (TP), false positives (FP), true negatives (TN) and false negatives (FN), aiming to have the best proportion of correct predictions.

Picture 6: Detailed plot of Logistic regression, showing values for fraud (1) and non-fraud (0)

(Source: thesai.org/Downloads/Volume11No12/Paper_65-Fraud_Detection_in_Credit_Cards.pdf )

2.1.2 Random forests

Random forest is a supervised machine learning algorithm consisting of multiple decision trees during the training phase. First, it would be best to introduce how decision trees work.

A decision tree is a structure consisting of nodes (representing decisions or tests on attributes), branches (representing the outcome of these decisions) and leaf nodes (representing final outcomes). For example, root node corresponds to the entire dataset and the initial decision to be made, and leaf nodes correspond to final decisions with no further splits (GeeksForGeeks, 2024).

Picture 7: A simple visual example of decision tree  

(Source: botpenguin.com/glossary/decision-trees )

While decision trees are commonly used, they can be prone to problems, such as bias and overfitting. However, when multiple decision trees form an ensemble in the random forest algorithm, they predict more accurate results, particularly when the individual trees are uncorrelated with each other.

Ensemble methods combine predictions from multiple models to determine the most popular result, with bagging being one of the most well-known approaches. In this method a random sample of data in a training set is selected with replacement. This means, that the individual data points can be chosen multiple times. After several data samples are generated, these models are then trained independently, which helps with reducing the variance within a noisy dataset.

Finally, we get back to the random forest algorithm, which is an extension of the bagging method as it uses both bagging and feature randomness to an uncorrelated forest of decision trees. Feature randomness generates a random subset of features, which ensures low correlation among decision trees. This is the key difference between decision trees and random forests. Furthermore, random forests have three main hyperparameters, which need to be set before training is started. These include node size, the number of trees and the number of features sampled. From there, the random forest classifier can be utilized to solve both regression and classification problems (IBM, 2024).

Picture 8: Visual representation of random forest algorithm

(Source: geeksforgeeks.org/random-forest-algorithm-in-machine-learning )

2.1.3 Support Vector Machine (SVM)

Next of the supervised machine learning models, support vector machine, is an approach that classifies data by finding an optimal line that maximizes the distance between each class in an n-dimensional space. As commonly used algorithm for classification problems, it can distinguish between two classes by finding the optimal hyperplane that maximizes margin between the closest data points of opposite class. The plane dimension is specified by the number of features. Even multiple hyperplanes can be created to differentiate classes, enabling the algorithm to find the best decision boundary between classes. The lines adjacent to the optimal hyperplane are known as support vectors as these vectors run through the data points that determine maximal margin.

The benefit of SVM is that it can handle both linear and non-linear classification tasks, making it a versatile method. For not linearly separable data, kernel functions are used to transform the original feature into a higher-dimensional space, where the data becomes linearly separable.

When SVM is compared for example to logistic regression, it typically performs better with high-dimensional and unstructured data such as text, images and especially those images that have been tampered with. SVMs are also less vulnerable to overfitting with the benefit of also being a bit easier to interpret. But on the other hand, they are usually much more computationally expensive (IBM, 2024) (SciKit-Learn, 2024).

Picture 9: A visual representation of the concept of SVM

(Source: images.javatpoint.com/tutorial/machine-learning/images/support-vector-machine-algorithm5.png )

As discussed in a journal paper (Kumar, Gunjan, Ansari, & Pathak, 2022), SVM was compared to other ML algorithms (such as previously mentioned random forest and linear regression) in a credit card fraud detection problem. Customer data was pre-processed, categorical values were converted into numerical form, and the dataset was split into 70% training and 30% testing data. In this case, the performance of SVMs was exceptional, likely because they are particularly effective when dealing with imbalanced and skewed data. Overall, the algorithm achieved a 96% accuracy rate in detecting credit card fraud, with precision, recall, and the F1-score also demonstrating high performance levels.

2.2 Unsupervised learning

The second category of machine learning algorithms works with unlabelled datasets to analyse and cluster data. In other words, these algorithms are allowed to discover patterns and insights without any explicit guidance or instructions. Unsupervised algorithms are particularly effective for more complex processing tasks, such as organizing large datasets into clusters. They are also significantly better at identifying previously undetected patterns and can help identify features useful for categorizing.

The algorithm groups the data by similar patterns and while the machine itself does not understand these patterns, a human then can create classes based on their understanding. For instance, our algorithm might group weather data by temperature or similar weather patterns. Our task then would be to determine whether these groups correspond to specific seasons or distinct weather types, such as rain or snow (Google, 2024).

Picture 10: Unsupervised learning process

(Source: geeksforgeeks.org/supervised-unsupervised-learning )

2.2.1 K-means clustering

As we discussed earlier, many forms of clustering tools exist, including exclusive, overlapping, hierarchical and probabilistic, the K-means algorithm represents the exclusive (“hard”) method. This type of grouping specifies that a data point can be assigned to just one cluster. In fraud detection, this type can be especially useful in document clustering or image segmentation. It is also widely used in other problems related to cluster analysis because the algorithm is efficient, effective and relatively simple.

K-means algorithm uses an iterative process to minimize the sum of distances between the data points and their cluster centroids. It operates by classifying data points into clusters by using a mathematical distance measure, typically Euclidean, from the cluster centre. The goal is to minimize the sum distances between data points and their assigned clusters. Data points are assigned to clusters based on their proximity to a centroid.

The initial step of this algorithm is to assign a value to k, choosing how many clusters we want to create. A higher k value signifies smaller clusters with greater detail, while a lower k value results in larger clusters with less detail. Next is a two-step iterative process which includes Expectation-Maximization machine learning algorithm. The expectation step assigns each data point to its nearest centroid based on their distance. Then the maximization step calculates the mean distance of all the points (to their original centroid) in a cluster and reassigns a new centroid. This process is repeated until the centroid positions are stable (IBM, 2024).

Also, a similar algorithm to k-means clustering called DBSCAN or Density-based Spatial Clustering of Applications with Noise in its full title exist. But in this case, we are categorizing the data based on their density, meaning proximity to each other. In context of DBSCAN, clusters are dense regions in the data space, separated by regions of the lower density of points. This algorithm works with “clusters” and “noise”. The main difference is that with DBSCAN, instead the number of clusters, we are choosing the minimum amount of points a cluster can contain. Additionally, we choose other a parameter called eps, which defines the neighbourhood around a data point i.e. the maximum distance between two points to be considered neighbours (GeeksForGeeks, 2023).

Picture 11: Comparison of clustering between DBSCAN and k-means

(Source: github.com/NSHipster/DBSCAN )

The k-means clustering method can be applied in almost every domain and industry and it is usually utilized for data which has few dimensions, is numeric and can be easily portioned. In the context of fraud detection k-means algorithm can be used to identify fraudulent transactions based on the attributes like geolocation and device information. It can detect irregular behaviour patterns, which helps identifying when a fraudster steals credentials and tries to make payments. Moreover, anomaly detection is an area where k-means algorithm proves effective, it identifies the data points that are most far away from the centroids, in other words — outliers (Signicat, 2024) .

2.2.2 Isolation forest

This algorithm could remind us of a supervised one discussed earlier — Random forest. Contradictory, Isolation forest belongs to unsupervised methods and we will soon find out why.

Isolation forest, best known for its efficiency and simplicity, is an algorithm used primary for anomaly detection. By removing anomalies from an unlabelled dataset using binary partitioning, it quickly identifies outliers with minimal computation overhead. Anomaly detection is a technique of identifying rare observations which can raise suspicions by being statistically different from the rest. In our context, these anomalies could resemble fraudulent behaviour such as falsely authorized transactions or tampered documents.

Isolation forest is once again using the concept of trees, but this approach randomly selects features and splits them along random values until individual data points are isolated. This isolating process creates trees or in other words partitions, that aim to separate anomalies from ordinary observations. Each data point is then assigned the “anomaly score”, which is based on how many splits are needed to isolate it. Anomalies requiring fewer splits to isolate are typically assigned higher anomaly scores.

Picture 12: An example of Isolation forest

(Source: geeksforgeeks.org/what-is-isolation-forest/ )

Let’s now delve deeper into the steps which this unsupervised algorithm takes. It begins by Random partitioning. Random feature from the dataset is selected and once a feature is chosen, a random value within the range of that feature’s values is selected as the splitting threshold. The process splits the data into two parts. This random selection and splitting are repeated recursively, until all the data points are either isolated into individual partitions or maximum depth is reached. Next step, Isolation path, calculates how isolated a data point within the tree is. As already stated, the isolation of a data point is determined by the number of splits needed to isolate that point within a tree. Finally, a third step is implemented, when an ensemble of isolation trees is built. The algorithm constructs a specified number of isolation trees independently and evaluates the isolation paths to find the anomalies (GeeksForGeeks, 2023).

3 AI&ML fraud detection in the insurance industry

As apparent from the fraud introduction section, scammers operate in many industries. With ongoing digitalization, nearly every sector is increasingly vulnerable to the threats of digital fraudsters. To combat these threats, companies are implementing a range of countermeasures, with machine learning algorithms being among the most prominent. However, it remains a constant battle similar to a cat-and-mouse game, with fraudsters often staying one step ahead. In this section, we will explore one particular industry, which is being frequently targeted, the methods fraudsters use to exploit it, and the strategies insurance industry employs to defend itself against scammers’ threats.

3.1 Insurance fraud

An industry, where fraud might be as old as the industry itself, insurance. Insurance fraud in the US alone is estimated to cost a total of $40 billion annually. This of course has an effect; an insured US family pays between $400 and $700 per year in the form of increased premiums (FBI, 2010).

Insurance companies encounter several types of insurance fraud. While serial fraud exists in almost every industry, in the insurance sector, the opportunistic fraud tends to be much more common. When an insurance claim is filed, some customers have the tendency to exploit the situation to maximize their financial gains. A common practice among fraudsters is to inflate their claims, exaggerating the value of the loss or including items that were not actually damaged. They can do so by editing digital documents and invoices in a photo editor app, even with minimal experience. Moreover, fraudsters now can take advantage of recently emerged AI tools, forging documents with even greater ease. Similarly common is also the application fraud, which happens when a customer provides falsified documents at the very start of the insurance process to obtain coverage or benefits, they might not otherwise qualify for. If advanced machine learning techniques are applied, the insurance company can often detect this fraud during the application phase. However, it may occasionally go unnoticed, only coming to light when an insurance claim is filed, resulting either in its eventual discovery or in an unjustified payout that could have been avoided.

3.2 Real example of insurance fraud

We will now present a real-world example of insurance fraud, obtained from Ondřej Poul – Claim Division Director in Kooperativa (no. 2 insurance company in Czechia). The customer applied for health insurance, likely omitting any disclosure health complications. Sometime after obtaining the policy, they filed a claim related to health complications, supported by a medical document. However, an applied machine learning algorithm identified evidence of document tampering. Upon contacting the document’s issuer, probably a general practitioner, it was confirmed that health complications actually started in 2011 — way before the insurance policy was arranged. The algorithm not only classified the document as fraudulent but also pinpointed the exact numbers, that have been edited. As Ondřej Poul stated, the company was able to save 95 000 CZK by detecting this fraud (Poul, 2024).

Picture 13: An example of ML algorithm detecting document tampering on a medical report (Source: linkedin.com/in/poul )

To detect such fraud cases, insurance companies can either develop in-house machine learning solutions or leverage the expertise of external providers. Both approaches will be discussed in the following paragraphs, even with a real example, again from Kooperativa.

3.3 Kooperativa x Resistant AI: Implementation of machine learning solution for insurance fraud

For this part, I contacted Lucie Paulusová, a Business Analyst at Kooperativa, who has been actively involved in the implementation of Resistant AI’s fraud detection system. While the expertise of Resistant AI will be discussed later, we will now focus on what such an implementation involves.

The process begins with initial discussions to identify and align on business needs. Once these foundational talks are complete, teams from both companies start their collaboration. Furthermore, Resistant AI typically provides a proof of concept (POC) to demonstrate the applicability of their solution on insurance fraud cases. Then, an important phase of the solution begins — determining the formats and types of documents that will be analysed. For instance, some documents are rarely, if ever, falsified, and therefore can be excluded from the verification process. On the other hand, documents like medical reports or car accident claims are to be thoroughly reviewed. Equally important is also the selection of key indicators for the fraud analysis, such as logos, font types, and other details. Since Resistant AI’s solutions also focus on the document metadata, many fraudsters can be detected just by analysing whether a document has been edited and when. For example, if a certain company’s accounting records are typically generated using the Czech accounting software Pohoda, the presence of a different accounting tool or editing software in the metadata could raise suspicion.

Even after the system is fully set, the two teams continue their collaboration, through weekly sprints, mitigating issues and enhancing the effectiveness of the solution. Furthermore, individual cases requiring clarification are also often discussed on these meetings. The ultimate goal is to catch the fraudsters before insurance payouts are made and minimize false positives. Usually, fraudulent cases are settled directly with the policyholder but if the fraudulent sum is excessively high or the fraud shows signs of organized crime, the cases can be escalated to the police for further investigation and legal action.

3.4 Development of in-house machine learning solution

The entire workflow requires collaboration across multiple departments including business, data governance or legal teams. However, in this paragraph we will concentrate exclusively on the technical development.

When starting from scratch, the first step is always to perform the Exploratory Data Analysis (EDA). This part helps in understanding the data and may reveal hidden issues such as data inconsistency, duplicated rows or missing values. Successful machine learning algorithms are dependent on accurate data representation. To achieve this, feature engineering or in other words selection, transformation and creation of relevant variables, is essential. Finally, the model can be built; however, a common approach is to first develop multiple models of different types, evaluate their performance, and then select the best one for fine-tuning. In this particular case (Wipro, 2024) these models were selected for testing: Logistic regression, Modified Multi-variate Gaussian, Boosting, Bagging with Adjusted Random Forest.

Once again, the accuracy was evaluated by the Confusion matrix also showing recall (fraction of positive instances that are retrieved) and precision (fraction of retrieved instances that are positives). An additional way of model performance evaluation was used — ROC Curves. The evaluation has then revealed the best performing model for this particular case, with Bagging with Adjusted Random Forest obtaining the highest scores. However, the analysis suggests that the final outcome is influenced more significantly by the quality and quantity of the available data than by the choice of the model itself. Some might think this marks the end of the process, but until the chosen model is deployed into production, there is still significant work to be done. This includes the fine-tuning process to prevent overfitting, ensuring the model generalizes well to new, unseen data, and rigorous validation to confirm its reliability in real-world scenarios. (Wipro, 2024).

Picture 14: The process of building an ML solution for fraud detection

(Source: wipro.com/analytics/comparative-analysis-of-machine-learning-techniques-for-detectin )

4 Insight into practice: Resistant AI

Now let us shift our focus the other side — to a company that develops advanced machine learning solutions for digital fraud detection and prevention. These solutions not only help companies reduce financial losses, but also contribute to the uncovering of organized crime activities, serving a higher purpose. In the following section we will be focusing on how such company works and how they manage to detect millions of digital fraud cases. Additionally, I had the opportunity to connect with data science team lead at Resistant AI, who will provide valuable insights into the current challenges and future trends in AI&ML fraud detection.

Picture 15: Resistant AI’s logo and slogan

(Source: resistant.ai )

4.1 The story of Resistant AI

The story begins on the academic grounds. Most of Resistant AI’s founders have completed PhD’s in artificial intelligence, computer engineering or related field at prestigious European universities. By 2006 their similar interest brought them together as a team of researchers at the Czech Technical University in Prague. Recognizing the unique ability of machine learning for securing private and cloud networks against real-time malware threats, in 2009 they spun off their first company — Cognitive Security. Later, major international players began to take notice, with the result of Cisco acquiring the company in 2013. This might not seem too important, but in fact this expertise is what gives Resistant AI an extreme advantage from the current competitors. Having a backbone made out of cybersecurity experts with already one company successfully built is what now makes Resistant AI a company you can trust.

With nearly 15 years of top-tier experience in network security and machine learning, the expert team reunited in 2019 to establish Resistant AI. Backed by the vision of making today’s financial systems more resilient to digital fraud, they began with the development of their solutions. Having seed funding secured in 2020 and Series A funding completed in 2021, Resistant AI has grown significantly. By 2023, the company had built a customer portfolio exceeding the hundred-client mark and expanding abroad to form both international team and clientele. Currently, Resistant AI is a recognized leader in digital fraud detection, with dedicated sales teams operating in New York and London to support their global expansion (Resistant AI, 2024).

4.2 Resistant AI’s expertise

Resistant AI offers two main division of solutions — transactions and documents.

Starting with documents, tailored solutions are able to verify thousands of documents daily, providing companies with an automated system of fraud protection and detection. Resistant AI’s algorithms accept both PDF and image format documents, checking metadata, internal structures or used fonts. Overall, Document Forensics check over 500 parameters to find signs of fraudulent behaviour. And they can do so even without explicitly reading document contents, ensuring a top-tier privacy. Additionally, actionable verdicts are provided, marking the documents as Trusted, Warning or High Risk. While every 1 in 5 onboarding documents are tampered with, and up to 2% are based on reused or generated documents, mentioned techniques can have an immense impact on whether the fraudster is successful or not. The solutions are especially effective for onboarding, KYC processes or underwriting (Resistant AI, 2024).

The second division of solutions, being especially useful for banking industry, prevents real-time financial threats. The software recognizes irregular behaviour patterns, actively finding both threats already present in the system and potential fraudsters. It can also aid already implemented risk monitoring services, creating hyper-granular risk profiles for each customer by segmenting transactional data based on behaviour. These solutions are best suited for detecting money laundering schemes, authorized push payment scams or fraudulent techniques exploiting Buy Now Pay Later (Resistant AI, 2024).

4.3 Current challenges and future trends in AI&ML fraud detection

For this section I teamed up with Anežka Lhotáková, Adaptive Decision & Image operations Team Lead in Resistant AI. We led a discussion about AI&ML fraud detection topics, resulting in many inspirational ideas being incorporated into this work. Apart from that she was more than willing to answer the following questions:

What are the current challenges in AI&ML fraud detection?

“In digital document fraud, a major topic is the current technological availability of powerful machine learning models (or, if you prefer, AI models). The days when criminals were sophisticated individuals like the meticulous Frank Abagnale are long gone. What distinguishes the current era is accessibility—today’s fraudsters need no more than a photoshop tool with AI features that smooth out all imperfections that might alert the human eye about a forgery.

At present, we are at a phase where existing documents or templates are being modified (very convincingly) locally. In the future, however, we must prepare for a level of forgery where documents will be generated from scratch, without any original template.”

What are the future trends of AI&ML fraud detection?

“We must acknowledge that in the more distant future, when it becomes impossible to distinguish an original document from a forgery, the question of alternative methods for identity verification will arise. Some efforts and directions are already visible today—be it methods like face recognition, fingerprinting, cognitive security, or, specifically in the Czech Republic, the relatively „simple“ system of „datová schránka“. However, such methods, like those we use today, must demonstrate a certain reliability while also protecting individuals‘ data and privacy.

Would you trust a system that verifies your identity based on your „computer“ behaviour—typing speed, keystroke pressure, mouse movements, time spent on a page, voice analysis…? Would you entrust such a system with your confidence, a piece of your privacy, and highly personal data in the interest of verifying your banking identity?”

Conclusion

The semestral work provided a complex overview on how machine learning algorithms are leveraged to fight cunning digital fraudsters.

At the beginning it introduced the most popular types of fraud, highlighting an important difference between serial and opportunistic fraud. While both being similarly dangerous, the level of sophistication and premeditation is the main distinctive factor. Furthermore, with the emergence of AI tools, creating a fraudulent document is becoming increasingly easier. This poses a real threat for the future, as even non-technically skilled scammers are now able to utilize the software to create fraud materials in minutes, if not seconds.

To counter these criminal activities, machine learning solutions can be developed and employed. Both supervised and unsupervised techniques have proven effective, with a diverse portfolio of algorithms to be chosen from. However, there is no one-size-fits-all solution, as each model comes with its own strengths and weaknesses, making it suitable for specific types of fraud. In practice, multiple models are often trained and evaluated to determine which performs best on the given task. Once identified, the best-performing model undergoes fine-tuning to optimize its performance before being prepared for real-world deployment.

The final two sections of this work were granted to showcase of real applications of AI&ML fraud detection. The first example explored a case from the insurance industry, showing an actual attempt to commit fraud by tampering with a medical document. In the second section, an example of a world leader in AI&ML fraud detection was provided, discussing their success story. Finally, short insights from a field expert were shared, also highlighting the threats posed by newly emerging AI tools in the context of digital fraud. Given the complexity of this topic, future research could dive into neural networks, which now play a significant role in fraud detection and could complement the machine learning algorithms discussed here. While at the end of this work we primarily focused on the insurance industry, future studies could explore other sectors where fraud is similarly frequent, such as banking. Possibly also the gambling industry, where features like friend-invitation systems are now often exploited.

References

ACI Worldwide. (2024). APP fraud explained. ACI Worldwide. https://www.aciworldwide.com/app-fraud

Alenzi, H. Z. (2024). Machine learning for advanced fraud detection and content moderation. Preprints. https://doi.org/10.20944/preprints202411.0352.v1

Babatope, A. (2024, November). Machine learning for advanced fraud detection and content moderation. Preprints. https://doi.org/10.20944/preprints202411.0352.v1

Bank for International Settlements. (2024). Digital fraud and banking: Retrieved from https://www.bis.org

GeeksForGeeks. (2023a). DBSCAN clustering. Retrieved from https://www.geeksforgeeks.org/dbscan-clustering-in-ml-density-based-clustering/

GeeksForGeeks. (2023). What is isolation forest? Retrieved from https://www.geeksforgeeks.org/what-is-isolation-forest/

IBM. (2024a). What is k-means clustering? Retrieved from https://www.ibm.com/topics/k-means-clustering

IBM. (2024b). What is logistic regression? Retrieved from https://www.ibm.com/topics/logistic-regression

JPMorgan Chase & Co. (2019). JPMorgan Chase & Co. annual report 2019. Retrieved from https://www.jpmorganchase.com/content/dam/jpmc/jpmorgan-chase-and-co/investor-relations/documents/annualreport-2019.pdf

Kumar, S., Gunjan, V. K., & Babatope, A. (2024). Machine learning for advanced fraud detection and content moderation. Retrieved from https://doi.org/10.20944/preprints202411.0352.v1

Mastercard. (2024). Synthetic identity theft prevention [E-book]. Retrieved from https://ekata.com/wp-content/uploads/2024/04/Synthetic_identity_theft_prevention_ebook.pdf

Organization of American States. (2013). Money laundering. Retrieved from https://www.oas.org/cicaddocs/Document.aspx?Id=3095

Poul, O. (2024). Machine learning applications in insurance fraud detection. Retrieved from https://resistant.ai/blog/threat-intel-doc-juicer#heading-10

Resistant AI. (2023). The threat of serial fraud. Retrieved from https://info.resistant.ai/serialfraud-wp

Resistant AI. (2024a). Document solutions. Retrieved from https://resistant.ai/products/documents

Resistant AI. (2024b). About Resistant AI. Retrieved from https://resistant.ai/about

Scikit-Learn. (2024). DBSCAN clustering. Retrieved from https://www.geeksforgeeks.org/dbscan-clustering-in-ml-density-based-clustering/

Signifyd. (2023). 2023 State of omnichannel fraud report. Retrieved from https://www.transunion.ca/fraud-trends/reports/2023-state-of-omnichannel-fraud-report

TransUnion. (2023). 2023 state of omnichannel fraud report. Retrieved from https://www.transunion.ca/fraud-trends/reports/2023-state-of-omnichannel-fraud-report

Visa. (2019, June). Visa prevents approximately $25 billion in fraud using artificial intelligence. Retrieved from https://www.businesswire.com/news/home/20190617005366/en/

Whitrow, C., Hand, D., & Juszczak, P. (2009). Transaction aggregation as a strategy for fraud detection. Data Mining and Knowledge Discovery, 18(1), 30–45. https://doi.org/10.1007/s10618-008-0116-1

Author: Jakub Kabele, Business Analyst @ Kooperativa, Student Data Analytics @ VŠE (2024)

Uber: Za hranice Competitive Intelligence

0

Firmy se v dnešní době pohybují ve vysoce konkurenčním prostředí, a proto využívají různé strategie, kterými se snaží získat náskok před svými soupeři. Jednou z klíčových strategií je Competitive Intelligence, jejímž hlavním cílem je sběr, zpracování, interpretace a implementace poznatků. Správné využívání Competitive Intelligence umožňuje firmám lépe chápat své postavení, předvídat trendy, reagovat na změny a tím získat konkurenční výhodu.

Avšak mezi Competitive Intelligence a špionáží – tedy nelegální činností – existuje tenká hranice, kterou některé firmy ve snaze získat konkurenční výhodu překročí. Příkladem je společnost Uber, jejíž hlavní činností je poskytování služby sdílení jízd. Uber se v minulosti dostal pod palbu kritiky kvůli skandálům spojeným s neetickým, a dokonce i nelegálním získáváním, využíváním a manipulací dat. Mnoho z těchto kontroverzí se odehrálo v době, kdy byl CEO Uberu Travis Kalanick, který vedl firmu od jejího vzniku v roce 2009 až do svého odchodu v roce 2017.

Níže jsou popsány konkrétní případy, kdy společnost Uber překročila hranice Competitive Intelligence, a to jak z pohledu etiky, tak zákona.

K vytvoření komplexního přehledu o těchto praktikách byly použity informace získané prostřednictvím hloubkové rešerše. Zdrojem jsou zejména novinové články z médií, která se tématem zabývala v době, kdy tyto skandály vyšly najevo. Analýza těchto zdrojů umožnila zmapovat nejen konkrétní kroky Uberu, ale také jejich širší dopady na veřejné mínění a právní rámec v technologickém sektoru. Výsledkem je ucelený pohled na praktiky Uberu v obdobích jeho největších skandálů.

1. Hell a Heaven

Systémy „Hell“ a „Heaven“ byly interní nástroje společnosti Uber, které sloužily k získávání konkurenčních informací a sledování aktivit jak vlastních řidičů, tak řidičů konkurence, zejména Lyftu.

Systém Hell

Hell byl tajný software, který vyvinul tým pro Competitive Intelligence Uberu během působení Travise Kalanicka jako CEO. Jak již bylo zmíněno v úvodu, Kalanick byl známý svou ochotou překračovat hranice pro rychlý růst firmy. Uber používal systém „Hell“ v letech 2014 až 2016 k monitorování řidičů konkurenční společnosti Lyft. Tento nástroj umožňoval sledovat počet dostupných řidičů Lyftu v určité oblasti, jejich aktuální polohu a také identifikovat řidiče, kteří pracovali pro Uber i Lyft zároveň. Název systému byl zvolen jako protiklad k nástroji označovanému jako „Heaven“ nebo „God View,“ který sloužil ke sledování vlastních řidičů Uberu.

Aby získal informace o řidičích Lyftu, Uber vytvořil falešné účty pasažérů na platformě Lyft. Tyto účty umožnily systému shromažďovat data o poloze řidičů a jejich dostupnosti. Díky těmto informacím mohl Uber cílit na tzv. „dvojité“ řidiče – tedy ty, kteří pracovali pro obě společnosti. Těmto řidičům Uber přiděloval více zakázek nebo nabízel různé finanční pobídky, aby je přiměl jezdit exkluzivně pro Uber. Tato strategie vedla k tomu, že „dvojití“ řidiči byli zvýhodňováni oproti těm, kteří pracovali pouze pro Uber.

Kromě toho, že Uber porušil pravidla platformy Lyft tím, že vytvořil falešné účty pro pasažéry, mohl se také dopustit zneužití obchodního tajemství, protože neoprávněně získával a využíval informace o řidičích Lyftu, včetně jejich aktuální polohy. Tento postup by mohl být rovněž považován za porušení zákona o počítačových podvodech a zneužití (Computer Fraud and Abuse Act), neboť zahrnoval neautorizovaný přístup k datům z platformy Lyft. Manipulace s údaji a vytváření falešných účtů za účelem získání konkurenční výhody lze navíc považovat za formu podvodu a špionáže. Tato strategie výrazně překračovala hranice etického chování v konkurenčním prostředí a vyvolala silnou kritiku jak ze strany Lyftu, tak ze strany široké veřejnosti. (Kosoff, 2017)

Systém Heaven

Heaven byl nástroj, který umožňoval společnosti Uber sledovat polohu svých řidičů a cestujících v reálném čase. Tento systém byl původně navržen s cílem optimalizovat služby. Nicméně jeho potenciál k zneužití vzbudil vážné obavy o ochranu soukromí a bezpečnost dat.

Tisíce zaměstnanců Uberu měly přístup k systému Heaven, což jim umožňovalo sledovat konkrétní osoby, včetně zákazníků a celebrit, bez jejich vědomí či souhlasu. Tato praxe byla kritizována poté, co se objevily případy jejího zneužití pro osobní účely, například ke sledování expartnerů. (Evans, 2016)

Jedním z nejvýznamnějších skandálů spojených s tímto nástrojem bylo zjištění, že zaměstnanci Uberu mohli sledovat vysoce postavené osoby, včetně veřejných činitelů a novinářů. Například jeden ze zaměstnanců sledoval pohyby reportérky platformy BuzzFeed bez jejího souhlasu, zatímco jiný manažer navrhl shromažďovat kompromitující informace na novináře, kteří psali o Uberu kriticky.

Během jedné marketingové akce v Chicagu Uber dokonce předváděl nástroj God View tím, že ukazoval pohyb konkrétních cestujících v reálném čase bez jejich souhlasu. Tato demonstrace vedla k ostré kritice kvůli zjevnému porušení soukromí. Navíc bylo odhaleno, že Uber nedostatečně kontroloval, kdo měl k tomuto nástroji přístup, což umožnilo opakované zneužití. (Warzel & Bhuiyan, 2014)

Tyto praktiky vyvolaly zásadní otázky o etických hranicích sledování a ochraně osobních údajů. Kritika ze strany veřejnosti a regulačních orgánů přinutila Uber zavést přísnější pravidla pro přístup a využívání dat v rámci tohoto nástroje. (Evans, 2016)

2. Případ Anthonyho Levandowského

Příkladem další nekalé praktiky, které se Uber dopustil v rámci získání konkurenční výhody, je případ Anthonyho Levandowského. Levandowski byl inženýr zaměřený na vývoj autonomních vozidel, který pracoval pro společnost Waymo, dceřinou firmu Googlu, jejímž cílem bylo vyvinout technologie pro samořídící vozidla. Během svého působení měl přístup k vysoce důvěrným materiálům, včetně technologií souvisejících s autonomním řízením. Podle obvinění si v roce 2016, krátce před svým odchodem z Waymo, Levandowski stáhl přibližně 14 000 souborů, které obsahovaly citlivé informace o designu a technologických postupech. (Marshall, 2019)

Po odchodu z Waymo Levandowski založil firmu Otto, zaměřenou na vývoj samořídících vozidel. Tento startup vzbudil zájem Uberu, který se snažil rychle expandovat na poli autonomních technologií. V roce 2016 Uber Otto koupil, a Levandowski začal pracovat na projektu Uberu v oblasti autonomních vozidel. V roce 2017 Waymo zažalovalo Uber s tvrzením, že prostřednictvím Levandowského využívá ukradené obchodní tajemství k urychlení vlastního výzkumu a vývoje. Levandowski navíc čelil i občanskoprávní žalobě.

Soudní řízení odhalilo, že Levandowski hrál klíčovou roli při přenosu citlivých dat z Waymo do Uberu, a v roce 2018 bylo dosaženo mimosoudního vyrovnání, při kterém Uber souhlasil s poskytnutím akcií Waymu. Uber se také zavázal, že nepoužije žádnou technologii vycházející z dokumentů, které Levandowski nelegálně získal.

Levandowski čelil obvinění z krádeže obchodního tajemství a v roce 2020 byl odsouzen na 18 měsíců vězení. Soud jeho jednání označil za jedno z nejzávažnějších porušení důvěry v technologickém sektoru. Nicméně se trestu vyhnul díky milosti, kterou mu v lednu 2021 udělil tehdejší prezident Donald Trump. (Harris, 2022)

3. Greyball

Dalším příkladem neetické Competitive Intelligence je software Greyball, který společnost Uber vyvinula jako nástroj k manipulaci s přístupem regulačních autorit a dalších „nežádoucích“ uživatelů k aplikaci. Tento program byl součástí širší strategie Uberu, jak obcházet místní zákony a předpisy, známé jako „Violation of Terms of Service“ (VTOS). Jeho hlavním cílem bylo znemožnit regulačním orgánům shromažďovat důkazy o nelegálních aktivitách společnosti.

Software dokázal filtrovat uživatele na základě analýzy jejich dat, jako je geolokace nebo chování v aplikaci. Greyball těmto uživatelům poté zobrazoval falešné informace o dostupnosti vozidel, čímž zcela mařil jejich snahy o sledování řidičů Uberu. Ačkoli Uber tvrdil, že technologie byla původně vyvinuta jako obranný mechanismus na ochranu před lidmi ohrožujícími bezpečnost řidičů nebo konkurenty, kteří se snažili narušit operace společnosti, postupně se z ní stal nástroj k obcházení právních předpisů.

Hlavním důvodem pro vytvoření Greyballu byla snaha Uberu o rychlou expanzi na nové trhy, kde jeho služby nebyly povoleny nebo kde čelil právním omezením. Byl zaveden v několika městech po celém světě, kde regulační orgány považovaly operace Uberu za nelegální, protože fungování společnosti neodpovídalo tradičním rámcům taxislužeb. Mezi taková města patřil například Boston, Las Vegas a Paříž. Systém Greyball byl rovněž využíván v dalších zemích, jako jsou Austrálie, Čína a Jižní Korea.

Jeden z nejznámějších případů se odehrál v Portlandu ve státě Oregon, USA, kde v roce 2014 začal Uber nelegálně provozovat své služby bez potřebných povolení. Regulační úředníci často objednávali jízdy přes aplikaci, aby shromáždili důkazy proti Uberu a mohli zahájit právní kroky. Řidičům společnosti Uber byly udělovány pokuty nebo dokonce zabavována vozidla. To pro Uber znamenalo značné náklady, protože společnost musela platit jak pokuty, tak i náklady spojené se zabavenými vozidly. Aby se tedy vyhnula těmto problémům, vyvinula software Greyball.

Greyball využíval kombinaci pokročilé analýzy dat a algoritmů k identifikaci podezřelých uživatelů. Systém sledoval a vyhodnocoval velké množství dat, například to, zda se uživatelé často pohybovali v blízkosti vládních budov nebo jiných regulačních institucí. Zaměřoval se také na platební metody, kdy byly podezřelé platby prováděné prostřednictvím kreditních karet spojených s vládními institucemi. Mezi další sledované faktory patřily vzorce chování uživatelů, jako například opakované objednávky z méně obvyklých lokalit nebo zadávání jízd v konkrétních časech.

Dalším způsobem, jak identifikovat potenciální hrozby, bylo sledování uživatelů, kteří aplikaci často otevírali a zavírali, což Uber interně nazýval „eyeballing“. Takové chování bylo považováno za indikaci, že tito uživatelé by mohli mít vazby na městské regulační úřady, zejména pokud se to dělo v blízkosti známých vládních budov.

Aby Uber předešel pokusům regulačních orgánů shromáždit důkazy proti společnosti, sledoval také zařízení, na kterých byla aplikace používána. Důvodem bylo, že při rozsáhlých kontrolních akcích policisté často pořizovali desítky levných mobilních telefonů, které sloužily k vytváření falešných účtů pro objednávání jízd. Uber na tuto taktiku reagoval tím, že jeho zaměstnanci navštěvovali místní obchody s elektronikou a zjišťovali čísla nejlevnějších telefonů, které obvykle kupovali úředníci s omezenými rozpočty.

Kromě toho Greyball využíval i veřejně dostupné informace. Například analyzoval profily na sociálních sítích, aby identifikoval osoby, které by mohly být spojeny s regulačními orgány. Software také sledoval údaje o uživatelích, kteří stahovali aplikaci v blízkosti známých vládních budov.

Pokud byl uživatel označen jako podezřelý, systém Greyball mu přiřadil malý kód s označením „Greyball“ následovaný sérií čísel. Toto označení bylo přidáno k účtu uživatele, což umožnilo aplikaci reagovat na jeho pokusy o objednání jízdy. Systém pak uživateli zobrazoval falešnou mapu s neexistujícími vozy, a jakákoli žádost o jízdu od těchto uživatelů byla automaticky zamítnuta. (Isaac, 2017)

Po odhalení této nekalé praktiky Uberu regulační orgány prohlásily, že takové chování je neetické a podkopává základní principy spravedlivé soutěže. Ministerstvo spravedlnosti Spojených států amerických dokonce zahájilo vyšetřování. Veřejnost tento incident vnímala jako další příklad toho, jak Uber upřednostňuje expanzi za každou cenu před dodržováním pravidel. Kritika přiměla Uber přislíbit, že přestane Greyball používat, ale jeho reputace byla dlouhodobě poškozena. (Reuters, 2017)

4. Kill switch

Kill switch byl interní nástroj vyvinutý společností Uber, který umožňoval okamžité odpojení poboček od hlavního systému v případě razií ze strany regulačních orgánů. Tento nástroj měl za cíl zamezit přístupu úřadů k citlivým firemním datům, jako jsou provozní záznamy, finanční informace, databáze řidičů a informace o konkurenci získané neetickými praktikami v oblasti Competitive Intelligence. Kill switch fungoval tak, že zaměstnanci Uberu mohli v případě razie jedním kliknutím deaktivovat přístup k serverům a počítačovým systémům společnosti. Jakmile byly systémy odpojeny, úředníci už neměli možnost se k datům dostat, i kdyby měli fyzický přístup k zařízením v kanceláři.

Kill switch byl využíván při raziích v nejméně 12 zemích po celém světě, včetně Francie, Nizozemska, Belgie, Indie, Maďarska, Rumunska, Kanady a Hongkongu. Například při razii, která proběhla ve Francii 6. července 2015 brzy ráno, dostali zaměstnanci pařížské pobočky konkrétní pokyny, jak se během zásahu chovat. Měli například vyzkoušet několik notebooků, předstírat zmatení při pokusech o přístup k datům a tvrdit, že IT tým se nachází v San Franciscu, kde byla v té době noc.

Opět se jedná o taktiku, která vyvolala ostrou kritiku jak ze strany regulačních orgánů, tak široké veřejnosti. Tato strategie byla často označována za maření výkonu spravedlnosti a záměrné obcházení regulačních procesů. Právníci Uberu však tvrdili, že zákon nebyl porušen, protože data nebyla trvale smazána a regulační orgány k nim mohly později přistupovat. V reakci na kritiku Uber oznámil, že používání kill switch ukončil v roce 2017, kdy byl Travis Kalanick nahrazen Darou Khosrowshahim na pozici generálního ředitele. Ten zahájil rozsáhlé změny v korporátní kultuře, které měly za cíl zvýšit transparentnost a zlepšit spolupráci s regulačními úřady. Tento krok měl být snahou o obnovení důvěry veřejnosti a nápravu reputace společnosti po sérii skandálů. (Davies & Goodley, 2022)

Shrnutí

Uber je příkladem firmy, která se při svém snaze získat konkurenční výhodu často dostávala na tenkou hranici etiky a zákona. Příkladem je systém Hell, který byl využíván Uberem k monitorování řidičů konkurenční společnosti Lyft. Pomocí falešných účtů pasažérů získávali informace o dostupnosti řidičů Lyftu a identifikovali ty, kteří pracovali pro obě platformy současně. Tito „dvojití“ řidiči byli pak cíleně motivováni, aby jezdili výhradně pro Uber. Tento nástroj se stal symbolem agresivního přístupu Uberu k získání konkurenční výhody. 

Nástroj Heaven, známý také jako „God View“, byl původně navržen k optimalizaci služeb sledováním polohy řidičů a cestujících v reálném čase. Brzy se však ukázalo, že byl opakovaně zneužíván zaměstnanci Uberu k sledování konkrétních osob, včetně celebrit, politiků nebo dokonce novinářů. Tento nástroj vedl ke skandálům, jako bylo sledování reportérky platformy BuzzFeed nebo zobrazování pohybu cestujících během marketingových akcí bez jejich souhlasu.

Případ Anthonyho Levandowského je dalším příkladem sporných praktik Uberu. Levandowski, klíčová postava vývoje autonomních vozidel, si před odchodem z Waymo stáhl tisíce souborů s důvěrnými informacemi. Po založení vlastní firmy Otto, kterou Uber odkoupil, čelil obvinění z přenosu těchto dat do Uberu. Waymo podalo žalobu, která skončila mimosoudním vyrovnáním, při němž Uber poskytl akcie Waymu. Levandowski byl odsouzen za krádež obchodního tajemství, avšak díky prezidentské milosti se vyhnul trestu. 

Kontroverzní byl také nástroj kill switch, který Uber používal při raziích regulačních orgánů. Tento nástroj umožnil zaměstnancům jedním kliknutím odpojit pobočky od hlavního systému společnosti a zamezit tak přístupu k citlivým datům. Tato taktika byla kritizována jako maření výkonu spravedlnosti a přispěla k negativnímu pohledu na společnost. 

Tyto případy ukazují, jak se Uber nebál překročit hranice k dosažení svých cílů. I když společnost po skandálech vyměnila CEO a přijala opatření k nápravě, její pověst byla těmito událostmi významně poškozena. Skandály spojené s Uberem rovněž upozornily na potřebu důslednější regulace a kontroly v technologickém sektoru.

Zdroje

Davies, R., & Goodley, S. (2022). The Guardian. Uber bosses told staff to use ‘kill switch’ during raids to stop police seeing data: https://www.theguardian.com/news/2022/jul/10/uber-bosses-told-staff-use-kill-switch-raids-stop-police-seeing-data

Evans, W. (2016). Reveal. Uber said it protects you from spying. Security sources say otherwise: https://revealnews.org/article/uber-said-it-protects-you-from-spying-security-sources-say-otherwise/

Harris, M. (2022). Tech Crunch. Inside the Uber and Google settlement with Anthony Levandowski: https://techcrunch.com/2022/02/15/inside-the-uber-and-google-settlement-with-anthony-levandowski/

Isaac, M. (2017). The New York Times. How Uber Deceives the Authorities Worldwide: https://www.nytimes.com/2017/03/03/technology/uber-greyball-program-evade-authorities.html

Kosoff, M. (2017). Uber Used a Secret Program Called “Hell” to Track Rival Drivers. Vanity Fair: https://www.vanityfair.com/news/2017/04/uber-used-a-secret-program-called-hell-to-track-rival-drivers?srsltid=AfmBOopqWB9RXZy5E0Qp_wpGU1U0kQnjY4pKA47M_jiOXVph4l9byNMT

Marshall, A. (2019). Wired. Ex-Uber Engineer Levandowski Charged With Trade–Secret Theft: https://www.wired.com/story/ex-uber-engineer-levandowski-charged-trade-secret-theft/

Reuters. (2017). Newsweek. Uber Faces Criminal Investigation Over ‚Greyball‘ Software Used to Circumvent Government Officials: https://www.newsweek.com/uber-criminal-investigation-probe-greyball-software-evade-government-officials-594927

Warzel, C., & Bhuiyan, J. (2014). BuzzFeed News. „God View“: Uber Investigates Its Top New York Executive For Privacy Violations: https://www.buzzfeednews.com/article/johanabhuiyan/uber-is-investigating-its-top-new-york-executive-for-privacy#.qs5GAa7dV7

Kam se stěhovat za lepší prací v IT a kam raději ne

0
job, office, team

V době, kdy digitalizace a technologické inovace neustále mění globální pracovní trhy, se informační technologie (IT) stávají klíčovým faktorem ekonomického rozvoje a konkurenceschopnosti jednotlivých zemí. S rostoucí poptávkou po digitálních dovednostech ve všech sektorech hospodářství roste i potřeba kvalifikovaných IT profesionálů. Tento trend je obzvláště silný v Evropské unii, kde digitalizace představuje hlavní motor hospodářského růstu.

IT specialisté čelí dvojí výzvě: musí se nejen orientovat v rychlém technologickém pokroku, ale zároveň se rozhodovat, které pracovní trhy a země nabízejí nejlepší příležitosti pro profesní růst.

Z těchto důvodů je přínosné porovnat pracovní trhy v oblasti ICT v evropských zemích, aby bylo možné identifikovat klíčové faktory, které mohou ovlivnit rozhodování IT pracovníků o migraci. Kromě nabídky pracovních pozic a úrovně ICT dovedností v cílových zemích se zaměříme i na faktory jako velikost pracovního trhu v oblasti IT a jeho dostupnost.

Dalším analyzovaným tématem je vliv migrace na profesní růst pracovníků. Jak se mění jejich pozice po migraci do jiného státu? Dochází k stagnaci, zlepšení nebo zhoršení jejich kariéry?

V některých zemích, kde je pracovní trh v oblasti IT již silně saturovaný, může být pro odborníky obtížnější nalézt kvalitní pracovní příležitosti, což vede k větší mobilitě pracovníků do zemí s vyšší poptávkou po IT specialistech. Tento trend zvyšuje konkurenci mezi zeměmi, které se snaží přitahovat talentované odborníky. Současně čelí některé členské státy Evropské unie, které mají nižší úrovně digitalizace a technických dovedností, výzvám spojeným s nedostatkem kvalifikovaných pracovníků, což může negativně ovlivnit jejich schopnost držet krok s technologickým pokrokem a celosvětovou digitalizací.

Zkoumání regionálních rozdílů v dostupnosti pracovních příležitostí a rozvoji ICT trhů je klíčové pro udržení rovnováhy mezi rozvinutými a méně rozvinutými státy, což je nezbytné pro efektivní využívání lidských zdrojů a podporu vyváženého rozvoje ICT sektoru v celé unii.

Digital Economy and Society Index (DESI) je souhrnný index, který kvantifikuje digitální rozvoj členských států Evropské unie. DESI hodnotí země napříč pěti klíčovými oblastmi: konektivita, lidský kapitál, využívání internetových služeb, integrace digitálních technologií v podnicích a digitální veřejné služby. Tento index slouží nejen k vyjádření úrovně digitalizace jednotlivých států, ale i k identifikaci silných a slabých stránek jednotlivých zemí v oblasti digitalizace[1[2].

Na základě indexu DESI patří mezi země s nejlepšími výsledky v digitalizaci zejména země severní Evropy. Například Dánsko, Finsko a Belgie vykazují vynikající výsledky v každé ze sledovaných oblastí. Dánsko, Finsko a Švédsko rovněž pravidelně dosahují vysokých hodnot v integraci digitálních technologií, adopci inovací v průmyslu a rozvoji lidských digitálních dovedností[2].

Na druhou stranu Rumunsko, Řecko a Itálie patří mezi země s nižšími hodnotami DESI, což naznačuje slabší úroveň digitální transformace v těchto státech. Tyto země tak čelí různým výzvám v oblasti digitální infrastruktury, vzdělávacích systémů a rozvoje digitálních dovedností[2].

Jednou z klíčových složek DESI je lidský kapitál, který hodnotí digitální dovednosti obyvatelstva napříč jednotlivými státy. V oblasti základních digitálních dovedností (využívání internetu a základní digitální schopnosti) vykazují nejlepší výsledky Nizozemsko, Švédsko a Lucembursko. V oblasti pokročilých digitálních dovedností, kde se zohledňují ICT specialisté a absolventi oborů STEM, se nejlépe umístily Finsko, Irsko a Švédsko. Nejhorších výsledků dosahují Rumunsko, Bulharsko, Řecko a Itálie, což naznačuje nedostatek kvalifikovaných odborníků v ICT sektoru[1][2].

Pro zajištění a rozvoj potřebných digitálních dovedností v celé EU byla vytvořena Digital Skills and Jobs koalice, iniciativa Evropské komise. Tato koalice spojuje členské státy EU, podniky, vzdělávací instituce a občanskou společnost s cílem vytvořit digitálně zdatnější pracovní sílu v EU. Koalice se především zaměřuje na sdílení osvědčených postupů a zavádění dotací, které podporují zlepšení úrovně digitalizace v zemích Evropské unie.

Koalice je součástí širší politiky „Nové dovednosti pro Evropu“, která se zaměřuje na rozvoj digitálních dovedností a jejich adaptaci v oblasti vzdělávání a politiky zaměstnanosti. Úzce spolupracuje s iniciativami, jako jsou strategie e-dovedností EU, Grand Coalition for Digital Jobs a Education and Training 2020, které se zaměřují na přizpůsobení vzdělávacích systémů potřebám digitální ekonomiky.

Přestože některé státy, jako Česká republika a Lucembursko, jíž podnikají kroky směrem k zajištění kvalifikovaných ICT profesionálů, celkové zaměření na rozvoj digitálních dovedností v mnoha zemích stále není dostatečně systematické. Na úrovni politiky často chybí komplexní přístup k zajištění potřebných digitálních dovedností v různých oblastech, což ztěžuje adaptaci na digitální transformaci[1].

Jelikož se snažíme popsat atraktivitu jednotlivých států Evropské unie pro ICT zaměstnance, analyzujeme migraci z kariérních důvodů v roce 2021[3]. Pro grafické zobrazení byly použity celkové počty osob, které migrovaly do jednotlivých států za účelem zaměstnání. Pro relativní porovnání mezi státy byly tyto počty následně vyděleny celkovým počtem obyvatel daných zemí[4]. Výsledná hodnota tak představuje počet migrantů na jednoho obyvatele. Tato hodnota však není příliš informativní sama o sobě, a proto je primární interpretace zaměřena na identifikaci států s vyšším či nižším počtem migrantů z kariérních důvodů.

Z analýzy byly vyřazeny země s nízkou populací, konkrétně Malta a Kypr. Rovněž nebylo do analýzy zahrnuto Lucembursko, protože jeho výsledky mohou být ovlivněny specifickými faktory, které nejsou relevantní pro ostatní státy (například vysoký podíl zahraničních pracovníků a specifická demografická struktura). Pro státy, jako jsou Bulharsko, Rumunsko a Slovensko, data bohužel chybí. Nicméně tyto země, podobně jako další státy tzv. „nové unie“, čelí výzvám v oblasti implementace digitálních řešení, což je způsobeno ekonomickými faktory a nedostatkem kvalifikovaných pracovníků[2].

Nejvyšší počet migrantů z kariérních důvodů na jednoho obyvatele byl zaznamenán v Irsku, přičemž relativní hodnota může být zkreslena nižším počtem obyvatel této země. Další vyšší hodnoty byly pozorovány ve Španělsku, Itálii a Rakousku. Naopak výrazně nižší hodnoty byly zaznamenány v Polsku a Litvě. Stejně jako u ostatních států „nové unie“ i v případě Polska a Litvy platí, že ekonomické faktory a nedostatek kvalifikovaných pracovníků představují klíčové výzvy při zavádění digitálních řešení[2].

Pro další analýzu byl vytvořen relativní ukazatel podle následujícího vzorce:

(Ni / Ncelkový) × 100

kde Ni představuje počet migrantů podle typu změny seniority pozice (kde i může být růst, pokles nebo zachování seniority pozice) a Ncelkový je celkový počet migrantů, kteří migrovali do cílového státu z kariérních důvodů, tedy bez rozlišení typu změny. Takovým způsobem jsou na grafu viditelné i chybějící odpovědi, takže například nižší hodnoty v Německu mohou být zkresleny velkým počtem chybějících pozorování.

Některé státy byly z této analýzy vyřazeny z různých důvodů. Chorvatsko a Lotyšsko byly vyřazeny kvůli absenci dat za jednotlivé typy změn, o Rumunsku, Slovensku a Bulharsku nejsou k dispozici žádná data, zatímco Estonsko a Litva byly vyřazeny kvůli neúplnosti dat.

Z grafu je patrné, že procento respondentů, kteří uvedli, že jejich seniorita pozice vzrostla po migraci, je v Lucembursku, Nizozemsku a Finsku vyšší než v ostatních státech, což z těchto zemí činí atraktivnější destinace pro migraci z kariérních důvodů.

Nejnižší procento respondentů, u nichž se seniorita pozice zvýšila, bylo zaznamenáno v Itálii, Řecku a Německu. U většiny respondentů ve všech státech zůstala seniorita pozice stejná.

Nejnižší procento respondentů, u nichž se seniorita pozice snížila, bylo ve Francii, následováno nízkými hodnotami v Německu a Belgii. Nejvyšší procento těchto respondentů bylo zaznamenáno například ve Španělsku a Maďarsku.

Digitální dovednosti obyvatelstva konkrétní země jsou rovněž důležité jak pro její rozvoj směrem k digitalizaci, tak i pro pochopení pracovního trhu v oblasti ICT. K prozkoumání tohoto tématu byla použita data o úrovni vybraných ICT dovedností[5] napříč státy a distribuce typů absolvovaných školení k získání těchto dovedností[6].

Následující graf zobrazuje úroveň použití jednotlivých základních ICT dovedností v posledních 3 měsících napříč státy od roku 2021 a naznačuje tak úroveň digitalizace mezi obyvatelstvem těchto zemí. Zkoumané kategorie jsou: „Psaní kódu“, „Kopírování nebo přesouvání souborů“, „Instalace softwaru“, „Změna nastavení“, „Word procesory“, „Vytváření souborů“, „Tabulkové procesory“, „Pokročilé tabulkové procesory“, „Úprava médií“.

Z grafu je patrné, že napříč všemi státy je úroveň dovednosti „Psaní kódu“ velmi nízká. Základní dovednosti, jako například „Kopírování nebo přesouvání souborů“ , „Instalace softwaru“ a „Word procesory“, jsou vysoké ve všech zemích. Extrémní hodnoty dovednosti „Kopírování nebo přesouvání souborů“ byly zaznamenány v Chorvatsku, stejně tak i pro dovednost „Tabulkové procesory“.

Nejlepší hodnoty ve všech kategoriích mají Nizozemsko a Finsko. V oblasti základních digitálních dovedností dle indexu DESI je Nizozemsko rovněž lídrem. Rumunsko, Polsko a Bulharsko se nacházejí pod průměrem ve všech kategoriích dovedností, přičemž tyto státy mají trvale nízký index DESI[2].

Nedostatek ICT dovedností může omezit hospodářský růst, protože zpomaluje implementaci technologií, které zvyšují produktivitu, efektivitu a inovace[1].
Je tak klíčové prioritizovat investice do vzdělávacích systémů, aby se zahrnula digitální gramotnost a specializované ICT školení na všech úrovních, což musí zahrnovat aktualizaci učebních plánů, školení učitelů a podporu STEM vzdělávání, což povede k zvýšení počtu kvalifikovaných ICT odborníků[2].

Dále zkoumáme typy absolvovaných školení v oblasti ICT v roce 2018 napříč státy. Zahrnuté typy jsou: „Online školení“, „Samoplátce školení“, „Bezplatné/ veřejné školení“, „Školení poskytované zaměstnavatelem“, „Školení na pracovišti“.

Distribuce v jednotlivých státech je téměř shodná, přičemž ve Finsku jsou výrazně populárnější školení na pracovišti a online školení, podobný trend je i v Česku. Ve Finsku je rovněž výrazně vyšší zájem o školení poskytovaná zaměstnavatelem ve srovnání s ostatními zeměmi, což může naznačovat obecně vyšší tendenci školit zaměstnance přímo na pracovišti.

Z grafu je také patrná nízká popularita veřejných školení a školení, za která si zaměstnanci musí zaplatit sami.

Obecně nižší zájem o školení ICT dovedností je zaznamenán ve státech, které mají nižší DESI index, například Kypr, Řecko, Maďarsko, Polsko, Itálie.

Další zkoumanou oblastí je samotný trh práce, vyjádřený počtem otevřených pozic v přepočtu na jednoho obyvatele v oblasti ICT a počtem obsazených pozic[8]. Abychom byli schopni porovnávat velikost pracovního trhu v oblasti ICT napříč jednotlivými státy, byly počty obsazených pozic v roce 2021 vyděleny počtem obyvatel. Výsledná hodnota může být interpretována jako procento z celého obyvatelstva pracující v ICT sektoru, což nám umožní seřadit a porovnat jednotlivé státy z pohledu velikosti tohoto sektoru.

Na grafu nejsou znázorněny počty pro Rakousko, Maďarsko a Itálii, jelikož u těchto států nejsou dostupná data o počtech obsazených pozic.

Největší pracovní trh v oblasti ICT vyjádřený počtem obsazených pozic je ve Švédsku, následuje Malta a Finsko. Většinu prvních pěti tvoří státy, jejichž úroveň digitalizace dle DESI je vysoká. Překvapivý je poměr v Lotyšsku, jelikož Lotyšsko patří mezi 13 zemí, které se nacházejí pod průměrem EU-27 v indexu digitalizace. Tento žebříček, určený metodou Entropy-MOORA, ukazuje, že lotyšské podniky integrují digitální technologie a infrastrukturu pro Industry 4.0 pomalejším tempem ve srovnání s průměrem EU [2]. Avšak Lotyšsko se umístilo na 4. místě podle velikosti ICT trhu práce, což naznačuje, že i v zemi s nižší úrovní digitalizace může být vysoká poptávka po IT odbornících.

Ačkoliv je ICT sektor na Maltě relativně novým odvětvím, jeho podíl na hrubé přidané hodnotě maltézské ekonomiky dosáhl v roce 2017 hodnoty 6,6%, což je nárůst o 5,8% ve srovnání s předchozím rokem. V roce 2017 bylo v sektoru více než 300 firem, které zaměstnávaly více než 7 300 osob[7]. Je pravděpodobné, že Malta implementovala cílené politiky a iniciativy na podporu rozvoje ICT a získávání digitálních dovedností, což může zahrnovat investice do vzdělávání a školení a úsilí přilákat zahraniční investice do ICT sektoru[2].

Z pohledu již zmíněné digitální propasti mezi „starou unií“ a „novou unií“ představuje Malta výjimku. Její hodnota indexu digitalizace ji řadí před několik ekonomických velmocí, jako jsou Německo, Španělsko a Francie, přestože je členem „nové unie“ [2].

Nejmenší podíl pracovníků v ICT sektoru byl zaznamenán v Řecku, Polsku a Portugalsku. Čtvrtina obyvatel těchto států neměla v roce 2016 žádné digitální dovednosti[1].

Dalším důležitým ukazatelem je počet otevřených pozic v ICT sektoru, který byl pro zajištění srovnatelnosti mezi jednotlivými státy vydělen počtem obyvatel v daném státě. V grafu chybí Rakousko a Itálie, a to z důvodu nedostupnosti dat.

Ve srovnání s ostatními státy je relativní počet otevřených ICT pozic v Nizozemsku výrazně vyšší, což z této země činí atraktivní destinaci pro IT odborníky. Druhý nejvyšší relativní počet otevřených pozic byl zaznamenán ve Švédsku, následovaném Belgií. Nejvyšší hodnoty vykazují státy s vysokým indexem digitalizace podle DESI. Vysoké umístění zaznamenala také Malta, což potvrzuje její rostoucí význam v ICT sektoru.

Na opačném konci spektra se nacházejí státy, jako jsou Řecko a Chorvatsko. Tyto země se vyznačují nejen nízkým indexem digitalizace DESI ve srovnání s průměrem EU, ale také celkově menší velikostí ICT sektoru, což významně ovlivňuje rozsah nabídky pracovních pozic v této oblasti.

Na základě analýzy je zřejmé, že severské státy dosahují lepších výsledků ve všech zkoumaných oblastech, což souvisí s jejich vysoce rozvinutými digitálními dovednostmi a silnými ICT sektory.

Finsko, Švédsko a Nizozemsko vykazují nízkou úroveň migrace z pracovních důvodů. Zároveň se tyto země umístily na předních pozicích v žebříčku podle velikosti ICT sektoru, vyjádřené počtem obsazených pozic relativně k počtu obyvatel, a také v horní polovině žebříčku podle počtu otevřených pozic na obyvatele. To naznačuje, že jejich pracovní trhy nejsou příliš saturované, což vytváří nové příležitosti a pozice pro odborníky v oblasti ICT. V těchto zemích, zejména ve Finsku a Nizozemsku, je rovněž patrný pozitivní trend v profesním růstu po migraci, což naznačuje, že migrace do těchto států může vést k lepším kariérním příležitostem ve srovnání s domovskými zeměmi. Na druhou stranu však vysoká úroveň základních ICT dovedností může znamenat silnější konkurenci na pracovním trhu.

Malta se rovněž profiluje jako atraktivní destinace pro ICT odborníky, a to díky rychlému růstu ICT sektoru a vysokému podílu pracovních pozic v tomto odvětví.

Lotyšsko, přestože vykazuje nižší úroveň digitalizace a ICT dovedností, se nachází na čtvrtém místě podle velikosti pracovního trhu a zároveň má vysoký počet otevřených pozic oproti jiným státům. Tato země tak představuje atraktivní destinaci pro migranty, kteří hledají příležitosti na méně saturovaném trhu.

Velikost ICT sektoru v Polsku je druhá nejnižší, stejně tak se nachází ve druhé polovině žebříčku podle počtu otevřených pracovních pozic. Polsko rovněž dosahuje nízkých hodnot indexu digitalizace, přičemž úroveň základních ICT dovedností jeho obyvatelstva je v porovnání s jinými státy nižší. Polsko by tedy mělo usilovat o přitahování většího počtu odborníků v této oblasti a o zlepšení vzdělávání obyvatelstva, aby udrželo krok s celosvětovou digitalizací.

Další evropské státy, jako Řecko, Chorvatsko, Bulharsko, Itálie a Kypr, vykazují nižší úroveň digitalizace a nižší hodnoty napříč všemi oblastmi analýzy. To může bránit jejich schopnosti držet krok s technologickým pokrokem a celkovou globalizací, což negativně ovlivňuje jejich konkurenceschopnost v oblasti ICT.

Je však nezbytné brát v úvahu, že existuje celá řada dalších sociodemografických faktorů, které nebyly v této analýze zohledněny, ale měly by být součástí dalšího výzkumu. Tyto faktory mohou mít významný vliv na rozhodování o migraci a poskytnout hlubší pohled na pracovní trhy v oblasti ICT.

Závěrem lze říci, že pracovní trhy v oblasti ICT v Evropě vykazují velkou rozmanitost. Zatímco některé země jsou dobře připravené na digitalizaci, jiné čelí výzvám v této oblasti a nemají dostatek kvalifikovaných pracovních sil. Porovnání těchto faktorů je klíčové pro optimální rozvoj ICT sektoru v EU a efektivní využívání lidských zdrojů.

Zdroje:

  1. Bejaković, P., & Mrnjavac, Ž. (2020). The importance of digital literacy on the labour market. Employee Relations: The International Journal, 42(4), 921–932. https://doi.org/10.1108/ER-07-2019-0274
  2. Brodny, J., & Tutak, M. (2022). Analyzing the Level of Digitalization among the Enterprises of the European Union Member States and Their Impact on Economic Growth. Journal of Open Innovation: Technology, Market, and Complexity, 8(2), 70. https://doi.org/10.3390/joitmc8020070
  3. Eurostat. (2024). Employed foreign-born by change in skill level from last job before migrating to current job, sex, age and main reason for migrating. https://doi.org/10.2908/lfso_21educ07
  4. Eurostat. (2024). Population by broad age group. https://doi.org/10.2908/cens_21ag
  5. Eurostat. (2024). Individuals‘ level of computer skills (2021 onwards). https://doi.org/10.2908/isoc_sk_cskl_i21
  6. Eurostat. (2018). Way of obtaining ICT skills. https://doi.org/10.2908/isoc_sk_how_i
  7. Malta Enterprise. (2024). The ICT Sector in Malta. https://maltaenterprise.com/sites/default/files/The%20ICT%20Sector%20in%20Malta.pdf
  8. Eurostat. (2024). Job Vacancy Statistics by NACE Rev. 2 Activity – Quarterly Data (from 2001 onwards). https://doi.org/10.2908/jvs_q_nace2

Introduction to Post-Information Age

0
Two people taking pictures of a city at night

Introduction

I think it is necessary to write something as an introduction (I must admit, I’m writing this introduction last). This essay aims to explore the post-information age, how we get at it, and what it means for us. It offers an insight for those who wish to delve deeper into its complexities.

What is the information?

I would like to start this essay with something that sounds very smart (because who writes the introduction first?), but I’m not very good at it, so we’ll have to settle for a simple analogy. Information is like building blocks – if we want to move forward, we can’t do it without them. But how far can we get with them? What is the ideal goal? The ideal is to gain intelligence. „Gain“ might sound strange, but there’s no other way to become intelligent. No one is born that way; of course, each of us has some predispositions, genetic makeup, but if we don’t develop them, we won’t get anywhere.

How do we get closer to this successful goal? Through acquiring knowledge. When I gain knowledge, context, and understanding, I learn something, and when I learn something, I am closer to being intelligent. Okay, okay, we need to be knowledgeable, but how do we achieve that? And now, here (soon, right?), we return to the beginning with the information – whether it’s ordinary data, numbers, words, and their meanings – these are information.

Information is all around us, in books, on the internet, in conversations with people. Every day we encounter new facts and insights that we can use to expand our horizons. It is important to be open to new information and to keep learning. Only then can we achieve true intelligence and understanding of the world around us.

And so, when we think about how important information is, we realize that without it, we would be lost. It is the foundation of everything we do and what we become. That is why it is so important to constantly seek, process, and use it for our growth and development.

BUT in today’s world, information is an important „commodity.“ It is practically traded, used to train language models, and whether we like it or not, there is an abundance of it. But what can we trust? Anyone can write anything on the internet, whether it’s scientific proof that the Earth is flat or a recipe that might actually be useful. We have entered the Information Age, which might already be coming to an end (we’ll have precise dating in about a hundred years, and children will learn about it in school. Or maybe they won’t…?). I think it would be useful to have a better historical overview of how we got to where we are.

History

When we look far back into the past, we were always taught in school about the Stone Age, the Bronze Age, and the Iron Age. These periods are so ancient that it might not be worth writing much more about them. However, this brings us to the age of great civilizations, which I find much more interesting.

Ancient Egypt was one of the most important and oldest civilizations in the Mediterranean and the Near East. Its center was in the northeastern part of Africa, in what is now modern-day Egypt, concentrated along the lower reaches of the Nile River up to the first cataract, which served as a natural southern boundary. (Dějepis 1)

Ancient Greece developed an exceptionally advanced culture in various fields, including fine arts, architecture, theater, and science (medicine, philosophy, mathematics, astronomy), as well as rhetoric and politics, where it became the birthplace of democracy. It had a profound influence on the development of Roman culture and, through it, Western civilization. (Dějepis 1)

Rome was an ancient civilization that originated from the city of Rome, founded on the Italian Peninsula, according to legend, in 753 BC by the twins Romulus and Remus (quite an accomplishment for boys raised by a wolf). Rome expanded into a significant part of the ancient world. The form of the Roman government transformed over the centuries from a kingdom to a republic and eventually to an empire. The Roman territory was inhabited by various peoples with different languages, religions, and cultures. (Dějepis 1)

This brings us to a less exciting part of history, sorry, but the Middle Ages didn’t interest me as much. I’ll skip the period from around the 5th century to the 16th century and continue with the Renaissance, Baroque, the discovery of America, and this brings us to the age of industrialization.

Industrial Age

The Industrial Revolution in Britain, which took place between 1760 and 1860, was a period of significant economic and social changes. Key factors that contributed to it included innovations in the textile industry, such as the introduction of machines like the „Spinning Jenny“ and the „Water Frame,“ which greatly increased productivity in cotton manufacturing. The development of the steam engine, invented and improved by Thomas Newcomen and James Watt, provided a new and more efficient source of power for industry, mining, and transportation. Changes in iron and steel production, such as the use of coal as fuel and the development of techniques like „puddling,“ enabled Britain to produce cheap iron and steel, which supported industrial growth. (Clark, 2005)

The rise of railways, combining the steam engine with older horse-drawn tram technology, led to the development of railroads that allowed for the rapid and efficient transportation of goods and people. Improvements in transportation, such as the development of road networks and the construction of canals, reduced transportation costs and facilitated trade. The demographic revolution in Britain, characterized by a sharp increase in population, was likely due to a decrease in the age of marriage and an increase in the number of marriages, provided the workforce needed for the burgeoning industry. (Clark, 2005)

The Industrial Revolution transformed society from an agrarian to an industrial one by creating new job opportunities in factories, where wages were generally higher than in agriculture. This attracted many people and led to urbanization. Consequently, there was an increase in urban population and the development of infrastructure, such as housing, sewage systems, and transportation. However, the rapid growth of cities also caused hygiene and pollution problems.

The revolution also supported the development of a capitalist economy, where factory owners invested in new technologies to increase productivity and profits. On the other hand, the Industrial Revolution led to social inequality, with some people becoming wealthy while others suffered from poverty. (Chen, 2008)

Other negative impacts of the Industrial Revolution included air and water pollution, poor working conditions in factories with long hours, low wages, and a lack of workplace safety, as well as child labour. The migration of people from rural areas to cities also led to a shortage of labour in agriculture and subsequent food shortages. (Chen, 2008)

What should we take from this? The Industrial Revolution had a complex and lasting impact on society, marking the beginning of the Industrial Age. It brought many positive changes, such as economic growth and technological advancement, but also led to social problems like pollution and inequality.

Information Age

The Renaissance, often considered the last era in history when a person could comprehend all the world’s knowledge, has long passed. Today, not only do we have no chance of knowing all available information, but the figures mentioned below suggest that we are increasingly likely to get lost in the flood of data. On one hand, the speed, capacity, and volume in the ‚digital universe‘ are growing, while on the other hand, the limited performance and boundaries of our brains stand in opposition.“ (Bryndová, 2017)This seems to me the most important thing to mention, and although it might be more appropriate to write about it in the post-information age, I would like to mention it at the beginning of the Information Age.

So, what is specific about it? To which period do we assign it? The Information Age, also known as the Digital Age or Computer Age, is simply the era when technology began to influence people more than ever before, making it no longer a problem to connect with someone on the other side of the planet. This sounds quite idyllic, doesn’t it? Personally, I can’t say what it was like before, but everything has its positives and negatives. If I quote Wikipedia (the “best and most verified source”, I know, but for such a simple summary, it’s not so bad): „The Information Age is a historical period that began in the mid-20th century. It is characterized by a rapid shift from traditional industries, as established during the Industrial Revolution, to an economy centered on information technology. The onset of the Information Age has been linked to the development of the transistor in 1947 and the optical amplifier in 1957. These technological advances have had a significant impact on the way information is processed and transmitted

Various media monopolies are increasingly losing the ability to control what information is presented to people, creating a window that could diminish the deliberate influence on the minds of many through mass media. However, this brings up the issue of social bubbles. It has never been easier to find people with similar interests. While it’s great that it’s now so easy, there’s a problem when it comes to misinformation or extremist groups. These people will increasingly reinforce each other’s beliefs because someone who might oppose them or at least discuss the issue is unlikely to slip into their social bubble.

So yes, media monopolies no longer have as much power because anyone can try to find different information and perspectives. But why would they do that when they’ve found a group of people who reinforce their beliefs? People are setting traps for themselves and then falling into them. But I’m getting a bit ahead of myself.

Trust in information

As I mentioned before, there is more information than ever, and it’s hard to navigate, let alone identify which information is true. We need to learn how to work with it. The question is, where and when should future generations learn this? In schools? Isn’t that too late given the times we are approaching? At what age should children be taught to verify information? If we teach them too early, they might not grasp it. At the same time, the idea of children verifying the existence of Santa Claus and other such untrue but nice stories or traditions is a bit unsettling.

Anyone can create and share information, so it is very likely that it may not be entirely true, may have been slightly altered, or may simply be completely fabricated. If this happens by mistake, it’s unnecessary and unfortunate, but there’s no point in being angry at the person – they just got it wrong. The problem arises when someone deliberately spreads disinformation. According to the Cambridge Dictionary, disinformation is defined as „false information spread in order to deceive people,“ and that’s quite a problem. This definition emphasizes the intentional aspect of disinformation, which distinguishes it from misinformation, which can be unintentional and based on incomplete or inaccurate information. As I mentioned earlier, mass media no longer have the same chance to control large numbers of people, but here lies the issue. Mass media and their fake news no longer have the same reach, but disinformation spreads like a flood. And yes, this is another trap that people have set for themselves.

So how can we avoid being confused by disinformation? Meta literacy, or „an overarching and self-referential framework that integrates emerging technologies and unifies multiple types of literacy,“ (Mackey and Jacobson, 2011) appears to be a key tool for managing the flood of information and disinformation. It is a comprehensive approach that encompasses and connects various aspects of information literacy and critical thinking. In practice, this involves verifying sources, which is crucial for obtaining reliable information. Not believing everything we read online and actively checking the credibility of sources helps us avoid disinformation. Cross-checking information, that is, comparing information from different sources and looking for similarities and differences, is another important step. Examining the context, asking who created the information, why, and for whom it is intended, allows us to better understand the motivations and intentions of the authors. (Cooke, 2017)

Post – information Age

One of the many things specific to the post-information age is disinformation. The ease of manipulating information and the speed at which it spreads online present challenges for critical thinking and objective perception of reality. We are entering a time when it is necessary to be information literate and to effectively search for relevant information amidst the vast amount available.

Another characteristic of the post-information age is the ubiquity of information and its easy accessibility, which paradoxically leads to overload and loss of orientation. In this environment, it becomes difficult to distinguish relevant information from noise and disinformation. There is also a loss of objectivity and autonomy. Nunberg argues that the online environment blurs the boundaries between documents, genres, and authors. On the web, it is difficult to assess the credibility of information without knowing its source, author, and context, making it impossible to read online documents as objective „information“ separate from the subjectivity and motivations of their creators.

People with lower cognitive capacity are increasingly at risk of information overload because they are more susceptible to it. Information overload is a state where a person is overwhelmed by a large amount of information and has difficulty processing it effectively. This state is characterized by feelings of being overwhelmed, confused, and unable to process information correctly and efficiently. Information overload occurs in many areas, including healthcare. For example, this article mostly addresses information overload related to COVID-19, but cancer patients also frequently feel overwhelmed by the amount, uncertainty, and complexity of information about their illness. People often seek simplified but usually unhelpful information, base their decisions on simple cues, neglect details, and in some cases, avoid processing information altogether. Low-quality information also contributes to information overload because it requires more cognitive resources to distinguish correct information from a large amount of irrelevant and unusable information. (Mao 2022)

A problem that today’s generation faces, which is very likely caused by the age we live in, is the decreasing attention span. How long can we focus on a single topic? The time keeps decreasing. The main cause is social media with short videos that boost dopamine levels. Instagram itself claims: „We use a variety of algorithms, classifiers, and processes, each with its own purpose. We want to make the most of your time, and we believe that using technology to personalize your experience is the best way to do that.“ They want people to spend as much time as possible on their platform and have algorithms designed to keep people scrolling. Again, another trap we have set for ourselves and for future generations. The pace of life is accelerating incredibly. On the one hand, it’s great how much one can experience in a lifetime, but how much stress, health issues and perhaps even regrets does this lifestyle bring?

What will happen next?

I’ll leave this page here for everyone to reflect on. I don’t know what will happen in the future, and I don’t dare to make predictions; my abilities and education don’t reach that far. I would say that it’s important for people to be careful about what they believe and to try to think critically about it. When I was in high school, we had a teacher who always said, „Think critically, think in context.“ We used to make fun of her, but she was right.

Sources

Cooke, N. A. (2017). Posttruth, Truthiness, and Alternative Facts: Information Behavior and Critical Information Consumption for a New Age. The Library Quarterly87(3), 211–221. https://doi.org/10.1086/692298

Nunberg G. (1996). The future of the book. University of California Press.

History 110B A History of World Societies. (1995). American Heritage Custom PublishingGroup.

Paul T. Harig, The Digital General: Reflections on Leadership in the Post-Information Age Parameters 26, no. 3 (1996), doi:10.55540/0031-1723.1790.

Mackey & Jacobson. (n.d.). Reframing Information Literacy as a Metaliteracy | Mackey | College & Research Libraries. College & Research Libraries. https://crl.acrl.org/index.php/crl/article/view/16132

Zalewska, D. (2019). The specificity of the post-information age. International scientific journal.

Chen, J. (2008, April 20). Industrial Revolution: Definition, History, Pros, and Cons. Investopedia. https://www.investopedia.com/terms/i/industrial-revolution.asp

Mao B. How do information overload and message fatigue reduce information processing in the era of COVID-19? An ability–motivation approach – PMC. (2022). PMC Home. https://pmc.ncbi.nlm.nih.gov/articles/PMC9444816/

disinformation. (n.d.). Cambridge Dictionary | English Dictionary, Translations & Thesaurus. https://dictionary.cambridge.org/dictionary/english/disinformation

Bryndová, L. (2017). Informační věk | Infodesign. http://archiv.ffa.vutbr.cz/. http://archiv.ffa.vutbr.cz/vskp/www/2012-novotna-katerina-design_informaci_vybrane_tematiky/informacni-vek/index.html

Popelka a Válková. Dějepis 1 pro gymnázia a střední školy. Praha: SPN – pedagogické nakladatelství, 2001.

Instagram. (2021, June 8). Shedding More Light on How Instagram Works. About Instagram | Capture, Create & Share What You Love. https://about.instagram.com/blog/announcements/shedding-more-light-on-how-instagram-works

Contributors to Wikimedia projects. (2002, September 12). Information Age – Wikipedia. Wikipedia, the free encyclopedia. https://en.wikipedia.org/wiki/Information_Age