Umělá inteligence (AI) se během poslední dekády stala nedílnou součástí finančního sektoru. Od plně automatizovaného vysokofrekvenčního obchodování, přes robo-advisor platformy až po nástroje generativní AI, které investorům „na počkání“ vytvářejí analýzy trhů, se AI postupně přesouvá z laboratoří do každodenní praxe investičního rozhodování (Preece, 2022). Použití AI zvyšuje rychlost zpracování dat, snižuje transakční náklady a umožňuje pracovat s objemy informací, které jsou pro člověka prakticky nezvládnutelné. Zároveň ale otevírá nové etické otázky: od transparentnosti a vysvětlitelnosti modelů přes riziko diskriminace až po systémová rizika pro finanční trhy jako celek (OECD, 2023; European Parliament, 2025).
Cílem této práce je analyzovat klíčové etické dopady využívání AI v investičním rozhodování, a to jak na mikroúrovni (investor, poradce, finanční instituce), tak na makroúrovni (stabilita trhů, rovnost přístupu, důvěra ve finanční systém). Zvláštní pozornost je věnována tomu, jakými principy a regulačními rámci se oblast řídí (např. OECD AI Principles, AI Act), a jaké výzvy představuje kombinace blackobx modelů a vysoké citlivosti finančních trhů (OECD, 2020; European Parliament & Council of the European Union, 2024).
Teoretický rámec
Investiční rozhodování a role informací
Investiční rozhodování lze chápat jako proces transformace informací do očekávání budoucího výnosu a rizika, na jejichž základě investor volí konkrétní strategii. Klasická teorie efektivních trhů předpokládá, že ceny aktiv již odrážejí všechny relevantní informace, v praxi je však trh charakterizován asymetrií informací, rozdílnou úrovní finanční gramotnosti a behaviorálními zkresleními investorů.
Behaviorální finance ukazují, že investoři systematicky podléhají předsudkům (overconfidence, herding, loss aversion), což vede k iracionálním rozhodnutím a odchylkám od „racionálního“ modelu. Tyto nedokonalosti trhu vytvářejí prostor pro využití pokročilých analytických nástrojů včetně AI jako zdroje konkurenční výhody – a v kontextu Competitive Intelligence (CI) také jako prostředku lepšího monitorování tržních signálů, trendů a chování konkurentů.
V logice CI je AI možné vnímat jako nástroj, který urychluje a prohlubuje jednotlivé fáze zpravodajského cyklu – od sběru dat přes jejich analýzu až po distribuci výstupů rozhodovatelům. Zároveň však zavádí nové informační asymetrie: ti, kdo mají přístup k výkonnějším modelům, mohou získat informační náskok, který zpochybňuje rovnost podmínek na trhu (Jangra, 2025).
Umělá inteligence v investování
Pod pojmem AI v investování lze zahrnout celou škálu technologií, mezi které patří zejména:
- strojové učení (machine learning) pro predikci cen aktiv, volatility nebo úvěrového
rizika, - algoritmické a vysokofrekvenční obchodování (HFT), kde algoritmy autonomně
generují a provádějí obchodní příkazy, - robo-advisors, kteří na základě dotazníků a dat o klientovi automaticky navrhují a
spravují portfolio, - analýza sentimentu (např. z médií a sociálních sítí) pro zachycení nálady trhu,
- generativní AI (velké jazykové modely), která vytváří analýzy, shrnutí výzkumných
zpráv či personalizované investiční komentáře pro retail investory (Preece, 2022;
Jangra, 2025).
Výzkumy ukazují, že AI může v určitých kontextech zlepšit prediktivní výkon a efektivitu procesů, ale zároveň často trpí vyšší netransparentností než tradiční modely (Preece, 2022; KPMG, 2021). V investičním managementu je proto zásadní otázkou, do jaké míry jsou tato řešení vysvětlitelná (Explainable AI – XAI) a jak je možné kontrolovat jejich chování v podmínkách vysoké tržní citlivosti.
Etika AI a regulatorní rámce
V reakci na rychlý rozvoj AI vznikly různé rámce pro „důvěryhodnou“ nebo „odpovědnou“ AI. OECD AI Principles, přijaté v roce 2019 a následně aktualizované, definují několik hodnotových principů, jako jsou respekt k lidským právům, spravedlnost, transparentnost nebo odpovědnost (OECD, 2020; OECD, 2024). Tyto principy zdůrazňují nutnost odpovědnosti za chování AI systémů v celém jejich životním cyklu (OECD, 2023).
Evropská unie přijala v roce 2024 AI Act, první komplexní právní rámec pro AI, který klasifikuje systémy podle míry rizika a stanovuje přísnější požadavky pro tzv. „high-risk“ systémy – což se týká i mnoha finančních aplikací (European Parliament & Council of the European Union, 2024; Eurofi, 2024). Současně orgány jako ESMA dlouhodobě regulují algoritmické obchodování a ukládají povinnosti v oblasti řízení rizik, robustnosti systémů a prevence narušení trhu (ESMA, 2012, 2021).
Etickou dimenzi AI ve financích tedy nelze oddělit od regulatorního kontextu – právo a „soft-law“ rámce (principy, standardy, guidelines) se stávají nástrojem operacionalizace etických požadavků, jako jsou férovost, transparentnost nebo odpovědnost.
Klíčové etické otázky AI v investičním
rozhodování
Transparentnost a vysvětlitelnost
AI modely používané v investičním rozhodování jsou často založeny na komplexních neuronových sítích nebo kombinaci modelů, jejichž vnitřní logiku nelze snadno interpretovat ani pro samotné tvůrce. To vede k fenoménu tzv. „černé skříňky“, kdy investor či klient vidí pouze vstup (data) a výstup (doporučení, alokaci portfolia), ale nikoliv cestu mezi nimi (KPMG, 2021; Preece, 2022).
Z etického hlediska vyvolává netransparentnost několik problémů:
- informované rozhodnutí: pokud investor nerozumí základním principům, na nichž
doporučení stojí, je otázkou, zda lze jeho souhlas s danou strategií považovat za
skutečně informovaný; - asymetrie znalostí mezi poskytovatelem AI systému (finanční institucí) a klientem
může být zneužita – vědomě či nevědomě – k prosazování zájmů instituce na úkor
klienta; - odpovědnost: v případě selhání je obtížné určit, která část systému či který člověk
nese vinu; odpovědnost se „rozpouští“ v komplexním ekosystému modelů, dat a
třetích stran.
Preece (2022) zdůrazňuje, že modely by měly být interpretovatelné v rozsahu, který umožňuje porozumět hlavním faktorům ovlivňujícím výsledky a umožňuje je přiměřeně vysvětlit klientům. OECD (2023) pak v kontextu AI obecně upozorňuje, že accountability a auditovatelnost modelů jsou klíčové předpoklady důvěryhodnosti.
Bias a diskriminace ve finančních modelech
AI modely jsou tak dobré, jak dobrá jsou data, na nichž byly natrénovány. Pokud historická data nesou systematické biasy – například vůči určitému typu klientů nebo regionům – mohou se tyto předsudky promítnout i do modelových predikcí a doporučení. V investičním prostředí to může mít podobu:
- neférového přidělování investičních příležitostí,
- systematického podhodnocování potenciálu určitých tříd aktiv, sektorů nebo
geografických oblastí, - zvýhodňování klientů se specifickým profilem (např. vyšší počáteční majetek, určitý
věk či vzdělání).
KPMG (2021) upozorňuje, že bez pečlivého návrhu a testování mohou algoritmy ve finančních službách reprodukovat a zesilovat stávající nerovnosti. Z etického hlediska jde o problém spravedlnosti (fairness). OECD AI Principles kladou důraz na lidsky orientované hodnoty a férovost, což mimo jiné znamená, že AI by neměla systematicky znevýhodňovat určité skupiny (OECD, 2020, 2024). Ve finančních službách navíc mohou diskriminační efekty prohlubovat nerovnost bohatství a přístupu k investičním nástrojům. Současná literatura zdůrazňuje nutnost pravidelného testování modelů na bias, využívání různorodých datových zdrojů a nastavení governance struktur, které umožňují včas identifikovat a minimalizovat nechtěné diskriminační dopady (OECD, 2023; Preece, 2022).
Informační asymetrie a nerovný přístup k AI nástrojům
AI nástroje nejsou rovnoměrně dostupné všem typům investorů. Velké institucionální subjekty (banky, hedge fondy, asset manažeři) disponují kapitálem, daty i expertními týmy schopnými stavět a udržovat velmi sofistikované modely. Retail investoři jsou naopak odkázáni na veřejně dostupné nástroje, jednodušší robo-advisory platformy nebo generativní AI typu velkých jazykových modelů, které však nejsou specializovanými investičními systémy (Jangra, 2025).
To prohlubuje strukturální asymetrii: instituce mohou získat informační a analytický náskok, který jim umožňuje generovat nadvýnosy nebo lépe řídit rizika, zatímco retail investoři zůstávají v nevýhodě. European Parliament (2025) upozorňuje, že je nutné jasně definovat, kdy AI systém fakticky poskytuje investiční doporučení a měl by tedy podléhat přísnější regulaci (například režimu MiFID II). Z etického hlediska jde o otázku spravedlivého přístupu k výhodám AI: pokud se AI stane zásadní konkurenční výhodou, může prohlubovat rozdíl mezi „technologicky vybavenými“ a „technologicky chudými“ účastníky trhu.
AI jako potenciální nástroj manipulace trhu
Generativní a prediktivní AI může být zneužita k vytváření či šíření dezinformačních finančních signálů – například falešných zpráv o firmách, generovaných komentářů údajně „od expertů“ nebo deepfake prohlášení vrcholových manažerů. Takové informace mohou ovlivnit sentiment trhu a vyvolat pohyby cen, z nichž může těžit ten, kdo dezinformaci spustil (Preece, 2022; European Parliament, 2025).
Historické případy, jako je tzv. „Flash Crash“ z roku 2010, ukázaly, že kombinace algoritmických strategií a vysoké rychlosti může vést k prudkým, nečekaným výkyvům trhu, i když tehdy ještě nešlo o dnešní formu „chytré“ AI (ESMA, 2012). Rozvoj generativní AI a nástrojů schopných masivně produkovat věrohodně vypadající obsah zvyšuje riziko, že trhy budou náchylnější k manipulacím a koordinovaným útokům využívajícím informační asymetrie.
Z etického pohledu jde o konflikt mezi inovací (rychlejší reakce na nové informace, efektivnější tvorba obsahu) a integritou trhů, které by měly odrážet reálné, nikoli uměle konstruované informace.
Odpovědnost za AI-driven investiční rozhodnutí
Jedna z nejproblematičtějších otázek se týká rozdělení odpovědnosti:
- Pokud AI model doporučí strategii, která vede k významné ztrátě, kdo je odpovědný – poskytovatel modelu, finanční instituce, která ho implementovala, regulátor, nebo
samotný investor, který doporučení akceptoval? - Lze se odvolat na to, že „model tak rozhodl“ a tím se zbavit odpovědnosti, nebo
naopak platí, že odpovědnost je vždy na člověku, který systém nasadil?
OECD (2023) i další rámce pro AI zdůrazňují, že accountability nelze delegovat na stroj – vždy musí existovat identifikovatelný subjekt (firma, manažer, správní orgán), který je odpovědný za to, jak je systém navržen, trénován a používán. V investičním prostředí to znamená, že instituce musí nastavovat jasné governance struktury, procesy schvalování modelů, omezení jejich autonomie a mechanismy lidského dohledu (Preece, 2022; Protiviti, 2025).
Sociální a ekonomické dopady na
investory a trhy
Změna role lidského úsudku
Rozšíření AI v investičním rozhodování mění roli člověka z aktivního rozhodovatele na supervizora a konzumenta doporučení. Lidský úsudek se může posouvat do pozice „poslední kontroly“, zatímco většinu analýzy provádí model. To má několik dopadů:
- riziko otupení vlastních analytických schopností – podobně jako u navigace v autě
si lidé odvyknou samostatně přemýšlet o směru; - vznik „automatizované autority“ – doporučení AI může být vnímáno jako objektivní
a tím pádem obtížně zpochybnitelné; - zhoršená schopnost kriticky reflektovat předpoklady modelu a jeho omezení.
Studie o AI v investičním poradenství ukazují, že klienti mají tendenci vnímat technologická řešení jako neutrální a méně zaujatá než lidské poradce, což může posilovat slepou důvěru v AI výstupy i v situacích, kdy model není dostatečně validován (Jangra, 2025; Preece, 2022). Eticky to otevírá otázku autonomie investora: pokud lidé přestávají rozhodovat sami a jen potvrzují návrhy systému, je jejich svoboda volby faktická, nebo spíše iluzorní?
Automatizovaná dynamika trhů
Ještě před nástupem dnešních modelů AI ukázalo algoritmické obchodování, že automatizace může zásadně změnit dynamiku trhů – například zvyšováním rychlosti reakcí a vytvářením nových vzorců volatility. Regulatorní orgány jako ESMA proto zavedly pravidla pro robustnost systémů, jejich testování a řízení rizik (ESMA, 2012, 2021).
S nástupem sofistikovanější AI se objevují další rizika:
- modely různých institucí mohou být trénovány na podobných datech a s podobnými
cíli, což může vést k synchronizaci strategií a posílení „stáda“; - algoritmy mohou zesilovat krátkodobé šoky (např. náhlý nárůst negativního
sentimentu v médiích) a převádět je do prudkých tržních pohybů; - výjimečné situace (tail events) mohou být modelem podceněny, protože nejsou v
tréninkových datech dostatečně zastoupeny (OECD, 2023).
Z makroperspektivy tak AI přináší otázku systémového rizika: mohou široce používané AI modely v kombinaci s automatizovaným prováděním obchodů vytvořit „nové druhy“ finančních krizí, které jsou rychlejší a menší, ale častější – nebo naopak méně časté, ale extrémně ničivé?
Psychologické dopady na retail investory
Pro retail investory představuje AI často „černou skříňku se superinteligencí“, která má údajně zvládat analyzovat ohromné množství dat a předpovídat tržní vývoj. To může mít několik psychologických efektů:
- snížení vnímané vlastní kompetence („stejně nikdy nebudu tak dobrý jako AI“);
- zvýšenou tendenci k riziku, pokud investor věří, že model „ví lépe“;
- nebo naopak paralýzu – přemíra informací a modelových scénářů vede k
nerozhodnosti.
Jangra (2025) upozorňuje také na fenomén „algorithmic nudging“ – jemného, ale systematického směrování klienta k určitým volbám prostřednictvím designu uživatelského rozhraní a způsobu prezentace doporučení. To může být využito k dobrému (např. podpora dlouhodobého investování), ale také ke zvýhodňování produktů, které jsou výhodnější pro poskytovatele než pro klienta.
Eticky jde o otázku manipulace vs. legitimního poradenství: kde je hranice mezi doporučením a skrytým tlakem, který využívá znalosti psychologických vzorců chování investorů?
Regulační a institucionální aspekty
Současné přístupy k regulaci
Regulace AI ve financích se odehrává na průsečíku dvou světů: specifické regulace finančního trhu (např. MiFID II/MiFIR, pravidla pro algoritmické obchodování, povinnosti investičních poradců) a nově vznikající horizontální regulace AI (AI Act). ESMA se problematice automatizovaného a algoritmického obchodování věnuje dlouhodobě a její dokumenty kladou důraz na robustnost, testování, dokumentaci a monitoring systémů (ESMA, 2012, 2021).
AI Act klasifikuje řadu finančních AI aplikací jako high-risk – zejména tam, kde ovlivňují přístup k finančním produktům, úvěrům či investičním službám. Pro tyto systémy stanovuje požadavky na (European Parliament & Council of the European Union, 2024; Eurofi, 2024; Goodwin et al., 2024):
- kvalitní a reprezentativní data,
- dokumentaci a technické záznamy,
- transparentnost a informování uživatelů,
- lidský dohled,
- řízení rizik a bezpečnost systému
Odborné komentáře upozorňují, že finanční sektor je jednou z oblastí, kde bude dopad AI Actu obzvlášť výrazný, a to jak z pohledu compliance nákladů, tak z hlediska tlaku na přehodnocení dosavadních modelovacích a governance praktik (Eurofi, 2024; Protiviti, 2025).
Co je potřeba upravit?
Ačkoliv stávající regulace adresují mnoho technických a organizačních aspektů, zůstává řada otevřených etických otázek:
- minimální standard vysvětlitelnosti: Jakou míru detailu má mít vysvětlení, aby bylo
pro klienta srozumitelné, ale zároveň nezveřejňovalo obchodní tajemství? - auditovatelnost a nezávislá kontrola: Kdo a jak bude auditovat AI modely – interní
risk oddělení, externí auditoři, specializované autority? OECD (2023) upozorňuje,
že vznikají nové praktiky AI auditu, ale jejich standardizace je teprve v počátcích. - ochrana retail investorů před AI nástroji, které nejsou formálně investičním
poradenstvím, ale fakticky plní jeho funkci – například generativní AI integrovaná
do platforem pro retail trading (European Parliament, 2025; Jangra, 2025).
Z institucionálního hlediska je žádoucí, aby finanční firmy nevnímaly etiku AI jako „přívěsek compliance“, ale jako součást strategického řízení rizik a reputace. To zahrnuje:
- jasně definované role a odpovědnosti (AI governance),
- pravidelné přezkoumávání modelů,
- interakci mezi datovými vědci, právníky, etiky a business liniemi.
Perspektivy do budoucna
Použití AI ve financích a investičním rozhodování lze nahlížet i optikou horizon scanningu. Na horizontu 10–20 let lze uvažovat o několika základních scénářích:
- Optimistický scénář – AI jako nástroj demokratizace investování
- Vysoce kvalitní AI nástroje jsou dostupné širokému spektru retail investorů,
regulace zajišťuje férovost a transparentnost a kombinace AI a finančního
vzdělávání vede k lepším rozhodnutím a menší míře spekulativních bublin.
- Vysoce kvalitní AI nástroje jsou dostupné širokému spektru retail investorů,
- Neutrální scénář – hybridní model AI + člověk
- AI se stává standardní součástí nástrojů poradců i investorů, hlavní přidanou
hodnotou člověka je empatická komunikace, kontextualizace a morální úsudek.
Etické rámce se postupně stabilizují a stávají se součástí běžné praxe.
- AI se stává standardní součástí nástrojů poradců i investorů, hlavní přidanou
- Pesimistický scénář – prohloubení nerovností a informační fragmentace
- Špičkové AI modely jsou dostupné pouze největším hráčům, retail investoři jsou
vystaveni nekvalitním nebo manipulativním nástrojům a finanční trhy se stávají
méně srozumitelnými, což snižuje důvěru veřejnosti.
- Špičkové AI modely jsou dostupné pouze největším hráčům, retail investoři jsou
- Rizikový scénář – systémové otřesy a krizové události
- Kombinace podobných AI strategií napříč institucemi vede k novému typu
finančních krizí, regulatorní reakce jsou opožděné a dochází k výraznému
přehodnocení role AI ve finančním sektoru.
- Kombinace podobných AI strategií napříč institucemi vede k novému typu
- Extrémní scénář – téměř plná autonomizace trhů
- Většina obchodování je řízena autonomními agenty, lidské rozhodování se přesouvá
na úroveň metastrategií a dohledu a etické otázky se posouvají od jednotlivých
rozhodnutí k systémovému designu „strojového kapitalismu“.
- Většina obchodování je řízena autonomními agenty, lidské rozhodování se přesouvá
Pro tvůrce politik, regulátory i instituce to znamená nutnost nejen reagovat na aktuální problémy, ale také aktivně předjímat možné budoucí dopady a vytvářet flexibilní rámce, které umožní využít přínosy AI, aniž by byly ohroženy základní hodnoty, jako je férovost, stabilita a důvěra ve finanční systém (OECD, 2023; European Parliament, 2025).
Závěr
Umělá inteligence v investičním rozhodování přináší významné přínosy v efektivitě a inovaci, ale zároveň otevírá celou řadu etických dilemat, která nelze ignorovat. Klíčové problematické oblasti zahrnují:
- bias a diskriminační efekty vyplývající z historických dat a nevhodného designu,
- netransparentnost a obtížnou vysvětlitelnost komplexních modelů,
- prohlubování informačních asymetrií mezi různými typy investorů,
- riziko manipulace trhů prostřednictvím generativní AI a automatizovaných
strategií, - a nejasné rozdělení odpovědnosti za rozhodnutí, která jsou částečně nebo plně
generována algoritmy.
Etická reflexe AI ve financích nemůže být oddělena od regulatorních a institucionálních rámců. Dokumenty jako OECD AI Principles či AI Act naznačují cestu k důvěryhodné AI, která klade důraz na transparentnost, odpovědnost, férovost a respekt k lidským právům (OECD, 2020, 2024; European Parliament & Council of the European Union, 2024). V investičním kontextu to znamená prosazovat model human-in-the-loop, kde AI poskytuje analýzy a doporučení, ale finální odpovědnost i etický úsudek zůstávají na člověku.
Z pohledu Competitive Intelligence lze AI chápat jako velmi mocný nástroj pro sběr a analýzu informací o trzích a konkurenci. Stejná síla, která umožňuje hlubší vhled do dat, však vyžaduje i vyšší úroveň reflexe a governance. Bez ní hrozí, že AI nebude sloužit jako prostředek k lepšímu a spravedlivějšímu investování, ale jako akcelerátor nerovností, manipulace a systémových rizik.
Budoucnost etického využívání AI v investičním rozhodování bude záviset na tom, zda se podaří sladit tři dimenze: technickou (kvalitní a bezpečné modely), institucionální (dobré řízení a odpovědnost) a normativní (hodnoty, které chceme ve finančním systému chránit). Pokud se to podaří, může AI přispět k finančnímu systému, který bude nejen efektivnější, ale i férovější a transparentnější.
Použitá literatura
European Parliament. (2025). Report on the impact of artificial intelligence on the financial sector (2025/2056(INI)). https://www.europarl.europa.eu/doceo/document/A-10-2025-0225_EN.html
European Parliament and Council of the European Union. (2024). Regulation (EU) 2024/1689 on artificial intelligence (AI Act). Official Journal of the European Union. https://eur-lex.europa.eu/legal-content/EN/TXT/PDF/?uri=OJ%3AL_202401689
European Securities and Markets Authority. (2012). Guidelines on systems and controls in an automated trading environment for trading platforms, investment firms and competent authorities (ESMA/2012/122). ESMA.
European Securities and Markets Authority. (2021). MiFID II/MiFIR review report on algorithmic trading (ESMA70-156-4572). ESMA.
Eurofi. (2024). AI Act: Key measures and implications for financial services. Eurofi Regulatory Update.
Goodwin, A., Scott, G., Moille, C., & Dixon-Ward, M. (2024). EU AI Act: Key points for financial services businesses. Goodwin.
Jangra, R. (2025). The AI revolution in investment advisory: Global implications for retail engagement, financial inclusion, and ethical governance. SSRN.
KPMG. (2021). Algorithmic bias and financial services: A KPMG report prepared for Finastra. KPMG.
OECD. (2020). What are the OECD principles on AI? OECD Publishing.
OECD. (2023). Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI. OECD Digital Economy Papers No. 349. https://www.oecd.org/content/dam/oecd/en/publications/reports/2023/02/advancing-accountability-in-ai_753bf8c8/2448f04b-en.pdf
OECD. (2024). OECD updates AI principles to stay abreast of rapid technological developments. OECD.
Preece, R. G. (2022). Ethics and artificial intelligence in investment management: A framework for professionals. CFA Institute. Protiviti. (2025). The EU AI Act: The impact on financial services institutions. Protiviti.





