Prostřednictvím AI lze zpracovávat velké objemy dat, což je jistě přínosem a urychlením celé řady složitých procesů, pomocí AI ale lze také upravovat obrazy a fotografie, či psaný a mluvený text. Právě to představuje dosud ne zcela identifikovatelná rizika, neboť AI kromě jiného dokáže napodobovat lidské hlasy či mimiku, a lidé, kteří s tím nemají zkušenosti, mohou být tímto způsobem velmi snadno manipulování k chybným rozhodnutím, která jim například doporučí obecně známé osobnosti, aniž by ale příslušná sdělení samy někdy vyslovily.

Neprozkoumaný terén

V praxi jde tedy o to, kdo, jak a s jakým cílem bude AI programovat, neboť zásadně záleží na výběru vstupních dat. To v praxi znamená, že výsledné manipulace nejsou výplodem samotné AI, ale výplodem člověka, což je ovšem o to nebezpečnější. Cílené zkreslení přitom může být (a také již je) nástrojem konkurenčního boje. Vzhledem k tomu je AI nepochybně velmi dobrým nástrojem ke klamání spotřebitele.

K tomu v ČR, alespoň podle dostupných dat zatím nedochází, je ale zcela zřejmé, že se tak dříve či později stane, a současné praktiky klamání spotřebitele získají novou a často obtížně odhalitelnou dimenzi. To bude znamenat mnohem obezřetnější chování spotřebitelů zejména při přejímání informací ze sociálních sítí a obecně z internetu, kde se může autor manipulací velmi dobře skrývat za falešnou identitou či anonymitou. Lze tak očekávat, že poroste význam věrohodných a verifikovaných dat prezentovaných skutečnými odborníky, organizacemi a institucemi, v případě potravin například Potravinářskou komorou ČR.

 

Riziko zneužití

Že je riziko zneužití AI již v současné době reálné, dokazuje celá řada již zveřejněných manipulačních videí s cílem diskreditace (například) politických konkurentů, což je aktuálně v ČR nejčastější forma, ve virtuálním prostoru se ale již také objevila některá zmanipulovaná doporučení finančního charakteru (například doporučované investice). Téměř „standardní“ je již také využití AI v diplomových pracích – například v dubnu letošního roku zveřejnila společnost Turnitin studii, podle níž již AI vygenerovala miliony!!! takových materiálů. To mimo jiné generuje další problém – totiž, že společnost může považovat za odborníka s titulem člověka, který kritéria odbornosti ani zdaleka nesplňuje. To nepochybně dále znesnadní orientaci spotřebitele v tom, na jaká doporučení má skutečně dát a komu věřit.

Rizika umělé inteligence jsou i proto stále důležitějším tématem i v nadnárodních institucích. V dubnu letošního roku přijala rezoluci varující před zneužíváním AI již také Organizace spojených národů OSN, členské státy EU pak koncem května letošního roku definitivně potvrdily nová pravidla pro fungování umělé inteligence. Tento dokument týkající se AI je přitom prvním svého druhu na světě, a mohl by ovlivnit podobné normy také v zemích mimo Evropskou unii.

Regulace nutná

Uvedená pravidla v principu zavádí klasifikaci technologií AI podle způsobu využití a nastavuje různé úrovně omezení podle míry souvisejících rizik. Některé systémy chce EU zcela zakázat, další nástroje jako algoritmy na rozpoznávání obličejů budou podléhat silné regulaci. Obecně by měla nová pravidla zajistit, aby umělá inteligence byla důvěryhodná, bezpečná, respektovala základní práva sedmadvacítky a podporovala inovace. Schválená norma je dojednaným kompromisem mezi vyjednavači Evropského parlamentu, Evropskou komisí a belgickým předsednictvím v Radě EU, které zastupuje jednotlivé členské státy.

Jak již bylo uvedeno v úvodu, AI představuje samozřejmě i mnohá pozitiva. Jedno nepříliš zmiňované, ale z hlediska přístupu veřejnosti a spotřebitelů k informacím klíčové, je nutnost uvažovat o prezentovaných datech s vyšší mírou takzvaného kritického myšlení, což v praxi znamená nepřejímat otrocky vše, co se ve virtuálním světě objeví. Jinými slovy, více používat mozek a takzvaný „selský rozum“. Otázkou samozřejmě je, nakolik toho budou při stále sofistikovanějších metodách manipulací a klamání všichni spotřebitelé schopni.

Druhá strana mince

Praktické využití AI může být pochopitelně i pro spotřebitele přínosné. V zemědělství, a potažmo i v potravinářství jde například o použití AI v takzvaném precizním zemědělství, například při optimalizaci aplikace prostředků na ošetřování hospodářských plodin. Na cílenou aplikaci pesticidů s využitím dronů spolu s AI pracují aktuálně vědci z Agronomické fakulty Mendelovy univerzity v Brně, přičemž výsledkem má být nižší zatížení zemědělské půdy chemickými látkami. To v praxi znamená také nižší riziko nadlimitních pozůstatků takových látek v potravinách, což je jistě benefitem právě pro spotřebitele.

V této souvislosti je možná vhodné opětovně připomenout, že spotřeba těchto látek v ČR trvale klesá. Podle úplně posledních údajů Ústředního kontrolního a zkušebního ústavu zemědělského (ÚKZÚZ) z června letošního roku došlo loni v porovnání s rokem 2022 ke snížení celkové spotřeby přípravků na ochranu rostlin (POR) celkem o 3,5 procenta, tedy o 360 000 kilogramů. V hlavních kategoriích POR (fungicidy, herbicidy, insekticidy a regulátory růstu a vývoje) došlo v meziročním srovnání rovněž k poklesu ve spotřebě, a to v průměru cca o 6,5 procenta. V letech 2018 až 2023 navíc podle Ministerstva zemědělství klesla spotřeba těchto přípravků o 11,4 procenta, přičemž nejvíce v kategorii herbicidů a desikantů (o 22 procent), a fungicidů o 17 procent.

 

 

Deepfake v zemědělství

Spotřeba POR je přitom často předmětem dezinformací, a díky tomu se nemalá část společnosti stále domnívá, že jsou naše pole „plná chemie“. Skutečná data ale svědčí o opaku. Situace v ČR je v tomto směru téměř nejlepší v celé EU, a i proto by měli dávat spotřebitelé v ČR přednost výrobkům z tuzemských surovin. Míra použití zemědělské chemie může být ale jistě i jedním z témat deepfake, právě s využitím AI. Také proto, že laická veřejnost nedokáže intenzitu hnojení sama posoudit, což značně usnadňuje manipulace s daty.

I proto by měli zemědělci, výrobci i prodejci potravin přistoupit k osvětě svých zákazníků tak, aby mohli spotřebitelé alespoň některé manipulace typu deepfake odhalit. Základní prevencí by přitom měl být princip ověřování různých doporučení obdobně, jako je studium etiket na obalech potravinářských produktů týkajících se složení, případně původu nakupovaných potravin či jejich výrobců. Bedlivě sledovat je ale také třeba vývoj legislativy a regulací v EU, zvláště poté, co se po posledních volbách částečně změnilo složení Evropského parlamentu. Jedním z rizik využíváni AI totiž může být i naprostý opak toho, proč AI vlastně vznikla, tedy další nárůst byrokracie.