MUSÍME SE UMĚT SPRÁVNĚ ZEPTAT
Další, s kým jsme na téma umělé inteligenci ve veřejné správě diskutovali, byl Jakub Fiala, ředitel technologií třetích stran a vedoucí pracovní skupiny pro využití umělé inteligence společnosti Gordic. Společnost Gordic je v současné době již schopna dodávat a dodává spisové služby a elektronické podatelny, které mohou být vybaveny prvky umělé inteligence. Při tomto nasazování má společnost velmi úzký kontakt s úřadem, pro který je taková dodávka připravena jednak, aby skutečně „pasovala“ a samozřejmě zároveň, aby i sami úředníci byli dostatečně a správně připraveni.
Jakub Fiala upozornil, že současný problém umělé inteligence, respektive problém, který můžeme mít my s umělou inteligencí, spočívá v tom, že se jí neumíme správně zeptat. Zásadní je vytvořit skutečně validní dotaz abychom AI co nejlépe uměli nasměrovat, ale zároveň musíme být schopni si ověřit kvalitu toho výstupu. Tedy nemít bezbřehé očekávání, že vše co AI vytvoří je nutně správné. Musíme disponovat určitou mírou kritického myšlení, které je schopno hlídat výsledek. Zároveň určitě platí ono již zmiňované, nepouštět AI bezhlavě úplně do všeho co nás napadne. Měli bychom velmi obezřetně zvažovat, co vlastně od této pomoci očekáváme a proč. Může se jednat o již diskutovaného „asistenta“ a je lhostejno, zda z pohledu klienta veřejné správy, nebo jejího úředníka. Záměrně jej pak využíváme jako podporu naší činnosti. Nebo může být umělá inteligence již zabudována – implementována v informačním systému s nímž pracujeme a je zde z určitého konkrétního důvodu.
KDE AI POMÁHÁ
Velmi častým prvkem, který může ušetřit značnou práci úředníkům je její implementace ve spisové službě. Podstatou je určité „natrénování“ na datech konkrétního úřadu, tedy na předchozích písemnostech, které na úřad již dorazily a byly zpracovány. Na základě takového tréninku je pak spisová služba schopna „třídit“ a navrhovat, na který odbor by měla být písemnost dle svého obsahu směrována.
Možnost využití AI není omezena pouze na spisovou službu. Může se jednat například o ekonomickou agendu, kde se na základě vytěžování příchozích dokumentů AI připraví návrh, který je systém připraven zaúčtovat, ale musí jej samozřejmě „předložit“ ke kontrole a schválení úředníkovi. Rozhodně se jedná o markantní zrychlení, ale ta samotná příprava je jistou symbiózou zákazník – dodavatel, kdy jsou jednotlivé funkcionality nastavovány na základě potřeb úřadu, samozřejmě při dodržení všech platných norem i kyberbezpečnostních pravidel.
DATA JAKO NEHMOTNÉ ZLATO
V debatě jsme několikrát narazili, právě při hodnocení bezpečnosti, na to, že zásadní problém současnosti je nehmotná podoba dat, která je možno rychle a ve velké množství „přelévat“ z místa na místo. Přitom úřady jsou vázány předpisy, jak s daty nakládat, kde se mohou data nacházet atp. Otázkou tedy je, jak je možné takové skutečnosti prokazovat a zda se může úřad spoléhat na tvrzení dodavatele. Jakub Fiala zdůraznil, že i dodavatelé jsou vázáni zákony a normami, musí splňovat určité parametry, aby byly zařazeni do určité bezpečnostní úrovně. Tím je ověřeno, že pracují s daty podle stanovených pravidel a úřady se pak mohou na tyto dodavatele spolehnout a mít jistotu, že i oni s využitím služeb takového dodavatele splňují veškeré nároky zákona.
ASISTENTI A AGENTI
Jestliže rok 2024 byl rokem kdy jsme registrovali rozšíření oněch zmiňovaných asistentů, tedy prvků AI, které jsou schopny nám pomoci se zpracováním či dohledáním konkrétních podkladů, rok 2025 bude pravděpodobně rokem agentů – tedy formy AI, která navíc bude schopna pomoci s ovládáním konkrétních úkolů. Dojde tedy k posunu AI na operabilní rovinu. Bude tak docházet ke komunikaci skutečně přirozenou cestou a bude se jednat o spolupráci při řešení konkrétních úkolů. Tady se však opět dostáváme k určitým momentům, které mohou být z pohledu úřadu limitující a to i v případě, že by daný úřad chtěl AI využít. Jedná se samozřejmě o personální a finanční prostředky, nebo otázku veřejných zakázek či určitého omezení vyplývajícího z předchozích smluv. I proto je velice nutná těsná spolupráce s dodavatelem, který může prvky AI implementovat do řady stávajících systémů a zároveň napomoci onomu obezřetnému přístupu.
AI HLÍDÁ SAMA SEBE
Dotkli jsme se i nebezpečí, která AI v dnešním světě přináší, většinou v podobě různých kampaní, ať mediálních či kyberbezpečnostních. Na jednu stranu je samozřejmě problém, že AI se neustále vylepšuje, tedy i výsledek její práce je čím dál tím kvalitnější a my velmi často už nedokážeme rozklíčovat, zda máme v ruce dokument zpracovaný člověkem, nebo umělou inteligencí. I tady je ale možné využít schopností AI, která, na rozdíl od nás, dokáže identifikovat jestli je autorem AI či ne. Vlastně se jedná o model, kdy umělá inteligence hlídá umělou inteligenci, což už začíná být zcela běžnou záležitostí.
Každopádně je v oblasti veřejné správy dostatek prostoru pro uplatnění AI tak, aby zefektivnila její výkon. Ale jak bylo několikrát zdůrazněno, nemůže to být bez řádné přípravy a s nereálnými očekáváními.