DNV představuje základy pro dosažení důvěryhodné umělé inteligence
Høvik, Norsko, 25. března 2026 – Nový výzkum společnosti DNV, zabývající se ověřováním a řízením rizik, identifikoval základy pro dosažení důvěryhodné umělé inteligence v kontextu průmyslových procesů kritických z hlediska bezpečnosti. Podle studie s názvem „Assurance of AI-Enabled Systems“ lze zavedené zásady řízení rizik přizpůsobit tak, aby odpovídaly složitosti a nejistotě systémů využívajících umělou inteligenci. Ačkoli umělá inteligence přináší nová rizika, osvědčené metody ověřování z odvětví kritických z hlediska bezpečnosti již poskytují pevný výchozí bod pro jejich řešení.
Studie ukazuje, že umělá inteligence mění povahu rizik, protože nefunguje jako pevná, předvídatelná součást. To činí tradiční jednorázové ověřování nedostatečným a zdůrazňuje potřebu průběžného a adaptivního ověřování po celou dobu životního cyklu.
Programme Director for AI Assurance at DNV
Tento výzkum vychází z desetiletí zkušeností společnosti DNV v oblasti ověřování a řízení rizik v kritické infrastruktuře, včetně námořního a energetického sektoru. Mezi základní principy pro vytvoření důvěryhodné umělé inteligence patří:
Systémový model, který zachycuje celý systém využívající AI
Tento model odráží, jak AI interaguje s lidmi, digitálními a fyzickými komponenty a svým provozním prostředím. Umožňuje pochopit vznikající chování, nezamýšlené interakce a rizika specifická pro daný kontext, která nelze odhalit pouhým zkoumáním samotné AI komponenty.
Modulární přístup
A risk model, applying uncertainty-based assessment and modular risk principles to break down complex systems with their complex and emergent risks into manageable parts across system levels.
Propojení tvrzení s důkazy
Tyto strukturované argumenty propojují tvrzení typu „systém je bezpečný“ s ověřitelnými důkazy, předpoklady a odůvodněním. To poskytuje transparentní a auditovatelný rámec pro prokázání spolehlivosti v průběhu celého životního cyklu.
Neustálé, kontextově orientované ověřování, které se přizpůsobuje vývoji umělé inteligence
Systémy využívající umělou inteligenci se v průběhu času mění v důsledku aktualizací modelů, změn v datech a proměnlivých provozních podmínek. Aby byla zachována spolehlivost, musí být ověřování průběžné, nikoli jednorázové. To zahrnuje monitorování v reálném čase, pravidelné aktualizace podkladů a přehodnocování rizik a požadavků, aby důvěra v systém zůstala zachována po celou dobu jeho životního cyklu
„Tyto základy poskytují průmyslu jasný a praktický způsob, jak budovat a udržovat důvěryhodnou AI. Již spolupracujeme s firmami, které si uvědomují potenciál AI, stejně jako rizika, která může představovat pro kritické služby, které poskytují. Vyzývám další organizace, aby se k nám připojily při řešení a řízení rizik spojených s umělou inteligencí,“ dodal Agrell.
Tento poziční dokument je součástí širšího úsilí společnosti DNV pomáhat průmyslu při zodpovědném zavádění AI a je v souladu s doporučenou praxí společnosti (DNVRP0671) pro zajištění kvality AI.
