ТҮСІНДІРІЛЕТІН AI (XAI) ЖҮЙЕЛЕРДІ БАСҚАРУДЫҢ ҚОРҒАЛҒАН КОНТУРЛАРЫНА ИНТЕГРАЦИЯЛАУ
DOI:
https://doi.org/10.56525/6wv0mj84Кілт сөздер:
түсіндірілетін жасанды интеллект (XAI), киберфизикалық жүйелер (CPS), кідіріс (latency), адверсариалдық машиналық оқыту, детерминирленген қауіпсіздік, басқару контурлары, модельдерді верификациялау, терең нығайтпалы оқыту (DRL)Аңдатпа
Машиналық оқыту алгоритмдері мен терең нейрондық желілерді маңызды киберфизикалық жүйелерге (CPS) енгізу стохастикалық «қара жәшік» модельдерінен детерминирленген қауіпсіздікті қамтамасыз ететін ашық архитектуралық шешімдерге көшу қажеттігін туындатады. Түсіндірілетін жасанды интеллектіні (XAI) интеграциялаудың техникалық қажеттілігі тексеру және валидация (V&V) талаптарымен байланысты, әсіресе қателіктің құны өте жоғары болатын, сондықтан тексерілмеген эвристикаларды қолдануға болмайтын недетерминирленген орталарда.
Бұл жұмыс модельдердің болжамдық қуаты мен олардың нақты уақыттағы интерпретациялануы арасындағы іргелі қайшылықты зерттейді. XAI таксономиялары қарастырылады, соның ішінде ішкі (intrinsic) және постфактумдық (post-hoc) әдістер, сондай-ақ олардың басқару контурларындағы (control loops) кідірістерге әсері. FPGA негізіндегі аппараттық жеделдеткіштер мен мамандандырылған ASIC қолдану кезіндегі архитектуралық ымыралар талданады.
Ерекше назар түсіндіру модульдерінің адверсариалдық әсерлерге төзімділігіне аударылады, мысалы «әділдікті жуу» (fairwashing) және белгілерді манипуляциялау. Оператордың жасырын кері байланысына негізделген бейімделмелі түсіндіру жүйелерін құру тәсілдері синтезделеді. Қорытындыда интерпретациялану метрикаларын стандарттау және XAI алгоритмдерінің өз қауіпсіздігін қамтамасыз ету салаларындағы негізгі технологиялық олқылықтар анықталады.




