МОДЕЛЬ ПОЯСНЕННЯ В ІНТЕЛЕКТУАЛЬНІЙ СИСТЕМІ НА ЛОКАЛЬНОМУ, ГРУПОВОМУ ТА ГЛОБАЛЬНОМУ РІВНЯХ ДЕТАЛІЗАЦІЇ

Автор(и)

DOI:

https://doi.org/10.20998/2079-0023.2022.02.16

Ключові слова:

пояснення, інтелектуальна інформаційна система, залежності, рівні деталізації пояснень, причинно-наслідкові зв’язки

Анотація

Предметом дослідження є процеси формування пояснень в інтелектуальних інформаційних системах. В сучасних інтелектуальних системах використовуються методи машинного навчання. Процес отримання рішення, сформованих на основі таких методів, є зазвичай непрозорим для користувача. Внаслідок такої непрозорості користувач може не довіряти тим рішенням, які запропонувала інтелектуальна система. Це знижує ефективність її використання. Для підвищення прозорості рішень використовуються пояснення. Пояснення представляється знаннями щодо причин формування результату в інтелектуальній системі, а також щодо причин окремих дій у процесі формування результату. Також пояснення може містити знання щодо впливу окремих функцій на отриманих інтелектуальною системою результат. Тому пояснення доцільно формувати на різних рівнях деталізації з тим, щоб показати як узагальнені причини та впливи на отримане рішення, так і причини вибору окремих проміжних дій. Мета роботи полягає в розробці узагальненої моделі пояснення з урахуванням станів та рівнів деталізації процесу прийняття рішення в інтелектуальній системі для побудови пояснень на основі відомих даних щодо послідовності станів та властивостей цих станів. Для досягнення мети вирішуються такі задачі: структуризація властивостей пояснень; визначення можливостей підходів до побудови пояснень на основі станів та структури процесу формування рішення, а також на основі вхідних даних; побудова моделі пояснення. Висновки. Запропоновано узагальнену модель пояснення в інтелектуальній системі для локального, групового та глобального рівнів деталізації процесу прийняття рішення .Модель представляється упорядкованою послідовністю зважених залежностей між подіями або станами процесу прийняття рішення. Модель орієнтовано на представлення можливості в рамках глобального пояснення виділити локальне пояснення та представити ланцюжок групових пояснень між подіями отримання вхідних даних та результуючого рішення. У практичному плані запропонована модель призначена для побудови пояснень з використанням підходів на основі спрощення процесу функціонування інтелектуальної системи та на основі виділення впливу окремих функцій та дій на кінцевий результат. Додаткові можливості моделі пов’язані із деталізацією подій процесу прийняття рішення з виділення окремих змінних, які характеризують стан цього процесу, що дає можливість формувати пояснення на основі використання відомих концепцій та понять у предметній області.

Біографії авторів

Сергій Чалий, Харківський національний університет радіоелектроніки

доктор технічних наук, професор, Харківський національний університет радіоелектроніки, професор кафедри інформаційних управляючих систем, м. Харків, Україна

Володимир Лещинський, Харківський національний університет радіоелектроніки

кандидат технічних наук, доцент, Харківський національний університет радіоелектроніки, доцент кафедри програмної інженерії, м. Харків, Україна

Посилання

Engelbrecht Andries P. Computational Intelligence: An Introduction. NJ, John Wiley & Sons, 2007. 632 р.

Castelvecchi D. Can we open the black box of AI? Nature News. 2016, vol. 538 (7623), pp. 20–23.

Gunning D., Aha D. DARPA’s Explainable Artificial Intelligence (XAI) Program. AI Magazine. 2019, no 40 (2), pp. 44–58.

Preece A., Harborne D., Braines D., Tomsett R., Chakraborty S. Stakeholders in Explainable AI. arXiv:1810.00184. 2018.

Gilpin L. H., Bau D., Yuan B. Z., Bajwa A., Specter M., Kagal L. Explaining Explanations: An Overview of Interpretability of Machine Learning. arXiv:1806.00069. 2018.

Miller T. Explanation in artificial intelligence: Insights from the social sciences, Artificial. Intelligence. 2019, vol. 267, pp. 1–38.

Zhang Q., Wu N. Y., Zhu S.-C, Interpretable convolutional neural networks, IEEE Conference on Computer Vision and Pattern Recognition. 2018, pp. 8827–8836.

Deng H. Interpreting tree ensembles with intrees. arXiv:1408.5456. 2014.

Chalyi S., Leshchynskyi V., Leshchynska I. Deklaratyvnotemporalnyi pidkhid do pobudovy poiasnen v intelektualnykh informatsiinykh systemakh [Declarative-temporal approach to the construction of explanations in intelligent information systems]. Visnyk Nats. tekhn. un-tu "KhPI": zb. nauk. pr. Temat. vyp. Systemnyi analiz, upravlinnia ta informatsiini tekhnolohii [Bulletin of the National Technical University "KhPI": a collection of scientific papers. Thematic issue: System analysis, management and information technology]. Kharkov, NTU "KhPI" Publ, 2020, no. 2(4), pp. 51–56.

Halpern J. Y., Pearl J. Causes and explanations: A structural-model approach. Part I: Causes. The British Journal for the Philosophy of Science. 2005, no. 56 (4), pp. 843–887.

Chalyi S., Leshchynskyi V. Temporal representation of causality in the construction of explanations in intelligent systems. Advanced Information Systems. 2020, vol. 4, no 3, pp. 113–117.

Chalyi S. F., Leshchynskyi V. O., Leshchynska I. O. Modelyuvannya poyasnen shodo rekomendovanogo pereliku ob’yektiv z urahuvannyam temporalnogo aspektu viboru koristuvacha [Modeling explanations for the recommended list of items based on the temporal dimension of user choice]. Sistemi upravlinnya, navigaciyi ta zv’yazku [Control, Navigation and Communication Systems]. 2019, vol. 6, no 58, pp. 97–101.

##submission.downloads##

Опубліковано

2023-01-13

Як цитувати

Чалий, С., & Лещинський, В. (2023). МОДЕЛЬ ПОЯСНЕННЯ В ІНТЕЛЕКТУАЛЬНІЙ СИСТЕМІ НА ЛОКАЛЬНОМУ, ГРУПОВОМУ ТА ГЛОБАЛЬНОМУ РІВНЯХ ДЕТАЛІЗАЦІЇ. Вісник Національного технічного університету «ХПІ». Серія: Системний аналiз, управління та iнформацiйнi технологiї, (2 (8), 100–105. https://doi.org/10.20998/2079-0023.2022.02.16

Номер

Розділ

ІНФОРМАЦІЙНІ ТЕХНОЛОГІЇ