КОНЦЕПТУАЛЬНА МЕНТАЛЬНА МОДЕЛЬ ПОЯСНЕННЯ В СИСТЕМІ ШТУЧНОГО ІНТЕЛЕКТУ

Автор(и)

DOI:

https://doi.org/10.20998/2079-0023.2023.01.11

Ключові слова:

пояснення, система штучного інтелекту, зрозумілий штучний інтелект, залежності, ментальна модель, каузальні залежності

Анотація

Предметом дослідження є процеси формування пояснень щодо отриманих в системах штучного інтелекту рішень. Для вирішення проблеми непрозорості прийняття рішень в таких системах користувачі мають отримати пояснення щодо отриманих рішень. Пояснення дозволяє довіряти цим рішенням та забезпечити їх використання на практиці. Мета роботи полягає у розробці концептуальної ментальної моделі пояснення для визначення базових залежностей, що визначають зв’язок між вхідними даними, а також діями з отримання результату в інтелектуальній системі, та її кінцевим рішенням. Для досягнення мети вирішуються такі задачі: структуризація підходів до побудови ментальних моделей пояснень; побудова концептуальної ментальної моделі пояснення на основі об’єднаного представлення знань користувача.. Висновки. Виконано структуризацію підходів до побудови ментальних моделей пояснень в інтелектуальних системах. Ментальні моделі призначені для відображення сприйняття пояснення користувачем. Виділено каузальний, статистичний, семантичний та концептуальний підходи до побудови ментальних моделей пояснення. Показано, що концептуальна модель задає узагальнені схеми та принципи щодо процесу функціонування інтелектуальної системи. Її подальша деталізація виконується на основі каузального підходу у випадку побудови пояснення для процесів, статистичного підходу при побудові пояснення щодо результату роботи системи, а також семантичного при узгодженні пояснення із базовими знаннями користувача. Запропоновано трирівневу концептуальну ментальну модель пояснення, що містить рівні концепції щодо базових принципів функціонування системи штучного інтелекту, пояснення, що деталізує цю концепцію у прийнятному та зрозумілому для користувача вигляді, а також базових знань про предметну область, які є основою для формування пояснення. У практичному аспекті запропонована модель створює умови для побудови та упорядкування множини узгоджених пояснень, які описують процес та результат роботи інтелектуальної системи з урахуванням можливості їх сприйняття користувачем.

Біографії авторів

Сергій Чалий, Харківський національний університет радіоелектроніки

доктор технічних наук, професор, Харківський національний університет радіоелектроніки, професор кафедри інформаційних управляючих систем, м. Харків, Україна

Ірина Лещинська, Харківський національний університет радіоелектроніки

кандидат технічних наук (PhD), доцент, Харківський національний університет радіоелектроніки, доцент кафедри програмної інженерії; м. Харків, Україна

Посилання

Engelbrecht Andries P. Computational Intelligence: An Introduction. NJ: John Wiley & Sons, 2007. 632 р.

Castelvecchi D. Can we open the black box of AI? Nature News 2016. Vol. 538 (7623). P. 20.

Tintarev N., Masthoff J. A survey of explanations in recommender systems. The 3rd International workshop on web personalisation, recommender systems and intelligent user interfaces (WPRSIUI'07). 2007, pp. 801–810.

Gunning D., Vorm E., Wang J., Turek M. DARPA's explainable AI (XAI) program: A retrospective. Applied AI Letters. Vol. 2, no. 4, 2021. DOI: https://doi.org/10.1002/ail2.61.

Gilpin L. H., Bau D., Yuan B. Z., Bajwa A., Specter M., Kagal L. Explaining Explanations: An Overview of Interpretability of Machine Learning. arXiv:1806.00069. 2018.

Miller T. Explanation in artificial intelligence: Insights from the social sciences, Artificial. Intelligence. 2019. Vol. 267 P. 1–38.

Chi M., de Leeuw N., Chiu M., Lavancher C. Eliciting self-explanations improves understanding. Cognitive Science. 1994. Vol.18. P. 439–477.

Carey S. The origin of concepts. New York: Oxford University Press. 2009. 608 p.

Holyoak Keith J., Morrison Robert G. The Oxford Handbook of Thinking and Reasoning. Oxford University Press, 2012. 864 p.

Chalyi S., Leshchynskyi V., Leshchynska I. Deklaratyvno-temporalnyi pidkhid do pobudovy poiasnen v intelektualnykh informatsiinykh systemakh [Declarative-temporal approach to the construction of explanations in intelligent information systems]. Visnyk Nats. tekhn. un-tu "KhPI": zb. nauk. pr. Temat. vyp. Systemnyi analiz, upravlinnia ta informatsiini tekhnolohii [Bulletin of the National Technical University "KhPI": a collection of scientific papers. Thematic issue: System analysis, management and information technology]. Kharkov, NTU "KhPI" Publ., 2020, no. 2(4), pp. 51–56.

Halpern J. Y., Pearl J. Causes and explanations: A structural-model approach. Part II: Explanations. Available at: https://arxiv.org/pdf/cs/0208034.pdf (accessed 11.05.202).

Chalyi S., Leshchynskyi V. Temporal representation of causality in the construction of explanations in intelligent systems. Advanced Information Systems. 2020, vol. 4, no 3, pp. 113–117.

##submission.downloads##

Опубліковано

2023-07-15

Як цитувати

Чалий, С., & Лещинська, І. (2023). КОНЦЕПТУАЛЬНА МЕНТАЛЬНА МОДЕЛЬ ПОЯСНЕННЯ В СИСТЕМІ ШТУЧНОГО ІНТЕЛЕКТУ. Вісник Національного технічного університету «ХПІ». Серія: Системний аналiз, управління та iнформацiйнi технологiї, (1 (9), 70–75. https://doi.org/10.20998/2079-0023.2023.01.11

Номер

Розділ

МАТЕМАТИЧНЕ І КОМП’ЮТЕРНЕ МОДЕЛЮВАННЯ