МОДЕЛЬ ПОЯСНЕННЯ В ІНТЕЛЕКТУАЛЬНІЙ СИСТЕМІ НА ЛОКАЛЬНОМУ, ГРУПОВОМУ ТА ГЛОБАЛЬНОМУ РІВНЯХ ДЕТАЛІЗАЦІЇ
DOI:
https://doi.org/10.20998/2079-0023.2022.02.16Ключові слова:
пояснення, інтелектуальна інформаційна система, залежності, рівні деталізації пояснень, причинно-наслідкові зв’язкиАнотація
Предметом дослідження є процеси формування пояснень в інтелектуальних інформаційних системах. В сучасних інтелектуальних системах використовуються методи машинного навчання. Процес отримання рішення, сформованих на основі таких методів, є зазвичай непрозорим для користувача. Внаслідок такої непрозорості користувач може не довіряти тим рішенням, які запропонувала інтелектуальна система. Це знижує ефективність її використання. Для підвищення прозорості рішень використовуються пояснення. Пояснення представляється знаннями щодо причин формування результату в інтелектуальній системі, а також щодо причин окремих дій у процесі формування результату. Також пояснення може містити знання щодо впливу окремих функцій на отриманих інтелектуальною системою результат. Тому пояснення доцільно формувати на різних рівнях деталізації з тим, щоб показати як узагальнені причини та впливи на отримане рішення, так і причини вибору окремих проміжних дій. Мета роботи полягає в розробці узагальненої моделі пояснення з урахуванням станів та рівнів деталізації процесу прийняття рішення в інтелектуальній системі для побудови пояснень на основі відомих даних щодо послідовності станів та властивостей цих станів. Для досягнення мети вирішуються такі задачі: структуризація властивостей пояснень; визначення можливостей підходів до побудови пояснень на основі станів та структури процесу формування рішення, а також на основі вхідних даних; побудова моделі пояснення. Висновки. Запропоновано узагальнену модель пояснення в інтелектуальній системі для локального, групового та глобального рівнів деталізації процесу прийняття рішення .Модель представляється упорядкованою послідовністю зважених залежностей між подіями або станами процесу прийняття рішення. Модель орієнтовано на представлення можливості в рамках глобального пояснення виділити локальне пояснення та представити ланцюжок групових пояснень між подіями отримання вхідних даних та результуючого рішення. У практичному плані запропонована модель призначена для побудови пояснень з використанням підходів на основі спрощення процесу функціонування інтелектуальної системи та на основі виділення впливу окремих функцій та дій на кінцевий результат. Додаткові можливості моделі пов’язані із деталізацією подій процесу прийняття рішення з виділення окремих змінних, які характеризують стан цього процесу, що дає можливість формувати пояснення на основі використання відомих концепцій та понять у предметній області.
Посилання
Engelbrecht Andries P. Computational Intelligence: An Introduction. NJ, John Wiley & Sons, 2007. 632 р.
Castelvecchi D. Can we open the black box of AI? Nature News. 2016, vol. 538 (7623), pp. 20–23.
Gunning D., Aha D. DARPA’s Explainable Artificial Intelligence (XAI) Program. AI Magazine. 2019, no 40 (2), pp. 44–58.
Preece A., Harborne D., Braines D., Tomsett R., Chakraborty S. Stakeholders in Explainable AI. arXiv:1810.00184. 2018.
Gilpin L. H., Bau D., Yuan B. Z., Bajwa A., Specter M., Kagal L. Explaining Explanations: An Overview of Interpretability of Machine Learning. arXiv:1806.00069. 2018.
Miller T. Explanation in artificial intelligence: Insights from the social sciences, Artificial. Intelligence. 2019, vol. 267, pp. 1–38.
Zhang Q., Wu N. Y., Zhu S.-C, Interpretable convolutional neural networks, IEEE Conference on Computer Vision and Pattern Recognition. 2018, pp. 8827–8836.
Deng H. Interpreting tree ensembles with intrees. arXiv:1408.5456. 2014.
Chalyi S., Leshchynskyi V., Leshchynska I. Deklaratyvnotemporalnyi pidkhid do pobudovy poiasnen v intelektualnykh informatsiinykh systemakh [Declarative-temporal approach to the construction of explanations in intelligent information systems]. Visnyk Nats. tekhn. un-tu "KhPI": zb. nauk. pr. Temat. vyp. Systemnyi analiz, upravlinnia ta informatsiini tekhnolohii [Bulletin of the National Technical University "KhPI": a collection of scientific papers. Thematic issue: System analysis, management and information technology]. Kharkov, NTU "KhPI" Publ, 2020, no. 2(4), pp. 51–56.
Halpern J. Y., Pearl J. Causes and explanations: A structural-model approach. Part I: Causes. The British Journal for the Philosophy of Science. 2005, no. 56 (4), pp. 843–887.
Chalyi S., Leshchynskyi V. Temporal representation of causality in the construction of explanations in intelligent systems. Advanced Information Systems. 2020, vol. 4, no 3, pp. 113–117.
Chalyi S. F., Leshchynskyi V. O., Leshchynska I. O. Modelyuvannya poyasnen shodo rekomendovanogo pereliku ob’yektiv z urahuvannyam temporalnogo aspektu viboru koristuvacha [Modeling explanations for the recommended list of items based on the temporal dimension of user choice]. Sistemi upravlinnya, navigaciyi ta zv’yazku [Control, Navigation and Communication Systems]. 2019, vol. 6, no 58, pp. 97–101.
##submission.downloads##
Опубліковано
Як цитувати
Номер
Розділ
Ліцензія
ЛіцензіяАвтори, які публікуються у цьому журналі, погоджуються з наступними умовами:
- Автори залишають за собою право на авторство своєї роботи та передають журналу право першої публікації цієї роботи на умовах ліцензії Creative Commons Attribution License, котра дозволяє іншим особам вільно розповсюджувати опубліковану роботу з обов'язковим посиланням на авторів оригінальної роботи та першу публікацію роботи у цьому журналі.
- Автори мають право укладати самостійні додаткові угоди щодо неексклюзивного розповсюдження роботи у тому вигляді, в якому вона була опублікована цим журналом (наприклад, розміщувати роботу в електронному сховищі установи або публікувати у складі монографії), за умови збереження посилання на першу публікацію роботи у цьому журналі.
- Політика журналу дозволяє і заохочує розміщення авторами в мережі Інтернет (наприклад, у сховищах установ або на особистих веб-сайтах) рукопису роботи, як до подання цього рукопису до редакції, так і під час його редакційного опрацювання, оскільки це сприяє виникненню продуктивної наукової дискусії та позитивно позначається на оперативності та динаміці цитування опублікованої роботи (див. The Effect of Open Access).