DOI: https://doi.org/10.20998/2079-0023.2020.01.04

МОДЕЛЬ ПОЯСНЕННЯ В ІНТЕЛЕКТУАЛЬНІЙ ІНФОРМАЦІЙНІЙ СИСТЕМІ НА ОСНОВІ КОНЦЕПЦІЇ УЗГОДЖЕНОСТІ ЗНАНЬ

Serhii Fedorovych Chalyi, Volodymyr Oleksandrovich Leshchynskyi, Irina Oleksandrivna Leshchynska

Анотація


Предметом дослідження є процеси побудови пояснень щодо отриманих результатів в інтелектуальних інформаційних системах. Пояснення роблять прозорим процес створення результуючої рекомендації, формують умови для створення користувачем причинно-наслідкових зв’язків між результатом виводу та поточними задачами, для вирішення яких була використана інтелектуальна система. Мета полягає в розробці моделі пояснення в інтелектуальній системі з можливістю забезпечити узгоджене з результатами роботи такої системи витлумачення з урахуванням контекстно-орієнтованих вимог щодо потреб користувачів. Для досягнення поставленої мети вирішуються задачі визначення вимог до пояснення щодо результатів роботи інформаційної системи, та розробки моделі пояснення на базі принципів узгодження знань з тим, щоб отримати рекомендації на основі відповідності фактів, гіпотез, результатів. Показано, що при узгодженні інтересів користувача та можливостей інтелектуальної системи необхідно визначити деталізацію знань з урахуванням інтервалу актуальності даних та знань, а також фінансових та технічних та інших особливостей використання отриманих результатів. Запропоновано модель пояснення в інтелектуальній системі на базі узгодження знань та даних. Модель містить множини узгоджених фактів, гіпотез та результатів. Узгодження виконується для гіпотез, які є підмножинами інших гіпотез, на основі пояснень гіпотез через факти та інші гіпотези, а також на базі відповідн ості між собою отриманих результатів та гіпотез. Моделі дає можливість обмежити використання неявних та неточних знань в рамках виводу лише їх узгодженою підмножиною. У практичному плані використання моделі орієнтовно на побудову пояснень згідно ступеню абстракції, рівня деталізації опису предметної області, а також з урахуванням вибраного аспекту витлумачення отриманої рекомендації. В цілому формування пояснень на основі узгодження знань підвищує довіру користувачів та створює умови для ефективного використання отриманих рекомендацій.

Ключові слова


знання; узгодженість знань; інтелектуальна система; рекомендації; пояснення, вимоги до пояснення

Повний текст:

PDF

Посилання


Cunningham P., Doyle D., Loughrey J. An evaluation of the usefulness of case-based reasoning explanation. Proceedings of the International Conference on Case-Based Reasoning. ICCBR 2003. Trondheim, Springer, 2003, pp. 122–130.

Swartout W., Moore J. Explanation in Second Generation Expert Systems. Second Generation Expert Systems. 1993, pp. 543–585.

Cleger S., Fernбndez-Luna J., F Huete J. Learning from explanations in recommender systems. Information Sciences. 2014, vol. 287, pp. 90–108.

Chalyi S., Leshchynskyi V., Leshchynska I. Method of forming recommendations using temporal constraints in a situation of cyclic cold start of the recommender system. EUREKA: Physics and Engineering. 2019, vol. 4, pp. 34–40.

Chalyi S. F., Leshchynskyi V. O., Leshchynska I. O. Modelyuvannya poyasnen shodo rekomendovanogo pereliku ob’yektiv z urahuvannyam temporalnogo aspektu viboru koristuvacha [Modeling explanations for the recommended list of items based on the temporal dimension of user choice]. Sistemi upravlinnya, navigaciyi ta zv’yazku [Control, Navigation and Communication Systems]. 2019, vol. 6, no. 58, pp. 97–101.

Levykin V., Chala O. Method of determining weights of temporal rules in markov logic network for building knowledge base in information control system. EUREKA: Physics and Engineering. 2018, vol. 5, pp. 3–10.

Levykin V., Chala O. Development of a method for the probabilistic inference of sequences of a business process activities to support the business process management. Eastern-European Journal of Eenterprise Technologies. 2018, vol. 5/3(95), pp. 16–24.

Daher J, Brun A., Boyer A. A. A review on explanations in recommender systems. Technical Report. LORIA Université de Lorraine, 2017. 26 p. URL: https://hal.archives-ouvertes.fr/hal01836639/document (accessed: 18.05.2020).

Thagard P., Verbeurgt K. Coherence as constraint satisfaction. Cognitive Science. 1998, vol. 22, pp. 1–24.

Thagard P. Coherence, truth, and the development of scientific knowledge. Philosophy of Science. 2007, vol, 74, pp. 28–47.

Thagard P. Causal inference in legal decision making: Explanatory coherence vs. Bayesian networks. Applied Artificial Intelligence. 2004, vol. 18, pp. 231–249.

Tintarev N., Masthoff J. A survey of explanations in recommender systems. 3rd international workshop on web personalisation, recommender systems and intelligent user interfaces (WPRSIUI'07). 2007, pp. 801–810. URL: https://abdn.pure.elsevier.com/ en/publications/a-survey-of-explanations-in-recommender-systems (accessed: 17.05.2020).

Tintarev N., Masthoff J. Designing and Evaluating Explanations for Recommender Systems. Recommender Systems Handbook. 2010, pp. 479–510.