ПРОБЛЕМА ЕПІСТЕМІЧНОЇ НАДІЙНОСТІ ЗНАННЯ В КОНТЕКСТІ ШТУЧНОГО ІНТЕЛЕКТУ

Автор(и)

DOI:

https://doi.org/10.24919/2522-4700.49.6

Ключові слова:

філософія штучного інтелекту, етика штучного інтелекту, епістемологія штучного інтелекту, методологія наукового пізнання, надійність знання, упередженість, вирівнювання ШІ, пояснювальний ШІ.

Анотація

Анотація. У статті здійснюється аналіз проблеми епістемічної надійності знання, отриманого за допомогою штучного інтелекту, з урахуванням аспектів прозорості, обґрунтованості, а також впливу соціокультурних факторів на процес навчання ШІ. Основна мета роботи – виявлення чинників, що впливають на надійність знання ШІ, і розгляд шляхів покращення прозорості його моделей для підвищення довіри користувачів. Методологія дослідження ґрунтується на аналітичному огляді сучасних підходів у сфері епістемології штучного інтелекту та філософії науки. Використано методи порівняльного аналізу для виявлення подібностей і відмінностей між людським та машинним пізнанням, а також розглянуто концепції, що розкривають природу обґрунтованості знання в умовах недостатньої прозорості алгоритмів глибокого навчання. Задіяно метод концептуального аналізу до проблеми створення «пояснювального ШІ» та «вирівнювання ШІ» в контексті порівняння змістовного наповнення термінів людського пізнання та моральності з відповідними термінами, які ми застосовуємо до ШІ. Застосовано метод уявного експерименту для моделювання ситуацій упередженості та непрозорості рішень ШІ. Наукова новизна статті полягає у систематичному підході до дослідження проблеми епістемічної надійності ШІ у контексті його здатності пояснювати свої рішення. Зокрема, у статті розкрито, як соціальні, культурні та етичні аспекти впливають на процес навчання ШІ, що в свою чергу призводить до упереджень у прийнятті рішень. Вперше досліджено питання теоретичної навантаженості фактів, коли дані для навчання ШІ розглядаються в межах концептуальної рамки, що впливає на їх об’єктивність. Вперше застосовано проблему трилеми Мюнхгаузена для характеристики пояснювальних можливостей ШІ. Висновки. У статті обґрунтовано необхідність покращення прозорості алгоритмів ШІ з метою підвищення їх надійності. Основними висновками є важливість інтеграції етичних принципів у процес розробки ШІ для зниження рівня упередженості, а також розробка моделей пояснювального ШІ, здатного прозоро обґрунтовувати свої рішення. Це дозволить підвищити довіру користувачів та забезпечити ефективніше використання ШІ у критично важливих сферах. Перспективи подальших досліджень включають розробку інструментів для врахування епістемологічних характеристик надійності знання, здобутого ШІ.

Посилання

1. Albert H., Rorty M.V. The Problem of Foundation. Treatise on Critical Reason. Princeton University Press, 1985.

2. Baker R.S., Hawn A. Algorithmic Bias in Education. International Journal of Artificial Intelligence in Education. Vol. 32. 2022. P. 1052–1092.

3. Belenguer L. AI Bias: Exploring Discriminatory Algorithmic Decision-Making Models and the Application of Possible Machine-Centric Solutions Adapted from the Pharmaceutical Industry. AI and Ethics. Vol. 2. № 4. 2022. P. 771–787.

4. Donald A., et al. Bias Detection for Customer Interaction Data: A Survey on Datasets, Methods, and Tools. IEEE Access. Vol. 11. 2023. P. 53703–53715, 2023.

5. Franklin A. The Theory-Ladenness of Experiment. Journal for General Philosophy of Science. Vol. 46. 2015. P. 155–166.

6. Johnson G.M. Algorithmic Bias: On the Implicit Biases of Social Technology. Synthese. Vol. 198. 2021. P. 9941–9961.

7. Kasirzadeh A., Gabriel I. In Conversation with Artificial Intelligence: Aligning Language Models with Human Values. Philosophy &

Technology. Vol. 36. 2023.

8. Köchling, A., Wehner, M.C. Discriminated by an Algorithm. Business Research. Vol. 13. 2023. P. 795–848.

9. McDonald F.J. AI, Alignment, and the Categorical Imperative. AI and Ethics. Vol. 3. 2023. P. 337–344.

10. Trotta A., Ziosi M., Lomonaco V. The Future of Ethics in AI: Challenges and Opportunities. AI & Society. Vol. 38. 2023. P. 439–441.

11. Yang W., Wei Y., Wei H., et al. Survey on Explainable AI: From Approaches, Limitations, and Applications Aspects. Human-Centric Intelligent

Systems. Vol. 3. 2023. P. 161–188.

12. Zhang Y., Tiňo P., Leonardis A., Tang K. A Survey on Neural Network Interpretability. Ithaca: Cornell University Library. arXiv.org. Vol. 5. №. 5. 2021. P. 726–742.

##submission.downloads##

Опубліковано

2024-12-13

Як цитувати

КОЗАЧЕНКО, Н. (2024). ПРОБЛЕМА ЕПІСТЕМІЧНОЇ НАДІЙНОСТІ ЗНАННЯ В КОНТЕКСТІ ШТУЧНОГО ІНТЕЛЕКТУ. Людинознавчі студії: збірник наукових праць Дрогобицького державного педагогічного університету імені Івана Франка. Серія «Філософія», (49), 94–109. https://doi.org/10.24919/2522-4700.49.6