Головна » Економіка » Дослідження Microsoft вказує на зниження надійності штучного інтелекту у тривалих розмовах

Дослідження Microsoft вказує на зниження надійності штучного інтелекту у тривалих розмовах
Чат-боти на основі штучного інтелекту стали менш надійними, частіше допускаючи помилки в тривалих розмовах, свідчать результати дослідження.
Згідно з дослідженням, проведеним Microsoft Research у співпраці з Salesforce, надійність чат-ботів, таких як GPT-4 та Gemini, значно знижується під час тривалих діалогів. У дослідженні, опублікованому на Windows Central, проаналізували понад 200 000 діалогів, виявивши, що успішність моделей зменшується з 90% до 65% в складних бесідах.
Хоча загальна продуктивність моделей знижується лише на 15%, їхня ненадійність зростає на 112%. Дослідники виявили, що причини збоїв включають передчасну генерацію відповідей, використання помилкової початкової інформації як основи для подальших відповідей, а також роздування тексту в тривалих діалогах, що призводить до збільшення кількості помилок.
Цей аналіз підкреслює зростаючу значущість технологій штучного інтелекту в різних сферах, зокрема у військовій, де країни, такі як США і Китай, продовжують змагатися за технологічну перевагу, не підписуючи міжнародні угоди про відповідальне використання ШІ у військових цілях.










