Home
» Wiki
»
Почему не стоит доверять новостным сводкам от чат-ботов на основе искусственного интеллекта
Почему не стоит доверять новостным сводкам от чат-ботов на основе искусственного интеллекта
Зарегистрируйтесь и зарабатывайте 1000$ в день ⋙
Вам определенно следует дважды подумать, прежде чем использовать чат-бота на основе искусственного интеллекта для предоставления кратких сводок новостей. В новом отчете BBC говорится, что популярные чат-боты допускают серьезные ошибки в своих итоговых результатах.
Google Gemini имеет самый высокий уровень проблемных резюме
Тест включает ChatGPT , Google Gemini , Microsoft Copilot и Perplexity AI . Для начала BBC задала каждому чат-боту 100 новостных вопросов, потребовав от них по возможности использовать источники BBC News.
Затем эксперты BBC оценили качество этих резюме. В 51% резюме содержались те или иные ошибки, которые могли представлять собой фактические неточности, неверные цитаты или устаревшую информацию.
Из них 19% имели какие-либо фактические ошибки, такие как неверные даты. А 13% цитат, приписываемых BBC в резюме, были либо изменены по сравнению с оригиналом, либо отсутствовали в статьях, предоставленных чат-ботам.
При анализе с помощью чат-бота наибольший нарушитель оказался Gemini от Google: более 60% резюме содержали проблемную информацию. Microsoft Copilot занял второе место с 50%, а ChatGPT и Perplexity дали около 40% проблемных ответов.
В своем заключении BBC заявила, что многие проблемы были вызваны не только дезинформацией:
Исследование также показало, что спектр ошибок, допускаемых помощниками на основе искусственного интеллекта, выходит за рамки фактических неточностей. Протестированные нами помощники на основе искусственного интеллекта с трудом различали мнения и факты, прибегая к редакционным замечаниям и часто не включая необходимый контекст. Даже если каждое утверждение в отзыве является точным, подобные проблемы могут привести к получению вводящей в заблуждение или предвзятой обратной связи.
Многие люди никогда не пробовали использовать чат-ботов на основе искусственного интеллекта для обобщения новостей, поскольку не доверяют надежности этой технологии. Однако результаты исследования все равно оказались неожиданными, учитывая большое количество проблемных результатов. Искусственному интеллекту еще предстоит пройти долгий путь, прежде чем он станет надежным способом узнать больше новостей.
Функции искусственного интеллекта все еще находятся в стадии разработки
Технологии искусственного интеллекта, особенно чат-боты, продолжают стремительно совершенствоваться. Однако, как показывает исследование BBC, ожидание точной информации о новостях является чрезвычайно проблемной областью.
BBC пожаловалась на еще одну функцию на базе искусственного интеллекта: Apple Intelligence Notification Summary. В декабре 2024 года в новостном выпуске канала ошибочно утверждалось, что Луиджи Манджоне застрелился. Это человек, обвиняемый в убийстве генерального директора медицинской компании Брайана Томпсона.