Компания OpenAI выпустила отчет, в котором разработчики чат-ботов предупреждают о возможности использования новой языковой модели GPT-4 для генерации убедительной дезинформации. Специалисты считают, что человечество недалеко от создания опасно сильного искусственного интеллекта (ИИ).
GPT-4 является новейшей версией чат-бота ChatGPT и на большинстве профессиональных и академических экзаменов демонстрирует показатели человеческого уровня. Например, на смоделированном экзамене для адвокатов GPT-4 попал в 10 процентов лучших участников теста.
Авторы отчета высказывают опасение, что искусственный интеллект может придумывать факты, генерируя более убедительную дезинформацию, чем это делали предыдущие версии. Кроме того, зависимость от модели может помешать развитию новых навыков или даже привести к потере уже сформированных навыков.
Источник: techxplore.com