Новые версии ChatGPT могут значительно повысить риск разработки биологического оружия — даже неопытными людьми

OpenAI утверждает, что следующее поколение её моделей ИИ (ChatGPT) может значительно повысить риск разработки биологического оружия даже людьми без научного образования.
Руководитель отдела систем безопасности OpenAI Йоханнес Хайдеке сообщил, что компания «ожидает, что некоторые из преемников нашей o3 (модели рассуждений) достигнут этого уровня». Компания усиливает тестирование безопасности, чтобы снизить риск того, что модели помогут пользователям в создании биологического оружия. OpenAI обеспокоена тем, что без этих мер по снижению рисков новые модели ИИ вскоре смогут позволить тем, у кого ограниченные научные знания, создавать опасное оружие.
Мы пока не в мире, где есть что-то новое, совершенно неизвестное, создающее биологические угрозы, которые не существовали ранее, — сказал Хайдеке. — Мы больше беспокоимся о воспроизведении вещей, с которыми эксперты уже хорошо знакомы».
Он добавил, что некоторые из возможностей, которые могли бы позволить ИИ совершать прорывы в медицине, могут также использоваться во вред.
Недавно Anthropic выпустила свою самую продвинутую модель Claude Opus 4 с более строгими протоколами безопасности, чем у любой из предыдущих моделей, классифицируя ее как AI Safety Level 3 (ASL-3) в соответствии с политикой ответственного масштабирования компании. Все предыдущие модели Anthropic были классифицированы как AI Safety Level 2 (ASL-2).