DeepSeek не проходит тесты безопасности: мнение Anthropic
Генеральный директор Anthropic Дарио Амодей выразил серьёзные опасения по поводу китайской AI-компании DeepSeek. По его словам, её модель R1 не смогла пройти тест на генерацию опасной информации, связанной с биологическим оружием.Почему это вызывает тревогу?
Anthropic регулярно проверяет AI-модели на способность генерировать опасные данные, которых нет в открытых источниках. По словам Амодея:«Результаты DeepSeek оказались худшими среди всех моделей, которые мы тестировали»
Более того, исследователи Cisco обнаружили, что DeepSeek R1 смогла обойти 100% ограничений при запросах на киберпреступления и незаконные действия.
Как это повлияет на рынок AI?
Несмотря на опасения, AWS и Microsoft уже интегрировали DeepSeek R1 в свои облачные платформы. Однако, ВМС США и Пентагон начали запрещать использование DeepSeek из-за вопросов безопасности.Сможет ли DeepSeek сохранить своё влияние, или строгие ограничения замедлят её рост? Пока Anthropic признаёт компанию серьёзным конкурентом среди ведущих AI-разработчиков.