Гендиректор Anthropic: DeepSeek представляет угрозу безопасности AI


DeepSeek не проходит тесты безопасности: мнение Anthropic

Генеральный директор Anthropic Дарио Амодей выразил серьёзные опасения по поводу китайской AI-компании DeepSeek. По его словам, её модель R1 не смогла пройти тест на генерацию опасной информации, связанной с биологическим оружием.

Почему это вызывает тревогу?

Anthropic регулярно проверяет AI-модели на способность генерировать опасные данные, которых нет в открытых источниках. По словам Амодея:

«Результаты DeepSeek оказались худшими среди всех моделей, которые мы тестировали»

Более того, исследователи Cisco обнаружили, что DeepSeek R1 смогла обойти 100% ограничений при запросах на киберпреступления и незаконные действия.

Как это повлияет на рынок AI?

Несмотря на опасения, AWS и Microsoft уже интегрировали DeepSeek R1 в свои облачные платформы. Однако, ВМС США и Пентагон начали запрещать использование DeepSeek из-за вопросов безопасности.

Сможет ли DeepSeek сохранить своё влияние, или строгие ограничения замедлят её рост? Пока Anthropic признаёт компанию серьёзным конкурентом среди ведущих AI-разработчиков.

Опубликовано: 09.02.2025 03:53