OpenAI использует ChangeMyView для оценки убедительности своих AI-моделей


OpenAI тестирует AI на убедительность с помощью ChangeMyView

Компания OpenAI использует популярный сабреддит r/ChangeMyView для оценки убедительности своих AI-моделей, включая o3-mini. Тестирование позволяет сравнить, насколько эффективно AI способен менять мнение людей в сравнении с человеческими аргументами.

r/ChangeMyView — это сообщество, где миллионы пользователей Reddit публикуют свои мнения, а другие участники пытаются убедить их изменить точку зрения. Этот сабреддит стал ценным ресурсом для AI-разработчиков, стремящихся обучать модели на качественных данных, созданных людьми.

[h3]Как OpenAI проводит тестирование?[h3]
OpenAI собирает посты с r/ChangeMyView, затем просит свои AI-модели написать в закрытой среде аргументированные ответы, способные изменить мнение пользователей Reddit. Эти ответы оценивают тестировщики, а затем сравнивают результаты AI с ответами реальных людей.

OpenAI заключила соглашение по лицензированию контента с Reddit, что позволяет компании обучать модели на данных пользователей. Хотя Google платит 60 млн долларов в год за доступ к данным Reddit, неизвестно, сколько платит OpenAI.

Тем не менее, OpenAI утверждает, что тест ChangeMyView не является частью сделки с Reddit. Однако остаётся неясным, как именно компания получила доступ к этим данным.

Проблемы этики и поиска качественных данных

Reddit уже обвинял AI-компании, включая Microsoft, Anthropic и Perplexity, в сканировании сайта без оплаты.

Кроме того, OpenAI сталкивается с судебными исками, обвиняющими компанию в незаконном сборе данных с сайтов, включая The New York Times, для улучшения ChatGPT.

Хотя GPT-4o, o3-mini и o1 показывают высокий уровень аргументации (80–90-й процентиль среди людей в r/ChangeMyView), OpenAI не стремится делать AI слишком убедительным.

«Модели рассуждений стали достаточно хороши в убеждении и обмане, поэтому OpenAI разработала новые методы защиты», — говорится в системном описании o3-mini.

Разработчики опасаются, что слишком убедительный AI может манипулировать людьми, что создаёт потенциальные риски злоупотребления.

AI-модели всё ещё нуждаются в качественных данных
Несмотря на обширное лицензирование контента и сканирование интернета, OpenAI продолжает испытывать нехватку качественных данных для тестирования своих AI-моделей.

Тест ChangeMyView показывает, что получить ценные наборы данных гораздо сложнее, чем кажется, а этические вопросы вокруг их использования остаются открытыми.

Опубликовано: 02.02.2025 05:03