Компания OpenAI, оператор чат-бота ChatGPT, занимается тестированием систем по отсеиванию нежелательной информации на базе искусственного интеллекта (ИИ). Об этом сообщило агентство Bloomberg со ссылкой на заявление представителя компании Андреа Валлоне.
По ее словам, нейросеть GPT-4, на основе которой сейчас работает ChatGPT, можно использовать для быстрой маркировки и фильтрации сообщений, что позволяет задействовать ее для разработки правил в отношении контента определенного рода. В фирме заявляют, что GPT-4 настолько успешно справляется с задачей модерации, что ее инструменты могут помочь компаниям «выполнить шестимесячную работу всего за день или около того».
В то же время Валлоне подчеркнула, что процесс отсеивания информации не следует полностью автоматизировать, поскольку «использование технологии для интерпретации нюансов человеческого письма может оказаться сложной задачей». В идеале фирмы могли бы использовать эту технологию, чтобы «освободить своим сотрудникам время для принятия более сложных решений» по вопросам модерации, пояснила она.
Агентство отмечает, что многие крупные компании, в том числе Meta, уже используют ИИ-технологии для поддержки работы сотрудников в сфере модерации контента.