Викладачі неодноразово висловлювали публічне невдоволення доступністю чат-ботів для школярів і студентів, які застосовують їх у своїх роботах. AI Classifier мав стати інструментом, який допоміг би справедливо оцінювати тексти. Але навіть під час анонсу цієї утиліти OpenAI вказувала на низьку результативність. Компанія чесно зізналася, що AI Classifier зміг визначити використання ШІ під час написання текстів тільки в 26% випадків.
Показники не змогли поліпшити, через що OpenAI ухвалила рішення закрити проект. Причому про це згадали лише на сторінці, присвяченій інструменту. Окремої заяви компанія не випускала.
«Ми працюємо над врахуванням відгуків і наразі досліджуємо ефективніші методи підтвердження автентичності тексту, а також узяли на себе зобов’язання розробити й упровадити механізми, які дадуть змогу користувачам зрозуміти, чи є аудіо- або візуальний контент згенерованим штучним інтелектом», — написали представники OpenAI.
Нагадаємо, разом зі зростанням штучного інтелекту з’являються технології, які протидіють ШІ. Сюди належить розробка Массачусетського технологічного інституту під назвою PhotoGuard. Вона не дає змоги нейромережам проводити операції із зображеннями.