Суцкевер і Ян Лейке, керівник групи з оптимізації OpenAI, у свіжій статті припустили, що ШІ, який перевершить людину в плані розумових здібностей, може з’явитися протягом десятиліття. На думку вчених, такий ШІ не обов’язково буде доброзичливим. Саме тому важливо дослідити механізми його потенційного контролю та управління.
«Наразі у нас немає рішення, як керувати або контролювати потенційно надінтелектуальний ШІ і не дати йому вийти з-під контролю. Наші нинішні методи управління ШІ, такі як навчання з підкріпленням на основі людського зворотного зв’язку, покладаються на здатність людей контролювати ШІ. Але люди не зможуть надійно контролювати системи ШІ, які набагато розумніші за нас», — ідеться в матеріалі керівників OpenAI.
Нова команда Суцкевера і Лейке отримала назву Superalignment, а її головне завдання звучить як «оптимізація суперінтелекту». Колектив зможе використовувати 20% обчислювальних потужностей компанії. Протягом чотирьох років вчені за допомогою дослідників з інших напрямків OpenAI повинні вирішити основні технічні проблеми управління надрозумними ШІ.
Суцкевер і Лейке в новій команді хочуть навчити штучний інтелект оцінювати інші системи ШІ. Однак фахівці OpenAI визнають поточні обмеження компанії і розуміють, що такий метод не ідеальний. Застосування ШІ для аналізу інших ШІ може призвести до збільшення невідповідностей і вразливостей усередині системи. І в результаті виявиться, що головні проблеми «оптимізації суперінтелекту» будуть взагалі не пов’язані з інженерією.