«Враховуючи ризик і потужність передового штучного інтелекту, громадськість повинна бути проінформована про те, чому правління вважає, що вони повинні вжити таких рішучих заходів», — написав він в X (Twitter).
https://twitter.com/elonmusk/status/1726292759978668447
Нагадаємо, Сем Альтман разом з Ілоном Маском у 2015 році заснували лабораторію досліджень штучного інтелекту OpenAI, відому тепер всьому світу завдяки чат-боту ChatGPT та великим мовним моделям GPT.
Маск у 2018 році подав у відставку з правління, але залишився донором компанії. В інтерв’ю CNBC в травні поточного року він сказав, що зрештою інвестував в компанію близько 50 мільйонів доларів. Він також заявив, що OpenAI не приділяє достатньої уваги безпечній розробці ШІ. На початку року написав листа з вимогою, аби компанія зупинила свої розробки, доки не надасть гарантії безпеки.
Попри висловлені у листі попередження про небезпеку ШІ, у квітні Маск сам зареєстрував компанію xAI, що опікується саме цією технологією.
NV писав, що у п’ятницю, 17 листопада, OpenAI звільнила свого генерального директора Сема Альтмана. Звільнення Альтмана, який очолював OpenAI з 2019 року, пояснили тим, що компанія «більше не впевнена в його здатності продовжувати лідирувати», а також тим, що він «не завжди був відвертим» з управлінням.
Водночас можливою причиною усунення Альтмана називають зростання напруги серед керівництва компанії через небезпеку штучного інтелекту для людства. Стало відомо, що Альтман наполегливо шукав фінансування для розширення розвитку технології, тоді як кілька інших членів правління закликали компанію зробити більше для пом’якшення потенційних загроз. Зокрема, The New York Times писала, що співзасновник OpenAI Ілля Суцкевер ще до усунення Альтмана створив у компанії команду Super Alignment, яка працювала над тим, аби забезпечити, що їхні розробки GPT-4 та ChatGPT не будуть шкідливими для людства.
Читайте про це у новому номері NV, що можна придбати тут