І це станеться дуже швидко, оскільки нейромережі постійно навчаються.
«Згодом помилки в згенерованих даних накопичуються і в кінцевому підсумку змушують моделі, які навчаються на згенерованих даних, ще більше спотворювати реальність, — написав один із провідних авторів статті Ілля Шумайлов в електронному листі VentureBeat. — Ми були здивовані, побачивши, як швидко відбувається колапс: моделі можуть швидко забути більшу частину вихідних даних, на основі яких вони спочатку вчилися».
Інший автор статті, Росс Андерсон, професор техніки безпеки в Кембриджському та Единбурзькому університетах, у своєму блозі порівняв роботу ШІ із забрудненням навколишнього середовища: «Так само, як ми закидали океан пластиковим сміттям і наповнили атмосферу вуглецем двоокису, ми збираємося заповнити Інтернет усілякими дурницями. Це ускладнить навчання нових моделей шляхом парсингу веб-сторінок, що дасть перевагу організаціям, які вже зробили це або контролюють доступ до людських інтерфейсів у масштабі».