Фото немовлят використовують з метою створення порнографічних зображень (Фото:zdenkam/Depositphotos)

Журналістка видання з’ясувала, що зловмисники пристосували застосунок Stable Diffusion, що генерує графічний контент, для створення порнографічних зображень із дітьми.

Видання виявило велику кількість порнографічних матеріалів із дітьми різного віку, зокрема немовлятами.

За запевненням Октавії Шипшенкс, позаштатного дослідника і журналіста BBC, деякі автори створюють не менше тисячі незаконних зображень на місяць. Коштують такі зображення недорого, журналістці вдалося знайти авторів, які продають їх за ціною від 3,85 до 8,5 доларів на місяць.

Оскільки законодавство Великої Британії, як і більшості західних країн, забороняє розміщення подібного контенту, зловмисники публікують зображення на ресурсах інших країн. Зокрема, у популярній японській соціальній мережі Pixiv, яка здебільшого використовується авторами та любителями манги й аніме.

Для створення фото використовується Stable Diffusion від Stability AI.

Stable Diffusion створює зображення на основі підказок користувача. Як і будь-яка інша модель ШІ, вона вчиться на основі відкритих даних, розміщених в інтернеті.

Stability AI заявила BBC, що «забороняє будь-яке неправомірне використання в незаконних або аморальних цілях на наших платформах, і наша політика ясно вказує на те, що це включає CSAM (матеріали про сексуальне насильство над дітьми).

Але зловмисників це не зупиняє.

Отримана Шипшенкс інформація показує одразу кілька проблем. По-перше, як карати авторів і споживачів незаконного контенту, якщо він створений без прямої участі дітей?

І друге, що тепер робити поліції? Представникам правоохоронних органів буде складно визначити, чи є графічні матеріали наслідком насильства над дитиною, чи нездорової фантазії користувача мережі.

От Admin