Переписки в мессенджерах предложили мониторить для безопасности Это должно защитить детей от насилия
По данным Еврокомиссии, в 2021 году по всему миру было выявлено 85 миллионов фотографий и видеороликов с сексуальным насилием над несовершеннолетними, что на 64% больше, чем годом ранее. Эти данные были получены на добровольной основе от сервисов, специализирующихся на эротическом и порнографическом контенте.
Власти предложили создать базу под названием CSAM (Child Sexual Abuse Material), в которой будут храниться файлы от организаций по защите детей. Эти снимки и ролики, а также похожие на них файлы, система будет искать в соцсетях, мессенджерах и цифровых хранилищах.
Технология обнаружения CSAM основана на хешировании, поэтому если в какой-либо переписке вдруг появится файл с детской порнографией, искусственный интеллект сравнит его с хранящимся в базе и в случае совпадения хешей отправит на проверку модератору.
Интернет-сервисы должны будут сообщать об обнаруженном изображении или видеоролике в специальную службу при Еврокомиссии и самостоятельно удалить противоправный контент. В противном случае компании будет грозить штраф в размере до 6% от глобального годового оборота.
Подобную систему собиралась внедрить корпорация Apple:
Использованные источники: