Forklog
2024-04-24 11:46:14

Ведущие ИИ-компании обязались проверять датасеты на наличие материалов CSAM

Техгиганты вроде Google, Meta, OpenAI, Microsoft и Amazon согласились принять меры по предотвращению использования материалов о сексуальном насилии над детьми (CSAM) в обучающих наборах данных для искусственного интеллекта. Компании подписали новый набор принципов, призванных ограничить распространение подобного контента. Они пообещали: гарантировать, что обучающие наборы данных не содержат CSAM; избегать датасеты с высоким риском включения вредных материалов; удалять изображения CSAM или ссылки на них из источников данных. Компании также обязались проводить «стресс-тестирование» моделей ИИ. Это позволит убедиться, что они не генерируют изображения CSAM. Выпускать новые модели разработчики смогут лишь в том случае, если они прошли оценку на предмет детской безопасности.  В число подписавших соглашение входят также Anthropic, Civitai, Metaphysic, Mistral AI и Stability AI. ИИ усугубил проблему распространения CSAM Генеративный ИИ способствовал росту обеспокоенности по поводу дипфейков, в том числе распространению в сети поддельных фотографий CSAM. В декабре 2023 года исследователи Стэнфорда опубликовали доклад, в котором обнаружили, что популярный набор данных для обучения ИИ содержит ссылки на подобные изображения.  Они также выяснили, что телефонная линия Национального центра помощи пропавшим и эксплуатируемым детям (NCMEC) оказалась перегруженной изображениями CSAM, созданными искусственным интеллектом.  Некоммерческая организация Thorn утверждает, что ИИ-изображения помешают усилиям по выявлению жертв. Также это может создать дополнительный спрос на материалы CSAM, способствовать виктимизации детей, а также облегчить поиск информации о том, как делиться проблемными материалами. Помимо принятия новых обязательств, Google также пообещала увеличить рекламные гранты для NCMEC. Вице-президентка компании по решениям в области доверия и безопасности Сьюзан Джаспер отметила, что поддержка этих инициатив повышает осведомленность общественности и дает людям инструменты для выявления и сообщения о злоупотреблениях. Напомним, в октябре 2023 года британские эксперты сообщили о быстром распространении материалов CSAM, созданных с помощью искусственного интеллекта.  https://forklog.com/exclusive/ai/temnaya-era-ii-pochemu-etika-iskusstvennogo-intellekta-vazhna

Get Crypto Newsletter
Read the Disclaimer : All content provided herein our website, hyperlinked sites, associated applications, forums, blogs, social media accounts and other platforms (“Site”) is for your general information only, procured from third party sources. We make no warranties of any kind in relation to our content, including but not limited to accuracy and updatedness. No part of the content that we provide constitutes financial advice, legal advice or any other form of advice meant for your specific reliance for any purpose. Any use or reliance on our content is solely at your own risk and discretion. You should conduct your own research, review, analyse and verify our content before relying on them. Trading is a highly risky activity that can lead to major losses, please therefore consult your financial advisor before making any decision. No content on our Site is meant to be a solicitation or offer.