YouTube будет удалять видео, в которых ИИ «реалистично имитирует» жертв преступлений 

10 января
2024
YouTube будет удалять видео, в которых ИИ «реалистично имитирует» жертв преступлений
YouTube усиливает борьбу с контентом, «реалистически имитирующим» умерших несовершеннолетних или жертв смертельных или насильственных событий, описывая их смерть.

С этой целью платформа обновляет свою политику по поводу преследований и кибербуллинга. С 16 января указанный контент начнут удалять с YouTube.

Такие действия связаны с тем, что некоторые создатели контента используют искусственный интеллект, чтобы предоставить несовершеннолетним жертвам резонансных дел детский голос для описания того, что с ними произошло.

YouTube будет прибегать не только к удалению такого контента. Нарушители также получат предупреждение и не смогут загружать видео в течение недели. После трех предупреждений пользовательский канал навсегда будет удалять с YouTube.

Прошлой осенью стало известно, что YouTube потребует от авторов обозначать контент , который выглядит реалистично и создан с помощью искусственного интеллекта.

Тогда предупреждалось, что новые правила будут касаться контента, который создают с помощью инструментов ИИ для более реалистичного отображения никогда не происходивших событий. Речь также идет о видео с людьми, которые говорят или делают что-то, чего на самом деле не было.

Поиск по сайту