Старый, но недобрый видеохостинг
Целый поток фейкового продукта хлынул на пользователей YouTube. Деструктивного, противоправного, который целенаправленно стравливал людей из разных стран, но основная задача контента заключалась в настраивании их против россиян. Ненависть в квадрате — так некоторые эксперты назвали воспитываемое видеохостингом отношение к жителям России, а также тем, кто имеет российское гражданство, но проживает за рубежом. Материалы с альтернативной точкой зрения без зазрения совести на YouTube блокировались.
Самое интересное, что до сих пор непонятен принцип работы YouTube, как в видеохостинге решают, что попадет в ленту пользователей. Каждый зритель подвергается манипуляции и получает необъективную ленту видео. Главная задача рекомендательного сервиса — сильнее вовлечь пользователя в потребление и увеличить его время пребывания на платформе. Для этого хостинг предлагает новые и новые видео, используя ненавистнический контент для привлечения внимания.
Выход — привлечь иностранные компании к ответственности и контролировать соблюдение российского законодательства. Но есть определенные проблемы в регулировании рекомендательных сервисов YouTube, они давно вызывали опасение у российских законодателей.
Рекомендательные алгоритмы многих сервисов тоже не так просты, как хотят казаться — в этом уверен автор правовой инициативы депутат ГД РФ, зампред комитета Госдумы по информационной политике, информационным технологиям и связи Антон Горелкин. Он считает, что американские власти фактически признали, что выстроили систему, напрямую влияющую на работу рекомендательных алгоритмов соцсетей.
— Скорее всего, искусственный интеллект действительно определяет посты, которые могут понравиться пользователю, однако у администрации всегда есть возможность повлиять на эту выдачу. Там тоже есть бэкдоры, инструменты влияния на выдачу и прочие сюрпризы. Может быть поэтому некоторые представители отрасли так сопротивляются законодательному регулированию рекомендаций? — высказал свое мнение Горелкин.
В июне парламентарий заявил, что интернет-сервисы, которые попадут под действие будущего закона о работе рекомендательных алгоритмов, будут обязаны ограничивать не предназначенный для детей контент и сообщать о мерах, которые они для этого предприняли.
Число зверя? Однако…
Про то, что площадка халатно относится как к модерации своего контента вообще, так и к появлению подобных ошибок и багов, говорит и руководитель рабочей группы Общественной палаты РФ по защите прав пользователей Интернета Александр Малькевич.
«У каждого видео, опубликованного на платформе, ссылка начинается с «www.youtube.com/watch?v=». Если стереть из слова watch символ с или h, YouTube показывает зрителю пугающее видео от пользователя «666». Материал представляет собой картину в рамке, на которой представлено четыре изуродованных младенца с вращающимися головами на фоне калейдоскопа из цветов», — написал Малькевич в своем телеграм-канале.
Член Общественной палаты также добавил, что невнимательность или же попросту нежелание отрабатывать деструктив — застарелая проблема площадки.
«YouTube систематически подсовывает своим пользователям, в том числе и детям, фейки об СВО, изображение трупов и убийств, а также другие жуткие ролики, не заботясь о безопасности своей аудитории», — высказал мнение Малькевич.
Обуздать неприятный контент
В течение последнего десятилетия правительства разных стран беспомощно наблюдали за тем, как их демократические процессы нарушались дезинформацией и ненавистническими высказываниями на таких сайтах, как Facebook компании Meta Platforms Inc., YouTube и Twitter Inc компании Alphabet Inc (деятельность Meta, владельца соцсетей Facebook и Instagram, запрещена в России как экстремистская). Теперь некоторые правительства готовятся к возмездию
В ближайшие два года Европа и Великобритания готовят законы, которые обуздают неприятный контент, которому социальные сети позволили стать вирусным. Было много скептицизма по поводу их способности заглянуть под капот таких компаний, как Facebook (деятельность признана экстремистской и запрещена в России). В конце концов, регулирующим органам не хватает технических знаний, рабочей силы и зарплат, которыми может похвастаться Big Tech. И есть еще одна техническая загвоздка: известно, что системы искусственного интеллекта, которые используют технические компании, трудно расшифровать.
Мануэль Рибейро — аспирант Швейцарского федерального технологического института провел свое исследование и выяснил, что пользователи YouTube подвергались радикализации под влиянием крайне правого контента на онлайн-платформе. Для этого не понадобился доступ к коду: исследователи просматривали комментарии, чтобы отследить, на какие каналы переходили пользователи. Это было похоже на отслеживание цифровых следов. В конечном итоге выяснилось, что зрителей YouTube заманивали на каналы сторонников радикальных идей с помощью инфлюенсеров.
Исследование Рибейро является частью более широкого круга исследований, в ходе которых отслеживались психологические побочные эффекты Facebook (деятельность признана экстремистской и запрещена в России) или YouTube без необходимости разбираться в их алгоритмах. Предлагая относительно поверхностное представление о том, как работают платформы социальных сетей, они все же могут помочь регулирующим органам наложить на платформы более широкие обязательства. Они могут варьироваться от найма специалистов по соблюдению требований — чтобы убедиться, что компания соблюдает правила — до предоставления аудиторам точных случайных выборок информации о том, к какому контенту стремятся люди. Это радикально отличается от той секретности, с которой до сих пор удавалось работать Big Tech. И это будет включать как новые технологии, так и новую политику. Для регулирую