Краснодарские известия

Не стать тем самым пиплом, который хавает все

Старый, но недобрый видеохостинг

Целый поток фейкового продукта хлынул на пользователей YouTube. Деструктивного, противоправного, который целенаправленно стравливал людей из разных стран, но основная задача контента заключалась в настраивании их против россиян. Ненависть в квадрате — так некоторые эксперты назвали воспитываемое видеохостингом отношение к жителям России, а также тем, кто имеет российское гражданство, но проживает за рубежом. Материалы с альтернативной точкой зрения без зазрения совести на YouTube блокировались.

Самое интересное, что до сих пор непонятен принцип работы YouTube, как в видеохостинге решают, что попадет в ленту пользователей. Каждый зритель подвергается манипуляции и получает необъективную ленту видео. Главная задача рекомендательного сервиса — сильнее вовлечь пользователя в потребление и увеличить его время пребывания на платформе. Для этого хостинг предлагает новые и новые видео, используя ненавистнический контент для привлечения внимания.

Выход — привлечь иностранные компании к ответственности и контролировать соблюдение российского законодательства.  Но есть определенные проблемы в регулировании рекомендательных сервисов YouTube, они давно вызывали опасение у российских законодателей.

Рекомендательные алгоритмы многих сервисов тоже не так просты, как хотят казаться — в этом уверен автор правовой инициативы депутат ГД РФ, зампред комитета Госдумы по информационной политике, информационным технологиям и связи Антон Горелкин. Он считает, что американские власти фактически признали, что выстроили систему, напрямую влияющую на работу рекомендательных алгоритмов соцсетей.

— Скорее всего, искусственный интеллект действительно определяет посты, которые могут понравиться пользователю, однако у администрации всегда есть возможность повлиять на эту выдачу. Там тоже есть бэкдоры, инструменты влияния на выдачу и прочие сюрпризы. Может быть поэтому некоторые представители отрасли так сопротивляются законодательному регулированию рекомендаций? — высказал свое мнение Горелкин.

В июне парламентарий заявил, что интернет-сервисы, которые попадут под действие будущего закона о работе рекомендательных алгоритмов, будут обязаны ограничивать не предназначенный для детей контент и сообщать о мерах, которые они для этого предприняли.

Число зверя? Однако…

Про то, что площадка халатно относится как к модерации своего контента вообще, так и к появлению подобных ошибок и багов, говорит и руководитель рабочей группы Общественной палаты РФ по защите прав пользователей Интернета Александр Малькевич.

«У каждого видео, опубликованного на платформе, ссылка начинается с «www.youtube.com/watch?v=». Если стереть из слова watch символ с или h, YouTube показывает зрителю пугающее видео от пользователя «666». Материал представляет собой картину в рамке, на которой представлено четыре изуродованных младенца с вращающимися головами на фоне калейдоскопа из цветов», — написал Малькевич в своем телеграм-канале.

Член Общественной палаты также добавил, что невнимательность или же попросту нежелание отрабатывать деструктив — застарелая проблема площадки.

«YouTube систематически подсовывает своим пользователям, в том числе и детям, фейки об СВО, изображение трупов и убийств, а также другие жуткие ролики, не заботясь о безопасности своей аудитории», — высказал мнение Малькевич.

Обуздать неприятный контент

В течение последнего десятилетия правительства разных стран беспомощно наблюдали за тем, как их демократические процессы нарушались дезинформацией и ненавистническими высказываниями на таких сайтах, как Facebook компании Meta Platforms Inc., YouTube и Twitter Inc компании Alphabet Inc (деятельность Meta, владельца соцсетей Facebook и Instagram, запрещена в России как экстремистская). Теперь некоторые правительства готовятся к возмездию

В ближайшие два года Европа и Великобритания готовят законы, которые обуздают неприятный контент, которому социальные сети позволили стать вирусным. Было много скептицизма по поводу их способности заглянуть под капот таких компаний, как Facebook (деятельность признана экстремистской и запрещена в России). В конце концов, регулирующим органам не хватает технических знаний, рабочей силы и зарплат, которыми может похвастаться Big Tech. И есть еще одна техническая загвоздка: известно, что системы искусственного интеллекта, которые используют технические компании, трудно расшифровать.

Мануэль Рибейро — аспирант Швейцарского федерального технологического института провел свое исследование и выяснил, что пользователи YouTube подвергались радикализации под влиянием крайне правого контента на онлайн-платформе. Для этого не понадобился доступ к коду: исследователи просматривали комментарии, чтобы отследить, на какие каналы переходили пользователи. Это было похоже на отслеживание цифровых следов. В конечном итоге выяснилось, что зрителей YouTube заманивали на каналы сторонников радикальных идей с помощью инфлюенсеров.

Исследование Рибейро является частью более широкого круга исследований, в ходе которых отслеживались психологические побочные эффекты Facebook (деятельность признана экстремистской и запрещена в России) или YouTube без необходимости разбираться в их алгоритмах. Предлагая относительно поверхностное представление о том, как работают платформы социальных сетей, они все же могут помочь регулирующим органам наложить на платформы более широкие обязательства. Они могут варьироваться от найма специалистов по соблюдению требований — чтобы убедиться, что компания соблюдает правила — до предоставления аудиторам точных случайных выборок информации о том, к какому контенту стремятся люди. Это радикально отличается от той секретности, с которой до сих пор удавалось работать Big Tech. И это будет включать как новые технологии, так и новую политику. Для регулирую

Exit mobile version