
Всего за несколько лет футуристичный и лаконичный термин стал обывательским для продвинутой части человечества. При этом лишь немногие понимают, что это вообще такое, имея дело лишь с последствиями в виде забавных программ на смартфон и роликов. Но уже сегодня нейросети поднимают сложнейшие вопросы на разных уровнях: морали, закона и науки. Эта технология умудрилась стать как источником новых идей, так и проблем. Что же это вообще такое и чего нам ждать в будущем?
Идея нейросети заключается в том, чтобы собрать сложную структуру из очень простых элементов. Если еще проще — это наглядное олицетворение шутки про тысячу обезьян с печатными машинками, которые спустя миллионы лет выдают копию «Войны и мир». Однако в 21-м веке ученые сократили этот срок до пары минут (вжух, и с вашего селфи улыбается уже старик со знакомым вам взглядом).
Говоря более научным языком, речь идет о машинном обучении. Каждый нейрон — перцептрон — программируется на определенную задачу. При верном варианте он получает «премию», при ошибке — «штраф». Спустя множество попыток он и его собратья приводят нас к нужному решению. Чем больше нейронов-обезьян, тем быстрее и качественнее выполняется задача.
Нейросети 2021 года — это настолько всеобъемлющее явление, что распространяется на практически все сферы деятельности. Они научились распознавать участки поврежденных лесов, анализировать данные биопсии, искать потенциально опасные астероиды, создавать музыку, прогнозировать успех кинофильма по сюжету и воссоздавать по электроактивности мозга изображения, которые человек видит в данный момент. Поэтому здесь мы поговорим именно о тех, что связаны с изображениями и видео.
Одна из главных возможностей и одновременно угроз со стороны нейросетей — почти 100%-ная имитация человека, будь то на фотографии либо видео. Дипфейки (фальшивые изображения человека) сегодня практически идеально выполняют свою работу. В декабре 2020 года на британском телевидении показали скандальное выступление королевы Елизаветы II. Глава английской монархии весьма неподобающе высказалась о членах семьи и правительстве и даже станцевала. На деле же это сделала актриса Дебра Стивенсон благодаря оскароносной студии спецэффектов Framestore.
Распознать фальшивку было бы просто невозможно без соответствующего объяснения. При этом голос королевы принадлежал актрисе, хотя авторы вполне могли добиться полного копирования — еще в 2018 году пекинская компания Baidu создала роботизированную систему, воспроизводящую человеческую речь, с точностью копируя ее уникальные характеристики.
Deep Voice идеально имитирует тембр и интонации голоса. В теории ее можно использовать для создания персонализированных цифровых помощников, озвучивания, оказания услуг по автоматическому синхронному переводу и даже помощи немым. На деле же благо грозит легко обернуться злом — такую прекрасную возможность способны использовать мошенники самого разного уровня для преступлений масштабов от получения доступа к банковскому счету до государственного переворота.
Вкупе с дипфейком, дипвойс создает первоклассную иллюзию чужой/ненастоящей личности. Совсем недавно интернет-пользователи поразились смешным роликам с актером Томом Крузом. Если бы не подсказка в названии «его» нового аккаунта, мало кто бы догадался, что звезду пародирует другой актер. Вообще в соцсетях уже пару лет пользуются огромной популярностью короткие сцены из фильмов, где одна знаменитость заменена на другую.
Многие уверены, что совсем скоро это приведет к целым «пересъемкам» кинолент и созданию онлайн-конструкторов, где желающие смогут заменить лицо персонажа на физиономию любимого кумира, не тратя миллионы долларов, как это сделала в свое время Warner Bros., чтобы убрать усы Генри Кавилла в «Лиге справедливости». Однако оборотной стороной такого светлого будущего очевидно является возможность очернить человека.
Еще в начале развития нейросетей начали появляться порно-ролики с «участием» знаменитых актрис. Галь Гадот, Скарлетт Йоханссон и другие секс-символы внезапно оказались героинями фильмов для взрослых. Со временем этот инструмент стал доступен любому с достаточно хорошим оборудованием, а в ближайший год порно-контент со знаменитостями и просто знакомыми людьми сможет сделать «на коленке» абсолютно каждый.
Уже сейчас в Telegram доступны каналы, «раздевающие» любого человека. Достаточно загрузить фотографию девушки в купальнике и нейросеть с переменным успехом уберет все элементы одежды. А приложения, изначально «омолаживающие» и «старящие» лица, научились первоклассно заменять их. Теперь, чтобы взять фото голой модели и вставить туда лицо подруги, не нужно обладать навыками владения «фотошопа».
Естественно уже к 2021 году мир может «похвастаться» первыми прецедентами на этой почве — когда человек позорит другого, создавая с ним дипфейки и распространяя в сети. В марте этого года жительница США с помощью дипфейков решила выгнать соперниц из группы поддержки дочери. Она отправляла измененные с помощью ИИ фотографии и видео подростков, на которых они якобы изображались пьяными или курящими. И это еще обошлось без пошлостей.
Однако все это «цветочки» по сравнению с тем, что специалисты из Вашингтонского университета опубликовали еще в 2017 году. Ученые разработали компьютерный алгоритм, позволяющий адаптировать мимику изображенного человека к стороннему аудиоряду. Стараниями нейросети бывший президент США Барак Обама в одном из последних видеовыступлений заговорил с мимикой себя молодого, из другого ролика. Речь была та же, но опять же ее можно было синтезировать и вставить другие слова. Ниже — похожий пример с известным актером и режиссером Джорданом Пилом.
А теперь давайте представим, как новый глава Мьянмы, находящейся в режиме военного переворота, неожиданно предстает перед жителями страны в интернете, приказывающим расстрелять мирных граждан. То же лицо, тот же голос, та же мимика, а само видео достаточно «плохого» качества, чтобы не суметь распознать подделку. В теории такой «вирусный» ролик может сделать любая организация и загрузить анонимно в сеть, спровоцировав масштабные процессы, как внутри страны, так и на международном поле. Разбираться будут уже на руинах государства.
И бонусом к этим невероятным возможностям идет еще одна способность нейросетей. В феврале 2020 года веб-инженер в Google Джейсон Майерс опубликовал код программы, распознающей человека и удаляющей его из видеоролика. Получая изображение, программа анализирует состав фона и запоминает его. Когда в кадре оказывается человек, его фигура заменяется участками фона. Теперь стереть «ненужную» личность из ролика — легче легкого.
Конечно же все это приводит к очевидному выводу о необходимости специальных программ, разоблачающих дипфейки. Время от времени такие действительно появляются. В феврале 2021 года Министерство внутренних дел России объявило тендер на создание алгоритма для выявления «внутрикадрового монтажа». Сумма контракта составляет почти 4,8 миллиона рублей. Однако многие специалисты уверены, что деньги уйдут в пустоту.
На Зимней конференции по применению компьютерного зрения, которая прошла в январе этого года американские исследователи экспериментально подтвердили возможность обмануть любое существующее решение для выявления поддельных роликов. Даже наспех состряпанный дипфейк определялся детектором как реальная запись. И с каждым годом технология будет лишь усложняться, снижая шансы на ее разоблачение.
Интернет-пользователям остается лишь полагаться на собственное чутье, внимание логику. Именно благодаря этим качествам удалось разоблачить в марте этого года японскую байкершу из Instagram под ником azusagakuyuki. Молодая привлекательная девушка, рассказывающая о мотоциклах тысячам подписчиков, оказалась 50-летним мужчиной. Кое-кто заметил грубоватость рук и подозрительные отражения в зеркале. Байкер пользовался приложением, аналогичным FaceApp.