DeepFake готов любого из нас превратить в подонка | Мозгократия
 

DeepFake готов любого из нас превратить в подонка

Теперь любое человеческое существо, не знающее, что такое совесть, но владеющее компьютерными технологиями, может обесчестить самого порядочного гражданина. И, похоже, это только начало. 

 

Технология DeepFake завоёвывает планету. Стремительно. Даже молниеносно. DeepFake  слово-гибрид из английского Deep Learning — технология глубокого машинного обучения и Fake — подделка. DeepFake — это революциякоторая ставит крест на многотысячелетнем стремлении человечества к высокой морали и нравственности. Эта технология уже готова погубить не только отдельных людей, но и весь наш мир.  

Технология DeepFake позволяет синтезировать любые видеоизображения, соединять и накладывать имеющиеся снимки и видео на любые другие снимки или видеоролики. Вот совсем недавно вспыхнул ажиотаж вокруг DeepNude, простенькой программы, которая использует искусственный интеллект и нейросетевой анализ, чтобы раздевать женщин. Вставляешь фотографию дамы или девицы в пальто и через 30 секунд получаешь соблазнительное ню. 

Программкой торговал некий разработчик с ником «Альберто», причём за 50 долларов продавал приложение, производящее «голые фотографии» с предупреждением Fake, а за 100 — «чистые», которые потом можно отправить ревнивому мужу означенной дамы или разослать фото одноклассникам, чтобы опозорить бывшую подружку. 

Спрос на доступный DeepNude был так велик, что обрушил серверы продавца. Но это ничего, он поднакопит мощностей и вернётся на рынок. 

С помощью программ DeepFake можно соорудить порноролик с участием Мишель Обамы или Скарлетт Йохансон, что и было проделано ещё в 2017 году, когда такое «глубокое обучение» знаменитостей требовало времени и специального оборудования. Вал фальшивого порно с участием звёзд напугал даже циничных и беспринципных администраторов Reddit, и они изгнали сообщество DeepPorn, полностью удалив разделы, посвящённые порно, созданному с помощью нейросетей, и ужесточив правила их размещения. 

С помощью программ DeepFake можно заставить Барака Обаму повторить речь Адольфа Гитлера, а действующего спикера Палаты представителей США Нэнси Пелоси — заикаться и заговариваться, словно она прежде, чем выйти на трибуну, хлебнула полбутылки виски. Можно всё. 

ХХ век приучил нас к тому, что видео и аудио  это документы, неопровержимое подтверждение истины. В Нюрнберге кинокадры использовались как вещественные доказательства преступлений, совершённых нацистами. Аудиоплёнки из Белого дома чуть не довели президента Ричарда Никсона до импичмента и погубили его политическую карьеру. Американские социологи убеждены, что массовые протесты против войны во Вьетнаме связаны именно с тем, что люди впервые увидели войну. Именно поэтому на все последующие войны фотокоров, теле— и кинооператоров пускали очень дозированно, заранее предполагая, что именно они могут снять и что, соответственно, увидит мир.  

Видео погубило не одну политическую карьеру — вспомните хотя бы Генерального прокурора Юрия Скуратова или австрийского вице-канцлера ХайнцаКристиана Штраха, которых уничтожило заснятое на видео общение с русскими девушками.  

Но теперь мы входим в дивный новый мир, в котором можно скомпрометировать кого угодно и как угодно, даже не выходя из дома или из офиса. Жертва будет произносить такие речи и проделывать якобы перед видеокамерой такие вещи, после которых ей останется только одно — уехать в тайгу, на необитаемый остров или покончить с собой. 

При этом возможности полнейшей дискредитации личности не ограничиваются речами и порнухой. Можно будет ссорить лучших друзей и подруг, показав, как они за глаза называют друг друга «земляным червяками» или «пятнистыми лягушками», можно будет разрушать крепкие семьи, разорять банки и банкротить успешные компании. Представьте себе ставшую вирусной видяшку с заседанием правления уважаемого банка, где они рассуждают о грядущем бегстве с капиталами, или, например, ролики из каких-нибудь сетей модного питания с червяками в пирогах, бургерах и пиццах… Можно всё 

Можно даже развязать войну. И легко. Без особых затрат. Помните старинный американский фильм «Хвост управляет собакой»? 

На всякий случай, вкратце напомню сюжет. Скоро президентские выборы в США, а президента обвиняют в сексуальных домогательствах. (Снимали ещё до истории с Биллом Клинтоном и Моникой Левински.) Опросы общественного мнения показывают, что рейтинг президента стремительно падает. Надо срочно что-то предпринять, чтобы отвлечь внимание общественности от адюльтера в Белом доме. Советник президента Конрад Брин  обаятельнейший Роберт Де Ниро  приглашает профессионала из Голливуда кинопродюсера Стэнли Мотсса (не менее обаятельного Дастина Хоффмана). И они на пару, с помощью всей голливудской рати, устраивают войну с некоей албанской террористической группировкой. Американскому обывателю показывают ролики о страданиях албанского народа, патриотические военные ролики, псевдоинтервью с беженцами, дают слушать песни о солдатах выдуманной войны, американский президент для противостояния террористической угрозе албанского правительства стягивает авианосную группировку, имитируется заброс американских диверсантов в Албанию, и одного из диверсантов якобы захватывают в плен. В общем, на войне, как на войне. А потом победа  на войне и на выборах. Герои похоронены с почестями, а президент остаётся в Белом доме на второй срок(Кстати, фильм не такой уж нереалистичный. Билл Клинтон гасил скандал с Левински с помощью ракетных ударов по Судану и Афганистану.) 

Тогда в фильме для развязывания фальшивой войны потребовалась вся мощь Голливуда. Сегодня это может сделать любой продвинутый айтишник за 30 секунд, да так, что комар носа не подточит. 

А теперь представьте мир, в котором Дональду Трампу показывают видео, на котором президент России обсуждает со своими генералами, как новое стратегическое оружие русских нанесёт ядерный удар по Пентагону, или ещё что-нибудь не менее злокозненное…  

С помощью DeepFake можно кого угодно заставить обсуждать что угодно, хоть прелести Мелании Трамп, хоть атаку на Вашингтон, хоть грядущий Апокалипсис. Точно так же DeepFake может устроить порновечеринку в Москве с участием самого Трампа. 

Но про себя-то Трамп знает, что ничего такого не делал, и зычно выкрикнет: «Fakenews!».  

А про этих русских, которые за стенами Кремля вечно плетут страшные антиамериканские интригион знает гораздо меньше и чаще всего плохое, а потому может выкрикнуть не «Fakenews!», а что-нибудь похуже, и дело дойдёт до самого страшного.  

Пентагон уже обеспокоен появлением технологий, которые позволяют изготавливать сверхкачественные фальшивки. Говорят, лучшие силы брошены на то, чтобы научить искусственный интеллект распознавать подделки, сварганенные другим искусственным интеллектом. Рано или поздно научат, наверное. 

Но до той поры всем, а в особенности президентам и генералам лучше, придерживаясь сократовского завета, жить по принципу «я знаю, что ничего не знаю», и воздерживаться от роковых решений и резких движений, что бы им ни показали и ни дали послушать. 

Расскажите друзьям:

Your email address will not be published. Required fields are marked *

Вы можете использовать следующие HTML тэги и атрибуты: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

4 × пять =