Автор -
Жодна з цих людей не існує. Ці зображення
були створені з використанням технології
deepfake. thispersondoesnotexist.com
Минулого місяця під час хітового
документального серіалу ESPN "останній
танець" State Farm дебютував телевізійним
рекламним роликом , який став одним з
найбільш широко обговорюваних оголошень.
Виявилося, що він показує кадри з 1998
року аналітики ESPN, робить надзвичайно
точні прогнози про 2020 році.
Як виявилося, кліп не був справжнім: він
був створений з використанням
ультрасучасної технології штучного
інтелекту. Ролик здивував, потішив і
порадував глядачів.
Однак те, що повинні були відчувати
глядачі, викликало глибоку стурбованість.
Реклама State Farm була хорошим прикладом
важливого і нового небезпечного явища
у сфері штучного інтелекту: deepfakes.
Технологія Deepfake дозволяє будь-якій
людині з комп'ютером і підключенням до
інтернету створювати реалістичні
фотографії і відео людей, що говорять
і роблять те, що вони насправді не
говорили і не робили.
Комбінація фраз "deep learning" та "fake",
deepfakes вперше з'явилася в Інтернеті в
кінці 2017 року, спираючись на інноваційний
новий метод глибокого навчання, відомий
як генеративні змагальні мережі (GANs).
Кілька deepfake відео стали на днях вірусними,
даючи мільйонам людей по всьому світу
їх перший смак цієї нової технології:
президент Обама , використовуючи лайливе
слово для опису президента Трампа, Марк
Цукерберг , визнавший , що справжня мета
Facebook-маніпулювати і експлуатувати його
користувачів, Білл Хадер перетворюється
в Аль Пачіно на нічних ток-шоу.
Кількість контенту deepfake в інтернеті
зростає швидкими темпами. На початку
2019 року в інтернеті було 7 964 відео
deepfake, згідно зі звітом від запуску
Deeptrace; усього через дев'ять місяців ця
цифра підскочила до 14 678. З тих пір він,
безсумнівно, продовжував роздуватися.
Хоча це вражає, сьогоднішня технологія
deepfake все ще не зовсім відповідає справжнім
відеоматеріалам—уважно дивлячись, як
правило, можна сказати, що відео-це
deepfake. Але технологія удосконалюється
з запаморочливою швидкістю. Експерти
прогнозують, що deepfakes буде не відрізняється
від реальних зображень найближчим
часом.
"У січні 2019 року deep fakes були глючными
і мерехтливими", - сказав Хані Фарід,
професор Університету Берклі та експерт
deepfake. - Дев'ять місяців потому, я ніколи
не бачив нічого подібного до того, як
швидко вони ідуть. Це лише верхівка
айсберга."
Сьогодні ми стоїмо в точці перегину. У
найближчі місяці і роки deepfakes загрожує
перетворитися з інтернет-дивака в широко
деструктивну політичну і соціальну
силу. Суспільство повинно діяти зараз,
щоб підготуватися.
Коли Побаченому - Не Віриш
Перший приклад використання, до якого
технологія deepfake була широко застосована—
як це часто буває з новими технологіями—це
порнографія. Станом на вересень 2019 року,
96% deepfake відео онлайн були порнографічними,
згідно зі звітом Deeptrace.
З'явилося кілька веб-сайтів, спеціально
присвячених порнографії deepfake, які в
сукупності зібрали сотні мільйонів
переглядів за останні два роки. Deepfake
порнографія майже завжди не за взаємною
згодою, включаючи штучний синтез явних
відео, які показують відомих знаменитостей
або особистих контактів.
З цих темних куточків інтернету
використання deepfakes почало поширюватися
в політичну сферу, де потенціал для
хаосу ще більше.
Це не вимагає великої уяви, щоб зрозуміти
шкоду, яку може бути завдано, якщо цілим
народам можуть бути показані сфабриковані
відео, які вони вважають реальними.
Уявіть собі deepfake кадри політика, що
займається хабарництвом або сексуальним
насильством прямо перед виборами; або
солдатів, які чинять звірства проти
цивільних осіб за кордоном; або президента,
оголошує про запуск ядерної зброї. У
світі, де існує навіть певна невизначеність
щодо того, чи є такі кліпи справжніми,
наслідки можуть бути катастрофічними.
Завдяки широкій доступності цієї
технології такі кадри можуть бути
створені ким завгодно: державними
діячами, політичними групами, окремими
особами.
У нещодавній доповіді Інститут Брукінгса
похмуро підсумував ряду політичних і
соціальних небезпек, які deepfakes
представляють: "Кривий демократичний
дискурс; маніпулювання виборами; підрив
довіру до інститутів; ослаблення
журналістики; посилення соціальног
розколу; підрив громадської безпеки, а
також заподіяння важко відновлюваних
пошкоджень на репутації відомих людей,
в тому числі виборних посадових осіб і
кандидатів на виборні посади."
Враховуючи ставки, американські
законодавці почали звертати на це увагу.
"В старі часи, якщо ви хотіли загрожувати
Сполученими Штатами, вам потрібно було
10 авіаносців, і ядерну зброю, і ракети
дальнього радіусу дії",-сказав
нещодавно американський сенатор Марко
Рубіо. “Сьогодні....все, що вам потрібно,
- це можливість створити дуже реалістичне
підроблене відео, яке може підірвати
наші вибори, яке може кинути нашу країну
у величезну внутрішню криуа і глибоко
послабити нас."
Технологи згодні. За словами Хані Фаріда,
одного з провідних світових експертів
з deepfakes: "якщо ми не можемо повірити
в відео, аудіо, зображення, інформацію,
яка збирається з усього світу, то це
серйозний ризик для національної
безпеки."
Цей ризик уже не просто гіпотетичний:
є ранні приклади того, як deepfakes впливають
на політику в реальному світі. Експерти
попереджають, що ці інциденти-канарки
у вугільній шахті.
Минулого місяця політична група в
Бельгії випустила відео deepfake, в якому
прем'єр-міністр Бельгії виступив з
промовою, яка зв'язала спалах COVID-19 з
екологічним збитком і закликала до
рішучих дій щодо зміни клімату. Принаймні,
деякі глядачі повірили, що промова була
справжньою.
Ще більш підступно те, що сама можливість
того, що відео може бути deepfake, може
викликати плутанину і полегшити
політичний обман, незалежно від того,
чи була використана технологія deepfake.
Найбільш яскравий приклад цього можна
знайти в Габоні, невеликій країні в
Центральній Африці.
Наприкінці 2018 року президент Габону
Алі Бонго вже кілька місяців не з'являвся
на публіці. Ходили чутки, що він вже
недостатньо здоровий для своєї посади
або навіть що він помер. У спробі розвіяти
ці побоювання і знову утвердити лідерство
Бонго в країні його адміністрація
оголосила, що він виступить із
загальнонаціональним телезверненням
у день Нового року.
У відеозверненні (яке
варто вивчити на власні очі) Бонго
виглядає манірним і неприродним, з
неприродною мовою і манерами. Відеозапис
відразу ж розпалив підозри, що уряд щось
приховує від громадськості. Політичні
опоненти Бонго заявили, що ці кадри були
глибоко сфабриковані і що президент
був недієздатним або мертвим. Чутки про
змову deepfake швидко поширилися в соціальних
мережах.
Політична ситуація в Габоні стрімко
дестабілізувалася. Протягом тижня
військові почали державний переворот—перший
в країні з 1964 року-посилаючись на
новорічне відео в якості доказу того,
що з президентом щось не так.
Донині експерти не можуть остаточно
сказати, чи було новорічне відео
справжнім, хоча більшість вважають, що
було. (Переворот виявився невдалим; з
тих пір Бонго з'явився на публіці і
залишається на своєму посту сьогодні).
Але чи було це відео реальним, майже не
має значення. Більш великий урок полягає
в тому, що поява deepfakes зробить все більш
важчим для громадськості розрізняти,
що є реальним і що є підробленим, ситуація,
яку політичні актори неминуче будуть
використовувати—з потенційно руйнівними
наслідками.
"Люди вже використовують той факт,
що deepfakes існує, щоб дискредитувати
справжні відеодокази, - сказав професор
USC Хао лі. - навіть якщо є кадри, на яких
ви щось робите або говорите, ви можете
сказати, що це був deepfake, і дуже важко
довести зворотне."
У двох нещодавніх інцидентах політики
В Малайзії і Бразилії намагалися уникнути
наслідків компрометуючих відеоматеріалів,
стверджуючи, що ці відеозаписи були
глибоко сфабриковані. В обох випадках
ніхто не зміг остаточно встановити
іншого—і громадська думка залишилася
розділеною.
Дослідник Авів Овадья попереджає про
те, що вона називає "апатією реальності":
"це занадто багато зусиль, щоб
з'ясувати, що реально, а що ні, тому ви
більше готові просто залишатися з тим,
яким ваші попередні зв'язки є."
У світі, в якому бачення більше не є
довіреним, здатність великої спільноти
домовитися про те, що є істинним, а тим
більше вступити в конструктивний діалог
про це, раптово здається сумнівною.
Гра в технологічні кішки-мишки
Основна технологія, яка робить deepfakes
можливим, є гілкою глибокого навчання,
відомою як генеративні змагальні мережі
(GANs). GANs були винайдені Яном Гудфеллоу
у 2014 році під час його докторської
дисертації в Монреальському університеті,
одному з провідних світових науково-дослідних
інститутів у галузі штучного інтелекту.
У 2016 році AI great Yann LeCun назвав GANs "
найбільш цікавою ідеєю за останні десять
років в області машинного навчання."
До розвитку GANs нейронні мережі були
вправні в класифікації існуючого
контенту (наприклад, розуміння мовлення
або розпізнавання осіб), але не у створенні
нового контенту. Ганс дав нейронним
мережам здібність не лише сприймати,
але й створювати.
Концептуальний прорив Гудфеллоу полягав
у тому, щоб побудувати GANs, використовуючи
дві окремі нейронні мережі—одну відому
як "генератор", іншу відому як
"дискримінатор"—і протиставити
їх одна одній.
Починаючи з заданого набору даних
(скажімо, колекції фотографій людських
осіб), генератор починає генерувати
нові зображення, які з точки зору пікселів
математично схожі на існуючі зображення.
Між тим, дискримінатор подає фотографії,
не повідомляючи, чи є вони з вихідного
набору даних або з вихідних даних
генератора; його завдання полягає в
тому, щоб визначити, які фотографії були
синтетично згенеровані.
Оскільки ці дві мережі послідовно
працюють одна проти одної—генератор
намагається обдурити дискримінатор,
дискримінатор намагається з'ясувати
творіння генератора-вони відточують
можливості один одного. В кінцевому
підсумку коефіцієнт успіху класифікації
дискримінатора падає до 50%, не краще,
ніж випадкове вгадування, що означає,
що синтетично згенеровані фотографії
стали невідрізнюваними від оригіналів.
Одна з причин поширення deepfakes-це відкритий
вихідний код спільноти машинного
навчання: починаючи з оригінальної
статті Goodfellow, всякий раз, коли відбувається
науково-дослідний прогрес в генеративном
моделюванні, технологія, як правило,
доступна безкоштовно для будь-якої
людини в світі, щоб завантажити і
використовувати.
Враховуючи, що deepfakes засновані на AI в
першу чергу, деякі дивляться на AI як на
рішення для шкідливих додатків deepfake.
Наприклад, дослідники побудували складні
системи виявлення deepfake, які оцінюють
освітлення, тіні, руху особи та інші
функції, щоб позначити зображення, які
виготовлені. Іншим інноваційним захисним
підходом є додавання фільтру в файл
зображення, що робить неможливим
використання цього зображення для
створення deepfake.
З'явилося кілька стартапів, що пропонують
програмне забезпечення для захисту від
deepfakes, в тому числі Truepic і Deeptrace.
Однак такі технологічні рішення навряд
чи зможуть зупинити розповсюдження
deepfakes в довгостроковій перспективі. У
кращому випадку вони призведуть до
нескінченної динаміки кішки-мишки,
подібної тій, що існує в кібербезпеці
сьогодні, в якої прориви на стороні
виявлення deepfake стимулюють подальші
інновації в поколінні deepfake. Відкритий
характер досліджень ШІ робить це ще
більш імовірним.
Наприклад, у 2018 році дослідники з
університету Олбані опублікували
аналіз, що показує, що миготливі
нерегулярності часто були зрадницькою
ознакою того, що відео було підробленим.
Це був корисний прорив у боротьбі з
deepfakes-до тих пір, поки протягом декількох
місяців, почали з'являтися нові deepfake
відео, які виправили це миготливе
недосконалість.
“У нас немає зброї, - сказав Фарід.
"Кількість людей, що працюють на
стороні відео-синтезу, на відміну від
сторони детектора, становить 100 до 1."
Шлях Вперед
Виходячи за межі суто технологічних
засобів захисту, які законодавчі,
політичні і соціальні кроки ми можемо
зробити для захисту від небезпек
deepfakes?
Одним з привабливих, простих рішень є
прийняття законів,які роблять незаконним
створення або поширення deepfakes. Штат
Каліфорнія експериментував з цим
підходом, прийнявши закон у минулому
році, який робить незаконним створення
або поширення deepfakes політиків протягом
60 днів після виборів. Але повна заборона
deepfake має як конституційні, так і практичні
проблеми.
Перша поправка до Конституції США
закріплює свободу вираження думок.
Будь-який закон, що забороняє онлайн-контент,
особливо політичний контент, ризикує
порушити ці конституційні гарантії.
"Політична мова користується найвищим
рівнем захисту у відповідності з
законодавством США", - сказала професор
права Джейн Кіртлі. "Бажання захистити
людей від оманливого контенту напередодні
виборів дуже сильне і дуже зрозуміле,
але я скептично ставлюся до того, чи
зможуть вони забезпечити дотримання
[Каліфорнійського] закону."
Крім конституційних проблем, заборони
deepfake, ймовірно, виявляться недоцільними
для забезпечення дотримання через
анонімність і відсутність кордонів в
Інтернеті.
Інші існуючі правові рамки, які можуть
бути використані для боротьби з deepfakes,
включають авторське право, дифамацію
та право на публічність . Але враховуючи
широку застосовність доктрини
добросовісного використання, корисність
цих правових засобів може бути обмежена.
У короткостроковій перспективі найбільш
ефективне рішення може бути отримано
від великих технологічних платформ,
таких як Facebook, Google і Twitter, які добровільно
вживають більш жорсткі заходи для
обмеження поширення шкідливих deepfakes.
Цілком зрозуміло, що покладатися на
приватні компанії для вирішення широких
політичних і соціальних проблем багатьом
глибоко незручно. Тим не менш , як
зазначають вчені-юристи Боббі Чесні і
Даніель Ситрон, угоди про умови
обслуговування цих технологічних
платформ є "єдиними найбільш важливими
документами, регулюючими цифрову мову
в сучасному світі." В результаті,
контент-політика цих компаній може бути
"самим помітним механізмом реагування
з усіх" на deepfakes.
Відповідний законодавчий варіант
передбачає внесення поправок в спірну
статтю 230 закону про порядністьв галузі
зв'язку . Розділ 230, написаний у перші
дні існування комерційного інтернету,
надає інтернет-компаніям практично
повний цивільний імунітет у відношенні
будь-якого контенту, розміщеного на
їхніх платформах третіми сторонами.
Повернення цих захистів тому зробило
б такі компанії, як Facebook, юридично
відповідальними за обмеження поширення
шкідливого контенту на своїх сайтах.
Але такий підхід викликає складні
проблеми свободи слова і цензури.
Зрештою, жодного рішення не буде
достатньо. Важливим першим кроком є
просто підвищення обізнаності
громадськості про можливості і небезпеки
deepfakes. Поінформовані громадяни-це
найважливіша захист від широко поширеної
дезінформації.
Недавнє зростання фальшивих новин
призвело до побоювань, що ми вступаємо
в світ " пост-істини". Deepfakes загрожують
посилити і прискорити цю траєкторію.
Наступний великий розділ у цій драмі,
ймовірно, вже не за горами: вибори 2020
року. Ставки навряд чи могли бути вище.
Джерело: _https://www.forbes.com/sites/robtoews/2020/05/25/deepfakes-are-going-to-wreak-havoc-on-society-we-are-not-prepared/?fbclid=IwAR2YgJ0wTWgqY9nbAazhU1p3lmm5Yw_Or55wNVRxDqJrl5eXhFiMAJEmupg#2e532e977494
Джерело: _https://www.forbes.com/sites/robtoews/2020/05/25/deepfakes-are-going-to-wreak-havoc-on-society-we-are-not-prepared/?fbclid=IwAR2YgJ0wTWgqY9nbAazhU1p3lmm5Yw_Or55wNVRxDqJrl5eXhFiMAJEmupg#2e532e977494