Можете ли вы отличить «дипфейк»?

One of the AI faked images of Trump on Twitter (SBS).jpg

One of the AI-faked images of Trump on Twitter Source: SBS

Ведущие исследователи в области компьютерных технологий выражают тревогу по поводу стремительного роста использования искусственного интеллекта. Быстро развивающаяся технология все чаще создает поддельные изображения, которые выглядят реалистично и обманывают многих пользователей интернета.


ТРАНСКРИПТ. Аудио доступно в плеере.

Возможно, вы встречали изображения в социальных сетях, на которых как будто бы происходит драматический арест полицией бывшего президента США Дональда Трампа или суд над Владимиром Путиным в Гааге.

Изображения выглядят как настоящие фотографии, но, конечно же, они являются полной подделкой

Они были созданы с помощью программы, работающей на основе генеративного искусственного интеллекта.

Вы описываете ему задание, и он создает изображения, почти неотличимые от произведений искусства и фотографий.

Как объясняет профессор Лиза Гивен из Университета RMIT, программа сканирует миллионы изображений и фрагментов текста в рамках процесса машинного обучения.

"Итак, что эти инструменты делают, так это то, что они обучаются на разных базах данных. Таким образом, они начинают имитировать или отражать то, что может сказать человек. Несмотря на слово 'интеллект' в их названии, они на самом деле не являются разумными существами, но они очень хорошо справляются с большими наборами данных, а затем как бы воспроизводят их в качестве ответа".

За последние 12 месяцев использование ИИ резко возросло: крупные технологические гиганты, такие как Microsoft и Google, тратят сотни миллионов долларов, пытаясь применить его в приложениях, которые люди используют каждый день, таких как поисковые системы и электронная почта.

Но эта гонка технических вооружений уже вызвала тревогу.

Группа из тысячи экспертов по искусственному интеллекту, включая Илона Маска и соучредителя Apple Стива Возняка, подписала открытое письмо с требованием «немедленной паузы» в разработке искусственного интеллекта на шесть месяцев.

Они говорят, что разработки следует возобновить «только тогда, когда (они) будут уверены, что их последствия будут позитивными, а их риски ... управляемыми».

Вот что говорит профессор Тоби Уолш — главный научный сотрудник Института искусственного интеллекта Университета Нового Южного Уэльса.

"Но я думаю, что в настоящий момент немного беспокоит и вызывает тревогу то, что в условиях конкурентного давления, направленного на использование преимуществ этих технологий, мы видим, что компании ведут себя с немного меньшей ответственностью, чем в прошлом, торопясь передать эти инструменты в руки общественности, прекрасно зная, что будут риски и будут проблемы".

Дипфейк — это метод создания фотографий и видеороликов с помощью алгоритмов глубокого обучения. Технология позволяет в существующих медиаданных заменять лицо человека на совершенно другое.

Такие приложения, как Chat-GPT, теперь могут воспроизводить образцы человеческой речи.

Эти достижения, предупреждают эксперты, могут помочь мошенникам обманывать людей более убедительно.

Объясняет Доктор Брендан Уокер-Манро — академик Квинслендского университета.

"Некоторые из вещей, о которых я говорил, связаны с использованием чего-то вроде чата GPT, который представляет собой очень разговорную, широкоязыковую модель, что-то, что может звучать так, как будто вы разговариваете с человеком. А затем это может использоваться для составления мошеннических текстов или мошеннических емейлов. Потому что мы достаточно хорошо распознаем те, что написаны человеком человеку, замечая орфографические ошиюки или еще какие-то вещи, которые выглядят не совсем правильными. ИИ или инструменты типи ИИ могут фактически устранить эти вещи и сделать их более аутентичными".

Уже есть примеры дипфейков, имитирующих политических лидеров.

"Now folks, before I jet off to California I wanted to address a couple of things about the Silicon Valley bank failure."

Как этот дипфейк президента США Джо Байдена, который звучит почти правдоподобно, и был создан для распространения дезинформации.

Профессор Гивен ожидает, что через несколько лет контент, созданный искусственным интеллектом, станет неотличим от реальных изображений и голосов.

"Эти новые системы позволяют добиться того, что изображения будут намного более безупречными, они будут действительно выглядеть как настоящие или их будет очень трудно отличить от настоящего видео, а также такие вещи, как технологии Voiceprint, способы, которыми мы теперь можем воспроизводить голоса людей. Все они имеют большой потенциал для манипулирования людьми."

Но хотя существуют обоснованные опасения по поводу того, куда может привести ИИ, дипфейки еще не совершенны.

Доктор Гивен говорит, что, сохраняя скептический взгляд, пока все же можно отличить реальность от подделки.

"Для обычного человека на самом деле это о том, чтобы задавать вопросы, пытаться проверить с помощью дополнительных источников. А затем обращаться за внешним советом, если он вам действительно нужен, чтобы убедиться в правильности своих выводов".

Share
Follow SBS Russian

Download our apps
SBS Audio
SBS On Demand

Listen to our podcasts
Independent news and stories connecting you to life in Australia and Russian-speaking Australians.
Understand the quirky parts of Aussie life.
Get the latest with our exclusive in-language podcasts on your favourite podcast apps.

Watch on SBS
Russian News

Russian News

Watch in onDemand