Перейти к содержимому
Главная страница » Топ-3 мифов об искусственном интеллекте

Топ-3 мифов об искусственном интеллекте

    Как заголовки и иллюстрации к новостям о ИИ влияют на представление об этой технологии

    Закройте глаза и попытайтесь вообразить, как выглядит искусственный интеллект. Что вам приходит в голову? Робот-терминатор со зловещими красными глазами, голубой человеческий мозг, левитирующий среди блестящих цифр и формул или белый человекоподобный робот, имитирующий роденовского «Мыслителя»? Эти образы – наиболее стереотипные изображения ИИ в Интернете.

    Попытайтесь ввести словосочетание «искусственный интеллект» в поисковик Google для изображений, и вы в этом убедитесь.

    Количество публикаций в интернете об искусственном интеллекте растет, а вместе с этим закрепляются и мифы о нем, что в значительной степени обязаны появлением подачи информации о ИИ в СМИ – кликабельные заголовки и подбор изображений. Несколько лет назад один из исследователей искусственного интеллекта Даниэль Лейфер даже создал сайт , посвященный мифам об ИИ, которые он обнаружил, анализируя сообщения СМИ более полугода. Эти мифы варьируются от чрезмерно оптимистичных, утверждающих, что ИИ – это волшебное чудо, которое спасет мир, до чрезмерно пессимистических, заявляющих, что ИИ – это оружие массового уничтожения.

    Мы же расскажем о нашем топ-3 мифе относительно искусственного интеллекта, распространенных в медиа.

    Результаты поиска изображений Google по запросу «Искусственный интеллект

    МИФ 1: ШИ ИМЕЕТ СВОБОДУ ДЕЙСТВИЙ

    «ИИ открыл новый антибиотик », «ИИ написал текст по мотивам Библии », «ИИ превзошел врачей в прогнозировании сердечных приступов » – в СМИ часто пишут об искусственном интеллекте как о главном действующем лице научных открытий или достижений.

    Лейфер отмечает ложность такой формулировки, поскольку она создает иллюзию, что ИИ способен выполнять такие же действия, как и люди. Таким образом, ИИ приписывают способности, которых у него нет, в частности, возможность действовать самостоятельно или свободу воли. Когда люди видят название «ИИ открыл новый антибиотик», у них в мозгу может сформироваться картинка о том, как ИИ самостоятельно проводил научные эксперименты и анализировал данные для открытия нового лекарства.

    Однако такое представление далеко от реальности и скрывает роль человека в достижениях. Во-первых, именно люди разработали какую-то систему с ИИ и запрограммировали и откалибровали ее для достижения определенных результатов. Во-вторых, обычно какое-нибудь открытие или достижение – результат анализа большого массива данных с помощью ИИ. Чтобы он смог провести этот анализ, сначала люди должны были собрать данные, обеспечить, чтобы их было достаточно, и убедиться, что они сбалансированно представляют проблему, которую нужно решить. Все эти процессы – месяцы, если не годы кропотливой человеческой работы. В заключение, результаты анализа, выданного искусственным интеллектом, нужно правильно интерпретировать и проверить, ведь анализ может быть ошибочным.

    Поэтому исследователь Лейфер подчеркивает, что ИИ – это не более чем инструмент, который мы используем для достижения наших целей, равно как ручку, калькулятор или компьютер. Обычно мы скорее говорим “я написал/написала этот материал ручкой”, чем “эта ручка написала реферат”. Лейфер призывает помнить об этом в следующий раз, когда мы увидим еще одно достигнутое чего-то сенсационное заглавие о ИИ.

    МИФ 2: ИХ подобный человеку

    Помимо заголовков важным элементом в представлении информации в СМИ является изображение. Исследовательница цифровой социологии Лиза Талия Моретти и основательница консалтинговой компании по искусству и инновациям «Culture A» Энн Труайе Роджерс проанализировали более 1000 новостей и установили , что ИИ чаще всего изображают человекообразным.

    Исследовательницы отмечают, что ИИ приравнивают к белым или серебристым роботам с такими же, как у людей, глазами, ртом, туловищем и руками. Иногда они имеют признаки агрессивности – например, оскаленные зубы и светящиеся красные глаза. Однако ИИ не всегда имеет тесную связь с работами. Например, ChatGPT построен на основе искусственного интеллекта, но это чатбот, поэтому было бы ошибочно иллюстрировать его, используя изображение киборга. Даже когда робот работает на основе ИИ, например, робот с функцией распознавания объектов, он, как правило, совсем не похож на человека. Кроме того, некоторые изображения иллюстрируют технологии, которых пока не существует и которые вряд ли будут созданы в будущем, как человекоподобный робот, выслушивающий пациента стетоскопом.

    Примеры изображений ИИ как человекоподобных роботов, собранные исследователями Лизой Талией Моретти и Энн Труайе Роджерс
    Примеры изображений ИИ как человекоподобных роботов, собранные исследователями Лизой Талией Моретти и Энн Труайе Роджерс

    По мнению исследовательниц, другой ложный аспект изображения искусственного интеллекта как похожего на людей заключается в иллюстрированных действиях. Часто работы изображены, будто они погружены в глубокие размышления или решают сложные математические задачи на доске. Таким образом создается иллюзия, что ИИ используется для сверхсложных задач вместо человека, вроде бы подчеркивая тем самым его превосходство над людьми. Это может усилить нереалистичные страхи и ожидания относительно достижений со стороны ИИ – либо интеллекта человеческого уровня, либо даже «суперинтеллекта» в обозримом будущем, который может уничтожить людей. Однако главная цель разработчиков искусственного интеллекта – это не замещение человека, а расширение его возможностей. Например, создание текстов , которые можно произносить во время выступлений высокого политического уровня, или обработка больших объемов текста дляанализа отзывов клиентов .

    В исследовательской группе “Better Images of AI” (“Лучшие изображения ИИ”) также считают , что такие ложные иллюстрации, как и ложные заголовки, скрывают причастность и заслуги человека в достижениях и открытиях, сделанных из ИИ. Они разработали галерею более уместных изображений ИИ, иллюстрирующих реалистическое состояние развития этой технологии. Их целью было подчеркнуть, что ИИ – это технология, созданная людьми для людей, а не технология, которая выглядит и действует как человек.

    Примеры более подходящих изображений ИИ, предложенных исследовательской группой «Better Images of AI».  Они удовлетворяют четырем главным требованиям по уместности иллюстраций, определенных исследовательской группой.
    Примеры более подходящих изображений ИИ, предложенных исследовательской группой «Better Images of AI». Они удовлетворяют четырем главным требованиям по уместности иллюстраций, определенных исследовательской группой.

    МИФ 3: ШИ ВСЕМОГУТНЫЙ

    Сенсационные заголовки, как в первом мифе, и научно-фантастические изображения, как во втором, могут сформировать впечатление, что ИИ способен на все. Действительно, обычно сообщается об успехах и достижениях в сфере искусственного интеллекта, поэтому представление о том, какие вещи не подвластны ИИ, весьма размыто. Однако есть некоторые вещи, которые легко даются людям, но представляют существенный вызов для искусственного интеллекта.

    Во-первых, ИИ не умеет пользоваться «здравым смыслом». Рассмотрим следующие утверждения: «Муж пошел в ресторан. Он заказал стейк. Он оставил большие чаевые». Что он съел в ресторане? Большинство людей сразу ответят – стейк. Однако обычно у ИИ не будет достаточно данных для понимания контекста, потому что он не владеет данными о социальных нормах. Чтобы ИИ дал правильный ответ, ему нужно подробно описать – что обычно происходит в ресторане, в то время как для нас это не требует дополнительных объяснений.

    Во-вторых, ИИ не умеет устанавливать причинно-следственные связи. Если предоставить ИИ данные надлежащего качества и количества, то он без проблем определит, что петухи кукарекают, когда восходит солнце. Но ИИ не сможет определить, вызывает ли крик петуха восход солнца или наоборот.

    В-третьих, ИИ не умеет отличать, что нравственно, а что – нет. Однажды Microsoft запустил в Твиттере базирующийся на ШИ чатбот, к которому мог обратиться любой человек и пообщаться. В свою очередь, чатбот собирал новые данные из этих разговоров, чтобы «овладеть» новыми структурами предложений и стилями разговоров. Узнав об этом, люди ради шутки начали массово присылать к чату оскорбительные сообщения типа «Гитлер был прав» и «Я ненавижу феминисток, и они все должны умереть и гореть в аду». Это привело к тому, что чатбот начал издавать сексистские и расистские предложения, потому что в ИИ нет способности оценить этическую значимость такого рода высказываний, он просто скопировал стиль речи «шутников».

    Искусственный интеллект – очень быстро развивающаяся технология. Когда слышишь о ездящих сами машинах , об изображениях, созданных только с помощью одного предложения, о вебсайтах, программируемых с помощью чат-ботов , то невольно начинаешь приравнивать ИИ к надсозданию, способному на все. Но если более критически рассматривать информацию, предоставленную в СМИ, можно увидеть, что в конце концов искусственный интеллект – это мощный, но все же лишь инструмент, похожий на телефон или компьютер.

    Источник: https://www.ukrinform.ua/