June 22, 2023, 06:10 AM
Валентина Попова

«Лучше договориться самим, чем ждать закона»: рекламщик – о кодексе этики для нейросетей

Российские IT-гиганты объединились, чтобы создать кодекс этики для искусственного интеллекта. Альянс включил в себя такие компании, как Сбер, «Яндекс», «ВК», «Газпром» и так далее. Подписанты составили и утвердили свод правил для компаний, работающих с нейросетями и входящих в этот добровольный союз.

Присоединиться к проекту решила и Ассоциация коммуникационных агентств России (АКАР). Вице-президент организации, сопредседатель комитета AdTech, уралец Алексей Парфун входит в состав комиссии по этике внутри ассоциации. В беседе с ЕАН он рассказал, что такое этика нейросетей, почему ИИ необходимо регулирование и к чему может привести его отсутствие. 



- Алексей, зачем рекламному сообществу нужно следить за этикой нейросетей?

- АКАР является регулятором в первую очередь рекламного рынка. Внутри ассоциации мы занимаемся и вопросами, связанными с использованием в сфере коммуникаций искусственного интеллекта. Когда мы начали обсуждать ставший актуальным вопрос этического регулирования, то поняли, что нет смысла плодить сущности: кодекс уже разработан альянсом. И мы планируем просто присоединиться к этому проекту. Отмечу, что все это происходит на добровольной основе.

- Действительно ли есть необходимость в регулировании работы искусственного интеллекта в России?

- Давайте попробуем порассуждать. У нас в целом общество реагирует очень болезненно на такие слова, как «регулирование», «запрет». Когда я высказался по этому поводу в соцсетях, то получил большое количество комментариев, общий смысл которых сводился к вопросу «Сколько можно все запрещать?» Предлагаю задаться таким вопросом: должны ли быть правила у игры? С моей точки зрения, должны. Соответственно, должны существовать принципы, которые определяют, что этично, а что нет, в том числе и в работе ИИ.

Все возмущаются, что государство постоянно пытается все регулировать. Окей, давайте сами составим себе правила игры, а затем заявим: «Мы обсудили и решили, что является добром, а что – мошенничеством. Мы обсудили и решили, что монтаж изображений живых людей в ситуации, которые порочат их честь и достоинство с помощью нейросетей, – это плохо». Я сейчас просто фантазирую, останавливаясь на самых «выпуклых», на мой взгляд, ситуациях.

Мне кажется, что лучше самим сесть и договориться, нежели ждать, пока примут какой-то законопроект, а нас просто поставят перед фактом.

Регулирование – это необходимость. Люди, которые критикуют все и всегда, просто не погружены в тему. К примеру, с апреля в США, в Китае, Европе активно идет процесс обсуждения регулирования сферы искусственного интеллекта. Сфера бурно развивается, соответственно, инициативы серьезные. Где-то к этому подходят пожестче, например, в Китае, где-то, может быть, немного либеральнее, но процессы идут везде. А мы в России делаем вид, что все должно случиться само собой.

- В чем заключается опасность отсутствия контроля за работой ИИ?

- Все видели фотографии, на которых полицейские якобы задерживают Дональда Трампа. Невинный, но яркий пример, доказывающий необходимость регулирования сферы нейросетей – это история про папу Римского в пуховике от Balenciaga. В Midjourney сделали фейковое фото, и оно широко распространилось по сети. Сегодня понятно, что любой человек может сделать подобное, но возникает ряд вопросов. Например, к СМИ на предмет, стоит ли публиковать подобные фотографии. В мире живет миллиард католиков, для них это может быть неприятно.

Дипфейки могут спровоцировать экономический, политический кризис, особенно в наше время. Представим, что в сети появится и распространится видеообращение какого-то высокопоставленного политика с громким заявлением. Каковы могут быть мгновенные последствия – неизвестно.

Мы пока говорим про контент, но искусственный интеллект внедрен уже во многих других сферах. В московских клиниках используют технологию, с помощью которой ИИ изучает рентгеновские снимки и по ним определяет, болен ли человек раком. Хочется понять, кто в итоге имеет доступ к медицинским данным пациентов в этом случае, корректно ли он работает. Кто ответит, если диагноз будет ошибочен и человек скончается из-за ошибки нейросети? Или в результате сбоя несколько сотен человек получат сообщение, что они больны, – какие минуты, часы, дни они проведут, прежде чем диагноз будет опровергнут после исследований?

Можно рассмотреть также риски бесконтрольного использования ИИ в промышленности. Представим, что на огромной ГЭС перезагрузилась машина, неправильно открыла заслонки и в результате снесло плотину, затопив территорию размером с Францию.

 Избавит от очередей в поликлиниках и выявит незаконные свалки: в Екатеринбурге обсудили применение искусственного интеллекта. ФОТО 

Или давайте рассмотрим сферу образования. Все помнят кейс, когда студент написал дипломную работу с помощью нейросети. И получается, что любой человек, не имея никаких особенных знаний, легко может писать дипломы, диссертации, кандидатские. И никогда ни одна программа-антиплагиат не сможет уличить его в этом. Становится понятно, что многие начнут так делать, а потом они пойдут работать по профессии. Я бы не хотел лечиться у врача, который получил свой диплом через нейросеть.

Сейчас у нейросетей есть возможности по генерации голоса и крупные риски сосредоточены в сфере мошенничества. В итоге мы придем к тому, что мошенники вашим голосом будут обманывать ваших близких, вымогая деньги.

Мне кажется, вопросы регулирования работы искусственного интеллекта сейчас очень важны и их нужно задавать, обсуждать. Определять, как все это работает в той или иной сфере, должны профессиональные сообщества. Медики – в медицине, промышленники – в промышленности, а мы, рекламщики, в маркетинге. Нужно сесть и договориться, что же такое хорошо, а что – плохо.

- Не планируется ли придать этому в будущем форму законодательной инициативы?

- Я не принимал участия в подобных диалогах, поэтому прокомментировать не могу. Кроме того, я не представляю государство, я представляю общественную организацию. Государство уже самостоятельно будет принимать решение, что ему регулировать и на какие документы опираться. Власти могут к нам прислушаться, а могут и нет – это вопрос к законодателям. Но я на 100 % уверен, что они этим вопросом будут заниматься, тем более мы уже видим инициативы. К примеру, недавно был законопроект от ЛДПР по введению наказания за дипфейки. Одобрения эта инициатива не получила, потому что, видимо, были недоработки, но уже завтра это предложение может быть скорректировано и внесено вновь.

- Но ведь лучше взять предложение от непосредственных участников рынка, практиков?

- Есть ли у альянса намерения выходить с инициативой, это лучше уточнить у участников, авторов кодекса. Но, по моему мнению, альянс и был создан для того, чтобы крупнейшие игроки индустрии могли общаться с государством. Это огромные инфраструктурные компании, которые заинтересованы в том, чтобы у них успешно и беспрепятственно шли все рабочие процессы.

- Будут ли у комиссии какие-то полномочия?

- На мой взгляд, это должно работать следующим образом. Поясню на примере АКАР, внутри которой есть комиссия по этике. Допустим, агентство «А» решило, что агентство «Б» повело себя неэтично. Оно обращается в комиссию и просит разобраться в ситуации и прокомментировать, что на этот счет думает индустрия. Это не имеет никаких юридических последствий, но тем не менее это саморегулирование. И в итоге индустрия говорит: «Агентство «Б», не делай так, пожалуйста, ты нарушаешь наши правила». Возможно, в каких-то самых запущенных случаях будет принято решение об исключении из Ассоциации, но мне такие случаи неизвестны.

В АКАР входят практически все игроки рынка. Если Ассоциация примет для себя правила игры, все участники тоже принимают их и начинают соблюдать, корректно себя вести. Соответственно, к этому же, вероятно, и планирует прийти альянс в сфере ИИ.

Источник фото: pixabay.com
Комментировать
Функционирует при финансовой поддержке Министерства цифрового развития, связи и массовых коммуникаций Российской Федерации
18+