Дискуссионный клуб Даниила Коцюбинского

Нужно ли цензурировать нейросеть? Об этом поспорят «физик» Виктор Достов и «лирик» Дина Тороева

Гражданские проекты 16+


Тема нейросети, грозящей, того и гляди, уловить всех нас в свои липкие паутинные лапы и поработить навеки, недавно вырвалась в новостной топ Рунета.

Всё дело в том, что в конце 2022 г. появился, наконец, долгожданный Чатбот GPT (генеративный предварительно обученный трансформер – Generative Pre-trained Transformer) с искусственным интеллектом, разработанный компанией OpenAI. GPT способен работать в диалоговом режиме, отвечать на вопросы и таким образом формировать оригинальный, – по крайней мере, на первый взгляд, – контент. Одним словом, заходи, кто хочешь, креативь, что хочешь!

Международная общественность всполошилась не на шутку.

Институт будущего жизни (Future of Life Institute), ставящий перед собой задачу снижения глобальных катастрофических и экзистенциальных рисков для человечества, в открытом письме призвал все лаборатории искусственного интеллекта (ИИ) приостановить обучение ИИ-систем (превосходящих GPT-4) как минимум на 6 месяцев. Авторы письма считают, что это время экспертам следует использовать для совместной разработки и внедрения общих протоколов безопасности в отношении ИИ-алгоритмов. Авторы документа опасаются, что машины наводнят информационные каналы пропагандой и неправдой (как будто сейчас это не так!). Среди вопросов, которыми они задаются: «Должны ли мы развивать нечеловеческие умы, которые в конечном итоге могут превзойти нас численностью, перехитрить и заменить?», «Должны ли мы рисковать потерей контроля над нашей цивилизацией?». «Это не означает паузу в развитии искусственного интеллекта в целом, а просто шаг назад от опасной гонки к все более крупным непредсказуемым моделям чёрного ящика», — отмечается в письме, которое на 30 марта 2023 г. подписали 1400 человек. Среди них – Илон Маск (CEO SpaceX, Tesla и Twitter), Стив Возняк (сооснователь Apple), Эван Шарп (соучредитель Pinterest), Крейг Питерс (генеральный директор Getty Images), представители DeepMind и ведущих университетов мира.

О том, что вселенские страхи перед нейтросетью сильно преувеличены, только что опубликовал обстоятельный текст известный петербургский эксперт – председатель совета Ассоциации участников рынка электронных денег и денежных переводов, консультант ООН по вопросам и цифровизации, член Экспертного совета по небанковским финансовым организациям Комитета Госдумы по финансовому рынку, кандидат физико-математических наук Виктор Достов:

«…мы понимаем, что или мы должны объяснять нейросети принципы этичности, или мы должны безусловно доверять её выводам.

Можно рассмотреть простой пример. Например, вы — фармацевтическая компания и дали доступ своей нейросети к рекламным объявлениям для того, чтобы повысить продажи таблеток от давления. Одним из способов (локальных минимумов, как говорят специалисты) является большое количество постов о пользе таблеток, опасности гипертонии и эффективной борьбы с ней. Но в процессе обучения нейросеть может заметить, что, когда в масс-медиа есть много плохих новостей, люди испытывают стресс, давление у них подскакивает, они начинают есть больше бета-блокаторов и прочих таблеток. Вполне возможно, этот метод более эффективен – и именно туда нейросеть придет в процессе самообучения.

Понятно, что всё это не является фатальным. Есть различные подходы к внешнему контролю над нейросетями. Можно заставить одну нейросеть контролировать другую, есть направление этического обучения нейросетей и так далее».

Оппонентом Виктора Достова выступит филолог, автор многих публицистических материалов в петербургских, российских и зарубежных СМИ, аспирант НИУ ВШЭ Дина Тороева, оспорившая идею этического и вообще какого би то ни было контроля над нейросетью в статье под заголовком: «Нейросетям надо добавить аморальности»:

«…нейросеть точно может подражать безмозглым действиям, которые точно совершают хоть раз в жизни все люди мира. Короче, это что-то вроде “Похвалы глупости” воплотившейся в диджитале.

Жалко то, что разработчики подвергают АИ цензуре, и в итоге они имитируют не глупость, а скуку.

Разработчикам надо учить нейронки не развлекать людей, а, наоборот, расстраивать. Представьте, как было бы интересно! Нейросети бы скандалили с вами, писали слово “типа” через “о”, говорили бы, что вам не мешает похудеть, внезапно кинули бы вас на бабки, отправили бы вас в бан, а потом спустя пару лет написали бы с другого аккаунта: “Привет! Может, возобновим общение?”».

Какой из двух подходов – цензурный или бесцензурный – вернее? И, главное, какой из них полезнее и обществу в целом, и каждому человеку отдельности? Об этом узнают те, кто придёт 12 мая 2023 г. в 19.00 в арт-пространство «Марс» на очередное заседание Дискуссионного клуба Даниила Коцюбинского «Почему всё не так?».

 

Поделиться:

350 дней назад
12 мая 2023 19:00–21:00

Санкт-Петербург
Марсово поле, д.3
Показать на карте

Уже есть билет
Восстановить или вернуть

Поделиться:

Связь с организатором

Напоминаем, что для того чтобы восстановить билет или сделать возврат организатору можно не писать.

На этот адрес придёт ответ от организатора.

Подпишитесь на рассылку организатора

Восстановление билета

Введите адрес электронной почты, указанный при регистрации на событие

Обращаем внимание на то, что билеты должны были прийти к вам на почту сразу после покупки.

Возврат билета

Если вы хотите вернуть билеты, вы можете сделать это по ссылке из письма с билетами или оформить запрос организатору в вашем  личном кабинете.

Подробнее о возврате билетов