Дискуссионный клуб Даниила Коцюбинского

Нужно ли цензурировать нейросеть? Об этом поспорят «физик» Виктор Достов и «лирик» Дина Тороева

Гражданские проекты 16+


Тема нейросети, грозящей, того и гляди, уловить всех нас в свои липкие паутинные лапы и поработить навеки, недавно вырвалась в новостной топ Рунета.

Всё дело в том, что в конце 2022 г. появился, наконец, долгожданный Чатбот GPT (генеративный предварительно обученный трансформер – Generative Pre-trained Transformer) с искусственным интеллектом, разработанный компанией OpenAI. GPT способен работать в диалоговом режиме, отвечать на вопросы и таким образом формировать оригинальный, – по крайней мере, на первый взгляд, – контент. Одним словом, заходи, кто хочешь, креативь, что хочешь!

Международная общественность всполошилась не на шутку.

Институт будущего жизни (Future of Life Institute), ставящий перед собой задачу снижения глобальных катастрофических и экзистенциальных рисков для человечества, в открытом письме призвал все лаборатории искусственного интеллекта (ИИ) приостановить обучение ИИ-систем (превосходящих GPT-4) как минимум на 6 месяцев. Авторы письма считают, что это время экспертам следует использовать для совместной разработки и внедрения общих протоколов безопасности в отношении ИИ-алгоритмов. Авторы документа опасаются, что машины наводнят информационные каналы пропагандой и неправдой (как будто сейчас это не так!). Среди вопросов, которыми они задаются: «Должны ли мы развивать нечеловеческие умы, которые в конечном итоге могут превзойти нас численностью, перехитрить и заменить?», «Должны ли мы рисковать потерей контроля над нашей цивилизацией?». «Это не означает паузу в развитии искусственного интеллекта в целом, а просто шаг назад от опасной гонки к все более крупным непредсказуемым моделям чёрного ящика», — отмечается в письме, которое на 30 марта 2023 г. подписали 1400 человек. Среди них – Илон Маск (CEO SpaceX, Tesla и Twitter), Стив Возняк (сооснователь Apple), Эван Шарп (соучредитель Pinterest), Крейг Питерс (генеральный директор Getty Images), представители DeepMind и ведущих университетов мира.

О том, что вселенские страхи перед нейтросетью сильно преувеличены, только что опубликовал обстоятельный текст известный петербургский эксперт – председатель совета Ассоциации участников рынка электронных денег и денежных переводов, консультант ООН по вопросам и цифровизации, член Экспертного совета по небанковским финансовым организациям Комитета Госдумы по финансовому рынку, кандидат физико-математических наук Виктор Достов:

«…мы понимаем, что или мы должны объяснять нейросети принципы этичности, или мы должны безусловно доверять её выводам.

Можно рассмотреть простой пример. Например, вы — фармацевтическая компания и дали доступ своей нейросети к рекламным объявлениям для того, чтобы повысить продажи таблеток от давления. Одним из способов (локальных минимумов, как говорят специалисты) является большое количество постов о пользе таблеток, опасности гипертонии и эффективной борьбы с ней. Но в процессе обучения нейросеть может заметить, что, когда в масс-медиа есть много плохих новостей, люди испытывают стресс, давление у них подскакивает, они начинают есть больше бета-блокаторов и прочих таблеток. Вполне возможно, этот метод более эффективен – и именно туда нейросеть придет в процессе самообучения.

Понятно, что всё это не является фатальным. Есть различные подходы к внешнему контролю над нейросетями. Можно заставить одну нейросеть контролировать другую, есть направление этического обучения нейросетей и так далее».

Оппонентом Виктора Достова выступит филолог, автор многих публицистических материалов в петербургских, российских и зарубежных СМИ, аспирант НИУ ВШЭ Дина Тороева, оспорившая идею этического и вообще какого би то ни было контроля над нейросетью в статье под заголовком: «Нейросетям надо добавить аморальности»:

«…нейросеть точно может подражать безмозглым действиям, которые точно совершают хоть раз в жизни все люди мира. Короче, это что-то вроде “Похвалы глупости” воплотившейся в диджитале.

Жалко то, что разработчики подвергают АИ цензуре, и в итоге они имитируют не глупость, а скуку.

Разработчикам надо учить нейронки не развлекать людей, а, наоборот, расстраивать. Представьте, как было бы интересно! Нейросети бы скандалили с вами, писали слово “типа” через “о”, говорили бы, что вам не мешает похудеть, внезапно кинули бы вас на бабки, отправили бы вас в бан, а потом спустя пару лет написали бы с другого аккаунта: “Привет! Может, возобновим общение?”».

Какой из двух подходов – цензурный или бесцензурный – вернее? И, главное, какой из них полезнее и обществу в целом, и каждому человеку отдельности? Об этом узнают те, кто придёт 12 мая 2023 г. в 19.00 в арт-пространство «Марс» на очередное заседание Дискуссионного клуба Даниила Коцюбинского «Почему всё не так?».

 

Поделиться:

730 дней назад
12 мая 2023 19:00–21:00

Санкт-Петербург
Марсово поле, д.3
Показать на карте

Уже есть билет
Восстановить или вернуть

Поделиться:

Связь с организатором

Напоминаем, что для того чтобы восстановить билет или сделать возврат организатору можно не писать.

На этот адрес придёт ответ от организатора.

По номеру с вами свяжется организатор

Подпишитесь на рассылку организатора

Восстановление билета

Введите адрес электронной почты, указанный при регистрации на событие

Обращаем внимание на то, что билеты должны были прийти к вам на почту сразу после покупки.

Возврат билета

Если вы хотите вернуть билеты, вы можете сделать это по ссылке из письма с билетами или оформить запрос организатору в вашем  личном кабинете.

Подробнее о возврате билетов