Закон Быкова

Скоро будет 24 года, как научная и преподавательская жизнь Ильи Анатольевича Быкова связана с Санкт-Петербургским госуниверситетом. Мы поговорили с профессором о принципах работы, этичности ChatGPT и о том, как все успеть.

– Илья Анатольевич, вы профессор, политолог, геймер. Что из этого вам нравится больше?
– На мой взгляд, первое, что определяет любого человека – его профессиональная составляющая. Во всяком случае для меня. Моя работа имеет первостепенное значение, со всеми плюсами, минусами и так далее. Геймер – это хобби, и то с большим перерывом.
– Как вы все успеваете?
– Ничего не успеваю (смеется). Я стараюсь планировать, но это не всегда работает. Надо уметь расставлять приоритеты – это мой совет. Бывают такие ситуации, когда за деревьями вы не видите леса. Наша жизнь так устроена, особенно информационная. Тем более у журналистов, пиарщиков – много дел, много мероприятий. Накладки будут всегда – это понятно, но иногда нужно уметь расставлять приоритеты. Есть такая шкала – срочные дела, особо важные. Она мне в жизни несколько раз очень помогала.
В то же время, я считаю, нужно ковать железо, пока оно горячо. Иногда авантюрные мероприятия оказываются гораздо более успешными, чем какие-то запланированные задолго до. Это поразительно. Поэтому если мы говорим о журналистах и о пиарщиках, нам нужно быть гибкими.

– Как проходят ваши занятия со студентами?
– Наша преподавательская работа – в каком-то смысле креативная индустрия. Работа с людьми – сложная интеллектуально и эмоционально работа. Я стараюсь вести занятия в entertainment-манере. Не всегда это получается, да и не всегда оно должно быть. Много зависит от самих студентов – если они готовы учиться и воспринимать серьезный контент, то, конечно, занятия будут более серьезными. Очень тяжело работать в группах, где есть некие такие депрессивные настроения и отторжение. Психологи это называют сопротивлением – когда аудитория не хочет понимать материал и считает его бесполезным.

На меня большое влияние оказала бабушка, которая преподавала марксизм-ленинизм
– Расцениваете ли вы их как коллег?
– Я воспринимаю студентов как людей, которые иногда знают больше, чем я, особенно в области социальных медиа, новых сервисов. Они меня долго склоняли скачать Tik-Tok и делать там контент. Я отказывался, но на Youtube канал завел.
– Как вы пришли в СПбГУ?
– Политология – интерес из детства. На меня большое влияние оказала бабушка, которая преподавала марксизм-ленинизм. У нее дома было полное собрание сочинений Ленина. Мое детство и юность пришлись как раз на время перестройки – отсюда и интерес к политике. Мне было очень интересно, чем все это закончится (смеется). Когда пришло время поступать, я решил выбрать направление «новейшая история» и Санкт-Петербург. Мне показалось, что СПбГУ – один из старейших вузов России с известными историками и научной школой, и будет очень исторично учиться именно здесь. Так вышло, что на историю меня по итогу не взяли и я попал на политологию, о чем не жалею. Это оказалось близко к моим интересам. Тогда, поступая, я и не знал, что меня интересует политология – и не знал, что существует такая наука. Хотя недавно Владимир Владимирович высказал сомнение, что это наука.
– Вы писали в блоге, что общаетесь с ChatGPT. Действительно ли искусственный интеллект (ИИ) может помочь политологам?
– У меня еще в YouTube была программа, где мы это обсуждали. Я говорил, что ChatGPT может писать тексты, ответы на билеты и в принципе на уровне бакалавриата он отвечает, по-моему, вполне как студент-политолог. Но другое дело, что мои коллеги-преподаватели сказали: «А на дополнительные вопросы-то…»
– Вопросы со звездочкой ему пока не под силу?
– Его бэкграунд солидный, он формулирует достаточно хорошо. Но очень важный момент – нужно уметь задавать вопросы. Не буду скрывать, мы сейчас проводим небольшое исследование, связанное с ChatGPT, в журналистике в том числе. Я, например, попросил нейросеть сформулировать новость, но он отказался.
– Потому что формулировка была неправильная?
– Нет, я некорректную просьбу поставил. «Я не буду писать, потому что это фейк-ньюс», – вот так нейросеть ответила, представляете?
– У ChatGPT тоже есть журналистская этика?
– Вот именно! Это очень интересно – многое, опять же, зависит от того, как вы вопрос зададите. Видимо скоро появится профессия промпт-инженер – специалист по задаванию вопросов искусственному интеллекту. Потому что не все понимают, как правильно это сделать. Как с гуглом – не все понимают, что надо переформулировать. Это не так просто, как кажется.
На данный момент мы видим, что ИИ – это хищник, дискредитирующий человеческих участников
– Мы так часто говорим про ИИ и нейросети, но вряд ли все до конца разбираются в этих терминах. Можно ли сказать, что нейросети включены в ИИ?
– Тут надо поднять мои записи. Вы правильно совершенно говорите – это очень сложные понятия. И, честно говоря, мне как гуманитарию не до конца понятно, как это технически работает, хотя я изучал программирование. По-простому не готов объяснить – должна быть отдельная лекция. Я давно пришел к выводу, вслед за Бурдье, что порой эксперты выступают в роли телевизионных болванов – за одну минуту объясняют сложные понятия. А это невозможно. И тут мы попадаем в странную ситуацию: чтобы объяснить, что такое искусственный интеллект, нужно ну как минимум час-два. А телеформат современных СМИ сжат – это «тик-токи». Как вы в Tik-Tok объясните? Это невозможно. Единственное, что могу сказать: мы с профессором Сидоровым делаем научно-исследовательский проект по медиааксиологии, проблематика которой применима и к искусственному интеллекту. Была масса публикаций, что часто ChatGPT ведет себя этически отстраненно: перекладывает ответственность на человека, который задает вопросы. И тут для гуманитариев есть поле деятельности. Человеческие ценности, которые мы задаем, могут либо присутствовать, скажем, в каком-то опыте, либо отсутствовать. То, какие ценности мы закладываем, – очень важно.

– То есть этику можно заложить в искусственный интеллект?
– Более того: нужно, скорее всего.
– Даже так… Кажется, что это несовместимые с ИИ и техникой понятия – субъективный, человеческий фактор.
– Вот в этом-то как раз и проблема – какие ценности закладывать, как это будет работать, как это технически реализовывать, нужно ли это в принципе делать? Недавно писал тезисы на конференцию в секцию про эко-информационный подход. На данный момент мы видим, что ИИ – это хищник, дискредитирующий человеческих участников. Его проще всего использовать для самых неблаговидных целей. Самое простое – дать команду искусственному интеллекту, и он будет тиражировать фейковые посты. Если продолжать эту аналогию с экосистемой, можно сказать, что информационное пространство – это лес. В нем есть грибы, ягоды, деревья, хищники, травоядные. Какое место займет там ИИ? Если не будет никаких этических оснований, то он пожрет всех.

– У вас есть какие-то опасения насчет искусственного интеллекта?
– Любая технология может быть использована как во благо, так и во вред. Закон Быкова – любая технология может использоваться как во вред, так и во благо человека. Точка.

Беседовала Эрика Шакирова
Над текстом работала редактор Александра Зорина