VII СОЦИОЛОГИЧЕСКАЯ ГРУШИНСКАЯ КОНФЕРЕНЦИЯ

Секция 14  «Технологии будущего: прогнозирование гуманитарных рисков»

Материалы секции

Презентации:

  • Шишкин С. (НИЦ "Курчатовский институт") "Возможности и риски нейротехнологий: а нужно ли их прогнозировать?" (скачать .pdf)
  • Левич П. (МТИ) "Гуманитарные инициативы как способ формирования желаемого будущего"  (скачать .pdf)
  • Пронин М. (Институт философии РАН) "Вызовы мировоззрению разработчиков TVR: новые объекты для социологических исследований"  (скачать .pdf)
  • Ядова Е. (МТИ) "Восприятие новейших технологий. Готовность к внедрению технологических инноваций в повседневную жизнь (опыт исследований науки и технологий -STS)"  (скачать .pdf)

Видеоотчет:

Стенограмма:

Михайлова Елена Александровна: Меня зовут Михайлова Елена. Я программный директор этой секции. И, как вообще родилась идея этой секции?

Очень много лет мы сотрудничали с институтом философии Российской академии наук. Там поднимались вопросы, касающиеся этических проблем появления новых технологий. И, когда мы проводим во ВЦИОМе исследования, касающиеся внедрения, например, универсальной электронной карты, мы видим эти барьеры, мы видим, что именно какие-то установки, какие-то стереотипы влияют на интеграцию новых технологий в жизни.

С другой стороны, мы очень активно взаимодействовали с Российской венчурной компанией. И присутствуя на этих мероприятиях, я тоже видела свой спектр проблем, другой ракурс совершенно. Но было все время ощущение, что нет этой точки взаимопроникновения. Наука развивается сама по себе. Да, там говорилось о социальных аспектах, но совершенно в другом, в технологическом ключе, в таком, инструментальном ключе. Философы рассуждали с точки зрения своего видения. А взаимодополнения этих точек зрения очень долгое время не было.

Наверное, первым этапом на пути к появлению таких дискуссий более содержательных, глубоких стало создание российского общества «Нейронет», когда… По сути, дело инициативное, в начале группа, она начала обсуждать вообще те риски, которые связаны с нанотехнологиями, и стали вовлекаться в эти дискуссии и технические специалисты, и гуманитарии. И действительно приобрело новое значение обсуждение этих проблем.

Сегодня мы пригласили спикеров, которые активно развивают именно это направление, которые помогут нам понять, каким образом социология поможет предотвратить риски внедрения новых технологий в нашей жизни; каким образом она поможет, например, в вопросах, касающихся финансирования отдельных инновационных продуктов.

Мы помним, как случилось с рядом крупномасштабных проектов: тот, кто следит за крупными технологическими проектами за рубежом, как многие из них сворачивались только потому, что не учитывались какие-то социальные аспекты, стереотипы, представления, национальные представления, этнические представления и т.д. Это все очень важные вещи.

И хочется, чтобы при любых вообще крупных технологических проектах учитывалась социальная составляющая. А, где грань, и каким образом социология может в этом присутствовать, понимание, оно только формируется. Потому что даже на уровне правительства часто говоришь о том, что, а как же, а где здесь вообще общественное мнение? А говорят: а причем тут общественное мнение? На самом деле, без него очень сложно.

Конечно, мы помним, что говорил Стив Джобс, что, если бы он спрашивал людей, наверное, он никогда бы не изобрел «iPhone», потому что они не представляли, что он бывает. Но, возможно сегодня-то мы можем предложить какие-то инструменты, которые позволят решать эту задачу. Я надеюсь, что мы сегодня услышим ответы на эти вопросы, и передаю слово нашему модератору, Пронину Михаилу.

Пронин Михаил Анатольевич: Спасибо, коллеги. Я помогаю Елене Александровне, модерирую ведение секции. Я самый предпоследний выступающий. Замыкает у нас представитель института философии РАН. В общем-то, наверное, это тоже тренд такой. Начинают рассказывать и выступать те люди, которые ближе к технологиям. Мы – представители философии, абстракции немножко сзади. Но мои заявки на «Форсайт-флоты» и т.д., как правило, тоже отклонялись. Говорили: мы сначала соберем технологические силы России, подготовим их к прорыву, а потом, когда они что-нибудь сделают, мы тогда вас пригласим. Я был участником этих «Форсайт-флотов», смотрел, как это происходит, но немножко со стороны. Свое слово тоже скажу.

Но, а сейчас мы будем обсуждать самое сложное, на мой взгляд – это будущее. Обсуждать то, чего нет, и спрашивать, задавать вопросы про то, о чем никто не знает – это большое искусство. Поэтому, если хоть кто-то что-то может сказать, а тем более, спросить, правильный вопрос задать – это всегда интересно.

Итак, первый докладчик у нас. Регламент нашей работы традиционный – доклад до 15 минут, до 5 минут у нас вопросы из зала. В общем-то, опыт предыдущий показывает, что, как правило, все укладываются в это время. Если у нас останется время, наверное, мы сможем и дискуссию какую-то организовать.

Собственно, Левич Петр Александрович - директор департамента взаимодействия науки, технологии и общества Московского технологического института, основатель Future Foundation. Тема его доклада: «Гуманитарные инициативы, как способ формирования желаемого будущего». Петр Александрович, пожалуйста.

Эксперт 1: Спасибо. Приветствую, коллеги. Сейчас моя презентация заполнит весь наш экран. Не то, чтобы мой доклад вправду отвечал на вопросы, поставленные Еленой. Однако, наверное, его можно рассматривать, как некоторую эволюцию моего представления как раз о той самой техноэтике, вопрос которой был подставлен, и то, к какой повестке я сейчас пришел.

Похоже, что технологии, которые могут быть изобретены, будут изобретены. И технологический облик будущего формируется технологическими компаниями, и в этом смысле за него можно не волноваться. Он будет сформирован, потому что эти компании зарабатывают на этом деньги. Наверное, можем чуть ускорить или замедлить технический прогресс. Мы могли бы… ну, не мы, хотя, может быть, и мы могли бы установить в США какой-нибудь режим ограничения развития технологий, соответственно, в Кремниевой долине, и замедлить технический процесс на 10-15 лет. Но найдется в мире какое-то место, где, тем не менее, эти технологии были изобретены.

А наука в высшей степени синхронна, и даже, если мы вспомним геометрию Лобачевского, которая была изобретена одновременно Яношом Бойяи и Карлом Гауссом, даже в то время, когда не было высокого уровня связанности через интернет. Сейчас он есть. И, если вы работаете над какой-то технологией вашей научной группой, то 99% то, что еще 5-6 рабочих групп параллельно в мире создают, и работают в том же направлении. Доказательством этого может быть патентная война сейчас между 5-ю американскими университетами за технологию «CRISPR», которая с разницей в год была так или иначе разработана научными группами.

Кроме этого, наверное, можно заметить, что технический прогресс следует неким глубинным мечтам человечества. Так, например, робототехника может быть истолкована, как некоторый вызов уподобится Богу, создать жизнь, равную себе и, соответственно, стать равным Богу. Неважно, это верующий или атеист делает, такие культурные коды в нас есть. И даже в антропоморфной робототехнике не всегда есть функциональное назначение, тем не менее, нам хочется создать робота по нашему образу и подобию. И мы можем вспомнить мифы об Икаре и Дедале, как человек хотел летать, и вот, он научился летать. Можем вспомнить сериал «Стартрек», и по вопросам 70% сотрудников лунной программа NASA выбрали эту стезю благодаря просмотру этого сериала.

Таким образом, как в силу некоторой экономической гонки между компаниями, между научными коллективами, гонками некоторых научных амбиций в хорошем или плохом смысле, так и в силу гонки каких-то личных амбиций и глубинных мечтаний, непохоже, что мы могли бы управлять направлением технического прогресса. Возвращаюсь к исходному тезису: все, что может быть изобретено, будет изобретено. И не думаю, что у многих научных коллективов хватит осознанности, некоторой аскезы – наверное, такое слово можно было бы здесь употребить, чтобы остановиться.

Например, на экране сейчас кадр из фильма «Бегущий по лезвию», где такой, антропоморфный андроид, убивший своего создателя за то, что он создал его с ограниченным сроком годности – мы, наверное, помним этой сюжет – в данном сюжете создатель поплатился за это. Но, наверное, можем представить ситуацию, что не сам создатель лично, или не только он поплатится за некоторые свои амбиции при создании какого-то открытия. И вообще, не думаю, что мы могли бы возложить моральную ответственность на изобретателя, потому что любые технологии можно использовать как во зло, так и во вред, и на любом технологическом пакете можно построить как хорошее общество, так и плохое.

Если посмотреть на последний тренд развития технологий, то мы видим, что они стали гораздо более мощные, быстрые и общедоступные. Например, раньше, чтобы конкурировать с глобальной цивилизацией в какой-то стране или группировке, нужно было иметь ядерное оружие, т.е. любые другие методы воздействия, на самом деле, не рассматривались всерьез. А это требовались десятков лет НИОКРа и миллиарда долларов, триллионов долларов – огромные суммы. И это создавало некоторый баланс, некоторую условную безопасность нашего глобального мира.

Сейчас вы можете за 100 долларов купить своему ребенку набор редактирования генома комнатных растений, который может сделать их светящимися, и в целом, какой-нибудь маргинальной или религиозной фундаменталистской группировке достаточно захватить университет среднего уровня с биолабораторией, чтобы создать генно-модифицированный вирус с помощью технологии «CRISPR». Таким образом, этот баланс между маргинальными группами относительно в количественном отношении мелкими интересами и глобальной цивилизацией нарушается.

И что мы можем заметить? Что количество игроков, которые должны жить мирно, увеличивается. Но, наверное, нам нужно как-то научиться лучше доверять, кооперироваться.

Вы знаете, я шел сейчас на конференцию, и в фойе была выставка результатов соцопросов в последнее время в России, которая подводилась к мысли, что Россия возвращает себе былое величие. Я ни в коем случае не критикую авторов опросов, нельзя пенять на, так сказать, гонца вестей, и понятно, что эти опросы – не вина пропаганды, а это следствие пропаганды, такие результаты.

Но, наверное, разговор о гуманитарных и технологических рисках – название нашей секции вроде такое, наверное, стоит начинать со смены риторики геополитической конкуренции на риторику кооперации.

Люди боятся новых технологий, но это, конечно, зря – бояться нужно людей. До изобретения сильного искусственного интеллекта – есть такая концепция, которая обладает целеполаганием – человек – это единственное существо, которое этим целеполаганием обладает. Ни одно приложение мессенджера не отправило свой ключ шифрования спецслужбам по собственному желанию. Если знаете другой пример, расскажите. Ни одна молекула химического оружия не имела собственного желания нас уничтожить. Опять же, буду рад какому-то примеру. И лишь целеполагающий человек может построить на одном и том же технологическом пакете либо свободное общество, либо тоталитаризм – например, в такой растяжке, может быть, кто-то другие растяжки придумает.

Таким образом, технологический облик будущего более-менее ожидаем. Мы не так, что мы можем на него сильно влиять. А то, на что мы можем влиять – это те ценности, которыми мы вложим во взаимодействие с новыми технологиями и людей друг с другом.

Вспомним башню контроля сознания из романа «Обитаемый остров», или геномные касты фильма «Агата», чей постер изображен на слайде. Будет ли генномодифицированный ребенок объектом издевательств сверстников в школе, а еще через 20 лет полностью органический ребенок объектом издевательства генномодифицированных сверстников? Встретимся ли мы с баром для full organic people, которые не будут пускать киборгов по образу и подобию баров только для белых? Это тот облик ценностный, тот гуманитарный облик будущего, на который мы на самом деле можем влиять, а не технологический. Редактирование генома будет, нейронет будет. Может быть, позже, может быть, раньше. Но вопрос в том, насколько комфортным будет этот новый мир.

(00:14:50), в том, что ответы на эти, казалось бы, технологические вопросы лежат не в области технологий, а в области гуманитарных инициатив, можно сказать, гуманитарных технологий. Все мы знаем понятие «шок будущего», который накладывает определенный психологический аспект на эту комфортность мира. Т.е. даже, если вроде с правами человека все хорошо, нам бы, возможно, это было не очень комфортна эта скорость развития технологий.

Например, есть проблема с идентичностью. Если раньше все было понятно, человек был сотворен Богом; потом тоже неплохой критерий был, человек – то, что определено геномом Homo sapiens, - то сейчас под натиском новых технологий это разваливается. Мы уже можем активировать геном. Может быть, человек – это то, что способно к деятельности самого высокого уровня, к творчеству, к искусству. Но нет, технология глубокого обучения нейронных сетей копирует нас и в этом. И в чем же тогда идентичность человека?

Еще одна моя гипотеза в том, что она могла бы быть, например, в некоторых ценностях, в некоторых моральных поступках. Не то, чтобы каких-то определенно правильных или определенно неправильных, но по целеполаганию, по ценностям могла бы быть эта граница водораздела между человеком и не человеком. Понятно, что некоторая идентичность нам нужна.

Что нам с этим делать? Наверное, мы замечали, что нам гораздо легче терпеть те неудобства, которые следствие наших ошибок, наших действий, чем навязанные нам извне. И, давайте попробуем перейти к отношению к будущему от некоторой навязанной нам модели, навязанных нам ценностей, которые будут. И мы тут обсуждаем, как в будущем все сложится, как бы нам хорошо там жилось или не очень плохо хотя бы.

Перейдем к будущему, как к пространству личной нашей ответственности. Можно было бы, наверное, формировать будущее, протипируя его на себе уже здесь. Да и кроме того, судя по оценкам многих экспертов уже при нашей жизни многие деятельности будут автоматизированы, и по большому счету, человеку останется только целеполагание самого высокого уровня – создание новых смыслов, собственная повестка – потому что все остальное за нас будут делать роботы и искусственные интеллекты. И в этом смысле люди с собственной повесткой останутся в той растяжке об идентичности, о которой я говорил, людьми, все остальные перейдут, в общем-то, в некий балласт общества. Т.е. они, может быть, будут получать свой базовый доход, но, наверное, не только финансовое благосостояние делает нас счастливыми.

Это очень сложный вопрос. Часто задаю людям вопрос: что бы вы делали, если бы вам не нужно было зарабатывать деньги, он очень непривычен, он очень сложен для нас. Нас с детства учат: учись, чтобы зарабатывать деньги. В итоге, мы не можем себя помыслить вообще вне такой повестки наемного сотрудника или хотя бы части некоторой системы, логики которой мы подчиняемся. А будущее, кажется, оно как раз за некоторой собственной повесткой. И не только в том смысле, что все остальное будут делать роботы, а нам останется только собственная повестка, но и в том смысле, что формировать это будущее с теми ценностями, которые мы хотим, чтобы не быть жертвой этого будущего, для этого формирования нам нужна собственная повестка уже сейчас, собственное понимание образа будущего, и проведение некоторых гуманитарных инициатив для его формирования, протипировать будущее уже на себе сейчас – вот та идея, о которой я хочу сказать.

Вообще говоря, тут есть некоторая проблема. Обратите внимание, каждый, если будет формировать тот образ желаемого будущего, который хочет, это вообще говоря, такая прогрессорская деятельность по Стругацким. Но мы знаем в истории примеры конкурирующих действий прогрессоров. Начало 20-го века, например, в России у нескольких группировок было собственное видение будущего, и мы знаем, к чему, к каким жертвам такая конкурирующая прогрессорская деятельность привела. Это нас подводит к мысли, что не так важны идеалы этого будущего, которое мы хотим сформировать, как те методы, которые при этом формировании мы делаем. Если мы хотим, чтобы в будущем были некоторые ценности - вспоминая те риски, которые я перечислял - допустим, мы хотим, чтобы были ценности равноправия, уважения к человеческому достоинству, свобода выбора. То важнее то, что в нашей работе с этим будущим сейчас, формированием этого будущего, наши методы отвечали этим ценностям, а не наши идеалы.

Казалось бы, что вечная дискуссия идеалов против методов, ее можно считать решенной на примере 20-го века, но как мы видим, для многих людей в мире сейчас это не так, эта дискуссия осталась. И я в этой дискуссии однозначно на стороне Померанца Григория Соломоновича. Мы все знаем его высказывание про пену ну губах ангела. Наверное, можно было бы руководствоваться принципом, что свобода одного человека заканчивается там, где начинается свобода другого человека и другими какими-то принципами, которые бы отвечали нашей желаемой этике будущего. И важно, что, наверное, мораль идеалов приводит к тоталитаризму, а мораль методов – к гуманизму. И я бы хотел, чтобы в формировании будущего мы в большей степени заботились о методах.

Не думаю, что я ответил хоть на какие-то вопросы, поставленные Еленой во вступительной речи, но это моя честная эволюция понимания вопроса техноэтики, и какие можно задать к ней дополнительные вопросы, и как к этой задаче можно подступиться.

Спасибо.

Пронин Михаил Анатольевич: Спасибо. Коллеги, теперь жанр вопросов. Все-таки, социологическая аудитория, и я так понимаю, что все знают, что такое вопросы, а не выступления, но мы посмотрим. Пожалуйста, вопросы к докладчику. Я так понимаю, у нас запись идет, поэтому в микрофон, пожалуйста, задавайте вопрос для вечности, и чтобы было слышно тем, кто смотрит трансляцию.

Тогда у меня вопрос, пока думают коллеги. Будущее проектирование гуманитарной инициативы. Все-таки, что бы вы сказали социологам? Какие новые методы, вопросы социологии могли бы помочь, какие данные, результаты могли бы помочь вам строить эти самые идеалы будущего, ценности будущего, использовать инструменты будущего. Что-то вы бы могли порекомендовать коллегам?

Эксперт 1: Допустим, мог бы не только порекомендовать, но и поделиться, например, фактом, что мы с коллегами, в частности с Екатериной сейчас проводим исследования восприятия новых технологий, и отчасти там та повестка, которую я описал, например, разговор о человеческой идентичности и т.д., задавание правильных вопросов относительно будущего, и дальше ответ на него с помощью каких-то ментальных инициатив, следует как раз из, в том числе социологических исследований.

Другое дело, что я, может быть, чуть-чуть глубже рассмотрю этот вопрос, чем он кажется на первый взгляд, в некотором противоречии между отношением к будущему, как к пространству ответственности и позиции исследователя. Потому что позиция исследователя – принципиальная позиция стороннего наблюдателя, а позиция прогрессора, она принципиально есть позиция внутреннего участника, и эту трагедию прогрессорства мы помним по сюжету Стругацких.

Для меня это вообще на данном этапе жизни, можно заметить, что я достаточно молодой человек и нахожусь, наверное, в стадии каких-то жизненных выборов, для меня это очень острый вопрос – выбор некоторого баланса на растяжке между комфортной позицией исследователя и некомфортной, я бы даже сказал трагичной позицией прогрессора.

Пронин Михаил Анатольевич: Спасибо. Коллеги, вопросы. Если нет вопросов, тогда… Есть? Микрофон только возьмите, сейчас вам передадут.

Женщина: Я не знаю, насколько…

Пронин Михаил Анатольевич: Это будет вопросом.

Женщина: Да, к вопросу. Мякинькова Лидия Львовна, республиканский научно-исследовательский центр экспертизы. Такое у меня возникло сложное чувство, когда молодой человек, наш лектор, сказал такую фразу «пространство личной ответственности». Я – человек более старшего поколения, и к слову «ответственность» отношусь очень ответственно. И я сразу на себя это примерила, и поняла, что большей части населения нашего очень трудно отвечать за свое будущее, потому что очень многое нам просто навязывается. Нам навязываются новые смартфоны, новая техника, новые технологии в нашей повседневной жизни.

Пронин Михаил Анатольевич: Логика понятна. Вопрос?

Женщина: Вопрос. Как… Ведь личная ответственность, получается, больше лежит на очень узкой прослойке. Как мы будем эту узкую прослойку воспитывать, чтобы оно было социально ответственное и, я не знаю, в их руках, тех руках, где эти высокие технологии…?

Эксперт 1: Понял вопрос. Вы знаете, в вашем вопросе уже содержится некоторый ответ, некоторая позиция, против которой на самом деле я и высказывался, в том, что наша ответственность заключается в том, чтобы воспитать некоторых других людей, которые за нас сформируют этот другой образ будущего. Я как раз говорил о том, что это, наверное, неправильная позиция, мне она не близка.

Смотрите, действительно кажется: «Что мы можем? Есть сильные мира сего». Есть Путин – в фойе написано, что он объединил Россию и решил все проблемы, я почитал плакаты, есть Обама или Трамп, есть, например, наверное, Стив Джобс, Тим Кук, Грин – кто навязывает нам смартфоны. Но это не значит, что для нас не осталось пространства действий.

Если чуть расширенно ответить на вопрос, мне кажется, что сейчас в мире идет некая холодная война между вертикальным и горизонтальным миром. Вертикальный мир – это как раз корпорации, власть, иерархичная структура – да, они нам что-то навязывают, мы можем становиться политическими активистами, диссидентами, революционерами. Как с этим бороться – можем, нет. Так или иначе, да, у нас есть какие-то отношения с вертикальным миром.

Но в том числе, и новые технологии, например, глобальная связанность, «Facebook», соцсети, мессенджеры, в том числе и в принципе эволюция некоторой гуманитарной мысли сформировала альтернативу некоторого горизонтального мира. Если мы посмотрим, например, на многие аспекты образования, науки, то она уже в принципе, находится не в логике вертикального мира, а в логике горизонтального мира.

Пример, например, с европейским университетом в Питере, который хотят закрыть, потому что он очевидно не вписывается в логику вертикального мира России, но он отлично вписывается в логику горизонтального мира научного сообщества мирового. Т.е. для этих элементов горизонтального мира, например, научных центров, научных групп, гораздо ближе их горизонтальный коллега в другой стране, чем их вертикальный так сказать куратор, может быть, так назвать, министерство какое-нибудь.

В этой же логике можем действовать и мы. Например, было движение и до сих пор есть хакеров. Недавно появляется движение биохакеров – я говорил про создание и редактирование генома у себя в гараже, например, комнатных растений. Но нет, биохакеры, они уже внедряют себе чипы, они уже редактируют геномы, и занимаются драг-дизайном по заказу университетов, потому что они это делают дешевле, чем крупные фармкомпании. И эти горизонтальные движения создают альтернативу этой вертикальной повестке. В том числе, развивается история с горизонтальными поселениями, в одно из которых я, например, завтра еду, куда-то в глушь Архангельской области, тоже говорить о будущем. Так что, есть эта альтернатива этим отношениям с вертикальным миром.

Надо сказать, что эти миры, они не то, что разделены: на одном континенте такой, на другом – такой, в Москве – такой, а в Архангельской области другой. Нет. Они пронизывают друг друга и, например, многие лидеры Кремниевой долины ездят на фестиваль «Burning man» в пустыню Невада, который есть очень такой понятный и, наверное, самый известный пример горизонтальной инициативы, фестиваль, который делается исключительно волонтерами и на горизонтальных основаниях. Поэтому, перекрестное опыление между этими мирами идет. Но одновременно идет и, наверное, какое-то противостояние. И все эти истории прочтения мессенджеров, про «privacy» - это, конечно, те точки напряжения, в которых этика и ценности этих миров не совпадают.

Пронин Михаил Анатольевич: Петр Александрович, давайте на этой драматургической ноте противоречия… Коллеги, поблагодарим докладчика. И сейчас передадим доклад по горизонтали как раз следующему – это Шишкин Сергей Львович, кандидат биологических наук, начальник отдела нейрокогнитивных технологий НИЦ «Курчатовский институт». Тема доклада: «Возможности и риски нейротехнологий. А надо ли прогнозировать?». Не сговариваясь, а, может быть, драматургическая линия Елена Александровны свела эти два доклада на прямо противоположных курсах, тем будет интереснее.

Я могу, единственное, отреагировать, что я, как сотрудник института философии, конечно, у меня самая счастливая жизнь, я работаю не за деньги. Да, я уже человек из другой эпохи. Поэтому, если надо прогнозировать, приходите к нам, мы расскажем, как работать.

Сергей Львович, это я просто… Вы уже готовы? За 2 минуты до конца 15 минут я вам скажу. Пожалуйста, ваше время.

Эксперт 2: Спасибо. Во-первых, я представлюсь. Я из «Курчатовского института», и занимаюсь нейротехнологиями, и конкретно разработкой интерфейсов мозга компьютера. К тому же, я еще биолог по образованию. Таким образом, никакой социологии у меня в бэкграунде нет. Я понимаю, что нужно будет, все-таки, попытаться какие-то сделать интересные для социологов, может быть, какие-нибудь обобщения. Говорить не только про свои нейротехнологии, я попытаюсь это делать, но просто прошу понимать, что я здесь полный дилетант. Т.е. я буду говорить просто с мыслей человека, который наблюдает такие социологические аспекты наших нейротехнологий, естественно, со стороны.

Такое провокационное название, оно неспроста, потому что подавляющее большинство исследователей и разработчиков, с которыми я общаюсь, они к всяким прогнозам в области технологий относятся с большим скепсисом. И, возможно, будет это понятно, почему, из дальнейшего.

Этот диафильм, наверное, многие видели. Те, кто интересуется прогнозами, это должно, конечно, очень интересовать. Я на всякий случай скажу, что он просто сейчас был популярен очень на «Facebook» и, наверное, в других соцсетях. Это диафильм, который выпущен в 60-м году для детей, которые должны были знать, что будет в 2017 году, который не просто в советское время, это год, когда должно отмечаться 100-летие Октябрьской революции очень важной. Соответственно, там множество всяческих фантастических образов, но научно-фантастических. Т.е. я подозреваю, что создатели этого диафильма, они советовались со специалистами – там много таких деталей, которые очень хорошо отражают представления именно технические того времени. И сейчас это чрезвычайно интересно смотреть, насколько мало соответствует этот образ будущего к реальной действительности. Естественно, никакого интернета, мобильных… ну, что-то близкое к мобильным телефонам, но очень, все-таки, не совсем то в те времена могли себе представить. А, в общем, практически очень мало угадали из того, что реально сейчас работает, и очень много нафантазировали того, что, собственно, очень далеко от реальной жизни.

Одной из самых таких удивительных вещей, которые я еще обратил внимание, еще когда сам, а я застал еще советские времена, читал эти прогнозы, будучи еще школьником, мне запомнилось, что такое внедрение видеотелефонов в широких масштабах, но не на сегодняшнее время предполагалось, а еще, по-моему, на 80-й год. В этом фильме это отнесено на 2017 год, и там, естественно, герой фильма разговаривает со своей мамой по видео такой связи.

Казалось бы, у нас в мобильном телефоне у каждого должна быть система этой самой связи, встроенной просто в операционную систему. Тем не менее, для этого нужно установить какую-то программу «Скайп», и в общем, я думаю, что очень мало, кто реально этим пользуется. Когда я спрашиваю: почему вы не пользуетесь видеосвязью? Обычно отвечают: потому что каналы связи очень плохие, а когда есть возможность, мы всегда говорим. Но на самом деле люди, которые, допустим, живут за границей, и не видят кого-то из родственников, они, я знаю, любят действительно пользоваться этой связью. Тем не менее, в подавляющем большинстве случае люди предпочитают просто брать трубку, которую можно держать одной рукой где-то там у уха, или вообще использовать гарнитуру, и совершенно другая система. Технически все возможно, но мы не используем.

Почему-то этот видеотелефон, он постоянно возникал в разных прогнозах, здесь он назывался «телевидефон», под разными называниями. В общем, так или иначе, эта навящивая идея, что появился телевизор, есть телефон, значит, их осталось только объединить – это будет в будущем.

И я подозреваю, что так, в общем-то, эта ситуация – очень хорошая модель, чтобы рассматривать возможности нашего прогнозирования. На самом деле, огромное значение имеют психологические нюансы, которые возникают в реальном взаимодействии с реальной технологией, и взаимодействием с другими людьми, которые тоже пользуются этой технологией, массовым образом, т.е. то, что в эксперименте или в каких-то там исследований на каких-то группах, допустим, мы не сможем никак полностью промоделировать.

И еще есть конкурирующие технологии, которые тоже невозможно все просчитать. То, что есть: обычный мобильный телефон, который казался очень удобный без использования этой самой видеосвязи, несмотря на то, что совершенно очевидно, что в видеосвязи есть свои плюсы; но минусы – нам, например, не всегда хочется появляться в том виде, в котором мы сейчас можем взять трубку перед собеседником, нам нужно причесаться и т.д. Не знаю, тут есть на самом деле множество причин, почему мы не используем видеосвязь. Но почему-то про это раньше не думали.

И в то же время есть технологии, которые сейчас уже в наши жизни вошли очень глубоко, и мы от них уже никуда не денемся – это всевозможные информационные технологии, которые накапливают огромное количество информации совершенно частного характера. Никакие законы там по охране частной жизни и т.д., они могут только усложнить жизнь людям, но никак не… могут чуть-чуть что-то там, может быть, оградить от каких-то рисков минимальных. Но, тем не менее, если мы хотим использовать плюсы этих технологий, мы постоянно сейчас будем иметь дело с тем, что у нас информация накапливается, она передается куда угодно, ее можно анализировать самым тщательным образом с использованием мощнейших методов, которые в принципе, все это можно было прогнозировать, наверное, даже в том же 60-м году. И тем более, мы знаем это сейчас. Сейчас с этим можно разбираться. Но, тем не менее, по-видимому потребуется достаточно много времени, чтобы понять, как со всем этим теперь жить.

И, что касается нейроинтерфейсов. Тут пример просто одной из нейротехнологий, о которой сейчас часто говорят. То, что я могу видеть, как раз вблизи, и смотреть, как это, все-таки, что собой в реальности представляет. Есть огромный разрыв между тем, что можно видеть из СМИ, и то, что, допустим, даже если говорить о исследователей, разработчиках довольно близких специальностей, если начинаешь с ними говорить, что они знают про эти нейроинтерфейсы, оказывается, что у них все знания почерпнуты из обычных СМИ, которые абсолютно дают фантастические представления. Действительно люди ожидают, что нейронет, он действительно соединит мозги людей уже, может быть, довольно скоро, и все будут каким-то особым образом коммуницировать, и возникнет совершенно особый мир новый, который будет еще больше изменен, чем, допустим, этими информационными технологиями.

На самом деле, все существенно не так. Допустим, есть исследователь, который наиболее известен в медийном пространстве, Мигель Николелис, и его правая рука – это наш Михаил Лебедев. Они в США, эта лаборатория делает действительно потрясающие эксперименты. Они чрезвычайно ценны с научной точки зрения. Но, поскольку, они оба довольно любят еще и фантазировать, у них еще красиво к тому же поставлены все эти эксперименты и их такое освещение, это все вызывает какие-то волны совершенно удивительной фантастики в СМИ, из которых люди начинают думать, что мы сейчас тоже соединимся мозгами, как подобно обезьянкам этим.

Зачем? Если мы будем внимательно смотреть - что, естественно, журналисты не делают, потому что это скучно и неинтересно, и не описывают детали этих исследований – то оказывается, если, например, здесь показано, как работает рука обезьяны, а здесь, как работает обезьяна через интерфейс. Здесь в данном случае двух, почему-то контролируют только на двух обезьянах. Соединили этих обезьян, их мозги, они вместе… действительно, это очень интересная работа. Вместе управляли такой механической рукой. И, в общем-то, там были очень интересные эффекты, когда работали эти обезьяны вместе с соединенными мозгами. Но, когда они работали джойстиками, то эффективность оказывалась ничуть не хуже. Т.е. на самом деле, здесь даже они быстрее в 2 раза делали задачу, используя просто обычный механический контроль. Это лучшее из такого рода достижения.

Если же мы говорим о том, что делается без… Это вживленные электроды еще к тому же, безопасность которых ближайшие лет 10, как минимум, а может быть, еще сколько-то десятилетий просто никто не может гарантировать для человека. Даже полностью парализованные люди, они обычно отказываются от того, чтобы им делали операцию даже, когда это просто обсуждается чисто теоретически. Точнее говоря, когда они полностью парализованы, они не могут обсуждать, естественно, поскольку это уже очень тяжелое состояние, когда человек полностью отключен от мира. Собственно, зачем ему действительно нужен при этом нейроинтерфейс. Именно для таких людей сейчас пытаются, собственно, подключать для них эти системы. Тем не менее, пока они находятся в состоянии такого неполного паралича, их можно спрашивать, и они почему-то не готовы к операции.

Но с помощью электроэнцефалограммы, т.е. записи электрических потенциалов непосредственно с кожи головы без всяких повреждений можно тоже делать некоторые управления. И, если мы, допустим, посмотрим результат, человек действительно полностью парализован, но он в течение 2,5 лет – была научная публикация про его опыт – он просто реально руководил научной лабораторией. Может быть, даже дальше, это неизвестно – на момент публикации было 2,5 года. Как он это делал? Он писал письма по электронной почте, и вот так вот, собственно, мог общаться со своими сотрудниками. Но ему требовалось минута на то, чтобы написать 2 буквы всего лишь. Т.е. это понятно, что это выход некоторый для человека, который иначе вообще бы не мог ничего делать, но это, все-таки, не какое-то качество для здорового человека никоим образом. И это неспроста.

Это из выступления одного из самых таких известных людей в мире интерфейса «мозг-компьютер», Джонатан Уолпу, которые я посмотрел на одной из конференций. И он показывает, как выглядят данные, когда человек управляет с помощью парализованной… Нет, это в одном случае, здоровые люди, в другом случае, парализованный человек с вживленными электродами. И у них оказывается очень похожий профиль распределения времени реакции в очень простой задаче, когда возникает цель на экране, и надо курсором в нее попасть. И в случае с джойстиком у нас совершенно другая картина. В случае с этим таким управлением через нейроинтерфейс, результат намного хуже. Т.е. там ранние срабатывания могут быть даже иногда быстрее, чем в случае с джойстиком, но в основном, это очень неудачная работа: человек в принципе может что-то делать, но он всегда сильно отстает от случаев, когда мы управляем с помощью наших обычных средств через мышцы.

И это неспроста, потому что опять же, Уолпу показывает, у нас построена вся эта система управления мышцами таким образом, что кора, куда нам, собственно, интереснее всего подключаться нейроинтерфейсом, она находится очень далеко. Еще есть множество других структур, которые должны вместе с ней взаимодействовать. И только на выходе уже получается точное управление. Мы могли бы думать, что может быть, мы тогда должны подключиться с какой-то другой стороны, но тогда мы теряем, собственно, то, что мы хотим получить интересного из этой системы.

Соответственно, то, что специалистам кажется практичным и интересным, это как правило, гораздо меньше попадает в прессу. Например, из последних работ, если бы меня спросили, интересна система автоматической аннотации текста или выделение релевантных, допустим, каких-то информаций, действительно можно без операции выделять ту информацию, которая интересна человеку, не требуя от него никаких дополнительных действий. Он ведет поиск, допустим, в интернете, и мы видим, какие, собственно, какие ему выдавать… что именно он на самом деле хочет, давая то или иное ключевое слово.

Или, допустим, то, чем мы занимаемся – это… если бы подавать это в прессе, то, конечно, было бы, может быть, оно неплохо бы выглядело, как исполнение желаний, но на самом деле, журналисты бы совершенно точно подчерпнули те не нюансы, которые действительно важны в этой технологии. Поэтому очень важны специалисты, которые могут объяснить, что в технологии, хотя бы в существующей технологии действительно ценно, а что нет.

И, если говорить конкретно, допустим, про Россию в нейронауке, у нас пытаются развивать нейротехнологии, но выглядит это на таком, в основном, медийном уровне. Вместо того, чтобы развивать нейронауки, которые позволили бы дать специалистов, которые могли бы разбираться, с чем работать, а с чем нет. Очень хороший показатель – это число статей в журнале «Нейрон», на мой взгляд. Это один из ведущих нейрожурналов. Если мы смотрим, допустим, в Германии, там 600 статей – это гораздо меньше, чем США, но просто США сложнее считать технически. Это база данных (00:45:45), просто сегодня взял, посчитал. В России – 4 вместо 624. Это, собственно, и все различие. Причем, это всего 4 статьи – это люди, которые… 1-2 человека в большом коллективе с Российской Федерации. И Китай – 106, причем, что они совсем недавно начали этим заниматься.

Пронин Михаил Анатольевич: Сергей Львович?

Эксперт 2: Давайте только, если можно, я все-таки, очень быстро скажу, какие выводы из этого следуют.

Пронин Михаил Анатольевич: Да, давайте.

Эксперт 2: То, что предсказывать будущее технологий нереально – нам уже всем понятно. И особенно сложно с нейротехнологиями. В России нет нейронаук, предсказывать некому. И нужно развивать, прежде всего, нейронауки.

Но, что касается, нужно ли готовить пользователей. На мой взгляд, когда технология возникает, бизнес и должен этим заниматься, тот, которому выгодно. Допустим, «Google», если они хотят какую-то свою технологию, они этим и занимаются. «Google Glass», и теперь ясно, что он не пойдет в таком виде, по крайней мере, и они сразу перестали этим заниматься, этим проектом. И они могут заказывать социологам такие исследования, но в общем, это в значительной степени просто маркетология.

Что касается этических аспектов, я считаю, что среда исследовательская тут наиболее, собственно, важна среди исследователей, разработчиков, и в нормальной ситуации, собственно, эти люди первые видят, в чем проблема, и на самом деле они достаточно, не такие уж и плохие люди, и не настолько уж увлечены, чтобы какую-то гадость совсем подпустить. И общество защиты потребителей, с которыми у нас, к сожалению, не так хорошо в России пошло, я думаю, что тоже еще хорошая была бы составная часть. И нужно создавать условия для того чтобы все это нормально развивалось.

И, что касается социологов, мне кажется, что какая-то помощь бизнесу, может быть. И еще ученым-разработчикам, наверное, нужно помогать в том, чтобы налаживать коммуникации, потому что, как я сказал, что очень большая проблема не в том, что неприятие, а в том, что просто не знают люди, что это такое, и как это воспринимается, информация, какие способы подачи работают. И мне кажется, будет очень интересно, если сравнивать, что реальные научные знания и то, что есть в головах людей, принимающих решение. Я думаю, что это чрезвычайно разные вещи, и их надо, все-таки, сближать.

И, конечно, мне кажется, одна из ключевых проблем в России сейчас – это то, чтобы чиновники не мешали ученым и бизнесу. Для этого нужно объяснять, как устроена наука, и как-то тоже налаживать диалог.

Спасибо.

Пронин Михаил Анатольевич: Спасибо. Итак, коллеги, за счет времени задавания вопросов у нас доклад был расширен. Есть время на один вопрос, по существу. Но это нам облегчает участь, потому что 70%, как показывает статистика, люди задают вопросы, чтобы показать то, что они знают, 20% - поставить в неудобное положение докладчика, и меньше 10% - это действительно что-то по существу узнать. По существу, вопросы есть? Про будущее? Есть, да? Пожалуйста.

Женщина: Дроздова Юлия, Волгоградский институт управления, РАНХиГС. Спасибо вам большое за выступление. И хотелось бы спросить, как, все-таки, вы с позиции естественных наук определяете гуманитарные риски? И в связи с этим, у меня вопрос, прошу прокомментировать. Вы назвали риск соединения мозгами, как риск потери когнитивной какой-то единичности. Означает ли ваша позиция научная, как человека, работающего в естественных науках, абсолютное неприятие позиции Петра, который говорил о том, что как раз-таки риски гуманитарные дают возможность для кооперации. А я, насколько поняла, что вы как раз-таки, как биолог, выступаете противником такой позиции.

Спасибо.

Эксперт 2: Спасибо. Да нет, я совсем не выступаю противником. Как раз я думаю, что в основном, мы с Петром, по крайней мере, я с Петром солидарен в значительно части того, что он говорил. Я просто конкретно здесь не вижу рисков. Мне кажется, вообще нужно каждый раз смотреть конкретную технологию. Она совершенно не такая, как можно про нее подумать, опять же, из СМИ, или даже, если говорить с ученными, но пытаться заглядывать куда-то вперед. Тут нужно каждый раз говорить очень конкретно.

Пронин Михаил Анатольевич: Спасибо большое. Еще раз поблагодарим коллегу. Слово предоставляется Ядовой Елене Николаевне, кандидату социологических наук, проректору по дополнительному профессиональному обучению Московского технологического института. Тема доклада «Восприятие новейших технологий. Готовность к внедрению технологических инноваций в повседневную жизнь. Опыт исследования науки и технологий, STS».

Эксперт 3: Спасибо. Я прошу прощения, я помню, 15 минут, за 2 минуты вы скажете. Мне очень понравилось, как Сергей Львович начал тему ожидания и реальность. Т.е., все-таки, это действительно разные вещи: нейротехнология, о которых мы говорим, и космические корабли, которые бороздят большой театр и всякие сферические кони, которые, безусловно, очень крутые, и что-то из этого будет, но это будет когда-то. А что есть уже сейчас?

Нейротехнологии, например, когда мы слышим «нейро» - во-первых, это круто, это что-то про мозг, это очень здорово. Но, что это такое в жизни. Это два направления: голова и компьютер, который действует, как голова, т.е. нейросети внутри компьютера. Это в принципе и непонятно, когда человек просто «нейротехнологии», что он имеет в виду, надо уточнять каждый раз. Идеально, когда он говорит про то, и про то. А вот, когда мы говорим про биологию, там действительно есть страшная эта инвазивная штука, которая втыкается прямо в мозг. И это обезьянкам не страшно – Александр Калпан на кошках делал это, он говорит: потом кошки прекрасно живут у него на даче – но это в принципе страшно, когда даже говоришь, немножко передергивает, потому что это такое вмешательство, причем, в самое такое мягкое место.

И дальше есть (00:52:29) наружное, и это тоже, в общем, достаточно противно. Очень много каналов, но гель заливает всю голову, и показания, которые снимаются, они еще после этого и неточные. А нам с этим, как бы, работать. И, если говорить про социологов, и, если говорить про бизнес. Что бизнес может с этим сделать? Бизнес старается. И вы правильно, я очень согласна с Сергеем Львовичем в том, что, если бизнес подхватил тему, научился из этого делать деньги, это станет и массовым, и прикольным, и известным, и будет прорабатываться. Если деньги не вмешались, это тяжелее пойдет, какие-то направления все равно будут развиваться.

Есть шикарные штуки в этих же, в голове, но совершенно далекие от науки, медицины и биологии. Например, по образованию… Я про это сейчас не докладываю, но просто зацепилась за тему, я расскажу про нашу апробированную уже историю исследований. В процессе обучения надевается такая штуковина, которая меряет, в общем-то, только биоритм мозга и все – альфа, бета, гамма – т.е. человек спит или не спит. И все, больше ничего он не меряет. Она не то, что не инвазивная, она даже сухая, она не требует геля, ничего. Но она создает вау-эффект, потому что людям жутко интересно попробовать.

Преподаватель, например, ведет послайдно обучение. И послайдно же программное обеспечение анализирует, народ начал засыпать и просыпаться, мафия просыпается… И преподаватель из этого может делать выводы – вот этот слайд для аудитории не подходит, они заснули; либо очень сложно, либо очень просто, неинтересно. Но, с точки зрения медицины и биологии – это ничто, потому что это не наука, это неинтересно, это не исследование. А бизнес уже может это использовать. Т.е. это такая, маленькая перемычка между нашими докладами.

О чем я буду рассказывать? Мы в Московском технологическом институте тоже, зацепившись за российскую венчурную компанию и их желание развивать технологии, в том числе, нейронет, в 2015 году зацепили несколько технологических проектов очень плотно, большее количество технологических проектов на неком отдалении. Начали изучать их, помимо инвестиций, которые наш институт в них вкладывает, начали изучать этот самый опыт исследования науки и технологии STS. Он, кстати говоря, чтобы философы начали прибедняться немножечко, а ведь cognitive science в России системно исследуется пока только в рамках философии, в принципе: и статьи выходят, и… Т.е. эта системная работа введется в рамках философии. Она, конечно, распространится, она, конечно, потом соберется, и проснутся и активизируются и психологи, и социологи – все. Но cognitive science, который за границей уже ого-го, как развивается, и там уже настоящий компьютерный промышленный дизайн, индустриальный дизайн. У нас пока это такие разрозненные иногда несистемные штуки. Это очень интересная и нужная штука, в том числе, и для социологов.

Понятно, что мир меняется. Теперь я перехожу собственно к докладу. Хотя сказать хочется очень много всего, особенно после докладов предыдущих.

Мир меняется действительно. Ожидания и реальность различаются. Мир становится цифровым, видео действительно нужно, можно им пользоваться, но насколько оно становится массовым – это вопрос прогнозов и это необходимая штука, работать социологом вместе с физиомерами, евангелистами, модные слова – люди про будущее, которые очень часто вообще оторваны от реальности, которые говорят вроде бы пр сферический коней, но именно социолог может быть переводчиком с этого сферического языка на человеческий. И, чтобы журналисты перестали косячить, и искажать информацию – тут тоже социолог нужен, потому что он умеет это дело интерпретировать. Эта шикарная у Петра же слямзенная картина – у нас происходят колоссальные технологические изменения, их много, перечислять…это невозможно перечислить в рамках какого-то регламента, уже начали на пленарке… Но мы движемся в эту сторону технологий. И то, что там, по ту сторону технологий, в основном, пугает пока что, потому что непонятно. Это тоже из разряда экономической социологии, и экономики – пункты характеристики, рациональности, информированность.

Что мы делаем? Социолог может помочь перестать бояться технологий, перестать бояться фактически неизвестного, если прямо обобщить очень сильно.

Скажите, пожалуйста, есть ли в аудитории люди, которые знают, кто такой робот «Промобот»? Кто сталкивался? Слушайте, здорово, великолепно. Я обкатала на технологической аудитории, они знают, что такое «Промобот», не знают, что такое социология. Я счастлива здесь быть просто.

Это робот, предназначенный для взаимодействия в местах скопления людей. Он общается с людьми. Фактически это такая интеллектуальная веселая информационная стойка, которая может отвечать на вопросы, т.е. с хорошим голосовым управлением. Он и людей может запоминать, данные хранить – все это сливает в облако. У него огромное количество речевых модулей. И мы взяли кусок этих речевых модулей, о чем с роботом разговаривают. Вот, очаровашка стоит в месте скопления людей, у нас это стояло в образовательном учреждении, в музее стояла. «Метроша», может быть, вы слышали, появился такой робот в этой серии. У нас он гордо именуется Алантим, называется заместителем заведующего кафедры робототехники в Московском технологическом институте, он уже и лекции вел.

Мы проанализировали, о чем разговаривают люди с роботом. Это очень такой социологический момент: возникает стойка, которая к тебе обращается. Он стоит, если никто с ним не разговаривает, он говорит: «Поговорите со мной, пожалуйста. Я – новичок, не проходите мимо». Людям очень трудно взаимодействовать с чем-то новым обычно. С роботом барьеров взаимодействия практически нет. Народ тянется. Потому что он неуклюжий, он очень такой – на фотографии видно было – он небольшой, он очень медленно ездит, очень медленно поворачивается, и не вызывает страха.

Страх – это очень важная штука. Если проводить более глубокие исследования, например, на выставках, как дети реагируют на крупных роботов, на громких роботов, и на роботов маленьких, таких, кажущихся менее опасными – совершенно по-разному, подходят по-разному. И к такому очаровательному, милому медленному нестрашному роботу все равно определенный процент аудитории не подходит, и мы их, естественно, в этом исследовании не зацепили, а очень жаль – это наша проблема достижимости вечная, она, собственно, говоря, здесь есть.

Так вот, мы выявили, когда смотрели просто – это даже не наблюдение было научное, просто смотрели, как люди общаются с роботом – выявили, что у людей возникает барьер. Тянутся, общаются, и в какой-то момент понимают, что дальше не знают, о чем разговаривать.

Мы проанализировали, о чем говорят с роботом. Во-первых, сначала личное. Это прямо вал комплиментов роботу. Просто вместо «здрасте», как бы мы поступали с приятным нам человеком, если бы мы не знали, что есть социальный барьер, что девушка может в Америке засудить молодого человека, если он ей просто подойдет, скажет: «ты симпатичная». А роботу можно – пожалуйста.

О чем еще говорят? О жизни робота. Когда ты родился? Кто твой папа? Откуда ты? Чувствуете, уже началось. Железка, перед тобой стоит железка, но ты все равно его спрашиваешь. А что ты умеешь делать? А ты умеешь учить уроки? А ты умеешь ходить? «Умеешь» - чувствуете, какая семантика вопросов?

Информационные запросы, в общем-то, это логично. Информационная стойка, поэтому надо спросить: прогноз погоды, курс валют – это, в общем-то, более-менее логично. Отправь меня в контакт, покажи мультик – тоже более-менее. Потому что вроде стоит, должен развлекать, мне тут скучно, я жду. Познавательные вопросы – это уже проверка на вшивость, как лектора проверяют. Когда была Вторая мировая война? И он должен ответить. А робот адресуется к нескольким базам в облаке. Представляете, если хороший интернет, он быстро отвечает, если интернет слабенький, он отвечает медленно, если задан каверзный вопрос…

Я очень люблю приводить шикарный пример. Журналистка – упоминали уже журналистов в хорошем смысле – подошла, и спросила: «Алантим, скажи, существует ли женская логика?». Когда робот адресуется к базе, он же молчит, ощущение, что задумался. Такой вопрос, любой бы задумался, в принципе. И ответил: «Да, это сериал». Т.е. он запросил свою одну базу, запросил вторую базу – нет там такого вопроса. Пошел в интернет. В интернете нашел - сериал, все в порядке, есть. Эта же самая журналистка, спасибо ей большое, задает ему еще один вопрос: «Кто был первым: мужчина или женщина?». Такой нормальный гендерный вопрос для другой секции. Он опять немножко задумался, и ответил: «Первым был Адам». Какие вопросы еще? Нормальная мужская логика.

Третий блок вопросов и взаимодействия – расскажи. Т.е. не просто адресуй меня к чему-то, а спой мне. Это немножечко он сам подстегивает, потому что, когда он не знает, как ответить на вопрос, он может анекдот рассказать, спеть, может даже станцевать – как-то так, медленно, плавно, не страшно. Открывать браузер он может, запрашивают такую информацию тоже, т.е. пытаются его использовать просто, как «Siri».

Самое главное, что происходит: все вопросы, которые к нему адресованы, они гуманизированы, персонифицированы. Нам так проще. Мы не умеем общаться с кофеваркой, как будто это кофеварка. У кого есть робот-пылесос, он тоже периодически нет-нет, да и скажет ему: «Куда ж ты поехал, дурачок». И на этой штуке, эволюционирующей… Это еще не искусственный интеллект в чистом виде, про который все говорят и фильмы снимают. Это другая еще история. Это не алгоритмы уже, т.е. у него нет такого, что, если ты сказал «привет», он тебе скажет такую фразу, а если ты сказал «здравствуйте», он тебе скажет другую фразу. Такого нет. Он сам выбирает, он проводит некий свой внутренний анализ, но это все равно еще не тот искусственный интеллект, который можно хоть как-то сравнивать с нашим сознанием. Хотя это отдельная большая проблема, что такое сознание у человека, извините, а потом уже у машины.

Т.е. получается, что мы персонифицируем технику. А, что мы будем с ней делать, если у нас такой штуки будет много. Мы цепляем огромный пласт психологических проблем, которые могут возникнуть от того, что мы излишне персонифицировали, недостаточно персонифицировали. Этот баланс, пока мы будем его искать, мы будем иметь огромное количество сложностей. А тем временем у нас в принципе в нашу повседневную жизнь постепенно эти технологии вливаются. Самые массовые, конечно, это все равно роботы-пылесосы, окномойщики еще появились, они более-менее такие, удобоваримые по цене, и уже можно их покупать себе, упрощать себе жизнь. Виртуальная реальность тоже уже входит в нашу жизнь. Пока это только развлечение, но дети, которые научились играть в виртуальную реальность, и им это нравится, дальше будут с большим удовольствием в ней, внутри этой виртуальной реальности учиться, проходить опросы. На пленарке, кто был, видели, что уже есть технология, которая очень сильно удешевляет нашу работу. Соответственно, она имеет все шансы на то, чтобы жить. Нейромаркетинг – отдельная песня, тоже дает огромный пласт данных, которые у нас по-другому, мы не могли бы достать, или могли бы, но очень дорого. Замер биосигналов – представляете, это какой колоссальный ценный feedback, даже с учетом того, что это еще не очень прокаченные (01:05:14), когда аудитория начинает засыпать. Такую штуку на голове, кстати говоря, носить больше получаса очень неудобно, т.е. на целую лекцию человека не хватит. Но, если надевают такой гаджет несколько человек по очереди… снизу парень – это ребята сделали наши из МФТИ тоже сделали замеры биосигналов, и можно мерять и пульс, и сердцебиение, если надо, соответственно, а это надо для исследований, очень интересная и ценная информация.

Еще очень важный результат одного из наших опросов, я бы хотела отметить в продолжение того, что на пленарке было сказано, что мы пока, Россия, в общем-то, как техно-оптимисты себя ведем. Так вот, да, мы провели исследование на, конечно, нашей выборке студентов – это МБэйщики, это люди, выборка…заполнили 400 респондентов – это люди, которые интегрированные в интернет очень хорошо, учатся на дистансе, т.е. они с технологиями, которые сейчас являются массовыми, уже на «ты»; разные представители менеджмента – среднего, малого, руководители бизнеса. И вот, мы их спрашиваем: вы считаете, в образовании надо замерять утомляемость, сигналы мозга считывать? Т.е. в принципе, это такой вопрос, из космоса. 45% номинально, не поведенчески, но номинально сказали – 45% - это колоссальная цифра – сказали, что «да, надо». А на другом конце было: «Все нормально с привычной формой, не надо отвлекать от содержания. Мы же учимся, у нас все и так хорошо».

Пронин Михаил Анатольевич: Елена Николаевна, время.

Эксперт 3: Спасибо большое. Это, что мы можем делать, если мы не справимся со стрессом, будем крушить роботов.

Пронин Михаил Анатольевич: Спасибо. И вопросы. Пожалуйста, сейчас вам микрофон.

Эксперт 3: Спросите что-нибудь про выборку, про методологию, пожалуйста, спросите.

Олимпиева Анна. Балтийский федеральный университет имени Канта, Анна Олимпиева. Я преподаватель ВУЗа, поэтому я очень болезненно вообще отношусь к истории с Алантимом. Я год или полтора назад услышала от своих коллег из других ВУЗов разговоры, что нас скоро заменят роботы. Потом появился Алантим. У меня вопрос: на ваш взгляд, реальные перспективы вообще замены всех ВУЗовских преподавателей? Потому что с точки зрения правительства РФ, я понимаю, что это очень выгодно, нам перестать вообще окончательно уже платить. Я надеюсь, что роботы дорого стоят, и это наш шанс.

Эксперт 3: К сожалению, нет. К сожалению, робот стоит дешевле, чем преподаватель, даже тот преподаватель, которые недоедает и плохо одевается.

Это тема немножечко из другой сферы, даже не из технологий. Это тема из перевернутого и смешанного обучения. Действительно, если 20 лет назад супер-пупер преподаватель-профессор самый опытный, самый крутой, он читал лекцию, а потом аспиранты вели семинары. Теперь наоборот: преподаватель супер-пупер 1 раз читает лекцию на камеру, дальше ее можно смотреть. Какой смысле повторять, тем более, на поток 1000 человек – один спит, другой опоздал. В общем, это неудобно, это просто физически неудобно. Преподаватель остается, но он один раз сказал. Не каждый год он приходит и новым рассказывает. А практики и не менее супер-пупер люди должны уже отрабатывать с другими людьми эти семинары, практикумы и т.д.

Т.е. поменялась сама модель. Робот в нее прекрасно встраивается. Т.е. вместо компьютера и видео на компьютере ездит эта информационная стойка. Он шевелится, он разговаривает, он может пошутить. В него можно встроить, а он может сам выбирать варианты. Если он слышит, что в аудитории шумно, он может пошутить так; если он слышит, что все затихли, может пошутить этак. Это прямо такой интерактивчик. Сейчас это еще и вау-эффект, потому что прикольно побыть на лекции. Но преподавателя, получается, так же, как в вариантах с другими технологиями, разгружают от рутинной работы, и дают ему возможность обновить лекцию, найти новые данные, заняться исследованием. Преподавателя утилизировать пока рано. Но преподаватели – говорящие головы, которые из года в год повторяют одно и тоже, действительно становятся не нужны при такой истории. Нужна лекция записанная – это круто.

Михайлова Елена Александровна: Я хочу спросить, все-таки, как социолог, сколько человек участвовало в эксперименте этом? Где он проводился? Какие-то детали.

Эксперт 3: В опросе – это 400 человек, количественная выборка. Но она, естественно, она стихийная – она и из выборки, и… А в контент-анализе, мы просто не знаем, потому что он не умеет дробить по людям. Я пока билась над этим, не получилось. Т.е., сколько людей, и сколько 1 человек задавал вопросов, мы тоже не смогли померять, потому что технологически… технология, как бы, космические корабли, а тут технология не дает.

Но из этого всего есть вывод. Поскольку мы с Петром действительно сделали большое исследование, пока оно сейчас в процессе анализа, поэтому, порадовать результатами… Но зато можно анонсировать загадочно. Мы тоже сделали стихийную в интернете выборку, больше 2000 тысяч. С точки зрения статистики, все нормально, с точки зрения репрезентативности не нормально и не будет. Но очень важный вывод, что исследования по части технологий ведутся уже. Томский государственный университет ведет, Высшая школа экономики ведет, они делают, в том числе, репрезентативные выборки, которые показывают, что, когда мы размазываем тему технологий, выводим из разведывательного, и пытаемся делать уже регулярные исследования, мы сталкиваемся с неинформированностью, которая убивает нам все цифры самые красивые. И на данном этапе переводить все в репрезентативность, и делать четкие, хорошо выверенные выборочные совокупности, пока может быть, рановато. Имеет смысл отбирать тех, кто информирован по неким вопросам, фильтрам и т.д., и уже их спрашивать, чтобы ловить какие-то закономерности, как психологи делали всегда, и, наверное, будут делать дальше. Кто больше пугается роботов – по таким-то характеристикам; кто больше готов, кого нужно как информировать, кто готов к безусловному базовому доходу, кто готов делать себе какой-то нейрозамер.

Пронин Михаил Анатольевич: Екатерина Николаевна, спасибо большое.

Михайлова Елена Александровна: Сейчас, подождите. Еще очень волнует меня один вопрос. Мне кажется, эта технология, она в дальнейшем просто будет использоваться в социологии, о которой вы рассказали, когда просто видно, когда человек засыпает, когда ему неинтересно. И для разработки коммуникативной стратегии это будет, наверное, очень востребовано и полезно.

Это вообще в России присутствует?

Эксперт 3: Да, у Натальи Галкиной уже большая достаточно организация. Они ведут системно исследования по нейромаркетингу. Причем, делают не только замер... (01:12:47) не очень, он интересный, он с вау-эффектом, но с точки зрения социологии, еще не очень информативный. Гораздо ценнее отслеживание движения глаз, они это тоже делают; сердцебиение, пульс и т.д. Нейромаркетинг – это прямо отдельный инструмент для социологов, для исследований. Он действительно очень ценный, в России он есть, у Натальи Галкиной. Она, кстати говоря, тоже плотно работает с Александром Капланом, который получил, слава Богу, много денег на исследование, чтобы это все тоже двигалось в сторону бизнеса. Потому что Сергей Львович правильно говорит, что, если деньги не влились, не массово будет.

Пронин Михаил Анатольевич: Спасибо большое. Еще раз поблагодарим. У нас вопросов больше не будет, потому что по регламенту у нас осталось еще 2 докладчика. Уже доклады будут не по 15 минут, а меньше. Поэтому, если мы начнем сейчас задавать вопросы, то просто времени не останется.

Я коллегу хотел пропустить вперед, чтобы он выступил, а я сам…

Женщина: Просто хотела с выборкой… Какого мнение этих 400 респондентов?

Пронин Михаил Анатольевич: Все, пожалуйста, в кулуарах.

Эксперт 3: Нет, вот этот вопрос, они готовы номинально использовать эти замеры. Не просто учиться и сдавать тесты, а надеть на себя этот нейрогаджет. Они готовы мерять пульс. Помимо того, чтобы учиться, еще и нагрузить себя этой атрибутикой. Номинальную готовность выразили 45%.

Пронин Михаил Анатольевич: Спасибо. Итак, следующий докладчик Пронин Михаил Анатольевич, кандидат медицинских наук, старший научный сотрудник, руководитель исследовательской группы «Виртуалистика» институт философии РАН. Тема доклада: «Вызовы и мировоззрения разработчиков технологии виртуальной реальности. Новые объекты для социологических исследований».

Собственно, это я.

Итак, уважаемые коллеги, мой доклад будет в жанре философии, как экспертизы. Эту тему, название предложил Борис Григорьевич Юдин, бывший замдиректора «Института человека РАН», потом директор института. Затем наш «Институт человека» присоединили к институту философии на правах сектора, отдела и сектора проблем комплексных междисциплинарных исследований человека. Собственно, это тот центр, в котором уже давно ведется работа по гуманитарной экспертизе, биоэтике новых технологий. Собственно, если вас эта заинтересует тема, то во всяком случае на сайте института философии вы найдете очень много материала.

И моя личная трактовка этой темы состоит в том, что, в общем-то, если мы занимаемся философией, как экспертизой, то, как исследователи, прежде всего, мы должны подвергать этой самой экспертизе наши мировоззренческие установки. Собственно, можем ли мы с тем взглядом на мир, который мы имеем, разбираться с тем, что мы сейчас творим, создаем, порождаем, и способны ли мы увидеть это самое будущее.

Мой опыт работы очень простой – это 5 государственных программ еще советских. Т.е. я достаточно пожилой уже человек, у меня мемуары есть. У кого-то в зале есть мемуары написанные, изданные? Нет? У меня мемуары вышли, как участник ликвидации последствий катастрофы на Чернобыльской АС, я их написал в прошлом году, они стали лауреатом премии «Звезда Чернобыля» за 2016 год. Читаются, говорят, за ночь. Правда, кто-то говорит, что спит хорошо, поэтому за ночь прочитать не сможет.

Поэтому, где взять специалиста по ликвидации последствий катастрофы на Чернобыльской АС, если никто их никогда не готовил? Госпрограммы уничтожения химического оружия. Но, как мы можем прогнозировать то, чего мы никогда не делали? Тоже такой практический чисто вопрос. Как вести эту самую социологию? Как выбирать районы размещения особо опасных объектов по уничтожению химического оружия. Обзоров нет, газет нет, журналов нет, отчетов нет, ничего нет, а проектировать и прогнозировать надо.

Поэтому, если мы опять же летим куда-то в космос, или создаем новые технологии, мы сталкиваемся с ситуацией, когда мы самые умные, с одной стороны, самых подготовленных специалистов взяли, а с другой стороны, мы понимаем, что мы, в общем-то, неадекватны – такой синдром умного дурака. Потому что взялся за дело, ты идешь впереди всех по чистому полю, и поговорить даже не с кем.

 В этот момент и встает вопрос о философии, как экспертизе, собственно, посмотреть на самого себя, решить эту задачу собственной адекватности и ситуационного анализа, куда ты попал. Не говори «гоп», пока не перепрыгнул, а коли перепрыгнул и сказал «гоп», то посмотри, куда вскочил. Потому что создал Бог землю, небо, мир, и сказал, что это хорошо. Разработчик, генеральный конструктор атомной электростанции сказал, что это хорошо, госкомиссия сказала, что это хорошо, мы сказали, что это хорошо. А потом этот недород бытия превратился в перерод бытия, и получилось несколько больше, чем мы предполагали.

Как, собственно, в этой ситуации разбираться. Я считаю, что есть один из самых лучших фильмов всех времен и народов, который посвящен теме стратегического планирования и прогнозирования. Это советский мультфильм, собственно, я еще один мультфильм процитирую, называется «Баранкин, будь человеком». Я обычно менеджерам-стратегам показываю этот мультфильм, как они там проектируют будущее, эти два парня. А, собственно, проектирование будущего – это избегание опасности в той ситуации, в которой они находятся. И каждый раз они промахиваются. Поэтому, обсуждать будущее – это самое сложное.

Я – представитель направления, которое называется виртуалистика. Сайт «virtualistika.ru». В этом году нам 30 лет. Это год выхода статьи Носова и Генесарицкого «Виртуальные психологические состояния в деятельности человека-оператора», собственно говоря, летчика. Связано это с двумя вопросами. Это очень существенно для всего того, что звучит сегодня здесь и сейчас. Ошибки у летного состава связаны с посадкой самолета на фюзеляж. Кто летал, кто летчик в аудитории? Абстрактный пример. Теперь пример для вас. Человек обознался, ослышался, описался, оговорился – и ведет себя так, как будто бы сделал правильно. Т.е. появился объект, который характеризует деятельность летчика, в которой он считает, что он шасси выпустил, но он их не выпускал. Это феномен неразличения. Собственно, это когнитивное, индивидуальное, бессознательное.

Виртуалистика занимается индивидуальным когнитивным бессознательным, коллективным когнитивным бессознательным. И я могу сказать, что наше направление уже 30 лет находится в коллективном когнитивном бессознательном в науке, философии. Т.е. меня и в институте тоже не видят, и социологии, и пошло-поехало.

Носов, понимая, что этого никто не видит, написал книжку в 2001 году. Она на сайте есть, там 50 страниц с небольшим. Называется «Невиртуалистика». Он сравнивает 2 парадигмы психологических: константную психологию – собственно, где появляется это самое сознание, и какое мнение мы меряем, и у кого мы спрашиваем. Мы спрашиваем у человека, который не различает, что он ошибается. Как задавать вопросы про то, что человек не знает, не видит, не понимает, и не различает. А сейчас мы попадаем в очень такую интересную ситуацию. Опять же, она связана с тем…

Я коротко скажу, что вышла статья в декабре. Она посвящена как раз этому вопросу – вызову мировоззрению разработчиков технологий виртуальной реальности. Как вы видите, там 20 страниц с лишних, в доступе этот материал, «Философия образования», Новосибирский журнал очень хороший. Можно посмотреть.

Что не видит технологический мейнстрим? Технологии виртуальной реальности не работали бы, если бы не работала природная виртуальность человека. Собственно, где проходит демаркационная линия между виртуалистикой и невиртуалистикой? Все схемы, они строятся от образа, который появляется во внутреннем пространстве человека. И дальше выстраивается линия – обычно все ссылаются на Хоружева Сергея Сергеевича, что у нас что-то порождается, а то, что порождается, оно всегда более слабое, более недовоплощенное, чем физическая реальность. Он говорит о недороде бытия. Я, как участник ликвидации последствий аварии на Чернобыльской АС могу сказать, что я участвовал в перероде бытия. Эти схемы работают только в экранных технологиях виртуальной реальности. Там, где по пути во внутреннее пространство и технологи, и психологи, и социологи останавливаются… даже более того, я могу сказать, когда технологам, разработчикам говоришь, что техническая виртуальность не работала бы, если бы не работала природная виртуальность человека, де ваше рабочее место – это рабочее место внутреннего пространства другого человека, как оно устроено. Но обычно говорят так: нет, давайте, у нас есть экран, у нас появилось изображение, человек его воспринимает, дальше с ним что-то происходит. И вовнутрь они туда не идут.

Что такое виртуальные психологические переживания? Это переживания в самообразе, это другая реальность-самообраз, переживание в самообразе характера, актуализации образа во внутреннем пространстве человека. Когда человек начинает переживать сам характер развертывания у себя внутри то, что он воспринимает, именно это. И, где это начинается? В очень простом месте. Откуда приходит мысль, и куда она уходит? Куда уходит мысль – понятно, что в действие, можно сказать, куда оно пошло – в руку. И оказывается, что в 2,5 раза рука точнее этой связи, о которой нам коллега рассказывал.

И поэтому, что сейчас происходит с технологиями дополненной виртуальной реальности? Во-первых, технологи опять считают, что они там это все придумали: шлемы, очки. Но зайдите вы в храм любой религии, вы сразу же попадете в шлем. Другая реальность – храм любой религии. Я вам даже больше того могу сказать, что я, как мужчина, знаю, что, если женщина тебя впускает в свою реальность, то это очень сильно мужчину модифицирует. А она еще включает технологии дополненной реальности, делает губки бантиком, потом включает 3D-принтер, начинает ребенка печатать.

Поэтому, разработчики технологий, которые думают, что они дополненную реальность придумали, достаточно посмотреть на православную икону, и вы увидите там все эти реальности уже давно нарисованы. Т.е. это просто малокультурные люди, по большому счету, если говорить про социологию науки. Т.е. главное, что они видят, что технологии бы не работали, если бы не работала природная виртуальность человека. Т.е. homo virtualis – это как homo sapiens, человек прямоходящий, играющий и т.д.

Раз технологии обманывают сознание человека, головной мозг, если технологии, чем лучше они обманывают, тем они более продвинутые – логика понятна? Значит эти технологии должны быть поставлены под этический контроль, под юридический контроль, и под контроль гражданского общества. Это вопрос, с которым сейчас и социология, и наука должна работать. И поэтому, новая тема – это социология обманов и заблуждений.

А почему? Сейчас начинает вырастать человек, и отбираться человек обманывающийся, который теряется в этих самых виртуальных технологических мирах. Значит, если раньше человек ошибся, он погиб, то при новом витке эволюции у нас получается так, что, если человек обманулся, он начал развиваться быстрее в этих реальностях. У нас меняется вообще принцип эволюционного отбора. Тогда встает вопрос, как мы будем мерять этот новый виток эволюции, человека обманывающегося?

Это же происходит и в социальных процессах. На сайте на странице института есть статья «Феномен блокирования рефлексов и социальных процессов» - можете посмотреть.

Как вообще внутренний человек взрослеет? В 3 года происходит удвоение реальности телесности, в 6 лет удвоение реальности сознания. Это не значит, что сознание появляется. Это значит, что человек начинает различать свои и чужие мысли, его можно в школу отправлять.

Поэтому, и тема какая сейчас в клинике реанимации после черепно-мозговых травм? Опять же, есть состояния удивительные, когда люди лежат в клинике, глаза открывают, т.е. они не спят, но контакта с ними нет. И сейчас, собственно, медики, врачи – я врач по образованию, они перестали мучиться, что такое сознание, они занимаются уровнем бодрствования.

В связи с тем, что у нас появляются эти новые миры, интернет, киберпространство, человек обманывающийся, собственно говоря, социология сейчас должна начать заниматься новым объектом для социологии – это не просто социология общественного сознания, а социология уровня бодрствования. Потому что мы должны будем различать свои мысли от чужих мыслей. И, собственно, выживание человечества сейчас будет начинаться и заканчиваться этим. Т.е. я вообще-то различаю, откуда эта мысль пришла, и куда она ушла.

Очень интересны направления, которые разбегаются. Сейчас, коллега не даст соврать, разрабатываются компьютерные системы управляемого наркоза. Если мы говорим про наркоз и сознание, то кто из вас может восстановить дыхание своей мыслью? Наверное, никто. Но удивительно, что, если выключается сознание, то выключается дыхание. Человека переводят на искусственную вентиляцию легких. Т.е. получается так, что у нас там, где включатся сознание, там же и включается дыхание.

Опять же, у меня запрос на сетевую социологию. Я прогнозирую, что в шлемах виртуальной реальности будут происходить смертельные случаи. Поэтому, если вы это будете находить в сетях где-то информацию такую, пожалуйста, со мной связывайтесь, давайте, мы начнем это просто собирать. У меня есть такое предположение по поводу рисков. Дай Бог, чтобы я ошибся.

И сетевая социология, так бы ее назвал, таких слабых сигналов. Вот такие примерно вызовы сейчас стоят перед разработчиками технологий виртуальной реальности, дополненной реальности. И самое главное, это конечно, взрослость человека. И в год 2017-й, 100-летие революции мы вообще-то должны ответить себе на вопросы, а чьими идеями мы живем? И какими идеями Россия живет сейчас? Какие наши? Какие не наши? Какие привиты на нашу почту, какие нет?

Спасибо большое.

Один вопрос, наверное, если есть, по существу. Пожалуйста.

Женщина: Я могу без микрофона.

Пронин Михаил Анатольевич: Нет, знаете, записывается. Потом же люди будут смотреть, и важно, чтобы было слышно. Иначе непонятно будет, что вы спрашиваете.

Женщина: У меня будет очень краткий комментарий, скорее, а не вопрос. Т.к., наверное, идеология социологии строится на том, что реально то, что человек полагает в качестве реального – это фактор его поведения. Наверное, мы должны скорее изучать виртуальную реальность, чем социологию бодрствования. Т.е., скорее, идти туда, и изучать восприятие виртуальной реальности, а не разделять их. Это, скорее, будет неестественно.

Спасибо.

Пронин Михаил Анатольевич: Я считаю, что человек – виртуальная реальность. Мир виртуален, и человек есть виртуальная реальность. И, соответственно, мы просто отличаемся тем уровнем осознанности и произвольности поведения в этом пространстве и в жизни. А, конечно, то, что я сказал про социологию бодрствования, я немножко поерничал в сторону социологии, но это различение своих мыслей и чужих мыслей, особенно…

Опять же, понимаете, в чем дело. Если вы надели шлем, если вы были в шлеме виртуальной реальности, вы там крутитесь, потом, когда вы его снимаете, и, как правило, вы сидите на кресле, которое на колесиках, вы шлем снимаете, совершенно оказавшись в другой стороне. И проблема виртуальной реальности – это проблема управления доверием. Т.е. вы попали в другой мир, но кто-то должен смотреть, чтобы вы куда-то не уехали с этим роботом, и не споткнулись, и об стену не ударились.

А это очень важно сейчас, в том числе, и в военных операциях, когда международные силы ведут боевые действия, управление доверием. А доверие-то мне покажите? Какая это реальность, управление доверием? Между мужчиной и женщиной тоже управление доверием, между учителем и учеником – управление доверием. Это ключевые моменты.

Спасибо.

Коллеги, и у нас еще один докладчик.

Михайлова Елена Александровна: У нас осталось совсем мало времени, 5 минут. Перерыв короткий, придет очень большая секция, следующая за нами. Поэтому, я хочу напомнить, что ВЦИОМу тоже 30 лет, как и секции «Виртуалистики». В этом году мы проводим большую работу по формированию тематических экспертных групп, по формированию экспертных региональных групп и т.д. Поэтому, если вам интересно участвовать в дальнейшей разработке по данной методике, методологии, по данному направлению, оставляйте, пожалуйста, контакты. Да, у нас есть данные на регистрации, но непонятно, кто дальше хочет в этом направлении работать, кто не хочет. Кто готов активно подключаться, и в этом заинтересован, пожалуйста, проинформируйте как-то об этом, или мне дайте свои визитки. Это первое.

Мы немного не успели Евгений послушать. Я хотела в двух словах. То, что мы делаем и планируем делать, активно развивать – это схоже с тем, о чем вы хотели нам рассказать, именно о каких-то площадках, на которых возможна гуманитарная экспертиза каких-то проектов, и у такого рода проектов. Можете прямо в 2-х словах рассказать, в чем суть концепции таких проектов?

Пронин Михаил Анатольевич: Давайте я вас только представлю. Маслов Евгений Валерьевич, кандидат философских наук, научный сотрудник сектора социальной эпистемологии Института философии РАН, сотрудник научно-исследовательского физико-технического института НГГУ, Нижний Новгород. И тема доклада «Краудсорсинговые площадки как элемент инфраструктуры гуманитарной экспертизы. Российский контекст.

Эксперт 4: Собственно говоря, я хотел немножко поговорить о том, каким образом внедрение новых технологий можно попытаться поставить под контроль гражданского общества. Потому что, собственно говоря, задача эта важная. Очевидно, что новые технологии проходят экспертизу перед своим внедрением, но экспертиза обычно происходит со стороны экспертов. И существуют просто в социологии примеры, собственно говоря, (01:35:44) приводит некоторые примеры, различные другие примеры о том, что технологии, которые внедряются, зачастую функционируют не совсем так, как предполагалось, что они будут функционировать. И это оказывается, на самом деле, достаточно важно. Потому что, если бы технология была жестко заимствована из лабораторных условий, она могла бы и не стать реально функционирующей технологией.

Собственно говоря, пример с «Google Glass», который не заработал. Понятно, что, например, смартфоны, когда создавались, ясно, что там будут новые функции, но вряд ли кто-то думал, что принципиально важной функцией для них окажется функция камеры, и эти камеры будут дико развиваться.

В этой связи существует вопрос, связанный с тем, что эксперты не всегда могут предсказать то, каким образом будут развиваться технологии, с одной стороны, и как они будут использоваться. С другой стороны, они в связи с этим могут опять же не заметить некоторые риски, что может оказаться важным. При этом эти технологии оказываются связанные с жизнью обычного человека. Получается, что человеку необходимо, обычному человеку, все-таки… Мне кажется, и гражданину нашего общества, любого общества, мне кажется, что хотелось бы, чтобы он мог принимать участие в этой экспертизе.

Очевидно, что 10-15 лет тому назад человек не мог, обычный человек не мог принять участие в экспертизе по целому ряду ограничений. Очевидно, что у него не было времени на это мероприятия, он не мог присутствовать в группах, связанных с некоторыми форсайтами… Куча физических ограничений. Также существовали ограничения, связанные с тем, что все равно он находится под непосредственным контролем экспертов, которые с ним взаимодействуют. Это оказывает на него влияние.

В связи с этим, собственно, появление новых информационных технологий позволяет выстраивать новые площадки, собственно говоря, крайдсорсинговые площадки. Но под краудсорсингом мы понимаем мобилизацию ресурсов и усилий людей посредством информационных технологий с целью решения задач, стоящих перед различными социальными акторами и общества в целом. В этом смысле можно попытаться создавать некоторые площадки, на которых люди, естественно, заинтересованные люди, могут принимать участие в экспертизе этих проектов.

По большому счету, возникает вопрос, действительно ли это может работать? Потому что это какая-то утопическая идея. Мы создали платформу, на которую придут люди для того чтобы экспертировать, о чем-то рассуждать. Но, если мы посмотрим на опыт и России, и мира, краудсорсинговые площадки работают, они работают в бизнесе, в этом смысле бизнес может привлекать опять же людей для некоторой попытки экспертизы и предсказания некоторых неожиданных возможностей использования технологий. Но они работают для формирования в России, например, некоторых оценок законодательных инициатив. В этом смысле вообще эта задача реализуемая.

Но дальше возникает много технических вопросов, связанных с тем, каким образом можно пытаться привлечь туда людей, построить некоторые взаимодействия между ними. Потому что, понятно, например, что профессиональные эксперты могут оказаться возмущены, когда на эти площадки придут люди, и начнут писать некоторые тексты, которые будут казаться профессиональным экспертам ахинеей. Но нужно же понимать, что эту ахинею пишут некоторые люди, которые присутствуют в обществе. Возникают опять же вопросы, связанные с неадекватной передачей журналистами информации о некоторых технологических решениях.

Собственно, мой посыл – давайте делать краудсорсинговые платформы для того чтобы заниматься экспертизами и технологией.

Пронин Михаил Анатольевич: Евгений Борисович, спасибо. У вас есть какая-то платформа уже, или что-то вы можете порекомендовать?

Эксперт 4: В данный момент, к сожалению, у меня нет такой платформы. Это такой утопический проект.

Пронин Михаил Анатольевич: Спасибо. Уважаемые коллеги, у нас время исчерпано. Я буквально 30 секунд займу на правах модератора, подведу итоги, и передам слово для закрытия Михайловой Елене Александровне.

Для меня лично, что сегодня прозвучало, как набат в определенной степени – это конечно же слова «нет», «нейронет», «здоровья нет» - «HealthNet», «Aeronet». В общем, ничего у нас нет. Названия, конечно, очень интересные все, когда нет. А если чего нет, спрашивать про это тоже как-то неинтересно. Хотелось бы, все-таки, чтобы это по-русски звучало, с одной стороны. А с другой, конечно, проблема рассказа про то, что происходит в науке, потому что на мой взгляд дискурс релизов, пресс-релизов и докладов, если рассказать нечего, он никуда наши инновации не ведет. У нас проблема с медийным, гуманитарным, научным, содержательный сопровождением наших разработок. И я не думаю, что средствами эмоциональной журналистики мы это решим. Нам надо пересматривать структуру подготовки научных содержательных журналистов, переводить бюджетные деньги, на мой взгляд, в магистратуру, а еще лучше во второе образование, учить инженеров, физиков и лириков, тех, кто действительно что-то создают, чтобы они умели рассказывать это интересно. Мне кажется, в эту сторону мы можем подумать, если какие-то сообщества формировать. Потому что никто, кроме исследователя, про циклопентанпергидрофенантрен, про жар холодных чисел ярко не расскажет. Это может рассказывать только тот, кто этим занимается. Но его тоже этому надо учить. А это базовое свойство и качество человека. Мы учимся вообще через рассказы, человечество, через истории какие-то. И сейчас многие школы, киношколы на Западе, они вообще своего оборудования не имеют. Ребята приходят со своими камерами, со своим программным обеспечением. Чему они там учатся? Они учатся рассказывать истории, они учатся рассказывать хорошие истории, они учатся хорошо рассказывать хорошие истории, учатся писать.

Нам, как ученым, исследователям, конечно, надо этому учиться. И социология тоже бы могла помочь, если социолог для себя найдет какую-то тему, которая станет темой его жизни, то, наверное, тоже появится что-то другое.

Поэтому, я хочу от вашего лица сказать перед тем, как слово передам для закрытия Михайловой Елена Александровне, огромное ей спасибо за подготовку и проведение такой секции. Давайте ее поблагодарим.

Елена Александровна, пожалуйста.

Михайлова Елена Александровна: Спасибо всем, кто пришел. Я надеюсь, что те уникальные возможности, которые нам уже сегодня готовы предоставить новые технологии, они, благодаря социологам, не будут связаны ни с какими гуманитарными рисками, а будут способствовать нашему гармоничному и гуманитарному развитию, скажем так.

Ожидаю контактов, ожидаю дальнейшего сотрудничества. Спасибо вам всем большое.

Пронин Михаил Анатольевич: Всем спасибо. Заседание, секция объявляется закрытой.

Фотоотчет:

  • VII СОЦИОЛОГИЧЕСКАЯ ГРУШИНСКАЯ КОНФЕРЕНЦИЯ
  • VII СОЦИОЛОГИЧЕСКАЯ ГРУШИНСКАЯ КОНФЕРЕНЦИЯ
  • VII СОЦИОЛОГИЧЕСКАЯ ГРУШИНСКАЯ КОНФЕРЕНЦИЯ