Ученые планируют собрание для обсуждения проблемы развития искусственного интеллекта в мире 13 Сентября 2017 в 19:20 538 Фото: rus-media.pro
Ученые планируют собрание для обсуждения проблемы развития искусственного интеллекта в мире. Сегодня для человечества жизненно важен и неотложно необходим диалог о путях определения границ развития искусственного интеллекта. Ведь чем выше его доля в сфере цивилизации, тем ниже реальные возможности людей реализовывать личностный потенциал, удовлетворять свои потребности в свободе, творчестве, любви, самовыражении. Человечество оказалось на пороге экзистенциального риска — искусственный интеллект угрожает гибелью разумной жизни.

Уверенность в том, что создаваемые системы искусственного интеллекта представляют реальную угрозу для человечества, разделяют многие ученые. Данную серьезнейшую проблему будущего мира необходимо вынести на публичную площадку — ведь именно выдающиеся личности из сфер науки и религии накопили огромные знания о человеке, именно они способны предложить безболезненный для человека путь развития робототехники. Иначе неконтролируемые разработки и производство искусственного интеллекта станут преображать окружающую среду столь стремительно, что массовый человек будет вытеснен, порабощен или уничтожен. Знаменитый физик Стивен Хокинг высказал мнение, что не существует такого закона физики, который препятствовал бы взаимодействию частиц для создания искусственным интеллектом собственных и полностью самостоятельных логических комбинаций, недоступных для человеческого мозга.

Вопросы искусственного интеллекта — одна из наиболее динамично развивающихся отраслей междисциплинарного знания. Когнитивной основой  подобных исследований являются новейшие эксперименты в изучении мозговых структур: нейронных сетей, известных как зеркальные нейроны, отвечающих за обучение и коммуникацию, а также более сложных многомерных сетевых структур организации мозга. Уже сегодня молодая и закрытая компания Vicarius (США) создает цифровую модель новой коры искусственного головного мозга, способного к сенсорному восприятию, осознанному мышлению и речи. При достижении этой цели не только рынок труда будет кардинально изменен, поскольку с него окажутся вытесненными сотни миллионов и даже миллиарды людей. Наступит такой уровень развития ИИ, при котором человек станет у него роботом или исчезнет вообще. Неуправляемое развитие ИИ представляет потенциально большую опасность, чем ядерное оружие, любые другие вызовы современности. Наука должна служить людям, а не вытеснять человека. Если искусственный интеллект будет находиться в постоянном развитии, то сам человек, без вмешательства биотехнологий, не сможет достичь его уровня. По сегодняшним прогнозам, к 2035 году только люди с высшим образованием потеряют более 300 миллионов рабочих мест, а к 2070 эта цифра составит почти миллиард.

Государства же не вкладывают инвестиции в программы, направленные на развитие биоинтеллекта. Генная инженерия вообще не приступала к работе над подобными проектами. В конце концов, искусственный интеллект вытеснит человека. Чтобы этого не произошло, следует воспользоваться методами генной инженерии и органическими средствами (приборы нанопинцет и сборщик атомов могут эффективно служить данной цели). Кроме того, в самое ближайшее время требуется законодательно ограничить развитие искусственного интеллекта.

Казахстанские ученые также поддерживают вышеизложенное мнение. По словам Таханова Рустема, кандидата физико-математических наук, за последние 1-2 десятилетия в сфере искусственного интеллекта произошла настоящая революция. Открытость интернета и дешевизна средств хранения информации позволила накопить огромные банки данных по самым различным отраслям человеческого знания. И вдруг выяснилось, что достижения математиков 20-го века, в таких областях, как функциональный анализ, методы оптимизации, теория вероятности и прочих, соединившись с накопленными массивами данных, позволяют если не решить полностью, то уж точно приблизиться к решению многих старых проблем.  Например, машинный перевод между языками, перевод рукописного текста в печатный, распознавание личности по фотографии, распознавание речи, автоматизация вождения, распознавание болезни по снимку-томографии.

Каждая из перечисленных задач если не уничтожает, то, как минимум, меняет целые профессии. Машинный перевод между языками в ближайшем будущем уничтожит профессию переводчика в том виде, в котором она существует сейчас. Чтобы «тягаться» с машинами, людям придется показывать такие тонкие навыки перевода, как «перевод с сохранением стиля», либо онлайн-перевод, в котором переводчик есть полноценный участник разговора. В «простом» переводе места людям не останется уже к 2025 году.

Распознавание болезни по снимку-томографии сильно меняет профессию врача. Врачей, вся работа которых заключается в анализе некоторого количества исходных данных пациента, снятых с приборов, скоро тоже не станет. Всю такую работу можно будет передоверить машине. Останутся лишь те, кто может делать что-то сверх такого простого анализа, люди с глубоким пониманием медицины, связей между явлениями. Врач будущего это не тот, кто может понять, что говорят приборы, а тот, кто знает что именно спросить у приборов, и как спросить. А ведь одно это обнулит в медицине миллионы рабочих мест.

Группа докторов наук выдвинула предложение провести встречу авторитетных ученых, а также лидеров общественного мнения и глав мировых религий, для первых консультаций по противодействию выполнению обширных программ развития искусственного интеллекта.

Собрание запланировано на 20-23 ноября 2017 года. Для места проведения предложены следующие варианты: Токио, Пекин, Москва, Гамбург, Тель-Авив, Бостон.

С рекомендациями о месте проведения, предложениями и любыми вопросами можно обращаться к инициаторам встречи.

Василий Колесов. Профессор МГУ им. Ломоносова, доктор, академик РАН.

Александр Потемкин. Профессор МГУ им. Ломоносова, доктор наук. E-mail для связи: [email protected]. Ассистент: Mila Rothschild [email protected]

Могели Хубутия. Профессор, доктор наук, академик РАН. E-mail для связи: [email protected]. Ассистент: Maria Alexander [email protected]


Оставить комментарий
Защита от автоматических сообщений