Прогнозы Стивена Хокинга

 

1

Британский астрофизик Стивен Хокинг — один из самых выдающихся и авторитетных ученых нашего времени. За последнее время он выдвинул ряд футурологических прогнозов, которые заставляют опасаться за будущее нашей планеты и всей человеческой цивилизации.

Стивен Хокинг выделил три основные угрозы, способные уничтожить человеческую цивилизацию в ближайшее тысячелетие. Это ядерная война, глобальное потепление и вирусы, созданные путем генной инженерии. Все эти катастрофы — прямой результат развития научной мысли, придумавшей атомную бомбу, энергоемкие технологии и способы генной модификации. В самое ближайшее время нам, правда, ничего не грозит, однако со временем ситуация может ухудшиться, заявил ученый.

Единственный способ избежать технологического апокалипсиса — это переселиться с Земли на другие планеты, утверждает Хокинг. «Мы не будем основывать автономные колонии в космосе по крайней мере в ближайшие сто лет, так что мы должны быть очень осторожны», — предупреждает он.

Искусственный интеллект поработит человечество

Через сто лет искусственный интеллект может развиться настолько, что машины станут умнее людей. Впрочем, ученый не взялся назвать точные сроки, когда это случится: «Когда такой разум появится, это станет лучшим или худшим изобретением человечества».

«Средства массовой информации зачастую искажают то, что на самом деле сказано, — считает Хокинг. — Настоящая угроза в случае искусственного интеллекта заключается не в том, что он злой, а в том, что он компетентен. Суперинтеллектуальный разум будет в высшей степени эффективен при достижении своих целей, и если они не будут совпадать с нашими, мы окажемся в большой беде».

Ученый приводит в пример муравейник, оказавшийся в зоне затопления при строительстве гидроэлектростанции. Если люди будут мешать искусственному интеллекту, он примет меры, полагает Хокинг: «Среди нас мало людей, кто топчет муравейники и наступает на муравьев со злости, но представьте ситуацию — вы контролируете ГЭС, вырабатывающую электроэнергию. Если вам нужно поднять уровень воды и в результате этого один муравейник будет затоплен, то проблемы утопающих насекомых вас вряд ли будут беспокоить. Давайте не будем ставить человечество в положение тех муравьев».

Научно-технический прогресс приведет к массовой безработице и еще большему расслоению общества. Следствием усовершенствования технологий также станет уменьшение потребностей в рабочей силе, поскольку основная часть производственных задач окажется полностью автоматизирована и этим станут заниматься роботы. Еще одна возможная угроза со стороны ИИ заключается в том, что для выполнения стоящих перед ним целей он может начать отнимать у человека жизненно важные ресурсы, скажем, энергию.

В принципе возможны два сценария развития событий, говорит Хокинг. Первый — утопический — подразумевает улучшение жизни человечества за счет машинного труда. Второй, более пессимистичный, сделает владельцев корпораций, контролирующих создание и функционирование электронных систем, элитой общества, а остальные общественные слои, чья деятельность не имеет отношения к электронике, будут жить в нищете. И для второго варианта куда больше предпосылок, утверждает астрофизик. Он называет это «тиранией хозяев машин».

Чтобы этого не произошло, следует идти двумя путями, предлагает Хокинг. Первый — это замедлить разработку ИИ в целом, а второй — переключиться с разработки универсальных систем на создание узкоспециализированных программ и устройств, способных решать лишь ограниченный круг задач. Также необходимо ввести равноценное распределение товаров, производимых машинами, так, чтобы те, кто по вине машин остался без работы, могли тоже наслаждаться материальными благами наравне с «элитой».

«С развитием полноценного искусственного интеллекта наступит конец человеческой расы», - заметил однажды Хоукинг в интервью BBC. «Во имя блага всего человечества мы должны продолжать исследовать космос», - заявил знаменитый астрофизик Стивен Хокинг. «Я сомневаюсь, что человечество выживет, если в ближайшие 1000 лет не покинет нашу хрупкую планету».

Тревожные мысли о потенциальной опасности экспериментов по созданию искусственного интеллекта недавно высказал и Билл Гейтс. «Я вхожу в лагерь тех, кто обеспокоен развитием супер-интеллекта. Поначалу машину будут выполнять за нас огромную часть работы и не будут сверхинтеллектуальными. Это принесёт пользу при условии, что контроль останется в наших руках. Однако спустя несколько десятилетий искусственный интеллект станет достаточно развитым, чтобы превратиться в проблему», — сказал Гейтс. Конечно, исследователям, стремящимся создать искусственный интеллект на уровне человеческого, еще предстоит найти способ объединить несколько волокон в виде искусственной нейронной сети, но начало уже положено.

Согласно Курцвейлу, в будущем человечество достигнет почти неограниченного материального изобилия, а люди могут стать бессмертными. Рэй Курцвейл прогнозирует наступление технологической сингулярности — феноменально быстрого научно-технического прогресса, основанного на мощном искусственном интеллекте (превосходящем человеческий) и киборгизации людей.

Вообще, любителей пророчествовать катастрофы в научной среде сегодня немало. Например, очередное предсказание апокалипсиса выдали ученые из института Future of Humanity при Оксфордском университете и фонда Global Challenges. Надо отметить, что авторы даже не особенно утруждали себя серьезными аргументами. Они просто предложили широкий набор вариантов катастрофических сценариев о каждом из которых уже написаны тома книг и которые обсуждаются на международных конференциях. Сегодня, подавать такие прогнозы как откровение - попытка просто в очередной раз напугать обывателя. Впрочем, он уже настолько привык к страшилкам, что его вряд ли чем-то подобным напугаешь. Даже «кошмары» от Хокинга или Курцвейла, скорее всего не достигнут цели. Ведь больше всего на свете людям хочется верить в завтрашний день и счастливое светлое будущее.


Вернуться на предыдущую страницу

⇑ Наверх
⇓ Вниз