2020-6-26 15:16 |
The Economist. Электромагнитные эффекты этого столкновения создали не только зрелищную картинку Южного (и Северного) сияния. Они вызвали мощные разряды во всех возможных электрических проводниках. Некоторые телеграфные сети начали жить собственной жизнью, не нуждаясь больше в питании для создания сигналов.За 20 лет до изобретения первой лампочки такие события имели не очень большое значение. Но такие мощные “корональные выбросы массы”, как событие Каррингтона, могут спровоцировать все возможные виды хаоса в современном все больше электрифицированном мире. Индукционные разряды перегрузят электрические сети. Микросхемы в спутниках “поджарятся”. Или же эти орбитальные аппараты могут “упасть” с неба, поскольку раздутый энергией шторма внешний слой атмосферы дотянется до них.Насколько тяжелыми будут последствия непредсказуемых корональных выбросов массы, – это тема для споров. Одни говорят, что действительно большой шторм оставит некоторые регионы без энергии на несколько часов, как это произошло в Квебеке в 1989 году. Другие предполагают едва ли не конец света. Но однажды мир узнает наверняка, кто был прав. Физики считают, что шансы повторения геомагнитного шторма масштабов события Каррингтона на протяжении следующего десятилетия составляют примерно один к десяти. В конце концов, что-то такое обязательно произойдет.Геомагнитные штормы – лишь одно из целого ряда событий, зафиксированных историками и геологами, которые могут вызвать катастрофу. Пандемии тоже из этой категории, так же как и мощные извержения вулканов. Прямо сейчас страны довольно плохо справляются лишь с одной из этих катастроф, несмотря на весь опыт прошлого. Поэтому это поднимает вопрос, смогут ли они разобраться с другими.Технологии играют важную роль в борьбе с угрозами, которые создают такие события. Они могут всех спасти, как вакцины во время пандемий. А могут сделать людей уязвимыми, как электромагнитные сети в разгар геомагнитного шторма. А еще они могут создать новые риски. Наиболее очевидными примерами издание называет технологии двигателя внутреннего сгорания и ядерного оружия, которые делают возможными катастрофическое глобальное потепление и войну беспрецедентно сокрушительных масштабов. Вполне возможно, что будущие технологические катастрофы еще впереди. И они могут оказаться самыми серьезными из всех, поставив будущее человечества под угрозу.Недавно в своей книге “Бездна” Тоби Орд из Института будущего человечества в Оксфордском университете определил экзистенциальный риск как таковой, что “уничтожает долгосрочный потенциал человечества”. Некоторые природные катаклизмы вписываются в это определение. Удар астероида с радиусом около 10 километров, который уничтожил динозавров 66 миллионов лет назад, может послужить примером. Выброс гамма-лучей из ближайшей сверхновой, которые сжигают целые планеты, – это другой пример. Вулканическое “супер-извержение” вроде того, которое произошло в Йеллоустоне 630 тысяч лет назад и покрыло всю континентальную территорию США пеплом, может и не истребит человеческий вид. Но оно легко может покончить с цивилизацией.К счастью, такие события – большая редкость. Тот факт, что человечество смогло пройти через сотни тысяч лет истории и доисторического периода, сохраняя при этом долгосрочный потенциал, говорит, что природные катаклизмы, способные нас уничтожить, не очень распространены.В случае рисков, созданных современными технологиями, вроде ядерной войны или краха климата, такой успокаивающей статистики пока нет. Орд считает, что они способны повысить уровень экзистенциальной угрозы. Впрочем, еще более высокими угрозами он считает технологии, которых человечество еще не изобрело. Таким может стать, например, новое биологическое оружие, которое, в отличие от оппортунистических продуктов естественного отбора, разработано быть максимально сокрушительным. Или же искусственный интеллект, который преднамеренно или непреднамеренно может сделать мир фундаментально враждебным для своих создателей.Никто не может предусмотреть такие риски. Но было бы глупо по умолчанию считать их нулевыми. По мнению Орда, смотря на следующее столетие, можно смело допустить существование хотя бы одного шанса на тысячу, что может произойти условное востание искусственного интеллекта, которое истребит человечество или же навсегда подавит его потенциал. Орд принадлежит к движению ученых, которые серьезно относятся к таким вероятностям, потому что считают ставки в них чрезвычайно высокими.The Economist напоминает, как журналист Рон Сускинд в ноябре 2001 года писал о том, как вице-президент США Дик Чейни сказал, что Америке нужны новые способы разбираться “с маловероятными, но сокрушительными” событиями.”Если существует 1% шансов, что ученые Пакистана помогают “Аль-Каиде” строить или разрабатывать ядерное оружие, мы должны относиться к этому как к точному факту в измерении нашего ответа”, – говорил Чейни.Реакцией, в конце концов, стали новые войны, появление новых правительственных ведомств и расширение полномочий исполнительной власти включительно с разрешением вести наблюдение без судебного разрешения. Если бы на каждый 1%-й риск человечество реагировало так яро, мир стал бы другим и точно не безопаснее. Но поражает то, что некоторые риски подобной силы еле привлекают внимание вообще.Представим, что Чейни оценивал бы возможность потери города за 20 лет. Что еще ставит ценность населенного пункта с жизнями людей и капиталом под 1%-й риск каждые несколько десятилетий? Это редкосные катастрофические угрозы, которые ставять под удар миллионы граждан и капитал на триллионы долларов. Возможно, к ним тоже надо относиться более серьезно.Читайте новости мира и переводы зарубежной прессы на канале УНИАН ИноСМИ источник »