На 100 лет вперед. Искусство долгосрочного мышления, или Как человечество разучилось думать о будущем
Угрозы, которые несет в себе краткосрочный подход, простираются далеко за рамки государственной политики, и сейчас мы вплотную подошли к критической отметке. Это связано с растущими экзистенциальными рисками, под которыми понимаются маловероятные, но крайне разрушительные события, связанные с новейшими технологиями. Первое место в рейтинге таких рисков занимают угрозы со стороны систем искусственного интеллекта, например автономного оружия, почти не контролируемого людьми. К подобным рискам относятся и искусственно созданная пандемия, и ядерная война, спровоцированная государством-изгоем в эпоху нарастающей геополитической нестабильности. Специалист по рискам Ник Бостром, в частности, обеспокоен развитием молекулярных нанотехнологий и опасается сценария, при котором террористы завладеют самореплицирующимися наноботами размером с бактерию, не смогут их контролировать, и в результате атмосфера планеты станет непригодной для жизни. Перед лицом таких угроз многие эксперты по экзистенциальному риску сходятся во мнении, что с вероятностью примерно один к шести в течение этого века человечество ждет катастрофа с колоссальным числом жертв[4].