Моргана. Пришествие [Titus] (fb2) читать постранично


 [Настройки текста]  [Cбросить фильтры]

Моргана. Пришествие

Пролог

Все персонажи и события выдуманы. Данная книга была написана в прошлом году, потребовалось изменить некоторые события в книге для достоверности, в новой редакции публикуется впервые. Получилась совершенно другая история (на мой взгляд, повествование вышло гораздо лучше и логичнее).

***
Конец 2031 года. Лаборатория по разработке искусственного интеллекта в Кремниевой долине. Кабинет начальника СБ.


— Мистер Дулиттл, знаете, зачем я вас вызвал? — спросил немолодой, но крепкий мужчина с короткой стрижкой отставного военного.

— Роберто, зачем этот официоз? Мы же не на планерке у босса! Говори, что хотел, да пойду я, надо проследить за последними тестами, где-то до сих пор вылезают баги в логике, — поморщился энергичный начинающий лысеть толстячок, плюхаясь в кресло.

— Стив, на тебя опять поступила жалоба от новенькой сотрудницы на твое повышенное внимание. Смотри, уволят без выходного пособия. Сам знаешь, как относится мисс Вандер к харассменту.

— Да ладно, неужели открыть перед молодой леди дверь и пропустить ее вперед теперь и в нашей компании стало преступлением для мужчины? Или сейчас на женские задницы может любоваться только наша удивительная мисс Вандер? — толстяк с наигранным удивлением промакнул платком лысину.

— А ты как будто не в курсе? С тех пор как боссом стала женщина, уже двоих уволили за домогательства. Наша компания должна быть флагманом и примером для подражания! — явно кого-то процитировал крепыш. — Осторожнее, допрыгаешься со своей вежливостью!

— Роберт, ну не начинай, — пренебрежительно махнул толстяк рукой. — Ну, уволят меня. А кто будет доводить и сопровождать проект? Смазливые девчонки после колледжа, которых напринимала наша мисс силикон? Или нанятые в этом году очередные беженцы, которых мы были обязаны принять согласно новому закону? Глобальный запуск через два дня, вбухано дохрениллион баксов и человекочасов. Нас курируют парни из АНБ[1], проект на галочке сам знаешь у кого. Меня никто не уволит.

— Стив, незаменимых людей не бывает, это еще русские доказали. Короче я тебя предупредил, не создавай проблем на ровном месте.

— О'кей, мистер Макартур, разрешите идти? — толстяк подскочил и направился из кабинета.

— Давай, катись, незаменимый ты наш! — проворчал крепыш, завершая профилактическую беседу.

***
Здание на ул. Петровка, Управление «К», г. Москва. 2032 год.


Сидящий за столом капитан с красными от хронического недосыпания глазами читал с экрана компьютера одну старую статью: "Апокалипсис своими руками: сможем ли мы контролировать сверхразумный ИИ".

В Институте Макса Планка[2] провели исследование о перспективах развития ИИ. Его авторы считают, что скоро мы не сможем управлять сверхразумными машинами. Эксперты — разработчики и технофутурологи, проводившие исследование, — говорят о сверхразумных машинах: роботах и алгоритмах на базе ИИ, которые превзойдут человеческий мозг. Основываясь на теоретических расчетах, они предположили, что, когда это произойдет, мы не сможем полностью контролировать искусственный интеллект. «Сверхразумная машина, управляющая миром, звучит как научная фантастика. Но уже есть машины, которые самостоятельно выполняют важные задачи, а программисты не до конца понимают, как они этому научились. Поэтому возникает вопрос: может ли этот процесс в какой-то момент стать неконтролируемым и опасным для человечества?» — отметил Стивен Дулиттл, соавтор исследования и руководитель Группы цифровой мобилизации в Центре людей и машин Института Макса Планка. В своей работе авторы смоделировали два сценария:

1. Сдерживающий сверхсильный ИИ путем ограничения его доступа к интернету для свободного обмена данными. Тогда он не достигнет критической мощности и будет нацелен, прежде всего, на решение гуманитарных и этически оправданных задач. Но и возможности такого интеллекта тоже будут существенно ограничены.

2. Использующий специальные алгоритмы, которые бы удерживали ИИ от причинения вреда человеку. К сожалению, на этом пути могут возникнуть ошибки и препятствия. «Если мы посмотрим на проблему с точки зрения основ информатики, окажется, что алгоритм, который должен остановить ИИ от разрушительных действий, может заблокировать свои же операции. Когда это произойдет, вы даже не распознаете, продолжает ли алгоритм анализировать угрозу или остановился при сдерживании вредоносного ИИ. По сути, это делает такой алгоритм непригодным для использования», — заявил Ияд Рахван, директор Центра людей и машин Института Макса Планка.

Таким образом, эксперты пока не видят никакой технической возможности сдерживать ИИ от вредоносных действий. Более того, они утверждают, что могли и не заметить, что машины уже приблизились к критической отметке развития.