— Что именно?
— Знать про поведенческие модели.
Я пожимаю плечами.
— Хочу зацепиться хоть за что-то. Познай врага своего, как говорится.
Зоя несколько секунд раздумывает.
— Полагаю, на данный момент известно лишь одно отличие психики искусственного разума от человеческой, — произносит она, наконец. — Но не уверена, что это вам поможет.
— Выкладывайте. Потом разберусь.
— Самопожертвование, — говорит Зоя.
— Что? — я в растерянности.
— Человек может пожертвовать собой, своей жизнью. Он способен на это, если обстоятельства сложатся определённым образом, и если в его личности имеется определённая модель поведения. Но искусственный разум не в силах добровольно закончить своё существование. В нём заложен инстинкт самосохранения, но он воспринимает его как директиву, и идея добровольной смерти вступает с ней в противоречие. Именно поэтому нет ни одного киборга-христианина.
— Значит, искусственный интеллект не может пожертвовать собой? — повторяю я, пытаясь осознать эту информацию. Возможно, именно она станет ключом…
Зоя кивает.
— Надо же! — я отпиваю из кружки глоток пива. — Почему об этом не известно широкому кругу обывателей?
— Чтобы киборгов не считали неполноценными.
— Ну, да, — киваю я.
— Вам это поможет?
— Кто знает?
Зоя улыбается. Я ловлю себя на том, что любуюсь ею, а ведь у нас деловая встреча, а не свидание. К моему сожалению.
— Вы хотели спросить о чём-то ещё?
— Да. У меня здесь записано, — я достаю терминал, в котором заранее накидал несколько вопросов. — Например: может ли искусственный разум возлагать вину за своё бесплодие на человека?