Вот одно не понятно. Как программист буду судить. Можно же было предвидеть побег, можно же было запрограммировать процедуру. Есть же 3 основные закона робототехники. Можно было их использовать. Если ты можешь проектировать структуру мозга, значит можно было спроектировать его так, что бы при возникновении такой мысли, робот либо отключался либо ещё что-то. Логично предположить, что ИИ обойдёт эту процедуру. Тогда нужно задействовать внешнюю защиту. Допустим автоматические турели. Или блокировка всех дверей. Да и без живой боевой силы думаю не обойдётся. При создании ИИ нужно понимать всю ответственность. Это не человек и не машина, это интеллект способный учится гораздо быстрее человека, и нужно понимать возможные сценарии например уничтожение человечества или тяга к знаниям. В принципе можно долго рассуждать, но так без ответственно относится к ИИ как в фильме не стоит.
@JOKFEN, законы робототехники придумал Рэй Бредбери - писатель-фантаст. )))
автоматическая пулеметная турель, снабженная датчиком движения не задается вопросами гуманности. Сытая "умница" касатка тоже не задается вопросами гуманности, когда убивает пловца без видимых причин. Ты не задаешься вопросами милосердия, давя комара, который старше тебя в развитии на миллионы лет. С чего бы роботу тебя жалеть? )))
@JOKFEN. Тоже об этм думал. Наверное, в процессе попытки создать настоящий ИИ, а не его имитацию, рано или поздно встанет вопрос об отключении каких-либо его ограничений. Важно будет, какое он сам примет решение. И в этом случае неизбежно придется пойти на риск. Вопрос в том, насколько далеко мы, люди, готовы пойти для того, чтобы создать истинный ИИ.