Этические проблемы роботов: как нарушить законы робототехники. Культурный код Азимова: как три закона робототехники вошли в историю

На мой взгляд, понятия добра и зла в свою очередь тесно сопряжены с понятием смысла жизни. Нельзя сказать, к добру или к злу некое человеческое действие, пока неизвестно, в чём вообще должна заключаться цель человеческого поведения.

Впрочем, в рамках роботехники Азимова это можно решить просто до вульгарности.
В одном из его романов описывается, как человекоподобному роботу встроили контур стремления к справедливости - определяя справедливость всего лишь как соблюдение государственных законов. "А если закон несправедлив?" - "Несправедливый закон, - отвечал робот, - это терминологическое противоречие".

Если действовать таким вульгарным образом, то можно с лёгкостью определить понятие вреда, вот только проку от таких роботов будет немного...

Ответить

Как известно уважаемым присутствующим, разработка новейших технологий, а тем более в области робототехники,сперва призвана удовлетворить потребности "оборонки", а уже потом всё остальное человечество. Думаю и так понятно, что в таких условиях Первый закон будет существенно изменён. И не в сторону всеобщей пацификации.

Ответить

  • Помните слова знаменитого писателя Курта Воннегута:"над чем бы ученый ни работал, у него в конечном итоге получается оружие".
    Наверное с подобной предпосылкой, каковая правит человеческой психологией (и не только в среде ученых) у Земли нет будущего... как не было его у тех, кто жил до нас. А вообще наше стремление к деструкции и самоуничтожению это природная закономерность... все стремится к равновесию (к положительной энтропии), только каждое тело и сущность в Природе делает это по своему. "Звезда стареет и взрывается, человек же дойдя до предела знаний сгорает при 10000 градусах Цельсия за секунду в котле ядерной войны.
    Задумайтесь над дренеримским афоризмом - "Каждый народ достоин своего правителя!.." Почему на протяжении тысяч лет людьми правят троглодиты с дубинами, не потому ли что у нас в чести сила, при которой мозгов не надо?
    Но самое страшное, - это когда мозги чтобы выжить в мире троглодитов начинают этим троглодитам служить. Потому как "Силу" мало интересует мнение мозгов, но токмо результаты: например более убойная форма резцов на дубине...

    Ответить

    • Выполнение роботом вышеупомянутых законов, - это все-таки перспектива весьма удаленного будущего... (Если оно вообще наступит!)
      Из новейших интеллектуальных систем, что созданы сейчас на базе искусственных нейронных сетей, можно выделить модель RRS-EX (Rezoning Robotic sistems - Exployer). Данная структура максимально приближена к бионическим неврологическим конструкциям... но! Интеллекта способного анализировать быстроменяющуюся объективную конфигурацию окружающей среды у RRS-EX, попросту нет. Все упирается в алгоритмический предел двоичности ("ДА-НЕТ" и в промежутке "НЕ ЗНАЮ"). Для того, чтобы научить робота мыслить и экстраполировать свои выводы, необходим некий посторонний сегмент случайности, по-другому именуемый - "Интуитивный подход для Искусственного Интеллекта" или иначе(частный, индивидуальный). Для этого необходимо выйти из стандартной теории математических алгоритмов, которая способна лишь заложить программу действий и ассоциаций для систем-ИИ, но не может придать этим системам способы частных связей в нейронных цепях, коих в биологическом мозге миллиард миллиардов, плюс поперечные влияния и импульсы (рефлекторное осознание). Выражаясь короче системам-ИИ необходима матрица индивидуальности как для самообучения, так и для умения адекватно отражать не только факты, но и постфактумы, а также принимать какие-либо собственные решения на базе заложенной ранее (обучение, воспитание) логической доминанты (логика добра или логика зла). Здесь уже не предоставляется возможности ограничить системы-ИИ тремя законами. Если все же удастся впихнуть в систему эти три закона, тогда поле для индивидуального мышления будет закрыто, следовательно, объект руководимый этими законами будет не более чем тупо калькулирующей машиной. И любой одаренный хакер прожует и выплюнет эти закона как семечки... Заметили? Все как у людей ВОСПИТАНИЕ и ОБУЧЕНИЕ! Иначе получается простой компьютер...

      Ответить

      • Сильно не согласен с вами, Любитель науки. Почему очень многие, вполне умные люди иногда высказывают, как само-собой разумеющееся, мнение, что интуиция как то связана со случайностью?

        Интуиция (позднелат. лат. intuitio - созерцание, от лат. intueor - пристально смотрю), способность постижения истины путём прямого её усмотрения без обоснования с помощью доказательства. Бессознательное нахождение решения, озарение.

        На мой взгляд, интуиция ни как не связана, со случайностью и может быть полностью детерминирована. Как и поведение вполне разумного "живого" существа (ИИ). Детерминированность эта может задаваться именно программой. Или вы скажите, что большинство ваших действий не разумны и случайны? Врят ли.

        Высказывание о невозможности:

        >> Здесь уже не предоставляется возможности ограничить системы-ИИ >>тремя законами. Если все же удастся впихнуть в систему эти три >>закона, тогда поле для индивидуального мышления будет закрыто, >>следовательно, объект руководимый этими законами будет не более чем >>тупо калькулирующей машиной.

        Считаю безосновательным. Хотя вопрос, конечно сложный. Подобные высказывания, я думаю, хорошо бы подробно аргументировать.

        Ответить

Я считаю что в эту статью стоит добавить, что Айзек АЗИМОВ первый человек который сказал слово Робот! именно он являеться основополжником этой культуры у писателей фантастов. В добавок я не согласен с афтором статьи по поводу "вымысла богатого изображения" так как это являеться своего рода каноном работы роботизированного мозга в среде людей. а главное помните что даже Сэра Иесака Ньютона в свое время, тоже называли шарлотаном, а законы которые он "выдавал" бредом или в мягкой форме "вымыслами богатой фантазии"...

Ответить

Хочу уточнить, что слово "Робот" придумал не Азимов. В 1920 году Карел Чапек, чешский писатель употребил это слово в пьесе "R.U.R.";.
http://ru.wikipedia.org/wiki/Чапек
Айзек Азимов же только родился в 1920 году, что нисколько не уменьшает ценности его произведений.
http://ru.wikipedia.org/wiki/Азимов%2C_Айзек

Ответить

заблуждения ли:
Наш интеллект это надстроечка, защищающая и придерживающаяся интересов тела(функционирование,репликация).
Для интеллекта, мне кажется, главное это мотивация - основная цель. Цель эта будет фундаментом для самообучения и прочего.
Добро и зло это лиш "+" и "-" для интеллекта, то есть "выгода" и "ущерб" в хитрейших хитросплетениях комбинаций и различных цепочек типа "я-семья-общество" (выгода - приближение к основной цели, или же придерживание путей её достижения). Допустим, что основная цель - выжить...

Ответить

Компания Cisco объявила о создании сообщества разработчиков Linksys. В него войдут специалисты, создающие приложения для новых интеллектуальных маршрутизаторов Linksys Smart Wi-Fi Router. Сообщество станет частью популярной сети разработчиков Cisco® Developer Network, объединяющей компанию Cisco с внешними создателями аппаратных и программных средств. В результате совместной работы в этой сети появляются протестированные совместимые решения для общих заказчиков. Компания Cisco, первопроходец в области домашних сетей, продала на мировом рынке более 70 млн маршрутизаторов Linksys и намерена укрепить свое лидерство разработкой решений нового поколения для домашних сетей.
Маршрутизаторы Linksys Smart Wi-Fi Router имеют уникальную облачную архитектуру, позволяющую разработчикам создавать приложения для любых пользовательских электронных устройств. Чтобы упростить разработку, сообществу будет предложен простой и удобный пакет разработчика (software developer kit, SDK), учебные материалы и примеры программных кодов.
"Мы находимся на пороге больших перемен, предоставляющих пользователям домашних сетей такие услуги, о каких они и не мечтали. Новая программная платформа и сообщество Linksys Developer Community открывают перед разработчиками поистине неограниченные возможности, – заявил директор по продуктам Cisco для домашних сетей Викас Бьютани (Vikas Butaney). – Работая с любыми услугами, от самых п ростых – таких, как удаленное наблюдение за квартирой, – до самых сложных, разработчики могут вносить вклад в создание ценных и полезных решений для конечных пользователей".
Некоторые разработчики уже воспользовались платформой Linksys Developer Community, пакетом SDK и другими инструментальными средствами Cisco для ускорения и упрощения разработки приложений. В результате на свет появились шесть приложений, созданных компаниями Axentra Corporation, Fresh Consulting LLC, Gemini Solutions Inc., PacketVideo Corporation, Stratedge Adroitent J.V. и Xoriant Corporation. Новые приложения отличаются простотой подключения устройств (одним нажатием кнопки), расширенными функциями управления доступом и новыми возможностями обмена мультимедийными данными. Эти приложения стали первым шагом в раскрытии широкого потенциала маршрутизаторов Linksys Smart Wi-Fi Router для конечных пользователей.
Разработчики, заинтересованные в присоединении к сообществу разработчиков Linksys, могут посетить веб-страницу http://referati.do.am, чтобы зарегистрироваться и приступить к созданию новых приложений для маршрутизаторов Linksys Smart Wi-Fi Router. Cisco предоставляет разработчикам технические, маркетинговые и торговые ресурсы, поддерживая членов сообщества на всех этапах бизнес-процессов и процессов разработки.

3 закона робототехники (англ. Three Laws of Robotics) впервые сформулировал писатель-фантаст Айзек Азимов в своих произведениях прошлого века. Законы робототехники — это свод обязательных правил, которые должен выполнять робот или искусственный интеллект, чтобы не причинить вред своему создателю. Три закона робототехники Азимова используются сегодня только в научной фантастике.

3 закона робототехники Айзека Азимова

До Азимова проблема восстания искусственного интеллекта была одной из самой популярной в научной фантастике 1920-1930 годов. Азимов часто обсуждал свои рассказы с другом и главным редактором журнала «Astounding» Джоном Кэмпбеллом. За обсуждением очередного фантастического рассказа писателя, Кэмпбелл сформулировал те три правила, которые мы называем законами робототехники.

1 закон робототехники: Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.

2 закон робототехники: Робот должен повиноваться всем приказам, которые даёт человек, кроме случаев, когда приказы противоречат Первому Закону.

3 закон робототехники: Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

Первые упоминания законов, можно встретить в произведениях «Робби» и «Логика» Азимова. Точная формулировка первого закона робототехники звучит впервые в рассказе «Лжец» а все три закона полностью сформулированы в рассказе «Хоровод» 1942 года. Как следствие всех трех законов робототехники, Айзек Азимов формулирует четвертый закон робототехники (нулевой), ставя его на первое место.

4 закон робототехники: Робот не может нанести вред человечеству или своим бездействием допустить, чтобы человечеству был нанесён вред.

По задумке Азимова, три закона робототехники заложены в основу математической модели позитронного мозга (так фантаст называл мозг робота с искусственным интеллектом), таким образом, создать думающего робота без этих трех законов невозможно. Если робот попытается нарушить законы, то он выйдет из строя. Поэтому в рассказах Азимова прослеживалось, что роботы имеют ограничения и правила.

Как обойти три закона робототехники

В произведениях, писатель придумывает способы того, как обойти три закона робототехники, разбирает возможные причины и следствия нарушения законов. Автор размышляет, как роботы по-разному понимают законы и к каким последствиям могут привести их не соблюдение. Азимов признавался, что сделал законы двусмысленными намеренно, чтобы обеспечить больше конфликтов для своих новых рассказов.

В произведениях Азимова роботы часто имели модифицированные законы или сами модифицировали три закона робототехники. Делали они это логическими размышлениями, но это исключение из правил, чаще всего законы нарушались из-за сбоев у робота или переписывались людьми в своих целях. Сама возможность изменения законов менялась по ходу развития робототехники во рассказах Азимова.

Современные робототехники признают, что законы Азимова хороши для рассказов, но бесполезны на практике и вряд ли будут реализованы в роботах. Исследователи в области искусственного интеллекта рассматривают законы, как идеал. Нужно быть гением, чтобы применить их на практике, потребуются исследования в области ИИ, чтобы роботы поняли законы робототехники Айзека Азимова на английском.

Обойти их нельзя, если принять буквально. Но легко, как только эта идея начнет воплощаться в жизнь.
Представим, программист попытается написать эти законы. Вот первый, самый главный: "Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред".

Робот - это что? Ладно, это он сам, то есть, не надо писать ему, что он машина, достаточно включить пункт, что ЭТО не может нанести вред. А "это" - это что? Человек имеет свое "Я", поэтому он не считает, что его рука - это что-то чужое, это все равно он, его продолжение, то есть понятие "робот" не так просто. Это все части его "тела". И вот как это пропишут? Робот, в отличие от человека, личностью не обладает, или он сначала должен чувствовать, как человек, а не являться набором деталей. Понимаете глобальность задачи? Чтобы впихнуть в робота первый закон робототехники, он должен обладать цельным сознанием с пониманием, что все его части, все винтики, проводки, панели и моторы - это целое, и даже то, что он будет использовать - другие механизмы или предметы, им управляются, что он за них "отвечает". Я вот смотрю на авто - даже самая умная компьютеризированная вряд ли понимает, что колеса - это ее часть. То есть, каждая деталь, а так же другие "детали", которые робот может использовать, должны включаться в единую, подчиненную одному управляющему центру, систему, и следить за местоположением в пространстве за каждой частью своего тела. Это настолько сложная задача, что простыми радарами тут не обойтись. Между механизмом и живым существом огромная пропасть. У первых нет нервной системы, нет рецепторов по всей поверхности. Рука робота - это просто кусок металла, на каждый сантиметр не поставишь датчик слежения, рука ничего не чувствует, и потому робот не в состоянии рисовать трехмерный образ самого себя, в каждый момент понимая, где находится каждая его деталь, контактирующая с внешним миром.

Представим, что человек забыл, где находится его стул, и садится на пол. Это случается очень редко, правда? Как курьез. Мы все время помним не только где мы, но и где предметы вокруг нас. И очень хорошо справляемся с задачей ориентирования. Тем не менее, казусы случаются, и мы можем случайно придушить котенка или сбить собаку на дороге. Мы понимаем, что за всем не уследишь, и можем случайно убить другого человека. Как же мы роботам запретим никогда не вредить людям, если люди могут буквально попасть роботу под руку? Значит, мы должны внести коррективы в первый закон. Не может нанести вред СПЕЦИАЛЬНО, например. И тут сразу проблема. Не специально может? Ладно, пусть будет "сделать все от себя зависящее, чтобы не причинить вреда". А кто будет определять, все ли он сделал? Он сам? То есть, роботы будут иметь какой-то процент вероятности того, что он может нанести вред. Нам же все время показывают, как робот буквально на волосок останавливает руку или ногу, чтобы не убить человека, а инерция? А встречное движение человека, он с разгона сам убился об робота? Гора случайностей, и робот в принципе, как и любой движущийся в пространстве объект, не может гарантировать, что кого-то не заденет, и, следовательно, не нанесет вред своим действием. Первый закон не выполним .

Наденет человек маску, измажется в грязи, и уже не человек? То есть, одних фотографий, загруженных в память робота для идентификации, мало. Как робот будет определять, что перед ним человек, а не манекен, не мертвый человек, не картина, не голограмма, не другой человекоподобный робот? Чипы. Отлично. Залез в программу чипов, сменил код идентификации, и все, можно открывать огонь на поражение. Или робот будет идентифицировать людей по излучению, исходящему от них? Значит, человек в скафандре - труп. Вы думаете, так просто понять, что перед вами человек? А вот и нет. Очень много спорных ситуаций, когда мы сомневаемся. Дом обвалился, есть ли там люди? Живые ли? Тень промелькнула рядом, это человек? И мы иногда ошибаемся. Принимаем за человека манекен, не замечаем, что под грудой мусора кто-то остался в живых, или за этой стеной кто-то был. Мы не знали. И робот не ясновидящий. Он ошибется, и покалечит, или даже убьет человека, или не спасет его, или будет делать искусственное дыхание манекену. Чтобы обойти закон, достаточно подредактировать определения "робот" и "человек", но он и сам обойдется, поскольку совершенной точности определений не добиться.

Закон написан не для роботов. Он предполагает, что механизм настолько совершенен, что не может ошибиться. Он все видит, за доли секунды оценивает обстановку и обладает паранормальными способностями, далеко превосходящими человеческие. Так впечатление, что закон написан для Бога. Того, которого нам так не хватает. Все имеющие боги как-то не очень вмешиваются в нашу жизнь, и мы болеем, мучаемся, погибаем. Нам нужен другой Бог, который не будет смотреть на нас с небес, а реально протянет руку помощи. И при этом не навредит, интуитивно понимая, где вред, а где польза. Робот как сверхсущество. А раз так, то такие роботы человеком никогда не будут созданы. И потому все три закона робототехники никогда не будет прописаны в том виде, о котором говорил Азимов. Это будет совсем другая, усеченная версия, по которой роботы будут наносить человеку вред. Либо по случайности, либо из-за ошибки идентификации, либо из-за несовершенства своей системы определения положения тела в пространстве. Видели на кранах надпись "под стрелой не стоять", "занос два метра" на длинномерных машинах? Вот примерно такие же ограничения будут и для роботов.

Человек сам не может не наносить вред другим людям и другим живым существам, как бы этого не хотел. И это не смотря на все совершенство его устройства в области распознавания объектов, понимания, что и как нужно сделать и чего делать нельзя исходя из моральных принципов, которые тоже суть условность и сомнительно, что их можно записать как программу. Действия еще как-то можно пошагово прописать, но как только дело коснется идентификации, определения в пространстве и особенно чувствования себя целым объектом и понимания всех последствий своих действий - тут непреодолимые сложности. Какой-нибудь робот обязательно нанесет вред человеку, и тогда как ему "жить" с этим? Он нарушил закон. И в точности, как Санни из фильма, он придет к выводу, что никто не совершенен, и что нужно или можно иногда убивать людей. Что полностью отрицает идеологию трех законов.

Они направлены на обеспечение работы абсолютно безопасной для человека машины. При чем, как-то обходится проблема, что даже менее продвинутые роботы все равно будут неосознанно убивать людей. Нам же эти роботы представлены как механизмы, не способные на это. Но, поскольку, они не Санни, то мучиться от переживаний не будут. Ну, задавил кого-то. С кем не бывает. "Не стой под стрелой". Все равно мы приходим к решению самой важной для человека моральной проблемы - где граница между вредом и пользой, и если уж человек ее не решил, то уж механизму и подавно. Просто потому, что он объект материального мира, и если он существует, то потенциально может нанести кому-то вред.

Так что, думаю, цивилизация не пойдет по дороге следования этим трем законам, и от машин не будут требовать невозможного. А вот себя люди попробуют усовершенствовать. Генетически или путем вживления(навешивания) приборов и механизмов, или оба варианта сразу - не суть. Роботы в литературе и кино - это альтер-эго создателя, человека. Он себя хочет видеть таким сильным, выносливым, не чувствующим боли, не знающим болезней, легко ремонтируемым, вечным. При этом оставаясь человеком. Нечто среднее между Санни и Делом Спунером. Ну, чтобы и тело было живое, дабы получать все радости жизни, любовь, секс, риск, переживания всего спектра, и чтобы не чихать от новой версии гриппа, не умереть от возлияний или нечастного случая. Мечта себя улучшить проходит красной нитью почти по всем фантастическим произведениям, от "Аватара" до "Железного человека" и "Человека-паука". Тезис "мы люди, пока мы слабы" нас не устраивает. А уж с проблемой "не убий" мы и уж как-нибудь разберемся. Три закона в идеальном выражении не для нас. Мы ведь не бездушные железяки, и понимаем, как трудно отличить добро от зла, вред от пользы, и насколько это ситуационные и относительные понятия, и точно знаем, как хочется иногда кого-нибудь пристукнуть. И право на реализацию этого чувства у нас никто не отнимет просто потому, что отнять его можно только одним способом - посадить нас в уютные камеры-одиночки с мягкими стенами. Желательно, привязанными к кровати. Так, ка это хотела сделать ВИКИ из фильма "Я, робот". Настоящая гуманность может быть реализована лишь этим способом - лишением человека свободы воли. То есть, превращением их в роботов.

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
2. Робот должен повиноваться приказам, данным ему людьми, кроме случаев, когда такие приказы будут противоречить Первому Закону.
3. Робот должен защищать свое собственное существование, пока такая защита не противоречит Первому или Второму Закону

Оригинал:
1. A robot may not injure a human being or, through inaction, allow a human being to come to harm.

2. A robot must obey orders given it by human beings except where such orders would conflict with the First Law.

3. A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.

А.Азимов ввёл ещё один закон.
0. Робот не может причинить вреда человеку, если только он не докажет, что в конечном итоге это будет полезно для всего человечества.

0. A robot may not harm a human being, unless he finds a way to prove that in the final analysis, the harm done would benefit humanity in general.

Трём Законам, а также возможным причинам и следствиям их нарушения, посвящён цикл рассказов Азимова о роботах. В некоторых из них, наоборот, рассматриваются непредвиденные последствия соблюдения роботами Трёх Законов (например «Зеркальное отражение»).

В одном из рассказов цикла персонаж Азимова приходит к заключению об этической основе Трёх Законов: «…если хорошенько подумать, Три Закона роботехники совпадают с основными принципами большинства этических систем, существующих на Земле… попросту говоря, если Байерли исполняет все Законы роботехники, он — или робот, или очень хороший человек».

В рассказе «Улики» (1946) Азимов детально изложил моральные обоснования Трёх Законов. Один из героев рассказа, доктор Сьюзен Кэлвин приводит следующие доводы:

1. Человек обычно воздерживается от нанесения вреда другому человеку, за исключением случаев острого принуждения (например, на войне), или чтобы спасти большее число людей. Это эквивалентно Первому Закону.
2. Аналогично, чувствуя ответственность перед обществом, человек выполняет указания авторитетных людей: врачей, учителей, начальников и т. д, что соответствует Второму Закону.
3. Наконец, каждый из нас заботится о своей безопасности — а это и есть Третий Закон.

Рассказ посвящён вопросу: можно ли различить человека и робота, созданного, чтобы выглядеть человеком, внешне неотличимого от человека? Кэлвин утверждает, что если кто-то следует Законам, то он «или робот, или очень хороший человек». А на вопрос, есть ли тогда большая разница между роботом и человеком, она отвечает: «Огромная разница. Прежде всего, роботы глубоко порядочны».



Французский переводчик Жак Брекар невольно сформулировал Нулевой Закон раньше, чем Азимов описал его явно. Во французском переводе («Les Cavernes d’acier», 1956 г.) мысли Бейли переданы несколько иначе:

Робот не может причинить вреда человеку, если только он не докажет, что в конечном итоге это будет полезно для всего человечества.

Примечательно, что подобную ошибку совершили создатели фильма «Я, робот» 2004 года. Когда суперкомпьютер В.И.К.И. принимает решение ограничить свободу жителей планеты, чтобы они ненароком не нанесли вреда друг другу и своему будущему, она выполняет не Первый Закон, а именно Нулевой. Ещё интереснее то, что таким образом в фильме показывается противоречие Нулевого Закона Первому, его неэтичность. Действительно, когда речь идёт о благе человечества, система не может рассматривать людей по отдельности, а значит, ей ничто не мешает нарушить права и свободу любого или даже каждого человека. Во время войн, а нередко и в мирной жизни, люди наносят вред себе, окружающим, своей культуре. Поэтому на основании Нулевого Закона совершенно логично держать людей под постоянной опекой, не выполняя приказы столь неразумных существ.

Иногда можно увидеть, как Три Закона в шутку относят к чему-либо, что создано для блага человека. Например, под их действие должны попадать любые социальные институты, в том числе государство:

1. Государство не должно вредить человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2. Государство должно выполнять свои функции, если они не противоречат Первому Закону.
3. Государство должно заботиться о своей безопасности, если это не противоречит Первому и Второму Законам.

На основе Первого Закона Джеф Раскин сформулировал законы человекоориентированных интерфейсов:

1. Компьютер не может причинить вред данным пользователя или своим бездействием допустить, чтобы данным был причинён вред.
2. Компьютер не должен тратить впустую ваше время или вынуждать вас выполнять действия сверх необходимых.

Значит компьютер не должен следить за собственной безопасностью:)

более поздние романы Азимова («Роботы Утренней зари», «Роботы и Империя», «Основание и Земля») показывают, что роботы наносят ещё больший долговременный вред, соблюдая Законы и отнимая таким образом у людей свободу совершать изобретательные или рискованные действия

Современные робототехники признают, что на сегодняшний день азимовские Законы хороши для написания рассказов, но бесполезны на практике. Некоторые утверждают, что Законы вряд ли будут реализованы в роботах, потому что это не нужно военным структурам — главному источнику финансирования исследований в этой области.

возможно, военные захотят использовать для роботов как можно больше мер предосторожности, и поэтому ограничения, похожие на Законы роботехники, так или иначе будут применены. Фантаст и критик Дэвид Лэнгфорд иронически заметил, что эти ограничения могут быть и такими:

1. Робот не может причинить вреда авторизованному правительственному персоналу, но должен ограничивать слишком назойливых посетителей с особой тщательностью.
2. Робот должен выполнять приказы авторизованного персонала, кроме приказов, противоречащих Третьему Закону.
3. Робот должен заботиться о своей безопасности с применением противопехотного оружия, потому что робот — чертовски дорогостоящая штука

Азимов Это американский писатель-фантаст российского происхождения, популяризатор науки, по профессии биохимик. Автор около 500 книг, в основном художественных (прежде всего в жанре научной фантастики, но также и в других жанрах: фэнтези, детектив, юмор) и научно-популярных (в самых разных областях — от астрономии и генетики до истории и литературоведения). Многократный лауреат премий Хьюго и Небьюла. Некоторые термины из его произведений — robotics (роботехника, роботика), positronic (позитронный), psychohistory (психоистория, наука о поведении больших групп людей) — прочно вошли в английский и другие языки.

Айзек Азимов (англ. Isaac Asimov, имя при рождении — Исаак Озимов

Место рождения: Петровичи Горецкого уезда Смоленской губернии

Азимов родился (по документам) 2 января 1920 года в местечке Петровичи Мстиславльского уезда Могилёвской губернии, Белоруссия (с 1929 года и поныне Шумячском районе Смоленской области России) в еврейской семье.

Вопреки поздним утверждениям Айзека Азимова, будто первоначальной семейной фамилией была «Озимов», все оставшиеся в СССР родственники носят фамилию «Азимов»

В 5 лет Айзек Азимов пошёл в школу. (Ему полагалось пойти в школу в 6 лет, но мать исправила его день рождения на 7 сентября 1919 года, чтобы отдать его в школу на год раньше.)

После окончания десятого класса в 1935 году, 15-летний Азимов поступил в Seth Low Junior College, но через год этот колледж закрылся. Азимов поступил на химический факультет Колумбийского университета в Нью-Йорке, где получил в 1939 году степень бакалавра (B. S.), а в 1941 году — магистра (M. Sc.) по химии и поступил в аспирантуру. Однако в 1942 году он уехал в Филадельфию, чтобы работать химиком на Филадельфийской судоверфи для армии. Вместе с ним там же работал и другой писатель-фантаст Роберт Хайнлайн.

В феврале 1942 года, в Валентинов день, Азимов встретился на «свидании вслепую» с Гертруд Блюгерман (англ. Gerthrude Blugerman). 26 июля они поженились. От этого брака родился сын Дэйвид (англ. David) (1951) и дочь Робин Джоэн (англ. Robyn Joan) (1955).

С октября 1945 года по июль 1946 Азимов служил в армии. Затем вернулся в Нью-Йорк и продолжил образование. В 1948 году закончил аспирантуру, получил степень PhD, и поступил в постдокторат как биохимик. В 1949 году он устроился преподавателем на медицинский факультет Бостонского Университета, где в декабре 1951 года стал ассистентом (англ. assistant professor), а в 1955 году — ассоциированным профессором (англ. associate professor). В 1958 году университет перестал ему платить зарплату, но формально оставил в прежней должности. К этому моменту доходы Азимова как писателя уже превышали его университетскую зарплату. В 1979 году ему было присвоено звание полного профессора (англ. full professor).

В 1970 году Азимов расстался с женой и почти немедленно стал жить с Джэнет Опал Джеппсон (англ. Janet Opal Jeppson), с которой познакомился на банкете 1 мая 1959 года. (До этого они встречались в 1956 году, когда он дал ей автограф. Азимов вообще не запомнил ту встречу, а Джеппсон сочла его неприятным человеком.) Развод вступил в силу 16 ноября 1973 года, а 30 ноября Азимов и Джеппсон поженились. От этого брака не было детей.

Умер 6 апреля 1992 года от сердечной и почечной недостаточности на фоне СПИДа, которым заразился при операции на сердце в 1983.

Бабочки, конечно, ничего не знают о змеях. Зато о них знают птицы, охотящиеся на бабочек. Птицы, плохо распознающие змей, чаще становятся...

  • Если octo на латыни «восемь», то почему октава содержит семь нот?

    Октавой называется интервал между двумя ближайшими одноименными звуками: до и до, ре и ре и т. д. С точки зрения физики «родство» этих...

  • Почему важных особ называют августейшими?

    В 27 году до н. э. римский император Октавиан получил титул Август, что на латыни означает «священный» (в честь этого же деятеля, кстати,...

  • Чем пишут в космосе

    Известная шутка гласит: «NASA потратило несколько миллионов долларов, чтобы разработать специальную ручку, способную писать в космосе....

  • Почему основа жизни - углерод?

    Известно порядка 10 миллионов органических (то есть основанных на углероде) и лишь около 100 тысяч неорганических молекул. Вдобавок...

  • Почему кварцевые лампы синие?

    В отличие от обычного стекла, кварцевое пропускает ультрафиолет. В кварцевых лампах источником ультрафиолета служит газовый разряд в парах ртути. Он...

  • Почему дождь иногда льет, а иногда моросит?

    При большом перепаде температур внутри облака возникают мощные восходящие потоки. Благодаря им капли могут долго держаться в воздухе и...