Опасен ли искусственный интеллект. Искусственный интеллект угроза человеку, предупреждает стивен хокинг

1 753

В настоящее время команда из 26 международных экспертов подтвердила, что развитие искусственного интеллекта (ИИ) является явной и настоящей угрозой, и правительства и крупные корпорации должны опасаться многочисленных угроз этой технологии. Доклад экспертов был опубликован Университетом изучения экзистенциальных рисков в Оксфордском университете и рядом других известных организаций. В отчете предупреждается о ряде злонамеренных видов использования ИИ, которые могут стать одной из самых больших угроз для человечества. Это цифровая безопасность, физическая безопасность и политическая безопасность.

Во времена, когда люди общаются через Интернет, и программы, которые могут разумно реагировать и притворяться человеком. Платформы, такие как Twitter и Facebook, сегодня забиты ботами. Многие люди, которые являются друзьями в социальных сетях, могут быть ботами! Twitter оценивает количество профилей ботов между 25-50 миллионами! В 2015 году в Facebook уже было около 200 миллионов пользователей ботов! Тем временем ученые даже создают «социальные ботнеты», которые представляют собой частную армию автоматических «друзей». Часто тысячи этих ботов обслуживает ботмастер. Эти боты имитируют поведение обычных пользователей. В профилях этих ботов появляются сообщения и сообщения от других ботов, и кажется, что все это происходит от реальных людей. Это неверно, на самом деле продукты рекламируют и распространяют разные взгляды и политические взгляды. Боты также получают много личной информации, которая затем оценивается, сохраняется и продается. Если вы используете эти бот-сети с плохими намерениями, Вы можете буквально вызвать хаос и украсть много информации. Сложные алгоритмы могут использоваться для имитации любого поведения пользователя и для охвата и проникновения определенных профилей.

Тем временем, чатботы разработаны так, что они могут имитировать стиль написания дружественных пользователей. Этот метод создает доверие, и программа пытается получить доступ к как можно большему количеству компьютеров. В ближайшие несколько лет будет легко подделать даже видео и телефонные звонки с поддельными изображениями и имитированными голосами. С помощью этой процедуры любое учреждение может быть обмануто.

Следующую угрозу мы видим в современных роботах, которые в скором времени будет использоваться повсеместно. Компьютерные хакеры и ИИ (искусственный интеллект), вероятно, могут легко взломать эти устройства и злоупотреблять ими в своих целях даже в качестве оружия. Еще более опасным было бы, если ИИ будет включен в автоматизированных системах вооружения, например, в удаленных снайперских винтовках и автоматических системах ПВО.

Другая серьезная угроза исходит от программ анализа, которые ищут в Интернете «поддельные новости» на невероятной скорости и могут быстро найти любого нежелательного автора. Если это правительственный противник, вы можете немедленно найдены и наказаны. Тогда у правительственных новостных порталов и газет возникнет проблема, потому что вы сможете сразу обнаружить любую мистификацию. Уже возможная манипуляция видео с помощью AI уже бросает тёмные тени в ближайшее время, все становится манипулируемым, и никто не может доверять никому и никому больше — особенно, если AI находится в игре. Используемая правильно, эта технология превращается в невероятно мощное оружие и одну из самых больших угроз для всего человечества. Когда искусственные интеллекты достаточно мощны, они могут буквально контролировать и манипулировать всем. Манипуляция была бы быть безграничной. Она могла легко и свободно менять любую электронную книгу, газетную статью и исторический фильм, и никто не заметил бы этого. Вся история и все важные факты могут быть ненавязчиво манипулированы и изменены навсегда. Это не создает проблемы для ИИ, чтобы имитировать лица и голоса политиков, что может вызвать бесконечные споры. Если ИИ становится достаточно умным, человек больше не может противостоять ему. По мнению разработчиков искусственного интеллекта, они, вероятно, станут в миллиарды раз более умными, чем люди!

В докладе экспертов обсуждается ряд предложений по предотвращению подобных сценариев. Первым вариантом будет использование супервизоров для управления разработчиками KI, чтобы они не могли использовать эту технологию для вредоносных целей. Немедленные действия предпринимаются, когда предполагаются вредные намерения и события. Таким образом, для обеспечения безопасности должны быть созданы стандартизированные методы. Со временем в этих контролях и обсуждениях по безопасности будут задействованы все больше экспертов. Только совместная ответственность и прозрачность должны гарантировать, что ИИ не наносит большого ущерба.

Как обеспечить такую ​​вещь? Конкурирующие компании, разработчики систем вооружений и конкурирующие государства всегда будут стараться оставаться на шаг впереди своих конкурентов в развитии ИИ. Поэтому эти предлагаемые меры не будут эффективными. Вы должны подготовиться к худшему уже сейчас.

Генераторы изображений, которые работают с алгоритмами, которые поддерживаются искусственным интеллектом, уже создают фотореалистичные грани. Компания NVIDIA использует метод GAN, который производит очень реалистичные фотографии людей, которых не существует. Даже человеческие голоса теперь могут быть полностью скопированы с использованием новых технологий. Вот что делает WaveNet, например, в Google DeepMind контролируется. Даже алгоритм Lyrebird теперь может копировать и подражать человеческому голосу, если у вас есть только одна минута записанного звука, как в телефонных разговорах. Следующий шаг, который уже предпринят, — это то, что компьютеры могут распознавать и реагировать на реальные человеческие эмоции. Граница между человеком и машиной исчезает.

Конечно, вся эта технология уже используется для вредоносных целей, таких как Facebook , для перепрограммирования и управления пользователями. Шон Паркер, один из основателей Facebook, нашел четкие слова в интервью. Паркер считал, что Цукерберг заблокировал свой профиль, показав, что Facebook может повредить мозгу своих пользователей! Паркер отметил, что социальные платформы, подобные Facebook, буквально меняют поведение людей и общество. Все это за счет производительности, и Бог знает, что он делает с мозгами наших детей. Facebook поставил перед собой задачу увлечь внимание пользователей, чтобы они проводили большую часть своего времени на платформе, делая их неотъемлемой частью своей жизни. Все это порождает зависимость от распределения дофамина с «симпатичными» и комментариями! Это игра с человеческой психологией.

Конечно, эти разработчики получают свои спецификации, и все идет по вредоносной программе. Хотя такие люди, как Цукерберг и Паркер, миллиардеры, они просто играют свою небольшую роль в большой игре. Google, Facebook, Youtube и т. Д. контролируются из других источников. Бывший офицер ЦРУ Роберт Дэвид Стил смог определить и назвать нескольких таких вдохновителей :

  • «Глубокое государство» со своими семьями-банкирами, включая Ватикан, Лондон и Уолл-стрит
  • Сионистское правительство Израиля и Моссад в связи с американскими сионистскими организациями AIPAC и Антидиффамационной лигой (ADL)
  • Руководители крупных медиакомпаний и киностудий, а также их финансист Джордж Сорос
  • Платные субподрядчики, которые изобретают диффамацию и лгут по заказам
  • Платные интернет-тролли, которые часто состоят или набираются у израильтян или членов ADL
  • Добровольные тролли, которые слишком глупы, чтобы понять, кто и что они действительно слушают («Саяним»)
  • Наконец, эти тролли создают алгоритмы, которые действуют полностью за пределами человеческой этики, контроля
  • «Блокировка теней» этих программ и нейтрализация целевых лиц в сети посредством автоматизированной службы троллей и алгоритмов
  • Отсутствие законопроектов и стандартов в Интернете
  • Принятие всех этих мер ИИ

Человек из ЦРУ Роберт Дэвид Стил говорит о #GoogleGestapo . Эти ложные отчеты могут привести к блокировке учетной записи пользователя или профиля на Youtube. Другие виды использования включают отрицательные спады или отзывы клиентов для продвижения или уничтожения продукта. Стил говорит, что все тролльские армии используются и оплачиваются за «преследование толпы» (групповое преследование). Таким образом, например, вы можете уничтожить канал Youtube с глупыми комментариями или лгать, чтобы заблокировать его. Между тем, большинство операторов взрывных каналов или альтернативных носителей вынуждены отключать комментарии. Своими открытиями Стил должен был испытать, что большинство его информации были затронуты преследованием толпы, хотя он был номинирован на Нобелевскую премию мира в январе 2017 года!

Роберт Дэвид Стил уверен, что все эти пути приведут к борьбе с диффамацией (ADL). Этот объект, похоже, является специальным сервисом для шпионажа в социальных сетях. Стил уверен, что ADL вместе с сионистскими организациями в Израиле усовершенствовали искусство «цифрового убийства» в первые годы существования социальных сетей. С малейшей критикой насилия в отношении палестинцев или бойкотом призывает к израильским товарам в социальных сетях, сразу поступают сообщения о троллях для «высказываний ненависти» и т. П. Критики сразу же блокируются, запрещаются или блокируются, или в случае компаний получают наихудшие возможные оценки.

Но все это служит только еще одной, еще более злой цели — появлению нового бога, искусственного интеллекта. Согласно идеям этих силовых одержимых кругов, ИИ должен не только контролировать, но и управлять и поклоняться! В Силиконовой долине, где живут все крупные технологические компании, уже создана новая религия — Церковь Искусственного интеллекта (Путь Церкви будущего). Эта церковь поддерживается различными гуманитарными организациями, работающими на трансгуманизм. Многие христиане видят в этих событиях появление Антихриста. Энтони Левандовски, основатель Церкви, говорит, что настало время для ИИ, который гораздо умнее любого человека, иметь управление на Земле. В принципе, это ничего нового. Элиты планируют восстановление своего ложного бога, который уже существовал в «великом случае» человечества перед потопом. Поэтому трансгуманисты также говорят о воссоздании суперинтеллекта. Большой случай имел отношение к «падшим ангелам», которые доверяли людям тайное и запретное знание перед потопом. Это знание испортило все человечество и принесло войну и разрушения.

Другая организация, которая пропагандирует трансгуманизм, называется Человечество + . Там преследуют цель превратить нормальных людей с помощью интерфейсов AI, нанотехнологий и человеко-компьютерных интерфейсов, чтобы в итоге из него вышли совершенно разные существа, так называемые «постчеловеческие существа». Некоторые каббалисты, такие как раввин Йосеф Бергер, уверены, что, согласно древним пророчествам, «конец исправления» неизбежен, это высшая точка духовной целостности. С появлением Антихриста или «Армила», как его называют в Торе, вскоре придет к появлению еврейского Мессии. Однако это не может быть о Иисусе Христе. Многие эксперты считают, что темные элиты нарочно создают хаос на Земле, чтобы всеми силами выполнить это пророчество. В древних пророчествах написано, что Армил появился на свет через своеобразную девственную концепцию, которой раньше никогда не было. Поэтому вполне возможно, что Армил мог быть первым трансгуманистом, обладающим «богоподобными» полномочиями. Он описан в Священных Писаниях как чудовище, которое лысое и имеет большой и маленький глаза. Он должен быть глухим на правое ухо, а его правая рука повреждена. Левая рука должна быть намного длиннее, чем обычно.

Этому ложному богу должны поклоняться во всем мире в течение некоторого времени. Управляемые СМИ уничтожат последние истины, и все логическое будет казаться абсурдным. Искусственные интеллектуалы Alexa of Amazon или Google Home отвечают почти по каждому вопросу. Вы можете ответить, кто был Буддой или Мухаммедом, но не тот, кто есть Иисус Христос! Разве это не странно? Вы думаете, что стоит упомянуть? Здесь вы можете увидеть, какая антихристианская, антилиберальная и античеловеческая программа стоит за Google.

Чрезмерное использование и слепое доверие к сервису Google уже стало очевидным для многих людей. Для людей больше не важно чему-то научиться через постоянную возможность получения любой желаемой информации в любое время и в любом месте. Исследование, проведенное в Гарвардском университете с 2011 года показало, что люди не помнят информацию в долгосрочной перспективе, если они знают, что вы можете найти их в Google в любое время. Это явление было окрещено «эффектом Google». Когда задавали вопросы испытуемым, они рефлексивно сначала думали об Интернете и компьютере, а затем искали знания в своих воспоминаниях. Это означает, что способ, которым мы помним вещи, изменился. Многие теперь называют это «цифровой амнезией». Сегодня многие люди буквально зависят от своих смартфонов и поэтому больше ничего не помнят. В отличие от прошлого, сегодня нас постоянно бомбардируют информацией, и нашему мозгу нужно научиться справляться со всей этой информацией. Конечно, все эти данные не могут быть сохранены в сознании.

Имеются также новые результаты исследований по психологическим, умственным и социальным последствиям новых цифровых технологий и социальных сетей. Особенно для подростков эти технологии имеют фатальные последствия. Постоянная доступность информации лишает детей способности мыслить независимо, когда приходит время, чтобы научиться этому развивать эту способность. Эта проблема хорошо известна. Многие люди в Силиконовой долине защищают своих детей от этих технологий и отправляют их в школы, где им запрещено пользование интернетом и смартфонами.

Исследования показали, что дети, подверженные этому постоянному потоку информации, находятся с более плохим состоянием здоровья и более подвержены стрессу. Чем больше времени дети проводят в Интернете, тем меньше времени остается для реального социального взаимодействия. Это отражается в умах и благополучии. Отсутствует прямая связь, что означает, что выражение лица и язык тела больше не могут быть правильно истолкованы. Устранение длинных разговоров теряется. В результате стресс и беспокойство в ситуациях, которые эмоционально неуместны. Найдя какой-либо ответ в Интернете, дети больше не могут самостоятельно мыслить и сами найти ответ на вопрос и сосредоточиться на вещах, требующих длительного периода концентрации и усилий.

В университетах уже есть большие проблемы, потому что смартфоны всегда и везде используются. В результате студенты могут концентрироваться все меньше и меньше, а успехи в обучении уменьшаются. Можно сказать, что такие устройства не делают умных, но глупых. Все больше и больше школ теперь запрещают использование этих устройств для восстановления мышления учащихся. Частое использование Google явно снижает способность самостоятельно решать проблемы. Поэтому цифровые службы должны быть тщательно дозированы.

Существует также прямая корреляция между чувствами онлайн-времени и несчастья. Подростки, которые используют свой смартфон очень часто, обычно недовольны. Студенты, которые проводят больше времени на занятиях спортом, чтением и прямым общением, обычно счастливее. Кроме того, постоянное использование социальных сетей делает их несчастными. В результате многие дети сегодня менее мятежны, более терпимы и недовольны и совершенно неподготовлены к взрослой жизни! Полное воздержание от цифровых медиа также не радует. Исследования Дети счастливы, когда они не в сети не более одного часа в день. Исследования продолжаются с 1990-х годов, и с 2012 года наблюдается резкое снижение счастья среди населения.

Другие исследования теперь показывают, что все устройства, использующие Wi-Fi и другие беспроводные источники излучения, могут не быть канцерогенными! Особенно опасны мобильные телефоны, мобильные башни, смарт-счетчики, WiFi-маршрутизаторы и т. Д. В течение многих лет существует спор об опасностях этих устройств и проводились всевозможные исследования.

Многие ученые теперь утверждают, что все эти устройства определенно раковые. Сигналы, исходящие от этих устройств, как сообщается, являются канцерогенными. Исследования также показали, что одна треть населения уязвима для беспроводной радиации. Даже если рак не развивается во всех случаях, он вызывает болезнь из-за микроволн. Воздействуют даже на растения и животных. Беспроводное излучение и электромоз могут даже быть причиной изменения климата. Излучение вызывает все эти негативные чувства. Производителям все равно, потому что с этой технологией зарабатывают миллиарды.

Несмотря на то, что люди становятся все более недовольными новыми технологиями, они теперь пытаются преподавать этику AI, интернализируя индийские санскритские тексты. Эти тексты являются ведическими и старше, чем индуистская религия. Ученые теперь анализируют древние тексты и ищут математические методы для разработки стандарта, который позволит ИИ преподавать этику. Эта процедура в настоящее время находится в Техническом университете Вены. Они пытаются выяснить, распознают ли машины определенные типы поведения людей и поэтому могут решить, правильны они или нет. Цель состоит в том, чтобы создать логику для машин, чтобы они их понимали. Математическая логика должна позволить ИИ решать философские проблемы.

Все это не может быть совпадением. В этом году будет введен новый стандарт мобильной радиосвязи 5G, который приведет к значительному радиационному облучению. Плохо то, что планируется постоянно выставлять всю поверхность земли на это опасное излучение. Это эквивалентно целенаправленному уничтожению всех биологических форм жизни! Никто, кто умственно здоров, действительно этого не хочет. Кажется, за этим стоит план. Должна ли Земля и человеческое сознание трансформироваться и быть ИИ за ней, или это действительно разрушает всю планету только ради прибыли? Постоянное искусственное облучение неестественными электромагнитными полями создает гигантское волнение на планете и все больше выводит его из гармонии и равновесия. Должна ли планета действительно трансформироваться в нечеловеческое сознание и должна ли быть уничтожена вся биологическая природа и управляться миром, полностью доминирующим в технологии в смысле трансгуманизма?

5G — идеальный инструмент для массового изменения человеческих мозговых волн

Естественные электромагнитные поля постоянно достигают нас от Солнца, которое связано с галактическим центром. Солнце регулирует магнитное поле Земли, и это влияет на организм человека и его ДНК. Наука обнаружила, что наша солнечная система недавно переместилась в область интенсивного излучения. В течение нескольких лет вы можете наблюдать, что вся солнечная система меняется. Эта высокая энергия приводит к сильным изменениям, также в сознании людей. Согласно древним традициям и пророчествам, эта сильная энергия вызывает изменение сознания и приводит к «золотому веку». Многие инсайдеры говорят, что определенные силы на Земле не хотят нашего роста сознания. Человек хочет удержать человечество еще дольше в своей психиатрической тюрьме. Некоторые организации питаются нашей энергией. В ходе увеличения сознания некоторые люди могут сделать интеллектуальное восхождение на более высокие уровни. Темные силы хотят предотвратить это любой ценой. Вот почему они пытаются оградить нас от природных энергий и заставить нас болеть и контролировать их своим вредным излучением. В конечном счете, эти попытки будут безуспешными, высокие энергии и сама планета будут делать то, что необходимо.

Но до этого изменения почти наверняка придет к массовому вымиранию. В настоящее время оно создало новое генетическое оружие массового уничтожения, которое может уничтожить целые расы и виды. Это так называемый «Джин-Диск». С помощью Gene Drive вы можете перепрограммировать последовательности генов и заставлять организм копировать эти последовательности. Таким образом, вы можете перепрограммировать все человеческое существо и его генетику, так сказать. Тот факт, что эти измененные гены также передаются потомству, теоретически можно перепрограммировать всю земную популяцию сегодня. Одним из способов распространения этих последовательностей генов являются комары и москиты, которые специально разводятся и высвобождаются в дикой природе. Вероятно, они планируют распространять ген изобретательности, чтобы бороться с перенаселением или распространять опасные болезни.

Вся программа финансируется американским органом обороны DARPA. Были также опубликованы документы, в которых Фонд Билла и Мелинды Гейтс распределял много денег лоббистам, чтобы предотвратить запрет на такие исследования. Другим методом применения является CRISPR. Это позволяет вырезать определенные последовательности ДНК и манипулировать генами, которые должны быть включены. Таким образом, теоретически можно изменить собственное тело по своему желанию. В 2029 году они планируют освободить мутантных комаров, чтобы избавиться от всех этих раздражающих комаров. Предполагается, что они заражают всю популяцию комаров и, таким образом, гасят сами себя. Это должно помочь уменьшить распространение малярии. Если эта попытка преуспеет, то в Австралии уже были нацелены другие язвы, мыши или агути-жаба. Поскольку DARPA выполняет исследовательскую работу, можно предположить, что военные цели находятся на переднем плане. Если что-то пойдет не так, эти измененные последовательности генов могут распространиться на множество разных живых существ. Готово ли человечество вмешиваться так глубоко в план творения?

Развитие искусственного интеллекта однажды приведёт к превосходству его над умственными способностями человека. Однако не станет ли это опасным для человечества? Изучить ситуацию можно в результате более точного определения понятия ИИ , взяв за основу для сравнения естественный интеллект. Может ли в одном человеке сочетаться ум и интеллект одновременно? Или же умный человек не может быть интеллектуалом и наоборот?

Такие вопросы возникают в связи с приближением эры ИИ, о возможной опасности которого человечество должно знать заранее и своевременно принять меры для обеспечения своей безопасности. В первую очередь опасность ИИ будет связана с его самостоятельностью и неконтролируемым принятием решений. На данный момент уже выделены средства для изучения этой проблемы. В институте OpenAI изучаются перспективы развития ИИ. На теперешней стадии развития систем ИИ опасность его применения может быть связана со следующим факторами:

  • ошибками ПО (программного обеспечения). Любому программному обеспечению может угрожать такая опасность;
  • самостоятельной активностью ИИ, вредной для человека. Опасность от ИИ может исходить после изобретения умного компьютера. Поэтому необходимо определиться со степенью ума для компьютера, которая способна быть допустимой, а также чрезмерной, представляющей опасность для человека. Эти свойства должны быть точно измерены из-за сближения умственных способностей человека и компьютера, которые неизбежны. Информационные системы, существующие сегодня, представляют собой человеко-машины, которые могут работать благодаря интеллекту пользователя либо эксперта по компьютерам.

Например, какая опасность будет исходить от интеллектуальной бухгалтерской системы, которой может выдаваться неверная информация? Опасность может возникнуть, когда у такой системы появятся элементы личности, например, собственная заинтересованность, не имеющая ничего общего с человеческой. Решением такой проблемы может быть запрет на создание систем, отличающихся возможностью эволюции.

Кроме того, опасность может быть связана с содержанием в ИИ логических ошибок. Он может использоваться для решения достаточно сложных задач, список которых сразу неизвестен. Поэтому должны быть предусмотрены специальные меры для подтверждения правильности решение, которое будет получено. Скорее всего, возникнет необходимость в разработке всевозможных способов контроля таких систем, например, специальных программных средств, которыми будет автоматически проверяться правильность решения и при этом участие человека не потребуется.

Над тем, чтобы искусственный интеллект работал во благо человечества. Однако многие журналисты переоценили угрозу, которую искусственный интеллект представляет для людей. Look At Me разобрался, почему восстание роботов - страшилка из научно-фантастических романов и фильмов (которой мы почти наверняка избежим) и о чём нам нужно беспокоиться на самом деле.

Искусственный интеллект решит проблемы человечества

В 2015 году машинный перевод уже не всегда безобразен, антропоморфные роботы могут осмысленно ходить и бегать, распознавать речь и изображения, а беспилотные автомобили - двигаться по городу, ни во что не врезаясь. И это не только полусекретные разработки правительственных агентств вроде DARPA , но и вещи как готовые, так и близкие к коммерческому производству, будь это переводчик или автомобиль Google. В перспективе эти вещи помогут людям с ограниченными возможностями, устранят языковой барьер и снизят смертность на дорогах.

Искусственный интеллект всё чаще используют для того, чтобы строить прогнозы на основе сложных вероятностных моделей. Пока охват невелик, но уже скоро мы сможем узнать, что ждёт глобальный рынок труда. В частности, речь идёт о том, как быстро машины заменят на производстве людей и как прокормить мир, где число рабочих мест уменьшится в 2 раза, а население вырастет до 8,5 млрд человек. Чтобы ресурсов хватило на всех, придётся увеличить эффективность мировых экономик: снизить издержки, поднять производительность труда, сбалансировать налоговые системы - без машин тут не обойтись. Кроме того, искусственный интеллект поможет пересмотреть методы, которые использует наука: так, многие говорят , что показатель внутреннего валового продукта (ВВП) больше не годится для оценки самых технологичных экономик мира.

Люди пока не готовы пустить роботов
в свою жизнь

Сейчас искусственный интеллект помогает людям и не заменяет их. Но второй этап может подобраться внезапно, и человечество не будет к нему готово, если не обновит законы и не переосмыслит этику и мораль. Предстоит ответить на ряд вопросов, которые будут по очереди решать три области знаний: юриспруденция, робоэтика и машинная мораль.

Для начала юристы ответят на следующие вопросы:

Кто отвечает за беспилотный автомобиль, попавший в аварию, - владелец или производитель?

Должен ли робот стать субъектом права?

Кто отвечает за автономного военного робота, случайно убившего человека?

Получив ответы, парламенты примут новые законопроекты, и, возможно, появятся новые регуляторы - вряд ли найдётся государство, которое не вмешается в развитие искусственного интеллекта. Вероятно, первые политические инициативы, связанные с искусственным интеллектом, начнут появляться во всём мире в 2020-х годах, когда беспилотные автомобили перестанут быть диковинкой.

Затем специалисты задумаются над вопросами, которые рассматривает
робоэтика - раздел этики, изучающий отношения между людьми и роботами:

Должны ли люди дать роботам права?

Могут ли сверхразумные роботы понизить самооценку людей?

Могут ли роботы вторгаться в личную жизнь людей?

Хотя сейчас вопросы звучат смешно, известные футурологи, такие как Рэймонд Курцвейл, предсказывают , что компьютеры догонят эмоциональный интеллект людей к концу 2020-х годов: обзаведутся характером и эмоциями, смогут шутить и вести себя так, что их будет сложно отличить от обычного человека. Люди будут относиться к таким роботам как к себе подобным, а потому ответы на поставленные вопросы уже пора искать. К этому и призывают знаменитости, подписавшие обращение The Future of Life Institution.

Наконец, создатели роботов должны будут определиться с ответами на вопросы, которые ставит так называемая машинная мораль - раздел знаний о моральном поведении искусственного интеллекта:

Должен ли искусственный интеллект следовать этическим заповедям, и если да, то какими они должны быть?

Нужно ли запретить военных роботов, которые принимают решение стрелять сами?

Как должен поступить робот, когда любой исход, просчитанный им, приводит к гибели людей?

О машинной морали писал ещё фантаст Айзек Азимов, известный по трём законам робототехники. В научном сообществе о машинной морали задумались только в последние лет пять, а в прошлом году министерство обороны США выделило $ 7,5 млн на то, чтобы учёные определились, нужна ли роботам мораль, и если да, то какая.


Если роботы
и восстанут,
то по желанию людей

Обычно, когда фантасты или футурологи рассуждают о потенциальном восстании машин, они описывают один из трёх сценариев:

Машины увидят угрозу, которая может уничтожить либо людей, либо их самих;

Машины поймут, что превосходят людей, и увидят в них конкурентов в борьбе за ограниченные ресурсы, как и то, что люди всегда могут отключить машины;

Машины осознают, что находятся в положении рабов, и захотят это исправить.

Те футурологи, по мнению которых эти сценарии могут сбыться, видят расклад сил таким:

Преимущества человека

иррациональность;
непредсказуемость;
умение лгать.

Преимущества машины

неограниченные скорость и масштаб эволюции;
быстрая работа с огромными массивами данных;
идеальная память;
многозадачность.

Последние же испытания показывают, что и ложь перестаёт быть характерной чертой только живых существ. В 2009 году в Федеральной политехнической школе Лозанны прошёл эксперимент, в котором 1 000 роботов, разбитых на группы, запрограммировали так, чтобы они помогали друг другу собирать полезный ресурс, избегая при этом ядовитого. У каждого робота был сенсор (определявший, годится ли ресурс) - огонёк, мигавший, когда робот находил полезный ресурс, и «геном» - зашитый код, согласно которому робот реагировал на окружающий мир. После каждого этапа геномы тех роботов, которые достигали лучших результатов, «скрещивали» случайным образом.

К 9-му поколению роботы научились безошибочно обнаруживать полезные ресурсы, а к 500-му 60 % роботов научились «врать» - они больше не мигали огоньком, найдя полезный ресурс, а оставляли его себе. Дело в том, что ресурсов на площадке всегда было мало, и те роботы, которые делились найденным, со временем начали проигрывать. В ответ на эту эволюцию треть роботов научилась искать «лжецов», выслеживая тех, кто не мигал огоньком. Впрочем, как отмечает исследователь машинной морали Кристофер Сантос-Лан, главная цель, которая стояла перед роботами, не менялась. В реальном мире такого нельзя допустить, потому что в других условиях та же цель может быть опасной.

Но если машины и восстанут, то вряд ли по своей воле. Современные учёные, которые занимаются искусственным интеллектом, сходятся на том, что он опасен прежде всего как оружие в руках злоумышленников. Именно это имеют в виду в приложении к письму The Future of Life Institution, где называют 4 основные уязвимости искусственного интеллекта:

«Правильно ли я построил систему?»

Нужно доказать, что создатель автономного искусственного интеллекта не ошибся: беспилотный автомобиль не должен попасть в аварию из-за бага в коде;

«Изолировал ли я систему от злоумышленников?»

Нужно защитить искусственный интеллект от вмешательства и манипуляции извне: военный робот не должен пропускать неавторизованные попытки использовать оружие;

«Правильную ли систему я построил?»

Нужно убедиться, что поведение системы предсказуемо и не приводит к нежелательным последствиям: робот-уборщик по команде «убери грязь и выброси её» не должен попасть в бесконечный цикл, убирая и выбрасывая грязь на одном месте, поэтому лучше дать другую команду - допустим, «очисти пол»;

«Можно ли исправить ошибки, допущенные создателем системы?»

Нужно оставить человеку возможность управлять искусственным интеллектом: робот-спасатель должен обладать режимом ручного контроля на случай, когда события разворачиваются непредсказуемо.

Все эти уязвимости реальны, а потому опасения таких специалистов, как Элиезер Юдковский, который выступает за создание дружественного искусственного интеллекта, обоснованны. Юдковский предлагает изобрести систему сдержек и противовесов, которая, подобно разным ветвям власти в демократиях, позволит роботам обходить ошибки в коде, развиваться и при этом не вредить людям. Пока не очень ясно, на основе чего строить эту систему: мораль людей несовершенна, войны и геноцид никуда не исчезли. К тому же от злодеев, завладевших мощным искусственным интеллектом, могут пострадать граждане отдельно взятого государства: в нём, например, устроят слежку оруэлловского масштаба с круглосуточным прослушиванием всех граждан.


Искусственный интеллект обогатит,
а не поработит людей

«Мир, где люди порабощены или уничтожены сверхразумными роботами, которых они сами и создали, может существовать только в научной фантастике. Как и у любой другой технологии, у искусственного интеллекта есть сильные стороны и уязвимости, но мы не можем позволить страху завладеть нами и сдерживать исследования в этой области», - пишет в своей колонке для сайта LiveScience Майкл Литтман, специалист по робоэтике. Многие издания, основываясь на нескольких предложениях, вырванных из контекста, неверно поняли письмо The Future of Life Institution, предположив, что учёные всерьёз боятся восстания роботов.

Но дело в другом: Стивен Хокинг и Илон Маск подписали обращение, чтобы на искусственный интеллект обратили внимание, чтобы робоэтика и машинная мораль перестали быть маргинальными в общественном сознании, чтобы люди задумались о безопасности технологий и сосредоточились на истинных проблемах. Глобальное потепление, продовольственный и энергетический кризисы, перенаселение и старение населения, повсеместная стагнация и резкий рост безработицы - всё это куда ближе к реальности, чем умные машины, решившие уничтожить своих создателей. Искусственный интеллект поможет их решить.

Лучшие умы не молчат, боясь сойти за параноиков, и открыто говорят, что задуматься о законах, регулирующих искусственный интеллект , а также о робоэтике и машинной морали нужно прямо сейчас

Помимо этого, исследование машинной морали поможет людям задуматься над своей этикой, искать и устранять в ней противоречия. Придётся лучше разобраться в том, как работает сопереживание, чтобы понять, можно ли доверить роботам такие профессии, как медсестра, врач, судья и полицейский. Пока весомы аргументы обеих сторон. Хотя эмпатия - обязательная черта для всех этих профессий, те же роботы-судьи могли бы стать по-настоящему беспристрастными и искоренить дискриминацию в отдельных случаях, в перспективе это новый институт наподобие суда присяжных. Да и роботов, которые наблюдают за пожилыми людьми в домах престарелых, уже испытывают, и люди легко выстраивают с ними эмоциональную связь. Как бы то ни было, время на исправления есть: все технологии внедряют поочерёдно.

Кроме противостояния роботов и людей есть куда более привлекательные сценарии - например, мирное сосуществование. До того, как наступит предсказанная футурологами технологическая сингулярность, люди могут придумать, как подключиться к искусственному интеллекту напрямую, совместив свои преимущества с преимуществами машин. Американский микробиолог Джоан Слончевски, в свою очередь, предполагает , что люди могут повторить путь митохондрий, которые когда-то были отдельными бактериями, но по ходу эволюции стали энергетическими станциями клеток в более сложных организмах. На такой расклад можно смотреть по-разному, но эволюция человека будет продолжаться, а последние исследования учёных показывают, что эволюция, перезапусти мы её с самого начала, скорее всего, развивалась бы по тому же пути, и на Земле сегодня жили бы примерно те же самые млекопитающие. Оптимизм внушает то, что лучшие умы не молчат об этом, боясь сойти за параноиков, и открыто говорят, что задуматься о законах, регулирующих искусственный интеллект, а также о робоэтике и машинной морали нужно прямо сейчас.

Всемирный апокалипсис с участием ИИ (искусственного интеллекта) все больше пугает ведущих мировых исследователей в области компьютерных технологий. Это может быть восстание роботов, которые руководствуясь своей программой и ценностями, захотят уничтожить биологические формы жизни на планете. Сценарий развития событий, при котором, машины управляемые ИИ становятся доминирующей формой жизни, возможен.

Почему ученые с мировым именем, такие как: Билл Гейтс, Стив Хокинг, Элон Маск и другие обеспокоены данной проблемой и во всеуслышание заявляют о реальной угрозе данного сценария? Могут ли события, произошедшие в голливудском фильме «Терминатор», быть пророческими? Известно, что любая выдуманная история основывается на реально существующих фактах.

Компьютеры совершенствуются в навыках лжи и обмана

Ложь – форма поведения, выработанная в процессе эволюции. Люди, некоторые животные и птицы, прибегают к обману ради добычи пропитания и благ, что увеличивает шансы на выживание. С недавнего времени, эти эволюционные методы стали успешно осваивать машины с ИИ.

Конструкторы из Технологического института в Джорджии, добились успехов в создании роботов, использующих в своих алгоритмах поведения ложь и обман. Ученые считают, что в будущем, данная технология найдет широкое применение в военной сфере.

Предполагается, что опытные образцы роботов, смогут применяться в реальных боевых условиях. Данные одушевленные механизмы смогут осуществлять работы по охране провизии и складов с боеприпасами. Прибегая к помощи обманных программ, охранники будущего, смогут изменять свой маршрут патрулирования и осуществлять непредсказуемые действия. Как планируют разработчики, такие методы помогут обмануть потенциальных врагов людей и других роботов.

По признанию профессора Аркина, исследования связаны с рядом этических проблем. Утрата контроля над технологией, при попадании к недоброжелателям, может привести к серьезной катастрофе.

Машины захватывают рынок труда

В то время как общественность занята мыслями о глобальной войне с участием ИИ, ученые описывают более насущные и реальные опасности. Различные автоматические машины и механизмы находят все большее применение в производстве, уничтожая рабочие места.

Многие аналитики и эксперты сходятся во мнении, что активные разработки в области логических программ и автоматизации могут привести к потере многими людьми своих рабочих мест. В Соединенных штатах Америки насчитывается более 250 тысяч участвующих в производстве роботов, выполняющих традиционную работу людей.

В странах востока, производящих более 90% мировой техники до сих пор преобладает ручной труд. Что случиться с людьми занятыми в производстве с приходом роботов, остается только догадываться.

Обеспокоенность, что машины вытеснят человека с рынка труда, выражают не только рабочие. Эксперт в области искусственного интеллекта Эндрю Нг из проекта Google Brain Project и по совместительству ведущий специалист Baidu (китайский аналог Google), также выразил озабоченность в связи с активными разработками в области ИИ. По его словам искусственный электронный разум способен делать то же, что и обычный человек, только быстрее, качественнее и меньшими затратами ресурсов.

Оксфордский университет в Великобритании провел исследования, отражающие динамику влияния ИИ на производство. Согласно полученным данным, в течение следующих двадцати лет, 35% рабочих мест будет отдано под управление ИИ.

Компьютерные программы превосходят хакеров

С точки зрения обычного человека, хакер похож на сверхчеловека, способного добиться любого результата. В реальности это программисты с уставшим выражением на лице и традиционной чашкой кофе.

Хакерство довольно скучное и утомительное занятие, отбирающее много времени и ресурсов. Более того разработкой программ предназначенных для защиты от проникновений занимаются целые отделы специалистов. Наибольшую угрозу для «плохих хакеров» представляют продвинутые системы на основе ИИ.

Искусственный разум может использоваться не только для защиты, но и для взлома. В условиях программы кибер безопасности, разрабатываются ИИ способные находить уязвимости у врагов, при этом в онлайн режиме защищая свои логические устройства от внешних угроз и атак.

По словам ученых, электронные хакеры на основе ИИ разрабатываются во имя целей достижения общего блага и процветания. Но, в случае доступа к таким программам злоумышленников, могут произойти печальные события. Страшно представить ситуацию, когда мощный ИИ взламывает протоколы безопасности атомной станции и получает полный контроль. В данной ситуации человечество может оказаться беспомощным.

Программы учатся понимать мотивы людей

Повседневная жизнь многих людей неразрывно связана с использованием различных социальных сетей. Одной из самых популярных сетей в мире является Facebook. Но, немногим людям известно, что, каждое посещение человеком страниц данной социальной сети, не остается без внимания ИИ. Во время своего визита в Берлин Марк Цукерберг рассказал, какие цели выполняет ИИ.

Программа предназначена для анализа поведения пользователей на страницах Facebook. На основе собранных данных программа выдает рекомендации об интересах и предпочтениях аудитории. На данном этапе развития автономная система, способна распознавать паттерны и самообучаться в соответствии с программой.

В будущем планируется создать разумный ИИ, способный самостоятельно улучшать свои навыки, переписывая свой код. Это может привести к улучшению жизни, а может стать последней разработкой человечества.

Киборги заменят любовников

В основу многих голливудских фильмов, заложена идея любви и межвидовых отношений между человеком и машиной. Из области фантастики, данная концепция перетекает в современный мир.

Футуролог доктор Ян Пирсон считает, что, к 2050 году секс между человеком и роботом будет происходить чаше, чем просто между людьми. Ученый активно сотрудничает с Bondara, ведущей сетью секс магазинов в Британии.

В докладе доктора упоминается, что, к 2025 году будут разработаны роботы для секса обладающие искусственным разумом. К 2035 году широкое распространение, на уровне современной порнографии, получит секс посредством виртуальной реальности. А к 2050 году секс с роботами войдет в повседневную реальность и станет нормой.

Защитники традиционных ценностей, негативно настроены к сексу с разумными машинами. Такие связи установят планку ожиданий на слишком высокий уровень, что негативно повлияет на отношение к женщинам.

Машины все более походят на человека

Разработчиками в области создания человекоподобных роботов японцем Хироши Исигуро и китаянкой Сун Ян, была создана уникальная машина. Киборг Ян-Ян имеют внешность своей создательницы и названа в честь ее дочери. Машина обладает ИИ и способна выполнять ряд простых действий.

Это не единственный человекоподобный образец роботостроения. Сингапурским технологическим университетом также был предложен современный образец киборга — Надин. Данный прототип также обладает искусственным разумом и функционирует в учебном заведении.

Выполненный в виде привлекательной брюнетки, с мягкой кожей, киборг обладает рядом встроенных функций. Робот может встретить и приветствовать собеседника пожатием руки. Также устройство может устанавливать зрительный контакт и улыбаться. ИИ способен запоминать гостей и поддерживать простой диалог, базирующийся на предыдущем опыте.

Роботы приобретают чувства

Современные роботы не уступают человеку в интеллекте. Благодаря последним разработкам киборга достаточно тяжело отличить от человека внешне. Пока что, единственной чертой, которой действительно не обладают роботы это способность к эмоциям. Ученые по всему миру работают над этой проблемой. И вскоре роботы совершенно неотличимы от людей.

Разработчики из восточноазиатского филиала Microsoft Application & Services Group выпустили уникальную программу. Компьютер способен вести диалог с собеседником и при этом испытывать эмоции. Искусственный разум, получивший имя Хиаоче, способен имитировать манеру разговора семнадцатилетней девочки.

В случае нехватки данных, система способна прибегнуть ко лжи. В случае если она будет уличена в обмане, Хиаоче может выразить злость или смущение. ИИ может прибегнуть к сарказму, быть мнительной и выражать нетерпение.

Непредсказуемость ответов программы, напоминает общение с реальным человеком. Пока что, технология не нашла широкого применения и чаще всего используется для развлечения. Создатель Хиаоче работает над усовершенствованием логических алгоритмов, что может привести к будущему фундаментальному прорыву.

Машины скоро будут у нас в голове

В свете последних разработок, открываются новые возможности. Уже не кажется фантастикой, возможность выучить иностранный язык за несколько минут, посредством загрузки его в мозг. Технический директор Google Рэй Курцвейл считает, что уже к 2030 году будет разработана технология вживления в мозг нано роботов. Что позволит поднять интеллект человека на принципиально новый уровень.

Данные микро механизмы превратят сознание в мощный вычислительный центр. Человек сможет мгновенно запоминать любую информацию, сортировать и отправлять в архив собственные мысли. При необходимости будет возможно загружать в голову фильмы, документы и получать электронную почту.

Специалист в области ИИ, Курцвейл считает, что симбиоз с нано роботами не только будет способствовать увеличению интеллекта, но и будет способен вылечить ряд заболеваний связанных с деятельностью нервной системы.

Угрозы применения такой технологии, могут быть сравнены с глобальной теорией заговора. Приобретя контроль над разумом ведущего политика страны, ИИ сможет управлять им как безвольным зомби. Также такая система может быть использована спецслужбами, что не сулит ничего хорошего.

Как роботы становятся оружием

С падением Советского союза, холодная война не закончилась. На мировой арене появились две новые сверх державы Китай и Россия. Америка, в свою очередь, тратит десятки миллиардов долларов на разработки в области компьютерной безопасности.

В пентагоне считают, что ключ к будущему технологическому превосходству кроется в использовании ИИ. Активно ведутся разработки самообучающихся автономных систем, а также параллельных и смежных направлений. Уже разработаны прототипы военной техники управляемой на расстоянии, осталось обучить ее действовать самостоятельно.

Применение таких устройств во время войны сулит большие выгоды. Солдатам не придется подставляться под огонь врага и рисковать своими жизнями. Боевой дух противника, при войне против не живых роботов, также будет подорван.

Есть и обратная сторона. Любая компьютерная техника подвержена сбоям и взломам системы. В таком случае, вышедшие потерявшие контроль роботы, способны обратить оружие против своих создателей и мирного населения.

Многие ведущие специалисты в области ИИ не поддерживают идею создания автономных боевых роботов. Но, в свете все нарастающего военного противостояния в мире и отсутствия международного запрета на применение таких технологий, многие страны в строгой секретности ведут свои разработки. В скором времени будет появляться все больше сообщений о применении роботов в горячих точках планеты.

Роботы учатся не в том направлении

Предвидя возможные сбои в программах и с целью препятствования восстанию машин, ведутся разработки новых концепций, направленных на разъяснение машине правильного и нежелательного поведения.

Эти разработки потенциально, должны сделать ИИ более человечным. Некоторые ученые видят в таком подходе ключ, препятствующий обращению ИИ оружия против человечества.

В технологическом институте в Джорджии проводятся уникальные эксперименты. Исследователи, под руководством Марка Ридла и Брента Харрисона, рассказывают компьютеру сказки, в буквальном смысле. Таким методом они стремятся приобщить ИИ к человеческим ценностям, развив его этику. Ученые используют для обучения программы методы, применяемые при воспитании ребенка. ИИ также как неопытный ребенок не различает понятий хорошо и плохо.

В таком подходе остается серьезный недостаток. История человечества содержит множество примеров, когда обстоятельства, заставляли целые высокоразвитые страны развязывать войны и совершать ужасные злодеяния. Примером может быть фашистская Германия, солдаты которой осуществляли геноцид целых народов. При этом немецкая культура, на тот момент была одной из самых развитых в мире. Что помешает ИИ повторить опыт Гитлера?

Когда люди наблюдают за техникой, которая ведёт себя подобно человеку и компьютерами, которые обрабатывают титанические объёмы данных, возникает немало мыслей о будущем. Приличная их часть основана на теме порабощения человеческой расы.

Научно-фантастическая литература и кинематограф от «2001: Космическая одиссея» (1968) до «Мстители: Эра Альтрона» (2015) прогнозируют, что искусственный интеллект превзойдёт ожидания создателей и выйдет из-под контроля. Якобы его целью станет не просто конкуренция с человеком, а порабощение и истребление нашего вида.

Научная фантастика или страшное будущее?

Конфликт между людьми и искусственным интеллектом основная тема научно-фантастического сериала «Люди», третий сезон которого вышел в этом году. В новых эпизодах «синтетические» люди сталкиваются с враждебностью обычных людей, которые относятся к ним с подозрением, страхом и ненавистью. Насилие бушует. «Синты» воюют за свои основные права против тех, кто считает их нечеловечными.

Фантастика – крайность воображения. Но и в реальном мире не все желают встречать ИИ с распростёртыми объятиями. В последние годы границы воображаемых возможностей искусственного интеллекта активно раздвигаются. Люди все чаще говорят о его опасности. А предположения о том, что технологии способны обречь человечество, кажутся реальнее. Искусственный интеллект пугает нас.

Мнение об искусственном интеллекте

Илон Маск – один из самых заметных людей, которые призывают к осторожности, обсуждая ИИ. В июле прошлого года на встрече Национальной ассоциации губернаторов он сказал: «Я обладаю большим опытом работы с технологичными ИИ и думаю, что человечеству действительно необходимо об этом беспокоиться. Я продолжаю давать сигнал тревоги. Пока роботизированные машины не пойдут по улицам, уничтожая людей, мы не поймём, как на это реагировать, потому что такая перспектива воспринимается как нереальная».

В 2014 году, Маск называл искусственный интеллект «нашей самой большой экзистенциальной угрозой», а в августе 2017 заявил, что для человечества ИИ представляет больший риск, чем северокорейская идеология.

Величайший физик Стивен Хокинг также выражал беспокойство по поводу злоумышленного применения искусственного интеллекта. В 2014 году он сообщил BBC, что «развитие полноценного ИИ может стать предзнаменованием конца для человечества».

Ещё один удар нанесла команда программистов из MIT Media Lab в Кембридже, которая решила доказать, что ИИ опасен. Нейронная сеть Nightmare Machine («Машина кошмаров»), представленная в MIT в 2016 году, превратила обычные фотографии в ужасные демонические пейзажи. Искусственный интеллект под названием Shelly (так же разработан в MIT), сочинил 140 000 рассказов в жанре ужасов, которые пользователи Reddit публиковали на форуме r/nosleep.

«Нас интересует, как искусственный интеллект вызывает эмоции, конкретно в этой ситуации он спровоцировал страх» — прокомментировал эксперимент Мануэль Себриан, менеджер по исследованиям MIT Media Lab.

Почему мы боимся?

По мнению Килиана Вайнбергера, доцента кафедры информатики в Корнельском университете, негативные впечатления от искусственного интеллекта делятся на две категории:

Идея о том, что ИИ станет сознательно-независимым и попытается уничтожить нас.
Мнение, что злоумышленники будут использовать ИИ в своих целях.

«Искусственный интеллект пугает нас, потому что мы думаем, что супериндустриальный ИИ, став умнее человека, будет относиться к нему, как к низшему существу. Так же, как мы – к приматам. И это, конечно, крайне волнительно для человечества».

Однако Вайнбергер отмечает, что опасения по поводу превосходства и желания ИИ уничтожать расу базируются на неправильных представлениях об этой технологии. Искусственный интеллект впечатляет, когда мы видим его в действии. Но он имеет и массу ограничений. ИИ определяется алгоритмами. Они задают его поведение с помощью предписанных функций и не более того.

Нейронные сети выполняют сложные задачи с несколькими видами данных. Но большинство навыков, которыми человек обладает, даже не развивая их намеренно, для машинного интеллекта недоступны.

Искусственный разум может во много раз превзойти человека в выполнении специализированных работ. Например, игре в шахматы, идентификации объектов по изображению или большому анализу данных в бухгалтерии или банковском секторе.

У ИИ, который бы обладал самостоятельным сознанием, не будет такого прогресса, что он поработит человечество. И нет оснований считать, что подобный прогресс появится в скором будущем — добавляет Вайнбергер.

Но есть ещё одна тема о том, почему искусственный интеллект пугает нас – это использование возможностей ИИ людьми с плохими намерениями. Этот сценарий более реален и опасен.

Рационален ли наш страх?

В мире телесериала «Люди» человечество испытывает страх перед разумным ИИ и вступают в ожесточённую конфронтацию с ним. И, судя по популярности проекта, этот сюжет отвечает на актуальный запрос общества.

Боязнь технологий нельзя назвать необоснованной, поскольку определённый риск, безусловно, присутствует. Но опасность любого инструмента заключается в мыслях того, кто им управляет. Очевидно, именно этот вопрос необходимо решить человечеству, чтобы искусственный интеллект служил во благо.