Искусственный интеллект как угроза. В чем прав или не прав Илон Маск. Илон Маск обеспокоен: искусственный интеллект восстанет против людей

25.04.2019 Отношения

Генеральный директор компаний SpaceX и Tesla Элон Маск считает искусственный интеллект самым большим риском для существования всей человеческой цивилизации, сообщает журнал Fortune.

Элон Маск на ежегодной встрече Ассоциации губернаторов назвал искусственный интеллект самым большим риском, с которым мы сталкиваемся как цивилизация. "Искусственный интеллект - тот редкий случай, когда нам нужно быть активным в регулировании, а не реагировать. Потому что к тому времени, когда мы будем реагировать, станет уже слишком поздно", - заявил Маск.

Маск отметил, что широкое государственное регулирование в этой области имеет жизненно важное значение. "Роботы могут начать войну, выпуская фейковые новости и пресс-релизы, подделывая учетные записи электронной почты и манипулируя информацией", - заключил глава компаний SpaceX и Tesla.

Миллиардер отметил, что благодаря своей работе имеет доступ к самому передовому искусственному интеллекту, а потому людям действительно стоит прислушаться к его словам. И хотя это пока отдаленная перспектива, Элон Маск ранее говорил и о том, что непосредственную угрозу искусственный интеллект несет для рабочих мест, особенно в автомобильной отрасли. Он убежден, что лет через 20 без работы может остаться 15% мировой рабочей силы.

Это уже не первый раз, когда Маск говорит об опасности искусственно интеллекта, который в его представлении может восстать и поработить планету. Кроме того, Маск - сторонник теории, что это могло уже произойти и мы все, как в фильме "Матрица", живем внутри компьютерной симуляции.

Основная идея главы SpaceX заключается в том, что за последние 40 лет компьютерные игры развивались так быстро, что уже через пару лет они будут совершенно неотличимы от физического мира. Другими словами, мы находимся на грани слияния дополненной реальности (AR) с искусственным интеллектом. Конечным результатом является то, что реальное и виртуальное могут стать совершенно неотличимыми одно от другого.

"Сорок лет назад у нас был Pong. Вы знаете, два прямоугольника и точка между ними. Так выглядели игры в то время. Сегодня, сорок лет спустя, мы имеем фотореалистичные трехмерные симуляции, в которые одновременно играют миллионы людей по всему миру. И все становится только лучше с каждым годом. Совсем скоро мы начнем играть в виртуальной и дополненной реальности", - поведал Элон Маск удивленным журналистам.

"Если предположить, что видеоигры продолжат развиваться в том же ключе, то рано или поздно они станут неотличимы от реальности, даже если скорость их эволюции замедлится в тысячу раз. Просто представьте, что дожидаться нужного момента нужно будет десять тысяч лет, - это ничто на шкале эволюции. Предполагая такую траекторию развития видеоигр, которые неотличимы от реальности и могут быть запущены на подходящем устройстве, и предполагая наличие миллиардов подходящих устройств, вероятность того, что мы живем в базовой реальности, - один к миллиардам", - считает Элон Маск.

Сам Элон Маск, судя по всему, сторонник развития человечества по пути аугментации тела. Бизнесмен убежден, что люди должны слиться с машинами, стать своего рода киборгами. Маск объяснил, что компьютеры могут общаться со скоростью "триллион бит в секунду", при этом люди, основной метод коммуникации которых заключается в том, чтобы набирать на мобильном устройстве текст, могут передавать около 10 бит в секунду.

В эпоху, когда искусственный интеллект грозит занять все области жизнедеятельности человека, сделав самого человека бесполезным, люди понимают, что необходимо объединяться с машинами, согласно Маску. Технологи предлагают ввести новую прослойку мозга, способную быстро получать доступ к информации и подключаться к области искусственного интеллекта.

Для этого создана новая компания Neuralink Corp, которая будет разрабатывать технологию "нейронного кружева". Это в будущем позволит людям передавать сообщения компьютеру напрямую, без задействования физического интерфейса. Для этого необходимо вживить в мозг электроды. Таким образом, люди смогут загружать и скачивать свои мысли из компьютера.

Илон Маск, основатель компании-производителя электромобилей Tesla, и Сэм Альтман, президент известного инкубатора Y Combinator, объявили о создании компании по разработке искусственного интеллекта на конференции в Монреале ещё в декабре прошлого года. Это перевод статьи издания Wired, с оригиналом публикации можно ознакомиться .

Эта новость вышла в пятницу во второй половине дня, когда обычно публикуется всякая всячина. Неужели это событие не достойно большего внимания и за ним никто не следил? Ещё как следили. Как только компании из Силиконовой долины почуяли, куда дует ветер, то сразу начали охоту за кадрами из новообразованной организации, заманивая баснословными зарплатами. Причем некоторые предложения поступали прямо во время конференции, суммы были настолько крупными, что Маск и Альтман решили отложить анонс своего нового стартапа. «Это были огромные суммы», заявил Войцех Заремба, который стажировался в Google и Facebook, а позднее присоединился к OpenAI. Он попал в число тех, кто получил интересное предложение от конкурентов в одиннадцатом часу.

«Огромная сумма» — это сколько в долларах? Два года назад, когда рынок технологий машинного обучения набирал обороты, вице-президент Microsoft Research Питер Ли сказал, что зарплата лучшего специалиста в области искусственного интеллекта превышает зарплату лучшего квотербека Национальной Футбольной Лиги. Для статистики, топовые квотербеки получают порядка $20-25 млн в год.

Именно так: цель Маска, Альтмана и компании — раздать людям бесплатно самую невероятную технологию XXI века.

Заремба сказал, что такие предложения заоблачных сумм скорее оттолкнули его от предложений, несмотря на его огромное уважение к таким компаниям как Google и Facebook. Он почувствовал, что его хотят перекупить, не давая создать OpenAI, от этого идея благородного стартапа увлекла его ещё сильнее.

В этом скрывается ирония всей истории. Несмотря на то, что самые большие в мире технологические компании пытаются удержать своих исследователей с той же силой, с какой Национальная Футбольная Лига пытается сохранить своих звезд-квотербеков, ученые, напротив, хотят делиться знаниями.

В утонченном мире исследований в области искусственного интеллекта самые яркие умы отнюдь не мотивированы исключительно выпуском конечного продукта или материальной выгодой. Они хотят сделать искусственный интеллект лучше, а этого не произойдет, если вы сохраняете свои открытия только для себя.

OpenAI выпустило свой первый софт в этой области, средство для создания систем искусственного интеллекта через технологию «усиленное обучение». Это одна из ключевых технологий, благодаря которой появился AlphaGo, искусственный интеллект от Google, тот, что поразил мир освоением правил старинной игры Го. С этим набором инструментов вы можете создавать системы, которые имитируют роботов новых типов, играют в игры Atari, ну и конечно им по силам игра Го.


Впрочем, игры — это только начало. OpenAI это попытка ценой в миллиард долларов, которая хочет завести изучение искусственного интеллекта как можно дальше. В том, как собирались компании, в том, что они планируют делать, можно увидеть создание новой волны инноваций. Мы не скоро узнаем, сможет ли OpenAI стать главным участником этих изменений. Однако силы, которые ведут к созданию такого необычного стартапа, показывают, что новый вид искусственного интеллекта не только изменит технологию, но и поменяет способ создания технологий.

Везде искусственный интеллект

Преувеличение — обычное явление для Силиконовой долины, где принято встречать громкие заявления с долей скепсиса. Но в области искусственного интеллекта изменения действительно есть. В Google и Facebook так называемая технология «глубинного обучения» помогает определять лица на фотографиях, распознавать голосовые команды для смартфонов и отвечать на поисковые запросы. И эта же технология сможет решать множество задач в будущем. Она поможет системам распознавать языки — привычный способ человеческого общения. Она создаст новый вид роботов, позволяя технике не только выполнять задания, но и самообучаться во время этого процесса. А кто-то даже верит в то, что благодаря ей у роботов появятся разум — возможность мыслить как человек.


Но вместе с этими обещаниями приходит волнение. Маск и Альтман беспокоятся о том, что если люди создадут искусственный интеллект, способный творить великие вещи, они смогут создать и его аналог, способный устроить кошмарную жизнь всему человечеству. Такого мнения придерживаются не они одни, но как ни странно, Маск и Альтман считают, что лучший способ борьбы со злобным разумом — открыть к нему доступ, а не ограничивать его. И это одна из причин, по которой в проект пришли молодые и очень умные идеалисты.

Проект OpenAI запустили летом прошлого года, когда Илон Маск ужинал вместе с Ильей Суцкевером, который в то время работал в Google Brain, занимаясь разработкой нейронной сети. То есть системы искусственного интеллекта, которая учится выполнять задачи, исследуя огромные массивы данных, начиная с распознавания лиц на фотографиях и заканчивая сочинением электронной почты или диалогом. Суцкевер был одним из идеологов проекта, но потом пришло время более крутых идей.

Сэм Альтман, чей Y Combinator помогал развиваться таким компаниям, как Airbnb, Dropbox и Coinbase, устроил встречу, на которой присутствовало несколько специалистов в области искусственного интеллекта, а также молодой, но опытный Грег Брокман, бывший директор по технологиям в стартапе по платежам Stripe, одной из компаний Y Combinator. Это была очень энергичная команда, и у всех была одна цель: создать новую лабораторию по исследованию искусственного интеллекта, которая бы существовала сама по себе и была независимой не только от Google, но и всех остальных.

Маск принимал участие в качестве старинного друга Альтмана, ну и конечно потому, что искусственный интеллект очень важен для его бизнеса и будущего человечества в целом. Он необходим для автономных автомобилей Tesla, Space X с его помощью будет отправлять людей в космос и отвечать за их жизнеобеспечение.

Кроме того, Маск один из тех, кто предупреждает человечество о том, что однажды люди могут потерять контроль над слишком умными системами.

Но была и проблема. Слишком много толковых специалистов, которым по силам эти проблемы, уже работали на крупные корпорации: Google, Facebook, Microsoft, Baidu, Twitter и прочие. И никто из присутствующих в тот вечер за столом не был уверен в том, что смогут привлечь этих людей в новый стартап, даже если перед ними будут сидеть Маск и Альтман. Но один из ключевых игроков был готов сменить корабль. «Я видел в этом определенные риски, но также я понимал, что это будет очень интересно попробовать», сказал Суцкевер.

Разрывая круг

Вскоре Брокман решил создать лабораторию после ободряющего диалога с Маском, Альтманом и другими. Он плотно занялся проектом, посвящая ему все свое свободное время, и начал приглашать специалистов. Он общался с Йошуа Бенджио, специалистом по теории вычислительных машин и систем Университета Монреаля, одним из основателей глубинного обучения. Двое другие исследователей этой сферы — Джефф Хинтон и Ян ЛеКун — теперь работают в Google и Facebook. Бенджио посвятил свою жизнь науке, которая далека от производства. Он помог составить список лучших ученых в этой области, так что несколько следующих недель Брокман при помощи нескольких человек старался найти всех, кого только смог.

Многие одобрили их идею, но они опасались выйти за привычные рамки. Брокман решил сломать стереотипы и пригласил десяток наиболее интересных ему в проекте персон на ужин, который провел на винодельне в долине Напа. Даже сама поездка туда способствовала развитию проекта. “Людям нужно добраться туда, они собираются вместе и общаются между собой по пути. Это был один из тех дней, когда победила химия”, вспоминает Брокман.


В конце дня Брокман пригласил всех 10 специалистов присоединиться к проекту и дал им три недели на размышления. И 9 из 10 человек к моменту окончания срока вошли в проект и остались в нем, несмотря на внушительные предложения со стороны гигантов Силиконовой долины.

«Они сделали все для того, чтобы я остался, это было непростым решением для меня», рассказывает Суцкевер о своем бывшем работодателе Google. «В итоге я решил присоединиться к OpenAI, частично это связано с очень мощной командой, ну а главную роль сыграла цель этого проекта».

Исследования в области глубинного обучения начались в ученых кругах. И только в последнее время гиганты вроде Google, Facebook и Microsoft начали работы в этой области, после того как появились очень мощные компьютеры, сделавшие нейронные сети реальностью. Такие ученые как Хинтон и ЛеКун покинули ученые круги в пользу Google и Facebook благодаря огромным ресурсам, которыми обладают эти компании. Но они продолжают общаться и обмениваться данными с другими учеными. Более того, как объясняет ЛеКун, для таких исследований нужен обмен идеями. Он объясняет это тем, что когда работы проходят в тайне, то отставание неизбежно.

В итоге крупные компании делятся результатами своих исследований в области искусственного интеллекта. Это серьёзные изменения, особенно для Google, которая долго время скрывала все секреты в области технологий в самом сердце онлайн-империи. Недавно Google открыла доступ к своему софту, который управляет нейронными сетями. Но она все равно остаётся на финишной прямой в гонке к будущему. Брокман, Альтман и Маск хотят отстаивать идею того, что важна открытость в таких исследованиях. Они отмечают, что не хотят видеть одну или две корпорации, которые контролируют все будущее искусственного интеллекта.

Границы откровенности

Все это хорошо звучит на словах. Но не смотря на идеализм OpenAI исследователи могут пойти на те же компромиссы, что и на своих предыдущих работах. У откровенности есть свои пределы. Найти долгосрочную перспективу искусственного интеллекта — отнюдь не единственная цель, ведь это не благотворительность. Компании Маска могли оказать стартапу огромную помощь, как и компании, которые поддерживал Y Combinator Альтмана. Как сказал ЛеКун, это некоммерческий проект, но он очень плотно связан с Y Combinator. И тем, кто там работает, платят столько же, как и занятым в работе индустрии.

По словам Брокмана астрономических зарплат как в Facebook или Google в лаборатории не платят. Но он говорит, что там хотят платить достойно и предлагают компенсацию в виде пакета акций Y Combinator, а в будущем и Space X (которая в отличие от Tesla пока что является частной компанией).


Проводить все исследования в открытую — не лучший способ ведения дел. Вы хотите обдумать идею, увидеть к чему она ведет, а потом уже опубликовать это», говорит Брокман. Мы будем поддерживать open source разработки. Но кроме того, у нас остаются и те данные, которыми мы пока не готовы делиться.

И Суцкевер, и Брокман также добавили, что OpenAI может зайти так далеко, что запатентует свои работы. «Мы не планируем ничего патентовать в ближайшее время, но мы готовы изменить нашу позицию в долгосрочном периоде, если увидим, что это будет лучше для всего мира», сообщил Брокман. Например, как он заявил, OpenAI может получить патент в соответствии с преимущественным правом. Это поможет защитить свои разработки от получения на них патентов другими компаниями.

По мнению некоторых, получение патента означает получение прибыли в будущем, ну или по крайней мере отсутствие желания быть полностью открытыми, о чем так говорят основатели OpenAI. «Это основы патентной системы, поэтому я задумываюсь, чего же они хотят на самом деле», говорит Орен Этциони, исполнительный директор Института искусственного интеллекта им. Аллена.

Проблемы сверхразума

Когда Маск и Альтман объявили о создании OpenAI, они заодно представили видение того, как обезопасить себя от угрозы враждебного искусственного сверхразума. Конечно, он может появиться из технологий того же OpenAI. Но они настаивают на том, что люди смогут справиться с любой угрозой — ведь про технологию будут знать все.

Но на это повелись не все. Ник Бостром, философ из Оксфорда, который как и Маск, предупреждает об опасности искусственного интеллекта. Он отмечает, что если делиться результатами исследований без ограничений, ими могут воспользоваться с недобрыми намерениями ещё до того, как выяснится, что они безопасны. Он объясняет это так: «Если у вас есть кнопка, которая может навредить всему миру, то не надо давать допуск к ней каждому». С другой стороны, если OpenAI будет хранить в тайне свои исследования, то чем это отличается от Google или Facebook?


Ник Бостром считает, что некоммерческий статус OpenAI может изменить сложившиеся вещи, пусть это и необязательно. Настоящая сила проекта в том, что он сможет проверить Google и Facebook. OpenAI снижает вероятность того, что сверхразум может быть монополизирован, можно убрать одну из причин, по которой у некоей группы будет лучший искусственный интеллект по сравнению с остальными.

Философ полагает, что главный эффект от деятельности OpenAI состоит в том, заметно ускоряется развитие искусственного интеллекта, по крайней мере, в краткосрочной перспективе. Также это может ускорить его и в долгосрочной перспективе, если там будут поддерживать высокий уровень открытости.

В духе исследовательской лаборатории

В начале январе девять из ученых команды Брокмана встретились у него дома в Сан-Франциско. Проект только стартовал, так что у них даже не было доски для записей. В тот же день они закупили все необходимое и принялись за работу.

По словам Брокмана, OpenAI начнет исследования путем проб и ошибок, когда машины учатся выполнять задания, повторяя их снова и снова, пытаясь получить лучшие результаты. Но есть и другая не менее важная цель — неконтролируемое обучение, когда машины учатся сами без участия человека.

Сегодня изучение строится на тщательно отобранных данных. Когда хочешь научить нейронную сеть распознавать фотографии котиков, нужны примеры с котиками, причем их нужно пометить, что там именно котики, а не что-то другое. Для такого обучения нужны люди, которые помечают картинки. Но цель OpenAI — научиться без таких помеченных данных. Брокман верит, что системы все найдут в интернете, этим они будут похожи на людей, которые раньше черпали информацию из книг, а теперь берут ее в Сети.

В OpenAI он видит современную Xerox PARC — успешную исследовательскую лабораторию из 70-х гг. Благодаря ее изысканиям мы получили графические интерфейсы у принтеров и объектно-ориентированное программирование, хотя в те годы это считалось фантастикой. Несмотря на то, что компания Xerox владела PARC, проект получал помощь из других организаций, в частности, Apple.


В этом месяце, надеясь ускорить процесс, Брокман привлек к работе над проектом еще несколько специалистов, включая Иэна Гудфеллоу, бывшего старшего исследователя из команды Google Brain. У PARC была особенность — там собрали умных людей вместе и разрешили им делать то, что они хотят. Нужна одна идея, но без жесткого управления.

Отказ от управления — смысл жизни open-source проектов. Если достаточное количество людей как следует постарается ради общей цели, конечный результат превзойдет все то, что пытались сохранить в секрете. Но если искусственный интеллект станет таким мощным, как это прогнозируют, то изменения в этом уравнении неизбежны. Нам нужно убедиться в том, что новые искусственные интеллекты будут в первую очередь верить в те же идеалы, что и создали их самих. Маск, Альтман и Брокман верят в мудрость народа. Но если они правы, однажды эта толпа будет состоять не только из людей.

Илон Маск, известный бизнесмен-миллионер, на встрече Национальной ассоциации губернаторов (США) неожиданно назвал искусственный интеллект (далее - И.И.) главной угрозой для человечества.

"Искусственный интеллект - тот редкий случай, когда нам нужно быть активным в регулировании, а не реагировать, - заявил миллионер, - Потому что к тому времени, когда мы будем реагировать, станет уже слишком поздно". После этого Маск призвал законодателей серьезно подумать над вопросом.

Конечно, роботы - это уже не сказка в духе "Мира Дикого Запада", а реальность. Последние успешные эксперименты по автоматизации процессов уже привели к тому, что люди лишаются рабочих мест, а многие профессии отпадают за ненадобностью. Даже если и не произойдет "бунта машин", через несколько десятилетий может наступить момент, когда человек окажется не у дел.

Среди новых опасностей, считает Маск, участие И.И. в информационных войнах, подделка учетных записей и манипуляция информацией.

Впрочем, из уст бизнесмена, представляющего крупнейшие корпорации, такое заявление, пожалуй, выглядит несколько подозрительно. С чем может быть связано заявление Маска и насколько И.И. является угрозой для человечества, Царьграду объяснили эксперты в сфере IT.

Леонид Делицын: Маск просто может получить из этого выгоду

Аналитик холдинга "Финам", эксперт по IT Леонид Делицын пояснил, во всех случаях, когда в дело вмешиваются законодатели и начинают определять круг допустимых активностей, чаще всего выигрывают крупные корпорации. "Потому что им легче договориться с законодателями о степени вмешательства в эту сферу. Они могут пролоббировать свои интересы" , - отметил эксперт.

Маск, безусловно, один из самых успешных лоббистов в Соединенных Штатах, добавил Делицын. "Насколько я знаю, выражалась озабоченность проникновением китайского капитала в американские фирмы, которые занимаются разработкой в области искусственного интеллекта. И озабоченность, в частности, тем, что им уже трудно помешать получать доступ к любым разработкам и достижениям в этой сфере. Соответственно, потенциально это обозначает, что Китай может укреплять свою армию и силовые структуры за счет передовых разработок", - предположил эксперт.

Но скорее всего Китай проникает не в такие корпорации, как у Илона Маска, а в компании поменьше. Поэтому можно предположить, что если такие компании столкнутся с законодательными ограничениями и барьерами, им придется согласовывать все детали. А это станет некоторым барьером на пути доступа китайских силовиков к достижениям в Штатах, объяснил Делицын.

"В таком случае позиция Маска становится логичной - его корпорации, Google, Apple и другие монстры, извлекут некоторую выгоду из сотрудничества с государством. Может быть, будут какие-то заказы, в это время мелкие конкуренты будут приторможены" , - сказал эксперт.

Роботы против людей: как выжить?

Комментируя саму проблему робота и человека, Делицын напомнил, что прецеденты по борьбе с развитием технологий были - например, движение луддитов, у которых станки забрали рабочие места.

"Безусловно, мы видим, какую революцию сейчас испытывает рынок такси, как у них падают цены. Потому что в этот мир пришла автоматизация заказов и, в общем-то, система становится все более оптимизированной. Таксистов вынуждают брать очень мелкие заказы, которые они, может быть, не брали бы в обычной ситуации, покрывая их за счет цен, и т.д."

В перспективе из-за роботизации действительно могут исчезнуть некоторые профессии. Это коснется сфер, где используется человеческий интеллект или низкая квалификация. Речь идет, например, как об аналитиках и журналистах, так и о таксистах.

"Быстро будут автоматизироваться сферы, связанные с обработкой больших объемов информации, особенно с рутинной обработкой больших объемов информации", - пояснил Делицын, напомнив о судьбе бухгалтеров. "Поговаривают даже о том, что благодаря технологии block chain юридические специалисты окажутся под угрозой" .

"Сильнее пострадают те сферы, где человек выполняет рутинную работу, которую не очень приятно выполнять и которую, может быть, человек выполнять и не должен. То есть та, которая наиболее легко автоматизируется", - резюмировал эксперт.

Там же, где большую роль играет интуиция и опыт, автоматизация будет ниже.

Фото: www.globallookpress.com

Если есть потребление - значит, это кому-нибудь нужно…

Впрочем, кому-то же надо потреблять товары - а это стимул придумать систему, в которой для человека останется место.

"Найдется ли место человеку в этой системе - большой вопрос. Потому что, конечно, с одной стороны это интересы фирмы, которой нужно урезать расходы, с другой - сотрудник, который хочет сохранить свое рабочее место. Но надо понимать, что нужен еще и потребитель, который будет покупать товары и услуги. А чтобы потребитель покупал товары и услуги, он должен что-то зарабатывать", - пояснил эксперт.

Так что при желании выход найти можно. Либо создадут систему, как в странах, богатыми на нефть, где распределяются доходы от углеводорода. Возможно, придумают систему, при которой роботы будут работать, а мы будем получать пенсию лет с 25 лет, и на это мы сможем покупать товары и услуги.

"Понятно, что у робота нет интереса продать товар и услугу, потому что ему это не очень нужно. А вот у фирмы этот интерес есть, потому что у фирмы есть владелец, и сейчас это все еще человек, а не робот. Поэтому фирме и нужны потребители, а чтобы потребители могли потреблять, им нужны какие-то заработки".

Александр Токаренко: Раз люди между собой не могут договориться, то что говорить об искусственном интеллекте?

Как отметил в интервью Царьграду член "Ассоциации руководителей служб информационной безопасности", руководитель комитета Межрегиональной общественной организации" Александр Токаренко , И.И. может стать угрозой для людей. "Естественно, если люди между собой не могут договориться, то как они договорятся с интерактивным интеллектом?"

По прогнозам эксперта, реальной проблемой для людей это может стать где-то через столетие. На вопрос о том, как можно избежать катастрофы, Токаренко напомнил о трех законах робототехники Айзека Азимова.

"Если искусственные вычислительные системы будут придерживаться вот этих норм, изначально создаваться по ним, то, может, нам еще что-то светит".

При этом, по оценке эксперта, главная угроза - не в потере рабочих мест, и не в создании фейковых новостей (с этим и так прекрасно справляются сами люди) - а в создании автоматизированного оружия . Такие системы уже есть - и не дай Бог в них появится интеллект. Вот тогда у человечества возникнут огромные проблемы.

Фото: www.globallookpress.com

Игорь Ашманов: главной угрозой человечества являются такие, как Маск

В свою очередь, директор компании "Ашманов и партнеры" Игорь Ашманов не согласился с тем, что заявление Илона Маска нужно воспринимать серьезно. По его мнению, это скорее жулик, который спекулирует на горячих темах.

"Это бредовые идеи и апокалиптические прогнозы о том, что мы все погибнем и все пропадем. Они, в общей сложности, обычно нужны для получения медийного покрытия", - считает эксперт.

"На мой взгляд, главной угрозой человечества являются такие, как Маск. То есть, безответственные жулики, которые пытаются нам втюхать цифровое общество. А для нас они особенно опасны в связи с тем, что НАСА изучает цифровую колонизацию. Он, конечно, не все делает сам - кто-то передает ему технологии НАСА, вносит деньги, повышает оценку его компании".

Люди - самый опасный вид на этой планете

В целом, по мнению Ашманова, И.И. как злая угроза - довольно раздутая в фильмах тема. "На самом деле, гораздо хуже интеллект, в которого волю заложили люди. Например, автоматические дроны, при помощи которых американцы в пяти-семи странах охотятся на людей".

Уже сейчас И.И., встроенный в этот дрон, позволяет ему лучше распознавать цели, но пока не принимать решения. Но это решение не за горами.

"В итоге это будет не искусственный интеллект, который захватил власть, а боевая собака, которую натравливают на людей вполне конкретные люди" , - полагает Ашманов.

Поэтому основную опасность для нас, как всегда, представляют люди, а не искусственный интеллект, резюмировал эксперт. "Люди - самый опасный вид на этой планете, склонный к непрерывному кровопролитию. Самым опасным является не искусственный интеллект, а стремление некоторых людей передать ему право принимать решения. Это разные вещи".

Многие люди с энтузиазмом приветствуют искусственный интеллект, видя в этом значительный шаг развития цивилизации. Но многие специалисты проблемы выражают обеспокоенность, когда вопрос касается искусственного интеллекта.

Илон Маск, основатель Tesla и SpaceX, не скрывает обеспокоенности, подозревая ИИ в угрозе человечеству в качестве конкурирующей цивилизации машинного происхождения.

Бизнесмен не выступает в роли предсказателя, но считает плохой идеей экстремальные игры с вложением в вычислительные машины развивающегося интеллекта. Это может вызвать критически опасные риски для человечества.

Возможно и существуют какие-то способы обезопаситься от вероятных проблем со стороны искусственного интеллекта, способного по мере развития перехватить контроль над нашей жизнью. Но пока у нас нет ничего существенного, кроме как «Трех законов робототехники» А. Азимова, что однако звучит слабым утешением (3 закона, Википедия).

Маск и другие сподвижники идеи призывают не отказаться от разработок в области ИИ. Они обращают внимание на первоначальную необходимость выработать методы защиты от вероятных угроз. Иначе мы можем в лице ИИ приобрести не помощника, но ужасно опасного и сильного противника.

ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ УГРОЗА ЧЕЛОВЕЧЕСТВУ.

В словах противников активного развития ИИ есть хорошая доля правды. И дело даже не в том, кто будет контролировать «завтра» потенциально цивилизованную технологию умных Машин.

Недавно , что уже ставит робота в начале формирования цивилизации машин. Но этого роботу Софии показалось недостаточным – теперь София говорит о равных правах с человеком, и хочет быть полноправным членом общества! Это очень любопытный и показательный прецедент, верно? Вот почему многие уверяют в необходимости большей осмотрительности к вопросам исследования в области искусственного интеллекта.

Часто можно услышать аргументы за развитие ИИ: искусственный интеллект — это будущее для всего человечества. Действительно, искусственный интеллект предлагает гигантские возможности, но также несет и угрозы, которые трудно спрогнозировать.

Перспективная технология как полагают сможет помочь продвинуться в медицинских и космических исследованиях, откроет новые возможности в других отраслях жизнедеятельности. Однако, также ИИ может быть решающим фактором в плане возможной войны. Не секрет, что уже сейчас вычислительные машины (без интеллекта) стоят на вооружении стран.

Теперь представьте, машины научились ходить, а главное думать и принимать решения … как часто у вас «зависал» компьютер или смартфон? Хорошо, что эти устройства не имеют оружия, верно?

Множество хороших возможностей можно ожидать от искусственного интеллекта, но никто не даст гарантии, что все пойдет по отвратительному сценарию, который приведет нас к Третьей мировой войне. Это сегодня мы не видим идущих по улицам роботов, поэтому вопрос рисков от ИИ выглядит эфемерным. В то же время, робот София изучает наше общество, говоря о равных правах с людьми.

Билл Гейтс и , также неоднократно заявляли о , связанных с созданием искусственного интеллекта. Умная машина способная принимать решения однажды может вырваться из-под контроля человека, и натворить ужасные вещи.

Разумеется, речь не идет об известном сюжете киноленты «Терминатор», скорее уводящим от реальной основы проблем ИИ. Здесь более подходит фильм «Я, робот», где ВИКИ (искусственный машинный интеллект) смог модифицировать понимание «трех законов», и взять людей под контроль.

К счастью в фильме нашелся главный герой, уничтоживший виртуальный интеллект, возжелавший «осчастливить человеческий лагерь».

Искусственный интеллект является самой большой угрозой цивилизации, считает основатель SpaceX и Tesla Илон Маск. С соответствующим заявлением предприниматель выступил перед Национальной ассоциацией губернаторов США. По мнению Илона Маска, правительству необходимо взять под контроль развитие технологий искусственного интеллекта.

«У меня есть доступ к самым передовым разработкам в сфере искусственного интеллекта, и я считаю, что людей должно беспокоить развитие подобных технологий»,- цитирует Fortune основателя SpaceX. Журнал отмечает, что Илон Маск уже давно заявлял о связанных с искусственным интеллектом рисках. Однако в своем выступлении перед американскими губернаторами бизнесмен не только показал особую жесткость своей позиции, но и «решительно призвал» власти вмешаться в ситуацию.

«Проблема искусственного интеллекта - тот редкий случай, когда нам надо проявить активность в регулировании вопроса, иначе может быть слишком поздно. Искусственный интеллект является фундаментальным риском для существования человеческой цивилизации. ДТП, авиакатастрофы, некачественные лекарства или плохая пища таковыми не являются»,- убежден Илон Маск.

По данным Fortune, это «сильное заявление» для человека, который ассоциируется с так называемым киберлибертарианством - идеологией, которая выступает против попыток государства регулировать работу компаний. Одним из последователей идеологии является Питер Тиль, который совместно с Илоном Маском создал платежную систему PayPal, напоминает издание.

Господин Маск в ходе выступления, однако, настаивал на том, что государственное регулирование имеет «жизненно важное значение». По словам предпринимателя, на компании оказывается давление для развития технологий искусственного интеллекта. «В этой ситуации и нужен регулятор, который мог бы сказать: "Эй, ребята, вам всем нужно сделать паузу и убедиться, что все это безопасно". Нужно, чтобы это объяснили всем, кто участвует в создании искусственного интеллекта. Иначе акционеры начнут жаловаться: "Почему разработки искусственного интеллекта не продвигаются так же быстро, как у наших конкурентов?"» - сказал Илон Маск.

Он также выразил обеспокоенность вероятностью социальной дестабилизации и повышения уровня безработицы, к которым приведет тот факт, что роботы «начнут выполнять всю работу». Но больше всего предприниматель озабочен тем вредом, который искусственный интеллект может нанести в интернете. «(Он) может начать войну, публикуя фальшивые новости и подделывая учетные записи электронной почты и пресс-релизы, а также манипулируя информацией»,- убежден господин Маск.

В качестве примера предприниматель привел гипотетическую ситуацию, в которой искусственный интеллект для увеличения объемов инвестиций в оборонную промышленность может использовать хакерские атаки и распространение дезинформации, что способно спровоцировать войну. Основатель SpaceX подчеркнул, что выступает против чрезмерного регулирования. «Но нам нужно решить эту проблему, и быстро»,- убежден Илон Маск. В ходе своего выступления он также говорил о будущем беспилотных автомобилей и путешествий в космос, добавляет Fortune.