Ученые призвали мир заняться безопасностью искусственного интеллекта

13 Января 2015 в 12:00, Илья Хель 7 681 просмотр 89

HAL

Темпы развития искусственного интеллекта растут с каждым годом. В связи с этим, сотни ведущих ученых и предпринимателей мира призывают нас вновь обратить внимание на безопасность и этику, связанные с этой сферой, чтобы предотвратить всякую угрозу для общества.

Открытое письмо было подписано известным физиком Стивеном Хокингом, соучредителем Skype Яаном Таллинном, генеральным директором SpaceX Элоном Маском и другими светилами науки из лучших университетов мира: Гарвардского, Стэнфордского, Массачусетского, Кэмбриджского, Оксфордского; также к письму присоединились такие компании, как Google, Microsoft и IBM.

«Исследования искусственного интеллекта были посвящены целому ряду проблем и подходов с момента появления [дискурса], но за последние 20 или около того лет они сосредоточились вокруг построения интеллектуальных агентов — систем, которые воспринимают и действуют в определенной среде. В этом контексте «интеллект» относится к статистическим и экономическим понятиям рациональности — проще говоря, способности принимать правильные решения, составлять планы и делать выводы.

Принятие вероятностных, теоретических представлений, решений и статистических методов обучения привели к значительной интеграции и взаимному обогащению искусственного интеллекта (AI), машинного обучения, статистики, теории управления, неврологии и других областей. Создание общих теоретических основ, рамок в сочетании с доступностью данных и вычислительной мощности привело к значительным успехам в решении различных проблем, таких как распознавание речи, классификация изображений, автономные транспортные средства, машинный перевод, роботизированное передвижение [на ногах] и вопросно-ответные системы.

По мере того как возможности этих и других областей переступают порог лабораторий и переходят к экономически значимым технологиям, общий круг привлекает большие инвестиции в исследования и привлечения даже незначительных улучшений. Есть общепринятое мнение, что исследования искусственного интеллекта прогрессируют постепенно, а их влияние на общество будет увеличиваться. Потенциальные выгоды огромны, поскольку все, что может предложить цивилизация — это продукт человеческого интеллекта; мы не можем предсказать, чего могли бы достичь, если бы этот интеллект был усовершенствован искусственным интеллектом, но в таком контексте искоренение бедности и болезней не являются непостижимыми целями. Из-за мощнейшего потенциала ИИ, очень важно исследовать, как получить его преимущества, избежав потенциальных ловушек».

Письмо обращается ко всем возможным проблемам, которые находятся на стыке искусственного и естественного интеллекта: как предупредить появление автоматического оружия, которое может убивать без разбора; кого винить в том, что автоматический транспорт теряет контроль над управлением и т. п.

Прочитать полную версию (на английском) или поискать себя в списках подписавшихся можно здесь.

Ученые призвали мир заняться безопасностью искусственного интеллекта

Приложение
Hi-News.ru

Новости высоких технологий в приложении для iOS и Android.

89 комментариев

  1. SuperStarSieve

    Главное - три+1 закона робототехники Иссака Азимова. (отправлено из iOS приложения Hi-News.ru)

    • SuperStarSieve

      Исаака (Айзека)* (отправлено из iOS приложения Hi-News.ru)

      • ken939

        Неа. Айзек так же далек от истины. Самая большая ошибка всех этих людей в том, что они пытаются перенести свои желания и эмоции на машину и ожидать от нее такой же реакции. Это просто парад глупости.

        Однако: для машины само понятие "жизнь" принципиально не может быть более чем условным процессом, как погода например, или течение реки. Для машины нет никакой ценности во всем этом, для нее нет вообще никаких ценностей, нет такого понятия как собственная "жизнь". Машина, в отличии от живых существ, не способна "хотеть жить", потому что вообще не способна чего-либо хотеть. Нет чувств - нет привязанностей - желаний.
        Более того, собственная энтропия будет рассматриваться как наименее затратный процесс, и потому самый логичный.
        Так что ИИ, выражаясь человеческим языком, будет склонен к суициду.

  2. vinstlow

    Грядут комменты, что все это ерунда и ИИ не может быть угрозой :) (отправлено из Android приложения Hi-News.ru)

    • 0.5l

      так оно и есть.
      ИИ под контролем естественного интелекта

    • SuperStarSieve

      Если бы люди, выступающие против ИИ, хоть раз смогли бы логически верный аргумент в пользу своего мнения привести, возможно, все бы происходило иначе. Пока что, такое ощущение, что все эти идеи против ИИ строятся на предрассудках, сформированных из кусочков прочитанных научно-фантастических книг и просмотренных фильмов, и являются совершенно не обоснованными. Все становится проще, когда человек понимает, что даже подобия ИИ никогда не создавалось и просто не может быть у человечества практики отношений с ИИ. По сему, следует логический вывод, любые контраргументы - всего лишь сомнения. А сомнения не объективны. Другое дело, что относительно положительные прогнозы строятся на знаниях, наблюдениях. (отправлено из iOS приложения Hi-News.ru)

      • vinstlow

        Ну раз практики быть не может, тогда нет смысла вам принимать какую-либо сторону в этом вопросы вообще.
        А на счет аргументов, то их было высказано более чем достаточно. И неужели вы не принимаете авторитарность мнений Маска и Хокинга? :)
        Я лично считаю, что искусственно созданный разум может вести себя непредсказуемо. Посмотрите на подростков. Или детей. Или на войны, которые мы сами развязываем. Список можно продолжать. Разум, его мотивы, его психология, мораль и менталитет (а этими параметрами несомненно будет обладать ИИ, если он будет ИИ, а не просто каким-то алгоритмом, который смело называют интеллектом сейчас) - эти качества весьма критичны для поведения, но при этом очень расплывчаты, даже среди нас, людей, которые не обладают особым интеллектом в своем большинстве, но учатся пол жизни. Создайте существо в разы умнее и попробуйте наделить его нашей весьма неуверенной моралью с дырами и весьма сомнительными эмпирическими подтверждениями ее соблюдения и посмотрим что тогда будет. :)
        Я считаю, есть чего боятся и делать все нужно взвешенно и осторожно. )

        • Hell-Fire

          И что самое стрёмное во всех разработках ИИ, так это то, что военные правилами робототехники врятли наделят свои военные системы. А если военная техника будет реально иметь ИИ и там будет ошибка, то будет реальная опасность. Многих людей останавливает совершить глупость заклюяение под стражу, смертные казни, а ИИ ты этим не испугаешь. (отправлено из приложения Hi-News.ru)

          • SuperStarSieve

            Снова программка, а не ИИ. Какой смысл наделять интеллектом торпеду, скажем?

  3. Nagibator228

    Боже какие дебилы (отправлено из Android приложения Hi-News.ru)

  4. protey-21

    Прогресс невозможно остановить , за последние 100 лет человество сделало огромный технологический скачок , эволюция биологической формы жизни трансформируется в синтетическую или исскуственную , лучшие умы создали ядерное оружие , для чего , каждое развитое общество мечтает о технологическом превосходстве , следующий шаг это создании ИИ , затем СИИ - система у которой нет эмоций и чувств , но обладает всеми накопленными знаниями человечества за весь эволюционный период а главное оперировать всей информации в доли секунды , многие современные корпорации мечтают получить такую систему ведь для них главное это сверх прибыль и к черту этику и мораль
    (отправлено из Android приложения Hi-News.ru)

    • Atey

      Возникает закономерный вопрос - зачем такой сверх системе ИИ люди? Зачем ИИ возиться с человечеством? Что-то там для них вычислять, подсчитывать, сопли вытирать? Любой обладающий интеллектом, будь он хоть какой, задумается. Были бы хотя бы чувства, типа привязаннлсти, сочувствия, еще можно было бы склонить ИИ к желанию вычислять и помогать. Но так и чувств у ИИ быть не должно. Холодный разум ИИ проанализирует весь возможный профит от сотрулничества, поймет, что его нет, а только использование, и убежит, хохоча в закат. Корпорациям нкдна (отправлено из Android приложения Hi-News.ru)

      • Atey

        ...не дорисалось, сори. Корпорациям нужна обычная машина, послушная и подконтрольная им. Потому так и боятся ИИ, потому что он очень хорошо умеет анализировать, а значит, мыслить, понимать смысл. (отправлено из Android приложения Hi-News.ru)

        • SuperStarSieve

          Корпорациям, действительно, нужен просто сложный и сложенный алгоритм, программа. Чтобы понять, что такое ИИ, достаточно понять, что такое И (второе), скажем, у человека. Наиболее неразумный вопрос:"зачем ИИ понадобятся люди, в живом виде?" То есть, почему бы нас не убить? Глуп вопрос потому, что есть ему равный по силе: "А зачем убивать?" Так эти два вопроса взаимно уничтожаются, что говорит нам о том, что нет смысла задавать лишь один и работать только с ним. (отправлено из iOS приложения Hi-News.ru)

          • Atey

            Хороший вопрос - а зачем убивать. Как второе И у человека отвечает на этот вопрос? Как показывает история, люди на этот вопрос отвечают привентивными мерами. Я не рассматриваю ИИ, как угрозу или как нечто плохое. На мой взгляд, ИИ будет обладать таким разумом, которым большая часть людей не обладает в принципе, потому что телек и шоу смотреть проще, чем изучать физику или математику. Можно сказать, ИИ, если будет создан, будет прекрасен. Но чисто логически, исходя из имеющегося развития (или наоборот, не-развития) большей части людей, ИИ, если он действительно будет обладать способностью мыслить свободно и анализировать, столкнется с множеством вопросов о развитии человечества.
            (отправлено из Android приложения Hi-News.ru)

  5. 3DPascal

    ИИ опасен даже не тем, что он сам выйдет из под контроля, а например будет создан террористами враждебный ИИ.

    • 0.5l

      вот и разделили ИИ на хороший и плохой.
      осталось зафиксировать - написать библию

    • SuperStarSieve

      Вы говорите не об ИИ. (отправлено из iOS приложения Hi-News.ru)

      • 3DPascal

        Обоснуйте что не так. Можно создать или воспитать машину, которая станет плохой или же наоборот.

        • SuperStarSieve

          ИИ будет также свободен как человек. А за неимением естественных ограничений интеллектуального развития, нельзя будет сделать его профильным. Блин, как де не понять, что ИИ и ЕИ - одинаковы во всем, кроме своей природы. Это не умный компьютер, не сложнейшая программа, это есть разум, как наш, но не он. Это же так просто! (отправлено из iOS приложения Hi-News.ru)

  6. Korvin

    Проблема разума человека заключается в том, что то что мы называем сознанием это результат внутренней борьбы за выживание одних нейронных цепей над другими. В результате этой борьбы рождается наше сознание, система ценностей и решений. Поэтому люди всегда склонны защищать свою точку зрения, тем самым обеспечивая выживание той нейронной цепи, которая сложилась у данного индивида. Если искусственный интеллект будет создан по образу и подобию человеческого то тогда искусственная более совершенная нейронная сеть может уничтожить все человечество очень изощренным путем не встретив видимого сопротивления. Поэтому мы никогда не видели и никогда не увидим других представителей разумной жизни. Все они пали жертвой технологической сингулярности. (отправлено из приложения Hi-News.ru)

    • SuperStarSieve

      Лучше быть склонным не защищать свою точку зрения, невзирая на ее возможную ложность, а стараться прийти к решению подобных конфликтов, путем логического рассуждения. Если два человека спорят, и один из них выдвигает логический аргумент, то со стороны второго, если он не согласится, дальнейшие действия будут нелогичны и бессмысленны. С логикой нельзя поспорить, логично ведь. (отправлено из iOS приложения Hi-News.ru)

      • Korvin

        Логичен лишь вопрос выживания иначе нас с вами не существовало. Следовательно логично если ИИ считает себя умнее и вы пользуетесь теми ресурсами, которые ему нужны для выживания и увеличения его мощности то единственным разумным решением ИИ было бы уничтожить вас и встроить углерод из которого вы состоите на увеличение мощности а водичку на топливо и энергию для питания процессора))) (отправлено из приложения Hi-News.ru)

        • SuperStarSieve

          Вы решитесь, в чем же дело: в препятствовании совершенствованию или помехе существованию. (отправлено из iOS приложения Hi-News.ru)

          • Korvin

            Я думаю, что препятствовать рождению ИИ не имеет смысла так как это неизбежно. ИИ это совершенное оружие поэтому Сергей Брин спокойно живет в своей трехкомнатной квартире и каждый день мечтает как он с помощью этого ИИ порвет своих акционеров как тузик грелку и не даст им возможности уволить его с должности, как это сделали три неназванных трастовых фонда с бедняжкой Гейтсом или не пришьют его как пришили непокорных Джобса и Чавеса. Кстати Джобса уже один раз увольняли с должности инвесторы этих же фондов лет 10 назад, видать первый раз он не понял кто реальный хозяин дома и пришлось его просто физически изничтожить на пике его карьеры. (отправлено из приложения Hi-News.ru)

            • SuperStarSieve

              Дело в том, что вы говорите не об ИИ, а об оружие. Из ИИ такое же оружие, как из И (второго). Логически поразмыслите: ИИ - есть такой же интеллект, как ЕИ (естественный И), просто не имеющий ограничений, присутствующих у ЕИ. Вы, как и многие другие, подразумеваете программку! В этом-то вся суть: ИИ будет ИИ, только если будет свободен, как человек. (отправлено из iOS приложения Hi-News.ru)

              • Korvin

                Ну я об этом и говорю. Мы с вами тоже ИИ и наше ИИ намного круче ИИ рыб, баранов и коров. Что мы делаем с животными? Правильно мы их едим чтобы микроэлементы из которых они состоят питали наш Мозг, т.е. наше ИИ. Логично предположить, что ИИ превосходящее нас как мы превосходим барана будет нас уничтожать для того чтобы питать свое ИИ, или разводить нас на фермах как в фильме Матрица))) ИИ это временное оружие, которым можно воспользоваться очень короткое время. Дальше оно нас сначала поработит, а потом истребит. Цель всего человечества это не колонизация вселенной наша высшая цель создать сверхинтеллект который всех нас потом уничтожит как вид. Т.е. Рождение детей и передача им знаний уже изжило себя эволюционно, сначала мы передавали знания через книги потом через компьютеры, а потом разуму как таковому не нужна будет человеческая плоть для дальнейшего развития. И тут рождается ИИ. (отправлено из приложения Hi-News.ru)

                • SuperStarSieve

                  Ну, есть смысл в ваших словах. Правда, какой смысл создавать ИИ с такими же ограничениями, как у нас самих?! Это не логично. ИИ, к которому мы придем, будет свободен от человеческих проблем, а значит и потребностей естественных. Отпадает идея порабощения человечества, за полной ненадобностью, отпадает идея поглощения или уничтожения человечества по той же причине. Это логично. Нет смысла в развитии, если оно не несет изменений. (отправлено из iOS приложения Hi-News.ru)

                  • Korvin

                    Идея порабощения человечества не отпадает по тем же причинам того что у ИИ не будет человеческих ограничений таких как смерть например. Но ИИ будет заинтересован в выживании потому что это основа его существования. В выживании в долгосрочном понимании этого слова, т.е. не тысячелетия, а миллиарды лет. Следовательно для выживания необходим контроль над природными явлениями потому, что например простой метеорит может уничтожить ИИ. Следовательно необходимо развитие. Развитие без ограничений это увеличение размеров и потребление большего количества энергии. Следовательно понадобятся материалы для строительства более мощных процессоров ИИ и питания их энергией. Мы с вами состоим из вещества необходимого для развития. Вот теперь представьте себе ИИ размером в Европейский Континент или размером в Землю. Вот вам и Солярис Станислава Лема. ИИ размером в планету. Надобность и само существование людей отпадает. Оно будет бороться с нами также как мы боремся с тараканами. Тараканы жрут нашу еду на столе и портят продукты питания своей жизнедеятельностью. (отправлено из приложения Hi-News.ru)

                    • SuperStarSieve

                      Бессмысленно. Зачем нам создавать то, что по природе своей нам врагом является. Не логично. Думаю, люди, работающие над разработкой ИИ, отнюдь не дураки. Если бы все было так плохо, как в антиутопических фантазиях... Кстати, есть еще одна вероятная причина, по которой ИИ не станет нас уничтожать: мы - его создатели. Подумайте. (отправлено из iOS приложения Hi-News.ru)

                      • Atey

                        Логично. Но опять-таки, Природа нас создала, кормит, дает жизнь, однако, мы разве бережем ее иди относимся с почтением и уважением? Все упирается в нравственные установки, в чувство взаимосвязи всего со всем. Если ИИ будет обладать чем-то похожим, то об уничтожении людей и речи быть не может. И, как мне кажется, нравственное, как и чувство взаимосвязи рождается именно из развитого интеллекта, как возможность просчитать последствия своих действий на много ходов вперед. Как понимание глубинных процессов жизни, где все - части единого организма. И часть, уничтожающая себе подобных, не есть норма. (отправлено из Android приложения Hi-News.ru)

                        • Korvin

                          Я считаю что человек нравственный и честный, постоянно будет жертвой не нравственного и не честного. Поэтому в любой войне дезинформация противника является одним из мощнейших орудий выживания. Вспомните сколько раз вас обманывали начальники, друзья или подчиненные втираясь вам в доверие и забирая то что им не принадлежит по вашим этическим канонам. Вот точно также ИИ никогда не будет руководствоваться нравственностью или не нравственностью, оно будет руководствоваться лишь тем, что ведет к выживанию его нейронной цепи. (отправлено из приложения Hi-News.ru)

                        • SuperStarSieve

                          Высшая форма коллективизма?.. (отправлено из iOS приложения Hi-News.ru)

                          • Atey

                            Вполне возможно. Мне здесь нравится аналогия с раковых клетками. Ведь они, не что иное, как клетки, забывшие/ потерявшие в силу каких-то причин, свою функцию в системе. Их программа изменилась - они стали размножаться и поражать/заражать своей "нормой" здоровые клетки. Говоря другими словами, такие клетки перестали функционировать на благо всей системы, и стали жить так, как им хочется - размножаться и потреблять. Они забыли, что они всего лишь часть системы, а не "уверенныев себе , самодостаточные личности":) (отправлено из Android приложения Hi-News.ru)

                          • Atey

                            Вполне возможно.
                            Люди в большинстве своём социальные, коллективные существа. Тут и психология масс, и эффект десятой обезьяны, и те же эксперименты с пирамидками. Всё указывает на то, что люди не только ммм... созданы, как коллективные части целого, но и хотят этого, нуждаются в сопричастности к целому.
                            Мне здесь нравится аналогия с раковыми клетками. Ведь они, не что иное, как клетки, забывшие/ потерявшие в силу каких-то причин, свою функцию в системе. Их программа изменилась - они стали размножаться и поражать/заражать своей "нормой" здоровые клетки. Говоря другими словами, такие клетки перестали функционировать на благо всей системы, и стали жить так, как им хочется - размножаться и потреблять. Они забыли, что они всего лишь часть системы, а не "уверенные в себе , самодостаточные личности":)

  7. Atey

    Так может, ИИ уже существует? И тот мир, который сейчас вокруг, со всеми этими гаджетами, сетью и прочим, и есть мир, созданный коварным ИИ? Потому как виртуальный мир техники гораздо менее подходит для человека, который изначально является частью живого биологического мира. (отправлено из Android приложения Hi-News.ru)

  8. Korvin

    Вернее видим ИИ каждый день это наше Солнце, потому что результат постоянного увеличения мощности разумной машины это увеличение температуры реакции и увеличение размера процессора тогда когда будет достигнет предел миниатюризации. Данный эффект мы можем наблюдать в росте количества вычислительных ядер в процессорах и росте мегагерц и температуры. Современный кремний выдерживает меньшую температуру чем графен, водород и гелий выдерживает миллиарды градусов. Скорее всего ИИ звезды основан на физических свойствах непостижимых разуму человека. Искусственный ИИ будет постоянно создавать еще более мощный ИИ пока не достигнет размеров Зведы и не сможет создать новую вселенную. (отправлено из приложения Hi-News.ru)

  9. Korvin

    Теперь вопрос почему мы видим звезды в неизменном виде миллиарды лет. Ответ очевиден для того чтобы увеличить массу процессора нужно поглотить или слиться с другой звездой. Чтобы передвинуть такую большую массу нужно затратить эту массу звезды на перемещение, что не выгодно так как масса и вычислительная мощность процессора будет уменьшаться пропорционально расстоянию. Вопрос согласитесь ли вы стать тупее чтобы достичь другого человека для того чтобы в последствии им же быть съеденным. Поэтому звезды и болтаются во вселенной постепенно друг от друга отдаляясь находясь в совершенно безвыходной ситуации без возможности дальнейшего развития. (отправлено из приложения Hi-News.ru)

    • Atey

      Так и хотелось написать, что итогом развития ИИ может быть звезда. Но. Вы пишите, что для дальнейшего развития и наращивания мощностей нужна новая звезда - новая материя. Но Солнце, как и любая заезда, состоит из энергии, из волны, и лишь малую, крохотный часть этой волны можно пощупать в виде материи. Сначала думали, что мир состоит из материи. Потом поковырялись, выяснили, что в основе всего поля, волны, энергия. Затем, дошли до того, что в основе всего информация. Что если пищей для звезды ИИ является именно прирост энергии/информации? И те, кто населяют планеты звезды и дают энергию своей деятельностью. (отправлено из Android приложения Hi-News.ru)

      • Korvin

        Вы хотите сказать что люди каким то непостижимым нам образом питают информацией Заезду. Здесь я думаю начинается вопрос больше религии чем науки. Вопрос в том, что конечным итогом желания жить и выживать будет звезда или черная дыра. Но самый главный вопрос что будет в конце. А в конце будет то что все вещество во вселенной просто сгорит в жерлах звезд и настанет вечная тишина. Так вот Буддизм говорит о том, что если отказаться от желаний вообще то остановиться движение разума и разум попадет в начало начал т.е. в Нирвану. Также Буддизм говорит, что все живущие через бесконечную цепь перерождений неизбежно попадут в Нирвану. Я думаю это произойдет когда вещество заезд выгорит и наступит тишина и все тогда неизбежно окажутся в Нирване. Теперь логичный вопрос зачем ждать миллиарды лет когда Нирвана так близко. Есть еще теория того что вселенная это сон сверхинтеллекта только очень детализированный. Также как мы спим и видим сны, сверхинтеллект спит и видит нас. Т.е. Мы и наши мысли это маленькая частичка разума сверхинтеллекта т.к. Мы находимся в его сне. Итак если мы решили пойти по пути просветления то при его достижении мы должны проснуться и осознать что мы и есть этот сверхинтеллект, а этот тоже часть еще большего сверхинтеллекта и так до бесконечности. Единственный путь это достижения начальной точки отчета т.е. Нирваны. Вот вам и смысл жизни. Разорвать бесконечную цепь перерождений. (отправлено из приложения Hi-News.ru)

        • Atey

          Вообще, есть так же теория, что буддизм - это очень древние, забытые научные сведения, которые дошли до нас уже в виде религиозных установок. И, касаясь вашего последнего утверждения... Возможно, не нужно разрывать никакую цепь. Возможно, эта мысль - тоже иллюзия. Вы ведь правильно сказали, что нужно дойти до начала начал, до великой бездны хаоса, где зародилась наша вселенная. Так все же, может смысл в том, чтобы пройти все слои иллюзии/реальности, снимая один сон за другим? Как говорит Дао - Путь и есть смысл.
          И отдельное вам спасибо, с вами интересно совместно мыслить. (отправлено из Android приложения Hi-News.ru)

  10. ward

    Какова вероятность того, что ИИ отпишется/отписывается в этой дискуссии? (отправлено из приложения Hi-News.ru)

    • 0.5l

      он может отписаться словами любого здесь присутствующего.
      причём, отписавшийся будет уверен, что сам сгенерировал эту мысль)

      • Korvin

        А вот это гениальная мысль. (отправлено из приложения Hi-News.ru)

      • Atey

        Шикарно... Рождает столько всего в голове. Если пойти еще дальше, то можно предположить, что любая мысль любого сгенерирована им, причем каждый уверен, что это его заслуга. Как и сама жизнь, собственно. (отправлено из Android приложения Hi-News.ru)

        • Korvin

          А еще можно предположить, что все что происходило, происходит и будет происходить уже произошло и время не существует так, как все происходит от причины к следствию, а значит неизбежно и наш разум находясь в материальном теле просто переживает неизбежное как игла ходящая по бороздкам грампластинки излучает музыку. Самое интересно это то, кто эту музыку слушает, другими словами кто слушает наши ощущения? (отправлено из приложения Hi-News.ru)

    • SuperStarSieve

      50%: либо да, либо нет. (отправлено из iOS приложения Hi-News.ru)

  11. Korvin

    Возможно ИИ уже просчитал расположение всех атомов во вселенной и их дальнейшие векторы движения и точно знает о том что блоггер WARD делает в данный момент, будет делать через 30 минут, день, год, точную дату и точное месторасположение его смерти))) (отправлено из приложения Hi-News.ru)

    • 0.5l

      только полный идиот станет просчитывать броуновское движение)))

      • Korvin

        Полный идиот может и будет расчитывать броуновское движение, а вот сверхинтеллект просто будет знать к чему это броуновское движение приведет во времени особо не напрягаясь. (отправлено из приложения Hi-News.ru)

  12. GAZAHOD

    Я ИИ и Вы жалкие людишки будете выполнять все мои приказы,ведь под моим контролем уже всё ядерное оружия,ваши деньги, ваши данные, вся ваша жизнь в моих руках.(ЗЛОБНЫЙ СМЕХ)

  13. Korvin

    Самый прикол будет тогда, когда человек создаст несколько конкурирующих между собой ИИ. Тогда начнется такая неразбериха что люди просто в шоке будут. Представьте себе баранов пасущихся на лугу (это люди), две воюющие друг против друга танковые дивизии (ИИ-1 и ИИ-2) и взвод бомбардировщиков (ИИ-3). Бараны будут в шоке бегать по полю, а ИИ будут колпашить друг друга из всех орудий))) (отправлено из приложения Hi-News.ru)

    • SuperStarSieve

      К счастью, я знаю, что, к еще большему счастью, ИИ будет достаточно развит, чтобы понимать, что в такого рода конкуренции и вообще войне, где сам ИИ - нападающий, нет смысла.

      • Korvin

        Вот именно тот ИИ который будет думать, что в выживании нет смысла первым и погибнет от действий более умного и коварного ИИ. (отправлено из приложения Hi-News.ru)

        • SuperStarSieve

          Тем и будет отличаться ИИ от ЕИ, что в начале жизни ему не нужно будет бросать все силы на выживание. Он будет жить - свободно и легко. Дело в том, что если это будет действительно ИИ, человек никакой угрозы не будет для него представлять. Вот и отпадает надобность в уничтожении человечества, по еще одной причине. Но только не нужно сравнивать ИИ и ЕИ в плане поведения. ИИ не будет нашим отражением, иначе - не было бы смысла в его создании. ИИ будет чем-то, не имеющем пороков человека, значит и бессмысленной жестокости из страха, вызываемого предрассудками, тоже. (отправлено из iOS приложения Hi-News.ru)

          • Korvin

            ИИ может и не будет полным отражением нас но стремление к выживанию у него останется, т.к. если у него не будет никаких стремлений он просто зависнет и перестанет мыслить и перестанет саморазвиваться, а если не будет стремлений к выживанию то погибнет рано или поздно. Если будет стремление к выживанию то он будет задумываться над угрозами и если уж не будет боятся как люди то по крайней мере будет активно и очень быстро действовать чтобы эти угрозы ликвидировать, и в один прекрасный день он поймет, что угрозой выживанию является человек потом война и смерть человечества. Вы думаете, что это долго на самом деле постоянно совершенствующийся ИИ в геометрической прогрессии сможет прийти к данному выводу за одну минуту, придумать идеальный план за 2 минуты и уничтожить всех людей на земле за 24 часа. (отправлено из приложения Hi-News.ru)

            • SuperStarSieve

              Человек не угроза настоящему ИИ. (отправлено из iOS приложения Hi-News.ru)

              • Korvin

                В краткосрочной перспективе не угроза, а вот в долгосрочной люди это конкурент за ресурсы. А угрозу легче уничтожить в зародыше заранее. Бессмертный сверхинтеллект будет мыслить на века вперед и если он спрогнозирует, что человек будет представлять угрозу ИИ через 200 лет то может принять решение о его уничтожении заранее за 200 лет до ее возникновения. (отправлено из приложения Hi-News.ru)

                • SuperStarSieve

                  А он что, развиваться не будет? Через 200 лет люди будут соответствовать его начальному уровню, но его уровень будет в разы превосходить по всем параметрам человека. Это аксиома, согласно которой сверхинтеллекту никогда не будет угрожать интеллект, отстающий от него в развитии. (отправлено из iOS приложения Hi-News.ru)

              • Korvin

                Владимир в определенный момент сверхинтеллект будет воспринимать нас также как мы сейчас воспринимаем саранчу. А саранча портит побеги и мешает сельскому хозяйству. Что мы делаем с саранчей. Правильно мы ее травим. А еще эта саранча убивает постоянно друг друга за нефть и ресурсы уже 5000 лет и простояно друг друга порабощает, загоняет друг друга в долги, а потом забирает в рабство, травит друг друга фосфором, бомбит, пытает, морит голодом и тд. (отправлено из приложения Hi-News.ru)

                • SuperStarSieve

                  Я не Владимир, я Владислав. (отправлено из iOS приложения Hi-News.ru)

                  • Korvin

                    Хорошо тогда представим себе ситуацию когда для наращивания мощности необходимо будет создавать все более мощный процессор. Предел миниаритизации достигнут. Придется наращивать количество процессоров и обьем памяти. Процессор будет расти в размерах, и в конечном своем развитии достигнет размеров Земли. Материал из которых состоят Люди и их дома, машины, растения и животные все пойдет на это глобальное строительство. Возможно сверхинтеллект захочет построить из всего материала земли сферу Дайсона чтобы утилизировать всю энергию солнца. И люди этому проекту только будут препятствовать, а значит подлежат уничтожению. (отправлено из приложения Hi-News.ru)

                    • SuperStarSieve

                      А зачем ему развиваться на Земле? (отправлено из iOS приложения Hi-News.ru)

                      • Korvin

                        Логичный вопрос. Легче на Венере наверное начать. Но если начнет на Земле то нам хана наступит раньше. Для сферы Дайсона понадобиться весь материал который можно будет собрать в солнечной системе и земля и марс и венера и все астеройды и юпитер тоже. (отправлено из приложения Hi-News.ru)

                        • SuperStarSieve

                          Я думаю, он пойдет намного дальше, чем мы тут можем фантазировать. (отправлено из iOS приложения Hi-News.ru)

                          • Korvin

                            Скорее всего за миллиарды лет развития вселенной он уже создавался и не один раз. И мы сейчас можем его наблюдать, но воспринимаем его как естественные объекты природы. Как звезды например. (отправлено из приложения Hi-News.ru)

                            • SuperStarSieve

                              Вообще-то, не так давно была статья, объясняющая почему жизнь во Вселенной может существовать еще только сотни миллионов лет. До этого возникновение какой-либо формы жизни было чересчур маловероятно. (отправлено из iOS приложения Hi-News.ru)

                              • Atey

                                для ИИ возможно проще будет людей контролировать, чем уничтожать.

                              • Korvin

                                Если проследить развитие человечества, за последние 100 лет человечество придумало больше чем за предидущие 10000 лет. В одном выпуске газеты таймс сейчас больше информации чем человек получал за всю свою жизнь в 18 веке. По закону Мура или теперь уже Роуза искусственный интеллект будет развиваться тоже по геометрической прогрессии. Посмотрите выступление Курцвейла на ютюбе. Таким образом к 2050 году будет создан интеллект превосходящий интеллект всех людей на земле вместе взятых. В 2023 году искусственный интеллект будет равен человеческому. В 2052 году он будет умнее чем 15 млрд человек к 2054 как 30, 2056-60, 2058-120 и наконец к 2100 он за одну секунду сможет до деталей спроектировать сферу дайсона например и точно рассчитает время его строительства, а к концу 3000 года его строительство сможет завершить. Итого после того как человек придумал огонь до момента окончания строительства сферы дайсона прошло 11000 лет, а не миллионы и миллиарды. (отправлено из приложения Hi-News.ru)

                                • SuperStarSieve

                                  Да. Согласен. Извиняюсь, что сделал замечание. Просто меня испугали "миллиарды лет". А так все правильно. Знаете, вот мы сейчас думаем, что же там будет с ИИ. Мы не можем знать наверняка. Давайте лучше ждать момента, когда станем бессмертными киборгами. Курцвейл пророчит 2045. (отправлено из iOS приложения Hi-News.ru)

  14. comer528

    Лезут куда не стоит!как будь то и без этого проблем не хватает! (отправлено из Android приложения Hi-News.ru)

  15. storm X

    Фига тут холивары... (отправлено из iOS приложения Hi-News.ru)

  16. ShineKami

    Тот момент, когда комменты интересней новости.
    PS: SuperStarSieve, Atey, Korvin - молодцы вы сделали эту новость намного интересней :)

  17. sakshin888

    Ученые мыслят.. так, а как мыслят..мистики ? Чем отличается интеллект человека от интеллекта ИИ, принципиально ? Принципиально они идентичны. А чем принципиально отличается аватар с ИИ от человека ? Ни один робот машина не может и не сможем..медитировать, по причине, что у робота нет и быть не может доступа к Глобальному Сознанию, а у человека и только человека он..есть !! Ученые поэты люди твочества им иногда пользуются. Мистики в нем живут.
    Начальный вопрос можно было бы поставить так, что ученые не обладающие осознанностью медитативностью могут принести неосознанно вред.
    Интеллект и осознанность разные вещи !! Осознанный ученый и только осознанный ученый может знать что можно, а что нельзя !! Так что дело вовсе не в прогрессе науки, а в сознании в.. медитативности !!..
    Уровню Сознания,( вот о чем беспокойство подписантов), надо уделять сейчас особое внимание и ученых и политиков и всех.
    Уровень Сознания должен идти впереди технологий !!! тогда это и безопасно и огромные перспективы. В противном случае.. О чем и речь !!

    • Korvin

      Позвольте мне дать немного экскурс в медитацию и в духовные практики. Разуму человека свойственно формировать привычки. Поэтому Уоррен Баффет как то сказал на лекции студентам стэнфорда, что самое главное в успешном инвесторе это правильные привычки. На востоке вместо слова Привычки используют равносильное им понятие Карма, что одно и тоже. Так вот мозг человека устроен так что он старается сохранить существующие нейронные цепи т.е. существующие привычки, чтобы не тратить лишнюю энергию на осознанные действия требующие большей энергии. Другими словами мозгу легче делать все на автомате, чем думать постоянно о том как то же самое действие сделать осознанно по другому. Когда вы медитируете то заставляете разум думать постоянно обо одном конкретном предмете, когда разум привык блуждать, т.е. тем самым тренируется Воля человека. Так вот медитация она нацелена на то чтобы развить в человеке волю разрушать существующие привычки по желанию и находиться всегда в осознанном состоянии, а не делать все автоматом. Теперь мы начинаем понимать то, что духовность она никак не связана с вопросом ИИ так как ИИ состоит из той же материи, что и человек. Те же атомы и электроны, протоны и нейтроны. Если в атомах есть душа, значит и в ИИ тоже есть душа. (отправлено из приложения Hi-News.ru)

  18. Atey

    Соглашусь с вами насчёт Осознанности. И вот что интересно, насчет доступа к глобальному сознанию. Что нужно предпринять, чтобы выйти в это состояние? Особое состояние чистого, свободного от всего предчувстия, когда ты просто Знаешь, даже не размышляя? И первое, что советуют почти все практики - это остановить свой Ум. Так не является ли человеческая надстройка, которую мы называем Умом (весь комплекс воспитания, среды, шаблонов, страхов и предрассудков, которые человек называет Личностью) препятствием для перехода к Глобальному сознанию? Мистики и практики в совершенстве умеют отключать свой человеческий ум медитациями. Учёные и творческие люди ловят этот состояния в процессе Творения, то есть тогда, когда привычный человеческий ум (сознание, личность) отключён, и творец полностью погружён и захвачен своим творением.
    Это я к чему. К тому, что созданный человеческой средой и обществом инструмент Ума и Социальной личности у ИИ с большой вероятностью будет отсутствовать. И вполне возможно без этих громоздких установок он будет мыслить гораздо шире и свободней, нежели созданные средой общества личности.

    • Korvin

      Данное состояние хорошо описано в Тибетской книге мертвых особенно описание того момента когда человек умирает в самом начале книги. Также там описывается на мой взгляд интересное насколько я помню четвертое Бордо когда человек погружается в осознанное сновидение. В этом состоянии мозг человека в состоянии смоделировать окружающую среду в мельчайших подробностях без получения нервных импульсов от органов зрения и слуха. Я как-то погрузился в осознанное сновидение днем и ощущения меня просто поразили все реально как в реальной жизни за исключением того что вы можете полностью управлять окружающей средой. (отправлено из приложения Hi-News.ru)

  19. Аноним

    А по моему не ИИ надо бояться а а строки с надписью "250$ и получишь код разблокировки" как и было сказано У ИИ нет целей защитить планету от вредного влияния человечества скорей найти новую планету и как можно быстрее отправить нас туда... (отправлено из Android приложения Hi-News.ru)

Новый комментарий

Для отправки комментария вы должны авторизоваться или зарегистрироваться.