Google учит нейросеть предсказывать смерть человека

28 Февраля 2018 в 19:30, Владимир Кузнецов 4 424 просмотра 18

Современная медицина нацелена на то, чтобы предотвратить и предвидеть развитие серьезных жизнеугрожающих заболеваний. Однако сил и знаний человека зачастую оказывается недостаточно для того, чтобы предсказать те или иные осложнения. На помощь врачам в будущем может прийти ИИ DeepMind от Google, который в данный момент обучается предсказывать смерть людей.


Как часто бывает в подобной ситуации, для обучения ИИ использовались уже известные клинические случаи. Разработчики из Google «скормили» DeepMind данные почти 220 тысяч взрослых пациентов, проходивших лечение в период с 2009 по 2016 год. Информацию о пациентах предоставили медицинский центр Калифорнийского университета в Сан-Франциско и Медицинский университет города Чикаго. Помимо этого, ученые использовали информацию, полученную от Министерства по делам ветеранов США, которые дали доступ к данным о 700 000 находящихся под наблюдением бывших военных. Всего в базу внесли более 46 миллиардов пунктов о самых разных показателях здоровья. В данный момент алгоритм нацелен на поиск таких состояний, как острая почечная недостаточность и пневмония. Эти состояния были выбраны не случайно, ведь, по заявлению авторов работы,

«Острая почечная недостаточность или пневмония могут поражать людей любого возраста, и часто они начинаются после обыденных процедур и операций. 11% всех случаев смерти в больнице обусловлены ухудшением самочувствия пациента, а изменения в состоянии больного не всегда могут заметить на ранней стадии».

Сейчас система способна предсказывать вероятность смерти пациента в течение 24-48 часов, но главная цель проекта – научиться прогнозировать смерть в ближайшие 12 месяцев. Помимо этого, планируется расширение данных о смертельно опасных патологических состояниях. Подобное использование искусственного интеллекта в медицинских целях может быть использовано не только для того, чтобы быть готовым к реанимационным мероприятиям, но и с целью предотвращения развития у пациентов тяжелых состояний.

Google учит нейросеть предсказывать смерть человека

Приложение
Hi-News.ru

Новости высоких технологий в приложении для iOS и Android.

18 комментариев

  1. BUBA

    Ну и нафига? (отправлено из iOS приложения Hi-News.ru)

  2. romale

    К гадалке не ходи (отправлено из приложения Hi-News.ru)

  3. freawertyhn

    так понимаю , смерть от болезней? ибо убbйство никто не может предcказать -оно может быть спонтанным и за секунду

  4. MASking

    ПУНКТ НАЗНАЧЕНИЯ
    "Вы все умрете" - сказал ИИ
    и дружно опустили руки все врачи
    зачем бороться, жизнь спасать...
    ИИ сказал "беды не миновать"
    И в деревянный ящик опускаясь...
    Сказали пациенты дружно -
    "Мать твою! Еще мы живы!
    В ж0пу свой прогноз засунь!"

    • MASking

      MASking, Лечить то чего нет, но вероятность есть? Абсурд! СПИДОМ тоже можно заразиться с определенной вероятностью, но по чему то никто себе не делает 50 уколов для профилактики, а сдают анализы - что бы уже наверняка знать! Если этот ии делает свой вердикт на каких либо анализах то должен выдать диагноз или болезнь, и если таковых нет - то инструкцию что нужно лечить или где проблема...
      А в данной трактовке получается что ИИ выдает дату смерти и будет как в звездных войнах когда жена Вейдера умирала, врачи так и сказали: "пациент умирает! Он в порядке, но жизненная сила покидает его мы не в силах помочь!"

      • vesarion

        MASking, Чукча не мыслитель? Система не приговор выносит, а бьет в колокол о том, что с пациентом не все ладно и надо бы его подлечить, иначе сдохнет. (отправлено из приложения Hi-News.ru)

        • MASking

          vesarion, Чукча ты не догнал! Что лечить? Если "не все ладное" с пациентом и ИИ не выявил что именно, то и человек не поймет! А лечить грипп мазью от сыпи не самый эффективный способ! Если машина перестала работать и все техники не могут найти причину поломки то увы работать не будет хоть усрись!!! А для человека вовремя не оказанное лечение = смерть!
          диалог врачей:
          1 ИИ говорит что ему осталось жить сутки...
          2 Даааа.... Ну давай ему хоть аппендицит вырежим
          1 Точно! А счет выставим родным - типа мы же пытались чтото сделать!

          Дубина думай - потом говори!

  5. John_Headon

    Напомнило фильм: "Час Расплаты"

  6. AHTIXPICT

    нужно еще научить управлять государством.... ведь ИИ Взятки не нужны, и виллы тоже, только эффективное управление и идеальное стратегическое и тактическое мышление

    • MASking

      AHTIXPICT, ты уверен? взятка - это торговое соглашения типа: мы вам денег, а вы сделайте то что мы хотим - МВФ напоминает

      • MASking

        MASking, разница может быть в том что взятки он не присвоит себе, а использует как ресурс улучшения чего либо
        одно ухудшит - другое улучшит
        К примеру:
        За взятку продан старый завод, но денег со взятки хватит чтобы создать новых завод с передовой техникой или пустить в другое более перспективное или важное направление

        • MASking

          MASking, ИИ взвесив все варианты - выберет более лучший вариант исходя из своей стратегии

          • MASking

            MASking, тут и нарушение трех законов...
            если преступник (убийца) богат - то наказание по закону он сможет избежать за крупную взятку
            как бы ИИ взвесит цену жизни одного человека, выдав прайс к оплате отпустит преступника без наказания
            имеется в виду что ИИ проанализировав численность, рождаемость и смертность - придет к выводу что смерть человека должна быть компенсирована рождаемостью, увеличив пособие матерям или улучшив медицину для уменьшения смертности - за ресурс "деньги"

            • MASking

              MASking, хуже будет если ИИ додумается специально подставлять богатых к совершению преступления для возможности завладения их ресурсами...

              тогда идеальное общество под управлением ИИ будет похоже на конвейер - где шаг вправо, шаг влево будет расценено как преступление (нарушение законов "сохранения общества" диктуемых ИИ) - есть только то что сказал ИИ, спать ложиться ровно в 21 а встать ровно в 5 и т.д. - своеволие для ИИ будет трактоваться как ухудшение каких либо показателей качества

      • Skydreamer

        MASking, Ты нам взятки, а мы тебя бить не будем и другим не дадим. Это не соглашение, а шантаж (отправлено из приложения Hi-News.ru)

Новый комментарий

Для отправки комментария вы должны авторизоваться или зарегистрироваться.