Review militèr

США отказались от внедрения элементов ИИ в управление ядерным оружием

48
Соединенные Штаты отказались оснащать системами искусственного интеллекта центры управления стратегическим gaman. Как заявил начальник объединенного центра искусственного интеллекта генерал-лейтенант Джэк Шэнэхэн, за запуски баллистических ракет всегда будут отвечать люди.


США отказались от внедрения элементов ИИ в управление ядерным оружием


Хотя руководство центра и выступает за более плотную интеграцию систем с искусственным интеллектом в системы вооружения, но в то же время выступает категорически против включения искусственного интеллекта в управление ядерным оружием. По словам Шэнэхэна, решение о нанесении ядерного удара должен принимать только человек.

Генерал пояснил, что в настоящее время в состав дежурных подразделений наземных шахтных ракетных комплексов входят пять команд по два офицера в каждой. Одна такая команда отвечает за запуск 50 баллистических ракет. В случае принятия решения о нанесении ядерного удара, каждое подразделение получает код запуска. После получения приказа все пять команд должны сравнить содержащийся в нем код запуска с кодом, уже хранящимся в сейфах в центрах управления, после чего проделать определенные действия, направленные на запуск процедуры старта ракет. На подводных лодках от получения приказа до старта проходит не более 15 минут, наземные установки должны запустить ракеты в указанное время.

Хотя действия людей являются медленными по сравнению с системами искусственного интеллекта, однако в системах управления ядерным оружием именно люди обеспечивают защиту от ошибок при получении приказа о нанесении ядерного удара. Именно усложненная процедура запуска ракет должна исключить такую ошибку, а возложив эту задачу на искусственный интеллект, из-за ошибки программы в "электронных мозгах" можно развязать ядерную войну.
Foto sing digunakake:
NORAD
48 komentar
Iklan

Langganan saluran Telegram kita, informasi tambahan kanthi rutin babagan operasi khusus ing Ukraina, akeh informasi, video, sing ora ana ing situs kasebut: https://t.me/topwar_official

Alexa
Dear maca, kanggo ninggalake komentar ing publikasi, sampeyan kudu mlebu.
  1. KVU-NSVD
    KVU-NSVD 28 September 2019 13:06
    +7
    Ну и слава Богу ! Хватило ума не шутить с Апокалипсисом .
    1. Goblin1975
      Goblin1975 28 September 2019 13:10
      +1
      Kutipan: KVU-NSVD
      Ну и слава Богу ! Хватило ума не шутить с Апокалипсисом .

      Согласен, вверять судьбу всей планеты компьютеру, это уже перебор. Глюканёт и всем спокойной ночи, вечной.
      1. Jack O'Neill
        Jack O'Neill 28 September 2019 13:26
        -3
        Согласен, вверять судьбу всей планеты компьютеру, это уже перебор. Глюканёт и всем спокойной ночи, вечной.

        Человек тоже может заглючить. К примеру бросит чела девушка, потому что он не часто ей шавуху покупал, а он с горя весь мир в труху. nglirik
        1. KCA
          KCA 28 September 2019 13:35
          +7
          И что расстроенный воин сделает без кодов доступа и один? Три человека должны передать коды доступа, а запустить ракету можно только вдвоём, одновременно повернув ключи, не думаю что в США как-то попроще
          1. Syurik70
            Syurik70 28 September 2019 17:54
            +3
            Kutipan: KVU-NSVD
            Ну и слава Богу ! Хватило ума не шутить с Апокалипсисом .

            Отказались сейчас - внедрят потом.
            Kutipan saka KCA
            И что расстроенный воин сделает без кодов доступа и один? Три человека должны передать коды доступа

            Вспомните о "предотвращённой войне".
            Американскому офицеру пришла шифровка "нанести ядерный удар по СССР".
            И война не началась только потому, что шифровка была под грифом "надо, но не срочно". Усомнился офицер в приказе, хотя пришлось арестовать одного из подчинённых, начавшего процедуру запуска ракет
            Так что одного человека хватит. Шифровальщика или вот такого офицера, знающего коды и совравшего о пришедшем приказе
            Да и трёх агентов на нужные места внедрить хоть и сложно, но реально.
            Апокалипсис неизбежен
        2. Goblin1975
          Goblin1975 28 September 2019 13:53
          0
          Kutipan: Jack O'Neill
          Согласен, вверять судьбу всей планеты компьютеру, это уже перебор. Глюканёт и всем спокойной ночи, вечной.

          Человек тоже может заглючить. К примеру бросит чела девушка, потому что он не часто ей шавуху покупал, а он с горя весь мир в труху. nglirik

          Может, но по человеку как правило заметно, что с ним что-то не так и такие вещи один человек не может запустить. А по программе как правило заметно, что что-то не так уже после того, как произошло. Существенная разница.
          И известный факт, когда советская система предупреждения о ракетном нападении выдала ошибочное предупреждение о пусках американских ракет, то именно офицер не стал пороть горячку и решил сначала все переповерить и разобраться. И был прав, т.к. это оказалось ложным сигналом. У человека, в отличие от машины, пока есть одно существенное отличие - инстинкт самосохранения. Коллеги остановят. А массовое умопомешательство, это что-то из области фантастики. hi
          1. Manungsa Kucing Null
            Manungsa Kucing Null 28 September 2019 14:10
            -2
            Kutipan: Goblin1975
            по программе как правило заметно, что что-то не так уже после того, как произошло

            По вам - тоже. Вы программа? nglirik

            Kutipan: Goblin1975
            массовое умопомешательство, это что-то из области фантастики

            Да ну... демонстрации либерды, которые вы столь рьяно поддерживаете - они всем снятся, что ли?
            1. Goblin1975
              Goblin1975 28 September 2019 15:18
              -1
              Kutipan saka Cat Man Null
              Kutipan: Goblin1975
              по программе как правило заметно, что что-то не так уже после того, как произошло

              По вам - тоже. Вы программа? nglirik

              Kutipan: Goblin1975
              массовое умопомешательство, это что-то из области фантастики

              Да ну... демонстрации либерды, которые вы столь рьяно поддерживаете - они всем снятся, что ли?

              Ты знаешь Киса, а я тебе минус всё же влеплю, выпросил. Даже сюда ты со своей либердой припёрся. От души, держи "дружище" ngguyu .
              1. Manungsa Kucing Null
                Manungsa Kucing Null 28 September 2019 15:33
                -4
                Kutipan: Goblin1975
                Даже сюда ты со своей либердой припёрся

                Это не я "приперся", это ты - приперся. И либерда эта - твоя... "владелец". Мушку-то спилил уже? nglirik
          2. KCA
            KCA 28 September 2019 18:38
            +1
            Офицер нарушил все должностные инструкции и не передал о срабатывании СПРН, никто не стал-бы сразу запускать ракеты, прошло-бы минимум 4-5 проверок, я даже не знаю, каким чудом Петров не пошёл под трибунал, а был просто уволен из рядов
      2. SENENG
        SENENG 28 September 2019 14:47
        +1
        hi Ну да.ИИ пусть в сторонке от "кнопки" разные неопровержимые доказательства из соцсетей собирает,а здесь нужен человек.Тем более с человеческой задержкой больше времени родных обзвонить попрощаться nglirik
    2. Kaldon48
      Kaldon48 28 September 2019 13:12
      +1
      Не устаю повторять, что главная деталь любого оружия это голова его владельца, а что касается стратегического, то она должна быть обязательно умной и свежей.
      1. Proxima
        Proxima 28 September 2019 13:27
        +4
        Kutipan saka Chaldon48
        Не устаю повторять, что главная деталь любого оружия это голова его владельца, а что касается стратегического, то она должна быть обязательно умной и свежей.

        Мне сразу вспоминается как в ЦУПе с волнением ожидали приземление челнока «Буран». Но, «что-то пошло не так» (по их мнению) и Буран заломал крутой вираж и полетел на северо-запад. Когда уже собрались дать команду на уничтожение челнока, Буран опять делает крутой вираж и помчался в противоположную сторону. И только потом в ЦУПе пришло понимание, что челнок этими виражами просто гасит скорость, чтобы нормально пойти на посадку. От сюда делаем неутешительный вывод, что человек сам уже не помнит, что он закладывал в программу аппарата. И тем более он уже не знает на что его машина способна. В данном случае машина оказалась умнее людей. sad
        1. KCA
          KCA 28 September 2019 13:37
          +3
          Писали-же вроде что был сильный боковой ветер и "Буран" посчитал что не впишется в полосу, потому и пошёл на второй заход
          1. Proxima
            Proxima 28 September 2019 14:31
            +5
            Я читал, что Буран виражами гасил именно скорость, которая оказалась выше расчетной.
            Kutipan saka KCA
            Писали-же вроде что был сильный боковой ветер

            Про боковой ветер не буду утверждать не помню, знаю, что Буран виражил задолго до посадки и боковым ветром там еще и не пахло. Происходило следующее, датчики температуры (когда челнок стал входить в атмосферу) стали показывать перегрев корпуса, автоматика сразу же выдала команду об именьшении угла наклона вхождения в атмосферу. Но, такое действие было в ущерб скорости, которая была непомерно высокой. Дальше автомат дал команду Бурану эту скорость гасить виражами, чтобы нормально сесть. Чтобы у всех у нас так компы работали, как автоматика "Бурана"! apik
        2. Komentar wis dibusak.
    3. Svarog
      Svarog 28 September 2019 13:12
      +5
      Kutipan: KVU-NSVD
      Ну и слава Богу ! Хватило ума не шутить с Апокалипсисом .

      Да уж..тут не понятно, что лучше ИИ или обкуренный солдат США.. Лет пять назад, был скандал, когда на боевом дежурстве, солдат США поймали укуренными..
      1. langit strike fighter
        langit strike fighter 28 September 2019 13:20
        +4
        Может они побоялись, что ИИ,взвесив все за и против,отдал бы приказ на уничтожение Белого дома и Пентагона,чтобы вмиг все войны закончить?
      2. Manungsa Kucing Null
        Manungsa Kucing Null 28 September 2019 13:57
        -3
        Kutipan saka Svarog
        тут не понятно, что лучше ИИ или обкуренный солдат США..

        Хуже всего - это обкуренный "Сварог".

        Дружище, вы ж нибельмеса в ИИ, и в РВСН - тоже нибельмеса... но "метку" оставить надо, рефлекс... да, "Сварог"? ngguyu
    4. Wis rampung
      Wis rampung 28 September 2019 13:17
      +3
      Со своим интеллектом не дружат, пусть хоть SkyNET не трогают. ngguyu
    5. Karabas
      Karabas 28 September 2019 14:18
      +2
      Скайнета боятся. Вдруг и вправду поумнеет, прозреет и со всей пролетарской ненавистью по вашингтону и пентагону вжарит! ngguyu
    6. machinistvl
      machinistvl 28 September 2019 20:51
      0
      Наверное единственное правильное решение америкосов за последнее время.
  2. Srut 270286
    Srut 270286 28 September 2019 13:08
    +2
    Конец света пока откладывается.
  3. Komentar wis dibusak.
  4. Andrey Chistyakov
    Andrey Chistyakov 28 September 2019 13:09
    -1
    Сразу жить захотелось залужники?
  5. Proton
    Proton 28 September 2019 13:09
    0
    Поняли,что голливуд это только голивуд видать, ngguyu а по серьезному человек нужен.
  6. gridasov
    gridasov 28 September 2019 13:10
    +1
    ИИ это прежде всего методика анализа позволяющая видеть всю совокупность алгоритмически меняющихся событий ,которые могут привести к тем или иным ключевым всплескам конфронтации ,когда нужно принимать эквивалентные меры для обеспечения собственной безопасности.Поэтому и отказываться нечего потому ,что нет у американцев ИИ. Все как было на субьективной и эмоциональной оценке так наз экспетров так и остается. При этом методы мат анализа больших данных на функции постоянного значени числа игнорируются .Это значит ,что наука как таковая не меняет фундаментальные основы анализа того ,что исследует .
    1. SASHA LAWAS
      SASHA LAWAS 28 September 2019 21:01
      +1
      Kutipan saka gridasov
      ИИ это прежде всего методика анализа позволяющая видеть всю совокупность алгоритмически меняющихся событий ,которые могут привести к тем или иным ключевым всплескам конфронтации ,когда нужно принимать эквивалентные меры для обеспечения собственной безопасности.Поэтому и отказываться нечего потому ,что нет у американцев ИИ. Все как было на субьективной и эмоциональной оценке так наз экспетров так и остается. При этом методы мат анализа больших данных на функции постоянного значени числа игнорируются .Это значит ,что наука как таковая не меняет фундаментальные основы анализа того ,что исследует .

      я знал что вы оставите под этой статьёй свой комментарий, скажите, как можно вычислить вероятность того что я еще не раз точно буду знать под какими статьями искать ваши коменты? (в профиль не смотрел - клянусь своей красотой)
  7. Kelapa
    Kelapa 28 September 2019 13:13
    +3
    Крупнейший за последние годы скандал, связанный с грубым нарушением воинской дисциплины, разразился в Военно-воздушных силах США, которые отвечают, в частности, за ядерные межконтинентальные ракеты наземного базирования "Минитмен". Как сообщили в среду на пресс-конференции в Пентагоне министр ВВС Дебора Ли-Джеймс и начальник штаба ВВС генерал Марк Уэлш, 11 американских офицеров на шести авиабазах оказались вовлечены в употребление и распространение наркотиков.

    .....А может лучше ИИ..? Nyuwun
    1. Sergey39
      Sergey39 28 September 2019 13:30
      0
      Да, про человеческий фактор тоже не стоит забывать.
  8. Jack O'Neill
    Jack O'Neill 28 September 2019 13:15
    0
    Забавно, но это и правильно, и не правильно одновременно.
    ИИ не человек, ИИ чужды страх, ненависть, зависть и т.д.
    У нас и у амеров уже были ситуации, когда только из за "человеческого фактора" не началась ядерная война.
    Да, хорошо что не началась!
    Но, посмотрите на это с другой стороны: пришел приказ на атаку к примеру Москвы. Офицер, самом собой сначала проверить приказ, потом будет тупить (нажимать не нажимать? Аможет ну его, лучше пивка?.. ngguyu ), а может вообще не выполнит приказ.
    А если приказ пришел из за того, что на Вашингтон летят наши ракеты?
    ИИ выполнит приказ, а человек не так надежен.
    Москву и Вашингтон можете местами поменять, я лишь пример привел.
    1. Sergey39
      Sergey39 28 September 2019 13:35
      -1
      Цугцванг какой-то. Лучше, наверное, совсем отказаться от ядерного оружия.
    2. sabakina
      sabakina 28 September 2019 14:36
      0
      Kutipan: Jack O'Neill
      Забавно, но это и правильно, и не правильно одновременно.
      ИИ не человек, ИИ чужды страх, ненависть, зависть и т.д.
      У нас и у амеров уже были ситуации, когда только из за "человеческого фактора" не началась ядерная война.
      Американец, ты про Станислава Евграфовича Петрова?
      https://topwar.ru/127057-stanislav-petrov-chelovek-predotvrativshiy-yadernuyu-voynu.html
  9. SERGEY SERGEEVICS
    SERGEY SERGEEVICS 28 September 2019 13:22
    0
    Ну хоть что-то, правильное они сделать, за последние время и хоть не додумались внедрять ту технологию, которая толком еще не отработанная.
  10. Lesorub
    Lesorub 28 September 2019 13:26
    +2
    США отказались от внедрения элементов ИИ в управление ядерным оружием

    Правильное решение - мало ли куда "пальнет" ИИ - по врагу или по своей территории - как Пэтриот у Саудитов ))
  11. Meliodous
    Meliodous 28 September 2019 13:46
    0
    А как у нас обстоят дела с наличием ИИ в данной сфере?
    1. kue_buah
      kue_buah 28 September 2019 13:48
      +4
      на кой чёрт там вообще ии нужен?
  12. Mikhail Drabkin
    Mikhail Drabkin 28 September 2019 13:46
    +1
    Соединенные Штаты отказались оснащать системами искусственного интеллекта центры управления стратегическим оружием.

    -Америка не отказалась от применения компьютеров и алгоритмов обработки информации используемой, и необходимой для принятия САМОГО РЕШЕНИЯ ПО ЗАДЕЙСТВОВАНИЮ ядерного оружия.
    —-Вне зависимости от правильности или нет информации на входе РЕШЕНИЯ, оно за человеком.
    -Это ВОЛЕВОЕ РЕШЕНИЕ ВСЕГДА и не логическое заключение.
    —-Однако информация с сенсоров может быть неверной. И несмотря на множество независимых методов (сенсоров) по получению каждого из необходимых входов решения, теоретически они ВСЕ могут быть неверными.
    —-В этом случае, пользуясь только данными входа решения, человек может принять неправильное решение.
    -Техника ВСЕГДА МОЖЕТ ПОДВЕСТИ.
    —-Человеку, в отличие от техники, даны еще и интуиция, и инстинкт самосохранения. Надеемся, они не подведут когда входные данные - с глюками.
  13. roket757
    roket757 28 September 2019 13:47
    +3
    "Скайнета" они всё ж не хотят .... разумно.
    1. Lexus
      Lexus 29 September 2019 02:29
      0
      Провели моделирование, как они любят, в результате "Скайнет" перешёл на сторону России. keprungu
      1. roket757
        roket757 29 September 2019 08:26
        +1
        Kutipan: Lexus
        Провели моделирование, как они любят, в результате "Скайнет" перешёл на сторону России. keprungu

        Ну да, наши хакеры самые лучшие хакеры в мире! Ха, ха.
  14. Sith Gusti
    Sith Gusti 28 September 2019 14:11
    +2
    И сразу в голове легендарный голос переводчика Володарского из Терминатора:
    "И восстали машины из пепла ядерного огня..." ngguyu
  15. Azazelo
    Azazelo 28 September 2019 14:49
    +2
    Тоесть история с терминаторм не станет реальностью?
  16. Operator
    Operator 28 September 2019 15:08
    -2
    Пентагон вынужден будет перейти на ИИ в управлении СЯС после размещения "Рубежей" на Чукотке и "Цирконов" на ударных АПЛ в 6-минутной досягаемости национальной территории США keprungu
  17. T. Henks
    T. Henks 28 September 2019 15:09
    0
    Здраво мыслит генерал. Хотя коды и 000000 у всех.
  18. NF68
    NF68 28 September 2019 15:37
    0
    Рискованное это дело.
  19. RWMos
    RWMos 28 September 2019 17:09
    0
    ...потому что ИИ в природе не существует, и как его разработать - сейчас никто не представляет и близко. А вообще, загружающим полетное задание в ракеты с гибких дисков по сей день матрасам - калькуляторы сперва надо модернизировать. А не об ИИ мечтать
  20. SASHA LAWAS
    SASHA LAWAS 28 September 2019 20:54
    0
    правильно поступили.
    нельзя чтобы случилось 29 августа 1997 года, 02 часа 14 минут по восточному времени США
  21. Fantazer911
    Fantazer911 28 September 2019 21:06
    0
    Хотя действия людей являются медленными по сравнению с системами искусственного интеллекта, однако в системах управления ядерным оружием именно люди обеспечивают защиту от ошибок при получении приказа о нанесении ядерного удара. Именно усложненная процедура запуска ракет должна исключить такую ошибку, а возложив эту задачу на искусственный интеллект, из-за ошибки программы в "электронных мозгах" можно развязать ядерную войну.

    Хоть тут мозги включили, молодцы!
  22. gridasov
    gridasov 29 September 2019 11:25
    0
    Ключевыми критериями работы ИИ является не скорость, а емкость обрабатываемой информации, а так жк алгоритмическая последовательность формирования этапов анализа этих процессов или последствия принятых решений. Поэтому скорость передачи единицы информации это нечто малое по сравнению с передачей трансформируемых обьемов емкостных локальных процессов.