Про Луну-25 и нейросети
Aug. 20th, 2023 11:17 pmИнтересно, а что мешает использовать для управления полётом автоматических станций и той же посадки на Луну уже существующие наработки имитационного интеллекта (aka ИИ), в частности, нейросетки?
IMHO, это, как раз, идеальная задача для обучения на моделях любой сложности, которые можно смоделировать на Земле. Да и масса аппарата в несколько тонн позволяет впихнуть туда компьютер, достаточный для работы нейросети в реальном времени.
В итоге, получаем систему, которая САМА управляет полётом на основе информации от датчиков и с земных станций слежения, минимизируя как человеческие ошибки, так и влияние задержек передачи команд управления. Не говоря уже об отработке нештатных ситуаций.
IMHO, это, как раз, идеальная задача для обучения на моделях любой сложности, которые можно смоделировать на Земле. Да и масса аппарата в несколько тонн позволяет впихнуть туда компьютер, достаточный для работы нейросети в реальном времени.
В итоге, получаем систему, которая САМА управляет полётом на основе информации от датчиков и с земных станций слежения, минимизируя как человеческие ошибки, так и влияние задержек передачи команд управления. Не говоря уже об отработке нештатных ситуаций.
Хм-м-мммм...
Date: 2023-08-20 08:36 pm (UTC)Ну на примере "чят-гопоты" уже можно было убедиться, что когда ета самая "нейросеть" чего-то "не понимает", то она не выкидывает АвОст, не переходит на другую ветку алгоритма, предусмотренную разрабами, даже не зависает — не, она начинает яростно и вдохновенно
врать с три коробасочинять что-то "правдоподобноидноватенькое", выглядящее какфальшивые ёлочные игрушкичто-то реалистичное, но...Куда при таких раскладах прилетит КА, рулимый и педалимый таким вот Искусственным Историеплётом — лично я ХЗ.
С уважением.
p.s. Вообще — не подлизываясь :) — похвалю этот пост как весьма годный: "Джону Коннору приготовиться!"
Потому что наша технораспутная цивилизация рано или поздно так или иначе уберёт имеющийся air gap между бредом т.н."ИИ" и real life, прицепив к этим "чёрным ящикам, набитыми большими статданными", разные эффекторы,... к КА, к ЛА, к станкам, к реакторам. Пресловутые "автопилоты" кагбе намекают, что лёд (в умах) тронулся...
RE: Хм-м-мммм...
Date: 2023-08-20 08:58 pm (UTC)Чат-гопота, всё-таки, пытается решать куда более широкий класс задач, чем полёт к Луне.
А вот то, что на Земле можно смоделировать 100500 нештаток и посмотреть, как система поведёт себя в них, внушает некоторый оптимизм. Благо, баллистика — это не "нарисуй мне хрень по описанию" :)
Хех! :)
Date: 2023-08-20 09:04 pm (UTC)Лем. "Ананке"
С уважением.
RE: Хех! :)
Date: 2023-08-20 09:20 pm (UTC)Лем — известный технологический пессимист, при всём уважении :)
-
Date: 2023-08-20 09:31 pm (UTC)"Как-будто что-то плохое"(тм)
А то сейчас расплодилось технооптимистов (гордо именующих себя "визионерами", простихосспади) — плюнуть некуда.
Ну вот и плодятся всякие завиральные идеи — то "дизайнерские коптеры-аэрокары", то "пловучий остров" из солнечных батарей в тихих водах Мирового океана, то ещё какая-нито нечисть.
Сопромат, ТОЭ, основы термодинамики, материаловедение??? — "не, не слышали..."(тм)
Воистину, "сон разума рождает чудовищ"(с)
С уважением.
RE: -
Date: 2023-08-20 09:57 pm (UTC)На большую часть этих визионерских проектов авторам просто денег не хватит. Экономика часто работает как естественный фильтр технологической для хрени :)
RE: -
Date: 2023-08-20 10:07 pm (UTC)RE: -
Date: 2023-08-21 12:43 am (UTC)Там, где не работает экономический тормоз, зачастую работает дарвиновский.
Хм-м-мммм...
Date: 2023-08-20 10:07 pm (UTC)Чёт вдогонку подумалось насчёт Лема — а ты
отреагировал чисто на имя автора?"просто читал" его, тсзть, "основной корпус", из того, чтостало притчей во языцехвключалось во все массовые издания его книг, или читал и помнишь(!) именно "Ананке"?Извини за возможную бестактность, просто в детстве-юности мне этот рассказ из "пирксианы" не попадался ни в одном из тех изданий Лема, что довелось читать — ни в одном из сборников "про Пиркса". Прочёл я его уже позднее, в одном из первых "постсоветских" изданий, где он уже был.
Там именно что про "обучение" "ИИ" межпланетных "миллионников" на туевой хуче симуляций нештаток — и, пля, фееричный финал попытки "ИИ" весьма творчески обойтись (и обойти) проблему, приведшую к катастрофе всё равно.
С уважением.
P.S. Сорян за спойлер, если вдруг ты ещё не — просто это, на мой вкус, один из самых драматичных и глубоких текстов Лема (как минимум в жанре "малых форм" вообще и "пирксианы" в частности).
И хорошо так лёг на твой довод про "100500 нештаток", да ещё в канве космических полётов....
RE: Хм-м-мммм...
Date: 2023-08-20 10:17 pm (UTC)Лема читал практически всё, что издавалось на русском, но вот конкретно Ананке мне не попадался. Сейчас прочитаю (благо, он небольшой) и отвечу по существу.
no subject
Date: 2023-08-21 12:27 am (UTC)Прочитал. Описана довольно очевидная методическая ошибка, которая должна была бы выявиться на нагрузочных тестах, если бы их проводили нормально.
Кстати, причину аварии я не угадал. Было занятное предположение, что компьютер принял за метеорит сам Марс и попытался от него уклониться.
no subject
Date: 2023-08-21 05:33 am (UTC)Вот это огромная проблема в обучении на симуляторах. Нужно сначала правдоподобный симулятор создать. А это не получилось даже у людей с опытом полетов на реальный Марс.
no subject
Date: 2023-08-21 06:41 am (UTC)Ну, это по сюжету. На самом деле, баллистика полёта на Луну успешно просчитывалась ещё полвека назад, основная задача — научить аппарат адаптивно реагировать на отклонения от расчётной траектории и не допускать ситуации вроде той, что привела к крушению Луны-25.
Хех! :)
Date: 2023-08-21 10:12 am (UTC)Ну, собственно, ты оказался недалёк от истины — комп "назначил Марсу роль метеорита", чтобы "вписать" его в процедуру уклонения и иметь право/возможность задействовать эту процедуру.
Т.е. формально(!) причина аварии — "локальная" — в процедуре уклонения, да.
Но более глобально причиной катастрофы стала "затренированность" компа, вынужденного изворачиваться.
С уважением.
p.s. Про нагрузочные тесты — это в тебе программист взвыл дурным голосом! :)))
Рассказ не про "нехватку нагрузочных тестов" так-то, а о другом.
no subject
Date: 2023-08-21 12:44 pm (UTC)Во мне техлид проекта воет :)
Речь не про нехватку тестов, а про некорректную организацию. У меня есть некоторый опыт создания высоконагруженных систем, и понятно, где у описанной Лемом схемы был методический провал.
Ну и то, что и обучает, и тестирует один человек — тоже характерный антипаттерн, не добавляющий счастья ни разработчикам, ни тестировщикам, не говоря уже о конечных пользователях :)
А рассказ — да, о другом.
RE: Хм-м-мммм...
Date: 2023-08-20 09:04 pm (UTC)no subject
Date: 2023-08-20 09:33 pm (UTC)Ну, нейросети нейросетям рознь. Если не вносить в структуру сети недетерминированные компоненты, то реакция на одинаковый набор входных параметров, как правило, одинаковая.
Вообще, у нейронок есть чётко выраженный цикл "обучение — верификация", на моделях можно выявить склонность сетки к сваливанию в локальные экстремумы, переобучить и проверить результат.
no subject
Date: 2023-08-20 09:47 pm (UTC)no subject
Date: 2023-08-20 10:04 pm (UTC)Нейронка вообще неалгоритмична, решение принимается, грубо говоря, на основе коэффициентов, возникающих в процессе обучения. Так что чем больше нештаток придумают на Земле, тем проще будет в реальном полёте.
:)
Date: 2023-08-20 10:11 pm (UTC)Лем. "Ананке". :)
С уважением.
RE: :)
Date: 2023-08-21 12:28 am (UTC)Ананке — это повесть о некорректно организованном тестировании :)
RE: Хм-м-мммм...
Date: 2023-08-20 09:55 pm (UTC)По поводу "Джону Коннору приготовиться"...
Делегирование принятия решений — вообще стрёмная штука, независимо от того, кому ты отдаёшь право порулить за себя, хоть человеку, хоть ИИ. Я вот лошадям не доверяю в роли транспортного средства, а ведь тоже нейросеть :)
В целом же, автоматизация в современном обществе — процесс неуклонный и ползуче незаметный. Просто от электрического чайника с автоматическим выключателем многого не ждёшь, а более сложная деятельность воспринимается как покушение на человечность. Не говоря уже о "творческих потугах" GPT-шек.
Опасения в отношении настоящего (сильного) ИИ основаны на двух тезисах: во-первых, на ожидании того, что система не справится с доверенными ей критически важными задачами (т.е. интеллект будет хуже человеческого) и, во-вторых, страх перед тем, что система начнёт порождать собственные смыслы и принимать решения, идущие, как минимум, вразрез с поставленными задачами, а как максимум — наносяшие вред людям либо человечеству вцелом (т.е. интеллект будет лучше человеческого).
Истина, наверное, всё же, где-то посредине. Но пока сильный ИИ на горизонте не просматривается, есть время подумать, как со всем этим разбираться. В фантастике, к слову, тема проработана неоднократно, ещё со времён Азимова.