dzz: Dizzy の春 (Default)
[personal profile] dzz
Интересно, а что мешает использовать для управления полётом автоматических станций и той же посадки на Луну уже существующие наработки имитационного интеллекта (aka ИИ), в частности, нейросетки?

IMHO, это, как раз, идеальная задача для обучения на моделях любой сложности, которые можно смоделировать на Земле. Да и масса аппарата в несколько тонн позволяет впихнуть туда компьютер, достаточный для работы нейросети в реальном времени.

В итоге, получаем систему, которая САМА управляет полётом на основе информации от датчиков и с земных станций слежения, минимизируя как человеческие ошибки, так и влияние задержек передачи команд управления. Не говоря уже об отработке нештатных ситуаций.

Хм-м-мммм...

Date: 2023-08-20 08:36 pm (UTC)
de_nada: (Default)
From: [personal profile] de_nada


Ну на примере "чят-гопоты" уже можно было убедиться, что когда ета самая "нейросеть" чего-то "не понимает", то она не выкидывает АвОст, не переходит на другую ветку алгоритма, предусмотренную разрабами, даже не зависает — не, она начинает яростно и вдохновенно врать с три короба сочинять что-то "правдоподобноидноватенькое", выглядящее как фальшивые ёлочные игрушки что-то реалистичное, но...

Куда при таких раскладах прилетит КА, рулимый и педалимый таким вот Искусственным Историеплётом — лично я ХЗ.

С уважением.

p.s. Вообще — не подлизываясь :) — похвалю этот пост как весьма годный: "Джону Коннору приготовиться!"
Потому что наша технораспутная цивилизация рано или поздно так или иначе уберёт имеющийся air gap между бредом т.н."ИИ" и real life, прицепив к этим "чёрным ящикам, набитыми большими статданными", разные эффекторы,... к КА, к ЛА, к станкам, к реакторам. Пресловутые "автопилоты" кагбе намекают, что лёд (в умах) тронулся...

Edited Date: 2023-08-20 08:49 pm (UTC)

RE: Хм-м-мммм...

Date: 2023-08-20 08:58 pm (UTC)
From: [identity profile] dzz.livejournal.com

Чат-гопота, всё-таки, пытается решать куда более широкий класс задач, чем полёт к Луне.

А вот то, что на Земле можно смоделировать 100500 нештаток и посмотреть, как система поведёт себя в них, внушает некоторый оптимизм. Благо, баллистика — это не "нарисуй мне хрень по описанию" :)

Хех! :)

Date: 2023-08-20 09:04 pm (UTC)
de_nada: (Default)
From: [personal profile] de_nada


Лем. "Ананке"

С уважением.

RE: Хех! :)

Date: 2023-08-20 09:20 pm (UTC)
From: [identity profile] dzz.livejournal.com

Лем — известный технологический пессимист, при всём уважении :)

-

Date: 2023-08-20 09:31 pm (UTC)
de_nada: (Default)
From: [personal profile] de_nada

"Как-будто что-то плохое"(тм)

А то сейчас расплодилось технооптимистов (гордо именующих себя "визионерами", простихосспади) — плюнуть некуда.
Ну вот и плодятся всякие завиральные идеи — то "дизайнерские коптеры-аэрокары", то "пловучий остров" из солнечных батарей в тихих водах Мирового океана, то ещё какая-нито нечисть.
Сопромат, ТОЭ, основы термодинамики, материаловедение??? — "не, не слышали..."(тм)

Воистину, "сон разума рождает чудовищ"(с)

С уважением.

RE: -

Date: 2023-08-20 09:57 pm (UTC)
From: [identity profile] dzz.livejournal.com

На большую часть этих визионерских проектов авторам просто денег не хватит. Экономика часто работает как естественный фильтр технологической для хрени :)

RE: -

Date: 2023-08-20 10:07 pm (UTC)
From: [identity profile] bodeh.livejournal.com
Ну, один "Титан" уже случился. Сделаны ли выводы?

RE: -

Date: 2023-08-21 12:43 am (UTC)
From: [identity profile] dzz.livejournal.com

Там, где не работает экономический тормоз, зачастую работает дарвиновский.

Хм-м-мммм...

Date: 2023-08-20 10:07 pm (UTC)
de_nada: (Default)
From: [personal profile] de_nada


Чёт вдогонку подумалось насчёт Лема — а ты отреагировал чисто на имя автора? "просто читал" его, тсзть, "основной корпус", из того, что стало притчей во языцех включалось во все массовые издания его книг, или читал и помнишь(!) именно "Ананке"?

Извини за возможную бестактность, просто в детстве-юности мне этот рассказ из "пирксианы" не попадался ни в одном из тех изданий Лема, что довелось читать — ни в одном из сборников "про Пиркса". Прочёл я его уже позднее, в одном из первых "постсоветских" изданий, где он уже был.

Там именно что про "обучение" "ИИ" межпланетных "миллионников" на туевой хуче симуляций нештаток — и, пля, фееричный финал попытки "ИИ" весьма творчески обойтись (и обойти) проблему, приведшую к катастрофе всё равно.

С уважением.

P.S. Сорян за спойлер, если вдруг ты ещё не — просто это, на мой вкус, один из самых драматичных и глубоких текстов Лема (как минимум в жанре "малых форм" вообще и "пирксианы" в частности).
И хорошо так лёг на твой довод про "100500 нештаток", да ещё в канве космических полётов....



RE: Хм-м-мммм...

Date: 2023-08-20 10:17 pm (UTC)
From: [identity profile] dzz.livejournal.com

Лема читал практически всё, что издавалось на русском, но вот конкретно Ананке мне не попадался. Сейчас прочитаю (благо, он небольшой) и отвечу по существу.

Date: 2023-08-21 12:27 am (UTC)
From: [identity profile] dzz.livejournal.com

Прочитал. Описана довольно очевидная методическая ошибка, которая должна была бы выявиться на нагрузочных тестах, если бы их проводили нормально.

Кстати, причину аварии я не угадал. Было занятное предположение, что компьютер принял за метеорит сам Марс и попытался от него уклониться.

Date: 2023-08-21 05:33 am (UTC)
vitus_wagner: My photo 2005 (white)
From: [personal profile] vitus_wagner

Вот это огромная проблема в обучении на симуляторах. Нужно сначала правдоподобный симулятор создать. А это не получилось даже у людей с опытом полетов на реальный Марс.


Date: 2023-08-21 06:41 am (UTC)
From: [identity profile] dzz.livejournal.com

Ну, это по сюжету. На самом деле, баллистика полёта на Луну успешно просчитывалась ещё полвека назад, основная задача — научить аппарат адаптивно реагировать на отклонения от расчётной траектории и не допускать ситуации вроде той, что привела к крушению Луны-25.

Хех! :)

Date: 2023-08-21 10:12 am (UTC)
de_nada: (Default)
From: [personal profile] de_nada


Ну, собственно, ты оказался недалёк от истины — комп "назначил Марсу роль метеорита", чтобы "вписать" его в процедуру уклонения и иметь право/возможность задействовать эту процедуру.
Т.е. формально(!) причина аварии — "локальная" — в процедуре уклонения, да.
Но более глобально причиной катастрофы стала "затренированность" компа, вынужденного изворачиваться.

С уважением.

p.s. Про нагрузочные тесты — это в тебе программист взвыл дурным голосом! :)))
Рассказ не про "нехватку нагрузочных тестов" так-то, а о другом.
Edited Date: 2023-08-21 10:14 am (UTC)

Date: 2023-08-21 12:44 pm (UTC)
From: [identity profile] dzz.livejournal.com

Во мне техлид проекта воет :)

Речь не про нехватку тестов, а про некорректную организацию. У меня есть некоторый опыт создания высоконагруженных систем, и понятно, где у описанной Лемом схемы был методический провал.

Ну и то, что и обучает, и тестирует один человек — тоже характерный антипаттерн, не добавляющий счастья ни разработчикам, ни тестировщикам, не говоря уже о конечных пользователях :)

А рассказ — да, о другом.

Edited Date: 2023-08-21 12:46 pm (UTC)

RE: Хм-м-мммм...

Date: 2023-08-20 09:04 pm (UTC)
From: [identity profile] bodeh.livejournal.com
Но можно ли быть уверенным, что в реальной ситуации, близкой к отработанным, система поведёт себя предсказуемо и правильно? Повторяемость — ахиллесова пята нейронок.

Date: 2023-08-20 09:33 pm (UTC)
From: [identity profile] dzz.livejournal.com

Ну, нейросети нейросетям рознь. Если не вносить в структуру сети недетерминированные компоненты, то реакция на одинаковый набор входных параметров, как правило, одинаковая.

Вообще, у нейронок есть чётко выраженный цикл "обучение — верификация", на моделях можно выявить склонность сетки к сваливанию в локальные экстремумы, переобучить и проверить результат.

Date: 2023-08-20 09:47 pm (UTC)
From: [identity profile] bodeh.livejournal.com
Но если у нейронки нет недетерменированности, то для непредсказанных нештатных ситуаций она бесполезна. И Аполло-13 ей не посадить ;)

Date: 2023-08-20 10:04 pm (UTC)
From: [identity profile] dzz.livejournal.com

Нейронка вообще неалгоритмична, решение принимается, грубо говоря, на основе коэффициентов, возникающих в процессе обучения. Так что чем больше нештаток придумают на Земле, тем проще будет в реальном полёте.

:)

Date: 2023-08-20 10:11 pm (UTC)
de_nada: (Default)
From: [personal profile] de_nada


Лем. "Ананке". :)

С уважением.

RE: :)

Date: 2023-08-21 12:28 am (UTC)
From: [identity profile] dzz.livejournal.com

Ананке — это повесть о некорректно организованном тестировании :)

RE: Хм-м-мммм...

Date: 2023-08-20 09:55 pm (UTC)
From: [identity profile] dzz.livejournal.com

По поводу "Джону Коннору приготовиться"...

Делегирование принятия решений — вообще стрёмная штука, независимо от того, кому ты отдаёшь право порулить за себя, хоть человеку, хоть ИИ. Я вот лошадям не доверяю в роли транспортного средства, а ведь тоже нейросеть :)

В целом же, автоматизация в современном обществе — процесс неуклонный и ползуче незаметный. Просто от электрического чайника с автоматическим выключателем многого не ждёшь, а более сложная деятельность воспринимается как покушение на человечность. Не говоря уже о "творческих потугах" GPT-шек.

Опасения в отношении настоящего (сильного) ИИ основаны на двух тезисах: во-первых, на ожидании того, что система не справится с доверенными ей критически важными задачами (т.е. интеллект будет хуже человеческого) и, во-вторых, страх перед тем, что система начнёт порождать собственные смыслы и принимать решения, идущие, как минимум, вразрез с поставленными задачами, а как максимум — наносяшие вред людям либо человечеству вцелом (т.е. интеллект будет лучше человеческого).

Истина, наверное, всё же, где-то посредине. Но пока сильный ИИ на горизонте не просматривается, есть время подумать, как со всем этим разбираться. В фантастике, к слову, тема проработана неоднократно, ещё со времён Азимова.

April 2026

S M T W T F S
   1 2 34
56 7 891011
1213141516 1718
19202122232425
2627282930  

Most Popular Tags

Style Credit

Expand Cut Tags

No cut tags
Page generated Apr. 20th, 2026 04:49 pm
Powered by Dreamwidth Studios