Попросил гугловую нейросетку нарисовать схему постановки правой ноги на мотоцикле относительно педали заднего тормоза. Gemini сгенерила картинку и подписала основные элементы тормозной системы.

Лучше бы не подписывала :)))
Теперь вы можете быть спокойны за свои рабочие места.
no subject
Date: 2025-09-20 07:08 pm (UTC)no subject
Date: 2025-09-20 07:17 pm (UTC)В данном случае просто перепутано всё, что можно было перепутать :)
Увеличение размерности не избавит нейросетевой ИИ от галлюцинаций, но явно добавит веселья.
no subject
Date: 2025-09-20 07:54 pm (UTC)Так оно учится рисовать из слов отдельно, из картинок отдельно. И уж точно "не ездило на мотоцикле" )
Если она получит аналог "мелкой моторики" в процессе обучения через задачи на подключенном физ движке, то возможно будет не только "еще одним великим слепцом".
no subject
Date: 2025-09-20 07:59 pm (UTC)Тут фокус в том, что "мелкая моторика" увеличит объёмы обучающих выборок на порядки, что может быть уже технически сложно. Нейросетки же не думают и не изучают предмет аналитически, они классифицируют по заложенным весам и комбинируют результат из того, что есть. Так что если и научатся, то не сегодня и не завтра.
no subject
Date: 2025-09-20 08:11 pm (UTC)НС это аппроксиматор некого манифолда, откуда все эти разговоры о какой то там стохастике я не очень понимаю.
Если исходить что мы даем её длинную историю динамической системы, то по теореме Такенса это будет именно манифолд исходной системы (в пределах наблюдаемости). Манифолд это и есть система. Каким образом сделана его описание и в какую систему координат он уложен совершенно безразлично. Два качественно эквивалентных манифолда описывают одинаковые системы.
Некоторые ограничения может давать "наблюдаемость", которую определяет что за историю мы даем. Вот мелкая моторика более чем хорошая добавка к собственно языку. Восстанавливать через призму языка "геометрическую интуицию" совсем похоже неблагодарное дело. Но дать НС крутить объекты в физическом движке как
отобратьдать конфетку ребенку.no subject
Date: 2025-09-20 09:05 pm (UTC)Стохастика в нейросетях применяется при обучении для того, чтобы "вышибать" решения из локальных экстремумов. Ну и в генеративных НС — для "оживления" результата, чтобы он был больше похож на человеческий.
no subject
Date: 2025-09-21 06:39 am (UTC)Но это не имеет отношение к манифолду аппроксимурующего манифолд системы породившей историю наблюдений которую мы скармливаем НС при обучении. Можно по нему "катать шарик" сколько угодно раз и суммировать траектории которые получаться, но это не имеет никакого отношения к громким заявлениям — "оно просто по вероятности работает". Это беспросветная глупость звучащая в инете.
Манифолд будет настолько же идентичен копируемому насколько простираются причинно-следственные связи "от точки зрения наблюдателя".
А если что то не влияет (не имеет причинно-следственной связи) на наблюдаемую историю системы, то оно (с точки зрения наблюдателя) и является эпифеноменом. Конечно история системы должна быть достаточной длины. Ну вот "мелкая моторика с точки зрения языка" похоже "почти эпифеномен".
Но на самом деле "геометричность мышления" скорее всего крайне важна для построения "правильно дополнительно упорядоченного" эмбендинга, что должно ассоциативную память НС поднять еще ближе к лучшим образцам человеческой копируемой в ходе обучения.
Если что, то датасайенс я занимаюсь со времен, когда оно еще не называлось так. )