to post messages and comments.

Хехе. На хабре очередная статья про перцептрон и распознание образа выбилась в топ. Зато ни разу не встречал статьи про кластеризацию данных (например, сети Кохонена), про ассоциативные запоминающие устройства типа сетей Хопфилда и Хемминга, я не говорю уже про радиальные сети. Неужели хабр настолько не торт, что там восхищаются перцептронами? О_о

Вот тут игра. Нейросеть угадывает персонажа, которого вы загадали, задавая вам вопросы. =) Из двух попыток — одну угадал быстро. А в другой был близок, но видимо я запутал неоднозначностью ответов =)

Чего то сеть Хопфилда рвет мне шаблоны. С одной стороны матрица весов должна быть симметрична. Тогда согласно алгоритму обучения число образов должно быть равно числу нейроннов, так же как и длина вектора образа равна числу нейроннов? Оо

кто нить может мне объяснить? что значит эта долбанная сетка в сетях Кохонена? Это что за представление данных и весов? Это сетка которая представляет собой прямоугольник в области единичной гиперсферы по которым расстягиваются вектора весов нейронов? и еще? какие результаты должна сеть выдавать? отрицательные вообще должны быть или как? Если есть ссылочка на исходнички — буду признателен. а то мозг сломал. в статьях в инете часто показывают эту сетку, в книгах — нет. и никаких оговорок о результатах, и нормировании весов и входных данных практически нет =((((

разбираю пример лабы написанной нашим аспирантом. Не ну конечно что я матерюсь на одногруппников которые ни код не форматируют, ни комментарии не ставят, ничего подобного не делают — ладно. Из них программеров не будет — они за бумажкой пришли в универ и дальше паскаля не ускакали. Но когда смотрю на это изваяние человека умного (действительно знающего) — названия типа Layer, Layer0, gLayer, deltaLayer — просто убивают. комментов нет, и все они используются в инициализации сети... и подобных непонятных имен — около двадцати без комментариев. Вот как в этом можно разобраться — и мало того... исправить баг в программе?

Черт. Объясните мне идиоту. Вот есть алгоритм обучения карты Кохонена WTM (Победитель получает почти все). Там используется тип соседства. Наиболее популярен определения типа соседства по Гауссу. И блять, там гребанная дисперсия является степенью соседства. Но бля как мне найти эту сука дисперсию в отношении нейронной сети? О_о чета мой мозг никак не может допедрить =((((

А кто в курсе, подскажите. Есть самоорганизующаяся сеть Кохонена. Вроде написал алгоритм обучения без учителя "с победителем", а когда останавливать обучение то? и какую функцию можно использовать для понижения времени обучения сети?

обрисую ситуацию. Есть предмет нейронные сети. Сама нейронная сеть может быть реализована на классах, с полными интерфейсами и плюшками, или просто тупо перемножением векторов (нейронная сеть, всего лишь набор векторов весов). Воть. Задача: написать нейронную сеть и обучение с учителем. Препод навел на мысль, что лучше делать чисто векторами, без классов и прочих фишек. Быстрее, удобнее, понятнее. Но вот мозг у меня отказывался принимать это. Сначало решил писать на плюсах классы, потом от лени перешел на питон, а в итоге сдал чужую лабу с одногруппницей (часто с ней сдаем что то, то я напишу, и она со мной сдает, то я от лени сдаю, то что она найдет). Сдал, и совесть чиста. Буквально в пятницу, ко мне обратилась вторая одногруппница, с просьбой помощь. На плюсах программа, и все на векторах. В кабинете шум, контра, разброд, и так далее. Я ночью не спал, а дело к вечеру уже, сидел никакой. И что вы блин думаете — написал ей на плюсах сеть с векторами без классов, за пятнадцать минут, и не заглядывая в конспекты. И вот теперь я сижу и думаю — а почему раньше мне казалось это таким сложным? почему я раньше не смог сделать так? в чем причина?