Чтобы добавлять сообщения и комментарии, .

@13oz:
13oz

жуйк, как ты думаешь — на сколько дурацкая идея допускать возможность искажения сигнала в нейронной сети при передаче по синапсу?

@demiazz:
demiazz

Хехе. На хабре очередная статья про перцептрон и распознание образа выбилась в топ. Зато ни разу не встречал статьи про кластеризацию данных (например, сети Кохонена), про ассоциативные запоминающие устройства типа сетей Хопфилда и Хемминга, я не говорю уже про радиальные сети. Неужели хабр настолько не торт, что там восхищаются перцептронами? О_о

@demiazz:
demiazz

Нейронные сети съедают мой мозг. Однако это отличный тренажер для мозгов, который заставляет думать, хочешь того или нет. Да и в общем то полезный.

@demiazz:
demiazz

черт.. две недели безрезультатных биений. и пара часов на переписывание с нуля, с достижением отличного ожидаемого результата. я точно идиот >_<

@demiazz:
demiazz

Сука... ну почему я такой слоу =((( недели две пытался въехать в сеть Хэмминга, чтобы потом взять книжку Осовского и въехать в них гораздо более....

@demiazz:
demiazz

Вот тут игра. Нейросеть угадывает персонажа, которого вы загадали, задавая вам вопросы. =) Из двух попыток — одну угадал быстро. А в другой был близок, но видимо я запутал неоднозначностью ответов =)

@demiazz:
demiazz

Народ. А кто нить MathLab пользуется? Там есть вариант выдрать код нейронной сети Хемминга из библиотеки? А то статей хрен найдешь, все разнятся и по крупицам не поймешь, что там и куда лепить собственно =(

@demiazz:
demiazz

Чего то сеть Хопфилда рвет мне шаблоны. С одной стороны матрица весов должна быть симметрична. Тогда согласно алгоритму обучения число образов должно быть равно числу нейроннов, так же как и длина вектора образа равна числу нейроннов? Оо

@demiazz:
demiazz

Реквестирую статью с удообным и простым изложение принципов организации Сети Хопфилда, и простым изложением алгоритма обучения и асинхронного режима работы сети

@demiazz:
demiazz

кто нить может мне объяснить? что значит эта долбанная сетка в сетях Кохонена? Это что за представление данных и весов? Это сетка которая представляет собой прямоугольник в области единичной гиперсферы по которым расстягиваются вектора весов нейронов? и еще? какие результаты должна сеть выдавать? отрицательные вообще должны быть или как? Если есть ссылочка на исходнички — буду признателен. а то мозг сломал. в статьях в инете часто показывают эту сетку, в книгах — нет. и никаких оговорок о результатах, и нормировании весов и входных данных практически нет =((((

@demiazz:
demiazz

разбираю пример лабы написанной нашим аспирантом. Не ну конечно что я матерюсь на одногруппников которые ни код не форматируют, ни комментарии не ставят, ничего подобного не делают — ладно. Из них программеров не будет — они за бумажкой пришли в универ и дальше паскаля не ускакали. Но когда смотрю на это изваяние человека умного (действительно знающего) — названия типа Layer, Layer0, gLayer, deltaLayer — просто убивают. комментов нет, и все они используются в инициализации сети... и подобных непонятных имен — около двадцати без комментариев. Вот как в этом можно разобраться — и мало того... исправить баг в программе?

@demiazz:
demiazz

я чего то не догоню. А онлайн-обучение и пакетное обучение вообще применяется к картам Кохонена? Или это касается сугубо обучения с учителем? О.о у меня кажется крыша над мозгами протекает и вот вот прорвет

@demiazz:
demiazz

у меня в голове сейчас взорвется ядерная бомба от обучения О.о на питоне с его сахаром для списков и прочих вещей взрыв мозга. Что же было бы на си или плюсах с их более низким уровнем? О.о

@demiazz:
demiazz

Черт. Объясните мне идиоту. Вот есть алгоритм обучения карты Кохонена WTM (Победитель получает почти все). Там используется тип соседства. Наиболее популярен определения типа соседства по Гауссу. И блять, там гребанная дисперсия является степенью соседства. Но бля как мне найти эту сука дисперсию в отношении нейронной сети? О_о чета мой мозг никак не может допедрить =((((

@demiazz:
demiazz

А кто в курсе, подскажите. Есть самоорганизующаяся сеть Кохонена. Вроде написал алгоритм обучения без учителя "с победителем", а когда останавливать обучение то? и какую функцию можно использовать для понижения времени обучения сети?

@demiazz:
demiazz

обрисую ситуацию. Есть предмет нейронные сети. Сама нейронная сеть может быть реализована на классах, с полными интерфейсами и плюшками, или просто тупо перемножением векторов (нейронная сеть, всего лишь набор векторов весов). Воть. Задача: написать нейронную сеть и обучение с учителем. Препод навел на мысль, что лучше делать чисто векторами, без классов и прочих фишек. Быстрее, удобнее, понятнее. Но вот мозг у меня отказывался принимать это. Сначало решил писать на плюсах классы, потом от лени перешел на питон, а в итоге сдал чужую лабу с одногруппницей (часто с ней сдаем что то, то я напишу, и она со мной сдает, то я от лени сдаю, то что она найдет). Сдал, и совесть чиста. Буквально в пятницу, ко мне обратилась вторая одногруппница, с просьбой помощь. На плюсах программа, и все на векторах. В кабинете шум, контра, разброд, и так далее. Я ночью не спал, а дело к вечеру уже, сидел никакой. И что вы блин думаете — написал ей на плюсах сеть с векторами без классов, за пятнадцать минут, и не заглядывая в конспекты. И вот теперь я сижу и думаю — а почему раньше мне казалось это таким сложным? почему я раньше не смог сделать так? в чем причина?

@demiazz:
demiazz

Черт. Писать нейронную сеть под транс и на питоне с использованием обратных связей и так далее.... Это конечно писец....

@demiazz:
demiazz

черт. Как то я в них не въеду. Как построить знаю. А вот как анализировать выход сети при анализе изображения, что то никак SCRATCH Бля

@bab1n:
bab1n

Как вам?