![[personal profile]](https://www.dreamwidth.org/img/silk/identity/user.png)
I recently found a very cool short paper (4 pages) which Dennis Gabor written 40 years ago.
It explains the math of associative holographic memory, which turns out to be very simple.
Because it is that simple, neither holograms, nor even waves and oscillations, are actually necessary to implement this scheme of associative memory.
D. Gabor, Associative Holographic Memories, IBM Journal of Research and Development, 13(2), 156-159 (1969). Abstract, PDF
It explains the math of associative holographic memory, which turns out to be very simple.
Because it is that simple, neither holograms, nor even waves and oscillations, are actually necessary to implement this scheme of associative memory.
D. Gabor, Associative Holographic Memories, IBM Journal of Research and Development, 13(2), 156-159 (1969). Abstract, PDF
no subject
Date: 2009-04-05 12:57 am (UTC)E.Domany, J.L. Van Hemmen, K.Schulten (eds.) 1991-92 (есть в джвю)
"Models of Neural Networks" Vol.1 ("Physics of Neural Networks")
J.Hertz, A.Krogh, R.Palmer "Introduction to the Theory of Neural Computation" (1991)
or smth here:
B.Müller, J.Reinhardt, M.T.Strickland (1995) "Neural networks: an introduction"
http://books.google.de/books?id=EFUzMYjOXk8C
no subject
Date: 2009-04-05 03:21 pm (UTC)Интуитивно кажется, что это обстоятельство должно сильно увеличивать объём памяти, который можно реализовать на том же субстрате. Мне хотелось бы проверить, правильная ли это интуиция..
no subject
Date: 2009-04-05 05:42 pm (UTC)http://www.princeton.edu/~wbialek/rome/refs/barlow_59.pdf
H.B. Barlow "Unsupervised learning" (1989)
P. Foldiak "Adaptive Network for Optimal Linear Feature Extraction" (1989)
R. Linsker "Self-Organization in a Perceptual Network" (1988)
J.-P. Nadal, N.Parga "Nonlinear neurons in the low-noise limit: a factorial code maximizes information transfer" (1994)
A. N. Redlich "Redundancy reduction as a strategy for unsupervised learning" (1993)
and see also works of Gustavo Deco 1993-1996.
Bсюду речь идет как раз о необходимой сильной избыточности (capacity >> data length), но при этом, minimal description length для каждого отдельного представления экземпляра данных.
Что касается вариаций объема памяти с увеличением вариаций параметров (например, для сетей типа Хопфилда, где связи учатся, но пороги отдельных нейронов сильно разбросаны и разброс фиксирован навсегда), то, кажется, это изучалось самим Хопфилдом (и м.б. K.Schulten?) - но точно не помню.
no subject
Date: 2009-04-06 07:21 pm (UTC)no subject
Date: 2009-04-06 10:51 pm (UTC)no subject
Date: 2009-04-07 08:02 pm (UTC)Надо сказать, что мне кажется, что оценки количества steady states или limit cycles, в духе статьи Вильсона и Кована -- это не совсем то, что нужно. Мне кажется, что это скорее оценка того, какие могут быть разные состояния нервной системы -- и просто из интроспекции разнообразных неподвижных визуальных картинок, вроде бы, следует практически неограниченная ёмкость в этом смысле (хотя адекватность steady states и даже limit cycles даже для "неподвижных" картинок не очевидна). Но так много состояний там из-за параметризации внешним входом..
Меня, скорее, интересует это всё для долговременной памяти.. И я не уверен, что правильно думать в терминах того, сколько есть аттракторов в системе.. Некоторый cross-talk есть, поэтому, собственно, память и ассоциативна, надо как-то его принять во внимание..
no subject
Date: 2009-04-08 09:44 pm (UTC)no subject
Date: 2009-04-08 11:27 pm (UTC)