Khác biệt giữa bản sửa đổi của “Mạng thần kinh hồi quy”

Bách khoa toàn thư mở Wikipedia
Nội dung được xóa Nội dung được thêm vào
Mạng Hopfield
Không có tóm lược sửa đổi
Thẻ: Thêm tập tin Thêm liên kết dưới Liên kết ngoài hoặc Tham khảo Soạn thảo trực quan
Dòng 160: Dòng 160:


=== Mạng Hopfield ===
=== Mạng Hopfield ===
{{Main|Mạng Hopfield}}
{{Main|Mạng Hopfield}}'''''Mạng Hopfield''''' là một RNN trong đó tất cả các kết nối trên các lớp đều có kích thước bằng nhau. Nó yêu cầu các đầu vào [[:en:Stationary_process|cố định]] và do đó không phải là một RNN chung, vì nó không xử lý các chuỗi mẫu. Tuy nhiên, nó đảm bảo rằng nó sẽ hội tụ. Nếu các kết nối được đào tạo bằng cách sử dụng phương pháp [[:en:Hebbian_learning|học tiếng Do Thái]] thì mạng Hopfield có thể hoạt động như một bộ nhớ [[:en:Content-addressable_memory|định địa chỉ nội dung]] [[:en:Robustness_(computer_science)|robust]], chống lại sự thay đổi kết nối.
[[Tập tin:Hopfield-net-vector.svg|nhỏ|Một mạng Hopfield với bốn đơn vị]]

'''''Mạng Hopfield''''' là một RNN trong đó tất cả các kết nối trên các lớp đều có kích thước bằng nhau. Nó yêu cầu các đầu vào [[:en:Stationary_process|cố định]] và do đó không phải là một RNN chung, vì nó không xử lý các chuỗi mẫu. Tuy nhiên, nó đảm bảo rằng nó sẽ hội tụ. Nếu các kết nối được đào tạo bằng cách sử dụng phương pháp [[:en:Hebbian_learning|học tiếng Do Thái]] thì mạng Hopfield có thể hoạt động như một bộ nhớ [[:en:Content-addressable_memory|định địa chỉ nội dung]] [[:en:Robustness_(computer_science)|robust]], chống lại sự thay đổi kết nối.



==== Bộ nhớ kết hợp hai chiều (Bidirectional Associative Memory - BAM) ====
{{Main|Bộ nhớ kết hợp hai chiều}}[[:en:Bidirectional_associative_memory|Mạng bộ nhớ kết hợp hai chiều]] (BAM) là một biến thể của mạng Hopfield lưu trữ dữ liệu kết hợp dưới dạng vectơ. Được giới thiệu bởi Bart Kosko vào năm 1988.<ref>{{Chú thích tạp chí|last=Kosko|first=B.|date=1988|title=Bidirectional associative memories|url=http://dx.doi.org/10.1109/21.87054|journal=IEEE Transactions on Systems, Man, and Cybernetics|volume=18|issue=1|pages=49–60|doi=10.1109/21.87054|issn=0018-9472}}</ref> Tính hai chiều xuất phát từ việc truyền thông tin qua ma trận và [[Ma trận chuyển vị|chuyển vị]] của nó. Thông thường, mã hóa lưỡng cực được ưu tiên hơn so với mã hóa nhị phân của các cặp kết hợp. Gần đây, các mô hình BAM ngẫu nhiên sử dụng bước [[Xích Markov|Markov]] đã được tối ưu hóa để tăng tính ổn định của mạng và mức độ phù hợp với các ứng dụng trong thế giới thực.<ref>{{Chú thích tạp chí|last=Rakkiyappan|first=R.|last2=Chandrasekar|first2=A.|last3=Lakshmanan|first3=S.|last4=Park|first4=Ju H.|date=2015-01-02|title=Exponential stability for markovian jumping stochastic BAM neural networks with mode-dependent probabilistic time-varying delays and impulse control|url=https://onlinelibrary.wiley.com/doi/10.1002/cplx.21503|journal=Complexity|language=en|volume=20|issue=3|pages=39–65|doi=10.1002/cplx.21503}}</ref>Mạng BAM có hai lớp, một trong hai lớp này có thể được điều khiển làm đầu vào để gọi lại liên kết và tạo đầu ra trên lớp kia.<ref>{{Chú thích sách|url=https://books.google.com/books?id=txsjjYzFJS4C&pg=PA336|title=Neural Networks: A Systematic Introduction|last=Rojas|first=Raul|date=1996-07-12|publisher=Springer Science & Business Media|isbn=978-3-540-60505-8|language=en}}</ref>


=== Echo state (ESN) ===
Mạng echo state (ESN) có một lớp ẩn ngẫu nhiên được kết nối thưa. Trọng số của các nơ ron đầu ra là phần duy nhất của mạng có thể thay đổi (được huấn luyện). ESN tái tạo [[chuỗi thời gian]] nhất định rất tốt. Một biến thể cho [[:en:Spiking_neural_network|mạng thần kinh spiking]] được gọi là [[:en:Liquid_state_machine|liquid state machine]].<ref>{{Chú thích tạp chí|last=Maass|first=Wolfgang|last2=Natschläger|first2=Thomas|last3=Markram|first3=Henry|date=2002-11-01|title=Real-Time Computing Without Stable States: A New Framework for Neural Computation Based on Perturbations|url=http://dx.doi.org/10.1162/089976602760407955|journal=Neural Computation|volume=14|issue=11|pages=2531–2560|doi=10.1162/089976602760407955|issn=0899-7667}}</ref>


== Tham khảo ==
== Tham khảo ==

Phiên bản lúc 23:17, ngày 5 tháng 2 năm 2023

Mạng thần kinh hồi quy (hay còn gọi là mạng thần kinh/nơ-ron tái phát, mạng thần kinh tái phát, tiếng Anh: recurrent neural network, viết tắt RNN) là một lớp của mạng thần kinh nhân tạo, nơi kết nối giữa các nút để tạo thành đồ thị có hướng dọc theo một trình tự thời gian. Điều này cho phép mạng thể hiện hành vi động tạm thời. Có nguồn gốc từ mạng thần kinh truyền thẳng, RNN có thể dùng trạng thái trong (bộ nhớ) để xử lý các chuỗi đầu vào có độ dài thay đổi.[1][2][3] Điều này làm cho RNN có thể áp dụng cho các tác vụ như nhận dạng chữ viết tay (handwriting recognition)[4] hay nhận dạng tiếng nói có tính chất kết nối, không phân đoạn.[5][6]

Thông thường, người ta sử dụng thuật ngữ "mạng thần kinh hồi quy" không có tính hệ thống (có phần bừa bãi) nhằm để chỉ hai lớp mạng rộng với một cấu trúc chung giống nhau, cái đầu tiên là lớp mạng đáp ứng xung hữu hạn (finite impulse response) và cái thứ hai là lớp mạng đáp ứng xung vô hạn (infinite impulse response). Cả hai lớp mạng đều thể hiện hệ thống động lực theo thời gian.[7] Mạng hồi quy xung hữu hạn là một đồ thị xoay chiều có hướng (directed acyclic graph) có thể bị mở ra và thay thế bằng một mạng thần kinh truyền thẳng chặt chẽ hơn, trong khi mạng hồi quy xung vô hạn là một đồ thị có hướng mà không thể mở ra (unrolled).

Cả hai mạng hồi quy xung hữu hạn và vô hạn có thể chứa các trạng thái lưu trữ bổ sung, và bộ nhớ có thể được kiểm soát trực tiếp bởi mạng thần kinh. Bộ nhớ cũng có thể được thay thế bằng một mạng hoặc đồ thị khác, nếu kết hợp với thời gian trễ hoặc có vòng lặp phản hồi. Các trạng thái được kiểm soát như vậy được gọi là trạng thái cổng (gated state) hoặc bộ nhớ cổng (gated memory) và là một phần của mạng bộ nhớ dài-ngắn hạn (LSTM) và bộ nhớ định kỳ được kiểm soát. Đây còn được gọi là "mạng thần kinh phản hồi" (Feedback Neural Network, FNN).

Lịch sử phát triển

Mạng thần kinh hồi quy (RNN)

Mạng thần kinh hồi quy dựa trên công trình của David Rumelhart vào năm 1986.[8] Một loại mạng RNN đặc biệt tên Hopfield netowrks được được John Hopfield phát hiện lại vào năm 1982. Năm 1993, một hệ thống nén lịch sử thần kinh đã giải quyết một nhiệm vụ "Học rất sâu" mà yêu cầu hơn 1000 lớp chồng nhau trong RNN được mở ra kịp thời.

Long short-term memory (LSTM)

Bộ nhớ dài-ngắn hạn (LSTM) được phát minh bởi HochreiterSchmidhuber vào năm 1997 và thiết lập các bản ghi chính xác trong nhiều miền ứng dụng.[9]

Khoảng năm 2007, LSTM bắt đầu cách mạng hóa khả năng nhận dạng giọng nói, vượt trội so với các mô hình truyền thống trong một số ứng dụng giọng nói.[10] Vào năm 2009, mạng LSTM được đào tạo bởi Connectionist Temporal Classification (CTC) là RNN đầu tiên giành chiến thắng trong các cuộc thi nhận dạng mẫu khi nó giành chiến thắng trong một số cuộc thi về nhận dạng chữ viết tay được kết nối. Vào năm 2014, công ty Baidu của Trung Quốc đã sử dụng các RNN do CTC đào tạo để vượt qua tiêu chuẩn bộ dữ liệu nhận dạng giọng nói 2S09 Switchboard Hub5'00[11] mà không sử dụng bất kỳ phương pháp xử lý giọng nói truyền thống nào.[12]

LSTM cũng cải thiện khả năng nhận dạng giọng nói với lượng từ vựng lớn[13][14]tổng hợp văn bản thành giọng nói và được sử dụng trong Google Android.[15][16] Vào năm 2015, tính năng nhận dạng giọng nói của Google được báo cáo là đã có bước nhảy vọt đáng kể về hiệu suất 49% thông qua LSTM do CTC đào tạo.[17]

LSTM đã phá kỷ lục về cải tiến dịch máy[18], Mô hình hóa ngôn ngữ (Language Modeling)[19] và Xử lý ngôn ngữ đa ngôn ngữ[20]. LSTM kết hợp với mạng thần kinh tích chập (CNN) đã cải thiện tính năng chú thích hình ảnh tự động.

Gated recurrent unit (GRU)

GRU được phát triển bởi Kyunghyun Cho và Yoshua Bengio năm 2014[21]. So với mạng LSTM (Long Short-Term Memory), GRU có cấu trúc đơn giản và tối ưu hơn, có khả năng giải quyết các vấn đề trong huấn luyện dữ liệu dài và ít phức tạp hơn.[21]

Kiến trúc

Mạng thần kinh hồi quy có nhiều biến thể. Dưới đây là một vài biến thể phổ biến của RNN

Mạng thần kinh hồi quy đầy đủ ( Fully Recurrent)

Mạng thần kinh hồi quy cơ bản được nén (bên trái) và mở ra (bên phải).

Mạng thần kinh hồi quy đầy đủ (FRNN) kết nối đầu ra của tất cả các nơ-ron với đầu vào của tất cả các nơ-ron. Đây là cấu trúc liên kết mạng nơ-ron tổng quát nhất vì tất cả các cấu trúc liên kết khác có thể được biểu diễn bằng cách đặt một số trọng số (weights) kết nối thành 0 để mô phỏng sự thiếu kết nối giữa các nơ-ron đó. Hình minh họa bên phải có thể gây hiểu lầm cho nhiều người vì các cấu trúc liên kết mạng thần kinh thực tế thường được tổ chức thành "layers" chồng nhau và hình vẽ mang lại hình thức của mạng RNN. Tuy nhiên, những gì nhìn có vẻ nh các lớp, trên thực tế, là các thời điểm khác nhau trong timesteps của cùng một mạng thần kinh tái diễn đầy đủ. Phân ngoài cùng bên trái trong hình minh họa hiển thị các kết nối lặp lại dưới dạng cung có nhãn 'v'. Nó được "mở ra" theo từng step tạo ra sự xuất hiện của các lớp.

Trong đó:
  • : Input tại thời điểm
  • : Trạng thái ẩn tại thời điểm
  • : Trạng thái ẩn tại thời điểm
  • : Ma trận trọng số cho các kết nối input-to-hidden
  • : Ma trận trọng số cho các kết nối hidden-to-hidden
  • : Biaes của trạng thái ẩn
  • : Hàm kích hoạt của trạng thái ẩn, thường dùng hàm
Tùy thuộc vào mục đích bài toán và thiết kế mô hình đầu ra của bài toán mà bước tính có thể khác nhau.

Đoạn mã ví dụ về chuyển tiếp cho mạng thần kinh tái phát đầy đủ (RNN) từ đầu bằng cách sử dụng numpy:

import numpy as np

def sigmoid(x):
    return 1 / (1 + np.exp(-x))

def tanh(x):
    return np.tanh(x)

def forward_pass(X, Wx, Wh, b):
     """
    This function implements the forward pass of a fully recurrent neural network (RNN) from scratch using numpy.
    
    Arguments:
    X -- a T by D numpy array representing the input to the RNN, where T is the number of time steps and D is the input size.
    Wx -- a D by H numpy array representing the weights from the input layer to the hidden layer, where H is the hidden size.
    Wh -- a H by H numpy array representing the weights from the hidden layer to the hidden layer.
    b -- a H-dimensional numpy array representing the biases for the hidden layer.
    
    Returns:
    h -- a T by H numpy array representing the hidden states of the RNN after processing the inputs.
    """
    T, D = X.shape
    N, H = Wh.shape
    
    h = np.zeros((T, H))
    h_prev = np.zeros((N, H))
    
    for t in range(T):
        a = X[t].dot(Wx) + h_prev.dot(Wh) + b
        h_prev = np.tanh(a)
        h[t] = h_prev
        
    return h

inputs = np.array([[1, 2, 3],[4, 5, 6],[7, 8, 9]]) # example inputs
Wx = np.random.randn(3, 10) # input to hidden weights
Wh = np.random.randn(10, 10) # hidden to hidden weights
b = np.random.randn(10) # biases

h = forward_pass(inputs, Wx, Wh, b)
print(h)

Trong mã này, các inputs được chuyển qua RNN từng bước một. Trong đó tại mỗi bước, input hiện tại được kết hợp với trạng thái ẩn trước đó, sau đó được chuyển qua hàm kích hoạt tanh để cập nhật trạng thái ẩn hiện tại.

Mạng Elman và mạng Jordan

Mạng Elman

Mạng Elman là mạng ba lớp (được sắp xếp theo chiều ngang là x, yz trong hình minh họa) với việc bổ sung một tập hợp các đơn vị ngữ cảnh (u trong hình minh họa). Lớp ẩn ở giữa kết nối với các đơn vị ngữ cảnh u được cố định với trọng số là một.[22] Tại mỗi time step, đầu vào được đưa về phía trước và quy tắc học tập được áp dụng. Các kết nối ngược cố định lưu một bản sao của các giá trị trước đó của các đơn vị ẩn trong các đơn vị ngữ cảnh u (vì chúng lan truyền qua các kết nối trước khi áp dụng quy tắc học tập). Do đó, mạng có thể duy trì một loại trạng thái, cho phép nó thực hiện các nhiệm vụ như dự đoán chuỗi vượt quá khả năng của một multilayer perceptron tiêu chuẩn.

Mạng Jordan tương tự như mạng Elman. Các đơn vị ngữ cảnh được cung cấp từ lớp đầu ra thay vì lớp ẩn. Các đơn vị ngữ cảnh trong mạng Jordan cũng được gọi là lớp trạng thái. Chúng có một kết nối hồi quy với chính nó.

Mạng ElmanJordan còn được gọi là "Mạng hồi quy đơn giản" (Simple recurrent networks- SRN).

Elman network[22]
Jordan network[23]
Trong đó
  • : vecto đầu vào
  • : vecto lớp ẩn
  • : vecto đầu ra
  • , : các ma trận tham số và vecto bias
  • : Các hàm kích hoạt

Mạng Hopfield

Một mạng Hopfield với bốn đơn vị

Mạng Hopfield là một RNN trong đó tất cả các kết nối trên các lớp đều có kích thước bằng nhau. Nó yêu cầu các đầu vào cố định và do đó không phải là một RNN chung, vì nó không xử lý các chuỗi mẫu. Tuy nhiên, nó đảm bảo rằng nó sẽ hội tụ. Nếu các kết nối được đào tạo bằng cách sử dụng phương pháp học tiếng Do Thái thì mạng Hopfield có thể hoạt động như một bộ nhớ định địa chỉ nội dung robust, chống lại sự thay đổi kết nối.

Bộ nhớ kết hợp hai chiều (Bidirectional Associative Memory - BAM)

Mạng bộ nhớ kết hợp hai chiều (BAM) là một biến thể của mạng Hopfield lưu trữ dữ liệu kết hợp dưới dạng vectơ. Được giới thiệu bởi Bart Kosko vào năm 1988.[24] Tính hai chiều xuất phát từ việc truyền thông tin qua ma trận và chuyển vị của nó. Thông thường, mã hóa lưỡng cực được ưu tiên hơn so với mã hóa nhị phân của các cặp kết hợp. Gần đây, các mô hình BAM ngẫu nhiên sử dụng bước Markov đã được tối ưu hóa để tăng tính ổn định của mạng và mức độ phù hợp với các ứng dụng trong thế giới thực.[25]Mạng BAM có hai lớp, một trong hai lớp này có thể được điều khiển làm đầu vào để gọi lại liên kết và tạo đầu ra trên lớp kia.[26]

Echo state (ESN)

Mạng echo state (ESN) có một lớp ẩn ngẫu nhiên được kết nối thưa. Trọng số của các nơ ron đầu ra là phần duy nhất của mạng có thể thay đổi (được huấn luyện). ESN tái tạo chuỗi thời gian nhất định rất tốt. Một biến thể cho mạng thần kinh spiking được gọi là liquid state machine.[27]

Tham khảo

  1. ^ Dupond, Samuel (2019). “A thorough review on the current advance of neural network structures”. Annual Reviews in Control. 14: 200–230.
  2. ^ Abiodun, Oludare Isaac; Jantan, Aman; Omolara, Abiodun Esther; Dada, Kemi Victoria; Mohamed, Nachaat Abdelatif; Arshad, Humaira (ngày 1 tháng 11 năm 2018). “State-of-the-art in artificial neural network applications: A survey”. Heliyon (bằng tiếng Anh). 4 (11): e00938. doi:10.1016/j.heliyon.2018.e00938. ISSN 2405-8440. PMID 30519653.
  3. ^ Tealab, Ahmed (ngày 1 tháng 12 năm 2018). “Time series forecasting using artificial neural networks methodologies: A systematic review”. Future Computing and Informatics Journal (bằng tiếng Anh). 3 (2): 334–340. doi:10.1016/j.fcij.2018.10.003. ISSN 2314-7288.
  4. ^ Graves, Alex; Liwicki, Marcus; Fernandez, Santiago; Bertolami, Roman; Bunke, Horst; Schmidhuber, Jürgen (2009). “A Novel Connectionist System for Improved Unconstrained Handwriting Recognition” (PDF). IEEE Transactions on Pattern Analysis and Machine Intelligence. 31 (5): 855–868. doi:10.1109/tpami.2008.137.
  5. ^ Sak, Haşim; Senior, Andrew; Beaufays, Françoise (2014). “Long Short-Term Memory recurrent neural network architectures for large scale acoustic modeling” (PDF). Bản gốc (PDF) lưu trữ ngày 22 tháng 9 năm 2019. Truy cập ngày 17 tháng 11 năm 2020.
  6. ^ Li, Xiangang; Wu, Xihong (ngày 15 tháng 10 năm 2014). "Constructing Long Short-Term Memory based Deep Recurrent Neural Networks for Large Vocabulary Speech Recognition". arΧiv:1410.4281 [cs.CL]. 
  7. ^ Miljanovic, Milos (Feb–Mar 2012). “Comparative analysis of Recurrent and Finite Impulse Response Neural Networks in Time Series Prediction” (PDF). Indian Journal of Computer and Engineering. 3 (1).Quản lý CS1: định dạng ngày tháng (liên kết)
  8. ^ Rumelhart, David E.; Hinton, Geoffrey E.; Williams, Ronald J. (tháng 10 năm 1986). “Learning representations by back-propagating errors”. Nature. 323 (6088): 533–536. doi:10.1038/323533a0. ISSN 0028-0836.
  9. ^ Hochreiter, Sepp; Schmidhuber, Jürgen (1 tháng 11 năm 1997). “Long Short-Term Memory”. Neural Computation. 9 (8): 1735–1780. doi:10.1162/neco.1997.9.8.1735. ISSN 0899-7667.
  10. ^ Fernández, Santiago; Graves, Alex; Schmidhuber, Jürgen (9 tháng 9 năm 2007). “An application of recurrent neural networks to discriminative keyword spotting”. Proceedings of the 17th international conference on Artificial neural networks. ICANN'07. Berlin, Heidelberg: Springer-Verlag: 220–229. doi:10.5555/1778066.1778092 Kiểm tra giá trị |doi= (trợ giúp). ISBN 978-3-540-74693-5.
  11. ^ “Papers with Code - Hub5'00 SwitchBoard Benchmark (Speech Recognition)”. paperswithcode.com (bằng tiếng Anh). Truy cập ngày 5 tháng 2 năm 2023.
  12. ^ Hannun, Awni; Case, Carl; Casper, Jared; Catanzaro, Bryan; Diamos, Greg; Elsen, Erich; Prenger, Ryan; Satheesh, Sanjeev; Sengupta, Shubho (19 tháng 12 năm 2014). “Deep Speech: Scaling up end-to-end speech recognition”. arXiv:1412.5567 [cs].
  13. ^ Sak, Haşim; Senior, Andrew; Beaufays, Françoise (14 tháng 9 năm 2014). “Long short-term memory recurrent neural network architectures for large scale acoustic modeling”. Interspeech 2014. ISCA: ISCA. doi:10.21437/interspeech.2014-80.
  14. ^ Li, Xiangang; Wu, Xihong (10 tháng 5 năm 2015). “Constructing Long Short-Term Memory based Deep Recurrent Neural Networks for Large Vocabulary Speech Recognition”. arXiv:1410.4281 [cs].
  15. ^ Schmidhuber, Jürgen (tháng 1 năm 2015). “Deep learning in neural networks: An overview”. Neural Networks. 61: 85–117. doi:10.1016/j.neunet.2014.09.003. ISSN 0893-6080.
  16. ^ Zen, Heiga; Sak, Hasim (tháng 4 năm 2015). “Unidirectional long short-term memory recurrent neural network with recurrent output layer for low-latency speech synthesis”. 2015 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). IEEE. doi:10.1109/icassp.2015.7178816.
  17. ^ Sak, Haşim; Senior, Andrew; Rao, Kanishka; Beaufays, Françoise (6 tháng 9 năm 2015). “Fast and accurate recurrent neural network acoustic models for speech recognition”. Interspeech 2015. ISCA: ISCA. doi:10.21437/interspeech.2015-350.
  18. ^ V., Sutskever, Ilya Vinyals, Oriol Le, Quoc (10 tháng 9 năm 2014). Sequence to Sequence Learning with Neural Networks. OCLC 1106206767.
  19. ^ Jozefowicz, Rafal; Vinyals, Oriol; Schuster, Mike; Shazeer, Noam; Wu, Yonghui (11 tháng 2 năm 2016). “Exploring the Limits of Language Modeling”. arXiv:1602.02410 [cs].
  20. ^ Gillick, Dan; Brunk, Cliff; Vinyals, Oriol; Subramanya, Amarnag (2 tháng 4 năm 2016). “Multilingual Language Processing From Bytes”. arXiv:1512.00103 [cs].
  21. ^ a b Cho, Kyunghyun; van Merrienboer, Bart; Bahdanau, Dzmitry; Bengio, Yoshua (7 tháng 10 năm 2014). “On the Properties of Neural Machine Translation: Encoder-Decoder Approaches”. arXiv:1409.1259 [cs, stat].
  22. ^ a b Elman, Jeffrey L. (1990). “Finding Structure in Time”. Cognitive Science. 14 (2): 179–211. doi:10.1016/0364-0213(90)90002-E.
  23. ^ Jordan, Michael I. (1 tháng 1 năm 1997). “Serial Order: A Parallel Distributed Processing Approach”. Neural-Network Models of Cognition - Biobehavioral Foundations. Advances in Psychology. Neural-Network Models of Cognition. 121. tr. 471–495. doi:10.1016/s0166-4115(97)80111-2. ISBN 9780444819314.
  24. ^ Kosko, B. (1988). “Bidirectional associative memories”. IEEE Transactions on Systems, Man, and Cybernetics. 18 (1): 49–60. doi:10.1109/21.87054. ISSN 0018-9472.
  25. ^ Rakkiyappan, R.; Chandrasekar, A.; Lakshmanan, S.; Park, Ju H. (2 tháng 1 năm 2015). “Exponential stability for markovian jumping stochastic BAM neural networks with mode-dependent probabilistic time-varying delays and impulse control”. Complexity (bằng tiếng Anh). 20 (3): 39–65. doi:10.1002/cplx.21503.
  26. ^ Rojas, Raul (12 tháng 7 năm 1996). Neural Networks: A Systematic Introduction (bằng tiếng Anh). Springer Science & Business Media. ISBN 978-3-540-60505-8.
  27. ^ Maass, Wolfgang; Natschläger, Thomas; Markram, Henry (1 tháng 11 năm 2002). “Real-Time Computing Without Stable States: A New Framework for Neural Computation Based on Perturbations”. Neural Computation. 14 (11): 2531–2560. doi:10.1162/089976602760407955. ISSN 0899-7667.

Đọc thêm

  • Mandic, Danilo P. & Chambers, Jonathon A. (2001). Recurrent Neural Networks for Prediction: Learning Algorithms, Architectures and Stability. Wiley. ISBN 978-0-471-49517-8.

Liên kết ngoài