Mạng thần kinh hồi quy
Một phần của loạt bài về |
Học máy và khai phá dữ liệu |
---|
Mạng thần kinh hồi quy (hay còn gọi là mạng thần kinh/nơ-ron tái phát, mạng thần kinh tái phát, tiếng Anh: recurrent neural network, viết tắt RNN) là một lớp của mạng thần kinh nhân tạo, nơi kết nối giữa các nút để tạo thành đồ thị có hướng dọc theo một trình tự thời gian. Điều này cho phép mạng thể hiện hành vi động tạm thời. Có nguồn gốc từ mạng thần kinh truyền thẳng, RNN có thể dùng trạng thái trong (bộ nhớ) để xử lý các chuỗi đầu vào có độ dài thay đổi.[1][2][3] Điều này làm cho RNN có thể áp dụng cho các tác vụ như nhận dạng chữ viết tay (handwriting recognition)[4] hay nhận dạng tiếng nói có tính chất kết nối, không phân đoạn.[5][6]
Thông thường, người ta sử dụng thuật ngữ "mạng thần kinh hồi quy" không có tính hệ thống (có phần bừa bãi) nhằm để chỉ hai lớp mạng rộng với một cấu trúc chung giống nhau, cái đầu tiên là lớp mạng đáp ứng xung hữu hạn (finite impulse response) và cái thứ hai là lớp mạng đáp ứng xung vô hạn (infinite impulse response). Cả hai lớp mạng đều thể hiện hệ thống động lực theo thời gian.[7] Mạng hồi quy xung hữu hạn là một đồ thị xoay chiều có hướng (directed acyclic graph) có thể bị mở ra và thay thế bằng một mạng thần kinh truyền thẳng chặt chẽ hơn, trong khi mạng hồi quy xung vô hạn là một đồ thị có hướng mà không thể mở ra (unrolled).
Cả hai mạng hồi quy xung hữu hạn và vô hạn có thể chứa các trạng thái lưu trữ bổ sung, và bộ nhớ có thể được kiểm soát trực tiếp bởi mạng thần kinh. Bộ nhớ cũng có thể được thay thế bằng một mạng hoặc đồ thị khác, nếu kết hợp với thời gian trễ hoặc có vòng lặp phản hồi. Các trạng thái được kiểm soát như vậy được gọi là trạng thái cổng (gated state) hoặc bộ nhớ cổng (gated memory) và là một phần của mạng bộ nhớ dài-ngắn hạn (LSTM) và bộ nhớ định kỳ được kiểm soát. Đây còn được gọi là "mạng thần kinh phản hồi" (Feedback Neural Network, FNN).
Lịch sử phát triển
[sửa | sửa mã nguồn]Mạng thần kinh hồi quy (RNN)
[sửa | sửa mã nguồn]Mạng thần kinh hồi quy dựa trên công trình của David Rumelhart vào năm 1986.[8] Một loại mạng RNN đặc biệt tên Hopfield netowrks được được John Hopfield phát hiện lại vào năm 1982. Năm 1993, một hệ thống nén lịch sử thần kinh đã giải quyết một nhiệm vụ "Học rất sâu" mà yêu cầu hơn 1000 lớp chồng nhau trong RNN được mở ra kịp thời.
Long short-term memory (LSTM)
[sửa | sửa mã nguồn]Bộ nhớ dài-ngắn hạn (LSTM) được phát minh bởi Hochreiter và Schmidhuber vào năm 1997 và thiết lập các bản ghi chính xác trong nhiều miền ứng dụng.[9]
Khoảng năm 2007, LSTM bắt đầu cách mạng hóa khả năng nhận dạng giọng nói, vượt trội so với các mô hình truyền thống trong một số ứng dụng giọng nói.[10] Vào năm 2009, mạng LSTM được đào tạo bởi Connectionist Temporal Classification (CTC) là RNN đầu tiên giành chiến thắng trong các cuộc thi nhận dạng mẫu khi nó giành chiến thắng trong một số cuộc thi về nhận dạng chữ viết tay được kết nối. Vào năm 2014, công ty Baidu của Trung Quốc đã sử dụng các RNN do CTC đào tạo để vượt qua tiêu chuẩn bộ dữ liệu nhận dạng giọng nói 2S09 Switchboard Hub5'00[11] mà không sử dụng bất kỳ phương pháp xử lý giọng nói truyền thống nào.[12]
LSTM cũng cải thiện khả năng nhận dạng giọng nói với lượng từ vựng lớn[13][14] và tổng hợp văn bản thành giọng nói và được sử dụng trong Google Android.[15][16] Vào năm 2015, tính năng nhận dạng giọng nói của Google được báo cáo là đã có bước nhảy vọt đáng kể về hiệu suất 49% thông qua LSTM do CTC đào tạo.[17]
LSTM đã phá kỷ lục về cải tiến dịch máy[18], Mô hình hóa ngôn ngữ (Language Modeling)[19] và Xử lý ngôn ngữ đa ngôn ngữ[20]. LSTM kết hợp với mạng thần kinh tích chập (CNN) đã cải thiện tính năng chú thích hình ảnh tự động.
Gated recurrent unit (GRU)
[sửa | sửa mã nguồn]GRU được phát triển bởi Kyunghyun Cho và Yoshua Bengio năm 2014[21]. So với mạng LSTM (Long Short-Term Memory), GRU có cấu trúc đơn giản và tối ưu hơn, có khả năng giải quyết các vấn đề trong huấn luyện dữ liệu dài và ít phức tạp hơn.[21]
Kiến trúc
[sửa | sửa mã nguồn]Mạng thần kinh hồi quy có nhiều biến thể. Dưới đây là một vài biến thể phổ biến của RNN
Mạng thần kinh hồi quy đầy đủ (Fully Recurrent)
[sửa | sửa mã nguồn]Mạng thần kinh hồi quy đầy đủ (FRNN) kết nối đầu ra của tất cả các nơ-ron với đầu vào của tất cả các nơ-ron. Đây là cấu trúc liên kết mạng nơ-ron tổng quát nhất vì tất cả các cấu trúc liên kết khác có thể được biểu diễn bằng cách đặt một số trọng số (weights) kết nối thành 0 để mô phỏng sự thiếu kết nối giữa các nơ-ron đó. Hình minh họa bên phải có thể gây hiểu lầm cho nhiều người vì các cấu trúc liên kết mạng thần kinh thực tế thường được tổ chức thành "layers" chồng nhau và hình vẽ mang lại hình thức của mạng RNN. Tuy nhiên, những gì nhìn có vẻ nh các lớp, trên thực tế, là các thời điểm khác nhau trong timesteps của cùng một mạng thần kinh tái diễn đầy đủ. Phân ngoài cùng bên trái trong hình minh họa hiển thị các kết nối lặp lại dưới dạng cung có nhãn 'v'. Nó được "mở ra" theo từng step tạo ra sự xuất hiện của các lớp.
- Trong đó:
- : Input tại thời điểm
- : Trạng thái ẩn tại thời điểm
- : Trạng thái ẩn tại thời điểm
- : Ma trận trọng số cho các kết nối input-to-hidden
- : Ma trận trọng số cho các kết nối hidden-to-hidden
- : Biaes của trạng thái ẩn
- : Hàm kích hoạt của trạng thái ẩn, thường dùng hàm
- Tùy thuộc vào mục đích bài toán và thiết kế mô hình đầu ra của bài toán mà bước tính vecto đầu ra có thể khác nhau.
Đoạn mã ví dụ về chuyển tiếp cho mạng thần kinh tái phát đầy đủ (RNN) từ đầu bằng cách sử dụng numpy:
import numpy as np
def sigmoid(x):
return 1 / (1 + np.exp(-x))
def tanh(x):
return np.tanh(x)
def forward_pass(X, Wx, Wh, b):
"""
This function implements the forward pass of a fully recurrent neural network (RNN) from scratch using numpy.
Arguments:
X -- a T by D numpy array representing the input to the RNN, where T is the number of time steps and D is the input size.
Wx -- a D by H numpy array representing the weights from the input layer to the hidden layer, where H is the hidden size.
Wh -- a H by H numpy array representing the weights from the hidden layer to the hidden layer.
b -- a H-dimensional numpy array representing the biases for the hidden layer.
Returns:
h -- a T by H numpy array representing the hidden states of the RNN after processing the inputs.
"""
T, D = X.shape
N, H = Wh.shape
h = np.zeros((T, H))
h_prev = np.zeros((N, H))
for t in range(T):
a = X[t].dot(Wx) + h_prev.dot(Wh) + b
h_prev = np.tanh(a)
h[t] = h_prev
return h
inputs = np.array([[1, 2, 3],[4, 5, 6],[7, 8, 9]]) # example inputs
Wx = np.random.randn(3, 10) # input to hidden weights
Wh = np.random.randn(10, 10) # hidden to hidden weights
b = np.random.randn(10) # biases
h = forward_pass(inputs, Wx, Wh, b)
print(h)
Trong mã này, các inputs được chuyển qua RNN từng bước một. Trong đó tại mỗi bước, input hiện tại được kết hợp với trạng thái ẩn trước đó, sau đó được chuyển qua hàm kích hoạt tanh để cập nhật trạng thái ẩn hiện tại.
Mạng Elman và mạng Jordan
[sửa | sửa mã nguồn]Mạng Elman là mạng ba lớp (được sắp xếp theo chiều ngang là x, y và z trong hình minh họa) với việc bổ sung một tập hợp các đơn vị ngữ cảnh (u trong hình minh họa). Lớp ẩn ở giữa kết nối với các đơn vị ngữ cảnh u được cố định với trọng số là một.[22] Tại mỗi time step, đầu vào được đưa về phía trước và quy tắc học tập được áp dụng. Các kết nối ngược cố định lưu một bản sao của các giá trị trước đó của các đơn vị ẩn trong các đơn vị ngữ cảnh u (vì chúng lan truyền qua các kết nối trước khi áp dụng quy tắc học tập). Do đó, mạng có thể duy trì một loại trạng thái, cho phép nó thực hiện các nhiệm vụ như dự đoán chuỗi vượt quá khả năng của một multilayer perceptron tiêu chuẩn.
Mạng Jordan tương tự như mạng Elman. Các đơn vị ngữ cảnh được cung cấp từ lớp đầu ra thay vì lớp ẩn. Các đơn vị ngữ cảnh trong mạng Jordan cũng được gọi là lớp trạng thái. Chúng có một kết nối hồi quy với chính nó.
Mạng Elman và Jordan còn được gọi là "Mạng hồi quy đơn giản" (Simple recurrent networks- SRN).
- Elman network[22]
- Jordan network[23]
- Trong đó
- : vecto đầu vào
- : vecto lớp ẩn
- : vecto đầu ra
- , và : cSN) có một lớp ẩn ngẫu nhiên được kết nối thưa.ác ma trận tham số và vecto bias
- và : Các hàm kích hoạt
Mạng Hopfield
[sửa | sửa mã nguồn]Mạng Hopfield là một RNN trong đó tất cả các kết nối trên các lớp đều có kích thước bằng nhau. Nó yêu cầu các đầu vào cố định và do đó không phải là một RNN chung, vì nó không xử lý các chuỗi mẫu. Tuy nhiên, nó đảm bảo rằng nó sẽ hội tụ. Nếu các kết nối được đào tạo bằng cách sử dụng phương pháp học tiếng Do Thái thì mạng Hopfield có thể hoạt động như một bộ nhớ định địa chỉ nội dung robust, chống lại sự thay đổi kết nối.
Bộ nhớ kết hợp hai chiều (Bidirectional Associative Memory - BAM)
[sửa | sửa mã nguồn]Mạng bộ nhớ kết hợp hai chiều (BAM) là một biến thể của mạng Hopfield lưu trữ dữ liệu kết hợp dưới dạng vectơ. Được giới thiệu bởi Bart Kosko vào năm 1988.[24] Tính hai chiều xuất phát từ việc truyền thông tin qua ma trận và chuyển vị của nó. Thông thường, mã hóa lưỡng cực được ưu tiên hơn so với mã hóa nhị phân của các cặp kết hợp. Gần đây, các mô hình BAM ngẫu nhiên sử dụng bước Markov đã được tối ưu hóa để tăng tính ổn định của mạng và mức độ phù hợp với các ứng dụng trong thế giới thực.[25] Mạng BAM có hai lớp, một trong hai lớp này có thể được điều khiển làm đầu vào để gọi lại liên kết và tạo đầu ra trên lớp kia.[26]
Echo state (ESN)
[sửa | sửa mã nguồn]Mạng echo state (ESN) có một lớp ẩn ngẫu nhiên được kết nối thưa. Trọng số của các nơ ron đầu ra là phần duy nhất của mạng có thể thay đổi (được huấn luyện). ESN tái tạo chuỗi thời gian nhất định rất tốt. Một biến thể cho mạng thần kinh spiking được gọi là liquid state machine.[27]
Mạng thần kinh hồi quy độc lập (Independently RNN - IndRNN)
[sửa | sửa mã nguồn]Mạng thần kinh hồi quy độc lập (IndRNN) giải quyết các vấn đề biến mất (vanishing) và bùng nổ(exploding) gradient trong RNN được kết nối đầy đủ truyền thống. [28] Mỗi nơ-ron trong một lớp chỉ nhận trạng thái quá khứ của chính nó dưới dạng thông tin ngữ cảnh (thay vì kết nối đầy đủ với tất cả các nơ-ron khác trong lớp này) và do đó, các nơ-ron độc lập với lịch sử của nhau. Lan truyền ngược gradient có thể được điều chỉnh để tránh hiện tượng vanishing và exploding gradient nhằm duy trì bộ nhớ dài hạn hoặc ngắn hạn. Thông tin về nơ-ron chéo được khám phá trong các lớp tiếp theo. IndRNN có thể được đào tạo mạnh mẽ với các hàm phi tuyến tính không bão hòa như ReLU. Sử dụng kết nối bỏ qua (skip connection), mạng sâu có thể được đào tạo.
Mạng thần kinh đệ quy (Recursive neural network)
[sửa | sửa mã nguồn]Mạng thần kinh đệ quy[29] được tạo bằng cách áp dụng đệ quy cùng một tập trọng số trên một cấu trúc giống như đồ thị khả vi bằng cách duyệt qua cấu trúc theo sắp xếp tô pô. Các mạng như vậy thường cũng được đào tạo theo chế độ đạo hàm tự động.[30][31] Chúng có thể xử lý các biểu diễn phân bố của cấu trúc, chẳng hạn như các logic toán học. Một trường hợp đặc biệt của mạng thần kinh đệ quy là RNN có cấu trúc tương ứng với một chuỗi tuyến tính. Mạng thần kinh đệ quy đã được áp dụng để xử lý ngôn ngữ tự nhiên.[32] Mạng Tenor thần kinh đệ quy sử dụng hàm tổng hợp dựa trên tensor cho tất cả các nút trong cây.[33]
Neural history compressor
[sửa | sửa mã nguồn]Trình nén lịch sử thần kinh là một chồng RNN không được giám sát. Ở cấp độ đầu vào, nó học cách dự đoán đầu vào tiếp theo từ các đầu vào trước đó. Chỉ những đầu vào không thể đoán trước của một số RNN trong hệ thống phân cấp mới trở thành đầu vào cho RNN cấp cao hơn tiếp theo, do đó hiếm khi tính toán lại trạng thái bên trong của nó. Do đó, mỗi RNN cấp cao hơn nghiên cứu một biểu diễn nén của thông tin trong RNN bên dưới. Điều này được thực hiện sao cho chuỗi đầu vào có thể được tái tạo chính xác từ biểu diễn ở mức cao nhất.
Tham khảo
[sửa | sửa mã nguồn]- ^ Dupond, Samuel (2019). “A thorough review on the current advance of neural network structures”. Annual Reviews in Control. 14: 200–230.
- ^ Abiodun, Oludare Isaac; Jantan, Aman; Omolara, Abiodun Esther; Dada, Kemi Victoria; Mohamed, Nachaat Abdelatif; Arshad, Humaira (ngày 1 tháng 11 năm 2018). “State-of-the-art in artificial neural network applications: A survey”. Heliyon (bằng tiếng Anh). 4 (11): e00938. doi:10.1016/j.heliyon.2018.e00938. ISSN 2405-8440. PMID 30519653.
- ^ Tealab, Ahmed (ngày 1 tháng 12 năm 2018). “Time series forecasting using artificial neural networks methodologies: A systematic review”. Future Computing and Informatics Journal (bằng tiếng Anh). 3 (2): 334–340. doi:10.1016/j.fcij.2018.10.003. ISSN 2314-7288.
- ^ Graves, Alex; Liwicki, Marcus; Fernandez, Santiago; Bertolami, Roman; Bunke, Horst; Schmidhuber, Jürgen (2009). “A Novel Connectionist System for Improved Unconstrained Handwriting Recognition” (PDF). IEEE Transactions on Pattern Analysis and Machine Intelligence. 31 (5): 855–868. doi:10.1109/tpami.2008.137.
- ^ Sak, Haşim; Senior, Andrew; Beaufays, Françoise (2014). “Long Short-Term Memory recurrent neural network architectures for large scale acoustic modeling” (PDF). Bản gốc (PDF) lưu trữ ngày 22 tháng 9 năm 2019. Truy cập ngày 17 tháng 11 năm 2020.
- ^ Li, Xiangang; Wu, Xihong (ngày 15 tháng 10 năm 2014). "Constructing Long Short-Term Memory based Deep Recurrent Neural Networks for Large Vocabulary Speech Recognition". arΧiv:1410.4281 [cs.CL].
- ^ Miljanovic, Milos (Feb–Mar 2012). “Comparative analysis of Recurrent and Finite Impulse Response Neural Networks in Time Series Prediction” (PDF). Indian Journal of Computer and Engineering. 3 (1).Quản lý CS1: định dạng ngày tháng (liên kết)
- ^ Rumelhart, David E.; Hinton, Geoffrey E.; Williams, Ronald J. (tháng 10 năm 1986). “Learning representations by back-propagating errors”. Nature. 323 (6088): 533–536. doi:10.1038/323533a0. ISSN 0028-0836.
- ^ Hochreiter, Sepp; Schmidhuber, Jürgen (ngày 1 tháng 11 năm 1997). “Long Short-Term Memory”. Neural Computation. 9 (8): 1735–1780. doi:10.1162/neco.1997.9.8.1735. ISSN 0899-7667.
- ^ Fernández, Santiago; Graves, Alex; Schmidhuber, Jürgen (ngày 9 tháng 9 năm 2007). “An application of recurrent neural networks to discriminative keyword spotting”. Proceedings of the 17th international conference on Artificial neural networks. ICANN'07. Berlin, Heidelberg: Springer-Verlag: 220–229. ISBN 978-3-540-74693-5.
- ^ “Papers with Code - Hub5'00 SwitchBoard Benchmark (Speech Recognition)”. paperswithcode.com (bằng tiếng Anh). Truy cập ngày 5 tháng 2 năm 2023.
- ^ Hannun, Awni; Case, Carl; Casper, Jared; Catanzaro, Bryan; Diamos, Greg; Elsen, Erich; Prenger, Ryan; Satheesh, Sanjeev; Sengupta, Shubho (ngày 19 tháng 12 năm 2014). “Deep Speech: Scaling up end-to-end speech recognition”. arXiv:1412.5567 [cs].
- ^ Sak, Haşim; Senior, Andrew; Beaufays, Françoise (ngày 14 tháng 9 năm 2014). “Long short-term memory recurrent neural network architectures for large scale acoustic modeling”. Interspeech 2014. ISCA: ISCA. doi:10.21437/interspeech.2014-80.
- ^ Li, Xiangang; Wu, Xihong (ngày 10 tháng 5 năm 2015). “Constructing Long Short-Term Memory based Deep Recurrent Neural Networks for Large Vocabulary Speech Recognition”. arXiv:1410.4281 [cs].
- ^ Schmidhuber, Jürgen (tháng 1 năm 2015). “Deep learning in neural networks: An overview”. Neural Networks. 61: 85–117. doi:10.1016/j.neunet.2014.09.003. ISSN 0893-6080.
- ^ Zen, Heiga; Sak, Hasim (tháng 4 năm 2015). “Unidirectional long short-term memory recurrent neural network with recurrent output layer for low-latency speech synthesis”. 2015 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). IEEE. doi:10.1109/icassp.2015.7178816.
- ^ Sak, Haşim; Senior, Andrew; Rao, Kanishka; Beaufays, Françoise (ngày 6 tháng 9 năm 2015). “Fast and accurate recurrent neural network acoustic models for speech recognition”. Interspeech 2015. ISCA: ISCA. doi:10.21437/interspeech.2015-350.
- ^ V., Sutskever, Ilya Vinyals, Oriol Le, Quoc (ngày 10 tháng 9 năm 2014). Sequence to Sequence Learning with Neural Networks. OCLC 1106206767.
- ^ Jozefowicz, Rafal; Vinyals, Oriol; Schuster, Mike; Shazeer, Noam; Wu, Yonghui (ngày 11 tháng 2 năm 2016). “Exploring the Limits of Language Modeling”. arXiv:1602.02410 [cs].
- ^ Gillick, Dan; Brunk, Cliff; Vinyals, Oriol; Subramanya, Amarnag (ngày 2 tháng 4 năm 2016). “Multilingual Language Processing From Bytes”. arXiv:1512.00103 [cs].
- ^ a b Cho, Kyunghyun; van Merrienboer, Bart; Bahdanau, Dzmitry; Bengio, Yoshua (ngày 7 tháng 10 năm 2014). “On the Properties of Neural Machine Translation: Encoder-Decoder Approaches”. arXiv:1409.1259 [cs, stat].
- ^ a b Elman, Jeffrey L. (1990). “Finding Structure in Time”. Cognitive Science. 14 (2): 179–211. doi:10.1016/0364-0213(90)90002-E.
- ^ Jordan, Michael I. (ngày 1 tháng 1 năm 1997). “Serial Order: A Parallel Distributed Processing Approach”. Neural-Network Models of Cognition - Biobehavioral Foundations. Advances in Psychology. Neural-Network Models of Cognition. 121. tr. 471–495. doi:10.1016/s0166-4115(97)80111-2. ISBN 9780444819314.
- ^ Kosko, B. (1988). “Bidirectional associative memories”. IEEE Transactions on Systems, Man, and Cybernetics. 18 (1): 49–60. doi:10.1109/21.87054. ISSN 0018-9472.
- ^ Rakkiyappan, R.; Chandrasekar, A.; Lakshmanan, S.; Park, Ju H. (ngày 2 tháng 1 năm 2015). “Exponential stability for markovian jumping stochastic BAM neural networks with mode-dependent probabilistic time-varying delays and impulse control”. Complexity (bằng tiếng Anh). 20 (3): 39–65. doi:10.1002/cplx.21503.
- ^ Rojas, Raul (ngày 12 tháng 7 năm 1996). Neural Networks: A Systematic Introduction (bằng tiếng Anh). Springer Science & Business Media. ISBN 978-3-540-60505-8.
- ^ Maass, Wolfgang; Natschläger, Thomas; Markram, Henry (ngày 1 tháng 11 năm 2002). “Real-Time Computing Without Stable States: A New Framework for Neural Computation Based on Perturbations”. Neural Computation. 14 (11): 2531–2560. doi:10.1162/089976602760407955. ISSN 0899-7667.
- ^ Li, Shuai; Li, Wanqing; Cook, Chris; Zhu, Ce; Gao, Yanbo (ngày 22 tháng 5 năm 2018). “Independently Recurrent Neural Network (IndRNN): Building A Longer and Deeper RNN”. arXiv:1803.04831 [cs].
- ^ Goller, C.; Kuchler, A. “Learning task-dependent distributed representations by backpropagation through structure”. Proceedings of International Conference on Neural Networks (ICNN'96). IEEE. doi:10.1109/icnn.1996.548916.
- ^ Linnainmaa, Seppo (1970). The representation of the cumulative rounding error of an algorithm as a Taylor expansion of the local rounding errors. M.Sc. thesis (in Finnish), University of Helsinki.
- ^ Griewank, Andreas; Walther, Andrea (ngày 1 tháng 1 năm 2008). Evaluating Derivatives: Principles and Techniques of Algorithmic Differentiation, Second Edition (bằng tiếng Anh). SIAM. ISBN 978-0-89871-776-1.
- ^ Socher, Richard; Lin, Cliff; Ng, Andrew Y.; Manning, Christopher D., “Parsing Natural Scenes and Natural Language with Recursive Neural Networks” (PDF), 28th International Conference on Machine Learning (ICML 2011)
- ^ Socher, Richard; Perelygin, Alex; Wu, Jean Y.; Chuang, Jason; Manning, Christopher D.; Ng, Andrew Y.; Potts, Christopher. “Recursive Deep Models for Semantic Compositionality Over a Sentiment Treebank” (PDF). Emnlp 2013.
Đọc thêm
[sửa | sửa mã nguồn]- Mandic, Danilo P. & Chambers, Jonathon A. (2001). Recurrent Neural Networks for Prediction: Learning Algorithms, Architectures and Stability. Wiley. ISBN 978-0-471-49517-8.
Liên kết ngoài
[sửa | sửa mã nguồn]- Seq2SeqSharp LSTM/BiLSTM/Transformer recurrent neural networks framework running on CPUs and GPUs for sequence-to-sequence tasks (C Sharp (ngôn ngữ lập trình), .NET Framework)
- RNNSharp CRFs based on recurrent neural networks (C Sharp (ngôn ngữ lập trình), .NET Framework)
- Recurrent Neural Networks with over 60 RNN papers by Jürgen Schmidhuber's group at Dalle Molle Institute for Artificial Intelligence Research
- Elman Neural Network implementation for Weka (học máy)
- Recurrent Neural Nets & LSTMs in Java Lưu trữ 2018-07-21 tại Wayback Machine
- an alternative try for complete RNN / Reward driven Lưu trữ 2018-03-24 tại Wayback Machine