From 096cda4341789333f45a35ca9195fdbb95a2d7da Mon Sep 17 00:00:00 2001 From: =?UTF-8?q?PyTorch=5F=EB=A9=98=ED=8B=B0=5F=EA=B0=95=EC=A0=95=EB=AF=BC?= Date: Fri, 1 May 2026 00:52:50 +0900 Subject: [PATCH] =?UTF-8?q?fix:=20intermediate=5Fsource/char=5Frnn=5Fclass?= =?UTF-8?q?ification=5Ftutorial.py=20=EC=98=A4=ED=83=80=20=EC=88=98?= =?UTF-8?q?=EC=A0=95?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- intermediate_source/char_rnn_classification_tutorial.py | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/intermediate_source/char_rnn_classification_tutorial.py b/intermediate_source/char_rnn_classification_tutorial.py index 2be448c6..124fb71c 100644 --- a/intermediate_source/char_rnn_classification_tutorial.py +++ b/intermediate_source/char_rnn_classification_tutorial.py @@ -12,7 +12,7 @@ * `기초부터 시작하는 NLP: 문자-단위 RNN으로 이름 생성하기 `__ * `기초부터 시작하는 NLP: Sequence to Sequence 네트워크와 Attention을 이용한 번역 `__ -여기에서는 단어를 분류하기 위해 기초적인 문자-단위의 순환 신경망(RNN, Recurrent Nueral Network)을 +여기에서는 단어를 분류하기 위해 기초적인 문자-단위의 순환 신경망(RNN, Recurrent Neural Network)을 구축하고 학습할 예정입니다. 이 튜토리얼 및 이후 2개 튜토리얼인 :doc:`/intermediate/char_rnn_generation_tutorial` 및 :doc:`/intermediate/seq2seq_translation_tutorial` 에서는 자연어 처리(NLP, Natural Language Processing) 분야에서 어떻게 데이터를 전처리하고 NLP 모델을 구축하는지를 밑바닥부터(from scratch) 설명합니다.