Attention의 원리와 계산과정(완전 쉬움!)
2024.10.24
딥러닝
자연어처리-5 Transformer(2)
2024.04.15
자연어처리-5 Transformer(1)
2024.01.08
seq2seq모델에 어텐션 매커니즘을 추가해보자
2023.03.23
LSTM의 return_state와 return_sequences
2023.03.21
자연어처리-4 Attention Mechanism
2023.03.01
seq2seq를 이용한 번역기 만들기
2023.02.26
자연어처리-3 seq2seq(시퀀스투시퀀스)모델에 대하여
2023.02.26
딥러닝에서의 '학습'이란 무엇일까?
2023.02.21
자연어처리-2 RNN언어모델에 대해서 알아보자!
2023.02.19
순환 신경망(RNN)이란 무엇인가?
2023.02.19
자연어처리-1 피드 포워드 신경망 언어모델(NNLM)
2023.02.17
시계열 데이터를 이미지로 바꿔보자!
2023.02.15
ChatGPT API 사용하기
2023.02.15
CNN을 이용해서 Mnist를 분류해보자!
2023.02.05
CNN이란 무엇인가?
2023.02.05
케라스로 간단한 LSTM 구현하기!
2023.01.23
tsaug를 사용하여 시계열 데이터를 증강해보자!
2023.01.22
오토인코더(Autoencoder)
2022.10.06
딥러닝 역전파
2022.10.04
딥러닝 순전파
2022.10.03