Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- CASE
- Statistics
- LSTM
- 논문리뷰
- Window Function
- 코딩테스트
- 서브쿼리
- airflow
- 그룹바이
- 자연어처리
- inner join
- NLP
- GRU
- 표준편차
- leetcode
- 짝수
- nlp논문
- 자연어 논문 리뷰
- 설명의무
- MySQL
- torch
- sql
- update
- SQL코테
- t분포
- SQL 날짜 데이터
- 자연어 논문
- HackerRank
- 카이제곱분포
- sigmoid
Archives
- Today
- Total
목록attention (1)
HAZEL
[ NLP : CH10. 기계 번역 ] seq2seq, attention , Input Feeding
※ 미완성 : 추가적으로 학습한 후, 다시 정리하기. 10장. 기계 번역 ( machine translation : MT ) 10.1. 번역의 목표 : 문장이 주어졌을 때, 가능한 다른 언어의 번역 문장중 최대 확률을 갖는 문장을 찾아내는 것 10.1.1. 기계번역의 역사 1) 규칙 기반 기계 번역 ( RBMT ) : 인간이 언어를 학습하는 방식과 비슷한 전통적인 번역 방식임. 문장을 분석하고 규칙을 세워 번역하는 것 : 통계 기반에 비해 자연스러운 번역이 가능하지만, 모든 규칙을 만들어줘야하므로, 자원과 시간이 많이 소모됨. 2) 통계 기반 번역 ( SMT ) : 대량의 양뱡향 코퍼스에서 통계를 얻어내 번역 시스템을 구성하는 것 3) 딥러닝 이전의 신경망 기계 번역 ( NMT ) : 인코더 - 디코더의..
DATA ANALYSIS/NLP
2021. 2. 17. 22:58