Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- airflow
- Window Function
- 그룹바이
- leetcode
- 설명의무
- MySQL
- 카이제곱분포
- 자연어 논문 리뷰
- GRU
- SQL코테
- CASE
- HackerRank
- update
- SQL 날짜 데이터
- sigmoid
- 논문리뷰
- t분포
- 자연어 논문
- inner join
- Statistics
- 서브쿼리
- sql
- 표준편차
- LSTM
- NLP
- 자연어처리
- nlp논문
- 코딩테스트
- 짝수
- torch
Archives
- Today
- Total
목록활성화함수 (1)
HAZEL
[ Torch : 09 ] 활성화함수 : Sigmoid/ ReLU , Optimizer
boostcourse 의 파이토치로 시작하는 딥러닝 기초 강의를 듣고 정리한 내용입니다. 더보기 https://www.boostcourse.org/opencourse 1. 활성화 함수란? : 입력된 데이터의 가중 합을 출력 신호로 변환하는 함수이다. Linear 한 layer를 쌓으면, linear한 연산만 가능한데, 활성화 함수를 통해 비선형 특성을 가할 수 있게 된다. 1. Sigmoid 1 ) Sigmoid 란? 시그모이드 함수의 반환값(y축)은 흔히 0에서 1까지의 범위를 가진다. 또는 -1부터 1까지의 범위를 가지기도 한다. sigmoid가 이진 분류에서 사용될 경우, 0 ~ 1 사이의 실수 값을 출력값으로 가진다. 따라서, 0.5를 기준으로 첫 번째 class와 두 번째 class를 나눈다. ..
DATA ANALYSIS/ML & DL
2022. 1. 6. 13:28