From c83c145dee4be12304c99352735b37a5dd04ba01 Mon Sep 17 00:00:00 2001 From: Denny-Hwang <48212469+Denny-Hwang@users.noreply.github.com> Date: Mon, 21 Oct 2019 11:16:41 +0900 Subject: [PATCH] Update activations.md --- sources/activations.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/sources/activations.md b/sources/activations.md index 45787d21..2f8b87a4 100644 --- a/sources/activations.md +++ b/sources/activations.md @@ -92,7 +92,7 @@ Scaled Exponential Linear Unit(SELU). SELU는 `scale * elu(x, alpha)`와 같습니다. `alpha`와 `scale`은 미리 정해지는 상수입니다. 가중치weights가 올바르게 초기화되고(`lecun_normal` 참조) -입력 수가 "충분히 많다"면 `alpha`와 `scale`의 값은 +입력 수가 '충분히 많다'면 `alpha`와 `scale`의 값은 입력의 평균과 분산이 연속되는 두 개의 층에서 보존되도록 결정됩니다(참고자료 참조). __인자__