relu 썸네일형 리스트형 Relu: Relu vs sigmod 신앙처럼 여겨왔던 sigmoid를 능가하는 존재가 나타났다. 여기서는 Deep Learning의 성능을 향상시키는 다양한 방법들에 대해 알려준다. sigmoid는 logistic classification에서 어디에 속하는지 분류를 하기 위해 사용했다. 일정 값을 넘어야 성공내지는 참(True)이 될 수 있기 때문에 Activation function이라고도 불렀다. 업계 최고라고 부르는 9단이 나타났다. 9개의 hidden layer에 맞게 W와 b 또한 그 만큼의 갯수로 늘어났다. 그러나, 코드가 어렵지는 않다. 지루한 반복같은 느낌이다. TensorBoard로 결과를 보기 위한 코드도 추가했다. (그림 오른쪽 코드) 각각의 layer가 그래프의 노드가 되어 표시되었다. 보기 좋다. 그런데, 결과는 .. 더보기 이전 1 다음