ํ™œ์„ฑํ™” ํ•จ์ˆ˜(Activation Function)

๋”ฅ๋Ÿฌ๋‹ ๋„คํŠธ์›Œํฌ์—์„œ ๋…ธ๋“œ์— ์ž…๋ ฅ๋œ ๊ฐ’๋“ค์„ ๋น„์„ ํ˜• ํ•จ์ˆ˜์— ํ†ต๊ณผ์‹œํ‚จ ํ›„ ๋‹ค์Œ ๋ ˆ์ด์–ด๋กœ ์ „๋‹ฌํ•˜๋Š”๋ฐ, ์ด ๋•Œ ์‚ฌ์šฉ

๋น„์„ ํ˜• ํ•จ์ˆ˜๋ฅผ ์‚ฌ์šฉํ•˜๋Š” ์ด์œ ๋Š” ๋”ฅ๋Ÿฌ๋‹ ๋ชจ๋ธ์˜ ๋ ˆ์ด์–ด ์ธต์„ ๊นŠ๊ฒŒ ๊ฐ€์ ธ๊ฐˆ ์ˆ˜ ์žˆ๊ธฐ ๋•Œ๋ฌธ

์ž…๋ ฅ ๋ฐ์ดํ„ฐ๋ฅผ ๋‹ค์Œ ๋ ˆ์ด์–ด๋กœ ์–ด๋–ป๊ฒŒ ์ถœ๋ ฅํ•˜๋А๋ƒ๋ฅผ ๊ฒฐ์ •ํ•จ์œผ๋กœ์จ ๋‹ค๋ฅธ ๋‰ด๋Ÿฐ์˜ ํ™œ์„ฑํ™”/๋น„ํ™œ์„ฑํ™”๋ฅผ ๊ฒฐ์ • 

 

- ๋ง์˜ ์ดํ•ฉ์ด bias(์ž„๊ณ„๊ฐ’) ๋ณด๋‹ค ํฌ๋ฉด ํ™œ์„ฑํ™”(1), ์ž‘์œผ๋ฉด ๋น„ํ™œ์„ฑํ™”(0)

- ํ™œ์„ฑํ•จ์ˆ˜์˜ ์œ ํ˜•์— ๋”ฐ๋ผ์„œ ์ถœ๋ ฅ ๊ฐ’ ๋ฒ”์œ„ ๊ฒฐ์ • : (0 ~ 1), (-1 ~ 1), (-inf ~ inf)

 

์‚ฌ์šฉ ์ธต ํ™œ์„ฑํ™” ํ•จ์ˆ˜ ์šฉ๋„
์€๋‹‰์ธต ReLU (๋ ๋ฃจ) ๊ธฐ์šธ๊ธฐ ์†Œ์‹ค ๋ฌธ์ œ ๊ฒฝ๊ฐ, ๋‹ค์Œ ์ธต์œผ๋กœ ์‹ ํ˜ธ ์ „๋‹ฌ
Leaky ReLU (๋ฆฌํ‚ค ๋ ๋ฃจ)
์ถœ๋ ฅ์ธต Sigmoid ์ด์ง„ ๋ถ„๋ฅ˜
Softmax ๋‹ค์ค‘ ๋ถ„๋ฅ˜
ํ™œ์„ฑํ™”ํ•จ์ˆ˜ ์‚ฌ์šฉX ํšŒ๊ท€

 

 

1. Sigmoid function

0~1 ๊นŒ์ง€ ์—ฐ์†์ ์œผ๋กœ ๋ณ€ํ™”ํ•˜๋Š” ์ถœ๋ ฅ๊ฐ’์„ ๊ฐ–๊ธฐ ๋•Œ๋ฌธ์— ๊ฐ€์ค‘์น˜๋‚˜ ๋ฐ”์ด์–ด์Šค(bias) ๋ณ€ํ™” ์‹œ ์ถœ๋ ฅ์— ๋ณ€ํ™”๋ฅผ ์ค€๋‹ค.

sigmoid()์˜ ๋ฆฌํ„ด ๊ฐ’์ด ํ™•๋ฅ  ๊ฐ’์ด๊ธฐ ๋•Œ๋ฌธ์— ๊ฒฐ๊ณผ๋ฅผ ํ™•๋ฅ ๋กœ ํ•ด์„ํ•  ๋•Œ ์œ ์šฉ

AND, OR, XOR ์—ฐ์‚ฐ์„ ๋‹ค๋ฃจ๋Š”๋ฐ ์ ํ•ฉ

ex) 0.5์ด์ƒ์ด๋ฉด 1 ์—ฐ์‚ฐ, ํ˜„์žฌ ํ™œ์„ฑํ•จ์ˆ˜๋กœ ๊ฐ€์žฅ ๋งŽ์ด ์‚ฌ์šฉ

 

Sigmoid ๋‹จ์ 

Vanishing Gradient Problem : ์Œ์ˆ˜ ๊ฐ’์„ 0์— ๊ฐ€๊น๊ฒŒ ํ‘œํ˜„ํ•ด์„œ ์ž…๋ ฅ ๊ฐ’์ด ์ตœ์ข… ๋ ˆ์ด์–ด์—์„œ ๋ฏธ์น˜๋Š” ์˜ํ–ฅ์ด ์ ์–ด์ง€๋Š” ๋ฌธ์ œ ๋ฐœ์ƒ

ํ•™์Šต ์†๋„ ๋А๋ฆผ :  ํ•จ์ˆ˜์˜ ์ค‘์‹ฌ์ด 0์ด ์•„๋‹˜

 

 

2. Hyperbolic Tangent Function

์Œ๊ณก์„  ํ•จ์ˆ˜ ์ค‘ ํ•˜๋‚˜๋กœ, Sigmoid ํ•จ์ˆ˜๋ฅผ ๋ณ€ํ˜•ํ•ด์„œ ์–ป์„ ์ˆ˜ ์žˆ๋‹ค.

์ค‘์‹ฌ์ ์„ 0์œผ๋กœ ์˜ฎ๊ฒจ sigmoid๊ฐ€ ๊ฐ–๊ณ  ์žˆ๋˜ ์ตœ์ ํ™” ๊ณผ์ •์—์„œ ๋А๋ ค์ง€๋Š” ๋ฌธ์ œ๋ฅผ ํ•ด๊ฒฐํ–ˆ์œผ๋‚˜ Vanishing Gradient Problem๋Š” ํ•ด๊ฒฐํ•˜์ง€ ๋ชปํ•จ

 

 

โ˜…3. ReLU function (Rectified Linear Unit) ๊ฒฝ์‚ฌํ•จ์ˆ˜โ˜…

Sigmoid์™€ tanh๊ฐ€ ๊ฐ–๋Š” Gradient Vanishing ๋ฌธ์ œ๋ฅผ ํ•ด๊ฒฐ

์ž…๋ ฅ๊ฐ’์ด 0๋ณด๋‹ค ์ž‘์œผ๋ฉด 0์œผ๋กœ ์ถœ๋ ฅ, 0๋ณด๋‹ค ํฌ๋ฉด ์ž…๋ ฅ๊ฐ’ ๊ทธ๋Œ€๋กœ ์ถœ๋ ฅ

Hidden layer์—์„œ Sigmoid ํ•จ์ˆ˜๋ฅผ ์ ์šฉ์‹œํ‚ค๋ฉด ๊ณ„์ธต์ด ์ฆ๊ฐ€ํ•  ์ˆ˜๋ก 0์— ์ˆ˜๋ ดํ•˜๋Š” ๊ฐ’์ด ๋‚˜ํƒ€๋‚˜๋ฏ€๋กœ 0๋ณด๋‹ค ํฐ ๊ฐ’์€ Reluํ•จ์ˆ˜๋ฅผ ์ด์šฉํ•œ๋‹ค.

sigmoid, tanh ํ•จ์ˆ˜๋ณด๋‹ค ํ•™์Šต์ด ๋น ๋ฅด๊ณ , ์—ฐ์‚ฐ ๋น„์šฉ์ด ์ ๊ณ , ๊ตฌํ˜„์ด ๋งค์šฐ ๊ฐ„๋‹จํ•˜๋‹ค

ํ˜„์žฌ ๋งŽ์ด ์‚ฌ์šฉ๋˜๋Š” ํ™œ์„ฑํ•จ์ˆ˜

 

ReLU ๋‹จ์ 

0๋ณด๋‹ค ์ž‘์€ ๊ฐ’๋“ค์—์„œ ๋‰ด๋Ÿฐ์ด ์ฃฝ์„ ์ˆ˜ ์žˆ์Œ

 

 

4. Leaky ReLU

ReLU๊ฐ€ ๊ฐ–๋Š” Dying ReLU(๋‰ด๋Ÿฐ์ด ์ฃฝ๋Š” ํ˜„์ƒ) ์„ ํ•ด๊ฒฐํ•˜๊ธฐ ์œ„ํ•ด ๋‚˜์˜จ ํ•จ์ˆ˜

0.01์ด ์•„๋‹ˆ๋ผ ๋งค์šฐ ์ž‘์€ ๊ฐ’์ด๋ผ๋ฉด ๋ฌด์—‡์ด๋“  ์‚ฌ์šฉ ๊ฐ€๋Šฅ

x๊ฐ€ ์Œ์ˆ˜์ธ ์˜์—ญ์˜ ๊ฐ’์— ๋Œ€ํ•ด ๋ฏธ๋ถ„๊ฐ’์ด 0์ด ๋˜์ง€ ์•Š๋Š”๋‹ค๋Š” ์ ์„ ์ œ์™ธํ•˜๋ฉด ReLU์˜ ํŠน์„ฑ๊ณผ ๋™์ผ

 

 

 

 

 

 

+ Recent posts