ReLU函式,全稱Rectified Linear Unit,即修正線性單元,是一種在人工神經網路中常用的激活函式。其數學表達式為( f(x) = \max(0, x) ),意味著當輸入( x )為正數時,輸出等於輸入( x )本身;當輸入( x )為負數時,輸出為0。ReLU函式的圖像是一個以原點為頂點,在( x )軸上方呈現直線上升的趨勢。
ReLU函式的特點包括:
計算速度快:由於ReLU函式中只存線上性關係,相比於Sigmoid函式和Tanh函式,其計算速度更快。
非線性:ReLU函式可以解決線性模型表達能力不足的問題,為神經網路引入非線性因素,提高模型的表達能力。
Dead ReLU問題:當輸入為負數時,ReLU函式的梯度為0,這會導致在反向傳播過程中,負數輸入的神經元無法更新權重,從而造成神經元「死亡」。
輸出為0或正數:ReLU函式的輸出值要麼是0,要麼是正數,這意味著它不是一個以0為中心的函式。
ReLU函式的變體包括:
Leaky ReLU:為了解決Dead ReLU問題,Leaky ReLU在負數部分引入了一個很小的梯度(例如0.01)。
Parametric ReLU (PReLU):PReLU是ReLU的另一種改進版本,其允許負數輸入的斜率為一個可學習的參數。
ReLU函式在深度學習中廣泛套用,尤其是在解決複雜非線性問題如圖像識別、語音識別等領域。然而,也存在一些問題,如Dead ReLU問題,因此在選擇激活函式時需要根據具體問題、網路結構等因素綜合考慮。