官术网_书友最值得收藏!

Rectified linear units

The logic behind keeping a rectified linear units (ReLUs) layer is very simple: it replaces all the negative values with 0. This helps us to make CNN mathematically healthier by avoiding negative values:

Here, in this layer, the size of the image is not altered. We will get the same size output as the input only when the negative values are replaced by 0. 

主站蜘蛛池模板: 连江县| 新兴县| 白银市| 通渭县| 德昌县| 永川市| 永平县| 教育| 雅江县| 通州区| 兰西县| 射洪县| 夏邑县| 榆林市| 沁水县| 察雅县| 平远县| 琼结县| 永德县| 莎车县| 鸡泽县| 永川市| 凌源市| 温泉县| 昌乐县| 余干县| 娄底市| 高阳县| 兴城市| 武义县| 察雅县| 肥东县| 乌拉特后旗| 阳江市| 长岛县| 屯门区| 敦煌市| 庆元县| 高安市| 闽清县| 门源|