- 深度學習經(jīng)典案例解析:基于MATLAB
- 趙小川
- 520字
- 2021-10-27 15:43:56
3.3 構建卷積神經(jīng)網(wǎng)絡
針對3.2節(jié)中所提出的需求,構建具有三個卷積層的卷積神經(jīng)網(wǎng)絡,網(wǎng)絡結構及各部分的參數(shù)見表3-1。
表3-1 所設計的卷積神經(jīng)網(wǎng)絡及各部分的參數(shù)

(續(xù))

本節(jié)實例涉及的卷積層、批量歸一化層、非線性激勵函數(shù)、最大池化層、全連接層的構建函數(shù)及其使用方法詳見本書的2.4節(jié)。
本節(jié)詳細介紹平均池化層、丟棄層、分類層的構建函數(shù)及其使用方法。
1.averagePooling2 dLayer函數(shù)
功能:對輸入的特征圖進行二維平均池化。
用法:
語法①
layer = averagePooling2dLayer(poolSize)。
輸入:poolSize為池化區(qū)域的大小。
輸出:平均池化層。
語法②
layer = averagePooling2dLayer(poolSize,Name,Value)。
可以通過指定“名稱-取值”對(Name和Value)來配置特定屬性(將每種屬性名稱括在單引號中),具體含義見表3-2。
表3-2 averagePooling2dLayer函數(shù)參數(shù)含義

例如,averagePooling2dLayer(2,'Stride',2),這個語句實現(xiàn)的功能為創(chuàng)建一個平均池化層,池化層的區(qū)域為2×2,進行池化運算的步長為2。
2.創(chuàng)建Dropout層:dropoutLayer函數(shù)
功能:創(chuàng)建一個丟棄(Dropout)層,該層按給定的概率隨機地將輸入元素設置為零。
用法:
語法①
layer = dropoutLayer。
該用法是將輸入元素的50%隨機置零。
語法②
layer = dropoutLayer(probability)。
輸入:隨機置零的概率。
輸出:丟棄層。
例如,dropoutLayer (0.2),這個語句實現(xiàn)的功能為創(chuàng)建一個丟棄層,將輸入元素的20%隨機置零。
3.創(chuàng)建回歸層:regressionLayer函數(shù)
功能:創(chuàng)建一個回歸(Regression)層。
用法:layer = regressionLayer。
實現(xiàn)表3-1所示的卷積神經(jīng)網(wǎng)絡的程序代碼如下。


- Advanced Splunk
- Delphi程序設計基礎:教程、實驗、習題
- 深入淺出Java虛擬機:JVM原理與實戰(zhàn)
- Magento 2 Theme Design(Second Edition)
- R語言游戲數(shù)據(jù)分析與挖掘
- Getting Started with LLVM Core Libraries
- 深入淺出React和Redux
- CRYENGINE Game Development Blueprints
- IPython Interactive Computing and Visualization Cookbook
- Microsoft HoloLens By Example
- Puppet 5 Beginner's Guide(Third Edition)
- 你必須知道的.NET(第2版)
- Visual C++程序設計全程指南
- AI輔助編程Python實戰(zhàn):基于GitHub Copilot和ChatGPT
- PHP程序設計經(jīng)典300例