智能座艙算法基礎之深度學習篇

0 評論 934 瀏覽 2 收藏 9 分鐘

智能座艙這一概念在當下已經傳播開來,那么,你是否了解智能座艙背后隱藏的技術或算法基礎?這篇文章里,作者圍繞深度學習算法及卷積神經網絡、損失函數等內容做了分析解讀,不妨來看一下。

智能座艙,實在傳統的車載座艙系統的基礎上增加了智能化的屬性,通過感知(語音、視覺)、認知、決策、服務的過程使車輛能夠主動地服務于駕駛員和乘客,從而提升座艙的用戶體驗,帶來更好的安全、便捷、趣味性體驗。

隨著2016年谷歌的AlphaGo以4:1戰勝韓國的圍棋高手李世石,深度學習這一未來人工智能領域最重要,最核心的科技立即成為人們關注的焦點。

一、傳統機器學習與深度學習

兩者都需要對數據進行預處理,傳統的機器學習算法通過人工設計特征提取器,在復雜任務下,人工設計的特征提取器效果不佳,講提取的特征傳輸到訓練好的分類器中進行預測;深度學習的算法則是在數據預處理后,根據任務的復雜性設計模型,然后對模型進行訓練。

雖然深度學習算法在復雜任務重仍然擁有較好的效果,但該類算法也擁有模型可解釋性差等缺點,比如說無法解釋模型中的各個模塊分別提取什么樣的具體特征。

傳統機器學習與深度學習的流程對比

隨著算法突破,深度神經網絡作為深度學習的一類實例化結構逐漸被廣泛應用。其中在視覺感知場景,針對圖像數量較大的特點,通常采用卷積神經網絡(CNN)這一結構對圖像數據進行處理。

深度學習算法通常由三部分組成,包括神經網絡模型、損失函數和優化方式。深度神經網絡模型實際上可以理解成就是一個復雜的函數,這個函數將輸入映射到輸出值,該函數是有許多個簡單函數復合而成。

卷積神經網絡就是一個擁有大量可訓練參數的復雜函數,其中參數可訓練意味著通過參數的更改,模型的預測能力越來越強,預測值與真實值之間的差異越來越小。而衡量模型輸出值與預測值之間差距的方式就是通過設計的損失函數實現。優化方式的選擇意味著模型通過怎樣的方式進行參數優化,從而實現損失函數的最小化,一般的優化方式為反向傳播算法加上梯度下降。

二、卷積神經網絡

卷積神經網絡在計算機視覺中應用廣泛,常見的圖像分類識別、目標檢測追蹤、圖像分割等。自從2012年,AlexNet在ImageNet數據集上取得不錯的效果后,大量的CNN模型被提出,廣泛被使用的CNN模型有VGG、ResNet、DenseNet、MobileNet、ResNeXt等。

根據“端到端”的設計思路,網絡結構大致分為輸入層、隱藏層和輸出層,其中隱藏層主要完成對輸入數據進行特征提取和對提取到的特征進行信息整合,用于預測。結構中用于特征提取的層包括卷積層、池化層、激活函數等,用于分類識別的包括全連接層等。

其中,用于特征提取的模塊,一般被稱為backbone,其基本結構與模塊如下圖所示:

神經網絡基本結構與模塊

輸入圖像傳入網絡后,通常由卷積層對輸入進行卷積,實現特征提??;批量歸一化層對卷積后的操作進行處理,統一數據分布;激活層通過激活函數實現數據的非線性轉換,增加網絡表達能力,從功能上模擬生物神經元的激活和抑制狀態;池化層降低特征圖尺寸,使得圖像特征凸顯。由多個基本模塊搭建而成的backbone對輸入圖像進行特征提取,在提取過程中,數據以定數量的特征圖進行傳輸。

三、損失函數

在網絡訓練過程中,需要通過損失函數來評估模型對輸入數據的最終預測和真實標簽之間的誤差,深度學習中的損失函數需要根據當前的應用場景進行相應設計,但不管是哪張損失函數,都可以總結出以下特點:

  1. 恒非負。損失函數計算的是模型預測值與真實值之間的差距,模型根據損失函數進行優化后,最好的情況是損失函數的值為0,即模型的預測輸出完美擬合真實值,只要有一點擬合的偏差那就會讓損失增加。
  2. 模型預測值與真實值之間誤差越小,函數值越小。
  3. 損失函數收斂快。收斂快的意思就是指在迭代優化這個損失函數的過程中,需要讓它比較快地逼近函數極小值,逼近函數值低點。

四、模型訓練及測試

卷積神經網絡的訓練過程即為模型通過對訓練數據的迭代學習,不斷對網絡中可訓練參數進行優化直到損失函數最小化的過程。訓練即是模型的多次迭代,每次迭代涉及兩個過程,即前向傳播和反向傳播。而模型測試即是在模型沒有學習過的測試數據集上進行前向傳播。前向傳播中,數據根據網絡中的計算圖從輸入層到輸出層進行計算。

具體來說,當圖像輸入后,經過網絡中的卷積層和池化層的運算,抽象出圖像中的高級特征,然后將特征圖展平后傳輸到全連接層等方向,完成模型的預測。反向傳播中,根據鏈式法則,推理誤差對于網絡中所有可訓練參數的偏導數依次從輸出層向輸入層被求解,存儲下來的梯度被用來優化參數。

與許多其他機器學習模型相同,卷積神經網絡同樣是通過梯度下降來優化模型的參數。根據凸優化理論可知,由于神經網絡模型復雜度較高,同時其損失函數一般為非凸(non-convex)函數,最小化損失函數時存在著局部最優解,使得非凸優化實現全局最優的難度增加。因此,在深度神經網絡模型的反向傳播中,一般采用小批量隨機梯度下降。

五、模型壓縮

卷積神經網絡中的模塊根據是否含有可訓練參數可以大致分為兩類:一類是含有權重和閾值的卷積層、全連接層等,且權重和閾值的數量在具體任務下有優化的空間;另一類是非線性激活層、池化層等,這類模塊不含有任何可訓練參數。

在一定程度上,模型參數量決定著模型對設備的存儲消耗,該模型的計算量決定著模型運行時的實時性。模型壓縮和加速則是針對具體任務,在保持模型性能的同時,降低模型的復雜度和計算量的一種方法。

本文由 @ALICS 原創發布于人人都是產品經理。未經許可,禁止轉載

題圖來自Unsplash,基于CC0協議

該文觀點僅代表作者本人,人人都是產品經理平臺僅提供信息存儲空間服務。

更多精彩內容,請關注人人都是產品經理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發揮!