日韩无码专区无码一级三级片|91人人爱网站中日韩无码电影|厨房大战丰满熟妇|AV高清无码在线免费观看|另类AV日韩少妇熟女|中文日本大黄一级黄色片|色情在线视频免费|亚洲成人特黄a片|黄片wwwav色图欧美|欧亚乱色一区二区三区

RELATEED CONSULTING
相關咨詢
選擇下列產品馬上在線溝通
服務時間:8:30-17:00
你可能遇到了下面的問題
關閉右側工具欄

新聞中心

這里有您想知道的互聯網營銷解決方案
目標檢測101:一文帶你讀懂深度學習框架下的目標檢測

編譯:及子龍,張禮俊,余志文,錢天培

成都創(chuàng)新互聯于2013年成立,先為橫峰等服務建站,橫峰等地企業(yè),進行企業(yè)商務咨詢服務。為橫峰企業(yè)網站制作PC+手機+微官網三網同步一站式服務解決您的所有建站問題。

從簡單的圖像分類到3D位置估算,在機器視覺領域里從來都不乏有趣的問題。其中我們最感興趣的問題之一就是目標檢測。

如同其他的機器視覺問題一樣,目標檢測目前為止還沒有公認***的解決方法。在了解目標檢測之前,讓我們先快速地了解一下這個領域里普遍存在的一些問題。

一、目標檢測 vs 其他計算機視覺問題圖像分類

在計算機視覺領域中,最為人所知的問題便是圖像分類問題。

圖像分類是把一幅圖片分成多種類別中的一類。

ImageNet是在學術界使用的***的數據集之一,它由數百萬個已分類圖像組成,部分數據用于ImageNet大規(guī)模視覺識別挑戰(zhàn)賽(ILSVRC)。 最近幾年來,解決分類問題的模型已經有了超越人類的識別能力,所以分類問題實際上已經被解決了.

然而,圖像分類問題有許多挑戰(zhàn),相伴隨著的是許多如何解決這些問題的文獻以及對還未被解決的問題的探討。

圖像分類實例

1. 目標定位

同圖像分類類似,目標定位要找到單個目標在圖像中的位置。

目標定位實例

目標定位在實際生活中的應用很廣泛,比如,智能剪切(通過定位目標所在的位置,識別需要圖片從哪里剪切) ,或者進行常規(guī)的目標提取以便進一步處理。結合圖像分類技術,它不僅僅可以定位目標,還能對該物體分類。

2. 實例分割

從目標檢測更進一步,我們不僅僅要找到圖片中的對象,更是要發(fā)現該檢測對象對應的像素碼。我們把這個問題稱為實例分割,或者是對象分割。

3. 目標檢測

在迭代處理定位和圖片分類問題時,我們最終還是需要對多個目標進行同時檢測和分類。目標檢測是在圖片中對可變數量的目標進行查找和分類。其中重要的區(qū)別是“可變”這一部分。

和圖像分類問題不同的是,由于每一張圖片待檢測目標的數量不一,目標檢測的輸出長度是可變的。在這篇文章中,我們將詳細地介紹一些實際應用,討論目標檢測作為機器學習問題的主要困難,以及在過去的幾年里如何應用深度學習處理目標檢測。

目標檢測實例

二、實際案例

在Tryolabs 中,我們專注于使用現有的機器學習方法解決商務問題,所以即使我們熱衷于機器學習的科研問題,但最終我們還是要回歸實際應用中。

雖然目標檢測從某種程度上在工業(yè)界還是一個很新的工具,但它已經有了很多實用和有趣的應用。

1. 人臉檢測

自20世紀中期以來,傻瓜相機開始通過更為高效的自動對焦來檢測人面。 雖然這是一種比較淺顯的目標檢測應用,但是這種方法同樣適用于其他類型的目標檢測,我們稍后將會介紹。

2. 計數

計數是一個簡單但是經常被忽略的目標檢測問題。統計人,車,花甚至是微生物數量是現實世界的需求,在大部分基于圖像的系統中都要使用。近幾年伴隨著監(jiān)控視頻設備的不斷涌現,使用機器視覺將原圖像轉化為結構化數據的需求也越來越多。

3. 視覺搜索引擎

***,我們比較喜歡的一個實例是Pinterest(圖片社交平臺)的視覺搜索引擎。

他們將目標檢測作為索引圖像內容的處理流程之一。比如,你可以在不同的背景下找到某個特定的錢包。 這比Google Image的反向搜索引擎只是找到類似的圖像更強大。

圖1

圖1:相似查找:我們應用目標檢測方法定位包或鞋子這些產品。在這張圖片中, 用戶可以點擊圖片中的目標對象便可以查找類似的產品。

4. 空中影像分析

在這個廉價無人機和衛(wèi)星興起的年代,我們能在空中獲取***多的關于地球的數據。 如今已經有越來越多的公司開始使用planet 或者descartes labs 公司提供的衛(wèi)星圖片,應用目標檢測來計算汽車,樹,船的數量。這些舉措都為我們帶來了高質量的數據,這在從前是不可能實現的。

一些公司正在應用無人機攝像對人難以到達的地方進行自動監(jiān)測(例如BetterView)或者使用物體檢測方法進行整體分析(例如TensorFlight)。 除此之外,一些公司實現了不需人為干預下的場景自動檢測和位置識別。

使用TensorFlight實現汽車、樹和行人的識別

三、目標檢測存在的問題和挑戰(zhàn)

現在,讓我們開始深入了解目標檢測中的主要問題。

1. 對象數量不確定

我們在前面提到過對象數量可變,但是并沒有解釋為什么是個問題。當訓練機器學習模型的時候,你經常需要把數據表示成固定長度的向量。如果在訓練之前圖片中的對象數量是未知的,模型的輸出數量也就是未知的了。因此,一些增加模型復雜性的預處理是必要的。

在傳統的方法中,輸出的數量可以使用滑動窗函數來計算,給不同位置產生一個固定大小的特征窗。在做完了預測之后,有些預測會被丟棄,有些會被合并到最終結果里面。

滑動窗示例

2. 對象大小不同

另外一個挑戰(zhàn)是處理不同大小對象的問題。面對一個簡單的分類問題,你期望是盡可能將覆蓋圖片大部分面積的對象進行分類。而在有些情境中,你想識別的對象可能只有幾十個像素點大小(或者說是原圖片中占比很小的一部分)。以往人們通過使用不同大小的滑動窗來解決這個問題,這種方法雖然簡單,卻效率低下。

3. 建模

第三個挑戰(zhàn)是同時解決目標定位和圖像分類這兩個問題。 我們如何將這兩種不同類型的需求組合到一個模型里呢?

在進入深度學習和如何應對這些挑戰(zhàn)之前,讓我們先快速了解一些經典的檢測方法。

四、檢測方法

1. 傳統方法

在這里我們將集中介紹其中兩個***且目前依然被廣泛使用的模型。

***個是2001年由Paul Viola和Michael Jones在論文《Robust Real-time Object Detection》里提出 的Viola-Jones框架。這個方法快速且相對簡單,使得低處理能力的傻瓜相機得以進行實時的面部識別。

我們不打算深入介紹它是如何工作和訓練的,但是總體來說,該算法是通過使用哈爾特征(Haar features)生成許多(可能幾千個)簡單的二元分類器來實現的。這些分類器通過一個多尺度級聯滑動窗進行評估,一旦遇到錯誤的分類結果則提前結束。

另一個傳統方法是使用方向梯度直方圖(HOG)特征和支持向量機來分類。這個方法依然需要一個多尺度滑動窗,盡管它比Viola-Jones表現優(yōu)異,但速度卻慢了很多。

2. 深度學習方法

在機器學習領域,深度學習一直是個大boss,尤其在計算機視覺方面。在圖像分類的任務上,深度學習已經徹底擊敗了其他的傳統模型。同樣,在目標檢測方面,深度學習也代表了目前的***進水平。

讀到這里,你應該對我們面臨的挑戰(zhàn)和對解決它們的辦法有了一定的了解,接下來我們將概述一下在過去的幾年深度學習方法的發(fā)展歷程。

2013年由NYU(紐約大學) 提出的OverFeat 是最早將深度學習用于目標檢測的方法之一。他們提出了一個使用卷積神經網絡(CNNs)來處理多尺度滑窗的算法。

(1) OverFeat

2013年由NYU(紐約大學) 提出的OverFeat 是最早將深度學習用于目標檢測的方法之一。他們提出了一個使用卷積神經網絡(CNNs)來處理多尺度滑窗的算法。

(2) R-CNN

OverFeat提出后不久,加州大學伯克利分校的Ross Girshick及其同事就發(fā)表了Regins with CNN features,簡稱R-CNN的方法,該方法在物體識別挑戰(zhàn)中有50%的效果提升。

他們提出了目標檢測分三步走的方法:

  • 使用候選區(qū)域方法(***的一個是’Selective Search’)提取可能的物體
  • 使用CNN從每一個區(qū)域提取特征
  • 使用支持向量機(SVM)分類每一個區(qū)域

R-CNN架構

Girshick, Ross, et al. "Rich feature hierarchies for accurate object detection and semantic segmentation." 2014.

盡管R-CNN能達到很好的識別效果,但是它在訓練中有很多的問題。

為了訓練模型,你首先要對訓練數據集產生候選區(qū)域,然后把CNN特征提取應用于每一個區(qū)域(對于Pascal 2012數據集通常需要處理200GB的數據),***再訓練支持向量機分類器。

(3) Fast R-CNN

R-CNN被提出不久后,它又延伸出了一個完全使用深度學習的版本——就在一年后,Ross Girshick(目前在微軟研究中心)發(fā)表了Fast R-CNN。

和R-CNN類似,Fast R-CNN依然采用Selective Search生成候選區(qū)域,但是和之前的分別提取出所有的候選區(qū)域然后使用支持向量機分類器不同,Fast R-CNN 在完整的圖片上使用CNN然后使用集中了特征映射的興趣區(qū)域(Region of Interest, RoI),以及前向傳播網絡進行分類和回歸。這個方法不僅更快,而且有Rol集中層和全連接層,使得模型從頭到尾可求導,更容易訓練。

Fast R-CNN***的不足是,這個模型依然依賴Selective Search(或者其他的區(qū)域候選算法),當用該方法進行推論時,這塊就成了一個瓶頸。

Fast R-CNN

Girshick, Ross. "Fast R-CNN" 2015.

(4) YOLO

在Fast R-CNN被提出過后不久,Joseph Redmon(與Girshick等人合著)發(fā)表了You Only Look Once:Unified, Real-Time Object Detection(YOLO)這篇論文。

YOLO提出了一個兼具準確性和速度性的簡單的卷積神經網絡,***實現了實時物體檢測。

YOLO架構

Redmon, Joseph, et al. "You only look once: Unified, real-time object detection." 2016.

(5) Faster R-CNN

接著,Shaoqing Ren(依然與Girshick合著,目前在Fackbook研究中心)發(fā)表了Faster R-CNN,這是R-CNN的第三次迭代。

Faster R-CNN添加了候選區(qū)域網絡(Region Proposal Network, RPN),試圖取消對Selective Search 算法的依賴,這使得模型可以完全實現端到端訓練。

我們暫時不會詳細深入地介紹RPNs的運行原理,但抽象地說,它基于一個叫“物體性”(objectness)的分數輸出對象。這些物體被用在Rol集中層和全連接層,從而實現分類的目標。

Faster R-CNN架構

Ren, Shaoqing, et al. "Faster R-CNN: Towards real-time object detection with region proposal networks." 2015.

(6) SSD和R-FCN

***,還有兩篇論文不得不提:Single Shot Detector(SSD) 和 Region-based Fully Convolutional Networks(R-FCN)。 前者在YOLO的基礎上使用多尺寸的卷積特征圖使得在結果和速度上都有提升。后者基于Faster R-CNN的架構,但是只使用了卷積網絡。

五、數據集的重要性

在研究中,數據集扮演了十分重要的角色,其重要性經常被低估。每一次新的數據集發(fā)布,都會有論文被發(fā)表,新的模型在此基礎上進行比對和提升,把不可能變成可能。

很可惜,對于目標檢測,我們還沒有足夠的數據集。數據很難產生,而且成本很高,具備優(yōu)秀數據庫的公司一般不愿意公開他們的數據,而學校則無法接觸到優(yōu)質的數據集。

話雖如此,我們還是有一些不錯的公開數據可以使用,下面的列表就是目前可用的主要數據集。

六、結論

***,在目標檢測領域,還有很多未知的領域值得我們探索,不論是業(yè)界應用還是新型算法。盡管這篇文章只對目標檢測作了簡單的概述,我們依然希望它能幫助你初步了解目標檢測這一領域,并為你更進一步的學習打下基礎。

原文:https://tryolabs.com/blog/2017/08/30/object-detection-an-overview-in-the-age-of-deep-learning/

【本文是專欄機構大數據文摘的原創(chuàng)譯文,微信公眾號“大數據文摘( id: BigDataDigest)”】


網頁標題:目標檢測101:一文帶你讀懂深度學習框架下的目標檢測
文章網址:http://m.5511xx.com/article/cododch.html