新手初入人工智能(圖像處理方向),我該向什么方向發(fā)展?
網(wǎng)友解答: 計算機視覺方向目前主要有幾大方向比較熱門,我下面將分別從他們的發(fā)展過程與現(xiàn)狀以及怎么入門學(xué)習(xí)來進行介紹。首先,計算機視覺的主要方向有:圖像分類人臉識別目標檢測圖像分割關(guān)鍵點檢
計算機視覺方向目前主要有幾大方向比較熱門,我下面將分別從他們的發(fā)展過程與現(xiàn)狀以及怎么入門學(xué)習(xí)來進行介紹。首先,計算機視覺的主要方向有:
圖像分類人臉識別目標檢測圖像分割關(guān)鍵點檢測文字識別OCR編程與數(shù)學(xué)基礎(chǔ)首先,人工智能畢竟是一個計算機學(xué)科,需要具備基本的編程功底與數(shù)學(xué)能力。具體來說,編程方面,需要熟悉Python編程,熟悉Numpy,Pandas,Opencv等庫的使用,同時還得熟悉某個深度學(xué)習(xí)框架的使用,比如TensorFlow,Keras,PyTorch,Caffe等。以上這些是必須具備的,如果能再有點C++,Java方面的基礎(chǔ)就更好了。數(shù)學(xué)方面,肯定需要對大學(xué)的數(shù)學(xué)知識有一定的了解,比如求導(dǎo)與積分,偏導(dǎo)數(shù),梯度下降之類的高數(shù)知識,以及線代和概率與統(tǒng)計等知識。如果對這方面知識不太熟悉,建議從課本上好好學(xué)學(xué),當然也可以通過如下圖所示的深度學(xué)習(xí)圣經(jīng)即"花書"的前幾章來學(xué)習(xí)。
圖像分類圖像分類是一個計算機視覺的經(jīng)典方向。深度學(xué)習(xí)的火爆最早是因為Hinton帶領(lǐng)他的學(xué)生使用深度神經(jīng)網(wǎng)絡(luò)參加了ImageNet大賽,其最后成績遠超使用傳統(tǒng)方法的第二名一大截。由此引發(fā)了最近幾年越來越熱門的深度學(xué)習(xí)研究,在2012年及以后,在ImageNet比賽上出現(xiàn)了更多的網(wǎng)絡(luò)結(jié)構(gòu),從最開始的AlexNet,到VggNet,GoogleNet,Inception,RestNet,Inception-ResNet-v1~3,Xception等。每次新的網(wǎng)絡(luò)的出現(xiàn)都讓正確率上升了一大截,可以說ImageNet比賽推動了整個計算機視覺的發(fā)展。
但是ImageNet的數(shù)據(jù)集太大,不太適合我們?nèi)腴T圖像分類。我們可以使用mnist數(shù)據(jù)集,或者CIFAR-10數(shù)據(jù)集(如上圖所示).CIFAR-10 數(shù)據(jù)集有 60000 張圖片,每張圖片均為分辨率為 32*32 的彩色圖片(分為 RGB3 個信道)。CIFAR-10 的分類任務(wù)是將每張圖片分成青蛙、卡車、飛機等 10 個類別中的一個類別。具體關(guān)于CIFAR-10的詳細介紹以及實例代碼,大家可以關(guān)注我酷米號置頂?shù)哪瞧恼?
人臉識別人臉識別在引入深度學(xué)習(xí)之前主要使用PCA降維后進行分類,在引入深度學(xué)習(xí)之后,采用了CNN來提取特征,然后使用SVM之類的分類器進行分類,但是本質(zhì)上還是一個分類,需要提前錄入人臉數(shù)據(jù)進行訓(xùn)練.直到FaceNet出現(xiàn)之后, 論文中提出了一種叫做triplet 的損失函數(shù),主要目標是減低類內(nèi)(同一個人)的距離,增加類間(不同的人)的距離.由此將原本的分類問題轉(zhuǎn)變?yōu)榱艘粋€距離度量問題,是人臉識別變成了一個開放的問題,可以隨時送入兩張沒有參與訓(xùn)練過的人臉圖片提取特征向量,然后通過比較這兩個向量的距離來判斷相似性.
后來又出現(xiàn)了各種各樣的loss, 有些已經(jīng)達到了目前state-of-art的效果,我在這里只是羅列下,具體各位可以關(guān)注我,后面我會推出人臉識別綜述,與各種損失函數(shù)總結(jié)。目前損失函數(shù)主要有:
centerLosscontrastiveLossrangeLosslarge-marginl2-normAM-softmaxCosFaceArcFace大家如果想要入門的話,可以先下載一下lfw數(shù)據(jù)集,然后用TensorFlow實踐一下經(jīng)典的算法.
目標檢測與圖像分割目標檢測的任務(wù)是從一個復(fù)雜場景的圖像中找到不同的物體,并且給出各個物體的邊界框。圖像檢測的三個著名的數(shù)據(jù)集是PASCAL VOC,ImageNet和微軟COCO. PASCAL VOC包含20個物體的類別,而ImageNet包含一千多種物體類別,COCO有80中物體類別和150萬個物體實例。
自從2012年的ILSVRC競賽中基于CNN的方法一鳴驚人之后,CNN已成為圖像分類、檢測和分割的神器。其中在圖像檢測的任務(wù)中,R-CNN系列是一套經(jīng)典的方法,從最初的R-CNN到后來的Fast R-CNN, Faster R-CNN 和今年的Mask R-CNN, 我們可以看到CNN在圖像檢測中是如何一點一點提高的。還有就是采用一步到位的檢測算法的SSD與YOLO系列算法.這些算法的詳細介紹,大家可以關(guān)注我酷米號之前發(fā)布的文章.
R-CNN 系列的四篇文章如下:
R-CNN: https://arxiv.org/abs/1311.2524Fast R-CNN: https://arxiv.org/abs/1504.08083Faster R-CNN: https://arxiv.org/abs/1506.01497Mask R-CNN: https://arxiv.org/abs/1703.06870關(guān)鍵點檢測人體骨骼關(guān)鍵點對于描述人體姿態(tài),預(yù)測人體行為至關(guān)重要。因此人體骨骼關(guān)鍵點檢測是諸多計算機視覺任務(wù)的基礎(chǔ),例如動作分類,異常行為檢測,以及自動駕駛等等。近年來,隨著深度學(xué)習(xí)技術(shù)的發(fā)展,人體骨骼關(guān)鍵點檢測效果不斷提升,已經(jīng)開始廣泛應(yīng)用于計算機視覺的相關(guān)領(lǐng)域。本文主要介紹2D人體骨骼關(guān)鍵點的基本概念和相關(guān)算法,其中算法部分著重介紹基于深度學(xué)習(xí)的人體骨骼關(guān)鍵點檢測算法的兩個方向,即自上而下(Top-Down)的檢測方法和自下而上(Bottom-Up)的檢測方法。相應(yīng)算法的詳細介紹大家可以關(guān)注我酷米號之前發(fā)布的文章.
文字識別OCROCR(Optical Character Recognition, 光學(xué)字符識別)傳統(tǒng)上指對輸入掃描文檔圖像進行分析處理,識別出圖像中文字信息。場景文字識別(Scene Text Recognition,STR) 指識別自然場景圖片中的文字信息。我這里主要介紹難度更大的場景文字識別的發(fā)展.自然場景圖像中的文字識別,其難度遠大于掃描文檔圖像中的文字識別,因為它的文字展現(xiàn)形式極其豐富:
·允許多種語言文本混合,字符可以有不同的大小、字體、顏色、亮度、對比度等。
·文本行可能有橫向、豎向、彎曲、旋轉(zhuǎn)、扭曲等式樣。
·圖像中的文字區(qū)域還可能會產(chǎn)生變形(透視、仿射變換)、殘缺、模糊等現(xiàn)象。
·自然場景圖像的背景極其多樣。如文字可以出現(xiàn)在平面、曲面或折皺面上;
文字區(qū)域附近有復(fù)雜的干擾紋理、或者非文字區(qū)域有近似文字的紋理,比如沙地、草叢、柵欄、磚墻等。
文字識別其實主要包含兩個步驟, 文字檢測與文字識別, 但是近年來也有出現(xiàn)了以CRNN(具體可以關(guān)注華中科大白翔老師的研究)為代表的一步到位的端到端的識別模型,效果也還不錯.文本檢測工作目前可以大致分為三類:一是基于分割的思想,通過分割網(wǎng)絡(luò)提取文本區(qū)域,然后采取一些后處理方法獲取邊界框。代表性的工作是發(fā)表在CVPR2016的“Multi-oriented text detection with fully convolutional networks”;
二是基于候選框的思想,直接用一個神經(jīng)網(wǎng)絡(luò)來檢測文本邊界框。代表性的工作是發(fā)表在CVPR2016的“Synthetic data for text localization in natural images”;
三是混合思想,它采用多任務(wù)學(xué)習(xí)的框架,結(jié)合了分割和邊界框檢測的方法。代表性的工作是發(fā)表在ICCV2017的“Deep Direct Regression for Multi-Oriented Scene Text Detection”。
網(wǎng)友解答:謝邀。
目前如果是新手剛?cè)腴T的話,我不建議一開始就有一個很明確的方向去研究,可以每個方向都去試試。眾所周知,目前深度學(xué)習(xí)共有三大方向的研究比較熱門,分別是計算機視覺,自然語言處理,語音識別相關(guān)。下面我將以計算機視覺為例介紹一下目前研究的概況,以及怎么入門。
計算機視覺也是和你目前所入門的方向比較一致。在這個方面目前比較火的研究內(nèi)容有人臉識別,目標檢測,圖像分類,關(guān)鍵點檢測,圖像分割分割。
1.從mnist入門
我的建議是可以先從mnist入門,學(xué)習(xí)下CNN相關(guān)知識,并且結(jié)合你之前圖像處理基礎(chǔ)知識??梢詫斎氲膱D像就行各種預(yù)處理,以提高識別效果。
2.提升fashion mnist識別效果
有了研究mnist時學(xué)習(xí)的基礎(chǔ),就可以看看目前主流cnn網(wǎng)絡(luò)模型的發(fā)展。從alexnet,到vggnet,再到resnet。這些網(wǎng)絡(luò)模型運用到fashion mnist數(shù)據(jù)集分類中,提升準確率。
3.選擇研究內(nèi)容
到了這個時候,對計算機視覺方向有了比較清晰的認識后。才建議選擇方向研究,研究時也一定要跟隨這最近的網(wǎng)絡(luò)結(jié)構(gòu)的發(fā)展來學(xué)習(xí)。以目標檢測為例,從R-CNN,到Fast R-CNN,再到Faster R-CNN。每一次都是一次偉大的進步,里面提出的新算法都值得仔細品味。