JP2019515376A - 直列畳み込みニューラルネットワーク - Google Patents

直列畳み込みニューラルネットワーク Download PDF

Info

Publication number
JP2019515376A
JP2019515376A JP2018554684A JP2018554684A JP2019515376A JP 2019515376 A JP2019515376 A JP 2019515376A JP 2018554684 A JP2018554684 A JP 2018554684A JP 2018554684 A JP2018554684 A JP 2018554684A JP 2019515376 A JP2019515376 A JP 2019515376A
Authority
JP
Japan
Prior art keywords
image
convolutional neural
neural network
detector
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018554684A
Other languages
English (en)
Other versions
JP7041427B2 (ja
Inventor
ウルフ,ライオア
ムシンスキー,アサフ
Original Assignee
ラモット アット テル アビブ ユニバーシティ, リミテッド
ラモット アット テル アビブ ユニバーシティ, リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from GB1614009.7A external-priority patent/GB2549554A/en
Application filed by ラモット アット テル アビブ ユニバーシティ, リミテッド, ラモット アット テル アビブ ユニバーシティ, リミテッド filed Critical ラモット アット テル アビブ ユニバーシティ, リミテッド
Publication of JP2019515376A publication Critical patent/JP2019515376A/ja
Application granted granted Critical
Publication of JP7041427B2 publication Critical patent/JP7041427B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

少なくとも1つの画像内の少なくとも1つのオブジェクトを検出する畳み込みニューラルネットワークシステム。本システムは、少なくとも1つの画像内の予め定められた画像ウインドウサイズに対応する複数のオブジェクト検出器を含む。各々のオブジェクト検出器は、少なくとも1つの画像に対するそれぞれのダウンサンプリング比と関連付けられる。各々のオブジェクト検出器は、それぞれの畳み込みニューラルネットワーク及び畳み込みニューラルネットワークと結合されたオブジェクト分類器を含む。それぞれの畳み込みニューラルネットワークは、複数の畳み込み層を含む。オブジェクト分類器は、畳み込みニューラルネットワークからの結果に従って、画像内のオブジェクトを分類する。同一のそれぞれのダウンサンプリング比と関連付けられたオブジェクト検出器は、オブジェクト検出器の少なくとも1つのグループを定義する。オブジェクト検出器のグループにおけるオブジェクト検出器は、共通畳み込み層と関連付けられる。【選択図】図4

Description

開示される技術は概して、ニューラルネットワークに関し、特に、直列畳み込みニューラルネットワークについての方法及びシステムに関する。
本分野において畳み込みニューラルネットワーク(CNN)が知られている。そのようなネットワークは典型的には、画像内のオブジェクト検出及び分類のために採用される。畳み込みニューラルネットワーク(CNN)は典型的には、更に多くの層のうちの1つから構築される。各々の層において、演算が実行される。典型的には、この演算は、活性化関数による畳み込み演算及び乗算のうちの1つである、この演算は更に、ダウンサンプリングとも称されるプーリングを含むことがある。
層ごとに、それぞれの組のメタパラメータが定義される。それらのメタパラメータは、採用されるフィルタの数、フィルタのサイズ、畳み込みのストライド、ダウンサンプリング比、ダウンサンプリングサイズのサイズ、そのストライド、及び採用される活性化関数などを含む。ここで、本分野において既知である、全体的に10と参照符号が付されるCNNを概略的に表す図1を参照する。CNN10は、画像16などの画像内の特徴を検出するために採用される。ニューラルネットワーク10は、層12(図1)などの複数の層を含む。CNN10は、複数の層12、12、…、12、及び分類器14を含む。入力画像16は、層12に供給される。層12は少なくとも、そのそれぞれのフィルタにより画像16を畳み込み、活性化関数によってフィルタの出力の各々を乗算する。層12は、その出力を層12に提供し、層12は、それぞれのフィルタによりそれぞれのその演算を実行する。この処理は、層12の出力が分類器14に提供されるまで繰り返す。層12の出力は、CNN10において採用されるフィルタに対応する特徴のマップである。この特徴マップは、特徴マップと関連付けられたそれぞれの画像ウインドウ内の入力画像16に特徴が存在する確率に関連する。層12の出力における特徴マップは、各々が特徴に対応する複数のマトリックスとして具体化されることがあり、各々のマトリックスにおけるエントリの値は、マトリックスにおけるエントリの位置(すなわち、エントリのインデックス)と関連付けられた特定の画像ウインドウ(すなわち、境界ボックス)内で、そのマトリックスと関連付けられた特徴を入力画像16が含む確率を表す。画像ウインドウのサイズは、畳み込み演算の間にCNN10における層の数、カーネルのサイズ、及びカーネルのストライドに従って判定される。
分類器14は、本分野において既知のいずれかのタイプの分類器であってもよい(例えば、ランダムフォレスト分類器、サポートベクトルマシン−SVM分類器、及び畳み込み分類器など)。分類器14は、CNN10が検出するように訓練されたオブジェクトを分類する。分類器14は、画像ウインドウごとに、オブジェクトがその画像ウインドウ内に位置するそれぞれの検出信頼度レベルと共に分類情報を提供することができる。概して、分類器14の出力は、対応する画像ウインドウ内のオブジェクトの検出及び分類に関連する値のベクトル(単数又は複数)である。値のこのベクトル(単数又は複数)は、本明細書で「分類ベクトル」と称される。
ここで、本分野において既知である、全体的に50と参照符号が付される例示的なCNNを概略的に表す図2を参照する。CNNは、2つの層、第1の層51及び第2の層51を含む。第1の層51は、画像52をそれへの入力として受信する。第1の層51では、畳み込み演算が実行され、第2の層51では、活性化関数が畳み込みの結果に適用される。画像52は、画素のマトリックスを含み、各々の画素は、それぞれの値(例えば、グレーレベル値)又は値(複数)(例えば、カラー値)と関連付けられる。画像52は、オブジェクト(例えば、通りを歩いている人間、公園で遊んでいる犬、及び通りにおける車両など)を含むシーンを表すことができる。
第1の層51では、画像52は、フィルタ54及び54の各々の1つにより畳み込まれる。フィルタ54及び54は、畳み込みカーネル又は単にカーネルとも称される。したがって、フィルタ54及び54の各々は、画像内の選択された位置上でシフトされる。各々の選択された位置において、フィルタにより重複する画素値は、フィルタのそれぞれの重みによって乗算され、この乗算の結果が合計される(すなわち、乗算及び和演算)。全体的に、選択された位置は、「ストライド」と称される予め定められたステップサイズによって画像上でフィルタをシフトすることによって定義される。フィルタ54及び54の各々は、画像内で識別されることになる特徴に対応する。フィルタのサイズと共にストライドは、CNNの設計者によって選択された設計パラメータである。フィルタ54及び54の各々より画像52を畳み込むことは、2つの特徴画像又はマトリックス、フィルタ54及び54のそれぞれの特徴画像56及び特徴画像56を含む特徴マップを作成する(すなわち、それぞれの画像はフィルタごとに作成される)。特徴画像内の各々の画素又はエントリは、1つの乗算及び和演算の結果に対応する。よって、マトリックス56及び56の各々は、フィルタ54及び54のそれぞれに対応するそれぞれの画像特徴と関連付けられる。また、各々のエントリは、入力画像52に対してそれぞれの画像ウインドウと関連付けられる。したがって、マトリックス56及び56の各々内の各々のエントリの値は、エントリと関連付けられた画像ウインドウ内で、それと関連付けられた特徴の特徴強度を表す。特徴画像56及び56のサイズ(すなわち、画素の数)は、画像52のサイズよりも小さいことがあることに留意されたい。第1の層51の出力は、第2の層51に提供される。第2の層51では、特徴画像56及び56の各々における各値は次いで、入力として活性化関数58(例えば、シグモイド、ガウス、及び双曲型tanhなど)に適用される。層51の出力は次いで、分類器60に提供され、分類器60は、画像52内のオブジェクトを検出及び分類し、特徴マップにおいてエントリごとに分類ベクトルを作成する。
画像内のオブジェクトを検出及び分類する前に、CNN10(図1)又はCNN50(図2)などのCNNによって採用される関数の様々なフィルタの重み及びパラメータが判定される必要がある。それらの重み及びパラメータは、訓練工程において判定される。CNNの初期重み及びパラメータ(すなわち、訓練が開始される前)が適宜判定される(例えば、ランダムに)。訓練の間、その中でオブジェクトが検出及び分類されている訓練画像又は画像(複数)は、入力としてCNNに提供される。言い換えると、画像ウインドウごとに予め定められたそれぞれの分類ベクトルを有する画像は、入力としてCNNに提供される。CNNネットワークの層は、各々の訓練画像に適用され、分類ベクトル、各々の訓練画像のそれぞれが判定される(すなわち、その中のオブジェクトが検出及び分類される)。それらの分類ベクトルは、予め定められた分類ベクトルと比較される。CNNの分類ベクトルと予め定められた分類ベクトルとの間の誤差(例えば、差異の二乗和、ログ損失、softmaxlog損失)が判定される。この誤差は次いで、1つ以上の反復を含むことがある、逆伝播工程においてCNNの重み及びパラメータを更新するために採用される。
公開文献「A convolutional Neural Network Cascade for Face Detection」、Li等は、ネットワークの3つのペアを含むCNNに関する。各々のペアは、分類(検出)ネットワーク及び境界ボックス回帰ネットワークを包含する。検出の間、画像プラミッドは、画像のマルチスケールスキャニングを可能にするように生成される。次いで、第1の分類ネットワーク(DET12)が、画像内の全てのウインドウをスキャンし、低信頼度を示すそれらをフィルタするために採用される。第1の境界ボックス回帰ネットワーク(CLB12)が、全ての残りのウインドウの位置を補正するために採用される。非最大抑制(Non−maximalsuppression)が次いで、高重複部分を有するウインドウを除去するために適用される。次の段階では、境界ボックス回帰を実行する第2の境界ボックス回帰ネットワーク(CLB24)がそれに続く、第2の分類ネットワーク(DET24)が、残りのウインドウをフィルタするために採用される。最後に、第3の境界ボックス回帰ネットワーク(CLB48)がそれに続く、第3の分類ネットワーク(DET48)が採用される。
開示される技術の目的は、新規の畳み込みニューラルネットワーク方法及びシステムを提供することである。よって、開示される技術に従って、少なくとも1つの画像内の少なくとも1つのオブジェクトを検出する畳み込みニューラルネットワークシステムが提供される。システムは、少なくとも1つの画像内の予め定められた画像ウインドウサイズに対応する複数のオブジェクト検出器を含む。各々のオブジェクト検出器は、少なくとも1つの画像に対してそれぞれのダウンサンプリング比と関連付けられる。各々のオブジェクト検出器は、それぞれの畳み込みニューラルネットワーク及び畳み込みニューラルネットワークと結合されたオブジェクト分類器を含む。それぞれの畳み込みニューラルネットワークは、複数の畳み込み層を含む。オブジェクト分類器は、畳み込みニューラルネットワークからの結果に従ってオブジェクトを分類する。同一のそれぞれのダウンサンプリング比と関連付けられたオブジェクト検出器は、オブジェクト検出器の少なくとも1つのグループを定義する。オブジェクト検出器のグループにおけるオブジェクト検出器は、共通畳み込み層と関連付けられる。
よって、開示される技術の別の態様に従って、複数のダウンサンプルされた画像を作成するために、複数のダウンサンプリング比に従って画像をダウンサンプリングする手順を含む畳み込みニューラルネットワーク方法が提供される。各々のダウンサンプルされた画像は、それぞれのダウンサンプリング比と関連付けられる。方法は更に、対応する畳み込みニューラルネットワークによって、ダウンサンプルされた画像ごとに少なくとも1つの画像に対して予め定められた画像ウインドウサイズにおいてオブジェクトを検出し、画像内のオブジェクトを分類する手順を含む。同一のそれぞれのダウンサンプリング比と関連付けられたそれぞれのダウンサンプルされた画像内のオブジェクトを検出する畳み込みニューラルネットワークは、畳み込みニューラルネットワークの少なくとも1つのグループを定義する。畳み込みニューラルネットワークのグループにおける畳み込みニューラルネットワークは、共通畳み込み層と関連付けられる。
開示される技術は、図面と併用される以下の詳細な説明からより完全に理解及び認識されよう。
本分野において既知であるCNNを概略的に表す。 本分野において既知である例示的なCNNを概略的に表す。 開示される技術の実施形態に従って入力画像内のオブジェクトを検出するCNNシステムを概略的に表す。 開示される技術の実施形態に従って入力画像内のオブジェクトを検出するCNNシステムを概略的に表す。 開示される技術の別の実施形態に従って構築され、動作可能である、入力画像内のオブジェクトを検出する例示的なCNNシステムを概略的に表す。 開示される技術の更なる実施形態に従って訓練セットを判定するために採用される、その中にオブジェクトを有する画像を概略的に表す。 開示される技術の更なる実施形態に従って訓練セットを判定するために採用される、その中にオブジェクトを有する画像を概略的に表す。 開示される技術の更なる実施形態に従って訓練セットを判定するために採用される、その中にオブジェクトを有する画像を概略的に表す。 開示される技術の更なる実施形態に従って訓練セットを判定するために採用される、その中にオブジェクトを有する画像を概略的に表す。 開示される技術の更なる実施形態に従って訓練セットを判定するために採用される、その中にオブジェクトを有する画像を概略的に表す。 開示される技術の更なる実施形態に従って訓練セットを判定するために採用される、その中にオブジェクトを有する画像を概略的に表す。 開示される技術の更なる実施形態に従って訓練セットを判定するために採用される、その中にオブジェクトを有する画像を概略的に表す。 開示される技術の更なる実施形態に従って訓練セットを判定するために採用される、その中にオブジェクトを有する画像を概略的に表す。 開示される技術の別の実施形態に従って動作可能である、ニューラルネットワークについての訓練セットを判定する方法を概略的に表す。 開示される技術の更なる実施形態に従って動作可能である、CNNについての方法を概略的に表す。
開示される技術は、画像内のオブジェクトを検出するCNNネットワークシステムを提供することによって従来技術の欠点を解消する。開示される技術に従ったCNNネットワークは、複数のオブジェクト検出器を含む。各々のオブジェクト検出器は、画像内のそれぞれの予め定められた画像ウインドウサイズと関連付けられる。各々のオブジェクト検出器は、画像に対するそれへの入力におけるそれぞれのダウンサンプリング比と関連付けられる。各々のオブジェクト検出器は、複数の畳み込み層を含むそれぞれのCNNを少なくとも含む。各々の畳み込み層は、複数のフィルタによりそれへの入力を畳み込み、この畳み込みの結果が活性化関数によって処理される。各々のオブジェクト検出器は更に、畳み込みニューラルネットワークからの結果に従って画像内のオブジェクトを分類する、畳み込みニューラルネットワークと結合されたオブジェクト分類器を含む。同一のそれぞれのダウンサンプリング比と関連付けられたオブジェクト検出器は、オブジェクト検出器の少なくとも1つのグループを定義する。オブジェクト検出器のグループにおけるオブジェクト検出器は、共通畳み込み層を共有する。よって、それらの共通畳み込み層は、オブジェクト検出器のグループにおける全てのオブジェクト検出器について一回算出されてもよい。
また、開示される技術に従って、CNN入力画像に対する同一のそれぞれの画像ウインドウサイズと関連付けられたオブジェクト検出器は、スケール検出器を定義する。各々のスケール検出器は、CNN入力画像のそれぞれのスケールと関連付けられる。スケール検出器がオブジェクト検出器及びダウンサンプラの同一の構成を示すとき、並びにオブジェクト検出器におけるCNNが同様の特性を有する層のグループを示すとき、オブジェクト検出器は次いで、以下で更に説明される共通層を有するように訓練される。訓練スケール検出器のCNNの重み及びパラメータが判定されると、この訓練スケール検出器の複製は、開示される技術のCNNシステムを定義するように配置される。
また、CNNを訓練するために採用されるサンプルの数は、図5A〜5H及び6と共に更に説明されるように、各々のサンプルを特徴参照位置と位置合わせし、サンプルをランダムに摂動させることによって初期数を上回って増加することができる。
ここで、開示される技術実施形態に従って、入力画像106内のオブジェクトを検出する、全体的に100と参照符号が付されるCNNシステムを概略的に表す、図3A及び3Bを参照する。CNNシステム100は、複数のスケール検出器102、102、…、102、及び複数のダウンサンプラ104〜104N−1を含む。ダウンサンプラ104〜104N−1の各々は、それぞれのダウンサンプリング比と関連付けられる。スケール検出器102、…、102の各々は、それへの入力において、それぞれのダウンサンプラ104〜104N−1と結合される。よって、各々のスケール検出器は、入力画像106に対するそれぞれのダウンサンプリング比(すなわち、スケール)と関連付けられる。スケール検出器102は、その入力において、入力画像106を受信する(すなわち、スケール検出器102のそれぞれのダウンサンプリング比は1つである)。システム100は、複数のスケールオブジェクト検出器として見なされてもよく、スケール検出器102、…、102の各々は、その入力において入力画像106のダウンサンプルされたバージョンを受信する。言い換えると、スケール検出器102、102、…、102の各々は、入力画像106のそれぞれのスケールと関連付けられる。図3Aでは、ダウンサンプラ104〜104N−1は、直列のダウンサンプラに配置され、各々のダウンサンプラは、その入力において前のダウンサンプラの出力を受信する(すなわち、その入力において入力画像106を受信するダウンサンプラ104を除き)。しかしながら、ダウンサンプラ104〜104N−1は、並列に配置されてもよく、各々のダウンサンプラは、その入力において入力画像106を受信し、スケール検出器102、…、102のそれぞれの1つと関連付けられた対応するダウンサンプリング比によって入力画像106をダウンサンプルする。
図3Bを参照して、そこで表されるのは、スケール検出器102、102、…、102のうちの1つであるスケール検出器102である。オブジェクト検出器102は、複数のオブジェクト検出器108、108、…、108、及び複数のL−1ダウンサンプラを含み、複数のL−1ダウンサンプラから、ダウンサンプラ110L−1及び110L−2が図3Bにおいて表される。オブジェクト検出器108、108、…、108の各々は、それぞれのCNN及び分類器を含む。各々のCNNは、複数の畳み込み層を含む。オブジェクト検出器108は、M1層を含み、オブジェクト検出器108は、M2層を含み、オブジェクト検出器108は、M3層を含み、M1、M2、及びM3は、整数である。一般性の喪失なく、M3>=M2>=M1である。
オブジェクト検出器の各々はまた、それへの入力における画像に対するそれぞれの画像ウインドウサイズと関連付けられる。図3Bにおいて示される例では、オブジェクト検出器108は、それへの入力におけるダウンサンプルされた画像に対するI1×I2の画像ウインドウサイズと関連付けられ、オブジェクト検出器108は、それへの入力におけるダウンサンプルされた画像に対するK1×K2の画像ウインドウサイズと関連付けられ、オブジェクト検出器108は、それへの入力における画像に対するJ1×J2の画像ウインドウサイズと関連付けられる(すなわち、それは、ダウンサンプルされた画像、又はオブジェクト検出器108がスケール検出器102に位置するときの元の入力画像106であってもよい)。I1、K1、及びJ1は、画像ウインドウサイズの幅に対応し、I2、K2、及びJ2は、画像ウインドウサイズの高さに対応する。そのようにして、オブジェクト検出器108、108、…、108の各々は、入力画像106に対する同一のそれぞれの画像ウインドウサイズと関連付けられる。このそれぞれの画像ウインドウサイズ(すなわち、受入領域)は、畳み込み演算の間に、それへの入力における各々の108、108、…、108と関連付けられたダウンサンプリング比、各々のオブジェクト検出器における畳み込み層の数、カーネルのサイズ、及びカーネルのストライドと関連付けられる。
各々のCNNの出力は、それぞれの分類器と結合される。検出器108、108、…、108L−1の各々の1つの入力は、それぞれのダウンサンプラと結合される。各々のダウンサンプラ、及びオブジェクト検出器108は、画像105を受信し、画像105は、その入力における入力画像106のダウンサンプルされたバージョンであってもよい。ダウンサンプラの各々は、それぞれのダウンサンプリング比によってそれへの入力画像をダウンサンプルし、ダウンサンプルされた画像をオブジェクト検出器108、108、…、108L−1のそれぞれの1つに提供する。その結果、108、108、…、108の各々は、入力画像106に対するそれぞれのダウンサンプリング比と関連付けられる。このそれぞれのダウンサンプリング比は、ダウンサンプラ104〜104N−1のダウンサンプリング比及びオブジェクト検出器108、108、…、108の各々と結合されたダウンサンプラのダウンサンプリング比によって判定される。
オブジェクト検出器108、108、…、108の各々におけるそれぞれのCNNの各々の層は、対応するフィルタによりそれに提供された画像を畳み込む。各々のCNNの出力は、CNNによって採用されるフィルタに対応する特徴のマップである。特徴マップは、値のエントリを含む。特徴マップにおける各々のエントリの各値は、エントリと関連付けられた画像ウインドウ内で、様々なフィルタと関連付けられた特徴の特徴強度を表す。この特徴マップは、それぞれの分類器に提供される。各々の分類器は、CNNシステム100が検出するように訓練されたオブジェクトを分類し、画像ウインドウごとに、分類ベクトルを提供する。この分類ベクトルは、オブジェクトがその画像ウインドウ内に位置する検出信頼度レベルに関連する値を含み、更に、以下で更に詳しく述べられるように、画像ウインドウ補正係数を含んでもよい(すなわち、境界ボックス回帰)。
図4と共に以下で更に例示されるように、オブジェクト検出器108、108、…、108の各々は、入力画像104に対するそれぞれのダウンサンプリング比と関連付けられる。同一のそれぞれのダウンサンプリング比を有するオブジェクト検出器は、オブジェクト検出器のグループを定義する。開示される技術に従って、オブジェクト検出器のグループにおけるオブジェクト検出器は、共通畳み込み層と関連付けられる(すなわち、それらのオブジェクト検出器への入力画像が同一であるから)。そのようにして、それらの共通畳み込み層は、オブジェクト検出器のグループごとに1回算出される必要がある。
上記言及されたように、オブジェクト検出器108、108、…、108の各々の出力は、入力画像106に対するそれぞれの画像ウインドウサイズと関連付けられる。そのようにして、複数のスケール検出器が採用されるとき、同一のそれぞれの画像ウインドウサイズと関連付けられた2つ以上のオブジェクト検出器が存在することができる。したがって、それらのオブジェクト検出器のうちの1つのみが、入力画像104内のオブジェクト(すなわち、それぞれの画像ウインドウサイズと関連付けられた画像ウインドウ内の)を検出及び分類するために採用されてもよい。しかしながら、検出信頼度レベルが十分でない場合、より多くの数の層を有する別のオブジェクト検出器が採用されてもよく、よって、算出の複雑度を低減させる(すなわち、平均で)(例えば、実行される演算の数の点で)。他のオブジェクト検出器は、オブジェクトが予め定められた値を上回ってそこに位置する確率により画像ウインドウのみを処理する。言い換えると、他のオブジェクト検出器を採用する前に、背景に関連する画像ウインドウは、第1のオブジェクト検出器によって判定された確率に従って除去される。
ここで、開示される技術の別の実施形態に従って構築され、動作可能である、入力画像内のオブジェクトを検出する、全体的に200と参照符号が付される例示的なCNNシステムを概略的に表す、図4を参照する。例示的なCNNシステム200は、2つのスケール検出器、第1のスケール検出器202及び第2のスケール検出器202、並びにダウンサンプラ218を含む。第1のスケール検出器202及び第2のスケール検出器202の各々は、複数のオブジェクト検出器及び複数のダウンサンプラを含む。ダウンサンプラは、図4において「DS」と短縮される。第1のスケール検出器202は、オブジェクト検出器204、204、及び204...並びにダウンサンプラ210及び212を含む。第2のスケール検出器202は、オブジェクト検出器206、206、及び206、並びにダウンサンプラ214及び216を含む。オブジェクト検出器204、204、204、206、206、及び206の各々は、それぞれのCNN及びそれぞれの分類器(図4において「CLASS」と短縮される)205、205、205、207、207、及び207を含む。各々のCNNは、複数の畳み込み層(図4において「L」と短縮される)を含む。オブジェクト検出器204及び206のCNNは、M1層を含み、オブジェクト検出器2042及び2062のCNNは、M2層を含み、オブジェクト検出器204及び206のCNNは、M3層を含み、M1、M2、及びM3は、整数である。一般性の喪失なく、M3>=M2>=M1である。
オブジェクト検出器の各々はまた、それへの入力における画像に対するそれぞれの画像ウインドウサイズと関連付けられる。図4において示さされる例では、オブジェクト検出器204及び206は、それへの入力におけるダウンサンプルされた画像に対するI1×I2の画像ウインドウサイズと関連付けられ、オブジェクト検出器204及び206は、それへの入力におけるダウンサンプルされた画像に対するK1×K2の画像ウインドウサイズと関連付けられ、オブジェクト検出器204及び206は、それへの入力における画像に対するJ1×J2の画像ウインドウサイズと関連付けられる(すなわち、オブジェクト検出器206への入力画像のみがダウンサンプルされる)。I1、K1、及びJ1は、画像ウインドウサイズの幅に対応し、I2、K2、及びJ2は、画像ウインドウサイズの高さに対応する。そのようにして、オブジェクト検出器204、204、204、206、206、及び206の各々は、入力画像208に対するそれぞれの画像ウインドウサイズと関連付けられる。このそれぞれの画像ウインドウサイズは、畳み込み演算の間に、それへの入力におけるオブジェクト検出器204、204、204、206、206、及び206の各々と関連付けられたダウンサンプリング比、各々のオブジェクト検出器における畳み込み層の数、カーネルのサイズ、並びにカーネルのストライドに従って判定される。入力画像208に対するオブジェクト検出器204、204、204、206、206、及び206の各々のそれぞれの画像ウインドウサイズは、オブジェクト検出器204、204、204、206、206、及び206の各々と関連付けられたそれぞれのダウンサンプリング比によって、それへの入力におけるそれぞれの画像ウインドウサイズに関連する。例えば、入力画像208に対する検出器204のそれぞれの画像ウインドウサイズは、R2*I1×R2*I2である。同様に、入力画像208に対する検出器204のそれぞれの画像ウインドウサイズは、R1*K1×R1*K2である。
各々の畳み込みネットワークの出力は、それぞれの分類器205、205、205、207、207、及び207の入力と結合される。図4において表される配置では、オブジェクト検出器204、204、204、206、206、及び206の各々は、それぞれのダウンサンプラと結合される。オブジェクト検出器204の入力は、ダウンサンプラ210の出力と結合される。オブジェクト検出器204の入力は、ダウンサンプラ212の出力と結合される。オブジェクト検出器206の入力は、ダウンサンプラ214の出力と結合される。オブジェクト検出器206の入力は、ダウンサンプラ216の出力と結合され、オブジェクト検出器206の入力は、出力ダウンサンプラ218と結合される。ダウンサンプラ214及び216の入力はまた、ダウンサンプラ218の出力と結合される。
オブジェクト検出器204、ダウンサンプラ210、ダウンサンプラ212、及びダウンサンプラ218は、その入力において入力画像208を受信する。ダウンサンプラ210、ダウンサンプラ212、及びダウンサンプラ218の各々は、そのそれぞれのダウンサンプリング比によって入力画像208をダウンサンプルする。ダウンサンプラ210は、ダウンサンプルされた画像をオブジェクト検出器204に提供する。ダウンサンプラ212は、ダウンサンプルされた画像をオブジェクト検出器204に提供し、ダウンサンプラ218は、ダウンサンプルされた画像をオブジェクト検出器206、ダウンサンプラ214、及びダウンサンプラ216に提供する。ダウンサンプラ214は、それに提供された画像を更にダウンサンプルし、2回ダウンサンプルされた画像をオブジェクト検出器206に提供する。ダウンサンプラ216はまた、それに提供された画像を更にダウンサンプルし、2回ダウンサンプルされた画像をオブジェクト検出器206に提供する。
オブジェクト検出器204、204、204、206、206、及び206の各々の1つにおけるそれぞれのCNNの各々の層は、対応するフィルタによりそれに提供された画像を畳み込む。各々のCNNの出力は、CNNにおいて採用されるフィルタに対応する特徴のマップである。上記説明されたように、特徴マップは値を含み、特徴マップにおける各々のエントリの各々の値は、エントリと関連付けられた画像ウインドウ内で、様々なフィルタと関連付けられた特徴の特徴強度を表す。特徴マップの各々は、分類器205、205、205、207、207、及び207の各々に提供される。
分類器205、205、205、207、207、及び207の各々は、それへの入力としてそれぞれのマトリックスを受信する。分類器205、205、205、207、207、及び207の各々は、分類ベクトルを判定する。この分類ベクトルは、オブジェクト(単一又は複数)(すなわち、CNNが検出するように訓練された)が、それに提供された特徴マップと関連付けられた画像ウインドウの各々に位置する確率に関連する値を含む。更に、分類器205、205、205、207、207、及び207の各々の1つによって判定された分類ベクトルは、それに提供された特徴マップと関連付けられた画像ウインドウごとの画像ウインドウ補正係数に関連する値を含む。それらの画像ウインドウ補正係数は、例えば、画像ウインドウの幅及び高さへの補正を含む。それらの画像ウインドウ補正係数は更に、画像ウインドウの位置と共に、画像ウインドウの方位への補正を含んでもよい。それらの画像ウインドウ補正係数は、以下で更に詳しく述べられるように、CNNが提供するように訓練された分類ベクトルの一部である。分類ベクトルは、例えば、サンプルが特定のクラスに属することを指定する二値を含む。例えば、ベクトル[1,0]は、サンプルが「FACE」クラスに属し、「NOT−FACE」クラスに属さないことを示す。分類ベクトルは、3つ以上のクラスを含んでもよい。加えて、このベクトルは、3Dの姿勢、属性(年齢、顔における性別、車内の色及び型)、並びに境界ボックス回帰ターゲット値などの追加の情報の数的表現を含んでもよい。
分類器205、205、205、207、207、及び207の各々は、特徴マップにより分類フィルタ又はフィルタ(複数)を畳み込む(例えば、1×1×Q×Nフィルタであり、Qは、特徴マップにおけるマトリックスの数であり、Nは、判定されることになる分類情報に関連する分類フィルタの数である)畳み込み分類器として具体化されてもよく、そのようなフィルタ(単一又複数)の出力は、上記言及された確率及び補正係数である。そのような畳み込み分類器のパラメータは、以下で更に説明されるように、CNNの訓練の間に判定される。
上記言及されたように、オブジェクト検出器204、204、204、206、206、及び206の各々は、CNN200への入力画像208に対して(すなわち、その中でオブジェクトが検出されている画像)、それへの入力におけるそれぞれのダウンサンプリング比と関連付けられる。更に、上記言及されたように、それへの入力における同一のそれぞれのダウンサンプリング比を有するオブジェクト検出器は、オブジェクト検出器のグループを定義する。CNNシステム200では、ダウンサンプラ212及び218は、同一の第1のダウンサンプリング比、R1によって入力画像208をダウンサンプルする。ダウンサンプラ216は、ダウンサンプリング比R1によって入力画像208を更にダウンサンプルする。よって、オブジェクト検出器206と関連付けられたサンプリング比は、R1*R1である。ダウンサンプラ210は、R1とは異なる第2のダウンサンプリング比、R2によって入力画像208をダウンサンプルする。R2=R1*R1であるとき、オブジェクト検出器204及び206は次いで、同一のそれぞれのダウンサンプリング比(すなわち、R2)と関連付けられ、オブジェクト検出器のグループを定義する(すなわち、図4において網掛けされた左斜め線によって示されるように)。同様に、オブジェクト検出器204及び206は、同一のダウンサンプリング比(すなわち、R1)と関連付けられ、オブジェクト検出器の別のグループを定義する(すなわち、図4において網掛けされた垂直線によって示されるように)。ダウンサンプラ214は、ダウンサンプリング比R2によってダウンサンプラ218からの出力をダウンサンプルする。図4において表されるダウンサンプリング配置は、本明細書で例として示されるにすぎないことに留意されたい。更なる例として、図4において、3つのダウンサンプリング比が採用されるので(すなわち、R1、R2、及びR1*R2)、次いで、3つのダウンサンプラは十分であり、各々のダウンサンプラの出力は、ダウンサンプラのダウンサンプリング比と関連付けられたオブジェクト検出器に提供される。そのような3つのダウンサンプラは、並列して、又は直列のダウンサンプラに配置されてもよい。
開示される技術に従って、そこでの入力における同一のそれぞれのダウンサンプリング比と関連付けられたオブジェクト検出器は、オブジェクト検出器のグループを定義する。オブジェクト検出器の同一のグループにおけるオブジェクト検出器は、共通畳み込み層と関連付けられる(すなわち、それらのオブジェクト検出器への入力画像のサイズが同一であるので)。それらの共通畳み込み層は、同一の畳み込みカーネル(すなわち、フィルタ)を共有し、それへの入力における同一の画像サイズに対して動作する。そのようにして、それらの共通畳み込み層は、オブジェクト検出器のグループごとに1回のみ算出される必要がある。図4では、オブジェクト検出器204及び206は、それへの入力における同一のそれぞれのダウンサンプリング比と関連付けられ、オブジェクト検出器のグループを定義する。そのようにして、オブジェクト検出器204及び206における層1−M1は共通層である。よって、オブジェクト検出器204及び206における層1−M1は、オブジェクト検出の間に1回算出されてもよい。オブジェクト検出器206は、層M1+1−M2を継続及び算出するために層M1からの結果を採用する。同様に、オブジェクト検出器204及び206は、同一のそれぞれのダウンサンプリング比と関連付けられ、オブジェクト検出器のグループを定義する。そのようにして、オブジェクト検出器204及び206における層1−M2は、共通層であり、1回算出されてもよい。オブジェクト検出器206は、層M2+1−M3を継続及び算出するために層M2からの結果を採用する。概して、グループにおけるオブジェクト検出器は、異なるスケール検出器と関連付けられてもよいからである。よって、オブジェクト検出器のグループにおけるオブジェクト検出器のCNNは、画像プラミッドの異なるスケールにおいて特徴マップを作成するものと見なされてもよく、1つのスケールにおいて1つのオブジェクト検出器のCNNによって作成された特徴マップは、別のスケールにおいて別のオブジェクト検出器のCNNによって採用される。
また、上記言及されたように、オブジェクト検出器204、204、204206、206、及び206の各々の出力は、入力画像208に対するそれぞれの画像ウインドウサイズと関連付けられる。特に、オブジェクト検出器204、204、及び204からの出力は、画像208内の同一の第1の画像ウインドウサイズと関連付けられる。同様に、オブジェクト検出器206、206、及び206からの出力は、画像208内の同一の第2の画像ウインドウサイズと関連付けられる。そのようにして、第1の画像ウインドウサイズについて、オブジェクト検出器204、204、及び204のうちの1つのみが入力画像208内のオブジェクトを検出及び分類するために採用されてもよい。同様に、第2の画像ウインドウサイズについて、オブジェクト検出器206、206、及び206のうちの1つのみが入力画像208内のオブジェクトを検出及び分類するために採用されてもよい。典型的には、より少ない数の層を示すCNNを有するオブジェクト検出器が検出される。しかしながら、検出信頼度レベルが十分でない場合、より多くの数の像を有する異なる検出器が採用されてもよく、よって、算出の複雑度を低減させる(すなわち、平均で)。例えば、オブジェクト検出器204によって作成された検出信頼度が十分でない場合、次いで、オブジェクト検出器204が採用されることになる。にも関わらず、オブジェクト検出器204は、オブジェクトが予め定められた値を上回ってそこに位置する確率により画像ウインドウのみを処理してもよい。言い換えると、オブジェクト検出器204を採用する前に、背景に関連する画像ウインドウは、オブジェクト検出器204によって判定された確率に従って除去される。
訓練
上記説明されたように、開示される技術に従ったCNNは、複数のスケール検出器を含む。各々のスケール検出器は、複数のオブジェクト検出器を含む。各々のオブジェクト検出器は、それぞれのCNNを含む。スケール検出器の各々がオブジェクト検出器及びダウンサンプラの同一の構成を示すとき、並びにオブジェクト検出器におけるCNNが同様の特性を有する層のグループを示すとき(すなわち、同一のフィルタサイズ、ストライド、及び活性化関数を示し、同一に順序付けられる)、オブジェクト検出器のCNNは次いで、共通層を有するように訓練される。
上記及び以下の本明細書における用語「同様の特性を有する層のグループ」は、層のグループに関連し、各々のグループにおける層は、同一のフィルタサイズ、ストライド、及び活性化関数を示し、グループにおける層は、同一に順序付けられる。上記及び以下の本明細書における用語「共通層」は、同様の特性を有する層のグループに関連し(すなわち、異なるオブジェクト検出器における)、グループにおける対応する層(すなわち、各々のグループにおける第1の層、各々のグループにおける第2の層など)は、同様の重み及びパラメータを有する。例えば、図4を参照して、スケール検出器202及び202は、オブジェクト検出器及びダウンサンプラの同一の構成を示す。更に、オブジェクト検出器204、204、204、206、206、及び206のCNNにおける層1−M1は、同様の特性を有する層のグループであり、それらのオブジェクト検出器のそれぞれのCNNは、共通層を有するように訓練される。また、オブジェクト検出器204、204、206、及び206のCNNにおける層M1+1−M2はまた、同様の特性を有する層のグループであり、それらのオブジェクト検出器のそれぞれのCNNは、共通層を有するように訓練される。同様に、オブジェクト検出器204及び206のCNNの層M2+1−M3は、同様の特性を有する層のグループであり、それらのオブジェクト検出器のそれぞれのCNNは、共通層を有するように訓練される。
1つの代替手段に従って、CNNシステムにおけるオブジェクト検出器は、各々が予め定められたそれぞれの分類ベクトルを有する、同一の訓練サンプル又はサンプル(複数)が提供される。サンプル又はサンプル(複数)のサイズは、それへの入力における画像に対する各々のオブジェクト検出器と関連付けられた画像ウインドウサイズに対応する(例えば、図3B及び4におけるI1×I2、K1×K2、及びJ1×J2)。各々のオブジェクト検出器は、それに提供された訓練サンプル内のオブジェクトを検出及び分類するためにそれぞれのCNN及び分類器を採用し、各々のサンプルのそれぞれの分類ベクトルを作成する。それらの分類ベクトルは、予め定められた分類ベクトルと比較される。オブジェクト検出器のそれぞれのCNNによって作成された分類ベクトルとそれぞれの予め定められた分類ベクトルとの間の誤差(例えば、差異の二乗和、ログ損失、softmaxlog損失)が判定される。この誤差を最小化する重み及びパラメータについての補正係数は次いで、各々のそれぞれのオブジェクト検出器における各々のCNNの重み及びパラメータについて判定される。CNNの重み及びパラメータは次いで、それに従って更新される。全てのオブジェクト検出器のそれぞれのCNNにおける同様の特性を有する層のグループの全ての重み及びパラメータは次いで、共通層を作成するために、平均化され、同様の特性を有する層のそれぞれのグループに適用される。例えば、全てのオブジェクト検出器における全てのCNNの第1のM1層についての重み及びパラメータが平均化される。同様に、全てのオブジェクト検出器における全てのCNNのM1+1−M2層についての重み及びパラメータが平均化されるなどである。更新された重み及びパラメータを平均化し、補正係数を平均化し、それらの平均化された補正係数に従って重み及びパラメータを更新することは、CNNが同一の重み及びパラメータにより初期化されるときに同等である。
別の代替手段に従って、スケール検出器の各々がオブジェクト検出器及びダウンサンプラの同一の構成を示すとき、並びにオブジェクト検出器におけるCNNが同様の特性を有する層のグループを示すとき、スケール検出器の単一のインスタンスが次いで訓練されてもよい。スケール検出器のこの単一のインスタンスは、本明細書で「訓練スケール検出器」と称される。訓練スケール検出器により開示される技術に従ってCNNを訓練するために、訓練スケール検出器は、各々が予め定められたそれぞれの分類ベクトルを有する、訓練サンプルが提供される。1つの代替手段に従って、オブジェクトのリストを含む画像及び境界ボックスは、訓練スケール検出器に提供される。別の代替手段に従って、サンプルは、スケール検出器におけるオブジェクト検出器への入力に対して最大画像ウインドウサイズ(例えば、図3B及び4におけるJ1×J2)と類似のサイズ(すなわち、必ずしも同様でない)を示す。それらのサンプルは次いで、他のオブジェクト検出器のそれぞれのサイズ(例えば、図3B及び4におけるI1×I2、K1×K2)を示す訓練サンプルを作成するためにダウンサンプルされる(すなわち、オブジェクト検出器102−図3Bにおけるダウンサンプル110L−1及び110L−2と類似した訓練スケール検出器のダウンサンプルによって)。各々のオブジェクト検出器は、それに提供された訓練サンプル内のオブジェクトを検出及び分類するためにそれぞれのCNN及び分類器を採用し、各々のサンプルのそれぞれの分類ベクトルを作成する。それらの分類ベクトルは、予め定められた分類ベクトルと比較される。CNNの分類ベクトルと予め定められた分類ベクトルとの間の誤差が判定される。
図3A、3B、及び4と共に上記説明されたなど構成における複数のスケール検出器を採用するために、上記言及された誤差を最小化する重み及びパラメータについての補正係数は次いで、訓練スケール検出器における各々のそれぞれのオブジェクト検出器における各々のCNNの重み及びパラメータについて判定される。CNNの重み及びパラメータは次いで、それに従って更新される。訓練スケール検出器における全てのオブジェクト検出器のそれぞれのCNNにおける同様の特性を有する層の全てのグループの重み及びパラメータは次いで、共通層を作成するために、平均化され、同様の特性を有する層のそれぞれのグループに適用される。訓練スケール検出器のCNNの重み及びパラメータが判定されると、この訓練スケール検出器の複製は、スケール検出器108〜108(図3A)の各々の1つを実装するように配置され、開示される技術のCNNシステムを定義する。
訓練の間、CNNの重み及びパラメータが更新され、その結果、この誤差が最小化される。そのような最適化は、例えば、確率的勾配降下法(SGD)などの勾配降下法工程を採用して実装されてもよい。勾配降下法工程に従って、CNNにおける層ごと及びサンプルごとに判定された重み及びパラメータ(又は、新たな重み及びパラメータ)に対する補正は、全てのサンプルについて平均化される。重み及びパラメータに対する補正は、CNNの重み及びパラメータに対する誤差の偏微分に従って判定される(すなわち、CNNが合成関数として見なされてもよいから)。この工程は、判定された数の反復、又は誤差が予め定められた値を下回るまでのいずれかで複数の反復で繰り返される。SGDに従って、反復の各々において、サンプルの一部のみが反復の各々において採用される。更に、連鎖法則、層への入力、層の出力、及び誤差に対する出力の導関数は、その層の重み及びパラメータの導関数を判定するために必要とされる。
上記言及されたように、開示される技術に従ってCNNによって提供された分類ベクトルは、画像ウインドウ補正係数を含む。訓練の間に画像ウインドウ補正係数を提供するようにCNNを訓練するために、各々の分類ベクトルに対応する画像ウインドウの位置と方位との間の差異(すなわち、特徴マップにおけるこのベクトルのインデックスによって定義されるような)、及びサンプルの実際の位置と方位との間の差異が判定される。この差異は、例えば、確率的勾配降下法を使用して最小化される。
訓練データ
概して、CNNは、入力画像内のオブジェクトを定義するように訓練され、CNNが検出するように訓練されたオブジェクトが入力画像内の様々な位置に存在する確率に関連する情報を作成する。CNNは、各々が予め定められた分類ベクトルと関連付けられた、サンプル(画像又はいずれかの他のデータ)を含む訓練セットを使用して訓練される。訓練するために採用されたサンプルは典型的には、画像から切り取られた画像ウインドウである。各々のサンプルは、画像内のオブジェクトを有する画像ウインドウの重複に従って分類される(すなわち、クラスはサンプルについて判定される)。サンプルが画像内のいずれかのオブジェクトと重複しないとき、そのサンプルは、背景として分類される。上記言及されたように、訓練工程は、CNNの出力値と採用されるサンプルと関連付けられた値との間の誤差を削減するように(例えば、差異の二乗和、ログ損失、softmaxlog損失)CNNパラメータを修正する。
開示される技術に従って、初期数の訓練サンプルを有し、検出及び分類されたオブジェクトを有する初期訓練セットを仮定すると、訓練セットにおける訓練サンプルの数は、初期数を上回って増加することができる。言い換えると、より多くの数の訓練サンプルを有する訓練セットは、初期の訓練セットから作成される。ここで、開示される技術の更なる実施形態に従って、訓練セットを判定するために採用された、その中にオブジェクト(例えば、面)を有する画像250、280、及び310を概略的に表す、図5A〜5Hを参照する。最初に、画像250、280、及び310内のオブジェクト253、255、283、285、313、及び315が検出される。その後、予め定められたサイズを示す四角形境界は、検出されたオブジェクトの周りで定義される。四角形境界などは、上記及び以下の本明細書でオブジェクトの「境界ボックス」と称される。
画像250、280、及び310内のオブジェクト253、255、283、285、313、及び315の各々は、それぞれの境界ボックスによって境界がつけられる。画像250内では、オブジェクト253は、境界ボックス252によって境界がつけられ、オブジェクト255は、境界ボックス254によって境界がつけられる。画像280内では、オブジェクト283は、境界ボックス282によって境界がつけられ、オブジェクト285は、境界ボックス284によって境界がつけられる。画像310内では、オブジェクト313は、境界ボックス312によって境界がつけられ、オブジェクト315は、境界ボックス314によって境界がつけられる。各々の境界ボックスは、それぞれのサイズを示す。画像250、280、及び310内では、2つの異なる境界ボックスサイズが例示される。境界ボックス252、282、及び314は、第1のサイズを示し、境界ボックス254、284、及び312は、第2のサイズを示す。各々の境界ボックスは、それぞれの相対座標系と関連付けられる。境界ボックス252は、座標系256と関連付けられ、境界ボックス254は、座標系258と関連付けられ、境界ボックス282は、座標系286と関連付けられ、境界ボックス284は、座標系288と関連付けられ、境界ボックス312は、座標系316と関連付けられ、境界ボックス214は、座標系318と関連付けられる。
オブジェクトのキーポイントごとに、それぞれの特徴位置が境界ボックスと関連付けられた座標系において判定される。図5A〜5Hにおいて示される例では、オブジェクトの特徴タイプは、顔の目、鼻、及び口である(すなわち、オブジェクトは顔である)。図5Bを参照して、境界ボックス252の座標系256において、ポイント260及び260は、顔253の目の位置を表し、ポイント262は、顔253の鼻の位置を表し、ポイント264、264、及び264は、顔253の口の位置を表す。同様に、境界ボックス254の座標系258において、ポイント266及び266は、オブジェクト255の目の位置を表し、ポイント268は、オブジェクト255の鼻の位置を表し、ポイント270、270、及び270は、オブジェクト255の口の位置を表す。図5Dを参照して、境界ボックス282の座標系286において、ポイント290及び290は、オブジェクト283の目の位置を表し、ポイント292は、オブジェクト283の鼻の位置を表し、ポイント294、294、及び294は、オブジェクト283の口の位置を表す。同様に、境界ボックス284の座標系288において、ポイント296及び296は、オブジェクト285の目の位置を表し、ポイント298は、オブジェクト285の鼻の位置を表し、ポイント300、300、及び300は、オブジェクト285の口の位置を表す。図5Fを参照して、境界ボックス312の座標系316において、ポイント320及び320は、オブジェクト313の目の位置を表し、ポイント322は、オブジェクト313の鼻の位置を表し、ポイント322、322、及び322は、オブジェクト313の口の位置を表す。同様に、境界ボックス314の座標系218において、ポイント326及び326は、オブジェクト315の目の位置を表し、ポイント328は、オブジェクト315の鼻の位置を表し、ポイント329、329、及び329は、オブジェクト315の口の位置を表す。典型的には、それぞれの座標系におけるオブジェクトのキーポイントの位置は、例えば、0〜1になるように正規化される(すなわち、境界ボックスの角は、座標[0,0]、[0,1]、[1,1]、[1,0]に位置する)。言い換えると、それぞれの境界ボックス252、254、282、284、312、及び314の座標系256、258、286、288、316、及び316はそれぞれ、境界ボックスの位置及びサイズに対して正規化される。よって、様々な特徴の位置は、境界ボックスのサイズと独立して関連することができる。
図5Gを参照して、様々なオブジェクトのキーポイントの正規化された位置は、任意の境界ボックス330において重ね合わせて表される。境界ボックスの座標系が正規化されるので(すなわち、1つの座標系における位置が別の座標系における同一の位置に対応する)、異なる境界ボックスにおける同一のオブジェクトのキーポイントタイプ(例えば、目)と関連付けられた位置が平均化されてもよい。
その後、オブジェクトのキーポイントタイプ(例えば、目、鼻、口)ごとに、特徴参照位置が判定される。図5Hを参照して、境界ボックスについて、任意のサイズ、ポイント336は、ポイント260、290、326266、296、及び320の位置の平均位置を表し、ポイント336は、ポイント260、290、326、266、296、及び320の位置の平均位置を表す。ポイント338は、ポイント262、292、328、268、298、及び322の位置の平均位置を表す。ポイント340は、ポイント264、294、329、270、300、及び324の位置の平均位置を表す。ポイント340は、ポイント264、294、329、264、300、及び324の位置の平均位置を表し、ポイント340は、ポイント264、294、329、270、300、及び324の位置の平均位置を表す。
それらの平均位置は、特徴参照位置を定義する。ポイント336及び336は、目の特徴参照位置を定義し、ポイント338は、鼻の参照位置を定義し、ポイント340、340、及び340は、口の参照位置を定義する。
それらのキーポイントの参照位置が判定されると、初期訓練サンプルの各々における各々のオブジェクトは、それらのキーポイントの参照位置と位置合わせされ、その結果、各々のオブジェクトのキーポイントは、選択された位置合わせコスト関数(例えば、オブジェクトのキーポイントとキーポイントの参照位置との間の差異の二乗誤差)を最適化することによって判定された程度にそれぞれのキーポイントの参照位置と位置合わせする。その後、訓練サンプルの各々は、この参照位置から摂動され、よって、新たな訓練サンプルを作成する。摂動は、オブジェクトの水平シフト、垂直シフト、及び方位シフトのうちの少なくとも1つを含む。各々のサンプルの摂動は、選択された確率分布(例えば、ガウス)に従ってランダムに判定される。それらの摂動を採用することで、訓練セットにおける訓練サンプルの数を、その初期のサイズを上回って増加させることができる。この工程はまた、「訓練サンプル増強」と称され、それによって作成された訓練サンプルは、「増強された訓練サンプル」と称される。図5A〜5Hにおいて示される例示的な訓練セットでは、各々の画像は、2つの境界ボックスサイズを示す訓練サンプルを含む。しかしながら、概して、1つのサイズの境界ボックスを示す訓練サンプルは、異なるサイズの境界ボックスを示す訓練サンプルを作成するように縮尺化されてもよい。この縮尺化された境界ボックスは次いで、訓練サンプルとして採用されてもよい。
ここで、開示される技術の別の実施形態に従って動作可能である、ニューラルネットワークについての訓練セットを判定する方法を概略的に表す、図6を参照する。手順350では、訓練セットの複数の画像内のオブジェクト及びそれぞれのオブジェクトのキーポイントが検出され、予め定められたサイズを示す境界ボックスは、各々の検出されたオブジェクトの周りで定義される。オブジェクトは、例えば、人間の観察者によって(すなわち、手動で)判定されてもよい。オブジェクトはまた、自動化された検出器を採用することによって、又は準自動化された方式で判定されてもよい(例えば、オブジェクトは、自動検出器によって検出され、人間の観察者によって検証される)。
手順352では、境界ボックス内の各々のオブジェクトのキーポイントの位置が判定される。手順354では、オブジェクトのキーポイントタイプについて、それぞれのキーポイントの参照位置が判定される。それぞれのキーポイントの参照位置は、同一のタイプのオブジェクトのキーポイントの平均位置に従って判定され、平均値は、初期訓練セットにおける全てのオブジェクトのオブジェクトのキーポイント位置に従って判定される。
手順356では、それぞれの参照位置を有する初期訓練セットにおける全ての訓練サンプルを登録する。
手順358では、参照位置からの位置合わせされたサンプルの各々をランダムに摂動させる。
ここで、開示される技術の更なる実施形態に従って動作可能である、CNNについての方法を概略的に表す、図7を参照する。手順400では、増強された訓練サンプルは、初期訓練セットから作成される。図5A〜5H及び6と共に上記説明されている。
手順402では、オブジェクト検出器のCNNは、共通層を有するように訓練される。1つの代替手段に従って、オブジェクト検出器の同様の特性を有する層の全てのグループの重み及びパラメータ(又は、それらに対する補正係数)は、共通層を作成するように平均化される。別の代替手段に従って、単一の訓練スケール検出器が訓練され、訓練スケール検出器の複製が配置され、CNNシステムを定義する。各々の複製は、入力画像のそれぞれの縮尺化されたバージョンと関連付けられ、訓練スケール検出器の複製は、CNNシステムを定義する。
手順404では、少なくとも1つの画像内の少なくとも1つのオブジェクトは、定義されたCNNシステムを採用することによって検出及び分類される。少なくとも1つの画像内の少なくとも1つのオブジェクトを検出及び分類することは、以下のサブ手順を含む:
複数のダウンサンプルされた画像を作成するために、複数のダウンサンプリング比に従って画像をダウンサンプリングし、各々のダウンサンプルされた画像は、それぞれのダウンサンプリング比と関連付けられ、
ダウンサンプルされた画像ごとに、対応するCNNによって、画像に対する予め定められた画像ウインドウサイズにおいてオブジェクトを検出し、
画像内のオブジェクトを分類する。それぞれのダウンサンプルされた画像内のオブジェクトを検出し、同一のそれぞれのダウンサンプリング比と関連付けられたCNNは、CNNの少なくとも1つのグループを定義する。畳み込みネットワークのグループにおけるCNNは、共通畳み込み層と関連付けられる。
図4を参照して、上記説明されたように、オブジェクト検出器204及び206のそれぞれのCNNは、CNNのグループを定義する。同様に、オブジェクト検出器204及び206のそれぞれのCNNは、CNNのグループを定義する。
当業者は、開示される技術が上記で特に示され、及び説明されたものに限定されないことを認識するであろう。開示される技術の範囲は、以下の特許請求の範囲のみによって定義される。

Claims (14)

  1. 少なくとも1つの画像内の少なくとも1つのオブジェクトを検出する畳み込みニューラルネットワークシステムであって、前記システムは、
    複数のオブジェクト検出器を備え、各々のオブジェクト検出器は、前記少なくとも1つの画像内の予め定められた画像ウインドウサイズに対応し、各々のオブジェクト検出器は、前記少なくとも1つの画像に対するそれぞれのダウンサンプリング比と関連付けられ、各々のオブジェクト検出器は、
    それぞれの畳み込みニューラルネットワークであって、前記畳み込みニューラルネットワークは、複数の畳み込み層を含む、前記それぞれの畳み込みニューラルネットワークと、
    前記畳み込みニューラルネットワークからの結果に従って前記画像内のオブジェクトを分類する、前記畳み込みニューラルネットワークと結合されたオブジェクト分類器と
    を含み、
    同一のそれぞれのダウンサンプリング比と関連付けられたオブジェクト検出器は、オブジェクト検出器の少なくとも1つのグループを定義し、オブジェクト検出器のグループにおけるオブジェクト検出器は、共通畳み込み層と関連付けられる、
    畳み込みニューラルネットワークシステム。
  2. 各々がそれぞれのダウンサンプリング比と関連付けられた複数のダウンサンプラを更に含み、前記ダウンサンプラは、前記画像の前記縮尺化されたバージョンを作成するように構成され、各々の縮尺化されたバージョンは、それぞれのダウンサンプリング比と関連付けられる、請求項1に記載の畳み込みニューラルネットワークシステム。
  3. ダウンサンプラ、及び前記画像に対する同一のそれぞれの画像ウインドウサイズと関連付けられたオブジェクト検出器は、スケール検出器を定義し、各々のスケール検出器は、前記画像のそれぞれの縮尺化されたバージョンと関連付けられる、請求項2に記載の畳み込みニューラルネットワークシステム。
  4. 前記オブジェクト分類器は、畳み込み分類器であり、前記それぞれの畳み込みニューラルネットワークによって提供された特徴マップにより少なくとも1つの分類フィルタを畳み込む、請求項1に記載の畳み込みニューラルネットワークシステム。
  5. 前記それぞれの畳み込みニューラルネットワークは複数の特徴を含む特徴マップを作成し、各々のエントリは、前記エントリと関連付けられた画像ウインドウ内で特徴強度を表し、前記画像ウインドウは、前記それぞれの画像ウインドウサイズを示す、請求項4に記載の畳み込みニューラルネットワークシステム。
  6. 前記オブジェクト分類器は、前記オブジェクトが前記特徴と関連付けられた画像ウインドウの各々に位置する確率を提供する、請求項5に記載の畳み込みニューラルネットワークシステム。
  7. 前記分類ベクトルは更に、前記特徴マップと関連付けられた画像ウインドウごとの画像ウインドウ補正係数を含み、前記画像ウインドウ補正係数は、各々の画像ウインドウの幅及び高さへの補正、各々の画像ウインドウの位置への補正、並びに各々の画像ウインドウの方位への補正を含む、請求項6に記載の畳み込みニューラルネットワークシステム。
  8. 単一の訓練スケール検出器は、スケール検出器がオブジェクト検出器の同一の構成を示すとき、及びオブジェクト検出器におけるCNNが同様の特性を有するグループの層を示すときに訓練される、請求項3に記載の畳み込みニューラルネットワークシステム。
  9. 前記訓練スケール検出器を訓練する前に、訓練セットにおける訓練サンプルの数は、
    それぞれの訓練サンプルの境界ボックス内の各々のオブジェクトのキーポイントの位置を判定し、
    オブジェクトのキーポイントタイプについて、同一のタイプのオブジェクトのキーポイントの平均位置に従って、それぞれの特徴参照位置を判定し、平均値は、初期訓練セットにおける全てのオブジェクトのオブジェクトのキーポイント位置に従って判定され、
    初期訓練セットにおける全ての訓練サンプルを特徴参照位置に登録し、
    この参照位置からの位置合わせされた訓練サンプルの各々をランダムに摂動させる
    ことによって訓練サンプルの初期数を上回って増加する、請求項8に記載の畳み込みニューラルネットワークシステム。
  10. 複数のダウンサンプルされた画像を作成するために、複数のダウンサンプリング比に従って画像をダウンサンプリングする手順であって、各々のダウンサンプルされた画像は、それぞれのダウンサンプリング比と関連付けられる、前記ダウンサンプリングする手順と、
    ダウンサンプルされた画像ごとに、対応する畳み込みニューラルネットワークによって、少なくとも1つの画像に対する予め定められた画像ウインドウサイズにおいてオブジェクトを検出する手順と、
    前記画像内のオブジェクト分類する手順と、
    を含み、
    同一のそれぞれのダウンサンプリング比と関連付けられたそれぞれのダウンサンプルされた画像内のオブジェクトを検出する畳み込みニューラルネットワークは、畳み込みニューラルネットワークの少なくとも1つのグループを定義し、畳み込みニューラルネットワークのグループにおける畳み込みニューラルネットワークは、共通畳み込み層と関連付けられる、
    畳み込みニューラルネットワーク方法。
  11. 前記画像をダウンサンプリングする前記手順の前に、
    初期訓練セットから増強された訓練サンプルを作成する手順と、
    共通層を有するように前記畳み込みニューラルネットワークを訓練する手順と
    を更に含む、請求項10に記載の畳み込みニューラルネットワーク方法。
  12. 共通層を有するように前記畳み込みニューラルネットワークを訓練することは、オブジェクト検出器の同様の特性を有する層の全てのグループの重み及びパラメータを平均化することを含む、請求項11に記載の畳み込みニューラルネットワーク方法。
  13. 共通層を有するための前記畳み込みニューラルネットワークは、前記増強された訓練サンプルを採用し、前記訓練スケール検出器の複製を配置することによって単一の訓練スケール検出器を訓練することを含み、各々の複製は、前記少なくとも1つの画像のそれぞれの縮尺化されたバージョンと関連付けられ、前記訓練スケール検出器の前記複製は、畳み込みニューラルネットワークシステムを定義する、請求項11に記載の畳み込みニューラルネットワーク方法。
  14. 増強された訓練サンプルを作成する前記手順は、
    それぞれの訓練サンプルの境界ボックス内の各々のオブジェクトのキーポイントの位置を判定するサブ手順と、
    オブジェクトのキーポイントタイプについて、同一のタイプの前記オブジェクトのキーポイントの平均位置に従って、それぞれのキーポイントの参照位置を判定するサブ手順であって、平均値は、前記初期訓練セットにおける全てのオブジェクトの前記オブジェクトキーポイントの位置に従って判定される、前記判定するサブ手順と、
    前記初期訓練セットにおける全ての訓練サンプルを特徴参照位置に登録するサブ手順と、
    この参照位置から位置合わせされた訓練サンプルの各々をランダムに摂動させるサブ手順と
    を含む、請求項11に記載の畳み込みニューラルネットワーク方法。

JP2018554684A 2016-04-21 2017-04-20 直列畳み込みニューラルネットワーク Active JP7041427B2 (ja)

Applications Claiming Priority (11)

Application Number Priority Date Filing Date Title
US201662325551P 2016-04-21 2016-04-21
US201662325553P 2016-04-21 2016-04-21
US201662325562P 2016-04-21 2016-04-21
US62/325,553 2016-04-21
US62/325,551 2016-04-21
US62/325,562 2016-04-21
GB1614009.7 2016-08-16
GB1614009.7A GB2549554A (en) 2016-04-21 2016-08-16 Method and system for detecting an object in an image
US201762486997P 2017-04-19 2017-04-19
US62/486,997 2017-04-19
PCT/IL2017/050461 WO2017183034A1 (en) 2016-04-21 2017-04-20 Cascaded convolutional neural network

Publications (2)

Publication Number Publication Date
JP2019515376A true JP2019515376A (ja) 2019-06-06
JP7041427B2 JP7041427B2 (ja) 2022-03-24

Family

ID=66763634

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018554684A Active JP7041427B2 (ja) 2016-04-21 2017-04-20 直列畳み込みニューラルネットワーク

Country Status (1)

Country Link
JP (1) JP7041427B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114995131A (zh) * 2022-05-25 2022-09-02 福建德尔科技股份有限公司 用于电子级三氟甲烷制备的精馏控制系统及其控制方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08305855A (ja) * 1995-05-01 1996-11-22 Nippon Telegr & Teleph Corp <Ntt> 画像のパターン認識方法及び装置
JP2007011572A (ja) * 2005-06-29 2007-01-18 Canon Inc パターン識別方法及びその装置、そのプログラム
JP2011113168A (ja) * 2009-11-25 2011-06-09 Fujifilm Corp オブジェクト検出装置および方法並びにプログラム
JP2011170890A (ja) * 2011-06-06 2011-09-01 Fujifilm Corp 顔検出方法および装置並びにプログラム
JP2016006626A (ja) * 2014-05-28 2016-01-14 株式会社デンソーアイティーラボラトリ 検知装置、検知プログラム、検知方法、車両、パラメータ算出装置、パラメータ算出プログラムおよびパラメータ算出方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08305855A (ja) * 1995-05-01 1996-11-22 Nippon Telegr & Teleph Corp <Ntt> 画像のパターン認識方法及び装置
JP2007011572A (ja) * 2005-06-29 2007-01-18 Canon Inc パターン識別方法及びその装置、そのプログラム
JP2011113168A (ja) * 2009-11-25 2011-06-09 Fujifilm Corp オブジェクト検出装置および方法並びにプログラム
JP2011170890A (ja) * 2011-06-06 2011-09-01 Fujifilm Corp 顔検出方法および装置並びにプログラム
JP2016006626A (ja) * 2014-05-28 2016-01-14 株式会社デンソーアイティーラボラトリ 検知装置、検知プログラム、検知方法、車両、パラメータ算出装置、パラメータ算出プログラムおよびパラメータ算出方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114995131A (zh) * 2022-05-25 2022-09-02 福建德尔科技股份有限公司 用于电子级三氟甲烷制备的精馏控制系统及其控制方法
CN114995131B (zh) * 2022-05-25 2023-02-03 福建德尔科技股份有限公司 用于电子级三氟甲烷制备的精馏控制系统及其控制方法

Also Published As

Publication number Publication date
JP7041427B2 (ja) 2022-03-24

Similar Documents

Publication Publication Date Title
CN109154988B (zh) 级联卷积神经网络
US10970543B2 (en) Distributed and self-validating computer vision for dense object detection in digital images
CN109816012B (zh) 一种融合上下文信息的多尺度目标检测方法
CN107169421B (zh) 一种基于深度卷积神经网络的汽车驾驶场景目标检测方法
CN109086668B (zh) 基于多尺度生成对抗网络的无人机遥感影像道路信息提取方法
CN108776772B (zh) 一种跨时间建筑物变化检测建模方法以及检测装置、方法及存储介质
US10509987B1 (en) Learning method and learning device for object detector based on reconfigurable network for optimizing customers&#39; requirements such as key performance index using target object estimating network and target object merging network, and testing method and testing device using the same
CN113627228B (zh) 一种基于关键点回归与多尺度特征融合的车道线检测方法
CN108416292B (zh) 一种基于深度学习的无人机航拍图像道路提取方法
JP6846069B2 (ja) 遠距離検出または軍事目的のために、イメージコンカチネーションを利用したcnn基盤のハードウェア最適化が可能な物体検出器を学習する方法及び学習装置、それを利用したテスト方法及びテスト装置{learning method and learning device for object detector with hardware optimization based on cnn for detection at distance or military purpose using image concatenation, and testing method and testing device using the same}
US10402692B1 (en) Learning method and learning device for fluctuation-robust object detector based on CNN using target object estimating network adaptable to customers&#39; requirements such as key performance index, and testing device using the same
CN111368600A (zh) 遥感图像目标检测识别方法、装置、可读存储介质及设备
CN111401455B (zh) 一种基于Capsules-Unet模型的遥感图像深度学习分类方法和系统
CN110033009B (zh) 在连接网络中处理图像数据的方法
CN113850129A (zh) 一种旋转等变的空间局部注意力遥感图像目标检测方法
CN112837320A (zh) 一种基于并行空洞卷积的遥感影像语义分割方法
CN111488783A (zh) 基于cnn检测伪3d边界框的方法及其装置
JP2019515376A (ja) 直列畳み込みニューラルネットワーク
CN113160117A (zh) 一种自动驾驶场景下的三维点云目标检测方法
CN111275616A (zh) 低空航拍图像拼接方法和装置
US11461919B2 (en) Cascaded neural network
CN110991305B (zh) 一种遥感图像下的飞机检测方法及存储介质
CN106897968B (zh) 一种遥感图像地物的图像拼接方法及系统
CN114937145B (zh) 基于地学信息的遥感影像特征点匹配方法
EP4318439A1 (en) Information processing device and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210406

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210701

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210901

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220301

R150 Certificate of patent or registration of utility model

Ref document number: 7041427

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150