JP7133585B2 - オブジェクト認識装置およびオブジェクト認識方法 - Google Patents

オブジェクト認識装置およびオブジェクト認識方法 Download PDF

Info

Publication number
JP7133585B2
JP7133585B2 JP2020086385A JP2020086385A JP7133585B2 JP 7133585 B2 JP7133585 B2 JP 7133585B2 JP 2020086385 A JP2020086385 A JP 2020086385A JP 2020086385 A JP2020086385 A JP 2020086385A JP 7133585 B2 JP7133585 B2 JP 7133585B2
Authority
JP
Japan
Prior art keywords
feature
feature map
image
extraction operation
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020086385A
Other languages
English (en)
Other versions
JP2020201944A (ja
Inventor
ユ,ヨンジュン
ハン,ドンユン
ユン,サンド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Naver Corp
Original Assignee
Naver Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020190117656A external-priority patent/KR102261894B1/ko
Application filed by Naver Corp filed Critical Naver Corp
Publication of JP2020201944A publication Critical patent/JP2020201944A/ja
Application granted granted Critical
Publication of JP7133585B2 publication Critical patent/JP7133585B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本出願は、対象イメージ内に含まれたオブジェクトを認識できるオブジェクト認識装置およびオブジェクト認識方法に関する。
最近、顔情報を用いた様々なアプリケーションが登場することにより、実用的な顔検出方法に関する関心が高まっている。顔認識システムは、特定人の出入りを許可するセキュリティシステムと監視環境において個人のプライバシー保護のために用いられている。また、表情認識は、顔領域に対して表情変化を分析して外形的な表情変化から人の感情を解釈する分野に用いられている。このような顔情報を活用したアプリケーションの領域が拡大しその数が増加することにより、様々な環境において顔領域を正確に抽出できる実用性の高い顔検出方法に関する研究が活発に行われている。
最近、様々なコンピュータビジョンの分野において、学習に基づいた畳み込みニューラルネットワーク(convolutional neural network;CNN)方法が大きな成果を成し遂げた。CNNの顔検出方法が検出性能において大きい発展を成し遂げたが、システムの増加した複雑度はそれに対する実用性に疑問を持たせた。320×240のイメージから抽出できるウィンドウの数は10億個に達する。数多くのパッチに対して各々CNNに基づいて特徴情報を抽出し、顔と顔ではない領域に分類をするようになる。これは、顔検出性能とシステムの複雑度との間のトレードオフ関係をよく示すものである。また、隣接したウィンドウ間の共通集合領域に対して畳み込み演算が繰り返し実行されることによって不要な演算過程が含まれ、畳み込みニューラルネットワークの全結合層(fully-connected layer)の入力と出力が固定されることによってそのニューラルネットワークを通過する全ての入力データは入力データの大きさを固定された大きさに再調整する過程を伴うことによってシステムの演算複雑度が増加するようになる。
本出願は、相対的に少ない容量で様々な大きさのオブジェクトに対する高いオブジェクト認識性能を実現できるオブジェクト認識装置およびオブジェクト認識方法を提供しようとする。
本出願は、バックボーンネットワークの繰り返しの再使用を利用して複数の特徴マップを生成できるオブジェクト認識装置およびオブジェクト認識方法を提供しようとする。
本発明の一実施形態によるオブジェクト認識装置は、対象イメージが入力されれば、特徴抽出演算を実行して特徴イメージを生成する特徴抽出部、および前記特徴イメージに特徴マップ抽出演算を繰り返し実行し、前記特徴マップ抽出演算を適用した回数に応じて各々異なる解像度を有する複数の第1特徴マップを生成するバックボーンネットワーク部を含む。
本発明の他の一実施形態によるオブジェクト認識方法は、入力された対象イメージに特徴抽出演算を実行して特徴イメージを生成するステップ、前記特徴イメージに特徴マップ抽出演算を繰り返し実行し、前記特徴マップ抽出演算を適用した回数に応じて各々異なる解像度を有する複数の第1特徴マップを生成するステップ、および前記複数の第1特徴マップ内を移動する各々の境界ボックスを用いて、前記境界ボックス内のオブジェクト包含有無を判別し、前記オブジェクトが含まれた場合には前記第1特徴マップ内の境界ボックスを前記対象イメージ内の位置に回帰させて前記オブジェクトの位置情報を抽出するステップを含む。
本発明のまた他の実施形態によるオブジェクト認識方法は、入力された対象イメージに特徴抽出演算を実行して特徴イメージを生成するステップ、前記特徴イメージに特徴マップ抽出演算を繰り返し実行し、前記特徴マップ抽出演算を適用した回数に応じて各々異なる解像度を有する複数の第1特徴マップを生成するステップ、複数の第1特徴マップのうち解像度が最も低い第1特徴マップを最初の第2特徴マップに設定するステップ、直前に生成した第2特徴マップをアップサンプリングし、前記アップサンプリングした結果と同一な解像度を有する第1特徴マップをスキップ接続技法により連結して第2特徴マップを生成するステップ、および前記複数の第2特徴マップ内を移動する各々の境界ボックスを用いて、前記境界ボックス内のオブジェクト包含有無を判別し、前記オブジェクトが含まれた場合には前記第2特徴マップ内の境界ボックスを前記対象イメージ内の位置に回帰させて前記オブジェクトの位置情報を抽出するステップを含む。
なお、前記課題を解決するための手段は、本発明の特徴を全て列挙したものではない。本発明の様々な特徴とそれに応じた長所および効果は下記の具体的な実施形態を参照してより詳細に理解できるものである。
本発明の一実施形態によるオブジェクト認識装置およびオブジェクト認識方法は、バックボーンネットワークの繰り返しの再使用を利用して複数の特徴マップを生成することができるため、オブジェクト認識装置を実現するために必要なパラメータ数を画期的に減らすことができる。
本発明の一実施形態によるオブジェクト認識装置およびオブジェクト認識方法によれば、様々な大きさのオブジェクトに対する繰り返しの学習を実行するため、相対的に小さい大きさのオブジェクトに対するオブジェクト認識率を高めることができる。
但し、本発明の実施形態によるオブジェクト認識装置およびオブジェクト認識方法が達成できる効果は以上で言及したものに制限されず、言及していないまた他の効果は下記の記載によって本発明が属する技術分野における通常の知識を有する者に明らかに理解できるものである。
本発明の一実施形態によるオブジェクト認識装置を示すブロック図である。 本発明の一実施形態による特徴抽出部を示すブロック図である。 本発明の一実施形態による逆残差モジュールを示すブロック図である。 本発明の一実施形態によるアップサンプリングモジュール、分類部および位置検知部を示すブロック図である。 本発明の一実施形態によるバックボーンネットワークの構造を示すブロック図である。 本発明の他の実施形態によるオブジェクト認識装置を示すブロック図である。 本発明の一実施形態によるオブジェクト認識方法を示すフローチャートである。 本発明の他の実施形態によるオブジェクト認識方法を示すフローチャートである。
以下では添付図面を参照して本明細書に開示された実施形態について詳しく説明するが、図面符号に関係なく同一または類似した構成要素には同一な参照番号を付し、それに対する重複する説明は省略することにする。以下の説明で用いられる構成要素に対する接尾辞「モジュール」および「部」は、明細書の作成の容易さだけを考慮して付与または混用されるものであって、それ自体で互いに区別される意味または役割を有するものではない。すなわち、本発明で用いられる「部」という用語はソフトウェア、FPGAまたはASICのようなハードウェア構成要素を意味し、「部」はある役割をする。ところが、「部」はソフトウェアまたはハードウェアに限定される意味ではない。「部」は、アドレッシングできるストレージ媒体にあるように構成されてもよく、一つまたはそれ以上のプロセッサを再生させるように構成されてもよい。よって、一例として「部」は、ソフトウェア構成要素、オブジェクト向けソフトウェア構成要素、クラス構成要素およびタスク構成要素のような構成要素と、プロセス、関数、属性、プロシージャ、サブルーチン、プログラムコードのセグメント、ドライバ、ファームウェア、マイクロコード、回路、データ、データベース、データ構造、テーブル、アレイおよび変数を含む。構成要素および「部」において提供される機能は、さらに小さい数の構成要素および「部」で結合されるか、またはさらなる構成要素と「部」とにさらに分離されてもよい。
また、本明細書に開示された実施形態を説明するにおいて、関連の公知技術に関する具体的な説明が本明細書に開示された実施形態の要旨を不要に濁す恐れがあると判断される場合には、その詳細な説明は省略する。また、添付された図面は本明細書に開示された実施形態を容易に理解できるようにするためのものに過ぎず、添付された図面によって本明細書に開示された技術的思想が制限されるものではなく、本発明の思想および技術範囲に含まれる全ての変更、均等物乃至代替物を含むものとして理解しなければならない。
図1は、本発明の一実施形態によるオブジェクト認識装置を示すブロック図である。
図1を参照すれば、本発明の一実施形態によるオブジェクト認識装置は、特徴抽出部110、バックボーンネットワーク部120、アップサンプリング部130、分類部140および位置検知部150を含むことができる。
以下では、図1を参照して、本発明の一実施形態によるオブジェクト認識装置を説明する。
特徴抽出部110は、対象イメージが入力されれば、対象イメージに対する特徴抽出演算を実行して特徴イメージを生成することができる。図2に例示されているように、特徴抽出部110は3×3畳み込みレイヤ、バッチ正規化レイヤ(batch normalization layer)および活性関数レイヤ(Activation layer)を含み、各々のレイヤを順次通過して特徴抽出演算を実行することができる。ここで、3×3畳み込みレイヤに含まれたsは畳み込みレイヤのストライド(stride)であり、pはパッディングの実行可否、gはグループ、cinは入力チャネルの幅、coutは出力チャネルの幅に各々対応する。すなわち、図2によれば、特徴抽出部110は、ストライドが2であり、パッディングを実行し、入力チャネルの幅は3であり、出力チャネルの幅はhである、3×3畳み込みフィルタ演算を実行できるように構成される。
例えば、対象イメージがカラーイメージである場合、入力チャネルはRGBの三つの色に対応する3個のチャネルを含み、特徴抽出部110の3×3畳み込みレイヤは3個の入力チャネルを有することができる。ここで、出力チャネルはhであるため、3×3畳み込みレイヤは特徴イメージのチャネルをh個に拡張させることができ、ストライドが2であるため、特徴イメージの解像度を対象イメージの半分に下げることができる。例えば、対象イメージの解像度が640×640である場合、特徴イメージは320×320に減る。
バックボーンネットワーク部120は、特徴イメージに対して特徴マップ抽出演算を繰り返し実行し、特徴マップ抽出演算を実行した回数に応じて、解像度が互いに異なる第1特徴マップを生成することができる。
図1を参照すれば、バックボーンネットワーク部120は複数の逆残差モジュール(inverted residual module)121を含み、複数の逆残差モジュール121を全て含む一つのセットに対する演算を完了すれば、特徴マップ抽出演算を1回実行したことに該当する。
すなわち、特徴マップ抽出演算を1回実行すれば、演算結果として第1特徴マップf1を生成することができ、その後、第1特徴マップf1を再びバックボーンネットワーク部120に入力して、2回目の特徴マップ抽出演算を実行するようにすることができる。この場合、バックボーンネットワーク部120は、2回目の特徴マップ抽出演算に対応する第1特徴マップf2を生成することができる。その後、同様な方式で繰り返して、第1特徴マップf3、f4、f5、f6を順次生成することができる。ここでは、第1特徴マップを6個生成する実施形態を提示しているが、これに限定されるものではなく、生成する第1特徴マップの個数は実施形態に応じて多様に変形可能である。
従来のSSD(Single Shot Detector)の場合、対象イメージに複数の畳み込みフィルタを順次適用して、各々の畳み込みフィルタに対応する特徴マップを生成した。すなわち、従来のSSDでは互いに異なる畳み込みフィルタを順次通過して特徴マップを生成したため、6個の特徴マップを生成するためには互いに異なる6個の畳み込みフィルタのパラメータを設計する必要がある。
その反面、本発明においては、同一な特徴マップ抽出演算を繰り返し再使用するため、特徴マップ抽出演算のためのパラメータだけを設計しても複数の特徴マップを抽出することができる。したがって、本発明によれば、既存のSSDに比べて必要なパラメータ数を画期的に減らすことができる。
一方、バックボーンネットワーク部120は以下のように表すことができる。
Figure 0007133585000001
ここで、{f、f、…、f}は各々の第1特徴マップであり、Nは1以上の整数、F(・)はバックボーンネットワーク部120の特徴マップ抽出演算に該当する。また、E(・)は特徴抽出部110の特徴抽出演算、xは対象イメージ、fは特徴イメージに該当する。すなわち、出力値を再び入力値にする方式で繰り返して複数の第1特徴マップを生成することができる。
さらに、バックボーンネットワーク部120内に含まれた逆残差モジュール121は、第1逆残差モジュールと第2逆残差モジュールに区分することができる。ここで、第1逆残差モジュールはバックボーンネットワーク部120内で最も先に演算されるものであり、第2逆残差モジュールは第1逆残差モジュール以後に順次演算されるものである。具体的には、図5に示すように、1個の第1逆残差モジュールと複数の第2逆残差モジュールを含むように各々バックボーンネットワーク部120を実現することができる。図3には第1逆残差モジュールと第2逆残差モジュールの例示が示されており、ここで、図3(a)は第1逆残差モジュール、図3(b)は第2逆残差モジュールの一例に該当する。
ここで、各々の逆残差モジュールは深さ基盤の分離コンボリューション(depth-wise separable convolution)演算を実行し、それにより、特徴マップ抽出演算時に必要な演算量を減少させることができる。
具体的には、第1逆残差モジュールの場合、図3(a)に示すように、3×3畳み込みレイヤ、バッチ正規化レイヤ、活性化レイヤ、1×1畳み込みレイヤおよびバッチ正規化レイヤを含むことができる。ここで、特徴抽出部110が特徴イメージのチャネル幅を3からhに拡張したため、3×3畳み込みレイヤでは深さ基盤のコンボリューション(depth-wise convolution)演算を実行し、その後、1×1畳み込みレイヤを介してポイント基盤のコンボリューション(point-wise convolution)演算を実行してチャネル幅をhからcに再び縮小させることができる。
また、第2逆残差モジュールは、図3(b)に示すように、1×1畳み込みレイヤ、バッチ正規化レイヤ、活性化レイヤ、3×3畳み込みレイヤ、バッチ正規化レイヤ、活性化レイヤ、1×1畳み込みレイヤおよびバッチ正規化レイヤを順次含み、深さ基盤の分離コンボリューション演算を実行することができる。すなわち、1番目の1×1畳み込みレイヤにおいてポイント基盤のコンボリューション演算を実行してチャネル幅をcからhに拡張させ、その後、3×3畳み込みレイヤにおいて拡張されたチャネル幅に対する深さ基盤のコンボリューション演算を実行した後、再び1×1畳み込みレイヤにおいてチャネル幅をhからcに減らすポイント基盤のコンボリューション演算を実行することができる。
一方、第1逆残差モジュールおよび第2逆残差モジュールに含まれた各々の活性化レイヤの場合、活性関数(activation function)としてPReLU(Parametric Rectified Linear Unit)またはLeaky-ReLUを用いることができる。従来にはReLU(Rectified Linear Unit)を活性関数として用いたが、ReLUは、その特性上、負の値を0に設定するため、繰り返しの特徴マップ抽出演算時に情報の損失が発生するなどの問題が生じうる。したがって、ここでは、負の値を反映できるPReLU(Parametric Rectified Linear Unit)またはLeaky-ReLUを活性関数として用いて、より正確なオブジェクト認識が可能となるようにすることができる。
さらに、バックボーンネットワーク部120は、複数の逆残差モジュールのうち、最後に演算される逆残差モジュール121のストライド(stride)を2に設定し、残りの逆残差モジュール121のストライドは1に設定することができる。この場合、新たに生成される第1特徴マップの解像度を半分に減らすことができる。例えば、特徴イメージの解像度が320×320である場合、第1特徴マップf1の解像度は160×160に減り、その後、第1特徴マップf2、f3、f4、f5、f6の解像度は各々80×80、40×40、20×20、10×10、5×5に生成される。このような特徴マップの個数は、速度と演算量を犠牲にしてより小さい顔を検出するか、そうでなければ速い速度と少ない演算量を確保するかに応じて、多くあるいは少なく調節することができる。
ここで、特徴マップの解像度が半分に減れば、特徴マップから相対的に大きい大きさのオブジェクトを認識することができる。オブジェクトの検出時には予め設定された境界ボックス内にオブジェクトが含まれるか否かを判別する方式を活用し、この時、特徴マップの解像度が半分に減れば、境界ボックスがカバーする領域が2倍に広くなる。したがって、以前には境界ボックス内に全部含まれなかったオブジェクトが境界ボックス内に全部含まれるため、相対的に大きい大きさのオブジェクトを検出することができる。すなわち、解像度の高い特徴マップでは相対的に小さい大きさのオブジェクトを検出し、解像度の低い特徴マップでは相対的に大きい大きさのオブジェクトを検出することができる。
このように、バックボーンネットワーク部120は、生成する各々の第1特徴マップの解像度を変更することによって、対象イメージ内に含まれた様々な大きさのオブジェクトを認識することができる。
実施形態によっては、バックボーンネットワーク部120に含まれる複数の逆残差モジュールの最後にストライドが2である3×3畳み込みフィルタを追加して、バックボーンネットワーク部120が生成する特徴マップの解像度を半分に減らすこともできる。
一方、図6に示すように、バックボーンネットワーク部120が生成した第1特徴マップを用いてオブジェクトを検出することもできる。但し、第1特徴マップを用いる場合、相対的に大きさの小さいオブジェクトを検出し難いという問題が発生しうる。すなわち、相対的に大きさの小さいオブジェクトは低いレベルの第1特徴マップから検出されるものであり、低いレベルの第1特徴マップは逆残差モジュールが十分な深さだけ形成されていない状態で生成されうる。
それを解決するために、本発明の一実施形態によるオブジェクト認識装置は、アップサンプリング部130をさらに含むことができる。すなわち、FPN(Feature Pyramid Netwokr)構造を導入して、低いレベルの特徴マップにも十分な逆残差モジュールの深さを形成するようにすることができる。
具体的には、アップサンプリング部130は、直前に生成した第2特徴マップをアップサンプリングし、アップサンプリングした結果と同一な解像度を有する第1特徴マップをスキップ接続(skip connection)技法により連結する方式で第2特徴マップを生成することができる。この時、アップサンプリング部130は、複数の第1特徴マップのうち解像度が最も低い第1特徴マップを最初の第2特徴マップに設定することができる。
すなわち、図1に示すように、最後に生成された第1特徴マップf6を1番目の第2特徴マップg1に設定し、その後、第2特徴マップg1をアップサンプリングし、アップサンプリングした結果を以前の第1特徴マップf5と加えて第2特徴マップg2を生成することができる。ここで、第2特徴マップg2は、第1特徴マップf5と同一な解像度を有することができる。
また、アップサンプリング部130は、第2特徴マップg2をアップサンプリングし、それを同一な解像度を有する第1特徴マップf4と加えて第2特徴マップg3を生成し、その後、同様な方式で繰り返して残りの第2特徴マップを生成することができる。
ここで、アップサンプリング部130の動作は以下の数式で表すことができ、{g、g、…、g}は各々の第2特徴マップであり、{f、f、…、f}は各々の第1特徴マップであり、Nは1以上の整数であり、U(・)はアップサンプリング関数に該当する。
Figure 0007133585000002
一方、図1に示すように、アップサンプリング部130はアップサンプリングモジュール131を含み、アップサンプリングモジュール131は各々の第2特徴マップに対するアップサンプリングを実行することができる。図4(a)を参照すれば、アップサンプリングモジュール131は、バイリニア・アップサンプル・レイヤ(bilinear upsample layer)、3×3畳み込みレイヤ、1×1畳み込みレイヤ、バッチ正規化レイヤおよび活性関数レイヤを含むことができる。
分類部140は、複数の第2特徴マップ内を移動する各々の境界ボックス(boundary box)を用いて、境界ボックス内のオブジェクト包含有無を判別することができる。ここで、分類部140が検知するオブジェクトは顔であってもよい。
また、位置検知部150は、分類部140がオブジェクトを検知した場合、第2特徴マップ内の境界ボックスを対象イメージ内の位置に回帰させてオブジェクトの位置情報を抽出することができる。すなわち、対象イメージ内に含まれたオブジェクトの位置情報を提供することができ、位置情報を用いて対象イメージ内にオブジェクトの位置を表示ことができる。
一方、図4(b)および図4(c)は分類部140および位置検知部150に各々対応するものであり、分類部140および位置検知部150は3×3畳み込みフィルタで動作することができる。分類部140の場合、境界ボックス内にオブジェクトが含まれる場合と含まれていない場合の二つの場合を表示するため、出力チャネルは2個であってもよい。ここで、出力チャネルが4個である場合には、マックスアウト(Maxout)を用いて4個のチャネルのうち2個のチャネルを選択することができ、それにより、相対的に小さい大きさのオブジェクトに対する誤検出の比率を下げることができる。
また、位置検知部150の場合、出力チャネルは4個の次元を含み、各々は境界ボックスの幅、高さ、中心点位置座標などであってもよい。
一方、本発明の一実施形態によるオブジェクト認識装置は、マルチタスク損失関数を用いて同時に学習される。すなわち、特徴抽出部110、バックボーンネットワーク部120、アップサンプリング部130、分類部140および位置検知部150などの構成は、マルチタスク損失関数を用いて同時に学習される。
具体的には、マルチタスク損失関数は
Figure 0007133585000003
である。ここで、lは分類損失、lは回帰損失、jは境界ボックス(anchor box)のインデックス、r は前記境界ボックスに対応する実測値(ground truth)である。また、c は0または1に設定されるものであって、境界ボックスのジャカードオーバーラップ(Jaccard overlap)が基準値t以上であれば1に設定され、基準値t未満であれば0に設定される。また、Nclsは学習時に用いられた類似サンプルおよび非類似サンプルの全体個数、Nreg=Σ 、λは任意の変数である。ここで、回帰損失は類似サンプルに対してのみ演算されるため、NregはΣ を用いて計算することができる。また、分類損失はクロスエントロピー損失、前記回帰損失はスムーズl1損失に設定される。
その後、入力される学習データを用いて、マルチタスク損失関数の分類損失および回帰損失が最小になるようにオブジェクト認識装置の各構成のパラメータを設定することができる。
ここで、本発明の一実施形態によるオブジェクト認識装置は、バックボーンネットワーク部120の繰り返しの再使用を利用して特徴マップを生成するため、従来のオブジェクト認識装置に比べて必要なパラメータ数を画期的に減らすことができる。また、パラメータ数を減らしただけに特徴マップの抽出のための逆残差モジュールなどを追加することができるため、より正確なオブジェクト認識を実現することができる。
また、本発明の一実施形態によるバックボーンネットワーク120は様々な大きさのオブジェクトを繰り返し学習して生成されるため、相対的に小さいオブジェクトに対する認識率を向上させることができる。
図5は、本発明の一実施形態によるバックボーンネットワークの構造を示すブロック図である。図5にはバックボーンネットワークの三つの実施形態が示されており、各々の実施形態は図5(a)、図5(b)および図5(c)に対応する。
第1実施形態は、出力チャネル数が32個であり、第2実施形態は出力チャネル数が48個であり、第3実施形態は出力チャネル数が64個である。その反面、第1実施形態は7個の逆残差モジュールを含み、第2実施形態および第3実施形態は各々5個の逆残差モジュールを含む。この時、第1実施形態は6万個のパラメータ、第2実施形態は10万個のパラメータ、第3実施形態は16万個のパラメータを含む。ここで、第2実施形態および第3実施形態の場合、出力チャネル数が多い代わりに逆残差モジュール数を減らしてパラメータ数を減らすようにした。
各々の実施形態に対するオブジェクト認識性能は、第3実施形態が最も優れた性能を示し、その後は第2実施形態、第1実施形態の順であった。これは、チャネル数が逆残差モジュール数など深さよりさらに重要な要素に該当することを示す。
図7は、本発明の一実施形態によるオブジェクト認識方法を示すフローチャートである。
図7を参照すれば、本発明の一実施形態によるオブジェクト認識方法は、特徴イメージ生成ステップ(S110)、第1特徴マップ生成ステップ(S120)およびオブジェクト認識ステップ(S130)を含み、各ステップは、オブジェクト認識装置により実行される。
以下では、図7を参照して、本発明の一実施形態によるオブジェクト認識方法を説明する。
特徴イメージ生成ステップ(S110)では、入力された対象イメージに特徴抽出演算を実行して特徴イメージを生成することができる。ここで、特徴イメージは3×3コンボリューション演算により生成し、この時、3×3コンボリューション演算のストライドを2に設定して特徴イメージの解像度を半分に下げることができる。また、対象イメージに含まれたRGBの3個のチャネルをh個に拡張させて特徴イメージを生成することができる。
第1特徴マップ生成ステップ(S120)では、特徴イメージに対する特徴マップ抽出演算を繰り返し実行し、特徴マップ抽出演算を適用した回数に応じて各々異なる解像度を有する複数の第1特徴マップを生成することができる。
ここで、特徴マップ抽出演算は予め設定された複数の逆残差モジュールを全て含む一つのセットに対する演算に対応するものであってもよい。すなわち、特徴マップ抽出演算を1回実行すれば、演算結果として第1特徴マップf1を生成することができ、第1特徴マップf1に対して再び特徴マップ抽出演算を実行して第1特徴マップf2を生成することができる。その後、同様な方式で繰り返して、第1特徴マップf3、f4、f5、f6を順次生成することができる。この場合、同一な特徴マップ抽出演算を繰り返し再使用するため、特徴マップ抽出演算のためのパラメータだけを設計しても複数の特徴マップを抽出することができる。
ここで、各々の逆残差モジュールは深さ基盤の分離コンボリューション演算を実行するものであり、それにより、特徴マップ抽出演算時に必要な演算量を減少させることができる。一方、逆残差モジュールは、活性関数としてPReLU(Parametric Rectified Linear Unit)またはLeaky-ReLUを用いるものである。
さらに、複数の逆残差モジュールのうち最後に演算される逆残差モジュールに対してはストライドを2に設定し、残りの逆残差モジュールのストライドは1に設定することができる。すなわち、特徴マップ抽出演算時ごとに第1特徴マップの解像度を半分に減らすことができる。このように、各々の第1特徴マップの解像度を変更することによって、対象イメージ内に含まれた様々な大きさのオブジェクトを検出することができる。
オブジェクト認識ステップ(S130)では、複数の第1特徴マップ内を移動する各々の境界ボックスを用いて、前記境界ボックス内のオブジェクト包含有無を判別することができる。また、オブジェクトが含まれた場合には、第1特徴マップ内の境界ボックスを対象イメージ内の位置に回帰させてオブジェクトの位置情報を抽出することができる。ここで、オブジェクト認識ステップ(S130)は3×3畳み込みフィルタを用いて実現し、位置情報には境界ボックスの幅、高さ、中心点位置座標などが含まれる。
図8は、本発明の他の実施形態によるオブジェクト認識方法を示すフローチャートである。
図8を参照すれば、本発明の他の実施形態によるオブジェクト認識方法は、図7のオブジェクト認識方法と比較する時、初期設定ステップ(S130)および第2特徴マップ生成ステップ(S140)をさらに含むことができる。
すなわち、図7のように、第1特徴マップを用いてオブジェクトを検出することもできるが、第1特徴マップを用いる場合、相対的に大きさの小さいオブジェクトを検出し難いという問題が発生しうる。
それを解決するために、本発明の他の実施形態によるオブジェクト認識方法は、初期設定ステップ(S130)および第2特徴マップ生成ステップ(S140)をさらに含み、FPN(Feature Pyramid Netwokr)構造を導入することができる。
具体的には、初期設定ステップ(S130)では、複数の第1特徴マップのうち解像度が最も低い第1特徴マップを最初の第2特徴マップに設定し、その後、第2特徴マップ生成ステップ(S140)では、直前に生成した第2特徴マップをアップサンプリングし、前記アップサンプリングした結果と同一な解像度を有する第1特徴マップをスキップ接続技法により連結して第2特徴マップを生成することができる。
すなわち、最後に生成された第1特徴マップf6を1番目の第2特徴マップg1に設定し、その後、第2特徴マップg1をアップサンプリングし、アップサンプリングした結果を以前の第1特徴マップf5と加えて第2特徴マップg2を生成することができる。ここで、第2特徴マップg2は、第1特徴マップf5と同一な解像度を有することができる。
また、第2特徴マップg2をアップサンプリングし、それを同一な解像度を有する第1特徴マップf4と加えて第2特徴マップg3を生成し、その後、同様な方式で繰り返して残りの第2特徴マップを生成することができる。
前述した本発明は、プログラムが記録された媒体にコンピュータ読み取り可能なコードとして実現することができる。コンピュータ読み取り可能な媒体は、コンピュータで実行可能なプログラムを続けて格納するか、または実行またはダウンロードのために臨時格納するものであってもよい。また、媒体は単一または数個のハードウェアが結合された形態の様々な記録手段または格納手段であってもよく、或るコンピュータ・システムに直接接続される媒体に限定されず、ネットワーク上に分散存在するものであってもよい。媒体の例示としては、ハードディスク、フロッピーディスクおよび磁気テープのような磁気媒体、CD-ROMおよびDVDのような光気録媒体、フロプティカルディスク(floptical disk)のような磁気-光媒体、およびROM、RAM、フラッシュメモリなどを含めてプログラム命令語が格納されるように構成されたものがある。また、他の媒体の例示として、アプリケーションを流通するアプリストアやその他の様々なソフトウェアを供給乃至流通するサイト、サーバなどが管理する記録媒体乃至ストレージ媒体も挙げられる。したがって、上記の詳細な説明は、全ての面で制限的に解釈されてはならず、例示的なものに考慮されなければならない。本発明の範囲は添付された請求項の合理的な解釈によって決定されなければならず、本発明の等価的な範囲内の全ての変更は本発明の範囲に含まれる。
本発明は、前述した実施形態および添付された図面によって限定されるものではない。本発明が属する技術分野における通常の知識を有した者であれば、本発明の技術的思想を逸脱しない範囲内で本発明に係る構成要素を置換、変形および変更できることは明らかである。
100 ・・・オブジェクト認識装置
110 ・・・特徴抽出部
120 ・・・バックボーンネットワーク部
121 ・・・逆残差モジュール
130 ・・・アップサンプリング部
131 ・・・アップサンプリングモジュール
140 ・・・分類部
150 ・・・位置検知部

Claims (9)

  1. 対象イメージが入力されれば、特徴抽出演算を実行して特徴イメージを生成する特徴抽出部、および
    前記特徴イメージに特徴マップ抽出演算を繰り返し実行し、前記特徴マップ抽出演算を適用した回数に応じて各々異なる解像度を有する複数の第1特徴マップを生成するバックボーンネットワーク部を含み、
    前記バックボーンネットワーク部は、
    Figure 0007133585000004
    を用いて前記第1特徴マップ{f、f、…、f}を各々生成し、ここで、Nは1以上の整数、F(・)は前記バックボーンネットワーク部の特徴マップ抽出演算、E(・)は特徴抽出部の特徴抽出演算、xは対象イメージ、fは前記特徴イメージであり、
    前記バックボーンネットワーク部は、
    複数の逆残差モジュールを含み、前記特徴イメージを前記複数の逆残差モジュールに順次適用して前記特徴マップ抽出演算を実行し、複数の逆残差モジュールのうち、最後に演算される逆残差モジュールのストライドを2に設定し、残りの逆残差モジュールのストライドは1に設定することを特徴とする、オブジェクト認識装置。
  2. 前記逆残差モジュールは、
    深さ基盤の分離コンボリューション演算を含み、活性関数としてPReLU(Parametric Rectified Linear Unit)またはLeaky-ReLUを用いることを特徴とする、請求項に記載のオブジェクト認識装置。
  3. 対象イメージが入力されれば、特徴抽出演算を実行して特徴イメージを生成する特徴抽出部、および
    前記特徴イメージに特徴マップ抽出演算を繰り返し実行し、前記特徴マップ抽出演算を適用した回数に応じて各々異なる解像度を有する複数の第1特徴マップを生成するバックボーンネットワーク部を含み、
    前記バックボーンネットワーク部は、
    複数の逆残差モジュールを含み、前記特徴イメージを前記複数の逆残差モジュールに順次適用して前記特徴マップ抽出演算を実行し、複数の逆残差モジュールのうち、最後に演算される逆残差モジュールのストライドを2に設定し、残りの逆残差モジュールのストライドは1に設定することを特徴とするオブジェクト認識装置。
  4. 前記複数の第1特徴マップ内を移動する各々の境界ボックスを用いて、前記境界ボックス内のオブジェクトの包含有無を判別する分類部、および
    前記オブジェクトが含まれた場合には、前記第1特徴マップ内の境界ボックスを前記対象イメージ内の位置に回帰させて前記オブジェクトの位置情報を抽出する位置検知部をさらに含むことを特徴とする、請求項1に記載のオブジェクト認識装置。
  5. 前記特徴抽出部、バックボーンネットワーク部、前記分類部および位置検知部は、マルチタスク損失関数を用いて同時に学習されることを特徴とする、請求項に記載のオブジェクト認識装置。
  6. 直前に生成した第2特徴マップをアップサンプリングし、前記アップサンプリングした結果と同一な解像度を有する第1特徴マップをスキップ接続技法により連結して第2特徴マップを生成するアップサンプリング部をさらに含み、
    前記アップサンプリング部は、
    複数の第1特徴マップのうち解像度が最も低い第1特徴マップを最初の第2特徴マップに設定することを特徴とする、請求項1に記載のオブジェクト認識装置。
  7. 入力された対象イメージに特徴抽出演算を実行して特徴イメージを生成するステップ、
    前記特徴イメージに特徴マップ抽出演算を繰り返し実行し、前記特徴マップ抽出演算を適用した回数に応じて各々異なる解像度を有する複数の第1特徴マップを生成するステップ、および
    前記複数の第1特徴マップ内を移動する各々の境界ボックスを用いて、前記境界ボックス内のオブジェクトの包含有無を判別し、前記オブジェクトが含まれた場合には前記第1特徴マップ内の境界ボックスを前記対象イメージ内の位置に回帰させて前記オブジェクトの位置情報を抽出するステップを含み、
    前記複数の第1特徴マップを生成するステップは、
    Figure 0007133585000005
    を用いて前記第1特徴マップ{f、f、…、f}を各々生成し、ここで、Nは1以上の整数、F(・)はバックボーンネットワーク部の特徴マップ抽出演算、E(・)は特徴抽出部の特徴抽出演算、xは対象イメージ、fは前記特徴イメージであり、
    前記特徴イメージを複数の逆残差モジュールに順次適用して前記特徴マップ抽出演算を実行し、複数の逆残差モジュールのうち、最後に演算される逆残差モジュールのストライドを2に設定し、残りの逆残差モジュールのストライドは1に設定することを特徴とする、オブジェクト認識方法。
  8. 入力された対象イメージに特徴抽出演算を実行して特徴イメージを生成するステップ、
    前記特徴イメージに特徴マップ抽出演算を繰り返し実行し、前記特徴マップ抽出演算を適用した回数に応じて各々異なる解像度を有する複数の第1特徴マップを生成するステップ、
    複数の第1特徴マップのうち解像度が最も低い第1特徴マップを最初の第2特徴マップに設定するステップ、
    直前に生成した第2特徴マップをアップサンプリングし、前記アップサンプリングした結果と同一な解像度を有する第1特徴マップをスキップ接続技法により連結して第2特徴マップを生成するステップ、および
    前記複数の第2特徴マップ内を移動する各々の境界ボックスを用いて、前記境界ボックス内のオブジェクトの包含有無を判別し、前記オブジェクトが含まれた場合には前記第2特徴マップ内の境界ボックスを前記対象イメージ内の位置に回帰させて前記オブジェクトの位置情報を抽出するステップを含み、
    複数の第1特徴マップを生成する前記ステップは、
    Figure 0007133585000006
    を用いて前記第1特徴マップ{f、f、…、f}を各々生成し、ここで、Nは1以上の整数、F(・)はバックボーンネットワーク部の特徴マップ抽出演算、E(・)は特徴抽出部の特徴抽出演算、xは対象イメージ、fは前記特徴イメージであり、
    前記特徴イメージを複数の逆残差モジュールに順次適用して前記特徴マップ抽出演算を実行し、複数の逆残差モジュールのうち、最後に演算される逆残差モジュールのストライドを2に設定し、残りの逆残差モジュールのストライドは1に設定することを特徴とする、オブジェクト認識方法。
  9. コンピュータに請求項7~8のいずれか一項に記載のオブジェクト認識方法を実行させるためのコンピュータプログラム。
JP2020086385A 2019-06-13 2020-05-18 オブジェクト認識装置およびオブジェクト認識方法 Active JP7133585B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2019-0070269 2019-06-13
KR20190070269 2019-06-13
KR10-2019-0117656 2019-09-24
KR1020190117656A KR102261894B1 (ko) 2019-06-13 2019-09-24 객체인식장치 및 객체인식방법

Publications (2)

Publication Number Publication Date
JP2020201944A JP2020201944A (ja) 2020-12-17
JP7133585B2 true JP7133585B2 (ja) 2022-09-08

Family

ID=73744308

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020086385A Active JP7133585B2 (ja) 2019-06-13 2020-05-18 オブジェクト認識装置およびオブジェクト認識方法

Country Status (1)

Country Link
JP (1) JP7133585B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112926552B (zh) * 2021-04-23 2022-08-12 河南大学 基于深度神经网络的遥感影像车辆目标识别模型及方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019008383A (ja) 2017-06-21 2019-01-17 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6787196B2 (ja) * 2017-03-09 2020-11-18 コニカミノルタ株式会社 画像認識装置及び画像認識方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019008383A (ja) 2017-06-21 2019-01-17 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Mark Sandler, et al.,MobileNetV2: Inverted Residuals and Linear Bottlenecks,2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition,2018年,https://ieeexplore.ieee.org/document/8578572
Tsung-Yi Lin, et al.,Feature Pyramid Networks for Object Detection,2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR),2017年,https://ieeexplore.ieee.org/document/8099589
Xu Tang, et al.,Feature Fusion for Weakly Supervised Object Localization,2018 Chinese Automation Congress (CAC),IEEE,2018年,https://ieeexplore.ieee.org/document/8623227

Also Published As

Publication number Publication date
JP2020201944A (ja) 2020-12-17

Similar Documents

Publication Publication Date Title
KR102261894B1 (ko) 객체인식장치 및 객체인식방법
Yang et al. Deeperlab: Single-shot image parser
Lim et al. Learning multi-scale features for foreground segmentation
US11023767B2 (en) Systems and methods for text localization and recognition in an image of a document
JP6557783B2 (ja) オブジェクト検出のためのスケール依存プーリングによるカスケード型ニューラルネットワーク
JP4933186B2 (ja) 画像処理装置、画像処理方法、プログラム及び記憶媒体
EP3602397A1 (en) Neural network systems for action recognition in videos
CN107909026B (zh) 基于小规模卷积神经网络年龄和/或性别评估方法及系统
GB2580671A (en) A computer vision system and method
WO2018176186A1 (en) Semantic image segmentation using gated dense pyramid blocks
US11853892B2 (en) Learning to segment via cut-and-paste
CN101206719A (zh) 用于检测和处理图像中特定图案的方法和设备
US11385526B2 (en) Method of processing image based on artificial intelligence and image processing device performing the same
CN111428664B (zh) 一种基于深度学习技术的计算机视觉的实时多人姿态估计方法
CN112529904A (zh) 图像语义分割方法、装置、计算机可读存储介质和芯片
JP2017004350A (ja) 画像処理装置、画像処理方法、及びプログラム
KR20200119384A (ko) 차량 번호판을 실시간으로 인식하는 장치 및 방법
Ramkumar et al. An effectual facial expression recognition using HMM
JP7133585B2 (ja) オブジェクト認識装置およびオブジェクト認識方法
Luo et al. A lightweight face detector by integrating the convolutional neural network with the image pyramid
Singh et al. Scale normalized image pyramids with autofocus for object detection
Ahmadi et al. Efficient and fast objects detection technique for intelligent video surveillance using transfer learning and fine-tuning
US20220044053A1 (en) Semantic image segmentation using gated dense pyramid blocks
Amudhan et al. RFSOD: a lightweight single-stage detector for real-time embedded applications to detect small-size objects
Chacon-Murguia et al. Moving object detection in video sequences based on a two-frame temporal information CNN

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200518

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20210414

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20210412

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210720

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211020

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220620

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220620

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220628

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220816

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220829

R150 Certificate of patent or registration of utility model

Ref document number: 7133585

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350