JPWO2019016879A1 - 物体検出装置、及び、物体検出手法 - Google Patents

物体検出装置、及び、物体検出手法 Download PDF

Info

Publication number
JPWO2019016879A1
JPWO2019016879A1 JP2019530278A JP2019530278A JPWO2019016879A1 JP WO2019016879 A1 JPWO2019016879 A1 JP WO2019016879A1 JP 2019530278 A JP2019530278 A JP 2019530278A JP 2019530278 A JP2019530278 A JP 2019530278A JP WO2019016879 A1 JPWO2019016879 A1 JP WO2019016879A1
Authority
JP
Japan
Prior art keywords
image
object detection
information
detection device
identification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019530278A
Other languages
English (en)
Other versions
JP6802923B2 (ja
Inventor
亮祐 三木
亮祐 三木
聡 笹谷
聡 笹谷
誠也 伊藤
誠也 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Publication of JPWO2019016879A1 publication Critical patent/JPWO2019016879A1/ja
Application granted granted Critical
Publication of JP6802923B2 publication Critical patent/JP6802923B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Abstract

計測範囲内に検出対象が存在するか否かを判定する物体検出装置であって、撮像装置からの入力を基に前記計測範囲内の三次元情報を取得する三次元情報取得部と、前記検出対象が存在し得る識別候補領域を抽出する識別候補領域抽出部と、前記検出対象の検出に用いる識別器と、該識別器の情報を取得する識別器情報取得部と、前記識別候補領域内の三次元情報を仮想的に視点変換処理するパラメータを決定する画像変換方法決定部と、仮想的に視点変換処理した前記識別候補領域内の三次元情報を基に変換画像を生成する画像変換実施部と、該変換画像を基に前記識別器を用いて前記検出対象を検出する識別部と、を備えることを特徴とする物体検出装置。

Description

本発明は、カメラの設置状態が変化した場合や、カメラおよび検出対象の移動により検出対象の映り方が変化した場合であっても、それらの変化に対して頑健な物体検出を実現する物体検出装置、及び、物体検出方法に関する。
監視カメラなどの撮像デバイスが取得した画像情報から検出対象の物体(例えば、人物、貨物、車両等)を検出する物体検出技術へのニーズが高い。一般的な物体検出技術としては、検出対象の物体が存在しない背景画像を予め用意しておき、入力された撮像画像と背景画像を比較することで、物体を検出する背景差分や、映像のフレーム間における特徴点の差分によって動体を検出するオプティカルフローなどがある。しかし、これらの方法では、画像中の動きのあるものを全て検出してしまうため、例えば画像中から特定の対象のみを検出することができない。
そこで、物体の輪郭情報や、外見から読み取れる色や形状などのアピアランス情報などを利用して特定の物体を検出する技術が求められる。
例えば、特許文献1では、段落0034に「HOGによるアピアランスに基づく特徴量から得られる輪郭情報から人である判定され、かつ、ピクセル状態分析による時空間特徴に基づく特徴量から前景(動状態または静状態)であると判定された画像を人と判別する」識別部が記載されている。この記載をはじめ、特許文献1には、人物を含む画像と含まない画像から成る学習サンプルから、人物の輪郭情報を抽出し、人物と人物以外に区別する識別器を生成する手段と、識別器を用いて画像上の所定の領域に人物が存在するか否かを判定する手段とを用いて、人物検出を実現する技術が開示されている。
また、特許文献2では、段落0016に「この監視画像2000上の変形検知領域2100は、カメラ装置の各パラメータに関する情報を反映し、図3に示すように、監視画像2000の歪みを考慮した上で作成される。そして、物体認識装置1(1a)は、歪み等で変形した認識対象を含む領域として作成された変形検知領域2100の画像情報100について、特徴量を抽出し、認識対象の物体か否かを判定する。」と記載されている。この記載をはじめ、特許文献2には、特許文献1の応用技術として、画像上の検出対象が、カメラ特有のレンズ歪みの影響で変形することを想定し、識別器を用いて人物が存在するか否かを判定する前に、入力する所定の領域を変形させることで検出率を向上させる技術が開示されている。
特開2009−181220号公報 特開2012−221437号公報
特許文献1では、特定姿勢の人物画像(例えば、直立姿勢を正面から撮影した画像)を学習サンプルとして識別器に学習させ、この識別器を用いて人物検出することで、特定姿勢の人物の検出率を高めている。
しかし、実際に撮影された画像中では、カメラ装置と人物の相対位置関係や、カメラ装置のレンズ歪みによって、人物の姿勢(見え方)が大きく変化するため、学習サンプルと撮影画像中の人物の輪郭情報が相違する場合は、特許文献1の識別器では、人物検出の精度が低下してしまうという課題がある。
また、特許文献2では、同文献の図13等に示されるように、カメラ装置のパラメータ情報と、検出対象とカメラ装置の位置関係から、識別器に入力する人物の輪郭情報を予め設定した特定の姿勢と同一になるように変形(正規化)することで、人物の姿勢が一定の範囲で変化している場合であっても、識別器による検出率を維持することができる。
しかし、検出対象の見え方が想定と大幅に異なる場合や、検出対象の一部が遮蔽物の陰に隠れている場合には、特許文献2の物体認識方法では、検出率が大幅に低下するという課題がある。例えば、人物の頭部、腕部、胴体、脚部の全てを含む画像からは容易に人物を検出できる場合であっても、人物を真上から撮影した画像や、下半身が遮蔽物に隠された人物を撮影した画像を用いた場合は、画像中から脚部を検出できない等の理由により、特許文献2の識別器では、画像中の人物検出率が大幅に低下してしまう。
このような課題を解決するため、本発明では、識別器に対応しない姿勢の人物を含む撮影画像や、人体の一部が障害物の影に隠れた状態で撮影された画像を用いた場合においても、高精度な人物検出を実現できる物体検出装置を提供することを目的とする。
本発明に係る物体検出装置は、計測範囲内に検出対象が存在するか否かを判定する物体検出装置であって、撮像装置からの入力を基に前記計測範囲内の三次元情報を取得する三次元情報取得部と、前記検出対象が存在し得る識別候補領域を抽出する識別候補領域抽出部と、前記検出対象の検出に用いる識別器と、該識別器の情報を取得する識別器情報取得部と、前記識別候補領域内の三次元情報を仮想的に視点変換処理するパラメータを決定する画像変換方法決定部と、仮想的に視点変換処理した前記識別候補領域内の三次元情報を基に変換画像を生成する画像変換実施部と、該変換画像を基に前記識別器を用いて前記検出対象を検出する識別部と、を備えるものとした。
本発明の物体検出装置によれば、カメラ装置と物体の相対位置が想定と大幅に異なる画像や、物体の一部が遮蔽された画像を用いた場合においても、検出対象の物体を高精度に検出することができる。
実施例1の物体検出装置の構成例を示す図である。 実施例1の識別候補領域抽出部の詳細を示す図である。 実施例1の識別候補領域情報管理部の詳細を示す図である。 二次元画像中の識別候補領域を示す図である。 三次元撮影空間中の識別候補領域を示す図である。 実施例1の識別器の詳細を示す図である。 実施例1の画像変換方法決定部の詳細を示す図である。 実施例1の視点変換部の処理内容を説明する図である。 画像変換方法決定部の効果を説明する図である。 画像変換方法決定部の効果を説明する図である。 実施例1の構成例の識別部の詳細を示す図である。 実施例1における処理フロー例を示す図である。 実施例2の物体検出装置の構成例を示す図である。 実施例2の画像変換方法決定部の処理を説明する図である。 実施例2の画像変換方法決定部の処理フローを説明する図である。 図12の処理フローの詳細を説明する図である。
以下、本発明の実施例について、適宜図面を参照しながら詳細に説明する。なお、以下では検出対象を人物とした例を説明するが、検出対象は人物に限定されず、貨物や車両等であっても良い。また、カメラ等の撮像装置で撮影した画像情報から検出対象を検出する例を説明するが、検出対象を含む情報は撮像装置で撮影した画像情報に限定されず、サーモセンサで取得したヒートマップであっても良い。
実施例1の物体検出装置2aについて、図1から図9を用いて説明する。
図1は、ステレオカメラ等の撮像装置1と接続された、本実施例の物体検出装置2aの概要を示すブロック図である。物体検出装置2aは、撮像装置1と検出対象の相対位置の変化により、撮像装置1の撮影画像上での検出対象の見え方が変化した場合であっても、検出対象の頑健な検出を実現する物体検出装置である。
図1に示す物体検出装置2aにおいて、3は撮像装置1からの入力を基に計測範囲内の画像情報を取得する画像取得部、4は撮像装置1からの入力を基に計測範囲内の三次元情報を取得する三次元情報取得部、5は画像情報と三次元情報を利用して検出対象が存在し得る領域である識別候補領域を計測範囲から抽出する識別候補領域抽出部、6は物体検出装置2aにて使用する識別器64の情報を取得する識別器情報取得部、7aは識別器の情報を用いて識別候補領域を、識別器64の入力として最適な画像へ変換する方法を決定する画像変換方法決定部、8は決定された画像変換方法に基づき識別候補領域から変換画像を取得する画像変換部、9は変換画像中に検出対象が含まれるか否かを判別する識別部である。なお、画像取得部3から識別部9の一部または全部は、必ずしも専用のハードウェアである必要はなく、半導体メモリ等の主記憶装置に記憶されたプログラムやハードディスク等の補助記憶装置に記憶されたデータを、CPU等の演算装置で処理することで実現されるものであっても良い。
以下、図1に示した、撮像装置1、識別候補領域抽出部5、識別器情報取得部6、画像変換方法決定部7a、画像変換部8、識別部9について、個々に詳細説明する。
<撮像装置>
撮像装置1は、計測範囲の画像情報と三次元情報を取得できる装置である。ここで、画像情報とはデジタル画像データにおける輝度情報、三次元情報とは計測範囲(三次元空間)における三次元点群の座標情報である。
撮像装置1としては、2台以上のカメラからなるステレオカメラや、1台のカメラと三次元情報を取得可能な距離センサの組み合わせでもよい。例えば、ステレオカメラは、2台以上のカメラで同一の対象を撮影することにより、三角測量の原理を利用してカメラから対象までの距離を計測するものであり、画像情報と三次元情報の両方を取得することができる。また、距離センサは投射した光が対象で反射し、距離センサに戻るまでの時間を、投射光と反射光の位相差から算出することで、対象までの距離を計測するものであり、予め位置合わせをしたカメラと組み合わせることで、三次元情報と画像情報を関連付けて取得できる。
<識別候補領域抽出部>
図2は識別候補領域抽出部5の詳細を示している。識別候補領域抽出部5は、画像取得部3および三次元情報取得部4の取得する画像情報もしくは三次元情報、またはその両方を利用し、検出対象が存在し得る識別候補領域55を抽出するものであり、画像情報を用いて識別候補領域55を抽出する画像処理部51と、三次元情報を用いて識別候補領域55を抽出する三次元情報処理部52と、抽出した1つ以上の識別候補領域55にIDを付与する識別候補領域ID付与部53と、識別候補領域55の位置を表す識別候補領域情報を取得し、管理する識別候補領域情報管理部54を備えている。以下、画像処理部51、三次元情報処理部52、識別候補領域ID付与部53、識別候補領域情報管理部54について詳細に説明する。
画像処理部51は、撮像装置1が取得した画像情報に対して画像処理を実施することで識別候補領域55を抽出する。ここで実行される画像処理としては、例えば、検出対象が存在しない状態の撮影空間を撮影した背景画像を予め取得しておき、その背景画像と撮影した画像との差分を算出する背景差分があるが、肌色検出などのカラー情報を用いた検出など、画像情報によって検出対象の領域を抽出できる手段であれば、特に限定しない。
三次元情報処理部52は、撮像装置1が取得した三次元情報に対して三次元処理を実施することで識別候補領域55を抽出する。ここで実行される三次元処理としては、例えば、検出対象が存在しない状態の撮影空間の背景三次元情報を予め取得しておき、その背景三次元情報と改めて取得した三次元情報との差分を算出する方法があるが、三次元処理を実施することで識別候補領域55を取得するものであれば、特に限定しない。
次に、図3A〜図3Cを用いて、識別候補領域ID付与部53と識別候補領域情報管理部54について説明する。
識別候補領域ID付与部53では、画像処理部51や三次元情報処理部52で抽出した識別候補領域55の各々に対しIDを付与する。また、識別候補領域情報管理部54では、IDに当該識別候補領域の位置情報を付加し、識別候補領域情報54_nとして管理する。なお、位置情報は、当該識別候補領域の二次元画像中の始点と終点を示す画像位置、および、当該識別候補領域の三次元撮影空間中の始点と終点を示す三次元位置である。
図3Aは、識別候補領域情報管理部54が管理するn個の識別候補領域情報54_nを例示したものであり、各々の識別候補領域情報54_nには、IDに加え、対応する識別候補領域55の位置情報である画像位置と三次元位置が記録されていることを示している。図3Bは、識別候補領域情報54_1の画像位置を具体的に示すものであり、56a、56bは、撮像装置1の撮影画像における矩形の識別候補領域55の始点(x1,y1)と終点(x1’,y1’)を示している。同様に、図3Cは、識別候補領域情報54_1の三次元位置を具体的に示すものであり、57a、57bは、直方体状の識別候補領域55の始点(X1,Y1,Z1)と終点(X1’,Y1’,Z1’)を示している。なお、図3B、図3Cでは、矩形、直方体状の識別候補領域55を例示したが、識別候補領域55の位置を特定できる表現であれば、他の形状の識別候補領域を用いても良い。この場合、図3A中の画像位置、三次元位置の情報も当該他の形状の識別候補領域に合わせた表現とすることは言うまでもない。
<識別器情報取得部>
次に、図4を用いて、識別器情報取得部6を説明する。識別器情報取得部6は複数用意されている識別器64から適切なものを選択し、それに対応した識別器情報65を抽出するものである。なお、67_nは識別器64_nを管理するために付与される識別器IDである。
識別器64は、撮像装置1の撮影画像中に検出対象が含まれるかを判別する識別処理に用いられ、識別器64_nの夫々は、異なる姿勢の検出対象に対して高い識別能力を有するものである。検出対象を含む画像と含まない画像(学習サンプル)を機械学習方法により多数学習することで、各々の識別器64_nに異なる特性を持たせることができる。なお、機械学習方法としては、Support Vector Machineが一般的であるが、他の機械学習方法を用いても良い。
識別器情報65_nは識別器64_nが特に高い識別能力を発揮する入力画像を示すものである。図4では、識別器情報として、正面視した人物画像の識別に強いテンプレート66_1、上面視した人物画像の識別に強いテンプレート66_2、側面視した人物画像の識別に強いテンプレート66_nを例示しているが、色情報や輪郭を表現する特徴量、或いは、輝度情報、勾配情報など、識別器64_nの入力に適当な画像もしくは画像の生成方法を表現する識別器情報であれば、他の情報を記録しておいても良い。
<画像変換方法決定部>
次に、図5を用いて、画像変換方法決定部7aの処理フローを説明する。画像変換方法決定部7aは、図3Cに例示した直方体状の識別候補領域55内の三次元情報を基に、識別器64への入力として最適な画像へ変換するための変換方法(パラメータ等)を決定するものである。画像変換方法決定部7aの処理フローとしては、まず視点変換のパラメータを決定し(S51)、そのパラメータを用いて視点変換画像を生成する(S52)。そして、複数の識別器64の各々が保持する識別器情報65を参照して変換画像との類似度を算出し(S53)、類似度が閾値より高ければ処理を終了し、閾値以下ならステップS51に戻り、パラメータを他の値に変更する(S54)。以下、ステップS51、S52、S53、S54について詳しく説明する。
ステップS51では、視点変換画像の生成に必要なパラメータα、β、γを決定する。なお、各パラメータの詳細については後段にて詳しく説明する。ステップS51における、パラメータα、β、γの決定方法としては網羅的に変動させる方法がある。
ステップS52では、図6に示す処理を行う。図6において、82は識別候補領域55を観測する視点、83、84、85は計測範囲に設定した三次元空間の座標系におけるx軸、y軸、z軸、86_1、86_2は視点変換によって作成される変換画像の一例を示している。ステップS52では、ステップS51で決定したパラメータα、β、γを用いて、直方体状の識別候補領域55に含まれる三次元情報を、x軸83を中心にα、y軸84を中心にβ、z軸85を中心にγだけ回転させることで、任意の視点から観測した状態に視点変換し、視点変換後の識別候補領域55を画像に投影することで変換画像86を取得する。
視点変換の方法としては、式1〜式3のような変換式を用いることが一般的であるが、他の視点変換方法を用いても良い。
Figure 2019016879
Figure 2019016879
Figure 2019016879
識別候補領域55を変換画像86_nに投影する方法としては、透視投影が一般的な方法であるが、他の方法を用いても良い。例えば、直立する人物の三次元情報を含む識別候補領域55を、視点82の方向に設置した撮像装置1で撮影した場合、視点変換せずに、識別候補領域55を投影することで、人物を上面視した変換画像86_1を取得できる。これに対し、同じ撮像装置1で撮影した識別候補領域55を、α=0°、β=0°、γ=90°だけ回転する視点変換を実施し、視点82に対して識別候補領域55を画像に投影すると、人物を側面視した変換画像86_2を取得できる。
さらに、図5のステップS53では、最適化処理を実施することで、識別器64に対して最も適する画像への画像変換方法を決定する。画像変換方法の決定方法としては、例えば、識別器情報65を参照してテンプレート66を取得し、識別候補領域55に対して視点変換を実施して取得する変換画像86_nとの類似度を算出する方法などがある。類似度の算出方法として、例えば、Normalized Cross-Correlationなどのパターンマッチングを用いることが一般的であるが、他の方法を用いても良い。この際、評価関数を類似度とし、パラメータα、β、γが変数となる評価関数を設計し、この評価関数を最大化する最適化問題を解くことで、識別器64_nに対して類似度が最大となる画像変換方法を取得する。なお、図4に例示したように、識別器64が2つ以上存在する場合は、識別候補領域55に対して取得する変換画像86_nとの類似度を各識別器に対して算出し、類似度が最大となった識別器64_nのIDを取得しておく。
ステップS54ではステップS53で算出した変換画像86_nと識別器情報65の類似度を閾値と比較し、類似度が閾値以上の場合は処理を終了し、閾値未満の場合はステップS51に戻り、異なるパラメータに変更したうえで、同様の処理を繰り返す。ステップS54で用いられる閾値は、物体検出装置2aの設置者が任意に設定してもよいが、所定の閾値により物体検出装置2aによる物体検出を実行した際の物体検出の精度をフィードバックすることで、閾値を適当な値に変更しても良い。例えば、ある閾値を用いた物体検出装置2aの精度が不十分であると判断された際に、閾値をより高い値に変更する方法などがある。
なお、ステップS51にてパラメータを決定する際に、画像変換方法決定部7aは予めパラメータα、β、γによって生成される変換画像の縦横の比率を記録した行列マップを作成し、それを参照して決定しても良い。あるいは、撮影空間を複数の領域に分割し、各領域に対しておおよそ有効であるパラメータα、β、γを保持した行列マップを用意し、それを参照して決定しても良い。その際、行列マップが保持するパラメータα、β、γよりも適したものが判明した場合には更新する方法でも良い。あるいは、カメラパラメータを取得して撮像装置1の設置状態の情報を取得することで、おおよそ有効であるパラメータα、β、γを決定する方法でも良い。
また、画像変換方法決定部7aにおいて、パラメータα、β、γを変更して類似度を計算する処理を続行するか否かを判断し、続行する場合はステップS51に戻り、続行しない場合は処理を終了することとしても良い。処理を実行するか否かの判断基準は、例えば、パラメータα、β、γを変更した回数が、あらかじめ設定した回数を上回ったかどうかによって決定しても良い。あるいは、ステップS53にて計算した類似度があらかじめ設定した最低値以下の場合に処理を終了するという方式でも良い。類似度が閾値以上にならない場合でも処理を終了することにより、識別候補領域55に検出対象の物体が含まれていない場合に、物体検出装置2aの物体検出処理が繰り返し実施される無駄を防ぐことができる。
次に、図7A、図7Bを用いて、画像変換方法決定部7aの効果を説明する。図7Aにおいて82a、82b、82cは撮像装置1の視点(設置位置・方向)を示し、87a、87b、87cはそれぞれの視点の撮影画像から抽出した、人物を含む矩形画像を示す。
直立する人物を撮影した矩形画像87a、87b、87cを基に、図7Bに示す識別器64_1、64_2を用いて人物を検出する場合、視点82aから撮影した矩形画像87aは識別器64_1のテンプレート66_1と類似度が高く、視点82cから撮影した矩形画像87cは識別器64_2のテンプレート66_2と類似度が高い。そのため、矩形画像87aと矩形画像87cについては、識別器64_1または識別器64_2を用いることで容易に人物を検出できる。
一方、視点82bから撮影した矩形画像87b中の人物には、撮像装置1の視線の傾きを原因とする変形(テンプレートとのずれ)が発生しており、テンプレート66_1、テンプレート66_2の何れとも類似度が低いため、識別器64_1、識別器64_2では人物を識別できない。このため、視点82bの撮像装置1だけが設置された現場では、従来は人物を検出することが困難であった。
このような場合であっても、本実施例の画像変換方法決定部7aを用いることで、矩形画像87b中の変形した検出対象も検出が可能となる。以下に視点82bから撮影した変形した人物を検出する手順を説明する。
まず、パラメータα、β、γを決定し、それを入力として矩形画像87bに対し仮想的な視点変換を実施することで変換画像86bを作成する。そして、変換画像86bとテンプレート66_1およびテンプレート66_2との類似度を計算し、閾値以上の類似度を示す識別器64_nがあった場合、その識別器のID67を取得する。閾値以上の類似度を示す識別器64_nがない場合は、パラメータα、β、γを再度決定し、同様の処理を実施する。矩形画像87bはカメラの傾きによる変形が発生しているものの、人物の正面の画像情報、三次元情報を取得できている。そのため、視点82bから撮影した矩形画像87bを視点82aへ仮想的に視点変換した場合、矩形画像87aと類似した変換画像86bを取得でき、識別器64_1への入力に適した画像を得ることが可能となる。
同様に、視点82bから撮影した矩形画像87bを視点82cへ仮想的に視点変換した場合、矩形画像87cと類似した変換画像86bを取得でき、識別器64_2への入力に適した画像を得ることが可能となる。
ここで、視点82bと人物の間に障害物が存在し、人体の一部(例えば脚部)が矩形画像87bに映らない状況下での画像変換方法決定部7aの利点を説明する。矩形画像87bを視点82aへ視点変換した場合、矩形画像87bと同様に変換画像86bも脚部を欠落するため、脚部検出を必要とする識別器64_1では人物を検出できない。これに対し、矩形画像87bを視点82cへ視点変換した場合、矩形画像87bと同様に変換画像86bも脚部を欠落しているが、脚部検出が不要な識別器64_2では人物を検出することができる。すなわち、人体の一部が欠落した矩形画像87bが入力された場合であっても、画像変換方法決定部7aにて適切な画像変換方法を決定し、それに応じた識別器64を選択すれば、正確な人物検出を実現することができる。
<画像変換部>
画像変換部8は、画像変換方法決定部7aが決定した画像変換方法に従って識別候補領域55を変換し、識別器64への入力に適した変換画像86を取得するものである。なお、画像変換方法はステップS52と同様に、例えば式1〜式3のような変換式を用いることができるが、他の方法を用いても良い。
<識別部>
図8は識別部9の詳細を示している。識別部9は、画像変換部8が取得する変換画像86_n中に検出対象が含まれるか否かを判定するものであり、少なくとも1つ以上の識別器64_nを記録する識別器記録部91と、識別器64_nを用いて変換画像86_nに対して識別処理を実施する識別処理実施部92と、識別処理の結果を出力する識別結果出力部を備える。以下、識別処理実施部92、識別結果出力部93について、詳細に説明する。
識別処理実施部92は、識別器記録部91に記録された識別器64_nを用いて、画像変換部8が出力した変換画像86_nに対し識別処理を実施する。識別器記録部91に識別器64_nが2つ以上記録されている場合、識別処理実施部92は、画像変換方法決定部7aにて選択された識別器64_nのIDを取得し、そのIDに対応する識別器64_nを選択した後に、画像変換実施部7が出力した変換画像86_nに対し識別処理を実施する。
識別結果出力部93は、識別処理実施部92の識別処理結果を外部に出力する。例えば、物体検出装置2aがモニタなどの表示装置に接続される場合、その表示装置に撮影空間の画像を表示してもよい。そして、識別処理実施部92が、変換画像86_n中に検出対象を含むと判定した場合、その変換画像86_nの基となった識別候補領域55の識別候補領域情報54_nを参照し、撮像装置1の撮影画像中における識別候補領域55の画像位置を取得する。そして、表示装置に表示される撮影画像中の検出対象に対応する位置に矩形の検出窓等を表示したり、検出対象が検出された旨をメッセージとして表示してもよい。
<処理フロー>
次に、図9を用いて、本実施例の物体検出装置2aにおける物体検出の処理フローを説明する。
ステップS91では、先ず、撮像装置1は計測範囲に対応する画像情報及び三次元情報を取得し、物体検出装置2aに出力する。画像取得部3は撮像装置1からの入力を基に画像情報を取得し、三次元情報取得部4は撮像装置1からの入力を基に三次元情報を取得する。
ステップS92では、識別候補領域抽出部5を用いて識別候補領域55を抽出する。具体的には、画像処理部51で抽出した矩形領域と、三次元情報処理部52で抽出した直方体領域を識別候補領域55とした後、抽出された識別候補領域55に対し、識別候補領域ID付与部53によってIDを付与する。
ステップS93では、抽出された識別候補領域55から、識別処理の対象とする1つの識別候補領域55を選択する。
ステップS94では、選択された識別候補領域55に対し、視点変換を実施し、画像に投影することで変換画像86_nを取得する。最適化処理により、識別器情報65に対して類似度が最大となる画像変換方法を取得する。識別器64_nが2つ以上存在する場合は、例えば、識別候補領域55に対して視点変換を実施して取得する変換画像86_nとテンプレート66の類似度が最大となった識別器64_nのIDを取得し、対応する識別器64_nに対して適切な画像変換方法を決定する。
ステップS95では、ステップS94にて決定された変換方法により、選択された識別候補領域55に対して画像変換を実施し、変換画像86_nを取得する。
ステップS96では、ステップS95にて取得した変換画像86_nに対して、識別器64_nを用いて識別処理を実施する。
ステップS97では、識別処理の結果、変換画像中に検出対象が含まれるか否かを判定する。含まれる場合はステップS98を実施し、含まれない場合はステップS99を実施する。
ステップS98では、識別処理の結果、変換画像中に検出対象が含まれると判定された際に、識別結果を出力する。物体検出装置2aが、例えばモニタなどの表示装置に接続される場合、表示装置に撮影空間の画像を表示し、画像中において、識別候補領域55に対応する位置に矩形の検出窓を表示したり、検出対象が検出された旨を示すメッセージを表示してもよい。識別候補領域55に対応する位置は、識別候補領域情報管理部54に記録される位置情報を参照して取得する。
ステップS99では、選択された識別候補領域55に対する識別処理を終了した後に、ステップS92にて抽出されたすべての識別候補領域55に対して識別処理を実施したかを判定する。そして、識別処理が未実施な識別候補領域55が存在する場合、ステップS93を実施し、識別処理が未実施な識別候補領域55が存在しない場合、物体検出処理を終了する。
以上説明したように、実施例1の物体検出装置2aでは、抽出した識別候補領域55を仮想的な視点変換により識別器への入力に適した画像に変換してから、検出対象の検出を実施することで、画像中の検出対象の見え方が識別器のテンプレートと相違する場合や、画面中の検出対象の一部が遮蔽物によって隠されている場合においても、検出対象を高精度に検出することができる。
次に、実施例2の物体検出装置2bについて、図10から図13を用いて説明する。なお、実施例1と共通する点は、重複説明を省略する。
図2は、ステレオカメラ等の撮像装置1と接続された、本実施例の物体検出装置2bの概要を示すブロック図である。実施例1の物体検出装置2aでは三次元情報を回転させるためのパラメータα、β、γを網羅的に変更する画像変換方法決定部7aを用いたが、本実施例の物体検出装置2bではより効率的にパラメータα、β、γを決定できる画像変換方法決定部7bを用いる。以下、画像変換方法決定部7bについて詳細に説明する。
先ず、直立した人物を視点82dから撮影している様子を示す図11を用いて、画像変換方法決定部7bでの処理の概要を説明する。図11において、Xc、Yc、Zcはカメラ座標系のx軸、y軸、z軸であり、204は視点82dに設置した撮像装置1の光軸を示す。ここで、カメラ座標系とは、撮影空間を表す三次元座標系として、撮像装置1のカメラの光学中心を原点とし、z軸(Zc)をカメラの光軸204の方向に一致させ、x軸(Xc)とy軸(Yc)は画像投影面205の横方向と縦方向に平行にとったものである。また、205は画像投影面、206は視点82dから撮影した画像、207は視点82dから取得した三次元情報、208は検出対象の姿勢方向を示す直線、209、210は識別候補領域55と直線208のカメラ座標系における交点座標(Xct,Yct,Zct)、(Xcb,Ycb,Zcb)を示し、211、212は仮想的な視点変換後の識別候補領域55と直線208のカメラ座標系における交点座標(Xct’,Yct’,Zct’)、(Xcb’,Ycb’,Zcb’)を示す。
本実施例の画像変換方法決定部7bでは、図11の下図に示すように、y軸(Yc)に対して傾いた直線208を、y軸(Yc)と平行な直線208’に変換するためのパラメータα、β、γを算出する。そして、変換後の識別候補領域55’の三面図を生成することで、識別器67への入力として最適な変換画像86を取得する。
図12は、上記のパラメータα、β、γの決定処理を含む、画像変換方法決定部7bの処理フローを示している。以下、この処理フローを概説する。
最初に、視点変換のパラメータβを0°に設定(S121)した後、直線208を取得する(S122)。そして、この直線208を回転させる任意のパラメータα、γを設定(S123)した後に、設定したパラメータα、β、γを利用して検出対象の三面図を生成する(S124)。そして、三面図のうちひとつを変換画像86として選択した後(S125)、選択した変換画像86と識別器情報65の類似度を算出し(S126)、類似度が閾値以上であれば、選択中の変換画像86を識別器64への入力画像と決定して処理を終了する。一方、類似度が閾値未満ならステップS128へ遷移する(S127)。ステップS128では、生成した三面図のすべてを変換画像として選択したかを判定し、すべてを選択していない場合はステップS125へ遷移し、β=0°の場合の三面図すべてについて類似度を算出した場合はステップS129へ遷移する(S128)。ステップS129では、パラメータβを変更して、すなわち、y軸(Yc)を中心に識別候補領域55を回転させてから、ステップS124へ戻り(S129)、類似度が閾値以上の変換画像86が得られるまで、処理を繰り返す。以下、特に重要なステップS122、S123、S124、S129について詳細に説明する。
ステップS122では直線208を取得する。直線208の求め方の一例しては、識別候補領域55の三次元情報を参照し、三次元点群の各点同士のユークリッド距離が最大となる2点を結んだ直線をとるものとする。これは、検出対象が直立した人物である場合、その人物を含む識別候補領域55は鉛直方向に長い直方体であると予測でき、ユークリッド距離が最大となる方向が、人物の姿勢方向を示す直線208であると推定できるからである。また、識別候補領域55の三次元点群に対して主成分分析を実施し、その第一成分の方向にとった直線でも良い。あるいは、一般的な床面推定方法により、撮影する空間に存在する床面を検出可能な場合、その床面と直交する方向と、頭部に対応する1つの点の情報を用いて直線208を決定する方法をとっても良い。
ステップS123では、交点座標211と交点座標212のx値、z値が共に等しくなるような、すなわち、Xct’=Xbt’かつZct’=Zbt’となるようなパラメータα、γを決定する。Xct’とXcb’が等しくなるように識別候補領域55を回転させた際のz軸(Zc)周りの回転角がパラメータγに対応し、Zct’とZcb’が等しくなるように識別候補領域55を回転させた際のx軸(Xc)周りの回転角がパラメータαに対応する。ステップS121にてパラメータβは0°に設定されているため、以上の処理によりパラメータα、β、γを決定することができる。
次に、図13を用いて、ステップS124の処理について説明する。ステップS124では、仮想的な視点変換後に識別候補領域55の三面図を取得する。図13において、視点82e、82f、82gは三面図を生成するための視点であり、変換画像86e、86f、86gは各視点より生成される変換画像86を示す。直線208をy軸(Yc)と平行にするパラメータα、γを決定した後、パラメータβを変化させながら三面図を生成していくと、所定のパラメータβとなったときに、図13の変換画像86eに示すように、識別候補領域55中の人物の正面からの視点へ仮想的に視点変換することができ、対応するテンプレートを持つ識別器64を用いて人物を検出することができる。
しかしながら、実環境では遮蔽などにより検出対象の特定の方向からの見え方が識別に適さない場合がある。そこで、正面からの視点82eからの変換画像86eに加え、側面と上面からの視点82f、82gからも変換画像86f、86gを得ておくことで、候補となる識別器64の数を増やし、物体検出の精度を向上させることができる。なお、視点82eに対して、各パラメータをさらにα=0°、β=90°、γ=0°だけ回転させることで側面を見る視点82fを設定でき、視点82eに対して、各パラメータをさらにα=90°、β=0°、γ=0°だけ回転させることで上面を見る視点82gを設定でき、視点82e、82f、82gにおいて識別候補領域55を透視投影することで、変換画像86e、86f、86gを効率的に取得でき、これを三面図とすることで効率的な人物検出を実現できる。
以上説明した実施例2の物体検出装置では、実施例1に比べ、効率的にパラメータα、β、γを決定することができ、画像中で人物が変形する場合や、遮蔽が発生する場合においても高精度な人物検出を実施することができる。
1 撮像装置、2a、2b 物体検出装置、3 画像取得部、4 三次元情報取得部、5 識別候補領域抽出部、51 画像処理部、52 三次元情報処理部、53 識別候補領域ID付与部、54 識別候補領域情報管理部、54_n 識別候補領域情報55 識別候補領域、6 識別器情報取得部、64 識別器、65 識別器情報、66 テンプレート、7a、7b 画像変換方法決定部、8 画像変換部、82 視点、86 変換画像、87 矩形画像、9 識別部、91 識別器記録部、92 識別処理実施部、93 識別結果出力部

Claims (18)

  1. 計測範囲内に検出対象が存在するか否かを判定する物体検出装置であって、
    撮像装置からの入力を基に前記計測範囲内の三次元情報を取得する三次元情報取得部と、
    前記検出対象が存在し得る識別候補領域を抽出する識別候補領域抽出部と、
    前記検出対象の検出に用いる識別器と、
    該識別器の情報を取得する識別器情報取得部と、
    前記識別候補領域内の三次元情報を仮想的に視点変換処理するパラメータを決定する画像変換方法決定部と、
    仮想的に視点変換処理した前記識別候補領域内の三次元情報を基に変換画像を生成する画像変換実施部と、
    該変換画像を基に前記識別器を用いて前記検出対象を検出する識別部と、
    を備えることを特徴とする物体検出装置。
  2. 請求項1に記載の物体検出装置において、
    前記撮像装置からの入力を基に前記計測範囲内の画像情報を取得する画像取得部、
    を更に備えることを特徴とする物体検出装置。
  3. 請求項2に記載の物体検出装置において、
    前記識別候補領域抽出部は、
    前記画像情報、前記三次元情報、外部センサの少なくとも一つ以上を利用して、前記識別候補領域を抽出することを特徴とする物体検出装置。
  4. 請求項2または3に記載の物体検出装置において、
    前記画像変換方法決定部は、
    前記画像情報と前記三次元情報と前記識別器の情報を利用して、前記識別器の入力として最適な前記変換画像を生成するパラメータを決定することを特徴とする物体検出装置。
  5. 請求項2から4のいずれかに記載の物体検出装置において、
    前記識別候補領域抽出部は、
    複数の前記識別候補領域にIDを付与する識別候補領域ID付与部と、
    前記識別候補領域のIDと、前記画像情報における位置と、前記三次元情報における位置を纏めて管理する識別候補領域情報管理部と、
    を備えることを特徴とする物体検出装置。
  6. 請求項1から5のいずれかに記載の物体検出装置において、
    前記識別器情報取得部は、前記識別器のIDと、特に高い識別能力を示す入力信号を表現する識別器情報を取得することを特徴とする物体検出装置。
  7. 請求項2から6のいずれかに記載の物体検出装置において、
    前記画像変換方法決定部は、
    前記仮想的な視点変換処理の結果に対して最適化処理を実施し、前記識別候補領域に前記検出対象が含まれるか否かを判定する識別器において最も適する画像への画像変換を実現する前記パラメータを決定することを特徴とする物体検出装置。
  8. 請求項6に記載の物体検出装置において、
    前記識別器情報は、テンプレート、色情報、輝度情報、輪郭、勾配情報のいずれかであることを特徴とする物体検出装置。
  9. 請求項8に記載の物体検出装置において、
    前記識別器情報がテンプレートである場合、
    前記画像変換方法決定部は、前記視点変換処理を実施して取得する画像と前記テンプレートの類似度を算出し、前記類似度が最大となる前記識別器を選択することを特徴とする物体検出装置。
  10. 請求項2から9のいずれかに記載の物体検出装置において、
    前記画像変換方法決定部は、前記撮像装置の設置状態を表現するカメラパラメータを利用し前記パラメータを決定する機能を備えることを特徴とする物体検出装置。
  11. 請求項2から10のいずれかに記載の物体検出装置において、
    前記識別部は、前記検出対象に対して識別能力を有する識別部を少なくとも1つを記録する識別器記録部と、
    前記識別器を用いて前記変換画像に対して前記検出対象が含まれるか否かを識別する識別処理を実施する識別処理実施部と、
    前記変換画像に前記検出対象が含まれると判定された場合に結果を出力する識別結果出力部と、
    を備えることを特徴とする物体検出装置。
  12. 請求項2から11のいずれかに記載の物体検出装置において、
    前記画像変換方法決定部は、前記検出対象の三次元形状に基づいて前記パラメータを決定することを特徴とする物体検出装置。
  13. 請求項12に記載の物体検出装置において、
    前記画像変換方法決定部は、前記識別候補領域を通過する、検出対象の一般的な姿勢方向を示す直線を取得し、
    前記直線が前記撮像装置のカメラ座標系のY軸と平行になるような仮想的な視点変換を実現する前記パラメータを取得する機能、
    を備えることを特徴とする物体検出装置。
  14. 請求項13に記載の物体検出装置において、
    前記画像変換方法決定部は、前記直線が前記カメラ座標系のY軸と平行な状態に変換された後に、正面、側面、上面から前記識別候補領域を観測する視点へ仮想的な視点変換を実施し、それぞれの視点において前記変換画像を取得することを特徴とする物体検出装置。
  15. 請求項13または14に記載の物体検出装置において、
    画像変換方法決定部は、
    前記識別候補領域に含まれる三次元点群の各点同士のユークリッド距離が最大となる2点を結ぶことで前記直線を決定することを特徴とする物体検出装置。
  16. 請求項13または14に記載の物体検出装置において、
    前記画像変換方法決定部は、
    前記識別候補領域に含まれる三次元点群に対して主成分分析を実施し、
    その第一成分の方向にとることで前記直線を決定することを特徴とする物体検出装置。
  17. 請求項13に記載の物体検出装置において、
    前記画像変換方法決定部は、
    前記計測範囲の床面を推定し、
    前記識別候補領域に対して前記検出対象の特定の部位を検出し、
    前記部位に対応するひとつの点を通り、前記床面と直交する方向へのびる直線を前記直線に決定することを特徴とする物体検出装置。
  18. 計測範囲内に検出対象が存在するか否かを判定する物体検出方法であって、
    撮像装置からの入力を基に前記計測範囲内の三次元情報を取得し、
    前記検出対象が存在し得る識別候補領域を抽出し、
    前記検出対象の検出に用いる識別器の情報を取得し、
    前記識別候補領域内の三次元情報を仮想的に視点変換処理するパラメータを決定し、
    仮想的に視点変換処理した前記識別候補領域内の三次元情報を基に変換画像を生成し、
    該変換画像を基に前記識別器を用いて前記検出対象を検出することを特徴とする物体検出方法。
JP2019530278A 2017-07-19 2017-07-19 物体検出装置、及び、物体検出手法 Active JP6802923B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/026036 WO2019016879A1 (ja) 2017-07-19 2017-07-19 物体検出装置、及び、物体検出手法

Publications (2)

Publication Number Publication Date
JPWO2019016879A1 true JPWO2019016879A1 (ja) 2020-03-26
JP6802923B2 JP6802923B2 (ja) 2020-12-23

Family

ID=65015748

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019530278A Active JP6802923B2 (ja) 2017-07-19 2017-07-19 物体検出装置、及び、物体検出手法

Country Status (2)

Country Link
JP (1) JP6802923B2 (ja)
WO (1) WO2019016879A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7094702B2 (ja) * 2018-01-12 2022-07-04 キヤノン株式会社 画像処理装置及びその方法、プログラム
JP7067672B2 (ja) * 2019-05-29 2022-05-16 コニカミノルタ株式会社 画像処理システム、画像処理プログラム、および画像処理方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007271408A (ja) * 2006-03-31 2007-10-18 Nippon Telegr & Teleph Corp <Ntt> 三次元環境情報取得装置,三次元環境情報取得方法及びその方法を実現したプログラムを格納した記録媒体
JP2015032185A (ja) * 2013-08-05 2015-02-16 国立大学法人 東京大学 3次元環境復元装置
WO2016063796A1 (ja) * 2014-10-24 2016-04-28 株式会社日立製作所 キャリブレーション装置
WO2016199244A1 (ja) * 2015-06-10 2016-12-15 株式会社日立製作所 物体認識装置及び物体認識システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007271408A (ja) * 2006-03-31 2007-10-18 Nippon Telegr & Teleph Corp <Ntt> 三次元環境情報取得装置,三次元環境情報取得方法及びその方法を実現したプログラムを格納した記録媒体
JP2015032185A (ja) * 2013-08-05 2015-02-16 国立大学法人 東京大学 3次元環境復元装置
WO2016063796A1 (ja) * 2014-10-24 2016-04-28 株式会社日立製作所 キャリブレーション装置
WO2016199244A1 (ja) * 2015-06-10 2016-12-15 株式会社日立製作所 物体認識装置及び物体認識システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
早田赳,外1名: ""3次元点群からのマルチスケール特徴抽出法に関する検討"", 映像情報メディア学会技術報告, vol. 39, no. 29, JPN6020019044, 2015, pages 35 - 40, ISSN: 0004280094 *

Also Published As

Publication number Publication date
JP6802923B2 (ja) 2020-12-23
WO2019016879A1 (ja) 2019-01-24

Similar Documents

Publication Publication Date Title
JP6125188B2 (ja) 映像処理方法及び装置
JP5950973B2 (ja) フレームを選択する方法、装置、及びシステム
JP6700752B2 (ja) 位置検出装置、位置検出方法及びプログラム
JP5812599B2 (ja) 情報処理方法及びその装置
US20160155235A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable medium
US11398049B2 (en) Object tracking device, object tracking method, and object tracking program
JP6503906B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2019075156A (ja) 多因子画像特徴登録及び追尾のための方法、回路、装置、システム、及び、関連するコンピュータで実行可能なコード
JP6352208B2 (ja) 三次元モデル処理装置およびカメラ校正システム
JP5493108B2 (ja) 距離画像カメラを用いた人体識別方法および人体識別装置
JP4774818B2 (ja) 画像処理装置及び画像処理方法
US9582706B2 (en) Face location detection
CN107680125B (zh) 在视觉系统中自动选择三维对准算法的系统和方法
JP2016099982A (ja) 行動認識装置、行動学習装置、方法、及びプログラム
JP6515039B2 (ja) 連続的な撮影画像に映り込む平面物体の法線ベクトルを算出するプログラム、装置及び方法
JP3637226B2 (ja) 動き検出方法、動き検出装置及び記録媒体
JP6541920B1 (ja) 情報処理装置、プログラム及び情報処理方法
JP2018120283A (ja) 情報処理装置、情報処理方法及びプログラム
JP6802923B2 (ja) 物体検出装置、及び、物体検出手法
US20210335010A1 (en) Calibration method and calibration apparatus
JP2010045501A (ja) 画像監視装置
JP5336325B2 (ja) 画像処理方法
KR101578891B1 (ko) 패턴 인식을 이용한 영상 정보의 차원 일치 장치 및 방법
Krispel et al. Automatic texture and orthophoto generation from registered panoramic views
JP2018195070A (ja) 情報処理装置、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200609

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200616

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201127

R150 Certificate of patent or registration of utility model

Ref document number: 6802923

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150