JP6943340B2 - 物体検出装置、物体検出システム、物体検出方法、およびプログラム - Google Patents

物体検出装置、物体検出システム、物体検出方法、およびプログラム Download PDF

Info

Publication number
JP6943340B2
JP6943340B2 JP2020522438A JP2020522438A JP6943340B2 JP 6943340 B2 JP6943340 B2 JP 6943340B2 JP 2020522438 A JP2020522438 A JP 2020522438A JP 2020522438 A JP2020522438 A JP 2020522438A JP 6943340 B2 JP6943340 B2 JP 6943340B2
Authority
JP
Japan
Prior art keywords
image
object detection
score
modified
reliability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020522438A
Other languages
English (en)
Other versions
JPWO2019229855A1 (ja
Inventor
剛志 柴田
剛志 柴田
あずさ 澤田
あずさ 澤田
高橋 勝彦
勝彦 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2019229855A1 publication Critical patent/JPWO2019229855A1/ja
Application granted granted Critical
Publication of JP6943340B2 publication Critical patent/JP6943340B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • G06T3/02
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/20Linear translation of a whole image or part thereof, e.g. panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition

Description

本発明は、画像認識によって、画像中の物体を検出する技術に関する。
カメラやセンサ等の撮像装置から取得した画像中に含まれる物体を、画像認識によって検出する物体検出装置が存在する。画像認識処理では、ある一つの波長域(例:可視光域)における画像のみを用いるよりも、別の波長域(例:遠赤外域)における他の画像を併用する方が、より多様なシーンに対応できるため、物体の検出精度が向上する。
2つの波長域の画像を取得するためには、通常、複数の撮像装置が必要である。複数の撮像装置の間には、それらの位置関係に基づく視差がある。すなわち、一つの撮像装置が取得した画像上と、もう一つの撮像装置が取得した画像上とでは、同じ物体の位置がずれて見える。
図6を参照して、関連する技術の一例および課題を説明する。図6において、上下の画像は、互いに異なる撮像装置によって撮影されたものである。図6では、2つの撮像装置がそれぞれ撮影した画像中、物体を検出する対象となる矩形の領域P1、P2を破線で示している。図6に示す例では、上側の画像中の矩形の領域P1には物体が含まれる。しかしながら、2つの撮像装置には視差があるために、下側の画像中の対応する矩形の領域P2には、人物が完全には含まれていない。そのため、識別器による人らしさの識別結果が低くなる。その結果、関連する技術では、矩形の領域P1、P2内に存在する人物を正確に検出することができない場合がある。
非特許文献1は、特殊な装置を用いることにより、画像間における視差の影響を除去する技術を開示している。
Soonmin Hwang, Jaesik Park, Namil Kim, Yukyung Choi, In So Kweon. "Multispectral Pedestrian Detection: Benchmark Dataset and Baseline." Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 07 June 2015 (07-06-2015). He, Kaiming, Jian Sun, and Xiaoou Tang. "Guided image filtering." European conference on computer vision. Springer, Berlin, Heidelberg, 05 September 2010 (05-09-2010). Dollar, P., Appel, R., Belongie, S., & Perona, P. (2014). Fast feature pyramids for object detection. IEEE Transactions on Pattern Analysis and Machine Intelligence (PAMI), 36(8), 1532-1545 01 April 2014 (01-04-2014). Shibata, Takashi, Masayuki Tanaka, and Masatoshi Okutomi. "Misalignment-Robust Joint Filter for Cross-Modal Image Pairs." Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 22 October 2017 (22-10-2017). Shibata, Takashi, Masayuki Tanaka, and Masatoshi Okutomi. "Unified image fusion based on application-adaptive importance measure." Image Processing (ICIP), 2015 IEEE International Conference on. IEEE, 27 September 2015 (27-09-2015). Shen, Xiaoyong, et al. "Multi-modal and multi-spectral registration for natural images." European Conference on Computer Vision. Springer, Cham, 04 September 2014 (04-09-2014).
しかしながら、非特許文献1に記載の技術では、視差の影響を除去するための特殊な装置にかかるコストが高いという問題がある。さらに、非特許文献1に記載の技術では、二つの撮像装置を用いて取得した画像の間で、正確に位置合わせをする必要がある。しかしながら、実際には、画像間の位置ずれを完全に補正することは困難である。
本発明の目的は、複数の画像間における視差の影響を除去するための特殊な装置を用いずに、画像認識によって、画像中の物体を高精度に検出することにある。
上記の課題を解決するために、本発明の一態様に係わる物体検出装置は、一つ以上の撮像装置によって撮影される第一画像および第二画像のうち、前記第二画像を変形することにより、変形第二画像を生成する画像変形手段と、前記第一画像と前記変形第二画像との間の位置ずれがどれぐらい小さいかを表す信頼度を算出する信頼度算出手段と、前記第一画像の各画素と、前記変形第二画像の対応する各画素とを統合することにより、統合画像を生成する統合画像生成手段と、前記統合画像から特徴量を抽出し、抽出した前記特徴量を用いて、前記統合画像が物体を含むことの確からしさを表す物体検出スコアを算出する特徴抽出手段と、前記信頼度の高さおよび前記物体検出スコアの高さの両方を考慮して、総合スコアを算出するスコア算出手段と、前記総合スコアに基づいて、前記統合画像に含まれる物体を検出する物体検出手段と、を備えている。
上記の課題を解決するために、本発明の一態様に係わる物体検出方法は、一つ以上の撮像装置によって撮影される第一画像および第二画像のうち、前記第二画像を変形することにより、変形第二画像を生成し、前記第一画像と前記変形第二画像との間の位置ずれがどれぐらい小さいかを表す信頼度を算出し、前記第一画像の各画素と、前記変形第二画像の対応する各画素とを統合することにより、統合画像を生成し、前記統合画像から特徴量を抽出し、抽出した前記特徴量を用いて、前記統合画像が物体を含むことの確からしさを表す物体検出スコアを算出し、前記信頼度の高さおよび前記物体検出スコアの高さの両方を考慮して、総合スコアを算出し、前記総合スコアに基づいて、前記統合画像に含まれる物体を検出する。
上記の課題を解決するために、本発明の一態様に係わる記録媒体は、一つ以上の撮像装置によって撮影される第一画像および第二画像のうち、前記第二画像を変形することにより、変形第二画像を生成することと、前記第一画像と前記変形第二画像との間の位置ずれがどれぐらい小さいかを表す信頼度を算出することと、前記第一画像の各画素と、前記変形第二画像の対応する各画素とを統合することにより、統合画像を生成することと、前記統合画像から特徴量を抽出し、抽出した前記特徴量を用いて、前記統合画像が物体を含むことの確からしさを表す物体検出スコアを算出することと、前記信頼度の高さおよび前記物体検出スコアの高さの両方を考慮して、総合スコアを算出することと、前記総合スコアに基づいて、前記統合画像に含まれる物体を検出することと、をコンピュータに実行させるプログラムを記録する。
本発明の一態様によれば、画像中の物体を高精度に検出することができる。
実施形態1に係わる画像処理システムの構成を示すブロック図である。 実施形態1に係わる画像処理システムが備えたデータ処理装置の動作を説明するためのフローチャートである。 実施形態1に係わる構成の効果を示す図である。 実施形態2に係わる物体検出装置の構成を示すブロック図である。 実施形態3に係わる情報処理装置のハードウェア構成を示す図である。 関連する技術の課題を説明する図である。
本発明を実施するための形態について、図面を参照して詳細に説明する。
[実施形態1]
図1は、本実施形態に係る画像処理システム1の概略構成を示すブロック図である。図1を参照すると、画像処理システム1は、第一画像入力部101と、第二画像入力部102と、データ処理装置200と、出力部301とを備えている。
(データ処理装置200)
データ処理装置200は、プログラム制御により動作するコンピュータによって実現される。図1に示すように、データ処理装置200は、画像変形部201と、信頼度算出部202と、画像統合部203と、特徴抽出部204と、スコア算出部205と、物体検出部206と、画像取得部207とを備えている。これらの各部は、それぞれ、以下で説明するように動作する。なお、本実施形態に係わるデータ処理装置200は、物体検出装置の一例である。
(第一画像入力部101)
第一画像入力部101は、カメラまたはセンサなどの、図示しない撮像装置から、物体を含む一枚以上の画像のデータ、すなわち1つ以上のフレームのデータを取得する。第一画像入力部101は、取得した画像のデータを、データ処理装置200に入力する。また、第一画像入力部101は、取得した画像のデータを、図示しないメモリ等に保存する。第一画像入力部101が取得する画像は、カメラによって取得された可視画像であってもよいし、あるいは、センサから得られる温度画像または深度画像であってもよい。第一画像入力部101は、センサが測定した各種の測定値のデータをさらに取得してもよい。以下では、第一画像入力部101がデータ処理装置200に入力する画像、およびそれに関するデータを、まとめて第一画像と呼ぶ。
第一画像は、深層学習の途中の処理結果などの多チャンネルの画像であってもよい。あるいは、第一画像は、数値シミュレーションなどにより算出したベクトルデータ(速度場、密度場など)であってもよい。
以下では、第一画像をI1(j,m)と記載する場合がある。jは、第一画像における画素を特定するための番号を表す添え字であり、mは、第一画像入力部101が入力する第一画像のうちのどの第一画像かを特定するための番号、言い換えると、第一画像の各フレームの番号を表す添え字である。
(第二画像入力部102)
第二画像入力部102は、カメラまたはセンサなどの撮像装置から、物体を含む一枚以上の画像のデータを取得する。第二画像入力部102は、取得した画像のデータを、データ処理装置200に入力する。また、第二画像入力部102は、取得した画像のデータを、図示しないメモリ等に保存する。
第二画像入力部102が取得する画像は、可視画像であってもよいし、あるいは、センサから得られる温度画像または深度画像などであってもよい。第二画像入力部102は、センサが測定した各種の測定値のデータをさらに取得してもよい。
第二画像入力部102は、第一画像とは異なる波長域の画像を取得する。例えば、第一画像が可視光域の画像である場合、第二画像入力部102が取得する画像は、例えば、第一画像と同期した遠赤外域または近赤外域の画像であってよい。以下では、第二画像入力部102がデータ処理装置200に入力する画像、およびそれに関するデータを、まとめて第二画像と呼ぶ。
以下では、第二画像をI2(j,n)と記載する場合がある。jは、第二画像における画素を特定するための番号を表す添え字であり、nは、第二画像入力部102が入力する第二画像のうちのどの第二画像かを特定するための番号、言い換えると、第二画像の各フレームの番号を表す添え字である。
(第一画像、第二画像)
第一画像および第二画像は、互いに異なる撮像装置によって撮影されてもよいし、同一の撮像装置によって撮影されてもよい。第一画像および第二画像が、一つの撮像装置によって撮影される場合、データ処理装置200は、撮像装置が撮影した複数の画像を、波長域や時刻などの撮影条件によって、第一画像のグループと第二画像のグループとに分けて取得する。
あるいは、第二画像を撮影するために使用する撮像装置は、第一画像を撮影するために使用する撮像装置と同じであってもよい。この場合、第二画像が撮影される時刻は、第一画像が撮影される時刻から僅かにずれる。例えば、第一画像および第二画像を撮影するために用いる撮像装置が、内視鏡のようなRGB面順次方式である場合、第一画像はある一フレームであり、第二画像は次のフレームであってよい。
あるいは、第一画像および第二画像を撮影するために使用する撮像装置は、衛星に搭載されていてもよい。例えば、第一画像は、光学衛星からの画像であり、第二画像は、広域の温度情報または電波情報を取得する衛星からの画像であってもよい。この場合、これらの衛星による第一画像および第二画像の撮影時刻は、同一であってもよいし、異なっていてもよい。
なお、第一画像入力部101および第二画像入力部102は、それぞれ、取得した第一画像および第二画像に対し、ノイズ除去、トーンマッピング処理、超解像処理、ボケ除去処理、あるいは画像融合処理などの、各種の画像処理を実施してもよい。
(画像取得部207)
画像取得部207は、第一画像入力部101からデータ処理装置200へ入力された第一画像を取得し、また、第二画像入力部102からデータ処理装置200へ入力された第二画像を取得する。画像取得部207は、取得した第二画像のデータを画像変形部201へ出力する。また、画像取得部207は、取得した第一画像のデータを信頼度算出部202および画像統合部203へそれぞれ出力する。
(画像変形部201)
画像変形部201は、画像取得部207から、第二画像のデータを受信する。画像変形部201は、第二画像入力部102から入力された第二画像を変形または変換することによって、変形第二画像を生成する。例えば、画像変形部201は、第二画像に対し、平行移動などの幾何変換を実施することによって、変形第二画像を生成する。なお、画像変形部201は、複数通りの変形または変換によって、一つの第二画像から、複数の変形第二画像を生成してもよい。
例えば、画像変形部201は、第二画像に対し、「右に1画素」、「右に2画素」、「右に3画素」、「変形なし」、「左に1画素」、「左に2画素」、「左に3画素」など、一通り以上の平行移動を行うことにより、一つ以上の変形第二画像を生成する。画像変形部201は、こうして生成した一つ以上の変形第二画像を、信頼度算出部202および画像統合部203に出力するとともに、図示しないメモリに保存する。
あるいは、画像変形部201は、第二画像に対し、平行移動以外の変形または変換を実施してもよい。例えば、画像変形部201は、第二画像に対し、ホモグラフィ変換、アフィン変換、またはヘルマート変換などを実施してもよい。また、画像変形部201は、変形を特徴づける複数のパラメタを用意し、一つのパラメタごとに、それぞれ変形第二画像を生成してもよい。
あるいは、画像変形部201は、第二画像を撮影した撮像装置の特性に応じて、第二画像に対して実施する変形の種類(例えば平行移動)を決定してもよい。
例えば、第一画像入力部101が第一画像を取得するために使用する撮像装置と、第二画像入力部102が第二画像を取得するために使用する撮像装置とが、空間的に並列しているとする。この場合、画像変形部201は、これらの撮像装置の配置に対応するエピポーラ線に沿って、第二画像の各画素を平行移動することによって、変形第二画像を生成してもよい。
以下では、変形第二画像をJ(j,n,k)と記載する場合がある。jは、変形第二画像における画素を特定するための番号を表す添え字であり、nは、変形第二画像の元となる第二画像を特定するための番号を表す添え字である。また、kは、一つの第二画像から画像変形部201によって生成された変形第二画像のうちの一つの変形第二画像を特定するための番号を表す添え字である。換言すれば、添え字kは、第二画像に対して行われる変形または変換の種類を表す。
(信頼度算出部202)
信頼度算出部202は、画像取得部207から第一画像を取得する。また、信頼度算出部202は、画像変形部201が生成した変形第二画像を取得する。
信頼度算出部202は、画像変形部201が生成した変形第二画像J(j,n,k)と、第一画像入力部101が生成した第一画像I1(j,m)との間の相関の強さに基づいて、第一画像の画素(添え字j)ごとに、信頼度を算出する。信頼度は、第一画像の画素と、変形第二画像の対応する画素とが、同じ物体(人物)に対応することの確からしさを表す。換言すれば、信頼度は、第一画像に含まれる空間の範囲と、変形第二画像に含まれる空間の範囲との間の位置ずれが、どれだけ小さいかを表す。
信頼度算出部202は、算出した信頼度の情報をスコア算出部205へ出力する。
信頼度算出部202は、上記の信頼度を算出するために、例えば、ロバスト関数および正規化相互相関(非特許文献6)を用いてもよいし、相互情報量(Mutual information)、差分二乗和(Sum of squared difference)、または差分絶対値和(Sum of Absolute difference)を用いてもよい。
あるいは、信頼度算出部202は、非特許文献2に記載されたガイデッドフィルタ(Guided Filter)のコスト関数を用いて、信頼度を算出することもできる。コスト関数E(j,k)は、例えば、以下の式1、式2、または式3で表される。
信頼度算出部202は、変形第二画像J(j,n,k)と、線形変形した第一画像I1(j,m)との差分の二乗和を算出する。
(式1)
E(j,k)=Σn,m {( a1×I1(j,m)+b1−J(j,n,k))
(式2)
E(j,k)=Σn,m {( a2×J(j,n,k)+b2−I1(j,m))
(式3)
E(j,k)=Σn,m {( a1×I1(j,m)+b1−J(j,n,k))
+ ( a2×J(j,n,k)+b2−I1(j,m))
上記の式1、式2、式3に示すコスト関数において、係数a1、a2、b1、b2は、非特許文献2に記載された手法を用いることで、算出することができる。
コスト関数と信頼度とは逆相関であることが、注意すべき点である。コスト関数の値が小さいほど、変形第二画像J(j,n,k)と、線形変形した第一画像I1(j,m)との間の位置ずれが小さいため、信頼度は高くなる。一例では、信頼度算出部202は、上記のコスト関数の逆数を信頼度として用いてもよいし、任意の定数からコスト関数を減算したものを、信頼度としてもよい。
あるいは、信頼度算出部202は、コスト関数の代わりにソフトマックス関数(softmax function)などを用いてもよい。この場合、信頼度算出部202は、ソフトマックス関数に基づく信頼度を算出する。
信頼度算出部202は、以下で説明するように、信頼度を正規化してもよい。
まず、信頼度算出部202は、以下の式4を用いて、最も値の小さいコスト関数を選択する。以下の式4において、N(j)は、ある特定の画素(添え字j)およびその周辺の画素からなる集合である。
(式4)
Figure 0006943340
あるいは、信頼度算出部202は、以下の式4aを用いて、最も値の小さいコスト関数を選択してもよい。
(式4a)
Figure 0006943340
ここで、θ(・)(「・」は引数を表す)は、引数「・」がゼロ以下の時に1、それ以外の時に0を出力する関数である。またEはユーザが設定するパラメタであり、0よりも大きな値を持つ。
次に、信頼度算出部202は、以下の式5にしたがって、式4または4aに基づいて選択した、最も値の小さいコスト関数を平滑化する。以下の式5において、W(k´,k)は、ガウシアンフィルタなどの任意の平滑化フィルタである。また、N(k)は、画像変形部201が一つの第二画像から生成した全ての変形第二画像からなる集合である。
(式5)
Figure 0006943340
その後、信頼度算出部202は、以下の式6を用いて、平滑化されたコスト関数を正規化する。以下の式6の左辺に示す関数S(j,k)は、最小値が0、かつ最大値が1となる。関数S(j,k)は、正規化された信頼度である。
(式6)
Figure 0006943340
(画像統合部203)
画像統合部203は、画像取得部207から第一画像を取得する。また、画像統合部203は、画像変形部201が生成した変形第二画像を取得する。
画像統合部203は、第一画像I1(j,m)および変形第二画像J(j,n,k)を統合することによって、一つの統合画像を生成する。ここでの「統合」とは、第一画像I1(j,m)および変形第二画像J(j,n,k)の対応する2つの画素の画素値のデータをまとめることである。この画素値のデータのまとまりを、「統合画像」と呼ぶ。したがって、統合画像の各画素は、第一画像I1(j,m)および変形第二画像J(j,n,k)の両方の画素の画素値を有する。
すなわち、画像統合部203は、第一画像I1(j,m)の波長域Aにおける画素jの画素値と、変形第二画像J(j,n,k)の波長域Bにおける画素jの画素値とを足し合わせるのではなく、これらの画素値のデータをメモリ内で並べて、統合画像の波長域(A+B)における画素jの画素値のデータとして保存する。画像統合部203は、このようにして、統合画像の各画素(添え字j)の画素値を確定する。
以下では、統合画像をT(j,c,k)と表す。添え字cは、一つの統合画像を特定するための番号を表す。
画像統合部203は、生成した統合画像を特徴抽出部204へ出力する。
(特徴抽出部204)
特徴抽出部204は、画像統合部203が生成した統合画像T(j,c,k)から、特徴量を抽出する。例えば、特徴抽出部204は、HoG(Histogram of Gradient)またはSIFT(Scale-Invariant Feature Transform)などの特徴量を、統合画像T(j,c,k)から抽出してもよい。
特徴抽出部204は、統合画像T(j,c,k)の各矩形の領域から特徴量を抽出するために、非特許文献3に記載のACF(Aggregate Channel Features)を用いてもよいし、深層学習を用いてもよい。
特徴抽出部204は、統合画像T(j,c,k)の各矩形の領域から抽出した特徴量に基づいて、識別器を用いて、矩形の領域ごとの物体検出スコアを算出する。例えば、特徴抽出部204は、矩形の領域ごとの特徴量を識別器に入力し、識別器は、物体を検出するための学習処理を実行する。特徴抽出部204は、識別器による学習結果に基づいて、矩形の領域の物体らしさを示す物体検出スコアを算出する。特徴抽出部204は、こうして算出した物体検出スコアを、図示しないメモリに保存する。
例えば、特徴抽出部204は、非特許文献3に記載された方法を用いて、物体検出スコアを算出してもよい。非特許文献3には、アダブースト(AdaBoost)を用いて、画像中の物体を検出する方法が記載されている。
しかしながら、特徴抽出部204は、アダブーストの代わりに、ランダムフォレスト(random forest)またはサポートベクトル回帰(support vector regression)を用いてもよいし、深層学習を用いてもよい。
特徴抽出部204が、上述したいずれかの方法を用いて、物体検出スコアを算出するとき、学習画像および正解データが必要になる。学習画像は、位置ずれのまったくない第一画像および第二画像の組である。正解データは、一つの画像の組において、検出対象の物体がどこにあるのかを示すラベルである。例えば、ラベルは、第一画像および第二画像の各々において、物体(例えば人物)を含む矩形の領域を示す座標であってよい。
以下では、物体検出スコアをS2(b,k)と記載する場合がある。bは、物体を含む矩形の領域を特定する番号を表す添え字であり、kは、画像変形部201によって一つの第二画像から生成された変形第二画像のうちの一つの変形第二画像を特定するための番号を表す添え字である。
(スコア算出部205)
スコア算出部205は、信頼度算出部202が算出した信頼度と、特徴抽出部204が算出した物体検出スコアとから、統合画像中の各矩形の領域についての総合スコアを算出する。総合スコアは、統合画像中の矩形の領域が物体を含むことの確からしさを表す。
一例では、スコア算出部205は、以下の式7にしたがって、総合スコアS(b,k)を算出する。式7において、αは、重みパラメタである。重みパラメタαは、例えば、ユーザによってあらかじめ設定されてもよい。
(式7)
S(b,k)=α×<S1(b,k)>+S2(b,k)
式7において、<S1(b,k)>は、k番目の変形第二画像におけるb番目の矩形の領域内に含まれる全ての画素(添え字j)についての信頼度S1(j,k)を平均した値を表す。あるいは、<S1(b,k)>は、単に、k番目の変形第二画像におけるb番目の矩形の領域内に含まれる全ての画素(添え字j)についての信頼度S1(j,k)の総和であってもよい。
あるいは、<S1(b,k)>は、k番目の変形第二画像におけるb番目の矩形の領域内に含まれる全ての画素(添え字j)についての信頼度S1(j,k)の重み平均であってもよい。例えば、スコア算出部205は、b番目の矩形の領域内において、物体が存在している可能性が高い領域内の画素(例えば、矩形の領域の中央)についての信頼度に対して、大きな重みを付与する。一方、スコア算出部205は、物体が存在している可能性が低い領域内の画像(例えば、変形第二画像の端)についての信頼度に対して、小さな重みを付与する。
他の一例では、スコア算出部205は、以下の式8に示すように、信頼度の平均または総和<S1(b,k)>および物体検出スコアS2(b,k)に対し、非線形変形を行ってから、これらを足し合わせてもよい。パラメタβ1およびβ2は、例えば、ユーザによってあらかじめ設定されてもよい。
(式8)
S(b,k)=exp(−β1×<S1(b,k)>)+exp(−β2×S2(b,k))
あるいは、スコア算出部205は、以下の式9に示すように、<S1(b,k)>およびS2(b,k)を引数とする非線形関数Fを、総合スコアS(b,k)としてもよい。非線形関数Fは、引数である<S1(b,k)>およびS2(b,k)の両方の増加関数である。すなわち、<S1(b,k)>を固定値とした場合、S2(b,k)が高いほど、総合スコアS(b,k)は高くなる。また、S2(b,k)を固定値とした場合、<S1(b,k)>が高いほど、総合スコアS(b,k)は高くなる。
(式9)
S(b,k)=F(<S1(b,k)>,S2(b,k))
このようにして、スコア算出部205は、信頼度および物体検出スコアの両方を考慮した総合スコアを算出する。例えば、本実施形態では、スコア算出部205は、信頼度および物体検出スコアの両方の増加関数である総合スコアを算出する。
[変形例]
一変形例では、スコア算出部205は、信頼度S(j,k)が閾値以上であるパラメタの組(j,k)についてのみ、その信頼度S(j,k)の値を、上述した信頼度の平均または総和<S1(b,k)>に加算してもよい。これにより、信頼度の平均または総和<S1(b,k)>を算出するために消費するコンピュータ資源を削減することができる。
(物体検出部206)
物体検出部206は、スコア算出部205が算出した総合スコアS(b,k)に基づいて、統合画像T(j,c,k)中に含まれる物体を検出する。例えば、物体検出部206は、総合スコアS(b,k)が閾値以上である場合、統合画像T(j,c,k)におけるb番目の矩形の領域内に、物体が存在すると判定してもよい。
このようにして、物体検出部206は、統合画像中の全ての矩形の領域について、物体の存在の有無を判定する。物体検出部206は、統合画像中の全ての矩形の領域についての物体の検出結果を、出力部301に送信してもよい。
あるいは、物体検出部206は、一つの統合画像において、物体を含む複数の矩形の領域のうち、代表的な一つの矩形の領域を選択してもよい。例えば、物体検出部206は、複数の矩形の領域のうち、総合スコアが最大である矩形の領域を選択してもよい。この場合、物体検出部206は、総合スコアが最大である矩形の領域を示す情報のみを、物体の検出結果として、出力部301に送信する。
または、複数の矩形の領域を規定する座標同士が十分に近く(例えば座標間の距離が第一の所定値以内)、かつ、それらの複数の矩形の領域についての物体検出スコアが、互いに近い値を有する(例えば値の差が第二の所定値以内)場合、物体検出部206は、総合スコアが最大である一つの矩形の領域を示す情報のみを、物体の検出結果として、出力部301に送信してもよい。
データ処理装置200は、非特許文献4または非特許文献5に記載の方法を用いて、第一画像または変形第二画像よりも視認性が向上した統合画像を生成し、出力する手段をさらに備えていてもよい。この場合、画像統合部203は、視認性の向上した統合画像を、物体検出部206による物体の検出結果とともに、出力部301へ送信する。
(出力部301)
出力部301は、物体検出部206から、物体の検出結果のみを受信した場合、物体の検出結果のみを出力する。
データ処理装置200が、前述した視認性が高い統合画像を生成する手段をさらに備える場合、出力部301は、視認性の高い統合画像上に、物体が検出された矩形の領域を示す矢印や枠などのオブジェクトを重畳した表示画像を出力する。これにより、ユーザは、出力部301から出力された表示画像を確認することによって、物体の検出された位置を知ることができる。
[動作の説明]
図2および図3を参照して、データ処理装置200の動作の流れを説明する。図2は、データ処理装置200による動作の流れを示すフローチャートである。図3は、本実施形態に係わる構成が達成する効果を説明する図である。
図2に示すように、画像取得部207は、第一画像入力部101から、第一画像のデータを取得するとともに、第二画像入力部102から、第二画像のデータを取得する(S201)。
図3において、上側の画像は第一画像の一例であり、下側の画像は第二画像の一例である。図3に示す破線の枠P3、P4は、それぞれ、物体を検出する対象となる矩形の領域のうちの一つである。矩形の領域P3、P4は互いに対応している。すなわち、矩形の領域P3と矩形の領域P4は、同じ座標系における同じ範囲を表す。なお、物体を検出する対象となる領域の形状は限定されない。
画像変形部201は、画像取得部207が取得した第二画像を変形することによって、変形第二画像を生成する(S202)。
例えば、画像変形部201は、第二画像を平行移動(図3では、右方向へ微小平行移動)させることによって、変形第二画像を生成する。このとき、画像変形部201は、第二画像内の矩形の領域P4を第二画像とともに平行移動させない。すなわち、変形第二画像内の矩形の領域P4´は、第一画像内の領域P3と対応する位置のままである。
信頼度算出部202は、第一画像と変形第二画像との間の相関に基づいて、信頼度を算出する(S203)。信頼度は、第一画像と変形第二画像との間の位置ずれの小ささを表す値である。
次に、画像統合部203は、変形第二画像の画素値と第一画像の画素値とが統合された統合画像を生成する(S204)。
特徴抽出部204は、統合画像中の各矩形の領域から特徴量を抽出し、矩形の領域ごとに物体検出スコアを算出する(S205)。
スコア算出部205は、信頼度算出部202が算出した信頼度と、特徴抽出部204が算出した物体検出スコアとに基づいて、例えば上述した式7から式9のいずれかに示す関数にしたがって、総合スコアを算出する(S206)。
物体検出部206は、スコア算出部205が算出した総合スコアに基づいて、統合画像内から物体を検出する(S207)。
最後に、出力部301は、物体検出部206が物体を検出した矩形の領域を示す情報を出力する(S208)。
あるいは、データ処理装置200が、前述した視認性が高い統合画像を生成する手段をさらに備える場合、出力部301は、視認性の高い統合画像上に、物体が検出された矩形の領域を示す矢印や枠などのオブジェクトを重畳した表示画像を出力する。
(本実施形態の効果)
本実施形態の構成によれば、データ処理装置は、一つ以上の撮像装置から、第一画像と、第二画像とを取得する。第一画像と第二画像とは波長域が異なる。データ処理装置は、第二画像が変形された変形第二画像を生成する。そして、変形第二画像と第一画像との間の相関から、信頼度を算出する。信頼度は、変形第二画像と第一画像との間の位置ずれ量が小さいほど大きい。
また、データ処理装置は、変形第二画像と第一画像とを統合した統合画像を生成し、生成した統合画像から特徴量を抽出し、抽出した特徴量に基づいて、統合画像が物体を含むことの確からしさを表す物体検出スコアを算出する。そして、データ処理装置は、算出した信頼度と物体検出スコアとに基づいて、総合スコアを算出する。
総合スコアは、信頼度および物体検出スコアの両方の増加関数である。すなわち、物体検出スコアが固定値であるとした場合、信頼度が高いほど、総合スコアは高くなる。また、信頼度が固定値であるとした場合、物体検出スコアが高くほど、総合スコアは高くなる。
データ処理装置は、このようにして算出した総合スコアを用いて、統合画像から物体を検出する。そのため、統合画像中の物体を精度よく検出することができる。
[実施形態2]
本実施形態では、課題を解決するための必須構成について説明する。
(物体検出装置400)
図4は、本実施形態に係わる物体検出装置400の構成を示すブロック図である。図4に示すように、物体検出装置400は、画像変形部401、信頼度算出部402、画像統合部403、特徴抽出部404、スコア算出部405、および物体検出部406を備えている。
画像変形部401は、一つ以上の撮像装置によって撮影される第一画像および第二画像のうち、第二画像を変形することにより、変形第二画像を生成する。
信頼度算出部402は、第一画像と変形第二画像との間の位置ずれがどれぐらい小さいかを表す信頼度を算出する。
画像統合部403は、第一画像の各画素と、変形第二画像の対応する各画素とを統合することにより、統合画像を生成する。
特徴抽出部404は、統合画像中の矩形の領域ごとに特徴量を抽出し、抽出した前記特徴量を用いて、各矩形の領域が物体を含むことの確からしさを表す物体検出スコアを算出する。
スコア算出部405は、信頼度の高さおよび物体検出スコアの高さの両方を考慮して、総合スコアを算出する。
物体検出部406は、算出された総合スコアに基づいて、統合画像中の各矩形の領域が物体を含むかどうかを判定する。
(本実施形態の効果)
本実施形態の構成によれば、物体検出装置は、第一画像と変形第二画像との間の相関に基づいて、信頼度を算出する。信頼度は、第一画像と変形第二画像との間の位置ずれがどれぐらい小さいかを表す。すなわち、第一画像と変形第二画像との間の位置ずれが小さいほど、信頼度は高くなる。
また、物体検出装置は、第一画像と変形第二画像とから、統合画像を生成する。そして、算出した信頼度と、統合画像の特徴量に基づく物体検出スコアとを考慮した総合スコアを算出する。
このように、本実施形態に係わる物体検出装置は、単に特徴量に基づく物体検出スコアに基づいて、統合画像中の物体を検出するのではなく、第一画像と変形第二画像との間の相関を表す信頼度も考慮した総合スコアに基づいて、統合画像中の物体を検出する。そのため、統合画像中の物体を高精度に検出することができる。
[実施形態3]
(ハードウェア構成について)
本開示の各実施形態において、各装置の各構成要素は、機能単位のブロックを示している。各装置の各構成要素の一部又は全部は、例えば図5に示すような情報処理装置900とプログラムとの任意の組み合わせにより実現される。図5は、各装置の各構成要素を実現する情報処理装置900のハードウェア構成の一例を示すブロック図である。
図5に示すように、情報処理装置900は、一例として、以下のような構成を含む。
・CPU(Central Processing Unit)901
・ROM(Read Only Memory)902
・RAM(Random Access Memory)903
・RAM903にロードされるプログラム904
・プログラム904を格納する記憶装置905
・記録媒体906の読み書きを行うドライブ装置907
・通信ネットワーク909と接続する通信インタフェース908
・データの入出力を行う入出力インタフェース910
・各構成要素を接続するバス911
各実施形態における各装置の各構成要素は、これらの機能を実現するプログラム904をCPU901が取得して実行することで実現される。各装置の各構成要素の機能を実現するプログラム904は、例えば、予め記憶装置905やROM902に格納されており、必要に応じてCPU901がRAM903にロードして実行される。なお、プログラム904は、通信ネットワーク909を介してCPU901に供給されてもよいし、予め記録媒体906に格納されており、ドライブ装置907が当該プログラムを読み出してCPU901に供給してもよい。
(本実施形態の効果)
本実施形態の構成によれば、前記のいずれかの実施形態において説明した装置が、ハードウェアとして実現される。したがって、前記のいずれかの実施形態において説明した効果と同様の効果を奏することができる。
本発明の具体的な構成は前述の実施の形態に限られるものではなく、この発明の要旨を逸脱しない範囲の変更があってもこの発明に含まれる。
1 画像処理システム
101 第一画像入力部
102 第二画像入力部
200 データ処理装置
201 画像変形部
202 信頼度算出部
203 画像統合部
204 特徴抽出部
205 スコア算出部
206 物体検出部
301 出力部
400 物体検出装置
401 画像変形部
402 信頼度算出部
403 画像統合部
404 特徴抽出部
405 スコア算出部
406 物体検出部

Claims (9)

  1. 一つ以上の撮像装置によって撮影される第一画像および第二画像のうち、前記第二画像を変形することにより、変形第二画像を生成する画像変形手段と、
    前記第一画像と前記変形第二画像との間の位置ずれがどれぐらい小さいかを表す信頼度を算出する信頼度算出手段と、
    前記第一画像の各画素と、前記変形第二画像の対応する各画素とを統合することにより、統合画像を生成する統合画像生成手段と、
    前記統合画像から特徴量を抽出し、抽出した前記特徴量を用いて、前記統合画像が物体を含むことの確からしさを表す物体検出スコアを算出する特徴抽出手段と、
    前記信頼度の高さおよび前記物体検出スコアの高さの両方を考慮して、総合スコアを算出するスコア算出手段と、
    前記総合スコアに基づいて、前記統合画像に含まれる物体を検出する物体検出手段と、
    を備えた物体検出装置。
  2. 前記物体検出手段は、
    前記統合画像内に設定された複数の領域の各々について物体を検出し、
    同じ物体を含む複数の領域が存在する場合、代表的なただ一つの領域を示す情報を、物体の検出結果として出力する
    ことを特徴とする請求項1に記載の物体検出装置。
  3. 前記物体検出手段は、
    前記領域を規定する4頂点の座標あるいは矩形の中心座標が互いに近い複数の領域は、同じ物体を含むと判定する
    ことを特徴とする請求項2に記載の物体検出装置。
  4. 前記第一画像および前記第二画像よりも視認性が向上した統合画像を生成し、出力する手段をさらに備えた
    ことを特徴とする請求項1から3のいずれか1項に記載の物体検出装置。
  5. 前記画像変形手段は、前記第一画像を撮影する撮像装置と、前記第二画像を撮影する他の撮像装置との間の位置関係に応じて、前記第二画像の変形の種類を決定する
    ことを特徴とする請求項1から4のいずれか1項に記載の物体検出装置。
  6. 前記スコア算出手段が算出する前記総合スコアは、前記信頼度の高さおよび前記物体検出スコアの高さの両方の増加関数である
    ことを特徴とする請求項1から5のいずれか1項に記載の物体検出装置。
  7. 請求項1から6のいずれか1項に記載の物体検出装置と、
    前記物体検出装置へ、物体を含む第一画像を入力する一つ以上の撮像装置と、
    前記物体検出手段による物体の検出結果を出力する出力手段と
    を備えた画像処理システム。
  8. 一つ以上の撮像装置によって撮影される第一画像および第二画像のうち、前記第二画像を変形することにより、変形第二画像を生成し、
    前記第一画像と前記変形第二画像との間の位置ずれがどれぐらい小さいかを表す信頼度を算出し、
    前記第一画像の各画素と、前記変形第二画像の対応する各画素とを統合することにより、統合画像を生成し、
    前記統合画像から特徴量を抽出し、抽出した前記特徴量を用いて、前記統合画像が物体を含むことの確からしさを表す物体検出スコアを算出し、
    前記信頼度の高さおよび前記物体検出スコアの高さの両方を考慮して、総合スコアを算出し、
    前記総合スコアに基づいて、前記統合画像に含まれる物体を検出する
    物体検出方法。
  9. 一つ以上の撮像装置によって撮影される第一画像および第二画像のうち、前記第二画像を変形することにより、変形第二画像を生成することと、
    前記第一画像と前記変形第二画像との間の位置ずれがどれぐらい小さいかを表す信頼度を算出することと、
    前記第一画像の各画素と、前記変形第二画像の対応する各画素とを統合することにより、統合画像を生成することと、
    前記統合画像から特徴量を抽出し、抽出した前記特徴量を用いて、前記統合画像が物体を含むことの確からしさを表す物体検出スコアを算出することと、
    前記信頼度の高さおよび前記物体検出スコアの高さの両方を考慮して、総合スコアを算出することと、
    前記総合スコアに基づいて、前記統合画像に含まれる物体を検出することと、
    をコンピュータに実行させるためのプログラム。
JP2020522438A 2018-05-29 2018-05-29 物体検出装置、物体検出システム、物体検出方法、およびプログラム Active JP6943340B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/020591 WO2019229855A1 (ja) 2018-05-29 2018-05-29 物体検出装置、物体検出システム、物体検出方法、およびプログラムを記録する記録媒体

Publications (2)

Publication Number Publication Date
JPWO2019229855A1 JPWO2019229855A1 (ja) 2021-05-13
JP6943340B2 true JP6943340B2 (ja) 2021-09-29

Family

ID=68696853

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020522438A Active JP6943340B2 (ja) 2018-05-29 2018-05-29 物体検出装置、物体検出システム、物体検出方法、およびプログラム

Country Status (3)

Country Link
US (1) US11341762B2 (ja)
JP (1) JP6943340B2 (ja)
WO (1) WO2019229855A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109344801A (zh) * 2018-10-26 2019-02-15 京东方科技集团股份有限公司 一种物体检测方法及装置
KR20210067442A (ko) * 2019-11-29 2021-06-08 엘지전자 주식회사 객체 인식을 위한 자동 레이블링 장치 및 방법

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1202214A3 (en) 2000-10-31 2005-02-23 Matsushita Electric Industrial Co., Ltd. Method and apparatus for object recognition
JP3659914B2 (ja) * 2000-10-31 2005-06-15 松下電器産業株式会社 物体認識装置、物体を認識する方法、プログラムおよび記録媒体
KR100426305B1 (ko) * 2001-11-27 2004-04-08 한국전자통신연구원 웨이블릿 기반에서 블라인드 방식을 이용한 디지털워터마크 삽입/추출장치 및 방법
JP2003190125A (ja) * 2001-12-27 2003-07-08 Konica Corp 画像処理装置、画像処理方法、プログラム、及び記憶媒体
US7620246B2 (en) * 2002-07-30 2009-11-17 Fujifilm Corporation Method and apparatus for image processing
US7982774B2 (en) * 2004-09-13 2011-07-19 Sony Corporation Image processing apparatus and image processing method
US8447128B2 (en) * 2008-04-07 2013-05-21 Fujifilm Corporation Image processing system
JP5166335B2 (ja) * 2009-03-25 2013-03-21 株式会社東芝 特徴を抽出する装置、方法およびプログラム
WO2010116885A1 (ja) * 2009-04-06 2010-10-14 日本電気株式会社 データ処理装置、画像照合方法、プログラムおよび画像照合システム
JPWO2010122721A1 (ja) * 2009-04-22 2012-10-25 日本電気株式会社 照合装置、照合方法および照合プログラム
KR101643613B1 (ko) * 2010-02-01 2016-07-29 삼성전자주식회사 디지털 영상 처리 장치, 영상 처리 방법 및 이를 기록한 기록 매체
JP2012185712A (ja) * 2011-03-07 2012-09-27 Mitsubishi Electric Corp 画像照合装置または画像照合方法
US9552374B2 (en) * 2013-08-19 2017-01-24 Kodak Alaris, Inc. Imaging workflow using facial and non-facial features
US10853625B2 (en) * 2015-03-21 2020-12-01 Mine One Gmbh Facial signature methods, systems and software
DE102015217317A1 (de) * 2015-09-10 2017-03-16 Siemens Healthcare Gmbh Transformations-Bestimmungseinrichtung und Verfahren zum Bestimmen einer Transformation zur Bildregistrierung
WO2018159002A1 (ja) * 2017-02-28 2018-09-07 パナソニックIpマネジメント株式会社 撮像システム及び撮像方法

Also Published As

Publication number Publication date
JPWO2019229855A1 (ja) 2021-05-13
US20210201007A1 (en) 2021-07-01
WO2019229855A1 (ja) 2019-12-05
US11341762B2 (en) 2022-05-24

Similar Documents

Publication Publication Date Title
US20200279121A1 (en) Method and system for determining at least one property related to at least part of a real environment
JP6125188B2 (ja) 映像処理方法及び装置
US20150262346A1 (en) Image processing apparatus, image processing method, and image processing program
Raghavendra et al. Novel image fusion scheme based on dependency measure for robust multispectral palmprint recognition
JP6428266B2 (ja) 色補正装置、色補正方法および色補正用プログラム
JP5587137B2 (ja) 測定装置及び測定方法
Alemán-Flores et al. Automatic lens distortion correction using one-parameter division models
Klippenstein et al. Quantitative evaluation of feature extractors for visual slam
JP6731097B2 (ja) 人体行動分析方法、人体行動分析装置、機器及びコンピュータ可読記憶媒体
JP5538868B2 (ja) 画像処理装置、その画像処理方法及びプログラム
CN107085728B (zh) 利用视觉系统对图像中的探针进行有效评分的方法及系统
Rehman et al. SLNet: Stereo face liveness detection via dynamic disparity-maps and convolutional neural network
JP6943340B2 (ja) 物体検出装置、物体検出システム、物体検出方法、およびプログラム
CN108875500B (zh) 行人再识别方法、装置、系统及存储介质
KR101673144B1 (ko) 부분 선형화 기반의 3차원 영상 정합 방법
CN108875472B (zh) 图像采集装置及基于该图像采集装置的人脸身份验证方法
Kim Survey on registration techniques of visible and infrared images
JP5791361B2 (ja) パターン識別装置、パターン識別方法およびプログラム
JP2016126515A (ja) オブジェクト認識スキャナシステム
JP6218237B2 (ja) 撮影画像を平行化する画像変換プログラム、装置及び方法
US20180047206A1 (en) Virtual mapping of fingerprints from 3d to 2d
Reji et al. Comparative analysis in satellite image registration
KR101480955B1 (ko) 동영상을 이용한 부유 구조물의 변위 측정 시스템 및 방법
JP4812743B2 (ja) 顔認識装置、顔認識方法、顔認識プログラムおよびそのプログラムを記録した記録媒体
JP2021022185A (ja) 画像処理装置、画像処理プログラム、及び画像処理方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201112

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210810

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210823

R150 Certificate of patent or registration of utility model

Ref document number: 6943340

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150