JP6494253B2 - 物体検出装置、物体検出方法、画像認識装置及びコンピュータプログラム - Google Patents

物体検出装置、物体検出方法、画像認識装置及びコンピュータプログラム Download PDF

Info

Publication number
JP6494253B2
JP6494253B2 JP2014233135A JP2014233135A JP6494253B2 JP 6494253 B2 JP6494253 B2 JP 6494253B2 JP 2014233135 A JP2014233135 A JP 2014233135A JP 2014233135 A JP2014233135 A JP 2014233135A JP 6494253 B2 JP6494253 B2 JP 6494253B2
Authority
JP
Japan
Prior art keywords
partial
distance
region
local
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014233135A
Other languages
English (en)
Other versions
JP2016095808A (ja
Inventor
矢野 光太郎
光太郎 矢野
一郎 梅田
一郎 梅田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014233135A priority Critical patent/JP6494253B2/ja
Priority to US14/941,360 priority patent/US20160140399A1/en
Publication of JP2016095808A publication Critical patent/JP2016095808A/ja
Application granted granted Critical
Publication of JP6494253B2 publication Critical patent/JP6494253B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/693Acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/695Preprocessing, e.g. image segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/698Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Optics & Photonics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、入力画像から所定の物体を検出する物体検出装置及び方法及び画像認識装置及びコンピュータプログラムに関する。
近年、デジタルスチルカメラやカムコーダにおいて撮影中の画像から人の顔を検出して人物を追跡する機能が急速に普及している。このような顔検出や人物追跡機能は撮影対象の人物に自動的にピントや露出を合せるために非常に有用である。画像から顔を検出する技術は、例えば非特許文献1で提案されているような技術を用いることで実用化が進んでいる。
一方、監視カメラにおいては、人物の顔が見えるような状況で人物の顔から人物を検出するだけでなく、人物の顔が見えないような状況からでも人物を検出し、その検出結果を侵入検知、及び行動や混雑度の監視等に利用したいという要望がある。
人物の顔が見えないような状況からでも人物を検出することのできる技術として、例えば非特許文献2に開示される技術が提案されている。この非特許文献2に提案されている方法は、画像から画素値の勾配方向のヒストグラムを抽出し、それを特徴量(HOG(Histogram of Oriented Gradients)特徴量)として用い、画像中の部分領域が人物か否かを判定するものである。すなわち、画素値の勾配の方向という特徴量によって人体の輪郭を表現し、人物の検出さらには特定人物の認識に利用している。
しかしながら、このような人物の検出において、画像中の人物の一部が他の物体によって隠された場合に、人物の画像からの検出の精度ひいては特定人物の認識の精度が劣化してしまう。このような状況は入力された画像が群衆で混雑する画像である場合にしばしば発生し、このような場合には、例えば、群衆中の人物の数を正確に数え上げることができない。
ここで、人物の体の一部が他の物体の陰に隠れた場合に対応する方法として、例えば非特許文献3で提案されているように、人物を頭・手・足・胴体等の部分に分割して検出し、それらの検出結果を統合する方法がある。また、非特許文献4では、異なる隠れ部分を予め想定した複数の人物検出器を用意しておき、これらの検出器のうち反応の高い結果を採用する方法が提案されている。一方、非特許文献5では、画像から得られる特徴量等から人物の隠れ領域を推定して、その結果に応じて人物の検出処理を行う方法が提案されている。
一方、RGB画像だけでなく、RGB画像の色や濃淡の値に替えて或いはこれに加えてカメラなどの画像入力装置から対象物までの距離の値を持った画像である距離画像を用いて、画像中の人物の検出の性能を向上させる方法がある。これらの方法においては、RGB画像における検出方法と同様に距離画像を扱い、距離画像からRGB画像と同様に特徴量を抽出して人物の検出及び認識に利用している。例えば、特許文献1では距離画像の勾配を求めて、それを距離勾配特徴量として用い、人物の検出を行っている。
特開2010−165183号公報
Viola and Jones, "Rapid Object Detection using Boosted Cascade of Simple Features", Proceedings of the 2001 IEEE Computer Society Conference on Computer Vision and Pattern Recognition Dalal and Triggs, "Histograms of Oriented Gradients for Human Detection", IEEE Computer Society Conference on Computer Vision and Pattern Recognition, 2005 Felzenszwalb et al.,"A discriminatively trained, multiscale, deformable part model", IEEE Conference on Computer Vision and Pattern Recognition, 2008 Mathias et al., "Handling occlusions with franken-classifiers", IEEE International Conference on Computer Vision, 2013 Wang et al., "An HOG-LBP Human Detector with Partial Occlusion Handling", IEEE 12th International Conference on Computer Vision, 2009
しかしながら、非特許文献3又は非特許文献4に開示されているような方法を用いて人物の検出を行おうとすると、人物検出のための演算処理量が著しく増加してしまう。これは、非特許文献3の技術では、人物の部分ごとに検出処理を行う必要があり、非特許文献4の技術では、異なる隠れ部分を想定した複数の人物検出器を用いて処理を行う必要があるためである。増加した演算処理量を処理するためには、数多くのプロセスを起動させ又は複数の検出器を設けるため装置が複雑化し、さらに高い処理負荷に耐え得るプロセッサ等が必要となってしまう。また、非特許文献5に開示されている隠れ領域を推定する方法においては、隠れ領域の推定を高精度に行うことは困難であり、人物の検出精度がその推定結果に依存してしまう。このように、検出対象となり得る物体(被写体)同士が画像中で重畳する等、混雑している状況下で人物を検出する場合、従来は、画像中の人物の一部が他の物体によって隠されている状態を考慮して、検出対象の人物(物体)を画像から適切に識別することは困難であった。
同様に、混雑している状況下で人物を検出する場合、たとえそれぞれの領域において人物を検出できたとしても、従来は、検出された人物を同定する際において、これら人物が検出された領域(部分領域)が重なる場合に一つの領域に一律に統合していた。その結果、実際の人物の数より少ない数の人物しか検出できない等の検出漏れや誤検出を招いていた。人物検出器は通常一人の人物に対して複数の検出結果を出力することが多く、物理的に重なる領域を一つの領域として(すなわち、複数の出力結果が一人の人物からの出力であると推定して、それらの結果を)統合処理している。しかし、実際に混雑した状況では複数の人物が画像中で重畳している場合も多く、一律に領域を統合したのでは、複数の異なる人物としてそれぞれ同定すべきところ、同一の(一人の)人物として同定されてしまい、検出対象の人物のカウントに抜けが生じてしまう。
本発明は、従来の上記課題を解決するためになされたものであり、その目的は、検出対象となり得る物体同士が画像中で重畳する等、混雑した状況を撮像した入力画像からでも、高精度な物体の検出を行うことができる物体検出装置、物体検出方法、画像認識装置及びプログラムを提供することである。
本発明の目的を達成するために、本発明の物体検出装置は以下の構成を備える。
すなわち、本発明のある態様によれば、取得された画像から、複数の部分領域を抽出する抽出手段と、抽出された前記部分領域中の画素ごとの距離を取得する距離取得手段と、前記部分領域が所定の物体を含むか否かを識別する識別手段と、前記識別手段により前記所定の物体を含むと識別された部分領域のうち、互いに重複する複数の部分領域のそれぞれに対応する距離を比較して、距離の差分が所定の閾値より小さい場合に、前記互いに重複する複数の部分領域の識別結果を統合すると判定する判定手段と、統合すると判定された前記複数の部分領域の識別結果を統合し、統合された前記複数の部分領域の識別結果から検出対象の物体を検出する統合手段と、を具備する物体検出装置が提供される。
上記の構成によれば、取得された画像中の画素ごとの距離を用いて入力画像中の複数の部分領域の識別結果を統合するか否かを判断しているので、画像中で複数の物体が重畳している場合でも、これら重畳している複数の物体を統合して同一物体と同定してしまうおそれを低減することができる。
上記の構成によれば、取得された画像中の画素ごとの距離を用いて、入力画像中の部分領域中で検出すべき物体を含む領域を推定し、この推定結果に基づいて部分領域内の局所領域の局所特徴量を算出しているので、画像中で複数の物体が重畳している場合でも、検出すべき物体に重畳している別の物体を容易に区別して局所特徴量の算出対象から除き、物体検出のための演算処理量を抑制しつつ、適切に検出対象の物体を検出することができる。
また、本発明の他の態様によれば、取得された所定の画像から、複数の部分領域を抽出するステップと、抽出された前記部分領域中の画素ごとの距離を取得するステップと、前記部分領域が所定の物体を含むか否かを識別するステップと、前記所定の物体を含むと識別された前記部分領域のうち、互いに重複する複数の部分領域のそれぞれに対応する距離を比較して、距離の差分が所定の閾値より小さい場合に、前記互いに重複する複数の部分領域の識別結果を統合すると判定するステップと、統合すると判定判断された前記複数の部分領域の識別結果を統合し、統合された前記複数の部分領域の識別結果から検出対象の物体を検出するステップと、を含む物体検出方法が提供される。
本発明によれば、画像中で複数の物体が重畳している場合でも、これら重畳している複数の物体を同一物体と同定してしまうおそれを低減し、物体の検出漏れや誤検出を抑制することができる。したがって、混雑した状況下で撮像した画像に基づいた場合でも、高精度な物体の検出が実現できる。
本発明の実施形態に係る物体検出装置の構成の一例を示すブロック図である。 本発明の実施形態に係る図1の人体識別部の構成の一例を示すブロック図である。 本発明の実施形態に係る図1の領域統合部の構成の一例を示すブロック図である。 本発明の実施形態に係る物体検出処理の処理フローを説明するフローチャートである。 本発明の実施形態に係る人体識別処理の詳細処理フローを説明するフローチャートである。 入力される画像データの例を示す図である。 図6の入力画像から抽出される部分領域画像の例を示す図である。 図6の入力画像から抽出される部分領域画像の他の例を示し、複数の人物が重畳する画像の例を示す図である。 距離画像の例を示す図である。 特徴ベクトルの一例を説明する図である。 本発明の実施形態に係る領域統合処理の詳細処理フローを説明するフローチャートである。 人物検出結果の例を示す図である。 図12に対応する距離画像の他の例を示す図である。 物体検出装置を構成するコンピュータのハードウエア構成の一例を示す構成図である。
以下、添付図面を参照して、本発明の実施形態を詳細に説明する。
なお、以下に説明する実施形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施形態に限定されるものではない。
なお、本明細書及び請求の範囲において、物体の「検出」とは検出対象の物体であるか否かを検出することをいい、例えば検出すべき物体が画像中の人物であれば、当該画像中に複数の人物がいる場合に各個体を区別することなく、画像中に何人の人がいるかを検出する場合等がこれに該当する。他方、画像中の各個体を他の個体から区別すること(例えば特定の人物(A氏、B氏など)を区別すること)は、物体の「認識」と一般に称される。また、検出対象が人物以外の物体(例えば動物、自動車、建物等の任意の物体)の場合にも同様にこれらの概念を適用することができる。
(物体検出装置の構成)
以下、本実施形態では、画像から検出すべき物体が人物であって、人物の頭部及び肩を包含する部分を人体として検出する例につき説明する。しかしながら、本実施形態を適用可能な検出対象物体は人物(人体)に限定されず、後述するパターン照合用モデルを対象物体に適合させることにより他のあらゆる被写体に適用可能であることは当業者に容易に理解され得る。
図1は、本実施形態に係る物体検出装置の構成の一例を示す。図1に示すように、本実施形態に係る物体検出装置10は、画像取得部100及び200、距離取得部300、領域抽出部400、人体識別部500、領域統合部600、結果出力部700及び記憶部800を備える。物体検出装置10は、請求の範囲の物体検出装置の一例に相当する。
画像取得部100及び画像取得部200は、外部に設けられるカメラ等の撮像手段により撮像された画像データをそれぞれ取得し、距離取得部300及び領域抽出部400に取得された画像データを供給する。或いは、画像取得部100及び画像取得部200がカメラ等の撮像手段(画像入力装置)として構成され、画像を撮像するとともに図1の後段に設けられた距離取得部300及び領域抽出部400に画像データを供給してもよい。
なお、図1において画像取得部100及び200は、後述するステレオマッチングの原理に基づきそれぞれで取得された画像データに基づき距離取得部300において画像の距離を求めるため、複数(2つ)設けられているがこれに限定されない。例えば他の手法により距離を得る場合には、画像取得部は1つ設けられてもよい。ここで取得される画像データは、例えばRGB画像であってよい。
距離取得部300は、画像取得部100及び画像取得部200でそれぞれ取得された画像データに基づき、画像取得手段100で取得した画像データ中の各画素に対応する距離を取得し、人体識別部500及び領域統合部600に供給する。距離取得部300は、請求の範囲の距離取得手段の一例に相当する。
ここで、距離取得部300が取得する「距離」とは、画像中に撮像される物体の奥行き方向(画像に対して垂直方向の)の距離をいい、カメラ等の撮像手段(画像入力装置)から撮像される対象物までの距離である。画像中の各画素毎にこの距離のデータが付与された画像データを、「距離画像」といい、距離取得部300は、この距離画像から距離を得てもよい。距離画像は、各画素の値として(輝度や色に替えて、又は輝度や色と共に)距離の値を有する画像であるととらえることができる。距離取得部300は、この画素ごとに特定される距離の値を、人体識別部500及び領域統合部600に供給する。距離取得部300はまた、取得した画像の距離画像又は距離を、距離取得部300の内部メモリ又は記憶部800に格納してよい。
なお、本実施形態における距離とはいわば正規化された距離であってよい。すなわち、厳密には、撮像装置(の視点)からの距離としては、画像取得部の光学系の焦点距離や、2つの画像取得部の左右に離間している離間距離等を考慮して実際の距離測定を行うものではあるが、本実施形態では被写体の奥行き方向の距離の差(視差ずれ量)を物体検出に利用できればよいため、必ずしも現実の距離を厳格に求めなくても足りる。
領域抽出部400は、画像取得部100又は画像取得部200で取得された画像データ中に、部分領域を設定する。この部分領域は、取得された画像中に設定され、人物であるか否かの判定を行う単位領域(検出領域)となる。各部分領域に対してその部分領域が人物の画像を含むか否かが判断される。領域抽出部400は、請求の範囲の抽出手段の一例に相当する。
領域抽出部400は、画像取得部100(又は画像取得部200)で取得された画像データ中に設定した部分領域の画像データ(以下、「部分領域画像」と称する。)を抽出する。この部分領域の設定は、画像データ中に網羅的に複数(多数)の部分領域を設定することにより行われる。好適には、ある部分領域は他の部分領域とある程度重複する位置に設定される。部分領域設定の詳細については後述する。
人体識別部500は、領域抽出部400により抽出された部分領域の画像(部分領域画像)が人物か否かを、各部分領域毎に判定し、その部分領域が人物であると判定した場合にはどの程度人物らしいかを表す尤度(以下、「スコア」と称する。)とともに当該部分領域画像の位置座標を出力する。部分領域ごとのスコアと位置座標とは、人体識別部500の内部メモリ又は記憶部800に格納されてよい。本実施形態において、人体識別部500は、人物か否かの判定を行う際に、距離画像取得部300で取得された距離画像又は距離を利用して選択的に画像特徴量を算出する。その詳細な動作については後述する。人体識別部500は、請求の範囲の識別手段の一例に相当する。
領域統合部600は、人体識別部500で人物であると判定された部分領域画像が複数重なっている場合に検出結果(識別結果)を統合する。すなわち、人物であると判断された部分領域が位置座標上重複している場合に、これら重複する複数の部分領域画像を統合する。一般に、統合された部分領域画像から、一人の人物が同定され、検出され得る。領域統合部600は、検出結果を統合するか否かの判断を行う際に、距離画像取得部300で取得された距離画像又は距離を利用する。その詳細な動作については後述する。
結果出力部700は、領域統合部600により統合された人体検出結果を出力する。例えば、人物であると判定された部分領域の画像の輪郭を表す矩形を画像取得部100又は画像取得部200で取得された画像データに重畳してディスプレイ等の表示装置に表示させてよい。この結果、ディスプレイ上で、画像中で検出された人物を囲むような矩形が表示され、どれだけの人物の検出が行われたのか、容易に知ることが可能となる。
記憶部800は、画像取得部100、画像取得部200、距離取得部300、領域抽出部400、人体識別部500、領域統合部600及び結果出力部700から出力されるデータを必要に応じて内部又は外部の記憶装置に格納する。
物体検出装置10により検出された画像中の人物は、さらに後段で特定人物として認識されてよい。このような認識を行う認識部は、請求の範囲の認識手段の一例に相当する。物体検出装置10と、このような認識部と、を具備する画像認識装置は、請求の範囲の画像認識装置の一例に相当する。
(人体識別部500の詳細構成)
図2は、図1の人体識別部500の詳細構成を示す。図2に示すように、本実施形態に係る人体識別部500は、隠れ領域推定部510と、特徴抽出部520と、パターン照合部530とを備える。
隠れ領域推定部510には、領域抽出部400から入力される部分領域画像と、距離取得部300から入力される距離とが入力され、領域抽出部400により抽出された部分領域画像中に、当該部分領域が人物の画像か否かの判定を行うために、隠れ領域を推定する。この「隠れ領域」とは、特徴抽出部520による人物検出のための局所特徴量の算出に用いられない領域であって、例えば、検出対象人物と画像上で重畳する前景の物体(例えば、人物)により隠されている検出対象人物の領域であってよい。隠れ領域推定部510は、この隠れ領域を推定する際に、距離画像取得部300により取得された距離画像を利用する。すなわち、本実施形態において隠れ領域推定部510は、隠れ領域の推定を、距離に基づき行い、この推定された隠れ領域は人物の検出に用いられない。隠れ領域推定部510は、請求の範囲の推定手段の一例に相当する。
特徴抽出部520は、隠れ領域推定部510により推定された隠れ領域を除く他の領域から、人物を検出するための特徴量を求める。後述するように、本実施形態では、1つの部分領域を複数の局所ブロック(例えば5×5や、7×7ブロック)に分割してよい。この局所ブロック毎に、人物に該当する可能性があるとして特徴量を求める局所ブロックと、人物に該当する可能性があるがノイズ(例えば、前景)であるので特徴量の算出に用いない局所ブロック、ないし人物には該当しない局所ブロック等とに分類されてよい。特徴抽出部520は、例えば、人物に該当して特徴量を求める局所ブロックのみから特徴量(以下、局所ブロックについて算出される特徴量を「局所特徴量」と称する。)を算出してよい。この段階における人物か否かの判断は、人物らしき局所ブロックを特定すれば足りるため、人物の輪郭の形状を特徴付ける、例えばオメガ型形状や略逆三角形の形状、頭、肩、胴体、足などの左右対称性形状等の形状モデルを利用して簡便に行うことができる。特徴抽出部520は、請求の範囲の算出手段の一例に相当する。また、局所ブロックは、請求の範囲の局所領域の一例に相当する。
このように隠れ領域推定部510及び特徴抽出部520を構成すれば、特徴量算出の演算処理量が低減されると共に、高精度の人物検出が可能となる。
なお、特徴抽出部520は、隠れ領域推定部510により推定される隠れ領域を用いて、さらに画像中の背景領域を除いて特徴量を算出してもよく、人物に該当する領域の輪郭の特徴量のみを算出してもよく、これらを上記と適宜組み合わせて算出してもよい。
パターン照合部530は、特徴抽出部520により求められた局所特徴量から、領域抽出部400により抽出された部分領域画像が人物か否かを判定する。この段階における人物検出の判定は、所定の人物モデルと、算出された局所特徴量を結合して得られる特徴ベクトルとをパターン照合することで実行することができる。パターン照合部530は、請求の範囲の識別手段の一例に相当する。
(領域統合部600の詳細構成)
図3は、図1の領域統合部600の詳細構成を示す。図3に示すように、本実施形態に係る領域統合部600は、同一人物判定部610と、部分領域統合部620とを備える。
同一人物判定部610には、人体識別部500から入力される人体識別結果と、距離取得部300から入力される距離とが入力され、互いに重複する複数の部分領域画像が同一人物か否かを、距離を利用して判定し、異なる人物であると判断された部分領域同士は統合されないよう指令する信号を、部分領域統合部620に出力する。同一人物判定部610は、請求の範囲の判定手段の一例に相当する。
部分領域統合部620は、同一人物判定部610から入力される信号に従って、異なる人物であると判断された部分領域同士を除き、重複する複数の部分領域を統合して、この部分領域統合により得られた人物検出結果を結果出力部700及び記憶部800に出力する。部分領域統合部620は、請求の範囲の統合手段の一例に相当する。
このように同一人物判定部610及び部分領域統合部620を構成すれば、異なる複数の人物が一人の人物として同定されることが有効に防止され、人物の検出漏れや誤検出が低減できる。
(物体検出装置10の物体検出処理)
以下、本実施形態に係る物体検出装置10の動作を図4に示す処理フローチャートに従って説明する。 まず、画像取得部100及び画像取得部200は撮像された画像データを取得する。取得した画像データは、それぞれ画像取得部100及び画像取得部200の内部のメモリに、又は記憶部800に記憶される(ステップS100)。
なお、ここで画像取得部100及び画像取得部200により取得される画像を撮影するシーンでは、ほぼ完全に重複するように撮像手段の視野が調整されている。また、画像取得部100及び画像取得部200にそれぞれ入力される2つの画像を撮像する2つの撮像手段は、所定の距離間隔をあけて、左右に並んで配置されてよい。これによって、いわゆるステレオ視による距離計測を行うことができ、距離のデータ(距離画像)を取得することが可能となる。
更に、画像取得部100及び画像取得部200は、取得された画像データを所望の画像サイズに縮小してよい。例えば、取得した画像データに対して0.8倍、更にその0.8倍(即ち0.8倍)、…となるよう所定回数だけ縮小処理を行い、異なる倍率の縮小画像を、画像取得部100の内部メモリ又は記憶部800に記憶する。これは、取得された画像中から異なるサイズの人物をそれぞれ検出するためである。
距離取得部300は、画像取得部100及び画像取得部200により取得された画像データから、画像取得部100(又は画像取得部200、以下同様。)により取得された画像データのそれぞれの画素に対応する距離を取得する(ステップS300)。
本実施形態においては、距離データの取得はステレオマッチングの原理に基づいて行われてよい。すなわち、画像取得部100により取得された画像データのそれぞれの画素に対応する画像取得部200の画素位置をパターンマッチングによって求め、その視差ずれ量の2次元分布を距離画像として得ることができる。
なお、距離の取得はこの方法だけに限定されず、例えば、符号化パターンを投光して距離画像を得るパターン投光方式や、光の飛行時間をもとに距離をセンサで測るTime−Of−Flight(TOF)方式に依ってもよい。取得された距離画像は距離取得部300の内部メモリ又は記憶部800に記憶される。
領域抽出部400は、画像取得部100により取得された画像データ中に、人物か否かの判定を行う部分領域を設定し、部分領域画像を抽出する(ステップS400)。
このとき、画像取得部100により取得された画像及び複数の縮小画像について順次、画像の上左端から下右端まで所定サイズの部分領域を所定量だけ位置をずらして切り出すようにする。すなわち、取得された画像中から様々な位置及び倍率の物体を検出できるように、画像中網羅的に部分領域を抽出する。例えば、部分領域の縦横90%がオーバーラップするように切り出し位置をシフトしていけばよい。
人体識別部500は、領域抽出部400により抽出された部分領域画像が人物か否かを判定し、人物であると判定した場合にはその尤度を示すスコアとともに部分領域画像の位置座標を出力する(ステップS500)。この人体識別処理の詳細については後述する。
ステップS510において、すべての部分領域が処理されたか否かが判断され、全ての部分領域が処理されるまで(ステップS510Y)、ステップS400及びS500の処理が画像中の部分領域毎に順次繰り返して行われる。
領域統合部600は、人体識別部500により人物であると判定された部分領域画像が複数重なる場合に検出結果を統合する(ステップS600)。この領域統合処理の詳細については後述する。結果出力部700は、領域統合部600により統合された人体識別結果を出力する(ステップS700)。
(人体識別部500の人体識別処理)
次に、図5を参照して、人体識別部500が実行する人体識別処理の詳細動作を説明する。
まず、人体識別部500は、人体識別処理対象とする部分領域画像の基準距離を、距離取得部300から取得する(ステップS510)。ここで部分領域画像の「基準距離」とは、部分領域画像中の基準となる位置に対応する距離である。
図6は、画像取得部100により取得された画像データの例を示す。図6において、部分領域R1,R2は矩形であってよく、図6には部分領域R1、R2のみが示されているが、上述したように、互いに縦横方向、共にある程度、例えば90%程度オーバーラップするように多数配置されてよい。例えば、部分領域群は、隣接する部分領域とオーバーラップしながら、画像データ中を網羅的に設定されてよい。
図7は、図6の部分領域R1に対応する部分領域画像の例を示す。図7において、部分領域画像R1は例えば5×5の局所ブロック群(L11、L12、・・・、L54、L55)に分割されている。局所ブロックへの分割はこれに限定されず、部分領域内で任意の単位で分割されてよい。
図7では、この部分領域R1中で、斜線部分の局所ブロックL23に対応する距離を上述した基準距離とする。例えば図7に示すように、人物であろうと推定される物体の頭部にあたる部分の距離を、基準距離とすることができる。なお、上述のように、本実施形態では、まずオメガ型形状等のモデルを用いて、人物と思われる領域から頭部や肩の検出を行っているので、その頭部や肩部がちょうど部分領域に囲まれるような位置にあるように部分領域が設定され、図7に示すように、頭部に該当するような大きさになるように基準距離を取得するための局所ブロックの大きさが設定されてよい。他の物体のモデルを採用する場合は、局所ブロックの大きさはそのモデルに合わせて設定されればよい。
ここで、基準距離をd0で表すと、以下の式1により、基準距離d0を得ることができる。
d0=1÷s0 (式1)
但し、s0は距離取得部300から得られる図7の斜線部分の局所ブロックL23の視差ずれ量であり、s0>0となる値である。なお、s0は、図7の斜線部分の局所ブロックL23に対応する距離画像中の代表視差ずれ量であってよい。この代表視差ずれ量とは、この局所ブロックL23の中心画素の視差ずれ量、又は、その局所ブロックL23内画素の平均視差ずれ量、のいずれかであってよいが、これに限定されず、他の統計的手法で求めた値でもよい。
図5に戻り、次に、隠れ領域推定部510は、得られた部分領域画像内に局所ブロックを設定する(ステップS520)。この局所ブロックは、図7に示すように部分領域画像を所定の大きさの矩形領域に分割した小領域である。図7では部分領域画像を5×5ブロックに分割した例が示されている。この局所ブロックは図7のように互いに重ならないように分割してもよいし、一部重なるようにして分割するようにしてもよい。図7では、最初に左上のブロックL11を設定し、右下のブロックL55まで順に処理を繰り返すように設定されている。
次に、ステップS520で設定された処理対象局所ブロックに対応する距離(以下、「局所距離」と称する。)を距離取得部300から取得する(ステップS530)。この局所距離の取得はステップS510と同様にして行うことができる。
隠れ領域推定部510は、ステップS510、及び、ステップS530において、それぞれ取得された基準距離と局所距離とを比較し、S520で設定された局所ブロックが隠れ領域であるかどうかを推定する(ステップS540)。具体的には、基準距離をd0、局所距離をd1とするとき、以下の式2が成り立つ場合に、当該処理対象の局所領域を隠れ領域と判定する。
d0―d1>dT1 (式2)
但し、dT1は予め定めた閾値であり、例えば人物が検出対象の場合、おおよそ人物の体の厚みに対応する値であってよい。上述したように、本実施形態における距離とは、いわば正規化された距離であるので、このdT1もまた、正規化された人体の厚みに相当する値であってよい。ステップS540で局所ブロックが隠れ領域と判定された場合は、特徴抽出部520は、特徴抽出処理を行わないで、例えば、特徴量の値に替えて‘0’を出力する(ステップS550)。
一方、S540で局所ブロックが隠れ領域でないと判定された場合は、特徴抽出部520は、当該局所ブロックから特徴抽出を行う(ステップS560)。この特徴抽出においては、例えば非特許文献2で提案されているHOG特徴量を算出することができる。なお、ここで算出する局所特徴量はHOG特徴量の他に輝度、色、エッジ強度などの特徴量を用いてもよいし、これらの特徴量をHOG特徴量と組み合せてもよい。
以上説明したステップS520からステップS560までの処理が、画像中の局所ブロック毎に順次繰り返して行われる(ステップS570)。全ての局所ブロックに対する処理が終了後(ステップS570Y)、ステップS580に処理が移行する。
図8を用いて隠れ領域推定部510が実行する隠れ領域推定処理(選択的局所特徴量抽出処理)を説明する。図8に示される部分領域画像R2は、図6の画像中の部分領域R2に対応する部分領域画像である。図8の例では後景の人物P1の左肩部が前景の人物P2の頭部によって隠されている。このような状況では図8の斜線で示したブロック(左下部分の3×3のブロック)の部分は後景の人物P1を検出するためのノイズ要因になるため、後段のパターン照合処理での人体識別精度が劣化する。
本実施形態では、ここで距離画像を利用することでこの識別精度劣化を低減することができる。図9は、図8の部分領域画像に対応する距離画像901における距離を濃淡で示したデプスマップを示し、図9で黒の濃度が高い部分ほど遠距離であることを表す。ステップS540において、図9における局所ブロック間の距離を比較することによって図8の斜線部分からの局所特徴量の抽出を回避し、人体識別精度の劣化を抑制することができる。
図5に戻り、特徴抽出部520は、局所ブロック毎に求めた特徴量を結合して特徴ベクトルを生成する(ステップS580)。図10に、結合された特徴ベクトルの詳細を示す。図10において、斜線部分は隠れ領域でないと判定された局所ブロックの特徴量部分であり、HOG特徴量の値が並ぶ。HOG特徴量は、例えば、9つの実数値であってよい。一方、隠れ領域と判定された局所ブロックでは図10に示すように‘0’の値を9つの実数値として並べておき、HOG特徴量の次元と揃える。局所特徴量がHOG特徴量と異なる場合も特徴量の次元を揃えるように‘0’の値を入れておけばよい。特徴ベクトルはこれらの特徴量を結合した一つのベクトルであり、局所特徴量の次元をD、局所ブロックの数をNとすると、N×D次元の特徴ベクトルとなる。
図5に戻り、パターン照合部530は、ステップS580で求められた隠れ領域を除いた領域から得られた特徴ベクトルに基づき、部分領域画像が人物であるか否かを判定する(ステップS590)。例えば非特許文献2で提案されているように、SVM(サポートベクターマシン)による学習を行って得られたパラメータを用いて人物かどうかを判定することができる。ここでのパラメータは各局所ブロックに対応する重み係数及び判定を行うための閾値である。パターン照合部530ではステップS580で求められた特徴ベクトルとパラメータ中の重み係数との積和演算を行い、演算結果と閾値とを比較して人体の識別結果を得る。ここで、パターン照合部530は、演算結果が閾値以上の場合は、演算結果をスコアとして出力するとともに部分領域を表す位置座標を出力する。この位置座標は、画像取得部100により取得された入力画像中の部分領域の上下左右端の垂直及び水平座標値である。一方、演算結果が閾値より小さい場合、出力は行われない。このようにして得られた検出結果は、パターン照合部530内の不図示のメモリ又は記憶部800に記憶される。
なお、人体識別処理の手法はSVMによるパターン照合に限定されず、例えば非特許文献1で用いられているアダブースト学習にもとづくカスケード型識別器を利用することもできる。
(領域統合部600の部分領域統合処理)
次に、図11を参照して、領域統合部600が実行する分部領域統合処理の動作を説明する。
領域統合部600は、人物であるとして検出された複数の部分領域から、重複する検出結果を統合する処理を実行する。まず、同一人物判定部610は、ステップS500で得られた検出結果のリストから一つの検出結果を、人物領域として取得する(ステップS610)。
次に、同一人物判定部610は、ステップS610で取得した検出結果の位置座標から対応する部分領域の距離を距離取得部300から取得する(ステップS620)。この距離の取得は、図5に示したステップS510と同様にして行うことができる。
次に同一人物判定部610は、ステップS610で取得した検出結果と重複する部分領域を検出結果のリストから取得する(S630)。具体的には、ステップS610で取得した検出結果の位置座標と検出結果のリストから取り出した一つの部分領域の位置座標とを比較し、2つの部分領域が以下の式3を満たすとき、重複する部分領域であると判定する。
k×S1>S2 (式3)
但し、S1は2つの部分領域が重なっている部分の面積、S2は2つの部分領域のどちらかのみに属する部分の面積であり、kは予め定めた定数である。すなわち、重なっている部分が所定割合より多ければ、これらが重複していると判断する。
同一人物判定部610は、ステップS630で取得した部分領域の距離を距離取得部300から取得する(ステップS640)。この距離の取得はステップS620と同様にして行うことができる。
次に、ステップS620で取得された検出結果の部分領域の距離と、S640で取得された重複する部分領域の距離とを比較して、2つの部分領域が同じ人物を検出しているか否かを判定する(ステップS650)。具体的には、重複する2つの部分領域の距離をそれぞれd2、d3とするとき、以下の式4が成り立つ場合に、同一人物と判定する。
abs(d2―d3)<dT2 (式4)
但し、dT2は予め定めた閾値であり、例えば検出対象が人物の場合、おおよそ人物の厚みに対応する値であってよい。また、abs( )は絶対値演算を表す。
図12は、図8における部分領域R2近傍の検出結果の例を示す。図13は、図11に対応する距離画像1301のデプスマップの例を示す。この図13の距離画像でも、濃度が高い方が遠く、薄い方が近くを表すものとする。
例えば、図12の破線で表した矩形R20がステップS610で取得された部分領域とし、同じく破線で表した矩形R21がステップS630で取得された部分領域であると仮定する。この場合、両部分領域の距離を比較して同一人物かどうかを判定する。図13の距離画像1301を参照すると、上記式4に従い、距離の差が所定値内にあるとして、同一人物であると判定できる。
一方、図12の破線で表した矩形R22をステップS630で取得された部分領域とするときは、矩形R20で表される部分領域とは、上記式4に従い、距離の差が所定値より大きいので別人物であると判定できる。
なお、重複する2つの部分領域のそれぞれの距離として、所定位置の局所ブロックに対応する距離を用いたが、本実施形態はこれに限定されない。例えば、部分領域内の各ブロックの距離を求めて、その平均値、あるいは、中間値、最頻値等を用いるようにしてもよい。また、人物であると判断した局所特徴量を算出した局所ブロックの距離の平均値を用いてもよい。
図11に戻り、同一人物判定部610が、ステップS650で2つの部分領域が同じ人物を検出していると判定した場合は、部分領域統合部620は、検出結果を統合する(ステップS660)。この統合処理は、人体識別部500で求めた2つの部分領域のスコアを比較し、スコアの低い、すなわち、人物らしさの低い部分領域を検出結果のリストから削除することによって行う。一方、同一人物判定部610が、ステップS650で2つの部分領域が別人物を検出していると判定した場合は、部分領域の統合処理は行われない。なお、統合処理はスコアの低い部分領域をリストから削除する方法には限定されない。例えば、両部分領域の位置座標の平均を求めて、その平均位置に位置する部分領域が統合後の部分領域であると設定してもよい。
ステップS610で取得された検出結果(1つの部分領域)と重複する他の全ての部分領域に対してステップS630からステップS660までの処理が順次繰り返して行われる(ステップS670)。また、ステップS500で得られた全ての検出結果に(含まれる全ての部分領域に)対してS610からS660までの処理が順次繰り返して行われる(ステップS680)。
以上説明したように、本実施形態では、距離を利用して入力画像中の部分領域中で検出すべき人物と重畳する物体により人物が隠される隠れ領域を推定し、この推定結果に基づいて部分領域内の局所領域の局所特徴量を算出しているので、混雑した状況下においても物体検出のための演算処理量を抑制しつつ、適切に検出対象の物体を検出することができる。
また、本実施形態では、距離を利用して互いに重複する部分領域が同一人物を捉えているのか、別人物なのかを判断し、別人物と判断した場合には、重複する部分領域を一律に統合する処理を回避することができるので、混雑した状況下においても精度よく人物を検出することができる。
(変形例)
以上、画像から人物を検出する場合に本発明を適用する例について説明したが、照合に用いるパターンを人物以外の物体に適合させれば、画像中に撮像可能なあらゆる物体を検出対象とすることができる。
また、上記では前景物体により隠される後景物体を検出する例を説明したがこれに限定されず、例えば、距離を利用して、後景物体と重畳して輪郭抽出が困難な前景物体の検出に適用することもできるし、背景画像から検出対象物体を有効に検出することもできる。
図14は、本実施形態に係る物体検出装置10の全部又はその一部のコンポーネントを構成するコンピュータ1010の例を示す。図14に示すように、コンピュータ1010は、プログラムを実行するCPU1011と、プログラムその他のデータを格納するROM1012と、プログラムやデータが格納されるRAM1013と、ハードディスクや光学ディスク等である外部メモリ1014と、キーボードやマウス等により操作者の操作入力やその他のデータを入力する入力部1016と、画像データ等や検出結果、認識結果等を表示する表示部1017と、外部との通信を行う通信I/F1018と、これらを接続するバス1019と、を備えてよく、さらに画像を撮像する撮像部1015を備えてもよい。
コンピュータ1010中のCPU1011が、ROM1012や外部メモリ(ハードディスク等)1014から読み出したプログラムコードを実行することにより、上記実施形態の画像検出装置の各機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ1010上で稼働するオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も、本発明の範囲に含まれることは言うまでもない。
また、上述の実施形態は、これらの1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は、上述した1つ乃至複数のうちのいくつかの効果を有する。
10 物体検出装置
100、200 画像取得部
300 距離取得部
400 領域検出部
500 人体識別部
510 隠れ領域推定部
520 特徴抽出部
530 パターン照合部
600 領域統合部
610 同一人物判定部
620 部分領域統合部
700 結果出力部
800 記憶部

Claims (18)

  1. 取得された画像から、複数の部分領域を抽出する抽出手段と、
    抽出された前記部分領域中の画素ごとの距離を取得する距離取得手段と、
    前記部分領域が所定の物体を含むか否かを識別する識別手段と、
    前記識別手段により前記所定の物体を含むと識別された部分領域のうち、互いに重複する複数の部分領域のそれぞれに対応する距離を比較して、距離の差分が所定の閾値より小さい場合に、前記互いに重複する複数の部分領域の識別結果を統合すると判定する判定手段と、
    統合すると判定された前記複数の部分領域の識別結果を統合し、統合された前記複数の部分領域の識別結果から検出対象の物体を検出する統合手段と、
    を具備することを特徴とする物体検出装置。
  2. 前記判定手段は、前記所定の物体を含むと識別された部分領域に対応する距離と、該部分領域と重複する部分領域に対応する距離とを比較して、双方の距離の差分が所定の閾値より小さい場合に、前記互いに重複する複数の部分領域中の物体が同一であると判定することを特徴とする請求項に記載の物体検出装置。
  3. 抽出された前記部分領域内に複数の局所領域を設定する設定手段と、
    前記距離に基づいて、前記複数の部分領域中で、所定の物体を含む領域を推定する推定手段と、
    前記推定手段が推定した結果に基づいて、前記部分領域内の前記局所領域の局所特徴量を算出する算出手段とをさらに具備し
    前記識別手段は、算出された前記局所特徴量に基づいて、前記部分領域が前記所定の物体を含むか否かを識別することを特徴とする請求項1に記載の物体検出装置。
  4. 前記推定手段は、前記部分領域中の基準となる位置に設定された基準距離と、前記局所領域について取得された距離とを比較して、双方の距離の差分が所定の閾値以下の場合に、前記局所領域が前記所定の物体を含むと推定することを特徴とする請求項に記載の物体検出装置。
  5. 前記推定手段は、前記距離に基づいて、前記部分領域中で、前記所定の物体が該物体に重畳する前景物体により隠される局所領域を推定し、
    前記算出手段は、前記部分領域内の前記局所領域のうち、前記隠される局所領域と推定された局所領域からは前記局所特徴量を算出しないことを特徴とする請求項又はに記載の物体検出装置。
  6. 前記算出手段は、前記推定手段が推定した結果に基づいて、前記局所領域中の検出対象の物体の輪郭の領域の局所特徴量を算出することを特徴とする請求項からのいずれか1項に記載の物体検出装置。
  7. 前記識別手段は、算出された前記局所特徴量から特徴ベクトルを生成し、生成された前記特徴ベクトルと、各局所領域について予め設定された重み係数とをパターン照合することにより、前記部分領域が前記所定の物体を含むか否かを識別することを特徴とする請求項からのいずれか1項に記載の物体検出装置。
  8. 前記距離は、取得された前記画像を撮像した撮像装置から撮像された対象物までの奥行き方向の距離であることを特徴とする請求項1からのいずれか1項に記載の物体検出装置。
  9. 請求項1からのいずれか1項に記載の物体検出装置と、
    前記取得された画像から検出された前記物体を認識する認識手段と、
    を具備することを特徴とする画像認識装置。
  10. 取得された所定の画像から、複数の部分領域を抽出するステップと、
    抽出された前記部分領域中の画素ごとの距離を取得するステップと、
    前記部分領域が所定の物体を含むか否かを識別するステップと、
    前記所定の物体を含むと識別された前記部分領域のうち、互いに重複する複数の部分領域のそれぞれに対応する距離を比較して、距離の差分が所定の閾値より小さい場合に、前記互いに重複する複数の部分領域の識別結果を統合すると判定するステップと、
    統合すると判定判断された前記複数の部分領域の識別結果を統合し、統合された前記複数の部分領域の識別結果から検出対象の物体を検出するステップと、
    を含むことを特徴とする物体検出方法。
  11. 前記判定するステップにおいて、前記所定の物体を含むと識別された部分領域に対応する距離と、該部分領域と重複する部分領域に対応する距離とを比較して、双方の距離の差分が所定の閾値より小さい場合に、前記互いに重複する複数の部分領域中の物体が同一であると判定することを特徴とする請求項10に記載の物体検出方法。
  12. 抽出された前記部分領域内に複数の局所領域を設定するステップと、
    前記距離に基づいて、前記複数の部分領域中で、所定の物体を含む領域を推定するステップと、
    推定された前記結果に基づいて、前記部分領域内の前記局所領域の局所特徴量を算出するステップとを含み
    前記識別するステップでは、算出された前記局所特徴量に基づいて、前記部分領域が前記所定の物体を含むか否かを識別することを特徴とする請求項10に記載の物体検出方法。
  13. 前記推定するステップにおいて、前記部分領域中の基準となる位置に設定された基準距離と、前記局所領域について取得された距離とを比較して、双方の距離の差分が所定の閾値以下の場合に、前記局所領域が前記所定の物体を含むと推定することを特徴とする請求項12に記載の物体検出方法。
  14. 前記推定するステップにおいて、前記距離に基づいて、前記部分領域中で、前記所定の物体が該物体に重畳する前景物体により隠される局所領域を推定し、
    前記算出するステップにおいて、前記部分領域内の前記局所領域のうち、前記隠される局所領域と推定された局所領域からは前記局所特徴量を算出しないことを特徴とする請求項12又は13に記載の物体検出方法。
  15. 前記算出するステップにおいて、推定された前記結果に基づいて、前記局所領域中の検出対象の物体の輪郭の領域の局所特徴量を算出することを特徴とする請求項12から14のいずれか1項に記載の物体検出方法。
  16. 前記識別するステップにおいて、算出された前記局所特徴量から特徴ベクトルを生成し、生成された前記特徴ベクトルと、各局所領域について予め設定された重み係数とをパターン照合することにより、前記部分領域が前記所定の物体を含むか否かを識別することを特徴とする請求項12から15のいずれか1項に記載の物体検出方法。
  17. 前記距離は、取得された前記画像を撮像した撮像装置から撮像された対象物までの奥行き方向の距離であることを特徴とする請求項10から16のいずれか1項に記載の物体検出方法。
  18. コンピュータが読み込み実行することで、前記コンピュータを請求項1からのいずれか1項に記載の物体検出装置の各部として機能させるコンピュータプログラム。
JP2014233135A 2014-11-17 2014-11-17 物体検出装置、物体検出方法、画像認識装置及びコンピュータプログラム Active JP6494253B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014233135A JP6494253B2 (ja) 2014-11-17 2014-11-17 物体検出装置、物体検出方法、画像認識装置及びコンピュータプログラム
US14/941,360 US20160140399A1 (en) 2014-11-17 2015-11-13 Object detection apparatus and method therefor, and image recognition apparatus and method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014233135A JP6494253B2 (ja) 2014-11-17 2014-11-17 物体検出装置、物体検出方法、画像認識装置及びコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2016095808A JP2016095808A (ja) 2016-05-26
JP6494253B2 true JP6494253B2 (ja) 2019-04-03

Family

ID=55961986

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014233135A Active JP6494253B2 (ja) 2014-11-17 2014-11-17 物体検出装置、物体検出方法、画像認識装置及びコンピュータプログラム

Country Status (2)

Country Link
US (1) US20160140399A1 (ja)
JP (1) JP6494253B2 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106803056B (zh) * 2015-11-26 2020-11-06 华为技术有限公司 一种肢体关系的估计方法及装置
JP6732522B2 (ja) * 2016-05-02 2020-07-29 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
CN107545221A (zh) * 2016-06-28 2018-01-05 北京京东尚科信息技术有限公司 婴儿踢被识别方法、系统及装置
JP6655513B2 (ja) * 2016-09-21 2020-02-26 株式会社日立製作所 姿勢推定システム、姿勢推定装置、及び距離画像カメラ
JP6943092B2 (ja) * 2016-11-18 2021-09-29 株式会社リコー 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、及び、情報処理プログラム
JP6896401B2 (ja) * 2016-11-25 2021-06-30 東芝テック株式会社 物品認識装置
JP2018092507A (ja) * 2016-12-07 2018-06-14 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP6851246B2 (ja) * 2017-04-25 2021-03-31 セコム株式会社 物体検出装置
CN107355161B (zh) * 2017-06-28 2019-03-08 比业电子(北京)有限公司 用于全高式屏蔽门的安全保护装置
CN107301408B (zh) * 2017-07-17 2020-06-23 成都通甲优博科技有限责任公司 人体掩膜提取方法及装置
EP3704558A4 (en) * 2017-11-01 2021-07-07 Nokia Technologies Oy DEEP CONSCIOUS OBJECT COUNTING
JP7253872B2 (ja) * 2017-12-01 2023-04-07 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP7094702B2 (ja) * 2018-01-12 2022-07-04 キヤノン株式会社 画像処理装置及びその方法、プログラム
EP3543189B1 (en) 2018-03-19 2022-07-27 Otis Elevator Company Elevator car operation based on its occupancy
JP7344660B2 (ja) * 2018-03-30 2023-09-14 キヤノン株式会社 視差算出装置、視差算出方法及び視差算出装置の制御プログラム
CN108509914B (zh) * 2018-04-03 2022-03-11 华录智达科技有限公司 基于tof摄像机的公交客流统计分析系统及方法
US11281926B2 (en) * 2018-06-04 2022-03-22 Denso Corporation Feature extraction method and apparatus
US11055539B2 (en) * 2018-09-27 2021-07-06 Ncr Corporation Image processing for distinguishing individuals in groups
CN110956609B (zh) * 2019-10-16 2023-08-04 京东科技信息技术有限公司 一种对象数量确定方法、装置、电子设备以及可读介质
CN115552460A (zh) * 2020-05-22 2022-12-30 富士胶片株式会社 图像数据处理装置及图像数据处理系统

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4391624B2 (ja) * 1999-06-16 2009-12-24 本田技研工業株式会社 物体認識装置
US6873723B1 (en) * 1999-06-30 2005-03-29 Intel Corporation Segmenting three-dimensional video images using stereo
JP2009211311A (ja) * 2008-03-03 2009-09-17 Canon Inc 画像処理装置及び方法
JP5287392B2 (ja) * 2009-03-17 2013-09-11 トヨタ自動車株式会社 物体識別装置
JP5653003B2 (ja) * 2009-04-23 2015-01-14 キヤノン株式会社 オブジェクト識別装置及びオブジェクト識別方法
US8611604B2 (en) * 2009-06-03 2013-12-17 Chubu University Educational Foundation Object detection device
JP2011165170A (ja) * 2010-01-15 2011-08-25 Toyota Central R&D Labs Inc 対象物検出装置及びプログラム
JP5394967B2 (ja) * 2010-03-29 2014-01-22 セコム株式会社 対象物検知装置
JP5870871B2 (ja) * 2012-08-03 2016-03-01 株式会社デンソー 画像処理装置及び、当該画像処理装置を用いた車両制御システム
JP6587435B2 (ja) * 2015-06-29 2019-10-09 キヤノン株式会社 画像処理装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
US20160140399A1 (en) 2016-05-19
JP2016095808A (ja) 2016-05-26

Similar Documents

Publication Publication Date Title
JP6494253B2 (ja) 物体検出装置、物体検出方法、画像認識装置及びコンピュータプログラム
US10872262B2 (en) Information processing apparatus and information processing method for detecting position of object
JP7130368B2 (ja) 情報処理装置および情報処理システム
US10885372B2 (en) Image recognition apparatus, learning apparatus, image recognition method, learning method, and storage medium
US12062251B2 (en) Device and method with image matching
US10417773B2 (en) Method and apparatus for detecting object in moving image and storage medium storing program thereof
JP4241763B2 (ja) 人物認識装置及びその方法
US9092662B2 (en) Pattern recognition method and pattern recognition apparatus
US10506174B2 (en) Information processing apparatus and method for identifying objects and instructing a capturing apparatus, and storage medium for performing the processes
JP6032921B2 (ja) 物体検出装置及びその方法、プログラム
JP5675229B2 (ja) 画像処理装置及び画像処理方法
JP5271227B2 (ja) 群衆監視装置および方法ならびにプログラム
JP2009143722A (ja) 人物追跡装置、人物追跡方法及び人物追跡プログラム
JP6157165B2 (ja) 視線検出装置及び撮像装置
JP6822482B2 (ja) 視線推定装置、視線推定方法及びプログラム記録媒体
JP7354767B2 (ja) 物体追跡装置および物体追跡方法
JP2014093023A (ja) 物体検出装置、物体検出方法及びプログラム
US10496874B2 (en) Facial detection device, facial detection system provided with same, and facial detection method
US20210142064A1 (en) Image processing apparatus, method of processing image, and storage medium
TWI624806B (zh) 物體追蹤裝置及物體追蹤方法
JP6798609B2 (ja) 映像解析装置、映像解析方法およびプログラム
KR20060121503A (ko) 무인 감시 로봇에서 중요 얼굴 추적 장치 및 방법
JP6555940B2 (ja) 被写体追跡装置、撮像装置、及び被写体追跡装置の制御方法
WO2020166129A1 (ja) 状態認識装置
JP5748548B2 (ja) オブジェクト識別装置、オブジェクト識別方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190305

R151 Written notification of patent or utility model registration

Ref document number: 6494253

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D03