JP4578353B2 - 対象物認識装置 - Google Patents

対象物認識装置 Download PDF

Info

Publication number
JP4578353B2
JP4578353B2 JP2005244704A JP2005244704A JP4578353B2 JP 4578353 B2 JP4578353 B2 JP 4578353B2 JP 2005244704 A JP2005244704 A JP 2005244704A JP 2005244704 A JP2005244704 A JP 2005244704A JP 4578353 B2 JP4578353 B2 JP 4578353B2
Authority
JP
Japan
Prior art keywords
unit
region
image
regions
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005244704A
Other languages
English (en)
Other versions
JP2007058674A (ja
Inventor
敬輔 渡邉
達史 大山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2005244704A priority Critical patent/JP4578353B2/ja
Priority to US11/509,061 priority patent/US7809196B2/en
Publication of JP2007058674A publication Critical patent/JP2007058674A/ja
Application granted granted Critical
Publication of JP4578353B2 publication Critical patent/JP4578353B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • G06V10/507Summing image-intensity values; Histogram projection analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、対象物認識技術に関し、特に人や動物などの対象物の位置を認識する対象物認識装置に関する。
対象物の位置を認識する方法として、2枚の画像間において画像データそのものの差分をとり、変化した部分に対象物がいると認識する方法がある(たとえば、下記特許文献1参照)。また、演算量を抑えた画像認識の手法が提案されている(たとえば、下記特許文献2参照)。特許文献2の手法は、注目画素を中心とする極座標系を考え、注目画素近傍を極座標系の区分領域に量子化する。量子化の際、角度方向についてはそのまま等間隔に、径方向については対数尺度で等間隔になるように領域を設定する。これによれば、注目画素から離れた領域においては多くの画素を一塊として扱うので、遠方との関係を考慮する場合でも演算量の増大を抑えうる。
特開平5−145844号公報 特開平9−171553号公報
特許文献1の手法のように、2枚の画像間において画像データそのものの差分をとる場合、画像データそのものを記憶しておく必要があるため、多くのメモリ容量を要する。また、ノイズ除去などの重い処理をする必要があり、演算量が多い。また、特許文献2の手法のように、画像全体から1つの特徴ベクトルを導出すると、対象物の位置を認識できない。
本発明者はこうした状況を認識して本発明をなしたものであり、その目的は、少ない演算量であっても対象物の位置を認識できる対象物認識装置を提供することにある。
上記課題を解決するために、本発明のある態様の対象物認識装置は、対象物が存在しうる場所が撮像された少なくとも2枚の画像を入力する入力部と、入力部において入力した少なくとも2枚の画像のそれぞれを複数の領域に分割する分割部と、分割部において分割した複数の領域のそれぞれについて、領域内の各画素の画素値をもとに当該領域の特徴量を導出する演算部と、演算部において導出した特徴量を、少なくとも2枚の画像間において領域を単位にして比較する比較部と、比較部での領域を単位にした比較の結果をもとに、対象物が位置する領域を認識する認識部と、を含む。
「画像」は、熱画像や距離画像なども包含する。すなわち、対象物が存在しうる場所の情報を示す画像であればよい。「熱画像」とは、各画素値が熱情報を示す画像である。「距離画像」とは、各画素値が距離情報を示す画像である。この態様によると、複数の領域のそれぞれにおける画像情報を、各領域を代表する特徴量として表し、2枚の画像間において特徴量を領域単位で比較するので、画素値そのものを比較する場合より少ない演算量で対象物の位置を認識できる。
本発明の別の態様もまた、対象物認識装置である。この装置は、対象物が存在しうる場所が撮像された少なくとも2枚の画像を入力する入力部と、入力部において入力した少なくとも2枚の画像のそれぞれに対して、第1方向に沿った複数の第1領域への分割を実行する第1分割部と、入力部において入力した少なくとも2枚の画像のそれぞれに対して、第1方向と異なった第2方向に沿った複数の第2領域への分割を実行する第2分割部と、第1分割部において分割した複数の第1領域のそれぞれについて、第1領域内の各画素の画素値をもとに当該領域の第1特徴量を導出する第1演算部と、第2分割部において分割した複数の第2領域のそれぞれについて、第2領域内の各画素の画素値をもとに当該領域の第2特徴量を導出する第2演算部と、第1演算部において導出した第1特徴量を、少なくとも2枚の画像間において領域を単位にして比較する第1比較部と、第2演算部において導出した第2特徴量を、少なくとも2枚の画像間において領域を単位にして比較する第2比較部と、第1比較部および第2比較部での領域を単位にした比較の結果をもとに、対象物が位置する領域を認識する認識部と、を含む。
この態様によると、複数の第1領域のそれぞれにおける画像情報と、複数の第2領域のそれぞれにおける画像情報とを、各領域を代表する特徴量として表し、2枚の画像間において特徴量を領域単位で比較するので、画素値そのものを比較する場合より少ない演算量で対象物の位置を認識できる。また、2枚の画像間において異なった2方向に沿った各領域の特徴量を領域単位で比較するので、高い精度により対象物の位置を認識できる。
認識部は、第1比較部での領域を単位にした比較の結果をもとに、複数の第1領域のうちの対象物が位置すべき第1領域を特定する第1特定部と、第2比較部での領域を単位にした比較の結果をもとに、複数の第2領域のうちの対象物が位置すべき第2領域を特定する第2特定部と、第1特定部において特定した第1領域と、第2特定部において特定した第2領域とが重なった範囲を特定することにより、対象物が位置する領域を認識する第3特定部と、を含んでもよい。この場合、特定した第1領域と第2領域とが重なった範囲を特定するので、対象物が位置する領域を正確に認識できる。
入力部において入力した画像に、第3特定部において認識した領域を重ねて表示する表示部をさらに含んでもよい。この場合、表示部における対象物の視認性が増すので、対象物をモニタしたりする場合に都合がよい。
第1特徴量と第2特徴量とが、異なった種類の特徴量であってもよい。この場合、特徴量の種類に応じた長所・短所を考慮して、各方向に沿った領域の特徴量の種類を適宜選択できるので、より少ない演算量、より高い精度による対象物の位置認識を実現しうる。
認識部において認識した領域をもとに、撮像された画像のうちの注目部分を設定する設定部をさらに含んでもよい。分割部は、設定部において注目部分を設定した後に入力された画像を、設定部において設定した注目部分について狭く分割し、該注目部分以外の部分について広く分割してもよい。この場合、注目領域を狭く分割するので、注目領域内における対象物の位置を精度よく認識できる。また、対象物がほとんど存在しない部分を広くしながら分割するので、演算量を減少できる。
認識部において認識した領域における距離情報を取得する距離情報取得部と、距離情報取得部において取得した距離情報をもとに対象物の距離を特定する距離特定部と、をさらに含んでもよい。入力部において入力した画像は、各画素値が距離情報を示す距離画像であり、認識部において認識した領域における距離情報をもとに、対象物の距離を特定する距離特定部をさらに含んでもよい。この場合、対象物の距離を特定できるので、対象物認識装置としての適用範囲が広がる。
認識部において認識した領域における熱情報を取得する熱情報取得部と、熱情報取得部において取得した熱情報をもとに対象物の温度を特定する温度特定部と、をさらに含んでもよい。入力部において入力した画像は、各画素値が熱情報を示す熱画像であり、認識部において認識した領域における熱情報をもとに、対象物の温度を特定する温度特定部をさらに含んでもよい。この場合、温度は明るさに影響されないので、対象物が存在しうる場所の明るさの違いによる影響を軽減できる。
認識部において認識した領域と、距離特定部において特定した距離と、をもとに、対象物の姿勢を特定する姿勢特定部をさらに含んでもよい。認識部において認識した領域と、温度特定部において特定した温度と、をもとに、対象物の姿勢を特定する姿勢特定部をさらに含んでもよい。この場合、対象物の姿勢を特定できるので、対象物認識装置としての適用範囲が広がる。
本発明のさらに別の態様は、画像処理装置である。この装置は、対象物が存在しうる場所が撮像された画像を順次入力する入力部と、入力部において入力した画像内において対象物が位置する領域を特定する位置特定部と、入力部において入力した画像のデータを符号化する符号化部と、符号化部において符号化した画像のデータと、位置特定部において特定した対象物が位置する領域に関するデータと、が含められたストリームを生成する生成部と、を含む。
この態様によると、生成されたストリームには、画像データと位置データとが含められるので、ストリームを再生する再生装置に対して、画像中の対象物を容易に抽出させることができ、対象物が出現した画像や対象物が移動した軌跡を容易に特定させうる。
位置特定部は、入力部において入力した少なくとも2枚の画像のそれぞれを複数の領域に分割する分割部と、分割部において分割した複数の領域のそれぞれについて、領域内の各画素の画素値をもとに当該領域の特徴量を導出する演算部と、演算部において導出した特徴量を、少なくとも2枚の画像間において領域を単位にして比較する比較部と、比較部での領域を単位にした比較の結果をもとに、対象物が位置する領域を認識する認識部と、を含んでもよい。この場合、少ない演算量により対象物の位置を認識できるので、画像処理を高速化できる。
本発明の別の態様もまた、画像処理装置である。この装置は、対象物が存在しうる場所が撮像された画像を順次入力する入力部と、入力部において入力した画像のそれぞれに対して、第1方向に沿った複数の第1領域への分割を実行する第1分割部と、入力部において入力した画像のそれぞれに対して、第1方向と異なった第2方向に沿った複数の第2領域への分割を実行する第2分割部と、第1分割部において分割した複数の第1領域のそれぞれについて、第1領域内の各画素の画素値をもとに当該領域の第1特徴量を導出する第1演算部と、第2分割部において分割した複数の第2領域のそれぞれについて、第2領域内の各画素の画素値をもとに当該領域の第2特徴量を導出する第2演算部と、第1演算部において導出した第1特徴量を、少なくとも2枚の画像間において領域を単位にして比較する第1比較部と、第2演算部において導出した第2特徴量を、少なくとも2枚の画像間において領域を単位にして比較する第2比較部と、第1比較部および第2比較部での領域を単位にした比較の結果をもとに、対象物が位置する領域を認識する認識部と、入力部において入力した画像のデータを符号化する符号化部と、符号化部において符号化した画像のデータと、認識部において認識した領域に関するデータと、が含められたストリームを生成する生成部と、を含む。
認識部は、第1比較部での領域を単位にした比較の結果をもとに、複数の第1領域のうちの対象物が位置すべき第1領域を特定する第1特定部と、第2比較部での領域を単位にした比較の結果をもとに、複数の第2領域のうちの対象物が位置すべき第2領域を特定する第2特定部と、第1特定部において特定した第1領域と、第2特定部において特定した第2領域とが重なった範囲を特定することにより対象物が位置する領域を認識する第3特定部と、を含んでもよい。また、入力部において入力した画像に、第3特定部において認識した領域と、を重ねて表示する表示部をさらに含んでもよい。また、第1特徴量と第2特徴量とが、異なった種類の特徴量であってもよい。また、認識部において認識した領域をもとに、撮像された画像のうちの注目部分を設定する設定部をさらに含んでもよい。分割部は、設定部において注目部分を設定した後に入力された画像を、設定部において設定した注目部分について狭く分割し、該注目部分以外の部分について広く分割してもよい。また、入力部において入力した画像は、各画素値が距離情報を示す距離画像であり、認識部において認識した領域における距離情報をもとに、対象物の距離を特定する距離特定部をさらに含んでもよい。また、入力部において入力した画像は、各画素値が熱情報を示す熱画像であってもよい。
本発明のさらに別の態様は、対象物認識方法である。この方法は、対象物が存在しうる場所が撮像された第1画像を複数の領域に分割するステップと、分割するステップにおいて分割した複数の領域のそれぞれについて、領域内の各画素の画素値をもとに当該領域の特徴量を導出するステップと、第1画像と時間を隔てて撮像した第2画像であって、かつ、対象物が存在しうる場所を撮像した第2画像を複数の領域に分割するステップと、分割するステップにおいて分割した複数の領域のそれぞれについて、領域内の各画素の画素値をもとに当該領域の特徴量を導出するステップと、第1画像および第2画像における特徴量を領域を単位にして比較するステップと、比較するステップでの領域を単位にした比較の結果をもとに、対象物が位置する領域を認識するステップと、を含む。
この態様によると、複数の領域のそれぞれにおける画像情報を、各領域を代表する特徴量として表し、2枚の画像間において特徴量を領域単位で比較するので、画素値そのものを比較する場合より少ない演算量で対象物の位置を認識できる。
本発明のさらに別の態様もまた、対象物認識方法である。この方法は、対象物が存在しうる場所を撮像した第1画像を第1方向に沿った複数の領域に分割するステップと、分割するステップにおいて分割した第1方向に沿った複数の領域のそれぞれについて、領域内の各画素の画素値をもとに当該領域の特徴量を導出するステップと、第1画像を第1方向と異なった第2方向に沿った複数の領域に分割するステップと、分割するステップにおいて分割した第2方向に沿った複数の領域のそれぞれについて、領域内の各画素の画素値をもとに当該領域の特徴量を導出するステップと、第1画像と時間を隔てて撮像した第2画像であって、かつ、対象物が存在しうる場所を撮像した第2画像を第1方向に沿った複数の領域に分割するステップと、分割するステップにおいて分割した第1方向に沿った複数の領域のそれぞれについて、領域内の各画素の画素値をもとに当該領域の特徴量を導出するステップと、第2画像を第1方向と異なった第2方向に沿った複数の領域に分割するステップと、分割するステップにおいて分割した第2方向に沿った複数の領域のそれぞれについて、領域内の各画素の画素値をもとに当該領域の特徴量を導出するステップと、第1画像および第2画像における第1方向に沿った各領域の特徴量を領域を単位にして比較し、第1画像および第2画像における第2方向に沿った各領域の特徴量を領域を単位にして比較するステップと、比較するステップでの領域を単位にした比較の結果をもとに、対象物が位置する領域を認識するステップと、を含む。
この態様によると、複数の第1領域のそれぞれにおける画像情報と、複数の第2領域のそれぞれにおける画像情報とを、各領域を代表する特徴量として表し、2枚の画像間において特徴量を領域単位で比較するので、画素値そのものを比較する場合より少ない演算量で対象物の位置を認識できる。また、2枚の画像間において異なった2方向に沿った各領域の特徴量を領域単位で比較するので、高い精度により対象物の位置を認識できる。
なお、以上の構成要素の任意の組合せ、本発明の表現を、方法、装置、システム、コンピュータプログラム、記録媒体などの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、少ない演算量であっても対象物の位置を認識できる。
本発明を具体的に説明する前に、概要を述べる。実施の形態は、人などの対象物が出入りする室内の天井からカメラなどの撮像デバイスによって撮像した画像をもとに、対象物の位置などを認識する対象物認識装置に関する。対象物は、たとえば人や動物などの動体である。実施の形態において、撮像デバイスにより連続的に撮像した画像は、異なった2以上の方向に沿った領域に分割される。分割された領域のそれぞれについて、領域内の各画素の画素値をもとにその領域の特徴量が導出される。この導出処理により、分割された領域のそれぞれにおける画像情報は、特徴量として圧縮されるので情報量を減少できる。導出された特徴量は、時間を隔てた2枚の画像間において領域を単位にして比較される。ここで、圧縮した特徴量同士が比較されるので、少ない演算量で比較処理できる。比較の結果をもとに対象物の位置が認識される。少ない演算量で比較処理できるので、位置認識を高速化できる。
図1は、実施の形態にかかる対象物認識装置100の構成を示す。ここに示す各ブロックは、ハードウェア的には、プロセッサ、RAMなどの各種素子や、センサなどの各種デバイスで実現でき、ソフトウェア的にはコンピュータプログラムなどによって実現されるが、ここでは、それらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックはハードウェア、ソフトウェアの組合せによっていろいろな形で実現できることは、当業者には理解されるところである。
対象物認識装置100は、撮像部102と、第1分割部110aと、第2分割部110bと、第1演算部120aと、第2演算部120bと、第1比較部130aと、第2比較部130bと、認識部140と、表示部160と、設定部170と、を含む。撮像部102は、カメラ104と、処理部106と、を含む。認識部140は、第1特定部150aと、第2特定部150bと、第3特定部152と、を含む。
カメラ104は、対象物が存在しうる場所を順次撮像し、撮像した画像を電気信号に変換する。処理部106は、カメラ104において変換した信号を、たとえば2値化や256値化などのデジタル化をする。2値化の場合、たとえば、所定の閾値以内の距離を黒、所定の閾値より遠い距離を白と判定し、黒を0または1、白を1または0と表す。第1分割部110aは、処理部106においてデジタル化した画像に対して、第1方向に沿った複数の第1領域への分割を実行する。第2分割部110bは、処理部106においてデジタル化した画像に対して、第1方向と異なった第2方向に沿った複数の第2領域への分割を実行する。
図2は、図1のカメラ104において撮像した画像と、第1分割部110aにおいて分割した複数の第1領域とを重ねて示す。図3は、図1のカメラ104において撮像した画像と、第2分割部110bにおいて分割した複数の第2領域とを重ねて示す。これらの図において、x軸方向が第1方向に相当し、y軸方向が第2方向に相当する。また、x軸、y軸は直交しており、画像内の任意の画素は、x軸上における位置およびy軸上における位置により特定される。なお、説明の便宜のため、対象物としての人のみを黒とし、他の部分は白としたが、実際には、撮像した場所に応じて様々な画像が得られる。図2において、破線で示された複数の領域は、第1領域である。以下、第1領域の総数をymaxとする。1≦y≦ymax の範囲において、複数の第1領域のそれぞれに対してy座標が1つ対応する。図3において破線で示された複数の領域は、第2領域である。以下、第2領域の総数をxmaxとする。1≦x≦xmax の範囲において、複数の第2領域のそれぞれに対してx座標が1つ対応する。図1にもどる。
第1演算部120aは、後述する演算により、第1分割部110aにおいて分割した複数の第1領域のそれぞれについて、第1領域内の各画素の画素値をもとにその領域の第1特徴量を導出する。第2演算部120bは、後述する演算により、第2分割部110bにおいて分割した複数の第2領域のそれぞれについて、第2領域内の各画素の画素値をもとにその領域の第2特徴量を導出する。以下、第1演算部120aおよび第2演算部120bにおける演算について述べる。
まず、第1演算部120aおよび第2演算部120bは、各画素の勾配を算出する。勾配の算出方法としては、文献「コンピュータ画像処理、田村秀行編著、(株)オーム社、(p182〜191)」に記載された手法を用いることができる。以下、簡単に説明する。デジタル画像を対象に勾配を計算するためには、x方向およびy方向の1次の偏微分を計算する必要がある。
Δxf(i,j)≡{f(i+1,j)−f(i−1,j)}/2 …(式1)
Δyf(i,j)≡{f(i,j+1)−f(i,j−1)}/2 …(式2)
デジタル画像に対する差分オペレータでは、(i,j)の画素における微分値が(i,j)を中心とした3×3の近傍の画素の濃度値、すなわちf(i±1,j±1)の線形結合として定義される。このことは、画像の微分を求める計算は、3×3の加重マトリクスを用いた空間フィルタリングによって実現できることを意味し、種々の差分オペレータは3×3の加重マトリクスによって表現できる。以下では、(i,j)を中心とした3×3近傍を
f(i−1,j−1) f(i,j−1) f(i+1,j−1)
f(i−1,j) f(i,j) f(i+1,j) …(式3)
f(i−1,j+1) f(i,j+1) f(i+1,j+1)
と考え、これに対する加重マトリクスによって差分オペレータを記述することができる。
たとえば、式1、式2で定義されるx、y方向の1次偏微分オペレータは、
0 0 0 0 −1/2 0
−1/2 0 1/2 および 0 0 0 …(式4)
0 0 0 0 1/2 0
と表現される。すなわち、式3と式4の3×3の矩形領域において、対応する位置の画素の値と行列の要素の値の積をそれぞれ求め、それらの和を計算すると、式1、式2の右辺と一致する。
勾配の大きさと方向は、式4の加重マトリクスで空間フィルタリングを行い、式1、式2で定義されるx、y方向の偏微分を計算した後、
|∇f(i,j)|=√{Δxf(i,j)2+Δyf(i,j)2} …(式5)
θ=tan−1{Δyf(i,j)/Δxf(i,j)} …(式6)
と求めることができる。
なお、上記差分オペレータには、ロバーツ・オペレータ、プリューウィット・オペレータ、ソーベル・オペレータなどを用いて、簡易に計算したり、ノイズ対策を施したりすることができる。
次に、第1演算部120aおよび第2演算部120bは、式6で求めた勾配ベクトルの角度を2倍とした場合のx成分およびy成分からなる1組の数値を求める。この処理をする理由は以下の通りである。濃淡レベルの境界線(以下、単に「境界線」という)が同じ方向を向いている点における勾配ベクトルは、境界線前後における濃淡レベルにより180°向きが異なる。したがって、後述する処理において、各ライン状の領域を単位にしてその領域内の各画素の勾配ベクトルをそのまま足し合わせると、境界線が同じ方向を向いている点における勾配ベクトル同士が打ち消しあうことになる。そこで、勾配ベクトルと座標軸のなす角度が2倍になるように勾配ベクトルを回転させて、x成分、y成分からなる1組の数値を求めることにより、境界線が同じ方向を向いている点における勾配ベクトルを、同じ成分をもつ一意の数値の組で表現できる。たとえば、45°、225°は、ちょうど反対方向であるが、2倍にすると、90°、450°となり、一意の方向を示すようになる。ここで、x成分、y成分からなる1組の数値は、ある座標系で、勾配ベクトルを一定の規則で回転させたものである。以下、本明細書中では、この1組の数値を「変換値」と表記する。変換値を求めておけば、後述する処理において、各ライン状の領域を単位にしてその領域内の各画素の勾配ベクトルをそのまま足し合わせたりすることができる。
第1演算部120aは、各第1領域のそれぞれについて、各画素ごとに求めた変換値を足し合わせた値(以下、「第1特徴値」という)を求める。以下、任意の第1特徴値をV1(y)と表記する。たとえば、V1(1)は、図2のy=1における第1特徴値を意味する。第1特徴値V1(y)は、たとえば以下の式より求められる。
V1x(y)=Ax(0,y)+Ax(1,y)+Ax(2,y)+・・
・・+Ax(xmax,y) …(式7)
V1y(y)=Ay(0,y)+Ay(1,y)+Ay(2,y)+・・
・・+Ay(xmax,y) …(式8)
ここで、V1x(y)およびV1y(y)は、第1特徴値V1(y)のx成分およびy成分を表す。Ax(x,y)およびAy(x,y)は、座標(x,y)における変換値のx成分およびy成分を表す。なお、第1特徴値V1(y)の導出は、上記で示される加算に限らず、乗算、平均などの演算によってもよい。
導出した第1特徴値V1(y)は、各第1領域における第1特徴量に相当する。この第1特徴量は、第1領域における境界線の方向の累積を示すような値であり、各領域について1つ定められる。したがって、任意のy座標について、そのy座標に対応する第1領域の第1特徴量、すなわち、第1特徴値V1(y)と、第1特徴値V1(y)のx成分およびy成分とが定まる。つまり、第1特徴値V1(y)と、第1特徴値V1(y)のx成分およびy成分と、はそれぞれyの関数として与えられる。このように、各第1領域の画像情報は、y軸に関する情報として与えられる第1特徴値V1(y)、またはそのx成分およびy成分として圧縮される。
また、第1演算部120aは、yの関数として与えられる第1特徴値V1(y)のx成分およびy成分の分布を導出する。
同様に、第2演算部120bは、各第2領域のそれぞれについて、各画素ごとに求めた変換値を足し合わせた値(以下、「第2特徴値」という)を求める。以下、任意の第2特徴値をV2(x)と表記する。第2特徴値V2(x)は、たとえば以下の式より求められる。
V2x(x)=Ax(x,0)+Ax(x,1)+Ax(x,2)+・・
・・+Ax(x,ymax) …(式9)
V2y(x)=Ay(x,0)+Ay(x,1)+Ay(x,2)+・・
・・+Ay(x,ymax) …(式10)
ここで、V2x(x)およびV2y(x)は、第2特徴値V2(x)のx成分およびy成分を表す。なお、第2特徴値V2(x)の導出は、上記で示される加算に限らず、乗算、平均などの演算によってもよい。導出した第2特徴値V2(x)も、上述の第1特徴値と同様の性質をもつ。第2演算部120bは、xの関数として与えられる第2特徴値V2(x)のx成分およびy成分の分布を導出する。
図4は、図2で示される画像について導出した第1特徴値V1(y)の例を示す。V1x(y)およびV1y(y)は、上述のように、第1特徴値V1(y)のx成分およびy成分を表す。図2の、1≦y≦ymax の各y座標に対応する第1領域のそれぞれについて、図4に示されるような第1特徴値V1(y)が導出される。図5は、図3に示される画像について導出した第2特徴値V2(x)の例を示す。V2x(x)およびV2y(x)は、上述のように、第2特徴値V2(x)のx成分およびy成分を表す。図3の、1≦x≦xmax の各x座標に対応する第2領域のそれぞれについて、図5に示されるような第2特徴値V2(x)が導出される。
図6は、図2で示される画像について導出した第1特徴値V1(y)のx成分およびy成分の分布を示す。図7は、図3に示される画像について導出した第2特徴値V2(x)のx成分およびy成分の分布を示す。以下、これらの分布を必要に応じて「特徴量分布」と表記する。図6で、y>15 おいて第1特徴値のx成分およびy成分は、値を持たない。これは、図2に示されるように、y>15 における第1領域は、白一色で画素値に変化がないためである。図7で、x>6 においては第2特徴値のx成分およびy成分が値を持たないのも、同様の理由による。図1にもどる。
第1比較部130aは、第1演算部120aにおいて導出した第1特徴値V1(y)のx成分V1x(y)およびy成分V1y(y)の分布を、時間を隔てた2枚の画像間において領域を単位にして比較する。具体的には、たとえば差分を導出する。この差分を、以下、「第1差分」と表記する。第2比較部130bは、第2演算部120bにおいて導出した第2特徴値V2(x)のx成分V2x(x)およびy成分V2y(x)の分布を、時間を隔てた2枚の画像間において領域を単位にして比較する。具体的には、たとえば差分を導出する。この差分を、以下、「第2差分」と表記する。
図8は、図1のカメラ104において、時間Δtを隔てて撮像した2枚の画像を重ねて示す。人18aおよび人18bは、同一の対象物であるが、撮像された時刻が異なる。すなわち、人18bの位置は、人18aの時間Δt後の位置である。このように対象物が移動した場合、第1差分は、c≦y≦d の範囲でゼロ以外の値を持つ。第2差分は、a≦x≦b の範囲でゼロ以外の値を持つ。図1にもどる。
第1特定部150aは、第1比較部130aにおける比較により導出された第1差分の分布をもとに、複数の第1領域のうちの対象物が位置すべき第1領域を特定する。具体的には、図8において第1差分がゼロ以外の値を持つ、c≦y≦d の範囲における第1領域を、対象物が位置する第1領域として特定する。第2特定部150bは、第2比較部130bにおける比較により導出された第2差分の分布をもとに、複数の第2領域のうちの対象物が位置すべき第2領域を特定する。具体的には、図8において第2差分がゼロ以外の値を持つ、a≦x≦b の範囲における第2領域を、対象物が位置する第2領域として特定する。第3特定部152は、第1特定部150aにおいて特定した第1領域と、第2特定部150bにおいて特定した第2領域とが重なった領域(以下「重複領域」という)を特定することにより対象物が位置する領域を認識する。具体的には、図8の、a≦x≦b、c≦y≦d で示される重複領域を特定し、その領域を対象物が位置する領域であると認識する。
設定部170は、第3特定部152において特定した重複領域の情報を一定量蓄積し、蓄積した情報をもとに撮像した画像における注目部分を設定する。たとえば、x軸方向とy軸方向のそれぞれについて、対象物が頻繁に位置する領域を特定し、特定した領域を注目部分に設定する。設定した注目部分の情報は第1分割部110aおよび第2分割部110bに入力される。すなわち、y軸方向について対象物が頻繁に位置する領域をy軸方向についての注目部分として第1分割部110aに入力し、x軸方向について対象物が頻繁に位置する領域をx軸方向についての注目部分として第2分割部110bに入力する。また、あらかじめ注目すべき部分が分かっているなどの場合は、図示しない入力部から設定部170、または第1分割部110aおよび第2分割部110bに注目部分の情報を入力してもよい。図9(a)−(b)は、図1の設定部170において設定した注目部分12とそれ以外の部分における画像の分割幅を示す。第1分割部110aおよび第2分割部110bは、設定部170より注目部分12の情報が入力された後は、撮像した画像における注目部分12については分割幅を狭くし、注目部分12以外の部分については分割幅を広くする。また、注目部分12からそれ以外の部分にかけて、分割幅を段階的に広くしてもよい。図1にもどる。
表示部160は、処理部106においてデジタル化した画像と、第3特定部152において認識した重複領域とを重ねて表示する。具体的には、撮像した画像を、対象物が位置する領域を線で囲むなどして明示し、表示する。
以上の構成による対象物認識装置100の動作を述べる。図10は、図1の対象物認識装置100の動作を示すフローチャートである。カメラ104は、対象物が存在しうる場所を順次撮像し、撮像した画像を電気信号に変換する(S10)。処理部106は、その信号をデジタル化する(S12)。第1分割部110aおよび第2分割部110bは、設定部170から注目部分の情報の入力があるか否かを判断する(S14)。注目部分の情報の入力がない場合、第1分割部110aは、デジタル化した画像を第1方向に沿った複数の第1領域に分割し、第2分割部110bは、デジタル化した画像を第2方向に沿った複数の第2領域に分割する(S16)。注目部分の情報の入力がある場合、第1分割部110aおよび第2分割部110bは、画像を複数の第1領域および第2領域に分割するが、注目部分について狭く分割し、注目部分以外の部分について広く分割する(S18)。
第1演算部120aおよび第2演算部120bは、各画素の勾配を算出する(S20)。次に、算出した勾配の角度を2倍にして得られる1組の数値である変換値を求める(S22)。第1演算部120aおよび第2演算部120bは、分割した各第1領域および各第2領域のそれぞれについて、各画素値における変換値を加算し、第1特徴値V1(y)および第2特徴値V2(x)を導出する(S24)。次に、第1演算部120aおよび第2演算部120bは、第1特徴値V1(y)のx成分V1x(y)とy成分V1y(y)の分布、および、xの関数として与えられる第2特徴値V2(x)のx成分V2x(x)とy成分V2y(x)の分布を導出する(S26)。
第1比較部130aおよび第2比較部130bは、導出した特徴量分布を、時間を隔てて撮像した画像間において比較し、第1差分および第2差分を導出する(S28)。第1特定部150aおよび第2特定部150bは、導出した第1差分および第2差分がゼロ以外の値を持つ範囲における第1領域および第2領域を、対象物が位置する第1領域および第2領域として特定する(S30)。第3特定部152は、第1特定部150aにおいて特定した第1領域と、第2特定部150bにおいて特定した第2領域とが重なった領域を特定することにより対象物が位置する領域を認識する(S32)。設定部170は、第3特定部152において特定した重複領域の情報を一定量蓄積し、蓄積した情報をもとに撮像した画像における注目部分を設定し、設定した注目部分の情報を第1分割部110aおよび第2分割部110bに入力する(S34)。表示部160は、撮像部102において撮像した画像と、第3特定部152において認識した重複領域とを重ねて表示する(S40)。
以上の説明した対象物認識装置100よれば、第1演算部120aにおける演算処理により、各第1領域の画像情報は、y軸に関する特徴量分布として圧縮されるので情報量を減少できる。同様に、第2演算部120bにおける演算処理により、各第2領域の画像情報は、x軸に関する特徴量分布として圧縮されるので、情報量を減少できる。また、第1演算部120aおよび第2演算部120bにおいて、特徴量は、各画素ごとに求めた変換値を足し合わせたり平均をとることにより導出されるので、ノイズ除去が可能となる。
また、第1比較部130aおよび第2比較部130bにおいては、時間を隔てて撮像した画像における各特徴量分布同士の差分を導出するので、少ない演算量で比較処理できる。すなわち、位置認識の高速化を図りうる。また、第1比較部130aおよび第2比較部130bにおいて、異なった2方向についてそれぞれ特徴量分布を比較するので、位置認識の精度が高い。また、認識した位置における特徴量を対象物の特徴量として扱うことも可能となる。また、第1分割部110aおよび第2分割部110bは、設定部170から取得した注目部分の情報をもとに、撮像した画像における注目部分を狭く分割するので、注目部分における対象物の位置認識の精度を向上しうる。また、注目部分以外の部分を広く分割するので、情報量を減少できる。表示部160は、撮像した画像と、対象物が位置する領域とを重ねて表示するので、対象物の視認性がよい。
さらに、対象物認識装置100を画像処理装置に応用してもよい。以下、その応用例について述べる。図11は、実施の形態の応用例にかかる画像処理装置500の構成を示す。画像処理装置500は、対象物認識装置100と、符号化部200と、生成部300と、記憶部320と、を含む。対象物認識装置100の構成、動作は上述の通りである。符号化部200は、処理部106においてデジタル化した画像のデータを、たとえばMPEG(Moving Picture Expert Group)規格に準拠した符号化方法により符号化する。生成部300は、符号化部200において符号化した画像データと、第3特定部152において特定した重複領域についての位置データとが含められたストリームを生成する。生成部300は、第1演算部120aおよび第2演算部120bにおいて導出した特徴量分布のデータがさらに含められたストリームを生成してもよい。あるいは、位置データに代えて前述の特徴量分布のデータを含めてもよい。記憶部320は、生成部300において生成したストリームを記憶する。
図12は、図11の生成部300において生成したストリームの配列を示す。図12において、Aは符合化された画像データを示す。ひとかたまりの画像データAは、時間を隔てて撮像した複数枚の画像のデータを含む。Bは、複数枚の画像のデータについて第3特定部152において特定した重複領域についての位置データを示す。たとえば、ひとかたまりの画像データAが、図8において重ねて示した2枚の画像のデータである場合、重複領域は、a≦x≦b、c≦y≦d で示されるので、位置データBは、座標(a,c)と座標(b,d)、あるいは、座標(a,d)と座標(b,c)を含めばよい。Cは、第1演算部120aおよび第2演算部120bにおいて導出した特徴量分布のデータを示す。生成部300は、画像データと、位置データと、特徴量分布のデータとの間にそれぞれ既知信号を挿入するなどして、各データの境界を示してもよい。
図13は、図12に示されるストリームを再生し表示する再生装置550の構造を示す。再生装置550は、分離部420と、復号部430と、モニタ440と、を含む。図12に示されるストリームは、分離部420に入力される。分離部420は、入力されたストリームから画像データと、位置データと、特徴量分布に関するデータとを分離する。上述のように、画像データと、位置データと、特徴量分布のデータとの間にそれぞれ既知信号が挿入されていれば、その既知信号をもとに分離することができる。復号部430は、分離された画像データを、符号化方法に対応した復号方法により復号する。モニタ440は、復号した画像データから得られる画像と、位置データから特定される領域とを、それぞれの座標を対応づけながら重ねて表示する。
上記の応用例によれば、生成部300は、符号化した画像データと、対象物が位置する領域についての位置データと、が含められたストリームを生成するので、再生装置550においては、生成したストリームから容易に画像内の対象物を抽出できる。また、対象物の出現シーンや対象物の移動の軌跡を高速にサーチできるので、画像処理装置500を、たとえば監視カメラなどに適用した場合、膨大な監視映像の中から不審者を容易にサーチできる。
さらに、カメラ104は、画像として通常の画像に代えて、またはこれに加えて、各画素値がカメラ104との距離情報を示す距離画像を撮像することもできる。距離画像を撮像した場合、対象物認識装置100は、姿勢特定部をさらに含めることで、対象物の位置のみならず姿勢も認識しうる。以下、姿勢特定部の動作について述べる。図示しない姿勢特定部は、図1において処理部106と、第3特定部152とに接続される。姿勢特定部は、まず、第3特定部152において特定した重複領域における画素値を処理部106より取得し、カメラ104と対象物との距離を特定する。次に、後述するように、特定した距離をもとに対象物の姿勢を特定する。図14は、実施の形態の応用例として、部屋2において対象物の姿勢を特定する方法を示す。カメラ104は、部屋2の天井に設置されている。L1は、カメラ104と対象物14との距離を示す。L2は、カメラ104と対象物16との距離を示す。なお、図14において、対象物認識装置100のうち、カメラ104のみを図示し、他の部分は省略した。姿勢特定部は、たとえば、対象物が位置する領域における画素値より特定した距離が閾値Lzと比較して遠ければ寝た姿勢であると特定し、近ければ起立した姿勢であると特定する。閾値Lzは、カメラ104が設置される高さなどにより適宜決められる。具体的には、L1<Lz<L2である場合、図14において、対象物14についてはカメラ104からの距離L1が閾値Lzと比較して近いので立っていると判断する。対象物16についてはカメラ104からの距離L2が閾値Lzと比較して遠いので寝ていると判断する。この場合、画像として距離画像を用いたので、姿勢特定部において、距離情報と対象物の位置情報をもとに対象物の姿勢を特定できる。このため、対象物認識装置100の適用範囲が広がる。また、対象物認識装置100を天井に設置して、カメラ104で撮像した画像から対象物の姿勢を特定してもよい。また、カメラ104とは別に図示しない距離センサを設け、姿勢特定部は、距離センサにおいて取得した距離情報をもとに、カメラ104と対象物との距離を特定してもよい。
上述のように姿勢特定部を含む場合、対象物認識装置100を環境制御装置に応用してもよい。以下、その応用例について述べる。図15は、実施の形態の応用例にかかる環境制御装置900の構成を示す。環境制御装置900は、第1対象物認識装置600aと、第2対象物認識装置600bと、第1カメラ602aと、第2カメラ602bと、第1取得部620aと、第2取得部620bと、第1調節部630aと、 第2調節部630bと、情報モニタ650と、制御部700と、を含む。第1対象物認識装置600aおよび第2対象物認識装置600bは、上述した対象物認識装置100と同様の構成なので、ここでは詳細な説明を省略する。なお、説明を明確にするため、第1カメラ602aおよび第2カメラ602bについては、第1対象物認識装置600aおよび第2対象物認識装置600bとは別に表示した。
第1対象物認識装置600aは、第1の部屋4における対象物の位置、姿勢を認識する。第2対象物認識装置600bは、第2の部屋6における人の位置、姿勢を認識する。第1取得部620aは、第1の部屋4の環境情報を取得する。第2取得部620bは、第2の部屋6の環境情報を取得する。第1取得部620aおよび第2取得部620bは、たとえば温度センサや湿度センサなどで構成できる。環境情報とは、温度、湿度、照明強度、家電の稼働状況その他の情報であってもよい。第1調節部630aは、第1の部屋4の環境を調節する。第2調節部630bは、第2の部屋6の環境を調節する。情報モニタ650は、第1対象物認識装置600aと、第1取得部620aと、第2対象物認識装置600bと、第2取得部620bとにおいて得られた第1の部屋4および第2の部屋6のそれぞれにおける対象物の位置、姿勢、環境情報を併せて表示する。図16は、図15の情報モニタ650における表示の例を示す。情報モニタ650は、第1の部屋4および第2の部屋6のそれぞれの画像、対象物の位置、気温、湿度、冷房強度、照明強度を表示する。図15にもどる。
制御部700は、第1対象物認識装置600aおよび第2対象物認識装置600bにおいて認識した対象物の位置と姿勢、第1取得部620aおよび第2取得部620bにおいて取得した環境情報をもとに、第1調節部630aおよび第2調節部630bの動作を制御する。たとえば、第2の部屋6において対象物が寝ていて、第2の部屋6の照明がonである場合、制御部700は照明をoffにするよう第2調節部630bを制御してもよい。また、図15に示されるように、第1の部屋4には多くの対象物が存在し、第2の部屋6には単一の対象物しかいない場合、制御部700は、たとえば、第1の部屋4の冷房の強度を第2の部屋6の冷房の強度より大きくするなどのように第1調節部630aおよび第2調節部630bを制御してもよい。なお、対象物の数は、認識した位置の数より容易に分かる。この応用例によれば、異なった2つの場所の相対的な情報も利用してそれぞれの場所の環境を制御できるので、1つの場所を単独で制御するより高精度に環境を制御できる。
上記実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
実施の形態において、対象物認識装置100は、撮像部102を含んだが、これには限定されない。画像は別のところから取得してもよい。要は画像が入力されればよい。また、カメラ104は、画像として、濃淡、輝度、色情報などの可視情報を示す通常の画像や各画素値が距離情報を示す距離画像を撮像したが、これには限定されない。カメラ104は、各画素値が熱情報を示す熱画像を撮像してもよい。またこれらの画像を2つ以上撮像してもよい。要するに、カメラ104は、各画素値が、濃淡、輝度、色情報、距離情報、熱情報その他の局所的な画像情報を有する画像を撮像すればよい。熱画像を用いた場合、撮像する場所の明るさによる影響を軽減できる。さらに、複数種の画像を撮像した場合、第1分割部110aに入力する画像の種類と第2分割部110bに入力する画像の種類とを異にしてもよい。これによれば、第1演算部120aより導出される特徴量と、第2演算部120bより導出される特徴量とは異なった種類となるので、それぞれの画像の長所・短所を考慮して、より高い精度の位置認識が可能となる。なお、熱画像は、たとえば、赤外線サーモグラフィ装置を用いて撮像できる。また、カメラ104とは別に赤外線センサなどの温度センサを設けてもよい。姿勢特定部は、温度センサにおいて取得した熱情報をもとに対象物の温度を特定してもよい。認識部140において認識した領域と、温度特定部において特定した温度をもとに、対象物の姿勢を特定してもよい。
また、実施の形態においては、異なった2方向として互いに垂直なx軸方向、y軸方向を選んだが、これには限定されない。異なった2方向の例としては、垂直方向、水平方向、斜め45°方向、斜め135°方向の中から選択した組合せ、径方向、角度方向の組合せなどが一般的である。しかし、これらに限られず、第1分割部110aおよび第2分割部110bにおいては、画像を任意の異なった2方向に沿った領域に分割できる。画像を径方向および角度方向にそれぞれ等間隔に分割した場合、中心部分は、中心から離れた部分より狭く分割されるので、対象物が頻繁に移動する領域を中心部分にすることで高精度の位置認識が可能となる。さらに、分割する方向は異なった2方向にも限られない。1方向でもよいし、3方向以上でもよい。分割する方向の数を増やせば位置認識の精度を向上できるが、演算量は増える。分割する方向の数を減らせば演算量を少なくできるが位置認識の精度は落ちる。分割する方向の数は、目的・用途などに応じて適宜選択すればよい。さらに、方向に沿った領域に分割することにも限定されない。要するに、画像を複数の領域に分割すれのであれば、分割した領域の形状は限定されない。分割する領域の形状も、目的・用途などに応じて適宜選択すればよい。図17(a)−(e)は、変形例にかかる画像の分割例を示す。図17(a)は、径方向に画像を分割した例を示す。図17(b)は、角度方向に画像を分割した例を示す。図17(c)は、曲線状に画像を分割した例を示す。図17(d)は、円状に画像を分割した例を示す。図17(e)は、画像を曲線状の領域と直線上の領域とに分割した例を示す。
また、第1分割部110aは、図2に示されるように、同じ形状の複数の第1領域に分割したが、複数の第1領域は同じ形状である必要はない。図3における複数の第2領域についても同様である。
また、実施の形態においては、各画素における勾配ベクトルをもとに領域ごとの特徴量を導出したが、これには限定されない。第1演算部120aおよび第2演算部120bは、各画素値そのものを加算、乗算または平均するなどして領域ごとの特徴量を導出してもよい。この場合、演算量を少なくできる。また、第1演算部120aにおいては各画素における勾配ベクトルをもとに領域ごとの特徴量を導出し、第2演算部120bにおいては各画素値をもとに領域ごとの特徴量を導出してもよい。また、その逆であってもよい。第1演算部120aおよび第2演算部120bがそれぞれどのように特徴量を導出するかは、目的・用途などに応じて適宜決めればよい。
また、実施の形態においては、時間を隔てて撮像した対象物が含まれた画像を比較したが、これには限定されない。第1比較部130aおよび第2比較部130bは、時間を隔てて撮像した、対象物が含まれない画像と対象物が含まれた画像とを比較してもよい。この場合も対象物の位置を認識できる。
実施の形態にかかる対象物認識装置の構成を示す図である。 図1のカメラにおいて撮像した画像と、第1分割部において分割した複数の第1領域とを重ねて示す図である。 図1のカメラにおいて撮像した画像と、第2分割部において分割した複数の第2領域とを重ねて示す図である。 図2で示される画像について導出した第1特徴値V1(y)の例を示す図である。 図3に示される画像について導出した第2特徴値V2(x)の例を示す図である。 図2で示される画像について導出した第1特徴値V1(y)のx成分およびy成分の分布を示す図である。 図3に示される画像について導出した第2特徴値V2(x)のx成分およびy成分の分布を示す図である。 図1のカメラにおいて、時間Δtを隔てて撮像した枚の画像を重ねて示す図である。 図9(a)−(b)は、図1の設定部において設定した注目部分とそれ以外の部分における画像の分割幅を示す図である。 図1の対象物認識装置の動作を示すフローチャートである。 実施の形態の応用例にかかる画像処理装置の構成を示す図である。 図11の生成部において生成したストリームの配列を示す図である。 図12に示されるストリームを再生し表示する再生装置の構造を示す図である。 実施の形態の応用例として、部屋において対象物の姿勢を特定する方法を示す図である。 実施の形態の応用例にかかる環境制御装置の構成を示す図である。 図15の情報モニタにおける表示の例を示す図である。 図17(a)−(e)は、変形例にかかる画像の分割例を示す図である。
符号の説明
100 対象物認識装置、 102 撮像部、 104 カメラ、 106 処理部、 110a 第1分割部、 110b 第2分割部、 120a 第1演算部、 120b 第2演算部、 130a 第1比較部、 130b 第2比較部、 140 認識部、 150a 第1特定部、 150b 第2特定部、 152 第3特定部、 160 表示部、 170 設定部、 200 符号化部、 300 生成部、 320 記憶部、 420 分離部、 430 復号部、 440 モニタ、 500 画像処理装置、 550 再生装置、 600a 第1対象物認識装置、 600b 第2対象物認識装置、 602a 第1カメラ、 602b 第2カメラ、 620a 第1取得部、 620b 第2取得部、 630a 第1調節部、 630b 第2調節部、 650 情報モニタ、 700 制御部、 900 環境制御装置。

Claims (4)

  1. 対象物が存在しうる場所を時間を隔てて撮像した少なくとも2枚の画像を入力する入力部と、
    前記入力部において入力した少なくとも2枚の画像のそれぞれに対して、第1方向に沿った複数の第1領域への分割を実行する第1分割部と、
    前記入力部において入力した少なくとも2枚の画像のそれぞれに対して、第1方向と異なった第2方向に沿った複数の第2領域への分割を実行する第2分割部と、
    前記第1分割部において分割した複数の第1領域のそれぞれについて、第1領域内の各画素の画素値をもとに当該領域の第1特徴量を導出する第1演算部と、
    前記第2分割部において分割した複数の第2領域のそれぞれについて、第2領域内の各画素の画素値をもとに当該領域の第2特徴量を導出する第2演算部と、
    前記第1演算部において導出した第1特徴量を、前記少なくとも2枚の画像間において領域を単位にして比較する第1比較部と、
    前記第2演算部において導出した第2特徴量を、前記少なくとも2枚の画像間において領域を単位にして比較する第2比較部と、
    前記第1比較部および第2比較部での領域を単位にした比較の結果をもとに、前記少なくとも2つの画像において前記対象物が位置する領域を認識する認識部と、を含み、
    前記認識部は、
    前記第1比較部での領域を単位にした比較の結果をもとに、前記少なくとも2つの画像において前記複数の第1領域のうちの前記対象物が位置すべき第1領域を特定する第1特定部と、
    前記第2比較部での領域を単位にした比較の結果をもとに、前記少なくとも2つの画像において前記複数の第2領域のうちの前記対象物が位置すべき第2領域を特定する第2特定部と、
    前記第1特定部において特定した第1領域と、前記第2特定部において特定した第2領域とが重なった重複領域を特定することにより、前記少なくとも2つの画像において前記対象物が位置する領域を認識する第3特定部と、を含む対象物認識装置であって、
    前記第3特定部において特定した重複領域の情報を一定量蓄積し、蓄積した情報をもとに、第1方向に沿った複数の第1領域のうち、他と比べて対象物が頻繁に位置する領域を特定して第1注目部分に設定し、且つ、第2方向に沿った複数の第2領域のうち、他と比べて対象物が頻繁に位置する領域を特定して第2注目部分に設定する設定部をさらに含み、
    前記第1分割部は、前記設定部が第1注目部分を設定した後に入力された画像を、第1注目部分について狭く分割し、第1注目部分以外の部分について広く分割し、
    前記第2分割部は、前記設定部が第2注目部分を設定した後に入力された画像を、第2注目部分について狭く分割し、第2注目部分以外の部分について広く分割すること
    を特徴とする対象物認識装置。
  2. 前記入力部において入力した画像に、前記第3特定部において認識した領域を重ねて表示する表示部をさらに含むことを特徴とする請求項1に記載の対象物認識装置。
  3. 前記認識部において認識した領域における距離情報を取得する距離情報取得部と、
    前記距離情報取得部において取得した距離情報をもとに前記対象物の距離を特定する距離特定部と、
    をさらに含むことを特徴とする請求項1または2に記載の対象物認識装置。
  4. 前記入力部において入力した画像は、各画素値が距離情報を示す距離画像であり、
    前記認識部において認識した領域における距離情報をもとに、前記対象物の距離を特定する距離特定部をさらに含むことを特徴とする請求項1からのいずれかに記載の対象物認識装置。
JP2005244704A 2005-08-25 2005-08-25 対象物認識装置 Expired - Fee Related JP4578353B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005244704A JP4578353B2 (ja) 2005-08-25 2005-08-25 対象物認識装置
US11/509,061 US7809196B2 (en) 2005-08-25 2006-08-24 Object recognition apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005244704A JP4578353B2 (ja) 2005-08-25 2005-08-25 対象物認識装置

Publications (2)

Publication Number Publication Date
JP2007058674A JP2007058674A (ja) 2007-03-08
JP4578353B2 true JP4578353B2 (ja) 2010-11-10

Family

ID=37804172

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005244704A Expired - Fee Related JP4578353B2 (ja) 2005-08-25 2005-08-25 対象物認識装置

Country Status (2)

Country Link
US (1) US7809196B2 (ja)
JP (1) JP4578353B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100074551A1 (en) * 2008-09-22 2010-03-25 Microsoft Corporation Learning-based partial differential equations for computer vision
JP5523122B2 (ja) * 2009-03-16 2014-06-18 キヤノン株式会社 画像管理装置、方法及びプログラム
JP2011033497A (ja) * 2009-08-03 2011-02-17 Honda Motor Co Ltd 環境認識システム、環境認識方法およびロボット
JP2011172205A (ja) * 2010-01-20 2011-09-01 Canon Inc 映像情報処理装置および方法
KR101709282B1 (ko) * 2011-11-15 2017-02-24 삼성전자주식회사 이미지 센서, 이의 동작 방법, 및 이를 포함하는 장치들
US10269062B2 (en) * 2014-05-08 2019-04-23 Xero Limited Systems and methods of mobile banking reconciliation
WO2016197079A1 (en) * 2015-06-05 2016-12-08 Schlumberger Technology Corporation Wellsite equipment health monitoring
CN107944462A (zh) * 2016-10-12 2018-04-20 东莞丹蒂诗智能家居科技有限公司 基于智能感应的睡姿识别方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001043374A (ja) * 1999-07-29 2001-02-16 Yis Corporation Co Ltd 作動許否判定装置
JP2001052171A (ja) * 1999-08-06 2001-02-23 Nissan Motor Co Ltd 周囲環境認識装置
JP2002112080A (ja) * 2000-09-27 2002-04-12 Victor Co Of Japan Ltd 差分検出カメラ
JP2002109513A (ja) * 2000-09-28 2002-04-12 Toyota Motor Corp 塗装欠陥検出装置およびマスク画像作成方法
JP2002191045A (ja) * 2001-10-15 2002-07-05 Toshiba Corp 異常状態検出方法および異常状態検出装置
JP2004258927A (ja) * 2003-02-25 2004-09-16 Matsushita Electric Works Ltd 人検出方法及び人検出装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2889410B2 (ja) 1991-11-22 1999-05-10 シャープ株式会社 画像認識装置
US5844603A (en) * 1994-09-21 1998-12-01 Kabushiki Kaisha Toshiba Image data processing apparatus having functions of dividing the image data, and method of processing image data
JPH09171553A (ja) 1995-12-20 1997-06-30 Hitachi Ltd 画像認識方法
JP3279479B2 (ja) * 1996-05-31 2002-04-30 株式会社日立国際電気 映像監視方法及び装置
JP3349381B2 (ja) * 1997-01-21 2002-11-25 三菱重工業株式会社 車両進入検知装置
JP2000003445A (ja) * 1998-06-15 2000-01-07 Toshiba Corp 情報抽出方法および情報抽出装置および記録媒体
US6788809B1 (en) * 2000-06-30 2004-09-07 Intel Corporation System and method for gesture recognition in three dimensions using stereo imaging and color vision
WO2004029659A2 (en) * 2002-06-14 2004-04-08 Honda Giken Kogyo Kabushiki Kaisha Pedestrian detection and tracking with night vision

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001043374A (ja) * 1999-07-29 2001-02-16 Yis Corporation Co Ltd 作動許否判定装置
JP2001052171A (ja) * 1999-08-06 2001-02-23 Nissan Motor Co Ltd 周囲環境認識装置
JP2002112080A (ja) * 2000-09-27 2002-04-12 Victor Co Of Japan Ltd 差分検出カメラ
JP2002109513A (ja) * 2000-09-28 2002-04-12 Toyota Motor Corp 塗装欠陥検出装置およびマスク画像作成方法
JP2002191045A (ja) * 2001-10-15 2002-07-05 Toshiba Corp 異常状態検出方法および異常状態検出装置
JP2004258927A (ja) * 2003-02-25 2004-09-16 Matsushita Electric Works Ltd 人検出方法及び人検出装置

Also Published As

Publication number Publication date
US20070047839A1 (en) 2007-03-01
US7809196B2 (en) 2010-10-05
JP2007058674A (ja) 2007-03-08

Similar Documents

Publication Publication Date Title
JP4578353B2 (ja) 対象物認識装置
US20210064873A1 (en) Image capturing apparatus, monitoring system, image processing apparatus, image capturing method, and non-transitory computer readable recording medium
US10339386B2 (en) Unusual event detection in wide-angle video (based on moving object trajectories)
CN105611230B (zh) 图像处理装置及图像处理方法
JP6184271B2 (ja) 撮像管理装置、撮像管理システムの制御方法およびプログラム
JP6546828B2 (ja) ビデオ処理で使用する少なくとも一つのパラメータの修正
KR100879623B1 (ko) Ptz 카메라를 이용한 자동화된 광역 감시 시스템 및 그방법
JP5701005B2 (ja) 物体検知装置、物体検知方法、監視カメラシステム、およびプログラム
CN110008795B (zh) 图像目标追踪方法及其系统与计算机可读取记录介质
US20040141633A1 (en) Intruding object detection device using background difference method
KR20110023472A (ko) 좌표맵을 이용한 팬틸트줌 카메라 기반의 객체 추적 장치 및 방법
EP3454254B1 (en) Image processing apparatus, image providing apparatus, control methods thereof, and program
WO2011102872A1 (en) Data mining method and system for estimating relative 3d velocity and acceleration projection functions based on 2d motions
JP4764172B2 (ja) 画像処理による移動体候補の検出方法及び移動体候補から移動体を検出する移動体検出方法、移動体検出装置及び移動体検出プログラム
Kim et al. Content-preserving video stitching method for multi-camera systems
JPWO2019069469A1 (ja) 物体検知装置、物体検知方法、及びプログラム
JP5693147B2 (ja) 撮影妨害検知方法、妨害検知装置及び監視カメラシステム
JP6336935B2 (ja) 移動物体追跡装置
JP4751871B2 (ja) 撮像対象検出装置および方法
JP6939065B2 (ja) 画像認識用コンピュータプログラム、画像認識装置及び画像認識方法
JP5834671B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2008040724A (ja) 画像処理装置、及び画像処理方法
WO2023063088A1 (en) Method, apparatus, system and non-transitory computer readable medium for adaptively adjusting detection area
WO2021261141A1 (ja) 物体検出装置および物体検出方法
JP6525693B2 (ja) 画像処理装置及び画像処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100219

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100316

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100616

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20100629

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100727

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100824

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130903

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4578353

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130903

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees