JP5047658B2 - カメラ装置 - Google Patents

カメラ装置 Download PDF

Info

Publication number
JP5047658B2
JP5047658B2 JP2007071717A JP2007071717A JP5047658B2 JP 5047658 B2 JP5047658 B2 JP 5047658B2 JP 2007071717 A JP2007071717 A JP 2007071717A JP 2007071717 A JP2007071717 A JP 2007071717A JP 5047658 B2 JP5047658 B2 JP 5047658B2
Authority
JP
Japan
Prior art keywords
image
region
unit
pattern matching
size
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007071717A
Other languages
English (en)
Other versions
JP2008236276A (ja
Inventor
誠人 数井
正嶋  博
彰二 村松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2007071717A priority Critical patent/JP5047658B2/ja
Publication of JP2008236276A publication Critical patent/JP2008236276A/ja
Application granted granted Critical
Publication of JP5047658B2 publication Critical patent/JP5047658B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、撮像された画像から検出対象の物体の映像を検出する技術に関する。
従来、監視、セキュリティ等の分野において、カメラで撮像した静止画像、または動画像から人を検出する手法が提案されている。これらの技術分野では人の形状や動きをモデル化して、そのモデルに基づくテンプレートを動画像の各フレームにおいて走査し、パターン認識に基づく手法で人を検出する。
また、近年監視システムやセキュリティシステムの市場が発達するにつれて、外界の実環境においてカメラが取得した画像から特定のパターンを持つ検出対象物を認識し、検出する技術が必要となってきている。この場合、天候の変動,時間帯による明るさの変動によって画像のコントラストが変化したり、部分的に影がかかったりして検出対象パターンの見え方が大きく変化する。また、検出対象は3次元構造を持つため、視点位置が変化したり物体の姿勢が変化したりすると対象の見かけの変形が生じる。このように、実環境対応のパターン検出は理想環境下におけるパターン検出と異なり、大きさの変化,みかけの形状変化,照明変動が同時に生じうる。
このような対象物体の見かけの変化にも対応してパターン認識を行おうとすると、パターン認識処理をするための識別器の構成が複雑になり、計算量が増大する。また、上述したように、テンプレートを画像上で走査する場合、検出対象物の大きさや位置が未知であるため、可能な限りあらゆるサイズのテンプレートを画像上の全ての位置において走査する必要があり、さらに計算量が増大する要因となっている。
この改善策として、非特許文献1には、識別器を複数のサブ識別器に分解してカスケード構造とし、最初の段では識別率の精度が低いが、高速にサーチを行うことができる識別器を用いて検知対象の候補を検出し、次段には識別率がより高い識別器を用いて候補のふるい落としを行い、これを十分な検出率を達成するまで段数を増やす技術が開示されている。
P.Viola and M.Jones "Rapid Object Detection using a Boosted Cascade of Simple Features," Proc. of IEEE Conf. On Computer Vision and Pattern Recognition, vol.1, pp.511-518, December, 2001
ところで、上記非特許文献1に開示されている技術は、画像内に含まれる検出対象物体に類似する画像の検出精度は高まるものの、実際にはありえない大きさの画像までも、人の顔として検出してしまう場合がある。例えば、IDカード等に印刷された顔画像をカメラにかざした場合や、人の顔が描かれている巨大な看板が画像内に写っている場合には、実際の人の顔の画像でないにもかかわらず、人の顔として検出してしまう。人の顔が写っている写真と実物の人の顔画像との区別がつかないと、特定の人物以外の入出を拒否する等の用途に使用することはできない。
本発明は上記事情を鑑みてなされたものであり、本発明の目的は、撮像された画像から、実物の検出対象物体を高い精度で検出できるようにすることにある。
上記課題を解決するために、本発明のカメラ装置は、撮像された画像内において、実物の検出対象物である可能性が高い大きさの物体が写っている領域について、パターンマッチングにより検出対象物体であるか否かの判定を行う。
例えば、本発明の第1の態様は、撮像された画像から検出対象物体を検出するカメラ装置であって、撮像手段と、検出対象物体のテンプレートおよび大きさの範囲を示す情報を格納するテンプレート格納手段と、撮像手段によって撮像された画像から、テンプレートに類似する領域を抽出する第1のパターンマッチング処理を実行する第1のパターンマッチング処理手段と、撮像手段から、第1のパターンマッチング処理手段によって抽出された領域までの距離を測定する距離測定手段と、距離測定手段によって測定された距離情報を用いて、第1のパターンマッチング処理手段によって抽出された領域の中で、テンプレート格納手段に格納された大きさの範囲に含まれる領域を抽出する第1の大きさ制限手段と、第1の大きさ制限手段によって抽出された領域の中から、テンプレートに類似する領域を抽出することにより、検出対象物体を検出する第2のパターンマッチング処理を実行する第2のパターンマッチング処理手段とを備えることを特徴とするカメラ装置を提供する。
また、本発明の第2の態様は、撮像された画像から検出対象物体を検出するカメラ装置であって、撮像手段と、撮像手段から、撮像手段によって撮像された画像内のそれぞれの物体までの距離を測定する距離測定手段と、距離の差が所定範囲内の領域を同一物体の領域としてクラスタリングするクラスタリング手段と、検出対象物体のテンプレートおよび大きさの範囲を示す情報を格納するテンプレート格納手段と、撮像手段からクラスタリング手段によってクラスタリングされた領域までの距離を用いて、当該クラスタリングされた領域の中で、テンプレート格納手段に格納された大きさの範囲に含まれる領域を抽出する第1の大きさ制限手段と、第1の大きさ制限手段によって抽出された領域の中から、テンプレートに類似する領域を抽出することにより、検出対象物体を検出するパターンマッチング処理手段とを備えることを特徴とするカメラ装置を提供する。
本発明のカメラ装置によれば、撮像された画像から、実物の検出対象物体を高い精度で検出することができる。
まず、本発明の第1の実施形態について説明する。
図1は、本発明の実施形態に係る監視システム10の構成の一例を示すシステム構成図である。監視システム10は、カメラ装置20、汎用コンピュータ21、モニタ22、およびデータベース23を備える。
カメラ装置20は、撮像した画像の中から人の顔が映っている領域を特定し、特定した領域を示す情報を、撮像した画像と共に汎用コンピュータ21へ出力する。データベース23は、特定の人の顔を示す情報を格納する。また、データベース23は、カメラ装置20によって人の顔が検出された画像を格納する。
汎用コンピュータ21は、カメラ装置20から人の顔が映っている領域およびその画像を受け取った場合に、データベース23を参照して、カメラ装置20によって検出された領域に写っている人の顔画像が、データベース23内に格納された人の顔画像と一致するか否かを判定する。
そして、カメラ装置20によって検出された領域に写っている人の顔画像がデータベース23内のいずれかの顔画像と一致した場合、汎用コンピュータ21は、その旨をモニタ22に表示したり、警報音を発生させたり、特定の連絡先にその旨を通知する。
なお、本実施形態では、人の顔を検出対象物体の一例として説明するが、他の形態として、監視システム10は、車や動物等の人の顔以外の物体が写っている領域を検出して通知するようにしてもよい。
図2は、第1実施形態におけるカメラ装置20の機能構成の一例を示すブロック図である。カメラ装置20は、カメラ200、カメラ201、画像補正部202、第1のパターンマッチング処理部203、テンプレート格納部204、ずれ量算出部205、距離測定部206、第1の大きさ制限部207、第2のパターンマッチング処理部208、第2の大きさ制限部209、領域情報算出部210、領域情報格納部211、制限情報生成部212、および制限情報格納部213を有する。
カメラ200とカメラ201とは、光軸が平行になるように同一の方向へ向けられて固定されており、これらは、2台でステレオカメラを構成する。本実施形態にいて、カメラ200はステレオカメラにおける右画像を撮像し、カメラ201はステレオカメラにおける左画像を撮像する。また、本実施形態において、左画像および右画像は、320×240ピクセルの画像である。
画像補正部202は、カメラ200からの右画像およびカメラ201からの左画像を受け取り、受け取った2つの画像において、光軸のずれを画像処理により補正し、補正した右画像および左画像を第1のパターンマッチング処理部203へ出力する。画像補正部202が用いる補正量は、後述するずれ量算出部205によって算出される。
テンプレート格納部204には、例えば図3に示すように、人の顔画像の特徴を示すテンプレートデータ2040と、人の顔である可能性が高い大きさの範囲を示す範囲情報2041とが格納される。テンプレートデータ2040は、例えば、標準的な顔画像を示す24×24ピクセルのデータである。本実施形態において、範囲情報2041は、顔画像を囲む矩形領域の縦および横の長さの範囲を規定する。
第1のパターンマッチング処理部203は、補正後の右画像および左画像を画像補正部202から受け取り、受け取った右画像および左画像のそれぞれについて、テンプレート格納部204に格納されたテンプレートデータに類似する画像内の領域を高速に検出する第1のパターンマッチング処理を行う。
ここで、第1のパターンマッチング処理とは、テンプレート内の注目画素とその周辺画素との輝度値の差を示す符号を用いて、当該注目画素との相関値が高い、検索対象の画像(左画像または右画像)内の画素を検出することにより、テンプレートに類似する画像内の領域を検出する処理である。この第1のパターンマッチング処理には、PISC(Peripheral Increment Sign Correlation)と呼ばれる技術が用いられる。PISC技術の詳細については、”周辺増分符号相関画像に基づくロバスト物体検出及び分離”(信学論(D-II),Vol.J84-D-II,No.12,pp.2585-2594 佐藤雄隆,金子俊一,五十嵐悟)に開示されている。
本実施形態において、第1のパターンマッチング処理部203は、テンプレート内の特定の8つの注目画素を用いて、当該注目画素との相関値が所定値以上の領域を、テンプレートに類似する領域として検出する。これにより、第1のパターンマッチング処理部203は、人の顔以外の領域も顔画像として検出してしまう場合があり精度はあまり高くないが、人の顔画像の候補となる領域を高速に検出することができる。
そして、第1のパターンマッチング処理部203は、テンプレートに類似する領域を検出した場合に、検出した領域を示す情報を、右画像および左画像のデータと共に距離測定部206へ出力する。また、第1のパターンマッチング処理部203は、検出した領域を示す情報を、右画像および左画像のいずれか一方のデータと共に第2の大きさ制限部209へ出力する。本実施形態において、第1のパターンマッチング処理部203は、検出した領域を示す情報を、左画像のデータと共に第2の大きさ制限部209へ出力する。
距離測定部206は、検出された領域を示す情報と共に、右画像および左画像のデータを第1のパターンマッチング処理部203から受け取り、受け取った2つの画像のそれぞれについて、検出された領域どうしの視差から当該領域までの距離を算出する。そして、距離測定部206は、第1のパターンマッチング処理部203によって検出された領域を示す情報および当該領域までの距離を示す情報を、右画像または左画像のデータと共に、第1の大きさ制限部207へ出力する。
する。
ここで、ステレオ画像では、2台のカメラの光軸が平行に保たれている場合、撮像された画像内の物体までの距離Dは、2台のカメラの間隔L、それぞれのカメラの焦点距離f、左画像および右画像内の同一物体の視差uから、下記の数式1を用いて算出される。
Figure 0005047658
ここで、距離測定部206が、画像補正部202から出力された右画像および左画像のそれぞれについて、写っている全ての領域までの距離を算出するとすれば、人の顔画像以外の領域についてまで距離を算出してしまうため、計算量が膨大になる場合がある。これに対して、本実施形態のカメラ装置20は、第1のパターンマッチング処理部203によって検出された、顔画像である可能性の高い領域について距離を算出するので、計算量を少なくすることができる。
第1の大きさ制限部207は、距離測定部206によって距離が算出された領域について、当該領域までの距離情報、および、画像内での当該領域の大きさから、当該領域に写っている物体の実際の大きさを予測する。そして、第1の大きさ制限部207は、大きさを予測した領域の中で、テンプレート格納部204に格納されている範囲情報を満たす領域を抽出し、抽出した領域を示す情報を、右画像または左画像のデータと共に第2のパターンマッチング処理部208へ出力する。
物体の画像内での見かけの大きさSは、比例定数aを用いて、S=a/Dで表される。よって、対象物体の見かけの大きさとSと視差uとの間には比例関係がある。この関係使って、第1の大きさ制限部207は、画像内に写っている領域の大きさと、当該領域までの距離の情報から、当該領域の実際の大きさを予測することができる。
第2のパターンマッチング処理部208は、第1の大きさ制限部207によって抽出された領域について、テンプレート格納部204に格納されたテンプレートデータに類似する画像内の領域を高精度で検出する第2のパターンマッチング処理を行う。
第2のパターンマッチング処理は、PISCを用いる点では、上記した第1のパターンマッチング処理と同一であるが、テンプレート内の全ての画素を注目画素として、当該注目画素との相関値が所定値以上の領域をテンプレートに類似する領域として検出する点が異なる。これにより、第2のパターンマッチング処理部208は、計算量が多いが、人の顔画像を高い精度で検出することができる。
ここで、画像補正部202から出力された右画像および左画像のいずれかについて、第2のパターンマッチング処理が実行されるとすれば、画像内に写っている物体の大きさが不明であるため、あらゆる大きさの領域について、テンプレート格納部204に格納されたテンプレートデータに類似する画像内の領域を検索する必要がある。また、第2のパターンマッチング処理では、テンプレートの全ての画素を注目画素としてPISC計算を行う。そのため、画像補正部202から出力された右画像および左画像のいずれかについて、第2のパターンマッチング処理が実行されるとすれば、計算量が膨大になり、汎用のコンピュータや、組込み機器で実現することは難しい。
しかし、本実施形態のカメラ装置20は、第1のパターンマッチング処理部203によって人の顔画像である可能性の高い領域を、人の顔画像以外の領域も検出してしまうが高速である第1のパターンマッチング処理により大雑把に絞込み、絞り込んだ領域について大きさを算出し、人の顔である可能性の高い大きさの領域について、計算量が多いが精度が高い第2のパターンマッチング処理を実行する。これにより、カメラ装置20は、計算量を低く抑えながら、高い精度で高速に顔画像を検出することができる。
第2のパターンマッチング処理部208は、テンプレートに類似する領域を検出した場合に、検出した領域を示す情報を、右画像または左画像のデータと共に、汎用コンピュータ21へ出力する。なお、第2のパターンマッチング処理部208は、さらに、検出した顔画像の実際の大きさを示す情報を汎用コンピュータ21へ出力するようにしてもよい。これにより、汎用コンピュータ21は、検出された顔画像のパターンだけでなく、顔の大きさを示す情報も用いて、特定の人物を検出することができる。
また、第2のパターンマッチング処理部208は、検出した顔画像の領域を示す情報を、ずれ量算出部205および領域情報算出部210へ出力する。また、第2のパターンマッチング処理部208は、制限情報生成部212によって、後述する制限情報が生成された場合に、第2の大きさ制限部209によって抽出された領域について、第2のパターンマッチング処理を行う。
ずれ量算出部205は、第2のパターンマッチング処理部208によって抽出された領域を用いて、カメラ200とカメラ201との光軸のずれ量を算出し、算出したずれ量を示す情報を画像補正部202へ送信することにより、画像補正部202に左画像および右画像を補正させる。
ここで、ステレオカメラ撮影では、右画像および左画像内において、対応する点が7つ以上特定できれば、2台のカメラの光軸のずれ量を検出可能であることが知られている。例えば、事前にカメラがキャリブレーションされた状態(光軸が並行に揃った状態で撮像されている状態)から光軸がずれると、画像中の少なくとも7点の組から計算される基礎行列(F行列、または、Fundamental Matrix)は、軸がずれる前後でこの行列の各要素の値が変わる。この変動を検知することにより、軸がずれたこと(正確には軸のずれ以外に画面内回転等のカメラの外部パラメータの変動)を検出することができる。F行列の計算方法は、例えば、佐藤淳著、「コンピュータビジョン―視覚の幾何学」、コロナ社(1999/04)等に詳しく記載されている。ずれ量算出部205は、左画像および右画像について、第2のパターンマッチング処理部208によって抽出された領域内で7つ以上の点を特定することにより、光軸のずれ量を検出する。
このように、ずれ量算出部205によって検出された2台のカメラの光軸のずれ量に従って、画像補正部202が、2台のカメラから出力された画像を、光軸が平行なカメラから出力された画像となるように画像処理により補正することによって、温度変化や経年変化等により、2台のカメラの光軸がずれた場合であっても、距離測定部206による、検出対象物までの距離の測定精度を高く保つことができる。
領域情報算出部210は、第2のパターンマッチング処理部208によって人の顔画像の領域が抽出された場合に、当該領域の画像内での位置および大きさを算出して、領域情報として制限情報格納部213に格納する。本実施形態において、領域情報算出部210は、第2のパターンマッチング処理部208によって人の顔画像の領域が抽出された場合に、当該領域の、左画像内での位置および大きさを算出して、領域情報として制限情報格納部213に格納する。
制限情報格納部213には、例えば図4に示すように、第2のパターンマッチング処理部208によって抽出された領域の中心座標2131および当該領域を示す領域情報2132を、それぞれの領域情報を識別する番号2130に対応付けて格納する。本実施形態において、領域情報2132は、第2のパターンマッチング処理部208によって抽出された領域を囲む矩形において、対向する2つの頂点の座標である。また、中心座標2131は、領域情報2132に示された2点の座標の中点の座標である。
制限情報生成部212は、所定のタイミングで、制限情報格納部213に格納された複数の領域情報から、右画像および左画像のいずれか一方について制限情報を生成し、生成した制限情報を領域情報格納部211に格納する。制限情報とは、画像内の領域を示す情報毎に、当該領域内で撮像されるべき検出対象物体の大きさの範囲を示す情報である。
ここで、制限情報生成部212による制限情報の生成過程について、図5および図6を参照して説明する。制限情報格納部213に格納された複数の領域情報を、右画像および前記左画像のいずれか一方の画像30上に示すと、例えば図5に示すようになる。本実施形態では、画像30として左画像を用いる。
テンプレート格納部204に格納されている範囲情報を満たす物体を写した画像30内の領域は、当該物体とカメラ201との距離が長くなるに従って小さくなる。また、固定カメラであれば、カメラ201によって撮像されている三次元空間の構造、当該空間を通過する人の平均的な身長や姿勢等によって、顔画像の画像30内での位置と、カメラ201から当該顔画像までの距離との間に相関関係が現れる。
図5に示す例では、テンプレート格納部204に格納されている範囲情報を満たす大きさの物体の領域であっても、カメラ201からの距離が遠い位置にある顔の画像の領域31aは、画像30の右上に表示され、カメラ201からの距離が比較的近い位置にある顔の画像の領域31bは、画像30の中央付近に表示され、カメラ201からの距離がさらに近い位置にある顔の画像の領域31cは、画像30の左下に表示されている。
このように、第2のパターンマッチング処理部208によって検出された複数の顔画像の領域について、画像30内での分布を調べることにより、画像30内のそれぞれの領域毎に、実物の顔として検出される領域の大きさの範囲を算出することができる。
図6に示す例では、それぞれ異なる顔画像の大きさの範囲が対応付けられる、基準座標34と折れ線33aと画像30の外周とで囲まれる領域32a、折れ線33aと折れ線33bと画像30の外周とで囲まれる領域32b、折れ線33bと折れ線33cと画像30の外周とで囲まれる領域32c、およびそれ以外の領域32dが示されている。
制限情報生成部212は、図6に示すそれぞれの領域32を特定する情報に、顔画像の大きさの範囲を示す情報を対応付けた制限情報を生成して領域情報格納部211に格納する。領域情報格納部211には、例えば図7に示すように、それぞれの領域を識別する番号2110毎に、図6に示した折れ線33を特定する複数の座標を含む領域情報2111、顔画像の大きさの範囲を示す範囲情報2112、および図6に示した基準座標34を示す基準座標2113が格納される。
なお、本実施形態において、制限情報生成部212は、制限情報格納部213に格納された顔画像の領域情報の個数が所定数(例えば100個)に達した場合に、制限情報格納部213内の複数の領域情報から制限情報を生成する。また、他の形態として、制限情報生成部212は、カメラ装置20が起動してから所定時間経過した場合や制限情報の生成を管理者から指示された場合等に、制限情報格納部213内の複数の領域情報から制限情報を生成するようにしてもよい。
第2の大きさ制限部209は、制限情報生成部212によって制限情報が生成された場合に、第1のパターンマッチング処理部203によって検出された顔画像の領域を示す情報および左画像のデータから、領域情報格納部211に格納された制限情報を満たす顔画像の領域を抽出する。
例えば、第2の大きさ制限部209は、領域情報格納部211を参照して、制限情報の領域情報の中で、第1のパターンマッチング処理部203によって検出された顔画像の領域との重なりが最も多い領域、あるいは、第1のパターンマッチング処理部203によって検出された顔画像の領域の中心座標を含む領域を特定し、特定した領域情報に対応付けられている範囲情報を抽出する。
そして、第2の大きさ制限部209は、第1のパターンマッチング処理部203によって検出された顔画像の領域の、左画像内での大きさが、領域情報格納部211から抽出した範囲情報を満たす場合に、当該顔画像の領域を、左画像のデータと共に第2のパターンマッチング処理部208へ出力する。
また、カメラ200、ずれ量算出部205、距離測定部206、および第1の大きさ制限部207は、制限情報生成部212によって制限情報が生成された後に停止する。また、画像補正部202は、制限情報生成部212によって制限情報が生成された後に、カメラ201から受け取った左画像に対して補正を行わずに、当該左画像を第1のパターンマッチング処理部203へ出力する。また、第1のパターンマッチング処理部203は、制限情報生成部212によって制限情報が生成された後に、画像補正部202を介してカメラ201から受け取った左画像についてのみ、第1のパターンマッチング処理を実行する。
このように、所定のタイミングで制限情報生成部212によって制限情報が生成された後に、カメラ200、ずれ量算出部205、距離測定部206、および第1の大きさ制限部207を停止させて、第2の大きさ制限部209が、第1のパターンマッチング処理部203によって検出された領域の中から、人の顔である可能性が高い大きさの領域を抽出することにより、カメラ装置20の消費電力を低くすることができる。
図8は、第1実施形態におけるカメラ装置20の動作の一例を示すフローチャートである。例えば、電源が投入される等の所定のタイミングで、カメラ装置20は、本フローチャートに示す動作を開始する。
まず、カメラ200およびカメラ201は、画像を取り込み、それぞれ右画像および左画像として画像補正部202へ出力する(S100)。そして、画像補正部202は、ずれ量を示す補正値がずれ量算出部205によって算出されていれば、カメラ200からの右画像、および、カメラ201からの左画像を、当該補正値を用いて補正する(S101)。
次に、第1のパターンマッチング処理部203は、画像補正部202によって補正された右画像および左画像のそれぞれについて、テンプレート格納部204内のテンプレートを用いて、第一のパターンマッチング処理を実行し、テンプレートに類似する領域を示す情報を、右画像および左画像のデータと共に距離測定部206へ出力する(S102)。そして、距離測定部206は、第1のパターンマッチング処理部203から受け取った左画像および右画像について、ステップS102において検出された領域どうしの視差から当該領域に写っている物体までの距離を算出する(S103)。
次に、第1の大きさ制限部207は、ステップS102において検出された領域までの距離および当該領域の画像内での見かけの大きさから、当該領域の実際の大きさを予測する。そして、第1の大きさ制限部207は、当該領域の中で、テンプレート格納部204に格納されている範囲情報を満たす物体の領域を抽出する(S104)。
次に、第2のパターンマッチング処理部208は、抽出された領域について、テンプレート格納部204に格納されたテンプレートデータに類似する画像内の領域を高精度で検出する第2のパターンマッチング処理を実行し、検出した領域を示す情報を、右画像および左画像のデータと共に、汎用コンピュータ21へ出力する(S105)。
次に、ずれ量算出部205は、第2のパターンマッチング処理部208によって抽出された領域を用いて、カメラ200とカメラ201との光軸のずれ量を算出し、算出したずれ量を示す情報を画像補正部202へ送信する(S106)。
次に、領域情報算出部210は、第2のパターンマッチング処理部208によって人の顔画像の領域が抽出された場合に、当該領域の画像内での位置および大きさを算出して、領域情報として制限情報格納部213に格納する(S107)。そして、制限情報生成部212は、所定数(例えば100個)以上の領域情報が領域情報格納部211に格納されたか否かを判定する(S108)。所定数以上の領域情報が領域情報格納部211に格納されていない場合(S108:No)、カメラ200およびカメラ201は、再びステップS100に示した処理を実行する。
所定数以上の領域情報が領域情報格納部211に格納された場合(S108:Yes)、制限情報生成部212は、制限情報格納部213に格納された複数の領域情報から、左画像について制限情報を生成し、生成した制限情報を領域情報格納部211に格納する(S109)。ステップS109が実行された場合、カメラ200、ずれ量算出部205、距離測定部206、および第1の大きさ制限部207は停止する。
次に、カメラ201は画像を取り込み、左画像として画像補正部202へ出力する(S110)。画像補正部202は、カメラ201から受け取った左画像に対して補正を行わず、受け取った左画像を第1のパターンマッチング処理部203へ出力する。そして、第1のパターンマッチング処理部203は、画像補正部202から受け取った左画像について、第1のパターンマッチング処理を実行し、テンプレートに類似する領域を示す情報を、左画像のデータと共に第2の大きさ制限部209へ出力する(S111)。
次に、第2の大きさ制限部209は、第1のパターンマッチング処理部203から受け取った顔画像の領域を示す情報および左画像のデータから、領域情報格納部211に格納された制限情報を満たす顔画像の領域を抽出する(S112)。そして、第2のパターンマッチング処理部208は、抽出された領域について、第2のパターンマッチング処理を実行し、検出した領域を示す情報を、左画像のデータと共に、汎用コンピュータ21へ出力し(S113)、カメラ201は、再びステップS110に示した処理を実行する。
以上、本発明の第1の実施形態について説明した。
上記説明から明らかなように、本実施形態の監視システム10によれば、撮像された画像から、実物の検出対象物体を高い精度で検出することができる。
次に、本発明の第2の実施形態について説明する。
図9は、第2実施形態におけるカメラ装置20の機能構成の一例を示すブロック図である。カメラ装置20は、カメラ200、カメラ201、画像補正部202、テンプレート格納部204、ずれ量算出部205、距離測定部206、第1の大きさ制限部207、第2のパターンマッチング処理部208、第2の大きさ制限部209、領域情報算出部210、領域情報格納部211、制限情報生成部212、制限情報格納部213、およびクラスタリング部220を有する。
なお、以下に説明する点を除き、図9において、図2と同じ符号を付した構成は、図2における構成と同一または同様の機能を有するため説明を省略する。第2実施形態のカメラ装置20は、第1実施形態のカメラ装置20と比較して、クラスタリング部220を有しており、第1のパターンマッチング処理部203を有していない点が大きく異なる。
距離測定部206は、画像補正部202によって補正された右画像および左画像を用いて、それぞれの画像に写っている物体の領域の視差から距離を算出し、算出した距離情報を、左画像または右画像と共にクラスタリング部220へ出力する。ここで、距離測定部206によって行われる距離計算の方法について図10を用いて説明する。
ステレオマッチングでは、左画像上のある注目画素、または注目画素近傍の画素を用いて、右画像中における対応点が探索される。平行ステレオ画像の場合は、画像の走査線に沿って、そうでない場合はエピポーラ線に沿って対応点が探索される。探索範囲が指定されない場合は、走査線またはエピポーラ線に沿って、全ての画素について対応点が探索されるが、これには大きな計算コストが要求される。
そこで、距離測定部206は、図10に示すように、増分符号(PIS:Peripheral Incremental Sign)を使って、段階的にパターン間相関を行って絞込みを行い、高速に対応点を探索する。PISを使った相関計算では、参照画像内(本例では左画像40内)の領域42において、注目画素を中心とする矩形領域の中で任意の2画素の組が少なくとも1組選択され、輝度値の差分が計算される。このとき差分が正の値であれば1、負の値であれば0とする増分符号ビットが定義され、2画素の組の数を要素数とする増分符号ビット列が生成される。なお、増分符号を用いた相関計算については”周辺増分符号相関画像に基づくロバスト物体検出及び分離”(信学論(D-II),Vol.J84-D-II,No.12,pp.2585-2594 佐藤雄隆,金子俊一,五十嵐悟)に詳細に開示されている。
距離測定部206は、参照元となる左画像40の領域42内の増分符号からなるベクトルを用いて、右画像41内で対応する領域の検出を行うが、このときに増分符号ビット列を定義する画素数を最初8画素にして、右画像41の走査線またはエピポーラ線に沿って、右画像41内の全ての領域44について相関値を算出し、所定値以上の相関値を示す領域44について、増分符号ビット列を定義する画素数を増やして、再度相関値を算出する。
このように、距離測定部206は、参照元の領域の画素および検索対象の領域の画素について、相関値を計算する画素数を段階的に増加させながら、各段階で算出された相関値で検索対象領域を絞り込むことにより、左右の画像における対応点の探索を行う。
クラスタリング部220は、左画像または右画像と共に、当該画像内に写っている領域の距離情報を距離測定部206から受け取り、距離の差が所定範囲内の領域を同一物体の領域としてクラスタリングし、クラスタリングした領域を示す情報を、当該クラスタリングされた領域までの距離情報、および、左画像または右画像と共に、第1の大きさ制限部207へ出力する。なお、クラスタリング部220は、距離だけでなく、色やテクスチャ等の情報も用いて、クラスタリングすべき同一物体を判定してもよい。
第1の大きさ制限部207は、クラスタリング部220によってクラスタリングされた領域について、当該領域までの距離情報、および、画像内での当該領域の大きさから、当該領域に写っている物体の実際の大きさを予測する。そして、第1の大きさ制限部207は、クラスタリング部220によってクラスタリングされた領域の中で、テンプレート格納部204に格納されている範囲情報を満たす領域を抽出し、抽出した領域を示す情報を、右画像または左画像のデータと共にパターンマッチング処理部221へ出力する。
図11は、第2実施形態におけるカメラ装置20の動作の一例を示すフローチャートである。例えば、電源が投入される等の所定のタイミングで、カメラ装置20は、本フローチャートに示す動作を開始する。
まず、カメラ200およびカメラ201は、画像を取り込み、それぞれ右画像および左画像として画像補正部202へ出力する(S200)。そして、画像補正部202は、ずれ量を示す補正値がずれ量算出部205によって算出されていれば、カメラ200からの右画像、および、カメラ201からの左画像を、当該補正値を用いて補正する(S201)。
次に、距離測定部206は、画像補正部202によって補正された右画像および左画像を用いて、それぞれの画像に写っている物体の領域の視差から距離を算出する(S202)。そして、クラスタリング部220は、距離の差が所定範囲内の領域を同一物体の領域としてクラスタリングする(S203)。
次に、第1の大きさ制限部207は、クラスタリングされた領域までの距離および当該領域の画像内での見かけの大きさから、当該領域の実際の大きさを予測する。そして、第1の大きさ制限部207は、当該領域の中で、テンプレート格納部204に格納されている範囲情報を満たす大きさの物体の領域を抽出する(S204)。
次に、第2のパターンマッチング処理部208は、抽出された領域について、テンプレート格納部204に格納されたテンプレートデータに類似する画像内の領域を高精度で検出する第2のパターンマッチング処理を実行し、検出した領域を示す情報を、右画像および左画像のデータと共に、汎用コンピュータ21へ出力する(S205)。
次に、ずれ量算出部205は、第2のパターンマッチング処理部208によって抽出された領域を用いて、カメラ200とカメラ201との光軸のずれ量を算出し、算出したずれ量を示す情報を画像補正部202へ送信する(S206)。
次に、領域情報算出部210は、第2のパターンマッチング処理部208によって人の顔画像の領域が抽出された場合に、当該領域の画像内での位置および大きさを算出して、領域情報として制限情報格納部213に格納する(S207)。そして、制限情報生成部212は、所定数以上の領域情報が領域情報格納部211に格納されたか否かを判定する(S208)。所定数以上の領域情報が領域情報格納部211に格納されていない場合(S208:No)、カメラ200およびカメラ201は、再びステップS200に示した処理を実行する。
所定数以上の領域情報が領域情報格納部211に格納された場合(S208:Yes)、制限情報生成部212は、制限情報格納部213に格納された複数の領域情報から、左画像について制限情報を生成し、生成した制限情報を領域情報格納部211に格納する(S209)。ステップS109が実行された場合、カメラ200、ずれ量算出部205、距離測定部206、第1の大きさ制限部207、およびクラスタリング部220は停止する。
次に、カメラ201は画像を取り込み、左画像として画像補正部202へ出力する(S210)。画像補正部202は、カメラ201から受け取った左画像に対して補正を行わず、受け取った左画像を第2の大きさ制限部209へ出力する。そして、第2の大きさ制限部209は、画像補正部202から受け取った左画像について、領域情報格納部211に格納された制限情報を満たす顔画像の領域を抽出する(S211)。そして、第2のパターンマッチング処理部208は、抽出された領域について、第2のパターンマッチング処理を実行し、検出した領域を示す情報を、左画像のデータと共に、汎用コンピュータ21へ出力し(S212)、カメラ201は、再びステップS210に示した処理を実行する。
以上、本発明の第2の実施形態について説明した。
なお、本発明は、上記した実施形態に限定されるものではなく、その要旨の範囲内で数々の変形が可能である。
例えば、上記した実施形態において、カメラ装置20は、ステレオカメラを用いて、撮像領域内の物体までの距離を測定したが、他の形態として、カメラ装置20は、赤外線や超音波等を用いて物体までの距離を測定してもよい。また、カメラ装置20は、TOF(Time of Flight)技術を用いて、物体までの距離を測定してもよい。
また、他の形態として、監視システム10は、第1実施形態に記載したカメラ装置20の機能を実現する第1のカメラ装置20と、第2実施形態に記載したカメラ装置20の機能を実現する第2のカメラ装置20と、第1のカメラ装置20および第2のカメラ装置20のいずれか一方に顔画像の検出を行わせ、当該一方の検出精度が低い場合に、他方に顔画像の検出を行わせる切替手段と、を備えるように構成してもよい。
また、上記した実施形態のカメラ装置20において、一連の演算処理を行う処理機能ブロックおよび処理手段は、CPU(Central Processing Unit)を有する電子計算機により構築されたシステム上に、ソフトウェアにより構成されて処理されているが、これらは様々な形態の電子計算機システムで構成することが可能である。例えば、カメラ装置20は、組み込み機器やワンチップ化された画像処理プロセッサ中に構築することも可能である。以上説明した実施例では主に人や車両の検出について説明したが、人や車両の他に人物の胴体,文字,記号の検出にも本発明は有効である。
また、上記したステレオカメラによる対象物体の検出手法は、例えば組み込み機器でパターン検出をする必要がある用途で特に有効である。組み込み機器では汎用コンピュータで用いられるような高速なプロセッサは消費電力や、発熱量、コスト等の問題で搭載できない場合が多いため、低消費電力で発熱量が低く、低コストである組み込みマイコンやDSP(Digital Signal Processor)を搭載する必要がある。このような組込み機器としては、例えばスタンドアロンで動作するハードディスクレコーダ、DCCTV(Digital Closed Circuit TeleVision)、小型画像処理ユニット等がある。
本発明の実施形態に係る監視システム10の構成の一例を示すシステム構成図である。 第1実施形態におけるカメラ装置20の機能構成の一例を示すブロック図である。 テンプレート格納部204に格納されるデータ構造の一例を示す図である。 制限情報格納部213に格納されるデータ構造の一例を示す図である。 領域情報算出部210によって算出される検出対象画像の領域の一例を説明するための概念図である。 制限情報生成部212によって算出される領域情報の一例を説明するための概念図である。 領域情報格納部211に格納されるデータ構造の一例を示す図である。 第1実施形態におけるカメラ装置20の動作の一例を示すフローチャートである。 第2実施形態におけるカメラ装置20の機能構成の一例を示すブロック図である。 第2実施形態における距離測定部206の対応領域検出処理を説明するための概念図である。 第2実施形態におけるカメラ装置20の動作の一例を示すフローチャートである。
符号の説明
10・・・監視システム、20・・・カメラ装置、200・・・カメラ、201・・・カメラ、202・・・画像補正部、203・・・第1のパターンマッチング処理部、204・・・テンプレート格納部、2040・・・テンプレートデータ、2041・・・範囲情報、205・・・ずれ量算出部、206・・・距離測定部、207・・・第1の大きさ制限部、208・・・第2のパターンマッチング処理部、209・・・第2の大きさ制限部、210・・・領域情報算出部、211・・・領域情報格納部、2110・・・番号、2111・・・領域情報、2112・・・範囲情報、2113・・・基準座標、212・・・制限情報生成部、213・・・制限情報格納部、2130・・・番号、2131・・・中心座標、2132・・・領域情報、220・・・クラスタリング部、221・・・パターンマッチング処理部、21・・・汎用コンピュータ、22・・・モニタ、23・・・データベース、30・・・画像、31・・・領域、32・・・領域、33・・・折れ線、34・・・基準座標、40・・・左画像、41・・・右画像、42・・・領域、43・・・走査線、44・・・領域、45・・・領域

Claims (9)

  1. 撮像された画像から検出対象物体を検出するカメラ装置であって、
    撮像手段と、
    前記検出対象物体のテンプレートおよび大きさの範囲を示す情報を格納するテンプレート格納手段と、
    前記撮像手段によって撮像された画像から、前記テンプレートに類似する領域を抽出する第1のパターンマッチング処理を実行する第1のパターンマッチング処理手段と、
    前記撮像手段から、前記第1のパターンマッチング処理手段によって抽出された領域までの距離を測定する距離測定手段と、
    前記距離測定手段によって測定された距離情報を用いて、前記第1のパターンマッチング処理手段によって抽出された領域の中で、前記テンプレート格納手段に格納された大きさの範囲に含まれる領域を抽出する第1の大きさ制限手段と、
    前記第1の大きさ制限手段によって抽出された領域の中から、前記テンプレートに類似する領域を抽出することにより、検出対象物体を検出する第2のパターンマッチング処理を実行する第2のパターンマッチング処理手段と
    を備えることを特徴とするカメラ装置。
  2. 請求項1に記載のカメラ装置であって、
    前記第1のパターンマッチング処理は、前記第2のパターンマッチング処理よりも、精度が低いが高速であることを特徴とするカメラ装置。
  3. 請求項1に記載のカメラ装置であって、
    前記撮像手段は、左右に2つの画像取り込み手段を有するステレオカメラであり、
    前記第1のパターンマッチング処理手段は、
    前記撮像手段によって撮像された左画像および右画像のそれぞれについて、前記第1のパターンマッチング処理を行い、
    前記距離測定手段は、
    前記第1のパターンマッチング処理手段によって前記右画像および前記左画像のそれぞれで抽出された領域において、対応する領域を特定し、対応する領域の視差から、当該領域までの距離を算出することを特徴とするカメラ装置。
  4. 請求項3に記載のカメラ装置であって、
    前記距離測定手段は、
    前記右画像および前記左画像のいずれか一方の画像に含まれる、前記第1のパターンマッチング処理手段によって抽出された領域内の一部の画素を基準として、PISC(Peripheral Increment Sign Correlation)を用いて、他方の画像内で対応する領域を特定することを特徴とするカメラ装置。
  5. 請求項3に記載のカメラ装置であって、
    前記第2のパターンマッチング処理によって抽出された領域を用いて、前記2つの画像取り込み手段の光軸のずれ量を算出するずれ量算出手段と、
    前記ずれ量算出手段によって算出されたずれ量に基づいて、前記撮像手段によって撮像された画像を補正し、補正した画像を前記第1のパターンマッチング処理手段へ供給する画像補正手段と
    をさらに備えることを特徴とするカメラ装置。
  6. 請求項3に記載のカメラ装置であって、
    前記右画像および前記左画像のそれぞれについて、前記第2のパターンマッチング処理によって抽出された領域の画像内での位置および大きさを示す領域情報を格納する領域情報格納手段と、
    前記第2のパターンマッチング処理によって検出対象物体の領域が抽出された場合に、当該領域の画像内での位置および大きさを算出して領域情報として前記領域情報格納手段に格納する領域情報算出手段と、
    所定のタイミングで、前記領域情報格納手段に格納された複数の領域情報から、前記右画像および前記左画像のいずれか一方について、画像内の領域を示す情報毎に、当該領域内で撮像されるべき検出対象物体の大きさの範囲を示す制限情報を生成する制限情報生成手段と、
    前記第1のパターンマッチング処理手段によって抽出された領域の中から、前記撮像手段によって撮像された右画像および左画像のいずれか一方について、画像内の位置および大きさが、前記制限情報生成手段によって生成された制限情報を満たす領域を抽出する第2の大きさ制限手段と
    をさらに備え、
    前記距離測定手段および前記第1の大きさ制限手段は、
    前記制限情報生成手段によって制限情報が生成された場合に処理を停止し、
    前記第2のパターンマッチング手段は、
    前記制限情報生成手段によって前記制限情報が生成された場合に、前記第2の大きさ制限手段によって抽出された領域の中から、前記テンプレートに類似する領域を抽出することにより、検出対象物体を検出することを特徴とするカメラ装置。
  7. 撮像された画像から検出対象物体を検出するカメラ装置であって、
    左右に2つの画像取り込み手段を有するステレオカメラである撮像手段と、
    前記撮像手段によって撮像された左画像および右画像において、対応する領域の視差から、当該領域までの距離を算出する距離測定手段と、
    前記距離測定手段によって測定されたそれぞれの前記物体までの距離の差が、前記検出対象物体としてあり得る奥行きの範囲内である領域を同一物体の領域としてクラスタリングするクラスタリング手段と、
    前記検出対象物体のテンプレートおよび大きさの範囲を示す情報を格納するテンプレート格納手段と、
    前記撮像手段から前記クラスタリング手段によってクラスタリングされた領域までの距離を用いて、当該クラスタリングされた領域の中で、前記テンプレート格納手段に格納された大きさの範囲に含まれる領域を抽出する第1の大きさ制限手段と、
    前記第1の大きさ制限手段によって抽出された領域の中から、前記テンプレートに類似する領域を抽出することにより、検出対象物体を検出するパターンマッチング処理手段と
    を備え、
    前記距離測定手段は、
    前記右画像および前記左画像のいずれか一方の画像に含まれる物体の領域内の画素を基準として、PISC(Peripheral Increment Sign Correlation)を用いて、他方の画像内で対応する物体の領域を特定する処理を、基準とする画素数を徐々に増やしながら繰り返すことにより、前記右画像および前記左画像のそれぞれの領域において、対応する領域を特定することを特徴とするカメラ装置。
  8. 請求項に記載のカメラ装置であって、
    前記パターンマッチング処理手段によって抽出された領域を用いて、前記2つの画像取り込み手段の光軸のずれ量を算出するずれ量算出手段と、
    前記ずれ量算出手段によって算出されたずれ量に基づいて、前記撮像手段によって撮像された画像を補正し、補正した画像を前記距離測定手段へ供給する画像補正手段と
    をさらに備えることを特徴とするカメラ装置。
  9. 請求項に記載のカメラ装置であって、
    前記右画像および前記左画像のそれぞれについて、前記パターンマッチング処理手段によって抽出された領域の画像内での位置および大きさを示す領域情報を格納する領域情報格納手段と、
    前記パターンマッチング処理手段によって検出対象物体の領域が抽出された場合に、当該領域の画像内での位置および大きさを算出して領域情報として前記領域情報格納手段に格納する領域情報算出手段と、
    所定のタイミングで、前記領域情報格納手段に格納された複数の領域情報から、前記右画像および前記左画像のいずれか一方について、画像内の領域を示す情報毎に、当該領域内で撮像されるべき検出対象物体の大きさの範囲を示す制限情報を生成する制限情報生成手段と、
    前記撮像手段から出力される右画像および左画像のいずれか一方について、当該画像に含まれる物体の領域の中から、当該画像内での位置および大きさが前記制限情報生成手段によって生成された制限情報を満たす領域を抽出する第2の大きさ制限手段と
    をさらに備え、
    前記距離測定手段、前記クラスタリング手段、および前記第1の大きさ制限手段は、
    前記制限情報生成手段によって制限情報が生成された場合に処理を停止し、
    前記パターンマッチング手段は、
    前記制限情報生成手段によって前記制限情報が生成された場合に、前記第2の大きさ制限手段によって抽出された領域の中から、前記テンプレートに類似する領域を抽出することにより、検出対象物体を検出することを特徴とするカメラ装置。
JP2007071717A 2007-03-20 2007-03-20 カメラ装置 Expired - Fee Related JP5047658B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007071717A JP5047658B2 (ja) 2007-03-20 2007-03-20 カメラ装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007071717A JP5047658B2 (ja) 2007-03-20 2007-03-20 カメラ装置

Publications (2)

Publication Number Publication Date
JP2008236276A JP2008236276A (ja) 2008-10-02
JP5047658B2 true JP5047658B2 (ja) 2012-10-10

Family

ID=39908531

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007071717A Expired - Fee Related JP5047658B2 (ja) 2007-03-20 2007-03-20 カメラ装置

Country Status (1)

Country Link
JP (1) JP5047658B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5188429B2 (ja) * 2009-03-24 2013-04-24 富士重工業株式会社 環境認識装置
DE102009003110A1 (de) * 2009-05-14 2010-11-18 Robert Bosch Gmbh Bildverarbeitungsverfahren zur Bestimmung von Tiefeninformation aus wenigstens zwei mittels eines Stereokamerasystems aufgenommenen Eingangsbildern
US8406470B2 (en) * 2011-04-19 2013-03-26 Mitsubishi Electric Research Laboratories, Inc. Object detection in depth images
JP2012226689A (ja) * 2011-04-22 2012-11-15 Fuji Heavy Ind Ltd 環境認識装置および環境認識方法
US20200027231A1 (en) * 2016-09-30 2020-01-23 Nec Corporation Information processing device, information processing method, and program storage medium
JP6452738B2 (ja) * 2017-01-30 2019-01-16 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1125263A (ja) * 1997-07-08 1999-01-29 Canon Inc 対象物特徴点検出装置、焦点調節装置、露出制御装置及びカメラ
JP2002051255A (ja) * 2000-07-31 2002-02-15 Olympus Optical Co Ltd 主要被写体検出カメラ
JP4597391B2 (ja) * 2001-01-22 2010-12-15 本田技研工業株式会社 顔領域検出装置およびその方法並びにコンピュータ読み取り可能な記録媒体
JP4338560B2 (ja) * 2003-04-14 2009-10-07 富士フイルム株式会社 画像の特徴部分抽出方法及び特徴部分抽出プログラム並びに撮像装置と画像処理装置

Also Published As

Publication number Publication date
JP2008236276A (ja) 2008-10-02

Similar Documents

Publication Publication Date Title
US9443143B2 (en) Methods, devices and systems for detecting objects in a video
JP5642410B2 (ja) 顔認識装置及び顔認識方法
US9589177B2 (en) Enhanced face detection using depth information
US9008439B2 (en) Image processing method and system
US7929728B2 (en) Method and apparatus for tracking a movable object
CN111914635B (zh) 人体测温方法、装置、系统和电子设备
Benedek 3D people surveillance on range data sequences of a rotating Lidar
JP6590609B2 (ja) 画像解析装置及び画像解析方法
JP5047658B2 (ja) カメラ装置
JP2017103602A (ja) 位置検出装置、位置検出方法及びプログラム
JP5936561B2 (ja) 画像における外観及びコンテキストに基づく物体分類
JP5262705B2 (ja) 運動推定装置及びプログラム
US20180260661A1 (en) Image processing apparatus, image processing method, and image processing program
EP3410396B1 (en) Moving object tracking apparatus, moving object tracking method, and computer-readable medium
Caliwag et al. Distance estimation in thermal cameras using multi-task cascaded convolutional neural network
Sun et al. High-accuracy three-dimensional measurement based on multi-directional cooperative target with weighted SfM algorithm
WO2011099072A1 (ja) パターン識別装置
JP2006318064A (ja) 画像センサ
JP7243372B2 (ja) 物体追跡装置および物体追跡方法
JP2014048702A (ja) 画像認識装置、画像認識方法、及び画像認識プログラム
CN112541403B (zh) 一种利用红外摄像头的室内人员跌倒检测方法
JP2019046278A (ja) 情報処理装置、制御方法、コンピュータプログラム、記憶媒体、及びモデル作成装置
JP7208051B2 (ja) 状態認識装置
Ma et al. Mixed features for face detection in thermal image
KR101087250B1 (ko) 피부색 영역 검출을 이용한 얼굴 검출 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110512

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110913

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120523

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20120531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120626

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120718

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150727

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5047658

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees