JP5423566B2 - 対象物検出装置、対象物検出方法、及びプログラム - Google Patents

対象物検出装置、対象物検出方法、及びプログラム Download PDF

Info

Publication number
JP5423566B2
JP5423566B2 JP2010103765A JP2010103765A JP5423566B2 JP 5423566 B2 JP5423566 B2 JP 5423566B2 JP 2010103765 A JP2010103765 A JP 2010103765A JP 2010103765 A JP2010103765 A JP 2010103765A JP 5423566 B2 JP5423566 B2 JP 5423566B2
Authority
JP
Japan
Prior art keywords
detection
image
type
candidate
hypothesis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010103765A
Other languages
English (en)
Other versions
JP2011232999A (ja
Inventor
哲 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2010103765A priority Critical patent/JP5423566B2/ja
Publication of JP2011232999A publication Critical patent/JP2011232999A/ja
Application granted granted Critical
Publication of JP5423566B2 publication Critical patent/JP5423566B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本明細書で議論される実施態様は、画像の認識技術に関する。
カメラで取得した画像を解析して、画像中の対象物を抽出する対象物検出技術が従来から様々な分野で研究開発されており、実用化が進んできている。このような対象物検出技術の例としては、道路を撮影した画像から当該道路を走行する車両を検出する技術や、スナップショットから人や人の顔を検出する技術などがある。
対象物検出技術では、入力画像に含まれている幾つかの要素を検出対象の候補としてまず抽出し、その候補から検出対象物を絞り込むことで、最終的な結果を効率的に得る。しかしながら、この候補には、検出対象物と特徴が似ている要素(非検出対象)が含まれる場合がある。
例えば、道路を走行中である黒色の車両を昼間に撮影して得た画像において、この車両の像と、道路上に映っている車両の影の像との特徴(形状や色彩など)がよく似たものになっている場合がある。また、例えば、同様の状況の撮影を雨天の夜間に行って得た画像において、点灯しているヘッドライトを含む車両の像と、そのヘッドライトの濡れた路面での反射光の像との特徴がよく似たものとなる場合がある。このような画像について、検出対象物である車両と、非検出対象である影や反射光とを高精度に判別することは難しい。
このような、画像内で特徴が類似している検出候補に対し、予め定義しておいた実世界の知識(例えば海と山の出現関係等)に基づき多数の仮説(複数の検出候補の組合せ)を生成して評価することで、最終的な検出結果を得るという技術が知られている。この技術では、生成した仮説のうちで総合的な評価値が最も高いものを選択するようにして、最終的な検出結果を得るようにしている。
アンドリュー・ラビノビッチ(Andrew Rabinovich)他、「オブジェクツ・イン・コンテスクト(Objects in Context)」、Eleventh IEEE International Conference on Computer Vision (ICCV 2007)、ブラジル、2007年10月
前述した、仮説の評価による対象物検出技術では、予め固定的に与えておいた実世界の知識の定義に基づいて仮説の評価を行う。このため、画像取得時の環境の違い(例えば昼間と夜間といった撮影時刻の違いや、晴天時と曇天時といった天候の違い)によって画像に現れる特徴が変化する場合においては、対象物検出の精度の低下が懸念される。
また、この対象物検出技術において、検出の性能を高めるために仮説を大量に生成すると、その生成のための処理量は多くなり、また、大量に生成した仮説の評価のための処理量も当然多くなるため、検出処理に要する処理時間は長くなる。
本発明は上述した問題に鑑みてなされたものであり、その解決しようとする課題は、画像からの対象物の検出において、画像取得時の環境の違いに起因する精度低下を抑制しつつ、処理コストを低減させることである。
本明細書で後述する対象物検出装置のひとつには、検出候補抽出手段と、検出候補種別テーブルと、仮説生成手段と、評価点テーブルと、評価手段と、検出手段と、センサ部と、仮説生成制御手段と、を有するというものがある。ここで、検出候補抽出手段は、検出対象物の画像に写り込んでいる、該検出対象物の像を含む1以上の要素を、検出候補として該画像から抽出する。検出候補種別テーブルは、該画像に写り込むことが推定される検出候補の種別が予め定義されているテーブルである。仮説生成手段は、該検出候補種別テーブルに定義されている種別を該検出候補抽出手段が抽出した検出候補に対応付けることで得られる、該画像に写り込んでいる検出候補についての種別の組み合わせを、種別の仮説として複数生成する。評価点テーブルは、該画像における所定の種別の検出候補間での相互関係について推定される所定の検出候補間条件に対応付けて、評価点が予め設定されているテーブルである。評価手段は、該種別の仮説のうち該所定の検出候補間条件を有しているものに対し、該評価点テーブルにおいて該所定の検出候補間条件に対応付けて設定されている評価点を与えることで、該種別の仮説を評価する。検出手段は、該種別の仮説のうちの1つを該評価手段による評価結果に基づいて選択することで該画像に写り込んでいる検出候補の種別を特定し、特定された検出候補の種別に基づいて該検出対象物を検出する。センサ部は、該画像を撮影したときの該検出対象物の周囲の環境を検知して該環境を表す環境情報を出力する。仮説生成制御手段は、該環境情報に基づいて該仮説生成手段を制御して、該種別の仮説のうち、該環境情報により表されている環境下では生じることがないと推定される仮説の生成を制限する。
また、本明細書で後述する対象物検出方法のひとつは、まず、検出対象物の画像に写り込んでいる、該検出対象物の像を含む1以上の要素を、検出候補として該画像から抽出する。次に、抽出した検出候補に検出候補種別テーブルに定義されている種別を対応付けることで得られる、該画像に写り込んでいる検出候補についての種別の組み合わせを、種別の仮説として複数生成する。なお、検出候補種別テーブルには、該画像に写り込むことが推定される検出候補の種別が予め定義されている。次に、生成した種別の仮説のうち所定の検出候補間条件を有しているものに対して、評価点テーブルに該所定の検出候補間条件に対応付けて設定されている評価点を与えることで、該生成した種別の仮説を評価する。なお、評価点テーブルには、該画像における所定の種別の検出候補間での相互関係について推定される所定の検出候補間条件に対応付けて評価点が予め設定されている。次に、該種別の仮説のうちの1つを該評価の結果に基づいて選択することで該画像に写り込んでいる検出候補の種別を特定し、特定された検出候補の種別に基づいて該検出対象物を検出する。そして、次に、センサ部により得られた環境情報に基づいて該種別の仮説の生成を制御して、該種別の仮説のうち、該環境情報により表されている環境下では生じることがないと推定される仮説の生成を制限する。なお、センサ部は、該画像を撮影したときの該検出対象物の周囲の環境を検知して該環境を表す環境情報を出力する。
また、本明細書で後述するプログラムのひとつには、検出候補抽出処理と、仮説生成処理と、評価処理と、検出処理と、仮説生成制御処理とをコンピュータに行わせるためのものがある。ここで、検出候補抽出処理は、検出対象物の画像に写り込んでいる、該検出対象物の像を含む1以上の要素を、検出候補として該画像から抽出する処理である。仮説生成処理は、抽出した検出候補に検出候補種別テーブルに定義されている種別を対応付けることで得られる、該画像に写り込んでいる検出候補についての種別の組み合わせを、種別の仮説として複数生成する処理である。なお、検出候補種別テーブルには、該画像に写り込むことが推定される検出候補の種別が予め定義されている。評価処理は、生成した種別の仮説のうち所定の検出候補間条件を有しているものに対して、評価点テーブルに該所定の検出候補間条件に対応付けて設定されている評価点を与えることで、該生成した種別の仮説を評価する処理である。なお、評価点テーブルには、該画像における所定の種別の検出候補間での相互関係について推定される所定の検出候補間条件に対応付けて評価点が予め設定されている。検出処理は、該種別の仮説のうちの1つを該評価手段による評価結果に基づいて選択することで該画像に写り込んでいる検出候補の種別を特定し、特定された検出候補の種別に基づいて該検出対象物を検出する処理である。そして、仮説生成制御処理は、センサ部により得られた環境情報に基づいて該種別の仮説の生成を制御して、該種別の仮説のうち、該環境情報により表されている環境下では生じることがないと推定される仮説の生成を制限する処理である。なお、センサ部は、該画像を撮影したときの該検出対象物の周囲の環境を検知して該環境を表す環境情報を出力する。
本明細書で後述する対象物検出装置は、画像からの対象物の検出において、画像取得時の環境の違いに起因する精度低下を抑制しつつ、処理コストを低減させることができるという効果を奏する。
対象物の検出方法の一実施例の説明図である。 対象物検出装置の一実施例の機能構成図である。 検出候補種別テーブルのデータ例である。 種別構造定義テーブルのデータ例である。 評価点テーブルのデータ例である。 非存在ID定義テーブルのデータ例である。 コンピュータの構成の一例である。 対象物検出処理の処理内容を図解したフローチャート(その1)である。 対象物検出処理の処理内容を図解したフローチャート(その2)である。 背景差分法の説明図である。 検出候補第一抽出部及び検出候補第二抽出部による処理結果の一例である。 検出候補の合成処理の説明図である。 検出候補の組み合わせパターンの説明図である。 各検出候補の種別の組み合わせパターンの一覧の例である。 図11の各検出候補の種別の組み合わせパターンの一覧の例である。 仮説生成制限フラグを追加した各検出候補の種別の組み合わせパターンの一覧の例である。 仮説の評価合計ポイントを更に追加した各検出候補の種別の組み合わせパターンの一覧の例である。
まず図1について説明する。図1は、対象物の検出方法の一実施例を図解したものである。
この検出方法は、単一の入力画像(入力データ1)に対し、複数の異なる検出候補抽出処理2を施して得られた複数の検出候補を用いて前述した仮説を生成する仮説生成3の手順と、生成した仮説の評価を行って検出結果5を得る仮説評価4の手順とを有する。但し、仮説生成3の手順では、入力画像が撮影されたときの検出対象物の周囲の環境に基づき、検出結果として選ばれる可能性が極めて低いと推定される仮説の生成を制限する制御が行われる。また、仮説評価4の手順では、生成した仮説の評価を、入力画像が撮影されたときの検出対象物の周囲の環境に応じて調整する制御が行われる。
まず、仮説生成の制限について説明する。
詳しくは後述するが、仮説は、複数の検出候補の種別の組み合わせである。この組み合わせのパターン数は、検出候補の数の増加に対して指数的に増加する。このため、組み合わせのパターン数がわずかに増加するだけで、仮説生成3及び仮説評価4のどちらの手順も処理時間が膨大なものとなってしまう。そこで、図1に図解した検出方法では、まず、環境判別6の手順によって、入力画像が撮影されたときの検出対象物の周囲の環境を判別してその環境を表す環境情報を得る。次に、仮説限定情報生成7の手順により、この環境情報で表されている環境では起こり得ない(最終的な検出結果になり得ない)と推定される仮説の情報(仮説限定情報)を生成する。仮説生成3の手順はこの仮説限定情報に基づいて制御されて、当該仮説限定情報が示している仮説の生成が制限される。この結果、仮説生成3の手順による仮説の生成数が削減されるので、仮説生成3及び仮説評価4の手順の処理コストが削減される。また、所定の環境では起こり得ない仮説の生成が抑制されるので、最終的な検出結果の誤検出の可能性が低くなる。
次に、仮説の評価の調整について説明する。
仮説評価4の手順では、仮説生成3の手順で生成された仮説の各々について、予め定義しておいた実世界の知識である対象知識9を用いた評価を行う。対象知識9には、実世界で起こり得る様々な事象に対し、その起こり得る可能性に応じた評価点が予め設定されており、この評価点は、起こり得る可能性が高い事象ほど高く設定されている。仮説評価4の手順では、仮説生成3の手順で生成された仮説の各々について、その仮説において生じている事象に対応する評価点を対象知識9から取得し、得られた評価点の総計を、その仮説の評価結果とする。更に、図1に図解した検出方法では、評価調整8の手順によって仮説評価4の手順を制御し、環境判別6の手順によって得られる環境情報に応じた評価点の調整を行う。すなわち、評価調整8の手順では、環境情報で表されている環境で起こり得る可能性が高い事象が生じている仮説ほど評価点を高くし、その可能性が低い事象が生じている仮説ほど評価点を低くするように仮説評価4の手順を制御する。
次に、車両を検出対象物とし、道路を走行中の車両を撮影して得られた画像から当該車両の像を検出する対象物検出装置の実施例について説明する。
まず図2について説明する。図2は、この対象物検出装置の一実施例の機能構成図である。
図2において、カメラ11は、道路を走行中の車両を撮影して検出対象物(すなわち車両)の像を含む画像を取得する撮影装置である。
検出候補第一抽出部12−1及び検出候補第二抽出部12−2は、カメラ11が取得した画像に写り込んでいる、検出対象物である像を含む1以上の要素を、検出候補として画像から抽出する。本実施例では、検出候補第一抽出部12−1と検出候補第二抽出部12−2との2つの検出候補抽出部を有しているが、これらは、上述した検出候補の画像からの抽出を、後述の異なる手法を用いて行う。
検出候補種別テーブル13は、カメラ11により取得される画像に写り込むことが推定される検出候補の種別が予め定義されているテーブルである。
種別構造定義テーブル14は、検出候補種別テーブル13に定義されている検出候補の種別毎の構造上の特徴(形状や大きさなど)が予め定義されているテーブルである。
仮説生成部15は、カメラ11が取得した画像に写り込んでいる検出候補についての種別の組み合わせを、種別の仮説として複数生成する。なお、この種別の仮説は、検出候補種別テーブル13に定義されている種別と、種別構造定義テーブル14に定義されている各種別の構造上の特徴とを検出候補第一抽出部12−1及び検出候補第二抽出部12−2が抽出した検出候補に対応付けることで得られる。
評価点テーブル16は、カメラ11により取得される画像における所定の種別の検出候補間での相互関係について推定される所定の検出候補間条件に対応付けて、評価点が予め設定されているテーブルである。
評価部17は、仮説生成部15が生成した種別の仮説の評価を行う。この評価は、仮説生成部15が生成した種別の仮説のうち上述した所定の検出候補間条件を有しているものに対し、評価点テーブル16において当該所定の検出候補間条件に対応付けて設定されている評価点を与えることによって行われる。
検出部18は、仮説生成部15が生成した種別の仮説のうちの1つを評価部17による評価結果に基づいて選択することで、カメラ11により取得された画像に写り込んでいる検出候補の種別を特定する。検出部18によるこの選択は、仮説生成部15が生成した種別の仮説のうちで評価部17により与えられた評価点の合計が最大であるものを選択することにより行われる。そして、特定された種別が検出対象物の種別と一致する検出候補を検出し、この一致した検出候補を示す情報を、検出結果情報として出力する。この検出結果情報が、図2の対象物検出装置の出力、すなわち、カメラ11で撮影した画像内における検出対象物の像の検出結果である。
センサ部19は、前述した画像をカメラ11が撮影したときの検出対象物の周囲の環境を検知して、その環境を表す環境情報を出力する。なお、本実施例では、センサ部19が照度センサ19−1と降雨センサ19−2とを備えている。
照度センサ19−1及び降雨センサ19−2は、検出対象物の近傍(例えば、検出対象物である車両が走行する道路の脇)に設置される。ここで、照度センサ19−1は検出対象物の周囲の照度を検知し、降雨センサ19−2は検出対象物の周囲の降雨の有無を検知する。
センサ部19は、照度センサ19−1が検出した照度と所定の閾値とを比較し、当該照度が当該閾値以上であれば、「昼間」を表す情報を、環境情報として出力し、当該照度が当該閾値未満であれば、「夜間」を表す情報を、環境情報として出力する。また、センサ部19は、降雨センサ19−2が降雨を検知している間は「降雨有り」を表す情報を、環境情報として出力し、降雨を検知していない間は「降雨無し」を表す情報を、環境情報として出力する。
非存在ID定義テーブル20は、検出候補種別テーブル13に定義されている検出候補の種別のうち、所定の環境下では生じることがないと推定される種別が、当該所定の環境に対応付けられて予め定義されているテーブルである。
仮説生成制御部21は、センサ部19から出力される環境情報と、非存在ID定義テーブル20によりなされている定義とに基づいて仮説生成部15を制御して、当該環境情報により表されている環境下では生じることがないと推定される仮説の生成を制限する。
なお、本実施例では、センサ部19から出力された環境情報は評価部17にも入力される。前述した評価点テーブル16には、更に、カメラ11により取得される画像における所定の種別の検出候補と、センサ部19から出力される環境情報との関係について推定される所定の環境条件にも対応付けて評価点が予め設定されている。評価部17は、仮説生成部15が生成する種別の仮説のうちで上述した所定の環境条件を有しているものに対しても、評価点テーブル16においてその所定の環境条件に対応付けて設定されている評価点を与える。検出部18は、仮説生成部15が生成した種別の仮説のうちで評価部17により与えられた評価点の合計が最大であるものを選択することで、カメラ11により取得された画像に写り込んでいる検出候補の種別を特定して、検出対象物を検出する。
図2の対象物検出装置は以上のように構成されており、この構成によって、道路を走行中の車両を撮影して得られた画像から当該車両の像の検出を行う。
次に図3について説明する。図3は、検出候補種別テーブル13のデータ例である。
図3のデータ例において、「種別名」は、カメラ11が撮影する画像に写り込むことが推定される検出候補の種別であり、この例では、「車両」、「歩行者」、「反射」、及び「影」の各種別がこの項目で定義されている。また、「種別ID」は、これらの種別の各々に与えられている識別子であり、この例では、「T1」と「車両」とが対応付けられており、「T2」と「歩行者」、「T3」と「反射」、及び、「T4」と「影」が、それぞれ対応付けられている。
次に図4について説明する。図4は、種別構造定義テーブル14のデータ例である。
図4のデータ例において、「種別ID」は、検出候補の種別の各々に与えられている識別子であり、検出候補種別テーブル13の項目との対応関係を明らかにするものである。また、「特徴(形状等)」は、「種別ID」で特定される検出候補の種別についての構造上の特徴(形状や大きさなど)である。図4のデータ例では、「種別ID」が「T1」である検出候補(すなわち「車両」)は、「幅:2m,長さ:5m」という構造上の特徴を有していることが定義されている。また、「種別ID」が「T2」である検出候補(すなわち「歩行者」)は、「幅:0.6m,長さ:1.2m」という構造上の特徴を有していることが定義されている。
なお、本実施例では、検出候補種別テーブル13と種別構造定義テーブル14とを別個のテーブルとしている。この代わりに、例えば種別構造定義テーブル14における「特徴(形状等)」の項目を検出候補種別テーブル13に設けるようにして、検出候補種別テーブル13と種別構造定義テーブル14とを1つのテーブルに纏めてもよい。
次に図5について説明する。図5は、評価点テーブル16のデータ例である。
図5のデータ例において、「条件」は、画像における所定の種別の検出候補間での相互関係について推定される検出候補間条件、若しくは、当該画像における所定の種別の検出候補と環境情報との関係について推定される所定の環境条件を表している。
例えば、図5における「距離(T1,T1)<1m」は検出候補間条件である。図3の検出候補種別テーブル13の例において「T1」は「車両」と定義されている。従って、この検出候補間条件は、種別が「車両」である2つの検出候補間の距離が1メートル未満であるという条件を表している。
図5のデータ例において、「評価ポイント」は、「条件」の項目で表されている検出候補間条件・環境条件に対応付けて設定されている評価点である。本実施例においては、道路を走行中の2台の車両間の距離が1メートル未満になることは、カメラ11の撮影場所である道路を通行している車両では起こり得る可能性が低いという知識が実世界に存在しているものとする。図5のデータ例では、この知識を反映し、「距離(T1,T1)<1m」の検出候補間条件に対し、「−30」という、低い「評価ポイント」が設定されている。
また、図3の検出候補種別テーブル13の例において「T4」は「影」と定義されている。従って、図5における検出候補間条件「距離(T1,T4)<2m」は、種別が「車両」である検出候補と、種別が「影」である検出候補との距離が2メートル未満であるという条件を表している。本実施例においては、この条件を満たすことは、カメラ11の撮影場所である道路を通行している車両では起こり得る可能性が高いという知識が実世界に存在しているものとする。図5のデータ例では、この知識を反映し、「距離(T1,T4)<2m」の検出候補間条件に対し、「+10」という、高い「評価ポイント」が設定されている。
また、図5における「T3が存在&環境=雨」は環境条件である。図3の検出候補種別テーブル13の例において「T3」は「反射」と定義されている。この環境条件は、カメラ11で得られた画像内に種別が「反射」である検出候補が存在し、且つ、センサ部19が出力する環境情報が「降雨有り」を表している。本実施例においては、この条件を満たすことは、カメラ11の撮影場所である道路を通行している車両では起こり得る可能性が高いという知識が実世界に存在しているものとする。図4のデータ例では、この知識を反映し、「T3が存在&環境=雨」の環境条件に対し、「+20」という、極めて高い「評価ポイント」が設定されている。
次に図6について説明する。図6は、非存在ID定義テーブル20のデータ例である。
図6のデータ例において、「環境」は、センサ部19から出力される環境情報により表されている環境である。また、「非存在ID(種別ID)」は、「環境」で特定される環境下では生じることがないと推定される検出候補の種別の定義を、検出候補種別テーブル13に示されている種別IDを用いて表したものである。
図6の例では、環境情報により表されている環境が「夜間」である場合には、種別ID「T4」(すなわち「影」)が、生じることがないと推定される種別として定義されている。また、環境情報により表されている環境が「降雨無し」である場合には、種別ID「T3」(すなわち、濡れた路面での「反射」)が、生じることがないと推定される種別として定義されている。
次に図7について説明する。図7には、図2の対象物検出装置の一部として動作させることのできるコンピュータ30の構成例が図解されている。
このコンピュータ30は、MPU31、ROM32、RAM33、ハードディスク装置34、入力装置35、表示装置36、インタフェース装置37、及び記録媒体駆動装置38を備えている。なお、これらの構成要素はバス39を介して接続されており、MPU31の管理の下で各種のデータを相互に授受することができる。
MPU(Micro Processing Unit)31は、このコンピュータ30全体の動作を制御する演算処理装置である。
ROM(Read Only Memory)32は、所定の基本制御プログラムが予め記録されている読み出し専用半導体メモリである。MPU31は、この基本制御プログラムをコンピュータ30の起動時に読み出して実行することにより、このコンピュータ30の各構成要素の動作制御が可能になる。
RAM(Random Access Memory)33は、MPU31が各種の制御プログラムを実行する際に、必要に応じて作業用記憶領域として使用する、随時書き込み読み出し可能な半導体メモリである。
ハードディスク装置34は、MPU31によって実行される各種の制御プログラムや各種のデータを記憶しておく記憶装置である。なお、コンピュータ30を図2の対象物検出装置の一部として動作させる場合には、ハードディスク装置34に予め検出候補種別テーブル13、種別構造定義テーブル14、評価点テーブル16、及び非存在ID定義テーブル20を格納しておくようにする。
MPU31は、ハードディスク装置34に記憶されている所定の制御プログラムを読み出して実行することにより、後述する制御処理を行えるようになる。
入力装置35は、例えばキーボード装置やマウス装置であり、コンピュータ30の使用者により操作されると、その操作内容に対応付けられている使用者からの各種情報の入力を取得し、取得した入力情報をMPU31に送付する。
表示装置36は例えば液晶ディスプレイであり、MPU31から送付される表示データに応じて各種のテキストや画像を表示する。
インタフェース装置37は、このコンピュータ30に接続される各種機器との間での各種データの授受の管理を行う。より具体的には、インタフェース装置37は、カメラ11から送られてくる撮影画像信号のアナログ−デジタル変換や、照度センサ19−1及び降雨センサ19−2から送られてくる検知データの取り込みなどを行う。
記録媒体駆動装置38は、可搬型記録媒体40に記録されている各種の制御プログラムやデータの読み出しを行う装置である。MPU31は、可搬型記録媒体40に記録されている所定の制御プログラムを、記録媒体駆動装置38を介して読み出して実行することによって、後述する各種の制御処理を行うようにすることもできる。なお、可搬型記録媒体40としては、例えばCD−ROM(Compact Disc Read Only Memory)やDVD−ROM(Digital Versatile Disc Read Only Memory)などがある。
このように、コンピュータ30はごく標準的な構成を有するものである。このような構成を有するコンピュータ30を、検出候補第一抽出部12−1、検出候補第二抽出部12−2、仮説生成部15、評価部17、検出部18、センサ部19、及び仮説生成制御部21として機能させることができる。このためには、まず、後述する対象物検出処理の処理内容をMPU31に行わせるための制御プログラムを作成する。作成した制御プログラムはハードディスク装置34若しくは可搬型記録媒体40に予め格納しておく。そして、MPU31に所定の指示を与えてこの制御プログラムを読み出させて実行させる。こうすることで、MPU31が、図2の対象物検出装置における前述した各構成要素として機能するようになり、このコンピュータ30を用いて図2の対象物検出装置を構成することが可能になる。
次に図8A及び図8Bについて説明する。図8A及び図8Bは、図7のコンピュータ30におけるMPU31により行われる対象物検出処理の処理内容を図解したフローチャートである。
この対象物検出処理の実行が開始されると、まず、図8AのS101において、撮影画像の取得処理が行われる。この処理では、まず、カメラ11に所定の撮影指示を与えて、道路を走行中の車両を撮影させる処理が行われる。次に、得られた検出対象物(すなわち車両)の像を含む画像を、カメラ11からインタフェース装置37を介してコンピュータ30に取り込み、その画像を表している画像データをRAM33の所定の領域に格納する処理が行われる。また、この処理の実行時に照度センサ19−1及び降雨センサ19−2から出力されている検知データを、インタフェース装置37を介してコンピュータ30に取り込んでRAM33の所定の領域に格納する処理も行われる。
次に、S102では、検出候補の抽出処理が行われる。この処理は、図2における検出候補第一抽出部12−1及び検出候補第二抽出部12−2の機能を提供するための処理である。
このS102の処理では、まず、S101の処理によってRAM33に格納された画像データを読み出す処理が行われる。次に、読み出された画像データで表されている画像に写り込んでいる、検出対象物である像を含む1以上の要素を、検出候補として画像から抽出する処理が行われる。なお、本実施例では、検出候補の抽出を、2つの異なる手法、より具体的には、背景差分法とパターンマッチング法とを用いて行う。この2つの手法について説明する。
まず、背景差分法について、図9を参照しながら説明する。図9において、[1]の入力画像は、S101の処理によってカメラ11に撮影動作を行わせて得られた、道路を走行中の車両の画像である。また、[2]の背景画像は、カメラ11で予め撮影しておいた、背景のみ(本実施例では道路のみ)の画像である。背景差分法では、[1]の入力画像と[2]の背景画像との画素毎の差分を計算して、[3]の差分画像を得る。そして、この差分画像において、差分値の絶対値が所定の閾値以上である画素の集合からなる領域を、[1]の入力画像から抽出する。このようにして得られた領域に含まれる部分画像を、検出候補とする。
次にパターンマッチング法について説明する。パターンマッチング法では、まず、カメラ11での撮影画像に写ることが予想される要素の各々の形状パターンを、予め用意しておく。その上で、S101の処理によってカメラ11に撮影動作を行わせて得られた、道路を走行中の車両の画像(入力画像)に対し、エッジ抽出処理を施してエッジ画像を生成する。ここで、生成されたエッジ画像に、用意しておいた形状パターンと同一若しくは相似の形状が存在すれば、その形状で囲まれる領域を、入力画像から抽出する。このようにして得られた領域に含まれる部分画像を、検出候補とする。
なお、検出候補の抽出を、上述した背景差分法及びパターンマッチング法以外の手法を用いて行うようにしてもよい。また、本実施例では、2つの手法を用いて検出候補の抽出を行ったが、検出候補の抽出に用いる手法の数は任意でよい。
なお、本実施例では、図2の対象物検出装置において、検出候補第一抽出部12−1が背景差分法により検出候補の抽出を行うものとし、検出候補第二抽出部12−2がパターンマッチング法により検出候補の抽出を行うものとする。また、本実施例では、検出候補第一抽出部12−1及び検出候補第二抽出部12−2でも、抽出した検出候補の種別を独自に判別する処理を行うものとする。
ここで図10について説明する。図10は、検出候補第一抽出部12−1及び検出候補第二抽出部12−2による処理結果の一例である。
図10の例において、「[1]検出結果A」のテーブルは、検出候補第一抽出部12−1による処理結果を表しており、「[2]検出結果B」のテーブルは、検出候補第二抽出部12−2による処理結果を表している。
検出候補第一抽出部12−1及び検出候補第二抽出部12−2は、画像から抽出した検出候補の各々に対し、検出候補を個々に識別するための識別子(検出候補ID)を付与する。図10の例において、例えば、検出候補第一抽出部12−1が抽出した「S1−1」なる検出候補IDが付与された検出候補は、画像上の位置を特定するXY座標が(70,60)である位置に存在し、その種別が「T1」であると判別されていることを表している。
なお、本実施例では、検出候補の種別を、図3に例示した検出候補種別テーブル13において定義されている種別名を用いて表すものとする。従って、上述の例では、「S1−1」なる検出候補の種別「T1」は、「車両」であることを表している。
なお、図8AのS102の処理では、検出候補の抽出後に、図10に例示した検出結果のテーブルをRAM33の所定の領域に格納する処理も行われる。
図8Aの説明を進める。S102の処理に続くS103では、検出候補の合成処理が行われる。この処理は、S102の検出候補の抽出処理で異なる手法により抽出された検出候補を合成する処理であり、より具体的には、異なる手法により抽出された検出候補を、カメラ11が取得した画像上に配置する処理である。この合成処理について、図11を用いて説明する。
図11において、「[1]検出結果A」及び「[2]検出結果B」の画像は、図10のテーブルに示されている検出候補の位置を、カメラ11が取得した画像上に示したものである。すなわち、「[1]検出結果A」の画像は、座標(70,60)及び(120,100)の位置にそれぞれ点S1−1及びS1−2を配置して、これらの位置から検出候補「S1−1」及び「S1−2」を抽出したことを表している。また、「[2]検出結果B」の画像は、座標(70,60)の位置に点S2−1を配置して、この位置から検出候補「S2−1」を抽出したことを表している。
S103の合成処理では、この「[1]検出結果A」及び「[2]検出結果B」の画像にそれぞれ付した点S1−1及びS1−2並びにS2−1を、1枚の画像上に重ねて配置する処理を行う。図11における「[3]検出結果の合成結果」の画像は、この合成処理により得られるものである。
なお、S102の検出候補の抽出処理において、1つの手法のみで検出候補の抽出を行う場合には、このS103の合成処理は不要であり、抽出処理の処理結果をそのまま用いて以降の処理を進める。
図8Aの説明を進める。なお、これより説明するS104からS109までの処理のうち、S105及びS107の処理はそれぞれ図2におけるセンサ部19及び仮説生成制御部21の機能を提供するための処理であり、その他の処理は仮説生成部15の機能を提供するための処理である。
まず、S103の処理に続くS104では、組み合わせパターンの一覧を生成する処理が行われる。この処理では、S102及びS103の処理により得られた、単一の画像から抽出された各検出候補に対し、検出候補種別テーブル13に定義されている種別を総当りで割り当てて、当該画像における各検出候補の種別の組み合わせパターンの一覧を生成する。この各検出候補の種別の組み合わせパターンについて、図12を用いて説明する。
例えば、図12に表されている「検出結果」の画像のように、カメラ11で取得された画像から、検出候補Sa及びSbが抽出された場合を考える。この場合において、検出候補Sbの種別は、[1]パターンAのように「車両」(普通車)である検出候補Saの「影」である場合が想定でき、[2]パターンBのように検出候補Sbが「車両」(普通車)である場合も想定できる。また、検出候補Sbの種別は、[3]パターンCのように検出候補Sbが「歩行者」である場合も想定できる。更には、検出候補Sbの種別は、検出候補種別テーブル13に定義されている他のものである場合も想定できる。更には、図12のパターンA、B、及びCでは、検出候補Saの種別は全て「車両」(普通車)としているが、この検出候補Saの種別も、検出候補種別テーブル13に定義されている他のものである場合も想定できる。
このS104の処理においては、特に制限を加えることなく、単一の画像から抽出された各検出候補に対し、検出候補種別テーブル13に定義されている種別を総当りで単純に割り当てて、想定し得る各検出候補の種別の組み合わせパターンの一覧を生成する。図13は、このS104の処理により生成される、各検出候補の種別の組み合わせパターンの一覧の例である。
図13の一覧は、図10及び図11に例示した3つの検出候補S1−1及びS1−2並びにS2−1に対し、図3に例示した検出候補種別テーブル13に定義されている4種類の種別(種別ID)を用いて生成した一覧である。なお、図13の例では、その一覧の一部(組み合わせパターンH1〜H5)のみを表しているが、実際には、この場合の組み合わせパターンは、H1からH64までの計64通り(=4×4×4)生成される。
なお、S104の処理では、上述のようにして作成した組み合わせパターンの一覧のテーブルを、RAM33の所定の領域に格納する処理も行われる。
S104の処理に続くS105では環境情報の取得処理が行われる。この処理では、まず、S101の処理においてRAM33に格納しておいた、照度センサ19−1及び降雨センサ19−2の検知データを読み出す。次に、照度センサ19−1の検知データと所定の閾値とを比較する。そして、検知データで表されている照度が当該閾値以上であれば「昼間」を表す情報を環境情報として生成し、当該照度が当該閾値未満であれば「夜間」を表す情報を環境情報として生成する。更に、降雨センサ19−2の検知データを調べ、降雨があることを当該検知データが表しているときは、「降雨有り」を表す情報を環境情報として生成し、当該検知データが降雨のないことを表しているときは、「降雨無し」を表す情報を環境情報として生成する。以上のようにして生成した環境情報は、RAM33の所定の領域に格納しておく。
次に、S106では、S104の処理でRAM33に格納した各検出候補の種別の組み合わせパターンの一覧のテーブルから、次のS107の判定処理を行っていない組み合わせパターンを1つ取り出す処理が行われる。
次に、S107では、非存在ID定義テーブル20において、S105の処理で取得した環境情報に対応付けられて定義されている種別IDが、直近に行われたS106の処理で取り出された組み合わせパターンに含まれているか否かを判定する処理が行われる。ここで、そのような種別IDが組み合わせパターンに含まれていると判定されたとき(判定結果がYesのとき)には、S109に処理を進める。一方、そのような種別IDが組み合わせパターンに含まれていないと判定されたとき(判定結果がNoのとき)には、S108に処理を進める。
S108では、直近に行われたS106の処理により取り出され、続くS107の判定処理の結果がNoであった組み合わせパターンに対し、種別構造定義テーブル14に基づいた仮説を生成する処理が行われる。
S109では、S104の処理でRAM33に格納した各検出候補の種別の組み合わせパターンの一覧のテーブルに、S107の判定処理を行っていない組み合わせパターンが残っているか否かを判定する処理が行われる。ここで、未処理の組み合わせパターンが残っていると判定されたとき(判定結果がYesのとき)には、S106に処理を戻し、残っている未処理の組み合わせパターンについてS106以降の処理が行われる。一方、全ての組み合わせパターンについてS107の判定処理を終えていたとき(判定結果がNoのとき)には、S110(図8B)に処理を進める。
以上のS106からS109までの処理を、前述した図6の非存在ID定義テーブル20及び図4の種別構造定義テーブル14のデータ例を用いて更に説明する。
まず、図6のデータ例では、環境情報により表されている環境が「夜間」である場合には、種別ID「T4」(すなわち「影」)が、生じることがないと推定される種別として定義されている。また、環境情報により表されている環境が「降雨無し」である場合には、種別ID「T3」(すなわち、濡れた路面での「反射」)が、生じることがないと推定される種別として定義されている。例えば、S105の処理により、「夜間」且つ「降雨有り」の環境情報が得られた場合を想定する。この場合、図12に例示した非存在ID定義を用いると、種別ID「T4」(すなわち「影」)が、非存在IDとして設定される。ここで、図11に例示した各検出候補の種別の組み合わせパターンの一覧において、種別ID「T4」を含むものは、パターンH4であり、パターンH1、H2、H3、及びH5は、種別ID「T4」を含まない。従って、S107の判定処理は、パターンH4については判定結果がYesとなってS108の処理をスキップさせる一方、パターンH1、H2、H3、及びH5については判定結果がNoとなって次のS108の処理を行わせる。
ここで図14について説明する。図14は、図13に例示した組み合わせパターンの一覧に、仮説生成制限フラグを追加したテーブルである。
仮説生成制限フラグは、S106からS109までの処理のループにおいて繰り返し行われるS107の判定処理の結果を示すフラグである。つまり、S107の判定処理の結果がYesとなったパターンH4については仮説生成制限フラグを「1」とし、次のS108の処理で行われる仮説の生成を行わないことを表している。その一方、S107の判定処理の結果がNoとなった他のパターンH1、H2、H3、及びH5については仮説生成制限フラグを「0」とし、次のS108の処理で行われる仮説の生成を行うことを表している。
次に図15について説明する。図15は、S108の処理による仮説の生成例である。この例は、図4の種別構造定義テーブル14のデータ例を用いて、図11の「[3]検出結果の合成結果」の画像に対し仮設の生成を行ったものである。
まず、図15における「仮説H1」の画像について説明する。
図14に例示した組み合わせパターンの一覧において、パターンH1は、検出候補S1−1、S1−2、及びS2−1のいずれも種別がT1(すなわち「車両」)である。ここで、図4の種別構造定義テーブル14を参照すると、種別T1である検出候補の特徴は、「幅:2m,長さ:5m」と定義されている。そこで、S108の処理では、図11の上述の画像における点S1−1を中心として、「幅:2m,長さ:5m」の矩形物体に相当する像を画像上に配置する。なお、物体の像の画像上での大きさは、例えば、予め実測しておいた物体の大きさとその像の画像上での大きさとの倍率を用いて、検出候補の特徴を変換して求めるようにする。
また、S108の処理では、検出候補S1−2及びS2−1についても同様の処理が行われる。すなわち、図11の上述の画像における点S1−2及びS2−1を中心として、「幅:2m,長さ:5m」の矩形物体に相当する像を画像上にそれぞれ配置する。S108の処理はこのようにして、パターンH1における検出候補S1−1、S1−2、及びS2−1に構造上の特徴を付加して仮説の生成を行い、「仮説H1」の画像を得る。得られた画像はRAM33の所定の領域に格納しておく。
次に、図15における「仮説H2」の画像について説明する。
図14に例示した組み合わせパターンの一覧において、パターンH2は、検出候補S1−1及びS1−2は種別がT1(すなわち「車両」)であり、検出候補S2−1は種別がT2(すなわち「歩行者」)である。図4の種別構造定義テーブル14を参照すると、種別T1である検出候補の特徴は、「幅:2m,長さ:5m」と定義されており、種別T2である検出候補の特徴は、「幅:0.6m,長さ:1.2m」と定義されている。
そこで、S108の処理では、図11の上述の画像における点S1−1及びS1−2を中心として、「幅:2m,長さ:5m」の矩形物体に相当する像を画像上にそれぞれ配置する。また、図11の上述の画像における点S2−1については、その位置を中心として、「幅:0.6m,長さ:1.2m」の矩形物体に相当する像を画像上にそれぞれ配置する。このようにしてパターンH2についての仮説の生成が行われて「仮説H2」の画像が得られる。得られた画像はRAM33の所定の領域に格納しておく。
S108の処理では、各検出候補の種別の組み合わせパターンに対し、以上のようにして仮説の生成を行う。但し、図14の一覧のうち、パターンH4については、S107の判定処理の結果がYesとなる(仮説生成制限フラグが「1」である)ので、S108の処理は行われない。従って「仮説H4」の画像の生成は行われない。このようにして「仮説H4」の画像の生成を抑制することで、対象物検出処理の処理コストが削減される。
次に、図8Bについて説明する。
図8AのS109の判定処理の結果がNoとなると、S110の処理が行われる。なお、これより説明するS110からS112までの処理は、図2における評価部17の機能を提供するための処理である。
S110では、S108の処理でRAM33に格納した仮説の画像から、次のS111の評価点算出の処理を行っていない画像を1つ取り出す処理が行われる。
次に、S111では、S110の処理で取り出した仮説の画像とS105の処理で取得した環境情報とに対し、評価点テーブル16に定義されている検出候補間条件・環境条件を適用し、適用できた条件に対応付けられている評価点を合計する処理が行われる。このS111の処理を、図5の評価点テーブル16のデータ例を用いて説明する。
まず、仮説の画像(構造上の特徴が各検出候補に付加された画像)から、図5の評価点テーブル16に定義されている検出候補間条件「距離(T1,T1)<1m」、すなわち種別が「車両」である2つの検出候補間の距離が1メートル未満という条件を探索する。ここで、この条件が仮説の画像に含まれていた場合には、当該仮説の画像に対し、図5の評価点テーブル16において当該条件に対応付けて設定されている、低い評価点「−30」を与える。
続いて、仮説の画像から、図5の評価点テーブル16に定義されている検出候補間条件「距離(T1,T4)<2m」、すなわち、種別が「車両」である検出候補と、種別が「影」である検出候補との距離が2メートル未満であるという条件を探索する。ここで、この条件が仮説の画像に含まれていた場合には、当該仮説の画像に対し、図5の評価点テーブル16において当該条件に対応付けて設定されている評価点「+10」を与える。
更に続いて、この仮説の画像とS105の処理で取得した環境情報とから、図5の評価点テーブル16に定義されている検出候補間条件「T3が存在&環境=雨」を探索する。すなわち、種別が「反射」である検出候補が存在するという条件を探索し、加えて、RAM33に格納しておいた環境情報が「降雨有り」を表しているか否かを判定する。ここで、この環境条件を満たしていた場合には、当該仮説の画像に対し、図5の評価点テーブル16において当該条件に対応付けて設定されている、高い評価点「+20」を与える。
S111の処理では、処理対象の仮設の画像に対し、以上のようにして評価点を与え、そして、その評価点の合計値を計算する処理が行われる。この評価値の合計値は、例えば図16のように、仮説生成制限フラグを追加しておいた組み合わせパターンの一覧に、各パターンに基づいて生成した仮説の画像についての当該合計値を対応付けてRAM33に格納しておくようにする。
次に、S112では、S108の処理でRAM33に格納した仮説の画像に、S111の評価点算出の処理を行っていない画像が残っているか否かを判定する処理が行われる。ここで、未処理の仮説の画像が残っていると判定されたとき(判定結果がYesのとき)には、S110に処理を戻し、残っている未処理の仮説の画像についてS110以降の処理が行われる。一方、全ての仮説の画像についてS111の処理を終えていたとき(判定結果がNoのとき)には、S113に処理を進める。
これより説明するS113及びS114の処理は、図2における検出部18の機能を提供するための処理である。
まず、S113では、S111の評価点算出の処理において、評価点の合計が最大であった仮説の画像に対応する検出候補の組み合わせパターンを選択する処理が行われる。図16のデータ例では、「合計評価ポイント」が最大の「+200」である、パターンH3が選択される。
次に、S114では、検出結果情報の出力処理が行われる。この処理では、S113の処理により選択された組み合わせパターンと共に、当該パターンに対応する仮説の画像、及び、当該パターンにおいて、予め指定されていた検出対象物(例えば「車両」)と種別IDが一致している検出候補IDとが出力される。これらの検出結果情報は、例えば表示装置36に表示して出力される。このS114の処理が完了すると、図8A及び図8Bに図解した対象物検出処理が終了する。
上述した対象物検出処理をMPU31が行うことで、カメラ11が撮影して取得した画像からの検出対象物の検出動作を、図7のコンピュータ30で行うことが可能になる。
なお、以上の説明では、車両を検出対象物とし、道路を走行中の車両を撮影して得られた画像から当該車両の像を検出する対象物検出装置の実施例として、図2の対象物検出装置を説明したが、この対象物検出装置は、他のものを検出することもできる。例えば、様々な環境下での撮影により得た人の目の画像から瞳孔を検出して瞼による影の誤検出を減らす用途に、この対象物検出装置を使用することもできる。
1 入力データ
2 検出候補抽出処理
3 仮説生成
4 仮説評価
5 検出結果
6 環境判別
7 仮説限定情報生成
8 評価調整
9 対象知識
11 カメラ
12−1 検出候補第一抽出部
12−2 検出候補第二抽出部
13 検出候補種別テーブル
14 種別構造定義テーブル
15 仮説生成部
16 評価点テーブル
17 評価部
18 検出部
19 センサ部
19−1 照度センサ
19−2 降雨センサ
20 非存在ID定義テーブル
21 仮説生成制御部
30 コンピュータ
31 MPU
32 ROM
33 RAM
34 ハードディスク装置
35 入力装置
36 表示装置
37 インタフェース装置
38 記録媒体駆動装置
39 バス
40 可搬型記録媒体

Claims (7)

  1. 検出対象物の画像に写り込んでいる、該検出対象物の像を含む1以上の要素を、検出候補として該画像から抽出する検出候補抽出手段と、
    該画像に写り込むことが推定される検出候補の種別が予め定義されている検出候補種別テーブルと、
    該検出候補種別テーブルに定義されている種別を該検出候補抽出手段が抽出した検出候補に対応付けることで得られる、該画像に写り込んでいる検出候補についての種別の組み合わせを、種別の仮説として複数生成する仮説生成手段と、
    該画像における所定の種別の検出候補間での相互関係について推定される所定の検出候補間条件に対応付けて、評価点が予め設定されている評価点テーブルと、
    該種別の仮説のうち該所定の検出候補間条件を有しているものに対し、該評価点テーブルにおいて該所定の検出候補間条件に対応付けて設定されている評価点を与えることで、該種別の仮説を評価する評価手段と、
    該種別の仮説のうちの1つを該評価手段による評価結果に基づいて選択することで該画像に写り込んでいる検出候補の種別を特定し、特定された検出候補の種別に基づいて該検出対象物を検出する検出手段と、
    該画像を撮影したときの該検出対象物の周囲の環境を検知して該環境を表す環境情報を出力するセンサ部と、
    該環境情報に基づいて該仮説生成手段を制御して、該種別の仮説のうち、該環境情報により表されている環境下では生じることがないと推定される仮説の生成を制限する仮説生成制御手段と、
    を有することを特徴とする対象物検出装置。
  2. 該検出対象物は車両であって、該画像は道路上を走行中の該車両の画像であり、
    該検出候補種別テーブルには、該検出候補の種別の1つとして、影が定義されており、
    該センサ部は、該環境の明るさを検知して昼間と夜間との区別を示す情報を該環境情報として出力し、
    該仮説生成制御手段は、該環境情報が夜間を示している場合には、該仮説生成手段を制御して、該種別の仮説のうち、該画像に写り込んでいる検出候補についての種別が夜である仮説の生成を制限する、
    ことを特徴とする請求項1に記載の対象物検出装置。
  3. 該検出対象物は車両であって、該画像は道路上を走行中の該車両の画像であり、
    該検出候補種別テーブルには、該検出候補の種別の1つとして、反射光が定義されており、
    該センサ部は、該環境における降水を検知して降雨の有無を示す情報を該環境情報として出力し、
    該仮説生成制御手段は、該環境情報が降雨の無いことを示している場合には、該仮説生成手段を制御して、該種別の仮説のうち、該画像に写り込んでいる検出候補についての種別が反射光である仮説の生成を制限する、
    ことを特徴とする請求項1に記載の対象物検出装置。
  4. 該評価点テーブルには、更に、該画像における所定の種別の検出候補と該環境情報との関係について推定される所定の環境条件に対応付けて評価点が予め設定されており、
    該評価手段は、該種別の仮説のうちで該所定の環境条件を有しているものに対しても、該評価点テーブルにおいて該所定の環境条件に対応付けて設定されている評価点を与える、
    ことを特徴とする請求項1から3のうちのいずれか1項に記載の対象物検出装置。
  5. 該検出対象物は車両であって、該画像は道路上を走行中の該車両の画像であり、
    該検出候補種別テーブルには、該検出候補の種別の1つとして、反射光が定義されており、
    該センサ部は、該環境における降水を検知して降雨の有無を示す情報を該環境情報として出力し、
    該評価点テーブルには、種別が反射光である検出候補と降雨有りの場合を示している環境情報との関係に対応付けて正の評価点が予め設定されており、
    該検出手段による選択では、該種別の仮説のうちで該評価手段により与えられた評価点の合計が最大であるものを選択する、
    ことを特徴とする請求項4に記載の対象物検出装置。
  6. 検出対象物の画像に写り込んでいる、該検出対象物の像を含む1以上の要素を、検出候補として該画像から抽出し、
    該画像に写り込むことが推定される検出候補の種別が予め定義されている検出候補種別テーブルに定義されている種別を、抽出した検出候補に対応付けることで得られる、該画像に写り込んでいる検出候補についての種別の組み合わせを、種別の仮説として複数生成し、
    該画像における所定の種別の検出候補間での相互関係について推定される所定の検出候補間条件に対応付けて評価点が予め設定されている評価点テーブルにおいて該所定の検出候補間条件に対応付けて設定されている評価点を、生成した種別の仮説のうち該所定の検出候補間条件を有しているものに対して与えることで、該生成した種別の仮説を評価し、
    該種別の仮説のうちの1つを該評価の結果に基づいて選択することで該画像に写り込んでいる検出候補の種別を特定し、特定された検出候補の種別に基づいて該検出対象物を検出し、
    該画像を撮影したときの該検出対象物の周囲の環境を検知して該環境を表す環境情報を出力するセンサ部により得られた該環境情報に基づいて該種別の仮説の生成を制御して、該種別の仮説のうち、該環境情報により表されている環境下では生じることがないと推定される仮説の生成を制限する、
    ことを特徴とする対象物検出方法。
  7. 検出対象物の画像に写り込んでいる、該検出対象物の像を含む1以上の要素を、検出候補として該画像から抽出する検出候補抽出処理と、
    該画像に写り込むことが推定される検出候補の種別が予め定義されている検出候補種別テーブルに定義されている種別を、抽出した検出候補に対応付けることで得られる、該画像に写り込んでいる検出候補についての種別の組み合わせを、種別の仮説として複数生成する仮説生成処理と、
    該画像における所定の種別の検出候補間での相互関係について推定される所定の検出候補間条件に対応付けて評価点が予め設定されている評価点テーブルにおいて該所定の検出候補間条件に対応付けて設定されている評価点を、生成した種別の仮説のうち該所定の検出候補間条件を有しているものに対して与えることで、該生成した種別の仮説を評価する評価処理と、
    該種別の仮説のうちの1つを該評価手段による評価結果に基づいて選択することで該画像に写り込んでいる検出候補の種別を特定し、特定された検出候補の種別に基づいて該検出対象物を検出する検出処理と、
    該画像を撮影したときの該検出対象物の周囲の環境を検知して該環境を表す環境情報を出力するセンサ部により得られた該環境情報に基づいて該種別の仮説の生成を制御して、該種別の仮説のうち、該環境情報により表されている環境下では生じることがないと推定される仮説の生成を制限する仮説生成制御処理と、
    をコンピュータに行わせるためのプログラム。
JP2010103765A 2010-04-28 2010-04-28 対象物検出装置、対象物検出方法、及びプログラム Expired - Fee Related JP5423566B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010103765A JP5423566B2 (ja) 2010-04-28 2010-04-28 対象物検出装置、対象物検出方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010103765A JP5423566B2 (ja) 2010-04-28 2010-04-28 対象物検出装置、対象物検出方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2011232999A JP2011232999A (ja) 2011-11-17
JP5423566B2 true JP5423566B2 (ja) 2014-02-19

Family

ID=45322250

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010103765A Expired - Fee Related JP5423566B2 (ja) 2010-04-28 2010-04-28 対象物検出装置、対象物検出方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP5423566B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6453571B2 (ja) * 2014-07-24 2019-01-16 株式会社Soken 立体物認識装置
KR102662778B1 (ko) * 2023-08-16 2024-04-30 (주)오로스 테크놀로지 오버레이 계측 장치의 타겟 선정 방법 및 오버레이 계측 장치의 타겟 선정 시스템

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3632088B2 (ja) * 2002-03-29 2005-03-23 国土交通省国土技術政策総合研究所長 車両検出方法
JP4640155B2 (ja) * 2005-12-15 2011-03-02 ソニー株式会社 画像処理装置および方法、並びにプログラム

Also Published As

Publication number Publication date
JP2011232999A (ja) 2011-11-17

Similar Documents

Publication Publication Date Title
CN111080645B (zh) 基于生成式对抗网络的遥感图像半监督语义分割方法
Kennedy et al. Detecting trends in forest disturbance and recovery using yearly Landsat time series: 1. LandTrendr—Temporal segmentation algorithms
Lalonde et al. Estimating the natural illumination conditions from a single outdoor image
CN108062525B (zh) 一种基于手部区域预测的深度学习手部检测方法
Peng et al. Model and context‐driven building extraction in dense urban aerial images
WO2014156425A1 (ja) 領域分割方法および検査装置
JP2008046903A (ja) 対象個数検出装置および対象個数検出方法
JP2009265827A (ja) 対象物検出装置及び方法、対象物検出システム、プログラム
JP2008286725A (ja) 人物検出装置および方法
CN102789578A (zh) 基于多源目标特征支持的红外遥感图像变化检测方法
CN116543241B (zh) 泄露气体云团的检测方法、装置、存储介质和电子设备
CN115908988B (zh) 一种缺陷检测模型生成方法、装置、设备以及存储介质
CN113033385A (zh) 一种基于深度学习的违章建筑遥感识别方法及系统
CN110866931B (zh) 图像分割模型训练方法及基于分类的强化图像分割方法
JP5423566B2 (ja) 対象物検出装置、対象物検出方法、及びプログラム
JP2011209896A (ja) 障害物検知装置、障害物検知方法及び障害物検知プログラム
JP2012200156A (ja) 細胞の追跡処理方法
CN117078608A (zh) 一种基于双掩码引导的高反光皮革表面缺陷检测方法
JP4918615B2 (ja) 対象個数検出装置および対象個数検出方法
CN115841609A (zh) 基于红外热图像分析的石化区火源检测方法、系统及应用
JP7060107B2 (ja) 環境類似度表示装置、環境類似度表示方法および環境類似度表示アルゴリズム
Abdusalomov et al. Review on various widely used shadow detection methods to identify a shadow from images
Tybusch et al. Color-based and recursive fiducial marker for augmented reality
JP2009205695A (ja) 対象個数検出装置および対象個数検出方法
Lin et al. Smoking Behavior Detection Based on Hand Trajectory Tracking and Mouth Saturation Changes

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131025

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131029

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131111

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5423566

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees