JP4483067B2 - Target object extraction image processing device - Google Patents

Target object extraction image processing device Download PDF

Info

Publication number
JP4483067B2
JP4483067B2 JP2000323565A JP2000323565A JP4483067B2 JP 4483067 B2 JP4483067 B2 JP 4483067B2 JP 2000323565 A JP2000323565 A JP 2000323565A JP 2000323565 A JP2000323565 A JP 2000323565A JP 4483067 B2 JP4483067 B2 JP 4483067B2
Authority
JP
Japan
Prior art keywords
illumination
target object
image
unit
optimum
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000323565A
Other languages
Japanese (ja)
Other versions
JP2002133400A (en
Inventor
孝弘 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2000323565A priority Critical patent/JP4483067B2/en
Publication of JP2002133400A publication Critical patent/JP2002133400A/en
Application granted granted Critical
Publication of JP4483067B2 publication Critical patent/JP4483067B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、対象物体抽出画像処理装置に関するものである。
【0002】
【従来の技術】
従来、画像から対象物体を抽出するための対象物体抽出画像処理装置においては、一般に、照明部に近い物体が照明部から遠い物体より明るくなるという特性を利用するようになっている(特開平9−259278号公報参照)。
【0003】
図2は従来の対象物体抽出画像処理装置における背景と対象物体との位置関係を示す図である。
【0004】
図に示されるように、背景12より撮像部13に近い位置に対象物体11を配設し、照明部14を点灯することによって対象物体11及び背景12を照らし、照明部14の近くにある撮像部13によって対象物体11及び背景12を撮影し、照明部14によって照らされた対象物体11の明るさと、照明部14によって照らされた背景12の明るさとを比較することによって、対象物体11を抽出するようにしている。
【0005】
そのために、例えば、照明部14を点灯して対象物体11及び背景12を撮影することによって得られた照明画像、並びに照明部14を消灯して対象物体11及び背景12を撮影することによって得られた無照明画像に基づいて、差分処理及び閾(しきい)値処理から成る差分・閾値処理を行うことによって、照明部14を消灯した状態と点灯した状態とで明るさが大きく変化した画像上の領域が対象物体11として抽出される。
【0006】
【発明が解決しようとする課題】
しかしながら、前記従来の対象物体抽出画像処理装置においては、対象物体抽出画像処理装置の制御方法、差分・閾値処理において設定された閾値、差分・閾値処理が行われた後の対象物体11の抽出方法等によって、どのような環境においても常に安定して、かつ、高速に対象物体11を抽出することができるとは限らない。
【0007】
また、ある照明の強度で対象物体11を照らして撮影した場合、対象物体11が撮像部13から遠い場合は対象物体11は暗く写り、対象物体11が撮像部13から近い場合は対象物体11は明るく写ることになる。したがって、差分・閾値処理を行うと、例えば、対象物体11が暗く写る場合、対象物体11の一部又は全部を抽出することができなくなってしまう。
【0008】
そこで、照明画像と無照明画像との差分・閾値処理を行って得られた結果に基づいて、照明の強度を制御するようにしている。
【0009】
ところが、このような制御を行うと、照明の強度が不適切である場合、対象物体11を抽出するまでに照明画像及び無照明画像の撮影、並びに差分・閾値処理を少なくとも2回行う必要が生じ、処理時間が長くなってしまう。
【0010】
また、対象物体11が背景12に近い場合、照明部14を点灯すると背景12もある程度明るくなるので、差分・閾値処理において適切な閾値が設定されていないと、対象物体11を正しく抽出することができない。例えば、閾値が低い場合、明るく変化した背景部分も対象物体11として抽出されてしまい、一方、閾値が高い場合、対象物体11の一部又は全部を抽出することができない。
【0011】
本発明は、前記従来の対象物体抽出画像処理装置の問題点を解決して、常に安定して、かつ、高速で対象物体を抽出することができる対象物体抽出画像処理装置を提供することを目的とする。
【0012】
【課題を解決するための手段】
そのために、本発明の対象物体抽出画像処理装置においては、対象物体及び背景を照らす照明部と、前記対象物体及び背景を撮影する撮像部と、該撮像部から前記対象物体までの距離を測定する測距部と、前記対象物体及び背景を照らしたときの最適な照明の強度が前記撮像部から前記対象物体までの距離ごとに記録された最適照明パラメータ記録手段と、前記測距部によって測定された距離に基づいて前記最適照明パラメータ記録手段から最適な照明の強度を読み出し、前記照明部によって、最適な照明の強度で対象物体及び背景を照らすか、又は最適な照明の強度より低い照明の強度で対象物体及び背景を照らすか、若しくは照明部を消灯する照明制御部と、照明部によって最適な照明の強度で照らして対象物体及び背景を撮影した画像である照明画像、並びに照明部によって最適な照明の強度より低い照明の強度で照らすか、又は照明部を消灯して対象物体及び背景を撮影した画像である無照明画像を画像記録部に記録する撮影制御部と、前記照明画像における背景の輝度と、無照明画像における背景の輝度との差に基づいて最適な閾値を算出し、最適閾値記録手段に記録する最適閾値算出処理手段と、前記照明画像と無照明画像との差分画像を生成する差分処理、及び前記差分画像と前記最適な閾値とを比較することによって対象物体候補領域の画像を生成する閾値処理を行う差分・閾値処理部と、前記対象物体候補領域の画像及び対象物体のモデルに基づいて対象物体を抽出する対象物体抽出部とを有する。
【0013】
【発明の実施の形態】
以下、本発明の実施の形態について図面を参照しながら詳細に説明する。
【0014】
図1は本発明の第1の実施の形態における対象物体抽出画像処理装置のブロック図である。
【0015】
図において、10は対象物体抽出画像処理装置、11は対象物体、12は背景、201は前記対象物体11及び背景12を照らす照明部、202は該照明部201に近い位置に配設され、前記対象物体11及び背景12を撮影する撮像部、203は該撮像部202から前記対象物体11までの距離を測定する測距部、21は前記照明部201の照明の強度(明るさ)を制御する照明制御部、22は前記撮像部202の制御を行う撮像制御部、23は前記測距部203の制御を行う測距制御部である。そして、前記照明制御部21、撮像制御部22及び測距制御部23によって機器制御部204が構成される。
【0016】
また、205は前記測距部203によって測定された撮像部202から対象物体11までの距離が記録される距離記録部、206は前記照明制御部21によって制御された照明の強度が記録される照明パラメータ記録部、207は前記撮像部202によって撮像された少なくとも2枚分の画像が記録される画像記録部である。
【0017】
そして、208は前記画像記録部207に記録された画像、照明パラメータ記録部206に記録された照明の強度、及び最適閾値記録手段としての最適閾値データベース25から読み出された最適な閾値に基づいて差分・閾値処理を行う差分・閾値処理部、209は該差分・閾値処理部208による差分・閾値処理の結果、及び対象物体モデルデータベース210から読み出された対象物体11のモデルに基づいて対象物体11を抽出し、抽出結果を出力する対象物体抽出部であり、前記対象物体モデルデータベース210には抽出すべき対象物体11のモデルデータが記録される。
【0018】
また、211は最適パラメータデータベースであり、該最適パラメータデータベース211は、撮像部202から対象物体11までの距離に対する第1の最適パラメータとしての最適な照明の強度が記録される最適照明パラメータ記録手段としての最適照明パラメータデータベース24、及び差分・閾値処理部208で使用される各照明パラメータに対する第2の最適パラメータとしての最適な閾値が記録される最適閾値データベース25から成り、最適な照明の強度は照明制御部21に、最適な閾値は差分・閾値処理部208に送られる。そして、212は最適な照明の強度及び最適な閾値を算出する最適パラメータ算出部、213は該最適パラメータ算出部212において異常値が検出された場合に警告を出力する警告出力部である。
【0019】
次に、前記構成の対象物体抽出画像処理装置10の動作について説明する。
【0020】
本実施の形態における対象物体抽出画像処理装置10の動作には、パラメータデータ設定フェーズ及び対象物体抽出フェーズの二つのフェーズ(処理の流れ)がある。
【0021】
前記パラメータデータ設定フェーズは、最適な照明の強度及び最適な閾値を記録する二つのデータベースを設定するためのものであり、対象物体抽出フェーズの前に行う必要がある。
【0022】
また、対象物体抽出フェーズは、画像から対象物体11を抽出するためのものであり、対象物体抽出画像処理装置10における主たるフェーズになる。なお、パラメータデータ設定フェーズについては、撮影環境及び対象物体11に対して既に設定された最適パラメータデータベース211を利用することができる場合、必ずしも行う必要はない。
【0023】
前記対象物体抽出フェーズにおいては、まず、測距部203によって撮像部202から対象物体11までの距離が測定され、測定された距離が距離記録部205に記録される。次に、照明制御部21は、距離記録部205に記録された距離に基づいて、最適照明パラメータデータベース24から最適な照明の強度を読み出し、該最適な照明の強度で照明部210を点灯し、照明の強度を高くする。また、照明制御部21は、そのときの最適な照明の強度を照明パラメータ記録部206に記録する。なお、前記最適な照明の強度によって、対象物体11が誤検出されるのを抑制することができ、安定して対象物体11を抽出することができる。
【0024】
次に、最適な照明の強度で照明部201を点灯し、撮像部202によって対象物体11及び背景12を撮影し、撮影された対象物体11及び背景12の照明画像を画像記録部207に記録する。そして、照明画像を撮影した直後に、照明部201を消灯することによって照明の強度を低くして、撮像部202によって対象物体11及び背景12を撮影し、撮影された対象物体11及び背景12の無照明画像を画像記録部207に記録する。続いて、該画像記録部207に記録された照明画像及び無照明画像は差分・閾値処理部208に送られ、対象物体11を抽出するための候補領域(以下「対象物体候補領域」という。)が設定される。そのために、前記差分・閾値処理部208は、照明画像、無照明画像、照明の強度及び最適な閾値に基づいて差分・閾値処理を行う。
【0025】
なお、本実施の形態においては、無照明画像を撮影する際に照明部201を消灯することによって照明の強度を低くするようにしているが、照明部201を消灯することなく、照明画像を撮影する際より照明の強度を低くすることもできる。ただし、照明画像を撮影する際の照明の強度と、無照明画像を撮影する際の照明の強度との差は大きいほどよい。
【0026】
次に、対象物体11を抽出するための基本原理について説明する。
【0027】
図3は本発明の第1の実施の形態における無照明画像の例を示す図、図4は本発明の第1の実施の形態における照明画像の例を示す図、図5は本発明の第1の実施の形態における差分画像の例を示す図、図6は本発明の第1の実施の形態における差分画像の輝度ヒストグラムを示す図、図7は本発明の第1の実施の形態における対象物体候補領域の第1の例を示す図、図8は本発明の第1の実施の形態における対象物体候補領域の第2の例を示す図、図9は本発明の第1の実施の形態における対象物体候補領域の第3の例を示す図、図10は本発明の第1の実施の形態における背景に反射率の高い物体が存在する場合の背景画像を示す図、図11は本発明の第1の実施の形態における背景の前に対象物体が存在する場合の照明画像を示す図、図12は本発明の第1の実施の形態における対象物体候補領域の第4の例を示す図である。なお、図6において、横軸に輝度差を、縦軸に度数を採ってある。
【0028】
対象物体11(図1)が背景12から離れていて撮像部202に近い位置に存在する場合に、照明部201を点灯すると、一般に、照明部201に近い物体の方が背景12より明るくなるので、無照明画像は図3に示されるように、照明画像は図4に示されるようになる。
【0029】
そして、差分・閾値処理のうちの差分処理を行い、照明画像の輝度から無照明画像の輝度を減算することによって、図5に示されるような差分画像が生成され、該差分画像は、通常、図6に示されるような輝度ヒストグラムで表される。図6において、部分Aは主に背景12の領域を表し、部分Bは主に対象物体11の領域を表す。この場合、照明部201から遠い背景12の部分は点灯時と消灯時とでの輝度変化が小さくなり、照明部201に近い対象物体11の部分は点灯時と消灯時とでの輝度変化が大きくなる。
そこで、前記差分画像に対して所定の閾値で差分・閾値処理のうちの閾値処理を行うと、図7〜9に示されるような画像が得られ、それぞれ、白く変化した領域が対象物体候補領域となる。そして、適切な閾値T1で閾値処理を行うと、図7に示されるように、対象物体候補領域が対象物体11のシルエットとして形成されることになるので、対象物体11を容易に抽出することができる。これに対して、閾値T2(<T1)で閾値処理を行うと、図8に示されるように、背景12が含まれた対象物体候補領域が形成され、閾値T3(>T1)で閾値処理を行うと、図9に示されるように、対象物体11が欠けた対象物体候補領域が形成されるので、対象物体11を抽出するのが困難になってしまう。
【0030】
そこで、本実施の形態においては、閾値T1のような最適な閾値を各照明の強度に対応させて最適閾値データベース25にあらかじめ記録しておき、閾値処理を行うときに、前記最適閾値データベース25からそのときの照明の強度に対応する最適な閾値を決定するようにしている。したがって、どのような環境においても最適な対象物体候補領域を形成することができる。なお、閾値処理において利用される最適閾値データベース25はパラメータデータ設定フェーズにおいて設定される。
【0031】
ところで、前述されたような処理を行うことによって、図7に示されるような対象物体候補領域がそのまま対象物体11のシルエットとして形成されることもあるが、特殊な状況、例えば、背景12に対象物体11より反射率の高い物体がある場合には、対象物体候補領域が必ずしも対象物体11のシルエットとして形成されない。例えば、図10に示されるように、背景12に反射率の高い物体としての窓ガラスがあり、図11に示されるように、対象物体11が前記窓ガラスの前に立つ人である場合、照明部201を点灯すると、対象物体11より背景12の方が明るくなってしまう。その結果、前述されたような照明画像及び無照明画像について差分・閾値処理を行うと、図12に示されるような対象物体候補領域が形成され、背景12の窓ガラスも対象物体11として誤って抽出されてしまう。
【0032】
そこで、対象物体抽出部209において、対象物体候補領域から対象物体11を抽出するようになっている。
【0033】
前記対象物体抽出部209において、対象物体候補領域から対象物体11を抽出する方法は、抽出される対象物体11の種類によって異なるが、基本的な処理の流れは同じである。すなわち、対象物体抽出部209は、差分・閾値処理部208によって形成された対象物体候補領域に対して、あらかじめ想定され、対象物体モデルデータベース210に記録されている対象物体11のモデルの情報に基づいて、更に、必要に応じて撮像部202から対象物体11までの距離に基づいて対象物体11を抽出する。例えば、図12に示されるような対象物体候補領域が形成された場合には、人の形状のモデルをフィッティングして対象物体11を抽出するようにしている。また、対象物体11のモデルとして顔のモデル及び体のモデルをあらかじめ用意しておき、図12に示されるような対象物体候補領域から顔のモデルをフィッティングして顔を抽出し、抽出された顔の大きさ及び位置から体のモデルをフィッティングして、体の大きさ及び位置を推定して体を抽出することができる。そして、図12に示される対象物体候補領域及び図11の照明画像を利用して体を抽出することもできる(特願平11−149281号明細書参照)。
【0034】
このように、本実施の形態においては、撮像部202から対象物体11までの距離に基づいて最適な照明部201の制御を行い、更に照明の強度によって差分・閾値処理における最適な閾値を決定し、最後に対象物体11のモデルを使用して対象物体11を抽出するようになっているので、どのような環境においても安定して、かつ、高速で対象物体11を抽出することができる。
【0035】
次に、パラメータデータ設定フェーズについて説明する。
【0036】
パラメータデータ設定フェーズは、対象物体抽出フェーズにおいて利用する最適な照明の強度及び最適な閾値を設定するためのものである。
【0037】
図13は本発明の第1の実施の形態における対象物体が背景に近い場合の差分画像の輝度ヒストグラムを示す図、図14は本発明の第1の実施の形態における照明の強度が低い場合の差分画像の輝度ヒストグラムを示す図、図15は本発明の第1の実施の形態における照明の強度が高い場合の差分画像の輝度ヒストグラムを示す図である。なお、図13〜15において、横軸に輝度差を、縦軸に度数を採ってある。また、図13〜15において、部分Aは主に背景12(図1)の領域を表し、部分Bは主に対象物体11の領域を表す。
【0038】
まず、最適照明制御方法及び最適照明パラメータデータベース24の作成方法について説明する。
【0039】
前記対象物体抽出画像処理装置10において、対象物体11が照明部201から遠く、背景12に近い場合、一定の照明の強度で対象物体11及び背景12を照らしたときに、照明画像及び無照明画像の差分画像の輝度ヒストグラムは、図13に示されるように部分Aと部分Bとが重なる。この場合、閾値処理を行うと、最適な閾値T1を設定しても対象物体11の一部が欠け、しかも、背景12の一部が含まれた対象物体候補領域が形成されてしまう。また、閾値T2、T3を設定すると、更に対象物体11が欠けたり、背景12が含まれたりした対象物体候補領域が形成されてしまう。したがって、対象物体抽出部209の処理の負荷が大きくなり、処理時間が長くなってしまう。
【0040】
そこで、前記照明部201の制御を最適に行う最適照明制御方法について説明する。
【0041】
一般に、表面が拡散反射する物体の場合、照明部201を点灯してその物体を撮影すると、物体の明るさは、照明の強度に比例して明るくなり、照明部201からの距離の2乗に反比例して暗くなる。したがって、背景12の反射率が対象物体11の反射率よりもはるかに高い(例えば、鏡等)場合を除いて、対象物体11及び背景12を照明の強度を変えて撮影すると、照明画像と無照明画像との差分画像の輝度ヒストグラムは、照明の強度が低い場合には図14に示されるようになり、照明の強度が高い場合には図15に示されるようになる。
【0042】
すなわち、照明の強度を高くすると照明画像が全体的に明るくなるが、前述されたような拡散反射の特性から、照明部201から遠い背景12の部分が明るくなる分より、照明部201に近い対象物体11の部分が明るくなる分の方が大きくなる。したがって、照明画像と無照明画像との差分画像の輝度ヒストグラムは、図15に示されるように部分Aと部分Bとが分離するようになるので、閾値処理によって対象物体11を容易に抽出することができる。このように、照明の強度が高いほど対象物体11を抽出しやすくなる。
【0043】
ただし、照明の強度が過度に高くなると、輝度が飽和してしまうことによって抽出される対象物体11の画質が低下してしまうので、輝度が飽和しない程度に、照明部201の照明の強度を制御することが好ましい。すなわち、対象物体11が撮像部202からどのような距離にあっても、輝度が飽和しない程度で、最も明るく照らされるように、照明部201の制御が最適に行われる。
【0044】
そのために、本実施の形態においては、対象物体11の撮像部202からの距離に応じて適切な照明の強度で対象物体11を照らすことができるように、最適照明パラメータデータベース24に、各距離に対応する最適な照明の強度を記録するようになっている。
【0045】
次に、最適照明パラメータデータベース24の作成処理について説明する。
【0046】
図16は本発明の第1の実施の形態における最適照明パラメータデータベース作成処理の動作を示すフローチャート、図17は本発明の第1の実施の形態における距離及び最適な照明の強度の実測値の例を示す図、図18は本発明の第1の実施の形態における最適照明パラメータデータベースの例を示す図である。
【0047】
まず、撮像部202(図1)の前方の所定の位置に対象物体11と同等の性質を有するテストチャートを配設する。対象物体11及びテストチャートをそれぞれ撮影した場合、撮影された対象物体11及びテストチャートの各輝度はほぼ等しい。なお、本実施の形態において、最適照明パラメータデータベース24の作成処理においてテストチャートによって対象物体11が構成される。
【0048】
次に、前記測距制御部23は、距離記録処理を行い、測距部203によって撮像部202からテストチャートまでの距離を測定し、測定された距離を距離記録部205に記録する。続いて、照明制御部21は、照明制御処理を行い、所定の照明の強度で照明部201によってテストチャートを照らし、そのときの照明の強度を照明パラメータ記録部206に照明の強度として記録し、撮像制御部22は、画像撮影・記録処理を行い、各照明の強度ごとに、撮像部202によってテストチャートを撮影し、撮影されたテストチャートの画像を画像記録部207に記録する。
【0049】
そして、照明制御部21があらかじめ設定された複数の照明の強度のうちのすべての照明の強度について照明制御処理を行い、撮像制御部22が各照明の強度ごとに画像撮影・記録処理を行うと、最適パラメータ算出部212の図示されない最適照明パラメータ算出処理手段は、最適照明パラメータ判定処理を行い、画像記録部207に記録されたすべての画像についての画像特徴量(平均輝度、最高輝度等)を算出し、その画像特徴量が最も適切な値を採り、テストチャートが、輝度が飽和しない程度で、かつ、最も明るく照らされる画像を選択する。
【0050】
また、前記最適照明パラメータ算出処理手段は、最適照明パラメータ記録処理を行い、選択された画像に対応する照明の強度を照明パラメータ記録部206から読み出すことによって最適な照明の強度を算出するとともに、前記画像が撮影されたときの距離を距離記録部205から読み出し、前記最適な照明の強度及び距離を最適照明パラメータデータベース24に記録する。
【0051】
これらの処理を、テストチャートが配設される位置を変化させて繰り返し、図17に示されるような、各位置における距離及び最適な照明の強度の実測値を得ることができる。
【0052】
続いて、前記最適パラメータ算出部212は、補間処理を行い、前記距離及び最適な照明の強度の実測値を補間し、最終的に、図18に示されるような、前記距離に対応させて最適な照明の強度が記録された最適照明パラメータデータベース24を作成する。
【0053】
次に、フローチャートについて説明する。
ステップS1 テストチャートを配設する。
ステップS2 距離記録処理を行う。
ステップS3 照明制御処理を行う。
ステップS4 画像撮影・記録処理を行う。
ステップS5 すべての照明の強度について照明制御処理及び画像撮影・記録処理が終了したかどうかを判断する。すべての照明の強度について照明制御処理及び画像撮影・記録処理が終了した場合はステップS6に進み、終了していない場合はステップS3に戻る。
ステップS6 最適照明パラメータ判定処理を行う。
ステップS7 最適照明パラメータ記録処理を行い、ステップS1に戻る。
【0054】
次に、最適な閾値及び最適閾値データベース25の作成方法について説明する。
【0055】
図19は本発明の第1の実施の形態における閾値処理の差分画像の輝度ヒストグラムを示す図、図20は本発明の第1の実施の形態における閾値処理結果を示す第1の図、図21は本発明の第1の実施の形態における閾値処理結果を示す第2の図、図22は本発明の第1の実施の形態における閾値処理結果を示す第3の図である。なお、図19において、横軸に輝度差を、縦軸に度数を採ってある。また、図19において、部分Aは主に背景12(図1)の領域を表し、部分Bは主に対象物体11の領域を表す。
【0056】
まず、差分・閾値処理を行うための最適な閾値について説明する。例えば、図19に示される照明画像と無照明画像との差分画像の輝度ヒストグラムが得られる場合、対象物体抽出方法にもよるが、閾値T11、T22、T33が最適になる。そして、閾値T11で閾値処理を行うと、図20に示される対象物体候補領域が、閾値T22で閾値処理を行うと、図21に示される対象物体候補領域が、閾値T33で閾値処理を行うと、図22に示される対象物体候補領域が形成される。図21に示される対象物体候補領域は、図6に示される輝度ヒストグラムが得られる場合の対象物体候補領域とほぼ等しい。
【0057】
この場合、閾値T22で閾値処理を行うと、図21に示されるように、背景12の部分はほとんど含まれず、対象物体11の部分がほぼ含まれる。これに対して、閾値T11で閾値処理を行うと、図20に示されるように対象物体11の部分に欠けはないが、背景12の部分が比較的多く含まれる。また、閾値T33で閾値処理を行うと、図22に示されるように背景12の部分はほとんど含まれないが、対象物体11の部分にわずかな欠けが生じる。
【0058】
ここで、対象物体抽出部209の抽出処理において、背景12の部分がわずかに含まれていても、対象物体11の部分の欠けが少ない方がよい場合は、閾値T11が最適な閾値になる。逆に、対象物体11がわずかに欠けていても、背景12の部分が含まれない方がよい場合は、閾値T33が最適な閾値になり、対象物体11の部分の欠けが少なく、しかも、背景12の部分が含まれない方がよい場合は、閾値T22が最適な閾値になる。
【0059】
このように、最適な閾値には、閾値T11のように対象物体11の部分の大部分を抽出することができるもの、閾値T33のように背景12の部分の大部分を取り除くことができるもの、及び閾値T22のように背景12の部分が少なく、対象物体11の部分の大部分を抽出することができるものがある。
【0060】
ところで、図19に示されるような差分画像の輝度ヒストグラムは、前述されたように、対象物体11の位置に対応させて照明の強度を変化させると、図14及び15に示されるように変化する。したがって、照明の強度を変化させたときの、背景12及び対象物体11についての照明画像と無照明画像との差分画像に基づいて最適な閾値を決定する必要がある。
【0061】
次に、最適閾値データベース作成処理の動作について説明する。
【0062】
図23は本発明の第1の実施の形態における第1の最適閾値データベース作成処理の動作を示すフローチャート、図24は本発明の第1の実施の形態における第2の最適閾値データベース作成処理の動作を示すフローチャート、図25は本発明の第1の実施の形態における第3の最適閾値データベース作成処理の動作を示すフローチャート、図26は本発明の第1の実施の形態における最適な照明の強度及び最適な閾値の実測値の例を示す図、図27は本発明の第1の実施の形態における最適閾値データベースの例を示す図である。
【0063】
この場合、図23は図19に示される閾値T11を最適な閾値として最適閾値データベース25(図1)を作成する場合の処理の手順を、図24は閾値T33を最適な閾値として最適閾値データベース25を作成する場合の処理の手順を、図25は閾値T22を最適な閾値として最適閾値データベース25を作成する場合の処理の手順を示す。
【0064】
まず、前記閾値T11を最適な閾値として最適閾値データベース25を作成する場合、照明制御部21は、第1の照明制御処理を行い、照明部201を消灯し、撮像制御部22は、無照明背景画像撮影・記録処理を行い、対象物体11等がない背景12を撮像部202によって撮影し、撮影された背景12の画像を無照明背景画像として画像記録部207に記録する。
【0065】
次に、前記照明制御部21は、第2の照明制御処理を行い、最適照明パラメータデータベース24に記録された所定の最適な照明の強度を読み出し、該最適な照明の強度で照明部201を点灯し、撮像部202は、照明背景画像撮影・記録処理を行い、背景12を撮影し、撮影された背景12の画像を照明背景画像として画像記録部207に記録する。続いて、最適パラメータ算出部212の図示されない最適閾値算出処理手段は、最適閾値算出処理を行い、画像記録部207に記録された無照明背景画像と照明背景画像との差分処理を行って、輝度ヒストグラムを作成する。該輝度ヒストグラムは、一般に、図19における部分Aに示されるような分布になるので、この輝度ヒストグラムの分布における特徴、例えば、平均値等に基づいて閾値T11を決定する。
【0066】
続いて、前記最適閾値算出処理手段は、最適閾値記録処理を行い、前記所定の最適な照明の強度と共に、閾値T11を最適な閾値として最適閾値データベース25に記録する。
【0067】
このようにして、前記最適照明パラメータデータベース24に記録されたすべての最適な照明の強度について前記各処理を行い、各最適な照明の強度ごとに最適な閾値を算出し、最適な照明の強度及び最適な閾値を最適閾値データベース25に記録することによって、図26に示されるような、各最適な照明の強度及び最適な閾値の実測値を得ることができる。
【0068】
続いて、前記最適パラメータ算出部212は、補間処理を行い、各最適な照明の強度及び最適な閾値の実測値を補間し、最終的に、図27に示されるような、各最適な照明の強度に対応させて最適な閾値が記録された最適閾値データベース25を作成する。
【0069】
次に、フローチャートについて説明する。
ステップS11 第1の照明制御処理を行う。
ステップS12 無照明背景画像撮影・記録処理を行う。
ステップS13 第2の照明制御処理を行う。
ステップS14 照明背景画像撮影・記録処理を行う。
ステップS15 最適閾値算出処理を行う。
ステップS16 最適閾値記録処理を行い、ステップS11に戻る。
【0070】
次に、閾値T33を最適な閾値として最適閾値データベース25を作成する場合、まず、機器制御部204は、最適照明パラメータデータベース24に記録された各距離のうちの一つを読み出す。そして、オペレータは、撮像部202の前方の前記距離の位置にテストチャートを配設する。
【0071】
続いて、照明制御部21は、第1の照明制御処理を行い、照明部201を消灯し、撮像制御部22は、無照明画像撮影・記録処理を行い、テストチャートを撮像部202によって撮影し、撮影されたテストチャートの画像を無照明画像として画像記録部207に記録する。
【0072】
次に、前記照明制御部21は、第2の照明制御処理を行い、最適照明パラメータデータベース24に記録された前記距離に対応する最適な照明の強度を読み出し、該最適な照明の強度で照明部201を点灯し、撮像部202は、照明画像撮影・記録処理を行い、テストチャートを撮影し、撮影されたテストチャートの画像を照明画像として画像記録部207に記録する。続いて、前記最適閾値算出処理手段は、最適閾値算出処理を行い、画像記録部207に記録された無照明画像と照明画像との差分処理を行って、テストチャートの部分だけの輝度ヒストグラムを作成する。該輝度ヒストグラムは、前述されたように、図19における部分Bに示されるような分布になるので、この輝度ヒストグラムの分布における特徴、例えば、平均値等に基づいて閾値T33を決定する。
【0073】
続いて、前記最適閾値算出処理手段は、最適閾値記録処理を行い、前記所定の最適な照明の強度と共に、閾値T33を最適な閾値として最適閾値データベース25に記録する。
【0074】
このようにして、前記最適照明パラメータデータベース24に記録されたすべての距離にテストチャートを置き、各距離及び各最適な照明の強度ごとに最適な閾値を算出し、最適な照明の強度及び最適な閾値を最適閾値データベース25に記録することによって、図26に示されるものと同様な、各最適な照明の強度及び最適な閾値の実測値を得ることができる。
【0075】
続いて、前記最適パラメータ算出部212は、補間処理を行い、各最適な照明の強度及び最適な閾値の実測値を補間し、最終的に、図27に示されるものと同様な、最適閾値データベース25を作成する。
【0076】
次に、フローチャートについて説明する。
ステップS21 テストチャートを配設する。
ステップS22 第1の照明制御処理を行う。
ステップS23 無照明画像撮影・記録処理を行う。
ステップS24 第2の照明制御処理を行う。
ステップS25 照明画像撮影・記録処理を行う。
ステップS26 最適閾値算出処理を行う。
ステップS27 最適閾値記録処理を行い、ステップS21に戻る。
【0077】
そして、閾値T22を最適な閾値として最適閾値データベース25を作成する場合、まず、照明制御部21は、第1の照明制御処理を行い、照明部201を消灯する。また、撮像制御部22は、無照明背景画像撮影・記録処理を行い、対象物体11等がない背景12を撮像部202によって撮影し、撮影された背景12の画像を無照明背景画像として画像記録部207に記録する。
【0078】
次に、前記照明制御部21は、第2の照明制御処理を行い、最適照明パラメータデータベース24に記録された所定の最適な照明の強度を読み出し、該最適な照明の強度で照明部201を点灯し、撮像部202は、照明背景画像撮影・記録処理を行い、背景12を撮影し、撮影された背景12の画像を照明背景画像として画像記録部207に記録する。
【0079】
続いて、機器制御部204は、最適照明パラメータデータベース24に記録された前記最適な照明の強度に対応する距離を読み出す。そして、オペレータは、撮像部202の前方の前記距離の位置にテストチャートを配設する。
【0080】
次に、照明制御部21は、第3の照明制御処理を行い、照明部201を消灯し、撮像制御部22は、無照明画像撮影・記録処理を行い、テストチャートを撮像部202によって撮影し、撮影されたテストチャートの画像を無照明画像として画像記録部207に記録する。
【0081】
続いて、前記照明制御部21は、第4の照明制御処理を行い、第2の照明制御処理において読み出された最適な照明の強度で照明部201を点灯し、撮像部202は、照明画像撮影・記録処理を行い、テストチャートを撮影し、撮影されたテストチャートの画像を照明画像として画像記録部207に記録する。
【0082】
そして、前記最適閾値算出処理手段は、最適閾値算出処理を行い、無照明背景画像撮影・記録処理において記録された無照明背景画像、照明背景画像撮影・記録処理において記録された照明背景画像、無照明画像撮影・記録処理において記録された無照明画像、及び照明画像撮影・記録処理において記録された照明画像に基づいて、最適な閾値を算出する。例えば、図19における部分Aで示される無照明背景画像と照明背景画像との差分画像の輝度ヒストグラムの分布、及び図19における部分Bで示される無照明画像と照明画像との差分画像の輝度ヒストグラムの分布の各特徴(例えば、二つの輝度ヒストグラムの分布のマハラノビス距離)に基づいて閾値T22を決定する。
【0083】
続いて、前記最適閾値算出処理手段は、最適閾値記録処理を行い、前記所定の最適な照明の強度と共に、閾値T22を最適な閾値として最適閾値データベース25に記録する。
【0084】
このようにして、前記最適照明パラメータデータベース24に記録されたすべての距離にテストチャートを置き、各距離及び各最適な照明の強度ごとに最適な閾値を算出し、最適な照明の強度及び最適な閾値を最適閾値データベース25に記録することによって、図26に示されるものと同様な、各最適な照明の強度及び最適な閾値の実測値を得ることができる。
【0085】
続いて、前記最適パラメータ算出部212は、補間処理を行い、各最適な照明の強度及び最適な閾値の実測値を補間し、最終的に、図27に示されるものと同様な、最適閾値データベース25を作成する。
【0086】
このように、前記最適閾値算出処理手段は、無照明背景画像及び無照明画像のうちの少なくとも一方、並びに照明背景画像及び照明画像のうちの少なくとも一方を照らしたときの画像に基づいて最適な閾値を算出する。
【0087】
ところで、第1〜第3の最適閾値データベース作成処理において算出された最適な閾値が異常値であり、対象物体11を抽出するには不適切な場合がある。例えば、前記最適な閾値が小さすぎる(256階調における0に非常に近い)と、撮影環境が極めて明るく、照明部201の点灯時と消灯時とで輝度の差が発生していない。また、前記最適な閾値が大きすぎる(256階調における255に非常に近い)と、撮像部202から背景12までの距離が極めて短い。
【0088】
このような場合、対象物体候補領域を形成することができないので、前記最適な閾値が異常値であるとし、警告出力部213は、最適な閾値が不適切であるとして警告を出力する。
【0089】
なお、本実施の形態においては、最適照明パラメータデータベース24に記録されたすべての最適な照明の強度について最適な閾値を求めるようにしているが、各最適な照明の強度のうちの所定の最適な照明の強度について最適な閾値を求め、求められた最適な閾値について補間処理を行うことによって最適閾値データベース25を作成することもできる。
【0090】
このように、本実施の形態においては、撮像部202から対象物体11までの距離に対応させて各最適な照明の強度を求めることができるので、照明の強度を適切なものにすることができる。
【0091】
そして、各最適な照明の強度に対応させて最適な閾値が算出され、設定されるので、対象物体11を抽出するまでに照明画像及び無照明画像の撮影、並びに差分・閾値処理を繰り返す必要がなくなる。したがって、処理時間を短くすることができるので、高速で対象物体11を抽出することができる。
【0092】
また、前記各最適な照明の強度に対応させて最適な閾値が算出され、設定されるので、対象物体11を常に安定して正しく抽出することができる。
【0093】
そして、対象物体11のモデルを使用して最終的に対象物体11を抽出するようになっているので、どのような環境においても、例えば、背景12に対象物体11より反射率の高い物体がある場合でも、安定して、かつ、高速で対象物体11を抽出することができる。
【0094】
さらに、最適な閾値が不適切なものである場合、警告が出力されるので、対象物体11を正しく抽出することができる。
【0095】
次に、フローチャートについて説明する。
ステップS31 第1の照明制御処理を行う。
ステップS32 無照明背景画像撮影・記録処理を行う。
ステップS33 第2の照明制御処理を行う。
ステップS34 照明背景画像撮影・記録処理を行う。
ステップS35 テストチャートを配設する。
ステップS36 第3の照明制御処理を行う。
ステップS37 無照明画像撮影・記録処理を行う。
ステップS38 第4の照明制御処理を行う。
ステップS39 照明画像撮影・記録処理を行う。
ステップS40 最適閾値算出処理を行う。
ステップS41 最適閾値記録処理を行い、ステップS31に戻る。
【0096】
次に、本発明の第2の実施の形態について説明する。なお、第1の実施の形態と同じ構造を有するものについては、同じ符号を付与することによってその説明を省略する。
【0097】
図28は本発明の第2の実施の形態における対象物体抽出画像処理装置のブロック図である。
【0098】
この場合、例えば、自動車内の人を抽出する場合のように、対象物体11が撮像部202からほぼ一定の距離にある。対象物体11の位置が一定であるので、対象物体抽出画像処理装置100は測距部、測距制御部及び距離記録部を備えない。したがって、対象物体抽出画像処理装置100のコストを低くすることができる。
【0099】
また、対象物体11の位置が一定であるので、最適照明パラメータデータベース24には、距離の変化に対応させたものではなく、一つの最適な照明の強度だけが記録される。そして、それに伴って、一つの最適な照明の強度に対応させて一つの最適な閾値が最適閾値データベース25に記録される。
【0100】
ところで、例えば、第1、第2の実施の形態においては、対象物体抽出フェーズにおいて、太陽光等によって撮影環境が大きく変化すると、照明画像が明るすぎたり暗すぎたりするので、抽出された対象物体11も明るすぎたり暗すぎたりしてしまい、対象物体11の画像の画質が低下してしまう。
【0101】
そこで、対象物体11の画像の画質をチェックすることができるようにした第3の実施の形態について説明する。なお、第1の実施の形態と同じ構造を有するものについては、同じ符号を付与することによってその説明を省略する。
【0102】
図29は本発明の第3の実施の形態における対象物体抽出画像処理装置のブロック図、図30は本発明の第3の実施の形態における最適照明パラメータデータベースの例を示す図、図31は本発明の第3の実施の形態における最適閾値データベースの例を示す図である。
【0103】
図において、200は対象物体抽出画像処理装置、414は抽出物体画質チェック部であり、該抽出物体画質チェック部414は、太陽光等による撮影環境の変化に対しても対象物体11(図1)の良好な画像を得ることができるように、抽出された対象物体11の画像の画質をチェックする。
【0104】
本実施の形態において、抽出物体画質チェック部414は、前記対象物体11の画像の画質を明るさでチェックする。そのために、前記抽出物体画質チェック部414は、前記対象物体11の画像の所定の領域における平均輝度を算出し、該平均輝度があらかじめ設定された範囲内に収まるかどうかによって画質が適切であるかどうかを判断する。そして、平均輝度が前記範囲内に収まらず、照明画像が明るすぎたり暗すぎたりして画質が適切でない場合、前記抽出物体画質チェック部414は撮像制御部42に指示を送り、該撮像制御部42の制御を行う。該撮像制御部42は、撮像部パラメータ(カメラゲイン等)を変更し、無照明画像及び照明画像を再び撮影した後、対象物体抽出フェーズの処理を行って対象物体11を抽出する。このとき、抽出物体画質チェック部414は照明制御部21にも指示を送り、照明制御部21の制御を行う。該照明制御部21は、照明の強度を変更する。
【0105】
なお、撮像部パラメータが変更されると画質が変化するので、最適な照明の強度及び最適な閾値も変化することになる。したがって、最適照明パラメータデータベース24は、図30に示されるように、距離、撮像部パラメータ及び最適な照明の強度によって表され、最適閾値ベータベース25は、図31に示されるように、最適な照明の強度、撮像部パラメータ及び最適な閾値によって表される。
【0106】
このように、本実施の形態においては、撮像環境が大きく変化しても、撮像部パラメータが変更されるので、対象物体11を正しく抽出することができる。
【0107】
なお、本実施の形態において、前記第2の実施の形態と同様に、測距部、測距制御部及び距離記録部を備えないようにすることもできる。
【0108】
前記各実施の形態においては、照明部201で可視光が使用されるようになっているが、可視光以外の赤外光等の特定の波長域の光を使用することもできる。その場合、撮像部202において照明部201で使用された波長域の光だけで撮影を行うことができるようにすると、撮影環境における環境光による影響を受けにくくなり、安定して対象物体11を抽出することができる。
【0109】
また、前記各実施の形態においては、無照明画像を撮影した後に、照明画像を撮影するようにしているが、照明画像を撮影した後に、無照明画像を撮影することもできる。いずれの場合も、無照明画像を撮影する際と照明画像を撮影する際とで対象物体11が姿勢、位置等を変えると、無照明画像と照明画像との差分画像を正確に求めることができなくなってしまうので、無照明画像を撮影するタイミングと照明画像を撮影するタイミングとの間隔は短い方がよい。
【0110】
なお、抽出すべき対象物体11が二つ以上ある場合には、輝度ヒストグラムの分布において、図19において部分Aで示されるような背景12の領域は一つ形成されるのに対して、図19において部分Bで示されるような対象物体11の領域は二つ以上形成される。そこで、パラメータデータ設定フェーズにおいて最適な閾値を設定する際に、第1の実施の形態において閾値T11を設定したのと同様に背景12の領域において閾値を設定するか、対象物体11の領域のうちの輝度差が最も小さい領域において閾値を設定するのが好ましい。
【0111】
なお、本発明は前記実施の形態に限定されるものではなく、本発明の趣旨に基づいて種々変形させることが可能であり、それらを本発明の範囲から排除するものではない。
【0112】
【発明の効果】
以上詳細に説明したように、本発明によれば、対象物体抽出画像処理装置においては、対象物体及び背景を照らす照明部と、前記対象物体及び背景を撮影する撮像部と、該撮像部から前記対象物体までの距離を測定する測距部と、前記対象物体及び背景を照らしたときの最適な照明の強度が前記撮像部から前記対象物体までの距離ごとに記録された最適照明パラメータ記録手段と、前記測距部によって測定された距離に基づいて前記最適照明パラメータ記録手段から最適な照明の強度を読み出し、前記照明部によって、最適な照明の強度で対象物体及び背景を照らすか、又は最適な照明の強度より低い照明の強度で対象物体及び背景を照らすか、若しくは照明部を消灯する照明制御部と、照明部によって最適な照明の強度で照らして対象物体及び背景を撮影した画像である照明画像、並びに照明部によって最適な照明の強度より低い照明の強度で照らすか、又は照明部を消灯して対象物体及び背景を撮影した画像である無照明画像を画像記録部に記録する撮影制御部と、前記照明画像における背景の輝度と、無照明画像における背景の輝度との差に基づいて最適な閾値を算出し、最適閾値記録手段に記録する最適閾値算出処理手段と、前記照明画像と無照明画像との差分画像を生成する差分処理、及び前記差分画像と前記最適な閾値とを比較することによって対象物体候補領域の画像を生成する閾値処理を行う差分・閾値処理部と、前記対象物体候補領域の画像及び対象物体のモデルに基づいて対象物体を抽出する対象物体抽出部とを有する。
【0113】
この場合、背景を撮影した照明画像の輝度と無照明画像の輝度との差に基づいて最適な閾値が算出される。
【0114】
したがって、最適な照明の強度に対応させて最適な閾値が算出されるので、対象物体を抽出するまでに照明画像及び無照明画像の撮影、差分処理及び閾値処理を繰り返す必要がなくなるので、処理時間を短くすることができる。その結果、高速で対象物体を抽出することができる。
【0115】
また、各最適な照明の強度に対応させて最適な閾値が算出されるので、対象物体を常に安定して正しく抽出することができる。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態における対象物体抽出画像処理装置のブロック図である。
【図2】従来の対象物体抽出画像処理装置における背景と対象物体との位置関係を示す図である。
【図3】本発明の第1の実施の形態における無照明画像の例を示す図である。
【図4】本発明の第1の実施の形態における照明画像の例を示す図である。
【図5】本発明の第1の実施の形態における差分画像の例を示す図である。
【図6】本発明の第1の実施の形態における差分画像の輝度ヒストグラムを示す図である。
【図7】本発明の第1の実施の形態における対象物体候補領域の第1の例を示す図である。
【図8】本発明の第1の実施の形態における対象物体候補領域の第2の例を示す図である。
【図9】本発明の第1の実施の形態における対象物体候補領域の第3の例を示す図である。
【図10】本発明の第1の実施の形態における背景に反射率の高い物体が存在する場合の背景画像を示す図である。
【図11】本発明の第1の実施の形態における背景の前に対象物体が存在する場合の照明画像を示す図である。
【図12】本発明の第1の実施の形態における対象物体候補領域の第4の例を示す図である。
【図13】本発明の第1の実施の形態における対象物体が背景に近い場合の差分画像の輝度ヒストグラムを示す図である。
【図14】本発明の第1の実施の形態における照明の強度が低い場合の差分画像の輝度ヒストグラムを示す図である。
【図15】本発明の第1の実施の形態における照明の強度が高い場合の差分画像の輝度ヒストグラムを示す図である。
【図16】本発明の第1の実施の形態における最適照明パラメータデータベース作成処理の動作を示すフローチャートである。
【図17】本発明の第1の実施の形態における距離及び最適な照明の強度の実測値の例を示す図である。
【図18】本発明の第1の実施の形態における最適照明パラメータデータベースの例を示す図である。
【図19】本発明の第1の実施の形態における閾値処理の差分画像の輝度ヒストグラムを示す図である。
【図20】本発明の第1の実施の形態における閾値処理結果を示す第1の図である。
【図21】本発明の第1の実施の形態における閾値処理結果を示す第2の図である。
【図22】本発明の第1の実施の形態における閾値処理結果を示す第3の図である。
【図23】本発明の第1の実施の形態における第1の最適閾値データベース作成処理の動作を示すフローチャートである。
【図24】本発明の第1の実施の形態における第2の最適閾値データベース作成処理の動作を示すフローチャートである。
【図25】本発明の第1の実施の形態における第3の最適閾値データベース作成処理の動作を示すフローチャートである。
【図26】本発明の第1の実施の形態における最適な照明の強度及び最適な閾値の実測値の例を示す図である。
【図27】本発明の第1の実施の形態における最適閾値データベースの例を示す図である。
【図28】本発明の第2の実施の形態における対象物体抽出画像処理装置のブロック図である。
【図29】本発明の第3の実施の形態における対象物体抽出画像処理装置のブロック図である。
【図30】本発明の第3の実施の形態における最適照明パラメータデータベースの例を示す図である。
【図31】本発明の第3の実施の形態における最適閾値データベースの例を示す図である。
【符号の説明】
10、100、200 対象物体抽出画像処理装置
11 対象物体
12 背景
24 最適照明パラメータデータベース
25 最適閾値データベース
201 照明部
202 撮像部
203 測距部
205 距離記録部
207 画像記録部
208 差分・閾値処理部
209 対象物体抽出部
212 最適パラメータ算出部
213 警告出力部
414 抽出物体画質チェック部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a target object extraction image processing apparatus.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, a target object extraction image processing apparatus for extracting a target object from an image generally uses a characteristic that an object close to an illumination unit becomes brighter than an object far from the illumination unit (Japanese Patent Laid-Open No. Hei 9). -259278).
[0003]
FIG. 2 is a diagram showing the positional relationship between the background and the target object in the conventional target object extraction image processing apparatus.
[0004]
As shown in the figure, the target object 11 is disposed at a position closer to the imaging unit 13 than the background 12, and the illumination unit 14 is turned on to illuminate the target object 11 and the background 12, and the imaging near the illumination unit 14. The target object 11 and the background 12 are photographed by the unit 13, and the target object 11 is extracted by comparing the brightness of the target object 11 illuminated by the illumination unit 14 with the brightness of the background 12 illuminated by the illumination unit 14. Like to do.
[0005]
Therefore, for example, the illumination image obtained by lighting the illumination unit 14 and photographing the target object 11 and the background 12 and the illumination image obtained by extinguishing the illumination unit 14 and photographing the target object 11 and the background 12 are obtained. On the image in which the brightness changes greatly between the state where the illumination unit 14 is turned off and the state where it is turned on by performing difference / threshold processing including difference processing and threshold value processing based on the unilluminated image. Are extracted as the target object 11.
[0006]
[Problems to be solved by the invention]
However, in the conventional target object extraction image processing device, the control method of the target object extraction image processing device, the threshold set in the difference / threshold processing, and the method of extracting the target object 11 after the difference / threshold processing is performed Thus, the target object 11 cannot always be extracted stably and at high speed in any environment.
[0007]
When the target object 11 is photographed with a certain illumination intensity, when the target object 11 is far from the imaging unit 13, the target object 11 appears dark, and when the target object 11 is close to the imaging unit 13, the target object 11 is It will appear bright. Therefore, when the difference / threshold processing is performed, for example, when the target object 11 appears dark, it becomes impossible to extract a part or all of the target object 11.
[0008]
Therefore, the intensity of illumination is controlled based on the result obtained by performing the difference / threshold processing between the illumination image and the non-illumination image.
[0009]
However, when such control is performed, if the intensity of illumination is inappropriate, it is necessary to perform illumination image and non-illumination image capture and difference / threshold processing at least twice before extracting the target object 11. , Processing time will be long.
[0010]
Further, when the target object 11 is close to the background 12, the background 12 is also brightened to some extent when the illumination unit 14 is turned on. Therefore, if an appropriate threshold is not set in the difference / threshold processing, the target object 11 can be correctly extracted. Can not. For example, when the threshold value is low, a brightly changed background portion is also extracted as the target object 11, while when the threshold value is high, a part or all of the target object 11 cannot be extracted.
[0011]
An object of the present invention is to solve the problems of the conventional target object extraction image processing device and to provide a target object extraction image processing device which can always extract a target object stably and at high speed. And
[0012]
[Means for Solving the Problems]
Therefore, in the target object extraction image processing apparatus of the present invention, an illumination unit that illuminates the target object and the background, an imaging unit that captures the target object and the background, and a distance from the imaging unit to the target object are measured. The distance measurement unit, the optimum illumination parameter recording means for recording the optimum illumination intensity when the target object and the background are illuminated for each distance from the imaging unit to the target object, and the distance measurement unit The optimum illumination intensity is read from the optimum illumination parameter recording means based on the measured distance, and the illumination unit illuminates the target object and the background with the optimum illumination intensity, or the illumination intensity lower than the optimum illumination intensity. Illuminate the target object and background with the illumination control unit that illuminates the target object and the background or turns off the illumination unit, and images of the target object and the background illuminated with the optimal illumination intensity Shooting that records a certain illumination image and an unilluminated image, which is an image obtained by photographing the target object and the background with the illumination unit turned off with an illumination intensity lower than the optimum illumination intensity, or with the illumination unit turned off. A control unit, an optimum threshold value calculation processing unit that calculates an optimum threshold value based on a difference between a background luminance value in the illumination image and a background luminance value in the non-illuminated image, and records the optimum threshold value recording unit; and the illumination image A difference process for generating a difference image between the unilluminated image and the difference / threshold processing unit for performing a threshold process for generating an image of the target object candidate region by comparing the difference image with the optimum threshold; A target object extraction unit that extracts a target object based on an image of the target object candidate region and a model of the target object.
[0013]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[0014]
FIG. 1 is a block diagram of a target object extraction image processing apparatus according to the first embodiment of the present invention.
[0015]
In the figure, 10 is a target object extraction image processing device, 11 is a target object, 12 is a background, 201 is an illumination unit that illuminates the target object 11 and the background 12, 202 is disposed near the illumination unit 201, and An imaging unit that captures the target object 11 and the background 12, 203 a distance measuring unit that measures the distance from the imaging unit 202 to the target object 11, and 21 controls the intensity (brightness) of illumination of the illumination unit 201. An illumination control unit 22 is an imaging control unit that controls the imaging unit 202, and 23 is a ranging control unit that controls the ranging unit 203. The illumination control unit 21, the imaging control unit 22, and the distance measurement control unit 23 constitute a device control unit 204.
[0016]
Reference numeral 205 denotes a distance recording unit that records the distance from the imaging unit 202 measured by the distance measuring unit 203 to the target object 11, and 206 denotes an illumination that records the intensity of illumination controlled by the illumination control unit 21. A parameter recording unit 207 is an image recording unit that records at least two images captured by the imaging unit 202.
[0017]
208 is based on the image recorded in the image recording unit 207, the intensity of illumination recorded in the illumination parameter recording unit 206, and the optimum threshold value read from the optimum threshold value database 25 as the optimum threshold value recording means. A difference / threshold processing unit 209 for performing difference / threshold processing, and a target object 209 based on the result of the difference / threshold processing by the difference / threshold processing unit 208 and the model of the target object 11 read from the target object model database 210 11 is a target object extraction unit that extracts the extraction result and outputs the extraction result. The target object model database 210 records model data of the target object 11 to be extracted.
[0018]
Reference numeral 211 denotes an optimum parameter database. The optimum parameter database 211 serves as optimum illumination parameter recording means for recording optimum illumination intensity as a first optimum parameter with respect to the distance from the imaging unit 202 to the target object 11. And the optimum threshold value database 25 in which an optimum threshold value as a second optimum parameter for each illumination parameter used in the difference / threshold processing unit 208 is recorded. The optimum threshold value is sent to the control unit 21 to the difference / threshold processing unit 208. Reference numeral 212 denotes an optimum parameter calculation unit that calculates the optimum illumination intensity and optimum threshold value, and reference numeral 213 denotes a warning output unit that outputs a warning when an abnormal value is detected in the optimum parameter calculation unit 212.
[0019]
Next, the operation of the target object extraction image processing apparatus 10 having the above configuration will be described.
[0020]
The operation of the target object extraction image processing apparatus 10 according to the present embodiment includes two phases (processing flow): a parameter data setting phase and a target object extraction phase.
[0021]
The parameter data setting phase is for setting two databases that record optimum illumination intensity and optimum threshold value, and needs to be performed before the target object extraction phase.
[0022]
The target object extraction phase is for extracting the target object 11 from the image, and is a main phase in the target object extraction image processing apparatus 10. The parameter data setting phase is not necessarily performed when the optimum parameter database 211 that has already been set for the imaging environment and the target object 11 can be used.
[0023]
In the target object extraction phase, first, the distance from the imaging unit 202 to the target object 11 is measured by the distance measuring unit 203, and the measured distance is recorded in the distance recording unit 205. Next, the illumination control unit 21 reads the optimum illumination intensity from the optimum illumination parameter database 24 based on the distance recorded in the distance recording unit 205, and turns on the illumination unit 210 with the optimum illumination intensity. Increase the intensity of lighting. The illumination control unit 21 records the optimal illumination intensity at that time in the illumination parameter recording unit 206. Note that the target object 11 can be prevented from being erroneously detected by the optimal illumination intensity, and the target object 11 can be extracted stably.
[0024]
Next, the illumination unit 201 is turned on with the optimum illumination intensity, the target object 11 and the background 12 are photographed by the imaging unit 202, and the photographed illumination images of the target object 11 and the background 12 are recorded in the image recording unit 207. . Immediately after shooting the illumination image, the illumination unit 201 is turned off to reduce the intensity of illumination, the imaging unit 202 captures the target object 11 and the background 12, and the captured target object 11 and background 12 are captured. An unilluminated image is recorded in the image recording unit 207. Subsequently, the illumination image and the non-illumination image recorded in the image recording unit 207 are sent to the difference / threshold processing unit 208, and a candidate area for extracting the target object 11 (hereinafter referred to as “target object candidate area”). Is set. Therefore, the difference / threshold processing unit 208 performs difference / threshold processing based on the illumination image, the non-illumination image, the intensity of illumination, and the optimum threshold.
[0025]
In the present embodiment, the illumination intensity is reduced by turning off the illumination unit 201 when taking a non-illuminated image. However, the illumination image is taken without turning off the illumination unit 201. It is also possible to lower the intensity of illumination than when doing so. However, the larger the difference between the intensity of illumination when capturing an illumination image and the intensity of illumination when capturing an unilluminated image, the better.
[0026]
Next, the basic principle for extracting the target object 11 will be described.
[0027]
FIG. 3 is a diagram illustrating an example of an unilluminated image according to the first embodiment of the present invention, FIG. 4 is a diagram illustrating an example of an illuminated image according to the first embodiment of the present invention, and FIG. FIG. 6 is a diagram showing an example of a difference image in the first embodiment, FIG. 6 is a diagram showing a luminance histogram of the difference image in the first embodiment of the present invention, and FIG. 7 is an object in the first embodiment of the present invention. The figure which shows the 1st example of an object candidate area | region, FIG. 8 is a figure which shows the 2nd example of the target object candidate area | region in the 1st Embodiment of this invention, FIG. 9 is 1st Embodiment of this invention FIG. 10 is a diagram showing a third example of a target object candidate region in FIG. 10, FIG. 10 is a diagram showing a background image when an object with high reflectance exists in the background in the first embodiment of the present invention, and FIG. The figure which shows the illumination image in case a target object exists in front of the background in 1st Embodiment of this, 12 is a diagram showing a fourth example of the target object candidate area in the first embodiment of the present invention. In FIG. 6, the horizontal axis represents the luminance difference and the vertical axis represents the frequency.
[0028]
If the illumination unit 201 is turned on when the target object 11 (FIG. 1) is located away from the background 12 and close to the imaging unit 202, the object near the illumination unit 201 is generally brighter than the background 12. The non-illuminated image is as shown in FIG. 3, and the illuminated image is as shown in FIG.
[0029]
Then, by performing the difference processing of the difference / threshold processing, and subtracting the brightness of the non-illuminated image from the brightness of the illumination image, a difference image as shown in FIG. 5 is generated. It is represented by a luminance histogram as shown in FIG. In FIG. 6, the part A mainly represents the area of the background 12, and the part B mainly represents the area of the target object 11. In this case, the luminance change between the lighting portion 201 and the background portion 12 that is far from the lighting unit 201 is small, and the luminance change between the lighting unit 201 and the target object 11 that is close to the lighting unit 201 is large. Become.
Therefore, when threshold processing of difference / threshold processing is performed with respect to the difference image with a predetermined threshold, images as shown in FIGS. 7 to 9 are obtained, and regions that have changed to white are the target object candidate regions. It becomes. Then, when threshold processing is performed with an appropriate threshold T1, the target object candidate region is formed as a silhouette of the target object 11 as shown in FIG. 7, so that the target object 11 can be easily extracted. it can. On the other hand, when threshold processing is performed with the threshold T2 (<T1), a target object candidate region including the background 12 is formed as shown in FIG. 8, and the threshold processing is performed with the threshold T3 (> T1). If this is done, as shown in FIG. 9, a target object candidate region lacking the target object 11 is formed, which makes it difficult to extract the target object 11.
[0030]
Therefore, in the present embodiment, an optimum threshold value such as the threshold value T1 is recorded in advance in the optimum threshold value database 25 in association with the intensity of each illumination, and when the threshold value processing is performed, the optimum threshold value database 25 An optimum threshold value corresponding to the illumination intensity at that time is determined. Therefore, an optimal target object candidate region can be formed in any environment. Note that the optimum threshold value database 25 used in threshold value processing is set in the parameter data setting phase.
[0031]
By the way, by performing the processing as described above, the target object candidate region as shown in FIG. 7 may be formed as a silhouette of the target object 11 as it is. When there is an object having a higher reflectance than the object 11, the target object candidate region is not necessarily formed as a silhouette of the target object 11. For example, as shown in FIG. 10, there is a window glass as a highly reflective object in the background 12, and when the target object 11 is a person standing in front of the window glass as shown in FIG. When the part 201 is turned on, the background 12 becomes brighter than the target object 11. As a result, when the difference / threshold processing is performed on the illumination image and the non-illumination image as described above, a target object candidate region as shown in FIG. 12 is formed, and the window glass of the background 12 is erroneously set as the target object 11. It will be extracted.
[0032]
Therefore, the target object extraction unit 209 extracts the target object 11 from the target object candidate area.
[0033]
The method of extracting the target object 11 from the target object candidate area in the target object extraction unit 209 differs depending on the type of the target object 11 to be extracted, but the basic processing flow is the same. That is, the target object extraction unit 209 is preliminarily assumed for the target object candidate region formed by the difference / threshold processing unit 208 and is based on the model information of the target object 11 recorded in the target object model database 210. Further, the target object 11 is extracted based on the distance from the imaging unit 202 to the target object 11 as necessary. For example, when a target object candidate region as shown in FIG. 12 is formed, the target object 11 is extracted by fitting a model of a human shape. Further, a face model and a body model are prepared in advance as models of the target object 11, and the face model is extracted from the target object candidate area as shown in FIG. 12, and the extracted face is extracted. By fitting a body model from the size and position of the body, the body size and position can be estimated to extract the body. And a body can also be extracted using the target object candidate area | region shown by FIG. 12, and the illumination image of FIG. 11 (refer Japanese Patent Application No. 11-149281 specification).
[0034]
As described above, in the present embodiment, the optimal illumination unit 201 is controlled based on the distance from the imaging unit 202 to the target object 11, and the optimum threshold value in the difference / threshold processing is determined based on the illumination intensity. Finally, since the target object 11 is extracted using the model of the target object 11, the target object 11 can be extracted stably and at high speed in any environment.
[0035]
Next, the parameter data setting phase will be described.
[0036]
The parameter data setting phase is for setting the optimum illumination intensity and the optimum threshold used in the target object extraction phase.
[0037]
FIG. 13 is a diagram showing a luminance histogram of a difference image when the target object is close to the background in the first embodiment of the present invention, and FIG. 14 is a case where the illumination intensity is low in the first embodiment of the present invention. FIG. 15 is a diagram showing a luminance histogram of the difference image, and FIG. 15 is a diagram showing a luminance histogram of the difference image when the illumination intensity is high in the first embodiment of the present invention. 13 to 15, the horizontal axis represents the luminance difference and the vertical axis represents the frequency. 13 to 15, the part A mainly represents the area of the background 12 (FIG. 1), and the part B mainly represents the area of the target object 11.
[0038]
First, the optimum illumination control method and the creation method of the optimum illumination parameter database 24 will be described.
[0039]
In the target object extraction image processing apparatus 10, when the target object 11 is far from the illumination unit 201 and close to the background 12, when the target object 11 and the background 12 are illuminated with a constant illumination intensity, an illumination image and an unilluminated image are displayed. In the luminance histogram of the difference image, the part A and the part B overlap as shown in FIG. In this case, if threshold processing is performed, a part of the target object 11 is missing even if the optimum threshold T1 is set, and a target object candidate area including a part of the background 12 is formed. If threshold values T2 and T3 are set, a target object candidate area in which the target object 11 is further missing or the background 12 is included is formed. Therefore, the processing load of the target object extraction unit 209 increases and the processing time becomes long.
[0040]
Therefore, an optimal illumination control method for optimally controlling the illumination unit 201 will be described.
[0041]
In general, in the case of an object whose surface is diffusely reflected, when the illumination unit 201 is turned on and the object is photographed, the brightness of the object becomes brighter in proportion to the intensity of illumination, and is the square of the distance from the illumination unit 201. Darkens inversely. Therefore, unless the reflectance of the background 12 is much higher than the reflectance of the target object 11 (for example, a mirror or the like), if the target object 11 and the background 12 are photographed with varying illumination intensity, the illumination image is not displayed. The luminance histogram of the difference image from the illumination image is as shown in FIG. 14 when the illumination intensity is low, and as shown in FIG. 15 when the illumination intensity is high.
[0042]
That is, when the intensity of illumination is increased, the illumination image is generally brightened, but the object closer to the illumination unit 201 than the amount of the background 12 that is far from the illumination unit 201 becomes brighter due to the diffuse reflection characteristics as described above. The part where the part of the object 11 becomes brighter becomes larger. Therefore, since the luminance histogram of the difference image between the illumination image and the non-illumination image is such that the portion A and the portion B are separated as shown in FIG. 15, the target object 11 can be easily extracted by threshold processing. Can do. Thus, it becomes easier to extract the target object 11 as the intensity of illumination is higher.
[0043]
However, if the intensity of the illumination is excessively high, the luminance of the target object 11 to be extracted is deteriorated due to saturation of the luminance. Therefore, the intensity of illumination of the illumination unit 201 is controlled so that the luminance is not saturated. It is preferable to do. That is, the illumination unit 201 is optimally controlled so that the target object 11 is illuminated most brightly so that the luminance is not saturated at any distance from the imaging unit 202.
[0044]
Therefore, in the present embodiment, the optimal illumination parameter database 24 is set at each distance so that the target object 11 can be illuminated with an appropriate illumination intensity according to the distance of the target object 11 from the imaging unit 202. The corresponding optimum illumination intensity is recorded.
[0045]
Next, a process for creating the optimum illumination parameter database 24 will be described.
[0046]
FIG. 16 is a flowchart showing the operation of the optimum illumination parameter database creation processing in the first embodiment of the present invention, and FIG. 17 is an example of the measured values of the distance and the optimum illumination intensity in the first embodiment of the present invention. FIG. 18 is a diagram showing an example of the optimum illumination parameter database in the first embodiment of the present invention.
[0047]
First, a test chart having properties equivalent to those of the target object 11 is arranged at a predetermined position in front of the imaging unit 202 (FIG. 1). When the target object 11 and the test chart are photographed, the luminances of the photographed target object 11 and the test chart are substantially equal. In the present embodiment, the target object 11 is configured by a test chart in the process of creating the optimum illumination parameter database 24.
[0048]
Next, the distance measurement control unit 23 performs distance recording processing, measures the distance from the imaging unit 202 to the test chart by the distance measurement unit 203, and records the measured distance in the distance recording unit 205. Subsequently, the illumination control unit 21 performs an illumination control process, illuminates the test chart with the illumination unit 201 at a predetermined illumination intensity, records the illumination intensity at that time in the illumination parameter recording unit 206 as an illumination intensity, The imaging control unit 22 performs image capturing / recording processing, images a test chart by the imaging unit 202 for each illumination intensity, and records an image of the captured test chart in the image recording unit 207.
[0049]
Then, when the illumination control unit 21 performs the illumination control process for all the illumination intensities set in advance, and the imaging control unit 22 performs the image capturing / recording process for each illumination intensity. Optimal illumination parameter calculation processing means (not shown) of the optimal parameter calculation unit 212 performs optimal illumination parameter determination processing, and calculates image feature amounts (average luminance, maximum luminance, etc.) for all images recorded in the image recording unit 207. The calculated image feature value takes the most appropriate value, and the test chart selects an image that is brightest and bright enough not to saturate the luminance.
[0050]
Further, the optimum illumination parameter calculation processing means performs optimum illumination parameter recording processing, calculates the optimum illumination intensity by reading the illumination intensity corresponding to the selected image from the illumination parameter recording unit 206, and The distance when the image is taken is read from the distance recording unit 205, and the optimum illumination intensity and distance are recorded in the optimum illumination parameter database 24.
[0051]
These processes are repeated by changing the position where the test chart is arranged, and the actual measured values of the distance and the optimal illumination intensity at each position as shown in FIG. 17 can be obtained.
[0052]
Subsequently, the optimum parameter calculation unit 212 performs an interpolation process, interpolates the measured values of the distance and the optimum illumination intensity, and finally optimizes corresponding to the distance as shown in FIG. An optimum illumination parameter database 24 in which the intensity of various illuminations is recorded is created.
[0053]
Next, a flowchart will be described.
Step S1 A test chart is arranged.
Step S2 A distance recording process is performed.
Step S3: Perform illumination control processing.
Step S4 Image photographing / recording processing is performed.
Step S5: It is determined whether or not the illumination control process and the image capturing / recording process have been completed for all illumination intensities. If the illumination control process and the image capturing / recording process have been completed for all illumination intensities, the process proceeds to step S6. If not completed, the process returns to step S3.
Step S6: Optimal illumination parameter determination processing is performed.
Step S7: Perform the optimum illumination parameter recording process and return to Step S1.
[0054]
Next, a method for creating the optimum threshold value and optimum threshold value database 25 will be described.
[0055]
FIG. 19 is a diagram showing a luminance histogram of a difference image of threshold processing in the first embodiment of the present invention, FIG. 20 is a first diagram showing results of threshold processing in the first embodiment of the present invention, and FIG. FIG. 22 is a second diagram showing the threshold processing result in the first embodiment of the present invention, and FIG. 22 is a third diagram showing the threshold processing result in the first embodiment of the present invention. In FIG. 19, the horizontal axis represents the luminance difference and the vertical axis represents the frequency. In FIG. 19, the part A mainly represents the area of the background 12 (FIG. 1), and the part B mainly represents the area of the target object 11.
[0056]
First, the optimum threshold for performing the difference / threshold processing will be described. For example, when the luminance histogram of the difference image between the illumination image and the non-illumination image shown in FIG. 19 is obtained, the threshold values T11, T22, and T33 are optimum, depending on the target object extraction method. Then, when threshold processing is performed with the threshold T11, the target object candidate region shown in FIG. 20 performs threshold processing with the threshold T22, and when the target object candidate region illustrated in FIG. 21 performs threshold processing with the threshold T33. The target object candidate region shown in FIG. 22 is formed. The target object candidate area shown in FIG. 21 is substantially equal to the target object candidate area when the luminance histogram shown in FIG. 6 is obtained.
[0057]
In this case, when threshold processing is performed with the threshold T22, as shown in FIG. 21, the portion of the background 12 is hardly included, and the portion of the target object 11 is substantially included. On the other hand, when threshold processing is performed with the threshold T11, the portion of the target object 11 is not missing as shown in FIG. 20, but the portion of the background 12 is relatively large. Further, when threshold processing is performed with the threshold T33, the background 12 portion is hardly included as shown in FIG. 22, but the target object 11 portion is slightly chipped.
[0058]
Here, in the extraction process of the target object extraction unit 209, even when the background 12 portion is slightly included, if it is preferable that the target object 11 is less missing, the threshold T11 is the optimum threshold. On the contrary, even if the target object 11 is slightly missing, if it is better not to include the portion of the background 12, the threshold T33 is an optimal threshold, the target object 11 is less missing, and the background If it is better not to include the 12 portion, the threshold T22 is the optimum threshold.
[0059]
In this way, the optimum threshold value can extract most of the target object 11 portion as the threshold value T11, can remove most of the background 12 portion as the threshold value T33, In addition, there is a case where the background 12 is small and most of the target object 11 can be extracted as in the threshold T22.
[0060]
By the way, the luminance histogram of the difference image as shown in FIG. 19 changes as shown in FIGS. 14 and 15 when the illumination intensity is changed corresponding to the position of the target object 11 as described above. . Therefore, it is necessary to determine an optimum threshold value based on the difference image between the illumination image and the non-illumination image for the background 12 and the target object 11 when the illumination intensity is changed.
[0061]
Next, the operation of the optimum threshold database creation process will be described.
[0062]
FIG. 23 is a flowchart showing the operation of the first optimum threshold database creation processing in the first embodiment of the present invention, and FIG. 24 is the operation of the second optimum threshold database creation processing in the first embodiment of the present invention. FIG. 25 is a flowchart showing the operation of the third optimum threshold value database creating process in the first embodiment of the present invention, and FIG. 26 is the optimum illumination intensity and the first embodiment of the present invention. FIG. 27 is a diagram illustrating an example of an actual measurement value of the optimum threshold value, and FIG. 27 is a diagram illustrating an example of an optimum threshold value database according to the first embodiment of the present invention.
[0063]
In this case, FIG. 23 shows a processing procedure when the optimum threshold value database 25 (FIG. 1) is created with the threshold value T11 shown in FIG. 19 as the optimum threshold value, and FIG. 24 shows the optimum threshold value database 25 with the threshold value T33 as the optimum threshold value. FIG. 25 shows a processing procedure when the optimum threshold value database 25 is created with the threshold value T22 as an optimum threshold value.
[0064]
First, when the optimum threshold value database 25 is created with the threshold value T11 as an optimum threshold value, the illumination control unit 21 performs the first illumination control process, turns off the illumination unit 201, and the imaging control unit 22 uses the unilluminated background. Image capturing / recording processing is performed, the background 12 without the target object 11 and the like is captured by the imaging unit 202, and the captured image of the background 12 is recorded in the image recording unit 207 as an unilluminated background image.
[0065]
Next, the illumination control unit 21 performs a second illumination control process, reads a predetermined optimum illumination intensity recorded in the optimum illumination parameter database 24, and lights the illumination unit 201 with the optimum illumination intensity. Then, the imaging unit 202 performs illumination background image photographing / recording processing, photographs the background 12, and records the photographed image of the background 12 in the image recording unit 207 as the illumination background image. Subsequently, an optimum threshold value calculation processing unit (not shown) of the optimum parameter calculation unit 212 performs an optimum threshold value calculation process, performs a difference process between the non-illuminated background image and the illuminated background image recorded in the image recording unit 207, and luminance Create a histogram. Since the luminance histogram generally has a distribution as shown in the portion A in FIG. 19, the threshold value T11 is determined based on characteristics in the luminance histogram distribution, for example, an average value.
[0066]
Subsequently, the optimum threshold value calculation processing means performs an optimum threshold value recording process, and records the threshold value T11 as an optimum threshold value in the optimum threshold value database 25 together with the predetermined optimum illumination intensity.
[0067]
In this way, the respective processes are performed for all optimum illumination intensities recorded in the optimum illumination parameter database 24, the optimum threshold value is calculated for each optimum illumination intensity, and the optimum illumination intensity and By recording the optimum threshold value in the optimum threshold value database 25, it is possible to obtain the optimum illumination intensity and the measured value of the optimum threshold value as shown in FIG.
[0068]
Subsequently, the optimum parameter calculation unit 212 performs an interpolation process, interpolates the measured values of the optimum illumination intensity and the optimum threshold value, and finally each optimum illumination as shown in FIG. An optimum threshold value database 25 in which optimum threshold values are recorded corresponding to the intensity is created.
[0069]
Next, a flowchart will be described.
Step S11 A first illumination control process is performed.
Step S12 A non-illuminated background image photographing / recording process is performed.
Step S13 A second illumination control process is performed.
Step S14 The illumination background image photographing / recording process is performed.
Step S15: An optimum threshold value calculation process is performed.
Step S16: Perform the optimum threshold value recording process, and return to Step S11.
[0070]
Next, when creating the optimum threshold value database 25 using the threshold value T33 as an optimum threshold value, the device control unit 204 first reads one of the distances recorded in the optimum illumination parameter database 24. Then, the operator places a test chart at the position of the distance in front of the imaging unit 202.
[0071]
Subsequently, the illumination control unit 21 performs a first illumination control process, turns off the illumination unit 201, the imaging control unit 22 performs a non-illuminated image capturing / recording process, and the test chart is captured by the imaging unit 202. Then, the photographed image of the test chart is recorded in the image recording unit 207 as a non-illuminated image.
[0072]
Next, the illumination control unit 21 performs a second illumination control process, reads the optimum illumination intensity corresponding to the distance recorded in the optimum illumination parameter database 24, and uses the optimum illumination intensity to illuminate the illumination unit. 201 is turned on, and the imaging unit 202 performs illumination image capturing / recording processing, captures a test chart, and records an image of the captured test chart in the image recording unit 207 as an illumination image. Subsequently, the optimum threshold value calculation processing means performs an optimum threshold value calculation process, performs a difference process between the non-illuminated image recorded in the image recording unit 207 and the illumination image, and creates a luminance histogram only for the test chart portion. To do. As described above, since the luminance histogram has a distribution as shown in the portion B in FIG. 19, the threshold value T33 is determined based on characteristics in the distribution of the luminance histogram, such as an average value.
[0073]
Subsequently, the optimum threshold value calculation processing means performs optimum threshold value recording processing and records the threshold value T33 in the optimum threshold value database 25 as the optimum threshold value together with the predetermined optimum illumination intensity.
[0074]
In this way, test charts are placed at all the distances recorded in the optimum illumination parameter database 24, and optimum threshold values are calculated for each distance and each optimum illumination intensity. By recording the threshold value in the optimum threshold value database 25, it is possible to obtain the optimum illumination intensity and the actual measured value of the optimum threshold value similar to those shown in FIG.
[0075]
Subsequently, the optimum parameter calculation unit 212 performs an interpolation process, interpolates each optimum illumination intensity and optimum measured value of the optimum threshold value, and finally, an optimum threshold value database similar to that shown in FIG. 25 is created.
[0076]
Next, a flowchart will be described.
Step S21 A test chart is arranged.
Step S22 A first illumination control process is performed.
Step S23 An unilluminated image photographing / recording process is performed.
Step S24: A second illumination control process is performed.
Step S25 The illumination image photographing / recording process is performed.
Step S26: An optimal threshold value calculation process is performed.
Step S27: Perform the optimum threshold value recording process and return to Step S21.
[0077]
When creating the optimum threshold value database 25 using the threshold value T22 as the optimum threshold value, the illumination control unit 21 first performs the first illumination control process and turns off the illumination unit 201. In addition, the imaging control unit 22 performs non-illuminated background image capturing / recording processing, the background 12 without the target object 11 or the like is captured by the imaging unit 202, and the captured image of the background 12 is recorded as an unilluminated background image. Recorded in the unit 207.
[0078]
Next, the illumination control unit 21 performs a second illumination control process, reads a predetermined optimum illumination intensity recorded in the optimum illumination parameter database 24, and lights the illumination unit 201 with the optimum illumination intensity. Then, the imaging unit 202 performs illumination background image photographing / recording processing, photographs the background 12, and records the photographed image of the background 12 in the image recording unit 207 as the illumination background image.
[0079]
Subsequently, the device control unit 204 reads a distance corresponding to the optimum illumination intensity recorded in the optimum illumination parameter database 24. Then, the operator places a test chart at the position of the distance in front of the imaging unit 202.
[0080]
Next, the illumination control unit 21 performs a third illumination control process, turns off the illumination unit 201, the imaging control unit 22 performs a non-illuminated image capturing / recording process, and the test chart is captured by the imaging unit 202. Then, the photographed image of the test chart is recorded in the image recording unit 207 as a non-illuminated image.
[0081]
Subsequently, the illumination control unit 21 performs a fourth illumination control process, turns on the illumination unit 201 with the optimal illumination intensity read in the second illumination control process, and the imaging unit 202 The photographing / recording process is performed, the test chart is photographed, and an image of the photographed test chart is recorded in the image recording unit 207 as an illumination image.
[0082]
The optimum threshold value calculation processing means performs an optimum threshold value calculation process, and includes an unilluminated background image recorded in the unilluminated background image capturing / recording process, an illuminated background image recorded in the illuminated background image capturing / recording process, An optimum threshold value is calculated based on the non-illuminated image recorded in the illumination image capturing / recording process and the illumination image recorded in the illumination image capturing / recording process. For example, the distribution of the luminance histogram of the difference image between the unilluminated background image and the illumination background image indicated by the portion A in FIG. 19 and the luminance histogram of the difference image between the unilluminated image and the illumination image indicated by the portion B in FIG. Threshold value T22 is determined based on each feature of the distribution (for example, the Mahalanobis distance of the distribution of the two luminance histograms).
[0083]
Subsequently, the optimum threshold value calculation processing means performs optimum threshold value recording processing, and records the threshold value T22 in the optimum threshold value database 25 as the optimum threshold value together with the predetermined optimum illumination intensity.
[0084]
In this way, test charts are placed at all the distances recorded in the optimum illumination parameter database 24, and optimum threshold values are calculated for each distance and each optimum illumination intensity. By recording the threshold value in the optimum threshold value database 25, it is possible to obtain the optimum illumination intensity and the actual measured value of the optimum threshold value similar to those shown in FIG.
[0085]
Subsequently, the optimum parameter calculation unit 212 performs an interpolation process, interpolates each optimum illumination intensity and optimum measured value of the optimum threshold value, and finally, an optimum threshold value database similar to that shown in FIG. 25 is created.
[0086]
As described above, the optimum threshold value calculation processing unit is configured to obtain an optimum threshold value based on an image obtained by illuminating at least one of the unilluminated background image and the unilluminated image, and at least one of the illuminated background image and the illuminated image. Is calculated.
[0087]
By the way, the optimum threshold value calculated in the first to third optimum threshold value database creation processes is an abnormal value and may be inappropriate for extracting the target object 11. For example, if the optimum threshold is too small (very close to 0 in 256 gradations), the shooting environment is extremely bright, and there is no difference in luminance between when the illumination unit 201 is turned on and when it is turned off. If the optimum threshold is too large (very close to 255 in 256 gradations), the distance from the imaging unit 202 to the background 12 is extremely short.
[0088]
In such a case, since the target object candidate area cannot be formed, it is assumed that the optimum threshold value is an abnormal value, and the warning output unit 213 outputs a warning that the optimum threshold value is inappropriate.
[0089]
In the present embodiment, the optimum threshold value is obtained for all optimum illumination intensities recorded in the optimum illumination parameter database 24. However, a predetermined optimum of the optimum illumination intensities is obtained. It is also possible to create an optimum threshold value database 25 by obtaining an optimum threshold value for the intensity of illumination and performing an interpolation process for the obtained optimum threshold value.
[0090]
As described above, in the present embodiment, since the optimum illumination intensity can be obtained in correspondence with the distance from the imaging unit 202 to the target object 11, the illumination intensity can be made appropriate. .
[0091]
Then, since the optimum threshold value is calculated and set corresponding to each optimum illumination intensity, it is necessary to repeat the photographing of the illumination image and the non-illuminated image and the difference / threshold processing until the target object 11 is extracted. Disappear. Therefore, since the processing time can be shortened, the target object 11 can be extracted at high speed.
[0092]
In addition, since the optimum threshold value is calculated and set corresponding to each optimum illumination intensity, the target object 11 can always be extracted stably and correctly.
[0093]
Since the target object 11 is finally extracted using the model of the target object 11, for example, in any environment, for example, there is an object having a higher reflectance than the target object 11 in the background 12 Even in this case, the target object 11 can be extracted stably and at high speed.
[0094]
Furthermore, when the optimum threshold value is inappropriate, a warning is output, so that the target object 11 can be correctly extracted.
[0095]
Next, a flowchart will be described.
Step S31 A first illumination control process is performed.
Step S32 A non-illuminated background image photographing / recording process is performed.
Step S33 A second illumination control process is performed.
Step S34 An illumination background image is captured and recorded.
Step S35 A test chart is arranged.
Step S36: A third illumination control process is performed.
Step S37 An unilluminated image photographing / recording process is performed.
Step S38: A fourth illumination control process is performed.
Step S39 The illumination image photographing / recording process is performed.
Step S40: Optimal threshold calculation processing is performed.
Step S41 An optimum threshold value recording process is performed, and the process returns to Step S31.
[0096]
Next, a second embodiment of the present invention will be described. In addition, about the thing which has the same structure as 1st Embodiment, the description is abbreviate | omitted by providing the same code | symbol.
[0097]
FIG. 28 is a block diagram of a target object extraction image processing apparatus according to the second embodiment of the present invention.
[0098]
In this case, for example, the target object 11 is at a substantially constant distance from the imaging unit 202 as in the case of extracting a person in a car. Since the position of the target object 11 is constant, the target object extraction image processing apparatus 100 does not include a distance measurement unit, a distance measurement control unit, and a distance recording unit. Therefore, the cost of the target object extraction image processing apparatus 100 can be reduced.
[0099]
In addition, since the position of the target object 11 is constant, the optimum illumination parameter database 24 records only one optimum illumination intensity, not a change in distance. Along with this, one optimum threshold value is recorded in the optimum threshold value database 25 in correspondence with one optimum illumination intensity.
[0100]
By the way, for example, in the first and second embodiments, if the shooting environment changes greatly due to sunlight or the like in the target object extraction phase, the illumination image becomes too bright or too dark. 11 is too bright or too dark, and the image quality of the target object 11 is degraded.
[0101]
Therefore, a third embodiment in which the image quality of the image of the target object 11 can be checked will be described. In addition, about the thing which has the same structure as 1st Embodiment, the description is abbreviate | omitted by providing the same code | symbol.
[0102]
FIG. 29 is a block diagram of the target object extraction image processing apparatus according to the third embodiment of the present invention, FIG. 30 is a diagram showing an example of the optimum illumination parameter database according to the third embodiment of the present invention, and FIG. It is a figure which shows the example of the optimal threshold value database in the 3rd Embodiment of invention.
[0103]
In the figure, reference numeral 200 denotes a target object extracted image processing apparatus, and 414 denotes an extracted object image quality check unit. The image quality of the extracted image of the target object 11 is checked so that a good image can be obtained.
[0104]
In the present embodiment, the extracted object image quality check unit 414 checks the image quality of the image of the target object 11 with the brightness. Therefore, the extracted object image quality check unit 414 calculates the average luminance in a predetermined area of the image of the target object 11, and determines whether the image quality is appropriate depending on whether the average luminance is within a preset range. Judge whether. If the average luminance does not fall within the range and the illumination image is too bright or too dark and the image quality is not appropriate, the extracted object image quality check unit 414 sends an instruction to the imaging control unit 42, and the imaging control unit 42 is controlled. The imaging control unit 42 changes the imaging unit parameters (camera gain, etc.), captures the non-illuminated image and the illuminated image again, and then performs the target object extraction phase to extract the target object 11. At this time, the extracted object image quality check unit 414 also sends an instruction to the illumination control unit 21 to control the illumination control unit 21. The illumination control unit 21 changes the intensity of illumination.
[0105]
Note that since the image quality changes when the imaging unit parameters are changed, the optimal illumination intensity and the optimal threshold value also change. Therefore, the optimum illumination parameter database 24 is represented by the distance, the image pickup unit parameter, and the optimum illumination intensity as shown in FIG. 30, and the optimum threshold beta base 25 is the optimum illumination as shown in FIG. Represented by the intensity, imaging unit parameters, and optimum threshold.
[0106]
Thus, in the present embodiment, even if the imaging environment changes greatly, the imaging unit parameters are changed, so that the target object 11 can be correctly extracted.
[0107]
In the present embodiment, as in the second embodiment, the distance measurement unit, the distance measurement control unit, and the distance recording unit may be omitted.
[0108]
In each of the embodiments, visible light is used in the illumination unit 201, but light in a specific wavelength region such as infrared light other than visible light can also be used. In that case, if the imaging unit 202 can perform imaging only with light in the wavelength range used by the illumination unit 201, the imaging unit 202 is less susceptible to environmental light in the imaging environment and can stably extract the target object 11. can do.
[0109]
In each of the above embodiments, the illumination image is captured after the non-illuminated image is captured. However, the non-illuminated image can also be captured after the illumination image is captured. In any case, if the target object 11 changes its posture, position, etc., when taking an unilluminated image and when taking an illuminated image, a difference image between the unilluminated image and the illuminated image can be accurately obtained. Therefore, it is preferable that the interval between the timing for capturing the non-illuminated image and the timing for capturing the illuminated image is shorter.
[0110]
When there are two or more target objects 11 to be extracted, in the luminance histogram distribution, one background 12 region as shown by the portion A in FIG. 19 is formed, whereas FIG. Two or more regions of the target object 11 as shown by the part B in FIG. Therefore, when setting the optimum threshold value in the parameter data setting phase, the threshold value is set in the area of the background 12 as in the case where the threshold value T11 is set in the first embodiment, It is preferable to set a threshold value in a region where the luminance difference is the smallest.
[0111]
In addition, this invention is not limited to the said embodiment, It can change variously based on the meaning of this invention, and does not exclude them from the scope of the present invention.
[0112]
【The invention's effect】
As described above in detail, according to the present invention, in the target object extraction image processing apparatus, the illumination unit that illuminates the target object and the background, the imaging unit that captures the target object and the background, and the imaging unit A distance measuring unit that measures the distance to the target object, and an optimum illumination parameter recording unit that records the optimal illumination intensity when the target object and the background are illuminated for each distance from the imaging unit to the target object; Reading the optimum illumination intensity from the optimum illumination parameter recording means based on the distance measured by the distance measuring unit, and illuminating the target object and the background with the optimum illumination intensity by the illumination unit, or Illuminate the target object and the background with an illumination intensity lower than the intensity of the illumination, or turn off the illumination unit, and the target object illuminated with the optimal illumination intensity by the illumination unit And an illuminated image that is an image of the background, and an unilluminated image that is an image obtained by photographing the target object and the background with the illumination unit turned off with an illumination intensity lower than the optimum illumination intensity. An optimum threshold value is calculated based on the difference between the background luminance in the illumination image and the background luminance in the non-illuminated image, and recorded in the optimum threshold value recording means. The difference which performs the threshold value process which produces | generates the image of a target object candidate area | region by comparing a difference means and the said optimal threshold value with the difference process which produces | generates the difference image of the said process means, and the said illumination image and a non-illuminated image A threshold processing unit, and a target object extraction unit that extracts a target object based on an image of the target object candidate region and a model of the target object.
[0113]
In this case, the optimum threshold value is calculated based on the difference between the luminance of the illumination image obtained by photographing the background and the luminance of the non-illuminated image.
[0114]
Accordingly, since the optimum threshold value is calculated in correspondence with the optimum illumination intensity, it is not necessary to repeat the shooting of the illumination image and the non-illuminated image, the difference process, and the threshold process until the target object is extracted. Can be shortened. As a result, the target object can be extracted at high speed.
[0115]
In addition, since the optimum threshold value is calculated corresponding to each optimum illumination intensity, the target object can always be stably and correctly extracted.
[Brief description of the drawings]
FIG. 1 is a block diagram of a target object extraction image processing apparatus according to a first embodiment of the present invention.
FIG. 2 is a diagram illustrating a positional relationship between a background and a target object in a conventional target object extraction image processing apparatus.
FIG. 3 is a diagram illustrating an example of an unilluminated image according to the first embodiment of the present invention.
FIG. 4 is a diagram showing an example of an illumination image in the first embodiment of the present invention.
FIG. 5 is a diagram showing an example of a difference image in the first embodiment of the present invention.
FIG. 6 is a diagram showing a luminance histogram of a difference image in the first embodiment of the present invention.
FIG. 7 is a diagram showing a first example of a target object candidate region in the first embodiment of the present invention.
FIG. 8 is a diagram illustrating a second example of the target object candidate region in the first embodiment of the present invention.
FIG. 9 is a diagram showing a third example of the target object candidate region in the first embodiment of the present invention.
FIG. 10 is a diagram showing a background image when an object having a high reflectance exists in the background according to the first embodiment of the present invention.
FIG. 11 is a diagram showing an illumination image when a target object is present in front of a background in the first embodiment of the present invention.
FIG. 12 is a diagram showing a fourth example of a target object candidate area in the first embodiment of the present invention.
FIG. 13 is a diagram showing a luminance histogram of a difference image when the target object is close to the background in the first embodiment of the present invention.
FIG. 14 is a diagram showing a luminance histogram of a difference image when the illumination intensity is low according to the first embodiment of the present invention.
FIG. 15 is a diagram showing a luminance histogram of a difference image when the intensity of illumination is high according to the first embodiment of the present invention.
FIG. 16 is a flowchart showing an operation of optimum illumination parameter database creation processing in the first embodiment of the present invention.
FIG. 17 is a diagram showing an example of measured values of distance and optimum illumination intensity according to the first embodiment of the present invention.
FIG. 18 is a diagram showing an example of an optimum illumination parameter database according to the first embodiment of the present invention.
FIG. 19 is a diagram showing a luminance histogram of a difference image in threshold processing according to the first embodiment of the present invention.
FIG. 20 is a first diagram illustrating a threshold processing result according to the first embodiment of this invention.
FIG. 21 is a second diagram showing a threshold processing result according to the first embodiment of the present invention.
FIG. 22 is a third diagram showing a threshold processing result according to the first embodiment of the present invention.
FIG. 23 is a flowchart showing an operation of first optimal threshold value database creation processing in the first exemplary embodiment of the present invention.
FIG. 24 is a flowchart showing the operation of second optimal threshold value database creation processing in the first exemplary embodiment of the present invention.
FIG. 25 is a flowchart showing the operation of a third optimum threshold database creation process in the first embodiment of the present invention.
FIG. 26 is a diagram showing an example of the optimum illumination intensity and the measured value of the optimum threshold value in the first embodiment of the present invention.
FIG. 27 is a diagram showing an example of an optimum threshold database according to the first embodiment of the present invention.
FIG. 28 is a block diagram of a target object extraction image processing apparatus according to a second embodiment of the present invention.
FIG. 29 is a block diagram of a target object extraction image processing apparatus according to a third embodiment of the present invention.
FIG. 30 is a diagram showing an example of an optimum illumination parameter database according to the third embodiment of the present invention.
FIG. 31 is a diagram showing an example of an optimum threshold database according to the third embodiment of the present invention.
[Explanation of symbols]
10, 100, 200 Target object extraction image processing apparatus
11 Target object
12 Background
24 Optimal lighting parameter database
25 Optimal threshold database
201 Lighting section
202 Imaging unit
203 Ranging unit
205 Distance recording unit
207 Image recording unit
208 Difference / threshold processing unit
209 Target object extraction unit
212 Optimal parameter calculator
213 Warning output section
414 Extracted object image quality check section

Claims (3)

(a)象物体及び背景を照らす照明部と、
(b)前記対象物体及び背景を撮影する撮像部と、
(c)該撮像部から前記対象物体までの距離を測定する測距部と、
(d)前記対象物体及び背景を照らしたときの最適な照明の強度が前記撮像部から前記対象物体までの距離ごとに記録された最適照明パラメータ記録手段と、
(e)前記測距部によって測定された距離に基づいて前記最適照明パラメータ記録手段から最適な照明の強度を読み出し、前記照明部によって、最適な照明の強度で対象物体及び背景を照らすか、又は最適な照明の強度より低い照明の強度で対象物体及び背景を照らすか、若しくは照明部を消灯する照明制御部と、
(f)照明部によって最適な照明の強度で照らして対象物体及び背景を撮影した画像である照明画像、並びに照明部によって最適な照明の強度より低い照明の強度で照らすか、又は照明部を消灯して対象物体及び背景を撮影した画像である無照明画像を画像記録部に記録する撮影制御部と、
(g)前記照明画像における背景の輝度と、無照明画像における背景の輝度との差に基づいて最適な閾値を算出し、最適閾値記録手段に記録する最適閾値算出処理手段と、
(h)前記照明画像と無照明画像との差分画像を生成する差分処理及び前記差分画像と前記最適な閾値とを比較することによって対象物体候補領域の画像を生成する閾値処理を行う差分・閾値処理部と、
(i)前記対象物体候補領域の画像及び対象物体のモデルに基づいて対象物体を抽出する対象物体抽出部とを有することを特徴とする対象物体抽出画像処理装置
(A) an illumination portion that illuminates the Target object and the background,
(B) an imaging unit that captures the target object and the background;
(C) a distance measuring unit that measures a distance from the imaging unit to the target object;
(D) Optimal illumination parameter recording means in which the optimal illumination intensity when illuminating the target object and the background is recorded for each distance from the imaging unit to the target object ;
(E) reading the optimum illumination intensity from the optimum illumination parameter recording means based on the distance measured by the distance measuring unit, and illuminating the target object and the background with the optimum illumination intensity by the illumination unit, or An illumination control unit that illuminates the target object and the background with an illumination intensity lower than the optimal illumination intensity, or turns off the illumination unit;
(F) An illumination image that is an image of the target object and background that is illuminated by the illumination unit with the optimum illumination intensity, and the illumination unit illuminates with an illumination intensity lower than the optimum illumination intensity, or the illumination unit is turned off. A shooting control unit that records an unilluminated image that is an image of the target object and the background in the image recording unit;
(G) an optimum threshold value calculation processing unit that calculates an optimum threshold value based on a difference between a background luminance in the illumination image and a background luminance in the non-illuminated image, and records the optimum threshold value in the optimum threshold value recording unit ;
(H) A difference process for generating a difference image between the illumination image and the non-illuminated image , and a threshold process for generating an image of the target object candidate region by comparing the difference image with the optimum threshold value. A threshold processing unit;
(I) A target object extraction image processing apparatus comprising: a target object extraction unit that extracts a target object based on an image of the target object candidate region and a model of the target object .
記最適閾値記録手段には、最適な照明の強度に対応させて最適な閾値が記録される請求項に記載の対象物体抽出画像処理装置。The front Symbol optimum threshold recording means, the object extracting apparatus according to claim 1, optimum threshold to correspond to the intensity of the optimal illumination is recorded. 抽出された対象物体の画質が適切であるかどうかをチェックし、画質が適切でない場合、撮像部及び照明部の制御を行う抽出物体画質チェック部を有する請求項1又は2に記載の対象物体抽出画像処理装置 3. The target object extraction according to claim 1, further comprising an extracted object image quality check unit that checks whether or not the image quality of the extracted target object is appropriate and controls the imaging unit and the illumination unit when the image quality is not appropriate. Image processing device .
JP2000323565A 2000-10-24 2000-10-24 Target object extraction image processing device Expired - Fee Related JP4483067B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000323565A JP4483067B2 (en) 2000-10-24 2000-10-24 Target object extraction image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000323565A JP4483067B2 (en) 2000-10-24 2000-10-24 Target object extraction image processing device

Publications (2)

Publication Number Publication Date
JP2002133400A JP2002133400A (en) 2002-05-10
JP4483067B2 true JP4483067B2 (en) 2010-06-16

Family

ID=18801214

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000323565A Expired - Fee Related JP4483067B2 (en) 2000-10-24 2000-10-24 Target object extraction image processing device

Country Status (1)

Country Link
JP (1) JP4483067B2 (en)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE60325536D1 (en) 2002-09-20 2009-02-12 Nippon Telegraph & Telephone Apparatus for generating a pseudo-three-dimensional image
JP4678487B2 (en) * 2005-03-15 2011-04-27 オムロン株式会社 Image processing system, image processing apparatus and method, recording medium, and program
JP4701861B2 (en) * 2005-06-22 2011-06-15 コニカミノルタエムジー株式会社 Region extraction apparatus, region extraction method and program
JP4819606B2 (en) * 2006-07-21 2011-11-24 株式会社豊田中央研究所 Device part discrimination device and gender judgment device
US10691219B2 (en) 2012-01-17 2020-06-23 Ultrahaptics IP Two Limited Systems and methods for machine control
US9679215B2 (en) 2012-01-17 2017-06-13 Leap Motion, Inc. Systems and methods for machine control
US8638989B2 (en) 2012-01-17 2014-01-28 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US9501152B2 (en) 2013-01-15 2016-11-22 Leap Motion, Inc. Free-space user interface and control using virtual constructs
CN104145276B (en) * 2012-01-17 2017-05-03 厉动公司 Enhanced contrast for object detection and characterization by optical imaging
US11493998B2 (en) 2012-01-17 2022-11-08 Ultrahaptics IP Two Limited Systems and methods for machine control
US8693731B2 (en) 2012-01-17 2014-04-08 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging
US9285893B2 (en) 2012-11-08 2016-03-15 Leap Motion, Inc. Object detection and tracking with variable-field illumination devices
US10609285B2 (en) 2013-01-07 2020-03-31 Ultrahaptics IP Two Limited Power consumption in motion-capture systems
US9465461B2 (en) 2013-01-08 2016-10-11 Leap Motion, Inc. Object detection and tracking with audio and optical signals
US9459697B2 (en) 2013-01-15 2016-10-04 Leap Motion, Inc. Dynamic, free-space user interactions for machine control
US9702977B2 (en) 2013-03-15 2017-07-11 Leap Motion, Inc. Determining positional information of an object in space
US9916009B2 (en) 2013-04-26 2018-03-13 Leap Motion, Inc. Non-tactile interface systems and methods
US9721383B1 (en) 2013-08-29 2017-08-01 Leap Motion, Inc. Predictive information for free space gesture control and communication
US9632572B2 (en) 2013-10-03 2017-04-25 Leap Motion, Inc. Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation
US9996638B1 (en) 2013-10-31 2018-06-12 Leap Motion, Inc. Predictive information for free space gesture control and communication
US9613262B2 (en) 2014-01-15 2017-04-04 Leap Motion, Inc. Object detection and tracking for providing a virtual device experience
CN204480228U (en) 2014-08-08 2015-07-15 厉动公司 motion sensing and imaging device
US11624606B2 (en) * 2020-02-20 2023-04-11 Cognex Corporation Methods and apparatus for using range data to predict object features

Also Published As

Publication number Publication date
JP2002133400A (en) 2002-05-10

Similar Documents

Publication Publication Date Title
JP4483067B2 (en) Target object extraction image processing device
KR100816602B1 (en) Unauthorized person detection device and unauthorized person detection method
US10102427B2 (en) Methods for performing biometric recognition of a human eye and corroboration of same
US6134339A (en) Method and apparatus for determining the position of eyes and for correcting eye-defects in a captured frame
JP4747065B2 (en) Image generation apparatus, image generation method, and image generation program
US20070176927A1 (en) Image Processing method and image processor
US20150379325A1 (en) Image sensor with integrated region of interest calculation for iris capture, autofocus, and gain control
US20020196415A1 (en) Three-dimensional information acquisition apparatus, projection pattern in three-dimensional information acquisition, and three-dimensional information acquisition method
JP6861345B2 (en) Character figure recognition device, character figure recognition method, and character figure recognition program
KR20000071087A (en) Outdoor range finder
US7365778B2 (en) Electronic camera and white balance correction circuit
JP2010014530A (en) Substrate visual inspection method and substrate visual inspecting device
JP2001352440A (en) Image processing unit
CN112383688B (en) Camera shooting light supplement method and device, electronic equipment and intelligent terminal
JP6501868B2 (en) Imaging device, signal processing device, and skin diagnosis system
JP3385475B2 (en) Image monitoring device
KR100439533B1 (en) System for chasing location of subject matter to be inspected and method of same
NL2030458B1 (en) Method for determining the position and/or orientation of a socket of an electric car for the purpose of automatically plugging in a connector
JP4385749B2 (en) Electronic camera having white balance adjustment function and program
JP4465911B2 (en) Image processing apparatus and method
JPH06243235A (en) Checking device for mounted board
JP3149839B2 (en) Object extraction device
JPH07234942A (en) Threshold value deciding method for area by image analysis
JPH02141877A (en) Image pre-processing method
JP2002044439A (en) Image reader

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070110

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091208

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100302

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100315

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130402

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130402

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130402

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140402

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees