JP2014211306A - 物体検出装置および情報取得装置 - Google Patents

物体検出装置および情報取得装置 Download PDF

Info

Publication number
JP2014211306A
JP2014211306A JP2011185186A JP2011185186A JP2014211306A JP 2014211306 A JP2014211306 A JP 2014211306A JP 2011185186 A JP2011185186 A JP 2011185186A JP 2011185186 A JP2011185186 A JP 2011185186A JP 2014211306 A JP2014211306 A JP 2014211306A
Authority
JP
Japan
Prior art keywords
optical system
dot pattern
dots
distance
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011185186A
Other languages
English (en)
Inventor
山口 淳
Atsushi Yamaguchi
山口  淳
山口 光隆
Mitsutaka Yamaguchi
光隆 山口
武藤 裕之
Hiroyuki Muto
裕之 武藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2011185186A priority Critical patent/JP2014211306A/ja
Priority to PCT/JP2012/069126 priority patent/WO2013031448A1/ja
Publication of JP2014211306A publication Critical patent/JP2014211306A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • G01S17/48Active triangulation systems, i.e. using the transmission and reflection of electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging

Abstract

【課題】イメージセンサ上において、投射光学系と受光光学系の並び方向に対して垂直な方向にドットの受光位置がずれた場合にも、適正に距離情報を取得可能な情報取得装置および物体検出装置を提供する。【解決手段】情報取得装置1は、投射光学系100と、受光光学系200と、基準画像と、実測画像とを保持するメモリ26と、基準画像にセグメント領域を設定し、実測画像とセグメント領域内のドットとを照合することにより、距離を取得する距離取得部21bと、を備える。距離取得部21bは、基準画像と実測画像のいずれか一方または両方のドットが投射光学系100と受光光学系200の並び方向に垂直な方向の一方または両方に引き延ばされたドットパターンを用いて、距離の取得を行う。これにより、垂直な方向にドットの受光位置がずれた場合にも、適正に距離情報を取得できる。【選択図】図10

Description

本発明は、目標領域に光を投射したときの反射光の状態に基づいて目標領域内の物体を検出する物体検出装置および当該物体検出装置に用いて好適な情報取得装置に関する。
従来、光を用いた物体検出装置が種々の分野で開発されている。いわゆる距離画像センサを用いた物体検出装置では、2次元平面上の平面的な画像のみならず、検出対象物体の奥行き方向の形状や動きを検出することができる。かかる物体検出装置では、レーザ光源やLED(Light Emitting Diode)から、予め決められた波長帯域の光が目標領域に投射され、その反射光がCMOSイメージセンサ等の受光素子により受光される。距離画像センサとして、種々のタイプのものが知られている。
所定のドットパターンを持つレーザ光を目標領域に照射するタイプの距離画像センサでは、ドットパターンを持つレーザ光の目標領域からの反射光が受光素子によって受光される。そして、ドットの受光素子上の受光位置に基づいて、三角測量法を用いて、検出対象物体の各部(検出対象物体上の各ドットの照射位置)までの距離が検出される(たとえば、非特許文献1)。
第19回日本ロボット学会学術講演会(2001年9月18−20日)予稿集、P1279−1280
上記物体検出装置では、投射光学系と受光光学系が横に並ぶように配置される。この場合、通常、イメージセンサ上のドットの受光位置は、投射光学系と受光光学系の並び方向にのみ変位する。上記物体検出装置では、投射光学系と受光光学系の並び方向のドットの移動量をもとに、距離が検出される。
しかし、イメージセンサの経時変化による取り付け位置のずれ、および光学素子の光学的な収差等の影響によって、イメージセンサ上のドットの受光位置は、投射光学系と受光光学系の並び方向に対して垂直な方向にずれが発生し得る。
この場合、投射光学系と受光光学系の並び方向にのみドットの移動を探索すると、ドットの移動量の検出が適正に行えず、検出対象物体の各部までの距離の検出精度が劣化するとの問題が生じる。
本発明は、この点に鑑みてなされたものであり、イメージセンサ上において、投射光学系と受光光学系の並び方向に対して垂直な方向にドットの受光位置がずれた場合にも、適正に距離情報を取得可能な情報取得装置および物体検出装置を提供することを目的とする。
本発明の第1の態様は、光を用いて目標領域の情報を取得する情報取得装置に関する。本態様に係る情報取得装置は、目標領域に所定のドットパターンでレーザ光を投射する投射光学系と、前記投射光学系に対して所定の距離だけ横方向に離れて並ぶように配置され
、前記目標領域をイメージセンサにより撮像する受光光学系と、基準面に前記レーザ光を照射したときに前記受光光学系により撮像された基準ドットパターンと、距離測定時に目標領域を撮像して取得された実測ドットパターンとを保持する記憶部と、前記基準ドットパターンにセグメント領域を設定し、前記実測ドットパターンと前記セグメント領域内のドットとを照合することにより、前記セグメント領域に対応する前記目標領域内の位置について距離を取得する距離取得部と、を備える。前記距離取得部は、前記基準ドットパターンと前記実測ドットパターンのいずれか一方または両方の前記ドットが前記投射光学系と前記受光光学系の並び方向に垂直な方向の一方または両方に引き延ばされたドットパターンを用いて、前記距離の取得を行う。
本発明の第2の態様は、物体検出装置に関する。本態様に係る物体検出装置は、上記第1の態様に係る情報取得装置を有する。
本発明によれば、イメージセンサ上において、投射光学系と受光光学系の並び方向に対して垂直な方向にドットの受光位置がずれた場合にも、適正に距離情報を取得可能な情報取得装置および物体検出装置を提供することができる。
本発明の効果ないし意義は、以下に示す実施の形態の説明により更に明らかとなろう。ただし、以下に示す実施の形態は、あくまでも、本発明を実施化する際の一つの例示であって、本発明は、以下の実施の形態により何ら制限されるものではない。
実施の形態に係る物体検出装置の構成を示す図である。 実施の形態に係る情報取得装置と情報処理装置の構成を示す図である。 実施の形態に係る投射光学系と受光光学系の外観を示す斜視図である。 実施の形態に係る目標領域に対するレーザ光の照射状態とイメージセンサ上のレーザ光の受光状態を示す図である。 実施の形態に係る参照パターンの生成方法を説明する図である。 実施の形態に係る距離検出手法を説明する図である。 実施の形態に係るイメージセンサの取り付け位置がずれた場合の状況を示す図である。 比較例に係るY軸方向にドットパターンがずれた場合のマッチング状況を示す図である。 実施の形態に係る距離検出処理の流れを示す図である。 実施の形態に係るドットパターンのY軸方向の引き延ばし処理の流れを示す図である。 実施の形態に係るY軸方向にドットパターンがずれた場合のマッチング状況を示す図である。 実施の形態および比較例に係るY方向にドットパターンがずれた場合とずれない場合のマッチング結果を示すグラフである。 変更例1に係るY軸方向にドットパターンがずれた場合のマッチングの状況を示す図である。 変更例2に係るY軸方向にドットパターンがずれた場合のマッチングの状況を示す図である。 実施の形態および変更例に係るドットパターンの引き延ばしの影響を示す図である。 変更例3に係るY軸方向にドットパターンがずれた場合のマッチングの状況を示す図である。 変更例4および変更例5に係るドットパターンのY軸方向の引き延ばし処理の流れを示す図である。
以下、本発明の実施の形態につき図面を参照して説明する。本実施の形態には、所定のドットパターンを持つレーザ光を目標領域に照射するタイプの情報取得装置が例示されている。
まず、図1に本実施の形態に係る物体検出装置の概略構成を示す。図示の如く、物体検出装置は、情報取得装置1と、情報処理装置2とを備えている。テレビ3は、情報処理装置2からの信号によって制御される。
情報取得装置1は、目標領域全体に赤外光を投射し、その反射光をCMOSイメージセンサにて受光することにより、目標領域にある物体各部の距離(以下、「3次元距離情報」という)を取得する。取得された3次元距離情報は、ケーブル4を介して情報処理装置2に送られる。
情報処理装置2は、たとえば、テレビ制御用のコントローラやゲーム機、パーソナルコンピュータ等である。情報処理装置2は、情報取得装置1から受信した3次元距離情報に基づき、目標領域における物体を検出し、検出結果に基づきテレビ3を制御する。
たとえば、情報処理装置2は、受信した3次元距離情報に基づき人を検出するとともに、3次元距離情報の変化から、その人の動きを検出する。たとえば、情報処理装置2がテレビ制御用のコントローラである場合、情報処理装置2には、受信した3次元距離情報からその人のジェスチャを検出するとともに、ジェスチャに応じてテレビ3に制御信号を出力するアプリケーションプログラムがインストールされている。この場合、ユーザは、テレビ3を見ながら所定のジェスチャをすることにより、チャンネル切り替えやボリュームのUp/Down等、所定の機能をテレビ3に実行させることができる。
また、たとえば、情報処理装置2がゲーム機である場合、情報処理装置2には、受信した3次元距離情報からその人の動きを検出するとともに、検出した動きに応じてテレビ画面上のキャラクタを動作させ、ゲームの対戦状況を変化させるアプリケーションプログラムがインストールされている。この場合、ユーザは、テレビ3を見ながら所定の動きをすることにより、自身がテレビ画面上のキャラクタとしてゲームの対戦を行う臨場感を味わうことができる。
図2は、情報取得装置1と情報処理装置2の構成を示す図である。
情報取得装置1は、光学部の構成として、投射光学系100と受光光学系200とを備えている。投射光学系100と受光光学系200は、X軸方向に並ぶように、情報取得装置1に配置される。
投射光学系100は、レーザ光源110と、コリメータレンズ120と、リーケージミラー130と、回折光学素子(DOE:Diffractive Optical Element)140と、FMD(FrontMonitor Diode)150とを備えている。また、受光光学系200は、アパーチャ210と、撮像レンズ220と、フィルタ230と、CMOSイメージセンサ240とを備えている。この他、情報取得装置1は、回路部の構成として、CPU(Central Processing Unit)21と、レーザ駆動回路22と、PD信号処理回路23と、撮像信号処理回路24と、入出力回路25と、メモリ26を備えている。
レーザ光源110は、受光光学系200から離れる方向(X軸負方向)に波長830n
m程度の狭波長帯域のレーザ光を出力する。コリメータレンズ120は、レーザ光源110から出射されたレーザ光を平行光から僅かに広がった光(以下、単に「平行光」という)に変換する。
リーケージミラー130は、誘電体薄膜の多層膜からなり、反射率が100%よりも若干低く、透過率が反射率よりも数段小さくなるように膜の層数や膜厚が設計されている。リーケージミラー130は、コリメータレンズ120側から入射されたレーザ光の大部分をDOE140に向かう方向(Z軸方向)に反射し、残りの一部分をFMD150に向かう方向(X軸負方向)に透過する。
DOE140は、入射面に回折パターンを有する。この回折パターンによる回折作用により、DOE140に入射したレーザ光は、略3万個のドットパターンのレーザ光に変換されて、目標領域に照射される。回折パターンは、たとえば、ステップ型の回折ホログラムが所定のパターンで形成された構造とされる。回折ホログラムは、コリメータレンズ120により平行光とされたレーザ光をドットパターンのレーザ光に変換するよう、パターンとピッチが調整されている。
DOE140は、リーケージミラー130から入射されたレーザ光を、放射状に広がるドットパターンのレーザ光として、目標領域に照射する。ドットパターンの各ドットの大きさは、DOE140に入射する際のレーザ光のビームサイズに応じたものとなる。
FMD150は、リーケージミラー130を透過したレーザ光を受光し、受光量に応じた電気信号を出力する。
目標領域から反射されたレーザ光は、アパーチャ210を介して撮像レンズ220に入射する。
アパーチャ210は、撮像レンズ220のFナンバーに合うように、外部からの光に絞りを掛ける。撮像レンズ220は、アパーチャ210を介して入射された光をCMOSイメージセンサ240上に集光する。フィルタ230は、レーザ光源110の出射波長(830nm程度)を含む赤外の波長帯域の光を透過し、可視光の波長帯域をカットするIRフィルタ(Infrared Filter)である。
CMOSイメージセンサ240は、撮像レンズ220にて集光された光を受光して、画素毎に、受光量に応じた信号(電荷)を撮像信号処理回路24に出力する。ここで、CMOSイメージセンサ240は、各画素における受光から高レスポンスでその画素の信号(電荷)を撮像信号処理回路24に出力できるよう、信号の出力速度が高速化されている。
CPU21は、メモリ26に格納された制御プログラムに従って各部を制御する。かかる制御プログラムによって、CPU21には、レーザ光源110を制御するためのレーザ制御部21aと、3次元距離情報を生成するための距離取得部21bの機能が付与される。
レーザ駆動回路22は、CPU21からの制御信号に応じてレーザ光源110を駆動する。PD信号処理回路23は、FMD150から出力された受光量に応じた電圧信号を増幅およびデジタル化してCPU21に出力する。CPU21は、PD信号処理回路23から供給される信号をもとに、レーザ制御部21aによる処理によって、レーザ光源110の光量を増幅もしくは減少させる判断を行う。レーザ光源110の光量を変化させる必要があると判断された場合、レーザ制御部21aは、レーザ光源110の発光量を変化させる制御信号をレーザ駆動回路22に送信する。これにより、レーザ光源110から出射さ
れるレーザ光のパワーが略一定に制御される。
撮像信号処理回路24は、CMOSイメージセンサ240を制御して、CMOSイメージセンサ240で生成された各画素の信号(電荷)をライン毎に順次取り込む。そして、取り込んだ信号を順次CPU21に出力する。CPU21は、撮像信号処理回路24から供給される信号(撮像信号)をもとに、情報取得装置1から検出対象物の各部までの距離を、距離取得部21bによる処理によって算出する。入出力回路25は、情報処理装置2とのデータ通信を制御する。
情報処理装置2は、CPU31と、入出力回路32と、メモリ33を備えている。なお、情報処理装置2には、同図に示す構成の他、テレビ3との通信を行うための構成や、CD−ROM等の外部メモリに格納された情報を読み取ってメモリ33にインストールするためのドライブ装置等が配されるが、便宜上、これら周辺回路の構成は図示省略されている。
CPU31は、メモリ33に格納された制御プログラム(アプリケーションプログラム)に従って各部を制御する。かかる制御プログラムによって、CPU31には、画像中の物体を検出するための物体検出部31aの機能が付与される。かかる制御プログラムは、たとえば、図示しないドライブ装置によってCD−ROMから読み取られ、メモリ33にインストールされる。
たとえば、制御プログラムがゲームプログラムである場合、物体検出部31aは、情報取得装置1から供給される3次元距離情報から画像中の人およびその動きを検出する。そして、検出された動きに応じてテレビ画面上のキャラクタを動作させるための処理が制御プログラムにより実行される。
また、制御プログラムがテレビ3の機能を制御するためのプログラムである場合、物体検出部31aは、情報取得装置1から供給される3次元距離情報から画像中の人およびその動き(ジェスチャ)を検出する。そして、検出された動き(ジェスチャ)に応じて、テレビ3の機能(チャンネル切り替えやボリューム調整、等)を制御するための処理が制御プログラムにより実行される。
入出力回路32は、情報取得装置1とのデータ通信を制御する。
図3は、投射光学系100と受光光学系200の設置状態を示す斜視図である。
投射光学系100と受光光学系200は、ベースプレート300に配置される。投射光学系100を構成する光学部材は、ハウジング100aに設置され、このハウジング100aがベースプレート300上に設置される。これにより、投射光学系100がベースプレート300上に配置される。150a、240aは、それぞれ、FMD150、CMOSイメージセンサ240からの信号を回路基板(図示せず)に供給するためのFPC(フレキシブルプリント基板)である。
受光光学系200を構成する光学部材は、ホルダ200aに設置され、このホルダ200aが、ベースプレート300の背面からベースプレート300に取りつけられる。これにより、受光光学系200がベースプレート300に配置される。なお、受光光学系200は、Z軸方向に光学部材が並ぶため、投射光学系100と比べ、Z軸方向の高さが高くなっている。ベースプレート300は、Z軸方向の高さを抑えるために、受光光学系200の配置位置周辺がZ軸方向に一段高くなっている。
図3に示す設置状態において、投射光学系100の射出瞳と受光光学系200の入射瞳の位置は、Z軸方向において、略一致する。また、投射光学系100と受光光学系200は、投射光学系100の投射中心と受光光学系200の撮像中心がX軸に平行な直線上に並ぶように、X軸方向に所定の距離をもって並んで設置される。
投射光学系100と受光光学系200の設置間隔は、情報取得装置1と目標領域の基準面との距離に応じて、設定される。どの程度離れた目標物を検出対象とするかによって、基準面と情報取得装置1との間の距離が変わる。検出対象の目標物までの距離が近くなるほど、投射光学系100と受光光学系200の設置間隔は狭くなる。逆に、検出対象の目標物までの距離が遠くなるほど、投射光学系100と受光光学系200の設置間隔は広くなる。
図4(a)は、目標領域に対するレーザ光の照射状態を模式的に示す図、図4(b)は、CMOSイメージセンサ240におけるレーザ光の受光状態を模式的に示す図である。なお、同図(b)には、便宜上、目標領域に平坦な面(スクリーン)とスクリーンの前に人物が存在するときの受光状態が示されている。
図4(a)に示すように、投射光学系100からは、ドットパターンを持ったレーザ光(以下、このパターンを持つレーザ光の全体を「DP光」という)が、目標領域に照射される。図4(a)には、DP光の光束領域が実線の枠によって示されている。DP光の光束中には、DOE140による回折作用によってレーザ光の強度が高められたドット領域(以下、単に「ドット」という)が、DOE140による回折作用によるドットパターンに従って点在している。
目標領域に平坦な面(スクリーン)が存在すると、これにより反射されたDP光は、図4(b)のように、CMOSイメージセンサ240上に分布する。
図4(b)には、CMOSイメージセンサ240上のDP光の全受光領域が破線の枠によって示され、CMOSイメージセンサ240の撮像有効領域に入射するDP光の受光領域が実線の枠によって示されている。CMOSイメージセンサ240の撮像有効領域は、CMOSイメージセンサ240がDP光を受光した領域のうち、センサとして信号を出力する領域であり、たとえば、VGA(640画素×480画素)のサイズである。また、同図(a)に示す目標領域上におけるDt0の光は、CMOSイメージセンサ240上では、同図(b)に示すDt’0の位置に入射する。スクリーンの前の人物の像は、CMOSイメージセンサ240上では、上下左右が反転して撮像される。
ここで、図5、図6を参照して、上記距離検出の方法を説明する。
図5は、上記距離検出手法に用いられる参照パターンの設定方法を説明する図である。
図5(a)に示すように、投射光学系100から所定の距離Lsの位置に、Z軸方向に垂直な平坦な反射平面RSが配置される。出射されたDP光は、反射平面RSによって反射され、受光光学系200のCMOSイメージセンサ240に入射する。これにより、CMOSイメージセンサ240から、撮像有効領域内の画素毎の電気信号が出力される。出力された画素毎の電気信号の値(画素値)は、図2のメモリ26上に展開される。以下、反射面RSからの反射によって得られた全画素値からなる画像を、「基準画像」、反射面RSを「基準面」と称する。そして、図5(b)に示すように、基準画像上に、「参照パターン領域」が設定される。なお、図5(b)には、CMOSイメージセンサ240の背面側から受光面をZ軸正方向に透視した状態が図示されている。図6以降の図においても同様である。
こうして設定された参照パターン領域に対して、所定の大きさを有する複数のセグメント領域が設定される。セグメント領域の大きさは、得られる距離情報による物体の輪郭抽出精度とCPU21に対する距離検出の演算量の負荷を考慮して決定される。
図5(c)を参照して、参照パターン領域に設定されるセグメント領域について説明する。なお、図5(c)には、便宜上、各セグメント領域の大きさが7画素×7画素で示され、各セグメント領域の中央の画素が×印で示されている。
セグメント領域は、図5(c)に示すように、隣り合うセグメント領域が参照パターン領域に対してX軸方向およびY軸方向に1画素間隔で並ぶように設定される。すなわち、あるセグメント領域は、このセグメント領域のX軸方向およびY軸方向に隣り合うセグメント領域に対して1画素ずれた位置に設定される。このとき、各セグメント領域には、固有のパターンでドットが点在する。よって、セグメント領域内の画素値のパターンは、セグメント領域毎に異なっている。隣り合うセグメント領域の間隔が狭いほど、参照パターン領域内に含まれるセグメント領域の数が多くなり、目標領域の面内方向(X−Y平面方向)における距離検出の分解能が高められる。
こうして、CMOSイメージセンサ240上における参照パターン領域の位置に関する情報と、参照パターン領域に含まれる全画素の画素値(参照パターン)と、参照パターン領域に対して設定されるセグメント領域の情報が、図2のメモリ26に記憶される。メモリ26に記憶されるこれらの情報を、以下、「参照テンプレート」と称する。
図2のCPU21は、投射光学系100から検出対象物体の各部までの距離を算出する際に、参照テンプレートを参照する。CPU21は、距離を算出する際に、参照テンプレートから得られる各セグメント領域内のドットパターンのずれ量に基づいて、物体の各部までの距離を算出する。
たとえば、図5(a)に示すように距離Lsよりも近い位置に物体がある場合、参照パターン上の所定のセグメント領域Snに対応するDP光(DPn)は、物体によって反射され、セグメント領域Snとは異なる領域Sn’に入射する。投射光学系100と受光光学系200はX軸方向に隣り合っているため、セグメント領域Snに対する領域Sn’の変位方向はX軸に平行となる。図5(a)の場合、物体が距離Lsよりも近い位置にあるため、領域Sn’は、セグメント領域Snに対してX軸正方向に変位する。物体が距離Lsよりも遠い位置にあれば、領域Sn’は、セグメント領域Snに対してX軸負方向に変位する。
セグメント領域Snに対する領域Sn’の変位方向と変位量をもとに、投射光学系100からDP光(DPn)が照射された物体の部分までの距離Lrが、距離Lsを用いて、三角測量法に基づき算出される。同様にして、他のセグメント領域に対応する物体の部分について、投射光学系100からの距離が算出される。かかる算出手法の詳細は、たとえば、上記非特許文献1(第19回日本ロボット学会学術講演会(2001年9月18−20日)予稿集、P1279−1280)に示されている。
かかる距離算出では、参照テンプレートのセグメント領域Snが、実測時においてどの位置に変位したかを検出する。この検出は、実測時にCMOSイメージセンサ240上に照射されたDP光から得られたドットパターンと、セグメント領域Snに含まれるドットパターンとを照合することによって行われる。以下、実測時にCMOSイメージセンサ240上の撮像有効領域に照射されたDP光から得られた全画素値からなる画像を、「実測画像」と称する。実測時のCMOSイメージセンサ240の撮像有効領域は、基準画像取
得時と同様に、たとえば、VGA(640画素×480画素)のサイズである。
図6(a)〜(e)は、かかる距離検出の手法を説明する図である。図6(a)は、CMOSイメージセンサ240上における基準画像に設定された参照パターン領域を示す図であり、図6(b)は、実測時のCMOSイメージセンサ240上の実測画像を示す図であり、図6(c)〜(e)は、実測画像に含まれるDP光のドットパターンと、参照テンプレートのセグメント領域に含まれるドットパターンとの照合方法を説明する図である。なお、図6(a)、(b)は、便宜上、一部のセグメント領域のみが示されている。また、図6(b)の実測画像には、便宜上、図4(b)のように、検出対象物体として基準面より前に人物が存在しており、人物の像が写り込んでいることが示されている。
図6(a)のセグメント領域Siの実測時における変位位置を探索する場合、図6(b)に示すように、実測画像上に、セグメント領域Siに対して探索範囲Riが設定される。探索範囲Riは、X軸方向に所定の幅を持っている。セグメント領域Siが探索範囲Riにおいて1画素ずつX軸方向に送られ、各送り位置において、セグメント領域Siのドットパターンと実測画像上のドットパターンとが比較される。以下、実測画像上の各送り位置に対応する領域を、「比較領域」と称する。探索範囲Riには、セグメント領域Siと同じサイズの比較領域が複数設定され、X軸方向に隣り合う比較領域は互いに1画素ずれている。
探索範囲Riは、検出対象物体が基準面よりも情報取得装置1に離れる方向、および近づく方向にどの程度の距離を検出可能な範囲とするかによって決定される。図6中では、基準画像上のセグメント領域Siの画素位置に対応する実測画像上の画素位置から、X軸負方向にx画素ずれた位置からX軸正方向にx画素ずれた位置の範囲が探索範囲Riに設定されている。
比較領域においてセグメント領域SiをX軸方向に1画素ずつ送りながら、各送り位置において、参照テンプレートに記憶されているセグメント領域Siのドットパターンと、実測画像のDP光のドットパターンのマッチング度合いが求められる。このようにセグメント領域Siを探索範囲Ri内においてX軸方向にのみ送るのは、上記のように、通常、参照テンプレートにより設定されたセグメント領域のドットパターンは、実測時において、X軸方向の所定の範囲内でのみ変位するためである。
なお、実測時には、検出対象物体の位置によっては、セグメント領域に対応するドットパターンが実測画像からX軸方向にはみ出すことが起こり得る。たとえば、参照パターン領域のX軸負側のセグメント領域S1に対応するドットパターンが、基準面よりも遠距離の物体に反射された場合、セグメント領域S1に対応するドットパターンは、実測画像よりもX軸負方向に位置づけられる。この場合、セグメント領域に対応するドットパターンは、CMOSイメージセンサ240の撮像有効領域内にないため、この領域については、適正にマッチングすることができない。しかし、このような端の領域以外については、適正にマッチングすることができるため、物体の距離検出への影響は少ない。
なお、端の領域についても、適正にマッチングする場合には、実測時のCMOSイメージセンサ240の撮像有効領域を、基準画像取得時のCMOSイメージセンサ240の撮像有効領域よりも、大きくすることができるものを用いればよい。たとえば、基準画像取得時において、VGA(640画素×480画素)のサイズで撮像有効領域が設定された場合、実測時においては、それよりもX軸正方向およびX軸負方向に30画素分大きいサイズで撮像有効領域を設定する。これにより、実測画像が基準画像よりも大きくなるが、端の領域についても、適正にマッチングすることができる。
上記マッチング度合いの検出時には、まず、参照パターン領域の各画素の画素値と実測画像の各セグメント領域の各画素の画素値が2値化されて、メモリ26に保持される。たとえば、基準画像および実測画像の画素値が8ビットの階調の場合、0〜255の画素値のうち、所定の閾値以上の画素が、画素値1に、所定の閾値未満の画素が、画素値0に変換されて、メモリ26に保持される。その後、比較領域とセグメント領域Siとの間の類似度が求められる。すなわち、セグメント領域Siの各画素の画素値と、比較領域に対応する画素の画素値との差分が求められる。そして、求めた差分を比較領域の全ての画素について加算した値Rsadが、類似度を示す値として取得される。
たとえば、図6(c)のように、一つのセグメント領域中に、m列×n行の画素が含まれている場合、セグメント領域のi列、j行の画素の画素値T(i,j)と、比較領域のi列、j行の画素の画素値I(i,j)との差分が求められる。そして、セグメント領域の全ての画素について差分が求められ、その差分の総和により、図6(c)に示す式の値Rsadが求められる。値Rsadが小さい程、セグメント領域と比較領域との間の類似度が高い。
こうして、図6(d)に示すように、セグメント領域Siについて、探索範囲Riの全ての比較領域に対して値Rsadが求められる。図6(e)は、探索範囲Riの各送り位置における値Rsadの大小が模式的に示されたグラフである。セグメント領域Siについて、探索範囲Riの全ての比較領域に対して値Rsadが求められると、まず、求めた値Rsadの中から、最小値Bt1が参照される。次に、求めた値Rsadの中から、2番目に小さい値Bt2が参照される。最小値Bt1と2番目に小さい値Bt2の位置が2画素以上離れた位置であり、かつ、その差分値Esが閾値未満であれば、セグメント領域Siの探索はエラーとされる。他方、差分値Esが閾値以上であれば、最小値Bt1に対応する比較領域Ciが、セグメント領域Siの移動領域と判定される。たとえば、図6(d)のように、比較領域Ciは、基準画像上のセグメント領域Siの画素位置と同位置の実測画像上の画素位置Si0よりもX軸正方向にα画素ずれた位置で検出される。これは、基準面よりも近い位置に存在する検出対象物体(人物)によって、実測画像上のDP光のドットパターンが基準画像上のセグメント領域SiよりもX軸正方向に変位したためである。
こうして、実測時に取得されたDP光のドットパターンから、各セグメント領域の変位位置が探索されると、上記のように、その変位位置に基づいて、三角測量法により、各セグメント領域に対応する検出対象物体の部位までの距離が求められる。
このようにして、セグメント領域S1〜セグメント領域Snまで全てのセグメント領域について、上記同様のセグメント領域の探索が行われる。
ところで、上述のように、通常、実測時において反射されたドットパターンは、X軸方向のみにずれる。しかし、CMOSイメージセンサ240の経時変化による取り付け位置のずれ、およびDOE140の光学的な収差等の影響によって、ドットパターンの受光位置がY軸方向にずれることが起こり得る。
図7は、経時変化によって、CMOSイメージセンサ240の取り付け位置がずれた場合の状況を示す図である。
図7(a)には、基準画像取得時におけるCMOSイメージセンサ240と、DP光が撮像された基準画像の理想的な状態が示されている。基準画像取得時において、CMOSイメージセンサ240は、上下端が、X軸に対して平行、かつ、左右端が、Y軸に対して平行になるように取り付けられている。
図7(b)には、実測画像取得時におけるCMOSイメージセンサ240と、DP光が撮像された実測画像の関係が経時変化等により不適正となった状態が示されている。実測画像取得時において、CMOSイメージセンサ240は、図7(a)の場合に比べて、XY平面の面内方向に対して傾いている。
このように、DP光の照射位置は変わらず、CMOSイメージセンサ240の取り付け位置が傾くと、CMOSイメージセンサ240に対するDP光の入射位置がY軸方向に対してもずれることとなる。
たとえば、図7(c)に示すように、基準画像取得時において、9画素×9画素のセグメント領域S1に対して、6つのドットが入射している。実測画像取得時において、CMOSイメージセンサ240の取り付け位置が傾いていない場合、図7(d)に示すように、セグメント領域S1に対応する比較領域C1においても、同様の位置に6つのドットが入射する。しかし、CMOSイメージセンサ240の取り付け位置が傾くと、CMOSイメージセンサ240に対するドットパターンの入射位置がX軸方向およびY軸方向にずれ、たとえば、比較領域C’1のように、Y軸正方向に1画素ずれた位置に入射する。このような角度ずれは、X軸正方向またはX軸負方向に離れるほど、Y軸方向のずれ量が大きくなり、端の位置において、1画素以内のずれに抑えるのは、困難である。
このように、セグメント領域S1のドットパターンの入射位置と、セグメント領域S1に対応する比較領域C’1の入射位置がY軸方向にずれると、セグメント領域の探索は、上述のように、X軸方向にずらして行われるため、正常にマッチングすることができなくなる。
図8は、比較例におけるY軸正方向にドットパターンが1画素ずれた場合のマッチング状況を模式的に示す図である。
比較例では、CMOSイメージセンサ240上に検出されたドットパターンをそのまま用いて、上記距離検出の手法が行われる。
図8(a)は、セグメント領域におけるドットの検出状況、および、当該セグメント領域に対応する位置の比較領域におけるドットの検出状況を示す図である。また、図8(b)は、図8(a)のセグメント領域と比較領域とが重なったときのマッチング状況を示す図、図8(c)は、図8(b)の状態からセグメント領域が1画素ずれたときのマッチング状況を示す図である。図中、それぞれ、セグメント領域が実線で囲まれ、比較領域が破線で囲まれて示されている。また、図示のごとく、セグメント領域に含まれるドットを示す画素と、比較領域に含まれるドットを示す画素と、比較領域に含まれるドットにマッチングされたドットを示す画素がハッチングで示されている。なお、比較領域に含まれるドットは、基準面と同位置にある物体によって反射されたものである。
図8(a)に示すように、セグメント領域には、6つのDP光のドットが入射している。6つのうち、中央の2つのDP光のドットは、CMOSイメージセンサ240上の画素をY軸方向に跨ぐように入射しているため、Y軸方向に2画素においてドットが検出されている。なお、1つのDP光のドットが2つの画素を跨ぐように入射した場合、CMOSイメージセンサ240から出力される信号は、1つの画素に入射した場合よりも、小さくなるが、前述したように、2値化されることによって、それぞれ、他のドットと同等のドットとして扱われる。他方、セグメント領域に対応する比較領域のドットは、Y軸正方向に1画素ずれて検出されている。このように、セグメント領域と比較領域では、それぞれ、8画素分のドットが検出されている。
図8(b)を参照して、セグメント領域と比較領域とが重なった状況では、中央付近の2画素のドットのみがマッチングされている。それ以外のドットが検出された画素においては、比較領域のドットがY軸負方向にずれているため、マッチングされない。したがって、差分値(Rsad)は、12となる。
他方、図8(c)を参照して、セグメント領域が比較領域に対して1画素ずれた状況では、全てのドットがマッチングされていない。したがって、差分値(Rsad)は、最も高い16となる。
このように、ドットがY軸方向にずれて検出されると、通常、マッチングされるべき図8(b)の位置において、他の画素ずれ量の位置における差分値(Rsad)との差が大きくならず、マッチングがエラーとなりやすい。なお、比較例では、セグメント領域の中央の2つのDP光のドットが、画素を跨いで入射したため、2画素分のドットがマッチングされたが、すべてのドットが画素を跨がず入射し、一つのドットもマッチングしないことも起こり得る。
そこで、本実施の形態では、あらかじめ、CMOSイメージセンサ240に検出されたドットパターンをY軸方向に引き延ばした状態でマッチング処理を実行する。
図9は、本実施の形態における距離検出処理の流れを示す図である。
図9(a)は、参照テンプレート生成処理の流れを示す図である。これらの処理は、情報取得装置1のセットアップ時に、設定者によって設定装置を用いて行われる。
参照テンプレート生成処理時には、まず、基準面のみが配置された状態で反射されたDP光を撮像し、基準画像を取得する(S11)。そして、設定装置は、CMOSイメージセンサ240から得られた基準画像の2値化処理を行う(S12)。これにより、基準画像は、ドットの有無が0と1で表現された画像となる。そして、設定装置は、上述の如く、2値化された基準画像上に、セグメント領域が設定し、参照テンプレートを生成する(S13)。生成された参照テンプレートは、図2のメモリ26に消去不可能な状態で記憶される。こうしてメモリ26に記憶された参照テンプレートは、距離検出する際にCPU21により参照される。
図9(b)は、距離検出時の処理の流れを示す図である。これらの処理は、距離検出時に、情報取得装置1のCPU21の距離取得部21bによって行われる。
距離検出時には、まず、目標領域から反射されたDP光を撮像し、実測画像を取得する(S21)。そして、CPU21は、基準画像と同様に、実測画像の2値化処理を行う(S22)。これにより、実測画像は、基準画像同様、ドットの有無が0と1で表現された画像となる。そして、CPU21は、参照テンプレートに含まれる2値化された基準画像と、2値化された実測画像のドットパターンの引き延ばし処理を行う(S23)。
図10は、図9(b)のS23におけるドットパターンの引き延ばし処理の流れを示す図である。図10の処理は、基準画像のドットパターンと実測画像のドットパターンに対して並行して行われる。
まず、CPU21は、0と1で表現された基準画像および実測画像のドットパターン(2値化信号)をm行×n列の2次元配列Arに読み込む(S201)。それぞれ、行数が大きくなる方向が、図8(a)に示すY軸正方向に相当し、列数が大きくなる方向が、図
8(a)に示すX軸正方向に相当する。なお、基準画像および実測画像は、上述のごとく、VGAサイズであり、640行×480列の2次元配列に読み込まれる。
次に、CPU21は、行の位置を示す変数iに1をセットし(S202)、列の位置を示す変数jに1をセットする(S203)。そして、配列Ar(i、j)に対応する画素にドットが存在するかを判断する(S204)。基準画像および実測画像を読み込んだ配列Ar(i、j)には、ドットの有無に応じて、0または1の値が格納されており、1が格納されている場合、その位置に対応する画素には、ドットが存在する。S204では、配列Ar(i、j)の値が1であるかが判断される。
配列Ar(i、j)の位置に対応する画素にドットが存在する場合(S204:YES)、配列Ar(i、j)の一つ上(Y軸負方向)の行の配列Ar(i−1、j)に対応する画素にドットが存在するかを判断する(S205)。配列Ar(i−1、j)に対応する画素にドットが存在しない場合(S205:NO)、処理をS206に進める。配列Ar(i、j)の一つ上の行に対応する画素にドットが存在する場合(S205:YES)、処理をS207に進める。
配列Ar(i、j)の一つ上の行に対応する画素にドットが存在しない場合(S205:NO)、CPU21は、配列Ar(i−1、j)の位置に対応する画素にドットを設定する(S206)。すなわち、配列Ar(i−1、j)に1を格納する。そして、配列Ar(i、j)の一つ下(Y軸正方向)の行の配列Ar(i+1、j)に対応する画素にドットが存在するかを判断する(S207)。
配列Ar(i、j)の一つ下の行の配列Ar(i+1、j)に対応する画素にドットが存在する場合(S207:YES)、処理をS209に進める。配列Ar(i、j)の一つ下の行の配列Ar(i+1、j)に対応する画素にドットが存在しない場合(S207:NO)、CPU21は、配列Ar(i+1、j)の位置に対応する画素にドットを設定する(S208)。すなわち、配列Ar(i+1、j)に1を格納する。
そして、CPU21は、列を示す変数jが最後のm列であるかを判断する(S209)。変数jがmでない場合(S209:NO)、CPU21は、変数jに1を加算し(S210)、処理をS204に戻す。変数jがmである場合(S209:YES)、CPU21は、行を示す変数iが最後のn行であるかを判断する(S211)。
変数iがnでない場合(S211:NO)、CPU21は、変数iに1を加算し(S212)、処理をS203に戻す。変数iがnである場合(S211:YES)、CPU21は、更新された配列Arを基準画像および実測画像の更新ドットパターンとしてメモリ26に記憶する(S213)。
このようにして、基準画像および実測画像に含まれるドットパターンがY軸正方向およびY軸負方向に1画素ずつ引き延ばされてメモリ26に記憶される。
図9(b)に戻り、CPU21は、S23によりY軸正方向およびY軸負方向に1画素ずつ引き延ばされた基準画像および実測画像を用いて、上記距離検出手法のマッチング処理を行う(S24)。
図11は、本実施の形態におけるY軸正方向にドットパターンが1画素ずれた場合のマッチング状況を模式的に示す図である。
図11(a)は、セグメント領域と、当該セグメント領域に対応する位置の比較領域に
対して上記ドットパターンの引き延ばし処理を行ったときのドットの分布状況を示す図である。また、図11(b)は、セグメント領域と当該比較領域とが重なったときのマッチング状況を示す図、図11(c)は、図11(b)の状態からセグメント領域が1画素だけずれたときのマッチング状況を示す図である。
図11(a)に示すように、セグメント領域および比較領域のドットは、図8(a)の場合に比べて、Y軸正方向およびY軸負方向に1画素ずつ引き延ばされている。中央の2つのDP光のドットは、検出されたドット間の間隔が1画素のため、1画素のみが引き延ばされている。このように、セグメント領域および比較領域には、それぞれ19画素分のドットが分布している。
図11(b)を参照して、セグメント領域と比較領域とが重なったときのマッチング状況では、セグメント領域および比較領域のドットがY軸方向に1画素ずつ引き延ばされることにより、比較例の場合よりも、マッチングされるドットが多い。比較領域において、引き延ばし前のドットパターンは、Y軸正方向に1画素ずれているため、セグメント領域の引き延ばし前のドットと、このドットに対してY軸正方向に1画素延ばされた部分のドットの2画素分のドットが、比較領域の2画素分のドットとマッチングされる。他方、セグメント領域のドットのうち、引き延ばし前のドットに対してY軸負方向に引き延ばされたドットは、比較領域のドットとマッチングしない。したがって、図11(b)の状態では、差分値(Rsad)は、10となり、比較例における差分値(Rsad)(=12)よりもやや小さくなる。
図11(c)を参照して、セグメント領域が1画素ずれたマッチング状況では、全てのドットがマッチングされていない。セグメント領域および比較領域のドットがY軸正方向およびY軸負方向に1画素ずつ引き延ばされているため、差分値(Rsad)は、比較例の場合の差分値(Rsad)(=16)よりもかなり高い36となる。
このように、ドットがY軸正方向およびY軸負方向に1画素ずつ引き延ばされることにより、引き延ばされたドットのうち、少なくとも一部のドットがマッチングされやすくなる。たとえば、図示の如く、実測時において、ドットがY軸正方向またはY軸負方向に1画素ずれたとしても、少なくとも2画素分のドットがマッチングされる。また、実測時において、ドットがY軸正方向またはY軸負方向に2画素ずれたとしても、少なくとも1画素分のドットがマッチングされる。
また、ドットが引き延ばされることにより、セグメント領域および比較領域内に含まれるドットの数が多くなり、セグメント領域と、これに対応する比較領域以外の比較領域とが重なったときの差分値(Rsad)が大きくなる。したがって、セグメント領域とこれに対応する比較領域とが重なったときの差分値(Rsad)が、他の比較領域にセグメント領域が重なったときの差分値(Rsad)よりも相対的に小さくなる。
図12は、本願発明者らが本実施の形態の効果を確認するシミュレーションを行った結果を示すグラフである。シミュレーションでは、基準画像取得時において、15画素×15画素のセグメント領域内に15個のDP光のドットが所定のパターンで照射されるとの設定となっている。またシミュレーションでは、実測時において、全てのドットが基準画像取得時の位置から縦方向(Y軸正方向)に1画素ずれた状態で検出されたとの条件(縦画素ずれあり)と、全てのドットが縦方向にずれていない状態で検出された条件(縦画素ずれなし)とにおいて、それぞれ、差分値(Rsad)が求められている。また、シミュレーションでは、実測画像上のセグメント領域に対応する領域を画素ずれ量0とし、この領域からX軸正負の方向に画素ずれ量が−5〜+5の範囲でマッチングの探索を行ったときの差分値(Rsad)が求められている。なお、シミュレーションでは、基準面と同位
置に検出対象物があることが想定されている。
図12(a)は、上記のように、Y軸正方向およびY軸負方向に1画素分ドットが引き延ばされたドットパターンを用いたマッチング結果を示すグラフ、図12(b)は、比較例のように、Y軸正方向およびY軸負方向にドットを引き延ばさないときのマッチング結果を示すグラフである。それぞれ、測定されたドットパターンに縦方向(Y軸方向)の画素ずれがある場合のグラフが実線で示され、縦方向(Y軸方向)の画素ずれがない場合のグラフが破線で示されている。横軸は、X軸方向における探索範囲を画素ずれ量として示し、縦軸は、各探索位置における差分値(Rsad)を示している。
図12(a)の破線グラフを参照して、縦方向(Y軸方向)の画素ずれがない場合、画素ずれ量0以外の位置では、セグメント領域および比較領域のドットがY軸正方向およびY軸負方向に1画素引き延ばされることにより、差分値(Rsad)は、60〜100の高い値となっている。また、画素ずれ量0の位置では、全てのドットがマッチングし、差分値(Rsad)は、0である。この場合、差分値(Rsad)の最小値は0であり、2番目に小さい差分値(Rsad)は、略60となるため、それぞれの差分が十分に大きくなり、適正にマッチングされる。
次に、図12(a)の実線グラフを参照して、実測時において、ドットが縦方向(Y軸負方向)に1画素ずれた場合、画素ずれ量0以外の位置では、上記同様、ドットが引き延ばされることにより、差分値(Rsad)は、60〜100の高い値となっている。また、画素ずれ量0の位置では、セグメント領域および比較領域のドットがY軸正負方向に1画素引き延ばされることにより、少なくとも、1部のドットがマッチングし、差分値(Rsad)は、略30である。この場合、差分値(Rsad)の最小値は略30であり、2番目に小さい差分値(Rsad)は、略60となり、それぞれの差分は、十分に大きくなっている。したがって、実測時において、ドットが縦方向(Y軸方向)にずれたとしても、適正にマッチングされることがわかる。
また、図12(b)の破線グラフを参照して、比較例において、縦方向(Y軸方向)の画素ずれがない場合、画素ずれ量0以外の位置では、差分値(Rsad)は、20〜30の値となっている。また、画素ずれ量0の位置では、全てのドットがマッチングし、差分値(Rsad)は、0である。この場合、上記同様、差分値(Rsad)の最小値と、2番目に小さい差分値(Rsad)との差が十分に大きいため、適正にマッチングされる。
次に、図12(b)の実線グラフを参照して、比較例において、実測時にドットが縦方向(Y軸負方向)に1画素ずれた場合、画素ずれ量0以外の位置では、差分値(Rsad)は、20〜30の値となっている。また、画素ずれ量0の位置では、比較領域のドットが縦方向(Y軸負方向)に1画素ずれることにより、ほぼマッチングされるドットはなく、差分値(Rsad)は、略30となっている。したがって、比較例では、実測時において、ドットが縦方向(Y軸方向)にずれた場合、適正にマッチすることができず、距離検出がエラーとなることがわかる。
このように、本実施の形態では、実測時のドットが正規の位置から縦方向(Y軸方向)にずれたとしても、ドットが縦方向(Y軸方向)に引き延ばされるため、セグメント領域とこれに対応する比較領域とが重なったとき(画素ずれ量=0)は、少なくとも、一部のドットがマッチングされ、差分値(Rsad)は、大きくならない。また、セグメント領域に対応しない比較領域にセグメント領域が重なったとき(画素ずれ量≠0)には、差分値(Rsad)がかなり大きくなる。したがって、本実施の形態では、実測時において、ドットが縦方向(Y軸方向)にずれたとしても、適正にマッチング検出を行うことができる。
以上、本実施の形態によれば、基準画像および実測画像のドットパターンがY軸正方向およびY軸負方向に引き延ばされた状態でマッチングされるため、実測時において、ドットの受光位置がY軸正方向またはY軸負方向にずれても、適正に距離を検出することができる。
また、本実施の形態によれば、実測時におけるドットの照射位置がY軸方向にずれても、適正に距離を検出することができるため、レーザ光源110に対する温度調節素子などを省略することができ、情報取得装置1のコストダウンを図ることができる。
以上、本発明の実施の形態について説明したが、本発明は、上記実施の形態に何ら制限されるものではなく、また、本発明の実施の形態も上記の他に種々の変更が可能である。
上記実施の形態では、基準画像と実測画像の両方のドットパターンを、それぞれ、Y軸正方向および負方向に1画素ずつ引き延ばしたが、基準画像のドットパターンのみ、または、実測画像のドットパターンのみをY軸方向に引き延ばしてもよい。
図13は、実測画像のドットパターンのみをY軸正方向およびY軸負方向に1画素ずつ引き延ばした変更例1におけるマッチング状況を模式的に示す図である。
図13(a)は、変更例1のセグメント領域におけるドットの分布状況、および、当該セグメント領域に対応する位置の比較領域におけるドットの分布状況を示す図である。また、図13(b)は、セグメント領域が当該比較領域に重なったときのマッチング状況を示す図、図13(c)は、図13(b)の状態からセグメント領域が1画素だけずれたときのマッチング状況を示す図である。
図13(a)に示すように、セグメント領域では、ドットがY軸方向に引き延ばされず、8画素分のドットが分布している。また、比較領域では、上記実施の形態同様、ドットがY軸正方向およびY軸負方向に1画素ずつ引き延ばされ、19画素分のドットが分布している。
図13(b)を参照して、セグメント領域が当該比較領域に重なったときのマッチング状況では、比較領域のみのドットがY軸方向に引き延ばされることにより、比較領域のドットのうち、引き延ばし前のドットに対してY軸正方向に1画素引き延ばされた部分のドットがマッチングされる。他方、その反対方向に引き延ばされたドットは、逆にマッチングがとれなくなる。したがって、差分値(Rsad)は、11となり、比較例、および図11の場合の差分値(Rsad)(=12)よりも1だけ小さくなる。
しかし、図13(c)に示すように、上記の実施の形態と同様、画素ずれ量1の位置のマッチング状況では、全てのドットがマッチングされず、差分値(Rsad)は、上記比較例の場合差分値(Rsad)(=16)よりも大きい27となる。
このように、本変更例では、差分値(Rsad)の最小値と、2番目に小さい差分値(Rsad)との差は、図11の場合よりも小さくなるものの、比較例の場合に比べると、かなり大きくなる。したがって、変更例1の場合においても、実測時に、ドットがY軸方向にずれても、適正にマッチングされることがわかる。
上記実施の形態の場合は、セグメント領域および比較領域の両方のドットがY軸方向に1画素分引き延ばされたため、実測時にY軸正方向および負方向に2画素までずれたとしても、適正にマッチングされたが、変更例1の場合、比較領域のドットのみがY軸方向に
引き延ばされているため、実測時に、ドットがY軸正方向およびY軸負方向に1画素までずれたとしても、適正にマッチングされる。
図14は、基準画像のドットパターンのみをY軸正方向およびY軸負方向に引き延ばした変更例2におけるマッチング状況を模式的に示す図である。
図14(a)は、変更例2のセグメント領域におけるドットの分布状況、および、当該セグメント領域に対応する比較領域におけるドットの分布状況を示す図である。また、図14(b)は、セグメント領域が当該比較領域に重なったときのマッチング状況を示す図、図14(c)は、図14(b)の状態からセグメント領域が1画素ずれたときのマッチング状況を示す図である。
図示の如く、変更例2の場合、上記変更例1の場合と、逆に引き延ばされた方向のドットがマッチングされ、同様の効果が得られることがわかる。
変更例2の場合も、変更例1の場合と同様に、実測時に、ドットがY軸正方向およびY軸負方向に1画素までずれたとしても、適正にマッチングされる。
このように、実測時におけるドットのY軸方向のずれの許容量が小さければ、変更例1または2のように、基準画像または実測画像の片方のみのドットを引き延ばしたとしても、上記実施の形態と同様の効果が得られることがわかる。
しかし、上記実施の形態のように、基準画像および実測画像の両方のドットを引き延ばしたほうが、実測時におけるドットのY軸方向のずれの許容量を大きくでき、より好適である。
実測時におけるドットのY軸方向のずれの許容量をさらに大きくするには、基準画像または実測画像のドットのY軸方向の引き延ばし量を大きくすればよいが、図15(a)に示すように、ドットの引き延ばし量をセグメント領域の一辺に含まれる画素の数以上にすると、セグメント領域内の全てのドットがセグメント領域のY軸方向の画素数限界(9画素)まで引き延ばされ、ドットパターンのユニーク性が大きく失われることとなる。また、セグメント領域外のドットが大きく引き延ばされることによって、さらにドットパターンのユニーク性が失われる。したがって、ドットの引き延ばし量は、少なくとも、セグメント領域の一辺に含まれる画素の数よりも小さいほうが望ましい。
さらに、上記実施の形態では、DOE140によって生成されるドットの数は略3万個、CMOSイメージセンサ240の総画素数は略30万であり、CMOSイメージセンサ240上の隣り合うドットの平均間隔は、略2.5画素となっている。図15(b)のように、隣り合うドットの平均間隔以上にドットをY軸方向に引き延ばすと、Y軸方向に隣り合うドットがそれぞれ干渉し合い、Y軸方向に大きく連続したドットとなりやすく、ドットパターンのユニーク性が失われやすい。図15(b)では、中央の2つのDP光のドットの他に、X軸負方向の境界に近い2つのDP光のドットが、セグメント領域のY軸方向の画素数限界(9画素)まで引き延ばされている。したがって、ドットのY軸方向の引き延ばし量は、Y軸方向に隣り合うドットの平均間隔よりも小さい方がさらに望ましい。
また、上記実施の形態および変更例1、2では、基準画像および実測画像のいずれか一方もしくは両方のドットパターンが、Y軸正方向およびY軸負方向の両方に引き延ばされたが、Y軸正方向またはY軸負方向の片方のみに引き延ばされれば、少なくとも、実測時に、Y軸正方向またはY軸負方向のいずれか一方に対して、ドットがずれても、適正にマッチングすることができる。
図16は、基準画像のドットパターンを、Y軸正方向に1画素、実測画像のドットパターンを、Y軸負方向に1画素引き延ばした変更例3におけるマッチング状況を示す図である。
図16(a)は、変更例3のセグメント領域におけるドットの分布状況、および、当該セグメント領域に対応する比較領域におけるドットの分布状況を示す図である。また、図16(b)は、セグメント領域と比較領域が重なったときのマッチング状況を示す図、図16(c)は、図16(b)からセグメント領域が1画素ずれたときのマッチング状況を示す図である。
図16(a)に示すように、セグメント領域では、ドットがY軸正方向にのみ1画素分引き延ばされ、14画素分のドットが分布している。また、比較領域では、ドットがY軸負方向にのみ1画素分引き伸ばされ、14画素分のドットが分布している。
図16(b)を参照して、セグメント領域と比較領域とが重なったときのマッチング状況では、セグメント領域のドットがY軸正方向(実測時のドットのずれ方向)に1画素分引き延ばされ、逆に、比較領域のドットが実測時のずれ方向と反対の方向に1画素分引き延ばされることにより、全てのドットがマッチングされる。したがって、差分値(Rsad)は、0となり、最も小さくなる。
図16(c)を参照して、セグメント領域が1画素ずれたときのマッチング状況では、上記同様、全てのドットがマッチングされていない。セグメント領域および比較領域のドットがY軸正方向またはY軸負方向に引き延ばされているため、差分値(Rsad)は、28となる。
したがって、変更例3の場合、実測時にずれた方向にドットパターンを引き延ばされているため、適正にマッチングすることができる。
実測時のドットパターンのY軸方向のずれの方向に傾向がある場合は、このように、セグメント領域および比較領域のいずれか一方もしくは両方のドットパターンが、かかる傾向に応じてY軸正方向またはY軸負方向の一方のみに引き延ばされれば、適正にマッチングすることができる。
たとえば、レーザ光の出射波長が変動すると、DOE140の光学特性によって、0次光を中心にドットパターンが放射状に広がる傾向がある。このような場合、ドットパターンの中心からY軸正方向に離れた位置のセグメント領域では、Y軸正方向にドットを引き延ばし、Y軸負方向に離れた位置のセグメント領域では、Y軸負方向にドットを引き延ばせばよい。こうすると、レーザ光の出射波長変動によって、ドットパターンがY軸方向にずれた場合にも、適正にマッチングすることができる。
しかし、レーザ光の出射波長変動の他、CMOSイメージセンサ240の取り付け位置のずれの発生等を考慮すると、Y軸正方向もしくはY軸負方向のどちらに変化するかを完全に把握するのは困難である。したがって、上記実施の形態のように、ドットパターンがY軸正方向およびY軸負方向の両方に引き延ばされたほうが望ましい。
また、上記実施の形態では、距離測定時において、毎回ドットパターンを引き延ばしたが、上述のように、通常、Y軸方向のずれは発生しない。したがって、図17(a)の変更例4、図17(b)の変更例5に示すように、マッチングのエラー発生率や温度変化を契機にドットパターンの引き延ばし処理を実施するか否かが判断されてもよい。なお、図
中、上記実施の形態における図9(b)と同様の処理については、同一の符号が付されており、詳細な説明は省略する。
図17(a)を参照して、変更例4の場合、実測画像の2値化処理後(S22)、CPU21は、マッチングのエラー発生率が所定の閾値を超えているかを判断する(S51)。マッチングのエラー発生率は、たとえば、所定の回数分、過去のマッチング処理の結果を、メモリ26に保持しておき、各回のマッチングエラーの発生率を求め、求めた発生率を平均化することによって算出される。
マッチングのエラー発生率が所定の閾値を超えている場合(S51:YES)、CPU21は、基準画像および実測画像のドットパターンの引き延ばし処理を行う(S23)。そして、CPU21は、ドットパターンがY軸方向に引き延ばされた基準画像および実測画像を用いて、マッチング処理を行う(S24)。
マッチングのエラー発生率が所定の閾値を超えていない場合(S51:NO)、CPU21は、ドットパターンの引き延ばし処理を行わず、処理をS24に進める。そして、CPU21は、ドットパターンが引き延ばされていない基準画像および実測画像を用いて、マッチング処理を行う(S24)。
このように、変更例4では、マッチングのエラーが続いた場合のみ、ドットパターンのY軸方向の引き延ばし処理が行われる。したがって、ドットパターンの引き延ばしの必要のない状況においては、ドットパターンの引き延ばし処理が行われず、CPU21にかかる演算量を軽減することができる。
また、図17(b)を参照して、変更例5の場合、実測画像の2値化処理後(S22)、CPU21は、レーザ光源110の周辺の温度を検出する(S61)。温度検出処理は、たとえば、CPU21により、レーザ光源110の近傍に配置された温度検出素子によって出力された信号を読み込むことによって行われる。そして、CPU21は、あらかじめ設定された所定の温度からの温度変化が所定の閾値を超えているかを判断する(S62)。
温度変化が所定の閾値を超えている場合(S62:YES)、CPU21は、基準画像および実測画像のドットパターンの引き延ばし処理を行う(S23)。そして、CPU21は、ドットパターンがY軸方向に引き延ばされた基準画像および実測画像を用いて、マッチング処理を行う(S24)。
温度変化が所定の閾値を超えていない場合(S62:NO)、CPU21は、ドットパターンの引き延ばし処理を行わず、処理をS24に進める。そして、CPU21は、ドットパターンが引き延ばされていない基準画像および実測画像を用いて、マッチング処理を行う(S24)。
このように、変更例5では、レーザ光源110の近傍の温度が、所定の温度より大きく変化した場合にのみ、ドットパターンのY軸方向の引き延ばし処理が行われる。したがって、温度変化によって、レーザ光源110の出射波長が変動した場合にのみ、引き延ばし処理が行われ、必要のない状況においては、ドットパターンの引き延ばし処理が行われず、CPU21にかかる演算量を軽減することができる。
さらに、変更例4では、マッチングのエラー発生率のみ、変更例5では、温度変化のみによって、ドットパターンの引き延ばし処理の要否が判断されたが、マッチングのエラー発生率と、レーザ光源110の温度変化の両方を判断して、ドットパターンの引き延ばし
処理の要否が判断されてもよい。
また、上記実施の形態では、マッチング処理の前に、基準画像および実測画像の全てのドットについて、一括で引き延ばし処理が行われたが、マッチング処理時において、セグメント領域単位でドットの引き延ばし処理が行われてもよい。こうすると、ドットパターンの引き延ばし処理にかかる演算量が増大するが、図15(a)、(b)のように、Y軸方向の引き延ばし量を大きくしても、セグメント領域外のドットが引き延ばされることによる影響をなくすことができる。
また、上記実施の形態では、基準画像もしくは実測画像に含まれる全てのドットについて、Y軸方向に引き延ばされたが、一部分のドットのみが引き延ばされてもよい。また、全てのセグメント領域および比較領域に対して引き延ばし処理を行わず、ずれが生じ易いセグメント領域と比較領域に対してのみ引き延ばし処理を行っても良い。
また、上記実施の形態では、基準画像もしくは実測画像に含まれるドットがY軸正方向およびY軸負方向に1画素ずつ引き延ばされたが、その他の画素数でもよく、Y軸正方向とY軸負方向で同じ画素数でなくてもよい。
また、上記実施の形態および各変更例では、実測時にドットの引き延ばし処理を行ったが、実測に先立って、予めドットが引き延ばされたドットパターンを保持しておき、実測時には、予め保持した、引き延ばされたドットパターンを用いてマッチング処理を行っても良い。この場合、基準画像に対する引き伸ばされたドットパターンは、情報取得装置1のセットアップ時に、基準画像とともにメモリ26に保持されても良い。
また、上記実施の形態では、距離検出のエラー判定として、最も照合率の高いRsadと、その次に照合率が高いRsadとの差分が閾値を超えているかに基づいて、エラーが判定されたが、最も照合率の高いRsadが所定の閾値を超えているかに基づいて、エラーが判定されてもよい。
また、上記実施の形態では、セグメント領域と比較領域のマッチング率を算出する前に、セグメント領域と比較領域に含まれる画素の画素値を2値化したが、CMOSイメージセンサ240によって得られた画素値をそのまま用いて、マッチングしてもよい。また、上記実施の形態では、CMOSイメージセンサ240によって得られた画素値をそのまま2値化したが、画素値について、所定の画素の重みづけ処理、および背景光の除去処理、等の補正処理を行った後に、2値化してもよい。
また、上記実施の形態では、三角測量法を用いて距離情報が求められ、メモリ26に記憶されたが、物体の輪郭抽出を主目的とするような場合は、三角測量法を用いた距離を演算せずに、セグメント領域の変位量(画素ずれ量)が距離情報として取得されてもよい。
また、上記実施の形態では、投射光学系100に、FMD150が用いられたが、FMD150は省略されてもよい。
また、上記実施の形態では、目標領域に照射されるレーザ光の波長帯以外の波長帯の光を除去するためにフィルタ230を配したが、たとえば、目標領域に照射されるレーザ光以外の光の信号成分を、CMOSイメージセンサ240から出力される信号から除去する回路構成が配されるような場合には、フィルタ230を省略することができる。また、アパーチャ210の配置位置は、何れか2つの撮像レンズの間であってもよい。
また、上記実施の形態では、受光素子として、CMOSイメージセンサ240を用いた
が、これに替えて、CCDイメージセンサを用いることもできる。さらに、投射光学系100および受光光学系200の構成も、適宜変更可能である。また、情報取得装置1と情報処理装置2は一体化されてもよいし、情報取得装置1と情報処理装置2がテレビやゲーム機、パーソナルコンピュータと一体化されてもよい。
本発明の実施の形態は、特許請求の範囲に示された技術的思想の範囲内において、適宜、種々の変更が可能である。
1 … 情報取得装置
21 … CPU(距離取得部)
21b … 距離取得部(距離取得部)
24 … 撮像信号処理回路(距離取得部)
26 … メモリ(記憶部)
100 … 投射光学系
110 … レーザ光源
120 … コリメータレンズ
140 … DOE(回折光学素子)
200 … 受光光学系

Claims (7)

  1. 光を用いて目標領域の情報を取得する情報取得装置において、
    目標領域に所定のドットパターンでレーザ光を投射する投射光学系と、
    前記投射光学系に対して所定の距離だけ横方向に離れて並ぶように配置され、前記目標領域をイメージセンサにより撮像する受光光学系と、
    基準面に前記レーザ光を照射したときに前記受光光学系により撮像された基準ドットパターンと、距離測定時に目標領域を撮像して取得された実測ドットパターンとを保持する記憶部と、
    前記基準ドットパターンにセグメント領域を設定し、前記実測ドットパターンと前記セグメント領域内のドットとを照合することにより、前記セグメント領域に対応する前記目標領域内の位置について距離を取得する距離取得部と、を備え、
    前記距離取得部は、前記基準ドットパターンと前記実測ドットパターンのいずれか一方または両方の前記ドットが前記投射光学系と前記受光光学系の並び方向に垂直な方向の一方または両方に引き延ばされたドットパターンを用いて、前記距離の取得を行う、
    ことを特徴とする情報取得装置。
  2. 請求項1に記載の情報取得装置において、
    前記距離取得部は、前記基準ドットパターンおよび前記実測ドットパターンの両方の前記ドットが引き延ばされたドットパターンを用いて、前記距離の取得を行う、
    ことを特徴とする情報取得装置。
  3. 請求項1または2に記載の情報取得装置において、
    前記距離取得部は、前記ドットを前記投射光学系と前記受光光学系の並び方向に垂直な方向の両方に引き延ばされたドットパターンを用いて、前記距離の取得を行う、
    ことを特徴とする情報取得装置。
  4. 請求項1ないし3の何れか一項に記載の情報取得装置において、
    前記ドットの引き延ばし量は、1画素以上であって、前記セグメント領域の一辺に含まれる画素の数以下である、
    ことを特徴とする情報取得装置。
  5. 請求項1ないし3の何れか一項に記載の情報取得装置において、
    前記ドットの引き延ばし量は、1画素以上であって、前記投射光学系と前記受光光学系の並び方向に垂直な方向に隣り合う前記ドットの平均間隔に対応する画素の数以下である、
    ことを特徴とする情報取得装置。
  6. 請求項1ないし5の何れか一項に記載の情報取得装置において、
    前記投射光学系は、レーザ光源と、前記レーザ光源から出射されたレーザ光が入射するコリメータレンズと、前記コリメータレンズを透過した前記レーザ光を回折によりドットパターンの光に変換する回折光学素子と、を備える、
    ことを特徴とする情報取得装置。
  7. 請求項1ないし6の何れか一項に記載の情報取得装置を有する物体検出装置。
JP2011185186A 2011-08-26 2011-08-26 物体検出装置および情報取得装置 Withdrawn JP2014211306A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011185186A JP2014211306A (ja) 2011-08-26 2011-08-26 物体検出装置および情報取得装置
PCT/JP2012/069126 WO2013031448A1 (ja) 2011-08-26 2012-07-27 物体検出装置および情報取得装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011185186A JP2014211306A (ja) 2011-08-26 2011-08-26 物体検出装置および情報取得装置

Publications (1)

Publication Number Publication Date
JP2014211306A true JP2014211306A (ja) 2014-11-13

Family

ID=47755951

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011185186A Withdrawn JP2014211306A (ja) 2011-08-26 2011-08-26 物体検出装置および情報取得装置

Country Status (2)

Country Link
JP (1) JP2014211306A (ja)
WO (1) WO2013031448A1 (ja)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4043931B2 (ja) * 2002-12-09 2008-02-06 株式会社リコー 3次元情報取得システム
JP3782815B2 (ja) * 2004-02-04 2006-06-07 住友大阪セメント株式会社 呼吸解析装置
JP2009204991A (ja) * 2008-02-28 2009-09-10 Funai Electric Co Ltd 複眼撮像装置
JP5251419B2 (ja) * 2008-10-22 2013-07-31 日産自動車株式会社 距離計測装置および距離計測方法

Also Published As

Publication number Publication date
WO2013031448A1 (ja) 2013-03-07

Similar Documents

Publication Publication Date Title
WO2012137674A1 (ja) 情報取得装置、投射装置および物体検出装置
JP5138116B2 (ja) 情報取得装置および物体検出装置
JP5138119B2 (ja) 物体検出装置および情報取得装置
JP5214062B1 (ja) 情報取得装置および物体検出装置
JP5143312B2 (ja) 情報取得装置、投射装置および物体検出装置
WO2013046927A1 (ja) 情報取得装置および物体検出装置
JP2012237604A (ja) 情報取得装置、投射装置および物体検出装置
JP2014137762A (ja) 物体検出装置
JP2014044113A (ja) 情報取得装置および物体検出装置
WO2012144340A1 (ja) 情報取得装置および物体検出装置
WO2012026180A1 (ja) 情報取得装置および物体検出装置
WO2013015146A1 (ja) 物体検出装置および情報取得装置
JPWO2013015145A1 (ja) 情報取得装置および物体検出装置
JP2014052307A (ja) 情報取得装置および物体検出装置
JP2013246009A (ja) 物体検出装置
JP2014085257A (ja) 情報取得装置および物体検出装置
WO2013046928A1 (ja) 情報取得装置および物体検出装置
WO2013031448A1 (ja) 物体検出装置および情報取得装置
WO2013031447A1 (ja) 物体検出装置および情報取得装置
JP2013205331A (ja) 情報取得装置および物体検出装置
JP2014085282A (ja) 情報取得装置および物体検出装置
JP2013234956A (ja) 情報取得装置および物体検出装置
JP2013234957A (ja) 情報取得装置および物体検出装置
JP5138120B2 (ja) 物体検出装置および情報取得装置
JP2014106000A (ja) 情報取得装置および物体検出装置

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20141104