JP2014211305A - 物体検出装置および情報取得装置 - Google Patents
物体検出装置および情報取得装置 Download PDFInfo
- Publication number
- JP2014211305A JP2014211305A JP2011184307A JP2011184307A JP2014211305A JP 2014211305 A JP2014211305 A JP 2014211305A JP 2011184307 A JP2011184307 A JP 2011184307A JP 2011184307 A JP2011184307 A JP 2011184307A JP 2014211305 A JP2014211305 A JP 2014211305A
- Authority
- JP
- Japan
- Prior art keywords
- segment
- pixels
- area
- distance
- segment area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/46—Indirect determination of position data
- G01S17/48—Active triangulation systems, i.e. using the transmission and reflection of electromagnetic waves other than radio waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
Abstract
【課題】物体検出の精度を保ちつつ、演算量の増加を抑えることが可能な情報取得装置および物体検出装置を提供する。
【解決手段】情報取得装置1は、投射光学系100と、目標領域をCMOSイメージセンサ240により撮像する受光光学系200と、基準面にレーザ光を照射したときに撮像された基準画像を保持するメモリ26と、基準画像にセグメント領域を設定し、距離測定時に撮像した実測画像とセグメント領域内のドットとを照合することにより、距離を取得する距離取得部21bと、を備える。距離取得部21bは、縦が5画素以上、横が5画素以上の四角形状となるようセグメント領域の大きさを設定し、隣り合うセグメント領域の間隔を、2画素分の距離以上で、且つ、セグメント領域の大きさに応じた上限値以下の距離に設定する。これにより、物体検出精度を損なわずに、演算量の増加を抑えることができる。
【選択図】図2
【解決手段】情報取得装置1は、投射光学系100と、目標領域をCMOSイメージセンサ240により撮像する受光光学系200と、基準面にレーザ光を照射したときに撮像された基準画像を保持するメモリ26と、基準画像にセグメント領域を設定し、距離測定時に撮像した実測画像とセグメント領域内のドットとを照合することにより、距離を取得する距離取得部21bと、を備える。距離取得部21bは、縦が5画素以上、横が5画素以上の四角形状となるようセグメント領域の大きさを設定し、隣り合うセグメント領域の間隔を、2画素分の距離以上で、且つ、セグメント領域の大きさに応じた上限値以下の距離に設定する。これにより、物体検出精度を損なわずに、演算量の増加を抑えることができる。
【選択図】図2
Description
本発明は、目標領域に光を投射したときの反射光の状態に基づいて目標領域内の物体を検出する物体検出装置および当該物体検出装置に用いて好適な情報取得装置に関する。
従来、光を用いた物体検出装置が種々の分野で開発されている。いわゆる距離画像センサを用いた物体検出装置では、2次元平面上の平面的な画像のみならず、検出対象物体の奥行き方向の形状や動きを検出することができる。かかる物体検出装置では、レーザ光源やLED(Light Emitting Diode)から、予め決められた波長帯域の光が目標領域に投射され、その反射光がCMOSイメージセンサ等の受光素子により受光される。距離画像センサとして、種々のタイプのものが知られている。
所定のドットパターンを持つレーザ光を目標領域に照射するタイプの距離画像センサでは、ドットパターンを持つレーザ光の目標領域からの反射光が受光素子によって受光される。そして、ドットの受光素子上の受光位置に基づいて、三角測量法を用いて、検出対象物体の各部(検出対象物体上の各ドットの照射位置)までの距離が検出される(たとえば、非特許文献1)。
第19回日本ロボット学会学術講演会(2001年9月18−20日)予稿集、P1279−1280
上記物体検出装置では、所定距離だけ離れた位置に基準面を配したときにイメージセンサにより撮像されるドットパターンと、実測時にイメージセンサにより撮像されるドットパターンとが比較されて、距離の検出が行われる。たとえば、基準面に対するドットパターンに複数の領域が設定される。物体検出装置は、各領域に含まれるドットが実測時に撮像したドットパターン上のどの位置に移動したかに基づいて、領域毎に、対象物体までの距離を検出する。そして、物体検出装置は、領域毎に得られた距離情報をもとに、物体の形状、輪郭および動き等を検出する。
この場合、ドットパターンに設定される領域の数が多い程、対象物体に対して、撮像領域の面内方向に細かく距離を検出でき、距離検出の分解能が増加する。たとえば、隣り合う領域がイメージセンサ上において互いに1画素だけずれるように、各領域を設定することにより、距離検出の分解能を顕著に高めることができる。しかしながら、このように領域を設定すると、距離検出のための演算量が膨大となり、処理負担が大きくなるとの問題が生じる。距離検出の分解能は、取得された距離情報により検出対象物体の形状や輪郭が把握可能な程度に設定されれば良い。
本発明は、この点に鑑みてなされたものであり、物体検出の精度を保ちつつ、演算量の増加を抑えることが可能な情報取得装置および物体検出装置を提供することを目的とする。
本発明の第1の態様は、光を用いて目標領域の情報を取得する情報取得装置に関する。
本態様に係る情報取得装置は、目標領域に所定のドットパターンでレーザ光を投射する投射光学系と、前記投射光学系に対して所定の距離だけ横方向に離れて並ぶように配置され、前記目標領域をイメージセンサにより撮像する受光光学系と、基準面に前記レーザ光を照射したときに前記受光光学系により撮像された基準ドットパターンを保持する記憶部と、前記基準ドットパターンにセグメント領域を設定し、距離測定時に目標領域を撮像して取得された実測ドットパターンと前記セグメント領域内のドットとを照合することにより、前記セグメント領域に対応する前記目標領域内の位置について距離を取得する距離取得部と、を備える。前記距離取得部は、前記イメージセンサ上において縦が5画素以上、横が5画素以上の四角形状となるよう前記セグメント領域の大きさを設定し、隣り合う前記セグメント領域の間隔を、2画素分の距離以上で、且つ、前記セグメント領域の大きさに応じた上限値以下の距離に設定する。
本態様に係る情報取得装置は、目標領域に所定のドットパターンでレーザ光を投射する投射光学系と、前記投射光学系に対して所定の距離だけ横方向に離れて並ぶように配置され、前記目標領域をイメージセンサにより撮像する受光光学系と、基準面に前記レーザ光を照射したときに前記受光光学系により撮像された基準ドットパターンを保持する記憶部と、前記基準ドットパターンにセグメント領域を設定し、距離測定時に目標領域を撮像して取得された実測ドットパターンと前記セグメント領域内のドットとを照合することにより、前記セグメント領域に対応する前記目標領域内の位置について距離を取得する距離取得部と、を備える。前記距離取得部は、前記イメージセンサ上において縦が5画素以上、横が5画素以上の四角形状となるよう前記セグメント領域の大きさを設定し、隣り合う前記セグメント領域の間隔を、2画素分の距離以上で、且つ、前記セグメント領域の大きさに応じた上限値以下の距離に設定する。
本発明の第2の態様は、物体検出装置に関する。本態様に係る物体検出装置は、上記第1の態様に係る情報取得装置を有する。
本発明によれば、物体検出の精度を保ちつつ、演算量の増加を抑えることが可能な情報取得装置および物体検出装置を提供することができる。
本発明の効果ないし意義は、以下に示す実施の形態の説明により更に明らかとなろう。ただし、以下に示す実施の形態は、あくまでも、本発明を実施化する際の一つの例示であって、本発明は、以下の実施の形態により何ら制限されるものではない。
以下、本発明の実施の形態につき図面を参照して説明する。本実施の形態には、所定のドットパターンを持つレーザ光を目標領域に照射するタイプの情報取得装置が例示されている。
まず、図1に本実施の形態に係る物体検出装置の概略構成を示す。図示の如く、物体検出装置は、情報取得装置1と、情報処理装置2とを備えている。テレビ3は、情報処理装置2からの信号によって制御される。
情報取得装置1は、目標領域全体に赤外光を投射し、その反射光をCMOSイメージセンサにて受光することにより、目標領域にある物体各部の距離(以下、「3次元距離情報」という)を取得する。取得された3次元距離情報は、ケーブル4を介して情報処理装置2に送られる。
情報処理装置2は、たとえば、テレビ制御用のコントローラやゲーム機、パーソナルコンピュータ等である。情報処理装置2は、情報取得装置1から受信した3次元距離情報に基づき、目標領域における物体を検出し、検出結果に基づきテレビ3を制御する。
たとえば、情報処理装置2は、受信した3次元距離情報に基づき人を検出するとともに、3次元距離情報の変化から、その人の動きを検出する。たとえば、情報処理装置2がテレビ制御用のコントローラである場合、情報処理装置2には、受信した3次元距離情報からその人のジェスチャを検出するとともに、ジェスチャに応じてテレビ3に制御信号を出力するアプリケーションプログラムがインストールされている。この場合、ユーザは、テレビ3を見ながら所定のジェスチャをすることにより、チャンネル切り替えやボリュームのUp/Down等、所定の機能をテレビ3に実行させることができる。
また、たとえば、情報処理装置2がゲーム機である場合、情報処理装置2には、受信した3次元距離情報からその人の動きを検出するとともに、検出した動きに応じてテレビ画面上のキャラクタを動作させ、ゲームの対戦状況を変化させるアプリケーションプログラムがインストールされている。この場合、ユーザは、テレビ3を見ながら所定の動きをすることにより、自身がテレビ画面上のキャラクタとしてゲームの対戦を行う臨場感を味わうことができる。
図2は、情報取得装置1と情報処理装置2の構成を示す図である。
情報取得装置1は、光学部の構成として、投射光学系100と受光光学系200とを備えている。投射光学系100と受光光学系200は、X軸方向に並ぶように、情報取得装置1に配置される。
投射光学系100は、レーザ光源110と、コリメータレンズ120と、リーケージミラー130と、回折光学素子(DOE:Diffractive Optical Element)140と、FMD(FrontMonitor Diode)150とを備えている。また、受光光学系200は、アパーチャ210と、撮像レンズ220と、フィルタ230と、CMOSイメージセンサ240とを備えている。この他、情報取得装置1は、回路部の構成として、CPU(Central Processing Unit)21と、レーザ駆動回路22と、PD信号処理回路23と、撮像信号処理回路24と、入出力回路25と、メモリ26を備えている。
レーザ光源110は、受光光学系200から離れる方向(X軸負方向)に波長830nm程度の狭波長帯域のレーザ光を出力する。コリメータレンズ120は、レーザ光源110から出射されたレーザ光を平行光から僅かに広がった光(以下、単に「平行光」という)に変換する。
リーケージミラー130は、誘電体薄膜の多層膜からなり、反射率が100%よりも若干低く、透過率が反射率よりも数段小さくなるように膜の層数や膜厚が設計されている。
リーケージミラー130は、コリメータレンズ120側から入射されたレーザ光の大部分をDOE140に向かう方向(Z軸方向)に反射し、残りの一部分をFMD150に向かう方向(X軸負方向)に透過する。
リーケージミラー130は、コリメータレンズ120側から入射されたレーザ光の大部分をDOE140に向かう方向(Z軸方向)に反射し、残りの一部分をFMD150に向かう方向(X軸負方向)に透過する。
DOE140は、入射面に回折パターンを有する。この回折パターンによる回折作用により、DOE140に入射したレーザ光は、ドットパターンのレーザ光に変換されて、目標領域に照射される。回折パターンは、たとえば、ステップ型の回折ホログラムが所定のパターンで形成された構造とされる。回折ホログラムは、コリメータレンズ120により平行光とされたレーザ光をドットパターンのレーザ光に変換するよう、パターンとピッチが調整されている。
DOE140は、リーケージミラー130から入射されたレーザ光を、放射状に広がるドットパターンのレーザ光として、目標領域に照射する。ドットパターンの各ドットの大きさは、DOE140に入射する際のレーザ光のビームサイズに応じたものとなる。
FMD150は、リーケージミラー130を透過したレーザ光を受光し、受光量に応じた電気信号を出力する。
目標領域から反射されたレーザ光は、アパーチャ210を介して撮像レンズ220に入射する。
アパーチャ210は、撮像レンズ220のFナンバーに合うように、外部からの光に絞りを掛ける。撮像レンズ220は、アパーチャ210を介して入射された光をCMOSイメージセンサ240上に集光する。フィルタ230は、レーザ光源110の出射波長(830nm程度)を含む赤外の波長帯域の光を透過し、可視光の波長帯域をカットするIRフィルタ(Infrared Filter)である。
CMOSイメージセンサ240は、撮像レンズ220にて集光された光を受光して、画素毎に、受光量に応じた信号(電荷)を撮像信号処理回路24に出力する。ここで、CMOSイメージセンサ240は、各画素における受光から高レスポンスでその画素の信号(電荷)を撮像信号処理回路24に出力できるよう、信号の出力速度が高速化されている。
CPU21は、メモリ26に格納された制御プログラムに従って各部を制御する。かかる制御プログラムによって、CPU21には、レーザ光源110を制御するためのレーザ制御部21aと、3次元距離情報を生成するための距離取得部21bの機能が付与される。
レーザ駆動回路22は、CPU21からの制御信号に応じてレーザ光源110を駆動する。PD信号処理回路23は、FMD150から出力された受光量に応じた電圧信号を増幅およびデジタル化してCPU21に出力する。CPU21は、PD信号処理回路23から供給される信号をもとに、レーザ制御部21aによる処理によって、レーザ光源110の光量を増幅もしくは減少させる判断を行う。レーザ光源110の光量を変化させる必要があると判断された場合、レーザ制御部21aは、レーザ光源110の発光量を変化させる制御信号をレーザ駆動回路22に送信する。これにより、レーザ光源110から出射されるレーザ光のパワーが略一定に制御される。
撮像信号処理回路24は、CMOSイメージセンサ240を制御して、CMOSイメージセンサ240で生成された各画素の信号(電荷)をライン毎に順次取り込む。そして、取り込んだ信号を順次CPU21に出力する。CPU21は、撮像信号処理回路24から供給される信号(撮像信号)をもとに、情報取得装置1から検出対象物の各部までの距離
を、距離取得部21bによる処理によって算出する。入出力回路25は、情報処理装置2とのデータ通信を制御する。
を、距離取得部21bによる処理によって算出する。入出力回路25は、情報処理装置2とのデータ通信を制御する。
情報処理装置2は、CPU31と、入出力回路32と、メモリ33を備えている。なお、情報処理装置2には、同図に示す構成の他、テレビ3との通信を行うための構成や、CD−ROM等の外部メモリに格納された情報を読み取ってメモリ33にインストールするためのドライブ装置等が配されるが、便宜上、これら周辺回路の構成は図示省略されている。
CPU31は、メモリ33に格納された制御プログラム(アプリケーションプログラム)に従って各部を制御する。かかる制御プログラムによって、CPU31には、画像中の物体を検出するための物体検出部31aの機能が付与される。かかる制御プログラムは、たとえば、図示しないドライブ装置によってCD−ROMから読み取られ、メモリ33にインストールされる。
たとえば、制御プログラムがゲームプログラムである場合、物体検出部31aは、情報取得装置1から供給される3次元距離情報から画像中の人およびその動きを検出する。そして、検出された動きに応じてテレビ画面上のキャラクタを動作させるための処理が制御プログラムにより実行される。
また、制御プログラムがテレビ3の機能を制御するためのプログラムである場合、物体検出部31aは、情報取得装置1から供給される3次元距離情報から画像中の人およびその動き(ジェスチャ)を検出する。そして、検出された動き(ジェスチャ)に応じて、テレビ3の機能(チャンネル切り替えやボリューム調整、等)を制御するための処理が制御プログラムにより実行される。
入出力回路32は、情報取得装置1とのデータ通信を制御する。
図3は、投射光学系100と受光光学系200の設置状態を示す斜視図である。
投射光学系100と受光光学系200は、ベースプレート300に配置される。投射光学系100を構成する光学部材は、ハウジング100aに設置され、このハウジング100aがベースプレート300上に設置される。これにより、投射光学系100がベースプレート300上に配置される。150a、240aは、それぞれ、FMD150、CMOSイメージセンサ240からの信号を回路基板(図示せず)に供給するためのFPC(フレキシブルプリント基板)である。
受光光学系200を構成する光学部材は、ホルダ200aに設置され、このホルダ200aが、ベースプレート300の背面からベースプレート300に取りつけられる。これにより、受光光学系200がベースプレート300に配置される。なお、受光光学系200は、Z軸方向に光学部材が並ぶため、投射光学系100と比べ、Z軸方向の高さが高くなっている。ベースプレート300は、Z軸方向の高さを抑えるために、受光光学系200の配置位置周辺がZ軸方向に一段高くなっている。
図3に示す設置状態において、投射光学系100の射出瞳と受光光学系200の入射瞳の位置は、Z軸方向において、略一致する。また、投射光学系100と受光光学系200は、投射光学系100の投射中心と受光光学系200の撮像中心がX軸に平行な直線上に並ぶように、X軸方向に所定の距離をもって並んで設置される。
投射光学系100と受光光学系200の設置間隔は、情報取得装置1と目標領域の基準
面との距離に応じて、設定される。どの程度離れた目標物を検出対象とするかによって、基準面と情報取得装置1との間の距離が変わる。検出対象の目標物までの距離が近くなるほど、投射光学系100と受光光学系200の設置間隔は狭くなる。逆に、検出対象の目標物までの距離が遠くなるほど、投射光学系100と受光光学系200の設置間隔は広くなる。
面との距離に応じて、設定される。どの程度離れた目標物を検出対象とするかによって、基準面と情報取得装置1との間の距離が変わる。検出対象の目標物までの距離が近くなるほど、投射光学系100と受光光学系200の設置間隔は狭くなる。逆に、検出対象の目標物までの距離が遠くなるほど、投射光学系100と受光光学系200の設置間隔は広くなる。
図4(a)は、目標領域に対するレーザ光の照射状態を模式的に示す図、図4(b)は、CMOSイメージセンサ240におけるレーザ光の受光状態を模式的に示す図である。なお、同図(b)には、便宜上、目標領域に平坦な面(スクリーン)とスクリーンの前に人物が存在するときの受光状態が示されている。
図4(a)に示すように、投射光学系100からは、ドットパターンを持ったレーザ光(以下、このパターンを持つレーザ光の全体を「DP光」という)が、目標領域に照射される。図4(a)には、DP光の光束領域が実線の枠によって示されている。DP光の光束中には、DOE140による回折作用によってレーザ光の強度が高められたドット領域(以下、単に「ドット」という)が、DOE140による回折作用によるドットパターンに従って点在している。
目標領域に平坦な面(スクリーン)が存在すると、これにより反射されたDP光は、図4(b)のように、CMOSイメージセンサ240上に分布する。
図4(b)には、CMOSイメージセンサ240上のDP光の全受光領域が破線の枠によって示され、CMOSイメージセンサ240の撮像有効領域に入射するDP光の受光領域が実線の枠によって示されている。CMOSイメージセンサ240の撮像有効領域は、CMOSイメージセンサ240がDP光を受光した領域のうち、センサとして信号を出力する領域であり、たとえば、VGA(640画素×480画素)のサイズである。また、同図(a)に示す目標領域上におけるDt0の光は、CMOSイメージセンサ240上では、同図(b)に示すDt’0の位置に入射する。スクリーンの前の人物の像は、CMOSイメージセンサ240上では、上下左右が反転して撮像される。
ここで、図5、図6を参照して、上記距離検出の方法を説明する。
図5は、上記距離検出手法に用いられる参照パターンの設定方法を説明する図である。
図5(a)に示すように、投射光学系100から所定の距離Lsの位置に、Z軸方向に垂直な平坦な反射平面RSが配置される。出射されたDP光は、反射平面RSによって反射され、受光光学系200のCMOSイメージセンサ240に入射する。これにより、CMOSイメージセンサ240から、撮像有効領域内の画素毎の電気信号が出力される。出力された画素毎の電気信号の値(画素値)は、図2のメモリ26上に展開される。以下、反射面RSからの反射によって得られた全画素値からなる画像を、「基準画像」、反射面RSを「基準面」と称する。そして、図5(b)に示すように、基準画像上に、「参照パターン領域」が設定される。なお、図5(b)には、CMOSイメージセンサ240の背面側から受光面をZ軸正方向に透視した状態が図示されている。図6以降の図においても同様である。
こうして設定された参照パターン領域に対して、所定の大きさを有する複数のセグメント領域が設定される。セグメント領域の大きさは、得られる距離情報による物体の輪郭抽出精度とCPU21に対する距離検出の演算量の負荷を考慮して決定される。なお、セグメント領域の大きさと物体の輪郭抽出精度の関係については、追って、図8を参照して説明する。
図5(c)を参照して、比較例における参照パターン領域に設定されるセグメント領域について説明する。なお、図5(c)には、便宜上、各セグメント領域の大きさが7画素×7画素で示され、各セグメント領域の中央の画素が×印で示されている。すなわち、セグメント領域は、一辺の長さが隣り合う画素間の間隔の7倍である正方形に設定されている。
比較例では、セグメント領域は、図5(c)に示すように、隣り合うセグメント領域が参照パターン領域に対してX軸方向およびY軸方向に1画素間隔で並ぶように設定される。すなわち、あるセグメント領域は、このセグメント領域のX軸方向およびY軸方向に隣り合うセグメント領域に対して1画素ずれた位置に設定される。このとき、各セグメント領域には、固有のパターンでドットが点在する。よって、セグメント領域内の画素値のパターンは、セグメント領域毎に異なっている。隣り合うセグメント領域の間隔が狭いほど、参照パターン領域内に含まれるセグメント領域の数が多くなり、目標領域の面内方向(X−Y平面方向)における距離検出の分解能が高められる。なお、比較例におけるセグメント領域の間隔と、距離検出の分解能の関係については、追って図9を参照して説明する。
こうして、CMOSイメージセンサ240上における参照パターン領域の位置に関する情報と、参照パターン領域に含まれる全画素の画素値(参照パターン)と、参照パターン領域に対して設定されるセグメント領域の情報が、図2のメモリ26に記憶される。メモリ26に記憶されるこれらの情報を、以下、「参照テンプレート」と称する。
図2のCPU21は、投射光学系100から検出対象物体の各部までの距離を算出する際に、参照テンプレートを参照する。CPU21は、距離を算出する際に、参照テンプレートから得られる各セグメント領域内のドットパターンのずれ量に基づいて、物体の各部までの距離を算出する。
たとえば、図5(a)に示すように距離Lsよりも近い位置に物体がある場合、参照パターン上の所定のセグメント領域Snに対応するDP光(DPn)は、物体によって反射され、セグメント領域Snとは異なる領域Sn’に入射する。投射光学系100と受光光学系200はX軸方向に隣り合っているため、セグメント領域Snに対する領域Sn’の変位方向はX軸に平行となる。図5(a)の場合、物体が距離Lsよりも近い位置にあるため、領域Sn’は、セグメント領域Snに対してX軸正方向に変位する。物体が距離Lsよりも遠い位置にあれば、領域Sn’は、セグメント領域Snに対してX軸負方向に変位する。
セグメント領域Snに対する領域Sn’の変位方向と変位量をもとに、投射光学系100からDP光(DPn)が照射された物体の部分までの距離Lrが、距離Lsを用いて、三角測量法に基づき算出される。同様にして、他のセグメント領域に対応する物体の部分について、投射光学系100からの距離が算出される。かかる算出手法の詳細は、たとえば、上記非特許文献1(第19回日本ロボット学会学術講演会(2001年9月18−20日)予稿集、P1279−1280)に示されている。
かかる距離算出では、参照テンプレートのセグメント領域Snが、実測時においてどの位置に変位したかを検出する。この検出は、実測時にCMOSイメージセンサ240上に照射されたDP光から得られたドットパターンと、セグメント領域Snに含まれるドットパターンとを照合することによって行われる。以下、実測時にCMOSイメージセンサ240上の撮像有効領域に照射されたDP光から得られた全画素値からなる画像を、「実測画像」と称する。実測時のCMOSイメージセンサ240の撮像有効領域は、基準画像取
得時と同様に、たとえば、VGA(640画素×480画素)のサイズである。
得時と同様に、たとえば、VGA(640画素×480画素)のサイズである。
図6(a)〜(e)は、かかる距離検出の手法を説明する図である。図6(a)は、CMOSイメージセンサ240上における基準画像に設定された参照パターン領域を示す図であり、図6(b)は、実測時のCMOSイメージセンサ240上の実測画像を示す図であり、図6(c)〜(e)は、実測画像に含まれるDP光のドットパターンと、参照テンプレートのセグメント領域に含まれるドットパターンとの照合方法を説明する図である。なお、図6(a)、(b)は、便宜上、一部のセグメント領域のみが示されている。また、図6(b)の実測画像には、便宜上、図4(b)のように、検出対象物体として基準面より前に人物が存在しており、人物の像が写り込んでいることが示されている。
図6(a)のセグメント領域Siの実測時における変位位置を探索する場合、図6(b)に示すように、実測画像上に、セグメント領域Siに対して探索範囲Riが設定される。探索範囲Riは、X軸方向に所定の幅を持っている。セグメント領域Siが探索範囲Riにおいて1画素ずつX軸方向に送られ、各送り位置において、セグメント領域Siのドットパターンと実測画像上のドットパターンとが比較される。以下、実測画像上の各送り位置に対応する領域を、「比較領域」と称する。探索範囲Riには、セグメント領域Siと同じサイズの比較領域が複数設定され、X軸方向に隣り合う比較領域は互いに1画素ずれている。
探索範囲Riは、検出対象物体が基準面よりも情報取得装置1に離れる方向、および近づく方向にどの程度の距離を検出可能な範囲とするかによって決定される。図6中では、基準画像上のセグメント領域Siの画素位置に対応する実測画像上の画素位置から、X軸負方向にx画素ずれた位置からX軸正方向にx画素ずれた位置の範囲が探索範囲Riに設定されている。
比較領域においてセグメント領域SiをX軸方向に1画素ずつ送りながら、各送り位置において、参照テンプレートに記憶されているセグメント領域Siのドットパターンと、実測画像のDP光のドットパターンのマッチング度合いが求められる。このようにセグメント領域Siを探索範囲Ri内においてX軸方向にのみ送るのは、上記のように、通常、参照テンプレートにより設定されたセグメント領域のドットパターンは、実測時において、X軸方向の所定の範囲内でのみ変位するためである。
なお、実測時には、検出対象物体の位置によっては、セグメント領域に対応するドットパターンが実測画像からX軸方向にはみ出すことが起こり得る。たとえば、参照パターン領域の最もX軸負側のセグメント領域S1に対応するドットパターンが、基準面よりも遠距離の物体に反射された場合、セグメント領域S1に対応するドットパターンは、実測画像よりもX軸負方向に位置づけられる。この場合、セグメント領域に対応するドットパターンは、CMOSイメージセンサ240の撮像有効領域内にないため、この領域については、適正にマッチングすることができない。しかし、このような端の領域以外については、適正にマッチングすることができるため、物体の距離検出への影響は少ない。
なお、端の領域についても、適正にマッチングする場合には、実測時のCMOSイメージセンサ240の撮像有効領域を、基準画像取得時のCMOSイメージセンサ240の撮像有効領域よりも、大きくすることができるものを用いればよい。たとえば、基準画像取得時において、VGA(640画素×480画素)のサイズで撮像有効領域が設定された場合、実測時においては、それよりもX軸正方向およびX軸負方向に30画素分大きいサイズで撮像有効領域を設定する。これにより、実測画像が基準画像よりも大きくなるが、端の領域についても、適正にマッチングすることができる。
上記マッチング度合いの検出時には、まず、参照パターン領域の各画素の画素値と実測画像の各セグメント領域の各画素の画素値が2値化されて、メモリ26に保持される。たとえば、基準画像および実測画像の画素値が8ビットの階調の場合、0〜255の画素値のうち、所定の閾値以上の画素が、画素値1に、所定の閾値未満の画素が、画素値0に変換されて、メモリ26に保持される。その後、比較領域とセグメント領域Siとの間の類似度が求められる。すなわち、セグメント領域Siの各画素の画素値と、比較領域に対応する画素の画素値との差分が求められる。そして、求めた差分を比較領域の全ての画素について加算した値Rsadが、類似度を示す値として取得される。
たとえば、図6(c)のように、一つのセグメント領域中に、m列×n行の画素が含まれている場合、セグメント領域のi列、j行の画素の画素値T(i,j)と、比較領域のi列、j行の画素の画素値I(i,j)との差分が求められる。そして、セグメント領域の全ての画素について差分が求められ、その差分の総和により、図6(c)に示す式の値Rsadが求められる。値Rsadが小さい程、セグメント領域と比較領域との間の類似度が高い。
こうして、図6(d)に示すように、セグメント領域Siについて、探索範囲Riの全ての比較領域に対して値Rsadが求められる。図6(e)は、探索範囲Riの各送り位置における値Rsadの大小が模式的に示されたグラフである。セグメント領域Siについて、探索範囲Riの全ての比較領域に対して値Rsadが求められると、まず、求めた値Rsadの中から、最小値Bt1が参照される。次に、求めた値Rsadの中から、2番目に小さい値Bt2が参照される。最小値Bt1と2番目に小さい値Bt2との差分値Esが閾値未満であれば、セグメント領域Siの探索はエラーとされる。他方、差分値Esが閾値以上であれば、最小値Bt1に対応する比較領域Ciが、セグメント領域Siの移動領域と判定される。図6(d)のように、比較領域Ciは、基準画像上のセグメント領域Siの画素位置と同位置の実測画像上の画素位置Si0よりもX軸正方向にα画素ずれた位置で検出される。これは、基準面よりも近い位置に存在する検出対象物体(人物)によって、実測画像上のDP光のドットパターンが基準画像上のセグメント領域SiよりもX軸正方向に変位したためである。
こうして、実測時に取得されたDP光のドットパターンから、各セグメント領域の変位位置が探索されると、上記のように、その変位位置に基づいて、三角測量法により、各セグメント領域に対応する検出対象物体の部位までの距離が求められる。
このようにして、セグメント領域S1〜セグメント領域Snまで全てのセグメント領域について、上記同様のセグメント領域の探索が行われる。
次に、上記距離検出手法を用いて本願発明者がマッチングの測定を行った測定例について説明する。この測定例では、セグメント領域Siが検出された場合、上記画素位置Si0に対するセグメント領域Siの検出位置のずれ量(以下、「画素ずれ量」という)に応じて白から黒の階調で表現された値が、セグメント領域Siの距離情報として、メモリ26に記憶される。セグメント領域Siの検出位置が探索範囲RiにおいてX軸負方向にずれるほど黒に近く、セグメント領域Siの検出位置が探索範囲RiにおいてX軸正方向にずれるほど白に近い色の階調が割り当てられる。また、セグメント領域Siの探索がエラーとなった場合、探索範囲Riにおいて最もX軸負方向にずれた位置に対応する階調、すなわち、最も黒い色の階調がメモリ26に記憶される。このように、マッチングの測定結果を白と黒の階調で表現した画像を、「測定画像」と称する。
図7は、上記比較例のように、1画素間隔でセグメント領域が設定された状態で、上記距離検出手法を用いた場合の距離測定例を示す図である。
図7(a)は、情報取得装置1から距離1000mmの位置に平坦なスクリーンが配置され、情報取得装置1から距離800mmの位置に人物が立った状態でDP光を照射し、反射されたDP光を撮像した実測画像である。人物は、略200mmほど前方に手を突き出している。すなわち、図中では、人物の手、胴体、スクリーンの順で情報取得装置1からの距離が遠くなっている。
図7(b)は、図5(c)のように、7画素×7画素の大きさ、かつ、1画素間隔でセグメント領域が設定された状態で、図7(a)の実測画像を用いてマッチングを測定した測定画像を示す図である。また、図7(c)は、15画素×15画素の大きさ、かつ、1画素間隔でセグメント領域が設定された状態で、図7(a)の実測画像を用いてマッチングを測定した測定画像を示す図である。なお、それぞれ、図7(a)の実測画像におけるスクリーンと同位置に基準面として、スクリーンのみが配置された状態でDP光を照射し、反射されたDP光を撮像した基準画像を用いて、マッチングを行った。
図7(b)、(c)を参照して、スクリーンの部分が黒に近い階調で示され、人物の部分が白に近い階調で示されている。また、人物の手の部分は、他の胴体部分に比べて、さらに白に近い階調で示されている。このように、それぞれの測定結果において、大まかな人物の形状を認識できていることがわかる。
図7(b)の場合、図中、多数の黒い点が示されている。すなわち、セグメント領域の探索がエラーとなった領域が多数含まれている。他方、図7(c)の場合、人物とスクリーンの境界、人物の胴体と手の境界、および黒いベルトの位置以外の領域においては、黒い点は、ほぼ存在しない。すなわち、大部分の領域において、セグメント領域の探索がエラーとならず、適正に距離情報が得られている。
なお、人物とスクリーンの境界におけるエラーは、セグメント領域に対応する比較領域内にスクリーンによって反射されたドットパターンと人物によって反射されたドットパターンが同程度含まれることによって、図6(e)に示した最小値のRsadと2番目に小さいRsadの差分値が閾値を超えないために生じたものである。また、ベルトの位置におけるエラーは、ベルトが反射率の低い黒色であることにより、CMOSイメージセンサ240に受光されるドットパターンが減少したため生じたものである。
このように、セグメント領域の大きさが小さいと、セグメント領域内に含まれるドットパターンのユニーク性が減少し、エラーの領域が多発する。したがって、適正に距離情報を取得するためには、図7(c)の15画素×15画素のように、ある程度のセグメント領域の大きさが必要である。
しかし、セグメント領域の大きさが大きくなると、測定画像における物体の輪郭の見た目の鮮鋭さは、劣化したものとなる。以下、物体の輪郭の見た目の鮮鋭さを「解像感」と称する。解像感は、人が見た目で感じる画像の精細さの尺度であり、人の主観的な評価基準である。
図8は、セグメント領域の大きさと解像感の関係について説明する図である。
図8(a)は、図7(a)に示した実測画像の右手周辺部を模式的に示した図、図8(b)は、図8(a)に示す右手の内、人差し指の周辺部A1の一部拡大図である。 図8(c)は、7画素×7画素の大きさ、かつ、1画素間隔でセグメント領域が設定された状態でマッチングを測定した結果の右手周辺部の測定画像である。図8(d)は、21画素×21画素の大きさ、かつ、1画素間隔でセグメント領域が設定された状態でマッチング
を測定した結果の右手周辺部の測定画像である。
を測定した結果の右手周辺部の測定画像である。
図8(b)を参照して、大きさが7画素×7画素のセグメント領域Sの実測画像上の画素ずれ量0の位置S0が示されている。人差し指は、基準面よりも近距離にあるため、人差し指によって反射されたドットは、X軸負方向にずれて受光光学系200に撮像される。セグメント領域Sの大きさは、おおよそ、人差し指の大きさと同程度である。よって、セグメント領域Sの比較領域には、ほぼ人差し指によって反射されたドットのみが含まれる。したがって、セグメント領域Sは、X軸正方向にずれた比較領域C1とマッチングし、適正に人差し指の距離情報が得られる。たとえば、図8(c)に示すA’1の領域では、人差し指の輪郭を認識できていることがわかる。
また、図8(b)には、大きさが21画素×21画素のセグメント領域S’の実測画像上の画素ずれ量0の位置S’0が示されている。セグメント領域S’の比較領域には、スクリーンによって反射されたドットと、人差し指によって反射されたドットが混在している。比較領域に含まれるドットは、人差し指よりもスクリーンから反射されたドットの方がかなり多い。スクリーンは、基準面と同位置にあるため、スクリーンによって反射されたドットの位置は、基準画像の位置からほぼずれない。したがって、セグメント領域S’は、人差し指によって反射されたドットよりも、スクリーンによって反射されたドットとのマッチング率が高くなり、比較領域C’とマッチングするため、スクリーンの距離情報が得られる。このため、図8(d)に示す領域A’’1では、人差し指を認識することができず、スクリーンの距離情報のみが得られている。また、図8(c)と図8(d)を比較すると、図8(d)の場合のほうが、親指の先端や、中指と薬指の隙間等が認識できず、解像感がかなり劣っていることがわかる。
このように、セグメント領域内に異なる距離位置からのドットパターンが混在すると、最もマッチング率の高い1つの距離情報が得られることとなる。したがって、セグメント領域の大きさが大きくなればなるほど、測定画像の物体の輪郭の見た目の鮮鋭さ(解像感)は、劣化したものとなる。
図9は、比較例におけるセグメント領域の間隔と、距離検出の分解能の関係を説明する図である。
図9(a)に示すように、比較例のセグメント領域s0の右側には、セグメント領域s0を1画素だけX軸正方向にずらした領域に、セグメント領域sxが設定される。同様に、セグメント領域s0を1画素だけY軸正方向にずれした領域に、セグメント領域syが設定される。なお、セグメント領域の大きさは、7画素×7画素が設定されている。
比較例では、セグメント領域s0の中心p0と、セグメント領域sxの中心pxおよびセグメント領域syの中心pyの間隔は、セグメント領域のずれ幅に相当する1画素分の間隔となる。
このように、セグメント領域が決定されると、対象物体に対する距離は、上下左右に1画素に対応する細かさで検出されることになる。すなわち、図9(b)に示す如く、円で概念的に示される位置が、距離を検出できる一つの位置となり、これが距離検出の分解能となる。比較例の場合では、1画素単位で距離検出することができ、CMOSイメージセンサ240から出力された実測画像および基準画像の解像度とほぼ同等の分解能で距離を検出することができる。
しかし、このように分解能が高い場合には、その分、CPU21における演算処理の負担が大きくなる。他方、図9(c)に示すように、セグメント領域の大きさが15画素×
15画素に広げられると、上記のように分解能が高められても、測定画像の解像感はかなり劣化する。この場合、分解能をやや低下させて、CPU21の処理負担を軽減させた方が望ましいとも考えられる。
15画素に広げられると、上記のように分解能が高められても、測定画像の解像感はかなり劣化する。この場合、分解能をやや低下させて、CPU21の処理負担を軽減させた方が望ましいとも考えられる。
そこで、本願発明者は、セグメント領域の大きさ毎に、距離検出の分解能の高さを複数設定したシミュレーションを行い、測定画像の解像感の劣化具合を比較した。なお、シミュレーションでは、1画素間隔でセグメント領域を設定した状態で得た測定画像から、X軸方向とY軸方向にそれぞれ所定の画素毎に階調を抽出して測定画像よりも小さなサイズの画像を生成し、生成した画像を測定画像と同一サイズに引き伸ばした画像が示されている。測定画像から1画素飛ばしで階調を抽出すると、2画素間隔で、隣り合うセグメント領域が設定された場合の測定画像と等価な画像が得られ、測定画像から2画素、3画素飛ばしで階調を抽出すると、それぞれ、3画素、4画素間隔で、隣り合うセグメント領域が設定された場合の測定画像と等価な画像が得られる。シミュレーションでは、これらの画像が、各画素間隔で、隣り合うセグメント領域が設定された場合の測定画像として示されている。
図10は、シミュレーション結果を示す図である。
図10の上段には、セグメント領域の大きさが7画素×7画素の場合の右手部分の測定画像、中段には、セグメント領域の大きさが15画素×15画素の場合の右手部分の測定画像、下段には、セグメント領域の大きさが21画素×21画素の場合の右手部分の測定画像が示されている。
また、図中、左から順に、セグメント領域の間隔が1画素、2画素、3画素、4画素、8画素で設定された場合の測定画像が示されている。左にいくほど、距離測定の分解能は高く、右にいくほど、距離測定の分解能は低い。すなわち、左にいくほど、測定画像に含まれる階調が対応づけられた領域(階調領域)の数が多く、ひとつひとつの階調領域が小さいサイズとなっており、右にいくほど、測定画像に含まれる階調領域の数が少なく、ひとつひとつの階調領域が大きいサイズとなっている。
本願発明者は、これらのシミュレーション結果の測定画像のうち、セグメント領域の間隔が1画素の場合における測定画像の手の輪郭の解像感が損なわれない程度の測定画像を主観的に選択した。
まず、図中、上段のセグメント領域の大きさが7画素×7画素の場合は、セグメント領域の間隔が2画素の場合までは、手の輪郭の解像感がほぼ損なわれていない。セグメント領域の間隔が3画素の場合は、1画素の場合に比べて、指の輪郭の鮮鋭さ(解像感)が失われている。
次に、図中、中段のセグメント領域の大きさが15画素×15画素の場合は、セグメント領域の間隔が4画素の場合までは、手の輪郭の解像感がほぼ損なわれていない。セグメント領域の間隔が8画素の場合は、1画素の場合に比べて、指の輪郭の鮮鋭さ(解像感)は、大きく失われている。
さらに、図中、下段のセグメント領域の大きさが21画素×21画素の場合は、セグメント領域の間隔が4画素の場合までは、手の輪郭の解像感がほぼ損なわれていない。セグメント領域の間隔が8画素の場合は、1画素の場合に比べて、指の輪郭の鮮鋭さ(解像感)は、大きく失われている。
以上のことから、セグメント領域の間隔は、セグメント領域の一辺に含まれる画素の数
の略1/4程度にしたとしても、物体の見た目の輪郭の鮮鋭さ(解像感)が劣ることがないことがわかる。
の略1/4程度にしたとしても、物体の見た目の輪郭の鮮鋭さ(解像感)が劣ることがないことがわかる。
たとえば、セグメント領域の大きさが7画素×7画素の場合、7を4で除算した除算値1.75に最も近い整数である2を、セグメント領域の間隔の上限の画素数として求めることができる。また、セグメント領域の大きさが15画素×15画素の場合、15を4で除算した除算値3.75に最も近い整数である4を、セグメント領域の上限の画素数として求めることができる。さらに、セグメント領域の大きさが21画素×21画素の場合、21を4で除算した除算値5.25に最も近い整数である5を、好適なセグメント領域の間隔の上限の画素数として求めることができる。これらの結果は、上記の解像感の評価で選択した測定画像に対応する画素数と略一致する。
なお、上記では、除算値に最も近い整数をセグメント領域の間隔を規定する画素数としたが、物体の輪郭抽出の要求精度に応じて、除算値の小数点以下を切り捨てた整数をセグメント領域の間隔を規定する画素数としてもよいし、除算値の小数点以下を切り上げた整数をセグメント領域の間隔を規定する画素数としてもよい。たとえば、セグメント領域の大きさが15画素×15画素の場合、小数点以下を切り捨てて、セグメント領域の間隔の上限を3画素としてもよい。
このように、セグメント領域の間隔の上限は、セグメント領域のサイズが大きくなるほど大きくなる。これは、セグメント領域が大きくなるほど、セグメント領域の間隔が1画素であるときの解像感が劣化するとともに、マッチングエラーが少なくなるためである。
たとえば、セグメント領域の大きさが7画素×7画素の場合には、もともとセグメント領域の間隔が1画素であるときの測定画像の解像感が高いため、これと比較される測定画像の解像感も高くなければならない。しかしながら、セグメント領域の大きさが7画素×7画素の場合には、セグメント領域の大きさが小さいため、マッチングエラーが生じやすい。このため、このマッチングエラーと、セグメント領域の間隔を広げることによる分解能の低下とが相俟って、セグメント領域の間隔を少し広げただけで、大きく解像感が劣化する。したがって、測定画像において、セグメント領域の間隔が1画素であるときとあまり遜色のない解像感を得るためには、セグメント領域の間隔を大きく広げることができない。
これに対し、セグメント領域の大きさが21画素×21画素の場合には、もともとセグメント領域の間隔が1画素であるときの測定画像の解像感が低いため、これと比較される測定画像の解像感は低くても良い。また、セグメント領域の大きさが21画素×21画素の場合には、セグメント領域の大きさが大きいため、マッチングエラーが生じにくい。このため、セグメント領域の間隔を広げても、解像感は劣化しにくい。したがって、セグメント領域の間隔を大きく広げても、測定画像において、セグメント領域の間隔が1画素であるときとあまり遜色のない解像感を得ることができる。
以上の検討から、セグメント領域の大きさが大きくなるに応じて、セグメント領域の間隔を大きく設定することができる。具体的には、セグメント領域の大きさに応じて、セグメント領域の間隔を、セグメント領域の一辺に含まれる画素の数の略1/4程度を上限として設定する。これにより、解像感をさほど損なうことなく、CPU21の処理負担を大幅に軽減することができる。最も望ましくは、セグメント領域の間隔を、セグメント領域の一辺に含まれる画素の数の略1/4程度に設定すると良い。
なお、1画素間隔の場合よりもCPU21の処理負担を軽減するためには、セグメント領域の間隔を2画素以上で、且つ、上述の上限値以下に設定する必要がある。ここで、上
記のように上限値は、セグメント領域の一辺に含まれる画素の数の略1/4程度に設定される。このため、セグメント領域の大きさが5画素×5画素以上でなければ、セグメント領域の間隔を2画素以上に設定できない。
記のように上限値は、セグメント領域の一辺に含まれる画素の数の略1/4程度に設定される。このため、セグメント領域の大きさが5画素×5画素以上でなければ、セグメント領域の間隔を2画素以上に設定できない。
たとえば、セグメント領域の大きさが4画素×4画素であると、4を4で除算した除算値は1となり、セグメント領域の間隔を1より大きく設定できなくなる。これに対し、セグメント領域の大きさが5画素×5画素であれば、5を4で除算した除算値は1.25となり、セグメント領域の間隔を1.25に近い2(小数点以下を切り上げ)に設定することがあり得る。したがって、上記シミュレーション結果における検討を適用する場合には、セグメント領域の大きさが5画素×5画素以上である必要がある。
図11は、本実施の形態におけるセグメント領域の間隔と、距離検出の分解能の関係を説明する図である。ここでは、セグメント領域の間隔が、セグメント領域の一辺に含まれる画素の数の略1/4程度に設定されている。
図11(a)に示すように、セグメント領域の大きさが7画素×7画素の場合は、セグメント領域S0の右側に、セグメント領域S0を2画素だけX軸正方向にずらした領域に、セグメント領域Sxが設定される。同様に、セグメント領域S0を2画素だけY軸正方向にずらした領域に、セグメント領域Syが設定される。
この場合、セグメント領域S0の中心P0と、セグメント領域Sxの中心Pxおよびセグメント領域Syの中心pyの間隔は、セグメント領域のずれ幅に相当する2画素分の距離となる。
このように、セグメント領域が決定されると、対象物体に対する距離は、上下左右に2画素に対応する距離で検出されることになる。すなわち、図11(b)に示す如く、円で概念的に示される位置が、距離を検出できる一つの位置となり、これが距離検出の分解能となる。したがって、本実施の形態では、上記比較例の場合に比べ、分解能を1/2とすることができ、演算量は、1/4となる。たとえば、セグメント領域の間隔が2画素の場合の4個の円は、セグメント領域の間隔が1画素の場合の16個の円に相当する。
また、図11(c)に示すように、セグメント領域の大きさが15画素×15画素の場合は、セグメント領域S’0の右側に、セグメント領域S’0を4画素だけX軸正方向にずらした領域に、セグメント領域SP’xが設定される。同様に、セグメント領域S’0を4画素だけY軸正方向にずらした領域に、セグメント領域S’yが設定される。
この場合、セグメント領域S’0の中心P’0と、セグメント領域S’xの中心P’xおよびセグメント領域S’yの中心p’yの間隔は、セグメント領域のずれ幅に相当する4画素となる。
このように、セグメント領域が決定されると、対象物体に対する距離は、上下左右に4画素に対応する距離で検出されることになる。すなわち、図11(c)に示す如く、円で概念的に示される位置が、距離を検出できる一つの位置となり、これが距離検出の分解能となる。したがって、本実施の形態では、セグメント領域の間隔が1画素の場合に比べ、分解能を1/4とすることができ、演算量は、1/16となる。たとえば、セグメント領域の間隔が4画素の場合の4個の円は、セグメント領域の間隔が1画素の場合の64個の円に相当する。
以上のように、セグメント領域の大きさに応じて、セグメント領域の間隔を大きくすると、セグメント領域の間隔が1画素に設定された場合に比べて、演算量を1/(セグメン
ト領域の間隔の画素数の2乗)に抑えることができる。上述のように、マッチングのエラーを抑止するためには、セグメント領域の大きさは、15画素×15画素のように、ある程度の大きさが必要であるため、セグメント領域の間隔を大きくとることができ、演算量を大きく減少させることができる。また、シミュレーション結果のとおり、セグメント領域の間隔は、セグメント領域の一辺に含まれる画素の数の略1/4画素程度までは、セグメント領域の間隔が1画素の場合に対して解像感が損なわれることがないため、物体検出の精度を保ちつつ、演算量を減らすことができる。
ト領域の間隔の画素数の2乗)に抑えることができる。上述のように、マッチングのエラーを抑止するためには、セグメント領域の大きさは、15画素×15画素のように、ある程度の大きさが必要であるため、セグメント領域の間隔を大きくとることができ、演算量を大きく減少させることができる。また、シミュレーション結果のとおり、セグメント領域の間隔は、セグメント領域の一辺に含まれる画素の数の略1/4画素程度までは、セグメント領域の間隔が1画素の場合に対して解像感が損なわれることがないため、物体検出の精度を保ちつつ、演算量を減らすことができる。
図12(a)は、本実施の形態におけるセグメント領域の設定までの処理の概要の流れを示す図である。図12(b)は、本実施の形態におけるセグメント領域の大きさと間隔の設定の処理の流れを示す図、図12(c)は、セグメント領域の大きさと間隔の値を保持するテーブルTを示す図である。これらの処理は、情報取得装置1のセットアップ時に、設定者によって設定装置を用いて行われる。
図12(a)を参照して、まず、セグメント領域の大きさおよびセグメント領域の間隔の設定が行われる(S1)。具体的には、図12(b)に示すように、まず、設定者がセグメント領域の縦・横の大きさを設定する(S101)。設定されたセグメント領域の縦・横の大きさはメモリ26に記憶される。なお、ここでは、セグメント領域の縦・横の大きさは、それぞれ同じ値が用いられ、セグメント領域が正方形になるように設定される。
次に、設定装置は、設定されたセグメント領域の一辺に含まれる画素の数を4で除算する(S102)。そして、設定装置は、除算された値の小数点以下を四捨五入する(S103)。設定装置は、こうして得られた値を、図12(c)に示すテーブルTのように、セグメント領域の間隔として、セグメント領域の大きさに関連付けてメモリ26に設定する(S104)。そして、設定装置は、設定者によりセグメント領域の大きさ・間隔の設定を完了する指示が入力された否かを判断する(S105)。設定を完了する指示が入力されない場合(S105:NO)、設定装置は、処理をS101に戻し、他のセグメント領域の大きさおよび間隔の設定を受け付ける。設定処理を完了する指示が入力された場合(S105:YES)、設定装置は、セグメント領域の大きさ、およびセグメント領域の間隔の設定処理を終了する。こうして、S101で設定されたセグメント領域の大きさに対する測定画像の解像感が劣化しない程度の、適正な距離検出の分解能が決定される。
その後、図12(a)に戻り、設定者は、目標領域に基準面が配置された状態で、設定装置を介してCPU21にDP光を照射させ、基準画像が取得させる(S2)。そして、取得した基準画像と、S1で設定したセグメント領域の大きさ、およびセグメント領域の間隔をもとに、CPU21にセグメント領域を設定させる(S3)。
図13は、セグメント領域の設定処理の流れを示す図である。
図13を参照して、まず、CPU21は、基準画像上に、参照パターン領域を設定し(S301)、CMOSイメージセンサ240上における参照パターン領域の位置に関する情報と、参照パターン領域に含まれる全画素の画素値(参照パターン)がメモリ26に記憶される(S302)。
次に、設定者は、設定装置を介して、セグメント領域の大きさを指定する。これを受けて、CPU21は、メモリ26に記憶されたセグメント領域の縦横幅の大きさを特定する(S303)。そして、セグメント領域の大きさに応じたセグメント領域の間隔をS104で生成したテーブルより読み出し、変数nにセットする(S304)。なお、セグメント領域の大きさは、複数選択可能となっており、セグメント領域の大きさに応じて、セグメント領域の間隔がセットされる。たとえば、15画素×15画素のセグメント領域の大
きさが選択されると、セグメント領域の間隔として2画素が変数nにセットされる。
きさが選択されると、セグメント領域の間隔として2画素が変数nにセットされる。
次に、CPU21は、変数iに1をセットし(S305)、参照パターン領域の左上の角を頂点とし、規定された縦横幅の四角形の領域を指定して、最初のセグメント領域Si(Si=S1)を設定する(S306)。
そして、CMOSイメージセンサ240上におけるセグメント領域Siの位置に関する情報がメモリ26に記憶される(S307)。
次に、CPU21は、セグメント領域Siの位置が参照パターン領域の右端に到達したかどうかを判定する(S308)。セグメント領域Siの位置が参照パターン領域の右端に到達していないと(S308:NO)、iに1を加算し(S309)、セグメント領域Siの位置からX軸正方向にn画素ずらした領域を指定して、セグメント領域Siを設定する(S310)。その後、CPU21は、処理をS307に戻す。
参照パターン領域の左端から右端までn画素間隔でセグメント領域Siが設定され、セグメント領域Siの位置情報がメモリ26に記憶されると(S308:YES)、セグメント領域Siの位置が参照パターン領域の下端に到達したかどうかを判定する(S311)。
セグメント領域Siの位置が参照パターン領域の下端に到達していないと(S311:NO)、iに1を加算し(S312)、セグメント領域Siの位置をY軸正方向にn画素ずらし、かつ、参照パターン領域の左端の領域を指定し、セグメント領域Siを設定する(S313)。その後、CPU21は、処理をS307に戻す。
参照パターン領域の上端の左端から下端の右端までセグメント領域Siが設定され、セグメント領域Siの位置情報がメモリ26に記憶されると(S311:YES)、図11(a)または図11(b)に示すように、セグメント領域の大きさに応じてセグメント領域がX軸方向およびY軸方向にn画素間隔で並ぶように設定され、処理が終了する。なお、各セグメント領域内の画素値のパターンは、セグメント領域毎に異なっている。
こうして、CMOSイメージセンサ240上における参照パターン領域の位置に関する情報と、参照パターン領域に含まれる全画素の画素値(参照パターン)と、参照パターン領域に対して設定されるセグメント領域の位置に関する情報が参照テンプレートとして、メモリ26に記憶される。なお、セグメント領域の情報として、CMOSイメージセンサ240上の位置に関する情報のみがメモリ26に記憶されたが、セグメント領域内の画素値が記憶されてもよい。
そして、図2のCPU21は、投射光学系100から検出対象物体までの距離を算出する際に、参照テンプレートから得られる各セグメント領域内のドットパターンのずれ量に基づいて、物体の各部までの距離を算出する。距離の算出方法は、上述のごとく、セグメント領域の変位量を用いて、三角測量法に基づき算出される。
以上、本実施の形態によれば、セグメント領域の大きさに応じて、セグメント領域の間隔が大きく設定されるため、距離検出にかかる演算量の増加を抑えることができる。
また、本実施によれば、セグメント領域の間隔が、セグメント領域の大きさの略1/4画素程度に設定されるため、物体の検出精度を保ちつつ、距離検出にかかる演算量の増加を抑えることができる。
以上、本発明の実施の形態について説明したが、本発明は、上記実施の形態に何ら制限されるものではなく、また、本発明の実施の形態も上記の他に種々の変更が可能である。
たとえば、上記実施の形態では、セグメント領域の大きさに応じたセグメント領域の間隔があらかじめテーブルTに設定されたが、セグメント領域の間隔は、テーブルに保持されずに、セグメント領域の大きさを読み出した時に、直接演算されてよい。
図14は、この場合のセグメント領域の設定処理の流れを示す図である。図中、上記実施の形態における図13と同様の処理については、同一の符号が付されており、説明は省略する。
変更例の場合、図12(b)のS102〜S104にかかる処理が省略され、図12(c)に示すテーブルTが省略される。
メモリ26に記憶されたセグメント領域の縦横幅の大きさを設定すると(S303)、CPU21は、セグメント領域の一辺に含まれる画素の数を4で除算する(S321)。そして、除算された値の小数点以下を四捨五入する(S322)。こうして得られた値を、セグメント領域の間隔として、変数nにセットする(S304)。その後、上記実施の形態と同様、セグメント領域Siがn画素間隔で設定される(S305〜S312)。
本変更例においても、上記実施の形態と同様、物体の検出精度を保ちつつ、距離検出にかかる演算量の増加を抑えることができる。また、メモリ26にテーブルTを保持する必要がなく、メモリ26の容量の削減を図ることができる。
また、上記実施の形態では、セグメント領域の間隔をセグメント領域の一辺に含まれる画素の数の略1/4程度に設定することで、物体の検出精度を保ちつつ、距離の演算量の低減を図ったが、求められる検出精度に応じて、セグメント領域の間隔をやや小さくしてもよいし、大きくしてもよい。
また、上記実施の形態では、セグメント領域の大きさを設定者によって選択可能としたが、あらかじめ、セグメント領域の大きさが決められていてもよい。
また、上記実施の形態では、セグメント領域の間隔がセグメント領域の一辺に含まれる画素の数の略1/4程度に設定されたが、セグメント領域の大きさに応じてセグメント領域の間隔が大きくなれば、その他の値が設定されてもよい。たとえば、セグメント領域の一辺に含まれる画素の数の略1/4程度を上限値として、2画素から上限値までの間の画素数に、セグメント領域の間隔が設定されても良い。この場合、あらかじめ、2画素から上限値までの間の画素数から、セグメント領域の間隔の最適値を個別に決定しておき、その値をテーブルに保持しておくことにより、セグメント領域の間隔を決定してもよい。
また、上記実施の形態では、セグメント領域は、縦・横の大きさが等しく、正方形になるように設定されたが、一辺が、他方の辺よりも大きくなるように、設定されてもよい。この場合、どちらか一辺に含まれる画素の数をもとに、セグメント領域の間隔が決定される。
また、上記実施の形態では、距離検出のエラー判定として、最も照合率の高いRsadと、その次に照合率が高いRsadとの差分が閾値を超えているかに基づいて、エラーが判定されたが、最も照合率の高いRsadが所定の閾値を超えているかに基づいて、エラーが判定されてもよい。
また、上記実施の形態では、セグメント領域と比較領域のマッチング率を算出する前に、セグメント領域と比較領域に含まれる画素の画素値を2値化したが、CMOSイメージセンサ240によって得られた画素値をそのまま用いて、マッチングしてもよい。また、上記実施の形態では、CMOSイメージセンサ240によって得られた画素値をそのまま2値化したが、画素値について、所定の画素の重みづけ処理、および背景光の除去処理、等の補正処理を行った後に、2値化、もしくは多値化してもよい。
また、上記実施の形態では、三角測量法を用いて距離情報が求められ、メモリ26に記憶されたが、物体の輪郭抽出を主目的とするような場合は、三角測量法を用いた距離を演算せずに、セグメント領域の変位量(画素ずれ量)が距離情報として取得されてもよい。
また、上記実施の形態では、投射光学系100に、FMD150が用いられたが、FMD150は省略されてもよい。
また、上記実施の形態では、目標領域に照射されるレーザ光の波長帯以外の波長帯の光を除去するためにフィルタ230を配したが、たとえば、目標領域に照射されるレーザ光以外の光の信号成分を、CMOSイメージセンサ240から出力される信号から除去する回路構成が配されるような場合には、フィルタ230を省略することができる。また、アパーチャ210の配置位置は、何れか2つの撮像レンズの間であってもよい。
また、上記実施の形態では、受光素子として、CMOSイメージセンサ240を用いたが、これに替えて、CCDイメージセンサを用いることもできる。さらに、投射光学系100および受光光学系200の構成も、適宜変更可能である。また、情報取得装置1と情報処理装置2は一体化されてもよいし、情報取得装置1と情報処理装置2がテレビやゲーム機、パーソナルコンピュータと一体化されてもよい。
本発明の実施の形態は、特許請求の範囲に示された技術的思想の範囲内において、適宜、種々の変更が可能である。
1 … 情報取得装置
21 … CPU(距離取得部)
21b … 距離取得部
24 … 撮像信号処理回路(距離取得部)
26 … メモリ(記憶部)
100 … 投射光学系
110 … レーザ光源
120 … コリメータレンズ
140 … DOE(回折光学素子)
200 … 受光光学系
21 … CPU(距離取得部)
21b … 距離取得部
24 … 撮像信号処理回路(距離取得部)
26 … メモリ(記憶部)
100 … 投射光学系
110 … レーザ光源
120 … コリメータレンズ
140 … DOE(回折光学素子)
200 … 受光光学系
Claims (7)
- 光を用いて目標領域の情報を取得する情報取得装置において、
目標領域に所定のドットパターンでレーザ光を投射する投射光学系と、
前記投射光学系に対して所定の距離だけ横方向に離れて並ぶように配置され、前記目標領域をイメージセンサにより撮像する受光光学系と、
基準面に前記レーザ光を照射したときに前記受光光学系により撮像された基準ドットパターンを保持する記憶部と、
前記基準ドットパターンにセグメント領域を設定し、距離測定時に目標領域を撮像して取得された実測ドットパターンと前記セグメント領域内のドットとを照合することにより、前記セグメント領域に対応する前記目標領域内の位置について距離を取得する距離取得部と、を備え、
前記距離取得部は、前記イメージセンサ上において縦が5画素以上、横が5画素以上の四角形状となるよう前記セグメント領域の大きさを設定し、隣り合う前記セグメント領域の間隔を、2画素分の距離以上で、且つ、前記セグメント領域の大きさに応じた上限値以下の距離に設定する、
ことを特徴とする情報取得装置。 - 請求項1に記載の情報取得装置において、
前記上限値は、前記セグメント領域の一辺に含まれる画素の数を4で除算した値に近い画素数に設定される、
ことを特徴とする情報取得装置。 - 請求項2に記載の情報取得装置において、
前記上限値は、前記セグメント領域の一辺に含まれる画素の数を4で除算した値に最も近い画素数に設定される、
ことを特徴とする情報取得装置。 - 請求項2に記載の情報取得装置において、
前記上限値は、前記セグメント領域の一辺に含まれる画素の数を4で除算した値の小数点以下を、四捨五入、切り上げまたは切り捨てした値に設定される、
ことを特徴とする情報取得装置。 - 請求項1ないし4の何れか一項に記載の情報取得装置において、
前記距離取得部は、隣り合う前記セグメント領域の間隔を、前記上限値に設定する、
ことを特徴とする情報取得装置。 - 請求項1ないし5のいずれか一項に記載の情報取得装置において、
前記投射光学系は、レーザ光源と、前記レーザ光源から出射されたレーザ光が入射するコリメータレンズと、前記コリメータレンズを透過した前記レーザ光を回折によりドットパターンの光に変換する回折光学素子と、を備える、
ことを特徴とする情報取得装置。 - 請求項1ないし6の何れか一項に記載の情報取得装置を有する物体検出装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011184307A JP2014211305A (ja) | 2011-08-26 | 2011-08-26 | 物体検出装置および情報取得装置 |
PCT/JP2012/069125 WO2013031447A1 (ja) | 2011-08-26 | 2012-07-27 | 物体検出装置および情報取得装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011184307A JP2014211305A (ja) | 2011-08-26 | 2011-08-26 | 物体検出装置および情報取得装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014211305A true JP2014211305A (ja) | 2014-11-13 |
Family
ID=47755950
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011184307A Withdrawn JP2014211305A (ja) | 2011-08-26 | 2011-08-26 | 物体検出装置および情報取得装置 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2014211305A (ja) |
WO (1) | WO2013031447A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019126950A1 (zh) * | 2017-12-25 | 2019-07-04 | 深圳前海达闼云端智能科技有限公司 | 一种定位方法、云端服务器、终端、系统、电子设备及计算机程序产品 |
CN112584015B (zh) * | 2020-12-02 | 2022-05-17 | 达闼机器人股份有限公司 | 物体探测方法、装置、存储介质和电子设备 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3923183B2 (ja) * | 1998-06-16 | 2007-05-30 | 本田技研工業株式会社 | 車両用距離測定装置 |
JP4043931B2 (ja) * | 2002-12-09 | 2008-02-06 | 株式会社リコー | 3次元情報取得システム |
JP3782815B2 (ja) * | 2004-02-04 | 2006-06-07 | 住友大阪セメント株式会社 | 呼吸解析装置 |
JP2006113832A (ja) * | 2004-10-15 | 2006-04-27 | Canon Inc | ステレオ画像処理装置およびプログラム |
JP2009204991A (ja) * | 2008-02-28 | 2009-09-10 | Funai Electric Co Ltd | 複眼撮像装置 |
JP5251419B2 (ja) * | 2008-10-22 | 2013-07-31 | 日産自動車株式会社 | 距離計測装置および距離計測方法 |
-
2011
- 2011-08-26 JP JP2011184307A patent/JP2014211305A/ja not_active Withdrawn
-
2012
- 2012-07-27 WO PCT/JP2012/069125 patent/WO2013031447A1/ja active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2013031447A1 (ja) | 2013-03-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5138119B2 (ja) | 物体検出装置および情報取得装置 | |
WO2012137674A1 (ja) | 情報取得装置、投射装置および物体検出装置 | |
JP5138116B2 (ja) | 情報取得装置および物体検出装置 | |
JP5214062B1 (ja) | 情報取得装置および物体検出装置 | |
JP5143312B2 (ja) | 情報取得装置、投射装置および物体検出装置 | |
WO2013046927A1 (ja) | 情報取得装置および物体検出装置 | |
JP2014137762A (ja) | 物体検出装置 | |
JP2012237604A (ja) | 情報取得装置、投射装置および物体検出装置 | |
JP2014044113A (ja) | 情報取得装置および物体検出装置 | |
WO2013031447A1 (ja) | 物体検出装置および情報取得装置 | |
WO2012144340A1 (ja) | 情報取得装置および物体検出装置 | |
WO2013015146A1 (ja) | 物体検出装置および情報取得装置 | |
JPWO2013015145A1 (ja) | 情報取得装置および物体検出装置 | |
JP2013246009A (ja) | 物体検出装置 | |
JP2014085257A (ja) | 情報取得装置および物体検出装置 | |
EP3987248B1 (en) | Projecting a structured light pattern from an apparatus having an oled display screen | |
WO2013046928A1 (ja) | 情報取得装置および物体検出装置 | |
JP2014035294A (ja) | 情報取得装置および物体検出装置 | |
JP2013234956A (ja) | 情報取得装置および物体検出装置 | |
JP2014035304A (ja) | 情報取得装置および物体検出装置 | |
JP2013234957A (ja) | 情報取得装置および物体検出装置 | |
WO2013031448A1 (ja) | 物体検出装置および情報取得装置 | |
JP2014085282A (ja) | 情報取得装置および物体検出装置 | |
JP2014021017A (ja) | 情報取得装置および物体検出装置 | |
JP5138120B2 (ja) | 物体検出装置および情報取得装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20141104 |