JP2014098585A - 情報取得装置および物体検出装置 - Google Patents

情報取得装置および物体検出装置 Download PDF

Info

Publication number
JP2014098585A
JP2014098585A JP2012249573A JP2012249573A JP2014098585A JP 2014098585 A JP2014098585 A JP 2014098585A JP 2012249573 A JP2012249573 A JP 2012249573A JP 2012249573 A JP2012249573 A JP 2012249573A JP 2014098585 A JP2014098585 A JP 2014098585A
Authority
JP
Japan
Prior art keywords
area
dot
dots
unit cell
information acquisition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012249573A
Other languages
English (en)
Inventor
Kenji Nagatomi
謙司 永冨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2012249573A priority Critical patent/JP2014098585A/ja
Publication of JP2014098585A publication Critical patent/JP2014098585A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

【課題】演算量を抑えつつ、適正に距離を取得可能な情報取得装置および当該情報取得装置を備えた物体検出装置を提供する。
【解決手段】ドットパターンは、2つのドットの傾き角が互いに異なる複数種類の単位セルを並べることによって構成され、セグメント領域に含まれる単位セルの組合せが投射光学系と受光光学系の並び方向における所定の範囲において1回だけ現れるように、単位セルがドットパターン上に並べられる。距離取得部は、セグメント領域に含まれる単位セルの組合せに対応する比較領域を実測画像から抽出し、抽出した比較領域の実測画像上の位置に基づき、距離情報を取得する。
【選択図】図13

Description

本発明は、目標領域に光を投射したときの反射光の状態に基づいて目標領域内の物体を検出する物体検出装置および当該物体検出装置に用いて好適な情報取得装置に関する。
従来、光を用いた物体検出装置が種々の分野で開発されている。いわゆる距離画像センサを情報取得装置として用いた物体検出装置では、2次元平面上の平面的な画像のみならず、検出対象物体の奥行き方向の形状や動きを検出することができる。この種の情報取得装置では、レーザ光源やLED(Light Emitting Diode)から、予め決められた波長帯域の光が目標領域に投射され、その反射光がCMOSイメージセンサ等の受光素子により受光される。
かかる距離画像センサとして、所定のドットパターンを持つレーザ光を目標領域に照射するタイプの距離画像センサが知られている(非特許文献1)。かかる距離画像センサでは、基準面にレーザ光を照射したときのドットパターンがイメージセンサにより撮像され、撮像されたドットパターンが基準ドットパターンとして保持される。そして、基準ドットパターンと、実測時に撮像された実測ドットパターンとが比較され、距離情報が取得される。具体的には、基準ドットパターン上に設定された参照領域の実測ドットパターン上における位置に基づいて、三角測量法により、当該参照領域に対する距離情報が取得される。
この場合、参照領域に含まれるドットが、実測ドットパターン上において探索され、参照領域に含まれるドットに最もマッチングするドットを含む領域が、参照領域の移動位置として取得される。
第19回日本ロボット学会学術講演会(2001年9月18−20日)予稿集、P1279−1280
上記物体検出装置では、たとえば、上記参照領域におけるイメージセンサ上の画素から出力される画素値と上記実測ドットパターンにおけるイメージセンサ上の画素から出力される画素値を比較することにより、ドットのマッチングが行われる。
この場合、上記参照領域の大きさに応じて、多数の画素値の比較演算処理が行われるため、距離検出にかかる演算量が増大するとの問題が生じる。
本発明は、この点に鑑みてなされたものであり、演算量を抑えつつ、適正に距離を取得可能な情報取得装置および当該情報取得装置を備えた物体検出装置を提供する。
本発明の第1の態様は、情報取得装置に関する。この態様に係る情報取得装置は、光源から出射された光を所定のドットパターンで目標領域に投射する投射光学系と、前記投射光学系に対して並ぶように配置され、前記目標領域をイメージセンサにより撮像する受光光学系と、実測時に前記イメージセンサにより撮像された実測画像に基づいて、前記目標
領域に含まれる物体までの距離に関する距離情報を取得する距離取得部と、を備える。ここで、前記ドットパターンは、2つのドットの傾き角が互いに異なる複数種類の第1のセル領域を並べることによって構成され、所定個数の前記第1のセル領域の組合せが前記投射光学系と前記受光光学系の並び方向における所定の範囲において1回だけ現れるように、前記第1のセル領域が前記ドットパターン上に並べられる。前記距離取得部は、前記第1のセル領域の前記組合せに対応する対応領域を前記実測画像から抽出し、抽出した前記対応領域の前記実測画像上の位置に基づき、前記距離情報を取得する。
本発明の第2の態様は、物体検出装置に関する。この態様に係る物体検出装置は、上記第1の態様に係る情報取得装置と、前記距離情報に基づいて、所定の対象物体を検出する物体検出部と、を備える。
本発明によれば、演算量を抑えつつ、適正に距離を取得可能な情報取得装置および当該情報取得装置を備えた物体検出装置を提供することができる。
本発明の効果ないし意義は、以下に示す実施の形態の説明により更に明らかとなろう。ただし、以下に示す実施の形態は、あくまでも、本発明を実施化する際の一つの例示であって、本発明は、以下の実施の形態により何ら制限されるものではない。
実施の形態に係る物体検出装置の構成を示す図である。 実施の形態に係る情報取得装置と情報処理装置の構成を示す図である。 実施の形態に係る目標領域に対するレーザ光の照射状態とイメージセンサ上のレーザ光の受光状態を示す図である。 実施の形態に係る参照パターンの生成方法を説明する図である。 実施の形態に係る単位セルを示す図である。 実施の形態に係るグループセルを示す図である。 実施の形態に係るドットパターンを示す図である。 実施の形態に係る実測時のドットパターンを示す図である。 実施の形態に係る実測時の輝点の抽出方法を説明する図である。 実施の形態に係る実測時の単位セルの対応付けを説明する図である。 実施の形態に係る実測時の単位セルの対応付けを説明する図である。 実施の形態に係る実測時の単位セルの対応付けを説明する図である。 実施の形態に係る距離検出手法を説明する図である。 実施の形態に係る距離検出手法を説明する図である。 実施の形態に係る距離検出手法を説明する図である。 実施の形態に係る実測時の単位セルの対応付け処理を示すフローチャートである。 実施の形態に係る距離取得処理を示すフローチャートである。 変更例1に係る単位セルを示す図である。 変更例1に係るグループセルを示す図である。 変更例2に係る単位セルを示す図である。 変更例3に係る距離検出手法を説明する図である。
以下、本発明の実施の形態につき図面を参照して説明する。
以下に示す実施の形態において、レーザ光源110は、請求項に記載の「光源」に相当する。DOE140は、請求項に記載の「回折光学素子」に相当する。CMOSイメージ
センサ240は、請求項に記載の「イメージセンサ」に相当する。セグメント領域Siは、請求項に記載の「第1のセル領域の組み合わせ」に相当する。比較領域Cjは、請求項に記載の「対応領域」に相当する。単位セルTpは、請求項に記載の「第1のセル領域、第2のセル領域」に相当する。
ただし、上記請求項と本実施の形態との対応の記載はあくまで一例であって、請求項に係る発明を本実施の形態に限定するものではない。
まず、図1に本実施の形態に係る物体検出装置1の概略構成を示す。図1に示すように、物体検出装置1は、情報取得装置2と、情報処理装置3とを備えている。テレビ4は、情報処理装置3からの信号によって制御される。
情報取得装置2は、目標領域全体に赤外光を投射し、その反射光をCMOSイメージセンサにて受光することにより、目標領域に存在する物体各部までの距離(以下、「3次元距離情報」という)を取得する。取得された3次元距離情報は、ケーブル5を介して情報処理装置3に送られる。
情報処理装置3は、たとえば、テレビ制御用のコントローラやゲーム機、パーソナルコンピュータ等である。情報処理装置3は、情報取得装置2から受信した3次元距離情報に基づき、目標領域における物体を検出し、検出結果に基づきテレビ4を制御する。
たとえば、情報処理装置3は、受信した3次元距離情報に基づき人を検出するとともに、3次元距離情報の変化から、その人の動きを検出する。たとえば、情報処理装置3がテレビ制御用のコントローラである場合、情報処理装置3には、受信した3次元距離情報からその人のジェスチャを検出するとともに、ジェスチャに応じてテレビ4に制御信号を出力するアプリケーションプログラムがインストールされている。
また、たとえば、情報処理装置3がゲーム機である場合、情報処理装置3には、受信した3次元距離情報からその人の動きを検出するとともに、検出した動きに応じてテレビ画面上のキャラクタを動作させ、ゲームの対戦状況を変化させるアプリケーションプログラムがインストールされている。
図2は、情報取得装置2と情報処理装置3の構成を示す図である。
情報取得装置2は、光学部の構成として、投射光学系100と受光光学系200とを備えている。投射光学系100と受光光学系200は、X軸方向に並ぶように、情報取得装置2に配置される。
投射光学系100は、レーザ光源110と、コリメータレンズ120と、ミラー130と、回折光学素子(DOE:Diffractive Optical Element)140を備えている。また、受光光学系200は、アパーチャ210と、撮像レンズ220と、フィルタ230と、CMOSイメージセンサ240とを備えている。この他、情報取得装置2は、回路部の構成として、CPU(Central Processing Unit)21と、レーザ駆動回路22と、撮像信号処理回路23と、入出力回路24と、メモリ25を備えている。
レーザ光源110は、受光光学系200から離れる方向(X軸負方向)に波長830nm程度の狭波長帯域のレーザ光を出力する。コリメータレンズ120は、レーザ光源110から出射されたレーザ光を略平行光に変換する。
ミラー130は、コリメータレンズ120側から入射されたレーザ光をDOE140に向かう方向(Z軸方向)に反射する。
DOE140は、入射面に回折パターンを有する。この回折パターンによる回折作用により、DOE140に入射したレーザ光は、所定のドットパターンのレーザ光に変換されて、目標領域に照射される。
DOE140の回折パターンは、たとえば、ステップ型の回折格子が所定のパターンで形成された構造とされる。回折格子は、コリメータレンズ120により略平行光とされたレーザ光をドットパターンのレーザ光に変換するよう、パターンとピッチが調整されている。DOE140は、ミラー130から入射されたレーザ光を、放射状に広がるドットパターンのレーザ光として、目標領域に照射する。
目標領域から反射されたレーザ光は、アパーチャ210を介して撮像レンズ220に入射する。
アパーチャ210は、撮像レンズ220のFナンバーに合うように、外部から入射する光の外周部を遮光する。撮像レンズ220は、アパーチャ210を介して入射された光をCMOSイメージセンサ240上に集光する。フィルタ230は、レーザ光源110の出射波長(830nm程度)を含む赤外の波長帯域の光を透過し、可視光の波長帯域をカットするバンドパスフィルタである。
CMOSイメージセンサ240は、撮像レンズ220にて集光された光を受光して、画素毎に、受光量に応じた信号(電荷)を撮像信号処理回路23に出力する。ここで、CMOSイメージセンサ240は、各画素における受光から高レスポンスでその画素の信号(電荷)を撮像信号処理回路23に出力できるよう、信号の出力速度が高速化されている。
本実施の形態において、CMOSイメージセンサ240の撮像有効領域(センサとして信号を出力する領域)は、VGA(横640画素×縦480画素)のサイズである。CMOSイメージセンサ240の撮像有効領域は、XGA(横1024画素×縦768画素)のサイズや、SXGA(横1280画素×縦1024画素)のサイズ等、他のサイズであっても良い。
CPU21は、メモリ25に格納された制御プログラムに従って各部を制御する。かかる制御プログラムによって、CPU21には、レーザ光源110を制御するためのレーザ制御部21aと、3次元距離情報を生成するための距離取得部21bの機能が付与される。
レーザ駆動回路22は、CPU21からの制御信号に応じてレーザ光源110を駆動する。
撮像信号処理回路23は、CMOSイメージセンサ240を制御して、所定の撮像間隔で、CMOSイメージセンサ240により生成された各画素の信号(電荷)をライン毎に順次取り込む。そして、取り込んだ信号を順次CPU21に出力する。CPU21は、撮像信号処理回路23から供給される信号(撮像信号)をもとに、情報取得装置2から検出対象物体の各部までの距離を、距離取得部21bによる処理によって算出する。入出力回路24は、情報処理装置3とのデータ通信を制御する。
情報処理装置3は、CPU31と、入出力回路32と、メモリ33を備えている。なお、情報処理装置3には、図2に示す構成の他、テレビ4との通信を行うための構成や、CD−ROM等の外部メモリに格納された情報を読み取ってメモリ33にインストールするためのドライブ装置等が配されるが、便宜上、これら周辺回路の構成は図示省略されてい
る。
CPU31は、メモリ33に格納された制御プログラム(アプリケーションプログラム)に従って各部を制御する。かかる制御プログラムによって、CPU31には、画像中の物体を検出するための物体検出部31aと、物体の動きに応じて、テレビ4の機能を制御するための機能制御部31bの機能が付与される。かかる制御プログラムは、たとえば、図示しないドライブ装置によってCD−ROMから読み取られ、メモリ33にインストールされる。
物体検出部31aは、情報取得装置2から供給される3次元距離情報から画像中の物体の形状を抽出し、抽出した物体形状の動きを検出する。機能制御部31bは、物体検出部31aによる検出結果に基づき、上記のように、テレビ4の機能を制御する。
入出力回路32は、情報取得装置2とのデータ通信を制御する。
投射光学系100と受光光学系200は、投射光学系100の投射中心と受光光学系200の撮像中心がX軸に平行な直線上に並ぶように、X軸方向に所定の距離をもって並んで設置される。投射光学系100と受光光学系200の設置間隔は、情報取得装置2と目標領域の基準面との距離に応じて、設定される。
なお、図2に示す投射光学系100の構成は、請求項10に記載の構成の一例である。
次に、情報取得装置2による3次元距離情報の取得方法について説明する。
図3(a)は、目標領域に対するレーザ光の照射状態を模式的に示す図、図3(b)は、CMOSイメージセンサ240におけるレーザ光の受光状態を模式的に示す図である。なお、図3(b)には、便宜上、目標領域に平坦な面(スクリーン)とスクリーンの前に人物が存在するときの受光状態が示されている。
図3(a)に示すように、投射光学系100からは、ドットパターンを持ったレーザ光(以下、このパターンを持つレーザ光の全体を「DP光」という)が、目標領域に照射される。図3(a)には、DP光の光束領域が実線の枠によって示されている。DP光の光束中には、DOE140による回折作用により生成されるドット領域(以下、単に「ドット」という)が、DOE140による回折作用によるドットパターンに従って点在している。ドットは、レーザ光源110からのレーザ光がDOE140によって分岐されることにより生成される。
目標領域に平坦な面(スクリーン)と人物が存在すると、DP光は、図3(b)のように、CMOSイメージセンサ240上に分布する。図3(a)に示す目標領域上におけるDt0の光は、CMOSイメージセンサ240上では、図3(b)に示すDt0’の位置に入射する。スクリーンの前の人物の像は、CMOSイメージセンサ240上では、上下左右が反転して撮像される。
図4は、DP光を用いた距離情報の取得方法を説明する図である。
図4(a)に示すように、投射光学系100から所定の距離Lsの位置に、Z軸方向に垂直な平坦な反射平面RSが配置される。出射されたDP光は、反射平面RSによって反射され、受光光学系200のCMOSイメージセンサ240に入射する。これにより、CMOSイメージセンサ240から、撮像有効領域内の画素毎の電気信号が出力される。出力された画素毎の電気信号の値(画素値)は、図2のメモリ25上に展開される。
以下、反射平面RSからの反射によって得られた全画素値からなる画像を「基準画像」、反射平面RSを「基準面」と称する。そして、図4(b)に示すように、基準画像上に、「参照パターン領域」が設定される。なお、図4(b)には、CMOSイメージセンサ240の背面側から受光面をZ軸正方向に透視した状態が図示されている。
こうして設定された参照パターン領域に対して、所定の大きさを有する複数のセグメント領域が設定される。本実施の形態では、セグメント領域の大きさは、横14画素×縦14画素に設定される。セグメント領域には、4つの単位セルが含まれる。単位セルは、横7画素×縦7画素の大きさを有し、中央の横3画素×縦3画素の領域に、2つのドットが位置付けられている。単位セルは、後述するように、2つのドット間のなす角度に応じて固有の番号が定義づけられている。
図4(c)を参照して、参照パターン領域に設定されるセグメント領域について説明する。
セグメント領域は、図4(c)に示すように、隣り合うセグメント領域が参照パターン領域に対してX軸方向およびY軸方向に単位セルの画素間隔(7画素間隔)で並ぶように設定される。すなわち、あるセグメント領域は、このセグメント領域のX軸方向およびY軸方向に隣り合うセグメント領域に対して7画素ずれた位置に設定される。このとき、所定の範囲に含まれる各セグメント領域には、異なる番号の組み合わせの単位セルが含まれる。すなわち、所定の範囲に含まれる各セグメント領域には、固有のパターンでドットが点在する。よって、所定の範囲に含まれるセグメント領域内の画素値のパターンは、セグメント領域毎に異なっている。
こうして、CMOSイメージセンサ240上における参照パターン領域の位置に関する情報と、参照パターン領域に含まれる全画素の画素値(参照パターン)と、参照パターン領域に対して設定されるセグメント領域の情報が、図2のメモリ25に記憶される。メモリ25に記憶されるこれらの情報を、以下、「参照テンプレート」と称する。
図2のCPU21は、投射光学系100から検出対象物体の各部までの距離を算出する際に、参照テンプレートを参照する。CPU21は、距離を算出する際に、参照テンプレートから得られる各セグメント領域内のドットパターンのずれ量に基づいて、物体の各部までの距離を算出する。
たとえば、図4(a)に示すように距離Lsよりも近い位置に物体がある場合、参照パターン上の所定のセグメント領域Snに対応するDP光(DPn)は、物体によって反射され、セグメント領域Snとは異なる領域Sn’に入射する。投射光学系100と受光光学系200はX軸方向に隣り合っているため、セグメント領域Snに対する領域Sn’の変位方向はX軸に平行となる。図4(a)の場合、物体が距離Lsよりも近い位置にあるため、領域Sn’は、セグメント領域Snに対してX軸正方向に変位する。物体が距離Lsよりも遠い位置にあれば、領域Sn’は、セグメント領域Snに対してX軸負方向に変位する。
セグメント領域Snに対する領域Sn’の変位方向と変位量(図4(a)に示す画素ずれ量D)をもとに、投射光学系100からDP光(DPn)が照射された物体の部分までの距離Lrが、距離Lsを用いて、三角測量法に基づき算出される。同様にして、他のセグメント領域に対応する物体の部分について、投射光学系100からの距離が算出される。かかる算出手法の詳細は、たとえば、上記非特許文献1(第19回日本ロボット学会学術講演会(2001年9月18−20日)予稿集、P1279−1280)に示されてい
る。
かかる距離算出では、参照テンプレートのセグメント領域Snが、実測時においてどの位置に変位したかが検出される。この検出は、実測時にCMOSイメージセンサ240上に照射されたDP光から得られたドットパターンと、セグメント領域Snに含まれるドットパターンとを照合することによって行われる。本実施の形態では、ドットパターンの照合は、単位セルごとに行われる。以下、実測時にCMOSイメージセンサ240上の撮像有効領域に照射されたDP光から得られた全画素値からなる画像を、「実測画像」と称する。実測時のCMOSイメージセンサ240の撮像有効領域は、基準画像取得時と同様に、たとえば、VGA(横640画素×縦480画素)のサイズである。また、実測画像上における単位セルを、「実測単位セル」と称する。
次に、図5〜図7を参照して、本実施の形態におけるドットパターンの構成例を説明する。
図5は、単位セルにおけるドットの配置規則を示す図である。
単位セルは、上述のように、横7画素×縦7画素の大きさを有し、中央の横3画素×縦3画素の領域に、2つのドットが位置付けられる。本実施の形態では、図示の如く、単位セルには、2つのドット間のなす角度に応じて、8つの固有の番号が定義づけられる。具体的には、図5に示すように、2つのドット間のなす角度が−90°のとき、1の番号が付与され、同様に、−63°〜63°のときに、それぞれ、2〜8の番号が付与される。なお、角度は、2つのドットがX軸方向に並ぶ状態が0度とされる。また、角度には、X軸正側のドットが、X軸負側のドットを中心に反時計方向に回転する位置にある場合に負の符号が付与される。
また、ここでは、単位セルには、中央の横3画素×縦3画素の領域の範囲内で2つのドットが位置付けられており、外周側の2画素には、ドットが配置されていない。したがって、ある単位セルのドットと隣り合う単位セルのドットとの間隔は、単位セル内の2つのドットの間隔よりも大きい。
なお、図5に示すように、2つのドット間のなす角度に応じて、単位セルの番号が定義づけられる構成は、請求項1に記載の構成の一例である。また、単位セルの領域のうち、外周側の2画素に対応する領域にドットが配置されない構成は、請求項3に記載の構成の一例である。
図6(a)、図6(b)は、単位セルを並べたグループセルAの構成例である。図6(a)には、単位セルに定義づけられた番号のみが示されている。すなわち、番号1つが7画素×7画素に相当する。図6(b)は、グループセルAの一部を示す図である。なお、図6(b)には、単位セルに定義づけられた番号と、単位セルの中央の画素の座標値が示されている。また、図6(a)、図6(b)には、便宜上、グループセルAの中央位置に破線が示されている。なお、以下において、“横n×縦m”の記述は、単位セルを横方向にn個、縦方向にm個組み合わせることを意味する。
グループセルAは、図6(a)に示すように、上述のように定義された単位セルを横16×縦4で並べることにより構成されている。すなわち、グループセルAは、横112画素×縦28画素のサイズを有している。グループセルAは、ある横2×縦2の単位セルの番号の組み合わせが、他の横2×縦2の単位セルの番号の組み合わせに一致しないように構成されている。すなわち、横2×縦2の単位セルの番号の組み合わせをセグメント領域として設定することにより、少なくとも、グループセルAの横112画素×縦28画素の
範囲内において、一のセグメント領域が、他の横2×縦2の単位セルの番号の組み合わせからなる他のセグメント領域と区別可能となっている。なお、ドットは、レーザ光源110の出射波長変動により、Y軸方向にもやや変動することが想定される。このため、グループセルAは、Y軸方向のサイズがセグメント領域のサイズよりも大きく設定されている。
なお、グループセルAの範囲において、横2×縦2の単位セルの番号の組み合わせが1回だけ現れるように単位セルが並べられる構成は、請求項1に記載の構成の一例である。
図7は、CMOSイメージセンサ240の撮像有効領域を示す模式図である。
上述のように、本実施の形態では、CMOSイメージセンサ240は、横640画素×縦480画素の撮像有効領域を有している。図示の如く、上述のようにして構成されたグループセルAを撮像有効領域の左上隅から並べることにより、ドットパターンが構成される。ドットパターンには、横方向に5個分のグループセルAと、グループセルAの11列目までの単位セルが含まれる。また、ドットパターンには、縦方向に17個分のグループセルAが含まれる。このようにして、構成されたドットパターンを撮像した基準画像がメモリ25に記憶される。そして、これらのドットパターンを構成する単位セルの番号と単位セルの中央画素位置の座標値が、参照テンプレートとしてメモリ25に記憶される。なお、本実施の形態では、上述の規則に沿って、ドットパターンが構成されているため、実際にドットパターンを照射して撮像した基準画像を用いなくとも、上述の規則に沿って計算によって作成された基準画像がメモリ25に保持されていても良い。
図8は、実測画像上のドットの分布例を示す図である。なお、図8には、撮像有効領域の左上隅の一部が示されている。また、図8には、基準画像上におけるドットの位置が破線で示されている。
上記のように、基準画像上のドットは、目標領域に物体が存在することによって、実測画像上においてX軸方向に変位する。たとえば、図8の例では、領域Da1に含まれるドットが、近距離の物体に反射されることにより、X軸正方向にずれている。また、領域Da2に含まれるドットが、遠距離の物体に反射されることにより、X軸負方向にずれている。
このように、実測時において、X軸方向に変位したドットは、基準画像上における単位セルとの照合を行うために、実測単位セルに変換される。以下、領域A1のドットを例にして、実測画像上のドットの実測単位セルへの変換方法を説明する。
図9は、実測画像上のドットの輝点抽出と重心を算出する方法について説明する図である。なお、図9(a)、図9(b)において、画素値の高低が、ハッチングの濃淡で示されている。ハッチングが濃いほど、画素値が高く、ハッチングが薄いほど、画素値が低い。また、図9(a)、図9(b)において、横方向に並ぶ数は、この領域におけるX軸方向の画素位置(X軸方向の座標値)を示し、縦方向に並ぶ数は、この領域におけるY軸方向の画素位置(Y軸方向の座標値)を示している。
実測画像上のドットを実測単位セルへ変換するためには、まず、CMOSイメージセンサ240上の画素値がX軸方向およびY軸方向に対してピークとなっている輝点が抽出される。
図9(a)の例では、2つのドットDt、Dt+1が、それぞれ、2つの画素を跨ぐように入射している。画素(20,24)、画素(18,26)の画素値が、X軸方向およ
びY軸方向に対してピークとなっており、これらの画素が輝点として抽出される。輝点の抽出には、ラプラシアンフィルタ等の2次微分フィルタ等、周知の手法が用いられ得る。
図5に示すように、本実施の形態における単位セルは、1画素間隔でドットの位置をずらした2つのドット間のなす角度に応じて、番号が定義されている。したがって、図9(a)に示すようにドットが2つの画素に跨った場合、輝点の位置が1画素ずれて、実測単位セルの番号が誤検出される惧れがある。よって、本実施の形態では、実測単位セルの番号の誤検出を防ぐために、輝点の重心位置が算出される。
輝点の重心位置を算出するためには、まず、各輝点を中心に、3画素×3画素の重心領域が設定される。
図9(b)の左側の列には、重心領域とドットが示され、右側の列には、重心領域の画素値が示されている。
各輝点を中心とした重心領域に含まれる画素値のX軸方向の重心位置X、Y軸方向の重心位置Yは、図9(c)に示される式により算出される。
図9(c)の式において、iは、CMOSイメージセンサ240上のX座標、jは、CMOSイメージセンサ240上のY座標である。また、P(i,j)は、CMOSイメージセンサ240上のi列、j行目の画素値である。さらに、xは、重心領域の左端のX座標、xは、重心領域の右端のX座標である。yは、重心領域の上端のY座標、yは重心領域の下端のY座標である。
図9(b)に示す重心領域の場合、X座標が19の列の画素値は0、0、0、X座標が20の列の画素値は0、75、0、X座標が21の列の画素値は0、25、0である。それぞれの列の画素値をX座標の値と乗算し、乗算した結果の総和を重心領域の画素値の総和と除算することにより、X軸方向の重心位置Xは、20.25と算出される。この場合、重心位置Xが小数点以下の数を含むため、重心領域のドットDt+1は、X軸方向に対して2つの画素に跨っており、X座標が20の画素に近い位置にあることが検出される。
また、Y座標が23の行の画素値は、0、0、0、Y座標が24の行の画素値は、0、75、25、Y座標が25の行の画素値は、0、0、0である。それぞれの行の画素値をY座標の値と乗算し、乗算した結果の総和を重心領域の画素値の総和と除算することにより、Y軸方向の重心位置Yは、24と算出される。この場合、重心位置Yが整数であるため、重心領域のドットDt+1は、Y軸方向に対して1つの画素に入射していることが検出される。
このようにして、実測画像中に含まれる全ての輝点の座標(重心位置)が算出される。
こうして、実測画像中に含まれる全ての輝点の座標が算出されると、実測単位セル内のドットの対応付けが行われる。
図10は、実測単位セル内のドットの対応付けの方法を説明する図である。図10(a)は、図8の領域A1に対応する基準画像上における単位セルの周辺を示す図である。図10(b)は、実測画像上における図8の領域A1周辺のドットの分布例を示す図である。
図10(a)を参照して、たとえば、番号3の単位セルの場合、2つのドットは、縦3
画素×横3画素の領域の対角の位置に位置付けられ、2つのドットの間隔は、全ての単位セルの中で最も大きくなる。この場合の、2つのドットの間隔は、略2.8画素である。また、たとえば、番号8と3の単位セルが隣接する場合、隣り合う単位セル間のドットの角度は0°となり、この2つのドットの間隔は、ある単位セルのドットとこの単位セルに隣接するドットの組み合わせの中で最も短くなる。この場合の、2つのドットの間隔は、5画素である。
したがって、単位セルを構成する2つのドットは、3画素以内に含まれ、ある単位セルのドットとこの単位セルに隣り合う単位セルとのドットは、5画素以上離れている。すなわち、実測画像上において、ある輝点から±4画素以内に輝点が存在すれば、それらの輝点は、実測単位セルを構成する2つのドットの組み合わせであると判定することができる。なお、この判定において、輝点の位置は、図9(c)に示す式によって求められた座標(重心位置)とされる。
たとえば、図10(b)のドットDt+1とドットDtの間隔は、略2.8画素であるため、ドットDt+1とドットDtの組合せは、実測単位セルを構成するドットの組み合わせであることが対応付けられる。同様にして、実測画像上の全てのドットが、実測単位セルを構成するドットの組み合わせに対応付けられる。
なお、図8の領域A2に示すように、実測時において、ドットが1つ欠け、±4画素以内に他の輝点が存在しないことも起こり得る。このような場合は、適正に実測単位セルの番号を識別することができないため、ドットの対応付けは行われない。また、図8の領域A3に示すように、距離が変化する境界においては、3つ以上の輝点が±4画素以内に存在することも起こり得る。このような場合についても、適正に実測単位セルの番号を識別することができないため、ドットの対応付けは行われない。
こうして、実測画像上のドットが実測単位セルを構成するドットの組み合わせに対応付けられると、対応付けられたドット間のなす角度が算出される。
図11は、実測単位セルのドット間のなす角度を算出する方法を説明する図である。
上述のように、対応付けられた2つのドットのうち、あるドットのX座標がx、Y座標がy、他のドットのX座標がx、Y座標がy、とすると、対応付けられた2つのドット間のなす角度θは、図11(a)に示す式により算出される。
図11(a)のドットDt+1(20.25,24)、Dt(18.25,26)の場合、θは、−45°と算出される。こうして、角度が算出されると、図5に示す単位セルの番号の定義にしたがって、ドットDt、Dt+1は、番号が3の実測単位セルに対応付けられる。なお、ここでは、2つのドット間のなす角度は、あらかじめ定義した単位セルの角度と同じ値が算出されたが、実測時においては、ドットの入射位置が所期の位置から少しずれて、2つのドットの角度が所期の角度から少しずれることが想定され得る。図11(a)の式により算出された角度が、図5に示す2つの角度の間に含まれる場合は、これら2つの角度のうち、算出された角度により近い方の角度に対応する番号の実測単位セルが、これら2つのドットに対して対応づけられる。たとえば、2つのドットの角度が−50°と算出された場合は、番号が3の実測単位セルが対応づけられる。
こうして、2つのドットに対して実測単位セルの番号が対応付けられると、図11(b)に示すように、あらかじめ定義した実測単位セルのドットの位置と、実測時のドットの位置が一致するように、実測単位セルの領域が割り当てられる。そして、この領域の中央に最も近い1画素が、この実測単位セルの座標値として取得される。図11(b)の場合
、実測単位セルの領域の中央の座標は、(19.25,25)となるため、Uq(19,25)の画素が、実測単位セルの座標値として取得される。なお、本実施の形態では、このように、実測単位セルの座標値は、画素単位で取得される。
同様にして、互いに対応付けられたドットの組み合わせに対して、角度が算出され、実測単位セルの番号と、座標値が取得される。
図12(a)、図12(b)は、実測画像上のドットを実測単位セルに変換した例を示す図である。図12(a)は、図6(a)に示すグループセルAに対応する実測単位セルの番号のみが示されている。図12(b)は、図6(b)に対応する実測単位セルの番号と、実測単位セルの中央の画素の座標値が示されている。
図12(b)を参照して、距離が変化する境界に相当する領域の実測単位セルの番号、座標値は取得されていない。左下のドット欠けが生じている領域についても、実測単位セルの番号、座標値は取得されていない。また、左上の実測単位セルU11については、1つのドットの位置がずれており、番号が2に誤認識されている。その他の領域については、実測時のドットのずれ量に応じて、実測単位セルの番号が適正に取得されている。
こうして得られた実測単位セルの番号、座標値と、あらかじめ、メモリ25に保持された基準画像の単位セルの番号、座標値をマッチングすることにより、目標領域の距離情報が取得される。
図13〜図15は、距離検出の手法を説明する図である。図13(a)は、CMOSイメージセンサ240上における基準画像に設定された参照パターン領域を示す図であり、図13(b)は、実測時のCMOSイメージセンサ240上の実測画像を示す図であり、図13(c)は、実測画像に含まれる実測単位セルと、参照テンプレートのセグメント領域に含まれる単位セルとの照合方法を説明する図である。なお、便宜上、図13(a)、(b)には、一部のセグメント領域のみが示されている。
図13(a)のセグメント領域Siの実測時における変位位置を探索する場合、図13(b)に示すように、実測画像上において、セグメント領域Siと同じ位置にある領域Si0を中心にX軸方向に+α画素および−α画素の範囲が探索範囲L0に設定される。探索時には、セグメント領域Siが探索範囲L0において1画素ずつX軸方向に送られ、各送り位置において、セグメント領域Siの単位セルの番号および座標値と、実測画像上の単位セルの番号および座標値とが比較される。以下、実測画像上の各送り位置に対応する領域を、「比較領域」と称する。探索範囲L0には、セグメント領域Siと同じサイズの比較領域が1画素おきに設定される。探索範囲L0は、取得しようとする距離の範囲に応じて設定される。取得しようとする距離の範囲が広い程、探索範囲L0は広くなる。
なお、セグメント領域Siに含まれる単位セルのX座標の座標値は、後述のように比較領域に含まれる実測単位セルの座標値との間で一致を判定するために、セグメント領域Siの探索位置が、領域Si0からX軸正方向に1画素ずれる毎に1加算され、セグメント領域Siの探索位置が、領域Si0からX軸負方向に1画素ずれる毎に1減算される。
本実施の形態では、上記のように、ドットパターンが、グループセルAを並べることにより構成されているため、各セグメント領域を区別可能な最大の範囲は、グループセルAの横方向の幅に相当する。したがって、本実施の形態において、探索範囲L0は、グループセルAの横112画素以内の幅に設定される。
こうして設定された探索範囲L0において、セグメント領域SiをX軸方向に1画素ず
つ送りながら、各送り位置において、セグメント領域Siに含まれる単位セルと比較領域に含まれる実測単位セルとが互いに一致する数が求められる。ここでは、セグメント領域Siに含まれる一の単位セルが、比較領域に含まれる一の実測単位セルと、座標値と番号の両方において、互いに一致する場合に、これら単位セルと実測単位セルが互いに一致すると判定される。互いに一致する単位セルの数が多いほど、セグメント領域と比較領域との間の類似度が高い。なお、セグメント領域Siを探索範囲L0内においてX軸方向にのみ送るのは、上記のように、通常、セグメント領域のドットパターンは、実測時において、X軸方向でのみ変位するためである。
こうして、セグメント領域Siについて、探索範囲L0内の全ての比較領域に対して単位セルの一致数が求められる。そして、求めた一致数が最大の比較領域が、セグメント領域Siの移動領域として検出される。なお、このとき、たとえば、最大の一致数と同じ一致数の比較領域が複数の位置で検出された場合、どの位置の比較領域が適正なセグメント領域Siの移動領域であるかを判定できないため、セグメント領域Siの探索がエラーとされる。
図13(b)の例では、セグメント領域Siに含まれる単位セルは、実測画像上において、比較領域Cjの位置に移動している。したがって、この場合、比較領域Cjに対する単位セルの一致数が最大となり、比較領域Cjがセグメント領域Siの移動領域として検出される。そして、比較領域Cjと、セグメント領域Siと同じ位置にある領域Si0との間の、X軸方向における画素ずれ量が取得される。この画素ずれ量は、図4(a)に示す画素ずれ量Dに相当する。その後、この画素ずれ量Dをもとに、上記のように三角測量法に基づいて、セグメント領域Siに対する距離情報が取得される。
たとえば、図14の例では、セグメント領域Siに、番号が4、座標値(25,4)の単位セルT14、番号が5、座標値(32,4)の単位セルT15、番号が8、座標値(25,11)の単位セルT24、番号が1、座標値(32,11)の単位セルT25が含まれている。この場合、実測画像上において、セグメント領域Siの位置に対応する位置から−15〜15画素の範囲が探索範囲に設定される。
探索範囲の最も左端の比較領域とセグメント領域Siとが比較される場合、単位セルT14、T15、T24、T25のX座標値の値が、上記の値から15減じられる。すなわち、単位セルT15の座標値が(10,4)、単位セルT15の座標値が(17,4)、単位セルT24の座標値が(10,11)、単位セルT25の座標値が(17,11)に変更された状態で、単位セルT14、T15、T24、T25の番号および座標値と、比較領域に含まれる実測単位セルの番号および座標値との一致数がカウントされる。
図14の例では、最も左の比較領域に含まれる実測単位セルは、番号、座標値ともに、単位セルT14、T15、T24、T25と一致しないため、一致数として0が算出される。探索範囲の左から2番目の比較領域とセグメント領域Siとが比較される場合、セグメント領域Siに含まれる単位セルT14、T15、T24、T25のX座標値の値が、図14に示す値から14減じられ、当該比較領域に含まれる実測単位セルと単位セルT14、T15、T24、T25との間で、座標値と番号の両方が一致する単位セルの数が求められる。同様に、各探索位置において単位セルのX座標の座標値を各探索位置に応じた値に変化させながら、単位セルの番号および座標値と、実測単位セルの番号および座標値とのマッチングが行われる。
図14の例では、−15画素〜0画素の範囲において、番号と座標値の両方が単位セルと一致する実測単位セルを含む比較領域が存在しないため、各比較領域に対する一致数として、0が算出される。+1画素の比較領域Cjにおいては、単位セルT14、T15、
T24、T25の番号と、実測単位セルU14、U15、U24、U25の番号が完全に一致し、且つ、座標値も一致するため、一致数として4が算出される。その後、+2画素〜+15画素の範囲では、番号と座標値の両方が単位セルと一致する実測単位セルを含む比較領域が存在しないため、各比較領域に対する一致数として、0が算出される。
これにより、一致数が最も多い比較領域Cjがセグメント領域Siの移動領域と判定される。この判定に基づき、セグメント領域Siの画素ずれ量が、+1画素と検出される。
本実施の形態では、4つの単位セルの一致数をカウントすることにより、セグメント領域の移動領域の判定が行われるため、セグメント領域内の画素の画素値と比較領域内の画素の画素値を画素単位でマッチングする場合に比べ、演算量を小さく抑えることができる。
その反面、本実施の形態では、セグメント領域に含まれる単位セルの数が4つであるため、移動領域と判定された比較領域に対する単位セルの一致数が2以下の場合、この比較領域がセグメント領域の移動領域である確からしさは低く、このため、距離が誤検出される可能性がある。したがって、移動領域と判定された比較領域に対する単位セルの一致数が所定の数よりも少ない場合には、この比較領域を移動領域とはせずに、探索をエラーとしても良い。
図15の例に示すように、セグメント領域Siに対応する比較領域Cjでは、物体の境界を含むため、2つの実測単位セルの番号と座標値しか取得されていない。この場合、比較領域Cjに対する単位セルの一致数は2となる。また、比較領域CjからX軸正方向に7画素ずれた比較領域Cj+7には、4つの実測単位セルの番号と座標値が含まれている。そして、比較領域Cj+7の右側2つの実測単位セルは、セグメント領域Siの右側2つの単位領域と座標と番号が一致するため、比較領域Cj+7に対する単位セルの一致数も2となる。このような場合、セグメント領域Siに対応する移動領域を適正に検出することができない。したがって、このような場合は、エラーとする他、セグメント領域に横3×縦3の単位セルが含まれるようにサイズを大きくして、探索を再実行しても良い。セグメント領域のサイズを大きくする場合、セグメント領域は、たとえば、X軸正方向、Y軸正方向に単位セルが1つ増えるように設定される。このとき、探索の再実行は、横2×縦2のサイズのセグメント領域の探索範囲と同じ探索範囲で行われる。
こうすると、図15の例に示すように、サイズを大きくしたセグメント領域Si’に対応する比較領域Cj’には、6つの実測単位セルの番号、座標値が含まれる。これにより、他の比較領域に対する単位セルの一致数よりも大きくなり、適正にセグメント領域Si’の移動領域を判定することができる。図15の例では、セグメント領域Si’の画素ずれ量が−3画素と検出される。
なお、あらかじめ、セグメント領域のサイズを横3×横3の単位セルを含むサイズに設定しておいても良い。しかし、セグメント領域のサイズが大きくなると、その分、距離検出にかかる演算量が増加する。本実施の形態では、図6(a)に示すように、グループセルAが、横2×縦2の単位セルのうち、少なくとも、3つの単位セルの番号と座標値の組み合わせによって、グループセルA内の他の単位セルの組み合わせから区別され得るよう構成されている。したがって、セグメント領域のサイズが横2×縦2の単位セルを含むサイズである場合にも、探索の精度は比較的高いものとなっている。よって、セグメント領域のサイズは、上記のように、横2×縦2の単位セルが含まれるサイズに設定されるのが望ましく、探索がエラーとなったときに、適宜、セグメント領域のサイズを拡大するのが好ましいと言える。
図16(a)は、実測画像に実測単位セルを対応付ける処理を示すフローチャートである。この処理は、図2のCPU21の距離取得部21bにおける機能によって行われる。
なお、図16(a)に記載の処理フローは、請求項4に記載の構成の一例である。
図16(a)を参照して、CPU21は、まず、図9(a)を参照して説明したようにして、実測画像中の輝点を抽出する(S101)。そして、CPU21は、抽出した輝点を中心に所定の範囲の重心領域を設定する(S102)。
各輝点に重心領域が設定されると、CPU21は、図9(b)の演算処理により、各重心領域のX軸方向およびY軸方向の重心位置を演算し、各輝点のX座標、Y座標を、1画素よりも細かい精度で取得する(S103)。
次に、CPU21は、実測単位セルを構成する2つのドットの対応付け処理を行う(S104)。
図16(b)は、かかる対応付け処理を示すフローチャートである。
CPU21は、実測画像中の輝点から、未処理の輝点を一つ選択する(S201)。次に、CPU21は、選択された起点に対して4画素以内の範囲にある輝点を、実測画像中から抽出する(S202)。そして、CPU21は、S202の処理により、実測画像中から輝点が抽出されたかを判定し(S203)、さらに、S202に処理により抽出された輝点の数が1であるかを判定する(S204)。
なお、S202の処理は、請求項5に記載の構成の一例である。また、S204の処理は、請求項6に記載の構成の一例である。
S202の処理により実測画像中から輝点が抽出されず(S203:NO)、または、実測画像中から複数の輝点が抽出された場合(S203:YES、S204:NO)、CPU21は、S201において選択された輝点は、適正に実測単位セルを構成する輝点が実測画像中に存在しないとして、処理をS206に進める。他方、S202の処理により実測画像中から輝点が1つだけ抽出された場合(S203:YES、S204:YES)、CPU21は、抽出された輝点と、S201において選択された輝点を、実測単位セルを構成するドットとして対応づける(S205)。
こうして、実測画像中の輝点から選択された未処理の輝点に対する処理が終了すると、CPU21は、対象セグメント領域中に未処理の輝点が残っているかを判定する(S206)。ここで、未処理の輝点が残っていると(S206:YES)、CPU21は、S201に戻り、他の未処理の輝点に対して、同様の処理を実行する。実測画像中に未処理の輝点が残っていなければ、CPU21は、対応付け処理を終了し、処理をS105に進める。
こうして、実測単位セルを構成する2つのドットの対応付けが終了すると、CPU21は、処理をS105に進め、図11(a)に示す演算処理により、互いに対応付けられた2つのドット間のなす角度θを算出する。その後、CPU21は、あらかじめメモリ25に記憶された単位セルの角度と番号が定義されたテーブルを参照し、算出したドット間のなす角度θに最も近い角度に対応する番号の実測単位セルを設定する(S106)。そして、CPU21は、実測単位セルの番号と実測単位セルの中央の座標値を対応付けてメモリ25に記憶する(S107)。
こうして、図12(b)に示すように、実測単位セルの番号と座標値が対応付けられてメモリ25に記憶される。
図17は、単位セルごとにマッチングすることにより距離取得を行う処理を示すフローチャートである。この処理は、図2のCPU21の距離取得部21bにおける機能によって行われる。
なお、図17に記載の処理フローは、請求項7に記載の構成の一例である。
図17を参照して、CPU21は、まず、セグメント領域を特定する変数iに1をセットする(S301)。図13(a)に示すように、基準画像の左上隅にはセグメント領域S1が設定され、基準画像の右下隅にはセグメント領域Snが設定される。また、基準画像中には、n個のセグメント領域が設定される。
次に、CPU21は、セグメント領域Siのサイズを設定する(S302)。たとえば、セグメント領域Siのサイズは、横2×縦2の単位セルが含まれるよう、横14画素×縦14画素のサイズに設定される。
その後、CPU21は、比較領域を特定する変数jに−αをセットする(S303)。ここで、αは、図13(b)に示すように、実測画像上のセグメント領域Siと同じ領域Si0から探索範囲L0の左端または右端までの画素数である。また、変数jは、領域Si0から比較領域までの画素ずれ量を規定し、変数jの符号が正の場合、領域Si0に対する比較領域の画素ずれの方向がX軸正方向となる。したがって、S303において変数jに−αが設定されることにより、比較領域Cjが、図13(b)に示す探索範囲L0の一番左端に設定される。
次に、CPU21は、セグメント領域Siに含まれる単位セルTpのX座標にj(−α)を加算する(S304)。また、CPU21は、セグメント領域Siに含まれる単位セルTpの番号および座標値を参照し(S305)、さらに、比較領域Cjに含まれる実測単位セルUqの番号および座標値を参照する(S306)。そして、CPU21は、番号と座標値の両方が一致する単位セルTpと実測単位セルUqの組の数(一致数Ej)を取得する(S307)。なお、単位セルTpと実測単位セルUqの座標値は、X座標とY座標ともに一致している場合に、互いに一致すると判定される。
そして、CPU21は、変数jがα未満であるか否かを判定する(S308)。これにより、比較領域Cjが、図13(b)に示す探索範囲L0の最も右端まで到達したか否かが判定される。
変数jがα未満である場合(S308:YES)、CPU21は、セグメント領域Siに含まれる単位セルTpのX座標に1を加算し(S309)、また、変数jに1を加算する(S310)。これにより、比較領域CjがX軸正方向に1画素ずらされる。その後、CPU21は、処理をS305に進め、上記と同様、次の比較領域Cjに対する一致数Ejの取得処理を実行する。S305〜S310の処理は、変数jがαに到達する(S308:YES)まで、繰り返される。これにより、−α〜+αの探索範囲に設定される全ての比較領域について、一致数Ejが算出される。
変数jがαに到達すると(S308:NO)、CPU21は、−α〜+αの探索範囲において取得した一致数Ejのうち、最大一致数Emが所定の閾値Esh以上であるか否かを判定する(S311)。たとえば、セグメント領域Siに4つの単位セルが含まれる場合、閾値Eshには、3が設定される。
最大一致数Emが閾値Esh未満である場合(S311:NO)、CPU21は、セグメント領域Siのサイズを拡大し(S312)、処理をS303に戻す。これにより、最大一致数Emが小さく、セグメント領域Siの移動領域の確からしさが低い場合は、セグメント領域Siのサイズを拡大して、セグメント領域Siに含まれる単位セルTpの数を増やして、一致数Ejが算出される(S303〜S310)。たとえば、セグメント領域Siのサイズは、3×3の単位セルが含まれるよう、横21画素×縦21画素のサイズに設定される。なお、このとき、S311の閾値Eshは、たとえば、5が設定される。なお、セグメント領域Siを所定のサイズ以上に大きくしても、大きい最大一致数Emが得られない場合は、閾値Eshに0が設定され、処理が先に進められる。
なお、S311、S312の処理は、請求項9に記載の構成の一例である。
最大一致数Emが閾値Esh以上である場合(S311:YES)、CPU21は、最大一致数Emが複数の位置で算出されたか否かを判定する(S313)。
最大一致数Emが複数の位置で算出されていない場合(S313:NO)、セグメント領域Siの移動量として、CPU21は、最大一致数Emに対応する比較領域の位置に応じた画素ずれ量Dを取得する(S314)。最大一致数Emが複数の位置で算出された場合(S313:YES)、CPU21は、セグメント領域Siの移動領域を適正に検出することができないため、セグメント領域Siの探索結果としてエラーを設定する(S315)。
なお、S306、S307、S311、S313、S314の処理は、請求項8に記載の構成の一例である。
こうして、セグメント領域Siの探索が完了すると、CPU21は、変数iがn未満である否かを判定する(S316)。変数iがn未満である場合(D316:YES)、CPU21は、変数iに1を加算し(S317)、処理をS302に戻す。これにより、次のセグメント領域に対する画素ずれ量Dの取得処理が実行される。
そして、全てのセグメント領域について距離取得の処理が完了し、変数iがnに到達すると(S316:NO)、所定の距離取得タイミングにおける距離取得処理が完了する。
<実施の形態の効果>
本実施の形態によれば、以下の効果が奏され得る。
ドットパターンは、あらかじめ、2つのドットのなす角度に応じて番号が定義された単位セルが並べて構成されるため、単位セルごとにセグメント領域の移動領域をマッチングすることができる。これにより、セグメント領域と比較領域に含まれる画素の画素値を画素単位でマッチングする場合に比べ、距離検出にかかる演算量を低く抑えることができる。
また、単位セルは、中央の横3画素×縦3画素の領域に2つのドットが配置され、その外側の2画素には、ドットが配置されないため、実測画像のドットを実測単位セルに対応付ける際に、ある単位セルのドットと、この単位セルに隣り合う単位セルのドットとの距離を大きくとることができ、このように隣り合う単位セルのドットが誤って対応付けられることを防ぐことができる。
また、実測単位セルに含まれる2つのドット間の角度を算出する際に、輝点の重心位置
が算出されるため、図5に示すように、比較的近い位置にある画素にドットが配されるように単位セルが定義された場合においても、角度が誤検出されることを防ぐことができる。これにより、小さいサイズの単位セルに対しても、定義可能な角度の種類を増やすことができる。角度の種類が増えることにより、グループセルAのX軸方向の幅を広げることができる。これにより、セグメント領域の探索範囲の最大幅を広く取ることができる。
また、単位セルの最大一致数Emが閾値Eshよりも少ない場合は、セグメント領域のサイズが拡大されて、探索が再実行されるため、演算量を低く抑えつつ、適正に画素ずれ量Dを取得することができる。
以上、本発明の実施の形態について説明したが、本発明は、上記実施の形態に何ら制限されるものではなく、また、本発明の実施の形態も上記の他に種々の変更が可能である。
<変更例1>
たとえば、上記実施の形態では、図5に示すように、単位セルは、2つのドットの角度に応じて8種類の番号が定義されたが、図18に示すように、これに加え、中央にドット1個のみが配された単位セルが定義されても良い。これにより、9種類の単位セルによりグループセルを構成することができる。
なお、図18に示すように、ドット1個のみが配された単位セルが定義される構成は、請求項2に記載の構成の一例である。
図19(a)、図19(b)は、この場合の単位セルを並べてグループセルAを構成する場合の構成例を示す図である。
グループセルAは、図18のように定義された単位セルを横24×縦4で並べることにより構成されている。すなわち、グループセルAは、横168画素×縦28画素のサイズを有している。グループセルAは、上記実施の形態同様、ある横2×縦2の単位セルの番号の組み合わせが、他の横2×縦2の単位セルの番号の組み合わせに一致しないように構成されている。
このように、変更例1では、単位セルの番号の定義数を増やすことにより、グループセルAのX軸方向の幅を広げることができる。これにより、セグメント領域の探索範囲の最大幅をさらに広げることができる。
なお、この他、単位セルのドットの配置領域を横3画素×縦3画素よりも大きくして、角度の種類を増やしても良い。これによっても、グループセルAのX軸方向の幅を広げることができ、セグメント領域の探索範囲の最大幅を広げることができる。
<変更例2>
また、上記実施の形態、および変更例1では、単位セルは、横7画素×縦7画素のサイズが設定されたが、図20に示すように、横5画素×縦5画素のサイズとしても良い。これにより、ドットの密度を高くすることができ、基準画像に含まれる単位セルの数を増やすことができる。これにより、比較対象の単位セルを増やすことができるため、よりセグメント領域の移動領域の確からしさを向上させることができる。
なお、この場合、ある単位セルのドットとこの単位セルに隣接する単位セルのドット間の間隔が小さくなる。このため、実測単位セルを構成するドットの対応付けが誤って行われ、番号が誤って検出される事態が想定される。しかし、変更例2のように横5画素×縦5画素のサイズで単位セルが構成される場合、セグメント領域を横15画素×縦15画素
のサイズに設定することにより、横3×縦3の単位セルをセグメント領域に含めることができる。したがって、セグメント領域における番号のユニーク性を向上させることができ、これにより、セグメント領域の移動位置の誤検出を抑えることができると想定される。
また、このように、単位セルを横5画素×縦5画素で構成した場合、単位セル内の2つのドットの最長間隔は、略2.8画素であり、ある単位セルのドットとこの単位セルに隣接する単位セルのドットの最短間隔は、3画素である。単位セル内の2つのドットが最も長くなるのは、2つのドットが−45°になったときである。また、ある単位セルのドットとこの単位セルに隣接する単位セル間のドットの間隔が最も短くなるのは、2つのドットが0°または90°になったときである。
したがって、2つの輝点を抽出し、間隔が2.8画素以上、3画素以下であって、輝点間のなす角度が−15°〜+15°である場合は、単位セルを構成する2つのドットではなく、ある単位セルのドットとこの単位セルに隣接する単位セルのドットとの組み合わせが誤って検出されていると判定することができる。また、2つの輝点を抽出し、間隔が2.8画素以上、3画素以下であって、輝点間のなす角度が30〜60°であれば、適正に単位セルを構成する2つのドットが検出されていると判定することができる。
このように、2つのドットの間隔に加え、2つのドットのなす角度を判定して、実測単位セルを構成する2つのドットを対応づけることにより、対応付けの誤検出を抑えつつ、単位セルを小さく構成することができる。
<変更例3>
また、上記実施の形態では、セグメント領域に含まれる単位セルと、比較領域に含まれる実測単位セルの比較の際、X座標とY座標の両方の座標値が一致した場合に、単位セルの座標と実測単位セルの座標が一致すると判定したが、Y座標が数画素程度ずれていても、X座標が一致していれば、単位セルの座標と実測単位セルの座標が一致すると判定しても良い。
図16(a)、図16(b)に示す処理により、実測画像上のドットは、実測単位セルの番号が対応付けられていることから、探索範囲において、セグメント領域の単位セルの番号と、比較領域の実測単位セルの番号が一致していれば、その実測単位セルがY軸方向に多少ずれていたとしても、その実測単位セルは、セグメント領域の単位セルに対応する実測単位セルである可能性が高い。したがって、図21に示すように、レーザ光源110の出射波長変動等により、実測単位セルのY座標が所期の位置から有る程度ずれていても、X座標が単位セルと一致する実測単位セルを一致数のカウント対象とすることにより、適正にセグメント領域の移動領域を検出することができる。
<その他の変更例>
また、上記実施の形態では、セグメント領域の探索は、1画素ずらしで行われたが、比較領域に実測単位セルが所定の個数以上含まれない場合は、セグメント領域の単位セルと比較領域の実測単位セルのマッチング処理をスキップさせても良い。こうすると、距離が変化する境界等、実測単位セルの番号が対応付けられないような場所において、無駄なマッチング処理が行われなくなり、距離検出にかかる演算量を抑えることができる。
また、上記実施の形態では、ドットの角度の誤検出を防ぐために、輝点の重心位置が算出されたが、単位セルのドットが分布される領域が大きく、隣り合う位置にドットが含まれないように構成される場合は、輝点の重心位置は算出しなくても良い。
また、上記実施の形態では、重心領域は3画素×3画素のサイズに設定されたが、その
他のサイズに設定されても良い。
また、上記実施の形態では、図17のフローチャートにおいて、S313の判定がYESであると、画素ずれ量Dの取得動作がエラーとされたが(S315)、S313の判定がYESの場合に、S312へと進み、セグメント領域Siのサイズを拡大して再度探索が行われても良い。
また、上記実施の形態では、画素ずれ量Dから三角測量法を用いて距離情報が求められたが、三角測量法による演算なしに、画素ずれ量が、そのまま距離情報として取得されても良く、他の手法で距離情報を取得しても良い。
また、上記実施の形態では、基準画像に設定されたセグメント領域を、実測画像上において探索するようにしたが、実測画像上に設定された領域のドットパターンに対応するセグメント領域を、基準画像上で探索するようにしても良い。
さらに、上記実施の形態において、基準画像は、実際に基準面にドットパターンを照射し、その際にCMOSイメージセンサ240によって目標領域を撮像することにより取得された。しかしながら、このように目標領域を撮像することにより基準画像を取得する方法の他、上述の規則に沿って計算により基準画像が作成され、あらかじめメモリ25に保持されていても良い。この場合、基準画像は、撮像有効領域上のドットの分布ではなく、撮像有効領域上の単位セルの番号の分布としてメモリ25に保持されても良い。すなわち、基準画像は、セグメント領域に含まれる単位セルの番号の組合せを特定できるものであれば良い。
また、上記実施の形態では、目標領域に照射されるレーザ光の波長帯以外の波長帯の光を除去するためにフィルタ230を配したが、たとえば、目標領域に照射されるレーザ光以外の光の信号成分を、CMOSイメージセンサ240から出力される信号から除去する回路構成が配されるような場合には、フィルタ230が省略され得る。
また、上記実施の形態では、受光素子として、CMOSイメージセンサ240を用いたが、これに替えて、CCDイメージセンサを用いることもできる。また、上記実施の形態では、光源として、レーザ光源110を用いたが、これに替えて、LED等の他の光源を用いることもできる。さらに、投射光学系100および受光光学系200の構成も、適宜変更可能である。
この他、本発明の実施の形態は、特許請求の範囲に示された技術的思想の範囲内において、適宜、種々の変更が可能である。
1 … 物体検出装置
2 … 情報取得装置
3 … 情報処理装置
21b … 距離取得部
100 … 投射光学系
110 … レーザ光源(光源)
120 … コリメータレンズ
140 … DOE(回折光学素子)
200 … 受光光学系
240 … CMOSイメージセンサ(イメージセンサ)
Si … セグメント領域(第1のセル領域の組み合わせ)
Cj … 比較領域(対応領域)
Tp … 単位セル(第1のセル領域、第2のセル領域)

Claims (11)

  1. 光源から出射された光を所定のドットパターンで目標領域に投射する投射光学系と、
    前記投射光学系に対して並ぶように配置され、前記目標領域をイメージセンサにより撮像する受光光学系と、
    実測時に前記イメージセンサにより撮像された実測画像に基づいて、前記目標領域に含まれる物体までの距離に関する距離情報を取得する距離取得部と、を備え、
    前記ドットパターンは、2つのドットの傾き角が互いに異なる複数種類の第1のセル領域を並べることによって構成され、所定個数の前記第1のセル領域の組合せが前記投射光学系と前記受光光学系の並び方向における所定の範囲において1回だけ現れるように、前記第1のセル領域が前記ドットパターン上に並べられ、
    前記距離取得部は、前記第1のセル領域の前記組合せに対応する対応領域を前記実測画像から抽出し、抽出した前記対応領域の前記実測画像上の位置に基づき、前記距離情報を取得する、
    ことを特徴とする情報取得装置。
  2. 請求項1に記載の情報取得装置において、
    前記ドットパターンは、前記ドットを一つのみ含む第2のセル領域をさらに含み、前記所定個数の前記第1のセル領域と前記第2のセル領域の組合せが前記所定の範囲において1回だけ現れるように、前記第1のセル領域と前記第2のセル領域が前記ドットパターン上に並べられる、
    ことを特徴とする情報取得装置。
  3. 請求項1または2に記載の情報取得装置において、
    前記第1のセル領域に対して前記イメージセンサの画素を対応づけたとき、前記第1のセル領域内の外周部分の画素位置には、前記ドットが配置されないよう、前記第1のセル領域が構成されている、
    ことを特徴とする情報取得装置。
  4. 請求項1ないし3の何れか一項に記載の情報取得装置において、
    前記距離取得部は、前記実測画像上のドットから、前記第1のセル領域のドットの傾きに対応するドットの組合せを抽出し、抽出したドットの組合せに基づいて、前記第1のセル領域の前記組合せに対応する前記対応領域を抽出する、
    ことを特徴とする情報取得装置。
  5. 請求項4に記載の情報取得装置において、
    前記第1のセル領域に含まれる2つの前記ドットの間隔は、前記イメージセンサ上において、所定の画素間隔以下となっており、
    前記距離取得部は、前記実測画像上において、一のドットと他のドットの間隔が前記所定の画素間隔以下である場合に、前記一のドットと前記他のドットを前記第1のセル領域のドットの分布に対応するドットの組として抽出する、
    ことを特徴とする情報取得装置。
  6. 請求項5に記載の情報取得装置において、
    前記距離取得部は、前記実測画像上において、一のドットに対して前記所定の画素間隔以下の位置に他のドットが一つだけある場合に、前記一のドットと前記他のドットを前記第1のセル領域のドットの分布に対応するドットの組として抽出する、
    ことを特徴とする情報取得装置。
  7. 請求項1ないし6の何れか一項に記載の情報取得装置において、
    前記距離取得部は、前記実測画像上の前記所定の範囲に対応する範囲を探索範囲として、前記第1のセル領域の前記組合せに対応する前記対応領域を抽出する、
    ことを特徴とする情報取得装置。
  8. 請求項7に記載の情報取得装置において、
    前記距離取得部は、前記探索範囲において、前記第1のセル領域の組合せと同じサイズを有し、且つ、組み合わされた前記第1のセル領域の何れかと前記傾きが整合するドットの組合せを含む比較領域を検出するとともに、当該比較領域内のドットに対して前記傾きが整合する前記第1のセル領域の数を取得し、取得した前記比較領域のうち前記数が最大の前記比較領域を前記対応領域として抽出する、
    ことを特徴とする情報取得装置。
  9. 請求項8に記載の情報取得装置において、
    前記距離取得部は、前記探索範囲から前記対応領域を取得できない場合、組み合わされる前記第1のセル領域の数を増やして、再度、前記探索範囲における前記対応領域の抽出動作を実行する、
    ことを特徴とする情報取得装置。
  10. 請求項1ないし9の何れか一項に記載の情報取得装置において、
    前記光源は、レーザ光を出射するレーザ光源であり、
    前記投射光学系は、前記レーザ光源と、前記レーザ光源から出射された前記レーザ光が入射するコリメータレンズと、前記コリメータレンズを透過した前記レーザ光を前記ドットパターンのレーザ光に変換する回折光学素子とを備える、
    ことを特徴とする情報取得装置。
  11. 請求項1ないし10の何れか一項に記載の情報取得装置と、
    前記距離情報に基づいて、所定の対象物体を検出する物体検出部と、を備える、
    ことを特徴とする物体検出装置。
JP2012249573A 2012-11-13 2012-11-13 情報取得装置および物体検出装置 Pending JP2014098585A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012249573A JP2014098585A (ja) 2012-11-13 2012-11-13 情報取得装置および物体検出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012249573A JP2014098585A (ja) 2012-11-13 2012-11-13 情報取得装置および物体検出装置

Publications (1)

Publication Number Publication Date
JP2014098585A true JP2014098585A (ja) 2014-05-29

Family

ID=50940713

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012249573A Pending JP2014098585A (ja) 2012-11-13 2012-11-13 情報取得装置および物体検出装置

Country Status (1)

Country Link
JP (1) JP2014098585A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113039454A (zh) * 2018-11-08 2021-06-25 迪拉克斯因特尔坎股份有限公司 用于区分和计数人和物体的装置和方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113039454A (zh) * 2018-11-08 2021-06-25 迪拉克斯因特尔坎股份有限公司 用于区分和计数人和物体的装置和方法

Similar Documents

Publication Publication Date Title
JP5138119B2 (ja) 物体検出装置および情報取得装置
JP5138116B2 (ja) 情報取得装置および物体検出装置
WO2012137674A1 (ja) 情報取得装置、投射装置および物体検出装置
JP5214062B1 (ja) 情報取得装置および物体検出装置
JP5143312B2 (ja) 情報取得装置、投射装置および物体検出装置
CN110221732B (zh) 一种触控投影系统和触控动作识别方法
WO2014108976A1 (ja) 物体検出装置
WO2013046927A1 (ja) 情報取得装置および物体検出装置
JP2012237604A (ja) 情報取得装置、投射装置および物体検出装置
JP6528964B2 (ja) 入力操作検出装置、画像表示装置、プロジェクタ装置、プロジェクタシステム、及び入力操作検出方法
JP2014044113A (ja) 情報取得装置および物体検出装置
JPWO2013015145A1 (ja) 情報取得装置および物体検出装置
JP5138115B2 (ja) 情報取得装置及びその情報取得装置を有する物体検出装置
JP5143314B2 (ja) 情報取得装置および物体検出装置
WO2012144340A1 (ja) 情報取得装置および物体検出装置
JP2014052307A (ja) 情報取得装置および物体検出装置
JP2014085257A (ja) 情報取得装置および物体検出装置
WO2013015146A1 (ja) 物体検出装置および情報取得装置
JP2014098585A (ja) 情報取得装置および物体検出装置
JP2013246009A (ja) 物体検出装置
JP2014021017A (ja) 情報取得装置および物体検出装置
WO2013031447A1 (ja) 物体検出装置および情報取得装置
JP2014025804A (ja) 情報取得装置および物体検出装置
WO2013046928A1 (ja) 情報取得装置および物体検出装置
JP2013234956A (ja) 情報取得装置および物体検出装置