JP2014132219A - 情報取得装置および物体検出装置 - Google Patents

情報取得装置および物体検出装置 Download PDF

Info

Publication number
JP2014132219A
JP2014132219A JP2011094543A JP2011094543A JP2014132219A JP 2014132219 A JP2014132219 A JP 2014132219A JP 2011094543 A JP2011094543 A JP 2011094543A JP 2011094543 A JP2011094543 A JP 2011094543A JP 2014132219 A JP2014132219 A JP 2014132219A
Authority
JP
Japan
Prior art keywords
information acquisition
segment
area
dot pattern
optical system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011094543A
Other languages
English (en)
Inventor
Atsushi Yamaguchi
山口  淳
Koichi Tada
浩一 多田
Mitsutaka Yamaguchi
光隆 山口
Hiroyuki Muto
裕之 武藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2011094543A priority Critical patent/JP2014132219A/ja
Priority to PCT/JP2012/059447 priority patent/WO2012144340A1/ja
Publication of JP2014132219A publication Critical patent/JP2014132219A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • G01S17/48Active triangulation systems, i.e. using the transmission and reflection of electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/026Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring distance between sensor and object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • G01C3/08Use of electric radiation detectors
    • G01C3/085Use of electric radiation detectors with electronic parallax measurement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Human Computer Interaction (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Measurement Of Optical Distance (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Geophysics And Detection Of Objects (AREA)
  • User Interface Of Digital Computer (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

【課題】距離検出の精度を高めることが可能な情報取得装置および物体検出装置を提供する。
【解決手段】情報取得装置は、所定のドットパターンで投射されたレーザ光を投射し、CMOSイメージセンサにより反射光を受光する。CMOSイメージセンサの受光面には、複数のセグメント領域が重なり合うように設定されている。基準面で反射されたドットパターンに基づいて、各セグメント領域に含まれる探索用のドットパターンが設定される。実測時には、CMOSイメージセンサ上のドットパターンから、各セグメント領域に含まれる探索用のドットパターンと一致する領域が探索される。このとき、隣り合うセグメント領域は、互いに1画素だけずれた状態で重なり合うようにして設定される。これにより、距離検出のための分解能が高められることとなり、距離検出の精度を高めることができる。
【選択図】図9

Description

本発明は、目標領域に光を投射したときの反射光の状態に基づいて目標領域内の物体を検出する物体検出装置、および、当該物体検出装置に用いて好適な情報取得装置に関する。
従来、光を用いた物体検出装置が種々の分野で開発されている。いわゆる距離画像センサを用いた物体検出装置では、2次元平面上の平面的な画像のみならず、検出対象物体の奥行き方向の形状や動きを検出することができる。かかる物体検出装置では、レーザ光源やLED(Light Emitting Diode)から、予め決められた波長帯域の光が目標領域に投射され、その反射光がCMOSイメージセンサ等の光検出器により受光(撮像)される。距離画像センサとして、種々のタイプのものが知られている。
所定のドットパターンを持つレーザ光を目標領域に照射するタイプの距離画像センサでは、ドットパターンを持つレーザ光の目標領域からの反射光が光検出器によって受光される。そして、ドットの光検出器上の受光位置に基づいて、三角測量法を用いて、検出対象物体の各部(検出対象物体上の各ドットの照射位置)までの距離が検出される(たとえば、非特許文献1)。
第19回日本ロボット学会学術講演会(2001年9月18−20日)予稿集、P1279−1280
上記物体検出装置では、所定距離だけ離れた位置に基準面を配したときに光検出器により受光されるドットパターンと、実測時に光検出器により受光されるドットパターンとが比較されて、距離の検出が行われる。たとえば、基準面に対するドットパターンに複数の領域が設定される。物体検出装置は、各領域に含まれるドットが実測時に受光したドットパターン上のどの位置に移動したかに基づいて、領域毎に、対象物体までの距離を検出する。この場合、ドットパターンに設定される領域の数が多い程、対象物体までの距離を検出する際の分解能が増加し、距離検出の精度が高められる。
本発明は、この点に鑑みてなされたものであり、距離検出の精度を高めることが可能な情報取得装置および物体検出装置を提供することを目的とする。
本発明の第1の態様は、光を用いて目標領域の情報を取得する情報取得装置に関する。本態様に係る情報取得装置は、前記目標領域に所定のドットパターンでレーザ光を投射する投射光学系と、前記投射光学系に対して所定の距離だけ離れて並ぶように配置され、前記目標領域を撮像する撮像素子を有する受光光学系と、前記撮像素子によって撮像される基準ドットパターンに複数のセグメント領域を設定し、実測時に前記撮像素子によって撮像された実測ドットパターンから前記セグメント領域に対応する対応領域を探索し、探索した前記対応領域の位置に基づいて、前記目標領域に存在する物体の3次元情報を取得する情報取得部と、を備える。ここで、前記情報取得部は、前記複数のセグメント領域の少なくとも一部が、隣り合う前記セグメント領域と重なり合うように、前記複数のセグメン
ト領域を設定する。
本発明の第2の態様は、物体検出装置に関する。本態様に係る物体検出装置は、上記第1の態様に係る情報取得装置を有する。
本発明によれば、距離検出の精度を高めることが可能な情報取得装置および物体検出装置を提供することができる。
本発明の特徴は、以下に示す実施の形態の説明により更に明らかとなろう。ただし、以下の実施の形態は、あくまでも、本発明の一つの実施形態であって、本発明ないし各構成要件の用語の意義は、以下の実施の形態に記載されたものに制限されるものではない。
実施の形態に係る物体検出装置の概略構成を示す図である。 実施の形態に係る情報取得装置と情報処理装置の構成を示す図である。 実施の形態に係る投射光学系と受光光学系の設置状態を示す斜視図である。 実施の形態に係る投射光学系と受光光学系の構成を模式的に示す図である。 実施の形態に係る目標領域に対するレーザ光の照射状態を模式的に示す図およびCMOSイメージセンサにおけるレーザ光の受光状態を模式的に示す図である。 実施の形態に係る基準テンプレートの生成方法を説明する図である。 実施の形態に係る基準テンプレートのセグメント領域が実測時においてどの位置に変位したかを検出する手法を説明する図である。 実施の形態の比較例に係る距離検出の分解能について説明する図である。 実施の形態に係る距離検出の分解能について説明する図である。 実施の形態に係るセグメント領域の設定処理を示すフローチャートである。 実施の形態に係るセグメント領域に対するドットパターンの設定処理および実測時における距離検出の処理を示すフローチャートである。 実施の形態に係る左右方向のずれ幅を上下方向のずれ幅よりも小さくする変更例を示す図である。 実施の形態に係る左右方向の中央領域のずれ幅を左右方向の端部領域のずれ幅よりも小さくする変更例を示す図である。 実施の形態に係る上下に隣り合うセグメント領域を互いに重なり合わないようにする変更例を示す図である。 実施の形態に係る左右に隣り合うセグメント領域を互いに重なり合わないようにする変更例を示す図である。
以下、本発明の実施の形態につき図面を参照して説明する。本実施の形態には、所定のドットパターンを持つレーザ光を目標領域に照射するタイプの情報取得装置が例示されている。
まず、図1に本実施の形態に係る物体検出装置の概略構成を示す。図示の如く、物体検出装置は、情報取得装置1と、情報処理装置2とを備えている。テレビ3は、情報処理装置2からの信号によって制御される。なお、情報取得装置1と情報処理装置2とからなる装置が、本発明の物体検出装置に相当する。
情報取得装置1は、目標領域全体に赤外光を投射し、その反射光をCMOSイメージセンサにて受光することにより、目標領域にある物体各部の距離(以下、「3次元距離情報
」という)を取得する。取得された3次元距離情報は、ケーブル4を介して情報処理装置2に送られる。
情報処理装置2は、たとえば、テレビ制御用のコントローラやゲーム機、パーソナルコンピュータ等である。情報処理装置2は、情報取得装置1から受信した3次元距離情報に基づき、目標領域における物体を検出し、検出結果に基づきテレビ3を制御する。
たとえば、情報処理装置2は、受信した3次元距離情報に基づき人を検出するとともに、3次元距離情報の変化から、その人の動きを検出する。たとえば、情報処理装置2がテレビ制御用のコントローラである場合、情報処理装置2には、受信した3次元距離情報からその人のジェスチャを検出するとともに、ジェスチャに応じてテレビ3に制御信号を出力するアプリケーションプログラムがインストールされている。この場合、ユーザは、テレビ3を見ながら所定のジェスチャをすることにより、チャンネル切り替えやボリュームのUp/Down等、所定の機能をテレビ3に実行させることができる。
また、たとえば、情報処理装置2がゲーム機である場合、情報処理装置2には、受信した3次元距離情報からその人の動きを検出するとともに、検出した動きに応じてテレビ画面上のキャラクタを動作させ、ゲームの対戦状況を変化させるアプリケーションプログラムがインストールされている。この場合、ユーザは、テレビ3を見ながら所定の動きをすることにより、自身がテレビ画面上のキャラクタとしてゲームの対戦を行う臨場感を味わうことができる。
図2は、情報取得装置1と情報処理装置2の構成を示す図である。
情報取得装置1は、光学部の構成として、投射光学系11と受光光学系12とを備えている。この他、情報取得装置1は、回路部の構成として、CPU(Central Processing Unit)21と、レーザ駆動回路22と、撮像信号処理回路23と、入出力回路24と、メ
モリ25を備えている。
投射光学系11は、所定のドットパターンのレーザ光を、目標領域に照射する。受光光学系12は、目標領域から反射されたレーザ光を受光する。投射光学系11と受光光学系12の構成は、追って、図3、4を参照して説明する。
CPU21は、メモリ25に格納された制御プログラムに従って各部を制御する。かかる制御プログラムによって、CPU21には、投射光学系11内のレーザ光源111(後述)を制御するためのレーザ制御部21aと、3次元距離情報を生成するための3次元距離演算部21bの機能が付与される。
レーザ駆動回路22は、CPU21からの制御信号に応じてレーザ光源111(後述)を駆動する。撮像信号処理回路23は、受光光学系12内のCMOSイメージセンサ123(後述)を制御して、CMOSイメージセンサ123で生成された各画素の信号(電荷)をライン毎に順次取り込む。そして、取り込んだ信号を順次CPU21に出力する。
CPU21は、撮像信号処理回路23から供給される信号(撮像信号)をもとに、情報取得装置1から検出対象物の各部までの距離を、3次元距離演算部21bによる処理によって算出する。入出力回路24は、情報処理装置2とのデータ通信を制御する。
情報処理装置2は、CPU31と、入出力回路32と、メモリ33を備えている。なお、情報処理装置2には、同図に示す構成の他、テレビ3との通信を行うための構成や、CD−ROM等の外部メモリに格納された情報を読み取ってメモリ33にインストールする
ためのドライブ装置等が配されるが、便宜上、これら周辺回路の構成は図示省略されている。
CPU31は、メモリ33に格納された制御プログラム(アプリケーションプログラム)に従って各部を制御する。かかる制御プログラムによって、CPU31には、画像中の物体を検出するための物体検出部31aの機能が付与される。かかる制御プログラムは、たとえば、図示しないドライブ装置によってCD−ROMから読み取られ、メモリ33にインストールされる。
たとえば、制御プログラムがゲームプログラムである場合、物体検出部31aは、情報取得装置1から供給される3次元距離情報から画像中の人およびその動きを検出する。そして、検出された動きに応じてテレビ画面上のキャラクタを動作させるための処理が制御プログラムにより実行される。
また、制御プログラムがテレビ3の機能を制御するためのプログラムである場合、物体検出部31aは、情報取得装置1から供給される3次元距離情報から画像中の人およびその動き(ジェスチャ)を検出する。そして、検出された動き(ジェスチャ)に応じて、テレビ3の機能(チャンネル切り替えやボリューム調整、等)を制御するための処理が制御プログラムにより実行される。
入出力回路32は、情報取得装置1とのデータ通信を制御する。
図3は、投射光学系11と受光光学系12の設置状態を示す斜視図である。
投射光学系11と受光光学系12は、熱伝導性の高いベースプレート300上に設置される。投射光学系11を構成する光学部材は、シャーシ11aに設置され、このシャーシ11aがベースプレート300上に設置される。これにより、投射光学系11がベースプレート300上に設置される。
受光光学系12は、ベースプレート300上の2つの台座300aの上面と、2つの台座300aの間のベースプレート300の上面に設置される。2つの台座300aの間のベースプレート300の上面には、後述するCMOSイメージセンサ123が設置され、台座300aの上面には保持板12aが設置され、この保持板12aに、後述するフィルタ121および撮像レンズ122を保持するレンズホルダ12bが設置される。
投射光学系11と受光光学系12は、投射光学系11の投射中心と受光光学系12の撮像中心がX軸に平行な直線上に並ぶように、X軸方向に所定の距離をもって並んで設置されている。ベースプレート300の裏面に、情報取得装置1の回路部(図2参照)を保持する回路基板200(図4参照)が設置される。
ベースプレート300の中央下部には、レーザ光源111の配線をベースプレート300の背部に取り出すための孔300bが形成されている。また、ベースプレート300の受光光学系12の設置位置の下部には、CMOSイメージセンサ123のコネクタ12cをベースプレート300の背部に露出させるための開口300cが形成されている。
図4は、本実施の形態に係る投射光学系11と受光光学系12の構成を模式的に示す図である。
投射光学系11は、レーザ光源111と、コリメータレンズ112と、立ち上げミラー113と、回折光学素子(DOE:Diffractive Optical Element)114を備えている
。また、受光光学系12は、フィルタ121と、撮像レンズ122と、CMOSイメージセンサ123とを備えている。
レーザ光源111は、波長830nm程度の狭波長帯域のレーザ光を出力する。レーザ光源111は、レーザ光の光軸がX軸に平行となるように設置される。コリメータレンズ112は、レーザ光源111から出射されたレーザ光を略平行光に変換する。コリメータレンズ112は、自身の光軸がレーザ光源111から出射されたレーザ光の光軸に整合するように設置される。立ち上げミラー113は、コリメータレンズ112側から入射されたレーザ光を反射する。レーザ光の光軸は、立ち上げミラー113によって90°折り曲げられてZ軸に平行となる。
DOE114は、入射面に回折パターンを有する。回折パターンは、たとえば、ステップ型のホログラムにより構成される。この回折パターンによる回折作用により、立ち上げミラー113により反射されDOE114に入射したレーザ光は、ドットパターンのレーザ光に変換されて、目標領域に照射される。回折パターンは、目標領域において所定のドットパターンとなるように設計されている。
なお、レーザ光源111とコリメータレンズ112との間には、レーザ光の輪郭を円形にするためのアパーチャ(図示せず)が配される。なお、このアパーチャは、レーザ光源111の出射開口によって構成されても良い。
目標領域から反射されたレーザ光は、フィルタ121を透過して撮像レンズ122に入射する。
フィルタ121は、レーザ光源111の出射波長(830nm程度)を含む波長帯域の光を透過し、その他の波長帯域をカットする。撮像レンズ122は、フィルタ121を介して入射された光をCMOSイメージセンサ123上に集光する。撮像レンズ122は複数のレンズから構成され、所定のレンズとレンズとの間にアパーチャとスペーサが介挿されている。かかるアパーチャは、撮像レンズ122のFナンバーに合うように、外部からの光に絞りを掛ける。
CMOSイメージセンサ123は、撮像レンズ122にて集光された光を受光して、画素毎に、受光光量に応じた信号(電荷)を撮像信号処理回路23に出力する。ここで、CMOSイメージセンサ123は、各画素における受光から高レスポンスでその画素の信号(電荷)を撮像信号処理回路23に出力できるよう、信号の出力速度が高速化されている。
フィルタ121は、受光面がZ軸に垂直になるように配置される。撮像レンズ122は、光軸がZ軸に平行となるように設置される。CMOSイメージセンサ123は、受光面がZ軸に垂直になるように設置される。また、フィルタ121の中心とCMOSイメージセンサ123の受光領域の中心が撮像レンズ122の光軸上に並ぶように、フィルタ121、撮像レンズ122およびCMOSイメージセンサ123が配置される。
投射光学系11と受光光学系12は、図3を参照して説明したように、ベースプレート300に設置されている。ベースプレート300の下面には、さらに、回路基板200が設置され、この回路基板200から、レーザ光源111およびCMOSイメージセンサ123に配線(フレキシブル基板)201、202が接続されている。回路基板200には、図2に示すCPU21やレーザ駆動回路22等の情報取得装置1の回路部が実装されている。
図5(a)は、目標領域に対するレーザ光の照射状態を模式的に示す図であり、図5(b)は、CMOSイメージセンサ123におけるレーザ光の受光状態を模式的に示す図である。なお、同図(b)には、便宜上、目標領域に平坦な面(スクリーン)が存在するときの受光状態が示されている。
同図(a)に示すように、投射光学系11からは、ドットパターンを持ったレーザ光(以下、このパターンを持つレーザ光の全体を「DP光」という)が、目標領域に向けて照射される。同図(a)には、DP光の投射領域が実線の枠によって示されている。DP光の光束中には、回折光学素子による回折作用によってレーザ光の強度が高められたドット領域(以下、単に「ドット」という)が、回折光学素子の回折作用によるドットパターンに従って点在している。目標領域に平坦な面(スクリーン)が存在すると、これにより反射されたDP光は、同図(b)のように、CMOSイメージセンサ123上に分布する。
ここで、図6(a)、(b)を参照して、距離検出に用いられる基準パターンについて説明する。
図6(a)を参照して、基準パターンの生成時には、投射光学系11から所定の距離Lsの位置に、Z軸方向に垂直な平坦な反射平面RSが配置される。レーザ光源111の温度は、所定の温度(基準温度)に維持される。この状態で、投射光学系11からDP光が所定時間Teだけ出射される。出射されたDP光は、反射平面RSによって反射され、受光光学系12のCMOSイメージセンサ123に入射する。これにより、CMOSイメージセンサ123から、画素毎の電気信号が出力される。出力された画素毎の電気信号の値(画素値)が、図2のメモリ25上に展開される。
こうしてメモリ25上に展開された画素値に基づいて、図6(b)に示すように、CMOSイメージセンサ123上におけるDP光の照射領域を規定する基準パターン領域が設定される。
次に、図6(b)を参照して、基準パターン領域に設定されるセグメント領域(比較例)について説明する。
比較例では、上述したように設定された基準パターン領域が、縦横に区分されてセグメント領域が設定される。各セグメント領域は、他の全てのセグメント領域と同じサイズである。このとき、各セグメント領域には、固有のパターンでドットが点在するため、セグメント領域の画素値のパターンは、セグメント領域毎に異なっている。こうして、各セグメント領域に対して、当該セグメント領域に含まれる各画素の画素値が割り当てられる。
比較例では、CMOSイメージセンサ123上における基準パターン領域の位置に関する情報と、基準パターン領域に含まれる全画素の画素値(基準パターン)と、基準パターン領域をセグメント領域に分割するための情報が、基準テンプレートとなる。なお、基準パターン領域に含まれる全画素の画素値(基準パターン)は、基準パターン領域に含まれるDP光のドットパターンに相応するものになる。また、基準パターン領域に含まれる全画素の画素値(基準パターン)のマッピング領域をセグメント領域に区分することで、各セグメント領域に含まれる画素の画素値が取得される。
なお、この場合の基準テンプレートは、さらに、各セグメント領域に含まれる画素の画素値を、予めセグメント領域毎に保持していても良い。
構成された基準テンプレートは、図2のメモリ25に、消去不可能な状態で保持される。こうしてメモリ25に保持された基準テンプレートは、投射光学系11から検出対象物
体の各部までの距離を算出する際にCPU21により参照される。
たとえば、図6(a)に示すように、距離Lsよりも近い位置に物体がある場合、基準パターン上の所定のセグメント領域Snに対応するDP光(DPn)は、物体によって反射され、セグメント領域Snとは異なる領域Sn’に入射する。投射光学系11と受光光学系12はX軸方向に隣り合っているため、セグメント領域Snに対する領域Sn’の変位方向はX軸に平行となる。図6(a)の場合、物体が距離Lsよりも近い位置にあるため、領域Sn’は、セグメント領域Snに対してX軸正方向に変位する。物体が距離Lsよりも遠い位置にあれば、領域Sn’は、セグメント領域Snに対してX軸負方向に変位する。
セグメント領域Snに対する領域Sn’の変位方向と変位量をもとに、投射光学系11からDP光(DPn)が照射された物体の部分までの距離Lrが、距離Lsを用いて、三角測量法に基づき算出される。同様にして、他のセグメント領域に対応する物体の部分について、投射光学系11からの距離が算出される。かかる算出手法の詳細は、たとえば、上記非特許文献1(第19回日本ロボット学会学術講演会(2001年9月18−20日)予稿集、P1279−1280)に示されている。
かかる距離算出では、基準テンプレートのセグメント領域Snが、実測時においてどの位置に変位したかを検出する必要がある。この検出は、実測時にCMOSイメージセンサ123上に照射されたDP光のドットパターンと、セグメント領域Snに含まれるドットパターンとを照合することによって行われる。
図7は、図6(b)に示すセグメント領域(比較例)を用いて、かかる検出の手法を説明する図である。同図(a)は、CMOSイメージセンサ123上における基準パターン領域とセグメント領域の設定状態を示す図、同図(b)は、実測時におけるセグメント領域の探索方法を示す図、同図(c)は、実測されたDP光のドットパターンと、基準テンプレートのセグメント領域に含まれるドットパターンとの照合方法を示す図である。
たとえば、同図(a)のセグメント領域S1の実測時における変位位置を探索する場合、同図(b)に示すように、セグメント領域S1が、範囲P1〜P2において、X軸方向に1画素ずつ送られ、各送り位置において、セグメント領域S1のドットパターンと、実測されたDP光のドットパターンのマッチング度合いが求められる。この場合、セグメント領域S1は、基準パターン領域の最上段のセグメント領域群を通るラインL1上のみをX軸方向に送られる。これは、上記のように、通常、各セグメント領域は、実測時において、基準テンプレートにより設定された位置からX軸方向にのみ変位するためである。すなわち、セグメント領域S1は、最上段のラインL1上にあると考えられるためである。このように、X軸方向にのみ探索を行うことで、探索のための処理負担が軽減される。
なお、実測時には、検出対象物体の位置によっては、セグメント領域が基準パターン領域の範囲からX軸方向にはみ出すことが起こり得る。このため、範囲P1〜P2は、基準パターン領域のX軸方向の幅よりも広く設定される。
上記マッチング度合いの検出時には、ラインL1上に、セグメント領域S1と同じサイズの領域(比較領域)が設定され、この比較領域とセグメント領域S1との間の類似度が求められる。すなわち、セグメント領域S1の各画素の画素値と、比較領域の対応する画素の画素値との差分が求められる。そして、求めた差分を比較領域の全ての画素について加算した値Rsadが、類似度を示す値として取得される。
たとえば、図7(c)のように、一つのセグメント領域中に、m列×n行の画素が含ま
れている場合、セグメント領域のi列、j行の画素の画素値T(i,j)と、比較領域のi列、j行の画素の画素値I(i,j)との差分が求められる。そして、セグメント領域の全ての画素について差分が求められ、その差分の総和により、値Rsadが求められる。すなわち、値Rsadは、次式により算出される。
Figure 2014132219
値Rsadが小さい程、セグメント領域と比較領域との間の類似度が高い。
探索時には、比較領域が、ラインL1上を1画素ずつずらされつつ順次設定される。そして、ラインL1上の全ての比較領域について、値Rsadが求められる。求めた値Rsadの中から、閾値より小さいものが抽出される。閾値より小さい値Rsadが無ければ、セグメント領域S1の探索はエラーとされる。そして、抽出されたRsadの中で最も値が小さいものに対応する比較領域が、セグメント領域S1の移動領域であると判定される。ラインL1上のセグメント領域S1以外のセグメント領域も、上記と同様の探索が行われる。また、他のライン上のセグメント領域も、上記と同様、そのライン上に比較領域が設定されて、探索が行われる。
こうして、実測時に取得されたDP光のドットパターンから、各セグメント領域の変位位置が探索されると、上記のように、その変位位置に基づいて、三角測量法により、各セグメント領域に対応する検出対象物体の部位までの距離が求められる。
ここで、比較例の場合の距離検出の分解能について説明する。
図8(a)を参照して、比較例では、上述したように、基準パターン領域を縦横に区分することによりセグメント領域が設定されている。たとえば、図示の如く、セグメント領域Spの右隣りには、セグメント領域Sp+1が設定されている。なお、ここでは、各セグメント領域に5×5の画素が含まれているとする。
上述したように、セグメント領域Sp、Sp+1が決定されると、セグメント領域Spの中心Opと、セグメント領域Sp+1の中心Op+1との間隔は、セグメント領域の分割間隔に相当する5画素となる。同様に、上下に隣接するセグメント領域の中心間隔も5画素となる。
このようにセグメント領域が決定されると、対象物体に対する距離は、上下左右に5画素に対応する間隔で検出されることになる。すなわち、図8(b)に示す如く、円で概念的に示される位置が、距離を検出できる一つの位置となり、これが距離検出の分解能となる。ここでは、セグメント領域が、5×5の画素を含む領域とされたが、セグメント領域に含まれるドットの数を増加させてマッチングの精度を高めるために、セグメント領域の大きさを大きくすると、対象物体に対する距離検出の間隔はさらに広くなり、距離検出の分解能はさらに粗くなる。よって、比較例の場合、距離検出の精度が十分に得られない惧れがある。
そこで、本実施の形態では、基準パターン領域を縦横に分割することにより各セグメン
ト領域を設定するのではなく、所定の大きさの領域を、基準パターン領域上で1画素ずつずらすことにより各セグメント領域が設定される。
たとえば、図9(a)に示すように、本実施の形態のセグメント領域Spの右側には、セグメント領域Spを1画素だけ右側にずらした領域に、セグメント領域Sp+1が設定される。同様に、セグメント領域Spの左側、上側、下側にも、それぞれ、セグメント領域Spを1画素だけ左側、上側、下側にずらした領域に、対応するセグメント領域が設定される。なお、ここでは、各セグメント領域に5×5の画素が含まれているとする。
この場合も、1つのセグメント領域におけるドットの点在パターンは、他の全てのセグメント領域におけるドットの点在パターンと相違するよう基準パターン領域のドットパターンが設定される。このため、各セグメント領域は、ドットの点在パターンをもって、他の全てのセグメント領域から区別可能となっている。
本実施の形態では、セグメント領域Spの中心Opと、セグメント領域Sp+1の中心Op+1の間隔は、セグメント領域のずれ幅に相当する1画素となる。同様に、上下に隣接するセグメント領域の中心間隔も1画素となる。
このようにセグメント領域が決定されると、対象物体に対する距離は、上下左右に1画素に対応する距離で検出されることになる。すなわち、図9(b)に示す如く、円で概念的に示される位置が、距離を検出できる一つの位置となり、これが距離検出の分解能となる。
なお、本実施の形態では、CMOSイメージセンサ123上における基準パターン領域の位置に関する情報と、基準パターン領域に含まれる全画素の画素値(基準パターン)と、セグメント領域の縦横の幅に関する情報と、セグメント領域の間隔(ずれ幅)に関する情報が、基準テンプレートとなる。本実施の形態においても、基準テンプレートが、図2のメモリ25に、消去不可能な状態で保持される。こうしてメモリ25に保持された基準テンプレートは、投射光学系11から検出対象物体の各部までの距離を算出する際にCPU21により参照される。
たとえば、図10に示すように、最初の探索に用いるセグメント領域は、基準テンプレートに含まれるセグメント領域の縦横の幅に関する情報に基づいて、基準パターン領域の探索開始位置(左上の角)に設定される。すなわち、基準パターン領域の左上の角を頂点とし、上記縦横の幅を2つの辺の長さとする四角形の領域が、最初のセグメント領域として設定される(S1)。なお、基準テンプレートに含まれる縦横幅は、画素間隔の整数倍である。設定された最初のセグメント領域に含まれる画素の画素値が基準テンプレートから抽出され、当該セグメントに対するマッチング処理に用いられる(S2)。
次の探索に用いるセグメント領域は、最初のセグメント領域の設定に用いた四角形の領域を、セグメント領域の間隔(ずれ)に関する情報に基づいて右側にずらすことにより設定される(S4)。このセグメント領域に含まれる基準パターン領域内の画素の画素値が抽出され、当該セグメントに対するマッチング処理に用いられる(S2)。
こうして、基準パターン領域の最上段のラインの右端までセグメント領域が設定されると(S3:YES)、最上段のラインをずれ幅(1画素)だけ下にずらして次の段のラインが設定される(S6)。そして、設定されたラインの左端に、上記縦横の幅を2つの辺の長さとする四角形の領域が設定され、この領域が最初のセグメント領域として設定される(S7)。設定されたセグメント領域に含まれる画素の画素値が基準テンプレートから抽出される(S2)。さらに、2段目のラインにおいて、上記と同様、四角形の領域を1
画素ずつ順次右に移動させて、セグメント領域が設定される(S4)。2段目のラインの右端までセグメントの設定が終了すると(S3:YES)、上記と同様にして、2段目のラインから1画素だけ下にずらした3段目のラインに対するセグメント領域の設定が行われる(S6、S7)。こうして、基準パターン領域の最下段のラインまでセグメント領域の設定が行われる(S5:YES)。
本実施の形態では、実測時に、各セグメント領域が基準テンプレートに基づいて設定され、各セグメント領域に含まれる画素の画素値が抽出される。なお、各セグメント領域に含まれる画素の画素値が、予め、セグメント領域毎に、基準テンプレートに保持されていても良い。
また、上記では、四角形の領域を1画素ずつずらすことによりセグメント領域が設定されたが、予め、基準パターン領域上における各セグメント領域の位置を示す情報が基準テンプレートに保持されていても良い。この場合、各セグメント領域の位置は、各セグメント領域の左上の角の点として設定される。たとえば、基準パターン領域の左上を原点とし、この原点に対する横方向(右方向)および縦方向(下方向)の画素数によって、各セグメント領域の位置が設定される。
図11(a)は、セグメント領域に対するドットパターンの設定処理を示すフローチャートである。かかる処理は、情報取得装置1の起動時または距離検出が開始されたときに行われる。
なお、この場合の基準テンプレートには、基準パターン領域(図6(b)参照)に対して、個々のセグメント領域を割り当てるための情報が含まれている。具体的には、基準テンプレートには、各セグメント領域の大きさ(縦横幅)を示す情報の他、各セグメント領域の基準パターン領域上の位置を示す情報がさらに含まれている。ここでは、基準パターン領域に対してN個のセグメント領域が割り当てられ、これらセグメント領域には1〜Nまでの通し番号が付けられているものとする。セグメント領域の位置を示す情報は、上下左右のセグメント領域が互いに重なり合う(ここでは、1画素だけずれる)ように設定されている。
情報取得装置1のCPU21は、まず、メモリ25に保持されている基準テンプレートから、CMOSイメージセンサ123上における基準パターン領域の位置に関する情報と、基準パターン領域に含まれる全画素の画素値を読み出す(S11)。続いて、CPU21は、変数kに1をセットする(S12)。
次に、CPU21は、メモリ25に保持されている基準テンプレートから、k番目のセグメント領域Skの縦横の幅に関する情報と、セグメント領域Skの位置に関する情報を取得する(S13)。続いて、CPU21は、基準パターン領域に含まれる全画素の画素値と、S13で取得したセグメント領域Skの情報から、探索に用いるドットパターンDkを設定する(S14)。具体的には、CPU21は、基準パターンの全画素の画素値のうち、セグメント領域Skに含まれるドットパターンの画素値を取得し、これを探索用のドットパターンDkとする。
次に、CPU21は、kの値がNに等しいかを判定する(S15)。全てのセグメント領域について探索に用いるドットパターンが設定されて、kの値がNになると(S15:YES)、処理が終了する。他方、kの値がNに到達していないと(S15:NO)、CPU21は、kの値を1増やして(S16)、処理をS13に戻す。こうして、探索に用いるN個のドットパターンが順次設定される。
図11(b)は、実測時における距離検出の処理を示すフローチャートである。かかる処理は、図11(a)の処理により設定された探索用のドットパターンを用いて行われ、図11(a)の処理と並行して行われる。
情報取得装置1のCPU21は、まず、変数cに1をセットする(S21)。次に、CPU21は、実測時に受光したCMOSイメージセンサ123上のドットパターンから、図11(a)のS14で設定したc番目の探索用のドットパターンDcと一致する領域を探索する(S22)。かかる探索は、セグメント領域Scに対応する位置に対して左右方向に所定の幅を有する領域に対して行われる。探索用のドットパターンDcと一致する領域があれば、CPU21は、一致した領域がセグメント領域Scの位置から左右どちらの方向にどれだけの距離を移動したかを検出し、検出した移動方向と移動距離を用いて、三角測量法に基づきセグメント領域Scに位置する物体の距離を算出する(S23)。
次に、CPU21は、cの値がNに等しいかを判定する(S24)。全てのセグメント領域について距離の算出が行われ、cの値がNになると(S24:YES)、処理が終了する。他方、cの値がNに到達していないと(S24:NO)、CPU21は、cの値を1増やして(S25)、処理をS22に戻す。こうして、セグメント領域に対応する検出対象物体までの距離が求められる。
以上、本発明の実施の形態によれば、図9(a)に示すように、隣り合う2つのセグメント領域が、互いに1画素だけずれた状態で重なり合うようにして、各セグメント領域が設定されるため、図9(b)に示すように、CMOSイメージセンサ123によって検出できる対象物体の距離も、1画素に対応する間隔で検出される。これにより、距離検出のための分解能が高められることとなり、距離検出の精度を高めることができる。
以上、本発明の実施の形態について説明したが、本発明は、上記実施の形態に何ら制限されるものではなく、また、本発明の実施の形態も上記の他に種々の変更が可能である。
たとえば、上記実施の形態では、光検出器として、CMOSイメージセンサ123を用いたが、これに替えて、CCDイメージセンサを用いることもできる。
また、上記実施の形態では、図9(a)に示すように、隣り合う2つのセグメント領域は、互いに1画素だけずれた状態で重なり合うようにして設定されたが、これに限らず、隣り合う2つのセグメント領域の重なりは、適宜変更されても良い。たとえば、隣り合う2つのセグメント領域は、互いに2画素だけずれた状態で重なり合うようにして設定されても良い。
また、上記実施の形態では、上下および左右に隣り合うセグメント領域間のずれ幅が一律1画素とされたが、基準パターン領域上の位置に応じて隣り合うセグメント領域間のずれ幅を変化させても良い。たとえば、左右に隣り合うセグメント領域のずれ幅(重なり度合い)と、上下に隣り合うセグメント領域のずれ幅(重なり度合い)が異なるようにしても良い。左右方向の分解能を上下方向よりも高めたい場合は、たとえば図12(a)、(b)に示すように、左右方向のずれ幅を上下方向よりも小さくしても良い。また、たとえば図13(a)、(b)、(c)に示すように、物体が位置付けられやすい左右方向の中央領域では、隣り合うセグメント領域間のずれ幅を小さくして分解能を高め、図13(a)、(d)、(e)に示すように、物体が位置付けられにくい左右方向の端部領域では、隣り合うセグメント領域間のずれ幅を大きくして、処理負担の軽減を図るようにしても良い。
また、上記実施の形態では、左右のみならず、上下に隣り合うセグメント領域も、互い
に重なり合うようにしたが、たとえば図14(a)、(b)に示すように、上下に隣り合うセグメント領域は互いに重なり合わないようにしても良く、また、たとえば図15(a)、(b)に示すように、左右に隣り合うセグメント領域が互いに重なり合わないようにしても良い。また、基準パターン領域上の所定の領域においては、隣り合うセグメント領域が互いに重ならないようにしても良く、隣り合うセグメント領域間の重なり具合(重ならないことも含む)が、基準パターン領域上において変えられても良い。
さらに、上記実施の形態では、セグメント領域の大きさを一定としたが、たとえば、基準パターン領域を複数の領域に区分し、区分した領域毎に、セグメント領域の大きさを変えても良い。
この他、本発明の実施の形態は、特許請求の範囲に示された技術的思想の範囲内において、適宜、種々の変更が可能である。
1 情報取得装置
11 投射光学系
12 受光光学系
21 CPU(情報取得部)
21b 3次元距離演算部(情報取得部)
23 撮像信号処理回路(情報取得部)
111 レーザ光源
112 コリメータレンズ
114 DOE(回折光学素子)
122 撮像レンズ(集光レンズ)
123 CMOSイメージセンサ(撮像素子)

Claims (8)

  1. 光を用いて目標領域の情報を取得する情報取得装置において、
    前記目標領域に所定のドットパターンでレーザ光を投射する投射光学系と、
    前記投射光学系に対して所定の距離だけ離れて並ぶように配置され、前記目標領域を撮像する撮像素子を有する受光光学系と、
    前記撮像素子によって撮像される基準ドットパターンに複数のセグメント領域を設定し、実測時に前記撮像素子によって撮像された実測ドットパターンから前記セグメント領域に対応する対応領域を探索し、探索した前記対応領域の位置に基づいて、前記目標領域に存在する物体の3次元情報を取得する情報取得部と、を備え、
    前記情報取得部は、前記複数のセグメント領域の少なくとも一部が、隣り合う前記セグメント領域と一部が重なり合うように、前記複数のセグメント領域を設定する、
    ことを特徴とする情報取得装置。
  2. 請求項1に記載の情報取得装置において、
    隣り合う前記セグメント領域の重なり具合が、前記基準ドットパターン上の位置に応じて異なっている、
    ことを特徴とする情報取得装置。
  3. 請求項2に記載の情報取得装置において、
    互いに重なり合う前記セグメント領域のずれ幅が、前記基準ドットパターンの周辺よりも中央の方が小さくなっている、
    ことを特徴とする情報取得装置。
  4. 請求項1ないし3の何れか一項に記載の情報取得装置において、
    互いに重なり合う前記セグメント領域の左右方向のずれ幅と上下方向のずれ幅とが相違している、
    ことを特徴とする情報取得装置。
  5. 請求項1ないし3の何れか一項に記載の情報取得装置において、
    前記セグメント領域は、左右方向と上下方向の何れか一方においてのみ、互いに重なっている、
    ことを特徴とする情報取得装置。
  6. 請求項1ないし5の何れか一項に記載の情報取得装置において、
    互いに重なり合う2つの前記セグメント領域が、上下方向および左右方向の少なくとも何れか一方において、互いに1画素だけずれた状態となるように設定されている、
    ことを特徴とする情報取得装置。
  7. 請求項1ないし6の何れか一項に記載の情報取得装置において、
    前記投射光学系は、レーザ光源と、前記レーザ光源から出射されたレーザ光を平行光に変換するコリメータレンズと、前記コリメータレンズによって平行光に変換された前記レーザ光を回折によりドットパターンの光に変換する回折光学素子と、を備える、
    ことを特徴とする情報取得装置。
  8. 請求項1ないし7の何れか一項に記載の情報取得装置を有する物体検出装置。
JP2011094543A 2011-04-20 2011-04-20 情報取得装置および物体検出装置 Withdrawn JP2014132219A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011094543A JP2014132219A (ja) 2011-04-20 2011-04-20 情報取得装置および物体検出装置
PCT/JP2012/059447 WO2012144340A1 (ja) 2011-04-20 2012-04-06 情報取得装置および物体検出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011094543A JP2014132219A (ja) 2011-04-20 2011-04-20 情報取得装置および物体検出装置

Publications (1)

Publication Number Publication Date
JP2014132219A true JP2014132219A (ja) 2014-07-17

Family

ID=47041452

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011094543A Withdrawn JP2014132219A (ja) 2011-04-20 2011-04-20 情報取得装置および物体検出装置

Country Status (2)

Country Link
JP (1) JP2014132219A (ja)
WO (1) WO2012144340A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019049572A (ja) * 2018-12-26 2019-03-28 株式会社ニコン 撮像装置、情報処理装置、及び撮像システム
US11151733B2 (en) 2016-03-09 2021-10-19 Nikon Corporation Detection device, information processing device, detection method, storage medium, and detection system
US11151783B2 (en) 2014-09-03 2021-10-19 Nikon Corporation Image pickup device, information processing device, and image pickup system

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7019894B2 (ja) * 2017-08-31 2022-02-16 エスゼット ディージェイアイ テクノロジー カンパニー リミテッド 物体を感知する方法及びセンサシステム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07152895A (ja) * 1993-11-29 1995-06-16 Canon Inc 画像処理方法及び装置
JP2001184497A (ja) * 1999-10-14 2001-07-06 Komatsu Ltd ステレオ画像処理装置及び記録媒体
JP4424797B2 (ja) * 1999-11-26 2010-03-03 富士通株式会社 立体形状検出方法
JP4043931B2 (ja) * 2002-12-09 2008-02-06 株式会社リコー 3次元情報取得システム
JP3782815B2 (ja) * 2004-02-04 2006-06-07 住友大阪セメント株式会社 呼吸解析装置
JP4550081B2 (ja) * 2007-03-27 2010-09-22 株式会社トプコン 画像測定方法
EP2161695A4 (en) * 2007-06-07 2011-06-08 Univ Electro Communications OBJECT DETECTION DEVICE AND THEREFORE USING TOWER DEVICE
JP5364982B2 (ja) * 2007-06-26 2013-12-11 コニカミノルタ株式会社 情報処理システム
JP5251419B2 (ja) * 2008-10-22 2013-07-31 日産自動車株式会社 距離計測装置および距離計測方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11151783B2 (en) 2014-09-03 2021-10-19 Nikon Corporation Image pickup device, information processing device, and image pickup system
US11151733B2 (en) 2016-03-09 2021-10-19 Nikon Corporation Detection device, information processing device, detection method, storage medium, and detection system
JP2019049572A (ja) * 2018-12-26 2019-03-28 株式会社ニコン 撮像装置、情報処理装置、及び撮像システム

Also Published As

Publication number Publication date
WO2012144340A1 (ja) 2012-10-26

Similar Documents

Publication Publication Date Title
JP5138116B2 (ja) 情報取得装置および物体検出装置
WO2012137674A1 (ja) 情報取得装置、投射装置および物体検出装置
JP5214062B1 (ja) 情報取得装置および物体検出装置
JP5143312B2 (ja) 情報取得装置、投射装置および物体検出装置
JP2012237604A (ja) 情報取得装置、投射装置および物体検出装置
WO2013046927A1 (ja) 情報取得装置および物体検出装置
WO2012144340A1 (ja) 情報取得装置および物体検出装置
JP5143314B2 (ja) 情報取得装置および物体検出装置
JP5138115B2 (ja) 情報取得装置及びその情報取得装置を有する物体検出装置
JPWO2013015145A1 (ja) 情報取得装置および物体検出装置
JP2014044113A (ja) 情報取得装置および物体検出装置
JP2014052307A (ja) 情報取得装置および物体検出装置
JP2014085257A (ja) 情報取得装置および物体検出装置
JP2014062796A (ja) 情報取得装置および物体検出装置
JP2014035304A (ja) 情報取得装置および物体検出装置
JP2014021017A (ja) 情報取得装置および物体検出装置
JP2014085282A (ja) 情報取得装置および物体検出装置
JP2014194341A (ja) 物体検出装置および情報取得装置
JP2013234956A (ja) 情報取得装置および物体検出装置
WO2013046928A1 (ja) 情報取得装置および物体検出装置
WO2013031447A1 (ja) 物体検出装置および情報取得装置
WO2013031448A1 (ja) 物体検出装置および情報取得装置
JP5138120B2 (ja) 物体検出装置および情報取得装置
JP2014106000A (ja) 情報取得装置および物体検出装置
JP2013234957A (ja) 情報取得装置および物体検出装置

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140805