JPWO2013015145A1 - 情報取得装置および物体検出装置 - Google Patents

情報取得装置および物体検出装置 Download PDF

Info

Publication number
JPWO2013015145A1
JPWO2013015145A1 JP2013525671A JP2013525671A JPWO2013015145A1 JP WO2013015145 A1 JPWO2013015145 A1 JP WO2013015145A1 JP 2013525671 A JP2013525671 A JP 2013525671A JP 2013525671 A JP2013525671 A JP 2013525671A JP WO2013015145 A1 JPWO2013015145 A1 JP WO2013015145A1
Authority
JP
Japan
Prior art keywords
laser light
information acquisition
light
wavelength
image sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013525671A
Other languages
English (en)
Inventor
楳田 勝美
勝美 楳田
後藤 陽一郎
後藤  陽一郎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2013525671A priority Critical patent/JPWO2013015145A1/ja
Publication of JPWO2013015145A1 publication Critical patent/JPWO2013015145A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/46Measurement of colour; Colour measuring devices, e.g. colorimeters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • G01V8/10Detecting, e.g. by using light barriers
    • G01V8/12Detecting, e.g. by using light barriers using one transmitter and one receiver

Abstract

コストを低減させることが可能な情報取得装置および物体検出装置を提供する。情報取得装置は、レーザ光を出射するレーザ光源と、前記レーザ光源から出射された前記レーザ光を目標領域に投射する投射部と、前記目標領域から反射された前記レーザ光を受光する受光部と、を備える。ここで、受光部は、目標領域から反射されたレーザ光が入射するカラーイメージセンサを有する。また、カラーイメージセンサは、波長830nm近傍でR光、G光、B光を検出する画素の検出感度が互いに略揃う。レーザ光源の出射波長は、波長830nm程度に設定されている。これにより、カラーイメージセンサによって、レーザ光を適正に検出することができる。また、カラーイメージセンサはモノクロイメージセンサに比べて安価であるため、装置全体のコストを低減することができる。

Description

本発明は、目標領域に光を投射したときの反射光の状態に基づいて目標領域内の物体を検出する物体検出装置および当該物体検出装置に用いて好適な情報取得装置に関する。
従来、光を用いた物体検出装置が種々の分野で開発されている。いわゆる距離画像センサを用いた物体検出装置では、2次元平面上の平面的な画像のみならず、検出対象物体の奥行き方向の形状や動きを検出することができる。かかる物体検出装置では、レーザ光源やLED(Light Emitting Diode)から、予め決められた波長帯域の光が目標領域に投射され、その反射光がCMOSイメージセンサ等の受光素子により受光される。距離画像センサとして、種々のタイプのものが知られている。
所定のドットパターンを持つレーザ光を目標領域に照射するタイプの距離画像センサでは、ドットパターンを持つレーザ光の目標領域からの反射光が受光素子によって受光される。そして、ドットの受光素子上の受光位置に基づいて、三角測量法を用いて、検出対象物体の各部(検出対象物体上の各ドットの照射位置)までの距離が検出される(たとえば、非特許文献1)。
第19回日本ロボット学会学術講演会(2001年9月18−20日)予稿集、P1279−1280
上記物体検出装置では、たとえば、目標領域に対してドットパターンを持つ赤外光が照射され、目標領域に位置する物体によって反射された赤外光が、モノクロ用のイメージセンサにより受光される。しかしながら、モノクロ用のイメージセンサは生産量が少なく高価であるため、装置全体のコストが上昇するとの問題を生じる。
本発明は、このような問題を解消するためになされたものであり、コストを低減させることが可能な情報取得装置および物体検出装置を提供することを目的とする。
本発明の第1の態様は、情報取得装置に関する。この態様に係る情報取得装置は、レーザ光を出射するレーザ光源と、前記レーザ光源から出射された前記レーザ光を目標領域に投射する投射部と、前記目標領域から反射された前記レーザ光を受光する受光部と、を備える。ここで、前記受光部は、前記目標領域から反射された前記レーザ光が入射するカラーイメージセンサを有する。また、前記カラーイメージセンサは、可視光領域よりも長波長側において、所定の色の光を検出する画素の検出感度が次第に減少し、前記色以外の残りの色の光を検出する画素の検出感度がそれぞれ極大値を持つ特性を有し、前記極大値を与える波長の近傍の波長帯域において前記各画素の検出感度が互いに略揃う。前記レーザ光源の出射波長は、前記波長帯域内の波長に設定されている。
本発明の第2の態様は、物体検出装置に関する。この態様に係る物体検出装置は、上記第1の態様に係る情報取得装置を有する。
本発明によれば、コストを低減させることが可能な情報取得装置および物体検出装置を提供することができる。
本発明の効果ないし意義は、以下に示す実施の形態の説明により更に明らかとなろう。ただし、以下に示す実施の形態は、あくまでも、本発明を実施化する際の一つの例示であって、本発明は、以下の実施の形態により何ら制限されるものではない。
実施の形態に係る物体検出装置の概略構成を示す図である。 実施の形態に係る情報取得装置と情報処理装置の構成を示す図である。 実施の形態に係る目標領域に対するレーザ光の照射状態を模式的に示す図およびCMOSイメージセンサにおけるレーザ光の受光状態を模式的に示す図である。 実施の形態に係る距離検出の方法を説明する図である。 実施の形態に係る基準テンプレートのセグメント領域が実測時においてどの位置に変位したかを検出する手法を説明する図である。 モノクロ用センサと実施の形態に係るカラー用センサの構成を示す模式図である。 実施の形態に係るカラー用センサの分光特性を示す図である。 実施の形態に係るCMOSイメージセンサとしてカラー用センサが用いられる場合の、ドットパターンのレーザ光を示す図である。 他のカラー用センサの分光特性を示す図である。
以下、本発明の実施の形態につき図面を参照して説明する。本実施の形態には、所定のドットパターンを持つレーザ光を目標領域に照射するタイプの情報取得装置が例示されている。
まず、図1に本実施の形態に係る物体検出装置の概略構成を示す。図示の如く、物体検出装置は、情報取得装置1と、情報処理装置2とを備えている。テレビ3は、情報処理装置2からの信号によって制御される。
情報取得装置1は、目標領域全体に赤外光を投射し、その反射光をCMOSイメージセンサにて受光することにより、目標領域にある物体各部の距離(以下、「3次元距離情報」という)を取得する。取得された3次元距離情報は、ケーブル4を介して情報処理装置2に送られる。
情報処理装置2は、たとえば、テレビ制御用のコントローラやゲーム機、パーソナルコンピュータ等である。情報処理装置2は、情報取得装置1から受信した3次元距離情報に基づき、目標領域における物体を検出し、検出結果に基づきテレビ3を制御する。
たとえば、情報処理装置2は、受信した3次元距離情報に基づき人を検出するとともに、3次元距離情報の変化から、その人の動きを検出する。たとえば、情報処理装置2がテレビ制御用のコントローラである場合、情報処理装置2には、受信した3次元距離情報からその人のジェスチャを検出するとともに、ジェスチャに応じてテレビ3に制御信号を出力するアプリケーションプログラムがインストールされている。この場合、ユーザは、テレビ3を見ながら所定のジェスチャをすることにより、チャンネル切り替えやボリュームのUp/Down等、所定の機能をテレビ3に実行させることができる。
また、たとえば、情報処理装置2がゲーム機である場合、情報処理装置2には、受信した3次元距離情報からその人の動きを検出するとともに、検出した動きに応じてテレビ画面上のキャラクタを動作させ、ゲームの対戦状況を変化させるアプリケーションプログラムがインストールされている。この場合、ユーザは、テレビ3を見ながら所定の動きをすることにより、自身がテレビ画面上のキャラクタとしてゲームの対戦を行う臨場感を味わうことができる。
図2は、情報取得装置1と情報処理装置2の構成を示す図である。
情報取得装置1は、光学部の構成として、投射光学系100と受光光学系200とを備えている。投射光学系100と受光光学系200は、X軸方向に所定の距離だけ離れて並ぶように、情報取得装置1に配置される。
投射光学系100は、レーザ光源110と、コリメータレンズ120と、立ち上げミラー130と、回折光学素子(DOE:Diffractive Optical Element)140とを備えている。また、受光光学系200は、アパーチャ210と、撮像レンズ220と、フィルタ230と、CMOSイメージセンサ240とを備えている。この他、情報取得装置1は、回路部の構成として、CPU(Central Processing Unit)21と、レーザ駆動回路22と、撮像信号処理回路23と、入出力回路24と、メモリ25を備えている。
レーザ光源110は、受光光学系200から離れる方向(X軸正方向)に赤外の波長帯域のレーザ光を出力する。なお、レーザ光源110の出射波長の設定方法については、追って、図7を参照して説明する。
コリメータレンズ120は、レーザ光源110から出射されたレーザ光を略平行光に変換する。立ち上げミラー130は、コリメータレンズ120側から入射されたレーザ光をDOE140に向かう方向(Z軸方向)に反射する。
DOE140は、入射面に回折パターンを有する。この回折パターンによる回折作用により、DOE140に入射したレーザ光は、ドットパターンのレーザ光に変換されて、目標領域に照射される。回折パターンは、たとえば、ステップ型の回折ホログラムが所定のパターンで形成された構造とされる。回折ホログラムは、立ち上げミラー130側から入射するレーザ光をドットパターンのレーザ光に変換するよう、パターンとピッチが調整されている。
また、DOE140は、立ち上げミラー130から入射されたレーザ光を、放射状に広がるドットパターンのレーザ光として、目標領域に照射する。ドットパターンの各ドットの大きさは、DOE140に入射する際のレーザ光のビームサイズに応じたものとなる。DOE140にて回折されないレーザ光(0次光)は、DOE140を透過してそのまま直進する。
目標領域から反射されたレーザ光は、アパーチャ210を介して撮像レンズ220に入射する。
アパーチャ210は、撮像レンズ220のFナンバーに合うように、外部からの光に絞りを掛ける。撮像レンズ220は、アパーチャ210を介して入射された光をCMOSイメージセンサ240上に集光する。フィルタ230は、レーザ光源110の出射波長を含む赤外の波長帯域の光のみを透過するIRフィルタ(Infrared Filter)である。フィルタ230により、受光光学系200に入射する光から、可視光がカットされる。なお、本実施の形態では、フィルタ230が撮像レンズ220の後段に配置されているが、フィルタ230が撮像レンズ220の前段に配置されても良い。また、フィルタ230は、レーザ光源110の出射波長帯域を含む狭い波長帯域の光のみを透過させる狭帯域のバンドパスフィルタであっても良い。
CMOSイメージセンサ240は、撮像レンズ220によって集光された光を受光して、画素毎に、受光量に応じた信号(電荷)を撮像信号処理回路23に出力する。ここで、CMOSイメージセンサ240は、各画素における受光から高レスポンスでその画素の信号(電荷)を撮像信号処理回路23に出力できるよう、信号の出力速度が高速化されている。なお、CMOSイメージセンサ240については、追って図6(c)〜(e)、図7を参照して説明する。
CPU21は、メモリ25に格納された制御プログラムに従って各部を制御する。かかる制御プログラムによって、CPU21には、レーザ光源110を制御するためのレーザ制御部21aと、3次元距離情報を生成するための距離演算部21bの機能が付与される。
レーザ駆動回路22は、CPU21からの制御信号に応じてレーザ光源110を駆動する。
撮像信号処理回路23は、CMOSイメージセンサ240を制御して、CMOSイメージセンサ240で生成された各画素の信号(電荷)をライン毎に順次取り込む。そして、取り込んだ信号を順次CPU21に出力する。CPU21は、撮像信号処理回路23から供給される信号(撮像信号)をもとに、情報取得装置1から検出対象物の各部までの距離を、距離演算部21bによる処理によって算出する。入出力回路24は、情報処理装置2とのデータ通信を制御する。
情報処理装置2は、CPU31と、入出力回路32と、メモリ33を備えている。なお、情報処理装置2には、図2に示す構成の他、テレビ3との通信を行うための構成や、CD−ROM等の外部メモリに格納された情報を読み取ってメモリ33にインストールするためのドライブ装置等が配されるが、便宜上、これら周辺回路の構成は図示省略されている。
CPU31は、メモリ33に格納された制御プログラム(アプリケーションプログラム)に従って各部を制御する。かかる制御プログラムによって、CPU31には、画像中の物体を検出するための物体検出部31aの機能が付与される。かかる制御プログラムは、たとえば、図示しないドライブ装置によってCD−ROMから読み取られ、メモリ33にインストールされる。
たとえば、制御プログラムがゲームプログラムである場合、物体検出部31aは、情報取得装置1から供給される3次元距離情報から画像中の人およびその動きを検出する。そして、検出された動きに応じてテレビ画面上のキャラクタを動作させるための処理が制御プログラムにより実行される。
また、制御プログラムがテレビ3の機能を制御するためのプログラムである場合、物体検出部31aは、情報取得装置1から供給される3次元距離情報から画像中の人およびその動き(ジェスチャ)を検出する。そして、検出された動き(ジェスチャ)に応じて、テレビ3の機能(チャンネル切り替えやボリューム調整、等)を制御するための処理が制御プログラムにより実行される。
入出力回路32は、情報取得装置1とのデータ通信を制御する。
図3(a)は、目標領域に対するレーザ光の照射状態を模式的に示す図であり、図3(b)は、CMOSイメージセンサ240のレーザ光の受光状態を模式的に示す図である。なお、図3(b)には、便宜上、目標領域に平坦な面(スクリーン)が存在するときの受光状態が示されている。
図3(a)に示すように、投射光学系100からは、ドットパターンを持ったレーザ光(以下、このパターンを持つレーザ光の全体を「DP光」という)が、目標領域に照射される。DP光の光束中には、DOE140の回折作用によってレーザ光の強度が高められたドット領域(以下、単に「ドット」という)が、DOE140の回折作用によるドットパターンに従って点在している。目標領域に平坦な面(スクリーン)が存在すると、これにより反射されたDP光は、図3(b)のように、CMOSイメージセンサ240上に分布する。
ここで、図4(a)、(b)を参照して、上記距離検出の方法を説明する。
まず、図4(a)に示すように、投射光学系100から所定の距離Lsの位置に、Z軸方向に垂直な平坦な反射平面RSが配置される。出射されたDP光は、反射平面RSによって反射され、受光光学系200のCMOSイメージセンサ240に入射する。これにより、CMOSイメージセンサ240から、画素毎の電気信号が出力される。出力された画素毎の電気信号の値(画素値)は、図2のメモリ25上に展開され、図4(b)に示すように、CMOSイメージセンサ240上におけるDP光の照射領域を規定する“基準パターン領域”が設定される。
こうして設定された基準パターン領域に対して、所定の大きさ(たとえば、縦15画素、横15画素)を有する複数のセグメント領域が設定される。セグメント領域は、基準パターン領域に対して1画素間隔で並ぶように設定される。すなわち、あるセグメント領域は、このセグメント領域の上下左右に隣り合うセグメント領域に対して1画素ずれた位置に設定される。このとき、各セグメント領域には、固有のパターンでドットが点在する。よって、セグメント領域内の画素値のパターンは、セグメント領域毎に異なっている。
こうして、CMOSイメージセンサ240上における基準パターン領域の位置に関する情報と、基準パターン領域に含まれる全画素の画素値(基準パターン)と、基準パターン領域に対して設定されるセグメント領域の情報が、図2のメモリ25に記憶される。メモリ25に記憶されるこれらの情報を、以下、「基準テンプレート」と称する。
図2のCPU21は、投射光学系100から検出対象物体の各部までの距離を算出する際に、基準テンプレートを参照する。CPU21は、距離を算出する際に、基準テンプレートから得られる各セグメント領域内のドットパターンのずれ量に基づいて、物体の各部までの距離を算出する。
たとえば、図4(a)に示すように距離Lsよりも近い位置に物体がある場合、基準パターン上の所定のセグメント領域Snに対応するDP光(DPn)は、物体によって反射され、セグメント領域Snとは異なる領域Sn’に入射する。投射光学系100と受光光学系200はX軸方向に隣り合っているため、セグメント領域Snに対する領域Sn’の変位方向はX軸に平行となる。図4(a)の場合、物体が距離Lsよりも近い位置にあるため、領域Sn’は、セグメント領域Snに対してX軸正方向に変位する。物体が距離Lsよりも遠い位置にあれば、領域Sn’は、セグメント領域Snに対してX軸負方向に変位する。
セグメント領域Snに対する領域Sn’の変位方向と変位量をもとに、投射光学系100からDP光(DPn)が照射された物体の部分までの距離Lrが、距離Lsを用いて、三角測量法に基づき算出される。同様にして、他のセグメント領域に対応する物体の部分について、投射光学系100からの距離が算出される。かかる算出手法の詳細は、たとえば、上記非特許文献1(第19回日本ロボット学会学術講演会(2001年9月18−20日)予稿集、P1279−1280)に示されている。
かかる距離算出では、基準テンプレートのセグメント領域Snが、実測時においてどの位置に変位したかを検出する必要がある。この検出は、実測時にCMOSイメージセンサ240上に照射されたDP光のドットパターンと、セグメント領域Snに含まれるドットパターンとを照合することによって行われる。
図5(a)〜(c)は、かかる検出の手法を説明する図である。図5(a)は、CMOSイメージセンサ240上における基準パターン領域を示す図であり、図5(b)は、実測時のCMOSイメージセンサ240上の受光状態を示す図であり、図5(c)は、実測されたDP光のドットパターンと、基準テンプレートのセグメント領域に含まれるドットパターンとの照合方法を説明する図である。
図5(a)のセグメント領域S1の実測時における変位位置を探索する場合、図5(b)に示すように、セグメント領域S1によって規定される領域が、X軸方向の所定の範囲(探索範囲)において1画素ずつ送られる。各送り領域(比較領域)において、基準テンプレートに記憶されているセグメント領域S1のドットパターンと、実測されたDP光のドットパターンのマッチング度合いが求められる。これは、上記のように、通常、基準テンプレートにより設定されたセグメント領域のドットパターンは、実測時において、X軸方向の所定の範囲内でのみ変位するためである。
上記マッチング度合いの検出時には、比較領域とセグメント領域S1との間の類似度が求められる。すなわち、セグメント領域S1の各画素の画素値と、比較領域に対応する画素の画素値との差分が求められる。そして、求めた差分を比較領域の全ての画素について加算した値Rsadが、類似度を示す値として取得される。
たとえば、図5(c)のように、一つのセグメント領域中に、m列×n行の画素が含まれている場合、セグメント領域のi列、j行の画素の画素値T(i,j)と、比較領域のi列、j行の画素の画素値I(i,j)との差分が求められる。そして、セグメント領域の全ての画素について差分が求められ、その差分の総和により、図5(c)に示す式により値Rsadが求められる。値Rsadが小さい程、セグメント領域と比較領域との間の類似度が高い。
セグメント領域S1について、探索範囲の全ての比較領域に対して値Rsadが求められると、求めた値Rsadの中から、閾値より小さいものが抽出される。閾値より小さい値Rsadが無ければ、セグメント領域S1の探索はエラーとされる。そして、抽出されたRsadの中で最も値が小さいものに対応する比較領域が、セグメント領域S1の移動領域であると判定される。
同様に、セグメント領域S1の右に隣接するセグメント領域についても、探索が行われる。こうして、基準パターン領域の最上段のセグメント領域について、順次ラインL1に沿って探索が行われる。また、他のライン上のセグメント領域も、上記と同様、そのライン上のセグメント領域についての探索が行われる。
実測時に取得されたDP光のドットパターンから、各セグメント領域の変位位置が探索されると、上記のように、その変位位置に基づいて、三角測量法により、各セグメント領域に対応する検出対象物体の部位までの距離が求められる。
ここで、本実施例のCMOSイメージセンサ240として、モノクロ用のイメージセンサ(以下、「モノクロ用センサ」という)が用いられる場合について説明する。
図6(a)、(b)は、モノクロ用センサの構成を示す模式図である。図6(a)は、モノクロ用センサの受光面全体を示す図であり、図6(b)は、モノクロ用センサの一部拡大図である。
モノクロ用センサの受光面には、図6(b)に示すように、複数の画素pが配置されている。各画素pは、光センサを備え、受光した光量に応じて信号(電荷)を出力する。
上述したように、受光光学系200に入射する光のうち、可視光はフィルタ230(図2参照)によりカットされる。また、目標領域において反射されたドットパターンのレーザ光は赤外光であるため、フィルタ230を透過する。このため、CMOSイメージセンサ240としてモノクロ用センサが用いられると、かかるモノクロ用センサは、目標領域において反射されたドットパターンのレーザ光の各ドットの光量に応じた信号を、各画素の信号として適正に出力することができる。
しかしながら、モノクロ用センサは生産量が少なく高価であるため、装置全体のコストが上昇するとの問題を生じる。そこで、本件出願の発明者は、CMOSイメージセンサ240として、高価なモノクロ用センサではなく、生産量が多く安価なカラー用のイメージセンサ(以下、「カラー用センサ」という)を用いることを考えた。CMOSイメージセンサ240として利用可能なカラー用センサとして、たとえば、既存の携帯電話機のカメラユニットに搭載されているカラー用センサや、ビデオカメラ、デジタルカメラのカメラユニットに搭載されているカラー用センサ等が挙げられる。
図6(c)〜(e)は、カラー用センサの構成を示す模式図である。図6(c)は、カラー用センサの受光面全体を示す図であり、図6(d)、(e)は、カラー用センサの一部拡大図である。
カラー用センサの受光面には、図6(d)に示すように、モノクロ用センサと同様、複数の画素pが配置されている。また、複数の画素pの光入射側には、図6(e)に示すように、赤色の波長帯域の光(以下、「R光」という)を透過するカラーフィルタFrと、緑色の波長帯域の光(以下、「G光」という)を透過するカラーフィルタFgと、青色の波長帯域の光(以下、「B光」という)を透過するカラーフィルタFbとが規則的に配置されている。各画素pには、カラーフィルタFr、Fg、Fbのうち何れか1つのカラーフィルタが対応している。
図7は、この場合のカラー用センサの分光特性を示す図である。横軸は、カラーフィルタに入射する光の波長を表し、縦軸は、カラーフィルタに対応する画素pの感度を表している。ここで、感度は、画素pから出力される電流(A)と、カラーフィルタに入射する光の光量(W)の比率で表される。図中、一点鎖線は、カラーフィルタが無い場合の感度を示し、モノクロ用センサが用いられる場合の感度に相当する。
なお、図7は、既存の携帯電話機のカメラユニットに用いられる汎用的なCMOSタイプのカラー用センサのうち、一つをサンプルとして評価したときの分光特性である。
図7に示すように、カラーフィルタFrは、波長650〜750nm程度の光(R光)が透過し易いように構成されている。カラーフィルタFgは、波長525〜575nm程度の光(G光)が透過し易いように構成されている。カラーフィルタFbは、波長450〜500nm程度の光(B光)が透過し易いように構成されている。
可視光がカラー用センサに入射すると、可視光に含まれるR光、G光、B光は、それぞれ、カラーフィルタFr、Fg、Fbのみを透過する。これにより、R光、G光、B光を検出する画素p(カラーフィルタFr、Fg、Fbに対応する画素p)から出力される信号(電荷)に基づいて、対象物体の形状と色が判別される。
しかしながら、CMOSイメージセンサ240として、モノクロ用センサの替わりに、このような分光特性を有するカラー用センサを用いるだけでは、以下に示すように、カラー用センサからドットパターンのレーザ光に応じた信号を適正に出力させることはできない。
図8(a)、(b)は、CMOSイメージセンサ240としてカラー用センサが用いられる場合の、ドットパターンのレーザ光を示す図である。図8(a)は、図6(e)に示すカラーフィルタFr、Fg、Fb上に照射されるドットを示す図であり、図8(b)は、画素p上に照射されるドットを示す図である。
たとえば、図2におけるレーザ光源110の出射波長帯域が、緑色の波長帯域の近傍にあり、フィルタ230が、緑色の波長帯域の光を透過するよう構成されていると仮定する。図8(a)、(b)には、このようにレーザ光源110(図2参照)がG光を出射する場合のドットの照射状態が例示されている。
この場合、たとえば、図8(a)に示すように、カラー用センサにG光のドットが3つ照射されると、カラーフィルタFg以外のカラーフィルタFr、Fbに照射されるドットはカラー用センサによって検出されなくなる。すなわち、G光は、カラーフィルタFr、Fbを略透過しないため、図8(a)に示すように3つのドットが照射されても、図8(b)の×印に示すように、そのうち2つのドットは画素pに届かなくなる。同様に、レーザ光源110が、R光またはB光を出射する場合も、R光またはB光を略透過しないカラーフィルタに照射されたドットは、画素pに届かないため、カラー用センサによって検出されなくなる。
なお、ここでは、レーザ光源110が、G光、R光またはB光を出射する場合について説明したが、たとえば、レーザ光源110の出射波長がG光とR光の間、または、B光とG光の間の波長帯域にある場合も、カラー用センサによるドットの検出が適正に行われなくなる。たとえば、レーザ光源110の出射波長がG光とR光の間の600nm程度である場合、図7に示すように、G光を検出する画素pの感度が小さくなり、また、B光を検出する画素pの感度はさらに一層小さくなる。このため、カラーフィルタFg、Fbの位置にドットが照射されると、このドットが適正に検出されない惧れがある。同様に、レーザ光源110出射波長が、赤外の波長帯域であっても、可視光に近い770nm程度であれば、G光、B光を検出する画素pの感度がかなり小さいため、カラーフィルタFg、Fbの位置にドットが照射されると、このドットが適正に検出されない惧れがある。
このように、CMOSイメージセンサ240としてカラー用センサが用いられる場合、レーザ光源110の出射波長によっては、ドットの検出漏れが生じ、ドットパターンのレーザ光を適正に検出することができなくなる。
そこで、本件出願の発明者は、カラー用センサが用いられても、ドットパターンのレーザ光を適正に検出することができるよう、以下に示すように、レーザ光源110の出射波長を設定した。
図7を参照して、上述したように、カラーフィルタFr、Fg、Fbは、それぞれ、R光、G光、B光を通し易いように構成されている。通常、カラー用センサは、人や風景を撮像するカメラユニットに搭載されるため、カラー用センサのカラーフィルタFr、Fg、Fbの特性は、人の目に視認される可視光に基づいて設定される。既存のカメラユニットでは、人の目に視認されない赤外光は、赤外除去フィルタ等によって除去される。このため、赤外の波長帯域におけるカラーフィルタFr、Fg、Fbの特性は、これまで、カラー用センサにおいて、さほど重要ではなかった。
本件出願の発明者は、このように用いられてきたカラー用センサについて、赤外の波長帯域の感度を検討・評価した。そして、サンプルとされた汎用的なカラー用センサにおいて、各カラーフィルタが、図7に示すように、波長830nm付近の光を略等しく透過することに注目した。図7に示すような分光特性を有するカラー用センサに、波長830nm付近の光が照射されると、この光は、各カラーフィルタを略等しく透過する。このため、かかるカラー用センサをCMOSイメージセンサ240として用い、且つ、レーザ光源110の出射波長を830nm程度に設定すると、上記のようなドットの検出漏れを抑制でき、ドットパターンのレーザ光を適正に検出することができる。
なお、発明者が既存の他のカラー用センサを評価したところ、このような分光特性は、大半の汎用的なカラー用センサに共通するものであった。すなわち、汎用的なカラー用センサは、可視光領域よりも長波長側において、R光を検出する画素の検出感度が次第に減少し、R光以外のG光およびB光を検出する画素の検出感度がそれぞれ極大値を持つ特性を有しており、この極大値を与える波長の近傍の波長帯域において、各画素の検出感度が互いに略揃っていた。また、可視光領域よりも長波長側において、G光およびB光を検出する画素の検出感度が極大値となる波長は、830nm近傍であった。
図9(a)〜(c)は、図7とは異なる他のカラー用センサ(互いにメーカが異なる)の分光特性を示す図である。図9(b)の縦軸は、画素pから出力される電圧(V)と、カラーフィルタに入射する光の光量(W)の比率により表される感度を示している。図9(c)の縦軸は、各カラーフィルタの感度の相対値を示している。図9(a)〜(c)に示す何れのカラー用センサにおいても、波長830nm近傍において感度が略等しくなっている。なお、図9(b)の分光特性では、G光およびB光を検出する画素の検出感度が極大値となる波長が互いに10nm程度ずれている。これに対し、図9(a)、(c)の分光特性では、G光およびB光を検出する画素の検出感度が極大値となる波長が略一致している。
本件出願の発明者は、このようなカラー用センサの分光特性を考慮して、CMOSイメージセンサ240としてカラー用センサを用いる場合に、レーザ光源110が出射するレーザ光の波長を、830nm程度に設定した。
具体的には、レーザ光源110の出射波長は、装置が使用される環境温度の中心となる温度に使用時に上昇する温度を加えた“基準温度”において、目標となる値となるように設定される。たとえば、装置が使用される環境温度が0〜50度であり、使用時に上昇する温度が10度程度であると、基準温度は(50/2)+10=35度となる。この場合、レーザ光の出射波長は、基準温度の35度において830nmとなるように設定される。なお、環境温度の変動により出射波長の変化が問題となる場合、レーザ光源110の近傍に、レーザ光源110の温度を基準温度に維持するための温度調整素子を配置するようにしても良い。また、ここでは、基準温度が上記のように設定されたが、他の方法により基準温度が設定されても良い。たとえば、装置が使用される環境温度の中心となる温度に基準温度が設定されても良く、あるいは、装置が使用される環境温度内の何れかの温度に基準温度が設定されても良い。
図8(c)、(d)は、CMOSイメージセンサ240としてカラー用センサが用いられ、上記のようにレーザ光の波長が設定された場合の、カラーフィルタFr、Fg、Fb上のドットパターンと、画素p上のドットパターンを示す図である。
この場合、たとえば、図6(e)に示すカラーフィルタに対して、図8(c)に示すようにドットが3つ照射されると、カラーフィルタFr、Fg、Fbに照射されるドットは全て検出され得る。すなわち、波長830nmのレーザ光は、図7に示すように、カラーフィルタFr、Fg、Fbを略等しく透過するため、図8(c)に示すように照射された全てのドットは、図8(d)に示すように画素pにより受光され得る。
以上、本実施の形態によれば、CMOSイメージセンサ240として安価かつ汎用的なカラー用センサが用いられるため、CMOSイメージセンサ240として高価なモノクロ用センサが用いられる場合に比べて、装置全体のコストを低減することができる。
また、本実施の形態によれば、レーザ光源110が出射するレーザ光の波長が830nm程度に設定されるため、ドットパターンのレーザ光をCMOSイメージセンサ240により適正に検出することができる。また、このようにレーザ光の波長が設定されると、図7の“カラーフィルタ無し”に示すように、カラー用センサのカラーフィルタFr、Fg、Fbが無い場合と略同じ感度を実現することができる。これにより、CMOSイメージセンサ240の検出信号におけるS/N比を高く維持することができる。
なお、上記実施の形態では、レーザ光源110が出射するレーザ光の波長が、830nm程度に設定されたが、これに限らず、レーザ光の波長は、赤外の波長帯域で、且つ、各色のカラーフィルタに対応する画素pの感度が極大値付近となるよう設定されれば良い。
たとえば、CMOSイメージセンサ240として用いられるカラー用センサの分光特性が図7および図9に示すものである場合、各色光を検出する画素pの検出感度は、810〜870nmの波長帯域において高く維持される。よって、レーザ光源110の出射波長は、810〜870nm程度に設定するのが望ましい。
さらに好ましくは、レーザ光源110の出射波長は、830nm近傍(830±10nm)に設定するのが望ましい。こうすると、G光、B光を検出する画素pの感度を赤外の波長帯域において略極大値とすることができ、R光を検出する画素pの感度もこれと同程度となる。このように各色光を検出する画素pの検出感度が略同じであれば、カラー用センサからの出力信号に対するゲインを色毎に調整する必要がない。また、このように、感度が略極大値となる波長帯域にレーザ光源110の出射波長が設定されると、温度変化によりレーザ光の出射波長が変動しても、感度が急激に低下することがない。よって、安定した検出動作を実現することができる。
なお、図9(b)のように、G光およびB光を検出する画素pの検出感度が極大値となる波長が互いにずれている場合、何れか一方の極大値を与える波長の近傍にレーザ光源110の波長を設定しても良い。このようにしても、各極大値を与える波長は10nm程度しかずれていないため、他方の極大値を与える色に対する検出感度もまた、高く維持される。
以上、本発明の実施の形態について説明したが、本発明は、上記実施の形態に何ら制限されるものではなく、また、本発明の実施の形態も上記の他に種々の変更が可能である。
たとえば、上記実施の形態では、ドットパターンを受光するセンサとして、カラー用センサからなるCMOSイメージセンサ240を用いたが、これに替えて、カラー用センサからなるCCDイメージセンサを用いることもできる。さらに、投射光学系100および受光光学系200の構成も、適宜変更可能である。また、情報取得装置1と情報処理装置2は一体化されてもよいし、情報取得装置1と情報処理装置2がテレビやゲーム機、パーソナルコンピュータと一体化されてもよい。
また、上記実施の形態では、目標領域に照射されるレーザ光の波長帯以外の波長帯の光を除去するためにフィルタ230が配された。しかしながら、目標領域に照射されるレーザ光以外の光の信号成分を、CMOSイメージセンサ240から出力される信号から除去する回路構成が配されるような場合には、フィルタ230を省略することができる。
また、上記実施の形態では、CMOSイメージセンサ240として用いられるカラー用センサは、R光、G光、B光を透過するカラーフィルタFr、Fg、Fbを有していた。しかしながら、これに替えて、かかるカラー用センサが、シアン色の光と、マゼンタ色の光と、イエロー色の光を透過するカラーフィルタを有していても良い。このようなカラーフィルタを有するカラー用センサが、図7、9に示すような分光特性を示す場合も、上記実施の形態と同様、分光特性を考慮してレーザ光の波長が設定されれば、ドットパターンのレーザ光を適正に受光することができる。
また、上記実施の形態では、投射光学系100から目標領域に対してドットパターンのレーザ光が投射され、セグメント領域に含まれるドットパターンのずれ量に基づいて、目標領域における物体の3次元距離情報が取得された。しかしながら、これに限らず、レーザ光源110の出射タイミングと、画素pにおける当該レーザ光の受光タイミングの時間差により、情報取得装置1から目標領域における物体の3次元距離情報が取得されるよう、情報取得装置1が構成されても良い。
本発明の実施の形態は、特許請求の範囲に示された技術的思想の範囲内において、適宜、種々の変更が可能である。
1 … 情報取得装置
2 … 情報処理装置(物体検出装置)
100 … 投射光学系(投射部)
110 … レーザ光源
140 … DOE(回折光学素子)
200 … 受光光学系(受光部)
230 … フィルタ
240 … CMOSイメージセンサ(カラーイメージセンサ)
p … 画素

Claims (9)

  1. レーザ光を出射するレーザ光源と、
    前記レーザ光源から出射された前記レーザ光を目標領域に投射する投射部と、
    前記目標領域から反射された前記レーザ光を受光する受光部と、を備え、
    前記受光部は、前記目標領域から反射された前記レーザ光が入射するカラーイメージセンサを有し、
    前記カラーイメージセンサは、可視光領域よりも長波長側において、所定の色の光を検出する画素の検出感度が次第に減少し、前記色以外の残りの色の光を検出する画素の検出感度がそれぞれ極大値を持つ特性を有し、前記極大値を与える波長の近傍の波長帯域において前記各画素の検出感度が互いに略揃い、
    前記レーザ光源の出射波長が、前記波長帯域内の波長に設定されている、
    ことを特徴とする情報取得装置。
  2. 請求項1に記載の情報取得装置において、
    前記レーザ光源の出射波長が、810〜870nmの範囲において設定されている、
    ことを特徴とする情報取得装置。
  3. 請求項2に記載の情報取得装置において、
    前記レーザ光源の出射波長が、830±10nmの範囲において設定されている、
    ことを特徴とする情報取得装置。
  4. 請求項3に記載の情報取得装置において、
    前記レーザ光源の出射波長が、830nmに設定されている、
    ことを特徴とする情報取得装置。
  5. 請求項1ないし4の何れか一項に記載の情報取得装置において、
    前記レーザ光源の出射波長が、前記残りの色のうち一つの色の光を検出する画素の検出感度が極大値となる波長の近傍に設定されている、
    ことを特徴とする情報取得装置。
  6. 請求項1ないし5の何れか一項に記載の情報取得装置において、
    前記投射部は、前記レーザ光源から出射された前記レーザ光を回折によりドットパターンの光に変換する回折光学素子を備え、
    前記受光部は、前記投射部に対して所定の距離だけ離れて並ぶように配置される、
    ことを特徴とする情報取得装置。
  7. 請求項1ないし6の何れか一項に記載の情報取得装置において、
    前記受光部は、前記レーザ光源の出射波長を含む波長帯域の光のみを前記カラーイメージセンサに導くためのフィルタをさらに備える、
    ことを特徴とする情報取得装置。
  8. 請求項1ないし7の何れか一項に記載の情報取得装置において、
    前記カラーイメージセンサは、赤色、緑色および青色の光を検出する画素を有する、
    ことを特徴とする情報取得装置。
  9. 請求項1ないし8の何れか一項に記載の情報取得装置を有する物体検出装置。
JP2013525671A 2011-07-22 2012-07-17 情報取得装置および物体検出装置 Pending JPWO2013015145A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013525671A JPWO2013015145A1 (ja) 2011-07-22 2012-07-17 情報取得装置および物体検出装置

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2011161219 2011-07-22
JP2011161219 2011-07-22
JP2011184171 2011-08-25
JP2011184171 2011-08-25
JP2013525671A JPWO2013015145A1 (ja) 2011-07-22 2012-07-17 情報取得装置および物体検出装置

Publications (1)

Publication Number Publication Date
JPWO2013015145A1 true JPWO2013015145A1 (ja) 2015-02-23

Family

ID=47600995

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013525671A Pending JPWO2013015145A1 (ja) 2011-07-22 2012-07-17 情報取得装置および物体検出装置

Country Status (4)

Country Link
US (1) US20140132956A1 (ja)
JP (1) JPWO2013015145A1 (ja)
CN (1) CN103597316A (ja)
WO (1) WO2013015145A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150010230A (ko) * 2013-07-18 2015-01-28 삼성전자주식회사 단일 필터를 이용하여 대상체의 컬러 영상 및 깊이 영상을 생성하는 방법 및 장치.
CN105068139B (zh) * 2015-08-24 2017-11-14 中国第一汽车股份有限公司 一种活塞冷却喷嘴安装状态的检测工艺
KR102050632B1 (ko) 2017-08-02 2019-12-03 주식회사 에스오에스랩 다채널 라이다 센서 모듈
KR102059244B1 (ko) * 2017-12-20 2019-12-24 주식회사 에스오에스랩 라이다 장치

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04115661A (ja) * 1990-08-31 1992-04-16 Konica Corp カラー画像読取り方法およびカラー画像形成装置
JP4286123B2 (ja) * 2003-12-22 2009-06-24 三洋電機株式会社 カラー撮像素子およびカラー信号処理回路
JP3782815B2 (ja) * 2004-02-04 2006-06-07 住友大阪セメント株式会社 呼吸解析装置
JP2006049995A (ja) * 2004-07-30 2006-02-16 Ricoh Co Ltd 画像読み取り装置及び画像形成装置
JP2006068047A (ja) * 2004-08-31 2006-03-16 Sanyo Electric Co Ltd 生体情報取得装置および生体情報取得方法
JP4892909B2 (ja) * 2005-09-22 2012-03-07 ソニー株式会社 信号処理方法、信号処理回路およびこれを用いたカメラシステム
JP4939901B2 (ja) * 2006-11-02 2012-05-30 富士フイルム株式会社 距離画像生成方法及びその装置
JP4971816B2 (ja) * 2007-02-05 2012-07-11 三洋電機株式会社 撮像装置
WO2008149923A1 (ja) * 2007-06-07 2008-12-11 The University Of Electro-Communications 物体検出装置とそれを適用したゲート装置
US8259203B2 (en) * 2007-12-05 2012-09-04 Electro Scientific Industries, Inc. Method and apparatus for achieving panchromatic response from a color-mosaic imager
JP2009204991A (ja) * 2008-02-28 2009-09-10 Funai Electric Co Ltd 複眼撮像装置
JP5178396B2 (ja) * 2008-08-21 2013-04-10 キヤノン株式会社 撮像装置
JP5251419B2 (ja) * 2008-10-22 2013-07-31 日産自動車株式会社 距離計測装置および距離計測方法
US20120056982A1 (en) * 2010-09-08 2012-03-08 Microsoft Corporation Depth camera based on structured light and stereo vision

Also Published As

Publication number Publication date
CN103597316A (zh) 2014-02-19
US20140132956A1 (en) 2014-05-15
WO2013015145A1 (ja) 2013-01-31

Similar Documents

Publication Publication Date Title
WO2012137674A1 (ja) 情報取得装置、投射装置および物体検出装置
US20130050710A1 (en) Object detecting device and information acquiring device
JP5138116B2 (ja) 情報取得装置および物体検出装置
JP5143312B2 (ja) 情報取得装置、投射装置および物体検出装置
JP5214062B1 (ja) 情報取得装置および物体検出装置
WO2013015145A1 (ja) 情報取得装置および物体検出装置
WO2013046927A1 (ja) 情報取得装置および物体検出装置
JP2012237604A (ja) 情報取得装置、投射装置および物体検出装置
US20120327310A1 (en) Object detecting device and information acquiring device
US20120326007A1 (en) Object detecting device and information acquiring device
WO2012144340A1 (ja) 情報取得装置および物体検出装置
JP2014052307A (ja) 情報取得装置および物体検出装置
WO2013015146A1 (ja) 物体検出装置および情報取得装置
JP2014085257A (ja) 情報取得装置および物体検出装置
WO2013046928A1 (ja) 情報取得装置および物体検出装置
JP2013246009A (ja) 物体検出装置
WO2013031447A1 (ja) 物体検出装置および情報取得装置
US8351042B1 (en) Object detecting device and information acquiring device
JP2014062796A (ja) 情報取得装置および物体検出装置
JP2014085282A (ja) 情報取得装置および物体検出装置
WO2013031448A1 (ja) 物体検出装置および情報取得装置
JP2014106000A (ja) 情報取得装置および物体検出装置
JP2014163830A (ja) 情報取得装置および物体検出装置
KR20140132044A (ko) 영상 획득 장치 및 이의 영상 획득 방법
JP2013234887A (ja) 情報取得装置および物体検出装置