JP6302414B2 - 複数の光源を有するモーションセンサ装置 - Google Patents

複数の光源を有するモーションセンサ装置 Download PDF

Info

Publication number
JP6302414B2
JP6302414B2 JP2014550586A JP2014550586A JP6302414B2 JP 6302414 B2 JP6302414 B2 JP 6302414B2 JP 2014550586 A JP2014550586 A JP 2014550586A JP 2014550586 A JP2014550586 A JP 2014550586A JP 6302414 B2 JP6302414 B2 JP 6302414B2
Authority
JP
Japan
Prior art keywords
luminance
image
image sensor
distance
light source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014550586A
Other languages
English (en)
Other versions
JPWO2014174779A1 (ja
Inventor
渕上 竜司
竜司 渕上
忠則 手塚
忠則 手塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Panasonic Intellectual Property Corp of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Corp of America filed Critical Panasonic Intellectual Property Corp of America
Publication of JPWO2014174779A1 publication Critical patent/JPWO2014174779A1/ja
Application granted granted Critical
Publication of JP6302414B2 publication Critical patent/JP6302414B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • G01C3/08Use of electric radiation detectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • G01S17/48Active triangulation systems, i.e. using the transmission and reflection of electromagnetic waves other than radio waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination

Description

本願は、複数の光源を備えたモーションセンサ装置に関する。
特許文献1は、静止または運動中の物体(対象物)に対して複数の光源から時分割で投光し、1つのイメージセンサによって取得した複数の画像に基づいて対象物までの距離を測定する技術を開示している。
非特許文献1は、近赤外線を用いて人間の手を検出する手振りインターフェースシステムを開示している。非特許文献1には、人間の肌では970nmの波長の赤外線よりも870nmの波長の赤外線の方が反射率が高いことが記載されている。
特開2001−12909号公報
竹内麻梨子、加藤邦人、山本和彦、"近赤外肌検出を用いた手振りインターフェースシステムの構築"、社団法人映像情報メディア学会技術報告、ITE Technical Report Vol.34、No.34 ME2010−122(Aug.2010)
従来の技術には、対象物の位置によっては測定された距離の精度または感度が低下するという問題がある。本開示の実施形態は、この問題を解決し得る新しいモーションセンサ装置を提供する。
本開示のモーションセンサ装置は、ある態様において、イメージセンサと、第1、第2、および第3の光源と、前記イメージセンサおよび前記第1から第3の光源を制御するように構成された制御部とを備える。前記制御部は、第1の時間で前記第1の光源を発光させながら前記イメージセンサで第1のフレームの撮像を行い、第2の時間で前記第2の光源を発光させながら前記イメージセンサで第2のフレームの撮像を行い、第3の時間で前記第3の光源を発光させながら前記イメージセンサで第3のフレームの撮像を行い、前記第1のフレームの撮像によって取得した第1の画像から得られる対象物の輝度と、前記第2のフレームの撮像によって取得した第2の画像から得られる前記対象物の輝度との比に基づいて、第1の推定距離情報を生成し、前記第1の画像から得られる前記対象物の輝度と、前記第3のフレームの撮像によって取得した第3の画像から得られる前記対象物の輝度との比に基づいて、第2の推定距離情報を生成し、前記第1の推定距離情報と前記第2の推定距離情報とを、選択または合成することにより、前記対象物までの距離情報を得るように構成されている。
本開示の他の態様に係るモーションセンサ装置は、第1の波長の光、および前記第1の波長とは異なる第2の波長の光を検出可能なイメージセンサと、前記第1の波長の光を出射する第1および第2の光源と、前記第2の波長の光を出射する第3および第4の光源と、前記イメージセンサおよび前記第1から第4の光源を制御するように構成された制御部と、を備える。前記制御部は、第1の時間で前記第1および第4の光源を発光させながら前記イメージセンサで第1のフレームの撮像を行い、第2の時間で前記第2および第3の光源を発光させながら前記イメージセンサで第2のフレームの撮像を行い、前記第1のフレームの撮像によって取得した第1の画像から得られる対象物の前記第1の波長の成分の輝度と、前記第2のフレームの撮像によって取得した第2の画像から得られる前記対象物の前記第1の波長の成分の輝度との比から、第1の推定距離情報を取得し、前記第1の画像から得られる前記対象物の前記第2の波長の成分の輝度と、前記第2の画像から得られる前記対象物の前記第2の波長の成分の輝度との比から、第2の推定距離情報を取得し、前記第1の推定距離情報と前記第2の推定距離情報とを、選択または合成することにより、前記対象物までの距離情報を得るように構成されている。
本開示の他の態様に係るモーションセンサ装置は、イメージセンサと、第1、第2、および第3の光源と、前記イメージセンサおよび前記第1から第3の光源を制御するように構成された制御部と、を備える。前記制御部は、第1の時間で前記第1の光源を発光させながら前記イメージセンサで第1のフレームの撮像を行い、第2の時間で前記第2の光源を発光させながら前記イメージセンサで第2のフレームの撮像を行い、第3の時間で前記第3の光源を発光させながら前記イメージセンサで第3のフレームの撮像を行い、前記第1のフレームの撮像によって取得した第1の画像から得られる対象物の輝度を第1の輝度、前記第2のフレームの撮像によって取得した第2の画像から得られる前記対象物の輝度を第2の輝度、前記第3のフレームの撮像によって取得した第3の画像から得られる対象物の輝度を第3の輝度とするとき、前記制御部は、前記第1の輝度と前記第3の輝度とを合成または選択することによって得られる第4の輝度と、前記第2の輝度との比に基づいて、前記対象物までの距離情報を得るように構成されている。
本開示の他の態様に係るモーションセンサ装置は、第1の波長の光、および前記第1の波長とは異なる第2の波長の光を検出可能なイメージセンサと、前記第1の波長の光を出射する第1および第2の光源と、前記第2の波長の光を出射する第3および第4の光源と、前記イメージセンサおよび前記第1から第4の光源を制御するように構成された制御部と、を備える。前記制御部は、第1の時間で前記第1および第4の光源を発光させながら前記イメージセンサで第1のフレームの撮像を行い、第2の時間で前記第2および第3の光源を発光させながら前記イメージセンサで第2のフレームの撮像を行い、前記第1のフレームの撮像によって取得した第1の画像から得られる対象物の前記第1の波長の成分の輝度を第1の輝度、前記第2のフレームの撮像によって取得した第2の画像から得られる前記対象物の前記第1の波長の成分の輝度を第2の輝度、前記第1の画像から得られる前記対象物の前記第2の波長の成分の輝度を第3の輝度、前記第2の画像から得られる前記対象物の前記第2の波長の成分の輝度を第4の輝度とするとき、前記制御部は、前記第1の輝度と前記第2の輝度とを選択または合成することによって得られる第5の輝度と、前記第3の輝度と前記第4の輝度とを選択または合成することによって得られる第6の輝度との比に基づいて、前記対象物までの距離情報を得るように構成されている。
本開示の電子装置は、上記のモーションセンサ装置と、前記モーションセンサ装置によって検出された対象物の運動に応答して表示内容を変化させるディスプレイとを備える。
本開示の集積回路は、上記のモーションセンサ装置に使用される集積回路であって、前記イメージセンサおよび前記光源に接続され、露光及び発光のタイミングを制御するタイミング制御部と、撮像データを処理し、相対的に輝度の高い領域を探索する極値探索部と、前記極値探索部で探索された領域の座標と輝度を格納する座標メモリと、前記座標メモリのデータから、同一領域から異なる条件で撮影したフレームを選び出して、輝度比を用いて推定距離情報を算出する距離算出部とを備える。
本開示の距離推定方法は、上記のモーションセンサ装置による距離計算方法であって、撮像フレームのデータから相対的に光強度の高い領域を選択的に選び出し、その座標と光強度を算出する極値探索ステップと、前記極値探索ステップで選び出された輝度のうち、異なる条件で撮影したフレーム同士から選び出された輝度の比を算出する輝度比算出ステップと、前記輝度比算出ステップで算出された輝度比と、前記極値探索ステップで探索された座標とを用いて、距離に換算する距離換算ステップとを含む。
本開示のコンピュータプログラムは、上記のモーションセンサ装置を動作させるコンピュータプログラムであって、前記モーションセンサ装置に、撮像フレームのデータから相対的に光強度の高い領域を選択的に選び出し、その座標と光強度を算出する極値探索ステップと、前記極値探索ステップで選び出された輝度のうち、異なる条件で撮影したフレーム同士から選び出された輝度の比を算出する輝度比算出ステップと、前記輝度比算出ステップで算出された輝度比と、前記極値探索ステップで探索された座標とを用いて、距離に換算する距離換算ステップとを実行させる。
本開示のモーションセンサ装置の実施形態は、距離測定の誤りの発生を抑制することができる。
2個の光源を備えるモーションセンサ装置の断面を模式的に示す図 図1Aの装置の上面図 LED光源の放射角と相対放射強度との関係を示すグラフ LED光源の放射角を示す図 第1のLED光源102から放射された光で対象物104が照射される様子を示す図 第2のLED光源103から放射された光で対象物104が照射される様子を示す図 撮像データの1ラインの画素位置と輝度との関係を示すグラフ ある放射角における輝度比と距離との関係を示すグラフ 第1のLED光源102から放射された光で僅かに移動した対象物104が照射される様子を示す図 第2のLED光源103から放射された光で僅かに移動した対象物104が照射される様子を示す図 2個の光源を備えるモーションセンサ装置の感度領域を模式的に示す図 本開示の実施形態1における光源装置とイメージセンサの配置図 本開示の実施形態1における光源及びイメージセンサのタイミングチャート 本開示の実施形態1における低感度領域を示す図 本開示の実施形態1におけるモーションセンサ装置の構成図 本開示の実施形態1におけるモーションセンサ装置の構成例を示すブロック図 本開示の実施形態1における距離計算手順のフローチャート 本開示の実施形態1の他の配置例を示す上面図 本開示の実施形態1のさらに他の配置例を示す上面図 本開示の実施形態2の光源装置とイメージセンサの配置図 本開示の実施形態2の光源及びイメージセンサのタイミングチャート 本開示の実施形態2における低感度領域を示す図 本開示の実施形態2におけるイメージセンサの感度特性を示す図 本開示の実施形態1のモーションセンサ装置を製品に組み込んだ例を示す図
本開示によるモーションセンサ装置によって対象物(被写体)までの距離を測定することができる基本原理を説明する。
まず、図1Aおよび図1Bを参照する。図1Aは、モーションセンサ装置の断面を模式的に示す図であり、図1Bは、図1Aの上面図である。
図1Aおよび図1Bに示されている装置は、中央に位置するイメージセンサ101と、イメージセンサ101の両側に位置する2個のLED光源102、103とを備えている。図示されている例では、イメージセンサ101およびLED光源102、103は、1個の基板100に搭載されている。イメージセンサは、多数の微細な光検知セル(フォトダイオード)が行および列状に配列された固体撮像素子であり、典型的にはCCD(Charge Coupled Device)型またはCMOS型である。
図1Aには、第1の光源102から出た光102aと第2の光源103から出た光103aとが模式的に示されている。この装置は、LED光源102、103を交互に点灯させながら、撮像を行うことにより、計測対象物体(対象物)までの距離を測定することができる。なお、「距離の測定」は、イメージセンサから対象物までの距離の推定値、あるいは、空間内の対象物の位置の推定値を求めることを含む。対象物には、例えば、人の手、指、人が持つペンなどが含まれ得る。対象物は移動してもよい。高速で移動しつつある人の指先までの距離、または指先の位置の推定値をリアルタイムで取得することができる3次元モーションセンサ装置は、コンピュータ、タブレット端末、スマートフォン、ゲーム機器、および家電機器を含む多様な電子機器の「入力デバイス」として使用され得る。
図2は、LED光源102、103の各々から出た光の放射パターン(配光特性)を表すグラフである。グラフの横軸は、図3に示されるように、放射の方向が基板100の法線方向Nに対して形成する角度θである。グラフの縦軸は、相対放射強度である。以下、放射の角度θを「放射角」と称する場合がある。なお、相対放射強度の値は、光源から特定角度の方向に離れた位置に置かれた対象物の照度(放射照度)に対応している。
図2からわかるように、LED光源102、103の各々から出た放射は、角度θが0°のとき、最も高い強度を示す。図2の例において、LED光源102、103は、その放射強度がI0×cosθで近似できるような配光特性を示している。LED光源102、103の配光特性は、図2の例に限定されない。また、LED光源102、103から出る放射は、可視光に限定されず、赤外線のように人間の視覚によって感じとれない波長域の電磁波であってもよい。本明細書では、簡単のため、光源から出る放射を単に「光」と称する場合がある。この「光」の用語は、可視光に限定されず、イメージセンサで検出可能な電磁波を広く含むものとする。
次に、上記の装置で対象物までの距離を測定する方法を説明する。
まず、図4Aおよび図4Bを参照する。図4Aには、第1のLED光源102から放射された光で対象物104が照射され、対象物104で反射された光の一部がイメージセンサ101に入射する様子が示されている。一方、図4Bには、第2のLED光源103から放射された光で対象物104が照射され、対象物104で反射された光の一部がイメージセンサ101に入射する様子が示されている。対象物104の位置は、図4Aおよび図4Bで実質的に同じであるとする。
この装置によれば、第1の時刻において、図4Aに示すように、LED光源102を点灯し、LED光源103を消灯させた状態でイメージセンサ101による第1の撮像を行う。次に、第2の時刻において、図4Bに示されるように、LED光源103を点灯し、LED光源102を消灯させた状態でイメージセンサ101による第2の撮像を行う。第1および第2の撮像の各々の期間(露光時間)は、対象物104が実質的に停止していると扱える程度に十分に短いと仮定する。
第1の撮像を行うとき、LED光源102から出た光の一部が対象物104によって反射されてイメージセンサ101に入射するため、イメージセンサ101に入射する光の強度に応じた輝度画像が得られる。同様に、第2の撮像を行うときは、LED光源103から出た光の一部が対象物104によって反射されてイメージセンサ101に入射するため、イメージセンサ101に入射する光の強度に応じた輝度画像が得られる。
第1および第2の撮像によって取得した2フレームの画像の各々に基づいて、対象物104の輝度(輝度分布または輝度像)を求めることができる。なお、本明細書における「輝度」とは、[カンデラ/m2]の単位を有する心理物理量ではなく、イメージセンサの画素ごとに定まる「相対輝度」であり、光量または放射量に相当する。各フレームの画像を構成する各画素は、受光量に応じた「輝度値」を有する。
対象物104には大きさがあるため、各画像における対象物104の像は、通常、複数の画素によって構成される。対象物104の「輝度」は、対象物104の像を構成する複数の画素の輝度値から種々の方法によって決定することができる。対象物104の像のうち、最も明るい「画素」または「画素ブロック」の輝度を対象物104の輝度とすることも可能であるし、対象物104の像を構成する全ての画素の平均輝度を対象物104の輝度とすることもできる。
図5は、上述の方法で取得した2フレームの画像の各々において、対象物104の像を横切る一本の水平ラインの輝度値を示すグラフである。横軸が画像内の特定の水平ライン上における画素位置であり、縦軸は輝度である。グラフ中の曲線301はLED光源102が点灯しているときの輝度であり、曲線302はLED光源103が点灯しているときの輝度である。
図5の例では、曲線301および曲線302は、それぞれ、単峰性のピークを有している。すなわち、曲線301は、ある画素位置で極値303を示し、曲線302は、他の画素位置で極値304を示している。曲線301の極値303と曲線302の極値304との間の水平方向の座標間隔は、幅305によって示されている。
前述したように、2フレームの間に対象物104は実質的に静止している。したがって、曲線301と曲線302との間にある相違は、LED光源102が作る放射のパターンとLED光源103が作る放射のパターンとが異なることに起因している。LED光源102から出た光が対象物104で反射されてイメージセンサ101に入射して取得される像の輝度と、LED光源103から出た光が対象物104で反射されてイメージセンサ101に入射して取得される像の輝度との比率は、LED光源102から対象物104までの距離とLED光源103から対象物104までの距離との関係に依存する。
撮影画像の輝度比から、物体の距離が計測できる。図6は、イメージセンサ101から45度の角度の方向における距離と輝度比との関係の一例を示すグラフである。図6のグラフは、図2の特性を示すLED光源をイメージセンサ101から左右に所定の距離だけ離して配置した場合において、横軸に対象物までの相対的な距離、縦軸に輝度比を示している。横軸の「距離」は、イメージセンサ101とLED光源との距離を基準としており、「1」の距離は、イメージセンサ101とLED光源との距離に等しい大きさを意味している。
対象物の輝度(または照度)は、LED光源から対象物までの距離の二乗に反比例して減衰する。このため、距離に応じて輝度の比は変化する。図2に示す放射特性が既知であるため、この放射特性に基づけば、精度の高い距離の検出または推定が可能となる。
図6は、放射角θが45度のときの距離と輝度比との関係の一例であるが、異なる複数の角度について、同様に距離と輝度比との関係を事前に得ることができる。対象物の角度は、イメージセンサで取得される対象物の撮像位置に基づいて求めることができる。
図6からわかるように、対象物体とイメージセンサとの距離が概ね1より離れている場合、極値303と極値304の比から距離を計測できる。
上記の例では、放射角に応じて相対放射強度が変化する光源を用いている。しかし、この測定方法は、このような特性を有しない光源を用いても可能である。平行光線を発する光源以外であれば、光強度は3次元空間内で何らかの配光特性を示すため、そのような光源も距離測定に利用可能である。例えば、配光が等方的な「点光源」でも、対象物上の照度および輝度は、光源からの距離の2乗に反比例して減衰するため、3次元空間的に異なる輻射パターンを持つ光源と言える。
次に、図7Aおよび図7Bを参照する。これらの図は、図4Aおよび図4Bに示される位置から移動した対象物104に対する撮像を行う様子を示している。高速な撮像および距離の推定を行うことができれば、移動する対象物に対しても、前述した方法で距離の測定が可能である。光源102、103による交互の照明とイメージセンサ101による撮像を繰り返すことにより、移動する対象物104の位置を検出することができる。その結果、対象物104の位置の変化、または運動を検知することが可能になる。
本発明者によると、上述した装置では、2個のLED光源102、103の各々から対象物104までの距離が等しくなる領域において、距離の測定精度が低下することがわかった。本明細書では、このような領域を「低感度領域」と称することにする。また、図6のグラフの横軸に示す距離が1以下のとき、距離が短くなるほど輝度比が上昇するため、輝度比だけでは、対象物体までの距離が1以下の「至近距離領域」にあるのか否かを判別できない。
図8は、上記の装置による低感度領域を模式的に示す図である。図8には、距離が短すぎて発生する低感度領域504と、距離に関わらず輝度比が1に近くなることによって発生する低感度領域505とが示されている。
以下に説明する本開示の各実施形態によれば、これらの低感度領域で計測結果が不安定になることを抑制することが可能になる。
(実施形態1)
本開示によるモーションセンサ装置の第1の実施形態を説明する。本実施形態のモーションセンサ装置は、3個の光源を備える。
図9Aは、3個の光源(第1の光源102、第2の光源103、第3の光源104)を備えるモーションセンサ装置における光源の配置構成例を模式的に示す図である。図9Bは、このモーションセンサ装置における光源とイメージセンサの制御タイミングを示すタイムチャートである。まず、図9Aおよび図9Bを参照しながら、本実施形態の構成によれば低感度領域で計測結果が不安定になる問題を解決できる理由を説明する。
図9Bに示される期間802、803、804は、それぞれ、LED光源102、103、104が点灯する期間に相当する。第1の露光期間805、第2の露光期間806、第3の露光期間807は、それぞれ、イメージセンサ101による第1フレーム、第2フレーム、第3フレームの撮像に対応する。図9Bのタイムチャートでは、LED光源102、103、104は、この順序で点灯しているが、点灯の順序は任意である。ただし、LED光源102の点灯期間を3つの光源の点灯期間の中央に設定すれば、対象物の動きに起因する測定精度の低下を抑制できるという効果がある。
通常のイメージセンサは1回の露光により1フレームの撮像を行い、得られた画像データを外部に読み出してから次のフレームの撮像を行う。すなわち、フレームごとに画像データの読み出し動作が実行される。そのようなイメージセンサによると、第nフレーム(nは整数)における露光が終了した後、第n+1のフレームの露光を開始するまでの間に、第nフレームの撮像によって得られた全部の電荷を転送して外部に出力する動作のための時間を要する。
しかし、本実施形態では、図9Bに示されるように、第1の露光期間805のあと、すぐに第2の露光期間806が始まる。第1の露光期間805において第1フレームの撮像が行われて生じた各画素の電荷は、第2の露光期間806が始まる前に記憶部に移され、その記憶部に蓄積される。また、第2の露光期間806のあと、すぐに第3の露光期間807が始まる。第2の露光期間806において第2フレームの撮像が行われて生じた各画素の電荷は、第3の露光期間807が始まる前に別の記憶部に移され、その記憶部に蓄積される。その後、これらの記憶部に蓄積されていた電荷および第3の露光期間807に発生した電荷の信号が期間Ttに読み出され、外部に出力される。
本実施形態では、第1〜第3の露光期間の各長さを「Te」とするとき、「3×Te+Tt」に等しい長さTfの逆数(1/Tf)で決まるレートで、3枚のフレーム画像のデータが読み出される。
時間Ttは、画素数にも依存するが、データ転送レートを考慮して、例えば20ミリ秒程度の大きさに設定され得る。一方、時間Teは、1ミリ秒以下の短い期間、例えば25マイクロ秒に設定され得る。3枚のフレームの撮像を短い期間内に連続して実行すれば、対象物が人の指先のように高速に移動する場合でも、距離計測を行うことが可能になる。例えば3×Teが75マイクロ秒の場合、対象物が1メートル/秒の速度で移動しても、第1〜第3の撮像中に対象物は0.075ミリメートルしか移動しない。一方、通常のフレームレート(例えば60フレーム/秒)で撮像を行えば、対象物は50ミリメートルも移動してしまう。仮に1000フレーム/秒の高速度撮影を行っても、対象物は3ミリメートルも移動する。本実施形態では、第1のフレームの開始時点から第3のフレームの終了時点までの期間を例えば3ミリ秒以下に短縮できるため、モーションセンサ装置として各種の用途に実用的である。
本実施形態の構成では、第1から第3のフレームで取得された3枚の画像のうちの2枚の画像に基づいて対象物までの距離を算出することができる。3枚の画像のうちの2枚の組み合わせは3通りある。3通りの各々で低感度領域の位置が異なる。2通りまたは3通りの組み合わせに係る画像のペアを利用することにより、低感度領域の除去が可能となる。本実施形態では、主に、第1および第2のフレームで取得された2枚の画像と、第2および第3のフレームで取得された2枚の画像とを利用して低感度領域を除去する場合を想定する。
図10は、第1および第2のフレームで取得された2枚の画像から距離情報を求めた場合の低感度領域と、第2および第3のフレームで取得された2枚の画像から距離情報を求めた場合の低感度領域を模式的に示す図である。第1および第2のフレームで取得された2枚の画像に基づいて対象物の距離を算出する場合、光源102、103の各々からの距離が等しい領域を中心に低感度領域605が発生する。一方、第2および第3のフレームで取得された2枚の画像に基づいて対象物の距離を算出する場合、光源103、104の各々から距離が等しい領域を中心に低感度領域606が発生する。本実施形態では、光源103がイメージセンサ101の近傍に配置されているため、図8に示すような至近距離における低感度領域504は発生しない。
十分に短い時間に強い発光条件の元で撮影されたフレームの輝度は、ほぼ反射光の強度に比例する。ここで、第1のフレームに写った対象物の輝度を「第1の輝度」、第2のフレームに写った対象物の輝度を「第2の輝度」、第3のフレームに写った対象物の輝度を「第3の輝度」と呼ぶことにする。対象物と各光源との位置関係によって定まる角度および距離に応じて各輝度が決定される。前述のように、これらの輝度の比から対象物の距離を推定できる。
第1の輝度と第2の輝度とを比較した場合、低感度領域605では、これらの輝度がほぼ等しい(輝度比が1に近い)ため、距離計測精度が低下する。第2の輝度が第1の輝度よりも大きい場合、低感度領域605よりも右側(光源103に近い側)に対象物があると推定できる。逆に、第1の輝度が第2の輝度よりも大きい場合、低感度領域605よりも左側(光源102に近い側)に対象物があると推定できる。
一方、第2の輝度と第3の輝度とを比較した場合、低感度領域606では、これらの輝度がほぼ等しい(輝度比が1に近い)ため、距離計測精度が低下する。第2の輝度が第3の輝度よりも大きい場合、低感度領域606よりも左側(光源103に近い側)に対象物があると推定できる。逆に、第3の輝度が第2の輝度よりも大きい場合、低感度領域606よりも右側(光源104に近い側)に対象物があると推定できる。
以上のことから、本実施形態のモーションセンサ装置は、第1の輝度と第2の輝度との比から第1の推定距離情報を求め、第2の輝度と第3の輝度との比から第2の推定距離情報を求め、これらを選択または合成することにより、対象物の距離情報を生成する。例えば、第1の輝度と第2の輝度との比が予め設定された範囲内にある場合には、第2の推定距離情報のみを利用して対象物までの距離情報を求め、第2の輝度と第3の輝度との比が予め設定された範囲内にある場合には、第1の推定距離情報のみを利用して対象物までの距離情報を求める。ここで、「予め設定された範囲」とは、例えば、1に近い所定の範囲(0.8〜1.2など)である。2つの輝度の「比が予め設定された範囲内にある場合」には、2つの輝度の「比」ではなく「差」が予め設定された範囲内にある場合も含まれるものとする。
あるいは、第2の輝度が第1の輝度よりも大きい場合に限定して第1の推定距離情報を利用し、第2の輝度が第3の輝度よりも大きい場合に限定して第2の推定距離情報を利用するようにしてもよい。一方の輝度が他方の輝度よりも大きいか否かは、例えば両者の差の絶対値が所定の閾値よりも大きいか否か、または、両者の比と1との差分が所定の閾値よりも大きいか否かによって判断され得る。このような制御により、低感度領域605または606に対象物が位置する場合でも、いずれかの推定距離情報に基づいて対象物の距離を測定することができる。なお、本実施の形態では利用していないが、第1の輝度と第3の輝度との比較結果に基づいて推定距離情報を求めてもよい。
第1の推定距離情報および第2の推定距離情報の両者ともに高感度な領域については、重みをつけつつ両者の平均をとるなどの合成を行なってもよい。このような処理により、低感度領域を除去し、高感度な距離測定が可能である。
イメージセンサ101に近い位置に配置されるLED光源103については、光度(放射強度)または光束(放射束)の値を小さくしたり、放射角度を狭く設定したりしてもよい。従って、LED光源104としては、価格の低い低出力の光源を採用できる。そのような光源を採用すれば、部品コストや消費電力の増加を抑制可能である。すなわち、本実施形態によれば、相対的に価格が低い1個のLED光源を増設するだけで、低感度領域の少ないモーションセンサ装置を実現できる。
本実施形態では、連続して3フレームの撮像が可能な、やや高価なイメージセンサを使用することにより、高速で移動する対象物までの距離、または対象物の3次元的な運動を検出することができる。計測対象である物体の移動速度が十分に低いことが想定される場合は、通常の1フレーム露光のイメージセンサを用いても良い。
次に、図11、図12および図13を参照して、本実施形態に係るモーションセンサ装置の構成および動作をより詳しく説明する。
図11は、本実施形態に係るモーションセンサ装置の構成を模式的に示す図である。この装置は、イメージセンサ101と、イメージセンサ101の撮像面に被写体像を形成するレンズ系110と、3個のLED光源102、103、104と、イメージセンサ101およびLED光源102、103、104を制御するように構成された制御部1000とを備えている。イメージセンサ101およびLED光源102、103、104は、基板100上に搭載されている。制御部1000の一部または全部は、基板100上に実装されていてもよいし、他の基板上に実装されていてもよい。また、制御部1000の機能の一部が、離れた位置に置かれた装置によって実現されていてもよい。
LED光源103は、イメージセンサ101の最も近くに配置されている。イメージセンサ101を基準としたときのLED光源102〜104の方向をそれぞれ第1〜第3の方向、LED光源102〜104までの距離をそれぞれ第1〜第3の距離とする。第2の方向および第3の方向は第1の方向とは反対の方向である。また、第2の距離は、第1および第3の距離よりも短い。本実施形態では、第2および第3の距離は相互に等しく設定されている。
LED光源102、103、104は、いずれも同じ波長域の光を出射するように構成されている。イメージセンサ101は、LED光源102、103、104から出射された光の少なくとも一部の波長の光を検出できるように構成されている。LED光源102、103、104としては、実用性の観点から、近赤外線などの不可視光を発するものを好適に用いることができる。ただし、工業用など、可視光を出射しても問題のない用途では、可視光での実装も可能である。光源としては、LED光源に限らず、点光源などの3次元的に強度分布に偏りのある光源であればどのようなものでも利用可能である。以下の説明では、LED光源102、103、104は、近赤外線である第1の波長(例えば800nm)の光を出射するように構成され、イメージセンサ101は、当該第1の波長の光を検出できるように構成されているものとする。
なお、本明細書において「近赤外領域」とは、概ね700nmから2.5μmの波長の範囲を指す。また、「近赤外線」とは、近赤外領域の波長をもつ光(電磁波)を意味する。また、「第1の波長の光を出射する」ことには、第1の波長を含む広い波長域の光を出射することを含むものとする。本実施形態において、光源102、103、104は、厳密に同じ波長域の光を出射している必要はなく、輝度比に基づく距離計測が可能な範囲で波長域にずれが生じていてもよい。
本実施形態では、光源102、103により、イメージセンサ101のすぐ左側から右側全体の領域に位置する対象物までの距離測定が安定的に可能になる。一方、光源103、104により、光源103のすぐ右側から左側全体の領域に位置する対象物までの距離測定が安定的に可能になる。このように、光源102、103による輝度比と、光源103、104による輝度比とを利用することにより、低感度領域を排除し、距離検出の安定度を高めることが可能になる。
イメージセンサ101は、画素単位で電荷をいったん蓄積しておく記憶部を有している。従って、第nフレームの撮像によって得られた画像データの読み出しを待たずに第n+1フレームの撮像が行える。イメージセンサ101内の記憶部を増やせば、3フレーム以上の連続した露光が可能である。イメージセンサ101としては、偶数/奇数ラインで別々に露光できる特殊センサであってもよい。なお、本実施形態におけるイメージセンサは、CMOSイメージセンサまたはCCDイメージセンサであるが、イメージセンサはこれらに限定されない。
制御部1000は、第1の時間で第1の光源102を発光させながらイメージセンサ101で第1のフレームの撮像を行い、第2の時間で第2の光源103を発光させながらイメージセンサ101で第2のフレームの撮像を行い、第3の時間で第3の光源104を発光させながらイメージセンサ101で第3のフレームの撮像を行うように構成されている。そして、制御部1000は、第1から第3のフレームの撮像によって取得した複数の画像に基づいて、対象物104までの推定距離情報を得るように構成されている。
図12は、本実施形態におけるモーションセンサ装置の構成例を示すブロック図である。
撮像装置1101は、単眼レンズ型の撮像装置であり、図11のイメージセンサ101およびレンズ系110を有する。レンズ系110は、同一光軸上に配列された複数のレンズの組であってもよい。光源装置1102は、図11の光源102、103、104を有する。
本実施形態における制御部1000は、CPU1103と半導体集積回路1104とを有している。半導体集積回路1104は、距離計算ブロック1105、画像フィルタブロック1106を有している。距離計算ブロック1105は、極値探索部1107、タイミング制御部1108、座標メモリ1109、および距離算出部1110を有している。
本実施形態における光源102、103、104は、いずれもLED光源であり、それぞれ、図2に示される放射角と相対放射強度との関係を有している。なお、本開示の実施には、各光源102、103、104が放射角に応じて相対放射強度が変化する特性を有している必要は無い。しかし、現実には、多くの光源が放射角に応じて変化する相対放射強度を有するため、本実施形態では、この点を考慮する。
本実施形態において、図12のタイミング制御部1108は、光源装置1102に対しLED光源102の点灯指示信号を出す。また、タイミング制御部1108は、撮像装置1101に対してイメージセンサ101の露光指示信号を出す。こうすることにより、光源102が点灯した状態での画像が第1のフレームで取得され、半導体集積回路1104に送られる。
続けて、タイミング制御部1108は、光源装置1102に対して光源103の点灯指示信号を出力し、撮像装置1101に対してイメージセンサ101の露光指示信号を出力する。こうすることにより、光源103が点灯した場合の画像が第2のフレームで取得され、半導体集積回路1104に送られる。
更に続けて、タイミング制御部1108は、光源装置1102に対して光源104の点灯指示信号を出力し、撮像装置1101に対してイメージセンサ101の露光指示信号を出力する。こうすることにより、光源104が点灯した場合の画像が第3のフレームで取得され、半導体集積回路1104に送られる。
半導体集積回路1104では、撮像装置1101から出力された画像フレームが、画像フィルタブロック1106で処理される。画像フィルタブロック1106は必須ではないが、本実施形態では、画像処理にあたってノイズ除去フィルタなどの前処理を画像フィルタブロック1106で行う。
画像フィルタブロック1106で処理された画像は、距離計算ブロック1105に送られる。距離計算ブロック1105内では、極値探索部1107で画像が処理される。極値探索部1107で処理されるデータの一例は、前述の図5に示される通りである。図5では、撮像画像の所定ライン上の輝度が示されている。なお、図5では、2つのフレーム画像について、同一ライン上の輝度分布が示されているが、本実施形態では、3つのフレーム画像について、同一ライン上の輝度分布が得られる。言い換えると、3つのフレーム画像から、2対のフレーム画像を選択すれば、各々が図5に示されるような2つのグラフが得られる。例えば、第1フレームの画像および第2フレームの画像から、図5に示されるようなグラフを作ることができる。同様に、第2フレームの画像および第3フレームの画像からも、図5に示されるようなグラフを作ることができる。
極値探索部1107では、まず検出する物体の存在する領域を探索する。探索方法は多数存在する。例えば図5の輝度301と輝度302から輝度の極値303や304を探索するのは容易である。さらに動きに対して安定した極値がほしい場合は、輝度が一定の値以上の領域を特定し、その中央値を極値とする方法もある。
次に、極値303と304を同一物体からのものとして極値同士をペアリングする。これは単に座標の近いもの同士をペアリングする簡単な方法でも良いし、予め輝度301と輝度302とを加算した値から一定輝度以上の領域を求めておき、その範囲内で極値を探しても良い。
図5の輝度301と輝度302との差分に着目すると、差分が無いにもかかわらず輝度レベルの存在する領域がある。それは本装置の外部に存在するシステム外の光源によるものと考えられるので、外乱要素として除外することが考えられる。コストが許せば、本システムの光源をすべて消灯した状態での撮像を行ってこれを減じても同様の効果が得られる。
極値探索部1107は、検出した物体の座標と極値を出力する。座標は領域306の中心や重心とすることもできるし、極値303と極値304との中央の座標であってもよい。また、輝度は極値303、304をそのまま使う方法もあるし、領域の積分値を求める方法もある。
ここでは、簡単のため、特定ラインの1次元上のデータについて説明を行なった。しかし、1次元の直線は撮像の水平ライン以外の軸であってもよいし、2次元的に相対輝度レベルの高い領域の座標と輝度を探すことも可能である。
極値探索部1107で出力された物体の座標と極値は、座標メモリ1109に格納された後、距離算出部1110に送られる。
距離算出部1110は、第1のフレーム画像から得た輝度と第2のフレーム画像から得た輝度との比に基づいて、距離を算出する。まず、物体の座標から、物体がイメージセンサ101からみてどの方位にあるかを決定する。この方位は、レンズなどの光学系の特性を加味して一意に決定可能である。
次に、その方位のどの距離に物体があるかがわかれば物体の3次元位置を推定することが可能である。
前述した図6に示されるようなLED光源の配置と放射特性が各方位について得られている。図6のデータは、LED光源と物体との距離の2乗に反比例して光強度が弱まることに基づいている。また、精度を高めるために、各距離でLED光源との間に発生する角度を図2の放射特性に応じて補正している。図6に示されるデータがあれば、輝度比によって物体の距離が算出可能である。
図6のデータは、距離算出部1110で三角関数計算を用いて算出しても良い。また、予め計算や計測を行ったグラフをテーブルとして備えておき、必要に応じて補完等しながら参照する方法で計算しても良い。
距離計算ブロック1105の結果は、CPU1103に送られて3Dモーション情報として利用される。
以上の構成では、画像データに対してライン単位で処理が進行できる。このため、1パスで物体の検出が完了し、レイテンシの少ないモーションセンサ装置が実現可能である。
極値303と極値304の座標が必ずしも一致しなくとも、対象物の材質が対象領域内で概ね均一であれば、距離計算の輝度比としてこれらの極値303、304を用いることが可能である。この特性に着目し、計測単位をある程度幅を持った物体の単位でのみ行なってもよい。本実施形態では、極値探索を先に行ない、得られた極値に対して、距離計算を行なう。こうすることにより、計算処理量の削減および高速化を実現できる。
人間の5体の状況を計測する場合、撮像されたデータのうち、ある1ラインのデータから、腕や足や首という単位で、撮像された各領域の輝度の極値を求めることになる。このため、各ピクセルでなんらかの距離演算を行なう方式に比べて計算回数が飛躍的に減少する。
ここまでの処理はすべてCPUとソフトウェアプログラムのみで処理することも可能である。その場合のソフトウェアプログラムの処理フロー図を図13に示す。この処理は、極値探索ステップ1201、閾値判定ステップ1202、輝度比算出ステップ1203、距離換算ステップ1204を含む。
極値探索ステップ1201では、画像データの中から輝度値の相対的に高い領域、すなわち極値を含む領域を探索する。続けて、閾値判定ステップ1202にて極値探索ステップ1201が追跡対象とすべき物体か判定する。輝度や領域サイズが一定値以下であればノイズとみなして「物体無し」であると判定して破棄する。閾値判定ステップ1202は必須ではないが一般にロバスト性をあげるためには重要なステップである。続けて、閾値判定ステップ1202で物体ありと判定された場合、対応する極値同士をペアリングして対応付けて輝度比を算出する。続けて距離換算ステップ1204で輝度比と撮像画像位置とを用いて距離に換算する。
以上の手順を規定したプログラムを磁気記録媒体や半導体記録媒体などに格納し、CPUでプログラムを実行することでも本機能は実現できる。
本実施形態によれば、極値探索ステップ1201で1度だけ画像を走査し、計算対象となる輝度値と座標をピックアップできるため、この手順を用いることで高速に計算を完了することが可能となる。
本実施形態のモーションセンサ装置は、各種の用途に応用できる。ビデオカメラに応用することにより、動画像におけるオートフォーカスを高速に制御することが可能となる。また、近距離において人間の指を個別に認識したり、遠距離において身体や人間の5体を認識したりして、ジェスチャー認識用のモーションセンサ装置としても応用可能である。
なお、本実施形態において、光源102、103、104の高さおよび大きさが等しい必要は無く、異なっていても良い。また、光源102、103、104の各々が、1つのLEDチップから構成されている必要はなく、複数のLEDチップを配列したLEDアレイを各光源として利用してもよい。更に、図示されていないが、各光源102、103、104にはレンズおよびフィルタなどの光学部品が配置されていてもよい。これらの事項は、他の実施形態の光源についても同様である。
光源102、103、104およびイメージセンサ101は、直線上に配置されている必要は無い。図14A、14Bは、光源102、103、104およびイメージセンサ101の他の配置例を示す上面図である。光源102、103、104は、図14Aに示されるように、一部の光源(この例では光源103)が直線の外に配置されてもよいし、図14Bに示されるように、1つの光源とイメージセンサ101とを通る直線上に他の光源が配置されないようにしてもよい。
図14Aの例では、イメージセンサ101に対して2個の光源102、104は、互いに反対の方向に同じ距離だけ離れて配置されているが、これらの距離は異なっていてもよい。一方、図14Bの例では、3個の光源102、103、104は、イメージセンサ101から見て相互に異なる方向に配置されている。このように方向が異なれば、イメージセンサ101からの各光源102、103、104までの距離は異なる必要はなく、相互に等しくてもよい。
上記のように、本実施形態における制御部1000は、第1の画像から得られる対象物の輝度と第2の画像から得られる当該対象物の輝度との比に基づいて第1の推定距離情報を生成し、第2の画像から得られる対象物の輝度と第3の画像から得られる当該対象物の輝度との比に基づいて第2の推定距離情報を生成する。そして、第1および第2の推定距離情報を選択または合成することにより、当該対象物までの距離情報を得る。しかし、制御部1000は、このような動作ではなく、他の動作によって対象物までの距離情報を得てもよい。例えば、距離に換算する前の複数の画像の輝度情報を選択または合成することにより、対象物の距離を求めてもよい。
具体的には、第1の輝度と第3の輝度とを予め定めた混合比率で混合したものを第4の輝度とし、第2の輝度と第4の輝度との比に基づいて対象物までの距離情報を得ることができる。例えば、第1の輝度をP1、第3の輝度をP3、混合比率をa(0<a<1)とし、第4の輝度をP1×a+P3×(1−a)とする。第4の輝度と第2の輝度P2との比(P1×a+P3×(1−a))/P2から、既知の輝度比と距離との関係を用いて、対象物までの距離情報を得ることができる。この方法においては、イメージセンサー101における画素位置ごとに輝度の混合比率aを定めてもよい。
また、第1の輝度および第3の輝度のいずれかを選択し、その選択した輝度を第4の輝度とし、上記と同様の方法で距離を算出してもよい。これは、上記の混合比率aが0または1である場合に相当する。第1の輝度および第3の輝度のいずれを選択するかは、例えば、両者の輝度の比または差が所定の範囲内にあるか否かに基づいて判断され得る。
(実施形態2)
本開示によるモーションセンサ装置の第2の実施形態を説明する。本実施形態のモーションセンサ装置は、4個の光源(第1の光源702、第2の光源703、第3の光源704、第4の光源705)を備える。本実施形態の装置も、図11を参照しながら説明した前述の実施形態におけるレンズ系110および制御部1000と同様の構成を備えている。このため、これらの説明はここでは重複して行わない。
図15Aは、本実施形態のモーションセンサ装置における光源の配置構成を示す図である。図15Bは、このモーションセンサ装置における光源とイメージセンサの制御タイミングを示すタイムチャートである。
本実施形態のモーションセンサ装置は、基板700上に搭載されたイメージセンサ701と、4つのLED光源702、703、704、705とを備えている。LED光源702および703は、第1の波長の光を出射するように構成されている。LED光源704および705は、第2の波長の光を出射するように構成されている。イメージセンサ701は、少なくとも第1および第2の波長の光を検出できるように構成されている。
第1の波長および第2の波長は、任意の波長でよいが、以下の説明では、それぞれ780nmおよび850nmとする。これらはともに近赤外領域の波長である。第1および第2の波長は、近赤外領域の波長に限らず、例えば可視光の波長であってもよい。実用性の観点からは、第1および第2の波長を近赤外領域の波長に設定することが好ましいが、工業用など、可視光を出射しても問題のない用途では、可視光での実装も可能である。
イメージセンサ701を基準としたときの光源702〜705の方向をそれぞれ第1〜第4の方向、光源702〜705までの距離をそれぞれ第1〜第4の距離とする。第2の方向および第4の方向は第1の方向とは反対の方向であり、第3の方向は第1の方向と同一の方向である。また、第2および第3の距離は、ともに第1および第4の距離よりも短い。本実施形態では、第2および第3の距離は互いに等しく、第1および第4の距離は互いに等しいが、必ずしもこのような配置である必要はない。
イメージセンサ701は、連続して2回の露光を行ない、2つのフレームの撮像を行える特殊センサである。実施形態1では続けて3回の露光を行なえる特殊センサを必要としており、原理的には有効であるが、実際の作成は高コストになり得る。本実施形態では、より低コストの構成で距離測定を行うことができる。さらに、本実施形態では、後述のように距離測定だけでなく対象物の材質の判定も可能である。
図15Bに示される期間812、813、814、815は、それぞれLED光源702、703、704、705が点灯する期間に相当する。第1の露光期間816および第2の露光期間817は、それぞれ、イメージセンサ701による第1フレームおよび第2フレームの撮像に対応する。図15Bのタイムチャートでは、まずLED光源702、705が同時に発光し、続いてLED光源703、704が同時に発光する。しかし、この例に限定されず、第1の波長の光を出射するLED光源702、703の一方と、第2の波長の光を出射するLED光源704、705の一方とが同時に発光するように発光が制御されていればよい。
図15Bのタイムチャートにしたがって撮像する場合、制御部は、第1のフレームの撮像によって取得した第1の画像から得られる対象物の第1の波長の成分の輝度と、第2のフレームの撮像によって取得した第2の画像から得られる当該対象物の第1の波長の成分の輝度との比から、第1の推定距離情報を取得する。また、第1の画像から得られる当該対象物の第2の波長の成分の輝度と、第2の画像から得られる当該対象物の第2の波長の成分の輝度との比から、第2の推定距離情報を取得する。そして、第1の推定距離情報と第2の推定距離情報とを、選択または合成することにより、対象物までの距離情報を生成して出力する。
図16は、第1の推定距離情報および第2の推定距離情報における低感度領域を模式的に示す図である。第1の推定距離情報のみを用いた場合、光源702、703の各々からの距離が等しい領域を中心に低感度領域711が発生する。一方、第2の推定距離情報のみを用いた場合、光源704、705の各々からの距離が等しい領域を中心に低感度領域712が発生する。本実施形態では、光源703、704がイメージセンサ101の近傍に配置されているため、図8に示すような至近距離における低感度領域504は発生しない。
本実施形態のモーションセンサ装置は、第1の推定距離情報と第2の推定距離情報とを選択または合成するため、低感度領域711、712に対象物が存在する場合でも、対象物までの距離を計測できる。具体的には、制御部は、第1の画像から得られる対象物の第1の波長の成分の輝度と、第2の画像から得られる当該対象物の第1の波長の成分の輝度との比が、予め設定された範囲内(例えば0.8〜1.2)にあるとき、第2の推定距離情報のみを利用して対象物までの距離情報を求める。一方、第1の画像から得られる対象物の第2の波長の成分の輝度と、第2の画像から得られる当該対象物の第2の波長の成分の輝度との比が、予め設定された範囲内にあるとき、第1の推定距離情報のみを利用して対象物までの前記距離情報を求める。あるいは、第2の画像から得られる対象物の第1の波長の成分の輝度が、第1の画像から得られる当該対象物の第1の波長の成分の輝度よりも大きい場合に限って第1の推定距離情報を利用し、第2の画像から得られる対象物の第2の波長の成分の輝度が、第1の画像から得られる当該対象物の第2の波長の成分の輝度よりも大きい場合に限って第2の推定距離情報を利用するようにしてもよい。このような処理により、対象物の位置に限らず正確に対象物までの距離を計測できる。
イメージセンサ701は、公知のカラーイメージセンサのように、分光感度特性の異なる複数種類の画素をもつセンサであり得る。カラーイメージセンサには、様々な種類のものが存在する。例えば、R、G、G、Bの4画素を1単位として並べたベイヤー配列のセンサや、波長によって透過特性が異なることを利用して1つの画素で複数の色成分の信号電荷を取得できるものや、プリズムで光を色ごとに分離し、複数の撮像デバイスで色成分ごとに受光するものなどがある。これらのいずれのカラーイメージセンサを用いても、色成分に応じて分光感度特性の異なる受光が出来るため、イメージセンサ701として利用できる。
図17は、本実施の形態におけるイメージセンサ701の色成分ごとの分光感度特性の一例を示すグラフである。図17のグラフにおける横軸は波長、縦軸は感度の相対値を表している。このイメージセンサ701は、光の赤色成分を主に検出するR画素、緑色成分を主に検出するG画素、青色成分を主に検出するB画素を有しているものとする。図17に示すように、R画素の分光感度特性901、G画素の分光感度特性902、およびB画素の分光感度特性903は、いずれも近赤外領域の波長にも感度を有している。ここでは、第1の波長の光に対するR画素の感度911およびB画素の感度913と、第2の波長の光に対するR画素の感度912およびB画素の感度914とを利用して、第1および第2の波長の各成分の輝度値を求める例を説明する。
第1の波長の光に対するR画素の感度911をa、第2の波長に対するR画素の感度912をb、第1の波長に対するB画素の感度913をc、第2の波長に対するB画素の感度914をdとする。また、1つのフレームにおけるあるピクセルに入射する第1の波長の成分の光の強度に対応する輝度をα、第2の波長成分の光の強度に対応する輝度をβとする。すると、1つのフレームのあるピクセルにおける輝度のうち、赤成分rおよび青成分bは、以下の式(1)で表される。
Figure 0006302414
したがって、式(1)における行列の逆行列を求めることにより、以下の式(2)により、そのピクセルにおける第1の波長成分の輝度αおよび第2の波長成分の輝度βを求めることができる。
Figure 0006302414
以上の演算を第1のフレームおよび第2のフレームの各々について行うことにより、各フレームにおける第1および第2の波長の各成分の輝度を求めることができる。なお、この例では、R画素およびB画素の分光感度特性を利用したが、これらの一方をG画素の分光感度特性に置換して同様の演算を行ってもよい。また、波長によって透過特性が異なることを利用して1つの画素で複数の色成分の信号電荷を取得できるイメージセンサや、プリズムで光を色ごとに分離し、複数の撮像デバイスで色成分ごとに受光するイメージセンサを用いる場合も、入射光の色成分ごとの分光感度特性に基づいて同様の演算を行えばよい。
前述のように、本実施形態における制御部は、第1のフレームから抽出した第1の波長の成分の輝度と、第2のフレームから抽出した第1の波長の成分の輝度とを用いて、それらの輝度比から対象物の距離を第1の推定距離情報として算出する。この際、輝度比が1に近い低感度領域711では、正確な距離測定ができない。一方、LED光源703がイメージセンサ701に十分近い位置にあるため、低感度領域711よりも右側の領域においては光強度の関係が反転する領域は殆ど無く、良好に広域を計測可能である。
制御部はまた、第1のフレームから抽出した第2の波長の光強度成分と、第2のフレームから抽出した第2の波長の光強度成分とを用いて、その光強度の比から対象物の距離を第2の推定距離情報として算出する。この際、輝度比が1に近い低感度領域712では、正確な距離測定ができない。一方、LED光源704がイメージセンサ701に十分近い位置にあるため、低感度領域712よりも左側の領域においては光強度の関係が反転する領域は殆ど無く、良好に広域を計測可能である。
このように、第1の波長成分の輝度比に基づいて得られる第1の推定距離情報と、第2の波長成分の輝度比に基づいて得られる第2の推定距離情報とは、互いに低感度領域を補完し合っていることがわかる。したがって、制御部は、これらの推定距離情報の一方では低感度な領域を他方の情報で補完し、両者ともに高感度な領域については重みをつけつつ両者の平均をとるなどの合成を行なう。このような処理により、全領域をシームレスに統合でき、高感度な距離測定が可能である。
本実施形態によれば、第1の波長と第2の波長の2つを利用して対象物を撮影しているため、距離情報の推定だけでなく、対象物の材質判定を行うこともできる。以下、本実施形態における材質判定の原理を説明する。
自然界に存在するものは、波長によって吸収率が異なり、吸収されなかった光の反射率も異なる。したがって、同じ強度で発光した場合でも、波長が異なれば反射光の強度が異なり得る。可視光領域においてはその差分の関係は色の差として認識される。非可視光領域においても反射光の強度の差を検出することにより、対象物の材質の推定が可能である。
非特許文献1に記載されているように、人間の肌は970nm付近の近赤外線に対する反射率が低いことが知られている。このため、970nm付近の近赤外線による反射光強度と、反射率の比較的高い870nm付近の近赤外線による反射光強度との大小関係を比較するだけで、対象物が人間の肌であるか否かを推定することが可能である。この推定は、970nm付近および870nm付近の波長に限らず、他の波長を用いて行うこともできる。
そこで、本実施形態における制御部は、第1および第2の画像の少なくとも一方における対象物の第1の波長の成分の輝度と、第2の波長の成分の輝度との差異(差または比)に基づいて、当該対象物の材質を判定する。例えば、対象物の第1の波長の成分の輝度と、第2の波長の成分の輝度との差異が、第1および第2の波長の各々の光に対する人間の肌の反射率の差異と合致するか否かを判定する。このような処理により、対象物が人間の手であるか否かを判定することができる。ここでは、人間の手を検出する場合を想定したが、指し棒などの他の対象物について同様の判定を行ってもよい。
さらに高度な方法として、距離計測用とは別に材質推定用の光源(第5の光源)を追加することも可能である。材質推定用の光源は、距離計測用の2つの波長(第1の波長および第2の波長)とは異なる第3の波長(例えば970nm)の光を出射するように構成され得る。材質推定用の光源は、異なる波長の光を出射する複数の光源の組み合わせであってもよい。波長の異なる少なくとも2つの光の反射光強度の差異に基づいて対象物の材質を判定することができる。例えば、距離計測用の2つの波長をλ1、λ2、材質推定用の波長をλ3とし、これらの3つの波長の輝度の比に基づいて対象物の材質を判定することができる。あるいは、材質判定用に波長λ1、λ2、λ3の光をそれぞれ出射する3つの光源を用いて、これらの3つの波長の輝度の比に基づいて対象物の材質を判定することもできる。より具体的な例として、R、G、Bの各波長域の光を検出するカラーのイメージセンサと、R、G、Bの各波長域の光を出射する3つの光源とを用いて、これらの3成分の輝度の比から材質を判定することができる。これらの3成分の輝度の比について、複数の材質に関連付けて複数の条件を予め設定しておけば、複数の材質について選択的に判定を行なうことも可能である。
上記の例では、材質推定用の光源を距離計測用の光源とは異なるものとしたが、両者を統合してもよい。すなわち、距離計測用および材質推定用の光源として、第1または第2の波長に加えて第3の波長を含む広い発光帯域の光源を利用してもよい。第1から第4の光源702〜705の少なくとも1つがそのような光源であれば、第5の光源を追加した場合と同様の材質判定が可能である。
3Dモーションセンサの用途としては、例えば、人間の指や指し棒のみを検知し、ユーザーインターフェースとして利用する用途がある。指し棒などを追跡しているときには人間の指などを誤情報として排除したい場合がある。このような場合、本実施形態のモーションセンサによれば、少なくとも2つの波長成分の輝度の差異に基づいて、対象物が指し棒なのか指なのかを判定することができる。また、特徴的な分光反射特性をもつ専用の材料で指し棒を構成すれば、誤検出の少ない指し棒を実現することも可能である。
以上のように、本実施形態においては、同一フレーム内で得られる少なくとも2つの波長成分の光強度(輝度)の差異に基づいて、新たなリソースを追加することなく、距離計測に加えて対象物の材質の推定が可能である。必要に応じてさらに異なる波長の光を利用することにより、複数種類の材質の判定を行うこともできる。
なお、本実施形態では、第1の波長および第2の波長は、ともに近赤外領域の波長としたが、これは一例である。モーションセンサの特性上、人間に視認できない非可視光を用いた方が都合の良いことが多いため、上記のような波長の設定にしたが、計測自体は可視光であっても問題ない。例えば人間以外を計測対象とする用途では、感度の高い可視光の波長領域を利用するといった応用が可能である。
また、カラーイメージセンサを用いたカメラでは、通常、その光学系に赤外カットフィルタを含めることで赤外領域の光をカットするが、本実施形態では赤外カットフィルタを省略できる。このため、安価な構成でモーションセンサ装置を実現できる。本実施形態でも可視光撮影用の通常のカラーイメージセンサを利用することができる。当然ながら本実施形態専用に特性の良いカラーフィルタが配置されたイメージセンサを用いることも可能だが、通常高価となる。
本実施形態では、光源にLEDを用いているが、点光源など3次元的に光強度が変わるものであればどのような光源でも利用可能である。波長を限定する必要があることからレーザー光源の利用も有用である。レーザー光源は平行光を出射するため、3次元的に光強度が変わらないが、拡散板などと組み合わせて散乱光に変換することで利用可能になる。
また、本実施形態では、第2のLED光源703と第3のLED光源704とを別々のものとして扱っているが、両者を一体化してもよい。これらの光源は配置が近く同じタイミングで発光させる形態も可能であるため、第1の波長および第2の波長を含む広い波長帯域の光を出射する1つの光源装置を第2および第3の光源として使用することができる。
上記のように、本実施形態における制御部1000は、第1の画像から得られる対象物の第1の波長の成分の輝度と、第2の画像から得られる対象物の第1の波長の成分の輝度との比から、第1の推定距離情報を取得し、第1の画像から得られる対象物の第2の波長の成分の輝度と、第2の画像から得られる対象物の第2の波長の成分の輝度との比から、第2の推定距離情報を取得する。そして、第1の推定距離情報と前記第2の推定距離情報とを、選択または合成することにより、対象物までの距離情報を得るように構成されている。しかし、制御部1000は、このような動作に限らず、他の動作によって対象物までの距離情報を得てもよい。例えば、第1の画像から得られる対象物の第1の波長の成分の輝度を第1の輝度、第2のフレームの撮像によって取得した第2の画像から得られる対象物の前記第1の波長の成分の輝度を第2の輝度、第1の画像から得られる対象物の第2の波長の成分の輝度を第3の輝度、第2の画像から得られる対象物の第2の波長の成分の輝度を第4の輝度とするとき、制御部1000は、第1の輝度と第2の輝度とを選択または合成することによって得られる第5の輝度と、第3の輝度と第4の輝度とを選択または合成することによって得られる第6の輝度との比に基づいて、対象物までの距離情報を得るように構成されていてもよい。
具体的には、第1の輝度と第2の輝度とを予め定めた混合比率で混合したものを第5の輝度とし、第3の輝度と第4の輝度とを予め定めた混合比率で混合したものを第6の輝度とし、第5の輝度と第6の輝度との比に基づいて対象物までの距離情報を得ることができる。この方法においては、イメージセンサー101における画素位置ごとに輝度の混合比率を定めてもよい。
また、第1の輝度および第2の輝度から選択した一方の輝度を第5の輝度とし、第3の輝度および第4の輝度から選択した一方の輝度を第6の輝度とし、上記と同様の方法で距離を算出してもよい。2つの輝度のいずれを選択するかは、例えば、両者の輝度の比または差が所定の範囲内にあるか否かに基づいて判断され得る。
(他の実施形態)
以上、本開示の技術の例示として、実施形態1、2を説明した。しかし、本開示の技術はこれらの実施形態に限定されない。以下、他の実施形態を例示する。
図18は、実施形態1に係るモーションセンサ装置を搭載したディスプレイ1001を示している。このディスプレイ1001は、3つのLED光源102、103、104を搭載しているため、低感度領域の少ない動き検知が可能である。このため、ディスプレイ1001の中心に向かってジェスチャー入力を行うことができる。図18には、参考のため、ジェスチャー入力を行う手が模式的に示されている。図示されている手は、矢印の方向に移動しつつある。図18に示されるディスプレイでは、このような手の動きを高い感度で検知してジェスチャー入力を行うことができる。
本実施形態に係るモーションセンサ装置をディスプレイなどに利用すれば、ジェスチャー入力によるチャンネルの切り替えなどのユーザーインターフェースに用いることもできる。また、人間の各部の動きを認識したダンスゲームなどへの応用も可能である。
図18のディスプレイには、実施形態2などの他の実施形態に係るモーションセンサ装置を組み込んでも良い。このように、本開示は、上記のいずれかの実施形態に係るモーションセンサ装置と、当該モーションセンサ装置によって検出された対象物の運動に応答して表示内容を変化させるディスプレイとを備える電子装置を含む。
本開示によるモーションセンサ装置の各実施形態によれば、距離計測の誤検出を減らし、高速動作が可能になる。本開示によれば、リアルタイムな検出が求められる3Dモーションセンサ装置を提供できる。また、ある態様では、距離計測に加えて対象物の材質判定も可能である。これにより、人間の手や指し棒などを検出する用途において、誤検出の少ないモーションセンサ装置を実現できる。
なお、本開示によるモーションセンサ装置の一部の機能が有線または無線のネットワークを介して接続された他の装置によって実現されていてもよい。
本開示によるモーションセンサ装置の実施形態は、リアルタイムに物体の3次元位置を計測できる機能を有するため、表示装置などの各種電気製品の非接触ジェスチャーユーザーインターフェースの用途に有用である。車載機器として搭乗者の状態、車外の人物や障害物の検知へも応用できる。ビデオカメラのオートフォーカス等の用途にも応用できる。
101、701 イメージセンサ
102、103、104、702、703、704、705 LED光源
301、302 輝度
303、304 極値
305 輝度極値同士の座標差
504、505、605、606、711、712 低感度領域
802、803、804、812、813、814、815 発光期間
805、806、807、816、817 露光期間
901、902、903 画素の分光感度特性
1001 表示装置
1101 撮像装置
1102 光源装置
1103 CPU
1104 半導体集積回路
1105 距離計算ブロック
1106 画像フィルタブロック
1107 極値探索部
1109 座標メモリ
1110 距離算出部

Claims (18)

  1. イメージセンサと、
    第1、第2、および第3の光源と、
    前記イメージセンサおよび前記第1から第3の光源を制御するように構成された制御部と、
    を備え、
    前記制御部は、
    第1の時間で前記第1の光源を発光させながら前記イメージセンサで第1のフレームの撮像を行い、
    第2の時間で前記第2の光源を発光させながら前記イメージセンサで第2のフレームの撮像を行い、
    第3の時間で前記第3の光源を発光させながら前記イメージセンサで第3のフレームの撮像を行い、
    前記第1のフレームの撮像によって取得した第1の画像から得られる対象物の輝度と、前記第2のフレームの撮像によって取得した第2の画像から得られる前記対象物の輝度との比に基づいて、第1の推定距離情報を生成し、
    前記第1の画像から得られる前記対象物の輝度と、前記第3のフレームの撮像によって取得した第3の画像から得られる前記対象物の輝度との比に基づいて、第2の推定距離情報を生成し、
    前記第1の推定距離情報と前記第2の推定距離情報とを、選択または合成することにより、前記対象物までの距離情報を得るように構成されており、
    前記第1の光源は、前記イメージセンサから第1の方向に第1の距離だけ離れた位置に配置され、
    前記第2の光源は、前記イメージセンサから第2の方向に第2の距離だけ離れた位置に配置され、
    前記第3の光源は、前記イメージセンサから第3の方向に第3の距離だけ離れた位置に配置され、
    前記第2の方向および前記第3の方向は、前記第1の方向の反対の方向であり、
    前記第2の距離は、前記第1の距離および前記第3の距離よりも短い、
    モーションセンサ装置。
  2. 前記制御部は、
    前記第1の画像から得られる前記対象物の輝度と、前記第2の画像から得られる前記対象物の輝度との比が、予め設定された範囲内にあるとき、前記第2の推定距離情報のみを利用して前記対象物までの前記距離情報を得て、
    前記第2の画像から得られる前記対象物の輝度と、前記第3の画像から得られる前記対象物の輝度との比が、予め設定された範囲内にあるとき、前記第1の推定距離情報のみを利用して前記対象物までの前記距離情報を得るように構成されている、
    請求項に記載のモーションセンサ装置。
  3. 前記制御部は、
    前記第2の画像から得られる前記対象物の輝度が、前記第1の画像から得られる前記対象物の輝度よりも大きい場合のみ、前記第1の推定距離情報を利用して前記対象物までの前記距離情報を得て、
    前記第2の画像から得られる前記対象物の輝度が、前記第3の画像から得られる前記対象物の輝度よりも大きい場合のみ、前記第2の推定距離情報を利用して前記対象物までの前記距離情報を得るように構成されている、
    請求項に記載のモーションセンサ装置。
  4. 前記イメージセンサは、近赤外線である第1の波長の光を検出可能に構成され、
    前記第1から第3の光源は、前記第1の波長の光を出射するように構成されている、
    請求項1からのいずれかに記載のモーションセンサ装置。
  5. 第1の波長の光、および前記第1の波長とは異なる第2の波長の光を検出可能なイメージセンサと、
    前記第1の波長の光を出射する第1および第2の光源と、
    前記第2の波長の光を出射する第3および第4の光源と、
    前記イメージセンサおよび前記第1から第4の光源を制御するように構成された制御部と、
    を備え、
    前記制御部は、
    第1の時間で前記第1および第4の光源を発光させながら前記イメージセンサで第1のフレームの撮像を行い、
    第2の時間で前記第2および第3の光源を発光させながら前記イメージセンサで第2のフレームの撮像を行い、
    前記第1のフレームの撮像によって取得した第1の画像から得られる対象物の前記第1の波長の成分の輝度と、前記第2のフレームの撮像によって取得した第2の画像から得られる前記対象物の前記第1の波長の成分の輝度との比から、第1の推定距離情報を取得し、
    前記第1の画像から得られる前記対象物の前記第2の波長の成分の輝度と、前記第2の画像から得られる前記対象物の前記第2の波長の成分の輝度との比から、第2の推定距離情報を取得し、
    前記第1の推定距離情報と前記第2の推定距離情報とを、選択または合成することにより、前記対象物までの距離情報を得るように構成されている、
    モーションセンサ装置。
  6. 前記第1の光源は、前記イメージセンサから第1の方向に第1の距離だけ離れた位置に配置され、
    前記第2の光源は、前記イメージセンサから第2の方向に第2の距離だけ離れた位置に配置され、
    前記第3の光源は、前記イメージセンサから第3の方向に第3の距離だけ離れた位置に配置され、
    前記第4の光源は、前記イメージセンサから第4の方向に第4の距離だけ離れた位置に配置され、
    前記第2の方向および前記第4の方向は、前記第1の方向の反対の方向であり、
    前記第3の方向は、前記第1の方向と同一の方向であり、
    前記第2および第3の距離の各々は、前記第1および第4の距離よりも短い、
    請求項に記載のモーションセンサ装置。
  7. 前記制御部は、
    前記第1の画像から得られる前記対象物の前記第1の波長の成分の輝度と、前記第2の画像から得られる前記対象物の前記第1の波長の成分の輝度との比が、予め設定された範囲内にあるとき、前記第2の推定距離情報のみを利用して前記対象物までの前記距離情報を得て、
    前記第1の画像から得られる前記対象物の前記第2の波長の成分の輝度と、前記第2の画像から得られる前記対象物の前記第2の波長の成分の輝度との比が、予め設定された範囲内にあるとき、前記第1の推定距離情報のみを利用して前記対象物までの前記距離情報を得るように構成されている、
    請求項またはに記載のモーションセンサ装置。
  8. 前記第2の光源および前記第3の光源は、一体化された単一の光源装置によって実現されている、請求項からのいずれかに記載のモーションセンサ装置。
  9. 前記第1の波長および前記第2の波長は、ともに近赤外領域の波長である、請求項からのいずれかに記載のモーションセンサ装置。
  10. 前記制御部は、前記第1および第2の画像の少なくとも一方における前記対象物の前記第1の波長の成分の輝度と前記第2の波長の成分の輝度との差異に基づいて、前記対象物の材質を判定するように構成されている、請求項からのいずれかに記載のモーションセンサ装置。
  11. 前記第1および第2の波長とは異なる第3の波長の光を出射する第5の光源をさらに備え、
    前記イメージセンサは、さらに前記第3の波長の光を検出可能に構成され、
    前記制御部は、
    前記第1および第2の時間の少なくとも一方において、さらに前記第5の光源を発光させながら前記イメージセンサで撮像を行い、
    前記第1および第2の画像の少なくとも一方から得られる前記対象物の前記第3の波長の成分の輝度と、前記第1および第2の波長の少なくとも一方の成分の輝度との差または比に基づいて、前記対象物の材質を判定するように構成されている、
    請求項から10のいずれかに記載のモーションセンサ装置。
  12. 前記第5の光源は、前記第1から第4の光源の1つと一体化されている、請求項11に記載のモーションセンサ装置。
  13. イメージセンサと、
    第1、第2、および第3の光源と、
    前記イメージセンサおよび前記第1から第3の光源を制御するように構成された制御部と、
    を備え、
    前記制御部は、
    第1の時間で前記第1の光源を発光させながら前記イメージセンサで第1のフレームの撮像を行い、
    第2の時間で前記第2の光源を発光させながら前記イメージセンサで第2のフレームの撮像を行い、
    第3の時間で前記第3の光源を発光させながら前記イメージセンサで第3のフレームの撮像を行い、
    前記第1のフレームの撮像によって取得した第1の画像から得られる対象物の輝度を第1の輝度、前記第2のフレームの撮像によって取得した第2の画像から得られる前記対象物の輝度を第2の輝度、前記第3のフレームの撮像によって取得した第3の画像から得られる対象物の輝度を第3の輝度とするとき、
    前記制御部は、前記第1の輝度と前記第3の輝度とを合成または選択することによって得られる第4の輝度と、前記第2の輝度との比に基づいて、前記対象物までの距離情報を得るように構成されており
    前記第1の光源は、前記イメージセンサから第1の方向に第1の距離だけ離れた位置に配置され、
    前記第2の光源は、前記イメージセンサから第2の方向に第2の距離だけ離れた位置に配置され、
    前記第3の光源は、前記イメージセンサから第3の方向に第3の距離だけ離れた位置に配置され、
    前記第2の方向および前記第3の方向は、前記第1の方向の反対の方向であり、
    前記第2の距離は、前記第1の距離および前記第3の距離よりも短い、
    モーションセンサ装置。
  14. 第1の波長の光、および前記第1の波長とは異なる第2の波長の光を検出可能なイメージセンサと、
    前記第1の波長の光を出射する第1および第2の光源と、
    前記第2の波長の光を出射する第3および第4の光源と、
    前記イメージセンサおよび前記第1から第4の光源を制御するように構成された制御部と、
    を備え、
    前記制御部は、
    第1の時間で前記第1および第4の光源を発光させながら前記イメージセンサで第1のフレームの撮像を行い、
    第2の時間で前記第2および第3の光源を発光させながら前記イメージセンサで第2のフレームの撮像を行い、
    前記第1のフレームの撮像によって取得した第1の画像から得られる対象物の前記第1の波長の成分の輝度を第1の輝度、前記第2のフレームの撮像によって取得した第2の画像から得られる前記対象物の前記第1の波長の成分の輝度を第2の輝度、前記第1の画像から得られる前記対象物の前記第2の波長の成分の輝度を第3の輝度、前記第2の画像から得られる前記対象物の前記第2の波長の成分の輝度を第4の輝度とするとき、
    前記制御部は、前記第1の輝度と前記第2の輝度とを選択または合成することによって得られる第5の輝度と、前記第3の輝度と前記第4の輝度とを選択または合成することによって得られる第6の輝度との比に基づいて、前記対象物までの距離情報を得るように構成されている、
    モーションセンサ装置。
  15. 請求項1から14に記載のモーションセンサ装置と、
    前記モーションセンサ装置によって検出された対象物の運動に応答して表示内容を変化させるディスプレイと、
    を備える電子装置。
  16. 請求項1から14に記載のモーションセンサ装置に使用される集積回路であって、
    前記イメージセンサおよび前記光源に接続され、露光及び発光のタイミングを制御するタイミング制御部と、
    撮像データを処理し、相対的に輝度の高い領域を探索する極値探索部と、
    前記極値探索部で探索された領域の座標と輝度を格納する座標メモリと、
    前記座標メモリのデータから、同一領域から異なる条件で撮影したフレームを選び出して、輝度比を用いて推定距離情報を算出する距離算出部と、
    を備える集積回路。
  17. 請求項1から14に記載のモーションセンサ装置による距離計算方法であって、
    撮像フレームのデータから相対的に光強度の高い領域を選択的に選び出し、その座標と光強度を算出する極値探索ステップと、
    前記極値探索ステップで選び出された輝度のうち、異なる条件で撮影したフレーム同士から選び出された輝度の比を算出する輝度比算出ステップと、
    前記輝度比算出ステップで算出された輝度比と、前記極値探索ステップで探索された座標とを用いて、距離に換算する距離換算ステップと、
    を含む距離推定方法。
  18. 請求項1から14に記載のモーションセンサ装置を動作させるコンピュータプログラムであって、前記モーションセンサ装置に、
    撮像フレームのデータから相対的に光強度の高い領域を選択的に選び出し、その座標と光強度を算出する極値探索ステップと、
    前記極値探索ステップで選び出された輝度のうち、異なる条件で撮影したフレーム同士から選び出された輝度の比を算出する輝度比算出ステップと、
    前記輝度比算出ステップで算出された輝度比と、前記極値探索ステップで探索された座標とを用いて、距離に換算する距離換算ステップと、
    を実行させるコンピュータプログラム。
JP2014550586A 2013-04-26 2014-04-08 複数の光源を有するモーションセンサ装置 Expired - Fee Related JP6302414B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013093458 2013-04-26
JP2013093458 2013-04-26
PCT/JP2014/002002 WO2014174779A1 (ja) 2013-04-26 2014-04-08 複数の光源を有するモーションセンサ装置

Publications (2)

Publication Number Publication Date
JPWO2014174779A1 JPWO2014174779A1 (ja) 2017-02-23
JP6302414B2 true JP6302414B2 (ja) 2018-03-28

Family

ID=51791368

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014550586A Expired - Fee Related JP6302414B2 (ja) 2013-04-26 2014-04-08 複数の光源を有するモーションセンサ装置

Country Status (4)

Country Link
US (1) US9978148B2 (ja)
JP (1) JP6302414B2 (ja)
CN (1) CN104395694B (ja)
WO (1) WO2014174779A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9192029B2 (en) * 2013-03-14 2015-11-17 Abl Ip Holding Llc Adaptive optical distribution system
US9581696B2 (en) * 2014-12-22 2017-02-28 Google Inc. Image sensor and light source driver integrated in a same semiconductor package
TW201800901A (zh) * 2016-06-17 2018-01-01 原相科技股份有限公司 偵測動作資訊的方法及感光陣列
US10109183B1 (en) * 2016-12-30 2018-10-23 Panosense Inc. Interface for transferring data between a non-rotating body and a rotating body
US10122416B2 (en) 2016-12-30 2018-11-06 Panosense Inc. Interface for transferring power and data between a non-rotating body and a rotating body
US10742088B2 (en) 2016-12-30 2020-08-11 Panosense Inc. Support assembly for rotating body
JP7252755B2 (ja) * 2018-12-27 2023-04-05 株式会社小糸製作所 アクティブセンサ、物体識別システム、車両、車両用灯具
JPWO2020174765A1 (ja) * 2019-02-28 2020-09-03
US20220067949A1 (en) * 2020-08-25 2022-03-03 Htc Corporation Object tracking method and object tracking device
WO2022170325A1 (en) * 2021-02-02 2022-08-11 Ringo Ai, Inc. Nonlinearity correction and range fitting for stereoscopy through illumination and approaches to using the same for noncontact color determination
US11662828B2 (en) * 2021-05-28 2023-05-30 Pixart Imaging Inc. Method for identifying object, optical sensing apparatus and system
CN113607064A (zh) * 2021-08-06 2021-11-05 广联达科技股份有限公司 目标物体的间距测算方法、装置、设备及可读存储介质
DE102021132716A1 (de) * 2021-12-10 2023-06-15 OSRAM Opto Semiconductors Gesellschaft mit beschränkter Haftung Entfernungssensor und verfahren zum detektieren eines objekts

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0642915A (ja) * 1992-06-03 1994-02-18 Stanley Electric Co Ltd 光学的測定装置
JP3415070B2 (ja) 1998-05-25 2003-06-09 松下電器産業株式会社 レンジファインダ装置
EP2416197A1 (en) * 1998-05-25 2012-02-08 Panasonic Corporation Range finder device and camera
JP2001165655A (ja) * 1999-12-06 2001-06-22 Oki Electric Ind Co Ltd 距離推定装置及び距離推定方法
EP1126412B1 (en) 2000-02-16 2013-01-30 FUJIFILM Corporation Image capturing apparatus and distance measuring method
JP4204746B2 (ja) * 2000-08-16 2009-01-07 富士フイルム株式会社 情報獲得方法、撮像装置及び、画像処理装置
JP3825383B2 (ja) * 2002-09-27 2006-09-27 日本電信電話株式会社 3次元形状計測方法および3次元形状計測装置
JP4166083B2 (ja) * 2002-12-26 2008-10-15 株式会社トプコン 測距装置
JP5073273B2 (ja) * 2006-11-21 2012-11-14 スタンレー電気株式会社 遠近判定方法およびその装置
DK1985969T3 (en) * 2007-04-26 2017-12-04 Sick Ivp Ab Method and apparatus for determining the amount of scattered light in a machine vision system
US8788676B2 (en) * 2009-05-22 2014-07-22 Motorola Mobility Llc Method and system for controlling data transmission to or from a mobile device
DE102010060833A1 (de) * 2009-11-26 2011-06-01 Werth Messtechnik Gmbh Verfahren und Anordnung zur taktil-optischen Bestimmung der Geometrie eines Messobjektes
DE102010041390B4 (de) * 2010-07-28 2017-12-07 pmdtechnologies ag Lichtlaufzeitkamera mit Signalpfadüberwachung
JP5033270B2 (ja) * 2010-11-10 2012-09-26 パナソニック株式会社 非接触ポジションセンシング装置及び非接触ポジションセンシング方法
JP2012117896A (ja) * 2010-11-30 2012-06-21 Saxa Inc 測距装置、侵入者監視装置、距離計測方法、及びプログラム
JP2013024653A (ja) * 2011-07-19 2013-02-04 Toyota Central R&D Labs Inc 距離測定装置及びプログラム

Also Published As

Publication number Publication date
US20150193934A1 (en) 2015-07-09
JPWO2014174779A1 (ja) 2017-02-23
CN104395694A (zh) 2015-03-04
US9978148B2 (en) 2018-05-22
WO2014174779A1 (ja) 2014-10-30
CN104395694B (zh) 2017-08-11

Similar Documents

Publication Publication Date Title
JP6302414B2 (ja) 複数の光源を有するモーションセンサ装置
JP6299983B2 (ja) 複数の光源を有するモーションセンサ装置
TWI585436B (zh) 深度資訊量測方法及裝置
JP6270808B2 (ja) 複数の光源を有するモーションセンサ装置
JP6270813B2 (ja) 複数の光源を有するモーションセンサ装置
KR102471148B1 (ko) 주변광을 차단하는 3차원 이미징 및 깊이 측정을 위한 씨모스 이미지 센서
Matsuda et al. Mc3d: Motion contrast 3d scanning
US20140037135A1 (en) Context-driven adjustment of camera parameters
US9699377B2 (en) Depth detecting apparatus and method, and gesture detecting apparatus and gesture detecting method
CN112189147B (zh) 一种飞行时间ToF相机和一种ToF方法
WO2020066637A1 (ja) 奥行取得装置、奥行取得方法およびプログラム
TWI536209B (zh) 具高追蹤速度的光學導航裝置
US10055881B2 (en) Video imaging to assess specularity
US20150062302A1 (en) Measurement device, measurement method, and computer program product
US10325377B2 (en) Image depth sensing method and image depth sensing apparatus
TWI725279B (zh) 利用雙魚眼影像計算所攝物體座標的方法及影像擷取裝置
CN110021044B (zh) 利用双鱼眼图像计算所摄物体坐标的方法及图像获取装置
JP2014174101A (ja) 物体検出装置
US20190289188A1 (en) System and method of adjusting power of a light source

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180302

R150 Certificate of patent or registration of utility model

Ref document number: 6302414

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees