JP2016065718A - 情報取得装置および物体検出装置 - Google Patents

情報取得装置および物体検出装置 Download PDF

Info

Publication number
JP2016065718A
JP2016065718A JP2013023778A JP2013023778A JP2016065718A JP 2016065718 A JP2016065718 A JP 2016065718A JP 2013023778 A JP2013023778 A JP 2013023778A JP 2013023778 A JP2013023778 A JP 2013023778A JP 2016065718 A JP2016065718 A JP 2016065718A
Authority
JP
Japan
Prior art keywords
imaging
imaging unit
unit
light
infrared
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013023778A
Other languages
English (en)
Inventor
楳田 勝美
Katsumi Umeda
勝美 楳田
信雄 岩月
Nobuo Iwatsuki
信雄 岩月
森 和思
Kazushi Mori
和思 森
智行 村西
Tomoyuki Muranishi
智行 村西
泰光 加世田
Yasumitsu Kaseda
泰光 加世田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2013023778A priority Critical patent/JP2016065718A/ja
Priority to PCT/JP2013/007538 priority patent/WO2014122713A1/ja
Publication of JP2016065718A publication Critical patent/JP2016065718A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data

Landscapes

  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Measurement Of Optical Distance (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Studio Devices (AREA)

Abstract

【課題】目標領域に対する距離に関する情報を簡素な構成により円滑に取得することができ、且つ、当該情報を取得するために目標領域に投射される光の撮像カメラに対する影響を抑制することが可能な情報取得装置および当該情報取得装置を備えた物体検出装置を提供する。
【解決手段】情報取得装置2は、赤外光を投射する投射部100と、赤外撮像部200と、赤外撮像部200により取得される輝度値に基づいて、目標領域上の各位置の距離情報を取得する距離取得部21bと、可視光撮像部300と、を備える。赤外撮像部200は、可視光を除去する可視光除去フィルタ230を備え、可視光撮像部300は、赤外光を除去する赤外光除去フィルタ330を備える。投射部100、赤外撮像部200、可視光撮像部300は、投射部100と赤外撮像部200との間に可視光撮像部300が介在することのないように配置されている。
【選択図】図2

Description

本発明は、目標領域内の情報を取得する情報取得装置および当該情報取得装置を備えた物体検出装置に関する。
従来、光を用いた物体検出装置が種々の分野で開発されている。いわゆる距離画像センサを用いた物体検出装置では、2次元平面上の平面的な画像のみならず、検出対象物体の奥行き方向の形状や動きを検出することができる。
距離画像センサとして、所定のドットパターンを持つレーザ光を目標領域に照射するタイプの距離画像センサが知られている(たとえば、非特許文献1)。かかる距離画像センサでは、基準面にレーザ光を照射したときのドットパターンが撮像素子により撮像され、撮像されたドットパターンが基準ドットパターンとして保持される。そして、基準ドットパターンと、実測時に撮像された実測ドットパターンとが比較され、距離情報が取得される。具体的には、基準ドットパターン上に設定された参照領域の実測ドットパターン上における位置に基づいて、三角測量法により、当該参照領域に対する距離情報が取得される。
第19回日本ロボット学会学術講演会(2001年9月18−20日)予稿集、P1279−1280
しかしながら、上記距離画像センサでは、ドットパターンの光を生成する必要があるため、目標領域に光を投射する投射部の構成が複雑になるとの問題がある。
さらに、たとえば、物体検出装置がパーソナルコンピュータ等に搭載されるような場合には、パーソナルコンピュータに搭載されている撮像カメラに対する物体検出装置から投射される光の影響を考慮する必要がある。
上記課題に鑑み、本発明は、目標領域に対する距離に関する情報を簡素な構成により円滑に取得することができ、且つ、当該情報を取得するために目標領域に投射される光の撮像カメラに対する影響を抑制することが可能な情報取得装置および当該情報取得装置を備えた物体検出装置を提供することを目的とする。また、本発明は、目標領域に存在する物体を簡素な構成により円滑に検出することができ、且つ、物体を検出するために目標領域に投射される光の撮像カメラに対する影響を抑制することが可能な物体検出装置を提供することを目的とする。
本発明の第1の態様は、情報取得装置に関する。本態様に係る情報取得装置は、目標領域に赤外光を投射する投射部と、第1のイメージセンサを有し、前記目標領域を撮像する第1の撮像部と、前記第1のイメージセンサにより取得された輝度値に基づいて、前記目標領域上の各位置に対する距離に関する情報を取得する距離取得部と、第2のイメージセンサを有し、可視光により画像を撮像する第2の撮像部と、を備える。ここで、前記第1の撮像部は、可視光を除去し赤外光を透過する第1のフィルタを備え、前記第2の撮像部
は、可視光を透過し赤外光を除去する第2のフィルタを備える。前記投射部、前記第1の撮像部および前記第2の撮像部は、前記投射部と前記第1の撮像部との間に前記第2の撮像部が介在することのないように、配置されている。
本発明の第2の態様は、物体検出装置に関する。本態様に係る物体検出装置は、第1の態様に係る情報取得装置と、前記情報取得装置によって取得された前記距離に関する情報に基づいて、前記目標領域に存在する物体を検出する物体検出部と、を備える。
本発明の第3の態様は、物体検出装置に関する。本態様に係る物体検出装置は、目標領域に赤外光を投射する投射部と、第1のイメージセンサを有し、前記目標領域を撮像する第1の撮像部と、前記第1のイメージセンサによって取得される輝度値に基づいて、前記目標領域における物体を検出する物体検出部と、第2のイメージセンサを有し、可視光により画像を撮像する第2の撮像部と、を備える。ここで、前記第1の撮像部は、可視光を除去し赤外光を透過する第1のフィルタを備え、前記第2の撮像部は、可視光を透過し赤外光を除去する第2のフィルタを備える。前記投射部、前記第1の撮像部および前記第2の撮像部は、前記投射部と前記第1の撮像部との間に前記第2の撮像部が介在することのないように、配置されている。
本発明によれば、目標領域に対する距離に関する情報を簡素な構成により円滑に取得することができ、且つ、当該情報を取得するために目標領域に投射される光の撮像カメラに対する影響を抑制することが可能な情報取得装置および当該情報取得装置を備えた物体検出装置を提供することができる。また、本発明によれば、目標領域に存在する物体を簡素な構成により円滑に検出することができ、且つ、物体を検出するために目標領域に投射される光の撮像カメラに対する影響を抑制することが可能な物体検出装置を提供することができる。
本発明の効果ないし意義は、以下に示す実施の形態の説明により更に明らかとなろう。ただし、以下に示す実施の形態は、あくまでも、本発明を実施化する際の一つの例示であって、本発明は、以下の実施の形態により何ら制限されるものではない。
実施の形態に係る物体検出装置を内蔵したパーソナルコンピュータの外観構成を示す図である。 実施の形態に係る情報取得装置および物体検出装置の構成を示す図である。 実施の形態に係る投射部、赤外撮像部および可視光撮像部の構成を示す図である。 実施の形態に係る目標領域に対する光の投射状態および赤外撮像部による目標領域の撮像状態を模式的に示す図である。 実施の形態に係る目標領域に対する光の投射状態および赤外撮像部と可視光撮像部による目標領域の撮像状態を模式的に示す図である。 実施の形態に係るイメージセンサの感度、および、輝度値と距離の関係を規定する距離変換関数の波形を示す図である。 実施の形態に係る距離情報の取得処理および物体検出処理を示すフローチャートである。 比較例に係る目標領域に対する光の投射状態および赤外撮像部と可視光撮像部による目標領域の撮像状態を模式的に示す図である。 変更例に係る目標領域に対する光の投射状態および赤外撮像部と可視光撮像部による目標領域の撮像状態を模式的に示す図である。 他の変更例に係る投射部と赤外撮像部の構成を示す図、当該変更例に係る目標領域に対する光の投射状態および目標領域の撮像状態を模式的に示す図、さらに他の変更例に係る投射部の構成を示す図、および、さらに他の変更例に係る赤外撮像部の構成を示す図である。 さらに他の変更例に係る投射部、赤外撮像部および可視光撮像部の配置状態を示す図である。 さらに他の変更例に係る輝度画像生成処理および物体検出処理を示すフローチャートである。 さらに他の変更例に係る物体検出装置および情報処理装置の構成を示す図である。 図13に示す変更例に係る物体検出処理を示すフローチャートである。
以下、本発明の実施の形態につき図面を参照して説明する。
本実施の形態は、ノート型のパーソナルコンピュータに本発明に係る物体検出装置を適用したものである。この他、本発明に係る物体検出装置は、デスクトップ型のパーソナルコンピュータやテレビ等の他の機器にも適宜適用可能なものである。なお、本発明に係る情報取得装置および物体検出装置は、必ずしも、他の機器に一体的に搭載されなくとも良く、単独で一つの装置を構成するものであっても良い。
以下に示す実施の形態において、距離取得部21bと撮像信号処理回路23は、請求項に記載の「距離取得部」に相当する。レンズ面111cは、請求項に記載の「レンズ部」に相当する。赤外撮像部200は、請求項に記載の「第1の撮像部」に相当する。可視光除去フィルタ230は、請求項に記載の「第1のフィルタ」に相当する。CMOSイメージセンサ240は、請求項に記載の「第1のイメージセンサ」に相当する。可視光撮像部300は、請求項に記載の「第2の撮像部」に相当する。赤外光除去フィルタ330は、請求項に記載の「第2のフィルタ」に相当する。CMOSイメージセンサ340は、請求項に記載の「第2のイメージセンサ」に相当する。また、情報取得装置2と情報処理部3とを含む構成が、請求項1、8、9に記載の物体検出装置に相当する。ただし、上記請求項と本実施の形態との対応の記載は、あくまで一例であって、請求項に係る発明を本実施の形態に限定するものではない。
図1は、本実施の形態に係るパーソナルコンピュータ1の概略構成を示す図である。図1に示すように、パーソナルコンピュータ1は、情報取得装置2と、情報処理部3を備えている。この他、パーソナルコンピュータ1は、キーボード4と、操作パッド5と、モニタ6を備えている。
情報取得装置2は、目標領域全体に、可視光の波長帯よりも長い赤外の波長帯域の光(赤外光)を投射し、その反射光をCMOSイメージセンサにて受光することにより、目標領域に存在する物体各部までの距離(以下、「距離情報」という)を取得する。情報処理部3は、情報取得装置2により取得された距離情報に基づいて、目標領域に存在する所定の物体を検出し、さらに、当該物体の動きを検出する。そして、情報処理部3は、当該物体の動きに応じて、パーソナルコンピュータ1の機能を制御する。
たとえば、ユーザが手を用いて所定のジェスチャを行うと、情報取得装置2からジェスチャに応じた距離情報が情報処理部3に送信される。この情報に基づき、情報処理部3は、ユーザの手を検出対象物体として検出し、手の動きに対応付けられた機能(画面の拡大・縮小や、画面の明るさ調整、ページ送り、等)を実行する。
さらに、情報取得装置2は、パーソナルコンピュータ1に向き合うユーザの画像を取得
するためのカメラ(後述の可視光撮像部300)を備えている。このカメラによって撮像された画像は、モニタ6上に表示され、あるいは、インターネット等のネットワークを介して他の機器(パーソナルコンピュータ等)に送信される。
図2は、情報取得装置2と情報処理部3の構成を示す図である。
情報取得装置2は、光学部の構成として、投射部100と、赤外撮像部200と、可視光撮像部300を備えている。投射部100、赤外撮像部200および可視光撮像部300は、X軸方向に直線状に並ぶように、配置されている。また、赤外撮像部200と可視光撮像部300は、投射部100が介在することなく、互いに隣り合っている。
なお、このように投射部100、赤外撮像部200および可視光撮像部300が、X軸方向に直線状に並ぶように配置される構成は、請求項2、10に記載の構成の一例である。また、赤外撮像部200と可視光撮像部300が互いに隣り合う構成は、請求項3、11に記載の構成の一例である。
投射部100は、赤外の波長帯域の光を出射する光源110を備えている。
赤外撮像部200は、アパーチャ210と、撮像レンズ220と、可視光除去フィルタ230と、CMOSイメージセンサ240とを備えている。この他、情報取得装置2は、回路部の構成として、CPU(Central Processing Unit)21と、赤外光源駆動回路2
2と、撮像信号処理回路23、24と、入出力回路25と、メモリ26を備えている。
光源110から目標領域に投射された光は、目標領域に存在する物体によって反射され、アパーチャ210を介して撮像レンズ220に入射する。
アパーチャ210は、撮像レンズ220のFナンバーに合うように、外部からの光を制限する。撮像レンズ220は、アパーチャ210を介して入射された光をCMOSイメージセンサ240上に集光する。可視光除去フィルタ230は、光源110の出射波長を含む波長帯域の光(赤外光)を透過し、可視光の波長帯域の光(可視光)をカットするバンドパスフィルタである。
CMOSイメージセンサ240は、後述のように、可視光の波長帯域と、光源110から出射される赤外光の波長帯域に対して感度を有するカラーのイメージセンサである。CMOSイメージセンサ240は、撮像レンズ220にて集光された光を受光して、画素毎に、受光量に応じた信号を撮像信号処理回路23に出力する。ここで、CMOSイメージセンサ240は、各画素における受光から高レスポンスでその画素の信号を撮像信号処理回路23に出力できるよう、信号の出力速度が高速化されている。
本実施の形態において、CMOSイメージセンサ240の撮像有効領域(センサとして信号を出力する領域)は、たとえば、VGA(横640画素×縦480画素)のサイズである。CMOSイメージセンサ240の撮像有効領域は、XGA(横1024画素×縦768画素)のサイズや、SXGA(横1280画素×縦1024画素)のサイズ等、他のサイズであっても良い。
可視光撮像部300は、上述のように、パーソナルコンピュータ1に向き合うユーザの画像を取得するためものである。可視光撮像部300は、アパーチャ310と、撮像レンズ320と、赤外光除去フィルタ330と、CMOSイメージセンサ240とを備えている。
アパーチャ310は、撮像レンズ320のFナンバーに合うように、外部からの光を制限する。撮像レンズ320は、アパーチャ310を介して入射された光をCMOSイメージセンサ340上に集光する。赤外光除去フィルタ330は、光源110の出射波長を含む波長帯域の光(赤外光)をカットし、可視光の波長帯域の光(可視光)を透過するバンドパスフィルタである。
CMOSイメージセンサ340は、可視光の波長帯域に対して感度を有する。CMOSイメージセンサ340は、撮像レンズ320にて集光された光を受光して、画素毎に、受光量に応じた信号を撮像信号処理回路24に出力する。
CMOSイメージセンサ340の撮像有効領域(センサとして信号を出力する領域)は、たとえば、VGA(横640画素×縦480画素)のサイズである。CMOSイメージセンサ340の撮像有効領域は、XGA(横1024画素×縦768画素)のサイズや、SXGA(横1280画素×縦1024画素)のサイズ等、他のサイズであっても良い。
CPU21は、メモリ26に格納された制御プログラムに従って各部を制御する。かかる制御プログラムによって、CPU21には、光源制御部21aと、距離取得部21bと、画像処理部21cの機能が付与される。
光源制御部21aは、赤外光源駆動回路22を制御する。距離取得部21bは、CMOSイメージセンサ240から出力される信号に基づいて、後述のように距離情報を取得する。画像処理部21cは、撮像信号処理回路24から出力される画像信号を処理して画像データを生成する。
赤外光源駆動回路22は、CPU21からの制御信号に応じて光源110を駆動する。
撮像信号処理回路23は、CPU21からの制御を受けてCMOSイメージセンサ240を駆動し、CMOSイメージセンサ240から出力される信号から、各画素の輝度信号を取得し、取得した輝度信号をCPU21に出力する。後述のように、撮像信号処理回路23は、CPU21により設定された露光時間をCMOSイメージセンサ240の各画素に適用し、さらに、CMOSイメージセンサ240から出力される信号に対してCPU21により設定されたゲインを適用して、画素毎に、輝度信号を取得する。
撮像信号処理回路24は、CPU21からの制御を受けてCMOSイメージセンサ340を駆動し、CMOSイメージセンサ340から出力される信号から画像信号を生成し、生成した画像信号をCPU21に出力する。
CPU21は、撮像信号処理回路23から供給される輝度信号をもとに、情報取得装置2から検出対象物体の各部までの距離を、距離取得部21bによる処理によって算出する。距離情報は、CMOSイメージセンサ240の画素毎に取得される。距離情報の取得処理については、追って、図7(a)を参照して説明する。
入出力回路25は、情報処理部3とのデータ通信を制御する。
メモリ26は、CPU21により実行される制御プログラムの他、距離情報の取得に用いられる距離変換関数を保持している。この他、メモリ26は、CPU21における処理の際のワーク領域としても用いられる。なお、距離変換関数については、追って、図6(b)を参照して説明する。
情報処理部3は、CPU31と、入出力回路32と、メモリ33を備えている。なお、
情報処理部3には、図2に示す構成の他、パーソナルコンピュータ1の各部を駆動および制御するための構成が配されるが、便宜上、これら周辺回路の構成は図示省略されている。
CPU31は、メモリ33に格納された制御プログラムに従って各部を制御する。かかる制御プログラムによって、CPU31には、物体検出部31aの機能と、当該物体検出部31aからの信号に応じて、パーソナルコンピュータ1の機能を制御するための機能制御部31bの機能が付与される。
物体検出部31aは、距離取得部21bによって取得される距離情報から物体の形状を抽出し、さらに、抽出した物体形状の動きを検出する。機能制御部31bは、物体検出部31aにより検出された物体の動きが所定の動きパターンに合致しているかを判定し、物体の動きが所定の動きパターンに合致している場合に、当該動きパターンに対応する制御を実行する。
この他、CPU31は、画像処理部21cから入力される画像データを処理する。CPU21は、画像データに基づく画像をモニタ6上に表示し、あるいは、ネットワークを介して他の装置に送信する。
図3(a)〜(c)は、投射部100、赤外撮像部200および可視光撮像部300の構成を示す図である。図3(a)は、光源110の構成を示す図、図3(b)は、回路基板400に設置された状態の投射部100、赤外撮像部200および可視光撮像部300を示す平面図であり、図3(c)は、図3(b)のA−A’断面図である。
図3(a)に示すように、本実施の形態において、光源110は、発光ダイオード(L
ED:Light Emitting Diode)からなっている。赤外光を発する発光素子(図示せず)は、ハウジング110a内に収容される。発光素子から発せられた赤外光は、上面の出射部110bから所定の放射角にて外部に出射される。図3(b)、(c)に示すように、光源110は、回路基板400上に実装されている。
なお、このように、光源110がLEDからなる構成は、請求項4、12に記載の構成の一例である。
図3(b)、(c)を参照して、赤外撮像部200は、上述のアパーチャ210、撮像レンズ220、可視光除去フィルタ230およびCMOSイメージセンサ240の他、レンズバレル250と、撮像レンズホルダ260を備えている。CMOSイメージセンサ240は、回路基板400上に実装されている。撮像レンズ220は、レンズバレル250に装着され、レンズバレル250は、撮像レンズ220を保持した状態で撮像レンズホルダ260に装着される。撮像レンズホルダ260は、下面に凹部を有し、この凹部に、可視光除去フィルタ230が装着される。こうして、撮像レンズ220と可視光除去フィルタ230とを保持した状態で、撮像レンズホルダ260が、CMOSイメージセンサ240を覆うように、回路基板400上に設置される。
可視光撮像部300は、赤外撮像部200と同様の構成を有する。すなわち、可視光撮像部300は、上述のアパーチャ310、撮像レンズ320、赤外光除去フィルタ330およびCMOSイメージセンサ340の他、レンズバレル350と、撮像レンズホルダ360を備えている。CMOSイメージセンサ340は、回路基板400上に実装されている。撮像レンズ320は、レンズバレル350に装着され、レンズバレル350は、撮像レンズ320を保持した状態で撮像レンズホルダ360に装着される。撮像レンズホルダ360は、下面に凹部を有し、この凹部に、赤外光除去フィルタ330が装着される。こ
うして、撮像レンズ320と赤外光除去フィルタ330とを保持した状態で、撮像レンズホルダ360が、CMOSイメージセンサ340を覆うように、回路基板400上に設置される。
本実施の形態において、撮像レンズ220は、4枚のレンズにより構成されている。しかしながら、撮像レンズ220を構成するレンズの数はこれに限られるものではなく、他の枚数のレンズから撮像レンズ220が構成されても良い。この点は、撮像レンズ320についても同様である。
回路基板400には、投射部100、赤外撮像部200および可視光撮像部300の他、情報取得装置2を構成する回路部500が実装される。図2に示すCPU21、赤外光源駆動回路22、撮像信号処理回路23、撮像信号処理回路24、入出力回路25およびメモリ26は、かかる回路部500に含まれる。
図4(a)は、目標領域に対する赤外光の投射状態および赤外撮像部200による目標領域の撮像状態を模式的に示す図である。
図4(a)の下部には、投射部100による赤外光の投射状態と、赤外撮像部200による目標領域の撮像状態が示されている。また、図4(a)の上部には、目標領域における赤外光の投射範囲と、目標領域に対する赤外撮像部200の撮像範囲が模式的に示されている。さらに、図4(a)の上部には、赤外撮像部200に配されたCMOSイメージセンサ240の撮像有効領域に対応する領域が示されている。図4(a)において、ΔLは、情報取得装置2による距離取得範囲を示し、LmaxとLminは、それぞれ、情報取得装置2によって取得可能な最大距離と最小距離を示している。図4(a)の上部には、目標領域が最大距離Lmaxの位置にあるときの投射範囲、撮像範囲および撮像有効領域が示されている。
図4(a)に示すように、撮像範囲と投射範囲は、目標領域において互いに重なり合っており、撮像範囲と投射範囲とが重なる範囲に、撮像有効領域が位置付けられる。目標領域をCMOSイメージセンサ240で撮像するためには、CMOSイメージセンサ240の撮像有効領域に対応する領域が、投射範囲内に含まれている必要がある。一方、距離が短くなるにつれて、投射範囲が狭くなり、やがて、投射範囲が撮像有効領域に対応する領域に掛らなくなる。したがって、最小距離Lminは、少なくとも、投射範囲が撮像有効領域全体に掛かり得る最小の限界距離よりも長く設定される必要がある。
一方、最大距離Lmaxは、手等の検出対象物体が存在し得る距離範囲を想定して設定される。最大距離Lmaxが長すぎると、検出対象物体の背景が撮像画像に映り込み、これにより、検出対象物体の検出精度が低下する惧れがある。したがって、最大距離Lmaxは、検出対象物体の背景が撮像画像に映り込まないよう、手等の検出対象物体が存在し得る距離範囲を想定して設定される。
なお、図3(a)に示すLEDが光源110として用いられる場合、図4(a)の下図に示すように、赤外光は、略均等に広がるように投射部100から出射される。このため、図4(a)の上図に示すように、投射範囲のうち、撮像範囲および撮像有効領域に掛らない範囲が広くなり、赤外光の利用効率が低くなってしまう。
この問題は、図4(b)に示すように、赤外光が目標領域において撮像範囲の近傍に集まるように、投射部100から出射される赤外光を指向させることにより解消される。このような構成は、図3(d)に示すLED111を光源110として用いることにより実現され得る。
図3(d)を参照して、LED111は、基部111aと、ハウジング111bとを備える。赤外光を発する発光素子(図示せず)は、透光性のハウジング111b内にモールドされる。ハウジング111bの上面は、レンズ面111cとなっており、このレンズ面111cによって、上面から外部に出射される赤外光の指向が調整される。レンズ面111cは、図4(b)に示すように、目標領域において赤外光が撮像範囲の近傍に集まるように調整される。これにより、撮像有効領域に導かれない赤外光の光量が削減され、赤外光の利用効率が高められる。
なお、このように、LEDである光源110から出射される赤外光を赤外撮像部200の撮像範囲の近傍に指向させる構成は、請求項5、13に記載の構成の一例である。
図5は、図4(a)にさらに可視光撮像部300の撮像範囲を重ねて表示したものである。図5の下部には、投射部100による赤外光の投射状態と、赤外撮像部200による目標領域の撮像状態と、可視光撮像部300による撮像状態が示されている。また、図5の上部には、目標領域における赤外光の投射範囲と、目標領域に対する赤外撮像部200の撮像範囲Aと、可視光撮像部300の撮像範囲Bが模式的に示されている。さらに、図5の上部には、赤外撮像部200に配されたCMOSイメージセンサ240の撮像有効領域に対応する領域(撮像有効領域A)と、可視光撮像部300に配されたCMOSイメージセンサ340の撮像有効領域に対応する領域(撮像有効領域B)が示されている。
図5に示すように、赤外光の投射範囲は、可視光撮像部300の撮像有効領域Bの一部に掛かる。このため、可視光撮像部300により撮像される画像は、投射部100から投射される赤外光が掛かる領域において、画質が損なわれることが起こり得る。これに対し、本実施の形態では、可視光撮像部300に、赤外光を除去する赤外光除去フィルタ330が配置されている。これにより、投射部100から投射された赤外光の投射領域が可視光撮像部300の撮像画像に映り込むことが抑制される。よって、可視光撮像部300の撮像画像の画質が投射部100からの赤外光によって損なわれることが防止される。
図6(a)は、赤外撮像部200に含まれるCMOSイメージセンサ240上の各画素の感度を模式的に示す図である。
本実施の形態では、CMOSイメージセンサ240として、カラーセンサが用いられる。したがって、CMOSイメージセンサ240には、赤、緑、青をそれぞれ検知する3種の画素が含まれる。
図6(a)において、R、G、Bは、それぞれ、CMOSイメージセンサ240に含まれる赤、緑、青の画素の感度を示している。図6(a)に示すとおり、赤、緑、青の画素の感度は、赤外の波長帯域である800nm以上の帯域において、略同じ感度となっている(図6(a)の斜線部分を参照)。したがって、図3(c)に示す可視光除去フィルタ230によって、可視光の波長帯域が除去されると、CMOSイメージセンサ240の赤、緑、青の画素の感度は、互いに略等しくなる。このため、赤、緑、青の画素に、それぞれ、同じ光量の赤外光が入射すると、各色の画素から出力される信号の値は略等しくなる。よって、各画素からの信号を画素間で調整する必要はなく、各画素からの信号をそのまま距離情報の取得に用いることができる。
なお、可視光撮像部300に含まれるCMOSイメージセンサ340上の各画素の感度も、図6(a)と同様である。この場合、赤外光除去フィルタ330によって赤外の波長帯域の光が除去されないと、投射部100から出射される赤外光によって、以下のように、可視光撮像部300の撮像画像の画質が損なわれてしまう。たとえば、緑の物体を撮像
している場合に、投射部100から赤外光が投射されると、図6(a)に示すようにCMOSイメージセンサ340上の赤と青の画素が赤外光に対しても感度を持つため、投射部100から出射される赤外光によって、赤と青の画素が輝度を持つこととなる。その結果、撮像画像は、緑に赤と青の成分が混ざった画像となってしまう。
本実施の形態では、可視光撮像部300に、赤外光を除去する赤外光除去フィルタ330が配置されているため、このような場合にも、投射部100から出射される赤外光によって赤と青の画素が輝度を持つことが抑制される。よって、撮像画像は、赤外光による影響が抑制された適正な緑の画像となる。
図6(b)は、メモリ26に保持された距離変換関数の波形を模式的に示す図である。便宜上、図6(b)には、図4(a)、(b)に示す最大距離Lmaxおよび最小距離Lminと、距離取得範囲ΔLが併せて示されている。
図6(b)に示すように、距離変換関数は、CMOSイメージセンサ240を介して取得される輝度値と、当該輝度値に対応する距離の関係を規定する。一般に、直進する光の光量は、距離の2乗に反比例して減衰する。したがって、投射部100から出射された赤外光は、投射部100から目標領域までの距離と目標領域から赤外撮像部200までの距離を加算した距離の2乗分の1に光量が減衰した状態で、赤外撮像部200によって受光される。このため、図6(b)に示すように、CMOSイメージセンサ240を介して取得される輝度値は、物体までの距離が長いほど小さくなり、物体までの距離が短いほど大きくなる。したがって、距離と輝度との関係を規定する距離変換関数は、図6(b)に示すような曲線波形になる。
情報取得装置2では、距離と輝度値との関係が距離変換関数に略整合するように、CMOSイメージセンサ240の露光時間が調整され、同時に、輝度値の取得に適用にされるゲインが調整される。図6(b)に示す例では、最小距離Lminは30cmに設定され、最大距離Lmaxは80cmに設定されている。輝度値は、256階調で取得される。
この場合、最小距離Lminに物体が存在するときの輝度値が230程度となり、最大距離Lmaxに物体が存在するときの輝度値が50程度となり、さらに、距離取得範囲ΔL内の他の距離の位置に物体が存在するときの輝度値が図6(b)の距離変換関数の波形に略整合するように、CMOSイメージセンサ240の露光時間が調整され、同時に、輝度値の取得に適用にされるゲインが調整される。より詳細には、投射部100から所定のパワーで赤外光を出射させた状態で、基準面(スクリーン)を最小距離Lminの位置から最大距離Lmaxの位置まで移動させて順次輝度値(階調)を取得する。このとき、取得した各輝度値が、図6(b)の波形に略整合するように、CMOSイメージセンサ240の露光時間が調整され、同時に、輝度値の取得に適用にされるゲインが調整される。
なお、露光時間とゲインのうち露光時間の調整のみによって、輝度値と距離の関係を図6(b)に示す距離変換関数に略整合させることが可能である場合には、露光時間の調整のみが行われれば良い。あるいは、ゲインの調整のみによって輝度値と距離の関係を図6(b)に示す距離変換関数に略整合させることが可能である場合には、ゲインの調整のみが行われれば良い。さらに、露光時間とゲイン以外の他のパラメータが調整されても良い。
かかる調整は、情報取得装置2の製造時に行われる。そして、調整された露光時間とゲインは、メモリ26に保持され、距離情報の取得の際に用いられる。
図7(a)は、距離情報の取得処理を示すフローチャートである。図7(a)の処理は
、図2に示すCPU21の機能のうち、距離取得部21bの機能によって実行される。
距離情報の取得タイミングが到来すると(S101:YES)、CPU21は、上記のように設定された露光時間とゲインをメモリ26から読み出して、撮像信号処理回路23に設定する。これにより撮像信号処理回路23は、設定された露光時間とゲインでもって、CMOSイメージセンサ240から撮像画像を取得し(S102)、取得した撮像画像から、画素毎に輝度値を取得する(S103)。取得された輝度値は、CPU21に送信される。CPU21は、撮像信号処理回路23から受信した各画素の輝度値をメモリ26に保持し、さらに、各画素の輝度値を所定の閾値Bshと比較する。そして、CPU21は、輝度値が閾値Bshに満たない画素に対してエラーを設定する(S104)。
続いて、CPU21は、閾値Bsh以上の輝度値を、メモリ26に保持された距離変換関数に基づく演算により距離に変換し(S105)、かかる変換により取得された距離を、それぞれ、対応する画素に設定して距離画像を生成する(S106)。この際、CPU21は、S104においてエラーとなった画素に、エラーを示す値(たとえば、0)を設定する。
こうして、距離画像が生成された後、CPU21は、距離情報の取得動作が終了したか否かを判定する(S107)。そして、距離情報の取得動作が終了していなければ(S107:NO)、CPU21は、処理をS101に戻して、次の距離情報の取得タイミングを待つ。
なお、S104における閾値Bshは、たとえば、図6(b)に示す距離変換関数において、最大距離Lmaxに対応する輝度値に設定される。これにより、最大距離Lmaxよりも遠方にある物体から反射された赤外光に基づく輝度値が、距離情報の取得対象から除外されることとなる。このため、検出対象物体の背景にある物体が撮像画像に映り込むことによって検出対象物体の検出精度が低下することが抑制される。
図7(b)は、物体検出処理を示すフローチャートである。図7(b)の処理は、図2に示すCPU31の機能のうち、物体検出部31aの機能によって実行される。
図7(a)のS106において距離画像が取得されると(S201:YES)、CPU31は、距離画像における最高階調の距離値(最も情報取得装置2に接近することを表す距離値)から所定の値ΔDを減じた値を距離閾値Dshに設定する(S202)。
次に、CPU31は、距離画像上において、距離値(階調値)が距離閾値Dshよりも高い領域を、対象領域として区分する(S203)。そして、CPU31は、輪郭抽出エンジンを実行し、区分した対象領域の輪郭と、メモリ26に保持された物体形状抽出テンプレートとを比較して、物体形状抽出テンプレートに保持された輪郭に対応する輪郭の対象領域を、検出対象物体に対応する領域として抽出する(S204)。なお、S204において検出対象物体が抽出されない場合、当該距離画像に対する検出対象物体の抽出は、エラーとされる。
こうして、検出対象物体の抽出処理が終了すると、CPU31は、物体検出動作が終了したか否かを判定する(S205)。物体検出動作が終了していない場合(S205:NO)、CPU31は、S201に戻り、次の距離画像が取得されるのを待つ。そして、次の距離画像が取得されると(S201:YES)、CPU21は、S202以降の処理を実行し、当該距離画像から検出対象物体を抽出する(S202〜S204)。
<実施の形態の効果>
以上、本実施の形態によれば、目標領域に投射される光をドットパターンに変換する必要がないため、投射部100の構成を簡素なものとすることができる。また、輝度値に基づいて各画素の距離情報が取得されるため、簡素な演算処理により距離情報を取得することができる。
また、可視光撮像部300に赤外光を除去する赤外光除去フィルタ330が配されているため、投射部100から出射された赤外光によって、可視光撮像部300の撮像画像の画質が損なわれることが抑制される。
さらに、本実施の形態では、可視光撮像部300が、投射部100と赤外撮像部200との間に介在することなく配置されているため、可視光撮像部300が投射部100と赤外撮像部200との間に配置される場合に比べて、可視光撮像部300の撮像画像に対する赤外光の影響を抑制することができる。
図8の下図は、投射部100と赤外撮像部200との間に可視光撮像部300が配置される場合(比較例)の、投射部100から出射される赤外光の投射状態と、赤外撮像部200による目標領域の撮像状態と、可視光撮像部300による撮像状態を示す図である。図8の上部には、目標領域における赤外光の投射範囲と、目標領域に対する赤外撮像部200の撮像範囲Aと、可視光撮像部300の撮像範囲Bが模式的に示されている。また、図8の上部には、赤外撮像部200に配されたCMOSイメージセンサ240の撮像有効領域に対応する領域(撮像有効領域A)と、可視光撮像部300に配されたCMOSイメージセンサ340の撮像有効領域に対応する領域(撮像有効領域B)が示されている。
図8に示すように、比較例では、上記実施の形態のように投射部100と可視光撮像部300とが赤外撮像部200を挟んで離れている場合(図5参照)に比べて、赤外光の投射領域が可視光撮像部300の撮像有効領域Bに多く掛かる。上記のように、赤外光は、可視光撮像部300内の赤外光除去フィルタ330によって大部分が除去されるものの、その全てを完全に除去することが困難な場合がある。このような場合、比較例では、赤外光の投射領域が可視光撮像部300の撮像有効領域Bに多く掛かるため、可視光撮像部300の撮像画像の画質が投射部100から出射された赤外光によって損なわれ易い。これに対し、上記実施の形態のように投射部100と可視光撮像部300とが赤外撮像部200を挟んで離れている場合は、赤外光の投射領域が可視光撮像部300の撮像有効領域Bに掛かる領域が抑えられるため、可視光撮像部300の撮像画像に対する投射部100から出射された赤外光の影響を抑制することができる。
なお、実施の形態は、たとえば、図9に示すように、赤外撮像部200と可視光撮像部300との間に投射部100を配置する構成(変更例)に変更され得る。図9に示す変更例によれば、上記比較例に比べて、投射部100からの赤外光が可視光撮像部300の撮像範囲Bに入射する範囲が小さくなるため、赤外光による可視光撮像部300の撮像画像に対する影響を抑制することができる。
しかしながら、図9に示す変更例では、赤外撮像部200と可視光撮像部300との間に投射部100が介在するため、上記実施の形態に比べて、赤外撮像部200と可視光撮像部300とが互いに離れることになる。このため、この変更例では、以下のように、ユーザのジェスチャがやや検出されにくくなるとの問題がある。
すなわち、パーソナルコンピュータ1の前にユーザが対峙すると、可視光撮像部300によって撮像されたユーザの画像がモニタ6上に表示される。このとき、ユーザは、しばしば、モニタ6に表示された自身の画像を見ながらジェスチャを入力する。この場合、ユーザは、表示された画像を見ることにより、自身が可視光撮像部300によって撮像され
ていることを認識する。このため、パーソナルコンピュータ1にジェスチャを入力する場合も、自ずと、可視光撮像部300に向かってジェスチャを行うようになる。しかしながら、ジェスチャは、可視光撮像部300ではなく、赤外撮像部200によって取得された画像により検出される。図9に示すように、変更例では、赤外撮像部200と可視光撮像部300との間に投射部100が介在することにより、赤外撮像部200の撮像範囲が可視光撮像部300の撮像範囲の中心からずれるため、このようにユーザが可視光撮像部300に向けてジェスチャを行った場合には、このジェスチャが、赤外撮像部200によって撮像されにくくなってしまう。このため、変更例では、上記実施の形態に比べて、ユーザのジェスチャがやや検出されにくくなる。
これに対し、本実施の形態では、赤外撮像部200と可視光撮像部300が互いに隣り合っており、赤外撮像部200が可視光撮像部300に接近しているため、赤外撮像部200の撮像範囲が、可視光撮像部300の撮像範囲の中心に近付く。このため、上記のようにユーザが、モニタ6の画像を見ながら、可視光撮像部300に向けてジェスチャを行った場合にも、可視光撮像部300によって、円滑に、ユーザのジェスチャが検出され得る。
このように、本実施の形態では、たとえば、インターネット電話等、可視光撮像部300により自身の画像を撮像しながら相手と通話を行う間に、同時に、赤外撮像部200によりジェスチャを検出してパーソナルコンピュータ1に所定の機能を実行させるような場合にも、可視光撮像部300により撮像される画像の画質を損なうことなく、所望の機能をパーソナルコンピュータ1に適正に実行させることが可能となるとの効果が奏され得る。
また、本実施の形態では、距離取得範囲ΔLに対応した輝度値が各画素から得られるように、CMOSイメージセンサ240の露光時間とゲインが設定されるため、最大距離Lmaxよりも遠方の物体から反射され画素に入射する赤外光の輝度は、図7(a)のS104における閾値Bshよりも小さくなり、距離情報の取得対象から除外される。これにより、距離取得範囲ΔLよりも遠方にある物体の画像が撮像画像に映り込むことにより検出対象物体の検出精度が低下することを抑制することができる。
以上、本発明の実施の形態について説明したが、本発明は、上記実施の形態に何ら制限されるものではなく、本発明の構成例も他に種々の変更が可能である。
たとえば、上記実施の形態では、光源110としてLEDを用いたが、LEDに代えて半導体レーザを光源110として用いることも可能である。
図10(a)、(b)は、光源110に半導体レーザを用いる場合の投射部100と赤外撮像部200の構成例を示す図である。図10(a)は、回路基板400に設置された状態の投射部100および赤外撮像部200を示す平面図であり、図10(b)は、図10(a)のA−A’断面図である。図10(a)、(b)では、便宜上、可視光撮像部300と、回路部500の部分の図示が省略されている。
図10(a)、(b)において、図3(b)、(c)の各部材と同一の部材には同一の符号が付されている。本変更における赤外撮像部200の構成は、図3(b)、(c)に示す実施の形態の赤外撮像部200の構成と同じである。また、可視光撮像部300の構成も、図3(b)、(c)に示す実施の形態と同じである。
本変更例では、半導体レーザからなる光源112と、凹レンズ120と、レンズホルダ130が配されている。光源112は、CANタイプの半導体レーザであり、赤外の波長
帯のレーザ光を出射する。光源112は、回路基板400上に実装される。凹レンズ120は、レンズホルダ130に保持される。凹レンズ120を保持したレンズホルダ130が、光源112を覆うように、回路基板400に設置される。凹レンズ120は、光源112から出射されたレーザ光が、目標領域において、図10(c)に示すように撮像範囲の近傍に集まるように、レーザ光を指向させる。
なお、このように、光源110が半導体レーザからなり、光源110から出射されたレーザ光を凹レンズ120により目標領域に投射する構成は、請求項6、14に記載の構成の一例である。
本変更例においても、上記実施の形態と同様、目標領域に投射される光をドットパターンとする必要がないため、投射部100の構成を簡素なものとすることができる。
なお、図10(a)、(b)の構成例では、凹レンズ120を保持するレンズホルダ130が用いられたが、図10(d)のように、光源112である半導体レーザのCANの出射面に凹レンズ140が装着され、凹レンズ140と光源112が一体化されていても良い。こうすると、レンズホルダ130を省略することができ、投射部100の構成をより簡素化することができる。
また、上記実施の形態では、赤外撮像部200において、可視光の波長帯域の光を除去するために可視光除去フィルタ230が用いられたが、撮像レンズ220の材料として可視光の波長帯域の光を吸収する材料を用い、撮像レンズ220にフィルタの機能を付与しても良い。
図10(e)は、この場合の赤外撮像部200の構成例を示す図である。
この構成例では、撮像レンズ221が、樹脂材料に染料を混ぜ込んだ材料から形成されている、染料としては、可視光の波長帯域の光の吸収が高く、赤外の波長帯域の光の吸収が低いものが用いられる。なお、ここでは、撮像レンズ221の材料に染料が混ぜ込まれたが、可視光の波長帯域の光の吸収が高く、赤外の波長帯域の光の吸収が低い材料であれば、染料以外の材料が混ぜ込まれても良い。また、図10(e)のように4枚のレンズから撮像レンズ221が形成される場合、必ずしも、全てのレンズに染料が混ぜ込まれなくても良く、可視光を適正に除去可能であれば、1つ、2つまたは3つのレンズに染料が混ぜ込まれても良い。
この構成例によれば、可視光除去フィルタ230を省略できるため、赤外撮像部200の構成をより簡素化することができ、また、赤外撮像部200の背高を低くすることができる。
なお、このように、撮像レンズ220が、可視光の波長帯域の光の吸収が高く、赤外の波長帯域の光の吸収が低い染料を樹脂材料に混ぜ込んだ材料から形成される構成は、請求項7、15に記載の構成の一例である。
ここでは、赤外撮像部200の撮像レンズ221に、可視光除去フィルタ230の機能を持たせたが、可視光撮像部300の撮像レンズ320に染料等を混ぜ込むことにより、撮像レンズ320に赤外光除去フィルタ330の機能を持たせても良い。
また、上記実施の形態では、投射部100、赤外撮像部200および可視光撮像部300が、X軸方向に直線状に並ぶように配置されたが、投射部100と赤外撮像部200との間に可視光撮像部300が介在しなければ、投射部100、赤外撮像部200および可
視光撮像部300が他のレイアウトによって配置されても良い。たとえば、図11(a)のように、投射部100が、赤外撮像部200にY軸負側に配置されても良く、あるいは、図11(b)のように、投射部100、赤外撮像部200および可視光撮像部300が、X軸負側から順番に直線状に並ぶように配置されても良い。
ただし、図11(a)の構成では、回路基板400のY軸方向の幅が大きくなるため、図1に示すようにパーソナルコンピュータ1のフレーム部分等に情報取得装置2を配置する場合には、この構成は不向きである。また、図11(a)の構成では、投射部100と可視光撮像部300との距離Dが短くなるため、可視光撮像部300の撮像画像が赤外光による影響を受け易くなる。よって、投射部100、赤外撮像部200および可視光撮像部300は、図3(b)、(c)または図11(b)のように、直線状に並ぶように配置されるのが望ましい。
また、上記実施の形態では、距離変換関数を用いた演算により輝度値が距離に変換されたが、輝度値と距離とを対応付けたテーブルをメモリ26に保持しておき、このテーブルに基づいて、輝度値から距離を取得するようにしても良い。また、図7(a)の処理では、S105において距離が取得されたが、ここで取得される距離は、距離値でなくとも良く、距離を表すことが可能な情報であれば良い。
また、上記実施の形態では、距離変換関数に基づいて輝度値を距離に変換して距離情報を取得したが、輝度値をそのまま距離に関する情報として取得しても良い。
図12(a)は、輝度値をそのまま距離に関する情報として取得する場合の輝度画像生成処理を示すフローチャートである。
図12(a)のフローチャートでは、図7(a)のS105が省略され、さらに、図7(a)のS106がS111に変更されている。すなわち、図12(a)のフローチャートでは、各画素の輝度値が距離値に変換されることなく、対応する画素に輝度値が設定されて輝度画像が生成される(S111)。上記実施の形態と同様、S104においてエラーが設定された画素には、エラーを示す値(たとえば、0)が設定される。
図12(b)は、物体検出処理を示すフローチャートである。図12(b)のフローチャートでは、距離画像に代えて輝度画像が参照される。
すなわち、図12(a)のS111において輝度画像が取得されると(S211:YES)、CPU31は、輝度画像における最高階調の輝度値(最も情報取得装置2に接近することを表す輝度値)から所定の値ΔBを減じた値を輝度閾値Bsh2に設定する(S212)。
次に、CPU31は、輝度画像上において、輝度値(階調値)が輝度閾値Bsh2よりも高い領域を、対象領域として区分する(S213)。そして、CPU31は、輪郭抽出エンジンを実行し、区分した対象領域の輪郭と、メモリ26に保持された物体形状抽出テンプレートとを比較して、物体形状抽出テンプレートに保持された輪郭に対応する輪郭の対象領域を、検出対象物体に対応する領域として抽出する(S214)。S214において検出対象物体が抽出されない場合、当該距離画像に対する検出対象物体の抽出は、エラーとされる。CPU31は、S211〜S214の処理を物体検出動作が終了するまで繰り返す(S215)。
図12(a)のフローチャートでは、距離変換関数に基づいて輝度値が距離に変換されないため、輝度画像上の各画素の輝度値は、正確な距離を表現するものとはならない。す
なわち、図6(b)に示すように、輝度と距離は、曲線状のグラフによって表わされる関係を有するため、輝度値を正確な距離として取得するためには、輝度値をこの曲線に従って調整する必要がある。図12(a)のフローチャートでは、取得された輝度値がそのまま輝度画像に設定されるため、輝度画像上の各画素の輝度値は、正確な距離を表わさず、誤差を含むものとなる。
しかしながら、この場合も、各画素の輝度値は、大まかな距離を表わすものとなるため、輝度画像を用いて検出対象物体を検出することは可能である。したがって、本変更例によっても、図12(b)のフローチャートによって、検出対象物体を検出することができる。
なお、図12(a)のフローチャートでは、S103で取得された輝度値が、S111において、そのまま輝度画像に設定されたが、輝度画像に設定される値は、輝度値でなくとも良く、輝度を表わすことが可能な情報であれば良い。
また、上記実施の形態では、情報取得装置2と情報処理装置3側の物体検出部31aによって物体検出装置が構成されたが、一つの装置によって物体検出装置が構成されても良い。
図13は、この場合の構成例を示す図である。図13の構成例では、図2の情報取得装置2が物体検出装置7に置き換えられている。なお、説明の便宜上、図10において、図2の構成と同一の構成には同一の符号が付されている。
図13の構成例では、CPU31から物体検出部31aの機能が除かれ、CPU21に物体検出部21eの機能が付加されている。また、メモリ33から物体形状抽出テンプレートが除かれ、メモリ26に物体形状抽出テンプレートが追加されている。さらに、図13の構成例では、図2の距離取得部21bが輝度情報取得部21dに置き換えられている。輝度情報取得部21dは、CMOSイメージセンサ240から取得される輝度値に基づいて輝度画像を生成する。
なお、図13に示す物体検出装置7もまた、請求項9に記載の構成の一例である。また、輝度情報取得部21eと物体検出部21eは、請求項9に記載の「物体検出部」に相当する。
図14は、本変更例における物体検出処理を示すフローチャートである。図14のフローチャートのうち、S102〜S111は、図13の輝度情報取得部21dにより行われ、S112〜S114は、図13の物体検出部21eにより行われる。S102〜S111の処理は、図12(a)のS102〜S111と同じであり、S112〜S114の処理は、図12(b)のS212〜S214と同じであるので、ここでは、これらステップの説明は省略する。
物体検出タイミングが到来すると(S201:YES)、CPU21は、S102〜S111の処理により輝度画像を生成する。そして、CPU21は、生成した輝度画像を参照してS112〜S114の処理を実行し、検出対象物体を検出する。S201〜S114の処理は、物体検出動作が終了するまで繰り返し実行される(S115)。
本変更例においても、上記実施の形態と同様、目標領域に投射される光をドットパターンに変換する必要がないため、投射部100の構成を簡素なものとすることができる。また、輝度値に基づいて各画素の距離情報が取得されるため、簡素な演算処理により距離情報を取得することができる。また、距離変換関数により輝度値を距離に変換することなく
、輝度値をそのまま用いて、物体検出が行われるため、物体検出の処理が簡素となる。
また、上記実施の形態および変更例では、CMOSイメージセンサ240上の全ての画素について距離および輝度値が取得されたが、必ずしも全ての画素について距離および輝度値が取得されなくとも良く、たとえば、数画素おきに距離および輝度値が取得されても良い。
また、上記実施の形態では、赤外撮像部200の可視光除去フィルタ230が撮像レンズ220とCMOSイメージセンサ240との間に配置されたが、可視光除去フィルタ230の配置位置は、これに限られるものではなく、撮像レンズ220よりも目標領域側であっても良い。同様に、可視光撮像部300の赤外光除去フィルタ330に配置位置も適宜変更可能である。
また、上記実施の形態では、CPU21による機能によってソフトウエア処理により距離情報が取得されたが、距離情報の取得が回路によるハードウエア処理により実現されても良い。
さらに、上記実施の形態では、受光素子として、CMOSイメージセンサ240を用いたが、これに替えて、CCDイメージセンサを用いることもできる。また、赤外以外の波長帯域の光を距離取得に用いることもできる。
この他、本発明の実施の形態は、特許請求の範囲に示された技術的思想の範囲内において、適宜、種々の変更が可能である。
1 … パーソナルコンピュータ
2 … 距離取得装置
21b … 距離取得部
21d … 輝度情報取得部(物体検出部)
21e … 物体検出部(物体検出部)
31a … 物体検出部
100 … 投射部
110 … 光源
111 … LED(発光ダイオード)
111c … レンズ面(レンズ部)
112 … 半導体レーザ
120、140 … 凹レンズ
200 … 赤外撮像部(第1の撮像部)
221 … 撮像レンズ(第1のフィルタ)
230 … 可視光除去フィルタ(第1のフィルタ)
240 … CMOSイメージセンサ(第1のイメージセンサ)
300 … 可視光撮像部(第2の撮像部)
330 … 赤外光除去フィルタ(第2のフィルタ)
340 … CMOSイメージセンサ(第2のイメージセンサ)

Claims (15)

  1. 目標領域に赤外光を投射する投射部と、
    第1のイメージセンサを有し、前記目標領域を撮像する第1の撮像部と、
    前記第1のイメージセンサにより取得された輝度値に基づいて、前記目標領域上の各位置に対する距離に関する情報を取得する距離取得部と、
    第2のイメージセンサを有し、可視光により画像を撮像する第2の撮像部と、を備え、
    前記第1の撮像部は、可視光を除去し赤外光を透過する第1のフィルタを備え、
    前記第2の撮像部は、可視光を透過し赤外光を除去する第2のフィルタを備え、
    前記投射部、前記第1の撮像部および前記第2の撮像部は、前記投射部と前記第1の撮像部との間に前記第2の撮像部が介在することのないように、配置されている、
    ことを特徴とする情報取得装置。
  2. 請求項1に記載の情報取得装置において、
    前記第1の撮像部、前記第2の撮像部および前記投射部が直線状に並ぶように配置されている、
    ことを特徴とする情報取得装置。
  3. 請求項1または2に記載の情報取得装置において、
    前記第1の撮像部と前記第2の撮像部が互いに隣り合うように配置されている、
    ことを特徴とする情報取得装置。
  4. 請求項1ないし3の何れか一項に記載の情報取得装置において、
    前記投射部は、前記赤外光の光源である発光ダイオードを含む、
    ことを特徴とする情報取得装置。
  5. 請求項4に記載の情報取得装置において、
    前記投射部は、前記発光ダイオードから出射される前記赤外光を前記目標領域に指向させるレンズ部をさらに含む、
    ことを特徴とする情報取得装置。
  6. 請求項1ないし3の何れか一項に記載の情報取得装置において、
    前記投射部は、前記赤外光の光源である半導体レーザと、前記半導体レーザから出射されるレーザ光を前記目標領域に投射する凹レンズとを含む、
    ことを特徴とする情報取得装置。
  7. 請求項1ないし6の何れか一項に記載の情報取得装置において、
    前記第1の撮像部は、前記目標領域に照射された前記赤外光を前記第1のイメージセンサに集光する撮像レンズを含み、
    前記撮像レンズは、可視光を吸収し、前記赤外の波長帯域の光を透過する材料からなり、前記第1のフィルタが前記撮像レンズに一体的に含まれている、
    ことを特徴とする情報取得装置。
  8. 請求項1ないし7の何れか一項に記載の情報取得装置と、
    前記情報取得装置によって取得された前記距離に関する情報に基づいて、前記目標領域に存在する物体を検出する物体検出部と、を備える、
    ことを特徴とする物体検出装置。
  9. 目標領域に赤外光を投射する投射部と、
    第1のイメージセンサを有し、前記目標領域を撮像する第1の撮像部と、
    前記第1のイメージセンサによって取得される輝度値に基づいて、前記目標領域における物体を検出する物体検出部と、
    第2のイメージセンサを有し、可視光により画像を撮像する第2の撮像部と、を備え、
    前記第1の撮像部は、可視光を除去し赤外光を透過する第1のフィルタを備え、
    前記第2の撮像部は、可視光を透過し赤外光を除去する第2のフィルタを備え、
    前記投射部、前記第1の撮像部および前記第2の撮像部は、前記投射部と前記第1の撮像部との間に前記第2の撮像部が介在することのないように、配置されている、
    ことを特徴とする物体検出装置。
  10. 請求項9に記載の物体検出装置において、
    前記第1の撮像部、前記第2の撮像部および前記投射部が直線状に並ぶように配置されている、
    ことを特徴とする物体検出装置。
  11. 請求項9または10に記載の物体検出装置において、
    前記第1の撮像部と前記第2の撮像部が互いに隣り合うように配置されている、
    ことを特徴とする物体検出装置。
  12. 請求項9ないし11の何れか一項に記載の物体検出装置において、
    前記投射部は、前記赤外光の光源である発光ダイオードを含む、
    ことを特徴とする物体検出装置。
  13. 請求項12に記載の物体検出装置において、
    前記投射部は、前記発光ダイオードから出射される前記赤外光を前記目標領域に指向させるレンズ部をさらに含む、
    ことを特徴とする物体検出装置。
  14. 請求項9ないし11の何れか一項に記載の物体検出装置において、
    前記投射部は、前記赤外光の光源である半導体レーザと、前記半導体レーザから出射されるレーザ光を前記目標領域に投射する凹レンズとを含む、
    ことを特徴とする物体検出装置。
  15. 請求項9ないし14の何れか一項に記載の物体検出装置において、
    前記第1の撮像部は、前記目標領域に照射された前記赤外光を前記第1のイメージセンサに集光する撮像レンズを含み、
    前記撮像レンズは、可視光を吸収し、前記赤外の波長帯域の光を透過する材料からなり、前記第1のフィルタが前記撮像レンズに一体的に含まれている、
    ことを特徴とする物体検出装置。
JP2013023778A 2013-02-08 2013-02-08 情報取得装置および物体検出装置 Pending JP2016065718A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013023778A JP2016065718A (ja) 2013-02-08 2013-02-08 情報取得装置および物体検出装置
PCT/JP2013/007538 WO2014122713A1 (ja) 2013-02-08 2013-12-24 情報取得装置および物体検出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013023778A JP2016065718A (ja) 2013-02-08 2013-02-08 情報取得装置および物体検出装置

Publications (1)

Publication Number Publication Date
JP2016065718A true JP2016065718A (ja) 2016-04-28

Family

ID=51299329

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013023778A Pending JP2016065718A (ja) 2013-02-08 2013-02-08 情報取得装置および物体検出装置

Country Status (2)

Country Link
JP (1) JP2016065718A (ja)
WO (1) WO2014122713A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6216842B1 (ja) * 2016-07-08 2017-10-18 Idein株式会社 画像処理装置、画像処理方法、プログラム及びシステム
JP2018013949A (ja) * 2016-07-21 2018-01-25 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 移動体、移動体の障害物検知方法および移動体の障害物検知プログラム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109993796A (zh) * 2017-12-28 2019-07-09 沈阳新松机器人自动化股份有限公司 一种测量移动反光靶位置的装置及方法
DE102019003049B4 (de) * 2019-04-27 2021-04-29 Tarsier Gmbh Vorrichtung und Verfahren zum Erfassen von Objekten
CN111175778B (zh) * 2020-01-13 2024-02-06 吉林大学 一种航空用三目异光源摄像头及其测距及定位方法
CN113075692A (zh) * 2021-03-08 2021-07-06 北京石头世纪科技股份有限公司 目标检测及控制方法、系统、设备及存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009174854A (ja) * 2006-05-09 2009-08-06 Panasonic Corp 測距用画像選択機能を有する測距装置
JP5224319B2 (ja) * 2007-07-23 2013-07-03 富士フイルム株式会社 立体撮像装置および立体撮像装置の制御方法並びにプログラム
JP5178393B2 (ja) * 2008-08-20 2013-04-10 シャープ株式会社 光学式測距センサおよび電子機器
WO2012137434A1 (ja) * 2011-04-07 2012-10-11 パナソニック株式会社 立体撮像装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6216842B1 (ja) * 2016-07-08 2017-10-18 Idein株式会社 画像処理装置、画像処理方法、プログラム及びシステム
JP2018013949A (ja) * 2016-07-21 2018-01-25 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 移動体、移動体の障害物検知方法および移動体の障害物検知プログラム

Also Published As

Publication number Publication date
WO2014122713A1 (ja) 2014-08-14

Similar Documents

Publication Publication Date Title
WO2014122713A1 (ja) 情報取得装置および物体検出装置
CN1226864C (zh) 图象感测设备及黑斑校正方法
US10652513B2 (en) Display device, display system and three-dimension display method
JP2013124985A (ja) 複眼式撮像装置および測距装置
US20100157387A1 (en) Document reader
JP5034927B2 (ja) 情報取得装置、情報取得方法および情報取得プログラム
JP2024063018A (ja) 情報処理装置、撮像装置、情報処理方法、及びプログラム
JP2014181949A (ja) 情報取得装置および物体検出装置
US11061139B2 (en) Ranging sensor
US20220206159A1 (en) Processing apparatus, electronic apparatus, processing method, and program
WO2014122712A1 (ja) 情報取得装置および物体検出装置
JP6368593B2 (ja) 画像処理プログラム、情報処理システム、画像処理方法
JP2021056588A (ja) 位置検出装置、プロジェクター、及び位置検出方法
JP2020193957A (ja) 測距異常を補正する距離画像生成装置
JP2014163830A (ja) 情報取得装置および物体検出装置
US10939018B2 (en) Image processing apparatus, image processing method, and storage medium
JP2014174101A (ja) 物体検出装置
JP3901884B2 (ja) 画像処理方法および装置
US10334161B2 (en) Image processing apparatus, image processing method, computer program and imaging apparatus
US11979666B2 (en) Processing apparatus, electronic apparatus, processing method, and program
JP6386837B2 (ja) 画像処理プログラム、情報処理システム、情報処理装置、画像処理方法
JP6277695B2 (ja) 撮像装置、調整装置および調整方法
JP7123384B2 (ja) 画像信号処理装置
EP3387675A1 (en) Image sensor configured for dual mode operation
US20150156382A1 (en) Multi-channel glare-suppression device of a digital image system