JP2016529491A - 飛行時間型カメラシステム - Google Patents

飛行時間型カメラシステム Download PDF

Info

Publication number
JP2016529491A
JP2016529491A JP2016526665A JP2016526665A JP2016529491A JP 2016529491 A JP2016529491 A JP 2016529491A JP 2016526665 A JP2016526665 A JP 2016526665A JP 2016526665 A JP2016526665 A JP 2016526665A JP 2016529491 A JP2016529491 A JP 2016529491A
Authority
JP
Japan
Prior art keywords
cameras
tof
camera system
tof camera
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016526665A
Other languages
English (en)
Other versions
JP6480441B2 (ja
Inventor
ニーウェンホーフェ,ダニエル ファン
ニーウェンホーフェ,ダニエル ファン
トロ,ジュリエン
Original Assignee
ソフトキネティク センサーズ エヌブイ
ソフトキネティク センサーズ エヌブイ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソフトキネティク センサーズ エヌブイ, ソフトキネティク センサーズ エヌブイ filed Critical ソフトキネティク センサーズ エヌブイ
Publication of JP2016529491A publication Critical patent/JP2016529491A/ja
Application granted granted Critical
Publication of JP6480441B2 publication Critical patent/JP6480441B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/218Image signal generators using stereoscopic image cameras using a single 2D image sensor using spatial multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/25Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/236Image signal generators using stereoscopic image cameras using a single 2D image sensor using varifocal lenses or mirrors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/41Extracting pixel data from a plurality of image sensors simultaneously picking up an image, e.g. for increasing the field of view by combining the outputs of a plurality of sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Abstract

本発明は、幾つかのカメラを備えるTOFカメラシステムに関し、これらのカメラのうちの少なくとも1つは、TOFカメラであり、これらのカメラは、共通の基板上に組み立てられて同じシーンを同時に画像化し、かつ少なくとも2つのカメラは、異なる駆動パラメータによって駆動される。

Description

本発明は、飛行時間型(TOF)距離画像化システム、即ち、TOFカメラシステムに関する。具体的には、本発明の目的は、シーン(環境、領域)の高品質な3D画像を提供することにある。
コンピュータビジョンは、画像を捕捉し、処理し、分析しかつ理解するための方法を含む、成長中の研究分野である。この分野を推進する主たる考案は、人の視覚系を、シーンの画像を電子的に知覚しかつ理解することによって複製することにある。特に、コンピュータビジョンにおける研究テーマの1つは、奥行知覚、言い替えれば、三次元(3D)ビジョンである。
人の場合、奥行知覚は、脳が、両眼により捕捉される一シーンの僅かに異なる2つの画像を融合させてとりわけ奥行情報を回収する、所謂立体感によって生じる。さらに、最新の研究は、シーン内のオブジェクトを認識する能力が奥行知覚にさらに大きく寄与することを示している。
カメラシステムの場合、奥行情報の入手は容易でなく、複雑な方法およびシステムを必要とする。シーンを画像化する場合、ある従来の2次元(2D)カメラシステムは、シーンの各点を所定のRGB色情報に関連づける。画像化プロセスの終わりに、シーンの2D色マップが生成される。色は、変化するシーン照射への依存性が高く、かつ本質的に次元情報を全く含まないことから、標準的な2Dカメラシステムは、シーン内のオブジェクトをこの色マップから容易に認識することができない。コンピュータビジョンを開発するための、かつ特には3D画像化を開発するための、具体的には、奥行関連情報の直接的捕捉およびシーンまたはオブジェクトに関連する次元情報の間接的捕捉を可能にする新しい技術が導入されてきている。3D画像化システムにおける最近の進歩は著しく、業界、学界および消費者社会からの関心が高まってきている。
3D画像の生成に使用される最も一般的な技術は、立体感を基礎としている。2台のカメラが同一シーンの写真を撮るが、これらのカメラは、ちょうど人の両目のように、距離を隔てて分離されている。コンピュータは、2つの画像を移動させて互いに重ね合わせながらこれらの画像を比較し、一致する部分と一致しない部分とを見分ける。移動される量は、格差と呼ばれる。画像内のオブジェクトが最も良く一致する際の格差は、コンピュータにより、カメラセンサの幾何学的パラメータおよびレンズ仕様を追加的に用いて距離情報、即ち奥行マップを計算するために使用される。
さらに新しくかつ異なる別の技術は、図1に示されている飛行時間型(TOF)カメラシステム3によって代表される。TOFカメラシステム3は、専用の照射部18を有するカメラ1と、データ処理手段4とを含む。TOFカメラシステムは、光源18からオブジェクトまでの光の飛行時間を分析することによって、シーン15の3D画像を捕捉することができる。このような3Dカメラシステムは、現在、奥行または距離情報の測定を必要とする多くの用途において使用されている。赤−緑−青(RGB)カメラシステム等の標準的な2Dカメラシステムは、受動的な技術であり、つまりは、周辺光を用いて画像を捕捉し、よって追加的な光の放射に基づくものではない。一方で、TOFカメラシステムの基本的な動作原理は、例えば少なくとも1つの既定の周波数である幾つかの光パルスを有する専用の照射部を用いて、シーン15を既定の波長における変調光16で積極的に照射するというものである。変調光は、シーン内のオブジェクトから反射されて戻る。レンズは、反射光17を収集して、画像化センサ1上にオブジェクトの画像を形成する。オブジェクトのカメラからの距離に依存して、変調光、例えば所謂光パルスの放射と、カメラにおけるこれらの光パルスの受信との間に遅延が発生する。ある一般的な実施形態において、反射する側のオブジェクトとカメラとの間の距離は、観測される時間遅延および光速定数値の関数として決定され得る。さらに複雑かつ信頼性の高い別の実施形態において、放射される参照光パルスと捕捉される光パルスとの間の複数の位相差は、「3D time−of−flight distance measurement with custom solid−state image sensors in CMOS/CCD technology」と題するRobert Lange著博士論文において紹介されているように決定され、かつ奥行情報の推定に使用され得る。
TOFカメラシステムは、各々が明確な機能を有する幾つかの要素を備える。
1)TOFカメラシステムの第1のコンポーネントは、照射部18である。パルスを用いる場合、各光パルスのパルス幅は、カメラレンジを決定する。例えば、パルス幅が50nsである場合、レンジは、7.5mに制限される。その結果、シーンの照射は、TOFカメラシステムの動作にとって不可欠なものとなり、照射部の高速駆動周波数要件によって、このような短い光パルスを生成するために、発光ダイオード(LED)またはレーザ等の特殊化された光源を用いることが必要になる。
2)TOFカメラシステムの別のコンポーネントは、画像化センサ1またはTOFセンサである。画像化センサは、典型的には、シーンの画像を形成するピクセルのマトリクスアレイを備える。ピクセルに関しては、画素が、光電磁放射線ならびにその関連電子回路に感応することは理解されるべきである。ピクセルの出力は、照射部からシーン内のオブジェクトに至り、かつオブジェクトから反射されてTOF画像化センサへ戻るまでの飛行時間を決定するために使用されることが可能である。飛行時間は、TOFセンサへ連結され得る、または直にTOFセンサ自体に一体化され得る別の処理部において計算されることが可能である。照射部からオブジェクトへと進み、かつオブジェクトから画像化センサへ反射されて戻る際の光のタイミングを測定する方法は、様々なものが知られている。
3)TOFカメラシステムには、画像化光学系2および処理電子装置4も装備される。画像化光学系は、シーン(環境、領域)内のオブジェクトからの反射光を、通常はIRドメイン内で収集し、かつ照射部により放出された光とは異なる波長における光を除くように設計される。実施形態によっては、この光学系は、TOF原理による測定値用の赤外線照射、およびRGB色測定用の可視照射の捕捉を可能にし得る。処理電子装置は、TOFセンサを、幾つかの特徴の中でも、照射部により放出されるものとは異なる周波数であるが、類似の波長を有する光(典型的には、太陽光)を除くように駆動する。望ましくない波長または周波数を除けば、背景光を効果的に抑制することができる。処理電子装置は、さらに、照射部および画像化センサの双方のためのドライバを含み、よって、これらのコンポーネントは、精確な画像捕捉が実行されること、およびシーンの信頼性のある奥行マップが決定されることを保証すべく正確に同期制御されることが可能である。
TOFカメラシステムを構成する要素の選定は、極めて重大である。TOFカメラシステムは、使用される要素のタイプおよびパフォーマンスに依存して、数ミリメートルから数キロメートルに至る広範な範囲をカバーする傾向がある。このようなTOFカメラシステムは、センチメートル未満から数センチメートルまたは数メートルにまでも変わる距離精度を有することがある。TOFカメラシステムを用いて使用されることが可能な技術には、デジタル・タイム・カウンタを有するパルス光源、位相検出器を有する無線周波(RF)変調光源、およびレンジゲート式イメージャが含まれる。
TOFカメラシステムには、幾つかの欠点がある。現行のTOFイメージャまたはTOFセンサにおいて、ピクセルピッチは、通常、10μmから100μmまでの範囲内である。技術の新規性、およびTOFピクセルのアーキテクチャが極めて複雑であるという事実に起因して、効率的な信号対雑音比(SNR)を維持しかつ低コストでの大量生産の関連要件を維持しながら小さいピクセルサイズを設計することは、困難である。そのため、結果的に、TOF画像センサのチップサイズは、比較的大きくなる。従来の光学素子の場合、このような大型サイズの画像センサは、ダイ上へ嵌合するように大きくて厚い光学スタックを必要とする。概して、必要とされる分解能と、可搬質量の消費者製品への埋込みを可能にするデバイス厚さとの間には、妥協が見出されなければならない。
さらに、TOFカメラシステムによって取得される奥行測定値は、幾つかの理由で誤って決定されることがある。第1に、このようなシステムの分解能は、改良されるべきものである。大きいピクセルサイズは、大きいセンサチップを必要とし、よって、センサの分解能は、TOFセンサのサイズによって制限される。第2に、このようなシステムの奥行測定精度は、複数のパラメータの中でもとりわけ、信号対雑音比および変調周波数(奥行精度および奥行測定動作範囲を決定する変調周波数)に大きく依存するという理由で、いまだ改良が必要である。具体的には、奥行測定における不確定性または不精確さは、後に詳述する「奥行のエイリアシング」と呼ばれる効果に起因し得る。さらに、不確定性の原因は、背景における追加的な光の存在にある可能性もある。実際に、TOFカメラシステムのピクセルは、入射光を受信しかつこれを電気信号、例えば電流信号、に変換する感光性要素を備える。シーンの捕捉中に、センサが感応する波長において背景光が強すぎれば、ピクセルは、シーン内のオブジェクトから反射されるものではない追加的な光を受信する場合があり、これが奥行の測定値を変えることがある。
現時点で、TOF画像化の分野では、本技術固有の主たる欠点を少なくとも部分的に克服するために、例えば、よりロバストかつ精確な奥行測定、ディエイリアシングまたは背景光のロバスト性機構を可能にする改良された変調周波数システム等のオプションが幾つか利用可能である。
大量生産される携帯デバイスとの統合に準拠させるべくシステム全体の厚さを制限しかつ視差問題をも低減しながら、これらの欠点に纏めて対処しかつさらにはTOFカメラシステムの分解能を向上させる解決策は、未だ提案されていない。
Robert Lange著博士論文「3D time−of−flight distance measurement with custom solid−state image sensors in CMOS/CCD technology」
本発明は、幾つかのカメラを備えるTOFカメラシステムに関し、これらのカメラのうちの少なくとも1つは、TOFカメラであり、これらのカメラは、共通の基板上に組み立てられて同じシーンを同時に画像化し、かつ少なくとも2つのカメラは、異なる駆動パラメータによって駆動される。
少なくとも1つのTOFカメラの奥行情報を、異なるパラメータにより駆動される別のカメラからの少なくともこうした情報と組み合わせて用いれば、画像がこれらのカメラによって同時に捕捉されることに起因して、全てのカメラ情報の融合により、結果的に得られる画像品質の精緻化および増強が促進され、かつ具体的には、捕捉されるシーン(環境、領域)からのより高品質な奥行マップの取得が促進される。
効果的には、カメラのセンサは、製造されて、例えばシリコンベースの基板またはウエハ等の共通する基板上に組み立てられ、これにより、TOFカメラシステムの厚さおよびサイズが低減される。この共通基板は、幾つかのカメラの使用によって生じる視差問題の低減をも可能にする。
好ましくは、TOFカメラシステムは、さらに、幾つかのレンズによるアレイも備え、アレイの各レンズは、各カメラに関連づけられる。これらのレンズは、衝突光を関連する個々のカメラセンサの感光部位へ集束させる手助けをする。
効果的には、駆動パラメータは、立体技術を実装するため、かつ/またはディエイリアシングアルゴリズム(dealiasing:脱エイリアシングアルゴリズム)を実装するため、かつ/または背景光のロバスト性を備える機構を実装するためのパラメータを含む。ディエイリアシング(エイリアシングを除去すること)に関しては、後述する。
より効果的には、TOFカメラシステムの少なくとも2つのカメラは、同じシーンを異なる積分時間中に画像化してもよい。
より効果的には、TOFカメラシステムは、各々が同じシーンを画像化しかつ異なる変調周波数から奥行情報を決定するように駆動される1つのTOFセンサを有する2つのTOFカメラを備えてもよい。
より好ましくは、TOFカメラシステムは、さらに、可視レンジ内の光および/または赤外光を除去するための手段を備えてもよい。光を除去するためのこのような手段の使用は、各センサが感応しなければならないレンジ内の波長を選ぶための光のチューニングを可能にする。
本発明は、添付の図面を参照する以下の説明を読めば、より良く理解されるであろう。
TOFカメラシステムの基本的な動作原理を示す。 多レンズTOFセンサスタックを示す。 図2に示されているようなスタックにおいて使用される標準的なTOFセンサを示す。 図2に示されているようなスタック用に最適化されたカスタムTOFセンサを示す。 別々の4つのTOFセンサを用いる、図2に示されているようなスタックを示す。 カラーフィルタおよび赤外線フィルタも用いる多レンズTOFセンサスタックを示す。
本発明を、特定の実施形態に関連して、かつ所定の図面を参照して説明するが、本発明は、これらに限定されるものではない。図面は、単なる略図であって、限定的なものではない。諸図を通じて、一部の要素のサイズは、例示を目的として誇張され、縮尺通りに描かれていない場合がある。
図1に示されているように、従来のTOFカメラシステムは、1つのTOFセンサ1およびその関連の光学手段2(例えば、レンズ)と、TOF原理仕様を参考にしてシーン15を照射するための照射部18と、少なくとも照射部およびTOFセンサを駆動するための電子回路4とを備える。光は、通常、赤外波長領域内に存在し、かつシーンへ向かって放出される周期的な変調光16を含む。TOFセンサおよびその関連光学手段は、シーンから反射されて戻る放出された変調光を捕捉できるように設計される。シーンのオブジェクトと、こうして形成されるTOFカメラシステムとの間の奥行情報を決定するための1つのオプションは、放出されるパルス光または変調光とTOFセンサにおいて受信し戻される光との間の位相遅延を決定することである。
飛行時間画像、即ち奥行マップ、の品質および分解能を向上させ、かつTOFカメラシステムの厚さを低減するために、本発明は、幾つかのカメラを備える新規TOFカメラシステムに関し、これらのカメラのうちの少なくとも1つは、TOFカメラであり、これらのカメラは、共通のサポート上に組み立てられて同じシーンを画像化し、かつ少なくとも2つのカメラは、異なる駆動パラメータによって駆動される。
カメラという用語は、少なくとも衝突光の電磁放射線を捕捉するための手段を備える電子デバイスシステムを意味する。例えば、1つのカメラは、少なくともセンサデバイスの単一ピクセルによって表されてもよい。また、1つのカメラは、センサデバイス上のピクセルグループによって、またはセンサデバイス全体によって表されてもよい。好ましくは、少なくとも1つのカメラを決定するセンサデバイスは、ピクセルのマトリクスアレイと、これを動作させるための回路とを備える。回路は、さらに、使用される少なくとも1つのセンサデバイスからの各ピクセルおよび/または各カメラにより測定されるデータをさらに処理するための電子手段を備えてもよい。また、本発明は、より一般的には、各々が少なくとも1つのセンサデバイスを有する複数の独立したカメラを備える、かつこれらのカメラのうちの少なくとも1つはTOFセンサデバイスを備えるTOFカメラシステムにも関連し得る。
次に、本発明を、4カメラアレイによる対称構造に関連して説明する。この時点で、本発明の諸態様は、各々が少なくとも1つのレンズに関連づけられる4つのカメラに限定されるものではなく、また使用する例に示されている対称性にも限定されないことに留意されたい。当業者であれば、記述される原理をより少数の、またはより多数のレンズおよびカメラへと、例えば、2つのカメラがその上に画定される少なくとも1つのセンサに関連づけられる2つのレンズへと、かつ/または異なる構造の視点へと容易に外挿することができる。
幾つかのカメラを備え、そのうちの少なくとも1つがTOFカメラであるTOFカメラシステムを設計する場合、カメラを配列する構成の可能性は幾つか存在する。
図2には、画像センサ平面100であるサポートの上に4つのレンズA、B、C、D(101−104)を有する第1の構成が示されている。各レンズは、画像化されるシーンから到来する衝突光が画像センサ平面の個々のカメラ上に集束されることを可能にする。例えば、ある実施形態において、各レンズは、捕捉される光をTOF画像センサ上に画定される各カメラ上に集束する。4つの個別画像の融合により、より大きい単一の高分解能カメラTOFセンサシステムより少ない厚さを有する、より高い分解能の画像が提供され得る。
図3から図5までには、サポート、即ち画像センサ平面100と、4つのカメラ107と、その関連回路110が示されている。サポート内における可能な画像センサ回路構成が、幾つか表示されている。
1)図3に示されている第1の構成は、最も単純なものである。単一のTOF画像センサデバイスが使用され、これは、4つのレンズ101−104によって構成される、または区切られる4つの画像部位107(即ち、カメラ)を覆う。様々なアナログおよび/またはデジタルブロック(信号調整、アナログ−デジタル変換、フィルタリング、画像センサ処理...)を備える画像センサ回路110は、この事例では、画像センサ側に示されていて、全てのTOFピクセルは、グループ化されている。この手法の優位点は、既存のTOF画像センサデバイスをこの原理に使用できることにある。この手法の1つの欠点は、領域107間の多くのTOFピクセルが光学素子101−104の像平面内に存在せず、よってちなみに、これらは無用であることにある。この手法の別の欠点は、効率的なTOFセンサデバイスは、元来、所与のサイズでは分解能が限定的であることから、このようなシステムは、分解能を制限されることにある。この手法の別の欠点は、シーンから、TOF原理ベースの情報、即ち、奥行マップおよび照射または信頼度グレースケールマップしか提供されないことにある。
2)第2の可能な構成は、図4に示されていて、(例えば、同じシリコン基板上に設計される)共通のサポート上に幾つかのカメラが組み立てられる。この構成では、各カメラもその固有のレンズによって覆われる。光学素子により画定される領域内に位置決めされるカメラのみが、画像を生成する。この方法では、画像センサ回路は、領域107間の自由空間内に割り付けられることが可能である。図4において、領域107間の自由空間は、「十字」を形成する長方形の帯のように見受けられ、カメラを動作させるための電子回路は、シリコンを節約しかつこのように形成されるセンサシステムのサイズを最小限に抑えるように設定されることが可能である。図4に示されているように、達成される画像センサシステムのサイズは、図2の画像センサシステムより小さい。この第2の構成は、コストおよび基板スペースを最適化する。明らかに、カメラ間で利用可能な基板自由空間を満たす電子回路が、十字ほど最適ではない他の形式で、例えば縞形式で設計され得ることは、留意されるべきである。
3)第3の可能な構成は、図5に示されていて、(4つの個々のTOF画像センサで形成される)4つのカメラが、図2の4つのレンズ101−104の下に位置合わせされ、合わせて1つのサポートを形成している。この構成において、各TOFセンサは、その固有のレンズによって覆われ、かつその固有の回路によって管理される。この手法の場合、4つのカメラの個別校正および搭載整合ステップが必要である。
本発明の第1の実施形態によれば、TOFカメラシステムは、幾つかのカメラを備え、これらのカメラのうちの少なくとも1つは、TOFカメラであり、これらのカメラは、共通の基板上に組み立てられて同じシーンを同時に画像化し、かつ少なくとも2つのカメラは、異なる駆動パラメータによって駆動される。
共通の基板という用語からは、カメラが共通のベース上に製造されること、即ち、上にカメラを直接製造できる表面を提供する基礎材料、例えば、超小型電子技術の分野で一般的に使用されるもの等のウエハ上に製造されること、が理解されるべきである。この基板は、例えば、シリコンベースであることが可能であって、複数のカメラは、このシリコンから製造されることが可能である。
これらのカメラが同じシーンを同時に画像化するという事実は、例えば、何らかのパラメータで決定される1つのカメラ捕捉から他の何らかのパラメータで決定される少なくとも1つの他のカメラ捕捉への動作関連アーティファクトを示すことのない改良された測定値を取得するために、これらのカメラがシーンから到来する光に順次ではなく同時に暴露されることを意味する。
TOFカメラシステムは、上述の構成に従って設計されてもよい。好ましくは、TOFカメラシステムは、カメラが共通の基板上に組み立てられる、図4に表示された構成に従って設計されてもよい。この基板は、シリコンベースであってもよいが、本発明は、これに限定されない。
カメラが共通の基板上に組み立てられて同じシーンを画像化するという事実、および少なくとも2つのカメラが異なる駆動パラメータにより同時に駆動されるという事実は、具体的には、同じシーンから異なるタイプの情報を同時に取得することを可能にし、この情報は、例えば、色情報、照射情報または奥行マップ情報のうちの少なくとも1つである。好ましくは、この情報は、決定された分解能の幾つかの奥行マップ、および場合により、好ましくはより高い分解能のカラー画像であってもよい。
単一の各画像に含まれる異なる情報の融合、即ち、TOF原理に従って取得される少なくとも1つの奥行マップと、少なくとも奥行情報または色情報を含む少なくとも別の画像との融合は、結果として得られる向上された品質の単一画像の計算を可能にする。「融合」という用語からは、改良された、かつ/または精緻化された最終画像、または各単一ピクセルの少なくともより高い品質の奥行測定またはより高い分解能を示す「スーパーイメージ」を生成するための、個々の画像に関連する情報のコンビネーションが理解されるべきである。
このTOFカメラシステムを用いることにより、個々の画像を1つの「スーパーイメージ」に融合すること、例えば、4つの個別画像を融合することが可能である。ある好適な実施形態において、融合から結果的に生じる所謂「スーパーイメージ」の分解能および奥行マップ精度情報は共に、単一の各個別画像から生成される個々の情報よりも改良されている。
ある実施形態において、レンズアレイのレンズのうちの少なくとも1つ、またはTOFシステムのカメラのうちの少なくとも1つは、これらのレンズが異なる焦点距離を有する画像を送出し得ること、かつこれらのカメラが異なるサイズおよび/または異なる分解能であり得ることにおいて、他のレンズまたはカメラとは異なってもよい。 例えば、2つのTOFカメラおよび2つのカラーカメラを備えるTOFカメラシステムは、TOFカメラ(それぞれ、TOFセンサ)とはサイズおよび分解能が異なるカラーカメラ(それぞれ、カラーセンサ)を有してもよい。TOFカメラに関連づけられるレンズの焦点距離は、さらに、カラーカメラに関連づけられるものとは異なってもよい。TOFカメラおよびカラーカメラによって観測されるシーンは、同じであることから、各種カメラに関連づけられるパラメータ、即ち、分解能、レンズの焦点距離、センササイズにより、各種カメラによって捕捉される画像が異なってくる場合がある。例えば、立体視原理によりカラー画像から推定される奥行マップは、少なくとも1つのTOFカメラによって取得される奥行マップにより画像化されるシーンとは僅かに異なるビューを表す場合がある。
以下、TOFカメラシステムに実装され得る駆動パラメータを提示するが、これらは、限定的なものではない。
ある実施形態において、カメラのうちの少なくとも2つは、立体技術を実装するためのパラメータによって駆動されてもよい。立体視は、画像内の奥行の錯視を両眼視によって生成または増強するための技術を指す。この技術において、シーンの両眼視は、頭部における両眼の位置の違いに起因して、両眼に僅かに相違するシーン画像を生成する。これらの相違は、脳が視覚的シーンにおける奥行の計算に用いることができる、奥行知覚を規定する情報を提供する。ある実施形態では、飛行時間奥行き計算の次に、本発明の少なくとも2つの視点のコンビネーションを基礎として、受動的な立体計算が使用されてもよい。この計算は、ディエイリアシングを識別する、または消散するにはあまりに粗であり得る。好ましくは、最も遠く離れた領域107同士、即ち最も遠位のカメラ同士が使用されてもよい。さらに好ましくは、4つのピクセルの場合、対角的な領域を用いてこれらの駆動パラメータが実装されてもよい。
ある派生された実施形態では、同じ分解能である少なくとも2つのカラーカメラを用いて、少なくとも1つのTOFカメラを起源とする奥行マップが融合され得る、立体原理ベースの奥行測定への入力が提供されてもよい。
立体技術を用いる本発明の派生された別の実施形態において、少なくとも2つのTOFカメラは、各々が、同じシーンの2つの奥行マップを異なる固有の測定品質で提供するための異なるパラメータによって駆動される。これらの奥行マップは、互いに融合され、元の個々の2つの奥行マップの何れよりも品質が高い奥行マップが提供される。TOFカメラシステムは、さらに、元来2つのTOFカメラによって提供される2つの個別IR照射マップまたは信頼度マップを用いて、融合に使用され得る立体写真撮影から奥行マップを生成しかつTOFカメラからの2つの奥行マップのうちの少なくとも一方、またはこれらの融合により生成される奥行マップを精緻化する立体技術を実装してもよい。このような実施形態は、特に、例えば既定の光パルス周波数または光力が取得を許さない余分な距離測定レンジを取得する場合に適切であり得る。
センサのうちの少なくとも1つがTOF原理を参考にして動作されるためのTOFセンサである具体的な一実施形態において、少なくとも2つの他のセンサは、異なるパラメータによって動作される、より高い分解能を有しかつ立体視原理から奥行マップを決定するために使用されるRGBセンサであってもよい。この立体視ベースの高分解能奥行マップは、少なくとも1つのTOFセンサ上でTOF原理から取得されるより低い分解能の奥行マップとの融合に使用されてもよい。立体視ベースの奥行マップは、ホールおよびTOF原理の奥行測定以外の最低の奥行推定によって損なわれることから、TOFカメラにおいて取得される奥行マップは、立体視原理によって取得される分解能は高いが不完全である奥行マップを精緻化するために使用されてもよい。好ましくは、融合は、TOFカメラシステムの回路内で動作されてもよく、かつ結果的に得られる改良された奥行マップは、立体視捕捉から生じる色情報も備えてもよい。結果的に得られるこの改良された画像の分解能は、少なくとも高分解能センサのそれに類似するものであるが、最新技術による補間計算手段を用いるより低い、またはより高い分解能であってもよい。
別の実施形態によれば、TOFカメラシステムのカメラ上に、かつ具体的には、TOFカメラシステムのTOFカメラ上に実装され得る別の駆動パラメータは、放出されるパルス照射に適用される異なる周波数、およびシーンから個々の各TOFカメラ上へ戻って当たる際のこれらの同期捕捉の使用である。カメラを相違して駆動するためのこの具体的な実施形態の意図は、TOF測定に奥行測定のディエイリアシング(dealiasing:脱エイリアシング、エイリアシングを除去すること)原理を適用することにある。信号処理および関連分野において、エイリアシングとは、サンプリング時に異なる信号が区別不可能になるようにする効果を指す。時間エイリアシングは、サンプルが時間的に区別不可能になる場合である。時間エイリアシングは、サンプリングされている信号が周期的に周期的なコンテンツも有する場合に発生することが可能である。TOF原理で動作するシステムでは、既定の動作レンジを有するTOFカメラシステムから異なる距離に存在するオブジェクトに関して同じ距離が測定され得ることから、所定の変調周波数において、奥行エイリアシングは、結果的に、記録されるべき距離に関する不確定性となる。例えば、1メートルから5メートルまでの動作レンジを有する単一の変調周波数で動作されるTOFカメラシステムは、カメラへの変調光の跳ね返りが十分であれば、カメラシステムから6メートルに存在する測定対象オブジェクトを全て1メートルの距離にあるものとする(周期的挙動)。
ある実施形態において、TOFカメラシステムのTOFカメラのうちの少なくとも1つは、このようなディエイリアシング原理によって、かつより具体的には、関連のディエイリアシングアルゴリズムまたは方法によって駆動されてもよい。この少なくとも1つのTOFカメラは、TOF原理に従って、少なくとも2つの異なる周波数を用いて距離情報を測定するために動作されかつ駆動されてもよく、かつこのTOFカメラにより取得される距離測定値は、ディエイリアシング原理に従ってディエイリアスされてもよい。奥行マップの形式である距離測定値は、次に、TOFカメラシステムの他のカメラからの測定情報と融合されてもよく、前記他のカメラは、異なるパラメータで駆動される。例えば、他の情報は、立体視原理、またはTOF原理および/またはカラー画像を起源とする、より高い、またはより低い分解能の奥行マップのうちの少なくとも1つであってもよい。
さらに好適な実施形態では、異なるカメラ、即ち異なる領域107に異なるディエイリアシング技術を実装して、各カメラがディエイリアスされた奥行測定値を提供することからさらにロバストなディエイリアシング効果がもたらされてもよい。別の例は、異なるパラメータで動作される少なくとも2つのTOFカメラを備えるTOFカメラシステムであり、前記異なるパラメータは、これらの個々の捕捉が同期される変調周波数である。TOFカメラの駆動には、少なくとも2つの異なる周波数の使用が可能である。変調照射光は、一方が参照周波数でありかつさらなる周波数が例えば参照周波数の3分の1である、少なくとも2つの既定の周波数を含んでもよい。TOFカメラシステムの一方の第1のTOFカメラは、3分の1の変調周波数と同期して駆動されてもよく、TOFカメラシステムの他のTOFカメラは、参照周波数と同期して駆動されてもよい。この方法により、TOFカメラシステムの2つのTOFカメラは、同じ時間内に、異なる明確な距離レンジを有する、奥行がエイリアスされた測定を獲得してもよく、これらの奥行測定値は、さらにディエイリアスされた単一の奥行マップを提供するために組み合わされてもよい。この原理は、必要であれば反復されることが可能であり、よって、完全なTOFカメラシステムまでの明確さの極めて高い距離がもたらされる。
TOF原理に従って動作される少なくとも1つのTOFカメラを備える派生した一実施形態において、こうして生成されるディエイリアスされた奥行マップは、さらに、少なくとも1つの他のカメラからの他の測定値と融合されてもよく、前記他の測定値は、TOF原理または立体視原理を起源とする別の同一分解能の奥行マップ、同一分解能の色マップ、TOF原理または立体視原理を起源とするより高い分解能の奥行マップ、より高い分解能の分解能色マップ、のうちの少なくとも1つである。
TOFベースの奥行測定に対してディエイリアシング原理を動作させるために複数の、即ち少なくとも2つの周波数を用いる場合、第2の周波数が高いほど、その第2の奥行測定値の精度が高まることは留意されるべきである。ちなみに、少なくとも1つのTOFカメラを備えるTOFカメラシステムがディエイリアシング原理に従って動作され、かつ好ましくは、2つのTOFカメラが各々少なくとも1つの周波数で動作されれば、奥行測定値の融合によって、奥行マップは、より精確になり得る。さらに、別の駆動パラメータで動作されるカメラのうちの少なくとも1つがより高い分解能であれば、結果的に得られる画像は、より高い分解能、より高い精度、およびディエイリアスされた奥行測定値を含む。またさらに好ましくは、カメラシステムは、さらに、色情報を捕捉するための手段を備えてもよく、これらの手段は、カメラのうちの少なくとも1つが色情報を捕捉することを特徴とする。またさらに好ましくは、TOFカメラシステムのカメラのうちの少なくとも1つは、RGBZセンサ等のRGBZカメラである。したがって、TOFカメラシステムは、少なくとも3つのカメラを備えることが可能であり、これらのカメラのうちの少なくとも2つは、TOFカメラであり、これらの少なくとも2つのTOFカメラは、周波数等の、但しこれに限定されない異なる駆動パラメータによって駆動され、一方で同じシーンを同時に画像化する。
さらなる一実施形態では、カメラ上に異なる背景光ロバスト性機構が実装されてもよい。背景光のロバスト性を高めることにより、ノイズまたはピクセルピッチを増加させ得ることが極めて多い。異なる領域107上、即ち異なるカメラ上での背景光ロバスト性機構の使用は、強力な優位点を与える場合がある。ある実施形態において、システムのカメラのうちの少なくとも1つは、背景光ロバスト性機構によって駆動されてもよい。これは、背景光が高い事例において、1つの領域107の分解能のみが必要とされる用途に対して優位点を有し得る。
さらなる一実施形態において、TOFカメラシステムの少なくとも2つのカメラは、2つの異なる積分時間で駆動されてもよい。実際には、極めて短い積分時間は、高い動作ロバスト性をもたらすが、奥行値に、本文書では奥行雑音と称する高い標準偏差ももたらす。したがって、1つの領域107は、短い積分時間用に最適化されてもよく、一方で別の領域107は、雑音パフォーマンス用に最適化されてもよい。画像、およびより具体的には、その関連情報を融合する際には、双方の構成の優位点が達成されかつ使用され得る。効果的には、この実施形態は、融合される各ピクセルが、より長い積分時間により駆動される他のカメラから低雑音情報を受け継ぎながら、短い積分時間により駆動されるTOFカメラにより高速移動するオブジェクトに関する高信頼性情報を得ることを可能にする。派生された一実施形態において、他のカメラは、より長い積分時間で駆動される少なくとも1つの別のTOFカメラを備えてもよい。別の一実施形態において、他のカメラは、より長い積分時間で駆動される少なくとも別のTOFカメラと、少なくとも1つのカラーカメラとを備えてもよい。
異なる情報の信頼的融合を進めるために、回路内、またはコンパニオンチップ内、または分離された処理部上へ、各々が1つの座標系に関連づけられる異なる情報セットを、単一の共通する既定の座標系を有する単一のデータセットへ変換するためのプロセスが実装される。好ましくは、共通する既定の座標系は、カメラのうちの1つのx−y平面(例えば、水平軸および垂直軸で画定される平面)、例えば、高分解能カメラのx−y平面になる。他のカメラからのデータ、例えばカラー画像、奥行測定値またはTOF信頼度マップのグレースケール画像、は、レジストレーションを用いて、共通する既定の座標系に関連づけられる画像に投影される。具体的には、画像レジストレーション(image registration)は、この場合、標的画像、例えばTOF測定から取得される低分解能高精度奥行マップを参照画像、例えば立体視から取得されかつ色情報を含む高分解能低精度奥行マップと位置合わせするように空間的に見当を合わせる(register:照合する)ことを含む。画像レジストレーションの方法は、輝度ベースまたは特徴ベースの方法等の幾つかが使用されてもよい。輝度ベースの方法は、具体的には、画像内の輝度パターンを相関行列を介して比較し、一方で、特徴ベースの方法は、主として、点、線、輪郭および奥行等の画像機能間のマッチングまたは対応性を見出そうとする。輝度ベースの方法は、画像全体または部分画像の見当合わせ(register:照合)を目的とする。部分画像の見当が合わされれば、対応する部分画像の中心は、対応する機能点として扱われる。特徴ベースの方法は、画像における既定数の明確な点間の対応性を確立する。画像における幾つかの点間の対応性が分かれば、次に、標的画像を参照画像へマップするための変換が決定され、これにより、参照画像と標的画像との間の点毎の対応性が確立される。画像の分解能は異なる場合があることから、この事後のレジストレーションプロセスは、さらに、補間技術を含んでもよい。
複数のTOFカメラが使用される場合、または少なくともTOFカメラシステムが奥行情報を提供する少なくとも1つのカメラを備える場合に画像レジストレーションを用いる本発明の好適な一実施形態では、画像の融合を促進するために奥行情報が使用されてもよい。奥行は、視点角度および/または光条件とは一次独立したシーン固有の特徴である。したがって、これは、あらゆるアラインメント、あらゆるパターン認識または画像の融合に必要な他のあらゆる手段を実行するための極めて安定的な測定基準である。
ある好適な実施形態において、カメラのうちの少なくとも1つは、より完全に校正されることも可能であり、他のカメラは、この校正を受け継ぐことができる。飛行時間画像化では、絶対距離の校正、温度、変形、多経路解像、他等の完全な校正ステップが必要とされる。1つのカメラのみの校正は、ピクセル数がより少なく、かつ校正計算に適用されることが可能な数学がより高度であることに起因して、時間を節約し、次に、他のカメラは、校正された視点の恩恵を受けてこれを受け継ぎ、距離誤差および/または非線形性を補正することができる。この校正は、製造時に実行されてもよいが、ランタイムにおいて、例えば4つのTOFカメラを備える上述のTOFカメラシステムのうちの1つにより、4つの視点/カメラのうちの少なくとも1つを遙かに安定したイメージャとなるように、よってこれが校正基準として使用されるようなサイズにして実行される場合もある。
本発明のさらなる実施形態によれば、TOFカメラシステムは、さらに、可視レンジ内の光および/または赤外光を除去するための手段を備えてもよい。カラーフィルタは、図6に示されているように、カメラ上に実装されてもよい。本図において、R、G、BおよびIRの各部位は、各々赤色、緑色、青色および赤外線通過フィルタを表す。これは、1つの画像内にRGBデータおよび奥行データの双方を組み合わせることを許容し、これらの全ての特性を組み合わせる融合された、または改良された画像を見込んでいる。しかしながら、少なくとも1つのTOFカメラ、および異なるパラメータで駆動される少なくとも1つの別のカメラを備えるTOFカメラシステムは、これらのカメラのうちの少なくとも1つが、RGBZカメラであることを特徴としてもよい。RGBZカメラは、幾つかのピクセルを備えるカメラであって、前記ピクセルの検出部位が、赤、緑、青のうちの少なくとも一色、好ましくはRGB三色を収集しかつさらに赤外線照射を捕捉し、この赤外線照射から奥行(Z)情報が例えばTOF原理を参照して処理され得ることを特徴とする。
さらに別の実施形態において、TOFカメラシステムの少なくとも1つのカメラのピクセルは、さらに、量子ドットフィルムを備えてもよい。量子ドットは、2nmから10nmまでの直径範囲を有する半導体物質のナノ粒子である。量子ドットは、その小型サイズに起因して固有の光学および電気特性を示し、即ち、量子ドットの特性は、対応するバルク材料のそれとは性質が異なる。明らかな主たる特性は、励磁下での光子放出(蛍光)であり、これは、人の目に光として見える場合もあれば、赤外領域で放出すれば不可視である場合もある。放出される光子の波長は、量子ドットの製造材料だけでなく、量子ドットのサイズにも依存する。量子ドットのサイズを精密に制御する能力は、製造者が放出の波長を決定すること、即ち光出力の波長を決定することを可能にする。したがって、量子ドットは、所望されるあらゆる波長を放出するように、製造中に「調整」されることが可能である。量子ドットからそのコアサイズを変更することによって放出を制御または「調整」する能力は、「サイズ量子化効果」と呼ばれる。ドットが小さいほど、ドットはスペクトルの青色の端に近くなり、ドットが大きいほど、赤色の端に近づく。量子ドットは、何らかの特有の材料の使用により、可視光を超えて赤外へ、または紫外へと調整されることも可能である。
カラーフィルタとして使用される量子ドットフィルムは、センサの感度が高まる範囲において波長を放出し直すように設計されてもよい。好ましくは、量子ドットフィルムの放出波長は、より低い雑音の測定を有効化するセンサの最大感度に近いものであってもよい。

Claims (14)

  1. 幾つかのカメラ(1、107)を備えるTOFカメラシステム(3)であって、前記カメラのうちの少なくとも1つは、TOFカメラであり、前記カメラは、共通の基板(100)上に組み立てられて同じシーン(15)を同時に画像化し、かつ少なくとも2つのカメラは、異なる駆動パラメータによって駆動される、TOFカメラシステム(3)。
  2. 前記駆動パラメータは、ディエイリアシングアルゴリズムを実装するための少なくとも2つの異なる周波数を含む、請求項1に記載のTOFカメラシステム(3)。
  3. レンズ(101−104)によるアレイをさらに備え、前記アレイの各レンズは、前記カメラの各々に関連づけられる、請求項1または請求項2に記載のTOFカメラシステム(3)。
  4. 前記駆動パラメータは、立体技術を実装するためのパラメータを含む、請求項1から請求項3までのいずれか一項に記載のTOFカメラシステム(3)。
  5. 前記駆動パラメータは、背景光ロバスト性機構を実装するためのパラメータを含む、請求項1から請求項4までのいずれか一項に記載のTOFカメラシステム(3)。
  6. 少なくとも2つのカメラは、同じシーンを異なる積分時間中に画像化する、請求項1から請求項5までのいずれか一項に記載のTOFカメラシステム(3)。
  7. 前記カメラにより提供される画像を互いに見当合わせするための画像レジストレーション手段をさらに備える、請求項1から請求項6までのいずれか一項に記載のTOFカメラシステム(3)。
  8. 少なくとも1つのカメラをランタイムにおいて校正するための手段をさらに備える、請求項1から請求項7までのいずれか一項に記載のTOFカメラシステム(3)。
  9. 前記校正されるカメラの少なくとも1つは、他のカメラを校正するための参考として使用される、請求項8に記載のTOFカメラシステム(3)。
  10. 前記シーンを画像化する前記カメラは、色情報、照射情報または奥行情報のうちの少なくとも1つを提供する、請求項1から請求項9までのいずれか一項に記載のTOFカメラシステム(3)。
  11. 前記カメラにより改良された画像形式で提供される情報を互いに融合または組み合わせるための手段をさらに備え、前記改良された画像は、より高い分解能又はより高い奥行測定精度のうちの少なくとも一方を含むという事実によって特徴づけられる、請求項1から請求項10までのいずれか一項に記載のTOFカメラシステム(3)。
  12. 可視領域内の光および/または赤外領域内の光を除去するための手段をさらに備える、請求項1から請求項11までのいずれか一項に記載のTOFカメラシステム(3)。
  13. 前記基板は、シリコンベースである、請求項1に記載のTOFカメラシステム(3)。
  14. 少なくとも3つのカメラ(1、107)を備え、前記カメラのうちの少なくとも2つは、TOFカメラであり、前記少なくとも2つのTOFカメラは、異なる駆動パラメータによって駆動され、一方で前記同じシーン(15)を同時に画像化する、請求項1から請求項13までのいずれか一項に記載のTOFカメラシステム(3)。
JP2016526665A 2013-12-24 2014-12-24 飛行時間型カメラシステム Active JP6480441B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP13199564.9A EP2890125B1 (en) 2013-12-24 2013-12-24 A time-of-flight camera system
EP13199564.9 2013-12-24
PCT/EP2014/079304 WO2015097284A1 (en) 2013-12-24 2014-12-24 A time-of-flight camera system

Publications (2)

Publication Number Publication Date
JP2016529491A true JP2016529491A (ja) 2016-09-23
JP6480441B2 JP6480441B2 (ja) 2019-03-13

Family

ID=49918467

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016526665A Active JP6480441B2 (ja) 2013-12-24 2014-12-24 飛行時間型カメラシステム

Country Status (7)

Country Link
US (5) US10397552B2 (ja)
EP (2) EP4016981A3 (ja)
JP (1) JP6480441B2 (ja)
KR (1) KR20160045670A (ja)
CN (1) CN105432080B (ja)
BE (1) BE1022488B1 (ja)
WO (1) WO2015097284A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021117036A (ja) * 2020-01-23 2021-08-10 株式会社日立エルジーデータストレージ 測距装置の測定値補正方法

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150010230A (ko) * 2013-07-18 2015-01-28 삼성전자주식회사 단일 필터를 이용하여 대상체의 컬러 영상 및 깊이 영상을 생성하는 방법 및 장치.
EP4016981A3 (en) 2013-12-24 2022-09-21 Sony Depthsensing Solutions A time-of-flight camera system
KR101582726B1 (ko) * 2013-12-27 2016-01-06 재단법인대구경북과학기술원 스테레오 타입의 거리 인식 장치 및 방법
US9581696B2 (en) * 2014-12-22 2017-02-28 Google Inc. Image sensor and light source driver integrated in a same semiconductor package
US20160205378A1 (en) * 2015-01-08 2016-07-14 Amir Nevet Multimode depth imaging
JP6701199B2 (ja) * 2015-07-31 2020-05-27 パナソニック株式会社 測距撮像装置
US11002856B2 (en) 2015-08-07 2021-05-11 King Abdullah University Of Science And Technology Doppler time-of-flight imaging
US10021284B2 (en) 2015-08-27 2018-07-10 Samsung Electronics Co., Ltd. Epipolar plane single-pulse indirect TOF imaging for automotives
US9880267B2 (en) * 2015-09-04 2018-01-30 Microvision, Inc. Hybrid data acquisition in scanned beam display
CN106612387B (zh) 2015-10-15 2019-05-21 杭州海康威视数字技术股份有限公司 一种组合深度图获得方法及深度相机
US10151838B2 (en) 2015-11-24 2018-12-11 Microsoft Technology Licensing, Llc Imaging sensor with shared pixel readout circuitry
WO2017098725A1 (ja) * 2015-12-08 2017-06-15 パナソニックIpマネジメント株式会社 固体撮像装置、距離測定装置および距離測定方法
US10229502B2 (en) 2016-02-03 2019-03-12 Microsoft Technology Licensing, Llc Temporal time-of-flight
US9866816B2 (en) 2016-03-03 2018-01-09 4D Intellectual Properties, Llc Methods and apparatus for an active pulsed 4D camera for image acquisition and analysis
US10917627B2 (en) * 2016-06-03 2021-02-09 Utku Buyuksahin System and a method for capturing and generating 3D image
US11102467B2 (en) 2016-08-25 2021-08-24 Facebook Technologies, Llc Array detector for depth mapping
US10962647B2 (en) 2016-11-30 2021-03-30 Yujin Robot Co., Ltd. Lidar apparatus based on time of flight and moving object
US10810753B2 (en) * 2017-02-27 2020-10-20 Microsoft Technology Licensing, Llc Single-frequency time-of-flight depth computation using stereoscopic disambiguation
DE102017204073A1 (de) * 2017-03-13 2018-09-13 Osram Gmbh Tof-kamera, kraftfahrzeug, verfahren zum herstellen einer tof-kamera und verfahren zum ermitteln eines abstands zu einem objekt
WO2019039733A1 (ko) * 2017-08-21 2019-02-28 (주)유진로봇 카메라와 라이다를 이용한 융합 센서 및 이동체
US11579298B2 (en) 2017-09-20 2023-02-14 Yujin Robot Co., Ltd. Hybrid sensor and compact Lidar sensor
ES2945868T3 (es) * 2017-11-13 2023-07-10 Dennis Eagle Ltd Camión de basura
US11327162B1 (en) * 2017-11-20 2022-05-10 Waymo Llc Methods of calibrating or validating sensors by using a plurality of fiducials
DE102017128369A1 (de) 2017-11-30 2019-06-06 Infineon Technologies Ag Vorrichtung und verfahren zum lokalisieren eines ersten bauelements, lokalisierungsvorrichtung und verfahren zur lokalisierung
US10942274B2 (en) 2018-04-11 2021-03-09 Microsoft Technology Licensing, Llc Time of flight and picture camera
CN112424641A (zh) 2018-05-14 2021-02-26 ams 国际有限公司 使用用于立体图像处理的飞行时间技术
US11874399B2 (en) 2018-05-16 2024-01-16 Yujin Robot Co., Ltd. 3D scanning LIDAR sensor
US11609313B2 (en) 2018-07-31 2023-03-21 Waymo Llc Hybrid time-of-flight and imager module
CN111352094B (zh) * 2018-08-22 2023-01-06 Oppo广东移动通信有限公司 飞行时间模组及其控制方法、控制器和电子装置
CN112640447B (zh) * 2018-08-30 2022-04-29 韦奥机器人股份有限公司 深度感测计算机视觉系统
WO2020045770A1 (en) * 2018-08-31 2020-03-05 Samsung Electronics Co., Ltd. Method and device for obtaining 3d images
KR102606824B1 (ko) 2018-12-14 2023-11-27 삼성전자주식회사 멀티 카메라를 포함하는 장치 및 이의 이미지 처리방법
US10876889B2 (en) 2019-02-12 2020-12-29 Viavi Solutions Inc. Sensor device and method of use
JP7244518B2 (ja) 2019-03-21 2023-03-22 京東方科技集團股▲ふん▼有限公司 表示装置、電子デバイス及び表示装置の駆動方法
WO2020192209A1 (zh) * 2019-03-25 2020-10-01 华为技术有限公司 一种基于Dual Camera+TOF的大光圈虚化方法
WO2020198730A1 (en) * 2019-03-28 2020-10-01 Rensselaer Polytechnic Institute Patient monitoring system
US11514594B2 (en) 2019-10-30 2022-11-29 Vergence Automation, Inc. Composite imaging systems using a focal plane array with in-pixel analog storage elements
EP3855162A1 (en) 2020-01-21 2021-07-28 Omya International AG Lwir imaging system for detecting an amorphous and/or crystalline structure of phosphate and/or sulphate salts on the surface of a substrate or within a substrate and use of the lwir imaging system
US11743616B2 (en) 2020-04-27 2023-08-29 Semiconductor Components Industries, Llc Imaging system with time-of-flight sensing
TWI799749B (zh) * 2020-10-23 2023-04-21 大陸商光寶電子(廣州)有限公司 深度圖像的處理方法
CN112561874A (zh) * 2020-12-11 2021-03-26 杭州海康威视数字技术股份有限公司 一种遮挡物检测方法、装置及监控摄像机
WO2022136490A1 (en) 2020-12-23 2022-06-30 Omya International Ag Method and apparatus for detecting an amorphous and/or crystalline structure of phosphate and/or sulphate salts on the surface of a substrate or within a substrate
KR102354158B1 (ko) 2021-01-14 2022-01-21 박천수 다중위상 상관벡터합성 거리측정방법 및 장치
EP4285313A1 (en) * 2021-01-29 2023-12-06 Kevin Fialko Three-dimensional modelling from photographs in series
US11941787B2 (en) * 2021-08-23 2024-03-26 Microsoft Technology Licensing, Llc Denoising depth data of low-signal pixels
US20230134806A1 (en) * 2021-10-29 2023-05-04 Microsoft Technology Licensing, Llc Denoising depth image data using neural networks

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0634323A (ja) * 1992-05-07 1994-02-08 Sony Corp 距離測定装置
JPH109834A (ja) * 1996-06-19 1998-01-16 Olympus Optical Co Ltd 3次元画像入力装置
JP2002500367A (ja) * 1997-12-23 2002-01-08 シーメンス アクチエンゲゼルシヤフト 3次元距離画像を撮影するための方法及び装置
WO2002049366A1 (en) * 2000-12-14 2002-06-20 3Dv Systems, Ltd. 3d camera
JP2008008687A (ja) * 2006-06-27 2008-01-17 Toyota Motor Corp 距離測定システム及び距離測定方法
JP2008116308A (ja) * 2006-11-02 2008-05-22 Fujifilm Corp 距離画像生成方法及びその装置
JP2008164367A (ja) * 2006-12-27 2008-07-17 Matsushita Electric Ind Co Ltd 固体撮像装置、カメラ、車両及び監視装置
JP2008286527A (ja) * 2007-05-15 2008-11-27 Panasonic Corp 複眼測距装置
JP2009047497A (ja) * 2007-08-17 2009-03-05 Fujifilm Corp 立体撮像装置および立体撮像装置の制御方法並びにプログラム
US20100322477A1 (en) * 2009-06-04 2010-12-23 Peter Schmitt Device and method for detecting a plant
JP2012501435A (ja) * 2008-08-27 2012-01-19 サムスン エレクトロニクス カンパニー リミテッド 深さ映像獲得装置および方法
US20120249744A1 (en) * 2011-04-04 2012-10-04 Primesense Ltd. Multi-Zone Imaging Sensor and Lens Array
WO2012137434A1 (ja) * 2011-04-07 2012-10-11 パナソニック株式会社 立体撮像装置
JP2013538342A (ja) * 2010-07-21 2013-10-10 マイクロソフト コーポレーション 階層的な飛行時間(tof)システムのディエリアシング方法およびシステム

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6353673B1 (en) * 2000-04-27 2002-03-05 Physical Optics Corporation Real-time opto-electronic image processor
US7994465B1 (en) * 2006-02-06 2011-08-09 Microsoft Corporation Methods and devices for improved charge management for three-dimensional and color sensing
KR100871564B1 (ko) 2006-06-19 2008-12-02 삼성전기주식회사 카메라 모듈
US7791715B1 (en) * 2006-10-02 2010-09-07 Canesta, Inc. Method and system for lossless dealiasing in time-of-flight (TOF) systems
JP2009139995A (ja) * 2007-12-03 2009-06-25 National Institute Of Information & Communication Technology ステレオ画像対における画素のリアルタイムマッチングのための装置及びプログラム
US8203699B2 (en) * 2008-06-30 2012-06-19 Microsoft Corporation System architecture design for time-of-flight system having reduced differential pixel size, and time-of-flight systems so designed
CN101321302B (zh) * 2008-07-08 2010-06-09 浙江大学 基于摄像机阵列的三维实时获取系统
US9131221B2 (en) * 2009-06-25 2015-09-08 Koninklijke Philips N.V. Stereoscopic image capturing method, system and camera
US8803967B2 (en) * 2009-07-31 2014-08-12 Mesa Imaging Ag Time of flight camera with rectangular field of illumination
US8648702B2 (en) * 2010-08-20 2014-02-11 Denso International America, Inc. Combined time-of-flight and image sensor systems
US9194953B2 (en) * 2010-10-21 2015-11-24 Sony Corporation 3D time-of-light camera and method
KR20120056668A (ko) 2010-11-25 2012-06-04 한국전자통신연구원 3차원 정보 복원 장치 및 그 방법
EP2487504A1 (en) * 2011-02-10 2012-08-15 Technische Universität München Method of enhanced depth image acquisition
EP2686701B1 (en) * 2011-03-17 2023-03-08 Universitat Politècnica De Catalunya System, method and computer program for receiving a light beam
US9720089B2 (en) * 2012-01-23 2017-08-01 Microsoft Technology Licensing, Llc 3D zoom imager
RU2012154657A (ru) * 2012-12-17 2014-06-27 ЭлЭсАй Корпорейшн Способы и устройство для объединения изображений с глубиной, генерированных с использованием разных способов формирования изображений с глубиной
US9329272B2 (en) * 2013-05-02 2016-05-03 Infineon Technologies Ag 3D camera and method of image processing 3D images
JP6310551B2 (ja) 2013-06-13 2018-04-11 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 放射線療法治療の案内および検証のための検出器
US9609859B2 (en) * 2013-09-13 2017-04-04 Palo Alto Research Center Incorporated Unwanted plant removal system having a stabilization system
EP4016981A3 (en) 2013-12-24 2022-09-21 Sony Depthsensing Solutions A time-of-flight camera system
KR102251483B1 (ko) * 2014-10-23 2021-05-14 삼성전자주식회사 영상을 처리하는 전자 장치 및 방법
US10836379B2 (en) * 2018-03-23 2020-11-17 Sf Motors, Inc. Multi-network-based path generation for vehicle parking

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0634323A (ja) * 1992-05-07 1994-02-08 Sony Corp 距離測定装置
JPH109834A (ja) * 1996-06-19 1998-01-16 Olympus Optical Co Ltd 3次元画像入力装置
JP2002500367A (ja) * 1997-12-23 2002-01-08 シーメンス アクチエンゲゼルシヤフト 3次元距離画像を撮影するための方法及び装置
WO2002049366A1 (en) * 2000-12-14 2002-06-20 3Dv Systems, Ltd. 3d camera
WO2002049367A2 (en) * 2000-12-14 2002-06-20 3Dv Systems, Ltd. Improved photosurface for a 3d camera
JP2008008687A (ja) * 2006-06-27 2008-01-17 Toyota Motor Corp 距離測定システム及び距離測定方法
JP2008116308A (ja) * 2006-11-02 2008-05-22 Fujifilm Corp 距離画像生成方法及びその装置
JP2008164367A (ja) * 2006-12-27 2008-07-17 Matsushita Electric Ind Co Ltd 固体撮像装置、カメラ、車両及び監視装置
JP2008286527A (ja) * 2007-05-15 2008-11-27 Panasonic Corp 複眼測距装置
JP2009047497A (ja) * 2007-08-17 2009-03-05 Fujifilm Corp 立体撮像装置および立体撮像装置の制御方法並びにプログラム
JP2012501435A (ja) * 2008-08-27 2012-01-19 サムスン エレクトロニクス カンパニー リミテッド 深さ映像獲得装置および方法
US20100322477A1 (en) * 2009-06-04 2010-12-23 Peter Schmitt Device and method for detecting a plant
JP2013538342A (ja) * 2010-07-21 2013-10-10 マイクロソフト コーポレーション 階層的な飛行時間(tof)システムのディエリアシング方法およびシステム
US20120249744A1 (en) * 2011-04-04 2012-10-04 Primesense Ltd. Multi-Zone Imaging Sensor and Lens Array
WO2012137434A1 (ja) * 2011-04-07 2012-10-11 パナソニック株式会社 立体撮像装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021117036A (ja) * 2020-01-23 2021-08-10 株式会社日立エルジーデータストレージ 測距装置の測定値補正方法

Also Published As

Publication number Publication date
WO2015097284A1 (en) 2015-07-02
EP2890125A1 (en) 2015-07-01
US20200007850A1 (en) 2020-01-02
EP4016981A2 (en) 2022-06-22
US11172186B2 (en) 2021-11-09
CN105432080A (zh) 2016-03-23
US10638118B2 (en) 2020-04-28
KR20160045670A (ko) 2016-04-27
US11863734B2 (en) 2024-01-02
US20160295193A1 (en) 2016-10-06
EP4016981A3 (en) 2022-09-21
JP6480441B2 (ja) 2019-03-13
CN105432080B (zh) 2019-07-26
US20200236342A1 (en) 2020-07-23
US20240146895A1 (en) 2024-05-02
US20220070436A1 (en) 2022-03-03
EP2890125B1 (en) 2021-10-13
BE1022488B1 (fr) 2016-05-04
US10397552B2 (en) 2019-08-27

Similar Documents

Publication Publication Date Title
JP6480441B2 (ja) 飛行時間型カメラシステム
JP7189156B2 (ja) 色によるパノラマlidar結果の増強
US9602805B2 (en) Systems and methods for estimating depth using ad hoc stereo array cameras
US10419741B2 (en) Systems and methods for compression of three dimensional depth sensing
US9998678B2 (en) Camera for acquiring optical properties and spatial structure properties
US8718326B2 (en) System and method for extracting three-dimensional coordinates
WO2013012335A1 (en) Imaging device for motion detection of objects in a scene, and method for motion detection of objects in a scene
JP2010071976A (ja) 距離推定装置、距離推定方法、プログラム、集積回路およびカメラ
CN110879398A (zh) 飞行时间相机和用于校准飞行时间相机的方法
JP2020515811A (ja) 車両の周囲を特徴付けるためのシステム
JPH095050A (ja) 三次元画像計測装置
KR20150029897A (ko) 촬영 장치 및 그의 동작 방법
CN113366383A (zh) 摄像头装置及其自动聚焦方法
CN111272101A (zh) 一种四维高光谱深度成像系统
CN112655022B (zh) 图像处理装置和图像处理方法
JP2001304821A (ja) 画像撮像装置及び距離測定方法
CN112213730B (zh) 三维测距方法和装置
WO2015198851A1 (ja) 測距装置及び測距方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170104

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20170403

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170515

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20170706

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170710

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20171024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180215

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20180222

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20180316

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20181212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190110

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190207

R150 Certificate of patent or registration of utility model

Ref document number: 6480441

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250