JP2018513967A - 深度フィールドイメージング装置、方法および応用 - Google Patents
深度フィールドイメージング装置、方法および応用 Download PDFInfo
- Publication number
- JP2018513967A JP2018513967A JP2017548977A JP2017548977A JP2018513967A JP 2018513967 A JP2018513967 A JP 2018513967A JP 2017548977 A JP2017548977 A JP 2017548977A JP 2017548977 A JP2017548977 A JP 2017548977A JP 2018513967 A JP2018513967 A JP 2018513967A
- Authority
- JP
- Japan
- Prior art keywords
- imaging
- depth
- depth field
- tof
- field
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/46—Indirect determination of position data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—3D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/481—Constructional features, e.g. arrangements of optical elements
- G01S7/4814—Constructional features, e.g. arrangements of optical elements of transmitters alone
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/481—Constructional features, e.g. arrangements of optical elements
- G01S7/4816—Constructional features, e.g. arrangements of optical elements of receivers alone
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/491—Details of non-pulse systems
- G01S7/4912—Receivers
- G01S7/4913—Circuits for detection, sampling, integration or read-out
- G01S7/4914—Circuits for detection, sampling, integration or read-out of detector arrays, e.g. charge-transfer gates
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/254—Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/70—SSIS architectures; Circuits associated therewith
- H04N25/76—Addressed sensors, e.g. MOS or CMOS sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2213/00—Details of stereoscopic systems
- H04N2213/001—Constructional or mechanical details
Abstract
Description
本出願は、その主題がその全体が参考として援用される2015年3月17に出願された米国仮出願62/134122号に対する優先権を主張する。
−LFイメージングコンポーネントは、格子を含む。
−LFイメージングコンポーネントは、金属格子を含む。
−格子は、周期格子である。
−格子は、位相格子である。
−格子は、非(奇数)対称位相格子である。
−LFイメージングコンポーネントは、振幅マスクを含む。
−LFイメージングコンポーネントは、角度感受性ピクセル(ASP)である。
−TOFイメージングコンポーネントは、アクティブ(変調可能)光源を含む変調可能なフォトゲートを含む。
−TOFイメージングコンポーネントは、複数のインターリーブされたフォトゲートを含む。
−複数のインターリーブされたフォトゲートは、アクティブ光源の変調周波数で変調されることを特徴とする。
−深度フィールドイメージング装置の物体側に配置されたレンズをさらに含む。
−CMOSアーキテクチャで実装された深度フィールドイメージング装置。
−対象シーンとフィールドピクセル構造の深度のアレイとの間に配置されたレンズをさらに含む。
−グローバルシャッタをさらに含む。
−単一露光でLFおよびTOFイメージを取得するステップをさらに含む。
−デジタルリフォーカス技術を使用して深度フィールドイメージを取得するステップをさらに含む。
−位相アンラップ技術を使用して深度フィールドイメージを取得するステップをさらに含む。
光フィールドは、(u,v)がレンズ平面で角度座標、および(x,y)がセンサ面の空間座標である2つの平面モデルl(u,v,x,y)により一般的にパラメータ化される。この関数の出力は、2つの平面との交差によりパラメータ化された光線の輝度を表している。光フィールド捕捉のためのフォワードモデルは、次のように文献でモデル化されている。
対照的に、TOFは、入来する光信号とセンサに送られる基準コードとの間のクロス相関を使用して典型的にモデル化される。入来する光が、l+αcos(fMt+φ(x,y))、ここで、φは、光源から被写体までの光路に起因する累積された位相であり、α は、アルべドであるとすれば、センサ(積分時間に正規化)での強度は、以下で表される
。
我々は、ここで、アルべドおよびすべて(u,v,x,y)の空間角座標、すなわち、α=α(u,v,x,y)、φ=φ(u,v,x,y)で発生する深度(位相で符号化された)(α,φ)の順序付きペアとして深度フィールドの概念を議論する。TOFが特定の固定された(u,v)でφおよびαをサンプルする、ピンホールカメラモデルを想定しているので、深度フィールドは、単独のTOF測定から回復不可能であることに留意されたい。
我々は、深度フィールドのシングルショット捕捉の可能性について説明する(注、’シングルショット’は、4つの位相測定がショット毎に実行されるので、誤った名称であるが、このような機能は、ハードウェアに組み込んで1回の露光で作業することができる。)。ほとんどの光フィールドセンサと同様に、我々は、フォトゲート、フォトニックミキサ装置、横電界変調器、および当該技術分野で公知の他のもののようなCMOS TOFセンサ上のマイクロレンズを整列させることができる。そうすることで、センサ面で空間解像度を犠牲にして角度面をサンプリングすることができる。主レンズは、その開口部を広げることができ、マイクロレンズの下のサブアパーチャビューのそれぞれが大きな被写界深度を維持しながら、より多くの光伝送を可能にする。これは、既存のTOFカメラが、小さな開口および大きな被写界深度を維持するために露光時間を犠牲にするので、有利である。カメラ内の共役像平面におけるマイクロレンズの微細な光学的位置合わせに注意を払う必要がある。例えば、焦点距離fを有するレンズを使用する場合、深度フィールドセンサは、距離f+Δfの位置にすべきである(経験的に決定される、例えば、f=50mmに対して、Δf=0.5から2mm)。
TOFイメージングの主な欠点は、フィールドの深度が深いために正確な深度値を得るための小さな開口の必要性である。被写界深度を浅くするか、または開口を大きくすると、光学的ぼかしが発生し、TOFの深度値が損なわれる。しかしながら、小さな開口では、シャッタ速度が制限され、これらのシステムの取得時間が長くなる。対照的に、光フィールドイメージングは、合成開口リフォーカシングを使用することにより、被写界深度と開口サイズとの間のこのトレードオフを切り抜ける。ピクセル上のマイクロレンズを有するプレノプティックセンサは、開口を開いて、空間解像度の損失にもかかわらず、焦点にあるマイクロレンズの下のサブアパチャイメージを維持しながら、より多くの光伝送を可能にすることができる。捕捉後、デジタルでイメージをリフォーカスでき、したがって、4D光フィールドをシェアリングすることにより被写界深度を拡大し、(u,v)上を合計して、異なる焦点面を有する画像を合成することができる。
単一周波数TOFの1つの主な制限は、位相が2πの周期性を有することであり、したがって、深度推定値は、変調波長の周りを包むことになる。数10MHzにおける変調周波数に対して、これは、複数の周波数または位相アンラッピングアルゴリズムを使用することによりさらに拡張することができる、数メートルの深度範囲に対応する。しかしながら、変調周波数が高くなるにつれて、位相アンラッピングはより厳しくなる。
4D深度フィールドを捕捉することにより合成することができる大規模な合成開口は、前景の過去の部分的な閉塞イメージを可能にする。背景を明らかにするために前景をぼかすこの技術は、茂みや植物を通して見るために明るいフィールドに表示される。深度フィールドに同じ技術適用するとアルベドに対して正しく機能する(前景をぼかしている間に物体をはっきり見ることができる)が、位相に対して機能しないことに留意されたい。これは、視覚的には前景と背景の色が混在するのを知覚的に許容することができるが、この同じ混在は我々の位相測定を損なうため、不正確な深度値につながる。
直上の議論は、特定の(u,v)視点の背景をブロックする部分的な閉塞に対処しながら、それらが単一のピクセルで一緒に異なる光路長に対応する複数の位相測定を混在するので、散乱媒体または半透明物体のような他の閉塞はより困難である。我々は、R.タダノ、A.ペディレルダ、およびA.ベララガハバン、深度選択カメラ、撮影における深度選択のためのダイレクト、オンチップ、プログラム可能な技術、IEEEコンピュータビジョン国際会議(ICCV)(受理)2015により報告された具体的な深度選択符号、符号化されたTOFを介して問題にアプローチする。符号化されたTOFは、過去の散乱媒体をイメージングにより深度フィールドカメラシステムの機能を拡張し、空間情報を使用してデジタルリフォーカスを実行することを可能にする。我々は、過去の散乱媒体の深度フィールドを得るために、後方散乱網を介してイメージした。我々は、強い後方散乱としてふるまうために、カメラの前に網を置き、散乱により深度値を著しく破損した。深度選択符号を使用して、我々は、過去の網をイメージし、異なる(u,v)視点で複数のショットを使用することができた。我々は、網を超えて深度フィールドを捕捉しデジタルリフォーカスを行うことができる。このように、我々は、深度フィールドイメージングが符号化TOF技術の利点をどのように活用できるかを示した。
Claims (23)
- 深度フィールドイメージング装置であって、
前記装置は、
シーンのLFイメージを取得することができる光フィールド(LF)イメージングコンポーネントと、
シーンのTOFイメージを取得することができる飛行時間型(TOF)イメージングコンポーネントと、
深度フィールドイメージング装置により、LFイメージおよびTOFイメージの同時取得を可能にするアルゴリズムを操作上実行するようにプログラムされたイメージ処理コンポーネントとを含み、
LFイメージングコンポーネントは、TOFイメージングコンポーネント上に配置され、両者は単一のオンチップアーキテクチャで実装される、
ことを特徴とする深度フィールドイメージング装置。 - LFイメージングコンポーネントは、格子を含むことを特徴とする請求項1の深度フィールドイメージング装置。
- LFイメージングコンポーネントは、マイクロレンズを含むことを特徴とする請求項1の深度フィールドイメージング装置。
- LFイメージングコンポーネントは、金属格子を含むことを特徴とする請求項2の深度フィールドイメージング装置。
- LFイメージングコンポーネントは、振幅マスクを含むことを特徴とする請求項1の深度フィールドイメージング装置。
- 格子は、周期性格子であることを特徴とする請求項2の深度フィールドイメージング装置。
- 格子は、位相格子であることを特徴とする請求項2の深度フィールドイメージング装置。
- 位相格子は、非(奇)対称位相格子であることを特徴とする請求項7の深度フィールドイメージング装置。
- LFイメージングコンポーネントは、角度感受性ピクセル(ASP)であることを特徴とする請求項1の深度フィールドイメージング装置。
- TOFイメージングコンポーネントは、アクティブ(変調可能)光源を含む変調可能フォトゲートを含むことを特徴とする請求項1の深度フィールドイメージング装置。
- TOFイメージングコンポーネントは、複数のインターリーブされたフォトゲートを含むことを特徴とする請求項10の深度フィールドイメージング装置。
- 複数のインターリーブされたフォトゲートは、アクティブ光源の変調周波数で変調されることにより特徴付けられる請求項11の深度フィールドイメージング装置。
- 深度フィールドイメージング装置の物体側に配置されたレンズをさらに含むことを特徴とする請求項1のフィールドイメージング装置。
- CMOSアーキテクチャで実装されることを特徴とする請求項1の深度フィールドイメージング装置。
- 深度フィールドイメージング装置であって、
前記装置は、
光フィールド(LF)イメージングコンポーネントと、
飛行時間型(TOF)イメージングコンポーネントを含み、
LFイメージングコンポーネントとTOFイメージングコンポーネントの両方は、単一のオンチップアーキテクチャで実装されることを特徴とする深度フィールドイメージング装置。 - 深度フィールドピクセル構造であって、
前記構造は、
光フィールド(LF)イメージングコンポーネントと、
フォトゲートと、
フォトゲートに光学的に結合されたアクティブ光源とを含み、
LFイメージングコンポーネントは、フォトゲート上に配置され、ピクセル構造は、単一のオンチップアーキテクチャで実装されることを特徴とする深度フィールドピクセル構造。 - イメージング方法であって、
前記方法は、
物体シーンのLFイメージを取得するステップと、
物体シーンのTOFイメージを同時に取得するステップと、
物体シーンの深度フィールドイメージから取得されたLFイメージとTOFイメージを処理するステップとを含み、
LFイメージとTOFイメージは、単一のオンチップ実装されたハイブリッドイメージセンシング装置により、同時に取得される、
ことを特徴とするイメージング方法。 - 単一の露光においてLFイメージとTOFイメージを取得するステップをさらに含むことを特徴とする請求項17のイメージング方法。
- デジタルリフォーカス技術を使用して深度フィールドイメージを取得するステップをさらに含むことを特徴とする請求項17のイメージング方法。
- 位相アンラッピング技術を使用して深度フィールドイメージを取得するステップをさらに含むことを特徴とする請求項17のイメージング方法。
- 深度フィールドイメージングシステムであって、
前記システムは、
フィールドピクセル構造の深度のアレイを含み、それぞれの深度フィールドピクセル構造は、光フィールド(LF)イメージングコンポーネントと、フォトゲートと、およびフォトゲートに光学的に結合されたアクティブ光源を含み、LFイメージングコンポーネントは、フォトゲート上に配置され、それぞれのピクセル構造は単一のオンチップアーキテクチャで実装されることを特徴とする深度フィールドイメージングシステム。 - 物体シーンとフィールドピクセル構造の深度のアレイとの間に配置されるレンズをさらに含むことを特徴とする請求項21の深度フィールドイメージングシステム。
- グローバルシャッタをさらに含むことを特徴とする請求項21の深度フィールドイメージングシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562134122P | 2015-03-17 | 2015-03-17 | |
US62/134,122 | 2015-03-17 | ||
PCT/US2016/022741 WO2016149438A1 (en) | 2015-03-17 | 2016-03-17 | Depth field imaging apparatus, methods, and applications |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018513967A true JP2018513967A (ja) | 2018-05-31 |
JP6722194B2 JP6722194B2 (ja) | 2020-07-15 |
Family
ID=55642898
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017548977A Active JP6722194B2 (ja) | 2015-03-17 | 2016-03-17 | 深度フィールドイメージング装置、方法および応用 |
Country Status (7)
Country | Link |
---|---|
US (2) | US10605916B2 (ja) |
EP (1) | EP3271747B1 (ja) |
JP (1) | JP6722194B2 (ja) |
KR (1) | KR102456875B1 (ja) |
CN (1) | CN107533139B (ja) |
CA (1) | CA2979836C (ja) |
WO (1) | WO2016149438A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022181096A1 (ja) * | 2021-02-26 | 2022-09-01 | ソニーセミコンダクタソリューションズ株式会社 | 情報処理装置および方法 |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7120929B2 (ja) * | 2016-06-07 | 2022-08-17 | エアリー3ディー インコーポレイティド | 深度取得及び3次元撮像のためのライトフィールド撮像デバイス及び方法 |
JP7140784B2 (ja) * | 2017-03-01 | 2022-09-21 | ポイントクラウド インコーポレイテッド | モジュラー三次元光学検知システム |
US10928489B2 (en) | 2017-04-06 | 2021-02-23 | Microsoft Technology Licensing, Llc | Time of flight camera |
US10215856B1 (en) | 2017-11-27 | 2019-02-26 | Microsoft Technology Licensing, Llc | Time of flight camera |
US10558844B2 (en) * | 2017-12-18 | 2020-02-11 | Datalogic Ip Tech S.R.L. | Lightweight 3D vision camera with intelligent segmentation engine for machine vision and auto identification |
US10901087B2 (en) * | 2018-01-15 | 2021-01-26 | Microsoft Technology Licensing, Llc | Time of flight camera |
CN108519588B (zh) * | 2018-04-12 | 2023-04-21 | 视缘(上海)交通科技有限公司 | 一种多频相位解缠方法及装置 |
CN110418085B (zh) * | 2018-04-28 | 2021-09-17 | 思特威(上海)电子科技股份有限公司 | Tof像素电路及测距系统 |
CN112424639A (zh) * | 2018-06-22 | 2021-02-26 | ams有限公司 | 使用飞行时间和伪随机比特序列测量到物体的距离 |
US20210318443A1 (en) * | 2018-07-17 | 2021-10-14 | Sony Semiconductor Solutions Corporation | Electronic device and method |
US11609313B2 (en) * | 2018-07-31 | 2023-03-21 | Waymo Llc | Hybrid time-of-flight and imager module |
KR102596053B1 (ko) * | 2018-08-27 | 2023-11-01 | 엘지이노텍 주식회사 | 영상 처리 장치 및 영상 처리 방법 |
CN112689776A (zh) | 2018-09-16 | 2021-04-20 | 苹果公司 | 使用彩色图像数据校准深度感测阵列 |
US20210270969A1 (en) * | 2018-09-25 | 2021-09-02 | Apple Inc. | Enhanced depth mapping using visual inertial odometry |
US11176694B2 (en) | 2018-10-19 | 2021-11-16 | Samsung Electronics Co., Ltd | Method and apparatus for active depth sensing and calibration method thereof |
WO2020087485A1 (zh) | 2018-11-02 | 2020-05-07 | Oppo广东移动通信有限公司 | 深度图像获取方法、深度图像获取装置及电子装置 |
WO2021030034A1 (en) | 2019-08-15 | 2021-02-18 | Apple Inc. | Depth mapping using spatial multiplexing of illumination phase |
CN112449090A (zh) * | 2019-09-03 | 2021-03-05 | 睿镞科技(北京)有限责任公司 | 用于生成深度图像的系统、方法和装置 |
US11514594B2 (en) | 2019-10-30 | 2022-11-29 | Vergence Automation, Inc. | Composite imaging systems using a focal plane array with in-pixel analog storage elements |
US11330246B2 (en) * | 2019-11-21 | 2022-05-10 | Microsoft Technology Licensing, Llc | Imaging system configured to use time-of-flight imaging and stereo imaging |
US11389124B2 (en) * | 2020-02-12 | 2022-07-19 | General Electric Company | X-ray phase contrast detector |
US11763472B1 (en) | 2020-04-02 | 2023-09-19 | Apple Inc. | Depth mapping with MPI mitigation using reference illumination pattern |
US11558569B2 (en) | 2020-06-11 | 2023-01-17 | Apple Inc. | Global-shutter image sensor with time-of-flight sensing capability |
CN112346076A (zh) * | 2020-11-25 | 2021-02-09 | Oppo(重庆)智能科技有限公司 | 电子装置的控制方法、电子装置及计算机可读存储介质 |
CN116829986A (zh) * | 2020-12-15 | 2023-09-29 | 捷普光学德国有限公司 | 混合深度成像系统 |
CN113658089A (zh) * | 2021-09-09 | 2021-11-16 | 南开大学 | 一种基于深度相机的双数据流融合物体识别方法 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000517427A (ja) * | 1996-09-05 | 2000-12-26 | ルドルフ シュヴァルト | 電磁波の位相情報および/または振幅情報を調べるための方法と装置 |
JP2008191661A (ja) * | 2007-02-06 | 2008-08-21 | Mitsubishi Electric Research Laboratories Inc | シーンの4dライトフィールドを取得する装置及び方法 |
JP2011164095A (ja) * | 2010-02-04 | 2011-08-25 | Samsung Electronics Co Ltd | センサー、その動作方法、及びセンサーを含むデータ処理システム |
JP2013520006A (ja) * | 2010-02-12 | 2013-05-30 | サムスン エレクトロニクス カンパニー リミテッド | イメージセンサおよび動作方法 |
JP2013538342A (ja) * | 2010-07-21 | 2013-10-10 | マイクロソフト コーポレーション | 階層的な飛行時間(tof)システムのディエリアシング方法およびシステム |
US8809758B2 (en) * | 2008-07-25 | 2014-08-19 | Cornell University | Light field image sensor with an angle-sensitive pixel (ASP) device |
WO2014137922A1 (en) * | 2013-03-05 | 2014-09-12 | Rambus Inc. | Phase gratings with odd symmetry for high-resoultion lensless optical sensing |
JP2014176625A (ja) * | 2014-01-27 | 2014-09-25 | Sophia Co Ltd | 遊技機 |
JP2014197824A (ja) * | 2013-03-05 | 2014-10-16 | キヤノン株式会社 | 画像処理装置、撮像装置、画像処理方法、及びプログラム |
WO2014198625A1 (en) * | 2013-06-13 | 2014-12-18 | Basf Se | Optical detector and method for manufacturing the same |
WO2015025497A1 (ja) * | 2013-08-23 | 2015-02-26 | パナソニックIpマネジメント株式会社 | 測距システム及び信号発生装置 |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5296691A (en) * | 1992-09-14 | 1994-03-22 | Lazerdata Corporation | Scanning device for reconstructing a complete code from scanned segments |
DE19542490C1 (de) * | 1995-11-15 | 1997-06-05 | Leica Ag | Elektro-optisches Meßgerät für absolute Distanzen |
US6925455B2 (en) | 2000-12-12 | 2005-08-02 | Nec Corporation | Creating audio-centric, image-centric, and integrated audio-visual summaries |
WO2007092545A2 (en) | 2006-02-07 | 2007-08-16 | The Board Of Trustees Of The Leland Stanford Junior University | Variable imaging arrangements and methods therefor |
EP2398224B1 (en) | 2004-10-01 | 2016-01-13 | The Board of Trustees of The Leland Stanford Junior University | Imaging arrangements and methods therefor |
EP1941314A4 (en) | 2005-10-07 | 2010-04-14 | Univ Leland Stanford Junior | ARRANGEMENTS AND APPROACHES FOR MICROSCOPY |
EP3836215A1 (en) * | 2008-07-25 | 2021-06-16 | Cornell University | Light field image sensor, method and applications |
GB0916727D0 (en) * | 2009-09-23 | 2009-11-04 | Univ St Andrews | Improvements in or relating to imaging |
WO2012018887A2 (en) | 2010-08-03 | 2012-02-09 | Cornell University | Angle sensitive pixel (asp)-based image processing system, method, and applications |
CN103299166B (zh) | 2010-10-27 | 2015-09-23 | 康奈尔大学 | 光场图像传感器、方法和应用 |
EP2815251B1 (en) * | 2012-02-15 | 2017-03-22 | Heptagon Micro Optics Pte. Ltd. | Time of flight camera with stripe illumination |
US9160900B2 (en) * | 2012-02-29 | 2015-10-13 | Canon Kabushiki Kaisha | Systems and methods for compressive light sensing using multiple spatial light modulators |
US8569700B2 (en) * | 2012-03-06 | 2013-10-29 | Omnivision Technologies, Inc. | Image sensor for two-dimensional and three-dimensional image capture |
WO2014122506A1 (en) | 2013-02-07 | 2014-08-14 | Nokia Corporation | Image processing of sub -images of a plenoptic image |
US9110240B2 (en) | 2013-03-05 | 2015-08-18 | Rambus Inc. | Phase gratings with odd symmetry for high-resolution lensed and lensless optical sensing |
CN103209307B (zh) * | 2013-04-18 | 2016-05-25 | 清华大学 | 编码重聚焦计算摄像方法及装置 |
US9442186B2 (en) * | 2013-05-13 | 2016-09-13 | Microsoft Technology Licensing, Llc | Interference reduction for TOF systems |
CN105637320B (zh) * | 2013-08-19 | 2018-12-14 | 巴斯夫欧洲公司 | 光学检测器 |
US9515113B2 (en) * | 2013-08-27 | 2016-12-06 | Rambus Inc. | Optical sensing of nearby scenes with tessellated phase anti-symmetric gratings |
US10061028B2 (en) * | 2013-09-05 | 2018-08-28 | Texas Instruments Incorporated | Time-of-flight (TOF) assisted structured light imaging |
CN103472455B (zh) * | 2013-09-13 | 2015-05-06 | 中国科学院空间科学与应用研究中心 | 稀疏孔径压缩计算关联飞行时间四维光谱成像系统及方法 |
-
2016
- 2016-03-17 EP EP16713231.5A patent/EP3271747B1/en active Active
- 2016-03-17 WO PCT/US2016/022741 patent/WO2016149438A1/en active Application Filing
- 2016-03-17 US US15/554,550 patent/US10605916B2/en active Active
- 2016-03-17 JP JP2017548977A patent/JP6722194B2/ja active Active
- 2016-03-17 CA CA2979836A patent/CA2979836C/en active Active
- 2016-03-17 KR KR1020177029937A patent/KR102456875B1/ko active IP Right Grant
- 2016-03-17 CN CN201680023973.4A patent/CN107533139B/zh active Active
-
2020
- 2020-02-21 US US16/797,251 patent/US10983216B2/en active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000517427A (ja) * | 1996-09-05 | 2000-12-26 | ルドルフ シュヴァルト | 電磁波の位相情報および/または振幅情報を調べるための方法と装置 |
JP2008191661A (ja) * | 2007-02-06 | 2008-08-21 | Mitsubishi Electric Research Laboratories Inc | シーンの4dライトフィールドを取得する装置及び方法 |
US8809758B2 (en) * | 2008-07-25 | 2014-08-19 | Cornell University | Light field image sensor with an angle-sensitive pixel (ASP) device |
JP2011164095A (ja) * | 2010-02-04 | 2011-08-25 | Samsung Electronics Co Ltd | センサー、その動作方法、及びセンサーを含むデータ処理システム |
JP2013520006A (ja) * | 2010-02-12 | 2013-05-30 | サムスン エレクトロニクス カンパニー リミテッド | イメージセンサおよび動作方法 |
JP2013538342A (ja) * | 2010-07-21 | 2013-10-10 | マイクロソフト コーポレーション | 階層的な飛行時間(tof)システムのディエリアシング方法およびシステム |
WO2014137922A1 (en) * | 2013-03-05 | 2014-09-12 | Rambus Inc. | Phase gratings with odd symmetry for high-resoultion lensless optical sensing |
JP2014197824A (ja) * | 2013-03-05 | 2014-10-16 | キヤノン株式会社 | 画像処理装置、撮像装置、画像処理方法、及びプログラム |
WO2014198625A1 (en) * | 2013-06-13 | 2014-12-18 | Basf Se | Optical detector and method for manufacturing the same |
WO2015025497A1 (ja) * | 2013-08-23 | 2015-02-26 | パナソニックIpマネジメント株式会社 | 測距システム及び信号発生装置 |
JP2014176625A (ja) * | 2014-01-27 | 2014-09-25 | Sophia Co Ltd | 遊技機 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022181096A1 (ja) * | 2021-02-26 | 2022-09-01 | ソニーセミコンダクタソリューションズ株式会社 | 情報処理装置および方法 |
Also Published As
Publication number | Publication date |
---|---|
CA2979836C (en) | 2023-08-29 |
CN107533139A (zh) | 2018-01-02 |
EP3271747A1 (en) | 2018-01-24 |
US20200191967A1 (en) | 2020-06-18 |
CA2979836A1 (en) | 2016-09-22 |
US10605916B2 (en) | 2020-03-31 |
KR20170134502A (ko) | 2017-12-06 |
US10983216B2 (en) | 2021-04-20 |
CN107533139B (zh) | 2022-02-08 |
EP3271747B1 (en) | 2022-05-25 |
WO2016149438A1 (en) | 2016-09-22 |
JP6722194B2 (ja) | 2020-07-15 |
US20190033448A1 (en) | 2019-01-31 |
KR102456875B1 (ko) | 2022-10-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10983216B2 (en) | Depth field imaging apparatus, methods, and applications | |
EP3195042B1 (en) | Linear mode computational sensing ladar | |
EP3516625B1 (en) | A device and method for obtaining distance information from views | |
Chan et al. | Long-range depth imaging using a single-photon detector array and non-local data fusion | |
Zhou et al. | Computational cameras: convergence of optics and processing | |
US8982363B2 (en) | Method and apparatus to determine depth information for a scene of interest | |
US9123114B2 (en) | System and processor implemented method for improved image quality and enhancement based on quantum properties | |
EP3144880B1 (en) | A method and an apparatus for generating data representative of a light field | |
Jayasuriya et al. | Depth fields: Extending light field techniques to time-of-flight imaging | |
US11832008B2 (en) | Image sensors and sensing methods to obtain time-of-flight and phase detection information | |
Štolc et al. | Depth and all-in-focus imaging by a multi-line-scan light-field camera | |
Lee et al. | Highly precise AMCW time-of-flight scanning sensor based on parallel-phase demodulation | |
Sheinin et al. | Diffraction line imaging | |
KR101857977B1 (ko) | 플래놉틱 카메라와 깊이 카메라를 결합한 영상 장치 및 영상 처리 방법 | |
Agarwal et al. | Three dimensional image reconstruction using interpolation of distance and image registration | |
Damghanian et al. | Spatial resolution in a multi-focus plenoptic camera | |
Aßmann et al. | Parallel block compressive LiDAR imaging | |
Varghese | Angle sensitive imaging: A new paradigm for light field imaging | |
US20240103175A1 (en) | Imaging system | |
Jayasuriya | Plenoptic imaging and vision using angle sensitive pixels | |
Edeler et al. | Uncertainty analysis for optical time-of-flight sensors based on four-phase-shift range calculation | |
Veeraraghavan et al. | Computational photography | |
Kunnath et al. | Depth from Defocus on a Transmissive Diffraction Mask-based Sensor | |
Krig et al. | Image Capture and Representation | |
Lietz et al. | Introduction to Fourier ptychographic imaging for 3D ToF cameras |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190312 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200127 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200204 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200414 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200602 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200619 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6722194 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |