JP2011066875A - シーンの入力画像を取得するための方法および装置 - Google Patents

シーンの入力画像を取得するための方法および装置 Download PDF

Info

Publication number
JP2011066875A
JP2011066875A JP2010167751A JP2010167751A JP2011066875A JP 2011066875 A JP2011066875 A JP 2011066875A JP 2010167751 A JP2010167751 A JP 2010167751A JP 2010167751 A JP2010167751 A JP 2010167751A JP 2011066875 A JP2011066875 A JP 2011066875A
Authority
JP
Japan
Prior art keywords
mask
sensor
scene
static
dynamic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010167751A
Other languages
English (en)
Other versions
JP2011066875A5 (ja
JP5340233B2 (ja
Inventor
Amit Kumar Agrawal
アミット・クマール・アグラワル
Ashok Veeraraghavan
アショク・ヴェーララグハヴァン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Research Laboratories Inc
Original Assignee
Mitsubishi Electric Research Laboratories Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Research Laboratories Inc filed Critical Mitsubishi Electric Research Laboratories Inc
Publication of JP2011066875A publication Critical patent/JP2011066875A/ja
Publication of JP2011066875A5 publication Critical patent/JP2011066875A5/ja
Application granted granted Critical
Publication of JP5340233B2 publication Critical patent/JP5340233B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/10Beam splitting or combining systems
    • G02B27/1066Beam splitting or combining systems for enhancing image performance, like resolution, pixel numbers, dual magnifications or dynamic range, by tiling, slicing or overlapping fields of view
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)
  • Blocking Light For Cameras (AREA)
  • Image Processing (AREA)

Abstract

【課題】画像取得後に、適切な空間、焦点、又は時間の分解能を選択することが可能となる方法および装置。
【解決手段】カメラが、レンズ110と、センサ120とを備える。動的マスク111が開口面112においてレンズ110とセンサ120との間に配置され、静的マスク121がセンサ120に直接隣接して配置される。センサ120によってシーンから取得される光線の角度変動、時間変動、空間変動が、センサ120の個々のピクセルにマッピングされる。
【選択図】図1A

Description

本発明は、包括的にはカメラ及びコンピュテーショナルフォトグラフィに関し、より詳細には、光路内にマスクを設けられたカメラを用いて取得される画像における空間分解能、角度分解能、時間分解能のトレードオフに関する。
コンピュテーショナルフォトグラフィ
コンピュテーショナルフォトグラフィの1つの目標は、画像取得の簡潔さと後処理の改良とのトレードオフである。たとえば、空間分解能を低くすることは、角度分解能をより高くしてデジタルリフォーカスをサポートすることに対するトレードオフであり得る。同様に、高速カメラは、空間分解能を時間分解能に対してトレードオフする。
カメラセンサの近く又はカメラセンサ上に配置される焦点合わせされたマイクロレンズ(小型レンズ)アレイは、センサの空間位置において、カメラの開口面における角度変動をサンプリングして、低い空間分解能のライトフィールドを取得することができる。代替的に、主レンズの前に正レンズ及びプリズムを組み合わせたものを配置することができる。ライトフィールドの周波数領域変調も既知である。ライトフィールドの周波数領域変調において、センサの近くにコサイン和マスク(a sum of cosine masks)を配置することによって、変調ライトフィールドが取得される。これらの技法のすべては、より低い空間分解能をトレードオフして、静的シーンから取得されるライトフィールドの他の次元を取得する。
多重化及び符号化
アダマール符号を使用した多重検知によって、画像取得中の信号対雑音比(SNR:signal to noise ratio)が増大し得る。アダマール符号は、フーリエ変換の一般化されたクラスを使用する。他の符号もセンサの雑音及び飽和を減少させることができる。修正均一ランダムアレイ(MURA:modified uniform random array)符号によって、不可視撮像(non−visible imaging)におけるSNRを改善することができる。可逆符号によって、焦点外画像におけるぼけを低減することができる。波面符号化は、開口面において立方相板を使用して、被写界深度(DOF:depth of field)を拡張する。振幅及び位相を組み合わせたマスクによって、DOFを拡張することができる。小型レンズ内の減衰層のアレイによって、視界を分割することができる。これは、単一のレンズでは、達成することができない。センサの近くの、透過率が空間的に変動する光マスクセンサを、高動的レンジ(HDR:high dynamic range)の撮像のために使用することができる。他の撮像変調器(imaging modulator)は、デジタルマイクロミラーアレイ、ホログラム、ミラーを含む。
動き
動きの結果、動的シーンが生じる。静的画像に適用される、指向性フィルタの直行対によって動きをシミュレートすることができる。一度に1ピクセル列ずつ画像を取得する、プッシュブルームカメラ及びスリットスキャンフォトグラフィを、ゴール写真及び衛星撮像に使用して、モーションブラーを回避すると共に、興味深い動きのゆがみを取得することができる。高速カメラは、完全な動き情報を取得することができる。しかしながら、高速カメラは高価であり、高帯域幅を必要とし、動いているオブジェクトのデジタルリフォーカスを可能にしない。
マッピング方法
色のような、非幾何学的次元における光学情報を、幾何学的次元にマッピングすることができる。ベイヤフィルタモザイクは、空間分解能をトレードオフすることによって、波長情報をセンサピクセルに直接マッピングする。開口面におけるプリズムを用いて、波長(色)を、2D画像の角度次元にマッピングすることができる。瞳面多重化によって、色情報に加えて偏光を取得することができる。
5Dプレノプティック関数(5DPF)
プレノプティック関数(PF:plenoptic function)は、時空間の任意の点において観察者又はセンサが利用可能な視覚世界の全体ホログラフィック表現である。波長及び偏光効果を無視すると、PFを自由空間における時変4Dライトフィールドによって記述することができる。2平面パラメータ化の場合、センサ平面は(x,y)であり、開口面は(θ,θ)であり、5DPFはL(x,y,θ,θ,t)である。ただし、tは時間である。シーン内に内在する構造によって、5DPF内に冗長性がもたらされる。
カメラ
以下のカメラは、シーンに関する基礎を成す想定を用いて、5DPFのサブセットをサンプリングする。
従来のカメラ:従来のカメラは、露光時間中、シーンの焦点が合っており、且つこのシーンが静的であると想定する。したがって、5DPFにおける角度変動及び時間変動は、存在しない。このため、従来のカメラは、5DPFの結果としての2Dサブセットの適切で正確な特徴化を提供する。
ビデオカメラ:ビデオカメラは、シーンの焦点が合っているが、このシーンが経時的に変化していると想定する。角度変動が存在しないと想定することによって、ビデオカメラは、5DPFの結果としての3Dサブセットの適切な特徴化を提供する。
ライトフィールドカメラ:ライトフィールドカメラは、時間変動が存在しないと想定し、5DPFの4Dサブセットを取得する。
各カメラは、シーンがこのカメラに対し想定した冗長性を有するときにしか機能しない。想定が満たされないとき、取得画像は焦点ぼけ、モーションブラー、ハイライト、及び鏡面性のようなアーチファクトを有し得る。
本発明の実施の形態は、単一の画像を画像のセットに変換する方法及び装置を提供する。画像のセットは、時間、焦点、及び分解能、又はそれらの組み合わせにおいて変動し得る。
画像は、カメラの開口面において、レンズとセンサとの間に配置される動的マスク、及びセンサに直接隣接する静的マスクを用いて取得される。動的マスクは、シーンの時間変動を、ライトフィールドの角度変動に可逆的に符号化する。
本発明は、光サンプルにおける冗長性を利用することによって、空間次元、角度次元、及び時間次元間の分解能のプログラム可能なトレードオフを提供する。これによって、ユーザは、画像取得後に、適切な空間、焦点、又は時間の分解能を選択することが可能になる。
本方法及び本カメラによって、深度を移動しているオブジェクトをリフォーカスすること、及び単一画像内で複数の表情を取得すること等の新規な結果が可能になる。
本発明の実施の形態1に係るカメラのブロック図である。 図1Aのカメラにおける光路又は光線の概略図である。 本発明の実施の形態1に係る、図1のカメラによって取得される画像を後処理するための方法のフロー図である。 図1のカメラによって取得されるシーンの入力画像例である。 図3Aの入力画像から得られる出力画像例である。 図3Aの入力画像から得られる出力画像例である。 図3Aの入力画像から得られる出力画像例である。 図3Aの入力画像から得られる出力画像例である。 図1のカメラによって取得される顔の入力画像例である。 図4の入力画像から得られる出力画像のセット例である。
図1Aは、本発明の実施の形態1に係る装置100及び方法200を示している。図は、一定の縮尺ではなく、構成要素は、様々な特徴をより容易に示すように配置される。装置は、本体101の内部に配置されるカメラの形態である。カメラは、レンズ110と、センサ120とを備える。動的マスク111が開口面112に配置される。静的ヘテロダインマスク121がセンサに直接隣接して配置される。すなわち、マスク121は、レンズに面して、センサの表面上又は表面の近くに配置される。光学素子は、カメラの光軸102上に位置合わせされる。
カメラは、方法200のステップを実施するためのプロセッサ130も備える。プロセッサは、当該技術分野において既知の単一コアマイクロプロセッサ又はマルチコアマイクロプロセッサであり、入力/出力インタフェース及びメモリを備える。プロセッサは、画像安定化、ズーム、露光及び焦点制御、雑音低減、画像構成等のような従来の機能を実施することができる。方法200は、センサによって取得される単一の入力画像129に対し実施される。プロセッサは、出力画像140のセットを作成する。本明細書において定義されるように、セットは、1つ又は複数の出力画像を含むことができる。カメラは、入力画像及び出力画像を記憶するためのメモリカード135も備えることができる。
レンズは、アクロマートであり、160mmの焦点距離を有する。動的マスクは、円形であり、所望の動的符号化を提供する適切なピンホールパターン155を有するプラスティックから成る。ピンホールは、開口面全体にわたって分散している。代替的に、動的マスクは、スリット156を含む。差し込み図を参照されたい。マスクは、サーボモータ113によって回転する。シャッター123は、回転マスク111と同期され(125)、マスクの回転中、開口において光を断続的に遮断する。
代替的に、動的マスクは、開口面において、変調可能な低分解能液晶ダイオード(LCD)を備える。しかしながら、カラーLCDは、RGBピクセルに起因する回折をもたらし得る。モノクロLCDは、ピクセルサイズがより大きいが、コントラスト比がより低く(1:10)、光の約50%を損失する。これは、SNRを大幅に低める。投影機において使用されるようなモノクロLCDは、良好なコントラスト比を有するが、小さな形状(≒6ミクロン)に起因して回折が非常に大きく、且つ配線のためのピクセル間の間隙に起因して曲線因子が低いという難点がある。
センサは、2200万ピクセルの分解能を有する。ほぼ1mmの保護ガラス板122が静的マスクをセンサから分離する。これによって、11×11の角度分解能、及び242×182色空間分解能の場合、f/8の最大開口(maximum aperture:開放F値)が可能になる。焦点距離が160mmのレンズの場合、f/8における開口サイズは、20mmである。静的マスクには、コサインマスクの和が好ましい。タイル張りされた広帯域マスク(broadband mask)を使用して光スループットを改善することができる。
一連の画像が取得されるとき、開口面における最小形状を20/3mmまで低減することができるが、これによって、緑波長のための3つのピクセルの回折ぼけがもたらされる。このことを説明するために、動的マスクのピンホール間に適切に間隙を配置する。屋内シーンの場合、露光時間のために最大8秒を使用する。
代替的に、センサにおける光の角度変動を取得するために、センサの近くで小型レンズアレイを使用し、それによって光スループットを増大させることができる。カメラが時間画像レート(temporal image rate)Tを有する場合、各ピクセルは、時間間隔Tにわたって光を積分する。空間分解能がK分の1に落ちるため、ビデオシーケンスのための相当するピクセルはK倍大きくなり、したがって、K倍多くの光を集める。開口面において動的マスクのためにアダマール符号を使用することによって、各ピクセルは、K/2個の画像のための光を集めることができ、光の損失は、2分の1に低減される。同様に、静的シーンのために、開口面においてアダマール符号を使用することによって、同じ露光時間の間完全に開いている開口と比較して、損失する光が1/2となる。
5DPFを強引に取得すること(brute force acquisition)によって、空間分解能が、シーンから独立して、時間と角度分解能との積に等しい係数で低減する。このため、空間分解能はK分の1に低減する。しかしながら、本発明による方法は、シーンに応じて、K角度分解能、K時間分解能、又はK時間分解能のK角度のいずれかにK角度サンプルを使用する。
本発明によるカメラは、2007年2月6日付けで出願された、Raskarによる米国特許出願公開第2008/0187305号明細書「4D light field cameras」のヘテロダインカメラとは異なる。この(Raskarの)カメラは、センサにおいて、光線の角度変動しか取得しない。このカメラは、開口面において光線を変調しない。このカメラの出力は、動的シーンに使用することができない。
本発明によるカメラは、Liang著「Programmable aperture photography: Multiplexed light field acquisition」(ACMTrans.Graphics 27,3,55:1−55:10,2008)による、開口がマスクされたカメラとも異なる。この文献では、センサ付近にマスクを一切有することなく、画像毎に開口マスクを変化させることによって、ライトフィールド再構築のための複数の画像を取得する。そのカメラは、画像毎に開口マスクを変化させることによって、ライトフィールド再構築のための複数の画像を取得する。センサ付近には、マスクが一切存在しない。このカメラも動的シーンに使用することができない。
これらのカメラの双方は、静的シーンのために4DPFしか取得しない。Liangによるカメラ及びRaskarによるカメラの双方は、動きを含むシーン、すなわち動的シーンに使用することができない。
対照的に、図1Bに示すように、本発明では、単一の露光時間内に開口マスク111を用いて光線150を変調すると共に、センサ120に隣接する静的マスク121を使用してこれらの変動を取得する。任意の一時点において、光線のサブセット151のみが選択され、センサによって「スポット」160として積分される。
ライトフィールドマッピング
図2に示すように、単一の入力画像129においてシーンを取得する。角度次元及び時間次元における変動を、センサにおいて空間強度変動にマッピングする(301)。
静的シーンの部分の場合、光線の角度変動をピクセルに直接マッピングし(210)、4Dライトフィールドを取得することができる。
焦点の合った動的シーンの場合、動的開口マスクを使用して光線の時間変動を角度変動にマッピングすることによって、光線の時間変動をピクセルに間接的にマッピングする(230)。
ランバートシーンの場合、光線の角度変更は、開口面の水平方向及び垂直方向において同じである。ランバートシーンにおいて、光は、見かけの明るさがビュー(等方輝度)に関わらず同じであるように散乱される。ピンホールの代わりに開口において垂直スリットを使用することによって、光線の角度変更を垂直次元にマッピングし、光線の時間変動を水平次元にマッピングすることができる。
空間への角度のマッピング
光線150の角度変動は、センサにおいて光線の角度変動をピクセルにマッピングする(210)ことによって取得することができる。これは、静止マスク121上の高周波パターンの配列又はセンサに隣接する小型レンズによって達成される。ヘテロダインマスクは、各センサピクセルにおいて光線の線形結合をサンプリングする。これを周波数領域において反転することができる。ヘテロダインは、光線の線形結合をとり、この結合を反転することによって、ライトフィールドを取得する。小型レンズに基づく設計は、光線ビニング手法において光線をピクセルに方向付ける。
空間への時間の直接マッピング:露光時間T内で光積分を制御することによって、時間変動を空間にマッピングする(220)ことができる。単一の露光時間においてN個の低分解能画像を取得するために、N個おきのピクセルが、T/Nの時間期間でのみ光を積分する。これは、波長を空間にマッピングするベイヤモザイクフィルタに類似している。
空間への時間の間接マッピング:空間への時間の間接マッピング(230)は、光線の時間変動を光線の角度変動にマッピングし、ライトフィールドカメラを使用して角度変動を取得することによって達成することができる。
本発明の実施の形態1は、開口面における動的マスク及びセンサに隣接する静的マスクを使用することによって間接マッピングを実施する。
ピクセルの再解釈
本発明によるカメラは、光線をピクセルに「再ビニングする」。カメラに入射する各光線はピクセルにマッピングされる。光線は、取得されるシーンの角度変動、時間変動、又は空間変動に対応する。たとえば、焦点が鮮明な静的シーンは、空間変動のみを有し、角度変動も時間変動も有しない。焦点が鮮明な動いているオブジェクトは、光線の時間変動及び空間変動の双方を有する。焦点が外れた静的シーンは、光線の時間変動及び角度変動の双方を有するが、時間変動を有しない。本発明によるカメラは、これらの光線を、後処理がシーンの異なる部分に対して異なる出力を生成するように取得するユーザ柔軟性を可能にする。
たとえば、シーンの焦点の合った静的部分を、単一の画像から高空間分解能で再構築することができ、一方で画像内の焦点の合った動いているオブジェクトに関して低空間分解能のビデオを得ることができる。次に、取得した放射輝度を、5DPFの空間サンプル、角度サンプル、又は時間サンプルとして解釈する。
光学設計
本発明による静的ヘテロダインマスクは、個々のピンホール画像(スポット)160がf数マッチングに起因して互いに重複しないようにセンサから距離dに配置される静的ピンホールアレイの均等物である。各ピンホールは、結果として、開口にわたってK×Kピクセルに対し角度変動をもたらす。
P×Pピクセルのセンサ分解能の場合、この配列は、空間分解能(P/K)×(P/K)及び角度分解能K×Kを有するライトフィールドを取得する。時間変動を角度変動にマッピングするために、カメラの露光時間Tは、期間T/KのK個の区間に分割され、開口マスクがK×K個のロケーションから成る格子に分割される。K個の区間のそれぞれの間、開口面におけるK個のロケーションのうちの1つは開いており、一方、他の全ては閉じている。開口面に移動ピンホールを有するこのヘテロダイン設計によって、シーン特性に関する取得後の柔軟性という目標が達成される。開口マスクにアダマール符号を使用し、後述するようにセンサにおいてタイル張りされた広帯域/コサインマスクを使用することによって、光の損失を最小にすることができる。
静的シーン
単一の画像の場合、動的マスクは、露光時間を延長すること以外、画像に影響を及ぼさない。静的シーンの場合、動的マスクは時間にわたる光線の角度変動に影響を及ぼさない。各ピンホール位置は、開口面において光線のサブセット151を取得する。動的マスク内のピンホールが開口全体をカバーしている限り、最終的にライトフィールド内の全ての角度変動を取得することができる。したがって、経時的に、動的マスクを用いて取得した入力画像は、より短い露光時間でマスクを用いずに取得した画像に等しくなる。
光はK分の1に減衰され、取得画像を使用して、K×Kの角度分解能及び(P/K)×(P/K)の空間分解能を有するライトフィールドを回復することができる。
図3A〜図3Eに示すように、本発明によるデジタルリフォーカスを、動いているオブジェクトから独立して、シーンの静的部分に対し実施することができる。この結果、動いている部分に幾つかの興味深いアーチファクトが生じる。
図3Aは、センサによって取得される単一の入力画像を示している。図3B〜図3Eは、図3Aの画像から得ることができる画像のセットを示している。図3Bは、焦点が外れたズームイン画像である。図3Cは、焦点の合ったズームインである。図3Dの画像は、前景の焦点が合っており、図3Eの画像は、背景の焦点が合っている。シーン内の静的部分の焦点が外れたぼけは、開口の形状に対応する。シーン内の全ての静的部分は、ライトフィールドから予期されるように、回復画像内で焦点が合っている。
焦点の合った静的シーン
シーンの焦点の合った静的部分に関して高分解能の2D画像を回復することができる。静的マスクは、このマスクの空間変動する減衰パターンによって、焦点の合った部分の画像を減衰させる。均一強度のランバート平面を使用して、較正画像を用いて正規化することによってこれを補償することができる。
動的マスクは、以下のさらなる効果を有する。焦点の合ったシーン部分毎に、光線錐(cone of rays)がセンサピクセル上に完全に焦点を合わせる。シーンが静的であるため、この光線錐は、露光時間中変化しない。このため、静的部分に対する空間分解能は、ライトフィールドを使用して得られるリフォーカス画像における分解能を超えて増大することができる。動的マスクの移動ピンホールによって、光線錐が、異なる時間区間にカメラに入射することが可能になる。さらに、シーンは焦点が合っているため、錐内の全ての光線は同じ放射輝度を有する。移動ピンホールの効果は、強度をK分の1に減衰させることである。
焦点の合った動的シーン
シーンの焦点が合っており、露光時間中静的である場合、開口面112における光線錐150は、所与の時点において同じ放射輝度を有する。光線の任意のサブセット151を取得することによって、その時点におけるシーンの放射輝度を記録することができる。これを利用して、異なる時点に異なる光線のサブセットを取得して、動的シーンの複数の画像を取得することができる。動的マスクの移動ピンホールは、まさにこれを達成する。開口面の移動ピンホールマスクの効果は、光線を異なる時点において異なる角度にマッピングする、すなわち時間を間接的に角度にマッピングする(240)ことである。
ここで、取得したライトフィールドの「ビュー」は、画像シーケンス(ビデオ)の異なる画像に自動的に対応する。この画像シーケンスは、動いている部分に関してより低い空間分解能の時間変動を有する。このため、取得したP×P画像をK個の時間画像に変換することができ、この画像は、それぞれ(P/K)×(P/K)の空間分解能を有する。
焦点が外れた動的ランバートシーン
カメラに向かって又はカメラから離れて移動しているオブジェクトは、取得画像において焦点ぼけ及びモーションブラーの双方を受ける。一方又は他方を修正するための方法が既知である。Raskarによる、米国特許出願公開第2007/0258707号明細書「Method and apparatus for deblurring images」、及びRaskarによる、米国特許出願公開第2008/0187305号明細書「4D light field cameras」を参照されたい。しかしながら、これらの方法のうちのいずれも、モーションブラー及び焦点ぼけを同時に修正することができない。これらの方法は、点広がり関数(PSF:point spread function)と、焦点の合ったオブジェクトを回復するための、ぼけ除去とを必要とする。
動的シーンの複数の部分の焦点が外れている場合、時間変動及び角度変動は、双方が光線の角度変動となるため、区別することができない。時間変動を角度にマッピングするため、時間変動及び角度変動の双方を同時に別個に取得することはできない。しかしながら、5DPFにおける冗長性を使用して、以下のようにこれらの変動の双方を取得する。
概して、ライトフィールドは、2つの角度次元を有する。ランバートシーンの場合、シーン点の放射輝度は、全ての方向において同じであり、角度情報は、冗長である。開口面にスリットを配置することによって、一次元、すなわち1D視差画像のみを使用して角度情報を取得する場合、結果としての3Dライトフィールドは、ランバートシーンに関する全ての情報を有する。この3Dライトフィールドによって、4Dライトフィールドに関するリフォーカスが可能になる。焦点が外れたぼけは、開口形状に依拠するため、標準のフル開口ライトフィールドの場合、二次元ではなく一次元である。
本発明の主要な着想は、シーンの時間変動を、「追加の」利用可能な角度次元にマッピングすることである。開口面において垂直スリットを水平に移動することによって、時間変動を、取得したライトフィールドの水平次元にマッピングし、角度変動を、取得したライトフィールドの垂直次元にマッピングすることができる。焦点の合った動的シーンの場合、ピンホールを上述したように動かすことによって、時間変動は、ライトフィールドの角度次元の双方(水平及び垂直)にマッピングされる。このため、P×Pの画像は、K個の時間画像に変換され、この画像は、それぞれ(P/K)×(P/K)ピクセルの空間分解能を有する。このK個の画像は、K個の異なる時点について独立してK個の角度サンプルを使用したリフォーカスに対応する。これによって、動いているオブジェクトに対するデジタルリフォーカスが可能になる。シーンが低速に変化しているとき、開口面において移動スリットは必要ない。このため、同じ取得画像が、後処理中に異なって解釈され得る。通常、本発明によるカメラを使用して5DPFの最大4Dのサブセットを取得する。
応用形態
静的シーンのためのライトフィールド
本発明によるカメラを用いて、焦点の合ったシーン部分に関してより高い空間分解能を保つことができる。
領域に適応した出力
静的部分及び動いている部分を有するシーンの場合、動いている部分の焦点の合った特徴を回復することができる。角度サンプルによって、前景及び背景内の静的部分のデジタルリフォーカスも可能になる。
動き描写
従来のカメラを用いると、単一の画像内の動きを描写することは困難である。これは、センサが露光時間中、光を積分し、オブジェクトの動きの結果、モーションブラーが生じるためである。動的シーンの場合、本発明による取得される入力画像129は、新規であり、興味深い形での動きの描写を提供する。
ヘテロダインと同様に、本発明によるカメラは、静的シーンのための4Dライトフィールドを取得する。焦点の合った静的部分に関して、高空間分解能が保持される。1D視差及び動き情報を取得することによって、動いている部分と静的部分との間で、正確な閉鎖及び非閉鎖(すなわち、1つのオブジェクトが別のオブジェクトの後に移動すると見えなくなる)を維持しながら、深度を移動している部分をデジタルリフォーカスすることができる。
新規の効果
本発明では、モーションブラーを一切生じずにオブジェクトを焦点外に動かしながら、静的オブジェクトの焦点を鮮明に維持することのような新規の効果を生み出すことができる。
表情の取得
満足のいく顔写真を取得することは難しい。多くの場合、そのような撮影では、写真家が多数の写真を取得する必要がある。一つの解決策は、バッファ内に継続的に画像を取得して、最も良好なものを選択することである。
図4は、顔から取得される単一の画像を示している。図4は、ビデオシーケンスの合成画像ではないことに留意されたい。図5は、本発明の実施の形態1に係る後処理方法200を使用して、単一の入力画像から回復される異なる9つの表情を有する出力画像のセットである。ここで、回復される画像は、デジタルモンタージュ写真のようなソフトウェア技法を使用してさらに結合し、新規の画像を生成することができる。
発明の効果
デジタル写真撮影は、カメラの制限された能力に起因して、写真家に困難な選択を課す。選択のうちの幾つかは、経験則と見なされる。プロの写真家は、通常、撮影中の開口、焦点、及び露光時間に関する主要な決定を行う。
本発明によって、ユーザがこれらの選択のうちの幾つかを後処理時間まで引き延ばすことが可能になる。本発明によるカメラは、取得画像内のモーションブラー及び焦点ぼけを同時に扱うことができる。カメラにおいて動的マスク及び静的マスクを使用することにより、事前にシーンを知ることなく、単一の画像から、ビデオ、4Dライトフィールド、又は高分解能画像を回復することができる。
医療及び科学顕微鏡法では、動いているオブジェクトにリフォーカスする能力は、有益である。本明細書において説明されるマスク例は減衰器であるが、角度に依拠するホログラフィックマスクは、完全な5Dプレノプティック関数を取得することができる。
本発明によるカメラは、幾つかの利点を有する。概念的に、本発明では、単一のカメラ本体101内に、ライトフィールドカメラと、ビデオカメラと、2D画像カメラとを設ける。従来のビデオカメラ又はライトフィールドカメラと対照的に、時間次元又は角度次元に沿った変動がないため、サンプルが無駄にならない。
ぼけを取り除くためのモーションブラー除去に基づく技法と異なり、本発明の方法によるビデオ画像の回復は、ぼけ除去又は動きPSFの知識を必要とせず、それによって露光時間内に任意のシーン変化を取得することが可能になる。
5DPFによって呈される冗長性に関する決定を、後処理の間に行うことができる。本発明の光学設計は、全てのピクセルにおける放射輝度を取得する。放射輝度は、プレノプティック関数の空間サンプル、角度サンプル、又は時間サンプルとして解釈することができる。これらのケースのそれぞれにおいて異なる次元に沿って回復される分解能は異なるが、有効分解能、すなわち空間分解能、角度分解能、及び時間分解能の積は、センサピクセルの数に等しい。
単一の光学構成に関する利点として、空間分解能、角度分解能、及び時間分解能を、シーン特性によって要求されるようにトレードオフすることができる。このトレードオフは、画像取得後に、本発明の方法によって行われる。これは、いずれのシーン解釈が適切であるかを判断する想定のそれぞれの下で、ユーザが実際に出力を回復することができることを意味する。
本発明者らは、これが、このような柔軟性を可能にする初のカメラであると自負している。
付録
マスクに基づく設計は、開口、センサ上平面、及び/又は近センサ平面において、静的/動的マスクを配置することとして一般化することができる。マスクは、変調関数m(x,y,θ,θ,t)によって、カメラに入射する光線を変調する。センサ平面における変調されたプレノプティック関数は次式(1)によって与えられる。
Figure 2011066875
捕捉されたセンサ写真I(x,y)は、次式(2)で表される時間次元及び角度次元に沿ったプレノプティック関数の積分である。
Figure 2011066875
開口における符号化:動的に符号化された開口に起因する変調関数mは、開口面において、全ての空間位置に関して同様に、入来する光線を変調するため、次式(3)の形態を取る。
Figure 2011066875
したがって、単一ショットで開口を変調することによって、光線の角度変動を制御することができるが、これらの変動を捕捉することができない。しかしながら、複数の写真を使用すると、角度変動を捕捉することができる(Liang他、2008)。
センサ付近の符号化:変調関数をセンサに近づけてシフトすることによって、空間次元及び角度次元の双方において同時に光線を変調することができる。センサから距離dに配置される静的マスクに起因する変調関数mnsは、次式(4)によって与えられる。
Figure 2011066875
ただし、
Figure 2011066875
であり、
Figure 2011066875
であり、vは、センサと開口との間の距離を表す(Veeraraghavan他、2007)。これは、角度変動を捕捉するために角度を空間にマッピングすることに対応する。
センサ上での符号化:センサ平面における変調関数mは、任意のピクセルにぶつかる全ての光線に、それらの光線の方向に関係なく等しく影響を与えるため、次式(5)の形態を取る。
Figure 2011066875
したがって、この変調関数は、光線の角度変動を捕捉することはできないが、シーンの時間変動を異なる複数のピクセルに直接マッピングする(時間を空間に直接マッピングする)ことを可能にする。
開口及びセンサ付近での符号化:セクション3.1において説明される本設計は、この部類に入る。開口においてマスクを動的に変化させることによって、光線の角度変動を制御する。光線は、近センサ平面においても静的マスクを使用して捕捉される。したがって、時間変動が角度変動にマッピングされる(時間と空間との間接マッピング)。変調関数は次式(6)によって与えられる。
Figure 2011066875
ただし、mnsは、式(4)によって与えられる。開口において移動ピンホールマスクを使用する場合、次式(7)となる。
Figure 2011066875
ただし、t=t(mod K)であり、
Figure 2011066875
である。

Claims (25)

  1. 装置であって、
    レンズと、
    センサと、
    開口面において前記レンズと前記センサとの間に配置される動的マスクと、
    前記センサに直接隣接して配置される静的マスクと、
    を備えた装置。
  2. 前記静的マスクは、高周波ヘテロダインマスクである請求項1に記載の装置。
  3. 前記センサに接続されるプロセッサであって、前記センサは、前記プロセッサのための単一の入力画像を取得し、前記プロセッサは、出力画像のセットを作成するプロセッサをさらに備える請求項1に記載の装置。
  4. 前記動的マスクは、回転するように構成され、ピンホールのパターンを含む請求項1に記載の装置。
  5. 前記動的マスクは、回転するように構成され、スリットを含む請求項1に記載の装置。
  6. 前記動的マスクは、低分解能液晶ダイオードを備える請求項1に記載の装置。
  7. 前記静的マスクと前記センサとを分離するガラス板をさらに備える請求項1に記載の装置。
  8. 前記静的マスクは、前記静的マスクのためのコサインマスクの和である請求項1に記載の装置。
  9. 前記静的マスクは、タイル張りされた広帯域マスクである請求項1に記載の装置。
  10. 前記静的マスクは、小型レンズアレイである請求項1に記載の装置。
  11. 前記動的マスクは、アダマール符号を使用する請求項1に記載の装置。
  12. 前記入力画像は、動的シーンから取得され、前記シーンからの光線の時間変動は、前記動的マスクによって角度変動にマッピングされ、
    前記センサにおける前記角度変動を、前記静的マスクを使用してライトフィールドとして取得する手段をさらに含む請求項3に記載の装置。
  13. 前記入力画像は、静的シーンから取得され、前記シーンからの光線の角度次元及び時間次元の変動は、前記センサ上で、前記静的マスクによって空間強度変動にマッピングされる請求項3に記載の装置。
  14. シーンからの光線の角度変更は、垂直次元にマッピングされ、前記光線の時間変動は、水平次元にマッピングされる請求項5に記載の装置。
  15. 前記静的マスクは、不均一に離間されたピンホールのアレイである請求項1に記載の装置。
  16. 前記セットの前記出力画像は、前記シーンの異なる部分に関して異なる請求項13に記載の装置。
  17. 前記静的シーンの焦点の合った部分は、前記出力画像のセットにおいて、より高い空間分解能を有する請求項13に記載の装置。
  18. 前記動的シーンの動いている部分は、回復される請求項12に記載の装置。
  19. シーンの入力画像を取得するための方法であって、
    レンズを通じてカメラに入射する、前記シーンからのライトフィールドを、開口面において動的マスクを使用して変調するステップと、
    センサにおいて、前記変調ライトフィールドを、前記センサに直接隣接して配置される静的マスクを使用して、単一の画像として取得するステップと、
    を含む方法。
  20. 前記単一の画像から、前記センサに接続されているプロセッサを使用して、出力画像のセットを作成するステップをさらに含む請求項19に記載の方法。
  21. 前記センサは静的であり、
    前記入力画像を高分解能画像に変換するステップをさらに含む請求項19に記載の方法。
  22. 前記入力画像を4次元プレノプティック関数に変換するステップをさらに含む請求項19に記載の方法。
  23. 前記単一の画像を、前記シーンの異なる深度の平面においてリフォーカスするステップをさらに含む請求項19に記載の方法。
  24. 前記シーンは動的であり、
    前記入力画像を低空間分解能のビデオに変換するステップをさらに含む請求項19に記載の方法。
  25. ライトフィールドにおける角度変動、時間変動、又は空間変動を、前記センサの個々のピクセルにマッピングするステップをさらに含む請求項19に記載の方法。
JP2010167751A 2009-09-18 2010-07-27 シーンの入力画像を取得するための方法および装置 Expired - Fee Related JP5340233B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/562,485 2009-09-18
US12/562,485 US8229294B2 (en) 2007-12-10 2009-09-18 Cameras with varying spatio-angular-temporal resolutions

Publications (3)

Publication Number Publication Date
JP2011066875A true JP2011066875A (ja) 2011-03-31
JP2011066875A5 JP2011066875A5 (ja) 2013-07-18
JP5340233B2 JP5340233B2 (ja) 2013-11-13

Family

ID=41464480

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010167751A Expired - Fee Related JP5340233B2 (ja) 2009-09-18 2010-07-27 シーンの入力画像を取得するための方法および装置

Country Status (2)

Country Link
US (1) US8229294B2 (ja)
JP (1) JP5340233B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013115532A (ja) * 2011-11-28 2013-06-10 Sony Corp 画像処理装置および方法、記録媒体、並びに、プログラム
JPWO2013179538A1 (ja) * 2012-05-28 2016-01-18 パナソニックIpマネジメント株式会社 奥行き推定撮像装置
JP2016511980A (ja) * 2013-02-13 2016-04-21 ウニベージティート デス ザ−ルランデスUniversitaet Des Saarlandes プレノプティックイメージング装置
JP2016157999A (ja) * 2015-02-23 2016-09-01 日本電信電話株式会社 ライトフィールド取得装置及びライトフィールド取得方法
JP2017169202A (ja) * 2015-01-09 2017-09-21 株式会社リコー プレノプティック・イメージング・システムのオブジェクト空間較正

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10298834B2 (en) 2006-12-01 2019-05-21 Google Llc Video refocusing
KR20100090961A (ko) * 2009-02-09 2010-08-18 삼성전자주식회사 가변 부호화 어퍼쳐 장치를 이용하는 이미징 방법 및 이를 적용하는 이미징 장치
CN101964866B (zh) * 2009-07-24 2013-03-20 鸿富锦精密工业(深圳)有限公司 计算摄像型数码相机
US8405763B2 (en) * 2010-12-23 2013-03-26 Mitsubishi Electric Research Laboratories, Inc. Video camera for reconstructing varying spatio-temporal resolution videos
WO2013058777A1 (en) 2011-10-21 2013-04-25 Hewlett-Packard Development Company, L. P. Color image capture system and method for light modulation
EP2680568B1 (en) * 2012-06-25 2016-05-25 ST-Ericsson SA Video stabilisation with deblurring
US9858649B2 (en) 2015-09-30 2018-01-02 Lytro, Inc. Depth-based image blurring
CN108337419A (zh) * 2012-07-12 2018-07-27 株式会社尼康 图像处理装置
US20150234102A1 (en) * 2012-08-20 2015-08-20 Drexel University Dynamically focusable multispectral light field imaging
US9036080B2 (en) 2012-09-04 2015-05-19 Canon Kabushiki Kaisha Apparatus and method for acquiring information about light-field data
WO2014122506A1 (en) * 2013-02-07 2014-08-14 Nokia Corporation Image processing of sub -images of a plenoptic image
US10334151B2 (en) 2013-04-22 2019-06-25 Google Llc Phase detection autofocus using subaperture images
CN104184936B (zh) * 2013-05-21 2017-06-23 吴俊辉 基于光场相机的影像对焦处理方法及其系统
CN106170822B (zh) * 2013-12-23 2020-03-24 特拉华大学 3d光场相机和摄影方法
EP3001672A1 (en) 2014-09-25 2016-03-30 Thomson Licensing Plenoptic camera comprising a spatial light modulator
US10440407B2 (en) 2017-05-09 2019-10-08 Google Llc Adaptive control for immersive experience delivery
US10469873B2 (en) 2015-04-15 2019-11-05 Google Llc Encoding and decoding virtual reality video
US11328446B2 (en) 2015-04-15 2022-05-10 Google Llc Combining light-field data with active depth data for depth map generation
US10546424B2 (en) 2015-04-15 2020-01-28 Google Llc Layered content delivery for virtual and augmented reality experiences
US10412373B2 (en) 2015-04-15 2019-09-10 Google Llc Image capture for virtual reality displays
US10565734B2 (en) 2015-04-15 2020-02-18 Google Llc Video capture, processing, calibration, computational fiber artifact removal, and light-field pipeline
US10444931B2 (en) 2017-05-09 2019-10-15 Google Llc Vantage generation and interactive playback
US10419737B2 (en) 2015-04-15 2019-09-17 Google Llc Data structures and delivery methods for expediting virtual reality playback
US10341632B2 (en) 2015-04-15 2019-07-02 Google Llc. Spatial random access enabled video system with a three-dimensional viewing volume
US10567464B2 (en) 2015-04-15 2020-02-18 Google Llc Video compression with adaptive view-dependent lighting removal
US10540818B2 (en) 2015-04-15 2020-01-21 Google Llc Stereo image generation and interactive playback
US10275898B1 (en) 2015-04-15 2019-04-30 Google Llc Wedge-based light-field video capture
WO2016185668A1 (ja) * 2015-05-18 2016-11-24 パナソニックIpマネジメント株式会社 指向性制御システム及び音声出力制御方法
US20170024603A1 (en) * 2015-07-22 2017-01-26 Anthony Ray Misslin Biometric image optimization using light fields
US9979909B2 (en) 2015-07-24 2018-05-22 Lytro, Inc. Automatic lens flare detection and correction for light-field images
EP3350785A2 (en) * 2015-09-17 2018-07-25 Valdhorn, Dan Method and apparatus for privacy preserving optical monitoring
CN106961557B (zh) 2016-01-08 2020-01-31 中强光电股份有限公司 光场相机及其影像处理方法
US10275892B2 (en) 2016-06-09 2019-04-30 Google Llc Multi-view scene segmentation and propagation
EP3261347A1 (en) * 2016-06-22 2017-12-27 Thomson Licensing A method and a device for encoding a signal representative of a light-field content
US10200605B2 (en) * 2016-10-25 2019-02-05 Nokia Of America Corporation Systems and methods for video compressive sensing using a rotating mask
US10679361B2 (en) 2016-12-05 2020-06-09 Google Llc Multi-view rotoscope contour propagation
US9900510B1 (en) * 2016-12-08 2018-02-20 Lytro, Inc. Motion blur for light-field images
US10902712B2 (en) * 2016-12-15 2021-01-26 Fabio D'angelo Surveillance device
US10594945B2 (en) 2017-04-03 2020-03-17 Google Llc Generating dolly zoom effect using light field image data
US10474227B2 (en) 2017-05-09 2019-11-12 Google Llc Generation of virtual reality with 6 degrees of freedom from limited viewer data
US10354399B2 (en) 2017-05-25 2019-07-16 Google Llc Multi-view back-projection to a light-field
US10467733B2 (en) * 2017-07-27 2019-11-05 Raytheon Company Multiplexed high dynamic range images
US10545215B2 (en) 2017-09-13 2020-01-28 Google Llc 4D camera tracking and optical stabilization
US10965862B2 (en) 2018-01-18 2021-03-30 Google Llc Multi-camera navigation interface

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008191661A (ja) * 2007-02-06 2008-08-21 Mitsubishi Electric Research Laboratories Inc シーンの4dライトフィールドを取得する装置及び方法
JP2008542863A (ja) * 2005-05-23 2008-11-27 キネテイツク・リミテツド 符号化開口画像システム
JP2009290268A (ja) * 2008-05-27 2009-12-10 Sony Corp 撮像装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2950644A (en) * 1955-04-25 1960-08-30 Polaroid Corp Cinematographic method and apparatus
GB1233782A (ja) * 1967-09-29 1971-05-26
DE69231596T2 (de) * 1991-10-31 2001-06-28 Yokogawa Electric Corp Konfokaler optischer Scanner
US5627639A (en) * 1995-06-06 1997-05-06 Lockheed Missiles & Space Company, Inc. Coded aperture imaging spectrometer
US6173087B1 (en) * 1996-11-13 2001-01-09 Sarnoff Corporation Multi-view image registration with application to mosaicing and lens distortion correction
US6864916B1 (en) * 1999-06-04 2005-03-08 The Trustees Of Columbia University In The City Of New York Apparatus and method for high dynamic range imaging using spatially varying exposures
US6687010B1 (en) * 1999-09-09 2004-02-03 Olympus Corporation Rapid depth scanning optical imaging device
US6731383B2 (en) * 2000-09-12 2004-05-04 August Technology Corp. Confocal 3D inspection system and process
WO2002089046A1 (en) * 2001-04-26 2002-11-07 Georgia Tech Research Corporation Video enhancement using multiple frame techniques
US7120293B2 (en) * 2001-11-30 2006-10-10 Microsoft Corporation Interactive images
CN100468181C (zh) * 2003-04-30 2009-03-11 佳能株式会社 光量调节装置和拍摄装置
US7620309B2 (en) * 2006-04-04 2009-11-17 Adobe Systems, Incorporated Plenoptic camera
US7439483B2 (en) * 2006-04-17 2008-10-21 Korea Advanced Institute Of Science And Technology Real-time confocal microscope using the dispersion optics
US7756407B2 (en) 2006-05-08 2010-07-13 Mitsubishi Electric Research Laboratories, Inc. Method and apparatus for deblurring images
US8213734B2 (en) * 2006-07-07 2012-07-03 Sony Ericsson Mobile Communications Ab Active autofocus window
US7576348B2 (en) * 2006-09-20 2009-08-18 Applied Materials, Israel, Ltd. One-dimensional phase contrast microscopy with a traveling lens generated by a step function change
US8641628B2 (en) * 2007-09-26 2014-02-04 Siemens Medical Solutions Usa, Inc. Aperture synthesis using cMUTs
US20100098323A1 (en) * 2008-07-18 2010-04-22 Agrawal Amit K Method and Apparatus for Determining 3D Shapes of Objects

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008542863A (ja) * 2005-05-23 2008-11-27 キネテイツク・リミテツド 符号化開口画像システム
JP2008191661A (ja) * 2007-02-06 2008-08-21 Mitsubishi Electric Research Laboratories Inc シーンの4dライトフィールドを取得する装置及び方法
JP2009290268A (ja) * 2008-05-27 2009-12-10 Sony Corp 撮像装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013115532A (ja) * 2011-11-28 2013-06-10 Sony Corp 画像処理装置および方法、記録媒体、並びに、プログラム
US9392257B2 (en) 2011-11-28 2016-07-12 Sony Corporation Image processing device and method, recording medium, and program
US10424049B2 (en) 2011-11-28 2019-09-24 Sony Corporation Image processing device, method, and recording medium
JPWO2013179538A1 (ja) * 2012-05-28 2016-01-18 パナソニックIpマネジメント株式会社 奥行き推定撮像装置
JP2016511980A (ja) * 2013-02-13 2016-04-21 ウニベージティート デス ザ−ルランデスUniversitaet Des Saarlandes プレノプティックイメージング装置
JP2017169202A (ja) * 2015-01-09 2017-09-21 株式会社リコー プレノプティック・イメージング・システムのオブジェクト空間較正
JP2016157999A (ja) * 2015-02-23 2016-09-01 日本電信電話株式会社 ライトフィールド取得装置及びライトフィールド取得方法

Also Published As

Publication number Publication date
US8229294B2 (en) 2012-07-24
US20100003024A1 (en) 2010-01-07
JP5340233B2 (ja) 2013-11-13

Similar Documents

Publication Publication Date Title
JP5340233B2 (ja) シーンの入力画像を取得するための方法および装置
Wetzstein et al. Computational plenoptic imaging
JP5830348B2 (ja) 撮像装置
JP5205448B2 (ja) 画像取込装置および方法
Nagahara et al. Programmable aperture camera using LCoS
JP4538766B2 (ja) 撮像装置、表示装置および画像処理装置
Ng et al. Light field photography with a hand-held plenoptic camera
JP4679662B2 (ja) シーンの画像におけるぶれを低減する方法及びシーンの画像のぶれを除去する装置
US8228418B2 (en) Anti-aliasing spatial filter system
US8345144B1 (en) Methods and apparatus for rich image capture with focused plenoptic cameras
JP6071374B2 (ja) 画像処理装置、画像処理方法およびプログラムならびに画像処理装置を備えた撮像装置
US10154216B2 (en) Image capturing apparatus, image capturing method, and storage medium using compressive sensing
JP6838994B2 (ja) 撮像装置、撮像装置の制御方法およびプログラム
JP5237978B2 (ja) 撮像装置および撮像方法、ならびに前記撮像装置のための画像処理方法
US9911183B2 (en) Image processing method, image processing apparatus, image pickup apparatus, and non-transitory computer-readable storage medium
US8908054B1 (en) Optics apparatus for hands-free focus
JP2010183316A (ja) 撮像装置
JPH01309478A (ja) 画像入出力装置
JP7422843B2 (ja) 画像処理装置およびその制御方法ならびにプログラム
Georgiev et al. Using focused plenoptic cameras for rich image capture
Georgiev et al. Rich image capture with plenoptic cameras
Oberdörster et al. Digital focusing and refocusing with thin multi-aperture cameras
JP6600217B2 (ja) 画像処理装置および画像処理方法、撮像装置およびその制御方法
CN114842046A (zh) 运动目标高动态场景图像的测量装置及方法
Raskar Less is more: coded computational photography

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130528

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130528

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20130528

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20130619

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130709

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130806

R150 Certificate of patent or registration of utility model

Ref document number: 5340233

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees