JP6023087B2 - 画像を記録する方法、画像から3d情報を得る方法、カメラシステム - Google Patents

画像を記録する方法、画像から3d情報を得る方法、カメラシステム Download PDF

Info

Publication number
JP6023087B2
JP6023087B2 JP2013552294A JP2013552294A JP6023087B2 JP 6023087 B2 JP6023087 B2 JP 6023087B2 JP 2013552294 A JP2013552294 A JP 2013552294A JP 2013552294 A JP2013552294 A JP 2013552294A JP 6023087 B2 JP6023087 B2 JP 6023087B2
Authority
JP
Japan
Prior art keywords
image
focus
sweep
camera system
focus sweep
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013552294A
Other languages
English (en)
Other versions
JP2014511590A (ja
JP2014511590A5 (ja
Inventor
ドミトリー ニコライヴィッチ ズナメンスキー
ドミトリー ニコライヴィッチ ズナメンスキー
ハロルド アグネス ウィルヘルムス シュメイツ
ハロルド アグネス ウィルヘルムス シュメイツ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2014511590A publication Critical patent/JP2014511590A/ja
Publication of JP2014511590A5 publication Critical patent/JP2014511590A5/ja
Application granted granted Critical
Publication of JP6023087B2 publication Critical patent/JP6023087B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/06Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness for measuring thickness ; e.g. of sheet material
    • G01B11/0608Height gauges
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/236Image signal generators using stereoscopic image cameras using a single 2D image sensor using varifocal lenses or mirrors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Automatic Focus Adjustment (AREA)
  • Measurement Of Optical Distance (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Input (AREA)

Description

本発明は、画像を記録する方法、及びその画像から3D情報を得る方法に関する。本発明は、カメラシステムにも関する。
現代の撮像技法における注目の話題の1つは3D撮像である。
3D画像を得る最も簡単な方法は、異なる視点(view points)から2つ以上の画像を撮り、その2つ以上の画像から3D画像を構築することによるものである。かかる技法は、基本的に人間の視覚系を模倣する。
この技法の不都合な点は、3D情報を作成するためにカメラが2台必要であり、2台のカメラ間の距離、それらのカメラの焦点距離、及びレンズ収差を知り、撮った画像を組み合わせる必要があることである。
単一のカメラ又は少なくとも単一のレンズを用いて、3D情報が取得されることを可能にする撮像技法が求められている。
単一のカメラ、又は静的パターンプロジェクタによって支援されるカメラしか用いないいくつかの方法が知られている。それらの方法は、三角測量ベース、焦点ぼけ(de-focus)ベース、及び飛行時間(time-of-flight)の3つのグループに分けることができる。
三角測量ベースの方法では、投影パターンと取得パターン、すなわち画像内の物体について投影パターンが与える画像との間の局所的相違から奥行きが推定される。そのようなパターンの歪みは、距離の推定を可能にする。不都合な点は、パターンが投影されなければならず、最善でも確率的推定を与え、又は実際の推定を与えない、何らかの間接的推定を可能にする推定がなされることである。
焦点深度の方法では、一定の距離にカメラの焦点が合わせられ、物体までの実際の距離の完璧な焦点距離からのずれによって引き起こされる焦点ぼけの量を局所的に計算することにより、奥行きマップが推定され得る。この場合も確率的推定が与えられ、奥行きの狂いが、物体が焦点面の前にあることに起因するのか、焦点面のさらに遠くにあることに起因するのかを区別する方法がいかなる確実性をもってもないので、原則として結果に二重性が生じる。
これとは対照的に、飛行時間方法は、カメラまでの現実的な距離の推定を与える。「飛行時間」方法では、物体が5〜50nsの光パルスで照らされる。次いで、放出パルスと反射パルスとの間の遅延を専用のカメラセンサが測定し、この遅延は物体までの距離とともに長くなる。そのようなカメラシステムの一例が、Ringbeckらによる「A 3-D time of flight camera for object detection」、Optical 3D measurement techniques 09-12.07.2007 ETH, plenary session 1: Range Imaging 1の中に記載されている。しかし、この方法は高度なテクニックを必要とし、全ての距離に適しているわけではなく、距離は典型的には数メートルから60メートルであり、短い距離を測定するのは困難である。
したがって、画像を記録し、3D情報を得るための代替的方法が求められている。
このために、本発明の方法は、第1の画像データ及び第2の画像データが撮られ、撮像中、集束範囲にわたってフォーカススイープが行われ、フォーカススイープ中に第1の画像及び第2の画像について露光強度が異なるように変調されることを特徴とする。
露光とは1回の撮影(shot)ごとに捕捉される光の量である。最良焦点の位置は空間的高周波の最大密度に対応するので、フォーカススイープ中に露光強度を変調すること(modulating)により、実際の物体−カメラ間距離で空間的高周波が変調されることになる。それゆえ、取得画像の高周波内に奥行き(depth)情報が透かしとして入れられる。異なるように変調することにより、奥行き情報が両方の画像内で異なるように透かしとして入れられる。高周波情報を比較することによって奥行き情報を得ることができ、3D奥行きマップが計算され得る。
画像の一方について、露光は変調されていなくてもよい。その場合の変調の違いは、画像の一方が変調された露光を有するのに対し、他方が変調された露光を有さないことである。
しかしながら、好ましくは、一方の画像の変調が他方の画像の変調に対して逆にされるような方法で、両方の画像の露光が変調される。例えば、一方の画像では変調が短焦点から遠焦点に進む高露光から低露光であるのに対し、他方の画像では変調が逆である。
これにより、正確な3D情報が得られるようになる。
実施形態では、両方の画像の露光の和が一定である。
露光強度の変調は、以下のように様々な方法で行われてもよい。
シーンから捕捉される光は、光源の強度を変調することによって変調されてもよい。
捕捉される光は、カメラのレンズの前の又はセンサの前の時間変調された調光器(time modulated dimmer)によって変調されてもよい。
第1の画像及び第2の画像は、同時に並びに連続して撮られてもよい。
3つ以上の画像が撮られてもよい。これは、割と少ない光しかなく、雑音低減が重要な状況において興味深い場合がある。
画像を提供するこの方法は、生データ、すなわち、そこから3D情報が計算され得る2つの画像を提供した。
本発明は、第1の画像及び第2の画像内の高周波情報を比較し、その比較から奥行き情報を計算することによる、画像を記録する上述の方法のいずれかによって撮られる画像から3D情報を得る方法にも具体化される。
画像を提供する方法及び3D画像情報を得る方法の2つの方法は、単一の方法に統合されてもよいが、画像情報を得る方法自体が本発明の一態様の実施形態も提供する。
この方法は、そこから3D画像情報が得られるデータを提供する。この方法は、従来技術では知られていない方法で得られる1組の画像を提供する。
準備段階、すなわち第1の画像及び第2の画像の撮像は、例えばカメラによって1つの位置において撮られ、カメラ内の記憶媒体上に記憶されてもよい。画像データは後で中央処理装置に転送され、中央処理装置はデータを解析して3D情報を得る。画像データは、サイトに関連し得る中央処理装置に例えばインターネットにより無線で直接転送されてもよく、別の国に位置する中央処理装置において3D情報が取得される。そのため、画像を提供する方法及び撮られた画像から3D情報を得る方法のどちらの方法も本発明の態様である。
本発明はカメラシステムによっても具体化され、カメラシステムはレンズ、センサ、及びフォーカススイープを行うための手段を含み、カメラシステムはフォーカススイープ中に露光強度を変調するための手段を含む。
本発明のこれら及び他の態様が、例示により添付図面を参照してより詳細に説明される。
センサとレンズとの間の距離を変えることによりスイープする焦点を示す。 レンズLの焦点距離を変えることによりスイープする焦点を示す。 センサ平面が画像平面をスイープスルー(sweep through)するときのブラーカーネルを示し、画像平面はスイープ範囲の中心に位置する。 図3に関する実際のシステムのブラーカーネルを示す。 センサ平面が画像平面をスイープスルーするときのブラーカーネルを示し、画像平面はスイープ範囲の一端の近くに位置する。 図5に関する実際のシステムのブラーカーネルを示す。 異なるように変調された露光強度により2つの画像を取得することを示す。 本発明によるカメラシステムを示す。 異なるように変調された露光強度により2つの画像を取得することを示す。 本発明によるカメラシステムの他の例を示す。 本発明によるカメラシステムの他の例を示す。 本発明によるカメラシステムの他の例を示す。 フォーカススイープ中に増加する露光強度に関する、空間周波数に対する振幅の周波数分布を示す。 フォーカススイープ中に減少する露光強度に関する、空間周波数に対する振幅の周波数分布を示す。 空間周波数に応じた振幅比を示す。 フォーカススイープにおける位置に応じた振幅比を示す。 フォーカススイープ中に異なるように変調された露光強度により、2つの画像に関して取られた画像データから距離を計算することを概略的に示す。
本発明を特定の実施形態に関して、及び一定の図面を参照して説明するが、本発明はこれに限定されず特許請求の範囲によってのみ限定される。記載する図面は概略的に過ぎず非限定的である。図面では、説明目的で一部の要素の大きさが誇張され、縮尺通り描かれていないことがある。本明細書及び特許請求の範囲で「含む」という用語が使われる場合、その用語が他の要素又はステップを除外することはない。単数名詞に言及するときに不定冠詞又は定冠詞、例えば「a」、「an」、「the」が使われる場合、別段の定めがない限りその単数名詞はその名詞の複数形を含む。
特許請求の範囲の中で使われる「含む」という用語は、その後に記載される手段に限定されるものとして解釈されるべきでなく、他の要素又はステップを除外することもない。したがって、「手段A及びBを含む装置」という表現の範囲は、コンポーネントA及びBだけからなる装置に限定されるべきではない。この表現は、本発明に関して、装置の単に関連があるに過ぎないコンポーネントがA及びBであることを意味する。
さらに、本明細書及び特許請求の範囲における第1の、第2の、第3の等の用語は、同様の要素を区別するために使われており、必ずしも順番又は時系列順を表すために使われるのではない。そのように使用される用語は適切な状況下で置き替え可能であり、本明細書に記載する本発明の実施形態は、本明細書で説明し又は図示する以外の順序で実施できることを理解されたい。
本発明は、スイーピングフォーカスカメラの2回の撮影による距離画像計算の新概念を提供する。スイーピングフォーカスカメラとは、画像を取得する間に集束距離を変えるカメラである。これは、センサの平行移動について図1に示すように、光軸に沿ってセンサ又はレンズを平行移動させることにより、又は図2に示すようにレンズのF値を変えることによって行われてもよい。
図1は、センサSとレンズLとの間の距離を変えることによりスイープする焦点を示す。センサが画像平面の前の位置から画像平面の後ろの位置に移動され、これにより画像平面IPをスイープスルーしている。当然ながら、図1に示すようにセンサを移動させる代わりにレンズLを移動させてもよい。
図2は、レンズLの焦点距離を変えることによりスイープする焦点を示し、センサ平面SPは1つの位置にとどまるが、レンズLの焦点距離を変えることにより、画像平面がセンサ平面の前の位置からセンサ平面の後ろの位置に移動される。IPは画像平面を表す。SPは物体位置を表す。フォーカススイープは、レンズの前の位置で焦点が合う物体位置におけるスイープにも対応し、2つの間には1対1の関係があることに留意されたい。
従来の撮像ではセンサの位置が固定されており、そのため一定の公称距離にある物体だけがセンサ上に鮮明に現れる。他の距離にある物体はセンサ上で焦点がぼけて現れ、焦点ぼけの量はセンサと公称画像平面との間の距離に比例する。
「スイーピングフォーカス」カメラでは、センサ平面が様々な範囲の画像平面を露光中にスイープスルーし(図1)、あるいは、画像平面がセンサ平面の周りの様々な範囲の位置をスイープスルーする(図2)。
従来のカメラとは対照的に、物体がセンサ上にはっきりと焦点が合って現れる、カメラまでの単一の距離はない。代わりに、捕捉される画像は常にぼやける。
どちらの実装形態でも、物体の焦点が完璧に合う画像平面をセンサがスイープスルーする。したがって、ある時点においてのみ物体の焦点が合ったままとなり、残りの取得時間については多かれ少なかれ物体の焦点がぼける。焦点ぼけの量は、センサと画像平面との間の距離に直接比例する。瞬時のブラーリング(ぼやけ)(instant blurring)は、ディスク形状に近い形状をほとんどの場合に有する、レンズ口径の形を有する均一のカーネルに対する鮮明な画像の畳み込みとして表され得る。センサが画像平面をスイープスルーするとき、ブラーカーネルが空間的にスケール変更される。カーネルの半径は、センサ平面と画像平面とが一致する位置においてまず(ほぼ)ゼロまで低下し、その後再び増加する。以下、線形のフォーカススイープが検討され、ブラーカーネルKの半径Rは時間tとともに線形に変化し、開始時と終了時のブラー半径は等しい。これは図3に示されている。図3を見ることにより、このブラー図は2つの円錐が画像平面の方を向いている形を有することが分かる。先に述べたように、時間についてのスイープは、レンズの前の位置を通る、すなわちフォーカススイープ範囲を通るスイープに対応し、したがって垂直軸はt(時間)及びd(フォーカススイープ範囲内の位置)として与えられる。システムがセンサ上にもたらす総ブラーリングは、線形に増加する半径を有するディスクカーネルについての時間的積分である。図4に、実際のシステムのブラーカーネルを示す、このシステムカーネルの図が与えられる。このシステムカーネルの形は、はっきりと焦点が合った画像に対応するディラックのデルタ(Dirac delta)と、従来のカメラのフラットディスク焦点ぼけカーネルとの中間にあることが見て取れる。垂直軸はブラーカーネルの強度であり、x軸及びy軸は、x方向及びy方向のブラーカーネルの程度を任意の単位で示す。
一例として、以下の設定が説明され得る。
移動センサを有するシステムであって、レンズがf=12mmの焦点距離及びF=1.4のF値を有し、これらの値はa=f/(2F)=12/(1.42)、約4.3mmの開口半径を与える、システムを検討されたい。スイーピングフォーカス範囲は、レンズから250〜750mmであると仮定する。
レンズから距離xにある物体は、レンズの後ろのy=fx/(x−f)の距離においてはっきりと焦点が合うので、スイーピングフォーカス範囲は、センサ−レンズ間の距離の12.6〜12.2mmの範囲に対応すると計算する。10msの露光時間では、スイープ速度は(12.6−12.2)/0.01=40mm/sになるはずである。スイープ距離の中心(すなわちレンズの12.4mm後ろ)にある物体の画像では、(スイープ間隔の開始時の集束での)最大ブラー半径は、(12.4−12.2)a/12.2=0.0705mm、又は6μmピクセルを有するセンサ上では11.7ピクセルであり、半分の大きさのピクセルでは2倍となる。当然ながら、より大きいスイープ範囲ではカーネルの大きさも変わる。
従来のカメラでは、焦点ぼけの量は、画像平面までの距離とともに線形に増加する。カメラまでのある特定の距離にある物体は鮮明に撮像されるが、物体がカメラから離れ又は近づくにつれ、ブラーリングが増加する。以下、スイーピングフォーカスカメラ設計におけるブラーの量が、物体−カメラ間の距離の変化の影響をはるかに受けにくいこと、又は換言すれば、レンズからの距離がどのようなものであれ、どんな物体でもブラーが多かれ少なかれ同じであることを示す。
物体までの距離が公称とは異なるが、依然としてスイープ範囲内にある(すなわち正確に中間ではないとはいえ画像平面がフォーカススイープの一端に近くにあるが、カメラがスイープ中に物体の画像平面を横切る)事例を検討されたい。この事例は、センサが実際の画像平面を横切る瞬間のテンポラルオフセットをもたらす。したがって、実際の画像平面の近くにある2つの部分からなる円錐のブラー図の形は同じままだが、開始時及び終了時のブラー半径は異なる(図5参照)。図6は、システムカーネルを示す上記の図4と似ている。
図4及び図6に示すシステムカーネルは点光源によって与えられるブラー画像であり、したがって関数は点広がり関数(すなわち点が複合画像にわたってどのように散らばるか)とも呼ばれる。
カメラまでの距離に関係なく、物体位置がフォーカススイープに対応する範囲内にある限り、各物体は、ある瞬間においてはっきりと焦点が合って現れ、さらに、この時間の前後で、物体が同じブラー効果を受けると考える。各瞬間のブラーカーネルのエネルギーは一定であることに留意されたい。物体がその画像平面に近いとき、はっきり合う焦点の瞬間がディラックのデルタカーネルに対応するように、フィルタエネルギーが高度に集中される。時空間積分領域のこの部分は、時間積分の結果を支配する。したがって、カメラまでの距離にほぼ関係なく、物体がセンサ上で同様にぼやける。
スイーピングフォーカスカーネルの最も優れた利点の1つは、その応答が周波数応答において「ゼロ」を有さないことであり、そのため、あらゆる空間周波数についてその逆演算が存在し、よってスイーピングカーネルは、明確に定義されコンパクトな逆フィルタを可能にする。標準のカーネルではこれは不可能である。これにより、スイープ範囲の全体にわたって焦点が合った画像が作成できるようになる。
しかしながら、単一のスイープに由来するほとんど奥行きが不変のブラーカーネルからは、いかなる精度でも奥行きを推定することができない。実際にスイーピングフォーカス手法は、何よりもまずあらゆる奥行きにおいて焦点が合った画像を画像から抽出する可能性を与えるために開発されている。したがって、奥行き情報を与えることは、スイーピングフォーカス手法を用いる非常に基本的な理由とは実際には逆の目標なので、スイーピングフォーカスカメラを使用することは、信頼できる奥行き情報を得る希望をそれほど与えないように思われる。
しかしながら、本発明者らは、フォーカススイープ中に露光を変調することにより、フォーカススイープ手法を用いて取得画像内に高周波の透かしを入れることが可能だと気付いた。スイーピングフォーカスカメラで撮られる2つの画像において露光強度を異なるように変調することにより、奥行き情報を抽出することが可能である。さらに、全焦点画像を依然として再構成することも可能である。そのため、最も満足のいく2つの世界を達成することができ、あらゆる距離において焦点が合った画像を作成することができ、加えて、フォーカススイープ距離内のあらゆる距離における奥行き情報を得ることができる。
変調される露光はいくつかの異なる方法で実施されてもよく、そのうち以下のものを例として与えることができる。
1)一定速度のフォーカススイープの代わりに、指数関数的加速又は一定の加速を用いる(集束距離が時間の指数関数として変化する)ことであり、指数関数的加速では、フォーカススイープ速度が時間の関数として指数関数的に増減し、一定の加速では、フォーカススイープが時間とともに線形に増減する。
2)一定のスイープ速度のフォーカススイープとともに口径を変調すること。
3)一定のスイープ速度のフォーカススイープとともに周囲照明を変調すること。
4)一定のスイープ速度のフォーカススイープとともに光の透過を変調すること。
5)上記のものの任意の組合せ。
カメラシステムに関するいくつかの実施形態、及び奥行きマップを抽出するための実施形態を以下で説明する。
全ての実施形態において、画像輝度、すなわち、焦点位置当たりの露光が、光源又はシャッタを制御することによって直接修正され、又はシステムがある位置に焦点を合わせる時間を変えることによって修正される。輝度は、1組の限られた波長によって変調されてもよい(色を使った透かし入れ)。
図7は、2つの画像を撮ることを示す。ステップ71、72で、第1の画像の取得が開始される。図1では、これはシャッターボタンを押すことによって行われる。当然ながら、この取得プロセスを開始するためにボタンを押す以外の手段が用いられてもよい。例えば野生の動物の画像を撮るための動き検出、又は交通違反の画像を撮るための車のスピード違反検出がこの取得を開始し得る。ステップ73で、指数関数的加速とともにスイープの初めから終りまで、画像1を取得するためにフォーカススイープされる。指数関数的加速は、スイープにわたりある値から終了値まで指数関数的に増加するスイープ速度をもたらす。露光中、システムはスイープ速度が遅いフォーカススイープの開始近くでその時間のほとんどを消費する。しかしながら、実際には時間尺度t、dが変えられているので、これは単に図5の再現ではない。画像の取得が終了し(ステップ74)、画像が保存される(ステップ75)。ステップ76から80で、同じ手順が真逆に(すなわち指数関数的加速とともに終了位置から開始位置にフォーカススイープすることにより)繰り返される。このプロセスの第2の部分の間、システムは、画像2を取得する際にスイープ速度が遅いフォーカススイープの終了近くでその時間のほとんどを消費する。このようにして2つの画像が取得される。この例では指数関数的加速が使用されるが、他の例では一定の加速が用いられてもよい。
したがって、画像1及び画像2を取得する間、露光が変調され、一方の画像では露光のほとんどが画像平面を横切る前に行われ、他方の画像では逆に行われる。この例では、フォーカススイープが指数関数的加速によって行われる。指数関数的加速は、一定ではないが、時間とともに指数関数的方法で変化するスイープ速度をもたらす。当然ながら、スイープ速度は別の時間関数でもよい。そのような1つの改変形態は、スイープ速度の一定の加速を用いることであり、その場合、スイープ速度は時間とともに線形に増減する。好ましくは、いかなる改変形態であれ、一方の画像ではスイープの一端から反対側にスイープ速度が増加し、もう一方の画像ではその逆である。
スイープ速度を制御するための代替形態は、両方の画像を撮るために一定のスイープ速度が用いられるが照明が異なる設定を使用することである。
図8及び図9にそのような実施形態を示す。図9では、画像1及び画像2を取得するためのスイープ速度が同じかつ一定である。ステップの番号を付け直したことは別にして、図7の方式との唯一の違いは一定の速度でフォーカススイープされることである。一定のスイープ速度で2つの画像を撮ることは、何か特別なことがなされない限り、奥行き情報を抽出する可能性を与えない。
しかしながら、図8が示すように、本システムは、カメラC、フォーカススイープのためにその焦点距離が調整され得るレンズLを有する。本システムは、レンズの焦点距離を調整するための手段81を有する。実際に、自動/フォーカスを有するカメラは、フォーカススイープして正しい焦点距離を見つけるための手段を既に有する。本システムはさらに、ランプ83による画像の照明を手段82によって調整する。照明の強度が調整され、その結果、照明の強度はステップ98中とステップ93中とで異なるように変調される。例えば、照明は、例えば指数関数的に増加するように調整されるが、スイープの初めから終りまで別の時間の関数でもよい。その結果、ステップ93、したがって、画像1ではスイープの終了位置の近くで照明が最も顕著となるのに対し、ステップ98、したがって、画像2では開始位置の近くで照明が最も顕著となる。
別の言い方をすれば、焦点が合っている近くの物体に開始位置が対応し、焦点が合っている遠く離れた物体に終了位置が対応する場合、画像1では遠く離れた物体がよりハイライトされるのに対し、画像2では近くの物体がよりハイライトされる。
図10は、図8の方式に対する改変形態を示す。照明にパターンを伝えるための手段104がランプ103の前に設けられる。
図11は、図8の方式に対する改変形態を示す。照明を調整する代わりに、変更され得る透明度を有するプレート113により、レンズLに入る光が調整される。そのような設定は、例えば、照明が太陽のように制御不能な光源によるものである屋外のシーンで使用され得る。
制御可能な透明度を有するかかる手段は、レンズとセンサとの間で使用されてもよく、図12では、センサSの前にある手段123によって概略的に図示されている。
先の例は、2つの画像が連続して撮られる例を全て示している。多くの好ましい実施形態がそのような方法で機能するが、これは本発明を実行する唯一の方法ではない。
図12のシステムは、制御可能な透明度を有する手段を使うことにより、2つの画像が同時に撮られることを可能にするように構成されてもよく、各ピクセル、ライン、又は画像の一部の透明度が制御されてもよく、例えば奇数及び偶数のラインでは、ラインの組の1つに対するフォーカススイープ中は透明度が低から高に移り、残りの組のラインに対するフォーカススイープ中は高から低に移るように透明度が制御される。当然ながらこの方式は、例えばピクセルが2つのグループに分けられ、その2つのグループがセンサ上でチェッカーボードを形成するチェッカーボード手法によってさらに洗練され得る。
その結果、2つの画像が同時に撮られる。
この方式に対する改変形態は、単一のレンズと、1つの画像を2つの画像に分割する分割ミラーとを使用することであり、それらの画像は別々のセンサに送られ、センサのそれぞれについて制御された透明度を有する手段が設けられ、フォーカススイープ中にプレートの透明度が変調され、センサの一方ではフォーカススイープ中に低下し、他方ではフォーカススイープ中に増加する。
2つの画像を相次いで撮ることは、画像間の画像の変化が小さい場合に有利である。利点は、2つの画像が非常に正確に相関され得ることである。2つの画像を同時に撮ることは、センサ上の位置が一致することを確実にする追加のステップを提供する。ただしこのような設定は、比較的速く移動する物体の画像が撮られる場合に有利である。
フォーカススイープ中に異なるように変調された露光で2つの画像を撮ったら、次にとるべきステップは、2つの画像から奥行き情報を抽出することである。
シーンの奥行きマップは、1対の異なるように変調されたフォーカススイープ画像から計算され得る。さらに、奥行きマップ(及びその誤り限界)は1対の画像から較正によって直接計算されてもよく、これは、完全に間違った奥行きマップを与える可能性があり、又は2つの異なる奥行きを区別することさえできない可能性がある、焦点深度による奥行きの推定など、一般に使用される「確率論」的方法に優る利点である。
これを示すために、図13A及び図13Bは、空間周波数成分の測定値、すなわち、いくつかの状況についてのスペクトルプロットを示し、図13Aでは増加する露光が使用され、図13Bでは減少する露光が使用される。増加する露光は、スイープ終了時に露光が最も高いのに対し、スイープ開始時には露光が最も低いことを意味し、減少する露光はその逆を意味する。
これらの線は、撮られた物体の画像に関する分布を示す。凡例は物体位置を示す。「中心」という表示は、物体がスイープ中にスイープ範囲の中心に位置していたことを意味する。物体が中心位置にあり、焦点が合っている場合、フォーカススイープ範囲のいずれかの端にある物体は、最大ブラー効果の約100%を受ける。0.8という数は、フォーカススイープの終り近くの位置に物体があったことを意味し、前述の物体の焦点が合っている場合、「中心」位置にある物体は最大ブラー効果の80%を受け、−0.8という数は、フォーカススイープの始まり近くに対称的に位置する物体に対応する。
図13Aは、フォーカススイープ中に増加する露光強度について、高空間周波数成分がスイープ範囲の終り近くに位置する物体について最大であり、フォーカススイープの反対側に位置する物体については最低であることを示す。フォーカススイープの始めは強度が低く、そのためフォーカススイープの始まり近くに位置する物体は限られた高周波成分しか有さず(それらの物体は限られた光量しか受け取らず)、フォーカススイープの終り近くでは露光強度が高く、物体は大量の高周波成分を有する。
図13Bは、フォーカススイープ中に減少する露光について、逆のことが言えることを示す。
グラフ13Aの結果をグラフ13Bの結果で除算することは、図14Aに示すグラフをもたらす。(水平軸上に与えられる)空間周波数の関数として、絶対振幅比の対数は小さい空間周波数では著しく変化するが、垂直の点線によって概略的に示される空間周波数よりも高い空間周波数では、多かれ少なかれ比較的小幅のうちにあり、一定である。高周波部分ではこの比率がほとんど周波数に関係なく、すなわち、フォーカススイープ範囲内の位置、したがってレンズの物体までの距離だけに依存することが見て取れる。スイーピングフォーカスカーネルの形はスケールの影響を受けない。
図14Aは、比率が平らになる周波数パーセンテージの兆候(indication)を大まかに示す。高空間周波数は、空間波長がブラーカーネルサイズの約10%より小さい空間周波数に対応する。したがって、ブラーカーネルが60ピクセルのサイズをセンサ上で有する場合、最も高い空間周波数は60サイクル/カーネル、すなわち1ピクセルの空間波長を有するディテール(detail)であり、最低は全体的なディテール、すなわち1サイクル/カーネルである。高空間周波数と低空間周波数との間のカットオフ(cut-off)は、この例ではブラーカーネルサイズの約10%、すなわち約6サイクル/カーネル、約6から10ピクセル以下のディテールにある。上記で述べたように、ブラーカーネル自体はスケールの影響を受けず、そのためあらゆる測度が有効ブラーカーネルサイズに対応する。区切りは、使用される変調、ブラーカーネルサイズの約6%から10%前後にある程度依存して存在する。特定のカメラシステムでは、図14Aのグラフは、高空間周波数と低空間周波数との間の変わり目、すなわち周波数範囲であって、それより上で比率が奥行きに関する優れた測度である、周波数範囲を見つけるために計算され得ることを述べておく。
図14Bは、水平軸上のフォーカススイープにおける物体位置Pの関数として、この空間周波数不変比率Rの対数を垂直軸上にプロットする。
この比率は、フォーカススイープ範囲内の物体位置、すなわち、レンズまでの距離dの関数であることが見て取れる。
この例では指数関数的に増加する露光により、スイーピングフォーカスカメラで取得される画像の高周波エネルギーが、

としてパーセバルの等式に従って概算されてもよく、ただし、F(ω)は高域フィルタのフーリエ変換であり、FSF1(ω)は、増加する露光に対応するスイーピングフォーカスブラーカーネルのフーリエ変換であり、Fimage(ω)はテクスチャのフーリエ変換であり、FN1(ω)は画像1内の相加性雑音のフーリエ変換である。指数関数的に減少する露光により、スイーピングフォーカスカメラで取得される画像の高周波エネルギーは、

として同様に概算されてもよく、ただし、FSF2(ω)は、減少する露光に対応するスイーピングフォーカスブラーカーネルのフーリエ変換であり、FN2(ω)は画像2内の相加性雑音のフーリエ変換である。
図14Aに示すように、高周波について次式が成立し、

ただしF(d)は、距離dにおける瞬時の照度間の比率である。F(d)は、物体−カメラ間の距離に依存する関数であり、周波数ωには依存しないことに留意されたい。スイープが指数関数的である場合、F(d)も指数関数的であり、Log(F(d))は、図14Bに示すようにdの線形関数である。したがって、画像の高周波エネルギー間の比率について次式が成立し、


ただし、Sはテクスチャの高周波エネルギーであり、η、ηは第1の取得及び第2の取得における雑音エネルギーである。テクスチャからの信号が雑音レベルよりもはるかに高い、すなわちS>>η、ηが成立する場合、又は両方の画像内の雑音のエネルギーがほぼ等しい場合、次式が成立する。
したがって、高周波成分の比率をとることは、物体までの距離の信頼できる推定をもたらす。実験ID(Experiments ID)は、畳み込みが特定の画像座標の周りの小さいウィンドウに限定される場合、提案される方法がカメラまでの可変距離を有する物体にも機能することを示す。上記の例は、指数関数的に変化するスイープ速度について与えられた。しかし、線形に変化するスイープ速度でもほぼ同じ結果が得られる。
好ましくは、2つの露光の和が一定である。
この条件が保たれる場合、画像の全ての部分が鮮明な全焦点画像である画像を(逆の点広がり関数でフィルタすることにより)もたらすように、2つの画像を合計することができる。
そのため、スイープ範囲の中心をx=0としてとり、好ましくはf(x)+f(−x)=定数(一定)が成立し、ただしf(x)及び(f(−x))はスイープ範囲の中心の両側における露光強度である。
一定のスイープ速度を使用し、スイープ中に照明又は透明度を変える場合、この式は比較的容易に得ることができる。
指数関数的なスイープでは、以下の高周波の振幅が得られ、
exp(Ax)+exp(−Ax)、ただし、x=0はスイープ範囲の中心に対応する。
exp(Ax)+exp(−Ax)は、xの狭い範囲についてのみ一定に近く、xは同じく指数関数的挙動、すなわちAの値に依存する。
2つの指数関数的露光の、フィルタされ合計された画像では、スイープ範囲の境界において物体の僅かな過度の鮮明化があり、すなわちフォアグラウンド及びバックグラウンドにある物体は、スイープ範囲の中心にある物体よりもある程度鮮明になる。
指数関数的露光変調及び線形露光変調はどちらもx=0における等式に近いが、そのどちらも、線形変調が指数関数的露光変調よりも概して一定の鮮明化を実現するとはいえ、全範囲には最適でない。
露光はスイープ速度に反比例するので、線形の又は指数関数的な露光は、好ましくは可能な最大スイープ速度に対応する0を超える低値から始まる。他の実施形態(グローバルシャッターの変調された光源)では、露光が0から始まってもよい。
図15は、これを概略的に示す。ステップ151、152で、各画像、画像1及び画像2が空間的高域フィルタによって畳み込まれ、ステップ153及び154で、そのようにフィルタされた値が2乗され(又はその絶対値がとられ)、ステップ155及び156で、それらの値が低域フィルタされる。結果は、(画像1については)高周波エネルギーe1、及び(画像2については)e2である。ステップ159で奥行きマップDMを作成するためにこれらの結果が使用される。図14A、図14B、図15A、及び図15Bに対応する例では、比率e1/e2の対数がとられ、ステップ158においてルックアップテーブルLUT内で奥行き値を探索するためにこの対数が使われ、この対数はレンズまでの距離、したがって、奥行きマップを与える。指数関数的なスイープでは、比率e1/e2の対数は物体距離dの線形関数を与え、したがって、LUTは線形マッピングに単純化され得ることに注目されたい。奥行きマップが高周波エネルギーの比率の関数である場合、例えば、比率e1/e2から奥行きマップDMを直接探すためにLUTを使用することや、スイープが指数関数的とは異なり、e1/e2の関数として距離を表すことができる場合、比率e1/e2から奥行きマップを直接計算することなど、様々な方法が使用され得ることが明らかである。
本発明は、計算装置上で実行されるときに本発明による方法のいずれかの機能を提供するコンピュータプログラム製品も含む。
かかるコンピュータプログラム製品は、プログラム可能プロセッサによって実行されるための機械可読コードを運ぶ搬送媒体によって有形に具体化され得る。したがって本発明は、計算手段上で実行されるとき、上記の方法のいずれかを実行するための命令を提供するコンピュータプログラム製品を運ぶ搬送媒体に関する。「搬送媒体」という用語は、任意の機械可読信号記憶媒体など、実行用の命令をプロセッサに与えることに関与する任意の媒体を指す。そのような媒体は、これだけに限定されないが、不揮発性媒体や伝送媒体を含む多くの形をとることができる。不揮発性媒体は、例えば大容量記憶域の一部である記憶装置など、光ディスクや磁気ディスクを含む。コンピュータ可読媒体の一般的な形態は、CD−ROM、DVD、フレキシブルディスク、フロッピディスク、テープ、メモリチップ、カートリッジ、又はコンピュータが読取可能な他の任意の媒体を含む。実行用に1つ又は複数の命令の1つ又は複数のシーケンスをプロセッサに運ぶ際、様々な形態のコンピュータ可読媒体が関与してもよい。コンピュータプログラム製品は、LAN、WAN、インターネットなどのネットワーク内の搬送波を介して伝送されてもよい。伝送媒体は、電波データ通信や赤外線データ通信中に生成されるものなど、音波又は光波の形をとることができる。伝送媒体は、コンピュータ内のバスを構成する線を含む、同軸ケーブル、銅線、及び光ファイバを含む。コンピュータはカメラなどの撮像装置に組み込まれてもよく、又はカメラが撮像し、後で処理されるようにそれを記憶し、又は有線若しくは無線によって画像データをコンピュータに伝送してもよく、そのコンピュータ内では奥行きマップを抽出するために画像データが処理される。
特許請求の範囲内で他の改変形態が考えられる。
例えばこの例において、露光の変調の違いは、画像のうちの1つでは露光が増加する一方で、他の画像では露光が減少するものである。この実施形態は、高周波成分の比率をとることにより高精度を可能にするので、好ましい実施形態である。しかしながら、一方の画像を変調し、他方を変調しないことも可能である。そこで図14Bに概略的に示すのと同様の比率をとる場合、依然として同じ結果を得ることになるが(すなわち比率は距離だけに依存する)、値は半分しかなく、その結果精度が低下する。
実施形態では2つの画像しか撮られない。これは本発明の最も広い意味に対する制限ではなく、それぞれが異なる変調を伴う3つ以上の画像が撮られてもよい。例えば、露光が変調された2つの画像と一定の露光による1つの画像を使うことができる。又は低下する露光の2つの画像と増加する露光の2つの画像だが、異なる増加率を有する4つの画像を撮ることができる。こうすることはシステムに冗長性を加え、たとえデータ取得チャネルの1つが故障しても意味のある奥行きデータが得られることを可能にする。
要約すれば、本発明の様々な態様は以下のように説明され得る。
2つ以上の画像が撮られ、撮像中にフォーカススイープが行われる。露光強度がフォーカススイープ中に変調され、それらの画像に対して異なるように変調される。この変調は、画像内に奥行き情報の透かしを入れることを可能にする。スイープ中の露光の違いは、画像内に奥行き情報の透かしを異なるように入れる。これが本発明の一態様である。画像を比較することにより、画像の奥行きマップが計算され得る。これが本発明のもう1つの態様である。本発明のカメラシステムは、レンズ、センサ、フォーカススイープを行うための手段、及びフォーカススイープ中に露光強度を変調するための手段を有する。露光強度の変調は、光源若しくはフォーカススイープを変調することにより、又は光路内の透明体の透明度を変調することによって行われ得る。
本発明によるカメラシステムは、好ましい実施形態では、スイープ範囲の中心を設定し、スイープ範囲の程度を設定するための手段を備える。こうすることで、レンズからの特定の距離の周辺における、特定の奥行き範囲に関する3D情報をより効率的に集めることが可能になる。

Claims (17)

  1. 撮像中、フォーカススイープ範囲にわたってフォーカススイープが行われて、少なくとも第1の画像及び第2の画像が撮られ、前記フォーカススイープ中に時間に応じて前記第1の画像及び前記第2の画像について露光強度がそれぞれ異なるように変化することで変調される、3D情報を得るための画像を記録する方法。
  2. 前記フォーカススイープは、レンズと画像を記録するセンサとの間の距離を変化させることにより行われる、請求項1に記載の画像を記録する方法。
  3. 前記露光強度が、前記フォーカススイープ中に時間に応じて前記フォーカススイープの速度を変調することによって変調され、前記変調は前記第1の画像及び前記第2の画像で異なる、請求項1に記載の画像を記録する方法。
  4. 前記露光強度が、前記フォーカススイープ中に光源の時間変調によって変調され、前記時間変調は前記第1の画像及び前記第2の画像で異なる、請求項1に記載の画像を記録する方法。
  5. 前記露光強度が、前記フォーカススイープ中に光路内の透明手段の透明度の時間変調によって変調され、前記時間変調は前記第1の画像及び前記第2の画像で異なる、請求項1に記載の画像を記録する方法。
  6. 前記画像がレンズを介して撮られ、前記レンズの前に前記透明手段が設けられる、請求項に記載の画像を記録する方法。
  7. 前記画像がレンズを介して撮られ、センサによって記録され、前記透明手段が前記レンズと前記センサとの間の前記光路内に設けられる、請求項に記載の画像を記録する方法。
  8. 前記第1の画像及び前記第2の画像の一方の画像の前記変調が前記第1の画像及び前記第2の画像の他方の画像の前記変調に対して逆にされるような態様で、両方の画像の露光が前記フォーカススイープ中に時間に応じて変調され、前記第1の画像及び前記第2の画像の和に対する露光が前記フォーカススイープにわたってほぼ一定である、請求項1乃至の何れか一項に記載の画像を記録する方法。
  9. 第1の画像及び第2の画像内の高周波情報を比較することと、前記比較から奥行きマップを計算することとにより、請求項1乃至の何れか一項に記載の画像を記録する方法によって撮られる画像から3D情報を得る方法。
  10. コンピュータ上で実行されるときに請求項1乃至の何れか一項に記載の方法を実行するための、コンピュータ可読媒体上に記憶されるプログラムコード手段を含む、コンピュータプログラム。
  11. コンピュータ上で実行されるときに請求項1乃至の何れか一項に記載の方法を実行するための、処理手段を含むコンピュータ構成によってロードされる、コンピュータプログラム。
  12. レンズ、画像を記録するセンサ、及びフォーカススイープを行うための手段を含むカメラシステムであって、前記カメラシステムは、前記フォーカススイープ中に時間に応じて露光強度を変調するための手段を含
    前記変調するための手段が、前記フォーカススイープ中に取る第1の画像及び第2の画像について露光強度がそれぞれ異なるように変化させる、3D情報を得るための画像を記録するカメラシステム。
  13. 前記フォーカススイープを行うための手段が、前記レンズと前記センサとの間の距離を変化させることにより前記フォーカススイープを行う、請求項12に記載のカメラシステム。
  14. 前記カメラシステムが光源を含み、前記変調するための手段が、前記フォーカススイープ中に前記光源の前記強度を時間変調するための手段である、請求項1に記載のカメラシステム。
  15. 前記カメラシステムが、前記レンズの前に又は前記レンズと前記センサとの間に透明なプレートを含み、前記変調するための手段が、前記フォーカススイープ中に前記透明なプレートの透明度を時間変調するための手段である、請求項1に記載のカメラシステム。
  16. 前記カメラシステムが、単一のフォーカススイープ中に第1の画像及び第2の画像を同時に撮り、前記変調するための手段が、前記第1の画像及び前記第2の画像について前記露光強度を異なるように変調する、請求項1に記載のカメラシステム。
  17. 前記カメラシステムが、連続したフォーカススイープ中に第1の画像及び第2の画像を連続して撮り、前記変調するための手段が、前記第1の画像及び前記第2の画像について前記露光強度を異なるように変調する、請求項1に記載のカメラシステム。
JP2013552294A 2011-02-04 2012-01-27 画像を記録する方法、画像から3d情報を得る方法、カメラシステム Active JP6023087B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP11153377 2011-02-04
EP11153377.4 2011-02-04
PCT/IB2012/050384 WO2012104759A1 (en) 2011-02-04 2012-01-27 Method of recording an image and obtaining 3d information from the image, camera system

Publications (3)

Publication Number Publication Date
JP2014511590A JP2014511590A (ja) 2014-05-15
JP2014511590A5 JP2014511590A5 (ja) 2015-03-12
JP6023087B2 true JP6023087B2 (ja) 2016-11-09

Family

ID=45569714

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013552294A Active JP6023087B2 (ja) 2011-02-04 2012-01-27 画像を記録する方法、画像から3d情報を得る方法、カメラシステム

Country Status (5)

Country Link
US (2) US9888225B2 (ja)
EP (1) EP2671383B1 (ja)
JP (1) JP6023087B2 (ja)
CN (1) CN103477644B (ja)
WO (1) WO2012104759A1 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9191578B2 (en) * 2012-06-29 2015-11-17 Broadcom Corporation Enhanced image processing with lens motion
US10291329B2 (en) * 2013-12-20 2019-05-14 Infineon Technologies Ag Exchanging information between time-of-flight ranging devices
US9525814B2 (en) 2014-10-12 2016-12-20 Himax Imaging Limited Automatic focus searching using focal sweep technique
US20160255323A1 (en) 2015-02-26 2016-09-01 Dual Aperture International Co. Ltd. Multi-Aperture Depth Map Using Blur Kernels and Down-Sampling
US10488192B2 (en) 2015-05-10 2019-11-26 Magik Eye Inc. Distance sensor projecting parallel patterns
EP3551965A4 (en) 2016-12-07 2020-08-05 Magik Eye Inc. DISTANCE SENSOR PROJECTING PARALLEL PATTERNS
CN108616727A (zh) * 2016-12-23 2018-10-02 光宝电子(广州)有限公司 基于结构光的曝光控制方法及曝光控制装置
WO2019060023A1 (en) * 2017-09-22 2019-03-28 Visa International Service Association METHOD FOR FACIAL ANTI-USURPATION USING DIFFERENCES IN IMAGE PROPERTIES
US10885761B2 (en) * 2017-10-08 2021-01-05 Magik Eye Inc. Calibrating a sensor system including multiple movable sensors
EP3692396A4 (en) 2017-10-08 2021-07-21 Magik Eye Inc. DISTANCE MEASUREMENT USING A LONGITUDINAL GRID PATTERN
US10679076B2 (en) 2017-10-22 2020-06-09 Magik Eye Inc. Adjusting the projection system of a distance sensor to optimize a beam layout
US11062468B2 (en) 2018-03-20 2021-07-13 Magik Eye Inc. Distance measurement using projection patterns of varying densities
US10931883B2 (en) 2018-03-20 2021-02-23 Magik Eye Inc. Adjusting camera exposure for three-dimensional depth sensing and two-dimensional imaging
WO2019236563A1 (en) 2018-06-06 2019-12-12 Magik Eye Inc. Distance measurement using high density projection patterns
WO2020016922A1 (ja) * 2018-07-17 2020-01-23 オリンパス株式会社 撮像システム、処理装置および内視鏡
WO2020033169A1 (en) 2018-08-07 2020-02-13 Magik Eye Inc. Baffles for three-dimensional sensors having spherical fields of view
EP3911920B1 (en) 2019-01-20 2024-05-29 Magik Eye Inc. Three-dimensional sensor including bandpass filter having multiple passbands
US11474209B2 (en) 2019-03-25 2022-10-18 Magik Eye Inc. Distance measurement using high density projection patterns
CN114073075A (zh) 2019-05-12 2022-02-18 魔眼公司 将三维深度图数据映射到二维图像上
US11320537B2 (en) 2019-12-01 2022-05-03 Magik Eye Inc. Enhancing triangulation-based three-dimensional distance measurements with time of flight information
JP2023508501A (ja) 2019-12-29 2023-03-02 マジック アイ インコーポレイテッド 3次元座標と2次元特徴点との関連付け
US11688088B2 (en) 2020-01-05 2023-06-27 Magik Eye Inc. Transferring the coordinate system of a three-dimensional camera to the incident point of a two-dimensional camera
EP3941030B1 (en) * 2020-07-16 2023-05-24 Nokia Technologies Oy Apparatus, method and computer program for image capturing

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4126781A (en) * 1977-05-10 1978-11-21 Extranuclear Laboratories, Inc. Method and apparatus for producing electrostatic fields by surface currents on resistive materials with applications to charged particle optics and energy analysis
US4591253A (en) * 1983-10-06 1986-05-27 Robotic Vision Systems, Inc. Adaptive vision system
EP1235438B1 (en) * 1999-11-26 2004-09-29 Sanyo Electric Co., Ltd. Method for converting two-dimensional video to three-dimensional video
US20080273027A1 (en) * 2004-05-12 2008-11-06 Eric Feremans Methods and Devices for Generating and Viewing a Planar Image Which Is Perceived as Three Dimensional
DE102004059526B4 (de) 2004-12-09 2012-03-08 Sirona Dental Systems Gmbh Vermessungseinrichtung und Verfahren nach dem Grundprinzip der konfokalen Mikroskopie
US8164622B2 (en) * 2005-07-01 2012-04-24 Aperio Technologies, Inc. System and method for single optical axis multi-detector microscope slide scanner
CN1971340A (zh) * 2005-11-21 2007-05-30 耿征 真三维高清晰度显示方法和装置
US8668334B2 (en) 2006-02-27 2014-03-11 Vital Art And Science Incorporated Vision measurement and training system and method of operation thereof
US7711259B2 (en) * 2006-07-14 2010-05-04 Aptina Imaging Corporation Method and apparatus for increasing depth of field for an imager
WO2008120217A2 (en) 2007-04-02 2008-10-09 Prime Sense Ltd. Depth mapping using projected patterns
GB2452944B8 (en) * 2007-09-19 2016-09-14 Toshiba Res Europ Ltd An imaging system and method
US8090246B2 (en) 2008-08-08 2012-01-03 Honeywell International Inc. Image acquisition system
JP5290691B2 (ja) * 2008-10-07 2013-09-18 キヤノン株式会社 オートフォーカス装置
US8471895B2 (en) * 2008-11-25 2013-06-25 Paul S. Banks Systems and methods of high resolution three-dimensional imaging
WO2010131142A1 (en) * 2009-05-12 2010-11-18 Koninklijke Philips Electronics N.V. Camera, system comprising a camera, method of operating a camera and method for deconvoluting a recorded image
US20110085024A1 (en) * 2009-10-13 2011-04-14 Sony Corporation, A Japanese Corporation 3d multiview display
EP2522129B1 (en) 2010-01-05 2014-07-09 Koninklijke Philips N.V. Image projection apparatus and method
CN201707438U (zh) * 2010-05-28 2011-01-12 中国科学院合肥物质科学研究院 基于led阵列共透镜tof深度测量的三维成像系统
EP2503364A1 (en) 2011-03-22 2012-09-26 Koninklijke Philips Electronics N.V. Camera system comprising a camera, camera, method of operating a camera and method for deconvoluting a recorded image

Also Published As

Publication number Publication date
US9888225B2 (en) 2018-02-06
EP2671383B1 (en) 2017-03-15
JP2014511590A (ja) 2014-05-15
US20170257616A1 (en) 2017-09-07
US20130307933A1 (en) 2013-11-21
CN103477644B (zh) 2017-04-12
US10469825B2 (en) 2019-11-05
CN103477644A (zh) 2013-12-25
EP2671383A1 (en) 2013-12-11
WO2012104759A1 (en) 2012-08-09

Similar Documents

Publication Publication Date Title
JP6023087B2 (ja) 画像を記録する方法、画像から3d情報を得る方法、カメラシステム
JP5868183B2 (ja) 撮像装置及び撮像方法
US8334893B2 (en) Method and apparatus for combining range information with an optical image
JP5134694B2 (ja) 画像処理装置及び画像処理方法
WO2015098288A1 (ja) 画像処理装置、および画像処理方法
JP7244013B2 (ja) エピポーラ飛行時間撮像のための方法
KR20100017236A (ko) 카메라 위치를 얻기 위한 중앙 개구를 가진, 단일 렌즈, 단일 센서 3-d 영상화 장치
CN108833795B (zh) 一种图像获取设备的对焦方法及装置
JP2017055310A5 (ja)
TW201541141A (zh) 使用多鏡頭的自動對焦系統及其方法
CN104092955A (zh) 闪光控制方法及控制装置、图像采集方法及采集设备
JP2012514886A (ja) 映像データ獲得方法及び装置
KR20190062794A (ko) 시점 변환을 이용하는 영상 결합 방법 및 시스템
JP6877936B2 (ja) 処理装置、処理システム、撮像装置、処理方法、プログラム、および記録媒体
KR20120064477A (ko) 영상의 깊이정보 추출이 가능한 3차원 카메라, 영상의 깊이정보 추출방법 및 그 추출방법의 기록매체
KR20110065399A (ko) 텍스쳐 영상과 깊이 영상을 추출하는 장치 및 방법
KR101465996B1 (ko) 선택적 큰 주기를 이용한 고속 3차원 형상 측정 방법
JP2012516606A (ja) 映像データ獲得方法及び装置
KR101737260B1 (ko) 영상간 피사계 심도 차이에서 깊이를 추출하는 카메라 시스템 및 그 동작 방법
US9232132B1 (en) Light field image processing
WO2020044809A1 (ja) 情報処理装置、情報処理方法及びプログラム
KR101702577B1 (ko) 저 시정 환경에서도 활용 가능한 공간 분할을 이용한 물체의 영상 획득 장치
WO2019066724A1 (en) LIGHT PROJECTION SYSTEMS
JP2004257934A (ja) 3次元形状計測方法及び3次元形状計測装置並びにその処理プログラムと記録媒体
WO2023047643A1 (ja) 情報処理装置、映像処理方法、プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150123

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150123

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160404

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160907

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161006

R150 Certificate of patent or registration of utility model

Ref document number: 6023087

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250