JP2017525206A - 完全に球形の画像を取り込むことができる視差を有しないマルチカメラシステム - Google Patents

完全に球形の画像を取り込むことができる視差を有しないマルチカメラシステム Download PDF

Info

Publication number
JP2017525206A
JP2017525206A JP2016573093A JP2016573093A JP2017525206A JP 2017525206 A JP2017525206 A JP 2017525206A JP 2016573093 A JP2016573093 A JP 2016573093A JP 2016573093 A JP2016573093 A JP 2016573093A JP 2017525206 A JP2017525206 A JP 2017525206A
Authority
JP
Japan
Prior art keywords
camera
image
fov
cameras
optical axis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2016573093A
Other languages
English (en)
Other versions
JP2017525206A5 (ja
Inventor
トーマス・ウェスリー・オズボーン
Original Assignee
クアルコム,インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by クアルコム,インコーポレイテッド filed Critical クアルコム,インコーポレイテッド
Publication of JP2017525206A publication Critical patent/JP2017525206A/ja
Publication of JP2017525206A5 publication Critical patent/JP2017525206A5/ja
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • G03B17/17Bodies with reflectors arranged in beam forming the photographic image, e.g. for reducing dimensions of camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/001Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras
    • G02B13/0055Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras employing a special optical element
    • G02B13/0075Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras employing a special optical element having an element with variable optical properties
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/06Panoramic objectives; So-called "sky lenses" including panoramic objectives having reflecting surfaces
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B37/00Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
    • G03B37/04Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe with cameras or projectors providing touching or overlapping fields of view
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/58Means for changing the camera field of view without moving the camera body, e.g. nutating or panning of optics or image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Cameras In General (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)

Abstract

球形視野画像を生成するための方法およびシステム。いくつかの実施形態では、撮像システムは、第1の方向における第1の視野(FOV)と第1のFOVを通って延びる光軸とを有する前方カメラと、第1のFOVを通って延びる光軸を有する後方カメラと、前方カメラと後方カメラとの間に配設された複数の側方カメラと、後方カメラと複数の側方カメラとの間に配設され、さらに後方カメラの光軸に垂直に配設された後方光方向転換反射鏡構成要素と、複数の側方カメラの各々が、複数の光方向転換反射鏡構成要素のうちの1つによって方向を変えられ反射された光を受け取るように位置付けられた、複数の側方光方向転換反射鏡構成要素とを含む。

Description

本開示は、マルチカメラシステムを含む撮像システムおよび方法に関する。特に、本開示は、球形に近いかまたは完全に球形の画像を取り込むためのシステムおよび方法に関する。
多くの撮像システムは、静止画像および/またはビデオ画像を取り込むためにユーザによって操作される場合があるカメラを含む。撮像システムは一般に、高品質画像を取り込むように設計されるので、カメラまたは撮像システムが視差を有しないかまたは視差を実質的に有しないように設計することが重要である場合がある。さらに、撮像システムが、取り込まれた画像が視差を有しないかまたは視差を実質的に有しないグローバルシーンの画像を取り込むことが望ましい場合がある。撮像システムは、中心点の近くの複数の位置からグローバルシーンの様々な視野を取り込むために使用される場合がある。しかし、これらの設計の多くは、視野が中心点ではなく様々な位置から生じるので大量の視差を含む画像を伴う。これを解決するには、視差を有しないかまたは視差を実質的に有しないグローバルシーンの画像を取り込むことが好ましい。
米国出願公開第2014/0111650号
集合的に球形の画像を示す複数の画像を取り込むための撮像システムは、前方カメラと、後方カメラと、第1のカメラのセットと、第2のカメラのセットと、第3のカメラのセットとを含む。前方カメラは、前方カメラの投影光軸の周りの第1の視野(FOV)における画像を取り込むように位置付けられる。前方カメラの投影光軸は第1の方向に位置付けられる。後方カメラは、前方カメラと後方カメラとの間に配設された後方方向転換反射鏡構成要素によって方向を変えられた光を受け取るように位置付けられる。後方カメラは、後方カメラの投影光軸の周りの第2のFOVにおける画像を取り込むように位置付けられる。後方カメラの投影光軸は第1の方向に位置付けられる。第1のカメラのセットは、前方カメラと後方カメラとの間に多角形構成に配設される。第1のカメラは、第3のFOVにおける画像を取り込むように集合的に構成される。FOVは、円形であり、第1のカメラから外側に離れる方向に投影される。第3のFOVの少なくとも一部は、第1のFOVと第2のFOVとの間に位置付けられる。第2のカメラのセットは、第1のカメラと後方カメラとの間に多角形構成に配設される。第2のカメラは、第4のFOVにおける画像を取り込むように集合的に構成される。第4のFOVは、円形であり、第2のカメラから外側に離れる方向に投影される。第4のFOVの少なくとも一部は、第3のFOVと第2のFOVとの間に位置付けられる。第3のカメラのセットは、第2のカメラと後方カメラとの間に多角形構成に配設される。第3のカメラのセットは、第5のFOVにおける画像を取り込むように集合的に構成される。第5のFOVは、円形であり、第3のカメラから外側に離れる方向に投影される。第5のFOVの少なくとも一部は、第4のFOVと第2のFOVとの間に位置付けられる。前方カメラ、後方カメラ、第1のカメラ、第2のカメラ、および第3のカメラは、第1のFOV、第2のFOV、第3のFOV、第4のFOV、および第5のFOVにおいて取り込まれた画像が、撮像システムの視点から見たときに球形の画像を集合的に表すように構成される。
撮像システムは、前方カメラと、後方カメラと、複数の側方カメラと、後方光方向転換反射鏡構成要素と、複数の側方光方向転換反射鏡構成要素とを含む。前方カメラは、第1の方向における第1の視野(FOV)と、第1のFOVを通過して延びる光軸とを有する。後方カメラは光軸を有する。後方カメラは、後方カメラの光軸が第1のFOVを通過して延びる方向に揃えられるように位置付けられる。複数の側方カメラは、前方カメラと後方カメラとの間に配設される。後方光方向転換反射鏡構成要素は、後方カメラと複数の側方カメラとの間に配設される。後方カメラおよび後方光方向転換反射鏡構成要素は、後方カメラが、後方光方向転換反射鏡構成要素によって後方カメラの光軸に沿って方向を変えられた光を受け取るように、後方カメラの光軸が後方光方向転換反射鏡構成要素に向けられるように位置付けられる。複数の側方カメラの各々は、複数の光方向転換鏡構成要素のうちの1つによって方向を変えられた光を受け取るように位置付けられる。
球形の視野(FOV)を示す画像を生成する方法は、前方画像を生成するステップと、後方画像を生成するステップと、第1の画像を生成するステップと、第2の画像を生成するステップと、第3の画像を生成するステップと、前方画像、後方画像、第1の画像、第2の画像、および第3の画像を受け取るステップとを含む。前方画像は、前方カメラの投影光軸の周りの第1の視野(FOV)における画像を取り込むように位置付けられた前方カメラにおいて生成される。前方カメラの投影光軸は第1の方向に位置付けられる。後方画像は、前方カメラと後方カメラとの間に配設された後方方向転換反射鏡構成要素によって方向を変えられた光を受け取るように位置付けられた後方カメラにおいて生成される。後方カメラは、第2のFOVにおける画像を取り込むように位置付けられる。第1の画像は、前方カメラと後方カメラとの間に多角形構成に配設された第1のカメラのセットにおいて生成される。第1のカメラは、第3のFOVにおける画像を取り込むように集合的に構成される。FOVは、円形であり、第1のカメラから外側に離れる方向に投影される。第3のFOVの少なくとも一部は、第1のFOVと第2のFOVとの間に位置付けられる。第2の画像は、前方カメラと後方カメラとの間に多角形構成に配設された第2のカメラのセットにおいて生成される。第2のカメラは、第4のFOVにおける画像を取り込むように集合的に構成される。第4のFOVは、円形であり、第2のカメラから外側に離れる方向に投影される。第4のFOVの少なくとも一部は、第3のFOVと第2のFOVとの間に位置付けられる。第3の画像は、前方カメラと後方カメラとの間に多角形構成に配設された第3のカメラのセットにおいて生成される。第3のカメラは、第5のFOVにおける画像を取り込むように集合的に構成される。第5のFOVは、円形であり、第3のカメラから外側に離れる方向に投影される。第5のFOVの少なくとも一部は、第4のFOVと第2のFOVとの間に位置付けられる。前方画像、後方画像、第1の画像、第2の画像、および第3の画像は、少なくとも1つのプロセッサにおいて受け取られる。前方画像、後方画像、第1の画像、第2の画像、および第3の画像の少なくとも一部を含むモザイク処理された画像が、少なくとも1つのプロセッサによって生成される。
撮像デバイスは、前方画像を生成するための手段と、後方画像を生成するための手段と、第1の画像を生成するための手段と、第2の画像を生成するための手段と、第3の画像を生成するための手段と、前方画像、後方画像、第1の画像、第2の画像、および第3の画像を受け取るための手段とを含む。前方カメラにおいて前方画像を生成するための手段は、前方カメラの投影光軸の周りの第1の視野(FOV)における画像を取り込むように位置付けられる。前方カメラの投影光軸は第1の方向に位置付けられる。後方カメラにおいて後方画像を生成するための手段は、前方カメラと後方カメラとの間に配設された後方方向転換反射鏡構成要素によって方向を変えられた光を受け取るように位置付けられる。後方カメラは、第2のFOVにおける画像を取り込むように位置付けられる。第1のカメラのセットにおいて第1の画像を生成するための手段は、前方カメラと後方カメラとの間に多角形構成に配設される。第1のカメラは、第3のFOVにおける画像を取り込むように集合的に構成される。第3のFOVは、円形であり、第1のカメラから外側に離れる方向に投影される。第3のFOVの少なくとも一部は、第1のFOVと第2のFOVとの間に位置付けられる。第2のカメラのセットにおいて第2の画像を生成するための手段は、第1のカメラと後方カメラとの間に多角形構成に配設される。第2のカメラは、第4のFOVにおける画像を取り込むように集合的に構成される。第4のFOVは、円形であり、第2のカメラから外側に離れる方向に投影される。第4のFOVの少なくとも一部は、第3のFOVと第2のFOVとの間に位置付けられる。第3のカメラのセットにおいて第3の画像を生成するための手段は、第2のカメラと後方カメラとの間に多角形構成に配設され、第5のFOVにおける画像を取り込むように集合的に構成される。第5のFOVは、円形であり、第3のカメラから外側に離れる方向に投影される。第5のFOVの少なくとも一部は、第4のFOVと第2のFOVとの間に位置付けられる。前方画像、後方画像、第1の画像、第2の画像、および第3の画像の少なくとも一部を含むモザイク処理された画像が生成される。
開示される態様は、以下で、開示される態様を限定するのではなく例示するために提供される添付図面および付録に関連して説明され、添付図面では、同様の符号が、同様の要素を表す。
中央カメラと、第1のカメラと、第2のカメラと、第3のカメラと、後方カメラとを含むグローバルカメラ構成の一部の一実施形態の側面図である。 中央カメラと第1のカメラとを含むグローバルカメラ構成の一部の一実施形態の側面図である。 中央カメラと、第1のカメラと、第2のカメラとを含むグローバルカメラ構成の一部の一実施形態の側面図である。 中央カメラと、第1のカメラと、第2のカメラと、第3のカメラとを含むグローバルカメラ構成の一部の一実施形態の側面図である。 図1A〜図1Dおよび図2A〜図2Cに示すカメラの一実施形態ならびに図1A〜図1Dに関する角度の正の表示および負の表示を示す図である。 中央カメラと、カメラの第1の同心リングと、カメラの第2の同心リングと、カメラの第3同心リングと、後方カメラ(図示せず)とを含むグローバルカメラ構成の一部の一実施形態の正面図である。 中央カメラと、カメラの第1の同心リングと、カメラの第2の同心リングと、カメラの第3同心リングと、後方カメラとを含むグローバルカメラ構成の一部の一実施形態の側面図である。 中央カメラと、カメラの第1の同心リングと、カメラの第2の同心リングと、カメラの第3同心リングと、後方カメラとを含むグローバルカメラ構成の一部の一実施形態の側面図である。 屈曲光学マルチセンサーアセンブリの一実施形態の側断面図である。 撮像デバイスの一実施形態のブロック図である。 ターゲット画像を取り込む方法の一例のブロックを示す図である。
本明細書で開示する実装形態は、完全に球形の画像を取り込むことができる複数のカメラの構成を使用して視差およびチルトアーティファクトを有しないかまたは実質的に有しない画像を生成するためのシステム、方法、および装置を実現する。様々な実施形態の態様は、取り込まれた画像内に視差アーティファクトをほとんどまたはまったく有しない複数のカメラ(たとえば、マルチカメラシステム)の構成に関する。複数のカメラの構成は、完全に球形の画像を取り込み、それによって、取り込み中のターゲットシーンが複数の領域に区分される。画像は、複数のカメラを同じ仮想共通入射瞳を有するように見えるように複数のカメラの構成を設計することによって、視差を有しないかまたは視差を実質的に有しないように取り込まれる。いくつかの設計に関する問題は、それらの設計が、同じ仮想共通入射瞳を有せず、したがって、視差を有しないとは限らず、言い換えれば、視差アーティファクトを有しないとは限らない。
複数のカメラの構成における各センサーは、対応する光方向転換光反射鏡構成要素(本明細書では「鏡」または「鏡構成要素」と呼ばれることもある)、または鏡反射面と同等の表面を使用して画像シーンの一部から光を受け取る。したがって、各個々の鏡構成要素とセンサーの対は、マルチカメラシステム全体の一部のみを表す。完全なマルチカメラシステムは、すべての個々の開口光線の和に基づいて生成される合成開口を有する。実装形態のいずれでも、カメラのすべてが、自動的に合焦するように構成されてもよく、この自動フォーカスが、自動フォーカス機能に関する命令を実行するプロセッサによって制御されてもよい。
いくつかの実施形態では、マルチカメラシステムは26個のカメラを有し、各カメラが、画像の26個の部分が取り込むことができるようにターゲットシーンの一部を取り込む。システムは、画像の26個の部分のすべてまたは一部を組み合わせることによってシーンの画像を生成するように構成されたプロセッサを含む。26個のカメラは、各々が8個のカメラからなる3個の同心リング、前方カメラおよび後方カメラとして構成することが可能である。入射光の一部の方向を変えてこの光を中央カメラを除く26個のカメラの各々に向けるように複数の光方向転換反射鏡構成要素が構成される。ターゲットシーンからの入射光の一部を複数の光方向転換反射鏡構成要素によってマルチカメラシステムを囲む領域から受け取ることが可能である。いくつかの実施形態では、光方向転換反射鏡構成要素は、各々が少なくとも1つの光方向転換反射鏡構成要素を有する複数の個々の構成要素を備えてもよい。光方向転換反射鏡構成要素の複数の構成要素は、互いに結合されてもよく、互いに対する位置を設定するように別の構造に結合されてもよく、または互いに結合されるとともに別の構造に結合されてもよい。
パノラマ画像を取り込む当業者には、視差を有しない画像(または視差を事実上有しない画像)または視差アーティファクトを有しない画像(または視差アーティファクトを事実上有しない画像)という用語の意味が認識されよう。カメラシステムは、視差を有しないかまたは視差アーティファクトを有しない特性を有する。
一例として、2つの並んだカメラを使用して立体画像を取り込むように設計されたカメラシステムが、視差を有しないとは限らないカメラシステムの例である。立体画像を生成する1つの方法は、2つの異なるバンテージポイントから画像を取り込むことである。当業者には、シーンによっては、一部のシーンコンテンツを重複することもなく、または最終的なステッチされた画像において一部のシーンコンテンツがなくなることもなしに、両方の立体画像をステッチして1つの画像を得ることが困難であるかまたは不可能である場合があることが認識されよう。そのようなアーティファクトは視差アーティファクトの例と呼ばれることがある。さらに、当業者には、2つの立体カメラのバンテージポイントを、両方のカメラが一方のバンテージポイントからシーンを見るように互いに移動させた場合、視差アーティファクトを観測できないように画像をステッチすることが可能であるはずであることが認識されよう。
本明細書では、視差を有しない画像の場合、2つ以上の画像をステッチするときに、画像にコンテンツを追加するかまたは画像もしくは最終的なステッチされた画像からコンテンツを削除することによって画像を修正するうえで画像処理が使用されることはない。
当業者には、単体レンズカメラを使用して、入射瞳の最も中央寄りの点に位置する定常点の周りを回転させ、すべての方向における画像を取り込むことができることが認識されよう。これらの画像を使用することによって、球または球体の中心から外側に任意の方向を見た場合と同様に入射瞳の最も中央寄りの点を囲むすべてのシーンコンテンツを示す球形の画像を作成することが可能になる場合がある。これらの画像は、視差を有しない、および/または視差アーティファクトを有しない追加の特性を有する場合がある。すなわち、たとえば、最終的なステッチされた画像においてシーンコンテンツが重複することもなく、かつ/または最終的なステッチされた画像からシーンコンテンツがなくなることもなく、かつ/もしくはシーンコンテンツが当業者に視差アーティファクトと見なされる場合がある他のアーティファクトを有することもないように、画像をステッチすることが可能である。
すべての仮想カメラの仮想入射瞳の最も中央よりの同じ点を共有する仮想カメラのシステムを構成することが可能である。仮想という用語は、2つ以上の物理的に現実のカメラを、入射瞳の同じ最も中央寄りの点を共有するように見えるように、光方向転換反射鏡構成要素などの他の構成要素と一緒に見えるように配置することが可能であることを意味する。さらに、すべての仮想カメラを、各仮想カメラの仮想光軸が仮想入射瞳の共有される最も中央寄りの仮想点の近くにおいて互いに交差するかまたは互いに交差するほど近づけるように配置することも可能である。本明細書において提示する方法およびシステムは、同様のシステムを実現するのに使用されてもよい。
物理的には、2つ以上の仮想カメラの仮想光軸が仮想入射瞳の最も中央寄りの位置における1つの共通の点において交差する十分な公差を有するシステムを構築することは非常に困難であるかまたはほぼ不可能である。カメラシステムのピクセル解像度および/またはレンズの解像度を仮定すると、ステッチされた画像において視差アーティファクトがほとんどもしくはまったくなくなるか、または場合によっては、ステッチされた画像が、最終的なステッチされた画像における視差アーティファクトの量を最小量未満にする要件を満たすように、共有される入射瞳の最も中央寄りの点の近くまたは周りにおいて2つ以上のカメラの光軸を互いに交差させるかまたは交差するほど近づけることが可能である場合がある。すなわち、特別なソフトウェアを使用してコンテンツを追加もしくは削除することもなく、または他の画像処理を使用して視差アーティファクトを除去することもなく、このようなカメラによって取り込まれた画像を使用して、視差を有しない球形の画像を生成するかまたは視差アーティファクトを最低レベルに抑える要件を満たすようにこれらの画像をステッチすることが可能である。このコンテキストでは、十分な公差を有するシステム設計に基づいて視差を有しないかまたは視差を事実上有しないという用語を使用する場合がある。
本明細書では、視差を有しない、視差アーティファクトを有しない、視差を事実上有しない、または視差アーティファクトを事実上有しないという用語が使用されるとき、物理的な現実によって、物品を同じ位置に長時間維持するか、または場合によっては公差を使用せずに設計通りの状態を維持する特性を有することが困難であるかまたはほぼ不可能である場合があることを理解されたい。現実的には、物品は形状、サイズ、位置、考えられる他の物体に対する相対位置は、時間とともにおよび/または環境条件に応じて変化する場合がある。したがって、公差要件を仮定することもまたは課すこともなしに物品を理想的なものであるかまたは変化しないと見なすことは困難である。本明細書では、視差を事実上有しないなどの用語は、現実的には、たいていの物品が、物品が理想的なものではなく、かつ時間の経過とともに変化する場合があるにもかかわらず、アセンブリまたは物品の意図される目的が満たされる範囲の公差を必要とすることを意味し、かつ意味すると見なされるものとする。視差を有しない、視差アーティファクトを有しない、視差を事実上有しない、または視差アーティファクトを事実上有しないという用語は、関連する用語の有無にかかわらず、システムまたは物品の意図される要件または目的が満たされるように公差要件を決定できることを示すことが可能であることを意味すると見なされるべきである。
以下の説明では、実施例を完全に理解できるように、具体的に詳細に説明する。しかしながら、実施形態は、これらの具体的な詳細なしに実施されてもよい。
図1Eは、図1A〜1D、図2Bおよび図2Cに示すカメラ20の実施形態ならびに図1A〜図1Dに関する角度の正の表示および負の表示を示す。カメラ20は、光軸19上に位置し、かつ視野(FOV)16の頂点が光軸19と交差する入射瞳14の最も中央寄りの点を含む。カメラ20の実施形態は、図1A〜図1D、図2A、図2B、および図2Cの全体にわたってカメラ112、114e、116e、118e、および120として示されている。カメラ20の前部は、短い棒15として表されている。この平面は、入射瞳を含み、点14は15の前部に位置する。カメラの前部および入射瞳の位置が15によって示されている。
角度の表示はカメラ20の下方に示されている。正の角度は、反時計回り方向に向かう円形の線によって示される。負の角度は、時計回り方向に向かう円形の線によって示される。常に正の角度は、時計回り方向と反時計回り方向の両方を指し示す矢印を有する円形の線によって示される。正の水平方向Xが左から右に向かい、正の垂直方向Yが下から上に向かうデカルト座標が示されている。図1A〜図1Dは、グローバルカメラの一部110a、110b、110c、110dの例示的で概略的な構成を示す。したがって、図1A〜図1Cに示す角度の大きさ、距離、およびカメラの寸法は、一定の縮尺で描かれていない場合があり、グローバルカメラの様々な実装形態において異なる場合がある。
図1Aは、(この図を明確にするために)中央カメラ112と、第1のカメラ114aと、第2のカメラ116eと、第3のカメラ118eと、後方カメラ120とを含むグローバル(たとえば、球形)カメラ構成110aの一部の一実施形態の例の側面図を示す。後述のように、図示の第1のカメラ114e、第2のカメラ116e、および第3のカメラ118eは、第1、第2、および第3のカメラのグループ(または構成)の各一部である。グローバル構成110aは、第1のカメラ114a、第2のカメラ116e、第3のカメラ118e、および後方カメラ120に対応する少なくともいくつかの光方向転換反射鏡構成要素も備える。光方向転換反射鏡構成要素(「鏡」)134は第1のカメラ114aに対応し、鏡136は第2のカメラ116eに対応し、鏡138は第3のカメラ118eに対応し、鏡140は後方カメラ120に対応する。鏡134、136、138、140は、入射光を対応するカメラ114e、116e、118e、120の各々の入射瞳の方へ反射する。この実施形態では、関連する鏡を有しない中央前方カメラ112を除いて、各カメラに対応する鏡がある。中央カメラ112によって受け取られる光、および図2Aおよび図2Bに示すように、グローバルシーンから8つのカメラ214a〜214hの第1のセット、8つのカメラ216a〜216hの第2のセット、8つのカメラ218a〜218hの第3のセット、および後方カメラ120によって受け取られる反射光を使用して、図1〜図5に関して以下により詳しく説明するように画像を取り込む。鏡に関して説明しているが、光方向転換反射鏡構成要素は、カメラに入射光を受け取らせる任意の方法で光を反射させるか、屈折させるかまたは光の方向を変えてもよい。
さらに、グローバルカメラ構成110aは、一部のみが図示の1Aに示されているが、実質的に非反射性の複数の表面170a〜170dを含む。実質的に非反射性の複数の表面は、たとえば、複数の鏡からの反射によって生じる場合がある画像アーティファクトを発生させるほどの量の光を反射しない任意の材料であってもよい。そのような材料の例には、浅黒いプラスチック、木材、金属などがある。別の実施形態では、実質的に非反射性の複数の表面170a〜170dは、わずかにそれぞれのカメラの各々の視野内に位置し、デジタル処理によって実質的に非反射性の複数の表面170a〜170dの取り込まれた部分を削除することができる。別の実施形態では、実質的に非反射性の複数の表面170a〜170dは、わずかにそれぞれのカメラの各々の視野外に位置付けられる。
図1A〜図1Dの撮像システムは複数のカメラを含む。中央カメラ112は、第1の方向に向けられた第1の視野aを有する位置に配置される。第1の視野aは、図1Aに示すように、撮像システムがグローバルシーンを取り込むように構成されるので、中央カメラ112が向けられた任意の方向であってよい第1の方向を向く。中央カメラ112は、第1の視野aを通って延びる光軸113を有する。第1の視野aにおいて中央カメラ112によって取り込まれる画像は、中央カメラ112の投影光軸113の周りに位置し、中央カメラ112の投影光軸113は第1の方向に位置付けられる。
撮像システムは後方カメラ120も含む。後方カメラ120は、中央カメラ112の第1の視野aを通って延びる光軸113を有する。後方カメラ120は、中央カメラ112の光軸113と一致する線に沿って位置付けられる。後方カメラ120は、後方方向転換反射鏡構成要素140によって方向を変えられた入射光を受け取るように位置付けられる。後方方向転換反射鏡構成要素140は、中央カメラ112と後方カメラ120との間に配設される。後方カメラ120は、後方カメラ120の投影光軸113の周りの第2の視野eにおける画像を取り込むように位置付けられる。後方カメラ120の投影光軸113は第1の方向に向けられる。
第1のカメラ114a、第2のカメラ116e、および第3のカメラ118eによって表される図1Aに示すように、撮像システムは、中央カメラ112と後方カメラ120との間に位置する複数の側方カメラ114e、116e、118eをさらに含む。側方カメラ114e、116e、118eは、中央カメラ112、後方カメラ120、および図1A〜図1Dに示されていない他の側方カメラによって取り込まれないグローバルシーンの部分を取り込むように位置付けられる。側方カメラ114e、116e、118eは、中央カメラ112の光軸113からずれている。
図示の側方カメラ114e、116e、118eは、カメラの3つのそれぞれのグループまたは構成(またはリング)の各カメラである。側方カメラの各々の構成は、中央カメラ112の光軸に揃えられた図示の線160aの周りに位置付けられる。複数の側方カメラ114e、116e、118eの各々が、実際のカメラ112の光軸に揃えられた図示の線160aと同心のリングを形成することに応じて、複数の側方カメラ114e、116e、118eの各々をカメラの「同心リング」と呼ぶことがある。説明を明快にするために、リング114e、116e、118eの各々における1つのカメラのみ、中央カメラ112、および後方カメラ120を図1A〜1Dに示す。側方カメラ114eは8つのカメラの第1の同心リングの一部であり、8つのカメラの各々がその隣接するカメラから45°の角度に位置してカメラの360°同心リングを形成する。側方カメラ114a〜114d、114f〜114hは示されていない。同様に、116eおよび118eは、カメラの第1の同心リングの各カメラと同様に位置付けられたカメラの第2および第3の同心リングの一部である。「リング」という用語は、たとえば線160aの周りのカメラの一般的な構成を示すのに使用され、リングという用語が構成を円形に限定することはない。「同心」という用語は、同じ中心または軸を共有する2つ以上のリングを指す。
図1A〜図1Dに示すように、光軸113の周りの各同心リングの半径は異なるように示されており、一方、別の実施形態では、2つ以上の同心リングは光軸113から同じ半径方向距離を有してもよい。カメラ114a〜114h、116a〜116h、118a〜118hの同心リングは多角形構成(たとえば、八角形)である。カメラ114a〜114hの第1の同心リングは、光軸115に沿った方向における第3の視野b内の画像を取り込むように配置され構成される。第3の視野bは、カメラ114a〜114hの第1のセットから外側に離れる方向に投影される。第3の視野bの少なくとも一部は、光軸113に沿った方向における第1の視野aと光軸121に沿った方向における第2の視野eとの間に位置付けられる。カメラ116a〜116hの第2の同心リングは、光軸117に沿った方向における第4の視野c内の画像を取り込むように配置され構成される。第4の視野cは、カメラ116a〜116hの第2のセットから外側に離れる方向に投影される。第4の視野cの少なくとも一部は、光軸115に沿った方向における第3の視野bと光軸121に沿った方向における第2の視野eとの間に位置付けられる。カメラ118a〜118hの第3の同心リングは、光軸119に沿った方向における第5の視野d内の画像を取り込むように配置され構成される。第5の視野dは、カメラ118a〜118hの第3のセットから外側に離れる方向に投影される。第5の視野dの少なくとも一部は、光軸117に沿った方向における第4の視野cと光軸121に沿った方向における第2の視野eとの間に位置付けられる。
別の実施形態では、側方カメラ114e、116e、118eの各々はそれぞれ、アレイカメラの第1、第2、および第3のセットの一部であり、アレイカメラの第1、第2、および第3のセットの各々は集合的に、ターゲットシーンの少なくとも一部を含む視野を有する。各アレイカメラは画像センサーを含む。アレイカメラの第1のセットの画像センサーは、第1の基板上に配設され、アレイカメラの第2のセットの画像センサーは、第2の基板上に配設され、アレイカメラの第3のセットは、第3の基板上に配設される。基板は、たとえば、プラスチック、木材などであってもよい。さらに、第1、第2、および第3の基板は、互いに平行な平面内に配設される。
中央カメラ112、後方カメラ120、第1のカメラ114a〜114h、第2のカメラ116a〜116h、および第3のカメラ118a〜118hは、第1、第2、第3、第4、および第5の視野a、e、b、c、dにおいて取り込まれた画像が、撮像システムの視点から見たときに球形の画像を集合的に表すように構成され配置される。
撮像システムは、後方カメラ120と複数の側方カメラ114e、116e、118eとの間に配設された後方光方向転換反射鏡構成要素140をさらに含む。後方光方向転換反射鏡構成要素140は、上述の複数の光方向転換反射鏡構成要素のうちの光方向転換反射鏡構成要素の一種類である。後方光方向転換反射鏡構成要素140はさらに、後方カメラ120の光軸に垂直に配設される。
撮像システムは、複数の側方光反射鏡方向転換構成要素134、136、138をさらに含む。複数の側方カメラ114e、116e、118eの各々は、複数の光方向転換反射鏡構成要素134、136、138のうちの1つによって方向を変えられた光を受け取るように位置付けられる。
上記の光方向転換反射鏡構成要素134、136、136、138、140の各々において、光方向転換反射鏡構成要素134、136、138、140は複数の反射器を含む。
次に説明するように、グローバルカメラ構成110aは、グローバルカメラ構成110aが視差を有しないかまたは視差を事実上有せず、共通の視点からの単一の仮想視野を有するのを可能にする様々な角度および距離を含む。グローバルカメラ構成110aは、単一の仮想視野を有するので、視差を有しないかまたは視差を事実上有しない。
いくつかの実施形態では、単一の仮想視野は、カメラ112、114a〜114h(114eが示されている)、116a〜116h(116eが示されている)、118a〜118h(118eが示されている)、および120の各々の仮想視野基準点が、カメラ112の入射瞳の最も中央寄りの点である単一の原点145を有する場合と同様にグローバルシーンを集合的に見る複数の視野を含む。ただし、カメラのいくつかは、単一の原点145から離れた様々な点に位置する。図を明快にするためにカメラ112、114e、116e、118eおよび120のみが示されている。たとえば、中央カメラ112は、光軸113に沿った方向における、角度aに応じたシーンの部分、単一の原点145からの中央カメラ112の実際の視野を取り込む。第1のカメラ114eは、光軸115に沿った方向における、角度bに応じたシーンの部分、単一の原点145からの第1のカメラ114eの仮想視野を取り込む。第2のカメラ116eは、光軸117に沿った方向における、角度cに応じたシーンの部分、単一の原点145からの第2のカメラ116eの仮想視野を取り込む。第3のカメラ118eは、光軸119に沿った方向における、角度dに応じたシーンの部分、単一の原点145からの第3のカメラ118eの仮想視野を取り込む。後方カメラ120は、光軸121に沿った方向における、角度eに応じたシーンの部分、単一の原点145からの後方カメラ120の仮想視野を取り込む。第1のカメラ114e、第2のカメラ116e、および第3のカメラ118eは、カメラの同心リングの一部であるので、集合的な仮想視野は、仮想視野の少なくとも様々な角度a、b、c、d、およびeを含むグローバルシーンを取り込む。完全なグローバルシーン画像を取り込むには、カメラ112、114a〜114h、116a〜116h、118a〜118h、120のすべてが個々に、すべての実際の視野および/または仮想視野が実際の隣接する視野および/または隣接する仮想視野と重なり合うほど広い視野を有する必要がある。
単一の仮想視野は、カメラの実際の物理的な位置が単一の原点145から離れた様々な点に位置するにもかかわらず、カメラの各々が単一の原点145からシーンを取り込む場合と同様に見える。この実施形態では、単一の原点145は、中央カメラ112の入射瞳の所に位置する。したがって、第1のカメラ114eの仮想視野は、第1のカメラ114eが中央カメラ112の入射瞳から視野bのシーンを取り込む場合と同様な視野である。第2のカメラ116eの仮想視野は、第2のカメラ116eが中央カメラ112の入射瞳から視野cのシーンを取り込む場合と同様な視野である。第3のカメラ118eの仮想視野は、第3のカメラ118eが中央カメラ112の入射瞳から視野dのシーンを取り込む場合と同様な視野である。後方カメラ120の仮想視野は、後方カメラ120が中央カメラ112の入射瞳から視野eのシーンを取り込む場合と同様な視野である。したがって、中央カメラ112、第1のカメラ114e、第2のカメラ116e、第3のカメラ118e、および後方カメラ120の各々は、グローバルシーンを取り込むように様々な方向に向けられる中央カメラ112の入射瞳に位置する単一の原点145に単一の仮想視野基準点を有する。
他の実施形態では、様々な視野がカメラに使用されてもよい。たとえば、中央カメラ112は広い視野を有してもよく、第1のカメラ114eは狭い視野を有してもよく、第2のカメラ116eは広い視野を有してもよく、第3のカメラ118eは狭い視野を有してもよく、後方カメラ120は広い視野を有してもよい。したがって、視差を有しないかまたは視差を事実上有しない画像を取り込むのにカメラの各々の視野が同じである必要はない。しかし、以下に一実施形態の一例において図および表を参照して説明するように、カメラは実際の視野が60度であり、仮想視野が45度である。後述の実施形態では、視野同士が重なり合う。しかし、この撮像システムでは、視差を有しないかまたは視差を事実上有しない画像を取り込むのに重なり合いは必要ではない。
視差を有しないかまたは視差を事実上有しない撮像システムおよび仮想視野の上述の実施形態は、以下の角度、距離、および数式の表に記載された様々な入力および出力によって可能になる。
視差アーティファクトを有しないかまたは視差アーティファクトを事実上有しない複数の画像を得る概念では、カメラの光軸をピボット運動させることによってオブジェクト空間におけるシーンの画像を取り込み、この場合、カメラの入射瞳の最も中央寄りの点は、画像が取り込まれるたびに同じ位置に留まる。視差アーティファクトがまったくないかまたは事実上最低限であるパノラマ写真を取り込む当業者は、そのような方法を認識している場合がある。このプロセスを実行するには、カメラ112の光軸を図1Bに示すようにマルチカメラシステムの光軸113に揃えて、カメラ112の入射瞳の最も中央寄りの点を点145を含むように配置してもよい。この位置において画像を取り込むことができる。次のステップでは、点145をカメラ112の入射瞳の最も中央寄りの点に維持し、かつカメラ112の光軸を図1Bに示すページの平面内に維持しつつカメラ112の光軸を時計回りに45度回転させ、次いで第2の画像を取り込んでもよい。さらに、カメラ112の視野が実際には角度f2の2倍よりも大きいと仮定する。これらの画像はどちらも、2つの画像の視野が重なり合ったシーンの同様のオブジェクト空間画像コンテンツを示すはずである。画像がこのように取り込まれるとき、この2つの画像をマージして視差アーティファクトを有しないかまたは視差アーティファクトを事実上有しない画像を形成することが可能であるはずである。2つ以上の画像をマージする当業者には、視差アーティファクトがどのように見える場合があるかが理解され、視差を有しないかまたは視差アーティファクトを事実上有しない画像を取り込む目的が諒解されよう。
カメラの光軸をカメラの入射瞳位置の周りでピボット運動させることによって視差を有しないかまたは視差を事実上有しない画像を取り込むことが望ましくない場合がある。互いに対して所定の位置に固定された2つのカメラを使用することが好ましい場合がある。この状況では、入射瞳が同じ物理的位置を占有する2つのカメラを作るのが可能ではない場合がある。代替として、光方向転換反射鏡面を使用して、入射瞳中心点が112などの別のカメラの入射瞳中心点を含むかまたはほぼ含む仮想カメラを作成してもよい。このことは、表面134などの光方向転換反射鏡面および114eなどの第2のカメラを適切に位置付けることによって行われる。図1Bは、光方向転換反射鏡面134を使用してカメラ114eの仮想カメラが作成され、仮想カメラ入射瞳の中心が点145を含むそのようなシステムの図面である。この考えでは、カメラ114eが、光方向転換反射鏡面が存在しない場合にカメラ114eの仮想カメラが観測するのと同じシーンを光方向転換反射鏡反射面134から離れた位置で観測するように、光方向転換反射鏡面を位置付け、かつカメラ114eの入射瞳を配置する。カメラ114eが、光方向転換反射鏡面のサイズおよび形状に応じて仮想カメラが観測するシーンの一部のみを観測する場合があることに注目することが重要である。光方向転換反射鏡面134がカメラ114eの視野の一部のみを占有する場合、カメラ114eはその仮想カメラが見るシーンの一部のみを見る。
図1Bに示すように長さ152bならびに角度f2、h2、およびk2の値を選択した後、Table 2(表2)の数式を使用してカメラ114eの入射瞳中心点の位置および線111に対するカメラ114eの光軸の角度を算出することができる。カメラ114eの入射瞳中心点は、マルチカメラシステム光軸113から距離154bに位置し、かつ線113に垂直な線111から長さ156bに位置する。図1Eは、角度の符号に応じた角回転方向および長さの符号に応じた線111と113の交差点からの長さに関する方向を示す凡例を提示している。
次に、Table 1(表1)における上記の距離、角度、および数式について図1Aを参照して説明する。図1A〜図1Eを参照する。仮想入射瞳の平面111は、仮想入射瞳点145を含み、光軸113に垂直である。仮想入射瞳145の最も中央寄りの点は、理想的には平面111と光軸113の交差点に位置し、この場合、平面111は図を示すページに垂直である。理想的には、仮想入射瞳145および中央カメラ112の入射瞳は互いに一致する。実際の製造では、構成要素および配置にばらつきがあると、入射瞳145の中心点が光軸113と平面111の交差点に位置しない場合があり、同様に、カメラ112の入射瞳の実際の位置および配列が仮想入射瞳145と厳密に一致しない場合があり、これらの場合、システムまたは物品に関する所望の要件および/または目的が満たされるように公差要件を決定できることを示すことが可能である場合、理想的なケースと前述の公差内の両方において、システムおよび/または物品が所望の要件および/または目的を満たすことに関して同等であると見なしてもよいことを、「事実上の」または「事実上」としての同等の用語の概念を使用して意味することができる。したがって、公差内では、仮想入射瞳145は事実上、カメラ112の入射瞳と一致し、仮想入射瞳の最も中央寄りの点および中央カメラ112の入射瞳は事実上、光軸113と平面111の交差点に位置する。
さらに図1A〜図1Eを参照する。平面192は、光方向転換反射鏡面140と光軸113との間の交差平面を表し、光軸113に垂直である。
グローバルカメラ構成110aに示すようなカメラ120の配置に関するTable 1(表1)における入力は、距離152a、角度f1、角度h1、および角度k1である。距離152aは、仮想入射瞳111の平面と平面192との間の距離である。ここで、光方向転換反射鏡構成要素140の外縁は、光方向転換反射鏡構成要素140が仮想入射瞳111の平面に平行であるので、光方向転換反射鏡構成要素140に沿った任意の点であってもよい。
角度f1は、光軸113とカメラ120の半角視野h1との間の半角視野を表す。後方カメラ120は、図1A〜図1Dに示す実施形態に関するTable 1(表1)に関係するので現在のカメラと呼ばれる。現在のカメラの意味はTable 1(表1)、Table 2(表2)、Table 3(表3)、およびTable 4(表4)の各々で異なる。Table 1(表1)、Table 2(表2)、Table 3(表3)、およびTable 4(表4)では、h1の半角視野を有するカメラを現在のカメラと呼ぶ。Table 1(表1)に関係する現在のカメラはカメラ120である。さらに、現在のカメラの半角視野h1と半角視野f1との和が図1Aに示すグローバルカメラに関する180度の半角視野に等しいことに留意されたい。
現在のカメラおよび実施形態に使用されるすべてのカメラの各々が、複数のカメラを含むカメラシステムであってもよく、または従来の単一のバレルレンズカメラとは異なる場合がある別のタイプのカメラであってもよい。いくつかの実施形態では、使用される各カメラシステムは、カメラのアレイまたはカメラの屈曲光学アレイによって構成されてもよい。
角度h1は、現在のカメラの実際の視野の2分の1を表す。ここで、現在のカメラは後方カメラ120である。現在のカメラの全体的な実際の視野は、45度である角度h1の2倍である。
図1Aに示す角度k1は、光軸113と、構成要素140の光反射平面と図および光軸113を含むページの平面とによって形成される線との間の角度を表す。
Table 1(表1)には示されているが図1Aには示されていない角度u1、u2、およびj1は、主としてTable 1(表1)の数式に関する中間値として使用される。
Table 1(表1)には示されているが図1Aには示されていない距離158aは、主としてTable 1(表1)の数式に関する中間値として使用される。
距離150aは、光方向転換反射鏡構成要素140と図1Aを含むページによって表される平面とによって形成される線の長さの2分の1である。図1Aに示す140の長さは、150aの2倍であり、140の中心を表す点は光軸113と交差する。
距離160aは、現在のカメラの入射瞳と原点145に位置する仮想入射瞳との間の距離の2分の1を表す。ここで、現在のカメラは後方カメラ120である。
引き続き図1を参照する。距離長156aは、仮想入射瞳平面111から仮想入射瞳平面111に平行な現在のカメラの入射瞳の平面までの座標位置を表す。ここで、現在のカメラは後方カメラ120である。座標系に関する凡例を図1Eに示す。
距離長154aは、光軸113からカメラ120の入射瞳までの座標位置を表す。
角度m1およびn1は、図1Aには示されていない。角度m1およびn1は、Table 1(表1)に示す数式に使用される中間値である。
角度p1は、現在のカメラに対応する光方向転換反射鏡構成要素の前側から現在のカメラに関する実際の視野の光軸までの角度を表す。ここで、現在のカメラは後方カメラ120であり、対応する光方向転換反射鏡構成要素は光方向転換反射鏡構成要素140である。光方向転換反射鏡構成要素の前側は、光の方向を変える側である。
角度q1は、図1Aを示すページの平面および仮想入射瞳面111によって形成される線から現在のカメラに関する実際の視野の光軸までの角度を表す。ここで、現在のカメラは後方カメラ120である。実際の視野は、実際の現実のカメラの入射瞳から発する視野を意味する。この場合、q1に関する実際の現実のカメラはカメラ120である。
図1Bは、中央カメラ112と第1のカメラ114eとを含むグローバルカメラ構成110bの一部の一実施形態の一例の側面図を示す。この実施形態では、第1のカメラ114eが現在のカメラである。図1Bは、視差を有しないかまたは視差を事実上有しない多数の異なるマルチカメラ実施形態を、構想し、設計し、かつ/または本明細書において提示する方法を使用して実現することができるモデルも表す。Table 2(表2)は、長さ152bならびに角度f2、h2、およびk2に基づいて図1Bに示す距離および角度を判定するために使用される数式を提示している。
上記の距離、角度、および数式は、図1Aに関して上記において説明したのと同様の関係を有する。Table 2(表2)の入力のいくつかはTable 1(表1)の入力とは異なる。上記の距離、角度、および数式間の主な違いは、図1Aから識別される。図1AおよびTable 1(表1)では、距離のいくつかは下付き文字「a」を有し、角度のいくつかは下付き文字「1」を有する。Table 1(表1)における下付き文字付きの付いたこれらの距離および角度は、図1BおよびTable 2(表2)における下付き文字の付いた距離および角度と同様の関係を有する。図1BおよびTable 2(表2)では、距離のいくつかは下付き文字「b」を有し、角度のいくつかは下付き文字「2」を有する。したがって、図1AおよびTable 1(表1)に関して上記において説明した距離および角度の関係を同様に使用して図1BおよびTable 2(表2)の距離および角度を算出することができる。
図1Bには、Table 2(表2)の角度および距離が示されている。中央カメラ112および第1のカメラ114aが示されている。第1のカメラ114eの入射瞳は、距離154bおよび距離156bに応じて仮想入射瞳145からずれている。距離長154bは、光軸113から第1のカメラ114eの入射瞳中心点までの座標位置を表し、距離154bは光軸113に垂直に測定される。ここで、現在のカメラは第1のカメラ114eである。
距離長156bは、平面111から、第1のカメラ114eの入射瞳中心点を含み、平面111に平行な平面までの座標位置を表す。ここで、現在のカメラは第1のカメラ114eである。
引き続き図1Bを参照する。システム110bに関する図1Bに示す点137は、図1Bを示すページの平面上に位置し、光軸113からの距離150bおよび平面111と図1Bに関するページの平面との交差点によって形成される線からの距離152bである。説明を容易にするために、平面111および図、たとえば、図1A〜図1Dのうちの1つを示すページの平面によって形成される線として理解すべき線111を参照することもある。
平面状光方向転換反射鏡面134は、平面134と図1Bを示すページの平面との交差点によって形成される線によって示される。図1Bならびに図1A、図1C、および図1Dについて説明するために、平面134がページの平面に垂直であると仮定する。しかし、平面134がページの平面に垂直である必要がないことに注目することが重要である。
線134を参照するときには、平面134とページの平面との交差点によって形成される線を参照していることを理解されたい。
Table 2(表2)は、光軸113に平行であり点137も含む線から線134までの時計回りの回転角である角度k2を提示している。カメラ112の視野縁は、170aおよび170bと示された2本の交差線によって示されており、この2本の線は、カメラ112の入射瞳の中心点において交差する。カメラ112の半角視野は、マルチカメラ光軸113と視野縁170aおよび170bとの間のf2である。
図1Bに示すように、カメラ112は、その光軸が線113に一致する。カメラ114eの半角視野は、カメラ114aの光軸115に対するh2である。カメラ114eの仮想カメラの光軸は、光方向転換反射鏡面134によって方向を変えられるように示されている。光方向転換反射鏡面134が完全に平坦であり、図1Bが示されているページの平面に垂直な平面であると仮定する。さらに、光方向転換反射鏡面134がカメラ114eの視野を完全に覆うと仮定する。図1Bに示すように、光軸115は、平面状光方向転換反射鏡面134上の点において交差する。反時計回り角度p2は、光方向転換反射鏡面134からカメラ114eの光軸115までの角度として示されている。鏡または同等の光反射鏡面からの光反射の特性および図1Bに示す各線が図1Bの平面に含まれるという仮定に基づいて、反時計回り角m2およびn2がp2に等しいことが判明した。光線は、図1Bを示すページの平面内において光軸115に沿ってカメラ114eに向かい、光方向転換反射鏡同等面134からカメラ114eの入射瞳の方へ反射される場合があり、鏡同等面からの光反射の特性に基づいて角度n2および角度p2は同等でなければならない。光軸115は、光反射面134を通過して仮想入射瞳中心点145の方へ延びるように示されている。反時計回り角度m2は、三角法に基づいてn2と等しいことを示すことができる。
このことから、平面状光方向転換反射鏡面134が、カメラ112の入射瞳中心点からカメラ114eの入射瞳中心点までの線に垂直に交差することを示すことができる。したがって、2つの線長160bを等しい距離と示すことができる。
平面状光方向転換反射鏡面134がカメラ114eの視野の一部のみを覆うことが可能である。この場合、図1Bに示すように、オブジェクト空間から、中心に点145を含む仮想カメラ入射瞳に向かうすべての光線が、カメラ114eの視野を部分的に覆う光方向転換反射鏡面134の平面部分から反射されるとは限らない。この観点から、カメラ114eが、長さ154bおよび156bならびに図1Eに示す凡例によって説明したように、半角視野h2によって画定される視野、光軸115、および入射瞳の位置を有することに留意することが重要である。この視野内において、およびビューの入力値152b、f2、h2、およびk2に従って光方向転換反射鏡面134の光反射平面部分などの表面は部分的にカメラ114eの視野内に位置する場合がある。オブジェクト空間からカメラ114eの仮想カメラの入射瞳の方へ向かい、光方向転換反射鏡面134の平面部分から反射された光線は、光方向転換反射鏡面134ならびにカメラ112および114eが、図1Bに示すように、かつ図1Eに示す凡例、Table 2(表2)の数式に従って、かつ入力値152b、f2、h2、およびk2に従って位置付けられている場合、カメラ114eの入射瞳上に達する。
図1Cは、中央カメラ112と、第1のカメラ114eと、第2のカメラ116eとを含むグローバルカメラ構成110cの一部の一実施形態の一例の側面図を示す。この実施形態では、第2のカメラ116eが現在のカメラである。
上記の距離、角度、および数式は、図1Aおよび図1Bに関して上記において説明したのと同様の関係を有する。Table 3(表3)の入力のいくつかはTable 1(表1)およびTable 2(表2)の入力とは異なる。上記の距離、角度、および数式間の主な違いは、図1Aから識別される。図1AおよびTable 1(表1)では、距離のいくつかは下付き文字「a」を有し、角度のいくつかは下付き文字「1」を有する。Table 1(表1)における下付き文字付きの付いたこれらの距離および角度は、図1CおよびTable 3(表3)における下付き文字の付いた距離および角度と同様の関係を有する。図1CおよびTable 3(表3)では、距離のいくつかは下付き文字「c」を有し、角度のいくつかは下付き文字「3」を有する。したがって、図1AおよびTable 1(表1)に関して上記において説明した距離および角度の関係を同様に使用して図1CおよびTable 3(表3)の距離および角度を算出することができる。
図1Cには、Table 3(表3)の角度および距離が示されている。中央カメラ112、第1のカメラ114a、および第2のカメラ116eが示されている。第2のカメラ116eの入射瞳は、距離154cおよび距離156cに応じて仮想入射瞳145からずれている。距離154cは、光軸113から第2のカメラ116eの入射瞳中心点までの座標位置を表し、座標系の方向および向きは図1Eに示されている。ここで、現在のカメラは第2のカメラ116eである。
距離長156cは、平面111から、第2のカメラ116eの入射瞳中心点を含み、平面111に平行な平面までの座標位置を表す。ここで、現在のカメラは第2のカメラ116eである。
残りの距離および角度は、Table 3(表3)に記載され、図1Cに示されている。Table 3(表3)に記載され図1Cに示されている距離および角度の関係は、Table 1(表1)に記載され図1Aに示されている距離および角度、ならびにTable 2(表2)に記載され図1Bに示されている距離および角度と相関付けることが可能である。
図1Dは、中央カメラ112と、第1のカメラ114eと、第2のカメラ116eと、第3のカメラ118eとを含むグローバルカメラ構成110dの一部の一実施形態の側面図を示す。この実施形態では、第3のカメラ118eが現在のカメラである。
上記の距離、角度、および数式は、図1A〜図1Cに関して上記において説明した同様の関係を有する。Table 4(表4)の入力のいくつかはTable 1(表1)〜Table 3(表3)の入力とは異なる。上記の距離、角度、および数式間の主な違いは、図1Aから識別される。図1AおよびTable 1(表1)では、距離のいくつかは下付き文字「a」を有し、角度のいくつかは下付き文字「1」を有する。Table 1(表1)における下付き文字付きの付いたこれらの距離および角度は、図1DおよびTable 4(表4)における下付き文字の付いた距離および角度と同様の関係を有する。図1DおよびTable 4(表4)では、距離のいくつかは下付き文字「d」を有し、角度のいくつかは下付き文字「4」を有する。したがって、図1AおよびTable 1(表1)に関して上記において説明した距離および角度の関係を同様に使用して図1DおよびTable 4(表4)の距離および角度を算出することができる。
図1Dには、Table 4(表4)の角度および距離が示されている。中央カメラ112、第1のカメラ114a、第2のカメラ116e、および第3のカメラ118eが示されている。第3のカメラ118eの入射瞳は、距離154dおよび距離156dに応じて仮想入射瞳145からずれている。距離長154dは、光軸113から第3のカメラ118eの入射瞳中心点までの座標位置を表し、距離154dは、光軸113に垂直に測定される。ここで、現在のカメラは第3のカメラ118eである。
距離長156dは、平面111から、第3のカメラ118eの入射瞳中心点を含み、平面111に平行な平面までの座標位置を表す。ここで、現在のカメラは第3のカメラ118eである。
残りの距離および角度は、Table 4(表4)に記載され、図1Dに示されている。Table 4(表4)に記載され図1Dに示されている距離および角度の関係は、Table 1(表1)に記載され図1A示されている距離および角度、Table 2(表2)に記載され図1Bに示されている距離および角度、ならびにTable 3(表3)に示され図1Cに示されている距離および角度と相関付けることが可能である。
次に、マルチカメラシステムを設計するための一方法について説明する。一手法では、図1Bに示すモデル、図1Eに示す凡例、およびTable 2(表2)に示す数式を使用してマルチカメラシステムを開発する。第1の決定のうちの1つでは、中央カメラ112を使用するかどうかを決定する。中央カメラ112を使用しない場合、半角視野f2を零に設定すべきである。次に、そのようなシステムを設計する人が留意する場合がある他の要件に基づいて半角視野h2が選択されてもよい。長さ152bは、マルチカメラシステムのサイズをスケーリングする。設計を開発する際の1つの目的は、使用される場合があるかまたは使用されるカメラのサイズを設計の最終構造に適合させることである。長さ152bは、マルチカメラシステムに使用される場合があるカメラおよびその他の構成要素を収容する適切な長さを見つけるための設計段階の間に変更することが可能である。152bの適切な値を選択する際に考慮すべき他の要件があってもよい。光方向転換反射鏡平面の角度k2は、長さ154bおよび156bならびに図1Eに示す凡例ならびにカメラ114eの光軸角度q2を使用してカメラ114eの入射瞳の位置を見つける目的に応じて変更することが可能である。システム内の各カメラからのすべての画像をマージすることによって取得することができる場合がある最も広いマルチカメラ画像が望まれる場合がある。そのような場合、各カメラをすべてのカメラの視野から外すことが望ましい。所望の合成画像視野が実現されるまで、他のカメラの画像をこの合成視野に入れないようにしつつ、152b、f2、h2、およびk2に関するそれぞれに異なる入力を試行することが必要になる場合がある。
Table 2(表2)および図1Bおよび図1Eに従って入力152b、f2、h2、およびk2によってマルチカメラシステムが指定された後、このマルチカメラシステムを第1カメラ段階と示すことができる。図1Bに示すモデルを再び使用することができるが、この場合、中央カメラ112に第1のカメラ段階が使用される。
次に、図1Bを再び使用し、第1のカメラ段階を中央カメラ112として使用することによって第2のカメラ段階を設計する。第2のカメラ段階用に選択される半角f2とともに作用する高さ152bを選択する必要がある。
この場合、第2の段階用に選択される半角視野f2は、第1のカメラ段階によって観測される実際の画像よりも程度が低くなる場合がある。f2にどんな値を選択するかは設計者の目的および目標に依存する。
f2の値が選択されていると仮定し、問題は、第2のカメラ段階の中央カメラとして第1のカメラ段階を含む第2のカメラ段階を構成する周囲のカメラのh2にどんな半角視野を選択すべきかである。すべてのカメラが互いに異なる半角視野を有することができるが、第2のカメラ段階のすべての周囲のカメラ114eが同じ半角視野h2を有すると仮定する。第2のカメラ段階の152bとして、第1のカメラ段階に適合する長さを選択し、カメラのすべてを互いの視野に入らないようにし、かつ各カメラを実現可能な構造内に配置するのを物理的に可能にする角度h2およびk2を選択することが望ましい。図1Aは、これらの目的について説明するのを助ける。Table 1(表1)〜Table 4(表4)の入力値152、f、h、およびkは、光方向転換反射鏡面136と後方非反射鏡面または後方最低反射面170cとの間の既知のサイズを有するカメラ114eに対して選択され、たとえば、カメラ114eは、設計の目的に基づいて表面170cと136との間に収まる必要がある場合がある。表面170cは、図1Aに示すように、カメラ114eによって観測される視野を制限する場合がある。カメラ114eの視野は、カメラ114eの視野の一部のみを占有する場合がある光方向転換反射鏡面134によってさらに制限されることがあり、たとえば、光方向転換反射鏡面134は、カメラ114eの視野の一部のみを覆う場合があるカメラ114eの視野内の物体と見なされることがある。第2のカメラ段階のカメラ116eは、その視野が非反射面または最低反射面170dおよび光方向転換反射鏡面136によって制限される場合がある。光方向転換反射鏡面は、追加の機能を果たし、光方向転換反射鏡面136の長さは、カメラ114eがカメラ1156eによって観測されない場合があるように延ばされてもよい。114eの画像を切り取ることができるのでカメラ114eが116eの画像に入るのを妨げる必要がない場合がある。カメラ114eの画像がカメラ116eの視野内に現れるのを妨げるのが望ましくなる場合がある他の要因が存在することがある。
第1のカメラ段階を含む第2のカメラ段階に関する設計が完了した後、図1BおよびTable 2(表2)を再び使用して第3のカメラ段階を設計することができ、その場合、第2のカメラ段階を図1Bに示すカメラ112の中央カメラとして使用し、第2のカメラ段階を設計するのに使用された手法を同様に繰り返す。
図1Aに示す実施形態では、光軸がマルチカメラシステム光軸113と一致し、前述の位置に光方向転換反射鏡面140が配置された第4のカメラ段階に関して単一のカメラ120が示されている。光方向転換反射鏡面140の位置および向きについてTable 1(表1)ならびに図1Bおよび図1Eに示すモデルを使用して説明する。
図1Aに示すカメラ120などの単一のカメラを使用する必要はない。カメラ120は、第1の段階のカメラおよび/または第2の段階、第3の段階、またはそれよりも上の段階などの第1の段階よりも上の段階に関して上記において説明したような多重カメラシステムによって構成されてもよい。
図1Aの代替実施形態において、概して第1のカメラ段階が見ている方向とは逆の方向を向くオブジェクト空間を見る複数のカメラを使用することが可能であってもよい。
カメラ段階は、第1のカメラ段階、第2のカメラ段階、第3のカメラ段階、および/もしくは第4のカメラ段階、ならびに/またはそれよりも上の段階よりも多くてもまたは少なくてもよい。より多いかまたはより少ないカメラ段階を使用することによって、広角カメラ、半球視野カメラ、またはたとえば、カメラ120などの後部カメラを利用しない場合がある半球よりも大きい超広角カメラを考案、設計、または構想することが可能である場合がある。実際の設計は、マルチカメラシステムを開発する間の選択に依存する。前述のように、任意のカメラが他のカメラのうちの任意のカメラと同じ視野を有することは必要とされない。すべての光方向転換反射鏡面が、その光方向転換反射鏡面を見る最も近いカメラに対して同じ形状、サイズ、または向きを有する必要はない。視差を有しないかまたは視差を事実上有しない画像を取り込むことができるシステムとして説明したマルチカメラシステムを有するうえですべてのカメラが隣接する画像の視野と完全に重なり合う必要もない。
モデル図1Bにおいて、光方向転換反射鏡面134と交差する光軸115が示されている。図1Bに示すようなマルチカメラシステムは、上述の交差点を平面状光方向転換反射鏡面134上の任意の位置に移動させた場合でも視差を有しないかまたは視差を事実上有しないことを示すことができる。上述のように、この交差点は、カメラ114eの光軸115がカメラ114eの仮想カメラの光軸と交差する点であり、平面状光方向転換反射鏡面134上に位置する。
視差を有しないかまたは視差を事実上有しないマルチカメラシステムにおいて、使用されるカメラの各々の視野を等しくする必要はない。
図1Bにおける光方向転換反射鏡面134が、平面ではないが全体的なカメラシステムの設計の一部である光を反射または屈折させることができるように、光方向転換反射鏡面が面134によって表される、視差を有しないかまたは視差を事実上有しないマルチカメラシステムを設計することが可能である場合もある。
図2Aは、中央カメラ212と、カメラ214a〜214hの第1の同心リングと、カメラ216a〜216hの第2の同心リングと、カメラ218a〜218hの第3同心リングと、後方カメラ(図示せず)とを含むグローバルカメラ構成210aの一部の一実施形態の正面図である。図を明快にするために、光方向転換反射鏡構成要素および事実上非反射性の表面は図示されていない。
それぞれの同心リング内のカメラの各々は、それぞれの同心リングに対する隣接するカメラの各々から45度の位置に配置される。たとえば、カメラ216aは、bカメラの平面およびaカメラの平面に対してカメラ216bから45度の位置に配置される。カメラ216aはさらに、hカメラの平面およびaカメラの平面に対してカメラ216hから45度の位置に配置される。
それぞれの同心リングに関するカメラの各々は、中央カメラ212から後方カメラまで延びる軸250から等距離である。たとえば、カメラ216a〜216hはすべて軸250から等距離である。
この実施形態では、後方カメラは、前方カメラの後方に位置しているので示されていない。さらに、カメラの位置は、各カメラの相対位置を示す例示的な目的のための位置である。各カメラを、図1A〜図1Dに関して上記において説明した構成に応じて視野を取り込むように傾斜させてもよい。
この図では、第1の同心リング、第2の同心リング、および第3の同心リングの各々は8つのカメラを有するように示されている。取り込まれるグローバル画像の品質を向上させるためにさらなるカメラを追加してもよい。取り込まれるグローバル画像の品質を向上させるためにさらなる同心リングを追加してもよい。
図2Bは、中央カメラ(図示せず)と、カメラ214a〜214h(214b〜214dは示されていない)の第1の同心リングと、カメラ216a〜216h(216b〜216dは示されていない)の第2の同心リングと、カメラ218a〜218h(218b〜218dは示されていない)の第3同心リングと、後方カメラ220とを含むグローバルカメラ構成210bの一部の一実施形態の側面図である。
それぞれの同心リング内のカメラの各々は、それぞれの同心リングに対して同じ平面内に位置する。たとえば、カメラ216a〜216hは平面276に沿って位置する。同様に、カメラ214a〜214hは平面274に沿って位置し、カメラ218a〜218hは平面278に沿って位置する。後方カメラ220は平面280に沿って位置する。この例示的な実施形態では、平面274、276、278、280は互いに平行であるかまたは実質的に平行である。軸250は、中央カメラの光軸と同じ仮想軸である後方カメラ220の光軸を示す。
この実施形態では、カメラの位置は、各カメラの相対位置を示す例示的な目的のための位置である。各カメラを、図1A〜図1Dに関して上記において説明した構成に応じて視野を取り込むように傾斜させてもよい。
この図では、第1の同心リング、第2の同心リング、および第3の同心リングの各々は、8つのカメラを有するように示されている(各同心リングのカメラb〜dは、それぞれの同心リングのカメラの後方に隠れている)。取り込まれるグローバル画像の品質を向上させるためにさらなるカメラを追加してもよい。取り込まれるグローバル画像の品質を向上させるためにさらなる同心リングを追加してもよい。
図2Cは、中央カメラ(図示せず)と、カメラ214a〜214h(214b〜214dは示されていない)の第1の同心リングと、カメラ216a〜216h(216b〜216dは示されていない)の第2の同心リングと、カメラ218a〜218h(218b〜218dは示されていない)の第3同心リングと、後方カメラ220とを含むグローバルカメラ構成210bの一部の一実施形態の側面図である。
図2Cは、図2Cが平面278に沿って配置された同心リングに対して異なる位置に後方カメラ220を示すことを除いて図2Bと同様である。後方カメラ220の位置は、後方カメラ220が平面274、276、278に沿った他の同心リングに対して様々な位置に配置できることを示すのに使用される。しかし、視差を有しないかまたは視差を実質的に有しないグローバルカメラシステムを維持するために、後方カメラ220は、他のカメラと同じ仮想入射瞳位置からの仮想視野を有するべきである。仮想視野は、様々な実装形態によって実現することができる。たとえば、一実装形態は、後方カメラ220を、他のカメラと同じ仮想入射瞳位置からの仮想視野を有するカメラのアレイとすることを含む。このタイプのカメラについて、図3に関してさらに詳細に説明する。
実現される場合がある後方カメラ220の別の例では、図2Bの後方カメラ220を中央カメラの逆方向を向くように回転させる。この実装形態では、後方カメラは、他のカメラと同じ仮想入射瞳位置からの仮想視野を有しない。したがって、この実装形態は、上述の実施形態のように視差を有しないかまたは視差を事実上有しないとは限らない。
この実施形態では、カメラの位置は、各カメラの相対位置を示す例示的な目的のための位置である。各カメラを、図1A〜図1Dに関して上記において説明した構成に応じて視野を取り込むように傾斜させてもよい。
この図では、第1の同心リング、第2の同心リング、および第3の同心リングの各々は、8つのカメラを有するように示されている(各同心リングのカメラb〜dは、それぞれの同心リングのカメラの後方に隠れている)。さらなるカメラを追加してもよく、またはカメラの数を少なくしてもよい。さらなる同心リングを追加してもよく、または同心リングの数を少なくしてもよい。
図3は、屈曲光学マルチセンサーアセンブリ310の一実施形態の側断面図である。屈曲光学マルチセンサーアセンブリ310は、特にオートフォーカスシステムおよび技法とともに使用するのに適している。屈曲光学マルチセンサーアセンブリ310は、すべてが基板336に取り付けられて(または接続されて)もよい画像センサー332、334と反射性2次光屈曲面328、330とレンズアセンブリ324、326と中央反射要素316とを含む。
画像センサー332、334は、いくつかの実施形態では、電荷結合デバイス(CCD)、相補型金属酸化物半導体(CMOS)、または光を受け取って受け取られた画像に応答して画像データを生成する任意の他の画像感知デバイスを含んでもよい。各センサー332、334は、アレイ状に配置された複数のセンサー(またはセンサー要素)を含んでもよい。画像センサー332、334は、スチール写真に関する画像データを生成することができ、取り込まれたビデオストリームに関する画像データを生成することもできる。センサー332および334は、個々のセンサーアレイであってもよく、または各センサーがセンサーアレイのアレイ、たとえば、センサーアレイの3×1アレイに相当してもよい。しかし、当業者には理解されるように、開示される実装形態ではセンサーの任意の適切なアレイが使用されてもよい。
センサー332、334は、図3に示すように基板336上に取り付けられてもよい。いくつかの実施形態では、すべてのセンサーが平坦な基板336に取り付けられることによって1つの平面上に位置してもよい。基板336は、実質的に平坦な任意の適切な材料であってもよい。中央反射要素316およびレンズアセンブリ324、326も基板336上に取り付けられてもよい。センサーアレイ、複数のレンズアセンブリ、および複数の1次および2次反射面または屈折面を取り付けるための複数の構成が可能である。
いくつかの実施形態では、ターゲット画像シーンからの光の方向をセンサー332、334の方へ変えるのに中央反射要素316が使用されてもよい。中央反射要素316は、反射面(たとえば、鏡)であってもまたは複数の反射面(たとえば、鏡)であってもよく、平坦であってもまたは入射光の方向を適切に画像センサー332、334の方へ変える必要に応じた形状であってもよい。たとえば、いくつかの実施形態では、中央反射要素316は入射光線をレンズアセンブリ324、326を通してセンサー332、334に反射するようなサイズおよび形状を有する鏡であってもよい。中央反射要素316は、ターゲット画像を含む光を複数の部分に分割して、各部分を異なるセンサーに向けてもよい。たとえば、中央反射要素316の第1の反射面312(他の実施形態では反射面ではなく屈折プリズムを実装する場合があるので1次光屈折面とも呼ばれる)は、第1の視野320に対応する光の部分を第1の(左側)センサー332の方へ送り、一方、第2の反射面314は、第2の視野322に対応する光の第2の部分を第2の(右側)センサー334の方へ送る。画像センサー332、334の視野320、322が集合的に少なくともターゲット画像を覆うことを諒解されたい。
光を受け取るセンサーの各々が複数のセンサーのアレイであるいくつかの実施形態では、中央反射要素は、ターゲット画像シーンの異なる部分をセンサーの各々の方へ送るために互いに対して傾斜して配置された複数の反射面によって構成されてもよい。アレイ内の各センサーは、実質的に異なる視野を有してもよく、いくつかの実施形態では、視野が重なり合ってもよい。中央反射要素のいくつかの実施形態は、レンズシステムを設計する際に自由度を高めるように複合非平面状表面を有してもよい。さらに、中央要素については反射面として説明したが、他の実施形態では、中央要素は屈折性の要素であってもよい。たとえば、中央要素は、複数のファセットを有するように構成されたプリズムであってもよく、その場合、各ファセットは、シーンを含む光の部分をセンサーのうちの1つの方へ向ける。
入射光の少なくとも一部は、中央反射要素316から反射された後、レンズアセンブリ324、326の各々を通って伝搬してもよい。1つまたは複数のレンズアセンブリ324、326が中央反射要素316とセンサー332、334および反射面328、330との間に設けられてもよい。レンズアセンブリ324、326は、各センサー332、334の方へ向けられるターゲット画像の部分を合焦させるのに使用されてもよい。
いくつかの実施形態では、各レンズアセンブリは、1つまたは複数のレンズと、レンズを複数の異なるレンズ位置の間で移動させるためのアクチュエータとを備えてもよい。アクチュエータは、ボイスコイルモータ(VCM)、微小電子機械システム(MEMS)、または形状記憶合金(SMA)であってもよい。レンズアセンブリは、アクチュエータを制御するためのレンズドライバをさらに備えてもよい。
いくつかの実施形態では、各カメラのレンズ324、326と対応するセンサー332、334との間の焦点距離を変更することによって従来のオートフォーカス技法が実施されてもよい。いくつかの実施形態では、これはレンズバレルを移動させることによって実現されてもよい。他の実施形態では、中央光方向転換反射鏡面を上下に移動させるかまたは光方向転換反射鏡面の角度をレンズアセンブリに対して調整することによって焦点を調整してもよい。いくつかの実施形態では、側方光方向転換反射鏡面を各センサーの上方を移動させることによって焦点を調整してもよい。そのような実施形態は、アセンブリが各センサーの焦点を個別に調整するのを可能にする。さらに、いくつかの実施形態では、たとえば、液体レンズのようなレンズをアセンブリ全体の上方に配置することによってアセンブリ全体の焦点を一度に変更することが可能である。いくつかの実装形態では、コンピュテーショナルフォトグラフィを使用してカメラアレイの焦点を変更してもよい。
視野320、322によって、屈曲光学マルチセンサーアセンブリ310において、仮想軸338、340によって仮想視野が画定される仮想領域342から知覚される仮想視野が形成される。仮想領域342は、センサー332、334がターゲット画像の入射光を知覚しこの入射光に感応する領域である。仮想視野は、実際の視野と対照をなすべきである。実際の視野は、検出器が入射光に感応する角度である。実際の視野は、仮想視野が、入射光が実際に到達することのない知覚される角度であるという点で仮想視野とは異なる。たとえば、図3では、入射光は、反射面312、314から反射されるので仮想領域342に達することがない。
複数の側方反射面、たとえば、反射面328および330を中央反射要素316の周りのセンサーの反対側に設けることができる。側方反射面328、330(他の実施形態では反射面ではなく屈折プリズムを実装する場合があるので2次光屈折面とも呼ばれる)は、レンズアセンブリを通過した後、光を(図3に示す向きでは下向きに)センサー332、334上に反射する。図示のように、センサー332は反射面328の下方に位置付けられてもよく、センサー334は反射面330の下方に位置付けられてもよい。しかし、他の実施形態では、センサーは側方反射面の上方に位置してもよく、側方反射面は光を上向きに反射するように構成されてもよい。各レンズアセンブリからの光の方向がセンサーの方へ変えられる側方反射面およびセンサーの他の適切な構成が可能である。いくつかの実施形態は、側方反射面328、330の移動を可能にして関連するセンサーの焦点または視野を変更してもよい。
各センサーの視野320、322は、そのセンサーに関連する中央反射要素316の表面によってオブジェクト空間内に向けられてもよい。各カメラの視野をオブジェクトフィールド上のそれぞれに異なる位置に向けることができるように鏡を傾けることおよび/またはアレイ内のプリズムを移動させることを行うのに機械的な方法を使用してもよい。このことを使用して、たとえば、ハイダイナミックレンジカメラを実現するか、カメラシステムの解像度を高めるか、またはプレノプティックカメラシステムを実現してもよい。各センサーの(または各3×1アレイの)視野をオブジェクト空間内に投影してもよく、各センサーが、そのセンサーの視野に応じたターゲットシーンの部分を含む部分的画像を取り込んでもよい。図3に示すように、いくつかの実施形態では、互いに向かい合うセンサーアレイ332、334に関する視野320、322がある量318だけ重なり合ってもよい。重なり合い318を低減させ単一の画像を形成するために、後述のようなステッチプロセスを使用して互いに向かい合う2つのセンサーアレイ332、334からの画像を組み合わせてもよい。ステッチプロセスのいくつかの実施形態では、重なり合い318を使用して部分画像同士をステッチする際に共通のフィーチャを識別してもよい。重なり合った画像をステッチした後、ステッチされた画像を所望の縦横比、たとえば4:3または1:1に切り取って最終的な画像を形成してもよい。いくつかの実施形態では、各FOVに関する光学素子の配列が重なり合い318を最低限に抑えるように配置され、それによって、画像を連結する際に必要とされる画像処理が最低限に抑えられるかまたは完全になくなるように複数の画像が単一の画像として形成される。
図3に示すように、屈曲光学マルチセンサーアセンブリ310は総高さ346を有する。いくつかの実施形態では、総高さ346は約4.5mm以下であってもよい。他の実施形態では、総高さ346は約4.0mm以下であってもよい。図示していないが、屈曲光学マルチセンサーアセンブリ310全体が、対応する内部高さが約4.5mm以下または約4.0mm以下のハウジング内に設けられてもよい。
本明細書で使用する「カメラ」という用語は、画像センサー、レンズシステム、およびいくつかの対応する光屈曲面を指す場合があり、たとえば、1次光屈曲面314、レンズアセンブリ326、2次光屈曲面330、およびセンサー334が図3に示されている。屈曲光学マルチセンサーアセンブリは、「アレイ」または「アレイカメラ」と呼ばれ、様々な構成において複数のそのようなカメラを含んでもよい。アレイ構成のいくつかの実施形態が、開示が参照により本明細書に組み込まれる、2013年3月15日に出願され「MULTI-CAMERA SYSTEM USING FOLDED OPTICS」という名称を有する米国出願公開第2014/0111650号に開示されている。本明細書において説明するオートフォーカスシステムおよび技法が有効である他のアレイカメラ構成が考えられる。
図4は、1つまたは複数のカメラ420a〜420nに連結された画像プロセッサ426を含む構成要素のセットを有するデバイス410のハイレベルブロック図を示す。画像プロセッサ426はまた、作業メモリ428、メモリ構成要素412、およびデバイスプロセッサ430と通信し、デバイスプロセッサ430は次いでストレージ434および電子ディスプレイ432と通信する。
デバイス410は、セルフォン、デジタルカメラ、タブレットコンピュータ、携帯情報端末などであってもよい。本明細書において説明するような薄型撮像システムが有効である多数のポータブルコンピューティングデバイスがある。デバイス410は、固定コンピューティングデバイスまたは薄型撮像システムが有効である任意のデバイスであってもよい。デバイス410のユーザには複数のアプリケーションが利用可能であってもよい。これらのアプリケーションは、従来の写真アプリケーションおよびビデオアプリケーション、ハイダイナミックレンジ撮像、パノラマ写真およびビデオ、または3S画像もしくは3Dビデオなどの立体撮像を含んでもよい。
画像取込みデバイス410は、外部画像を取り込むためのカメラ420a〜420nを含む。カメラ420a〜420nの各々は、図3に関して上記において説明したように、センサーと、レンズアセンブリと、ターゲット画像の一部を各センサーに反射するための1次および2次反射鏡面または屈折鏡面とを備えてもよい。一般に、N個のカメラ420a〜420nが使用されてもよく、この場合、N≧2である。したがって、ターゲット画像はN個の部分に分割されてもよく、その場合、N個のカメラの各センサーがそのセンサーの視野に応じてターゲット画像の一部を取り込む。カメラ420a〜420nが、本明細書において説明する屈曲光学撮像デバイスの実装形態に適した任意の数のカメラを備えてもよいことを理解されたい。センサーの数は、システムのz高さを低くするように増やしてもよく、あるいは後処理後に画像の焦点を調整するのを可能にする場合がある、プレノプティックカメラの重なり視野と同様の重なり視野を有することなどの他の目的の要件を満たすように増やしてもよい。他の実施形態は、2つの同時画像を取り込み、次いでそれらの画像をマージすることを可能にするハイダイナミックレンジカメラに適した視野重なり構成を有してもよい。カメラ420a〜420nは、取り込まれた画像を作業メモリ428、デバイスプロセッサ430、電子ディスプレイ432、およびストレージ(メモリ)434に伝達するように画像プロセッサ426に結合されてもよい。
画像プロセッサ426は、以下により詳細に説明するようにステッチされた高品質画像を出力するためにターゲット画像のN個の部分を含む受け取られた画像データに対して様々な処理演算を実行するように構成されてもよい。画像プロセッサ426は、汎用処理ユニットであっても、または撮像アプリケーション向けに特別に設計されたプロセッサであってもよい。画像処理演算の例には、クロッピング、(たとえば、異なる解像度への)スケーリング、画像ステッチング、画像フォーマット変換、色補間、色処理、画像フィルタリング(たとえば、空間画像フィルタリング)、レンズアーティファクトまたは欠陥補正などが含まれる。画像プロセッサ426は、いくつかの実施形態では、複数のプロセッサを備えてもよい。いくつかの実施形態は、各画像センサー専用のプロセッサを有してもよい。画像プロセッサ426は、1つもしくは複数の専用画像信号プロセッサ(ISP)であってもまたはプロセッサのソフトウェア実装形態であってもよい。
図示するように、プロセッサ426は、メモリ412および作業メモリ428に接続される。図示の実施形態では、メモリ412は、画像取込み制御モジュール414、画像ステッチングモジュール416、オペレーティングシステム418、および反射器制御モジュール419を記憶する。これらのモジュールは、様々な画像処理およびデバイス管理タスクを実行するようにデバイスプロセッサ430の画像プロセッサ426を構成する命令を含む。作業メモリ428は、メモリ構成要素412のモジュール内に含まれるプロセッサ命令の作業セットを記憶するために画像プロセッサ426によって使用されてもよい。代替的に、作業メモリ428は、デバイス410の動作中に生成された動的なデータを記憶するために画像プロセッサ426によって使用される場合もある。
上述のように、画像プロセッサ426は、メモリに記憶されたいくつかのモジュールによって構成される。取込み制御モジュール414は、反射器制御モジュール419を呼び出してカメラの拡張可能な反射器を第1または第2の位置に位置付けるように画像プロセッサ426を構成する命令を含んでもよく、カメラ420a〜420nの焦点位置を調整するように画像プロセッサ426を構成する命令を含んでもよい。取込み制御モジュール414は、デバイス410の画像取込み機能全体を制御する命令をさらに含んでもよい。たとえば、取込み制御モジュール414は、カメラ420a〜420nを使用してターゲット画像シーンの生画像データを取り込むように画像プロセッサ426を構成するためのサブルーチンを呼び出す命令を含んでもよい。取込み制御モジュール414は次いで、画像ステッチングモジュール416を呼び出して、カメラ420a〜420nによって取り込まれたN個の部分画像に対してステッチング技法を実行し、ステッチされ切り取られたターゲット画像を画像プロセッサ426に出力してもよい。取込み制御モジュール414は、画像ステッチングモジュール416を呼び出して生画像データに対してステッチング動作を実行し、取り込むべきシーンのプレビュー画像を出力し、プレビュー画像を特定の時間間隔でまたは生画像データ内のシーンが変化したときにプレビュー画像を更新してもよい。
画像ステッチングモジュール416は、取り込まれた画像データに対してステッチング技法およびクロッピング技法を実行するように画像プロセッサ426を構成する命令を含んでもよい。たとえば、N個のセンサー420a〜420nの各々が、各センサーの視野に応じてターゲット画像の一部を含む部分画像を取り込んでもよい。視野は、上記および下記において説明するように重なり合う領域を共有してもよい。画像ステッチングモジュール416は、単一のターゲット画像を出力するために、複数のN個の部分画像を組み合わせて高解像度ターゲット画像を生成するように画像プロセッサ426を構成してもよい。ターゲット画像の生成は、公知の画像ステッチング技法によって行われてもよい。画像ステッチングの例は、参照により本明細書に組み込まれる米国特許出願第11/623050号に記載されている。
たとえば、画像ステッチングモジュール416は、N個の部分画像の互いに対する回転および配列を決定するためにN個の部分画像の縁に沿って重なり領域をフィーチャの一致に関して比較するための命令を含んでもよい。部分画像の回転および/または各センサーの視野の形状に起因して、合成された画像は不規則形状を形成する場合がある。したがって、画像ステッチングモジュール416は、N個の部分画像を位置合わせして合成した後、合成された画像を所望の形状および縦横比、たとえば、4:3の矩形または1:1の方形に切り取るように画像プロセッサ426を構成するサブルーチンを呼び出してもよい。切り取られた画像は、ディスプレイ432上に表示できるようにまたはストレージ434に保存できるようにデバイスプロセッサ430に送られてもよい。
オペレーティングシステムモジュール418は、デバイス410の作業メモリ428および処理リソースを管理するように画像プロセッサ426を構成する。たとえば、オペレーティングシステムモジュール418は、カメラ420a〜420nなどのハードウェアリソースを管理するためのデバイスドライバを含んでもよい。したがって、いくつかの実施形態では、上述の画像処理モジュールに含まれる命令がこれらのハードウェアリソースと直接相互作用せず、その代わり、オペレーティングシステム構成要素418に位置する標準的なサブルーチンまたはAPIを通じて相互作用する場合がある。その場合、オペレーティングシステム418内の命令は、これらのハードウェア構成要素と直接相互作用してもよい。オペレーティングシステムモジュール418は、デバイスプロセッサ430と情報を共有するように画像プロセッサ426をさらに構成してもよい。
画像プロセッサ426は、たとえば、タッチセンシティブディスプレイ432を使用して、デバイス410のユーザが標準的なFOV画像または広角FOV画像のいずれかに対応する画像取込みモードを選択するのを可能にすることによって、ユーザに対する画像取込みモード選択制御を実現することができる。
デバイスプロセッサ430は、取り込まれた画像または取り込まれた画像のプレビューをユーザに対して表示するようにディスプレイ432を制御するように構成されてもよい。ディスプレイ432は、撮像デバイス410の外部に位置しても、または撮像デバイス410の一部であってもよい。ディスプレイ432は、画像を取り込む前に使用できるようにプレビュー画像を表示するビューファインダーを実現するように構成されてもよく、またはメモリに記憶されている取り込まれた画像もしくはユーザによって最近取り込まれた画像を表示するように構成されてもよい。ディスプレイ432は、LCDスクリーンまたはLEDスクリーンを備えてもよく、タッチセンシティブ技法を実施してもよい。
デバイスプロセッサ430は、データ、たとえば、取り込まれた画像を表すデータをストレージモジュール434に書き込んでもよい。ストレージモジュール434は、従来のディスクデバイスとして図示されているが、当業者には、ストレージモジュール434が任意の記憶媒体デバイスとして構成されてもよいことが理解されよう。たとえば、ストレージモジュール434は、フロッピーディスクドライブ、ハードディスクドライブ、光ディスクドライブ、または光磁気ディスクドライブなどのディスクドライブ、またはFLASHメモリ、RAM、ROM、および/またはEEPROMなどの固体メモリを含んでもよい。ストレージモジュール434は、複数のメモリユニットを含んでもよく、メモリユニットのうちの任意の1つは、画像取込みデバイス410内に位置するように構成されてもよく、または画像取込みデバイス410の外部に位置してもよい。たとえば、ストレージモジュール434は、画像取込みデバイス410内に記憶されたシステムプログラム命令を含むROMメモリを含んでもよい。ストレージモジュール434は、カメラから取外し可能であってもよい、取り込まれた画像を記憶するように構成されたメモリカードまたは高速メモリを含んでもよい。
図4は、プロセッサ、撮像デバイス、およびメモリを含むために別個の構成要素を備えるデバイスを示しているが、当業者には、これらの別個の構成要素が、特定の設計目的を達成するように様々な方法で組み合わされてもよいことが認識されよう。たとえば、代替実施形態では、メモリ構成要素は、コストを節約し性能を改善するためにプロセッサ構成要素と組み合わされてもよい。さらに、図4は、いくつかのモジュールを備えるメモリ構成要素412と、作業メモリを備える別個のメモリ428とを含む2つのメモリ構成要素を示しているが、当業者には、異なるメモリアーキテクチャを利用するいくつかの実施形態が認識されよう。たとえば、ある設計は、メモリ構成要素412に含まれるモジュールを実施するプロセッサ命令の記憶のためにROMまたはスタティックRAMメモリを利用してもよい。プロセッサ命令は、画像プロセッサ426による実行を容易にするためにRAMにロードされてもよい。たとえば、作業メモリ428は、命令がプロセッサ426によって実行される前に作業メモリ428にロードされる、RAMメモリを備えてもよい。
図5は、ターゲット画像を取り込む方法500の一例のブロックを示す。球形の視野(FOV)を示す画像を生成する方法500はいくつかのブロックを含む。
ブロック505において、前方カメラの投影光軸の周りの第1のFOVにおける画像を取り込むように位置付けられた前方カメラにおいて前方画像が生成される。前方カメラの投影光軸は第1の方向に位置付けられる。
ブロック510において、前方カメラと後方カメラとの間に配設された後方方向転換反射鏡構成要素によって方向を変えられた光を受け取るように位置付けられた後方カメラにおいて後方画像が生成される。後方カメラは、第2のFOVにおける画像を取り込むように位置付けられる。
ブロック515において、前方カメラと後方カメラとの間に多角形構成に配設された第1のカメラのセットにおいて第1の画像が生成される。第1のカメラは、第3のFOVにおける画像を取り込むように集合的に構成される。第3のFOVは、円形であり、第1のカメラから外側に離れる方向に投影される。第3のFOVの少なくとも一部は、第1のFOVと第2のFOVとの間に位置付けられる。
ブロック520において、第1のカメラと後方カメラとの間に多角形構成に配設された第2のカメラのセットにおいて第2の画像が生成される。第2のカメラは、第4のFOVにおける画像を取り込むように集合的に構成される。第4のFOVは、円形であり、第2のカメラから外側に離れる方向に投影される。第4のFOVの少なくとも一部は、第3のFOVと第2のFOVとの間に位置付けられる。
ブロック525において、第2のカメラと後方カメラとの間に多角形構成に配設され、第5のFOVにおける画像を取り込むように集合的に構成された第3のカメラのセットにおいて第3の画像が生成される。第5のFOVは、円形であり、第3のカメラから外側に離れる方向に投影される。第5のFOVの少なくとも一部は、第4のFOVと第2のFOVとの間に位置付けられる。
ブロック530において、前方画像、後方画像、第1の画像、第2の画像、および第3の画像が、少なくとも1つのプロセッサにおいて受け取られる。前方画像、後方画像、第1の画像、第2の画像、および第3の画像の少なくとも一部を含むモザイク処理された画像が、少なくとも1つのプロセッサによって生成される。モザイク処理された画像は、球形の画像内の視点から見た球形の画像を示すように生成される。モザイク処理された画像を生成することは、前方画像、後方画像、第1の画像、第2の画像、および第3の画像の少なくとも一部をステッチすることを含む。
第1、第2、第3、第4、および第5のFOVは少なくとも部分的に重なり合う。第1のカメラのセット、第2のカメラのセット、および第3のカメラのセットが、3つの同心リングを形成するように配置される。後方カメラは、屈曲光学マルチセンサーアセンブリである。
本明細書において開示する実装形態は、視差およびチルトアーティファクトを有しない多重開口アレイカメラのためのシステム、方法、および装置を提供する。当業者には、これらの実施形態が、ハードウェア、ソフトウェア、ファームウェア、またはそれらの任意の組合せで実装されてもよいことを諒解されるであろう。
いくつかの実施形態では、上述の回路、プロセス、およびシステムはワイヤレス通信デバイスにおいて利用される。ワイヤレス通信デバイスは、他の電子デバイスとワイヤレスに通信するのに使用される一種の電子デバイスであってもよい。ワイヤレス通信デバイスの例には、セルラー電話、スマートフォン、携帯情報端末(PDA)、電子リーダー、ゲームシステム、音楽プレーヤ、ネットブック、ワイヤレスモデム、ラップトップコンピュータ、タブレットデバイスなどが含まれる。
ワイヤレス通信デバイスは、1つまたは複数の画像センサーと、2つ以上の画像信号プロセッサと、上述のCNRプロセスを実行するための命令またはモジュールを含むメモリとを含んでもよい。このデバイスはまた、データと、メモリから命令および/またはデータをロードするプロセッサと、1つまたは複数の通信インターフェースと、1つまたは複数の入力デバイスと、ディスプレイデバイスなどの1つまたは複数の出力デバイスと、電源/インターフェースとを有してもよい。ワイヤレス通信デバイスは、トランスミッタとレシーバとをさらに含んでもよい。トランスミッタおよびレシーバはまとめて、トランシーバと呼ばれる場合がある。トランシーバは、ワイヤレス信号の送信および/または受信を行う1つまたは複数のアンテナに結合されてもよい。
ワイヤレス通信デバイスは、別の電子デバイス(たとえば、基地局)にワイヤレスに接続されてもよい。ワイヤレス通信デバイスは代替的に、モバイルデバイス、移動局、加入者局、ユーザ機器(UE)、遠隔局、アクセス端末、モバイル端末、端末、ユーザ端末、加入者ユニットなどと呼ばれる場合がある。ワイヤレス通信デバイスの例には、ラップトップコンピュータまたはデスクトップコンピュータ、セルラーフォン、スマートフォン、ワイヤレスモデム、電子リーダー、タブレットデバイス、ゲームシステムなどが含まれる。ワイヤレス通信デバイスは、第3世代パートナーシッププロジェクト(3GPP)などの1つまたは複数の業界規格に従って動作してもよい。したがって、「ワイヤレス通信デバイス」という一般的な用語は、業界規格(たとえば、アクセス端末、ユーザ機器(UE)、遠隔端末など)に従った様々な名称によって示されるワイヤレス通信デバイスを含んでもよい。
本明細書で説明された機能は、プロセッサ可読媒体上またはコンピュータ可読媒体上に1つまたは複数の命令として記憶されてもよい。「コンピュータ可読媒体」という用語は、コンピュータまたはプロセッサによってアクセスされ得る任意の利用可能な媒体を指す。限定ではなく、例として、そのような媒体は、RAM、ROM、EEPROM、フラッシュメモリ、CD-ROMもしくは他の光ディスクストレージ、磁気ディスクストレージデバイスもしくは他の磁気ストレージデバイス、または所望のプログラムコードを命令またはデータ構造の形で記憶するために使用可能であり、かつコンピュータによってアクセス可能な任意の他の媒体を含み得る。本明細書で使用するディスク(disk)およびディスク(disc)は、コンパクトディスク(disc)(CD)、レーザディスク(disc)、光ディスク(disc)、デジタル多用途ディスク(disc)(DVD)、フロッピーディスク(disk)およびブルーレイ(登録商標)ディスク(disc)を含み、ディスク(disk)は、通常、データを磁気的に再生し、ディスク(disc)は、データをレーザで光学的に再生する。コンピュータ可読媒体は、有形および非一時的であり得ることに留意されたい。「コンピュータプログラム製品」という用語は、コンピューティングデバイスまたはプロセッサによって実行され、処理され、または計算されてもよい、コードまたは命令(たとえば、「プログラム」)と組み合わされたコンピューティングデバイスまたはプロセッサを指す。本明細書で使用される場合、「コード」という用語は、コンピューティングデバイスまたはプロセッサによって実行可能な、ソフトウェア、命令、コード、またはデータを指すことがある。
本明細書で開示した方法は、説明した方法を達成するための1つまたは複数のステップまたは動作を含む。方法ステップおよび/または動作は、特許請求の範囲を逸脱することなく互いに交換されてもよい。言い換えれば、説明している方法を適切に動作させるうえでステップまたはアクションの特定の順序が必要とされない限り、特定のステップおよび/またはアクションの順序および/または使用は、特許請求の範囲から逸脱することなく修正されてもよい。
「結合」、「結合する」、「結合される」という用語、またはこの語の組の他の変形形態は、本明細書で使用される場合、間接的な接続または直接的な接続を示す場合があることに留意されたい。たとえば、第1の構成要素が第2の構成要素と「結合される」場合、第1の構成要素は、第2の構成要素に間接的に接続されてもよく、または第2の構成要素に直接的に接続されてもよい。本明細書で使用する「複数の」という用語は2つ以上を示す。たとえば、複数の構成要素は2つ以上の構成を示す。
「決定すること」という用語は、幅広い動作を包含し、したがって、「決定すること」は、計算すること、演算すること、処理すること、導出すること、調査すること、探索すること(たとえば、表、データベース、または他のデータ構造の中を探索すること)、確認することなどを含んでもよい。また、「決定すること」は、受信すること(たとえば、情報を受信すること)、アクセスすること(たとえば、メモリ内のデータにアクセスすること)などを含んでもよい。また、「決定/判定すること」は、解決すること、選択すること、選ぶこと、確立することなどを含むことができる。
「〜に基づいて」という句は、別段に明記されていない限り、「〜のみに基づいて」ということを意味しない。言い換えれば、「〜に基づいて」という句は、「〜のみに基づいて」と「少なくとも〜に基づいて」の両方を表す。
以下の説明では、実施例を完全に理解できるように、具体的に詳細に説明する。しかしながら、実施例がこれらの具体的な詳細なしに実施されてもよいことが当業者には理解されよう。たとえば、不必要な詳細で実施例を不明瞭にしないために、電気の構成要素/デバイスがブロック図で示される場合がある。他の事例では、実施例をさらに説明するために、そのような構成要素、他の構造および技法が詳細に示される場合がある。
本明細書では、見出しは、参照のために、および様々なセクションを配置するのを助けるために含まれる。これらの見出しは、それに関して説明した概念の範囲を限定することを意図するものではない。そのような概念は明細書全体を通して適用される場合がある。
実施例については、フローチャート、流れ図、有限状態図、構造図、またはブロック図として示されるプロセスとして説明する場合がある点に留意されたい。フローチャートについては、動作を順次プロセスとして説明する場合があるが、動作の多くは並列、または同時に実行することができ、プロセスを繰り返すことが可能である。また、動作の順序は並べ替えられてもよい。プロセスは、その動作が完了したとき、終了する。プロセスは、方法、関数、プロシージャ、サブルーチン、サブプログラムなどに相当する場合がある。プロセスがソフトウェアの関数に対応する場合、その終了は、呼出し関数またはメイン関数への関数のリターンに対応する。
開示された実装形態の前述の説明は、任意の当業者が本発明を作成または使用することを可能にするために提供される。これらの実装形態への様々な修正が当業者には容易に明らかになり、本明細書に定義する一般原理は、本発明の趣旨または範囲を逸脱することなしに他の実装形態に適用されてもよい。したがって、本発明は、本明細書に示される実装形態に限定されることを意図するものではなく、本明細書に開示される原理および新規な特徴と一致する最も広い範囲を与えられるべきである。
14 入射瞳
15 短い棒
19 光軸
20 カメラ
110a グローバル構成
110b グローバルカメラ構成
110c グローバルカメラ構成
110d グローバルカメラ構成
111 仮想入射瞳
112 中央カメラ
113 マルチカメラシステム光軸
114e 第1のカメラ
115 光軸
116e 第2のカメラ
117 光軸
118e 第3のカメラ
119 光軸
120 後方カメラ
121 光軸
134 光方向転換反射鏡面
136 光方向転換反射鏡面
140 後方方向転換反射鏡構成要素
145 仮想入射瞳
152 入力値
152b 長さ
154b 長さ
160a 線
160b 長さ
170a 線
170d 表面
192 平面
210a グローバルカメラ構成
210b グローバルカメラ構成
212 中央カメラ
216b カメラ
216h カメラ
220 後方カメラ
250 軸
274 平面
278 平面
310 屈曲光学マルチセンサーアセンブリ
312 反射面
314 反射面
316 中央反射要素
318 ある量
320 視野
324 レンズアセンブリ
328 側方反射面
332 センサーアレイ
336 基板
338 仮想軸
342 仮想領域
346 全高さ
410 デバイス
412 メモリ構成要素
414 取込み制御モジュール
416 画像ステッチングモジュール
426 画像プロセッサ
430 デバイスプロセッサ
432 電子ディスプレイ
434 ストレージ

Claims (30)

  1. 集合的に球形の画像を示す複数の画像を取り込むための撮像システムであって、
    前方カメラの投影光軸の周りの第1の視野(FOV)における画像を取り込むように位置付けられた前方カメラであって、前記前方カメラの前記投影光軸が第1の方向に位置する前方カメラと、
    前記前方カメラと後方カメラとの間に配設された後方方向転換反射鏡構成要素によって方向を変えられた光を受け取るように位置付けられた後方カメラであって、前記後方カメラの投影光軸の周りの第2のFOVにおける画像を取り込むように位置付けられ、前記後方カメラの前記投影光軸が前記第1の方向に位置する後方カメラと、
    前記前方カメラと前記後方カメラとの間に多角形構成に配設された第1のカメラのセットであって、前記第1のカメラが、第3のFOVにおける画像を取り込むように集合的に構成され、前記FOVが、円形であり、前記第1のカメラから外側に離れる方向に投影され、前記第3のFOVの少なくとも一部が前記第1のFOVと前記第2のFOVとの間に位置する第1のカメラのセットと、
    前記第1のカメラと前記後方カメラとの間に多角形構成に配設された第2のカメラのセットであって、前記第2のカメラが、第4のFOVにおける画像を取り込むように集合的に構成され、前記第4のFOVが、円形であり、前記第2のカメラから外側に離れる方向に投影され、前記第4のFOVの少なくとも一部が前記第3のFOVと前記第2のFOVとの間に位置する第2のカメラのセットと、
    前記第2のカメラと前記後方カメラとの間に多角形構成に配設され、第5のFOVにおける画像を取り込むように集合的に構成された第3のカメラのセットであって、前記第5のFOVが、円形であり、前記第3のカメラから外側に離れる方向に投影され、前記第5のFOVの少なくとも一部が前記第4のFOVと前記第2のFOVとの間に位置する第3のカメラのセットとを備え、
    前記前方カメラ、前記後方カメラ、前記第1のカメラ、前記第2のカメラ、および前記第3のカメラは、前記第1、第2、第3、第4、および第5のFOVが、前記撮像システムの視点から見たときに球形の画像を集合的に表すように構成される撮像システム。
  2. メモリ構成要素と、
    前記メモリ構成要素および前記カメラの各々に結合され、前記プロセッサおよび前記メモリ構成要素が、前記カメラの各々からの画像を保存するように集合的に構成され、前記カメラの各々からの前記画像の少なくとも一部を含む球形の画像を生成するようにさらに構成されたプロセッサとをさらに備える、請求項1に記載の撮像システム。
  3. 前記後方方向転換反射鏡構成要素は、前記前方カメラの前記投影光軸に垂直に配設された反射器である、請求項1に記載の撮像システム。
  4. 複数の光方向転換反射鏡構成要素をさらに備え、前記第1のカメラのセット、前記第2のカメラのセット、および前記第3のカメラのセット内の各カメラは、前記複数の光方向転換反射鏡構成要素のうちの1つによって方向を変えられ反射された光を受け取るように位置付けられる、請求項1に記載の撮像システム。
  5. 前記複数の光方向転換反射鏡構成要素は複数の反射器を備える、請求項4に記載の撮像システム。
  6. 前記第1のカメラは、前記第2および第3のカメラからずらして配設され、前記第2のカメラは、前記第1および第3のカメラからずらして配設され、前記第3のカメラは、前記第1および第2のカメラからずらして配設される、請求項1に記載の撮像システム。
  7. 前記第1のカメラは第1の平面内に配設され、前記第2のカメラは第2の平面内に配設され、前記第3のカメラは第3の平面内に配設される、請求項1に記載の撮像システム。
  8. 前記第1、第2、および第3の平面は互いに平行である、請求項7に記載の撮像システム。
  9. 前記第1のカメラのセットは8つのカメラを備え、前記第2のカメラのセットは8つのカメラを備え、前記第3のカメラのセットは8つのカメラを備える、請求項1に記載の撮像システム。
  10. 前記第1のカメラは、等間隔に離間して配設され、前記第2のカメラは、等間隔に離間して配設され、前記第3のカメラは、等間隔に離間して配設される、請求項1に記載の撮像システム。
  11. 前記複数の光方向転換反射鏡構成要素は、前記第1の光軸を含む前記撮像デバイスの長手方向軸の周りに配置され第1の平面内に配置された光方向転換反射鏡構成要素の第1のセットと、前記第1の光軸を含む前記撮像デバイスの前記長手方向軸の周りに配置され第2の平面内に配置された光方向転換反射鏡構成要素の第2のセットと、前記第1の光軸を含む前記撮像デバイスの長手方向軸の周りに配置され第3の平面内に配置された光方向転換反射鏡構成要素の第3のセットとを含み、前記第1、第2、および第3の平面は、前記前方カメラと前記後方カメラとの間に配設される、請求項5に記載の撮像システム。
  12. 撮像システムであって、
    第1の方向における第1の視野(FOV)と、前記第1のFOVを通過して延びる光軸とを有する前方カメラと、
    光軸を有する後方カメラであって、前記後方カメラの光軸が前記第1のFOVを通過して延びる方向に揃えられるように位置付けられた後方カメラと、
    前記前方カメラと前記後方カメラとの間に配設された複数の側方カメラと、
    前記後方カメラと複数の側方カメラとの間に配設された後方光方向転換反射鏡構成要素であって、前記後方カメラおよび前記後方光方向転換反射鏡構成要素は、前記後方カメラが、前記後方光方向転換反射鏡構成要素によって前記後方カメラの光軸に沿って方向を変えられ反射された光を受け取るように、前記後方カメラの前記光軸が前記後方光方向転換反射鏡構成要素に向けられるように位置付けられた後方光方向転換反射鏡構成要素と、
    複数の側方光方向転換反射鏡構成要素であって、前記複数の側方カメラの各々が、前記複数の光方向転換反射鏡構成要素のうちの1つによって方向を変えられた光を受け取るように位置付けられた複数の側方光方向転換反射鏡構成要素とを備える撮像システム。
  13. 前記後方カメラは、前記前方カメラの前記光軸に垂直に一致する線に沿って位置付けられる、請求項12に記載の撮像システム。
  14. 前記複数の側方カメラは、前記前方カメラの前記光軸からずれている、請求項14に記載の撮像システム。
  15. 前記複数の側方カメラは、3つの同心リングを形成するように配置される、請求項12に記載の撮像システム。
  16. 前記複数の側方カメラは、アレイカメラの第1のセットと、アレイカメラの第2のセットと、アレイカメラの第3のセットとを備え、アレイカメラの前記第1、第2、および第3のセットの各々は、前記ターゲットシーンの少なくとも一部を含むFOVを集合的に有する、請求項12に記載の撮像システム。
  17. 各アレイカメラは画像センサーを含み、アレイカメラの前記第1のセットの前記画像センサーは、第1の基板上に配設され、アレイカメラの前記第2のセットの前記画像センサーは、第2の基板上に配設され、アレイカメラの前記第3のセットは、第3の基板上に配設される、請求項16に記載の撮像システム。
  18. 前記第1、第2、および第3の基板は、互いに平行な平面内に配設される、請求項17に記載の撮像システム。
  19. 球形の視野(FOV)を示す画像を生成する方法であって、
    前方カメラの投影光軸の周りの第1の視野(FOV)における画像を取り込むように位置付けられた前方カメラにおいて前方画像を生成するステップであって、前記前方カメラの前記投影光軸が第1の方向に位置する、ステップと、
    前記前方カメラと後方カメラとの間に配設された後方方向転換反射鏡構成要素によって方向を変えられた光を受け取るように位置付けられた前記後方カメラにおいて後方画像を生成するステップであって、前記後方カメラが、第2のFOVにおける画像を取り込むように位置付けられる、ステップと、
    前記前方カメラと前記後方カメラとの間に多角形構成に配設された第1のカメラのセットにおいて第1の画像を生成するステップであって、前記第1のカメラが、第3のFOVにおける画像を取り込むように集合的に構成され、前記第3のFOVが、円形であり、前記第1のカメラから外側に離れる方向に投影され、前記第3のFOVの少なくとも一部が前記第1のFOVと前記第2のFOVとの間に位置する、ステップと、
    前記第1のカメラと前記後方カメラとの間に多角形構成に配設された第2のカメラのセットにおいて第2の画像を生成するステップであって、前記第2のカメラが、第4のFOVにおける画像を取り込むように集合的に構成され、前記第4のFOVが、円形であり、前記第2のカメラから外側に離れる方向に投影され、前記第4のFOVの少なくとも一部が前記第3のFOVと前記第2のFOVとの間に位置する、ステップと、
    前記第2のカメラと前記後方カメラとの間に多角形構成に配設され、第5のFOVにおける画像を取り込むように集合的に構成された第3のカメラのセットにおいて第3の画像を生成するステップであって、前記第5のFOVが、円形であり、前記第3のカメラから外側に離れる方向に投影され、前記第5のFOVの少なくとも一部が前記第4のFOVと前記第2のFOVとの間に位置する、ステップと、
    前記前方画像、前記後方画像、前記第1の画像、前記第2の画像、および前記第3の画像を少なくとも1つのプロセッサにおいて受け取り、前記前方画像、前記後方画像、前記第1の画像、前記第2の画像、および前記第3の画像の少なくとも一部を含む少なくとも1つのプロセッサによってモザイク処理された画像を生成するステップとを含む方法。
  20. 前記モザイク処理された画像は、前記球形の画像内の視点から見た球形の画像を示すように生成される、請求項19に記載の方法。
  21. 前記モザイク処理された画像を生成するステップは、前記前方画像、前記後方画像、前記第1の画像、前記第2の画像、および前記第3の画像の少なくとも一部をステッチするステップを含む、請求項19に記載の方法。
  22. 前記第1、第2、第3、第4、および第5のFOVは少なくとも部分的に重なり合う、請求項19に記載の方法。
  23. 前記第1のカメラのセット、前記第2のカメラのセット、および前記第3のカメラのセットは、3つの同心リングを形成するように配置される、請求項19に記載の方法。
  24. 前記後方カメラは、屈曲光学マルチセンサーアセンブリである、請求項19に記載の方法。
  25. 撮像デバイスであって、
    前方カメラの投影光軸の周りの第1の視野(FOV)における画像を取り込むように位置付けられた前方カメラにおいて前方画像を生成するための手段であって、前記前方カメラの前記投影光軸が第1の方向に位置する手段と、
    前記前方カメラと後方カメラとの間に配設された後方方向転換反射鏡構成要素によって方向を変えられた光を受け取るように位置付けられた前記後方カメラにおいて後方画像を生成するための手段であって、前記後方カメラが、第2のFOVにおける画像を取り込むように位置付けられる手段と、
    前記前方カメラと前記後方カメラとの間に多角形構成に配設された第1のカメラのセットにおいて第1の画像を生成するための手段であって、前記第1のカメラが、第3のFOVにおける画像を取り込むように集合的に構成され、前記第3のFOVが、円形であり、前記第1のカメラから外側に離れる方向に投影され、前記第3のFOVの少なくとも一部が前記第1のFOVと前記第2のFOVとの間に位置する手段と、
    前記第1のカメラと前記後方カメラとの間に多角形構成に配設された第2のカメラのセットにおいて第2の画像を生成するための手段であって、前記第2のカメラが、第4のFOVにおける画像を取り込むように集合的に構成され、前記第4のFOVが、円形であり、前記第2のカメラから外側に離れる方向に投影され、前記第4のFOVの少なくとも一部が前記第3のFOVと前記第2のFOVとの間に位置する手段と、
    前記第2のカメラと前記後方カメラとの間に多角形構成に配設され、第5のFOVにおける画像を取り込むように集合的に構成された第3のカメラのセットにおいて第3の画像を生成するための手段であって、前記第5のFOVが、円形であり、前記第3のカメラから外側に離れる方向に投影され、前記第5のFOVの少なくとも一部が前記第4のFOVと前記第2のFOVとの間に位置する手段と、
    前記前方画像、前記後方画像、前記第1の画像、前記第2の画像、および前記第3の画像を受け取り、前記前方画像、前記後方画像、前記第1の画像、前記第2の画像、および前記第3の画像の少なくとも一部を含むモザイク処理された画像を生成するための手段とを備える撮像デバイス。
  26. 前記モザイク処理された画像は、前記球形の画像内の視点から見た球形の画像を示すように生成される、請求項25に記載の撮像デバイス。
  27. 前記モザイク処理された画像を生成することは、前記前方画像、前記後方画像、前記第1の画像、前記第2の画像、および前記第3の画像の少なくとも一部をステッチすることを含む、請求項25に記載の撮像デバイス。
  28. 前記第1、第2、第3、第4、および第5のFOVは少なくとも部分的に重なり合う、請求項25に記載の撮像デバイス。
  29. 前記第1のカメラのセット、前記第2のカメラのセット、および前記第3のカメラのセットは、3つの同心リングを形成するように配置される、請求項25に記載の撮像デバイス。
  30. 前記後方カメラは、屈曲光学マルチセンサーアセンブリである、請求項25に記載の撮像デバイス。
JP2016573093A 2014-06-20 2015-06-19 完全に球形の画像を取り込むことができる視差を有しないマルチカメラシステム Ceased JP2017525206A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201462015329P 2014-06-20 2014-06-20
US62/015,329 2014-06-20
US14/743,663 2015-06-18
US14/743,663 US9843723B2 (en) 2014-06-20 2015-06-18 Parallax free multi-camera system capable of capturing full spherical images
PCT/US2015/036710 WO2015196082A1 (en) 2014-06-20 2015-06-19 Parallax free multi-camera system capable of capturing full spherical images

Publications (2)

Publication Number Publication Date
JP2017525206A true JP2017525206A (ja) 2017-08-31
JP2017525206A5 JP2017525206A5 (ja) 2018-07-19

Family

ID=54870827

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2016573791A Pending JP2017525221A (ja) 2014-06-20 2015-06-16 半球形および球形撮像のための広角視野アレイカメラ
JP2016573093A Ceased JP2017525206A (ja) 2014-06-20 2015-06-19 完全に球形の画像を取り込むことができる視差を有しないマルチカメラシステム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2016573791A Pending JP2017525221A (ja) 2014-06-20 2015-06-16 半球形および球形撮像のための広角視野アレイカメラ

Country Status (8)

Country Link
US (2) US9819863B2 (ja)
EP (2) EP3158726A1 (ja)
JP (2) JP2017525221A (ja)
KR (2) KR20170020777A (ja)
CN (2) CN106462050B (ja)
BR (1) BR112016029565A2 (ja)
CA (1) CA2952623A1 (ja)
WO (2) WO2015195629A1 (ja)

Families Citing this family (75)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10298834B2 (en) 2006-12-01 2019-05-21 Google Llc Video refocusing
US9485495B2 (en) 2010-08-09 2016-11-01 Qualcomm Incorporated Autofocus for stereo images
US9438889B2 (en) 2011-09-21 2016-09-06 Qualcomm Incorporated System and method for improving methods of manufacturing stereoscopic image sensors
US9398264B2 (en) 2012-10-19 2016-07-19 Qualcomm Incorporated Multi-camera system using folded optics
US10178373B2 (en) 2013-08-16 2019-01-08 Qualcomm Incorporated Stereo yaw correction using autofocus feedback
US9578252B2 (en) * 2013-10-18 2017-02-21 Light Labs Inc. Methods and apparatus for capturing images using optical chains and/or for using captured images
US9383550B2 (en) 2014-04-04 2016-07-05 Qualcomm Incorporated Auto-focus in low-profile folded optics multi-camera system
US9374516B2 (en) 2014-04-04 2016-06-21 Qualcomm Incorporated Auto-focus in low-profile folded optics multi-camera system
US10013764B2 (en) 2014-06-19 2018-07-03 Qualcomm Incorporated Local adaptive histogram equalization
US9549107B2 (en) 2014-06-20 2017-01-17 Qualcomm Incorporated Autofocus for folded optic array cameras
US9294672B2 (en) * 2014-06-20 2016-03-22 Qualcomm Incorporated Multi-camera system using folded optics free from parallax and tilt artifacts
US9541740B2 (en) 2014-06-20 2017-01-10 Qualcomm Incorporated Folded optic array camera using refractive prisms
US9819863B2 (en) 2014-06-20 2017-11-14 Qualcomm Incorporated Wide field of view array camera for hemispheric and spherical imaging
US9386222B2 (en) 2014-06-20 2016-07-05 Qualcomm Incorporated Multi-camera system using folded optics free from parallax artifacts
US9392188B2 (en) * 2014-08-10 2016-07-12 Corephotonics Ltd. Zoom dual-aperture camera with folded lens
US9521830B2 (en) * 2014-08-21 2016-12-20 Identiflight, Llc Bird or bat detection and identification for wind turbine risk mitigation
EP3183687B1 (en) 2014-08-21 2020-07-08 IdentiFlight International, LLC Avian detection system and method
US9602702B1 (en) * 2014-09-08 2017-03-21 Sulaiman S. Albadran Video camera with multiple data input
US9832381B2 (en) 2014-10-31 2017-11-28 Qualcomm Incorporated Optical image stabilization for thin cameras
WO2016073468A1 (en) * 2014-11-03 2016-05-12 Gary Franklin Bart Fixed view magnetic camera
US20160248972A1 (en) * 2015-02-23 2016-08-25 Ebsco Industries, Inc Panoramic Game Camera
US9740936B2 (en) * 2015-03-27 2017-08-22 Google Inc. Cluster based photo navigation
US10469873B2 (en) 2015-04-15 2019-11-05 Google Llc Encoding and decoding virtual reality video
US10275898B1 (en) * 2015-04-15 2019-04-30 Google Llc Wedge-based light-field video capture
US10440407B2 (en) 2017-05-09 2019-10-08 Google Llc Adaptive control for immersive experience delivery
US10567464B2 (en) 2015-04-15 2020-02-18 Google Llc Video compression with adaptive view-dependent lighting removal
US10546424B2 (en) 2015-04-15 2020-01-28 Google Llc Layered content delivery for virtual and augmented reality experiences
US10419737B2 (en) 2015-04-15 2019-09-17 Google Llc Data structures and delivery methods for expediting virtual reality playback
US10540818B2 (en) 2015-04-15 2020-01-21 Google Llc Stereo image generation and interactive playback
US10444931B2 (en) 2017-05-09 2019-10-15 Google Llc Vantage generation and interactive playback
US10412373B2 (en) 2015-04-15 2019-09-10 Google Llc Image capture for virtual reality displays
US10341632B2 (en) 2015-04-15 2019-07-02 Google Llc. Spatial random access enabled video system with a three-dimensional viewing volume
US9819865B2 (en) 2015-10-30 2017-11-14 Essential Products, Inc. Imaging device and method for generating an undistorted wide view image
US9906721B2 (en) * 2015-10-30 2018-02-27 Essential Products, Inc. Apparatus and method to record a 360 degree image
US9813623B2 (en) * 2015-10-30 2017-11-07 Essential Products, Inc. Wide field of view camera for integration with a mobile device
CN105627926B (zh) * 2016-01-22 2017-02-08 尹兴 四像机组平面阵列特征点三维测量系统及测量方法
US10151970B2 (en) * 2016-04-11 2018-12-11 As Vision Limited Aerial panoramic oblique photography apparatus
US10354426B2 (en) 2016-08-04 2019-07-16 Datalogic IP Tech, S.r.l. Symbol stitching imaging system
US20180063428A1 (en) * 2016-09-01 2018-03-01 ORBI, Inc. System and method for virtual reality image and video capture and stitching
KR102558474B1 (ko) * 2016-09-30 2023-07-25 삼성전자주식회사 이미지를 표시하기 위한 방법 및 그 전자 장치
WO2018064502A1 (en) * 2016-09-30 2018-04-05 Visbit Inc. View-optimized light field image and video streaming
US10419681B2 (en) * 2016-10-26 2019-09-17 Robert Bosch Gmbh Variable field of view multi-imager
US10679361B2 (en) 2016-12-05 2020-06-09 Google Llc Multi-view rotoscope contour propagation
CN108574808B (zh) * 2017-03-08 2021-02-12 杭州海康威视数字技术股份有限公司 一种图像拼接方法、装置及图像处理系统
US20180260929A1 (en) * 2017-03-08 2018-09-13 Intel Corporation Digital camera methods and devices optimized for computer vision applications
US10652460B2 (en) * 2017-03-30 2020-05-12 Canon Kabushiki Kaisha Image-capturing apparatus and image-capturing control method
US10594945B2 (en) 2017-04-03 2020-03-17 Google Llc Generating dolly zoom effect using light field image data
US10623634B2 (en) * 2017-04-17 2020-04-14 Intel Corporation Systems and methods for 360 video capture and display based on eye tracking including gaze based warnings and eye accommodation matching
US10474227B2 (en) 2017-05-09 2019-11-12 Google Llc Generation of virtual reality with 6 degrees of freedom from limited viewer data
US10354399B2 (en) 2017-05-25 2019-07-16 Google Llc Multi-view back-projection to a light-field
CN107370933A (zh) * 2017-09-19 2017-11-21 信利光电股份有限公司 一种多摄像头模组
CN107509017A (zh) * 2017-09-19 2017-12-22 信利光电股份有限公司 一种多摄像头模组
CN107483790A (zh) * 2017-09-19 2017-12-15 信利光电股份有限公司 一种多摄像头模组
US10400929B2 (en) 2017-09-27 2019-09-03 Quick Fitting, Inc. Fitting device, arrangement and method
KR102436730B1 (ko) * 2017-12-06 2022-08-26 삼성전자주식회사 가상 스크린의 파라미터 추정 방법 및 장치
US11029496B2 (en) 2017-12-21 2021-06-08 Apple Inc. Folded lens system
US10728517B2 (en) * 2017-12-22 2020-07-28 Flir Systems Ab Parallax mitigation for multi-imager systems and methods
US10965862B2 (en) 2018-01-18 2021-03-30 Google Llc Multi-camera navigation interface
JP7081473B2 (ja) 2018-03-02 2022-06-07 株式会社リコー 撮像光学系、撮像システム及び撮像装置
US10582181B2 (en) 2018-03-27 2020-03-03 Honeywell International Inc. Panoramic vision system with parallax mitigation
CN108710261B (zh) * 2018-06-07 2020-12-25 信利光电股份有限公司 一种摄像模组
KR102553555B1 (ko) * 2018-09-21 2023-07-10 엘지이노텍 주식회사 카메라 모듈
CN114615399A (zh) * 2019-01-03 2022-06-10 核心光电有限公司 双重相机
US11357593B2 (en) 2019-01-10 2022-06-14 Covidien Lp Endoscopic imaging with augmented parallax
CN110503621B (zh) * 2019-08-23 2022-07-01 上海圭目机器人有限公司 基于定位数据的图像全局拼接方法
KR102232366B1 (ko) * 2019-10-07 2021-03-26 (주)하이비젼시스템 렌즈모듈 액티브 얼라인 시스템 및 방법
US10969047B1 (en) 2020-01-29 2021-04-06 Quick Fitting Holding Company, Llc Electrical conduit fitting and assembly
US11035510B1 (en) 2020-01-31 2021-06-15 Quick Fitting Holding Company, Llc Electrical conduit fitting and assembly
US11665410B2 (en) 2020-03-10 2023-05-30 Cognex Corporation Modular vision systems and methods
US11281868B2 (en) 2020-03-10 2022-03-22 Cognex Corporation Modular vision system and methods
US11812125B2 (en) 2020-07-01 2023-11-07 Universal City Studios Llc Anti-reflective camera housing system
KR102381272B1 (ko) * 2020-09-17 2022-03-30 삼성전기주식회사 휴대 단말기
US11145228B1 (en) * 2020-11-06 2021-10-12 Lockheed Martin Corporation Immersive display structure
US20230199166A1 (en) * 2021-12-20 2023-06-22 Industrial Technology Research Institute System and method for computing relative rotation and relative translation of back-to-back cameras
WO2024062326A1 (en) * 2022-09-21 2024-03-28 Alcon Inc. Low profile optical systems for surgical procedures

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004080088A (ja) * 2002-08-09 2004-03-11 Sony Corp 撮像装置
JP2006279538A (ja) * 2005-03-29 2006-10-12 Sony Corp 撮像装置
WO2013154433A1 (en) * 2012-04-13 2013-10-17 Cyclomedia Technology B.V. System, device, and vehicle for recording panoramic images

Family Cites Families (293)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA927646A (en) 1970-09-09 1973-06-05 Watanuki Toshio Camera for taking hemispherical motion picture
US4114171A (en) 1976-04-06 1978-09-12 Vivitar Corporation Reflex camera with internal zoom lens
US4437745A (en) 1982-09-30 1984-03-20 Stephen Hajnal Three dimensional camera system
GB8430980D0 (en) 1984-12-07 1985-01-16 Robinson M Generation of apparently three-dimensional images
US4639586A (en) 1985-02-06 1987-01-27 The United States Of America As Represented By The Secretary Of The Air Force Optically phased laser transmitter
US4740780A (en) 1985-06-24 1988-04-26 Gec Avionics, Inc. Head-up display for automobile
US5012273B1 (en) 1986-05-12 1996-10-01 Asahi Optical Co Ltd Lens shutter type of camera including zoom lens
US6031892A (en) 1989-12-05 2000-02-29 University Of Massachusetts Medical Center System for quantitative radiographic imaging
US5194959A (en) 1989-12-21 1993-03-16 Ricoh Company, Ltd. and Nippon Telegraph and Telephone Corporation Image forming apparatus for forming image corresponding to subject, by dividing optical image corresponding to the subject into plural adjacent optical image parts
US5016109A (en) 1990-07-02 1991-05-14 Bell South Corporation Apparatus and method for segmenting a field of view into contiguous, non-overlapping, vertical and horizontal sub-fields
US5063441A (en) 1990-10-11 1991-11-05 Stereographics Corporation Stereoscopic video cameras with image sensors having variable effective position
US5142357A (en) 1990-10-11 1992-08-25 Stereographics Corp. Stereoscopic video camera with image sensors having variable effective position
US5207000A (en) 1991-06-14 1993-05-04 Industrial Technology Research Institute Method and apparatus useful for determining an angle between a virtual optical axis and a planar surface
US5231461A (en) 1991-12-09 1993-07-27 Hughes Danbury Optical Systems, Inc. Solar monochromator for filter calibration
US5926411A (en) 1991-12-30 1999-07-20 Ioptics Incorporated Optical random access memory
US5686960A (en) 1992-01-14 1997-11-11 Michael Sussman Image input device having optical deflection elements for capturing multiple sub-images
DE4212271C1 (ja) 1992-04-11 1993-07-08 Deutsche Forschungsanstalt Fuer Luft- Und Raumfahrt E.V., 5300 Bonn, De
US5243413A (en) 1992-09-02 1993-09-07 At&T Bell Laboratories Color parallax-free camera and display
US5313542A (en) 1992-11-30 1994-05-17 Breault Research Organization, Inc. Apparatus and method of rapidly measuring hemispherical scattered or radiated light
DE69312257T2 (de) 1993-02-11 1998-01-29 Agfa Gevaert Nv Strahlungsfelderkennungsverfahren
US5586063A (en) 1993-09-01 1996-12-17 Hardin; Larry C. Optical range and speed detection system
US5614941A (en) 1993-11-24 1997-03-25 Hines; Stephen P. Multi-image autostereoscopic imaging system
GB2284273B (en) 1993-11-29 1997-01-08 Hadland Photonics Limited Electronic high speed camera incorporating a beam splitter
JPH089424A (ja) 1994-06-20 1996-01-12 Sanyo Electric Co Ltd 立体画像撮像制御装置
JP3186448B2 (ja) 1994-08-01 2001-07-11 ミノルタ株式会社 立体テレビカメラ
JP3458486B2 (ja) 1994-10-25 2003-10-20 松下電器産業株式会社 全方位撮影装置及び全方位画像合成装置
KR100235343B1 (ko) 1994-12-29 1999-12-15 전주범 영역분할 기법을 이용한 동영상신호 부호화기의 움직임 벡터 측정장치
JPH08194274A (ja) 1995-01-13 1996-07-30 Olympus Optical Co Ltd 立体撮像装置
US5606627A (en) 1995-01-24 1997-02-25 Eotek Inc. Automated analytic stereo comparator
US5990934A (en) 1995-04-28 1999-11-23 Lucent Technologies, Inc. Method and system for panoramic viewing
US5745305A (en) 1995-04-28 1998-04-28 Lucent Technologies Inc. Panoramic viewing apparatus
US5539483A (en) 1995-06-30 1996-07-23 At&T Corp. Panoramic projection apparatus
US5793527A (en) 1995-06-30 1998-08-11 Lucent Technologies Inc. High resolution viewing system
US5903306A (en) 1995-08-16 1999-05-11 Westinghouse Savannah River Company Constrained space camera assembly
US6111702A (en) 1995-11-30 2000-08-29 Lucent Technologies Inc. Panoramic viewing system with offset virtual optical centers
US6115176A (en) 1995-11-30 2000-09-05 Lucent Technologies Inc. Spherical viewing/projection apparatus
US6141034A (en) * 1995-12-15 2000-10-31 Immersive Media Co. Immersive imaging method and apparatus
US5640222A (en) 1996-03-15 1997-06-17 Paul; Eddie Method and apparatus for producing stereoscopic images
US6850279B1 (en) 1996-06-18 2005-02-01 Sony Corporation Optical image recording system, and associated processing system
US5721585A (en) 1996-08-08 1998-02-24 Keast; Jeffrey D. Digital video panoramic image capture and display system
JPH10142490A (ja) 1996-11-15 1998-05-29 Canon Inc 環境認識装置及びカメラ
WO1998047291A2 (en) 1997-04-16 1998-10-22 Isight Ltd. Video teleconferencing
US7028899B2 (en) 1999-06-07 2006-04-18 Metrologic Instruments, Inc. Method of speckle-noise pattern reduction and apparatus therefore based on reducing the temporal-coherence of the planar laser illumination beam before it illuminates the target object by applying temporal phase modulation techniques during the transmission of the plib towards the target
DE19903807A1 (de) 1998-05-05 1999-11-11 Zeiss Carl Fa Beleuchtungssystem insbesondere für die EUV-Lithographie
US6128143A (en) 1998-08-28 2000-10-03 Lucent Technologies Inc. Panoramic viewing system with support stand
US6141145A (en) 1998-08-28 2000-10-31 Lucent Technologies Stereo panoramic viewing system
US6195204B1 (en) 1998-08-28 2001-02-27 Lucent Technologies Inc. Compact high resolution panoramic viewing system
US6144501A (en) 1998-08-28 2000-11-07 Lucent Technologies Inc. Split mirrored panoramic image display
US6285365B1 (en) 1998-08-28 2001-09-04 Fullview, Inc. Icon referenced panoramic image display
US6992700B1 (en) 1998-09-08 2006-01-31 Ricoh Company, Ltd. Apparatus for correction based upon detecting a camera shaking
US7271803B2 (en) * 1999-01-08 2007-09-18 Ricoh Company, Ltd. Method and system for simulating stereographic vision
US6611289B1 (en) 1999-01-15 2003-08-26 Yanbin Yu Digital cameras using multiple sensors with multiple lenses
US7015954B1 (en) 1999-08-09 2006-03-21 Fuji Xerox Co., Ltd. Automatic video system using multiple cameras
GB2354389A (en) 1999-09-15 2001-03-21 Sharp Kk Stereo images with comfortable perceived depth
GB2354390A (en) 1999-09-16 2001-03-21 Ibm Wide-angle image capture apparatus
US6650774B1 (en) 1999-10-01 2003-11-18 Microsoft Corporation Locally adapted histogram equalization
US6862364B1 (en) 1999-10-27 2005-03-01 Canon Kabushiki Kaisha Stereo image processing for radiography
US6782137B1 (en) 1999-11-24 2004-08-24 General Electric Company Digital image display improvement system and method
JP2001194114A (ja) 2000-01-14 2001-07-19 Sony Corp 画像処理装置および画像処理方法、並びにプログラム提供媒体
JP2001209037A (ja) 2000-01-26 2001-08-03 Olympus Optical Co Ltd 可変ホログラム素子及びそれらを用いた光学装置
US6823021B1 (en) 2000-10-27 2004-11-23 Greenwich Technologies Associates Method and apparatus for space division multiple access receiver
US6701081B1 (en) 2000-06-06 2004-03-02 Air Controls, Inc. Dual camera mount for stereo imaging
US6768509B1 (en) 2000-06-12 2004-07-27 Intel Corporation Method and apparatus for determining points of interest on an image of a camera calibration object
AU2002226873A1 (en) 2000-07-14 2002-04-08 Applied Wdm, Inc. Optical waveguide transmission devices
JP2002040584A (ja) 2000-07-28 2002-02-06 Hamamatsu Photonics Kk 高速撮像カメラ
IL139995A (en) 2000-11-29 2007-07-24 Rvc Llc System and method for spherical stereoscopic photographing
EP1231780A3 (en) 2001-02-07 2004-01-14 Sony Corporation Image pickup apparatus
JP2002277736A (ja) 2001-03-21 2002-09-25 Olympus Optical Co Ltd 撮像装置
US6421185B1 (en) 2001-04-16 2002-07-16 The United States Of America As Represented By The Secretary Of The Air Force Wide field-of-view imaging system using a spatial light modulator
US6628897B2 (en) 2001-06-20 2003-09-30 Sony Corporation Camera system
EP1427191A4 (en) 2001-08-17 2006-08-16 Sony Corp PICTURE SETUP
US20030038814A1 (en) 2001-08-27 2003-02-27 Blume Leo R. Virtual camera system for environment capture
US7116351B2 (en) * 2001-10-29 2006-10-03 Sony Corporation Imaging device
JP4198449B2 (ja) 2002-02-22 2008-12-17 富士フイルム株式会社 デジタルカメラ
JP2003260025A (ja) 2002-03-08 2003-09-16 Olympus Optical Co Ltd カプセル型内視鏡
US6768598B2 (en) 2002-04-02 2004-07-27 Sony Corporation Image pickup system
US6861633B2 (en) 2002-06-20 2005-03-01 The Aerospace Corporation Microelectromechanical system optical sensor providing bit image data of a viewed image
US7298392B2 (en) 2003-06-26 2007-11-20 Microsoft Corp. Omni-directional camera design for video conferencing
US7209161B2 (en) 2002-07-15 2007-04-24 The Boeing Company Method and apparatus for aligning a pair of digital cameras forming a three dimensional image to compensate for a physical misalignment of cameras
JP2004072349A (ja) 2002-08-05 2004-03-04 Canon Inc 撮像装置、及びその制御方法
US7893957B2 (en) 2002-08-28 2011-02-22 Visual Intelligence, LP Retinal array compound camera system
US7084904B2 (en) 2002-09-30 2006-08-01 Microsoft Corporation Foveated wide-angle imaging system and method for capturing and viewing wide-angle images in real time
AU2003302166A1 (en) 2003-01-02 2004-07-29 Covi Technologies, Inc. Optical block assembly
US6933493B2 (en) 2003-04-07 2005-08-23 Kingpak Technology Inc. Image sensor having a photosensitive chip mounted to a metal sheet
IL155525A0 (en) 2003-04-21 2009-02-11 Yaron Mayer System and method for 3d photography and/or analysis of 3d images and/or display of 3d images
JP3709879B2 (ja) 2003-05-01 2005-10-26 日産自動車株式会社 ステレオ画像処理装置
US7463280B2 (en) 2003-06-03 2008-12-09 Steuart Iii Leonard P Digital 3D/360 degree camera system
WO2004109359A1 (ja) 2003-06-09 2004-12-16 Olympus Corporation 可変ミラー
US6809887B1 (en) 2003-06-13 2004-10-26 Vision Technologies, Inc Apparatus and method for acquiring uniform-resolution panoramic images
US20050117015A1 (en) * 2003-06-26 2005-06-02 Microsoft Corp. Foveated panoramic camera system
US7495694B2 (en) 2004-07-28 2009-02-24 Microsoft Corp. Omni-directional camera with calibration and up look angle improvements
US7336299B2 (en) 2003-07-03 2008-02-26 Physical Optics Corporation Panoramic video system with real-time distortion-free imaging
KR100541028B1 (ko) 2003-07-21 2006-01-11 주식회사 옵토메카 이미지 센서 및 그 제조 방법
US20050057659A1 (en) 2003-09-16 2005-03-17 Takami Hasegawa Camera image shake correcting device
US7028546B2 (en) 2003-10-21 2006-04-18 Instrumented Sensor Technology, Inc. Data recorder
US20050111106A1 (en) 2003-10-31 2005-05-26 Kazuhiro Matsumoto Optical element assembly formed of multiple optical elements such as prisms, and image pickup apparatus using the same in image pickup function section
JPWO2005081020A1 (ja) 2004-02-19 2008-05-15 キヤノン株式会社 光学機器およびビームスプリッター
US20050185711A1 (en) 2004-02-20 2005-08-25 Hanspeter Pfister 3D television system and method
GB0406730D0 (en) 2004-03-25 2004-04-28 1 Ltd Focussing method
US7593057B2 (en) * 2004-07-28 2009-09-22 Microsoft Corp. Multi-view integrated camera system with housing
US8248458B2 (en) 2004-08-06 2012-08-21 University Of Washington Through Its Center For Commercialization Variable fixation viewing distance scanned light displays
EP1812968B1 (en) 2004-08-25 2019-01-16 Callahan Cellular L.L.C. Apparatus for multiple camera devices and method of operating same
US7039292B1 (en) 2004-09-09 2006-05-02 Rockwell Collins, Inc. Optical system for vehicle flight control
DE102004045430A1 (de) 2004-09-18 2006-05-18 Deutsche Telekom Ag Vorrichtung zur Bildstabilisierung
JP3791847B1 (ja) 2005-08-10 2006-06-28 京セラ株式会社 カメラモジュールおよび該カメラモジュールを搭載した情報端末
US20080001727A1 (en) 2004-11-15 2008-01-03 Hitachi, Ltd. Stereo Camera
US7372996B2 (en) 2004-12-27 2008-05-13 Trw Automotive U.S. Llc Method and apparatus for determining the position of a vehicle seat
JP4742190B2 (ja) 2005-01-13 2011-08-10 国立大学法人 奈良先端科学技術大学院大学 3次元オブジェクト計測装置
US7512262B2 (en) 2005-02-25 2009-03-31 Microsoft Corporation Stereo-based image processing
JP4177826B2 (ja) 2005-03-23 2008-11-05 株式会社東芝 画像処理装置および画像処理方法
US20060215054A1 (en) 2005-03-23 2006-09-28 Eastman Kodak Company Wide angle camera with prism array
US20060238441A1 (en) 2005-04-25 2006-10-26 The Boeing Company Method and apparatus for displaying a stereoscopic image
US20070102622A1 (en) 2005-07-01 2007-05-10 Olsen Richard I Apparatus for multiple camera devices and method of operating same
WO2007014293A1 (en) 2005-07-25 2007-02-01 The Regents Of The University Of California Digital imaging system and method to produce mosaic images
JP5364965B2 (ja) 2005-07-26 2013-12-11 コニカミノルタ株式会社 撮像光学系、撮像レンズ装置及びデジタル機器
JP2007081473A (ja) 2005-09-09 2007-03-29 Eastman Kodak Co 複数光学系を有する撮像装置
TW200721803A (en) 2005-10-17 2007-06-01 Via Tech Inc 3-D stereoscopic image display system
US20070164202A1 (en) 2005-11-16 2007-07-19 Wurz David A Large depth of field line scan camera
JP4979928B2 (ja) 2005-11-28 2012-07-18 株式会社トプコン 三次元形状演算装置及び三次元形状演算方法
US8059185B2 (en) 2005-12-28 2011-11-15 Canon Kabushiki Kaisha Photographing apparatus, image display method, computer program and storage medium for acquiring a photographed image in a wide range
US7215479B1 (en) 2006-02-10 2007-05-08 Micron Technology, Inc. Integrated lens system for image sensor and method for manufacturing the same
GB2435360B (en) 2006-02-16 2009-09-23 Imagination Tech Ltd Method and apparatus for determining motion between video images
JP4844177B2 (ja) 2006-03-07 2011-12-28 株式会社ニコン ブレ補正装置及びカメラ
JP2007274542A (ja) 2006-03-31 2007-10-18 Sony Corp 撮像装置および携帯電話機
CN101055342A (zh) 2006-04-12 2007-10-17 鸿富锦精密工业(深圳)有限公司 自动对焦镜头模组
US8433157B2 (en) 2006-05-04 2013-04-30 Thomson Licensing System and method for three-dimensional object reconstruction from two-dimensional images
WO2007129147A1 (en) 2006-05-05 2007-11-15 Nokia Corporation Optical image recording device with small height and high resolution
US8836693B2 (en) 2006-05-09 2014-09-16 Kabushiki Kaisha Sega Image processing apparatus and image processing program
JP4972779B2 (ja) 2006-05-30 2012-07-11 コニカミノルタアドバンストレイヤー株式会社 光学ユニットおよび撮像装置
JP5067021B2 (ja) 2006-06-01 2012-11-07 富士ゼロックス株式会社 画像形成装置、画像形成装置の組立方法及び解体方法並びに画像形成装置に用いられる仮止め部材
JP4851239B2 (ja) 2006-06-05 2012-01-11 株式会社トプコン 画像処理装置及びその処理方法
JP2008048293A (ja) 2006-08-18 2008-02-28 Kyocera Corp 撮像装置、およびその製造方法
US20080058629A1 (en) * 2006-08-21 2008-03-06 University Of Washington Optical fiber scope with both non-resonant illumination and resonant collection/imaging for multiple modes of operation
DE102006044786A1 (de) 2006-09-14 2008-03-27 Schefenacker Vision Systems Germany Gmbh Kamerasystem, Verfahren zum Betreiben eines Kamerasystems und Sensoreinrichtung eines Kamerasystems
EP1912098B1 (en) 2006-10-12 2012-04-25 Carl Zeiss SMT GmbH Unit magnification projection objective
US7817354B2 (en) 2006-10-25 2010-10-19 Capsovision Inc. Panoramic imaging system
JP5040493B2 (ja) 2006-12-04 2012-10-03 ソニー株式会社 撮像装置及び撮像方法
KR100866491B1 (ko) 2007-01-30 2008-11-03 삼성전자주식회사 영상 처리 방법 및 장치
JP4917060B2 (ja) 2007-02-26 2012-04-18 Hoya株式会社 撮像ユニット及び携帯用電子機器
US7683962B2 (en) 2007-03-09 2010-03-23 Eastman Kodak Company Camera using multiple lenses and image sensors in a rangefinder configuration to provide a range map
US20080231698A1 (en) * 2007-03-20 2008-09-25 Alan Edward Kaplan Vehicle video control system
US8356035B1 (en) 2007-04-10 2013-01-15 Google Inc. Association of terms with images using image similarity
JP4582423B2 (ja) 2007-04-20 2010-11-17 富士フイルム株式会社 撮像装置、画像処理装置、撮像方法、及び画像処理方法
JP5013078B2 (ja) 2007-04-24 2012-08-29 コニカミノルタアドバンストレイヤー株式会社 レンズ鏡胴及び撮像装置
US20080290435A1 (en) 2007-05-21 2008-11-27 Micron Technology, Inc. Wafer level lens arrays for image sensor packages and the like, image sensor packages, and related methods
JP2008294819A (ja) 2007-05-25 2008-12-04 Sony Corp 撮像装置
US20090003646A1 (en) 2007-06-29 2009-01-01 The Hong Kong University Of Science And Technology Lossless visible watermarking
US20090005112A1 (en) 2007-06-29 2009-01-01 Samsung Electronics Co., Ltd. Optical imaging system configurations for handheld devices
WO2009011153A1 (ja) 2007-07-13 2009-01-22 Mitsubishi Electric Corporation 画像読取装置
JP4900118B2 (ja) 2007-07-31 2012-03-21 コニカミノルタオプト株式会社 カメラモジュールおよび電子機器
TWI383666B (zh) 2007-08-21 2013-01-21 Sony Taiwan Ltd 多重鏡頭相機系統之先進式動態接圖方法
JP5000428B2 (ja) 2007-08-22 2012-08-15 Hoya株式会社 撮像装置
US7973834B2 (en) 2007-09-24 2011-07-05 Jianwen Yang Electro-optical foveated imaging and tracking system
KR20090032261A (ko) 2007-09-27 2009-04-01 삼성전자주식회사 움직임 추정에 기초하여 움직임 보상을 수행하는 영상 처리장치 및 그 방법
JP5152483B2 (ja) 2007-10-05 2013-02-27 ソニー株式会社 撮像装置
EP2208354A4 (en) 2007-10-10 2010-12-22 Gerard Dirk Smits IMAGE PROJECTOR WITH REFLECTIVE LIGHT TRACKING
KR101484487B1 (ko) 2007-10-11 2015-01-28 코닌클리케 필립스 엔.브이. 깊이-맵을 프로세싱하는 방법 및 디바이스
CN101843106B (zh) 2007-11-01 2015-11-25 柯尼卡美能达控股株式会社 摄像装置
KR100927347B1 (ko) 2007-11-13 2009-11-24 파워옵틱스 주식회사 줌렌즈 광학계
JP4831514B2 (ja) 2007-11-13 2011-12-07 独立行政法人情報通信研究機構 設定パラメータ最適化装置およびそのプログラム
US8791984B2 (en) 2007-11-16 2014-07-29 Scallop Imaging, Llc Digital security camera
CN100465699C (zh) 2007-12-05 2009-03-04 浙江大学 利用棱镜分光渐晕补偿实现多ccd无缝拼接的光电系统
KR101349589B1 (ko) 2007-12-13 2014-01-10 엘지이노텍 주식회사 카메라 모듈
US8300086B2 (en) 2007-12-20 2012-10-30 Nokia Corporation Image processing for supporting a stereoscopic presentation
US20090185067A1 (en) 2007-12-21 2009-07-23 Stereo Display, Inc. Compact automatic focusing camera
CN101952762B (zh) 2008-01-02 2012-11-28 加利福尼亚大学董事会 高数值孔径远程显微镜设备
US7978222B2 (en) 2008-03-01 2011-07-12 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Systems and methods for image stabilization
WO2009111642A1 (en) 2008-03-05 2009-09-11 Contrast Optical Design & Engineering, Inc. Multiple image camera and lens system
US20110043623A1 (en) 2008-03-26 2011-02-24 Konica Minolta Opto, Inc. Imaging device
WO2009120928A2 (en) 2008-03-28 2009-10-01 The Trustees Of Columbia University In The City Of New York Generalized assorted pixel camera systems and methods
CN101571666A (zh) * 2008-04-28 2009-11-04 鸿富锦精密工业(深圳)有限公司 成像设备
US8280194B2 (en) 2008-04-29 2012-10-02 Sony Corporation Reduced hardware implementation for a two-picture depth map algorithm
US9001187B2 (en) 2009-05-11 2015-04-07 CapsoVision, Inc. Capsule imaging system having a folded optical axis
US9171221B2 (en) 2010-07-18 2015-10-27 Spatial Cam Llc Camera to track an object
JP4435867B2 (ja) 2008-06-02 2010-03-24 パナソニック株式会社 法線情報を生成する画像処理装置、方法、コンピュータプログラム、および、視点変換画像生成装置
JP5223486B2 (ja) 2008-06-18 2013-06-26 ソニー株式会社 電子双眼鏡
KR101567107B1 (ko) 2008-07-24 2015-11-06 파나소닉 인텔렉츄얼 프로퍼티 코포레이션 오브 아메리카 카메라 구동 장치
JP2010041381A (ja) 2008-08-05 2010-02-18 Nikon Corp 電子カメラ、ステレオ画像生成方法およびステレオ画像生成システム
KR100942925B1 (ko) 2008-08-11 2010-02-22 한국전자통신연구원 스테레오 비전 시스템 및 그 제어방법
CN102177468A (zh) 2008-08-14 2011-09-07 远程保真公司 三反射镜全景相机
TWI419551B (zh) 2008-08-22 2013-12-11 固態全景影像擷取裝置
JP2010067014A (ja) 2008-09-11 2010-03-25 Ricoh Co Ltd 画像分類装置及び画像分類方法
WO2010035223A1 (en) 2008-09-25 2010-04-01 Koninklijke Philips Electronics N.V. Three dimensional image data processing
WO2010044223A1 (ja) 2008-10-14 2010-04-22 日本電産サンキョー株式会社 撮影用光学装置
US8267601B2 (en) 2008-11-04 2012-09-18 James Cameron Platform for stereoscopy for hand-held film/video camera stabilizers
JP4852591B2 (ja) 2008-11-27 2012-01-11 富士フイルム株式会社 立体画像処理装置、方法及び記録媒体並びに立体撮像装置
CN101770059B (zh) 2008-12-27 2012-06-20 鸿富锦精密工业(深圳)有限公司 相机模组
US9395617B2 (en) 2009-01-05 2016-07-19 Applied Quantum Technologies, Inc. Panoramic multi-scale imager and method therefor
US8326036B2 (en) 2009-02-20 2012-12-04 Qylur Security Systems, Inc. Automated image separation method
GB0903689D0 (en) 2009-03-03 2009-04-15 Sigmavision Ltd Vehicle tyre measurement
JP5316118B2 (ja) 2009-03-12 2013-10-16 オムロン株式会社 3次元視覚センサ
US20100265313A1 (en) 2009-04-17 2010-10-21 Sony Corporation In-camera generation of high quality composite panoramic images
US20100278423A1 (en) 2009-04-30 2010-11-04 Yuji Itoh Methods and systems for contrast enhancement
US8503778B2 (en) 2009-05-14 2013-08-06 National University Of Singapore Enhancing photograph visual quality using texture and contrast data from near infra-red images
US8170408B2 (en) 2009-05-18 2012-05-01 Invensense, Inc. Optical image stabilization in a digital still camera or handset
US8194170B2 (en) 2009-06-02 2012-06-05 Algonquin College Axicon lens array
US9124874B2 (en) 2009-06-05 2015-09-01 Qualcomm Incorporated Encoding of three-dimensional conversion information with two-dimensional video sequence
US8405750B2 (en) 2009-06-08 2013-03-26 Aptina Imaging Corporation Image sensors and image reconstruction methods for capturing high dynamic range images
US9479768B2 (en) 2009-06-09 2016-10-25 Bartholomew Garibaldi Yukich Systems and methods for creating three-dimensional image media
CN101581828B (zh) 2009-06-09 2011-06-22 苏州大学 环形孔径超薄光学成像系统
JP5293463B2 (ja) 2009-07-09 2013-09-18 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
US8228417B1 (en) 2009-07-15 2012-07-24 Adobe Systems Incorporated Focused plenoptic camera employing different apertures or filtering at different microlenses
JP5450200B2 (ja) 2009-07-17 2014-03-26 富士フイルム株式会社 撮像装置、方法およびプログラム
US8294073B1 (en) 2009-10-01 2012-10-23 Raytheon Company High angular rate imaging system and related techniques
US9063345B2 (en) 2009-10-19 2015-06-23 Pixar Super light-field lens with doublet lenslet array element
TWM399332U (en) * 2009-10-20 2011-03-01 Fujifilm Corp Photographic lens and photographic device
JP5539818B2 (ja) 2009-10-20 2014-07-02 富士フイルム株式会社 撮像レンズおよび撮像装置
US8325187B2 (en) 2009-10-22 2012-12-04 Samsung Electronics Co., Ltd. Method and device for real time 3D navigation in panoramic images and cylindrical spaces
US8457398B2 (en) 2009-10-27 2013-06-04 Himax Media Solutions, Inc. Image enhancement method and apparatuses utilizing the same
WO2011063347A2 (en) 2009-11-20 2011-05-26 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
WO2011066275A2 (en) 2009-11-25 2011-06-03 Massachusetts Institute Of Technology Actively addressable aperture light field camera
US8400555B1 (en) 2009-12-01 2013-03-19 Adobe Systems Incorporated Focused plenoptic camera employing microlenses with different focal lengths
WO2011081646A1 (en) 2009-12-15 2011-07-07 Thomson Licensing Stereo-image quality and disparity/depth indications
US8442392B2 (en) 2009-12-22 2013-05-14 Nokia Corporation Method and apparatus for operating the automatic focus or the optical imaging stabilizing system
US9128281B2 (en) 2010-09-14 2015-09-08 Microsoft Technology Licensing, Llc Eyepiece with uniformly illuminated reflective display
US20110213664A1 (en) 2010-02-28 2011-09-01 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
WO2011132364A1 (ja) 2010-04-19 2011-10-27 パナソニック株式会社 立体画像撮影装置および立体画像撮影方法
JP5593118B2 (ja) 2010-04-30 2014-09-17 日本電産サンキョー株式会社 振れ補正機能付き光学ユニット
CN102934020B (zh) 2010-06-08 2016-01-27 日本电产三协株式会社 抖动修正装置、拍摄用光学装置及透镜驱动装置
JP5622443B2 (ja) 2010-06-08 2014-11-12 日本電産サンキョー株式会社 振れ補正機能付き光学ユニット
JP5138734B2 (ja) 2010-06-15 2013-02-06 シャープ株式会社 撮像レンズ、および撮像モジュール
CN101902657B (zh) 2010-07-16 2011-12-21 浙江大学 一种基于深度图分层的虚拟多视点图像的生成方法
US9485495B2 (en) 2010-08-09 2016-11-01 Qualcomm Incorporated Autofocus for stereo images
TWI409577B (zh) 2010-08-20 2013-09-21 Primax Electronics Ltd 光學影像系統
US20120056987A1 (en) 2010-09-03 2012-03-08 Luke Fedoroff 3d camera system and method
WO2012039043A1 (ja) 2010-09-22 2012-03-29 富士通株式会社 ステレオ画像生成装置、ステレオ画像生成方法及びステレオ画像生成用コンピュータプログラム
WO2012041390A1 (en) 2010-10-01 2012-04-05 Contex A/S Signal intensity matching of image sensors
SG190730A1 (en) 2010-12-09 2013-07-31 Univ Nanyang Tech Method and an apparatus for determining vein patterns from a colour image
JP5716465B2 (ja) 2011-03-09 2015-05-13 ソニー株式会社 撮像装置
US9030550B2 (en) 2011-03-25 2015-05-12 Adobe Systems Incorporated Thin plenoptic cameras using solid immersion lenses
US9172856B2 (en) 2011-03-29 2015-10-27 Microsoft Technology Licensing, Llc Folded imaging path camera
US8928988B1 (en) 2011-04-01 2015-01-06 The Regents Of The University Of California Monocentric imaging
WO2012136388A1 (en) 2011-04-08 2012-10-11 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Capturing panoramic or semi-panoramic 3d scenes
EP2703865B1 (en) * 2011-04-28 2020-05-13 FUJIFILM Corporation Imaging lens and imaging device
CN203551875U (zh) * 2011-04-28 2014-04-16 富士胶片株式会社 成像镜头和成像设备
JP5778260B2 (ja) * 2011-04-28 2015-09-16 富士フイルム株式会社 撮像レンズおよび撮像装置
US20120293607A1 (en) 2011-05-17 2012-11-22 Apple Inc. Panorama Processing
CN103597810B (zh) 2011-05-27 2017-02-15 诺基亚技术有限公司 图像拼接
EP2721828B1 (en) 2011-06-15 2015-07-15 Microsoft Technology Licensing, LLC High resolution multispectral image capture
TWI507807B (zh) 2011-06-24 2015-11-11 Mstar Semiconductor Inc 自動對焦方法與裝置
US20130265459A1 (en) 2011-06-28 2013-10-10 Pelican Imaging Corporation Optical arrangements for use with an array camera
US8896890B2 (en) 2011-06-30 2014-11-25 Lexmark International, Inc. Image capture system having a folded optical path
JP5848052B2 (ja) 2011-07-21 2016-01-27 日本電産サンキョー株式会社 振れ補正機能付き光学ユニット
US8784301B2 (en) 2011-08-12 2014-07-22 Intuitive Surgical Operations, Inc. Image capture unit and method with an extended depth of field
US8988564B2 (en) 2011-09-09 2015-03-24 Apple Inc. Digital camera with light splitter
US9438889B2 (en) 2011-09-21 2016-09-06 Qualcomm Incorporated System and method for improving methods of manufacturing stereoscopic image sensors
US8855476B2 (en) 2011-09-28 2014-10-07 DigitalOptics Corporation MEMS MEMS-based optical image stabilization
WO2013059399A1 (en) 2011-10-20 2013-04-25 Monsanto Technology Llc Plant stand counter
US9692991B2 (en) 2011-11-04 2017-06-27 Qualcomm Incorporated Multispectral imaging system
JP2013117568A (ja) * 2011-12-01 2013-06-13 Olympus Corp 視差画像取得装置、携帯情報端末及び視差画像取得方法
US8582220B2 (en) 2011-12-05 2013-11-12 Himax Technologies Limited Lens module
CN202405984U (zh) 2011-12-10 2012-08-29 东莞市旭业光电科技有限公司 一种用于音圈马达的垫片
KR101975893B1 (ko) 2012-03-21 2019-09-10 엘지이노텍 주식회사 카메라 모듈
US9210405B2 (en) 2012-03-22 2015-12-08 Qualcomm Technologies, Inc. System and method for real time 2D to 3D conversion of video in a digital camera
KR101818778B1 (ko) 2012-03-23 2018-01-16 한국전자통신연구원 실감 파노라마 영상 생성을 위한 3d 데이터 포맷 생성/소비 장치 및 방법
US20130260823A1 (en) 2012-03-31 2013-10-03 Ashutosh Y. Shukla Compact Portable Electronic Device Having Augmented Back Volume for Speaker
JP2013238848A (ja) 2012-04-20 2013-11-28 Hoya Corp 撮像装置
EP2677734A3 (en) 2012-06-18 2016-01-13 Sony Mobile Communications AB Array camera imaging system and method
EP2677733A3 (en) 2012-06-18 2015-12-09 Sony Mobile Communications AB Array camera imaging system and method
US9134503B2 (en) 2012-07-06 2015-09-15 Apple Inc. VCM OIS actuator module
US9634051B2 (en) 2012-07-17 2017-04-25 Heptagon Micro Optics Pte. Ltd. Optical devices, in particular computational cameras, and methods for manufacturing the same
EP2748792B1 (en) 2012-08-08 2016-12-21 Dolby Laboratories Licensing Corporation Image processing for hdr images
JP6207303B2 (ja) * 2012-09-10 2017-10-04 キヤノン株式会社 制御装置、制御装置を備えるアクチュエータ、画像振れ補正装置、交換用レンズ、撮像装置、及び自動ステージ
JP6116168B2 (ja) * 2012-09-14 2017-04-19 キヤノン株式会社 情報処理装置およびその方法
JP5995624B2 (ja) * 2012-09-19 2016-09-21 キヤノン株式会社 撮像装置および交換レンズ
JP5995637B2 (ja) * 2012-10-04 2016-09-21 キヤノン株式会社 撮像装置、撮像装置の制御方法、プログラム、記憶媒体
US9398264B2 (en) 2012-10-19 2016-07-19 Qualcomm Incorporated Multi-camera system using folded optics
US9659991B2 (en) * 2012-10-22 2017-05-23 Canon Kabushiki Kaisha Image capturing apparatus, manufacturing method thereof, and camera
JP2014112302A (ja) 2012-12-05 2014-06-19 Ricoh Co Ltd 所定領域管理システム、通信方法、及びプログラム
US9857470B2 (en) 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
US9547160B2 (en) 2013-01-05 2017-01-17 Light Labs Inc. Methods and apparatus for capturing and/or processing images
US9171355B2 (en) 2013-04-12 2015-10-27 Qualcomm Incorporated Near infrared guided image denoising
JP2015036716A (ja) 2013-08-12 2015-02-23 ソニー株式会社 像ぶれ補正装置及び撮像装置
US10178373B2 (en) 2013-08-16 2019-01-08 Qualcomm Incorporated Stereo yaw correction using autofocus feedback
EP2860699A1 (en) 2013-10-11 2015-04-15 Telefonaktiebolaget L M Ericsson (Publ) Technique for view synthesis
US9223118B2 (en) 2013-10-31 2015-12-29 Apple Inc. Small form factor telephoto camera
CN203745777U (zh) 2014-01-10 2014-07-30 瑞声声学科技(深圳)有限公司 阵列式镜头装置
WO2015121707A1 (en) * 2014-02-13 2015-08-20 Sony Corporation Method and system for adjusting camera settings using corneal reflection
US9557627B2 (en) 2014-03-07 2017-01-31 Apple Inc. Folded camera lens systems
US9316810B2 (en) 2014-03-07 2016-04-19 Apple Inc. Folded telephoto camera lens system
US9374516B2 (en) 2014-04-04 2016-06-21 Qualcomm Incorporated Auto-focus in low-profile folded optics multi-camera system
US9383550B2 (en) 2014-04-04 2016-07-05 Qualcomm Incorporated Auto-focus in low-profile folded optics multi-camera system
US10013764B2 (en) 2014-06-19 2018-07-03 Qualcomm Incorporated Local adaptive histogram equalization
US9541740B2 (en) 2014-06-20 2017-01-10 Qualcomm Incorporated Folded optic array camera using refractive prisms
US9549107B2 (en) 2014-06-20 2017-01-17 Qualcomm Incorporated Autofocus for folded optic array cameras
US20150373269A1 (en) 2014-06-20 2015-12-24 Qualcomm Incorporated Parallax free thin multi-camera system capable of capturing full wide field of view images
US9294672B2 (en) 2014-06-20 2016-03-22 Qualcomm Incorporated Multi-camera system using folded optics free from parallax and tilt artifacts
US9819863B2 (en) 2014-06-20 2017-11-14 Qualcomm Incorporated Wide field of view array camera for hemispheric and spherical imaging
US9386222B2 (en) 2014-06-20 2016-07-05 Qualcomm Incorporated Multi-camera system using folded optics free from parallax artifacts
US9832381B2 (en) 2014-10-31 2017-11-28 Qualcomm Incorporated Optical image stabilization for thin cameras
US10334158B2 (en) * 2014-11-03 2019-06-25 Robert John Gove Autonomous media capturing
US10070055B2 (en) * 2015-03-25 2018-09-04 Massachusetts Institute Of Technology Devices and methods for optically multiplexed imaging
US20170038502A1 (en) 2015-08-06 2017-02-09 Qualcomm Incorporated Methods and apparatus having a two-surface microlens array for low f-number plenoptic cameras

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004080088A (ja) * 2002-08-09 2004-03-11 Sony Corp 撮像装置
JP2006279538A (ja) * 2005-03-29 2006-10-12 Sony Corp 撮像装置
WO2013154433A1 (en) * 2012-04-13 2013-10-17 Cyclomedia Technology B.V. System, device, and vehicle for recording panoramic images

Also Published As

Publication number Publication date
CA2952623A1 (en) 2015-12-23
WO2015195629A1 (en) 2015-12-23
JP2017525221A (ja) 2017-08-31
CN106415392A (zh) 2017-02-15
KR20170020777A (ko) 2017-02-24
CN106462050B (zh) 2019-02-22
US9819863B2 (en) 2017-11-14
US20150373279A1 (en) 2015-12-24
KR101877160B1 (ko) 2018-08-07
KR20170020797A (ko) 2017-02-24
US9843723B2 (en) 2017-12-12
WO2015196082A1 (en) 2015-12-23
CN106462050A (zh) 2017-02-22
BR112016029565A2 (pt) 2017-08-22
EP3158725A1 (en) 2017-04-26
CN106415392B (zh) 2019-06-14
EP3158726A1 (en) 2017-04-26
EP3158725B1 (en) 2020-07-29
US20150373268A1 (en) 2015-12-24

Similar Documents

Publication Publication Date Title
JP2017525206A (ja) 完全に球形の画像を取り込むことができる視差を有しないマルチカメラシステム
US9733458B2 (en) Multi-camera system using folded optics free from parallax artifacts
US9854182B2 (en) Folded optic array camera using refractive prisms
US10084958B2 (en) Multi-camera system using folded optics free from parallax and tilt artifacts
US20150373269A1 (en) Parallax free thin multi-camera system capable of capturing full wide field of view images
CN106464813B (zh) 能够捕获全宽视野图像的无视差薄型多相机系统

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180606

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180606

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180606

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180914

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181119

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181203

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20190422