JP2016511968A - 全周囲立体イメージング - Google Patents

全周囲立体イメージング Download PDF

Info

Publication number
JP2016511968A
JP2016511968A JP2015555506A JP2015555506A JP2016511968A JP 2016511968 A JP2016511968 A JP 2016511968A JP 2015555506 A JP2015555506 A JP 2015555506A JP 2015555506 A JP2015555506 A JP 2015555506A JP 2016511968 A JP2016511968 A JP 2016511968A
Authority
JP
Japan
Prior art keywords
image
cameras
boundary
camera
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015555506A
Other languages
English (en)
Other versions
JP6456844B2 (ja
Inventor
チャプデレーヌ‐クチュール ヴィンセント
チャプデレーヌ‐クチュール ヴィンセント
ロイ セバスチャン
ロイ セバスチャン
Original Assignee
ヴァロリゼーション−ルシェルシュ,リミテッド・パートナーシップ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヴァロリゼーション−ルシェルシュ,リミテッド・パートナーシップ filed Critical ヴァロリゼーション−ルシェルシュ,リミテッド・パートナーシップ
Publication of JP2016511968A publication Critical patent/JP2016511968A/ja
Application granted granted Critical
Publication of JP6456844B2 publication Critical patent/JP6456844B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B37/00Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
    • G03B37/04Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe with cameras or projectors providing touching or overlapping fields of view
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/02Affine transformations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • G06T3/047Fisheye or wide-angle transformations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/12Panospheric to cylindrical image transformations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Image Analysis (AREA)

Abstract

超広角レンズを有するカメラを少なくとも3つ用いて全周囲立体イメージをキャプチャするためのカメラセットアップを説明する。立体的に包括される視野はドームとすることができる。カメラのペア間の基線はエピポールを規定し、視差による水平方向のずれを伴わないスティッチングにこれを活用することができる。【選択図】図1

Description

本願発明は、奥行き知覚を伴う360度の視野をもたらす没入型イメージングに関する。
関連出願への相互参照
本願は、西暦2013年2月4日に出願された米国仮出願第61/760,383号の優先権を主張する。
伝統的な立体イメージング(stereo imaging)では、基線に沿っての方向において分離された2つのカメラを使用して同じ方向に向く2つの若干異なる視点を捉える。そして、立体イメージペアを立体ディスプレイに投射して人間の脳内にて融合してシーン奥行きについて強いキュー(手掛かり)を得ることができる。
全周囲立体イメージング(omnistereo imaging)の目的は、最高で観察者の周りの360度に立体的なキュー(stereo cue)を提供することである。全周囲立体イメージは、仮想環境内での頭部方向性を追跡しないで行うナビゲーションに使用することができる。
全周囲立体イメージのキャプチャにおける困難性は、サイドバイサイドに配置した2つのカメラを用いただけではキャプチャを行うことができないという点にある。このようなキャプチャでは、(基線と直交な)正中線上で最大の立体情報(stereo information)がもたらされるであろうが、基線に沿っては立体情報がもたらされない。
立体(全周囲立体)没入型キャプチャのためのカメラセットアップ(camera setup)を説明する。全周囲立体イメージペアは、中心的観察者の周りについて360度まで立体情報を与える。オムニポーラ(omnipolar)カメラセットアップは、超広角レンズを有するカメラを少なくとも3つ用いる。配置位置を取り囲む全ての視認可能な点は、およそ180度の視野内にて、少なくとも2つのカメラによって立体的にキャプチャされることができ、カメラセットアップの方向性によっておよそカメラ設置高さから上方若しくはカメラ設置高さから下方に向かってキャプチャが行われる。
スティッチング法は、カメラセットアップからのイメージを取得して、視差による水平方向のずれを伴わない全周囲立体イメージペアを発生させる。スティッチングは、隣接するカメライメージ内のエピポールを通る垂直平面にて行われる。カメラの移動中において、制約を受けない動的シーンをキャプチャすることができる。キャプチャされたビデオは、全周囲立体ドームに表示されるようにフォーマットされる。エピポーラスティッチング法は、標準レンズを用いる高解像度単眼カメラセットアップを設計するのにも用いることができる。このセットアップは、伝統的なシステムにおいて通常見受けられる視差によるずれを低減させる。
本願発明の1つのおおまかな側面によれば、オムニポーライメージング装置であって、基線の高さにおいて円周上に実質的に等間隔に配置された少なくとも3つのカメラであって、少なくとも3つのカメラの各々は同じ方向に向けられて実質的に360度の視野の一部分についてイメージをキャプチャするように構成された広角レンズを有する、少なくとも3つのカメラと、少なくとも3つのカメラを固定位置に維持するマウンティング器具とを備える、オムニポーライメージング装置が提供される。
一部の実施形態においては、装置は、少なくとも3つのカメラからキャプチャイメージを受信して、少なくとも3つのカメラの各々からのキャプチャイメージの部分についてスティッチングを行って実質的に360度の視野についての左眼ビューと右眼ビューとを生成する処理装置を、さらに備える。
一部の実施形態では、少なくとも3つのカメラの各々は動的イメージであるイメージをキャプチャするように構成されている。
一部の実施形態では、スティッチングのために選択された少なくとも3つのカメラの各々からのキャプチャイメージの部分は、360度/Nの視野に各々対応するのであり、ここでNは少なくとも3つのカメラの個数である。
一部の実施形態では、処理装置は、スティッチングのために選択された少なくとも3つのカメラのうちの所与のカメラによってキャプチャされたイメージの各部分について第1の境界と第2の境界とを規定する処理装置であり、第1の境界は所与のカメラの中心点と所与のカメラの近隣の少なくとも3つのカメラのうちの第1のカメラの中心点とを連絡する第1の線に少なくとも部分的に対応し、第2の境界は所与のカメラの中心点と所与のカメラの近隣の少なくとも3つのカメラのうちの第2のカメラの中心点とを連絡する第2の線に少なくとも部分的に対応する。
一部の実施形態では、処理装置は、スティッチングのために選択されたキャプチャイメージの各部分について、イメージの周縁に達するまで第1の境界を第1の線に対応させ、また、第2の境界を第2の線に対応させるように規定する。
一部の実施形態では、処理装置はキャプチャイメージを受信する処理装置であり、該処理装置は、第1の近隣のカメラの第1の複製と第2の近隣のカメラの第2の複製とを含むイメージとスティッチングのために選択されたイメージの第1の部分とイメージの第2の部分とを所与のカメラから受信する。
一部の実施形態では、処理装置はイメージの第1及び第2の部分の各々について第1の境界及び第2の境界を規定する処理装置であり、各境界は第1のセクションと第2のセクションとを備え、イメージの第1の部分については、第1の境界の第1のセクションは第1の線に対応し、第2の境界の第1のセクションは第2の線に対応し、第1の境界の第2のセクションはイメージの第1の部分から第1の複製を除去するための第1の線から遠ざかるように延び、第2の境界の第2のセクションは第2の線から遠ざかるように伸びておりかつ第1の境界の第2のセクションと同じ形状を有しており、イメージの第2の部分については、第1の境界の第1のセクションは第2の線に対応し、第2の境界の第1のセクションは第1の線に対応し、第1の境界の第2のセクションはイメージの第2の部分から第2の複製を除去するための第2の線から遠ざかるように延び、第2の境界の第2のセクションは第1の線から遠ざかるように伸びておりかつ第1の境界の第2のセクションと同じ形状を有する。
一部の実施形態では、イメージの第1の部分の第1の境界は第1の複製に達するまで第1の線に対応するように規定され、イメージの第2の部分の第1の境界は第2の複製に達するまで第2の線に対応するように規定され、イメージの第1及び第2の部分のどれかの第1の境界及び第2の境界は同じ長さを有する。
一部の実施形態では、処理装置は、スティッチングのために選択された少なくとも3つのカメラの各々からのキャプチャイメージの部分を左右の境界に沿ってスティッチングすることによって左眼ビューと右眼ビューとを生成する。
一部の実施形態では、処理装置は、キャプチャイメージの第1の複数の部分をスティッチングすることによって左眼ビューを生成し、キャプチャイメージの第2の複数の部分をスティッチングすることによって右眼ビューを生成する処理装置であり、キャプチャイメージの第2の複数の部分はキャプチャイメージの第1の複数の部分を180度回転したものに対応する。
一部の実施形態では、処理装置は、キャプチャイメージの部分の第1の群であって少なくとも3つのカメラのうちの円周の中心と第1の複数の点の1つとの間での第1の見通し線の反時計回り側に配置された第1のカメラから各々眺められた第1の複数の点を備える第1の群を、キャプチャイメージの第1の複数の部分として選択し、また、キャプチャイメージの部分の第2の群であって少なくとも3つのカメラのうちの円周の中心と第2の複数の点の1つとの間での第2の見通し線の時計回り側に配置された第2のカメラから各々眺められた第2の複数の点を備える第2の群を、キャプチャイメージの第2の複数の部分として選択する。
一部の実施形態では、少なくとも3つのカメラの各々は広角レンズであって、上方に向けられておよそ基線の高さ以上のイメージをキャプチャするように方向付けられているか下方に向けられておよそ基線の高さ以下のイメージをキャプチャするように方向付けられている広角レンズを有する。
一部の実施形態では、少なくとも3つのカメラの各々は単一ビューポイント魚眼レンズを有する。
一部の実施形態では、少なくとも3つのカメラの各々は規則的な間隔毎にイメージをキャプチャするように構成されており、少なくとも3つのカメラは所与のどの時刻においても少なくとも3つのカメラが同時的にイメージをキャプチャできるように同期されている。
一部の実施形態では、処理装置は球面ビューに表示するために左眼ビュー及び右眼ビューをフォーマッティングする。
一部の実施形態では、処理装置は直線ビューに表示するために左眼ビュー及び右眼ビューをフォーマッティングする。
一部の実施形態では、処理装置は円筒ビューに表示するために左眼ビュー及び右眼ビューをフォーマッティングする。
一部の実施形態では、処理装置は左眼ビュー及び右眼ビューをアナグリフとしてエンコーディングする。
一部の実施形態では、処理装置はヘッドマウントディスプレイに表示するために左眼ビュー及び右眼ビューをフォーマッティングする。
本願発明の別のおおまかな側面によれば、隔たって配置された複数のカメラによって取得されたイメージから実質的に360度の視野を生成する方法であって、基線の高さにおいて円周上に実質的に等間隔に固定された複数のカメラからの前記イメージをキャプチャするステップと、前記複数のカメラの近隣のカメラの中心点を連絡する線に少なくとも部分的に対応する第1及び第2の境界に沿って、前記複数のカメラの各々からの前記イメージの部分をスティッチングするステップとを備える、方法が提供される。
一部の実施形態では該方法は、実質的に360度の視野についての左眼ビューと右眼ビューとを生成するステップと、左眼ビューと右眼ビューとを一緒に投射して奥行き知覚をもたらすステップとをさらに備える。
一部の実施形態では、イメージをキャプチャするステップは、動的イメージをキャプチャすることを伴う。
一部の実施形態では、複数のカメラからのイメージをキャプチャするステップは、同じ方向に向けられて実質的に360度の視野の一部分についてイメージをキャプチャするように構成された広角レンズを各々有する少なくとも3つのカメラからのイメージをキャプチャすることを伴う。
一部の実施形態では、イメージをキャプチャするステップは、複数のカメラからのイメージを任意のどの時刻においても同時的にキャプチャすることを伴う。
一部の実施形態では、イメージの部分をスティッチングするステップは、360度/Nの視野に各々対応する部分をスティッチングすることを伴い、ここでNは複数のカメラの個数である。
一部の実施形態では、イメージをキャプチャするステップは、カメラの近隣にある複数のカメラのうちの第1のカメラの第1の複製とカメラの近隣にある複数のカメラのうちの第2のカメラの第2の複製とを含むイメージとスティッチングのために選択されたイメージの第1の部分とイメージの第2の部分とを複数のカメラのうちの任意のカメラからキャプチャすることを伴う。
一部の実施形態では、イメージの第1及び第2の部分の各々についての第1の境界及び第2の境界の各々は、第1のセクションと第2のセクションとを備え、イメージの第1の部分については、第1の境界の第1のセクションはカメラの中心点と第1の近隣のカメラの中心点とを連絡する第1の線に対応し、第2の境界の第1のセクションはカメラの中心点と第2の近隣のカメラの中心点とを連絡する第2の線に対応し、第1の境界の第2のセクションはイメージの第1の部分から第1の複製を除去するための第1の線から遠ざかるように延び、第2の境界の第2のセクションは第2の線から遠ざかるように伸びておりかつ第1の境界の第2のセクションと同じ形状を有しており、イメージの第2の部分については、第1の境界の第1のセクションは第2の線に対応し、第2の境界の第1のセクションは第1の線に対応し、第1の境界の第2のセクションはイメージの第2の部分から第2の複製を除去するための第2の線から遠ざかるように延び、第2の境界の第2のセクションは第1の線から遠ざかるように伸びておりかつ第1の境界の第2のセクションと同じ形状を有する。
一部の実施形態では、スティッチングするステップは各イメージについて第1及び第2の境界に沿ってスティッチングすることを伴い、イメージの第1の部分の第1の境界は第1の複製に達するまで第1の線に対応するように規定され、イメージの第2の部分の第1の境界は第2の複製に達するまで第2の線に対応するように規定され、イメージの第1及び第2の部分のどれかの第1の境界及び第2の境界は同じ長さを有する。
一部の実施形態では、スティッチングするステップはスティッチングのために選択されたキャプチャイメージの各部分について第1及び第2の境界に沿ってスティッチングすることを伴い、イメージの周縁に達するまで第1の境界は第1の線に対応するように規定されて第2の境界は第2の線に対応するように規定される。
一部の実施形態では、左眼ビューを生成するステップはイメージの第1の部分をスティッチングすることを伴い、右眼ビューを生成するステップはイメージの第2の部分をスティッチングすることを伴い、イメージの第2の部分はイメージの第1の部分を180度回転したものに対応する。
一部の実施形態では該方法は、部分の第1の群であって複数のカメラのうちの円周の中心と第1の複数の点の1つとの間での第1の見通し線の反時計回り側に配置された第1のカメラから各々眺められた第1の複数の点を備える第1の群を、イメージの第1の部分として選択するステップと、部分の第2の群であって複数のカメラのうちの円周の中心と第2の複数の点の1つとの間での第2の見通し線の時計回り側に配置された第2のカメラから各々眺められた第2の複数の点を備える第2の群を、イメージの第2の部分として選択するステップとをさらに備える。
一部の実施形態では該方法は、球面ビューに表示するために左眼ビュー及び右眼ビューをフォーマッティングするステップをさらに備える。
一部の実施形態では該方法は、直線ビューに表示するために左眼ビュー及び右眼ビューをフォーマッティングするステップをさらに備える。
一部の実施形態では該方法は、円筒ビューに表示するために左眼ビュー及び右眼ビューをフォーマッティングするステップをさらに備える。
一部の実施形態ではフォーマッティングするステップは、左眼ビュー及び右眼ビューをアナグリフとしてエンコーディングすることを伴う。
一部の実施形態では該方法は、ヘッドマウントディスプレイに表示するために左眼ビュー及び右眼ビューをフォーマッティングするステップをさらに備える。
本願発明の別のおおまかな側面によれば、隔たって配置された複数のカメラによって取得されたイメージから実質的に360度の視野を生成するためのプロセッサにより実行可能なプログラムコードが格納されたコンピュータ可読媒体であって、前記プログラムコードは、基線の高さにおいて円周上に実質的に等間隔に固定された複数のカメラからの前記イメージをキャプチャするステップと、前記複数のカメラの近隣のカメラの中心点を連絡する線に少なくとも部分的に対応する第1及び第2の境界に沿って、前記複数のカメラの各々からの前記イメージの部分をスティッチングするステップとの実行を可能とするプログラムコードである、コンピュータ可読媒体が提供される。
添付の図面と共に後述の詳細な説明を参照することにより本願発明の更なる特徴及び利点が明らかとなる。
添付の図面では同様の要素は同様の参照符号によって特定されていることに留意されたい。
オムニポーライメージング装置についての例示的な実施形態を示す概略図である。 オムニポーライメージング装置によってキャプチャされたイメージを処理するための例示的なコンピューティング装置のブロック図である。 3つのカメラを用いる場合において、基線に基づいてどのようにして左/右の全周囲立体ビューをアセンブルするかを示す図である。 3つのカメラを用いる場合において、基線に基づいてどのようにして左/右の全周囲立体ビューをアセンブルするかを示す図である。 4つのカメラを用いる場合において、基線に基づいてどのようにして左/右の全周囲立体ビューをアセンブルするかを示す図である。 4つのカメラを用いる場合において、基線に基づいてどのようにして左/右の全周囲立体ビューをアセンブルするかを示す図である。 3つのカメラで構成されるオムニポーラセットアップにおける各カメラについての入力イメージを示す図である。 図4Aの入力イメージに対応する左右の出力イメージを示す図である。 図4Aの入力イメージの形状における偏差を示す図である。 図5Aの入力イメージに対応する左右の出力イメージを示す図である。 ドーム表示装置又は円柱スクリーン(6A)に全周囲立体イメージをレンダリングするためのプロセス及びスクリーン上のレンダリング位置において発生し得る歪曲を示す図である。 ドーム表示装置又は円柱スクリーン(6A)に全周囲立体イメージをレンダリングするためのプロセス及びスクリーン上のレンダリング位置において発生し得る歪曲を示す図である。 各魚眼レンズについてのレンズオクルージョンによる実際の垂直視野を示す図である。 ドーム及び垂直壁上の点についての仰角に関しての垂直視差の例示的なグラフ表示である。 3つのカメラを用いた際のx−z平面内でのアイレベルにおける知覚上の深度歪曲点を示す図である。 3つのカメラを用いた際のx−z平面内でのアイレベルにおける知覚上の深度歪曲点を示す図である。 4つのカメラを用いた際のx−z平面内でのアイレベルにおける知覚上の深度歪曲点を示す図である。 4つのカメラを用いた際のx−z平面内でのアイレベルにおける知覚上の深度歪曲点を示す図である。 5つのカメラを用いた際のx−z平面内でのアイレベルにおける知覚上の深度歪曲点を示す図である。 5つのカメラを用いた際のx−z平面内でのアイレベルにおける知覚上の深度歪曲点を示す図である。 8つのカメラを用いて行う単眼キャプチャのための例示的なオムニポーラセットアップを示す図である。
図1は、オムニポーライメージング装置10についての例示的なセットアップを示す。魚眼レンズ等の3つの超広角レンズ1が3つのカメラ2にマウントする。カメラは、静的なイメージ及び/又はビデオ(即ち、動的な)イメージをキャプチャするための超広角レンズを用意できる任意のタイプのものであることができる。例えばカメラは、Fujinon(登録商標)C−マウント魚眼レンズを備える1360×1024ピクセルの解像度のProsilica(登録商標)1380カメラであることができ、又は、Opteka Vortex(登録商標)魚眼レンズを備える1920×1090ピクセルの解像度のCanon(登録商標)HFS11カメラであることができる。カメラ2は、支持部3上に設置された円柱状アタッチメント4に強固に固定されている。各カメラ2の相対的位置が既知のかつ固定されたものとなることを確実にするために、円柱状アタッチメント4及び支持部3は様々な形状とすることができる。例えば3カメラ用三脚等の単一の手段を用いることができる。オムニポーライメージング装置10は、図示のように上向きに配置されてレンズ1の高さから上方のイメージをキャプチャする、又は、レンズ1を下向きにして配置されておよそレンズ1の高さから下方のイメージをキャプチャすることができる。カメラ2は垂直方向に(即ち、z軸方向に沿って)配置されているものとして図示されているが、カメラ2が水平方向に(即ち、x軸方向に沿って)配置されるようにしてオムニポーライメージング装置10を配置することができることに留意されたい。他の構成も適用され得る。また、後述するが、3つ以上のカメラを用いることもできる。
カメラ2によってキャプチャされたイメージは、接続手段5を介してコンピューティング装置6へと送信される。コンピューティング装置6で受信されると、キャプチャイメージは例示的に処理(以下、態様について詳述する)されて表示装置(不図示)にてレンダリングするための出力イメージが生成される。オムニポーライメージング装置10によって取得されたイメージの処理は、シーンの深度を推定することを伴うことができる。本願明細書にて後述するように、コンピューティング装置6を用いてイメージスティッチングを行うこともできる。1つの実施形態においては、コンピューティング装置6と共に提供された適切な入力手段(例えば、マウスやキーボード等)を介して(例えば、ユーザ等から)受信した1以上の入力命令に応答して、コンピューティング装置6にてキャプチャイメージの処理を行うことができる。送信はリアルタイム、即ちキャプチャ時において、又は、キャプチャイメージをメモリ装置(不図示)に保存した上で後の時点で、行われることができる。接続手段5は、図示のように有線のものとされるか又は無線のものとされることができる。各カメラは、規則的な間隔毎でのイメージの取得を可能とする内部クロックを有することができる(例えば、毎秒のイメージ数にして24、30、60等)。全てのカメラの内部クロックを互いに同期しておくことによって、任意の時刻において全てのカメラで同時的なイメージのキャプチャを可能とすることができる。用いられるカメラの種類に応じて、同期は様々な手法を用いて行うことができる。例えば、Prosilica 1380カメラを用いる場合、カメラをコンピューティング装置(例えば、コンピューティング装置6)に接続するネットワーク接続を介して同期が行われることができる。Canon HFS11カメラを用いる場合、例えばLANC ShepherdTM(登録商標)等の立体ビデオ及び立体写真用の有線リモコンを用いることができる。他のカメラ同期手法についても、当業者は容易にそれらを理解するであろう。
コンピューティング装置6は、1以上のリモートサーバであって、インターネット、公衆電話交換網(PSTN、Public Switch Telephone Network)、セルラーネットワーク又は当業者によって知られている他のネットワーク等の任意の種類のネットワークを介してアクセス可能なサーバ、に対応することができる。コンピュータネットワーク内の装置による情報交換を可能とする任意で既知の通信プロトコルを用いることができる。プロトコルの例には次のものが含まれる:IP(インターネットプロトコル)、UDP(User Datagram Protocol)、TCP(通信制御プロトコル)、DHCP(動的ホスト構成プロトコル)、HTTP(ハイパーテキスト転送プロトコル)、FTP(ファイル転送プロトコル)、TELNET(Telnet Remote Protocol)、SSH(Secure Shell Remote Protocol)、POP3(Post Office Protocol 3)、SMTP(Simple Mail Transfer Protocol)、IMAP(Internet Message Access Protocol)、SOAP(Simple Object Access Protocol)、PPP(Point-to-Point Protocol)、RFB(Remote Frame buffer)。
図2に示すように、他のものに加えてではあるが、コンピューティング装置6においては複数のアプリケーション24a...24nがプロセッサ22上にて実行されており、プロセッサはメモリ20と接続されている。前述のアプリケーション24a...24nは別々の客体として例示及び説明されているが、これらは様々な態様で組み合わされたり分離されたりすることができることに留意されたい。
プロセッサ22によってアクセスされることができるメモリ20は、データを受信及び格納する。メモリ20は、高速ランダムアクセスメモリ(RAM)等のメインメモリ又はハードディスク、フラッシュメモリ若しくは磁気テープドライブ等の補助記憶装置であることができる。メモリは他の任意の種類のメモリであることができ、例えば読み出し専用メモリ(ROM)、消去可能プログラマブル読み出し専用メモリ(EPROM)、若しくはビデオディスクやコンパクトディスク等の光学式記憶媒体等であることができる。
プロセッサ22は、メモリ20にアクセスしてデータを読み出すことができる。プロセッサ22は、データに対して演算を行うことのできる任意の装置であることができる。この例としては、中央演算処理装置(CPU)、フロントエンドプロセッサ、マイクロプロセッサ、グラフィックス処理装置(GPU/VPU)、物理処理装置(PPU)、デジタル信号処理装置、ネットワークプロセッサ等がある。アプリケーション24a...24nはプロセッサ22に関連づけられており、以下において詳述するがカメラ2から受信した入力イメージを処理して出力イメージを生成する等の様々なタスクを行うように構成されている。出力は、例えば表示装置等の任意の装置へと送信されることができる。
カメラ2は円周上において等間隔に配置されている。カメラ2は単一ビューポイントレンズ1を用いており全てのカメラ2は同じ方向に向いているとの仮定の下で、ワールド内の点が如何にしてカメラピクセルにマッピングされるかを規定する投射モデルを決定する。ここで、(ox , oy )を主点(カメラ2のイメージセンター)とする。各ピクセルp = (x, y)は、イメージセンターの回りの角度φ及びレンズ画角に関連する角度θを用いて単位球上へとマッピングされる:

角度θは、ピクセルが角度に正比例する正距図法モデルにおける角度θの歪曲値を表す。角度θはθの関数としてモデリングされ、係数k,kは多項式関数でモデリングされる:
したがって、ピクセル値は次のようにしてカメラ空間内の射線にマッピングされることができる:
ここで、Ω及びΩはそれぞれy軸とz軸についての回転行列である。さらに、x−z平面内の単位円上に乗るようにカメラ位置はモデリングされ、各カメラの上方向ベクトルは該円に対して直交するものとされる。したがって、カメラ空間内の単位射線は次の関係を用いてワールドポイントへとマッピングされる:
ここで、Rは円周上の位置を規定するy軸との関係での回転行列であり、Tはz軸に沿った単位並進であり、Rxzはそれぞれx軸及びz軸との関係での回転2つの組合せである。Zパラメータはピクセル(x, y)にて観測された深度であり、先天的に不明である。
N=3のカメラを調整するには、i ∈1, 2, . . . , Nについて、カメラiのイメージサークルの中心(oxi , oyi )をまず手動で特定する。その後も幾つかのパラメータを調整する必要があり、具体的には全レンズについて同じ値に固定される内部パラメータであるf,k及びk、並びに、回転角度rxi,ryi及びrziがこれにあたり、ry1は除かれて0にフォーシングされる。これらのパラメータは、およそM=20要素とされ、j ∈1, 2, ... , Mとされる過拘束システムpi j = (xi j, yi j)を用いるバンドル最小化によって推定される。これらの要素は、全てのカメラに関して手動で特定される。fパラメータはピクセル換算したイメージサークル半径をπで割った比として初期化され回転角度ry2,ry3は(2 π (i - 1)) / Nとして初期化される。他のパラメータは0として初期化される。f推定の安定性を向上させるため、各イメージについて1つのエピポールe が特定され、これらのワールド内x−z平面への投射の距離が最小化される。したがって、Levenberg-Marquardt法を用いて次の和を最小化する:
ここで、f()はワールド内の点をイメージi内のピクセル位置へとマッピングする関数であり、g()はピクセルを与えられてこれをZ=1としたワールドへマッピングする関数である。式4及び式5を参照されたい。バンドル調整の各反復回では、ワールドp 内の要素の位置は、更新されたカメラパラメータを用いた三角測量法によってユークリッド空間内で推定される:
ここで、Iは3×3の恒等行列であり、p ciはカメラiへとマッピングされた点p であり、cはカメラiの位置である。
図3A乃至3Dは、オムニポーライメージング装置10において、基線に基づいてどのようにして左右の全周囲立体ビューがアセンブルされるかを示す。図3Aは3カメラシステムの左眼ビューを表し、図3Bは3カメラシステムの右眼ビューを表す。図3Cは4カメラシステムの左眼ビューを表し、図3Dは4カメラシステムの右眼ビューを表す。
図3Aを参照するに、カメラC1、C2及びC3からの3つの別個の視野域をそれぞれ用いて360度の視野を得るためのイメージスティッチングが行われる。領域34はカメラC1からの120度の視野に対応し、領域30はカメラC2からの120度の視野に対応し、領域32はカメラC3からの120度の視野に対応する。視野は、3本の線36、38、40に沿って区切られる。線36はカメラC1及びC2のそれぞれの中心点と交差し、線38はカメラC1及びC3のそれぞれの中心点と交差し、線40はカメラC2及びC3のそれぞれの中心点と交差する。したがって、これらの線36、38、40は各カメラC1、C2及びC3のエピポーラ点を通過するのであり、各カメラペアについての最小視差点をこれらが表すが故に各々120度の視野3つのスティッチング箇所として選択される。
本願明細書との関係では、「エピポール」及び「エピポーラ」との用語は、キャプチャイメージと2つのカメラ位置を連絡する基線との間の交差点を意味する。使用されるカメラの個数にかかわらず、各カメラと円周上のそれの隣にある2つのカメラとを通過する2つの線が規定される。したがって、カメラを通過する2つの線は、該カメラの360度の視野を4つの部分に分割する。3つのカメラを用いる場合、2つの部分は120度の視野となり、2つの部分は60度の視野となる。120度の部分のみが例示的に利用されるのであり、一方が左ビューを作るのに用いられ、他方が右ビューを作るのに用いられる。使用される部分は、正式には後述の式(9)で定義される。
図3Bでは、各カメラのために用いられる視野は、図3Aにて用いられる視野を180度回転させたものに対応する。領域31はカメラC1からの120度の視野に対応し、領域33はカメラC2からの120度の視野に対応し、領域35はカメラC3からの120度の視野に対応する。これらのビューは依然3つの線36、38、40によって区切られているが、360度の視野を作成するためのスティッチングのために選択されたカメラC1、C2及びC3の各々の視野は、図3Aに示されている左眼用のそれとは異なる。
イメージがカメラ(例えば、C1、C2、C3)によってキャプチャされたらば、又は、二つのイメージが図3A及び図3B等の部分からアセンブルされたらば、次のようにしてどちらが左眼用でありどちらが右眼用であるかを決定することができる。地点X(スクリーンの中心にいる理想的な観察者の位置を例示的に表す地点)から観察されたシーン上の任意の点は、2つのカメラによって眺められ得る。シーンを眺めるカメラが(Xからシーンポイントへの)見通し線の反時計回り側に配置されている場合、イメージは左眼用となる。カメラが時計回り側にある場合、イメージは右眼用となる。したがって、図3A及び図3Bはそれぞれ左眼用と右眼用である。
図3Cを参照するに、360度の視野を得るためのイメージについてのスティッチングは、カメラC1、C2、C3、C4からの4つの別個の視野領域をそれぞれ用いて行う。領域42はカメラC1からの90度の視野に対応し、領域44はカメラC2からの90度の視野に対応し、領域46はカメラC3からの90度の視野に対応し、領域48はカメラC4からの90度の視野に対応する。ビューは、4つの線50、52、54、56に沿って区切られている。線50はカメラC1及びC2のそれぞれの中心点と交差し、線52はカメラC2及びC3のそれぞれの中心点と交差し、線54はカメラC1及びC3のそれぞれの中心点と交差し、線56はカメラC3及びC4のそれぞれの中心点と交差する。したがって、これらの線50、52、54、56はカメラC1、C2、C3、C4のそれぞれのエピポーラ点を通過するのであり、各カメラペアについての最小視差点をこれらが表すが故に各々90度の視野4つのスティッチング箇所として選択される。
図3Dを参照するに、各カメラに用いられる視野は、図3Cで用いられた180度回転した視野に対応する。領域43はカメラC1からの90度の視野に対応し、領域45はカメラC2からの90度の視野に対応し、領域47はカメラC3からの90度の視野に対応し、領域49はカメラC4からの90度の視野に対応する。これらのビューは依然4つの線50、52、54、56によって区切られているが、360度の視野を作成するためのスティッチングのために選択されたカメラC1、C2、C3及びC4の各々の視野は、図3Dに示されている左眼用のそれとは異なる。3カメラセットアップ及び4カメラセットアップに関してのスティッチングパターンが例示されているが、同じ原理に従って4つ以上のカメラにも該概念を拡張することができることに留意されたい。
図4Aは、図3A及び図3Bのオムニポーラセットアップの3つのカメラによってそれぞれキャプチャされた入力イメージ102a、102b及び102cを示す。各入力イメージ102a、102b又は102cについて、イメージ領域104a、104b、104c及び106a、106b、106cが選択されて全周囲立体イメージペアが作成されるのであり、各領域104a、104b、104c、106a、106b、106cはおよそ120度にわたる。図3A及び図3Bとの関係で説明したように、領域104a、104b、104cは左眼用のイメージを作成するのに用いられ、領域106a、106b、106cは右眼用のイメージを作成するのに用いられる。もっとも、カメラC1、C2、C3は広い垂直画角を有するため、所与のカメラC1、C2又はC3を用いてキャプチャした102a、102b、102cのようなイメージそれぞれについて、残りの2つのカメラ(特に、それらのレンズ)がキャプチャイメージに写っている場合があり得る。キャプチャイメージにおいてカメラが写っていない場合、各イメージ領域はイメージをキャプチャしたカメラの中心点と近隣のカメラの中心点とを連絡する線に(例えば、沿う等して)対応する境界を有することができる。特に、境界は、線に対応し、かつ、イメージをキャプチャしたカメラの中心点からイメージの周縁(不図示)に達するまで延びることができる。
他の場合、写り得るカメラのイメージが最終的な全周囲立体イメージペアに含まれないことを確実にするため、所与のカメラC1、C2又はC3によってキャプチャされた各領域104a、104b、104c、106a、106b、106cを、残り2つの写り得るカメラに達する前に遮断することができる。例えば、カメラC1によってキャプチャされた入力イメージ102aについては、領域104aをキャプチャイメージ102aの中心106からキャプチャイメージ102aの境界(不図示)へ延ばすが、カメラC1によってキャプチャされたカメラC2の複製108に達する前に遮断される。同様にして、カメラC1によってキャプチャされたカメラC3の複製110に達する前に領域106aは遮断される。したがって、領域104a及び106aは、キャプチャイメージ102aの周縁には到達しないようにして中心106から離れるようにして延びている。このようにして、自己遮蔽、即ち一方のカメラが別のカメラを遮蔽してしまう事象、が回避される。図4Bは左側の出力イメージ109a及び右側の出力イメージ109bを示し、これらは図4Aの入力イメージに対応する。特に、左側の出力イメージ109aはスティッチングされたイメージ領域104a、104b、104cを含み、右側の出力イメージ109bはスティッチングされたイメージ領域106a、106b、106cを含む。
キャプチャイメージ内の写り得るカメラに達する前に(即ち、イメージの周縁に達する前に)イメージ領域を長さ方向において遮断することによって、出力視野(例えば、左右の出力イメージ108a、108bの合計面積)が減じられてしまう。写り得るカメラが視認される入力イメージ102a、102b、102cの視野の部分は、結果としてもたらされる左右の出力イメージ109a、109bから実際に除去される。出力視野を増大させるために、図5Aに示すように、各入力イメージ102a、102b又は102cの領域104a、104b、104c、106a、106b、106cを代わりに調整して、新たな領域112a、112b、112c及び114a、114b、114cを得ることができる。特に、この実施形態では、領域の境界は線によって部分的にしか区切られておらず、これら線は近隣のカメラペアの中心点と交差する。この実施形態において実際には、カメラが写り得るようになる点を始点にして、イメージ領域は線から若干ずれるように構成される。したがって、イメージ領域の境界(不図示)は、もはや上述の線に厳密に沿うものではなく、102a等の入力イメージ内において108又は110等のカメラの複製が現れる所まで部分的に線に沿うものに過ぎない。したがって、各境界は、(カメラの複製に達するまでは、)線に対応する(即ち、線に沿って配置された)第1のセクション(不図示)と、写り得るカメラの複製108、110に対応する形状をイメージ領域から除去することができるようにするために(イメージの周縁に達するまでの)線からずれる第2のセクションとを備えることができる。該ずれはカメラセットアップに依存するものであるため、前処理段階においてずらし処理を一回定義することができる。
ずらしは、写り得るカメラを回避するために行われるということに留意されたい。したがって、ずらしの形状は、除去すべき写り得るカメラの形状に依存することができる。特に、ずらしの形状は、写り得るカメラの形状に基づくことができる。代替的には、イメージ領域の境界が既定の角度や高さに従って上述の線からずれるようにずらしを行うことができる。例えば、領域112aの第1の又は左側の境界(不図示)は、線116(イメージ102aをキャプチャしたカメラC1の中心点とカメラC2の中心点とを連絡する線)からずれることによって領域112aにはカメラC2の複製108が含まれないようになり、複製108の形状が領域112aから除去される。同様にして、領域114aの第1の又は左側の境界(不図示)は、線118(カメラC1の中心点とカメラC3の中心点とを連絡する線)からずれることによって領域114aにはカメラC3の複製110が含まれないようになり、複製110の形状が領域114aから除去される。そして、線116と−カメラC1の中心点とイメージ領域112aのずらされた第1の境界がイメージ102aの周縁に達する点(不図示)とを連絡する線117と−の間で所定の角度(例えば20度、不図示)が形成され得る。もっとも、所定の線116、118からのずらし量(例えば、角度)は、最小化されることが望ましい点に留意すべきである。
写り得るカメラの複製の除去、即ち領域の所定の境界(例えば、左側の境界)においての線(例えば、線116、118)からのずらし、について埋め合わせるため、領域の他方の境界(例えば、右側の境界)においてもずらしを行ってイメージ部分から除去された写り得るカメラの形状に対応するイメージ部分を問題の領域に追加する。具体的には、領域112aの第2又は右側の境界(不図示)が線118からずらされ、領域114aの第2又は右側の境界(不図示)が線116からずらされる。112aや114a等の任意のイメージ領域においては、第1の境界にて行われたずらしの形状(例えば、湾曲又は他のジオメトリ)は、第2の境界にて行われたずらしの形状と同じであり、例示的には第1及び第2の境界は同じ長さとされることに留意されたい。また、イメージ領域112aの第1及び第2の境界は共に対応する線116、118から同じ角度(例えば、20度)をもって例示的にずらされる。結果としてもたらされる左右の出力イメージ120a、120bは図5Bに示され、左側の出力イメージ120aはスティッチングされたイメージ領域112a、112b、112cを含み、右側の出力イメージ120bはスティッチングされたイメージ領域114a、114b、114cを含む。
ドーム若しくはプラネタリウムディスプレイ(球面ビュー)用の又は円筒型スクリーン(円筒ビュー)用の全周囲立体イメージのレンダリングに関しては、点Xにおいてセンタリングがなされ、図3A及び図3Bの3カメラセットアップが用いられ、2つの隣接する基線間の角度α,α,αは次のように定められる。この出力イメージの外部行列(回転及び並進行列)は、恒等行列とされる。出力歪曲係数k及びkも0として設定される。
まず、全周囲立体ドームにおける左眼用のイメージについて検討する。固定シーン深度Zを仮定するに、図6Aに示すように、各ピクセルjを半径Zの球に投射して推定ワールドポイント位置
を取得する。この投射はZ、つまりスクリーン半径、及び眼間隔bに依存し、眼間隔は平均的な人間の眼間隔たる6.5cmに固定される。
次式で与えられる、カメラi(又はc)における点
の水平角度位置たる
を検討する:

が区間[γi-1 , γi ]内にある場合のみにおいて、カメラiに再投射されたピクセルサンプル点たる
が使用されるのであり、角度γiは次のように定義される:
ここで、γ0 = 0がカメラcとcとを連絡する線の方向に対応する。
右眼のイメージをレンダリングするためには同じインターバルを用いることができるが、
の値にオフセット量πを加算する。これにより、水平方向において完全に360度の視野を包括する全周囲立体イメージペアが作り出される。
自己遮蔽を伴わない垂直視野はほぼ180度である。図7に示すように、遮蔽の量は基線長とレンズ曲率に依存する。極度に強いカーブが施されたレンズに関しては、基線長を若干増大させて自己遮蔽を伴わないより広い垂直視野を得ることができる。奇数個のカメラを用いる場合、左右の全周囲立体イメージ内の同一のイメージ領域にカメラが配置されないが故に、遮蔽箇所が非隣接単眼領域をもたらすという点に留意されたい。
全周囲立体ペアのそれぞれのイメージは、カメラ個数に対応する幾つかの単眼性の帯状領域(monocular seams)を有する。エピポールを通過する(カメラセットアップの3次元幾何学空間内の)垂直スティッチング平面を用いることによって、視差によって誘発されるシームにおける水平方向のずれは、シーン深度にかかわらず、ないことになる。しかし、x−z平面外の点に関しては垂直方向のずれが生じる。これらシームにおける垂直方向のずれの大きさは、深度の範囲及びx−z平面との関係での仰角に依存する。
垂直視差が生じない単一の深度を選択することができ、即ち深度Zにある点が対象となる。したがって、Zを慎重に選択するのが肝要である。例えば、カメラの上方の天井の距離をZとして設定することができる。なぜならば、同箇所で垂直視差が最も悪化するからである。
垂直視差は、Zs = ∞を様々な仰角βについて検討することによって数量化できる。具体的には、例えばドーム上のシーンポイント2組について検討する:
壁上のポイントは次の通りである:
ここで、30°はカメラcとカメラcとの間シームの向きに対応し、Zはドームの半径又は壁の距離にあたる。ドームの半径及び壁の距離は双方ともに2.3mに固定された。なぜならば、この値が円筒スクリーンの半径に実質的に対応するからである。なお、望ましくは、ウィンドウ違反を回避するためにどのシーンポイントもこれより近いものであってはならない。そして、次式を用いて、垂直視差を計算するのであり、この際2048×2048ピクセルの解像度を有するドームへの投射に関してのカメラc1及びc2間の差分を取得する:
図8は、ピクセル換算の垂直視差を示す。x−z平面内の点に関してこれは0であり、ドームの頂点においては20ピクセルに増加し(曲線52)、垂直壁上の点については仰角45度にて9ピクセルに増加する(曲線54)。したがって、垂直視差は論点ではあるが、この値は通常は小さく、観察されるシーンに応じて変化することがこの実験により示される。
知覚される立体歪曲は、x−z平面上の点に関して視覚システムの中心にて計算されることができる。任意のシーンポイントp については、ドームディスプレイ又は円筒スクリーンの中心に配置された観察者がこれらに正対していると仮定する。そして、次のようにしてこの点がどこにおいて知覚されるかを測定することができる。眼の位置はRy(α)( ±b/2, 0, 0 )Tとして与えられ、ここでαは眼の基線の向きであり、α = arctan(pj w[x], pj w[z])として与えられる。ここでもbに与えられる値は6.5cmである。なぜならば、これが平均的な人間の眼間隔であるからである。そして、複数のシーンポイントpj wのレンダリング位置が2つのZ値、具体的には∞及び4m、について計算され、また、両眼をつなぐ射線とレンダリング位置が三角測量法によって求められる。スクリーン上の左右レンダリング位置は、
における真の位置の代わりに、深度Zsにおける
を検討することによって計算することができる(図6A及び図6Bを参照)。スクリーン上の左右レンダリング位置は、iと対応する左右のカメラ位置とをつなぐ線に半径Zの円を交差させて、これらの交差点をスクリーン半径に合わせて正規化することによって計算することができる。
具体的には、そして図6Aに示されるように、スクリーン121に全周囲立体ペアの左イメージをレンダリングするに際しては、ピクセルjは深度Zへ投射されて
が得られてこれはピクセル
において選択されたカメラC3によって観察される。したがって、
におけるイメージ色はピクセルjにてスクリーン上にコピーされる。図6Bでみられるように、ワールドポイント
が深度Zに位置していない場合、歪曲が生じる。なぜならば、スクリーン121上でのレンダリング位置122が、スクリーン121の中心126に配置された観察者がスクリーン121と正対している場合に本来みるべき位置124に対応していないからである。
図9A〜9Fは、異なる深度においてどのように各点が歪曲されているかを示す(点の真正な位置が実線で示され、歪曲された位置が破線で示され、スクリーン半径が点線で示されるのであり具体的には100cm、200cm、400cm及び800cmの場合が示されている)。図9A、9C及び9Eはそれぞれカメラを3つ、4つ、5つ用いた場合において、Zs = ∞とした際の歪曲を示す。図9B、9D及び9Fはそれぞれカメラを3つ、4つ、5つ用いた場合において、Zs = 400cmとした際の歪曲を示す。奇数個のカメラを用いた場合には点で構成される円が2N個の直線又は円弧に歪曲される一方で、偶数個のカメラを用いた場合にはN個の直線又は円弧をもたらす歪曲に至るということがここで指摘される。
このことは図3A〜3Dを参照することによって説明することができる。スクリーンの中心に位置する観察者がカメラC4の方向に向いていると仮定する。立体ビューはカメラC1及びC3によってキャプチャされる。なぜならば、これらカメラは両眼の位置に正確に一致するからである。実際には、(C1,C3)及び(C2,C4)のカメラペアはそれぞれ2つの立体ビューを提供し、合計で4つの立体ビューを提供する。これらの立体ビューの中心においては、立体的な歪曲はない。奇数個のカメラを用いる場合、両眼の位置に正確に一致するカメラペアは絶対存在することはない。歪曲はないが、Zの後方にある点は深度において若干近づいたようにみえ、Zの前方にある点は深度において遠のいたようにみえる。しかし、円周をより良く近似するために、直線又は円弧の個数を増やす。5つのカメラを用いる場合において全体的な立体的歪曲が大幅に削減される。
また、y軸上のシーンポイントに関しては知覚的単一性がある。なぜならば、任意の方向に眼が向けられていても観察者が直接的に上方を眺めることができるからである。ドームに関しては、観察者は自身の回り全部を見渡すことができるものと仮定されるが、自身の頭部については最大でも90度まで仰角をとることができるとされる。したがって、ドームの頂点においては1つだけのシーン深度がとられるべきであり、スクリーン深度はスクリーンへの距離とする(即ち、差異をゼロとする)必要がある。ここではドームへの言及(即ち左右のイメージを球面ビューに表示することへの言及)がなされているが、キャプチャされたイメージは例えばモニター表示装置等の直線ビューのためにフォーマッティングされたり、円筒スクリーン等の円筒ビューのためにフォーマッティングされたり、OculusRift(登録商標)ビュー等のヘッドマウントディスプレイでのビデオプロジェクションのためにフォーマッティングされたり、当業者に知られている他の適切なフォーマットのためにフォーマッティングされることができるという点に留意されたい。したがって、様々なスクリーン(例えば、図6Aの121のそれ等)又はディスプレイが適用されることができる。立体イメージは、(例えば、ドーム又はモニター表示装置等を用いる場合には)赤/シアンアナグリフ等のアナグリフとしてエンコーディングすることができ、又は、(例えば、ヘッドマウントディスプレイを用いる場合には)左右のイメージをサイドバイサイドに配置することができる。ユーザは、自身の頭部を回転させることによって又はソフトウェア制御によって視線の方向を選択することができる。
近隣のカメラのエピポールを用いる上述したスティッチング方法は、視差によるシームでのずれを減少させるために単眼カメラシステムとの関係においても使用することができる。例えば、球面イメージングシステムたるLadybugTM(登録商標)等のカメラシステムは、典型的には小数のカメラを用いて高解像度で完全な360度のビューを包括する。もっとも、全てのカメラを完全に同じ位置に配置することはできない。したがって、1つのイメージとその隣のイメージとの間では視差が存在する。これによってシームにおけるずれがもたらされる。このようなずれはGoogle Street ViewTM(登録商標)等のシステムでみられる。
図10は単眼イメージングシステムのための8カメラセットアップの例示的な実施形態である(各カメラは該カメラの投射の中心を表す小さな円盤で表され、cと称される三角形がある)。8つのカメラC1〜C8を図示のように向けることによって水平方向については視差を解消することができる。各カメラは、360度を用いられるカメラの個数で割った値以上の水平方向の視野(fov、field of view)を有するべきある。例えば、図10においては8つのカメラがあり、それぞれが少なくとも45度のfovを有している。カメラC1〜C8は単一の水平平面上に配置されており(即ち基線の高さに配置されており)、円周上で等間隔に配置されており(直径は重要ではない)、各カメラの視野の水平方向の限界が当該カメラの中心と近隣のカメラの中心とを通過する線と一致するように各カメラは向きを決められている。
360度の視野を得るためのイメージについてのスティッチングは、カメラC1〜C8からの8つの別個の視野領域をそれぞれ用いて行う。領域71はカメラC1からの45度の視野に対応し、領域72はカメラC2からの45度の視野に対応し、領域73はカメラC3からの45度の視野に対応し、領域74はカメラC4からの45度の視野に対応し、領域75はカメラC5からの45度の視野に対応し、領域76はカメラC6からの45度の視野に対応し、領域77はカメラC7からの45度の視野に対応し、領域78はカメラC8からの45度の視野に対応する。ビューは、8つの線80、81、82、83、84、85、86、87に沿って区切られている。線80はカメラC2及びC1のそれぞれの中心点と交差し、線81はカメラC1及びC8のそれぞれの中心点と交差し、線82はカメラC8及びC7のそれぞれの中心点と交差し、線83はカメラC7及びC6のそれぞれの中心点と交差し、線84はカメラC6及びC5のそれぞれの中心点と交差し、線85はカメラC5及びC4のそれぞれの中心点と交差し、線86はカメラC4及びC3のそれぞれの中心点と交差し、線87はカメラC3及びC2のそれぞれの中心点と交差する。したがって、これらの線80、81、82、83、84、85、86、87はカメラC1〜C8のそれぞれのエピポーラ点を通過するのであり、各カメラペアについての最小視差点をこれらが表すが故に各々45度の視野8つのスティッチング箇所として選択される。
8つ以上の又は8つ以下のカメラを用いることができるのであり、図10のセットアップは性質からして例示的であることに留意されたい。各カメラの視野は360度/Nに対応し、ここでNは用いられるカメラの個数を表す。カメラが配置される円周の半径には何らの制約が課されていないことにも留意されたい。これにより、大型のカメラ機材の使用が現実的となる。
本願明細書にて説明したシステムは「ラボ」及び「ドライブウエイ」と題した2つのシーンにおいて試行された。両シーンは、直径およそ12cmの円周上に配置された魚眼レンズを有するカメラ3つを用いるオムニポーラセットアップを用いてキャプチャされた。両シーンでは、カメラセットアップは床におかれたレール上に固定されて人間が辺りを歩いている間におよそ1.5mの変位がもたらされた。
ラボのシーンに関しては、フジノンC−マウント魚眼レンズを各々有する解像度1360×1024ピクセルのProsilica 1380カメラ3つを有するカメラセットアップの試験が行われた。レンズ中心間の距離は様々な値として、およそ7.5cmから10.5cmとした。カメラレンズが見えないようにするために、全周囲立体イメージの視野を減じた。より短い基線長を用いると、より長い基線長を用いた場合に比して視野が減じられることが観察された。カメラ上方の天井が正しく整列されるように垂直視差を調整した、即ちZを距離およそ2.4mとした。
ドライブウエイのシーンは、1920×1090ピクセル解像度のCanon HFS11カメラを3つ用いて撮影されたのであり、各々のカメラにはOpteka Vortexの魚眼レンズが装着されている。カメラのクロックは、ロジックアプリケーション制御バスシステム(LANC)プロトコルを用いて同期した。レンズ中心間の距離はおよそ10.5cmである。カメラ上方の配線を整列させるために垂直視差を調整した(Z=6m)。レンズの強いカーブのせいで、視野を大きく減じない限り、もたらされた全周囲立体イメージには大きな遮蔽がみられることになる。奇数個のカメラを用いたがために、これらの遮蔽が左右のイメージにおいて異なる箇所に単眼性の領域をもたらすということが観察された。
本願明細書にて説明したシステムの応用は、全周囲立体シネマやGoogle Street View等のシステムのための立体イマージョン環境の提供にさえおよぶ。本願発明は、方法として実行したり、システム又は不揮発性コンピュータ可読媒体として実装したりすることができることに留意されたい。上述した本願発明の実施形態は例示的なものであるとして意図されているにすぎない。したがって、本願発明の範疇は添付の請求の範囲のみによって画定されることが意図されている。

Claims (38)

  1. オムニポーライメージング装置であって、
    基線の高さにおいて円周上に実質的に等間隔に配置された少なくとも3つのカメラであって、前記少なくとも3つのカメラの各々は同じ方向に向けられて実質的に360度の視野の一部分についてイメージをキャプチャするように構成された広角レンズを有する、少なくとも3つのカメラと、
    前記少なくとも3つのカメラを固定位置に保持するマウンティング器具
    とを備える、オムニポーライメージング装置。
  2. 前記少なくとも3つのカメラからキャプチャイメージを受信して、前記少なくとも3つのカメラの各々からのキャプチャイメージの部分についてスティッチングを行って前記実質的に360度の視野についての左眼ビューと右眼ビューとを生成する処理装置をさらに備える、請求項1に記載の装置。
  3. 前記少なくとも3つのカメラの各々は動的イメージをキャプチャするように構成されている、請求項1又は2に記載の装置。
  4. スティッチングのために選択された前記少なくとも3つのカメラの各々からの前記キャプチャイメージの部分は、360度/Nの視野に各々対応し、前記Nは前記少なくとも3つのカメラの個数である、請求項1〜3のいずれか1つに記載の装置。
  5. 前記処理装置は、スティッチングのために選択された前記少なくとも3つのカメラのうちの所与のカメラによってキャプチャされた前記イメージの各部分について第1の境界と第2の境界とを規定する処理装置であり、前記第1の境界は前記所与のカメラの中心点と前記所与のカメラの近隣の前記少なくとも3つのカメラのうちの第1のカメラの中心点とを連絡する第1の線に少なくとも部分的に対応し、前記第2の境界は前記所与のカメラの中心点と前記所与のカメラの近隣の前記少なくとも3つのカメラのうちの第2のカメラの中心点とを連絡する第2の線に少なくとも部分的に対応する、請求項2〜4のいずれか1つに記載の装置。
  6. 前記処理装置は、スティッチングのために選択されたキャプチャイメージの各部分について、前記イメージの周縁に達するまで前記第1の境界を前記第1の線に対応させ、また、前記第2の境界を前記第2の線に対応させるように規定する、請求項5に記載の装置。
  7. 前記処理装置は前記キャプチャイメージを受信する処理装置であり、該処理装置は、前記第1の近隣のカメラの第1の複製と前記第2の近隣のカメラの第2の複製とを含むイメージとスティッチングのために選択された前記イメージの第1の部分と前記イメージの第2の部分とを前記所与のカメラから受信する、請求項5に記載の装置。
  8. 前記処理装置は前記イメージの前記第1及び第2の部分の各々について前記第1の境界及び第2の境界を規定する処理装置であり、各境界は第1のセクションと第2のセクションとを備え、
    前記イメージの前記第1の部分については、前記第1の境界の前記第1のセクションは前記第1の線に対応し、前記第2の境界の前記第1のセクションは前記第2の線に対応し、前記第1の境界の前記第2のセクションは前記イメージの前記第1の部分から前記第1の複製を除去するための前記第1の線から遠ざかるように延び、前記第2の境界の前記第2のセクションは前記第2の線から遠ざかるように伸びておりかつ前記第1の境界の前記第2のセクションと同じ形状を有しており、
    前記イメージの前記第2の部分については、前記第1の境界の前記第1のセクションは前記第2の線に対応し、前記第2の境界の前記第1のセクションは前記第1の線に対応し、前記第1の境界の前記第2のセクションは前記イメージの前記第2の部分から前記第2の複製を除去するための前記第2の線から遠ざかるように延び、前記第2の境界の前記第2のセクションは前記第1の線から遠ざかるように伸びておりかつ前記第1の境界の前記第2のセクションと同じ形状を有する
    請求項7に記載の装置。
  9. 前記イメージの前記第1の部分の前記第1の境界は前記第1の複製に達するまで前記第1の線に対応するように規定され、前記イメージの前記第2の部分の前記第1の境界は前記第2の複製に達するまで前記第2の線に対応するように規定され、前記イメージの前記第1及び第2の部分のどれかの前記第1の境界及び前記第2の境界は同じ長さを有する、請求項8に記載の装置。
  10. 前記処理装置は、スティッチングのために選択された前記少なくとも3つのカメラの各々からの前記キャプチャイメージの部分を左右の境界に沿ってスティッチングすることによって前記左眼ビューと前記右眼ビューとを生成する、請求項5〜9のいずれか1つに記載の装置。
  11. 前記処理装置は、前記キャプチャイメージの第1の複数の部分をスティッチングすることによって左眼ビューを生成し、前記キャプチャイメージの第2の複数の部分をスティッチングすることによって右眼ビューを生成する処理装置であり、前記キャプチャイメージの前記第2の複数の部分は前記キャプチャイメージの前記第1の複数の部分を180度回転したものに対応する、請求項2〜10のいずれか1つに記載の装置。
  12. 前記処理装置は、前記キャプチャイメージの前記部分の第1の群であって前記少なくとも3つのカメラのうちの前記円周の中心と第1の複数の点の1つとの間での第1の見通し線の反時計回り側に配置された第1のカメラから各々眺められた前記第1の複数の点を備える第1の群を、前記キャプチャイメージの前記第1の複数の部分として選択し、また、前記キャプチャイメージの前記部分の第2の群であって前記少なくとも3つのカメラのうちの前記円周の前記中心と第2の複数の点の1つとの間での第2の見通し線の時計回り側に配置された第2のカメラから各々眺められた前記第2の複数の点を備える第2の群を、前記キャプチャイメージの前記第2の複数の部分として選択する、請求項11に記載の装置。
  13. 前記少なくとも3つのカメラの各々は広角レンズであって、上方に向けられておよそ基線の高さ以上のイメージをキャプチャするように方向付けられているか下方に向けられておよそ基線の高さ以下のイメージをキャプチャするように方向付けられている広角レンズを有する、請求項1〜12のいずれか1つに記載の装置。
  14. 前記少なくとも3つのカメラの各々は単一ビューポイント魚眼レンズを有する、請求項1〜13のいずれか1つに記載の装置。
  15. 前記少なくとも3つのカメラの各々は規則的な間隔毎に前記イメージをキャプチャするように構成されており、前記少なくとも3つのカメラは所与のどの時刻においても前記少なくとも3つのカメラが同時的に前記イメージをキャプチャできるように同期されている、請求項1〜14のいずれか1つに記載の装置。
  16. 前記処理装置は球面ビューに表示するために前記左眼ビュー及び前記右眼ビューをフォーマッティングする、請求項2〜15のいずれか1つに記載の装置。
  17. 前記処理装置は直線ビューに表示するために前記左眼ビュー及び前記右眼ビューをフォーマッティングする、請求項2〜15のいずれか1つに記載の装置。
  18. 前記処理装置は円筒ビューに表示するために前記左眼ビュー及び前記右眼ビューをフォーマッティングする、請求項2〜15のいずれか1つに記載の装置。
  19. 前記処理装置は前記左眼ビュー及び前記右眼ビューをアナグリフとしてエンコーディングする、請求項16〜18のいずれか1つに記載の装置。
  20. 前記処理装置はヘッドマウントディスプレイに表示するために前記左眼ビュー及び前記右眼ビューをフォーマッティングする、請求項2〜15のいずれか1つに記載の装置。
  21. 隔たって配置された複数のカメラによって取得されたイメージから実質的に360度の視野を生成する方法であって、
    基線の高さにおいて円周上に実質的に等間隔に固定された複数のカメラからの前記イメージをキャプチャするステップと、
    前記複数のカメラの近隣のカメラの中心点を連絡する線に少なくとも部分的に対応する第1及び第2の境界に沿って、前記複数のカメラの各々からの前記イメージの部分をスティッチングするステップ
    とを備える、方法。
  22. 前記実質的に360度の視野についての左眼ビューと右眼ビューとを生成するステップと、前記左眼ビューと前記右眼ビューとを一緒に投射して奥行き知覚をもたらすステップとをさらに備える、請求項21に記載の方法。
  23. 前記イメージをキャプチャするステップは、動的イメージをキャプチャすることを伴う、請求項21又は22に記載の方法。
  24. 前記複数のカメラからの前記イメージをキャプチャするステップは、同じ方向に向けられて実質的に360度の視野の一部分についてイメージをキャプチャするように構成された広角レンズを各々有する少なくとも3つのカメラからのイメージをキャプチャすることを伴う、請求項21〜23のいずれか1つに記載の方法。
  25. 前記イメージをキャプチャするステップは、前記複数のカメラからの前記イメージを任意のどの時刻においても同時的にキャプチャすることを伴う、請求項21〜24のいずれか1つに記載の方法。
  26. 前記イメージの部分をスティッチングするステップは、360度/Nの視野に各々対応する前記部分をスティッチングすることを伴い、前記Nは前記複数のカメラの個数である、請求項21〜25のいずれか1つに記載の方法。
  27. 前記イメージをキャプチャするステップは、前記カメラの近隣にある前記複数のカメラのうちの第1のカメラの第1の複製と前記カメラの近隣にある前記複数のカメラのうちの第2のカメラの第2の複製とを含むイメージとスティッチングのために選択された前記イメージの第1の部分と前記イメージの第2の部分とを前記複数のカメラのうちの任意のカメラからキャプチャすることを伴う、請求項26に記載の方法。
  28. 前記イメージの前記第1及び第2の部分の各々についての第1の境界及び第2の境界の各々は、第1のセクションと第2のセクションとを備え、
    前記イメージの前記第1の部分については、前記第1の境界の前記第1のセクションは前記カメラの中心点と前記第1の近隣のカメラの中心点とを連絡する第1の線に対応し、前記第2の境界の前記第1のセクションは前記カメラの中心点と前記第2の近隣のカメラの中心点とを連絡する第2の線に対応し、前記第1の境界の前記第2のセクションは前記イメージの前記第1の部分から前記第1の複製を除去するための前記第1の線から遠ざかるように延び、前記第2の境界の前記第2のセクションは前記第2の線から遠ざかるように伸びておりかつ前記第1の境界の前記第2のセクションと同じ形状を有しており、
    前記イメージの前記第2の部分については、前記第1の境界の前記第1のセクションは前記第2の線に対応し、前記第2の境界の前記第1のセクションは前記第1の線に対応し、前記第1の境界の前記第2のセクションは前記イメージの前記第2の部分から前記第2の複製を除去するための前記第2の線から遠ざかるように延び、前記第2の境界の前記第2のセクションは前記第1の線から遠ざかるように伸びておりかつ前記第1の境界の前記第2のセクションと同じ形状を有する
    請求項27に記載の方法。
  29. 前記スティッチングするステップは各イメージについて前記第1及び第2の境界に沿ってスティッチングすることを伴い、前記イメージの前記第1の部分の前記第1の境界は前記第1の複製に達するまで前記第1の線に対応するように規定され、前記イメージの前記第2の部分の前記第1の境界は前記第2の複製に達するまで前記第2の線に対応するように規定され、前記イメージの前記第1及び第2の部分のどれかの前記第1の境界及び前記第2の境界は同じ長さを有する、請求項28に記載の方法。
  30. 前記スティッチングするステップはスティッチングのために選択されたキャプチャイメージの各部分について前記第1及び第2の境界に沿ってスティッチングすることを伴い、前記イメージの周縁に達するまで前記第1の境界は前記第1の線に対応するように規定されて前記第2の境界は前記第2の線に対応するように規定される、請求項28に記載の方法。
  31. 前記左眼ビューを生成するステップは前記イメージの第1の部分をスティッチングすることを伴い、前記右眼ビューを生成するステップは前記イメージの第2の部分をスティッチングすることを伴い、前記イメージの前記第2の部分は前記イメージの前記第1の部分を180度回転したものに対応する、請求項21〜30のいずれか1つに記載の方法。
  32. 前記部分の第1の群であって前記複数のカメラのうちの前記円周の中心と第1の複数の点の1つとの間での第1の見通し線の反時計回り側に配置された第1のカメラから各々眺められた前記第1の複数の点を備える第1の群を、前記イメージの前記第1の部分として選択するステップと、前記部分の第2の群であって前記複数のカメラのうちの前記円周の前記中心と第2の複数の点の1つとの間での第2の見通し線の時計回り側に配置された第2のカメラから各々眺められた前記第2の複数の点を備える第2の群を、前記イメージの前記第2の部分として選択するステップとをさらに備える、請求項31に記載の方法。
  33. 球面ビューに表示するために前記左眼ビュー及び前記右眼ビューをフォーマッティングするステップをさらに備える、請求項22〜32のいずれか1つに記載の方法。
  34. 直線ビューに表示するために前記左眼ビュー及び前記右眼ビューをフォーマッティングするステップをさらに備える、請求項22〜32のいずれか1つに記載の方法。
  35. 円筒ビューに表示するために前記左眼ビュー及び前記右眼ビューをフォーマッティングするステップをさらに備える、請求項22〜32のいずれか1つに記載の方法。
  36. 前記フォーマッティングするステップは前記左眼ビュー及び前記右眼ビューをアナグリフとしてエンコーディングすることを伴う、請求項33〜35のいずれか1つに記載の方法。
  37. ヘッドマウントディスプレイに表示するために前記左眼ビュー及び前記右眼ビューをフォーマッティングするステップをさらに備える、請求項22〜32のいずれか1つに記載の方法。
  38. 隔たって配置された複数のカメラによって取得されたイメージから実質的に360度の視野を生成するためのプロセッサにより実行可能なプログラムコードが格納されたコンピュータ可読媒体であって、前記プログラムコードは、
    基線の高さにおいて円周上に実質的に等間隔に固定された複数のカメラからの前記イメージをキャプチャするステップ及び
    前記複数のカメラの近隣のカメラの中心点を連絡する線に少なくとも部分的に対応する第1及び第2の境界に沿って、前記複数のカメラの各々からの前記イメージの部分をスティッチングするステップ
    の実行を可能とするプログラムコードである、コンピュータ可読媒体。
JP2015555506A 2013-02-04 2014-02-04 全周囲立体イメージング Active JP6456844B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201361760383P 2013-02-04 2013-02-04
US61/760,383 2013-02-04
PCT/CA2014/000092 WO2014117266A1 (en) 2013-02-04 2014-02-04 Omnistereo imaging

Publications (2)

Publication Number Publication Date
JP2016511968A true JP2016511968A (ja) 2016-04-21
JP6456844B2 JP6456844B2 (ja) 2019-01-23

Family

ID=51261351

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015555506A Active JP6456844B2 (ja) 2013-02-04 2014-02-04 全周囲立体イメージング

Country Status (7)

Country Link
US (2) US9706118B2 (ja)
EP (1) EP2951642B1 (ja)
JP (1) JP6456844B2 (ja)
KR (1) KR102181735B1 (ja)
CN (1) CN105008995B (ja)
CA (1) CA2938159C (ja)
WO (1) WO2014117266A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018174462A1 (ko) * 2017-03-21 2018-09-27 삼성전자 주식회사 렌즈 어셈블리 및 그를 포함하는 광학 장치
JP2019527495A (ja) * 2016-07-01 2019-09-26 フェイスブック,インク. 立体画像キャプチャ
JP2021507425A (ja) * 2018-01-12 2021-02-22 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. ビュー画像を生成するための装置および方法
JP7397241B2 (ja) 2020-12-16 2023-12-12 影石創新科技股▲ふん▼有限公司 画像つなぎ合わせ方法、コンピュータ可読記憶媒体およびコンピュータデバイス

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11019258B2 (en) * 2013-08-21 2021-05-25 Verizon Patent And Licensing Inc. Aggregating images and audio data to generate content
US9451162B2 (en) 2013-08-21 2016-09-20 Jaunt Inc. Camera array including camera modules
US9967538B2 (en) * 2013-11-04 2018-05-08 Massachussetts Institute Of Technology Reducing view transitions artifacts in automultiscopic displays
WO2015179574A1 (en) * 2014-05-20 2015-11-26 Nextvr Inc. Methods and apparatus including or for use with one or more cameras
US9911454B2 (en) 2014-05-29 2018-03-06 Jaunt Inc. Camera array including camera modules
US11108971B2 (en) 2014-07-25 2021-08-31 Verzon Patent and Licensing Ine. Camera array removing lens distortion
US9363569B1 (en) 2014-07-28 2016-06-07 Jaunt Inc. Virtual reality system including social graph
US9774887B1 (en) 2016-09-19 2017-09-26 Jaunt Inc. Behavioral directional encoding of three-dimensional video
US10440398B2 (en) 2014-07-28 2019-10-08 Jaunt, Inc. Probabilistic model to compress images for three-dimensional video
US10701426B1 (en) 2014-07-28 2020-06-30 Verizon Patent And Licensing Inc. Virtual reality system including social graph
ES2821735T3 (es) 2014-08-21 2021-04-27 Identiflight Int Llc Sistema y procedimiento de detección de pájaros
US9521830B2 (en) * 2014-08-21 2016-12-20 Identiflight, Llc Bird or bat detection and identification for wind turbine risk mitigation
JP2017536565A (ja) * 2014-10-07 2017-12-07 ノキア テクノロジーズ オーユー ステレオ視のための広視野カメラ装置
CN105306923A (zh) * 2015-04-02 2016-02-03 苏州佳像视讯科技有限公司 一种大视角3d摄像机
WO2016179694A1 (en) * 2015-05-08 2016-11-17 Valorisation-Recherche, Limited Partnership Spherical omnipolar imaging
US9877016B2 (en) 2015-05-27 2018-01-23 Google Llc Omnistereo capture and render of panoramic virtual reality content
WO2016191467A1 (en) * 2015-05-27 2016-12-01 Google Inc. Capture and render of panoramic virtual reality content
US20170006219A1 (en) 2015-06-30 2017-01-05 Gopro, Inc. Image stitching in a multi-camera array
KR102458339B1 (ko) 2015-08-07 2022-10-25 삼성전자주식회사 360도 3d 입체 영상을 생성하는 전자 장치 및 이의 방법
US20170078653A1 (en) * 2015-09-15 2017-03-16 Qualcomm Incorporated Systems and methods for producing a surround view
US9674504B1 (en) * 2015-12-22 2017-06-06 Aquifi, Inc. Depth perceptive trinocular camera system
CN105608665B (zh) * 2015-12-23 2018-08-03 中国人民解放军海军航空大学 多通道球面立体视景视觉感知深度精确计算方法
US9992502B2 (en) 2016-01-29 2018-06-05 Gopro, Inc. Apparatus and methods for video compression using multi-resolution scalable coding
US10291910B2 (en) 2016-02-12 2019-05-14 Gopro, Inc. Systems and methods for spatially adaptive video encoding
US10484621B2 (en) 2016-02-29 2019-11-19 Gopro, Inc. Systems and methods for compressing video content
US10645362B2 (en) 2016-04-11 2020-05-05 Gopro, Inc. Systems, methods and apparatus for compressing video content
US10163029B2 (en) 2016-05-20 2018-12-25 Gopro, Inc. On-camera image processing based on image luminance data
US10462466B2 (en) 2016-06-20 2019-10-29 Gopro, Inc. Systems and methods for spatially selective video coding
EP3264740B1 (en) * 2016-06-30 2019-08-28 Nokia Technologies Oy Modular camera blocks for virtual reality capture
US9674435B1 (en) * 2016-07-06 2017-06-06 Lawrence Maxwell Monari Virtual reality platforms for capturing content for virtual reality displays
US10681341B2 (en) 2016-09-19 2020-06-09 Verizon Patent And Licensing Inc. Using a sphere to reorient a location of a user in a three-dimensional virtual reality video
US11032536B2 (en) 2016-09-19 2021-06-08 Verizon Patent And Licensing Inc. Generating a three-dimensional preview from a two-dimensional selectable icon of a three-dimensional reality video
US11032535B2 (en) 2016-09-19 2021-06-08 Verizon Patent And Licensing Inc. Generating a three-dimensional preview of a three-dimensional video
CN107967665B (zh) * 2016-10-20 2021-07-13 株式会社理光 图像处理方法和图像处理装置
WO2018094045A2 (en) * 2016-11-16 2018-05-24 World View Holdings, Llc Multi-camera scene representation including stereo video for vr display
JP6752425B2 (ja) * 2016-12-27 2020-09-09 東京都公立大学法人 撮影装置
US10198862B2 (en) 2017-01-23 2019-02-05 Gopro, Inc. Methods and apparatus for providing rotated spherical viewpoints
CN108629732B (zh) * 2017-03-15 2021-05-14 比亚迪股份有限公司 车辆环视全景图像生成方法、装置和车辆
US10523918B2 (en) 2017-03-24 2019-12-31 Samsung Electronics Co., Ltd. System and method for depth map
JP2021514573A (ja) * 2018-02-17 2021-06-10 ドリームヴュ,インコーポレイテッド マルチセンサを使用してオムニステレオビデオを捕捉するためのシステム及び方法
USD943017S1 (en) 2018-02-27 2022-02-08 Dreamvu, Inc. 360 degree stereo optics mount for a camera
USD931355S1 (en) 2018-02-27 2021-09-21 Dreamvu, Inc. 360 degree stereo single sensor camera
DE102018002177A1 (de) * 2018-03-14 2019-09-19 3Dvisionlabs Gmbh System zur visuellen dreidimensionalen Überwachung von Räumen
EP3750106A4 (en) 2018-07-30 2021-09-01 Hewlett-Packard Development Company, L.P. IDENTIFICATION THROUGH NEURAL NETWORKS OF OBJECTS IN 360 DEGREE IMAGES
CN109712194B (zh) * 2018-12-10 2021-09-24 深圳开阳电子股份有限公司 车载环视系统及其立体标定方法和计算机可读存储介质
US10694167B1 (en) 2018-12-12 2020-06-23 Verizon Patent And Licensing Inc. Camera array including camera modules
DE102019125049A1 (de) * 2019-09-17 2021-03-18 3Dvisionlabs Gmbh Sensoreinheit und verfahren zur auswertung der körperhaltung von personen
US10979633B1 (en) 2019-12-17 2021-04-13 Suometry, Inc. Wide view registered image and depth information acquisition
EP3923241B1 (en) 2020-06-09 2022-04-06 Axis AB Aligning digital images
US20240147083A1 (en) * 2021-01-18 2024-05-02 Politecnico Di Milano Multi-camera three-dimensional capturing and reconstruction system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004120095A (ja) * 2002-09-24 2004-04-15 D Link Corp 全方位双眼立体視画像の生成方法
JP2009194920A (ja) * 2002-06-28 2009-08-27 Sharp Corp 画像符号化装置、および画像送信装置
JP2012165102A (ja) * 2011-02-04 2012-08-30 Kokusai Kogyo Co Ltd 撮影方法、撮影機、撮影装置、3次元画像形成方法、全方位3次元画像形成方法、投影装置、通信システム、表示装置、遠隔操作方法、及び監視方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5657073A (en) * 1995-06-01 1997-08-12 Panoramic Viewing Systems, Inc. Seamless multi-camera panoramic imaging with distortion correction and selectable field of view
US6795109B2 (en) 1999-09-16 2004-09-21 Yissum Research Development Company Of The Hebrew University Of Jerusalem Stereo panoramic camera arrangements for recording panoramic images useful in a stereo panoramic image pair
US20040001138A1 (en) * 2002-06-27 2004-01-01 Weerashinghe W.A. Chaminda P. Stereoscopic panoramic video generation system
US20070024701A1 (en) * 2005-04-07 2007-02-01 Prechtl Eric F Stereoscopic wide field of view imaging system
US7839429B2 (en) * 2005-05-26 2010-11-23 Hewlett-Packard Development Company, L.P. In-camera panorama stitching method and apparatus
US20080298674A1 (en) * 2007-05-29 2008-12-04 Image Masters Inc. Stereoscopic Panoramic imaging system
TWI401526B (zh) * 2008-12-05 2013-07-11 Altek Corp The instantaneous image of the degree of integration of the instant prompt method
US20120154519A1 (en) * 2010-12-17 2012-06-21 Microsoft Corporation Chassis assembly for 360-degree stereoscopic video capture
US20120154548A1 (en) * 2010-12-17 2012-06-21 Microsoft Corporation Left/right image generation for 360-degree stereoscopic video
US20130141784A1 (en) * 2011-12-06 2013-06-06 Christopher J. White Stereoscopic display system using illumination detector

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009194920A (ja) * 2002-06-28 2009-08-27 Sharp Corp 画像符号化装置、および画像送信装置
JP2004120095A (ja) * 2002-09-24 2004-04-15 D Link Corp 全方位双眼立体視画像の生成方法
JP2012165102A (ja) * 2011-02-04 2012-08-30 Kokusai Kogyo Co Ltd 撮影方法、撮影機、撮影装置、3次元画像形成方法、全方位3次元画像形成方法、投影装置、通信システム、表示装置、遠隔操作方法、及び監視方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019527495A (ja) * 2016-07-01 2019-09-26 フェイスブック,インク. 立体画像キャプチャ
JP7133478B2 (ja) 2016-07-01 2022-09-08 メタ プラットフォームズ, インク. 立体画像キャプチャ
WO2018174462A1 (ko) * 2017-03-21 2018-09-27 삼성전자 주식회사 렌즈 어셈블리 및 그를 포함하는 광학 장치
US11125981B2 (en) 2017-03-21 2021-09-21 Samsung Electronics Co., Ltd. Lens assembly and optical device comprising same
JP2021507425A (ja) * 2018-01-12 2021-02-22 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. ビュー画像を生成するための装置および方法
JP7397241B2 (ja) 2020-12-16 2023-12-12 影石創新科技股▲ふん▼有限公司 画像つなぎ合わせ方法、コンピュータ可読記憶媒体およびコンピュータデバイス

Also Published As

Publication number Publication date
CN105008995A (zh) 2015-10-28
KR102181735B1 (ko) 2020-11-24
EP2951642B1 (en) 2019-12-18
US9918011B2 (en) 2018-03-13
CN105008995B (zh) 2019-08-23
KR20150122670A (ko) 2015-11-02
JP6456844B2 (ja) 2019-01-23
WO2014117266A1 (en) 2014-08-07
CA2938159A1 (en) 2014-08-07
US20150341557A1 (en) 2015-11-26
EP2951642A1 (en) 2015-12-09
EP2951642A4 (en) 2016-10-12
US20170280056A1 (en) 2017-09-28
CA2938159C (en) 2021-07-27
US9706118B2 (en) 2017-07-11

Similar Documents

Publication Publication Date Title
JP6456844B2 (ja) 全周囲立体イメージング
US20230328220A1 (en) System and method for creating a navigable, three-dimensional virtual reality environment having ultra-wide field of view
JP6484349B2 (ja) カメラリグおよび立体画像キャプチャ
KR101944050B1 (ko) 파노라마 가상 현실 콘텐츠의 캡쳐 및 렌더링
JP2019511024A (ja) パノラマフレームを生成するプロセスにおけるフレームの適応ステッチング
JP2019519128A (ja) 両眼視野/単眼視野間の移行
US20090034086A1 (en) Panoramic three-dimensional adapter for an optical instrument and a combination of such an adapter and such an optical instrument
US11812009B2 (en) Generating virtual reality content via light fields
JP2010244221A (ja) 画像生成装置、方法及びプログラム
US10802390B2 (en) Spherical omnipolar imaging
CN108450031B (zh) 图像捕获装置
CN103235478B (zh) 用于环幕立体摄像的系统、设备、图像处理方法及装置
Park et al. 48.2: Light field rendering of multi‐view contents for high density light field 3D display
US10110876B1 (en) System and method for displaying images in 3-D stereo
Tzavidas et al. Multicamera setup for generating stereo panoramic video
Tzavidas et al. Disparity variation in stereo-panoramic video
KR20140030071A (ko) 뷰 포인트에 따른 입체화 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170131

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180403

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180628

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181219

R150 Certificate of patent or registration of utility model

Ref document number: 6456844

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250