JP6595726B2 - 両眼視野/単眼視野間の移行 - Google Patents

両眼視野/単眼視野間の移行 Download PDF

Info

Publication number
JP6595726B2
JP6595726B2 JP2018552835A JP2018552835A JP6595726B2 JP 6595726 B2 JP6595726 B2 JP 6595726B2 JP 2018552835 A JP2018552835 A JP 2018552835A JP 2018552835 A JP2018552835 A JP 2018552835A JP 6595726 B2 JP6595726 B2 JP 6595726B2
Authority
JP
Japan
Prior art keywords
image
camera
view
composite
field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018552835A
Other languages
English (en)
Other versions
JP2019519128A (ja
Inventor
キース カブラル、ブライアン
サミュエル ブリッグス、フォレスト
Original Assignee
フェイスブック,インク.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フェイスブック,インク. filed Critical フェイスブック,インク.
Publication of JP2019519128A publication Critical patent/JP2019519128A/ja
Application granted granted Critical
Publication of JP6595726B2 publication Critical patent/JP6595726B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4038Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/27Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • G02B7/04Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification
    • G02B7/06Focusing binocular pairs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/40Hidden part removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • G06T3/18
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20228Disparity calculation for image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/028Multiple view windows (top-side-front-sagittal-orthogonal)
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/16Image acquisition using multiple overlapping images; Image stitching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0088Synthesising a monoscopic image signal from stereoscopic images, e.g. synthesising a panoramic or high resolution monoscopic image

Description

本開示は、一般に、視覚システムに関し、より具体的には、両眼視野と単眼視野との間の滑らかな移行を実現する画像処理システムに関する。
仮想現実(VR)はますます普及してきており、VRシステムを体験しているユーザ用の仮想シーンを作成するための画像および映像の両方または一方を撮像するために、VRシステムにおいて、マルチカメラシステムがしばしば使用される。異なるカメラで撮像した複数の画像を組み合わせて、VR効果をユーザが体験するための仮想シーンを提供するために使用されるキャンバスビューを作成することができる。しかし、異なるカメラで撮像した複数の画像を組み合わせて合成画像を作成するときに、問題が生じることがある。一例として、異なるカメラで撮影した同じオブジェクトの画像を雑にブレンドすると、結合画像において複視が生じることがある。さらに、ユーザが上および下を見るための視野をシミュレートするためにキャンバスビューを作成するとき、両眼視野と単眼視野との間の移行がぎくしゃくし、または両眼視野の上カメラと側方カメラとの間に継ぎ目が生じることがあり、これが、作成された視野にゆがみを生じさせ、VRシステムでのユーザエクスペリエンスを劣化させる。
したがって、両眼視野と単眼視野との間の滑らかな移行に対するニーズがある。
画像処理システムは、画像ブレンディングを通じて両眼視野/単眼視野間の滑らかな移行を有するキャンバスビューを作成する。
画像処理システムは、オブジェクトを含むシーンの画像を受け取り、その画像はカメラリグシステムによって撮像される。撮像された画像は、カメラリグシステムに含まれる上および下の軸カメラが撮影した上下画像と、周辺カメラが撮影した側方画像とを含む。画像処理システムは、また、周辺カメラのうちの1つまたは複数間の合成カメラの位置からの視野をシミュレートするために、側方画像から合成画像を作成する。合成画像は、ユーザの眼の視線がオブジェクトに向けられているときのユーザの左右の視野をシミュレートする合成視野を反映する。複数の合成視野を生成して、たとえば、ユーザの左眼および右眼の視野をシミュレートし、それによって両眼視野を提供することができる。
合成画像が作成された後、画像処理システムは、両眼視野(各眼が異なる)/単眼視野(各眼が同じ)間の滑らかな移行のために画像ブレンディングを実行する。周辺カメラの視界よりも高い角度のキャンバスビューの部分については、上カメラまたは下カメラを使用することで両眼に同じ画像を提供し、それによって単眼視を提供することができる。単眼視野/両眼視野間の移行を滑らかにするために、まず、上下画像を対応する合成画像にワーピングして、形状に関する滑らかな移行のためにワーピング済み上下画像を生成し、形状ワーピングのためにオプティカルフローを使用する。そして、画像処理システムは、ワーピング済み上下画像を合成画像にモーフィングして、色に関する滑らかな移行のためにブレンド済み画像を生成し、色モーフィングのためにアルファブレンディングを使用する。画像処理システムは、左眼視野および右眼視野の両方に前述のブレンディングプロセスを適用することで、左右両眼用のキャンバスビューを生成する。
いくつかの実施形態において、画像処理システムは、鉛直角の関数として合成視野の位置を調整して、両眼用の2つの合成カメラを地面に対して鉛直角レベルで最大瞳孔間距離のところに配置するようにし、2つの合成カメラ間の距離を、鉛直角が周辺カメラの視界よりも高い角度に近づくにつれて短くするようにする。2つの合成カメラ間の距離は、鉛直角の関数として、短縮された瞳孔間距離をシミュレートすることによって短くすることができる。いくつかの実施形態において、瞳孔間距離は、鉛直角が閾値よりも高いときにゼロであり、これは、周辺カメラの視界よりも高い鉛直角に対応させることができる。この場合、合成カメラは、同じ位置および視野を有することができる。
いくつかの例において、カメラの視野は、カメラリグの支持構造などのオブジェクトによって遮蔽されることがある。オブジェクトのオクルージョンは、二次カメラ視野を一次カメラ視野に統合することによって取り除かれる。一次カメラ視野は、他のカメラの視点と一致した視野を含むかもしれないが、環境の一部についてその視野を遮蔽するオブジェクトを含む。一次視野においてオブジェクトによって遮蔽される環境の部分を二次カメラが含むように、二次カメラはオブジェクトの別の側に配置される。一次視野および二次視野において、遮蔽するオブジェクトを含む視野の部分にフィルタが適用される。フィルタは、フィルタを適用する画素のアルファチャンネルまたは画素値を除外するかまたはゼロアウトすることができる。二次視野から一次視野へのオプティカルフローが計算されて、オプティカルフローを使用して二次視野が一次視野に結合される。一次カメラと同様な環境の視野を有する二次カメラを有し、得られる画像を結合することによって、オクルージョンのない環境を撮像した1台のカメラの錯覚を作成する結合視野を生成することができる。
本発明による実施形態は、方法、記憶媒体、システムおよびコンピュータプログラム製品に向けられた添付の特許請求の範囲において特に開示されており、ある請求カテゴリ(たとえば、方法)に記載のいかなる特徴も、別の請求カテゴリ(たとえば、システム)において同様に請求可能である。添付の特許請求の範囲の従属性または後方参照は、形式上の理由でのみ選択されている。しかし、任意の先行の請求項への意図的な後方参照から生じる任意の主題(特に多項従属)も同様に請求できるので、添付の特許請求の範囲で選択される従属性に関係なく、請求項およびその特徴の任意の組み合わせが開示され、請求可能である。請求可能な主題は、添付の特許請求の範囲に記載される特徴の組み合わせだけでなく、請求項の特徴の任意の他の組み合わせも含み、請求項で述べられている各特徴は、請求項の任意の他の特徴または組み合わせと組み合わせることができる。さらに、本明細書で説明または示される実施形態および特徴のいずれも、個別の請求項で、および/または本明細書で説明もしくは示される任意の実施形態もしくは特徴、または添付の特許請求の範囲の特徴のいずれかとの任意の組み合わせで請求することができる。
本発明による一実施形態において、方法は、
シーンの上画像を受け取る工程と、
ユーザの左眼視野および右眼視野に個々に対応する、そのシーンの第1および第2の合成画像を受け取る工程と、
第1および第2の合成画像のそれぞれについて、
合成画像とシーンの上画像との重なり合う部分を特定する工程と、
重なり合う部分の中で、シーンの上視野から合成画像までのオプティカルフローを判別する工程と、
鉛直角の関数として適用されるオプティカルフローを適用することによって、上画像を合成画像にブレンドして、ワーピング済み上画像を生成する工程と、
シーンの上画像と、合成画像と、ワーピング済み上画像とを結合することによって、ユーザの対応する視野のキャンバスビューを生成する工程と、
を含むことができる。
オプティカルフローを適用するための関数は、重なり合う部分が上部分に隣接して始まる鉛直角で、適用するオプティカルフローをなしにすることができる。
オプティカルフローを適用するための関数は、重なり合う部分のピボット行で全オプティカルフローを適用することができる。
本発明による一実施形態において、方法は、
第1および第2の合成画像のそれぞれについて、ピボット行と、重なり合う部分が側方部分に隣接する、画像の側方オンリー部分との間において、合成画像に対して上画像の色をモーフィングする工程を含むことができる。
色モーフィングは、ピボット行と、側方部分に隣接する重なり合う部分との間において、側方画像の色のゼロから全部までの範囲の色モーフィングにすることができる。
第1および第2の視野は、ユーザの左右眼視野と右眼視野との間の瞳孔間距離(IPD:interpupillary distance)の関数としての距離の分だけ隔てることができる。
IPDは、シーンの鉛直角の関数とすることができる。
鉛直角がπ/2のとき、IPDは最大IPDにすることができる。
鉛直角がπのとき、IPDはゼロにすることができる。
本発明による一実施形態において、非一時的コンピュータ可読記憶媒体は、コンピュータプログラム命令を格納することができ、該コンピュータプログラム命令は、コンピュータプロセッサによって実行されたときに、
シーンの上画像を受け取る工程と、
ユーザの左眼視野および右眼視野に個々に対応する、シーンの第1および第2の合成画像を受け取る工程と、
第1および第2の合成画像のそれぞれについて、
合成画像とシーンの上画像との重なり合う部分を特定する工程と、
重なり合う部分の中で、シーンの上画像から合成画像までのオプティカルフローを判別する工程と、
鉛直角の関数として適用されるオプティカルフローを適用することによって、上画像を合成画像にブレンドして、ワーピング済み上画像を生成する工程と、
シーンの上画像と、合成画像と、ワーピング済み上画像とを結合することによって、ユーザの対応する視野用のキャンバスビューを生成する工程と、
をプロセッサに行わせることができる。
オプティカルフローを適用するための関数は、重なり合う部分が上部分に隣接して始まる鉛直角で、適用するオプティカルフローをなしにすることができる。
オプティカルフローを適用するための関数は、重なり合う部分のピボット行で全オプティカルフローを適用することができる。
本発明による一実施形態において、非一時的コンピュータ可読記憶媒体は、
第1および第2の合成画像のそれぞれについて、ピボット行と、重なり合う部分が側方部分に隣接する、画像の側方オンリー部分との間において、合成画像に対して上画像の色をモーフィングする工程を含むことができる。
色モーフィングは、ピボット行と、側方部分に隣接する重なり合う部分との間において、側方画像の色のゼロから全部までの範囲の色モーフィングにすることができる。
第1および第2の視野は、ユーザの左右眼視野と右眼視野との間の瞳孔間距離(IPD)の関数としての距離の分だけ隔てることができる。
IPDは、シーンの鉛直角の関数とすることができる。
鉛直角がπ/2のとき、IPDは最大IPDにすることができる。
鉛直角がπのとき、IPDはゼロにすることができる。
本発明による一実施形態において、1つまたは複数のコンピュータ可読非一時的記憶媒体は、実行されたときに、本発明または前述の実施形態のいずれかによる方法を行うように動作可能なソフトウェアを具現することができる。
本発明による一実施形態において、システムは、1つまたは複数のプロセッサと、該プロセッサに連結されて、該プロセッサによって実行可能な命令を含む少なくとも1つのメモリとを備えることができ、該プロセッサは、命令を実行するときに、本発明または前述の実施形態のいずれかによる方法を行うように動作可能である。
本発明による一実施形態において、好ましくはコンピュータ可読非一時的記憶媒体を備えるコンピュータプログラム製品は、データ処理システム上で実行されたときに、本発明または前述の実施形態のいずれかによる方法を行うように動作可能にすることができる。
一実施形態による、画像処理システムが動作するシステム環境のブロック図である。 一実施形態による、カメラリグシステムの斜視図を示す。 一実施形態による、カメラリグシステムの側面図を示す。 一実施形態による、画像処理システムのアーキテクチャのブロック図を示す。 一実施形態による、カメラリグシステムを使用してオブジェクトを見ているユーザの視野をシミュレートする環境を示す線図を示す。 一実施形態による、ユーザの左眼および右眼の視野をシミュレートする合成画像に対するオフセットを特定するプロセスを示す線図を示す。 一実施形態による、鉛直角の変化に応じた瞳孔間距離の変化を示す線図を示す。 一実施形態による、キャンバスビューを生成するための、合成画像への上および下の画像の画像ブレンディングを示す線図を示す。 一実施形態による、画像処理システムを通じて、合成画像を生成し、対応する合成画像への上画像の画像ブレンディングを実行するプロセスを示す例示的なフローチャートを示す。 一実施形態による、遮蔽された下カメラを備える例示的なカメラリグシステムを示す。 一実施形態による、一次下カメラおよび二次下カメラによってそれぞれ撮影された一次下画像および二次下画像のカメラ視野を示す。
図面は、例示のみの目的で本発明のさまざまな実施形態を示している。本明細書において記述されている本発明の原理から逸脱することなく、本明細書において示されている構造および方法の代替実施形態が採用されることが可能であるということを、当業者であれば以降の論考から容易に認識するであろう。
システムアーキテクチャ
図1は、一実施形態による、画像処理システム300が動作するシステム環境100のブロック図を示す。図1に示されるシステム環境100は、カメラリグシステム(camera rig system)200と、画像処理システム300と、クライアントVRデバイス180とを含む。図1には、例示のために、1つのカメラリグシステム200、1つの画像処理システム300、および1つのクライアントVRデバイス180のみを示している。図示していない代替実施形態においては、システム環境100は、複数のカメラリグシステム200、画像処理システム300、クライアントVRデバイス180、ならびに異なる構成要素および追加構成要素の両方または一方を含むことができる。同様に、システム環境100内のさまざまなエンティティによって行われる機能は、異なる実施形態では異なっていてもよい。
カメラリグシステム200は、局所領域またはオブジェクトの画像および映像または画像もしくは映像を撮像するように構成されているマルチカメラシステムである。局所領域とは、カメラリグシステム200を取り巻く環境である。たとえば、局所領域は、カメラリグシステム200がその内部に位置付けられている部屋とすることができる。カメラリグシステム200によって撮像される複数の画像は、シーンまたはオブジェクトの複数の視野にすることができ、これを使用してVRシステム用のシーンの複数のキャンバスビュー(canvas view)を作成し、作成された複数のキャンバスビューはクライアントVRデバイス180に提供される。キャンバスビューとは、カメラリグシステム200内のさまざまなカメラからの視野を結合する視野をいい、シーンの任意のパノラマ視野、全天球パノラマ視野、または適切な広角視野にすることができる。より具体的には、あるキャンバスビューは、ユーザの左眼のために作成され、別のキャンバスビューは、ユーザの右眼のために作成される。ユーザがクライアントVRデバイス180を装着するとき、キャンバスビューは、ユーザに仮想現実シーンを生成するように用いられる。
いくつかの実施形態において、カメラリグシステム200は、また、カメラリグシステムの起点に立ってクライアントVRデバイス180を装着したユーザの体験をシミュレートするために、複数の画像を撮像する。図2A〜図2Bでより詳細に以下で説明するように、カメラリグシステム200は、複数の周辺カメラ230と、上軸カメラ240Aと、下軸カメラ240Bとを含む。いくつかの実施形態において、カメラリグシステム200に含まれる複数のカメラによって撮像された複数の画像および関連の画像データは、画像を処理するために画像処理システム300に出力される。より詳細に以下で説明されるように、周辺カメラ230はシーンの側方画像を撮像し、上軸カメラ240Aはシーンの上画像を撮像し、下軸カメラ240Bはシーンの下画像を撮像し、撮像された複数の画像は、キャンバスビューを生成するために画像処理システム300に提供される。上軸および下軸のカメラ(top/bottom axis cameras)が撮像する上および下の画像は、上および下のカメラの視野も表す。上および下のカメラは、シーンの上および下の1つの画像を撮像することができるため、上下の視野は単眼であり、すなわち左眼と右眼の両方に同じ画像を有する。画像処理システムは、より詳細に以下で説明するように、対応する合成カメラが配置されるべき位置からユーザの左右の視野をシミュレートする合成画像も生成する。周辺カメラによって写される方向をユーザが見るとき、複数の周辺カメラ230を使用して、左右の眼に異なる視野を生成し、それによって、シーン内のオブジェクトに対するユーザの奥行知覚を提供する両眼視野を提供することができる。ユーザが上または下を見ているときのユーザの単眼視野と両眼視野との間の移行をシミュレートするために、画像処理システム300は、上画像および下画像を2つの合成画像のそれぞれにブレンドして(blend)、ユーザの左眼視野および右眼視野をシミュレートする。
画像処理システム300は、撮像された複数の画像をカメラリグシステム200から受け取り、クライアントVRデバイス180を装着しているユーザの左視野および右視野を生成する。生成された左右の視野は、ユーザが上または下を見るときの両眼視野と単眼視野との間の滑らかな移行を提供する。左右の視野を生成するために、複数の周辺カメラ230によって撮影された複数の側方画像が受け取られた後、画像処理システム300は、左眼視野および右眼視野の合成画像を生成する。たとえば、左眼視野の場合、左眼の視野を表す対応する合成カメラについて、合成側方画像が作成される。さらに、上軸および下軸のカメラ240が撮影した上および下の画像が合成画像にブレンドされて、上および下の画像および合成画像の形状と色の滑らかなブレンディング(blending)を実現する。
複数の周辺カメラ230および複数の軸カメラ240などの現実のカメラに対し、合成カメラは、図4A〜図4Bでより詳細に以下で説明するように、カメラリグ外周215と、ユーザの左眼および右眼がシーン内のオブジェクトを見ているときのユーザの視線との間の交点に配置される仮想カメラである。より詳細には、少なくとも2つの合成カメラ430がシミュレートされ、一方は左眼の合成画像を「生成」し、他方は右眼の合成側方画像を「生成」する。一実施形態において、合成画像は、対応する複数の周辺カメラ230によって撮影される複数の側方画像と、画像処理システム300によって計算される、合成カメラの複数の周辺カメラ間の位置とに基づいて作成される。別の実施形態では、左眼または右眼の視野について、現実の周辺カメラ230は、合成カメラの位置から画像を撮像することができる。この場合、現実の周辺カメラによって撮影される画像は、眼に対する合成画像と見なされる。
生成された合成画像に上および下の画像をブレンドして、合成側方画像に対する形状および色の変化を滑らかにする。より詳細に以下で説明するように、左眼視野および右眼視野に対応する合成画像のそれぞれについて、画像処理システム300は、まず、上および下の画像を合成画像にワーピングして(warp)形状ブレンディング(shape blending)を実現してから、ワーピング済み上および下の画像を合成画像にモーフィングして(morph)色モーフィング(color morphing)を実現する。これらのプロセスのそれぞれは、画像の鉛直角の関数にすることができる。すなわち、角度が上に高くなるほど(上カメラの場合)、得られる画像の形状および色が上カメラ視野に近づく。
オプティカルフロー(optical flow)による形状ワーピングおよびアルファブレンディング(alpha blending)による色モーフィングの後のブレンド済みの複数の画像を使用して、キャンバスビューを作成することができる。たとえば、左眼視野のブレンド済みの複数の画像を使用してユーザの左眼用のキャンバスビューを作成し、右眼視野のブレンド済みの複数の画像を使用してユーザの右眼用のキャンバスビューを作成する。図5でより詳細に以下で説明するように、キャンバスビューは、上だけの部分(top-only part)、下だけの部分(bottom-only part)、側方だけの部分(side-only part)、上視野と側方視野との間の重ね合わせ部分、および下視野と側方視野との間の重ね合わせ部分を含む。上だけの部分とは、上画像のみによって提供されるキャンバスビューの部分をいい、下だけの部分とは、下画像のみによって提供されるキャンバスビューの部分をいい、重ね合わせ部分とは、上下画像および側方画像の両方に共有されて、それらによって提供されるキャンバスビューの部分をいう。ブレンド済みの複数の画像は、上下視野と側方視野との間の重ね合わせ部分を、複視などの画像の問題なく正確かつ滑らかにする。
クライアントVRデバイス180は、メディアをユーザに提示するヘッドマウント型のディスプレイである。より具体的には、クライアントVRデバイス180は、画像処理システム300によって提供される画像または映像を受け取り、クライアントVRデバイスを装着しているユーザに仮想シーンを提供する。たとえば、クライアントVRデバイス180は、画像処理システム300によって作成されるキャンバスビューが生成する立体3D仮想シーンをユーザに提供する。クライアントVRデバイス180は、インタラクティブにすることができ、ユーザのアクションに応答して、異なる画像および映像または異なる画像もしくは映像を見せる。たとえば、仮想シーンの異なる部分を見るために、ある方向から別の方向へ(たとえば、上から下に)ユーザの眼が回転すると、クライアントVRデバイス180は、ユーザの眼の回転に応答して正確な画像を提供し、仮想シーンの異なる部分の滑らかな移行をユーザに体験させる。
図2Aおよび図2Bは、一実施形態による、カメラリグシステム200の異なる図を示す。特に、図2Aは、一実施形態による、カメラリグシステム200の斜視図である。図2Aに図示するように、カメラリグシステム200は、アライメント軸205、上プレート210、下プレート220、複数の周辺カメラ230および複数の軸カメラ240を含む。複数の周辺カメラ230は、それらがアライメント軸205によって二等分される中心点の周りにリングを形成するように配列される。カメラリグシステム200は、複数の周辺カメラ230のリングの外周を示すカメラリグ外周215も含む。より具体的には、カメラリグ外周215は、各周辺カメラ230のレンズが配置されるリングの外周を示す。上プレート210は、複数の周辺カメラ230のリングの上面に連結され、下プレート220は、複数の周辺カメラ230のリングの下面に連結される。複数の軸カメラ240は、アライメント軸205に沿って並べられて、局所領域またはシーンの上視野および下視野を撮像することができる。この構成は、複数の周辺カメラ230の振動を防止する剛性構造を作り、VRシステム用の360度画像/映像を生成するために使用される高品質画像および映像または高品質画像もしくは映像を周辺カメラに撮像させ、これはさらに、周辺カメラおよび軸カメラが協力してVRシステム用のキャンバスビューを生成することを可能にする。より詳細には、あるシーンのキャンバスビューは、上軸カメラ240Aによって撮像された上視野、下軸カメラ240B(図2Bに図示される)によって撮像された下視野、および複数の周辺カメラ230によって撮像された複数の側方視野を結合することによって生成される。
図2Aでは、例示のために、14個の周辺カメラ230と、上軸カメラ240および下軸カメラ(ここでは図示していない)を含む2個の軸カメラが示されている。図示されていない代替実施形態では、異なる数の周辺カメラ230および軸カメラ240の両方または一方をカメラリグシステム200に含むことができる。同様に、カメラリグシステム200には、追加構成要素および異なる構成要素の両方または一方を含むことができる。さらに、図2Aに図示するさまざまなエンティティによって行われる機能は、異なる実施形態では異なっていてもよい。
より詳細には、複数の周辺カメラ230は、局所領域またはシーンの360度の画像および映像の両方または一方を撮像するように構成される。前述したように、複数の周辺カメラ230は、それらがアライメント軸205によって二等分される中心点の周りにリングを形成するように位置付けられる。複数の周辺カメラ230は、また、各周辺カメラの光学軸が1平面内にあり、各周辺カメラの視界が中心点から外方を向くように、中心点の周りに位置付けられる。図2Aに図示するように、各周辺カメラ230は、また、隣接する周辺カメラの隣に一定の距離かつ一定の角度で位置付けられる。この構成により、撮像された画像および映像または撮像された画像もしくは映像が人の視覚をよりよくシミュレートすることができるようになり、これはさらに、クライアントVRデバイス180を装着しているユーザに、VRシステムにおける拡張されたユーザエクスペリエンスを提供する。
複数の軸カメラ240は、局所領域またはシーンの上下視野の画像および映像の両方または一方を撮像するように構成される。各軸カメラ240は、アライメント軸205に沿って並べられて、各軸カメラの光学軸がアライメント軸と同一線上にあるように配向される。各軸カメラ240の視界は、カメラリグシステム200の中心点から外方に向けられる。図2Aに図示するように、上軸カメラ240Aは、局所領域または局所シーンの上視野を撮像する。下軸カメラ240B(図2Bに図示される)は、アライメント軸205に沿って上軸カメラ240と対称に位置付けられて、局所領域の下視野を撮像する。一例として、上軸カメラ240および下軸カメラは魚眼レンズを含むことができ、該魚眼レンズは、広い視野、たとえば180度の半球状の視野を撮像する。
図2Bは、一実施形態による、カメラリグシステム200の側面図を示す。図2Aで上記説明したように、上軸カメラ240Aおよび下軸カメラ240Bに設置されるレンズは、図2Bにおいてθで示される広角の視界を有する魚眼レンズである。図示されていない代替実施形態において、視界の角度θは異なることができる。上軸カメラ240Aおよび下軸カメラ240Bに設置されるレンズの広い視野は、環境の上下領域を広くカバーし、複数の周辺カメラ230との十分な重なりを提供するので、高品質の3D‐360度画像を作成することができる。
図3は、一実施形態による、画像処理システム300のアーキテクチャの例示的なブロック図を示す。画像処理システム300は、カメラリグシステムの複数のカメラによって撮像された複数の画像および複数の映像の両方または一方など、カメラリグシステム200からの入力を受け取る。たとえば、画像処理システム300は、カメラリグシステム200によって撮像された局所シーンの上画像、下画像および複数の側方画像を受け取る。画像処理システム300は、複数の周辺カメラ230によって撮像され、該受け取った複数の画像に基づき、複数の合成側方画像を生成する。画像処理システム300は、左眼視野および右眼視野のそれぞれについて、上および下の画像を複数の合成側方画像にブレンドしてキャンバスビューを作成することで、クライアントVRデバイス180を装着しているユーザがクライアントVRデバイスによって提供される仮想シーンにおいて上または下を見ようとするとき、両眼視野と単眼視野との間の滑らかな移行を可能にする。より詳細に以下で説明するように、ブレンディングプロセスは、形状ワーピングおよび色モーフィングを含み、形状ワーピングはオプティカルフローを使用し、色モーフィングはアルファブレンディングを使用する。
図3において、画像処理システム300は、インタフェースモジュール322、合成画像生成モジュール324、オフセット計算モジュール326、ブレンディングモジュール328、キャンバスビュー生成モジュール330、生画像データストア(raw image data store)342、パラメータデータストア344、合成画像データストア346、ブレンディングデータストア348、およびキャンバスビューデータストア350を含む。図示していない代替実施形態において、追加構成要素および異なる構成要素の両方または一方を画像処理システム300に含めることができる。同様に、画像処理システム300のさまざまなエンティティによって行われる機能は、異なる実施形態では異なっていてもよい。
インタフェースモジュール322は、カメラリグシステム200およびクライアントVRデバイス180の両方または一方からの入力データを受け取る。より具体的には、インタフェースモジュール322は、局所領域について、カメラリグシステム200によって撮像された上画像、下画像および複数の側方画像を受け取る。上画像は上軸カメラ240Aによって撮像され、下画像は下軸カメラ240Bによって撮像され、複数の側方画像は複数の周辺カメラ230によって撮像される。インタフェースモジュール322は、カメラリグシステム200によって撮像された複数の画像に関連する画像データおよび映像データの両方または一方も受け取ることができる。一実施形態において、インタフェースモジュール322は、より詳細に以下で説明するように、カメラリグシステム200と、クライアントVRデバイス180を装着しているユーザとに関するパラメータデータを受け取ることもできる。例示的なパラメータデータには、ユーザの瞳孔間距離(IPD : interpupillary distance)およびオブジェクトに対するゼロ視差距離が含まれる。パラメータのさらなる例は、パラメータデータストア344に関して、以下に説明する。受け取った画像および関連画像データの両方または一方は、画像データストア342に格納される。受け取ったパラメータデータは、パラメータデータストア344に格納される。
インタフェースモジュール322は、クライアントVRデバイス180からの入力データも受け取ることができる。一例として、インタフェースモジュール322は、クライアントVRデバイス180を装着するユーザに提供される視野、画像および/またはデータに関するフィードバック情報を受け取り、フィードバックに応答して、出力データ、たとえば、仮想シーンをレンダリングするために修正または更新された画像、をユーザに提供する。より具体的には、インタフェースモジュール322は、キャンバスビュー生成モジュール330によって生成されたキャンバスビューをクライアントVRデバイス180に提供する。
インタフェースモジュール322は、また、前述したように、カメラリグシステム200およびクライアントVRデバイス180の両方または一方にデータを出力する。クライアントVRデバイス180に出力されるデータは、前述したように、画像および映像の両方または一方を含むことができる。カメラリグシステム200に出力されるデータは、異なるシーンに関するさらなる画像の要求であってもよい。
合成画像生成モジュール324は、複数の合成側方画像を含む複数の合成画像を生成する。合成画像とは、図4Aでさらに図示されるように、カメラリグ外周215の、ある点に配置された合成カメラによって撮影された画像をいう。一実施形態において、合成画像は、複数の周辺カメラ230のような現実の複数のカメラによって撮影された2つ以上のカメラ画像間のオプティカルフローを使用して作成することができる。隣接する複数の周辺カメラ230からの複数のカメラ画像のそれぞれを、他の周辺カメラに向かうオプティカルフローによって修正してもよく、得られた複数の画像を結合して合成画像を生成する。別の実施形態において、本出願で述べる合成画像は、対応する合成カメラを配置するべき点に現実の周辺カメラを配置して作成される。
合成画像を作成するために、合成画像生成モジュール324は、生画像データストア342に格納される複数の側方画像または関連画像データ、および、パラメータデータストア344に格納されるパラメータデータを抽出する。抽出される複数の側方画像または関連データは、合成カメラが位置付けられている点に近い1つまたは複数の周辺カメラ230によって撮影することができる。抽出されるパラメータデータは、図4Aに図示される対応する眼の視線434に関する情報、カメラリグシステム200に関する構成情報、たとえば、合成カメラを配置するべき点431を割り出すためのカメラリグシステム200のサイズおよび形状、を含むことができる。いくつかの実施形態において、合成画像を互いに区別するために、合成画像および関連画像データの両方または一方に識別番号またはインデックスを追加することができる。
オフセット計算モジュール326は、キャンバスビューについて複数の合成画像内のオフセットを計算する。図4A〜図4Bでより詳細に以下で説明するように、より詳細には、オフセットとは、あるシーン内の特定のオブジェクトを眼で見ているときに、合成カメラが配置されている点における眼の視野をシミュレートする合成画像の一部分を生成するための合成画像のずれをいう。より詳細には、図4Bで以下さらに説明するように、合成カメラの視界の中央線が、ユーザの対応する眼の視野の視線と一直線になっていないことがあり、その場合、合成カメラによって撮影される合成画像は、合成カメラを配置するべき位置431からユーザの左眼の視野を反映するようにオフセットで調整される。
オフセット計算モジュール326は、パラメータデータストア344に格納されているパラメータデータ、たとえば、ユーザの瞳孔間距離410、視線434のゼロ視差距離、および角度432Aを抽出する。オフセットの値は、瞳孔間距離410と、視線のゼロ視差距離434と、角度432Aとの関数である。特に、ユーザの眼が回転するとき、たとえば、ユーザが両眼視野を徐々に単眼視野に移行して徐々に上を見るとき、同じユーザおよび同じカメラリグシステム200の場合、図4A〜図4Bでより詳細に以下で説明するように、瞳孔間距離410の変化に応答してオフセットが変化する。
計算されたオフセットは、パラメータデータストア344に格納される。いくつかの実施形態において、異なるシーンの画像についての左眼および右眼用の異なるオフセットは、互いに識別するために、インデックス化されるかまたは識別番号を付けられる。
ブレンディングモジュール328は、ユーザの左眼および右眼のそれぞれについて、両眼視野/単眼視野間を移行するために上および下の画像を合成画像にブレンドする。より詳細には、一例として左眼用の上画像を挙げると、ブレンディングモジュール328は、生画像データストア342から上画像を抽出し、合成画像ストア346から合成画像を抽出し、その後、上画像を合成画像にブレンドするために形状ワーピングを実行して、ワーピング済み上画像を生成する。いくつかの実施形態において、形状ワーピングのプロセスは、オプティカルフローを通じて行う。ブレンディングモジュール328はさらに、色モーフィングのためにワーピング済み上画像を同じ合成画像にブレンドして、左眼用のキャンバスビューの作成に使用できるブレンド済み画像を生成する。いくつかの実施形態において、色モーフィングのプロセスは、異なる手法を通じて実現され、より詳細に以下で説明するように、1つの例示的な手法がアルファブレンディングである。画像におけるワーピングおよびブレンディングの程度は、図5でより詳細に述べるように、合成画像と上画像とが重なり合う部分の中の鉛直角の関数にすることができる。形状ワーピングおよび色モーフィングを通じて、左眼用の合成画像に下画像をブレンドするために同様なプロセスが実行される。さらに、右眼用の合成画像に上および下の画像をブレンドするためにも、上記と同様なプロセスが実行される。
左右の上および下の画像についてのワーピング済み上および下の画像および関連画像データの両方または一方は、ブレンド済みデータストア348に格納される。いくつかの実施形態において、ワーピング済み上および下の画像および関連画像データの両方または一方は、互いに区別するためにインデックス化されるかまたは識別番号を付けられる。左右の上および下の画像についてのブレンド済み画像および関連画像データの両方または一方も、ブレンド済みデータストア348に格納される。いくつかの実施形態において、ブレンド済み画像および関連画像データの両方もしくは一方は、互いに区別するために、またはワーピング済み上および下の画像および関連画像データの両方もしくは一方と区別するために、インデックス化されるかまたは識別番号を付けられる。
キャンバスビュー生成モジュール330は、左眼および右眼のそれぞれについて、キャンバスビューを生成する。キャンバスビューとは、同じシーンについて、上視野、下視野および360度視野を結合する視野をいい、シーンの任意のパノラマ視野、全天球パノラマ視野、または適切な広角視野にすることができる。いくつかの実施形態において、キャンバスビューは、シーンに関するあらゆる情報を含み、該情報は、上および下のカメラ240および複数の周辺カメラ230によって異なる視点から撮影された異なる画像から得られる。前述したように、その画像がカメラリグシステム200内のさまざまなカメラによって撮像された1つのシーンについて、左眼用に1つのキャンバスビューが作成され、右眼用に1つのキャンバスビューが作成される。複視などの画像の問題を引き起こすことのある、上および下の画像と複数の周辺カメラによって撮影された複数の側方画像とを単に結合する代わりに、キャンバスビュー生成モジュール330は、図5でより詳細に以下で説明するように、上画像と下画像とから生成されるブレンド済み画像を結合することによって、ある特定の眼(たとえば、左眼/右眼)用のキャンバスビューを作成する。対応する眼のために作成されたキャンバスビューは、異なる視野間の滑らかな移行を可能にする。一例として、キャンバスビューは、ユーザの眼の視線434が同じ水平面で回転して、ユーザが左および/もしくは右、または前および/もしくは後ろを見るとき、側方視野間の滑らかな移行を可能にする。側方視野は、周辺カメラ230のみによって撮影された画像でシミュレーションすることができる。別の例として、キャンバスビューは、ユーザの眼の視線434が上および/または下に向かって回転して、ユーザが上および/または下を見るとき、両眼視野/単眼視野間の滑らかな移行を可能にする。生成されたキャンバスビューは、キャンバスビューデータストア350に格納される。
生画像データストア342は、カメラリグシステム200内のさまざまなカメラによって撮像された複数の画像、および撮像された複数の画像に関連する画像データを格納する。一例として、生画像データストア342は、上および下の画像および関連データ画像を格納し、上および下の画像は、対応する上軸および下軸のカメラ240によって撮像される。生画像データストア342は、複数の側方画像および関連画像データも格納し、複数の側方画像は、複数の周辺カメラ230によって撮像される。画像データは、各画素の強度、勾配および色など、2D画像の各画素に関する情報を含むことができる。画像データストア322に格納される画像および画像データは、前述したように、合成画像生成モジュール324が合成画像を生成するために使用する。画像データストア322に格納される画像および画像データは、前述したように、ブレンディングモジュール328がワーピング済み上および下の画像およびブレンド済み複数の画像を生成するためにも使用される。
パラメータデータストア344は、合成画像を生成するために使用されるパラメータデータを格納する。パラメータデータは、カメラリグシステム200の構成データ、たとえば、カメラリグ外周215のサイズ、カメラリグシステムに含まれる各周辺カメラ230の位置、カメラリグシステムの中心点405の位置等を含む。カメラリグシステム200の構成データは、カメラに設置されているレンズの特性、たとえば、レンズの視界など、各周辺カメラ230および各軸カメラ240の構成情報も含む。図4Aでより詳細に以下で説明するように、パラメータデータは、ユーザの眼で特定のオブジェクト445を見ているときのユーザの視野をシミュレートするための情報も含む。情報は、ユーザの瞳孔間距離410、左眼および右眼両方の視線のゼロ視差距離434、中心点405とオブジェクト445との間の中心線440の距離、光学軸433と中心線との間の角度432A等を含む。情報は、たとえば、合成画像を生成するために使用することができる。パラメータデータストア344に格納されるパラメータデータは、オフセット計算モジュール326によって計算されたオフセットも含む。
合成画像データストア346は、合成画像および関連画像データを格納する。画像データは、各画素の強度、勾配および色など、2D画像の各画素に関する情報を含むことができる。
ブレンド済みデータストア348は、ワーピング済み上および下の画像および関連データの両方または一方、ならびに、ブレンド済み画像および関連データの両方または一方を格納する。前述したように、ワーピング済み上および下の画像とは、画像の形状に関して、合成画像に対してワーピングされた上および下の画像をいう。一実施形態においてまたはある定義によると、上画像を例にとると、ワーピング済み上画像とは、対応する合成画像に対して上画像がオプティカルフローを通じてワーピングされたゆがんだ画像であり、その場合、ワーピング済み上画像は、上画像のみによってカバーされる上だけの部分(つまり、上カメラからのオリジナル画像データを含む)、合成画像のみによってカバーされる側方だけの部分、および上画像と合成画像の両方によってカバーされる重ね合わせ部分を含む。上記と同様な実施形態が、下画像から生成されるワーピング済み下画像にも適用される。さらに、左眼および右眼の各眼について、上画像について1つのワーピング済み上画像が生成され、下画像について1つのワーピング済み下画像が生成される。
ブレンド済みデータストア348は、左眼および右眼用のブレンド済み画像も格納する。前述したように、ブレンド済み画像とは、画像の色に関して、ワーピング済み上および下の画像に対してモーフィングされた合成画像をいう。一実施形態においてまたはある定義によると、一例として上画像を挙げると、ブレンド済み画像とは、ワーピング済み上画像が、アルファブレンディングを通じて、対応する合成画像にモーフィングされた結合画像であり、その場合、ブレンド済み画像は、上画像のみによってカバーされる上だけの部分、ワーピング済み上画像のみによってカバーされる側方だけの部分、および合成側部画像とワーピング済み上画像の両方によってカバーされる重ね合わせ部分を含む。この実施形態において、上だけの部分がすでにブレンド済み画像に含まれているため、対応するキャンバスビューは、上画像をそれ以上使用せずに、ブレンドする画像から直接作成することができる。上記と同様な実施形態が、下画像から生成されるワーピング済み下画像にも適用される。さらに、左眼および右眼の各眼について、上画像について1つのワーピング済み上画像が生成され、下画像について1つのワーピング済み下画像が生成される。
ブレンド済みデータストア348に格納されるブレンド済み画像および関連データの両方または一方は、前述したように、キャンバスビュー生成モジュール344がキャンバスビューを生成するために使用される。
キャンバスビューデータストア350は、キャンバスビュー生成モジュール330によって生成されたキャンバスビューおよび関連データの両方または一方を格納する。前述したように、ある特定のシーンについてのキャンバスビューは、上および下の画像と合成画像とを含むシーンのすべての関連画像を結合することによって生成される。より詳細には、キャンバスビューは、前述したように、シーンの上画像のみによってカバーされる上だけの部分と、シーンの下画像のみによってカバーされる下だけの部分と、シーンの合成画像のみによってカバーされる側方だけの部分と、上および下の画像と該上および下の画像と一緒にブレンドされる合成画像との間で共有される重ね合わせ部分と、を含む。
図4Aは、一実施形態による、カメラリグシステム200を使用した、オブジェクト445に近いユーザの眼の視野をシミュレートする環境400を示す線図を示す。図4Aに図示する環境400は、カメラリグシステム200の一部、ユーザの頭415の左眼および右眼に対応する左瞳孔425Aおよび右瞳孔425B、左合成カメラ430Aおよび右合成カメラ430B、ならびに眼が見ているオブジェクト445を含む。オブジェクト445は、カメラリグシステムのカメラがオブジェクトの画像を撮像することができる範囲内に、カメラリグシステム200の外に配置される任意の適切なオブジェクトであり、画像は、画像処理システム300によって将来処理されるのに適する。オブジェクトは、実際のオブジェクトでもよく、または各眼の視線が向く点を表すだけでもよい。
図4Aに図示するカメラリグシステム200の一部は、中心点405、カメラリグ外周215、左周辺カメラ230Aおよび右周辺カメラ230Bをさらに含む。前述したように、クライアントVRデバイス180を装着しているユーザは、カメラリグシステム200によって撮像された仮想シーンを見て、体験し、その場合、仮想シーン内で、左瞳孔425Aと右瞳孔425Bとの中心がカメラリグシステムの中心点405と重なり合った状態で、ユーザは、カメラリグシステムの中心点405に立っているものとしてシミュレートされる。さらに、環境400は、ユーザの頭415がオブジェクトの方を向き、眼がオブジェクトに近い状態で、中心点405に立っているユーザの左右の眼の視野をシミュレートしている。環境400は、左瞳孔425Aとオブジェクト445との間の視線434A、右瞳孔425Bとオブジェクトとの間の視線434B、および中心点405とオブジェクトとの間の中心線440をさらに含む。
合成カメラ430の位置を判別するために、オブジェクト445に対する各瞳孔425の視線がシミュレートされる。視線がカメラリグ外周215と交わる点が、ユーザがオブジェクトの方向を見たときの視野を判別するために合成カメラ430が置かれる位置である。換言すると、そのオブジェクトに対する視野は、瞳孔がそのオブジェクト445に焦点を合わせたときに体験するであろう光照射野も表す。図4Aに図示するように、左の視線434Aは、点431Aでカメラリグ外周215と交わる。同様に、右の視線434Bは、点431Bでカメラリグ外周215と交わる。前述したように、点431Aで左眼の視野をシミュレートするために使用される合成カメラ430Aは、点431Aに配置され、点431Bで右眼の視野をシミュレートするために使用される合成カメラ430Bは、点431Bに配置される。図4Aに図示するように、左合成カメラ430Aの光学軸433Aと中心線440は同じ点を起点とするが、中心点405、光学軸および中心線は、中心点から離れて放射状に広がるときには異なる方向に分かれて、光学軸と中心線との間に角度432Aを成す。
前述したように、合成カメラ430のそれぞれについて1つの合成画像が生成される。しかし、合成画像の視野は、オブジェクト445を中心としない視界を有していてもよい。むしろ、光学軸433、たとえば、左合成カメラ430Aについてここで図示されるように、光学軸433Aが、合成画像の視界を与えることができる。したがって、合成視野内の画素の中央列は、左合成カメラの光学軸433Aによって指される領域に対応することができる。しかし、左瞳孔425Aは、左合成カメラ430Aの光学軸433Aとは異なる方向でオブジェクト445に向いており、その場合、合成画像は、前述したように、キャンバスビューを作成するときに、オフセットで調整されるであろう。図4Aの環境400は、説明を簡潔にするために、左合成カメラ430Aの光学軸433Aしか示していない。図示していない代替実施形態では、右合成カメラ430Bの光学軸も環境400に含めることができ、左合成カメラ430Aの合成画像と同様に、右合成カメラの合成画像も右眼の点431Bにおける視野をシミュレートするためにオフセットで調整されることは理解されるべきである。
図3で上記説明したように、角度432Aおよびオフセットは、瞳孔間距離410および中心線440の距離などのパラメータの関数である。より詳細に以下で説明するように、瞳孔間距離410も鉛直角(vertical angle)φの関数であってもよい。
図4Bは、一実施形態による、合成画像に対するオフセットを示す線図450を示す。線図450は、図4Aに図示する環境400の一部、左合成画像454A、右合成画像454B、ならびに、オフセット452Aおよび452Bを含む。図4Aに図示する環境400の一部は図4Aに示されており、その場合、ここでは、環境の一部の組成の詳細な説明はしない。
左合成画像454Aは、点431Aに配置された左合成カメラ430Aによって撮影されたかのように、画像処理システム300によって生成され、右合成画像454Bは、点431Bに配置された右合成カメラ430Bによって撮影されたかのように、画像処理システム300によって生成される。より具体的には、左合成画像454Aおよび右合成画像454Bは、同じシーンの画像であり、雲の右側に木が見えている状態の雲と木とを含み、合成カメラ430Aによって「撮像された」オブジェクト445のシーンを示す。図4Bに図示されるように、左合成画像454Aでは、木は相対的に中央列455Aの右側に配置されているが、右合成画像454Bでは、木は相対的に中央列455Bの左側に配置されている。対応する左右の合成画像454における中央線455に対する木の位置の差は、2つの合成カメラ430の光学軸433(図4Aに示す)の放射方向の差によるものである。左右の合成画像454は、単なる一例であり、図示していない代替実施形態では、特定のオブジェクト(たとえば、雲および木)は、図4Bに図示する画像内の場所とは異なる画像内の場所に配置することができる。
示すように、オフセット452Aを使用して、中心線440の方向を見るときの左瞳孔425Aを表すために使用される画素を調整する。同様に、オフセット452Bを使用して、対応する右側方視野を生成するために、右瞳孔425Bを表すために使用される画素を調整する。左合成画像454Aは、点431Aにおけるオブジェクト445の左眼の視野をシミュレートするために生成され、その場合、左瞳孔425Aは、オブジェクト445を見ており、視線434A(図4Aに示す)はオブジェクト445に向けられている。したがって、オフセット452Aは、図3で上記説明したように、環境400のパラメータに基づいて画像処理システム300によって計算される。より具体的には、より詳細に以下で説明するように、オフセット452Bの値は、IPD410の関数であり、IPDは、シミュレートされた球体480の鉛直角φ482の関数である。
図4Cは、一実施形態による、鉛直角φ482の変化に応じた瞳孔間距離410の変化を示す線図470を示す。図4Cにおいて、線図470は、鉛直角φ482の変化を示すシミュレートされた球体480、およびIPD410と鉛直角φ482との数学的関係を示す関数485を示す。線図470は、より詳細に以下で説明するように、鉛直角φ482が変化するときのIPD410の変化の3段階491、492および493も示す。
球体480内に示される鉛直角φ482は、中心下方軸481と中心線440との間の角度で測定して、0からπまでの範囲を有する。より具体的には、線図470は、環境400(図4Aに図示される)の中心点405に立っているユーザが上または下を見たときのユーザのIPD410の変化をシミュレートする。たとえば、ユーザがその視界の最下部から徐々に最上部まで見るとき、鉛直角φ482は、それに応じて0からπまで変化し、IPD410は、まず0から徐々に最大値まで上昇してから、最大値から徐々に0まで減少するが、これは、ユーザの左右の眼の視野がまず単眼視野から両眼視野に変化してから、両眼視野から単眼視野に変化することをさらに示す。特に、ユーザの眼がその視界の最下部に来るとき、鉛直角φ482の値は0であり、ユーザの眼がその視界の水平ライン(horizontal line)に来るとき、鉛直角φ482の値はπ/2であり、ユーザの眼がその視界の最上部に来るとき、鉛直角φ482の値はπである。これに応じて、関数485によって示すように、IPD410の値は、鉛直角φ482の値がほぼ0またはπになるときにほぼ0であり、IPDは、鉛直角φの値がπ/2のときにその最大値をとる。関数485によって示されるように、IPD410は、角度が実際に0またはπになる前に、鉛直角φ482が0またはπに近づくときに、0の値を受け取る。関数485は、例示のための単なる一例である。実際には、IPD410と鉛直角φ482との正確な数学的曲線は、図4Cに図示する関数485とは若干異なることがある。
図4Cに図示する3つの段階491、492および493は、ユーザの眼が水平ラインからその視界の最上部の方に向けられるときの3つの特定の段階を示しており、鉛直角φの値がπ/2からπに徐々に変化していくことを示す。より具体的には、段階491は、ユーザの眼がその視界の水平線を見ているときを示しており、IPD410がその最大値(たとえば、π/2のとき)を有する。段階491では、左右両眼の2本の視線434は、2つの合成カメラ430が配置されている2つの地点でカメラリグ外周215と交差する。段階492は、ユーザの眼が水平ライン(π/2)とその視界の最上部(π)との間のどこかに近づいているときを示しており、IPD410は、段階491の最大の値と比べて小さい値を有する。段階492では、左右両眼の2本の視線434は、2つの合成カメラ430が配置されている2つの地点でカメラリグ外周215と交差し、この2つの地点は、段階491での場合と比べて互いに近くにある。段階493は、ユーザの眼がその視界の最上部に近づいているところを示しており、値IPD410は、0に縮小される。段階493では、左右両眼の2本の視線434は互いに重なり合い、重なり合った視線は、2つの合成カメラ430が配置されている同じ地点でカメラリグ外周215と交差し、両眼用の2つの合成カメラは、その地点で互いに重なり合う。このように、IPDを鉛直角の関数として調整することにより、視野は、単一の合成カメラ位置に滑らかに移行し、単一の上カメラまたは下カメラへの移行は、ユーザにとって、よりシームレスになる。カメラの位置は合成であるため、システムは、関数485を使用して、異なるIPDの距離について合成カメラを容易に計算することができる。
段階491〜493は一例を示すにすぎない。図示していない代替実施形態では、IPD410の他の変化を表す他の段階を含めることができる。
図5は、一実施形態による、キャンバスビューを生成するための、合成側方画像への上および下の画像の画像ブレンディングを示す線図を示す。図5において、線図500は、上画像510、合成側方画像520、およびワーピング済み上画像530を含み、ここでのすべての画像は、ある同じシーン、たとえば、図4Bに図示するような雲と木とを含むシーンに関する画像データを含む。線図は、重ね合わせ画像550、形状ワーピング関数、および色モーフィング関数も含み、これは、より詳細に以下で説明されるように、画像ブレンディングのプロセスを示す。説明を簡潔にするために、上画像510、合成側方画像520およびワーピング済み上画像530は、すべて、ユーザの片方の眼(たとえば、左眼/右眼)についてのものであり、かつ上画像と合成側方画像とのブレンドのみに関するものである。下画像を合成画像520にブレンドするために、同じ眼について画像ブレンディングの同様なプロセスを実行することができ、これにより、対応するワーピング済み下画像が生成され、対応するブレンド済み画像がさらに生成される。同様に、ユーザのもう片方の眼について、上および下の画像両方に、画像ブレンディングの同様なプロセスが実行される。さらに、図5に図示する画像510〜530は、例示のための一例にすぎず、シーン内のオブジェクト(たとえば、雲と木)の正確な詳細位置、形状および色は、図5に図示される画像510〜530を作成するために使用される関連画像を撮像するカメラに依存する。
まず、上画像510が合成画像520の方にワーピングされて、上画像と側方画像との間の移行を、一緒にブレンドされたときの2つの画像間の形状に関して滑らかにする。ワーピングは、上画像のオブジェクトの形状を、側方画像のオブジェクトの形状に少なくとも部分的に適合するように変える。上画像と側方画像との重なり合う部分間のオプティカルフローが判別される。画像をワーピングするために、上画像にオプティカルフローが適用される。以下に述べるように、鉛直角によっては、形状ワーピング関数570によって上画像に適用されるオプティカルフローの部分は、側方画像と上画像との重なり合う部分を通してゼロから100パーセントまで増加することができる。上画像510が合成画像520にワーピングされた後、上画像と合成画像との間の形状に関して滑らかな移行を有するワーピング済み上画像530が生成される。
ワーピング済み上画像は、側方画像のみを含む部分にシーンの垂直視野が到達するとき、側方画像との色の不一致を適合させるために色モーフィングされる。より詳細には、ワーピング済み上画像530は、合成側方画像520にモーフィングされて、一緒にブレンドされたときの2つの画像間の色に関して滑らかな移行を実現する。アルファブレンディングのような技術を使用して、色モーフィングを実現することができる。ワーピング済み上画像530を合成画像520にモーフィングした後、鉛直角の関数として、上画像と合成画像520との間の形状および色の両方に関して滑らかな移行を有するブレンド済み画像(ここでは図示せず)が生成される。ブレンド済み画像の定義およびより詳細な説明は、上記図3で説明されている。
図5の線図500は、重ね合わせ画像550、形状ワーピング関数570、および色モーフィング関数580も示しており、これらは合わせて、上記説明された画像ブレンディングを示す。重ね合わせ画像550は、上画像510が合成画像520と重なり合うことを示す。重ね合わせ画像550は、上だけの部分553、側方だけの部分554およびオーバーラップ部分555をさらに示す。上だけの部分553は、上画像510の最上部領域を示しており、これは、上カメラのみによって提供される視野である。側方だけの部分554は、合成画像520の最下部領域を示し、これは、合成側方画像のみによって提供される。オーバーラップ部分555は、上画像510と合成画像520とによって共有される領域を示し、オーバーラップ部分555は、上画像の相対的に下部に対応するとともに、合成側方画像の相対的に上部に対応する。重ね合わせ画像550は、重ね合わせ画像の異なる部分に対応する鉛直角φの変化も示す。たとえば、πの値を持つ鉛直角φは上画像510の上端部に対応し、π/2の値を持つ鉛直角φは合成画像520の下端部に対応する。上カメラ視野に対するオーバーラップ部555の開始部と終了部とを示すために、開始行567および終了行569も図5に示されている。図5に示されるピボット行(pivotal row)568は、上画像の修正がワーピングから色モーフィングに変化する、重ね合わせ画像555の行を指す。ここでは単一の行として示しているが、上カメラが完全にワーピングされているが側方画像でまだ色モーフィングが始まっていない間は、複数の行が存在することがある。
図5は、形状ワーピング関数570および色モーフィング関数580も示しており、これらは、鉛直角φを関数として行われる形状ワーピングおよび色モーフィングの割合を示す。関数570および580のそれぞれについて、垂直軸は、鉛直角φを示し、水平軸は、適用されるブレンディングの割合を示す。たとえば、形状ワーピング関数470の場合、水平軸は、どれくらいの割合のワーピングが適用されるか、すなわち、形状ワーピングに関して、合成画像520に上画像510がどれくらいの割合で適用されるかを示す。同様に、色モーフィング関数480に関し、水平軸は、どれくらいの割合の色モーフィングが適用されるか、すなわち、色モーフィングに使用されるアルファブレンディングに関して、合成画像520に上画像510がどれくらいの割合で適用されるかを示す。
図5に図示するように、形状ワーピングに関し、開始行567より上の上だけの部分553については、ワーピングは0のままであり、その部分に適用される形状ワーピングがないことを示す。ワーピングは、開始行567からピボット行568まで、0から100%まで増加を始める。ピボット行569は、形状ワーピングが100%であるところを示し、上画像510の対応するオーバーラップ部555の100%が合成画像520の対応するオーバーラップ部分555にワーピングされることを示す。ピボット行568より下かつ最終行569より上の側方だけの部分554の場合、ワーピングは、100%のままである。側方だけの部分554の場合、その部分が上画像によって共有されないので、上画像510から合成側方画像520への形状ワーピングはない。
色モーフィング、すなわち、アルファブレンディングに関し、ピボット行568より上の上だけの部分553については、アルファブレンディングが100%のままであり、上画像の色成分が維持されることを示す。アルファブレンディングは、ピボット行568から最終行569まで、100%から0まで減少を始める。ピボット行569は、アルファブレンディングが100%から減少し始めるところを示し、上画像の色成分のうち100%未満が使用され、側方画像の残りの部分が使用されることを示す。側方だけの部分554については、アルファブレンディングは0のままであり、その部分が上画像によって共有されないので、上画像510から合成画像520への色モーフィングのためのアルファブレンディングがないことを示す。このように、ユーザが上画像から下方を向き始めると、上カメラの形状成分は、徐々に側方画像の形状を採用し、次いで側方画像の色を採用することができる。また、IPDが増えるにつれて、両眼視野のユーザの見え方が増え、側方カメラへの移行中、滑らかな形状および色ブレンディングは、視野間の裂け目、継ぎまたは飛びを減少させる。
図6は、一実施形態による、画像処理システム300を通じて、合成画像を生成し、対応する合成画像への上画像の画像ブレンディングを行うプロセスを示す例示的なフローチャート600を示す。説明を簡潔にするために、図6に示すフローチャート600は、片眼の視野(たとえば、左眼の視野)についての合成画像の生成のみ、および合成画像への上画像のブレンディングのみを示している。もう片方の眼の視野(たとえば、右眼の視野)についても、対応する合成画像を生成し、合成画像に上画像をブレンドするために同様なプロセスが実行されることは理解されるべきである。同様に、より詳細に以下で示すように、同じ眼の視野について、対応する合成画像に下画像をブレンドするために、フローチャート600の工程640および650と同様なプロセスが実行される。
最初に、画像処理システム300は、同じシーンについて、ユーザの片眼の視野のために、カメラリグシステム200によって撮像された上および下の画像および側方画像を受け取る(610)。画像処理システム300は、受け取った側方画像と、合成画像を「撮像」する対応する合成カメラの位置とに基づいて、眼の視野のための合成画像を生成する(620)。合成画像が使用できる状態になった後、画像処理システム300は、画像ブレンディングを実行して、合成画像に上画像をブレンドする。より詳細には、画像処理システム300は、オプティカルフローを使用して合成画像に上画像をワーピングすることによって、ワーピング済み上画像を生成し(630)、アルファブレンディングを使用して色モーフィングのために合成画像にワーピング済み上画像をブレンドすることによって、ブレンド済み画像を生成する(640)。画像処理システム300は、ユーザの眼の実際の視野を反映するためにオフセットが適用される間、将来のキャンバスビューの生成のために、生成されたブレンド済み画像を使用する(650)。
前述したように、同じ眼の視野について、合成側方画像に下画像をブレンドするためにも工程640および650が実行される。
図7は、一実施形態による、遮蔽された下カメラを備える例示的なカメラリグシステム700を示す。図1〜図2Bに図示するカメラリグシステム200の一例として、図7に図示されるように、この例では、カメラリグシステム700は、カメラリグシステムの下に延びているとともにシーンの様々な部分の撮像のために(たとえば空中に)カメラリグシステムを保持することができる、支持柱730によって支持されている。一次下カメラ視野(または底面の任意の単一カメラ)を反映する一次下画像に関し、一次下カメラ710の視野の一部は支持柱730によって遮られており、これが、カメラリグシステム700の周りの環境の残りの部分のシームレスな視野を妨げかねない。二次下カメラ710と、二次カメラと一次カメラとの間のオプティカルフローとの使用により、結合された下カメラ視野からオクルージョン(occlusion)をなくし、リグがまったく支持されていないという錯覚を可能にすることができる。結合された下視野は、たとえば、キャンバスビューのために、または前述したように側方視野とのブレンドのために使用することができる。
図8は、一実施形態による、一次下カメラ710および二次下カメラ720によってそれぞれ撮影された一次下画像800および二次下画像810のカメラ視野を示す。図示するように、一次下カメラ視野は、支持柱730によって遮蔽されることがある。同様に、二次下カメラの異なる部分も、支持柱730によって遮蔽されることがある。
支持柱を取り除いた連結視野を生成するために、支持柱を含む一次下カメラの区域および二次下カメラの区域が特定される。この特定は、オペレータが手作業で行ってもよく、または、たとえば支持柱の外観に関する公知のデータ、エッジ検出アルゴリズムおよび同様な手法を使用して、支持柱は視野から自動的に特定されてもよい。特定により、フィルタ処理済みの下カメラ視野830のフィルタ処理済み区域835と、フィルタ処理済みの二次下カメラ視野840のフィルタ処理済み区域845とが示される。フィルタ処理済み区域において、視野の画像値(つまり、画素データ)が、たとえば画像のアルファチャンネルから、除去またはマスクされる。
マスクされた区域を使用して、二次下カメラ視野から一次カメラ視野までのオプティカルフローが計算される。フィルタ処理済み区域内では、オプティカルフローアルゴリズムは、二次カメラ視野のオプティカルフロー結果を捨て、その一次カメラとの適合に従いオプティカルフローに一切重みを与えない。すなわち、フィルタ処理済み区域835に流入すると特定された二次カメラの部分は、オプティカルフローの成功の評価の際に重みを与えられない。ただし、これらの部分は、二次カメラ視野とは異なるオプティカルフローの部分との一貫性に従って重み付けされてもよい。したがって、二次カメラ視野は、一次下カメラ視野のフィルタ処理済み区域835を埋めるために入れることができる。
一次下カメラ視野のフィルタ処理済み区域835を埋めるために、一次カメラへのオプティカルフローに従って二次カメラ画像をワーピングする。次に、ワーピング済み二次カメラ画像を、一次カメラの位置に基づいて、一次下カメラ視野と色統合させる。ほとんどの一次カメラ視野の場合、一次カメラは、環境の実際の視野を有する。一次カメラ視野のその部分について、一次カメラは、その色成分の100%を維持するとともに、ワーピング済み二次視野から色の0%を受け取る。フィルタ処理された一次カメラ視野の部分について、色成分は、二次カメラからのみ受け取ることができ、この部分には、ワーピング済み二次カメラ色成分が100%使用される。フィルタ処理済み区域835を取り巻くブレンド区域850では、二次カメラの成分の一部が一次カメラの部分とブレンドされるように、二次カメラの色成分が100%から0%に移行する。一実施形態において、色成分は、100%および0%のブレンド成分からの距離の線形関数である。別の例では、色成分は、同様に結合されるが、色の差の大きさと二次カメラ視野のオプティカルフローの量とにも基づいて選択される。色成分の大きさが有意に異なる場合、色成分の選択には、二次カメラにおけるオプティカルフローの量に対して、より重い重み付けがなされる。一次カメラにオプティカルフローがないので、通例、その色値には、有意な色の大きさの相違がある場合よりもより重い重み付けがなされる。
二次カメラ視野を一次下カメラ視野と結合することによって、結合視野から支持ビーム(support beam)を効果的に取り除くことができる。さらに、一次カメラ視野は、たとえば、図2Aに図示されるアライメント軸205に対して中心に来るので、前述したように、キャンバスを生成するための他の手法で結合した下カメラを容易に使用できる。
追加の構成情報
本発明の実施形態の前述の説明は、例示のために提示した。これは、網羅的であることも、開示されるそのままの形態に本発明を制限することも意図していない。当業者は、上記開示に鑑みて多くの変更および変型が可能であることを認識できる。
本説明のいくつかの部分は、アルゴリズムと、情報に関する動作の記号表現とに関して、本発明の実施形態を説明する。これらのアルゴリズムの記述および表現は、当業者が自身の業務を他の当業者に効果的に伝えるために、データ処理分野で一般に使用されているものである。これらの動作は、機能的、計算上、または論理的に説明されているが、コンピュータプログラムまたは同等の電気回路、マイクロコードもしくは同様な他のものによって実施されると理解される。また、これらの動作の構成を、一般性を失うことなく、モジュールと称することも、ときに便利であることが分かっている。説明される動作およびその関連モジュールは、ソフトウェア、ファームウェア、ハードウェア、またはその任意の組み合わせで具体化することができる。
本明細書で説明する工程、動作またはプロセスのいずれも、1つまたは複数のハードウェアまたはソフトウェアモジュールを用いて、単独で、または他のデバイスと組み合わせて実行または実施することができる。一実施形態において、ソフトウェアモジュールは、説明した工程、動作またはプロセスの一部または全部を実行するための、コンピュータプロセッサによって実行することのできるコンピュータプログラムコードを内蔵するコンピュータ可読媒体を備えるコンピュータプログラム製品を用いて実施される。
本発明の実施形態は、本明細書の動作を実行するための装置にも関する。この装置は、要求される目的のために特別に構成されてもよく、および/またはコンピュータに格納されるコンピュータプログラムによって選択的に起動もしくは再構成される汎用コンピューティングデバイスを備えてもよい。このようなコンピュータプログラムは、非一時的な有形コンピュータ可読記憶媒体、または電子的な命令を格納するのに適した任意のタイプの媒体に格納することができ、これらはコンピュータシステムバスに連結することができる。また、本明細書で言及される任意のコンピューティングシステムは、単一のプロセッサを含んでもよく、または計算能力を高めるためにマルチプロセッサ設計を採用するアーキテクチャであってもよい。
本発明の実施形態は、本明細書で説明するコンピューティングプロセスによって生産される製品にも関する。このような製品は、情報が非一時的な有形コンピュータ可読記憶媒体に格納される場合にはコンピューティングプロセスから得られる情報を含むことができ、また、本明細書で説明するコンピュータプログラム製品または他のデータの組み合わせの任意の実施形態を含むことができる。
最後に、本明細書において使用されている言葉は、主として読みやすさおよび教示上の目的で選択されており、本発明の主題の線引きまたは画定を行うために選択されてはいない場合がある。したがって、本発明の範囲は、この詳細な説明によってではなく、本明細書に基づく出願上で生じるあらゆる請求項によって限定されるということが意図されている。したがって、本発明の実施形態の開示は、本発明の範囲を例示するものであり、本発明の範囲を限定するものではないということが意図されており、本発明の範囲は、添付の特許請求の範囲において示されている。

Claims (14)

  1. 方法であって、
    シーンの上画像を受け取る工程と、
    ユーザの左眼視野および右眼視野にそれぞれ対応する前記シーンの第1の合成画像および第2の合成画像を受け取る工程と、
    前記第1および第2の合成画像のそれぞれについて、
    対応する合成画像と前記シーンの上画像との重なり合う部分を特定する工程と、
    前記重なり合う部分において、前記シーンの上画像から前記対応する合成画像までのオプティカルフローを判別する工程と、
    鉛直角関数とする前記オプティカルフローを適用することによって、前記上画像を前記対応する合成画像にブレンドして、ワーピング済み上画像を生成する工程と、
    前記シーンの上画像と、前記対応する合成画像と、前記ワーピング済み上画像とを結合することによって、前記ユーザの対応する眼用の視野のキャンバスビューを生成する工程と、を備える方法。
  2. 前記オプティカルフローを適用するための関数は、前記重なり合う部分が上画像に隣接して始まる鉛直角で、オプティカルフローを適用せず、前記重なり合う部分のピボット行でオプティカルフローの全てを適用する、請求項1に記載の方法。
  3. 前記第1および第2の合成画像のそれぞれについて、
    前記ピボット行と、前記重なり合う部分が側方だけの部分に隣接する前記対応する合成画像の側方だけの部分との間において、前記対応する合成画像に対して前記上画像の色をモーフィングする工程をさらに備える請求項2に記載の方法。
  4. 前記色のモーフィングは、前記ピボット行と、前記側方だけの部分に隣接する前記重なり合う部分との間における、側方だけの画像の色のゼロから全部までの範囲の色のモーフィングである、請求項3に記載の方法。
  5. 前記左眼視野と前記右眼視野は、前記ユーザの左眼視野と前記右眼視野との間の瞳孔間距離(IPD)の関数としての距離分だけ隔てられている、請求項1に記載の方法。
  6. 前記瞳孔間距離は、前記シーンの鉛直角の関数である、請求項5に記載の方法。
  7. 鉛直角がπ/2のとき、前記瞳孔間距離は最大瞳孔間距離であり、鉛直角がπのとき、前記瞳孔間距離はゼロである、請求項6に記載の方法。
  8. コンピュータプログラム命令を格納する非一時的なコンピュータ可読記憶媒体であって、
    前記コンピュータプログラム命令は、コンピュータプロセッサによって実行されたときに、
    シーンの上画像を受け取る工程と、
    ユーザの左眼視野および右眼視野にそれぞれ対応する前記シーンの第1の合成画像および第2の合成画像を受け取る工程と、
    前記第1および第2の合成画像のそれぞれについて、
    前記対応する合成画像と前記シーンの前記上画像との重なり合う部分を特定する工程と、
    前記重なり合う部分において、前記シーンの上画像から前記対応する合成画像までのオプティカルフローを判別する工程と、
    鉛直角の関数として適用される前記オプティカルフローを適用することによって、前記上画像を前記対応する合成画像にブレンドして、ワーピング済み上画像を生成する工程と、
    前記シーンの上画像と、前記対応する合成画像と、前記ワーピング済み上画像とを結合することによって、前記ユーザの対応する眼用の視野のキャンバスビューを生成する工程と、
    を前記コンピュータプロセッサに実行させる、非一時的なコンピュータ可読記憶媒体。
  9. 前記オプティカルフローを適用するための関数は、前記重なり合う部分が上画像に隣接して始まる鉛直角で、オプティカルフローを適用せず、前記重なり合う部分のピボット行で前記オプティカルフローの全てを適用する、請求項8に記載の非一時的なコンピュータ可読記憶媒体。
  10. 前記第1および第2の合成画像のそれぞれについて、
    前記ピボット行と、前記重なり合う部分が側方だけの部分に隣接する前記対応する合成画像の側方だけの部分との間において、前記対応する合成画像に対して前記上画像の色をモーフィングする工程をさらに備える請求項9に記載の非一時的なコンピュータ可読記憶媒体。
  11. 前記色のモーフィングは、前記ピボット行と、前記側方だけの部分に隣接する前記重なり合う部分との間における前記側方だけの画像の色のゼロから全部までの範囲の色のモーフィングである、請求項10に記載の非一時的なコンピュータ可読記憶媒体。
  12. 前記左眼視野と右眼視野は、前記ユーザの左眼視野と右眼視野との間の瞳孔間距離(IPD)の関数としての距離分だけ隔てられている、請求項8に記載の非一時的なコンピュータ可読記憶媒体。
  13. 前記瞳孔間距離は、前記シーンの鉛直角の関数である、請求項12に記載の非一時的なコンピュータ可読記憶媒体。
  14. 鉛直角がπ/2のとき、前記瞳孔間距離は最大瞳孔間距離であり、鉛直角がπのとき、前記瞳孔間距離はゼロである、請求項13に記載の非一時的なコンピュータ可読記憶媒体。
JP2018552835A 2016-04-06 2017-04-05 両眼視野/単眼視野間の移行 Active JP6595726B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201662319208P 2016-04-06 2016-04-06
US62/319,208 2016-04-06
US15/096,162 US9934615B2 (en) 2016-04-06 2016-04-11 Transition between binocular and monocular views
US15/096,162 2016-04-11
PCT/US2017/026244 WO2017176947A2 (en) 2016-04-06 2017-04-05 Transition between binocular and monocular views

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019176102A Division JP2020061137A (ja) 2016-04-06 2019-09-26 両眼視野/単眼視野間の移行

Publications (2)

Publication Number Publication Date
JP2019519128A JP2019519128A (ja) 2019-07-04
JP6595726B2 true JP6595726B2 (ja) 2019-10-23

Family

ID=59998231

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018552835A Active JP6595726B2 (ja) 2016-04-06 2017-04-05 両眼視野/単眼視野間の移行
JP2019176102A Pending JP2020061137A (ja) 2016-04-06 2019-09-26 両眼視野/単眼視野間の移行

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2019176102A Pending JP2020061137A (ja) 2016-04-06 2019-09-26 両眼視野/単眼視野間の移行

Country Status (11)

Country Link
US (3) US10210660B2 (ja)
EP (1) EP3292437A4 (ja)
JP (2) JP6595726B2 (ja)
KR (1) KR102027897B1 (ja)
CN (1) CN109313346B (ja)
AU (1) AU2017246304B2 (ja)
BR (1) BR112018070572A2 (ja)
CA (1) CA3019583C (ja)
IL (1) IL261933B (ja)
MX (1) MX2018012148A (ja)
WO (1) WO2017176947A2 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10051180B1 (en) * 2016-03-04 2018-08-14 Scott Zhihao Chen Method and system for removing an obstructing object in a panoramic image
US10057562B2 (en) 2016-04-06 2018-08-21 Facebook, Inc. Generating intermediate views using optical flow
US10187629B2 (en) * 2016-04-06 2019-01-22 Facebook, Inc. Camera calibration system
US10210660B2 (en) * 2016-04-06 2019-02-19 Facebook, Inc. Removing occlusion in camera views
US20180357819A1 (en) * 2017-06-13 2018-12-13 Fotonation Limited Method for generating a set of annotated images
ES2881320T3 (es) 2017-12-14 2021-11-29 Canon Kk Dispositivo de generación, procedimiento de generación y programa para modelo tridimensional
DE102018102601A1 (de) * 2018-02-06 2019-08-08 Sick Ag Optoelektronischer Sensor und Verfahren zur Erfassung von Objekten in einem Überwachungsbereich
JP7165935B2 (ja) 2018-02-07 2022-11-07 株式会社アクセル 撮影装置およびプログラム
JP1625469S (ja) * 2018-04-06 2019-02-25
US11017585B1 (en) * 2018-06-11 2021-05-25 Facebook, Inc. Systems and methods for capturing image data for recreation in a virtual environment
CN108989704B (zh) * 2018-07-27 2021-03-12 创新先进技术有限公司 图像生成方法和装置、终端设备
US11030719B2 (en) * 2019-01-22 2021-06-08 Varjo Technologies Oy Imaging unit, display apparatus and method of displaying
JP7306089B2 (ja) 2019-06-17 2023-07-11 株式会社リコー 画像処理システム、撮像システム、画像処理装置、撮像装置およびプログラム
US11710247B2 (en) 2020-01-30 2023-07-25 Unity Technologies Sf System for image compositing including training with synthetic data
US11676252B2 (en) 2020-01-31 2023-06-13 Unity Technologies Sf Image processing for reducing artifacts caused by removal of scene elements from images
US20210274092A1 (en) 2020-02-28 2021-09-02 Weta Digital Limited Reconstruction of obscured views in captured imagery using pixel replacement from secondary imagery
US11694313B2 (en) 2020-02-28 2023-07-04 Unity Technologies Sf Computer-generated image processing including volumetric scene reconstruction
US20210274091A1 (en) 2020-02-28 2021-09-02 Weta Digital Limited Reconstruction of obscured views of captured imagery using arbitrary captured inputs
US11758101B2 (en) 2020-08-25 2023-09-12 Samsung Electronics Co., Ltd. Restoration of the FOV of images for stereoscopic rendering
CN112380963A (zh) * 2020-11-11 2021-02-19 东软睿驰汽车技术(沈阳)有限公司 基于全景环视系统的深度信息确定方法和装置
US20220414841A1 (en) * 2021-06-23 2022-12-29 Apple Inc. Point-of-View Image Warp Systems and Methods

Family Cites Families (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5703961A (en) * 1994-12-29 1997-12-30 Worldscape L.L.C. Image transformation and synthesis methods
US5760826A (en) * 1996-05-10 1998-06-02 The Trustees Of Columbia University Omnidirectional imaging apparatus
JP3817302B2 (ja) * 1996-05-28 2006-09-06 キヤノン株式会社 画像生成装置
JP3232408B2 (ja) * 1997-12-01 2001-11-26 日本エルエスアイカード株式会社 画像生成装置,画像呈示装置及び画像生成方法
US6269175B1 (en) * 1998-08-28 2001-07-31 Sarnoff Corporation Method and apparatus for enhancing regions of aligned images using flow estimation
JP2001036898A (ja) * 1999-07-22 2001-02-09 Hitachi Ltd パノラマ映像生成用カメラシステム
US7015954B1 (en) * 1999-08-09 2006-03-21 Fuji Xerox Co., Ltd. Automatic video system using multiple cameras
US6778207B1 (en) 2000-08-07 2004-08-17 Koninklijke Philips Electronics N.V. Fast digital pan tilt zoom video
US6760026B2 (en) * 2001-01-02 2004-07-06 Microsoft Corporation Image-based virtual reality player with integrated 3D graphics objects
US6947059B2 (en) * 2001-08-10 2005-09-20 Micoy Corporation Stereoscopic panoramic image capture device
US7058237B2 (en) * 2002-06-28 2006-06-06 Microsoft Corporation Real-time wide-angle image correction system and method for computer image viewing
WO2004068865A1 (en) * 2003-01-24 2004-08-12 Micoy Corporation Steroscopic panoramic image capture device
US7463280B2 (en) * 2003-06-03 2008-12-09 Steuart Iii Leonard P Digital 3D/360 degree camera system
WO2007099318A1 (en) * 2006-03-01 2007-09-07 The University Of Lancaster Method and apparatus for signal presentation
US8274530B2 (en) 2007-03-12 2012-09-25 Conversion Works, Inc. Systems and methods for filling occluded information for 2-D to 3-D conversion
US8073190B2 (en) * 2007-11-16 2011-12-06 Sportvision, Inc. 3D textured objects for virtual viewpoint animations
US8531449B2 (en) * 2007-12-18 2013-09-10 Navteq B.V. System and method for producing multi-angle views of an object-of-interest from images in an image dataset
JP5083052B2 (ja) * 2008-06-06 2012-11-28 ソニー株式会社 立体視画像生成装置、立体視画像生成方法およびプログラム
DE102008040985B4 (de) * 2008-08-05 2021-05-27 Robert Bosch Gmbh Verfahren zur Kalibrierung eines Mehrkamerasystems
US20100076306A1 (en) * 2008-09-25 2010-03-25 Daigneault Emmanuel Optical camera calibration for cas navigation
US8310525B2 (en) * 2008-10-07 2012-11-13 Seiko Epson Corporation One-touch projector alignment for 3D stereo display
JP2011135246A (ja) * 2009-12-24 2011-07-07 Sony Corp 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
EP2408196B1 (en) * 2010-07-14 2017-01-11 Alcatel Lucent A method, server and terminal for generating a composite view from multiple content items
US9876953B2 (en) * 2010-10-29 2018-01-23 Ecole Polytechnique Federale De Lausanne (Epfl) Omnidirectional sensor array system
US8548269B2 (en) 2010-12-17 2013-10-01 Microsoft Corporation Seamless left/right views for 360-degree stereoscopic video
EP2695385B8 (en) * 2011-04-08 2016-03-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Capturing panoramic or semi-panoramic 3d scenes
DE202011005083U1 (de) * 2011-04-09 2011-06-09 Maier, Florian, 82205 Vorrichtung zum Kalibrieren von Mehrkamera-Aufnahmevorrichtungen
JP5834259B2 (ja) * 2011-06-30 2015-12-16 パナソニックIpマネジメント株式会社 薬剤計数装置およびその方法
EP2541547A1 (en) * 2011-06-30 2013-01-02 Thomson Licensing Method and apparatus for changing the relative positions of sound objects contained within a higher-order ambisonics representation
JP5025814B2 (ja) * 2011-07-06 2012-09-12 ベルボン株式会社 アダプター装置
SG11201400429RA (en) * 2011-09-08 2014-04-28 Paofit Holdings Pte Ltd System and method for visualizing synthetic objects withinreal-world video clip
WO2013087974A1 (en) * 2011-12-16 2013-06-20 Nokia Corporation Method and apparatus for image capture targeting
EP2915324B1 (en) * 2012-11-05 2020-07-08 360 Heros, Inc. 360 degree camera mount and related photographic and video system
JP6126821B2 (ja) 2012-11-09 2017-05-10 任天堂株式会社 画像生成方法、画像表示方法、画像生成プログラム、画像生成システム、および画像表示装置
WO2014169952A1 (de) * 2013-04-16 2014-10-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Justieren eines multi-kamerasystems, multi kamerasystem und justierhilfe
JP6104066B2 (ja) * 2013-06-18 2017-03-29 キヤノン株式会社 画像処理装置および画像処理方法
EP3055763A1 (en) * 2013-10-07 2016-08-17 VID SCALE, Inc. User adaptive 3d video rendering and delivery
US10186087B2 (en) * 2013-12-06 2019-01-22 Hewlett-Packard Development Company, L. P. Occluding augmented reality objects
US9292765B2 (en) * 2014-01-07 2016-03-22 Microsoft Technology Licensing, Llc Mapping glints to light sources
NL2012462B1 (en) 2014-03-18 2015-12-15 Avinash Jayanth Changa Anand Encoding and decoding of three-dimensional image data.
US9892493B2 (en) * 2014-04-21 2018-02-13 Texas Instruments Incorporated Method, apparatus and system for performing geometric calibration for surround view camera solution
US9648300B2 (en) * 2014-05-23 2017-05-09 Leap Motion, Inc. Calibration of multi-camera devices using reflections thereof
DE102014210099B3 (de) * 2014-05-27 2015-10-22 Carl Zeiss Meditec Ag Verfahren zur bildbasierten Kalibrierung von Mehrkamerasystemen mit einstellbarem Fokus und / oder Zoom
US10368011B2 (en) * 2014-07-25 2019-07-30 Jaunt Inc. Camera array removing lens distortion
US10547825B2 (en) 2014-09-22 2020-01-28 Samsung Electronics Company, Ltd. Transmission of three-dimensional video
US9560345B2 (en) * 2014-12-19 2017-01-31 Disney Enterprises, Inc. Camera calibration
US10531071B2 (en) * 2015-01-21 2020-01-07 Nextvr Inc. Methods and apparatus for environmental measurements and/or stereoscopic image capture
WO2016140986A1 (en) 2015-03-01 2016-09-09 Nextvr Inc. Methods and apparatus for supporting content generation, transmission and/or playback
CN104883556B (zh) * 2015-05-25 2017-08-29 深圳市虚拟现实科技有限公司 基于增强现实的三维显示方法和增强现实眼镜
US9877016B2 (en) 2015-05-27 2018-01-23 Google Llc Omnistereo capture and render of panoramic virtual reality content
US20160353146A1 (en) * 2015-05-27 2016-12-01 Google Inc. Method and apparatus to reduce spherical video bandwidth to user headset
US9704298B2 (en) * 2015-06-23 2017-07-11 Paofit Holdings Pte Ltd. Systems and methods for generating 360 degree mixed reality environments
US10237473B2 (en) * 2015-09-04 2019-03-19 Apple Inc. Depth map calculation in a stereo camera system
US10217189B2 (en) * 2015-09-16 2019-02-26 Google Llc General spherical capture methods
US10057562B2 (en) * 2016-04-06 2018-08-21 Facebook, Inc. Generating intermediate views using optical flow
US10210660B2 (en) * 2016-04-06 2019-02-19 Facebook, Inc. Removing occlusion in camera views
USD830445S1 (en) * 2016-06-30 2018-10-09 Facebook, Inc. Panoramic virtual reality camera
USD830444S1 (en) * 2016-06-30 2018-10-09 Facebook, Inc. Panoramic virtual reality camera

Also Published As

Publication number Publication date
AU2017246304B2 (en) 2018-11-22
WO2017176947A2 (en) 2017-10-12
US20170294006A1 (en) 2017-10-12
CN109313346A (zh) 2019-02-05
US20180182175A1 (en) 2018-06-28
EP3292437A2 (en) 2018-03-14
AU2017246304A1 (en) 2018-11-08
EP3292437A4 (en) 2019-08-21
CA3019583C (en) 2019-08-20
US10210660B2 (en) 2019-02-19
US10460521B2 (en) 2019-10-29
CN109313346B (zh) 2020-04-24
JP2019519128A (ja) 2019-07-04
IL261933A (en) 2018-10-31
KR102027897B1 (ko) 2019-10-04
US9934615B2 (en) 2018-04-03
US20170294045A1 (en) 2017-10-12
CA3019583A1 (en) 2017-10-12
IL261933B (en) 2019-10-31
KR20180120801A (ko) 2018-11-06
JP2020061137A (ja) 2020-04-16
MX2018012148A (es) 2019-02-07
WO2017176947A3 (en) 2018-07-26
BR112018070572A2 (pt) 2019-02-12

Similar Documents

Publication Publication Date Title
JP6595726B2 (ja) 両眼視野/単眼視野間の移行
TWI712918B (zh) 擴增實境的影像展示方法、裝置及設備
KR101956149B1 (ko) 이미지 사이의 광학 흐름의 효율적 결정
US10715791B2 (en) Virtual eyeglass set for viewing actual scene that corrects for different location of lenses than eyes
US20170111582A1 (en) Wide-Area Image Acquiring Method and Apparatus
KR102303809B1 (ko) 비평면 계산 디스플레이
CN105959665B (zh) 一种针对于虚拟现实设备的全景3d视频生成方法
US9679415B2 (en) Image synthesis method and image synthesis apparatus
CN108629799B (zh) 一种实现增强现实的方法及设备
CN110782507A (zh) 一种基于人脸网格模型的纹理贴图生成方法、系统及电子设备
AU2018390994B2 (en) Camera projection technique system and method
US20180232945A1 (en) Image processing apparatus, image processing system, image processing method, and storage medium
US20220277512A1 (en) Generation apparatus, generation method, system, and storage medium
US11212502B2 (en) Method of modifying an image on a computational device
EP3098777B1 (en) Drawing apparatus, drawing method, and drawing program
KR20170044319A (ko) 헤드 마운트 디스플레이의 시야 확장 방법
WO2014119555A1 (ja) 画像処理装置、表示装置及びプログラム
JP2016532147A (ja) 眼科レンズの視覚的効果を特定する方法
JP2019144958A (ja) 画像処理装置、画像処理方法およびプログラム
TWI541761B (zh) 影像處理方法及其電子裝置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181030

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181030

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20181030

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190507

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190610

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190805

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190827

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190926

R150 Certificate of patent or registration of utility model

Ref document number: 6595726

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250