JP6561216B2 - 光学フローを使用した中間ビューの生成 - Google Patents
光学フローを使用した中間ビューの生成 Download PDFInfo
- Publication number
- JP6561216B2 JP6561216B2 JP2018552837A JP2018552837A JP6561216B2 JP 6561216 B2 JP6561216 B2 JP 6561216B2 JP 2018552837 A JP2018552837 A JP 2018552837A JP 2018552837 A JP2018552837 A JP 2018552837A JP 6561216 B2 JP6561216 B2 JP 6561216B2
- Authority
- JP
- Japan
- Prior art keywords
- view
- camera
- composite
- optical flow
- views
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/282—Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
- G06T3/4038—Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/207—Analysis of motion for motion estimation over a hierarchy of resolutions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/337—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/156—Mixing image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/243—Image signal generators using stereoscopic image cameras using three or more 2D image sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/257—Colour aspects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2628—Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/32—Indexing scheme for image data processing or generation, in general involving image mosaicing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Description
第1のカメラビューおよび第2のカメラビューを受信するステップであって、各カメラビューは、カメラによって捕捉された画像を表し、かつカメラビューが捕捉された位置に関連付けられている、受信するステップと、
第1のカメラビューに関連付けられた位置と、第2のカメラビューに関連付けられた位置との間に配置された合成ビューに関する合成ビューの位置を識別するステップと、
第1のカメラビューに関連付けられた位置に対する合成ビューの位置に基づいて第1のカメラビューを第1の合成ビューにシフトするステップと、
第2のカメラビューに関連付けられた位置に対する合成ビューの位置に基づいて第2のカメラビューを第2の合成ビューにシフトするステップと、
第1の合成ビューと第2の合成ビューをブレンドして合成ビューを形成するステップと、を含む。
一実施形態において、方法は、第1のカメラビューおよび第2のカメラビューに対する光学フローを計算するステップをさらに含み得る。
一実施形態において、第1および第2のカメラビューの各々は、両方のカメラビューに共通の1つ又は複数の物体を描写し得る。
一実施形態において、合成ビューは、合成ビューの各ピクセルを第1及び第2のカメラビューにおける1つ又は複数のピクセルの組み合わせとして記述する合成ビューマッピングであり得る。
第1のカメラビューおよび第2のカメラビューを受信するように構成された入力モジュールであって、各カメラビューは、カメラによって捕捉された画像を表し、かつカメラビューが捕捉された位置に関連付けられている、入力モジュールと、
新規ビュー生成モジュールであって、
第1のカメラビューに関連付けられた位置と、第2のカメラビューに関連付けられた位置との間に配置された合成ビューに関する合成ビューの位置を識別し、
第1のカメラビューに関連付けられた位置に対する合成ビューの位置に基づいて第1のカメラビューを第1の合成ビューにシフトし、
第2のカメラビューに関連付けられた位置に対する合成ビューの位置に基づいて第2のカメラビューを第2の合成ビューにシフトし、
第1の合成ビューと第2の合成ビューをブレンドして合成ビューを形成するように構成された新規ビュー生成モジュールと、を備える。
図1は、本発明の実施形態によるキャンバス生成システムが動作するシステム環境のブロック図である。図1により示されるシステム環境100は、画像捕捉システム105、キャンバス生成システム110、及びクライアント仮想現実(VR)デバイス115を備える。他の実施形態では、システム環境100は異なる又は追加の構成要素を含むことができる。
例えば、新規ビュー生成モジュール240による合成ビューの生成は、キャンバスビューの生成において、又は一組の原カメラビュー内で画像捕捉システム105から利用可能ではないカメラビューが必要な他の状況で使用することができる。新規ビュー生成モジュール240により生成される合成ビューは、生成される合成ビューと同様の一組の入力カメラビューに基づいて生成することができる。例えば、所望の合成カメラ位置への同様の位置及び向きから捕捉されたカメラビューを使用して、合成ビューを生成することができる。幾つかの実施形態では、合成ビューは、合成ビューの生成に使用されるカメラビューと同様の視野を有する。これらの合成ビューにより、まるで合成カメラ位置に位置決めされた別のカメラが合成ビューを捕捉したかのように、ビューを近似することができる。他の実施形態では、合成ビューは、例えば、カメラビューの視野のある領域のみを示す、入力カメラビューよりも小さな視野を表す部分合成ビューである。他の実施態様では、合成ビュー生成モジュール240は、入力カメラビュー内のピクセルを部分合成ビュー又は完全合成ビュー内の特定のピクセルに関連付けるマッピングを出力する。生成されたマッピングは、合成ビュー内の全てのピクセルの厳密な値を実際に計算することなく、合成ビューの情報を捕捉することができる。
しかしながら、幾つかの場合、シフトされた左側カメラビューピクセル値は、相当量異なり得る。ピクセルの大きさの潜在的な差を考慮するために、左側ピクセル色値を優先するか、それとも右側ピクセル色値を優先するかを判断するのに、追加の項を含め得る。追加の項は、パラメータN(a,b,x,y)を有する正規化関数Nであり得、ここで、a及びbはピクセル色値であり、x及びyは正規化重みである。一例では、正規化関数Nはパラメータを以下のように加重する。
・a=シフトされた左側カメラのピクセル値L、
・b=シフトされた右側カメラのピクセル値R、
・x=比例距離t+左側カメラの光学フローの大きさMl、
・y=(1−比例距離t)+右側カメラの光学フローの大きさMr
である。
P=δ(t×L+(1−t)×R)+(1−δ)N 式3
である。
上述した合成ビューの生成に使用される光学フロー等の光学フローは、幾つかの実施形態では、光学フロー計算モジュール250により生成される。上述したように、光学フローは、複数のカメラビューに亘る対応する1つ又は複数のピクセルを関連付ける。2つのカメラビュー間の光学フローは、ベクトル場とすることができ、ここで、各ベクトル(以下、光学フローベクトルという)は、第1のカメラビュー内の1つのピクセルから他のカメラビュー内の対応するピクセルへの変位又は正距円筒図法若しくは方位図法等の他のカメラビューの投影を表す。他の実施形態では、光学フローは、関数又は他のタイプの並進移動であり、点に関連付けられた光学フローベクトルは、光学フロー関数又はマッピングが評価されるとき、点とそれに対応する点との間の変位を表す。光学フローは、対応するピクセルを有する任意の2つのカメラビュー間で計算することができ、幾つかの実施態様では、任意の数のカメラビュー間で計算することができる。例えば、光学フローは、水平面における2つのカメラビュー及び第3のカメラビュー、例えば、上に面して位置決めされる魚眼カメラの間で計算することができる。光学フローは、オフセット(u,v)を与える関数又はマッピングに基づいて、第1の画像内のピクセル(x,y)を第2の画像内のピクセルに関連付けることができる。第2の画像内の対応するピクセルは、例えば、第1の画像内の所与のピクセルから第2の画像内の対応するピクセルへのx軸変位又はy軸変位を表す関数又はマッピングu(x,y)及びv(x,y)に基づいて特定することができる。幾つかの実施態様では、第1の画像内のピクセル(x,y)に対応するピクセルは、第2の画像内のピクセル(x+u(x,y),y+v(x,y))とすることができる。
幾つかの実施形態によれば、光情報近似モジュール260は、新規ビュー生成モジュール240により生成される合成ビュー及び光学フロー計算モジュール250により生成される光学フローに基づいて、キャンバスビューを生成する。例えば、光情報近似モジュール260は、特に生成された合成ビューから取得された領域からキャンバスビューを組み立てることができる。幾つかの実施形態では、光情報近似モジュール260は、新規ビュー生成モジュール240から、キャンバスビューの生成に必要な合成ビューを要求する。同様に、光情報近似モジュール260は、光学フロー計算モジュール250から、必要ないかなる光学フローも要求することができる。代替的には、光学フローは、合成ビューの生成中、新規ビュー生成モジュール240により自動的に計算又は要求することができる。
図13は、一実施形態による、カメラビューに基づいてキャンバスビューを計算するプロセス例を示す線図である。図1300は、原カメラビュー1305、合成ビュー1310、キャンバスビュー1315、キャンバスビューの領域1316、合成ビューマッピング1320、及びキャンバスビュー計算1325を含む。
本発明の実施形態の上記説明は、例示を目的として提示され、網羅的である、すなわち、開示された厳密な形態に本発明を限定する意図はない。上記開示に鑑みて多くの変更及び変形が可能なことを当業者は理解することができる。
Claims (20)
- 方法であって、
第1のカメラビューおよび第2のカメラビューを受信するステップであって、各カメラビューは、カメラによって捕捉された画像を表し、かつ前記カメラビューが捕捉された位置に関連付けられている、前記受信するステップと、
前記第1のカメラビューに関連付けられた位置と、前記第2のカメラビューに関連付けられた位置との間に配置された合成ビューに関する合成ビューの位置を識別するステップと、
ベクトル変位場を含む光学フローを取得するステップであって、前記光学フローの各ベクトルは、前記第1のカメラビューおよび前記第2のカメラビューにおける対応する位置の間の変位を示す、前記取得するステップと、
前記光学フローと、前記第1のカメラビューに関連付けられた位置に対する前記合成ビューの位置とに基づいて前記第1のカメラビューをシフトするステップと、
前記光学フローと、前記第2のカメラビューに関連付けられた位置に対する前記合成ビューの位置とに基づいて前記第2のカメラビューをシフトするステップと、
シフトされた前記第1のカメラビューとシフトされた前記第2のカメラビューをブレンドして合成ビューを形成するステップと、を含む方法。 - 前記光学フローは、前記第1のカメラビューの各領域をシフトさせるための大きさ及び方向を決定するベクトル変位場を含む、請求項1に記載の方法。
- 前記光学フローに基づいて前記第1のカメラビューをシフトするステップは、前記合成ビューの位置に対する前記第1のカメラビューの位置の相対距離に基づいて前記第1のカメラビューを比例的にシフトすることを含む、請求項2に記載の方法。
- 前記光学フローは、前記第1のカメラビューと前記第2のカメラビューとの間の対応するピクセルを関連付ける、請求項3に記載の方法。
- 前記第1のカメラビューおよび前記第2のカメラビューに対する光学フローを計算するステップをさらに含む、請求項4に記載の方法。
- 前記第1および第2のカメラビューは、前記第1および第2のカメラビューを捕捉した画像捕捉システムから受信される、請求項1に記載の方法。
- 前記第1および第2のカメラビューは各々、両方のカメラビューに共通の1つ又は複数の物体を描写する、請求項1に記載の方法。
- シフトされた前記第1および第2のカメラビューをブレンドすることは、合成ビューの位置からの前記第1および第2のカメラビューの位置の個々の相対距離に基づいて前記第1および第2のカメラビューを重み付けすることをさらに含む、請求項1に記載の方法。
- 前記合成ビューは、前記第1及び第2のカメラビューの選択された領域を描写する部分合成ビューである、請求項1に記載の方法。
- 前記合成ビューは、前記合成ビューの各ピクセルを前記第1及び第2のカメラビューにおける1つ又は複数のピクセルの組み合わせとして記述する合成ビューマッピングである、請求項1に記載の方法。
- 命令を含む非一時的なコンピュータ可読記憶媒体であって、前記命令は、プロセッサによる実行時に、前記プロセッサに、
第1のカメラビューおよび第2のカメラビューを受信し、各カメラビューは、カメラによって捕捉された画像を表し、かつ前記カメラビューが捕捉された位置に関連付けられている、
前記第1のカメラビューに関連付けられた位置と、前記第2のカメラビューに関連付けられた位置との間に配置された合成ビューに関する合成ビューの位置を識別し、
ベクトル変位場を含む光学フローを取得し、前記光学フローの各ベクトルは、前記第1のカメラビューおよび前記第2のカメラビューにおける対応する位置の間の変位を示し、
前記光学フローと、前記第1のカメラビューに関連付けられた位置に対する前記合成ビューの位置とに基づいて前記第1のカメラビューをシフトし、
前記光学フローと、前記第2のカメラビューに関連付けられた位置に対する前記合成ビューの位置とに基づいて前記第2のカメラビューをシフトし、
シフトされた前記第1のカメラビューとシフトされた前記第2のカメラビューをブレンドして合成ビューを形成することを行わせる、非一時的なコンピュータ可読記憶媒体。 - 前記光学フローは、前記第1のカメラビューの各領域をシフトさせるための大きさ及び方向を決定するベクトル変位場を含む、請求項11に記載の非一時的なコンピュータ可読記憶媒体。
- 前記光学フローに基づいて前記第1のカメラビューをシフトすることは、前記合成ビューの位置に対する前記第1のカメラビューの位置の相対距離に基づいて前記第1のカメラビューを比例的にシフトすることを含む、請求項12に記載の非一時的なコンピュータ可読記憶媒体。
- 前記光学フローは、前記第1のカメラビューと前記第2のカメラビューとの間の対応するピクセルを関連付ける、請求項13に記載の非一時的なコンピュータ可読記憶媒体。
- 前記命令は、前記プロセッサに前記第1のカメラビューおよび前記第2のカメラビューに対する光学フローを計算することを行わせる、請求項14に記載の非一時的なコンピュータ可読記憶媒体。
- 前記第1および第2のカメラビューは、前記第1および第2のカメラビューを捕捉した画像捕捉システムから受信される、請求項11に記載の非一時的なコンピュータ可読記憶媒体。
- 前記第1および第2のカメラビューは各々、両方のカメラビューに共通の1つ又は複数の物体を描写する、請求項11に記載の非一時的なコンピュータ可読記憶媒体。
- シフトされた前記第1および第2のカメラビューをブレンドすることは、合成ビューの位置からの前記第1および第2のカメラビューの位置の個々の相対距離に基づいて前記第1および第2のカメラビューを重み付けすることをさらに含む、請求項11に記載の非一時的なコンピュータ可読記憶媒体。
- 前記合成ビューは、前記第1及び第2のカメラビューの選択された領域を描写する部分合成ビューである、請求項11に記載の非一時的なコンピュータ可読記憶媒体。
- 前記合成ビューは、前記合成ビューの各ピクセルを前記第1及び第2のカメラビューにおける1つ又は複数のピクセルの組み合わせとして記述する合成ビューマッピングである、請求項11に記載の非一時的なコンピュータ可読記憶媒体。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662319074P | 2016-04-06 | 2016-04-06 | |
US62/319,074 | 2016-04-06 | ||
US15/096,165 US10057562B2 (en) | 2016-04-06 | 2016-04-11 | Generating intermediate views using optical flow |
US15/096,165 | 2016-04-11 | ||
PCT/US2017/026321 WO2017176975A1 (en) | 2016-04-06 | 2017-04-06 | Generating intermediate views using optical flow |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019516299A JP2019516299A (ja) | 2019-06-13 |
JP6561216B2 true JP6561216B2 (ja) | 2019-08-14 |
Family
ID=59998771
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018552836A Active JP6525467B1 (ja) | 2016-04-06 | 2017-03-27 | 画像間の光学フローの効率的な決定 |
JP2018551474A Active JP6563609B2 (ja) | 2016-04-06 | 2017-03-27 | 中間ビューからの効率的なキャンバスビューの生成 |
JP2018552837A Active JP6561216B2 (ja) | 2016-04-06 | 2017-04-06 | 光学フローを使用した中間ビューの生成 |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018552836A Active JP6525467B1 (ja) | 2016-04-06 | 2017-03-27 | 画像間の光学フローの効率的な決定 |
JP2018551474A Active JP6563609B2 (ja) | 2016-04-06 | 2017-03-27 | 中間ビューからの効率的なキャンバスビューの生成 |
Country Status (11)
Country | Link |
---|---|
US (3) | US10257501B2 (ja) |
EP (1) | EP3295662A4 (ja) |
JP (3) | JP6525467B1 (ja) |
KR (3) | KR101956149B1 (ja) |
CN (3) | CN109076172B (ja) |
AU (3) | AU2017246715A1 (ja) |
BR (3) | BR112018070622A2 (ja) |
CA (3) | CA3018965C (ja) |
IL (3) | IL261752A (ja) |
MX (3) | MX2018012153A (ja) |
WO (3) | WO2017176484A1 (ja) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10187629B2 (en) | 2016-04-06 | 2019-01-22 | Facebook, Inc. | Camera calibration system |
US9934615B2 (en) | 2016-04-06 | 2018-04-03 | Facebook, Inc. | Transition between binocular and monocular views |
CN107316273B (zh) * | 2016-04-27 | 2021-05-18 | 深圳看到科技有限公司 | 全景图像采集装置及采集方法 |
EP3318059B1 (en) * | 2016-07-01 | 2023-04-12 | Meta Platforms, Inc. | Stereoscopic image capture |
JP6918455B2 (ja) * | 2016-09-01 | 2021-08-11 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
WO2018067680A1 (en) * | 2016-10-05 | 2018-04-12 | Hidden Path Entertainment, Inc. | System and method of capturing and rendering a stereoscopic panorama using a depth buffer |
WO2018140005A1 (en) * | 2017-01-25 | 2018-08-02 | Hewlett-Packard Development Company, L.P. | Light transmissive regions to pass light to cameras |
US10275856B2 (en) * | 2017-08-03 | 2019-04-30 | Facebook, Inc. | Composited animation |
US10733714B2 (en) * | 2017-11-09 | 2020-08-04 | Samsung Electronics Co., Ltd | Method and apparatus for video super resolution using convolutional neural network with two-stage motion compensation |
US11381737B2 (en) * | 2018-03-28 | 2022-07-05 | Sony Corporation | Arithmetic device and arithmetic method |
US20220092796A1 (en) * | 2019-02-21 | 2022-03-24 | Korea Advanced Institute Of Science And Technology | Image Processing Method and Device Thereof |
KR102233606B1 (ko) * | 2019-02-21 | 2021-03-30 | 한국과학기술원 | 영상 처리 방법 및 그 장치 |
CN110428452B (zh) * | 2019-07-11 | 2022-03-25 | 北京达佳互联信息技术有限公司 | 非静态场景点的检测方法、装置、电子设备及存储介质 |
CN114287126A (zh) * | 2019-08-22 | 2022-04-05 | 深圳市铂岩科技有限公司 | 视频处理方法和装置、存储介质和电子设备 |
FR3106014A1 (fr) * | 2020-01-02 | 2021-07-09 | Orange | Synthèse itérative de vues à partir de données d’une vidéo multi-vues |
US11758101B2 (en) * | 2020-08-25 | 2023-09-12 | Samsung Electronics Co., Ltd. | Restoration of the FOV of images for stereoscopic rendering |
KR102336156B1 (ko) * | 2021-03-03 | 2021-12-07 | (주)디피어소시에이츠 | 초고화질 이미지 구현 방법 및 시스템 |
WO2022186417A1 (ko) * | 2021-03-03 | 2022-09-09 | (주)디피어소시에이츠 | 초고화질 이미지를 이용한 실감형 컨텐츠 제공 방법 및 시스템 |
AU2021410945A1 (en) * | 2021-06-09 | 2023-01-05 | Nvidia Corporation | Computing motion of pixels among images |
CN113724287B (zh) * | 2021-09-02 | 2022-07-01 | 北京华云星地通科技有限公司 | 一种卫星云图预测方法及系统 |
Family Cites Families (74)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5703961A (en) * | 1994-12-29 | 1997-12-30 | Worldscape L.L.C. | Image transformation and synthesis methods |
US5760826A (en) * | 1996-05-10 | 1998-06-02 | The Trustees Of Columbia University | Omnidirectional imaging apparatus |
US6389179B1 (en) | 1996-05-28 | 2002-05-14 | Canon Kabushiki Kaisha | Image combining apparatus using a combining algorithm selected based on an image sensing condition corresponding to each stored image |
IL131056A (en) | 1997-01-30 | 2003-07-06 | Yissum Res Dev Co | Generalized panoramic mosaic |
US6269175B1 (en) * | 1998-08-28 | 2001-07-31 | Sarnoff Corporation | Method and apparatus for enhancing regions of aligned images using flow estimation |
US7015954B1 (en) | 1999-08-09 | 2006-03-21 | Fuji Xerox Co., Ltd. | Automatic video system using multiple cameras |
US7133068B2 (en) | 2000-03-06 | 2006-11-07 | Sony Corporation | System and method for creating still images by utilizing a video camera device |
US6559846B1 (en) * | 2000-07-07 | 2003-05-06 | Microsoft Corporation | System and process for viewing panoramic video |
US7085409B2 (en) | 2000-10-18 | 2006-08-01 | Sarnoff Corporation | Method and apparatus for synthesizing new video and/or still imagery from a collection of real video and/or still imagery |
US6760026B2 (en) * | 2001-01-02 | 2004-07-06 | Microsoft Corporation | Image-based virtual reality player with integrated 3D graphics objects |
US6947059B2 (en) | 2001-08-10 | 2005-09-20 | Micoy Corporation | Stereoscopic panoramic image capture device |
JP2003067752A (ja) * | 2001-08-28 | 2003-03-07 | Yazaki Corp | 車両周辺監視装置 |
JP4148671B2 (ja) | 2001-11-06 | 2008-09-10 | ソニー株式会社 | 表示画像制御処理装置、動画像情報送受信システム、および表示画像制御処理方法、動画像情報送受信方法、並びにコンピュータ・プログラム |
JP2003287612A (ja) * | 2002-03-27 | 2003-10-10 | Olympus Optical Co Ltd | 撮像装置及び撮像系調整システム及び撮像系調整方法 |
US20060020562A1 (en) * | 2004-07-21 | 2006-01-26 | University Of Southern Mississippi | Apparatus and method for estimating optical flow |
US8027531B2 (en) | 2004-07-21 | 2011-09-27 | The Board Of Trustees Of The Leland Stanford Junior University | Apparatus and method for capturing a scene using staggered triggering of dense camera arrays |
US20090103779A1 (en) * | 2006-03-22 | 2009-04-23 | Daimler Ag | Multi-sensorial hypothesis based object detector and object pursuer |
KR100790890B1 (ko) * | 2006-09-27 | 2008-01-02 | 삼성전자주식회사 | 파노라마 영상 생성장치 및 방법 |
US8457410B2 (en) | 2007-02-14 | 2013-06-04 | Technion Research And Development Foundation Ltd. | Over-parameterized variational optical flow method |
US8274530B2 (en) | 2007-03-12 | 2012-09-25 | Conversion Works, Inc. | Systems and methods for filling occluded information for 2-D to 3-D conversion |
US8593506B2 (en) | 2007-03-15 | 2013-11-26 | Yissum Research Development Company Of The Hebrew University Of Jerusalem | Method and system for forming a panoramic image of a scene having minimal aspect distortion |
JP2008276308A (ja) * | 2007-04-25 | 2008-11-13 | Sanyo Electric Co Ltd | 動画像処理装置、動画像処理システムおよびナビゲーション装置 |
CN101146231A (zh) * | 2007-07-03 | 2008-03-19 | 浙江大学 | 根据多视角视频流生成全景视频的方法 |
US8531449B2 (en) * | 2007-12-18 | 2013-09-10 | Navteq B.V. | System and method for producing multi-angle views of an object-of-interest from images in an image dataset |
US20090296989A1 (en) | 2008-06-03 | 2009-12-03 | Siemens Corporate Research, Inc. | Method for Automatic Detection and Tracking of Multiple Objects |
EP2209091B1 (en) | 2009-01-16 | 2012-08-08 | Honda Research Institute Europe GmbH | System and method for object motion detection based on multiple 3D warping and vehicle equipped with such system |
JP2010204805A (ja) * | 2009-03-02 | 2010-09-16 | Konica Minolta Holdings Inc | 周辺監視装置および該方法 |
US20100265313A1 (en) | 2009-04-17 | 2010-10-21 | Sony Corporation | In-camera generation of high quality composite panoramic images |
JP5269707B2 (ja) * | 2009-07-01 | 2013-08-21 | 富士フイルム株式会社 | 画像合成装置及び方法 |
JP5510238B2 (ja) * | 2010-09-22 | 2014-06-04 | ソニー株式会社 | 画像処理装置、撮像装置、および画像処理方法、並びにプログラム |
US8736767B2 (en) | 2010-09-29 | 2014-05-27 | Sharp Laboratories Of America, Inc. | Efficient motion vector field estimation |
US9876953B2 (en) | 2010-10-29 | 2018-01-23 | Ecole Polytechnique Federale De Lausanne (Epfl) | Omnidirectional sensor array system |
EP2451164B1 (en) | 2010-11-08 | 2017-05-03 | Telefonaktiebolaget LM Ericsson (publ) | Improved view synthesis |
US9282321B2 (en) | 2011-02-17 | 2016-03-08 | Legend3D, Inc. | 3D model multi-reviewer system |
US9088714B2 (en) | 2011-05-17 | 2015-07-21 | Apple Inc. | Intelligent image blending for panoramic photography |
US8553943B2 (en) * | 2011-06-14 | 2013-10-08 | Qualcomm Incorporated | Content-adaptive systems, methods and apparatus for determining optical flow |
JP5882455B2 (ja) | 2011-06-15 | 2016-03-09 | マイクロソフト テクノロジー ライセンシング,エルエルシー | 高解像度マルチスペクトル画像キャプチャ |
US9338463B2 (en) | 2011-10-06 | 2016-05-10 | Synopsys, Inc. | Visual quality measure for real-time video processing |
CN102547350B (zh) * | 2012-02-02 | 2014-04-16 | 北京大学 | 一种基于梯度光流算法合成虚拟视点方法及立体显示装置 |
WO2013120115A2 (en) * | 2012-02-06 | 2013-08-15 | Legend3D, Inc. | Motion picture project management system |
WO2013121897A1 (ja) * | 2012-02-17 | 2013-08-22 | ソニー株式会社 | 情報処理装置および方法、画像処理装置および方法、並びにプログラム |
KR101804205B1 (ko) | 2012-03-15 | 2017-12-04 | 삼성전자주식회사 | 영상 처리 장치 및 방법 |
US9098922B2 (en) * | 2012-06-06 | 2015-08-04 | Apple Inc. | Adaptive image blending operations |
EP2677500B1 (en) | 2012-06-19 | 2021-06-23 | Samsung Electronics Co., Ltd. | Event-based image processing apparatus and method |
JP5891131B2 (ja) | 2012-07-11 | 2016-03-22 | 株式会社ソニー・コンピュータエンタテインメント | 画像生成装置および画像生成方法 |
US20140098100A1 (en) | 2012-10-05 | 2014-04-10 | Qualcomm Incorporated | Multiview synthesis and processing systems and methods |
JP6126821B2 (ja) * | 2012-11-09 | 2017-05-10 | 任天堂株式会社 | 画像生成方法、画像表示方法、画像生成プログラム、画像生成システム、および画像表示装置 |
EP2765774A1 (en) | 2013-02-06 | 2014-08-13 | Koninklijke Philips N.V. | System for generating an intermediate view image |
EP2765775A1 (en) | 2013-02-06 | 2014-08-13 | Koninklijke Philips N.V. | System for generating intermediate view images |
CN103247058B (zh) * | 2013-05-13 | 2015-08-19 | 北京工业大学 | 一种基于误差分布式多层网格的快速光流场计算方法 |
US9451162B2 (en) | 2013-08-21 | 2016-09-20 | Jaunt Inc. | Camera array including camera modules |
WO2015054235A1 (en) | 2013-10-07 | 2015-04-16 | Vid Scale, Inc. | User adaptive 3d video rendering and delivery |
US10186087B2 (en) * | 2013-12-06 | 2019-01-22 | Hewlett-Packard Development Company, L. P. | Occluding augmented reality objects |
US10176496B2 (en) | 2016-06-27 | 2019-01-08 | Adobe Inc. | Audience segmentation based on viewing angle of a user viewing a video of a multi-angle viewing environment |
DE102014209137B4 (de) * | 2014-05-14 | 2023-02-02 | Volkswagen Aktiengesellschaft | Verfahren und Vorrichtung zur Kalibrierung eines Kamerasystems eines Kraftfahrzeugs |
US9235904B1 (en) * | 2014-06-20 | 2016-01-12 | Nec Laboratories America, Inc. | Object detection with Regionlets re-localization |
EP4113991A1 (en) | 2014-09-03 | 2023-01-04 | Nevermind Capital LLC | Methods and apparatus for capturing, streaming and/or playing back content |
WO2016140934A2 (en) | 2015-03-01 | 2016-09-09 | Nextvr Inc. | Methods and apparatus for making environmental measurements and/or using such measurements in 3d image rendering |
US9626770B2 (en) | 2015-04-10 | 2017-04-18 | Apple Inc. | Generating synthetic video frames using optical flow |
CN104869387B (zh) * | 2015-04-19 | 2017-01-11 | 中国传媒大学 | 基于光流法的双目图像最大视差获取方法 |
US9877016B2 (en) * | 2015-05-27 | 2018-01-23 | Google Llc | Omnistereo capture and render of panoramic virtual reality content |
US20160353146A1 (en) | 2015-05-27 | 2016-12-01 | Google Inc. | Method and apparatus to reduce spherical video bandwidth to user headset |
US10038887B2 (en) | 2015-05-27 | 2018-07-31 | Google Llc | Capture and render of panoramic virtual reality content |
US9704298B2 (en) | 2015-06-23 | 2017-07-11 | Paofit Holdings Pte Ltd. | Systems and methods for generating 360 degree mixed reality environments |
US10217189B2 (en) * | 2015-09-16 | 2019-02-26 | Google Llc | General spherical capture methods |
CN105261042A (zh) * | 2015-10-19 | 2016-01-20 | 华为技术有限公司 | 光流估计的方法及装置 |
US20170134714A1 (en) * | 2015-11-11 | 2017-05-11 | Microsoft Technology Licensing, Llc | Device and method for creating videoclips from omnidirectional video |
US10453185B2 (en) | 2015-11-12 | 2019-10-22 | Aquifi, Inc. | System and method for high dynamic range depth capture using multiple cameras |
US9881380B2 (en) | 2016-02-16 | 2018-01-30 | Disney Enterprises, Inc. | Methods and systems of performing video object segmentation |
US9934615B2 (en) | 2016-04-06 | 2018-04-03 | Facebook, Inc. | Transition between binocular and monocular views |
US10200672B2 (en) | 2016-08-17 | 2019-02-05 | Nextvr Inc. | Methods and apparatus for capturing images of an environment |
US20180186472A1 (en) | 2016-12-30 | 2018-07-05 | Airmada Technology Inc. | Method and apparatus for an unmanned aerial vehicle with a 360-degree camera system |
US10038894B1 (en) | 2017-01-17 | 2018-07-31 | Facebook, Inc. | Three-dimensional scene reconstruction from set of two dimensional images for consumption in virtual reality |
WO2018151977A1 (en) | 2017-02-14 | 2018-08-23 | Axon Enterprise, Inc. | Systems and methods for determining a field of view |
-
2016
- 2016-04-11 US US15/096,169 patent/US10257501B2/en active Active
- 2016-04-11 US US15/096,167 patent/US10165258B2/en active Active
- 2016-04-11 US US15/096,165 patent/US10057562B2/en active Active
-
2017
- 2017-03-27 KR KR1020187030620A patent/KR101956149B1/ko active IP Right Grant
- 2017-03-27 BR BR112018070622A patent/BR112018070622A2/pt not_active IP Right Cessation
- 2017-03-27 JP JP2018552836A patent/JP6525467B1/ja active Active
- 2017-03-27 WO PCT/US2017/024306 patent/WO2017176484A1/en active Application Filing
- 2017-03-27 CA CA3018965A patent/CA3018965C/en not_active Expired - Fee Related
- 2017-03-27 MX MX2018012153A patent/MX2018012153A/es unknown
- 2017-03-27 MX MX2018012151A patent/MX370276B/es active IP Right Grant
- 2017-03-27 KR KR1020187030619A patent/KR101994121B1/ko active IP Right Grant
- 2017-03-27 CN CN201780026710.3A patent/CN109076172B/zh active Active
- 2017-03-27 AU AU2017246715A patent/AU2017246715A1/en not_active Abandoned
- 2017-03-27 CN CN201780035313.2A patent/CN109314752B/zh active Active
- 2017-03-27 WO PCT/US2017/024303 patent/WO2017176483A1/en active Application Filing
- 2017-03-27 AU AU2017246716A patent/AU2017246716B2/en not_active Ceased
- 2017-03-27 CA CA3017827A patent/CA3017827C/en not_active Expired - Fee Related
- 2017-03-27 JP JP2018551474A patent/JP6563609B2/ja active Active
- 2017-03-27 BR BR112018069568A patent/BR112018069568A2/pt not_active IP Right Cessation
- 2017-04-06 CN CN201780035010.0A patent/CN109314753B/zh active Active
- 2017-04-06 EP EP17779807.1A patent/EP3295662A4/en not_active Ceased
- 2017-04-06 CA CA3019163A patent/CA3019163C/en not_active Expired - Fee Related
- 2017-04-06 MX MX2018012149A patent/MX370277B/es active IP Right Grant
- 2017-04-06 KR KR1020187031469A patent/KR102003015B1/ko active IP Right Grant
- 2017-04-06 BR BR112018070417A patent/BR112018070417A2/pt not_active IP Right Cessation
- 2017-04-06 WO PCT/US2017/026321 patent/WO2017176975A1/en active Application Filing
- 2017-04-06 AU AU2017246470A patent/AU2017246470B2/en not_active Ceased
- 2017-04-06 JP JP2018552837A patent/JP6561216B2/ja active Active
-
2018
- 2018-09-13 IL IL261752A patent/IL261752A/en unknown
- 2018-09-25 IL IL261934A patent/IL261934A/en unknown
- 2018-09-26 IL IL26195518A patent/IL261955B/en not_active IP Right Cessation
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6561216B2 (ja) | 光学フローを使用した中間ビューの生成 | |
CN109615703B (zh) | 增强现实的图像展示方法、装置及设备 | |
CN109360235B (zh) | 一种基于光场数据的混合深度估计方法 | |
CN111866523B (zh) | 全景视频合成方法、装置、电子设备和计算机存储介质 | |
JP2019509526A (ja) | 多数のカメラを用いた最適の球形映像獲得方法 | |
JP5225313B2 (ja) | 画像生成装置、画像生成方法、及びプログラム | |
EP3229106A1 (en) | Efficient determination of optical flow between images | |
KR20220133766A (ko) | 멀티뷰 어안 렌즈들을 이용한 실시간 전방위 스테레오 매칭 방법 및 그 시스템 | |
CN109379577B (zh) | 一种虚拟视点的视频生成方法、装置及设备 | |
EP3229470B1 (en) | Efficient canvas view generation from intermediate views | |
Hu et al. | High resolution free-view interpolation of planar structure | |
Zraqou et al. | Enhanced 3D perception using Super-resolution and saturation control techniques for solar images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181026 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181026 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20181026 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20190221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190326 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20190520 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190624 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190702 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190722 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6561216 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |