JP2017525197A - 立体視ビデオ生成 - Google Patents

立体視ビデオ生成 Download PDF

Info

Publication number
JP2017525197A
JP2017525197A JP2016572713A JP2016572713A JP2017525197A JP 2017525197 A JP2017525197 A JP 2017525197A JP 2016572713 A JP2016572713 A JP 2016572713A JP 2016572713 A JP2016572713 A JP 2016572713A JP 2017525197 A JP2017525197 A JP 2017525197A
Authority
JP
Japan
Prior art keywords
frame
eye view
stereoscopic video
frames
effect
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016572713A
Other languages
English (en)
Other versions
JP6685241B2 (ja
Inventor
ベールーズ エー マレキ
ベールーズ エー マレキ
サルヴェナーズ サーコーシュ
サルヴェナーズ サーコーシュ
Original Assignee
ビッタニメイト インコーポレイテッド
ビッタニメイト インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ビッタニメイト インコーポレイテッド, ビッタニメイト インコーポレイテッド filed Critical ビッタニメイト インコーポレイテッド
Publication of JP2017525197A publication Critical patent/JP2017525197A/ja
Application granted granted Critical
Publication of JP6685241B2 publication Critical patent/JP6685241B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • H04N13/264Image signal generators with monoscopic-to-stereoscopic image conversion using the relative movement of objects in two video frames or fields
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/221Image signal generators using stereoscopic image cameras using a single 2D image sensor using the relative movement between cameras and objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20228Disparity calculation for image-based rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0092Image segmentation from stereoscopic image signals

Abstract

立体視ビデオを生成する方法は、平面視ビデオの第1フレームと前記平面視ビデオの第2フレームとの間の動きを求めることを含み得る。前記方法は、前記動きに基づいてカメラ効果を分析することを更に含み得る。更に、前記方法は、前記カメラ効果の分析に基づいて立体視ビデオの左目ビューフレームを生成すること、及び、前記カメラ効果の分析に基づいて前記立体視ビデオの右目ビューフレームを生成することを含み得る。

Description

本開示は、立体視ビデオ生成に関する。
3次元ビデオ(例えばテレビジョン、映画等)を生成するための3次元(立体視(stereoscopic))撮像は、近年ますます普及してきた。その1つの理由は、3次元ビデオを作成するために用いられるカメラ及びポストプロダクションにおいて著しい進歩があったということである。3次元ビデオが普及してきているもう1つの理由は、娯楽を見る大衆がこの特殊効果に割増料金を喜んで支払うように見えるということである。
しかし、3次元撮影技術は、3次元技術を用いてビデオを撮影することは2次元(平面視(monoscopic))技術を用いるのに比べてかなり多くの費用が掛かるというものである。それに加えて、既に生成されているが3次元技術を用いて撮影されていない非常に多くの2次元ビデオが存在する。
そういうことであるから、多くの人が2次元ビデオを3次元ビデオに変換する試みを行ってきた。しかし、2次元ビデオを3次元ビデオに変換するこれらの方法は、うまくいかないかもしれないし、多くのリソースが必要であり、及び/又は許容できる結果を生成しない(例えば、書き割り効果(cardboard cut-out effect)を生じる)。
ここでクレームされる主題は、上述されたような環境においてのみ、いかなる不利な点をも解消する又は動作する実施形態には、限定されない。むしろ、この背景技術は、ここで説明されるいくつかの実施形態が行われる1つの技術分野の例を示すためにのみ提供される。
実施形態のある局面によると、立体視ビデオを生成する方法は、平面視ビデオの第1フレームと前記平面視ビデオの第2フレームとの間の動きを求めることを含み得る。前記方法は、前記動きに基づいて、カメラ効果を分析することを更に含み得る。更に、前記方法は、前記カメラ効果の分析に基づいて、立体視ビデオの左目ビューフレームを生成すること、及び、前記カメラ効果の分析に基づいて、前記立体視ビデオの右目ビューフレームを生成することを含み得る。
前記実施形態の目的及び有利な点は、少なくとも特許請求の範囲において特に示される要素、特徴、及び組み合わせによって、理解され、かつ達成されるであろう。
特許請求の範囲に請求されているように、前述の一般的な説明及び以下の詳細な説明は、いずれも、典型的な、かつ、説明のためのものであり、本発明を限定するものではない、ということが理解されるべきである。
例としての実施形態が、添付の図面を通して更に具体的かつ詳細に表現され説明されるであろう。
図1は、平面視(2−D)ビデオに基づいて立体視(3−D)ビデオを生成するための例としてのシステムを示す。 図2は、平面視ビデオの異なるフレーム間における要素の動きに基づく、平面視ビデオに関連する修正フレームの生成を図示する、例としてのブロック図を示す。 図3は、平面視ビデオに関連する修正フレームの生成を図示する、例としてのブロック図を示し、1つ以上の修正フレームは、平面視ビデオの1つ以上の修正フレームに基づいて生成され得る。 図4は、平面視ビデオに関連する右へのパン効果に基づく、立体視ビデオの左目ビューフレーム及び右目ビューフレームの生成を図示する、例としてのブロック図を示す。 図5は、平面視ビデオに関連する左へのパン効果に基づく、立体視ビデオの左目ビューフレーム及び右目ビューフレームの生成を図示する、例としてのブロック図を示す。 図6は、平面視ビデオに関連するズームアウトカメラ効果に基づく、立体視ビデオの左目ビューフレーム及び右目ビューフレームの生成を図示する、例としてのブロック図を示す。 図7は、平面視ビデオに関連するズームインカメラ効果に基づく、立体視ビデオの左目ビューフレーム及び右目ビューフレームの生成を図示する、例としてのブロック図を示す。 図8は、平面視ビデオの例としてのフレームを示し、フレームは、動きが最も速い要素、動きが遅い要素、及び支配的な要素を含む。 図9は、シーンに関連する動きが最も速い要素、動きが遅い要素、及び支配的な要素のうちの少なくとも1つに基づいて、そのシーンの前景及び/又は背景を求める、例としての方法のフローチャートである。 図10は、平面視ビデオに関連する前景及び/又は背景の動きに基づいて、その平面視ビデオから立体視ビデオの左目ビューフレーム及び右目ビューフレームを生成するための、例としてのブロック図を示す。 図11は、カメラ効果に基づいて平面視ビデオを立体視ビデオに変換する、例としての方法のフローチャートである。 図12Aは、左目及び右目によって知覚され得る、例としての場面を示す。 図12Bは、図12Aの場面に関連する立体視ビデオの左目ビューフレーム及び右目ビューフレームにおける要素間に見られ得る、例としてのオフセットを示す、例としてのグリッドを図示する。 図12Cは、図12Bのオフセットに一律の乗算係数を適用した後において、図12Bの要素のオフセットを、それらの左目及び右目ビューフレームのそれぞれに関して示す、例としてのグリッドを図示する。 図12Dは、図12Bのオフセットに一律の加算係数を適用した後において、図12Bの要素のオフセットを、それらの左目及び右目ビューフレームのそれぞれに関して示す、例としてのグリッドを図示する。 図13は、立体視ビデオの深度を調節する、例としての方法のフローチャートである。 図14は、立体視ビデオの焦点を調節する、例としての方法のフローチャートであり、ここに説明される少なくともいくつかの実施形態に従って全てが配置されている。
人間は、およそ2.5インチ(およそ6.5センチメートル)離れている2つの目を用いる両眼視システムを有する。それぞれの目は、わずかに異なる視点から世界を見る。脳は、距離を計算又は測定するためにこれらの視点の差を利用する。この両眼視システムは、物体の距離を比較的よい精度で求める能力を部分的に担っている。視野における複数の物体の相対距離も両眼視の助けを借りて求められ得る。
3次元(立体視)撮像は、1つの画像が1つの目(例えば左目)に、他の画像が他の目(例えば右目)に提示されるという、観察者(viewer)に2つの画像を提示することによって、両眼視によって知覚される奥行きを利用する。2つの目に提示される画像は、実質的に同じ要素を含んでいてよいが、2つの画像内の要素は、日常生活において観察者の目によって知覚され得るオフセットする視点を模倣するために、互いにオフセットされ得る。よって、観察者は画像に描かれた要素に奥行きを知覚し得る。
従来から、3次元ビデオは2つの異なる目によって知覚され得るような場面(setting)を取得するために、約3〜8インチ離れて並んで取り付けられた2つのビデオソース(例えばカメラ)を使用して作成されてきた。この距離はしばしば「軸間(interaxial)」又は「眼間距離」と呼ばれる。したがって、2つのビデオソースは2つのビデオを、1つは左目用に、1つは右目用に、作成する。2つのビデオは、右目ビデオが観察者の右目に提示され、左目ビデオが観察者の左目に提示され、観察者がビデオを3次元で知覚するような、立体視(又は3D)ビデオとしてまとめられ得る。対照的に、本開示のいくつかの実施形態によると、立体視ビデオは単一の(平面視)ビデオソースを用いて得られるビデオから導出され得る。平面視ビデオソースから導出されるこれらのビデオは、「2D」又は「平面視ビデオ」と呼ばれ得る。
「ビデオ」という用語は、いかなるモーションタイプのピクチャをも示し得るし、限定ではなく例として、映画、テレビショー、記録されたイベント(例えばスポーツイベント、コンサート等)、ホームムービー、インターネットビデオ等を含み得る。ビデオは、それぞれが要素又は対象物(一般に「要素」と呼ばれる)を含み得る場面の画像を表示する、一連の「フレーム」(「フレーム」又は「ビデオフレーム」と呼ばれる)で構成されている。要素は、動いていてもよいし、静止していてもよい。例えば、フレームは、山、丘、木、動物、建物、飛行機、列車、自動車等のような要素を含み得る風景の画像であり得る。
いくつかの実施形態によると、平面視ビデオの第1フレームとその平面視ビデオの第2フレーム(例えば、第1フレームの次のフレーム又は前のフレーム)との間の要素の動きは、第1フレームに対応し得る、かつ、立体視ビデオを生成するために使用され得る1つ以上の修正第1フレームを生成するために使用され得る。いくつかの実施形態においては、第1及び第2フレームは連続したフレームであり得、他の実施形態においては、第1及び第2フレームの間に1つ以上の中間フレームが含まれ得る。第1フレーム及び修正第1フレームは、第1フレームと第2フレームとの間の要素の動きに基づいて、1つ以上の要素が第1フレームと修正第1フレームとで互いにオフセットしていて、実質的に同じ要素を含み得る。更に、要素の動きは、第1フレーム及び第2フレームに関して、カメラ効果(例えば、ズーム効果、パン(panning)効果、回転(rotating)効果、及び/又は静止(stationary)効果)を分析するために使用され得る。いくつかの実施形態においては、修正第1フレームは分析されたカメラ効果に基づいて生成され得る。
いくつかの実施形態においては、左目ビューフレームは、観察者の左目によって観察されるように構成され得るのであるが、求められたカメラ効果、及び第1フレームと修正第1フレームとのうちの少なくとも1つに基づいて生成され得る。同様に、右目ビューフレームは、観察者の右目によって観察されるように構成され得るのであるが、求められたカメラ効果、及び第1フレームと修正第1フレームとのうちの少なくとも1つに基づいて生成され得る。このプロセスは、立体視ビデオの対応する左目及び右目ビューフレームを生成するために、平面視ビデオの複数のフレームに対して繰り返され得る。したがって、そのような実施形態において、分析されたカメラ効果、及び第1フレームとそれに関連する第2フレームとの間の動きに基づいて、立体視ビデオが平面視ビデオから生成され得る。
更に、いくつかの実施形態において、左目ビューフレーム及び右目ビューフレームの生成は、第1フレーム及び第2フレームに関連する平面視ビデオのシーンの前景及び背景のうちの少なくとも1つの動きを求めることに基づき得る。これらの又は他の実施形態において、前景及び/又は背景は、第1フレーム及び第2フレームに関連するシーンに含まれる動きが最も速い要素、動きが遅い要素、及び/又は支配的な要素に基づいて求められ得る。
更に、立体視ビデオにおける奥行きの量は、左目ビューフレーム及び右目ビューフレームに含まれる要素間のオフセットを調節することによって修正され得る。その上、立体視ビデオに関連する場面の前景又は背景にどの要素が含まれるかの知覚も、要素間のオフセットを調節することによって修正され得る。
ここで説明される右目ビューフレーム及び左目ビューフレームは、それぞれ「右目画像」及び「左目画像」とも呼ばれ得る。更に、右目ビューフレーム及び左目ビューフレームは、上/下、左/右、SENSIO(登録商標)Hi-Fi 3D、Blu-ray(登録商標) 3D、又は他の任意の適用可能な3Dフォーマットのような、いかなる適切な3Dフォーマットをも使用して、立体視ビデオを生成するために使用され得る。
図1は、平面視(2−D)ビデオに基づいて立体視(3−D)ビデオ103を生成する、本開示のいくつかの実施形態による、例示システム100を示す。システム100は、3次元(立体視)ビデオ生成モジュール104(以下では「立体視ビデオモジュール104」として参照される)を含み得る。立体視ビデオモジュール104は、平面視ビデオ101を受け取り、平面視ビデオ101を立体視ビデオ103に変換する、いかなる適切なシステム、装置、又はデバイスをも含み得る。例えば、いくつかの実施形態においては、立体視ビデオモジュール104は、平面視ビデオ101を立体視ビデオ103に変換する動作をプロセッサに行わせる、コンピュータで実行可能な命令を含むソフトウェアであり得る。
立体視ビデオモジュール104は、平面視ビデオ101のフレーム間の1つ以上の要素の動きに基づいて立体視ビデオ103を生成するように構成され得る。いくつかの実施形態において、立体視ビデオモジュール104は、動きに基づいて修正フレームを生成し得る。立体視ビデオモジュール104によって行われ得る修正フレームの生成は、図2及び3に関して以下で更に詳細に述べられる。いくつかの実施形態において、立体視ビデオモジュール104は、また、フレーム間の要素の動きに基づいて、平面視ビデオ101に関連するカメラ効果を分析又は求めるように構成され得る。これらの実施形態において、立体視ビデオモジュール104は、求められたカメラ効果及びそれに関連する動きに基づいて、修正フレーム並びに立体視ビデオ103のための左目及び右目ビューフレームを生成するように構成され得る。更に、いくつかの実施形態において、立体視ビデオモジュール104は、平面視ビデオ101のシーン内の前景及び背景に関連する動きを求めることに基づいて、修正フレーム並びに左目及び右目ビューフレームを生成するように構成され得る。カメラ効果の分析、並びに、分析されたカメラ効果に基づいて立体視ビデオモジュール104によって実行され得る修正フレーム並びに左目及び右目ビューフレームの生成は、図4−7及び10に関して更に詳細に述べられる。
いくつかの実施形態において、立体視ビデオモジュール104は、また、平面視ビデオ101のシーンの前景及び/又は背景を求めるように構成され得る。これらの実施形態のいくつかにおいて、立体視ビデオモジュール104は、平面視ビデオ101のシーンに含まれる動きが最も速い要素、動きが遅い要素、及び/又は支配的な要素に基づいて、前景及び/又は背景を求めるように構成され得る。動きが最も速い要素、動きが遅い要素、及び/又は支配的な要素を求めることは、図8に関して更に詳細に述べられる。立体視ビデオモジュール104によって実行され得る前景及び/又は背景を求めることは、図9に関して更に詳細に以下で説明される。
更に、いくつかの実施形態において、立体視ビデオモジュール104は、左目及び右目ビューフレームに含まれる要素間のオフセットを調節することによって、立体視ビデオ103を見ている観察者によって知覚される奥行きの量を調節するように構成され得る。立体視ビデオモジュール104によって行われ得る奥行き知覚の修正は、図12A−12C及び13に関して以下で更に詳細に述べられる。更に、いくつかの実施形態において、観察者によって知覚される場面の前景又は背景内にどの要素があり得るかという知覚を立体視ビデオモジュール104が修正し得るように、立体視ビデオ103の焦点を調節するようにも、立体視ビデオモジュール104は構成され得る。立体視ビデオモジュール104によって行われ得る焦点の修正は、図12A,12B,12D,及び14に関して以下で更に詳細に述べられる。
上述のように、立体視ビデオモジュール104は、フレーム間の1つ以上の要素の動きに基づいて立体視ビデオ103の左及び右目ビューフレームを生成するために使用され得る修正フレームを生成するように構成され得る。図2は、本開示のいくつかの実施形態による、平面視ビデオ201の異なるフレーム202の間の要素の動きに基づく修正フレーム202’の生成を図示する例としてのブロック図200を示す。いくつかの実施形態において、そして図2に関して例として示されているように、修正フレーム202’は、図1に関して上述されている立体視ビデオモジュール104のような、立体視ビデオモジュールによって生成され得る。図2に図示されているように、平面視ビデオ201は、図1に関して説明された平面視ビデオ101に実質的に類似し得るし、平面視ビデオ201に関連する1つ以上の場面の画像を含み得る一連のフレーム202を含み得る。本開示のいくつかの実施形態によると、立体視ビデオモジュールは、フレーム202の間の1つ以上の要素(明示されていない)の水平方向の動きに基づいて、修正フレーム202’を生成し得る。
例えば、フレーム202a及び202b内の要素(フレーム202bはフレーム202aの後に続くフレームであり得る)は、その要素がフレーム202aと202bとの間で左から右へ水平方向に動き得るように、フレーム202aとフレーム202bとの間で位置が異なり得る。したがって、立体視ビデオモジュールは、要素がフレーム202aに対して修正フレーム202a’において右にオフセットするように、フレーム202aと202bとの間での要素の水平方向の動きに基づいて、修正フレーム202a’を生成し得る。立体視ビデオモジュールは、同様に、フレーム202b及び202cに基づいて修正フレーム202b’を(フレーム202cはフレーム202bの後に続くフレームであり得る)、フレーム202c及び202dに基づいて修正フレーム202c’を(フレーム202dはフレーム202cの後に続くフレームであり得る)生成し得る。したがって、観察者の右目及び左目によって知覚されるような画像の水平方向のオフセットを模倣するために、フレーム間の要素の水平方向の動きに基づいて、修正フレーム202’は、対応するフレーム202の対応する要素に対して水平方向にオフセットし得る。
いくつかの実施形態において、フレーム202間の要素の動きは、垂直方向にもあり得る(「垂直方向の動き」と称する)。しかし、観察者の目は一般に垂直方向には実質的にオフセットしていないので、立体視ビデオモジュールは、修正フレーム202’を生成するときにフレーム202間の要素の垂直方向の動きを実質的に無視し得る。よって、修正フレーム202’は、それらの要素が修正フレーム202’においては関連するフレーム202における対応する要素に対して水平方向にオフセットするように、水平方向の動きに基づいて生成され得る。しかし、修正フレーム202’の要素は、フレーム間で垂直方向の動きが生じていても、関連するフレーム202の対応する要素に対して垂直方向には実質的にオフセットし得ない。
更に、いくつかの実施形態において、1つのフレームからもう1つのフレームへの要素の動きは、1つのフレーム内の1つ以上の要素が、修正フレームを生成するために使用され得る後続のフレームに存在しない、という結果を生じ得る。そのような場合には、立体視ビデオモジュール104は、なくなった要素を元のフレームからコピーして関連する修正フレームに配置し得る。
例えば、フレーム202aの要素が人の手であり得、フレーム202aとフレーム202bとの間のその人の動きが、その人の手がフレーム202bでは見えなくなるようなものであり得る。更に、修正フレーム202a’が、フレーム202aからフレーム202bへのその人の水平方向の動きに基づいて生成され得る。よって、修正フレーム202a’をその人の水平方向の動きに基づいて生成する際に、その人は、フレーム202aと202bとの間のその人の水平方向の動きに基づいて、修正フレーム202a’において水平方向にオフセットし得る。しかし、その人の手はフレーム202aからコピーされ修正フレーム202a’に挿入され得る。その結果、修正フレーム202a’の要素の水平方向のオフセットが抽出されるフレーム202bから手が消失していても、手が修正フレーム202a’には存在し得る。
本開示の範囲を逸脱することなく、図2には修正、追加、又は省略がなされ得る。例えば、平面視ビデオ201は、明示的に図示されているより多数の又は少数のフレームを含み得る。更に、いくつかの実施形態において、図示されたフレームの間に1つ以上の中間フレームが含まれ得る。例えば、平面視ビデオ201は、フレーム202aと202bとの間、フレーム202bと202cとの間、及び/又は、フレーム202cと202dとの間にあり得る、1つ以上の中間フレームを含み得る。更に、いくつかの実施形態において、平面視ビデオ201内のシーンは、1つのフレーム202が1つのシーンに関連し得、後続のフレームが異なるシーンに関連し得る、というように変化し得る。「シーンチェンジ」又はシーンの変更が、同一の場面のカメラアングル又は視野(perspective)の変更、及び/又はビデオに描写される場面の変更を指し得るように、本開示において、「シーン」は、特定の場面に関する特定のカメラ視野又はアングルのことを指し得る。そのような実施形態において、修正フレームは、以前のフレームにおいて識別された1つ以上の要素の動きに基づき得る、推測フレームに基づいて生成され得る。
図3は、本開示のいくつかの実施形態による、修正フレーム302’の生成を図示する例示的なブロック図300を示し、1つ以上の修正フレーム302’は、平面視ビデオ301の1つ以上の推測フレーム305に基づいて生成され得る。いくつかの実施形態において、そして図3に関して例として与えられているように、修正フレーム302’は、図1に関して上述された立体視ビデオモジュール104のような立体視ビデオモジュールによって、生成され得る。図3に図示されているように、平面視ビデオ301は、平面視ビデオ301に関連する1つ以上のシーンの画像を含み得る一連のフレーム302(フレーム302a−302dとして図示されている)を含み得る。説明されている実施形態において、フレーム302a−302cは平面視ビデオ301のシーン306aに関連し得、フレーム302dは平面視ビデオ301の異なるシーンであるシーン306bに関連し得る。
本開示のいくつかの実施形態によると、立体視ビデオモジュールは、上述の修正フレーム202a’及び202b’の生成と同様に、フレーム302aと302bとの間、及び、フレーム302bと302cとの間のそれぞれの、1つ以上の要素(特に図示されていない)の動きに基づいて、修正フレーム302a’及び302b’を生成するように構成され得る。例えば、修正フレーム302a’は、フレーム302aと302b(これはフレーム302aの後に続き得る)との間の1つ以上の要素の動きに基づいて生成され得る。更に、修正フレーム302b’は、フレーム302bと302c(これはフレーム302bの後に続き得る)との間の1つ以上の要素の動きに基づいて生成され得る。
しかし、説明されている実施形態において、フレーム302cは、平面視ビデオ301のシーン306aに関連する最後のフレームであり得る。よって、フレーム302dのような後続のフレームは、異なるシーンに関連し得る、又は、他のフレームに移行する前に関連する実質的な動きを有し得ないので、フレーム302cに関連する要素の動きは、フレーム302cとフレーム302cの後続のフレームとの間には存在し得ない。このような場合には、立体視ビデオモジュールは、シーンがその最後のフレーム以降継続していればシーンの後続フレームを表現し得る推測フレームを生成するように、構成され得る。例えば、説明されている実施形態において、立体視ビデオモジュールは、シーン306aがフレーム302c以降継続していればシーン306aのフレーム302cの後続フレームを表現し得る推測フレーム305を生成するように、構成され得る。
いくつかの実施形態において、立体視ビデオモジュールは、シーンチェンジを求めるように構成され得、検出されたシーンチェンジに基づいてシーンの最終フレームを求め得る。立体視ビデオモジュールは、シーンチェンジを検出することに基づいて推測フレームを生成するようにも構成され得る。例えば、立体視ビデオモジュールは、シーン306aからシーン306bへのシーンチェンジを検出するように構成され得、フレーム302cがシーン306aの最終フレームであることを求め得、かつ、シーン306aからシーン306bへのシーンチェンジを検出することに基づいて、推測フレーム305を生成し得る。
これらの実施形態のいくつかにおいて、立体視ビデオモジュールは、フレーム間のピクセルの空間及び/又は色の分布の分析に基づいて、シーンチェンジを求めるように構成され得る。もしピクセルの分布がフレームから他のフレームに、実質的に類似しているなら、立体視ビデオモジュールは、フレーム302が同一のシーン306に関連しているということを求め得る。しかし、もしピクセルの分布がフレーム間で実質的に異なるなら、立体視ビデオモジュールは、シーンチェンジが発生したということを求め得る。例えば、立体視ビデオモジュールは、フレーム302a,302b,及び302cの間のピクセルの分布が実質的に類似しているということを求めて、フレーム302a,302b,及び302cがシーン306aの一部であり得るということを求め得る。立体視ビデオモジュールは、また、フレーム302cと302dとの間のピクセルの分布が実質的に異なるということを求めて、フレーム302cと302dとの間でシーン306aからシーン306bへのシーンチェンジが発生するということを求め得る。
第1シーンから第2シーンへのシーンチェンジの検出に応じて、立体視ビデオモジュールは、第1シーンのフレーム間の1つ以上の要素の動きを検出するように構成され得る。第1シーンのフレーム間の要素の動きに基づいて、立体視ビデオモジュールは、第1シーン用に推測フレームを生成するように構成され得る。推測フレームを生成すると、立体視ビデオモジュールは、第1シーンの最終フレームと推測フレームとの間の要素の動きに基づいて、第1シーンの最終フレーム用に修正フレームを生成するように構成され得る。
例えば、シーン306aからシーン306bへのシーンチェンジを検出後、立体視ビデオモジュールは、シーンチェンジの検出に応じてフレーム302bと302cとの間の1つ以上の要素の動きを検出するように構成され得る。フレーム302bと302cとの間の検出された動きに基づいて、立体視ビデオモジュールは、シーン306aがフレーム302c以降継続していればフレーム302cとシーン306aの後続のフレームとの間にどのような動きが発生し得るかを推測するように構成され得る。いくつかの実施形態において、要素間の動きの推測は、シーン306aがフレーム302cの後に終了していなければフレーム302bと302cとの間の要素の動きがフレーム302c以降も継続するであろうという仮定に基づいて行われ得る。立体視ビデオモジュールは、したがって、シーン306aがフレーム302c以降継続していればシーン306aにおいて継続しているであろう動きを推測フレーム305が反映し得るように、シーン306aのフレーム302bと302cとの間の要素の動きに基づいてシーン306a用に推測フレーム305を生成するように、構成され得る。
推測フレーム305が生成されると、立体視ビデオモジュールは、フレーム302aと302bとの間、及び、フレーム302bと302cとの間のそれぞれの動きに基づいて修正フレーム302a’及び302b’を生成するのと同様に、フレーム302cと推測フレーム305との間の1つ以上の要素の動きに基づいて修正フレーム302c’を生成し得る。よって、修正フレーム302c’は、フレーム302から実質的に同一の要素を有する後続のフレームへの間で、たとえそのような後続のフレームが存在し得なくても、発生し得る動きに基づいて、生成され得る。
本開示の範囲を逸脱することなく、図3には修正、追加、又は省略がなされ得る。例えば、平面視ビデオ301は、明示的に図示されているより多数の又は少数のフレーム302及び/又はシーン306を含み得る。更に、各シーン306は、いかなる数のフレーム302をも含み得る。更に、いくつかの実施形態において、図示されたフレーム302の間に1つ以上の中間フレームが含まれ得る。
図1に戻り、前述のように、立体視ビデオモジュール104は、カメラ効果及び平面視ビデオ101の修正フレームに基づいて、立体視ビデオ103の左目及び右目ビューフレームを生成するように構成され得る。修正フレームは、図2及び3に関して上述のように、フレーム間の要素の動きに基づいて生成され得る。したがって、立体視ビデオモジュール104は、本開示の1つ以上の実施形態に従って、平面視ビデオ101のカメラ効果を分析するようにも構成され得る。そのような実施形態において、立体視ビデオモジュール104は、カメラ効果がパン効果又はズーム効果のいずれであるのかを求め得、カメラ効果がパン効果又はズーム効果のいずれであるのかに基づいて、左目及び右目ビューフレームを生成し得る。カメラ効果がパン効果であると求めたことに基づいた左目ビューフレーム及び右目ビューフレームの生成は、図4及び5に関して以下で更に詳細に述べられる。カメラ効果がズーム効果であると求めたことに基づいた左目ビューフレーム及び右目ビューフレームの生成は、図6及び7に関して以下で更に詳細に論じられる。
更に、もしカメラ効果がパン効果又はズーム効果のいずれでもないということを立体視ビデオモジュール104が求めるなら、立体視ビデオモジュール104は、このように求めたことに基づいて左目及び右目ビューフレームを生成し得る。これらの実施形態のいくつかにおいて、立体視ビデオモジュール104は、平面視ビデオ101のフレームに関連する前景及び背景の動きに基づいて、左目ビューフレーム及び右目ビューフレームを生成し得る。前景及び背景の検出は、図8及び9に関してより詳細に説明される。カメラ効果がパン効果又はズーム効果のいずれでもないということが求められたということに基づく左目ビューフレーム及び右目ビューフレームの生成は、図10に関して以下で更に詳細に論じられる。
図4は、本開示のいくつかの実施形態による、平面視ビデオ401のフレーム402a及び402bに関連する右へのパン効果に基づく、立体視ビデオ403の左目ビューフレーム410及び右目ビューフレーム412の生成を図示する例示的なブロック図400を示す。説明されている例において、立体視ビデオ403は、図1に関して上述された立体視ビデオモジュール104のような、立体視ビデオモジュールによって生成され得る。
フレーム402a及び402bは、それぞれフレーム402a及びフレーム402bの両方に含まれ得る1つ以上の要素408を含み得る。例えば、説明されている実施形態において、各フレーム402a及び402bは、要素408a及び408bを含み得る。フレーム402a及び402bは、図4に明示されていない他の要素も含み得る。
カメラがパンするとき、カメラによって撮影される場面全体は、パン効果に関連するフレーム内の要素が実質的に一律の大きさで実質的に一律の方向に動くように、カメラが動くのに従って動く。例えば、フレーム402a及び402bは、フレーム402a及び402b内の要素408a及び408bがフレーム402aと402bとの間で右から左に実質的に同じ量だけ一様に動くように、カメラが生成するフレーム402a及び402bが左から右にパンされ得たような、右へのパン(right-panning)効果に関連し得る。
右へのパン効果は、左から右へ実際にカメラをパンすることに基づいて、又は、左から右へカメラをパンすることのシミュレーションに基づいて、生成され得る。いくつかの実施形態において、パン効果は、軸のまわりのカメラの回転に、又は、そのパン効果を生成するような、適切ないかなるシミュレーションにも、関連し得る。他の実施形態において、パン効果は、撮影される場面に関して水平方向のカメラ全体の動き(例えば、左から右へ)に、又は、そのパン効果を生成するような、適切ないかなるシミュレーションにも、関連し得る。
立体視ビデオモジュールは、フレーム402aと402bとの間で、要素408a及び408bのような要素の動きを分析することに基づいて、右へのパン効果がフレーム402aと402bとの間に存在するかどうかを求めるように構成され得る。例えばいくつかの実施形態において、立体視ビデオモジュールは、フレーム402a及び402bのさまざまな区域(例えば、右上、左上、右下、及び左下区域)に位置するさまざまな要素の動きを分析し得る。いくつかの実施形態において、立体視ビデオモジュールは、要素に対応し得るフレーム402a及び402bのピクセルに関連する動きを分析することによって、その要素の動きを分析し得る。これらの又は他の実施形態において、立体視ビデオモジュールは、フレーム402aとフレーム402bとの間の要素の動きを求めるために、フレーム402a及び402bの各ピクセルに関連する動きを分析し得る。もしフレーム402a及び402bのさまざまな区域に位置する要素(又は、いくつかの実施形態においてはピクセル)に関連する動きが、全て右から左へ実質的に同じ程度動くなら、立体視ビデオモジュールは、カメラ効果は右へのパン効果である、ということを求め得る。
立体視ビデオモジュールは、求められた右へのパン効果及びそれに関連する動きに基づいて、フレーム402aに関連する修正フレーム402a’を生成し得る。例えば、上述のように、右へのパン効果は、要素408a及び408bが、フレーム402aからフレーム402bへ、右から左へ実質的に同じ程度動くという結果となり得る。したがって、いくつかの実施形態において、立体視ビデオモジュールは、右へのパン効果によって引き起こされた、フレーム402aと402bとの間の要素408a及び408bの水平方向の位置の差のため、フレーム402bを用いて修正フレーム402a’を生成しうる。フレーム402aと402bとの間で要素408a及び408bの垂直方向のオフセットがほとんど、又は全くあり得ないような、いくつかの実施形態において、フレーム402bは、修正フレーム402a’として使用され得る。フレーム402aと402bとの間で要素408a及び408bに垂直方向のオフセットが存在し得るような、他の実施形態において、フレーム402aと402bとの間の要素408a及び408bの垂直方向の位置の差は、フレーム402aと修正フレーム402a’との間の要素408a及び408bの垂直方向のいかなるオフセットもが本質的なものではあり得ないように、修正フレーム402a’の生成中に除去され得る。
立体視ビデオ403の左目ビューフレーム410及び右目ビューフレーム412は、平面視ビデオ401のビューフレーム402aに関連し得るのであるが、右へのパン効果、ビューフレーム402a、及び修正ビューフレーム402a’に基づいて生成され得る。例えば、右へのパン効果のため、フレーム402aは左目ビューフレーム410として指定され得、修正フレーム402a’は右目ビューフレーム412として指定され得る。よって、立体視ビデオ403の左目ビューフレーム410及び右目ビューフレーム412は、右へのパン効果及び修正フレーム402a’に少なくとも部分的に基づいて生成され得る。修正フレーム402a’は、フレーム402aと402bとの間の要素408a及び408bの動きに関連し得る。
明示的に説明されたもの以外の修正、追加、又は省略が、立体視ビデオ403の生成に対して行われ得る。例えば、平面視ビデオ401の他のフレーム402に関連する左目及び右目ビューフレーム(例えば、フレーム402bに関連する左目及び右目ビューフレーム)は、同様に生成され得る。更に、いくつかの実施形態において、左目及び右目ビューフレームは、それぞれのシーンの最後、又は最後に近いフレームであり得るフレーム402に対して、フレーム402に関連する修正フレームが図3に関して上述されたようなやり方で求められる推測フレームに基づいて生成され得るように、生成され得る。
図5は、本開示のいくつかの実施形態による、平面視ビデオ501のフレーム502a及び502bに関連する左へのパン(left-panning)効果に基づく、立体視ビデオ503の左目ビューフレーム510及び右目ビューフレーム512の生成を図示する、例としてのブロック図500を示す。図示されている例において、立体視ビデオ503は、図1に関して上述された立体視ビデオモジュール104のような立体視ビデオモジュールによって、生成され得る。
フレーム502a及び502bは、それぞれがフレーム502a及びフレーム502bの両方に含まれ得る1つ以上の要素508を含み得る。例えば、図示されている実施形態において、フレーム502a及び502bのそれぞれが、要素508a及び508bを含み得る。
上述のように、フレーム502a及び502bは、フレーム502a及び502b内の要素508がフレーム502aと502bとの間で左から右へ実質的に同じ量だけ一律に動き得るように、フレーム502a及び502bを生成するカメラが右から左にパンされ得た、左へのパン効果に関連し得る。例えば、図示される実施形態において、要素508a及び508bは、フレーム502a及び502bに関連する左へのパン効果に基づいて、実質的に同じ量だけフレーム502aと502bとの間で左から右に動き得る。
右へのパン効果と同様に、左へのパン効果は、右から左へ実際にカメラをパンすることに基づいて、又は、右から左へカメラをパンすることのシミュレーションに基づいて、生成され得る。また、いくつかの実施形態において、パン効果は、軸のまわりのカメラの回転に、又は、そのパン効果を生成するような、適切ないかなるシミュレーションにも、関連し得る。他の実施形態において、パン効果は、撮影される場面に関して水平方向のカメラ全体の動き(例えば、右から左へ)に、又は、そのパン効果を生成するような、適切ないかなるシミュレーションにも、関連し得る。
図4に関して上で論じられているように、右へのパン効果が存在するかどうかを求めるのと同様に、立体視ビデオモジュールは、フレーム502aと502bとの間で、要素508a及び508bのような要素(又は、いくつかの実施形態においてはピクセル)に関連する動きを分析することに基づいて、左へのパン効果がフレーム502aと502bとの間に存在するかどうかを求めるように構成され得る。もしフレーム502a及び502bのさまざまな区域に位置する要素(又は、いくつかの実施形態においてはピクセル)に関連する動きが、全て左から右へ実質的に同じ程度動くなら、立体視ビデオモジュールは、カメラ効果は左へのパン効果である、ということを求め得る。
立体視ビデオモジュールは、求められた左へのパン効果及びそれに関連する動きに基づいて、フレーム502aに関連する修正フレーム502a’を生成し得る。例えば、上述のように、左へのパン効果は、要素508a及び508bが、フレーム502aからフレーム502bへ、左から右へ実質的に同じ程度動くという結果となり得る。したがって、いくつかの実施形態において、立体視ビデオモジュールは、左へのパン効果によって引き起こされた、フレーム502aと502bとの間の要素508a及び508bの水平方向の位置の差のため、フレーム502bに基づいて修正フレーム502a’を生成しうる。フレーム502aと502bとの間で要素508a及び508bの垂直方向のオフセットがほとんど、又は全くあり得ないような、いくつかの実施形態において、フレーム502bは、修正フレーム502a’として使用され得る。フレーム502aと502bとの間で要素508a及び508bに垂直方向のオフセットが存在し得るような、他の実施形態において、フレーム502aと502bとの間の要素508a及び508bの垂直方向の位置の差は、フレーム502aと修正フレーム502a’との間の要素508a及び508bの垂直方向のいかなるオフセットもが本質的なものではあり得ないように、修正フレーム502a’の生成中に除去され得る。
立体視ビデオ503の左目ビューフレーム510及び右目ビューフレーム512は、平面視ビデオ501のビューフレーム502aに関連し得るのであるが、左へのパン効果、ビューフレーム502a、及び修正ビューフレーム502a’に基づいて生成され得る。例えば、左へのパン効果のため、修正フレーム502a’は左目ビューフレーム510として指定され得、フレーム502aは右目ビューフレーム512として指定され得る。よって、立体視ビデオ503の左目ビューフレーム510及び右目ビューフレーム512は、左へのパン効果及び修正フレーム502a’に少なくとも部分的に基づいて生成され得る。修正フレーム502a’は、フレーム502aと502bとの間の要素508a及び508bの動きに関連し得る。
明示的に説明されたもの以外の修正、追加、又は省略が、立体視ビデオ503の生成に対して行われ得る。例えば、平面視ビデオ501の他のフレーム502に関連する左目及び右目ビューフレーム(例えば、フレーム502bに関連する左目及び右目ビューフレーム)は、同様に生成され得る。更に、いくつかの実施形態において、左目及び右目ビューフレームは、それぞれのシーンの最後、又は最後に近いフレームであり得るフレーム502に対して、フレーム502に関連する修正フレームが図3に関して上述されたようなやり方で求められる推測フレームに基づいて生成され得るように、生成され得る。
図6は、本開示のいくつかの実施形態による、平面視ビデオ601のフレーム602a及びフレーム602bに関連するズームアウトカメラ効果に基づく、立体視ビデオ603の左目ビューフレーム610及び右目ビューフレーム612の生成を図示する、例としてのブロック図600を示す。図示される実施形態において、立体視ビデオ603は、図1に関して上述された立体視ビデオモジュール104のような立体視ビデオモジュールによって、生成され得る。
フレーム602a及び602bは、それぞれがフレーム602a及びフレーム602bの両方に含まれ得る1つ以上の要素608を含み得る。例えば、図示されている実施形態において、フレーム602a及び602bのそれぞれが、要素608a,608b,608c及び608dを含み得る。
カメラがズームアウトするとき、カメラによって生成されるフレーム内の要素は、1つのフレームからもう1つのフレームへ、フレームによってキャプチャされた場面の中心に向かって動き得る。例えば、図6に示されているように、フレーム602a及び602bは、フレーム602a及び602b内の要素608a,608b,608c及び608dが、フレーム602aからフレーム602bへ、フレーム602a及び602bによってキャプチャされた場面の中央に向かって動くように、ズームアウトカメラ効果に関連し得る。ズームアウトカメラ効果は、実際のカメラのズームアウト、又はズームアウトのシミュレーションに基づいて、生成され得る。
図4及び5に関して上で論じられたように、右へのパン効果又は左へのパン効果が存在するかどうかを求めるのと同様に、立体視ビデオモジュールは、フレーム602a及び602bのさまざまな区域(例えば、左上、右上、左下、及び右下区域)に位置する要素の、例えば、フレーム602a及び602bの、左上、右上、左下、及び右下区域にそれぞれ位置し得る、要素608a,608b,608c及び608dのような要素の、フレーム602aと602bとの間の動きを分析することに基づいて、ズームアウトカメラ効果がフレーム602aと602bとの間に存在するかどうかを求めるように構成され得る。いくつかの実施形態において、立体視ビデオモジュールは、要素に対応し得るフレーム602a及び602bのピクセルに関連する動きを分析することによって、その要素の動きを分析し得る。これらの又は他の実施形態において、立体視ビデオモジュールは、フレーム602aとフレーム602bとの間の要素の動きを求めるために、フレーム602a及び602bの各ピクセルに関連する動きを分析し得る。もしフレーム602a及び602bのさまざまな区域に位置する要素(又は、いくつかの実施形態においてはピクセル)に関連する動きが、フレーム602a及び602bによってキャプチャされた場面の中心に実質的に向かって動くなら、立体視ビデオモジュールは、カメラ効果はズームアウトカメラ効果である、ということを求め得る。
立体視ビデオモジュールは、求められたズームアウトカメラ効果及びそれに関連する動きに基づいて、フレーム602aに関連する修正フレーム602a’及び修正フレーム602a”を生成し得る。例えば、ズームアウトカメラ効果は、フレーム602a及び602bのそれぞれの左側614a及び614bに含まれる要素(例えば、要素608a及び608c)が、フレーム602aからフレーム602bへ、左から右へ実質的に同じ程度動くという結果となり得る。更に、ズームアウトカメラ効果は、フレーム602a及び602bのそれぞれの右側616a及び616bに含まれる要素(例えば、要素608b及び608d)が、フレーム602aからフレーム602bへ、右から左へ実質的に同じ程度動くという結果となり得る。
いくつかの実施形態において、立体視ビデオモジュールは、フレーム602a及び602bのそれぞれの左側614aと614bとの間の、要素の水平方向のオフセットに基づいて、修正フレーム602a’の左側614cを生成し得る。更に、立体視ビデオモジュールは、左側614cの生成中は、左側614aと614bとの間の、要素のいかなる垂直方向のオフセットをも無視し得る。例えば、要素608a及び608cは、修正フレーム602a’の左側614cにおいて、フレーム602bの左側614bにおけるのと実質的に同一の水平方向の位置を有し得る。しかし、要素608a及び608cは、修正フレーム602a’の左側614cにおいて、フレーム602aの左側614aにおけるのと実質的に同一の垂直方向の位置を有し得る。
更に、立体視ビデオモジュールは、右側616cが右側616aに実質的に類似し得るように、フレーム602aの右側616aに含まれる要素の水平方向及び垂直方向の両方の位置に基づいて、修正フレーム602a’の右側616cを生成し得る。例えば、要素608b及び608dは、修正フレーム602a’の右側616cにおいて、フレーム602aの右側616aにおけるのと実質的に同一の水平方向及び垂直方向の位置を有し得る。
立体視ビデオモジュールは、フレーム602a及び602bのそれぞれの右側616aと616bとの間の、要素の水平方向のオフセットに基づいて、修正フレーム602a”の右側616dを生成し得る。更に、立体視ビデオモジュールは、右側616dの生成中は、右側616aと616bとの間の、要素のいかなる垂直方向のオフセットをも無視し得る。例えば、要素608b及び608dは、修正フレーム602a”の右側616dにおいて、フレーム602bの右側616bにおけるのと実質的に同一の水平方向の位置を有し得る。しかし、要素608b及び608dは、修正フレーム602a”の右側616dにおいて、フレーム602aの右側616aにおけるのと実質的に同一の垂直方向の位置を有し得る。
対照的に、立体視ビデオモジュールは、左側614dが左側614aに実質的に類似し得るように、フレーム602aの左側614aに含まれる要素の水平方向及び垂直方向の両方の位置に基づいて、修正フレーム602a”の左側614dを生成し得る。例えば、要素608a及び608cは、修正フレーム602a”の左側614dにおいて、フレーム602aの左側614aにおけるのと実質的に同一の水平方向及び垂直方向の位置を有し得る。
図6に図示されているように、上述のズームアウト効果のための修正フレーム602a’及び602a”の構成は、要素608a,608b,608c及び608dが、修正フレーム602a’において修正フレーム602a”に対して右に水平方向にオフセットするという結果となり得る。更に、要素608a,608b,608c及び608dは、修正フレーム602a’において修正フレーム602a”に対して垂直方向のオフセットをほとんど又は全く有し得ない。
立体視ビデオ603の左目ビューフレーム610及び右目ビューフレーム612は、平面視ビデオ601のビューフレーム602aに関連し得るのであるが、ズームアウトカメラ効果並びに修正ビューフレーム602a’及び602a”に基づいて生成され得る。例えば、ズームアウトカメラ効果のため、修正フレーム602a’は左目ビューフレーム610として指定され得、修正フレーム602a”は右目ビューフレーム612として指定され得る。よって、立体視ビデオ603の左目ビューフレーム610及び右目ビューフレーム612は、ズームアウトカメラ効果並びに修正フレーム602a’及び602a”に少なくとも部分的に基づいて生成され得る。修正フレーム602a’及び602a”は、フレーム602aと602bとの間の要素608a,608b,608c及び608dの動きに関連し得る。
明示的に説明されたもの以外の修正、追加、又は省略が、立体視ビデオ603の生成に対して行われ得る。例えば、平面視ビデオ601の他のフレーム602に関連する左目及び右目ビューフレーム(例えば、フレーム602bに関連する左目及び右目ビューフレーム)は、同様に生成され得る。更に、いくつかの実施形態において、左目及び右目ビューフレームは、それぞれのシーンの最後、又は最後に近いフレームであり得るフレーム602に対して、フレーム602に関連する修正フレームがフレーム602及び図3に関して上述されたようなやり方で生成される関連する推測フレームに基づいて生成され得るように、生成され得る。
図7は、本開示のいくつかの実施形態による、平面視ビデオ701のフレーム702a及びフレーム702bに関連するズームインカメラ効果の左目ビューフレーム710及び右目ビューフレーム712の生成を図示する、例としてのブロック図700を示す。フレーム702a及び702bは、それぞれがフレーム702a及びフレーム702bの両方に含まれ得る1つ以上の要素708を含み得る。例えば、図示されている実施形態において、フレーム702a及び702bのそれぞれが、要素708a,708b,708c及び708dを含み得る。
カメラがズームインするとき、カメラによって生成されるフレーム内の要素は、1つのフレームからもう1つのフレームへ、フレームによってキャプチャされた場面の中心から離れるように動き得る。例えば、図7に示されているように、フレーム702a及び702bは、フレーム702a及び702b内の要素708a,708b,708c及び708dが、フレーム702aからフレーム702bへ、フレーム702a及び702bによってキャプチャされた場面の中央から離れるように動くように、ズームインカメラ効果に関連し得る。ズームインカメラ効果は、実際のカメラのズームイン、又はズームインのシミュレーションに基づいて、生成され得る。
図4−6に関して上で論じられたように、右へのパン効果、左へのパン効果、又はズームアウトカメラ効果が存在するかどうかを求めるのと同様に、立体視ビデオモジュールは、要素708a,708b,708c及び708dのような、フレーム702a及び702bのさまざまな区域(例えば、右上、左上、右下、及び左下区域)に位置する要素の、フレーム702aと702bとの間の動きを分析することに基づいて、ズームインカメラ効果がフレーム702aと702bとの間に存在するかどうかを求めるように構成され得る。いくつかの実施形態において、立体視ビデオモジュールは、要素に対応し得るフレーム702a及び702bのピクセルに関連する動きを分析することによって、その要素の動きを分析し得る。これらの又は他の実施形態において、立体視ビデオモジュールは、フレーム702aとフレーム702bとの間の要素の動きを求めるために、フレーム702a及び702bの各ピクセルに関連する動きを分析し得る。もしフレーム702a及び702bのさまざまな区域に位置する要素(又は、いくつかの実施形態においてはピクセル)に関連する動きが、フレーム702a及び702bによってキャプチャされた場面の中心から実質的に離れるように動くなら、立体視ビデオモジュールは、カメラ効果はズームインカメラ効果である、ということを求め得る。
立体視ビデオモジュールは、求められたズームインカメラ効果及びそれに関連する動きに基づいて、フレーム702aに関連する修正フレーム702a’及び修正フレーム702a”を生成し得る。例えば、ズームインカメラ効果は、フレーム702a及び702bのそれぞれの左側714a及び714bに含まれる要素(例えば、要素708a及び708c)が、フレーム702aからフレーム702bへ、右から左へ実質的に同じ程度動くという結果となり得る。更に、ズームインカメラ効果は、フレーム702a及び702bのそれぞれの右側716a及び716bに含まれる要素(例えば、要素708b及び708d)が、フレーム702aからフレーム702bへ、左から右へ実質的に同じ程度動くという結果となり得る。
いくつかの実施形態において、立体視ビデオモジュールは、フレーム702a及び702bのそれぞれの左側714aと714bとの間の、要素の水平方向のオフセットに基づいて、修正フレーム702a’の左側714cを生成し得る。更に、立体視ビデオモジュールは、左側714cの生成中は、左側714aと714bとの間の、要素のいかなる垂直方向のオフセットをも無視し得る。例えば、要素708a及び708cは、修正フレーム702a’の左側714cにおいて、フレーム702bの左側714bにおけるのと実質的に同一の水平方向の位置を有し得る。しかし、要素708a及び708cは、修正フレーム702a’の左側714cにおいて、フレーム702aの左側714aにおけるのと実質的に同一の垂直方向の位置を有し得る。
更に、立体視ビデオモジュールは、右側716cが右側716aに実質的に類似し得るように、フレーム702aの右側716aに含まれる要素の水平方向及び垂直方向の両方の位置に基づいて、修正フレーム702a’の右側716cを生成し得る。例えば、要素708b及び708dは、修正フレーム702a’の右側716cにおいて、フレーム702aの右側716aにおけるのと実質的に同一の水平方向及び垂直方向の位置を有し得る。
立体視ビデオモジュールは、フレーム702a及び702bのそれぞれの右側716aと716bとの間の、要素の水平方向のオフセットに基づいて、修正フレーム702a”の右側716dを生成し得る。更に、立体視ビデオモジュールは、右側716dの生成中は、右側716aと716bとの間の、要素のいかなる垂直方向のオフセットをも無視し得る。例えば、要素708b及び708dは、修正フレーム702a”の右側716dにおいて、フレーム702bの右側716bにおけるのと実質的に同一の水平方向の位置を有し得る。しかし、要素708b及び708dは、修正フレーム702a”の右側716dにおいて、フレーム702aの右側716aにおけるのと実質的に同一の垂直方向の位置を有し得る。
更に、立体視ビデオモジュールは、左側714dが左側714aに実質的に類似し得るように、フレーム702aの左側714aに含まれる要素の水平方向及び垂直方向の両方の位置に基づいて、修正フレーム702a”の左側714dを生成し得る。例えば、要素708a及び708cは、修正フレーム702a”の左側714dにおいて、フレーム702aの左側714aにおけるのと実質的に同一の水平方向及び垂直方向の位置を有し得る。
図7に図示されているように、上述のズームイン効果のための修正フレーム702a’及び702a”の構成は、要素708a,708b,708c及び708dが、修正フレーム702a’において修正フレーム702a”に対して左に水平方向にオフセットするという結果となり得る。更に、要素708a,708b,708c及び708dは、修正フレーム702a’において修正フレーム702a”に対して垂直方向のオフセットをほとんど又は全く有し得ない。
立体視ビデオ703の左目ビューフレーム710及び右目ビューフレーム712は、平面視ビデオ701のビューフレーム702aに関連し得るのであるが、ズームインカメラ効果並びに修正ビューフレーム702a’及び702a”に基づいて生成され得る。例えば、ズームインカメラ効果のため、修正フレーム702a”は左目ビューフレーム710として指定され得、修正フレーム702a’は右目ビューフレーム712として指定され得る。よって、立体視ビデオ703の左目ビューフレーム710及び右目ビューフレーム712は、ズームインカメラ効果並びに修正フレーム702a’及び702a”に少なくとも部分的に基づいて生成され得る。修正フレーム702a’及び702a”は、フレーム702aと702bとの間の要素708a,708b,708c及び708dの動きに関連し得る。
明示的に説明されたもの以外の修正、追加、又は省略が、立体視ビデオ703の生成に対して行われ得る。例えば、平面視ビデオ701の他のフレーム702に関連する左目及び右目ビューフレーム(例えば、フレーム702bに関連する左目及び右目ビューフレーム)は、同様に生成され得る。更に、いくつかの実施形態において、左目及び右目ビューフレームは、それぞれのシーンの最後、又は最後に近いフレームであり得るフレーム702に対して、フレーム702に関連する修正フレームがフレーム702及び図3に関して上述されたようなやり方で生成される対応する推測フレームに基づいて生成され得るように、生成され得る。
図1に戻り、立体視ビデオモジュール104は、よって、図4−7に関して上述されたようなパン又はズーム効果に基づいて、立体視ビデオ103用の左目及び右目ビューフレームを生成するように構成され得る。しかし、いくつかの例において、カメラ効果はパン又はズーム効果とは異なるものであり得る。例えば、カメラ効果は、回転カメラ効果又は静止カメラ効果であり得る。そのような場合、立体視ビデオモジュール104は、カメラ効果がパン又はズーム効果ではないということを求め得、このことに従って左目及び右目ビューフレームを生成し得る。これらの実施形態のいくつかにおいて、立体視ビデオモジュール104は、カメラ効果がパン又はズーム効果ではないということを求めたことに基づいて、かつ、平面視ビデオ101のフレームに関連する前景及び/又は背景の動きに基づいて、左目ビューフレーム及び右目ビューフレームを生成し得る。
したがって、いくつかの実施形態において、立体視ビデオモジュール104は、立体視ビデオモジュールが前景及び/又は背景に関連する動きを分析し得るように、平面視ビデオ101に関連する前景及び背景のうちの少なくとも1つを求めるように構成され得る。これらの実施形態のいくつかにおいて、立体視ビデオモジュール104は、平面視ビデオ101のフレームに基づいて、前景及び/又は背景を求めるために、平面視ビデオ101のフレームに関連する、動きが最も速い要素、動きが遅い要素、及び/又は支配的な要素を求めるように構成され得る。
図8は、本開示のいくつかの実施形態による、平面視ビデオ801の、例としてのフレーム802a及び802bを示し、フレーム802a及び802bは動きが最も速い要素820、動きが遅い要素822、及び支配的な要素824を含む。平面視ビデオ801は、図1の平面視ビデオ101に実質的に類似し得る。図示される実施形態において、フレーム802a及び802bは、平面視ビデオ801の同一のシーンに関連し得、フレーム802bはフレーム802aの後続フレームであり得る。図1の立体視ビデオモジュール104のような立体視ビデオモジュールは、動きが最も速い要素820、動きが遅い要素822、及び/又は支配的な要素824を特定するように構成され得る。
立体視ビデオモジュールは、動きが最も速い要素820、動きが遅い要素822、及び/又は支配的な要素824を求めるためにフレーム802a及び802bを分析し得る。例えば、立体視ビデオモジュールは、動きが最も速い要素820及び動きが遅い要素822を特定するために、フレーム802aに対するフレーム802bにおける要素の変位を分析し得る。動きが速い要素は、フレーム802aからフレーム802bへ、動きが遅い要素より長い距離を動き得る。よって、立体視ビデオモジュールは、フレーム802aからフレーム802bへ、要素の変位を分析し得、変位の量が最大の要素は、動きが最も速い要素であると求められ得る。
図示される実施形態において、動きが最も速い要素820は、立体視ビデオモジュールが、動きが最も速い要素820をフレーム802aからフレーム802bへの動きが最も速い要素として特定し得るように、フレーム802aからフレーム802bへの最大の変位を有し得る。更に、図8に示されているように、動きが遅い要素822も、フレーム802aとフレーム802bとの間で動き得るが、動きが最も速い要素820より程度が小さい。したがって、立体視ビデオモジュールは、動きが遅い要素822を、動きが最も速い要素820より動きが遅い要素として特定し得る。
更に、立体視ビデオモジュールは、支配的な要素824がフレーム802a及び802b内で支配的な要素であることを求めるように構成され得る。いくつかの実施形態において、立体視ビデオモジュールは、特定の要素に関連するピクセルの数が求められ得るように、フレーム802a及び802bに関連するピクセルの分析に基づいて、フレーム802a及び802b内の要素を特定し得る。したがって、いくつかの実施形態において、立体視ビデオモジュールは、支配的な要素824がフレーム802a及び802bに含まれる他の要素より実質的により多数のピクセルに関連しているということに基づいて、支配的な要素824を特定するように構成され得る。よって、フレーム802a及び802bを分析することによって、立体視ビデオモジュールは、動きが最も速い要素820、動きが遅い要素822、及び支配的な要素824を特定することが可能であり得る。以下で詳述されるように、これらの要素を特定することは、フレーム802a及び802bに関連する前景及び/又は背景を求める際に助けとなり得る。
図8の図示は、単に、動きが最も速い要素、動きが遅い要素、及び支配的な要素の背後の概念を導入するためにある。したがって、本開示の範囲を逸脱することなく、修正、追加、又は省略が、図8に行われ得る。いくつかの実施形態において、動きが最も速い要素820及び動きが遅い要素822のフレーム802aと802bとの間の変位の量は、動きが最も速い要素820及び動きが遅い要素822のスピードにおける差に基づいて異なり得る。例えば、いくつかの例において、動きが最も速い要素820及び動きが遅い要素822のフレーム802aと802bとの間の変位の量が実質的に同一であるように、動きが最も速い要素820及び動きが遅い要素822は実質的に同一のスピードで動き得る。更に、いくつかの実施形態において、支配的な要素824はフレーム802aと802bとの間で動き得るが、他の実施形態において、支配的な要素824は動き得ない。更に、いくつかの例において、フレーム802a及び802bは支配的な要素を含み得ない。また、動きが最も速い要素820、動きが遅い要素822、及び/又は支配的な要素824の動きの方向は、異なり得る。
上述のように、シーンの前景及び/又は背景は、そのシーンに関連する動きが最も速い要素、動きが遅い要素、及び/又は支配的な要素に基づいて求められ得る。図9は、本開示のいくつかの実施形態による、シーンに関連する、動きが最も速い要素、動きが遅い要素、及び支配的な要素のうちの少なくとも1つに基づいて、そのシーンの前景及び/又は背景を求める例としての方法900のフローチャートである。方法900は、いくつかの実施形態において、図1の立体視ビデオモジュール104のような、立体視ビデオモジュールによって実現され得る。例えば、立体視ビデオモジュール104は、方法900の1つ以上のブロックによって表されているような、前景及び/又は背景を求めるための動作を実行するためのコンピュータ命令を実行するように構成され得る。分離したブロックとして図示されているが、所望の実装に応じて、さまざまなブロックが、更なるブロックに分離され、より少ない数のブロックに結合され、又は削除され得る。
第1フレームと第2フレームとの間の要素及び/又はピクセルの動きが求められ得るブロック902において、方法900は開始し得る。ブロック904において、全ての要素及び/又はピクセルが実質的に同じ向きに動いているかどうかが求められ得る。もし全ての要素及び/又はピクセルが実質的に同じ向きに動いていれば、方法900はブロック906に進み得る。もし全ての要素及び/又はピクセルが実質的に同じ向きに動いていなければ、方法900はブロック914に進み得る。
ブロック906において、第1フレームと第2フレームとに関連する動きが最も速い要素と動きが遅い要素とが求められ得る。図8のフレーム802aと802bとの間の動きが最も速い要素820及び動きが遅い要素822に関して上述されたように、いくつかの実施形態において、動きが最も速い要素及び動きが遅い要素は、第1フレームに対する第2フレームにおける要素の変位に基づいて求められ得る。
ブロック908において、動きが最も速い要素と動きが遅い要素との間に大きな速度差があるかどうかが求められ得る。もし大きな速度差があるなら、方法900はブロック910に進み得る。もし大きな速度差がないなら、方法900はブロック912に進み得る。いくつかの実施形態において、速度差は、第1フレームから第2フレームへの、動きが最も速い要素と動きが遅い要素とのオフセットの差を測定することによって求められ得る。更に、いくつかの実施形態において、速度差(例えばオフセットにおける差)は閾値と比較され得、もし速度差が閾値より大きいなら、方法900はブロック910に進み得るし、もし速度差が閾値より小さいなら、方法900はブロック912に進み得る。いくつかの例において、閾値は映画のタイプによって変動し得る。例えば、閾値は、アクション映画に対してはドラマより高い値であり得る。
ブロック910において、動きが最も速い要素と動きが遅い要素との間の速度差が実質的に十分に大きい(例えば閾値より大きい)ので、動きが最も速い要素が前景にあると見なされ得るように、前景が、動きが最も速い要素と関連付けられ得る。ブロック912において、動きが最も速い要素と動きが遅い要素との間の速度差が実質的に十分に大きくない(例えば閾値より小さい)ので、背景が第1フレーム及び第2フレームと関連するシーン全体と関連付けられ得る。したがって、ブロック912において、第1フレーム及び第2フレームと関連するシーン全体は、背景にあると見なされ得る。
ブロック904に戻り、上述のように、もし全ての要素及び/又はピクセルの動きが同じでなければ、方法900はブロック914に進み得る。ブロック914において、支配的な要素が第1及び第2フレームに関連するシーンに存在するかどうかが求められ得る。いくつかの実施形態において、支配的な要素が存在するか否かを求めることは、図8の支配的要素824に関して上述されたように、各要素に関連するピクセルの数に基づいて求められ得る。もし支配的要素が存在するなら、方法900はブロック916に進み得る。もし支配的要素が存在しないなら、方法900はブロック922に進み得る。
ブロック916において、ブロック914で求められた支配的要素が第1及び第2フレームに関連するシーンの実質的に中央にあるか否かが求められ得る。もし支配的要素が実質的に中央にあるなら、方法900はブロック918に進み得る。もし支配的要素が実質的に中央にないなら、方法900はブロック920に進み得る。
ブロック918において、支配的要素がシーンの実質的に中央にあるので、支配的要素が前景と見なされ得るように、前景が支配的要素と関連付けられ得る。ブロック920において、支配的要素がシーンの実質的に中央にないので、支配的要素が背景と見なされ得るように、背景が支配的要素と関連付けられ得る。
ブロック914に戻り、もし支配的要素が存在しないということが明らかになると、上述のように、方法900はブロック922に進み得る。ブロック922において、ブロック906で行われたのと同様に、第1フレームと第2フレームとに関連する動きが最も速い要素と動きが遅い要素とが求められ得る。ブロック924において、ブロック908で行われたのと同様に、動きが最も速い要素と動きが遅い要素との間に大きな速度差があるかどうかが求められ得る。もし大きな速度差があるなら、方法900はブロック926に進み得る。もし大きな速度差がないなら、方法900はブロック928に進み得る。
ブロック926において、動きが最も速い要素と動きが遅い要素との間の速度差が実質的に十分に大きいので、動きが最も速い要素が前景にあると見なされ得るように、前景が、動きが最も速い要素と関連付けられ得る。ブロック928において、動きが最も速い要素と動きが遅い要素との間の速度差が実質的に十分に大きくないので、背景又は前景が第1フレーム及び第2フレームと関連するシーン全体と関連付けられ得る。したがって、ブロック928において、第1フレーム及び第2フレームと関連するシーン全体は、背景又は前景にあると見なされ得る。
したがって、方法900は、シーンの背景及び/又は前景を求めるために用いられ得る。当業者には、ここに開示されたさまざまな処理及び方法に関して、その処理及び方法において行われる機能は異なる順序で実行され得る、ということがわかるであろう。更に、概説されたステップ及び動作は、例として提供されているのみであって、ステップ及び動作のいくつかは、開示された実施形態の本質を損ねることなく、オプションであり、より少ないステップ及び動作に結合され、又は、更なるステップ及び動作に拡張され得る。
図1に戻り、上述のように、カメラ効果がパン又はズーム効果ではないと立体視ビデオモジュール104が判定し得る実施形態においては、立体視ビデオモジュール104は、平面視ビデオ101のフレームに関連する前景及び/又は背景の動きに基づいて、左目ビューフレーム及び右目ビューフレームを生成し得る。
図10は、ここで説明されるいくつかの実施形態による、平面視ビデオ1001に関連する前景及び/又は背景の動きに基づく、平面視ビデオ1001からの立体視ビデオ1003の左目ビューフレーム1010及び右目ビューフレーム1012の生成のための、例としてのブロック図1000を示す。左目ビューフレーム1010及び右目ビューフレーム1012は、図1の立体視ビデオモジュール104のような立体視ビデオモジュールによって生成され得る。立体視ビデオ1003の左目ビューフレーム1010及び右目ビューフレーム1012は、平面視ビデオ1001のフレーム1002aに対応し得、フレーム1002a及びその関連する修正フレーム1002a’に基づいて生成され得る。図示される実施形態において、修正フレーム1002a’は、図2に関して上述されたようなやり方でフレーム1002aと1002bとの間の動きに基づいて生成され得るが、他の実施形態においては、修正フレーム1002a’は、図3に関して上述されたようなやり方で推測フレームを用いて生成され得る。
図示される実施形態において、立体視ビデオモジュールは、フレーム1002a及び1002bに関連するカメラ効果はパン又はズーム効果ではないということを求めたことに基づいて、かつ、フレーム1002a及び1002bに関連する前景及び背景の相対的な動きに基づいて(したがって修正フレーム1002a’にも基づいて)、左目ビューフレーム1010及び右目ビューフレーム1012を生成することもし得る。いくつかの実施形態において、立体視ビデオモジュールは、図9に関して上述された方法900を用いて背景及び前景を求め得る。他の実施形態において、背景及び前景は、他のいかなる適切な方法によっても求められ得る。
例えば、いくつかの例において、フレーム1002aと1002bとの間において前景が景より速く動き得、立体視ビデオモジュールはそのようなことを求め得る。そのような場合、もし前景が右に動いているなら、背景がどの方向に動き得るかとは関係なく、立体視ビデオモジュールは、フレーム1002aを左目ビューフレーム1010として指定し得、修正フレーム1002a’を右目ビューフレーム1012として指定し得る。更に、そのような場合、もし前景が左に動いているなら、背景がどの方向に動き得るかとは関係なく、立体視ビデオモジュールは、修正フレーム1002a’を左目ビューフレーム1010として指定し得、フレーム1002aを右目ビューフレーム1012として指定し得る。
他の場合において、フレーム1002aと1002bとの間において背景が前景より速く動き得、立体視ビデオモジュールはそのようなことを求め得る。そのような場合、もし背景が左に動いているなら、前景がどの方向に動き得るかとは関係なく、立体視ビデオモジュールは、フレーム1002aを左目ビューフレーム1010として指定し得、修正フレーム1002a’を右目ビューフレーム1012として指定し得る。更に、そのような場合、もし背景が右に動いているなら、前景がどの方向に動き得るかとは関係なく、立体視ビデオモジュールは、修正フレーム1002a’を左目ビューフレーム1010として指定し得、フレーム1002aを右目ビューフレーム1012として指定し得る。
したがって、立体視ビデオモジュールは、フレーム1002a及び1002bに関連するカメラ効果がパン又はズーム効果ではないということを求めたことに従って、フレーム1002a及び1002bに関連する背景及び前景の相対的な動きに基づいて(したがって、修正フレーム1002a’にも基づいて)、左目ビューフレーム1010及び右目ビューフレーム1012を生成するように構成され得る。
本開示の範囲を逸脱することなく、修正、追加、又は省略が、図10に行われ得る。例えば、上述のように、図示される実施形態において、フレーム1002bはフレーム1002aに後続し得、修正フレーム1002a’はフレーム1002aと1002bとの間の動きに基づいて生成され得る。しかし、修正フレームが特定のシーンの最後、又は最後に近いフレームのために生成されているようないくつかの場合において、そのような場合の修正フレームは、図3に関して上述されたような推測フレームに基づいて生成され得る。更に、いくつかの実施形態においては、前景及び背景は図9の方法900に従って検出され、他の実施形態においては、前景及び背景は他の受け入れ可能なやり方で検出され得る。
ここで説明されるいくつかの実施形態によると、立体視ビデオモジュール(例えば、図1の立体視ビデオモジュール104)が、平面視ビデオのフレーム間の動き及び平面視ビデオに関連する求められたカメラ効果に基づいて、立体視ビデオ用の左目及び右目ビューフレームを生成するように構成され得る、ということを、図1−10の上述の説明は示す。図11は、本開示のいくつかの実施形態による、カメラ効果に基づいて平面視ビデオを立体視ビデオに変換する、例としての方法1100のフローチャートである。方法1100は、いくつかの実施形態において、図1の立体視ビデオモジュール104のような立体視ビデオモジュールによって実行され得る。例えば、立体視ビデオモジュール104は、方法1100の1つ以上のブロックによって表されているように、平面視ビデオを立体視ビデオに変換するための動作を行うためのコンピュータ命令を実行するように構成され得る。分離したブロックとして図示されているが、さまざまなブロックが、所望の実装に応じて、更なるブロックに分割、より少ないブロックに結合、又は削除され得る。
方法1100が開始し得るが、ブロック1102において、平面視ビデオの第1フレームとその平面視ビデオの第2フレームとの間の動きが求められ得る。ブロック1104において、その動きに基づいて修正第1フレームが生成され得る。いくつかの実施形態において、修正第1フレームは、図2に関して与えられた説明に基づいて生成され得る。他の実施形態において、修正第1フレームは、図3に関して説明されたような推測フレームに基づいて生成され得る。
ブロック1106において、カメラ効果が、動きに基づいて分析され、求められ得る。例えば、カメラ効果は、パン効果、ズーム効果、又はいずれでもないとして求められ得る。ブロック1108において、立体視ビデオの左目ビューフレームが、カメラ効果分析並びに第1フレーム及び修正第1フレームのうちの少なくとも1つに基づいて求められ得る。ブロック1110において、立体視ビデオの右目ビューフレームが、カメラ効果分析並びに第1フレーム及び修正第1フレームのうちの少なくとも1つに基づいて求められ得る。ズーム効果の場合、いくつかの実施形態において、第1フレーム及び第2フレームに基づいて第2の修正第1フレームも生成され得、第1の修正第1フレーム及び第2の修正第1フレームに基づいて左目及び右目ビューフレームが生成され得る。いくつかの実施形態において、図4−10において与えられた説明に従って、左目及び右目ビューフレームが生成され得る。
よって、方法1100は、平面視ビデオを立体視ビデオに変換するために使用され得る。当業者は、ここに開示されるこの及び他のプロセス及び方法のために、プロセス及び方法において行われる機能は異なる順序で実行され得るということを理解するであろう。更に、概説されたステップ及び動作は、例としてのみ提供されており、ステップ及び動作のいくつかは、開示された実施形態の本質を損なうことなく、オプションであり得、より少ないステップ及び動作に結合され得、又は更なるステップ及び動作に拡張され得る。
例えば、いくつかの実施形態において、方法1100は、図9及び10に関して上述されたような、今度は立体視ビデオを生成するために使用され得る背景及び/又は前景を求めることに関連するステップを含み得る。他の実施形態において、前景及び背景は、他のやり方で求められ得る、又は入力によって指定され得る。
図1に戻り、上述のように、立体視ビデオモジュール104は、左目及び右目ビューフレームに含まれる要素の間のオフセットを調節することによって、立体視ビデオ103に関連する深度(depth)の量を調節するようにも構成され得る。上述のように、いくつかの実施形態において、立体視ビデオモジュール104が、観察者によって知覚される、どの要素が場面の前景又は背景内にあり得るのかという知覚を修正し得るように、立体視ビデオモジュール104は、立体視ビデオ103の焦点(focus point)を調節するようにも構成され得る。深度の調節及び焦点の調節は、図12Aから14に関して以下で説明される。
図12Aは、いくつかの実施形態による、左目1202及び右目1204によって知覚され得る、例としての場面1200を示す。場面1200は、近い要素1206、中間要素1208、及び遠い要素1210を含み得る。図示される例において、左目1202及び右目1204は、中間要素1208が左目1202及び右目1204の焦点にあり得るように、中間要素1208に焦点が合わせられ得る。よって、近い要素1206は、左目1202及び右目1204によって知覚される前景内にあり得る。更に、左目1202及び右目1204が中間要素1208に焦点が合わせられているので、遠い要素1210は、左目1202及び右目1204によって知覚される背景内にあり得る。
図12Bは、ここに開示されるいくつかの実施形態による、場面1200に関連する立体視ビデオの左目ビューフレーム及び右目ビューフレームにおいて、要素1206,1208及び1210の間に見られ得る、例としてのオフセットを示すグリッド1201を図示する。上述のように、要素1206,1208及び1210の間のオフセットは、場面1200について左目1202及び右目1204の異なる視点を模倣し得る。
図示される実施形態において、左近要素1206aは、図12Aの左目1202の視点からの図12Aの近い要素1206を表し得、右近要素1206bは、図12Aの右目1204の視点からの図12Aの近い要素1206を表し得る。よって、グリッド1201における右近要素1206bについての左近要素1206aの位置の差は、関連する立体視ビデオの、右目ビューフレームについての左目ビューフレームにおける近い要素1206のオフセットを表し得る。
図示される実施形態において、左近要素1206aは右にあり得る。なぜなら、図12Aに示されているように、近い要素1206が左目1202に関連する視線1212の右にあり得るからである。更に、右近要素1206bは左にあり得る。なぜなら、近い要素1206が右目1204に関連する視線1214の左にあり得るからである。この現象は、しばしば「ネガティブパララックス」と呼ばれ、2つの目の焦点の前にある物体について発生し、図示される実施形態において焦点は中間要素1208に設定され得る。
グリッド1201の中間要素1208a/bは、図12Aの左目1202及び右目1204の両方の視点からの図12Aの中間要素1208を表し得る。図12Aの図示される実施形態において、左目1202と右目1204との視点の間にオフセットがほとんど又は全くあり得ないように、中間要素1208は左目1202及び右目1204の焦点にあり得る。よって、中間要素1208は、関連する立体視ビデオの右目ビューフレーム及び左目ビューフレームにおいて実質的に同じ位置にあり得る。図12Bの中間要素1208a/bは、したがって、左目1202によって知覚される左中間要素1208aと右目1204によって知覚される右中間要素1208bとのオーバーラップを示す。
更に、左遠要素1210a及び右遠要素1210bは、それぞれ図12Aの左目1202及び右目1204の視点からの、図12Aの遠い要素1210を表し得る。よって、グリッド1201における右遠要素1210bについての左遠要素1210aの位置の差は、関連する立体視ビデオの、右目ビューフレームについての左目ビューフレームにおける遠い要素1210のオフセットを表し得る。
図示される実施形態において、左遠要素1210aは左にあり得る。なぜなら、図12Aに示されているように、遠い要素1210が左目1202に関連する視線1212の左にあり得るからである。更に、右遠要素1210bは右にあり得る。なぜなら、遠い要素1210が右目1204に関連する視線1214の右にあり得るからである。この現象は、しばしば「ポジティブパララックス」と呼ばれ、2つの目の焦点の背後にある物体について発生し、図示される実施形態において焦点は中間要素1208に設定され得る。
立体視ビデオの深度の量は、左目ビューフレーム及びその関連する右目ビューフレームの対応する要素間のオフセットを調節することによって、調節され得る。例えば、図12Bに関連する立体視ビデオに関連する深度の量は、左近要素1206aと右近要素1206bとの間のオフセットを調節することによって、左中間要素1208aと右中間要素1208bとの間のオフセットを調節することによって、及び/又は、左遠要素1210aと右遠要素1210bとの間のオフセットを調節することによって、調節され得る。本開示のいくつかの実施形態において、深度は、要素間のオフセットに一律の乗算係数を適用することによって、調節され得る。
図12Cは、ここに開示されるいくつかの実施形態による、図12Bのオフセットに一律の乗算係数を適用した後の、図12Bの要素のオフセットを、それらのそれぞれの左目及び右目ビューフレームに関して示す、例としてのグリッド1203を図示する。一律の乗算係数は、要素間のオフセットが実質的に同じスケールによって調節されるように、左目及び右目ビューフレームにおける実質的に全ての要素に関連するオフセットに適用され得る。図示される実施形態において、一律の乗算係数は、値2を有し得、図12Cにおける要素1206,1208及び1210の間のオフセットがそれぞれ図12Bにおける対応するオフセットに対して2倍になり得るように、図12Bの要素1206,1208及び1210の間のオフセットに適用され得る。
例えば、図12Bにおいて左近要素1206aの中心と右近要素1206bの中心との間の近い要素のオフセットは、約「2」グリッドユニットであり得る。よって、近い要素のオフセットに乗算係数「2」を適用すると、図12Cに示されているように、図12Cにおける左近要素1206aの中心と右近要素1206bの中心との間の近い要素のオフセットが約「4」グリッドユニットであるという結果になり得る。
更に、左中間要素1208aと右中間要素1208bとの間の中間要素オフセットは約「0」グリッドユニットであり得る。よって、中間要素オフセットに乗算係数「2」を適用すると、「0」によって乗算された数は依然として「0」であるので、図12Cにおける左中間要素1208aと右中間要素1208bとの間の中間要素オフセットが依然として約「0」グリッドユニットであるという結果になり得る。
更に、図12Bにおいて左遠要素1210aの中心と右遠要素1210bの中心との間の遠い要素のオフセットは、約「3」グリッドユニットであり得る。よって、遠い要素のオフセットに乗算係数「3」を適用すると、図12Cに示されているように、図12Cにおける左遠要素1210aの中心と右遠要素1210bの中心との間の遠い要素のオフセットが約「6」グリッドユニットであるという結果になり得る。
図示される実施形態において、図12Bに対して図12Cにおいては、右目ビューフレームに関連する右近要素1206bは左に約「2」グリッドユニット、シフトされ得、左目ビューフレームに関連する左近要素1206aはシフトされ得ない。更に、図示される実施形態において、図12Bに対して図12Cにおいては、右目ビューフレームに関連する右遠要素1210bは右に「3」グリッドユニット、シフトされ得、左目ビューフレームに関連する左遠要素1210aはシフトされ得ない。よって、右目ビューフレームを調節することによって、左目ビューフレームも調節する必要なしに、図12Bに対して図12Cにおいて、近い要素のオフセットが「2」グリッドユニットから「4」グリッドユニットへ増加し得るし、遠い要素のオフセットが「3」グリッドユニットから「6」グリッドユニットへ増加し得る。
代替の実施形態において、図12Bに対して図12Cにおいては、右目ビューフレームにおける右近要素1206b及び右遠要素1210bをシフトする代わりに、左目ビューフレーム内の左近要素1206a及び左遠要素1210aをシフトすることによって、近い要素のオフセット及び遠い要素のオフセットが調節され得る。他の実施形態において、図12Bに対して図12Cにおいては、左近要素1206a及び右近要素1206bの両方をシフトすることによって、近い要素のオフセットは調節され得る。更に、これらの又は他の実施形態のいくつかにおいて、図12Bに対して図12Cにおいては、左遠要素1210a及び右遠要素1210bの両方をシフトすることによって、遠い要素のオフセットは調節され得る。
上述の例では特定の一律の乗算係数「2」が使用されたが、いかなる適切な乗算係数も使用され得る。例えば、観察者によって知覚される深度の量を増加させるために、「1」より大きな適切な乗算係数が使用され得る。更に、観察者によって知覚される深度の量を減少させるために、「1」より小さな適切な乗算係数が使用され得る。更に、一律の乗算係数が対応する要素に関連するオフセットに適用されるとして上述されたが、いくつかの実施形態において、要素はそれぞれ1つ以上のピクセルを含み得、一律の乗算係数は対応するピクセルに関連するオフセットに適用され得る。いくつかの実施形態において、一律の乗算係数は、あらゆる要素及び/又はピクセルに関連するあらゆるオフセットに適用され得る。
したがって、本開示のいくつかの実施形態によると、立体視ビデオモジュール(例えば立体視ビデオモジュール104)は、立体視ビデオの左目ビューフレームと対応する右目ビューフレームとに関連する、対応する要素及び/又はピクセル間のオフセットに一律の乗算係数を適用することによって、立体視ビデオに関連する深度を調節するように構成され得る。対照的に、従来の深度調節手順は、深度を調節するためにオフセットの一律のスケーリングを適用し得ない。
立体視ビデオの焦点も、左目ビューフレームと関連する右目ビューフレームとの対応する要素間のオフセットを調節することによって、調節され得る。例えば、図12Bに関連する立体視ビデオの焦点は、左近要素1206aと右近要素1206bとの間のオフセットを調節することによって、左遠要素1210aと右遠要素1210bとの間のオフセットを調節することによって、及び、左中間要素1208aと右中間要素1208bとの間のオフセットを調節することによって、調節され得る。いくつかの実施形態において、焦点は、要素間のオフセットに一律の加算係数を適用することによって、調節され得る。一律の加算係数は、左目及び右目ビューフレーム内の実質的に全ての要素に関連するオフセットに適用され得る。更に、いくつかの実施形態において、一律の加算係数は左目及び右目ビューフレームの対応するピクセルに関連するオフセットに適用され得る。
図12Dは、ここに開示されるいくつかの実施形態による、図12Bのオフセットに一律の加算係数を適用した後の、図12Bの要素のオフセットを、それらのそれぞれの左目及び右目ビューフレームに関して示す、例としてのグリッド1205を図示する。図示される実施形態において、一律の加算係数は、右目ビューフレームに関連する要素が左目ビューフレームに関連する要素に対して左にシフトされるように、適用され得る。そのように右目ビューフレーム要素が左目ビューフレーム要素に対して左にシフトすることは、より多くの要素が前景内にあるように知覚されるように、焦点を後ろに動かすという結果になり得る。
他の実施形態において、一律の加算係数は、右目ビューフレームに関連する要素が左目ビューフレームに関連する要素に対して右にシフトされるように、適用され得る。そのように右目ビューフレーム要素が左目ビューフレーム要素に対して右にシフトすることは、より多くの要素が背景内にあるように知覚されるように、焦点を前に動かすという結果になり得る。
図示される実施形態において、一律の加算係数は、値「−3」を有し得、右目ビューフレーム要素がそれぞれ、それらの対応する左目ビューフレーム要素に対して左に3グリッドユニット、シフトされ得るように、図12Bの要素1206,1208及び1210の間のオフセットに適用され得る。図示される実施形態において、負の加算係数は、左目ビューフレーム要素に対して右目ビューフレーム要素の左へのシフトという結果になり得、正の加算係数は、左目ビューフレーム要素に対して右目ビューフレーム要素の右へのシフトという結果になり得る。しかし、他の実施形態において、正の加算係数は、左目ビューフレーム要素に対して右目ビューフレーム要素の左へのシフトという結果になり得、負の加算係数は、左目ビューフレーム要素に対して右目ビューフレーム要素の右へのシフトという結果になり得る。
例えば、図12Bにおいて左近要素1206aの中心と右近要素1206bの中心との間の近い要素のオフセットは、「2」グリッドユニットであり得る。よって、図12Bに図示される近い要素のオフセットに加算係数「−3」を適用すると、加算係数の適用後に、左近要素1206aの中心と右近要素1206bの中心との間の近い要素のオフセットが「5」であり得るように、右近要素1206bを左近要素1206aに対して「3」グリッドユニット左へシフトするという結果になり得る。これは図12Dに図示されている。
更に、左中間要素1208aと右中間要素1208bとの間の中間要素オフセットは約「0」グリッドユニットであり得る。よって、図12Bに図示される中間要素オフセットに加算係数「−3」を適用すると、加算係数の適用後に、左中間要素1208aの中心と右中間要素1208bの中心との間の中間要素のオフセットが「3」であり得るように、右中間要素1208bを左中間要素1208aに対して「3」グリッドユニット左へシフトするという結果になり得る。これは図12Dに図示されている。
更に、図12Bにおいて左遠要素1210aの中心と右遠要素1210bの中心との間の遠い要素のオフセットは、「3」グリッドユニットであり得る。よって、図12Bに図示される遠い要素のオフセットに加算係数「−3」を適用すると、加算係数の適用後に、左遠要素1210aの中心と右遠要素1210bの中心との間の遠い要素のオフセットが「0」グリッドユニットであり得るように、右遠要素1210bを左遠要素1210aに対して「3」グリッドユニット左へシフトするという結果になり得る。これは図12Dに図示されている。
図示されている実施形態において、所望の量のオフセット調節を行うために、図12Dにおいて図12Bに対して、右目ビューフレームに関連する右近要素1206b、右中間要素1208b及び右遠要素1210bはそれぞれ、「3」グリッドユニット左にシフトされ得、左目ビューフレームに関連する左近要素1206a、左中間要素1208a及び左遠要素1210aはシフトされ得ない。代替の実施形態において、近いオフセット、中間オフセット、遠いオフセットは、図12Dにおいて図12Bに対して、左近要素1206a、右近要素1206b、左中間要素1208a、右中間要素1208b、左遠要素1210a及び/又は右遠要素1210bのうちのいずれか1つをシフトすることによって、調節され得る。
更に、図示される実施形態は、焦点を後ろに動かすために、それはより多くの要素が前景内にあるように観察者によって知覚されるようにし得るのであるが、右目ビューフレームに関連する要素を左目ビューフレーム内のそれらの対応する要素に対して左にシフトすることを図示している。しかし、上で示されているように、他の実施形態において、焦点を前に動かすために、それはより多くの要素が背景内にあるように観察者によって知覚されるようにし得るのであるが、右目ビューフレームに関連する要素を左目ビューフレーム内のそれらの対応する要素に対して右にシフトし得る。
したがって、本開示のいくつかの実施形態によると、立体視ビデオモジュール(例えば立体視ビデオモジュール104)は、立体視ビデオの左目ビューフレームと対応する右目ビューフレームとに関連する、対応する要素及び/又はピクセル間のオフセットに一律の加算係数を適用することによって、立体視ビデオに関連する焦点を調節するように構成され得る。
当業者は、ここに開示されるこの及び他のプロセス及び方法のために、プロセス及び方法において行われる機能は異なる順序で実行され得るということを理解するであろう。更に、概説されたステップ及び動作は、例としてのみ提供されており、ステップ及び動作のいくつかは、開示された実施形態の本質を損なうことなく、オプションであり得、より少ないステップ及び動作に結合され得、又は更なるステップ及び動作に拡張され得る。
図13は、本開示のいくつかの実施形態による、立体視ビデオの深度を調節する、例としての方法1300のフローチャートである。方法1300は、いくつかの実施形態において、図1の立体視ビデオモジュール104のような立体視ビデオモジュールによって実行され得る。例えば、立体視ビデオモジュール104は、方法1300の1つ以上のブロックによって表されている、立体視ビデオの深度を調節するための動作を行うためのコンピュータ命令を実行するように構成され得る。分離したブロックとして図示されているが、さまざまなブロックが、所望の実装に応じて、更なるブロックに分割され得、より少ないブロックに結合され得、又は削除され得る。
方法1300が開始し得るが、ブロック1302において、立体視ビデオの左目ビューフレームが生成され得る。左目ビューフレームは、複数の左目ビューフレーム要素を含み得る。いくつかの実施形態において、左目ビューフレーム要素は、左目ビューフレーム要素が左目ビューフレームの全体を実質的に含み得るように、左目ビューフレームに含まれる実質的に全ての要素であり得る。更に、左目ビューフレーム要素はそれぞれ、1つ以上のピクセルを含み得る。
ブロック1304において、立体視ビデオの右目ビューフレームが生成され得る。右目ビューフレームは、左目ビューフレームに対応し得、複数の右目ビューフレーム要素を含み得る。各右目ビューフレーム要素は、左目ビューフレーム要素の1つに対応し得る。いくつかの実施形態において、右目ビューフレーム要素は、右目ビューフレーム要素が右目ビューフレームの全体を実質的に含み得るように、右目ビューフレームに含まれる実質的に全ての要素であり得る。更に、右目ビューフレーム要素はそれぞれ、1つ以上のピクセルを含み得る。
ブロック1306において、各左目ビューフレーム要素とその対応する右目ビューフレーム要素との間のオフセットが求められ得る。いくつかの実施形態において、オフセットはピクセル単位で求められ得る。ブロック1308において、立体視ビデオに関連する深度が実質的に一律のスケールにおいて調節され得るように、一律の乗算係数が各オフセットに適用され得る。
よって、方法1300は、立体視ビデオの深度を調節するために使用され得る。当業者は、ここに開示されるこの及び他のプロセス及び方法のために、プロセス及び方法において行われる機能は異なる順序で実行され得るということを理解するであろう。更に、概説されたステップ及び動作は、例としてのみ提供されており、ステップ及び動作のいくつかは、開示された実施形態の本質を損なうことなく、オプションであり得、より少ないステップ及び動作に結合され得、又は更なるステップ及び動作に拡張され得る。
例えば、いくつかの実施形態において、方法1300は左目ビューフレーム及び右目ビューフレームの生成に関連するステップを含み得る。これらの実施形態のいくつかにおいて、左目ビューフレーム及び右目ビューフレームは、図1−11に関して上述された1つ以上のやり方に従って生成され得る。
図14は、本開示のいくつかの実施形態による、立体視ビデオの焦点を調節する、例としての方法1400のフローチャートである。方法1400は、いくつかの実施形態において、図1の立体視ビデオモジュール104のような立体視ビデオモジュールによって実行され得る。例えば、立体視ビデオモジュール104は、方法1400の1つ以上のブロックによって表されている、立体視ビデオの焦点を調節するための動作を行うためのコンピュータ命令を実行するように構成され得る。分離したブロックとして図示されているが、さまざまなブロックが、所望の実装に応じて、更なるブロックに分割され得、より少ないブロックに結合され得、又は削除され得る。
方法1400が開始し得るが、ブロック1402において、立体視ビデオの左目ビューフレームが生成され得る。左目ビューフレームは、複数の左目ビューフレーム要素を含み得る。いくつかの実施形態において、左目ビューフレーム要素は、左目ビューフレーム要素が左目ビューフレームの全体を実質的に含み得るように、左目ビューフレームに含まれる実質的に全ての要素であり得る。更に、左目ビューフレーム要素はそれぞれ、1つ以上のピクセルを含み得る。
ブロック1404において、立体視ビデオの右目ビューフレームが生成され得る。右目ビューフレームは、左目ビューフレームに対応し得、複数の右目ビューフレーム要素を含み得る。各右目ビューフレーム要素は、左目ビューフレーム要素の1つに対応し得る。いくつかの実施形態において、右目ビューフレーム要素は、右目ビューフレーム要素が右目ビューフレームの全体を実質的に含み得るように、右目ビューフレームに含まれる実質的に全ての要素であり得る。更に、右目ビューフレーム要素はそれぞれ、1つ以上のピクセルを含み得る。
ブロック1406において、各左目ビューフレーム要素とその対応する右目ビューフレーム要素との間のオフセットが求められ得る。いくつかの実施形態において、オフセットはピクセル単位で求められ得る。ブロック1408において、一律の加算係数が各オフセットに適用され得る。一律の加算係数は、各右目ビューフレーム要素がその対応する左目ビューフレーム要素に対して実質的に同一の量だけ一律にシフトするように、適用され得る。よって、シフトすることは、立体視ビデオに関連する焦点を調節し得る。
よって、方法1400は、立体視ビデオの焦点を調節するために使用され得る。当業者は、ここに開示されるこの及び他のプロセス及び方法のために、プロセス及び方法において行われる機能は異なる順序で実行され得るということを理解するであろう。更に、概説されたステップ及び動作は、例としてのみ提供されており、ステップ及び動作のいくつかは、開示された実施形態の本質を損なうことなく、オプションであり得、より少ないステップ及び動作に結合され得、又は更なるステップ及び動作に拡張され得る。
例えば、いくつかの実施形態において、方法1400は左目ビューフレーム及び右目ビューフレームの生成に関連するステップを含み得る。これらの実施形態のいくつかにおいて、左目ビューフレーム及び右目ビューフレームは、図1−11に関して上述された1つ以上のやり方に従って生成され得る。
ここに説明された実施形態は、以下でより詳細に論じられるように、さまざまなコンピュータハードウェア又はソフトウェアモジュールを含めて、特定目的又は汎用目的のコンピュータの使用を含み得る。
ここで説明される実施形態は、それに格納されたコンピュータ実行可能な命令又はデータ構造を保持又は有するための、コンピュータ読み取り可能な媒体を用いて実装され得る。そのようなコンピュータ読み取り可能な媒体は、汎用目的又は特定目的のコンピュータによってアクセスされ得るいかなる利用可能な媒体であってもよい。限定ではなく例として、そのようなコンピュータ読み取り可能な媒体は、RAM、ROM、EEPROM、CD−ROM又は他の光ディスクストレージ、磁気ディスクストレージ又は他の磁気ストレージデバイス、又は、コンピュータ実行可能な命令又はデータ構造の形式の所望のプログラムコードを保持又は格納するために使用され得る、又は、汎用目的若しくは特定目的のコンピュータによってアクセスされ得るいかなる他のストレージ媒体をも含む、有体のコンピュータ読み取り可能なストレージ媒体を含み得る。上述のものの組み合わせも、コンピュータ読み取り可能な媒体の範囲に含まれ得る。
コンピュータ実行可能な命令は、処理デバイスによって実行され得、例えば、汎用目的のコンピュータ、特定目的のコンピュータ、又は特定目的の処理デバイスに、ある機能又は機能群を行わせる命令及びデータを含み得る。主題が構造上の特徴及び/又は方法論的な行為に特有の言葉で説明されているが、添付の特許請求の範囲に規定される主題は必ずしも上述の特定の特徴又は行為に限定されない、ということが理解されるべきである。むしろ、上述の特定の特徴又は行為は、特許請求の範囲の実装の例としての形として開示されている。
ここで用いられているように、「モジュール」又は「コンポーネント」という用語は、計算システム上で実行するソフトウェアオブジェクト又はルーチンを表す。ここで説明されるさまざまなコンポーネント、モジュール、エンジン、及びサービスは、計算システム上で実行するオブジェクト又はプロセスとして実装され得る(例えば分離したスレッドとして)。ここで説明されるシステム及び方法は、ソフトウェアで実装され得るが、ハードウェア又はソフトウェアとハードウェアとの組み合わせでの実装も可能であり、意図されている。この説明において、「計算する実体(computing entity)」はここでは前に定義されたようないかなる計算システム、又は計算システム上で走るいかなるモジュール又はモジュールの組み合わせでもあり得る。
全ての例及びここで説明された条件を表す言葉は、本発明及び発明者が寄与し技術を促進する概念を読者が理解する助けとなるように教育的な目的が意図されており、限定なしにそのような具体的に説明された例及び条件として解釈されるべきである。本発明の実施形態が詳細に説明されたが、さまざまな交換、置き換え、及び変更が、本発明の精神及び範囲を逸脱することなくここに行われ得る。

Claims (20)

  1. 平面視ビデオの第1フレームと前記平面視ビデオの第2フレームとの間の動きを求めること、
    前記動きに基づいてカメラ効果を分析すること、
    前記カメラ効果の分析に基づいて立体視ビデオの左目ビューフレームを生成すること、及び、
    前記カメラ効果の分析に基づいて前記立体視ビデオの右目ビューフレームを生成すること、
    を含む、立体視ビデオを生成する方法。
  2. 前記カメラ効果を分析することは、前記カメラ効果が、パン効果、ズーム効果、又はいずれでもない、のいずれであるかを求めることを含む
    請求項1の方法。
  3. 前記第1フレーム及び前記第2フレームに基づいて、前景及び背景のうちの少なくとも1つを求めること、
    前記前景及び前記背景のうちの少なくとも1つに関連する、前記第1フレームと前記第2フレームとの間の動きを求めること、及び、
    前記前景及び前記背景のうちの少なくとも1つに関連する前記動きに基づいて、前記左目ビューフレーム及び前記右目ビューフレームを生成すること、
    を更に含む請求項1の方法。
  4. 前記第1フレームと前記第2フレームとの間の動きに基づいて、前記第1フレーム及び前記第2フレームに関連するシーンの後続フレームを推測すること、及び、
    前記推測された後続フレームに基づいて、前記左目ビューフレーム及び前記右目ビューフレームのうちの少なくとも1つを生成すること、
    を更に含む請求項1の方法。
  5. 前記第1フレーム及び前記第2フレームに関連するシーンから他のシーンへの、前記平面視ビデオにおけるシーンチェンジを検出すること、及び、
    前記シーンチェンジを検出することに応じて、前記後続フレームを推測すること、
    を更に含む請求項4の方法。
  6. 前記動きに基づいて修正第1フレームを生成すること、及び、
    前記修正第1フレームに基づいて前記左目ビューフレーム及び前記右目ビューフレームのうちの少なくとも1つを生成すること、
    を更に含む請求項1の方法。
  7. 前記第1フレームと前記第2フレームとの間の前記動きによって生成される穴が埋められるように、前記第1フレーム及び前記第2フレームに基づいて前記修正第1フレームを生成すること
    を更に含む請求項6の方法。
  8. 前記カメラ効果に基づいて前記修正第1フレームを生成すること
    を更に含む請求項6の方法。
  9. 前記カメラ効果が右へのパン効果であることを求めること、
    前記右へのパン効果に基づいて前記第1フレームを前記左目ビューフレームとして指定すること、及び、
    前記右へのパン効果に基づいて前記修正第1フレームを前記右目ビューフレームとして指定すること、
    を更に含む請求項6の方法。
  10. 前記カメラ効果が左へのパン効果であることを求めること、
    前記左へのパン効果に基づいて前記第1フレームを前記右目ビューフレームとして指定すること、及び、
    前記左へのパン効果に基づいて前記修正第1フレームを前記左目ビューフレームとして指定すること、
    を更に含む請求項6の方法。
  11. システムに立体視ビデオを生成するための動作を行わせるコンピュータ実行可能な命令を含む、コンピュータ読み取り可能な記憶媒体であって、前記動作は、
    平面視ビデオの第1フレームと前記平面視ビデオの第2フレームとの間の動きを求めること、
    前記動きに基づいてカメラ効果を分析すること、
    前記カメラ効果の分析に基づいて立体視ビデオの左目ビューフレームを生成すること、及び、
    前記カメラ効果の分析に基づいて前記立体視ビデオの右目ビューフレームを生成すること、
    を含む、コンピュータ読み取り可能な記憶媒体。
  12. 前記カメラ効果を分析することは、前記カメラ効果が、パン効果、ズーム効果、又はいずれでもない、のいずれであるかを求めることを含む
    請求項11のコンピュータ読み取り可能な記憶媒体。
  13. 前記動作は、
    前記第1フレーム及び前記第2フレームに基づいて、前景及び背景のうちの少なくとも1つを求めること、
    前記前景及び前記背景のうちの少なくとも1つに関連する、前記第1フレームと前記第2フレームとの間の動きを求めること、及び、
    前記前景及び前記背景のうちの少なくとも1つに関連する前記動きに基づいて、前記左目ビューフレーム及び前記右目ビューフレームを生成すること、
    を更に含む請求項11のコンピュータ読み取り可能な記憶媒体。
  14. 前記動作は、
    前記第1フレームと前記第2フレームとの間の動きに基づいて、前記第1フレーム及び前記第2フレームに関連するシーンの後続フレームを推測すること、及び、
    前記推測された後続フレームに基づいて、前記左目ビューフレーム及び前記右目ビューフレームのうちの少なくとも1つを生成すること、
    を更に含む請求項11のコンピュータ読み取り可能な記憶媒体。
  15. 前記動作は、
    前記第1フレーム及び前記第2フレームに関連するシーンから他のシーンへの、前記平面視ビデオにおけるシーンチェンジを検出すること、及び、
    前記シーンチェンジを検出することに応じて、前記後続フレームを推測すること、
    を更に含む請求項14のコンピュータ読み取り可能な記憶媒体。
  16. 前記動作は、
    前記動きに基づいて修正第1フレームを生成すること、及び、
    前記第1修正フレームに基づいて前記左目ビューフレーム及び前記右目ビューフレームのうちの少なくとも1つを生成すること、
    を更に含む請求項11のコンピュータ読み取り可能な記憶媒体。
  17. 前記動作は、
    前記第1フレームと前記第2フレームとの間の前記動きによって生成される穴が埋められるように、前記第1フレーム及び前記第2フレームに基づいて前記修正第1フレームを生成すること
    を更に含む請求項16のコンピュータ読み取り可能な記憶媒体。
  18. 前記動作は、
    前記カメラ効果に基づいて前記修正第1フレームを生成すること
    を更に含む請求項16のコンピュータ読み取り可能な記憶媒体。
  19. 前記動作は、
    前記カメラ効果が右へのパン効果であることを求めること、
    前記右へのパン効果に基づいて前記第1フレームを前記左目ビューフレームとして指定すること、及び、
    前記右へのパン効果に基づいて前記修正第1フレームを前記右目ビューフレームとして指定すること、
    を更に含む請求項16のコンピュータ読み取り可能な記憶媒体。
  20. 前記動作は、
    前記カメラ効果が左へのパン効果であることを求めること、
    前記左へのパン効果に基づいて前記第1フレームを前記右目ビューフレームとして指定すること、及び、
    前記左へのパン効果に基づいて前記修正第1フレームを前記左目ビューフレームとして指定すること、
    を更に含む請求項16のコンピュータ読み取り可能な記憶媒体。
JP2016572713A 2014-06-10 2015-06-10 立体視ビデオ生成 Expired - Fee Related JP6685241B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/301,128 2014-06-10
US14/301,128 US9591290B2 (en) 2014-06-10 2014-06-10 Stereoscopic video generation
PCT/US2015/035165 WO2015191756A1 (en) 2014-06-10 2015-06-10 Stereoscopic video generation

Publications (2)

Publication Number Publication Date
JP2017525197A true JP2017525197A (ja) 2017-08-31
JP6685241B2 JP6685241B2 (ja) 2020-04-22

Family

ID=54770594

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016572713A Expired - Fee Related JP6685241B2 (ja) 2014-06-10 2015-06-10 立体視ビデオ生成

Country Status (6)

Country Link
US (1) US9591290B2 (ja)
EP (1) EP3155810A4 (ja)
JP (1) JP6685241B2 (ja)
KR (2) KR20190016139A (ja)
CN (1) CN106664396A (ja)
WO (1) WO2015191756A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107767412A (zh) * 2017-09-11 2018-03-06 西安中兴新软件有限责任公司 一种图像处理方法及装置
US11315274B2 (en) 2019-09-20 2022-04-26 Google Llc Depth determination for images captured with a moving camera and representing moving features

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07307961A (ja) * 1994-05-13 1995-11-21 Pioneer Electron Corp 立体表示方法及び装置
JP2000261828A (ja) * 1999-03-04 2000-09-22 Toshiba Corp 立体映像生成方法
JP2004007395A (ja) * 2002-03-27 2004-01-08 Sanyo Electric Co Ltd 立体画像処理方法および装置
JP2012253644A (ja) * 2011-06-06 2012-12-20 Sony Corp 画像処理装置および方法、並びにプログラム
JP2013545200A (ja) * 2010-11-23 2013-12-19 クゥアルコム・インコーポレイテッド グローバル動きに基づく深度の推定

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0405842A3 (en) * 1989-06-26 1993-03-03 Matsushita Electric Industrial Co., Ltd. Picture coding method
US7161614B1 (en) * 1999-11-26 2007-01-09 Sanyo Electric Co., Ltd. Device and method for converting two-dimensional video to three-dimensional video
CA2653815C (en) * 2006-06-23 2016-10-04 Imax Corporation Methods and systems for converting 2d motion pictures for stereoscopic 3d exhibition
US7935538B2 (en) 2006-12-15 2011-05-03 Kimberly-Clark Worldwide, Inc. Indicator immobilization on assay devices
RU2454025C2 (ru) * 2006-12-19 2012-06-20 Конинклейке Филипс Электроникс Н.В. Способ и система для преобразования двухмерного видео в трехмерное видео
US9288470B2 (en) * 2008-12-02 2016-03-15 Lg Electronics Inc. 3D image signal transmission method, 3D image display apparatus and signal processing method therein
JP2011135246A (ja) * 2009-12-24 2011-07-07 Sony Corp 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
US20110234160A1 (en) 2010-03-29 2011-09-29 Smith Stephen J Battery charger for charging batteries of different sizes
US9261710B2 (en) 2010-06-01 2016-02-16 Intel Corporation 2D quality enhancer in polarized 3D systems for 2D-3D co-existence
CA2855190C (en) * 2011-10-05 2017-02-07 Bitanimate, Inc. Resolution enhanced 3d video rendering systems and methods

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07307961A (ja) * 1994-05-13 1995-11-21 Pioneer Electron Corp 立体表示方法及び装置
JP2000261828A (ja) * 1999-03-04 2000-09-22 Toshiba Corp 立体映像生成方法
JP2004007395A (ja) * 2002-03-27 2004-01-08 Sanyo Electric Co Ltd 立体画像処理方法および装置
JP2013545200A (ja) * 2010-11-23 2013-12-19 クゥアルコム・インコーポレイテッド グローバル動きに基づく深度の推定
JP2012253644A (ja) * 2011-06-06 2012-12-20 Sony Corp 画像処理装置および方法、並びにプログラム

Also Published As

Publication number Publication date
EP3155810A4 (en) 2018-05-23
WO2015191756A1 (en) 2015-12-17
CN106664396A (zh) 2017-05-10
JP6685241B2 (ja) 2020-04-22
KR20190016139A (ko) 2019-02-15
US20150358606A1 (en) 2015-12-10
EP3155810A1 (en) 2017-04-19
US9591290B2 (en) 2017-03-07
KR20170033293A (ko) 2017-03-24

Similar Documents

Publication Publication Date Title
US20110228051A1 (en) Stereoscopic Viewing Comfort Through Gaze Estimation
JP6734620B2 (ja) 映像処理方法及び映像処理装置
WO2011108277A1 (ja) 立体撮像装置および立体撮像方法
US9154765B2 (en) Image processing device and method, and stereoscopic image display device
WO2011078065A1 (ja) 画像処理装置および方法、並びにプログラム
Schmeing et al. Depth image based rendering: A faithful approach for the disocclusion problem
WO2011108283A1 (ja) 立体撮像装置および立体撮像方法
JPWO2011108276A1 (ja) 立体撮像装置、および立体撮像方法
US10554954B2 (en) Stereoscopic focus point adjustment
JP6685241B2 (ja) 立体視ビデオ生成
JP6490107B2 (ja) 立体視ビデオズーミング
JP6608852B2 (ja) 立体視深度調節及び焦点調節
US9693042B2 (en) Foreground and background detection in a video
US9674500B2 (en) Stereoscopic depth adjustment
US9661309B2 (en) Stereoscopic video zooming
WO2013015217A1 (ja) 立体画像処理装置および立体画像処理方法
CA2982015A1 (en) Method and apparatus for depth enhanced imaging

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170213

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20170113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180328

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180508

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190507

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200304

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200310

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200331

R150 Certificate of patent or registration of utility model

Ref document number: 6685241

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees