JP2011223583A - 立体画像を処理するための方法および対応する装置 - Google Patents

立体画像を処理するための方法および対応する装置 Download PDF

Info

Publication number
JP2011223583A
JP2011223583A JP2011087421A JP2011087421A JP2011223583A JP 2011223583 A JP2011223583 A JP 2011223583A JP 2011087421 A JP2011087421 A JP 2011087421A JP 2011087421 A JP2011087421 A JP 2011087421A JP 2011223583 A JP2011223583 A JP 2011223583A
Authority
JP
Japan
Prior art keywords
image
images
interpolated
source
temporal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011087421A
Other languages
English (en)
Other versions
JP2011223583A5 (ja
Inventor
Kerbeck Jonathan
ケルヴェック ジョナサン
Guermoud Hassan
グエルモード ハッサン
Jolie Emmanuel
ジョリー エマニュエル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2011223583A publication Critical patent/JP2011223583A/ja
Publication of JP2011223583A5 publication Critical patent/JP2011223583A5/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/144Processing image signals for flicker reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Television Systems (AREA)

Abstract

【課題】本発明は、ビデオシーケンスの少なくとも1つの画像のビデオを処理する方法に関する。
【解決手段】ビデオシーケンスは、複数の画像のペアを含む。各画像のペアは、第1画像および第2画像を含む。第1画像および第2画像は、立体画像を形成することを目的とする。表示不良を減らすために、方法は、動き補償された時間的な補間によって、少なくとも2つの第2画像から、少なくとも1つの第3画像を生成するステップを含む。
【選択図】図2

Description

本発明は、画像またはビデオ処理の分野に関し、より詳細には、三次元(3D)画像および/またはビデオの処理に関する。本発明は、動き補償による画像の補間の分野にも関する。
先行技術によると、レリーフの知覚を復元するためにビデオ処理で使用される方法の1つは、立体視である。この方法によると、2つの異なるビデオカメラまたは2つの異なるスチールカメラによって、互いに対して横方向にオフセットされた2つの異なる視点から、同じ場面の2つの視界が記録される。2つの異なるカメラによる同じ場面のキャプチャーは、特定の実施形態により図1に示される。2つのカメラ(左カメラG11、および右カメラD12と呼ぶ)によって撮影される場面は、2つの円柱から構成される。これらの第1の円柱100は、静止している。これらの第2の円柱110は、左から右へ行く水平な動きに従って移動して、時刻T1、T2、およびT3に、3つの連続する空間的位置をとる。左カメラG11、および右カメラD12は、所定の距離(例えば、6.5センチメートル−個人の眼が離れている平均距離に対応する距離)に従って、互いに離間されて、2つの異なる視点(それぞれ111および121)より、同じ場面を記録する。カメラG11およびD12の各々は、3つの画像で構成されるビデオシーケンスを撮影する。3つの画像の各々は、それぞれ時刻T1、T2、およびT3にキャプチャーされる。このビデオシーケンスの取得は、図1のタイミングチャート13にあらわされている。カメラG11は、3つの連続する画像14、15、および16を、それぞれ時刻T1、T2、およびT3に記録する。カメラD12は、3つの連続する画像17、18、および19を、それぞれ画像14、15、および16と同じ時刻であるT1、T2、およびT3に記録する。本説明の残りでは、画像14、15、および16を左画像と呼び、画像17、18、および19を右画像と呼ぶこととする。左画像14および右画像17は、同期された方法でキャプチャーされ、時刻T1において円柱100および110を表わすものである。左画像15および右画像18は、同期された方法でキャプチャーされ、時刻T2において円柱100および110を表わすものである。左画像16および右画像19もまた、同期された方法でキャプチャーされ、時刻T3において円柱100および110を表わすものである。左画像14および右画像17は、空間的にオフセットされたカメラ11および12によってキャプチャーされる。円柱100gおよび110gによって左画像14において表わされる円柱100および110の位置は、円柱100dおよび110dによって右画像17において表わされる同じ円柱100および110の位置と同一ではない。2つの画像14および17は、同一の寸法である(例えば、1920×1080画素のHD(High Definition)フォーマット)。一方の円柱100gおよび110gの位置と、他方の円柱100dおよび110dの位置との間の違いは、時刻T2に撮られる画像15と18のペア、時刻T3に撮られる画像16と19のペアにもあらわれる。
画像14〜19は、二次元でキャプチャーされたとしても、左画像と右画像の各ペア(すなわち、時刻T1における左画像14と右画像17、時刻T2における左画像15と右画像18、および、時刻T3における左画像16と右画像19)は、時刻T1、T2、およびT3における場面10の三次元レンダリングを復元する、立体画像を形成することを目的としている。立体画像の復元を可能にする、画像のペア14/17、15/18、および16/19を表示するいくつかの技術がある。これらの技術の1つは、例えば、以下の時間的シーケンス:14−17−15−18−16−19により、左画像の次に右画像を交互に表示することからなる。このような、時間によって左画像と右画像を交互に表示することは、時間的なシーケンシャル表示として知られている。シーケンスの画像の3Dでのレンダリングを観ることを欲するユーザは、特定の眼鏡をかけなければならない。特定の眼鏡は、例えばアクティブ眼鏡であり、左目と右目の視界の遮りは、それぞれ、例えばLCDまたはプラズマのタイプの表示装置上の右画像と左画像の表示と同期される。
キャプチャーされた画像の領域が動きを示すとき、時間的なシーケンシャル表示(すなわち、連続する左画像と右画像の表示)は、表示不良につながる。これは、時間において連続して表示される左画像と右画像が、同期された方法でキャプチャーされるという事実に起因している。
本発明の目的は、これらの先行技術の欠点の少なくとも1つを克服することである。
より詳細には、本発明の目的は、動く物体を含むシーケンスの立体表示の表示不良を顕著に減らすことである。
本発明は、少なくとも1つのビデオシーケンスのビデオを処理する方法に関する。ビデオシーケンスは、複数の画像のペアを含む。各画像のペアは、第1画像および第2画像を含む。第1画像および第2画像は、立体画像を形成することを目的とする。この方法は、少なくとも2つの第2画像から動き補償された時間的な補間によって、少なくとも1つの第3画像を生成するステップを含む。
特定の特徴によると、この方法は、少なくとも2つの第2画像から、第3画像の複数の画素における各画素の動きベクトルを推定するステップを含む。
有利なことに、この方法は、表示装置上に第1画像と第3画像を表示するステップを含む。第1画像と第3画像は、それぞれシーケンシャルに表示される。
具体的な特徴によると、この方法は、少なくとも2つの第1画像から動き補償された時間的な補間によって、少なくとも1つの第4画像を生成するステップを含む。
有利なことに、この方法は、表示装置上に第3画像と第4画像を表示するステップを含む。第3画像と第4画像は、それぞれシーケンシャルに表示される。
以下の説明を読むことにより、本発明がより理解され、他の具体的な特徴および有利な点が明らかになるであろう。説明は、添付図面を参照する。
前述したように、従来技術の特定の実施形態によって、2つの記録装置による場面10を表わすビデオシーケンスの画像のキャプチャーを示す図である。 本発明の実施形態によって、図1に記載された方法によりキャプチャーされた画像の時間的な登録の方法を示す図である。 本発明の特定の実施形態によって、図1に記載された方法によりキャプチャーされた画像の時間的な補間の方法を示す図である。 本発明の2つの実施形態によって、図1に記載された方法によりキャプチャーされた画像の時間的な補間の2つのモードを示す図である。 本発明の2つの実施形態によって、図1に記載された方法によりキャプチャーされた画像の時間的な補間の2つのモードを示す図である。 本発明の特定の実施形態によって、画像処理装置の構造を図示する図である。 本発明の2つの特定の実施形態によって、図5の処理装置で実施されるビデオ画像を処理する方法を示す図である。 本発明の2つの特定の実施形態によって、図5の処理装置で実施されるビデオ画像を処理する方法を示す図である。
図2は、本発明の実施形態による、図1に関して述べたようにキャプチャーされた画像の時間的な登録の方法を示す。図1の要素と同一である図2の要素は、図1と同一の参照番号である。2つの画像を取得する装置(それぞれ左がG11、右がD12)は、2つの異なる視点(それぞれ、左の視点および右の視点)による同一場面の画像シーケンスを記録する。これらの記録の結果は、ビデオシーケンスの取得のタイミングチャート13によって示される。図2の実装例によると、左のビデオシーケンスは、3つの連続する左画像14、15、および16を含む。これらの画像の各々は、それぞれ時刻T1、T2、およびT3にキャプチャーされた2つの円柱を含む場面を表わしている。また、右のビデオシーケンスは、3つの連続する右画像17、18、および19を含む。これらの画像は、左画像と同一場面を表わすものであるが、左画像とは別の視点よりキャプチャーされている。3つの右画像17〜19は、それぞれ時刻T1、T2、およびT3にキャプチャーされている。ゆえに、画像14と17は、同期された方法で(すなわち、同じ時刻に)、時刻T1に記録される。画像15と18は、同期された方法で、時刻T2に記録される。画像16と19は、同期された方法で、時刻T3に記録される。右画像と左画像の各ペア14/17、15/18、および16/19は、左と右の取得装置11と12の空間距離のおかげで、記録した場面の三次元の視界を復元する、立体画像を形成するのに適している。取得装置11と12は、2つの異なる視点より、同一場面を記録する。取得装置11と12によって取得された場面の立体視像を、表示装置(例えば、プラズマディスプレイパネル、LCD(Liquid Crystal Display)スクリーン)上で復元するため、キャプチャーされた左と右の画像は、次のスキームにより時間においてシーケンシャルに表示される。すなわち、左画像14、右画像17、左画像15、右画像18、左画像16、右画像19など、である。図2に関して示される例によると、右画像17、18、および19は、時間的なシーケンシャル表示と呼ばれる当業者に周知の方法により、それぞれ左画像14、15、および16に対してほんの少し遅れて表示される。表示の遅れは、表示装置20のアドレッシングの期間に対応し、例えば表示周波数が100ヘルツのとき10ミリ秒である。左画像から構成されるビデオシーケンスは、鑑賞者の左目によって見られ、右画像から構成されるビデオシーケンスは、鑑賞者の右目によって見られる。この鑑賞者は、右目のために左画像を遮断し、左目のために右画像を遮断することが可能である適応した眼鏡をかけなければならない。同期された方法で取得された左画像と右画像の表示の時間的なずれは、画像の振動によって特徴づけられる立体画像の表示不良につながる。表示不良は、動く要素(例えば、物体、人)を含むビデオシーケンスを再生するときにあらわれる。この表示不良を減らすために、または取り除くために、ほんの少し遅れて(または、ほんの少し早く)表示される画像の時間的な登録が実行される。図2の例によると、ビデオ処理は、右のビデオシーケンス上で行われる。右画像17、18、および19から構成されるビデオシーケンスの時間的な登録は、時間的に補間される。補間された右画像17i、18i、および19iから構成される、補間されたビデオシーケンスが取得される。補間される右画像17iは、右のビデオシーケンスのソース(すなわち、右の取得装置12によって取得される、右のビデオシーケンス)の画像17と18の時間的な補間によって取得される。補間される右画像18iは、右のビデオシーケンスのソースの画像18と19の時間的な補間によって取得される。補間される右画像19iは、右のビデオシーケンスのソースの画像19と画像19のすぐ後に続く画像(図2に図示せず)の時間的な補間によって取得される。各補間される画像17i〜19iは、取得した場面を構成する円柱の表現を含む。画像17i、18i、および19iは、それぞれ、静止している円柱の表現200、および3つの異なる時刻に移動する円柱の表現210を含む。3つの異なる時刻は、それぞれ、T1+δt、T2+δt、およびT3+δtである。δtは、先行するソース画像と対応する補間される画像との間の時間的なずれに対応する。すなわち、ソースビデオシーケンスのソース画像の取得時刻と、対応する表示ビデオシーケンスで補間される画像の表示時刻との間の時間的なずれである。ソース画像の表示に関連している表示不良を減らすために、または取り除くために、右画像の補間が動き補償によって実行される。動き補償された補間によって、円柱200と210の位置は、補間される画像の表示の時(すなわち、画像17iはT1+δt、画像18iはT2+δt、画像19iはT3+δt)に決定することが可能である。ゆえに、右ビデオシーケンスに適用される、動き補償による画像の補間は、補間される画像が、キャプチャー時刻からのずれδtに対応する内容を有するよう生成され、すなわち、表示装置上の左画像と右画像との表示間にある継続期間からずらされることを可能にし、関連するソース画像(すなわち、補間される画像17iのソース画像17、補間される画像18iのソース画像18、補間される画像19iのソース画像19)の実際のキャプチャー時刻と一致しない。
変形形態によると、左画像14〜16は、それぞれ右画像17〜19に対してほんの少し早く表示される。この変形形態によると、動き補償された補間は、左画像を含む左ビデオシーケンス上で実行される。
他の変形形態によると、左画像14〜16は、それぞれ右画像17〜19に対してほんの少し遅れて表示される。この変形形態によると、動き補償された補間は、左画像を含む左ビデオシーケンス上で実行される。
他の変形形態によると、動き補償された補間は、左ビデオシーケンス上および右ビデオシーケンス上で実行される。
変形形態によると、画像14と17のペア、画像15と18のペア、および画像16と19のペアは、共通のクロックと比べて同期された方法で記録される。すなわち、画像14と17は所定の遅れで取得され、画像15と18は同じ所定の遅れで取得され、画像16と19は同じ所定の遅れで取得されることが可能である。
図3は、本発明の非制限的な実施形態により、図1および2に関連して記載された方法によってキャプチャーされたソース画像の動き補償された補間の方法を示す。補間される画像I 31は、ソースビデオシーケンスの2つのソース画像30と32から補間される。これらのソース画像の第1のもの30を先行ソース画像T−1と呼び、これらのソース画像の第2のもの32を現行ソース画像Tと呼ぶ。先行ソース画像T−1 30と補間されるI 31の画像との間の時間的なずれは、δt1に等しい。補間されるI 31の画像と現行ソース画像T32との間の時間的なずれは、δt2に等しい。動き補償されたビデオの補間は、有利なことに、動き推定のステップ、その後に補間のステップを含む。動き推定は、補間するI31の画像の各点の動きベクトルを定義することからなる。画像I 31は、2つのソース画像T−1 30とT 32との間に、時間的に位置する。動き推定のステップは、有利なことに、2ステップ、すなわち、予測のステップおよび補正のステップで実行される。予測のステップは、補間されるI 31の画像の画素の各々について、隣接画素について既に計算された動きベクトルからの動きベクトルおよび先行ソース画像T−1 30について計算された動きベクトルの推定を定義することと、補間される画像I 31と考えられる画素を渡すことからなる。すでに計算されている動きベクトルは、例えば、先行する画素ラインのn個の隣接した画素である。予測は、その後、事前計算されている動きベクトルn+1の中から、選択することからなる。動きベクトルは、最も小さなDFD(Displacement Frame Difference)値を生成する。補正のステップは、その後、可能であれば、補間されるI 31の画像と考えられる画素のDFDをさらに減らすために選択された動きベクトルをその軸の周りで回転することからなる。動き推定は、有利なことに、補間されるI 31の画像のいくつかの画素(例えば、画素全体の25パーセント、または画素全体の4分の1または50パーセント、または2分の1など)について実行される。変形形態によると、動き推定は、補間されるI 31の画像の画素のセットで実行される。他の変形形態によると、動き推定のステップは、1つのステップで実行される。
動き推定のステップに続く補間のステップは、有利なことに、バイリニアの補間である。先行ソース画像T−1 30と現行ソース画像T 32との間で補間される画像I 31の場合、前に定義された動きベクトルは、各ソース画像の画像点を指し示している。この画像点は、1画素または4画素間に位置している点のいずれかである。シングルフレーム補間の場合、バイリニアの補間は、補間される画像の見なされた画素PI301に値を割り当てることからなる。この値は、画素PIの推定動きベクトルによるソース画像(例えば、現行ソース画像)のうちの1つにおいて指し示される4画素の値のバイリニア関数fである。例えば、NV1、NV2、NV3、およびNV4が、現行ソース画像T 32における動きベクトルによる、指し示された画像PT302の点に近い4画素の値(たとえば、それらのビデオレベルNV)を指定する場合、かつ、α1、α2、α3、およびα4が、画像点PTと前記画素の近接性を表わす重み付け係数である場合、補間されるI 31の画像の画素PI301に割り当てられる値は、
である。動きベクトルが、4画素のうち特定の画素を指し示す場合、3つの他の画素に割り当てられた重み付け係数はゼロであり、見なされた画素に割り当てる値はこの特定の画素の値である。ダブルフレーム補間の場合、バイリニアの補間が同一の方法にてなされるが、8画素、すなわち先行ソース画像の4画素と現行ソース画像の4画素である。変形形態によると、動きベクトル(または、その反対)によって指し示されるソース画像は、先行ソース画像T−1 30であり、指し示される画像点は、Pt-1300である。変形形態によると、例えば、固定領域で時間的なバイリニアの補間によって、画像の重要な領域(すなわち、動きベクトルの信頼性が低い領域)での時空間フィルタリングによって、または、当業者に周知のいずれかの方法によって、補間は実行される。他の変形形態によると、補間は、前述の方法のいずれかの組み合わせによって実行される。
変形形態によると、動き補償された補間は、単一ステップで実行される。
図4Aおよび4Bは、本発明の2つの特定の実施形態によって、図1および2に関して記載された方法によりキャプチャーされたソース画像の時間的な補間の2つのモードを示す。
図4Aは、動き補償された時間的な補間の第1の例を示す。図4Aにて、実線のピーク401g、402g、および403gは、左取得装置によって取得されるソース左画像をあらわす。左画像402gは、現行画像Tと呼ばれる画像に対応する。左画像401gは、先行画像T−1と呼ばれる画像に対応する。左画像403gは、後行画像T+1と呼ばれる画像に対応する。3つの左画像401g〜403gは、左ビデオシーケンスに属し、時間的な観点から連続している。実線のピーク401d、402d、および403dは、右取得装置によって取得されるソース右画像をあらわす。右画像402dは、現行画像Tと呼ばれる画像に対応する。右画像401dは、先行画像T−1と呼ばれる画像に対応する。右画像403dは、後行画像T+1と呼ばれる画像に対応する。3つの右画像401d〜403dは、右ビデオシーケンスに属し、時間的な観点から連続している。図4Aで示すように、左画像401gは、右画像401dと時間的に同期された方法で取得され、左画像402gは、右画像402dと時間的に同期された方法で取得され、左画像403gは、右画像403dと時間的に同期された方法で取得された。破線のピーク404iと405iは、取得装置によって取得された右画像(ソース右画像とも呼ばれる)から補間される右画像をあらわす。補間される右画像404iは、ソース右画像401dと402dから補間される。補間される右画像405iは、ソース右画像402dと403dから補間される。図4Aの例によると、補間される右画像404iは、時間的な観点からソース右画像401dと402dの中心に位置づけられる。補間される右画像405iは、時間的な観点からソース右画像402dと403dの中心に位置づけられる。2つのソース画像(例えば、401dと402d)を分ける継続期間が、フレーム時間Tに対応する場合、補間される画像404iのソース画像401dを分ける継続期間δt1は、補間される画像404iからソース画像402dを分ける継続期間δt2と等しく、フレーム時間の2分の1と等しい。同様に、後続の補間される画像405iは、フレーム時間の2分の1を囲む各ソース右画像402dと403dから時間的に離される。この実装の例は、2つのソースビデオシーケンスのうちの1つ(すなわち、右ソースビデオシーケンス)のみで、動き補償された時間的な補間を実行するという有利な点を提供する。変形形態によると、動き補償された補間は、左ソースビデオシーケンスGで実行され、右ソースビデオシーケンスDで実行されない。
図4Bは、動き補償された時間的な補間の第2の例を示す。図4Bにて、実線のピーク401g、402g、403g、401d、402d、および403dは、取得された左と右のソース画像をあらわし、同じ参照番号を有する図4Aに関して記載されたものと等しい。破線のピーク406iと408iは、補間される左画像をあらわす。補間される画像406iは、左ソース画像401gと402gから補間される。補間される画像408iは、左ソース画像402gと403gから補間される。この例によると、補間される画像406iから左ソース画像401gを分ける継続期間は、フレーム時間の4分の3に等しい。現行左ソース画像402gから補間される画像406iを分ける継続期間は、フレーム時間の4分の1に等しい。補間される画像406iは、先行左ソース画像401gよりも、現行左ソース画像402gに時間的に近い。すなわち、時間的に3倍近い。同様に、補間される画像408iから現行左ソース画像402gを分ける継続期間は、フレーム時間の4分の3に等しい。後行左ソース画像403gから補間される画像408iを分ける継続期間は、フレーム時間の4分の1に等しい。補間される画像408iは、現行左ソース画像402gよりも、後行左ソース画像403gに時間的に近い。すなわち、時間的に3倍近い。破線のピーク406iと408iは、補間される左画像をあらわす。補間される画像406iは、左ソース画像401gと402gから補間される。補間される画像408iは、左ソース画像402gと403gから補間される。この例によると、補間される画像407iから先行右ソース画像401dを分ける継続期間は、フレーム時間の4分の1に等しい。現行右ソース画像402dから補間される画像407iを分ける継続期間は、フレーム時間の4分の3に等しい。右の補間される画像407iは、現行右ソース画像402dよりも、先行右ソース画像401dに時間的に近い。すなわち、時間的に3倍近い。同様に、右の補間される画像409iから現行右ソース画像402dを分ける継続期間は、フレーム時間の4分の1に等しい。後行右ソース画像403dから右の補間される画像409iを分ける継続期間は、フレーム時間の4分の3に等しい。補間される画像409iは、後行右ソース画像403dよりも、現行右ソース画像402dに時間的に近い。すなわち、時間的に3倍近い。図4Aに示す例であろうと、または図4Bに示す例であろうと、左画像(図4Aのソース画像、図4Bの補間される画像)と右画像(図4Aおよび4Bの補間される画像)との間の表示レベルにおける時間的な違いは、一定であり、2分の1に等しい。この実施例は、動き補償された時間的な補間に関連する誤りを最小限にするという有利な点を提供する。補間される画像は、時間的にソース画像に近い(すなわち、4分の1フレーム)。
変形形態によると、いくつかの補間される画像(例えば、補間される2、3または4つの画像)は、2つのソース画像の間で生成される。2つのソース画像の間におけるいくつかの補間される画像の生成により、表示のための画像の数を増やすことが可能であり、結果として、表示装置上の画像の表示周波数を増やすことが可能である。この変形形態によると、ソース画像および補間される画像は、有利なことに、時間的な観点から一様に分配される。すなわち、それらを分ける継続期間は、すべての画像に対して等しい。
図5は、本発明の特定の実施形態による、表示装置の処理装置5のハードウェアの実施形態を図示する。処理装置5は、例えば、FPGA(Field-Programmable Gate Array)タイプなどのプログラム可能な論理回路、ASIC(Application-Specific Integrated Circuit)またはDSP(Digital Signal Processor)の形態をとる。処理装置は、前述した方法の実施に適合される。
処理装置5は、以下の要素を備える。
−プレフィルター50
−動き推定器51
−メモリ52、53、および56。例えば、1またはさまざまなソース画像を記憶できる、RAM(Random Access Memory)、または、フラッシュのタイプなど。
−補間器54
−同期装置55
−データバス510、511、512、513、514、および515
−クロックバス516
右ソースビデオシーケンスを表わす第1の信号RVBd(赤、緑、青の右)501は、右取得装置によって取得される右ソース画像を含む。信号RVBd501は、データバス511を介して処理装置5のプレフィルター50へ入力される。例えば、決められた空間スキームに従い、ソース画像の4画素の画素、または、ソース画像の2画素の画素を計算により決定しながら、プレフィルター50は、右ソース画像(すなわち、現行ソース画像Tおよび先行ソース画像T−1)を含む画素をフィルターして、メモリ52に、現行ソース画像Tおよび先行画像T−1のそれぞれの複数の画素を格納する。動き推定器51は、補間される画像の各画素の動きベクトル(Vx,Vy)を決定する。動きベクトルが決定される各画素は、メモリ52に格納される現行ソース画像Tおよび先行ソース画像T−1のいくつかの画素(上記の例によると、4または2)に関連付けられる。同じ動きベクトル(Vx,Vy)は、ソース画像TおよびT−1のいくつかの画素と関連付けられる。これらの決定した動きベクトル(Vx,Vy)は、データバス513を介して、補間器54へ送信される。同時に、補間器54は、現行右ソース画像Tおよび先行右ソース画像T−1を表わす信号RVBd501の入力を受信する。現行画像Tおよび先行画像T−1のそれぞれの各画素のビデオレベルは、メモリ53に格納される。補間器54は、現行右ソース画像Tおよび先行右ソース画像T−1ならびに関連する動きベクトル(Vx,Vy)から補間される右画像を生成する。ソース右ビデオシーケンスの補間される右画像を表わす信号RVBd,i(補間される赤、緑、青の右)は、補間される右画像を含む補間された右ビデオシーケンスを表示するために、データバス515を介して、表示装置502へ送信される。表示装置502は、有利なことに、処理装置5の外部である。補間された右ビデオシーケンスは、動きにおいて補間される右画像から構成される。右画像は、ソース右ビデオシーケンスに含まれるソース右画像を置換する。ゆえに、表示装置上に表示される右画像は、補間される右画像であり、ソース右画像ではない。ビデオ処理は、ソース右ビデオシーケンス上で行われている。ずれは、内容が補間される右画像のそれぞれに対応する、関連した左画像に対して表示装置502での補間される画像の伝送レベルで生成される。表示装置502での信号RVBg(赤、緑、青の左)500と信号RVBd,i 504との伝送の同期をとるために、信号RVBg500は、同期装置55を介して、メモリ56における1または複数の左画像の記憶によって、遅延される。信号RVBg500は、データバス510を介して、同期装置55へ供給される。同期装置55は、クロックバス516を介して、クロック信号54を補間器54へ送信して、補間される右画像の表示装置502への送信をトリガし、関連した補間される左画像と右画像を含む画像のペアから立体画像を生成するために、内容が補間される右画像に対応する左画像の直後に、補間される右画像が表示装置によって受信されるようにする。立体画像を形成することを意図する画像のペアの左画像は、データバス514を介して、同期装置55によって、表示装置502へ送信される。
変形形態によると、処理装置5は、ソース画像のデシメーションを含まない。すなわち、動き推定は、先行ソース画像T−1と現行ソース画像Tを構成するすべての画素で実行される。この変形形態によると、画素がソース画像のいくつかの画素に対して決定されるときよりも、プレフィルタは機能的により単純である(例えば、ソース画像のガウシアン平滑化を実行するだけである)。この変形形態によると、メモリ52は、単一の画像、すなわち先行する画像のみを格納する。現行の画像は、事前に記憶されることなく、動き推定器へ直接送信される。同様に、メモリ53は、単一の画像、すなわち先行する画像のみを格納する。補間は、補間器によって受信される現行の画像、および、記憶された先行する画像から実行される。補間の後、現行の画像は、新しい現行の画像の先行する画像となり、古い先行する画像を上書きしてメモリ53に格納される。
別の変形形態によると、メモリ52および53は、シングルメモリのみを形成する。
別の変形形態によると、左ソースビデオシーケンスを表わす信号RVBgも、動き補償とともに補間される。この変形形態によると、処理装置5は、プレフィルタ50、動き推定器51、補間器54、およびそれらに関連した、右画像の補間を対象としたメモリ52および53に加えて、第2のプレフィルタ、第2の動き推定器、第2の補間器、およびそれらに関連した、左画像の動き補償された補間のためのメモリを含む。第2のプレフィルタ、動き推定器、補間器の機能は、前述した右画像の処理と等しい。
図6は、本発明の非制限的な特に有利な実施形態に従い、処理装置5で実施されるビデオ画像の処理方法を示す。
初期化ステップ60の間、処理装置の異なるパラメータは更新される。
ステップ61の間、画像は、ビデオシーケンスの2つのソース画像から補間される。ビデオシーケンスは、2つのビデオシーケンスの組み合わせから生じる。2つのビデオシーケンスは、左ビデオシーケンスおよび右ビデオシーケンスと呼ばれる。左と右のビデオシーケンスは、同期された方法でそれぞれ左カメラと右カメラによって撮影された同じ場面のそれぞれ左画像と右画像を含む。左と右のビデオシーケンスの組み合わせから生じるビデオシーケンスは、時間的に交互に連続する左と右のビデオシーケンスの左と右の画像から構成される。すなわち、左と右画像は、次のように−左画像、右画像、左画像、右画像、左画像など−時間的に交互に入れ替わる。言い換えると、ビデオシーケンスは、時間的に互いに連続する複数の左と右画像の組み合わせを含む、左と右のビデオシーケンス組み合わせから生じる。画像の各ペアは、同じ時刻Tにキャプチャーされた同じ場面をあらわす左画像と右画像を含む。各画像のペアは、立体画像、すなわち場面の三次元画像を生成することを意図する。画像のペアの左画像は、第1画像とも呼ばれる。画像のペアの右画像は、第2画像とも呼ばれる。左と右のビデオシーケンスの組み合わせから生じるビデオシーケンスは、本説明の残りの部分で、第1ビデオシーケンスと呼ぶこととする。補間される画像は、第3画像と呼ばれ、有利なことに、第1ビデオシーケンスにおいて時間的に連続する2つの第2画像から動き補償により補間される。第3画像は、時間的に2つの第2画像の間に入る。第3画像に(時間的な観点から)先行する第2画像と第3画像を分ける時間的な間隔は、δt1に等しい。第3画像に(時間的な観点から)続く第2画像と第3画像を分ける時間的な間隔は、δt2に等しい。有利なことに、δt1はδt2と等しい。
変形形態によると、いくつかの第3画像は、2つの第2画像から動き補償により補間され、特に、第1ビデオシーケンスの画像の周波数を増加させる。
他の変形形態によると、第3画像(単数)または第3画像(複数)は、時間的にお互いに続く2つの左画像から補間される。この変形形態によると、上述と同じ語彙を維持するために、画像のペアの左画像を、第2画像と呼び、画像のペアの右画像を、第1画像と呼ぶ。
別の変形形態によると、第3画像は、第2画像と呼ばれる2つの右画像から動き補償により補間される。第4画像は、第1画像と呼ばれる2つの左画像の動き補償された補間から生じる。この変形形態によると、第4画像に(時間的な観点から)先行する第1画像と第4画像を分ける時間的な間隔は、δt1´に等しい。第4画像に(時間的な観点から)続く第1画像と第4画像を分ける時間の間隔は、δt2´に等しい。この変形形態によると、有利なことに、δt1は厳密にδt2より小さい。すなわち、第3画像は、先行する第2画像より時間的に近い。δt1´は厳密にδt2´より大きい。すなわち、第4画像は、後続する第1画像より時間的に近い。第4画像から第3画像を分ける時間的な間隔は、左ビデオシーケンス(すなわち、取得装置によって取得される)で2つの第1画像を分ける時間の半分と等しい。
第3画像および/または第4画像の動き補償された補間は、有利なことに、第1ビデオシーケンスのすべての第2画像を、補間される画像(すなわち第3画像)に置き換える方法で、および/または、第1ビデオシーケンスのすべての第1画像を、補間される画像(すなわち第4画像)に置き換える方法で、繰り返される。
図7は、本発明の非制限的な特に有利な実施形態に従い、処理装置5で実施されるビデオ画像の処理方法を示す。
初期化ステップ70の間、処理装置の異なるパラメータは更新される。
その後、ステップ71の間、動きベクトルは補間される画像、すなわち、第3画像および/または第4画像の複数の画素の各画素について、例えば、2つに1画素または4つに1画素計算される。変形形態によると、動きベクトルは、画像の各画素で決定される。第3画像では、動きベクトルは、2つの第2画像から決定され、第4画像では、動きベクトルは、2つの第1画像から決定される。
ステップ72の間、第3画像および/または第4画像は、2つの第2画像(それぞれ2つの第1画像から)から、および、ステップ71で決定された動きベクトルから補間される。動きベクトルが、第3画像のいくつかの画素のみで決定されたとき、例えば4つに1画素のとき、4つの中の画素で計算された動きベクトルは、補間される画像、すなわち第3画像の画素セットについて補間を実行する方法で、3つの他の画素のためにコピーされる。残りについては、ステップ72は、図6に関して記載されたステップ61と同一である。
最後に、ステップ73の間、第1と第3の画像は、時間的にシーケンシャルな方法で、すなわち、第1画像に続いて第3画像などのように、連続して交互に表示装置上に表示される。もとの第2画像の代わりとして、動き補償により補間された第3画像を表示することによって、それらに関連する(すなわち、同じ瞬間Tにキャプチャーした)第1画像に関する第2画像のオフセット表示につながる表示不良を正すことが可能である。第2画像の表示は第1画像の表示に続く。つまり、第3画像は、時間的に登録された(動き補償による時間的な補間によって)第2画像を置き換えて、表示装置上で表示されるビデオシーケンスにおける第3画像の時間的な位置決めは、動き補償される内容とコヒーレントである。変形形態によると、第4画像および第3画像は、時間的にシーケンシャルな方法で、すなわち、第3画像に続いて第4画像などのように、連続して交互に表示装置上に表示される。
当然、本発明は、前述の実施形態に制限されるものではない。
特に、本発明は、画像を処理する方法に制限されず、そのような方法を実施する処理装置、および画像を処理する方法を実施する処理装置を含む表示装置にまで及ぶ。
有利なことに、左と右の各ビデオシーケンスは、3つの画像より多く含む。画像の数は、ビデオシーケンスの継続期間によって決まる(例えば、ビデオモードでは50または60ヘルツで取得される、つまり1秒あたり50または60画像、フィルムモードでは24ヘルツで取得される、つまり1秒あたり24画像)。

Claims (9)

  1. 立体画像のペアのシーケンスのビデオ処理のための方法であって、各立体画像のペアは、同期された方法で取得される第1画像、および第2画像を含み、動き補償された時間的な補間によって、少なくても2つの第2画像から、少なくとも1つの第3画像を生成するステップを含むことを特徴とする方法。
  2. 前記少なくとも2つの第2画像から、前記第3画像の複数の画素の各画素について動きベクトルを推定するステップを含むことを特徴とする請求項1に記載の方法。
  3. 表示装置上に、前記第1画像および第3画像を表示するステップを含み、前記第1画像および第3画像は、それぞれシーケンシャルに表示されることを特徴とする請求項1および2に記載の方法。
  4. 動き補償された時間的な補間によって、少なくとも2つの第1画像から、少なくとも1つの第4画像を生成するステップを含むことを特徴とする請求項1および2に記載の方法。
  5. 表示装置上に、前記第3画像および第4画像を表示するステップを含み、前記第3画像および第4画像は、それぞれシーケンシャルに表示されることを特徴とする請求項4に記載の方法。
  6. 第3画像は、時間的な観点から直に連続する2つの第2画像から生成され、第3画像を第3画像に時間的に先行する第2画像から分ける第1の時間的な間隔、第3画像を第3画像に時間的に続く第2画像から分ける第2の時間的な間隔であって、第1の時間的な間隔は厳密に第2の時間的な間隔より小さく、第4画像は、時間的な観点から直に連続する2つの第1画像から生成され、第4画像を第4画像に時間的に先行する第1画像から分ける第3の時間的な間隔、第4画像を第4画像に時間的に続く第1画像から分ける第4の時間的な間隔であって、第4の時間的な間隔は厳密に第3の時間的な間隔より小さいことを特徴とする請求項4および5に記載の方法。
  7. 第1の時間的な間隔と第4の時間的な間隔は等しく、第2の時間的な間隔と第3の時間的な間隔は等しいことを特徴とする請求項6に記載の方法。
  8. 複数の第3画像は、時間的な観点から直に連続する2つの第2画像から生成され、同じ複数の第4画像は、時間的な観点から直に連続する2つの第1画像から生成されることとを特徴とする請求項4から5に記載の方法。
  9. 前記複数を生成する第3画像は、時間的な観点から、2つの第2画像の間で、一様に分配され、前記複数を生成する第4画像は、第3画像と同じ方法で、2つの第1画像の間で、時間的に分配されることを特徴とする請求項8に記載の方法。
JP2011087421A 2010-04-09 2011-04-11 立体画像を処理するための方法および対応する装置 Pending JP2011223583A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1052693 2010-04-09
FR1052693A FR2958824A1 (fr) 2010-04-09 2010-04-09 Procede de traitement d'images stereoscopiques et dispositif correspondant

Publications (2)

Publication Number Publication Date
JP2011223583A true JP2011223583A (ja) 2011-11-04
JP2011223583A5 JP2011223583A5 (ja) 2014-05-22

Family

ID=42799895

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011087421A Pending JP2011223583A (ja) 2010-04-09 2011-04-11 立体画像を処理するための方法および対応する装置

Country Status (7)

Country Link
US (1) US9402086B2 (ja)
EP (1) EP2375762B1 (ja)
JP (1) JP2011223583A (ja)
KR (1) KR101781420B1 (ja)
CN (1) CN102215416B (ja)
BR (1) BRPI1101662B1 (ja)
FR (1) FR2958824A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2492003A (en) * 2010-04-02 2012-12-19 Zoran France Stereoscopic video signal processor with enhanced 3D effect
GB2494707B (en) * 2011-09-19 2014-10-08 Sony Comp Entertainment Europe Generation and display of stereoscopic images
US10390041B2 (en) * 2012-03-30 2019-08-20 Sun Patent Trust Predictive image coding and decoding using two reference pictures
EP2869769B1 (en) * 2012-07-05 2020-05-27 Koninklijke Philips N.V. Temporal alignment of and signal-to-noise-ratio enhancment in image streams for multi-channel x-ray imaging
CN104837002B (zh) * 2015-05-06 2016-10-26 上海图漾信息科技有限公司 拍摄设备、三维测量系统、视频帧内插方法和装置
US10887619B2 (en) * 2016-02-03 2021-01-05 Sharp Kabushiki Kaisha Moving image decoding device, moving image coding device, and prediction image generation device
CN108062772A (zh) * 2017-12-05 2018-05-22 北京小鸟看看科技有限公司 一种图像读取方法、装置及虚拟现实设备
WO2020086489A1 (en) * 2018-10-21 2020-04-30 Saras-3D, Inc. User interface module for converting a standard 2d display device into an interactive 3d display device
CN111212278B (zh) * 2020-01-07 2021-08-03 电子科技大学 一种预测位移帧的方法与系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01316092A (ja) * 1988-06-16 1989-12-20 Matsushita Electric Ind Co Ltd 立体表示装置
JPH0865713A (ja) * 1994-08-23 1996-03-08 Sanyo Electric Co Ltd 立体画像信号変換装置
JPH08149517A (ja) * 1994-09-22 1996-06-07 Sanyo Electric Co Ltd 2次元映像から3次元映像を生成する方法
JP2008252731A (ja) * 2007-03-30 2008-10-16 Sanyo Electric Co Ltd 画像表示装置
JP4364287B1 (ja) * 2008-06-27 2009-11-11 株式会社東芝 映像信号処理装置及びテレビジョン受信装置及びその制御方法
JP2010056694A (ja) * 2008-08-26 2010-03-11 Sony Corp 映像信号処理装置、画像表示装置および映像信号処理方法
JP2010062695A (ja) * 2008-09-02 2010-03-18 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
JP2011139222A (ja) * 2009-12-28 2011-07-14 Toshiba Corp 立体画像処理装置、tv受信機及び立体画像処理方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0896301A1 (en) 1997-08-06 1999-02-10 Victor Company Of Japan, Limited Stereoscopic image interpolating apparatus and method
US6043838A (en) 1997-11-07 2000-03-28 General Instrument Corporation View offset estimation for stereoscopic video coding
US20040070556A1 (en) * 2001-02-22 2004-04-15 Sebastien Weitbruch Stereoscopic plasma display and interleaving of fields
US20020159749A1 (en) * 2001-03-15 2002-10-31 Koninklijke Philips Electronics N.V. Method and apparatus for motion estimation in image-sequences with efficient content-based smoothness constraint
CN1273930C (zh) 2001-06-06 2006-09-06 皇家菲利浦电子有限公司 转换器和转换方法以及图像处理设备
CA2380105A1 (en) 2002-04-09 2003-10-09 Nicholas Routhier Process and system for encoding and playback of stereoscopic video sequences
EP1427216A1 (en) 2002-07-02 2004-06-09 Matsushita Electric Industrial Co., Ltd. Image encoding method and image decoding method
WO2005004479A1 (en) * 2003-07-08 2005-01-13 Koninklijke Philips Electronics N.V. Motion-compensated image signal interpolation
JP5022366B2 (ja) * 2005-07-28 2012-09-12 トムソン ライセンシング 補間フレームを生成するためのデバイス
JP2007180981A (ja) * 2005-12-28 2007-07-12 Victor Co Of Japan Ltd 画像符号化装置、画像符号化方法、及び画像符号化プログラム
CN101523436A (zh) * 2006-10-02 2009-09-02 皇家飞利浦电子股份有限公司 用于恢复视频流中的视差的方法和滤波器
KR101339870B1 (ko) 2007-07-26 2013-12-11 삼성전자주식회사 영상처리장치 및 영상처리방법
US8767831B2 (en) * 2007-10-31 2014-07-01 Broadcom Corporation Method and system for motion compensated picture rate up-conversion using information extracted from a compressed video stream
US9185426B2 (en) * 2008-08-19 2015-11-10 Broadcom Corporation Method and system for motion-compensated frame-rate up-conversion for both compressed and decompressed video bitstreams
US8339441B2 (en) * 2008-12-26 2012-12-25 Kabushiki Kaisha Toshiba Frame processing device, television receiving apparatus and frame processing method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01316092A (ja) * 1988-06-16 1989-12-20 Matsushita Electric Ind Co Ltd 立体表示装置
JPH0865713A (ja) * 1994-08-23 1996-03-08 Sanyo Electric Co Ltd 立体画像信号変換装置
JPH08149517A (ja) * 1994-09-22 1996-06-07 Sanyo Electric Co Ltd 2次元映像から3次元映像を生成する方法
JP2008252731A (ja) * 2007-03-30 2008-10-16 Sanyo Electric Co Ltd 画像表示装置
JP4364287B1 (ja) * 2008-06-27 2009-11-11 株式会社東芝 映像信号処理装置及びテレビジョン受信装置及びその制御方法
JP2010056694A (ja) * 2008-08-26 2010-03-11 Sony Corp 映像信号処理装置、画像表示装置および映像信号処理方法
JP2010062695A (ja) * 2008-09-02 2010-03-18 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
JP2011139222A (ja) * 2009-12-28 2011-07-14 Toshiba Corp 立体画像処理装置、tv受信機及び立体画像処理方法

Also Published As

Publication number Publication date
BRPI1101662A2 (pt) 2012-10-02
BRPI1101662B1 (pt) 2021-10-26
KR20110113562A (ko) 2011-10-17
EP2375762A1 (en) 2011-10-12
CN102215416A (zh) 2011-10-12
US20110285815A1 (en) 2011-11-24
EP2375762B1 (en) 2013-01-16
CN102215416B (zh) 2015-08-05
KR101781420B1 (ko) 2017-09-25
FR2958824A1 (fr) 2011-10-14
US9402086B2 (en) 2016-07-26

Similar Documents

Publication Publication Date Title
EP2375762B1 (en) Stereoscopic video signal processing for use with sequential display of left and right images
Anderson et al. Jump: virtual reality video
US8027531B2 (en) Apparatus and method for capturing a scene using staggered triggering of dense camera arrays
EP2389007B1 (en) Method and apparatus for temporally interpolating three-dimensional depth image
KR100720722B1 (ko) 중간영상 생성방법 및 이 방법이 적용되는 입체영상디스플레이장치
US9313473B2 (en) Depth video filtering method and apparatus
JP2014502818A (ja) 画像処理のための一次像および二次像画像取込装置およびその方法
CN113271415B (zh) 具有多个图像源的图像处理的方法和系统
NL1027270C2 (nl) Deïnterlinieringsinrichting met een ruisverminderings/verwijderingsinrichting.
US8610707B2 (en) Three-dimensional imaging system and method
JP2010268037A (ja) 映像変換方法および映像変換装置
JP2017050731A (ja) 動画像フレーム補間装置、動画像フレーム補間方法及び動画像フレーム補間プログラム
JP6148154B2 (ja) 画像処理装置及び画像処理プログラム
GB2479933A (en) Motion estimation method where spatial resolution is varied according to motion vector confidence
CN113784014B (zh) 一种图像处理方法、装置及设备
JP4273420B2 (ja) 映像信号処理装置及び映像信号の伝送方法
US9113140B2 (en) Stereoscopic image processing device and method for generating interpolated frame with parallax and motion vector
JP4890464B2 (ja) 動き補償されたピクチャを生成する方法及び装置
US8976175B2 (en) Depth estimation data generating device, computer readable recording medium having depth estimation data generating program recorded thereon, and pseudo-stereo image display device
US8953018B2 (en) Generation and display of stereoscopic images
US8902286B2 (en) Method and apparatus for detecting motion vector, and method and apparatus for processing image signal
WO2022096101A1 (en) Device and method for video interpolation
JP5700998B2 (ja) 立体映像表示装置及びその制御方法
Lee et al. Video frame rate conversion for mobile devices
JP2007235398A (ja) 立体映像の映像データ構成方法、映像データ構成装置及び立体視システム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140407

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140407

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150728

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160105