JP5680994B2 - 画像カット方法および画像カット装置 - Google Patents

画像カット方法および画像カット装置 Download PDF

Info

Publication number
JP5680994B2
JP5680994B2 JP2011043110A JP2011043110A JP5680994B2 JP 5680994 B2 JP5680994 B2 JP 5680994B2 JP 2011043110 A JP2011043110 A JP 2011043110A JP 2011043110 A JP2011043110 A JP 2011043110A JP 5680994 B2 JP5680994 B2 JP 5680994B2
Authority
JP
Japan
Prior art keywords
image
frame
image switching
pixel
screen position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011043110A
Other languages
English (en)
Other versions
JP2011182399A5 (ja
JP2011182399A (ja
Inventor
リチャード ソープ ジョナサン
リチャード ソープ ジョナサン
安藤 秀樹
秀樹 安藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Europe BV United Kingdom Branch
Original Assignee
Sony United Kingdom Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony United Kingdom Ltd filed Critical Sony United Kingdom Ltd
Publication of JP2011182399A publication Critical patent/JP2011182399A/ja
Publication of JP2011182399A5 publication Critical patent/JP2011182399A5/ja
Application granted granted Critical
Publication of JP5680994B2 publication Critical patent/JP5680994B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/158Switching image signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • H04N13/359Switching between monoscopic and stereoscopic modes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/341Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using temporal multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、画像カット方法および画像カット装置に関する。
ビデオ素材を視聴する際の視聴者の経験を豊かなものにするために、既知の技術を適用して、ビデオ素材内のいくつかの画像が3次元(3D)性質を有している印象を視聴者に与えることができる。これは、視聴者が一方の眼で第1の画像を見て、他方の眼で第2の画像を見るように、ビデオを、一連の立体画像を有するように配列することによって達成される。第1の画像および第2の画像が同じ物体のものであり、かつこれらの画像が、視聴者が視聴する視聴平面(例えば、テレビのディスプレイまたは映画スクリーン)に関して互いに対して水平方向に変位している場合、視聴者は、この映像情報において、当該物体に関する単一の画像が存在し、この画像が一定の奥行きを有している(すなわち、視聴平面の前後のいずれかに位置している)と錯覚する。2枚の画像は、同じ物体に関するものでありかつわずかに異なる角度から撮影されているものである2枚の画像を配列することによって、3D効果が高められる。人間の眼はわずかな距離だけ離間しているため、上記2枚の画像によって、視聴者が両眼で現実の物体を見るときに見える情報が模倣され、視聴者は、表示された物体を3D物体として知覚する。
米国特許出願公開第2004/0057612号明細書 欧州特許出願公開第2106150号明細書 欧州特許出願公開第1865728号明細書 米国特許出願公開第2009/0041336号明細書 韓国公開特許第20070061094号明細書
上述のように、同じ物体に関して画像が水平方向に変位しているため、従来の2次元(2D)ビデオシーケンスとは異なり、視聴者が3D画像を視聴するには、視聴者の両眼がわずかに異なる方向を向いていなければならない。立体画像を視聴する際、視聴者の両眼が不自然な動きをとる場合がある。例えば、視聴者の両眼が不自然に開散したり、輻輳したり、または、(画像における垂直視差の結果)垂直方向に開散したりする場合がある。これによって、不快感が生まれる。それゆえ、3Dビデオシーケンスを分析して、第1の物体および第2の物体の相対的な位置を示す視差マップを生成することによって、視聴者の両眼が異なる方向にどの程度向かなければならないのかを算出することが実用的であり得る。
さらに、ビデオシーケンスにおいて2D画像の表示を3D画像と合成する際には、3D効果がなくならないように注意深い考慮が必要となる。これは、映像内の物体がキャプション(字幕)と「重なって」動くようなライブ映像の場合に特に重要である。
本発明の第1の実施形態によると、所定の画面に表示可能な第1の画像シーケンスと第2の画像シーケンスとの間でカットを行う画像カット方法が提供される。上記第1の画像シーケンスは、上記所定の画面とは異なる第1の画像平面上でユーザに立体的に知覚可能な第1の物体を含み、上記第2の画像シーケンスは、上記第1の画像平面とは異なる第2の画像平面上で知覚可能な第2の物体を含む。上記第1の物体は、第1の画面位置上の第1の画像と、第2の画面位置上の第2の画像とから成る。当該画像カット方法は、上記第1の画像の上記第1の画面位置と、上記第2の画像の上記第2の画面位置とを識別し、カット後の上記第2の画像シーケンスの第1のフレームにおいて、上記第1の画面位置に上記第2の物体の第1のコピーを挿入し、上記第2の画面位置に上記第2の物体の第2のコピーを挿入し、前記第1のフレームに続く所定数の連続フレームにおいて、上記第2の物体の第1のコピーと、上記第2の物体の第2のコピーとを、上記第1の画面位置および上記第2の画面位置よりも、上記第2の物体を視認するのに必要とされる上記所定の画面の位置に近い位置に挿入することで、前記第2の物体の前記画面位置を変更する。
上記所定数の連続フレーム間の上記画面位置の変更の程度は、上記所定数のフレームにわたって一定であってもよい。
上記所定数の連続フレーム間の上記画面位置の変更の程度は、上記所定数のフレームにわたって変化してもよい。
上記画面位置の上記変更の程度は、上記所定数の連続フレームのうち最後の所定数の連続フレーム中より、最初の所定数の連続フレーム中の方が小さくてもよい。
上記第2の画像平面は上記所定の画面であってもよい。
上記第1の画面位置および上記第2の画面位置は、視差マッピング処理によって生成される視差マップを用いて識別されてもよい。
上記画像シーケンスは、前記ユーザの一方の眼によって視認可能な第1の立体画像フレーム群と、上記ユーザの他方の眼によって視認可能な第2の立体画像フレーム群とを有してもよく、上記視差マップは、上記第1の立体画像フレーム群内の第1の画像フレームに第1のエッジ画素検出処理を施して、当該第1の画像フレーム内のエッジを識別し、上記検出されたエッジから上記第1の画像フレームの特徴画素を識別し、上記特徴画素を有する複数の画素のブロックを生成し、上記第1の画像フレームから生成された上記複数の画素のブロックを用いて、上記第2の立体画像フレーム群内の第2の画像フレーム内の、前記画素のブロックに相関する探索領域に対してブロックマッチングを行い、上記第2の画像フレームにおける対応する特徴画素から上記第1の画像フレームの上記特徴画素の相対的な変位を識別することで生成されてもよい。
上記画像カット方法はさらに、上記第1の物体の奥行きの所定の奥行きパラメータを、上記視差マップによって識別された上記第1または第2の画面位置と関係付けることによって、上記視差マップから、上記所定の画面と上記第1または第2の画像平面との間の距離に関する指標を提供する奥行きマップを生成するステップを含んでもよい。
上記画像カット方法はさらに、上記奥行きマップまたは上記視差マップによって示される、上記第1の物体の上記奥行きに基づいて、上記第1の物体をグラフィカルインジケータと関係付けるステップを含んでもよい。
上記画像カット方法はさらに、上記奥行きが所定の視差閾値以上の場合、上記第1の物体を上記グラフィカルインジケータと関係付けるステップを含んでもよい。
上記グラフィカルインジケータは、上記第1の物体に対する彩色を含んでもよい。
上記画像カット方法はさらに、上記第2の画像フレームに第2のエッジ画素検出処理を施して、上記第2の画像フレーム内のエッジを識別し、上記識別されたエッジと、上記生成された視差マップとから、上記第1の画像フレームにおいて予期されるエッジ画素を算出し、上記第1の画像において上記予期されるエッジ画素と、上記算出されたエッジ画素との位置が所定の閾値距離内にあるときに、上記視差マップの妥当性を認証してもよい。
上記第1のエッジ画素検出処理の前に、上記第1の画像フレームおよび上記第2の画像フレームの少なくとも一方の自動相関バージョンに分数調波加算処理を適用することで、上記少なくとも1つの画像フレームにおいて存在する反復パターンの基本周波数の大きさを算出し、上記少なくとも1つの画像フレームの上記基本周波数の上記大きさに基づいて、上記第1のエッジ画素検出処理と、上記相対的な変位の識別処理とを実行してもよい。
上記視差マップは、上記第1の画像フレーム及び上記第2の画像フレーム間の対応する特徴画素間の垂直変位を含んでもよく、上記第1のエッジ画像検出処理は、ゾーベルエッジ検出技術を用いてもよい。
上記第1のエッジ画素検出処理は、上記第1の画像フレームを複数の画素ブロックに分割し、かつ上記複数の画素ブロックの各画素ブロック内のエッジ数を算出するステップを含んでもよく、上記エッジ数が閾値を下回る場合、当該画素ブロックはエッジを有しないと見なされてもよい。
上記閾値は、上記画素ブロック内の垂直方向の画素数と等しくてもよい。
上記画素ブロックにおいて検出されたエッジ数が第2の閾値を上回る場合、当該画素ブロックにおける上記エッジ数は、上記第2の閾値と等しく扱われてもよい。
本発明の第2の実施形態によると、所定の画面に表示可能な第1の画像シーケンスと第2の画像シーケンスとの間でカットを行う画像カット装置が提供される。上記第1の画像シーケンスは、上記所定の画面とは異なる第1の画像平面上でユーザに立体的に知覚可能な物体を含み、上記第2の画像シーケンスは、上記第1の画像平面とは異なる第2の画像平面上で知覚可能な第2の物体を含む。上記第1の物体は、第1の画面位置上の第1の画像と、第2の画面位置上の第2の画像とから成る。当該画像カット装置は、上記第1の画像の上記第1の画面位置と、上記第2の画像の上記第2の画面位置とを識別する識別装置と、カット後の上記第2の画像シーケンスの第1のフレームにおいて、上記第1の画面位置に上記第2の物体の第1のコピーを挿入し、上記第2の画面位置に上記第2の物体の第2のコピーを挿入するとともに、上記第1のフレームに続く所定数の連続フレームにおいて、上記第2の物体の第1のコピーと、上記第2の物体の第2のコピーとを、上記第1の画面位置および上記第2の画面位置よりも、上記第2の物体を視認するのに必要とされる上記所定の画面の位置に近い位置に挿入することで、上記第2の物体の上記画面位置を変更する挿入装置とを具備する。
上記所定数の連続フレーム間の上記画面位置の変更の程度は、上記所定数のフレームにわたって一定であってもよい。
上記所定数の連続フレーム間の上記画面位置の変更の程度は、上記所定数のフレームにわたって変化してもよい。
上記画面位置の上記変更は、上記所定数の連続フレームのうち最後の所定数の連続フレーム中より、最初の所定数の連続フレーム中の方が小さくてもよい。
上記第2の画像平面は上記所定の画面であってもよい。
上記第1の画面位置および上記第2の画面位置は、視差マッピング処理によって生成される視差マップを用いて識別されてもよい。
上記画像シーケンスは、前記ユーザの一方の眼によって視認可能な第1立体画像フレーム群と、上記ユーザの他方の眼によって視認可能な第2の立体画像フレーム群とを有してもよく、当該画像カット装置は、上記視差マップを生成する視差マップ生成器を有していてもよい。この場合、上記視差マップ生成器は、上記第1の立体画像フレーム群内の第1の画像フレームに第1のエッジ画素検出処理を施して、当該第1の画像フレーム内のエッジを識別し、上記検出されたエッジから上記第1の画像フレームの特徴画素を識別し、上記特徴画素を有する複数の画素のブロックを生成し、上記第1の画像フレームから生成された上記複数の画素のブロックを用いて、上記第2の立体画像フレーム群内の第2の画像フレームの、上記画素のブロックに相関する探索領域に対してブロックマッチングを行い、上記第2の画像フレームにおける対応する特徴画素から上記第1の画像フレームの上記特徴画素の相対的な変位を識別することで視差マップを生成してもよい。
上記画像カット装置はさらに、上記第1の物体の奥行きの所定の奥行きパラメータを、上記視差マップによって識別された上記第1または第2の画面位置と関係付けることによって、上記視差マップから、上記所定の画面と上記第1または第2の画像平面との間の距離に関する指標を提供する奥行きマップを生成する奥行きマップ生成器を具備してもよい。
上記画像カット装置はさらに、上記奥行きマップまたは上記視差マップによって示される、上記第1の物体の上記奥行きに基づいて、上記第1の物体をグラフィカルインジケータと関係付ける関係付け装置を具備してもよい。
上記関係付け装置はさらに、上記奥行きが所定の視差閾値以上の場合、上記第1の物体を上記グラフィカルインジケータと関係付けるように動作可能であってもよい。
上記グラフィックインジケータは、上記第1の物体に対する彩色を含んでもよい。
上記視差マップ生成器はさらに、上記第2の画像フレームに第2のエッジ画素検出処理を施して、上記第2の画像フレーム内のエッジを識別し、上記識別されたエッジと、上記生成された視差マップとから、上記第1の画像フレームにおいて予期されるエッジ画素を算出し、上記第1の画像において上記予期されるエッジ画素と、上記算出されたエッジ画素との位置が所定の閾値距離内にあるときに、上記視差マップの妥当性を認証するように動作可能であってもよい。
上記第1のエッジ画素検出処理の前に、上記第1の画像フレームおよび上記第2の画像フレームの少なくとも一方の自動相関バージョンに分数調波加算処理が適用されることで、上記少なくとも1つの画像フレームにおいて存在する反復パターンの基本周波数の大きさが算出されてもよく、上記少なくとも1つの画像フレームの上記基本周波数の上記大きさに基づいて、上記第1のエッジ画素検出処理と、上記相対的な変位の識別処理とが実行されてもよい。
上記視差マップは、上記第1の画像フレーム及び上記第2の画像フレーム間の対応する特徴画素間の垂直変位を含んでもよく、上記エッジ検出処理は、ゾーベルエッジ検出技術を用いてもよい。
上記第1のエッジ画素検出処理は、上記第1の画像フレームを複数の画素ブロックに分割し、かつ上記複数の画素ブロックの各画素ブロック内のエッジ数を算出する処理を含んでもよく、上記エッジ数が閾値を下回る場合、当該画素ブロックはエッジを有しないと見なされてもよい。
上記閾値は、上記画素ブロック内の垂直方向の画素数と等しくてもよい。
上記画素ブロックにおいて検出されたエッジ数が第2の閾値を上回る場合、当該画素ブロックにおける上記エッジの数は、上記第2の閾値と等しく扱われてもよい。
本発明の種々の実施形態及び特徴が添付の特許請求の範囲においてさらに規定される。
本発明の上記および他の課題、特徴および利点が、添付の図面を参照して読まれるべき例示的な実施形態の以下の詳細な説明から明らかになるであろう。
3Dビデオシーケンスを示す概略図である。 図1に示される3Dビデオシーケンスを表示するシステムを示す概略図である。 図2のシステムにおいて表示される画像が視聴者にはどのように見えるかを示す概略図である。 図2のシステムにおいて表示される画像が視聴者にはどのように見えるかを示す概略図である。 図2および図3に示されるディスプレイを上から見た概略図である。 図2および図3に示されるディスプレイを上から見た概略図である。 本発明の一実施形態による、視聴者の不快感を低減する技術を示す概略図である。 図7に示される技術の一例を示す概略図である。 図7に示される技術を実施するシステムを示す概略図である。 2D画像を3Dビデオシーケンスに挿入する一例を示す概略図である。 2D画像の画面上での位置決めを示す概略図である。 3Dビデオシーケンスの左シャッタフレームと右シャッタフレームとを比較して視差マップを従来の様式で生成する方法を示す概略図である。 視差マップを生成する速度および効率を上げる、改善された技術の一例を示す概略図である。 視差マッピング部を示す概略図である。 3Dビデオシーケンスのワンシーンを示す概略図である。 図15(B)に示される技術を実行するシステムを示す概略図である。 3Dビデオシーケンスからの右シャッタフレームおよび左シャッタフレームの一例を示す概略図である。 視差マッピング中にエイリアシングを生じる可能性が高い、コンテンツを有するフレームの部分を識別する技術を示す概略図である。 図18に示される技術を実行するシステムの概略図である。 本発明の実施形態による処理を示すフローチャートである。
ビデオシーケンスにおいて立体(すなわち、3D)画像を提供する数多くの技術が存在する。例えば、視聴者は、一方のレンズが、一方向に偏向された光のみを通す光学フィルタを備え、かつ他方のレンズが他の方向に偏向された光のみを通す光学フィルタを備えるメガネを装着することができる。そして、視聴者は、それぞれ異なる方向に偏向された光によって表示される第1の画像および第2の画像を表示することによって3D画像が生成されるビデオシーケンスを視聴する。これによって、視聴者の両眼のそれぞれによって、単一の画像のみが視聴されることが確実になる。映画の場合、2種類のビデオシーケンスを映画スクリーンに映写する2台の別個のプロジェクタを使用することでこれが達成される。この場合、上記異なる種類のビデオシーケンスはそれぞれ、異なる極性を有するフィルタを通過する。テレビおよびコンピュータモニタでは、偶数のライン画素が第1の方向に偏向された光を放つとともに奇数のライン画素が第2の方向に偏向された光を放つインターレース方式のディスプレイを提供することによって、上記技術が達成される。第1の画像が奇数のライン画素を用いて表示され、第2の画像が偶数のライン画素を用いて表示される。
他の例は、異なるディスプレイ角度で3D画像を有する2枚の異なる画像を映写するように配列されている一列の垂直レンチキュラーレンズを有するレンチキュラーレンズベースのディスプレイを含む。ディスプレイ角度を視聴者の両眼の離間距離にマッチさせることによって、視聴者は、それぞれの眼によって異なる画像を視聴する。
別の例では、シャッタレンズシステムが用いられる。視聴者には、「シャッタメガネ」が提供される。シャッタメガネは、標準的なメガネ構成を有するが、従来的に一対の光学レンズが配置される場所には、代わりに、非常に素早く開閉して光の透過を許可または制限することが可能な一対のシャッタが配置される。各シャッタは通常、好適な電圧が印加されることによって透明に変化することができる液晶ディスプレイレンズを用いて実施される。シャッタメガネは、ディスプレイと同期している。ディスプレイは、一連の「左シャッタフレーム」および「右シャッタフレーム」を表示する。1つのビデオフレーム中に、1つの左シャッタフレームと1つの右シャッタフレームとから成る1サイクルが含まれる。「左シャッタフレーム」が表示されているとき、シャッタメガネの右レンズのシャッタが閉まり、視聴者には左眼のみを通じて画面が見える。「右シャッタフレーム」が表示されているとき、シャッタメガネの左レンズのシャッタが閉まり、視聴者には右眼のみを通じて画面が見える。したがって、左シャッタフレームおよび右シャッタフレームから成るシーケンスを用いて、ユーザにそれぞれの眼を通じて異なる画像を視認させることができる。
以下では、主にシャッタレンズシステムに関して、方法およびシステムを説明する。しかし、本明細書において開示されるシステムおよび方法は、上記立体ビデオシステムのうちの任意のものを用いて実施することができることを理解されたい。具体的には、全ての立体ビデオシステムが、左眼のみに見える「左フレーム」と、右眼のみに見える右フレームとに関する概念を或る程度含んでいる。
図1は、多数の3Dビデオフレームを有する3Dビデオシーケンス101を示す概略図である。各3Dビデオフレーム103は、1つの左シャッタフレーム102と、1つの右シャッタフレーム104とを有する。図1から分かるように、左シャッタフレームと、右シャッタフレームとは交互に配列されている。
図2は、図1に示される3Dビデオシーケンスを表示するシステムを示す概略図である。
図2は、図1に示す3Dビデオシーケンスが記憶されている3Dビデオソース202に接続されているディスプレイ201、例えば、従来のテレビを示している。3Dビデオソース202に記憶されている3Dビデオシーケンスは、ディスプレイ201に入力され、3Dビデオシーケンスの各3Dビデオフレームが順次、ディスプレイ201に表示される。シャッタメガネ204を装着した視聴者203も示されている。シャッタメガネ204は、左シャッタ204aと、右シャッタ204bとを備える。シャッタメガネ204は、接続部205を介して、3Dビデオソース202からの3Dビデオシーケンスの出力と同期している。接続部205は、いくつかの例では無線接続部であってもよいし、他の例では物理的な接続部であってもよい。シャッタメガネ204は、3Dビデオソース202からの3Dビデオシーケンスの出力と同期しており、ディスプレイ201が左シャッタフレームを表示しているときに、シャッタメガネ204の右シャッタ204bが閉まり、右シャッタ204bに光が実質的に入らないようになっている。この効果として、視聴者203には、左眼でディスプレイ201しか見えなくなる。したがって、3Dビデオシーケンスの左シャッタフレームに示されている第1の画像206が、左眼のみを通じて視聴者に見える。左シャッタフレームが表示された後、3Dビデオシーケンスの後続の右シャッタフレームが表示される。シャッタメガネ204と3Dビデオソース202との同期は、右シャッタフレームが表示されているときに、シャッタメガネ204の左シャッタ204aが閉まることで、視聴者203には、右眼だけを通じてディスプレイ201が見えるように設定されている。右シャッタフレームが表示されているときには、左シャッタフレームに示されている第1の画像206に対応する第2の画像207が表示される。なお、この場合、この第2の画像207は、第1の画像206の位置に関して水平方向に変位している。理解されるように、これらのフレームは、画像206、207が交互に表示されていることを視聴者203が感じ取れない程度の速度で視聴者203に表示される。逆に、視聴者は、2枚の画像206、207を、いくらかの3次元「奥行き」を有する単一の画像として知覚する。これについて、図3を参照してさらに説明する。
図3は、図2に示されるシステムを示す概略図である。図3では、ディスプレイ201上の画像が視聴者203にはどのように見えるのかが示されている。視聴者203は、シャッタメガネ204の左シャッタの一連の開閉動作を介して左眼で第1の画像206を見る。他方、シャッタメガネ204の右シャッタの一連の開閉動作を介して右眼で第2の画像207を見る。人間の脳は、ディスプレイ201のいくらか前方(手前)に3D画像208があると知覚することで、ディスプレイからの情報を受け入れる。このようにディスプレイ201の前方に位置する3D画像は、いわゆる「負の」視差を有する画像である。
理解されるように、この技術は、視聴者に、3D画像が画面の後方(奥)に位置しているような印象を与えるのにも用いることができる。これを図4に示している。図4は、視聴者203が右眼で見ている第1の画像401と、左眼で見ている第2の画像402とを示す概略図である。図4から分かるように、視聴者203には、3D画像403が画面201の後方に位置しているように見える。
[1つの画像平面上で知覚される画像から、第2の異なる(2D等の)画像平面上で知覚される画像へのカットに起因する不快感の低減]
図2〜図4に示したように視聴者に表示されるビデオシーケンスでは、3D画像(すなわち、第1の画像を視聴者の右眼に見せ、水平にずれた第2の画像を左眼に見せることで生成される1枚の画像)の表示から、別の平面上の画像(例えば、視聴者が両眼で見る画面上に表示された2D画像、または異なる3D効果を有する画像)の表示への唐突な3Dビデオシーケンスのカットに起因して問題が生じることがある。この概念を図5および図6を参照して示す。図5は、図2および図3に示したディスプレイ201を上から見た概略図であり、視聴者が3D画像208を知覚するように、それぞれ視聴者の右眼501と左眼502とで視聴される第1の画像206および第2の画像207が示されている。
図6も、図5と同様にディスプレイ201の上面を示しているが、図6には、3Dビデオシーケンスの後続のフレームが示されている。つまり、本例では、3D画像208が、視聴者が両眼で見る2D画像601と置き換えられている。図6と図5とを比較して分かるように、ディスプレイ201の表示が、3D画像208から2D画像601へ突然切り換わると、視聴者は、2D画像601に焦点を合わせるために、両眼の方向を素早く変えなければならない。3Dビデオシーケンスにおいて、3D画像表示と2D画像表示との間(3D画像表示から2D画像表示へ、または、その逆も含む)の急なカットを多数含む場合、視聴者が素早く両眼の向く方向を変えることでかなりの不快感が生じ得る。
図7(A)〜図7(D)は、本発明の一実施形態による、視聴者の不快感を低減する技術を示す概略図である。
図7(A)は、画像平面(201)(例えば、ディスプレイ)上に表示されている3D画像208として視聴者が知覚する一連の3Dビデオシーケンスフレームによって提示される2枚の画像206、207を示す。換言すると、画像206が左シャッタフレームに表示され、画像207が右シャッタフレームに表示される。図7(B)は、3Dビデオ画像208から2D画像601へのカットがある3Dビデオシーケンスの次のビデオフレームを示す。しかし、図7(B)から分かるように、2D画像601の2つのコピー(第1のコピー601aおよび第2のコピー601b)が画面201上に提示される。2次元画像の第1のコピーおよび第2のコピーは、それぞれ、3D画像208を構成する第1の画像206および第2の画像207の位置に対応する位置に位置する。図7(C)は、共に収束する2D画像601aの第1のコピーと、2D画像601bの第2のコピーとを示すビデオシーケンスの次のフレームを示す。図7(D)は、図7(C)に示される3Dビデオシーケンス後のものであり、ここでは、2D画像の第1のコピーおよび第2のコピーが単一の点で収束している単一の2D画像601を表示する画面201上の3Dビデオシーケンスのフレームが示されている。この単一の点は、2D画像が画像平面において視聴者に対して表示されるべき位置に対応する。
それゆえ、短い時間期間を通して、2D画像は、立体的に表示される(したがって、わずかに3D効果を有するであろう)。2D画像が徐々に、単一の点に向かって画面上で収束すると、3D効果が単一の点までの間に、単一の点に向かって、または単一の点において減り、画像は、ほぼ2Dになるか、または完全に2Dになる。実際には、ほぼ(または、実際には完全に)収束するときに、シャッタメガネをオフに切り換えて、両方のメガネレンズを透明にすることが可能である。この時点で、単一の2D画像が表示される。眼の移行が過度に大きくないため、完全な収束が得られる直前に2D画像だけを表示することが可能であろう。
理解されるように、この技術を採用することによって、視聴者が眼の方向を2枚の変位画像から単一の画像へ急にずらすことを余儀なくされる場合に比べて、視聴者の両眼は、2D画像が表示される最終的な点に、よりスムーズに案内される。この技術は、少数の、例えば、12個のフレームにわたって適用することができる。これによって、ディスプレイ201上の単一の点における2D画像の2つのコピーの収束が、視聴者には知覚し難くなる。つまり、視聴者が3D空間において2D画像を知覚することは難しいため、実際には、ユーザが知覚可能なフレームの数は、12より多い可能性が高い。さらに、2Dの単一の点への収束を制御して、視聴者に知覚不可能または知覚可能にすることができる。移行をユーザに知覚可能にすることによって、有用な編集効果が達成される。つまり、3D画像視聴から2D画像視聴へ移行する視聴者の両眼に対する影響を低減する任意の数のフレームにわたって移行を行うことが可能である。したがって、視聴者が知覚不可能な移行の場合、視聴者は、短い時間期間に、2D画像がディスプレイ上に立体的に表示されたことを知覚することはない(したがって、3D効果を有する2D画像を知覚することはない)が、それでも、視聴者の両眼は、ディスプレイ201上の2D画像の位置までスムーズに案内される。
図8は、本技術の一例を示す概略図である。図8も、図2および図3で示したディスプレイ201を示す。図8から分かるように、時点t=0において、視聴者は、画面201の手前に3D画像208を知覚する。時点t=1において、2D画像の2つのコピー801a、801bが、画面201上の、第1の画像206および第2の画像207によって占められていた位置に表示される。これは、2D物体が短期間で3D空間に出現するという効果を有する。時点t=2において、2D画像の2つのコピー801aおよび801bがディスプレイ201上の単一の点に向かって収束していくように見える。これによって、2D物体の位置が画面のより近くに現れる。時点t=3において、単一の2D画像801が、2D画像の2つのコピーが収束する点に表示される。
画像が収束して2D画像になる速度は制御可能である。例えば、移行中の画像の収束は、一定とすることができる(すなわち、2D画像が収束する速度が一定)。代替的に、移行開始時の画像の収束は、移行終了時より速くすることができる(すなわち、移行開始時に2D画像が収束する速度が移行終了時に比べて速い)。逆に、移行終了時の画像の収束を移行開始時より速くしてもよい(すなわち、移行終了時に2D画像が収束する速度が移行開始時に比べて速い)。これは、有用な編集ツールが生成することができるため、特に、移行が知覚可能である場合に有利であり得る。しかし、知覚不可能な移行の場合でも、異なる移行速度とすることで、視聴者の両眼に対する悪影響をさらに低減することが可能である。例えば、視聴者の両眼が最も開散している場合(すなわち、移行開始時)、ゆっくり移行を始めることが有用であり得る。これによって、最も不自然な位置にある視聴者の両眼に対する影響が緩和される。しかし、視聴者の両眼が移行中にあまり開散しなくなる場合、視聴者の両眼に対する影響は小さくなるため、収束速度を上げることができる。
移行の知覚可能性に対する1つの影響としてフレームの数について説明したが、他の影響も存在する。例えば、3D平面から2D平面へ動くときの物体の、知覚される奥行きも、移行の知覚可能性に影響を与える場合がある。
図9は、図7および図8に示した技術を実施するシステムを示す概略図である。図9に示すシステムは、ライブビデオコンテンツまたは録画ビデオコンテンツを編集するのに用いられる当該技術分野に既知のもの等、ビデオ編集ソフトウェア群の一部として実装してもよい。
図9には編集部91が示されており、当該編集部91は、出力ビデオシーケンスを生成するようにビデオの複数の異なるフレームを共に編集する等の従来のビデオ編集機能を実行するとともに、ビデオシーケンスに様々な効果を施す。編集部91は、ユーザがユーザコントローラ95によって制御してもよい。テレビカメラから送られてくるライブフィード、または何らかの形態の記憶媒体から読み出されるビデオシーケンス等のビデオシーケンスソース92が、編集部91に送信される。図9に示す例では、ビデオシーケンスソース92からのビデオシーケンスは、3Dビデオシーケンスとなっている。編集部91はまた、ビデオコンテンツを第2のビデオソース94から受信する。実施例によっては、これは、コンピュータが生成したコンテンツとしてもよく、特に、ビデオシーケンスに挿入されるロゴおよび/または追加情報等の、コンピュータが生成した2Dコンテンツとしてもよい。システムは視差マッピング部93を有し、当該視差マッピング部93には、ビデオシーケンスソース92からの3Dビデオシーケンスも入力される。視差マッピング部93は、3Dビデオシーケンスの左シャッタフレームと右シャッタフレームとを比較して、そこに表示されている画像間の視差を算出する。例えば、図2を参照すると分かるように、3Dビデオシーケンスの左シャッタフレームと右シャッタフレームとは、互いに対して水平方向に変位していることを除いて実質的に同じ画像を表示する。視差マッピング部93は、上記水平変位(すなわち、視差)を検出し、その情報を編集部91に渡す。視差は、左画像および右画像における対応する画素間の差異の画素数である。視差マップを用いることで、カメラパラメータを用いて任意の点の視差を現実空間の或る点にマッピングする奥行きを生成することができる。したがって、視差マッピング部93から提供される視差マッピング情報を用いて、編集部91は、合体して3D画像をなす、左シャッタフレーム内の画像の位置と、右シャッタフレーム内の画像の位置とを把握することができる。視差マッピング情報は、信号の形態で提供される立体メタデータとしてもよい。このマッピング情報は、画像を撮影するカメラによって生成してもよい。立体メタデータは、撮影された画像に関係付けて記憶してもよい。この視差マッピング情報は、上記技術を実行するために、編集部91が、先に表示されている第1の画像の位置と第2の画像の位置とにそれぞれ対応する位置に、2D画像の2つのコピーを挿入することを可能にする。視差マップ生成器の機能は、以下でさらに詳細に説明する。
なお、3D→2D間のカットに言及して説明を行ったが、本発明はこれに限定されない。本発明の実施形態において、本ハンドオーバ技術は、3D〜3D間の移行にも同様に適用可能である。例えば、画面の前方に物体が視覚化される或る3D映像から、物体が画面の後方に視覚化される別の3D映像への画像カットの場合、不快感が残る可能性がある。それゆえ、上記技術は、或る画像平面での視覚化から、別の画像平面での視覚化へ物体が移動するあらゆる状況に有用である。
[2D画像物体挿入]
状況によっては、物体(すなわち、画像物体)の2D映像を3Dビデオシーケンスに挿入することが望ましい場合がある。例えば、モーターレースイベント等の生放送のスポーツイベントを表示する場合、視聴者に、当該モーターレースに関するさらなる情報を提供する目的で、コンピュータが生成したグラフィックを、レーシングカーが映っている3Dビデオ映像に挿入することが望ましい場合がある。係る情報は、キャプションもしくは字幕、または、実際には、図11のような数字(参照符号110)としてもよい。図10に、2D画像を3Dビデオシーケンスに挿入する一例の概略図を示す。
図10から分かるように、第1の画像206は視聴者の左眼に入る一方、第2の画像207は視聴者の右眼に入ることで、3D画像208(本例ではレーシングカーである)が形成される。図10は、コンピュータが生成したグラフィック(例えば、数字)等の2D画像の挿入を示す。この数字は、3D画像に対する補足であり、したがって、第1の画像および第2の画像に対して異なる、画面201上の位置に挿入されるが、第1の画像206および第2の画像207間に2D画像を配置することで、3D画像208の奥行き効果が無くなるおそれがある。これは、図11を参照することによって、より明らかになる。図11は、画面201上で第1の画像206と第2の画像207との間の或る位置に2D画像110を配置することを示す概略図である。視聴者は、両眼で2D画像110を見ることができる。但し、視聴者が画面の前方に3D画像208を知覚する位置の背後に2D画像110を位置決めしても、視聴者にとっては無意味である。
上記問題に達成するために、2D画像を画面上のより適切な位置に挿入する必要がある。具体的には、上記位置は、3D効果の影響を受けないものとする必要があるか、または、3D効果によって視聴者の最も近くに位置するように見える物体の前方(手前)の、画面上の位置に配置する必要がある。このための情報を算出するには、視差マップを用いる。
2D画像を挿入することができるエリアを識別する本技術は、図9に示したシステムによって以下のように実施される。すなわち、当該システムにおいて、視差マッピング部93からの情報を用いて、3Dビデオシーケンスのフレームの、3D画像を作り出す第1の画像および第2の画像の相対的な位置を算出し、かつ、コンピュータが生成した、第2のビデオソース94からの2Dコンテンツを、編集部91を用いて挿入することによって、本技術が実施される。
さらに、ライブコンテンツの場合、前回、画面上または3D空間において「安全」位置であったものが、常に「安全」であるという保証はない。例えば、誰かがカメラの前を歩いたり、カメラに向かって走って来たりする可能性がある。このような場合、物体がグラフィックの前方を動くときに、当該グラフィックを自動的に除去するか、物体によって遮られているグラフィックの一部を除去することが望まれる。前者の場合、本発明の実施形態において算出される視差マップから、このための情報を取得することが可能である。しかし、後者の場合、画素毎に奥行き情報を有する密度の高い視差マップを生成することが必要となる。このようなマップは、当業者なら理解されるように、図12を参照して説明したもの等、任意の既知の技術を用いて生成することができる。
[視差マップ生成]
図12は、3Dビデオシーケンスの左シャッタフレーム141と右シャッタフレーム142とを比較することによって視差マップを生成する従来の技術を示す概略図である。右シャッタフレーム141および左シャッタフレーム142はまず、アライメントされ、画素対画素単位で、各フレームからの各点と、他のフレームからの対応の点とを比較し、フレーム間の画素の水平変位(すなわち、視差)を特定する。次いで、一方のフレームの画素が他方のフレームの画素から水平方向に変位している領域を、グラフィックを用いて示す2次元マップ143に、上記情報をグラフ化することができる。実施例によっては、2次元マップ上の一部のエリアの色を濃くすることで、当該エリアで視差レベルが高いことを示してもよい。
このような従来の技術を用いて、画素対画素単位で、右シャッタフレームの各ライン145と、左シャッタフレームの対応のライン146とを比較することで、当該ライン上の点間の視差を算出する。上記処理は画素対画素単位で行われるため、非常に詳細な視差マップ143が生成されるが、演算量が非常に多く、かなりの時間を要する。3Dビデオシーケンスのフレームを作り出す画像が高解像度画像である場合、視差マップをリアルタイムまたはほぼリアルタイムで生成することは実用的ではないことがある。
図13は、ビデオシーケンスの視差マップを生成する速度および効率を上げる、改善された技術の一例を示す概略図である。
まず、左シャッタフレーム151がエッジ検出処理にかけられる。しかし、左シャッタフレーム151の代わりに、右シャッタフレームを用いてエッジ検出処理を行ってもよい。このエッジ検出処理は、ゾーベルエッジ検出処理等の従来のエッジ検出アルゴリズムを用いることによって行ってもよい。実際には、画像の垂直エッジのみを検出する場合にゾーベルエッジ検出技術を用いることが有用である。実施形態において、水平視差のみを算出するため、垂直エッジを検出する。それゆえ、垂直エッジのみを検出することによって、候補となる主要特徴の数が減り、演算費用が削減される。しかし、本発明はこれに限定されず、任意の方向におけるエッジの検出に、他のエッジ検出処理が想定される。エッジ検出後、左シャッタフレームの検出されたエッジ画素を示すエッジ検出画像153を生成する。図13から分かるように、第1の画像153は、3Dビデオシーケンスの左シャッタフレームにおいて主要な物体157に相当しない余分なエッジ画素155、156を多数含んでいる。
したがって、2段階目のエッジ検出を行い、第1の画像153を複数のより小さい画素ブロック、例えば、8×8画素ブロックまたは16×16画素ブロック(または実際には、任意のサイズの画素ブロック)に分割し、当該ブロックに存在するエッジ画素数を分析する。各ブロックのエッジ画素数が閾値を下回る場合、当該ブロックは、エッジ画素を含んでいないと見なされる。実施形態において、ブロックの閾値は、ブロックの幅および高さと同じである。これは、ブロックと交差する垂直線は少なくとも、そのいくつかの画素を当該ブロック内に有するためである。しかし、本発明はこれに限定されず、例えば、5の任意の閾値が想定される。したがって、視差マップを生成するのに関係のない、背景のフレームの物体に起因して生じる余分なエッジ画素は、排除した方がよい。状況によっては、1つの画素ブロック内に多数のエッジ画素が存在する可能性がある。このため、エッジ画素の最大数(例えば、12)を設定し、1つの画素ブロック内のエッジ画素数が当該最大値を超えた場合に、当該ブロックから所定数(例えば、8)のエッジ画素をランダムに取り出し、これらのエッジ画素を当該ブロックのエッジ画素と見なしてもよい。この方法によって、本技術の速度が上がるため、好都合である。
2段回目のエッジ画素検出後、1つまたは複数の主要特徴を選択する。主要特徴は、画素ブロックにおいて検出されたエッジから取り出される画素である。選択は、実施形態においては、エッジ画素に含まれていると想定されている画素ブロックに含まれるエッジ画素からのランダムな選択であるが、他の非ランダム選択も可能である。代替的に、画素ブロック内の各エッジ画素が、主要特徴であってもよい。各画素ブロックから主要特徴を選択した後、主要特徴が左側シャッタフレームに配置される第2のブロックが生成される。この新たなブロックは、例えば、16画素×16画素であり、主要特徴画素にその中心が置かれる。上記新たなブロックは、任意のサイズとすることができることが想定される。これは、右画像における主要特徴画素を、エッジ検出画素を有する画素ブロックから選択することを意味する。
右シャッタフレーム(左シャッタフレームはエッジ検出処理を施されている)において、探索エリアを算出する。この探索エリアは中心に主要画素を有しており、通常、幅201画素および高さ11画素である。換言すると、右画像における探索エリアの開始点は、左画像における主要特徴の画素位置に位置する。なお、任意のサイズの探索エリアを用いてもよく、また、探索エリアのサイズは、左シャッタフレームと右シャッタフレームとの間において予期される最大水平視差および最大垂直視差によって決まる。幅201画素の探索エリアでは、−100画素〜+100画素の範囲における水平視差が、高さ11画素の探索エリアでは、−5画素〜+5画素の範囲における垂直視差が生じ得る。予期される視差の範囲が既知の場合、探索エリアサイズをそれに応じて調整することが可能である。左シャッタフレームからの16×16ブロックは、16×16ブロックを、従来のブロックマッチング技術を用いて探索エリアにおける各画素位置と比較することによって、右シャッタフレーム内の探索エリアと「マッチング」される。上記比較は、基準ブロック(example block)を探索エリア内の全ての探索ブロックと相関することによって行われる。最も相関関係が高い探索ブロックがベストマッチとされる。垂直視差値および水平視差値は、左シャッタフレーム内の主要特徴画素位置と、右シャッタフレーム内のベストマッチ画素位置とを比較することによって計算される。1つの主要特徴画素に関して探索ブロックを算出した後、全ての主要特徴画素に関して処理を繰り返す。
本技術は、垂直方向に正確にアライメントされていない3Dカメラリグに対してロバストなものであるため、水平視差および垂直視差の両方を計算するのが有用である。さらに、垂直視差を算出することで、このようなエラーを補正することが可能である。
理解されるように、主要特徴を生成するのに視差マッピング処理においてエッジ画素を用いるだけで、付加的な処理を一切行わずに3Dビデオシーケンスの左シャッタフレーム151および右シャッタフレーム152に対して画素対画素単位で視差マップを生成する場合に比べて、視差マップがより一層迅速にかつ効率的に生成される。
本技術は、視差推定値のエラー数が確実に減るようにさらに改善することができる。視差結果の妥当性を認証するために、ブロックマッチングが行われると、右画像上のエッジ検出が行われる。左画像内のエッジの位置が算出されて視差が計算されると、右画像内のいずれの画素位置がエッジ画素であるべきかを識別することが可能である。次いで、右画像内のエッジ画素はどこに位置すべきか(視差が正確である場合)と、エッジ画素が右画像内の当該エッジ画素に位置しているかどうかとに関する比較が行われる。右画像内のベストマッチ画素が右画像のエッジ上にまたは当該エッジの近傍に位置する場合、視差結果の妥当性が認証される。ここで「近傍」という用語は、1個の画素内にあることを意味する。しかし、任意の数の画素が想定されてもよい。
図14は、例えば、図9に示すような視差マッピング部を示す概略図であり、当該視差マッピング部は、図13に示した方法を実施することができる。
図14は、バッファ1602と、エッジ検出部1603と、視差マップ生成器1604とを有する視差マッピング部1601を示す。3Dビデオシーケンスの第1のフレームがバッファ1602に入力され、エッジ検出部1603に渡され、そして、エッジ検出部1603によって、図15に示すエッジ検出処理が施される。次いで、エッジ検出情報が視差マップ生成器1604に渡され、ここで、視差が算出される。視差マップ生成器1604は、視差マップをメタデータとして出力する。
[奥行き量検出]
図3を参照すると理解されるように、3D画像は、ディスプレイの前方(手前)の位置にあるように見えるようにディスプレイ上に配置することができる。さらに、3D画像と画面との距離を長くする、つまり、3D画像と視聴者との距離を短くするためには、3D画像を作り出す2枚の画像間の水平変位(すなわち、視差)は、大きくする必要がある。したがって、3D画像が視聴者の非常に近くにあるような印象を与えるためには、3D画像を作り出す2枚の画像をかなり離間させる必要がある。理解されるように、3D画像を作り出す2枚の画像間の距離が過度に長いと、視聴者に不快感を与えるか、または、或る点を超えると、視聴者が同時に、互いに対して実質的に変位している2枚の画像に両眼を向けることが不可能になるため、3D画像として認識することが不可能になる。それゆえ、「奥行き量」は、3D画像を視聴する視聴者にとって過度に不快感を与えると見なされる前に3D画像が有する最大の負のまたは正の視差を確定するように設定される。3D画像が上記奥行き量を超えるか否かという情報は、3Dビデオシーケンスを編纂する編集者にとって有用なものである。図15(A)および図15(B)は、上記情報を3Dビデオシーケンス編集者に利用可能なものとする技術を示す。
一例では、いずれの3次元画像が所定の奥行き量の近くかまたは当該所定の奥行き量を超える負の視差に位置するかを、視聴者、例えば、3Dビデオ映像を編集中のユーザに明確かつ好都合に示す技術が提供される。図15(A)は、負の視差が非常に大きい第1の画像172aと、負の視差が中程度の第2の画像173aと、負の視差がほとんどない第3の画像174aとを含む3Dビデオシーケンスの或るシーン171aを示す概略図である。
本技術によれば、所定の奥行き量の、または当該所定の奥行き量を超える3Dビデオシーケンスフレームに表示される3D画像が、特に当該3D画像が所定の奥行き量を超えていることを3Dビデオシーケンス編集者に示すように彩色される。図15(B)は、3Dビデオシーケンスの第2のシーン171bを示す概略図であり、ここでは、種々の3D画像が、上記奥行き量に関連して相対的な視差を示すように彩色されている。とりわけ、第1の3D画像172bには、所定の奥行き量を超えていることを示すために黒色が割り当てられている。第2の画像173bは、所定の奥行き量を超えそうであることを示すために灰色になっており、第3の3D画像174bは、所定の奥行き量を超えていないことを示すために白色になっている。
理解されるように、異なる技術を用いて、3D物体があとどれくらいで所定の奥行き量を超えるかを示すことができる。例えば、3D物体が、所定の奥行き量によって許容される最大の正の視差の10%以内にある場合、3D物体は薄い赤色にされる。3D物体が、所定の奥行き量であるかまたは当該所定の奥行き量を超える正の視差にある場合、3D物体は明るい赤色にされる。
図16は、図15(B)に示した技術を実行するシステムを示す概略図である。図16から分かるように、システムは、図9に示したシステムと同じ構成要素を有するため、重複した説明は省略する。図9とは異なり、図16に示すシステムは、上記構成要素に加えて、奥行きマッピング部181と、奥行きパラメータ部182とを有する。
上記のように、視差マッピング部93は、3Dビデオシーケンスの左シャッタフレームの画像と、右シャッタフレームの画像との間の垂直変位を示す視差マップを提供する。視差マップから、正の視差または負の視差が存在するかどうかを判断することができる。これは、奥行きマップが作成されると、左画像の画素が、右画像の同じ画素の左または右に位置するか否かを判断することが可能になるためである。画素が右に位置する場合、負の視差が生じる。逆に、画素が左に位置する場合、正の視差が生じる。したがって、図16のシステムが有する奥行きマッピング部181は、視差マッピング部93から視差マップを取り出し、当該視差マップに、奥行きパラメータ部182によって提供されるこの奥行きパラメータを適用する。奥行きパラメータは、3Dビデオシーケンスからの物体の相対的な奥行きを示す別の情報源となる。奥行きパラメータは、複数の異なる手段によって提供することができる。例えば、3Dビデオシーケンスが従来のテレビカメラによって撮影された場合、特定のフレームの撮影中に用いられたテレビカメラのレンズの焦点距離に関係付けられたメタデータを用いて、対象となっている3D画像の相対的な位置を算出することができる。この情報は、メタデータとして奥行きパラメータ部182に記憶し、適宜、奥行きマッピング部182に供給することができる。別の例では、単純に、観察者が自ら3Dビデオシーケンスを視聴して各3D画像に奥行きを割り当てることによって奥行きパラメータを生成することができる。いずれにせよ、奥行きマッピング部181は、奥行きパラメータ部182が提供する奥行きパラメータと、視差マッピング部93が提供する視差マップとを組み合わせることで、3Dビデオフレーム内の物体の相対的な奥行きを示す完全な奥行きマップを提供する。その後、この情報が編集部91に渡されると、編集部91は、3Dビデオシーケンスに存在する3D画像が所定の奥行き量にあるかまたは当該所定の奥行き量を超えるかを判断し、そうであれば、図15(B)を参照して上述したように何らかの種類のグラフィカルインジケータを関連の3D物体に適用する。単に、視差マップから視差を読み取ることによって、所定の奥行き量を超えているか否かを判断することも可能であることを理解されたい。
[エイリアシング低減技術]
状況によっては、3Dビデオシーケンスの2つのフレームに視差マッピングを実行するとき、視差マッピング処理が左シャッタフレームと右シャッタフレームとの間のエイリアシングによって影響を受ける可能性がある。これを図17に示している。
図17は、テニスコートのシーンを映す3Dビデオシーケンスの右シャッタフレーム192および左シャッタフレーム191の一例を示す概略図である。テニスコートは、テニスネット193a、193bを含む。テニスネット193a、193bは、一定に反復するパターンとしてビデオフレーム191、192に示されるネット材料から成る。
理解されるように、右シャッタフレーム192と左シャッタフレーム191とが視差マッピング中に比較されると、ネットの反復パターンに起因して、視差処理の過程で、右シャッタフレーム192と左シャッタフレーム191との間の水平方向のずれにエイリアシングが生じる場合がある。
図18(A)〜図18(E)は、視差マッピング中にエイリアシングを生じる可能性が高い、コンテンツを含むフレームの部分を識別する技術を示す概略図である。
まず、フレームのうちの一方が、既知の画像自動補正技術を用いて自己相関される。これには、エッジ検出領域の高調波加算(harmonic summation)、またはブロックマッチング確率のコムフィルタリングを用いることができる。
高調波加算の場合、関心領域のエッジ検出が行われる。エッジ検出領域内の走査線毎に、「高調波」構造を識別するように、当該走査線が1倍、2倍または3倍に圧縮された状態で、加算が行われる。この走査線の応答が閾値を上回る場合、これは、高調波として分類され、したがって、エイリアシングが起こる可能性が高い。そこで、この領域は、視差マッピング計算から除外される。
ブロックマッチング確率結果のコムフィルタリングの場合、左シャッタフレーム内の関心領域が、右シャッタフレームの探索エリアに対してブロックマッチングにかけられる。これによって、探索エリアの画素毎に1つの確率値を有する、ブロックマッチング確率行列が生成される。この行列の列は、高調波加算技術の走査線と同じ方法で処理される。反復構造は結果として、行列と交差する一定間隔の点に確率最大値を呈し、これらの確率最大値が検出される。確率行列は「雑音」を有しており、当該確率行列における「雑音」を単に合計することで結果的に誤検出応答を生じ得る。したがって、所与の空間周波数に関連する所与の間隔に離間する数値(teens:歯)を有するコムフィルタを確率行列に適用する。数値間の等間隔点における応答平均から数値での応答を平均化し、減算する。数値間の雑音を減算することによって、これによって、誤検出応答の可能性が低減される。上記処理は、空間周波数の範囲に対応する距離範囲に離間する数値を有するコムフィルタの範囲で繰り返される。周波数の範囲に対する応答範囲を仮定すると、任意の1つの応答が閾値を上回る場合、走査線は高調波として分類される。
上記結果として、図18(A)に示すような出力が生じる。図18(A)は、フレームの幅を交差して取ったグラフの概略図である。ピーク194は、反復パターンを示す、自己相関する映像のエリアを示す。
図18(A)に示すグラフは、半分に縮小され、図18(B)に示すグラフになる。図18(B)に示すグラフは、さらに半分に縮小され、図18(C)に示すグラフになる。図18(C)に示すグラフは、さらに半分に縮小され、図18(D)に示すグラフになる。そして、図18(A)〜図18(D)に示すグラフからのデータが合計されて、図18(E)に示すグラフが生成される。
図18(E)に示すグラフは、処理を受けたフレームの基本反復周波数(すなわち、高調波)に対応するピーク195を有する。ピークが所定の閾値レベルを上回る場合、これは、視差マッピング中に結果としてエイリアシングを生じ得ることをフレーム内の反復パターンが十分に表していることを示す。
ピーク195が閾値レベルを上回るという事実は、例えば、エイリアシングを生成するような、対象フレームの部分が視差マッピングの対象から除外されることを保証することによって、エイリアシングが起こらないということを保証するのに用いることができる。図18(A)〜図18(D)に関して例示された技術を行うシステムを図19に示す。
図19は、図9のシステムと対応するシステムの概略図であるが、図19のシステムは、ビデオシーケンスソース92と視差マッピング部との間に分数調波加算部(sub-harmonic summation unit)210を有する。
分数調波加算部210は、ビデオシーケンスソース92に記憶される3Dビデオシーケンスから左右のシャッタフレーム対の少なくとも一方上に分数調波加算処理を行う。
分数調波加算部210が、対象となっているフレームの基本反復周波数が図18(E)に示したような閾値レベルを上回るピークを生成すると判定した場合、分数調波加算部210は、視差マッピング部93に信号を送信し、エイリアシングが生じる可能性が高いフレームの部分に対して視差マッピングを確実に行わないようにする。
図20は、上述した3D画像から2D画像への画像カットに起因する不快感を低減する技術を実施する方法の一連を示すフローチャートであり、ここでは、3D画像を非3D画像に置き変えることで、ビデオフレームシーケンスにおいて3D画像から非3D画像への画像カットが変更されている。3D画像は、視聴者が左眼で視聴可能なビデオフレームシーケンスの第1の画像と、視聴者が右眼で視聴可能なビデオフレームシーケンスの第2の画像とによって、ビデオシーケンスの画像平面において視聴者によって知覚可能であり、第1の画像および第2の画像が、画像平面において互いに関して変位している。ステップS101において、画像平面における第1の画像の第1の位置を識別する。ステップS102において、画像平面における第2の画像の第2の位置を識別する。3D画像から非3D画像へのカット後、ステップS103において、実質的に第1の位置に非3D画像の第1のコピーをビデオシーケンスの第1の後続のカットフレームに挿入する。ステップS104において、非3D画像の第2のコピーを、実質的にビデオシーケンスの第1の後続のカットフレームの第2の位置に挿入する。非3D画像の第1のコピーと、非3D画像の第2のコピーとを所定の数の後続のフレームの画像平面における位置に挿入する。ここで、位置は、画像平面内で所定の点上に、第1のコピーおよび第2のコピーがスムーズに収束する位置である。

本発明の実施形態において、上述した方法およびシステムの要素は、任意の好適な方法で実装することができることを理解されたい。したがって、従来の均等のデバイスの既存の構成要素への必要な適合を、プロセッサ実施可能指示を有するコンピュータプログラム製品の形態で実施してもよい。この場合、上記プロセッサ実施可能指示は、フロッピーディスク、光ディスク、ハードディスク、PROM、RAM、フラッシュメモリもしくはこれらの任意の組合せ等のデータキャリアまたは他の記憶媒体に記憶されるか、または、イーサネット、無線ネットワーク、インターネット等のネットワークもしくはこれらのネットワークの任意の組合せ等のネットワークまたは他のネットワーク上でデータ信号を介して送信されるか、または、ASIC(特定用途向け集積回路)もしくはFPGA(フィールド・プログラマブル・ゲート・アレイ)としてのハードウェアにおいて、または従来の均等のデバイスを適合する際に用いるのに好適な他の構成可能もしくは特別設計の回路において実現される。
添付の図面を参照して本発明の例示的な実施形態を説明してきたが、本発明は厳格な上記実施形態に限定されず、添付の特許請求の範囲に規定される発明の範囲および精神から逸脱しない範囲で、当業者は種々の変更および変形形態をなすことができることを理解されたい。

Claims (35)

  1. 所定の画面上に表示可能な第1の画像シーケンスと第2の画像シーケンスとの間でフレームの切り替えを行う画像切り替え方法であって、前記第1の画像シーケンスは、前記所定の画面とは異なる第1の画像平面上でユーザに立体的に知覚可能な第1の物体を含み、前記第2の画像シーケンスは、前記第1の画像平面とは異なる第2の画像平面上で知覚可能な第2の物体を含み、前記第1の物体は、第1の画面位置上の第1の画像と、第2の画面位置上の第2の画像とから成り、当該画像切り替え方法は、
    前記第1の画像の前記第1の画面位置と、前記第2の画像の前記第2の画面位置とを識別し、
    切り替え後の前記第2の画像シーケンスの第1のフレームにおいて、前記第1の画面位置に前記第2の物体の第1のコピーを挿入し、前記第2の画面位置に前記第2の物体の第2のコピーを挿入し、
    前記第1のフレームに続く所定数の連続フレームにおいて、前記第2の物体の第1のコピーと、前記第2の物体の第2のコピーとを、前記第1の画面位置および前記第2の画面位置よりも、前記第2の物体を視認するのに必要とされる前記所定の画面上の所定位置に近い位置に挿入することで、前記第2の物体の前記画面位置を変更する
    画像切り替え方法。
  2. 請求項1に記載の画像切り替え方法であって、
    前記所定数の連続フレーム間の前記画面位置の変更の程度は、当該所定数の連続フレームにわたって一定である
    画像切り替え方法。
  3. 請求項1に記載の画像切り替え方法であって、
    前記所定数の連続フレーム間の前記画面位置の変更の程度は、当該所定数の連続フレームにわたって変化する
    画像切り替え方法。
  4. 請求項3に記載の画像切り替え方法であって、
    前記画面位置の前記変更の程度は、前記所定数の連続フレームのうち最後の所定数の連続フレーム中より、最初の所定数の連続フレーム中の方が小さい
    画像切り替え方法。
  5. 請求項1に記載の画像切り替え方法であって、
    前記第2の画像平面は前記所定の画面である
    画像切り替え方法。
  6. 請求項1に記載の画像切り替え方法であって、
    前記第1の画面位置および前記第2の画面位置は、視差マッピング処理によって生成される視差マップを用いて識別される
    画像切り替え方法。
  7. 請求項6に記載の画像切り替え方法であって、
    前記第1の画像シーケンスは、
    前記ユーザの一方の眼によって視認可能な第1の立体画像フレーム群と、
    前記ユーザの他方の眼によって視認可能な第2の立体画像フレーム群とを有し、
    前記視差マップは、
    前記第1の立体画像フレーム群内の第1の画像フレームに第1のエッジ画素検出処理を施して、当該第1の画像フレーム内のエッジを識別し、
    前記検出されたエッジから前記第1の画像フレームの特徴画素を識別し、
    前記特徴画素を有する複数の画素のブロックを生成し、
    前記第1の画像フレームから生成された前記複数の画素のブロックを用いて、前記第2の立体画像フレーム群内の第2の画像フレーム内の、前記画素のブロックに相関する探索領域に対してブロックマッチングを行い、
    前記第2の画像フレームにおける対応する特徴画素から前記第1の画像フレームの前記特徴画素の相対的な変位を識別する
    ことによって生成される
    画像切り替え方法。
  8. 請求項7に記載の画像切り替え方法であって、さらに、
    前記第1の物体の奥行きの所定の奥行きパラメータを、前記視差マップによって識別された前記第1または第2の画面位置と関係付けることによって、前記視差マップから、前記所定の画面と前記第1または第2の画像平面との間の距離に関する指標を提供する奥行きマップを生成するステップを含む
    画像切り替え方法。
  9. 請求項8に記載の画像切り替え方法であって、さらに、
    前記奥行きマップまたは前記視差マップによって示される、前記第1の物体の前記奥行きに基づいて、前記第1の物体を所定のグラフィカルインジケータと関係付けるステップを含む
    画像切り替え方法。
  10. 請求項に記載の画像切り替え方法であって、さらに、
    前記奥行きが所定の視差閾値以上の場合、前記第1の物体を前記グラフィカルインジケータと関係付けるステップを含む
    画像切り替え方法。
  11. 請求項9に記載の画像切り替え方法であって、
    前記グラフィカルインジケータは、前記第1の物体に対する彩色を含む
    画像切り替え方法。
  12. 請求項7に記載の画像切り替え方法であって、さらに、
    前記第2の画像フレームに第2のエッジ画素検出処理を施して、前記第2の画像フレーム内のエッジを識別し、
    前記識別されたエッジと、前記生成された視差マップとから、前記第1の画像フレームにおいて予期されるエッジ画素を算出し、
    前記第1の画像において前記予期されるエッジ画素と、前記算出されたエッジ画素との位置が所定の閾値距離内にあるときに、前記視差マップの妥当性を認証し、当該認証結果に応じて前記ブロックマッチングにおける前記探索領域を変更する
    画像切り替え方法。
  13. 請求項7に記載の画像切り替え方法であって、
    前記第1のエッジ画素検出処理の前に、前記第1の画像フレームおよび前記第2の画像フレームの少なくとも一方の自動相関バージョンに分数調波加算処理を適用することで、前記少なくとも1つの画像フレームにおいて存在する反復パターンの基本周波数の大きさを算出し、
    前記少なくとも1つの画像フレームの前記基本周波数の前記大きさに基づいて、前記第1のエッジ画素検出処理と、前記相対的な変位の識別処理とを実行する
    画像切り替え方法。
  14. 請求項7に記載の画像切り替え方法であって、
    前記視差マップは、前記第1の画像フレーム及び前記第2の画像フレーム間の対応する特徴画素間の垂直変位を含み、
    前記第1のエッジ画素検出処理は、ゾーベルエッジ検出技術を用いる
    画像切り替え方法。
  15. 請求項7に記載の画像切り替え方法であって、
    前記第1のエッジ画素検出処理は、前記第1の画像フレームを複数の画素ブロックにセグメント化し、かつ前記複数の画素ブロックの各画素ブロック内のエッジ数を算出するステップを含み、
    前記エッジ数が閾値を下回る場合、当該画素ブロックはエッジを有しないと見なされる
    画像切り替え方法。
  16. 請求項15に記載の画像切り替え方法であって、
    前記閾値は、前記画素ブロック内の垂直方向の画素数と等しい
    画像切り替え方法。
  17. 請求項15に記載の画像切り替え方法であって、
    前記画素ブロックにおいて検出されたエッジ数が第2の閾値を上回る場合、当該画素ブロックにおける前記エッジ数は、前記第2の閾値と等しく扱われる
    画像切り替え方法。
  18. 所定の画面に表示可能な第1の画像シーケンスと第2の画像シーケンスとの間でフレームの切り替えを行う画像切り替え装置であって、前記第1の画像シーケンスは、前記所定の画面とは異なる第1の画像平面上でユーザに立体的に知覚可能な第1の物体を含み、前記第2の画像シーケンスは、前記第1の画像平面とは異なる第2の画像平面上で知覚可能な第2の物体を含み、前記第1の物体は、第1の画面位置上の第1の画像と、第2の画面位置上の第2の画像とから成り、当該画像切り替え装置は、
    前記第1の画像の前記第1の画面位置と、前記第2の画像の前記第2の画面位置とを識別する識別装置と、
    切り替え後の前記第2の画像シーケンスの第1のフレームにおいて、前記第1の画面位置に前記第2の物体の第1のコピーを挿入し、前記第2の画面位置に前記第2の物体の第2のコピーを挿入するとともに、前記第1のフレームに続く所定数の連続フレームにおいて、前記第2の物体の第1のコピーと、前記第2の物体の第2のコピーとを、前記第1の画面位置および前記第2の画面位置よりも、前記第2の物体を視認するのに必要とされる前記所定の画面上の所定位置に近い位置に挿入することで、前記第2の物体の前記画面位置を変更する挿入装置とを具備する、
    画像切り替え装置。
  19. 請求項18に記載の画像切り替え装置であって、
    前記所定数の連続フレーム間の前記画面位置の変更の程度は、当該所定数の連続フレームにわたって一定である
    画像切り替え装置。
  20. 請求項18に記載の画像切り替え装置であって、
    前記所定数の連続フレーム間の前記画面位置の変更の程度は、当該所定数の連続フレームにわたって変化する
    画像切り替え装置。
  21. 請求項20に記載の画像切り替え装置であって、
    前記画面位置の前記変更の程度は、前記所定数の連続フレームのうち最後の所定数の連続フレーム中より、最初の所定数の連続フレーム中の方が小さい
    画像切り替え装置。
  22. 請求項18に記載の画像切り替え装置であって、
    前記第2の画像平面は前記所定の画面である
    画像切り替え装置。
  23. 請求項18に記載の画像切り替え装置であって、
    前記第1の画面位置および前記第2の画面位置は、視差マッピング処理によって生成される視差マップを用いて識別される
    画像切り替え装置。
  24. 請求項23に記載の画像切り替え装置であって、
    前記第1の画像シーケンスは、
    前記ユーザの一方の眼によって視認可能な第1の立体画像フレーム群と、
    前記ユーザの他方の眼によって視認可能な第2の立体画像フレーム群とを有し、
    当該画像切り替え装置は、
    前記第1の立体画像フレーム群内の第1の画像フレームに第1のエッジ画素検出処理を施して、当該第1の画像フレーム内のエッジを識別し、
    前記検出されたエッジから前記第1の画像フレームの特徴画素を識別し、
    前記特徴画素を有する複数の画素のブロックを生成し、
    前記第1の画像フレームから生成された前記複数の画素のブロックを用いて、前記第2の立体画像フレーム群内の第2の画像フレーム内の、前記画素のブロックに相関する探索領域に対してブロックマッチングを行い、
    前記第2の画像フレームにおける対応する特徴画素から前記第1の画像フレームの前記特徴画素の相対的な変位を識別する
    ことで前記視差マップを生成する視差マップ生成器を有する
    画像切り替え装置。
  25. 請求項24に記載の画像切り替え装置であって、さらに、
    前記第1の物体の奥行きの所定の奥行きパラメータを、前記視差マップによって識別された前記第1または第2の画面位置と関係付けることによって、前記視差マップから、前記所定の画面と前記第1または第2の画像平面との間の距離に関する指標を提供する奥行きマップを生成する奥行きマップ生成器を具備する
    画像切り替え装置。
  26. 請求項25に記載の画像切り替え装置であって、さらに、
    前記奥行きマップまたは前記視差マップによって示される、前記第1の物体の前記奥行きに基づいて、前記第1の物体を所定のグラフィカルインジケータと関係付ける関係付け装置を具備する
    画像切り替え装置。
  27. 請求項26に記載の画像切り替え装置であって、
    前記関係付け装置はさらに、前記奥行きが所定の視差閾値以上の場合、前記第1の物体を前記グラフィカルインジケータと関係付けるように動作可能である
    画像切り替え装置。
  28. 請求項26に記載の画像切り替え装置であって、
    前記グラフィカルインジケータは、前記第1の物体に対する彩色を含む
    画像切り替え装置。
  29. 請求項24に記載の画像切り替え装置であって、
    前記視差マップ生成器はさらに、
    前記第2の画像フレームに第2のエッジ画素検出処理を施して、前記第2の画像フレーム内のエッジを識別し、
    前記識別されたエッジと、前記生成された視差マップとから、前記第1の画像フレームにおいて予期されるエッジ画素を算出し、
    前記第1の画像において前記予期されるエッジ画素と、前記算出されたエッジ画素との位置が所定の閾値距離内にあるときに、前記視差マップの妥当性を認証し、当該認証結果に応じて前記ブロックマッチングにおける前記探索領域を変更するように動作可能である
    画像切り替え装置。
  30. 請求項24に記載の画像切り替え装置であって、
    前記第1のエッジ画素検出処理の前に、前記第1の画像フレームおよび前記第2の画像フレームの少なくとも一方の自動相関バージョンに分数調波加算処理が適用されることで、前記少なくとも1つの画像フレームにおいて存在する反復パターンの基本周波数の大きさが算出され、
    前記少なくとも1つの画像フレームの前記基本周波数の前記大きさに基づいて、前記第1のエッジ画素検出処理と、前記相対的な変位の識別処理とが実行される
    画像切り替え装置。
  31. 請求項24に記載の画像切り替え装置であって、
    前記視差マップは、前記第1の画像フレーム及び前記第2の画像フレーム間の対応する特徴画素間の垂直変位を含み、
    前記第1のエッジ画素検出処理は、ゾーベルエッジ検出技術を用いる
    画像切り替え装置。
  32. 請求項24に記載の画像切り替え装置であって、
    前記第1のエッジ画素検出処理は、前記第1の画像フレームを複数の画素ブロックにセグメント化し、かつ前記複数の画素ブロックの各画素ブロック内のエッジ数を算出する処理を含み、
    前記エッジ数が閾値を下回る場合、当該画素ブロックはエッジを有しないと見なされる
    画像切り替え装置。
  33. 請求項32に記載の画像切り替え装置であって、
    前記閾値は、前記画素ブロック内の垂直方向の画素数と等しい
    画像切り替え装置。
  34. 請求項32に記載の画像切り替え装置であって、
    前記画素ブロックにおいて検出されたエッジ数が第2の閾値を上回る場合、当該画素ブロックにおける前記エッジ数は、前記第2の閾値と等しく扱われる
    画像切り替え装置。
  35. コンピュータに、請求項1に記載の画像切り替え方法の各ステップを実行させるプログラム。
JP2011043110A 2010-02-26 2011-02-28 画像カット方法および画像カット装置 Expired - Fee Related JP5680994B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GB1003291.0 2010-02-26
GB1003291A GB2478157A (en) 2010-02-26 2010-02-26 Method and apparatus for cutting between a first and second image sequence in a stereoscopic video

Publications (3)

Publication Number Publication Date
JP2011182399A JP2011182399A (ja) 2011-09-15
JP2011182399A5 JP2011182399A5 (ja) 2011-10-27
JP5680994B2 true JP5680994B2 (ja) 2015-03-04

Family

ID=42125704

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011043110A Expired - Fee Related JP5680994B2 (ja) 2010-02-26 2011-02-28 画像カット方法および画像カット装置

Country Status (7)

Country Link
US (1) US8736667B2 (ja)
EP (1) EP2362668A2 (ja)
JP (1) JP5680994B2 (ja)
CN (1) CN102170578A (ja)
AU (1) AU2011200146A1 (ja)
BR (1) BRPI1100216A2 (ja)
GB (1) GB2478157A (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101814798B1 (ko) * 2011-01-26 2018-01-04 삼성전자주식회사 입체영상 처리 장치 및 방법
US8654181B2 (en) * 2011-03-28 2014-02-18 Avid Technology, Inc. Methods for detecting, visualizing, and correcting the perceived depth of a multicamera image sequence
KR101773616B1 (ko) * 2011-05-16 2017-09-13 엘지디스플레이 주식회사 영상처리방법과 이를 이용한 입체영상 표시장치
CN102427542B (zh) * 2011-09-28 2014-07-30 深圳超多维光电子有限公司 一种立体图像处理方法、图像处理装置和相应的终端设备
US9402065B2 (en) 2011-09-29 2016-07-26 Qualcomm Incorporated Methods and apparatus for conditional display of a stereoscopic image pair
KR101872864B1 (ko) * 2011-12-19 2018-06-29 엘지전자 주식회사 전자 기기 및 전자 기기의 제어 방법
KR20130079044A (ko) * 2012-01-02 2013-07-10 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
US9324190B2 (en) 2012-02-24 2016-04-26 Matterport, Inc. Capturing and aligning three-dimensional scenes
US10848731B2 (en) 2012-02-24 2020-11-24 Matterport, Inc. Capturing and aligning panoramic image and depth data
US11164394B2 (en) 2012-02-24 2021-11-02 Matterport, Inc. Employing three-dimensional (3D) data predicted from two-dimensional (2D) images using neural networks for 3D modeling applications and other applications
JP5888062B2 (ja) * 2012-03-29 2016-03-16 株式会社Jvcケンウッド 立体画像処理装置および立体画像処理方法
GB2500712A (en) 2012-03-30 2013-10-02 Sony Corp An Apparatus and Method for transmitting a disparity map
US20130265296A1 (en) * 2012-04-05 2013-10-10 Wing-Shun Chan Motion Activated Three Dimensional Effect
KR101392340B1 (ko) * 2012-05-04 2014-05-07 엘지디스플레이 주식회사 입체영상 표시장치와 그 구동방법
US20130321572A1 (en) * 2012-05-31 2013-12-05 Cheng-Tsai Ho Method and apparatus for referring to disparity range setting to separate at least a portion of 3d image data from auxiliary graphical data in disparity domain
JP6034079B2 (ja) * 2012-07-12 2016-11-30 株式会社カプコン コンピュータプログラム及びコンピュータシステム
EP2878125A4 (en) * 2012-07-27 2016-10-12 Hfi Innovation Inc CONSTRAINED DISPARITY VECTOR DERIVATION METHOD IN 3D VIDEO CODING
US9832453B2 (en) * 2012-12-02 2017-11-28 Segoma Ltd. Devices and methods for generating a 3D imaging dataset of an object
CN103246076B (zh) * 2013-04-16 2015-08-05 深圳超多维光电子有限公司 多人观看立体显示装置及立体显示方法
US9762889B2 (en) * 2013-05-08 2017-09-12 Sony Corporation Subtitle detection for stereoscopic video contents
CN105247860B (zh) * 2013-06-05 2017-12-19 索尼公司 图像处理设备及图像处理方法
KR20170053513A (ko) * 2015-11-06 2017-05-16 삼성전자주식회사 복수의 디스플레이들을 포함하는 전자 장치 및 그 동작 방법
KR20170140730A (ko) * 2016-06-13 2017-12-21 삼성전자주식회사 헤드 마운티드 디스플레이 및 그 동작 방법
KR102567947B1 (ko) * 2018-05-03 2023-08-17 한국전자통신연구원 G-code를 이용한 3D 프린팅 관리 방법 및 장치

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4149037B2 (ja) * 1998-06-04 2008-09-10 オリンパス株式会社 映像システム
EP1085769B1 (en) * 1999-09-15 2012-02-01 Sharp Kabushiki Kaisha Stereoscopic image pickup apparatus
CN101841728B (zh) * 2003-04-17 2012-08-08 夏普株式会社 三维图像处理装置
JP4251907B2 (ja) * 2003-04-17 2009-04-08 シャープ株式会社 画像データ作成装置
JP2004356772A (ja) * 2003-05-27 2004-12-16 Sanyo Electric Co Ltd 三次元立体画像表示装置およびコンピュータに三次元立体画像表示機能を付与するプログラム
JP4507843B2 (ja) * 2004-11-12 2010-07-21 株式会社リコー 画像表示装置
KR100793076B1 (ko) * 2005-12-08 2008-01-10 한국전자통신연구원 에지 적응형 스테레오/다시점 영상 정합 장치 및 그 방법
EP1865728B1 (en) * 2006-06-08 2020-02-26 Canon Kabushiki Kaisha Optical system for image projection and image projection apparatus
WO2008061259A2 (en) * 2006-11-17 2008-05-22 Celloptic, Inc. System, apparatus and method for extracting three-dimensional information of an object from received electromagnetic radiation
KR100899422B1 (ko) * 2007-08-06 2009-05-27 삼성모바일디스플레이주식회사 스테레오 매칭 시스템 및 이를 이용한 스테레오 매칭방법
JP4657313B2 (ja) * 2008-03-05 2011-03-23 富士フイルム株式会社 立体画像表示装置および方法並びにプログラム
JP4695664B2 (ja) * 2008-03-26 2011-06-08 富士フイルム株式会社 立体動画像処理装置および方法並びにプログラム
JP5448617B2 (ja) * 2008-08-19 2014-03-19 パナソニック株式会社 距離推定装置、距離推定方法、プログラム、集積回路およびカメラ
US8436893B2 (en) * 2009-07-31 2013-05-07 3Dmedia Corporation Methods, systems, and computer-readable storage media for selecting image capture positions to generate three-dimensional (3D) images
JP5067407B2 (ja) * 2009-09-10 2012-11-07 パナソニック株式会社 表示装置および表示方法
WO2011052389A1 (ja) * 2009-10-30 2011-05-05 富士フイルム株式会社 画像処理装置及び画像処理方法
JP2011172172A (ja) * 2010-02-22 2011-09-01 Sony Corp 立体映像処理装置および方法、並びにプログラム

Also Published As

Publication number Publication date
CN102170578A (zh) 2011-08-31
US8736667B2 (en) 2014-05-27
BRPI1100216A2 (pt) 2012-07-31
GB201003291D0 (en) 2010-04-14
EP2362668A2 (en) 2011-08-31
US20110211042A1 (en) 2011-09-01
AU2011200146A1 (en) 2011-09-15
GB2478157A (en) 2011-08-31
JP2011182399A (ja) 2011-09-15

Similar Documents

Publication Publication Date Title
JP5680994B2 (ja) 画像カット方法および画像カット装置
US8766973B2 (en) Method and system for processing video images
EP3395064B1 (en) Processing a depth map for an image
KR100505334B1 (ko) 운동 시차를 이용한 입체 영상 변환 장치
TWI545934B (zh) 處理輸入三維視訊信號之方法及系統
US8798160B2 (en) Method and apparatus for adjusting parallax in three-dimensional video
US9990738B2 (en) Image processing method and apparatus for determining depth within an image
US20160180514A1 (en) Image processing method and electronic device thereof
WO2013156333A1 (en) Method and device for correcting distortion errors due to accommodation effect in stereoscopic display
EP2512146A1 (en) 3-d video processing device and 3-d video processing method
Tam et al. Stereoscopic image rendering based on depth maps created from blur and edge information
JP2005026756A (ja) 立体画像再現歪み出力装置、立体画像再現歪み出力方法および立体画像再現歪み出力プログラム
KR100439341B1 (ko) 시각 피로 감소를 위한 스테레오 영상의 초점심도 조정장치 및 그 방법
JP2006013851A (ja) 撮像表示装置および撮像表示方法
JP2006267767A (ja) 画像表示装置
KR101192121B1 (ko) 양안시차 및 깊이 정보를 이용한 애너그리프 영상 생성 방법 및 장치
Bouchard et al. Half-occluded regions and detection of pseudoscopy
Chang et al. Ghosting reduction method for color anaglyphs
JP2006140822A (ja) 画像表示装置
KR101894092B1 (ko) 입체영상 자막처리방법과 이를 이용한 자막처리부
Tam et al. Surrogate depth maps for stereoscopic imaging: Different edge types
Cho et al. Depth maps created from blur information using images with focus at near and at far
CA2982015A1 (en) Method and apparatus for depth enhanced imaging
US9609313B2 (en) Enhanced 3D display method and system
JPWO2012039340A1 (ja) 画像処理装置、画像処理方法、およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110823

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131007

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140313

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140408

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140704

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140826

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140903

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150108

R150 Certificate of patent or registration of utility model

Ref document number: 5680994

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees