JP5933931B2 - 設定メニューを表示する方法及び対応するデバイス - Google Patents

設定メニューを表示する方法及び対応するデバイス Download PDF

Info

Publication number
JP5933931B2
JP5933931B2 JP2011103632A JP2011103632A JP5933931B2 JP 5933931 B2 JP5933931 B2 JP 5933931B2 JP 2011103632 A JP2011103632 A JP 2011103632A JP 2011103632 A JP2011103632 A JP 2011103632A JP 5933931 B2 JP5933931 B2 JP 5933931B2
Authority
JP
Japan
Prior art keywords
setting
depth
image
dimensional
graphic element
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011103632A
Other languages
English (en)
Other versions
JP2011239398A5 (ja
JP2011239398A (ja
Inventor
ドイエン ディディエ
ドイエン ディディエ
ティーボー シルヴァン
ティーボー シルヴァン
ボレル ティエリー
ボレル ティエリー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2011239398A publication Critical patent/JP2011239398A/ja
Publication of JP2011239398A5 publication Critical patent/JP2011239398A5/ja
Application granted granted Critical
Publication of JP5933931B2 publication Critical patent/JP5933931B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、画像またはビデオ処理の分野に関し、特に、三次元(3D)画像及び/またはビデオ処理に関する。本発明はまた、画像補間の分野、並びに画像及び/またはビデオの3Dに関連付けられている特性の設定の分野に関する。
従来技術によれば、例えば立体知覚等の、レリーフの知覚の復元のためにビデオ処理において使用される様々な方法がある。立体知覚において、2つの異なったビデオカメラまたは2つの異なったスチールカメラを用いて、互いに横方向にオフセットした異なった2つの視点から、同一の場面の2つの映像が記録される。同一の場面のこれらの2つの映像は、ディスプレイデバイス(例えば、PDP(プラズマディスプレイパネル)タイプのスクリーン、LCD(液晶ディスプレイ)タイプのスクリーン、またはビデオプロジェクタによるスクリーン等)に、時間的に順次的な方式(左画像の後に右画像等)または空間的インタレース方式(左画像線の後に右画像線)で表示され、レリーフの知覚、すなわち奥行き情報が復元される。3D効果の大きさまたは3D画像内のレリーフの知覚は、左画像と右画像とのディスパリティ(disparity)に直接依存している、すなわち、2つの画素、すなわちディスプレイデバイスのレベルにおけるビデオ情報の同一のアイテムを表す、言い換えれば記録された場面の同一の要素を表す左画像の画素及び右画像の画素を離間させる距離(例えば、画素の数で測定され得る)に直接依存している。通常は、フィルムまたはビデオの左画像と右画像とのディスパリティは、ディレクターによって設定されかつ決定され、場面を撮影する左カメラと右カメラとの間の距離に対応する。これらの2つのカメラは、大抵6.5cmの距離で離間されており、この距離は人間の目の間の平均距離に対応している。
平均値に対応する選択された距離でカメラが離間された場合、ディスパリティに適応する必要、すなわち3D効果の大きさに適応する必要が感じられるので、3Dフィルムまたは画像を見る個人の各々は、立体知覚3D画像を形成する左画像と右画像とのディスパリティを個人の視点に適応させて視覚疲労を避けるかまたは軽減することが可能である。さらに、著しい3D効果は、後に3D効果の大きさを調整、すなわち画像の奥行きを設定しようとする観覧者の邪魔をし得る。画像の奥行きを設定可能にするGUI(グラフィックユーザインタフェース)は、特許文献米国特許第US6,727,924号B1(2004年4月27日に特許付与)によって公知になっている。このGUIまたはこの設定メニューは、底部から頂部または頂部から底部に移動する画像前景内を垂直方向に従って移動して、画像奥行きを設定する設定ボタンを含んでいる。奥行き設定が高くされると、設定メニューが画像内にさらに押し込まれ、選択された奥行き設定の強度の表示が観覧者に提供される。しかし、観覧者による奥行きの設定に対応する奥行きに関連する視覚情報は、特に、3D効果の全体の大きさを示すことに関して、すなわち特に選択された最小及び最大奥行き値を示すことに関して完全ではない。
本発明の目的は、従来技術のこれらの欠点の少なくとも1つを克服することである。
さらに具体的に言えば、本発明の目的は、観覧者の設定のグラフィック表示を特に最適化することである。
本発明は、設定メニューを表示する方法に関する。
設定メニューを表示する方法は:
−次元の1つが奥行き方向に従って伸張している三次元グラフィック要素を含む設定メニューを表示するステップと、
−奥行き情報の少なくとも1つのアイテムを表す少なくとも1つの設定をその三次元グラフィック要素上に表示するステップとを含む。
特定の特徴によれば、設定メニューを表示する方法は、その三次元グラフィック要素の少なくとも一部を選択するステップを含み、その選択された三次元グラフィック要素の少なくとも一部は、その少なくとも1つの設定に関連付けられている。
有利な方法において、設定メニューを表示する方法は、奥行きが少なくとも1つの設定に基づいている少なくとも1つの三次元画像を表示するステップを含み、その少なくとも1つの画像の表示は、三次元グラフィック要素の表示における少なくとも1つの設定の適用の後になされる。
有利なことに、設定メニューを表示する方法は、少なくとも1つの三次元画像を表示するステップを含み、その少なくとも1つの三次元画像の奥行きは、少なくとも1つの設定に基づいており、その少なくとも1つの画像を表示するステップは、その少なくとも1つの設定を表示するステップと同時になされる。
特定の特徴によれば、その少なくとも1つの設定は、表示される画像の最小奥行きに対応する奥行き情報の第1のアイテム、及び表示される画像の最大奥行きに対応する奥行き情報の第2のアイテムを表している。
特定の特徴によれば、その少なくとも1つの設定は、表示される画像の平均奥行きに対応する奥行き情報のアイテムを表している。
有利なことに、その方法は、ユーザのジェスチャの解析ステップを含み、その解析の結果が解釈されて少なくとも1つの設定が制御される。
他の特徴によれば、そのユーザのジェスチャの解析は、ユーザの体の2つの決められた部分を離間させている距離の判定ステップを含み、その判定された距離は、少なくとも1つの設定に関連付けられている。
以下の説明を読むことによって、本発明がさらに良く理解され、他の特定の特徴及び利点が明らかになる。説明は、添付の図面を参照して行われる。
従来技術の特定の例に従って、観覧者による奥行き及びパララックス(parallax)知覚を示す図である。 本発明の特定の実施形態に従って、ディスプレイデバイスにおける3D画像内の設定メニューの3Dグラフィック要素を示す図である。 本発明の特定の実施形態に従って、図2の3Dグラフィック要素において表示されるいくつかの設定レベルを示す図である。 本発明の特定の実施形態に従って、図3Aと異なる設定メニューの3Dグラフィック要素のグラフィック表示を示す図である。 本発明の特定の実施形態に従って、ユーザによって選択されたディスパリティ値に従った画像の補間方法を示す図である。 本発明の特定の実施形態に従って、ユーザによって選択されたディスパリティ値に従った画像の補間方法を示す図である。 本発明の特定の実施形態に従って、ユーザによって選択されたディスパリティ値に従った画像の補間方法を示す図である。 本発明の特定の実施形態に従った、本発明の実施例に関するマルチメディア端末の構造を図式的に示す図である。 本発明の2つの特定の実施形態に従って、図5のマルチメディア端末において実装される設定メニューを表示する方法を示す図である。 本発明の2つの特定の実施形態に従って、図5のマルチメディア端末において実装される設定メニューを表示する方法を示す図である。
図1は、観覧者によって知覚される奥行きと、ディスプレイデバイスまたはスクリーン100を見ている観覧者の左目10及び右目11の各々によって視覚されている左画像と右画像との間のパララックス(parallax)効果との間の関係を示している。2つの異なった視点に従って同一の場面の左画像及び右画像(例えば、6.5cmの距離で互いに水平方向にオフセットしている2つのカメラによってキャプチャされている)を時間的に順次的に表示している場合、観覧者は、アクティブ眼鏡(active glasses)を装備し、左目掩蔽及び右目掩蔽が、例えば、LCDまたはプラズマタイプのスクリーン上の右画像及び左画像の表示と各々同調する。この眼鏡のおかげで、観覧者の右目は右画像しか視覚せず、左目は左画像しか視覚しない。空間的にインタレースされた左画像及び右画像の表示の場合、左画像及び右画像の画像線が以下の態様にてディスプレイデバイス上でインタレースされる。すなわち左画像の1つの画像線の後に右画像の1つの画像線(画像線の各々が2つのカメラによって撮影された場面の同一の要素を示す画素を含んでいる)、その後、左画像1つの画像線、さらにその後右画像の1つの画像線が配される等の態様である。インタレースされた画像線の表示の場合、観覧者は、右目に右画像線のみを視覚可能とし、左目に左画像のみを視覚可能とするパッシブ眼鏡を装着する。この場合、右画像線は、第1の方向に従って偏向(polarize)させられ、左画像線は第2の方向に従って偏向させられ、パッシブ眼鏡の左及び右レンズは、左レンズが左画像線に表示される情報を通過させることが可能であり、右レンズが右画像線に表示される情報を通過させることが可能であるように結果として偏向させられている。図1は、観覧者から、さらに具体的には観覧者の右目11及び左目10の視点方向と直行する平面であって左目及び右目を含んでいる平面から距離すなわち奥行きZsの位置にあるディスプレイスクリーンまたはデバイス100を示している。奥行きの基準、すなわちZ=0は、観覧者の目10及び11によって形成される。2つのオブジェクト101及び102は、観覧者の目によって視られ、第1のオブジェクト101はスクリーン1 100の奥行きよりも小さい奥行きZfront(Zfront<Zs)にあり、第2のオブジェクト102はスクリーン100の奥行きよりも大きい奥行きZrear(Zrear>Zs)にある。換言すれば、オブジェクト101は、観覧者によりスクリーン100との関係で前景において視られ、オブジェクト102は、スクリーン100との関係で後景において視られる。スクリーンとの関係で後景において視覚されるオブジェクトに関して、このオブジェクトを表示する左画像の左画素及び右画像の右画素は、観覧者の左目10と右目11を離間させる距離te13よりも小さいディスパリティを有するべきである。すなわち、スクリーン100におけるこのオブジェクトの表示の左画像と右画像との間のX方向の位置の差は、距離te13よりも小さい。左画像及び右画像において同一のオブジェクトを表示する左画素及び右画素のスクリーン上のX方向における位置の差は、左画像と右画像との間のパララックス(視差)のレベルに対応する。スクリーン100に表示されるオブジェクトの観覧者によって知覚される奥行き、観覧者のスクリーン上のパララックス及びスクリーンからの距離の間の関係は、以下の式で表される。
ここで、
Pは知覚される奥行き(メートル単位、m)、
Pは左画像と右画像との間のパララックス、
dは伝達されるディスパリティ情報、
eは眼球間距離(m)、
sは観覧者とスクリーンとの間の距離(m)、
sはスクリーンの幅(m)、
colはディスプレイデバイスの列の数(画素単位)である。
式2は、ディスパリティ(画素単位)をパララックス(メートル単位)に変換可能とする。
図2は、本発明の特定の実施形態による、ディスプレイデバイス2上の3D画像内に挿入されている3D設定メニューの表示を示している。設定メニューは、ユーザインタフェースを介して、ユーザまたは観覧者がオーディオ/ビデオフィルムタイプのマルチメディアドキュメント等のパラメータを設定することを可能にし、設定可能なパラメータは、表示パラメータ(例えば輝度、明度、コントラスト、画像奥行き等)及び/または音声に関するパラメータ(音声ボリューム、バランス、高音域及び低音域等)を含む。例えば、三次元(3D)コンテンツを表示する立体知覚のタイプの画像は、ディスプレイデバイス2(例えば、プラズマもしくはLCDスクリーン、またはビデオプロジェクタによって画像を投影されたスクリーン)上に表示される。画像は、三次元オブジェクト21から27を含み、これらのオブジェクトの各々は、所定の奥行き、すなわちこれらのオブジェクトを見る観覧者からの所定の距離で、画像を見る観覧者によって視覚される。観覧者が見るオブジェクト(1または複数)から観覧者を離間させている距離が長くなるほど、オブジェクト(1または複数)の奥行きが大きくなる。すなわち、オブジェクトの奥行きは、オブジェクトを見る観覧者と相対的に判断される。これらのオブジェクトの一部21、22、24及び27は、スクリーン2の前に、すなわち、スクリーン2から所定の距離だけ前に位置している観覧者に対するスクリーンの奥行きよりも小さい奥行きで視覚される。その一方で、家を表しているオブジェクト26は、スクリーン2の後ろに、すなわち後景に、つまり、スクリーン2の奥行きよりも大きい奥行きで視覚される。木を表しているオブジェクト23は、スクリーンの前景、すなわちスクリーン2から所定の距離のところで画像を見ている観覧者に対してスクリーン2の奥行きと同一の奥行きで視覚される。最後に、道を表しているオブジェクト25は、道を形成している画素の空間的位置によって異なっている奥行きで視覚される。オブジェクト25は、観覧者によって見られている場合、画像の前景から始まり、オブジェクト23のレベルのスクリーンの前景を通って、オブジェクト26のレベルの後景において終わる。三次元で表されているグラフィック要素20も、画像内に挿入される。グラフィック要素20は、画像奥行き、すなわち画像のオブジェクト21から27の奥行きを設定するための設定メニューの一部である。このグラフィック要素20は、奥行き情報のアイテム、例えば奥行き設定のレベルに各々対応している8個の単位グラフィック要素201から208等のいくつかの単位グラフィック要素から構成されている。図2の例において、単位グラフィック要素(すなわち、個別的に選択可能であり、本願の他の部分においてインクリメントと称される)203、204及び205が選択されてグラフィック的に強調、例えばグレーに陰影をつけられる。これらのインクリメント204及び205は、画像の奥行きの設定を表し、観覧者が奥行きの大きさのレンダリング(rendering)の実際のアイデアを持って設定することを可能にする。グラフィック要素20は、画像の奥行きにおいて3Dで表されており、観覧者が、設定メニューの中間段階を介して、特にグラフィック要素20を介して、観覧者がパラメータを設定した設定に対応している奥行きの印象を一見しただけで考慮に入れることを容易にする。8個のインクリメント201から208は、スクリーン2に表示される画像に対して設定可能である奥行きの最大の大きさに有利に対応する。観覧者によって設定される奥行きの特定のパラメータ無しに、3D画像が、初期奥行きレベル(本願の他の部分においてデフォルト設定と称される)、すなわちスクリーン2に提供される奥行きレベル、つまり、画像の記録においてまたはオペレータの撮影後の編集において設定されたパラメータ奥行きレベルでスクリーン2上に表示される。
観覧者によって判定されたコマンドの導入無しには、グラフィック要素20によって表される設定メニューはスクリーン2に表示されない。グラフィック要素20は、ユーザからのコマンドで、例えば、ディスプレイデバイス2のリモートコントロールデバイスの特定にキーを押すことによって、奥行き設定キー(例えば、+及び−タイプ、または↑及び↓もしくは←及び→タイプ)を押すことによって、メニューの選択によって、音声コマンドの発音によって、または観覧者によってなされたジェスチャの検知によって表示がなされ、ジェスチャは、例えば、奥行きセンサを装備してスクリーン2に亘って配されておりスクリーン2の前に位置している観覧者の任意のジェスチャを検出するカメラによって検出される。
観覧者による奥行き設定メニューの表示のコマンドの導入において、グラフィック要素20が表示される。有利なことに、グラフィック要素20は、オブジェクトが存在しない画像部分のレベルにおいて表示される。変形例によれば、グラフィック要素20は、観覧者によって判定されているかまたは観覧者によって事前設定されている画像の部分に表示される。他の変形例において、グラフィック要素は、画像において透明性を有して表示され、画像内に含まれているオブジェクトを完全には覆い隠さない。
設定メニューの最初の表示において、すなわち、奥行きの設定が、スクリーン2において観覧者が見ているビデオに関して観覧者主導で行われていなかった場合、グラフィック要素20は、強調されたデフォルト奥行き設定と共に、すなわち、デフォルト奥行き設定に対応するインクリメント(1または複数)203から205を視覚的に明らかにしつつ表示される。グラフィック的に強調されているインクリメント203から205は、受信されて表示されている画像のコンテンツに適用されている3D効果の大きさを示している。強調されていないインクリメント201、202、206、207及び208は、観覧者が奥行きを変更するために選択可能である画像に使用可能でありかつ可能とする奥行き設定に有利に対応する。第1のインクリメント201は、パラメータを設定可能な奥行きの最小値(観覧者と最も前に見られる画像との間の最小距離に対応する)に対応し、インクリメント208は、画像に関するパラメータを設定可能である最大奥行き値(観覧者と最も後ろに見られる画像のオブジェクトとの間の最大距離に対応する)に対応する。変形例によれば、デフォルト設定は、対応するインクリメントの強調によっては表示されないが、最小及び最大奥行き値には対応する。すなわち、デフォルト設定は、グラフィック要素20のインクリメントのセット201から208に対応する。変形例によれば、観覧者は、例えば、前方に向かう画像の奥行きを抑えて全てのオブジェクトが前景に(すなわち、本質的にスクリーン2の直前に)見られるようにすることによって、または後方に向かう画像の奥行きをオフセットさせて全てのオブジェクトが後景に(すなわち本質的にスクリーン2の背後に)見られるようにすることによっては、3D効果の大きさを減少させることができない、すなわち、スクリーンの奥行きの周辺の画像の奥行きの大きさを減少させることができない。
奥行き設定を変更するために、観覧者は、これらのインクリメントを強調することによって、例えば、色を変更することによって、奥行きに関して行いたい設定に対応するインクリメントを表示する。こうするために、観覧者は、例えば、移動カーソルをインクリメント上で移動させて、特定のコマンドの導入による(例えば、「OK」タイプのキー等の特定のキーを押すことによるか、リモートコントローラによるか、または「OK」動作もしくは単語「選択」等の所定のジェスチャの実行、所定の音声もしくは単語の発声の実行による)所望の設定に対応するインクリメント(1または複数)を選択する。有利なことには、画像の奥行きの設定は、奥行きに関する画像のパラメータを動的に変更し、観覧者は、スクリーン2に表示される画像における自身の奥行き設定の効果を即座に見る。画像は、画像に関連付けられたディスパリティ情報から補間される画像の生成によって、奥行き設定に従って変更される。新しい補間画像の生成は、図4Aから図4Cに関してさらに詳細に説明される。観覧者によって実行される奥行きの設定は、メモリ内に保存され、観覧者が再度奥行き設定を変更したい場合に表示されるのがこの設定である。
変形例によれば、奥行きの設定は、画像に適用される前に最初に設定メニューの表示に適用される。すなわち、その奥行きに関連する新しい設定を伴う画像の表示は、その奥行きに関する新しい設定を考慮した設定メニューの表示に続く。この変形例によれば、ユーザは、画像に設定を適用する前に、設定メニューのグラフィック要素において奥行き設定の影響を実際に事前に見ることができる。すなわち、目で見て、設定がユーザの狙いに対応していなければ、画像にその設定を適用する前にユーザが設定を変更することができる。
図3Aは、本発明の3つの実施形態によるグラフィック要素20に表示されるいくつかの設定レベルを示している。図3Aに示されている例において、グラフィック要素3a、3b、及び3c(図2のグラフィック要素20に対応する)は、要素部分31aから39a、31bから39b、及び31cから39cによって各々構成される三次元目盛り(scale)の形式を有しており、その要素部分は、本願の他の部分においてインクリメントとも称される。グラフィック要素3aによって示される例において、単一のインクリメント38aが選択されている。この場合、この関連する奥行き設定は、3D効果の限定された大きさ(観覧者に最も近いオブジェクトと、そのオブジェクトよりも観覧者からさらに遠いオブジェクトとの間の奥行きが僅かな差であり、最小奥行き値と最大奥行き値が互いに近似しており、例えば、最初の3Dの大きさの1/9)に対応している。インクリメント35aがスクリーン前景の奥行きに近づく奥行きレベルに対応することを考えると、インクリメント38aに対応する設定は、観覧者から見てスクリーンの後ろに行くようにオブジェクトを移動させる、すなわち、オブジェクトの奥行き値がスクリーンの奥行き値よりも大きくなる。
グラフィック要素3bによって示される例において、3つのインクリメント34b、35b及び36bが選択されている。この場合、関連する奥行き設定は、3つのインクリメントが選択されているので、要素3aに関して示された設定に対応する量よりも大きな量に対応する。この例によれば、3D効果は、スクリーンの奥行きの周辺に広がり(インクリメント35bに対応すると仮定する)、画像の奥行きの大きさは、スクリーンの前景の奥行きの周辺を中心にしている。奥行きの最小値は、インクリメント34bに対応し、オブジェクトをスクリーンの前に見ることを可能にし(すなわち、スクリーンの奥行き値よりも小さい奥行き値を有し)、奥行きの最大値は、インクリメント36bに対応し、オブジェクトをスクリーンの後ろにすることを可能にする(すなわち、スクリーンの奥行き値よりも大きな奥行き値を有する)。グラフィック要素3bが全体として画像のデフォルト設定に対応し、インクリメント31bが最小のデフォルト奥行き値に対応し、インクリメント39bが画像の最大のデフォルト値に対応すると仮定した場合、このような設定は、スクリーン前景周辺を中心とする3D効果の大きさの減少に対応する。
グラフィック要素3cによって示される例において、6つのインクリメント31cから36cが選択されている。この場合、6つのインクリメントが選択されているので、関連する奥行き設定は、要素3a及び3bにおいて示されている設定に対応する大きさよりも大きな大きさに対応している。この例によれば、3D効果は、全体的にスクリーンの前にあり(引き続き、スクリーン奥行きがインクリメント35cに対応すると仮定する)、画像の奥行き大きさは、本質的にスクリーン前景の前方に向けられている。奥行きの最小値は、インクリメント31cに対応し、オブジェクトをスクリーンの前方に見ることを可能にし(すなわち、スクリーンの奥行き値よりも小さい奥行き値を有し)、奥行き値の最大値は、インクリメント36cに対応し、オブジェクトをスクリーンの僅かに後ろに見ることを可能とする(すなわち、スクリーンの奥行き値よりも大きな奥行き値を有する)。グラフィック要素3cが全体として画像のデフォルト設定に対応し、インクリメント31cが最小のデフォルトの奥行き値に対応し、インクリメント39cが画像の最大のデフォルトの奥行き値に対応すると仮定すると、このような設定は、3D効果の大きさの僅かな低減に対応し、スクリーンの後ろにおける効果は、デフォルトの設定よりも重要ではなくなり(インクリメント37cから39cが選択されていない)、一方でスクリーンの前方の効果は、デフォルトの設定と対応している(インクリメントのセット31cから35cが選択されている)。
スクリーンの奥行きがグラフィック要素3a、3b及び3cの各々のインクリメント31a、31b及び31cの奥行きのレベルに対応すると考える場合、可能な設定は、オブジェクトをスクリーンの後景に移動させるか、またはオブジェクトをスクリーンの前景に維持することを可能にするのみである。反対に、スクリーン奥行きが、グラフィック要素3a、3b及び3cの各々のインクリメント39a、39b及び39cの奥行きのレベルに対応すると考える場合、可能な設定は、オブジェクトをスクリーンの前景、すなわち、スクリーンの前景かまたはスクリーンの前方に移動させることを可能にするのみである。
図3Bは、本発明の特定の実施形態による設定メニューの3Dグラフィック要素のグラフィック表示を示しており、一般形態が図3Aの形式と異なっている。図3Bの例において、奥行き設定グラフィック要素は、左に向かっている奥行きZの方向に伸張している三次元内の5個の矩形平行六面体31dから35dを含んでいる。平行六面体31dから35dの各々は、グラフィック要素3dの一部に対応しており、各々の部分が所定の奥行き設定に関連付けられている。
本質的に、グラフィック要素の形式は、図3A及び3Bに関して説明されている形式、すなわち、3Dラダー形式または一連の3D平行六面体に限定されず、また任意の三次元幾何学図形形式、例えば三次元円板によって表される要素部分に分割されている三次元円柱、または、例えば、三次元球体スライスによって表される要素部分に分割されている球等に拡張可能である。同様に、グラフィック要素の選択された要素部分(1または複数)の表示は、他の非選択部分の色変化に限定されず、例えば、選択された部分の質感の変更による、非選択部分を透明にすることによる、または選択された部分にレリーフを入れることによる公知の強調方法に拡張可能である。
図4Aから図4Cは、本発明の特定の実施形態による、ユーザによって選択されたディスパリティ値に従った画像の補間の方法を示している。ディスパリティマップを用いた画像補間は、画像間の画素のディスパリティを考慮した1またはいくつかの参照画像からの中間画像の補間である。実際、図1に関して上述したように、スクリーン2に表示される立体画像は、左画像及び右画像の組み合わせによって得られ、左画像及び右画像は同一の場面を表しているが2つの異なった視点を有している。この結果、左画像及び右画像で視覚される同一のオブジェクトは、これらの画像の各々において現れるが、画像の各々において異なった空間的位置を有している。キャプチャされたオブジェクトは、右画像において所定のx位置に現れ、同一の画像が左画像において数画素移動したx位置に現れる。この空間的移動は、右画像及び左画像の組み合わせの結果生ずる立体画像のディスパリティに対応し、画像の組み合わせが人間の脳によってなされてレリーフが知覚可能になる。従って、右基準画像及び左基準画像のペアのうちの左基準画像から(または右基準画像から)開始して、変更されたディスパリティを伴う補間によって新しい左画像(新しい右画像の各々)の生成を可能とする。基準画像(基準画像の各々)と新しく生成された左画像(または新しく生成された右画像の各々)の組み合わせは、結果として生成される立体画像を結果として変更されている奥行き情報(ディスパリティに関連付けられている)と共に取得することを可能にする。
画像補間は、左基準画像と右基準画像とを結び付けるディスパリティベクトルに沿って補間画像上に基準画像(左または右)を投影することを必要とする。図4Aは、例えば、立体画像の左画像及び右画像に対応する2つの基準画像J40及びK41、並びに2つの画像J40とK41との間に位置している補間画像H40iを示している。画像J40の画素u401の補間によって画像H40iの補間画素u′401iを得るために、画像J40の完全なディスパリティマップを画像H40i上に投影して、画像H40iの画素にディスパリティ値を割り当てることによって、補間画像H40iのディスパリティマップを計算することが必要である。このディスパリティマップの計算は、画像J40の全画素数以下の、画像J40を表す多数の画素に関して行われる。画像Jの画素u401は、ディスパリティ値disp(u)を有している。画像K内の対応する画素411は、u−disp(u)によって定義され、同一の画像線上に配される(垂直変位が存在しない)。画像H内の対応する画素は、u−a.disp(u)によって定義され、スケール因子(scale factor)aは、基線JHとJKとの間の比(画像J、H及びKが位置合わせされているときに得られる)である。因子aは、0と1との間に有利に含まれる。図4Bは、補間画像Hを得るための画像Jのディスパリティ補償補間をさらに正確に示している。補間画像Hのu′及びv′は、画像Jの画素u401及びvから、ディスパリティ値u及びv、disp(u)及びdisp(v)の各々を用いて各々予測される。ディスパリティベクトルに沿った画像Jの画素u及びvの投影によって得られた画像Hの点u′及びv′は、位置u′=u−a.disp(u)及びv′=v−a.disp(v)に各々配される。その後、ディスパリティ値は、画像H内のu′及びv′に最も近い画素、すなわちuH401i及びvHに各々割り当てられる。JのディスパリティマップをH上へ投影すると、ホールが形成される。実際、補間画像Hのいくつかの画素は、図4Bの画素405の場合のようにどのディスパリティ値も割り当てられず、ディスパリティベクトルに沿った画像Jの画素の画像H上への投影は、この画素には発生しない。この現象は、例えば、画像Jの一方の画素から他方の画素へのディスパリティの変化が著しい場合に発生する。従って、例えば、空間的補間によって、画像の再構築されたディスパリティマップ内のホールを埋めることが必要である。このことについて3つ事例が示される。第1の事例において、ホールは1画素未満のサイズを有しており、これらのホールは同一画像線上でホールを囲んでいる画素のディスパリティ値を平均化することによって埋められる。変形例によれば、ホールはその画像線上の最も近接した画素のディスパリティ値を使用して埋められる。第2の事例において、隔離画素、すなわちディスパリティ値を持たない画素によって囲まれたディスパリティを有する画素が除去される、すなわちこれらの画素に割り当てられたディスパリティ値が考慮から外される。実際には、これらの画素に割り当てられたディスパリティは、隣接した画素のディスパリティ値に対してはコヒーレント(coherent)ではなく、ディスプレイ内で視覚的欠陥を生成し得る。第3の事例において、ホールは1画素よりも大きいサイズである。この第3の事例において、これらのホールは閉塞(すなわち、画像Hの画素が、画像Kの対応する画素によって隠されている)及びこのホールの画素のディスパリティに対応し、これらに割り当てられるディスパリティ値は、背景ディスパリティ値であると考えられる。
ディスパリティマップが、補間画像H40iに対して一度取得されると、画像間補間((すなわち、画像JとKとの間)がディスパリティベクトルに沿って行われ、グレイレベル値が取得されて、補間画像H40iの画素に割り当てられる。2つのディスパリティベクトルタイプが識別可能である。
−画像Jのディスパリティマップの投影によって定義されるベクトル:補間画像の画素に割り当てられるグレイレベルが、一方が画像Jに属し、他方が画像Kに属しているベクトルの2つの先端点のグレイレベルから計算される。
−空間的に補間されている(すなわち、上述のように埋められたホールに対して)ベクトル:補間画像Hに対応する画素が、画像J内で閉塞させられていると仮定する。従って、これらの画素は、画像Kの画素から補間され、これらの画素に割り当てられるグレイレベルが、画像Kに属しているベクトルの先端点のグレイレベルから計算される。
図4Cは、2つの受信参照画像からいくつかの画像を補間する例を示している。図4Cの例によると、6個の画像4011から4016が、ディスパリティ補償補間によって、参照画像401及び411の少なくとも1つから取得される。この例によると、スケール因子が0と1との間に含まれている。すなわち、全ての補間画像4011から4016が基準画像401と411との間に含まれている。この例によると、3D効果の最大の大きさは、基準画像401及び基準画像411を組み合わせることによって取得され、基準画像401または411を補間画像4011から4016と組み合わせることによって得られた3D効果の大きさは、補間画像が基準画像に近接しているほど小さくなる。最も小さい大きさを有する3D効果は、画像401と4011とを組み合わせることによって、または画像411と4016とを組み合わせることによって得られる。
本質的に、本発明は、参照画像の少なくとも1つからの6個の画像の補間に限定されず、x個の画像、例えば、7、10、20、50、100、またはそれよりも多くの画像の補間にも拡張される。さらに、本発明は、元々の3D効果の大きさよりも小さい大きさの3D効果を生成するための画像の補間(すなわち、スケール因子が1未満)に限定されず、基準画像の組み合わせによって得られた3D効果の大きさよりも大きい大きさの3D効果を取得するための画像の補間(すなわち、スケール因子が1よりも大きい)に拡張可能である。
図5は、本発明の特定の実施形態による、本発明の実装のためのマルチメディア端末5の構造を図式的に示す。端末5は、ディスプレイデバイス501を備えている。端末5は、プログラムメモリに接続されている中央演算ユニット502、及び高ビットレートデジタルネットワーク510と通信して、オーディオ/ビデオデータの伝送を可能にするためのインタフェース508を含んでいる。このネットワークは、例えばIEEE1394規準に準拠しているネットワーク等である。端末5は、リモートコントローラ511から信号を受信するための赤外線信号受信機503、データベースの記憶のためのメモリ507、及びディスプレイデバイス501に伝送される音声映像信号の生成のためのオーディオ/ビデオデコーディングロジック509も含んでいる。リモートコントローラ511は、指示キー↑、↓、→、及び←、数字キーパッド、並びに「OK」キーを備えている。モーションセンサを備えている回転タイプのリモートコントローラも使用され得る。
端末は、スクリーン上にOSD(オンスクリーンディスプレイ)回路とも称されるデータ表示回路506も含む。OSD回路506は、メニュー、ピクトグラム(例えば、表示されているチャンネルに対応する数字)のオンスクリーン表示を可能にし、かつ本発明による指示メニューを表示可能である、テキスト及びグラフィック生成器である。OSD回路は、中央演算ユニット502及びグラフィック要素20の表示信号を生成するように設計されたモジュールから情報を受信する。
端末5が再生可能なマルチメディアドキュメントは、音声映像ドキュメント、音声ドキュメント、または写真である。
変形例によれば、リモートコントローラ511は、観覧者のジェスチャを検知可能なデバイスに置換される。その後、このジェスチャは、端末5の専用かまたは専用でないモジュールによって、解析されて設定メニューのグラフィック要素における指示コマンドに解釈される。他の変形例によれば、リモートコントローラは、音声コマンドを登録可能なマイクロタイプのデバイスで置換されてもよい。その後、音声コマンドを含む音は、端末5の専用かまたは専用でないモジュールによって、解析されて設定メニューのグラフィック要素における指示コマンドに解釈される。
図6は、本発明の第1の非限定的な特定の有利な実施形態による、マルチメディア端末5に実装される設定メニューの表示の方法を示す。
開始ステップ60の間に、端末の様々なパラメータが更新される。
その後、ステップ61の間に、3つの空間的次元を有しているグラフィックメニューを含む設定メニューが、ディスプレイスクリーンタイプ(例えば、LCDまたはプラズマ)または投影スクリーンタイプのディスプレイデバイス上に表示される。設定メニューは、ディスプレイデバイス上に表示される3Dビデオコンテンツまたは3D画像内に挿入される。グラフィック要素の空間的次元の1つは、奥行き方向、有利にはディスプレイデバイス上に表示されている3Dビデオコンテンツまたは3D画像の奥行き方向に伸張している。有利なことに、設定メニューは、例えばリモートコントローラ、音声認識デバイスまたはジェスチャ認識デバイス等のコマンド導入デバイスによるユーザ入力の第1のコマンドにおいて表示される。グラフィック要素の表示において、第1のタイムアウト(例えば1、2、3、4または5秒等の期間)が開始され、ユーザ操作が検出されなかった場合、そのタイムアウトの最後にグラフィック要素の表示が解除される。
その後、ステップ62の間、奥行き情報の少なくとも1つのアイテムを表す設定が、グラフィック要素上に表示される。有利なことに、設定は、表示されている3D画像内に含まれているオブジェクトの奥行き最小値及び奥行き最大値を表す。変形例において、設定は、3D画像のオブジェクトの平均奥行きを表す。有利なことに、設定の表示は、コマンド導入デバイスによる第2のユーザコマンド入力によって開始される。設定の表示において、第2のタイムアウト(例えば、1、2、3、4または5秒の期間)が開始され、ユーザ操作が検出されなかった場合、そのタイムアウトの最後にグラフィック要素の表示が解除される。設定が観覧者(またはユーザ)によって変更されていない場合にパラメータがデフォルトによりで設定されたため、設定は、3Dビデオコンテンツ(または3D画像)の3D効果の大きさを表すのが有利である。命令の入力によって、観覧者は、3D画像の奥行きの設定を変更し、奥行き設定になされた変更は、設定メニューのグラフィック要素において表示する。第2のタイムアウトの経過までに、ユーザコマンドが検出されなかった場合、設定メニューの設定及びグラフィック要素はスクリーンから消滅する。設定メニューを再度出現させるために、観覧者が新しい第1のコマンドを入力する。変形例によれば、設定メニューの表示は、第2のユーザコマンドによって命令される。
図7は、本発明の第2の非限定的な特定の有利な実施形態による、マルチメディア端末5に実装される設定メニューの表示の方法を示す。
開始ステップ70の間、端末の様々なパラメータが更新される。
その後、ステップ71の間、設定メニューがディスプレイデバイスに表示される。このステップ71は、図6に関して説明されたステップ61と同一であるので本明細書においてさらには説明されない。
その後、ステップ72の間、ユーザ(または観覧者)は、特定のジェスチャを行って、ユーザが見ている3Dビデオコンテンツまたは3D画像の奥行きの設定を命令する。このジェスチャは、例えば、奥行き検出器を装備しているカメラによってキャプチャされ、そのカメラによって記録された情報は、マルチメディア端末に専用のまたは専用でないモジュールによって解析されて、見ている3D画像の奥行きの設定を命令するために解釈される。ジェスチャは、例えば、ユーザの2つの手の間の距離に対応する。移動が終了すると、2つの手を離間させている距離がマルチメディア端末のカメラ及びモジュールによって判定されて、2つの手を離間させている距離が、ユーザによって望まれている3D効果の大きさに対応すると解釈される。変形例によれば、ユーザによって行われるジェスチャは、右手に向かった左手(または右から左に向かった)のスイープ動作(sweeping)に対応し、このジェスチャは、カーソルの移動のコマンドとしてマルチメディアモジュールによって解釈され、カーソルが一方の奥行き設定レベルから他方の奥行き設定レベルまで設定メニューのグラフィック要素上を移動する。
その後、ステップ73において、コマンドがユーザによって入力され、グラフィック要素の1または複数の部分が選択される。各々の部分は特定の設定レベルに関連付けられている、すなわち、奥行き設定レベルに対応している。ユーザコマンドがユーザジェスチャに対応している場合、部分、すなわち設定レベルの選択が特定のジェスチャ、例えば、手の一方を上から下に動かすジェスチャによって命令される。変形例において、1またはいくつかの設定レベルが、他の任意の命令手段、リモートコントローラのキー(例えば、「OK」キー)を押すこと、または音声コード(例えば、単語「選択」)の発声によって命令される。いくつかの設定レベルの選択は、所望の3D効果の大きさの設定、すなわち、ユーザが見た場合の奥行きの差または前景のオブジェクトと後景のオブジェクトとの間の距離に有利に関連付けられている。換言すれば、いくつかのレベルの選択は、3D画像の最小奥行きに対応する奥行き情報の第1のアイテムを表す第1の設定、及び3D画像の最大奥行きに対応する奥行き情報の第2のアイテムを表す第2の設定に対応し、最大の奥行きと最小の奥行きとの間の差は、ディスプレイデバイスに表示される3D画像の3D効果の大きさに対応する。
最後に、ステップ74の間に、ユーザによって命令されたグラフィック要素の1または複数の部分の設定が、図6に関するステップ62において説明されたように表示される。有利なことに、ユーザによって奥行き設定が行われる3D画像は、ユーザによって命令された設定に従って変更されたコンテンツを予測する。ユーザの設定が適用されるオリジナルの3D画像のコンテンツに対応する新しい3D画像は、その後、グラフィック要素における設定の表示と同時に表示される。新しい3D画像の生成は、立体知覚による3D画像を生成する左画像及び右画像の少なくとも1つからディスパリティ補償補間によって有利に取得され、補間された画像は、立体知覚による新しい3D画像の生成のために参照画像の1つと置換される。
本質的に、本発明は上述の実施形態に限定されない。
特に、本発明は、設定メニューの表示方法に限定されず、その方法を実装するマルチメディア端末、及びその表示方法を実装するマルチメディア端末を含むディスプレイデバイスにまでおよぶ。本発明は、3Dマルチメディアコンテンツ内の設定メニューのPIP(picture in picture)表示を含む画像処理方法にも関している。
本発明の好ましい実施形態を以下に示す。
付記1.設定メニューを表示する方法であって、
次元の1つが奥行き方向(z)に従って伸張する三次元グラフィック要素(20)を備える前記設定メニューを表示するステップ(61、71)と、
奥行き情報の少なくとも1つのアイテムを表す少なくとも1つの設定(203、204、205)を入力するステップであって、前記少なくとも1つの設定が、前記奥行き方向(z)に従って前記三次元グラフィック要素(20)を表示することに適用される、ステップと
を含むことを特徴とする方法。
付記2.前記三次元グラフィック要素(20)の少なくとも一部を選択するステップであって、前記少なくとも1つの選択部分(203、204、205)が前記少なくとも1つの設定に関連付けられている、ステップを含むことを特徴とする付記1に記載の方法。
付記3.前記奥行きが前記少なくとも1つの設定に依存する少なくとも1つの三次元画像を表示するステップであって、前記少なくとも1つの三次元画像の表示は、前記三次元グラフィック要素(20)の表示における前記少なくとも1つの設定(203、204、205)の適用の後でなされる、ステップを含むこと特徴とする付記1または2に記載の方法。
付記4.前記奥行きが前記少なくとも1つの設定に依存する少なくとも1つの三次元画像を表示するステップであって、前記少なくとも1つの三次元画像の表示は、前記三次元グラフィック要素(20)の表示における前記少なくとも1つの設定(203、204、205)の適用と同時になされる、ステップを含むこと特徴とする付記1または2に記載の方法。
付記5.前記少なくとも1つの設定が、前記表示される画像の最小奥行きに対応する奥行き情報の第1のアイテムと、前記表示される画像の最大奥行きに対応する奥行き情報の第2のアイテムとを表すことを特徴とする付記1から4のいずれか1に記載の方法。
付記6.前記少なくとも1つの設定が、表示される画像の平均奥行きに対応する奥行き情報のアイテムを表すことを特徴とする付記1から4のいずれか1に記載の方法。
付記7.ユーザジェスチャを解析するステップ(72)を含み、前記ユーザジェスチャの解析をすることの結果が解釈されて前記少なくとも1つの設定が制御されることを特徴とする付記1から6のいずれか1に記載の方法。
付記8.前記ユーザジェスチャの解析が、ユーザの体の2つの決められた部分を離間させている距離を判定するステップを含み、前記判定された距離が前記少なくとも1つの設定に関連付けられていることを特徴とする付記7に記載の方法。

Claims (9)

  1. 設定メニューを表示する方法であって、前記設定メニューは、少なくとも1つの三次元画像の奥行きを設定するために用いられ、前記設定メニューは、三次元グラフィック要素を含み、前記設定メニューの次元のうちの1つは、奥行き方向に従って伸張し、前記方法は、
    記設定メニューを表示するステップと、
    前記奥行き方向に従って前記三次元グラフィック要素の少なくとも一部を選択することにより、前記奥行きを表す少なくとも1つの設定を入力するステップであって、前記選択された少なくとも一部は、前記少なくとも1つの設定に関連付けられ、前記三次元グラフィック要素の前記選択された少なくとも一部は、前記少なくとも1つの三次元画像の表示のために適用されるべき前記少なくとも1つの設定を視覚的に表す、ステップと
    を含む、前記方法。
  2. 前記奥行きが前記少なくとも1つの設定に依存する前記少なくとも1つの三次元画像を表示するステップであって、前記少なくとも1つの三次元画像に対する前記少なくとも1つの設定の適用は、前記三次元グラフィック要素の表示における前記少なくとも1つの設定の適用の後でなされる、ステップを含む、請求項1に記載の方法。
  3. 前記奥行きが前記少なくとも1つの設定に依存する前記少なくとも1つの三次元画像を表示するステップであって、前記少なくとも1つの三次元画像に対する前記少なくとも1つの設定の適用は、前記三次元グラフィック要素の表示における前記少なくとも1つの設定の適用と同時になされる、ステップを含む、請求項1に記載の方法。
  4. 前記少なくとも1つの設定が、表示される画像の最小奥行きに対応する奥行き情報の第1のアイテムと、前記表示される画像の最大奥行きに対応する奥行き情報の第2のアイテムとを表す、請求項1からのいずれかに記載の方法。
  5. 前記少なくとも1つの設定が、表示される画像の平均奥行きに対応する奥行き情報のアイテムを表す、請求項1からのいずれかに記載の方法。
  6. ユーザジェスチャを解析するステップを含み、前記解析すステップの結果が解釈されて前記少なくとも1つの設定が制御される、請求項1からのいずれかに記載の方法。
  7. 前記ユーザジェスチャ解析するステップは、ユーザの体の2つの判定された部分を離間させている距離を判定するステップを含み、前記判定された距離が前記少なくとも1つの設定に関連付けられている、請求項に記載の方法。
  8. 前記三次元グラフィック要素は、前記奥行き方向に従って表示される複数の単位グラフィック要素を含み、前記複数の単位グラフィック要素は、前記少なくとも1つの三次元画像に適した前記奥行きの最大の大きさに対応するように表示され、奥行き情報は、各単位グラフィック要素に関連付けられ、少なくとも1つの単位グラフィック要素は、前記複数の単位グラフィック要素の中から選択され、前記少なくとも1つの選択された単位グラフィック要素は、前記少なくとも1つの三次元画像に適用されるべき少なくとも1つの奥行き情報を表す前記少なくとも1つの設定に関連付けられる、請求項1に記載の方法。
  9. 設定メニューを表示する装置であって、前記設定メニューは、少なくとも1つの三次元画像の奥行きを設定するために用いられ、前記設定メニューは、三次元グラフィック要素を含み、前記設定メニューの次元のうちの1つは、奥行き方向に従って伸張し、前記装置は、
    前記設定メニューを表示するデータ表示回路と、
    前記奥行き方向に従って前記三次元グラフィック要素の少なくとも一部を選択することにより、前記奥行きを表す少なくとも1つの設定を入力する制御回路であって、前記選択された少なくとも一部は、前記少なくとも1つの設定に関連付けられ、前記三次元グラフィック要素の前記選択された少なくとも一部は、前記少なくとも1つの三次元画像の表示のために適用されるべき前記少なくとも1つの設定を視覚的に表す、制御回路と、
    を備えた、前記装置。
JP2011103632A 2010-05-03 2011-05-06 設定メニューを表示する方法及び対応するデバイス Active JP5933931B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1053394 2010-05-03
FR1053394A FR2959576A1 (fr) 2010-05-03 2010-05-03 Procede d’affichage d’un menu de reglage et dispositif correspondant

Publications (3)

Publication Number Publication Date
JP2011239398A JP2011239398A (ja) 2011-11-24
JP2011239398A5 JP2011239398A5 (ja) 2014-06-26
JP5933931B2 true JP5933931B2 (ja) 2016-06-15

Family

ID=43300715

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011103632A Active JP5933931B2 (ja) 2010-05-03 2011-05-06 設定メニューを表示する方法及び対応するデバイス

Country Status (6)

Country Link
US (1) US8694922B2 (ja)
EP (1) EP2385454B1 (ja)
JP (1) JP5933931B2 (ja)
KR (1) KR20110122057A (ja)
CN (1) CN102238408B (ja)
FR (1) FR2959576A1 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8639020B1 (en) 2010-06-16 2014-01-28 Intel Corporation Method and system for modeling subjects from a depth map
US20120293636A1 (en) * 2011-05-19 2012-11-22 Comcast Cable Communications, Llc Automatic 3-Dimensional Z-Axis Settings
JP5926500B2 (ja) * 2011-06-07 2016-05-25 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP6074170B2 (ja) 2011-06-23 2017-02-01 インテル・コーポレーション 近距離動作のトラッキングのシステムおよび方法
US11048333B2 (en) 2011-06-23 2021-06-29 Intel Corporation System and method for close-range movement tracking
US9628843B2 (en) * 2011-11-21 2017-04-18 Microsoft Technology Licensing, Llc Methods for controlling electronic devices using gestures
WO2013081304A1 (ko) * 2011-11-28 2013-06-06 에스케이플래닛 주식회사 2차원 영상을 3차원 영상으로 변환하는 영상 변환 장치, 방법 및 그에 대한 기록매체
WO2013081281A1 (ko) * 2011-11-29 2013-06-06 에스케이플래닛 주식회사 2차원 영상을 3차원 영상으로 변환하는 영상 변환 장치와 방법 및 그에 대한 기록매체
KR101309783B1 (ko) * 2011-12-30 2013-09-23 삼성전자주식회사 디스플레이 장치 및 방법
US8918453B2 (en) * 2012-01-03 2014-12-23 Qualcomm Incorporated Managing data representation for user equipments in a communication session
EP2802476B1 (de) * 2012-01-09 2017-01-11 Audi AG Verfahren und vorrichtung zum erzeugen einer 3d-darstellung einer benutzeroberfläche in einem fahrzeug
US9477303B2 (en) * 2012-04-09 2016-10-25 Intel Corporation System and method for combining three-dimensional tracking with a three-dimensional display for a user interface
JP5953916B2 (ja) * 2012-05-02 2016-07-20 ソニー株式会社 画像処理装置および方法、並びにプログラム
CN102710956B (zh) * 2012-06-04 2014-12-31 天马微电子股份有限公司 一种裸眼立体追踪显示方法及装置
CN103679127B (zh) * 2012-09-24 2017-08-04 株式会社理光 检测道路路面的可行驶区域的方法和装置
US8890812B2 (en) 2012-10-25 2014-11-18 Jds Uniphase Corporation Graphical user interface adjusting to a change of user's disposition
KR20140061098A (ko) * 2012-11-13 2014-05-21 엘지전자 주식회사 영상표시장치, 및 그 동작방법
CN102970498A (zh) * 2012-11-30 2013-03-13 深圳Tcl新技术有限公司 菜单立体显示的显示方法及显示装置
CN104346136B (zh) * 2013-07-24 2019-09-13 腾讯科技(深圳)有限公司 一种图片处理的方法及装置
TWI556622B (zh) * 2013-10-14 2016-11-01 鈺立微電子股份有限公司 快速產生照相機的距離對視差關係表的系統及其相關方法
CN107783704B (zh) * 2017-09-27 2021-07-23 北京小米移动软件有限公司 图片效果的调整方法、装置及终端

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6909443B1 (en) * 1999-04-06 2005-06-21 Microsoft Corporation Method and apparatus for providing a three-dimensional task gallery computer interface
JP2001273503A (ja) * 2000-03-23 2001-10-05 Eiji Kawamura モーション認識システム
JP2001326947A (ja) * 2000-05-12 2001-11-22 Sony Corp 立体画像表示装置
AU774086B2 (en) 2000-05-31 2004-06-17 Canon Kabushiki Kaisha A method for active user feedback
US6727924B1 (en) * 2000-10-17 2004-04-27 Novint Technologies, Inc. Human-computer interface including efficient three-dimensional controls
JP2002175139A (ja) * 2000-12-07 2002-06-21 Sony Corp 情報処理装置、メニュー表示方法及びプログラム格納媒体
GB0105801D0 (en) * 2001-03-09 2001-04-25 Koninkl Philips Electronics Nv Apparatus
US7439975B2 (en) * 2001-09-27 2008-10-21 International Business Machines Corporation Method and system for producing dynamically determined drop shadows in a three-dimensional graphical user interface
JP2004145832A (ja) * 2002-08-29 2004-05-20 Sharp Corp コンテンツ作成装置、コンテンツ編集装置、コンテンツ再生装置、コンテンツ作成方法、コンテンツ編集方法、コンテンツ再生方法、コンテンツ作成プログラム、コンテンツ編集プログラム、および携帯通信端末
JP2005010854A (ja) * 2003-06-16 2005-01-13 Sony Computer Entertainment Inc 情報提示方法および装置
JP2005049668A (ja) * 2003-07-30 2005-02-24 Sharp Corp データ変換装置、表示装置、データ変換方法、プログラム及び記録媒体
US7480873B2 (en) * 2003-09-15 2009-01-20 Sun Microsystems, Inc. Method and apparatus for manipulating two-dimensional windows within a three-dimensional display model
US7755608B2 (en) * 2004-01-23 2010-07-13 Hewlett-Packard Development Company, L.P. Systems and methods of interfacing with a machine
JP4325449B2 (ja) * 2004-03-19 2009-09-02 ソニー株式会社 表示制御装置,表示制御方法,記録媒体
US7441201B1 (en) * 2004-10-19 2008-10-21 Sun Microsystems, Inc. Method for placing graphical user interface components in three dimensions
US7562312B2 (en) * 2006-01-17 2009-07-14 Samsung Electronics Co., Ltd. 3-dimensional graphical user interface
US7712039B2 (en) 2006-03-31 2010-05-04 Microsoft Corporation Setting control using edges of a user interface
JP2008040576A (ja) * 2006-08-02 2008-02-21 Sharp Corp 画像処理システム及び該システムを備えた映像表示装置
US7665033B2 (en) * 2006-08-31 2010-02-16 Sun Microsystems, Inc. Using a zooming effect to provide additional display space for managing applications
US9032336B2 (en) * 2006-09-07 2015-05-12 Osaka Electro-Communication University Gesture input system, method and program
US8037414B2 (en) * 2006-09-14 2011-10-11 Avaya Inc. Audible computer user interface method and apparatus
WO2008035284A2 (en) * 2006-09-19 2008-03-27 Koninklijke Philips Electronics N.V. Image viewing using multiple individual settings
KR101345303B1 (ko) * 2007-03-29 2013-12-27 삼성전자주식회사 스테레오 또는 다시점 영상의 입체감 조정 방법 및 장치
WO2008132724A1 (en) * 2007-04-26 2008-11-06 Mantisvision Ltd. A method and apparatus for three dimensional interaction with autosteroscopic displays
US8381122B2 (en) * 2007-06-08 2013-02-19 Apple Inc. Multi-dimensional application environment
US8279241B2 (en) * 2008-09-09 2012-10-02 Microsoft Corporation Zooming graphical user interface
JP5067407B2 (ja) * 2009-09-10 2012-11-07 パナソニック株式会社 表示装置および表示方法

Also Published As

Publication number Publication date
CN102238408B (zh) 2016-03-02
US8694922B2 (en) 2014-04-08
US20110271235A1 (en) 2011-11-03
JP2011239398A (ja) 2011-11-24
FR2959576A1 (fr) 2011-11-04
EP2385454A1 (en) 2011-11-09
KR20110122057A (ko) 2011-11-09
CN102238408A (zh) 2011-11-09
EP2385454B1 (en) 2018-03-07

Similar Documents

Publication Publication Date Title
JP5933931B2 (ja) 設定メニューを表示する方法及び対応するデバイス
US8605136B2 (en) 2D to 3D user interface content data conversion
EP2448276B1 (en) GUI providing method, and display apparatus and 3D image providing system using the same
US8930838B2 (en) Display apparatus and display method thereof
KR101719980B1 (ko) 3차원 컨텐츠를 출력하는 디스플레이 기기의 영상 처리 방법 및 그 방법을 채용한 디스플레이 기기
TWI528781B (zh) 用以訂製立體內容之三維效果的方法及裝置
NO340415B1 (no) Anordning og program for generering av stereografisk billedfremvisning
RU2598989C2 (ru) Устройство отображения трехмерного изображения и способ отображения для такового
CN103597824A (zh) 图像处理装置及其方法和程序
JP5599063B2 (ja) 表示制御装置、表示制御方法及びプログラム
KR101228916B1 (ko) 멀티 비젼의 3차원 영상 표시 장치 및 방법
KR20150012976A (ko) 다시점 영상 처리 장치 및 그 영상 처리 방법
JP5700998B2 (ja) 立体映像表示装置及びその制御方法
US9253477B2 (en) Display apparatus and method for processing image thereof
US9547933B2 (en) Display apparatus and display method thereof
TWI502960B (zh) 二維轉三維轉換裝置及其方法
JP5501150B2 (ja) 表示装置及びその制御方法
CN106231281A (zh) 一种显示转换方法和装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140507

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140507

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150811

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160506

R150 Certificate of patent or registration of utility model

Ref document number: 5933931

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250