JP2016192773A - 立体視効果の調整用の対話型ユーザインターフェース - Google Patents

立体視効果の調整用の対話型ユーザインターフェース Download PDF

Info

Publication number
JP2016192773A
JP2016192773A JP2016111116A JP2016111116A JP2016192773A JP 2016192773 A JP2016192773 A JP 2016192773A JP 2016111116 A JP2016111116 A JP 2016111116A JP 2016111116 A JP2016111116 A JP 2016111116A JP 2016192773 A JP2016192773 A JP 2016192773A
Authority
JP
Japan
Prior art keywords
images
user
positions
stereoscopic
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016111116A
Other languages
English (en)
Inventor
カリン・エム.・アタナソブ
M Atanassov Kalin
サーギウ・アール.・ゴマ
R Goma Sergiu
ジョセフ・チェウン
Cheung Joseph
ビカス・ラマチャンドラ
Ramachandra Vikas
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2016192773A publication Critical patent/JP2016192773A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】立体視効果を示すために、ユーザの選好を決定するためのシステム、装置、及び方法を提供する。【解決手段】表示装置105の表示器に立体視映像シーケンスを表示しながら、入力部によりユーザ入力を受け取ることを企図する。ユーザの選好は、入力に基づいて決定され得る。次いで、これらの選好は、将来の立体視表示に適用され得る。【選択図】図1

Description

本実施形態は、立体視効果の較正に関し、詳細には、立体視効果に関するユーザの選好を決定するための方法、装置及びシステムに関する。
立体視は、人間の脳が左及び右の眼から見られる物体の相対変位に基づいて物体の奥行きを解釈するプロセスを備える。立体視効果は、横方向にオフセットする第1及び第2の観察位置から情景(シーン)の第1及び第2の像を取り込み、左及び右の眼の各々に別々にそれらの像を表示することにより人工的に引き起こされ得る。時間的に連続する立体視像の対を取得することにより、これらの像の対は、「3次元動画」を形成するように眼に連続的に表示され得る。
立体視効果は、左及び右の像を単一の像に統合するユーザに依存するので、ユーザ固有の特性は、エクスペリエンスに影響を及ぼし得る。詳細には、左の像及び右の像における物体間の視差は、ユーザの脳によって特定の奥行きと相関させられる必要がある。立体視映写機及び表示器は、使用前に定期的に較正されるが、所与の立体視表示のために幾つかの因子に基づいて特定のユーザの選好を迅速に決定するための効率的かつ正確な手段は、不足したままである。
優先権の主張
本出願は、2011年5月23日に出願された、同時係属の、及び同一出願人による、Kalin Atanassov、Sergiu Goma、Joseph Cheung、及びVikas Ramachandra、「INTERACTIVE USER INTERFACE FOR STEREOSCOPIC EFFECT ADJUSTMENT」という名称の、米国仮特許出願第61/489,224号の非仮出願である、2011年8月25日に出願された、Kalin Atanassov、Sergiu Goma、Joseph Cheung、及びVikas Ramachandra、「INTERACTIVE USER INTERFACE FOR STEREOSCOPIC EFFECT ADJUSTMENT」という名称の、米国特許出願第13/218,379号の優先権を主張するものであり、これらの出願のどちらも参照により本明細書に組み込まれている。
幾つかの実施形態は、立体視効果用のパラメータを決定するための、電子機器上で実施された方法を企図する。本方法は、複数の像によって複数の3次元位置に示される物体の立体視効果を備える複数の像をユーザに表示することと、好ましい3次元位置のユーザからの選好指示(preference indication)を受け取ることと、選好指示に基づいてさらなる像の立体視表示用のパラメータを決定することとを備え得る。
幾つかの実施形態では、複数の位置のうちの少なくとも2つは、x、y、及びz方向において互いに変位し得る。幾つかの実施形態では、複数の位置は、正の奥行き位置を有する位置を備える。幾つかの実施形態では、複数の像は、第2の物体の立体視効果をさらに備え、第2の物体は複数の像によって第2の複数の位置に示され、第2の複数の位置は負の奥行き位置を有する位置を備える。幾つかの実施形態では、複数の像は、表示器の平面における物体の動きを示す。幾つかの実施形態では、複数の像は、少なくとも表示器のスクリーン幾何形状に基づいて動的に生成され得る。幾つかの実施形態では、複数の像は、少なくとも表示器からのユーザの距離に基づいて動的に生成され得る。幾つかの実施形態では、本方法は、パラメータをメモリに記憶することをさらに備える。幾つかの実施形態では、本方法は、パラメータに基づいて物体の奥行きに関する最大範囲を決定することをさらに備える。幾つかの実施形態では、電子機器は、携帯電話を備える。幾つかの実施形態では、パラメータは、選好指示である。
幾つかの実施形態は、実行されたとき、プロセッサに様々なステップを実行させる命令を備えるコンピュータ可読媒体を企図する。これらのステップは、複数の像によって複数の位置に示される物体の立体視効果を備える複数の像をユーザに表示することと、好ましい3次元位置のユーザからの選好指示を受け取ることと、選好指示に基づいてさらなる像の立体視表示用のパラメータを決定することとを含み得る。
幾つかの実施形態では、複数の位置のうちの少なくとも2つは、x、y、及びz方向において互いに変位する。幾つかの実施形態では、複数の位置は、正の奥行き位置を有する位置を備える。幾つかの実施形態では、複数の像は、第2の物体の立体視効果をさらに備え、第2の物体は複数の像によって第2の複数の位置に示され、第2の複数の位置は負の奥行き位置を有する位置を備える。幾つかの実施形態では、複数の像は、表示器の平面における物体の動きを示す。
幾つかの実施形態は、表示器と、複数の像によって複数の位置に示される物体の立体視効果を備える複数の像を表示するように構成された第1のモジュールと、好ましい3次元位置のユーザからの選好指示を受け取るように構成された入力部と、ユーザの選好指示に従ってさらなる像を表示するために使用される、選好指示に関連するパラメータを記憶するように構成されたメモリとを備える電子立体視システムを企図する。
幾つかの実施形態では、複数の位置のうちの少なくとも2つは、x、y、及びz方向において互いに変位する。幾つかの実施形態では、複数の位置は、正の奥行き位置を有する位置を備える。幾つかの実施形態では、複数の像は、第2の物体の立体視効果をさらに備え、第2の物体は複数の像によって第2の複数の位置に示され、第2の複数の位置は負の奥行き位置を有する位置を備える。幾つかの実施形態では、複数の像は、表示器の平面における物体の動きを示す。幾つかの実施形態では、複数の像は、少なくとも表示器のスクリーン幾何形状に基づいて動的に生成される。幾つかの実施形態では、複数の像は、少なくとも表示器からのユーザの距離に基づいて動的に生成される。幾つかの実施形態では、電子機器は、携帯電話を備える。幾つかの実施形態では、パラメータは、選好指示である。
幾つかの実施形態は、複数の像によって複数の位置に示される物体の立体視効果を備える複数の像をユーザに表示するための手段と、好ましい3次元位置のユーザからの選好指示を受け取るための手段と、選好指示に基づいてさらなる像の立体視表示用のパラメータを決定するための手段とを備えた、電子機器内の立体視システムを企図する。
幾つかの実施形態では、表示する手段は表示器を備え、示す手段は複数の像を備え、選好指示を受け取るための手段は入力部を備え、立体視パラメータを決定するための手段は、好ましい範囲を記憶するように構成されたソフトウェアモジュールを備える。幾つかの実施形態では、複数の位置のうちの少なくとも2つは、x、y、及びz方向において互いに変位する。
開示する態様は、以下で、開示する態様を限定するためではなく、開示する態様を例示するために与えられる、同様の記号が同様の要素を示す、添付の図面に関して説明される。
像の立体視表示を行うための考えられる表示装置を示す図。 立体視効果の発生に寄与する様々な因子を示す図。 立体視効果の発生に寄与する様々な因子を示す図。 表示器に対するユーザの位置に関する立体視効果の発生に寄与する様々な因子を示す図。 表示器に対するユーザの位置に関する立体視効果の発生に寄与する様々な因子を示す図。 開示する実施形態の幾つかにおいて現れることがあるように、表示器に対する、幾つかの物体運動パターンを示す図。 開示する実施形態の幾つかにおける考えられる物体運動パターンに関する幾つかのユーザの選好を示す図。 立体視効果における奥行きに関してユーザが好む範囲の幾つかを示す図。 立体視効果における奥行きに関してユーザが好む範囲の幾つかを示す図。 立体視効果における奥行きに関してユーザが好む範囲の幾つかを示す図。 立体視効果における奥行きに関してユーザが好む範囲の幾つかを示す図。 実施形態の幾つかによって使用される選好決定アルゴリズムの特定の実施形態を示す流れ図。
実施形態は、ユーザに対する立体視映像データの表示がユーザの眼に快適なものとして知覚されるように立体視表示器システムを較正するためのシステムに関する。様々なユーザが立体視映像をどのように知覚するかに関して異なる許容範囲を有する可能性があるので、映像を見ることをユーザにとって快適にするために、本明細書で説明するシステム及び方法により、ユーザは、幾つかの立体視表示器パラメータを変更することが可能になる。一実施形態では、ユーザは、立体視映像を見ているとき、リアルタイムで立体視映像パラメータを変更し得る。次いで、これらの変更は、より快適なフォーマットでユーザに立体視映像を表示するために使用される。
本実施形態は、立体視像の表示に関するユーザの選好を決定するためのシステム、装置、及び方法を企図する。詳細には、一実施形態では、立体視映像シーケンスがユーザに表示される。システムは、ユーザからの較正入力を取り込み、ユーザ入力は、ユーザが3D技術の広範な知識を所有することを必要としない。例えば、ユーザは、見る映像シーケンスにおいて3次元効果の「低減」又は「増大」を選択し得る。システムは、その情報を入力し、ユーザに表示される左眼の像と右眼の像との角度又は横方向の視差を変更することにより、映像シーケンス内に表示される3次元効果を低減又は増大させるであろう。
これらの実施形態が、ハードウェア、ソフトウェア、ファームウェア、又はそれらの任意の組合せにおいて実施され得ることを当業者は認識するであろう。立体視表示器は、モバイルワイヤレス通信機器、携帯情報端末(PDA)、ラップトップコンピュータ、デスクトップコンピュータ、テレビ、デジタルカメラ、デジタル記録機器などを含む、広範囲にわたる電子機器上に見出され得る。
図1は、情景の立体視表示を行うように構成された、1つの考えられる表示装置105を示す。表示装置105は、情景のz方向の複数の奥行きにおいて複数の物体104を示す、表示器102、ビュースクリーン(viewscreen)、又はユーザに表示するための他の手段を備え得る。幾つかの機器では、情景は、像の対、即ち、ユーザの左眼に対する第1の像と、ユーザの右眼に対する第2の像とを備え得る。この例では、2つの像は、表示器102上に同時に表示することができるが、様々な偏光を伴って表示器102から放射され得る。その際、偏光レンズを着けたユーザは、その左眼で第1の像を知覚し、その右眼で第2の像を知覚し得る(レンズは、対応して直線偏光、円偏光などさせる)。右眼及び左眼の各々に別個の像を供給するための複数の他の方法が容易に認識されよう。例えば、機器105は、横方向に分離する2つの表示器102を備え得る。ユーザの顔の近くに機器105を保持することにより、横方向にオフセットする各像は、ユーザの眼の各々に別々に表示され得る。シャッターレンズ及び同様の技術でも十分であるかもしれない。本実施形態は、表示が行われる具体的な方法を問わず、立体視表示を与える、少なくとも任意のシステムとともに使用され得る。
表示装置105に付属するか、又はリモートで動作する入力部103は、表示装置105にユーザ入力を与えるために使用され得る。幾つかの実施形態では、入力部103は、表示装置105に付属するか、又は表示装置105のハウジングに統合される入力制御部を備え得る。他の実施形態では、入力部103は、例えばテレビとともに使用されるワイヤレス遠隔制御装置を備え得る。入力部103は、ユーザから、キー、又はボタン押下、又は動作ジェスチャー(gesture)、又は選好指示を受け取るための他の任意の手段を受け取るように構成され得る。幾つかの実施形態では、チャンネルを選択する、ボリュームを調整する、又は命令を入力するなどの他の目的用に指定された、入力部103上のボタン103aは、較正手順に関する入力を受け取るために再利用され得る。幾つかの実施形態では、較正入力を受け取るために特別に設計されたボタン103bが提供され得る。ジェスチャー感知入力部103cでは、システムは、較正に関連するとき、較正手順の間に(指、スタイラスなどを介して)タッチスクリーン上の幾つかのジェスチャーを認識し得る。入力部は、較正手順を制御するために、また好ましいパラメータを指示するために使用され得る。例えば、幾つかの実施形態では、較正中に、チャンネル選択ボタンを押下するか、又は指動作を行うことにより、複数の物体104の動きを変更し得る。好ましい最大範囲のパラメータを特定するために、「入力」キー、又は「ポップイン」若しくは「ポップアウト」選択キーを押下することが使用され得る。入力部103は、カメラ、又は特定の較正刺激に応答してユーザの眼の特性などのユーザの挙動を監視する他の機器など、「観測入力部」を備えることもできる。
データベース記憶装置106は、機器105の外部に示されているが、ユーザの選好を記憶することができる、機器105の内部又は外部の記憶装置などの、データを記憶するための手段を備え得る。幾つかの実施形態では、データベース106は、機器105の内部メモリの一部分を備え得る。幾つかの実施形態では、データベース106は、機器105の外部の中央サーバシステムを備え得る。サーバシステムは、ある機器上で決定された選好が別の機器で利用可能になるように、複数の表示装置にとってアクセス可能になり得る。
上述のように、機器105は、立体視情景を示す際、方向x、y、zのいずれかに動くように、ユーザに物体104を表示し得る。z方向の動きは、立体視効果を介して達成され得る。図2Aは、負に知覚されるz位置203a、即ちユーザに対して表示器102の後方にある物体を示す。そのような表示は、第1の像において第1の位置202aにあり、第2の像において第2の位置202bにある物体を表示することにより達成され得る。ユーザの左眼201aが第1の像を知覚し、ユーザの右眼201bが第2の像を知覚するとき、ユーザの脳は、物体が知覚位置203aにあることを知覚するように像を統合し得る。眼の緊張なしに融合が起こる表示器の周りに「安全領域」バンドが存在する可能性がある。このバンドは、以下で説明する因子に少なくとも部分的に基づいて、表示器102に対するユーザの距離Dvに応答して変化し得る。幾つかのシステムでは、像は、2つの別個の現実世界物理カメラを使用してあらかじめ取得され得る。幾つかのシステムでは、像は、情景の適切な像を決定するために「仮想カメラ」を使用するソフトウェアによって動的に生成され得る。仮想カメラは、合成的に生成された環境又は情景における視点を備え得る。
反対に、図2Bに示すように、位置202b及び202aが各像内で反転しているとき、ユーザの脳は、物体を知覚位置203bにあるものとして知覚するように像を統合し得る。このようにして、物体は、表示器102の平面に対する正又は負のz方向位置に現れ得る。
様々なユーザの脳は、異なる快適度で図2Aの像と図2Bの像との間の物体視差を統合し得る。立体視効果を快適に知覚するためのユーザの能力は、位置202aと202bとの横方向視差と、位置に関連する角度視差の両方に基づいている可能性がある。横方向視差は、位置202a及び202bの各々の間のx方向のオフセットを指す。典型的には、y方向のオフセットは存在しないが、これは、幾つかの表示器システムにおいて起こり得る。角度視差は、物体が知覚位置201a〜201bの各々にあることを知覚するときに起こる各眼の回転を指す。図2A及び図2Bの例を参照すると、線205a及び205bは、図2Aの知覚位置203aにある物体を見る際の、眼201a、201bの各々に関する中心線を指す(中心線は、眼が見る情景の中心を指す)。代わりに、眼が図2Bの位置203bに知覚される物体を見るとき、眼は、それらの中心線が206a及び206bに近づくまで互いに回転する。中心線205aと206aとの間、及び中心線205bと206bとの間にそれぞれ、角度差θ1及びθ2が生じる。これらの角度差θ1及びθ2は、物体が特定の知覚位置にあることを知覚することから生じる角度視差を備える。幾つかの事例では、ユーザの快適性は、横方向視差と角度視差の両方に依存している可能性がある。一部のユーザは、角度視差によって、より影響を受ける可能性があり、一部のユーザは、横方向視差によって、より影響を受ける可能性がある。あるユーザの許容可能な視差は、別のユーザにとっては快適でないか、又は苦痛にさえ感じるかもしれない。ユーザの快適ゾーンからはずれた視差を表示しないように、表示器102の出力を変更することにより、ユーザの不快感を緩和するか、又は完全に回避することができる。
残念ながら、幾つかの状況では、ユーザの横方向視差の選好及び角度視差の選好を他の因子から分離して分類すること(cataloguing)は、ユーザの不快感を回避するのに十分でない可能性がある。横方向視差及び角度視差は、ユーザが立体視効果を知覚するとき、互いに関連し、また他の因子と総体的に相互関連するかもしれない。例えば、図3A及び図3Bを参照すると、表示器102に対するユーザの位置は、同様に、ユーザの選好に影響を及ぼす可能性がある。遠方位置(図3Aの大きいDv)及び近接位置(図3Bの小さいDv)から表示器102を見るユーザは、どちらの場合にも同じ横方向視差が表示されても、異なる不快度を経験するかもしれない。代わりに、横方向視差が一定に維持されても、表示器102からのユーザの距離は角度視差に影響を及ぼすので、不快感は、角度視差と相関するかもしれない。図示のように、ユーザが表示器201を見る際の負の奥行き205a、205b及び正の奥行き206a、206bを伴った物体の知覚に対応する中心線は、Dvとともに変化する。表示器102のスクリーン寸法は、ユーザにとって許容可能な角度視差の範囲にも影響を及ぼし得る。スクリーンから一定距離において、より大きいスクリーン寸法は、より大きい視野をもたらす。これは、要するに、ズームと同様である(許容できる画素視差は、より小さい可能性がある)。反対に、同じ視野では、ユーザは、スクリーンに対するより小さい距離においては、ポップアウトが小さいものを好む可能性がある。従って、角度視差の結果として、ユーザが図3A及び図3Bの両位置において同じ横方向視差を経験しても、ユーザは、スクリーン102から遠いときはz方向範囲303aを好み、表示器102に近いときは範囲303bを好む可能性がある。さらに、範囲303a及び303bによって示されるように、ユーザの選好は、表示器スクリーン102に対して対称ではないかもしれない。例えば、一部のユーザは、正の奥行きよりも負の奥行きに対して十分に許容し、その逆も同様である。
本実施形態の幾つかは、立体視効果のユーザの好ましい範囲を決定するために、ユーザに対話型立体視映像シーケンスを表示することと、ユーザからの入力を受け取ることとを企図する。特に、対話型映像シーケンスは、表示器102からの所与の距離におけるユーザの横方向視差の選好及び角度視差の選好を決定するように構成され得る。幾つかの実施形態では、ユーザは、表示器102からのそれらの距離を前もって指定することができる。他の実施形態では、距離は、距離計又は機器105上の同様のセンサを使用して決定され得る。幾つかの実施形態では、映像シーケンスは、表示器の平面の前後に(即ち、z方向の正及び負の位置に)現れる移動物体を備え得る。ユーザは、物体の動きを知覚するとき、自分が快適又は不快と感じる、正及び負の奥行きを指示することができる。これらの選択は、適切な3D奥行き設定パラメータに変換され、3D処理アルゴリズムに送られ得る。幾つかの実施形態では、複数の奥行きを示す単一の像は、ユーザの選好を決定するのに十分であるかもしれない。幾つかの実施形態では、映像は、ユーザの以前の選好、機器104上の他のセンサから導出されたユーザ位置データなどのデータ、及び他の立体視機器(以前、較正されたが、異なるスクリーン幾何形状を有する機器など)からのユーザの選好などの因子に基づいて動的に生成され得る。幾つかの実施形態では、映像シーケンスは、ユーザによって指定されたスクリーン幾何形状に基づいて生成され得る。幾つかの実施形態では、スクリーン幾何形状は、自動的に決定され得る。
図4を参照すると、幾つかの実施形態では、映像シーケンスは、1つ以上の物体401a、401bがパターン402a、402bに沿って動くとき、1つ以上の物体401a、401bを示す像を備え得る。幾つかの実施形態では、幾つかの物体401aは、負のz位置(スクリーンの後方即ち「ポップイン」位置)に位置する可能性があり、他の物体401bは、正のz位置(スクリーンの前方即ち「ポップアウト」位置)に位置する可能性がある。物体401a、401bは、パターン402a、402bに沿って動く可能性がある。パターンは、図4ではもっぱらxy平面を移動するものとして示されるが、幾つかの実施形態では、物体がz方向に移動することも可能にする。幾つかの実施形態では、様々なz位置にある複数の物体を表示することができ、各物体は、xy平面を動くことができる。xy平面内の動きにより、ユーザが、表示器102のスクリーン幾何形状に関する立体視効果を知覚することが可能になり得る。幾つかの実施形態では、この動きは、ユーザが緊張することなく像を融合することができる「安全領域」バンドを決定するために使用され得る。幾つかの実施形態では、ユーザは、場合によっては入力部103を使用して、物体の動きを制御し得る。ユーザは、x、y、及びz平面の各々において物体を平行移動させ、入力部103を使用して位置の幾つかにおける自分の選好を指示することができる。例えば、ユーザは、物体401bを動かすために、指ジェスチャーを行うか、又はチャンネル若しくはボリューム選択キーを押下することができる。ユーザは、物体を動かすとき、奥行き方向の動きに対する自分の許容範囲(即ち異なる速度及び視差値の効果)を指示し得る。
図5は、幾つかの実施形態において、物体401a及び401bのz方向の動きを示す。ユーザは、正及び負の奥行きに関する選択範囲502a、502bをそれぞれ与え得る。上述のように、幾つかの実施形態では、ユーザは、場合によっては入力部103を介して物体401a、401bの動きを方向付け得る。従って、ユーザは、様々なパターン402a、402bに沿って物体を方向付けることができ、幾つかの位置における立体視効果に関する自分の快適性を指示することができる。幾つかの実施形態では、機器105は、シーケンスを表示する前にユーザが入力を与える位置を決定し得る。幾つかの実施形態では、ユーザは、入力が与えられる位置を決定し得る。
図6A〜図6Dは、4つの異なるユーザに関してユーザが好む範囲の幾つかを示す。図6Aでは、ユーザは、より大きい負の奥行きを好む一方で、少量の正の奥行きのみを好む。従って、ユーザは、図6Aに示す物体401a及び401bの位置における好ましい指示を表現したかもしれない。図6Bでは、ユーザは、正と負の両方のかなりの奥行きを好む。適切な選好指示は、同様に、指示された物体位置において指定されてきたかもしれない。図6Cでは、ユーザは、わずかな量の正と負の両方の奥行きを好む。図6Dでは、ユーザは、正の奥行きがなく負の奥行きのみを好む。
図7は、実施形態の幾つかによって使用される選好決定アルゴリズムを示す流れ図である。プロセス700は、ブロック701で、複数の「ポップイン」即ち負のz位置にある物体の、例えば映像シーケンスにおける1つ以上の像を表示することにより開始する。次いで、プロセス700は、決定ブロック702で、ユーザがポップイン範囲に関する選好を指示したかどうかを決定することができる。入力機器103から生じる割込みを待つなど、選好の指示を受け取る複数の方法を認識することができよう。割込みは、ユーザがキーを押下するか、又はジェスチャーを行うのに応答して生成され得る。そうでない場合、システムは、センサを介してユーザを監視し、映像シーケンスを通してユーザの応答を観察することによりユーザの選好を決定し得る。上記で説明したように、選好は、xy平面における複数の位置に関して指示され得る。プロセス700は、「ポップイン」即ち負のz位置に関するユーザの選好を受け取った後、次いで、ブロック703で将来の基準用に選好を記憶することができる。次いで、システムは、ブロック704で、「ポップアウト」即ち正のz方向に関する選好を決定し得る。ブロック705で、再び、ユーザが選好を指示すると、「ポップアウト」の選好が、ブロック706で記憶され得る。「安全領域」バンドを備えることができるなど、ユーザが好ましいx及びyの範囲も指示する、上記の変形形態を容易に想像することができる。選好は、データベース106に記憶され得る。
ポップイン及びポップアウトの最大範囲が決定されると、多数の対応する値が、実際の範囲の代わりに記憶され得ることを当業者は認識するであろう。従って、幾つかの実施形態では、記憶された選好又はパラメータは、好ましいポップイン及びポップアウトの範囲の値(即ち、最大ポップイン値及び最大ポップアウト値)を備え得る。しかしながら、他の実施形態では、各像に現れる物体に関する対応する視差範囲が、代わりに記憶され得る。幾つかの実施形態では、ユーザの好ましい範囲に対応する像を生成するために使用される仮想カメラの位置及び方向が記憶され得る。この場合、記憶された選好は、後続の情景を動的に生成する際に使用され得る。上述のように、幾つかの実施形態では、データベース106は、使用中にユーザが各システムを再較正する必要がないように、他の表示装置にユーザの選好へのアクセスを与えることができる。ユーザの好ましい範囲を記憶するように構成されたソフトウェアモジュールと、立体視像の表示に影響を及ぼす1つ以上の変数と好ましい範囲を関連付けるテーブルルックアップと、そのようなルックアップテーブルへの参照を行うソフトウェアと、選好の指示に基づいてパラメータを決定するための他の手段は、当業者には容易に認識されよう。従って、幾つかの事例では、決定する手段は、記憶されるべきパラメータとして、ユーザが指示した範囲を単に識別し得る。そうでない場合、決定する手段は、範囲に対応する視差などの表示変数の値を識別し得る。次いで、ユーザ定義の範囲ではなく、最大視差値が記憶され得る。
図7の実施形態などの実施形態の幾つかは、ユーザと較正システムとの間で迅速なフィードバックを与える。ユーザは、ポップイン及びポップアウトパラメータを選択するか、又は指示し、表示器上における自分の選択又は指示の効果を直ちに知覚することができる。表示器が3次元映像などの一連のフレームを示す場合、システムは、較正プロセスを通して物体の速度及び軌道を変更し得る。幾つかの実施形態では、較正映像は、ユーザが様々な選択を指示するとき、動的に調整され得る。システムは、映像がユーザの以前の選好指示の1つ又はすべてに基づいてどのように変更されるべきかを決定するための経験則を備え得る。
負及び正の奥行きの選好を決定する命令は、恣意的であってもよく、幾つかの実施形態では同時に生じ得ることが認識されよう。映像シーケンスは、例えば、ユーザの選好に関する極値を備えることが知られているx、y、及びz方向の位置における物体の対を同時に表示し得る。ユーザは、対を選択することにより、単一の選択により、正の奥行きの選好と負の奥行きの選好の両方を指示し得る。幾つかの事例では、単一の立体視像のみを表示することが必要であるかもしれない。
システムがユーザの選好を決定すると、選好は、後続の表示中に使用するために記憶され得る。そうでない場合、幾つかの実施形態は、代わりに、選好を記憶用の1つ以上の表示パラメータに変換することを企図する。例えば、ユーザの選好は、表示中に正及び負の奥行きに関する最大スケーリング係数を決定するために使用され得る。スケーリング係数又は別の表示を記憶することは、奥行きの範囲を記憶することよりも効率的である可能性がある。表示器102に対するユーザ位置に関するデータなどの追加のデータは、データベース106内に記憶される前に適切なパラメータに変換することもできる。
本明細書で開示された実施形態に関連して説明された様々な例示的な論理ブロック、モジュール、及び回路は、汎用プロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)又は他のプログラマブル論理機器、個別ゲート又はトランジスタロジック、個別ハードウェアコンポーネント、あるいは本明細書で説明される機能を実行するように設計されたそれらの任意の組合せを用いて実施又は実行され得る。汎用プロセッサはマイクロプロセッサであり得るが、代替として、プロセッサは、任意の従来のプロセッサ、コントローラ、マイクロコントローラ、又は状態機械であり得る。プロセッサは、コンピューティング機器の組合せ、例えば、DSPとマイクロプロセッサとの組合せ、複数のマイクロプロセッサ、DSPコアと連携する1つ以上のマイクロプロセッサ、あるいは任意の他のそのような構成として実施することもできる。
本明細書で開示される実施形態に関して説明される方法又は処理のステップは、ハードウェア、プロセッサによって実行されるソフトウェアモジュール、又はこの2つの組合せにおいて直接具現化され得る。ソフトウェアモジュールは、RAMメモリ、フラッシュメモリ、ROMメモリ、EPROMメモリ、EEPROM(登録商標)メモリ、レジスタ、ハードディスク、リムーバブルディスク、CD−ROM、又は当技術分野で知られている任意の他の形態の非一時的記憶媒体中に常駐し得る。例示的なコンピュータ可読記憶媒体は、プロセッサがコンピュータ可読記憶媒体から情報を読み取り、コンピュータ可読記憶媒体に情報を書き込むことができるようにプロセッサに結合される。代替として、記憶媒体はプロセッサと一体であってもよい。プロセッサ及び記憶媒体はASIC中に常駐し得る。ASICはユーザ端末、カメラ、又は他の機器の中に常駐し得る。代替として、プロセッサ及び記憶媒体は、ユーザ端末、カメラ、又は他の機器の中に個別コンポーネントとして常駐し得る。
本明細書には、参照のための、及び様々なセクションを見つけるのを助けるための、見出しが含まれる。これらの見出しは、見出しに関連して説明された概念の範囲を制限することを意図していない。そのような概念は、明細書全体にわたり、適用可能であり得る。
開示された実施形態の前述の説明は、当業者が本発明を実施又は使用できるようにするために与えられたものである。これらの実施形態の様々な変更形態は、当業者には容易に明らかになるものであり、本明細書で定義された一般原理は、本発明の趣旨又は範囲から逸脱することなく他の実施形態に適用され得る。従って、本発明は、本明細書で示された実施形態に限定されるものではなく、本明細書で開示された原理及び新規の特徴に合致する最も広い範囲が与えられるべきである。
開示された実施形態の前述の説明は、当業者が本発明を実施又は使用できるようにするために与えられたものである。これらの実施形態の様々な変更形態は、当業者には容易に明らかになるものであり、本明細書で定義された一般原理は、本発明の趣旨又は範囲から逸脱することなく他の実施形態に適用され得る。従って、本発明は、本明細書で示された実施形態に限定されるものではなく、本明細書で開示された原理及び新規の特徴に合致する最も広い範囲が与えられるべきである。
以下に本件出願当初の特許請求の範囲に記載された発明を付記する。
[1] 立体視効果用のパラメータを決定するための、電子機器上で実施される方法であって、複数の像によって複数の3次元位置に示される物体の立体視効果を備える前記複数の像をユーザに表示することと、好ましい3次元位置の前記ユーザからの選好指示を受け取ることと、前記選好指示に基づいてさらなる像の立体視表示用のパラメータを決定することとを備える、方法。
[2] 前記複数の位置のうちの少なくとも2つは、x、y、及びz方向において互いに変位する、[1]に記載の方法。
[3] 前記複数の位置は、正の奥行き位置を有する位置を備える、[1]に記載の方法。
[4] 前記複数の像は、第2の物体の立体視効果をさらに備え、前記第2の物体は前記複数の像によって第2の複数の位置に示され、前記第2の複数の位置は負の奥行き位置を有する位置を備える、[3]に記載の方法。
[5] 前記複数の像は、表示器の平面における前記物体の動きを示す、[1]に記載の方法。
[6] 前記複数の像は、少なくとも表示器のスクリーン幾何形状に基づいて動的に生成される、[1]に記載の方法。
[7] 前記複数の像は、少なくとも表示器からの前記ユーザの距離に基づいて動的に生成される、[1]に記載の方法。
[8] 前記パラメータをメモリに記憶することをさらに備える、[1]に記載の方法。
[9] 前記パラメータに基づいて前記物体の奥行きに関する最大範囲を決定することをさらに備える、[8]に記載の方法。
[10] 前記電子機器は、携帯電話を備える、[1]に記載の方法。
[11] 前記パラメータは、前記選好指示である、[1]に記載の方法。
[12] 実行されたとき、プロセッサに以下のステップを実行させる命令を備えるコンピュータ可読媒体であって、前記ステップは、複数の像によって複数の位置に示される物体の立体視効果を備える前記複数の像をユーザに表示することと、好ましい3次元位置の前記ユーザからの選好指示を受け取ることと、前記選好指示に基づいてさらなる像の立体視表示用のパラメータを決定することとである、コンピュータ可読媒体。
[13] 前記複数の位置のうちの少なくとも2つは、x、y、及びz方向において互いに変位する、[12]に記載のコンピュータ可読媒体。
[14] 前記複数の位置は、正の奥行き位置を有する位置を備える、[12]に記載のコンピュータ可読媒体。
[15] 前記複数の像は、第2の物体の立体視効果をさらに備え、前記第2の物体は前記複数の像によって第2の複数の位置に示され、前記第2の複数の位置は負の奥行き位置を有する位置を備える、[14]に記載のコンピュータ可読媒体。
[16] 前記複数の像は、表示器の平面における前記物体の動きを示す、[12]に記載のコンピュータ可読媒体。
[17] 表示器と、複数の像によって複数の位置に示される物体の立体視効果を備える前記複数の像を表示するように構成された第1のモジュールと、好ましい3次元位置の前記ユーザからの選好指示を受け取るように構成された入力部と、前記ユーザの前記選好指示に従ってさらなる像を表示するために使用される、前記選好指示に関連するパラメータを記憶するように構成されたメモリとを備える、電子立体視システム。
[18] 前記複数の位置のうちの少なくとも2つは、x、y、及びz方向において互いに変位する、[17]に記載の立体視システム。
[19] 前記複数の位置は、正の奥行き位置を有する位置を備える、[17]に記載の立体視システム。
[20] 前記複数の像は、第2の物体の立体視効果をさらに備え、前記第2の物体は前記複数の像によって第2の複数の位置に示され、前記第2の複数の位置は負の奥行き位置を有する位置を備える、[19]に記載の立体視システム。
[21] 前記複数の像は、前記表示器の平面における前記物体の動きを示す、[17]に記載の立体視システム。
[22] 前記複数の像は、少なくとも前記表示器のスクリーン幾何形状に基づいて動的に生成される、[17]に記載の立体視システム。
[23] 前記複数の像は、少なくとも前記表示器からの前記ユーザの距離に基づいて動的に生成される、[17]に記載の立体視システム。
[24] 前記電子機器は、携帯電話を備える、[17]に記載の立体視システム。
[25] 前記パラメータは、前記選好指示である、[17]に記載の立体視システム。
[26] 電子機器内の立体視システムであって、複数の像によって複数の位置に示される物体の立体視効果を備える前記複数の像をユーザに表示するための手段と、好ましい3次元位置の前記ユーザからの選好指示を受け取るための手段と、前記選好指示に基づいてさらなる像の立体視表示用のパラメータを決定するための手段とを備える、立体視システム。
[27] 前記表示する手段は表示器を備え、前記示す手段は複数の像を備え、選好指示を受け取るための前記手段は入力部を備え、立体視パラメータを決定するための前記手段は、好ましい範囲を記憶するように構成されたソフトウェアモジュールを備える、[26]に記載の立体視システム。
[28] 前記複数の位置のうちの少なくとも2つは、x、y、及びz方向において互いに変位する、[26]に記載の立体視システム。

Claims (28)

  1. 立体視効果用のパラメータを決定するための、電子機器上で実施される方法であって、
    複数の像によって複数の3次元位置に示される物体の立体視効果を備える前記複数の像をユーザに表示することと、
    好ましい3次元位置の前記ユーザからの選好指示を受け取ることと、
    前記選好指示に基づいてさらなる像の立体視表示用のパラメータを決定することと
    を備える、方法。
  2. 前記複数の位置のうちの少なくとも2つは、x、y、及びz方向において互いに変位する、請求項1に記載の方法。
  3. 前記複数の位置は、正の奥行き位置を有する位置を備える、請求項1に記載の方法。
  4. 前記複数の像は、第2の物体の立体視効果をさらに備え、前記第2の物体は前記複数の像によって第2の複数の位置に示され、前記第2の複数の位置は負の奥行き位置を有する位置を備える、請求項3に記載の方法。
  5. 前記複数の像は、表示器の平面における前記物体の動きを示す、請求項1に記載の方法。
  6. 前記複数の像は、少なくとも表示器のスクリーン幾何形状に基づいて動的に生成される、請求項1に記載の方法。
  7. 前記複数の像は、少なくとも表示器からの前記ユーザの距離に基づいて動的に生成される、請求項1に記載の方法。
  8. 前記パラメータをメモリに記憶することをさらに備える、請求項1に記載の方法。
  9. 前記パラメータに基づいて前記物体の奥行きに関する最大範囲を決定することをさらに備える、請求項8に記載の方法。
  10. 前記電子機器は、携帯電話を備える、請求項1に記載の方法。
  11. 前記パラメータは、前記選好指示である、請求項1に記載の方法。
  12. 実行されたとき、プロセッサに以下のステップを実行させる命令を備えるコンピュータ可読媒体であって、前記ステップは、
    複数の像によって複数の位置に示される物体の立体視効果を備える前記複数の像をユーザに表示することと、
    好ましい3次元位置の前記ユーザからの選好指示を受け取ることと、
    前記選好指示に基づいてさらなる像の立体視表示用のパラメータを決定することと
    である、コンピュータ可読媒体。
  13. 前記複数の位置のうちの少なくとも2つは、x、y、及びz方向において互いに変位する、請求項12に記載のコンピュータ可読媒体。
  14. 前記複数の位置は、正の奥行き位置を有する位置を備える、請求項12に記載のコンピュータ可読媒体。
  15. 前記複数の像は、第2の物体の立体視効果をさらに備え、前記第2の物体は前記複数の像によって第2の複数の位置に示され、前記第2の複数の位置は負の奥行き位置を有する位置を備える、請求項14に記載のコンピュータ可読媒体。
  16. 前記複数の像は、表示器の平面における前記物体の動きを示す、請求項12に記載のコンピュータ可読媒体。
  17. 表示器と、
    複数の像によって複数の位置に示される物体の立体視効果を備える前記複数の像を表示するように構成された第1のモジュールと、
    好ましい3次元位置の前記ユーザからの選好指示を受け取るように構成された入力部と、
    前記ユーザの前記選好指示に従ってさらなる像を表示するために使用される、前記選好指示に関連するパラメータを記憶するように構成されたメモリと
    を備える、電子立体視システム。
  18. 前記複数の位置のうちの少なくとも2つは、x、y、及びz方向において互いに変位する、請求項17に記載の立体視システム。
  19. 前記複数の位置は、正の奥行き位置を有する位置を備える、請求項17に記載の立体視システム。
  20. 前記複数の像は、第2の物体の立体視効果をさらに備え、前記第2の物体は前記複数の像によって第2の複数の位置に示され、前記第2の複数の位置は負の奥行き位置を有する位置を備える、請求項19に記載の立体視システム。
  21. 前記複数の像は、前記表示器の平面における前記物体の動きを示す、請求項17に記載の立体視システム。
  22. 前記複数の像は、少なくとも前記表示器のスクリーン幾何形状に基づいて動的に生成される、請求項17に記載の立体視システム。
  23. 前記複数の像は、少なくとも前記表示器からの前記ユーザの距離に基づいて動的に生成される、請求項17に記載の立体視システム。
  24. 前記電子機器は、携帯電話を備える、請求項17に記載の立体視システム。
  25. 前記パラメータは、前記選好指示である、請求項17に記載の立体視システム。
  26. 電子機器内の立体視システムであって、
    複数の像によって複数の位置に示される物体の立体視効果を備える前記複数の像をユーザに表示するための手段と、
    好ましい3次元位置の前記ユーザからの選好指示を受け取るための手段と、
    前記選好指示に基づいてさらなる像の立体視表示用のパラメータを決定するための手段と
    を備える、立体視システム。
  27. 前記表示する手段は表示器を備え、前記示す手段は複数の像を備え、選好指示を受け取るための前記手段は入力部を備え、立体視パラメータを決定するための前記手段は、好ましい範囲を記憶するように構成されたソフトウェアモジュールを備える、請求項26に記載の立体視システム。
  28. 前記複数の位置のうちの少なくとも2つは、x、y、及びz方向において互いに変位する、請求項26に記載の立体視システム。
JP2016111116A 2011-05-23 2016-06-02 立体視効果の調整用の対話型ユーザインターフェース Pending JP2016192773A (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201161489224P 2011-05-23 2011-05-23
US61/489,224 2011-05-23
US13/218,379 2011-08-25
US13/218,379 US20120300034A1 (en) 2011-05-23 2011-08-25 Interactive user interface for stereoscopic effect adjustment

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014512890A Division JP6223964B2 (ja) 2011-05-23 2012-05-17 立体視効果の調整用の対話型ユーザインターフェース

Publications (1)

Publication Number Publication Date
JP2016192773A true JP2016192773A (ja) 2016-11-10

Family

ID=46197697

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2014512890A Expired - Fee Related JP6223964B2 (ja) 2011-05-23 2012-05-17 立体視効果の調整用の対話型ユーザインターフェース
JP2016111116A Pending JP2016192773A (ja) 2011-05-23 2016-06-02 立体視効果の調整用の対話型ユーザインターフェース

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2014512890A Expired - Fee Related JP6223964B2 (ja) 2011-05-23 2012-05-17 立体視効果の調整用の対話型ユーザインターフェース

Country Status (6)

Country Link
US (1) US20120300034A1 (ja)
EP (1) EP2716052A1 (ja)
JP (2) JP6223964B2 (ja)
KR (1) KR20140047620A (ja)
CN (1) CN103609104A (ja)
WO (1) WO2012162096A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140126877A1 (en) * 2012-11-05 2014-05-08 Richard P. Crawford Controlling Audio Visual Content Based on Biofeedback
US10057558B2 (en) * 2015-09-04 2018-08-21 Kabushiki Kaisha Toshiba Electronic apparatus and method for stereoscopic display
US10567729B2 (en) * 2017-08-11 2020-02-18 Bitanimate, Inc. User interface for adjustment of stereoscopic image parameters
US20220368881A1 (en) 2019-01-25 2022-11-17 Bitanimate, Inc. Detection and ranging based on a single monoscopic frame
CN111491154A (zh) * 2019-01-25 2020-08-04 比特安尼梅特有限公司 基于一个或多个单视场帧的检测和测距

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020008906A1 (en) * 2000-05-12 2002-01-24 Seijiro Tomita Stereoscopic picture displaying apparatus
JP2003284093A (ja) * 2002-03-27 2003-10-03 Sanyo Electric Co Ltd 立体画像処理方法および装置
US20060203085A1 (en) * 2002-11-28 2006-09-14 Seijiro Tomita There dimensional image signal producing circuit and three-dimensional image display apparatus
US20070047040A1 (en) * 2005-08-31 2007-03-01 Samsung Electronics Co., Ltd. Apparatus and method for controlling depth of three-dimensional image
US20080231691A1 (en) * 2007-03-23 2008-09-25 Honeywell International, Inc. User-adjustable three-dimensional display system and method
WO2010023887A1 (ja) * 2008-08-27 2010-03-04 富士フイルム株式会社 3次元表示時における指示位置設定装置および方法並びにプログラム
EP2242262A2 (en) * 2009-04-15 2010-10-20 Sony Corporation Data structure, recording medium, playback apparatus and method, and program
WO2010151044A2 (ko) * 2009-06-23 2010-12-29 엘지전자 주식회사 3차원 컨텐츠를 출력하는 디스플레이 기기의 영상 처리 방법 및 그 방법을 채용한 디스플레이 기기

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3347385B2 (ja) * 1992-03-27 2002-11-20 オリンパス光学工業株式会社 内視鏡画像処理装置
EP0637815B1 (en) * 1993-08-04 2006-04-05 Canon Kabushiki Kaisha Image processing method and image processing apparatus
US5574836A (en) * 1996-01-22 1996-11-12 Broemmelsiek; Raymond M. Interactive display apparatus and method with viewer position compensation
JP3397602B2 (ja) * 1996-11-11 2003-04-21 富士通株式会社 画像表示装置及び方法
US20020163482A1 (en) * 1998-04-20 2002-11-07 Alan Sullivan Multi-planar volumetric display system including optical elements made from liquid crystal having polymer stabilized cholesteric textures
EP2357835A3 (en) * 2002-03-27 2012-02-22 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
AU2002355019A1 (en) * 2002-11-20 2004-06-15 Seijiro Tomita Light source device for image display device
JP4283785B2 (ja) * 2005-05-10 2009-06-24 株式会社マーキュリーシステム 立体視画像生成装置およびプログラム
US20080273081A1 (en) * 2007-03-13 2008-11-06 Lenny Lipton Business system for two and three dimensional snapshots
US20080231926A1 (en) * 2007-03-19 2008-09-25 Klug Michael A Systems and Methods for Updating Dynamic Three-Dimensional Displays with User Input
KR101602904B1 (ko) * 2008-10-10 2016-03-11 코닌클리케 필립스 엔.브이. 신호에 포함된 시차 정보를 처리하는 방법
US20100225734A1 (en) * 2009-03-03 2010-09-09 Horizon Semiconductors Ltd. Stereoscopic three-dimensional interactive system and method
US20100225576A1 (en) * 2009-03-03 2010-09-09 Horizon Semiconductors Ltd. Three-dimensional interactive system and method
JP5563250B2 (ja) * 2009-06-30 2014-07-30 株式会社ジャパンディスプレイ 立体画像表示装置
JP2011035592A (ja) * 2009-07-31 2011-02-17 Nintendo Co Ltd 表示制御プログラムおよび情報処理システム
JP5444955B2 (ja) * 2009-08-31 2014-03-19 ソニー株式会社 立体画像表示システム、視差変換装置、視差変換方法およびプログラム
US20110107216A1 (en) * 2009-11-03 2011-05-05 Qualcomm Incorporated Gesture-based user interface
WO2011056803A2 (en) * 2009-11-06 2011-05-12 Sony Corporation Of America Stereoscopic overlay offset creation and editing
KR20110136414A (ko) * 2010-06-15 2011-12-21 삼성전자주식회사 영상처리장치 및 그 제어방법
US9035939B2 (en) * 2010-10-04 2015-05-19 Qualcomm Incorporated 3D video control system to adjust 3D video rendering based on user preferences
US9041774B2 (en) * 2011-01-07 2015-05-26 Sony Computer Entertainment America, LLC Dynamic adjustment of predetermined three-dimensional video settings based on scene content
US20120188226A1 (en) * 2011-01-21 2012-07-26 Bu Lin-Kai Method and system for displaying stereoscopic images

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020008906A1 (en) * 2000-05-12 2002-01-24 Seijiro Tomita Stereoscopic picture displaying apparatus
JP2003284093A (ja) * 2002-03-27 2003-10-03 Sanyo Electric Co Ltd 立体画像処理方法および装置
US20060203085A1 (en) * 2002-11-28 2006-09-14 Seijiro Tomita There dimensional image signal producing circuit and three-dimensional image display apparatus
US20070047040A1 (en) * 2005-08-31 2007-03-01 Samsung Electronics Co., Ltd. Apparatus and method for controlling depth of three-dimensional image
US20080231691A1 (en) * 2007-03-23 2008-09-25 Honeywell International, Inc. User-adjustable three-dimensional display system and method
WO2010023887A1 (ja) * 2008-08-27 2010-03-04 富士フイルム株式会社 3次元表示時における指示位置設定装置および方法並びにプログラム
EP2242262A2 (en) * 2009-04-15 2010-10-20 Sony Corporation Data structure, recording medium, playback apparatus and method, and program
WO2010151044A2 (ko) * 2009-06-23 2010-12-29 엘지전자 주식회사 3차원 컨텐츠를 출력하는 디스플레이 기기의 영상 처리 방법 및 그 방법을 채용한 디스플레이 기기

Also Published As

Publication number Publication date
EP2716052A1 (en) 2014-04-09
JP6223964B2 (ja) 2017-11-01
CN103609104A (zh) 2014-02-26
US20120300034A1 (en) 2012-11-29
WO2012162096A1 (en) 2012-11-29
KR20140047620A (ko) 2014-04-22
JP2014517619A (ja) 2014-07-17

Similar Documents

Publication Publication Date Title
US9554126B2 (en) Non-linear navigation of a three dimensional stereoscopic display
JP2016192773A (ja) 立体視効果の調整用の対話型ユーザインターフェース
JP6380881B2 (ja) 立体画像表示装置、画像処理装置及び立体画像処理方法
WO2017147999A1 (zh) 电子设备、脸部识别跟踪方法和三维显示方法
US20140375531A1 (en) Method of roviding to the user an image from the screen of the smartphome or tablet at a wide angle of view, and a method of providing to the user 3d sound in virtual reality
CN103595988A (zh) 立体图像显示装置、图像处理装置及图像处理方法
TW201201569A (en) Display device
US10616568B1 (en) Video see-through head mounted display and control method thereof
WO2019085628A1 (en) Viewpoint controllable three-dimensional image display apparatus and method for displaying three-dimensional image
US20170185147A1 (en) A method and apparatus for displaying a virtual object in three-dimensional (3d) space
CN106293561B (zh) 显示控制方法和装置、显示设备
US9245364B2 (en) Portable device and display processing method for adjustment of images
KR101805710B1 (ko) 축간격 조정부를 갖는 입체영상 촬영장치 및 이를 이용한 입체영상의 깊이감 조절 방법
KR101320477B1 (ko) 카메라 간격 및 이동속도 조절이 가능한 건축물 내비게이션 장치 및 방법
US8773429B2 (en) Method and system of virtual touch in a steroscopic 3D space
EP2587814A1 (en) Depth adaptation for multi-view system
TWI462569B (zh) 三維影像攝相機及其相關控制方法
WO2015034453A1 (en) Providing a wide angle view image
CN103270760A (zh) 在立体变焦过程中用于视差调节的方法和系统
JP3425402B2 (ja) 立体画像を表示する装置および方法
US20140085434A1 (en) Image signal processing device and image signal processing method
US20130141330A1 (en) Stereoscopic display device
JP2014053782A (ja) 立体画像データ処理装置、および、立体画像データ処理方法
KR101173640B1 (ko) 3차원 헤드 마운티드 디스플레이 장치
TW202349939A (zh) 立體格式影片產生方法與系統

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171003

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180612