JP2012133543A - 情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
JP2012133543A
JP2012133543A JP2010284583A JP2010284583A JP2012133543A JP 2012133543 A JP2012133543 A JP 2012133543A JP 2010284583 A JP2010284583 A JP 2010284583A JP 2010284583 A JP2010284583 A JP 2010284583A JP 2012133543 A JP2012133543 A JP 2012133543A
Authority
JP
Japan
Prior art keywords
user
display
attention
animation
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010284583A
Other languages
English (en)
Other versions
JP5678643B2 (ja
Inventor
Tomoya Narita
智也 成田
Aya Takaoka
綾 高岡
Kenichi Okada
憲一 岡田
Shunichi Kasahara
俊一 笠原
Ritsuko Konno
律子 金野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010284583A priority Critical patent/JP5678643B2/ja
Priority to EP11188952.3A priority patent/EP2469866B1/en
Priority to US13/314,897 priority patent/US20120154390A1/en
Priority to KR1020110133604A priority patent/KR20120070499A/ko
Priority to BRPI1105548-0A priority patent/BRPI1105548A2/pt
Priority to CN201110418483.3A priority patent/CN102692998B/zh
Publication of JP2012133543A publication Critical patent/JP2012133543A/ja
Application granted granted Critical
Publication of JP5678643B2 publication Critical patent/JP5678643B2/ja
Priority to US15/609,765 priority patent/US20170264881A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity

Abstract

【課題】特定のオブジェクトへのユーザの注目に応じて、前記オブジェクトを奥行き方向にアニメーション表示させる。
【解決手段】情報処理装置100は、立体視表示が可能な表示画面120に表示されたオブジェクトへのユーザの注目に関する検出結果を取得する取得部130と、取得された検出結果に基づき前記ユーザの注目に応じて前記オブジェクトを奥行き方向にアニメーション表示させる表示制御部150と、を有する。
【選択図】図3

Description

本発明は、情報処理装置、情報処理方法およびプログラムに関し、特に、ユーザの注目したオブジェクトの表示を制御する情報処理装置、情報処理方法およびプログラムに関する。
近年、仮想的な3次元空間にコンテンツを立体表示する立体視ディスプレイが普及しつつある(例えば、特許文献1)。仮想的な3次元空間にオブジェクトを表示する場合、立体視ディスプレイ上にてオブジェクトを左右の目に提示する右目用画像及び左目用画像の視差量の調整によって、目の前の至近距離から無限遠まで、奥行き方向の任意の距離にオブジェクトを提示することが可能である。
しかしながら、人が立体視ディスプレイを見た場合、ディスプレイに表示されているオブジェクトの視差を大きく付けすぎるとそれに目の焦点を併せるのに時間を要してしまい、人の目に負担が掛かり、疲労感を感じやすいという問題が生じる。そこで、オブジェクトの飛び出し量や引き込み量の取りえる範囲を制限することによって、目に与える疲労や違和感を軽減する方法が提案されている。
特に、携帯機器向けの小型ディスプレイのように、腕を伸ばした程度の距離でオブジェクトを立体視表示させる状況では、視聴距離が非常に短いため上記問題が特に顕著になり、ディスプレイの前後数センチを超えてオブジェクトを立体視提示することが困難になる。そこで、小型ディスプレイでは特に、視聴距離が長い大型ディスプレイより画像の視差量を小さくすることにより、目に与える疲労や違和感を軽減する方法が提案されている。
また、疲労や違和感を軽減するためには、一般的に、画面より前に飛び出す表現よりも画面より奥に引き込む表現の方が人の目に負担が掛からず閲覧が容易である。このため、飛び出し量より引き込み量を大きくして奥行き感のある立体視表示を行う方法が提案されている。
特開平08−116556号公報号公報
しかしながら、オブジェクトの飛び出し量や引き込み量を小さくした場合、目に与える疲労は少なくなるものの、立体感が得にくく臨場感や迫力に欠ける表示となってしまう。このため、目の焦点を合わせ易いように表示方法を工夫することにより、オブジェクトの飛び出し量や引き込み量の取りえる範囲を広くして、臨場感や迫力のある表現が可能な技術が望まれていた。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、特定のオブジェクトへのユーザの注目に応じて、前記オブジェクトを奥行き方向にアニメーション表示させることが可能な、新規かつ改良された情報処理装置、情報処理方法およびプログラムを提供することにある。
上記課題を解決するために、本発明のある観点によれば、立体視表示が可能な表示画面に表示されたオブジェクトへのユーザの注目に関する検出結果を取得する取得部と、前記取得された検出結果に基づき前記ユーザの注目に応じて前記オブジェクトを奥行き方向にアニメーション表示させる表示制御部と、を備える情報処理装置が提供される。
前記表示制御部は、前記ユーザの注目が前記オブジェクトから離れたことに応じて、前記オブジェクトの奥行き量が小さくなるように前記オブジェクトをアニメーション表示させてもよい。
前記表示制御部は、前記ユーザの注目が前記オブジェクトに向けられたことに応じて、前記オブジェクトの奥行き量が大きくなるように前記オブジェクトをアニメーション表示させてもよい。
前記表示制御部は、前記ユーザの注目が前記オブジェクトから離れてから第1の所定時間が経過した後、前記アニメーション表示を開始させてもよい。
前記表示制御部は、前記ユーザの注目が前記オブジェクトから離れてから第2の所定時間、前記オブジェクトをアニメーション表示させてもよい。
前記表示制御部は、前記ユーザの注目が前記オブジェクトから離れてから前記第2の所定時間が経過した後、前記オブジェクトを視差量がない状態で表示させてもよい。
前記表示制御部は、前記オブジェクトの視差量を線形又は非線形に調整してもよい。
前記表示制御部は、アニメーションの開始と終了及びその近傍の時間帯では、その間の時間帯よりゆっくりアニメーションさせるように前記オブジェクトの視差量を非線形に調整してもよい。
前記取得部は、ユーザによる操作を取得し、前記表示制御部は、前記取得されたユーザによる操作に応じて前記視差量を再調整してもよい。
前記表示制御部は、前記ユーザが複数の場合には、ユーザ毎に注目するオブジェクトをそれぞれ奥行き方向にアニメーション表示させてもよい。
前記ユーザの注目に関する検出結果は、少なくともユーザの顔の有無の検出結果を含んでもよい。
前記ユーザの注目に関する検出結果は、顔の有無、顔の方向、前記表示画面と顔との距離、2つ以上の目、赤外線がユーザの目を反射した際の反射光、ユーザによる機器の操作、ユーザの機器から発せられる音の指向性、アイコンタクト、視線の移動、視線の方向、体の有無、体の一部の方向、ユーザのジェスチャ、脳信号からなる群から選択される少なくとも一つ以上を含んでもよい。
また、上記課題を解決するために、本発明の別の観点によれば、立体視表示が可能な表示画面に表示されたオブジェクトへのユーザの注目に関する検出結果を取得するステップと、前記取得された検出結果に基づき前記ユーザの注目に応じて前記オブジェクトを奥行き方向にアニメーション表示させるステップと、を含む情報処理方法が提供される。
また、上記課題を解決するために、本発明のさらに別の観点によれば、立体視表示が可能な表示画面に表示されたオブジェクトへのユーザの注目に関する検出結果を取得する処理と、前記取得された検出結果に基づき前記ユーザの注目に応じて前記オブジェクトを奥行き方向にアニメーション表示させる処理と、をコンピュータに実行させるプログラムが提供される。
以上説明したように本発明によれば、特定のオブジェクトへのユーザの注目に応じて、前記オブジェクトを奥行き方向にアニメーション表示させることができる。
本発明の一実施形態に係る情報処理装置の概略的な構成を示す図である。 同実施形態に係る情報処理装置の機能構成を示すブロック図である。 同実施形態に係る情報処理装置によるアニメーション表示処理を示したフローチャートである。 同実施形態に係る奥行き方向のアニメーション表示例である。 同実施形態に係る左右の視差表現を用いたアニメーション表示例である。 同実施形態に係る縮小/視差拡大アニメーション表示時間と視差量との関係を示した図である。 同実施形態に係る情報処理装置による画面を切替えた場合のアニメーション表示例である。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1−1.情報処理装置の構成
1−2.情報処理装置の動作
1−3.視差量の調整
1−4.画面の切替
1−5.変形例
1−1.情報処理装置の構成
まず、図1および図2を参照して、本発明の一実施形態に係る情報処理装置の構成について説明する。図1は、本発明の第1の実施形態に係る情報処理装置100の概略的な構成を示す。図2は、情報処理装置100の機能構成を示す。
図1を参照すると、情報処理装置100は、例えばPC(Personal Computer)、テレビ、音楽プレイヤ、ゲーム機器、携帯電話、携帯型端末などであり、表示画面120および取得部130を有する。表示画面120には、複数のオブジェクト200a〜200gが配置された仮想的な3次元空間Svが表示される。取得部130は、画面120に表示されたオブジェクトへのユーザの注目に関する検出結果を取得する。
表示画面120は、例えばLCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、または有機EL(Electro-Luminescence)パネルなどのディスプレイである。表示画面120は、立体視表示が可能なディスプレイである。表示画面120が立体画像を表示する場合の表示方式としては、例えば偏光眼鏡を用いて、両目に互いに異なった偏光状態に基づいた視点画像(あるいは視差画像)を見る方法がある。その他にも、眼鏡を用いず、パララックスバリアやレンチキュラーレンズを用いて複数の視点画像のうち所定の視点画像を視聴者の眼球に導光する方法やフレームシーケンシャル方式など、いかなる方式を用いてもよい。なお、表示画面120は、図示されているように、情報処理装置100と一体であってその表面に設けられてもよいし、また、情報処理装置100には含まれずに、独立して設けられていてもよい。
仮想的な3次元空間Svは、表示画面120に表示される。本実施形態において、仮想的な3次元空間Svには、x軸方向、y軸方向、およびz軸方向として図示されている3つの方向が定義されている。x軸方向は表示画面120の左右方向であり、y軸方向は表示画面120の上下方向であり、z軸方向は表示画面120の奥行き方向である。
仮想的な3次元空間Svには、複数のオブジェクト200a〜200gが表示されている。オブジェクトは、例えば、ユーザによって操作されるポインタオブジェクト200gと、その他のコンテンツオブジェクト200a〜200fとを含んでもよい。なお、本実施形態におけるオブジェクトのアニメーション表示については後述する。
取得部130は、画面に表示されたオブジェクトへのユーザの注目に関する検出結果を取得する。図1では、取得部130は、特定のオブジェクト200eにユーザが注目しているという検出結果を取得する。
取得部130は、ユーザの注目の検出結果を取得するために、例えば、カメラ、または赤外線の発光部および受光部などを含んでもよい。本実施形態では、カメラを含む取得部130が情報処理装置100の上部など視聴者の顔を検出しやすい位置に設置されている。
(ユーザの注目)
ユーザが特定のオブジェクトに注目しているかを検出する方法として、本実施形態では、取得部130のカメラを用いて撮影した画像データから顔検出(顔認識)を行い、ユーザの顔の有無によりユーザが特定のオブジェクトに注目しているかを推測する。
ユーザが特定のオブジェクトに注目しているかを検出する方法としては、これ以外にも様々な方法がある。例えば、前記顔認識技術を用いてユーザの顔の有無及び顔の方向を検知し、これに基づきユーザが注目する特定のオブジェクトを推測してもよい。ユーザの顔の方向及び表示画面120と顔との距離の検出結果に基づき、ユーザが注目する特定のオブジェクトを推測することもできる。2つ以上の目があることを検出することにより、ユーザが注目する特定のオブジェクトを推測してもよい。
赤外線がユーザの目の網膜を反射した際の反射光を検出することにより、ユーザの注目を推測してもよい。ユーザがかけている眼鏡などにカメラ等のセンサを付けて、眼鏡と表示画面120との距離及び向きの関係を検出することによりユーザの注目を推測してもよい。
ユーザの機器の操作状態からユーザの注目を推測してもよい。特に、情報処理装置100が、携帯電話、携帯型端末、携帯型ゲーム機器等のモバイル機器の場合には、ユーザの機器への操作状態や、機器から発せられる音の指向性に基づき、ユーザの注目を推測してもよい。その他、ユーザの注目は、アイコンタクト、視線の移動、視線の方向、体の有無、体の方向、頭の方向、ユーザのジェスチャ、脳信号など、ユーザが注目するオブジェクトを推測できれば、いかなる方法を用いてもよい。
このように、ユーザの注目に関する検出結果は、顔の有無、顔の方向、前記表示画面と顔との距離、2つ以上の目、赤外線がユーザの目を反射した際の反射光、機器の操作、機器から発せられる音の指向性、脳信号、アイコンタクト、視線の移動、視線の方向、体の有無、体の方向、頭の方向、ユーザのジェスチャ、脳信号からなる群から選択される少なくとも一つ以上を含んでいればよい。特に、ユーザの注目に関する検出結果には、少なくとも顔の有無に関する検出結果が含まれることが好ましい。なお、図1では、ユーザは、オブジェクト200eに注目している。
取得部130は、例えば、図1に示されているように、情報処理装置100の上部など視聴者の顔を検出しやすい位置であって、表示画面120の向きに対応する向きに設置されていてもよい。その場合、ユーザは、仮想的な3次元空間Svにおける方向と、実際の方向を対応付けることが容易になり、取得部130により取得されるユーザの顔検出結果によってアニメーション表示することが容易になる。
図1に示した情報処理装置100は、取得部130にユーザの注目に関する検出結果を取得させて、その結果に基づきユーザが注目する特定のオブジェクトをアニメーション表示する。例えば、情報処理装置100は、ユーザの注目がいずれかのオブジェクトから離れた場合、オブジェクトの飛び出し量又は引き込み量を徐々に小さくするアニメーション表示を実行する。また、情報処理装置100は、ユーザの注目がいずれかのオブジェクトに向けられた場合、オブジェクトの飛び出し量又は引き込み量を徐々に大きくするアニメーション表示を実行する。
図2は、本発明の第1の実施形態に係る情報処理装置100の機能構成を示すブロック図である。図2を参照すると、情報処理装置100は、表示画面120、取得部130、画像入力部140、表示制御部150、および記憶部160を有する。上述のように、情報処理装置100は、例えばPCやテレビ、モバイル機器などであり得るが、必ずしも上記の各構成要素を同じ筐体に含む必要はない。例えば、表示画面120は、情報処理装置100には含まれずに、独立して設けられていてもよい。また、記憶部160は情報処理装置100には含まれずに、例えばネットワーク上のストレージによってその機能が提供されてもよい。表示画面120と取得部130については、図1を参照して説明したため、ここでは説明を省略する。
画像入力部140は、表示画面120に表示する画像を入力する。表示制御部150は、特定のオブジェクトに対してのユーザの注目に応じて視差量を調整する。例えば、表示制御部150は、ユーザの注目がオブジェクトから離れると、これに応じてオブジェクトの視差量を小さくする。また、表示制御部150は、ユーザの注目がオブジェクトに向けられると、これに応じてオブジェクトの視差量を大きくする。
オブジェクトの視差量を調整する方法としては、単純にコンテンツの奥行き量を奥行き方向(Z方向)に調整させることにより視差量を調整する方法や、実際に視差(輻輳角)を調整する方法がある。例えば、両眼視差を用いるディスプレイ上でアニメーション表示を実現するためには、図5の右図に示した目的の立体視表示を実現するための右目用画像200eR及び左目用画像200eLの最終状態の視差量を補完する形で、各画像200eR、200eLの視差量(ずれ量)が異なる中間視差画像を複数生成する。そして、各画像200eR、200eLの視差がない表示状態(図5の左図)から順に視差が大きくなるように中間視差画像を表示する(図5の中央図)。これによりオブジェクトの視差量を調整することができる。
表示制御部150は、仮想的な3次元空間Svに配置されるオブジェクト200a〜200gを立体画像として表示画面120に表示させる。表示制御部150は、視差量の調整に基づき特定のオブジェクトを奥行き方向にアニメーション表示させる。より詳細には、表示制御部150は、ユーザの注目がオブジェクトから離れると、これに応じてオブジェクトの視差量を徐々に小さく調整する。これにより、特定のオブジェクトをオブジェクトの奥行き量が小さくなるようにアニメーション表示させることができる。また、表示制御部150は、ユーザの注目がオブジェクトに向けられると、これに応じてオブジェクトの視差量を徐々に大きく調整する。これにより、特定のオブジェクトをオブジェクトの奥行き量が大きくなるようにアニメーション表示させることができる。
アニメーション表示について、図4及び図5を参照しながら更に説明する。図4の上段は、オブジェクト200eが奥行き方向に飛び出して表現される際のアニメーション表示例を示す。図4の下段は、オブジェクト200eが奥行き方向に引き込まれて表現される際のアニメーション表示例を示す。図5は、前述の通り、奥行き方向のアニメーション表示を、右目用画像200eRと左目用画像200eLとの視差(ずれ)の度合いで示した図である。
例えば、図4及び図5の左図は、立体視表示を行わない通常の画面表示状態、すなわち、右目用画像200eR及び左目用画像200eLの視差量が0の場合の表示状態を示している。このときには、オブジェクト200eは表示画面120上に視差がない2D表示される。この表示状態から、図5の中央に示したように徐々に右目用画像200eR及び左目用画像200eLの視差量(ずれ量)を大きくする。これによって、図4の中央に示した奥行き方向のアニメーション表示が実行され、図4の右図に示した目的の立体視表示位置までオブジェクトを移動させる。図5の右図では、右目用画像200eRが左目用画像200eLより左側に位置するため、図4の上段右に示したように、目的の立体視表示ではオブジェクト200eは飛び出して見える。一方、図5の右図とは反対に右目用画像200eRが左目用画像200eLの右側に位置した場合には、図4の下段右に示したように、目的の立体視表示ではオブジェクト200eは引き込まれて見える。
これによれば、オブジェクトが実際に表示したい位置まで徐々に奥行き方向に移動していくため、ユーザは目の焦点を段階的に調整してオブジェクトに追従させることが容易になる。よって、アニメーション表示しなかった場合に比べて、奥行き量の取りえる範囲を広くすることができ、臨場感のある立体視表現と実現できる。なお、オブジェクトの奥行き量は、表示画面120から前に飛び出す飛び出し量や表示画面120から後ろに引き込む引き込み量をいう。
図4及び図5では、オブジェクトの視差量の絶対値を0から徐々に大きくし、オブジェクトの飛び出し表現又は引き込み表現を大きくする方向にアニメーション表示した。本明細書では、これを視差拡大アニメーション表示という。一方、図4及び図5の矢印を反対に向けて、右から左にアニメーション表示させる場合もある。この場合、オブジェクトの視差量の絶対値を目的の立体視表示を実現する値から徐々に小さくし、オブジェクトの飛び出し表現又は引き込み表現を小さくする方向にアニメーション表示する。本明細書では、これを視差縮小アニメーション表示という。
表示制御部150は、表示のための演算処理装置であり、例えばGPU(Graphics Processing Unit)、CPU(Central Processing Unit)、またはDSP(Digital Signal Processor)などによって実現されうる。表示制御部150は、記憶部160に格納されたプログラムに従って動作してもよい。
なお、表示制御部150の機能を実現するためのプログラムは、ディスク状記録媒体、またはメモリカードなどのリムーバブル記憶媒体に格納されて情報処理装置100に提供されるものであってもよく、またLAN(Local Area Network)、インターネット等のネットワークを介して情報処理装置100にダウンロードされるものであってもよい。
記憶部160には、情報処理装置100における処理に必要なデータが格納される。本実施形態では、記憶部160には、アニメーション表示のための閾値として予め定められた第1の所定時間及び第2の所定時間も格納される。記憶部160は、例えばRAM(Random Access Memory)、またはROM(Read Only Memory)などの記憶装置でありうる。また、記憶部160は、光ディスク、磁気ディスク、または半導体メモリなどのリムーバブル記憶媒体であってもよく、記憶装置とリムーバブル記憶媒体を組み合わせたものであってもよい。記憶部160には、CPU、またはDSPなどに実行させることによって、例えば表示制御部150などの機能を実現するためのプログラムが格納されてもよい。
1−2.情報処理装置の動作
次に、図3を参照して、本実施形態に係るアニメーション表示処理について説明する。本実施形態に係るアニメーション表示処理は、入力画像の提示時の画面遷移及び入力画像の閲覧開始時において、視差量が小さい位置から実際に立体視表示したい位置までアニメーション表示を実行するものである。
まず、ステップS305において、画像入力部140は、複数のオブジェクト200a〜200gを含む画像を入力する。ステップS310では、表示制御部150は、画像を視差がない状態で表示画面120に2D表示する。ステップS315では、取得部130が、特定のオブジェクトに向けられたユーザの注目に関する検出結果を取得し、表示制御部150は、特定のオブジェクトに対するユーザの注目を判定する。ユーザが特定のオブジェクトに注目していないと判定された場合、ステップS310に戻り、ユーザが特定のオブジェクトに注目するまでステップS310、S315を繰り返す。
ユーザが特定のオブジェクトに注目していると判定された場合、ステップS320に進み、表示制御部150は、ユーザの注目している特定のオブジェクトの奥行き量が大きくなるようにオブジェクトをアニメーション表示させる(視差拡大アニメーション表示)。
これによれば、調整する視差量の符号の正負により、図4の上段に示したように、オブジェクト200eが、視差なしの表示状態から徐々に表示画面120の前に飛び出し、目的の立体視表示位置までアニメーション表示され得る。または、図4の下段に示したように、オブジェクト200eが、視差なしの表示状態から徐々に表示画面120の後ろに引き込まれ、目的の立体視表示位置までアニメーション表示され得る。
次に、ステップS325において、表示制御部150は、特定のオブジェクトの立体視画像を目的の立体視表示位置に表示する。次に、ステップS330において、表示制御部150は、ユーザが特定のオブジェクトに注目しているかを判定する。ユーザが特定のオブジェクトに注目していると判定された場合、ステップS325に戻り、ユーザが特定のオブジェクトから目を離すまで、特定のオブジェクトの立体視画像を目的の立体視表示位置に表示するためのステップS325、S330の処理を繰り返す。
ユーザが特定のオブジェクトから目を離したと判定された場合、ステップS335に進み、表示制御部150は、目を離した時間の長さを判定する。目を離した時間が予め定められた閾値A(第1の所定時間に相当)以下の場合、ステップS325に戻り、表示制御部150は、特定のオブジェクトの立体視画像を目的の立体視表示位置に表示し、目を離した時間が閾値Aより長くなるまで、ステップS325〜335の処理を繰り返す。
目を離した時間が予め定められた閾値Aより長くなった場合、ステップS340に進み、表示制御部150は、特定のオブジェクトの奥行き量が小さくなるようにオブジェクトをアニメーション表示させる(視差縮小アニメーション表示)。次に、ステップS345において、表示制御部150は、ユーザが特定のオブジェクトに注目しているかを判定する。ユーザが特定のオブジェクトに注目していると判定された場合、ステップS320に戻り、表示制御部150は、特定のオブジェクトの奥行き量が大きくなるようにオブジェクトをアニメーション表示させ、ステップS325以後の処理を再度実行する。
ステップS345において、表示制御部150は、ユーザが特定のオブジェクトに注目していないと判定された場合、ステップS335に戻り、目を離した時間が閾値Aより長く閾値B(第2の所定時間に相当)より短い間、視差縮小アニメーション表示を続け、ステップS335にて、目を離した時間が閾値B以上になったら、ステップS310に進んで特定のオブジェクトの画像を視差がない状態で表示画面120に表示する。その後、ステップS315以後の処理を再び実行する。
以上の処理によれば、アニメーション表示により、オブジェクトを奥行き方向に徐々に移動していくため、ユーザはアニメーション表示に従って目の焦点を徐々に調整してオブジェクトに追従させることができる。よって、アニメーション表示しなかった場合に比べて、オブジェクトの飛び出し量や引き込み量の取りえる範囲を広くして、臨場感や迫力のある立体視を表示することができる。
目を離した時間が閾値A以下の場合、ステップS325に戻り、特定のオブジェクトの立体視画像を画面に表示するのは、ほんの少し目を離しただけではアニメーション表示を開始しなくても、ユーザは立体視表示されたオブジェクトに容易に焦点を合わせられるためである。また、ほんの少し目を離しただけでアニメーション表示を開始すると、ユーザがすぐにそのオブジェクトに目を戻した場合にも表示の切り替えが頻繁に生じ、煩雑になることを回避するためである。
目を離した時間が閾値Aより長く閾値Bより短い間、ステップS340にて視差縮小アニメーション表示を実行するのは、アニメーション表示により、オブジェクトが目的の立体視表示位置から徐々に奥行き量を小さくする方向に移動していくため、ユーザがオブジェクトに目を戻した場合にもアニメーション表示に従って目の焦点を容易に調整することができるためである。
目を離した時間が閾値B以上の場合、ステップS310に戻り、画像(オブジェクト)を視差がない状態で画面に表示するのは、ユーザがかなり長く目を離した場合には、オブジェクトを視差のない状態で表示すると、ユーザが最も目に疲労感を覚えずに、オブジェクトを閲覧することができるためである。
ステップS320にて、表示制御部150が視差拡大アニメーション表示を行った後、ステップS325にてオブジェクトの立体視画像を画面に表示したのは、オブジェクトを視差がない状態で画面に表示してから目的の立体視表示の位置までアニメーション表示で繋ぐと不自然さが少なくなり、ユーザが見やすくユーザの目に疲労感を与えないためである。
なお、ステップS335では、目を離した時間の長さにより、画像の画面への表示方法を判定した。しかしながら、ステップS335では、時間に替えてオブジェクトのもつ視差量によって制御してもよい。例えば、過剰に飛び出したコンテンツや、過剰に引っ込んだオブジェクト等、視差量が大きい画像コンテンツの場合には、しばらく目を離した後はステップS310に戻って画像コンテンツを視差なしで画面に表示してもよい。また、視差量が小さい場合には、しばらく目を離した後はステップS325に戻って、視差を変えずに立体視表示を続けてもよい。視差量が小さくもなく大きくもない場合には、ステップS340に進んで、視差縮小アニメーション表示を実行してもよい。なお、しばらく目を離したかどうかや、視差量が小さくもなく大きくもない場合とはどのような条件かについては、予め定められていてその値が記憶部160に格納されていてもよい。
1−3.視差量の調整
前述したように、表示制御部150は、取得部130により取得された検出結果に基づきユーザの注目に応じて特定のオブジェクトの視差量を調整し、調整された視差量に対応してオブジェクトをアニメーション表示する。
このとき、表示制御部150は、オブジェクトの視差量を線形又は非線形に調整することができる。これによりアニメーション表示のスピードを制御することができる。例えば、図6の上段のグラフには、視差量を線形に調整する例が示され、図6の下段のグラフには、視差量を非線形に調整する例が示されている。
上段の左側のグラフは、アニメーション表示を開始してから終了するまでの時間、視差量の絶対値を線形に小さくする調整する方法である。これによれば、オブジェクトの飛び出し表現又は引き込み表現を徐々に小さくする視差縮小アニメーション表示が実行される。ユーザの疲労や違和感を軽減するためには、一般的に、表示画面120より前に飛び出す表現よりも表示画面120より奥に引き込む表現の方が人の目に負担が掛からず閲覧が容易である。このため、図6の各グラフでは、表示画面120より奥に表示する際の視差量の絶対値が、表示画面120より手前に表示する際の視差量の絶対値より大きくなっている。なお、いずれの側にオブジェクトを表示する際にも、アニメーションの開始時間tから、終了時間tまでに要する時間は同じである。よって、表示画面120より奥で行われるアニメーション表示のスピードは、表示画面120より手前で行われるアニメーション表示のスピードよりも早くなる。
上段の右側のグラフは、視差量の絶対値を線形に大きくする調整する方法であり、これによれば、オブジェクトの飛び出し表現又は引き込み表現を徐々に大きくする視差拡大アニメーション表示が実行される。この場合にも、表示画面120より奥で行われるアニメーション表示のスピードは、表示画面120より手前で行われるアニメーション表示のスピードよりも早くなる。
一方、下段の左側のグラフは、アニメーション表示を開始してから終了するまでの時間、視差量の絶対値を非線形に小さく調整する。これによれば、オブジェクトの飛び出し又は引き込みのスピードが時間によって変化する、視差縮小アニメーション表示を実行することができる。前述の通り、一般的に、表示画面120より前に飛び出す表現よりも表示画面120より奥に引き込む表現の方が人の目に負担が掛からず閲覧が容易である。これに加えて、アニメーションの開始時間tと終了時間t及びその付近の時間帯は、その間の時間帯よりも人の目がオブジェクトに追従しにくい。このようなユーザの視差状態を考慮して、下段左のグラフでは、アニメーションの開始時間tと終了時間t及びその近傍の時間帯では、その間の時間帯より視差量の変化量を小さくすることにより、アニメーションの開始と終了ではゆっくりアニメーション表示させる。
下段の右側のグラフも同様に、視差量の絶対値を非線形に大きく調整する。これによれば、オブジェクトの飛び出し又は引き込みのスピードが変化する、視差拡大アニメーション表示を実行することができる。この場合にも、アニメーション表示の初めと終わりでは、その途中よりアニメーション表示の変化のスピードが遅いため、目に負担がかからず、人の目がオブジェクトに追従しやすくなる。このため、オブジェクトの奥行き量の取りえる範囲を更に広くすることができ、より臨場感や迫力のある立体視表現が可能になる。
1−4.画面の切替
以上に説明したアニメーション表示方法(図3参照)は、静止画像Aの入力後、静止画像Bを入力したときや、入力される画像が動画像であってシーンが変わるときなど、ある立体視画像の表示から別の立体視画像の表示に画面が切り替わる場面で、異なる距離感をユーザの目に認識させる際に特に有効である。図7は画面の切り替え動作を簡略化して示した図である。この動作ステップは、上から下に向かって実行される。
例えば、ステップS705は、ある入力画像に対して、その画像を立体視表現した状態である(立体視画面A表示状態)。これは図3のステップS325に相当する。その後、ユーザが目を離すと、ステップS710にて、視差縮小アニメーション表示が実行される。これは図3のステップS340(ステップS330〜S345)に相当する。第2の所定時間経過後、ステップS715にて、入力画像の画面Aは視差のない状態で表示される。これは図3のステップS310(ステップS335→S310)に相当する。
ステップS720では、例えば新たな画像を入力することにより、画面が画面Aから画面Bに切り替えられ、ステップS725では、切り替え後の画面Bの画像を視差なしで表示する。これは、図3のステップS305、S310に相当する。その後、ステップS730にて視差拡大アニメーション表示が実行される。これは図3のステップS320に相当する。所定時間経過後、ステップS735にて、入力画像の画面Bは立体視表示される。これは図3のステップS325に相当する。
以上に説明したように、切り替えて表示される画像のそれぞれについて立体視表示を行う際、目的の立体視表示までの表示過程で、各画像に対する目的の立体視表示ではない、中間的な画像を表示する。その結果、各画像を、目に負担のかからない非立体視表示から目的の立体視表示までなめらかにアニメーションで遷移させることができ。これにより、ユーザが立体視表示画面を見るときの負担を軽減させることができる。
以上に説明したように、本実施形態に係る情報処理装置100によれば、特定のオブジェクトへのユーザの注目に応じて、オブジェクトを奥行き方向にアニメーション表示させる。これにより、オブジェクトの飛び出し量や引き込み量の取りえる範囲を広くして、臨場感や迫力のある立体視を表示することができる。
特に、携帯機器向けの小型ディスプレイにおいて、腕を伸ばした程度の距離でオブジェクトを立体視表示させるような状況では、視聴距離が非常に短いため、人の目への負担が顕著であり大型ディスプレイと比べてより疲労感を感じやすい。よって、ディスプレイの前後数センチを超えてオブジェクトを提示しようとすると立体視することが困難になってしまう。しかしながら、本実施形態に係る奥行き方向のアニメーション表示によれば、小型ディスプレイにおいても目の疲労や違和感を軽減しながら、オブジェクトの飛び出し量や引き込み量の取りえる範囲を広くして、より臨場感や迫力のある立体視を表示することができる。
1−5.変形例
情報処理装置100によるアニメーション表示は、別の用途にも利用することができる。その一例として本変形例では、立体視での視聴が可能な正視領域と立体視での視聴が困難な逆視領域とで画像の表示方法を変える際に、アニメーション表示を利用する場合について説明する。
最初に、ユーザの視聴位置から視聴可能領域か否かが判定される。例えば、カメラ等を用いてユーザの視聴位置が検出され、その検出結果は、取得部130に送られる。表示制御部150は、取得部130により取得された検出結果に基づき、ユーザの視聴位置に応じて、画像を奥行き方向にアニメーション表示させる。具体的には、表示制御部150は、ユーザの視聴位置が、立体視での視聴が可能な正視領域か、それ以外の逆視領域かの判定を行い、ユーザの視聴位置が正視領域から逆視領域に移ったとき、視差縮小アニメーション表示を実行する。その際、視差縮小アニメーション表示により視差なしで表示されるまで画像を遷移させてもよいし、そのユーザ用に奥行きを調整した立体視表示まで画像を遷移させてもよい。
係る変形例によれば、以上に説明したタイミングに視差縮小アニメーション(フェードアニメーション)を実行することにより、正視領域と逆視領域との境界部分を繋ぐことができる。これにより、正視領域と逆視領域との境界部分で生じる目の不快感を軽減することができる。
以上に説明した実施形態及び変形例によれば、特定のオブジェクトへのユーザの注目に応じて、前記オブジェクトを奥行き方向にアニメーション表示させることにより、オブジェクトの飛び出し量や引き込み量の取りえる範囲を広くすることができる。また、ユーザの閲覧が容易になるため、立体視の飛び出しや引き込み度合いを画面やコンテンツ毎に細かく調整する必要がなくなるため、立体視を使用するユーザインタフェース(GUI)の画面設計を容易にすることができる。
上記実施形態及び変形例において、各部の動作は互いに関連しており、互いの関連を考慮しながら、一連の動作及び一連の処理として置き換えることができる。これにより、情報処理装置の実施形態を、情報処理方法の実施形態及び情報処理装置が有する機能をコンピュータに実現させるためのプログラムの実施形態とすることができる。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
例えば、上記実施形態では、視聴するユーザが一人の場合を想定して、ユーザの注目に応じてオブジェクトを奥行き方向にアニメーション表示させたが、本発明はかかる例に限定されない。例えば、視聴するユーザが複数の場合、取得部は、ユーザ毎にユーザの注目に関する検出結果を取得してもよい。また、表示制御部は、取得された検出結果に基づきユーザ毎に、各ユーザの注目に応じてオブジェクトをそれぞれ奥行き方向にアニメーション表示させてもよい。なお、画面に表示されたオブジェクトの奥行き方向の前後関係は維持されるように制御がなされる。
ユーザが意図的にジェスチャしたときに、これに応じてアニメーション表示を実行するようにしてもよい。その際、取得部は、ユーザによる操作を取得し、表示制御部は、前記取得されたユーザによる操作に応じて視差量を再調整し、再調整された視差量に基づきオブジェクトをアニメーション表示する。これによれば、例えば、視差縮小アニメーション表示の実行中にユーザが意図的にジェスチャした場合には、そのジェスチャに応じて視差拡大アニメーション表示に表示方法が変わり、オブジェクトがあたかも戻ってきたりするように表示することができる。また、ユーザによる操作によって初めてアニメーション表示を開始することもできる。ユーザによる操作によってアニメーション表示を終了させることもできる。
100 情報処理装置
120 表示画面
130 取得部
140 画像入力部
150 表示制御部
160 記憶部
200a〜200g オブジェクト

Claims (14)

  1. 立体視表示が可能な表示画面に表示されたオブジェクトへのユーザの注目に関する検出結果を取得する取得部と、
    前記取得された検出結果に基づき前記ユーザの注目に応じて前記オブジェクトを奥行き方向にアニメーション表示させる表示制御部と、
    を備える情報処理装置。
  2. 前記表示制御部は、前記ユーザの注目が前記オブジェクトから離れたことに応じて、前記オブジェクトの奥行き量が小さくなるように前記オブジェクトをアニメーション表示させる請求項1に記載の情報処理装置。
  3. 前記表示制御部は、前記ユーザの注目が前記オブジェクトに向けられたことに応じて、前記オブジェクトの奥行き量が大きくなるように前記オブジェクトをアニメーション表示させる請求項1に記載の情報処理装置。
  4. 前記表示制御部は、前記ユーザの注目が前記オブジェクトから離れてから第1の所定時間が経過した後、前記アニメーション表示を開始させる請求項2に記載の情報処理装置。
  5. 前記表示制御部は、前記ユーザの注目が前記オブジェクトから離れてから第2の所定時間、前記オブジェクトをアニメーション表示させる請求項2又は3に記載の情報処理装置。
  6. 前記表示制御部は、前記ユーザの注目が前記オブジェクトから離れてから前記第2の所定時間が経過した後、前記オブジェクトを視差量がない状態で表示させる請求項5に記載の情報処理装置。
  7. 前記表示制御部は、前記オブジェクトの視差量を線形又は非線形に調整する請求項1に記載の情報処理装置。
  8. 前記表示制御部は、アニメーションの開始と終了及びその近傍の時間帯では、その間の時間帯よりゆっくりアニメーションさせるように前記オブジェクトの視差量を非線形に調整する請求項7に記載の情報処理装置。
  9. 前記取得部は、ユーザによる操作を取得し、
    前記表示制御部は、前記取得されたユーザによる操作に応じて前記視差量を再調整する請求項7に記載の情報処理装置。
  10. 前記表示制御部は、前記ユーザが複数の場合には、ユーザ毎に注目するオブジェクトをそれぞれ奥行き方向にアニメーション表示させる請求項1に記載の情報処理装置。
  11. 前記ユーザの注目に関する検出結果は、少なくともユーザの顔の有無の検出結果を含む請求項1に記載の情報処理装置。
  12. 前記ユーザの注目に関する検出結果は、顔の有無、顔の方向、前記表示画面と顔との距離、2つ以上の目、赤外線がユーザの目を反射した際の反射光、ユーザによる機器の操作、ユーザの機器から発せられる音の指向性、アイコンタクト、視線の移動、視線の方向、体の有無、体の一部の方向、ユーザのジェスチャ、脳信号からなる群から選択される少なくとも一つ以上を含む請求項1に記載の情報処理装置。
  13. 立体視表示が可能な表示画面に表示されたオブジェクトへのユーザの注目に関する検出結果を取得するステップと、
    前記取得された検出結果に基づき前記ユーザの注目に応じて前記オブジェクトを奥行き方向にアニメーション表示させるステップと、
    を含む情報処理方法。
  14. 立体視表示が可能な表示画面に表示されたオブジェクトへのユーザの注目に関する検出結果を取得する処理と、
    前記取得された検出結果に基づき前記ユーザの注目に応じて前記オブジェクトを奥行き方向にアニメーション表示させる処理と、
    をコンピュータに実行させるプログラム。
JP2010284583A 2010-12-21 2010-12-21 情報処理装置、情報処理方法およびプログラム Active JP5678643B2 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2010284583A JP5678643B2 (ja) 2010-12-21 2010-12-21 情報処理装置、情報処理方法およびプログラム
EP11188952.3A EP2469866B1 (en) 2010-12-21 2011-11-14 Information processing apparatus, information processing method, and program
US13/314,897 US20120154390A1 (en) 2010-12-21 2011-12-08 Information processing apparatus, information processing method, and program
KR1020110133604A KR20120070499A (ko) 2010-12-21 2011-12-13 정보 처리 장치, 정보 처리 방법 및 프로그램
BRPI1105548-0A BRPI1105548A2 (pt) 2010-12-21 2011-12-14 Aparelho e método de processamento de informação, e, programa
CN201110418483.3A CN102692998B (zh) 2010-12-21 2011-12-14 信息处理装置和信息处理方法
US15/609,765 US20170264881A1 (en) 2010-12-21 2017-05-31 Information processing apparatus, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010284583A JP5678643B2 (ja) 2010-12-21 2010-12-21 情報処理装置、情報処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2012133543A true JP2012133543A (ja) 2012-07-12
JP5678643B2 JP5678643B2 (ja) 2015-03-04

Family

ID=45065714

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010284583A Active JP5678643B2 (ja) 2010-12-21 2010-12-21 情報処理装置、情報処理方法およびプログラム

Country Status (6)

Country Link
US (2) US20120154390A1 (ja)
EP (1) EP2469866B1 (ja)
JP (1) JP5678643B2 (ja)
KR (1) KR20120070499A (ja)
CN (1) CN102692998B (ja)
BR (1) BRPI1105548A2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016535516A (ja) * 2013-07-26 2016-11-10 サムスン エレクトロニクス カンパニー リミテッド 多視点映像処理装置及びその映像処理方法
WO2017022302A1 (ja) * 2015-08-03 2017-02-09 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP2019097126A (ja) * 2017-11-27 2019-06-20 株式会社東海理化電機製作所 車両用視認装置及び表示制御方法
WO2021084653A1 (ja) 2019-10-30 2021-05-06 アイマトリックスホールディングス株式会社 アイコンタクト検出装置

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4787369B1 (ja) * 2010-03-30 2011-10-05 富士フイルム株式会社 画像処理装置および方法並びにプログラム
US8810413B2 (en) * 2010-10-15 2014-08-19 Hewlett Packard Development Company, L.P. User fatigue
JP5507003B2 (ja) * 2011-03-24 2014-05-28 富士フイルム株式会社 立体画像処理装置及び立体画像処理方法
JP2012257022A (ja) * 2011-06-08 2012-12-27 Sony Corp 画像処理装置および方法、並びにプログラム
DE102011112620B3 (de) * 2011-09-08 2013-02-21 Eads Deutschland Gmbh Abgewinkeltes Display zur dreidimensionalen Darstellung eines Szenarios
DE102011112619A1 (de) 2011-09-08 2013-03-14 Eads Deutschland Gmbh Auswahl von Objekten in einem dreidimensionalen virtuellen Szenario
US9678027B2 (en) 2012-02-29 2017-06-13 Stmicroelectronics S.R.L. Monitoring device with jumper cable coupling and related methods
JP2015046089A (ja) * 2013-08-29 2015-03-12 ソニー株式会社 情報処理装置および情報処理方法
CN103581657B (zh) * 2013-11-01 2017-01-04 深圳超多维光电子有限公司 一种2d/3d显示的方法和装置
US10230932B2 (en) * 2014-02-13 2019-03-12 Autodesk, Inc. Techniques for animating transitions between non-stereoscopic and stereoscopic imaging
CN104049751B (zh) * 2014-06-03 2018-06-01 联想(北京)有限公司 一种信息处理方法及电子设备
CN104123925B (zh) * 2014-07-11 2016-05-11 京东方科技集团股份有限公司 一种显示器、显示方法及装置
GB2534921B (en) * 2015-02-06 2021-11-17 Sony Interactive Entertainment Inc Head-mountable display system
KR20170000196A (ko) * 2015-06-23 2017-01-02 삼성전자주식회사 객체의 속성 기반의 상태 변화 효과를 출력하기 위한 방법 및 그 전자 장치
US10152825B2 (en) * 2015-10-16 2018-12-11 Fyusion, Inc. Augmenting multi-view image data with synthetic objects using IMU and image data
CN105282535B (zh) * 2015-10-22 2018-05-01 神画科技(深圳)有限公司 三维空间环境下的3d立体投影系统及其投影方法
US10962780B2 (en) * 2015-10-26 2021-03-30 Microsoft Technology Licensing, Llc Remote rendering for virtual images
CN106803065A (zh) * 2016-12-27 2017-06-06 广州帕克西软件开发有限公司 一种基于深度信息的瞳距测量方法以及系统
EP3576407A1 (en) * 2018-05-31 2019-12-04 Nokia Technologies Oy Stereoscopic content
CN108960097B (zh) * 2018-06-22 2021-01-08 维沃移动通信有限公司 一种获取人脸深度信息的方法及装置
CN110809188B (zh) * 2019-12-03 2020-12-25 珠海格力电器股份有限公司 视频内容的识别方法、装置、存储介质及电子设备
CN111142819A (zh) * 2019-12-13 2020-05-12 中国科学院深圳先进技术研究院 一种视觉空间注意力检测方法及相关产品

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1031413A (ja) * 1996-07-18 1998-02-03 Sanyo Electric Co Ltd 学習装置
JP2004328566A (ja) * 2003-04-28 2004-11-18 Sharp Corp コンテンツ表示装置およびコンテンツ表示プログラム
JP2008219286A (ja) * 2007-03-01 2008-09-18 Sharp Corp スライドショー装置
JP2008281599A (ja) * 2007-05-08 2008-11-20 Nippon Telegr & Teleph Corp <Ntt> 情報強調表示方法および情報入出力装置
JP2010108257A (ja) * 2008-10-30 2010-05-13 Nippon Telegr & Teleph Corp <Ntt> メディア情報の注目度測定装置、メディア情報の注目度測定方法、メディア情報の注目度測定プログラムおよびそのプログラムを記録した記録媒体

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08116556A (ja) 1994-10-14 1996-05-07 Canon Inc 画像処理方法および装置
US6088006A (en) * 1995-12-20 2000-07-11 Olympus Optical Co., Ltd. Stereoscopic image generating system for substantially matching visual range with vergence distance
US5731805A (en) * 1996-06-25 1998-03-24 Sun Microsystems, Inc. Method and apparatus for eyetrack-driven text enlargement
EP0817123B1 (en) * 1996-06-27 2001-09-12 Kabushiki Kaisha Toshiba Stereoscopic display system and method
US6088066A (en) * 1998-03-13 2000-07-11 Westerman; Larry Alan System for temporarily displaying monochrome images on a color display
EP0961506B1 (en) * 1998-05-20 2003-03-26 Texas Instruments France Autostereoscopic display
US7604348B2 (en) * 2001-01-23 2009-10-20 Kenneth Martin Jacobs Continuous adjustable 3deeps filter spectacles for optimized 3deeps stereoscopic viewing and its control method and means
WO2006012678A1 (en) * 2004-08-03 2006-02-09 Silverbrook Research Pty Ltd Walk-up printing
JP4608563B2 (ja) * 2008-03-26 2011-01-12 富士フイルム株式会社 立体画像表示装置および方法並びにプログラム
JP2009246625A (ja) * 2008-03-31 2009-10-22 Fujifilm Corp 立体表示装置及び立体表示方法並びにプログラム
US8284236B2 (en) * 2009-02-19 2012-10-09 Sony Corporation Preventing interference between primary and secondary content in a stereoscopic display
JP5436060B2 (ja) 2009-06-10 2014-03-05 本田技研工業株式会社 排ガス浄化用酸化触媒装置
JP2011035592A (ja) * 2009-07-31 2011-02-17 Nintendo Co Ltd 表示制御プログラムおよび情報処理システム
DE112011105941B4 (de) * 2011-12-12 2022-10-20 Intel Corporation Scoring der Interessantheit von interessanten Bereichen in einem Anzeigeelement

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1031413A (ja) * 1996-07-18 1998-02-03 Sanyo Electric Co Ltd 学習装置
JP2004328566A (ja) * 2003-04-28 2004-11-18 Sharp Corp コンテンツ表示装置およびコンテンツ表示プログラム
JP2008219286A (ja) * 2007-03-01 2008-09-18 Sharp Corp スライドショー装置
JP2008281599A (ja) * 2007-05-08 2008-11-20 Nippon Telegr & Teleph Corp <Ntt> 情報強調表示方法および情報入出力装置
JP2010108257A (ja) * 2008-10-30 2010-05-13 Nippon Telegr & Teleph Corp <Ntt> メディア情報の注目度測定装置、メディア情報の注目度測定方法、メディア情報の注目度測定プログラムおよびそのプログラムを記録した記録媒体

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016535516A (ja) * 2013-07-26 2016-11-10 サムスン エレクトロニクス カンパニー リミテッド 多視点映像処理装置及びその映像処理方法
WO2017022302A1 (ja) * 2015-08-03 2017-02-09 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP2019097126A (ja) * 2017-11-27 2019-06-20 株式会社東海理化電機製作所 車両用視認装置及び表示制御方法
JP7004410B2 (ja) 2017-11-27 2022-01-21 株式会社東海理化電機製作所 車両用視認装置及び表示制御方法
WO2021084653A1 (ja) 2019-10-30 2021-05-06 アイマトリックスホールディングス株式会社 アイコンタクト検出装置
US11657134B2 (en) 2019-10-30 2023-05-23 Imatrix Holdings Corp. Eye contact detection device

Also Published As

Publication number Publication date
US20120154390A1 (en) 2012-06-21
EP2469866B1 (en) 2019-01-16
JP5678643B2 (ja) 2015-03-04
BRPI1105548A2 (pt) 2015-07-07
US20170264881A1 (en) 2017-09-14
KR20120070499A (ko) 2012-06-29
EP2469866A2 (en) 2012-06-27
EP2469866A3 (en) 2014-03-05
CN102692998B (zh) 2016-09-28
CN102692998A (zh) 2012-09-26

Similar Documents

Publication Publication Date Title
JP5678643B2 (ja) 情報処理装置、情報処理方法およびプログラム
US9716874B2 (en) Continuous adjustable 3Deeps Filter Spectacles for optimized 3Deeps stereoscopic viewing, control method and means therefor, and system and method of generating and displaying a modified video
KR101955224B1 (ko) 가상 환경 컨텐츠를 렌더링하기 위한 모바일 컴퓨팅 디바이스를 이용한 인터페이스를 갖는 헤드 장착 디스플레이(hmd) 시스템
CN107430287B (zh) 主动式快门头戴式显示器
JP6130478B1 (ja) プログラム及びコンピュータ
US10366642B2 (en) Interactive multiplane display system with transparent transmissive layers
US9106906B2 (en) Image generation system, image generation method, and information storage medium
US20120306860A1 (en) Image generation system, image generation method, and information storage medium
TW201027980A (en) A three dimensional display system
US10484824B1 (en) Content presentation and layering across multiple devices
JP2017121082A (ja) プログラム及びコンピュータ
US9628770B2 (en) System and method for stereoscopic 3-D rendering
JP2018157331A (ja) プログラム、記録媒体、画像生成装置、画像生成方法
EP3346375B1 (en) Program, recording medium, content provision device, and control method
KR20170089228A (ko) 스마트 폰을 이용한 가상현실 헤드 마운트 디스플레이의 제어 방법
KR102324624B1 (ko) 미디어 컨텐츠 미리보기들을 제시하기 위한 방법들, 시스템들 및 매체들
US11269411B1 (en) Gaze dependent ocular mode controller for mixed reality
KR20170134147A (ko) 디스플레이 컨트롤러, 전자 기기, 및 가상 현실 장치
JP6806062B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP2012105153A (ja) 立体画像表示装置、立体画像表示方法、立体画像表示方法をコンピュータに実行させるためのプログラム、及びそのプログラムを記録した記録媒体
JP2017097854A (ja) プログラム、記録媒体、コンテンツ提供装置及び制御方法
JP2013070286A (ja) 表示制御プログラム、表示制御システム、表示制御装置、および、表示制御方法
JP2012257252A (ja) 立体画像表示装置、立体画像表示方法、立体画像表示方法をコンピュータに実行させるためのプログラム、及びそのプログラムを記録した記録媒体
KR102286517B1 (ko) 컨트롤러 입력에 따른 회전 구동 제어 방법 및 이를 이용한 헤드 마운티드 디스플레이 시스템
JP2019113942A (ja) 表示制御装置、表示制御システム、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140924

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141222

R151 Written notification of patent or utility model registration

Ref document number: 5678643

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250