JP2015506598A - 電力消費マネジメントを備えたコンピュータ装置及びコンピュータ装置の電力消費を管理する方法 - Google Patents

電力消費マネジメントを備えたコンピュータ装置及びコンピュータ装置の電力消費を管理する方法 Download PDF

Info

Publication number
JP2015506598A
JP2015506598A JP2014547663A JP2014547663A JP2015506598A JP 2015506598 A JP2015506598 A JP 2015506598A JP 2014547663 A JP2014547663 A JP 2014547663A JP 2014547663 A JP2014547663 A JP 2014547663A JP 2015506598 A JP2015506598 A JP 2015506598A
Authority
JP
Japan
Prior art keywords
user
eye
view
zone
eyes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014547663A
Other languages
English (en)
Other versions
JP6032856B2 (ja
Inventor
チン,ポン
ドウ,リン
ジヨウ,グアンホア
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2015506598A publication Critical patent/JP2015506598A/ja
Application granted granted Critical
Publication of JP6032856B2 publication Critical patent/JP6032856B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/27Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/30Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving parallax barriers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • G06F1/3231Monitoring the presence, absence or movement of users
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/325Power saving in peripheral device
    • G06F1/3265Power saving in display device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Abstract

本発明は、ユーザの眼を検出する検出器とプロセッサとを備えたコンピュータ装置に関する。プロセッサは、ユーザの眼の位置が、第1の期間の間、あるゾーン内に保たれるか否かを判定し、上記ユーザの眼の位置が、第1の期間の間、上記ゾーン内に保たれると、ユーザの眼の検出とユーザの眼の位置の判定とを、第2の期間の間、中断するように構成されている。

Description

本発明は、電力消費マネジメントを備えたコンピュータ装置及びコンピュータ装置の電力消費を管理する方法に関する。
今日では、スマートフォン及びPMP(パーソナル・メディア・プレーヤ)のようなコンピュータ装置が世間一般に普及している。3D技術の発展に伴って、これらのモバイル・コンピュータ装置は3Dディスプレイを益々サポートし始めている。このようなモバイル・コンピュータ装置は、スクリーンの対角線サイズが10インチ程度であり、例えば、パララックス・バリア(視差バリア)技術とレンズ・アレイ技術とを含む裸眼立体表示技術を採用し得る。
図1は、パララックス・バリア技術を用いた表示装置を例示し、図2Aと2Bは、レンズ・アレイ技術を用いた表示装置を例示している。
図1に示された例では、パララックス・バリア100が表示スクリーン110の前に配置されることによって、観察者の左眼と右眼が、それぞれ、相異なる左ビューと右ビューを見ることができる。
図2Aに示された例では、レンズ・アレイ200がLCD(液晶ディスプレイ)表示スクリーン210の前に配置されている。レンズ・アレイ200には多数のレンズが含まれており、各々のレンズは、4つの相異なるサブピクセルからの画像を、それぞれ、4つの相異なるビューポイント(視点)に分配するように構成されている。
図2Aと2Bに示されたレンズ・アレイ技術では、左ビューと右ビューが、図2Bに例示されているようにLCDスクリーン210上に表示されると、3D表現用の複数のビュー・ゾーンが作り出される。
図1と2Bからわかるように、左眼が右ビューを見て右眼が左ビューを見る「ファジー・ゾーン」が、両方のケースで作り出される。「ファジー・ゾーン」は、左眼が左ビューを見て右眼が右ビューを見る「ノーマル・ゾーン」と交互に配置されている。このようなファジー・ゾーンは、観察者の眼がファジー・ゾーンに入ったことが検知された時に、表示装置のピクセルによって提示される左ビューと右ビューとを切り換えることによって解消でき、その後、観察者は表示装置上の修正された3D表現を見ることができる。
上述のように、裸眼立体表示装置は、より良い観察体験を観察者に与えるために、表示装置上に提示される3Dコンテンツを広いビューポイント範囲内で観察者が見ることができることが重視される。この目的のため、カメラ、あるいは、その他の任意のセンサを用いて、例えばアイ・トラッキング技術により観察者の眼の位置を検出してもよい。観察者の眼が「ファジー・ゾーン」内にあることが検知されると、表示装置のピクセルによって提示される左ビューと右ビューとが切り換えられ、その結果、観察者が3D表現を楽しむことができる。
しかしながら、アイ・トラッキング技術により観察者の眼の位置を連続的に検出するには、コンピュータ装置にとって大量の計算が必要になるので、観察者がコンピュータ装置を使用している間中、観察者の眼の位置を検出し続けると、観察者の眼の位置の検出のために大量の電力が消費されることになる。
US7091471B2(米国特許第7091471B2号)には、装置の電力管理について、電力消費状態を切り換えるためにユーザの眼の存在/不在を検出することが開示されている。しかしながら、この参考文献には、ユーザの眼の位置の検出に消費される電力をどのように管理するかについては言及されていない。
本発明の目的は、コンピュータ装置についてのより効率的な電力マネジメントを提供することにある。
本発明の一様態によれば、ユーザの眼を検出する検出器とプロセッサとを備えたコンピュータ装置が提供される。プロセッサは、ユーザの眼の位置が、第1の期間の間、あるゾーン内に保たれるか否かを判定し、ユーザの眼の位置が、第1の期間の間、上記ゾーン内に保たれると、ユーザの眼の検出とユーザの眼の位置の判定とを、第2の期間の間、中断するように構成されている。
本発明の他の様態によれば、コンピュータ装置の電力消費を管理する方法が提供される。この方法は、ユーザの眼を検出するステップと、ユーザの眼の位置が、第1の期間の間、あるゾーン内に保たれるか否かを判定するステップと、ユーザの眼の位置が、第1の期間の間、上記ゾーン内に保たれると、ユーザの眼の検出とユーザの眼の位置の判定とを、第2の期間の間、中断するステップと、を含む。
本発明のこれらの様態、その他の様態、特徴、及び、利点は、以下の添付図面に関連した次の説明から明らかになるであろう。
パララックス・バリア技術を用いた表示装置を例示する図である。 レンズ・アレイ技術を用いた表示装置を例示する図である。 レンズ・アレイ技術を用いた表示装置を例示する図である。 本発明の一実施形態によるコンピュータ装置の代表的なブロック図である。 本発明の一実施形態によるコンピュータ装置の基本的な使用環境を例示する図である。 パララックス・バリア技術を用いた、コンピュータ装置の表示装置のビュー・ゾーンを例示する図である。 レンズ・アレイ技術を用いた、コンピュータ装置の表示装置のビュー・ゾーンを例示する図である。 表示装置の2つの相異なるピクセル配置を示す図である。 一実施形態によるコンピュータ装置の動作状態の遷移を例示する状態遷移図である。
以下、本発明の実施形態の種々の様態を説明する。十分な理解が得られるように、説明の目的のために具体的な構成と詳細を述べる。しかしながら、本発明が、ここに提示した具体的な詳細事項を用いずとも実施できることも、当業者には明らかであろう。
図3は、本発明の一実施形態によるコンピュータ装置300の代表的なブロック図を例示している。コンピュータ装置300は、スマートフォン、PMP(パーソナル・メディア・プレーヤ)、タブレット等であってもよい。コンピュータ装置300は、CPU(中央処理装置)310、アイ・トラッキング・モジュール320、ストレージ330、ディスプレイ340、及び、ユーザ入力モジュール350を備えている。また、図3に示されているように、例えばRAM(ランダム・アクセス・メモリ)のようなメモリ360が、CPU310に接続されている。アイ・トラッキング・モジュール320、ストレージ330、ディスプレイ340、及び、ユーザ入力モジュール350は、I/Oコントローラ(図示せず)を介して、CPU310に接続されている。
アイ・トラッキング・モジュール320は、装置300のユーザの眼を検出する要素である。アイ・トラッキング・モジュール320には、アイ・トラッキングの用途に種々のタイプの技術を使用できる。例えば、アイ・トラッキング・モジュール320には、ユーザの顔面上の眼を検出するためのハール・ライク特徴(Haar−like features)を使用できる。当業者であれば、上述の技術がアイ・トラッキングについての唯一の解決手段ではなく、その他の多くの技術がアイ・トラッキングに使用できることが分かるであろう。
ディスプレイ340は、装置300のユーザに対して、テキスト、画像、ビデオ、及び、その他の任意のコンテンツを視覚的に提示するように構成されている。ディスプレイ340は、立体的な3D表現を提示できるように、パララックス・バリア、レンズ・アレイ、又は、その他の任意の可能な要素を用いている。また、ディスプレイ340は、タッチスクリーンとすることができ、これにより、ユーザ入力モジュール350に加えて、ユーザに対してディスプレイ340上で装置300を操作する機能を提供できる。
ユーザ入力モジュール350には、文字又は命令を入力するための装置300上のキー又はボタンが含まれてもよく、また、そのキー又はボタンで入力された文字又は命令を認識する機能も含まれてもよい。ディスプレイ340がタッチスクリーンであり、かつ、装置300が文字又は命令がディスプレイ340上で入力できるように構成されているのであれば、ユーザ入力モジュール350はオプションとすることができる。
ストレージ330は、CPU310が、後述するようにアイ・トラッキング・モジュール320、ストレージ330、ディスプレイ340及びユーザ入力モジュール350を動作させ、かつ操作するためのソフトウェア・プログラムとデータとを記憶するように構成されている。また、ストレージ330は、ディスプレイ340上に提示される3Dビデオ・コンテンツのようなコンテンツも記憶する。
メモリ360は、CPU310によって生成、又は、使用される中間データを記憶することに使用される。
図4は、本発明の一実施形態によるコンピュータ装置の基本的な使用環境を例示している。図4では、ユーザ420がコンピュータ装置400のディスプレイ上に提示されたコンテンツを見ているところが示されている。コンピュータ装置400には、ユーザ420の顔を撮像してユーザ420の眼430を検出するためのカメラ410が設けられている。カメラ410は、ユーザ420の顔を捕捉する役割を担っており、その結果、CPU310で捕捉画像データを分析することによって、ユーザの眼が検出される。カメラ410は、図3に示されるアイ・トラッキング・モジュール320の1つの要素であってもよい。
コンピュータ装置400は、カメラ410に加えて、あるいは、その代わりに深度センサ(図示せず)を備えてもよい。この場合、ユーザ420の眼430の検出は、次のように行われる。
ユーザ420が装置400のディスプレイを見ている時には、ユーザの顔が装置400のディスプレイに向いており、また、ユーザ420がディスプレイ・スクリーンを見ている時には、装置400に対するユーザの顔の位置は、ユーザの顔が深度センサによって捕捉できる位置に時折位置すると推定する。深度センサは深度画像を生成するように構成されているので、深度センサは、捕捉した深度画像から背景を排除することによって、深度画像内のユーザの顔を検出することに用いることができる。次に、検出されたユーザの顔内の、眼、鼻孔及び唇角等の顔の特徴が、サーチされて、トラッキングされる。
トップダウン・アプローチを用いて顔の特徴をサーチしてもよい。トップダウン・アプローチでは、先ず、顔の統計カラーモデル又は深度マップを用いて深度画像内の顔領域をサーチして、次に、顔の特徴についてのサーチ・プロセスを、顔領域内の特定の領域に限定する。これらの顔の特徴を見つけた後、ユーザ420の眼430の位置を特定する。ユーザ420が装置400のディスプレイを見ている間には、ユーザの顔が装置400のディスプレイに対して速く動くことはないと推定しているので、顔の特徴の位置がビデオ・フレーム内で検出されると、次のビデオ・フレーム内の顔の特徴の位置が予測できる。ユーザ420の眼430の位置も、トップダウン・アプローチを用いた上述のプロセスによって検出できる。
図5は、パララックス・バリア技術を用いた、コンピュータ装置の表示装置のビュー・ゾーンを例示している。
表示装置のビュー・ゾーンは、ディスプレイ・スクリーン510のピクセルの配置とパララックス・バリア500のスリットの配置とに基づいて決まる。表示装置のビュー・ゾーンについてのパラメータは、例えば、図3に示されるストレージ330に初めに記憶できる。
ビュー・ゾーンは、次のように特定される。表示装置によって提示される3D表現を見るための最適なゾーンが中央のゾーンであると仮定し、それをview_zone_baseとして示す。view_zone_baseの左側にあるゾーンをview_zone_L1として示し、このview_zone_L1に続くゾーンをview_zone_L2として示し、そして、次の連続するゾーンをview_zone_L3、view_zone_L4等として示す。また、view_zone_baseの右側にあるゾーンをview_zone_R1として示し、このview_zone_R1に続くゾーンをview_zone_R2として示し、そして、次の連続するゾーンをview_zone_R3、view_zone_R4等として示す。
ユーザの眼と表示装置との間の距離をZとし、view_zone_L2からview_zone_R2までの各々のビュー・ゾーンの幅を、それぞれ、width_L2、width_L1、width_base、width_R1、及び、width_R2とすると、ユーザの眼が位置するビュー・ゾーンは、以下のように特定される。
先ず、距離Zが表示装置を見るための特定の最適距離範囲内にあるか否かが検出される。例えば、この特定の最適距離は表示装置のサイズに基づいて初めに規定でき、ストレージ330に記憶できる。
距離Zが特定の最適距離範囲内にある場合には、ユーザの眼がview_zone_base内に位置しているか否かが検出される。ユーザの眼がview_zone_base内に位置している場合には、ユーザが最適位置に位置していることを示す情報を表示装置上に提示してもよい。ユーザは、この位置で、表示装置上の最適な3D表現を見ることができる。
ユーザの眼が右へ水平方向にXセンチメートル移動したことが検出されると、次の式(1)が満たされているか否かが判定される。式(1)が満たされている場合には、ユーザの眼がview_zone_baseからview_zone_R1に移動したと判定される。
X<width_base、及び、X>width_base/2 … (1)
さもなければ、次の式(2)が満たされているか否かが判定される。式(2)が満たされている場合には、ユーザの眼がview_zone_R1からview_zone_R2に移動したと判定される。
width_R1/2<(X−width_base)<width_R1 …(2)
同様のことが、右方向の次の連続するゾーンに適用される。
一方、ユーザの眼が左へ水平方向にXセンチメートル移動したことが検出されると、式(1)が満たされているか否かが判定される。式(1)が満たされている場合には、ユーザの眼がview_zone_baseからview_zone_L1に移動したと判定される。
さもなければ、次の式(3)が満たされているか否かが判定される。式(3)が満たされている場合には、ユーザの眼がview_zone_L1からview_zone_L2に移動したと判定される。
width_L1/2<(X−width_base)<width_L1 …(3)
同様のことが、左方向の次の連続するゾーンに適用される。
図6は、レンズ・アレイ技術を用いた、コンピュータ装置の表示装置のビュー・ゾーンを例示している。
表示装置のビュー・ゾーンは、ディスプレイ・スクリーン610のピクセルの配置とレンズ・アレイ600のレンズの配置とに基づいて決まる。表示装置のビュー・ゾーンについてのパラメータは、例えば、図3に示されるストレージ330に初めに記憶できる。
ビュー・ゾーンは、図5を参照して説明した同じ方法で特定される。図6に示される表示装置では、各々のビュー・ゾーンの幅は一定である。この幅Wを人間の両眼間の標準的な距離である6.25センチメートルとする。
図6に示される表示装置について、ユーザの眼が位置するビュー・ゾーンは、以下のように特定される。
先ず、距離Zが表示装置を見るための特定の最適距離範囲内にあるか否かが検出される。
距離Zが特定の最適距離範囲内にある場合には、ユーザの眼がview_zone_base内に位置しているか否かが検出される。ユーザの眼がview_zone_base内に位置している場合には、ユーザが最適位置に位置していることを示す情報を表示装置上に提示してもよい。ユーザは、この位置で、表示装置上の最適な3D表現を見ることができる。
ユーザの眼が右へ水平方向にXセンチメートル移動したことが検出されると、次の式(4)が満たされているか否かが判定される。式(4)が満たされている場合には、ユーザの眼がview_zone_baseからview_zone_R1に移動したと判定される。
X<W、及び、X>W/2 … (4)
さもなければ、次の式(5)が満たされているか否かが判定される。式(5)が満たされている場合には、ユーザの眼がview_zone_R1からview_zone_R2に移動したと判定される。
W/2<(X−W)<W … (5)
同様のことが、右方向の次の連続するゾーンに適用される。
一方、ユーザの眼が左へ水平方向にXセンチメートル移動したことが検出されると、式(4)が満たされているか否かが判定される。式(4)が満たされている場合には、ユーザの眼がview_zone_baseからview_zone_L1に移動したと判定される。
さもなければ、次の式(5)が満たされているか否かが判定される。式(5)が満たされている場合には、ユーザの眼がview_zone_L1からview_zone_L2に移動したと判定される。
同様のことが、左方向の次の連続するゾーンに適用される。
ユーザの眼が位置しているビュー・ゾーンは、例えばアイ・トラッキング・モジュール320の深度センサ又はカメラ410によって捕捉された画像を分析することによって特定できる。それぞれのビュー・ゾーンとそれらに対応する情報、例えば、捕捉画像内のユーザの眼のサイズ及び位置のような情報との間の対応関係がストレージ330に記憶されている場合には、ユーザの眼が位置しているビュー・ゾーンを特定するための上述の分析は、記憶された対応関係において、捕捉画像の情報に対応するビュー・ゾーンをサーチすることによって実現できる。
本発明によるコンピュータ装置は、ユーザの眼が前のビュー・ゾーンから次のビュー・ゾーンに移動したことが検出される度に、表示装置のピクセルによって提示される左ビューと右ビューとが図3に示されたCPU310によって切り換えられるように構成されている。
ビュー・ゾーンは、交互に配置された第1及び第2のビュー・ゾーンを含んでいる。第1のビュー・ゾーン内では、左ビューがユーザの左眼に提示され、右ビューがユーザの右眼に提示される。第2のビュー・ゾーン内では、左ビューがユーザの右眼に提示され、右ビューがユーザの左眼に提示される。図5及び図6に示される例において、view_zone_baseは第1のビュー・ゾーンであり、このview_zone_baseに隣接するview_zone_L1とview_zone_R1は第2のビュー・ゾーンであり、さらに、view_zone_L1とview_zone_R1とにそれぞれ隣接するview_zone_L2とview_zone_R2は第1のビュー・ゾーンである。
図7は、表示装置の2つの相異なるピクセル配置を示している。図7(a)は、通常ピクセル配置を例示しており、図7(b)は、代替ピクセル配置を例示している。図7(a)に示された通常ピクセル配置は、ユーザの眼が第2のビュー・ゾーンに移動したことが検出されると、図7(b)に示された代替ピクセル配置に切り換えられる。更に、図7(b)に示された代替ピクセル配置は、ユーザの眼が第1のビュー・ゾーンに移動したことが検出されると、図7(a)に示された通常ピクセル配置に切り換えられる。
上述したように、ユーザの眼の位置を検出することによって、コンピュータ装置のユーザに鑑賞の快適さを提供する。しかしながら、ユーザの眼の位置の検出が、コンピュータ装置がオンになっている間中、常時行われると、大量の電力が消費されることになる。これに加えて、コンピュータ装置によるビデオ・コンテンツの再生には、それなりの電力を必要とし、また、ビデオ・コンテンツを表示装置上に提示することにも、同じくそれなりの電力を必要とする。これらの点を考慮に入れて、この実施形態においては、電力消費マネジメントを備えたコンピュータ装置を提供する。
ここでは、FSM(Finite State Machine:有限状態マシン)を用いて、本実施形態によるコンピュータ装置の動作状態を説明する。表1は、FSMの各々の状態の定義を示し、表2は、以下の説明に使用される定数の意味を示す。
Figure 2015506598
Figure 2015506598
以下、図3、図4、図8、表1及び表2を参照して、本実施形態によるコンピュータ装置の動作状態の遷移を説明する。
図8は、本実施形態によるコンピュータ装置の動作状態の遷移を例示する状態遷移図である。
先ず、コンピュータ装置300がオンにされた後、コンピュータ装置300はIDLE状態に入る。IDLE状態では、ビデオ・コンテンツの再生はCPU310によって開始されず、アイ・トラッキング・モジュール320(カメラ410又は深度センサ)はスリープ状態(スタンバイ状態)であり、CPU310は、ユーザ入力モジュール350のスタートキーがユーザによって押されるか、あるいは、ディスプレイ340上に表示されたスタートキーのアイコンがユーザによってクリックされるのを待機している。
IDLE状態についてのステップ805において、ユーザ入力モジュール350のスタートキーがユーザによって押されるか、あるいは、ディスプレイ340上に表示されたスタートキーのアイコンがユーザによってクリックされると、コンピュータ装置300はSTART状態に入る。START状態において、ビデオ・コンテンツの再生がCPU310によって開始され、アイ・トラッキング・モジュール320(カメラ410又は深度センサ)が動作し始め、CPU310がユーザの眼の位置を検出し始める。START状態は、より多くの電力を消費する。ユーザの眼の検出は、T0秒の間、継続される。
START状態についてのステップ810において、ユーザの眼が同一ビュー・ゾーン内にある時間がT0秒未満であると検出されると、ユーザの眼の検出は、さらにT0秒の間、繰り返して継続される。
START状態についてのステップ815において、ユーザの眼が同一ビュー・ゾーン内にT0秒の間あると検出されると、コンピュータ装置300はSTANDBY状態に入る。コンピュータ装置300がSTANDBY状態に入る度に、カウンタがCPU310によって増分されて、カウント数がメモリ360内で更新される。
START状態についてのステップ820において、ユーザの眼がT0秒の間全く検出されない(不在)場合には、コンピュータ装置300は、CAPTURE状態に入る。CAPTURE状態では、ビデオ・コンテンツの再生がCPU310によって行なわれ、アイ・トラッキング・モジュール320が動作し、CPU310がユーザの眼を検出する。コンピュータ装置300がSTART状態からCAPTURE状態に入ると、その時の現在のビデオ提示時刻がメモリ360に記録される。CAPTURE状態は、START状態とほぼ同じ電力を消費する。
STANDBY状態についてのステップ825において、カウント数がN0未満である場合には、CPU310とアイ・トラッキング・モジュール320は、T_0秒の間、ユーザの眼の位置の検出動作を行わない。また、カウント数がN0に等しいか、又は、それより大きい(しかしN1よりは小さい)場合には、CPU310とアイ・トラッキング・モジュール320は、T_1秒の間、ユーザの眼の位置の検出動作を行わない。T_1は、T_0より長い。カウント数がN1になると、それは、ユーザが少なくとも(N0*T_0+(N1−N0)*T_1)秒の間、継続的に同一ビュー・ゾーン内でビデオ・コンテンツを見ていることを意味する。N1は、N0より大きい。カウントがN1になると、カウントの数はゼロにリセットされる。
STANDBY状態において、CPU310とアイ・トラッキング・モジュール320は、T_0秒又はT_1秒の間、ユーザの眼の位置の検出動作を行わないが、CPU310は、ビデオ・コンテンツの再生を行う。STANDBY状態では、ユーザの眼の位置の検出が行われないので、ある程度の電力を節約できる。
上述の説明から分かるように、N0とN1の数は、ユーザが同一アイ・ビュー・ゾーン内でビデオ・コンテンツを見ている時間に関係している。N0とN1の数は、ユーザがコンピュータ装置300上のビデオ・コンテンツを見ている時に、ユーザはコンピュータ装置300に対する自身の眼の位置を秒単位であまり頻繁に変更しないであろうが、ユーザは自己の快適さのために自身の眼の位置を分単位では変更するかもしれないという考察に基づいて、決定できる。
CPU310とアイ・トラッキング・モジュール320が、T_0秒又はT_1秒の間、ユーザの眼の位置の検出を行わない休止状態を続けた後、コンピュータ装置300は、WAKEUP状態に入る。
WAKEUP状態についてのステップ830において、ユーザの眼が、T1秒の間、同一ビュー・ゾーン内にあるか否かが検出される。ユーザの眼が、T1秒の間、同一ビュー・ゾーン内にあることが検出されると、コンピュータ装置300は、再びSTANDBY状態に入る。T1は、T0よりも短い。コンピュータ装置300は、ユーザの眼の位置が同一ビュー・ゾーン内に保たれる限り、STANDBY状態とWAKEUP状態との間を往復する。
WAKEUP状態についてのステップ835において、ユーザの眼が同一ビュー・ゾーン内にある時間がT1秒未満であると検出されると、ユーザの眼の検出は、さらにT1秒の間、繰り返して継続される。
WAKEUP状態についてのステップ840において、ユーザの眼が別のビュー・ゾーンに移動したことが検出されると、コンピュータ装置300は再びSTART状態に入る。このSTART状態において、ビデオ・コンテンツの再生は継続されるが、ディスプレイ340上のピクセル配置は、ユーザの眼が移動したビュー・ゾーンに対応するピクセル配置に切り換えることが可能である。コンピュータ装置300がWAKEUP状態からSTART状態に再び入ると、カウントの数はゼロにリセットされる。
WAKEUP状態についてのステップ845において、ユーザの眼がT1秒の間全く検出されない(不在)場合、コンピュータ装置300はCAPTURE状態に入る。コンピュータ装置300がWAKEUP状態からCAPTURE状態に入った時に、例えばカウント数がN0より小さい場合には、コンピュータ装置300がCAPTURE状態に入るT_0秒前であるビデオ提示時刻がメモリ360に記録される。また、例えば、カウント数がN0に等しいか、又は、それより大きい(しかしN1よりは小さい)場合には、コンピュータ装置300がCAPTURE状態に入った時のビデオ再生位置よりT_1秒前であるビデオ提示時刻がメモリ360に記録されて、カウント数がゼロにリセットされる。
CAPTURE状態についてのステップ850において、コンピュータ装置300がCAPTURE状態に入った後にユーザの眼が検出された時間がT2秒未満である場合には、コンピュータ装置300は、再びSTART状態に入る。このSTART状態において、ビデオ・コンテンツの再生は、ユーザの眼が不在であると検出された時のビデオ提示時刻から再開することが可能である。そのようなビデオ提示時刻は、上述と同じ方法で記録できる。例えば、コンピュータ装置300がSTART状態からCAPTURE状態に入る場合(S820)、ビデオ・コンテンツの再生は、コンピュータ装置300がCAPTURE状態に入った時のビデオ提示時刻から再開されるようにしてもよい。また、コンピュータ装置300がWAKEUP状態からCAPTURE状態に入る場合(S845)、ビデオ・コンテンツの再生は、コンピュータ装置300がCAPTURE状態に入った時よりT_0又はT_1秒前であるビデオ提示時刻から再開されるようにしてもよい。
CAPTURE状態についてのステップ855において、コンピュータ装置300がCAPTURE状態に入った後にユーザの眼がT2秒の間全く検出されない(不在)場合には、コンピュータ装置300はSLEEP状態に入る。SLEEP状態において、CPU310とアイ・トラッキング・モジュール320はユーザの眼の位置の検出動作を行わず、ビデオ・コンテンツの再生は一時停止される。コンピュータ装置300がSLEEP状態に入った後にユーザの眼が一定時間の間検出されない場合には、CPU310とディスプレイ340のための電力を節約するためにディスプレイ340上のビデオ・コンテンツの提示がオフにされる。
SLEEP状態についてのステップ860において、ユーザ入力モジュール350のスタートキーがユーザによって押されるか、あるいは、ディスプレイ340上に表示されたスタートキーのアイコンがユーザによってクリックされると、コンピュータ装置300は再びSTART状態に入る。このSTART状態においても、先のステップ850についての説明のように、ビデオ・コンテンツの再生は、ユーザの眼が不在であると検出された時のビデオ提示時刻から再開されるようにしてもよい。
ステップ845について、ユーザの眼が不在となる前にユーザの眼が検出されたビュー・ゾーンをストレージ330に記録してもよい。ユーザは、概して、同一ビュー・ゾーンにおいてディスプレイ340を見る傾向があるので、そのようなビュー・ゾーンをストレージ330に記録すれば、コンピュータ装置300がCAPTURE状態からSTART状態に入るとき(S850)、CPU310は、記録されたビュー・ゾーンでユーザの眼の位置を検出し始めることができる。記録されたビュー・ゾーンは、ユーザの眼の位置が位置する可能性の最も高いビュー・ゾーンであるから、ユーザの眼の位置が同一ビュー・ゾーン内で検出されるのであれば、ユーザの眼の位置を検出するためのCPU310の演算コストが最小限になり得る。
コンピュータ装置300の上述の機能に加えて、コンピュータ装置300は、ユーザが3D表現モードと2D表現モードとを切り換えられるように構成されていてもよい。2D表現モードは、例えば、ビデオ・コンテンツの左ビュー又は右ビューのみをディスプレイ340の全ピクセル上に提示することによって実現できる。2D表現モードでは、アイ・トラッキング・モジュール320及びCPU310によるユーザの眼の検出は必要とされない。そのため、ユーザが2D表現モードに切り換えると、コンピュータ装置300についての電力消費の更なる低減が達成できる。2D表現モードは、例えば、コンピュータ装置300のバッテリが少ない時に選択され得る。
当業者は、本原理のこれらの、及び、その他の特徴と利点を、ここに開示された事項に基づいて、容易に把握するであろう。また、本原理の開示事項が、ハードウェア、ソフトウェア、ファームウェア、特殊用途プロセッサ、あるいは、それらの組み合わせの種々の形態で実施できることが理解されるであろう。
本原理の開示事項は、ハードウェアとソフトウェアとの組み合わせとして、実施されることが最も望ましい。また、そのソフトウェアは、プログラム記憶装置上に明確に具体化されたアプリケーション・プログラムとして実施してもよい。このアプリケーション・プログラムは、任意の適切なアーキテクチャを備えたマシンにアップロードされて、そのマシンによって実行されてもよい。このマシンは、1つ以上の中央処理装置(「CPU」)、ランダム・アクセス・メモリ(「RAM」)、及び、入出力(「I/O」)インタフェースのようなハードウェアを備えたコンピュータ・プラットホーム上に実施されることが望ましい。このコンピュータ・プラットホームには、オペレーティング・システムとマイクロ命令コードも含まれてもよい。ここに説明した種々のプロセスと機能は、マイクロ命令コードの一部分、又は、アプリケーション・プログラムの一部分、又は、それらの任意の組み合わせであってよく、CPUによって実行されてもよい。更に、例えば増設用のデータ記憶装置のようなその他の種々の周辺装置をコンピュータ・プラットホームに接続してもよい。
更に、添付図面に示された構成システム・コンポーネント及び方法の一部がソフトウェアで実施されることが望ましいため、システム・コンポーネント相互間、又は、処理機能ブロック相互間の実際の接続は、本原理がプログラミングされるやり方に応じて、異なるかもしれないことが理解されるであろう。当業者であれば、ここに開示した事項により、本原理のこれらの、及び、類似の実施、又は、構成を考えられるであろう。
以上、ここに添付図面を参照して実施例を説明したが、本原理がこれらの明確な実施例に限定されないこと、及び、当業者によって、これらの実施例に種々の変更と修正が、本原理の適応範囲、又は、意図から逸脱することなく、行われ得ることが理解されるであろう。そのような変更と修正は、全て、本願の特許請求の範囲の請求項に記載された本原理の適応範囲内に含まれるものである。

Claims (12)

  1. ユーザの眼を検出する検出器(320)と、
    前記ユーザの眼の位置が、第1の期間の間、あるゾーン内に保たれるか否かを判定し、前記ユーザの眼の位置が、第1の期間の間、前記ゾーン内に保たれると、前記ユーザの眼の検出と前記ユーザの眼の位置の判定とを、第2の期間の間、中断するように構成されたプロセッサ(310)と、
    を有するコンピュータ装置(300)。
  2. 前記プロセッサ(310)は、更に、前記ユーザの眼の位置が、第1の期間の間、前記ゾーン内に保たれるか否かを判定することと、前記ユーザの眼の検出と前記ユーザの眼の位置の判定とを、第2の期間の間、中断することと、を繰り返すように構成されている、請求項1に記載の装置。
  3. 前記プロセッサ(310)は、更に、前記ユーザの眼の位置が、第1の期間の間、前記ゾーン内に保たれるか否かを判定し、前記ユーザの眼の検出と前記ユーザの眼の位置の判定とを、第2の期間の間、中断している間でも、コンテンツを再生するように構成されている、請求項1又は2に記載の装置。
  4. 前記プロセッサ(310)は、更に、前記ユーザの眼の位置が、第1の期間の間、前記ゾーン内に保たれるか否かを判定し、前記ユーザの眼の検出と前記ユーザの眼の位置の判定とを、第2の期間の間、中断している間でも、ビデオ・コンテンツを再生し、前記ユーザの眼が、第3の期間の間、検出されない場合には、前記ユーザの眼の検出と前記ユーザの眼の位置の判定とを中断し、かつ前記ビデオ・コンテンツの再生を一時休止するように構成されている、請求項1又は2に記載の装置。
  5. 左ビューと右ビューとを含む立体像を提示することに使用可能なディスプレイ(340)を更に有する、請求項1から4のいずれか1項に記載の装置。
  6. 数個のビュー・ゾーンにおいて左ビューと右ビューとを含む立体像を提示することに使用可能なディスプレイ(340)を更に有しており、前記ビュー・ゾーンは交互に配置された第1及び第2のビュー・ゾーンを含んでおり、前記第1のビュー・ゾーンにおいては、前記左ビューが前記ユーザの左眼に提示され、前記右ビューが前記ユーザの右眼に提示され、前記第2のビュー・ゾーンにおいては、前記左ビューが前記ユーザの右眼に提示され、前記右ビューが前記ユーザの左眼に提示されるようになっており、
    前記プロセッサ(310)は、更に、前記ユーザの眼の位置が前記第2のビュー・ゾーンに移動したか否かを判定し、前記ユーザの眼の位置が前記第2のビュー・ゾーンに移動したと判定された場合には、前記ディスプレイ(340)上に表示すべき左ビューと右ビューとの配置を、前記左ビューが前記ユーザの左眼に提示され、前記右ビューが前記ユーザの右眼に提示されるように切り換えるように構成されている、請求項1から4のいずれか1項に記載の装置。
  7. ユーザの眼を検出するステップ(S815,S830)と、
    前記ユーザの眼の位置が、第1の期間の間、あるゾーン内に保たれるか否かを判定するステップ(S815,S830)と、
    前記ユーザの眼の位置が、第1の期間の間、前記ゾーン内に保たれると、前記ユーザの眼の検出と前記ユーザの眼の位置の判定とを、第2の期間の間、中断するステップ(S825)と、
    を含む方法。
  8. 前記判定するステップと前記中断するステップとを繰り返すこと(S825,S830)を更に含む、請求項7に記載の方法。
  9. 前記判定するステップと前記中断するステップとが行われている間でもコンテンツを再生すること(S825)を更に含む、請求項7又は8に記載の方法。
  10. 前記判定するステップと前記中断するステップとが行われている間でもビデオ・コンテンツを再生するステップ(S825)と、
    前記ユーザの眼が、第3の期間の間、検出されない場合には、前記ユーザの眼の検出と前記ユーザの眼の位置の判定とを中断し、かつ前記ビデオ・コンテンツの再生を一時休止するステップ(S855)と、
    を更に含む、請求項7又は8に記載の方法。
  11. 装置が、数個のビュー・ゾーンにおいて左ビューと右ビューとを含む立体像を提示することに使用可能なディスプレイを有しており、前記ビュー・ゾーンは交互に配置された第1及び第2のビュー・ゾーンを含んでおり、前記第1のビュー・ゾーンにおいては、前記左ビューが前記ユーザの左眼に提示され、前記右ビューが前記ユーザの右眼に提示され、前記第2のビュー・ゾーンにおいては、前記左ビューが前記ユーザの右眼に提示され、前記右ビューが前記ユーザの左眼に提示されるようになっており、
    前記方法は、
    前記ユーザの眼の位置が前記第2のビュー・ゾーンに移動したか否かを判定するステップ(S840)と、
    前記ユーザの眼の位置が前記第2のビュー・ゾーンに移動したと判定された場合には、前記ディスプレイ上に表示すべき左ビューと右ビューとの配置を、前記左ビューが前記ユーザの左眼に提示され、前記右ビューが前記ユーザの右眼に提示されるように切り換えるステップ(S840)と、
    を更に含む、請求項7から10のいずれか1項に記載の方法。
  12. ユーザの眼を検出する検出器(320)とプロセッサ(310)とを有するコンピュータ装置(300)のためのプログラムを記憶した、コンピュータ読み取り可能な記憶媒体であって、
    前記プログラムは、
    前記ユーザの眼を検出することと(S815,S830)、
    前記ユーザの眼の位置が、第1の期間の間、あるゾーン内に保たれるか否かを判定することと(S815,S830)、
    前記ユーザの眼の位置が、第1の期間の間、前記ゾーン内に保たれると、前記ユーザの眼の検出と前記ユーザの眼の位置の判定とを、第2の期間の間、中断することと(S825)を、
    前記プロセッサ(310)に実行させる、前記記憶媒体。
JP2014547663A 2011-12-23 2011-12-23 電力消費マネジメントを備えたコンピュータ装置及びコンピュータ装置の電力消費を管理する方法 Expired - Fee Related JP6032856B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2011/084552 WO2013091245A1 (en) 2011-12-23 2011-12-23 Computer device with power-consumption management and method for managing power-consumption of computer device

Publications (2)

Publication Number Publication Date
JP2015506598A true JP2015506598A (ja) 2015-03-02
JP6032856B2 JP6032856B2 (ja) 2016-11-30

Family

ID=48667690

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014547663A Expired - Fee Related JP6032856B2 (ja) 2011-12-23 2011-12-23 電力消費マネジメントを備えたコンピュータ装置及びコンピュータ装置の電力消費を管理する方法

Country Status (7)

Country Link
US (1) US9654768B2 (ja)
EP (1) EP2795425A4 (ja)
JP (1) JP6032856B2 (ja)
KR (1) KR20140105479A (ja)
CN (1) CN104145230A (ja)
BR (1) BR112014012556A2 (ja)
WO (1) WO2013091245A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2839665B1 (en) * 2012-04-03 2019-01-16 Fraunhofer Gesellschaft zur Förderung der angewandten Forschung e.V. An autostereoscopic screen and method for reproducing a 3d image
US9336440B2 (en) 2013-11-25 2016-05-10 Qualcomm Incorporated Power efficient use of a depth sensor on a mobile device
US9830739B2 (en) * 2014-06-17 2017-11-28 Google Inc. Automultiscopic display with viewpoint tracking and scalability for multiple views
US10761591B2 (en) * 2017-04-01 2020-09-01 Intel Corporation Shutting down GPU components in response to unchanged scene detection
US10298921B1 (en) 2018-02-27 2019-05-21 Looking Glass Factory, Inc. Superstereoscopic display with enhanced off-angle separation
WO2021056177A1 (en) * 2019-09-24 2021-04-01 Citrix Systems, Inc. Systems and methods for screen brightness control and auto-lock based on eye detection
CN112584280B (zh) * 2019-09-27 2022-11-29 百度在线网络技术(北京)有限公司 智能设备的控制方法、装置、设备和介质
WO2021070980A1 (ko) * 2019-10-08 2021-04-15 엘지전자 주식회사 이동단말기 및 그 제어 방법
WO2021237065A1 (en) 2020-05-21 2021-11-25 Looking Glass Factory, Inc. System and method for holographic image display
WO2021243037A1 (en) 2020-05-27 2021-12-02 Looking Glass Factory, Inc. System and method for holographic displays
US11415935B2 (en) 2020-06-23 2022-08-16 Looking Glass Factory, Inc. System and method for holographic communication
US11388388B2 (en) 2020-12-01 2022-07-12 Looking Glass Factory, Inc. System and method for processing three dimensional images
US11849100B2 (en) * 2021-05-31 2023-12-19 Canon Kabushiki Kaisha Information processing apparatus, control method, and non-transitory computer readable medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0250145A (ja) * 1988-08-12 1990-02-20 Nippon Telegr & Teleph Corp <Ntt> 立体像表示装置
US4987487A (en) * 1988-08-12 1991-01-22 Nippon Telegraph And Telephone Corporation Method of stereoscopic images display which compensates electronically for viewer head movement
JP2005164916A (ja) * 2003-12-02 2005-06-23 Canon Inc 立体表示装置
JP2008139600A (ja) * 2006-12-01 2008-06-19 Toshiba Corp 表示装置
JP2010250789A (ja) * 2008-06-10 2010-11-04 Akira Tomono カメラ付き表示装置
US20110063421A1 (en) * 2009-09-16 2011-03-17 Fujifilm Corporation Stereoscopic image display apparatus

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0340692A (ja) 1989-07-07 1991-02-21 Nippon Telegr & Teleph Corp <Ntt> 立体画像表示方法
GB2294350A (en) 1994-10-21 1996-04-24 Sharp Kk Light source and display
JP3040692B2 (ja) 1995-05-12 2000-05-15 三菱重工業株式会社 流量制御弁
US6593957B1 (en) 1998-09-02 2003-07-15 Massachusetts Institute Of Technology Multiple-viewer auto-stereoscopic display systems
DE10359403B4 (de) 2003-12-18 2005-12-15 Seereal Technologies Gmbh Autostereoskopisches Multi-User-Display
US7091471B2 (en) 2004-03-15 2006-08-15 Agilent Technologies, Inc. Using eye detection for providing control and power management of electronic devices
KR100647517B1 (ko) 2005-08-26 2006-11-23 (주)마스터이미지 셀 구조 패러랙스-배리어 및 이를 이용하는 입체영상 표시장치
TWI379655B (en) * 2007-12-21 2012-12-21 Wistron Corp Digital photo frame with power saving function and related power saving method
US20090282429A1 (en) * 2008-05-07 2009-11-12 Sony Ericsson Mobile Communications Ab Viewer tracking for displaying three dimensional views
US20100079508A1 (en) * 2008-09-30 2010-04-01 Andrew Hodge Electronic devices with gaze detection capabilities
EP2180716A1 (en) 2008-10-21 2010-04-28 Electronics and Telecommunications Research Institute Autostereoscopic display with observer tracking
KR20100044062A (ko) 2008-10-21 2010-04-29 한국전자통신연구원 무안경식 입체영상 표시 장치, 방법 및 이를 이용한 개인용단말
JP2010117619A (ja) 2008-11-14 2010-05-27 Sharp Corp 液晶表示装置
CN101840265B (zh) * 2009-03-21 2013-11-06 深圳富泰宏精密工业有限公司 视觉感知装置及其控制方法
US8179449B2 (en) 2009-05-20 2012-05-15 Sony Ericsson Mobile Communications Ab Portable electronic apparatus including a display and method for controlling display content based on movement of the display and user position
US8830164B2 (en) * 2009-12-14 2014-09-09 Panasonic Intellectual Property Corporation Of America User interface device and input method
US8913004B1 (en) * 2010-03-05 2014-12-16 Amazon Technologies, Inc. Action based device control
KR101729023B1 (ko) * 2010-10-05 2017-04-21 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
US8643680B2 (en) * 2011-04-08 2014-02-04 Amazon Technologies, Inc. Gaze-based content display
KR20140041570A (ko) * 2011-06-24 2014-04-04 톰슨 라이센싱 사용자의 눈 이동으로 동작가능한 컴퓨터 장치 및 컴퓨터 장치를 동작하는 방법
US9196239B1 (en) * 2013-08-30 2015-11-24 Amazon Technologies, Inc. Distracted browsing modes

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0250145A (ja) * 1988-08-12 1990-02-20 Nippon Telegr & Teleph Corp <Ntt> 立体像表示装置
US4987487A (en) * 1988-08-12 1991-01-22 Nippon Telegraph And Telephone Corporation Method of stereoscopic images display which compensates electronically for viewer head movement
JP2005164916A (ja) * 2003-12-02 2005-06-23 Canon Inc 立体表示装置
JP2008139600A (ja) * 2006-12-01 2008-06-19 Toshiba Corp 表示装置
JP2010250789A (ja) * 2008-06-10 2010-11-04 Akira Tomono カメラ付き表示装置
US20110063421A1 (en) * 2009-09-16 2011-03-17 Fujifilm Corporation Stereoscopic image display apparatus
JP2011064894A (ja) * 2009-09-16 2011-03-31 Fujifilm Corp 立体画像表示装置

Also Published As

Publication number Publication date
EP2795425A4 (en) 2015-08-26
CN104145230A (zh) 2014-11-12
US9654768B2 (en) 2017-05-16
JP6032856B2 (ja) 2016-11-30
EP2795425A1 (en) 2014-10-29
US20140347454A1 (en) 2014-11-27
KR20140105479A (ko) 2014-09-01
BR112014012556A2 (pt) 2017-06-06
WO2013091245A1 (en) 2013-06-27

Similar Documents

Publication Publication Date Title
JP6032856B2 (ja) 電力消費マネジメントを備えたコンピュータ装置及びコンピュータ装置の電力消費を管理する方法
US11341711B2 (en) System and method for rendering dynamic three-dimensional appearing imagery on a two-dimensional user interface
US20190355331A1 (en) Managing Transitions of Adaptive Display Rates for Different Video Playback Scenarios
CN103139463B (zh) 扩增实境的方法、系统及移动装置
AU2015231761B2 (en) Object tracking in zoomed video
US9594945B2 (en) Method and apparatus for protecting eyesight
US8659649B2 (en) Information processing apparatus and information processing method
US20130259312A1 (en) Eye Gaze Based Location Selection for Audio Visual Playback
RU2623201C2 (ru) Мобильное устройство отображения
WO2017092332A1 (zh) 一种渲染图像的处理方法及装置
CN101751219A (zh) 终端装置、显示控制方法和显示控制程序
CN109154862B (zh) 用于处理虚拟现实内容的装置、方法和计算机可读介质
JP2008503779A (ja) 近接アシスト3dレンダリング
US9632579B2 (en) Device and method of processing image
CN104699237A (zh) 辨识使用者操作的方法及相关互动装置与计算机可读介质
CN103608761A (zh) 输入设备、输入方法以及记录介质
CN110248245A (zh) 一种视频定位方法、装置、移动终端及存储介质
WO2023284632A1 (zh) 图像展示方法、装置及电子设备
JP2011070629A (ja) 広告効果測定システム及び広告効果測定装置
WO2017189985A1 (en) Methods and apparatus for providing interactive images
EP2575358A1 (en) Display apparatus and control method thereof
TW201724864A (zh) 彙總及瀏覽視訊內容之方法、裝置及安排
JP5901122B2 (ja) 表示制御装置および表示制御方法
WO2023011300A1 (zh) 记录观看视频的人脸表情的方法和装置
US20120105663A1 (en) Haptic Feedback Response

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141212

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141212

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150226

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20151021

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151118

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160513

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160627

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161019

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161024

R150 Certificate of patent or registration of utility model

Ref document number: 6032856

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees