JP5934363B2 - インタラクティブな画面閲覧 - Google Patents

インタラクティブな画面閲覧 Download PDF

Info

Publication number
JP5934363B2
JP5934363B2 JP2014529654A JP2014529654A JP5934363B2 JP 5934363 B2 JP5934363 B2 JP 5934363B2 JP 2014529654 A JP2014529654 A JP 2014529654A JP 2014529654 A JP2014529654 A JP 2014529654A JP 5934363 B2 JP5934363 B2 JP 5934363B2
Authority
JP
Japan
Prior art keywords
user
area
display
computer
item
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014529654A
Other languages
English (en)
Other versions
JP2014532206A (ja
Inventor
エム. ライアンズ、ケントン
エム. ライアンズ、ケントン
ジェイ. ラトクリフ、ジョシュア
ジェイ. ラトクリフ、ジョシュア
ダブリュー. ハウセッカー、ホースト
ダブリュー. ハウセッカー、ホースト
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of JP2014532206A publication Critical patent/JP2014532206A/ja
Application granted granted Critical
Publication of JP5934363B2 publication Critical patent/JP5934363B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • G06F3/04897Special input arrangements or commands for improving display capability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0606Manual adjustment
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/066Adjustment of display parameters for control of contrast
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0686Adjustment of display parameters with two or more screen areas displaying information with different brightness or colours
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Exposure Control For Cameras (AREA)
  • Focusing (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Automatic Focus Adjustment (AREA)

Description

本発明は、包括的にはコンピューターシステムに関し、詳細には、それらのコンピューターシステムの表示及びグラフィックス処理に関する。
通常、コンピューターシステムは、様々な異なる画像を表示することができる。例えば、コンピューターシステムは、数例を挙げれば、テキスト、静止画像若しくはビデオ画像等のピクチャを表示することができるか、又はアニメーション化されたグラフィックスを表示することができる。
例として、静止写真を取り上げると、一般に、複数の設定を用いて、画像を捕捉する。これらの設定が、画像を捕捉する人物によって行われると、結果として生成される描写の性質は固定される。幾つかの場合では、事後処理を適用して、画像にわたる描写を変更することができる。例えば、完成したピクチャにコントラスト向上を適用し、照明の変更を行い、他の変更を行うことができる。
本発明の一実施形態のシステム図である。 本発明の一実施形態によるカメラのフローチャートである。 本発明の一実施形態による画像表示システムのフローチャートである。 本発明の一実施形態による図3に示される実施形態のセットアップシーケンスである。 本発明の一実施形態によるカメラの概略図である。
本発明の幾つかの実施形態によれば、任意のタイプのコンピューター表示画像の描写は、その画像が既に表示された後、局所的に変更することができる。幾つかの実施形態では、局所的な変更は、ユーザーが全体描写内の特定の領域を選択した結果であることができる。次に、これらの領域を再表示して、領域の特性を向上させることができる。例えば、ユーザーがコンピューター描写の特定の領域を見る場合、例として、解像度、焦点深度、露出、及び視差を含め、その領域の様々な特性を調整することができる。その結果、画像を、現在の関心エリア内で局所的に向上させることができる。
多くの場合、画像にわたり任意のコンピューターディスプレイ描写の調整可能な全ての特性を最適化することは不可能である。画像の異なる領域に描写されるオブジェクトは、画像捕捉装置(又はグラフィカル描写の視点)から異なる距離の箇所にあることがあり、したがって、多少なりともピンぼけすることがある。視差は、描写が捕捉された方法に基づいて描写にわたり異なることがある。同様に、照明は、様々な局所的な照明の影響によって影響を受けることがある。最後に、露出は、描写内の様々な場所で異なることがある。
したがって、現在の関心がより大きな領域内の選択的な向上が可能なことが有利なことがある。これは、ユーザーが関心のある領域を判断することによって、例えば、入出力装置を通してユーザー選択によって、又は視線検出を用いて、ユーザーが実際に何を見ているかを判断することによって行うことができる。次に、これらの領域は、ユーザーが望むように様々な特性が向上されるように再レンダリングすることができる。これは、幾つかの実施形態では自動的に行うことができる。
図1を参照すると、コンピューターシステム10は、カメラ14が搭載されたディスプレイ12を含むことができる。コンピューターシステム10は、例として、デスクトップコンピューター等の固定される装置若しくは有線装置とすることができるか、又はラップトップ、モバイルインターネット装置、携帯電話、テレビ、撮像装置、若しくは娯楽システム等のモバイルシステム若しくは電池給電システムとすることができる。
幾つかの実施形態では、カメラ14は、ユーザー視線検出に用いられるビデオカメラである。本明細書で用いられる場合、「視線検出」は、任意の瞬間にユーザーが見ているディスプレイ12の部分を判断することを意味する。「視線検出」は、頭部、顔、及び/又は目の追跡を包含する。視線検出システムは赤外線光源を含むこともでき、赤外線光源はユーザーの目を赤外線光で照明する。この照明は、目の追跡を改善することができる「赤目」効果を生じさせる。カメラ14の近傍に位置決めされる軸上赤外線光源を用いることができる。また、カメラから離れて配置される軸外光源を代わりに用いることもできる。ディスプレイ12はプロセッサ16に結合することができ、プロセッサ16は関心領域識別モジュール18を含み、関心領域識別モジュール18は、一実施形態では、視線検出器からの入力を用いて、ユーザーがディスプレイのどの領域を見ているかを判断する。
関心領域識別モジュール18は、ハードウェア、ソフトウェア、又はファームウェアを用いて実施することができる。視線検出を用いることに加えて、又は視線検出を用いることに代えて、ディスプレイ12がタッチスクリーンである場合、ディスプレイ画面へのユーザー接触に基づいて、カーソル入力の形態のユーザー入力を受信することができる。関心領域を示す他の方法を適用することもできる。
関心領域識別モジュール18は、一実施形態では、同様にプロセッサ16内に含まれる画像変換モジュール20に結合される。モジュール20は、例として、静止画像、動画像、又はアニメ−ションを変換することができる。写真変換モジュール20は、一実施形態では、ピクチャ24のデータベースに頼り、関心領域を変換することができる。関心領域は、露出、焦点深度、視差、解像度、又は任意の他の特性に関して変換することができる。幾つかの実施形態では、データベース24は、特性を変更して捕捉した同じシーンの幾つかの描写を含むことができる。例えば、露出、焦点深度、視差、照明、又は解像度のうちの1つ又は複数を変更することができ、したがって、特定の関心領域は、ピクチャデータベース24内の異なるバージョンの描写を選択することによって調整された特性を有することができる。次に、変換された画像をディスプレイドライバ22に送り、そして、ディスプレイ12に提供して、現在の表示を変更する。
幾つかの実施形態では、関心領域に適用される変更の性質は予めプログラムすることができる。したがって、ユーザーは、関心領域で何の特性を変更することができるかを厳密にプログラムすることができる。加えて、ユーザーは、ユーザーが特定の関心領域をいかに変更したいかを示すリアルタイムコマンドを提供することができる。これらは、任意の入力装置によって提供することができ、更なる例を挙げると、音声コマンド又はジェスチャコマンドによってさえも示すことができる。
更に別の代替として、システムは、特性のうちのどれを特定の領域で向上させることができるかを決定することができる。システムは、幾つかの実施形態では、それらの向上可能な特性のうちのありとあらゆる特性を自動的に向上させることができる。
図2を参照すると、シーケンス26は、カメラ14を含むプロセッサに基づくシステム10によって実施することができる。したがって、プロセッサに基づくシステムは、静止カメラ、ビデオカメラ、又は撮像能力を有する任意のタイプのコンピューターとすることができる。プロセッサに基づくシステムは、ハードウェア、ソフトウェア、及び/又はファームウェアで実施することができる。ソフトウェア及びファームウェア実施形態では、シーケンスは、半導体記憶媒体、磁気記憶媒体、又は光学記憶媒体等の非一時的なコンピューター可読媒体に記憶されたコンピューター可読命令によって実施することができる。
幾つかの実施形態では、シーケンスは、菱形28に示されるように、映画を構成するフレーム又はフレームシーケンス等の画像を捕捉するコマンドを受信したか否かを判断することによって開始することができる。受信した場合、ブロック30に示されるように、他の特徴の中でも特に、焦点、照明、及び/又はステレオ対応が異なる複数のピクチャを自動的に捕捉することができる。次に、これらのピクチャは、ブロック32に示されるように、データベース24に記憶することができる。幾つかの実施形態では、ピクチャは、どのピクチャがどの効果に対応するかがわかるように編成するか、又はラベルを付けることができる。
次に図3を参照すると、コンピューター制御の表示が、シーケンスによって示され、シーケンスは、ソフトウェア、ハードウェア、及び/又はファームウェアで実施することができる。ソフトウェア及びファームウェア用途では、シーケンスは、非一時的なコンピューター可読媒体に記憶された命令によって実施することができる。
まず、菱形34に示されるように、関心領域が識別される。ここでも、関心領域は、数例を挙げると、視線検出モジュールからのユーザー入力、ユーザーのタッチスクリーン入力、又はカーソル入力を受信することを含め、幾つかの異なる方法で識別することができる。
幾つかの場合、関心領域は、何らかの予めプログラムされたシーケンスを用いて判断することができる。例えば、ユーザーに表示内の様々な領域を見せることが望ましいことがある。したがって、関心領域は、システムが実施するようにプログラムされた内容又は何らかのパターンによって統制することができる。したがって、幾つかの実施形態では、ユーザーを、領域ごとの画面上の描写に通すことができる。例えば、描写は、ユーザーが所与の方法でピクチャを見ることを促進するように変更することができる。逆に、描写は、閲覧者の注意を、ユーザーが見ているシーン内の或るオブジェクトから離すように、例えば、そのオブジェクトの外見を劣化させることによって変更することができる。例えば、オブジェクトをピンぼけさせることができ、一方、別のオブジェクトはより鮮鋭に示される。
次に、ブロック36において、画像の選択、変換、及び組み合わせを達成することができる。これは、所望の向上に対応するデータベース内の画像を選択し、次に、それらの画像を組み合わせて、ディスプレイ12に表示される1つのピクチャにすることによって行うことができる。
幾つかの実施形態では、ブロック38に示されるように、動的写真レンダリングを用いることができる。動的レンダリングは、既存のフレームに取って代わり、ユーザーが見ているオブジェクトの外観を変更する、捕捉された1つ又は複数のフレームの選択を含むことができる。
一手法では、描写の異なるバージョンが、現在の描写に取って代わり、ユーザー関心のエリア又は焦点で所望の効果を提供することができる。別の手法では、関心領域は、コンピューターグラフィックス技法を用いて再レンダリングし、所望の効果を提供することができる。例えば、撮像オブジェクトのモザイクを提供して、全体シーンを構成することができる。これらのモザイクのそれぞれは、変更されたコンピューターレンダリング描写で置き換えることができる。また、幾つかの実施形態では、コンピューターレンダリングされる変更と、異なるカメラ設定を用いて画像の異なるバージョンを捕捉することによって生成される変更との組み合わせを組み合わせることができる。最後に、ブロック40において、表示は、所望される向上を伴った選択された領域を示すように変換される。
幾つかの実施形態では、ユーザー視線検出に基づくシーンの変更は、裸眼が機能する方法に関してシーンの閲覧を模倣するように実施することができる。これは、裸眼が機能する方法を模倣すること、又は裸眼が機能する方法とは逆の効果を意図的に提供することを意味することができる。例として、ユーザーが明るい光を見る場合、目が調整し、目の中に放たれる光が少なくなるにつれて、輝度は徐々に低減する。
人間の目は、或る特定の順応速度を有する。シーン内のライティングが変更される際に、これと同じ順応を電子的に適用して、ユーザーがシーンを見る方法を変更することができる。例えば、ユーザーが、シーン内の明るい光を見るように自身の焦点を変更する際、その明るい光はまず、明るく見え、次に、例えばコンピューターレンダリング技法を用いて徐々に薄暗くすることができる。これが生じる速度は、裸眼が光に順応する速度に対応することができるか、又は所望の効果を生み出すために、その順応とは異なる速度で行うことができる。
描写のソースが、カメラ等の撮像装置である実施形態を説明したが、他の実施形態では、ソースは、放送、ケーブル、又は衛星ソース等のテレビソース、及びDVDディスク、又は他の記憶媒体等のデジタル媒体を含め、閲覧可能な媒体の任意のソースとすることができる。一実施形態では、テレビを用いて、ユーザーが何を見ているかに応答して、ユーザーの受信機に送信されるコンテンツを、例えば、ヘッドエンドから変更することができる。したがって、視線検出に基づく本明細書に記載の変形例は、ユーザーの現在の焦点が何にあるかに従って、ヘッドエンドから描写の異なるバージョンを送信することによって実施することができる。
幾つかの実施形態では、視線検出の正確性はより低くすることができる。そのような場合、コンピュータービジョン技法を利用して、システムの動作を向上させることができる。例として、ユーザーがシーン内に示される人物の頭部を見ていると考える。しかし、視線検出が誤ることがあり、実際には、焦点が、撮像された人物の頭部の近傍ではあるが、頭部に対応しない空白のエリアにあると判断してしまうことがある。コンピューター内容分析を提供して、概して人々は画面の空白エリアを見ないため、視線追跡を用いて特定されたエリアの近傍のエリアを検索し、その実際の焦点がユーザーの頭部に違いないと判断することができる。したがって、ユーザーの視線の焦点が空白のエリアにあることのアイトラッカーの表示に応答して、撮像シーンを検索して、近傍のオブジェクトを見つけ、ユーザーの視線のより可能性の高いオブジェクトを判断することができる。このようにして、内容分析を用いて、検出された視線方向を調整することができる。
図3のシーケンスは、一実施形態では、図4に示されるセットアップシーケンス42を用いて可能にすることができる。システムを実際に用いる前に、図3のシーケンスは、そのシーケンスの入力データを提供することによって可能にすることができる。セットアップシーケンス42は、ハードウェア、ソフトウェア、及び/又はファームウェアで実施することもでき、ソフトウェア及びファームウェア実施形態は、非一時的なコンピューター可読媒体に記憶されたコンピューター実行可能命令によって実施することができる。
まず、ブロック44において、関心領域サイズの選択が受信される。したがって、ユーザーは、画面上の特定のエリアが識別される場合、厳密な視線ターゲットの周りの、変更すべき周囲エリアの大きさを示すことができる。したがって、入力ピクセルを中心にセンタリングされる円形領域、正方形領域、又は矩形領域等の所与の幾何学的形状の領域は、ユーザー選択に基づいて自動的に適用することができる。受信することができる他の入力は、焦点、照明、及びステレオ対応の感度設定の粒度である。したがって、一連の増大又は低減する解像度、焦点、照明、及びステレオ対応で画像を捕捉することができる。ブロック46において、これらの設定の範囲又は連続する各捕捉画像間の変更量は、ユーザーによって設定することができる。
ブロック48において、ユーザーは記録される幾つかの露出設定を設定することができる。この情報の全ては、場合によっては、カメラ又はシステム10のいずれかに関連付けて記憶することができる。幾つかの実施形態では、セットアップシーケンスは、カメラ及びコンピューター10において別個に実施することができる。
最後に、図5を参照して、カメラ14の一例を示す。一実施形態では、カメラ14は、異なる設定(すなわち、焦点深度)で複数のピクチャを同時に撮影することができるプレノプティックカメラ50とすることができる。別の実施形態は単純に、ピントブラケットを用いて、異なるカメラ設定を用いて同じシーンの一連のショットを撮影することができる。更に別の実施形態では、オートブラケットを用いて、異なる設定で同じシーンの一連のショットを自動的に捕捉することができる。
カメラ50は、記憶装置60に結合されるプロセッサ52を含むことができる。記憶装置60は、データをセットアップシーケンス42から受信することができ、ソフトウェア又はファームウェア実施の実施形態では、シーケンス26を含むことができる。プロセッサ52は、一実施形態では、そのようなシーケンスを実行することができる。また、プロセッサ52には、画像センサ54も結合され、画像センサ54を用いて、静止画像又は動画像を実際に捕捉することができる。レンズ系56は、プロセッサ52によって制御することができる。レンズ系は、一連の高速露出のそれぞれにおいて、プロセッサ52によって電子的に、解像度、焦点深度、又は焦点のうちの1つ又は複数を連続して自動的に変更することができる。最後に、照明系又はライティング58は、プロセッサ52によって動的に調整することができる。
本明細書に記載のグラフィックス処理技法は、様々なハードウェアアーキテクチャで実施することができる。例えば、グラフィックス機能はチップセット内に統合することができる。代替的には、離散グラフィックスプロセッサを用いることができる。更に別の実施形態として、グラフィックス機能は、マルチコアプロセッサを含め、汎用プロセッサによって実施することができる。
本明細書全体を通しての「一実施形態」又は「一実施形態」の言及は、その実施形態に関連して説明される特定の特徴、構造、又は特性が、本発明内に包含される少なくとも1つの実施態様に含まれることを意味する。したがって、語句「一実施形態」又は「一実施形態では」の出現は、必ずしも同じ実施形態を参照しない。さらに、特定の特徴、構造、又は特性は、示される特定の実施形態以外の他の適する形態で導入することができ、そのような全ての形態は本願の特許請求の範囲内に包含することができる。
限られた数の実施形態に関して本発明を説明してきたが、当業者であれば、これらの実施形態から多数の変更及び変形を認識するであろう。添付の特許請求の範囲は、本発明の真の趣旨及び範囲に含まれる全ての変更及び変形をカバーすることを意図している。
(項目1)
ユーザーがコンピューターディスプレイをいかに見ているかに基づいて、上記コンピューターディスプレイの表示を変更する段階を備える、方法。
(項目2)
異なる撮像装置設定で撮影された同じシーンの複数の記憶される描写を用いて上記表示を変更する段階を備える、項目1に記載の方法。
(項目3)
コンピューターレンダリングを用いて上記表示を変更する段階を備える、項目1に記載の方法。
(項目4)
視線検出を用いて、上記ユーザーが何を見ているかを判断する段階と、
上記ユーザーの視線が検出された領域の上記表示を変更する段階と
を備える、項目1に記載の方法。
(項目5)
上記ユーザーの視線が検出された上記領域内の焦点、照明、又はステレオ対応のうちの1つ又は複数を変更する段階を備える、項目4に記載の方法。
(項目6)
上記ユーザーが見ている上記領域から離れた領域での上記コンピューターディスプレイの上記表示を変更して、上記ユーザーの注意を別の領域に向ける段階を備える、項目4に記載の方法。
(項目7)
上記ユーザーが見ている上記領域の外観を改善する段階を備える、項目5に記載の方法。
(項目8)
上記ユーザーが見ている上記領域の外観を劣化させる段階を備える、項目5に記載の方法。
(項目9)
視線検出技術を用いて、上記ユーザーがどこを見ているかを判断する段階と、
ビデオ分析を用いて上記視線検出技術の結果を調整する段階と
を備える、項目5に記載の方法。
(項目10)
命令を記憶する非一時的なコンピューター可読媒体であって、上記命令は、コンピューターによって実行されて、
ユーザーがコンピューターディスプレイをいかに見ているかの検出に応答して、上記コンピューターディスプレイに示されるオブジェクトの外観を変更する命令を記憶する非一時的なコンピューター可読媒体。
(項目11)
異なる撮像装置設定で撮影された同じシーンの複数の記憶される描写を用いる命令を更に記憶する、項目10に記載のコンピューター可読媒体。
(項目12)
コンピューターレンダリングを用いて、上記コンピューターディスプレイでの撮像オブジェクトの描写を変更する命令を更に記憶する、項目10に記載のコンピューター可読媒体。
(項目13)
視線検出を用いて、上記ユーザーが何を見ているかを判断し、上記ユーザーの視線のターゲットである領域の上記外観を変更する命令を更に記憶する、項目10に記載のコンピューター可読媒体。
(項目14)
上記領域内の焦点、照明、又はステレオ対応のうちの1つ又は複数を変更する命令を更に記憶する、項目13に記載のコンピューター可読媒体。
(項目15)
上記領域から離れた撮像オブジェクトの外観を変更して、上記ユーザーの注意を上記撮像オブジェクトに向ける命令を更に記憶する、項目14に記載のコンピューター可読媒体。
(項目16)
上記領域の上記外観を改善する命令を更に記憶する、項目15に記載のコンピューター可読媒体。
(項目17)
上記領域の上記外観を劣化させる命令を更に記憶する、項目16に記載のコンピューター可読媒体。
(項目18)
視線検出技術を用いて、上記ユーザーがどこを見ているかを判断し、ビデオ分析を用いて上記視線検出技術の結果を調整する命令を更に記憶する、項目10に記載のコンピューター可読媒体。
(項目19)
ユーザーがコンピューターディスプレイ上の何を見ているかの検出に応答して、上記コンピューターディスプレイに示されているオブジェクトの外観を変更するプロセッサと、
上記コンピューターディスプレイに結合される撮像装置と
を備える、装置。
(項目20)
上記プロセッサに結合されるコンピューターディスプレイを備える、項目19に記載の装置。
(項目21)
上記撮像装置は上記コンピューターディスプレイに搭載される、項目20に記載の装置。
(項目22)
上記プロセッサは、上記ユーザーが上記コンピューターディスプレイ上で見ているオブジェクトの外観を変更する、項目19に記載の装置。
(項目23)
上記撮像装置はプレノプティックカメラである、項目19に記載の装置。
(項目24)
上記カメラは、異なる撮像装置設定で同じシーンの複数の記憶される描写を自動的に捕捉する、項目23に記載の装置。
(項目25)
上記プロセッサは、上記ユーザーが見ている領域内の焦点、照明、又はステレオ対応のうちの1つ又は複数を変更する、項目19に記載の装置。
(項目26)
上記プロセッサは、上記ユーザーが見ているものから離れた撮像オブジェクトの外観を変更する、項目25に記載の装置。
(項目27)
上記プロセッサは、上記ユーザーが見ているものの外観を改善する、項目26に記載の装置。
(項目28)
上記プロセッサは、上記ユーザーが見ているものの上記外観を劣化させる、項目27に記載の装置。
(項目29)
上記プロセッサは、視線検出技術を用いて、上記ユーザーがどこを見ているかを判断し、ビデオ分析を用いて上記視線検出技術の結果を調整する、項目19に記載の装置。
(項目30)
上記プロセッサは、上記視線検出技術の上記判断を分析し、上記判断をディスプレイ画面上の近傍オブジェクトと比較して、上記視線検出技術が上記ユーザーの視線を不正確に判断したか否かを判断することによって、上記視線検出技術を修正する、項目29に記載の装置。

Claims (20)

  1. 視線検出を用いて、ディスプレイ上のユーザーが見ている領域を検出する段階と、
    前記ユーザーが見ている前記領域が空白であるかどうかを判断する段階と、
    前記領域が空白である場合、前記領域の近傍を検索して、近傍のオブジェクトがあるかどうかを判断する段階と、
    前記近傍のオブジェクトがある場合、前記ユーザーが見ているオブジェクトとして、前記近傍のオブジェクトを特定し、前記近傍のオブジェクトの外観を変更する段階と
    を備える、方法。
  2. 異なる撮像装置設定で撮影された同じシーンの複数の記憶される描写を用いて前記ディスプレイの表示を変更する段階を備える、請求項1に記載の方法。
  3. コンピューターレンダリングを用いて前記ディスプレイの表示を変更する段階を備える、請求項1または2に記載の方法。
  4. 視線検出を用いて、前記ユーザーが何を見ているかを判断する段階と、
    前記ユーザーの視線が検出された領域での前記ディスプレイの表示を変更する段階と
    を備える、請求項1から3のいずれか1項に記載の方法。
  5. 前記ユーザーの視線が検出された前記領域内の焦点、照明、又はステレオ対応のうちの1つ又は複数を変更する段階を備える、請求項4に記載の方法。
  6. 前記ユーザーが見ている前記領域から離れた領域での前記ディスプレイの前記表示を変更して、前記ユーザーの注意を別の領域に向ける段階を備える、請求項4または5に記載の方法。
  7. 前記ユーザーが見ている前記領域の外観を改善する段階を備える、請求項5または6に記載の方法。
  8. 視線検出を用いて、ディスプレイ上のユーザーが見ている領域を検出する手順と、
    前記ユーザーが見ている前記領域が空白であるかどうかを判断する手順と、
    前記領域が空白である場合、前記領域の近傍を検索して、近傍のオブジェクトがあるかどうかを判断する手順と、
    前記近傍のオブジェクトがある場合、前記ユーザーが見ているオブジェクトとして、前記近傍のオブジェクトを特定し、前記近傍のオブジェクトの外観を変更する手順と
    をコンピューターに実行させるプログラム。
  9. 異なる撮像装置設定で撮影された同じシーンの複数の記憶される描写を用いる手順を更に前記コンピューターに実行させる、請求項8に記載のプログラム。
  10. コンピューターレンダリングを用いて、前記ディスプレイでの撮像オブジェクトの描写を変更する手順を更に前記コンピューターに実行させる、請求項8または9に記載のプログラム。
  11. 視線検出を用いて、前記ユーザーが何を見ているかを判断し、前記ユーザーの視線のターゲットである領域の前記外観を変更する手順を更に前記コンピューターに実行させる、請求項8から10のいずれか1項に記載のプログラム。
  12. 前記領域内の焦点、照明、又はステレオ対応のうちの1つ又は複数を変更する手順を更に前記コンピューターに実行させる、請求項11に記載のプログラム。
  13. 前記領域から離れた撮像オブジェクトの外観を変更して、前記ユーザーの注意を前記撮像オブジェクトに向ける手順を更に前記コンピューターに実行させる、請求項12に記載のプログラム。
  14. 前記領域の前記外観を改善する手順を更に前記コンピューターに実行させる、請求項13に記載のプログラム。
  15. 視線検出を用いて、ディスプレイ上のユーザーが見ている領域を検出し、前記ユーザーが見ている前記領域が空白であるかどうかを判断し、前記領域が空白である場合、前記領域の近傍を検索して、近傍のオブジェクトがあるかどうかを判断し、前記近傍のオブジェクトがある場合、前記ユーザーが見ているオブジェクトとして、前記近傍のオブジェクトを特定し、前記近傍のオブジェクトの外観を変更するプロセッサを備える、装置。
  16. 前記ディスプレイに結合される撮像装置をさらに備える、請求項15に記載の装置。
  17. 前記プロセッサに結合される前記ディスプレイを備える、請求項15または16に記載の装置。
  18. 前記プロセッサは、前記ユーザーが前記ディスプレイ上で見ているオブジェクトの外観を改善する、請求項15から17のいずれか1項に記載の装置。
  19. 前記撮像装置はプレノプティックカメラである、請求項16に記載の装置。
  20. 前記カメラは、異なる撮像装置設定で同じシーンの複数の記憶される描写を自動的に捕捉する、請求項19に記載の装置。
JP2014529654A 2011-09-08 2011-09-08 インタラクティブな画面閲覧 Active JP5934363B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2011/050893 WO2013036236A1 (en) 2011-09-08 2011-09-08 Interactive screen viewing

Publications (2)

Publication Number Publication Date
JP2014532206A JP2014532206A (ja) 2014-12-04
JP5934363B2 true JP5934363B2 (ja) 2016-06-15

Family

ID=47832474

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014529654A Active JP5934363B2 (ja) 2011-09-08 2011-09-08 インタラクティブな画面閲覧

Country Status (6)

Country Link
US (1) US9361718B2 (ja)
EP (1) EP2754028A4 (ja)
JP (1) JP5934363B2 (ja)
KR (2) KR101754750B1 (ja)
CN (1) CN103765374A (ja)
WO (1) WO2013036236A1 (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140040474A (ko) * 2012-09-26 2014-04-03 한국전자통신연구원 비디오 요약 장치, 방법 및 시스템
US9367117B2 (en) 2013-08-29 2016-06-14 Sony Interactive Entertainment America Llc Attention-based rendering and fidelity
EP2924540B1 (de) * 2014-03-27 2019-04-24 SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH Verfahren und System zum Betreiben einer Anzeigevorrichtung
US20160011657A1 (en) * 2014-07-14 2016-01-14 Futurewei Technologies, Inc. System and Method for Display Enhancement
CN105635624B (zh) * 2014-10-27 2019-05-03 华为技术有限公司 视频图像的处理方法、设备及系统
KR20160071242A (ko) * 2014-12-11 2016-06-21 삼성전자주식회사 안구 움직임에 기반한 컴퓨터 보조 진단 장치 및 방법
EP3250982B1 (en) * 2015-01-30 2021-09-29 Hewlett-Packard Development Company, L.P. Electronic display illumination
CN104635933B (zh) 2015-02-26 2018-10-30 华为技术有限公司 一种图像切换的方法和装置
JP6553418B2 (ja) * 2015-06-12 2019-07-31 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 表示制御方法、表示制御装置及び制御プログラム
US10218968B2 (en) * 2016-03-05 2019-02-26 Maximilian Ralph Peter von und zu Liechtenstein Gaze-contingent display technique
US9990035B2 (en) * 2016-03-14 2018-06-05 Robert L. Richmond Image changes based on viewer's gaze
WO2017208351A1 (ja) * 2016-05-31 2017-12-07 株式会社オプティム 撮像画像共有システム、撮像画像共有方法及びプログラム
US10678063B2 (en) 2016-06-20 2020-06-09 Sharp Kabushiki Kaisha Image processing device, display device, control method for image processing device, and control program
US11477302B2 (en) * 2016-07-06 2022-10-18 Palo Alto Research Center Incorporated Computer-implemented system and method for distributed activity detection
US10885478B2 (en) 2016-07-06 2021-01-05 Palo Alto Research Center Incorporated Computer-implemented system and method for providing contextually relevant task recommendations to qualified users
US11093834B2 (en) * 2016-07-06 2021-08-17 Palo Alto Research Center Incorporated Computer-implemented system and method for predicting activity outcome based on user attention
US10152122B2 (en) * 2016-07-18 2018-12-11 Tobii Ab Foveated rendering
US10209772B2 (en) 2016-09-19 2019-02-19 International Business Machines Corporation Hands-free time series or chart-based data investigation
EP3516481B1 (en) * 2016-09-20 2022-01-19 Tobii AB Gaze and saccade based graphical manipulation
US10623723B2 (en) * 2016-09-29 2020-04-14 Intel Corporation Hybrid stereo rendering for depth extension in dynamic light field displays
CN110679147B (zh) 2017-03-22 2022-03-08 奇跃公司 用于显示系统的基于深度的凹式渲染
US20190124313A1 (en) 2017-10-19 2019-04-25 Intel Corporation Three dimensional glasses free light field display using eye location
JP7259838B2 (ja) * 2018-03-13 2023-04-18 ソニーグループ株式会社 情報処理装置、情報処理方法、および記録媒体
WO2019178566A1 (en) 2018-03-16 2019-09-19 Magic Leap, Inc. Depth based foveated rendering for display systems

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6351273B1 (en) * 1997-04-30 2002-02-26 Jerome H. Lemelson System and methods for controlling automatic scrolling of information on a display or screen
JP2001228848A (ja) * 2000-02-15 2001-08-24 Matsushita Electric Ind Co Ltd 視線検出機能を有する表示素子
US6795806B1 (en) * 2000-09-20 2004-09-21 International Business Machines Corporation Method for enhancing dictation and command discrimination
US20030067476A1 (en) 2001-10-04 2003-04-10 Eastman Kodak Company Method and system for displaying an image
JP3966461B2 (ja) * 2002-08-09 2007-08-29 株式会社リコー 電子カメラ装置
EP1426919A1 (en) 2002-12-02 2004-06-09 Sony International (Europe) GmbH Method for operating a display device
JP2004213486A (ja) * 2003-01-07 2004-07-29 Sony Corp 画像処理装置および方法、記録媒体、並びにプログラム
JP3959354B2 (ja) * 2003-01-10 2007-08-15 株式会社東芝 画像生成装置、画像生成方法、及び画像生成プログラム
US7574016B2 (en) * 2003-06-26 2009-08-11 Fotonation Vision Limited Digital image processing using face detection information
WO2005010739A1 (en) 2003-07-29 2005-02-03 Philips Intellectual Property & Standards Gmbh System and method for controlling the display of an image
US9030532B2 (en) * 2004-08-19 2015-05-12 Microsoft Technology Licensing, Llc Stereoscopic image display
US7396129B2 (en) * 2004-11-22 2008-07-08 Carestream Health, Inc. Diagnostic system having gaze tracking
US7501995B2 (en) * 2004-11-24 2009-03-10 General Electric Company System and method for presentation of enterprise, clinical, and decision support information utilizing eye tracking navigation
US20070011609A1 (en) * 2005-07-07 2007-01-11 Florida International University Board Of Trustees Configurable, multimodal human-computer interface system and method
WO2007050029A2 (en) * 2005-10-28 2007-05-03 Tobii Technology Ab Eye tracker with visual feedback
US7694226B2 (en) * 2006-01-03 2010-04-06 Eastman Kodak Company System and method for generating a work of communication with supplemental context
US20100231504A1 (en) * 2006-03-23 2010-09-16 Koninklijke Philips Electronics N.V. Hotspots for eye track control of image manipulation
JP2008003816A (ja) * 2006-06-21 2008-01-10 Matsushita Electric Ind Co Ltd 操作誘導装置及び操作誘導方法
US8213734B2 (en) * 2006-07-07 2012-07-03 Sony Ericsson Mobile Communications Ab Active autofocus window
JP4420002B2 (ja) 2006-09-14 2010-02-24 トヨタ自動車株式会社 視線先推定装置
US7860382B2 (en) * 2006-10-02 2010-12-28 Sony Ericsson Mobile Communications Ab Selecting autofocus area in an image
US8341022B2 (en) * 2006-12-30 2012-12-25 Red Dot Square Solutions Ltd. Virtual reality system for environment building
US20100045596A1 (en) * 2008-08-21 2010-02-25 Sony Ericsson Mobile Communications Ab Discreet feature highlighting
WO2010024782A1 (en) * 2008-08-26 2010-03-04 Agency For Science, Technology And Research A method and system for displaying an hdr image on a ldr display device
CN101394487B (zh) * 2008-10-27 2011-09-14 华为技术有限公司 一种合成图像的方法与系统
CN101943982B (zh) * 2009-07-10 2012-12-12 北京大学 基于被跟踪的眼睛运动的图像操作
WO2011066275A2 (en) * 2009-11-25 2011-06-03 Massachusetts Institute Of Technology Actively addressable aperture light field camera
US8311279B2 (en) * 2010-02-23 2012-11-13 Fuji Xerox Co., Ltd. System and method for improved image analysis through gaze data feedback
US8780251B2 (en) * 2010-09-20 2014-07-15 Canon Kabushiki Kaisha Image capture with focus adjustment

Also Published As

Publication number Publication date
CN103765374A (zh) 2014-04-30
US20130271454A1 (en) 2013-10-17
EP2754028A4 (en) 2015-08-12
KR20140057594A (ko) 2014-05-13
JP2014532206A (ja) 2014-12-04
KR101754750B1 (ko) 2017-07-10
EP2754028A1 (en) 2014-07-16
US9361718B2 (en) 2016-06-07
KR20160045927A (ko) 2016-04-27
WO2013036236A1 (en) 2013-03-14

Similar Documents

Publication Publication Date Title
JP5934363B2 (ja) インタラクティブな画面閲覧
US10623626B2 (en) Multiple lenses system, operation method and electronic device employing the same
US11756279B1 (en) Techniques for depth of field blur for immersive content production systems
US20120133754A1 (en) Gaze tracking system and method for controlling internet protocol tv at a distance
US9746319B2 (en) Generation of depth data based on spatial light pattern
US9852339B2 (en) Method for recognizing iris and electronic device thereof
JP2018513640A (ja) パンニングショットの自動生成
US20180160048A1 (en) Imaging system and method of producing images for display apparatus
KR20140102443A (ko) 카메라를 이용한 물체 추적 방법 및 이를 위한 카메라 시스템
TWI539226B (zh) 物件追蹤影像處理方法及其系統
JP2014529385A (ja) 画像処理システム及び画像処理装置
US20150256764A1 (en) Active-tracking based systems and methods for generating mirror image
KR102001950B1 (ko) 시선 추적 장치 및 이의 시선 추적 방법
US20140313362A1 (en) Method and device relating to image content
US20140085422A1 (en) Image processing method and device
US11847770B2 (en) Automatic generation of all-in-focus images with a mobile camera
TW201132316A (en) Adjusting system and method for vanity mirron, vanity mirron including the same
US10044925B2 (en) Techniques for setting focus in mixed reality applications
JP7293208B2 (ja) マルチ・ビュー・コンテンツを観察するユーザに情報を提示する方法及び機器
US9172860B2 (en) Computational camera and method for setting multiple focus planes in a captured image
US8953899B2 (en) Method and system for rendering an image from a light-field camera
US20170365230A1 (en) Display devices showing multimedia in multiple resolutions with eye tracking
CN111142660A (zh) 一种显示装置、画面显示方法和存储介质
WO2015141185A1 (ja) 撮像制御装置、撮像制御方法および記録媒体
TW201826250A (zh) 顯示裝置及其顯示參數調整方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151005

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160308

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160406

R155 Notification before disposition of declining of application

Free format text: JAPANESE INTERMEDIATE CODE: R155

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160506

R150 Certificate of patent or registration of utility model

Ref document number: 5934363

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250