JP2011509480A - 3dグラフィカルユーザインタフェースをナビゲートするためのシステム及び方法 - Google Patents

3dグラフィカルユーザインタフェースをナビゲートするためのシステム及び方法 Download PDF

Info

Publication number
JP2011509480A
JP2011509480A JP2010541852A JP2010541852A JP2011509480A JP 2011509480 A JP2011509480 A JP 2011509480A JP 2010541852 A JP2010541852 A JP 2010541852A JP 2010541852 A JP2010541852 A JP 2010541852A JP 2011509480 A JP2011509480 A JP 2011509480A
Authority
JP
Japan
Prior art keywords
face
user
mobile device
display screen
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010541852A
Other languages
English (en)
Other versions
JP5443389B2 (ja
Inventor
ミカエル ダールケ,
Original Assignee
ソニー エリクソン モバイル コミュニケーションズ, エービー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー エリクソン モバイル コミュニケーションズ, エービー filed Critical ソニー エリクソン モバイル コミュニケーションズ, エービー
Publication of JP2011509480A publication Critical patent/JP2011509480A/ja
Application granted granted Critical
Publication of JP5443389B2 publication Critical patent/JP5443389B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Telephone Function (AREA)

Abstract

システムは、グラフィカルオブジェクトの1つを選択するために、移動機器のディスプレイ画面上に描画された複数のグラフィカルオブジェクトを見ているユーザが、書くグラフィカルオブジェクトのレンダリングを操作することを可能とする。システムは、ディスプレイ画面、及びユーザの顔からの移動機器の距離を判定する顔接近システムを備える。グラフィカルユーザインタフェース制御システムは、ディスプレイ画面上のグラフィカルオブジェクトのレンダリングを実行する。さらに、移動機器とユーザの顔との距離の変化の通知を受信し、かつ移動機器とユーザの顔との距離が変化したことを判定すると、グラフィカルユーザインタフェース制御システムは、ディスプレイ画面上のグラフィカルオブジェクトのレンダリングのサイズ及び遠近感の少なくともいずれかを変更する。

Description

本発明は、3Dグラフィカルユーザインタフェース、及び3Dグラフィカルユーザインタフェースをナビゲートするためのシステム及び方法に関するものであり、特に、このような3Dグラフィカルユーザインタフェースをナビゲートするために、オブジェクトのレンダリングを操作するシステム及び方法に関する。
Microsoft Windows(登録商標)や、アップルコンピュータ社によって開発されている様々なオペレーティングシステムにより提供されるようなグラフィカルユーザインタフェースは、グラフィカルユーザインタフェース内のオブジェクトにより表される様々なコンピュータの機能をナビゲート及び選択するために、グラフィカルユーザインタフェース内に描画されたオブジェクトのレンダリングをユーザが操作することを可能にするための標準のようなものになりつつある。
例えば、マウスやその他のポインティングデバイスは、グラフィカルインタフェース内にマウスポインタやカーソルを移動し、グラフィカルユーザインタフェース内に描画されたオブジェクトを選択し、当該オブジェクトにより表される機能の呼び出しを開始するために用いられてもよい。機能の呼び出しは、ファイルを開くためにアプリケーションを起動したり、起動中(existing)のアプリケーションでファイルを開いたり、複数階層のメニューの階層を下ったり(drilling down)」、及び一般にグラフィカルユーザインタフェースで描画されたオブジェクトにより示されたその他の機能を呼び出したりするものであってよい。
携帯電話、ポータブルデータアシスタント(PDA)、及びその他の移動電子機器を含む現代の移動機器は大抵、高解像度のカラーディスプレイ画面を備え、電話帳アプリケーション、メモ帳アプリケーション、デジタル写真管理アプリケーション、ゲーム等の複数のソフトウェアアプリケーションを実行可能である。
そのため、移動機器を制御するために、グラフィカルユーザインタフェースを使用することは一般的になってきている。ユーザは、グラフィカルユーザインタフェースのオブジェクトにより表される様々なコンピュータ機能をナビゲートするために、グラフィカルユーザインタフェース内に描画されたオブジェクトのレンダリングを操作する際に、タッチパネル、スタイラス、5Wayナビゲーションコントロール、及び他のコントロールを用いることができる。
3次元(3D)グラフィカルユーザインタフェースシステムもまた提案されている。例えば、川原らの特許文献1には移動機器における3Dグラフィカルユーザインタフェースシステムの実装について述べられている。川原らは、割り込みアプリケーションにおいてユーザの注目が必要な場合に、割り込みより前にユーザが注目していたアプリケーションは傾いた状態で描画されたオブジェクトで示され、割り込みアプリケーションはより目立つ状態で描画されたオブジェクトで示されることを述べている。
傾いた状態で描画されたオブジェクトにより示される実行中のアプリケーション、及びより目立つ状態で描画されたオブジェクトにより示されるアプリケーションを、ユーザは移動機器の数字キー、矢印キー及びジョグダイアルを使用してナビゲートすることができる。
移動機器の2Dグラフィカルユーザインタフェースは一般的であり、川原らは移動機器に置いて3Dグラフィカルユーザインタフェースシステムの使用について述べているが、移動機器のユーザインタフェースは限られた数のキー(一般的には「12キー」または「伝統的な電話」のキーボードとして知られる)を有するキーボードと、もし存在すれば、小さいディスプレイ上のタッチスクリーン(またはスタイラスによって活性化されるパネル)や5Wayマルチ機能ボタンを備えうるポインティングデバイスによって構成されるのが一般的であるため、課題はまだ存在する。このタイプのユーザインタフェースは、QWERTY型フルキーボード及びマウスを用いて一般的なコンピュータシステムで操作するより、あらゆるグラフィカルユーザインタフェースのユーザにとって扱いにくい。
前述の点を考えると、移動機器において便利に実装される3Dグラフィカルユーザインタフェース、及びこのような3Dグラフィカルユーザインタフェースシステムをナビゲートするためのシステム及び方法、特には移動機器の備えるキーパッド及びタッチパネルの伝統的な使用を必要としない方式でこのような3Dグラフィカルユーザインタフェースをナビゲートするためにオブジェクトのレンダリングを操作するためのシステム及び方法が必要である。
米国特許出願公開第2007/0250787号明細書
本発明の第1の側面は、グラフィカルオブジェクト及び詳細画面の少なくともいずれか、または当該グラフィカルオブジェクトのサブオブジェクトの1つを選択するために、移動機器のディスプレイ画面上に遠近法により描画された複数のグラフィカルオブジェクトを見ているユーザが、書くグラフィカルオブジェクトのレンダリングを操作することを可能とするシステムを備える。
システムはディスプレイ画面、ユーザの顔からの移動機器の距離を判定する顔接近システム、及びグラフィカルユーザインタフェース制御システムを備える。グラフィカルユーザインタフェース制御システムは、i)ディスプレイ画面上の複数のグラフィカルオブジェクトの基本レンダリングを実行し、ii)移動機器とユーザの顔との距離の変化の通知を受信する。
移動機器とユーザの顔との距離が変化したと判定すると、グラフィカルユーザインタフェース制御システムはディスプレイ画面上の複数のグラフィカルオブジェクトのレンダリングのサイズ及び遠近感の少なくともいずれかを変更する。例示的な一実施形態において、サイズまたは遠近感の変化は、
i)複数のグラフィカルオブジェクトのサブオブジェクトに関連する、より詳細な情報のレンダリングのための「ズームイン」された効果の生成、及び
ii)複数のグラフィカルオブジェクトにより構成される情報の概観を描画するための「ズームアウト」された効果の生成
の少なくともいずれかを目的としてもよい。
さらに、リセットイベントの通知を受信すると、グラフィカルユーザインタフェース制御システムは、複数のグラフィカルオブジェクトの基本レンダリングに戻すために、ディスプレイ画面上の複数のグラフィカルオブジェクトのレンダリングのサイズ及び遠近感の少なくともいずれかを変更する。
第1の側面において、顔接近システムはさらにユーザの顔に向けられ、ユーザの顔の一連の画像を撮像するカメラを備えてもよい。このようなサブの実施形態に置いて、距離解析モジュールは、
i)画像におけるユーザの顔のサイズが、前の画像における当該ユーザの顔のサイズより小さい場合、移動機器とユーザの顔との距離が増加したと判定し、
ii)画像におけるユーザの顔のサイズが、前の画像における当該ユーザの顔のサイズより大きい場合、移動機器とユーザの顔との距離が減少したと判定する。
それぞれの場合において距離解析モジュールは、移動機器とユーザの顔との距離の変化の通知を生成する。
第1のサブの実施形態において、
i)移動機器とユーザの顔との距離の変化の通知は、移動機器とユーザの顔との距離が減少していることを示す通知を含み、
ii)ディスプレイ画面上の複数のグラフィカルオブジェクトのレンダリングのサイズ及び遠近感の少なくともいずれかの変更は、「ズームイン」された効果を生成するために、複数のサブオブジェクトを表す1つのオブジェクトのレンダリングを、複数のサブオブジェクトの各々のレンダリングによって置換することを含む。
第2のサブの実施形態において、顔接近システムはさらに、ユーザのディスプレイ画面上の視角の変化を判定する視角モジュールを備える。このサブの実施形態において、グラフィカルユーザインタフェース制御システムはさらに、ユーザのディスプレイ画面の視角の変化の通知を受信し、視角が変化したと判定すると、ディスプレイ画面上の複数のグラフィカルオブジェクトのレンダリングの遠近感を変更する。視角モジュールは、一連の画像のうちの1つの画像におけるユーザの顔の位置が、一連の画像のうちの前の画像における当該ユーザの顔の位置から移動されたことを判定することにより、ユーザのディスプレイ画面の視角の変化を判定してもよい。ディスプレイ画面上の複数のグラフィカルオブジェクトのレンダリングの遠近感の変更は、選択できないオブジェクトによって少なくとも1つの選択可能なオブジェクトを置換することを含んでもよい。
第3のサブの実施形態において、システムはさらに、移動機器の加速度を示す信号を生成する加速度計を備えてもよい。このサブの実施形態において、視角モジュールは、加速度を示す信号を受信し、画像及び前の画像間のユーザの顔の移動と、及び移動機器の加速度を示す信号との両方が、視角について同様の変化を示すことを判定することにより、ディスプレイ画面の視角の変化を判定する。
第4のサブの実施形態において、加速度計はさらに、移動機器の特有の選択動作を示す選択信号を生成してもよい。特有の選択動作は、例えば移動機器の短い揺れの動作であってもよい。このサブの実施形態において、グラフィカルユーザインタフェース制御システムはさらに、選択信号を受信し、当該受信に応じて、
i)ディスプレイ画面上の第1のオブジェクト及び第2のオブジェクト間でグラフィカルセレクタを移動し、
ii)グラフィカルセレクタが位置づけられている、複数のグラフィカルオブジェクトの選択を通知する選択信号をアプリケーションに対してを生成する。
第2の側面において、顔接近システムは、
i)ユーザの顔に向けて信号を送信する送信機と、
ii)ユーザの顔で反射された信号を捉える受信機と、
iii)距離解析モジュールと、
を備えてもよい。距離解析モジュールは、
i)信号を送信してからレシーバが反射された当該信号を捉えるまでの時間が、前の信号を送信してからレシーバが反射された当該信号を捉えるまでの時間より大きい場合、移動機器とユーザの顔との距離が増加したと判定し、
ii)信号を送信してからレシーバが反射された当該信号を捉えるまでの時間が、前の信号を送信してからレシーバが反射された当該信号を捉えるまでの時間より小さい場合、移動機器とユーザの顔との距離が減少したと判定する。
それぞれの場合において、距離解析モジュールは移動機器とユーザの顔との距離の変化の通知を生成する。
また、第1のサブの実施形態として、
i)移動機器とユーザの顔との距離の変化の通知は、移動機器とユーザの顔との距離が減少していることを示す通知を含み、
ii)ディスプレイ画面上の複数のグラフィカルオブジェクトのレンダリングのサイズ及び遠近感の少なくともいずれかの変更は、「ズームイン」された効果を生成するために、複数のサブオブジェクトを表す1つのオブジェクトのレンダリングを、複数のサブオブジェクトのそれぞれのレンダリングによって置換することを含む。
第2のサブの実施形態として、顔接近システムはさらに、
i)移動機器の加速度を示す信号を生成する加速度計と、
ii)移動機器の加速度を示す信号に関連する視角の変化を判定することにより、ディスプレイ画面の視角及びユーザの顔の変化を判定する視角モジュールと、
を備える。このサブの実施形態として、グラフィカルユーザインタフェース制御システムはさらに、ディスプレイ画面上の視角及びユーザの顔の変化の通知を受信し、視角が変化していると判定すると、ディスプレイの画面の複数のグラフィカルオブジェクトのレンダリングの遠近感を変更する。また、ディスプレイ画面上の複数のグラフィカルオブジェクトのレンダリングの遠近感の変更は、選択できないオブジェクトによって少なくとも1つの選択可能なオブジェクトを置換することを含んでもよい。
第3のサブの実施形態において、加速度計はさらに、移動機器の特有の選択動作を示す選択信号を生成してもよい。このサブの実施形態において、グラフィカルユーザインタフェース制御システムはさらに、選択信号を受信し、当該受信に応じて、
i)ディスプレイ画面上の第1のオブジェクト及び第2のオブジェクト間でグラフィカルセレクタを移動し、
ii)グラフィカルセレクタが置かれている、複数のグラフィカルオブジェクトの選択を通知する選択信号をアプリケーションに対して生成する。
第4の側面において、顔接近システムはさらに、
i)移動機器の加速度を示す加速度信号を生成する加速度計と、
ii)距離解析モジュールと、
を備える。距離解析モジュールは、
i)移動機器がユーザの顔から離される(このような増加と一致する)方向の当該移動機器の加速度を示す加速度信号を判定すると、移動機器とユーザの顔との距離が増加していると判定し、
ii)移動機器がユーザの顔に向かう(このような減少と一致する)方向の当該移動機器の加速度を示す加速度信号を判定すると、移動機器とユーザの顔との距離が減少していると判定する。
それぞれの場合において、距離解析モジュールは、移動機器とユーザの顔との距離の変化の通知を生成する。
また、第1のサブの実施形態において、
i)移動機器とユーザの顔との距離の変化の通知は、移動機器とユーザの顔との距離が減少していることを示す通知を含んでもよく、
ii)ディスプレイ画面上の複数のグラフィカルオブジェクトのレンダリングのサイズ及び遠近感の少なくともいずれかの変更は、「ズームイン」された効果を生成するために、複数のサブオブジェクトを表す1つのオブジェクトのレンダリングを、複数のサブオブジェクトのそれぞれのレンダリングによって置換することを含む。
第2のサブの実施形態において、顔接近システムはさらに、移動機器の加速度を示す信号に関連する視角の変化の判定により、ディスプレイ画面の視角及びユーザの顔の変化を判定する視角モジュールを備えてもよい。このサブの実施形態において、グラフィカルユーザインタフェース制御システムはさらに、ディスプレイ画面の視角及びユーザの顔の変化の通知を受信し、視角が変化していると判定すると、ディスプレイ画面上の複数のグラフィカルオブジェクトのレンダリングの遠近感を変更する。また、ディスプレイ画面上の複数のグラフィカルオブジェクトのレンダリングの遠近感の変更は、選択できないオブジェクトによって少なくとも1つの選択可能なオブジェクトを置換することを含む。
前述の効果及び関連する目的のために、発明は以下に十分に記載される、請求項において特に述べられる特徴を含む。以下の詳細な記述及び添付の図面は、発明のある例示的な複数の実施形態の詳細を記述している。しかしながら、これらの実施形態は発明の原理に使用されるかもしれない様々な方法のいくつかを示したものである。発明の他の目的、効果及び新たな特徴は、図面とあわせて検討した際に以下の発明の詳細な記述から明らかになるであろう。
本明細書において、「を含む(を有する)」という用語が用いられる場合、記載された機能、整数(integers)、ステップ又は構成要素の存在を特定するものと解釈されるが、他の機能、整数(integers)、ステップ又は構成要素の1つ以上の存在を排除しないことを強調しておく。
本発明の一実施形態に係る3次元グラフィカルユーザインタフェースをナビゲートするための例示的なシステム及び方法の1つの側面を示した図。 本発明の一実施形態に係る3次元グラフィカルユーザインタフェースをナビゲートするための例示的なシステム及び方法の別の側面を示した図。 本発明の一実施形態に係る3次元グラフィカルユーザインタフェースをナビゲートするための例示的なシステム及び方法のさらに別の側面を示した図。 本発明の一実施形態に係る3次元グラフィカルユーザインタフェースをナビゲートするための例示的なシステム及び方法のさらに別の側面を示した図。 本発明の一実施形態に係る3次元グラフィカルユーザインタフェースをナビゲートするための例示的なシステム及び方法の第2の側面を示した図。 本発明の一実施形態に係るグラフィカルユーザインタフェース制御システムの例示的な動作を示したフローチャート。
本明細書で「電子装置」として示される語句は、携帯無線通信装置を含む。また、本明細書において「移動無線端末」または「移動機器」とも呼ぶ「携帯無線通信装置」という語句は、携帯電話、ページャ、例えば電子手帳のようなコミュニケータ、パーソナルデジタルアシスタント(PDA)、スマートフォン等の全ての装置を含む。
本明細書で述べられる多くの要素は、「システム」、「モジュール」、「回路」又は同様の呼ばれ方をしているかどうかに関わらず、1つ以上のハードウェア回路、ソフトウェアコードを実行するプロセッサ、またはハードウェア回路及びコードを実行するプロセッサの組み合わせにおいて実施されてもよい。また、本明細書を通して用いられる回路という語句は(個別の要素でも集積回路ブロックでもよい)ハードウェア回路、コードを実行するプロセッサ、またはハードウェア回路及びコードを実行するプロセッサの組み合わせ、または本技術分野に属する当業者に知られるそれらの組み合わせを包含することが意図されている。
図において、参照番号の付された要素のそれぞれは、参照番号の後に独立した文字記号を伴う同一の参照番号が付された他の要素と類似する。また明細書において、参照番号の後に個別の文字記号を伴う参照番号は、番号及び文字記号が付された個別の要素を参照し、個別の文字記号を伴わない参照番号は、複数の図において参照番号の後に独立した文字記号を伴う、同一の参照番号が付された全ての要素を参照するものとする。
図1は、移動機器10のデータまたは機能を示すオブジェクト14a、16aで構成される3次元(3D)グラフィカルユーザインタフェース13を描画するためのディスプレイ画面12を備える、携帯電話、携帯PDA、デジタルカメラ、MP3プレーヤ、またはその他のハンドヘルド移動機器が統合された、例示的な移動機器10を示している。図1に示されるオブジェクト14aから14bへの遠近感の変化により示されるように、各オブジェクト14a,16aが、深さを有し、また様々な深さのレベルがサブオブジェクトまたはサブ機能を表現するような視覚的効果を与える奥行きのある形状を有する点で、3Dグラフィカルユーザインタフェース13は2Dグラフィカルユーザインタフェースとは異なる。
3次元(3D)グラフィカルユーザインタフェース制御システム18は、本発明の教示に従って、3Dグラフィカルユーザインタフェースを動作させ、グラフィカルユーザインタフェース13をナビゲートするユーザに従い、オブジェクト14a、16aのサイズ及び奥行きの組み合わせを操作するとともにオブジェクト14a、16aのレンダリングを駆動する。
第1の側面において、このような3Dグラフィカルユーザインタフェースのナビゲートをユーザに可能にするために、移動機器はデジタルカメラ26、顔接近システム20、及び任意の加速度計32を含む。
デジタルカメラ26は、顔接近システム20に入力するための一連の画像(または動画像)を生成してよい。特に、デジタルカメラ26は、ユーザがディスプレイ画面12を見ているときに、ユーザの顔が、サムネイル画像45a及び45bで示されるように一連の画像(または動画像)45に描画されるような視野を有してよい。
顔接近システム20は、一連の画像(または動画像)45を受信する。距離解析モジュール28は、画像(例えばサムネイル画像45b)におけるユーザの顔のサイズが、前の画像(例えばサムネイル画像45a)におけるユーザの顔のサイズより大きい場合、移動機器10とユーザの顔との距離が減少したと判定してよい。距離解析モジュールは、ユーザの顔の容易に認識された特徴のサイズを比較することにより、上述したように判定してもよい。例えば、ユーザの2つの眼及び鼻により形成される三角形は、ユーザの顔の容易に認識される特徴(例えば眼及び鼻)のサイズを形成し、画像45a及び45b間における、(三角形47a及び47bで示されるような)この三角形のサイズの増加は、移動機器10とユーザの顔との距離が減少したことを示す。
同様に、距離解析モジュールは、画像におけるユーザの顔のサイズが、前の画像におけるユーザの顔のサイズより小さい場合、移動機器10とユーザの顔との距離が増加したと判定してよい。
距離解析モジュール28は、移動機器とユーザの顔との距離が増加または減少したことの判定を受けて、距離通知信号22を生成してよい。距離通知信号22は、グラフィカルユーザインタフェース制御システム18に入力されてよい。
移動機器とユーザの顔との距離が減少したことを示す距離通知信号22を受信すると、グラフィカルユーザインタフェース制御システム18は、グラフィカルユーザインタフェース13にユーザが「ズームイン」する効果を生成するために、グラフィカルユーザインタフェース13のレンダリングを操作してよい。このような「ズームイン」する効果は、グラフィカルオブジェクト14a、16aのサイズの増加、またはそれぞれのグラフィカルオブジェクトの遠近感の、グラフィカルオブジェクト14b、16bにより描画されるような「ズームイン」された遠近感への変化を含んでよい。この例では、「ズームイン」された遠近感(オブジェクト14b、16b)は、「ズームアウト」された遠近感(オブジェクト14a、16a)ではラベルを描画せず、個別に選択できないサブオブジェクトに対し、ラベルが付され、個別に選択可能であってよいサブオブジェクト15及び17を含む。
図2では、顔接近システム20はさらに視角モジュール30を含んでもよい。視角モジュール30は、画像(例えばサムネイル画像45d)におけるユーザの顔の位置が、前の画像(例えばサムネイル画像45c)におけるユーザの顔の位置から水平軸方向に移動した場合、ユーザのディスプレイ画面の視角の変化が起きたと判定してもよい。それぞれの場合、視角モジュール30は、視角の変化の通知24をグラフィカルユーザインタフェース18に対して生成する。
視角24の変化の通知を受信すると、グラフィカルユーザインタフェース制御システム18は、「ズームイン」された遠近感を有する複数のオブジェクトの変化の効果を生成するために、グラフィカルユーザインタフェース13のレンダリングを操作してよい。図2に示されるように、水平軸方向の視角の変化の通知24を受けて、(「ズームイン」された遠近感の)オブジェクト14bのサイズ及び遠近感は(「ズームアウト」された遠近感の)オブジェクト14aに変化し、(「ズームアウト」された遠近感の)オブジェクト16aのサイズ及び遠近感は(「ズームイン」された遠近感の)オブジェクト16bに変化するように、グラフィカルユーザインタフェース制御システム18はグラフィカルユーザインタフェース13を変化させてよい。
図3に簡易的に示すように、グラフィカルユーザインタフェース13が、オブジェクト16bのような複数の選択可能なサブ要素17を伴う「ズームイン」された遠近感で描画されるオブジェクトである場合、フレーム45e及び45f間のユーザの顔の水平移動により示される、視角の水平変化の通知24を受信すると、グラフィカルユーザインタフェース制御システム18は第1のサブ要素(要素17a)から第2のサブ要素(要素17b)に(ハイライトバーのような)セレクタを移動または切り替える効果を生成するために、グラフィカルユーザインタフェース13のレンダリングを操作してよい。
図4に簡易的に示すように、視角モジュール30は、画像(例えばサムネイル画像45h)におけるユーザの顔の位置が、前の画像(例えばサムネイル画像45g)におけるユーザの顔の位置から垂直軸方向に移動した場合、ユーザのディスプレイ画面の視角の変化が起きたと判定してもよい。また、それぞれの場合、視角モジュール30は視角の変化の通知24をグラフィカルユーザインタフェースに対して生成する。
図4に示すように、垂直軸方向の視角の変化の通知24を受けて、(「ズームイン」された遠近感の)オブジェクト16bは、それぞれのサブ要素17c、17dに関連する異なるデータを表示するように(点線矢印19で示される方向に)回転された(同じく「ズームイン」された遠近感の)オブジェクト16cに変化するように、グラフィカルユーザインタフェース制御システム18はグラフィカルユーザインタフェース13を変化させてよい。特に、オブジェクト16bは、表示されたある文字情報、及び「樽」の裏側に隠された追加の情報である存在情報とともに、「樽型」オブジェクト16bとして積み重ねられたサブオブジェクトのグループの透視レンダリングである。オブジェクト16cは、事前に「樽」の裏側に隠されていた文字情報が、ユーザに見えるように回転されたオブジェクトを示している。
図1、2、3及び4において、加速度計32は顔接近システム20に、移動機器10の加速度の方向及び大きさの両方を示す、加速度ベクトルであってよい加速度信号34を供給してもよい。距離解析モジュール28及び視角モジュール30は、加速度信号34を受信してもよい。このような実施形態では、距離の変化の通知信号22は加速度信号34の機能、または一連の画像45におけるユーザの顔のサイズの変化により判定された距離の変化及び加速度信号34の両方の機能であってよい。このような機能は、画像及び前の画像間の移動端末10とユーザの顔との距離の変化と加速度信号34とが、距離において同様の変化を示すことの判定を含んでもよい。
同様に、視角の変化の通知24は、加速度信号34の機能、または一連の画像45におけるユーザの顔の移動により判定された視角の変化及び加速度信号34の両方の機能であってよい。このような機能は、画像及び前の画像間のユーザの顔の遠近感の変化と加速度信号34とが、視角において同様の変化を示すことの判定を含んでもよい。
特に図3を参照すると、加速度計34はさらに、移動機器10の明確な選択動作を示す選択信号50を生成する。加速度計34により容易に検出可能な、例示的な特有の選択動作は、移動機器10を短く振動させる(brief shake)動作であってよい。この側面において、グラフィカルユーザインタフェース18は選択信号50を受信してもよく、当該選択信号50を受けて、ディスプレイ画面の第1のオブジェクト及び第2のオブジェクト間でグラフィカルセレクタ(例えばハイライトバー)を移動し、グラフィカルユーザインタフェースのグラフィカルオブジェクトの選択を通知する、他のアプリケーションへの選択信号を生成する。
図5は、第2の側面において、このような3Dグラフィカルユーザインタフェースのナビゲートをユーザに可能とするために、移動機器10がユーザの顔に対して信号を方向付けるトランスミッタ44、ユーザの顔で反射した信号を捉える少なくとも1つのレシーバ42a、42b、及び距離解析モジュール28を含んでもよいことを示している。
例示的な実施形態において、
i)トランスミッタ44は、ユーザの顔に向けて赤外光のパルスを定期的に送信する赤外トランスミッタであってもよく、そしてレシーバ42a、42bは反射された赤外光を検出してもよい。また、
ii)トランスミッタ44は、ユーザの顔に向けて高周波音声パルスを定期的に送信する超音波トランスミッタであってもよく、そしてレシーバ42a、42bは反射された音声の周波数を検出するマイクであってもよい。
両方の例において、信号制御システム39は、トランスミッタ44からの信号の送信と、レシーバ42a、42bによる反射された信号の受信との時間のずれを示す信号38を、顔接近システム20の距離解析モジュール28に供給する。信号制御システム39はまた、それぞれのレシーバ42a、42bで受信された、反射された信号の強度を示す信号40を供給してもよい。
距離解析モジュール28は、トランスミッタ44が信号を送信してからレシーバ42a、42bが反射された当該信号を捉えるまで(送信された信号は46b、反射された信号は48bで示される)の時間が、前の信号送信からレシーバが反射された当該信号を捉えるまで(送信された信号は46a、反射された信号は48aで示される)の時間より少ない場合、移動機器10とユーザの顔との距離が減ったことを判定する。同様に、距離解析モジュール28は、トランスミッタ44が信号を送信してからレシーバ42a、42bが反射された信号を捉えるまでの時間が、前の信号送信からレシーバが反射された当該信号を捉えるまでの時間より増加した場合、移動機器とユーザの顔との距離が増加したことを判定する。
いずれかの場合、距離解析モジュール28は距離の変化の通知信号22を生成してよく、移動機器とユーザの顔との距離が減少したことを通知する距離通知信号22の受信を受けて、グラフィカルユーザインタフェース制御システム18は、グラフィカルユーザインタフェース13にユーザが「ズームイン」している効果を生成するために、グラフィカルユーザインタフェース13のレンダリングを操作してもよい。このような「ズームイン」している効果は、グラフィカルオブジェクト14a、16aのサイズの増加や、それぞれのグラフィカルオブジェクトの遠近感が、グラフィカルオブジェクト14b、16bに示されるような「ズームイン」された遠近感となるような変化を含んでもよい。
視角モジュール30は、(信号40により示されるような)反射された信号の強度が、
i)レシーバ42aにより測定された反射された信号の強度、及び
ii)レシーバ42bにより測定された反射された信号の強度
の差について物理的な変化を通知する場合、ユーザのディスプレイ画面の視角の変化が生じたことを判定してよい。
また本側面において加速度計32は、移動機器10の加速度の方向及び大きさの両方を示す加速度ベクトルであってよい加速度信号34を、顔接近システム20に供給してもよい。距離解析モジュール28及び視角モジュール30は、加速度信号34を受信してもよい。このような実施形態において距離の変化の通知信号22は、ユーザの顔に向けて送信され、反射された信号が検出されるまでに要する時間の変化により判定された距離の変化及び加速度信号34の機能であってよい。このような機能は、反射された信号の検出に係る時間の変化により判定される、移動機器10とユーザの顔との距離の変化と、加速度信号34とが、距離について同様の変化を示すことの判定を含んでもよい。
同様に、視角の変化通知24は、レシーバ42a、42bにおいて測定される反射された信号の強度の差の物理的な変化により判定される視角の変化及び加速度信号34の機能であってよい。このような機能は、レシーバ42a、42bで測定された反射された信号の強度の差の物理的な変化により判定された、ユーザの顔の遠近感の変化と、加速度信号34とが、視角について同様の変化を示すことの判定を含んでもよい。
図6は、グラフィカルユーザインタフェース制御システム18の例示的な動作を示すフローチャートを示している。図1に係る図6のフローチャートにおいて、ステップ52は、ディスプレイ画面12にグラフィカルユーザインタフェース13(例えば基本画面39)においてオブジェクト14a、16aの初期レンダリングの生成を示している。
初期レンダリングまたは基本画面は、グラフィカルユーザインタフェース13を基本画面39にリセットする適切なタイミングで生成されてもよい。例えば、初期レンダリングの生成は以下のリセットイベントに応じて生じてもよい。
i)グラフィカルユーザインタフェースに対するユーザによるインタラクションが発生せずに所定の時間が経過した場合(例えば非活動タイムアウト)。
ii)ユーザによる特定のリセット信号の入力に応じて。
このようなリセット信号は例えば、ユーザによる特定のキーの操作(例えばユーザが「*」キー33を2秒間押し続けた)、ユーザによる特定のキーの一連の操作(例えばユーザが「*」キー33、「0」キー35に続けて再び「*」キー33を操作する一連の操作)、ディスプレイ画面12に描画されたリセットコントロール37がタッチパネルに振れることにより操作された、またはカメラ26により検出されるかもしれない特定のリセットジェスチャ等であってよい。
ボックス54は、オブジェクト14a、16aの遠近感及びサイズの少なくともいずれかの変更を実行するかもしれない、様々なイベントを示している。例示的なイベントは、移動機器10とユーザの顔との距離の変化を示す距離変化イベント62を含む。
別の例示的なイベントは、移動機器10のディスプレイ画面12におけるユーザの視角の変化を示す視角変化イベント64を含む。視角の変化は、
i)左方向への移動イベント64a、右方向への移動イベント64bを意味する水平移動
ii)上方向への移動イベント64c、下方向への移動イベント64dを意味する垂直移動
であってもよい。
さらに別の例示的なイベントである選択信号イベント66は、独立した選択動作を示す(加速度計34により生成された)選択信号50の検出を示してもよい。
さらに別の例示的なイベントであるリセットイベント65は、ユーザインタフェースが上述した(図1の)基本画面39にリセットされることの判定を示してもよい。
距離変化イベント62を受けて、グラフィカルユーザインタフェース制御システム18は、図1に関して述べられた「ズームイン」及び「ズームアウト」効果により示されるように、オブジェクトのサイズ及びオブジェクトの遠近感を変更してもよい。
水平移動イベント(イベント64a、64b)を受けて、グラフィカルユーザインタフェース制御システム18は、図2及び図3に関して述べられた効果により示されるように、オブジェクトの遠近感を変更してもよい。同様に、垂直移動イベント(イベント64c、64d)を受けて、グラフィカルユーザインタフェースは図4に関して述べられた効果により示されるように、オブジェクトの遠近感を変更してもよい。
選択信号イベント66を受けて、グラフィカルユーザインタフェース制御システム18は、ディスプレイ画面上の第1及び第2のオブジェクト間でグラフィカルセレクタを移動させ、グラフィカルユーザインタフェースにおいて選択されているグラフィカルオブジェクトを通知する別のアプリケーションに選択信号を生成してもよい。
リセットイベント65を受けて、グラフィカルユーザインタフェース制御システム18は、ステップ52と同様に、上述した基本画面を生成してもよい。
発明を、ある好ましい実施形態について示し、かつ説明してきたが、本明細書を読み理解することにより、本技術分野に属する他の当業者が等価物や変形物を実現できることは明らかである。本発明は、そのような等価物や変形物を全て含み、以下の請求項によってのみ限定される。

Claims (18)

  1. 移動機器のディスプレイ画面上に遠近法により描画された複数のグラフィカルオブジェクトを見ているユーザが、各グラフィカルオブジェクトのレンダリングを操作することを可能とするシステムであって、
    ディスプレイ画面と、
    前記ユーザの顔からの前記移動機器の距離を判定する顔接近システムと、
    グラフィカルユーザインタフェース制御システムであって、
    前記ディスプレイ画面上の前記複数のグラフィカルオブジェクトの基本レンダリングを実行し、
    前記移動機器と前記ユーザの顔との距離の変化の通知を受信し、前記移動機器と前記ユーザの顔との距離が変化したと判定すると、前記ディスプレイ画面上の前記複数のグラフィカルオブジェクトのレンダリングのサイズ及び遠近感の少なくともいずれかを変更する、グラフィカルユーザインタフェース制御システムと、を備えることを特徴とするシステム。
  2. 前記グラフィカルユーザインタフェース制御システムはさらに、リセットイベントの通知を受信すると、前記複数のグラフィカルオブジェクトの基本レンダリングに戻すために、前記ディスプレイ画面上の前記複数のグラフィカルオブジェクトのレンダリングのサイズ及び遠近感の少なくともいずれかを変更することを特徴とする請求項1に記載のシステム。
  3. 前記顔接近システムは、
    前記ユーザの顔に向けられ、前記ユーザの顔の一連の画像を撮像するカメラと、
    距離解析モジュールであって、
    画像における前記ユーザの顔のサイズが、前の画像における当該ユーザの顔のサイズより小さい場合、前記移動機器と前記ユーザの顔との距離が増加したと判定し、
    画像における前記ユーザの顔のサイズが、前の画像における当該ユーザの顔のサイズより大きい場合、前記移動機器と前記ユーザの顔との距離が減少したと判定し、
    それぞれの場合において、前記移動機器と前記ユーザの顔との距離の変化の通知を生成する、距離解析モジュールと、を備えることを特徴とする請求項2に記載のシステム。
  4. 前記移動機器と前記ユーザの顔との距離の変化の通知は、前記移動機器と前記ユーザの顔との距離が減少していることを示す通知を含み、
    前記ディスプレイ画面上の前記複数のグラフィカルオブジェクトのレンダリングのサイズ及び遠近感の少なくともいずれかの変更は、複数のサブオブジェクトを表す1つのオブジェクトのレンダリングを、前記複数のサブオブジェクトの各々のレンダリングによって置換することを含むことを特徴とする請求項2に記載のシステム。
  5. 前記顔接近システムはさらに、前記ユーザの前記ディスプレイ画面上の視角の変化を判定する視角モジュールを備え、
    前記グラフィカルユーザインタフェース制御システムはさらに、前記ディスプレイ画面の視角の変化の通知を受信し、視角が変化したと判定すると、前記ディスプレイ画面上の前記複数のグラフィカルオブジェクトのレンダリングの遠近感を変更することを特徴とする請求項3に記載のシステム。
  6. 前記視角モジュールは、前記一連の画像のうちの1つの画像における前記ユーザの顔の位置が、前記一連の画像のうちの前の画像における当該ユーザの顔の位置から移動したことを判定することにより、前記ユーザの前記ディスプレイ画面の視角の変化を判定することを特徴とする請求項5に記載のシステム。
  7. 前記ディスプレイ画面上の前記複数のグラフィカルオブジェクトのレンダリングの遠近感の変更は、選択できないオブジェクトによって少なくとも1つの選択可能なオブジェクトを置換することを含むことを特徴とする請求項5に記載のシステム。
  8. さらに、前記移動機器の加速度を示す信号を生成する加速度計を備え、
    視角モジュールは、前記加速度を示す信号を受信し、画像及び前の画像間の前記ユーザの顔の遠近感の変化と、及び前記移動機器の前記加速度を示す信号との両方が、視角について同様の変化を示すことを判定することにより、前記ディスプレイ画面の視角の変化を判定することを特徴とする請求項4に記載のシステム。
  9. 前記加速度計はさらに、前記移動機器の特有の選択動作を示す選択信号を生成し、
    前記グラフィカルユーザインタフェース制御システムはさらに、前記選択信号を受信し、当該受信に応じて、前記ディスプレイ画面上の第1のオブジェクト及び第2のオブジェクト間でグラフィカルセレクタを移動し、ii)前記グラフィカルセレクタが位置づけられている、前記複数のグラフィカルオブジェクトの選択を通知する選択信号をアプリケーションに対して生成する請求項8に記載のシステム。
  10. 前記顔接近システムは、
    前記ユーザの顔に向けて信号を送信する送信機と、
    前記ユーザの顔で反射された信号を捉える受信機と、
    距離解析モジュールであって、
    信号を送信してから前記レシーバが反射された当該信号を捉えるまでの時間が、前の信号を送信してから前記レシーバが反射された当該信号を捉えるまでの時間より大きい場合、前記移動機器と前記ユーザの顔との距離が増加したと判定し、
    信号を送信してから前記レシーバが反射された当該信号を捉えるまでの時間が、前の信号を送信してから前記レシーバが反射された当該信号を捉えるまでの時間より小さい場合、前記移動機器と前記ユーザの顔との距離が減少したと判定し、
    それぞれの場合において、前記移動機器と前記ユーザの顔との距離の変化の通知を生成する、距離解析モジュールと、を備えることを特徴とする請求項2に記載のシステム。
  11. 前記移動機器と前記ユーザの顔との距離の変化の通知は、前記移動機器と前記ユーザの顔との距離が減少していることを示す通知を含み、
    前記ディスプレイ画面上の前記複数のグラフィカルオブジェクトのレンダリングのサイズ及び遠近感の少なくともいずれかの変更は、複数のサブオブジェクトを表す1つのオブジェクトのレンダリングを、前記複数のサブオブジェクトのそれぞれのレンダリングによって置換することを含むことを特徴とする請求項10に記載のシステム。
  12. 前記顔接近システムはさらに、
    前記移動機器の加速度を示す信号を生成する加速度計と、
    前記移動機器の加速度を示す信号に関連する視角の変化を判定することにより、前記ユーザの前記ディスプレイ画面の視角の変化を判定する視角モジュールと、を備え、
    前記グラフィカルユーザインタフェース制御システムはさらに、前記ディスプレイ画面の視角の変化の通知を受信し、前記視角が変化していると判定すると、前記ディスプレイの画面上の前記複数のグラフィカルオブジェクトのレンダリングの遠近感を変更することを特徴とする請求項10に記載のシステム。
  13. 前記ディスプレイ画面上の前記複数のグラフィカルオブジェクトのレンダリングの遠近感の変更は、選択できないオブジェクトによって少なくとも1つの選択可能なオブジェクトを置換することを含むことを特徴とする請求項12に記載のシステム。
  14. 前記加速度計はさらに、前記移動機器の特有の選択動作を示す選択信号を生成し、
    前記グラフィカルユーザインタフェース制御システムはさらに、前記選択信号を受信し、当該受信に応じて、前記ディスプレイ画面上の第1のオブジェクト及び第2のオブジェクト間でグラフィカルセレクタを移動し、ii)前記グラフィカルセレクタが置かれている、前記複数のグラフィカルオブジェクトの選択を通知する選択信号をアプリケーションに対して生成する請求項12に記載のシステム。
  15. 前記顔接近システムは、
    前記移動機器の加速度を示す信号を生成する加速度計と、
    距離解析モジュールであって、
    前記信号が前記移動機器と前記ユーザの顔との距離の増加と一致する判定すると、前記移動機器と前記ユーザの顔との距離が増加していると判定し、
    前記移動機器の加速度を示す信号に関連する視角の変化を判定した場合に、前記ディスプレイ画面上の視角及び前記ユーザの顔の変化を判定すると前記移動機器と前記ユーザの顔との距離が減少していると判定し、
    それぞれの場合において、前記移動機器と前記ユーザの顔との距離の変化の通知を生成する、距離解析モジュールと、を備えることを特徴とする請求項2に記載のシステム。
  16. 前記移動機器と前記ユーザの顔との距離の変化の通知は、前記移動機器と前記ユーザの顔との距離が減少していることを示す通知を含み、
    前記ディスプレイ画面上の前記複数のグラフィカルオブジェクトのレンダリングのサイズ及び遠近感の少なくともいずれかの変更は、複数のサブオブジェクトを表す1つのオブジェクトのレンダリングを、前記複数のサブオブジェクトのそれぞれのレンダリングによって置換することを含むことを特徴とする請求項15に記載のシステム。
  17. 前記顔接近システムはさらに、前記移動機器の加速度を示す信号に関連する視角の変化の判定により、前記ユーザの前記ディスプレイ画面の視角の変化を判定する視角モジュールを備え、
    前記グラフィカルユーザインタフェース制御システムはさらに、前記ディスプレイ画面の視角の変化の通知を受信し、前記視角が変化していると判定すると、前記ディスプレイ画面上の前記複数のグラフィカルオブジェクトのレンダリングの遠近感を変更することを特徴とする請求項15に記載のシステム。
  18. 前記ディスプレイ画面上の前記複数のグラフィカルオブジェクトのレンダリングの遠近感の変更は、選択できないオブジェクトによって少なくとも1つの選択可能なオブジェクトを置換することを含むことを特徴とする請求項17に記載のシステム。
JP2010541852A 2008-01-10 2008-07-08 3dグラフィカルユーザインタフェースをナビゲートするためのシステム及び方法 Expired - Fee Related JP5443389B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US11/972,019 US8384718B2 (en) 2008-01-10 2008-01-10 System and method for navigating a 3D graphical user interface
US11/972,019 2008-01-10
PCT/IB2008/001787 WO2009087437A1 (en) 2008-01-10 2008-07-08 System and method for navigating a 3d graphical user interface

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2013223684A Division JP2014059887A (ja) 2008-01-10 2013-10-28 3dグラフィカルユーザインタフェースをナビゲートするためのシステム及び方法

Publications (2)

Publication Number Publication Date
JP2011509480A true JP2011509480A (ja) 2011-03-24
JP5443389B2 JP5443389B2 (ja) 2014-03-19

Family

ID=39876217

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2010541852A Expired - Fee Related JP5443389B2 (ja) 2008-01-10 2008-07-08 3dグラフィカルユーザインタフェースをナビゲートするためのシステム及び方法
JP2013223684A Pending JP2014059887A (ja) 2008-01-10 2013-10-28 3dグラフィカルユーザインタフェースをナビゲートするためのシステム及び方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2013223684A Pending JP2014059887A (ja) 2008-01-10 2013-10-28 3dグラフィカルユーザインタフェースをナビゲートするためのシステム及び方法

Country Status (4)

Country Link
US (1) US8384718B2 (ja)
EP (1) EP2229615A1 (ja)
JP (2) JP5443389B2 (ja)
WO (1) WO2009087437A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2017169158A1 (ja) * 2016-03-29 2019-02-07 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JPWO2017187708A1 (ja) * 2016-04-26 2019-02-28 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9092053B2 (en) * 2008-06-17 2015-07-28 Apple Inc. Systems and methods for adjusting a display based on the user's position
CN101989126B (zh) * 2009-08-07 2015-02-25 深圳富泰宏精密工业有限公司 手持式电子装置及其屏幕画面自动旋转方法
EP2478476A4 (en) * 2009-09-20 2013-09-18 Blackberry Ltd MOBILE APPLICATION FOR COMMON CALENDAR USE AND PLANNING
US20110084962A1 (en) * 2009-10-12 2011-04-14 Jong Hwan Kim Mobile terminal and image processing method therein
US20110148930A1 (en) * 2009-12-18 2011-06-23 International Business Machines Corporation Automatic adjustment of a display parameter based on viewer distance
EP2513740B1 (fr) * 2009-12-18 2018-02-21 Orange Procede de restitution d'informations sur un ecran d'un terminal, dispositif, terminal et programme d'ordinateur correspondants
US8826184B2 (en) * 2010-04-05 2014-09-02 Lg Electronics Inc. Mobile terminal and image display controlling method thereof
US8913056B2 (en) 2010-08-04 2014-12-16 Apple Inc. Three dimensional user interface effects on a display by using properties of motion
US9411413B2 (en) 2010-08-04 2016-08-09 Apple Inc. Three dimensional user interface effects on a display
US8907983B2 (en) 2010-10-07 2014-12-09 Aria Glassworks, Inc. System and method for transitioning between interface modes in virtual and augmented reality applications
US9041743B2 (en) 2010-11-24 2015-05-26 Aria Glassworks, Inc. System and method for presenting virtual and augmented reality scenes to a user
WO2012071466A2 (en) 2010-11-24 2012-05-31 Aria Glassworks, Inc. System and method for acquiring virtual and augmented reality scenes by a user
WO2012071463A2 (en) * 2010-11-24 2012-05-31 Aria Glassworks, Inc. System and method for presenting virtual and augmented reality scenes to a user
US8953022B2 (en) 2011-01-10 2015-02-10 Aria Glassworks, Inc. System and method for sharing virtual and augmented reality scenes between users and viewers
US9118970B2 (en) 2011-03-02 2015-08-25 Aria Glassworks, Inc. System and method for embedding and viewing media files within a virtual and augmented reality scene
EP2509337B1 (en) * 2011-04-06 2014-09-24 Sony Ericsson Mobile Communications AB Accelerometer vector controlled noise cancelling method
US20120314899A1 (en) * 2011-06-13 2012-12-13 Microsoft Corporation Natural user interfaces for mobile image viewing
US9378581B2 (en) * 2012-03-13 2016-06-28 Amazon Technologies, Inc. Approaches for highlighting active interface elements
US9690334B2 (en) * 2012-08-22 2017-06-27 Intel Corporation Adaptive visual output based on change in distance of a mobile device to a user
KR102051418B1 (ko) * 2012-09-28 2019-12-03 삼성전자주식회사 영상에 포함된 객체를 선택하기 위한 사용자 인터페이스 제어 장치 및 그 방법 그리고 영상 입력 장치
US9626799B2 (en) 2012-10-02 2017-04-18 Aria Glassworks, Inc. System and method for dynamically displaying multiple virtual and augmented reality scenes on a single display
US10769852B2 (en) 2013-03-14 2020-09-08 Aria Glassworks, Inc. Method for simulating natural perception in virtual and augmented reality scenes
US11544778B2 (en) 2013-09-09 2023-01-03 Mx Technologies, Inc. Creating an intuitive visual plan for achieving financial goals
US20150082145A1 (en) * 2013-09-17 2015-03-19 Amazon Technologies, Inc. Approaches for three-dimensional object display
US10067634B2 (en) 2013-09-17 2018-09-04 Amazon Technologies, Inc. Approaches for three-dimensional object display
US10592064B2 (en) 2013-09-17 2020-03-17 Amazon Technologies, Inc. Approaches for three-dimensional object display used in content navigation
US10977864B2 (en) 2014-02-21 2021-04-13 Dropbox, Inc. Techniques for capturing and displaying partial motion in virtual or augmented reality scenes
US20150261293A1 (en) * 2014-03-12 2015-09-17 Weerapan Wilairat Remote device control via gaze detection
US9639741B2 (en) 2014-04-14 2017-05-02 International Business Machines Corporation Facial recognition with biometric pre-filters
USD752083S1 (en) 2014-09-09 2016-03-22 Mx Technologies, Inc. Display screen or portion thereof with a graphical user interface
CN106293444B (zh) * 2015-06-25 2020-07-03 小米科技有限责任公司 移动终端、显示控制方法及装置
CN113729977A (zh) * 2016-02-12 2021-12-03 直观外科手术操作公司 用于在图像引导手术中使用配准荧光透视图像的系统和方法
USD877174S1 (en) * 2018-06-03 2020-03-03 Apple Inc. Electronic device with graphical user interface
CN109189158A (zh) * 2018-09-28 2019-01-11 深圳阜时科技有限公司 一种设备
CN114584652B (zh) * 2020-11-28 2023-06-20 华为技术有限公司 一种用户图形界面显示方法、装置、计算机设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000284878A (ja) * 1999-03-31 2000-10-13 Hitachi Ltd 携帯型情報端末装置
JP2004534302A (ja) * 2001-05-16 2004-11-11 マイオリゴ オサケ ユキチュア 表示装置上の情報をブラウズする方法及び装置
JP2006079312A (ja) * 2004-09-09 2006-03-23 Matsushita Electric Ind Co Ltd 携帯型ビューワ

Family Cites Families (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5252950A (en) * 1991-12-20 1993-10-12 Apple Computer, Inc. Display with rangefinder
JPH0764754A (ja) * 1993-08-24 1995-03-10 Hitachi Ltd 小型情報処理装置
US7301536B2 (en) * 1993-09-10 2007-11-27 Geovector Corporation Electro-optic vision systems
JP3727954B2 (ja) * 1993-11-10 2005-12-21 キヤノン株式会社 撮像装置
JPH07181939A (ja) * 1993-12-24 1995-07-21 Rohm Co Ltd 表示装置
US6020893A (en) * 1997-04-11 2000-02-01 Novalogic, Inc. System and method for realistic terrain simulation
SE9702678D0 (sv) * 1997-07-11 1997-07-11 Siemens Elema Ab Anordning för att kartlägga elektrisk aktivitet i hjärtat
SE9702679D0 (sv) * 1997-07-11 1997-07-11 Siemens Elema Ab Anordning för att räkna antalet användningar av en givare
US6269174B1 (en) * 1997-10-28 2001-07-31 Ligos Corporation Apparatus and method for fast motion estimation
US6466207B1 (en) * 1998-03-18 2002-10-15 Microsoft Corporation Real-time image rendering with layered depth images
US5994710A (en) * 1998-04-30 1999-11-30 Hewlett-Packard Company Scanning mouse for a computer system
JP3668019B2 (ja) * 1998-10-27 2005-07-06 株式会社ソニー・コンピュータエンタテインメント 記録媒体、画像処理装置および画像処理方法
US6757422B1 (en) * 1998-11-12 2004-06-29 Canon Kabushiki Kaisha Viewpoint position detection apparatus and method, and stereoscopic image display system
US6201554B1 (en) * 1999-01-12 2001-03-13 Ericsson Inc. Device control apparatus for hand-held data processing device
SE9902229L (sv) * 1999-06-07 2001-02-05 Ericsson Telefon Ab L M Apparatus and method of controlling a voice controlled operation
JP2002175139A (ja) * 2000-12-07 2002-06-21 Sony Corp 情報処理装置、メニュー表示方法及びプログラム格納媒体
JP4077321B2 (ja) * 2001-02-23 2008-04-16 富士通株式会社 表示制御装置
JP2002351603A (ja) * 2001-05-25 2002-12-06 Mitsubishi Electric Corp 携帯情報処理装置
KR100561837B1 (ko) * 2001-07-09 2006-03-16 삼성전자주식회사 삼차원 환경에서 이미지 기반의 랜더링의 정보를 표현하기위한 방법
US6888548B1 (en) * 2001-08-31 2005-05-03 Attenex Corporation System and method for generating a visualized data representation preserving independent variable geometric relationships
US7032188B2 (en) * 2001-09-28 2006-04-18 Nokia Corporation Multilevel sorting and displaying of contextual objects
JP4015090B2 (ja) * 2003-09-08 2007-11-28 株式会社東芝 立体表示装置および画像表示方法
FR2859800B1 (fr) 2003-09-12 2008-07-04 Wavecom Dispositif electronique portable a interface homme/machine tenant compte de mouvements du dispositif, procede et programme informatique correspondants
JP2005100084A (ja) * 2003-09-25 2005-04-14 Toshiba Corp 画像処理装置及び方法
US20050089213A1 (en) * 2003-10-23 2005-04-28 Geng Z. J. Method and apparatus for three-dimensional modeling via an image mosaic system
WO2005071604A2 (en) 2004-01-20 2005-08-04 Koninklijke Philips Electronics N.V. Graphical user interface
EP1738251A2 (en) * 2004-04-16 2007-01-03 Cascade Basic Research Corp. Modelling relationships within an on-line connectivity universe
CN100461212C (zh) * 2004-06-04 2009-02-11 松下电器产业株式会社 显示控制方法及装置以及便携设备
US8300043B2 (en) * 2004-06-24 2012-10-30 Sony Ericsson Mobile Communications AG Proximity assisted 3D rendering
US20050289353A1 (en) * 2004-06-24 2005-12-29 Mikael Dahlke Non-intrusive trusted user interface
US7865834B1 (en) * 2004-06-25 2011-01-04 Apple Inc. Multi-way video conferencing user interface
US7542034B2 (en) * 2004-09-23 2009-06-02 Conversion Works, Inc. System and method for processing video images
US7626569B2 (en) * 2004-10-25 2009-12-01 Graphics Properties Holdings, Inc. Movable audio/video communication interface system
JP4839603B2 (ja) * 2004-11-22 2011-12-21 ソニー株式会社 表示装置、表示方法、表示プログラム及び表示プログラムを記録した記録媒体
US7737965B2 (en) * 2005-06-09 2010-06-15 Honeywell International Inc. Handheld synthetic vision device
US7286062B2 (en) * 2005-06-29 2007-10-23 Honeywell International, Inc. Perspective view conformal traffic targets display
JP2007081562A (ja) * 2005-09-12 2007-03-29 Toshiba Corp 立体画像表示装置、立体画像表示プログラムおよび立体画像表示方法
US7633076B2 (en) * 2005-09-30 2009-12-15 Apple Inc. Automated response to and sensing of user activity in portable devices
US8041506B2 (en) * 2005-11-07 2011-10-18 Google Inc. Mapping in mobile devices
US7667891B2 (en) * 2005-11-08 2010-02-23 Eastman Kodak Company Desktop display with continuous curved surface
US7620404B2 (en) * 2005-12-22 2009-11-17 Pascal Chesnais Methods and apparatus for organizing and presenting contact information in a mobile communication system
JP2007265274A (ja) * 2006-03-29 2007-10-11 Sendai Foundation For Applied Information Sciences 生理適応型表示装置
US20070250787A1 (en) * 2006-04-21 2007-10-25 Hideya Kawahara Enhancing visual representation and other effects for application management on a device with a small screen
KR100823272B1 (ko) * 2006-06-26 2008-04-21 삼성전자주식회사 3차원 메뉴 표시 방법 및 장치와 그 방법을 수행하는프로그램을 기록한 컴퓨터 판독 가능한 기록 매체
US20080071559A1 (en) * 2006-09-19 2008-03-20 Juha Arrasvuori Augmented reality assisted shopping
US7852564B2 (en) * 2006-09-27 2010-12-14 Microscan Systems, Inc. Devices and/or systems for illuminating a component
KR101217559B1 (ko) * 2006-10-27 2013-01-02 삼성전자주식회사 전력 소모를 최소화하는 그래픽스 데이터 렌더링 방법 및장치
JP4201809B2 (ja) * 2006-11-13 2008-12-24 三洋電機株式会社 手ぶれ補正装置及び方法並びに撮像装置
US20080228393A1 (en) * 2007-01-10 2008-09-18 Pieter Geelen Navigation device and method
US20080228449A1 (en) * 2007-03-12 2008-09-18 Conversion Works, Inc. Systems and methods for 2-d to 3-d conversion using depth access segments to define an object
US9891783B2 (en) * 2007-09-26 2018-02-13 Autodesk, Inc. Navigation system for a 3D virtual scene
US20090280860A1 (en) * 2008-05-12 2009-11-12 Sony Ericsson Mobile Communications Ab Mobile phone with directional force feedback and method
US20100053151A1 (en) * 2008-09-02 2010-03-04 Samsung Electronics Co., Ltd In-line mediation for manipulating three-dimensional content on a display device
US20100296802A1 (en) * 2009-05-21 2010-11-25 John Andrew Davies Self-zooming camera

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000284878A (ja) * 1999-03-31 2000-10-13 Hitachi Ltd 携帯型情報端末装置
JP2004534302A (ja) * 2001-05-16 2004-11-11 マイオリゴ オサケ ユキチュア 表示装置上の情報をブラウズする方法及び装置
JP2006079312A (ja) * 2004-09-09 2006-03-23 Matsushita Electric Ind Co Ltd 携帯型ビューワ

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2017169158A1 (ja) * 2016-03-29 2019-02-07 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JPWO2017187708A1 (ja) * 2016-04-26 2019-02-28 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US11017257B2 (en) 2016-04-26 2021-05-25 Sony Corporation Information processing device, information processing method, and program
JP7092028B2 (ja) 2016-04-26 2022-06-28 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム

Also Published As

Publication number Publication date
JP2014059887A (ja) 2014-04-03
WO2009087437A1 (en) 2009-07-16
JP5443389B2 (ja) 2014-03-19
US8384718B2 (en) 2013-02-26
EP2229615A1 (en) 2010-09-22
US20090179914A1 (en) 2009-07-16

Similar Documents

Publication Publication Date Title
JP5443389B2 (ja) 3dグラフィカルユーザインタフェースをナビゲートするためのシステム及び方法
US11893233B2 (en) Device, method, and graphical user interface for moving user interface objects
AU2021201777B2 (en) Devices, methods, and graphical user interfaces for wireless pairing with peripheral devices and displaying status information concerning the peripheral devices
EP2843535B1 (en) Apparatus and method of setting gesture in electronic device
US9569071B2 (en) Method and apparatus for operating graphic menu bar and recording medium using the same
US8370772B2 (en) Touchpad controlling method and touch device using such method
EP3028146B1 (en) Method and portable terminal for controlling the locking or unlocking
RU2582854C2 (ru) Способ и устройство для обеспечения быстрого доступа к функциям устройства
CN111666013B (zh) 电子设备及其控制方法
US20110093816A1 (en) Data display method and mobile device adapted to thereto
EP2112581A1 (en) Method and apparatus for operating graphic menu bar and recording medium using the same
US20060017711A1 (en) Form factor for portable device
CN101910983B (zh) 无线通信装置和拼合式触敏用户输入表面
US20090096749A1 (en) Portable device input technique
JP2013105310A (ja) 情報処理装置、制御方法およびプログラム
JPWO2011135944A1 (ja) 情報処理端末およびその操作制御方法
KR20100124324A (ko) 햅틱으로 인에이블된 사용자 인터페이스
CN105122176A (zh) 用于管理在电子设备上显示的内容的系统和方法
JP2013105312A (ja) 情報処理装置、制御方法およびプログラム
JP2013105311A (ja) 情報処理装置
US20120284668A1 (en) Systems and methods for interface management
US20090283341A1 (en) Input device and control method thereof
JP2011252970A (ja) 画像表示装置、画像表示方法、及び画像表示プログラム
US20140007018A1 (en) Summation of tappable elements results/actions by swipe gestures
KR20100021859A (ko) 휴대 단말기 및 그 구동 방법

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130514

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130722

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131028

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20131105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131219

R150 Certificate of patent or registration of utility model

Ref document number: 5443389

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees