JP2015506033A - モバイル・デバイスにおける完全な3d対話 - Google Patents

モバイル・デバイスにおける完全な3d対話 Download PDF

Info

Publication number
JP2015506033A
JP2015506033A JP2014547174A JP2014547174A JP2015506033A JP 2015506033 A JP2015506033 A JP 2015506033A JP 2014547174 A JP2014547174 A JP 2014547174A JP 2014547174 A JP2014547174 A JP 2014547174A JP 2015506033 A JP2015506033 A JP 2015506033A
Authority
JP
Japan
Prior art keywords
mobile device
user interaction
environment
logic
signals
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014547174A
Other languages
English (en)
Other versions
JP6404120B2 (ja
Inventor
エム. ダーラム,レニトラ
エム. ダーラム,レニトラ
ダーラム,デイヴィッド
シャルマ,サンギタ
Original Assignee
インテル コーポレイション
インテル コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インテル コーポレイション, インテル コーポレイション filed Critical インテル コーポレイション
Publication of JP2015506033A publication Critical patent/JP2015506033A/ja
Application granted granted Critical
Publication of JP6404120B2 publication Critical patent/JP6404120B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Telephone Function (AREA)

Abstract

3次元(3D)環境をモバイル・デバイスの画面上に表示し、モバイル・デバイス背後の領域とのユーザ対話を識別するためのシステム及び方法が提供される。加えて、3D環境を、第1のユーザ対話に少なくとも部分的に基づいて修正することができる。さらに、3D環境は、モバイル・デバイスの動き並びにユーザ対話に基づいて修正されることもあり、これによりユーザは、モバイル/ハンドヘルド・デバイスを移動させることによって、仮想3D環境をナビゲートすることが可能になる。

Description

実施形態は、一般にモバイル・デバイスの対話性に関する。より具体的に、実施形態は、モバイル・デバイスの対話性を強化するための3次元(3D)環境の使用に関する。
従来のスマートフォンは、画面上に表示されているコンテンツと比較して小さい画面(例えばディスプレイ)を有することがある。例えば典型的なデスクトップ環境は、典型的なスマートフォン上で見ることが困難な可能性がある、いくつかのウィンドウを含むことができる。
比較的小さな画面サイズに適応するためにいくつかのソリューションが開発されてきている可能性があるが、依然としてかなりの改良の余地が残されている。例えば表示された画像を横切ってパン(panning)するための従来の技法は、ユーザがその部分で指を「スワイプ」させる必要があり、この場合、ユーザの指が画面上のコンテンツを塞ぐ可能性がある。同様に、画像の拡大縮小には、指による「ピンチ(pinch)」が必要な可能性があり、これもユーザがコンテンツの少なくとも一部を見るのを妨げる。
実施形態は、画面を介して3次元(3D)環境を表示するための画面及びロジックを有するモバイル・デバイスを含み得る。ロジックは、モバイル・デバイス背後の領域との第1のユーザ対話を識別し、第1のユーザ対話に少なくとも部分的に基づいて3D環境を修正することもできる。
実施形態は、モバイル・デバイスの画面を介して3D環境を表示し、モバイル・デバイス背後の領域との第1のユーザ対話を識別するロジックを有する装置も含むことができる。ロジックは、第1のユーザ対話に少なくとも部分的に基づいて3D環境を修正するようにも構成され得る。
加えて、実施形態は、プロセッサによって実行されると、モバイル・デバイスに、該モバイル・デバイスの画面を介して3D環境を表示させ、モバイル・デバイス背後の領域との第1のユーザ対話を識別させる、命令セットを有する、持続性コンピュータ読取可能記憶媒体を含むことができる。命令は、モバイル・デバイスに、第1のユーザ対話に少なくとも部分的に基づいて3D環境を修正させることも可能である。
他の実施形態は、モバイル・デバイスの画面を介して3D環境を表示する、コンピュータ実装方法を含み得る。方法は、モバイル・デバイス背後の領域との第1のユーザ対話を識別することと、第1のユーザ対話に少なくとも部分的に基づいて3D環境を修正することとを提供することもできる。
本発明の実施形態の様々な利点は、本明細書の下記及び添付の特許請求の範囲を読むこと、及び以下の図面を参照することにより、当業者に明らかとなろう。
一実施形態に従った、モバイル・デバイスの画面を介して表示される3次元(3D)仮想デスクトップ環境の例を示す透視図である。 一実施形態に従った、モバイル・デバイスの画面を介して表示される代替の3D仮想環境の例を示す透視図である。 一実施形態に従った、ユーザがモバイル・デバイスと対話できるようにするために3D仮想環境を使用する方法の例を示すフローチャートである。 一実施形態に従った、モバイル・デバイスの例を示すブロック図である。
図1に進むと、モバイル・デバイス10が示されている。モバイル・デバイス10は、ユーザ14が見ることのできる画面12(例えば液晶ディスプレイ/LCD、タッチ・スクリーン、立体ディスプレイ等)を有する。モバイル・デバイス10は、例えばスマートフォン、モバイル・インターフェース・デバイス(MID)、ノート型コンピュータ又は画面12のサイズが比較的小さい他の同様のデバイスとすることができる。図示された例において、3D環境16は、モバイル・デバイス10の前から見たときにモバイル・デバイス10背後のある程度の距離に配置されているように見えるように、画面12上に表示される。3D環境16は、例えば複数のウィンドウ18(18a、18b)が画面12よりもかなり大きく見える、仮想デスクトップ環境を含んでもよい。ウィンドウ18の位置は、「空中(in-air)」にある(例えば浮いている)か、物理デスクトップや壁等のモバイル・デバイス10背後の何らかの外部表面に「固定(pinned)」されることが可能である。
一般に、ユーザ14は、モバイル・デバイス10を一方の手に保持し、もう一方の「空いている手」20で、3D環境16と対話することがある。3D環境16とのユーザ対話は、例えばカーソル移動操作、クリック操作、ドラッグ・アンド・ドロップ操作、ピンチ操作、選択操作、オブジェクト回転操作等に関連する、アクティビティを含むことが可能であり、操作を実行するモードは環境に応じて変化することがある。例えば3D環境16が物理デスクトップなどの外部表面に固定される場合、ユーザ14は、空いている手20の人差し指(又は他の指)を用いて外部表面をタップすることによって、ウィンドウ18を選択する可能性がある。こうしたケースでは、モバイル・デバイス10は、タッピング(例えばユーザ対話)を検出し、3D環境16において適切なクリック及び/又は選択操作を実行するための、後方画像センサ及び/又はマイクロフォン(図示せず)を含むことがある。例えば後方画像センサは、パターン/オブジェクト認識技法を使用して、タッピング対話に対応する様々な手の形状及び/又は動きを識別する可能性がある。同様に、マイクロフォンは、タッピング対話に対応する音声周波数コンテンツを識別することが可能な場合がある。ドラッグ・アンド・ドロップ動作及びピンチ動作のような他のユーザ対話を、後方画像センサ及び/又はマイクロフォンを使用して識別してもよい。
したがって、図示されたウィンドウ18bが現在(例えば環境の最前部にある)アクティブ・ウィンドウであり、空いている手20の人差し指が他のウィンドウ18aに対応する位置で外部表面をタップする場合、モバイル・デバイス10は、他のウィンドウ18aをアクティブ・ウィンドウにすること(例えば環境の最前部に移動すること)によって、応答することができる。特に注目すべきことは、こうした手法によって、外部表面がユーザ14に触覚フィードバックを提供できる場合があることである。以下でより詳細に説明するように、3D環境16が空中環境である(例えば外部表面に固定されていない)場合、触覚フィードバックは、ユーザ対話の検出に応答して、空いている手20に空気をひと吹きするように構成されるデバイス上の空気ノズルのような、別の構成要素によって提供されることもある。
ユーザ14は、空いている手20の人差し指を所望の位置まで移動させ、モバイル・デバイス10を保持している手を使用して、3D環境16内で1つ又は複数の操作をトリガするボタン22のようなモバイル・デバイス10のユーザ・インターフェース(UI)と対話することも可能である。したがって、ユーザ14の空いている手20をマウスの位置調整機構として機能させながら、ボタン22はマウスの左及び/又は右クリック・ボタンとして、有効に機能することができる。例えばボタン22は、ウィンドウ18をクリックするか又は他の方法で選択するために、外部表面をタップするための代替として使用される可能性もある。したがって、ユーザ14は、単に空いている手20を移動させて3D環境16内の所望の位置へポイントし、他方の手を使用してボタン22を押し、クリック/選択操作を開始してもよい。加えてボタン22は、ドラッグ・アンド・ドロップ又はピンチ操作のような、1つ又は複数の複雑な操作を実行するために使用されてもよい。
すでに述べたように、別の方法として、3D環境16は特定の外部表面に固定されない空中環境として実装されてもよい。こうしたケースでは、空いている手20の動きを、3D環境16内のウィンドウ18及び他のオブジェクトに対応する空中の位置に関連させることができる。モバイル・デバイス10は、3D環境16とのユーザ対話に応答して触覚フィードバックを提供する、空気ノズル(図示せず)も備えてもよい。
図示されたモバイル・デバイス10は、パン及びズーム操作に固有の手法の実装も可能にすることができる。特に、ユーザ14は、単に空いている手20をシーンの縁部まで所望の方向に移動することによって、3D環境16にわたってパン(例えば左、右、上又は下のスクロール)することが可能であり、この場合、後方画像センサが、空いている手20のモーションを検出してもよい。パンの他の手法は、ユーザ14が、モバイル・デバイス10を関心のある方向へ傾斜/移動させることとしてよく、この場合、モバイル・デバイス10は、モバイル・デバイス10の動きをパン操作に変換するために後方画像センサと連動して働くことが可能な、モーション・センサ及び/又は前方画像センサ(図示せず)を備えることも可能である。いずれの手法も、画面12を介して表示される仮想環境が、画面12よりもかなり大きく見えるようにすることができる。
さらに、モーション・センサ及び/又は前方画像センサは、モバイル・デバイス10の動きをズーム操作に変換するために後方画像センサと連動して働くことがある。特に、前方画像センサは、モバイル・デバイス10とユーザ14の顔との間の距離を決定することが可能であり、後方画像センサは、モバイル・デバイス10とユーザ14の空いている手20及び/又は外部表面との間の距離を決定することが可能であり、この場合、これらの距離の変化をズーム操作に変換することができる。したがって、ユーザ14は、モバイル・デバイス10をユーザ14の顔から遠くへ、3D環境内の関心領域の方へ移動させることによって、(拡大鏡を用いるように)3D環境16の特定の領域にズームインすることができる。同様にユーザ14は、モバイル・デバイスをユーザ14の顔に向かって、問題の領域から遠くへ移動させることによって、3D環境16の特定の領域をズームアウトすることができる。ズーム操作を実行するためのこうした手法により、比較的大きい仮想環境が画面12を介して表示されることも更に可能になる。さらに、例示された手法は、3D環境の修正がモバイル・デバイス10の背後で発生するユーザ対話に基づいていることによって、空いている手20の指がユーザ対話中に表示されるコンテンツを塞ぐことに対するいかなる懸念をも取り除く。
図2は、1つ又は複数の3Dオブジェクト26(26a〜26f)がモバイル・デバイス10の画面12を介して表示される、別の3D環境24を示す。図示された例では、ユーザの空いている手20は、モバイル・デバイス10の背後の領域と対話することによって、オブジェクト26を選択、回転及び他の方法で操作することができる。ゲーム環境、ワークフロー環境等のような多様な仮想環境を、示された様式でレンダリングし、修正してもよい。
次に図3に移ると、ユーザがモバイル・デバイスと対話できるようにするために3D環境を使用する方法30が示されている。方法30は、モバイル・プラットフォームのようなモバイル・デバイス10(図1及び図2)内で、機械又はコンピュータ読取可能記憶媒体内に記憶されるロジックの命令セットとして実装され得る。機械又はコンピュータ読取可能記憶媒体は、例えば特定用途向け集積回路(ASIC)、相補型金属酸化膜半導体(CMOS)又はトランジスタ・トランジスタ論理(TTL)技術、あるいはこれらの組み合わせのような回路技術を使用する固定機能性論理ハードウェア内の、例えばプログラマブル論理アレイ(PLA)、フィールド・プログラマブル・ゲート・アレイ(FPGA)、複合プログラマブル論理デバイス(CPLD)のような構成可能ロジックにおける、ランダム・アクセス・メモリ(RAM)、読取専用メモリ(ROM)、プログラマブルROM(PROM)、ファームウェア、フラッシュ・メモリ等である。例えば方法30に示された動作を実施するためのコンピュータ・プログラム・コードは、Java(登録商標)、Smalltalk、C++等のようなオブジェクト指向プログラミング言語、並びに「C」プログラミング言語又は同様のプログラミング言語のような従来の手続型プログラミング言語を含む、1つ又は複数のプログラミング言語の任意の組み合わせで書かれることがある。
一般に、方法30のデバイス部分32は、デバイスの動きに基づいて3D環境をレンダリング及び修正することを含み、方法30の対話部分34は、ユーザ対話に基づいて3D環境をレンダリング及び修正することを含むことが可能である。図示される処理ブロック36は、フレーム・バッファを獲得することを提示する。ここで、フレーム・バッファ・データを、モバイル・デバイス10の画面を介して3D環境の1つ又は複数の画像/ビデオ・フレームをレンダリングするのに使用されるピクセル・データに関連付けることができる。外部表面の位置及び配向は、ブロック38において決定することができる。あるいは、仮想環境は空中位置でレンダリングされてもよく、この場合、ブロック38での決定はバイパスされ得る。
ブロック40は、外部表面の配向に一致するようにフレーム・バッファ・データの遠近感及び位置を調整することを提示することができる。したがって、例えば外部表面がユーザに対してある角度(例えば45°)に配置された物理デスクトップである場合、フレーム・バッファ・データも同じ/同様の角度で傾斜させてよい。モバイル・デバイスの動き及び/又は再配向はブロック42で検出され得る。ここで、動きの検出は、すでに論じたようなモバイル・デバイスのモーション・センサ、後方画像センサ、前方画像センサ等からの1つ又は複数の信号を使用することにより達成され得る。図示されたブロック44は、デバイスの動き/再配向に基づいてフレーム・バッファを更新する。したがって更新は、左右のパン、ズームイン/アウト、外部表面の配向に対する適切な遠近感の維持等を含むことがある。
方法10の対話部分34において、ブロック46は手/指の位置(例えば空中、デバイス上、外部表面上)を検出することを提示することができ、ブロック48において、手/指の位置に基づいてカーソル移動操作を実行することができる。加えて、後方画像センサ、マイクロフォン及び/又はモバイル・デバイス(例えばUI、ボタン等)からの1つ又は複数の信号を使用して、ブロック50において、ユーザの一部での1つ又は複数の指のジェスチャを識別することができる。ブロック52において、ジェスチャが検出されたと決定された場合、図示されたブロック54において、3D環境内で適切なアクションを実行する。したがってブロック54は、クリック操作、ドラッグ・アンド・ドロップ操作、ピンチ操作、選択操作及びオブジェクト回転操作等を実行することを含むことができる。ブロック56は、仮想環境対話プロセスの終了が要求されたかどうかを決定することを提示する。終了が要求されていないか、又はいかなるジェスチャも検出されない場合、図示された方法30は、デバイスの動き及び手の動きを追跡するために反復され、それに応じて3D環境を更新する。
図4は、モバイル・デバイス60を示す。モバイル・デバイス60は、コンピューティング機能(例えば携帯情報端末/PDA、ラップトップ、スマート・タブレット)、通信機能(例えばワイヤレス・スマートフォン)、イメージング機能、メディア再生機能(例えばスマート・テレビジョン/TV)、又はそれらの任意の組み合わせ(例えばモバイル・インターネット・デバイス/MID)を有する、プラットフォームの一部とすることができる。モバイル・デバイス60は、すでに論じたようなモバイル・デバイス10(図1及び図2)に容易に置き換え可能である。図示された例では、デバイス60は、システム・メモリ66と通信可能な統合型メモリ・コントローラ(IMC)64を有するプロセッサ62を含む。例えばシステム・メモリ66は、例えばデュアル・インライン・メモリ・モジュール(DIMM)、スモール・アウトラインDIMM(SODIMM)等のような1つ又は複数のメモリ・モジュールとして構成される、動的ランダム・アクセス・メモリ(DRAM)を含むことがある。
図示されたデバイス60は、ホスト・デバイスとして機能し、例えば前方画像センサ70、後方画像センサ72、空気ノズル74、マイクロフォン76、画面78、モーション・センサ79及び大容量ストレージ80(例えばハード・ディスク・ドライブ/HDD、光ディスク、フラッシュ・メモリ等)と通信可能な、チップセットのサウスブリッジとも呼ばれることがある、プラットフォーム・コントローラ・ハブ(PCH)68も含む。図示されたプロセッサ62は、画面78を介して3D環境を表示し、モバイル・デバイス60の背後の領域とのユーザ対話を識別し、ユーザ対話に少なくとも部分的に基づいて3D環境を修正するように構成された、ロジック82を実行することができる。3D環境は、モバイル・デバイス60の動きに基づいて修正されることもあり、この場合、前方画像センサ70、後方画像センサ72、マイクロフォン76及び/又はモーション・センサ79からの1つ又は複数の信号を使用して、ユーザ対話及び/又はモバイル・デバイスの動きを識別することができる。加えて、モバイル・デバイス60とのユーザ対話は、すでに論じたように、画面78(例えばタッチ・スクリーン)を介して実装されるUIから、又はボタン22(図1)のような他の適切なインターフェースからの1つ又は複数の信号に基づいて識別され得る。さらに、ロジック82は、ノズル74を使用して、ユーザ対話に応答して触覚フィードバックをユーザに提供することがある。
したがって、本明細書で説明される技法は、スマートフォンのような小型フォーム・ファクタ・モバイル・デバイスを使用して、完全なデスクトップ・コンピュータ体験を可能にすることができる。3D表示技術及び/又は3Dレンダリング機構を使用することによって、ユーザが、デバイスの画面の上、背後、下、及び横のスペースと対話しながら、モバイル・デバイスを介して対話すること、その画面に目を向けることを可能にすることができる。加えて画面は、画面に直接目を向けている個人に対してのみ見えるので、(例えばラップトップ・ディスプレイ用に設計され得るプライバシー・フィルタと同様に)ユーザ対話に関するプライバシーを向上させる。
本発明の実施形態は、すべてのタイプの半導体集積回路(「IC」)チップとともに使用するように適用可能である。これらのICチップの例は、プロセッサ、コントローラ、チップセット構成要素、プログラマブル論理アレイ(PLA)、メモリ・チップ、ネットワーク・チップ、システム・オン・チップ(SoC)及びSSD/NANDコントローラASIC等を含むが、これらには限定されない。加えて、図面の一部では、信号導体線が線で表されている。いくつかは、主要な情報フローの方向を示すために、異なること、より多くの構成信号経路を示すこと、番号ラベルを有すること、複数の構成信号経路を示すこと、並びに/あるいは1つ又は複数の端部に矢印を有することがある。しかしながらこれは、限定的に解釈されるべきではない。むしろこうした追加の詳細は、回路をより容易に理解できるようにするために、1つ又は複数の例示の実施形態に関して使用することができる。表された全ての信号線は実際には、追加の情報を有するか否かにかかわらず、複数の方向に進行可能であり、例えば差動ペアとともに実装されるデジタル又はアナログ線、光ファイバ線及び/又はシングル・エンド線等の、任意の適切なタイプの信号スキーマで実装され得る、1つ又は複数の信号を備えてよい。
例示のサイズ/モデル/値/領域を所与のものとしていることがあるが、本発明はこれらに限定されない。製造技術(例えばフォトリソグラフィ)は経時的に成長するため、より小さなサイズのデバイスが製造可能となることが予測される。加えて、ICチップ及び他の構成要素への周知の電気/接地接続は、図面及び議論をより単純にするため、及び本発明の実施形態の特定の態様を不明瞭にしないようにするために図面内に示されていても、示さなくてもよい。さらに、配置構成がブロック図の形で示されることがあるが、これは、本発明の実施形態を不明瞭にすることを避けるためであり、また、こうしたブロック図の配置構成の実装を伴う細部が、実施形態が実装されることになるプラットフォームに大幅に依存している、すなわちこうした細部が当業者の周知の範囲内にある、という事実に鑑みたものでもある。本発明の例示の実施形態を説明するために特定の細部(例えば回路)が示される場合、当業者であれば、本発明の実施形態がこれらの特定の細部を用いずに又はそれらの変形を用いて、実施可能であることが明らかとなろう。したがって本説明は、限定的ではなく例示的なものとみなされるべきである。
「結合される」という用語は、本明細書では、問題となっている構成要素間の直接又は間接的な任意のタイプの関係を指すのに使用されることがあり、電気、機械、流体、光、電磁、電気機械又は他の接続に適用してよい。加えて、本明細書において「第1」、「第2」等の用語は、議論を容易にするために使用されており、特に指示されていない限り、特定の時間的又は経時的な意味を伝えるものではない。
当業者であれば、上記の説明から、本発明の実施形態の広義な技法が様々な形で実装可能であることを理解されよう。したがって、本発明の実施形態は、その特定の例に関連して説明されているが、図面、明細書及び以下の特許請求の範囲を検討することで他の修正が当業者に明らかになることから、本発明の実施形態の真の範囲はそれらに限定されるべきではない。

Claims (35)

  1. 画面と、
    ロジックと、
    を備える、モバイル・デバイスであって、
    前記ロジックは、
    前記画面を介して3次元(3D)環境を表示し、
    前記モバイル・デバイス背後の領域との第1のユーザ対話を識別し、
    前記第1のユーザ対話に少なくとも部分的に基づいて前記3D環境を修正する、
    モバイル・デバイス。
  2. 前記第1のユーザ対話は、前記3D環境内の仮想オブジェクトに関連付けられた空中位置及び外部表面のうちの少なくとも1つに対する手の動きを含む、請求項1に記載のモバイル・デバイス。
  3. 空気ノズルを更に含み、前記ロジックは、前記第1のユーザ対話が空中位置に対する手の動きである場合、前記空気ノズルを使用して触覚フィードバックを提供するものである、請求項1に記載のモバイル・デバイス。
  4. 後方画像センサを更に含み、前記ロジックは、前記後方画像センサからの1つ又は複数の信号を使用して前記第1のユーザ対話を識別するものである、請求項1に記載のモバイル・デバイス。
  5. マイクロフォンを更に含み、前記ロジックは、前記マイクロフォンからの1つ又は複数の信号を使用して前記第1のユーザ対話を識別するものである、請求項1に記載のモバイル・デバイス。
  6. 前記ロジックは、前記第1のユーザ対話に少なくとも部分的に基づいて前記3D環境を修正するために、カーソル移動操作、クリック操作、ドラッグ・アンド・ドロップ操作、ピンチ操作、選択操作及びオブジェクト回転操作のうちの1つ又は複数を実行するものである、請求項1に記載のモバイル・デバイス。
  7. モーション・センサを更に含み、前記ロジックは、前記モーション・センサからの1つ又は複数の信号を使用して前記モバイル・デバイスの動きを識別するものである、請求項1に記載のモバイル・デバイス。
  8. モーション・センサを更に含み、前記ロジックは、前記前方画像センサからの1つ又は複数の信号を使用して前記モバイル・デバイスの動きを識別するものである、請求項1に記載のモバイル・デバイス。
  9. 前記3D環境は、前記モバイル・デバイスの前記画面より概して大きい仮想デスクトップ・コンピュータ環境を含む、請求項1に記載のモバイル・デバイス。
  10. 前記ロジックは、
    前記モバイル・デバイスのユーザ・インターフェースからの1つ又は複数の信号を使用して前記モバイル・デバイスとの第2のユーザ対話を識別し、
    前記第2のユーザ対話に少なくとも部分的に基づいて、クリック操作、ドラッグ・アンド・ドロップ操作及びピンチ操作のうちの少なくとも1つを用いて前記3D環境を修正する、
    請求項1に記載のモバイル・デバイス。
  11. ロジックを備える装置であって、
    前記ロジックは、
    モバイル・デバイスの画面を介して3次元(3D)環境を表示し、
    前記モバイル・デバイス背後の領域との第1のユーザ対話を識別し、
    前記第1のユーザ対話に少なくとも部分的に基づいて前記3D環境を修正する、
    装置。
  12. 前記第1のユーザ対話は、前記3D環境内の仮想オブジェクトに関連付けられる空中位置及び外部表面のうちの少なくとも1つに対する手の動きを含む、請求項11に記載の装置。
  13. 前記ロジックは、前記モバイル・デバイスの後方画像センサ及びマイクロフォンのうちの少なくとも1つからの1つ又は複数の信号を使用して前記第1のユーザ対話を識別するものである、請求項11に記載の装置。
  14. 前記ロジックは、前記第1のユーザ対話が空中位置に対する手の動きである場合、前記モバイル・デバイスの空気ノズルを使用して触覚フィードバックを提供するものである、請求項11に記載の装置。
  15. 前記ロジックは、前記第1のユーザ対話に少なくとも部分的に基づいて前記3D環境を修正するために、カーソル移動操作、クリック操作、ドラッグ・アンド・ドロップ操作、ピンチ操作、選択操作及びオブジェクト回転操作のうちの1つ又は複数を実行するものである、請求項11に記載の装置。
  16. 前記ロジックは、
    前記モバイル・デバイスのモーション・センサ及び前方画像センサのうちの少なくとも1つからの1つ又は複数の信号を使用して前記モバイル・デバイスの動きを識別し、
    前記モバイル・デバイスの前記動きに少なくとも部分的に基づいて、パン操作及びズーム操作のうちの少なくとも1つを用いて前記3D環境を修正する、
    請求項11に記載の装置。
  17. 前記3D環境は、前記モバイル・デバイスの前記画面より概して大きい仮想デスクトップ・コンピュータ環境を含む、請求項11に記載の装置。
  18. 前記ロジックは、
    前記モバイル・デバイスのユーザ・インターフェースからの1つ又は複数の信号を使用して、前記モバイル・デバイスとの第2のユーザ対話を識別し、
    前記第2のユーザ対話に少なくとも部分的に基づいて、クリック操作、ドラッグ・アンド・ドロップ操作及びピンチ操作のうちの少なくとも1つを用いて前記3D環境を修正する、
    請求項11に記載の装置。
  19. 前記クリック操作が、コンピュータ・マウスのクリック操作を含む、請求項18に記載の装置。
  20. プロセッサによって実行されると、モバイル・デバイスに、
    前記モバイル・デバイスの画面を介して3次元(3D)環境を表示することと、
    前記モバイル・デバイス背後の領域との第1のユーザ対話を識別することと、
    前記第1のユーザ対話に少なくとも部分的に基づいて前記3D環境を修正することと、
    を実行させる命令のセットを備える、持続性コンピュータ読取可能記憶媒体。
  21. 前記第1のユーザ対話は、前記3D環境内の仮想オブジェクトに関連付けられた空中位置及び外部表面のうちの少なくとも1つに対する手の動きを含む、請求項20に記載の媒体。
  22. 前記命令は、実行されると、前記モバイル・デバイスに、前記モバイル・デバイスの後方画像センサ及びマイクロフォンのうちの少なくとも1つからの1つ又は複数の信号を使用して前記第1のユーザ対話を識別させる、請求項20に記載の媒体。
  23. 前記命令は、実行されると、前記モバイル・デバイスに、前記第1のユーザ対話が空中位置に対する手の動きである場合、前記モバイル・デバイスの空気ノズルを使用して触覚フィードバックを提供させる、請求項20に記載の媒体。
  24. 前記命令は、実行されると、前記モバイル・デバイスに、前記第1のユーザ対話に少なくとも部分的に基づいて前記3D環境を修正するために、カーソル移動操作、クリック操作、ドラッグ・アンド・ドロップ操作、ピンチ操作、選択操作及びオブジェクト回転操作のうちの1つ又は複数を実行させる、請求項20に記載の媒体。
  25. 前記命令は、実行されると、前記モバイル・デバイスに、
    前記モバイル・デバイスのモーション・センサ及び前方画像センサのうちの少なくとも1つからの1つ又は複数の信号を使用して前記モバイル・デバイスの動きを識別することと、
    前記モバイル・デバイスの前記動きに少なくとも部分的に基づいて、パン操作及びズーム操作のうちの少なくとも1つを用いて前記3D環境を修正することと、
    を実行させる、請求項20に記載の媒体。
  26. 前記3D環境は、前記モバイル・デバイスの前記画面より概して大きい仮想デスクトップ・コンピュータ環境を含む、請求項20に記載の媒体。
  27. 前記命令は、実行されると、前記モバイル・デバイスに、
    前記モバイル・デバイスのユーザ・インターフェースからの1つ又は複数の信号を使用して前記モバイル・デバイスとの第2のユーザ対話を識別することと、
    前記第2のユーザ対話に少なくとも部分的に基づいて、クリック操作、ドラッグ・アンド・ドロップ操作及びピンチ操作のうちの少なくとも1つを用いて前記3D環境を修正することと、
    を実行させる、請求項20に記載の媒体。
  28. モバイル・デバイスの画面を介して3次元(3D)環境を表示することと、
    前記モバイル・デバイス背後の領域との第1のユーザ対話を識別することと、
    前記第1のユーザ対話に少なくとも部分的に基づいて前記3D環境を修正することと
    を含む、コンピュータで実施される方法。
  29. 前記第1のユーザ対話は、前記3D環境内の仮想オブジェクトに関連付けられた空中位置及び外部表面のうちの少なくとも1つに対する手の動きを含む、請求項28に記載の方法。
  30. 前記モバイル・デバイスの後方画像センサ及びマイクロフォンのうちの少なくとも1つからの1つ又は複数の信号を使用して前記第1のユーザ対話を識別することと、
    前記第1のユーザ対話が空中位置に対する手の動きである場合、前記モバイル・デバイスの空気ノズルを使用して触覚フィードバックを提供することと、
    を更に含む、請求項28に記載の方法。
  31. 前記モバイル・デバイスの後方画像センサ及びマイクロフォンのうちの少なくとも1つからの1つ又は複数の信号を使用して前記第1のユーザ対話を識別することと、
    前記第1のユーザ対話が空中位置に対する手の動きである場合、前記モバイル・デバイスの空気ノズルを使用して触覚フィードバックを提供することと、
    を更に含む、請求28に記載の方法。
  32. 前記3D環境を修正することは、カーソル移動操作、クリック操作、ドラッグ・アンド・ドロップ操作、ピンチ操作、選択操作及びオブジェクト回転操作のうちの1つ又は複数を実行することを含む、請求項28に記載の方法。
  33. 前記モバイル・デバイスのモーション・センサ及び前方画像センサのうちの少なくとも1つからの1つ又は複数の信号を使用して前記モバイル・デバイスの動きを識別することと、
    前記モバイル・デバイスの前記動きに少なくとも部分的に基づいて、パン操作及びズーム操作のうちの少なくとも1つを用いて前記3D環境を修正することと、
    を更に含む、請求項28に記載の方法。
  34. 前記3D環境は、前記モバイル・デバイスの前記画面より概して大きい仮想デスクトップ・コンピュータ環境を含む、請求項28に記載の方法。
  35. 前記モバイル・デバイスのユーザ・インターフェースからの1つ又は複数の信号を使用して前記モバイル・デバイスとの第2のユーザ対話を識別することと、
    前記第2のユーザ対話に少なくとも部分的に基づいて、クリック操作、ドラッグ・アンド・ドロップ操作及びピンチ操作のうちの少なくとも1つを用いて前記3D環境を修正することと
    を更に含む、請求項28に記載の方法。
JP2014547174A 2011-12-27 2011-12-27 モバイル・デバイスにおける完全な3d対話 Active JP6404120B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2011/067376 WO2013100900A1 (en) 2011-12-27 2011-12-27 Full 3d interaction on mobile devices

Publications (2)

Publication Number Publication Date
JP2015506033A true JP2015506033A (ja) 2015-02-26
JP6404120B2 JP6404120B2 (ja) 2018-10-10

Family

ID=48698144

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014547174A Active JP6404120B2 (ja) 2011-12-27 2011-12-27 モバイル・デバイスにおける完全な3d対話

Country Status (7)

Country Link
US (1) US9335888B2 (ja)
EP (1) EP2798440A4 (ja)
JP (1) JP6404120B2 (ja)
KR (1) KR101608423B1 (ja)
CN (1) CN104094193B (ja)
TW (1) TWI493388B (ja)
WO (1) WO2013100900A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020071641A (ja) * 2018-10-31 2020-05-07 株式会社デンソー 入力操作装置及びユーザインタフェースシステム

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101608423B1 (ko) 2011-12-27 2016-04-01 인텔 코포레이션 모바일 디바이스상의 풀 3d 상호작용
TWI486815B (zh) * 2013-04-08 2015-06-01 鴻海精密工業股份有限公司 顯示設備及其控制系統和方法
US10048762B2 (en) 2013-11-05 2018-08-14 Intuit Inc. Remote control of a desktop application via a mobile device
TWI571767B (zh) * 2014-12-09 2017-02-21 國立臺灣大學 背螢幕式三維互動系統與方法
KR20160087564A (ko) 2015-01-14 2016-07-22 목포대학교산학협력단 교육용 인터랙티브 앱북 화면 구성 방법 및 시스템
CN106293444B (zh) * 2015-06-25 2020-07-03 小米科技有限责任公司 移动终端、显示控制方法及装置
CN105491365A (zh) * 2015-11-25 2016-04-13 罗军 基于移动终端的图像处理方法、装置及系统
US10621773B2 (en) * 2016-12-30 2020-04-14 Google Llc Rendering content in a 3D environment
KR101879982B1 (ko) * 2017-03-08 2018-07-19 한국과학기술원 비접촉식으로 정보를 표현하기 위한 바람 기반 웨어러블 촉각 디스플레이 장치 및 그 동작 방법
TWI637363B (zh) * 2017-07-26 2018-10-01 銘傳大學 擴增實境之人機互動系統
EP3712759B1 (en) 2019-03-18 2023-07-19 Apple Inc. Virtual paper
US11614797B2 (en) * 2019-11-05 2023-03-28 Micron Technology, Inc. Rendering enhancement based in part on eye tracking
TWI757941B (zh) * 2020-10-30 2022-03-11 幻景啟動股份有限公司 影像處理系統以及影像處理裝置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005004580A (ja) * 2003-06-13 2005-01-06 Nippon Telegr & Teleph Corp <Ntt> 噴出を利用した力覚提示方法および装置
JP2005178473A (ja) * 2003-12-17 2005-07-07 Denso Corp 車載機器用インターフェース
JP2009187426A (ja) * 2008-02-08 2009-08-20 Sony Corp 記録再生装置
US20100053151A1 (en) * 2008-09-02 2010-03-04 Samsung Electronics Co., Ltd In-line mediation for manipulating three-dimensional content on a display device
JP2010183378A (ja) * 2009-02-05 2010-08-19 Sony Ericsson Mobile Communications Ab 画像撮影装置、画像撮影装置の制御方法及び制御プログラム
US20110119631A1 (en) * 2009-11-13 2011-05-19 Samsung Electronics Co. Ltd. Method and apparatus for operating user interface based on user's visual perspective in electronic display device
US20110199387A1 (en) * 2009-11-24 2011-08-18 John David Newton Activating Features on an Imaging Device Based on Manipulations
JP2011203984A (ja) * 2010-03-25 2011-10-13 Soka Univ ナビゲーション装置、ナビゲーション画像生成方法及びプログラム
WO2011127646A1 (en) * 2010-04-13 2011-10-20 Nokia Corporation An apparatus, method, computer program and user interface

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7098891B1 (en) * 1992-09-18 2006-08-29 Pryor Timothy R Method for providing human input to a computer
US6798429B2 (en) * 2001-03-29 2004-09-28 Intel Corporation Intuitive mobile device interface to virtual spaces
US20040109031A1 (en) * 2001-05-11 2004-06-10 Kenneth Deaton Method and system for automatically creating and displaying a customizable three-dimensional graphical user interface (3D GUI) for a computer system
US7904826B2 (en) * 2002-03-29 2011-03-08 Microsoft Corporation Peek around user interface
US20070180379A1 (en) * 2006-02-02 2007-08-02 Jerold Osato Virtual desktop in handheld devices
US20080062126A1 (en) * 2006-07-06 2008-03-13 Algreatly Cherif A 3D method and system for hand-held devices
US20090102805A1 (en) * 2007-10-18 2009-04-23 Microsoft Corporation Three-dimensional object simulation using audio, visual, and tactile feedback
JP2009294728A (ja) * 2008-06-02 2009-12-17 Sony Ericsson Mobilecommunications Japan Inc 表示処理装置、表示処理方法、表示処理プログラム、及び携帯端末装置
CA2734987A1 (en) 2008-08-22 2010-02-25 Google Inc. Navigation in a three dimensional environment on a mobile device
KR20100030968A (ko) * 2008-09-11 2010-03-19 엘지전자 주식회사 단말기 및 그의 메뉴 디스플레이 방법
US20100100853A1 (en) * 2008-10-20 2010-04-22 Jean-Pierre Ciudad Motion controlled user interface
TWM380818U (en) * 2009-12-25 2010-05-21 Univ Southern Taiwan Tech 3D virtual football game device
TW201137668A (en) 2010-04-26 2011-11-01 Hon Hai Prec Ind Co Ltd Adjustment system and method for three-dimensional image
US8913056B2 (en) * 2010-08-04 2014-12-16 Apple Inc. Three dimensional user interface effects on a display by using properties of motion
US20120102438A1 (en) * 2010-10-22 2012-04-26 Robinson Ian N Display system and method of displaying based on device interactions
CN102147659A (zh) * 2011-03-21 2011-08-10 中兴通讯股份有限公司 一种终端及其显示内容处理方法
KR101608423B1 (ko) 2011-12-27 2016-04-01 인텔 코포레이션 모바일 디바이스상의 풀 3d 상호작용

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005004580A (ja) * 2003-06-13 2005-01-06 Nippon Telegr & Teleph Corp <Ntt> 噴出を利用した力覚提示方法および装置
JP2005178473A (ja) * 2003-12-17 2005-07-07 Denso Corp 車載機器用インターフェース
JP2009187426A (ja) * 2008-02-08 2009-08-20 Sony Corp 記録再生装置
US20100053151A1 (en) * 2008-09-02 2010-03-04 Samsung Electronics Co., Ltd In-line mediation for manipulating three-dimensional content on a display device
JP2010183378A (ja) * 2009-02-05 2010-08-19 Sony Ericsson Mobile Communications Ab 画像撮影装置、画像撮影装置の制御方法及び制御プログラム
US20110119631A1 (en) * 2009-11-13 2011-05-19 Samsung Electronics Co. Ltd. Method and apparatus for operating user interface based on user's visual perspective in electronic display device
US20110199387A1 (en) * 2009-11-24 2011-08-18 John David Newton Activating Features on an Imaging Device Based on Manipulations
JP2011203984A (ja) * 2010-03-25 2011-10-13 Soka Univ ナビゲーション装置、ナビゲーション画像生成方法及びプログラム
WO2011127646A1 (en) * 2010-04-13 2011-10-20 Nokia Corporation An apparatus, method, computer program and user interface

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020071641A (ja) * 2018-10-31 2020-05-07 株式会社デンソー 入力操作装置及びユーザインタフェースシステム

Also Published As

Publication number Publication date
KR20140100547A (ko) 2014-08-14
US20140245230A1 (en) 2014-08-28
CN104094193A (zh) 2014-10-08
EP2798440A1 (en) 2014-11-05
US9335888B2 (en) 2016-05-10
TW201342135A (zh) 2013-10-16
TWI493388B (zh) 2015-07-21
KR101608423B1 (ko) 2016-04-01
JP6404120B2 (ja) 2018-10-10
CN104094193B (zh) 2017-11-17
WO2013100900A1 (en) 2013-07-04
EP2798440A4 (en) 2015-12-09

Similar Documents

Publication Publication Date Title
JP6404120B2 (ja) モバイル・デバイスにおける完全な3d対話
KR102664705B1 (ko) 복수의 카메라들을 이용하여 이미지의 배율을 변경하기 위한 전자 장치 및 방법
US20190250714A1 (en) Systems and methods for triggering actions based on touch-free gesture detection
KR102027612B1 (ko) 애플리케이션의 썸네일-이미지 선택 기법
US20140267049A1 (en) Layered and split keyboard for full 3d interaction on mobile devices
US11443453B2 (en) Method and device for detecting planes and/or quadtrees for use as a virtual substrate
US9842571B2 (en) Context awareness-based screen scroll method, machine-readable storage medium and terminal therefor
US9542005B2 (en) Representative image
US20140118268A1 (en) Touch screen operation using additional inputs
US11360551B2 (en) Method for displaying user interface of head-mounted display device
CN108073432B (zh) 一种头戴式显示设备的用户界面显示方法
KR20140142337A (ko) 증강 현실 광 가이드 디스플레이
US8902156B2 (en) Intelligent real-time display selection in a multi-display computer system
KR20100027976A (ko) 이동 장치에서 제스처 및 움직임 기반 내비게이션 및 3차원 가상 콘텐츠와의 인터랙션
US10521101B2 (en) Scroll mode for touch/pointing control
US9639167B2 (en) Control method of electronic apparatus having non-contact gesture sensitive region
WO2014107182A1 (en) Multi-distance, multi-modal natural user interaction with computing devices
US20160103574A1 (en) Selecting frame from video on user interface
US10114501B2 (en) Wearable electronic device using a touch input and a hovering input and controlling method thereof
US9665249B1 (en) Approaches for controlling a computing device based on head movement
US10585485B1 (en) Controlling content zoom level based on user head movement
US20130201095A1 (en) Presentation techniques
CN107924276B (zh) 电子设备及其文本输入方法
US20240053832A1 (en) Information processing apparatus, information processing method, and non-transitory computer readable medium

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150828

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160905

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20161220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170420

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20170426

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20170616

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180522

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180912

R150 Certificate of patent or registration of utility model

Ref document number: 6404120

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250