JP2016500872A - アプリケーションとの対話処理としてのマルチモード・ユーザー表現およびユーザー感覚量 - Google Patents

アプリケーションとの対話処理としてのマルチモード・ユーザー表現およびユーザー感覚量 Download PDF

Info

Publication number
JP2016500872A
JP2016500872A JP2015536974A JP2015536974A JP2016500872A JP 2016500872 A JP2016500872 A JP 2016500872A JP 2015536974 A JP2015536974 A JP 2015536974A JP 2015536974 A JP2015536974 A JP 2015536974A JP 2016500872 A JP2016500872 A JP 2016500872A
Authority
JP
Japan
Prior art keywords
user
application
zoom
touch
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015536974A
Other languages
English (en)
Inventor
コスラヴィ,モエ
ローラー,ダンカン
デマイオ,パスカル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2016500872A publication Critical patent/JP2016500872A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3664Details of the user input interface, e.g. buttons, knobs or sliders, including those provided on a touch screen; remote controllers; input using gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Abstract

計算デバイスとの1回のマルチモード対話処理、および1つまたは複数のジェスチャーにおいてユーザー感覚量(または活気)の解釈を可能にするアーキテクチャー。地理空間系の実施態様では、マルチタッチ対話処理は、2つの地理的地点間における総合的なナビゲーションを容易にするために、触知圧力(検知可能なタッチ)の検出および処理を伴うことができる。これは、更に、ナビゲーションおよびターンバイターン方式の方向指示に役立つ詳細情報を提供することと結び付けられる。これは、マップ・タイルのズーム・レベルを緩めるまたは高めるための時間および/または圧力の使用、2つの地理的地点間の方向を得るための2つの地理的地点におけるタッチと発言の使用、更に人を引きつけるユーザー体験を創作するためのマップ・タイルの混合の使用を含む。マップは、同じビュー上において異なるレベルのズームで示される。【選択図】図1

Description

[0001] コンピューターの世界では、ユーザーはデバイスの対話処理の方法において増々高度化されつつある。コンピューター対話処理の基本的な技法は、キーボード、マウス、その後に現れたライト・ペン、タッチ・スクリーン等である。今日では、コンピューター・ゲーム・システムのような一層精巧なシステムでは、音声および自然なユーザー行為を認識する対話処理システムが提供されつつある。しかしながら、これら既存の更に進んだ処理能力は、多くのハードウェアおよびソフトウェア・システムにおいて未だに未熟であり、最大限利用されていない。
[0002] 以下に、本明細書において説明するいくつかの新規な実施形態の基本的な理解を得るために簡略化した摘要を紹介する。この摘要は、広範な全体像ではなく、主要な/肝要なエレメントを識別することも、その範囲を明確に定めることも意図していない。その唯一の目的は、後に紹介する更に詳細な説明の序説として、簡略化した形態で一部の概念を紹介することである。
[0003] 開示するアーキテクチャーは、計算デバイスとの対話処理として、単一およびマルチモード・ユーザー表現(例えば、ジェスチャー、発言等)を可能にする。更に、これらの表現を分析して、その表現(1つまたは複数)におけるユーザー感覚量(user intensity)(または活気)を判定することができる。表現は、1つまたは複数のユーザー・アクション(例えば、顔の表情と手の動き、手の動きと発言等)を含むことができる。例えば、地理空間系の実施態様(geospatial implementation)では、マルチタッチ対話処理は、マップ(ナビゲーション)・アプリケーションの2つの地理的地点間における全体的なナビゲーションを容易にするために、これら2地点に対する触知圧力(検知可能なタッチ)の検出および処理を伴うことができる。これは、更に、ナビゲーションおよびターンバイターン方式の方向指示(turn-by-turn directions)に役立つ詳細情報を提供することと結び付けられる。地理空間系用途の実施態様を続けると、触知圧力の表現と組み合わせて時間を追跡して、地理的マップ・タイルのズーム・レベルを緩める(release)または高めることができ(同じビューにおいて地図が異なるズーム・レベルになる)、2つの地理的地点のタッチと発言(speak)から、これら2地点間の方向を得ることができ、更にマップ・タイルの混合ができる。これらの全ては、人を引きつけるユーザー体験を創作するために実現することができる。
[0004] モード入力表現は、ユーザー・ジェスチャー(1つまたは複数)(例えば、顔の表情、四肢および身体の動き、発言等)を含むが、これらに限定されるのではない。ユーザー・ジェスチャーは、検知され、例えば、手による動きの加速、タッチ・スクリーン上における触知圧力量または速度の増大、触知圧力検知システム上における触知圧力の維持(保圧)、発言音量および/または発言速度の増大/減少(一般に、ジェスチャー速度)、ならびに驚き、衝撃、幸せ等を示すと認識される顔の表情というようなユーザーの感覚量を含むと解釈される。
[0005] このアーキテクチャーは、システムの対話処理、表現、レンダリング、そして任意にユーザー感覚量の任意の組み合わせを使用して動作する。マップ・タイルが採用される地理空間系の実施態様では、例えば、ズーム・レベルが増大または減少するに連れて(例えば、音声によって、タッチによって、圧力感応タブレット上の圧力によって等)、増大または減少ズーム・レベルを示すタイルの充填(tiling)を一層細かい詳細レベルで行うために、周囲のエリアが可変のデーター解像度で提示される。ジェスチャーのような表現は、ズーム混合率に作用させるため、更に四分木に基づくモザイク処理(異なる解像度の2つ以上の地理的領域の隙間空間の一部または全部の視覚的に継ぎ目のない漸進的移行)ならびにハード・エッジおよびギャップを覆うための(例えば、作用を受けるマップ・エリアにわたって)透明でぼやけたオーバーレイによるレンダリングに作用させるために採用することができる。異なるサイズのマップ・タイルを混合して、一層魅力的なユーザー体験を提供する。
[0006] また、このアーキテクチャーは、開始点および終点間の経路曲線(path curve)をぼかすことによって、加速ビューも提供する。これは、対象の地点に近いズーム・レベルだけを取り込むように性能および/またはネットワーク接続(network connectivity)を低下させる(または制限する)とよい状況に適している。
[0007] 以上の目的および関係する目的の遂行のために、本明細書では、以下の説明および添付図面と関連付けて、ある種の例示的態様について説明する。これらの態様は、本明細書において開示する原理を実施することができる種々の方法を示し、全ての態様およびその均等物は、特許請求する主題の範囲内に入ることを意図している。他の利点および新規の特徴は、以下の詳細な説明を、添付図面と関連付けて検討することから、明白になるであろう。
図1は、開示するアーキテクチャーによるシステムを示す。 図2は、ユーザー表現、ならびにタッチ・ディスプレイによるマップおよびナビゲーション・アプリケーションにおける差分タイル・レンダリングの実施態様の図を示す。 図3は、ズーム・レベルを取り込むために反復分割によってズーム・レベルを表す、詳細レベル論理ビューの図である。 図4は、エッジ・レンダリングのためのマップ・タイル充填の論理ビューの図を示す。 図5は、ピンチインおよびピンチアウトによって全体的なズーミングに作用させるためにジェスチャーを採用した場合の図を示す。 図6は、地理空間検索結果が、各々、ズーム・レベルを上げてマップ上にレンダリングされる代替実施態様を示す。 図7は、開始地点、およびその後の目的地点までの途中におけるあらゆる曲がり角の近くにおける更に詳細なビューを得るための魚眼領域の使用を表す図を示す。 図8は、開示するアーキテクチャーによる方法を示す。 図9は、開示するアーキテクチャーによる代替方法を示す。 図10は、開示するアーキテクチャーにしたがって、ユーザー感覚量を用いたアプリケーション対話処理のためのマルチモード・ユーザー表現を実行する計算システムのブロック図を示す。
[0018] 開示するアーキテクチャーは、計算デバイスとの対話処理として、単一モードおよびマルチモード(例えば、多入力)ユーザー表現を可能にする。代わりに、またはそれに加えて、1つ以上の表現のユーザー感覚量(または活気)を、他のデバイス/アプリケーションの動作を行わせる対話処理の一部として計算することができる。単一およびマルチモード表現(デバイス、アプリケーション、システムへの入力)は、発言、ジェスチャー、およびタッチの内任意の1つまたは組み合わせを含み、計算デバイス(例えば、セル・フォン、タブレット、コンピューター等)との対話処理のために、一層高速で最適化されたユーザー体験を可能にする。例えば、マップおよびナビゲーション・アプリケーションにおいて、2つの地理的地点上においてタッチすることによってこれらの地点間の方向を確認することができると、数回のマウス・クリックが不要になる(obviate)。発言は、マルチモード・ジェスチャー環境において混入される可能性があるハードウェア/ソフトウェアのあらゆる混乱を解消するための追加ジェスチャーとして利用することができる。
[0019] 既存の地理空間的枠組みでは、全てのマップ・タイルが同じズーム・レベルにあるユーザー体験を表示する試みが課題であった。開示するアーキテクチャーは、システムの対話処理、表現、およびレンダリングの組み合わせを使用して動作する。タイルが採用される地理空間系の実施態様では、例えば、ズーム・レベルが増大または減少するに連れて(例えば、音声によって、タッチによって、圧力感応タブレット上の圧力によって等)、増大または減少したズーム・レベルを示すタイルの充填(tiling)を一層細かい詳細レベルで行うために、周囲のマップ・エリアをモザイク処理することができる。
[0020] ズーム混合率、ならびに四分木に基づくモザイク処理、および作用を受けるエリアに跨がるハード・エッジおよびギャップを覆うための透明でぼやけたオーバーレイによるレンダリングに作用させるために、ジェスチャーのような表現(例えば、音声、手、身体、姿勢、目、顔等)を採用することができる。(四分木とは、各ノードが4つまでの子ノードを有する、樹木状データー構造であり、繰り返し再分割することによって、二次元空間を区分するために最も多く使用される。)
[0021] また、このアーキテクチャーは、開始位置および終点位置間の経路曲線をぼかすことによって、加速ビューも提供する。これは、対象の地点に近いズーム・レベルのみを取り込むように性能および/またはネットワーク接続を低くする状況に適している。
[0022] タッチ感応ディスプレイ(または画面)または他のタイプの表面上における触知圧力のような圧力の変動に関して、異なるレベルの加えられた力および停留(dwell)(例えば、1つの接触(tactile contact)毎の時間、加えられた圧力の各レベル毎の時間)を検知するだけでなく、圧力が加えられた速度(rate)も検知するように、多数の圧力閾値を設定する(configure)ことができる。例えば、ユーザー感覚量は、加えられた力の速度に関係するように計算することができる。ユーザーが触知圧力を、速度を高めながら(静止または一定圧力ではなく、圧力の増大を加速させる)加える場合、ユーザー感覚量は高く、したがって、対応するレベルの緊急性が判断されると推測することができ、更にハードウェア/ソフトウェア・アクションを促進させることができる(例えば、対応する量の処理リソースおよびその他のリソースを割り当てることによって)と推測することができる。
[0023] 圧力検知および検出は、停留の関数として計算することができる。停留とは、所与のユーザー・アクションに費やされる時間量のことである。即ち、ユーザーが連続圧力(一定圧力値)を所定時間(例えば、1秒、3秒等)加えた場合、この加圧行為は、3秒間加えられる加圧対話処理とは異なる解釈をすることができる。同様に、ユーザーが触知圧力を、速度を高めながら(静止圧力ではなく、加速圧力増大)加える場合、ユーザー感覚量が高く、したがって対応するレベルの緊急性が判断されると推定することができ、更に、関連するハードウェア・ソフトウェアが所望のアクションを効率的に実行することを可能にするために、対応する量の処理リソースおよび他のリソースが供与されると推定することができる。
[0024] 音声(voice)および発言(speech)の表現は、1つ以上の対話処理のために検知および検出することができ、分析して、音量(うるささ)、音量変化、発言速度、ストレスのレベルとしての声の音程(例えば、高い、低い)、声の調子(vocal tone)の短さ、声の調子の維持等に基づくユーザー感覚量を求めることができる。ぶつぶつ言う声(grunt)、うめき、うなり声等というような口腔出力(mouthed output)も、所望の対話処理作用を求めるために設定することができる。
[0025] 手振りおよび指の計算(digit (finger) count)をアプリケーション制御のための1つ以上の対話処理として検知および検出し、分析してユーザー感覚量を求めることができる。例えば、手のフリック(flick)は、文書間、またはアプリケーションのビュー間のページめくりを表すことができる。フリックを加速させると(慣性運動または表現)、ページめくり動作を加速させるユーザー感覚量を意味することができる。
[0026] 顔の表情のような表現は、検知および検出して1つ以上の対話処理を得て、更に驚き、悲しみ等に解釈される(translate)表現に基づいて分析し、ユーザー感覚量を求めることができる。
[0027] 表現は、検知および検出された体温、心拍数、ならびに、例えば、気分や真実性を表す他の生物計量パラメーターに基づいて推論し、分析してユーザー感覚量を求めることができる。例えば、体温および/または心拍数が高い場合、ユーザー感覚量も高くなっており、重要であると解釈されると推論することができる。このように、アプリケーションは、対話処理を完了するためにより効率的なレベルで動作することができる。
[0028] 表現は、検知および検出された皮膚の色に基づいて推論し、分析してユーザー感覚量を求めることができる。例えば、顔の皮膚の色が赤いことが検知された場合、表現およびユーザー感覚量はストレス、高い精神的または身体的活動に関係すると推論することができ、次いでこれを気分に関係付けることができる。このように、対話処理は、アプリケーションに対応する方法で動作させることができる。
[0029] 跳躍(jumping up and down)のような身体の動きの表現は、承認または興奮に関係するものとして検知および検出することができる。つまり、ユーザー感覚量を分析して、興奮した感情レベルに換算することができ、対話処理は対応する方法でアプリケーションを動作させることができる。
[0030] 左、右、上、および下のような視線追尾(動き)、瞬き、ウィンク、停留(関心のある品目に対する凝視または熟視の時間長)等は、例えば、同意または非同意というような、特定の対話処理として認識することができる。視線追尾を分析してユーザー感覚量および関心を求め、アプリケーションに対応する方法で動作させる対話処理(1つまたは複数)に変換することができる。例えば、視野を変えずに地図の特定のエリアを見ている場合、見ることができるものが暗黙の対話処理(ジェスチャー)になることができる。視線追尾によって、持続する目視が判定された場合、アプリケーションによって解釈され、次いで拡大ズーム、縮小ズーム、グラフィック的強調(例えば、強調表示、下線、フォント変更等)というように、何らかの方法で応答することができる。
[0031] ジャイロスコープおよび加速度計というような、電話機およびその他の計算デバイスに一般に埋め込まれる検知コンポーネントを監視して、振れ/振れなし(non-shaking)、ユーザーの向き、振れの速度および加速度、向きの移動速度/加速度等に関係する表現を測定することができる。これらの各々を分析してユーザー感覚量を求め、アプリケーションに対応する方法で動作させる対話処理(1つまたは複数)に変換することができる。
[0032] これより図面を参照すると、同様の参照番号が、全体を通じて同様のエレメントを示すために使用されている。以下の記載では、説明のために限って、完全な理解を得るために多数の具体的な詳細が明示される。しかしながら、新規な実施形態は、これらの具体的な詳細がなくても、実施できることは明白であろう。他方では、周知の構造およびデバイスは、その説明を容易にするために、ブロック図形態で示される。特許請求する主題の主旨および範囲に該当する全ての変更物、均等物、および代替物を包含することを意図している。
[0033] 図1は、開示するアーキテクチャーによるシステム100を示す。システム100は、検知コンポーネント102を含むことができる。検知コンポーネント102は、マルチモード・ユーザー表現104を検出し、アプリケーション108を制御するための対話処理106として解釈する。検知コンポーネント102は、カメラ、マイクロフォン、加速度計、ジャイロスコープ、温度センサー、湿度センサー、地理的測位サブシステム(例えば、GPS−全地球測位システム)、圧力感応面(例えば、タッチ・スクリーン)、他のユーザー入力(例えば、マウス、ペン、キーボード等)、およびその他というような、デバイスの検知サブシステムを含む。
[0034] 検知コンポーネント102は、顔の表情、ジェスチャー(例えば、自然ユーザー・インターフェース(NUI))等の認識処理のためというような、データー処理のために、サブシステムからの生データーを他の内蔵コンポーネント(および/または「クラウド」内におけるような離れたコンポーネント)に出力することができる。あるいは、検知コンポーネント102は、例えば、顔認識、顔表情認識、ジェスチャー認識、音声認識、発言認識等を実行するための全ての能力およびアルゴリズムを含み、次いで任意のユーザー感覚量112を導出するための分析コンポーネント110による処理に適したデーターを出力する。
[0035] 図示のように、検知コンポーネント102の一部の出力は、アプリケーション108によって理解される対話処理106として、直接アプリケーション108に渡される。顔の表情の画像のような、検知コンポーネント102による他の出力は、ユーザー感覚量102が存在するか否か判断するための分析のために、分析コンポーネント110に渡される。次いで、アプリケーション108は、ユーザー表現106および/またはユーザー感覚量112にしたがって動作する。
[0036] 既に示したように、アプリケーション108は、開始地点から目的地に到達する際に補助を受けるためにユーザーによってアクセスされるマップおよびナビゲーション・プログラムとすることができる。この実施態様について、これより以下で更に詳しく説明する。
[0037] 言い換えると、ユーザー表現の1つは、出発地点と目的地との間で方向を求めるマップ・アプリケーション(例えば、図でまたはリストにして)上において、1回以上のタッチ(例えば、一連のタッチ、同時タッチ等)、2つの地理的地点(出発地および目的地)を使用して、タッチ(圧力)感応ディスプレイをタッチすることである。このマップ・アプリケーションは、出発地および目的地の詳細な焦点を保持しつつ、出発地と目的地との間の経路(タイル)におけるマップ・タイルをぼかす。検知コンポーネントは、ユーザー表現の1つ以上によって定められたユーザー感覚量を検知し、分析コンポーネントはこの感覚量を分析して、アプリケーションの拡大ズーム動作または縮小ズーム動作を行わせる。ユーザー感覚量は、タッチ感応ディスプレイ上におけるタッチの停留時間と、このタッチのタッチ圧力とにしたがって定められる。アプリケーションは、異なるレベルのビューを1つの全体的なビューの中にレンダリングする。ユーザー表現は、異なる圧力から対応して異なるアプリケーション動作が生ずるように、タッチ・ディスプレイ面に加えられる圧力、およびこの圧力の期間に換算される。マルチモード・ユーザー表現は、発言入力を使用して、明確化される。
[0038] 図2は、タッチ・ディスプレイ202による、マップおよびナビゲーション・アプリケーションにおけるユーザー表現および差分タイル・レンダリングの実施態様の図200を示す。ここでは、ユーザーは、左手の指の開始地点204への接触、および目的地点206上における右手の指の接触によって、タッチ・ディスプレイ202とマルチモードで対話処理する。第1接触および第2接触の順序は、例えば、開始地点から目的地までの方向指示として設定することができる。
[0039] レンダリング・コンポーネント208は、第1ズーム・レベルでの開始地点204周囲の領域210のレンダリング、および第2ズーム・レベルでの目的地点206周囲の領域212のレンダリングをやり易くする。これらのズーム・レベルは同一にすることも、異ならせることも可能である。つまり、このビューは、ユーザーが領域(210および212)において地図の詳細を更に詳しく知覚することができ、これによって、全てのタイルが含まれる1つのマップ・ビューにおいて多数のレベルの詳細を提示する。
[0040] ユーザーは、触知圧力に基づいて、領域(210および212)の各々においてズームのレベルを変化させることができる。この変化は、更に、触知圧力に関連する停留によって容易に行うことができる。更にまた、この変化は、いずれかのユーザー感覚量の検出によっても、容易に行うことができる。
[0041] 図3は、複数のズーム・レベルを取り込む(fetch)ための反復分割によってズーム・レベルを表す詳細レベル論理ビューの図300を示す。ここでは、四分木に基づくタイルの混合を使用して、右手の指を使用して開始地点302にタッチし、左手の指を使用して目的地点304にタッチする。目的地点304周囲の領域306は、開始地点302(および領域308)におけるタッチ圧力よりも長い時間タッチ圧力を一定に保持することによって、高いズーム・レベル(例えば、3倍)でレンダリングすることができる。開始地点302は、短い停留(および/または少ない触知圧力)に基づいて、低いズーム(例えば、1倍)でレンダリングされ、したがって、地図は粗くなる。これは、ユーザーは、通例、開始地点302から先にどのようにナビゲートするか知っているが、目的地点304に達したときに、より多くの詳細を必要とすると考えられるからである。このため、一実施態様では、保持を長くするまたは圧力を高めることによって、高いズームが得られ、この形成されたズーム・マップ・レベルにしたがって、そしてナビゲーション経路に基づいて、タイルが取り込まれる。次いで、地点(302および304)間の経路は、混合ズーム(blended zoom)として、モザイク処理(ぼかす)することができる。
[0042] 代替実施形態では、内蔵位置情報取得システムがユーザーの推移を開始地点302から目的地点304まで追跡しており、ユーザーの位置情報(geolocation)に基づいて、地点(302および304)間における経路に沿って移動するズーム・バブル(zoom bubble)のレンダリングを容易にすることができる。
[0043] ユーザー感覚量を採用するとき、ユーザー感覚量が検出された場合、一例では、このユーザー感覚量が、検出されたストレスに基づいて、前述の地点の領域の一方または双方に、自動ズーム・レベルを出現させることができる。
[0044] 図4は、エッジ・レンダリングのためのマップ・タイル充填(map tiling)の論理ビューの図400を示す。タッチ点402において、このタッチ点302の領域406に近接するエリア404は、タッチ点402における詳細レベルに徐々に達する異なるズーム・レベルを取り込むために、四分木がどのように暗示されているか(being hinted)を示す。408において表されるように、マップにおいてズーム・レベルが変化するときの継ぎ目を処理するために、ぼかしおよび透明を使用してハード・エッジを滑らかにすることができる。
[0045] 図5は、ピンチインおよびピンチアウトによって、全体的なズームに作用させるためにジェスチャーを採用した場合の図500を示す。ここでは、ユーザー表現は、ズームを変化させるため、したがって関連する混合率を変化させるために双方の手(接触ありまたはなしで)を使用して表される。レンダリング・コンポーネント208は、生成された曲線に対して同じ技法を利用して、視覚化(visualization)を得ることができる。
[0046] 図6は、地理空間検索結果が各々マップ上で、ズーム・レベルを高めて、レンダリングされる代替実施態様を示す。ここでは、第1地点602および第1領域604、第2地点606および第2領域608、第3地点610および第3領域612、ならびに第4地点614および第4領域616という、4つの地理的対象地点が提示され、各々それ自体のズーム・レベルを有する。ユーザー表現は、任意の1つの地点に対する凝視として、または任意の2つの地点間における視線追尾として検出され、これらの地点に対するズーム・レベルの自動調整を行わせることができる。
[0047] 図7は、開始地点702に近接する更に詳細なビュー、および目的地点704までの途中におけるその後のあらゆる曲がり角(turn)のための魚眼領域の使用を表す図700を示す。魚眼領域706がレンダリングされ、ユーザーが開始地点702から目的地点704までの経路を進むに連れてユーザーの位置を追跡しつつ、更新される。
[0048] 開示するアーキテクチャーの一部として、自然ユーザー・インターフェース(NUI)が使用されてもよい。NUIは、ユーザーが「自然な」方法でデバイスと対話処理することを可能とし、マウス、キーボード、リモコン等のような入力デバイスによって強制される人工的な制約から解放することができる、あらゆるインターフェース技術として定義することができる。NUI方法の例には、発言認識、タッチおよびスタイラス認識、画面上および画面近傍双方におけるジェスチャー認識、エア・ジェスチャー(air gesture)、頭部および視線追尾、音声および発言、視覚、タッチ、ジェスチャー、ならびに機械インテリジェンスを拠り所とするものが含まれる。該当するNUI技術の具体的なカテゴリーには、タッチ感応ディスプレイ、音声および発言認識、意思および目標理解、深度カメラ(立体視カメラ・システム、赤外線カメラ・システム、RGB(赤−緑−青)カメラ・システム、およびこれらの組み合わせというようなカメラ)を使用する運動ジェスチャー(motion gesture)検出、加速度計/ジャイロスコープを使用する運動ジェスチャー検出、顔認識、3Dディスプレイ、頭部、視線および凝視追尾、没入型拡張現実および仮想現実システムが含まれ、これらの全ては、電界検知電極(脳波図(EEG)および関係する方法)を使用して脳活動を検知する技術だけでなく、一層自然なインターフェースを提供する。
[0049] 本明細書には、開示したアーキテクチャーの新規な態様を実行するための方法例を表す1組のフロー・チャートが含まれる。説明の簡略化の目的に限って、例えば、フロー・チャートまたは流れ図の形態で本明細書において示される1つ以上の方法は、一連のアクトとして示され説明されるが、これらの方法は、アクトの順序によって限定されないことは、言うまでもないことであり認められてしかるべきである。何故なら、本方法によれば、アクトの中には、異なる順序で、および/または本明細書において示し説明するもの以外のアクトと同時に現れてもよいものもあるからである。例えば、方法は、代わりに、状態図におけるように、相互に関係付けられた一連の状態またはイベントとして表すこともできることは、当業者には理解され認められよう。更に、方法において示される全てのアクトが、新規な実施態様に必要とされなくてもよい。
[0050] 図8は、開示したアーキテクチャーによる方法を示す。800において、マルチモード・ユーザー表現を検知し、地理空間系アプリケーションを制御するための対話処理として解釈する。802において、ユーザー表現に基づいて地理空間系アプリケーションと対話処理して、この地理空間系のアプリケーションに、1つの全体ビューにおいて異なるレベルのズームをレンダリングさせる。この方法は、更に、ユーザー表現を分析してユーザー感覚量を検出し、ユーザー表現およびユーザー感覚量に基づいて地理空間系アプリケーションと対話処理して、この地理空間系アプリケーションに、1つのビューにおいて異なるレベルのズームをレンダリングさせるアクトも含むことができる。
[0051] 更に、この方法は、ユーザー表現を分析してユーザー感覚量を検出し、ユーザー表現およびユーザー感覚量に基づいて地理空間系アプリケーションと対話処理して、この地理空間系アプリケーションに、1つの全体ビューにおいて異なるレベルのズームをレンダリングさせるアクトも含むことができる。更に、この方法は、出発地および目的地の詳細な焦点を保持しつつ、地理的出発地と地理的目的地との間の経路(道路)におけるマップ・タイルをぼかすアクトも含むことができる。
[0052] 更に、この方法は、マップの地理的対象地点(例えば、出発地および目的地)に関連するズーム・レベルのみを取り込むアクトも含むことができる。しかしながら、マップにおける3つ以上の対象地点をタッチによって選択するという場合も可能であり、ズーム・レベルは、これらの対象地点において、マップ上の他のいずれの場所よりも大きくなる。対象地点におけるズームのレベルは、少なくとも道のレベル(street level)まで落とすことができ、またはアプリケーションの処理能力以内で設けられるレベルにすることができる。
[0053] 更に、この方法は、圧力感応ディスプレイ上における多数のタッチを使用して地理空間系アプリケーションと対話処理して、地理的出発地と目的地との間における方向を識別し提示することもできる。これらのタッチは、異なる対象地点上において順次行うことができ、タッチされた最初の2つの地点に対して動作する。あるいは、これらのタッチは、同じ手の2本の指、または異なる手の指等を使用して同時に行うこともできる。
[0054] 更に、この方法は、タッチ圧力およびタッチ停留時間の対応する変動に応答して、地理的対象地点上において異なるズーム・レベルを可能にするアクトを含むこともできる。タッチ圧力は、最初の圧力が第1アプリケーション動作を実行させ、それよりも大きな第2の圧力が第2アプリケーション動作を実行させ、更にそれよりも(第2圧力よりも)大きな第3の圧力が第3アプリケーション動作を実行させる等というように、圧力閾値に設定/校正することができる。タッチ停留は、別個にまたはタッチ圧力と組み合わせて、使用することもできる。言い換えると、対象地点におけるタッチ圧力が所定時間(例えば、1秒)維持された場合、アプリケーションは、対応する一定の方法で応答する(例えば、ズーム・レベルを上げる)。
[0055] 更に、この方法は、地理空間系アプリケーションのマップ上において地理的出発地および地理的目的地にタッチし、出発地と目的地との間の方向を得るために音声入力(例えば、コマンド)を供給するアクトを含むこともできる。更に、この方法は、地理的出発地および地理的目的地にはレベルを高めて詳細をレンダリングし、同時に地理空間系アプリケーションのマップにおける他のあらゆる場所には、レベルを下げて詳細をレンダリングするアクトも含むことができる。
[0056] 図9は、開示したアーキテクチャーによる代替方法を示す。900において、ユーザーのジェスチャーを検知し分析する。902において、ユーザーのジェスチャーに基づいて、ナビゲーション情報を得るために、ナビゲーション・アプリケーションの全体的な地図ビューとの対話処理をイネーブルする。904において、タッチ・ディスプレイによって、全体的な地図ビューにおける出発地および目的地の選択として、同時ジェスチャーを検出する。906において、出発地および目的地のマップ・ビュー部分を、全体的な地図ビューの他の地理的部分とは異なるレベルの詳細でレンダリングする。
[0057] 更に、この方法は、タッチ圧力の変動に応答して、異なるレベルでマップ・タイルの詳細を可能にし、および/またはタッチ停留に応答して、異なるレベルでマップ・タイルの詳細を可能にするアクトも含むことができる。更に、この方法は、出発地および目的地に同時にタッチするアクトと、ナビゲーション・アプリケーションに出発地から目的地までの方向を戻させるために、発言するアクトも含むことができる。
[0058] 本明細書において使用する場合、「コンポーネント」および「システム」という用語は、ハードウェア、ソフトウェアおよび有形ハードウェアの組み合わせ、ソフトウェア、または実行中のソフトウェアのいずれかの、コンピューター関係エンティティを指すことを意図している。例えば、コンポーネントが、プロセッサー、チップ・メモリー、大容量記憶デバイス(例えば、光ドライブ、ソリッド・ステート・ドライブ、および/または磁気記憶媒体ドライブ)、およびコンピューターのような有形コンポーネントであること、ならびにプロセッサー上で実行するプロセス、オブジェクト、実行可能ファイル、データー構造(揮発性または不揮発性記憶媒体に格納された)、モジュール、実行のスレッド、および/またはプログラムのようなソフトウェア・コンポーネントであることができる。
[0059] 例示として、サーバー上で実行するアプリケーションおよびこのサーバーの双方がコンポーネントであることができる。1つ以上のコンポーネントが1つのプロセスおよび/または実行のスレッド内に存在することができ、コンポーネントは1つのコンピューター上に局在すること、および/または2つ以上のコンピューター間で分散することができる。「一例の」(exemplary)という単語は、本明細書では、例、実例、または例示の代わりになることを意味するために使用することができる。本明細書において「一例の」として記載される態様または設計はいずれも、他の態様や設計よりも好ましいまたは有利であるとは、必ずしも解釈されないものとする。
[0060] これより図10を参照すると、開示したアーキテクチャーによるアプリケーション対話処理のためにマルチモード・ユーザー表現(ジェスチャー)を実行する計算システム1000のブロック図が示されている。しかしながら、開示した方法および/またはシステムの一部または全部の態様を、チップ上システムとして実現できることは認められよう。チップ上システムでは、アナログ、ディジタル、混合信号、および他の機能が1つのチップ基板上に製作される。
[0061] 種々の態様について追加のコンテキストを与えるために、図10および以下の説明は、種々の態様を実現することができる、適した計算システム1000の端的な全体的な説明を行うことを意図している。以上の説明は、1つ以上のコンピューター上で実行することができるコンピューター実行可能命令という一般的なコンテキストにおいて行われたが、新規な実施形態は、他のプログラム・モジュールとの組み合わせで、および/またはハードウェアおよびソフトウェアの組み合わせとしても実現できることは、当業者には認められよう。
[0062] 種々の態様を実現するための計算システム1000は、処理ユニット(1つまたは複数)1004(マイクロプロセッサー(1つまたは複数)およびプロセッサー(1つまたは複数))と、システム・メモリー1006のようなコンピューター読み取り可能記憶媒体(コンピューター読み取り可能記憶媒体(1つまたは複数)は、磁気ディスク、光ディスク、ソリッド・ステート・ドライブ、外部メモリー・システム、およびフラッシュ・メモリー・ドライブも含む)と、システム・バス1008とを有するコンピューター1002を含む。処理ユニット(1つまたは複数)1004は、単一プロセッサー、マルチプロセッサー、単一コア・ユニット、およびマルチコア・ユニットのような、種々の市販されているプロセッサーの内任意のものにすることができる。更に、前述した新規な方法は、他のコンピューター・システム構成とでも実施できることを、当業者は認めよう。他のコンピューター・システム構成は、パーソナル・コンピューター(例えば、デスクトップ、ラップトップ、タブレット、PC等)、ハンドヘルド計算デバイス、マイクロプロセッサー・ベースの電子機器またはプログラマブル消費者用電子機器等だけでなく、ミニコンピューター、メインフレーム・コンピューターも含む。これらの各々は、1つ以上の関連するデバイスに動作可能に結合することができる。
[0063] コンピューター1002は、セルラ電話機および他の移動体対応デバイス(mobile-capable devices)のような、携帯用および/または移動体計算システムのためのクラウド計算サービスをサポートするデーターセンターおよび/または計算リソース(ハードウェアおよび/またはソフトウェア)において採用される様々なコンピューターの内の1つとすることができる。クラウド計算サービスは、例えば、サービスとしてのインフラストラクチャ、サービスとしてのプラットフォーム、サービスとしてのソフトウェア、サービスとしてのストレージ、サービスとしてのデスクトップ、サービスとしてのデーター、サービスとしてのセキュリティ、サービスとしてのAPI(アプリケーション・プログラム・インターフェース)を含むが、これらに限定されるのではない。
[0064] システム・メモリー1006は、揮発性(VOL)メモリー1010(例えば、ランダム・アクセス・メモリー(RAM))、および不揮発性メモリー(NON−VOL)1012(例えば、ROM、EPROM、EEPROM等)のようなコンピューター読み取り可能記憶(物理的記憶)媒体を含むことができる。基本入力/出力システム(BIOS)は、不揮発性メモリー1012に格納することができ、起動中のように、コンピューター1002内部にあるコンポーネント間のデーターおよび信号の伝達を容易にする基本的なルーチンを含む。揮発性メモリー1010は、データーをキャッシュするためのスタティックRAMのような、高速RAMも含むことができる。
[0065] システム・バス1008は、システム・メモリー1006から処理ユニット(1つまたは複数)1004までを含むがこれらには限定されないシステム・コンポーネントのためにインターフェースを設ける。システム・バス1008は、種々の市販のバス・アーキテクチャーの内任意のものを使用して、メモリー・バス(メモリー・コントローラを用いてまたは用いずに)、および周辺バス(例えば、PCI、PCIe、AGP、LPC等)に更に相互接続することができる、様々なタイプのバス構造の内任意のものにすることができる。
[0066] 更に、コンピューター1002は、機械読み取り可能記憶サブシステム(1つまたは複数)1014と、記憶サブシステム(1つまたは複数)1014をシステム・バス1008および他の所望のコンピューター・コンポーネントにインターフェースするための記憶インターフェース(1つまたは複数)1016とを含む。記憶サブシステム(1つまたは複数)1014(物理記憶媒体)は、例えば、ハード・ディスク・ドライブ(HDD)、磁気フロッピー(登録商標)・ディスク・ドライブ(FDD)、ソリッド・ステート・ドライブ(SSD)、および/または光ディスク記憶ドライブ(例えば、CD−ROMドライブ、DVDドライブ)の内1つ以上を含むことができる。記憶インターフェース(1つまたは複数)1016は、例えば、EIDE、ATA、SATA、およびIEEE1394のような、インターフェース技術を含むことができる。
[0067] オペレーティング・システム1020、1つ以上のアプリケーション・プログラム1022、他のプログラム・モジュール1024、およびプログラム・データー1026を含む、1つ以上のプログラムおよびデーターをメモリー・サブシステム1006、機械読み取り可能およびリムーバブル・メモリー・サブシステム1018(例えば、フラッシュ・ドライブ・フォーム・ファクター技術)、および/または記憶サブシステム(1つまたは複数)1014(例えば、光、磁気、ソリッド・ステート)に格納することができる。
[0068] オペレーティング・システム1020、1つ以上のアプリケーション・プログラム1022、他のプログラム・モジュール1024、および/またはプログラム・データー1026は、例えば、図1のシステム100のエンティティおよびコンポーネント、図2のシステム200のエンティティおよびコンポーネント、図3の図300のエンティティおよびコンポーネント、図4の図400のエンティティおよびコンポーネント、図5の図500のエンティティおよびコンポーネント、図6の代替実施態様、図7の図700のエンティティおよびコンポーネント、ならびに図8および図9のフロー・チャートによって表される方法を含むことができる。
[0069] 一般に、プログラムは、ルーチン、方法、データー構造、他のソフトウェア・コンポーネント等を含み、これらは特定のタスクを実行するか、または特定の抽象データー型を実装する。オペレーティング・システム1020、アプリケーション1022、モジュール1024、および/またはデーター1026の全部または一部を、例えば、揮発性メモリー1010のような、メモリーにキャッシュすることもできる。尚、開示したアーキテクチャーは、種々の市販のオペレーティング・システム、またはオペレーティング・システムの組み合わせ(例えば、仮想マシンのような)とでも実現できることは、認められてしかるべきである。
[0070] 記憶サブシステム(1つまたは複数)1014およびメモリー・サブシステム(1006および1018)は、データー、データー構造、コンピューター実行可能命令等の揮発性および不揮発性記憶のためのコンピューター読み取り可能媒体としての役割を果たす。このような命令は、コンピューターまたは他の機械によって実行されると、そのコンピューターまたは他の機械に、方法の1つ以上のアクトを実行させることができる。アクトを実行するための命令は、1つの媒体上に格納することができ、または命令の全てが同じ媒体上にあるか否かには関係なく、命令が集合的に1つ以上のコンピューター読み取り可能記憶媒体上に現れるように、多数の媒体にまたがって格納することもできる。
[0071] コンピューター読み取り可能記憶媒体(1つの媒体)は、伝搬信号を採用しない任意の利用可能な媒体(1つの媒体)とすることができ、コンピューター1002によってアクセスすることができ、リムーバブルおよび/または非リムーバブルである、揮発性および不揮発性内部媒体および/または外部媒体を含む。コンピューター1002では、種々のタイプの記憶媒体が、いずれの適したディジタル・フォーマットのデーターの格納にも対処する。尚、開示したアーキテクチャーの新規な方法(アクト)を実行するためのコンピューター実行可能命令を格納するために、zipドライブ、ソリッド・ステート・ドライブ、磁気テープ、フラッシュ・メモリー・カード、フラッシュ・ドライブ、カートリッジ等のような、他のタイプのコンピューター読み取り可能媒体を採用できることは、当業者には認められてしかるべきである。
[0072] ユーザーは、キーボードおよびマウスのような外部ユーザー入力デバイス1028、ならびに発言認識によって容易に処理される音声コマンドによって、コンピューター1002、プログラム、およびデーターと対話処理することができる。他の外部ユーザー入力デバイス1028は、マイクロフォン、IR(赤外線)リモコン、ジョイスティック、ゲーム・パッド、カメラ認識システム、スタイラス・ペン、タッチ・スクリーン、ジェスチャー・システム(例えば、目の動き、頭の動き等)および/またはその他を含むことができる。ユーザーは、タッチパッド、マイクロフォン、キーボード等のような内蔵ユーザー入力デバイス1030を使用して、コンピューター1002、プログラム、およびデーターと対話処理することができ、例えば、コンピューター1002は携帯用コンピューターである。
[0073] これらおよびその他の入力デバイスは、入力/出力(I/O)デバイス・インターフェース(1つまたは複数)1032を介して、システム・バス1008を通じて処理ユニット(1つまたは複数)1004に接続されるが、パラレル・ポート、IEEE1394シリアル・ポート、ゲーム・ポート、USBポート、IRインターフェース、短距離ワイヤレス(例えば、Bluetooth(登録商標))および他のパーソナル・エリア・ネットワーク(PAN)技術等のような、他のインターフェースによって接続することもできる。また、I/Oデバイス・インターフェース(1つまたは複数)1032は、プリンター、オーディオ・デバイス、カメラ・デバイス、ならびにサウンド・カードおよび/または内蔵オーディオ処理能力等のその他のものというような、出力周辺機器1034の使用を容易にする。
[0074] 1つ以上のグラフィクス・インターフェース(1つまたは複数)1036(一般にグラフィクス処理ユニット(GPU)とも呼ばれる)は、コンピューター1002と外部ディスプレイ(1つまたは複数)1038(例えば、LCD、プラズマ)および/または内蔵ディスプレイ1040(例えば、携帯用コンピューターのディスプレイ)との間でグラフィクスおよびビデオ信号を供給する。また、グラフィクス・インターフェース(1つまたは複数)1036は、コンピューター・システム・ボードの一部として製造することもできる。
[0075] コンピューター1002は、論理接続を使用して、1つ以上のネットワークおよび/または他のコンピューターへの有線/ワイヤレス通信サブシステム1042を介して、ネットワーク接続環境(例えば、IP−ベースの)において動作することができる。他のコンピューターは、ワークステーション、サーバー、ルーター、パーソナル・コンピューター、マイクロプロセッサー・ベースの娯楽アプライアンス、ピア・デバイスまたは他の一般的なネットワーク・ノードを含むことができ、通例、コンピューター1002に関して説明したエレメントの多くまたは全てを含むことができる。論理接続は、ローカル・エリア・ネットワーク(LAN)、ワイド・エリア・ネットワーク(WAN)、ホットスポット等への有線/ワイヤレス接続(connectivity)を含むことができる。LANおよびWANネットワーキング環境は、事務所および会社では極普通であり、イントラネットのような企業規模のコンピューター・ネットワークを円滑にする。そのネットワークの全ては、インターネットのような大域通信ネットワークに接続することもできる。
[0076] ネットワーキング環境において使用される場合、コンピューター1002は、有線/ワイヤレス通信サブシステム1042(例えば、ネットワーク・インターフェース・アダプター、内蔵送受信サブシステム等)を介してネットワークに接続し、有線/ワイヤレス・ネットワーク、有線/ワイヤレス・プリンター、有線/ワイヤレス入力デバイス1044等と通信する。コンピューター1002は、ネットワーク上で通信を確立するためにモデムまたは他の手段を含むことができる。ネットワーク接続環境では、コンピューター1002に関するプログラムおよびデーターは、分散型システムと関連付けられた、リモート・メモリー/記憶デバイスに格納することができる。尚、図示したネットワーク接続は一例であり、コンピューター間において通信リンクを確立する他の手段を使用できることは認められよう。
[0077] コンピューター1002は、IEEE802.xx系統の規格というような無線技術を使用して、ワイヤレス通信(例えば、IEEE802.11無線通信経由変調技法)内に動作可能に配置されたワイヤレス・デバイスのような、有線/ワイヤレス・デバイスまたはエンティティ、例えば、プリンター、スキャナー、デスクトップおよび/または携帯用コンピューター、パーソナル・ディジタル・アシスタント(PDA)、通信衛星、ワイヤレスで検出可能なタグに関連する機器または場所(例えば、キオスク、売店、手洗い)のいずれか、ならびに電話機と通信するように動作可能である。これは、少なくとも、ホットスポットのためのWi−Fi(商標)(ワイヤレス・コンピューター・ネットワーキング・デバイスの相互動作可能性を認定するために使用される)、WiMax、およびBluetooth(登録商標)ワイヤレス技術を含む。このように、通信は、従来のネットワークのような予め定められた構造、または単に少なくとも2つのデバイス間におけるアドホック通信とすることができる。Wi−Fiネットワークは、IEEE802.11x(a、b、g等)と呼ばれる無線技術を使用して、安全で信頼性がある高速ワイヤレス接続を提供する。Wi−Fiネットワークは、コンピューターを互いに、インターネットに、そして有線ネットワーク(IEEE802.3関係技術および機能を使用する)に接続するために使用することができる。
[0078] 以上で説明したことは、開示したアーキテクチャーの例を含む。勿論、コンポーネントおよび/または方法(methodologies)の着想可能なあらゆる組み合わせを記載することは不可能であるが、多くの更に他の組み合わせおよび置換が可能であることを、当業者は認めることができよう。したがって、新規なアーキテクチャーは、添付する請求項の主旨および範囲に該当する、このような変形(alteration)、変更(modification)、および変種(variation)を全て包含することを意図している。更に、「含む」(includes)という用語が詳細な説明または特許請求の範囲において使用される限りにおいて、このような用語は、「備える」(comprising)という用語が請求項において移行性単語として採用されるときに「備える」が解釈されるときと同様に、包含的であることを意図している。

Claims (10)

  1. システムであって、
    マルチモード・ユーザー表現を検知し、アプリケーションを制御するための対話処理として解釈する検知コンポーネントと、
    前記ユーザー表現を分析してユーザー感覚量を求める分析コンポーネントであって、前記アプリケーションが、前記ユーザー表現および前記ユーザー感覚量にしたがって動作する、分析コンポーネントと、
    前記検知コンポーネントまたは前記分析コンポーネントの内少なくとも1つに関連するコンピューター実行可能命令を実行するように構成されたマイクロプロセッサーと、
    を含む、システム。
  2. 請求項1に記載のシステムにおいて、前記ユーザー表現の1つが、1回以上のタッチを使用して、タッチ感応ディスプレイにタッチすることであり、マップ・アプリケーション上の2つの地理的地点が、出発地と目的地との間の方向を示し、前記マップ・アプリケーションが、前記出発地と前記目的地間の経路におけるマップ・タイルをぼかしつつ、前記出発地と前記目的地の詳細な焦点を保持する、システム。
  3. 請求項1に記載のシステムにおいて、前記検知コンポーネントが、前記ユーザー表現の1つ以上によって定められる前記ユーザー感覚量を検知し、前記分析コンポーネントが、前記アプリケーションの拡大ズーム動作または縮小ズーム動作を行わせるために、前記感覚量を分析する、システム。
  4. 請求項1に記載のシステムにおいて、前記アプリケーションが、1つの全体ビューにおいて異なるレベルのビューをレンダリングし、前記マルチモード・ユーザー表現が、発言入力を使用して、明確化される、システム。
  5. 請求項1に記載のシステムにおいて、前記ユーザー表現が、異なる圧力から対応して異なるアプリケーション動作が得られるように、圧力と、タッチ・ディスプレイ表面に加えられる前記圧力の停留に換算される、システム。
  6. 方法であって、
    マルチモード・ユーザー表現を検知し、地理空間系アプリケーションを制御するための対話処理として解釈するアクトと、
    前記ユーザー表現に基づいて前記地理空間系アプリケーションと対話処理し、前記地理空間系アプリケーションに1つの全体ビューにおいて異なるレベルのズームをレンダリングさせるアクトと、
    前記検知または対話処理するアクトの内少なくとも1つに関係する命令を実行するようにプロセッサーを構成するアクトと、
    を含む、方法。
  7. 請求項6に記載の方法であって、更に、前記ユーザー表現を分析してユーザー感覚量を検出し、前記ユーザー表現および前記ユーザー感覚量に基づいて前記地理空間系アプリケーションと対話処理して、前記地理空間系アプリケーションに、前記1つの全体ビューにおいて前記異なるレベルのズームをレンダリングさせるアクトを含む、方法。
  8. 請求項6に記載の方法であって、更に、地理的出発地と地理的目的地との間の経路におけるマップ・タイルをぼかしつつ、前記出発地および前記目的地の詳細な焦点を保持し、マップの地理的対象地点に関連するズーム・レベルのみを取り込むアクトを含む、方法。
  9. 請求項6に記載の方法であって、更に、圧力感応ディスプレイ上において多数のタッチを使用して、前記地理空間系アプリケーションと対話処理して、地理的出発地と地理的目的地との間の方向を識別し提示するアクトを含む、方法。
  10. 請求項6に記載の方法であって、更に、タッチ圧力およびタッチ停留時間の対応する変動に応答して、地理的対象地点において異なるズーム・レベルを可能にし、地理的出発地および地理的目的地には高めたレベルの詳細をレンダリングし、前記地理空間系アプリケーションのマップにおける他のあらゆる場所には下げたレベルの詳細をレンダリングするアクトを含む、方法。
JP2015536974A 2012-10-12 2013-10-12 アプリケーションとの対話処理としてのマルチモード・ユーザー表現およびユーザー感覚量 Pending JP2016500872A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201261713438P 2012-10-12 2012-10-12
US61/713,438 2012-10-12
US13/707,726 US10139937B2 (en) 2012-10-12 2012-12-07 Multi-modal user expressions and user intensity as interactions with an application
US13/707,726 2012-12-07
PCT/US2013/064734 WO2014059397A1 (en) 2012-10-12 2013-10-12 Multi-modal user expressions and user intensity as interactions with an application

Publications (1)

Publication Number Publication Date
JP2016500872A true JP2016500872A (ja) 2016-01-14

Family

ID=50474910

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015536974A Pending JP2016500872A (ja) 2012-10-12 2013-10-12 アプリケーションとの対話処理としてのマルチモード・ユーザー表現およびユーザー感覚量

Country Status (6)

Country Link
US (1) US10139937B2 (ja)
EP (1) EP2907020B1 (ja)
JP (1) JP2016500872A (ja)
KR (1) KR102151286B1 (ja)
CN (1) CN104823147B (ja)
WO (1) WO2014059397A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019101814A (ja) * 2017-12-04 2019-06-24 アルプスアルパイン株式会社 入力制御装置、入力装置、操作対象機器、およびプログラム

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7697827B2 (en) 2005-10-17 2010-04-13 Konicek Jeffrey C User-friendlier interfaces for a camera
JP2013206180A (ja) * 2012-03-28 2013-10-07 Kyocera Corp 電子機器および表示方法
US9582035B2 (en) 2014-02-25 2017-02-28 Medibotics Llc Wearable computing devices and methods for the wrist and/or forearm
US10314492B2 (en) 2013-05-23 2019-06-11 Medibotics Llc Wearable spectroscopic sensor to measure food consumption based on interaction between light and the human body
US9619020B2 (en) 2013-03-01 2017-04-11 Tobii Ab Delay warp gaze interaction
US9864498B2 (en) 2013-03-13 2018-01-09 Tobii Ab Automatic scrolling based on gaze detection
US10783139B2 (en) * 2013-03-06 2020-09-22 Nuance Communications, Inc. Task assistant
US10795528B2 (en) 2013-03-06 2020-10-06 Nuance Communications, Inc. Task assistant having multiple visual displays
US10317995B2 (en) 2013-11-18 2019-06-11 Tobii Ab Component determination and gaze provoked interaction
US10558262B2 (en) * 2013-11-18 2020-02-11 Tobii Ab Component determination and gaze provoked interaction
US20150169048A1 (en) * 2013-12-18 2015-06-18 Lenovo (Singapore) Pte. Ltd. Systems and methods to present information on device based on eye tracking
US10180716B2 (en) 2013-12-20 2019-01-15 Lenovo (Singapore) Pte Ltd Providing last known browsing location cue using movement-oriented biometric data
KR101555426B1 (ko) * 2014-02-07 2015-09-25 고려대학교 산학협력단 지형 렌더링 방법 및 장치
US10429888B2 (en) 2014-02-25 2019-10-01 Medibotics Llc Wearable computer display devices for the forearm, wrist, and/or hand
CN105630365A (zh) * 2014-10-29 2016-06-01 深圳富泰宏精密工业有限公司 网页调整方法及系统
US10276158B2 (en) 2014-10-31 2019-04-30 At&T Intellectual Property I, L.P. System and method for initiating multi-modal speech recognition using a long-touch gesture
US9632664B2 (en) * 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US9542037B2 (en) 2015-03-08 2017-01-10 Apple Inc. Device, method, and user interface for processing intensity of touch contacts
ES2808919T3 (es) * 2015-04-13 2021-03-02 Huawei Tech Co Ltd Método, aparato y dispositivo para activar una interfaz de gestión de tareas
US10514766B2 (en) 2015-06-09 2019-12-24 Dell Products L.P. Systems and methods for determining emotions based on user gestures
KR20170004702A (ko) * 2015-07-03 2017-01-11 엘지전자 주식회사 디스플레이 장치 및 제어 방법
DE102015215044A1 (de) 2015-08-06 2017-02-09 Volkswagen Aktiengesellschaft Verfahren und System zur Verarbeitung multimodaler Eingabesignale
US20170046058A1 (en) * 2015-08-10 2017-02-16 Apple Inc. Devices, Methods, and Graphical User Interfaces for Adjusting User Interface Objects
US20170068413A1 (en) * 2015-09-09 2017-03-09 Microsoft Technology Licensing, Llc Providing an information set relating to a graphical user interface element on a graphical user interface
CN105976157A (zh) * 2016-04-25 2016-09-28 中兴通讯股份有限公司 任务的创建方法及装置
US9874450B2 (en) * 2016-04-28 2018-01-23 Here Global B.V. Referencing closed area geometry
KR101904453B1 (ko) * 2016-05-25 2018-10-04 김선필 인공 지능 투명 디스플레이의 동작 방법 및 인공 지능 투명 디스플레이
CN107710127B (zh) 2016-05-31 2020-10-20 深圳市汇顶科技股份有限公司 用于检测压力的方法和装置
EP3287881B1 (en) 2016-05-31 2021-03-03 Shenzhen Goodix Technology Co., Ltd. Method and device for use in detecting pressure
DK179411B1 (en) 2016-09-06 2018-06-06 Apple Inc Devices and methods for processing and rendering touch inputs unambiguous using intensity thresholds based on a prior input intensity
CN108153169A (zh) * 2017-12-07 2018-06-12 北京康力优蓝机器人科技有限公司 导览模式切换方法、系统和导览机器人
KR102441509B1 (ko) * 2017-12-15 2022-09-07 현대자동차주식회사 단말기, 차량 및 단말기 제어방법
WO2020149427A1 (ko) * 2019-01-15 2020-07-23 엘지전자 주식회사 경로 제공 장치 및 그것의 경로 제공 방법
CN111722779A (zh) * 2019-03-22 2020-09-29 上海博泰悦臻网络技术服务有限公司 人机交互方法、终端及计算机可读存储介质
CN110825934A (zh) * 2019-11-07 2020-02-21 北京无限光场科技有限公司 房产数据展示方法、装置、电子设备及计算机可读介质
US11825212B2 (en) 2021-10-18 2023-11-21 International Business Machines Corporation Automatic creation of a tiled image based on user interests

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07280577A (ja) * 1994-04-05 1995-10-27 Sumitomo Electric Ind Ltd ナビゲーション装置における地図スクロール方法
JP2002340601A (ja) * 2001-05-21 2002-11-27 Mitsubishi Electric Corp ナビゲーション装置並びにそのプログラム。
JP2005107871A (ja) * 2003-09-30 2005-04-21 Nec Corp 画像表示方法と装置、該方法によるプログラムとこれを格納した記録媒体
WO2005111930A2 (de) * 2004-05-11 2005-11-24 Siemens Aktiengesellschaft Verfahren zur visuellen darstellung einer geographischen karte auf einem display eines mobilen kommunikationsgerätes sowie mobiles kommunikationsgerät zur durchführung des verfahrens
JP2008181523A (ja) * 2007-01-25 2008-08-07 Samsung Electronics Co Ltd タッチスクリーンにおける使用性向上のための装置および方法
JP2008225465A (ja) * 2007-02-16 2008-09-25 Nagoya Institute Of Technology デジタルマップ作成システム
US20110141115A1 (en) * 2008-03-04 2011-06-16 Universtitaet Konstanz Interactive method for displaying integrated schematic network plans and geographic maps
JP2012042447A (ja) * 2010-03-31 2012-03-01 Denso Corp 地図表示装置

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7760187B2 (en) 2004-07-30 2010-07-20 Apple Inc. Visual expander
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US7295904B2 (en) * 2004-08-31 2007-11-13 International Business Machines Corporation Touch gesture based interface for motor vehicle
JP2006345209A (ja) * 2005-06-08 2006-12-21 Sony Corp 入力装置、情報処理装置、情報処理方法、及びプログラム
US20090295830A1 (en) 2005-12-07 2009-12-03 3Dlabs Inc., Ltd. User interface for inspection of photographs
US20070097151A1 (en) 2006-04-07 2007-05-03 Outland Research, Llc Behind-screen zoom for handheld computing devices
US20080059904A1 (en) 2006-08-30 2008-03-06 Christopher Patrick Abbey Method, apparatus, and computer program product for implementing enhanced window focus in a graphical desktop
KR20090019161A (ko) * 2007-08-20 2009-02-25 삼성전자주식회사 전자 장치 및 이를 조작하는 방법
DE102008051756A1 (de) 2007-11-12 2009-05-14 Volkswagen Ag Multimodale Benutzerschnittstelle eines Fahrerassistenzsystems zur Eingabe und Präsentation von Informationen
US9123341B2 (en) * 2009-03-18 2015-09-01 Robert Bosch Gmbh System and method for multi-modal input synchronization and disambiguation
CN101799737B (zh) 2010-01-06 2012-04-25 华为终端有限公司 显示图片/界面的方法及终端
JP5998936B2 (ja) 2010-01-06 2016-09-28 ▲華▼▲為▼▲終▼端有限公司 ピクチャ/インターフェースを表示するための方法および端末
US20110224896A1 (en) * 2010-03-09 2011-09-15 Nokia Corporation Method and apparatus for providing touch based routing services
US8665266B2 (en) 2010-06-23 2014-03-04 The United States Of America, As Represented By The Secretary Of The Navy Global visualization process terrain database builder
US9547428B2 (en) * 2011-03-01 2017-01-17 Apple Inc. System and method for touchscreen knob control
KR101290145B1 (ko) * 2011-05-31 2013-07-26 삼성전자주식회사 터치 스크린 제어 방법 및 장치, 컴퓨터에 의해 독출될 수 있는 기록 매체, 그리고 단말장치
US8718922B2 (en) * 2011-07-28 2014-05-06 Navteq B.V. Variable density depthmap
US9087455B2 (en) * 2011-08-11 2015-07-21 Yahoo! Inc. Method and system for providing map interactivity for a visually-impaired user
US8803920B2 (en) * 2011-12-12 2014-08-12 Google Inc. Pre-fetching map tile data along a route

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07280577A (ja) * 1994-04-05 1995-10-27 Sumitomo Electric Ind Ltd ナビゲーション装置における地図スクロール方法
JP2002340601A (ja) * 2001-05-21 2002-11-27 Mitsubishi Electric Corp ナビゲーション装置並びにそのプログラム。
JP2005107871A (ja) * 2003-09-30 2005-04-21 Nec Corp 画像表示方法と装置、該方法によるプログラムとこれを格納した記録媒体
WO2005111930A2 (de) * 2004-05-11 2005-11-24 Siemens Aktiengesellschaft Verfahren zur visuellen darstellung einer geographischen karte auf einem display eines mobilen kommunikationsgerätes sowie mobiles kommunikationsgerät zur durchführung des verfahrens
JP2008181523A (ja) * 2007-01-25 2008-08-07 Samsung Electronics Co Ltd タッチスクリーンにおける使用性向上のための装置および方法
JP2008225465A (ja) * 2007-02-16 2008-09-25 Nagoya Institute Of Technology デジタルマップ作成システム
US20110141115A1 (en) * 2008-03-04 2011-06-16 Universtitaet Konstanz Interactive method for displaying integrated schematic network plans and geographic maps
JP2012042447A (ja) * 2010-03-31 2012-03-01 Denso Corp 地図表示装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019101814A (ja) * 2017-12-04 2019-06-24 アルプスアルパイン株式会社 入力制御装置、入力装置、操作対象機器、およびプログラム
JP7037344B2 (ja) 2017-12-04 2022-03-16 アルプスアルパイン株式会社 入力制御装置、入力装置、操作対象機器、およびプログラム

Also Published As

Publication number Publication date
EP2907020A1 (en) 2015-08-19
KR102151286B1 (ko) 2020-09-02
WO2014059397A1 (en) 2014-04-17
CN104823147A (zh) 2015-08-05
US10139937B2 (en) 2018-11-27
US20140104197A1 (en) 2014-04-17
EP2907020B1 (en) 2020-04-08
CN104823147B (zh) 2019-04-30
KR20150068957A (ko) 2015-06-22

Similar Documents

Publication Publication Date Title
JP2016500872A (ja) アプリケーションとの対話処理としてのマルチモード・ユーザー表現およびユーザー感覚量
KR101784328B1 (ko) 증강 현실 표면 디스플레잉
US8291348B2 (en) Computing device and method for selecting display regions responsive to non-discrete directional input actions and intelligent content analysis
EP2680110B1 (en) Method and apparatus for processing multiple inputs
EP3049908B1 (en) Presentation of a control interface on a touch-enabled device based on a motion or absence thereof
US9501218B2 (en) Increasing touch and/or hover accuracy on a touch-enabled device
KR102281172B1 (ko) 메타데이터 기반 사진 및/또는 비디오 애니메이션화
KR102387897B1 (ko) 시맨틱 카드 뷰 제공 기법
US20140354553A1 (en) Automatically switching touch input modes
JP2016538659A (ja) 同時ホバーおよびタッチインターフェース
US20190057671A1 (en) Multi-display device user interface modification
US20170205980A1 (en) Method and an apparatus for providing a multitasking view
US20170068374A1 (en) Changing an interaction layer on a graphical user interface
US20170090725A1 (en) Selecting at least one graphical user interface item
US20190064938A1 (en) User Interface for Digital Ink Modification
RU2768526C2 (ru) Реальное присутствие рукописного ввода для сотрудничества в реальном времени
US9665232B2 (en) Information-processing device, storage medium, information-processing method, and information-processing system for enlarging or reducing an image displayed on a display device
WO2017044669A1 (en) Controlling a device
KR20160055552A (ko) 메모 표시 방법 및 이를 위한 디바이스
US20170068413A1 (en) Providing an information set relating to a graphical user interface element on a graphical user interface
EP3347803A1 (en) Controlling a multi-user touch screen device
US9274616B2 (en) Pointing error avoidance scheme
US11237671B1 (en) Temporal filter touch detection
KR20170045401A (ko) 문맥 정보에 기초하여 스크롤을 제어하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
KR101579112B1 (ko) 이미지 처리 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170524

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170814

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171018

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180514