JP2014511534A - 多入力インタフェースを用いて三次元環境を航行するためのシステムおよび方法 - Google Patents

多入力インタフェースを用いて三次元環境を航行するためのシステムおよび方法 Download PDF

Info

Publication number
JP2014511534A
JP2014511534A JP2013556624A JP2013556624A JP2014511534A JP 2014511534 A JP2014511534 A JP 2014511534A JP 2013556624 A JP2013556624 A JP 2013556624A JP 2013556624 A JP2013556624 A JP 2013556624A JP 2014511534 A JP2014511534 A JP 2014511534A
Authority
JP
Japan
Prior art keywords
dimensional
input
touch
vector
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013556624A
Other languages
English (en)
Other versions
JP6436628B2 (ja
JP2014511534A5 (ja
Inventor
ジョン エイチ. オーギー,
デーヴィッド ディー. フリース,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Boeing Co
Original Assignee
Boeing Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Boeing Co filed Critical Boeing Co
Publication of JP2014511534A publication Critical patent/JP2014511534A/ja
Publication of JP2014511534A5 publication Critical patent/JP2014511534A5/ja
Application granted granted Critical
Publication of JP6436628B2 publication Critical patent/JP6436628B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Abstract

三次元環境操作のためのシステムおよび方法を開示する。ベクトル外挿器は、入力を三次元空間に外挿して、三次元ベクトル外挿を構築するよう構成されている。パースペクティブロケータは、三次元ベクトル外挿に基づいてビューイングパースペクティブを再配置するよう構成されている。
【選択図】図10

Description

本開示の実施形態は、一般に、視聴システムおよび方法に関する。より詳細には、本開示の実施形態は、双方向視聴システムおよび方法に関する。
軍用の地図作製、ビデオゲームおよびコンピュータゲーム、医用可視化ならびにユーザインタフェースといった数多くの用途分野は、三次元(3‐D)環境を利用している。一般に、三次元環境は、立体物、オブジェクトの集合、領域または空間の単眼視野または立体透視図をもたらす。
三次元環境の操作のためのシステムおよび方法を開示する。ベクトル外挿器は、入力を三次元空間に外挿して、三次元ベクトル外挿を提供する。パースペクティブロケータは、三次元ベクトル外挿に基づいてビューイングパースペクティブを再配置する。
ある実施形態において、多入力三次元環境ナビゲーションのための方法は、第1入力を三次元空間に外挿して、第1三次元ベクトル外挿を提供する。該方法は、第1三次元外挿に基づいて計算された第2三次元ベクトル外挿に基づいてビューイングパースペクティブをさらに再配置する。該方法は、ユーザインタフェース上で第1入力を受信することをさらに含んでもよい。また、該方法の第1入力は、タッチを含んでもよい。該方法はまた、第1入力の位置がユーザインタフェース上で移動する際に、三次元空間における第1点をユーザインタフェース上の第1入力の位置の下方に保つための仮想カメラの視錐台を決定することをさらに含んでもよい。該方法はまた、ユーザインタフェース上の第2入力位置へのユーザインタフェース上の第1入力の第1位置の再配置を受信することをさらに含んでもよい。該方法は、第2入力位置を三次元空間に外挿して、第2三次元ベクトル外挿を提供することをさらに含んでもよい。該方法は、第2三次元ベクトル外挿に基づいて三次元仮想構造を操作することをさらに含んでもよい。
別の実施形態において、多入力三次元環境装置は、第1入力を受信するインタフェースを含む。該装置は、第1入力を第1三次元空間に外挿して、三次元ベクトル外挿を提供するベクトル外挿器をさらに含む。該装置はまた、第1三次元ベクトル外挿に基づいて計算された第2三次元ベクトル外挿に基づいてビューイングパースペクティブを再配置するパースペクティブロケータを含む。
さらに別の実施形態において、三次元環境操作システムは、入力を三次元空間に外挿して、三次元ベクトル外挿を提供するよう動作可能なベクトル外挿器を含む。該システムは、三次元ベクトル外挿に基づいてビューイングパースペクティブを再配置するよう動作可能なパースペクティブロケータをさらに含む。
本概要は、詳細な説明において下でさらに説明する一通りの概念を簡潔に紹介するために提供する。本概要は、請求される主題の鍵となる特徴または本質的な特徴を特定するよう意図されても、請求される主題の範囲の決定の助けとして用いるよう意図されてもいない。
本開示の実施形態のより完全な理解は、複数の図面を通して同様の参照番号が同様の構成要素を指す以下の図とともに考慮されると、詳細な説明および請求項に言及することにより導き出すことができる。図は、本開示の広さ、範囲、規模または適用可能性を限定することなく本開示の理解を促進するために提供している。図面は、必ずしも一定の尺度では作成していない。
図1は、第1の場所における二次元環境ナビゲーションの一例を示している。 図2は、マルチタッチのピンチジェスチャを用いて拡大されたビューを示す第2の場所における図1の二次元環境ナビゲーションの一例を示している。 図3は、本開示のある実施形態に係る第1の場所における三次元環境ナビゲーションの一例を示している。 図4は、本開示のある実施形態に係る第2の場所における図3の三次元環境ナビゲーションの一例を示している。 図5は、本開示のある実施形態に係る第1の場所における三次元環境ナビゲーションの一例を示している。 図6は、本開示のある実施形態に係る第2の場所における図5の三次元環境ナビゲーションの一例を示している。 図7は、本開示のある実施形態に係るマルチタッチの三次元環境ナビゲーションシステムの機能ブロック図の一例を示している。 図8は、本開示のある実施形態に係るマルチタッチの三次元環境ナビゲーションプロセスを示すフローチャートの一例を示している。 図9は、本開示のある実施形態に係る三次元環境における2点マルチタッチの一例を示している。 図10は、本開示のある実施形態に係る三次元環境におけるマルチタッチのインタフェースからの2点ベクトル外挿の一例を示している。 図11は、本開示のある実施形態に係るマルチタッチのインタフェース上の新たな位置への2点タッチ位置変更の一例を示している。 図12は、本開示のある実施形態に係る図11の新たな位置からの2点ベクトル外挿の一例を示している。
以下の詳細な説明は、本来は例示的なものであり、本開示または本開示の実施形態の用途および使用を限定するよう意図されてはいない。特定の装置、技法および用途の説明は、例としてのみ提供している。ここに説明する実施例に対する修正は、当業者にとって容易に明らかとなるであろうし、ここに規定する一般的原理は、本開示の精神および範囲から逸脱することなく他の実施例および用途に適用可能である。本開示は、請求項と一致した範囲を与えられるべきであり、ここに説明され示される実施例に限定されるべきではない。
本開示の実施形態は、機能的かつ/または論理的なブロック構成要素およびさまざまな処理工程の観点からここに説明可能である。そのようなブロック構成要素は、規定の機能を実行するよう構成されたあらゆる数のハードウェア、ソフトウェアおよび/またはファームウェア構成要素により実現可能であることは理解されたい。簡潔にするために、三次元ソフトウェアシミュレーション、タッチセンサー式画面、撮像技法、仮想カメラ位置の演算処理、三次元モデル生成、人間と機械の相互作用、および、システム(と該システムの個々の動作構成要素)のその他の機能的側面に関する従来の技法ならびに構成要素は、ここでは詳細に説明しないことがある。これに加えて、当業者は、本開示の実施形態がさまざまなハードウェアおよびソフトウェアとともに実施可能であること、ならびに、ここに説明する実施形態が本開示の単なる実施形態の例に過ぎないことを理解するであろう。
本開示の実施形態は、実用的かつ非限定的な用途、すなわち、景観シミュレーションに関連してここに説明する。ただし、本開示の実施形態は、そのような景観シミュレーション用途に限定されず、ここに説明する技法はまた、その他の用途においても利用可能である。例えば限定はされないが、実施形態は、戦闘情報センター、水中ナビゲーション、建築、鉱山および石油工学、電子ゲーム、科学的可視化、ユーザインタフェース、アーキテクチャモデルとの対話、コンピュータ支援製図システムまたは三次元モデルとして表されるあらゆる環境などに適用可能であってもよい。そのうえ、本開示の実施形態は、例えば限定はされないが、地上地形、建物、草木およびその他の物理的構造物を含む仮想訓練設備を通じての航行に適用可能である。
本説明を読んだ後で当業者にとって明らかとなるであろうように、以下は、本開示の実施例および実施形態であり、かつ、これら実施例にしたがって動作することに限定はされない。本開示の例示的実施形態の範囲を逸脱することなく、他の実施形態が利用可能であり、かつ、構造的変更が可能である。
本開示の実施形態は、マルチタッチインタフェースを用いて三次元環境内を航行する直感的な手法を提供する。所望の「感覚」とは、表示されている三次元モデルと対話する人物が、まるで目にしている実際のモデルを操作しているかのように感じることである。これは、三次元モデルおよびマルチタッチ表面上の物理的タッチ点を用いて、三次元モデル上の元の位置/点を求めることにより達成される。三次元モデル上の元の位置/点は、タッチ点(例えば、図10における二次元タッチ点AおよびB)が、元々交差していた点(例えば、図10における仮想タッチ点PおよびP)において交差する場所である。次いで、タッチ点がマルチタッチ表面上であちこちにドラッグされる際、三次元モデルは、元々交差していた点をこれらタッチ点の下に保つよう操作される。このようにして、三次元環境のビューは、下でより詳細に説明するように、各指/入力の下の三次元モデル上の元の位置/点が、マルチタッチ表面上で移動させられる際にその指/入力の下にとどまるように操作される。
既存の解決法とは対照的に、本開示の実施形態の重要な部分は、三次元モデルおよびタッチ点をともに用いて、三次元モデルのビューを操作する手法である。三次元モデルのビューは、操作者の指/入力の下の三次元モデル上にタッチされる元の位置が、マルチタッチ表面上で移動させられる際にその指/入力の下にとどまるように操作される。既存の解決法は、ビューを操作するための制約として実際の三次元環境を用いずに、マルチタッチ対話に応答してビューの相対的移動を行うことにより三次元モデルのビューを操作してもよい。一例として、マルチタッチ表面上で左から右へ動かし、タッチ移動の各インチに対して1度ずつビューを回転させることが挙げられる。
マルチタッチ表面に対する既存の解決法は、二次元(2‐D)環境内でのナビゲーションを可能とする。対照的に、本開示の実施形態は、三次元仮想環境における使用のために二次元ナビゲーションジェスチャを拡張する。このようにして、マルチタッチ表面上で1本および/または多指/多入力直感的ジェスチャの組を用いることにより、操作者/利用者は、既存の解決法により提供される二次元環境内よりむしろ三次元仮想環境内で航行することができる。利用者がマルチタッチ表面上のある点をタッチすると、本開示のある実施形態に係るシステムは、三次元仮想環境のコンテンツを用いて、三次元仮想環境内において利用者がタッチしている三次元仮想空間内の三次元位置を求める。三次元仮想空間におけるこれらの三次元位置(三次元の点)を用いて、システムは、利用者のタッチ/ジェスチャを、平行移動、回転およびズームナビゲーションに変換することにより、これら三次元位置と関連付けながらシーンを航行する。例えば、1本の指によるパンは、タッチされている三次元の点が常に指/入力装置の下にとどまるように、三次元仮想環境を変換することとなる。本文献において、タッチ点および位置は、置き換えて用いてもよい。
図1は、第1の場所における二次元環境ナビゲーション100の一例を示している。表示部110(例えば、マルチタッチインタフェース)は、地図102を含む。第1タッチは、第1タッチ点104上で行われ、第2タッチは、第2タッチ点108上で行われる。起動インジケータ106は、第1タッチ点104と第2タッチ点108との両方の存在を示し、これにより、二次元地図ナビゲーションモードを起動する。二次元地図ナビゲーションモードにおいて、第1タッチ点104および第2タッチ点108の少なくとも一方を用いて、地図102を操作することができる。第1タッチ点104および第2タッチ点108はまた、ピンチジェスチャにおいて用いて、第1タッチ点104および第2タッチ点108を共通の中心点へ向かって、または、該中心点から離間して移動させることができる。平行移動には1回のタッチが必要であり、従来の場合の2回のタッチはピンチジェスチャであり、これが、第1タッチ点104および第2タッチ点108が共通の中心点へ向かって、または、該中心点から離間していくことを大まかに暗示もする。
マルチタッチインタフェースは、画像がレンダリングされる表面と、物理的なタッチを感知することができる装置とを含む。レンダリング表面は、散光表面上に画像を投射するプロジェクタ、または、液晶表示装置(LCD)もしくはプラズマモニタなどの非投射型表示システムにより実施可能である。物理的なタッチを感知することができる装置は、例えば限定はされないが、カメラによるシステム、容量タッチスクリーン、または、撮像表面上の物理的なタッチ/入力の物理的位置を感知可能なその他の技術を含んでもよい。
図2は、拡大されたビューを示す第2の場所200における図1の二次元環境ナビゲーション100の一例を示している。表示部210は、ズームされた地図のビュー202において図1の地図102を含む。第1タッチ点104から第1の移動したタッチ点204へ第1タッチを移動させ、かつ、第2タッチ点108から第2の移動したタッチ点208へ第2タッチを移動させることにより、ズームされた地図のビュー202に対して比例的にズームを行う。ズームされた地図のビュー202の操作は、第1タッチまたは第2タッチのいずれかが解放されるまで続けてもよい。
三次元環境は、三次元の物理的空間の仮想表現である。三次元環境は、概して、三次元空間内に位置する多角形として表現される。これらの多角形は、建物よび地球地形といった対象物を近似するよう配置されており、かつ、コンピュータの表示部上にレンダリングされる際に臨場感を持たせて見えるよう概して色および質感が付されている。
三次元環境のビューは、三次元環境がレンダリングされる三次元環境内に設置された仮想カメラの場所、向きおよび錐台(視錐台)を含む。レンダリングは、プロジェクタまたはコンピュータ画面といった二次元表面上の表示部に適した二次元平面に三次元環境を対応付ける。ビューの錐台は、シーン(例えば、地図)がレンダリングされる正投影または透視投影である。この透視投影は、仮想カメラの視野またはズームとして概念化可能である。錐台はまた、仮想立体と交差する2つの平行な平面間に存在する仮想立体(例えば、円錐または角錐)のある部分でもある。錐台は、表示画面上で見える三次元領域を記述するためにコンピュータグラフィックスにおいて一般に用いられる。
図3は、本開示のある実施形態に係る第1の場所における三次元環境ナビゲーション300の一例を示している。表示部310(例えば、マルチタッチインタフェース)は、地図302を含む。第1タッチは、第1タッチ点304上で行われ、第2タッチは、第2タッチ点308上で行われる。起動インジケータ306は、第1タッチ点304と第2タッチ点308との両方の存在を示し、これにより、地図三次元操作モードを起動する。地図三次元操作モードにおいて、第1タッチ点304および第2タッチ点308は、三次元で地図302を操作するために用いられる。操作は、例えば限定はされないが、三次元回転、三次元平行移動、三次元サイズ変更などを含んでもよい。
本実施例における地図302は、単純かつ平坦な矩形であるので、操作は、地図302を地図302の表面と同じ平面に保つ。本実施例では地図302が操作対象物として用いられているが、限定はされないがコンピュータ支援設計(CAD)オブジェクト、ゲーム環境、数学的構造、模擬自然環境などといったあらゆる視対象を操作対象物として用いてもよい。
図4は、本開示のある実施形態に係る第2の場所400における三次元環境ナビゲーション300の一例を示している。表示部410は、操作されたビュー402において地図302(図3)を含む。第1タッチ点304から第1の移動したタッチ点404へ第1タッチを移動させ、かつ、第2タッチ点308から第2の移動したタッチ点408へ第2タッチを移動させることにより、操作対象物(地図302)のビューに対して操作を行い、これにより操作されたビュー402を生成する。起動インジケータ406は、第1の移動したタッチ点404と第2の移動したタッチ点408との両方の存在を示す。操作されたビュー402は、例えば限定はされないが、地図302の三次元回転、三次元平行移動、三次元サイズ変更などを含む。操作されたビュー402の操作は、第1タッチまたは第2タッチのいずれかが解放されるまで続けてもよい。
図5は、本開示のある実施形態に係る第1の場所における三次元環境ナビゲーション500の一例を示している。表示部510は、地図502を含む。第1タッチは、第1タッチ点504上で行われ、第2タッチは、第2タッチ点508上で行われる。起動インジケータ506は、第1タッチ点504と第2タッチ点508との両方の存在を示し、これにより、地図三次元操作モードを起動する。地図三次元操作モードにおいて、第1タッチ点504および第2タッチ点508は、三次元で地図502を操作するために用いることができる。操作は、例えば限定はされないが、三次元回転、三次元平行移動、三次元サイズ変更などを含んでもよい。
図6は、本開示のある実施形態に係る第2の場所600における図5の三次元環境ナビゲーションの一例を示している。表示部610は、操作されたビュー602において地図502を含む。第1タッチ点504から第1の移動したタッチ点604へ第1タッチを移動させ、かつ、第2タッチ点508から第2の移動したタッチ点608へ第2タッチを移動させることにより、操作されたビュー602に対して操作を行う。操作されたビュー602は、地図502の三次元回転、三次元平行移動および三次元サイズ変更を含む。操作されたビュー602の操作は、第1タッチまたは第2タッチのいずれかが解放されるまで続けてもよい。操作後、利用者の指/入力の下の三次元モデル上の位置は、利用者の指/入力の下にとどまる。このようにして、図8の説明に関連して下でより詳細に説明するように、三次元仮想環境における使用のために二次元ナビゲーションジェスチャが拡張される。
図7は、本開示のある実施形態に係るマルチタッチ三次元環境ナビゲーションシステム700(システム700)の一例を示している。システム700は、1本指および/または多指直感的ジェスチャの組を用いることにより、操作者/利用者が三次元でシーン内を航行することができる。
システム700は、例えば限定はされないが、デスクトップ、ラップトップ型またはノート型コンピュータ、携帯型コンピュータデバイス(PDA、携帯電話、パームトップ機など)、メインフレーム、サーバー、クライアント、または、所与の用途または環境に望ましいか適切である可能性のあるあらゆる種類の他の特殊用途もしくは汎用コンピュータデバイスを含んでもよい。システム700は一般に、プロセッサ702と、メモリ704と、データベース706と、ベクトル外挿器708と、パースペクティブロケータ710と、インタフェース712とを含む。これらの構成要素は、ネットワークバス716を介して互いに結合され、かつ、通信してもよい。
プロセッサ702は、システム700の動作に関連付けられた機能、技法および処理タスクを実行するよう構成されている処理論理を含む。特に、処理論理は、ここに説明するシステム700をサポートするよう構成されている。例えば、プロセッサ702は、インタフェース712、ベクトル外挿器708およびパースペクティブロケータ710を制御して、図8の説明に関連して下でより詳細に説明するように、三次元仮想環境における使用のためにインタフェース712により受信した二次元ナビゲーションジェスチャ/入力を拡張する。
プロセッサ702はまた、データベース706に保存されているデータにアクセスして、システム700の機能をサポートする。このようにして、プロセッサ702は、1本指のパン/入力を可能とすることにより、タッチ/起動されている三次元の点が常に指/入力の下にとどまるように三次元環境を変換する。データは、例えば限定はされないが、タッチされているオブジェクトの座標、現在の仮想カメラ位置、仮想カメラベクトル外挿情報、三次元多角形の場所、三次元多角形がともに接続されている様子、画像質感データ、質感メタデータ、三次元環境内に表示されている地形表現(例えば、建物、木々、地面、地図)などを含んでもよい。
プロセッサ702は、ここに説明する機能を行うよう設計された汎用プロセッサ、連想記憶装置、デジタルシグナルプロセッサ、特定用途向け集積回路、フィールドプログラマブルゲートアレイ、あらゆる適切なプログラマブル論理装置、個別ゲートもしくはトランジスタ論理、個別ハードウェア部品、または、それらのあらゆる組み合わせにより実施または実現可能である。このようにして、プロセッサは、マイクロプロセッサ、コントローラ、マイクロコントローラ、状態機械などとして実現してもよい。プロセッサはまた、コンピュータデバイスの組み合わせ、例えば、デジタルシグナルプロセッサとマイクロプロセッサ、複数のマイクロプロセッサ、デジタルシグナルプロセッサコアとともに1つ以上のマイクロプロセッサの組み合わせまたはその他あらゆるそのような構成として実施してもよい。
メモリ704は、システム700の動作をサポートするようフォーマットされたメモリを有するデータ記憶領域であってもよい。メモリ704は、下で説明するような手法でシステム700の機能性をサポートするために必要に応じてデータを保存、維持および提供するよう構成されている。実用的な実施形態において、メモリ704は、例えば限定はされないが、不揮発性記憶装置(不揮発性半導体メモリ、ハードディスク装置、光ディスク装置など)、ランダムアクセス記憶装置(例えば、SRAM、DRAM)または当該技術において知られているその他あらゆる形態の記憶媒体を含んでもよい。
メモリ704は、プロセッサ702に結合され、かつ、例えば限定はされないが、データベース706などを保存するよう構成されていてもよい。また、メモリ704は、データベース706などを更新するための表を含む動的更新データベースを表していてもよい。メモリ704はまた、プロセッサ702により実行されるコンピュータプログラム、オペレーティングシステム、アプリケーションプログラム、プログラムの実行に用いられる仮のデータなどを保存してもよい。メモリ704は、プロセッサ702がメモリ704から情報を読み取り、かつ、メモリ704へ情報を書き込むことができるように、プロセッサ702に結合されていてもよい。一例として、プロセッサ702およびメモリ704は、それぞれ特定用途向け集積回路(ASIC)内にあってもよい。メモリ704はまた、プロセッサ702に組み込まれていてもよい。ある実施形態において、メモリ704は、プロセッサ702により実行されることとなる命令の実行中に一時的変数またはその他の中間情報を保存するためのキャッシュメモリを含んでもよい。メモリ704は、データベース706を含む。
データベース706は、例えば限定はされないが、階層型データベース、地形データベース、ネットワークデータベース、リレーショナルデータベース、オブジェクト指向データベースなどを含んでもよい。データベース706は、例えば限定はされないが、システム700において用いてもよい座標、アルゴリズム、方法論などを保存するよう動作可能である。データベース706は、さまざまに用いてもよく、例えば限定はされないが、利用者がどこで地形領域にタッチしたかを求める地形データベースなどとともに交差試験を行うために、現在の仮想カメラ位置および仮想カメラベクトル外挿情報をベクトルとして用いてもよい。
ベクトル外挿器708は、下でより詳細に説明するように、タッチを三次元空間に外挿して、三次元ベクトル外挿を提供する。
パースペクティブロケータ710は、下でより詳細に説明するように、三次元ベクトル外挿に基づいてビューイングパースペクティブを再配置する。
インタフェース712(ユーザインタフェース)は、システム700の操作者/利用者と通信する。インタフェース712はまた、インターネットウェブページインタフェースを提供してもよい。インタフェース712は、下でより詳細に説明するように、例えば限定はされないが、地図に対するインタフェース、三次元環境に対するインタフェースなどを含んでもよい。
インタフェース712は、タッチセンサー式画面714などのマルチタッチ表面をさらに含んでもよい。利用者がタッチセンサー式画面714上の二次元の点にタッチすると、システム700は、三次元仮想環境のコンテンツを用いて、三次元仮想環境内において利用者がタッチしている三次元仮想空間内の三次元位置を求める。三次元仮想空間におけるこれらの三次元位置(三次元の点)を用いて、システム700は、利用者のタッチ/ジェスチャを、平行移動、回転およびズームナビゲーションに変換することにより、これら三次元位置と関連付けながらシーンを航行する。例えば、上で触れたように、1本の指によるパンは、タッチセンサー式画面714上でタッチされている三次元の点が常にタッチ/入力位置の下にとどまるように、三次元仮想環境を変換することとなる。
タッチセンサー式画面714は、例えば限定はされないが、プラズマディスプレイパネル(PDP)、液晶ディスプレイ(LCD)、反射型液晶素子(LCOS)ディスプレイ、発光ダイオード(LED)ディスプレイ、強誘電性LCDディスプレイ、電界放出ディスプレイ(FED)、電子発光ディスプレイ(ELD)、前方ベクトル外挿ディスプレイ、後方ベクトル外挿ディスプレイ、および、デジタルマイクロミラーデバイス(DMD)ディスプレイまたは回折格子ライトバルブ(GLV)ディスプレイといった微小電気機械装置(MEM)ディスプレイ、陰極線管(CRT)などを含んでもよい。タッチセンサー式画面は、有機電子発光(OEL)ディスプレイおよび有機発光ダイオード(OLED)ディスプレイならびに発光ポリマーディスプレイなどといった有機ディスプレイ技術をさらに含んでもよい。
図8は、本開示のある実施形態に係るマルチタッチの/多入力三次元環境ナビゲーションプロセス800を示すフローチャートの一例を示している。プロセス800に関連して行われるさまざまなタスクは、機械的に、ソフトウェア、ハードウェア、ファームウェア、プロセスの方法を行うためのコンピュータ実行可能な命令を有するコンピュータ読み取り可能な媒体またはそれらのあらゆる組み合わせにより行われてもよい。プロセス800は、あらゆる数の追加または代替のタスクを含んでもよいこと、図8に示しているタスクは、図示されている順序で行われる必要はないこと、および、プロセス800は、ここで詳細には説明しない追加の機能性を有するより包括的な手順またはプロセスに組み込まれてもよいことは理解されたい。
例示目的で、プロセス800の以下の説明は、図3〜図7と関連して上で触れた構成要素に言及することがある。実用的な実施形態において、プロセス800の部分は、プロセッサ702、メモリ704、データベース706、ベクトル外挿器708、パースペクティブロケータ710、インタフェース712およびネットワークバス716といったシステム700の種々の構成要素により行われてもよい。プロセス800は、図3〜図7に示した実施形態と同様の機能、材料および構造物を有していてもよい。したがって、共通の特徴、機能および構成要素は、ここでは重複して説明しないことがある。
図9〜図12と関連してプロセス800を下で説明する。図9は、本開示のある実施形態に係る三次元環境900における2点のマルチタッチの一例を示している。図10は、本開示のある実施形態に係る三次元環境1000におけるインタフェース712からの2点ベクトル外挿の一例を示している。図11は、本開示のある実施形態に係るタッチセンサー式画面714上での2点タッチ位置AおよびBのそれぞれ新たな位置XおよびYへの変化の一例を示している。図12は、本開示のある実施形態に係る図11の新たな位置XおよびYからの2点ベクトル外挿の一例を示している。
プロセス800は、インタフェース712(ユーザインタフェース)上の第1タッチを受信することにより開始してもよい(タスク802)。例えば、図9に示したように、インタフェース712のタッチセンサー式画面714上にシーン902をレンダリングし、インタフェース712により各二次元タッチ点/位置AおよびBといった第1タッチの二次元位置を取得する。プロセス800は、2つの二次元タッチ点AおよびBにおいて第1タッチを用いてシーン902の三次元ビューを操作するためのプロセスの一例であるが、プロセス800はまた、1つ以上の二次元タッチ点において1つ以上のタッチを用いてシーン902のビューを操作するために用いることもできる。
タッチセンサー式画面714上のタッチを用いるが、インタフェース712は、タッチを受信することには限定されない。あるいは、例えば限定はされないが、(例えば、いくつかのオペレーティングシステムはポインタ入力を組み合わせて、単一のポインタを移動させることがあるので、2つのマウスの各々の位置を個々に読み取る適切なソフトウェアを有する)2つのマウス、ジェスチャに基づく装置の起動などといったあらゆる1つ以上の入力源を用いることにより、入力をインタフェース712へ送信してもよい。
プロセス800は、ベクトル外挿器708が、二次元タッチ点AおよびBにおける第1タッチ/入力を三次元環境(三次元空間)に外挿して、第1三次元ベクトル外挿を提供することにより継続してもよい(タスク804)。例えば、図10に示すように、ビュー1006(ビューイングパースペクティブ1006)の場所、向きおよび錐台1002を用いて、カメラ位置Cに基づいてビュー1006をレンダリングし、かつ、二次元タッチ点AおよびBをシーン902に外挿する。このようにして、二次元タッチ点AおよびBをシーン902に外挿して、錐台1002の境界上にベクトルVおよびVを含む第1三次元ベクトル外挿を作る。上で触れたように、錐台は、仮想立体と交差している2つの平行な平面間に存在する仮想立体(例えば、円錐または角錐)のある部分である。錐台は、画面上で見える三次元領域を記述するためにコンピュータグラフィックスにおいて一般に用いられる。
プロセス800は、インタフェース712が、第1三次元ベクトル外挿に基づいて少なくとも1つの仮想タッチ点(PおよびP)を三次元環境1000上に配置することにより継続してもよい(タスク806)。このようにして、図10に示すように、ベクトルVおよびVを三次元環境1000と交差させて、ベクトルVおよびVの終点にそれぞれ対応する仮想タッチ点PおよびPを作る。本実施例において、仮想タッチ点PおよびPは、地面1004上の位置である。プロセス800は、インタフェース712が、インタフェース712上の第2入力位置(XおよびY)へのインタフェース712上の第1入力の第1位置(AおよびB)の再配置を受信することにより継続してもよい(タスク808)。このようにして、インタフェース712は、インタフェース712から第1入力(元々取り込まれた二次元タッチ点/第1位置AおよびB)の新たな二次元位置(第2入力位置XおよびY)を取得する。元々取り込まれた二次元タッチ点AおよびBは、タッチ点が引き上げられずむしろドラッグされる連続したドラッグ動作として、元々取り込まれた二次元タッチ点AおよびBからそれらの新たな二次元タッチ点/第2入力位置XおよびYへとそれぞれ追跡される。同様に、マウスによりクリックおよびドラッグ動作を行ってもよい。
プロセス800は、第2入力位置XおよびYを三次元空間に外挿して、第2三次元ベクトル外挿を提供することにより継続してもよい(タスク810)。例えば、図12に示すように、ビュー1204の視錐台1202を用いて、新たな二次元タッチ点/第2入力位置XおよびYをシーン902にベクトル外挿することにより、新たなベクトルVおよびVを含む第2三次元ベクトル外挿を作る。新たなベクトルVおよびVは、新たな二次元タッチ点/第2入力位置XおよびYにそれぞれ対応する第1の組の終点と、仮想タッチ点PおよびPにそれぞれ対応する第2の組の終点とを含む。上で取り上げたように、仮想タッチ点PおよびPは、ベクトルVおよびVの第1三次元ベクトル外挿の終点に対応する。このようにして、第2三次元ベクトル外挿は、第1三次元ベクトル外挿に基づいて計算する。
プロセス800は、タッチ/入力の位置がユーザインタフェース712上で移動する際に、三次元空間内のある点(例えば、仮想タッチ点PおよびP)をユーザインタフェース上の第1タッチ/入力の位置(例えば、第1位置/タッチ点(AおよびB)および第2入力位置/新たな二次元タッチ点(XおよびY))の下方に保つ(すなわち、二次元インタフェース上のある点が、三次元環境内のある点のビューをカバーする)ための仮想カメラの視錐台1202を決定することにより継続してもよい(タスク812)。視錐台1202/1002の特徴は、例えば限定はされないが、仮想カメラの仮想方向、仮想カメラの仮想位置などを含んでもよい。仮想タッチ点PおよびP、ベクトルVおよびVおよびビューの固有(錐台)特性の制約を鑑みて、ベクトルVおよびVが仮想タッチ点PおよびPと交差するように新たな仮想カメラ位置Cを演算することにより、仮想タッチ点(例えば、仮想タッチ点PおよびP)をタッチされた位置(例えば、第1位置/タッチ点(AおよびB)および第2入力位置/新たな二次元タッチ点(XおよびY))の下に保つ。
制約の組を鑑みて新たな仮想カメラ位置Cといったカメラ位置(ビューイングパースペクティブ)を演算することは、限定はされないが、線形計画法、コレスキー分解、LU分解などといった方法により解決してもよい。場合によっては、これらの制約のみでは固有のカメラ位置の解決に十分ではないことがあるので、カメラの場所および/または向きに対するさらなる制約を追加可能である。上記実施例において、地面1004からの高さおよびカメラのロールは、元のカメラ位置Cから持ち越して、新たな仮想カメラ位置Cを制約する助けとしてもよい。
プロセス800は、パースペクティブロケータ710が、第1三次元ベクトル外挿に基づいて計算された第2三次元ベクトル外挿に基づいてビューイングパースペクティブ(ビュー1204)を再配置することにより継続してもよい(タスク814)。利用者は、第2三次元ベクトル外挿に基づいて限定はされないが地形、CAD図面、ゲーム空間などといった三次元仮想構造を操作してもよい。
上で説明したさまざまな実施形態において、2つの二次元タッチ点AおよびBは、三次元仮想環境における使用のためにインタフェース712により受信される二次元ナビゲーションジェスチャ/入力を拡張する一例として用いられている。しかしながら、その他の実施形態では、1つ以上の二次元タッチ点を用いることができる。例えば、新たな位置へドラッグされる単一の二次元タッチ点は、値PおよびVを作ることにより、元のカメラ位置Cおよび/または向きからの追加の等式の制約が新たなカメラ位置Cおよび向きのための制約等式を固有に解決することを要求することができる。この例として、元のカメラ位置Cからの完全な向きおよび地面1004からの高さを用いることにより、新たなカメラ位置が地面1004に対して垂直に平行移動のみすることができてもよい。別の例として、3つ以上の二次元タッチ点は、新たなカメラ位置Cに対する解決法をさらに制約する助けとすることにより、元のカメラからより数の少ないパラメータが持ち越されることを要求することができる。
このように、三次元ナビゲーションにおける使用のための二次元ナビゲーションジェスチャを拡張するためのシステムおよび方法を提供する。
上の説明は、構成要素または結節点または特徴が、ともに「接続」または「結合」されていると言及している。ここで用いられているように、特に明記した場合を除いて、「接続」は、1つの構成要素/結節点/特徴が別の構成要素/結節点/特徴と必ずしも機械的にではなく直接接合されて(または直接連通して)いることを意味する。同様に、特に明記した場合を除いて、「結合」は、1つの構成要素/結節点/特徴が別の構成要素/結節点/特徴と必ずしも機械的にではなく直接または間接接合されて(または直接または間接連通して)いることを意味する。したがって、図3〜図7および図9〜図12は構成要素の例示的配置を描写しているが、本開示の実施形態において追加の介在構成要素、装置、特徴または構成部品が存在していてもよい。
本文献において用いられている語および表現ならびにそれらの変形は、特に明記した場合を除いて、限定するのではなく対照的に制約のないものとして解釈すべきである。前述のものの例として、「含む(including)」という語は、「限定はされないが、含む」などを意味するとして読むべきであり、「例(example)」という語は、取り上げられている項目の網羅的または限定的な羅列ではなく例示的事例を提供するために用いられ、かつ、「従来の」、「伝統的な」、「通常の」、「標準の」、「知られている」といった形容詞および類似の意味の語は、説明されている項目を所与の期間または所与の時点で入手可能な項目に限定するものとして解釈すべできはないが、その代わりに、現在または未来のあらゆる時点で入手可能または知られている可能性のある従来の、伝統的な、通常のまたは標準の技術を包含するものとして読むべきである。
同様に、接続詞「および」により結び付いている一群の項目は、それらの項目の各々すべてが該群に存在することを要求するとして読むべきではなく、むしろ、特に明記した場合を除いて「および/または」として読むべきである。同様に、接続詞「または」により結び付いている一群の項目は、その群の中での相互排他性を要求するとして読むべきではなく、むしろ、特に明記した場合を除いて「および/または」としてまた読むべきである。さらに、本開示の項目、構成要素または構成部品は単数形で説明または請求されていることがあるが、単数形への限定が特に明記されている場合を除いて複数形は本開示の範囲内であると考えられている。場合によっては「1つ以上の」、「少なくとも」、「限定はされないが」などの範囲を広げる言葉および表現またはその他の類似表現の存在は、そのような範囲を広げる表現がない場合はより狭いケースが意図または要求されるという意味に解釈すべきではない。

Claims (13)

  1. 第1入力を受信するユーザインタフェースと、
    第1入力を三次元空間に外挿して、第1三次元ベクトル外挿を提供するベクトル外挿器と、
    第1三次元ベクトル外挿に基づいて計算した第2三次元ベクトル外挿に基づいてビューイングパースペクティブを再配置するパースペクティブロケータと、
    を含む多入力三次元環境装置。
  2. ユーザインタフェースが、タッチセンサー式画面を含む、請求項1に記載の多入力三次元環境装置。
  3. 第1入力が、タッチを含む、請求項1に記載の多入力三次元環境装置。
  4. ベクトル外挿器が、第1入力の位置がユーザインタフェース上で移動する際に、三次元空間における第1点をユーザインタフェース上の第1入力の位置の下方に保つ仮想カメラの視錐台を決定する、請求項1に記載の多入力三次元環境装置。
  5. ベクトル外挿器が、第2入力位置を三次元空間に外装して、第2三次元ベクトル外挿を提供する、請求項1に記載の多入力三次元環境装置。
  6. パースペクティブロケータが、第2三次元ベクトル外挿に基づいて三次元仮想環境を操作する、請求項5に記載の多入力三次元環境装置。
  7. 入力を三次元空間に外挿して、三次元ベクトル外挿を提供するよう動作可能なベクトル外挿器と、
    三次元ベクトル外挿に基づいてビューイングパースペクティブを再配置するよう動作可能なパースペクティブロケータと、
    を含む三次元環境操作システム。
  8. 入力を受信するよう動作可能なインタフェースをさらに含む、請求項7に記載のシステム。
  9. インタフェースが、タッチセンサー式画面、マウスおよびジェスチャに基づく装置からなる群から選択される少なくとも1つのインタフェースを含む、請求項8に記載のシステム。
  10. 入力が、タッチを含む、請求項7に記載のシステム。
  11. ベクトル外挿器が、入力の位置がインタフェース上で移動する際に、仮想タッチ点をインタフェース上の入力の位置の下方に保つための仮想カメラの視錐台を決定するようさらに動作可能である、請求項7に記載のシステム。
  12. 視錐台が、仮想カメラの仮想方向および仮想カメラの仮想位置からなる群から選択される少なくとも1つの特徴を含む、請求項11に記載のシステム。
  13. パースペクティブロケータが、三次元ベクトル外挿に基づいて三次元仮想環境を操作するようさらに動作可能である、請求項7に記載のシステム。
JP2013556624A 2011-03-02 2012-01-24 多入力インタフェースを用いて三次元環境を航行するためのシステムおよび方法 Active JP6436628B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/039,284 2011-03-02
US13/039,284 US9632677B2 (en) 2011-03-02 2011-03-02 System and method for navigating a 3-D environment using a multi-input interface
PCT/US2012/022412 WO2012118572A1 (en) 2011-03-02 2012-01-24 System and method for navigating a 3-d environment using a multi-input interface

Publications (3)

Publication Number Publication Date
JP2014511534A true JP2014511534A (ja) 2014-05-15
JP2014511534A5 JP2014511534A5 (ja) 2015-03-05
JP6436628B2 JP6436628B2 (ja) 2018-12-12

Family

ID=45926905

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013556624A Active JP6436628B2 (ja) 2011-03-02 2012-01-24 多入力インタフェースを用いて三次元環境を航行するためのシステムおよび方法

Country Status (5)

Country Link
US (1) US9632677B2 (ja)
EP (1) EP2681649B1 (ja)
JP (1) JP6436628B2 (ja)
CN (1) CN103403662A (ja)
WO (1) WO2012118572A1 (ja)

Families Citing this family (179)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8645137B2 (en) 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US10002189B2 (en) 2007-12-20 2018-06-19 Apple Inc. Method and apparatus for searching using an active ontology
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US10706373B2 (en) 2011-06-03 2020-07-07 Apple Inc. Performing actions associated with task items that represent tasks to perform
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
JP2012256110A (ja) * 2011-06-07 2012-12-27 Sony Corp 情報処理装置、情報処理方法およびプログラム
US8994660B2 (en) 2011-08-29 2015-03-31 Apple Inc. Text correction processing
US9026951B2 (en) * 2011-12-21 2015-05-05 Apple Inc. Device, method, and graphical user interface for selection of views in a three-dimensional map based on gesture inputs
US9208698B2 (en) 2011-12-27 2015-12-08 Apple Inc. Device, method, and graphical user interface for manipulating a three-dimensional map view based on a device orientation
US10191641B2 (en) 2011-12-29 2019-01-29 Apple Inc. Device, method, and graphical user interface for navigation of information in a map-based interface
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US8754885B1 (en) * 2012-03-15 2014-06-17 Google Inc. Street-level zooming with asymmetrical frustum
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
US10262460B2 (en) * 2012-11-30 2019-04-16 Honeywell International Inc. Three dimensional panorama image generation systems and methods
CN104969289B (zh) 2013-02-07 2021-05-28 苹果公司 数字助理的语音触发器
US20140267600A1 (en) * 2013-03-14 2014-09-18 Microsoft Corporation Synth packet for interactive view navigation of a scene
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US9712746B2 (en) 2013-03-14 2017-07-18 Microsoft Technology Licensing, Llc Image capture and ordering
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
CN103488413B (zh) * 2013-04-26 2016-12-28 展讯通信(上海)有限公司 触控设备及在触控设备上显示3d界面的控制方法和装置
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
WO2014197336A1 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
KR101959188B1 (ko) 2013-06-09 2019-07-02 애플 인크. 디지털 어시스턴트의 둘 이상의 인스턴스들에 걸친 대화 지속성을 가능하게 하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
US10296160B2 (en) 2013-12-06 2019-05-21 Apple Inc. Method for extracting salient dialog usage from live data
JP6388479B2 (ja) * 2014-02-19 2018-09-12 ヤフー株式会社 情報表示装置、情報配信装置、情報表示方法、情報表示プログラムおよび情報配信方法
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US9966065B2 (en) 2014-05-30 2018-05-08 Apple Inc. Multi-command single utterance input method
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
WO2015200439A1 (en) * 2014-06-24 2015-12-30 Google Inc. Computerized systems and methods for analyzing and determining properties of virtual environments
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US10152299B2 (en) 2015-03-06 2018-12-11 Apple Inc. Reducing response latency of intelligent automated assistants
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10200824B2 (en) 2015-05-27 2019-02-05 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10740384B2 (en) 2015-09-08 2020-08-11 Apple Inc. Intelligent automated assistant for media search and playback
US10331312B2 (en) 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
CN105354874B (zh) * 2015-11-05 2019-11-08 韩东润 一种数字素材的立体显示方法及装置
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10956666B2 (en) 2015-11-09 2021-03-23 Apple Inc. Unconventional virtual assistant interactions
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
CN107180406B (zh) * 2016-03-09 2019-03-15 腾讯科技(深圳)有限公司 图像处理方法和设备
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US11227589B2 (en) 2016-06-06 2022-01-18 Apple Inc. Intelligent list reading
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179309B1 (en) 2016-06-09 2018-04-23 Apple Inc Intelligent automated assistant in a home environment
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
US10168856B2 (en) * 2016-08-29 2019-01-01 International Business Machines Corporation Graphical user interface for managing three dimensional dataset
US10254914B2 (en) 2016-08-29 2019-04-09 International Business Machines Corporation Configuring three dimensional dataset for management by graphical user interface
US10474753B2 (en) 2016-09-07 2019-11-12 Apple Inc. Language identification using recurrent neural networks
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US10606457B2 (en) * 2016-10-11 2020-03-31 Google Llc Shake event detection system
EP3510474B1 (en) * 2016-10-21 2021-12-01 Hewlett-Packard Development Company, L.P. Virtual reality input
WO2018096804A1 (ja) * 2016-11-25 2018-05-31 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US11281993B2 (en) 2016-12-05 2022-03-22 Apple Inc. Model and ensemble compression for metric learning
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
CN107092359A (zh) * 2017-04-24 2017-08-25 北京小米移动软件有限公司 虚拟现实视角重定位方法、装置及终端
US10417266B2 (en) 2017-05-09 2019-09-17 Apple Inc. Context-aware ranking of intelligent response suggestions
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. USER INTERFACE FOR CORRECTING RECOGNITION ERRORS
US10395654B2 (en) 2017-05-11 2019-08-27 Apple Inc. Text normalization based on a data-driven learning network
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
US11301477B2 (en) 2017-05-12 2022-04-12 Apple Inc. Feedback analysis of a digital assistant
DK201770427A1 (en) 2017-05-12 2018-12-20 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
US10303715B2 (en) 2017-05-16 2019-05-28 Apple Inc. Intelligent automated assistant for media exploration
US10311144B2 (en) 2017-05-16 2019-06-04 Apple Inc. Emoji word sense disambiguation
DK179560B1 (en) 2017-05-16 2019-02-18 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US10403278B2 (en) 2017-05-16 2019-09-03 Apple Inc. Methods and systems for phonetic matching in digital assistant services
US20180336892A1 (en) 2017-05-16 2018-11-22 Apple Inc. Detecting a trigger of a digital assistant
US10657328B2 (en) 2017-06-02 2020-05-19 Apple Inc. Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling
US10445429B2 (en) 2017-09-21 2019-10-15 Apple Inc. Natural language understanding using vocabularies with compressed serialized tries
US10755051B2 (en) 2017-09-29 2020-08-25 Apple Inc. Rule-based natural language processing
US10754523B2 (en) * 2017-11-27 2020-08-25 International Business Machines Corporation Resizing of images with respect to a single point of convergence or divergence during zooming operations in a user interface
US10636424B2 (en) 2017-11-30 2020-04-28 Apple Inc. Multi-turn canned dialog
US10733982B2 (en) 2018-01-08 2020-08-04 Apple Inc. Multi-directional dialog
US10733375B2 (en) 2018-01-31 2020-08-04 Apple Inc. Knowledge-based framework for improving natural language understanding
US10789959B2 (en) 2018-03-02 2020-09-29 Apple Inc. Training speaker recognition models for digital assistants
US10592604B2 (en) 2018-03-12 2020-03-17 Apple Inc. Inverse text normalization for automatic speech recognition
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
US10909331B2 (en) 2018-03-30 2021-02-02 Apple Inc. Implicit identification of translation payload with neural machine translation
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US10984780B2 (en) 2018-05-21 2021-04-20 Apple Inc. Global semantic word embeddings using bi-directional recurrent neural networks
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
DK201870355A1 (en) 2018-06-01 2019-12-16 Apple Inc. VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
US11386266B2 (en) 2018-06-01 2022-07-12 Apple Inc. Text correction
US10496705B1 (en) 2018-06-03 2019-12-03 Apple Inc. Accelerated task performance
US11010561B2 (en) 2018-09-27 2021-05-18 Apple Inc. Sentiment prediction from textual data
US10839159B2 (en) 2018-09-28 2020-11-17 Apple Inc. Named entity normalization in a spoken dialog system
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US11170166B2 (en) 2018-09-28 2021-11-09 Apple Inc. Neural typographical error modeling via generative adversarial networks
US10715714B2 (en) * 2018-10-17 2020-07-14 Verizon Patent And Licensing, Inc. Machine learning-based device placement and configuration service
US11475898B2 (en) 2018-10-26 2022-10-18 Apple Inc. Low-latency multi-speaker speech recognition
US11638059B2 (en) 2019-01-04 2023-04-25 Apple Inc. Content playback on multiple devices
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
US11423908B2 (en) 2019-05-06 2022-08-23 Apple Inc. Interpreting spoken requests
US11475884B2 (en) 2019-05-06 2022-10-18 Apple Inc. Reducing digital assistant latency when a language is incorrectly determined
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
US11289073B2 (en) 2019-05-31 2022-03-29 Apple Inc. Device text to speech
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. USER ACTIVITY SHORTCUT SUGGESTIONS
DK201970510A1 (en) 2019-05-31 2021-02-11 Apple Inc Voice identification in digital assistant systems
US11496600B2 (en) 2019-05-31 2022-11-08 Apple Inc. Remote execution of machine-learned models
US11360641B2 (en) 2019-06-01 2022-06-14 Apple Inc. Increasing the relevance of new available information
US11227599B2 (en) 2019-06-01 2022-01-18 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
US11488406B2 (en) 2019-09-25 2022-11-01 Apple Inc. Text detection using global geometry estimators
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11043220B1 (en) 2020-05-11 2021-06-22 Apple Inc. Digital assistant hardware abstraction
US11755276B2 (en) 2020-05-12 2023-09-12 Apple Inc. Reducing description length based on confidence
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
CN112632181B (zh) * 2020-12-21 2024-02-06 北京百度网讯科技有限公司 地图显示方法、装置、设备、存储介质和终端设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11143607A (ja) * 1997-10-28 1999-05-28 Korea Electron Telecommun ヘリコプター操縦メタポアーを用いた仮想空間の探索方法
JP2001195608A (ja) * 2000-01-14 2001-07-19 Artdink:Kk Cgの三次元表示方法
JP2007328570A (ja) * 2006-06-08 2007-12-20 Xanavi Informatics Corp 地図表示装置
JP2008276636A (ja) * 2007-05-02 2008-11-13 Nintendo Co Ltd 情報処理装置および情報処理プログラム
JP2009017480A (ja) * 2007-07-09 2009-01-22 Nippon Hoso Kyokai <Nhk> カメラキャリブレーション装置およびそのプログラム
JP2009131436A (ja) * 2007-11-30 2009-06-18 Square Enix Co Ltd 画像生成装置、画像生成プログラム、画像生成プログラム記録媒体及び画像生成方法
US20100045666A1 (en) * 2008-08-22 2010-02-25 Google Inc. Anchored Navigation In A Three Dimensional Environment On A Mobile Device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101531363B1 (ko) * 2008-12-10 2015-07-06 삼성전자주식회사 이차원 인터랙티브 디스플레이에서 가상 객체 또는 시점을 제어하는 방법
CN101770324B (zh) * 2008-12-31 2011-12-28 商泰软件(上海)有限公司 一种实现三维图形界面互动式操作的方法
US8493384B1 (en) * 2009-04-01 2013-07-23 Perceptive Pixel Inc. 3D manipulation using applied pressure
WO2011003171A1 (en) 2009-07-08 2011-01-13 Smart Technologies Ulc Three-dimensional widget manipulation on a multi-touch panel
US8232990B2 (en) * 2010-01-05 2012-07-31 Apple Inc. Working with 3D objects

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11143607A (ja) * 1997-10-28 1999-05-28 Korea Electron Telecommun ヘリコプター操縦メタポアーを用いた仮想空間の探索方法
JP2001195608A (ja) * 2000-01-14 2001-07-19 Artdink:Kk Cgの三次元表示方法
JP2007328570A (ja) * 2006-06-08 2007-12-20 Xanavi Informatics Corp 地図表示装置
JP2008276636A (ja) * 2007-05-02 2008-11-13 Nintendo Co Ltd 情報処理装置および情報処理プログラム
JP2009017480A (ja) * 2007-07-09 2009-01-22 Nippon Hoso Kyokai <Nhk> カメラキャリブレーション装置およびそのプログラム
JP2009131436A (ja) * 2007-11-30 2009-06-18 Square Enix Co Ltd 画像生成装置、画像生成プログラム、画像生成プログラム記録媒体及び画像生成方法
US20100045666A1 (en) * 2008-08-22 2010-02-25 Google Inc. Anchored Navigation In A Three Dimensional Environment On A Mobile Device
JP2012501016A (ja) * 2008-08-22 2012-01-12 グーグル インコーポレイテッド モバイルデバイス上の3次元環境内でのナビゲーション

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
杉田 馨 他: "透明タッチパネルを用いた遠隔ディスプレイ操作システム", マルチメディア,分散,協調とモバイル(DICOMO2009)シンポジウム論文集, vol. 第2009巻,第1号, JPN6016008305, 8 July 2009 (2009-07-08), JP, pages 679 - 686, ISSN: 0003270749 *

Also Published As

Publication number Publication date
CN103403662A (zh) 2013-11-20
US9632677B2 (en) 2017-04-25
JP6436628B2 (ja) 2018-12-12
EP2681649B1 (en) 2019-05-22
US20120223936A1 (en) 2012-09-06
WO2012118572A1 (en) 2012-09-07
EP2681649A1 (en) 2014-01-08

Similar Documents

Publication Publication Date Title
JP6436628B2 (ja) 多入力インタフェースを用いて三次元環境を航行するためのシステムおよび方法
US11551410B2 (en) Multi-modal method for interacting with 3D models
Spindler et al. Use your head: tangible windows for 3D information spaces in a tabletop environment
US10747389B2 (en) Display of three-dimensional model information in virtual reality
US20090125801A1 (en) 3D windows system
US10529145B2 (en) Touch gestures for navigation and interacting with content in a three-dimensional space
Telkenaroglu et al. Dual-finger 3d interaction techniques for mobile devices
Pietroszek et al. Smartcasting: a discount 3D interaction technique for public displays
WO2017195178A1 (en) System and method for modifying virtual objects in a virtual environment in response to user interactions
JP5767371B1 (ja) 仮想空間平面上に配置したオブジェクトを表示制御するゲーム・プログラム
US9292165B2 (en) Multiple-mode interface for spatial input devices
US9082223B2 (en) Smooth manipulation of three-dimensional objects
WO2016102948A1 (en) Coherent touchless interaction with stereoscopic 3d images
CN105745688B (zh) 动态工作平面3d渲染环境
US20220206669A1 (en) Information processing apparatus, information processing method, and program
JP2016016319A (ja) 仮想空間平面上に配置したオブジェクトを表示制御するゲーム・プログラム
US20220335676A1 (en) Interfacing method and apparatus for 3d sketch
KR102392675B1 (ko) 3차원 스케치를 위한 인터페이싱 방법 및 장치
KR20230159281A (ko) 3차원 모델링 방법 및 장치
CN116071492A (zh) 一种三维模型生成方法、装置、计算机设备及存储介质
JP2021033887A (ja) 3次元空間における入力受付および入力表示方法、プログラム、および3次元空間における入力受付および入力表示装置
Chen et al. Multi-resolution haptic interaction of hybrid virtual environments
Barange et al. Tabletop Interactive Camera Control
Forsberg et al. An Implementation of 6-DOF-Based Direct-Manipulation Techniques for Immersive Virtual Environments

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150116

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160308

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160804

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170317

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170727

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20170802

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20171006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180910

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181113

R150 Certificate of patent or registration of utility model

Ref document number: 6436628

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250