JP6289468B2 - バーチャルリアリティアプリケーション - Google Patents

バーチャルリアリティアプリケーション Download PDF

Info

Publication number
JP6289468B2
JP6289468B2 JP2015528447A JP2015528447A JP6289468B2 JP 6289468 B2 JP6289468 B2 JP 6289468B2 JP 2015528447 A JP2015528447 A JP 2015528447A JP 2015528447 A JP2015528447 A JP 2015528447A JP 6289468 B2 JP6289468 B2 JP 6289468B2
Authority
JP
Japan
Prior art keywords
context information
application
detected
scene
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015528447A
Other languages
English (en)
Other versions
JP2015531135A (ja
Inventor
ロイ・レヴィーン
マーク・マラマッド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Empire Technology Development LLC
Original Assignee
Empire Technology Development LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Empire Technology Development LLC filed Critical Empire Technology Development LLC
Publication of JP2015531135A publication Critical patent/JP2015531135A/ja
Application granted granted Critical
Publication of JP6289468B2 publication Critical patent/JP6289468B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/60Software deployment
    • G06F8/61Installation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus

Description

関連出願の相互参照
本出願は、2012年8月24日に出願された国際出願番号PCT/US2012/052320の利益を主張するものであり、参照によりその全体が本明細書に組み込まれる。
使用されているモバイルコンピューティングデバイスの数は、過去10年で大幅に増加し、また現在も増え続けている。モバイルコンピューティングデバイスとは、例えば、携帯電話、デジタルカメラ、および全地球測位システム(「GPS」)受信器である。ある調査によれば、世界の人口の60%が携帯電話を利用できる。ますます多くの人々がデジタルカメラを使用し、デジタルカメラのメーカーには、現在、年間に数百億米ドルの収益を上げているところもある。デジタルカメラは、画像を取込み、保存し、共有するために使用される。しばしば、画像は、取込んだほぼ直後に、例えば、デジタルカメラと関連付けられている表示装置に表示することができる。画像は、いったん取込まれると、コンピューティングデバイスによって処理することができる。画像認識は、画像において物体を認識し、識別するために使用することができるといったような処理である。例えば、画像認識技法は、画像が人間の顔、特定の物体または形状などを含んでいるかを判定することができる。
拡張現実は、ユーザが現実世界で観察している視覚情報または聴覚情報をデジタル的に拡張できるよう、コンピューティングデバイスによって強化された、実際の、現実世界の環境を表現したものである。例として、拡張現実システムは、光景情報をデジタルカメラおよびGPSから受信し、その光景において物体(例えば、人々、動物、建築物など)を識別し、識別された物体に関する追加情報を提供することができる。そのようなシステムのユーザは、モバイルコンピューティングデバイス(例えば、デジタルカメラ、携帯電話、「スマートフォン」など)を使用して光景の写真を撮り、撮影された(すなわち、デジタル化された)光景において拡張現実システムが認識した1つまたは複数の物体に関する情報を自動的に受信することができる。
現在、モバイルデバイスで利用可能な数十万ものアプリケーションが存在する。ユーザは、自らにとって面白い、または有用であるアプリケーション(「アプリ」)をダウンロードしてインストールできる。しかし、そのようなアプリケーションを見つけることは、簡単ではない。
様々な実施形態において、開示された技術によって呼び出されるルーチンを示す流れ図である。 様々な実施形態において、開示された技術の使用について示す、環境に関する図である。 様々な実施形態において、開示された技術によって利用される構成要素を示すブロック図である。 様々な実施形態において、開示された技術によって呼び出されるルーチンを示す流れ図である。 様々な実施形態において、開示された技術によって呼び出されるルーチンを示す流れ図である。 様々な実施形態において、開示された技術の使用について示す、環境に関する図である。 様々な実施形態において、開示された技術の使用について示す、環境に関する図である。 様々な実施形態において、開示された技術によって呼び出されるルーチンを示す流れ図である。 本開示の少なくともいくつかの実施形態により構成されるコンピューティングデバイスの例示的な実施形態のブロック図である。
以下の詳細な説明では、その一部を形成する添付図面を参照する。図面において、同様の記号は通常、文脈上他の規定がない限り、同様の構成要素を指定する。発明を実施するための形態、図面、および特許請求の範囲に示された例示的な実施形態は、限定的であることを表すものではない。本明細書で示される主題の範囲を逸脱することなく、他の実施形態が使用可能であり、かつ他の変更を加えることができる。本開示の態様は、全体的に本明細書で示されるように、および図において示されるように、そのすべてが本明細書で明示的に想定される様々な異なった構成で、構成、代用、組合せ、分離、および設計可能であることが容易に理解されよう。
拡張現実技術(「本技術」)について述べる。様々な実施形態において、本技術は、ある光景において物体を検出し、1つまたは複数のインストールされたアプリケーションを少なくとも1つの検出された物体に基づいて識別し、識別された1つまたは複数のアプリケーションを表すアイコンを、例えば、その光景のディスプレイ表示において、検出された物体の最も近くに表示する。本技術は、例えば、画像認識、パターン認識などの、物体認識の様々な技法を使用することができる。ユーザが表示されたアイコンを選択すると、選択されたアイコンに対応するアプリケーションが起動可能である。様々な実施形態において、本技術は、その代わりに(またはそれに加えて)、利用可能であるがまだインストールされていないアプリケーションを少なくとも1つの検出された物体に基づいて識別することができる。ユーザが表示されたアイコンを選択すると、選択されたアイコンに対応するアプリケーションをインストールでき、また任意選択でそれを起動することができる。したがって、本技術は、ユーザが迅速に、自身が置かれている状況または環境に関係し得るアプリケーションを識別することを可能にする。
本技術は、ある光景をデジタル化するために、ユーザが利用しているモバイルデバイスと共に使用できるように構成されたデジタルカメラを利用することができる。このモバイルデバイスはまた、例えばGPS座標といったコンテキスト情報も処理することができる。一部のアプリケーションは、コンテキスト情報に対応してもよい。例として、対象の光景が特定のレストランを含むと、識別されたアプリケーションは、そのレストランに対応するアプリケーションである場合がある。複数のアプリケーションがある物体(例えば、レストラン、店舗、または他の施設もしくは物体)に対応する場合、本技術は、現在位置(例えば、GPS座標)に適したアプリケーションを識別してもよい。あるいは、ユーザは、使用するコンテキスト情報を指定することができる。例として、本技術は、現在の時刻に営業している施設のアプリケーションを識別してもよいが、ユーザは、その日の遅くに夕食のために営業している施設に対応するアプリケーションのみに関心をもってもよい。
本技術は、例えば、インストールされた(または利用可能な)アプリケーションに対応する属性を現在の状況または環境に、例えば整合される物体の属性に基づいて、整合させることにより、アプリケーションを識別することができる。属性は、ローカルにモバイルデバイスまたはサーバに格納することができる。ユーザはまた、例えば、物体が次回、デジタル化された光景に現れたとき、特定のアプリケーションのアイコンが確認可能であるように、または除外されているように、アプリケーションを、認識された物体と関連付ける、または認識された物体の関連付けを解除することもできる。
様々な実施形態において、本技術はまた、格納されたアプリケーション「プリファレンス」に基づいて、アプリケーションを識別することもできる。こうしたプリファレンスは、アプリケーション開発者、組織などによって示されてもよい。例として、ユーザが特定の地理的領域にいると、「スポンサ付きのアプリケーション」が本技術によって識別されてもよい。
複数のアプリケーションアイコンが識別されると、本技術は、様々な技法を使用してユーザインターフェースを変更することができる。例として、アイコンは積み重ねられてもよく、一部のアイコンは積み重ねられた他のアプリケーションよりも前に表示されてもよく、一部のアイコン(例えば、スポンサ付きのアプリケーション)は他のアイコンよりも大きくなってもよい。
本技術はまた、例えば、アイコンが、基礎となる情報を代表するものとなるように、アイコンをアプリケーションに適合させることもできる。例として、レストラン評価アプリケーションのアイコンは、多くのレストランに対して識別されてもよく、アイコンは、認識されたレストランの評価を示すように変化してもよい。
様々な実施形態において、本技術は、ある光景において物体を検出し、検出された物体を、検出された物体と相互作用するための方法と関連付け、関連付けられた方法を使用して、検出された物体と相互作用するための規格を獲得し、また検出された物体を制御するためのユーザインターフェースを提供することができる。例として、視聴覚装置(例えば、テレビ、DVDプレーヤなど)が、ある光景において検出されると、本技術は、検出された装置と(例えば、WiFi、無線、赤外線、または他の通信手段を使用して)通信し、装置と相互作用するための規格を獲得することができる。規格は、例えば、利用可能なコマンド、どのようにコマンドが送信されるべきか、コマンドのフォーマットなどの情報を提供することができる。規格はまた、ユーザインターフェース要素に関する情報も提供することができる。規格を受信すると、本技術は、ユーザが装置を制御するために使用できるユーザインターフェースを提供することができる。ユーザがユーザインターフェースを介して相互作用すると、本技術は、コマンドを装置に送信することができる。様々な実施形態において、本技術は、検出された物体と、無線自動識別タグ、無線ネットワーク、赤外線信号などを利用することによって通信することができる。
様々な実施形態において、本技術は、装置と共に使用できるように構成された構成要素であって、コンピューティングデバイスから信号を受信し、装置を制御することができる1つまたは複数の方法の識別を実施し、コマンドが1つまたは複数の方法で識別されたコンピューティングデバイスからコマンドを受信し、また受信されたコマンドに従って装置を制御する構成要素を含む。コマンドは、例えば、メディアを制御すること(例えば、再生、停止、中断、巻戻し、早送りなど)、電源回路を制御すること(例えば、電源オン/オフ)であり得る。構成要素はまた、1つまたは複数の方法のための規格、例えば、ユーザインターフェース構成要素を提供するためのヒントも提供することができる。
次に図を見てみると、図1は、様々な実施形態において、開示された技術によって呼び出されるルーチン100を示す流れ図である。ルーチン100は、ブロック102を起点とする。ルーチン100は、次にブロック104に進み、そこで、ある光景のデジタル化された映像を受信する。ルーチン100は、次にブロック106に進み、そこで、その光景において物体を検出する。様々な実施形態において、ルーチン100は、様々な画像認識技法を利用して物体を認識することができる。ルーチン100は、次にブロック108に進み、そこで、コンテキスト情報を受信する。コンテキスト情報の例は、位置情報(GPS座標、所在地住所、市など)、時刻などである。ルーチン100は、次にブロック110に進み、そこで、検出された物体に基づいてアプリケーションを識別する。例として、本技術がテレビを認識したとき、本技術は、現在のテレビ番組一覧を提供するアプリケーションを示してもよい。別の例として、本技術がレストランを認識したとき、本技術は、例えば、メニューの提供、席の予約などを行うための、レストランと関連付けられたアプリケーションを識別してもよい。ルーチン100は、次にブロック112に進み、そこで、コンテキスト情報に基づいて物体を識別する。例として、2つのレストランがその光景において識別され、そのレストランのうちの1つが昼食および夕食のためだけに営業している場合、本技術は、現在の時刻が、朝食の時間と通常考えられるであろう時刻の範囲である場合、朝食のために営業しているレストランのみを識別してもよい。ルーチン100は、次にブロック114に進み、そこで、識別されたアプリケーションを表すアイコンを、検出された物体の近くに配置する。ルーチン100は次いで、ブロック116で戻る。
当業者であれば、図1に示し上述したロジック、さらには後述する流れ図のそれぞれに示すロジックは、様々な方法で変更可能であることが理解されよう。例えば、ロジックの順序を並べ替え、サブステップを並行して実行し、図示されたロジックを省略し、他のロジックを含めるなどができる。
図2は、様々な実施形態において、開示された技術の使用について示す、環境に関する図である。光景200は、3つの物体、すなわち、第1の物体202、第2の物体204、および第3の物体206を含む。モバイルコンピューティングデバイス208のディスプレイは、物体のデジタル化された表現を、第1の物体のデジタル化された表現210、第2の物体のデジタル化された表現212、および第3の物体のデジタル化された表現214として表示する。第1の物体のデジタル化された表現210は、第1のアイコン216Aおよび第2のアイコン216Bと関連付けられている。第2の物体のデジタル化された表現212は、第3のアイコン218と関連付けられている。上述のとおり、アイコンは、インストールされたアプリケーションまたは利用可能なアプリケーションを表すことができる。ユーザが、例えば、モバイルコンピューティングデバイスのタッチパネル上でアイコンの近くの領域をタッチすることによってアイコンを選択すると、本技術は、表示されたアプリケーションを起動するか(既にインストールされている場合)、または表示されたアプリケーションをインストールすることができる。いくつかの実施形態において、本技術は、インストールされているアプリケーションを自動で起動する場合がある。
図3は、様々な実施形態において、開示された技術によって利用される構成要素を示すブロック図である。構成要素300は、デジタイザ302、認識器304、アプリケーション属性306、および識別器308を含むことができる。様々な実施形態において、追加の構成要素(図示せず)または図示された構成要素300のサブセットは、本発明の技術の範囲から逸脱することなく、利用することができる。デジタイザ構成要素302は、例えば、画像取込み装置(図示せず)を介して受信された光景といったある光景をデジタル化できる。認識器構成要素304は、デジタル化された光景において物体を認識できる。様々な実施形態において、認識器構成要素は、様々な画像認識技法を使用して、デジタル化された光景において物体を認識できる。識別器構成要素308は、認識された物体と、例えば、格納されたアプリケーション属性306を使用して関連付けられた、インストールされたアプリケーションを識別できる。属性は、例えば、アプリケーションが関連付けられている物体に関する情報、時刻、位置などを示すことができる。識別器構成要素308はまた、例えば、現在インストールされていないが、認識された物体と関連付けられている可能性があるアプリケーションを識別するために、サーバコンピューティングデバイス(図示せず)も利用することができる。
図4は、様々な実施形態において、開示された技術によって呼び出されるルーチン400を示す流れ図である。ルーチン400は、ブロック402を起点とする。ルーチン400は、ブロック404に進み、そこで、ある光景のデジタル化された映像を受信する。ルーチン400は、次にブロック406に進み、そこで、デジタル化された光景において物体を検出する。ルーチン400は、様々な画像認識技法を利用して物体を認識することができる。ルーチン400は、次にブロック408に進み、そこで、例えば、ルーチンが実行されるモバイルコンピューティングデバイス上などのローカルに格納されていないアプリケーションを識別する。ルーチン400は、次にブロック410に進み、そこで、アプリケーションのアイコンを、認識された物体の近くに配置する。例として、ルーチン400がデジタル化された光景においてコーヒーショップを認識し、ユーザのモバイルコンピューティングデバイスが、認識されたコーヒーショップに対応するアプリケーションをインストールしていない場合、ルーチン400は、選択された場合にアプリケーションがインストールされることになる、認識されたコーヒーショップに対応するアプリケーションのアイコンを配置することができる。ルーチン400は次いで、ブロック412で戻る。
図5は、様々な実施形態において、開示された技術によって呼び出されるルーチン500を示す流れ図である。ルーチン500は、ブロック502を起点とする。ルーチンは、次にブロック504に進み、そこで、ある光景において物体を検出する。ルーチン500は、次にブロック506に進み、そこで、認識された物体から第1の物体を選択する。ルーチン500は、次に判断ブロック508に進み、そこで、選択された物体が相互作用可能であるかを判定する。ルーチン500は、例えば、データベース(例えば、ルーチン500を呼び出すコンピューティングデバイスに格納されたローカルデータベース、またはサーバコンピューティングデバイスに格納されたリモートデータベース)に問い合わせることによって、この判定を行ってもよい。選択された物体が相互作用可能である場合、ルーチン500は、ブロック510に進む。もしそうでない場合、ルーチン500は、ブロック514に進む。ブロック510では、ルーチン500は、選択された物体と相互作用するための規格を獲得する。様々な実施形態において、ルーチン500は、規格を、ローカルに格納されたデータベースから、物体から直接(例えば無線で)、またはリモートコンピューティングデバイスから取得してもよい。ルーチン500は次いで、選択された物体とユーザが相互作用できるように、ユーザインターフェースをユーザに提供してもよい。例として、認識された物体がテレビまたは他の視聴覚装置である場合、ルーチン500は、ユーザが視聴覚装置を制御することを可能にするユーザインターフェースを提供してもよい。受信される規格は、ユーザインターフェースの外観を提供するための命令を含むことができる。ルーチン500は、次にブロック514に進み、そこで、ブロック504に関連して上記で検出された1組の物体から次の物体を選択する。ルーチン500は、次に判断ブロック516に進み、そこで、次の物体が選択されたかを判定する。選択されるべき物体がこれ以上ない場合、ルーチン500は、ブロック518で戻る。もしそうでない場合、ルーチン500は、判断ブロック508に進み、選択された物体を分析する。
図6Aおよび図6Bは、様々な実施形態において、開示された技術の使用について示す、環境に関する図である。図6Aは、光景600、およびモバイルコンピューティングデバイス606に表示された、光景600のデジタル化されたバージョンを含む。光景600は、テレビ602および別の物体604を含む。モバイルコンピューティングデバイス606に表示された、光景600のデジタル化されたバージョンは、テレビのデジタル化された表現608および他の物体のデジタル化された表現610を含む。モバイルコンピューティングデバイス606はまた、テレビのデジタル化された表現608と関連付けられたアイコン612も表示する。例として、本技術は、テレビ602を認識し、テレビ602に対応するアプリケーションを識別し、アイコン612によって表してもよい。ユーザがアイコン612を選択したとき、本技術は、対応するアプリケーションを起動(または対応するアプリケーションをインストール)してもよい。様々な実施形態において、本技術は、例えば、テレビ602またはネットワークコンピューティングデバイス(図示せず)と通信して、テレビ602の制御に関する規格を受信するために、モバイルコンピューティングデバイス606と関連付けられたアンテナ614を利用してもよい。様々な実施形態において、モバイルコンピューティングデバイス606は、赤外線、無線周波数、WiFiなどを使用してテレビと通信してもよい。図6Bは、例えば、ユーザがアイコン612を選択することによってアプリケーションを起動すると、モバイルコンピューティングデバイス606によって表示されたユーザインターフェース620を示す。
図7は、様々な実施形態において、開示された技術によって呼び出されるルーチン700を示す流れ図である。ルーチン700は、ブロック702を起点とする。ルーチン700は、次にブロック704に進み、そこで、信号を受信する。様々な実施形態において、ルーチン700は、ルーチン700が実行される装置に命じるためにユーザが操作しているモバイルコンピューティングデバイスから、信号を受信することができる。ルーチン700は、次にブロック706に進み、装置を制御することができる方法を作業が提供する。例として、ルーチン700は、装置を制御するための規格を提供してもよい。規格は、ユーザインターフェース、利用可能なコマンド、周波数などの表示を含むことができる。ルーチン700は、次にブロック708に進み、そこで、コマンドを受信する。様々な実施形態において、ルーチンは、ルーチン700が規格を提供したモバイルコンピューティングデバイスから、コマンドを受信してもよい。ルーチン700は、次にブロック710に進み、そこで、受信されたコマンドに従って、装置を制御する。ルーチンは次いで、ブロック712で戻る。
図8は、本開示の少なくともいくつかの実施形態により構成される例示的なコンピューティングデバイス800を示すブロック図である。純粋な基本構成802では、コンピューティングデバイス800は、通常、1つまたは複数のプロセッサ804、およびシステムメモリ806を含む。メモリバス808は、プロセッサ804とシステムメモリ806との間の通信に使用できる。
所望の構成に応じて、プロセッサ804は、マイクロプロセッサ(「μP」)、マイクロコントローラ(「μC」)、デジタルシグナルプロセッサ(「DSP」)、またはそれらの任意の組合せを含むが、それだけに限定されるものではない、任意のタイプのプロセッサであり得る。プロセッサ804は、レベル1キャッシュ810およびレベル2キャッシュ812などの1つまたは複数のキャッシュレベル、プロセッサコア814、およびレジスタ816を含むことができる。例示的なプロセッサコア814は、算術論理演算ユニット(「ALU」)、浮動小数点演算ユニット(「FPU」)、デジタルシグナル処理コア(「DSPコア」)、またはそれらの任意の組合せを含むことができる。例示的なメモリコントローラ818は、プロセッサ804と共に使用することもできる。または、いくつかの実装形態においては、メモリコントローラ818は、プロセッサ804の内部部品であってもよい。
所望の構成に応じて、システムメモリ806は、揮発性メモリ(RAMなど)、不揮発性メモリ(ROM、フラッシュメモリなど)、またはそれらの任意の組合せを含むが、それだけに限定されるものではない、任意のタイプのメモリであり得る。システムメモリ806は、オペレーティングシステム820、1つまたは複数のアプリケーション822、およびプログラムデータ824を含むことができる。アプリケーション822は、認識された物体に対応するアプリケーションを識別するように構成されたアプリケーション識別器構成要素826を含むことができる。プログラムデータ824は、本明細書で説明するように、アプリケーション属性情報828を含むことができる。いくつかの実施形態において、アプリケーションを認識できるように、アプリケーション822を、オペレーティングシステム820上でプログラムデータ824を用いて動作するように構成することができる。上述の基本構成802は、図8において内側の破線内の構成要素によって示される。
コンピューティングデバイス800は、追加の機構または機能、および、基本構成802と任意の必要な装置およびインターフェースとの間の通信を容易にする、追加のインターフェースを備えることができる。例えば、バス/インターフェースコントローラ830を、ストレージインターフェースバス834を介した、基本構成802と1つまたは複数のデータ記憶装置832との間の通信を容易にするために使用できる。データ記憶装置832は、取外し式記憶装置836、非取外し式記憶装置838、またはそれらの組合せであり得る。取外し式記憶装置および非取外し式記憶装置の例をいくつか挙げると、フレキシブルディスクドライブおよびハードディスクドライブ(「HDD」)などの磁気ディスク装置、コンパクトディスク(「CD」)ドライブまたはデジタル多用途ディスク(「DVD」)ドライブなどの光学ディスクドライブ、ソリッドステートドライブ(「SSD」)、およびテープドライブが含まれる。例示的なコンピュータ記憶媒体は、コンピュータ可読命令、データ構造、プログラムモジュール、または他のデータなどの情報を記憶するための任意の方法または技術によって実装された、取外し式および非取外し式の揮発性媒体および不揮発性媒体を含むことができる。
システムメモリ806、取外し式記憶装置836、および非取外し式記憶装置838は、コンピュータ記憶媒体の例である。コンピュータ記憶媒体には、RAM、ROM、EEPROM、フラッシュメモリもしくは他のメモリ技術、CD−ROM、デジタル多用途ディスク(DVD)もしくは他の光学ストレージ、磁気カセット、磁気テープ、磁気ディスクストレージもしくは他の磁気記憶装置、または、所望の情報を格納するために使用でき、コンピューティングデバイス800によってアクセスできる任意の他の媒体が含まれるが、それだけに限定されるものではない。任意のこのようなコンピュータ記憶媒体は、コンピューティングデバイス800の一部であってもよい。
コンピューティングデバイス800はまた、バス/インターフェースコントローラ830を介した、様々なインターフェース装置(例えば、出力装置842、周辺インターフェース844、および通信装置846)から基本構成802への通信を容易にするインターフェースバス840を含むことができる。例示的な出力装置842は、グラフィック処理ユニット848およびオーディオ処理ユニット850を含み、これらは、ディスプレイやスピーカなどの様々な外部装置と、1つまたは複数のA/Vポート852を介して通信できるように構成され得る。例示的な周辺インターフェース844は、シリアルインターフェースコントローラ854またはパラレルインターフェースコントローラ856を含み、これらは、入力装置(例えば、キーボード、マウス、ペン、音声入力装置、タッチ入力装置など)または他の周辺装置(例えば、プリンタ、スキャナなど)などの外部装置と、1つまたは複数のI/Oポート858を介して通信できるように構成され得る。例示的な通信装置846は、ネットワークコントローラ860を含み、これは、1つまたは複数の通信ポート864を介し、ネットワーク通信リンクをまたいだ1つまたは複数のその他のコンピューティングデバイス862との通信を容易にするように構成され得る。
ネットワーク通信リンクは、通信媒体の一例であり得る。通信媒体は通常、搬送波または他の搬送メカニズムなどの変調データ信号においてコンピュータ可読命令、データ構造、プログラムモジュール、または他のデータによって具現化することができ、任意の情報送達媒体を含むことができる。「変調データ信号」は、信号内で情報を符号化するような方法で設定または変更される特性のうちの1つまたは複数を有する信号であり得る。例として、限定はされないが、通信媒体は、有線ネットワークまたは直接有線接続などの有線媒体、および、音響、無線周波(「RF」)、マイクロ波、赤外線(「IR」)、および他の無線媒体などの無線媒体を含むことができる。本明細書で使用されるコンピュータ可読媒体という用語は、記憶媒体と通信媒体の両方を含み得る。
コンピューティングデバイス800は、携帯電話、携帯情報端末(「PDA」)、パーソナルメディアプレーヤ装置、無線ウェブウォッチ装置、パーソナルヘッドセット装置、特定用途向け装置、または上記機能のいずれかを含むハイブリッド装置などの、省スペースのポータブル(またはモバイル)電子装置の一部として実装することができる。コンピューティングデバイス800はまた、ラップトップコンピュータと非ラップトップコンピュータの両方の構成を含む、パーソナルコンピュータとして実装することができる。
本発明の主題は、構造特性および/または方法論的行為に固有の言葉で説明されているが、添付の特許請求の範囲で定義する本発明の主題が前述の特定の特性または行為に必ずしも限定されるものではないことを理解されたい。むしろ、前述の特定の特性および行為は、特許請求の範囲を実装する例示的形態として開示されている。したがって、本発明は、添付の特許請求の範囲による場合を除き、限定されるものではない。

Claims (45)

  1. プロセッサを備えるコンピューティングシステムによって実行される方法であって、
    複数の物体をある光景において検出することと、
    第1のコンテキスト情報および第2のコンテキスト情報を含むコンテキスト情報を受信することと、
    複数のインストールされたアプリケーションを前記検出された複数の物体に基づいて識別することであって、前記第1のコンテキスト情報および前記第2のコンテキスト情報のうち一方に基づいて前記インストールされたアプリケーションを識別することを含むことと、
    前記第1のコンテキスト情報および前記第2のコンテキスト情報のうちの他方に基づいて、前記検出された複数の物体から1つの物体を識別することと、
    前記識別された複数のインストールされたアプリケーションから、前記識別された物体に対応するアプリケーションを選択し、前記選択したアプリケーションを起動するためのアイコンを、前記光景のディスプレイ表示において、前記識別された物体に関連づけて配置することと、
    を含む方法。
  2. 前記光景のデジタル化された映像を受信することをさらに含む、請求項1に記載の方法。
  3. 前記光景が、出力装置に表示される、請求項1に記載の方法。
  4. 前記第1のコンテキスト情報および前記第2のコンテキスト情報のうち少なくとも一方が、ユーザからの入力によって受信される、請求項1に記載の方法。
  5. 前記第1のコンテキスト情報および前記第2のコンテキスト情報のうち少なくとも一方が、検出された位置情報に基づく、請求項1に記載の方法。
  6. 前記検出することが、1つまたは複数の画像認識方法を利用することを含む、請求項1に記載の方法。
  7. 前記複数のインストールされたアプリケーションを識別することが、前記検出された複数の物体のうち1つ以上の物体と関連付けられた属性を求めて、インストールされたアプリケーションと関連付けられた属性のリストを検索することを含む、請求項1に記載の方法。
  8. 前記配置されたアイコンのユーザによる選択を受信することと、前記選択されたアイコンに対応するインストールされたアプリケーションに実行を開始させることとをさらに含む、請求項1に記載の方法。
  9. 前記インストールされたアプリケーションのうちの少なくとも1つと関連付けられた属性のリストを受信することをさらに含む、請求項1に記載の方法。
  10. 前記リストが、キーボード入力によって受信される、請求項9に記載の方法。
  11. 前記リストが、リモートコンピュータからダウンロードされる、請求項9に記載の方法。
  12. 識別されていないインストールされたアプリケーションを前記光景において検出された物体と関連付けるために入力を受信することと、前記アプリケーションを前記検出された物体と関連付けることとをさらに含む、請求項1に記載の方法。
  13. 前記光景において検出された物体と対応するものとして識別されたアプリケーションの関連付けを解除するために入力を受信することと、前記アプリケーションの関連付けを前記検出された物体から解除することとをさらに含む、請求項1に記載の方法。
  14. コンピューティングデバイスによって実行されたときに方法を実行するという命令を格納しているコンピュータ可読記憶装置であって、前記方法が、
    複数の物体をある光景において検出することと、
    第1のコンテキスト情報および第2のコンテキスト情報を含むコンテキスト情報を受信することと、
    複数のインストールされたアプリケーションを前記検出された複数の物体に基づいて識別することであって、前記第1のコンテキスト情報および前記第2のコンテキスト情報のうち一方に基づいて前記インストールされたアプリケーションを識別することを含むことと、
    前記第1のコンテキスト情報および前記第2のコンテキスト情報のうちの他方に基づいて、前記検出された複数の物体から1つの物体を識別することと、
    前記識別された複数のインストールされたアプリケーションから、前記識別された物体に対応するアプリケーションを選択し、前記選択したアプリケーションを起動するためのアイコンを、前記光景のディスプレイ表示において、前記識別された物体に関連づけて配置することと、
    を含む、コンピュータ可読記憶装置。
  15. 前記方法が、前記光景のデジタル化された映像を受信することをさらに含む、請求項14に記載のコンピュータ可読記憶装置。
  16. 前記光景が、出力装置に表示される、請求項14に記載のコンピュータ可読記憶装置。
  17. 前記第1のコンテキスト情報および前記第2のコンテキスト情報のうち少なくとも一方が、ユーザからの入力によって受信される、請求項14に記載のコンピュータ可読記憶装置。
  18. 前記第1のコンテキスト情報および前記第2のコンテキスト情報のうち少なくとも一方が、検出された位置情報に基づく、請求項14に記載のコンピュータ可読記憶装置。
  19. 前記検出することが、1つまたは複数の画像認識方法を利用することを含む、請求項14に記載のコンピュータ可読記憶装置。
  20. 前記複数のインストールされたアプリケーションを識別することが、前記検出された複数の物体のうち1つ以上の物体と関連付けられた属性を求めて、インストールされたアプリケーションと関連付けられた属性のリストを検索することを含む、請求項14に記載のコンピュータ可読記憶装置。
  21. 前記配置されたアイコンのユーザによる選択を受信することと、前記選択されたアイコンに対応するインストールされたアプリケーションに実行を開始させることとをさらに含む、請求項14に記載のコンピュータ可読記憶装置。
  22. 前記インストールされた複数のアプリケーションのうちの少なくとも1つと関連付けられた属性のリストを受信することをさらに含む、請求項14に記載のコンピュータ可読記憶装置。
  23. 前記リストが、キーボード入力によって受信される、請求項22に記載のコンピュータ可読記憶装置。
  24. 前記リストが、リモートコンピュータからダウンロードされる、請求項22に記載のコンピュータ可読記憶装置。
  25. 識別されていないインストールされたアプリケーションを前記光景において検出された物体と関連付けるために入力を受信することと、前記アプリケーションを前記検出された物体と関連付けることとをさらに含む、請求項14に記載のコンピュータ可読記憶装置。
  26. 前記光景において検出された物体と対応するものとして識別されたアプリケーションの関連付けを解除するために入力を受信することと、前記アプリケーションの関連付けを前記検出された物体から解除することとをさらに含む、請求項14に記載のコンピュータ可読記憶装置。
  27. プロセッサと、
    命令を有するメモリと、
    を備えるシステムであって、
    前記命令が、前記プロセッサによって実行されると、前記システムに対し、
    複数の物体をある光景において検出することと、
    第1のコンテキスト情報および第2のコンテキスト情報を含むコンテキスト情報を受信することと、
    複数のインストールされたアプリケーションを、前記検出された複数の物体、および、前記第1のコンテキスト情報および前記第2のコンテキスト情報のうち一方に基づいて、識別することと、
    前記第1のコンテキスト情報および前記第2のコンテキスト情報のうちの他方に基づいて、前記検出された複数の物体から1つの物体を識別することと、
    前記識別された複数のインストールされたアプリケーションから、前記識別された物体に対応するアプリケーションを選択し、前記選択したアプリケーションを起動するためのアイコンを、前記光景のディスプレイ表示において、前記識別された物体に関連づけて配置することと、
    を実行させる、システム。
  28. デジタルカメラをさらに備え、前記メモリが、前記光景のデジタル化された映像を受信するための命令をさらに含む、請求項27に記載のシステム。
  29. 前記光景が、出力装置に表示される、請求項27に記載のシステム。
  30. 前記第1のコンテキスト情報および前記第2のコンテキスト情報のうち少なくとも一方が、ユーザからの入力によって受信される、請求項27に記載のシステム。
  31. 前記第1のコンテキスト情報および前記第2のコンテキスト情報のうち少なくとも一方が、検出された位置情報に基づく、請求項27に記載のシステム。
  32. 前記検出するための命令が、1つまたは複数の画像認識方法を利用するための命令を含む、請求項27に記載のシステム。
  33. インストールされたアプリケーションを識別するための前記命令が、前記検出された複数の物体のうち1つ以上の物体と関連付けられた属性を求めて、インストールされたアプリケーションと関連付けられた属性のリストを検索する、請求項27に記載のシステム。
  34. さらに、前記配置されたアイコンのユーザによる選択を受信し、前記選択されたアイコンに対応するインストールされたアプリケーションに実行を開始させるための命令を含む、請求項27に記載のシステム。
  35. 前記インストールされたアプリケーションのうちの少なくとも1つと関連付けられた属性のリストを受信するための命令をさらに含む、請求項27に記載のシステム。
  36. 前記リストが、キーボード入力によって受信される、請求項35に記載のシステム。
  37. 前記リストが、リモートコンピュータからダウンロードされる、請求項35に記載のシステム。
  38. 識別されていないインストールされたアプリケーションを前記光景において検出された物体と関連付けるために入力を受信し、また前記アプリケーションを前記検出された物体と関連付けるための命令をさらに含む、請求項27に記載のシステム。
  39. 前記光景において検出された物体と対応するものとして識別されたアプリケーションの関連付けを解除するために入力を受信し、また前記アプリケーションの関連付けを前記検出された物体から解除するための命令をさらに含む、請求項27に記載のシステム。
  40. 前記第1のコンテキスト情報および前記第2のコンテキスト情報のうち少なくとも一方が時刻情報を含み、前記複数の物体から前記1つの物体を識別することが、前記時刻情報に基づくものである、請求項1に記載の方法。
  41. 前記第1のコンテキスト情報および前記第2のコンテキスト情報のうち少なくとも一方が時刻情報を含み、前記時刻情報がユーザからの入力によって受信される、請求項1に記載の方法。
  42. 前記第1のコンテキスト情報および前記第2のコンテキスト情報のうち少なくとも一方が時刻情報を含み、前記複数の物体から前記1つの物体を識別することが、前記時刻情報に基づくものである、請求項14に記載のコンピュータ可読記憶装置。
  43. 前記第1のコンテキスト情報および前記第2のコンテキスト情報のうち少なくとも一方が時刻情報を含み、前記時刻情報がユーザからの入力によって受信される、請求項14に記載のコンピュータ可読記憶装置。
  44. 前記第1のコンテキスト情報および前記第2のコンテキスト情報のうち少なくとも一方が時刻情報を含み、前記複数の物体から前記1つの物体を識別することが、前記時刻情報に基づくものである、請求項27に記載のシステム。
  45. 前記第1のコンテキスト情報および前記第2のコンテキスト情報のうち少なくとも一方が時刻情報を含み、前記時刻情報がユーザからの入力によって受信される、請求項27に記載のシステム。
JP2015528447A 2012-08-24 2012-08-24 バーチャルリアリティアプリケーション Expired - Fee Related JP6289468B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2012/052320 WO2014031126A1 (en) 2012-08-24 2012-08-24 Virtual reality applications

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017099837A Division JP6356869B2 (ja) 2017-05-19 2017-05-19 バーチャルリアリティアプリケーション

Publications (2)

Publication Number Publication Date
JP2015531135A JP2015531135A (ja) 2015-10-29
JP6289468B2 true JP6289468B2 (ja) 2018-03-07

Family

ID=50149152

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015528447A Expired - Fee Related JP6289468B2 (ja) 2012-08-24 2012-08-24 バーチャルリアリティアプリケーション

Country Status (4)

Country Link
US (2) US9690457B2 (ja)
JP (1) JP6289468B2 (ja)
KR (2) KR20180035243A (ja)
WO (1) WO2014031126A1 (ja)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9924102B2 (en) * 2013-03-14 2018-03-20 Qualcomm Incorporated Image-based application launcher
EP2990920B1 (en) * 2013-04-22 2019-04-03 Fujitsu Limited Information terminal control method
KR102178892B1 (ko) * 2014-09-15 2020-11-13 삼성전자주식회사 정보 제공 방법 및 그 전자 장치
US10181219B1 (en) 2015-01-21 2019-01-15 Google Llc Phone control and presence in virtual reality
US10102674B2 (en) 2015-03-09 2018-10-16 Google Llc Virtual reality headset connected to a mobile computing device
KR102063895B1 (ko) 2015-04-20 2020-01-08 삼성전자주식회사 서버, 사용자 단말 장치 및 그 제어 방법
US9652896B1 (en) 2015-10-30 2017-05-16 Snap Inc. Image based tracking in augmented reality systems
US20170242675A1 (en) * 2016-01-15 2017-08-24 Rakesh Deshmukh System and method for recommendation and smart installation of applications on a computing device
EP3559785B1 (en) 2016-12-21 2021-02-03 PCMS Holdings, Inc. Systems and methods for selecting spheres of relevance for presenting augmented reality information
CN110249304B (zh) 2017-01-19 2023-05-23 三星电子株式会社 电子设备的视觉智能管理
US10909371B2 (en) * 2017-01-19 2021-02-02 Samsung Electronics Co., Ltd. System and method for contextual driven intelligence
WO2018152109A1 (en) * 2017-02-20 2018-08-23 Pcms Holdings, Inc. Dynamically presenting augmented reality information for reducing peak cognitive demand
US10740974B1 (en) 2017-09-15 2020-08-11 Snap Inc. Augmented reality system
KR101932008B1 (ko) * 2017-12-29 2018-12-24 (주)제이엘케이인스펙션 영상의 특징 및 맥락에 기초한 영상 분석 장치 및 방법
KR20190089627A (ko) * 2018-01-23 2019-07-31 삼성전자주식회사 Ar 서비스를 제공하는 디바이스 및 그 동작 방법
US11200402B2 (en) * 2018-01-26 2021-12-14 GICSOFT, Inc. Application execution based on object recognition
US11157130B2 (en) * 2018-02-26 2021-10-26 Adobe Inc. Cursor-based resizing for copied image portions
US10579230B2 (en) 2018-06-21 2020-03-03 Google Llc Digital supplement association and retrieval for visual search
US10878037B2 (en) * 2018-06-21 2020-12-29 Google Llc Digital supplement association and retrieval for visual search
US10997760B2 (en) 2018-08-31 2021-05-04 Snap Inc. Augmented reality anthropomorphization system
US11475664B2 (en) 2018-12-03 2022-10-18 Signify Holding B.V. Determining a control mechanism based on a surrounding of a remove controllable device
CN113272766A (zh) * 2019-01-24 2021-08-17 麦克赛尔株式会社 显示终端、应用程序控制系统和应用程序控制方法
CN109814800A (zh) * 2019-01-25 2019-05-28 努比亚技术有限公司 角标清除方法、移动终端及计算机可读存储介质
US11972529B2 (en) 2019-02-01 2024-04-30 Snap Inc. Augmented reality system
US11089109B1 (en) * 2019-11-20 2021-08-10 Sprint Communications Company L.P. Smart device management via a mobile communication device based on privacy preferences
US20230177188A1 (en) * 2021-12-06 2023-06-08 Sap Se Transitioning from an integrated end-of-purpose protocol to an aligned purpose disassociation protocol

Family Cites Families (75)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US1215601A (en) 1915-12-16 1917-02-13 Cora Belle Williams Corset.
US6037936A (en) * 1993-09-10 2000-03-14 Criticom Corp. Computer vision system with a graphic user interface and remote camera control
US5874966A (en) 1995-10-30 1999-02-23 International Business Machines Corporation Customizable graphical user interface that automatically identifies major objects in a user-selected digitized color image and permits data to be associated with the major objects
US5835094A (en) 1996-12-31 1998-11-10 Compaq Computer Corporation Three-dimensional computer environment
US6252597B1 (en) 1997-02-14 2001-06-26 Netscape Communications Corporation Scalable user interface for graphically representing hierarchical data
US7073129B1 (en) * 1998-12-18 2006-07-04 Tangis Corporation Automated selection of appropriate information based on a computer user's context
US8341553B2 (en) * 2000-02-17 2012-12-25 George William Reed Selection interface systems and methods
US7076503B2 (en) 2001-03-09 2006-07-11 Microsoft Corporation Managing media objects in a database
JP3871904B2 (ja) 2001-06-07 2007-01-24 日立ソフトウエアエンジニアリング株式会社 樹状図表示方法
US7653212B2 (en) 2006-05-19 2010-01-26 Universal Electronics Inc. System and method for using image data in connection with configuring a universal controlling device
WO2004003705A2 (en) * 2002-06-27 2004-01-08 Small World Productions, Inc. System and method for locating and notifying a user of a person, place or thing having attributes matching the user's stated prefernces
US20050039133A1 (en) * 2003-08-11 2005-02-17 Trevor Wells Controlling a presentation of digital content
US7313574B2 (en) 2003-10-02 2007-12-25 Nokia Corporation Method for clustering and querying media items
US7565139B2 (en) * 2004-02-20 2009-07-21 Google Inc. Image-based search engine for mobile phones with camera
US20050289158A1 (en) 2004-06-25 2005-12-29 Jochen Weiss Identifier attributes for product data stored in an electronic database
US20060047704A1 (en) 2004-08-31 2006-03-02 Kumar Chitra Gopalakrishnan Method and system for providing information services relevant to visual imagery
US8370769B2 (en) * 2005-06-10 2013-02-05 T-Mobile Usa, Inc. Variable path management of user contacts
US7728869B2 (en) * 2005-06-14 2010-06-01 Lg Electronics Inc. Matching camera-photographed image with map data in portable terminal and travel route guidance method
US20070050468A1 (en) 2005-08-09 2007-03-01 Comverse, Ltd. Reality context menu (RCM)
US7836065B2 (en) * 2005-11-01 2010-11-16 Sap Ag Searching multiple repositories in a digital information system
US7725077B2 (en) 2006-03-24 2010-05-25 The Invention Science Fund 1, Llc Wireless device with an aggregate user interface for controlling other devices
US7913192B2 (en) * 2006-03-31 2011-03-22 Research In Motion Limited Methods and apparatus for retrieving and displaying map-related data for visually displayed maps of mobile communication devices
US7752207B2 (en) * 2007-05-01 2010-07-06 Oracle International Corporation Crawlable applications
US8290513B2 (en) * 2007-06-28 2012-10-16 Apple Inc. Location-based services
US8281240B2 (en) 2007-08-23 2012-10-02 International Business Machines Corporation Avatar aggregation in a virtual universe
US8180396B2 (en) 2007-10-18 2012-05-15 Yahoo! Inc. User augmented reality for camera-enabled mobile devices
US8264505B2 (en) 2007-12-28 2012-09-11 Microsoft Corporation Augmented reality and filtering
US8762285B2 (en) 2008-01-06 2014-06-24 Yahoo! Inc. System and method for message clustering
US9503562B2 (en) * 2008-03-19 2016-11-22 Universal Electronics Inc. System and method for appliance control via a personal communication or entertainment device
US20090262084A1 (en) * 2008-04-18 2009-10-22 Shuttle Inc. Display control system providing synchronous video information
US9311115B2 (en) * 2008-05-13 2016-04-12 Apple Inc. Pushing a graphical user interface to a remote device with display rules provided by the remote device
US9870130B2 (en) * 2008-05-13 2018-01-16 Apple Inc. Pushing a user interface to a remote device
US8711176B2 (en) * 2008-05-22 2014-04-29 Yahoo! Inc. Virtual billboards
US20090322671A1 (en) 2008-06-04 2009-12-31 Cybernet Systems Corporation Touch screen augmented reality system and method
US8260320B2 (en) * 2008-11-13 2012-09-04 Apple Inc. Location specific content
US9342231B2 (en) * 2008-12-29 2016-05-17 Apple Inc. Remote control of a presentation
US7870496B1 (en) * 2009-01-29 2011-01-11 Jahanzeb Ahmed Sherwani System using touchscreen user interface of a mobile device to remotely control a host computer
US20130124311A1 (en) * 2009-03-23 2013-05-16 Sujai Sivanandan System and Method for Dynamic Integration of Advertisements in a Virtual Environment
EP2472447A4 (en) * 2009-05-18 2014-08-20 Takatoshi Yanase BASIC KNOWLEDGE SYSTEM, LOGICAL OPERATION METHOD, PROGRAM, AND STORAGE MEDIUM
WO2011000046A1 (en) 2009-07-01 2011-01-06 Ozmota Inc. Systems and methods for determining information and knowledge relevancy, relevant knowledge discovery and interactions, and knowledge creation
KR101595762B1 (ko) * 2009-11-10 2016-02-22 삼성전자주식회사 휴대 단말기의 원격 제어 방법 및 이를 위한 시스템
US8850342B2 (en) 2009-12-02 2014-09-30 International Business Machines Corporation Splitting avatars in a virtual world
KR20110118421A (ko) * 2010-04-23 2011-10-31 엘지전자 주식회사 증강 원격제어장치, 증강 원격제어장치 제어방법 및 그 시스템
KR101657565B1 (ko) * 2010-04-21 2016-09-19 엘지전자 주식회사 증강 원격제어장치 및 그 동작 방법
US20110161875A1 (en) 2009-12-29 2011-06-30 Nokia Corporation Method and apparatus for decluttering a mapping display
US8725706B2 (en) * 2010-03-26 2014-05-13 Nokia Corporation Method and apparatus for multi-item searching
US8990702B2 (en) * 2010-09-30 2015-03-24 Yahoo! Inc. System and method for controlling a networked display
US9021354B2 (en) * 2010-04-09 2015-04-28 Apple Inc. Context sensitive remote device
US9361729B2 (en) 2010-06-17 2016-06-07 Microsoft Technology Licensing, Llc Techniques to present location information for social networks using augmented reality
US20110316845A1 (en) * 2010-06-25 2011-12-29 Palo Alto Research Center Incorporated Spatial association between virtual and augmented reality
US9936333B2 (en) * 2010-08-10 2018-04-03 Microsoft Technology Licensing, Llc Location and contextual-based mobile application promotion and delivery
KR101329882B1 (ko) 2010-08-12 2013-11-15 주식회사 팬택 Ar 정보창 표시를 위한 사용자 장치 및 그 방법
US20120075433A1 (en) 2010-09-07 2012-03-29 Qualcomm Incorporated Efficient information presentation for augmented reality
US9710554B2 (en) 2010-09-23 2017-07-18 Nokia Technologies Oy Methods, apparatuses and computer program products for grouping content in augmented reality
US20120212405A1 (en) 2010-10-07 2012-08-23 Benjamin Zeis Newhouse System and method for presenting virtual and augmented reality scenes to a user
JP5257437B2 (ja) * 2010-10-20 2013-08-07 コニカミノルタビジネステクノロジーズ株式会社 携帯端末及び処理装置の操作方法
KR101357260B1 (ko) 2010-10-22 2014-02-03 주식회사 팬택 증강 현실 사용자 인터페이스 제공 장치 및 방법
US8698843B2 (en) * 2010-11-02 2014-04-15 Google Inc. Range of focus in an augmented reality application
US8952983B2 (en) 2010-11-04 2015-02-10 Nokia Corporation Method and apparatus for annotating point of interest information
US20120113223A1 (en) 2010-11-05 2012-05-10 Microsoft Corporation User Interaction in Augmented Reality
US8913085B2 (en) 2010-12-22 2014-12-16 Intel Corporation Object mapping techniques for mobile augmented reality applications
US20120173979A1 (en) * 2010-12-31 2012-07-05 Openpeak Inc. Remote control system and method with enhanced user interface
US20120182205A1 (en) * 2011-01-18 2012-07-19 Schlumberger Technology Corporation Context driven heads-up display for efficient window interaction
US8929591B2 (en) * 2011-03-08 2015-01-06 Bank Of America Corporation Providing information associated with an identified representation of an object
KR101829063B1 (ko) 2011-04-29 2018-02-14 삼성전자주식회사 지도서비스에서 마커 표시방법
US9727132B2 (en) * 2011-07-01 2017-08-08 Microsoft Technology Licensing, Llc Multi-visor: managing applications in augmented reality environments
TWI452527B (zh) * 2011-07-06 2014-09-11 Univ Nat Chiao Tung 基於擴增實境與雲端計算之應用程式執行方法與系統
US9058331B2 (en) 2011-07-27 2015-06-16 Ricoh Co., Ltd. Generating a conversation in a social network based on visual search results
KR101343609B1 (ko) * 2011-08-24 2014-02-07 주식회사 팬택 증강 현실 데이터를 이용할 수 있는 어플리케이션 자동 추천 장치 및 방법
JP5987299B2 (ja) * 2011-11-16 2016-09-07 ソニー株式会社 表示制御装置、表示制御方法およびプログラム
US20130155108A1 (en) * 2011-12-15 2013-06-20 Mitchell Williams Augmented Reality User Interaction Methods, Computing Devices, And Articles Of Manufacture
US20130201215A1 (en) * 2012-02-03 2013-08-08 John A. MARTELLARO Accessing applications in a mobile augmented reality environment
WO2014035367A1 (en) 2012-08-27 2014-03-06 Empire Technology Development Llc Generating augmented reality exemplars
US10001918B2 (en) * 2012-11-21 2018-06-19 Algotec Systems Ltd. Method and system for providing a specialized computer input device
US10025486B2 (en) * 2013-03-15 2018-07-17 Elwha Llc Cross-reality select, drag, and drop for augmented reality systems

Also Published As

Publication number Publication date
US20170308272A1 (en) 2017-10-26
US20140059458A1 (en) 2014-02-27
US9690457B2 (en) 2017-06-27
WO2014031126A1 (en) 2014-02-27
KR101844395B1 (ko) 2018-04-02
KR20180035243A (ko) 2018-04-05
JP2015531135A (ja) 2015-10-29
KR20150046258A (ko) 2015-04-29

Similar Documents

Publication Publication Date Title
JP6289468B2 (ja) バーチャルリアリティアプリケーション
US11740764B2 (en) Method and system for providing information based on context, and computer-readable recording medium thereof
US20190260946A1 (en) Electronic device and method for image processing
US10097494B2 (en) Apparatus and method for providing information
US8766912B2 (en) Environment-dependent dynamic range control for gesture recognition
KR102027899B1 (ko) 메신저를 이용한 정보 제공 방법 및 장치
JP6487149B2 (ja) 携帯端末機のアプリ提供方法、そのための電子装置及びそれを実行するためのプログラムを記録したコンピュータ読み取り可能な記憶媒体
US9773101B2 (en) Method for displaying contents and electronic device thereof
AU2014288039B2 (en) Remote operation of applications using received data
US8806373B2 (en) Display control apparatus, display control method, display control program, and recording medium storing the display control program
CN103853507B (zh) 显示结束效果的移动设备及其控制方法
KR20170096408A (ko) 어플리케이션을 표시하는 방법 및 이를 지원하는 전자 장치
JP2014053014A (ja) 携帯端末と外部表示装置の連結運用方法及びこれを支援する装置
JP2013206274A (ja) 携帯型電子機器および表示制御方法
US20140032710A1 (en) Content transmission method and system, device and computer-readable recording medium that uses the same
AU2014312541B2 (en) Method, apparatus, and recording medium for interworking with external terminal
KR102559407B1 (ko) 영상을 표시하기 위한 전자 장치 및 컴퓨터 판독 가능한 기록 매체
EP2677413A2 (en) Method for improving touch recognition and electronic device thereof
US20140221047A1 (en) Method and apparatus for providing short-cut number in user device
JP6356869B2 (ja) バーチャルリアリティアプリケーション
US9900731B2 (en) Method of providing location based service and electronic device thereof
KR20150142375A (ko) 디바이스에 컨텐츠를 표시하는 방법 및 그 디바이스

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150824

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150824

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20160304

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160714

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161011

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180206

R150 Certificate of patent or registration of utility model

Ref document number: 6289468

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees