JP2017201510A - Context recognition application - Google Patents
Context recognition application Download PDFInfo
- Publication number
- JP2017201510A JP2017201510A JP2017064913A JP2017064913A JP2017201510A JP 2017201510 A JP2017201510 A JP 2017201510A JP 2017064913 A JP2017064913 A JP 2017064913A JP 2017064913 A JP2017064913 A JP 2017064913A JP 2017201510 A JP2017201510 A JP 2017201510A
- Authority
- JP
- Japan
- Prior art keywords
- resources
- context
- electronic device
- user interface
- features
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/451—Execution arrangements for user interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/50—Network services
- H04L67/52—Network services specially adapted for the location of the user terminal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/28—Databases characterised by their database models, e.g. relational or object models
- G06F16/284—Relational databases
- G06F16/288—Entity relationship models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/02—Protocols based on web technology, e.g. hypertext transfer protocol [HTTP]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/50—Network services
- H04L67/53—Network services using third party service providers
Abstract
Description
本開示で議論される実施形態は、コンテキスト認識アプリケーションに関する。 Embodiments discussed in this disclosure relate to context-aware applications.
モバイル電子装置の広範な普及により、多くのユーザが様々な目的で彼らの電子装置に依存している。多くの電子装置はモバイルなので、このような電子装置が使用され得るコンテキストは大きく変化し得る。 With the widespread use of mobile electronic devices, many users rely on their electronic devices for various purposes. Since many electronic devices are mobile, the context in which such electronic devices can be used can vary greatly.
本願明細書で請求される主題は、上述のような欠点を解決する実施形態や上述のような環境でのみ作動する実施形態に限定されない。むしろ、この背景技術の章は、単に、本願明細書に記載される本開示の実施形態が実施され得る1つの例示的な技術分野を説明するために提供される。 The subject matter claimed herein is not limited to embodiments that solve the above disadvantages or that operate only in environments such as those described above. Rather, this background section is provided merely to illustrate one exemplary technical area in which embodiments of the disclosure described herein may be implemented.
1又は複数の実施形態で、本開示は、電子装置のユーザのコンテキストを記述するコンテキストデータを得るステップと、前記コンテキストデータをバックエンド装置に送信するステップと、を含み得る方法を有して良い。方法は、前記バックエンド装置から命令を受信するステップであって、該命令は、複数の関連リソースから対話型コンテンツを含む単一ユーザインタフェースを動的に生成するよう前記電子装置に指示する、ステップを更に有して良い。前記複数の関連リソースは、互いに及び前記ユーザの前記コンテキストに関連するとして、前記バックエンド装置により決定されて良い。前記対話型動的コンテンツの特徴は、前記バックエンド装置により抽出されて良い。方法は、前記単一ユーザインタフェースを動的に生成するステップと、前記単一ユーザインタフェースを前記電子装置の前記ユーザに表示するステップと、を更に有して良い。 In one or more embodiments, the present disclosure may include a method that may include obtaining context data describing a context of a user of an electronic device and transmitting the context data to a back-end device. . A method receives instructions from the backend device, the instructions instructing the electronic device to dynamically generate a single user interface that includes interactive content from a plurality of related resources. May further be included. The plurality of related resources may be determined by the back-end device as related to each other and the user's context. Features of the interactive dynamic content may be extracted by the back-end device. The method may further comprise dynamically generating the single user interface and displaying the single user interface to the user of the electronic device.
実施形態の目的及び利点が理解され、少なくとも特に特許請求の範囲で指摘された要素、特徴及び組合せを用いて達成されるだろう。 The objects and advantages of the embodiments will be understood and at least achieved using the elements, features and combinations particularly pointed out in the claims.
上述の全体的説明及び以下の詳細な説明の両方は、例を提供し及び説明のためであり、本発明の範囲を限定しない。 Both the foregoing general description and the following detailed description are exemplary and explanatory and do not limit the scope of the invention.
例示的な実施形態は、添付の図面を用いて、更なる特異性及び詳細事項と共に記載され説明される。
本開示は、特定のコンテキストに関連する種々のリソースと相互作用するために、ユーザに単一ビューを提供する際に、ユーザの該コンテキストが考慮され得るコンテキスト認識アプリケーションに関する。例えば、ユーザの物理的位置が鉄道の駅であると決定される場合、コンテキスト認識アプリケーションは、駅にやって来る列車の位置を知るため(第1のリソースセット)、ユーザが列車の切符を購入できるため(第2のリソース)、及び近隣レストランのメニュー(第3のリソースセット)、の選択肢をユーザに提供できる。コンテキスト認識アプリケーションは、ユーザのコンテキストに関連する種々のリソースの特徴を、単一ビューでユーザに提供できる。単一ビューから、ユーザは、種々のリソースと相互作用するためにコンテキスト認識アプリケーションと相互作用して良い。 The present disclosure relates to a context-aware application in which a user's context can be considered in providing a single view to the user to interact with various resources associated with a particular context. For example, if the user's physical location is determined to be a railway station, the context-aware application knows the location of the train coming to the station (first resource set), so the user can purchase a train ticket Options of (second resource) and a menu of a neighboring restaurant (third resource set) can be provided to the user. Context-aware applications can provide a user with various resource features related to the user's context in a single view. From a single view, the user may interact with a context aware application to interact with various resources.
本願明細書で使用されるとき、用語「コンテキスト」は、ユーザが物理的位置に存在しない場合であっても、物理的位置(例えば、食料品店、バス停、緯度/経度、等)、又は物理的位置に関連付けられる何らかのタスク又は特徴(例えば、レストランのメニューからの注文、又は鉄道の駅におけるチケットの発注、バス停におけるバス運行予定のチェック、等)を表して良い。 As used herein, the term “context” refers to a physical location (eg, grocery store, bus stop, latitude / longitude, etc.) or physical, even if the user is not present at the physical location. It may represent any task or feature (eg, ordering from a restaurant menu, ordering a ticket at a railway station, checking a bus schedule at a bus stop, etc.) associated with a specific location.
本開示の実施形態を、添付の図面を参照して以下に説明する。 Embodiments of the present disclosure are described below with reference to the accompanying drawings.
図1は、本開示の1又は複数の実施形態による、コンテキスト認識アプリケーションのための例示的なシステム100の図である。システム100は、ネットワーク130を介して通信できる、電子装置110及びバックエンド装置120を有して良い。
FIG. 1 is a diagram of an
電子装置110は、電子装置110のユーザのコンテキストに関するコンテキスト情報を得て良い。例えば、電子装置110の中の位置センサは、電子装置110の物理的位置を検出して良い。このような位置センサは、GPS(global positioning system)センサ、又は任意の他の位置センサを含んで良い。
The
コンテキスト情報を得る別の例として、電子装置110は、電子装置110に隣接するビーコン140からデータを受信し又はそれに接続して良い。ビーコン140は、他の装置(例えば、電子装置110)のコンテキストを識別するために、該他の装置と通信するよう構成される任意の装置を含んで良い。ビーコン140は、電子装置110の物理的位置の検出、電子装置110の物理的位置の追跡、及び/又は電子装置110における位置に基づくイベントのトリガ、を可能にする。ビーコン140は、iBeacon(商標)、Eddystone(商標)、Seeknfind(商標)、等のような任意のビーコンプロトコルを使用して動作して良い。追加又は代替で、ビーコン140は、電子装置110と通信するために、近距離通信(near field communication:NFC)技術を用いて動作して良い。更なる例として、ビーコン140は、電子装置により使用される周波数放射(例えば、2.4ギガヘルツ(GHz)、5GHz、800−900メガヘルツ(MHz)、1700−1800MHz、等)を検出するために検知技術を使用して動作して良く、位置検出を実現するために検出された電子装置と通信して良い。
As another example of obtaining context information, the
コンテキスト情報を得る更なる例は、電子装置110がコンテキスト情報を得るためにクイックレスポンス(QR)コード150をスキャンすることを含み得る。電子装置110は、QRコード(登録商標)150を検出し又はスキャンするために、カメラ又は他の光学センサを利用して良い。QRコード150は、電子装置110にコンテキスト情報を提供して良い。例えば、QRコード150は、電子装置110の物理的位置を識別して良く、及び/又は物理的位置に関連付けられた活動へのアクセスを提供して良い。
Further examples of obtaining context information may include
コンテキスト情報を得た後に、電子装置110は、コンテキスト情報をバックエンド装置120へ送信して良い。バックエンド装置120は、電子装置110に命令を提供して良く、電子装置110に、互いに関連する及び電子装置110のユーザのコンテキストに関連する複数のリソース160から対話型コンテンツを含み得るユーザインタフェースを動的に生成するよう指示する。このようなユーザインタフェースは、複数のリソースの各々から特徴及び/又はコンテンツを組み込む単一ビューであって良い。命令を受信した後に、電子装置110は、ユーザインタフェースを生成し、ユーザインタフェースを電子装置110のユーザに表示して良い。ユーザインタフェースは、電子装置110のユーザが、単一インタフェースから複数のリソースと相互作用可能にできる。
After obtaining the context information, the
幾つかの実施形態では、バックエンド装置120は、複数のリソース160と通信して良い。リソースは、電子装置110のユーザに情報又はサービスを提供するよう構成される任意の装置、コンポーネント、システム、又はそれらの組合せを有して良い。例えば、リソースは、オンラインチケット発注システムのようなウェブサービス、レストランのウェブサイト、レストランのオンラインメニュー、オンラインマップ又はマップサービス、又はインターネット上で情報をホスティングする任意の他のウェブサイト、を有して良い。別の例として、リソースは、照明、コンセント、サーモスタット、監視カメラ、バス、自動車、オートバイ、電気器具(例えば、洗濯機、乾燥器、冷蔵庫、加熱炉、等)、列車、販売時点端末、又はインターネットを介して情報を受信し若しくは送信できる任意の他の装置のような、インターネットに接続される任意の装置を有して良い。図1に示すように、バックエンド装置120は、コンセント161、第1のウェブサーバ162、第2のウェブサイ3、カメラ164、バス165、乾燥器166、列車167、販売時点端末168と通信して良い。これらの各々は、リソース160のうちの1つであって良い。
In some embodiments, the
幾つかの実施形態では、バックエンド装置120は、電子装置110に命令を提供することを実現するために、データベースを準備して良い。上述の及び他の実施形態では、データベースの構築は、トレーニング段階及び認識段階を有して良い。トレーニング段階は、所与のクラスのための基本アプリケーションプログラミングインタフェース(API)モデルを含むリソース160が分類され得るクラスを生成するステップを有して良く、新たに発見されたリソースにマッピングされ得る基本APIモデルの特徴を指定するステップを有して良い。認識段階は、新しいリソース160を分類し及び新しいリソース160の特徴を識別するために、新しいリソース160に接続するステップを有して良い。追加又は代替で、認識段階は、関連するリソース160の間の関係を識別し及び格納するステップを有して良い。追加又は代替で、認識段階は、関連リソースのグループが適用可能であり得るコンテキストを識別するステップと、コンテキストと関連リソースとの間の関係を格納するステップと、を有して良い。上述及び他の実施形態では、複数のクラス及び該クラスのための基本APIモデルが確立された後に、クラス及び基本APIモデルは、データベースに格納されて良い。
In some embodiments, the
トレーニング段階では、バックエンド装置120は、リソースが分類され得る複数のクラスを生成して良い。クラスは、リソースのカテゴリ又はグループに共通の特徴又は特性のセットを有する1又は複数のリソースを有して良い。クラスは階層的であって良く、例えば、第1のクラスは複数のサブクラスを有して良い。幾つかの実施形態では、クラスの個々のリソースの基本APIモデルが生成されて良く、該クラスに属する他のリソースに共通である可能性の高い特徴及び/又は特性を有する。例えば、「レストラン」クラスの基本APIモデルは、「メニュー」特徴、「注文」特徴、「予約」特徴、及び「連絡」特徴を有して良い。クラスの他の例は、任意のウェブサービス(例えば、商業、図書館、輸送サービス、等)、又は「公共輸送車両」クラス(例えば、バス、鉄道、等)若しくは「契約輸送車両」クラス(例えば、タクシー又はUBER(登録商標)ドライバ)のようなインターネットに接続される任意の装置を含み得る。上述の及び他の実施形態では、クラスは、自動的に生成されて良く、又は特定のクラスの特徴及び/又は他の特徴を指定するユーザにより生成されて良い。
In the training phase, the
幾つかの実施形態では、種々の特長を有する基本APIモデルは、比較目的のために生成されて良い。例えば、管理者のようなバックエンド装置120のユーザは、リソースの種々のクラスのために基本APIモデルを手動で生成して良い。例えば、ユーザは、基本APIモデルを生成するために1又は複数のリソースからのAPI文書を使用することにより、「メニュー」特徴、「注文」特徴、及び「予約」特徴を有するレストランのための基本APIモデルを生成して良い。上述の及び他の実施形態では、基本APIモデル及び関連する特徴は、データベースに格納されて良い。
In some embodiments, a basic API model with various features may be generated for comparison purposes. For example, a user of
上述の及び他の実施形態では、バックエンド装置120は、鉄道経路及び鉄道切符を購入するためのポータルを含むウェブサービスをホスティングして良い第1のウェブサーバ162のような、リソース160のうちの1つに接続されて良い。バックエンド装置120は、ウェブスクラッピングプロセス、ウェブクローリングプロセス、ウェブインデックス付け、又は他の同様のプロセスにより、リソース160に接続して良い。別の例として、バックエンド装置120は、列車167にアクセスするための開放ポータルのような、装置への開放ポータルを探して良い。
In the above and other embodiments, the back-
リソースに接続した後に、バックエンド装置120は、リソースのためのAPIモデルを生成して良い。例えば、API文書(例えば、拡張マークアップ言語(XML)文書、スキーマ、PDF(portable document format)文書のようなAPI記述マニュアル文書、等)が利用可能である場合、バックエンド装置120は、API文書をパースして、リソースの種々の特長を特定して良い。上述の及び他の実施形態では、API文書は、リソースの種々の特徴を特定し及び識別するために、自然言語処理(natural language processing:NLP)プロセスを用いてパースされて良い。追加又は代替で、API文書は、ユーザ及び識別された種々の特長により、手動で処理されて良い。別の例として、リソースを保持するベンダ、所有者又は他のエンティティは、特定のリソースの特徴に関する指示を提供して良い。上述の及び他の実施形態では、リソース及び関連する特徴は、データベースに格納されて良い。
After connecting to the resource, the
幾つかの実施形態では、バックエンド装置120は、データベースに格納されたクラスの1又は複数の基本APIモデルによるリソースの比較に基づき、所与のクラスの中のリソースを分類して良い。上述の及び他の実施形態では、比較は、(例えば、NLP処理を用いて)自動的であって良く、又は(例えば、ユーザにより若しくは比較をクラウドソーシングすることにより)手動で実行されて良い。バックエンド装置120は、リソースが基本APIモデル上で最も近くにマッピングするクラスの中のリソースを分類して良い。例えば、第1のウェブサーバ162が、「メニュー」特徴及び「注文」特徴を含んだレストランウェブサービスを運営していた場合、リソースは、「メニュー」特徴、「注文」特徴、及び「予約」特徴を含み得る「レストラン」クラスの基本APIモデルに最も近くマッピングして良い。上述の及び他の実施形態では、新しく分類されたリソースについて、リソースのリスト、及びそれらの提案される分類が、閲覧及び/又は許可のために、バックエンド装置120のユーザに提供されて良い。追加又は代替で、分類の中で適合しなかったリソースのリストが、ユーザが手動でクラスを割り当てるために及びリソースの新しいクラスを生成するために、リストで提供されて良い。幾つかの実施形態では、所与のリソースのための分類は、リソースを保持するベンダ、所有者、又は他のエンティティにより提供されて良い。
In some embodiments, the back-
幾つかの実施形態では、新しく発見されたリソース(例えば、第1のウェブサーバ162)のAPIモデルの中で識別された特徴は、データベースの中のリソースの特徴にマッピングされて良い。例えば、リソースの中の「メニュー閲覧」特徴は、基本APIモデルの「メニュー」特徴にマッピングして良い。このようなマッピングは、「メニュー閲覧」特徴及び「メニュー」特徴の自動比較に基づいて良く、又は「メニュー閲覧」特徴を「メニュー」特徴にマッピングするユーザ入力に基づいて良い。例えば、マッピングは、特徴のリスト及び可能なマッピングがマッピングするためにユーザに提供され得るように、クラウドソーシングされて良い。或いは、特徴のリスト及び提案マッピングが、確認のためにユーザに提供されて良い。上述の及び他の実施形態では、マッピングは、同様の又は同一の関数を実行する別のリソースの特徴を識別して良い。 In some embodiments, the features identified in the API model of the newly discovered resource (eg, first web server 162) may be mapped to the resource features in the database. For example, a “menu browsing” feature in a resource may be mapped to a “menu” feature in a basic API model. Such mapping may be based on an automatic comparison of “menu browsing” and “menu” features, or may be based on user input mapping “menu browsing” features to “menu” features. For example, the mapping may be crowdsourced so that a list of features and possible mappings can be provided to the user for mapping. Alternatively, a list of features and a suggestion mapping may be provided to the user for confirmation. In the above and other embodiments, the mapping may identify features of other resources that perform similar or identical functions.
データベースを準備する認識段階は、関連するリソース160の間の関係を識別し及び格納するステップを有して良い。関連するリソースの識別は、関連し得る多数のリソースを提供するリソースを保持するベンダ、所有者、又は他のエンティティを含んで良い。例えば、配達オプションを有するレストランは、レストランからの注文システムのリソース、及び食べ物が配達されるときの配達ドライバ若しくは車両の物理的位置のリソース、を有して良い。別の例として、市が、関連リソースとして、バス運行予定リソース、バス切符注文リソース、及びバスの物理的位置を識別して良い。追加又は代替で、関連リソースを識別するステップは、ユーザがリソース間の関係を識別する又は提案するステップを有して良い。例えば、モールにいるユーザは、対話型モールマップリソースに関連するとして、商人の注文システム及び在庫リソースを識別して良い。別の例として、ユーザは、バス停マップリソースに関連するとして、近隣レストランリソースを識別して良い。幾つかの実施形態では、近隣リソースがユーザのアクセスしている若しくは閲覧しているリソースに関連し得る場合、電子装置110は、電子装置110のユーザに知らせて(prompt)良い。上述の及び他の実施形態では、リソース間の関係は、データベースに格納されて良い。
The recognition phase of preparing the database may include identifying and storing relationships between
幾つかの実施形態では、データベースを準備する認識段階は、関連リソースのグループが適用可能であり得るコンテキストを識別するステップを有して良い。例えば、ユーザが、レストランに関連付けられた1又は複数のリソースを有する物理的なレストランに物理的に近くにいるとき、該レストランに関連付けられた該リソース及び該レストランに関連付けられた任意のリソースは、該コンテキストを伴う関係を有して良い。別の例として、ユーザがQRコードをスキャンするとき、関連リソースが存在し得る(例えば、QRコードを有するバス停は、バス運行予定及び切符購入のリソース、及びタクシーサービスリソースに関連して良い)。コンテキストとリソースとの間の関係は、リソースが関連し得るコンテキストを提供するリソースを保持するベンダ、所有者、又は他のエンティティに基づいて良く、又はリソースが関連し得るコンテキストを識別するユーザを有して良い。例えば、電子装置110のユーザは、1又は複数の近隣リソースがユーザの位置に関するか否かを示すよう促されて良い。例えば、近隣リソースがユーザの位置に関することを確認するために、ダイアログボックス又はプロンプトが、電子装置110のユーザに提供されて良い。上述の及び他の実施形態では、コンテキストとリソース又は関連リソースのグループとの間の関係は、データベースに格納されて良い。
In some embodiments, the recognizing stage of preparing the database may include identifying contexts where a group of related resources may be applicable. For example, when a user is physically close to a physical restaurant that has one or more resources associated with a restaurant, the resource associated with the restaurant and any resource associated with the restaurant are: You may have a relationship with the context. As another example, when a user scans a QR code, there may be associated resources (eg, a bus stop with a QR code may be associated with bus schedule and ticket purchase resources, and taxi service resources). The relationship between a context and a resource can be based on the vendor, owner, or other entity that holds the resource that provides the context with which the resource can be related, or has a user that identifies the context with which the resource can be related. You can do it. For example, the user of
幾つかの実施形態では、バックエンド装置120は、少なくとも2つの異なるリソースからの特徴を含む単一ビューを有し得るモデルグラフィカルユーザインタフェースの中に、2以上の関連リソースからの特徴を組合せて良い。例えば、インタフェースは、レストランの「メニュー」特徴及び「予約」特徴、並びに近隣映画館の関連「映画リスト」リソースを有して良い。上述の及び他の実施形態では、種々の関連リソースからの特徴は、ウインドウ、ボタン、タグ、フレーム、等のような、単一ビューの視覚的要素にマッピングされて良い。上述の及び他の実施形態では、モデルグラフィカルユーザインタフェースは、データベースに格納されて良い。追加又は代替で、特定の関数又は視覚的要素へのマッピングは、データベースに格納されて良く、電子装置110は、視覚的要素及び/又はモデルグラフィカルユーザインタフェースに基づきユーザインタフェースを動的に生成するロジックを有して良い。幾つかの実施形態では、動的に生成されるユーザインタフェースは、共通フォーマットで及び共通視覚方式を用いて、表示されて良い。例えば、対応するリソースが規定で異なるフォーマットを利用し得る場合でも、フォント、色、ボタン、タグ、フレーム等の共通セットが利用されて良い。
In some embodiments, the back-
本開示の範囲から逸脱することなく図1に対し変更、追加又は省略が行われても良い。例えば、システム100は、本開示で示され説明されたものより多くの又は少ない要素を有しても良い。例えば、システム100は、図示のものに加えて、任意の数の又は種類の又は種々のリソース160を含んで良い。別の例として、システム100は、ビーコン140及びQRコード150に加えてコンテキストを提供する任意の数の又は種類の又は種々のコンポーネントを有して良い。追加の例として、任意のリソース160は、ネットワーク130を介してバックエンド装置120と通信して良い。更なる例として、リソース160のうちの任意のものは、バックエンド装置120に加えて又はそれに代えて、電子装置110と直接通信して良い。
Modifications, additions, or omissions may be made to FIG. 1 without departing from the scope of the present disclosure. For example, the
図2は、本開示の1又は複数の実施形態による、例示的な電子装置200の図である。例えば、図1の電子装置110及び/又はバックエンド装置120は、電子装置200として実装されて良い。別の例として、リソース160のうちの1又は複数は、電子装置200として実装されて良い。
FIG. 2 is a diagram of an example
電子装置200は、プロセッサ210、メモリ220、データ記憶装置230、通信コンポーネント240、位置センサ250、スキャニング装置260、及びディスプレイ270を有して良い。プロセッサ210、メモリ220、データ記憶装置230、通信コンポーネント240、位置センサ250、スキャニング装置260、及び/又はディスプレイ270は、コンポーネントの各々が互いに通信できるように、全て通信可能に結合されて良い。電子装置200は、本開示に記載の動作のうちの任意の動作を実行し又は実行を制御して良い。
The
概して、プロセッサ210は、任意の適切な特定用途向け又は汎用コンピュータ、コンピューティングエンティティ、又は種々のコンピュータハードウェア若しくはソフトウェアモジュールを有しても良く、任意の適切なコンピュータ可読媒体に格納された命令を実行するよう構成され得る処理装置を用いて実施されても良い。例えば、プロセッサ210は、マイクロプロセッサ、マイクロコントローラ、デジタシグナルプロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)又はプログラム命令を解釈し及び/若しくは実行し並びに/又はデータを処理するよう構成された任意の他のデジタル若しくはアナログ回路を有しても良い。図2には単一のプロセッサを示したが、プロセッサ210は、本開示で説明される任意の数の工程を個々に又は共同で実行する又は実行を制御するよう構成される任意の数のプロセッサを有して良い。
In general, the
幾つかの実施形態では、プロセッサ210は、プログラム命令を解釈し及び/又は実行し、及び/又はメモリ220、データ記憶230又はメモリ220及びデータ記憶装置230に格納されたデータを処理して良い。幾つかの実施形態では、プロセッサ210は、データ記憶装置230からプログラム命令をフェッチし、該プログラム命令をメモリ220にロードしても良い。プログラム命令がメモリ220にロードされた後、プロセッサ210は該プログラム命令を実行しても良い。
In some embodiments,
メモリ220及びデータ記憶装置230は、コンピュータ実行可能命令又はデータ構造を伝える又は格納しているコンピュータ可読記憶媒体を含み得る。このようなコンピュータ可読媒体は、プロセッサ210のような汎用又は特定目的コンピュータによりアクセスできる任意の利用可能な媒体を含み得る。例として、このようなコンピュータ可読記憶媒体は、RAM、ROM、EEPROM、CD−ROM又は他の光ディスク記憶装置、磁気ディスク記憶装置又は他の磁気記憶装置、フラッシュメモリ装置(例えば、固体メモリ素子)を含む有形又は非一時的コンピュータ可読記憶媒体、又はコンピュータにより実行可能な命令若しくはデータ構造の形式で所望のプログラムコード手段を伝える若しくは格納するために用いられ汎用若しくは特定目的コンピュータによりアクセス可能な他の記憶媒体を有し得る。上述の組合せも、コンピュータ可読記憶媒体の範囲に包含され得る。コンピュータ実行可能命令は、例えば、プロセッサ210に特定の工程又は工程のグループを実行させ又は実行を制御させるよう構成される命令及びデータを含み得る。
通信コンポーネント240は、(例えば、図1のネットワーク130を介して通信することにより)装置200と別の装置との間の通信を可能にし又は助けるよう構成される任意の装置、システム、コンポーネント、又はコンポーネントの集合を有して良い。例えば、通信コンポーネント240は、モデム、ネットワークカード(無線又は有線)、赤外線通信装置、光通信装置、(アンテナのような)無線通信装置、及び/又は(Bluetooth(登録商標)装置、802.6装置(例えば、MAN(Metropolitan Area Network))、WiFi装置、WiMax装置、セルラ通信設備、等のような)チップセット、及び/又は同様のものを含み得る。通信コンポーネント240は、少数の例を挙げると、セルラネットワーク、WiFiネットワーク、MAN、等のような(ネットワーク130を含む)任意のネットワーク、及び/又はリモート装置を含む本開示に記載される任意の他の装置と、データを交換させることができる。上述のうちの任意のものの組合せも、通信コンポーネント240の範囲に包含され得る。
位置センサ250は、電子装置200の物理的位置を決定し及び決定を実現するよう構成される任意の装置、システム、コンポーネント、又はコンポーネントの集合を有して良い。例えば、位置センサ250は、GPS(global positioning service)センサ、近接センサ、加速度センサ、動きセンサ、ジャイロスコープ、コンパス、等を含み得る。追加又は代替で、位置センサ250は、通信コンポーネント240又は電子装置200の他のコンポーネントを利用して近隣物理コンポーネントを決定し及び物理的位置を推定するソフトウェアルーチン又は命令セットを含み得る。例えば、位置センサ250は、3つの最近接セルラ電話塔を決定し及び物理的位置を推定して良く、或いは、通信コンポーネント240が接続されるWiFiホットスポットを決定し及び物理的位置を推定して良い。幾つかの実施形態では、位置センサ250は、(図1のビーコン140のような)ビーコンと通信して、電子装置200の位置を検知するよう構成されて良い。上述のうちの任意のものの組合せも、位置センサ250の範囲に包含され得る。
The
スキャニング装置260は、画像をスキャンするよう構成される任意の装置、システム、コンポーネント、又はコンポーネントの集合(例えば、カメラ)を有して良い。例えば、スキャニング装置260は、例えば、レンズ、フィルタ、ホログラム、スプリッタ等のような光学要素、及び画像が記録され得る画像センサを有して良い。このような画像センサは、入射光により表される画像を電子信号に変換する任意の装置を有して良い。画像センサは、ピクセル配列(例えば、ピクセル素子の格子)に配置され得る複数のピクセル素子を有して良い。例えば、画像センサは、電荷結合素子(CCD)又は相補型金属酸化物半導体(CMOS)センサを有して良い。種々の他のコンポーネントも、スキャニング装置260に含まれて良い。ピクセル配列は、1:1、4:3、5:4、3:2、16:9、10:7、6:5、9:4、17:6等又は任意の他の比のアスペクト比を有する2次元配列を有して良い。画像センサは、ピクセル配列に集光する又は光を処理する1又は複数の光学要素、例えばレンズに光学的に揃えられて良い。幾つかの実施形態では、スキャニング装置260は、QRコード又は情報を伝達する他の視覚的要素の中でスキャンするよう構成されて良い。このような情報は、電子装置200の位置、リソース、コンテキスト、等を伝達して良い。上述のうちの任意のものの組合せも、スキャニング装置260の範囲に包含され得る。
Scanning device 260 may comprise any device, system, component, or collection of components (eg, a camera) that is configured to scan an image. For example, the scanning device 260 may include, for example, optical elements such as lenses, filters, holograms, splitters, and the like, and image sensors that can record images. Such an image sensor may include any device that converts an image represented by incident light into an electronic signal. An image sensor may include a plurality of pixel elements that may be arranged in a pixel array (eg, a grid of pixel elements). For example, the image sensor may comprise a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS) sensor. Various other components may also be included in the scanning device 260. Pixel arrays can have aspect ratios of 1: 1, 4: 3, 5: 4, 3: 2, 16: 9, 10: 7, 6: 5, 9: 4, 17: 6, etc. or any other ratio It may have a two-dimensional array. The image sensor may be optically aligned with one or more optical elements, such as lenses, that focus on the pixel array or process the light. In some embodiments, the scanning device 260 may be configured to scan among QR codes or other visual elements that convey information. Such information may convey the location, resources, context, etc. of the
ディスプレイ270は、情報を視覚的に示すよう構成される任意のコンポーネント、装置、システム、又はそれらの組合せを有しても良い。ディスプレイ270は、陰極線管(CRT)、液晶ディスプレイ(LCD)、薄膜トランジスタLCD、プラズマディスプレイ、1又は複数の発光ダイオード(LED)、1又は複数の有機LED、1又は複数の電球、ドットマトリックスディスプレイ、真空蛍光ディスプレイ、捻れネマティック効果LCD、超捻れネマティック効果LCD、電子ペーパ(例えば、電気泳動ディスプレイ、エレクトロウェッティングディスプレイ、電気流体ディスプレイ、分岐干渉変調器ディスプレイ)、等を含み得る。ディスプレイ270は、任意のフォーマット又は構造で情報を表示して良い。例えば、ディスプレイ270は、モニタ、スクリーン、光パネル、等として実装されて良い。ディスプレイ270は、スタンドアロンディスプレイとして、又は別の装置若しくはシステムのサブパート若しくはコンポーネントとして実装されて良い。ディスプレイ270は、3次元ディスプレイ、タッチスクリーン制御、方向ディスプレイ制御(例えば、ディスプレイ270の閲覧角度変動)、等のような任意の二次的特徴を有して良い。上述のうちの任意のものの組合せも、ディスプレイ270の範囲に包含され得る。
本開示の範囲から逸脱することなく図2に対し変更、追加又は省略が行われても良い。例えば、装置200は、本開示で示され説明されたものより多くの又は少ない要素を有しても良い。例えば、装置200は、メモリ220、データ記憶装置230、位置センサ250、スキャニング装置260、及び/又はディスプレイ270、又はそれらの任意の組合せを量酌して良い。
Changes, additions, or omissions may be made to FIG. 2 without departing from the scope of the present disclosure. For example, the
図3Aは、本開示の1又は複数の実施形態による、コンテキスト認識アプリケーションの例示的なユーザインタフェース300aである。例えば、ユーザインタフェース300aは、ディスプレイ(例えば、図2のディスプレイ270)に表示されて良く、及び/又はユーザがバス停でQRコードをスキャンした後に動的に生成されて良い。
FIG. 3A is an
ユーザインタフェース300aは、ユーザのコンテキスト、つまりユーザが特定のバス停にいることに基づき、バス運行予定のリソースに関連する情報を表示して良い。例えば、ユーザインタフェース300aは、特定のバス停を使用するバス路線を表示して良く、次のバスがそれらの路線の各々について到着する予定であるときを識別して良い。幾つかの実施形態では、時間は、バス停に到着する次のバスの各々に関連するGPSロケータの追加リソースに基づいて良い。
The
幾つかの実施形態では、グラフィカルユーザインタフェース300aを閲覧しているユーザは、追加情報を要求するためにグラフィカルユーザインタフェース300aと相互作用して良く、又はグラフィカルユーザインタフェース300aにより提示されるリソースと相互作用して良い。例えば、ユーザは、バス路線のうちの1つ(例えば、路線337)を選択して良く、該リソースに関連付けられた追加情報又はリソースを提供されて良い(例えば、ユーザは、図3Bに示すユーザインタフェース300bを提示されて良い)。
In some embodiments, a user viewing the
さらに、図3Aに示すように、ユーザインタフェース300aは、近隣劇場、近隣レストラン、及び近隣図書館のような、他の近隣サービスへの参照又はリンクを含んで良い。追加サービス及び関連リソースは、近隣サービスのうちの1又は複数を選択するためにユーザインタフェース300aと相互作用する(又はより具体的には、ユーザインタフェース300aに含まれる該近隣サービスへの参照又はリンクのうちの1つを選択する)ことによりアクセスされて良い。
Further, as shown in FIG. 3A, the
幾つかの実施形態では、ユーザのコンテキストは、ユーザがコンテキストを変更するときバックエンド装置へ送信されて良く、ユーザインタフェース300aは、ユーザのコンテキストの変更に基づき更新又は変更されて良い。例えば、ユーザがバスに乗車していた場合、コンテキスト及びユーザに表示されるサービスは、バスに乗っているユーザのコンテキスト又は(ユーザが目的地に入った場合、又は同じバス停で頻繁に降りる場合)バスからのユーザの目的地のコンテキストに基づきシフトして良い。別の例として、ユーザがタクシーを拾っていた場合、タクシーが異なる場所を通り走行するとき、コンテキストは、タクシーの位置に基づき、周期的に又は絶えず更新して良い。
In some embodiments, the user's context may be sent to the backend device when the user changes the context, and the
幾つかの実施形態では、追加サービスが、電子装置のコンテキスト情報以外の情報に基づき、ユーザに提案され又は表示されて良い。例えば、電子装置からの情報及び/又は1日のうちの時間を識別するステップは、種々のサービスを選択する及び/又は表示する基礎の部分を形成して良い。幾つかの実施形態では、ユーザにより選択されたサービス及び何時の履歴は、バックエンド装置に格納され、種々のサービスを選択し及び/又は表示するために使用されて良い。例えば、特定のユーザが帰宅途中の大抵の夕方にテイクアウトを注文する場合、ユーザのコンテキストが彼らは間もなく帰宅する又は帰宅途中であることを示すとき、表示されるサービスは、ユーザがテイクアウトを注文できるレストランサービスを有して良い。 In some embodiments, additional services may be suggested or displayed to the user based on information other than the context information of the electronic device. For example, identifying information from the electronic device and / or time of day may form the basis for selecting and / or displaying various services. In some embodiments, the service selected by the user and the time history may be stored on the backend device and used to select and / or display various services. For example, if a particular user orders a takeout on the evening most of the way home, the displayed service will allow the user to order a takeout when the user's context indicates that they are coming home soon or on the way home May have restaurant service.
幾つかの実施形態では、バックエンド装置は、概して任意のユーザにより行われる選択の履歴を監視し及び保持して良い。したがって、例えば、サービスを表示するとき、サービスは、所与のコンテキストの中で最も人気のあるサービスに又は一般に最も頻繁に若しくは1日のうちの特定の時間に利用されるサービスに基づき、順序付けられて良い。 In some embodiments, the back-end device may monitor and maintain a history of selections that are generally made by any user. Thus, for example, when displaying services, the services are ordered based on the most popular services in a given context or generally the services that are most often used or at a particular time of day. Good.
図3Bは、本開示の1又は複数の実施形態による、コンテキスト認識アプリケーションの更なる例示的なユーザインタフェース300bである。例えば、ユーザインタフェース300bは、図3Aのユーザインタフェース300aからバス路線337を選択して後に、ユーザが何を提示され得るかの一例を示し得る。
FIG. 3B is a further
ユーザインタフェース300bは、337バス路線の次のバスの到着時間、及びバスの位置の地図を有して良い。到着時間、次の3個のバス停、等は、バス運行予定リソースに基づいて良く、地図は、インターネットに基づく地図リソースから導出されて良い。地図上のバスの位置は、バスの位置決めリソースに基づいて良い。
The
さらに、ユーザインタフェース300bは、追加関連リソースからの追加情報を有して良い。例えば、バックエンド装置(例えば、図1のバックエンド装置120)は、Uber(登録商標)リソース及びタクシーサービスリソースを、バス路線リソースに関連付けて良い。関連リソース(例えば、Uber(登録商標)リソース及びタクシーサービスリソース)は、ユーザインタフェース300bに含まれて良い。例えば、このようなリソースを使用するためのコスト差、及び目的地における到着時間の差は、ユーザインタフェース300bに含まれて良い。追加又は代替で、ユーザは、バスを待っているのではなく、Uber(登録商標)ピックアップを要求するような関連リソースに関連付けられた切符/サービスを購入するためのオプションを提示されて良い。
Further, the
上述の及び他の実施形態では、ユーザインタフェース300bは、単一ビューの中に及び共通視覚方式を用いて、種々のリソースに関連付けられた情報の一部又は全部を提示して良い。例えば、タクシーサービスの伝統的なウェブページは1つのフォントを使用し得るが、タクシーサービスリソースに関連する情報は、共通ビューの中で及びバス路線に関連するバス情報と共通の視覚的方式で表示されて良い(例えば、タクシーサービス情報は、伝統的なタクシーサービスウェブページと異なるフォントで、及びバス情報と同じフォントで、表示されて良い)。
In the above and other embodiments, the
図4Aは、本開示の1又は複数の実施形態による、コンテキスト認識アプリケーションの更なる例示的なユーザインタフェース400aである。ユーザインタフェース400aは、ユーザがレストランに着くとき又はユーザがレストランを選択するとき、ユーザに提示されるリソースに関連付けられた特徴を表示して良い。
FIG. 4A is a further
ユーザインタフェース400aは、レストランのメニューを閲覧する、レストランからのテイクアウト若しくは配達を注文する、又は選択された人数のために席を予約するための選択肢を含む複数の選択肢をユーザに提示して良い。ユーザインタフェース400aは、選択された人数のための待ち時間がどれ位長いかに関連する情報も提供して良い。例えば、レストランは、空きテーブルの数、既に席を待っている人数、席が利用可能になる予測時間に関するリソースを含み得る。別の例として、レストランは、メニューを閲覧するための及びテイクアウトの食べ物を注文するためのリソースを含み得る。
The
図4Bは、本開示の1又は複数の実施形態による、コンテキスト認識アプリケーションの更なる例示的なユーザインタフェース400bである。図4Bは、予約を取った後にユーザが提示され得るユーザインタフェース400bの一例を示し得る。 FIG. 4B is a further exemplary user interface 400b of a context-aware application according to one or more embodiments of the present disclosure. FIG. 4B may show an example of a user interface 400b that a user may be presented after making a reservation.
ユーザインタフェース400bは、ユーザに自身のテーブルの用意ができたことを知らせるようユーザがどのように契約されるかを示し得る。追加又は代替で、ユーザインタフェース400bは、席に着く前に、メニューを選択する又はメニューを詳細に調べるためのオプションをユーザに提示して良い。上述の及び他の実施形態では、ユーザインタフェース400bは、ユーザが席に着くのを待っている間に、メニューから品目を購入するためのオプションを含み得る。例えば、ユーザは、ユーザインタフェース400bと相互作用して、メニューから前菜を注文して良い。要求された注文は、リソースプロバイダ(例えば、レストラン)へ送信されて良く、ユーザが席に着いたとき席で注文せずに、ユーザのために前菜が準備され得るようにして良い。 User interface 400b may indicate how the user is contracted to inform the user that his table is ready. Additionally or alternatively, the user interface 400b may present the user with an option to select a menu or to examine the menu in detail before taking a seat. In the above and other embodiments, user interface 400b may include an option to purchase items from a menu while waiting for the user to sit down. For example, the user may interact with the user interface 400b and order appetizers from a menu. The requested order may be sent to a resource provider (e.g., a restaurant) so that when the user is seated, an appetizer can be prepared for the user without placing an order at the seat.
図5は、本開示の1又は複数の実施形態による、コンテキスト認識アプリケーションの更なる例示的なユーザインタフェース500である。ユーザインタフェース500は、鉄道の駅にあるビーコンに近付くと又はその近傍に(例えば、それから所定距離の範囲内に)いると、ユーザに提示され得るリソースの特徴を示し得る。
FIG. 5 is a further
ユーザインタフェース500は、鉄道の駅に関連付けられた関連リソースから種々の特長をユーザに提供して良い。例えば、ユーザインタフェース500は、美術館のような目的地を選択するためのオプションをユーザに提供して良い。追加又は代替で、ユーザインタフェース500は、次の20分間のような所与の時間に鉄道の駅をどんな列車が出発するかに関する詳細事項を提供して良い。ユーザインタフェース500は、追加又は代替で、特定の列車に乗るためにどこへ行くべきか及びそれらの列車がどこを走るかの地図をユーザに提供して良い。地図は、列車の位置のリソースに基づき、列車が地図上のどこにいるかのリアルタイムデータを含んで良い。ユーザインタフェース500は、追加又は代替で、レストラン又は図書館のような近隣サービスを有して良い。上述の及び他の実施形態では、ユーザインタフェース500は、リソースについての複数言語のオプションを有して良い。例えば、旅行者は、ユーザの母国語でリソースセットにアクセスできて良い。このような言語オプションは、リソースプロバイダ(例えば、鉄道の駅)により、バックエンド装置若しくはエンドユーザ装置により(例えば、ある言語から別の言語へリソースの機械翻訳を実行するバックエンド装置により)、又は第三機関サービスにより(例えば、ウェブに基づく翻訳サービスにより)提供されて良い。
The
本開示の範囲から逸脱することなく図3A、3B、4A、4B、及び/又は5のうちの任意のものに対し変更、追加又は省略が行われて良い。例えば、ユーザインタフェース300a、300b、400a、400b、及び/又は500は、本開示で示され説明されたものより多くの又は少ない要素を有して良い。例えば、任意の数のリソース又はリソースの関連が、ユーザインタフェース300a、300b、400a、400b、及び/又は500上に表示されて良い。ユーザインタフェース300a、300b、400a、400b、及び/又は500は、関連リソースの種々の組合せ、及びこのようなリソースがユーザにどのように提示され得るかを示すのに役立つ。リソースの任意の組合せは、本開示の範囲内に包含される。
Changes, additions, or omissions may be made to any of FIGS. 3A, 3B, 4A, 4B, and / or 5 without departing from the scope of the present disclosure. For example, the
図6A及び6Bは、本開示の1又は複数の実施形態による、コンテキスト認識アプリケーションを利用する例示的な方法600のフローチャートである。方法600は、任意の適切なシステム、機器、又は装置により実行されても良い。例えば、図1のシステム100及び/又は電子装置110、及び/又は図2の電子装置200は、方法600に関連する工程のうちの1又は複数を実行して良い。別個のブロックとして示したが、所望の実装に依存して、方法600のブロックのうちの1又は複数に関連するステップ及び工程は、更なるブロックに分割され、少ないブロックに結合され、又は除去されても良い。
6A and 6B are flowcharts of an
ブロック605で、電子装置(例えば、図1の電子装置110)のユーザのコンテキストを記述するコンテキストデータが、得られて良い。例えば、電子装置のユーザは、特定の物理的位置(例えば、バス停)にある又は特定のサービスに関連付けられた(例えば、レストランの広告にある)QRコード(例えば、図1のQRコード150)をスキャンするために電子装置110を使用して良い。別の例として、電子装置のユーザは、電子装置と通信できるビーコン(例えば、図1のビーコン140)の特定の距離の範囲内に近付いて又は来て良く、及び電子装置がコンテキストデータを得るためにビーコンとの通信を使用して良い。追加の例として、GPSセンサのような電子装置の位置検知装置は、ユーザの物理的位置を検出して良い。
At
ブロック610で、コンテキストデータは、バックエンド装置(例えば、図1のバックエンド装置120)へ送信されて良い。例えば、電子装置は、ネットワーク(例えば、図1のネットワーク130)を介してバックエンド装置へコンテキストデータを送信して良い。
At block 610, the context data may be sent to the backend device (eg,
ブロック612で、電子装置は、個人向け学習エージェントへ情報を送信して良い。例えば、個人向け学習エージェントは、バックエンド装置に作用して、電子装置との及び/又は1又は複数のサービスとのユーザ相互作用を追跡して良い。個人向け学習エージェントは、特定の動作が生じる1日の内の時間及び/又は特定の動作が生じるコンテキストを追跡して良い。個人向け学習エージェントは、ユーザに表示されるサービスを個人向けにする及び/又は優先順位付けするのに利用されるべき、バックエンド装置におけるこのようなデータの一部又は全部を受信して良い。幾つかの実施形態では、個人向け学習エージェントは、どのリソースを表示すべきかを決定するために、教科学習のような機械学習方法を使用して良い。上述の及び他の実施形態では、個人向け学習エージェントは、電子装置に置かれて良い。
At
ブロック615で、複数の関連リソースから対話型コンテンツを有する単一ユーザインタフェースを動的に生成するために、バックエンド装置から相互作用が受信されて良い。例えば、電子装置は、複数のリソースからユーザインタフェースの視覚的要素に特徴をマッピングする命令を受信して良い。別の例として、電子装置は、複数のリソースのうちの1又は複数から引き出されるデータを有するユーザインタフェースを生成する命令を受信して良い。上述及び他の実施形態では、命令は、モデルユーザインタフェースを有して良い。
At
ブロック620で、単一ユーザインタフェースは、動的に生成されて良い。例えば、電子装置は、単一ユーザインタフェースを動的に生成するために、バックエンド装置から受信された命令を使用して良い。上述の及び他の実施形態では、単一ユーザインタフェースは、複数のリソースからの特徴を有して良い。追加又は代替で、特徴は、インタフェースの1又は複数の視覚的要素にマッピングされて良い。このようなユーザインタフェースの例は、図3A、3B、4A、4B、及び5に示される。
At
ブロック625で、バックエンド装置により抽出された特徴は、単一ユーザインタフェースの部分として生成される個々の要素にマッピングされて良い。例えば、バックエンド装置がレストランリソースの「メニュー」特徴及び「注文」特徴を抽出した場合、これらの特徴は、単一ユーザインタフェースの個々の視覚的要素にマッピングされて良い。幾つかの実施形態では、ブロック625のマッピングは、ブロック620で実行される動的生成の部分であって良い。
At
ブロック630で、複数の関連リソースの各々からの対話型コンテンツは、共通フォーマット及び共通の視覚的方式に組み込まれて良い。上述の及び他の実施形態では、単一ユーザインタフェースを生成する際に、電子装置は、リソースの各々から少なくとも1つの特徴を組み込んで良い。共通フォーマット及び共通の視覚的方式は、例えば、共通のフォント、共通の色セット、等を有して良い。幾つかの実施形態では、ブロック630の組み込みは、ブロック620で実行される動的生成の部分であって良い。
At
(図6Bの)ブロック635で、単一ユーザインタフェースは、電子装置のユーザに表示されて良い。例えば、電子装置は、電子装置又はその部分に関連付けられたディスプレイで単一ユーザインタフェースを出力して良い。 At block 635 (of FIG. 6B), a single user interface may be displayed to the user of the electronic device. For example, the electronic device may output a single user interface on a display associated with the electronic device or portion thereof.
ブロック640で、相互作用データを生成するために、単一ユーザインタフェースの要素とのユーザの相互作用が受信されて良い。例えば、電子装置のユーザは、リソースの特徴のうちの1つにマッピングされる、単一ユーザインタフェースの要素のうちの1つをクリックし、タッチし、又は選択して良い(例えば、ユーザは、レストランリソースの「メニュー」特徴に対応する「メニュー」ボタンをクリックして良い)。電子装置とのユーザの相互作用は、相互作用データとしてキャプチャされて良い。 At block 640, a user interaction with a single user interface element may be received to generate interaction data. For example, a user of an electronic device may click, touch, or select one of the elements of a single user interface that is mapped to one of the resource characteristics (eg, the user Click the “Menu” button corresponding to the “Menu” feature of the restaurant resource). User interaction with the electronic device may be captured as interaction data.
ブロック645で、相互作用データは、要素に関連付けられたリソースに伝達されるよう、バックエンド装置へ送信されて良い。例えば、相互作用データをキャプチャした後に、電子装置は、バックエンド装置へ相互作用データを送信して良い(例えば、ユーザが「メニュー」ボタンにタッチする場合、相互作用がバックエンド装置へ送信されて良い)。バックエンド装置は、要素に関連付けられたリソースへ相互作用を伝達して良い。例えば、バックエンド装置は、「メニュー」要求をリソースに送信して良い。
At
したがって、方法600は、コンテキスト認識アプリケーションを利用して良い。本開示の範囲から逸脱することなく方法600に対し変更、追加又は省略が行われても良い。例えば、ブロック605、610、615、620、625、630、640、645のうちの1又は複数が省略されて良い。例えば、方法600の工程は、異なる順序で実施されて良い。追加又は代替で、2以上の工程が同時に実行されて良い。さらに、概略のステップ及び動作は例として提供され、幾つかのステップ及び動作は、開示の実施形態の本質から逸脱することなく、任意であり、より少ないステップ及び動作に組み合わされ、又は追加ステップ及び動作に拡張されても良い。
Accordingly, the
図7A及び7Bは、本開示の1又は複数の実施形態による、コンテキスト認識アプリケーションに関連付けられたバックエンド装置の例示的な方法700のフローチャートである。方法700は、任意の適切なシステム、機器、又は装置により実行されて良い。例えば、図1のシステム100及び/又はバックエンド装置120、及び/又は図2の電子装置200は、方法700に関連する工程のうちの1又は複数を実行して良い。別個のブロックとして示したが、所望の実装に依存して、方法700のブロックのうちの1又は複数に関連するステップ及び工程は、更なるブロックに分割され、少ないブロックに結合され、又は除去されて良い。
7A and 7B are flowcharts of an
ブロック705で、接続は、複数のリソース(例えば、図1のリソース160)により生成されて良い。例えば、バックエンド装置(例えば、図1のバックエンド装置120)は、複数のリソースと接続して良い。接続は、同時に又は個々に、又はそれらの任意の組合せで生成されて良い。例えば、バックエンド装置は、第1のリソースと接続し、次に第2及び第3のリソースと同時に接続して良い。
At
ブロック710で、APIモデルは、各々のリソースについて構築されて良い。例えば、特定のリソースのAPI文書(例えば、XMLスキーマ)は、バックエンド装置によりパースされて良い。別の例として、リソースは、APIモデルを生成するために手動でパースされて良い。追加又は代替で、リソースのプロバイダは、リソースのAPIモデルを識別し又は提供して良い。
At
ブロック715で、各々のリソースは、クラスに分類されて良い。例えば、バックエンド装置は、APIモデル及び/又は所与のリソースの他の特徴を、1又は複数の異なるクラスの1又は複数の基本APIモデルと比較して良い。特定のリソースは、APIモデルが最も密接に合致するクラスに分類されて良い。追加又は代替で、バックエンド装置のユーザは、リソースが属し得る特定のクラスを識別して良い。例えば、バックエンド装置は、所与のリソースの推奨を提供して良く、バックエンド装置のユーザは、新しいクラスの基本モデルとしてリソースを選択して良い。
At
ブロック720で、特徴がリソースの各々から抽出されて良い。例えば、バックエンド装置は、第1のリソースから1又は複数の特徴を抽出して良く、第2のリソースから1又は複数の異なる又は同様の特徴を抽出して良い。このような抽出は、リソースの各々について構築されたAPIモデルの中の特徴をパースすることにより又は識別することにより、実行されて良い。別の例として、バックエンド装置のユーザは、APIモデルからのリソースに関連付けられた1又は複数の特徴を抽出し又は識別して良い。
At
ブロック725で、リソースの各々の特徴及びクラスは、データベースに格納されて良い。例えば、エントリは、特定のリソースの特徴及び/又はクラスを有し得る特定のリソースのデータベースの中に、バックエンド装置により生成されて良い。追加又は代替で、データベースは、リソースのアドレス又は位置(例えば、インターネットプロトコル(IP)アドレス又はウェブアドレス)を格納して良い。
At
ブロック730で、リソースのうちの2以上が関連するという決定が行われて良い。例えば、リソースのプロバイダは、リソースに関連付けられ得る他のリソースを識別して良い(例えば、Uber(登録商標)リソースのプロバイダは、バス及び/又はタクシーサービスリソースに関連するとしてリソースを識別して良い)。追加又は代替で、バックエンド装置又は別の電子装置のユーザは、2以上のリソースの間の関係を識別して良い。例えば、ユーザは、ユーザが物理的に位置する場所の近くのリソースが、ユーザがアクセスしている別のリソースに関連するか否かについて、問い合わせられて良い。上述の及び他の実施形態では、バックエンド装置のユーザは、2以上のリソースの間の関係を識別し又は確認して良い。
At
ブロック735で、2以上のリソースの間の関係は、データベースに格納されて良い。例えば、バックエンド装置は、データベースの中のリソースに関連付けられたエントリとして関係を格納して良い。例えば、バス運行予定リソースがバス位置リソース及びUber(登録商標)リソースに関連する場合、これらの3つのリソースの各々は、他の2つのリソースとの関係を示す、識別する、及び/又は記述する、データベースの中のエントリを有して良い。
At
ブロック740で、関連リソースの各々から少なくとも1つのリソースを結合するモデルインタフェースが生成されて良い。例えば、バックエンド装置は、ユーザインタフェースを生成する際のモデルレイアウトのような、電子装置へ送信され得るモデルインタフェースを生成して良い。追加又は代替で、モデルインタフェースは、クラスの基本モデルAPIの特定の特徴を、モデルインタフェースの所与の視覚的要素又は特徴にマッピングする命令を有して良い。例えば、リソースのレストランクラスでは、モデルインタフェースは、「メニュー」特徴を特定の視覚的要素にマッピングして、「メニュー」特徴を有するレストランクラスの他のリソースも該特定の視覚的要素にマッピングし得るようにして良い。
At
ブロック745で、モデルインタフェースは、データベースに格納されて良い。例えば、バックエンド装置は、モデルインタフェースをデータベースに格納して良い。
At
(図7Bに示すような)ブロック750で、モデルインタフェースとモデルインタフェースの中の特徴を有するリソースの各々のコンテキストとの間の関係が確立されて良い。例えば、リソースのレストランクラスでは、「メニュー」特徴を有する任意のリソースは、レストランの物理的位置におけるコンテキストの該特徴を有するモデルインタフェースに関連付けられて良い。別の例として、モデルインタフェース上でバス運行予定を有するモデルインタフェースでは、特定のコンテキスト(例えば、バス停にいる又はバスに乗っている)とモデルインタフェースとの間の関係が確立されて良い。追加又は代替で、コンテキストと特定のリソースとの間の関係が生成されて良い。該関係は、データベースに格納されて良い。例えば、コンテキスト(例えば、バスに乗っている)と所与のリソース(例えば、バス位置及び/又はバス運行予定)との間の関係が決定されて良い。 At block 750 (as shown in FIG. 7B), a relationship between the model interface and the context of each of the resources having features in the model interface may be established. For example, in a restaurant class of resources, any resource that has a “menu” feature may be associated with a model interface that has that feature of context at the physical location of the restaurant. As another example, in a model interface that has a bus schedule on the model interface, a relationship between a particular context (eg, at a bus stop or on a bus) and the model interface may be established. In addition or alternatively, a relationship between the context and a particular resource may be created. The relationship may be stored in a database. For example, a relationship between a context (eg, on a bus) and a given resource (eg, bus location and / or bus schedule) may be determined.
ブロック755で、電子装置(例えば、図1の電子装置110)からコンテキストデータが受信されて良い。例えば、電子装置は、QRコード、物理的位置(例えば、緯度及び経度、又は所在地住所)のようなコンテキストデータを、ネットワークを介してバックエンド装置へ送信して良い。
At
ブロック760で、コンテキストに関連するリソースが更新されて良い。例えば、バックエンド装置は、コンテキストに関連するモデルユーザインタフェースを読み出して良く、特徴に関連付けられた任意のデータを更新するためにリソースをモデルインタフェースの中の特徴に接続して良い。追加又は代替で、バックエンド装置は、コンテキストに関連するリソースを読み出して良く、及びリソースの特徴に関連付けられた任意のデータを更新するために該リソースに接続して良い。上述の及び他の実施形態では、バックエンド装置は、更新されたデータをデータベースに格納して良い。例えば、コンテキストデータが、電子装置のユーザはレストランにいることである場合、バックエンド装置は、「メニュー」リソースへの任意の変更を更新するために、レストランの「メニュー」リソースに接続して良い。幾つかの実施形態では、バックエンド装置は、電子装置から個人向け学習エージェントで受信されたデータに基づき、リソースを更新して良い。追加又は代替で、バックエンド装置は、このようなデータに基づきリソースの順序を変更して良い。上述の及び他の実施形態では、バックエンド装置は、複数のユーザからの個人向け学習データに基づき、リソースを更に更新して良い。
At
ブロック765で、リソースに関するデータベースの中の情報は、電子装置へ送信されて良い。例えば、リソースの特徴のうちの1又は複数及びデータベースからの関連データを含み得る単一ユーザインタフェースを動的に生成する命令が、電子装置へ送信されて良い。追加又は代替で、バックエンド装置は、モデルインタフェースの視覚的要素にマッピングされたコンテキストに関連付けられたリソースの特徴のマッピングを有するモデルインタフェースをデータベースから送信して良い。例えば、バックエンド装置は、単一ユーザインタフェースに含むために、レストランに居るユーザへ更新された「メニュー」を送信して良い。
At
ブロック770で、ユーザ相互作用データ(例えば、図6のブロック640で生成されたユーザ相互作用データ)は、電子装置から受信されて良い。例えば、メニューから品目を注文するためのオプションのユーザによるタッチ又は選択は、バックエンド装置により電子装置から受信されて良い。
At
ブロック775で、相互作用データは、適切なリソースに伝達されて良い。例えば、相互作用データが、メニューから品目を注文するオプションのユーザによる選択を含む場合、バックエンド装置は、レストランリソースに注文する要求を伝達して良い。
At
したがって、方法700は、コンテキスト認識アプリケーションと連動してバックエンド装置により実行されて良い。本開示の範囲から逸脱することなく方法700に対し変更、追加又は省略が行われても良い。例えば、方法600の工程は、異なる順序で実施されて良い。追加又は代替で、2以上の工程が同時に実行されて良い。さらに、概略のステップ及び動作は例として提供され、幾つかのステップ及び動作は、開示の実施形態の本質から逸脱することなく、任意であり、より少ないステップ及び動作に組み合わされ、又は追加ステップ及び動作に拡張されて良い。
Accordingly, the
本開示で用いられるように、用語「モジュール」又は「コンポーネント」は、モジュール若しくはコンポーネントのアクションを実行するよう構成される特定ハードウェア実装、及び/又はコンピューティングシステムの汎用ハードウェア(例えばコンピュータ可読媒体、処理装置、等)に格納され及び/又はそれらにより実行され得るソフトウェアオブジェクト又はソフトウェアルーチンを表して良い。幾つかの実施形態では、本開示に記載されたのと異なるコンポーネント、モジュール、エンジン及びサービスは、(例えば、別個のスレッドとして)コンピューティングシステムで実行されるオブジェクト又は処理として実施されて良い。本開示に記載のシステム及び方法の幾つかは概して(汎用ハードウェアに格納される及び/又はそれにより実行される)ソフトウェアで実装されるように記載されたが、専用ハードウェアの実装又はソフトウェアと専用ハードウェアの組み合わせの実装も可能であり考えられる。この説明では、「コンピュータエンティティ」は、本開示で先に定められたようにコンピューティングシステム、又はコンピューティングシステムで実行されるモジュール若しくはモジュールの組合せであって良い。 As used in this disclosure, the term “module” or “component” refers to a specific hardware implementation configured to perform the actions of the module or component, and / or general purpose hardware of a computing system (eg, a computer-readable medium). Software objects or software routines that may be stored in and / or executed by a processing device, etc.). In some embodiments, different components, modules, engines, and services than described in this disclosure may be implemented as objects or processes that execute on the computing system (eg, as separate threads). Although some of the systems and methods described in this disclosure have been generally described as being implemented in software (stored on and / or executed by general purpose hardware), It is possible and possible to implement a combination of dedicated hardware. In this description, a “computer entity” may be a computing system or a module or combination of modules that executes on a computing system as defined earlier in this disclosure.
本開示で及び特に添付の特許請求の範囲(例えば、添付の特許請求の範囲の本体)で使用される用語は、概して、広義の(open)用語と考えられる(例えば、用語「含む(including)」は「含むが、限定されない」と解釈されるべきであり、用語「有する(having)」は「少なくとも有する」と解釈されるべきであり、用語「含む(includes)」は「含むが、限定されない」と解釈されるべきであり、用語「含む(containing)」は、「含むが、限定されない」と解釈されるべきである)。 Terms used in this disclosure and specifically in the appended claims (eg, the body of the appended claims) are generally considered to be open terms (eg, the term “including”). ”Should be interpreted as“ including but not limited to ”, the term“ having ”should be interpreted as“ having at least ”, and the term“ includes ”should include“ Is not to be construed, and the term “containing” is to be construed as “including but not limited to”).
さらに、特定数の導入された請求項の引用が意図される場合、このような意図は、請求項の中に明示的に示され、このような引用が存在しない場合はこのような意図が存在しない。例えば、理解の助けとして、以下の添付の特許請求の範囲は、請求項の引用を導入するために、「少なくとも1つの」及び「1又は複数の」をいう前置語句の使用を含み得る。しかしながら、このような語句の使用は、同じ請求項が前置語句「1又は複数」又は「少なくとも1つの」及び「a又はan」のような不定冠詞を含むときでも、不定冠詞「a、an」による請求項引用の導入がこのような導入された請求項引用を含む任意の特定の請求項をこのような引用を1つだけ含む実施形態に限定することを示すと考えられてはならない(例えば、「a」及び/又は「an」は「少なくとも1つの」又は「1又は複数の」を意味すると解釈されるべきである)。同様のことは、請求項引用を導入するために使用される定冠詞の使用についても該当する。 Further, where a specific number of introduced claims are intended to be quoted, such intentions are explicitly indicated in the claims, and if such citations do not exist, such intentions are present. do not do. For example, as an aid to understanding, the following appended claims may include the use of the prefix “at least one” and “one or more” to introduce claim citations. However, the use of such terms does not mean that the indefinite article "a, an" can be used even when the same claim includes the indefinite article such as the prefix "one or more" or "at least one" and "a or an". Is not to be construed as indicating that any particular claim, including such introduced claim citations, is limited to embodiments that include only one such citation ( For example, “a” and / or “an” should be taken to mean “at least one” or “one or more”. The same is true for the use of definite articles used to introduce claim citations.
さらに、特定数の導入された請求項引用が明示的に引用される場合、当業者は、このような引用が少なくとも引用された番号を意味することと解釈されるべきであることを認識するだろう(例えば、「2つの引用」はそのままで、他の変更が無ければ、少なくとも2つの引用、又は2以上の引用を意味する)。さらに、「A、B、C、等のうちの少なくとも1つ」又は「A、B、C、等のうちの1又は複数」に類似する慣例が用いられる例では、通常、このような構成は、Aのみ、Bのみ、Cのみ、A及びBを一緒に、A及びCを一緒に、B及びCを一緒に、又はA、B、Cを一緒に、等を含むと意図される。 Further, if a particular number of introduced claim citations are explicitly cited, those skilled in the art will recognize that such citations should at least be construed to mean the cited numbers. Wax (e.g., "two citations" are left intact, meaning at least two citations, or two or more citations, unless otherwise changed). Further, in examples where a convention similar to “at least one of A, B, C, etc.” or “one or more of A, B, C, etc.” is used, such a configuration is typically , A only, B only, C only, A and B together, A and C together, B and C together, or A, B, C together, and the like.
さらに、2以上の代替用語を表す任意の離接語又は語句は、説明、請求項、又は図面の中であるかに係わらず、用語のうちの1つ、用語のうちのいずれか、又は両方の用語を含む可能性を包含すると理解されるべきである。例えば、語句「A又はB」は、「A」又は「B」又は「A及びB」の可能性を含むと理解されるべきである。 In addition, any disjunctive word or phrase that represents two or more alternative terms may be either one of the terms, one of the terms, or both, whether in the description, the claims, or the drawings. It should be understood to encompass the possibility of including the terms For example, the phrase “A or B” should be understood to include the possibilities of “A” or “B” or “A and B”.
本開示に記載された全ての例及び条件文は、教育上の目的で、読者が本開示の原理及び発明者により考案された概念を理解するのを助け、技術を促進させるためであり、これらの特に記載された例及び条件に限定されないものと考えられるべきである。本開示の実施形態が詳細に記載されたが、種々の変更、置換及び修正が本開示の精神及び範囲から逸脱することなく行われ得る。 All examples and conditional statements in this disclosure are for educational purposes only to help readers understand the principles of this disclosure and the concepts devised by the inventor and to promote technology. Should not be considered as being limited to the specifically described examples and conditions. Although embodiments of the present disclosure have been described in detail, various changes, substitutions and modifications can be made without departing from the spirit and scope of the present disclosure.
以上の実施形態に加えて、更に以下の付記を開示する。
(付記1) 電子装置のユーザのコンテキストを記述するコンテキストデータを得るステップと、
前記コンテキストデータをバックエンド装置へ送信するステップと、
前記バックエンド装置から命令を受信するステップであって、前記命令は、複数の関連リソースから対話型コンテンツを含む単一ユーザインタフェースを動的に生成するよう、前記電子装置に指示し、前記複数の関連リソースは、前記バックエンド装置により互いに及び前記ユーザの前記コンテキストに関連すると決定され、前記対話型動的コンテンツの特徴は、前記バックエンド装置により抽出される、ステップと、
前記単一ユーザインタフェースを動的に生成するステップと、
前記電子装置の前記ユーザに前記単一ユーザインタフェースを表示するステップと、
を有する方法。
(付記2) 前記コンテキストデータを得るステップは、前記電子装置の位置検知コンポーネントからの位置情報、前記電子装置に近接する電子ビーコンからのビーコンデータ、又は前記電子装置によりスキャンされるクイックレスポンス(QR)コードのうちの少なくとも1つを得るステップを有する、付記1に記載の方法。
(付記3) 前記複数の関連リソースは、2以上の第三機関から読み出される、付記1に記載の方法。
(付記4) 前記複数の関連リソースは、1つのウェブサービス及びインターネットに接続される1つの装置を有する、付記1に記載の方法。
(付記5) 前記1つの装置は、車両、販売時点管理端末、電気器具、監視カメラ、電気コンセント、サーモスタット、又は照明、のうちの1つを有する、付記4に記載の方法。
(付記6) 前記単一ユーザインタフェースを動的に生成するステップは、
前記バックエンド装置により抽出される前記特徴の各々を、前記単一ユーザインタフェースの部分として生成される個々の要素にマッピングするステップと、
前記対話型コンテンツを、前記複数の関連リソースの各々から、前記単一ユーザインタフェースの共通フォーマット及び共通視覚方式に組み込むステップと、
を有する、付記1に記載の方法。
(付記7) 相互作用データを生成するために、前記単一ユーザインタフェースの要素との前記ユーザの相互作用を受信するステップと、
前記単一ユーザインタフェースの前記要素に関連する前記複数の関連リソースのうちの1つのリソースに伝達されるよう、前記相互作用データを前記バックエンド装置へ送信するステップと、
を更に有する付記1に記載の方法。
(付記8) 前記バックエンド装置は、前記複数の関連リソースが互いに及び前記ユーザの前記コンテキストに関連することを決定し、
前記複数のリソースに接続し、
前記複数のリソースの各々のアプリケーションインタフェース(API)モデルを構築し、
前記複数のリソースの各々をクラスに分類し、
前記複数のリソースの各々から特徴を抽出し、
前記複数のリソースの各々について前記特徴及び前記クラスをデータベースに格納し、
前記複数のリソースのうちの2以上が関係により関連することを決定し、
前記複数のリソースのうちの前記2以上の間の前記関係を前記データベースに格納し、
互いに関連する前記複数のリソースの各々からの前記特徴のうちの少なくとも1つを結合するモデルインタフェースを生成し、
前記モデルインタフェースを前記データベースに格納し、
前記モデルインタフェースの中の特徴を含む前記複数のリソースの各々のコンテキストと、前記モデルインタフェースを関連付ける、
ことにより、前記対話型動的コンテンツの前記特徴を抽出する、
付記1に記載の方法。
(付記9) 命令を有する非一時的コンピュータ可読媒体であって、前記命令は、プロセッサにより実行されると、前記プロセッサに1又は複数の工程を実行させ又は実行を制御させるよう構成され、前記工程は、
電子装置のユーザのコンテキストを記述するコンテキストデータを得るステップと、
前記コンテキストデータをバックエンド装置へ送信するステップと、
前記バックエンド装置から命令を受信するステップであって、前記命令は、複数の関連リソースから対話型コンテンツを含む単一ユーザインタフェースを動的に生成するよう、前記電子装置に指示し、前記複数の関連リソースは、前記バックエンド装置により互いに及び前記ユーザの前記コンテキストに関連すると決定され、前記対話型動的コンテンツの特徴は、前記バックエンド装置により抽出される、ステップと、
前記単一ユーザインタフェースを動的に生成するステップと、
前記電子装置の前記ユーザに前記単一ユーザインタフェースを表示するステップと、
を有する、非一時的コンピュータ可読媒体。
(付記10) 前記コンテキストデータを得るステップは、前記電子装置の位置検知コンポーネントからの位置情報、前記電子装置に近接する電子ビーコンからのビーコンデータ、又は前記電子装置によりスキャンされるクイックレスポンス(QR)コードのうちの少なくとも1つを得るステップを有する、付記9に記載の非一時的コンピュータ可読媒体。
(付記11) 前記複数の関連リソースは、2以上の第三機関から読み出される、付記9に記載の非一時的コンピュータ可読媒体。
(付記12) 前記複数の関連リソースは、1つのウェブサービス及びインターネットに接続される1つの装置を有する、付記9に記載の非一時的コンピュータ可読媒体。
(付記13) 前記1つの装置は、車両、販売時点管理端末、電気器具、監視カメラ、電気コンセント、サーモスタット、又は照明、のうちの1つを有する、付記9に記載の非一時的コンピュータ可読媒体。
(付記14) 前記単一ユーザインタフェースを動的に生成するステップは、
前記バックエンド装置により抽出される前記特徴の各々を、前記単一ユーザインタフェースの部分として生成される個々の要素にマッピングするステップと、
前記対話型コンテンツを、前記複数の関連リソースの各々から、前記単一ユーザインタフェースの共通フォーマット及び共通視覚方式に組み込むステップと、
を有する、付記9に記載の非一時的コンピュータ可読媒体。
(付記15) 前記工程は、
相互作用データを生成するために、前記単一ユーザインタフェースの要素との前記ユーザの相互作用を受信するステップと、
前記単一ユーザインタフェースの前記要素に関連する前記複数の関連リソースのうちの1つのリソースに伝達されるよう、前記相互作用データを前記バックエンド装置へ送信するステップと、
を更に有する、付記9に記載の非一時的コンピュータ可読媒体。
(付記16) 前記バックエンド装置は、前記複数の関連リソースが互いに及び前記ユーザの前記コンテキストに関連することを決定し、
前記複数のリソースに接続し、
前記複数のリソースの各々のアプリケーションインタフェース(API)モデルを構築し、
前記複数のリソースの各々をクラスに分類し、
前記複数のリソースの各々から特徴を抽出し、
前記複数のリソースの各々について前記特徴及び前記クラスをデータベースに格納し、
前記複数のリソースのうちの2以上が関係により関連することを決定し、
前記複数のリソースのうちの前記2以上の間の前記関係を前記データベースに格納し、
互いに関連する前記複数のリソースの各々からの前記特徴のうちの少なくとも1つを結合するモデルインタフェースを生成し、
前記モデルインタフェースを前記データベースに格納し、
前記モデルインタフェースの中の特徴を含む前記複数のリソースの各々のコンテキストと、前記モデルインタフェースを関連付ける、
ことにより、前記対話型動的コンテンツの前記特徴を抽出する、
付記9に記載の非一時的コンピュータ可読媒体。
(付記17) バックエンド装置と、
電子装置と、
を有し、前記電子装置は、
ディスプレイと、
プロセッサと、
命令を有するコンピュータ可読媒体であって、前記命令は、前記プロセッサにより実行されると、前記プロセッサに、工程を実行させ又は実行を制御させ、前記工程は、
前記電子装置のユーザのコンテキストを記述するコンテキストデータを得るステップと、
前記コンテキストデータを前記バックエンド装置へ送信するステップと、
前記バックエンド装置から命令を受信するステップであって、前記命令は、複数の関連リソースからの対話型コンテンツを含む単一ユーザインタフェースを動的に生成するよう前記電子装置に指示し、前記複数の関連リソースは、互いに及び前記ユーザの前記コンテキストに関連することを前記バックエンド装置により決定され、前記対話型動的コンテンツの特徴は、前記バックエンド装置により抽出される、ステップと、
前記単一ユーザインタフェースを動的に生成するステップと、
前記電子装置の前記ディスプレイに前記単一ユーザインタフェースを表示するステップと、
を有する、コンピュータ可読媒体と、
を有する、システム。
(付記18) 前記バックエンド装置は、前記複数の関連リソースが互いに及び前記ユーザの前記コンテキストに関連することを決定し、
前記複数のリソースに接続し、
前記複数のリソースの各々のアプリケーションインタフェース(API)モデルを構築し、
前記複数のリソースの各々をクラスに分類し、
前記複数のリソースの各々から特徴を抽出し、
前記複数のリソースの各々について前記特徴及び前記クラスをデータベースに格納し、
前記複数のリソースのうちの2以上が関連することを決定し、
前記複数のリソースのうちの前記2以上の間の関係を前記データベースに格納し、
互いに関連する前記複数のリソースの各々からの前記特徴のうちの少なくとも1つを結合するモデルインタフェースを生成し、
前記モデルインタフェースを前記データベースに格納し、
前記モデルインタフェースの中の特徴を含む前記複数のリソースの各々のコンテキストと、前記モデルインタフェースを関連付ける、
ことにより、前記対話型動的コンテンツの前記特徴を抽出する、
付記17に記載のシステム。
(付記19) 前記電子装置は、前記電子装置の物理的位置を検出するセンサ、及びクイックレスポンス(QR)コードをスキャンするスキャナ、のうちの少なくとも1つを更に有する、付記17に記載のシステム。
(付記20) 前記複数の関連リソースは、2以上の第三機関から読み出される、付記17に記載のシステム。
In addition to the above embodiment, the following additional notes are disclosed.
(Supplementary Note 1) Obtaining context data describing a context of a user of an electronic device;
Transmitting the context data to a back-end device;
Receiving instructions from the back-end device, the instructions instructing the electronic device to dynamically generate a single user interface including interactive content from a plurality of related resources; Related resources are determined to be related to each other and to the context of the user by the back-end device, and features of the interactive dynamic content are extracted by the back-end device;
Dynamically generating the single user interface;
Displaying the single user interface to the user of the electronic device;
Having a method.
(Supplementary Note 2) The step of obtaining the context data includes: position information from a position detection component of the electronic device, beacon data from an electronic beacon proximate to the electronic device, or a quick response (QR) scanned by the electronic device. The method of
(Supplementary note 3) The method according to
(Supplementary note 4) The method according to
(Supplementary note 5) The method according to
(Supplementary Note 6) The step of dynamically generating the single user interface includes:
Mapping each of the features extracted by the backend device to individual elements generated as part of the single user interface;
Incorporating the interactive content from each of the plurality of related resources into a common format and common visual scheme of the single user interface;
The method according to
(Supplementary note 7) Receiving the user interaction with an element of the single user interface to generate interaction data;
Transmitting the interaction data to the back-end device to be communicated to one of the plurality of related resources associated with the element of the single user interface;
The method according to
(Supplementary Note 8) The back-end device determines that the plurality of related resources are related to each other and the context of the user;
Connect to the plurality of resources;
Building an application interface (API) model for each of the plurality of resources;
Classifying each of the plurality of resources into a class;
Extracting features from each of the plurality of resources;
Storing the feature and the class for each of the plurality of resources in a database;
Determining that two or more of the plurality of resources are related by a relationship;
Storing the relationship between the two or more of the plurality of resources in the database;
Generating a model interface that combines at least one of the features from each of the plurality of resources associated with each other;
Storing the model interface in the database;
Associating the model interface with the context of each of the plurality of resources including features in the model interface;
To extract the features of the interactive dynamic content,
The method according to
(Supplementary Note 9) A non-transitory computer-readable medium having instructions, wherein the instructions are configured to cause the processor to perform one or more steps or to control execution when executed by a processor, the steps Is
Obtaining context data describing the context of the user of the electronic device;
Transmitting the context data to a back-end device;
Receiving instructions from the back-end device, the instructions instructing the electronic device to dynamically generate a single user interface including interactive content from a plurality of related resources; Related resources are determined to be related to each other and to the context of the user by the back-end device, and features of the interactive dynamic content are extracted by the back-end device;
Dynamically generating the single user interface;
Displaying the single user interface to the user of the electronic device;
A non-transitory computer readable medium having:
(Supplementary Note 10) The step of obtaining the context data includes: position information from a position detection component of the electronic device, beacon data from an electronic beacon proximate to the electronic device, or a quick response (QR) scanned by the electronic device. The non-transitory computer readable medium of claim 9, comprising obtaining at least one of the codes.
(Supplementary note 11) The non-transitory computer-readable medium according to supplementary note 9, wherein the plurality of related resources are read from two or more third organizations.
(Supplementary note 12) The non-transitory computer-readable medium according to Supplementary note 9, wherein the plurality of related resources include one web service and one device connected to the Internet.
(Supplementary note 13) The non-transitory computer-readable medium according to Supplementary note 9, wherein the one device includes one of a vehicle, a point-of-sale terminal, an appliance, a surveillance camera, an electrical outlet, a thermostat, or a light. .
(Supplementary Note 14) The step of dynamically generating the single user interface includes:
Mapping each of the features extracted by the backend device to individual elements generated as part of the single user interface;
Incorporating the interactive content from each of the plurality of related resources into a common format and common visual scheme of the single user interface;
The non-transitory computer readable medium of claim 9, comprising:
(Supplementary Note 15)
Receiving the user interaction with an element of the single user interface to generate interaction data;
Transmitting the interaction data to the back-end device to be communicated to one of the plurality of related resources associated with the element of the single user interface;
The non-transitory computer-readable medium according to claim 9, further comprising:
(Supplementary Note 16) The back-end device determines that the plurality of related resources are related to each other and the context of the user;
Connect to the plurality of resources;
Building an application interface (API) model for each of the plurality of resources;
Classifying each of the plurality of resources into a class;
Extracting features from each of the plurality of resources;
Storing the feature and the class for each of the plurality of resources in a database;
Determining that two or more of the plurality of resources are related by a relationship;
Storing the relationship between the two or more of the plurality of resources in the database;
Generating a model interface that combines at least one of the features from each of the plurality of resources associated with each other;
Storing the model interface in the database;
Associating the model interface with the context of each of the plurality of resources including features in the model interface;
To extract the features of the interactive dynamic content,
The non-transitory computer-readable medium according to appendix 9.
(Supplementary Note 17) Back-end device,
An electronic device;
The electronic device comprises:
Display,
A processor;
A computer readable medium having instructions that, when executed by the processor, cause the processor to perform or control execution, the process comprising:
Obtaining context data describing a context of a user of the electronic device;
Transmitting the context data to the backend device;
Receiving instructions from the back-end device, the instructions instructing the electronic device to dynamically generate a single user interface including interactive content from a plurality of related resources; Related resources are determined by the backend device to be related to each other and to the user's context, and features of the interactive dynamic content are extracted by the backend device;
Dynamically generating the single user interface;
Displaying the single user interface on the display of the electronic device;
A computer-readable medium comprising:
Having a system.
(Supplementary note 18) The back-end device determines that the plurality of related resources are related to each other and to the context of the user;
Connect to the plurality of resources;
Building an application interface (API) model for each of the plurality of resources;
Classifying each of the plurality of resources into a class;
Extracting features from each of the plurality of resources;
Storing the feature and the class for each of the plurality of resources in a database;
Determining that two or more of the plurality of resources are related;
Storing a relationship between the two or more of the plurality of resources in the database;
Generating a model interface that combines at least one of the features from each of the plurality of resources associated with each other;
Storing the model interface in the database;
Associating the model interface with the context of each of the plurality of resources including features in the model interface;
To extract the features of the interactive dynamic content,
The system according to appendix 17.
(Supplementary note 19) The system according to supplementary note 17, wherein the electronic device further includes at least one of a sensor that detects a physical position of the electronic device and a scanner that scans a quick response (QR) code.
(Supplementary note 20) The system according to supplementary note 17, wherein the plurality of related resources are read from two or more third organizations.
100 システム
110 電子装置
120 バックエンド装置
130 ネットワーク
140 ビーコン
150 QRコード
160 リソース
100
Claims (20)
前記コンテキストデータをバックエンド装置へ送信するステップと、
前記バックエンド装置から命令を受信するステップであって、前記命令は、複数の関連リソースから対話型コンテンツを含む単一ユーザインタフェースを動的に生成するよう、前記電子装置に指示し、前記複数の関連リソースは、前記バックエンド装置により互いに及び前記ユーザの前記コンテキストに関連すると決定され、前記対話型動的コンテンツの特徴は、前記バックエンド装置により抽出される、ステップと、
前記単一ユーザインタフェースを動的に生成するステップと、
前記電子装置の前記ユーザに前記単一ユーザインタフェースを表示するステップと、
を有する方法。 Obtaining context data describing the context of the user of the electronic device;
Transmitting the context data to a back-end device;
Receiving instructions from the back-end device, the instructions instructing the electronic device to dynamically generate a single user interface including interactive content from a plurality of related resources; Related resources are determined to be related to each other and to the context of the user by the back-end device, and features of the interactive dynamic content are extracted by the back-end device;
Dynamically generating the single user interface;
Displaying the single user interface to the user of the electronic device;
Having a method.
前記バックエンド装置により抽出される前記特徴の各々を、前記単一ユーザインタフェースの部分として生成される個々の要素にマッピングするステップと、
前記対話型コンテンツを、前記複数の関連リソースの各々から、前記単一ユーザインタフェースの共通フォーマット及び共通視覚方式に組み込むステップと、
を有する、請求項1に記載の方法。 Dynamically generating the single user interface comprises:
Mapping each of the features extracted by the backend device to individual elements generated as part of the single user interface;
Incorporating the interactive content from each of the plurality of related resources into a common format and common visual scheme of the single user interface;
The method of claim 1, comprising:
前記単一ユーザインタフェースの前記要素に関連する前記複数の関連リソースのうちの1つのリソースに伝達されるよう、前記相互作用データを前記バックエンド装置へ送信するステップと、
を更に有する請求項1に記載の方法。 Receiving the user interaction with an element of the single user interface to generate interaction data;
Transmitting the interaction data to the back-end device to be communicated to one of the plurality of related resources associated with the element of the single user interface;
The method of claim 1 further comprising:
前記複数のリソースに接続し、
前記複数のリソースの各々のアプリケーションインタフェース(API)モデルを構築し、
前記複数のリソースの各々をクラスに分類し、
前記複数のリソースの各々から特徴を抽出し、
前記複数のリソースの各々について前記特徴及び前記クラスをデータベースに格納し、
前記複数のリソースのうちの2以上が関係により関連することを決定し、
前記複数のリソースのうちの前記2以上の間の前記関係を前記データベースに格納し、
互いに関連する前記複数のリソースの各々からの前記特徴のうちの少なくとも1つを結合するモデルインタフェースを生成し、
前記モデルインタフェースを前記データベースに格納し、
前記モデルインタフェースの中の特徴を含む前記複数のリソースの各々のコンテキストと、前記モデルインタフェースを関連付ける、
ことにより、前記対話型動的コンテンツの前記特徴を抽出する、
請求項1に記載の方法。 The backend device determines that the plurality of related resources are related to each other and the context of the user;
Connect to the plurality of resources;
Building an application interface (API) model for each of the plurality of resources;
Classifying each of the plurality of resources into a class;
Extracting features from each of the plurality of resources;
Storing the feature and the class for each of the plurality of resources in a database;
Determining that two or more of the plurality of resources are related by a relationship;
Storing the relationship between the two or more of the plurality of resources in the database;
Generating a model interface that combines at least one of the features from each of the plurality of resources associated with each other;
Storing the model interface in the database;
Associating the model interface with the context of each of the plurality of resources including features in the model interface;
To extract the features of the interactive dynamic content,
The method of claim 1.
電子装置のユーザのコンテキストを記述するコンテキストデータを得るステップと、
前記コンテキストデータをバックエンド装置へ送信するステップと、
前記バックエンド装置から命令を受信するステップであって、前記命令は、複数の関連リソースから対話型コンテンツを含む単一ユーザインタフェースを動的に生成するよう、前記電子装置に指示し、前記複数の関連リソースは、前記バックエンド装置により互いに及び前記ユーザの前記コンテキストに関連すると決定され、前記対話型動的コンテンツの特徴は、前記バックエンド装置により抽出される、ステップと、
前記単一ユーザインタフェースを動的に生成するステップと、
前記電子装置の前記ユーザに前記単一ユーザインタフェースを表示するステップと、
を有する、非一時的コンピュータ可読媒体。 A non-transitory computer readable medium having instructions configured to cause the processor to perform or control execution of one or more steps when executed by a processor, the steps comprising:
Obtaining context data describing the context of the user of the electronic device;
Transmitting the context data to a back-end device;
Receiving instructions from the back-end device, the instructions instructing the electronic device to dynamically generate a single user interface including interactive content from a plurality of related resources; Related resources are determined to be related to each other and to the context of the user by the back-end device, and features of the interactive dynamic content are extracted by the back-end device;
Dynamically generating the single user interface;
Displaying the single user interface to the user of the electronic device;
A non-transitory computer readable medium having:
前記バックエンド装置により抽出される前記特徴の各々を、前記単一ユーザインタフェースの部分として生成される個々の要素にマッピングするステップと、
前記対話型コンテンツを、前記複数の関連リソースの各々から、前記単一ユーザインタフェースの共通フォーマット及び共通視覚方式に組み込むステップと、
を有する、請求項9に記載の非一時的コンピュータ可読媒体。 Dynamically generating the single user interface comprises:
Mapping each of the features extracted by the backend device to individual elements generated as part of the single user interface;
Incorporating the interactive content from each of the plurality of related resources into a common format and common visual scheme of the single user interface;
The non-transitory computer readable medium of claim 9, comprising:
相互作用データを生成するために、前記単一ユーザインタフェースの要素との前記ユーザの相互作用を受信するステップと、
前記単一ユーザインタフェースの前記要素に関連する前記複数の関連リソースのうちの1つのリソースに伝達されるよう、前記相互作用データを前記バックエンド装置へ送信するステップと、
を更に有する、請求項9に記載の非一時的コンピュータ可読媒体。 The process includes
Receiving the user interaction with an element of the single user interface to generate interaction data;
Transmitting the interaction data to the back-end device to be communicated to one of the plurality of related resources associated with the element of the single user interface;
10. The non-transitory computer readable medium of claim 9, further comprising:
前記複数のリソースに接続し、
前記複数のリソースの各々のアプリケーションインタフェース(API)モデルを構築し、
前記複数のリソースの各々をクラスに分類し、
前記複数のリソースの各々から特徴を抽出し、
前記複数のリソースの各々について前記特徴及び前記クラスをデータベースに格納し、
前記複数のリソースのうちの2以上が関係により関連することを決定し、
前記複数のリソースのうちの前記2以上の間の前記関係を前記データベースに格納し、
互いに関連する前記複数のリソースの各々からの前記特徴のうちの少なくとも1つを結合するモデルインタフェースを生成し、
前記モデルインタフェースを前記データベースに格納し、
前記モデルインタフェースの中の特徴を含む前記複数のリソースの各々のコンテキストと、前記モデルインタフェースを関連付ける、
ことにより、前記対話型動的コンテンツの前記特徴を抽出する、
請求項9に記載の非一時的コンピュータ可読媒体。 The backend device determines that the plurality of related resources are related to each other and the context of the user;
Connect to the plurality of resources;
Building an application interface (API) model for each of the plurality of resources;
Classifying each of the plurality of resources into a class;
Extracting features from each of the plurality of resources;
Storing the feature and the class for each of the plurality of resources in a database;
Determining that two or more of the plurality of resources are related by a relationship;
Storing the relationship between the two or more of the plurality of resources in the database;
Generating a model interface that combines at least one of the features from each of the plurality of resources associated with each other;
Storing the model interface in the database;
Associating the model interface with the context of each of the plurality of resources including features in the model interface;
To extract the features of the interactive dynamic content,
The non-transitory computer readable medium of claim 9.
電子装置と、
を有し、前記電子装置は、
ディスプレイと、
プロセッサと、
命令を有するコンピュータ可読媒体であって、前記命令は、前記プロセッサにより実行されると、前記プロセッサに、工程を実行させ又は実行を制御させ、前記工程は、
前記電子装置のユーザのコンテキストを記述するコンテキストデータを得るステップと、
前記コンテキストデータを前記バックエンド装置へ送信するステップと、
前記バックエンド装置から命令を受信するステップであって、前記命令は、複数の関連リソースからの対話型コンテンツを含む単一ユーザインタフェースを動的に生成するよう前記電子装置に指示し、前記複数の関連リソースは、互いに及び前記ユーザの前記コンテキストに関連することを前記バックエンド装置により決定され、前記対話型動的コンテンツの特徴は、前記バックエンド装置により抽出される、ステップと、
前記単一ユーザインタフェースを動的に生成するステップと、
前記電子装置の前記ディスプレイに前記単一ユーザインタフェースを表示するステップと、
を有する、コンピュータ可読媒体と、
を有する、システム。 A back-end device;
An electronic device;
The electronic device comprises:
Display,
A processor;
A computer readable medium having instructions that, when executed by the processor, cause the processor to perform or control execution, the process comprising:
Obtaining context data describing a context of a user of the electronic device;
Transmitting the context data to the backend device;
Receiving instructions from the back-end device, the instructions instructing the electronic device to dynamically generate a single user interface including interactive content from a plurality of related resources; Related resources are determined by the backend device to be related to each other and to the user's context, and features of the interactive dynamic content are extracted by the backend device;
Dynamically generating the single user interface;
Displaying the single user interface on the display of the electronic device;
A computer-readable medium comprising:
Having a system.
前記複数のリソースに接続し、
前記複数のリソースの各々のアプリケーションインタフェース(API)モデルを構築し、
前記複数のリソースの各々をクラスに分類し、
前記複数のリソースの各々から特徴を抽出し、
前記複数のリソースの各々について前記特徴及び前記クラスをデータベースに格納し、
前記複数のリソースのうちの2以上が関連することを決定し、
前記複数のリソースのうちの前記2以上の間の関係を前記データベースに格納し、
互いに関連する前記複数のリソースの各々からの前記特徴のうちの少なくとも1つを結合するモデルインタフェースを生成し、
前記モデルインタフェースを前記データベースに格納し、
前記モデルインタフェースの中の特徴を含む前記複数のリソースの各々のコンテキストと、前記モデルインタフェースを関連付ける、
ことにより、前記対話型動的コンテンツの前記特徴を抽出する、
請求項17に記載のシステム。 The backend device determines that the plurality of related resources are related to each other and the context of the user;
Connect to the plurality of resources;
Building an application interface (API) model for each of the plurality of resources;
Classifying each of the plurality of resources into a class;
Extracting features from each of the plurality of resources;
Storing the feature and the class for each of the plurality of resources in a database;
Determining that two or more of the plurality of resources are related;
Storing a relationship between the two or more of the plurality of resources in the database;
Generating a model interface that combines at least one of the features from each of the plurality of resources associated with each other;
Storing the model interface in the database;
Associating the model interface with the context of each of the plurality of resources including features in the model interface;
To extract the features of the interactive dynamic content,
The system of claim 17.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/148,681 US10901756B2 (en) | 2016-05-06 | 2016-05-06 | Context-aware application |
US15/148,681 | 2016-05-06 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017201510A true JP2017201510A (en) | 2017-11-09 |
Family
ID=60242538
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017064913A Pending JP2017201510A (en) | 2016-05-06 | 2017-03-29 | Context recognition application |
Country Status (2)
Country | Link |
---|---|
US (1) | US10901756B2 (en) |
JP (1) | JP2017201510A (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170337027A1 (en) * | 2016-05-17 | 2017-11-23 | Google Inc. | Dynamic content management of a vehicle display |
US10452410B2 (en) | 2016-10-25 | 2019-10-22 | International Business Machines Corporation | Context aware user interface |
US10956136B2 (en) | 2018-10-16 | 2021-03-23 | Ebay, Inc. | User interface resource file optimization |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002342654A (en) * | 2001-05-21 | 2002-11-29 | Ichi Rei Yon Kk | Information providing system including information station device for providing map information with special service information |
US20070067420A1 (en) * | 2005-08-31 | 2007-03-22 | Kabushiki Kaisha Square Enix (Also Trading As Square Enix Co., Ltd.) | Interactive content delivery server, a method and a computer program product for interactively delivering content |
JP2007233937A (en) * | 2006-03-03 | 2007-09-13 | Doshisha | Information processing system, information processing apparatus, portable terminal and program |
US8392521B2 (en) * | 2002-10-25 | 2013-03-05 | Inria Institut National De Recherche En Informatique Et En Automatique | Device and method for managing data between communication facilities to obtain a mobile service |
JP2015060347A (en) * | 2013-09-18 | 2015-03-30 | 公立大学法人広島市立大学 | Information processing apparatus, terminal device, information processing method, and program |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002025488A2 (en) * | 2000-09-25 | 2002-03-28 | Transactions, Inc. | System and method to correlate and access related text with locations on an electronically displayed map |
US7283846B2 (en) * | 2002-02-07 | 2007-10-16 | Sap Aktiengesellschaft | Integrating geographical contextual information into mobile enterprise applications |
WO2003077079A2 (en) * | 2002-03-08 | 2003-09-18 | Enleague Systems, Inc | Methods and systems for modeling and using computer resources over a heterogeneous distributed network using semantic ontologies |
US7725530B2 (en) * | 2005-12-12 | 2010-05-25 | Google Inc. | Proxy server collection of data for module incorporation into a container document |
US8869027B2 (en) * | 2006-08-04 | 2014-10-21 | Apple Inc. | Management and generation of dashboards |
US20090164883A1 (en) * | 2007-12-19 | 2009-06-25 | Apple Inc. | Multi-Source Web Clips |
CA2720897C (en) * | 2008-04-28 | 2015-06-30 | Salesforce.Com, Inc. | Object-oriented system for creating and managing websites and their content |
US8108778B2 (en) * | 2008-09-30 | 2012-01-31 | Yahoo! Inc. | System and method for context enhanced mapping within a user interface |
US8490047B2 (en) * | 2009-01-15 | 2013-07-16 | Microsoft Corporation | Graphical mashup |
US8265658B2 (en) * | 2009-02-02 | 2012-09-11 | Waldeck Technology, Llc | System and method for automated location-based widgets |
US8812962B2 (en) * | 2009-11-12 | 2014-08-19 | Microsoft Corporation | Web service interface and querying |
US9438678B2 (en) * | 2011-03-17 | 2016-09-06 | Sears Brands, L.L.C. | Methods and systems for appliance community service management |
US8655873B2 (en) * | 2011-10-28 | 2014-02-18 | Geofeedr, Inc. | System and method for aggregating and distributing geotagged content |
US10445757B2 (en) * | 2011-11-17 | 2019-10-15 | At&T Intellectual Property I, L.P. | Promotion service |
US9372092B2 (en) * | 2014-08-08 | 2016-06-21 | Here Global B.V. | Method and apparatus for providing a contextual menu in a map display |
US9703570B2 (en) | 2014-10-01 | 2017-07-11 | Fujitsu Limited | Dynamic device drivers |
-
2016
- 2016-05-06 US US15/148,681 patent/US10901756B2/en active Active
-
2017
- 2017-03-29 JP JP2017064913A patent/JP2017201510A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002342654A (en) * | 2001-05-21 | 2002-11-29 | Ichi Rei Yon Kk | Information providing system including information station device for providing map information with special service information |
US8392521B2 (en) * | 2002-10-25 | 2013-03-05 | Inria Institut National De Recherche En Informatique Et En Automatique | Device and method for managing data between communication facilities to obtain a mobile service |
US20070067420A1 (en) * | 2005-08-31 | 2007-03-22 | Kabushiki Kaisha Square Enix (Also Trading As Square Enix Co., Ltd.) | Interactive content delivery server, a method and a computer program product for interactively delivering content |
JP2007233937A (en) * | 2006-03-03 | 2007-09-13 | Doshisha | Information processing system, information processing apparatus, portable terminal and program |
JP2015060347A (en) * | 2013-09-18 | 2015-03-30 | 公立大学法人広島市立大学 | Information processing apparatus, terminal device, information processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
US10901756B2 (en) | 2021-01-26 |
US20170322690A1 (en) | 2017-11-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101337555B1 (en) | Method and Apparatus for Providing Augmented Reality using Relation between Objects | |
KR101693631B1 (en) | System for Real estate Providing Information Using Augmented Reality | |
US20160019553A1 (en) | Information interaction in a smart service platform | |
TW201828233A (en) | Method for displaying service object and processing map data, client and server | |
US10452233B2 (en) | Information interactive platform, system and method | |
US20130051615A1 (en) | Apparatus and method for providing applications along with augmented reality data | |
US20140111542A1 (en) | Platform for recognising text using mobile devices with a built-in device video camera and automatically retrieving associated content based on the recognised text | |
JP2017041227A (en) | Shopping information providing system of augmented reality platform and control method therefor | |
EP3010245A2 (en) | Method for providing additional information related to broadcast content and electronic device implementing the same | |
US20170061511A1 (en) | Mobile device initiated concierge experience | |
US10817923B2 (en) | Information providing system, information providing apparatus, information providing method, and program | |
CN106204190B (en) | Information processing method, terminal and server | |
KR20160019707A (en) | Method and Apparatus for Providing Route Guidance using Reference Points | |
CN104604261B (en) | The system and method for service related with object are provided | |
US20190182616A1 (en) | Techniques for providing meeting location suggestions | |
JP2017201510A (en) | Context recognition application | |
JP2015176165A (en) | Cuisine price search device | |
KR102321481B1 (en) | Data sharing apparatus and control method thereof | |
US20140019378A1 (en) | Evaluation system, method, and computer-readable recording medium | |
US9462062B2 (en) | Portable terminal for displaying local service based on context awareness technology, and operation method of the portable terminal | |
KR102211453B1 (en) | system for providing shopping information | |
US20130339271A1 (en) | Evaluation system, evaluation method, and storage medium | |
KR20180079110A (en) | System and method based O2O for using and managing a restaurant | |
KR101754304B1 (en) | Method for serving point of interest and system therefor | |
US8627358B1 (en) | Location-based movie identification systems and methods |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200115 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201116 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201208 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210203 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210831 |