JP2017201510A - Context recognition application - Google Patents

Context recognition application Download PDF

Info

Publication number
JP2017201510A
JP2017201510A JP2017064913A JP2017064913A JP2017201510A JP 2017201510 A JP2017201510 A JP 2017201510A JP 2017064913 A JP2017064913 A JP 2017064913A JP 2017064913 A JP2017064913 A JP 2017064913A JP 2017201510 A JP2017201510 A JP 2017201510A
Authority
JP
Japan
Prior art keywords
resources
context
electronic device
user interface
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017064913A
Other languages
Japanese (ja)
Inventor
チェン・ウェイ−ペン
Wei-Peng Chen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JP2017201510A publication Critical patent/JP2017201510A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/52Network services specially adapted for the location of the user terminal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/28Databases characterised by their database models, e.g. relational or object models
    • G06F16/284Relational databases
    • G06F16/288Entity relationship models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/02Protocols based on web technology, e.g. hypertext transfer protocol [HTTP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/53Network services using third party service providers

Abstract

PROBLEM TO BE SOLVED: To provide a method and a system of a context recognition application for determining a plurality of resources related to context of a user and displaying them by using a single user interface.SOLUTION: A context recognition application includes: a step 605 of obtaining context data describing context of a user of an electronic device; a step 610 of transmitting the context data to a backend device; a step 615 of receiving from the backend device a command to dynamically generate a single user interface including interactive content from a plurality of related resources related to the context of the user; a step 620 of dynamically generating the single user interface; and a step of displaying the single user interface to the user of the electronic device.SELECTED DRAWING: Figure 6A

Description

本開示で議論される実施形態は、コンテキスト認識アプリケーションに関する。   Embodiments discussed in this disclosure relate to context-aware applications.

モバイル電子装置の広範な普及により、多くのユーザが様々な目的で彼らの電子装置に依存している。多くの電子装置はモバイルなので、このような電子装置が使用され得るコンテキストは大きく変化し得る。   With the widespread use of mobile electronic devices, many users rely on their electronic devices for various purposes. Since many electronic devices are mobile, the context in which such electronic devices can be used can vary greatly.

本願明細書で請求される主題は、上述のような欠点を解決する実施形態や上述のような環境でのみ作動する実施形態に限定されない。むしろ、この背景技術の章は、単に、本願明細書に記載される本開示の実施形態が実施され得る1つの例示的な技術分野を説明するために提供される。   The subject matter claimed herein is not limited to embodiments that solve the above disadvantages or that operate only in environments such as those described above. Rather, this background section is provided merely to illustrate one exemplary technical area in which embodiments of the disclosure described herein may be implemented.

1又は複数の実施形態で、本開示は、電子装置のユーザのコンテキストを記述するコンテキストデータを得るステップと、前記コンテキストデータをバックエンド装置に送信するステップと、を含み得る方法を有して良い。方法は、前記バックエンド装置から命令を受信するステップであって、該命令は、複数の関連リソースから対話型コンテンツを含む単一ユーザインタフェースを動的に生成するよう前記電子装置に指示する、ステップを更に有して良い。前記複数の関連リソースは、互いに及び前記ユーザの前記コンテキストに関連するとして、前記バックエンド装置により決定されて良い。前記対話型動的コンテンツの特徴は、前記バックエンド装置により抽出されて良い。方法は、前記単一ユーザインタフェースを動的に生成するステップと、前記単一ユーザインタフェースを前記電子装置の前記ユーザに表示するステップと、を更に有して良い。   In one or more embodiments, the present disclosure may include a method that may include obtaining context data describing a context of a user of an electronic device and transmitting the context data to a back-end device. . A method receives instructions from the backend device, the instructions instructing the electronic device to dynamically generate a single user interface that includes interactive content from a plurality of related resources. May further be included. The plurality of related resources may be determined by the back-end device as related to each other and the user's context. Features of the interactive dynamic content may be extracted by the back-end device. The method may further comprise dynamically generating the single user interface and displaying the single user interface to the user of the electronic device.

実施形態の目的及び利点が理解され、少なくとも特に特許請求の範囲で指摘された要素、特徴及び組合せを用いて達成されるだろう。   The objects and advantages of the embodiments will be understood and at least achieved using the elements, features and combinations particularly pointed out in the claims.

上述の全体的説明及び以下の詳細な説明の両方は、例を提供し及び説明のためであり、本発明の範囲を限定しない。   Both the foregoing general description and the following detailed description are exemplary and explanatory and do not limit the scope of the invention.

例示的な実施形態は、添付の図面を用いて、更なる特異性及び詳細事項と共に記載され説明される。
コンテキスト認識アプリケーションのための例示的なシステムの図である。 例示的な電子装置のブロック図である。 コンテキスト認識アプリケーションの例示的なユーザインタフェースである。 コンテキスト認識アプリケーションの更なる例示的なユーザインタフェースである。 コンテキスト認識アプリケーションの更なる例示的なユーザインタフェースである。 コンテキスト認識アプリケーションの更なる例示的なユーザインタフェースである。 コンテキスト認識アプリケーションの更なる例示的なユーザインタフェースである。 コンテキスト認識アプリケーションを利用する例示的な方法のフローチャートである。 コンテキスト認識アプリケーションを利用する例示的な方法のフローチャートである。 コンテキスト認識アプリケーションに関連するバックエンド装置の例示的な方法のフローチャートである。 コンテキスト認識アプリケーションに関連するバックエンド装置の例示的な方法のフローチャートである。
Exemplary embodiments are described and explained with additional specificity and detail through the use of the accompanying drawings in which:
FIG. 2 is an illustration of an example system for a context-aware application. 1 is a block diagram of an exemplary electronic device. 3 is an exemplary user interface for a context aware application. Figure 3 is a further exemplary user interface for a context aware application. Figure 3 is a further exemplary user interface for a context aware application. Figure 3 is a further exemplary user interface for a context aware application. Figure 3 is a further exemplary user interface for a context aware application. 2 is a flowchart of an exemplary method for utilizing a context aware application. 2 is a flowchart of an exemplary method for utilizing a context aware application. 2 is a flowchart of an exemplary method of a backend device associated with a context awareness application. 2 is a flowchart of an exemplary method of a backend device associated with a context awareness application.

本開示は、特定のコンテキストに関連する種々のリソースと相互作用するために、ユーザに単一ビューを提供する際に、ユーザの該コンテキストが考慮され得るコンテキスト認識アプリケーションに関する。例えば、ユーザの物理的位置が鉄道の駅であると決定される場合、コンテキスト認識アプリケーションは、駅にやって来る列車の位置を知るため(第1のリソースセット)、ユーザが列車の切符を購入できるため(第2のリソース)、及び近隣レストランのメニュー(第3のリソースセット)、の選択肢をユーザに提供できる。コンテキスト認識アプリケーションは、ユーザのコンテキストに関連する種々のリソースの特徴を、単一ビューでユーザに提供できる。単一ビューから、ユーザは、種々のリソースと相互作用するためにコンテキスト認識アプリケーションと相互作用して良い。   The present disclosure relates to a context-aware application in which a user's context can be considered in providing a single view to the user to interact with various resources associated with a particular context. For example, if the user's physical location is determined to be a railway station, the context-aware application knows the location of the train coming to the station (first resource set), so the user can purchase a train ticket Options of (second resource) and a menu of a neighboring restaurant (third resource set) can be provided to the user. Context-aware applications can provide a user with various resource features related to the user's context in a single view. From a single view, the user may interact with a context aware application to interact with various resources.

本願明細書で使用されるとき、用語「コンテキスト」は、ユーザが物理的位置に存在しない場合であっても、物理的位置(例えば、食料品店、バス停、緯度/経度、等)、又は物理的位置に関連付けられる何らかのタスク又は特徴(例えば、レストランのメニューからの注文、又は鉄道の駅におけるチケットの発注、バス停におけるバス運行予定のチェック、等)を表して良い。   As used herein, the term “context” refers to a physical location (eg, grocery store, bus stop, latitude / longitude, etc.) or physical, even if the user is not present at the physical location. It may represent any task or feature (eg, ordering from a restaurant menu, ordering a ticket at a railway station, checking a bus schedule at a bus stop, etc.) associated with a specific location.

本開示の実施形態を、添付の図面を参照して以下に説明する。   Embodiments of the present disclosure are described below with reference to the accompanying drawings.

図1は、本開示の1又は複数の実施形態による、コンテキスト認識アプリケーションのための例示的なシステム100の図である。システム100は、ネットワーク130を介して通信できる、電子装置110及びバックエンド装置120を有して良い。   FIG. 1 is a diagram of an example system 100 for context-aware applications in accordance with one or more embodiments of the present disclosure. The system 100 may include an electronic device 110 and a back-end device 120 that can communicate via a network 130.

電子装置110は、電子装置110のユーザのコンテキストに関するコンテキスト情報を得て良い。例えば、電子装置110の中の位置センサは、電子装置110の物理的位置を検出して良い。このような位置センサは、GPS(global positioning system)センサ、又は任意の他の位置センサを含んで良い。   The electronic device 110 may obtain context information regarding the context of the user of the electronic device 110. For example, a position sensor in the electronic device 110 may detect the physical position of the electronic device 110. Such position sensors may include a global positioning system (GPS) sensor or any other position sensor.

コンテキスト情報を得る別の例として、電子装置110は、電子装置110に隣接するビーコン140からデータを受信し又はそれに接続して良い。ビーコン140は、他の装置(例えば、電子装置110)のコンテキストを識別するために、該他の装置と通信するよう構成される任意の装置を含んで良い。ビーコン140は、電子装置110の物理的位置の検出、電子装置110の物理的位置の追跡、及び/又は電子装置110における位置に基づくイベントのトリガ、を可能にする。ビーコン140は、iBeacon(商標)、Eddystone(商標)、Seeknfind(商標)、等のような任意のビーコンプロトコルを使用して動作して良い。追加又は代替で、ビーコン140は、電子装置110と通信するために、近距離通信(near field communication:NFC)技術を用いて動作して良い。更なる例として、ビーコン140は、電子装置により使用される周波数放射(例えば、2.4ギガヘルツ(GHz)、5GHz、800−900メガヘルツ(MHz)、1700−1800MHz、等)を検出するために検知技術を使用して動作して良く、位置検出を実現するために検出された電子装置と通信して良い。   As another example of obtaining context information, the electronic device 110 may receive or connect to data from a beacon 140 adjacent to the electronic device 110. The beacon 140 may include any device that is configured to communicate with the other device to identify the context of the other device (eg, electronic device 110). The beacon 140 enables detection of the physical location of the electronic device 110, tracking of the physical location of the electronic device 110, and / or triggering events based on location in the electronic device 110. The beacon 140 may operate using any beacon protocol such as iBeacon (TM), Eddystone (TM), Seeknfind (TM), and the like. Additionally or alternatively, the beacon 140 may operate using near field communication (NFC) technology to communicate with the electronic device 110. As a further example, the beacon 140 is detected to detect frequency radiation (eg, 2.4 gigahertz (GHz), 5 GHz, 800-900 megahertz (MHz), 1700-1800 MHz, etc.) used by the electronic device. It may operate using technology and may communicate with the detected electronic device to achieve position detection.

コンテキスト情報を得る更なる例は、電子装置110がコンテキスト情報を得るためにクイックレスポンス(QR)コード150をスキャンすることを含み得る。電子装置110は、QRコード(登録商標)150を検出し又はスキャンするために、カメラ又は他の光学センサを利用して良い。QRコード150は、電子装置110にコンテキスト情報を提供して良い。例えば、QRコード150は、電子装置110の物理的位置を識別して良く、及び/又は物理的位置に関連付けられた活動へのアクセスを提供して良い。   Further examples of obtaining context information may include electronic device 110 scanning a quick response (QR) code 150 to obtain context information. The electronic device 110 may utilize a camera or other optical sensor to detect or scan the QR code 150. The QR code 150 may provide context information to the electronic device 110. For example, QR code 150 may identify the physical location of electronic device 110 and / or provide access to activities associated with the physical location.

コンテキスト情報を得た後に、電子装置110は、コンテキスト情報をバックエンド装置120へ送信して良い。バックエンド装置120は、電子装置110に命令を提供して良く、電子装置110に、互いに関連する及び電子装置110のユーザのコンテキストに関連する複数のリソース160から対話型コンテンツを含み得るユーザインタフェースを動的に生成するよう指示する。このようなユーザインタフェースは、複数のリソースの各々から特徴及び/又はコンテンツを組み込む単一ビューであって良い。命令を受信した後に、電子装置110は、ユーザインタフェースを生成し、ユーザインタフェースを電子装置110のユーザに表示して良い。ユーザインタフェースは、電子装置110のユーザが、単一インタフェースから複数のリソースと相互作用可能にできる。   After obtaining the context information, the electronic device 110 may send the context information to the backend device 120. The back-end device 120 may provide instructions to the electronic device 110 and provide a user interface that may include interactive content from a plurality of resources 160 associated with each other and associated with the user's context of the electronic device 110. Instruct to generate dynamically. Such a user interface may be a single view that incorporates features and / or content from each of a plurality of resources. After receiving the instructions, the electronic device 110 may generate a user interface and display the user interface to a user of the electronic device 110. The user interface may allow a user of electronic device 110 to interact with multiple resources from a single interface.

幾つかの実施形態では、バックエンド装置120は、複数のリソース160と通信して良い。リソースは、電子装置110のユーザに情報又はサービスを提供するよう構成される任意の装置、コンポーネント、システム、又はそれらの組合せを有して良い。例えば、リソースは、オンラインチケット発注システムのようなウェブサービス、レストランのウェブサイト、レストランのオンラインメニュー、オンラインマップ又はマップサービス、又はインターネット上で情報をホスティングする任意の他のウェブサイト、を有して良い。別の例として、リソースは、照明、コンセント、サーモスタット、監視カメラ、バス、自動車、オートバイ、電気器具(例えば、洗濯機、乾燥器、冷蔵庫、加熱炉、等)、列車、販売時点端末、又はインターネットを介して情報を受信し若しくは送信できる任意の他の装置のような、インターネットに接続される任意の装置を有して良い。図1に示すように、バックエンド装置120は、コンセント161、第1のウェブサーバ162、第2のウェブサイ3、カメラ164、バス165、乾燥器166、列車167、販売時点端末168と通信して良い。これらの各々は、リソース160のうちの1つであって良い。   In some embodiments, the backend device 120 may communicate with multiple resources 160. A resource may comprise any device, component, system, or combination thereof that is configured to provide information or services to a user of electronic device 110. For example, the resource may include a web service such as an online ticket ordering system, a restaurant website, a restaurant online menu, an online map or map service, or any other website hosting information on the Internet. good. As another example, the resources may be lighting, outlets, thermostats, surveillance cameras, buses, cars, motorcycles, appliances (eg, washing machines, dryers, refrigerators, furnaces, etc.), trains, point-of-sale terminals, or the Internet Any device connected to the Internet may be included, such as any other device that can receive or transmit information over the Internet. As shown in FIG. 1, the back-end device 120 communicates with an outlet 161, a first web server 162, a second web site 3, a camera 164, a bus 165, a dryer 166, a train 167, and a point-of-sale terminal 168. good. Each of these may be one of the resources 160.

幾つかの実施形態では、バックエンド装置120は、電子装置110に命令を提供することを実現するために、データベースを準備して良い。上述の及び他の実施形態では、データベースの構築は、トレーニング段階及び認識段階を有して良い。トレーニング段階は、所与のクラスのための基本アプリケーションプログラミングインタフェース(API)モデルを含むリソース160が分類され得るクラスを生成するステップを有して良く、新たに発見されたリソースにマッピングされ得る基本APIモデルの特徴を指定するステップを有して良い。認識段階は、新しいリソース160を分類し及び新しいリソース160の特徴を識別するために、新しいリソース160に接続するステップを有して良い。追加又は代替で、認識段階は、関連するリソース160の間の関係を識別し及び格納するステップを有して良い。追加又は代替で、認識段階は、関連リソースのグループが適用可能であり得るコンテキストを識別するステップと、コンテキストと関連リソースとの間の関係を格納するステップと、を有して良い。上述及び他の実施形態では、複数のクラス及び該クラスのための基本APIモデルが確立された後に、クラス及び基本APIモデルは、データベースに格納されて良い。   In some embodiments, the back end device 120 may prepare a database to implement providing instructions to the electronic device 110. In the above and other embodiments, database construction may include a training phase and a recognition phase. The training phase may include generating a class in which a resource 160 that includes a basic application programming interface (API) model for a given class can be classified and can be mapped to a newly discovered resource. There may be a step of specifying the characteristics of the model. The recognition phase may include connecting to the new resource 160 to classify the new resource 160 and identify the characteristics of the new resource 160. Additionally or alternatively, the recognition phase may include identifying and storing relationships between related resources 160. Additionally or alternatively, the recognition phase may include identifying a context to which a group of related resources may be applicable and storing a relationship between the context and the related resource. In the above and other embodiments, after a plurality of classes and a basic API model for the classes are established, the classes and basic API models may be stored in a database.

トレーニング段階では、バックエンド装置120は、リソースが分類され得る複数のクラスを生成して良い。クラスは、リソースのカテゴリ又はグループに共通の特徴又は特性のセットを有する1又は複数のリソースを有して良い。クラスは階層的であって良く、例えば、第1のクラスは複数のサブクラスを有して良い。幾つかの実施形態では、クラスの個々のリソースの基本APIモデルが生成されて良く、該クラスに属する他のリソースに共通である可能性の高い特徴及び/又は特性を有する。例えば、「レストラン」クラスの基本APIモデルは、「メニュー」特徴、「注文」特徴、「予約」特徴、及び「連絡」特徴を有して良い。クラスの他の例は、任意のウェブサービス(例えば、商業、図書館、輸送サービス、等)、又は「公共輸送車両」クラス(例えば、バス、鉄道、等)若しくは「契約輸送車両」クラス(例えば、タクシー又はUBER(登録商標)ドライバ)のようなインターネットに接続される任意の装置を含み得る。上述の及び他の実施形態では、クラスは、自動的に生成されて良く、又は特定のクラスの特徴及び/又は他の特徴を指定するユーザにより生成されて良い。   In the training phase, the backend device 120 may generate multiple classes into which resources can be classified. A class may have one or more resources that have a set of features or characteristics common to a category or group of resources. The classes may be hierarchical, for example, the first class may have multiple subclasses. In some embodiments, a basic API model of an individual resource of a class may be generated, having features and / or characteristics that are likely to be common to other resources belonging to the class. For example, the basic API model of the “Restaurant” class may have a “menu” feature, an “order” feature, a “reservation” feature, and a “contact” feature. Other examples of classes include any web service (eg, commercial, library, transport service, etc.), or “public transport vehicle” class (eg, bus, rail, etc.) or “contracted transport vehicle” class (eg, It may include any device connected to the Internet, such as a taxi or UBER® driver. In the above and other embodiments, the class may be generated automatically or may be generated by a user specifying a particular class of features and / or other features.

幾つかの実施形態では、種々の特長を有する基本APIモデルは、比較目的のために生成されて良い。例えば、管理者のようなバックエンド装置120のユーザは、リソースの種々のクラスのために基本APIモデルを手動で生成して良い。例えば、ユーザは、基本APIモデルを生成するために1又は複数のリソースからのAPI文書を使用することにより、「メニュー」特徴、「注文」特徴、及び「予約」特徴を有するレストランのための基本APIモデルを生成して良い。上述の及び他の実施形態では、基本APIモデル及び関連する特徴は、データベースに格納されて良い。   In some embodiments, a basic API model with various features may be generated for comparison purposes. For example, a user of backend device 120, such as an administrator, may manually generate a basic API model for various classes of resources. For example, a user can use an API document from one or more resources to generate a basic API model, thereby creating a basic for a restaurant with “menu”, “order”, and “reservation” features. An API model may be generated. In the above and other embodiments, the basic API model and associated features may be stored in a database.

上述の及び他の実施形態では、バックエンド装置120は、鉄道経路及び鉄道切符を購入するためのポータルを含むウェブサービスをホスティングして良い第1のウェブサーバ162のような、リソース160のうちの1つに接続されて良い。バックエンド装置120は、ウェブスクラッピングプロセス、ウェブクローリングプロセス、ウェブインデックス付け、又は他の同様のプロセスにより、リソース160に接続して良い。別の例として、バックエンド装置120は、列車167にアクセスするための開放ポータルのような、装置への開放ポータルを探して良い。   In the above and other embodiments, the back-end device 120 is one of the resources 160, such as a first web server 162 that may host a web service that includes a portal for purchasing rail routes and rail tickets. It may be connected to one. The backend device 120 may connect to the resource 160 by a web scraping process, web crawling process, web indexing, or other similar process. As another example, the back-end device 120 may look for an open portal to the device, such as an open portal for accessing the train 167.

リソースに接続した後に、バックエンド装置120は、リソースのためのAPIモデルを生成して良い。例えば、API文書(例えば、拡張マークアップ言語(XML)文書、スキーマ、PDF(portable document format)文書のようなAPI記述マニュアル文書、等)が利用可能である場合、バックエンド装置120は、API文書をパースして、リソースの種々の特長を特定して良い。上述の及び他の実施形態では、API文書は、リソースの種々の特徴を特定し及び識別するために、自然言語処理(natural language processing:NLP)プロセスを用いてパースされて良い。追加又は代替で、API文書は、ユーザ及び識別された種々の特長により、手動で処理されて良い。別の例として、リソースを保持するベンダ、所有者又は他のエンティティは、特定のリソースの特徴に関する指示を提供して良い。上述の及び他の実施形態では、リソース及び関連する特徴は、データベースに格納されて良い。   After connecting to the resource, the backend device 120 may generate an API model for the resource. For example, when an API document (for example, an API description manual document such as an extensible markup language (XML) document, a schema, a PDF (portable document format) document, etc.) is available, the back-end device 120 may May be used to identify various features of the resource. In the above and other embodiments, API documents may be parsed using a natural language processing (NLP) process to identify and identify various characteristics of the resource. Additionally or alternatively, the API document may be processed manually depending on the user and the various features identified. As another example, a vendor, owner, or other entity that holds a resource may provide instructions regarding the characteristics of a particular resource. In the above and other embodiments, resources and associated features may be stored in a database.

幾つかの実施形態では、バックエンド装置120は、データベースに格納されたクラスの1又は複数の基本APIモデルによるリソースの比較に基づき、所与のクラスの中のリソースを分類して良い。上述の及び他の実施形態では、比較は、(例えば、NLP処理を用いて)自動的であって良く、又は(例えば、ユーザにより若しくは比較をクラウドソーシングすることにより)手動で実行されて良い。バックエンド装置120は、リソースが基本APIモデル上で最も近くにマッピングするクラスの中のリソースを分類して良い。例えば、第1のウェブサーバ162が、「メニュー」特徴及び「注文」特徴を含んだレストランウェブサービスを運営していた場合、リソースは、「メニュー」特徴、「注文」特徴、及び「予約」特徴を含み得る「レストラン」クラスの基本APIモデルに最も近くマッピングして良い。上述の及び他の実施形態では、新しく分類されたリソースについて、リソースのリスト、及びそれらの提案される分類が、閲覧及び/又は許可のために、バックエンド装置120のユーザに提供されて良い。追加又は代替で、分類の中で適合しなかったリソースのリストが、ユーザが手動でクラスを割り当てるために及びリソースの新しいクラスを生成するために、リストで提供されて良い。幾つかの実施形態では、所与のリソースのための分類は、リソースを保持するベンダ、所有者、又は他のエンティティにより提供されて良い。   In some embodiments, the back-end device 120 may classify resources within a given class based on a comparison of resources according to one or more basic API models of classes stored in a database. In the above and other embodiments, the comparison may be automatic (eg, using NLP processing) or may be performed manually (eg, by the user or by crowdsourcing the comparison). The backend device 120 may classify resources in the class that the resource maps closest to on the basic API model. For example, if the first web server 162 operates a restaurant web service that includes a “menu” feature and an “order” feature, the resources include a “menu” feature, an “order” feature, and a “reservation” feature. May be mapped closest to the basic API model of the “restaurant” class. In the above and other embodiments, for newly classified resources, a list of resources, and their proposed classifications, may be provided to the user of backend device 120 for viewing and / or authorization. Additionally or alternatively, a list of resources that did not fit in the classification may be provided in the list for the user to manually assign a class and to generate a new class of resources. In some embodiments, the classification for a given resource may be provided by the vendor, owner, or other entity that holds the resource.

幾つかの実施形態では、新しく発見されたリソース(例えば、第1のウェブサーバ162)のAPIモデルの中で識別された特徴は、データベースの中のリソースの特徴にマッピングされて良い。例えば、リソースの中の「メニュー閲覧」特徴は、基本APIモデルの「メニュー」特徴にマッピングして良い。このようなマッピングは、「メニュー閲覧」特徴及び「メニュー」特徴の自動比較に基づいて良く、又は「メニュー閲覧」特徴を「メニュー」特徴にマッピングするユーザ入力に基づいて良い。例えば、マッピングは、特徴のリスト及び可能なマッピングがマッピングするためにユーザに提供され得るように、クラウドソーシングされて良い。或いは、特徴のリスト及び提案マッピングが、確認のためにユーザに提供されて良い。上述の及び他の実施形態では、マッピングは、同様の又は同一の関数を実行する別のリソースの特徴を識別して良い。   In some embodiments, the features identified in the API model of the newly discovered resource (eg, first web server 162) may be mapped to the resource features in the database. For example, a “menu browsing” feature in a resource may be mapped to a “menu” feature in a basic API model. Such mapping may be based on an automatic comparison of “menu browsing” and “menu” features, or may be based on user input mapping “menu browsing” features to “menu” features. For example, the mapping may be crowdsourced so that a list of features and possible mappings can be provided to the user for mapping. Alternatively, a list of features and a suggestion mapping may be provided to the user for confirmation. In the above and other embodiments, the mapping may identify features of other resources that perform similar or identical functions.

データベースを準備する認識段階は、関連するリソース160の間の関係を識別し及び格納するステップを有して良い。関連するリソースの識別は、関連し得る多数のリソースを提供するリソースを保持するベンダ、所有者、又は他のエンティティを含んで良い。例えば、配達オプションを有するレストランは、レストランからの注文システムのリソース、及び食べ物が配達されるときの配達ドライバ若しくは車両の物理的位置のリソース、を有して良い。別の例として、市が、関連リソースとして、バス運行予定リソース、バス切符注文リソース、及びバスの物理的位置を識別して良い。追加又は代替で、関連リソースを識別するステップは、ユーザがリソース間の関係を識別する又は提案するステップを有して良い。例えば、モールにいるユーザは、対話型モールマップリソースに関連するとして、商人の注文システム及び在庫リソースを識別して良い。別の例として、ユーザは、バス停マップリソースに関連するとして、近隣レストランリソースを識別して良い。幾つかの実施形態では、近隣リソースがユーザのアクセスしている若しくは閲覧しているリソースに関連し得る場合、電子装置110は、電子装置110のユーザに知らせて(prompt)良い。上述の及び他の実施形態では、リソース間の関係は、データベースに格納されて良い。   The recognition phase of preparing the database may include identifying and storing relationships between related resources 160. Identification of related resources may include a vendor, owner, or other entity that holds resources that provide a number of resources that may be related. For example, a restaurant with delivery options may have ordering system resources from the restaurant and resources of the delivery driver or vehicle's physical location when the food is delivered. As another example, a city may identify bus scheduling resources, bus ticket ordering resources, and physical locations of buses as related resources. Additionally or alternatively, identifying related resources may include a user identifying or suggesting relationships between resources. For example, a user at a mall may identify the merchant's ordering system and inventory resources as being associated with an interactive mall map resource. As another example, a user may identify neighboring restaurant resources as being associated with a bus stop map resource. In some embodiments, the electronic device 110 may prompt the user of the electronic device 110 if neighboring resources may be related to the resource that the user is accessing or browsing. In the above and other embodiments, the relationships between resources may be stored in a database.

幾つかの実施形態では、データベースを準備する認識段階は、関連リソースのグループが適用可能であり得るコンテキストを識別するステップを有して良い。例えば、ユーザが、レストランに関連付けられた1又は複数のリソースを有する物理的なレストランに物理的に近くにいるとき、該レストランに関連付けられた該リソース及び該レストランに関連付けられた任意のリソースは、該コンテキストを伴う関係を有して良い。別の例として、ユーザがQRコードをスキャンするとき、関連リソースが存在し得る(例えば、QRコードを有するバス停は、バス運行予定及び切符購入のリソース、及びタクシーサービスリソースに関連して良い)。コンテキストとリソースとの間の関係は、リソースが関連し得るコンテキストを提供するリソースを保持するベンダ、所有者、又は他のエンティティに基づいて良く、又はリソースが関連し得るコンテキストを識別するユーザを有して良い。例えば、電子装置110のユーザは、1又は複数の近隣リソースがユーザの位置に関するか否かを示すよう促されて良い。例えば、近隣リソースがユーザの位置に関することを確認するために、ダイアログボックス又はプロンプトが、電子装置110のユーザに提供されて良い。上述の及び他の実施形態では、コンテキストとリソース又は関連リソースのグループとの間の関係は、データベースに格納されて良い。   In some embodiments, the recognizing stage of preparing the database may include identifying contexts where a group of related resources may be applicable. For example, when a user is physically close to a physical restaurant that has one or more resources associated with a restaurant, the resource associated with the restaurant and any resource associated with the restaurant are: You may have a relationship with the context. As another example, when a user scans a QR code, there may be associated resources (eg, a bus stop with a QR code may be associated with bus schedule and ticket purchase resources, and taxi service resources). The relationship between a context and a resource can be based on the vendor, owner, or other entity that holds the resource that provides the context with which the resource can be related, or has a user that identifies the context with which the resource can be related. You can do it. For example, the user of electronic device 110 may be prompted to indicate whether one or more neighboring resources are related to the user's location. For example, a dialog box or prompt may be provided to the user of the electronic device 110 to confirm that neighboring resources are related to the user's location. In the above and other embodiments, the relationship between a context and a resource or group of related resources may be stored in a database.

幾つかの実施形態では、バックエンド装置120は、少なくとも2つの異なるリソースからの特徴を含む単一ビューを有し得るモデルグラフィカルユーザインタフェースの中に、2以上の関連リソースからの特徴を組合せて良い。例えば、インタフェースは、レストランの「メニュー」特徴及び「予約」特徴、並びに近隣映画館の関連「映画リスト」リソースを有して良い。上述の及び他の実施形態では、種々の関連リソースからの特徴は、ウインドウ、ボタン、タグ、フレーム、等のような、単一ビューの視覚的要素にマッピングされて良い。上述の及び他の実施形態では、モデルグラフィカルユーザインタフェースは、データベースに格納されて良い。追加又は代替で、特定の関数又は視覚的要素へのマッピングは、データベースに格納されて良く、電子装置110は、視覚的要素及び/又はモデルグラフィカルユーザインタフェースに基づきユーザインタフェースを動的に生成するロジックを有して良い。幾つかの実施形態では、動的に生成されるユーザインタフェースは、共通フォーマットで及び共通視覚方式を用いて、表示されて良い。例えば、対応するリソースが規定で異なるフォーマットを利用し得る場合でも、フォント、色、ボタン、タグ、フレーム等の共通セットが利用されて良い。   In some embodiments, the back-end device 120 may combine features from two or more related resources in a model graphical user interface that may have a single view that includes features from at least two different resources. . For example, the interface may have restaurant “menu” and “reservation” features, as well as associated “movie list” resources for nearby theaters. In the above and other embodiments, features from various related resources may be mapped to a single view of visual elements, such as windows, buttons, tags, frames, etc. In the above and other embodiments, the model graphical user interface may be stored in a database. In addition or alternatively, the mapping to a specific function or visual element may be stored in a database, and the electronic device 110 may dynamically generate a user interface based on the visual element and / or the model graphical user interface. You may have. In some embodiments, the dynamically generated user interface may be displayed in a common format and using a common visual scheme. For example, a common set of fonts, colors, buttons, tags, frames, etc. may be used even if the corresponding resource can use a different format by definition.

本開示の範囲から逸脱することなく図1に対し変更、追加又は省略が行われても良い。例えば、システム100は、本開示で示され説明されたものより多くの又は少ない要素を有しても良い。例えば、システム100は、図示のものに加えて、任意の数の又は種類の又は種々のリソース160を含んで良い。別の例として、システム100は、ビーコン140及びQRコード150に加えてコンテキストを提供する任意の数の又は種類の又は種々のコンポーネントを有して良い。追加の例として、任意のリソース160は、ネットワーク130を介してバックエンド装置120と通信して良い。更なる例として、リソース160のうちの任意のものは、バックエンド装置120に加えて又はそれに代えて、電子装置110と直接通信して良い。   Modifications, additions, or omissions may be made to FIG. 1 without departing from the scope of the present disclosure. For example, the system 100 may have more or fewer elements than those shown and described in this disclosure. For example, the system 100 may include any number or type or various resources 160 in addition to those shown. As another example, system 100 may include any number or type or various components that provide context in addition to beacon 140 and QR code 150. As an additional example, optional resource 160 may communicate with backend device 120 via network 130. As a further example, any of the resources 160 may communicate directly with the electronic device 110 in addition to or instead of the back-end device 120.

図2は、本開示の1又は複数の実施形態による、例示的な電子装置200の図である。例えば、図1の電子装置110及び/又はバックエンド装置120は、電子装置200として実装されて良い。別の例として、リソース160のうちの1又は複数は、電子装置200として実装されて良い。   FIG. 2 is a diagram of an example electronic device 200 in accordance with one or more embodiments of the present disclosure. For example, the electronic device 110 and / or the back-end device 120 of FIG. 1 may be implemented as the electronic device 200. As another example, one or more of the resources 160 may be implemented as the electronic device 200.

電子装置200は、プロセッサ210、メモリ220、データ記憶装置230、通信コンポーネント240、位置センサ250、スキャニング装置260、及びディスプレイ270を有して良い。プロセッサ210、メモリ220、データ記憶装置230、通信コンポーネント240、位置センサ250、スキャニング装置260、及び/又はディスプレイ270は、コンポーネントの各々が互いに通信できるように、全て通信可能に結合されて良い。電子装置200は、本開示に記載の動作のうちの任意の動作を実行し又は実行を制御して良い。   The electronic device 200 may include a processor 210, a memory 220, a data storage device 230, a communication component 240, a position sensor 250, a scanning device 260, and a display 270. The processor 210, memory 220, data storage device 230, communication component 240, position sensor 250, scanning device 260, and / or display 270 may all be communicatively coupled such that each of the components can communicate with each other. The electronic device 200 may perform or control execution of any of the operations described in this disclosure.

概して、プロセッサ210は、任意の適切な特定用途向け又は汎用コンピュータ、コンピューティングエンティティ、又は種々のコンピュータハードウェア若しくはソフトウェアモジュールを有しても良く、任意の適切なコンピュータ可読媒体に格納された命令を実行するよう構成され得る処理装置を用いて実施されても良い。例えば、プロセッサ210は、マイクロプロセッサ、マイクロコントローラ、デジタシグナルプロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)又はプログラム命令を解釈し及び/若しくは実行し並びに/又はデータを処理するよう構成された任意の他のデジタル若しくはアナログ回路を有しても良い。図2には単一のプロセッサを示したが、プロセッサ210は、本開示で説明される任意の数の工程を個々に又は共同で実行する又は実行を制御するよう構成される任意の数のプロセッサを有して良い。   In general, the processor 210 may comprise any suitable special purpose or general purpose computer, computing entity, or various computer hardware or software modules that execute instructions stored on any suitable computer readable medium. It may be implemented using a processing device that may be configured to perform. For example, the processor 210 may interpret and / or execute a microprocessor, microcontroller, digital signal processor (DSP), application specific integrated circuit (ASIC), field programmable gate array (FPGA) or program instructions and / or data. Any other digital or analog circuitry configured to process the may be included. Although a single processor is shown in FIG. 2, processor 210 may be any number of processors configured to perform or control the execution of any number of steps described in this disclosure individually or jointly. You may have.

幾つかの実施形態では、プロセッサ210は、プログラム命令を解釈し及び/又は実行し、及び/又はメモリ220、データ記憶230又はメモリ220及びデータ記憶装置230に格納されたデータを処理して良い。幾つかの実施形態では、プロセッサ210は、データ記憶装置230からプログラム命令をフェッチし、該プログラム命令をメモリ220にロードしても良い。プログラム命令がメモリ220にロードされた後、プロセッサ210は該プログラム命令を実行しても良い。   In some embodiments, processor 210 may interpret and / or execute program instructions and / or process data stored in memory 220, data store 230 or memory 220 and data store 230. In some embodiments, processor 210 may fetch program instructions from data storage device 230 and load the program instructions into memory 220. After the program instructions are loaded into the memory 220, the processor 210 may execute the program instructions.

メモリ220及びデータ記憶装置230は、コンピュータ実行可能命令又はデータ構造を伝える又は格納しているコンピュータ可読記憶媒体を含み得る。このようなコンピュータ可読媒体は、プロセッサ210のような汎用又は特定目的コンピュータによりアクセスできる任意の利用可能な媒体を含み得る。例として、このようなコンピュータ可読記憶媒体は、RAM、ROM、EEPROM、CD−ROM又は他の光ディスク記憶装置、磁気ディスク記憶装置又は他の磁気記憶装置、フラッシュメモリ装置(例えば、固体メモリ素子)を含む有形又は非一時的コンピュータ可読記憶媒体、又はコンピュータにより実行可能な命令若しくはデータ構造の形式で所望のプログラムコード手段を伝える若しくは格納するために用いられ汎用若しくは特定目的コンピュータによりアクセス可能な他の記憶媒体を有し得る。上述の組合せも、コンピュータ可読記憶媒体の範囲に包含され得る。コンピュータ実行可能命令は、例えば、プロセッサ210に特定の工程又は工程のグループを実行させ又は実行を制御させるよう構成される命令及びデータを含み得る。   Memory 220 and data storage device 230 may include computer-readable storage media that carry or store computer-executable instructions or data structures. Such computer-readable media can include any available media that can be accessed by a general purpose or special purpose computer such as processor 210. By way of example, such computer readable storage media include RAM, ROM, EEPROM, CD-ROM or other optical disk storage devices, magnetic disk storage devices or other magnetic storage devices, flash memory devices (eg, solid state memory devices). Including tangible or non-transitory computer readable storage media or other storage accessible to a general purpose or special purpose computer used to convey or store the desired program code means in the form of computer-executable instructions or data structures It can have a medium. Combinations of the above can also be included within the scope of computer-readable storage media. Computer-executable instructions may include, for example, instructions and data configured to cause processor 210 to perform a particular process or group of processes or to control execution.

通信コンポーネント240は、(例えば、図1のネットワーク130を介して通信することにより)装置200と別の装置との間の通信を可能にし又は助けるよう構成される任意の装置、システム、コンポーネント、又はコンポーネントの集合を有して良い。例えば、通信コンポーネント240は、モデム、ネットワークカード(無線又は有線)、赤外線通信装置、光通信装置、(アンテナのような)無線通信装置、及び/又は(Bluetooth(登録商標)装置、802.6装置(例えば、MAN(Metropolitan Area Network))、WiFi装置、WiMax装置、セルラ通信設備、等のような)チップセット、及び/又は同様のものを含み得る。通信コンポーネント240は、少数の例を挙げると、セルラネットワーク、WiFiネットワーク、MAN、等のような(ネットワーク130を含む)任意のネットワーク、及び/又はリモート装置を含む本開示に記載される任意の他の装置と、データを交換させることができる。上述のうちの任意のものの組合せも、通信コンポーネント240の範囲に包含され得る。   Communication component 240 may be any device, system, component, or device configured to enable or assist communication between device 200 and another device (eg, by communicating via network 130 of FIG. 1). You may have a set of components. For example, the communication component 240 may be a modem, a network card (wireless or wired), an infrared communication device, an optical communication device, a wireless communication device (such as an antenna), and / or a (Bluetooth) device, an 802.6 device. It may include a chipset (e.g., MAN (Metropolitan Area Network)), WiFi device, WiMax device, cellular communication facility, etc.) and / or the like. Communication component 240 may be any network (including network 130) such as a cellular network, a WiFi network, a MAN, etc., and / or any other described in this disclosure including remote devices, to name a few examples. Can exchange data with other devices. Combinations of any of the above can also be included within the scope of communication component 240.

位置センサ250は、電子装置200の物理的位置を決定し及び決定を実現するよう構成される任意の装置、システム、コンポーネント、又はコンポーネントの集合を有して良い。例えば、位置センサ250は、GPS(global positioning service)センサ、近接センサ、加速度センサ、動きセンサ、ジャイロスコープ、コンパス、等を含み得る。追加又は代替で、位置センサ250は、通信コンポーネント240又は電子装置200の他のコンポーネントを利用して近隣物理コンポーネントを決定し及び物理的位置を推定するソフトウェアルーチン又は命令セットを含み得る。例えば、位置センサ250は、3つの最近接セルラ電話塔を決定し及び物理的位置を推定して良く、或いは、通信コンポーネント240が接続されるWiFiホットスポットを決定し及び物理的位置を推定して良い。幾つかの実施形態では、位置センサ250は、(図1のビーコン140のような)ビーコンと通信して、電子装置200の位置を検知するよう構成されて良い。上述のうちの任意のものの組合せも、位置センサ250の範囲に包含され得る。   The position sensor 250 may comprise any device, system, component, or collection of components that is configured to determine the physical position of the electronic device 200 and to implement the determination. For example, the position sensor 250 may include a global positioning service (GPS) sensor, a proximity sensor, an acceleration sensor, a motion sensor, a gyroscope, a compass, and the like. Additionally or alternatively, the position sensor 250 may include a software routine or set of instructions that utilizes the communication component 240 or other components of the electronic device 200 to determine neighboring physical components and estimate the physical position. For example, the position sensor 250 may determine three closest cellular telephone towers and estimate the physical location, or determine the WiFi hotspot to which the communication component 240 is connected and estimate the physical location. good. In some embodiments, the position sensor 250 may be configured to communicate with a beacon (such as the beacon 140 of FIG. 1) to detect the position of the electronic device 200. Combinations of any of the above can also be included within the scope of the position sensor 250.

スキャニング装置260は、画像をスキャンするよう構成される任意の装置、システム、コンポーネント、又はコンポーネントの集合(例えば、カメラ)を有して良い。例えば、スキャニング装置260は、例えば、レンズ、フィルタ、ホログラム、スプリッタ等のような光学要素、及び画像が記録され得る画像センサを有して良い。このような画像センサは、入射光により表される画像を電子信号に変換する任意の装置を有して良い。画像センサは、ピクセル配列(例えば、ピクセル素子の格子)に配置され得る複数のピクセル素子を有して良い。例えば、画像センサは、電荷結合素子(CCD)又は相補型金属酸化物半導体(CMOS)センサを有して良い。種々の他のコンポーネントも、スキャニング装置260に含まれて良い。ピクセル配列は、1:1、4:3、5:4、3:2、16:9、10:7、6:5、9:4、17:6等又は任意の他の比のアスペクト比を有する2次元配列を有して良い。画像センサは、ピクセル配列に集光する又は光を処理する1又は複数の光学要素、例えばレンズに光学的に揃えられて良い。幾つかの実施形態では、スキャニング装置260は、QRコード又は情報を伝達する他の視覚的要素の中でスキャンするよう構成されて良い。このような情報は、電子装置200の位置、リソース、コンテキスト、等を伝達して良い。上述のうちの任意のものの組合せも、スキャニング装置260の範囲に包含され得る。   Scanning device 260 may comprise any device, system, component, or collection of components (eg, a camera) that is configured to scan an image. For example, the scanning device 260 may include, for example, optical elements such as lenses, filters, holograms, splitters, and the like, and image sensors that can record images. Such an image sensor may include any device that converts an image represented by incident light into an electronic signal. An image sensor may include a plurality of pixel elements that may be arranged in a pixel array (eg, a grid of pixel elements). For example, the image sensor may comprise a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS) sensor. Various other components may also be included in the scanning device 260. Pixel arrays can have aspect ratios of 1: 1, 4: 3, 5: 4, 3: 2, 16: 9, 10: 7, 6: 5, 9: 4, 17: 6, etc. or any other ratio It may have a two-dimensional array. The image sensor may be optically aligned with one or more optical elements, such as lenses, that focus on the pixel array or process the light. In some embodiments, the scanning device 260 may be configured to scan among QR codes or other visual elements that convey information. Such information may convey the location, resources, context, etc. of the electronic device 200. Combinations of any of the above can also be included within the scope of the scanning device 260.

ディスプレイ270は、情報を視覚的に示すよう構成される任意のコンポーネント、装置、システム、又はそれらの組合せを有しても良い。ディスプレイ270は、陰極線管(CRT)、液晶ディスプレイ(LCD)、薄膜トランジスタLCD、プラズマディスプレイ、1又は複数の発光ダイオード(LED)、1又は複数の有機LED、1又は複数の電球、ドットマトリックスディスプレイ、真空蛍光ディスプレイ、捻れネマティック効果LCD、超捻れネマティック効果LCD、電子ペーパ(例えば、電気泳動ディスプレイ、エレクトロウェッティングディスプレイ、電気流体ディスプレイ、分岐干渉変調器ディスプレイ)、等を含み得る。ディスプレイ270は、任意のフォーマット又は構造で情報を表示して良い。例えば、ディスプレイ270は、モニタ、スクリーン、光パネル、等として実装されて良い。ディスプレイ270は、スタンドアロンディスプレイとして、又は別の装置若しくはシステムのサブパート若しくはコンポーネントとして実装されて良い。ディスプレイ270は、3次元ディスプレイ、タッチスクリーン制御、方向ディスプレイ制御(例えば、ディスプレイ270の閲覧角度変動)、等のような任意の二次的特徴を有して良い。上述のうちの任意のものの組合せも、ディスプレイ270の範囲に包含され得る。   Display 270 may include any component, device, system, or combination thereof that is configured to visually display information. The display 270 is a cathode ray tube (CRT), liquid crystal display (LCD), thin film transistor LCD, plasma display, one or more light emitting diodes (LED), one or more organic LEDs, one or more bulbs, a dot matrix display, a vacuum Fluorescent displays, twisted nematic effect LCDs, super twisted nematic effect LCDs, electronic paper (eg, electrophoretic displays, electrowetting displays, electrofluidic displays, interferometric modulator displays), and the like. Display 270 may display information in any format or structure. For example, the display 270 may be implemented as a monitor, a screen, an optical panel, or the like. Display 270 may be implemented as a stand-alone display or as a subpart or component of another device or system. Display 270 may have any secondary characteristics such as a three-dimensional display, touch screen control, directional display control (eg, viewing angle variation of display 270), and so on. Combinations of any of the above can also be included within the scope of display 270.

本開示の範囲から逸脱することなく図2に対し変更、追加又は省略が行われても良い。例えば、装置200は、本開示で示され説明されたものより多くの又は少ない要素を有しても良い。例えば、装置200は、メモリ220、データ記憶装置230、位置センサ250、スキャニング装置260、及び/又はディスプレイ270、又はそれらの任意の組合せを量酌して良い。   Changes, additions, or omissions may be made to FIG. 2 without departing from the scope of the present disclosure. For example, the apparatus 200 may have more or fewer elements than those shown and described in this disclosure. For example, device 200 may weigh memory 220, data storage device 230, position sensor 250, scanning device 260, and / or display 270, or any combination thereof.

図3Aは、本開示の1又は複数の実施形態による、コンテキスト認識アプリケーションの例示的なユーザインタフェース300aである。例えば、ユーザインタフェース300aは、ディスプレイ(例えば、図2のディスプレイ270)に表示されて良く、及び/又はユーザがバス停でQRコードをスキャンした後に動的に生成されて良い。   FIG. 3A is an exemplary user interface 300a of a context-aware application according to one or more embodiments of the present disclosure. For example, user interface 300a may be displayed on a display (eg, display 270 of FIG. 2) and / or dynamically generated after the user scans a QR code at a bus stop.

ユーザインタフェース300aは、ユーザのコンテキスト、つまりユーザが特定のバス停にいることに基づき、バス運行予定のリソースに関連する情報を表示して良い。例えば、ユーザインタフェース300aは、特定のバス停を使用するバス路線を表示して良く、次のバスがそれらの路線の各々について到着する予定であるときを識別して良い。幾つかの実施形態では、時間は、バス停に到着する次のバスの各々に関連するGPSロケータの追加リソースに基づいて良い。   The user interface 300a may display information related to the bus schedule resource based on the user context, that is, the user is at a specific bus stop. For example, the user interface 300a may display bus routes that use a particular bus stop and may identify when the next bus is scheduled to arrive for each of those routes. In some embodiments, the time may be based on additional resources of the GPS locator associated with each of the next buses arriving at the bus stop.

幾つかの実施形態では、グラフィカルユーザインタフェース300aを閲覧しているユーザは、追加情報を要求するためにグラフィカルユーザインタフェース300aと相互作用して良く、又はグラフィカルユーザインタフェース300aにより提示されるリソースと相互作用して良い。例えば、ユーザは、バス路線のうちの1つ(例えば、路線337)を選択して良く、該リソースに関連付けられた追加情報又はリソースを提供されて良い(例えば、ユーザは、図3Bに示すユーザインタフェース300bを提示されて良い)。   In some embodiments, a user viewing the graphical user interface 300a may interact with the graphical user interface 300a to request additional information or interact with resources presented by the graphical user interface 300a. You can do it. For example, the user may select one of the bus routes (eg, route 337) and be provided with additional information or resources associated with the resource (eg, the user is shown in FIG. 3B). Interface 300b may be presented).

さらに、図3Aに示すように、ユーザインタフェース300aは、近隣劇場、近隣レストラン、及び近隣図書館のような、他の近隣サービスへの参照又はリンクを含んで良い。追加サービス及び関連リソースは、近隣サービスのうちの1又は複数を選択するためにユーザインタフェース300aと相互作用する(又はより具体的には、ユーザインタフェース300aに含まれる該近隣サービスへの参照又はリンクのうちの1つを選択する)ことによりアクセスされて良い。   Further, as shown in FIG. 3A, the user interface 300a may include references or links to other neighborhood services, such as neighborhood theaters, neighborhood restaurants, and neighborhood libraries. Additional services and associated resources interact with the user interface 300a to select one or more of the neighboring services (or more specifically, references or links to the neighboring services included in the user interface 300a). By selecting one of them).

幾つかの実施形態では、ユーザのコンテキストは、ユーザがコンテキストを変更するときバックエンド装置へ送信されて良く、ユーザインタフェース300aは、ユーザのコンテキストの変更に基づき更新又は変更されて良い。例えば、ユーザがバスに乗車していた場合、コンテキスト及びユーザに表示されるサービスは、バスに乗っているユーザのコンテキスト又は(ユーザが目的地に入った場合、又は同じバス停で頻繁に降りる場合)バスからのユーザの目的地のコンテキストに基づきシフトして良い。別の例として、ユーザがタクシーを拾っていた場合、タクシーが異なる場所を通り走行するとき、コンテキストは、タクシーの位置に基づき、周期的に又は絶えず更新して良い。   In some embodiments, the user's context may be sent to the backend device when the user changes the context, and the user interface 300a may be updated or changed based on the user's context change. For example, if the user is on a bus, the context and the service displayed to the user will be the context of the user on the bus or (if the user enters the destination or frequently gets off at the same bus stop) The shift may be based on the user's destination context from the bus. As another example, if the user has picked up a taxi, the context may be updated periodically or constantly based on the taxi's location as the taxi travels through different locations.

幾つかの実施形態では、追加サービスが、電子装置のコンテキスト情報以外の情報に基づき、ユーザに提案され又は表示されて良い。例えば、電子装置からの情報及び/又は1日のうちの時間を識別するステップは、種々のサービスを選択する及び/又は表示する基礎の部分を形成して良い。幾つかの実施形態では、ユーザにより選択されたサービス及び何時の履歴は、バックエンド装置に格納され、種々のサービスを選択し及び/又は表示するために使用されて良い。例えば、特定のユーザが帰宅途中の大抵の夕方にテイクアウトを注文する場合、ユーザのコンテキストが彼らは間もなく帰宅する又は帰宅途中であることを示すとき、表示されるサービスは、ユーザがテイクアウトを注文できるレストランサービスを有して良い。   In some embodiments, additional services may be suggested or displayed to the user based on information other than the context information of the electronic device. For example, identifying information from the electronic device and / or time of day may form the basis for selecting and / or displaying various services. In some embodiments, the service selected by the user and the time history may be stored on the backend device and used to select and / or display various services. For example, if a particular user orders a takeout on the evening most of the way home, the displayed service will allow the user to order a takeout when the user's context indicates that they are coming home soon or on the way home May have restaurant service.

幾つかの実施形態では、バックエンド装置は、概して任意のユーザにより行われる選択の履歴を監視し及び保持して良い。したがって、例えば、サービスを表示するとき、サービスは、所与のコンテキストの中で最も人気のあるサービスに又は一般に最も頻繁に若しくは1日のうちの特定の時間に利用されるサービスに基づき、順序付けられて良い。   In some embodiments, the back-end device may monitor and maintain a history of selections that are generally made by any user. Thus, for example, when displaying services, the services are ordered based on the most popular services in a given context or generally the services that are most often used or at a particular time of day. Good.

図3Bは、本開示の1又は複数の実施形態による、コンテキスト認識アプリケーションの更なる例示的なユーザインタフェース300bである。例えば、ユーザインタフェース300bは、図3Aのユーザインタフェース300aからバス路線337を選択して後に、ユーザが何を提示され得るかの一例を示し得る。   FIG. 3B is a further exemplary user interface 300b of a context-aware application according to one or more embodiments of the present disclosure. For example, the user interface 300b may show an example of what the user can be presented after selecting the bus route 337 from the user interface 300a of FIG. 3A.

ユーザインタフェース300bは、337バス路線の次のバスの到着時間、及びバスの位置の地図を有して良い。到着時間、次の3個のバス停、等は、バス運行予定リソースに基づいて良く、地図は、インターネットに基づく地図リソースから導出されて良い。地図上のバスの位置は、バスの位置決めリソースに基づいて良い。   The user interface 300b may include a map of the arrival time of the next bus on the 337 bus route and the location of the bus. The arrival time, the next three bus stops, etc. may be based on a scheduled bus service resource, and the map may be derived from a map resource based on the Internet. The location of the bus on the map may be based on bus positioning resources.

さらに、ユーザインタフェース300bは、追加関連リソースからの追加情報を有して良い。例えば、バックエンド装置(例えば、図1のバックエンド装置120)は、Uber(登録商標)リソース及びタクシーサービスリソースを、バス路線リソースに関連付けて良い。関連リソース(例えば、Uber(登録商標)リソース及びタクシーサービスリソース)は、ユーザインタフェース300bに含まれて良い。例えば、このようなリソースを使用するためのコスト差、及び目的地における到着時間の差は、ユーザインタフェース300bに含まれて良い。追加又は代替で、ユーザは、バスを待っているのではなく、Uber(登録商標)ピックアップを要求するような関連リソースに関連付けられた切符/サービスを購入するためのオプションを提示されて良い。   Further, the user interface 300b may have additional information from additional related resources. For example, a back-end device (eg, back-end device 120 of FIG. 1) may associate Uber® resources and taxi service resources with bus route resources. Related resources (eg, Uber® resources and taxi service resources) may be included in the user interface 300b. For example, the cost difference for using such resources and the difference in arrival time at the destination may be included in the user interface 300b. Additionally or alternatively, the user may be presented with an option to purchase a ticket / service associated with the associated resource, such as requesting a Uber® pickup, rather than waiting for a bus.

上述の及び他の実施形態では、ユーザインタフェース300bは、単一ビューの中に及び共通視覚方式を用いて、種々のリソースに関連付けられた情報の一部又は全部を提示して良い。例えば、タクシーサービスの伝統的なウェブページは1つのフォントを使用し得るが、タクシーサービスリソースに関連する情報は、共通ビューの中で及びバス路線に関連するバス情報と共通の視覚的方式で表示されて良い(例えば、タクシーサービス情報は、伝統的なタクシーサービスウェブページと異なるフォントで、及びバス情報と同じフォントで、表示されて良い)。   In the above and other embodiments, the user interface 300b may present some or all of the information associated with various resources in a single view and using a common vision scheme. For example, a traditional taxi service web page may use a single font, but information related to taxi service resources is displayed in a common visual manner in a common view and with bus information related to bus routes. (Eg, taxi service information may be displayed in a different font from traditional taxi service web pages and in the same font as bus information).

図4Aは、本開示の1又は複数の実施形態による、コンテキスト認識アプリケーションの更なる例示的なユーザインタフェース400aである。ユーザインタフェース400aは、ユーザがレストランに着くとき又はユーザがレストランを選択するとき、ユーザに提示されるリソースに関連付けられた特徴を表示して良い。   FIG. 4A is a further exemplary user interface 400a of a context awareness application, according to one or more embodiments of the present disclosure. The user interface 400a may display features associated with resources presented to the user when the user arrives at the restaurant or when the user selects a restaurant.

ユーザインタフェース400aは、レストランのメニューを閲覧する、レストランからのテイクアウト若しくは配達を注文する、又は選択された人数のために席を予約するための選択肢を含む複数の選択肢をユーザに提示して良い。ユーザインタフェース400aは、選択された人数のための待ち時間がどれ位長いかに関連する情報も提供して良い。例えば、レストランは、空きテーブルの数、既に席を待っている人数、席が利用可能になる予測時間に関するリソースを含み得る。別の例として、レストランは、メニューを閲覧するための及びテイクアウトの食べ物を注文するためのリソースを含み得る。   The user interface 400a may present a user with a plurality of options including options for browsing a restaurant menu, ordering a takeout or delivery from the restaurant, or reserving a seat for a selected number of people. The user interface 400a may also provide information related to how long the waiting time for a selected number of people is. For example, a restaurant may include resources regarding the number of vacant tables, the number of people already waiting for a seat, and the estimated time that the seat will be available. As another example, a restaurant may include resources for browsing menus and ordering takeaway food.

図4Bは、本開示の1又は複数の実施形態による、コンテキスト認識アプリケーションの更なる例示的なユーザインタフェース400bである。図4Bは、予約を取った後にユーザが提示され得るユーザインタフェース400bの一例を示し得る。   FIG. 4B is a further exemplary user interface 400b of a context-aware application according to one or more embodiments of the present disclosure. FIG. 4B may show an example of a user interface 400b that a user may be presented after making a reservation.

ユーザインタフェース400bは、ユーザに自身のテーブルの用意ができたことを知らせるようユーザがどのように契約されるかを示し得る。追加又は代替で、ユーザインタフェース400bは、席に着く前に、メニューを選択する又はメニューを詳細に調べるためのオプションをユーザに提示して良い。上述の及び他の実施形態では、ユーザインタフェース400bは、ユーザが席に着くのを待っている間に、メニューから品目を購入するためのオプションを含み得る。例えば、ユーザは、ユーザインタフェース400bと相互作用して、メニューから前菜を注文して良い。要求された注文は、リソースプロバイダ(例えば、レストラン)へ送信されて良く、ユーザが席に着いたとき席で注文せずに、ユーザのために前菜が準備され得るようにして良い。   User interface 400b may indicate how the user is contracted to inform the user that his table is ready. Additionally or alternatively, the user interface 400b may present the user with an option to select a menu or to examine the menu in detail before taking a seat. In the above and other embodiments, user interface 400b may include an option to purchase items from a menu while waiting for the user to sit down. For example, the user may interact with the user interface 400b and order appetizers from a menu. The requested order may be sent to a resource provider (e.g., a restaurant) so that when the user is seated, an appetizer can be prepared for the user without placing an order at the seat.

図5は、本開示の1又は複数の実施形態による、コンテキスト認識アプリケーションの更なる例示的なユーザインタフェース500である。ユーザインタフェース500は、鉄道の駅にあるビーコンに近付くと又はその近傍に(例えば、それから所定距離の範囲内に)いると、ユーザに提示され得るリソースの特徴を示し得る。   FIG. 5 is a further exemplary user interface 500 of a context aware application, according to one or more embodiments of the present disclosure. The user interface 500 may show the characteristics of resources that may be presented to the user when approaching or in the vicinity of (eg, within a predetermined distance from) a beacon at a railway station.

ユーザインタフェース500は、鉄道の駅に関連付けられた関連リソースから種々の特長をユーザに提供して良い。例えば、ユーザインタフェース500は、美術館のような目的地を選択するためのオプションをユーザに提供して良い。追加又は代替で、ユーザインタフェース500は、次の20分間のような所与の時間に鉄道の駅をどんな列車が出発するかに関する詳細事項を提供して良い。ユーザインタフェース500は、追加又は代替で、特定の列車に乗るためにどこへ行くべきか及びそれらの列車がどこを走るかの地図をユーザに提供して良い。地図は、列車の位置のリソースに基づき、列車が地図上のどこにいるかのリアルタイムデータを含んで良い。ユーザインタフェース500は、追加又は代替で、レストラン又は図書館のような近隣サービスを有して良い。上述の及び他の実施形態では、ユーザインタフェース500は、リソースについての複数言語のオプションを有して良い。例えば、旅行者は、ユーザの母国語でリソースセットにアクセスできて良い。このような言語オプションは、リソースプロバイダ(例えば、鉄道の駅)により、バックエンド装置若しくはエンドユーザ装置により(例えば、ある言語から別の言語へリソースの機械翻訳を実行するバックエンド装置により)、又は第三機関サービスにより(例えば、ウェブに基づく翻訳サービスにより)提供されて良い。   The user interface 500 may provide the user with various features from related resources associated with the railway station. For example, the user interface 500 may provide the user with an option to select a destination such as a museum. Additionally or alternatively, the user interface 500 may provide details regarding what trains leave the railway station at a given time, such as the next 20 minutes. The user interface 500 may additionally or alternatively provide the user with a map of where to go to take particular trains and where those trains run. The map may include real time data of where the train is on the map based on the train location resources. User interface 500 may additionally or alternatively include neighborhood services such as restaurants or libraries. In the above and other embodiments, the user interface 500 may have multiple language options for resources. For example, the traveler may be able to access the resource set in the user's native language. Such language options may include resource providers (eg, railway stations), back-end devices or end-user devices (eg, back-end devices that perform machine translation of resources from one language to another), or It may be provided by a third party service (eg, by a web-based translation service).

本開示の範囲から逸脱することなく図3A、3B、4A、4B、及び/又は5のうちの任意のものに対し変更、追加又は省略が行われて良い。例えば、ユーザインタフェース300a、300b、400a、400b、及び/又は500は、本開示で示され説明されたものより多くの又は少ない要素を有して良い。例えば、任意の数のリソース又はリソースの関連が、ユーザインタフェース300a、300b、400a、400b、及び/又は500上に表示されて良い。ユーザインタフェース300a、300b、400a、400b、及び/又は500は、関連リソースの種々の組合せ、及びこのようなリソースがユーザにどのように提示され得るかを示すのに役立つ。リソースの任意の組合せは、本開示の範囲内に包含される。   Changes, additions, or omissions may be made to any of FIGS. 3A, 3B, 4A, 4B, and / or 5 without departing from the scope of the present disclosure. For example, the user interfaces 300a, 300b, 400a, 400b, and / or 500 may have more or fewer elements than those shown and described in this disclosure. For example, any number of resources or resource associations may be displayed on the user interfaces 300a, 300b, 400a, 400b, and / or 500. The user interfaces 300a, 300b, 400a, 400b, and / or 500 serve to show various combinations of related resources and how such resources can be presented to the user. Any combination of resources is encompassed within the scope of this disclosure.

図6A及び6Bは、本開示の1又は複数の実施形態による、コンテキスト認識アプリケーションを利用する例示的な方法600のフローチャートである。方法600は、任意の適切なシステム、機器、又は装置により実行されても良い。例えば、図1のシステム100及び/又は電子装置110、及び/又は図2の電子装置200は、方法600に関連する工程のうちの1又は複数を実行して良い。別個のブロックとして示したが、所望の実装に依存して、方法600のブロックのうちの1又は複数に関連するステップ及び工程は、更なるブロックに分割され、少ないブロックに結合され、又は除去されても良い。   6A and 6B are flowcharts of an exemplary method 600 for utilizing a context-aware application according to one or more embodiments of the present disclosure. Method 600 may be performed by any suitable system, device, or apparatus. For example, the system 100 and / or the electronic device 110 of FIG. 1 and / or the electronic device 200 of FIG. 2 may perform one or more of the steps associated with the method 600. Although shown as separate blocks, depending on the desired implementation, steps and processes associated with one or more of the blocks of method 600 are divided into further blocks, combined into fewer blocks, or removed. May be.

ブロック605で、電子装置(例えば、図1の電子装置110)のユーザのコンテキストを記述するコンテキストデータが、得られて良い。例えば、電子装置のユーザは、特定の物理的位置(例えば、バス停)にある又は特定のサービスに関連付けられた(例えば、レストランの広告にある)QRコード(例えば、図1のQRコード150)をスキャンするために電子装置110を使用して良い。別の例として、電子装置のユーザは、電子装置と通信できるビーコン(例えば、図1のビーコン140)の特定の距離の範囲内に近付いて又は来て良く、及び電子装置がコンテキストデータを得るためにビーコンとの通信を使用して良い。追加の例として、GPSセンサのような電子装置の位置検知装置は、ユーザの物理的位置を検出して良い。   At block 605, context data describing the context of the user of the electronic device (eg, electronic device 110 of FIG. 1) may be obtained. For example, a user of an electronic device may receive a QR code (eg, QR code 150 in FIG. 1) at a specific physical location (eg, a bus stop) or associated with a specific service (eg, in a restaurant advertisement). The electronic device 110 may be used for scanning. As another example, a user of an electronic device may approach or come within a certain distance range of a beacon that can communicate with the electronic device (eg, beacon 140 of FIG. 1), and the electronic device obtains context data. You may use communication with a beacon. As an additional example, an electronic device position sensing device, such as a GPS sensor, may detect a user's physical location.

ブロック610で、コンテキストデータは、バックエンド装置(例えば、図1のバックエンド装置120)へ送信されて良い。例えば、電子装置は、ネットワーク(例えば、図1のネットワーク130)を介してバックエンド装置へコンテキストデータを送信して良い。   At block 610, the context data may be sent to the backend device (eg, backend device 120 of FIG. 1). For example, the electronic device may send context data to the backend device over a network (eg, network 130 of FIG. 1).

ブロック612で、電子装置は、個人向け学習エージェントへ情報を送信して良い。例えば、個人向け学習エージェントは、バックエンド装置に作用して、電子装置との及び/又は1又は複数のサービスとのユーザ相互作用を追跡して良い。個人向け学習エージェントは、特定の動作が生じる1日の内の時間及び/又は特定の動作が生じるコンテキストを追跡して良い。個人向け学習エージェントは、ユーザに表示されるサービスを個人向けにする及び/又は優先順位付けするのに利用されるべき、バックエンド装置におけるこのようなデータの一部又は全部を受信して良い。幾つかの実施形態では、個人向け学習エージェントは、どのリソースを表示すべきかを決定するために、教科学習のような機械学習方法を使用して良い。上述の及び他の実施形態では、個人向け学習エージェントは、電子装置に置かれて良い。   At block 612, the electronic device may send information to the personal learning agent. For example, a personal learning agent may act on a back-end device to track user interaction with an electronic device and / or with one or more services. A personal learning agent may track the time of day during which a particular action occurs and / or the context in which a particular action occurs. The personal learning agent may receive some or all of such data at the backend device to be used to personalize and / or prioritize the services displayed to the user. In some embodiments, the personal learning agent may use a machine learning method, such as subject learning, to determine which resources to display. In the above and other embodiments, the personal learning agent may be located on an electronic device.

ブロック615で、複数の関連リソースから対話型コンテンツを有する単一ユーザインタフェースを動的に生成するために、バックエンド装置から相互作用が受信されて良い。例えば、電子装置は、複数のリソースからユーザインタフェースの視覚的要素に特徴をマッピングする命令を受信して良い。別の例として、電子装置は、複数のリソースのうちの1又は複数から引き出されるデータを有するユーザインタフェースを生成する命令を受信して良い。上述及び他の実施形態では、命令は、モデルユーザインタフェースを有して良い。   At block 615, an interaction may be received from the backend device to dynamically generate a single user interface having interactive content from a plurality of related resources. For example, the electronic device may receive instructions that map features from multiple resources to visual elements of the user interface. As another example, the electronic device may receive instructions for generating a user interface having data derived from one or more of the plurality of resources. In the above and other embodiments, the instructions may have a model user interface.

ブロック620で、単一ユーザインタフェースは、動的に生成されて良い。例えば、電子装置は、単一ユーザインタフェースを動的に生成するために、バックエンド装置から受信された命令を使用して良い。上述の及び他の実施形態では、単一ユーザインタフェースは、複数のリソースからの特徴を有して良い。追加又は代替で、特徴は、インタフェースの1又は複数の視覚的要素にマッピングされて良い。このようなユーザインタフェースの例は、図3A、3B、4A、4B、及び5に示される。   At block 620, a single user interface may be dynamically generated. For example, the electronic device may use instructions received from the backend device to dynamically generate a single user interface. In the above and other embodiments, a single user interface may have features from multiple resources. Additionally or alternatively, features may be mapped to one or more visual elements of the interface. Examples of such user interfaces are shown in FIGS. 3A, 3B, 4A, 4B, and 5.

ブロック625で、バックエンド装置により抽出された特徴は、単一ユーザインタフェースの部分として生成される個々の要素にマッピングされて良い。例えば、バックエンド装置がレストランリソースの「メニュー」特徴及び「注文」特徴を抽出した場合、これらの特徴は、単一ユーザインタフェースの個々の視覚的要素にマッピングされて良い。幾つかの実施形態では、ブロック625のマッピングは、ブロック620で実行される動的生成の部分であって良い。   At block 625, features extracted by the backend device may be mapped to individual elements that are generated as part of a single user interface. For example, if the back-end device has extracted “menu” and “order” features of a restaurant resource, these features may be mapped to individual visual elements of a single user interface. In some embodiments, the mapping of block 625 may be part of the dynamic generation performed at block 620.

ブロック630で、複数の関連リソースの各々からの対話型コンテンツは、共通フォーマット及び共通の視覚的方式に組み込まれて良い。上述の及び他の実施形態では、単一ユーザインタフェースを生成する際に、電子装置は、リソースの各々から少なくとも1つの特徴を組み込んで良い。共通フォーマット及び共通の視覚的方式は、例えば、共通のフォント、共通の色セット、等を有して良い。幾つかの実施形態では、ブロック630の組み込みは、ブロック620で実行される動的生成の部分であって良い。   At block 630, interactive content from each of a plurality of related resources may be incorporated into a common format and a common visual scheme. In the above and other embodiments, in generating the single user interface, the electronic device may incorporate at least one feature from each of the resources. Common formats and common visual schemes may include, for example, common fonts, common color sets, and the like. In some embodiments, the incorporation of block 630 may be part of the dynamic generation performed at block 620.

(図6Bの)ブロック635で、単一ユーザインタフェースは、電子装置のユーザに表示されて良い。例えば、電子装置は、電子装置又はその部分に関連付けられたディスプレイで単一ユーザインタフェースを出力して良い。   At block 635 (of FIG. 6B), a single user interface may be displayed to the user of the electronic device. For example, the electronic device may output a single user interface on a display associated with the electronic device or portion thereof.

ブロック640で、相互作用データを生成するために、単一ユーザインタフェースの要素とのユーザの相互作用が受信されて良い。例えば、電子装置のユーザは、リソースの特徴のうちの1つにマッピングされる、単一ユーザインタフェースの要素のうちの1つをクリックし、タッチし、又は選択して良い(例えば、ユーザは、レストランリソースの「メニュー」特徴に対応する「メニュー」ボタンをクリックして良い)。電子装置とのユーザの相互作用は、相互作用データとしてキャプチャされて良い。   At block 640, a user interaction with a single user interface element may be received to generate interaction data. For example, a user of an electronic device may click, touch, or select one of the elements of a single user interface that is mapped to one of the resource characteristics (eg, the user Click the “Menu” button corresponding to the “Menu” feature of the restaurant resource). User interaction with the electronic device may be captured as interaction data.

ブロック645で、相互作用データは、要素に関連付けられたリソースに伝達されるよう、バックエンド装置へ送信されて良い。例えば、相互作用データをキャプチャした後に、電子装置は、バックエンド装置へ相互作用データを送信して良い(例えば、ユーザが「メニュー」ボタンにタッチする場合、相互作用がバックエンド装置へ送信されて良い)。バックエンド装置は、要素に関連付けられたリソースへ相互作用を伝達して良い。例えば、バックエンド装置は、「メニュー」要求をリソースに送信して良い。   At block 645, the interaction data may be sent to the backend device to be communicated to the resource associated with the element. For example, after capturing the interaction data, the electronic device may send the interaction data to the backend device (eg, if the user touches a “menu” button, the interaction is sent to the backend device. good). The backend device may communicate the interaction to the resource associated with the element. For example, the backend device may send a “menu” request to the resource.

したがって、方法600は、コンテキスト認識アプリケーションを利用して良い。本開示の範囲から逸脱することなく方法600に対し変更、追加又は省略が行われても良い。例えば、ブロック605、610、615、620、625、630、640、645のうちの1又は複数が省略されて良い。例えば、方法600の工程は、異なる順序で実施されて良い。追加又は代替で、2以上の工程が同時に実行されて良い。さらに、概略のステップ及び動作は例として提供され、幾つかのステップ及び動作は、開示の実施形態の本質から逸脱することなく、任意であり、より少ないステップ及び動作に組み合わされ、又は追加ステップ及び動作に拡張されても良い。   Accordingly, the method 600 may utilize a context aware application. Changes, additions, or omissions may be made to method 600 without departing from the scope of the present disclosure. For example, one or more of the blocks 605, 610, 615, 620, 625, 630, 640, 645 may be omitted. For example, the steps of method 600 may be performed in a different order. In addition or alternatively, two or more steps may be performed simultaneously. Furthermore, the schematic steps and operations are provided as examples, and some steps and operations are optional, combined with fewer steps and operations, or additional steps and operations without departing from the essence of the disclosed embodiments. It may be extended to operation.

図7A及び7Bは、本開示の1又は複数の実施形態による、コンテキスト認識アプリケーションに関連付けられたバックエンド装置の例示的な方法700のフローチャートである。方法700は、任意の適切なシステム、機器、又は装置により実行されて良い。例えば、図1のシステム100及び/又はバックエンド装置120、及び/又は図2の電子装置200は、方法700に関連する工程のうちの1又は複数を実行して良い。別個のブロックとして示したが、所望の実装に依存して、方法700のブロックのうちの1又は複数に関連するステップ及び工程は、更なるブロックに分割され、少ないブロックに結合され、又は除去されて良い。   7A and 7B are flowcharts of an exemplary method 700 of a back-end device associated with a context-aware application according to one or more embodiments of the present disclosure. Method 700 may be performed by any suitable system, device, or apparatus. For example, the system 100 and / or the back-end device 120 of FIG. 1 and / or the electronic device 200 of FIG. 2 may perform one or more of the steps associated with the method 700. Although shown as separate blocks, depending on the desired implementation, steps and processes associated with one or more of the blocks of method 700 are divided into additional blocks, combined into fewer blocks, or removed. Good.

ブロック705で、接続は、複数のリソース(例えば、図1のリソース160)により生成されて良い。例えば、バックエンド装置(例えば、図1のバックエンド装置120)は、複数のリソースと接続して良い。接続は、同時に又は個々に、又はそれらの任意の組合せで生成されて良い。例えば、バックエンド装置は、第1のリソースと接続し、次に第2及び第3のリソースと同時に接続して良い。   At block 705, the connection may be created by multiple resources (eg, resource 160 of FIG. 1). For example, the back-end device (for example, the back-end device 120 in FIG. 1) may be connected to a plurality of resources. Connections may be created simultaneously or individually or in any combination thereof. For example, the back-end device may connect to the first resource and then connect simultaneously with the second and third resources.

ブロック710で、APIモデルは、各々のリソースについて構築されて良い。例えば、特定のリソースのAPI文書(例えば、XMLスキーマ)は、バックエンド装置によりパースされて良い。別の例として、リソースは、APIモデルを生成するために手動でパースされて良い。追加又は代替で、リソースのプロバイダは、リソースのAPIモデルを識別し又は提供して良い。   At block 710, an API model may be built for each resource. For example, an API document (eg, XML schema) for a particular resource may be parsed by the backend device. As another example, resources may be manually parsed to generate an API model. Additionally or alternatively, the resource provider may identify or provide a resource API model.

ブロック715で、各々のリソースは、クラスに分類されて良い。例えば、バックエンド装置は、APIモデル及び/又は所与のリソースの他の特徴を、1又は複数の異なるクラスの1又は複数の基本APIモデルと比較して良い。特定のリソースは、APIモデルが最も密接に合致するクラスに分類されて良い。追加又は代替で、バックエンド装置のユーザは、リソースが属し得る特定のクラスを識別して良い。例えば、バックエンド装置は、所与のリソースの推奨を提供して良く、バックエンド装置のユーザは、新しいクラスの基本モデルとしてリソースを選択して良い。   At block 715, each resource may be classified into a class. For example, the backend device may compare the API model and / or other characteristics of a given resource with one or more different classes of one or more basic API models. Certain resources may be classified into classes that the API model most closely matches. Additionally or alternatively, the user of the backend device may identify a specific class to which the resource can belong. For example, the back-end device may provide recommendations for a given resource, and the user of the back-end device may select the resource as a new class of basic model.

ブロック720で、特徴がリソースの各々から抽出されて良い。例えば、バックエンド装置は、第1のリソースから1又は複数の特徴を抽出して良く、第2のリソースから1又は複数の異なる又は同様の特徴を抽出して良い。このような抽出は、リソースの各々について構築されたAPIモデルの中の特徴をパースすることにより又は識別することにより、実行されて良い。別の例として、バックエンド装置のユーザは、APIモデルからのリソースに関連付けられた1又は複数の特徴を抽出し又は識別して良い。   At block 720, features may be extracted from each of the resources. For example, the backend device may extract one or more features from the first resource and may extract one or more different or similar features from the second resource. Such extraction may be performed by parsing or identifying features in the API model built for each of the resources. As another example, a user of a backend device may extract or identify one or more features associated with a resource from an API model.

ブロック725で、リソースの各々の特徴及びクラスは、データベースに格納されて良い。例えば、エントリは、特定のリソースの特徴及び/又はクラスを有し得る特定のリソースのデータベースの中に、バックエンド装置により生成されて良い。追加又は代替で、データベースは、リソースのアドレス又は位置(例えば、インターネットプロトコル(IP)アドレス又はウェブアドレス)を格納して良い。   At block 725, each feature and class of the resource may be stored in a database. For example, the entries may be generated by the backend device in a database of specific resources that may have specific resource characteristics and / or classes. In addition or alternatively, the database may store the address or location of the resource (eg, an Internet Protocol (IP) address or web address).

ブロック730で、リソースのうちの2以上が関連するという決定が行われて良い。例えば、リソースのプロバイダは、リソースに関連付けられ得る他のリソースを識別して良い(例えば、Uber(登録商標)リソースのプロバイダは、バス及び/又はタクシーサービスリソースに関連するとしてリソースを識別して良い)。追加又は代替で、バックエンド装置又は別の電子装置のユーザは、2以上のリソースの間の関係を識別して良い。例えば、ユーザは、ユーザが物理的に位置する場所の近くのリソースが、ユーザがアクセスしている別のリソースに関連するか否かについて、問い合わせられて良い。上述の及び他の実施形態では、バックエンド装置のユーザは、2以上のリソースの間の関係を識別し又は確認して良い。   At block 730, a determination may be made that two or more of the resources are relevant. For example, a resource provider may identify other resources that may be associated with the resource (eg, a Uber® resource provider may identify a resource as being associated with a bus and / or taxi service resource. ). Additionally or alternatively, a user of the backend device or another electronic device may identify a relationship between two or more resources. For example, a user may be queried as to whether a resource near where the user is physically located is related to another resource that the user is accessing. In the above and other embodiments, the user of the back end device may identify or confirm a relationship between two or more resources.

ブロック735で、2以上のリソースの間の関係は、データベースに格納されて良い。例えば、バックエンド装置は、データベースの中のリソースに関連付けられたエントリとして関係を格納して良い。例えば、バス運行予定リソースがバス位置リソース及びUber(登録商標)リソースに関連する場合、これらの3つのリソースの各々は、他の2つのリソースとの関係を示す、識別する、及び/又は記述する、データベースの中のエントリを有して良い。   At block 735, the relationship between two or more resources may be stored in a database. For example, the backend device may store the relationship as an entry associated with a resource in the database. For example, if a bus schedule resource is associated with a bus location resource and a Uber® resource, each of these three resources indicates, identifies and / or describes a relationship with the other two resources. May have entries in the database.

ブロック740で、関連リソースの各々から少なくとも1つのリソースを結合するモデルインタフェースが生成されて良い。例えば、バックエンド装置は、ユーザインタフェースを生成する際のモデルレイアウトのような、電子装置へ送信され得るモデルインタフェースを生成して良い。追加又は代替で、モデルインタフェースは、クラスの基本モデルAPIの特定の特徴を、モデルインタフェースの所与の視覚的要素又は特徴にマッピングする命令を有して良い。例えば、リソースのレストランクラスでは、モデルインタフェースは、「メニュー」特徴を特定の視覚的要素にマッピングして、「メニュー」特徴を有するレストランクラスの他のリソースも該特定の視覚的要素にマッピングし得るようにして良い。   At block 740, a model interface that combines at least one resource from each of the related resources may be generated. For example, the back-end device may generate a model interface that can be transmitted to the electronic device, such as a model layout when generating a user interface. Additionally or alternatively, the model interface may include instructions that map specific features of the basic model API of the class to given visual elements or features of the model interface. For example, in a restaurant class for a resource, the model interface may map a “menu” feature to a particular visual element, and other resources in the restaurant class that have a “menu” feature may also be mapped to that particular visual element. You can do it.

ブロック745で、モデルインタフェースは、データベースに格納されて良い。例えば、バックエンド装置は、モデルインタフェースをデータベースに格納して良い。   At block 745, the model interface may be stored in a database. For example, the backend device may store the model interface in a database.

(図7Bに示すような)ブロック750で、モデルインタフェースとモデルインタフェースの中の特徴を有するリソースの各々のコンテキストとの間の関係が確立されて良い。例えば、リソースのレストランクラスでは、「メニュー」特徴を有する任意のリソースは、レストランの物理的位置におけるコンテキストの該特徴を有するモデルインタフェースに関連付けられて良い。別の例として、モデルインタフェース上でバス運行予定を有するモデルインタフェースでは、特定のコンテキスト(例えば、バス停にいる又はバスに乗っている)とモデルインタフェースとの間の関係が確立されて良い。追加又は代替で、コンテキストと特定のリソースとの間の関係が生成されて良い。該関係は、データベースに格納されて良い。例えば、コンテキスト(例えば、バスに乗っている)と所与のリソース(例えば、バス位置及び/又はバス運行予定)との間の関係が決定されて良い。   At block 750 (as shown in FIG. 7B), a relationship between the model interface and the context of each of the resources having features in the model interface may be established. For example, in a restaurant class of resources, any resource that has a “menu” feature may be associated with a model interface that has that feature of context at the physical location of the restaurant. As another example, in a model interface that has a bus schedule on the model interface, a relationship between a particular context (eg, at a bus stop or on a bus) and the model interface may be established. In addition or alternatively, a relationship between the context and a particular resource may be created. The relationship may be stored in a database. For example, a relationship between a context (eg, on a bus) and a given resource (eg, bus location and / or bus schedule) may be determined.

ブロック755で、電子装置(例えば、図1の電子装置110)からコンテキストデータが受信されて良い。例えば、電子装置は、QRコード、物理的位置(例えば、緯度及び経度、又は所在地住所)のようなコンテキストデータを、ネットワークを介してバックエンド装置へ送信して良い。   At block 755, context data may be received from an electronic device (eg, electronic device 110 of FIG. 1). For example, the electronic device may send context data such as a QR code, physical location (eg, latitude and longitude, or street address) to the back-end device over the network.

ブロック760で、コンテキストに関連するリソースが更新されて良い。例えば、バックエンド装置は、コンテキストに関連するモデルユーザインタフェースを読み出して良く、特徴に関連付けられた任意のデータを更新するためにリソースをモデルインタフェースの中の特徴に接続して良い。追加又は代替で、バックエンド装置は、コンテキストに関連するリソースを読み出して良く、及びリソースの特徴に関連付けられた任意のデータを更新するために該リソースに接続して良い。上述の及び他の実施形態では、バックエンド装置は、更新されたデータをデータベースに格納して良い。例えば、コンテキストデータが、電子装置のユーザはレストランにいることである場合、バックエンド装置は、「メニュー」リソースへの任意の変更を更新するために、レストランの「メニュー」リソースに接続して良い。幾つかの実施形態では、バックエンド装置は、電子装置から個人向け学習エージェントで受信されたデータに基づき、リソースを更新して良い。追加又は代替で、バックエンド装置は、このようなデータに基づきリソースの順序を変更して良い。上述の及び他の実施形態では、バックエンド装置は、複数のユーザからの個人向け学習データに基づき、リソースを更に更新して良い。   At block 760, resources associated with the context may be updated. For example, the backend device may retrieve the model user interface associated with the context and may connect resources to the features in the model interface to update any data associated with the features. Additionally or alternatively, the backend device may retrieve the resource associated with the context and connect to the resource to update any data associated with the resource characteristics. In the above and other embodiments, the backend device may store the updated data in a database. For example, if the context data is that the user of the electronic device is at a restaurant, the back-end device may connect to the restaurant's “menu” resource to update any changes to the “menu” resource. . In some embodiments, the back-end device may update resources based on data received at the personal learning agent from the electronic device. Additionally or alternatively, the backend device may change the order of resources based on such data. In the above and other embodiments, the back-end device may further update resources based on personalized learning data from multiple users.

ブロック765で、リソースに関するデータベースの中の情報は、電子装置へ送信されて良い。例えば、リソースの特徴のうちの1又は複数及びデータベースからの関連データを含み得る単一ユーザインタフェースを動的に生成する命令が、電子装置へ送信されて良い。追加又は代替で、バックエンド装置は、モデルインタフェースの視覚的要素にマッピングされたコンテキストに関連付けられたリソースの特徴のマッピングを有するモデルインタフェースをデータベースから送信して良い。例えば、バックエンド装置は、単一ユーザインタフェースに含むために、レストランに居るユーザへ更新された「メニュー」を送信して良い。   At block 765, information in the database regarding the resource may be sent to the electronic device. For example, instructions for dynamically generating a single user interface that may include one or more of the resource characteristics and associated data from a database may be sent to the electronic device. Additionally or alternatively, the back-end device may send a model interface from the database having a mapping of resource features associated with the context mapped to the visual elements of the model interface. For example, the back-end device may send an updated “menu” to a user at a restaurant for inclusion in a single user interface.

ブロック770で、ユーザ相互作用データ(例えば、図6のブロック640で生成されたユーザ相互作用データ)は、電子装置から受信されて良い。例えば、メニューから品目を注文するためのオプションのユーザによるタッチ又は選択は、バックエンド装置により電子装置から受信されて良い。   At block 770, user interaction data (eg, user interaction data generated at block 640 of FIG. 6) may be received from the electronic device. For example, an optional user touch or selection to order an item from a menu may be received from the electronic device by the backend device.

ブロック775で、相互作用データは、適切なリソースに伝達されて良い。例えば、相互作用データが、メニューから品目を注文するオプションのユーザによる選択を含む場合、バックエンド装置は、レストランリソースに注文する要求を伝達して良い。   At block 775, the interaction data may be communicated to the appropriate resource. For example, if the interaction data includes a user selection of an option to order items from a menu, the backend device may communicate a request to order to a restaurant resource.

したがって、方法700は、コンテキスト認識アプリケーションと連動してバックエンド装置により実行されて良い。本開示の範囲から逸脱することなく方法700に対し変更、追加又は省略が行われても良い。例えば、方法600の工程は、異なる順序で実施されて良い。追加又は代替で、2以上の工程が同時に実行されて良い。さらに、概略のステップ及び動作は例として提供され、幾つかのステップ及び動作は、開示の実施形態の本質から逸脱することなく、任意であり、より少ないステップ及び動作に組み合わされ、又は追加ステップ及び動作に拡張されて良い。   Accordingly, the method 700 may be performed by a backend device in conjunction with a context awareness application. Changes, additions, or omissions may be made to method 700 without departing from the scope of the present disclosure. For example, the steps of method 600 may be performed in a different order. In addition or alternatively, two or more steps may be performed simultaneously. Furthermore, the schematic steps and operations are provided as examples, and some steps and operations are optional, combined with fewer steps and operations, or additional steps and operations without departing from the essence of the disclosed embodiments. May be extended to work.

本開示で用いられるように、用語「モジュール」又は「コンポーネント」は、モジュール若しくはコンポーネントのアクションを実行するよう構成される特定ハードウェア実装、及び/又はコンピューティングシステムの汎用ハードウェア(例えばコンピュータ可読媒体、処理装置、等)に格納され及び/又はそれらにより実行され得るソフトウェアオブジェクト又はソフトウェアルーチンを表して良い。幾つかの実施形態では、本開示に記載されたのと異なるコンポーネント、モジュール、エンジン及びサービスは、(例えば、別個のスレッドとして)コンピューティングシステムで実行されるオブジェクト又は処理として実施されて良い。本開示に記載のシステム及び方法の幾つかは概して(汎用ハードウェアに格納される及び/又はそれにより実行される)ソフトウェアで実装されるように記載されたが、専用ハードウェアの実装又はソフトウェアと専用ハードウェアの組み合わせの実装も可能であり考えられる。この説明では、「コンピュータエンティティ」は、本開示で先に定められたようにコンピューティングシステム、又はコンピューティングシステムで実行されるモジュール若しくはモジュールの組合せであって良い。   As used in this disclosure, the term “module” or “component” refers to a specific hardware implementation configured to perform the actions of the module or component, and / or general purpose hardware of a computing system (eg, a computer-readable medium). Software objects or software routines that may be stored in and / or executed by a processing device, etc.). In some embodiments, different components, modules, engines, and services than described in this disclosure may be implemented as objects or processes that execute on the computing system (eg, as separate threads). Although some of the systems and methods described in this disclosure have been generally described as being implemented in software (stored on and / or executed by general purpose hardware), It is possible and possible to implement a combination of dedicated hardware. In this description, a “computer entity” may be a computing system or a module or combination of modules that executes on a computing system as defined earlier in this disclosure.

本開示で及び特に添付の特許請求の範囲(例えば、添付の特許請求の範囲の本体)で使用される用語は、概して、広義の(open)用語と考えられる(例えば、用語「含む(including)」は「含むが、限定されない」と解釈されるべきであり、用語「有する(having)」は「少なくとも有する」と解釈されるべきであり、用語「含む(includes)」は「含むが、限定されない」と解釈されるべきであり、用語「含む(containing)」は、「含むが、限定されない」と解釈されるべきである)。   Terms used in this disclosure and specifically in the appended claims (eg, the body of the appended claims) are generally considered to be open terms (eg, the term “including”). ”Should be interpreted as“ including but not limited to ”, the term“ having ”should be interpreted as“ having at least ”, and the term“ includes ”should include“ Is not to be construed, and the term “containing” is to be construed as “including but not limited to”).

さらに、特定数の導入された請求項の引用が意図される場合、このような意図は、請求項の中に明示的に示され、このような引用が存在しない場合はこのような意図が存在しない。例えば、理解の助けとして、以下の添付の特許請求の範囲は、請求項の引用を導入するために、「少なくとも1つの」及び「1又は複数の」をいう前置語句の使用を含み得る。しかしながら、このような語句の使用は、同じ請求項が前置語句「1又は複数」又は「少なくとも1つの」及び「a又はan」のような不定冠詞を含むときでも、不定冠詞「a、an」による請求項引用の導入がこのような導入された請求項引用を含む任意の特定の請求項をこのような引用を1つだけ含む実施形態に限定することを示すと考えられてはならない(例えば、「a」及び/又は「an」は「少なくとも1つの」又は「1又は複数の」を意味すると解釈されるべきである)。同様のことは、請求項引用を導入するために使用される定冠詞の使用についても該当する。   Further, where a specific number of introduced claims are intended to be quoted, such intentions are explicitly indicated in the claims, and if such citations do not exist, such intentions are present. do not do. For example, as an aid to understanding, the following appended claims may include the use of the prefix “at least one” and “one or more” to introduce claim citations. However, the use of such terms does not mean that the indefinite article "a, an" can be used even when the same claim includes the indefinite article such as the prefix "one or more" or "at least one" and "a or an". Is not to be construed as indicating that any particular claim, including such introduced claim citations, is limited to embodiments that include only one such citation ( For example, “a” and / or “an” should be taken to mean “at least one” or “one or more”. The same is true for the use of definite articles used to introduce claim citations.

さらに、特定数の導入された請求項引用が明示的に引用される場合、当業者は、このような引用が少なくとも引用された番号を意味することと解釈されるべきであることを認識するだろう(例えば、「2つの引用」はそのままで、他の変更が無ければ、少なくとも2つの引用、又は2以上の引用を意味する)。さらに、「A、B、C、等のうちの少なくとも1つ」又は「A、B、C、等のうちの1又は複数」に類似する慣例が用いられる例では、通常、このような構成は、Aのみ、Bのみ、Cのみ、A及びBを一緒に、A及びCを一緒に、B及びCを一緒に、又はA、B、Cを一緒に、等を含むと意図される。   Further, if a particular number of introduced claim citations are explicitly cited, those skilled in the art will recognize that such citations should at least be construed to mean the cited numbers. Wax (e.g., "two citations" are left intact, meaning at least two citations, or two or more citations, unless otherwise changed). Further, in examples where a convention similar to “at least one of A, B, C, etc.” or “one or more of A, B, C, etc.” is used, such a configuration is typically , A only, B only, C only, A and B together, A and C together, B and C together, or A, B, C together, and the like.

さらに、2以上の代替用語を表す任意の離接語又は語句は、説明、請求項、又は図面の中であるかに係わらず、用語のうちの1つ、用語のうちのいずれか、又は両方の用語を含む可能性を包含すると理解されるべきである。例えば、語句「A又はB」は、「A」又は「B」又は「A及びB」の可能性を含むと理解されるべきである。   In addition, any disjunctive word or phrase that represents two or more alternative terms may be either one of the terms, one of the terms, or both, whether in the description, the claims, or the drawings. It should be understood to encompass the possibility of including the terms For example, the phrase “A or B” should be understood to include the possibilities of “A” or “B” or “A and B”.

本開示に記載された全ての例及び条件文は、教育上の目的で、読者が本開示の原理及び発明者により考案された概念を理解するのを助け、技術を促進させるためであり、これらの特に記載された例及び条件に限定されないものと考えられるべきである。本開示の実施形態が詳細に記載されたが、種々の変更、置換及び修正が本開示の精神及び範囲から逸脱することなく行われ得る。   All examples and conditional statements in this disclosure are for educational purposes only to help readers understand the principles of this disclosure and the concepts devised by the inventor and to promote technology. Should not be considered as being limited to the specifically described examples and conditions. Although embodiments of the present disclosure have been described in detail, various changes, substitutions and modifications can be made without departing from the spirit and scope of the present disclosure.

以上の実施形態に加えて、更に以下の付記を開示する。
(付記1) 電子装置のユーザのコンテキストを記述するコンテキストデータを得るステップと、
前記コンテキストデータをバックエンド装置へ送信するステップと、
前記バックエンド装置から命令を受信するステップであって、前記命令は、複数の関連リソースから対話型コンテンツを含む単一ユーザインタフェースを動的に生成するよう、前記電子装置に指示し、前記複数の関連リソースは、前記バックエンド装置により互いに及び前記ユーザの前記コンテキストに関連すると決定され、前記対話型動的コンテンツの特徴は、前記バックエンド装置により抽出される、ステップと、
前記単一ユーザインタフェースを動的に生成するステップと、
前記電子装置の前記ユーザに前記単一ユーザインタフェースを表示するステップと、
を有する方法。
(付記2) 前記コンテキストデータを得るステップは、前記電子装置の位置検知コンポーネントからの位置情報、前記電子装置に近接する電子ビーコンからのビーコンデータ、又は前記電子装置によりスキャンされるクイックレスポンス(QR)コードのうちの少なくとも1つを得るステップを有する、付記1に記載の方法。
(付記3) 前記複数の関連リソースは、2以上の第三機関から読み出される、付記1に記載の方法。
(付記4) 前記複数の関連リソースは、1つのウェブサービス及びインターネットに接続される1つの装置を有する、付記1に記載の方法。
(付記5) 前記1つの装置は、車両、販売時点管理端末、電気器具、監視カメラ、電気コンセント、サーモスタット、又は照明、のうちの1つを有する、付記4に記載の方法。
(付記6) 前記単一ユーザインタフェースを動的に生成するステップは、
前記バックエンド装置により抽出される前記特徴の各々を、前記単一ユーザインタフェースの部分として生成される個々の要素にマッピングするステップと、
前記対話型コンテンツを、前記複数の関連リソースの各々から、前記単一ユーザインタフェースの共通フォーマット及び共通視覚方式に組み込むステップと、
を有する、付記1に記載の方法。
(付記7) 相互作用データを生成するために、前記単一ユーザインタフェースの要素との前記ユーザの相互作用を受信するステップと、
前記単一ユーザインタフェースの前記要素に関連する前記複数の関連リソースのうちの1つのリソースに伝達されるよう、前記相互作用データを前記バックエンド装置へ送信するステップと、
を更に有する付記1に記載の方法。
(付記8) 前記バックエンド装置は、前記複数の関連リソースが互いに及び前記ユーザの前記コンテキストに関連することを決定し、
前記複数のリソースに接続し、
前記複数のリソースの各々のアプリケーションインタフェース(API)モデルを構築し、
前記複数のリソースの各々をクラスに分類し、
前記複数のリソースの各々から特徴を抽出し、
前記複数のリソースの各々について前記特徴及び前記クラスをデータベースに格納し、
前記複数のリソースのうちの2以上が関係により関連することを決定し、
前記複数のリソースのうちの前記2以上の間の前記関係を前記データベースに格納し、
互いに関連する前記複数のリソースの各々からの前記特徴のうちの少なくとも1つを結合するモデルインタフェースを生成し、
前記モデルインタフェースを前記データベースに格納し、
前記モデルインタフェースの中の特徴を含む前記複数のリソースの各々のコンテキストと、前記モデルインタフェースを関連付ける、
ことにより、前記対話型動的コンテンツの前記特徴を抽出する、
付記1に記載の方法。
(付記9) 命令を有する非一時的コンピュータ可読媒体であって、前記命令は、プロセッサにより実行されると、前記プロセッサに1又は複数の工程を実行させ又は実行を制御させるよう構成され、前記工程は、
電子装置のユーザのコンテキストを記述するコンテキストデータを得るステップと、
前記コンテキストデータをバックエンド装置へ送信するステップと、
前記バックエンド装置から命令を受信するステップであって、前記命令は、複数の関連リソースから対話型コンテンツを含む単一ユーザインタフェースを動的に生成するよう、前記電子装置に指示し、前記複数の関連リソースは、前記バックエンド装置により互いに及び前記ユーザの前記コンテキストに関連すると決定され、前記対話型動的コンテンツの特徴は、前記バックエンド装置により抽出される、ステップと、
前記単一ユーザインタフェースを動的に生成するステップと、
前記電子装置の前記ユーザに前記単一ユーザインタフェースを表示するステップと、
を有する、非一時的コンピュータ可読媒体。
(付記10) 前記コンテキストデータを得るステップは、前記電子装置の位置検知コンポーネントからの位置情報、前記電子装置に近接する電子ビーコンからのビーコンデータ、又は前記電子装置によりスキャンされるクイックレスポンス(QR)コードのうちの少なくとも1つを得るステップを有する、付記9に記載の非一時的コンピュータ可読媒体。
(付記11) 前記複数の関連リソースは、2以上の第三機関から読み出される、付記9に記載の非一時的コンピュータ可読媒体。
(付記12) 前記複数の関連リソースは、1つのウェブサービス及びインターネットに接続される1つの装置を有する、付記9に記載の非一時的コンピュータ可読媒体。
(付記13) 前記1つの装置は、車両、販売時点管理端末、電気器具、監視カメラ、電気コンセント、サーモスタット、又は照明、のうちの1つを有する、付記9に記載の非一時的コンピュータ可読媒体。
(付記14) 前記単一ユーザインタフェースを動的に生成するステップは、
前記バックエンド装置により抽出される前記特徴の各々を、前記単一ユーザインタフェースの部分として生成される個々の要素にマッピングするステップと、
前記対話型コンテンツを、前記複数の関連リソースの各々から、前記単一ユーザインタフェースの共通フォーマット及び共通視覚方式に組み込むステップと、
を有する、付記9に記載の非一時的コンピュータ可読媒体。
(付記15) 前記工程は、
相互作用データを生成するために、前記単一ユーザインタフェースの要素との前記ユーザの相互作用を受信するステップと、
前記単一ユーザインタフェースの前記要素に関連する前記複数の関連リソースのうちの1つのリソースに伝達されるよう、前記相互作用データを前記バックエンド装置へ送信するステップと、
を更に有する、付記9に記載の非一時的コンピュータ可読媒体。
(付記16) 前記バックエンド装置は、前記複数の関連リソースが互いに及び前記ユーザの前記コンテキストに関連することを決定し、
前記複数のリソースに接続し、
前記複数のリソースの各々のアプリケーションインタフェース(API)モデルを構築し、
前記複数のリソースの各々をクラスに分類し、
前記複数のリソースの各々から特徴を抽出し、
前記複数のリソースの各々について前記特徴及び前記クラスをデータベースに格納し、
前記複数のリソースのうちの2以上が関係により関連することを決定し、
前記複数のリソースのうちの前記2以上の間の前記関係を前記データベースに格納し、
互いに関連する前記複数のリソースの各々からの前記特徴のうちの少なくとも1つを結合するモデルインタフェースを生成し、
前記モデルインタフェースを前記データベースに格納し、
前記モデルインタフェースの中の特徴を含む前記複数のリソースの各々のコンテキストと、前記モデルインタフェースを関連付ける、
ことにより、前記対話型動的コンテンツの前記特徴を抽出する、
付記9に記載の非一時的コンピュータ可読媒体。
(付記17) バックエンド装置と、
電子装置と、
を有し、前記電子装置は、
ディスプレイと、
プロセッサと、
命令を有するコンピュータ可読媒体であって、前記命令は、前記プロセッサにより実行されると、前記プロセッサに、工程を実行させ又は実行を制御させ、前記工程は、
前記電子装置のユーザのコンテキストを記述するコンテキストデータを得るステップと、
前記コンテキストデータを前記バックエンド装置へ送信するステップと、
前記バックエンド装置から命令を受信するステップであって、前記命令は、複数の関連リソースからの対話型コンテンツを含む単一ユーザインタフェースを動的に生成するよう前記電子装置に指示し、前記複数の関連リソースは、互いに及び前記ユーザの前記コンテキストに関連することを前記バックエンド装置により決定され、前記対話型動的コンテンツの特徴は、前記バックエンド装置により抽出される、ステップと、
前記単一ユーザインタフェースを動的に生成するステップと、
前記電子装置の前記ディスプレイに前記単一ユーザインタフェースを表示するステップと、
を有する、コンピュータ可読媒体と、
を有する、システム。
(付記18) 前記バックエンド装置は、前記複数の関連リソースが互いに及び前記ユーザの前記コンテキストに関連することを決定し、
前記複数のリソースに接続し、
前記複数のリソースの各々のアプリケーションインタフェース(API)モデルを構築し、
前記複数のリソースの各々をクラスに分類し、
前記複数のリソースの各々から特徴を抽出し、
前記複数のリソースの各々について前記特徴及び前記クラスをデータベースに格納し、
前記複数のリソースのうちの2以上が関連することを決定し、
前記複数のリソースのうちの前記2以上の間の関係を前記データベースに格納し、
互いに関連する前記複数のリソースの各々からの前記特徴のうちの少なくとも1つを結合するモデルインタフェースを生成し、
前記モデルインタフェースを前記データベースに格納し、
前記モデルインタフェースの中の特徴を含む前記複数のリソースの各々のコンテキストと、前記モデルインタフェースを関連付ける、
ことにより、前記対話型動的コンテンツの前記特徴を抽出する、
付記17に記載のシステム。
(付記19) 前記電子装置は、前記電子装置の物理的位置を検出するセンサ、及びクイックレスポンス(QR)コードをスキャンするスキャナ、のうちの少なくとも1つを更に有する、付記17に記載のシステム。
(付記20) 前記複数の関連リソースは、2以上の第三機関から読み出される、付記17に記載のシステム。
In addition to the above embodiment, the following additional notes are disclosed.
(Supplementary Note 1) Obtaining context data describing a context of a user of an electronic device;
Transmitting the context data to a back-end device;
Receiving instructions from the back-end device, the instructions instructing the electronic device to dynamically generate a single user interface including interactive content from a plurality of related resources; Related resources are determined to be related to each other and to the context of the user by the back-end device, and features of the interactive dynamic content are extracted by the back-end device;
Dynamically generating the single user interface;
Displaying the single user interface to the user of the electronic device;
Having a method.
(Supplementary Note 2) The step of obtaining the context data includes: position information from a position detection component of the electronic device, beacon data from an electronic beacon proximate to the electronic device, or a quick response (QR) scanned by the electronic device. The method of claim 1, comprising obtaining at least one of the codes.
(Supplementary note 3) The method according to supplementary note 1, wherein the plurality of related resources are read from two or more third organizations.
(Supplementary note 4) The method according to supplementary note 1, wherein the plurality of related resources include one web service and one device connected to the Internet.
(Supplementary note 5) The method according to supplementary note 4, wherein the one apparatus includes one of a vehicle, a point-of-sale terminal, an appliance, a surveillance camera, an electrical outlet, a thermostat, or a lighting.
(Supplementary Note 6) The step of dynamically generating the single user interface includes:
Mapping each of the features extracted by the backend device to individual elements generated as part of the single user interface;
Incorporating the interactive content from each of the plurality of related resources into a common format and common visual scheme of the single user interface;
The method according to appendix 1, wherein:
(Supplementary note 7) Receiving the user interaction with an element of the single user interface to generate interaction data;
Transmitting the interaction data to the back-end device to be communicated to one of the plurality of related resources associated with the element of the single user interface;
The method according to appendix 1, further comprising:
(Supplementary Note 8) The back-end device determines that the plurality of related resources are related to each other and the context of the user;
Connect to the plurality of resources;
Building an application interface (API) model for each of the plurality of resources;
Classifying each of the plurality of resources into a class;
Extracting features from each of the plurality of resources;
Storing the feature and the class for each of the plurality of resources in a database;
Determining that two or more of the plurality of resources are related by a relationship;
Storing the relationship between the two or more of the plurality of resources in the database;
Generating a model interface that combines at least one of the features from each of the plurality of resources associated with each other;
Storing the model interface in the database;
Associating the model interface with the context of each of the plurality of resources including features in the model interface;
To extract the features of the interactive dynamic content,
The method according to appendix 1.
(Supplementary Note 9) A non-transitory computer-readable medium having instructions, wherein the instructions are configured to cause the processor to perform one or more steps or to control execution when executed by a processor, the steps Is
Obtaining context data describing the context of the user of the electronic device;
Transmitting the context data to a back-end device;
Receiving instructions from the back-end device, the instructions instructing the electronic device to dynamically generate a single user interface including interactive content from a plurality of related resources; Related resources are determined to be related to each other and to the context of the user by the back-end device, and features of the interactive dynamic content are extracted by the back-end device;
Dynamically generating the single user interface;
Displaying the single user interface to the user of the electronic device;
A non-transitory computer readable medium having:
(Supplementary Note 10) The step of obtaining the context data includes: position information from a position detection component of the electronic device, beacon data from an electronic beacon proximate to the electronic device, or a quick response (QR) scanned by the electronic device. The non-transitory computer readable medium of claim 9, comprising obtaining at least one of the codes.
(Supplementary note 11) The non-transitory computer-readable medium according to supplementary note 9, wherein the plurality of related resources are read from two or more third organizations.
(Supplementary note 12) The non-transitory computer-readable medium according to Supplementary note 9, wherein the plurality of related resources include one web service and one device connected to the Internet.
(Supplementary note 13) The non-transitory computer-readable medium according to Supplementary note 9, wherein the one device includes one of a vehicle, a point-of-sale terminal, an appliance, a surveillance camera, an electrical outlet, a thermostat, or a light. .
(Supplementary Note 14) The step of dynamically generating the single user interface includes:
Mapping each of the features extracted by the backend device to individual elements generated as part of the single user interface;
Incorporating the interactive content from each of the plurality of related resources into a common format and common visual scheme of the single user interface;
The non-transitory computer readable medium of claim 9, comprising:
(Supplementary Note 15)
Receiving the user interaction with an element of the single user interface to generate interaction data;
Transmitting the interaction data to the back-end device to be communicated to one of the plurality of related resources associated with the element of the single user interface;
The non-transitory computer-readable medium according to claim 9, further comprising:
(Supplementary Note 16) The back-end device determines that the plurality of related resources are related to each other and the context of the user;
Connect to the plurality of resources;
Building an application interface (API) model for each of the plurality of resources;
Classifying each of the plurality of resources into a class;
Extracting features from each of the plurality of resources;
Storing the feature and the class for each of the plurality of resources in a database;
Determining that two or more of the plurality of resources are related by a relationship;
Storing the relationship between the two or more of the plurality of resources in the database;
Generating a model interface that combines at least one of the features from each of the plurality of resources associated with each other;
Storing the model interface in the database;
Associating the model interface with the context of each of the plurality of resources including features in the model interface;
To extract the features of the interactive dynamic content,
The non-transitory computer-readable medium according to appendix 9.
(Supplementary Note 17) Back-end device,
An electronic device;
The electronic device comprises:
Display,
A processor;
A computer readable medium having instructions that, when executed by the processor, cause the processor to perform or control execution, the process comprising:
Obtaining context data describing a context of a user of the electronic device;
Transmitting the context data to the backend device;
Receiving instructions from the back-end device, the instructions instructing the electronic device to dynamically generate a single user interface including interactive content from a plurality of related resources; Related resources are determined by the backend device to be related to each other and to the user's context, and features of the interactive dynamic content are extracted by the backend device;
Dynamically generating the single user interface;
Displaying the single user interface on the display of the electronic device;
A computer-readable medium comprising:
Having a system.
(Supplementary note 18) The back-end device determines that the plurality of related resources are related to each other and to the context of the user;
Connect to the plurality of resources;
Building an application interface (API) model for each of the plurality of resources;
Classifying each of the plurality of resources into a class;
Extracting features from each of the plurality of resources;
Storing the feature and the class for each of the plurality of resources in a database;
Determining that two or more of the plurality of resources are related;
Storing a relationship between the two or more of the plurality of resources in the database;
Generating a model interface that combines at least one of the features from each of the plurality of resources associated with each other;
Storing the model interface in the database;
Associating the model interface with the context of each of the plurality of resources including features in the model interface;
To extract the features of the interactive dynamic content,
The system according to appendix 17.
(Supplementary note 19) The system according to supplementary note 17, wherein the electronic device further includes at least one of a sensor that detects a physical position of the electronic device and a scanner that scans a quick response (QR) code.
(Supplementary note 20) The system according to supplementary note 17, wherein the plurality of related resources are read from two or more third organizations.

100 システム
110 電子装置
120 バックエンド装置
130 ネットワーク
140 ビーコン
150 QRコード
160 リソース
100 system 110 electronic device 120 back-end device 130 network 140 beacon 150 QR code 160 resource

Claims (20)

電子装置のユーザのコンテキストを記述するコンテキストデータを得るステップと、
前記コンテキストデータをバックエンド装置へ送信するステップと、
前記バックエンド装置から命令を受信するステップであって、前記命令は、複数の関連リソースから対話型コンテンツを含む単一ユーザインタフェースを動的に生成するよう、前記電子装置に指示し、前記複数の関連リソースは、前記バックエンド装置により互いに及び前記ユーザの前記コンテキストに関連すると決定され、前記対話型動的コンテンツの特徴は、前記バックエンド装置により抽出される、ステップと、
前記単一ユーザインタフェースを動的に生成するステップと、
前記電子装置の前記ユーザに前記単一ユーザインタフェースを表示するステップと、
を有する方法。
Obtaining context data describing the context of the user of the electronic device;
Transmitting the context data to a back-end device;
Receiving instructions from the back-end device, the instructions instructing the electronic device to dynamically generate a single user interface including interactive content from a plurality of related resources; Related resources are determined to be related to each other and to the context of the user by the back-end device, and features of the interactive dynamic content are extracted by the back-end device;
Dynamically generating the single user interface;
Displaying the single user interface to the user of the electronic device;
Having a method.
前記コンテキストデータを得るステップは、前記電子装置の位置検知コンポーネントからの位置情報、前記電子装置に近接する電子ビーコンからのビーコンデータ、又は前記電子装置によりスキャンされるクイックレスポンス(QR)コードのうちの少なくとも1つを得るステップを有する、請求項1に記載の方法。   Obtaining the context data comprises: location information from a location sensing component of the electronic device, beacon data from an electronic beacon proximate to the electronic device, or a quick response (QR) code scanned by the electronic device. The method of claim 1, comprising obtaining at least one. 前記複数の関連リソースは、2以上の第三機関から読み出される、請求項1に記載の方法。   The method of claim 1, wherein the plurality of related resources are read from two or more third institutions. 前記複数の関連リソースは、1つのウェブサービス及びインターネットに接続される1つの装置を有する、請求項1に記載の方法。   The method of claim 1, wherein the plurality of related resources comprises a web service and a device connected to the Internet. 前記1つの装置は、車両、販売時点管理端末、電気器具、監視カメラ、電気コンセント、サーモスタット、又は照明、のうちの1つを有する、請求項4に記載の方法。   The method of claim 4, wherein the one device comprises one of a vehicle, a point-of-sale terminal, an appliance, a surveillance camera, an electrical outlet, a thermostat, or a light. 前記単一ユーザインタフェースを動的に生成するステップは、
前記バックエンド装置により抽出される前記特徴の各々を、前記単一ユーザインタフェースの部分として生成される個々の要素にマッピングするステップと、
前記対話型コンテンツを、前記複数の関連リソースの各々から、前記単一ユーザインタフェースの共通フォーマット及び共通視覚方式に組み込むステップと、
を有する、請求項1に記載の方法。
Dynamically generating the single user interface comprises:
Mapping each of the features extracted by the backend device to individual elements generated as part of the single user interface;
Incorporating the interactive content from each of the plurality of related resources into a common format and common visual scheme of the single user interface;
The method of claim 1, comprising:
相互作用データを生成するために、前記単一ユーザインタフェースの要素との前記ユーザの相互作用を受信するステップと、
前記単一ユーザインタフェースの前記要素に関連する前記複数の関連リソースのうちの1つのリソースに伝達されるよう、前記相互作用データを前記バックエンド装置へ送信するステップと、
を更に有する請求項1に記載の方法。
Receiving the user interaction with an element of the single user interface to generate interaction data;
Transmitting the interaction data to the back-end device to be communicated to one of the plurality of related resources associated with the element of the single user interface;
The method of claim 1 further comprising:
前記バックエンド装置は、前記複数の関連リソースが互いに及び前記ユーザの前記コンテキストに関連することを決定し、
前記複数のリソースに接続し、
前記複数のリソースの各々のアプリケーションインタフェース(API)モデルを構築し、
前記複数のリソースの各々をクラスに分類し、
前記複数のリソースの各々から特徴を抽出し、
前記複数のリソースの各々について前記特徴及び前記クラスをデータベースに格納し、
前記複数のリソースのうちの2以上が関係により関連することを決定し、
前記複数のリソースのうちの前記2以上の間の前記関係を前記データベースに格納し、
互いに関連する前記複数のリソースの各々からの前記特徴のうちの少なくとも1つを結合するモデルインタフェースを生成し、
前記モデルインタフェースを前記データベースに格納し、
前記モデルインタフェースの中の特徴を含む前記複数のリソースの各々のコンテキストと、前記モデルインタフェースを関連付ける、
ことにより、前記対話型動的コンテンツの前記特徴を抽出する、
請求項1に記載の方法。
The backend device determines that the plurality of related resources are related to each other and the context of the user;
Connect to the plurality of resources;
Building an application interface (API) model for each of the plurality of resources;
Classifying each of the plurality of resources into a class;
Extracting features from each of the plurality of resources;
Storing the feature and the class for each of the plurality of resources in a database;
Determining that two or more of the plurality of resources are related by a relationship;
Storing the relationship between the two or more of the plurality of resources in the database;
Generating a model interface that combines at least one of the features from each of the plurality of resources associated with each other;
Storing the model interface in the database;
Associating the model interface with the context of each of the plurality of resources including features in the model interface;
To extract the features of the interactive dynamic content,
The method of claim 1.
命令を有する非一時的コンピュータ可読媒体であって、前記命令は、プロセッサにより実行されると、前記プロセッサに1又は複数の工程を実行させ又は実行を制御させるよう構成され、前記工程は、
電子装置のユーザのコンテキストを記述するコンテキストデータを得るステップと、
前記コンテキストデータをバックエンド装置へ送信するステップと、
前記バックエンド装置から命令を受信するステップであって、前記命令は、複数の関連リソースから対話型コンテンツを含む単一ユーザインタフェースを動的に生成するよう、前記電子装置に指示し、前記複数の関連リソースは、前記バックエンド装置により互いに及び前記ユーザの前記コンテキストに関連すると決定され、前記対話型動的コンテンツの特徴は、前記バックエンド装置により抽出される、ステップと、
前記単一ユーザインタフェースを動的に生成するステップと、
前記電子装置の前記ユーザに前記単一ユーザインタフェースを表示するステップと、
を有する、非一時的コンピュータ可読媒体。
A non-transitory computer readable medium having instructions configured to cause the processor to perform or control execution of one or more steps when executed by a processor, the steps comprising:
Obtaining context data describing the context of the user of the electronic device;
Transmitting the context data to a back-end device;
Receiving instructions from the back-end device, the instructions instructing the electronic device to dynamically generate a single user interface including interactive content from a plurality of related resources; Related resources are determined to be related to each other and to the context of the user by the back-end device, and features of the interactive dynamic content are extracted by the back-end device;
Dynamically generating the single user interface;
Displaying the single user interface to the user of the electronic device;
A non-transitory computer readable medium having:
前記コンテキストデータを得るステップは、前記電子装置の位置検知コンポーネントからの位置情報、前記電子装置に近接する電子ビーコンからのビーコンデータ、又は前記電子装置によりスキャンされるクイックレスポンス(QR)コードのうちの少なくとも1つを得るステップを有する、請求項9に記載の非一時的コンピュータ可読媒体。   Obtaining the context data comprises: location information from a location sensing component of the electronic device, beacon data from an electronic beacon proximate to the electronic device, or a quick response (QR) code scanned by the electronic device. The non-transitory computer readable medium of claim 9, comprising obtaining at least one. 前記複数の関連リソースは、2以上の第三機関から読み出される、請求項9に記載の非一時的コンピュータ可読媒体。   The non-transitory computer-readable medium of claim 9, wherein the plurality of related resources are read from two or more third parties. 前記複数の関連リソースは、1つのウェブサービス及びインターネットに接続される1つの装置を有する、請求項9に記載の非一時的コンピュータ可読媒体。   The non-transitory computer-readable medium of claim 9, wherein the plurality of related resources comprises a web service and a device connected to the Internet. 前記1つの装置は、車両、販売時点管理端末、電気器具、監視カメラ、電気コンセント、サーモスタット、又は照明、のうちの1つを有する、請求項9に記載の非一時的コンピュータ可読媒体。   The non-transitory computer readable medium of claim 9, wherein the one device comprises one of a vehicle, a point of sale terminal, an appliance, a surveillance camera, an electrical outlet, a thermostat, or a light. 前記単一ユーザインタフェースを動的に生成するステップは、
前記バックエンド装置により抽出される前記特徴の各々を、前記単一ユーザインタフェースの部分として生成される個々の要素にマッピングするステップと、
前記対話型コンテンツを、前記複数の関連リソースの各々から、前記単一ユーザインタフェースの共通フォーマット及び共通視覚方式に組み込むステップと、
を有する、請求項9に記載の非一時的コンピュータ可読媒体。
Dynamically generating the single user interface comprises:
Mapping each of the features extracted by the backend device to individual elements generated as part of the single user interface;
Incorporating the interactive content from each of the plurality of related resources into a common format and common visual scheme of the single user interface;
The non-transitory computer readable medium of claim 9, comprising:
前記工程は、
相互作用データを生成するために、前記単一ユーザインタフェースの要素との前記ユーザの相互作用を受信するステップと、
前記単一ユーザインタフェースの前記要素に関連する前記複数の関連リソースのうちの1つのリソースに伝達されるよう、前記相互作用データを前記バックエンド装置へ送信するステップと、
を更に有する、請求項9に記載の非一時的コンピュータ可読媒体。
The process includes
Receiving the user interaction with an element of the single user interface to generate interaction data;
Transmitting the interaction data to the back-end device to be communicated to one of the plurality of related resources associated with the element of the single user interface;
10. The non-transitory computer readable medium of claim 9, further comprising:
前記バックエンド装置は、前記複数の関連リソースが互いに及び前記ユーザの前記コンテキストに関連することを決定し、
前記複数のリソースに接続し、
前記複数のリソースの各々のアプリケーションインタフェース(API)モデルを構築し、
前記複数のリソースの各々をクラスに分類し、
前記複数のリソースの各々から特徴を抽出し、
前記複数のリソースの各々について前記特徴及び前記クラスをデータベースに格納し、
前記複数のリソースのうちの2以上が関係により関連することを決定し、
前記複数のリソースのうちの前記2以上の間の前記関係を前記データベースに格納し、
互いに関連する前記複数のリソースの各々からの前記特徴のうちの少なくとも1つを結合するモデルインタフェースを生成し、
前記モデルインタフェースを前記データベースに格納し、
前記モデルインタフェースの中の特徴を含む前記複数のリソースの各々のコンテキストと、前記モデルインタフェースを関連付ける、
ことにより、前記対話型動的コンテンツの前記特徴を抽出する、
請求項9に記載の非一時的コンピュータ可読媒体。
The backend device determines that the plurality of related resources are related to each other and the context of the user;
Connect to the plurality of resources;
Building an application interface (API) model for each of the plurality of resources;
Classifying each of the plurality of resources into a class;
Extracting features from each of the plurality of resources;
Storing the feature and the class for each of the plurality of resources in a database;
Determining that two or more of the plurality of resources are related by a relationship;
Storing the relationship between the two or more of the plurality of resources in the database;
Generating a model interface that combines at least one of the features from each of the plurality of resources associated with each other;
Storing the model interface in the database;
Associating the model interface with the context of each of the plurality of resources including features in the model interface;
To extract the features of the interactive dynamic content,
The non-transitory computer readable medium of claim 9.
バックエンド装置と、
電子装置と、
を有し、前記電子装置は、
ディスプレイと、
プロセッサと、
命令を有するコンピュータ可読媒体であって、前記命令は、前記プロセッサにより実行されると、前記プロセッサに、工程を実行させ又は実行を制御させ、前記工程は、
前記電子装置のユーザのコンテキストを記述するコンテキストデータを得るステップと、
前記コンテキストデータを前記バックエンド装置へ送信するステップと、
前記バックエンド装置から命令を受信するステップであって、前記命令は、複数の関連リソースからの対話型コンテンツを含む単一ユーザインタフェースを動的に生成するよう前記電子装置に指示し、前記複数の関連リソースは、互いに及び前記ユーザの前記コンテキストに関連することを前記バックエンド装置により決定され、前記対話型動的コンテンツの特徴は、前記バックエンド装置により抽出される、ステップと、
前記単一ユーザインタフェースを動的に生成するステップと、
前記電子装置の前記ディスプレイに前記単一ユーザインタフェースを表示するステップと、
を有する、コンピュータ可読媒体と、
を有する、システム。
A back-end device;
An electronic device;
The electronic device comprises:
Display,
A processor;
A computer readable medium having instructions that, when executed by the processor, cause the processor to perform or control execution, the process comprising:
Obtaining context data describing a context of a user of the electronic device;
Transmitting the context data to the backend device;
Receiving instructions from the back-end device, the instructions instructing the electronic device to dynamically generate a single user interface including interactive content from a plurality of related resources; Related resources are determined by the backend device to be related to each other and to the user's context, and features of the interactive dynamic content are extracted by the backend device;
Dynamically generating the single user interface;
Displaying the single user interface on the display of the electronic device;
A computer-readable medium comprising:
Having a system.
前記バックエンド装置は、前記複数の関連リソースが互いに及び前記ユーザの前記コンテキストに関連することを決定し、
前記複数のリソースに接続し、
前記複数のリソースの各々のアプリケーションインタフェース(API)モデルを構築し、
前記複数のリソースの各々をクラスに分類し、
前記複数のリソースの各々から特徴を抽出し、
前記複数のリソースの各々について前記特徴及び前記クラスをデータベースに格納し、
前記複数のリソースのうちの2以上が関連することを決定し、
前記複数のリソースのうちの前記2以上の間の関係を前記データベースに格納し、
互いに関連する前記複数のリソースの各々からの前記特徴のうちの少なくとも1つを結合するモデルインタフェースを生成し、
前記モデルインタフェースを前記データベースに格納し、
前記モデルインタフェースの中の特徴を含む前記複数のリソースの各々のコンテキストと、前記モデルインタフェースを関連付ける、
ことにより、前記対話型動的コンテンツの前記特徴を抽出する、
請求項17に記載のシステム。
The backend device determines that the plurality of related resources are related to each other and the context of the user;
Connect to the plurality of resources;
Building an application interface (API) model for each of the plurality of resources;
Classifying each of the plurality of resources into a class;
Extracting features from each of the plurality of resources;
Storing the feature and the class for each of the plurality of resources in a database;
Determining that two or more of the plurality of resources are related;
Storing a relationship between the two or more of the plurality of resources in the database;
Generating a model interface that combines at least one of the features from each of the plurality of resources associated with each other;
Storing the model interface in the database;
Associating the model interface with the context of each of the plurality of resources including features in the model interface;
To extract the features of the interactive dynamic content,
The system of claim 17.
前記電子装置は、前記電子装置の物理的位置を検出するセンサ、及びクイックレスポンス(QR)コードをスキャンするスキャナ、のうちの少なくとも1つを更に有する、請求項17に記載のシステム。   The system of claim 17, wherein the electronic device further comprises at least one of a sensor that detects a physical position of the electronic device and a scanner that scans a quick response (QR) code. 前記複数の関連リソースは、2以上の第三機関から読み出される、請求項17に記載のシステム。   The system of claim 17, wherein the plurality of related resources are read from two or more third institutions.
JP2017064913A 2016-05-06 2017-03-29 Context recognition application Pending JP2017201510A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/148,681 US10901756B2 (en) 2016-05-06 2016-05-06 Context-aware application
US15/148,681 2016-05-06

Publications (1)

Publication Number Publication Date
JP2017201510A true JP2017201510A (en) 2017-11-09

Family

ID=60242538

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017064913A Pending JP2017201510A (en) 2016-05-06 2017-03-29 Context recognition application

Country Status (2)

Country Link
US (1) US10901756B2 (en)
JP (1) JP2017201510A (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170337027A1 (en) * 2016-05-17 2017-11-23 Google Inc. Dynamic content management of a vehicle display
US10452410B2 (en) 2016-10-25 2019-10-22 International Business Machines Corporation Context aware user interface
US10956136B2 (en) 2018-10-16 2021-03-23 Ebay, Inc. User interface resource file optimization

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002342654A (en) * 2001-05-21 2002-11-29 Ichi Rei Yon Kk Information providing system including information station device for providing map information with special service information
US20070067420A1 (en) * 2005-08-31 2007-03-22 Kabushiki Kaisha Square Enix (Also Trading As Square Enix Co., Ltd.) Interactive content delivery server, a method and a computer program product for interactively delivering content
JP2007233937A (en) * 2006-03-03 2007-09-13 Doshisha Information processing system, information processing apparatus, portable terminal and program
US8392521B2 (en) * 2002-10-25 2013-03-05 Inria Institut National De Recherche En Informatique Et En Automatique Device and method for managing data between communication facilities to obtain a mobile service
JP2015060347A (en) * 2013-09-18 2015-03-30 公立大学法人広島市立大学 Information processing apparatus, terminal device, information processing method, and program

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002025488A2 (en) * 2000-09-25 2002-03-28 Transactions, Inc. System and method to correlate and access related text with locations on an electronically displayed map
US7283846B2 (en) * 2002-02-07 2007-10-16 Sap Aktiengesellschaft Integrating geographical contextual information into mobile enterprise applications
WO2003077079A2 (en) * 2002-03-08 2003-09-18 Enleague Systems, Inc Methods and systems for modeling and using computer resources over a heterogeneous distributed network using semantic ontologies
US7725530B2 (en) * 2005-12-12 2010-05-25 Google Inc. Proxy server collection of data for module incorporation into a container document
US8869027B2 (en) * 2006-08-04 2014-10-21 Apple Inc. Management and generation of dashboards
US20090164883A1 (en) * 2007-12-19 2009-06-25 Apple Inc. Multi-Source Web Clips
CA2720897C (en) * 2008-04-28 2015-06-30 Salesforce.Com, Inc. Object-oriented system for creating and managing websites and their content
US8108778B2 (en) * 2008-09-30 2012-01-31 Yahoo! Inc. System and method for context enhanced mapping within a user interface
US8490047B2 (en) * 2009-01-15 2013-07-16 Microsoft Corporation Graphical mashup
US8265658B2 (en) * 2009-02-02 2012-09-11 Waldeck Technology, Llc System and method for automated location-based widgets
US8812962B2 (en) * 2009-11-12 2014-08-19 Microsoft Corporation Web service interface and querying
US9438678B2 (en) * 2011-03-17 2016-09-06 Sears Brands, L.L.C. Methods and systems for appliance community service management
US8655873B2 (en) * 2011-10-28 2014-02-18 Geofeedr, Inc. System and method for aggregating and distributing geotagged content
US10445757B2 (en) * 2011-11-17 2019-10-15 At&T Intellectual Property I, L.P. Promotion service
US9372092B2 (en) * 2014-08-08 2016-06-21 Here Global B.V. Method and apparatus for providing a contextual menu in a map display
US9703570B2 (en) 2014-10-01 2017-07-11 Fujitsu Limited Dynamic device drivers

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002342654A (en) * 2001-05-21 2002-11-29 Ichi Rei Yon Kk Information providing system including information station device for providing map information with special service information
US8392521B2 (en) * 2002-10-25 2013-03-05 Inria Institut National De Recherche En Informatique Et En Automatique Device and method for managing data between communication facilities to obtain a mobile service
US20070067420A1 (en) * 2005-08-31 2007-03-22 Kabushiki Kaisha Square Enix (Also Trading As Square Enix Co., Ltd.) Interactive content delivery server, a method and a computer program product for interactively delivering content
JP2007233937A (en) * 2006-03-03 2007-09-13 Doshisha Information processing system, information processing apparatus, portable terminal and program
JP2015060347A (en) * 2013-09-18 2015-03-30 公立大学法人広島市立大学 Information processing apparatus, terminal device, information processing method, and program

Also Published As

Publication number Publication date
US10901756B2 (en) 2021-01-26
US20170322690A1 (en) 2017-11-09

Similar Documents

Publication Publication Date Title
KR101337555B1 (en) Method and Apparatus for Providing Augmented Reality using Relation between Objects
KR101693631B1 (en) System for Real estate Providing Information Using Augmented Reality
US20160019553A1 (en) Information interaction in a smart service platform
TW201828233A (en) Method for displaying service object and processing map data, client and server
US10452233B2 (en) Information interactive platform, system and method
US20130051615A1 (en) Apparatus and method for providing applications along with augmented reality data
US20140111542A1 (en) Platform for recognising text using mobile devices with a built-in device video camera and automatically retrieving associated content based on the recognised text
JP2017041227A (en) Shopping information providing system of augmented reality platform and control method therefor
EP3010245A2 (en) Method for providing additional information related to broadcast content and electronic device implementing the same
US20170061511A1 (en) Mobile device initiated concierge experience
US10817923B2 (en) Information providing system, information providing apparatus, information providing method, and program
CN106204190B (en) Information processing method, terminal and server
KR20160019707A (en) Method and Apparatus for Providing Route Guidance using Reference Points
CN104604261B (en) The system and method for service related with object are provided
US20190182616A1 (en) Techniques for providing meeting location suggestions
JP2017201510A (en) Context recognition application
JP2015176165A (en) Cuisine price search device
KR102321481B1 (en) Data sharing apparatus and control method thereof
US20140019378A1 (en) Evaluation system, method, and computer-readable recording medium
US9462062B2 (en) Portable terminal for displaying local service based on context awareness technology, and operation method of the portable terminal
KR102211453B1 (en) system for providing shopping information
US20130339271A1 (en) Evaluation system, evaluation method, and storage medium
KR20180079110A (en) System and method based O2O for using and managing a restaurant
KR101754304B1 (en) Method for serving point of interest and system therefor
US8627358B1 (en) Location-based movie identification systems and methods

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210203

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210831