JP6655081B2 - Electronic device, method for augmenting information requirements, and computer program product for augmenting information requirements - Google Patents

Electronic device, method for augmenting information requirements, and computer program product for augmenting information requirements Download PDF

Info

Publication number
JP6655081B2
JP6655081B2 JP2017530152A JP2017530152A JP6655081B2 JP 6655081 B2 JP6655081 B2 JP 6655081B2 JP 2017530152 A JP2017530152 A JP 2017530152A JP 2017530152 A JP2017530152 A JP 2017530152A JP 6655081 B2 JP6655081 B2 JP 6655081B2
Authority
JP
Japan
Prior art keywords
information
request
format
electronic device
augmentation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017530152A
Other languages
Japanese (ja)
Other versions
JP2018501562A (en
Inventor
ラクシット、サラブジット
トリム、クレイグ、マシュー
ボスティック、ジェイムス、エドワード
ガンシ、ジョン、マイケル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of JP2018501562A publication Critical patent/JP2018501562A/en
Application granted granted Critical
Publication of JP6655081B2 publication Critical patent/JP6655081B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/48Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/432Query formulation
    • G06F16/433Query formulation using audio data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/5866Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/9032Query formulation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16CCOMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
    • G16C20/00Chemoinformatics, i.e. ICT specially adapted for the handling of physicochemical or structural data of chemical particles, elements, compounds or mixtures
    • G16C20/20Identification of molecular entities, parts thereof or of chemical compositions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Library & Information Science (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Chemical & Material Sciences (AREA)
  • Crystallography & Structural Chemistry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computing Systems (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Description

本開示は、情報取出しの分野に関し、具体的には、ユーザによる照会に基づく情報取出しの分野に関する。さらにより具体的には、本開示は、ユーザによって生成された照会の解釈の分野に関する。   The present disclosure relates to the field of information retrieval, and specifically to the field of information retrieval based on user inquiries. Even more specifically, the present disclosure relates to the field of interpreting user generated queries.

今日の多くのモバイル・デバイスは、ユーザから口頭質問を受け取り、次いで音声(speech)合成を使用して回答で応答する能力を有する。   Many mobile devices today have the ability to receive verbal questions from a user and then respond with answers using speech synthesis.

例えば、米国特許出願公開第2012/0016678号は、ユーザからの具体的な質問に回答するために自然言語ダイアログを使用してユーザとかかわるインテリジェント自動化アシスタント(intelligent automated assistant)について述べている。しかし、そのようなシステムはユーザからの音声入力に限定され、この結果、モバイル・デバイスによる誤った応答が生じる可能性がある。例えば、ユーザが質問するが、質問がシステムによって間違って解釈されるか、またはシステムが単に質問をまったく理解しないかのいずれかとなることがある。これにより、ユーザは、追加のボイス(voice)・コマンドや説明などでフォローアップすることが必要とされる。   For example, US Patent Application Publication No. 2012/0016678 describes an intelligent automated assistant that interacts with a user using natural language dialogs to answer specific questions from the user. However, such systems are limited to voice input from the user, which can result in false responses by the mobile device. For example, a user may ask a question, but the question may either be misinterpreted by the system, or the system may simply not understand the question at all. This requires the user to follow up with additional voice commands, instructions, etc.

他のデバイスは、非言語(すなわち非音声)入力に関して情報を提供するが、ユーザが非言語入力に関して質問を生成し発することは可能にしない。   Other devices provide information about non-verbal (ie, non-speech) input, but do not allow a user to generate and raise questions about non-verbal input.

例えば、米国特許出願公開第2012/0124461号は、画像上に重ねられるコンテキスト情報でストリート・レベル画像に注釈を付けるための技法について述べている。同様に、米国特許出願公開第2013/0346068号は、ユーザによって提供されるいくつかの用語でディジタル写真(photograph)にタグ付けするシステムについて述べている。しかし、このタイプの技術は、ユーザが有するであろう具体的な質問にかかわらず、事前定義済みの情報で画像を自動ポピュレートすることに限定される。   For example, U.S. Patent Application Publication No. 2012/0124461 describes a technique for annotating a street-level image with contextual information that is overlaid on the image. Similarly, U.S. Patent Application Publication No. 2013/0346068 describes a system for tagging digital photographs with a number of terms provided by a user. However, this type of technique is limited to automatically populating images with predefined information, regardless of the specific questions that the user may have.

米国特許出願公開第2012/0016678号US Patent Application Publication No. 2012/0016678 米国特許出願公開第2012/0124461号U.S. Patent Application Publication No. 2012/0124461 米国特許出願公開第2013/0346068号U.S. Patent Application Publication No. 2013/0346068

したがって、単独でも組合せでも、従来技術は、ユーザが質問し、次いで質問を明確にする非言語入力を使用してこの質問を増補することを可能にするシステムを提供することができない。すなわち、従来技術は、視覚的画像や香り(scent)や音(sound)などの非言語入力に関してユーザによって生成された質問をユーザがデバイスに提示することを可能にするシステムを提供しない。本発明は、長年感じられてきたこの必要性に対する1つまたは複数の解決法を提供する。   Thus, alone or in combination, the prior art fails to provide a system that allows a user to ask a question and then augment this question using non-verbal inputs that define the question. That is, the prior art does not provide a system that allows the user to present to the device questions generated by the user regarding non-verbal inputs such as visual images and scents and sounds. The present invention provides one or more solutions to this need that has been felt for many years.

本開示の一実施形態では、電子デバイスは、不特定の対象(object)に関する情報を求める口頭要求を受け取るためのマイクロフォンを備える。センサが、不特定の対象に関する増補情報を受け取る。結合ロジックが、口頭要求からの情報を増補情報と結合して、結合フォーマット情報要求にする。次いで、情報取出しロジックが、結合フォーマット情報要求に対する回答を取り出す。   In one embodiment of the present disclosure, the electronic device comprises a microphone for receiving an oral request for information about an unspecified object. A sensor receives augmentation information about the unspecified subject. Combining logic combines information from the verbal request with the augmented information into a combined format information request. The information retrieval logic then retrieves a response to the combined format information request.

本開示の一実施形態では、電子デバイス中のセンサは、ユーザによって発せられた質問の対象を「嗅ぐ」ことができる化学センサである。   In one embodiment of the present disclosure, the sensor in the electronic device is a chemical sensor that can “sniff” the subject of a question issued by a user.

本開示の一実施形態では、電子デバイス中のセンサは、ビデオ画像を取り込むカメラであり、不特定の対象は、ビデオ画像中に現れない対象である。電子デバイスは、メタデータ取出しロジックにアクセスして、カメラによって取り込まれたビデオ画像から、ビデオ画像を記述するメタデータを取り出す。相関ロジックが、メタデータからの情報を相関させて、不特定の対象に関する情報を識別し、結合フォーマット情報要求に対する回答を生成する。   In one embodiment of the present disclosure, the sensor in the electronic device is a camera that captures a video image, and the unspecified object is an object that does not appear in the video image. The electronic device accesses metadata retrieval logic to retrieve metadata describing the video image from the video image captured by the camera. Correlation logic correlates information from the metadata to identify information about unspecified objects and to generate a response to the combined format information request.

本開示の一実施形態では、情報要求を増補する方法は、情報サーバによって、対象に関する情報を求める要求を受け取ることを含む。情報を求める要求は、電子デバイスからのものであり、第1のフォーマットのものである。情報サーバは、対象に関する増補情報を受け取る。増補情報は、電子デバイスによって生成されるものであり、第1のフォーマットとは異なる第2のフォーマットのものである。情報サーバは、増補情報に基づいて、情報を求める要求に対する応答を生成する。   In one embodiment of the present disclosure, a method of augmenting an information request includes receiving, by an information server, a request for information about an object. The request for information is from an electronic device and is in a first format. The information server receives the augmented information about the object. The augmentation information is generated by the electronic device and is of a second format different from the first format. The information server generates a response to the request for information based on the augmented information.

本開示の一実施形態では、第1のフォーマットは音声認識のためのものであり、第2のフォーマットは写真のためのものである。情報が要求される対象は、写真中で示される。情報サーバは、写真中で示される対象に関する、写真中の埋め込み情報を取り出す。情報サーバは、埋め込み情報に基づいて、写真中の対象に関する追加情報を突き止める。   In one embodiment of the present disclosure, the first format is for speech recognition and the second format is for photographs. The object for which information is required is shown in the photograph. The information server retrieves embedded information in the photo related to the object shown in the photo. The information server locates additional information about the object in the photo based on the embedded information.

本開示の一実施形態では、情報を求める要求は、特定ユーザによって生成される。この方法はさらに、情報を求める要求を、特定ユーザについてのユーザ・プロファイルに関連付けることと、ユーザ・プロファイルに基づいて、情報を求める要求に対する応答を適合させることとを含む。   In one embodiment of the present disclosure, the request for information is generated by a particular user. The method further includes associating the request for information with a user profile for a particular user and adapting a response to the request for information based on the user profile.

本開示の一実施形態では、情報サーバは、ユーザの身体ジェスチャを受け取り、身体ジェスチャを、対象に関する増補情報として利用する。   In one embodiment of the present disclosure, the information server receives the user's body gesture and uses the body gesture as augmentation information about the subject.

本開示の一実施形態では、コンピュータ・プログラム製品は、情報要求を増補する。コンピュータ・プログラム製品は、プログラム・コードが組み入れられたコンピュータ可読ストレージ媒体を含み、コンピュータ可読ストレージ媒体は、一時的な信号自体ではなく、プログラム・コードは、方法を実施するためにプロセッサによって読取り可能かつ実行可能である。この方法は、対象に関する情報を求める要求を受け取ることであって、情報を求める要求が電子デバイスからのものであり、情報を求める要求が第1のフォーマットのものである、受け取ることと、対象に関する増補情報を受け取ることであって、増補情報が電子デバイスによって生成されるものであり、増補情報が、第1のフォーマットとは異なる第2のフォーマットのものである、受け取ることと、増補情報に基づいて、情報を求める要求に対する応答を生成することと、を含む。   In one embodiment of the present disclosure, a computer program product augments information requirements. The computer program product includes a computer readable storage medium having the program code embodied therein, wherein the computer readable storage medium is not the temporary signal itself, the program code is readable by a processor to perform the method, and It is feasible. The method includes receiving a request for information about an object, wherein the request for information is from an electronic device and the request for information is in a first format. Receiving the augmented information, wherein the augmented information is generated by the electronic device, and wherein the augmented information is of a second format different from the first format. Generating a response to the request for information.

このように、ここに開示されるシステムは、情報要求の効率および精度を改善するという点で、従来技術に勝る技術的利点を提供する。より具体的には、本開示の教示がなければ、ほとんどとは言わないまでも多くの口頭質問は、無意味であろうし、したがってインテリジェント・アシスタント・デバイスによって回答不可能であろう。   Thus, the systems disclosed herein provide technical advantages over the prior art in improving the efficiency and accuracy of information requests. More specifically, without the teachings of the present disclosure, many, if not most, verbal questions would be meaningless and therefore unanswerable by intelligent assistant devices.

次に、添付の図面を参照しながら、本発明の実施形態について単なる例として述べる。   Embodiments of the present invention will now be described, by way of example only, with reference to the accompanying drawings.

本開示の一実施形態によるクラウド・コンピューティング・ノードを描いた図である。FIG. 1 depicts a cloud computing node according to one embodiment of the present disclosure. 本開示の一実施形態によるクラウド・コンピューティング環境を描いた図である。FIG. 1 illustrates a cloud computing environment according to one embodiment of the present disclosure. 本開示の一実施形態による抽象化モデル・レイヤを描いた図である。FIG. 3 depicts an abstraction model layer according to one embodiment of the present disclosure. 本発明が利用され得る例示的なシステムを示す図である。FIG. 1 illustrates an exemplary system in which the present invention may be utilized. ユーザによって生成された、電子デバイスからの情報要求に応答するために、1つまたは複数のプロセッサまたは他のハードウェア・デバイスによって実施される1つまたは複数の動作の高レベルのフローチャートである。FIG. 3 is a high-level flowchart of one or more operations performed by one or more processors or other hardware devices to respond to a request for information from an electronic device generated by a user.

本発明は、システム、方法、またはコンピュータ・プログラム製品、あるいはそれらの組合せとすることができる。コンピュータ・プログラム製品は、本開示の態様をプロセッサに遂行させるためのコンピュータ可読プログラム命令を有する1つまたは複数のコンピュータ可読ストレージ媒体を含むことができる。   The invention can be a system, method, or computer program product, or a combination thereof. A computer program product may include one or more computer readable storage media having computer readable program instructions for causing a processor to perform aspects of the present disclosure.

コンピュータ可読ストレージ媒体は、命令実行デバイスによって使用される命令を保持および記憶できる有形デバイスとすることができる。コンピュータ可読ストレージ媒体は、例えば、電子ストレージ・デバイス、磁気ストレージ・デバイス、光学ストレージ・デバイス、電磁ストレージ・デバイス、半導体ストレージ・デバイス、または上記の任意の適切な組合せとすることができるが、これらに限定されない。コンピュータ可読ストレージ媒体のより具体的な例の非網羅的なリストは、ポータブル・コンピュータ・ディスケット、ハード・ディスク、ランダム・アクセス・メモリ(RAM)、読取り専用メモリ(ROM)、消去可能プログラム可能な読取り専用メモリ(EPROMまたはフラッシュ・メモリ)、スタティック・ランダム・アクセス・メモリ(SRAM)、ポータブル・コンパクト・ディスク読取り専用メモリ(CD−ROM)、ディジタル多用途ディスク(DVD)、メモリ・スティック、フロッピー(R)・ディスク、機械的にエンコードされたデバイス(命令が記録された、パンチカード、または溝の中の隆起構造)、および上記の任意の適切な組合せを含む。本明細書におけるコンピュータ可読ストレージ媒体は、電波もしくは他の自由伝搬する電磁波、導波管もしくは他の伝送媒体を介して伝搬する電磁波(例えば、光ファイバ・ケーブルの中を通る光パルス)、またはワイヤを介して伝送される電気信号など、一時的な信号自体であると解釈されるべきではない。   The computer readable storage medium may be a tangible device capable of holding and storing instructions used by the instruction execution device. The computer readable storage medium can be, for example, an electronic storage device, a magnetic storage device, an optical storage device, an electromagnetic storage device, a semiconductor storage device, or any suitable combination of the above, but Not limited. A non-exhaustive list of more specific examples of computer-readable storage media includes portable computer diskettes, hard disks, random access memory (RAM), read-only memory (ROM), erasable programmable reads. Dedicated memory (EPROM or flash memory), static random access memory (SRAM), portable compact disk read only memory (CD-ROM), digital versatile disk (DVD), memory stick, floppy (R) -) Discs, mechanically encoded devices (punched cards or raised structures in grooves, with instructions recorded), and any suitable combination of the above. Computer readable storage media herein refers to radio waves or other freely propagating electromagnetic waves, electromagnetic waves propagating through waveguides or other transmission media (eg, optical pulses through fiber optic cables), or wires. It should not be construed as a transient signal itself, such as an electrical signal transmitted over

本明細書に記載のコンピュータ可読プログラム命令は、コンピュータ可読ストレージ媒体からそれぞれのコンピューティング/処理デバイスにダウンロードされてよく、あるいは、ネットワーク(例えば、インターネット、ローカル・エリア・ネットワーク、ワイド・エリア・ネットワーク、もしくはワイヤレス・ネットワーク、またはそれらの組合せ)を介して外部コンピュータまたは外部ストレージ・デバイスにダウンロードされてよい。ネットワークは、銅伝送ケーブル、光伝送ファイバ、ワイヤレス伝送、ルータ、ファイアウォール、スイッチ、ゲートウェイ・コンピュータ、またはエッジ・サーバ、あるいはそれらの組合せを含むことができる。各コンピューティング/処理デバイス中の、ネットワーク・アダプタ・カードまたはネットワーク・インタフェースが、コンピュータ可読プログラム命令をネットワークから受け取り、これらのコンピュータ可読プログラム命令を、それぞれのコンピューティング/処理デバイス内のコンピュータ可読ストレージ媒体に記憶されるように転送する。   The computer readable program instructions described herein may be downloaded from a computer readable storage medium to a respective computing / processing device, or may be downloaded from a network (eg, the Internet, a local area network, a wide area network, Or a wireless network, or a combination thereof) to an external computer or external storage device. A network may include copper transmission cables, optical transmission fibers, wireless transmissions, routers, firewalls, switches, gateway computers, or edge servers, or a combination thereof. A network adapter card or network interface in each computing / processing device receives computer readable program instructions from a network and transfers these computer readable program instructions to a computer readable storage medium in the respective computing / processing device. Transfer as stored in.

本開示の動作を遂行するためのコンピュータ可読プログラム命令は、アセンブラ命令、命令セット・アーキテクチャ(ISA)命令、機械命令、機械依存命令、マイクロコード、ファームウェア命令、状態設定データであってよく、または、Smalltalk(R)やC++などのオブジェクト指向プログラミング言語、および、「C」プログラミング言語や類似のプログラミング言語などの従来の手続き型プログラミング言語を含めた、1つもしくは複数のプログラミング言語の任意の組合せで書かれたソース・コードとオブジェクト・コードとのいずれかであってよい。コンピュータ可読プログラム命令は、完全にユーザのコンピュータ上で実行されるか、スタンドアロン・ソフトウェア・パッケージとして部分的にユーザのコンピュータ上で実行されるか、部分的にユーザのコンピュータ上で実行され部分的にリモート・コンピュータ上で実行されるか、または完全にリモート・コンピュータもしくはサーバ上で実行される場合がある。後者のシナリオでは、リモート・コンピュータは、ローカル・エリア・ネットワーク(LAN)もしくはワイド・エリア・ネットワーク(WAN)を含めた任意のタイプのネットワークを介してユーザのコンピュータに接続されてもよく、または、接続は、外部コンピュータに対して(例えば、インターネット・サービス・プロバイダを使用してインターネット経由で)行われてもよい。いくつかの実施形態では、プログラマブル・ロジック回路、フィールド・プログラマブル・ゲート・アレイ(FPGA)、またはプログラマブル・ロジック・アレイ(PLA)、を例えば含む電子回路が、本開示の態様を実施するために、コンピュータ可読プログラム命令の状態情報を利用して電子回路を個人化することによって、コンピュータ可読プログラム命令を実行することができる。   The computer readable program instructions for performing the operations of the present disclosure may be assembler instructions, instruction set architecture (ISA) instructions, machine instructions, machine dependent instructions, microcode, firmware instructions, state setting data, or Write in any combination of one or more programming languages, including object-oriented programming languages such as Smalltalk® and C ++, and conventional procedural programming languages such as the “C” programming language and similar programming languages. It may be either source code or object code written. The computer readable program instructions may be executed entirely on the user's computer, partially executed on the user's computer as a stand-alone software package, or partially executed on the user's computer. It may run on a remote computer or run entirely on a remote computer or server. In the latter scenario, the remote computer may be connected to the user's computer via any type of network, including a local area network (LAN) or wide area network (WAN), or The connection may be made to an external computer (eg, via the Internet using an Internet service provider). In some embodiments, an electronic circuit including, for example, a programmable logic circuit, a field programmable gate array (FPGA), or a programmable logic array (PLA), for implementing aspects of the present disclosure, Computer readable program instructions can be executed by personalizing the electronic circuit using state information of the computer readable program instructions.

本明細書では、本開示の態様が、本発明の実施形態による方法、装置(システム)、およびコンピュータ・プログラム製品の、フローチャート説明またはブロック図あるいはその両方に関して記述される。フローチャート説明またはブロック図あるいはその両方の各ブロック、および、フローチャート説明またはブロック図あるいはその両方の中のブロックの組合せを、コンピュータ可読プログラム命令によって実装できることは理解されるであろう。   Aspects of the disclosure are described herein with reference to flowchart illustrations and / or block diagrams of methods, apparatus (systems), and computer program products according to embodiments of the invention. It will be understood that each block of the flowchart description and / or block diagram, and combinations of blocks in the flowchart description and / or block diagram, can be implemented by computer readable program instructions.

これらのコンピュータ可読プログラム命令は、コンピュータまたは他のプログラム可能データ処理装置のプロセッサを介して実行される命令が、フローチャートまたはブロック図あるいはその両方の1つまたは複数のブロック中で指定される機能/行為を実装する手段をもたらすように、汎用コンピュータ、専用コンピュータ、または他のプログラム可能データ処理装置のプロセッサに提供されて、マシンを作り出すものであってよい。これらのコンピュータ可読プログラム命令はまた、命令が記憶されたコンピュータ可読ストレージ媒体が、フローチャートまたはブロック図あるいはその両方の1つまたは複数のブロック中で指定される機能/行為の態様を実装する命令を含む製造品を構成するように、コンピュータ可読ストレージ媒体に記憶され、コンピュータ、プログラム可能データ処理装置、または他のデバイス、あるいはそれらの組合せに、特定の方式で機能するよう指示することができるものであってもよい。   These computer readable program instructions correspond to functions / acts in which instructions executed via a processor of a computer or other programmable data processing device are specified in one or more blocks of a flowchart and / or block diagram. May be provided to the processor of a general purpose computer, special purpose computer, or other programmable data processing device to create a machine to provide a means for implementing These computer-readable program instructions also include instructions that cause the computer-readable storage medium on which the instructions are stored to implement aspects of the function / act specified in one or more blocks in the flowcharts and / or block diagrams. One that is stored on a computer readable storage medium and that can direct a computer, programmable data processor, or other device, or a combination thereof, to function in a particular manner to constitute an article of manufacture. You may.

コンピュータ可読プログラム命令はまた、コンピュータ、他のプログラム可能装置、または他のデバイス上で実行される命令が、フローチャートまたはブロック図あるいはその両方の1つまたは複数のブロック中で指定される機能/行為を実装するように、コンピュータ実装プロセスを作り出すべく、コンピュータ、他のプログラム可能データ処理装置、または他のデバイスにロードされ、コンピュータ、他のプログラム可能装置、または他のデバイス上で一連の動作ステップを実施させるものであってもよい。   The computer readable program instructions also describe the instructions that are executed on the computer, other programmable devices, or other devices, when the instructions / functions are specified in one or more blocks in a flowchart and / or block diagram. As implemented, loaded into a computer, other programmable data processing device, or other device to perform a series of operational steps on the computer, other programmable device, or other device, to create a computer-implemented process. It may be the one that causes it.

図中のフローチャートおよびブロック図は、本開示の様々な実施形態によるシステム、方法、およびコンピュータ・プログラム製品の可能な実装形態の、アーキテクチャ、機能、および動作を示す。これに関して、フローチャートまたはブロック図の中の各ブロックは、モジュール、セグメント、または命令の一部を表すことができ、これは、指定される論理機能を実装するための1つまたは複数の実行可能命令を含む。いくつかの代替実装形態では、ブロック中で示される機能は、図中で示される順序とは異なる順序で生じる場合がある。例えば、関連する機能に応じて、連続して示される2つのブロックが実際にはほぼ同時に実行される場合もあり、またはこれらのブロックが逆の順序で実行されることもある。また、ブロック図またはフローチャート説明あるいはその両方の各ブロック、および、ブロック図またはフローチャート説明あるいはその両方の中のブロックの組合せは、指定される機能もしくは行為を実施するかまたは専用ハードウェアとコンピュータ命令との組合せを遂行する、専用ハードウェアベースのシステムによって実装できることにも留意されるであろう。   The flowcharts and block diagrams in the figures illustrate the architecture, functionality, and operation of possible implementations of systems, methods, and computer program products according to various embodiments of the present disclosure. In this regard, each block in the flowcharts or block diagrams may represent a module, a segment, or a portion of an instruction, which may include one or more executable instructions for implementing the specified logical function (s). including. In some alternative implementations, the functions noted in the block may occur out of the order noted in the figures. For example, depending on the functions involved, two blocks shown in succession may actually be performed substantially simultaneously, or they may be performed in the reverse order. In addition, blocks in the block diagrams and / or flowchart illustrations, and combinations of blocks in the block diagrams and / or flowchart illustrations, may perform specified functions or actions, or may contain dedicated hardware and computer instructions. It should also be noted that it can be implemented by a dedicated hardware-based system that performs a combination of.

1つまたは複数の実施形態では、本発明をクラウド・コンピューティング環境で実装できることを理解されたい。   It is to be understood that in one or more embodiments, the invention may be implemented in a cloud computing environment.

クラウド・コンピューティングは、最小限の管理労力で、またはサービスのプロバイダとの最小限の対話で迅速にプロビジョニングでき解放できる構成可能なコンピューティング・リソース(例えば、ネットワーク、ネットワーク帯域幅、サーバ、処理、メモリ、ストレージ、アプリケーション、バーチャル・マシン、およびサービス)の共有プールへの便利なオンデマンドのネットワーク・アクセスを可能にするための、サービス送達のモデルである。このクラウド・モデルは、少なくとも5つの特徴、少なくとも3つのサービス・モデル、および少なくとも4つの展開モデルを含むことができる。   Cloud computing is a configurable computing resource that can be quickly provisioned and released with minimal administrative effort or with minimal interaction with service providers (eg, networks, network bandwidth, servers, processing, A model of service delivery to allow convenient on-demand network access to a shared pool of memory, storage, applications, virtual machines, and services). The cloud model may include at least five features, at least three service models, and at least four deployment models.

特徴は次のとおりである。
オンデマンド・セルフサービス:クラウド消費者は、必要に応じて、サービスのプロバイダとの人的な対話を必要とすることなく自動的に、サーバ時間やネットワーク・ストレージなどのコンピューティング能力を単方向にプロビジョニングすることができる。
幅広いネットワーク・アクセス:能力はネットワークを介して利用可能であり、能力はまた、異種シン・クライアント・プラットフォームまたはシック・クライアント・プラットフォーム(例えば、モバイル・フォン、ラップトップ、およびPDA)による使用を促進する標準的なメカニズムを介してアクセスされる。
リソース・プーリング:プロバイダのコンピューティング・リソースは、マルチテナント・モデルを使用する複数の消費者に役立つようにプールされ、異なる複数の物理リソースおよび仮想リソースが、需要に従って動的に割当ておよび再割当てされる。消費者は一般に、提供されるリソースの正確な場所に関して制御も知識も有しないが、より高い抽象化レベル(例えば、国、州、またはデータセンタ)で場所を指定することはできる場合があるという点で、ある意味での場所独立性がある。
迅速な弾力性:能力を迅速かつ弾力的に、場合によっては自動的にプロビジョニングして素早くスケールアウトし、迅速に解放して素早くスケールインすることができる。消費者にとっては、プロビジョニングのために利用可能な能力はしばしば無限に見え、いつでもどのような量でも購入することができる。
測定されるサービス:クラウド・システムは、サービスのタイプ(例えば、ストレージ、処理、帯域幅、およびアクティブ・ユーザ・アカウント)に適した何らかの抽象化レベルで計測能力を活用することによって、リソース使用を自動的に制御および最適化する。リソース使用は、監視、制御、および報告することができ、これにより、利用されるサービスのプロバイダと消費者の両方にとってのトランスペアレンシがもたらされる。
The features are as follows.
On-demand self-service: Cloud consumers automatically unidirectionally compute computing power, such as server time and network storage, as needed, without the need for human interaction with service providers Can be provisioned.
Broad Network Access: Capabilities are available over the network, and capabilities also facilitate use by heterogeneous thin or thick client platforms (eg, mobile phones, laptops, and PDAs). Accessed via standard mechanisms.
Resource pooling: Provider computing resources are pooled to serve multiple consumers using a multi-tenant model, and different physical and virtual resources are dynamically allocated and reallocated according to demand. You. Consumers generally have no control or knowledge about the exact location of the provided resources, but may be able to specify locations at a higher level of abstraction (eg, country, state, or data center). In that respect, there is a sense of place independence.
Rapid resilience: Capabilities can be provisioned quickly and resiliently, sometimes automatically, and scaled out quickly, released quickly and scaled in quickly. To the consumer, the capacity available for provisioning often looks endless and can be purchased at any time and in any quantity.
Measured services: The cloud system automates resource usage by leveraging metering capabilities at some level of abstraction appropriate to the type of service (eg, storage, processing, bandwidth, and active user accounts). Control and optimization. Resource usage can be monitored, controlled, and reported, resulting in transparency for both the provider and the consumer of the service used.

サービス・モデルは次のとおりである。
ソフトウェア・アズ・ア・サービス(SaaS):消費者に提供される能力は、クラウド・インフラストラクチャ上で実行されている、プロバイダのアプリケーションを使用することである。アプリケーションへのアクセスは、ウェブ・ブラウザなどのシン・クライアント・インタフェースを介して様々なクライアント・デバイスから可能である(例えば、ウェブベースの電子メール)。消費者は、ネットワーク、サーバ、オペレーティング・システム、ストレージ、さらには個々のアプリケーション能力をも含めた、基礎をなすクラウド・インフラストラクチャを管理することも制御することもしないが、限られたユーザ特有アプリケーション構成設定については例外である可能性がある。
プラットフォーム・アズ・ア・サービス(PaaS):消費者に提供される能力は、プロバイダによってサポートされるプログラミング言語およびツールを使用して作成された、消費者によって作成または取得されたアプリケーションを、クラウド・インフラストラクチャ上に展開することである。消費者は、ネットワーク、サーバ、オペレーティング・システム、またはストレージを含めた、基礎をなすクラウド・インフラストラクチャを管理することも制御することもしないが、展開されたアプリケーションに対する制御、およびおそらくはアプリケーション・ホスティング環境構成に対する制御を有する。
インフラストラクチャ・アズ・ア・サービス(IaaS):消費者に提供される能力は、処理、ストレージ、ネットワーク、および他の基本的なコンピューティング・リソースをプロビジョニングすることであり、この場合、消費者は、オペレーティング・システムおよびアプリケーションを含み得る任意のソフトウェアを展開および実行することができる。消費者は、基礎をなすクラウド・インフラストラクチャを管理することも制御することもしないが、オペレーティング・システム、ストレージ、展開されたアプリケーションに対する制御、およびおそらくは、精選されたネットワーキング・コンポーネント(例えばホスト・ファイアウォール)の限られた制御を有する。
The service model is as follows.
Software as a Service (SaaS): The ability provided to consumers is to use a provider's application running on a cloud infrastructure. Access to the application is possible from various client devices (eg, web-based email) via a thin client interface, such as a web browser. Consumers do not manage or control the underlying cloud infrastructure, including network, server, operating system, storage, and even individual application capabilities, but have limited user-specific applications Configuration settings can be an exception.
Platform as a Service (PaaS): The ability provided to consumers is the ability to create and obtain applications created or obtained by consumers using programming languages and tools supported by the provider. To deploy on infrastructure. Consumers do not manage or control the underlying cloud infrastructure, including networks, servers, operating systems, or storage, but control over deployed applications, and possibly an application hosting environment Has control over configuration.
Infrastructure as a Service (IaaS): The ability provided to the consumer is to provision processing, storage, networking, and other basic computing resources, where the consumer , Any software that can include operating systems and applications. Consumers do not manage or control the underlying cloud infrastructure, but control over the operating system, storage, deployed applications, and possibly selected networking components (eg, host firewalls). ) With limited control.

展開モデルは次のとおりである。
プライベート・クラウド:クラウド・インフラストラクチャは、組織のためにのみ運用される。クラウド・インフラストラクチャは、この組織またはサード・パーティによって管理されてよく、構内または構外に存在してよい。
コミュニティ・クラウド:クラウド・インフラストラクチャは、いくつかの組織によって共有され、共有の関心事(例えば、ミッション、セキュリティ要件、ポリシー、およびコンプライアンス考慮事項)を有する特定のコミュニティをサポートする。クラウド・インフラストラクチャは、これらの組織またはサード・パーティによって管理されてよく、構内または構外に存在してよい。
パブリック・クラウド:クラウド・インフラストラクチャは、一般大衆または大規模な業界団体が利用できるようにされ、クラウド・サービスを販売する組織によって所有される。
ハイブリッド・クラウド:クラウド・インフラストラクチャは、2つ以上のクラウド(プライベート、コミュニティ、またはパブリック)の複合物である。これらのクラウドは、独自のエンティティのままであるが、データおよびアプリケーションの可搬性を可能にする標準化された技術またはプロプラエタリ技術によって1つにまとめられる(例えば、クラウド間の負荷平衡のためのクラウド・バースティング)。
The deployment model is as follows.
Private cloud: The cloud infrastructure operates only for the organization. The cloud infrastructure may be managed by this organization or a third party and may be on-premises or off-premises.
Community Cloud: The cloud infrastructure is shared by several organizations and supports specific communities with shared interests (eg, mission, security requirements, policies, and compliance considerations). The cloud infrastructure may be managed by these organizations or third parties and may be on-premises or off-premises.
Public Cloud: The cloud infrastructure is made available to the general public or large industry associations and is owned by the organization that sells the cloud services.
Hybrid cloud: A cloud infrastructure is a composite of two or more clouds (private, community, or public). These clouds remain their own entities, but are brought together by standardized or proprietary technologies that enable data and application portability (e.g., cloud load balancing for cloud-to-cloud load balancing). Bursting).

クラウド・コンピューティング環境はサービス指向であり、ステートレス性、低結合、モジュール性、およびセマンティックな相互運用性に焦点が合わされる。クラウド・コンピューティングの中心には、相互接続されたノードのネットワークを構成するインフラストラクチャがある。   Cloud computing environments are service-oriented and focus on statelessness, low coupling, modularity, and semantic interoperability. At the heart of cloud computing is the infrastructure that makes up a network of interconnected nodes.

次に図1を参照すると、クラウド・コンピューティング・ノードの例の概略図が示されている。クラウド・コンピューティング・ノード10は、適切なクラウド・コンピューティング・ノードの一例に過ぎず、本明細書に記載の本発明の実施形態の使用または機能の範囲についてどのような限定も示唆するものとしない。ともかく、クラウド・コンピューティング・ノード10は、前述の機能のいずれかと共に実装されること、または前述の機能のいずれかを実施すること、あるいはその両方が可能である。   Referring now to FIG. 1, a schematic diagram of an example of a cloud computing node is shown. Cloud computing node 10 is merely an example of a suitable cloud computing node, and is not meant to imply any limitations as to the scope of use or functionality of the embodiments of the invention described herein. do not do. Regardless, the cloud computing node 10 can be implemented with any of the foregoing functions and / or perform any of the above functions.

クラウド・コンピューティング・ノード10中には、コンピュータ・システム/サーバ12があり、コンピュータ・システム/サーバ12は、他の多くの汎用または専用のコンピューティング・システム環境または構成でも動作する。コンピュータ・システム/サーバ12と共に使用するのに適する可能性のある周知のコンピューティング・システム、環境、または構成、あるいはそれらの組合せの例としては、パーソナル・コンピュータ・システム、サーバ・コンピュータ・システム、シン・クライアント、シック・クライアント、ハンドヘルド・デバイスまたはラップトップ・デバイス、マルチプロセッサ・システム、マイクロプロセッサベースのシステム、セット・トップ・ボックス、プログラム可能な消費者電子機器、ネットワークPC、ミニコンピュータ・システム、メインフレーム・コンピュータ・システム、および、これらのシステムまたはデバイスのいずれかを含む分散クラウド・コンピューティング環境、などが挙げられるが、これらに限定されない。   Within the cloud computing node 10 is a computer system / server 12, which also operates in many other general purpose or special purpose computing system environments or configurations. Examples of well-known computing systems, environments, or configurations, or combinations thereof, that may be suitable for use with computer system / server 12, include personal computer systems, server computer systems, thin computers, and the like. Clients, thick clients, handheld or laptop devices, multiprocessor systems, microprocessor-based systems, set-top boxes, programmable consumer electronics, network PCs, minicomputer systems, main Including, but not limited to, frame computer systems, and distributed cloud computing environments that include any of these systems or devices.

コンピュータ・システム/サーバ12は、プログラム・モジュールなど、コンピュータ・システムによって実行されるコンピュータ・システム実行可能命令の一般的なコンテキストで記述することができる。一般に、プログラム・モジュールは、特定のタスクを実施するかまたは特定の抽象データ型を実装するルーチン、プログラム、オブジェクト、コンポーネント、ロジック、データ構造などを含む場合がある。コンピュータ・システム/サーバ12は、分散クラウド・コンピューティング環境で実践されてよく、その場合、タスクは、通信ネットワークを介してリンクされたリモート処理デバイスによって実施される。分散クラウド・コンピューティング環境では、プログラム・モジュールは、メモリ・ストレージ・デバイスを含めたローカルとリモートの両方のコンピュータ・システム・ストレージ媒体中に位置する場合がある。   Computer system / server 12 may be described in the general context of computer system executable instructions executed by a computer system, such as program modules. Generally, program modules may include routines, programs, objects, components, logic, data structures, etc. that perform particular tasks or implement particular abstract data types. Computer system / server 12 may be practiced in a distributed cloud computing environment, where tasks are performed by remote processing devices that are linked through a communications network. In a distributed cloud computing environment, program modules may be located in both local and remote computer system storage media including memory storage devices.

図1に示されるように、クラウド・コンピューティング・ノード10中のコンピュータ・システム/サーバ12は、汎用コンピューティング・デバイスの形で示されている。コンピュータ・システム/サーバ12のコンポーネントは、1つまたは複数のプロセッサまたは処理ユニット16と、システム・メモリ28と、システム・メモリ28を含めた様々なシステム・コンポーネントをプロセッサ16に結合するバス18と、を含むことができるが、これらに限定されない。   As shown in FIG. 1, a computer system / server 12 in a cloud computing node 10 is shown in the form of a general-purpose computing device. The components of the computer system / server 12 include one or more processors or processing units 16, a system memory 28, a bus 18 that couples various system components including the system memory 28 to the processor 16, , But is not limited thereto.

バス18は、様々なバス・アーキテクチャのいずれかを使用する、メモリ・バスまたはメモリ・コントローラ、周辺バス、アクセラレーテッド・グラフィックス・ポート、およびプロセッサまたはローカル・バスを含めた、いくつかのタイプのバス構造のいずれかの1つまたは複数を表す。限定ではなく例として、このようなアーキテクチャは、ISA(Industry Standard Architecture)バス、MCA(MicroChannel Architecture)バス、EISA(Enhanced ISA)バス、VESA(Video Electronics Standards Association)ローカル・バス、およびPCI(Peripheral Component Interconnects)バスを含む。   Bus 18 may use any of a number of types, including memory buses or controllers, peripheral buses, accelerated graphics ports, and processor or local buses, using any of a variety of bus architectures. Represents one or more of the following bus structures. By way of example, and not limitation, such architectures include Industry Standard Architecture (ISA) buses, MicroChannel Architecture (MCA) buses, Enhanced ISA (EISA) buses, Video Electronics Standards Association (VESA) local buses, and PCI (Peripheral Component Interconnects) bus.

コンピュータ・システム/サーバ12は通常、様々なコンピュータ・システム可読媒体を備える。このような媒体は、コンピュータ・システム/サーバ12からアクセス可能な任意の利用可能な媒体とすることができ、揮発性と不揮発性の媒体、取外し可能と取外し不能の媒体の両方を含む。   Computer system / server 12 typically includes a variety of computer system readable media. Such media can be any available media that can be accessed by computer system / server 12 and includes both volatile and nonvolatile media, removable and non-removable media.

システム・メモリ28は、ランダム・アクセス・メモリ(RAM)30またはキャッシュ・メモリ32あるいはその両方など、揮発性メモリの形のコンピュータ・システム可読媒体を含むことができる。コンピュータ・システム/サーバ12はさらに、他の取外し可能/取外し不能、揮発性/不揮発性コンピュータ・システム・ストレージ媒体を備えることもできる。例に過ぎないが、取外し不能な不揮発性の磁気媒体(図示せず。典型的には「ハード・ドライブ」と呼ばれる)に対して読取りおよび書込みするために、ストレージ・システム34が設けられてよい。図示されていないが、取外し可能な不揮発性の磁気ディスク(例えば「フロッピー(R)・ディスク」)に対して読取りおよび書込みするための磁気ディスク・ドライブと、CD−ROM、DVD−ROM、または他の光学媒体など、取外し可能な不揮発性の光学ディスクに対して読取りまたは書込みするため光学ディスク・ドライブとが設けられてよい。このような事例では、各ドライブは、1つまたは複数のデータ媒体インタフェースによってバス18に接続されてよい。後でさらに図示および記述されるように、メモリ28は、本発明の実施形態の機能を遂行するように構成された1組の(例えば少なくとも1つの)プログラム・モジュールを有する少なくとも1つのプログラム製品を含むことができる。   System memory 28 may include computer system readable media in the form of volatile memory, such as random access memory (RAM) 30 and / or cache memory 32. Computer system / server 12 may also include other removable / non-removable, volatile / non-volatile computer system storage media. By way of example only, a storage system 34 may be provided for reading and writing to non-removable, non-volatile magnetic media (not shown; typically referred to as a “hard drive”). . Although not shown, a magnetic disk drive for reading and writing to a removable non-volatile magnetic disk (eg, a "floppy (R) disk") and a CD-ROM, DVD-ROM, or other An optical disk drive may be provided for reading from or writing to a removable non-volatile optical disk, such as the optical media described above. In such a case, each drive may be connected to bus 18 by one or more data media interfaces. As will be further shown and described below, memory 28 stores at least one program product having a set (eg, at least one) of program modules configured to perform the functions of the embodiments of the present invention. Can be included.

1組の(少なくとも1つの)プログラム・モジュール42を有するプログラム/ユーティリティ40が、限定ではなく例としてメモリ28に記憶されてよく、また、オペレーティング・システム、1つまたは複数のアプリケーション・プログラム、他のプログラム・モジュール、およびプログラム・データも記憶されてよい。オペレーティング・システム、1つまたは複数のアプリケーション・プログラム、他のプログラム・モジュール、およびプログラム・データ、またはこれらの何らかの組合せはそれぞれ、ネットワーキング環境の一実装形態を含むことができる。プログラム・モジュール42は一般に、本明細書に記載の本発明の実施形態の、機能または方法あるいはその両方を遂行する。   A program / utility 40 having a set of (at least one) program module 42 may be stored in memory 28 by way of example and not limitation, and may include an operating system, one or more application programs, other Program modules and program data may also be stored. The operating system, one or more application programs, other program modules, and program data, or some combination thereof, may each include an implementation of a networking environment. Program module 42 generally performs the functions and / or methods of the embodiments of the invention described herein.

コンピュータ・システム/サーバ12はまた、1つまたは複数の外部デバイス14と通信することができる。外部デバイス14は、キーボード、ポインティング・デバイス、ディスプレイ24等、ユーザがコンピュータ・システム/サーバ12と対話できるようにする1つもしくは複数のデバイス、または、コンピュータ・システム/サーバ12が1つもしくは複数の他のコンピューティング・デバイスと通信できるようにする任意のデバイス(例えば、ネットワーク・カード、モデムなど)、あるいはそれらの組合せ、などである。このような通信は、入出力(I/O)インタフェース22を介して行うことができる。さらに、コンピュータ・システム/サーバ12は、ネットワーク・アダプタ20を介して、ローカル・エリア・ネットワーク(LAN)、一般的なワイド・エリア・ネットワーク(WAN)、または公衆ネットワーク(例えばインターネット)、あるいはそれらの組合せなど、1つまたは複数のネットワークと通信することができる。図示のように、ネットワーク・アダプタ20は、バス18を介して、コンピュータ・システム/サーバ12の他のコンポーネントと通信する。図示されていないが、他のハードウェア・コンポーネントまたはソフトウェア・コンポーネントあるいはその両方が、コンピュータ・システム/サーバ12と共に使用されてもよいことを理解されたい。例としては、マイクロコード、デバイス・ドライバ、冗長処理ユニット、外部ディスク・ドライブ・アレイ、RAIDシステム、テープ・ドライブ、およびデータ・アーカイバル・ストレージ・システムなどが挙げられるが、これらに限定されない。   Computer system / server 12 can also communicate with one or more external devices 14. External device 14 may be one or more devices that allow a user to interact with computer system / server 12, such as a keyboard, pointing device, display 24, or one or more devices that computer system / server 12 may have. Any device (eg, network card, modem, etc.) that allows it to communicate with other computing devices, or a combination thereof. Such communication can be performed via an input / output (I / O) interface 22. Further, the computer system / server 12 may be connected via a network adapter 20 to a local area network (LAN), a general wide area network (WAN), or a public network (eg, the Internet), or any of them. It can communicate with one or more networks, such as a combination. As shown, network adapter 20 communicates with other components of computer system / server 12 via bus 18. Although not shown, it should be understood that other hardware components and / or software components may be used with computer system / server 12. Examples include, but are not limited to, microcode, device drivers, redundant processing units, external disk drive arrays, RAID systems, tape drives, and data archival storage systems.

本開示の1つまたは複数の実施形態では、外部デバイス14は、図1に示されるコンピュータ・システム/サーバ12のアーキテクチャを利用する。同様に、コンピュータ・システム/サーバ12のアーキテクチャは、図4に示される電子デバイス402または情報クラウド・サーバ404あるいはその両方において実装されてよい。   In one or more embodiments of the present disclosure, external device 14 utilizes the architecture of computer system / server 12 shown in FIG. Similarly, the architecture of the computer system / server 12 may be implemented in the electronic device 402 and / or the information cloud server 404 shown in FIG.

次に図2を参照すると、例証的なクラウド・コンピューティング環境50が描かれている。図示のように、クラウド・コンピューティング環境50は、1つまたは複数のクラウド・コンピューティング・ノード10を含み、クラウド消費者によって使用されるローカル・コンピューティング・デバイス、例えば、パーソナル・ディジタル・アシスタント(PDA)もしくはセルラー電話機54A、デスクトップ・コンピュータ54B、ラップトップ・コンピュータ54C、または自動車コンピュータ・システム54N、あるいはそれらの組合せなどが、クラウド・コンピューティング・ノード10と通信することができる。ノード10は、相互に通信することができる。これらは、前述のようなプライベート・クラウド、コミュニティ・クラウド、パブリック・クラウド、もしくはハイブリッド・クラウド、またはこれらの組合せなど、1つまたは複数のネットワーク中で、物理的または仮想的にグループ化されてよい(図示せず)。これにより、クラウド・コンピューティング環境50は、クラウド消費者がリソースをローカル・コンピューティング・デバイス上で維持する必要のないサービスとして、インフラストラクチャ、プラットフォーム、またはソフトウェア、あるいはそれらの組合せを申し出ることができる。図2に示されるコンピューティング・デバイス54A〜Nのタイプは例証に過ぎないものとし、コンピューティング・ノード10およびクラウド・コンピューティング環境50は、任意のタイプのネットワークまたはネットワーク対応可能接続あるいはその両方を介して(例えばウェブ・ブラウザを使用して)、任意のタイプのコンピュータ化デバイスと通信できることを理解されたい。   Referring now to FIG. 2, an illustrative cloud computing environment 50 is depicted. As shown, the cloud computing environment 50 includes one or more cloud computing nodes 10 and a local computing device used by a cloud consumer, such as a personal digital assistant ( A PDA) or cellular telephone 54A, a desktop computer 54B, a laptop computer 54C, or an automotive computer system 54N, or a combination thereof, etc., can communicate with the cloud computing node 10. Nodes 10 can communicate with each other. These may be physically or virtually grouped in one or more networks, such as a private cloud, community cloud, public cloud, or hybrid cloud as described above, or a combination thereof. (Not shown). This allows the cloud computing environment 50 to offer infrastructure, platforms, or software, or a combination thereof, as a service that does not require the cloud consumer to maintain resources on the local computing device. . The types of computing devices 54A-N shown in FIG. 2 are merely exemplary, and computing node 10 and cloud computing environment 50 may include any type of network and / or network-capable connection. It should be appreciated that any type of computerized device can be communicated via (eg, using a web browser).

次に図3を参照すると、クラウド・コンピューティング環境50(図2)によって提供される1組の機能的抽象化レイヤが示されている。図3に示されるコンポーネント、レイヤ、および機能は例証に過ぎないものとし、本発明の実施形態はこれらに限定されないことを、あらかじめ理解されたい。図示のように、以下のレイヤおよび対応する機能が提供される。   Referring now to FIG. 3, a set of functional abstraction layers provided by the cloud computing environment 50 (FIG. 2) is shown. It should be understood in advance that the components, layers, and functions shown in FIG. 3 are merely exemplary and that embodiments of the present invention are not limited thereto. As shown, the following layers and corresponding functions are provided.

ハードウェアおよびソフトウェア・レイヤ60は、ハードウェア・コンポーネントおよびソフトウェア・コンポーネントを含む。ハードウェア・コンポーネントの例としては、メインフレーム、一例ではIBM(R)zSeries(R)システム、RISC(縮小命令セット・コンピュータ)アーキテクチャベースのサーバ、一例ではIBM pSeries(R)システム、IBM xSeries(R)システム、IBM BladeCenter(R)システム、ストレージ・デバイス、ネットワークおよびネットワーキング・コンポーネント、が挙げられる。ソフトウェア・コンポーネントの例は、ネットワーク・アプリケーション・サーバ・ソフトウェア、一例ではIBM WebSphere(R)アプリケーション・サーバ・ソフトウェア、およびデータベース・ソフトウェア、一例ではIBM DB2(R)データベース・ソフトウェア、を含む。(IBM、zSeries、pSeries、xSeries、BladeCenter、WebSphere、およびDB2は、世界中の多くの管轄区において登録されたインターナショナル・ビジネス・マシーンズ・コーポレーション(International Business Machines Corporation)の商標である)   Hardware and software layer 60 includes hardware and software components. Examples of hardware components are mainframes, in one example an IBM (R) zSeries (R) system, a server based on a reduced instruction set computer (RISC) architecture, in one example an IBM pSeries (R) system, an IBM xSeries (R) ) Systems, IBM BladeCenter (R) systems, storage devices, networks and networking components. Examples of software components include network application server software, in one example, IBM WebSphere® application server software, and database software, in one example, IBM DB2® database software. (IBM, zSeries, pSeries, xSeries, BladeCenter, WebSphere, and DB2 are trademarks of International Business Machines Corporation, registered in many jurisdictions worldwide.)

仮想化レイヤ62は、仮想エンティティの以下の例がそこから提供され得る抽象化レイヤを提供する。すなわち、仮想サーバ、仮想ストレージ、仮想プライベート・ネットワークを含む仮想ネットワーク、仮想アプリケーションおよびオペレーティング・システム、ならびに仮想クライアント、が提供され得る。   The virtualization layer 62 provides an abstraction layer from which the following examples of virtual entities can be provided. That is, virtual servers, virtual storage, virtual networks including virtual private networks, virtual applications and operating systems, and virtual clients may be provided.

一例では、管理レイヤ64は、以下に述べる機能を提供することができる。リソース・プロビジョニングは、クラウド・コンピューティング環境内でタスクを実施するのに利用されるコンピューティング・リソースおよび他のリソースの動的な調達を提供する。計測および価格設定は、クラウド・コンピューティング環境内でリソースが利用されるのに伴うコスト追跡と、これらのリソースの消費に対する課金または送り状送付とを提供する。一例では、これらのリソースは、アプリケーション・ソフトウェア・ライセンスを含む場合がある。セキュリティは、クラウド消費者およびタスクに対する識別検証、ならびに、データおよび他のリソースのための保護を提供する。ユーザ・ポータルは、クラウド・コンピューティング環境へのアクセスを消費者およびシステム管理者に提供する。サービス・レベル管理は、必要とされるサービス・レベルが満たされるように、クラウド・コンピューティング・リソース割振りおよび管理を提供する。サービス・レベル・アグリーメント(SLA)プランニングおよび履行は、SLAに従って、将来必要とされることが予期されるクラウド・コンピューティング・リソースの事前構成および調達を提供する。   In one example, management layer 64 can provide the functions described below. Resource provisioning provides for the dynamic sourcing of computing and other resources utilized to perform tasks within a cloud computing environment. Metering and pricing provides the cost tracking as resources are utilized within a cloud computing environment, and the billing or invoicing of the consumption of these resources. In one example, these resources may include an application software license. Security provides identity verification for cloud consumers and tasks, as well as protection for data and other resources. A user portal provides consumers and system administrators with access to a cloud computing environment. Service level management provides cloud computing resource allocation and management so that required service levels are met. Service Level Agreement (SLA) planning and fulfillment provides for the pre-configuration and procurement of cloud computing resources that are expected to be needed in the future according to the SLA.

ワークロード・レイヤ66は、クラウド・コンピューティング環境を利用できる対象となる機能の例を提供する。このレイヤから提供できるワークロードおよび機能の例としては、マッピングおよびナビゲーション、ソフトウェア開発およびライフサイクル管理、仮想教室教育の配信、データ分析処理、トランザクション処理、ならびに、本明細書に記載のような、かつワークロード・レイヤ66中に見られる「情報照会処理」によって表されるような、電子デバイスからの情報照会を扱うこと、が挙げられる。   Workload layer 66 provides examples of functions for which a cloud computing environment can be utilized. Examples of workloads and functions that can be provided from this layer include mapping and navigation, software development and life cycle management, virtual classroom education delivery, data analysis processing, transaction processing, and as described herein, and Handling information queries from electronic devices, as represented by the "information query process" found in the workload layer 66.

次に図4を参照すると、例示的なシステム400は、従来技術に見られない、かつ本発明が利用され得る、様々な新しく新規な技術的特徴の、技術的特性または相互運用性あるいはその両方を描いている。より具体的には、図4に描かれた要素であって、図5に描かれる動作に関してさらに記述される要素は、ユーザによって生成された情報照会の性質および範囲を照会ロジックが明確かつ効率的に識別することができないという問題を解決する。本開示は、照会の主題(subject)の性質を明確にする増補センサ(視覚的、音、化学的など)の使用を通して、この問題を解決する。   Referring now to FIG. 4, an exemplary system 400 illustrates various new and novel technical features, technical characteristics and / or interoperability not found in the prior art and in which the present invention may be utilized. Is drawing. More specifically, the elements depicted in FIG. 4 and further described with respect to the operations depicted in FIG. 5, the query logic defines the nature and scope of the information query generated by the user with clear and efficient Solve the problem of not being able to identify. The present disclosure solves this problem through the use of augmented sensors (visual, acoustic, chemical, etc.) that define the nature of the subject of the query.

スマート・フォン、パーソナル・ディジタル・アシスタント、タブレット・コンピュータなどの電子デバイス402が、ネットワーク406を介して情報クラウド・サーバ404と通信することができる。ネットワーク406は、有線(例えばインターネット)、ワイヤレス(例えばWi−Fiシステム)、または両方の組合せ、あるいはそれらの組合せであってよい。   An electronic device 402, such as a smart phone, a personal digital assistant, a tablet computer, etc., can communicate with the information cloud server 404 via a network 406. Network 406 may be wired (eg, the Internet), wireless (eg, a Wi-Fi system), or a combination of both, or a combination thereof.

電子デバイス402はユーザ・インタフェース408を備え、ユーザ・インタフェース408は、「質問する」ボタン410において示されるように、「質問する」ようユーザに促すことができる。「質問する」ボタン410は、ユーザが「質問する」ボタン410(これは機械的ボタンであるか、またはユーザ・インタフェース408のタッチセンシティブ・エリアであってよい)を押したときに強調表示されてよく、したがって、音声ロジック414がマイクロフォン412を介してユーザの質問を受け取ることが可能にされたことを示す。音声ロジック414は、ユーザの質問を、ディジタル化されたフォーマットに変換する。このフォーマットは、プロセッサ416によってローカルに処理されるか、または情報クラウド・サーバ404によってリモートに処理されるか、あるいはその両方で処理されてよい。   Electronic device 402 includes a user interface 408, which may prompt the user to “ask a question”, as shown at “ask a question” button 410. The "Ask a Question" button 410 is highlighted when the user presses the "Ask a Question" button 410 (which can be a mechanical button or a touch-sensitive area of the user interface 408). Well, thus indicating that the audio logic 414 has been enabled to receive the user's question via the microphone 412. Speech logic 414 converts the user's question into a digitized format. This format may be processed locally by processor 416 or remotely by information cloud server 404, or both.

ユーザの質問をよりよく理解するために、追加情報が、「増補情報」としてプロセッサ416または情報クラウド・サーバ404あるいはその両方に提供される。この増補情報は、写真、ビデオ、音、化学シグネチャ(signature)、文書への参照、グラフィック・ファイルへの参照などの形であってよい。   To better understand the user's question, additional information is provided to processor 416 and / or information cloud server 404 as "augmented information." This augmentation information may be in the form of a photograph, video, sound, chemical signature, reference to a document, reference to a graphic file, and the like.

本開示の一実施形態では、ユーザの質問(すなわち情報を求める口頭要求)は、最初は不特定の対象に関するものである。例えば、質問が「これはどんな種類の花ですか?」である場合がある。言語質問のみを使用する場合、システムは、ユーザがどの「花」について尋ねているのかを「知る」ことができず、したがって、質問の中の「花」は不特定である(すなわち「不特定の対象」である)。本発明の1つまたは複数の実施形態によれば、電子デバイス402上のセンサが、不特定の対象に関する増補情報を提供する。   In one embodiment of the present disclosure, the user's question (i.e., verbal request for information) is initially about an unspecified subject. For example, the question may be "What kind of flower is this?" If only linguistic questions are used, the system cannot "know" which "flower" the user is asking about, so the "flower" in the question is unspecified (i.e., "unspecified" Subject of "). According to one or more embodiments of the present invention, sensors on electronic device 402 provide augmentation information about unspecified objects.

本開示の一実施形態では、この増補情報を提供するのに使用されるセンサは、カメラ420であり、カメラ420は、写真(すなわち静止写真)またはビデオ(すなわち動画の視覚的記録)あるいはその両方を作成する。カメラ420は、ユーザがカメラ・セレクタ・ボタン418を押すことによって選択され、カメラ・セレクタ・ボタン418は、電子デバイス402上のカメラ420を起動する。カメラ420で花の写真/ビデオを撮影した後には、システムは今や、照会に関する増補情報を有する。すなわち、ユーザが「これはどんな種類の花ですか?」と尋ねたとき、プロセッサ416または情報クラウド・サーバ404あるいはその両方は、結合ロジック(例えば、プロセッサ416の一部)を使用して、口頭質問(「これはどんな種類の花ですか?」)からの情報を、花の写真によって提供される増補情報と結合して、結合フォーマット情報要求を作成する。この情報結合を使用して、情報取出しロジック(例えばプロセッサ416)が今や、結合フォーマット情報要求に対する回答を取り出すことができる(例えばストレージ・デバイス430から)。このように、口頭/言語質問と、写真/ビデオからの視覚情報との両方が、データ照会ロジック(例えば、図3のワークロード66中で示される「情報照会処理」の一部)に提供される。これにより、データ照会ロジックは、質問を「聞く」ことと、質問の主題を「見る」ことの両方ができる。   In one embodiment of the present disclosure, the sensor used to provide this augmentation information is a camera 420, which may be a photograph (ie, a still photo) and / or a video (ie, a visual recording of a moving image) or both. Create Camera 420 is selected by the user pressing camera selector button 418, which activates camera 420 on electronic device 402. After taking the photo / video of the flower with camera 420, the system now has augmented information about the query. That is, when the user asks, "What kind of flower is this?", The processor 416 and / or the information cloud server 404 use verbal logic (eg, part of the processor 416) to verbally Combine the information from the question ("What kind of flower is this?") With the augmentation information provided by the flower picture to create a combined format information request. Using this information binding, information retrieval logic (eg, processor 416) can now retrieve the answer to the binding format information request (eg, from storage device 430). Thus, both verbal / language questions and visual information from photos / videos are provided to the data query logic (eg, part of the “information query process” shown in workload 66 of FIG. 3). You. This allows the data query logic to both "listen" to the question and "see" the subject of the question.

本開示の一実施形態では、プロセッサ416または情報クラウド・サーバ404あるいはその両方は、画像認識ソフトウェアを使用して、写真中の対象(例えば「花」)を識別する。すなわち、プロセッサ416または情報クラウド・サーバ404あるいはその両方は、花の形状、色、花弁数などを含めた、花のディジタル表現を生成し、このディジタル表現を花々に関するディジタル情報のデータベースと比較して、花をバラとして識別する。この情報(すなわち花タイプが「バラ」である)は、質問(「これはどんな種類の花ですか?」)と結合されて、結合フォーマット情報要求が作成される。この例では、システムは単に、増補情報からの回答「この花はバラです」を返す。   In one embodiment of the present disclosure, processor 416 and / or information cloud server 404 use image recognition software to identify objects (eg, “flowers”) in the photograph. That is, the processor 416 and / or the information cloud server 404 generate a digital representation of the flower, including the shape, color, number of petals, etc. of the flower, and compare this digital representation with a database of digital information about the flower. , Identify flowers as roses. This information (i.e., the flower type is "rose") is combined with the question ("What kind of flower is this?") To create a combined format information request. In this example, the system simply returns the answer "This flower is a rose" from the augmented information.

本開示の一実施形態では、結合フォーマット情報要求により、データ照会ロジックは、関連データベースを調べることができる。例えば、引き続き、ユーザからの照会が「これはどんな種類の花ですか?」であり、カメラ420からの写真によって作成された増補情報によりこの花が「バラ」であることが明らかにされると仮定する。データ照会ロジックはこの場合、これらのキーワード(すなわち「バラ」、「花」)を使用して、バラがどこで育つか、繁茂するために何を必要とするか(水、養分、日光など)、そのラテン語の二名法による名称などを含めた、「バラ」に関する他のデータベースを調べることができる。次いで、音声ロジック414は、調べられたデータベースからの追加情報を提供する申し出を、ユーザに対してプロンプトすることができる。一実施形態では、この申し出は、図4のストレージ・デバイス430中で見られるものなどのデータベース(図示せず)に記憶された、ユーザのプロファイルに基づく。例えば、ユーザが庭師であるという記録をストレージ・デバイス430が含む場合は、園芸に関する提言が申し出られてよく、ユーザが植物学の学生であるという記録をストレージ・デバイス430が含む場合は、ラテン語の二名法による名称が申し出られてよい。同様に、ユーザが化学者である(ユーザの記憶済みプロファイルにより)場合は、このタイプのバラからどの香料が作られるかに関する記述が申し出られてよい。   In one embodiment of the present disclosure, the combined format information request allows the data query logic to consult the relevant database. For example, if the query from the user continues to be "What kind of flower is this?" And the augmentation information created by the photo from camera 420 reveals that this flower is a "rose" Assume. The data query logic will then use these keywords (ie, "roses", "flowers") to determine where the roses need to grow and thrive (water, nutrients, sunlight, etc.) You can look up other databases about Roses, including their Latin two-name names. The audio logic 414 can then prompt the user for an offer to provide additional information from the consulted database. In one embodiment, the offer is based on the user's profile stored in a database (not shown), such as that found in storage device 430 of FIG. For example, if the storage device 430 includes a record that the user is a gardener, a horticultural recommendation may be offered, and if the storage device 430 includes a record that the user is a botanical student, the Latin word may be provided. Two-name names may be offered. Similarly, if the user is a chemist (due to the user's stored profile), a statement as to which fragrance is made from this type of rose may be offered.

本開示の一実施形態では、データ照会ロジック(例えば、プロセッサ416または情報クラウド・サーバ404あるいはその両方)は、ユーザ自身に関する情報を提供することができる。例えば、電子デバイス402のユーザに関する、このユーザが膝の手術を受けたことを示すエントリを、ストレージ・デバイス430が含むと仮定する。さらに、ユーザが、自分の膝のピクチャ(picture)をカメラ420で撮影し、次いで質問「私の膝は大丈夫ですか?」を発すると仮定する。プロセッサ416はこの場合、膝の現在のピクチャを、膝の以前のピクチャ(ストレージ・デバイス430中のこのユーザについてのプロファイルに記憶されている)と比較することになる。膝が、ユーザが前に膝を負傷した時の直後と同じように見える場合は、データ照会ロジックは、回答「あなたの膝は再び負傷したように思われます」を返すことができる。しかし、膝の視覚的画像が、負傷していないユーザの膝(または他の患者の膝)の他の写真と比較したときに「正常」と思われる場合は、データ照会ロジックは、回答「あなたの膝は良いように見えます」を返すことになる。   In one embodiment of the present disclosure, data query logic (eg, processor 416 and / or information cloud server 404) can provide information about the user himself. For example, assume that storage device 430 includes an entry for a user of electronic device 402 that indicates that the user has had a knee surgery. Further assume that the user takes a picture of his knee with camera 420 and then asks the question "Is my knee OK?" Processor 416 will then compare the current picture of the knee with the previous picture of the knee (stored in the profile for this user in storage device 430). If the knee looks the same as immediately after the user had previously injured the knee, the data query logic can return the answer "Your knee appears to be injured again". However, if the visual image of the knee appears to be "normal" when compared to other photographs of the injured user's knee (or the knee of another patient), the data query logic may return the answer " His knees look good. "

同様に、ユーザが、この特定ユーザにとっての食べ物の選択肢に関してデータ照会ロジックに尋ねる場合がある。例えば、電子デバイス402のユーザが、低塩食餌療法を行っており、フード・ビュッフェの前に立っていると仮定する。ユーザは、フード・ビュッフェの写真をカメラ420で撮影し、質問「どれを食べるべきですか?」と共にこの写真をデータ照会ロジックに送ることができる。データ照会ロジックは、視覚認識ロジックを使用して種々のタイプの食べ物を識別し、識別されたタイプの食べ物に関する栄養成分データのデータベースに照会し、写真から塩分の低い特定の食べ物を選択するようユーザに指示する応答を返すことになる。   Similarly, a user may ask data query logic about food options for this particular user. For example, assume that the user of electronic device 402 is on a low salt diet and is standing in front of a food buffet. The user can take a picture of the food buffet with the camera 420 and send this picture to the data query logic with the question "Which food should I eat?" Data query logic uses visual recognition logic to identify various types of food, queries a database of nutritional data on the identified types of food, and allows the user to select specific low salt foods from the photos. Will be returned.

カメラ・セレクタ・ボタン418をクリックすると画像の取込みが可能になるが、本発明の一実施形態では、カメラ・セレクタ・ボタン418を動作させると、ユーザの言語質問と共に、データのライブ・ストリームがデータ照会ロジックに送られるようにすることができる。同様に、カメラ420は、一実施形態では常にアクティブであってもよく、それにより、ユーザはカメラ・セレクタ・ボタン418を動作させる必要すらない。   Clicking on the camera selector button 418 enables image capture, but in one embodiment of the present invention, actuating the camera selector button 418 causes a live stream of data to be sent along with the user's language query. It can be sent to inquiry logic. Similarly, the camera 420 may be always active in one embodiment, so that the user does not need to activate the camera selector button 418.

したがって、前述のように、本開示の1つまたは複数の実施形態は、電子デバイス402に関連するデータ照会ロジックが質問を「聞く」(ユーザが「質問する」ボタン410をクリックすることによって)ことを可能にするだけでなく、ユーザが何について尋ねているかを「見る」ことも可能にする。前述の実施形態は写真を使用するものとして提示されたが、同じプロセスがビデオ・ストリームに対して利用されてもよい。   Thus, as described above, one or more embodiments of the present disclosure may be implemented in such a manner that the data query logic associated with the electronic device 402 "listens" for a question (by a user clicking a "question" button 410). As well as "see" what the user is asking about. Although the above embodiments have been presented as using photos, the same process may be utilized for video streams.

本開示の一実施形態では、電子デバイス402は、質問を「聞く」(ユーザが「質問する」ボタン410をクリックすることによって)ことができるだけでなく、ユーザがマイクロフォン・セレクタ・ボタン422を押すことによって、ユーザが何について尋ねているかを「聞く」こともでき、マイクロフォン・セレクタ・ボタン422は、電子デバイス402上のマイクロフォン412を起動する。例えば、ユーザが、質問「あれはどんなタイプの鳥ですか?」を言語で発したと仮定する。言語質問のみを使用する場合、システムは、ユーザがどのような「鳥」について尋ねているかを「知る」ことができない。しかし、電子デバイス402上のマイクロフォン412(オーディオ/聴覚センサ)が、不特定の対象(「鳥」)に関する増補を、その鳴き声に従って提供する。本開示の一実施形態では、プロセッサ416または情報クラウド・サーバ404あるいはその両方は、音パターン認識ソフトウェアを使用して、音キャプチャ中で聞こえた「鳥」を「マキバドリ」として識別する。すなわち、プロセッサ416または情報クラウド・サーバ404あるいはその両方は、鳥の鳴き声のピッチ、パターン、音色などを含めた、鳥の鳴き声のディジタル表現を生成し、この音シグネチャを、鳥の鳴き声に関するディジタル情報のデータベースと比較して、鳥をマキバドリとして識別する。この情報(すなわち鳥タイプが「マキバドリ」である)は、質問(「あれはどんなタイプの鳥ですか?」と結合されて、回答「この鳥はマキバドリです」が返される。このように、口頭/言語質問と、録音/音キャプチャからの増補情報との両方が、データ照会ロジック(例えば、図3のワークロード66中で示される「情報照会処理」の一部)に提供される。これにより、データ照会ロジックは、質問を「聞く」ことと、質問の主題を「聞く」ことの両方ができる。一例では、システムは単に、録音の中で見つかった増補情報からの回答「この鳥はマキバドリです」を返す。   In one embodiment of the present disclosure, the electronic device 402 can not only "listen" for a question (by the user clicking the "Ask a Question" button 410), but also allow the user to press the microphone selector button 422. May also "hear" what the user is asking about, and the microphone selector button 422 activates the microphone 412 on the electronic device 402. For example, suppose the user asked the question "What kind of bird is that?" If only linguistic questions are used, the system cannot "know" what "birds" the user is asking about. However, a microphone 412 (audio / hearing sensor) on the electronic device 402 provides an augmentation on the unspecified object ("bird") according to its call. In one embodiment of the present disclosure, the processor 416 and / or the information cloud server 404 use sound pattern recognition software to identify "birds" heard during sound capture as "Makibirds." That is, the processor 416 and / or the information cloud server 404 generate a digital representation of the bird call, including the pitch, pattern, timbre, etc. of the bird call, and convert the sound signature to digital information about the bird call. Birds are identified as madrids, compared to a database. This information (i.e., the bird type is "Makibird") is combined with the question ("What kind of bird is that?") And the answer "This bird is a Makibird" is returned. Both the / language query and the augmented information from the recording / sound capture are provided to the data query logic (eg, part of the "information query process" shown in workload 66 of FIG. 3). , The data query logic can both "listen" to the question and "listen" to the subject of the question.In one example, the system simply responds to the augmented information found in the recording " Is returned. "

本開示の一実施形態では、結合フォーマット情報要求により、データ照会ロジックは、照会されている対象からデータ照会ロジックが何を「聞いた」かに基づいて関連データベースを調べることができる。例えば、引き続き、ユーザからの照会が「これはどんなタイプの鳥ですか?」であり、マイクロフォン412からの録音によって作成された増補情報によりこの鳥がマキバドリであることが明らかにされると仮定する。データ照会ロジックはこの場合、マキバドリがどこに生息するか、猟鳥かどうか、そのラテン語の二名法による名称などを含めた、「マキバドリ」に関する他のデータベースを追跡することができる。次いで、音声ロジック414は、このような追加情報を提供する申し出をユーザに対してプロンプトすることができる。一実施形態では、この申し出は、ユーザのプロファイルに基づく。例えば、ユーザが猟師であるという記録をストレージ・デバイス430が含む場合は、データ照会ロジックは、マキバドリが猟鳥でない(したがって射るべきでない)ことを猟師に対して申し出る(または自動的に明らかにする)ことができる。同様に、ユーザが野鳥観察者(鳥類学者)であるという記録をストレージ・デバイス430が含む場合は、ラテン語の二名法による名称がデータ照会ロジックによってユーザに対して申し出られてよい。   In one embodiment of the present disclosure, the combined format information request allows the data query logic to consult an associated database based on what the data query logic has “heard” from the object being queried. For example, suppose that the query from the user continues to be "What type of bird is this?", And that the augmentation information created by the recording from microphone 412 reveals that this bird is a dragonfly. . In this case, the data query logic can track other databases relating to the squid, including where the squid is inhabited, whether it is a game, and its Latin two-name. The voice logic 414 can then prompt the user for an offer to provide such additional information. In one embodiment, the offer is based on the user's profile. For example, if the storage device 430 contains a record that the user is a huntsman, the data query logic will offer (or automatically reveal) to the huntsman that the dragon is not a gamebird (and therefore should not be shot). )be able to. Similarly, if the storage device 430 includes a record that the user is a bird observer (ornithologist), a Latin two-name may be offered to the user by the data query logic.

本開示の一実施形態では、対象がその画像または音あるいはその両方によって識別されると、提案されるアクションがユーザに提示されてよい。例えば、電子デバイス402のユーザが、モータのオーディオ/視覚的記録をとり、質問「このモータは適正に稼働していますか?」を発したと仮定する。画像認識ソフトウェアが、記録のビデオ成分からモータのタイプを識別することになる。音パターン認識が、記録のオーディオ成分を、このモータについての正常音または異常音あるいはその両方のディジタル・データベースと比較することによって、モータに異常があればそれを識別することになる。すなわち、記録のオーディオ部分からのディジタル化された音パターンを使用して、モータに問題があればそれが識別され、これは、ディジタル化された音パターンをこのモータについての既知の音シグネチャ(正常および異常)と比較することによって行われる。次いで、システムは、識別された問題に対する解決法のデータベースにアクセスし、これらの解決法をユーザに提示することができる。例えば、このモータについての音シグネチャが、主軸受が機能しなくなっていることを示唆する場合は、システムは、主軸受を交換するための手順、必要とされる主軸受にどの部品番号が関連するか、作業にどれくらいの時間がかかるか(したがって、モータを使用するシステムがどれくらいの時間にわたり動作休止になるか)の推定、などを申し出ることができる。   In one embodiment of the present disclosure, once an object is identified by its image and / or sound, a suggested action may be presented to a user. For example, assume that a user of electronic device 402 has taken an audio / visual recording of a motor and has asked the question "Is this motor running properly?" Image recognition software will identify the type of motor from the video component of the recording. Sound pattern recognition will identify any motor abnormalities by comparing the audio component of the recording to a digital database of normal and / or abnormal sounds for this motor. That is, the digitized sound pattern from the audio portion of the recording is used to identify any problems with the motor, which translates the digitized sound pattern into a known sound signature for this motor (normal And anomalies). The system can then access a database of solutions to the identified problems and present these solutions to the user. For example, if the sound signature for this motor indicates that the main bearing has failed, the system will provide a procedure for replacing the main bearing, which part number is associated with the required main bearing. Or an estimate of how long the task will take (and therefore how long the system using the motor will be idle).

本開示の一実施形態では、電子デバイス402は、質問を「聞く」(ユーザが「質問する」ボタン410をクリックすることによって)ことができるだけでなく、ユーザが化学センサ・セレクタ・ボタン424を押すことによって、ユーザが何について尋ねているかを「嗅ぐ」こともでき、化学センサ・セレクタ・ボタン424は、電子デバイス402上の化学センサ426を起動する。例えば、ユーザが、食べ物屋の手押し車の隣に立っており、質問「これはどんなタイプの食べ物ですか?」を発すると仮定する。言語質問のみを使用する場合、システムは、ユーザがどのような「食べ物」について尋ねているかを「知る」ことができない。しかし、電子デバイス402上の化学センサ426が、不特定の対象に関する増補を、その芳香(aroma)に従って提供する。本開示の一実施形態では、プロセッサ416または情報クラウド・サーバ404あるいはその両方は、化学パターン認識ソフトウェアを使用して、化学センサ・キャプチャによって受け取られた「におい(smell)」を「ホットドッグ」として識別する。すなわち、プロセッサ416または情報クラウド・サーバ404あるいはその両方は、牛肉、塩、いくつかの香辛料などの化学シグネチャを検出できる化学センサ426内の1つまたは複数のセンサによって生成されたホットドッグの芳香を記述するディジタル・ファイルを生成し、この化学シグネチャを、食べ物に関するディジタル情報のデータベースと比較して、食べ物をホットドッグとして識別する。この情報(すなわち食べ物タイプが「ホットドッグ」である)は、質問(「これはどんなタイプの食べ物ですか?」)と結合されて、回答「この食べ物はホットドッグです」が返される。このように、口頭/言語質問と、化学シグネチャからの増補情報との両方が、データ照会ロジック(例えば、図3のワークロード66中で示される「情報照会処理」の一部)に提供される。これにより、データ照会ロジックは、質問を「聞く」ことと、質問の主題を「嗅ぐ」ことの両方ができる。この例では、システムは単に、化学シグネチャ中で見つかった増補情報からの回答「この食べ物はホットドッグです」を返す。追加の実施形態では、次いで、この情報がユーザのプロファイルなどに基づいて使用されて、そもそもこのユーザがホットドッグを食べるべきかどうか(ユーザの医療履歴に基づいて)、この店によって売られているどのホットドッグが最高評価か、より高評価のホットドッグ屋が近くにあるか、などについて提案が提供されてよい。   In one embodiment of the present disclosure, the electronic device 402 can not only "listen" for a question (by the user clicking the "Ask a Question" button 410), but also the user presses the chemical sensor selector button 424. This may also "sniff" what the user is asking about, and the chemical sensor selector button 424 activates the chemical sensor 426 on the electronic device 402. For example, suppose a user is standing next to a wheelbarrow in a food store and asks the question "What type of food is this?" If only linguistic questions are used, the system cannot "know" what "food" the user is asking about. However, chemical sensors 426 on the electronic device 402 provide augmentation for unspecified subjects according to their aroma. In one embodiment of the present disclosure, the processor 416 and / or the information cloud server 404 use chemical pattern recognition software to convert the “smell” received by the chemical sensor capture into a “hot dog”. Identify. That is, the processor 416 and / or the information cloud server 404 may use the hot dog aroma generated by one or more of the sensors in the chemical sensor 426 that may detect chemical signatures such as beef, salt, and some spices. A descriptive digital file is generated and the chemical signature is compared to a database of digital information about the food to identify the food as a hot dog. This information (ie, the food type is "hot dog") is combined with the question ("What type of food is this?") And the answer "This food is a hot dog" is returned. In this manner, both the verbal / language questions and the augmented information from the chemical signature are provided to the data query logic (eg, part of the “information query process” shown in workload 66 of FIG. 3). . This allows the data query logic to both "listen" to the question and "sniff" the subject of the question. In this example, the system simply returns the answer "This food is a hot dog" from the augmented information found in the chemical signature. In additional embodiments, this information is then used, such as based on the user's profile, and sold by the store whether the user should eat hot dogs in the first place (based on the user's medical history). Suggestions may be provided as to which hot dogs are the highest rated, higher rated hot dog shops nearby, and the like.

本開示の一実施形態では、また図4に示されるように、電子デバイス402は送受信機434を備え、送受信機434は、ワイヤレスにまたは配線を介してのいずれかで電子メッセージを送受信することができる。送受信機434は、結合フォーマット情報要求(上で論じられた)を情報サーバに送信することができる。   In one embodiment of the present disclosure, and as shown in FIG. 4, the electronic device 402 includes a transceiver 434, which can send and receive electronic messages either wirelessly or over a wire. it can. Transceiver 434 may send a combined format information request (discussed above) to an information server.

本開示の一実施形態では、情報サーバは、プロセッサ416など、電子デバイス402上のローカル・デバイスである。したがって、どのような照会も、電子デバイス402によってローカルに扱われる。   In one embodiment of the present disclosure, the information server is a local device on electronic device 402, such as processor 416. Thus, any queries are handled locally by the electronic device 402.

本開示の一実施形態では、情報サーバは、情報クラウド・サーバ404などのリモート・デバイスであり、情報クラウド・サーバ404は、複数の電子デバイスからの情報要求を扱うことができる。   In one embodiment of the present disclosure, the information server is a remote device such as the information cloud server 404, and the information cloud server 404 can handle information requests from multiple electronic devices.

本開示の一実施形態では、情報サーバは、ローカル・デバイス(例えばプロセッサ416)とリモート・デバイス(例えば情報クラウド・サーバ404)との組合せである。   In one embodiment of the present disclosure, the information server is a combination of a local device (eg, processor 416) and a remote device (eg, information cloud server 404).

本開示の1つまたは複数の実施形態では、電子デバイス402は、図示の全地球測位システム(GPS)432など、測位システムを備える。GPS432は、一連の地球同期衛星を利用して、任意の時点における電子デバイス402の位置をマークする。他の測位ロジック(図示せず)は、三角測量システム(部屋内の送信機からの信号を使用してデバイスを測位する)、ドップラーシフト・システム(信号が既知の場所の測位送信機/受信機から電子デバイス402まで行って測位送信機/受信機に戻ってくるのにかかる時間を使用する)などの形であってよい。したがって、質問が発せられた時、または増補情報(例えば、写真、録音、化学的示度など)が生成された時、あるいはその両方の時の、電子デバイス402のリアルタイムの場所に関するメタデータが、GPS432によって作成される。   In one or more embodiments of the present disclosure, electronic device 402 comprises a positioning system, such as illustrated Global Positioning System (GPS) 432. GPS 432 utilizes a series of earth-synchronous satellites to mark the position of electronic device 402 at any given time. Other positioning logic (not shown) includes a triangulation system (locating the device using signals from a transmitter in the room), a Doppler shift system (a positioning transmitter / receiver where the signal is known). To the electronic device 402 and use the time it takes to return to the positioning transmitter / receiver). Thus, metadata about the real-time location of the electronic device 402 when a question is asked and / or when augmented information (eg, photos, recordings, chemical readings, etc.) are generated, or both, Created by GPS432.

本発明の一実施形態では、データ照会ロジック(例えば、プロセッサ416または情報クラウド・サーバ404あるいはその両方)は、見ること/嗅ぐこと/その他がなされており照会されている対象に関する質問に答えるのに十分な情報が、ローカルに記憶されていない場合がある。このシナリオでは、データ照会ロジックは、ウェブサイトやデータベースなどの情報リソースへのアクセスを提供するシステムなど、情報リソース・サーバ436にアクセスすることができる。このような情報リソースは、特定の情報にアクセスするために、ウェブ・クローラ、検索エンジン、データベース検索ロジックなどを使用して選択的にアクセスされる/取り出される。例えば、ユーザが「この花からどんな香料が作られますか?」と尋ね、データ照会ロジックが、質問と当該の花の写真との両方を受け取り、花がバラであると決定したと仮定する。データ照会ロジックはこの場合、情報リソース・サーバ436によって提供される情報リソースをクロール/照会して、どの香料(製品名や製造業者などを含めて)がその調合においてバラ・エッセンスを使用するかを識別することになる。   In one embodiment of the present invention, data query logic (eg, processor 416 and / or information cloud server 404) is used to answer questions about the object being viewed / sniffed / other that is being queried. Not enough information may be stored locally. In this scenario, the data query logic can access an information resource server 436, such as a system that provides access to information resources such as websites and databases. Such information resources are selectively accessed / retrieved using web crawlers, search engines, database search logic, etc. to access particular information. For example, suppose a user asks, "What fragrance is made from this flower?" And the data query logic receives both the question and a picture of the flower, and determines that the flower is a rose. The data query logic will in this case crawl / query the information resources provided by the information resource server 436 to determine which fragrances (including product names, manufacturers, etc.) use the rose essence in the formulation. Will be identified.

次に図5を参照すると、ユーザによって生成された、電子デバイスからの情報要求に、情報要求の増補を介して応答するために、1つまたは複数のプロセッサまたは他のハードウェア・デバイスによって実施される、1つまたは複数の動作の高レベルのフローチャートが提示されている。   Referring now to FIG. 5, a user generated information request from an electronic device is implemented by one or more processors or other hardware devices to respond via an augmentation of the information request. A high-level flowchart of one or more operations is presented.

イニシエータ・ブロック502の後、情報サーバが、対象に関する情報を求める要求を受け取る(ブロック504)。図4に記載のように、情報サーバは、ローカル(例えばプロセッサ416)、リモート(例えば情報クラウド・サーバ404)またはこれらの組合せ、あるいはその両方であってよい。情報を求める要求は、電子デバイス(例えば、図4の電子デバイス402)からのものである。情報を求める要求は、図4の音声ロジック414による音声変換/ディジタル化において使用されるフォーマットなど、第1のフォーマットのものである。例えば、情報を求める要求は、特定の主題/対象に関する質問を電子デバイス402に「尋ねる」ユーザからのものであってよい。しかし、ユーザが何について尋ねているかは、情報サーバにとって最初は明確でない。   After the initiator block 502, the information server receives a request for information about the subject (block 504). As described in FIG. 4, the information server may be local (eg, processor 416), remote (eg, information cloud server 404), or a combination thereof, or both. The request for information is from an electronic device (eg, electronic device 402 in FIG. 4). The request for information is in a first format, such as the format used in voice conversion / digitization by voice logic 414 in FIG. For example, the request for information may be from a user who “asks” the electronic device 402 for questions regarding a particular subject / object. However, what the user is asking about is initially not clear to the information server.

したがって、ブロック506で、情報サーバは、対象に関する増補情報を受け取る。この増補情報は、電子デバイスによって生成されるものであり、第1のフォーマットとは異なる第2のフォーマットのものである。例えば、第1のフォーマットは、ユーザの口頭質問をディジタル化されたフォーマットに変換するために音声ディジタイザによって使用されるフォーマットであってよい。第2のフォーマットは、写真、ビデオ・ファイル、化学シグネチャ、テキスト文書、グラフィック・ファイルなどによって使用されるフォーマットであってよい。   Accordingly, at block 506, the information server receives augmentation information about the subject. This augmentation information is generated by the electronic device and is of a second format different from the first format. For example, the first format may be a format used by a voice digitizer to convert a user's verbal question to a digitized format. The second format may be the format used by photos, video files, chemical signatures, text documents, graphic files, and the like.

ブロック508に記載のように、次いで情報サーバは、増補情報に基づいて、情報を求める要求に対する応答を生成することができる。すなわち、前述のように、「花」や「モータ」や「膝」などの主題は今や、添付の写真/録音/化学シグネチャ/その他によって、よりよい具体性をもって記述され、したがって、情報サーバが照会に対してよりよく応答することが可能になる。   As described in block 508, the information server may then generate a response to the request for information based on the augmented information. That is, as described above, subjects such as "flowers", "motors", and "knees" are now described with better specificity by attached photos / recordings / chemical signatures / etc. To respond better.

したがって、本開示の一実施形態では、第1のフォーマットは音声認識のためのものであり、第2のフォーマットは、電子デバイス上のカメラによって生成されるビデオ・ファイルのためのものである。   Thus, in one embodiment of the present disclosure, the first format is for speech recognition and the second format is for a video file generated by a camera on an electronic device.

したがって、本開示の一実施形態では、第1のフォーマットは音声認識のためのものであり、第2のフォーマットは、電子デバイス上のマイクロフォンによって生成されるオーディオ・ファイルのためのものである。   Thus, in one embodiment of the present disclosure, the first format is for speech recognition and the second format is for an audio file generated by a microphone on the electronic device.

したがって、本開示の一実施形態では、第1のフォーマットは音声認識のためのものであり、第2のフォーマットは、電子デバイス上の化学センサによって生成される化学シグネチャのためのものである。   Thus, in one embodiment of the present disclosure, the first format is for speech recognition and the second format is for a chemical signature generated by a chemical sensor on the electronic device.

本開示の一実施形態では、第1のフォーマットは音声認識のためのものであり、第2のフォーマットは、電子デバイスから受け取られるテキスト文書のためのものである。例えば、ユーザが図4の文書セレクタ・ボタン428を押したと仮定する。これにより、プロセッサ416または情報クラウド・サーバ404あるいはその両方はテキスト文書を取り出すが、このテキスト文書は、前に記憶された(例えばストレージ・デバイス430に)ものであるか、またはユーザ・インタフェース408上でユーザが描く(例えば、ASCII文字に変換される自由形式テキストを受け取ることに充てられた、画面のタッチ・センシティブ部分上で、ユーザの指先を使用して)ことによって現在作成されているものであるかのいずれかである。次いで、ユーザは、「このテキスト文書は何に関するものですか?」、「この文書は顧客に送るのに適切ですか?」などの質問を発することができる。同様に、照会は、「このテキスト文書はどういう意味ですか?」であってもよい。次いで、データ照会ロジックは、このような質問に答えるために、選択されたテキスト文書中のテキスト(または選択されたテキスト文書からのメタタグ)を、文書を記述するデータベースと比較することができる。   In one embodiment of the present disclosure, the first format is for speech recognition and the second format is for a text document received from an electronic device. For example, assume that the user has pressed the document selector button 428 of FIG. This causes the processor 416 and / or the information cloud server 404 to retrieve the text document, which was previously stored (eg, on the storage device 430) or on the user interface 408. That is currently created by the user drawing at (eg, using the user's fingertip on a touch-sensitive portion of the screen dedicated to receiving free-form text that is converted to ASCII characters). There is either. The user can then ask questions such as "What is this text document about?", "Is this document suitable for sending to customers?" Similarly, the query may be "What does this text document mean?" The data query logic can then compare the text in the selected text document (or meta tags from the selected text document) to a database describing the document to answer such questions.

本開示の一実施形態では、第1のフォーマットは音声認識のためのものであり、第2のフォーマットは、電子デバイスに記憶されたグラフ文書のためのものである。例えば、ユーザが図4の文書セレクタ・ボタン428を押したと仮定する。これにより、プロセッサ416または情報クラウド・サーバ404あるいはその両方はグラフィックス・ファイルを取り出すが、このグラフィックス・ファイルは、前に記憶された(例えばストレージ・デバイス430に)ものであるか、またはユーザ・インタフェース408上でユーザが描く(例えば、ASCII文字に変換される自由形式テキストを受け取ることに充てられた、画面のタッチ・センシティブ部分上で、ユーザの指先を使用して)ことによって現在作成されているものであるかのいずれかである。次いで、ユーザは、「この図は何を表していますか?」、「このグラフは現在の売上高について何を伝えますか?」などの質問を発することができる。次いで、データ照会ロジックは、このような質問に答えるために、他のグラフ/図を記述するデータベースを用いて、図/グラフ(メタタグを含む)から情報を抽出することができる。   In one embodiment of the present disclosure, the first format is for speech recognition and the second format is for graph documents stored on the electronic device. For example, assume that the user has pressed the document selector button 428 of FIG. This causes processor 416 and / or information cloud server 404 to retrieve the graphics file, which may have been previously stored (eg, on storage device 430) or • currently created by the user drawing on the interface 408 (eg, using the user's fingertips on a touch-sensitive portion of the screen dedicated to receiving free-form text that is converted to ASCII characters) That is either. The user can then ask questions such as "What does this diagram represent?", "What does this graph tell about current sales?" The data query logic can then extract information from the diagrams / graphs (including meta tags) using a database describing other graphs / diagrams to answer such questions.

本開示の一実施形態では、第1のフォーマットは音声認識のためのものであり、第2のフォーマットは写真のためのものであり、尋ねられている対象は写真中で示される。この実施形態では、情報サーバは、写真中で示される対象に関する埋め込み情報を写真から取り出し、この埋め込み情報は、写真中で示される対象を記述する。次いで情報サーバは、埋め込み情報に基づいて写真中の対象に関する追加情報を突き止め、したがって、追加情報は埋め込み情報に勝る。すなわち、前述のように、メタタグなど、写真中の埋め込み情報を使用して、写真中で示される対象に関する追加情報が取り出されてよい。例えば、写真が、図4に示されるカメラ420によって撮影され、GPS432または類似の測位ロジックが、写真が撮影された時刻、日付、および場所を示すメタタグを、写真上に配置したと仮定する。さらに、写真がユーザおよび友人の「セルフィー」であり、質問(直ちにまたは後の日時に出された)が「ピクチャの右側にいる私の友人の誕生日はいつですか?」であると仮定する。写真からのメタデータ(例えば、友人を識別するタグ)を、情報(例えば、ユーザがアクセス許可されているソーシャル・メディア・ウェブサイトからの)のデータベースと相関させることによって、次いで、友人の誕生日がデータ照会ロジック(例えば、図3のワークロード66中で示される「情報照会処理」)によって導出されてよい。   In one embodiment of the present disclosure, the first format is for speech recognition, the second format is for photos, and the object being asked is shown in the photos. In this embodiment, the information server retrieves embedded information about the object shown in the picture from the picture, and the embedded information describes the object shown in the picture. The information server then locates additional information about the object in the photo based on the embedded information, so that the additional information is superior to the embedded information. That is, as described above, additional information about the object shown in the photo may be extracted using the embedded information in the photo, such as a meta tag. For example, assume that a photo was taken by the camera 420 shown in FIG. 4 and that GPS 432 or similar positioning logic placed a meta tag on the photo indicating the time, date, and location where the photo was taken. Further assume that the photo is the user and friend's "selfie" and the question (which was asked immediately or at a later date and time) is "When is my friend's birthday to the right of the picture?" . By correlating metadata from photos (eg, tags identifying friends) with a database of information (eg, from social media websites to which the user has access), then the friend's birthday May be derived by data query logic (eg, the “information query process” shown in workload 66 of FIG. 3).

本開示の一実施形態では、第1のフォーマットは音声認識のためのものであり、第2のフォーマットは写真のためのものであり、尋ねられている対象は写真中で示されない。この実施形態では、情報サーバは、写真中の埋め込み情報を利用して、写真中で示されない対象に関する追加情報を取り出し、この追加情報は埋め込み情報に勝る。例えば、写真が、図4に示されるカメラ420によって撮影され、GPS432または類似の測位ロジックが、写真が撮影された時刻、日付、および場所を示すメタタグを、写真上に配置したと仮定する。さらに、写真が、音楽フェスティバルにおけるユーザおよび友人の「セルフィー」であり、質問(直ちにまたは後の日時に出された)が「このピクチャが撮影された時にどんなバンドが演奏していましたか?」であるが、尋ねられているバンドが写真中にないと仮定する。写真からのメタデータを、任意の特定の時刻のバンドのスケジュール(さらにはプレイリストからの曲)と相関させることによって、写真の時刻におけるバンドの名前(または演奏されていた曲、あるいはその両方)がデータ照会ロジック(例えば、図3のワークロード66中で示される「情報照会処理」)によって導出されてよい。   In one embodiment of the present disclosure, the first format is for speech recognition, the second format is for photos, and the object being asked is not shown in the photos. In this embodiment, the information server utilizes the embedded information in the photo to retrieve additional information about objects not shown in the photo, and this additional information overrides the embedded information. For example, assume that a photo was taken by the camera 420 shown in FIG. 4 and that GPS 432 or similar positioning logic placed a meta tag on the photo indicating the time, date, and location where the photo was taken. In addition, the photo is the user and friend's "selfie" at the music festival, and the question (submitted immediately or at a later date and time) is "What band was playing when this picture was taken?" Suppose, however, that the band being asked is not in the picture. By correlating the metadata from the photo with the band's schedule at any particular time (and even songs from the playlist), the name of the band at the time of the photo (and / or the song being played) May be derived by data query logic (eg, the “information query process” shown in workload 66 of FIG. 3).

本開示の一実施形態では、情報を求める要求は特定ユーザによって生成され、この方法はさらに、情報を求める要求を特定ユーザについてのユーザ・プロファイルに関連付けることと、ユーザ・プロファイルに基づいて、情報を求める要求に対する応答を適合させることとを含む。例えば、前述のように、鳥に関する情報は、ユーザが猟師である場合と鳥類学者である場合とで違ってくる。   In one embodiment of the present disclosure, the request for information is generated by a particular user, and the method further comprises associating the request for information with a user profile for the particular user, and generating the information based on the user profile. Tailoring the response to the requested request. For example, as described above, information on birds differs depending on whether the user is a huntsman or an ornithologist.

本開示の一実施形態では、情報サーバは、ユーザの身体ジェスチャを受け取り、次いで、身体ジェスチャを、対象に関する追加の増補情報として使用する。例えば、電子デバイス402のユーザが一群の車のビデオまたは写真あるいはその両方を撮影していると仮定する。ユーザは、ビデオ/写真の中の特定の車の型およびモデル(または、トラック上のレースカーの場合は、特定のレースカーのドライバ)に関心があることがある。ユーザは、ユーザの質問「あれはどんな種類の車ですか?」または「あのレースカーのドライバは誰ですか?」の主題がどの車であるかを指定するために、指差しや、親指と人差し指で作った円など、ハンド・ジェスチャを写真/ビデオ内に含めて、どの車に関心があるかを指定することができる。   In one embodiment of the present disclosure, the information server receives the user's body gesture and then uses the body gesture as additional augmentation information about the subject. For example, assume that a user of electronic device 402 is taking video and / or photos of a group of cars. The user may be interested in a particular car make and model (or, in the case of a race car on a track, a particular race car driver) in the video / photo. The user may point at or point with a thumb or thumb to specify which car is the subject of the user's question "What kind of car is that?" Or "Who is the driver of that race car?" Hand gestures, such as a circle made with your index finger, can be included in the photo / video to specify which car you are interested in.

本明細書に記載のように、1つまたは複数の実施形態では、本開示は、ユーザが、ボイス認識ソフトウェアを用いた検索を要求すると共に非ボイス入力の使用を介して検索要求に関するより多くの詳細を提供することを可能にする。本開示は、ボイス認識能力を有するインテリジェント自動化アシスタントが、検索要求の性質をよりよく理解するために、ドローイング、写真、音、化学シグネチャなどを分析することを可能にする。本明細書に記載のように、ユーザはリアルタイムで、モバイル・デバイス(例えばスマート・フォン)を対象に向けて、対象の特性(例えば、視覚的、音調的、香りなど)に関するより多くのことを発見することができる。このように、本開示は、これまで利用不可能であった、または当業者に知られている、あるいはその両方である、従来技術に勝る技術的改善を提示する。   As described herein, in one or more embodiments, the present disclosure provides that a user can request a search using voice recognition software and more regarding a search request through the use of non-voice input. Allows you to provide details. The present disclosure enables intelligent automation assistants with voice recognition capabilities to analyze drawings, photos, sounds, chemical signatures, etc. to better understand the nature of search requests. As described herein, a user may direct a mobile device (eg, a smart phone) to a subject in real-time, to learn more about a property of the subject (eg, visual, tonal, scent, etc.). Can be found. Thus, the present disclosure presents technical improvements over the prior art that have heretofore been unavailable and / or known to those skilled in the art.

本明細書で使用される用語は、特定の実施形態を記述するためのものに過ぎず、本発明を限定するものとはしない。本明細書において、単数形「a」、「an」、および「the」は、コンテキストが明確にそうでないと示さない限り、複数形も含むものとする。さらに、用語「含む、備える」(「comprises」または「comprising」あるいはその両方)」が本明細書で使用されるとき、これらは、記載された特徴、整数、ステップ、動作、要素、またはコンポーネント、あるいはそれらの組合せの存在を指定するが、1つまたは複数の他の特徴、整数、ステップ、動作、要素、コンポーネント、またはこれらのグループ、あるいはそれらの組合せの存在または追加を排除しないことも、理解されるであろう。   The terms used in the description are intended to describe certain embodiments only, and shall by no means restrict the present invention. As used herein, the singular forms “a”, “an”, and “the” include plural forms unless the context clearly dictates otherwise. Furthermore, when the term “comprising” is used herein (“comprises” and / or “comprising”), these terms denote the recited feature, integer, step, act, element or component, It is also understood that specifying the presence of, or combinations thereof, does not preclude the existence or addition of one or more other features, integers, steps, acts, elements, components, or groups thereof, or combinations thereof. Will be done.

以下の特許請求の範囲におけるすべてのミーンズまたはステップ・プラス・ファンクション要素の、対応する構造、材料、行為、および均等物は、具体的に請求される他の特許請求要素との組合せで機能を実施するための任意の構造、材料、または行為を含むものとする。本開示の様々な実施形態についての記述は、例証および記述の目的で提示したものであり、網羅的なもの、または開示される形の本発明に限定されるものとはしない。本開示の範囲を逸脱することなく、多くの変更および変形が当業者には明らかであろう。実施形態は、本開示の原理および実際の応用を最もうまく説明するために、かつ、企図される特定の使用に適するような様々な変更を伴う様々な実施形態の場合の本発明を他の当業者が理解できるようにするために、選ばれ記述されたものである。   The corresponding structures, materials, acts and equivalents of all means or step-plus-function elements in the following claims perform their functions in combination with the other specifically claimed elements Or any structure, material, or act of doing so. The description of various embodiments of the present disclosure has been presented for purposes of illustration and description, and is not intended to be exhaustive or limited to the invention in the form disclosed. Many modifications and variations will be apparent to those skilled in the art without departing from the scope of the present disclosure. The embodiments describe the invention in other ways in order to best explain the principles and practical application of the present disclosure, and in the case of various embodiments with various modifications to suit the particular use contemplated. It has been chosen and described so that it can be understood by the trader.

本開示に記載の任意の方法は、VHDL(VHSICハードウェア記述言語)プログラムおよびVHDLチップの使用を介して実装されてよい。VHDLは、フィールド・プログラマブル・ゲート・アレイ(FPGA)、特定用途向け集積回路(ASIC)、および他の類似の電子デバイスのための、例示的な設計入力言語である。したがって、本明細書に記載の任意のソフトウェア実装方法は、ハードウェアベースのVHDLプログラムによってエミュレートされてよく、次いでこのVHDLプログラムは、FPGAなどのVHDLチップに適用される。   Any of the methods described in this disclosure may be implemented through the use of VHDL (VHSIC Hardware Description Language) programs and VHDL chips. VHDL is an exemplary design input language for field programmable gate arrays (FPGAs), application specific integrated circuits (ASICs), and other similar electronic devices. Accordingly, any of the software implementation methods described herein may be emulated by a hardware-based VHDL program, which is then applied to a VHDL chip, such as an FPGA.

このように、本出願の本開示の実施形態について、詳細に、かつその例証的な実施形態を参照しながら述べたが、添付の特許請求の範囲において定義される本開示の範囲を逸脱することなく、変更および変形が可能であることは明らかであろう。   Thus, while embodiments of the present disclosure of the present application have been described in detail and with reference to exemplary embodiments thereof, they depart from the scope of the present disclosure as defined in the appended claims. Obviously, modifications and variations are possible.

Claims (12)

電子デバイスであって、
不特定の対象に関する情報を求める口頭要求を受け取るためのマイクロフォンと、
前記不特定の対象に関する増補情報を受け取るためのセンサと、
前記口頭要求からの情報を前記増補情報と結合して結合フォーマット情報要求にするための結合ロジックと、
前記結合フォーマット情報要求に対する回答を取り出すための情報取出しロジックと
を備え
前記センサがカメラである電子デバイス。
An electronic device,
A microphone for receiving verbal requests for information about unspecified subjects;
A sensor for receiving augmentation information about the unspecified subject;
Combining logic for combining information from the verbal request with the augmented information into a combined format information request;
Information retrieval logic for retrieving a response to the combined format information request ,
An electronic device , wherein the sensor is a camera .
電子デバイスであって、
不特定の対象に関する情報を求める口頭要求を受け取るためのマイクロフォンと、
前記不特定の対象に関する増補情報を受け取るためのセンサと、
前記口頭要求からの情報を前記増補情報と結合して結合フォーマット情報要求にするための結合ロジックと、
前記結合フォーマット情報要求に対する回答を取り出すための情報取出しロジックと
を備え、
前記センサが、ビデオ画像を取り込むカメラであり、前記不特定の対象が、前記ビデオ画像中に現れない対象であり、前記電子デバイスが、
前記カメラによって取り込まれた前記ビデオ画像から、前記ビデオ画像を記述するメタデータを取り出すメタデータ取出しロジックと、
前記メタデータからの情報を相関させて、前記不特定の対象に関する情報を識別し、前記結合フォーマット情報要求に対する回答を生成する相関ロジックと
にアクセスする電子デバイス。
An electronic device,
A microphone for receiving verbal requests for information about unspecified subjects;
A sensor for receiving augmentation information about the unspecified subject;
Combining logic for combining information from the verbal request with the augmented information into a combined format information request;
Information extraction logic for extracting a response to the combined format information request;
With
The sensor is a camera that captures a video image, the unspecified object is an object that does not appear in the video image, and the electronic device includes:
Metadata retrieval logic for retrieving metadata describing the video image from the video image captured by the camera;
The meta and information correlated from the data, the identifying information about the unspecified object, the correlation logic and access to that electronic device to generate an answer to the binding format information request.
前記結合フォーマット情報要求を情報サーバに送信するための送信機をさらに備える、請求項1または2に記載の電子デバイス。 3. The electronic device according to claim 1, further comprising a transmitter for transmitting the combined format information request to an information server. 情報要求を増補する方法であって、
情報サーバによって、対象に関する情報を求める要求を受け取ることであって、情報を求める前記要求が電子デバイスからのものであり、情報を求める前記要求が第1のフォーマットのものである、前記受け取ることと、
前記情報サーバによって、前記対象に関する増補情報を受け取ることであって、前記増補情報が前記電子デバイスによって生成され、前記増補情報が前記第1のフォーマットとは異なる第2のフォーマットのものである、前記受け取ることと、
前記情報サーバによって、前記増補情報に基づいて、情報を求める前記要求に対する応答を生成することと
を含み、
前記第1のフォーマットが音声認識のためのものであり、前記第2のフォーマットが、前記電子デバイス上のカメラによって生成されるビデオ・ファイルのためのものである方法。
A method to augment information requirements,
Receiving, by an information server, a request for information about an object, wherein the request for information is from an electronic device, and wherein the request for information is in a first format; ,
Receiving, by the information server, augmentation information about the subject, wherein the augmentation information is generated by the electronic device, and wherein the augmentation information is in a second format different from the first format; Receiving and
By the information server based on said augmented information, see containing and generating a response to the request for information,
The method wherein the first format is for speech recognition and the second format is for a video file generated by a camera on the electronic device .
情報要求を増補する方法であって、
情報サーバによって、対象に関する情報を求める要求を受け取ることであって、情報を求める前記要求が電子デバイスからのものであり、情報を求める前記要求が第1のフォーマットのものである、前記受け取ることと、
前記情報サーバによって、前記対象に関する増補情報を受け取ることであって、前記増補情報が前記電子デバイスによって生成され、前記増補情報が前記第1のフォーマットとは異なる第2のフォーマットのものである、前記受け取ることと、
前記情報サーバによって、前記増補情報に基づいて、情報を求める前記要求に対する応答を生成することと
を含み、
前記第1のフォーマットが音声認識のためのものであり、前記第2のフォーマットが、前記電子デバイス上のマイクロフォンによって生成されるオーディオ・ファイルのためのものである方法。
A method to augment information requirements,
Receiving, by an information server, a request for information about an object, wherein the request for information is from an electronic device, and wherein the request for information is in a first format; ,
Receiving, by the information server, augmentation information about the subject, wherein the augmentation information is generated by the electronic device, and wherein the augmentation information is in a second format different from the first format; Receiving and
Generating, by the information server, a response to the request for information based on the augmented information;
Including
The first format is for a voice recognition, the second format, der Ru way intended for audio files generated by a microphone on the electronic device.
情報要求を増補する方法であって、
情報サーバによって、対象に関する情報を求める要求を受け取ることであって、情報を求める前記要求が電子デバイスからのものであり、情報を求める前記要求が第1のフォーマットのものである、前記受け取ることと、
前記情報サーバによって、前記対象に関する増補情報を受け取ることであって、前記増補情報が前記電子デバイスによって生成され、前記増補情報が前記第1のフォーマットとは異なる第2のフォーマットのものである、前記受け取ることと、
前記情報サーバによって、前記増補情報に基づいて、情報を求める前記要求に対する応答を生成することと
を含み、
前記第1のフォーマットが音声認識のためのものであり、前記第2のフォーマットが写真のためのものであり、前記対象が前記写真中で示され、
前記情報サーバによって、前記写真中で示される前記対象に関する、前記写真中の埋め込み情報を取り出すことであって、前記埋め込み情報が、前記写真中で示される前記対象を記述する、前記取り出すことと、
前記情報サーバによって、前記埋め込み情報に基づいて前記写真中の前記対象に関する追加情報を突き止めることと
をさらに含む方法。
A method to augment information requirements,
Receiving, by an information server, a request for information about an object, wherein the request for information is from an electronic device, and wherein the request for information is in a first format; ,
Receiving, by the information server, augmentation information about the subject, wherein the augmentation information is generated by the electronic device, and wherein the augmentation information is in a second format different from the first format; Receiving and
Generating, by the information server, a response to the request for information based on the augmented information;
Including
The first format is for speech recognition, the second format is for a photo, the object is indicated in the photo,
By the information server, for the object shown in the picture, extracting embedded information in the picture, wherein the embedded information describes the object shown in the picture, the extracting,
By the information server, further including METHODS and this and the <br/> to locate additional information about the object in the photograph on the basis of the embedded information.
情報要求を増補する方法であって、
情報サーバによって、対象に関する情報を求める要求を受け取ることであって、情報を求める前記要求が電子デバイスからのものであり、情報を求める前記要求が第1のフォーマットのものである、前記受け取ることと、
前記情報サーバによって、前記対象に関する増補情報を受け取ることであって、前記増補情報が前記電子デバイスによって生成され、前記増補情報が前記第1のフォーマットとは異なる第2のフォーマットのものである、前記受け取ることと、
前記情報サーバによって、前記増補情報に基づいて、情報を求める前記要求に対する応答を生成することと
を含み、
前記第1のフォーマットが音声認識のためのものであり、前記第2のフォーマットが写真のためのものであり、前記対象が前記写真中で示されず、
前記情報サーバによって、前記写真中の埋め込み情報を利用して、前記写真中で示されない前記対象に関する追加情報を取り出すことをさらに含む方法。
A method to augment information requirements,
Receiving, by an information server, a request for information about an object, wherein the request for information is from an electronic device, and wherein the request for information is in a first format; ,
Receiving, by the information server, augmentation information about the subject, wherein the augmentation information is generated by the electronic device, and wherein the augmentation information is in a second format different from the first format; Receiving and
Generating, by the information server, a response to the request for information based on the augmented information;
Including
The first format is for speech recognition, the second format is for a photo, the object is not shown in the photo,
Wherein the information server, by using the embedded information in the photo, further including METHODS that you take out the additional information about the object that is not represented by the in photographs.
情報を求める前記要求が特定ユーザによって生成され、
情報を求める前記要求を、前記特定ユーザについてのユーザ・プロファイルに関連付けることと、
前記ユーザ・プロファイルに基づいて、情報を求める前記要求に対する前記応答を適合させることと
をさらに含む、請求項4から7のいずれか1項に記載の方法。
Said request for information is generated by a specific user;
Associating the request for information with a user profile for the particular user;
8. The method of any one of claims 4 to 7 , further comprising adapting the response to the request for information based on the user profile.
前記情報サーバによって、ユーザの身体ジェスチャを受け取ることと、
前記情報サーバによって、前記身体ジェスチャを前記対象に関する追加の増補情報として利用することと
をさらに含む、請求項4から8のいずれか1項に記載の方法。
Receiving, by the information server, a user's body gesture;
The method according to any one of claims 4 to 8 , further comprising utilizing the body gesture as additional augmentation information about the subject by the information server.
情報要求を増補するためのコンピュータ・プログラムであって、前記プログラムが、方法を実施するためにプロセッサによって読取り可能かつ実行可能であり、前記方法が、
対象に関する情報を求める要求を受け取ることであって、情報を求める前記要求が電子デバイスからのものであり、情報を求める前記要求が第1のフォーマットのものである、前記受け取ることと、
前記対象に関する増補情報を受け取ることであって、前記増補情報が前記電子デバイスによって生成され、前記増補情報が前記第1のフォーマットとは異なる第2のフォーマットのものである、前記受け取ることと、
前記増補情報に基づいて、情報を求める前記要求に対する応答を生成することと
を含み、
前記第1のフォーマットが音声認識のためのものであり、前記第2のフォーマットがビデオ・ファイルのためのものである、コンピュータ・プログラム。
A computer program for augmenting an information request, said program readable and executable by a processor to perform a method, said method comprising:
Receiving a request for information about an object, wherein the request for information is from an electronic device, and wherein the request for information is in a first format;
Receiving the augmentation information for the subject, wherein the augmentation information is generated by the electronic device, and wherein the augmentation information is of a second format different from the first format;
Based on the augmented information, see containing and generating a response to the request for information,
A computer program , wherein the first format is for speech recognition and the second format is for a video file .
情報要求を増補するためのコンピュータ・プログラムであって、前記プログラムが、方法を実施するためにプロセッサによって読取り可能かつ実行可能であり、前記方法が、
対象に関する情報を求める要求を受け取ることであって、情報を求める前記要求が電子デバイスからのものであり、情報を求める前記要求が第1のフォーマットのものである、前記受け取ることと
前記対象に関する増補情報を受け取ることであって、前記増補情報が前記電子デバイスによって生成され、前記増補情報が前記第1のフォーマットとは異なる第2のフォーマットのものである、前記受け取ることと、
前記増補情報に基づいて、情報を求める前記要求に対する応答を生成することと
を含み、
前記第1のフォーマットが音声認識のためのものであり、前記第2のフォーマットが写真のためのものであり、前記対象が前記写真中で示され、前記方法がさらに、
前記写真中で示される前記対象に関する、前記写真中の埋め込み情報を取り出すことであって、前記埋め込み情報が、前記写真中で示される前記対象を記述する、前記取り出すことと、
前記埋め込み情報に基づいて前記写真中の前記対象に関する追加情報を突き止めることと
を含むコンピュータ・プログラム。
A computer program for augmenting an information request, said program readable and executable by a processor to perform a method, said method comprising:
Receiving a request for information about an object, wherein the request for information is from an electronic device, and wherein the request for information is in a first format ;
Receiving the augmentation information for the subject, wherein the augmentation information is generated by the electronic device, and wherein the augmentation information is of a second format different from the first format;
Generating a response to the request for information based on the augmented information;
Including
The first format is for speech recognition, the second format is for a photo, the object is indicated in the photo, and the method further comprises:
Regarding the object shown in the picture, extracting embedded information in the picture, wherein the embedded information describes the object shown in the picture;
The buried including computer program to <br/> and this to locate additional information about the object in the photograph on the basis of the information.
情報要求を増補するためのコンピュータ・プログラムであって、前記プログラムが、方法を実施するためにプロセッサによって読取り可能かつ実行可能であり、前記方法が、
対象に関する情報を求める要求を受け取ることであって、情報を求める前記要求が電子デバイスからのものであり、情報を求める前記要求が第1のフォーマットのものである、前記受け取ることと、
前記対象に関する増補情報を受け取ることであって、前記増補情報が前記電子デバイスによって生成され、前記増補情報が前記第1のフォーマットとは異なる第2のフォーマットのものである、前記受け取ることと、
前記増補情報に基づいて、情報を求める前記要求に対する応答を生成することと
を含み、
前記第1のフォーマットが音声認識のためのものであり、前記第2のフォーマットが写真のためのものであり、前記対象が前記写真中で示されず、前記方法がさらに、
前記写真中の埋め込み情報を利用して、前記写真中で示されない前記対象に関する追加情報を取り出すことをむコンピュータ・プログラム。
A computer program for augmenting an information request, said program readable and executable by a processor to perform a method, said method comprising:
Receiving a request for information about an object, wherein the request for information is from an electronic device, and wherein the request for information is in a first format;
Receiving the augmentation information for the subject, wherein the augmentation information is generated by the electronic device, and wherein the augmentation information is of a second format different from the first format;
Generating a response to the request for information based on the augmented information;
Including
The first format is for speech recognition, the second format is for a photograph, the object is not shown in the photograph, and the method further comprises:
It said using the embedded information in the photograph, including computer programs that you take out additional information about the object that is not represented by the above in the photograph.
JP2017530152A 2015-01-05 2015-12-30 Electronic device, method for augmenting information requirements, and computer program product for augmenting information requirements Active JP6655081B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/589,110 2015-01-05
US14/589,110 US9633019B2 (en) 2015-01-05 2015-01-05 Augmenting an information request
PCT/IB2015/060046 WO2016110775A1 (en) 2015-01-05 2015-12-30 Augmenting information request

Publications (2)

Publication Number Publication Date
JP2018501562A JP2018501562A (en) 2018-01-18
JP6655081B2 true JP6655081B2 (en) 2020-02-26

Family

ID=56286624

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017530152A Active JP6655081B2 (en) 2015-01-05 2015-12-30 Electronic device, method for augmenting information requirements, and computer program product for augmenting information requirements

Country Status (6)

Country Link
US (1) US9633019B2 (en)
JP (1) JP6655081B2 (en)
CN (1) CN107077504B (en)
DE (1) DE112015005269T5 (en)
GB (1) GB2549904A (en)
WO (1) WO2016110775A1 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10748206B1 (en) 2014-02-21 2020-08-18 Painted Dog, Inc. Dynamic media-product searching platform apparatuses, methods and systems
US9843877B2 (en) 2015-12-31 2017-12-12 Ebay Inc. Sound recognition
KR20180023197A (en) 2016-08-25 2018-03-07 엘지전자 주식회사 Terminal and method for controlling the same
KR102483507B1 (en) 2016-11-17 2022-12-30 페인티드 도그, 인크. Machine-Based Object Recognition of Video Content
US10275651B2 (en) * 2017-05-16 2019-04-30 Google Llc Resolving automated assistant requests that are based on image(s) and/or other sensor data
EP3721428A4 (en) * 2018-03-08 2021-01-27 Samsung Electronics Co., Ltd. Method for intent-based interactive response and electronic device thereof
US11205422B2 (en) 2018-10-02 2021-12-21 International Business Machines Corporation Methods and systems for managing chatbots with data access
CN111209904A (en) * 2018-11-21 2020-05-29 华为技术有限公司 Service processing method and related device
US11610498B2 (en) * 2018-11-28 2023-03-21 Kyndryl, Inc. Voice interactive portable computing device for learning about places of interest
CN113678141A (en) * 2019-02-12 2021-11-19 Can-U-C有限公司 Stereophonic device for blind and visually impaired persons

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8131555B1 (en) 2000-03-21 2012-03-06 Aol Inc. System and method for funneling user responses in an internet voice portal system to determine a desired item or service
US7680324B2 (en) 2000-11-06 2010-03-16 Evryx Technologies, Inc. Use of image-derived information as search criteria for internet and other search engines
US7672931B2 (en) * 2005-06-30 2010-03-02 Microsoft Corporation Searching for content using voice search queries
JP2007034403A (en) * 2005-07-22 2007-02-08 Nikon Corp Image display device and image display program
US7949529B2 (en) * 2005-08-29 2011-05-24 Voicebox Technologies, Inc. Mobile systems and methods of supporting natural language human-machine interactions
US7739221B2 (en) 2006-06-28 2010-06-15 Microsoft Corporation Visual and multi-dimensional search
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8140335B2 (en) 2007-12-11 2012-03-20 Voicebox Technologies, Inc. System and method for providing a natural language voice user interface in an integrated voice navigation services environment
JP5300576B2 (en) * 2009-04-22 2013-09-25 エヌ・ティ・ティ・コミュニケーションズ株式会社 SEARCH DEVICE, SEARCH METHOD, AND SEARCH PROGRAM
JP5621783B2 (en) 2009-12-10 2014-11-12 日本電気株式会社 Speech recognition system, speech recognition method, and speech recognition program
WO2012036305A1 (en) 2010-09-17 2012-03-22 日本電気株式会社 Voice recognition device, voice recognition method, and program
EP2622428A4 (en) 2010-09-28 2017-01-04 International Business Machines Corporation Providing answers to questions using hypothesis pruning
US8788434B2 (en) * 2010-10-28 2014-07-22 Google Inc. Search with joint image-audio queries
US9342998B2 (en) 2010-11-16 2016-05-17 Microsoft Technology Licensing, Llc Techniques to annotate street view images with contextual information
US8818986B1 (en) 2011-07-27 2014-08-26 Sprint Communications Company L.P. Onboard advance search refinement
US9285592B2 (en) 2011-08-18 2016-03-15 Google Inc. Wearable device with input and output structures
US20130249948A1 (en) * 2011-08-26 2013-09-26 Reincloud Corporation Providing interactive travel content at a display device
US9098533B2 (en) 2011-10-03 2015-08-04 Microsoft Technology Licensing, Llc Voice directed context sensitive visual search
US9424255B2 (en) 2011-11-04 2016-08-23 Microsoft Technology Licensing, Llc Server-assisted object recognition and tracking for mobile devices
US20130346068A1 (en) 2012-06-25 2013-12-26 Apple Inc. Voice-Based Image Tagging and Searching
JPWO2014041607A1 (en) * 2012-09-11 2016-08-12 株式会社東芝 Information processing apparatus, information processing method, and program
CN105229584A (en) * 2013-05-29 2016-01-06 三菱电机株式会社 Information display device
EP3008964B1 (en) 2013-06-13 2019-09-25 Apple Inc. System and method for emergency calls initiated by voice command
KR102229156B1 (en) * 2014-03-05 2021-03-18 삼성전자주식회사 Display apparatus and method of controlling thereof
US9390106B2 (en) * 2014-06-27 2016-07-12 Sony Corporation Deep context photo searching
CN104239445A (en) 2014-09-01 2014-12-24 百度在线网络技术(北京)有限公司 Method and device for representing search results
CN104239461A (en) 2014-09-02 2014-12-24 百度在线网络技术(北京)有限公司 Method and device for extracting picture abstract

Also Published As

Publication number Publication date
US9633019B2 (en) 2017-04-25
WO2016110775A1 (en) 2016-07-14
DE112015005269T5 (en) 2017-09-28
GB201711969D0 (en) 2017-09-06
CN107077504B (en) 2020-11-03
GB2549904A (en) 2017-11-01
CN107077504A (en) 2017-08-18
US20160196264A1 (en) 2016-07-07
JP2018501562A (en) 2018-01-18

Similar Documents

Publication Publication Date Title
JP6655081B2 (en) Electronic device, method for augmenting information requirements, and computer program product for augmenting information requirements
US11822600B2 (en) Content tagging
US10762299B1 (en) Conversational understanding
US10901945B2 (en) Systems and methods concerning tracking models for digital interactions
JP6759844B2 (en) Systems, methods, programs and equipment that associate images with facilities
US8768693B2 (en) Automatic tag extraction from audio annotated photos
JP2020528705A (en) Moving video scenes using cognitive insights
US10359292B2 (en) Deep learning allergen mapping
US11057328B2 (en) Real-time recommendation of message recipients based on recipient interest level in message
US10326905B2 (en) Sensory and cognitive milieu in photographs and videos
CN115427958A (en) Speech recognition and content de-recognition
US11610498B2 (en) Voice interactive portable computing device for learning about places of interest
CN104025626A (en) Periodic Ambient Waveform Analysis For Dynamic Device Configuration
US20180285359A1 (en) Identifying correlated content associated with an individual
US11681762B2 (en) Digital twin asset search
US20200401802A1 (en) Augmented reality tagging of non-smart items
US20180239767A1 (en) Computerized cognitive recall assistance
US10108333B2 (en) Inferring insights from enhanced user input
US20200092412A1 (en) Augmenting messages based on sender location
US10901577B2 (en) Methods and systems for input suggestion
US20220382803A1 (en) Syndication of Secondary Digital Assets with Photo Library
US20210081440A1 (en) Historical augmentation of electronic maps
AU2021210221B2 (en) Performing search based on position information
US12069013B1 (en) User initiated augmented reality system
US20220044132A1 (en) Displaying contextual information of media

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170713

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190702

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191001

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200131

R150 Certificate of patent or registration of utility model

Ref document number: 6655081

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150