JP6655081B2 - Electronic device, method for augmenting information requirements, and computer program product for augmenting information requirements - Google Patents
Electronic device, method for augmenting information requirements, and computer program product for augmenting information requirements Download PDFInfo
- Publication number
- JP6655081B2 JP6655081B2 JP2017530152A JP2017530152A JP6655081B2 JP 6655081 B2 JP6655081 B2 JP 6655081B2 JP 2017530152 A JP2017530152 A JP 2017530152A JP 2017530152 A JP2017530152 A JP 2017530152A JP 6655081 B2 JP6655081 B2 JP 6655081B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- request
- format
- electronic device
- augmentation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 40
- 230000003190 augmentative effect Effects 0.000 title claims description 31
- 238000004590 computer program Methods 0.000 title claims description 13
- 230000003416 augmentation Effects 0.000 claims description 39
- 230000004044 response Effects 0.000 claims description 18
- 230000001755 vocal effect Effects 0.000 claims description 16
- 230000002596 correlated effect Effects 0.000 claims 1
- 238000000605 extraction Methods 0.000 claims 1
- 238000003860 storage Methods 0.000 description 39
- 239000000126 substance Substances 0.000 description 20
- 230000006870 function Effects 0.000 description 18
- 235000013305 food Nutrition 0.000 description 16
- 238000010586 diagram Methods 0.000 description 14
- 238000012545 processing Methods 0.000 description 14
- 210000003127 knee Anatomy 0.000 description 13
- 235000019692 hotdogs Nutrition 0.000 description 9
- 230000008569 process Effects 0.000 description 8
- 230000000007 visual effect Effects 0.000 description 8
- 241000220317 Rosa Species 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 241000109329 Rosa xanthina Species 0.000 description 4
- 235000004789 Rosa xanthina Nutrition 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 4
- 238000007726 management method Methods 0.000 description 4
- 230000006855 networking Effects 0.000 description 4
- 239000003205 fragrance Substances 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000008520 organization Effects 0.000 description 3
- 241000238366 Cephalopoda Species 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 235000021170 buffet Nutrition 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 229920001690 polydopamine Polymers 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 150000003839 salts Chemical class 0.000 description 2
- 210000003813 thumb Anatomy 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000012384 transportation and delivery Methods 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 241000238633 Odonata Species 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 235000015278 beef Nutrition 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000009172 bursting Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000003811 finger Anatomy 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000003999 initiator Substances 0.000 description 1
- 235000014659 low sodium diet Nutrition 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 235000015097 nutrients Nutrition 0.000 description 1
- 235000016709 nutrition Nutrition 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000013439 planning Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000013468 resource allocation Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012358 sourcing Methods 0.000 description 1
- 235000013599 spices Nutrition 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
- G06F16/48—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
- G06F16/43—Querying
- G06F16/432—Query formulation
- G06F16/433—Query formulation using audio data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/5866—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/903—Querying
- G06F16/9032—Query formulation
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16C—COMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
- G16C20/00—Chemoinformatics, i.e. ICT specially adapted for the handling of physicochemical or structural data of chemical particles, elements, compounds or mixtures
- G16C20/20—Identification of molecular entities, parts thereof or of chemical compositions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/64—Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Library & Information Science (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Chemical & Material Sciences (AREA)
- Crystallography & Structural Chemistry (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computing Systems (AREA)
- Spectroscopy & Molecular Physics (AREA)
- User Interface Of Digital Computer (AREA)
- Information Transfer Between Computers (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
Description
本開示は、情報取出しの分野に関し、具体的には、ユーザによる照会に基づく情報取出しの分野に関する。さらにより具体的には、本開示は、ユーザによって生成された照会の解釈の分野に関する。 The present disclosure relates to the field of information retrieval, and specifically to the field of information retrieval based on user inquiries. Even more specifically, the present disclosure relates to the field of interpreting user generated queries.
今日の多くのモバイル・デバイスは、ユーザから口頭質問を受け取り、次いで音声(speech)合成を使用して回答で応答する能力を有する。 Many mobile devices today have the ability to receive verbal questions from a user and then respond with answers using speech synthesis.
例えば、米国特許出願公開第2012/0016678号は、ユーザからの具体的な質問に回答するために自然言語ダイアログを使用してユーザとかかわるインテリジェント自動化アシスタント(intelligent automated assistant)について述べている。しかし、そのようなシステムはユーザからの音声入力に限定され、この結果、モバイル・デバイスによる誤った応答が生じる可能性がある。例えば、ユーザが質問するが、質問がシステムによって間違って解釈されるか、またはシステムが単に質問をまったく理解しないかのいずれかとなることがある。これにより、ユーザは、追加のボイス(voice)・コマンドや説明などでフォローアップすることが必要とされる。 For example, US Patent Application Publication No. 2012/0016678 describes an intelligent automated assistant that interacts with a user using natural language dialogs to answer specific questions from the user. However, such systems are limited to voice input from the user, which can result in false responses by the mobile device. For example, a user may ask a question, but the question may either be misinterpreted by the system, or the system may simply not understand the question at all. This requires the user to follow up with additional voice commands, instructions, etc.
他のデバイスは、非言語(すなわち非音声)入力に関して情報を提供するが、ユーザが非言語入力に関して質問を生成し発することは可能にしない。 Other devices provide information about non-verbal (ie, non-speech) input, but do not allow a user to generate and raise questions about non-verbal input.
例えば、米国特許出願公開第2012/0124461号は、画像上に重ねられるコンテキスト情報でストリート・レベル画像に注釈を付けるための技法について述べている。同様に、米国特許出願公開第2013/0346068号は、ユーザによって提供されるいくつかの用語でディジタル写真(photograph)にタグ付けするシステムについて述べている。しかし、このタイプの技術は、ユーザが有するであろう具体的な質問にかかわらず、事前定義済みの情報で画像を自動ポピュレートすることに限定される。 For example, U.S. Patent Application Publication No. 2012/0124461 describes a technique for annotating a street-level image with contextual information that is overlaid on the image. Similarly, U.S. Patent Application Publication No. 2013/0346068 describes a system for tagging digital photographs with a number of terms provided by a user. However, this type of technique is limited to automatically populating images with predefined information, regardless of the specific questions that the user may have.
したがって、単独でも組合せでも、従来技術は、ユーザが質問し、次いで質問を明確にする非言語入力を使用してこの質問を増補することを可能にするシステムを提供することができない。すなわち、従来技術は、視覚的画像や香り(scent)や音(sound)などの非言語入力に関してユーザによって生成された質問をユーザがデバイスに提示することを可能にするシステムを提供しない。本発明は、長年感じられてきたこの必要性に対する1つまたは複数の解決法を提供する。 Thus, alone or in combination, the prior art fails to provide a system that allows a user to ask a question and then augment this question using non-verbal inputs that define the question. That is, the prior art does not provide a system that allows the user to present to the device questions generated by the user regarding non-verbal inputs such as visual images and scents and sounds. The present invention provides one or more solutions to this need that has been felt for many years.
本開示の一実施形態では、電子デバイスは、不特定の対象(object)に関する情報を求める口頭要求を受け取るためのマイクロフォンを備える。センサが、不特定の対象に関する増補情報を受け取る。結合ロジックが、口頭要求からの情報を増補情報と結合して、結合フォーマット情報要求にする。次いで、情報取出しロジックが、結合フォーマット情報要求に対する回答を取り出す。 In one embodiment of the present disclosure, the electronic device comprises a microphone for receiving an oral request for information about an unspecified object. A sensor receives augmentation information about the unspecified subject. Combining logic combines information from the verbal request with the augmented information into a combined format information request. The information retrieval logic then retrieves a response to the combined format information request.
本開示の一実施形態では、電子デバイス中のセンサは、ユーザによって発せられた質問の対象を「嗅ぐ」ことができる化学センサである。 In one embodiment of the present disclosure, the sensor in the electronic device is a chemical sensor that can “sniff” the subject of a question issued by a user.
本開示の一実施形態では、電子デバイス中のセンサは、ビデオ画像を取り込むカメラであり、不特定の対象は、ビデオ画像中に現れない対象である。電子デバイスは、メタデータ取出しロジックにアクセスして、カメラによって取り込まれたビデオ画像から、ビデオ画像を記述するメタデータを取り出す。相関ロジックが、メタデータからの情報を相関させて、不特定の対象に関する情報を識別し、結合フォーマット情報要求に対する回答を生成する。 In one embodiment of the present disclosure, the sensor in the electronic device is a camera that captures a video image, and the unspecified object is an object that does not appear in the video image. The electronic device accesses metadata retrieval logic to retrieve metadata describing the video image from the video image captured by the camera. Correlation logic correlates information from the metadata to identify information about unspecified objects and to generate a response to the combined format information request.
本開示の一実施形態では、情報要求を増補する方法は、情報サーバによって、対象に関する情報を求める要求を受け取ることを含む。情報を求める要求は、電子デバイスからのものであり、第1のフォーマットのものである。情報サーバは、対象に関する増補情報を受け取る。増補情報は、電子デバイスによって生成されるものであり、第1のフォーマットとは異なる第2のフォーマットのものである。情報サーバは、増補情報に基づいて、情報を求める要求に対する応答を生成する。 In one embodiment of the present disclosure, a method of augmenting an information request includes receiving, by an information server, a request for information about an object. The request for information is from an electronic device and is in a first format. The information server receives the augmented information about the object. The augmentation information is generated by the electronic device and is of a second format different from the first format. The information server generates a response to the request for information based on the augmented information.
本開示の一実施形態では、第1のフォーマットは音声認識のためのものであり、第2のフォーマットは写真のためのものである。情報が要求される対象は、写真中で示される。情報サーバは、写真中で示される対象に関する、写真中の埋め込み情報を取り出す。情報サーバは、埋め込み情報に基づいて、写真中の対象に関する追加情報を突き止める。 In one embodiment of the present disclosure, the first format is for speech recognition and the second format is for photographs. The object for which information is required is shown in the photograph. The information server retrieves embedded information in the photo related to the object shown in the photo. The information server locates additional information about the object in the photo based on the embedded information.
本開示の一実施形態では、情報を求める要求は、特定ユーザによって生成される。この方法はさらに、情報を求める要求を、特定ユーザについてのユーザ・プロファイルに関連付けることと、ユーザ・プロファイルに基づいて、情報を求める要求に対する応答を適合させることとを含む。 In one embodiment of the present disclosure, the request for information is generated by a particular user. The method further includes associating the request for information with a user profile for a particular user and adapting a response to the request for information based on the user profile.
本開示の一実施形態では、情報サーバは、ユーザの身体ジェスチャを受け取り、身体ジェスチャを、対象に関する増補情報として利用する。 In one embodiment of the present disclosure, the information server receives the user's body gesture and uses the body gesture as augmentation information about the subject.
本開示の一実施形態では、コンピュータ・プログラム製品は、情報要求を増補する。コンピュータ・プログラム製品は、プログラム・コードが組み入れられたコンピュータ可読ストレージ媒体を含み、コンピュータ可読ストレージ媒体は、一時的な信号自体ではなく、プログラム・コードは、方法を実施するためにプロセッサによって読取り可能かつ実行可能である。この方法は、対象に関する情報を求める要求を受け取ることであって、情報を求める要求が電子デバイスからのものであり、情報を求める要求が第1のフォーマットのものである、受け取ることと、対象に関する増補情報を受け取ることであって、増補情報が電子デバイスによって生成されるものであり、増補情報が、第1のフォーマットとは異なる第2のフォーマットのものである、受け取ることと、増補情報に基づいて、情報を求める要求に対する応答を生成することと、を含む。 In one embodiment of the present disclosure, a computer program product augments information requirements. The computer program product includes a computer readable storage medium having the program code embodied therein, wherein the computer readable storage medium is not the temporary signal itself, the program code is readable by a processor to perform the method, and It is feasible. The method includes receiving a request for information about an object, wherein the request for information is from an electronic device and the request for information is in a first format. Receiving the augmented information, wherein the augmented information is generated by the electronic device, and wherein the augmented information is of a second format different from the first format. Generating a response to the request for information.
このように、ここに開示されるシステムは、情報要求の効率および精度を改善するという点で、従来技術に勝る技術的利点を提供する。より具体的には、本開示の教示がなければ、ほとんどとは言わないまでも多くの口頭質問は、無意味であろうし、したがってインテリジェント・アシスタント・デバイスによって回答不可能であろう。 Thus, the systems disclosed herein provide technical advantages over the prior art in improving the efficiency and accuracy of information requests. More specifically, without the teachings of the present disclosure, many, if not most, verbal questions would be meaningless and therefore unanswerable by intelligent assistant devices.
次に、添付の図面を参照しながら、本発明の実施形態について単なる例として述べる。 Embodiments of the present invention will now be described, by way of example only, with reference to the accompanying drawings.
本発明は、システム、方法、またはコンピュータ・プログラム製品、あるいはそれらの組合せとすることができる。コンピュータ・プログラム製品は、本開示の態様をプロセッサに遂行させるためのコンピュータ可読プログラム命令を有する1つまたは複数のコンピュータ可読ストレージ媒体を含むことができる。 The invention can be a system, method, or computer program product, or a combination thereof. A computer program product may include one or more computer readable storage media having computer readable program instructions for causing a processor to perform aspects of the present disclosure.
コンピュータ可読ストレージ媒体は、命令実行デバイスによって使用される命令を保持および記憶できる有形デバイスとすることができる。コンピュータ可読ストレージ媒体は、例えば、電子ストレージ・デバイス、磁気ストレージ・デバイス、光学ストレージ・デバイス、電磁ストレージ・デバイス、半導体ストレージ・デバイス、または上記の任意の適切な組合せとすることができるが、これらに限定されない。コンピュータ可読ストレージ媒体のより具体的な例の非網羅的なリストは、ポータブル・コンピュータ・ディスケット、ハード・ディスク、ランダム・アクセス・メモリ(RAM)、読取り専用メモリ(ROM)、消去可能プログラム可能な読取り専用メモリ(EPROMまたはフラッシュ・メモリ)、スタティック・ランダム・アクセス・メモリ(SRAM)、ポータブル・コンパクト・ディスク読取り専用メモリ(CD−ROM)、ディジタル多用途ディスク(DVD)、メモリ・スティック、フロッピー(R)・ディスク、機械的にエンコードされたデバイス(命令が記録された、パンチカード、または溝の中の隆起構造)、および上記の任意の適切な組合せを含む。本明細書におけるコンピュータ可読ストレージ媒体は、電波もしくは他の自由伝搬する電磁波、導波管もしくは他の伝送媒体を介して伝搬する電磁波(例えば、光ファイバ・ケーブルの中を通る光パルス)、またはワイヤを介して伝送される電気信号など、一時的な信号自体であると解釈されるべきではない。 The computer readable storage medium may be a tangible device capable of holding and storing instructions used by the instruction execution device. The computer readable storage medium can be, for example, an electronic storage device, a magnetic storage device, an optical storage device, an electromagnetic storage device, a semiconductor storage device, or any suitable combination of the above, but Not limited. A non-exhaustive list of more specific examples of computer-readable storage media includes portable computer diskettes, hard disks, random access memory (RAM), read-only memory (ROM), erasable programmable reads. Dedicated memory (EPROM or flash memory), static random access memory (SRAM), portable compact disk read only memory (CD-ROM), digital versatile disk (DVD), memory stick, floppy (R) -) Discs, mechanically encoded devices (punched cards or raised structures in grooves, with instructions recorded), and any suitable combination of the above. Computer readable storage media herein refers to radio waves or other freely propagating electromagnetic waves, electromagnetic waves propagating through waveguides or other transmission media (eg, optical pulses through fiber optic cables), or wires. It should not be construed as a transient signal itself, such as an electrical signal transmitted over
本明細書に記載のコンピュータ可読プログラム命令は、コンピュータ可読ストレージ媒体からそれぞれのコンピューティング/処理デバイスにダウンロードされてよく、あるいは、ネットワーク(例えば、インターネット、ローカル・エリア・ネットワーク、ワイド・エリア・ネットワーク、もしくはワイヤレス・ネットワーク、またはそれらの組合せ)を介して外部コンピュータまたは外部ストレージ・デバイスにダウンロードされてよい。ネットワークは、銅伝送ケーブル、光伝送ファイバ、ワイヤレス伝送、ルータ、ファイアウォール、スイッチ、ゲートウェイ・コンピュータ、またはエッジ・サーバ、あるいはそれらの組合せを含むことができる。各コンピューティング/処理デバイス中の、ネットワーク・アダプタ・カードまたはネットワーク・インタフェースが、コンピュータ可読プログラム命令をネットワークから受け取り、これらのコンピュータ可読プログラム命令を、それぞれのコンピューティング/処理デバイス内のコンピュータ可読ストレージ媒体に記憶されるように転送する。 The computer readable program instructions described herein may be downloaded from a computer readable storage medium to a respective computing / processing device, or may be downloaded from a network (eg, the Internet, a local area network, a wide area network, Or a wireless network, or a combination thereof) to an external computer or external storage device. A network may include copper transmission cables, optical transmission fibers, wireless transmissions, routers, firewalls, switches, gateway computers, or edge servers, or a combination thereof. A network adapter card or network interface in each computing / processing device receives computer readable program instructions from a network and transfers these computer readable program instructions to a computer readable storage medium in the respective computing / processing device. Transfer as stored in.
本開示の動作を遂行するためのコンピュータ可読プログラム命令は、アセンブラ命令、命令セット・アーキテクチャ(ISA)命令、機械命令、機械依存命令、マイクロコード、ファームウェア命令、状態設定データであってよく、または、Smalltalk(R)やC++などのオブジェクト指向プログラミング言語、および、「C」プログラミング言語や類似のプログラミング言語などの従来の手続き型プログラミング言語を含めた、1つもしくは複数のプログラミング言語の任意の組合せで書かれたソース・コードとオブジェクト・コードとのいずれかであってよい。コンピュータ可読プログラム命令は、完全にユーザのコンピュータ上で実行されるか、スタンドアロン・ソフトウェア・パッケージとして部分的にユーザのコンピュータ上で実行されるか、部分的にユーザのコンピュータ上で実行され部分的にリモート・コンピュータ上で実行されるか、または完全にリモート・コンピュータもしくはサーバ上で実行される場合がある。後者のシナリオでは、リモート・コンピュータは、ローカル・エリア・ネットワーク(LAN)もしくはワイド・エリア・ネットワーク(WAN)を含めた任意のタイプのネットワークを介してユーザのコンピュータに接続されてもよく、または、接続は、外部コンピュータに対して(例えば、インターネット・サービス・プロバイダを使用してインターネット経由で)行われてもよい。いくつかの実施形態では、プログラマブル・ロジック回路、フィールド・プログラマブル・ゲート・アレイ(FPGA)、またはプログラマブル・ロジック・アレイ(PLA)、を例えば含む電子回路が、本開示の態様を実施するために、コンピュータ可読プログラム命令の状態情報を利用して電子回路を個人化することによって、コンピュータ可読プログラム命令を実行することができる。 The computer readable program instructions for performing the operations of the present disclosure may be assembler instructions, instruction set architecture (ISA) instructions, machine instructions, machine dependent instructions, microcode, firmware instructions, state setting data, or Write in any combination of one or more programming languages, including object-oriented programming languages such as Smalltalk® and C ++, and conventional procedural programming languages such as the “C” programming language and similar programming languages. It may be either source code or object code written. The computer readable program instructions may be executed entirely on the user's computer, partially executed on the user's computer as a stand-alone software package, or partially executed on the user's computer. It may run on a remote computer or run entirely on a remote computer or server. In the latter scenario, the remote computer may be connected to the user's computer via any type of network, including a local area network (LAN) or wide area network (WAN), or The connection may be made to an external computer (eg, via the Internet using an Internet service provider). In some embodiments, an electronic circuit including, for example, a programmable logic circuit, a field programmable gate array (FPGA), or a programmable logic array (PLA), for implementing aspects of the present disclosure, Computer readable program instructions can be executed by personalizing the electronic circuit using state information of the computer readable program instructions.
本明細書では、本開示の態様が、本発明の実施形態による方法、装置(システム)、およびコンピュータ・プログラム製品の、フローチャート説明またはブロック図あるいはその両方に関して記述される。フローチャート説明またはブロック図あるいはその両方の各ブロック、および、フローチャート説明またはブロック図あるいはその両方の中のブロックの組合せを、コンピュータ可読プログラム命令によって実装できることは理解されるであろう。 Aspects of the disclosure are described herein with reference to flowchart illustrations and / or block diagrams of methods, apparatus (systems), and computer program products according to embodiments of the invention. It will be understood that each block of the flowchart description and / or block diagram, and combinations of blocks in the flowchart description and / or block diagram, can be implemented by computer readable program instructions.
これらのコンピュータ可読プログラム命令は、コンピュータまたは他のプログラム可能データ処理装置のプロセッサを介して実行される命令が、フローチャートまたはブロック図あるいはその両方の1つまたは複数のブロック中で指定される機能/行為を実装する手段をもたらすように、汎用コンピュータ、専用コンピュータ、または他のプログラム可能データ処理装置のプロセッサに提供されて、マシンを作り出すものであってよい。これらのコンピュータ可読プログラム命令はまた、命令が記憶されたコンピュータ可読ストレージ媒体が、フローチャートまたはブロック図あるいはその両方の1つまたは複数のブロック中で指定される機能/行為の態様を実装する命令を含む製造品を構成するように、コンピュータ可読ストレージ媒体に記憶され、コンピュータ、プログラム可能データ処理装置、または他のデバイス、あるいはそれらの組合せに、特定の方式で機能するよう指示することができるものであってもよい。 These computer readable program instructions correspond to functions / acts in which instructions executed via a processor of a computer or other programmable data processing device are specified in one or more blocks of a flowchart and / or block diagram. May be provided to the processor of a general purpose computer, special purpose computer, or other programmable data processing device to create a machine to provide a means for implementing These computer-readable program instructions also include instructions that cause the computer-readable storage medium on which the instructions are stored to implement aspects of the function / act specified in one or more blocks in the flowcharts and / or block diagrams. One that is stored on a computer readable storage medium and that can direct a computer, programmable data processor, or other device, or a combination thereof, to function in a particular manner to constitute an article of manufacture. You may.
コンピュータ可読プログラム命令はまた、コンピュータ、他のプログラム可能装置、または他のデバイス上で実行される命令が、フローチャートまたはブロック図あるいはその両方の1つまたは複数のブロック中で指定される機能/行為を実装するように、コンピュータ実装プロセスを作り出すべく、コンピュータ、他のプログラム可能データ処理装置、または他のデバイスにロードされ、コンピュータ、他のプログラム可能装置、または他のデバイス上で一連の動作ステップを実施させるものであってもよい。 The computer readable program instructions also describe the instructions that are executed on the computer, other programmable devices, or other devices, when the instructions / functions are specified in one or more blocks in a flowchart and / or block diagram. As implemented, loaded into a computer, other programmable data processing device, or other device to perform a series of operational steps on the computer, other programmable device, or other device, to create a computer-implemented process. It may be the one that causes it.
図中のフローチャートおよびブロック図は、本開示の様々な実施形態によるシステム、方法、およびコンピュータ・プログラム製品の可能な実装形態の、アーキテクチャ、機能、および動作を示す。これに関して、フローチャートまたはブロック図の中の各ブロックは、モジュール、セグメント、または命令の一部を表すことができ、これは、指定される論理機能を実装するための1つまたは複数の実行可能命令を含む。いくつかの代替実装形態では、ブロック中で示される機能は、図中で示される順序とは異なる順序で生じる場合がある。例えば、関連する機能に応じて、連続して示される2つのブロックが実際にはほぼ同時に実行される場合もあり、またはこれらのブロックが逆の順序で実行されることもある。また、ブロック図またはフローチャート説明あるいはその両方の各ブロック、および、ブロック図またはフローチャート説明あるいはその両方の中のブロックの組合せは、指定される機能もしくは行為を実施するかまたは専用ハードウェアとコンピュータ命令との組合せを遂行する、専用ハードウェアベースのシステムによって実装できることにも留意されるであろう。 The flowcharts and block diagrams in the figures illustrate the architecture, functionality, and operation of possible implementations of systems, methods, and computer program products according to various embodiments of the present disclosure. In this regard, each block in the flowcharts or block diagrams may represent a module, a segment, or a portion of an instruction, which may include one or more executable instructions for implementing the specified logical function (s). including. In some alternative implementations, the functions noted in the block may occur out of the order noted in the figures. For example, depending on the functions involved, two blocks shown in succession may actually be performed substantially simultaneously, or they may be performed in the reverse order. In addition, blocks in the block diagrams and / or flowchart illustrations, and combinations of blocks in the block diagrams and / or flowchart illustrations, may perform specified functions or actions, or may contain dedicated hardware and computer instructions. It should also be noted that it can be implemented by a dedicated hardware-based system that performs a combination of.
1つまたは複数の実施形態では、本発明をクラウド・コンピューティング環境で実装できることを理解されたい。 It is to be understood that in one or more embodiments, the invention may be implemented in a cloud computing environment.
クラウド・コンピューティングは、最小限の管理労力で、またはサービスのプロバイダとの最小限の対話で迅速にプロビジョニングでき解放できる構成可能なコンピューティング・リソース(例えば、ネットワーク、ネットワーク帯域幅、サーバ、処理、メモリ、ストレージ、アプリケーション、バーチャル・マシン、およびサービス)の共有プールへの便利なオンデマンドのネットワーク・アクセスを可能にするための、サービス送達のモデルである。このクラウド・モデルは、少なくとも5つの特徴、少なくとも3つのサービス・モデル、および少なくとも4つの展開モデルを含むことができる。 Cloud computing is a configurable computing resource that can be quickly provisioned and released with minimal administrative effort or with minimal interaction with service providers (eg, networks, network bandwidth, servers, processing, A model of service delivery to allow convenient on-demand network access to a shared pool of memory, storage, applications, virtual machines, and services). The cloud model may include at least five features, at least three service models, and at least four deployment models.
特徴は次のとおりである。
オンデマンド・セルフサービス:クラウド消費者は、必要に応じて、サービスのプロバイダとの人的な対話を必要とすることなく自動的に、サーバ時間やネットワーク・ストレージなどのコンピューティング能力を単方向にプロビジョニングすることができる。
幅広いネットワーク・アクセス:能力はネットワークを介して利用可能であり、能力はまた、異種シン・クライアント・プラットフォームまたはシック・クライアント・プラットフォーム(例えば、モバイル・フォン、ラップトップ、およびPDA)による使用を促進する標準的なメカニズムを介してアクセスされる。
リソース・プーリング:プロバイダのコンピューティング・リソースは、マルチテナント・モデルを使用する複数の消費者に役立つようにプールされ、異なる複数の物理リソースおよび仮想リソースが、需要に従って動的に割当ておよび再割当てされる。消費者は一般に、提供されるリソースの正確な場所に関して制御も知識も有しないが、より高い抽象化レベル(例えば、国、州、またはデータセンタ)で場所を指定することはできる場合があるという点で、ある意味での場所独立性がある。
迅速な弾力性:能力を迅速かつ弾力的に、場合によっては自動的にプロビジョニングして素早くスケールアウトし、迅速に解放して素早くスケールインすることができる。消費者にとっては、プロビジョニングのために利用可能な能力はしばしば無限に見え、いつでもどのような量でも購入することができる。
測定されるサービス:クラウド・システムは、サービスのタイプ(例えば、ストレージ、処理、帯域幅、およびアクティブ・ユーザ・アカウント)に適した何らかの抽象化レベルで計測能力を活用することによって、リソース使用を自動的に制御および最適化する。リソース使用は、監視、制御、および報告することができ、これにより、利用されるサービスのプロバイダと消費者の両方にとってのトランスペアレンシがもたらされる。
The features are as follows.
On-demand self-service: Cloud consumers automatically unidirectionally compute computing power, such as server time and network storage, as needed, without the need for human interaction with service providers Can be provisioned.
Broad Network Access: Capabilities are available over the network, and capabilities also facilitate use by heterogeneous thin or thick client platforms (eg, mobile phones, laptops, and PDAs). Accessed via standard mechanisms.
Resource pooling: Provider computing resources are pooled to serve multiple consumers using a multi-tenant model, and different physical and virtual resources are dynamically allocated and reallocated according to demand. You. Consumers generally have no control or knowledge about the exact location of the provided resources, but may be able to specify locations at a higher level of abstraction (eg, country, state, or data center). In that respect, there is a sense of place independence.
Rapid resilience: Capabilities can be provisioned quickly and resiliently, sometimes automatically, and scaled out quickly, released quickly and scaled in quickly. To the consumer, the capacity available for provisioning often looks endless and can be purchased at any time and in any quantity.
Measured services: The cloud system automates resource usage by leveraging metering capabilities at some level of abstraction appropriate to the type of service (eg, storage, processing, bandwidth, and active user accounts). Control and optimization. Resource usage can be monitored, controlled, and reported, resulting in transparency for both the provider and the consumer of the service used.
サービス・モデルは次のとおりである。
ソフトウェア・アズ・ア・サービス(SaaS):消費者に提供される能力は、クラウド・インフラストラクチャ上で実行されている、プロバイダのアプリケーションを使用することである。アプリケーションへのアクセスは、ウェブ・ブラウザなどのシン・クライアント・インタフェースを介して様々なクライアント・デバイスから可能である(例えば、ウェブベースの電子メール)。消費者は、ネットワーク、サーバ、オペレーティング・システム、ストレージ、さらには個々のアプリケーション能力をも含めた、基礎をなすクラウド・インフラストラクチャを管理することも制御することもしないが、限られたユーザ特有アプリケーション構成設定については例外である可能性がある。
プラットフォーム・アズ・ア・サービス(PaaS):消費者に提供される能力は、プロバイダによってサポートされるプログラミング言語およびツールを使用して作成された、消費者によって作成または取得されたアプリケーションを、クラウド・インフラストラクチャ上に展開することである。消費者は、ネットワーク、サーバ、オペレーティング・システム、またはストレージを含めた、基礎をなすクラウド・インフラストラクチャを管理することも制御することもしないが、展開されたアプリケーションに対する制御、およびおそらくはアプリケーション・ホスティング環境構成に対する制御を有する。
インフラストラクチャ・アズ・ア・サービス(IaaS):消費者に提供される能力は、処理、ストレージ、ネットワーク、および他の基本的なコンピューティング・リソースをプロビジョニングすることであり、この場合、消費者は、オペレーティング・システムおよびアプリケーションを含み得る任意のソフトウェアを展開および実行することができる。消費者は、基礎をなすクラウド・インフラストラクチャを管理することも制御することもしないが、オペレーティング・システム、ストレージ、展開されたアプリケーションに対する制御、およびおそらくは、精選されたネットワーキング・コンポーネント(例えばホスト・ファイアウォール)の限られた制御を有する。
The service model is as follows.
Software as a Service (SaaS): The ability provided to consumers is to use a provider's application running on a cloud infrastructure. Access to the application is possible from various client devices (eg, web-based email) via a thin client interface, such as a web browser. Consumers do not manage or control the underlying cloud infrastructure, including network, server, operating system, storage, and even individual application capabilities, but have limited user-specific applications Configuration settings can be an exception.
Platform as a Service (PaaS): The ability provided to consumers is the ability to create and obtain applications created or obtained by consumers using programming languages and tools supported by the provider. To deploy on infrastructure. Consumers do not manage or control the underlying cloud infrastructure, including networks, servers, operating systems, or storage, but control over deployed applications, and possibly an application hosting environment Has control over configuration.
Infrastructure as a Service (IaaS): The ability provided to the consumer is to provision processing, storage, networking, and other basic computing resources, where the consumer , Any software that can include operating systems and applications. Consumers do not manage or control the underlying cloud infrastructure, but control over the operating system, storage, deployed applications, and possibly selected networking components (eg, host firewalls). ) With limited control.
展開モデルは次のとおりである。
プライベート・クラウド:クラウド・インフラストラクチャは、組織のためにのみ運用される。クラウド・インフラストラクチャは、この組織またはサード・パーティによって管理されてよく、構内または構外に存在してよい。
コミュニティ・クラウド:クラウド・インフラストラクチャは、いくつかの組織によって共有され、共有の関心事(例えば、ミッション、セキュリティ要件、ポリシー、およびコンプライアンス考慮事項)を有する特定のコミュニティをサポートする。クラウド・インフラストラクチャは、これらの組織またはサード・パーティによって管理されてよく、構内または構外に存在してよい。
パブリック・クラウド:クラウド・インフラストラクチャは、一般大衆または大規模な業界団体が利用できるようにされ、クラウド・サービスを販売する組織によって所有される。
ハイブリッド・クラウド:クラウド・インフラストラクチャは、2つ以上のクラウド(プライベート、コミュニティ、またはパブリック)の複合物である。これらのクラウドは、独自のエンティティのままであるが、データおよびアプリケーションの可搬性を可能にする標準化された技術またはプロプラエタリ技術によって1つにまとめられる(例えば、クラウド間の負荷平衡のためのクラウド・バースティング)。
The deployment model is as follows.
Private cloud: The cloud infrastructure operates only for the organization. The cloud infrastructure may be managed by this organization or a third party and may be on-premises or off-premises.
Community Cloud: The cloud infrastructure is shared by several organizations and supports specific communities with shared interests (eg, mission, security requirements, policies, and compliance considerations). The cloud infrastructure may be managed by these organizations or third parties and may be on-premises or off-premises.
Public Cloud: The cloud infrastructure is made available to the general public or large industry associations and is owned by the organization that sells the cloud services.
Hybrid cloud: A cloud infrastructure is a composite of two or more clouds (private, community, or public). These clouds remain their own entities, but are brought together by standardized or proprietary technologies that enable data and application portability (e.g., cloud load balancing for cloud-to-cloud load balancing). Bursting).
クラウド・コンピューティング環境はサービス指向であり、ステートレス性、低結合、モジュール性、およびセマンティックな相互運用性に焦点が合わされる。クラウド・コンピューティングの中心には、相互接続されたノードのネットワークを構成するインフラストラクチャがある。 Cloud computing environments are service-oriented and focus on statelessness, low coupling, modularity, and semantic interoperability. At the heart of cloud computing is the infrastructure that makes up a network of interconnected nodes.
次に図1を参照すると、クラウド・コンピューティング・ノードの例の概略図が示されている。クラウド・コンピューティング・ノード10は、適切なクラウド・コンピューティング・ノードの一例に過ぎず、本明細書に記載の本発明の実施形態の使用または機能の範囲についてどのような限定も示唆するものとしない。ともかく、クラウド・コンピューティング・ノード10は、前述の機能のいずれかと共に実装されること、または前述の機能のいずれかを実施すること、あるいはその両方が可能である。
Referring now to FIG. 1, a schematic diagram of an example of a cloud computing node is shown.
クラウド・コンピューティング・ノード10中には、コンピュータ・システム/サーバ12があり、コンピュータ・システム/サーバ12は、他の多くの汎用または専用のコンピューティング・システム環境または構成でも動作する。コンピュータ・システム/サーバ12と共に使用するのに適する可能性のある周知のコンピューティング・システム、環境、または構成、あるいはそれらの組合せの例としては、パーソナル・コンピュータ・システム、サーバ・コンピュータ・システム、シン・クライアント、シック・クライアント、ハンドヘルド・デバイスまたはラップトップ・デバイス、マルチプロセッサ・システム、マイクロプロセッサベースのシステム、セット・トップ・ボックス、プログラム可能な消費者電子機器、ネットワークPC、ミニコンピュータ・システム、メインフレーム・コンピュータ・システム、および、これらのシステムまたはデバイスのいずれかを含む分散クラウド・コンピューティング環境、などが挙げられるが、これらに限定されない。
Within the
コンピュータ・システム/サーバ12は、プログラム・モジュールなど、コンピュータ・システムによって実行されるコンピュータ・システム実行可能命令の一般的なコンテキストで記述することができる。一般に、プログラム・モジュールは、特定のタスクを実施するかまたは特定の抽象データ型を実装するルーチン、プログラム、オブジェクト、コンポーネント、ロジック、データ構造などを含む場合がある。コンピュータ・システム/サーバ12は、分散クラウド・コンピューティング環境で実践されてよく、その場合、タスクは、通信ネットワークを介してリンクされたリモート処理デバイスによって実施される。分散クラウド・コンピューティング環境では、プログラム・モジュールは、メモリ・ストレージ・デバイスを含めたローカルとリモートの両方のコンピュータ・システム・ストレージ媒体中に位置する場合がある。 Computer system / server 12 may be described in the general context of computer system executable instructions executed by a computer system, such as program modules. Generally, program modules may include routines, programs, objects, components, logic, data structures, etc. that perform particular tasks or implement particular abstract data types. Computer system / server 12 may be practiced in a distributed cloud computing environment, where tasks are performed by remote processing devices that are linked through a communications network. In a distributed cloud computing environment, program modules may be located in both local and remote computer system storage media including memory storage devices.
図1に示されるように、クラウド・コンピューティング・ノード10中のコンピュータ・システム/サーバ12は、汎用コンピューティング・デバイスの形で示されている。コンピュータ・システム/サーバ12のコンポーネントは、1つまたは複数のプロセッサまたは処理ユニット16と、システム・メモリ28と、システム・メモリ28を含めた様々なシステム・コンポーネントをプロセッサ16に結合するバス18と、を含むことができるが、これらに限定されない。
As shown in FIG. 1, a computer system / server 12 in a
バス18は、様々なバス・アーキテクチャのいずれかを使用する、メモリ・バスまたはメモリ・コントローラ、周辺バス、アクセラレーテッド・グラフィックス・ポート、およびプロセッサまたはローカル・バスを含めた、いくつかのタイプのバス構造のいずれかの1つまたは複数を表す。限定ではなく例として、このようなアーキテクチャは、ISA(Industry Standard Architecture)バス、MCA(MicroChannel Architecture)バス、EISA(Enhanced ISA)バス、VESA(Video Electronics Standards Association)ローカル・バス、およびPCI(Peripheral Component Interconnects)バスを含む。
コンピュータ・システム/サーバ12は通常、様々なコンピュータ・システム可読媒体を備える。このような媒体は、コンピュータ・システム/サーバ12からアクセス可能な任意の利用可能な媒体とすることができ、揮発性と不揮発性の媒体、取外し可能と取外し不能の媒体の両方を含む。 Computer system / server 12 typically includes a variety of computer system readable media. Such media can be any available media that can be accessed by computer system / server 12 and includes both volatile and nonvolatile media, removable and non-removable media.
システム・メモリ28は、ランダム・アクセス・メモリ(RAM)30またはキャッシュ・メモリ32あるいはその両方など、揮発性メモリの形のコンピュータ・システム可読媒体を含むことができる。コンピュータ・システム/サーバ12はさらに、他の取外し可能/取外し不能、揮発性/不揮発性コンピュータ・システム・ストレージ媒体を備えることもできる。例に過ぎないが、取外し不能な不揮発性の磁気媒体(図示せず。典型的には「ハード・ドライブ」と呼ばれる)に対して読取りおよび書込みするために、ストレージ・システム34が設けられてよい。図示されていないが、取外し可能な不揮発性の磁気ディスク(例えば「フロッピー(R)・ディスク」)に対して読取りおよび書込みするための磁気ディスク・ドライブと、CD−ROM、DVD−ROM、または他の光学媒体など、取外し可能な不揮発性の光学ディスクに対して読取りまたは書込みするため光学ディスク・ドライブとが設けられてよい。このような事例では、各ドライブは、1つまたは複数のデータ媒体インタフェースによってバス18に接続されてよい。後でさらに図示および記述されるように、メモリ28は、本発明の実施形態の機能を遂行するように構成された1組の(例えば少なくとも1つの)プログラム・モジュールを有する少なくとも1つのプログラム製品を含むことができる。
System memory 28 may include computer system readable media in the form of volatile memory, such as random access memory (RAM) 30 and / or
1組の(少なくとも1つの)プログラム・モジュール42を有するプログラム/ユーティリティ40が、限定ではなく例としてメモリ28に記憶されてよく、また、オペレーティング・システム、1つまたは複数のアプリケーション・プログラム、他のプログラム・モジュール、およびプログラム・データも記憶されてよい。オペレーティング・システム、1つまたは複数のアプリケーション・プログラム、他のプログラム・モジュール、およびプログラム・データ、またはこれらの何らかの組合せはそれぞれ、ネットワーキング環境の一実装形態を含むことができる。プログラム・モジュール42は一般に、本明細書に記載の本発明の実施形態の、機能または方法あるいはその両方を遂行する。
A program /
コンピュータ・システム/サーバ12はまた、1つまたは複数の外部デバイス14と通信することができる。外部デバイス14は、キーボード、ポインティング・デバイス、ディスプレイ24等、ユーザがコンピュータ・システム/サーバ12と対話できるようにする1つもしくは複数のデバイス、または、コンピュータ・システム/サーバ12が1つもしくは複数の他のコンピューティング・デバイスと通信できるようにする任意のデバイス(例えば、ネットワーク・カード、モデムなど)、あるいはそれらの組合せ、などである。このような通信は、入出力(I/O)インタフェース22を介して行うことができる。さらに、コンピュータ・システム/サーバ12は、ネットワーク・アダプタ20を介して、ローカル・エリア・ネットワーク(LAN)、一般的なワイド・エリア・ネットワーク(WAN)、または公衆ネットワーク(例えばインターネット)、あるいはそれらの組合せなど、1つまたは複数のネットワークと通信することができる。図示のように、ネットワーク・アダプタ20は、バス18を介して、コンピュータ・システム/サーバ12の他のコンポーネントと通信する。図示されていないが、他のハードウェア・コンポーネントまたはソフトウェア・コンポーネントあるいはその両方が、コンピュータ・システム/サーバ12と共に使用されてもよいことを理解されたい。例としては、マイクロコード、デバイス・ドライバ、冗長処理ユニット、外部ディスク・ドライブ・アレイ、RAIDシステム、テープ・ドライブ、およびデータ・アーカイバル・ストレージ・システムなどが挙げられるが、これらに限定されない。
Computer system / server 12 can also communicate with one or more
本開示の1つまたは複数の実施形態では、外部デバイス14は、図1に示されるコンピュータ・システム/サーバ12のアーキテクチャを利用する。同様に、コンピュータ・システム/サーバ12のアーキテクチャは、図4に示される電子デバイス402または情報クラウド・サーバ404あるいはその両方において実装されてよい。
In one or more embodiments of the present disclosure,
次に図2を参照すると、例証的なクラウド・コンピューティング環境50が描かれている。図示のように、クラウド・コンピューティング環境50は、1つまたは複数のクラウド・コンピューティング・ノード10を含み、クラウド消費者によって使用されるローカル・コンピューティング・デバイス、例えば、パーソナル・ディジタル・アシスタント(PDA)もしくはセルラー電話機54A、デスクトップ・コンピュータ54B、ラップトップ・コンピュータ54C、または自動車コンピュータ・システム54N、あるいはそれらの組合せなどが、クラウド・コンピューティング・ノード10と通信することができる。ノード10は、相互に通信することができる。これらは、前述のようなプライベート・クラウド、コミュニティ・クラウド、パブリック・クラウド、もしくはハイブリッド・クラウド、またはこれらの組合せなど、1つまたは複数のネットワーク中で、物理的または仮想的にグループ化されてよい(図示せず)。これにより、クラウド・コンピューティング環境50は、クラウド消費者がリソースをローカル・コンピューティング・デバイス上で維持する必要のないサービスとして、インフラストラクチャ、プラットフォーム、またはソフトウェア、あるいはそれらの組合せを申し出ることができる。図2に示されるコンピューティング・デバイス54A〜Nのタイプは例証に過ぎないものとし、コンピューティング・ノード10およびクラウド・コンピューティング環境50は、任意のタイプのネットワークまたはネットワーク対応可能接続あるいはその両方を介して(例えばウェブ・ブラウザを使用して)、任意のタイプのコンピュータ化デバイスと通信できることを理解されたい。
Referring now to FIG. 2, an illustrative
次に図3を参照すると、クラウド・コンピューティング環境50(図2)によって提供される1組の機能的抽象化レイヤが示されている。図3に示されるコンポーネント、レイヤ、および機能は例証に過ぎないものとし、本発明の実施形態はこれらに限定されないことを、あらかじめ理解されたい。図示のように、以下のレイヤおよび対応する機能が提供される。 Referring now to FIG. 3, a set of functional abstraction layers provided by the cloud computing environment 50 (FIG. 2) is shown. It should be understood in advance that the components, layers, and functions shown in FIG. 3 are merely exemplary and that embodiments of the present invention are not limited thereto. As shown, the following layers and corresponding functions are provided.
ハードウェアおよびソフトウェア・レイヤ60は、ハードウェア・コンポーネントおよびソフトウェア・コンポーネントを含む。ハードウェア・コンポーネントの例としては、メインフレーム、一例ではIBM(R)zSeries(R)システム、RISC(縮小命令セット・コンピュータ)アーキテクチャベースのサーバ、一例ではIBM pSeries(R)システム、IBM xSeries(R)システム、IBM BladeCenter(R)システム、ストレージ・デバイス、ネットワークおよびネットワーキング・コンポーネント、が挙げられる。ソフトウェア・コンポーネントの例は、ネットワーク・アプリケーション・サーバ・ソフトウェア、一例ではIBM WebSphere(R)アプリケーション・サーバ・ソフトウェア、およびデータベース・ソフトウェア、一例ではIBM DB2(R)データベース・ソフトウェア、を含む。(IBM、zSeries、pSeries、xSeries、BladeCenter、WebSphere、およびDB2は、世界中の多くの管轄区において登録されたインターナショナル・ビジネス・マシーンズ・コーポレーション(International Business Machines Corporation)の商標である)
Hardware and
仮想化レイヤ62は、仮想エンティティの以下の例がそこから提供され得る抽象化レイヤを提供する。すなわち、仮想サーバ、仮想ストレージ、仮想プライベート・ネットワークを含む仮想ネットワーク、仮想アプリケーションおよびオペレーティング・システム、ならびに仮想クライアント、が提供され得る。
The
一例では、管理レイヤ64は、以下に述べる機能を提供することができる。リソース・プロビジョニングは、クラウド・コンピューティング環境内でタスクを実施するのに利用されるコンピューティング・リソースおよび他のリソースの動的な調達を提供する。計測および価格設定は、クラウド・コンピューティング環境内でリソースが利用されるのに伴うコスト追跡と、これらのリソースの消費に対する課金または送り状送付とを提供する。一例では、これらのリソースは、アプリケーション・ソフトウェア・ライセンスを含む場合がある。セキュリティは、クラウド消費者およびタスクに対する識別検証、ならびに、データおよび他のリソースのための保護を提供する。ユーザ・ポータルは、クラウド・コンピューティング環境へのアクセスを消費者およびシステム管理者に提供する。サービス・レベル管理は、必要とされるサービス・レベルが満たされるように、クラウド・コンピューティング・リソース割振りおよび管理を提供する。サービス・レベル・アグリーメント(SLA)プランニングおよび履行は、SLAに従って、将来必要とされることが予期されるクラウド・コンピューティング・リソースの事前構成および調達を提供する。 In one example, management layer 64 can provide the functions described below. Resource provisioning provides for the dynamic sourcing of computing and other resources utilized to perform tasks within a cloud computing environment. Metering and pricing provides the cost tracking as resources are utilized within a cloud computing environment, and the billing or invoicing of the consumption of these resources. In one example, these resources may include an application software license. Security provides identity verification for cloud consumers and tasks, as well as protection for data and other resources. A user portal provides consumers and system administrators with access to a cloud computing environment. Service level management provides cloud computing resource allocation and management so that required service levels are met. Service Level Agreement (SLA) planning and fulfillment provides for the pre-configuration and procurement of cloud computing resources that are expected to be needed in the future according to the SLA.
ワークロード・レイヤ66は、クラウド・コンピューティング環境を利用できる対象となる機能の例を提供する。このレイヤから提供できるワークロードおよび機能の例としては、マッピングおよびナビゲーション、ソフトウェア開発およびライフサイクル管理、仮想教室教育の配信、データ分析処理、トランザクション処理、ならびに、本明細書に記載のような、かつワークロード・レイヤ66中に見られる「情報照会処理」によって表されるような、電子デバイスからの情報照会を扱うこと、が挙げられる。
次に図4を参照すると、例示的なシステム400は、従来技術に見られない、かつ本発明が利用され得る、様々な新しく新規な技術的特徴の、技術的特性または相互運用性あるいはその両方を描いている。より具体的には、図4に描かれた要素であって、図5に描かれる動作に関してさらに記述される要素は、ユーザによって生成された情報照会の性質および範囲を照会ロジックが明確かつ効率的に識別することができないという問題を解決する。本開示は、照会の主題(subject)の性質を明確にする増補センサ(視覚的、音、化学的など)の使用を通して、この問題を解決する。
Referring now to FIG. 4, an
スマート・フォン、パーソナル・ディジタル・アシスタント、タブレット・コンピュータなどの電子デバイス402が、ネットワーク406を介して情報クラウド・サーバ404と通信することができる。ネットワーク406は、有線(例えばインターネット)、ワイヤレス(例えばWi−Fiシステム)、または両方の組合せ、あるいはそれらの組合せであってよい。
An
電子デバイス402はユーザ・インタフェース408を備え、ユーザ・インタフェース408は、「質問する」ボタン410において示されるように、「質問する」ようユーザに促すことができる。「質問する」ボタン410は、ユーザが「質問する」ボタン410(これは機械的ボタンであるか、またはユーザ・インタフェース408のタッチセンシティブ・エリアであってよい)を押したときに強調表示されてよく、したがって、音声ロジック414がマイクロフォン412を介してユーザの質問を受け取ることが可能にされたことを示す。音声ロジック414は、ユーザの質問を、ディジタル化されたフォーマットに変換する。このフォーマットは、プロセッサ416によってローカルに処理されるか、または情報クラウド・サーバ404によってリモートに処理されるか、あるいはその両方で処理されてよい。
ユーザの質問をよりよく理解するために、追加情報が、「増補情報」としてプロセッサ416または情報クラウド・サーバ404あるいはその両方に提供される。この増補情報は、写真、ビデオ、音、化学シグネチャ(signature)、文書への参照、グラフィック・ファイルへの参照などの形であってよい。
To better understand the user's question, additional information is provided to
本開示の一実施形態では、ユーザの質問(すなわち情報を求める口頭要求)は、最初は不特定の対象に関するものである。例えば、質問が「これはどんな種類の花ですか?」である場合がある。言語質問のみを使用する場合、システムは、ユーザがどの「花」について尋ねているのかを「知る」ことができず、したがって、質問の中の「花」は不特定である(すなわち「不特定の対象」である)。本発明の1つまたは複数の実施形態によれば、電子デバイス402上のセンサが、不特定の対象に関する増補情報を提供する。
In one embodiment of the present disclosure, the user's question (i.e., verbal request for information) is initially about an unspecified subject. For example, the question may be "What kind of flower is this?" If only linguistic questions are used, the system cannot "know" which "flower" the user is asking about, so the "flower" in the question is unspecified (i.e., "unspecified" Subject of "). According to one or more embodiments of the present invention, sensors on
本開示の一実施形態では、この増補情報を提供するのに使用されるセンサは、カメラ420であり、カメラ420は、写真(すなわち静止写真)またはビデオ(すなわち動画の視覚的記録)あるいはその両方を作成する。カメラ420は、ユーザがカメラ・セレクタ・ボタン418を押すことによって選択され、カメラ・セレクタ・ボタン418は、電子デバイス402上のカメラ420を起動する。カメラ420で花の写真/ビデオを撮影した後には、システムは今や、照会に関する増補情報を有する。すなわち、ユーザが「これはどんな種類の花ですか?」と尋ねたとき、プロセッサ416または情報クラウド・サーバ404あるいはその両方は、結合ロジック(例えば、プロセッサ416の一部)を使用して、口頭質問(「これはどんな種類の花ですか?」)からの情報を、花の写真によって提供される増補情報と結合して、結合フォーマット情報要求を作成する。この情報結合を使用して、情報取出しロジック(例えばプロセッサ416)が今や、結合フォーマット情報要求に対する回答を取り出すことができる(例えばストレージ・デバイス430から)。このように、口頭/言語質問と、写真/ビデオからの視覚情報との両方が、データ照会ロジック(例えば、図3のワークロード66中で示される「情報照会処理」の一部)に提供される。これにより、データ照会ロジックは、質問を「聞く」ことと、質問の主題を「見る」ことの両方ができる。
In one embodiment of the present disclosure, the sensor used to provide this augmentation information is a
本開示の一実施形態では、プロセッサ416または情報クラウド・サーバ404あるいはその両方は、画像認識ソフトウェアを使用して、写真中の対象(例えば「花」)を識別する。すなわち、プロセッサ416または情報クラウド・サーバ404あるいはその両方は、花の形状、色、花弁数などを含めた、花のディジタル表現を生成し、このディジタル表現を花々に関するディジタル情報のデータベースと比較して、花をバラとして識別する。この情報(すなわち花タイプが「バラ」である)は、質問(「これはどんな種類の花ですか?」)と結合されて、結合フォーマット情報要求が作成される。この例では、システムは単に、増補情報からの回答「この花はバラです」を返す。
In one embodiment of the present disclosure,
本開示の一実施形態では、結合フォーマット情報要求により、データ照会ロジックは、関連データベースを調べることができる。例えば、引き続き、ユーザからの照会が「これはどんな種類の花ですか?」であり、カメラ420からの写真によって作成された増補情報によりこの花が「バラ」であることが明らかにされると仮定する。データ照会ロジックはこの場合、これらのキーワード(すなわち「バラ」、「花」)を使用して、バラがどこで育つか、繁茂するために何を必要とするか(水、養分、日光など)、そのラテン語の二名法による名称などを含めた、「バラ」に関する他のデータベースを調べることができる。次いで、音声ロジック414は、調べられたデータベースからの追加情報を提供する申し出を、ユーザに対してプロンプトすることができる。一実施形態では、この申し出は、図4のストレージ・デバイス430中で見られるものなどのデータベース(図示せず)に記憶された、ユーザのプロファイルに基づく。例えば、ユーザが庭師であるという記録をストレージ・デバイス430が含む場合は、園芸に関する提言が申し出られてよく、ユーザが植物学の学生であるという記録をストレージ・デバイス430が含む場合は、ラテン語の二名法による名称が申し出られてよい。同様に、ユーザが化学者である(ユーザの記憶済みプロファイルにより)場合は、このタイプのバラからどの香料が作られるかに関する記述が申し出られてよい。
In one embodiment of the present disclosure, the combined format information request allows the data query logic to consult the relevant database. For example, if the query from the user continues to be "What kind of flower is this?" And the augmentation information created by the photo from
本開示の一実施形態では、データ照会ロジック(例えば、プロセッサ416または情報クラウド・サーバ404あるいはその両方)は、ユーザ自身に関する情報を提供することができる。例えば、電子デバイス402のユーザに関する、このユーザが膝の手術を受けたことを示すエントリを、ストレージ・デバイス430が含むと仮定する。さらに、ユーザが、自分の膝のピクチャ(picture)をカメラ420で撮影し、次いで質問「私の膝は大丈夫ですか?」を発すると仮定する。プロセッサ416はこの場合、膝の現在のピクチャを、膝の以前のピクチャ(ストレージ・デバイス430中のこのユーザについてのプロファイルに記憶されている)と比較することになる。膝が、ユーザが前に膝を負傷した時の直後と同じように見える場合は、データ照会ロジックは、回答「あなたの膝は再び負傷したように思われます」を返すことができる。しかし、膝の視覚的画像が、負傷していないユーザの膝(または他の患者の膝)の他の写真と比較したときに「正常」と思われる場合は、データ照会ロジックは、回答「あなたの膝は良いように見えます」を返すことになる。
In one embodiment of the present disclosure, data query logic (eg,
同様に、ユーザが、この特定ユーザにとっての食べ物の選択肢に関してデータ照会ロジックに尋ねる場合がある。例えば、電子デバイス402のユーザが、低塩食餌療法を行っており、フード・ビュッフェの前に立っていると仮定する。ユーザは、フード・ビュッフェの写真をカメラ420で撮影し、質問「どれを食べるべきですか?」と共にこの写真をデータ照会ロジックに送ることができる。データ照会ロジックは、視覚認識ロジックを使用して種々のタイプの食べ物を識別し、識別されたタイプの食べ物に関する栄養成分データのデータベースに照会し、写真から塩分の低い特定の食べ物を選択するようユーザに指示する応答を返すことになる。
Similarly, a user may ask data query logic about food options for this particular user. For example, assume that the user of
カメラ・セレクタ・ボタン418をクリックすると画像の取込みが可能になるが、本発明の一実施形態では、カメラ・セレクタ・ボタン418を動作させると、ユーザの言語質問と共に、データのライブ・ストリームがデータ照会ロジックに送られるようにすることができる。同様に、カメラ420は、一実施形態では常にアクティブであってもよく、それにより、ユーザはカメラ・セレクタ・ボタン418を動作させる必要すらない。
Clicking on the
したがって、前述のように、本開示の1つまたは複数の実施形態は、電子デバイス402に関連するデータ照会ロジックが質問を「聞く」(ユーザが「質問する」ボタン410をクリックすることによって)ことを可能にするだけでなく、ユーザが何について尋ねているかを「見る」ことも可能にする。前述の実施形態は写真を使用するものとして提示されたが、同じプロセスがビデオ・ストリームに対して利用されてもよい。
Thus, as described above, one or more embodiments of the present disclosure may be implemented in such a manner that the data query logic associated with the
本開示の一実施形態では、電子デバイス402は、質問を「聞く」(ユーザが「質問する」ボタン410をクリックすることによって)ことができるだけでなく、ユーザがマイクロフォン・セレクタ・ボタン422を押すことによって、ユーザが何について尋ねているかを「聞く」こともでき、マイクロフォン・セレクタ・ボタン422は、電子デバイス402上のマイクロフォン412を起動する。例えば、ユーザが、質問「あれはどんなタイプの鳥ですか?」を言語で発したと仮定する。言語質問のみを使用する場合、システムは、ユーザがどのような「鳥」について尋ねているかを「知る」ことができない。しかし、電子デバイス402上のマイクロフォン412(オーディオ/聴覚センサ)が、不特定の対象(「鳥」)に関する増補を、その鳴き声に従って提供する。本開示の一実施形態では、プロセッサ416または情報クラウド・サーバ404あるいはその両方は、音パターン認識ソフトウェアを使用して、音キャプチャ中で聞こえた「鳥」を「マキバドリ」として識別する。すなわち、プロセッサ416または情報クラウド・サーバ404あるいはその両方は、鳥の鳴き声のピッチ、パターン、音色などを含めた、鳥の鳴き声のディジタル表現を生成し、この音シグネチャを、鳥の鳴き声に関するディジタル情報のデータベースと比較して、鳥をマキバドリとして識別する。この情報(すなわち鳥タイプが「マキバドリ」である)は、質問(「あれはどんなタイプの鳥ですか?」と結合されて、回答「この鳥はマキバドリです」が返される。このように、口頭/言語質問と、録音/音キャプチャからの増補情報との両方が、データ照会ロジック(例えば、図3のワークロード66中で示される「情報照会処理」の一部)に提供される。これにより、データ照会ロジックは、質問を「聞く」ことと、質問の主題を「聞く」ことの両方ができる。一例では、システムは単に、録音の中で見つかった増補情報からの回答「この鳥はマキバドリです」を返す。
In one embodiment of the present disclosure, the
本開示の一実施形態では、結合フォーマット情報要求により、データ照会ロジックは、照会されている対象からデータ照会ロジックが何を「聞いた」かに基づいて関連データベースを調べることができる。例えば、引き続き、ユーザからの照会が「これはどんなタイプの鳥ですか?」であり、マイクロフォン412からの録音によって作成された増補情報によりこの鳥がマキバドリであることが明らかにされると仮定する。データ照会ロジックはこの場合、マキバドリがどこに生息するか、猟鳥かどうか、そのラテン語の二名法による名称などを含めた、「マキバドリ」に関する他のデータベースを追跡することができる。次いで、音声ロジック414は、このような追加情報を提供する申し出をユーザに対してプロンプトすることができる。一実施形態では、この申し出は、ユーザのプロファイルに基づく。例えば、ユーザが猟師であるという記録をストレージ・デバイス430が含む場合は、データ照会ロジックは、マキバドリが猟鳥でない(したがって射るべきでない)ことを猟師に対して申し出る(または自動的に明らかにする)ことができる。同様に、ユーザが野鳥観察者(鳥類学者)であるという記録をストレージ・デバイス430が含む場合は、ラテン語の二名法による名称がデータ照会ロジックによってユーザに対して申し出られてよい。
In one embodiment of the present disclosure, the combined format information request allows the data query logic to consult an associated database based on what the data query logic has “heard” from the object being queried. For example, suppose that the query from the user continues to be "What type of bird is this?", And that the augmentation information created by the recording from
本開示の一実施形態では、対象がその画像または音あるいはその両方によって識別されると、提案されるアクションがユーザに提示されてよい。例えば、電子デバイス402のユーザが、モータのオーディオ/視覚的記録をとり、質問「このモータは適正に稼働していますか?」を発したと仮定する。画像認識ソフトウェアが、記録のビデオ成分からモータのタイプを識別することになる。音パターン認識が、記録のオーディオ成分を、このモータについての正常音または異常音あるいはその両方のディジタル・データベースと比較することによって、モータに異常があればそれを識別することになる。すなわち、記録のオーディオ部分からのディジタル化された音パターンを使用して、モータに問題があればそれが識別され、これは、ディジタル化された音パターンをこのモータについての既知の音シグネチャ(正常および異常)と比較することによって行われる。次いで、システムは、識別された問題に対する解決法のデータベースにアクセスし、これらの解決法をユーザに提示することができる。例えば、このモータについての音シグネチャが、主軸受が機能しなくなっていることを示唆する場合は、システムは、主軸受を交換するための手順、必要とされる主軸受にどの部品番号が関連するか、作業にどれくらいの時間がかかるか(したがって、モータを使用するシステムがどれくらいの時間にわたり動作休止になるか)の推定、などを申し出ることができる。
In one embodiment of the present disclosure, once an object is identified by its image and / or sound, a suggested action may be presented to a user. For example, assume that a user of
本開示の一実施形態では、電子デバイス402は、質問を「聞く」(ユーザが「質問する」ボタン410をクリックすることによって)ことができるだけでなく、ユーザが化学センサ・セレクタ・ボタン424を押すことによって、ユーザが何について尋ねているかを「嗅ぐ」こともでき、化学センサ・セレクタ・ボタン424は、電子デバイス402上の化学センサ426を起動する。例えば、ユーザが、食べ物屋の手押し車の隣に立っており、質問「これはどんなタイプの食べ物ですか?」を発すると仮定する。言語質問のみを使用する場合、システムは、ユーザがどのような「食べ物」について尋ねているかを「知る」ことができない。しかし、電子デバイス402上の化学センサ426が、不特定の対象に関する増補を、その芳香(aroma)に従って提供する。本開示の一実施形態では、プロセッサ416または情報クラウド・サーバ404あるいはその両方は、化学パターン認識ソフトウェアを使用して、化学センサ・キャプチャによって受け取られた「におい(smell)」を「ホットドッグ」として識別する。すなわち、プロセッサ416または情報クラウド・サーバ404あるいはその両方は、牛肉、塩、いくつかの香辛料などの化学シグネチャを検出できる化学センサ426内の1つまたは複数のセンサによって生成されたホットドッグの芳香を記述するディジタル・ファイルを生成し、この化学シグネチャを、食べ物に関するディジタル情報のデータベースと比較して、食べ物をホットドッグとして識別する。この情報(すなわち食べ物タイプが「ホットドッグ」である)は、質問(「これはどんなタイプの食べ物ですか?」)と結合されて、回答「この食べ物はホットドッグです」が返される。このように、口頭/言語質問と、化学シグネチャからの増補情報との両方が、データ照会ロジック(例えば、図3のワークロード66中で示される「情報照会処理」の一部)に提供される。これにより、データ照会ロジックは、質問を「聞く」ことと、質問の主題を「嗅ぐ」ことの両方ができる。この例では、システムは単に、化学シグネチャ中で見つかった増補情報からの回答「この食べ物はホットドッグです」を返す。追加の実施形態では、次いで、この情報がユーザのプロファイルなどに基づいて使用されて、そもそもこのユーザがホットドッグを食べるべきかどうか(ユーザの医療履歴に基づいて)、この店によって売られているどのホットドッグが最高評価か、より高評価のホットドッグ屋が近くにあるか、などについて提案が提供されてよい。
In one embodiment of the present disclosure, the
本開示の一実施形態では、また図4に示されるように、電子デバイス402は送受信機434を備え、送受信機434は、ワイヤレスにまたは配線を介してのいずれかで電子メッセージを送受信することができる。送受信機434は、結合フォーマット情報要求(上で論じられた)を情報サーバに送信することができる。
In one embodiment of the present disclosure, and as shown in FIG. 4, the
本開示の一実施形態では、情報サーバは、プロセッサ416など、電子デバイス402上のローカル・デバイスである。したがって、どのような照会も、電子デバイス402によってローカルに扱われる。
In one embodiment of the present disclosure, the information server is a local device on
本開示の一実施形態では、情報サーバは、情報クラウド・サーバ404などのリモート・デバイスであり、情報クラウド・サーバ404は、複数の電子デバイスからの情報要求を扱うことができる。
In one embodiment of the present disclosure, the information server is a remote device such as the
本開示の一実施形態では、情報サーバは、ローカル・デバイス(例えばプロセッサ416)とリモート・デバイス(例えば情報クラウド・サーバ404)との組合せである。 In one embodiment of the present disclosure, the information server is a combination of a local device (eg, processor 416) and a remote device (eg, information cloud server 404).
本開示の1つまたは複数の実施形態では、電子デバイス402は、図示の全地球測位システム(GPS)432など、測位システムを備える。GPS432は、一連の地球同期衛星を利用して、任意の時点における電子デバイス402の位置をマークする。他の測位ロジック(図示せず)は、三角測量システム(部屋内の送信機からの信号を使用してデバイスを測位する)、ドップラーシフト・システム(信号が既知の場所の測位送信機/受信機から電子デバイス402まで行って測位送信機/受信機に戻ってくるのにかかる時間を使用する)などの形であってよい。したがって、質問が発せられた時、または増補情報(例えば、写真、録音、化学的示度など)が生成された時、あるいはその両方の時の、電子デバイス402のリアルタイムの場所に関するメタデータが、GPS432によって作成される。
In one or more embodiments of the present disclosure,
本発明の一実施形態では、データ照会ロジック(例えば、プロセッサ416または情報クラウド・サーバ404あるいはその両方)は、見ること/嗅ぐこと/その他がなされており照会されている対象に関する質問に答えるのに十分な情報が、ローカルに記憶されていない場合がある。このシナリオでは、データ照会ロジックは、ウェブサイトやデータベースなどの情報リソースへのアクセスを提供するシステムなど、情報リソース・サーバ436にアクセスすることができる。このような情報リソースは、特定の情報にアクセスするために、ウェブ・クローラ、検索エンジン、データベース検索ロジックなどを使用して選択的にアクセスされる/取り出される。例えば、ユーザが「この花からどんな香料が作られますか?」と尋ね、データ照会ロジックが、質問と当該の花の写真との両方を受け取り、花がバラであると決定したと仮定する。データ照会ロジックはこの場合、情報リソース・サーバ436によって提供される情報リソースをクロール/照会して、どの香料(製品名や製造業者などを含めて)がその調合においてバラ・エッセンスを使用するかを識別することになる。
In one embodiment of the present invention, data query logic (eg,
次に図5を参照すると、ユーザによって生成された、電子デバイスからの情報要求に、情報要求の増補を介して応答するために、1つまたは複数のプロセッサまたは他のハードウェア・デバイスによって実施される、1つまたは複数の動作の高レベルのフローチャートが提示されている。 Referring now to FIG. 5, a user generated information request from an electronic device is implemented by one or more processors or other hardware devices to respond via an augmentation of the information request. A high-level flowchart of one or more operations is presented.
イニシエータ・ブロック502の後、情報サーバが、対象に関する情報を求める要求を受け取る(ブロック504)。図4に記載のように、情報サーバは、ローカル(例えばプロセッサ416)、リモート(例えば情報クラウド・サーバ404)またはこれらの組合せ、あるいはその両方であってよい。情報を求める要求は、電子デバイス(例えば、図4の電子デバイス402)からのものである。情報を求める要求は、図4の音声ロジック414による音声変換/ディジタル化において使用されるフォーマットなど、第1のフォーマットのものである。例えば、情報を求める要求は、特定の主題/対象に関する質問を電子デバイス402に「尋ねる」ユーザからのものであってよい。しかし、ユーザが何について尋ねているかは、情報サーバにとって最初は明確でない。
After the
したがって、ブロック506で、情報サーバは、対象に関する増補情報を受け取る。この増補情報は、電子デバイスによって生成されるものであり、第1のフォーマットとは異なる第2のフォーマットのものである。例えば、第1のフォーマットは、ユーザの口頭質問をディジタル化されたフォーマットに変換するために音声ディジタイザによって使用されるフォーマットであってよい。第2のフォーマットは、写真、ビデオ・ファイル、化学シグネチャ、テキスト文書、グラフィック・ファイルなどによって使用されるフォーマットであってよい。
Accordingly, at
ブロック508に記載のように、次いで情報サーバは、増補情報に基づいて、情報を求める要求に対する応答を生成することができる。すなわち、前述のように、「花」や「モータ」や「膝」などの主題は今や、添付の写真/録音/化学シグネチャ/その他によって、よりよい具体性をもって記述され、したがって、情報サーバが照会に対してよりよく応答することが可能になる。
As described in
したがって、本開示の一実施形態では、第1のフォーマットは音声認識のためのものであり、第2のフォーマットは、電子デバイス上のカメラによって生成されるビデオ・ファイルのためのものである。 Thus, in one embodiment of the present disclosure, the first format is for speech recognition and the second format is for a video file generated by a camera on an electronic device.
したがって、本開示の一実施形態では、第1のフォーマットは音声認識のためのものであり、第2のフォーマットは、電子デバイス上のマイクロフォンによって生成されるオーディオ・ファイルのためのものである。 Thus, in one embodiment of the present disclosure, the first format is for speech recognition and the second format is for an audio file generated by a microphone on the electronic device.
したがって、本開示の一実施形態では、第1のフォーマットは音声認識のためのものであり、第2のフォーマットは、電子デバイス上の化学センサによって生成される化学シグネチャのためのものである。 Thus, in one embodiment of the present disclosure, the first format is for speech recognition and the second format is for a chemical signature generated by a chemical sensor on the electronic device.
本開示の一実施形態では、第1のフォーマットは音声認識のためのものであり、第2のフォーマットは、電子デバイスから受け取られるテキスト文書のためのものである。例えば、ユーザが図4の文書セレクタ・ボタン428を押したと仮定する。これにより、プロセッサ416または情報クラウド・サーバ404あるいはその両方はテキスト文書を取り出すが、このテキスト文書は、前に記憶された(例えばストレージ・デバイス430に)ものであるか、またはユーザ・インタフェース408上でユーザが描く(例えば、ASCII文字に変換される自由形式テキストを受け取ることに充てられた、画面のタッチ・センシティブ部分上で、ユーザの指先を使用して)ことによって現在作成されているものであるかのいずれかである。次いで、ユーザは、「このテキスト文書は何に関するものですか?」、「この文書は顧客に送るのに適切ですか?」などの質問を発することができる。同様に、照会は、「このテキスト文書はどういう意味ですか?」であってもよい。次いで、データ照会ロジックは、このような質問に答えるために、選択されたテキスト文書中のテキスト(または選択されたテキスト文書からのメタタグ)を、文書を記述するデータベースと比較することができる。
In one embodiment of the present disclosure, the first format is for speech recognition and the second format is for a text document received from an electronic device. For example, assume that the user has pressed the
本開示の一実施形態では、第1のフォーマットは音声認識のためのものであり、第2のフォーマットは、電子デバイスに記憶されたグラフ文書のためのものである。例えば、ユーザが図4の文書セレクタ・ボタン428を押したと仮定する。これにより、プロセッサ416または情報クラウド・サーバ404あるいはその両方はグラフィックス・ファイルを取り出すが、このグラフィックス・ファイルは、前に記憶された(例えばストレージ・デバイス430に)ものであるか、またはユーザ・インタフェース408上でユーザが描く(例えば、ASCII文字に変換される自由形式テキストを受け取ることに充てられた、画面のタッチ・センシティブ部分上で、ユーザの指先を使用して)ことによって現在作成されているものであるかのいずれかである。次いで、ユーザは、「この図は何を表していますか?」、「このグラフは現在の売上高について何を伝えますか?」などの質問を発することができる。次いで、データ照会ロジックは、このような質問に答えるために、他のグラフ/図を記述するデータベースを用いて、図/グラフ(メタタグを含む)から情報を抽出することができる。
In one embodiment of the present disclosure, the first format is for speech recognition and the second format is for graph documents stored on the electronic device. For example, assume that the user has pressed the
本開示の一実施形態では、第1のフォーマットは音声認識のためのものであり、第2のフォーマットは写真のためのものであり、尋ねられている対象は写真中で示される。この実施形態では、情報サーバは、写真中で示される対象に関する埋め込み情報を写真から取り出し、この埋め込み情報は、写真中で示される対象を記述する。次いで情報サーバは、埋め込み情報に基づいて写真中の対象に関する追加情報を突き止め、したがって、追加情報は埋め込み情報に勝る。すなわち、前述のように、メタタグなど、写真中の埋め込み情報を使用して、写真中で示される対象に関する追加情報が取り出されてよい。例えば、写真が、図4に示されるカメラ420によって撮影され、GPS432または類似の測位ロジックが、写真が撮影された時刻、日付、および場所を示すメタタグを、写真上に配置したと仮定する。さらに、写真がユーザおよび友人の「セルフィー」であり、質問(直ちにまたは後の日時に出された)が「ピクチャの右側にいる私の友人の誕生日はいつですか?」であると仮定する。写真からのメタデータ(例えば、友人を識別するタグ)を、情報(例えば、ユーザがアクセス許可されているソーシャル・メディア・ウェブサイトからの)のデータベースと相関させることによって、次いで、友人の誕生日がデータ照会ロジック(例えば、図3のワークロード66中で示される「情報照会処理」)によって導出されてよい。
In one embodiment of the present disclosure, the first format is for speech recognition, the second format is for photos, and the object being asked is shown in the photos. In this embodiment, the information server retrieves embedded information about the object shown in the picture from the picture, and the embedded information describes the object shown in the picture. The information server then locates additional information about the object in the photo based on the embedded information, so that the additional information is superior to the embedded information. That is, as described above, additional information about the object shown in the photo may be extracted using the embedded information in the photo, such as a meta tag. For example, assume that a photo was taken by the
本開示の一実施形態では、第1のフォーマットは音声認識のためのものであり、第2のフォーマットは写真のためのものであり、尋ねられている対象は写真中で示されない。この実施形態では、情報サーバは、写真中の埋め込み情報を利用して、写真中で示されない対象に関する追加情報を取り出し、この追加情報は埋め込み情報に勝る。例えば、写真が、図4に示されるカメラ420によって撮影され、GPS432または類似の測位ロジックが、写真が撮影された時刻、日付、および場所を示すメタタグを、写真上に配置したと仮定する。さらに、写真が、音楽フェスティバルにおけるユーザおよび友人の「セルフィー」であり、質問(直ちにまたは後の日時に出された)が「このピクチャが撮影された時にどんなバンドが演奏していましたか?」であるが、尋ねられているバンドが写真中にないと仮定する。写真からのメタデータを、任意の特定の時刻のバンドのスケジュール(さらにはプレイリストからの曲)と相関させることによって、写真の時刻におけるバンドの名前(または演奏されていた曲、あるいはその両方)がデータ照会ロジック(例えば、図3のワークロード66中で示される「情報照会処理」)によって導出されてよい。
In one embodiment of the present disclosure, the first format is for speech recognition, the second format is for photos, and the object being asked is not shown in the photos. In this embodiment, the information server utilizes the embedded information in the photo to retrieve additional information about objects not shown in the photo, and this additional information overrides the embedded information. For example, assume that a photo was taken by the
本開示の一実施形態では、情報を求める要求は特定ユーザによって生成され、この方法はさらに、情報を求める要求を特定ユーザについてのユーザ・プロファイルに関連付けることと、ユーザ・プロファイルに基づいて、情報を求める要求に対する応答を適合させることとを含む。例えば、前述のように、鳥に関する情報は、ユーザが猟師である場合と鳥類学者である場合とで違ってくる。 In one embodiment of the present disclosure, the request for information is generated by a particular user, and the method further comprises associating the request for information with a user profile for the particular user, and generating the information based on the user profile. Tailoring the response to the requested request. For example, as described above, information on birds differs depending on whether the user is a huntsman or an ornithologist.
本開示の一実施形態では、情報サーバは、ユーザの身体ジェスチャを受け取り、次いで、身体ジェスチャを、対象に関する追加の増補情報として使用する。例えば、電子デバイス402のユーザが一群の車のビデオまたは写真あるいはその両方を撮影していると仮定する。ユーザは、ビデオ/写真の中の特定の車の型およびモデル(または、トラック上のレースカーの場合は、特定のレースカーのドライバ)に関心があることがある。ユーザは、ユーザの質問「あれはどんな種類の車ですか?」または「あのレースカーのドライバは誰ですか?」の主題がどの車であるかを指定するために、指差しや、親指と人差し指で作った円など、ハンド・ジェスチャを写真/ビデオ内に含めて、どの車に関心があるかを指定することができる。
In one embodiment of the present disclosure, the information server receives the user's body gesture and then uses the body gesture as additional augmentation information about the subject. For example, assume that a user of
本明細書に記載のように、1つまたは複数の実施形態では、本開示は、ユーザが、ボイス認識ソフトウェアを用いた検索を要求すると共に非ボイス入力の使用を介して検索要求に関するより多くの詳細を提供することを可能にする。本開示は、ボイス認識能力を有するインテリジェント自動化アシスタントが、検索要求の性質をよりよく理解するために、ドローイング、写真、音、化学シグネチャなどを分析することを可能にする。本明細書に記載のように、ユーザはリアルタイムで、モバイル・デバイス(例えばスマート・フォン)を対象に向けて、対象の特性(例えば、視覚的、音調的、香りなど)に関するより多くのことを発見することができる。このように、本開示は、これまで利用不可能であった、または当業者に知られている、あるいはその両方である、従来技術に勝る技術的改善を提示する。 As described herein, in one or more embodiments, the present disclosure provides that a user can request a search using voice recognition software and more regarding a search request through the use of non-voice input. Allows you to provide details. The present disclosure enables intelligent automation assistants with voice recognition capabilities to analyze drawings, photos, sounds, chemical signatures, etc. to better understand the nature of search requests. As described herein, a user may direct a mobile device (eg, a smart phone) to a subject in real-time, to learn more about a property of the subject (eg, visual, tonal, scent, etc.). Can be found. Thus, the present disclosure presents technical improvements over the prior art that have heretofore been unavailable and / or known to those skilled in the art.
本明細書で使用される用語は、特定の実施形態を記述するためのものに過ぎず、本発明を限定するものとはしない。本明細書において、単数形「a」、「an」、および「the」は、コンテキストが明確にそうでないと示さない限り、複数形も含むものとする。さらに、用語「含む、備える」(「comprises」または「comprising」あるいはその両方)」が本明細書で使用されるとき、これらは、記載された特徴、整数、ステップ、動作、要素、またはコンポーネント、あるいはそれらの組合せの存在を指定するが、1つまたは複数の他の特徴、整数、ステップ、動作、要素、コンポーネント、またはこれらのグループ、あるいはそれらの組合せの存在または追加を排除しないことも、理解されるであろう。 The terms used in the description are intended to describe certain embodiments only, and shall by no means restrict the present invention. As used herein, the singular forms “a”, “an”, and “the” include plural forms unless the context clearly dictates otherwise. Furthermore, when the term “comprising” is used herein (“comprises” and / or “comprising”), these terms denote the recited feature, integer, step, act, element or component, It is also understood that specifying the presence of, or combinations thereof, does not preclude the existence or addition of one or more other features, integers, steps, acts, elements, components, or groups thereof, or combinations thereof. Will be done.
以下の特許請求の範囲におけるすべてのミーンズまたはステップ・プラス・ファンクション要素の、対応する構造、材料、行為、および均等物は、具体的に請求される他の特許請求要素との組合せで機能を実施するための任意の構造、材料、または行為を含むものとする。本開示の様々な実施形態についての記述は、例証および記述の目的で提示したものであり、網羅的なもの、または開示される形の本発明に限定されるものとはしない。本開示の範囲を逸脱することなく、多くの変更および変形が当業者には明らかであろう。実施形態は、本開示の原理および実際の応用を最もうまく説明するために、かつ、企図される特定の使用に適するような様々な変更を伴う様々な実施形態の場合の本発明を他の当業者が理解できるようにするために、選ばれ記述されたものである。 The corresponding structures, materials, acts and equivalents of all means or step-plus-function elements in the following claims perform their functions in combination with the other specifically claimed elements Or any structure, material, or act of doing so. The description of various embodiments of the present disclosure has been presented for purposes of illustration and description, and is not intended to be exhaustive or limited to the invention in the form disclosed. Many modifications and variations will be apparent to those skilled in the art without departing from the scope of the present disclosure. The embodiments describe the invention in other ways in order to best explain the principles and practical application of the present disclosure, and in the case of various embodiments with various modifications to suit the particular use contemplated. It has been chosen and described so that it can be understood by the trader.
本開示に記載の任意の方法は、VHDL(VHSICハードウェア記述言語)プログラムおよびVHDLチップの使用を介して実装されてよい。VHDLは、フィールド・プログラマブル・ゲート・アレイ(FPGA)、特定用途向け集積回路(ASIC)、および他の類似の電子デバイスのための、例示的な設計入力言語である。したがって、本明細書に記載の任意のソフトウェア実装方法は、ハードウェアベースのVHDLプログラムによってエミュレートされてよく、次いでこのVHDLプログラムは、FPGAなどのVHDLチップに適用される。 Any of the methods described in this disclosure may be implemented through the use of VHDL (VHSIC Hardware Description Language) programs and VHDL chips. VHDL is an exemplary design input language for field programmable gate arrays (FPGAs), application specific integrated circuits (ASICs), and other similar electronic devices. Accordingly, any of the software implementation methods described herein may be emulated by a hardware-based VHDL program, which is then applied to a VHDL chip, such as an FPGA.
このように、本出願の本開示の実施形態について、詳細に、かつその例証的な実施形態を参照しながら述べたが、添付の特許請求の範囲において定義される本開示の範囲を逸脱することなく、変更および変形が可能であることは明らかであろう。 Thus, while embodiments of the present disclosure of the present application have been described in detail and with reference to exemplary embodiments thereof, they depart from the scope of the present disclosure as defined in the appended claims. Obviously, modifications and variations are possible.
Claims (12)
不特定の対象に関する情報を求める口頭要求を受け取るためのマイクロフォンと、
前記不特定の対象に関する増補情報を受け取るためのセンサと、
前記口頭要求からの情報を前記増補情報と結合して結合フォーマット情報要求にするための結合ロジックと、
前記結合フォーマット情報要求に対する回答を取り出すための情報取出しロジックと
を備え、
前記センサがカメラである電子デバイス。 An electronic device,
A microphone for receiving verbal requests for information about unspecified subjects;
A sensor for receiving augmentation information about the unspecified subject;
Combining logic for combining information from the verbal request with the augmented information into a combined format information request;
Information retrieval logic for retrieving a response to the combined format information request ,
An electronic device , wherein the sensor is a camera .
不特定の対象に関する情報を求める口頭要求を受け取るためのマイクロフォンと、
前記不特定の対象に関する増補情報を受け取るためのセンサと、
前記口頭要求からの情報を前記増補情報と結合して結合フォーマット情報要求にするための結合ロジックと、
前記結合フォーマット情報要求に対する回答を取り出すための情報取出しロジックと
を備え、
前記センサが、ビデオ画像を取り込むカメラであり、前記不特定の対象が、前記ビデオ画像中に現れない対象であり、前記電子デバイスが、
前記カメラによって取り込まれた前記ビデオ画像から、前記ビデオ画像を記述するメタデータを取り出すメタデータ取出しロジックと、
前記メタデータからの情報を相関させて、前記不特定の対象に関する情報を識別し、前記結合フォーマット情報要求に対する回答を生成する相関ロジックと
にアクセスする電子デバイス。 An electronic device,
A microphone for receiving verbal requests for information about unspecified subjects;
A sensor for receiving augmentation information about the unspecified subject;
Combining logic for combining information from the verbal request with the augmented information into a combined format information request;
Information extraction logic for extracting a response to the combined format information request;
With
The sensor is a camera that captures a video image, the unspecified object is an object that does not appear in the video image, and the electronic device includes:
Metadata retrieval logic for retrieving metadata describing the video image from the video image captured by the camera;
The meta and information correlated from the data, the identifying information about the unspecified object, the correlation logic and access to that electronic device to generate an answer to the binding format information request.
情報サーバによって、対象に関する情報を求める要求を受け取ることであって、情報を求める前記要求が電子デバイスからのものであり、情報を求める前記要求が第1のフォーマットのものである、前記受け取ることと、
前記情報サーバによって、前記対象に関する増補情報を受け取ることであって、前記増補情報が前記電子デバイスによって生成され、前記増補情報が前記第1のフォーマットとは異なる第2のフォーマットのものである、前記受け取ることと、
前記情報サーバによって、前記増補情報に基づいて、情報を求める前記要求に対する応答を生成することと
を含み、
前記第1のフォーマットが音声認識のためのものであり、前記第2のフォーマットが、前記電子デバイス上のカメラによって生成されるビデオ・ファイルのためのものである方法。 A method to augment information requirements,
Receiving, by an information server, a request for information about an object, wherein the request for information is from an electronic device, and wherein the request for information is in a first format; ,
Receiving, by the information server, augmentation information about the subject, wherein the augmentation information is generated by the electronic device, and wherein the augmentation information is in a second format different from the first format; Receiving and
By the information server based on said augmented information, see containing and generating a response to the request for information,
The method wherein the first format is for speech recognition and the second format is for a video file generated by a camera on the electronic device .
情報サーバによって、対象に関する情報を求める要求を受け取ることであって、情報を求める前記要求が電子デバイスからのものであり、情報を求める前記要求が第1のフォーマットのものである、前記受け取ることと、
前記情報サーバによって、前記対象に関する増補情報を受け取ることであって、前記増補情報が前記電子デバイスによって生成され、前記増補情報が前記第1のフォーマットとは異なる第2のフォーマットのものである、前記受け取ることと、
前記情報サーバによって、前記増補情報に基づいて、情報を求める前記要求に対する応答を生成することと
を含み、
前記第1のフォーマットが音声認識のためのものであり、前記第2のフォーマットが、前記電子デバイス上のマイクロフォンによって生成されるオーディオ・ファイルのためのものである方法。 A method to augment information requirements,
Receiving, by an information server, a request for information about an object, wherein the request for information is from an electronic device, and wherein the request for information is in a first format; ,
Receiving, by the information server, augmentation information about the subject, wherein the augmentation information is generated by the electronic device, and wherein the augmentation information is in a second format different from the first format; Receiving and
Generating, by the information server, a response to the request for information based on the augmented information;
Including
The first format is for a voice recognition, the second format, der Ru way intended for audio files generated by a microphone on the electronic device.
情報サーバによって、対象に関する情報を求める要求を受け取ることであって、情報を求める前記要求が電子デバイスからのものであり、情報を求める前記要求が第1のフォーマットのものである、前記受け取ることと、
前記情報サーバによって、前記対象に関する増補情報を受け取ることであって、前記増補情報が前記電子デバイスによって生成され、前記増補情報が前記第1のフォーマットとは異なる第2のフォーマットのものである、前記受け取ることと、
前記情報サーバによって、前記増補情報に基づいて、情報を求める前記要求に対する応答を生成することと
を含み、
前記第1のフォーマットが音声認識のためのものであり、前記第2のフォーマットが写真のためのものであり、前記対象が前記写真中で示され、
前記情報サーバによって、前記写真中で示される前記対象に関する、前記写真中の埋め込み情報を取り出すことであって、前記埋め込み情報が、前記写真中で示される前記対象を記述する、前記取り出すことと、
前記情報サーバによって、前記埋め込み情報に基づいて前記写真中の前記対象に関する追加情報を突き止めることと
をさらに含む方法。 A method to augment information requirements,
Receiving, by an information server, a request for information about an object, wherein the request for information is from an electronic device, and wherein the request for information is in a first format; ,
Receiving, by the information server, augmentation information about the subject, wherein the augmentation information is generated by the electronic device, and wherein the augmentation information is in a second format different from the first format; Receiving and
Generating, by the information server, a response to the request for information based on the augmented information;
Including
The first format is for speech recognition, the second format is for a photo, the object is indicated in the photo,
By the information server, for the object shown in the picture, extracting embedded information in the picture, wherein the embedded information describes the object shown in the picture, the extracting,
By the information server, further including METHODS and this and the <br/> to locate additional information about the object in the photograph on the basis of the embedded information.
情報サーバによって、対象に関する情報を求める要求を受け取ることであって、情報を求める前記要求が電子デバイスからのものであり、情報を求める前記要求が第1のフォーマットのものである、前記受け取ることと、
前記情報サーバによって、前記対象に関する増補情報を受け取ることであって、前記増補情報が前記電子デバイスによって生成され、前記増補情報が前記第1のフォーマットとは異なる第2のフォーマットのものである、前記受け取ることと、
前記情報サーバによって、前記増補情報に基づいて、情報を求める前記要求に対する応答を生成することと
を含み、
前記第1のフォーマットが音声認識のためのものであり、前記第2のフォーマットが写真のためのものであり、前記対象が前記写真中で示されず、
前記情報サーバによって、前記写真中の埋め込み情報を利用して、前記写真中で示されない前記対象に関する追加情報を取り出すことをさらに含む方法。 A method to augment information requirements,
Receiving, by an information server, a request for information about an object, wherein the request for information is from an electronic device, and wherein the request for information is in a first format; ,
Receiving, by the information server, augmentation information about the subject, wherein the augmentation information is generated by the electronic device, and wherein the augmentation information is in a second format different from the first format; Receiving and
Generating, by the information server, a response to the request for information based on the augmented information;
Including
The first format is for speech recognition, the second format is for a photo, the object is not shown in the photo,
Wherein the information server, by using the embedded information in the photo, further including METHODS that you take out the additional information about the object that is not represented by the in photographs.
情報を求める前記要求を、前記特定ユーザについてのユーザ・プロファイルに関連付けることと、
前記ユーザ・プロファイルに基づいて、情報を求める前記要求に対する前記応答を適合させることと
をさらに含む、請求項4から7のいずれか1項に記載の方法。 Said request for information is generated by a specific user;
Associating the request for information with a user profile for the particular user;
8. The method of any one of claims 4 to 7 , further comprising adapting the response to the request for information based on the user profile.
前記情報サーバによって、前記身体ジェスチャを前記対象に関する追加の増補情報として利用することと
をさらに含む、請求項4から8のいずれか1項に記載の方法。 Receiving, by the information server, a user's body gesture;
The method according to any one of claims 4 to 8 , further comprising utilizing the body gesture as additional augmentation information about the subject by the information server.
対象に関する情報を求める要求を受け取ることであって、情報を求める前記要求が電子デバイスからのものであり、情報を求める前記要求が第1のフォーマットのものである、前記受け取ることと、
前記対象に関する増補情報を受け取ることであって、前記増補情報が前記電子デバイスによって生成され、前記増補情報が前記第1のフォーマットとは異なる第2のフォーマットのものである、前記受け取ることと、
前記増補情報に基づいて、情報を求める前記要求に対する応答を生成することと
を含み、
前記第1のフォーマットが音声認識のためのものであり、前記第2のフォーマットがビデオ・ファイルのためのものである、コンピュータ・プログラム。 A computer program for augmenting an information request, said program readable and executable by a processor to perform a method, said method comprising:
Receiving a request for information about an object, wherein the request for information is from an electronic device, and wherein the request for information is in a first format;
Receiving the augmentation information for the subject, wherein the augmentation information is generated by the electronic device, and wherein the augmentation information is of a second format different from the first format;
Based on the augmented information, see containing and generating a response to the request for information,
A computer program , wherein the first format is for speech recognition and the second format is for a video file .
対象に関する情報を求める要求を受け取ることであって、情報を求める前記要求が電子デバイスからのものであり、情報を求める前記要求が第1のフォーマットのものである、前記受け取ることと、
前記対象に関する増補情報を受け取ることであって、前記増補情報が前記電子デバイスによって生成され、前記増補情報が前記第1のフォーマットとは異なる第2のフォーマットのものである、前記受け取ることと、
前記増補情報に基づいて、情報を求める前記要求に対する応答を生成することと
を含み、
前記第1のフォーマットが音声認識のためのものであり、前記第2のフォーマットが写真のためのものであり、前記対象が前記写真中で示され、前記方法がさらに、
前記写真中で示される前記対象に関する、前記写真中の埋め込み情報を取り出すことであって、前記埋め込み情報が、前記写真中で示される前記対象を記述する、前記取り出すことと、
前記埋め込み情報に基づいて前記写真中の前記対象に関する追加情報を突き止めることと
を含むコンピュータ・プログラム。 A computer program for augmenting an information request, said program readable and executable by a processor to perform a method, said method comprising:
Receiving a request for information about an object, wherein the request for information is from an electronic device, and wherein the request for information is in a first format ;
Receiving the augmentation information for the subject, wherein the augmentation information is generated by the electronic device, and wherein the augmentation information is of a second format different from the first format;
Generating a response to the request for information based on the augmented information;
Including
The first format is for speech recognition, the second format is for a photo, the object is indicated in the photo, and the method further comprises:
Regarding the object shown in the picture, extracting embedded information in the picture, wherein the embedded information describes the object shown in the picture;
The buried including computer program to <br/> and this to locate additional information about the object in the photograph on the basis of the information.
対象に関する情報を求める要求を受け取ることであって、情報を求める前記要求が電子デバイスからのものであり、情報を求める前記要求が第1のフォーマットのものである、前記受け取ることと、
前記対象に関する増補情報を受け取ることであって、前記増補情報が前記電子デバイスによって生成され、前記増補情報が前記第1のフォーマットとは異なる第2のフォーマットのものである、前記受け取ることと、
前記増補情報に基づいて、情報を求める前記要求に対する応答を生成することと
を含み、
前記第1のフォーマットが音声認識のためのものであり、前記第2のフォーマットが写真のためのものであり、前記対象が前記写真中で示されず、前記方法がさらに、
前記写真中の埋め込み情報を利用して、前記写真中で示されない前記対象に関する追加情報を取り出すことを含むコンピュータ・プログラム。 A computer program for augmenting an information request, said program readable and executable by a processor to perform a method, said method comprising:
Receiving a request for information about an object, wherein the request for information is from an electronic device, and wherein the request for information is in a first format;
Receiving the augmentation information for the subject, wherein the augmentation information is generated by the electronic device, and wherein the augmentation information is of a second format different from the first format;
Generating a response to the request for information based on the augmented information;
Including
The first format is for speech recognition, the second format is for a photograph, the object is not shown in the photograph, and the method further comprises:
It said using the embedded information in the photograph, including computer programs that you take out additional information about the object that is not represented by the above in the photograph.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/589,110 | 2015-01-05 | ||
US14/589,110 US9633019B2 (en) | 2015-01-05 | 2015-01-05 | Augmenting an information request |
PCT/IB2015/060046 WO2016110775A1 (en) | 2015-01-05 | 2015-12-30 | Augmenting information request |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018501562A JP2018501562A (en) | 2018-01-18 |
JP6655081B2 true JP6655081B2 (en) | 2020-02-26 |
Family
ID=56286624
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017530152A Active JP6655081B2 (en) | 2015-01-05 | 2015-12-30 | Electronic device, method for augmenting information requirements, and computer program product for augmenting information requirements |
Country Status (6)
Country | Link |
---|---|
US (1) | US9633019B2 (en) |
JP (1) | JP6655081B2 (en) |
CN (1) | CN107077504B (en) |
DE (1) | DE112015005269T5 (en) |
GB (1) | GB2549904A (en) |
WO (1) | WO2016110775A1 (en) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10748206B1 (en) | 2014-02-21 | 2020-08-18 | Painted Dog, Inc. | Dynamic media-product searching platform apparatuses, methods and systems |
US9843877B2 (en) | 2015-12-31 | 2017-12-12 | Ebay Inc. | Sound recognition |
KR20180023197A (en) | 2016-08-25 | 2018-03-07 | 엘지전자 주식회사 | Terminal and method for controlling the same |
KR102483507B1 (en) | 2016-11-17 | 2022-12-30 | 페인티드 도그, 인크. | Machine-Based Object Recognition of Video Content |
US10275651B2 (en) * | 2017-05-16 | 2019-04-30 | Google Llc | Resolving automated assistant requests that are based on image(s) and/or other sensor data |
EP3721428A4 (en) * | 2018-03-08 | 2021-01-27 | Samsung Electronics Co., Ltd. | Method for intent-based interactive response and electronic device thereof |
US11205422B2 (en) | 2018-10-02 | 2021-12-21 | International Business Machines Corporation | Methods and systems for managing chatbots with data access |
CN111209904A (en) * | 2018-11-21 | 2020-05-29 | 华为技术有限公司 | Service processing method and related device |
US11610498B2 (en) * | 2018-11-28 | 2023-03-21 | Kyndryl, Inc. | Voice interactive portable computing device for learning about places of interest |
CN113678141A (en) * | 2019-02-12 | 2021-11-19 | Can-U-C有限公司 | Stereophonic device for blind and visually impaired persons |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8131555B1 (en) | 2000-03-21 | 2012-03-06 | Aol Inc. | System and method for funneling user responses in an internet voice portal system to determine a desired item or service |
US7680324B2 (en) | 2000-11-06 | 2010-03-16 | Evryx Technologies, Inc. | Use of image-derived information as search criteria for internet and other search engines |
US7672931B2 (en) * | 2005-06-30 | 2010-03-02 | Microsoft Corporation | Searching for content using voice search queries |
JP2007034403A (en) * | 2005-07-22 | 2007-02-08 | Nikon Corp | Image display device and image display program |
US7949529B2 (en) * | 2005-08-29 | 2011-05-24 | Voicebox Technologies, Inc. | Mobile systems and methods of supporting natural language human-machine interactions |
US7739221B2 (en) | 2006-06-28 | 2010-06-15 | Microsoft Corporation | Visual and multi-dimensional search |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US8140335B2 (en) | 2007-12-11 | 2012-03-20 | Voicebox Technologies, Inc. | System and method for providing a natural language voice user interface in an integrated voice navigation services environment |
JP5300576B2 (en) * | 2009-04-22 | 2013-09-25 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | SEARCH DEVICE, SEARCH METHOD, AND SEARCH PROGRAM |
JP5621783B2 (en) | 2009-12-10 | 2014-11-12 | 日本電気株式会社 | Speech recognition system, speech recognition method, and speech recognition program |
WO2012036305A1 (en) | 2010-09-17 | 2012-03-22 | 日本電気株式会社 | Voice recognition device, voice recognition method, and program |
EP2622428A4 (en) | 2010-09-28 | 2017-01-04 | International Business Machines Corporation | Providing answers to questions using hypothesis pruning |
US8788434B2 (en) * | 2010-10-28 | 2014-07-22 | Google Inc. | Search with joint image-audio queries |
US9342998B2 (en) | 2010-11-16 | 2016-05-17 | Microsoft Technology Licensing, Llc | Techniques to annotate street view images with contextual information |
US8818986B1 (en) | 2011-07-27 | 2014-08-26 | Sprint Communications Company L.P. | Onboard advance search refinement |
US9285592B2 (en) | 2011-08-18 | 2016-03-15 | Google Inc. | Wearable device with input and output structures |
US20130249948A1 (en) * | 2011-08-26 | 2013-09-26 | Reincloud Corporation | Providing interactive travel content at a display device |
US9098533B2 (en) | 2011-10-03 | 2015-08-04 | Microsoft Technology Licensing, Llc | Voice directed context sensitive visual search |
US9424255B2 (en) | 2011-11-04 | 2016-08-23 | Microsoft Technology Licensing, Llc | Server-assisted object recognition and tracking for mobile devices |
US20130346068A1 (en) | 2012-06-25 | 2013-12-26 | Apple Inc. | Voice-Based Image Tagging and Searching |
JPWO2014041607A1 (en) * | 2012-09-11 | 2016-08-12 | 株式会社東芝 | Information processing apparatus, information processing method, and program |
CN105229584A (en) * | 2013-05-29 | 2016-01-06 | 三菱电机株式会社 | Information display device |
EP3008964B1 (en) | 2013-06-13 | 2019-09-25 | Apple Inc. | System and method for emergency calls initiated by voice command |
KR102229156B1 (en) * | 2014-03-05 | 2021-03-18 | 삼성전자주식회사 | Display apparatus and method of controlling thereof |
US9390106B2 (en) * | 2014-06-27 | 2016-07-12 | Sony Corporation | Deep context photo searching |
CN104239445A (en) | 2014-09-01 | 2014-12-24 | 百度在线网络技术(北京)有限公司 | Method and device for representing search results |
CN104239461A (en) | 2014-09-02 | 2014-12-24 | 百度在线网络技术(北京)有限公司 | Method and device for extracting picture abstract |
-
2015
- 2015-01-05 US US14/589,110 patent/US9633019B2/en active Active
- 2015-12-30 DE DE112015005269.0T patent/DE112015005269T5/en active Pending
- 2015-12-30 GB GB1711969.4A patent/GB2549904A/en not_active Withdrawn
- 2015-12-30 JP JP2017530152A patent/JP6655081B2/en active Active
- 2015-12-30 CN CN201580060770.8A patent/CN107077504B/en active Active
- 2015-12-30 WO PCT/IB2015/060046 patent/WO2016110775A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
US9633019B2 (en) | 2017-04-25 |
WO2016110775A1 (en) | 2016-07-14 |
DE112015005269T5 (en) | 2017-09-28 |
GB201711969D0 (en) | 2017-09-06 |
CN107077504B (en) | 2020-11-03 |
GB2549904A (en) | 2017-11-01 |
CN107077504A (en) | 2017-08-18 |
US20160196264A1 (en) | 2016-07-07 |
JP2018501562A (en) | 2018-01-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6655081B2 (en) | Electronic device, method for augmenting information requirements, and computer program product for augmenting information requirements | |
US11822600B2 (en) | Content tagging | |
US10762299B1 (en) | Conversational understanding | |
US10901945B2 (en) | Systems and methods concerning tracking models for digital interactions | |
JP6759844B2 (en) | Systems, methods, programs and equipment that associate images with facilities | |
US8768693B2 (en) | Automatic tag extraction from audio annotated photos | |
JP2020528705A (en) | Moving video scenes using cognitive insights | |
US10359292B2 (en) | Deep learning allergen mapping | |
US11057328B2 (en) | Real-time recommendation of message recipients based on recipient interest level in message | |
US10326905B2 (en) | Sensory and cognitive milieu in photographs and videos | |
CN115427958A (en) | Speech recognition and content de-recognition | |
US11610498B2 (en) | Voice interactive portable computing device for learning about places of interest | |
CN104025626A (en) | Periodic Ambient Waveform Analysis For Dynamic Device Configuration | |
US20180285359A1 (en) | Identifying correlated content associated with an individual | |
US11681762B2 (en) | Digital twin asset search | |
US20200401802A1 (en) | Augmented reality tagging of non-smart items | |
US20180239767A1 (en) | Computerized cognitive recall assistance | |
US10108333B2 (en) | Inferring insights from enhanced user input | |
US20200092412A1 (en) | Augmenting messages based on sender location | |
US10901577B2 (en) | Methods and systems for input suggestion | |
US20220382803A1 (en) | Syndication of Secondary Digital Assets with Photo Library | |
US20210081440A1 (en) | Historical augmentation of electronic maps | |
AU2021210221B2 (en) | Performing search based on position information | |
US12069013B1 (en) | User initiated augmented reality system | |
US20220044132A1 (en) | Displaying contextual information of media |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170713 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180817 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190702 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190628 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191001 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200107 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200131 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6655081 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |