JPWO2020090790A1 - Information processing equipment - Google Patents
Information processing equipment Download PDFInfo
- Publication number
- JPWO2020090790A1 JPWO2020090790A1 JP2020553924A JP2020553924A JPWO2020090790A1 JP WO2020090790 A1 JPWO2020090790 A1 JP WO2020090790A1 JP 2020553924 A JP2020553924 A JP 2020553924A JP 2020553924 A JP2020553924 A JP 2020553924A JP WO2020090790 A1 JPWO2020090790 A1 JP WO2020090790A1
- Authority
- JP
- Japan
- Prior art keywords
- keyword
- user
- unit
- degree
- generation unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims description 15
- 238000000605 extraction Methods 0.000 claims description 25
- 238000004458 analytical method Methods 0.000 claims description 24
- 239000000284 extract Substances 0.000 claims description 20
- 238000006243 chemical reaction Methods 0.000 claims description 12
- 238000012545 processing Methods 0.000 description 67
- 238000011156 evaluation Methods 0.000 description 43
- 230000006870 function Effects 0.000 description 31
- 235000013305 food Nutrition 0.000 description 23
- 230000009471 action Effects 0.000 description 22
- 238000000034 method Methods 0.000 description 20
- 238000004891 communication Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 14
- 230000008569 process Effects 0.000 description 11
- 235000012020 french fries Nutrition 0.000 description 9
- 238000012986 modification Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 230000004044 response Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 3
- 239000011521 glass Substances 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 235000002595 Solanum tuberosum Nutrition 0.000 description 1
- 244000061456 Solanum tuberosum Species 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000006249 magnetic particle Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/903—Querying
- G06F16/9032—Query formulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/903—Querying
- G06F16/9035—Filtering based on additional data, e.g. user or group profiles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/10—Speech classification or search using distance or distortion measures between unknown speech and reference templates
Abstract
ユーザ装置は、ユーザの音声に基づいて第1キーワードを生成する第1キーワード生成部と、画像信号の示す画像から抽出した複数のオブジェクト画像に1対1で対応する複数の第2キーワードを生成する第2キーワード生成部と、複数の第2キーワードの各々と第1キーワードとの関連性の程度に基づいて、第2キーワード生成部によって生成された複数の第2キーワードの中からコメントの対象となる対象キーワードを特定する特定部と、対象キーワードに関連するコメントを生成するコメント生成部とを備える。The user device generates a first keyword generation unit that generates a first keyword based on the user's voice, and a plurality of second keywords that have a one-to-one correspondence with a plurality of object images extracted from an image indicated by an image signal. Based on the degree of relevance between the second keyword generation unit, each of the plurality of second keywords, and the first keyword, a comment is made from among the plurality of second keywords generated by the second keyword generation unit. It includes a specific unit that specifies the target keyword and a comment generation unit that generates a comment related to the target keyword.
Description
本発明は、情報処理装置に関する。 The present invention relates to an information processing device.
特許文献1には、ユーザがポインティングデバイスを用いて表示装置に表示される画像内のオブジェクト画像を指定すると、当該オブジェクト画像に関するレコメンドを表示する技術が開示されている。また、特許文献2にはユーザの音声に応答して当該ユーザが音声で指定したオブジェクト画像に関する情報をレコメンドする技術が開示されている。
しかしながら、従来の技術では、ユーザがオブジェクト画像を指定する必要がある。すなわち、オブジェクト画像をユーザが指定しない場合に、ユーザの曖昧な発言に応答して、レコメンドなどのコメントを生成することはできなかった。 However, in the conventional technique, the user needs to specify the object image. That is, when the user does not specify the object image, it is not possible to generate a comment such as a recommendation in response to the user's ambiguous remark.
以上の課題を解決するために、本発明の好適な態様に係る情報処理装置は、ユーザの音声に基づいて第1キーワードを生成する第1キーワード生成部と、画像信号の示す画像から抽出した複数のオブジェクト画像に1対1で対応する複数の第2キーワードを生成する第2キーワード生成部と、前記複数の第2キーワードの各々と前記第1キーワードとの関連性の程度に基づいて、前記複数の第2キーワードの中からコメントの対象となる対象キーワードを特定する特定部と、前記対象キーワードに関連するコメントを生成するコメント生成部とを備える。 In order to solve the above problems, the information processing apparatus according to the preferred embodiment of the present invention includes a first keyword generation unit that generates a first keyword based on a user's voice, and a plurality of information processing devices extracted from an image indicated by an image signal. A second keyword generation unit that generates a plurality of second keywords having a one-to-one correspondence with the object image of the above, and the plurality of said based on the degree of association between each of the plurality of second keywords and the first keyword. A specific unit for specifying a target keyword to be commented from the second keyword of the above, and a comment generation unit for generating a comment related to the target keyword are provided.
本発明に係る情報処理装置によれば、ユーザがコメントの対象となるオブジェクト画像を指定することなく、ユーザの曖昧な発言に応答して、コメントを生成することができる。 According to the information processing apparatus according to the present invention, a comment can be generated in response to an ambiguous remark by the user without the user specifying an object image to be commented.
[1.第1実施形態]
[1.1.サービスシステムの構成]
図1は、本発明の第1実施形態に係るサービスシステムの全体構成を示すブロック図である。図1に示されるサービスシステム1は、動画の配信サービスを提供する。動画の配信サービスは、例えば、映画又は地上波デジタル放送のコンテンツなどを提供する。[1. First Embodiment]
[1.1. Service system configuration]
FIG. 1 is a block diagram showing an overall configuration of a service system according to the first embodiment of the present invention. The
図1に例示するように、サービスシステム1は、ユーザU_1〜ユーザU_mが管理するユーザ装置20_1〜20_m(mは1以上の整数)と、ネットワークNWと、動画配信サーバ10とを備える。以下の説明では、同種の要素を区別しない場合には、ユーザ装置20又はユーザUのように、参照符号のうちの共通番号だけを使用する。
As illustrated in FIG. 1, the
ユーザ装置20は、各種の情報を処理する情報処理装置である。ユーザ装置20は、例えば、スマートフォン又はタブレット端末等の可搬型の情報処理装置である。但し、ユーザ装置20としては、任意の情報処理装置を採用することができる。ユーザ装置20は、例えば、パーソナルコンピュータ等の端末型の情報機器であってもよい。
The
ユーザ装置20は、動画配信サーバ10から送信される画像信号Sgを受信して画像を表示したり、あるいは、画像信号Sgをテレビジョン受像機30に送信してテレビジョン受像機30に画像を表示させることができる。
ユーザUは、動画を見ながら発言することがある。例えば、ユーザUは動画についての感想を述べたり、つぶやくことがある。この場合、ユーザUの発言は動画に関連するものではあるが、当該発言が曖昧であることが理由で発言が動画の画像に含まれるどの物体に関連するものであるかを一意に特定できないことが多い。ユーザ装置20は、ユーザUの曖昧な発言に応答してレコメンドなどのコメントを生成する機能を有する。The
User U may speak while watching the video. For example, user U may state his or her impressions of the video or tweet. In this case, although the user U's remark is related to the video, it is not possible to uniquely identify which object included in the image of the video the remark is related to because the remark is ambiguous. There are many. The
[1.2.ユーザ装置の構成]
図2は、ユーザ装置20のハードウェア構成を例示するブロック図である。ユーザ装置20は、処理装置21、記憶装置22、通信装置23、出力装置24、入力装置25、近距離無線通信装置26、GPS(Global Positioning System)装置27、及びバス28を具備するコンピュータシステムにより実現される。処理装置21、記憶装置22、通信装置23、出力装置24、入力装置25、近距離無線通信装置26及びGPS装置27は、情報を通信するためのバス28で接続される。バス28は、単一のバスで構成されてもよいし、装置間で異なるバスで構成されてもよい。なお、ユーザ装置20の各要素は、単数又は複数の機器で構成され、ユーザ装置20の一部の要素を省略してもよい。[1.2. User device configuration]
FIG. 2 is a block diagram illustrating a hardware configuration of the
処理装置21は、ユーザ装置20の全体を制御するプロセッサであり、例えば単数又は複数のチップで構成される。処理装置21は、例えば、周辺装置とのインタフェース、演算装置及びレジスタ等を含む中央処理装置(CPU:Central Processing Unit)で構成される。なお、処理装置21の機能の一部又は全部を、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)等のハードウェアで実現してもよい。処理装置21は、各種の処理を並列的又は逐次的に実行する。
The
記憶装置22は、処理装置21が読取可能な記録媒体である。記憶装置22は、処理装置21が実行する制御プログラムPRaを含む複数のプログラム、キーワードテーブルTBLa、コメントテーブルTBLb及び処理装置21が使用する各種のデータを記憶する。記憶装置22は、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、及びRAM(Random Access Memory)等の記憶回路の1種類以上で構成される。
The
キーワードテーブルTBLaには、複数の単語が記憶されている。複数の単語は、名詞と形容詞に大別される。名詞の単語はキーワードに対応する。後述する第1キーワードKW1と第2キーワードKW2とは、キーワードテーブルTBLaに記憶されている名詞の単語に含まれる。また、形容詞の単語は、名詞の単語に対応付けて記憶されている。形容詞は名詞を修飾する機能がある。形容詞の単語と名詞の単語との対応付けは、単語の修飾関係に応じて定められている。例えば、形容詞の単語である「美味しい」は、名詞の単語である「飲食物」に対応付けられている。 A plurality of words are stored in the keyword table TBLa. Multiple words are broadly divided into nouns and adjectives. Noun words correspond to keywords. The first keyword KW1 and the second keyword KW2, which will be described later, are included in the noun words stored in the keyword table TBLa. Further, the adjective word is stored in association with the noun word. Adjectives have the function of modifying nouns. The correspondence between adjective words and noun words is determined according to the modification relationship of the words. For example, the adjective word "delicious" is associated with the noun word "food and drink."
図3は、キーワードテーブルTBLaに記憶される名詞の単語のデータ構造を示す説明図である。同図に示されるように、名詞の単語のデータ構造は、複数の単語が意味によって階層化された木構造となっている。この例では、複数の単語が第1階層から第4階層に分類されている。なお、階層数は、4以上であってもよい。 FIG. 3 is an explanatory diagram showing a data structure of a noun word stored in the keyword table TBLa. As shown in the figure, the data structure of a noun word is a tree structure in which a plurality of words are layered according to their meanings. In this example, a plurality of words are classified into the first layer to the fourth layer. The number of layers may be 4 or more.
また、キーワードテーブルTBLaには、名詞の単語と名詞の単語との関連性の程度を示す関連度が記憶されている。関連性の程度は、上位概念と下位概念の関係の他、単語の示す物体の用途及び機能を考慮して定められる。例えば、「日本酒」と「ワイン」とは、いずれも「酒」の下位概念である。これに対して、「お猪口」は「酒」の下位概念ではないが、「お猪口」は「日本酒」を飲むために用いられる。このため、「日本酒」と「お猪口」との関連度は、「日本酒」と「ワイン」との関連度より高くなっている。 Further, in the keyword table TBLa, the degree of relevance indicating the degree of relevance between the noun word and the noun word is stored. The degree of relevance is determined in consideration of the relationship between the superordinate concept and the subordinate concept, as well as the use and function of the object indicated by the word. For example, "sake" and "wine" are both subordinate concepts of "sake". On the other hand, "Inoguchi" is not a subordinate concept of "Sake", but "Inoguchi" is used to drink "Sake". For this reason, the degree of relevance between "sake" and "inoguchi" is higher than the degree of relevance between "sake" and "wine".
説明を図2に戻す。通信装置23は、移動体通信網又はインターネット等のネットワークNWを介して他の装置と通信する機器である。通信装置23は、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード又は通信モジュールとも表記される。通信装置23は、ネットワークNWを介して、動画配信サーバ10と通信可能である。
The explanation is returned to FIG. The
出力装置24は、処理装置21による制御のもとで各種の情報をユーザUに知らせる。出力装置24は、表示装置241とスピーカ242とを備える。表示装置241は、画像を表示する。例えば液晶表示パネル、又は有機EL(Electro Luminescence)表示パネル等の各種の表示パネルが表示装置241として好適に利用される。
スピーカ242には、処理装置21から音データが供給される。スピーカ242はDA変換器を備える。DA変換器によって音データはアナログ信号に変換され、アナログ信号によってスピーカ242は駆動される。The
Sound data is supplied to the speaker 242 from the
入力装置25は、ユーザ装置20を使用するための情報をユーザUが入力するための機器である。入力装置25は、ユーザUによる入力操作を受け付ける。この例の入力装置25は、マイクロフォン251及びタッチパネル252を備える。タッチパネル252は、表示装置241の表示面に対するユーザUによる接触を検出する。タッチパネル252は、接触位置に基づいて、数字及び文字等の符号を入力する操作と、表示装置241が表示するアイコンを選択する操作とを受け付ける。マイクロフォン251は、ユーザUの音声をアナログの電気信号に変換し、当該電気信号を音声信号Saとして出力する。音声信号Saは図示せぬAD変換部によりデジタル信号に変換されバス28を介して処理装置21に供給される。
The
近距離無線通信装置26は、近距離無線通信によって他の装置と通信する機器である。近距離無線通信には、例えばBluetooth(登録商標)、ZigBee(登録商標)、又は、WiFi(登録商標)等が挙げられる。他の装置としては、テレビジョン受像機30等が該当する。
GPS装置27は複数の衛星からの電波を受信し、受信した電波から位置情報を生成する。位置情報は、ユーザ装置20の位置を示す。位置情報は、位置を特定できるのであれば、どのような形式であってもよい。位置情報は、例えば、ユーザ装置20の緯度と経度とを示す。本実施形態では、位置情報はGPS装置27から得られることを例示するが、ユーザ装置20は、他の任意の方法で位置情報を取得してもよい。例えば、ユーザ装置20は、ユーザ装置20の通信先である基地局に割り当てられたセルIDを用いて位置情報を取得してもよい。あるいは、ユーザ装置20が近距離無線通信装置26を用いて無線LAN(Local Area Network)のアクセスポイントと通信する場合には、ユーザ装置20は、アクセスポイントに割り当てられたネットワーク上の識別アドレス(MAC(Media Access Control)アドレス)と実際の住所(位置)とを互いに対応付けたデータベースを参照して位置情報を取得してもよい。あるいは、ユーザ装置20は、近距離無線通信装置26を用いてBLE(Bluetooth Low Energy) 規格に準拠したアドバタイズメント・パケットに含まれるID情報を受信し、当該ID情報に基づいて位置情報を取得してもよい。The short-range
The
[1.3.ユーザ装置20の機能]
図4は、ユーザ装置20の機能を示す機能ブロック図である。処理装置21は記憶装置22から制御プログラムPRaを読み取り実行することによって、第1キーワード生成部210、第2キーワード生成部220A、特定部230A、及びコメント生成部240として機能する。[1.3. Functions of user device 20]
FIG. 4 is a functional block diagram showing the functions of the
第1キーワード生成部210は、音声信号Saによって示されるユーザUの音声に基づいて第1キーワードKW1を生成する。
具体的には、第1キーワード生成部210は、ユーザUの音声を解析し、解析結果から名詞と形容詞とを抽出する。第1キーワード生成部210は、ユーザUの音声に名詞と形容詞との両方が含まれている場合には注目ワードとして名詞を特定する。例えば、ユーザUの音声が「赤い車が怪しい」である場合、名詞である「車」が注目ワードとして特定される。また、第1キーワード生成部210は、ユーザUの音声に名詞が含まれておらず形容詞が含まれている場合、形容詞を注目ワードとして特定する。例えば、ユーザUの音声が「美味しそうだな」である場合、形容詞である「美味しい」が注目ワードとして特定される。The first
Specifically, the first
また、第1キーワード生成部210は、注目ワードがキーワードテーブルTBLaに含まれるかを判定する。第1キーワード生成部210は、判定結果が否定である場合、第1キーワードKW1を生成しない。従って、第1キーワードKW1はキーワードテーブルTBLaに含まれるキーワードに限定される。一方、判定結果が肯定であり、かつ注目ワードが名詞である場合、第1キーワード生成部210は、注目ワードを第1キーワードKW1として生成する。判定結果が肯定であり、かつ注目ワードが形容詞である場合、第1キーワード生成部210は、キーワードテーブルTBLaを参照して、注目ワードに対応付けられている名詞のワードを第1キーワードKW1として生成する。例えば、注目ワードが「美味しい」である場合、第1キーワード生成部210は、第1キーワードKW1として「飲食物」を生成する。
Further, the first
このように、第1キーワード生成部210は、ユーザUの発言が曖昧な場合であっても、ユーザUの発言に関連する第1キーワードKW1を生成する。
In this way, the first
次に、第2キーワード生成部220Aは、画像信号Sgの示す画像から抽出したオブジェクト画像の各々について第2キーワードKW2を生成する。第2キーワード生成部220Aは、抽出部221と変換部222とを有する。
Next, the second
抽出部221は、画像信号Sgの示す画像から複数のオブジェクト画像を抽出する。1画面の画像には、多数のオブジェクト画像が存在する。
The
画像信号Sgの示す画像が、図5に示される画像である場合、抽出部221が抽出する画像は、例えば、オブジェクト画像OB1〜OB5である。
When the image indicated by the image signal Sg is the image shown in FIG. 5, the images extracted by the
変換部222は、抽出部221によって抽出された複数のオブジェクト画像OB1〜OB5の各々を第2キーワードKW2に変換する。変換部222は、例えば、機械学習により学習された画像認識モデルを用いて、各オブジェクト画像OBを第2キーワードKW2に変換する。但し、第2キーワードKW2は、キーワードテーブルTBLaに記憶されているキーワードに含まれる。例えば、図5にされるオブジェクト画像OB1は「ワイン」、オブジェクト画像OB2は「ワイングラス」、オブジェクト画像OB3は「時計」、オブジェクト画像OB4は「キャンドル」、オブジェクト画像OB5は「洋食」に変換される。
The
特定部230Aは第2キーワードKW2と第1キーワードKW1との関連性の程度を示す関連度に基づいて、第2キーワード生成部220Aによって生成された複数の第2キーワードKW2の中から対象キーワードWxを特定する。より具体的には、特定部230Aは、キーワードテーブルTBLaを参照して、第2キーワードKW2と第1キーワードKW1との関連性の程度を示す関連度を第2キーワードKW2と第1キーワードKW1との組ごとに取得する。特定部230Aは、最も関連度が大きい第2キーワードKW2と第1キーワードKW1との組みに含まれる第2キーワードKW2を対象キーワードWxとして特定する。後述のように、コメント生成部240は特定部230Aが特定した対象キーワードWxに関連するコメントを生成する。
The
例えば、ユーザUが図5に示す画像を見て「美味しそうだな」と発言したとする。また、第1キーワードKW1として「飲食物」が生成され、第2キーワードKW2として、「ワイン」、「ワイングラス」、「時計」、「キャンドル」、及び「洋食」が生成されることを想定する。この場合、特定部230Aは、「飲食物」と「ワイン」との関連度、「飲食物」と「ワイングラス」との関連度、「飲食物」と「時計」との関連度、「飲食物」と「キャンドル」との関連度、「飲食物」と「洋食」との関連度を、キーワードテーブルTBLaを参照して取得する。特定部230Aは、取得した複数の関連度を比較して、関連度が最も高い第2キーワードKW2を対象キーワードWxとして特定する。
For example, suppose that the user U looks at the image shown in FIG. 5 and says, "It looks delicious." Further, it is assumed that "food and drink" is generated as the first keyword KW1 and "wine", "wine glass", "clock", "candle", and "Western food" are generated as the second keyword KW2. .. In this case, the
コメント生成部240は、対象キーワードWxに関連するコメントを生成する。コメントとは、対象キーワードWxについての説明(explanation)又は解説(exposition)を意味する。また、コメントはレコメンド(recommendation)を含む概念である。このため、対象キーワードWxに関連してユーザUに購入を勧める商品及び当該商品を取り扱う店舗に関する情報がコメントに含まれる。コメント生成部240は、対象キーワードWxに対応付けられて記憶されたコメントをコメントテーブルTBLbから読み出すことによってコメントを生成する。また、コメント生成部240は、ネットワークNWに接続される検索サイトにアクセスして当該検索サイトから対象キーワードWxに関連する情報を取得し、取得した情報をコメントとして生成してもよい。例えば、対象キーワードWxが「ラーメン」である場合、コメント生成部240は、GPS装置27などで生成される位置情報の近くのラーメン屋を検索し、検索結果をコメントとして出力してもよい。
The
[1.4.ユーザ装置20の動作]
次に、ユーザ装置20の動作について説明する。図6は、ユーザ装置20の動作を示すフローチャートである。[1.4. Operation of user device 20]
Next, the operation of the
まず、処理装置21は、ユーザUの音声に基づいて注目ワードを特定する(ステップS1)。処理装置21は、ユーザUの音声をテキストに変換する音声認識処理と、変換したテキストから名詞及び形容詞を特定する特定処理を実行することによって、注目ワードを抽出する。抽出ワードは、名詞、又は、名詞が特定されない場合には形容詞である。
First, the
次に、処理装置21は、注目ワードがキーワードテーブルTBLaに含まれているか否かを判定する(ステップS2)。注目ワードがキーワードテーブルTBLaに含まれていない場合、処理装置21は、処理をステップS1に戻し、キーワードテーブルTBLaに含まれる注目ワードが特定されるまで(すなわち、ステップS2の判定結果が肯定となるまで)、ステップS1及びS2の処理を繰り返す。
Next, the
ステップS2の判定結果が肯定の場合、処理装置21は注目ワードが名詞であるか否かを判定する(ステップS3)。注目ワードが名詞である場合、処理装置21は注目ワードを第1キーワードKW1として生成する。ステップS1の処理において、処理装置21は名詞又は形容詞を注目ワードとして抽出しているので、ステップS3の判定結果が否定の場合、注目ワードは形容詞となる。この場合、処理装置21はキーワードテーブルTBLaを参照して、注目ワードに対応付けられている名詞のワードを第1キーワードKW1として生成する(ステップS5)。
If the determination result in step S2 is affirmative, the
次に、処理装置21は、画像信号Sgの示す画像からオブジェクト画像を抽出する(ステップS6)。1フレームの画像には、通常、複数のオブジェクト画像が存在する。このため、処理装置21は、ステップS6の処理において複数のオブジェクト画像を抽出する。この後、処理装置21は、抽出された複数のオブジェクト画像の各々を第2キーワードKW2に変換する(ステップS7)。
Next, the
次に、処理装置21は、第2キーワードKW2と第1キーワードKW1との関連度に基づいて、ステップS7で生成された複数の第2キーワードKW2の中から対象キーワードWxを特定する。
Next, the
次に、処理装置21は、対象キーワードWxに関連するコメントを生成する(ステップS9)。ステップS9の処理において、処理装置21は対象キーワードWxに対応付けられて記憶されたコメントをコメントテーブルTBLbから読み出すことによってコメントを生成する。処理装置21は、生成したコメントを以下のいずれかの方法で出力する。(a)処理装置21は、生成したコメントの画像がスーパーインポーズされた動画データが表わす動画を、表示装置241に表示させる。(b) 処理装置21は、近距離無線通信装置26を用いて、生成したコメントの画像がスーパーインポーズされた動画データをテレビジョン受像機30に送信する。(c)処理装置21は、生成したコメントを音データに変換し、コメントを表わす音データを動画の音データと合成して合成結果をスピーカ242から放音させる。(d) 処理装置21は、近距離無線通信装置26を用いて、コメントを表わす音データと動画の音データとの合成結果をテレビジョン受像機30に送信する。(a)から(d)の方法を任意に組み合わせても良い。
Next, the
また、処理装置21は、ステップS1からステップS5までの処理において第1キーワード生成部210として機能し、ステップS6の処理において抽出部221として機能し、ステップS7の処理において変換部222として機能する。さらに、処理装置21は、ステップS8の処理において特定部230Aとして機能し、ステップS9の処理おいてコメント生成部240として機能する。
Further, the
以上、説明したようにユーザ装置20の一例である情報処理装置は、ユーザUの音声に基づいて第1キーワードKW1を生成する第1キーワード生成部210と、画像信号Sgの示す画像から抽出した複数のオブジェクト画像の各々について第2キーワードKW2を生成する第2キーワード生成部220Aと、各第2キーワードKW2と第1キーワードKW1との関連性の程度に基づいて、第2キーワード生成部220Aによって生成された複数の第2キーワードKW2の中からコメントの対象となる対象キーワードWxを特定する特定部230Aと、対象キーワードWxに関連するコメントを生成するコメント生成部240と、を備える。
As described above, the information processing device which is an example of the
この態様によれば、ユーザUがコメントの対象となるオブジェクト画像を指定することなく、ユーザUの曖昧な発言に応答して、コメントを生成することができる。 According to this aspect, the user U can generate a comment in response to the ambiguous remark of the user U without designating the object image to be the target of the comment.
また、一の第2キーワードKW2が第1キーワードKW1に不一致である場合の第2キーワードKW2と第1キーワードKW1との関連度と比較して、他の第2キーワードKW2が第1キーワードKW1に一致する場合の関連度が高くなる。従って、複数の第2キーワードKW2のいずれかが第1キーワードKW1と一致する場合、特定部230Aは第1キーワードKW1と一致する第2キーワードKW2を対象キーワードWxとして特定する。この場合、特定部230Aは、複数の第2キーワードKW2の各々が第1キーワードKW1に一致するかを判定し、複数の第2キーワードKW2のいずれかに関する判定結果が肯定の場合は、第1キーワードKW1に一致する第2キーワードKW2を対象キーワードWxとして特定することができる。このため、キーワードテーブルTBLaを参照して関連度を取得する必要が無く、処理負荷を軽減することができる。
Further, the other second keyword KW2 matches the first keyword KW1 in comparison with the degree of relevance between the second keyword KW2 and the first keyword KW1 when the first second keyword KW2 does not match the first keyword KW1. The degree of relevance is high. Therefore, when any one of the plurality of second keyword KW2 matches the first keyword KW1, the specifying
[2.第2実施形態]
第2実施形態のサービスシステム1は、ユーザ装置20における処理装置21の機能を除いて、第1実施形態のサービスシステム1と同一である。図7は第2実施形態の処理装置21の機能を示す機能ブロック図である。第2実施形態の処理装置21は、第2キーワード生成部220Aの替わりに第2キーワード生成部220Bを備える点で、第1実施形態の処理装置21と相違する。[2. Second Embodiment]
The
図7に示されるように第2キーワード生成部220Bは、抽出部221、変換部222、及び解析部223を備える。解析部223には画像信号Sgが供給される。解析部223は、動画の画像信号Sgを解析して解析結果を抽出部221に出力する。
As shown in FIG. 7, the second
解析部223は、例えば、画像信号Sgの任意のフレームに含まれる複数のオブジェクト画像の各々を、第1の評価項目から第4の評価項目を用いて評価し、評価値の合計を解析結果として抽出部221に出力する。この場合、抽出部221は評価値の合計が所定値を超えるオブジェクト画像を抽出する。
For example, the
第1の評価項目は、1画面の面積に対するオブジェクト画像の面積の割合であり、オブジェクト画像の割合が大きいほど当該オブジェクト画像の評価値が高い。第2の評価項目は、ユーザUから見たオブジェクト画像の遠近であり、オブジェクト画像が手前に位置するほど当該オブジェクト画像の評価値が高い。第3の評価項目は、オブジェクト画像の明るさであり、オブジェクト画像の明るさが明るいほど当該オブジェクト画像の評価値が高い。第4の評価項目は、オブジェクト画像の位置であり、オブジェクト画像の位置が画面の中心に近いほど当該オブジェクト画像の評価値が高い。第1から第4の評価項目は、いずれも1画面の画像中でユーザUの関心を引く要素である。複数の評価項目を用いてオブジェクト画像を評価することによって、ユーザUの関心が高いオブジェクト画像を抽出することができる。 The first evaluation item is the ratio of the area of the object image to the area of one screen, and the larger the ratio of the object image, the higher the evaluation value of the object image. The second evaluation item is the perspective of the object image as seen by the user U, and the closer the object image is to the front, the higher the evaluation value of the object image. The third evaluation item is the brightness of the object image, and the brighter the brightness of the object image, the higher the evaluation value of the object image. The fourth evaluation item is the position of the object image, and the closer the position of the object image is to the center of the screen, the higher the evaluation value of the object image. The first to fourth evaluation items are all elements that attract the attention of the user U in the image on one screen. By evaluating the object image using a plurality of evaluation items, it is possible to extract the object image that the user U is highly interested in.
次に、第2実施形態におけるユーザ装置20の動作を説明する。図8は、第2実施形態に係るユーザ装置20の動作を示すフローチャートである。同図に示すフローチャートは、ステップS6の替わりにステップS6_1及びS6_2を実行する点を除いて、図6に示す第1実施形態のフローチャートと同一である。以下、相違点について説明する。
Next, the operation of the
ステップS6_1において、処理装置21は解析部223として機能し、あるフレームに含まれる複数のオブジェクト画像の各々を評価項目ごとに評価した複数の評価値を取得し、これら評価値の合計を算出する。例えば、図5に示すオブジェクト画像OB1〜OB5の解析結果は、図9に示すものとなる。この例では、オブジェクト画像OB1〜OB5の各々について評価値の合計は「11」〜「16」の範囲にある。
In step S6_1, the
ステップS6_2において、処理装置21は抽出部221として機能し、評価値の合計が所定値を超えるオブジェクト画像を抽出する。例えば、所定値が「13」であり、かつ、各オブジェクト画像について図9に示す評価値の合計が得られた場合を想定する。この場合、処理装置21はオブジェクト画像OB2及びOB5を抽出する。なお、ステップS7以降の処理は、図6を参照して第1実施形態で説明した処理と同一であるので、説明を省略する。
In step S6_2, the
以上、説明したように第2実施形態によれば、第2キーワード生成部220Bは、画像信号Sgを解析する解析部223と、解析部223の解析結果に基づいて、画像信号Sgの示す画像から複数のオブジェクト画像を抽出する抽出部221と、複数のオブジェクト画像の各々を第2キーワードKW2に変換する変換部222と、を備える。
As described above, according to the second embodiment, the second
この態様によれば、画像信号Sgの解析結果に基づいて複数のオブジェクト画像を抽出するので、解析結果を用いることなくオブジェクト画像を抽出する場合と比較して、抽出するオブジェクト画像の数を減らすことができる。従って、変換部222の処理負荷を軽減できる。
According to this aspect, since a plurality of object images are extracted based on the analysis result of the image signal Sg, the number of object images to be extracted is reduced as compared with the case where the object image is extracted without using the analysis result. Can be done. Therefore, the processing load of the
なお、解析部223は、複数のフレームに渡る画像信号Sgを解析して、解析結果を生成してもよい。この場合、解析部223は、第1の評価項目から第4の評価項目に加え、オブジェクト画像の動きに関する第5の評価項目を採用してもよい。第5の評価項目の一例は、動きのあるオブジェクト画像が画面内に存在する時間長に相当するフレーム数であり、この評価項目によれば、フレーム数が大きくなるほど(オブジェクト画像が画面内に存在する時間が長くなるほど)当該オブジェクト画像の評価値が高い。例えば、映画の主人公が動く場合、主人公の動きに追従するように映画が撮影されることが多い。このため、画像信号Sgが表わす動画が映画である場合、主人公を表わすオブジェクト画像の評価値及び主人公が所持する所持品を表わすオブジェクト画像の評価値を高くする。この結果、ユーザUが着目するオブジェクト画像を抽出部221が抽出する可能性を高めることができる。逆に、ユーザUが着目しないオブジェクト画像を抽出部221が抽出する可能性を低減できる。
The
[3.第3実施形態]
第3実施形態のサービスシステム1は、ユーザ装置20における処理装置21の機能及び記憶装置22の記憶内容を除いて、第1実施形態のサービスシステム1と同一である。図10は第3実施形態の処理装置21の機能を示す機能ブロック図である。第3実施形態の処理装置21は、特定部230Aの替わりに特定部230Bを備える点で、第1実施形態の処理装置21と相違する。[3. Third Embodiment]
The
第3実施形態のユーザ装置20の記憶装置22は、行動履歴テーブルTBLcを記憶する。行動履歴テーブルTBLcにはユーザUの行動履歴が記憶される。行動履歴には、ユーザUのインターネット検索履歴、商品及びサービスの購入履歴、SNS(Social Networking Service)のアクティビティ、及びWebブラウザのブックマークなどが含まれる。
The
特定部230Bは、各第2キーワードKW2と第1キーワードKW1との関連性の程度を示す関連度及びユーザUの行動履歴に基づいて、第2キーワード生成部220Aで生成された複数の第2キーワードKW2の中から対象キーワードWxを特定する。
The
まず、特定部230Bは、第2キーワード生成部220Aによって生成された複数の第2キーワードKW2のうち、第1キーワードKW1との関連度が所定値以上となる第2キーワードKW2を選択する。選択された第2キーワードKW2は、対象キーワードWxの候補となる。次に、特定部230Bは、行動履歴テーブルTBLcに記憶された行動履歴を参照して、選択された第2キーワードKW2の中から対象キーワードWxを特定する。例えば、関連度に基づいて選択された第2キーワードKW2が、「ワイン」及び「洋食」であったとする。また、行動履歴テーブルTBLcにワインの購入履歴が記録されているとする。この場合、特定部230Bは、行動履歴テーブルTBLcを参照して、ユーザUにワインの購入履歴があることを検知すると、「ワイン」と「洋食」のうち、「ワイン」を対象キーワードWxとして特定する。この結果、コメント生成部240は、「ワイン」に関するコメントを生成することができる。
First, the
次に、第3実施形態におけるユーザ装置20の動作を説明する。図11は、第3実施形態に係るユーザ装置20の動作を示すフローチャートである。同図に示すフローチャートは、ステップS8の替わりにステップS8_1及びS8_2を実行する点を除いて、図6に示す第1実施形態のフローチャートと同一である。以下、相違点について説明する。
Next, the operation of the
ステップS8_1において、処理装置21は特定部230Bとして機能し、ステップS7で生成された複数の第2キーワードKW2のうち、第1キーワードKW1との関連度が所定値以上となる第2キーワードKW2を選択する。
In step S8_1, the
ステップS8_2において、処理装置21は特定部230Bとして機能し、行動履歴に基づいて、ステップS8_1の処理で選択された第2キーワードKW2のうち、行動履歴に関連する第2キーワードKW2を対象キーワードWxとして特定する。
In step S8_2, the
第3実施形態によれば、特定部230Bは、関連性の程度を示す関連度及びユーザUの行動履歴に基づいて、複数の第2キーワードKW2の中から対象キーワードWxを特定する。この態様によれば、ユーザUの行動履歴を考慮して対象キーワードWxを特定するため、ユーザUの行動履歴を考慮しない場合と比較して、ユーザUの関心の高いコメントを提供することができる。
According to the third embodiment, the
なお、図11を参照して説明したユーザ装置20の動作では、特定部230Bは、関連度を用いて第2キーワード生成部220Aが生成した複数の第2キーワードKW2のうち、対象キーワードWxの候補となる第2キーワードKW2を選択し(ステップS8_1)、その後、行動履歴に基づいて対象キーワードWxを特定する(ステップS8_2)が、順序を逆転させてもよい。即ち、特定部230Bは、行動履歴に基づいて第2キーワード生成部220Aで生成した複数の第2キーワードKW2のうち対象キーワードWxの候補となる第2キーワードKW2を選択し、その後、関連度を用いて対象キーワードWxを特定してもよい。加えて、特定部230Bは、行動履歴及び関連度を同時に用いて、複数の第2キーワードKW2の中から、対象キーワードWxを特定してもよい。特定部230Bは、例えば、行動履歴に関連する第2キーワードKW2については関連度に所定値を加算し、所定値が加算された関連度を複数の第2キーワードKW2同士で比較して対象キーワードWxを特定してもよい。
In the operation of the
[4.第4実施形態]
第4実施形態のサービスシステム1は、ユーザ装置20における処理装置21の機能及び記憶装置22の記憶内容を除いて、第1実施形態のサービスシステム1と同一である。図12は第4実施形態の処理装置21の機能を示す機能ブロック図である。第4実施形態の処理装置21は、特定部230Aの替わりに特定部230Cを備える点で、第1実施形態の処理装置21と相違する。[4. Fourth Embodiment]
The
第4実施形態のユーザ装置20の記憶装置22は、プロファイルデータDPと評価テーブルTBLdとを記憶する。プロファイルデータDPはユーザUのプロファイルを示す。プロファイルとは、ユーザUの属性の意味であり、年齢、性別などの項目が含まれる。
The
評価テーブルTBLdには、プロファイルの項目ごとの評価値がキーワードと対応付けて記憶される。評価値は、キーワードに対するユーザUの関心の程度を示す値である。図13は評価テーブルTBLdの記憶内容の一例を示す。例えば、キーワード「車」について、性別「男」の評価値は「7」であるのに対し、性別「女」の評価値は「4」である。これは、男性が女性より車に関心が高いことを示している。 In the evaluation table TBLd, the evaluation value for each item of the profile is stored in association with the keyword. The evaluation value is a value indicating the degree of interest of the user U in the keyword. FIG. 13 shows an example of the stored contents of the evaluation table TBLd. For example, for the keyword "car", the evaluation value of the gender "male" is "7", while the evaluation value of the gender "female" is "4". This shows that men are more interested in cars than women.
特定部230Cは、各第2キーワードKW2と第1キーワードKW1との関連性の程度を示す関連度及びユーザUのプロファイルに基づいて、第2キーワード生成部220Aで生成された複数の第2キーワードKW2の中から対象キーワードWxを特定する。
The
まず、特定部230Cは、第2キーワード生成部220Aによって生成された複数の第2キーワードKW2のうち、第1キーワードKW1との関連度が所定値以上となる第2キーワードKW2を選択する。次に、特定部230Cは、プロファイルデータDPと評価テーブルTBLdとを用いて、選択された第2キーワードKW2の中から対象キーワードWxを特定する。具体的には、選択された第2キーワードKW2の各々について、ユーザUのプロファイルの複数の項目にそれぞれ対応する評価値を合計した合計評価値を算出し、合計評価値が最も高い第2キーワードKW2を対象キーワードWxとして特定する。
First, the
次に、第4実施形態におけるユーザ装置20の動作を説明する。図14は、第4実施形態に係るユーザ装置20の動作を示すフローチャートである。同図に示すフローチャートは、ステップS8_2の替わりにステップS8_3を実行する点を除いて、図12に示す第3実施形態のフローチャートと同一である。以下、相違点について説明する。
Next, the operation of the
ステップS8_3において、処理装置21は特定部230Cとして機能し、プロファイルに基づいて、ステップS8_1の処理で選択された第2キーワードKW2のうち、ユーザUのプロファイルの合計評価値が最も高い第2キーワードKW2を対象キーワードWxとして特定する。
In step S8_3, the
第4実施形態によれば、特定部230Cは、関連性の程度を示す関連度及びユーザUのプロファイルに基づいて、複数の第2キーワードKW2の中から対象キーワードWxを特定する。この態様によれば、ユーザUのプロファイルを考慮して対象キーワードWxを特定するため、ユーザUのプロファイルを考慮しない場合と比較して、ユーザUの関心の高いコメントを提供することができる。
According to the fourth embodiment, the specifying
なお、図14を参照して説明したユーザ装置20の動作では、特定部230Bは、関連度を用いて第2キーワード生成部220Aで生成した複数の第2キーワードKW2のうち対象キーワードWxの候補となる第2キーワードKW2を選択し(ステップS8_1)、その後、プロファイルに基づいて対象キーワードWxを特定する(ステップS8_3)が、順序を逆転させてもよい。即ち、特定部230Cは、プロファイルに基づいて第2キーワード生成部220Aで生成した複数の第2キーワードKW2のうち対象キーワードWxの候補となる第2キーワードKW2を選択し、その後、関連度を用いて対象キーワードWxを特定してもよい。加えて、特定部230Cは、プロファイル及び関連度を同時に用いて、複数の第2キーワードKW2の中から、対象キーワードWxを特定してもよい。特定部230Cは、例えば、プロファイルに基づく合計評価値を関連度に加算し、複数の第2キーワードKW2についてのそれぞれの加算結果を比較して対象キーワードWxを特定してもよい。
In the operation of the
[5.変形例]
本発明は、以上に例示した各実施形態に限定されない。具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2以上の態様を併合してもよい。[5. Modification example]
The present invention is not limited to the embodiments exemplified above. Specific modes of modification are illustrated below. Two or more embodiments arbitrarily selected from the following examples may be merged.
(1)上述した各実施形態において、抽出部221が画像信号Sgの画像からオブジェクト画像を抽出するフレームは以下のフレームであってもよい。
第1に、抽出部221は、視聴率の高いフレームでオブジェクト画像を抽出してもよい。この場合、抽出部221は、視聴率を外部装置からリアルタイムで取得すればよい。具体的には、抽出部221は、取得した視聴率が所定の視聴率を超えたフレームでオブジェクト画像の抽出を実行する。視聴率が高いフレームは、他のフレームと比較してユーザUの関心が他の高いと推定される。従って、ユーザUの関心が高いフレームの画像からオブジェクト画像が抽出されるので、ユーザUに有益なコメントを生成できる。
第2に、抽出部221は、ユーザUの音声信号Saに基づいて、ユーザUが歓声をあげたフレームでオブジェクト画像を抽出してもよい。
第3に、抽出部221は、番組情報に基づいて番組の主題となるフレームでオブジェク画像を抽出してもよい。例えば、抽出部221は、第2実施形態で説明した解析部223を用いて、画像信号Sgを解析し、番組の主題となるフレームを特定してもよい。この場合、解析部223は、ネットワークNWを介して外部装置から番組情報を取得すればよい。
また、上述した各実施形態では、画像信号Sgは動画を示す信号として説明したが、画像信号Sgは静止画を示す信号であってもよい。(1) In each of the above-described embodiments, the frame from which the
First, the
Secondly, the
Third, the
Further, in each of the above-described embodiments, the image signal Sg has been described as a signal indicating a moving image, but the image signal Sg may be a signal indicating a still image.
(2)上述した各実施形態において、第2キーワードKW2と第1キーワードKW1との関連性の程度を示す関連度は、キーワードテーブルTBLaに記憶されていたが、これに限定されない。
例えば、特定部230A、230B、及び230Cは、複数の単語が意味によって階層化された木構造を有するキーワードテーブルTBLa(キーワードデータの一例)から特定されるノード数に応じた関連度を取得してもよい。具体的には、第1キーワード生成部210は、キーワードテーブルTBLaに含まれる単語を第1キーワードKW1として生成する。また、第2キーワード生成部220A及び220Bは、キーワードテーブルTBLaに含まれる単語を第2キーワードKW2として生成する。特定部230A、230B、及び230Cは、キーワードテーブルTBLaの木構造において、第1キーワードKW1から第2キーワードKW2までの経路におけるノード数を関連度として取得する。
さらに具体的には、キーワードテーブルTBLaのデータ構造が図3に示される木構造である場合を想定する。例えば、第1キーワードKW1が「酒」であり、第2キーワードKW2が「フライドポテト」である場合、「酒」から「フライドポテト」に至る経路は、ノード「酒」→ノード「飲み物」→ノード「飲食物」→ノード「食べ物」→ノード「洋食」→ノード「フライドポテト」となる。従って、第1キーワードKW1「酒」から第2キーワードKW2「フライドポテト」に至る経路のノード数は、「5」となる。また、第1キーワードKW1が「飲食物」であり、第2キーワードKW2が「フライドポテト」である場合、「飲食物」から「フライドポテト」に至る経路は、ノード「飲食物」→ノード「食べ物」→ノード「洋食」→ノード「フライドポテト」となる。従って、第1キーワードKW1「飲食物」から第2キーワードKW2「フライドポテト」に至る経路のノード数は、「3」となる。第1キーワードKW1と第2キーワードKW2とを結ぶ経路のノード数が少ないほど関連度が高いから、上記の例においては、第1キーワードKW1「飲食物」と第2キーワードKW2「フライドポテト」との関連度は、第1キーワードKW1「酒」と第2キーワードKW2「フライドポテト」との関連度よりも高い。
ノード数に応じて関連度を特定することによって、ユーザ装置20において必要となるキーワードテーブルTBLaの記憶容量を削減することができる。(2) In each of the above-described embodiments, the degree of association indicating the degree of association between the second keyword KW2 and the first keyword KW1 is stored in the keyword table TBLa, but is not limited thereto.
For example, the
More specifically, it is assumed that the data structure of the keyword table TBLa is the tree structure shown in FIG. For example, if the first keyword KW1 is "liquor" and the second keyword KW2 is "french fries", the route from "liquor" to "french fries" is node "liquor"-> node "drink"-> node. "Food and drink"-> node "food"-> node "Western food"-> node "french fries". Therefore, the number of nodes in the route from the first keyword KW1 "liquor" to the second keyword KW2 "french fries" is "5". When the first keyword KW1 is "food and drink" and the second keyword KW2 is "french fries", the route from "food and drink" to "french fries" is node "food and drink" → node "food". → Node "Western food" → Node "French fries". Therefore, the number of nodes in the route from the first keyword KW1 “food and drink” to the second keyword KW2 “fried potato” is “3”. The smaller the number of nodes in the route connecting the first keyword KW1 and the second keyword KW2, the higher the degree of relevance. Therefore, in the above example, the first keyword KW1 "food and drink" and the second keyword KW2 "french fries" are used. The degree of relevance is higher than the degree of relevance between the first keyword KW1 "liquor" and the second keyword KW2 "french fries".
By specifying the degree of relevance according to the number of nodes, the storage capacity of the keyword table TBLa required in the
(3)上述した各実施形態において、抽出部221は、ユーザUの行動履歴を考慮せずにオブジェクト画像を抽出したが、画像信号Sgの示す画像から行動履歴に基づいてオブジェクト画像を抽出してもよい。この場合、抽出部221は、第3実施形態で説明した行動履歴テーブルTBLcを参照して、商品の購入履歴等から例えばユーザUの好みの色を特定し、特定した色のオブジェクト画像を抽出してもよい。この変形例によれば、オブジェクト画像を絞り込むことができるので、変換部222の処理負荷を軽減できる。
(3) In each of the above-described embodiments, the
(4)上述した実施形態は適宜組み合わせることが可能である。例えば、第2実施形態の第2キーワード生成部220Bを第3実施形態及び第4実施形態の第2キーワード生成部220Aの替わりに用いてもよい。
(4) The above-described embodiments can be combined as appropriate. For example, the second
(5)上述した各実施形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及び/又はソフトウェアの任意の組み合わせによって実現される。また、各機能ブロックの実現手段は特に限定されない。すなわち、各機能ブロックは、物理的及び/又は論理的に結合した1つの装置により実現されてもよいし、物理的及び/又は論理的に分離した2つ以上の装置を直接的及び/又は間接的に(例えば、有線及び/又は無線)で接続し、これら複数の装置により実現されてもよい。例えば、変換部222の機能はネットワークNWを介して接続されるサーバ装置から提供されてもよい。同様に、キーワードテーブルTBLaもサーバ装置に設けられてもよい。
また、上述した各実施形態の説明に用いた「装置」という文言は、回路、デバイス又はユニット等の他の用語に読替えてもよい。(5) The block diagram used in the description of each of the above-described embodiments shows a block of functional units. These functional blocks (components) are realized by any combination of hardware and / or software. Further, the means for realizing each functional block is not particularly limited. That is, each functional block may be realized by one physically and / or logically coupled device, or directly and / or indirectly by two or more physically and / or logically separated devices. (For example, wired and / or wireless) may be connected and realized by these plurality of devices. For example, the function of the
Further, the word "device" used in the description of each of the above-described embodiments may be read as another term such as a circuit, a device, or a unit.
(6)上述した各実施形態における処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本明細書で説明した方法については、例示的な順序で様々なステップの要素を提示しており、提示した特定の順序に限定されない。 (6) The order of the processing procedures, sequences, flowcharts, etc. in each of the above-described embodiments may be changed as long as there is no contradiction. For example, the methods described herein present elements of various steps in an exemplary order and are not limited to the particular order presented.
(7)上述した各実施形態において、入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルで管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。 (7) In each of the above-described embodiments, the input / output information and the like may be stored in a specific place (for example, a memory) or may be managed by a management table. Information to be input / output may be overwritten, updated, or added. The output information and the like may be deleted. The input information or the like may be transmitted to another device.
(8)上述した各実施形態において、判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:true又はfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。 (8) In each of the above-described embodiments, the determination may be made by a value represented by one bit (0 or 1) or by a truth value (Boolean: true or false). However, it may be performed by comparison of numerical values (for example, comparison with a predetermined value).
(9)上述した各実施形態では、記憶装置22は、処理装置21が読取可能な記録媒体であり、ROM及びRAMなどを例示したが、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu−ray(登録商標)ディスク)、スマートカード、フラッシュメモリデバイス(例えば、カード、スティック、キードライブ)、CD−ROM(Compact Disc−ROM)、レジスタ、リムーバブルディスク、ハードディスク、フロッピー(登録商標)ディスク、磁気ストリップ、データベース、サーバその他の適切な記憶媒体である。また、プログラムは、ネットワークNWから送信されても良い。また、プログラムは、電気通信回線を介して通信網から送信されても良い。
(9) In each of the above-described embodiments, the
(10)上述した各実施形態は、LTE(Long Term Evolution)、LTE−A(LTE-Advanced)、SUPER 3G、IMT−Advanced、4G、5G、FRA(Future Radio Access)、W−CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broadband)、IEEE 802.11(Wi−Fi)、IEEE 802.16(WiMAX)、IEEE 802.20、UWB(Ultra-WideBand)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステム及び/又はこれらに基づいて拡張された次世代システムに適用されてもよい。 (10) Each of the above-described embodiments is LTE (Long Term Evolution), LTE-A (LTE-Advanced), SUPER 3G, IMT-Advanced, 4G, 5G, FRA (Future Radio Access), W-CDMA (registered trademark). ), GSM (registered trademark), CDMA2000, UMB (Ultra Mobile Broadband), IEEE 802.11 (Wi-Fi), IEEE 802.16 (WiMAX), IEEE 802.20, UWB (Ultra-WideBand), Bluetooth (registered) It may be applied to systems that utilize other suitable systems and / or next-generation systems that are extended based on them.
(11)上述した各実施形態において、説明した情報及び信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上述の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。
なお、本明細書で説明した用語及び/又は本明細書の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。(11) In each of the above embodiments, the information, signals, and the like described may be represented using any of a variety of different techniques. For example, data, instructions, commands, information, signals, bits, symbols, chips, etc. that may be referred to throughout the above description are voltages, currents, electromagnetic waves, magnetic fields or magnetic particles, light fields or photons, or any of these. It may be represented by a combination of.
The terms described herein and / or the terms necessary for understanding the present specification may be replaced with terms having the same or similar meanings.
(12)図4、図7、図10、及び図12に例示された各機能は、ハードウェア及びソフトウェアの任意の組合せによって実現される。また、各機能は、単体の装置によって実現されてもよいし、相互に別体で構成された2個以上の装置によって実現されてもよい。 (12) Each of the functions exemplified in FIGS. 4, 7, 10, and 12 is realized by any combination of hardware and software. Further, each function may be realized by a single device, or may be realized by two or more devices configured as separate bodies from each other.
(13)上述した各実施形態で例示したプログラムは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード又はハードウェア記述言語と呼ばれるか、他の名称によって呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順又は機能等を意味するよう広く解釈されるべきである。
また、ソフトウェア、命令などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、同軸ケーブル、光ファイバケーブル、ツイストペア及びデジタル加入者回線(DSL)などの有線技術及び/又は赤外線、無線及びマイクロ波などの無線技術を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び/又は無線技術は、伝送媒体の定義内に含まれる。(13) The program exemplified in each of the above-described embodiments is called an instruction, an instruction set, a code, or a code segment regardless of whether it is called a software, firmware, middleware, microcode or hardware description language, or by another name. , Program code, subprograms, software modules, applications, software applications, software packages, routines, subroutines, objects, executable files, execution threads, procedures or functions, etc. should be broadly interpreted.
Further, software, instructions, and the like may be transmitted and received via a transmission medium. For example, the software may use wired technology such as coaxial cable, fiber optic cable, twisted pair and digital subscriber line (DSL) and / or wireless technology such as infrared, wireless and microwave to website, server, or other. When transmitted from a remote source, these wired and / or wireless technologies are included within the definition of transmission medium.
(14)上述した各実施形態において、「システム」及び「ネットワーク」という用語は、互換的に使用される。 (14) In each of the above embodiments, the terms "system" and "network" are used interchangeably.
(15)上述した各実施形態において、情報、パラメータなどは、絶対値で表されてもよいし、所定の値からの相対値で表されてもよいし、対応する別の情報で表されてもよい。 (15) In each of the above-described embodiments, the information, parameters, etc. may be represented by absolute values, relative values from predetermined values, or other corresponding information. May be good.
(16)上述した各実施形態において、ユーザ装置20は、移動局である場合が含まれる。移動局は、当業者によって、加入者局、モバイルユニット、加入者ユニット、ワイヤレスユニット、リモートユニット、モバイルデバイス、ワイヤレスデバイス、ワイヤレス通信デバイス、リモートデバイス、モバイル加入者局、アクセス端末、モバイル端末、ワイヤレス端末、リモート端末、ハンドセット、ユーザエージェント、モバイルクライアント、クライアント、又はいくつかの他の適切な用語で呼ばれる場合もある。
(16) In each of the above-described embodiments, the
(17)上述した各実施形態において、「接続された(connected)」という用語、又はこれらのあらゆる変形は、2又はそれ以上の要素間の直接的又は間接的なあらゆる接続又は結合を意味し、互いに「接続」された2つの要素間に1又はそれ以上の中間要素が存在することを含むことができる。要素間の接続は、物理的なものであっても、論理的なものであっても、或いはこれらの組み合わせであってもよい。本明細書で使用する場合、2つの要素は、1又はそれ以上の電線、ケーブル及び/又はプリント電気接続を使用することにより、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域及び光(可視及び不可視の両方)領域の波長を有する電磁エネルギーなどの電磁エネルギーを使用することにより、互いに「接続」されると考えることができる。 (17) In each of the embodiments described above, the term "connected", or any variation thereof, means any direct or indirect connection or connection between two or more elements. It can include the presence of one or more intermediate elements between two elements that are "connected" to each other. The connection between the elements may be physical, logical, or a combination thereof. As used herein, the two elements are by using one or more wires, cables and / or printed electrical connections, and, as some non-limiting and non-comprehensive examples, radio frequencies. It can be considered to be "connected" to each other by using electromagnetic energies such as electromagnetic energies having wavelengths in the region, microwave region and light (both visible and invisible) regions.
(18)上述した各実施形態において、「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。 (18) In each of the embodiments described above, the statement "based on" does not mean "based on" unless otherwise stated. In other words, the statement "based on" means both "based only" and "at least based on".
(19)本明細書で使用する「第1」、「第2」などの呼称を使用した要素へのいかなる参照も、それらの要素の量又は順序を全般的に限定するものではない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本明細書で使用され得る。従って、第1及び第2の要素への参照は、2つの要素のみがそこで採用され得ること、又は何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。 (19) Any reference to elements using designations such as "first", "second" as used herein does not generally limit the quantity or order of those elements. These designations can be used herein as a convenient way to distinguish between two or more elements. Thus, references to the first and second elements do not mean that only two elements can be adopted there, or that the first element must somehow precede the second element.
(20)上述した各実施形態において「含む(including)」、「含んでいる(comprising)」、及びそれらの変形が、本明細書あるいは特許請求の範囲で使用されている限り、これら用語は、用語「備える」と同様に、包括的であることが意図される。さらに、本明細書あるいは特許請求の範囲において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。 (20) As long as "inclusion," "comprising," and variations thereof in each of the embodiments described above are used herein or within the scope of the claims, these terms are used. As with the term "prepared", it is intended to be inclusive. Moreover, the term "or" as used herein or in the claims is intended to be non-exclusive.
(21)本願の全体において、例えば、英語におけるa、an及びtheのように、翻訳によって冠詞が追加された場合、これらの冠詞は、文脈から明らかにそうではないことが示されていなければ、複数を含む。 (21) In the whole of the present application, if articles are added by translation, for example a, an and the in English, unless the context clearly indicates that these articles are not. Includes multiple.
(22)本発明が本明細書中に説明した実施形態に限定されないことは当業者にとって明白である。本発明は、特許請求の範囲の記載に基づいて定まる本発明の趣旨及び範囲を逸脱することなく修正及び変更態様として実施できる。従って、本明細書の記載は、例示的な説明を目的とし、本発明に対して何ら制限的な意味を有さない。また、本明細書に例示した態様から選択された複数の態様を組合せてもよい。 (22) It will be apparent to those skilled in the art that the invention is not limited to the embodiments described herein. The present invention can be implemented as modifications and modifications without departing from the spirit and scope of the present invention, which is determined based on the description of the scope of claims. Therefore, the description herein is for purposes of illustration and has no limiting implications for the present invention. In addition, a plurality of embodiments selected from the embodiments exemplified herein may be combined.
1…サービスシステム、10…動画配信サーバ、11…処理装置、20…ユーザ装置、21…処理装置、22…記憶装置、210…第1キーワード生成部、220A,220B…第2キーワード生成部、220B…第2キーワード生成部、221…抽出部、222…変換部、223…解析部、230A,230B,230C…特定部、240…コメント生成部、KW1…第1キーワード、KW2…第2キーワード、TBLa…キーワードテーブル、TBLb…コメントテーブル、TBLc…行動履歴テーブル、Wx…対象キーワード。 1 ... Service system, 10 ... Video distribution server, 11 ... Processing device, 20 ... User device, 21 ... Processing device, 22 ... Storage device, 210 ... First keyword generation unit, 220A, 220B ... Second keyword generation unit, 220B ... second keyword generation unit, 221 ... extraction unit, 222 ... conversion unit, 223 ... analysis unit, 230A, 230B, 230C ... specific unit, 240 ... comment generation unit, KW1 ... first keyword, KW2 ... second keyword, TBLa ... Keyword table, TBLb ... Comment table, TBLc ... Action history table, Wx ... Target keywords.
Claims (5)
画像信号の示す画像から抽出した複数のオブジェクト画像に1対1で対応する複数の第2キーワードを生成する第2キーワード生成部と、
前記複数の第2キーワードの各々と前記第1キーワードとの関連性の程度に基づいて、前記複数の第2キーワードの中からコメントの対象となる対象キーワードを特定する特定部と、
前記対象キーワードに関連するコメントを生成するコメント生成部と、
を備える情報処理装置。A first keyword generator that generates the first keyword based on the user's voice,
A second keyword generation unit that generates a plurality of second keywords corresponding to a plurality of object images extracted from an image indicated by an image signal on a one-to-one basis.
A specific unit that specifies a target keyword to be commented from the plurality of second keywords based on the degree of relevance between each of the plurality of second keywords and the first keyword.
A comment generator that generates comments related to the target keyword,
Information processing device equipped with.
前記特定部は、前記複数の第2キーワードのうち、前記第1キーワードと一致する第2キーワードを前記対象キーワードとして特定する、請求項1に記載の情報処理装置。Of the plurality of second keywords, the relationship when the other second keyword matches the first keyword as compared with the degree of relevance when one second keyword does not match the first keyword. The degree of sex is high,
The information processing apparatus according to claim 1, wherein the specific unit specifies a second keyword that matches the first keyword among the plurality of second keywords as the target keyword.
前記画像信号を解析する解析部と、
前記解析部の解析結果に基づいて、前記画像信号の示す画像から前記複数のオブジェクト画像を抽出する抽出部と、
前記複数のオブジェクト画像の各々を、前記複数の第2キーワードのうち、対応する第2キーワードに変換する変換部と、を備える。
請求項1又は2に記載の情報処理装置。The second keyword generation unit is
An analysis unit that analyzes the image signal and
An extraction unit that extracts the plurality of object images from the image indicated by the image signal based on the analysis result of the analysis unit, and an extraction unit.
A conversion unit for converting each of the plurality of object images into the corresponding second keyword among the plurality of second keywords is provided.
The information processing apparatus according to claim 1 or 2.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018204132 | 2018-10-30 | ||
JP2018204132 | 2018-10-30 | ||
PCT/JP2019/042300 WO2020090790A1 (en) | 2018-10-30 | 2019-10-29 | Information processing device |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2020090790A1 true JPWO2020090790A1 (en) | 2021-12-23 |
Family
ID=70463248
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020553924A Pending JPWO2020090790A1 (en) | 2018-10-30 | 2019-10-29 | Information processing equipment |
Country Status (2)
Country | Link |
---|---|
JP (1) | JPWO2020090790A1 (en) |
WO (1) | WO2020090790A1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005173739A (en) * | 2003-12-08 | 2005-06-30 | Nippon Telegr & Teleph Corp <Ntt> | Program for object arrangement |
JP2010176479A (en) * | 2009-01-30 | 2010-08-12 | Fujifilm Corp | Image keyword appending apparatus, image search device and method of controlling them |
JP2010181461A (en) * | 2009-02-03 | 2010-08-19 | Olympus Corp | Digital photograph frame, information processing system, program, and information storage medium |
JP6396568B1 (en) * | 2017-09-19 | 2018-09-26 | ヤフー株式会社 | PROVIDING PROGRAM, PROVIDING DEVICE, PROVIDING METHOD, TERMINAL DEVICE, AND INFORMATION PROVIDING DEVICE |
-
2019
- 2019-10-29 WO PCT/JP2019/042300 patent/WO2020090790A1/en active Application Filing
- 2019-10-29 JP JP2020553924A patent/JPWO2020090790A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005173739A (en) * | 2003-12-08 | 2005-06-30 | Nippon Telegr & Teleph Corp <Ntt> | Program for object arrangement |
JP2010176479A (en) * | 2009-01-30 | 2010-08-12 | Fujifilm Corp | Image keyword appending apparatus, image search device and method of controlling them |
JP2010181461A (en) * | 2009-02-03 | 2010-08-19 | Olympus Corp | Digital photograph frame, information processing system, program, and information storage medium |
JP6396568B1 (en) * | 2017-09-19 | 2018-09-26 | ヤフー株式会社 | PROVIDING PROGRAM, PROVIDING DEVICE, PROVIDING METHOD, TERMINAL DEVICE, AND INFORMATION PROVIDING DEVICE |
Also Published As
Publication number | Publication date |
---|---|
WO2020090790A1 (en) | 2020-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105068716B (en) | Information search method and device | |
CN105578222A (en) | Information push method and device | |
US20120323679A1 (en) | System and method for providing mobile advertisement | |
US20150310113A1 (en) | Mobile Terminal, Server, System And Method For Realizing Search | |
US8645554B2 (en) | Method and apparatus for identifying network functions based on user data | |
CN110636325B (en) | Method and device for sharing push information on live broadcast platform and storage medium | |
KR102420629B1 (en) | Method and system for providing advertiser service | |
CN109471978A (en) | A kind of e-sourcing recommended method and device | |
CN104834698A (en) | Information pushing method and device | |
CN111897950A (en) | Method and apparatus for generating information | |
US20160110372A1 (en) | Method and apparatus for providing location-based social search service | |
US20160094887A1 (en) | Tv program-based shopping guide system and tv program-based shopping guide method | |
CN111753180A (en) | Search method, search device, electronic equipment and computer storage medium | |
CN112446214A (en) | Method, device and equipment for generating advertisement keywords and storage medium | |
US20170064543A1 (en) | Wireless network identification | |
JPWO2020090790A1 (en) | Information processing equipment | |
CN111787042A (en) | Method and device for pushing information | |
CN107577664A (en) | Method and apparatus for display information | |
KR20160053413A (en) | Apparatus and method for providing information corresponding contents input into conversation windows | |
CN114239501A (en) | Contract generation method, apparatus, device and medium | |
CN114491213A (en) | Commodity searching method and device based on image, electronic equipment and computer readable storage medium | |
CN113780827A (en) | Article screening method and device, electronic equipment and computer readable medium | |
US20150286280A1 (en) | Information processing method and information processing device | |
US11941666B2 (en) | System and method for automatic matching search advertisement based on product preliminary class | |
US20160335663A1 (en) | Camera retrieval server, camera retrieval method and program for camera retrieval server |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210415 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220412 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220609 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220913 |