JP2020170239A - Output program, output device and output method - Google Patents
Output program, output device and output method Download PDFInfo
- Publication number
- JP2020170239A JP2020170239A JP2019069877A JP2019069877A JP2020170239A JP 2020170239 A JP2020170239 A JP 2020170239A JP 2019069877 A JP2019069877 A JP 2019069877A JP 2019069877 A JP2019069877 A JP 2019069877A JP 2020170239 A JP2020170239 A JP 2020170239A
- Authority
- JP
- Japan
- Prior art keywords
- information
- output
- user
- reaction
- content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 230000009471 action Effects 0.000 claims description 22
- 230000004044 response Effects 0.000 claims description 14
- 230000008569 process Effects 0.000 claims description 6
- 230000006855 networking Effects 0.000 claims description 5
- 230000002452 interceptive effect Effects 0.000 abstract description 5
- 238000012545 processing Methods 0.000 description 30
- 238000010586 diagram Methods 0.000 description 28
- 238000012552 review Methods 0.000 description 17
- 238000004891 communication Methods 0.000 description 14
- 230000001133 acceleration Effects 0.000 description 13
- 101001111655 Homo sapiens Retinol dehydrogenase 11 Proteins 0.000 description 12
- 102100023916 Retinol dehydrogenase 11 Human genes 0.000 description 12
- 230000000875 corresponding effect Effects 0.000 description 11
- 238000013500 data storage Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 230000010365 information processing Effects 0.000 description 6
- 230000015654 memory Effects 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 235000019640 taste Nutrition 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Abstract
Description
本発明は、出力プログラム、出力装置及び出力方法に関する。 The present invention relates to an output program, an output device and an output method.
従来、人からの話しかけに応答する装置に関する技術が知られている。例えば、景色や風景から連想可能な発話で人と対話する装置に関する技術が提案されている。 Conventionally, a technique related to a device that responds to a human conversation has been known. For example, a technology related to a device that interacts with a person by utterances that can be associated with scenery or landscape has been proposed.
しかしながら、上記の従来技術では、対話システムへのユーザによる入力に寄らずに適切な情報を出力することができるとは限らない。例えば、上記の従来技術では、あらかじめ登録された発話コンテンツの中から、景色や風景から連想可能な発話文を選択するにすぎず、対話システムへのユーザによる入力に寄らずに適切な情報を出力することができるとは限らない。 However, in the above-mentioned conventional technique, it is not always possible to output appropriate information without depending on the input by the user to the dialogue system. For example, in the above-mentioned conventional technology, only the utterance sentence that can be associated with the scenery or the landscape is selected from the utterance contents registered in advance, and appropriate information is output without depending on the input by the user to the dialogue system. It is not always possible to do so.
本願は、上記に鑑みてなされたものであって、対話システムへのユーザによる入力に寄らずに適切な情報を出力することができる出力プログラム、出力装置及び出力方法を提供することを目的とする。 The present application has been made in view of the above, and an object of the present application is to provide an output program, an output device, and an output method capable of outputting appropriate information without depending on input by a user to an interactive system. ..
本願に係る出力プログラムは、対話システムにユーザにより入力される第1情報以外の第2情報に対する反応として生成された文字情報である反応情報を取得する取得手順と、前記取得手順により取得された前記反応情報を前記ユーザに対して出力する出力手順と、をコンピュータに実行させることを特徴とする。 The output program according to the present application includes an acquisition procedure for acquiring reaction information, which is character information generated as a reaction to second information other than the first information input by the user to the dialogue system, and the acquisition procedure acquired by the acquisition procedure. It is characterized in that a computer executes an output procedure for outputting reaction information to the user.
実施形態の一態様によれば、対話システムへのユーザによる入力に寄らずに適切な情報を出力することができるといった効果を奏する。 According to one aspect of the embodiment, there is an effect that appropriate information can be output without depending on the input by the user to the dialogue system.
以下に、本願に係る出力プログラム、出力装置及び出力方法を実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る出力プログラム、出力装置及び出力方法が限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Hereinafter, modes for implementing the output program, output device, and output method according to the present application (hereinafter, referred to as “embodiments”) will be described in detail with reference to the drawings. The output program, output device, and output method according to the present application are not limited by this embodiment. Further, in each of the following embodiments, the same parts are designated by the same reference numerals, and duplicate description is omitted.
〔1.出力処理の一例〕
まず、図1を用いて、実施形態に係る出力処理の一例について説明する。図1は、実施形態に係る出力処理の一例を示す図である。図1に例示するように、出力処理システム1には、コンテンツ配信装置20と、出力装置100とが含まれる。これらの各種装置は、ネットワークN(例えば、インターネット)を介して、有線又は無線により通信可能に接続される。なお、図2に示した出力処理システム1には、任意の数のコンテンツ配信装置20と任意の数の出力装置100とが含まれていてもよい。
[1. Example of output processing]
First, an example of output processing according to the embodiment will be described with reference to FIG. FIG. 1 is a diagram showing an example of output processing according to the embodiment. As illustrated in FIG. 1, the
コンテンツ配信装置20は、コンテンツを配信する情報処理装置である。図1に示す例において、コンテンツ配信装置20は、出力装置100からの配信要求に応じて、出力装置100において表示されるコンテンツの一例であるニュース記事を配信する。
The
出力装置100は、ユーザとの雑談や他愛のない会話といった非タスク志向型の対話を行うシステムである非タスク志向型対話システム(non-task-oriented dialogue systems)である。なお、タスク志向型対話システムは、ユーザの要求に応じて、検索やニュース読み上げや予約代行などのタスクを行うシステムを指す。出力装置100は、テキストや音声を通じてユーザとの対話を自動的に行うプログラムであるチャットボット(chatbot)の一種である。出力装置100は、対話システムにユーザにより入力される第1情報以外の第2情報に対する反応として生成された文字情報である反応情報を取得し、取得した反応情報をユーザに対して出力する情報処理装置である。
The
また、出力装置100は、周囲の音を取得するマイク等の取得装置と、任意の音を出力可能なスピーカー等の出力装置とを有する入出力装置とを有する入出力装置であり、例えば、スマートスピーカーと呼ばれるデバイスである。また、出力装置100は、音楽の出力や音声による情報提供を実現可能な装置である。また、出力装置100は、音の入力を受付ける受付機能を有しユーザが発した音声を取得すると、取得した音声の内容に応じた音を出力する出力機能を有する。なお、出力装置100は、スマートスピーカー以外にも、スマートフォンやタブレット等といった各種の情報処理装置であってもよい。図1では、出力装置100がスマートフォンである例を示す。また、出力装置100は、必ずしもスピーカー等の出力装置を有する必要はない。例えば、出力装置100は、音声に代えて、文字列等の情報を表示することで各種の情報をユーザに対して出力してもよい。
Further, the
また、出力装置100は、出力装置100を利用するユーザの物理的な状態を検知するセンサである物理センサを備える。例えば、出力装置100は、ジャイロセンサ、画像センサ、加速度センサ、温度センサ、音量センサ、明度センサ等、任意の物理センサを備える。出力装置100は、物理センサによって出力装置100を利用するユーザの物理的な状態を検知する。また、出力装置100は、物理センサによってユーザの物理的な状態に関する情報であるセンサ情報を取得する。出力装置100は、取得したセンサ情報に基づいて、ユーザに対して反応情報を出力するタイミングを判定する。図1に示す例では、出力装置100は、取得したセンサ情報に基づいて、ユーザに対して反応情報を音声によって出力するタイミングであるか否かを判定する。
Further, the
ここから、図1を用いて、出力処理の流れについて説明する。図1は、実施形態に係る出力処理の一例を示す図である。図1に示す例では、出力装置100は、音量センサによって、ユーザによる発話を示すユーザの音声に関する音声情報を取得する(ステップS11)。出力装置100は、音声情報を取得すると、取得した音声情報に基づいて、ユーザに対して反応情報を出力するタイミングであるか否かを判定する(ステップS12)。具体的には、出力装置100は、対話システムに対するユーザの発話から所定の期間が経過したタイミングであるか否かを判定する。例えば、出力装置100は、取得した音声情報に基づいて、対話システムに対するユーザの発話から所定の期間(例えば、30秒)が経過したタイミングであると判定した場合、ユーザに対して反応情報を出力するタイミングであると判定する。続いて、出力装置100は、ユーザに対して反応情報を出力するタイミングであると判定した場合、コンテンツの配信要求をコンテンツ配信装置20に対して送信する(ステップS13)。
From here, the flow of output processing will be described with reference to FIG. FIG. 1 is a diagram showing an example of output processing according to the embodiment. In the example shown in FIG. 1, the
コンテンツ配信装置20は、コンテンツの配信要求を出力装置100から受け付ける。コンテンツ配信装置20は、コンテンツの配信要求を受け付けると、要求元の出力装置100を利用するユーザを特定する。続いて、コンテンツ配信装置20は、ユーザを特定すると、ユーザに応じたコンテンツを選択する(ステップS14)。コンテンツ配信装置20は、コンテンツを選択すると、選択したコンテンツを出力装置100に配信する。具体的には、コンテンツ配信装置20は、ネット通販会社であるA社で労働組合が結成されたことに関するニュース記事であるコンテンツ#1を出力装置100に配信する。
The
出力装置100は、コンテンツ配信装置20からコンテンツ#1を取得する(ステップS15)。出力装置100は、コンテンツ#1を取得すると、取得したコンテンツ#1をモデルM1に入力することにより、コンテンツ#1に対する反応を示す文字情報である反応情報#1を生成する(ステップS16)。具体的には、出力装置100は、コンテンツ#1の要約に相当する文字情報である「A社で労働組合が結成されたみたいです。」というサマリ情報R11を生成する。また、出力装置100は、ユーザとのコンテンツ#1に関連する対話の契機となる文字情報である契機情報R12を生成する。より具体的には、出力装置100は、コンテンツ#1に対する意見をユーザに要求する文字情報である「ストが起きますかね?」という契機情報R12を生成する。出力装置100は、サマリ情報R11と契機情報R12とを含む反応情報#1を生成する。出力装置100は、反応情報#1を生成すると、生成した反応情報#1を取得する。なお、図1では、反応情報#1がサマリ情報R11と契機情報R12の両方を含む文字情報である例について説明したが、反応情報#1はサマリ情報R11を含まなくてもよい。すなわち、反応情報#1が契機情報R12であってもよい。
The
出力装置100は、反応情報#1を取得すると、反応情報#1を音声出力する(ステップS17)。具体的には、出力装置100は、サマリ情報R11を音声出力した後に契機情報R12を音声出力する。
When the
上述したように、出力装置100は、対話システムにユーザにより入力される第1情報以外の第2情報に対する反応として生成された文字情報である反応情報を取得する。また、出力装置100は、取得した反応情報をユーザに対して出力する。これにより、出力装置100は、対話システムに対するユーザからの働きかけがなくとも、ニュース記事等に関連する対話の契機となる文字情報を自発的に出力することができる。すなわち、出力装置100は、装置から人へ自発的に適切に話しかけることができる。したがって、出力装置100は、対話システムへのユーザによる入力に寄らずに適切な情報を出力するができる。
As described above, the
〔2.出力装置の構成〕
次に、図2を用いて、実施形態に係る出力装置100の構成について説明する。図2は、実施形態に係る出力装置100の構成例を示す図である。図2に示すように、出力装置100は、通信部110と、記憶部120と、入力部130と、表示部140と、物理センサ150と、制御部160とを有する。
[2. Output device configuration]
Next, the configuration of the
(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークNと有線または無線で接続され、コンテンツ配信装置20との間で情報の送受信を行う。
(Communication unit 110)
The
(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部14は、例えば、出力プログラム等を記憶する。また、記憶部14は、図2に示すように、センサ情報記憶部121とコンテンツ記憶部122と反応情報記憶部123とモデル情報記憶部124と学習データ記憶部125とを有する。
(Memory unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory (Flash Memory), or a storage device such as a hard disk or an optical disk. The storage unit 14 stores, for example, an output program or the like. Further, as shown in FIG. 2, the storage unit 14 includes a sensor
(センサ情報記憶部121)
センサ情報記憶部121は、物理センサによる検知に関する各種情報を記憶する。例えば、センサ情報記憶部121は、物理センサにより検知されたセンサ情報を記憶する。図3を用いて、実施形態に係るセンサ情報記憶部の一例について説明する。図3は、実施形態に係るセンサ情報記憶部の一例を示す図である。図3に示す例では、センサ情報記憶部121は、「ログID」、「種別」、「センサ情報」、「日時」、「位置」といった項目を有する。
(Sensor information storage unit 121)
The sensor
「ログID」は、取得されたセンサ情報を識別するための識別情報を示す。「種別」は、検知されたセンサ情報の種別に関する情報を示す。「センサ情報」は、検知されたセンサ情報を示す。図3では「センサ情報」に「SN11」といった概念的な情報が格納される例を示したが、実際には、具体的に検知された情報(センサデータ)、または、その格納場所を示すファイルパス名などが格納されてもよい。 The "log ID" indicates identification information for identifying the acquired sensor information. “Type” indicates information regarding the type of detected sensor information. “Sensor information” indicates the detected sensor information. In FIG. 3, an example in which conceptual information such as “SN11” is stored in “sensor information” is shown, but in reality, specifically detected information (sensor data) or a file indicating the storage location thereof is shown. The path name and the like may be stored.
例えば、センサ情報の種別「画像」である場合、「センサ情報」には、ユーザの姿をとらえた静止画像や動画像、または、これらの格納場所を示すファイルパス名などが格納される。また、例えば、センサ情報の種別「発話」である場合、「センサ情報」には、ユーザの発話を示す音声データや音声データを変換後の文字情報、または、これらの格納場所を示すファイルパス名などが格納される。 For example, in the case of the type of sensor information "image", the "sensor information" stores a still image or a moving image that captures the user's appearance, or a file path name indicating the storage location thereof. Further, for example, in the case of the sensor information type "utterance", the "sensor information" includes voice data indicating the user's utterance, character information after converting the voice data, or a file path name indicating the storage location thereof. Etc. are stored.
「日時」は、センサ情報が検知された日時を示す。図3では「日時」を「dt11」等のように抽象的に図示するが、「2019年3月23日22時31分52秒」等の具体的な日時が記憶されてもよい。なお、「日時」は、時点に限らず、「2019年3月23日22時31分」や「2019年3月23日22時30−31分」等の所定の期間であってもよい。また、「位置」は、対応する行動が行われた位置を示す。なお、図3では「位置」を「LC11」といった抽象的な符号で図示するが、緯度や経度を示す情報や「X県Y市Z町B交差点」等のような住所を示す情報が記憶されてもよい。 “Date and time” indicates the date and time when the sensor information was detected. In FIG. 3, the “date and time” is abstractly illustrated as “dt11” or the like, but a specific date and time such as “March 23, 2019 22:31:52” may be stored. The "date and time" is not limited to the time point, and may be a predetermined period such as "March 23, 2019 22:31" or "March 23, 2019 22:30-31". Further, the "position" indicates the position where the corresponding action was performed. Although the "position" is illustrated by an abstract code such as "LC11" in FIG. 3, information indicating latitude and longitude and information indicating an address such as "B intersection in Z town, Y city, X prefecture" are stored. You may.
(コンテンツ記憶部122)
コンテンツ記憶部122は、コンテンツに関する各種情報を記憶する。例えば、コンテンツ記憶部122は、コンテンツ配信装置20から取得したコンテンツに関する情報を記憶する。例えば、コンテンツ記憶部122は、ニュース記事、SNS(Social Networking Service)における投稿情報、広告、映画等のレビューであるコンテンツに関する情報を記憶する。例えば、コンテンツ記憶部122は、コンテンツを形成するHTMLファイルや、コンテンツに表示される文字情報や静止画像や動画像を記憶する。図4を用いて、実施形態に係るコンテンツ記憶部の一例について説明する。図4は、実施形態に係るコンテンツ記憶部の一例を示す図である。図4に示す例では、コンテンツ記憶部122は、「コンテンツID」、「コンテンツ」、「取得日時」といった項目を有する。
(Content storage unit 122)
The
「コンテンツID」は、コンテンツを識別するための識別情報を示す。「コンテンツ」は、ニュース記事やSNSにおける投稿情報や広告や映画のレビュー等のコンテンツに含まれる文字情報を示す。図4では「コンテンツ」に「コンテンツ#11」といった概念的な情報が格納される例を示したが、実際には、具体的なコンテンツ(を形成するHTMLファイル)、または、その格納場所を示すファイルパス名などが格納されてもよい。また、「コンテンツ」には、ニュース記事やSNSにおける投稿情報や広告や映画のレビュー等に表示される静止画像や動画像が記憶されてもよい。あるいは、「コンテンツ」には、ニュース記事やSNSにおける投稿情報や広告や映画等のレビューに表示される画像情報を解析した結果これらの画像情報から抽出される文字情報が記憶されてもよい。「取得日時」は、コンテンツが取得された日時を示す。 The "content ID" indicates identification information for identifying the content. "Content" indicates text information included in content such as news articles, posted information on SNS, advertisements, and movie reviews. In FIG. 4, an example in which conceptual information such as "content # 11" is stored in "content" is shown, but in reality, specific content (HTML file forming) or its storage location is shown. The file path name and the like may be stored. Further, the "content" may store a still image or a moving image displayed in a news article, posted information on an SNS, an advertisement, a movie review, or the like. Alternatively, the "content" may store character information extracted from these image information as a result of analyzing image information displayed in news articles, posted information in SNS, and reviews of advertisements, movies, and the like. "Acquisition date and time" indicates the date and time when the content was acquired.
(反応情報記憶部123)
反応情報記憶部123は、反応情報に関する各種情報を記憶する。例えば、反応情報記憶部123は、出力装置100が生成した反応情報を記憶する。図5を用いて、実施形態に係る反応情報記憶部の一例について説明する。図5は、実施形態に係る反応情報記憶部の一例を示す図である。図5に示す例では、反応情報記憶部123は、「反応ID」、「反応情報」、「ユーザによる応答」、「生成日時」、「コンテンツID」といった項目を有する。
(Reaction information storage unit 123)
The reaction information storage unit 123 stores various information related to the reaction information. For example, the reaction information storage unit 123 stores the reaction information generated by the
「反応ID」は、反応情報を識別するための識別情報を示す。「反応情報」は、コンテンツIDで識別されるコンテンツに対する反応を示す文字情報を示す。「コンテンツID」は、反応の対象となるコンテンツを識別するための識別情報を示す。「ユーザによる応答」は、反応情報に対するユーザの応答の有無を示す。具体的には、反応情報に対するユーザによる応答があった場合は「1」を、反応情報に対するユーザによる応答がなかった場合は「0」が格納される。「生成日時」は、反応情報が生成された日時を示す。 The "reaction ID" indicates identification information for identifying the reaction information. The "reaction information" indicates character information indicating a reaction to the content identified by the content ID. The "content ID" indicates identification information for identifying the content to be reacted. "Response by the user" indicates whether or not the user responds to the reaction information. Specifically, "1" is stored when there is a response from the user to the reaction information, and "0" is stored when there is no response from the user to the reaction information. "Generation date and time" indicates the date and time when the reaction information was generated.
(モデル情報記憶部124)
モデル情報記憶部124は、対話システムにユーザにより入力される第1情報以外の第2情報に対する反応を示す文字情報である反応情報を生成するモデルに関する各種情報を記憶する。例えば、モデル情報記憶部124は、対話システムにユーザにより入力される第1情報以外の第2情報を入力すると、第2情報に対する反応を示す文字情報である反応情報を出力するモデルを記憶する。図6を用いて、実施形態に係るモデル情報記憶部の一例について説明する。図6は、実施形態に係るモデル情報記憶部の一例を示す図である。図6に示す例では、モデル情報記憶部124は、「モデルID」、「モデルデータ」といった項目を有する。
(Model information storage unit 124)
The model information storage unit 124 stores various information related to the model that generates reaction information, which is character information indicating a reaction to the second information other than the first information input by the user to the dialogue system. For example, the model information storage unit 124 stores a model that outputs reaction information, which is character information indicating a reaction to the second information, when the second information other than the first information input by the user is input to the dialogue system. An example of the model information storage unit according to the embodiment will be described with reference to FIG. FIG. 6 is a diagram showing an example of a model information storage unit according to the embodiment. In the example shown in FIG. 6, the model information storage unit 124 has items such as "model ID" and "model data".
「モデルID」は、反応情報を生成するモデルを識別するための識別情報を示す。「モデルデータ」は、モデルのモデルデータを示す。例えば、「モデルデータ」には、対話システムにユーザにより入力される第1情報以外の第2情報から第2情報に対する反応を示す文字情報である反応情報を生成するためのデータが格納される。 The "model ID" indicates identification information for identifying a model that generates reaction information. "Model data" indicates model data of a model. For example, the "model data" stores data for generating reaction information, which is character information indicating a reaction to the second information from the second information other than the first information input by the user to the dialogue system.
ここで、図7を用いて、実施形態に係るモデルの一例について説明する。図7に、実施形態に係るモデルの一例を示す。図7では、対話システムにユーザにより入力される第1情報以外の第2情報から第2情報に対する反応を示す文字情報である反応情報を生成するモデルM1がSeq2Seq(Sequence to Sequence Model)である例について説明する。Seq2Seqは、語句の並び(文字列)を入力して、別の語句の並び(文字列)を出力するルールを学習するモデルである。具体的には、Seq2Seqは、RNN(Recurrent Neural Network)の一種であるLSTM(Long Short Term Memory)を構成要素とするEncoder-Decoderモデルである。 Here, an example of the model according to the embodiment will be described with reference to FIG. 7. FIG. 7 shows an example of the model according to the embodiment. In FIG. 7, an example in which the model M1 that generates reaction information, which is character information indicating a reaction to the second information from the second information other than the first information input by the user to the dialogue system, is a Seq2Seq (Sequence to Sequence Model). Will be described. Seq2Seq is a model for learning a rule for inputting a sequence of words (character string) and outputting another sequence of words (character string). Specifically, Seq2Seq is an Encoder-Decoder model whose component is LSTM (Long Short Term Memory), which is a kind of RNN (Recurrent Neural Network).
図7に示す例では、「ABC」という文字列を入力して、「WXYZ」という文字列を出力する例を示す。図1に示す例に当てはめると、「ABC」は、「ネット通販大手A社で労働組合が結成された。「恣意的な人事評価」の廃止を訴えている。」というニュース記事であるコンテンツ#1の文字情報である。また、「WXYZ」は、「A社で労働組合が結成されたみたいです。ストが起きますかね?」というコンテンツ#1に対する反応を示す文字情報である。このような「ABC」(ニュース記事であるコンテンツ#1)と「WXYZ」(コンテンツ#1に対する応答を示す反応情報#1)の組があった場合、Seq2SeqであるモデルM1は、図7の「ABC」が入力されているEncoder側で「ABC」をベクトル化し、図7の「WXYZ」が出力されているDecoder側で「WXYZ」を生成するようにRNNの学習を行う。
In the example shown in FIG. 7, an example in which the character string "ABC" is input and the character string "WXYZ" is output is shown. Applying the example shown in Fig. 1, "ABC" is appealing for the abolition of "arbitrary personnel evaluation", "a labor union was formed by a major online shopping company A." This is the character information of the
モデルデータMDT1は、第2情報が入力される入力層と、出力層と、入力層から出力層までのいずれかの層であって出力層以外の層に属する第1要素と、第1要素と第1要素の重みとに基づいて値が算出される第2要素と、を含み、入力層に入力された第2情報に応じて、入力層に入力された第2情報に対する反応を示す反応情報を出力層から出力するよう、出力装置100を機能させてもよい。
The model data MDT1 includes an input layer into which the second information is input, an output layer, a first element which is any layer from the input layer to the output layer and belongs to a layer other than the output layer, and the first element. Reaction information that includes a second element whose value is calculated based on the weight of the first element, and indicates a reaction to the second information input to the input layer according to the second information input to the input layer. The
ここで、モデルデータMDT1が「y=a1*x1+a2*x2+・・・+ai*xi」で示す回帰モデルで実現されるとする。この場合、モデルデータMDT1が含む第1要素は、x1やx2等といった入力データ(xi)に対応する。また、第1要素の重みは、xiに対応する係数aiに対応する。ここで、回帰モデルは、入力層と出力層とを有する単純パーセプトロンと見做すことができる。各モデルを単純パーセプトロンと見做した場合、第1要素は、入力層が有するいずれかのノードに対応し、第2要素は、出力層が有するノードと見做すことができる。 Here, it is assumed that the model data MDT1 is realized by the regression model represented by "y = a1 * x1 + a2 * x2 + ... + ai * xi". In this case, the first element included in the model data MDT1 corresponds to input data (xi) such as x1 and x2. Further, the weight of the first element corresponds to the coefficient ai corresponding to xi. Here, the regression model can be regarded as a simple perceptron having an input layer and an output layer. When each model is regarded as a simple perceptron, the first element corresponds to any node of the input layer, and the second element can be regarded as the node of the output layer.
また、モデルデータMDT1がDNN(Deep Neural Network)等、1つまたは複数の中間層を有するニューラルネットワークで実現されるとする。この場合、モデルデータMDT1が含む第1要素は、入力層または中間層が有するいずれかのノードに対応する。また、第2要素は、第1要素と対応するノードから値が伝達されるノードである次段のノードに対応する。また、第1要素の重みは、第1要素と対応するノードから第2要素と対応するノードに伝達される値に対して考慮される重みである接続係数に対応する。 Further, it is assumed that the model data MDT1 is realized by a neural network having one or a plurality of intermediate layers such as DNN (Deep Neural Network). In this case, the first element included in the model data MDT1 corresponds to either the node of the input layer or the intermediate layer. Further, the second element corresponds to a node in the next stage, which is a node to which a value is transmitted from a node corresponding to the first element. Further, the weight of the first element corresponds to a connection coefficient which is a weight considered for the value transmitted from the node corresponding to the first element to the node corresponding to the second element.
出力装置100は、上述した回帰モデルやニューラルネットワーク等、任意の構造を有するモデルを用いて、反応情報の出力を行う。具体的には、モデルデータMDT1は、第2情報が入力された場合に、第2情報に対する反応を示す反応情報を出力するように係数が設定される。出力装置100は、このようなモデルデータMDT1を用いて、第2情報に対する反応を示す反応情報を出力する。
The
なお、上記例では、モデルデータMDT1が、第2情報が入力された場合に、第2情報に対する反応を示す反応情報を出力するモデル(以下、モデルXという。)である例を示した。しかし、実施形態に係るモデルデータMDT1は、モデルXにデータの入出力を繰り返すことで得られる結果に基づいて生成されるモデルであってもよい。例えば、モデルデータMDT1は、第2情報を入力とした際に、モデルXが出力した第2情報に対する反応を示す反応情報を入力して学習されたモデル(以下、モデルYという。)であってもよい。または、モデルデータMDT1は、第2情報を入力とし、モデルYの出力値を出力とするよう学習されたモデルであってもよい。 In the above example, the model data MDT1 is a model (hereinafter referred to as model X) that outputs reaction information indicating a reaction to the second information when the second information is input. However, the model data MDT1 according to the embodiment may be a model generated based on the result obtained by repeating the input / output of data to the model X. For example, the model data MDT1 is a model (hereinafter referred to as model Y) learned by inputting reaction information indicating a reaction to the second information output by the model X when the second information is input. May be good. Alternatively, the model data MDT1 may be a model trained to input the second information and output the output value of the model Y.
また、出力装置100がGAN(Generative Adversarial Networks)を用いた推定処理を行う場合、モデルデータMDT1は、GANの一部を構成するモデルであってもよい。
Further, when the
(学習データ記憶部125)
学習データ記憶部125は、モデルの学習データ(正解データ)に関する各種情報を記憶する。例えば、学習データ記憶部125は、コンテンツと、そのコンテンツに対する反応を示す文字情報である反応情報を記憶する。図8を用いて、実施形態に係る学習データ記憶部の一例について説明する。図8は、実施形態に係る学習データ記憶部の一例を示す図である。図8に示す例では、学習データ記憶部125は、「学習データID」、「コンテンツ」、「反応情報」、「日時」といった項目を有する。
(Learning data storage unit 125)
The learning
「学習データID」は、学習データを識別するための識別情報を示す。「コンテンツ」は、ニュース記事、SNS(Social Networking Service)における投稿情報、広告、映画のレビュー等のコンテンツに含まれる文字情報を示す。図8では「コンテンツ」に「コンテンツ#1-1」といった概念的な情報が格納される例を示したが、実際には、具体的なコンテンツ(を形成するHTMLファイル)、または、その格納場所を示すファイルパス名などが格納されてもよい。また、「コンテンツ」には、ニュース記事やSNSにおける投稿情報や広告や映画のレビュー等に表示される静止画像や動画像が記憶されてもよい。あるいは、「コンテンツ」には、ニュース記事やSNSにおける投稿情報や広告や映画等のレビューに表示される画像情報を解析した結果これらの画像情報から抽出される文字情報が記憶されてもよい。「反応情報」は、コンテンツに対する反応を示す文字情報を示す。「日時」は、モデルが学習データを学習した日時を示す。 The "learning data ID" indicates identification information for identifying the learning data. “Content” indicates text information included in content such as news articles, posted information on SNS (Social Networking Service), advertisements, and movie reviews. In FIG. 8, an example in which conceptual information such as “content # 1-1” is stored in “content” is shown, but in reality, specific content (HTML file forming) or its storage location is shown. A file path name indicating the above may be stored. Further, the "content" may store a still image or a moving image displayed in a news article, posted information on an SNS, an advertisement, a movie review, or the like. Alternatively, the "content" may store character information extracted from these image information as a result of analyzing image information displayed in news articles, posted information in SNS, and reviews of advertisements, movies, and the like. "Reaction information" indicates character information indicating a reaction to the content. "Date and time" indicates the date and time when the model learned the training data.
(入力部130)
入力部130は、ユーザから各種操作を受け付ける入力装置である。例えば、入力部130は、キーボードやマウスや操作キー等によって実現される。
(Input unit 130)
The input unit 130 is an input device that receives various operations from the user. For example, the input unit 130 is realized by a keyboard, a mouse, operation keys, or the like.
(表示部140)
表示部140は、各種情報を表示するための表示装置であり、すなわち、画面である。例えば、表示部140は、液晶ディスプレイ等によって実現される。なお、出力装置100にタッチパネルが採用される場合には、入力部130と表示部140とは一体化される。また、以下の説明では、表示部140を画面と記載する場合がある。
(Display unit 140)
The display unit 140 is a display device for displaying various information, that is, a screen. For example, the display unit 140 is realized by a liquid crystal display or the like. When a touch panel is adopted for the
(物理センサ150)
物理センサ150は、出力装置100を利用するユーザの物理的な状態を検知するセンサである。例えば、物理センサ150は、出力装置100の3軸方向の傾きを測定するジャイロセンサ、画像センサ、加速度センサ、温度センサ、音量センサ、明度センサ等、任意のセンサが適用可能である。
(Physical sensor 150)
The
物理センサ150は、出力装置100を利用するユーザの物理的な状態に関する情報であるセンサ情報を取得する。物理センサ150は、センサ情報を取得すると、取得したセンサ情報をセンサ情報記憶部121に格納する。具体的には、音量センサである物理センサ150は、ユーザによる発話を示すユーザの音声に関する音声情報を取得する。音量センサである物理センサ150は、音声情報を取得すると、取得した音声情報をセンサ情報記憶部121に格納する。また、画像センサである物理センサ150は、ユーザの画像に関する画像情報を取得する。画像センサである物理センサ150は、画像情報を取得すると、取得した画像情報をセンサ情報記憶部121に格納する。また、加速度センサである物理センサ150は、ユーザの動きに伴う加速度に関する加速度情報を取得する。加速度センサである物理センサ150は、加速度情報を取得すると、取得した加速度情報をセンサ情報記憶部121に格納する。
The
(制御部160)
制御部160は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、出力装置100内部の記憶装置に記憶されている各種プログラム(出力プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。例えば、この各種プログラムは、ウェブブラウザと呼ばれるアプリケーションプログラムに該当する。また、制御部160は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
(Control unit 160)
In the control unit 160, various programs (corresponding to an example of the output program) stored in the storage device inside the
図2に示すように、制御部160は、判定部161と、要求部162と、生成部163と、取得部164と、出力部165とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部160の内部構成は、図2に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。
As shown in FIG. 2, the control unit 160 includes a determination unit 161, a request unit 162, a
(判定部161)
判定部161は、ユーザに対して反応情報を出力するタイミングであるか否かを判定する。具体的には、判定部161は、センサ情報記憶部121を参照して、出力装置100を利用するユーザの物理的な状態に関する情報であるセンサ情報を取得する。続いて、判定部161は、センサ情報を取得すると、取得したセンサ情報に基づいて、ユーザに対して反応情報を出力するタイミングであるか否かを判定する。
(Judgment unit 161)
The determination unit 161 determines whether or not it is time to output reaction information to the user. Specifically, the determination unit 161 refers to the sensor
また、判定部161は、対話システムに対するユーザによる第2情報の要求以外のタイミングであるか否かを判定する。より具体的には、出力部165は、ユーザのコンテキストに基づくタイミングであるか否かを判定する。図1に示す例では、出力部165は、対話システムに対するユーザの発話から所定の期間が経過したタイミングであるか否かを判定する。図1に示す例では、判定部161は、センサ情報記憶部121を参照して、ログLG1等の音声情報を取得する。続いて、判定部161は、音声情報を取得すると、取得した音声情報に基づいて、対話システムに対するユーザの発話から所定の期間(例えば、30秒)が経過したタイミングであるか否かを判定する。判定部161は、対話システムに対するユーザの発話から所定の期間(例えば、30秒)が経過したタイミングであると判定した場合、ユーザに対して反応情報を出力するタイミングであると判定する。
Further, the determination unit 161 determines whether or not the timing is other than the request of the second information by the user to the dialogue system. More specifically, the output unit 165 determines whether or not the timing is based on the user's context. In the example shown in FIG. 1, the output unit 165 determines whether or not it is the timing when a predetermined period has elapsed from the user's utterance to the dialogue system. In the example shown in FIG. 1, the determination unit 161 refers to the sensor
なお、判定部161は、ユーザの位置情報に基づいてユーザに対して反応情報を出力するタイミングであるか否かを判定してもよい。例えば、判定部161は、センサ情報記憶部121の「位置」に格納された位置情報を参照して、出力装置100を利用するユーザの位置情報を取得する。続いて、判定部161は、取得した位置情報に基づいて、ユーザが屋内にいるか屋外にいるかを判定する。例えば、判定部161は、ユーザがユーザの自宅にいると判定した場合、ユーザに対して反応情報を出力するタイミングであると判定してもよい。また、判定部161は、ユーザが公園にいると判定した場合、ユーザに対して反応情報を出力するタイミングであると判定してもよい。
The determination unit 161 may determine whether or not it is the timing to output the reaction information to the user based on the user's position information. For example, the determination unit 161 refers to the position information stored in the “position” of the sensor
(要求部162)
要求部162は、コンテンツの配信を要求する。具体的には、要求部162は、判定部161によってユーザに対して反応情報を出力するタイミングであると判定された場合、コンテンツの配信要求をコンテンツ配信装置20に対して送信する。また、要求部162は、コンテンツ配信装置20からコンテンツを受信する。要求部162は、コンテンツを受信すると、受信したコンテンツをコンテンツ記憶部122に格納する。
(Request unit 162)
The request unit 162 requests the distribution of the content. Specifically, the request unit 162 transmits a content distribution request to the
(生成部163)
生成部163は、第2情報から反応情報を生成する。具体的には、生成部163は、対話システムにユーザにより入力される第1情報以外の第2情報を取得する。より具体的には、生成部163は、非タスク志向型対話システムである対話システムにユーザにより入力される第1情報以外の第2情報を取得する。また、生成部163は、ユーザに応じて選択される第2情報を取得する。例えば、生成部163は、所定のコンテンツである第2情報を取得する。図1に示す例では、生成部163は、ニュース記事である第2情報を取得する。より具体的には、生成部163は、コンテンツ記憶部122を参照して、ニュース記事であるコンテンツ#1を取得する。
(Generator 163)
The
続いて、生成部163は、第2情報を取得すると、取得した第2情報を所定のモデルに入力することにより、反応情報を生成する。生成部163は、反応情報を生成すると、生成した反応情報を反応情報記憶部123に格納する。より具体的には、生成部163は、第2情報を取得すると、モデル情報記憶部124を参照して、モデルM1を取得する。例えば、生成部163は、対話システムにユーザにより入力される第1情報以外の第2情報を入力すると、第2情報に対する反応を示す文字情報である反応情報を出力するモデルM1を取得する。例えば、生成部163は、対話システムにユーザにより入力される第1情報以外の第2情報を入力すると、第2情報に対する反応を示す文字情報である反応情報を出力するSeq2SeqであるモデルM1を取得する。続いて、生成部163は、モデルM1を取得すると、取得したモデルM1に第2情報を入力する。生成部163は、モデルM1の出力情報を反応情報として取得する。このようにして、生成部163は、対話システムにユーザにより入力される第1情報以外の第2情報に対する反応を示す文字情報である反応情報を生成する。より具体的には、生成部163は、非タスク志向型対話システムである対話システムにユーザにより入力される第1情報以外の第2情報に対する反応情報を生成する。また、生成部163は、ユーザに応じて選択される第2情報に対する反応情報を生成する。例えば、生成部163は、所定のコンテンツである第2情報に対する反応情報を生成する。図1に示す例では、生成部163は、ニュース記事である第2情報に対する反応情報を生成する。より具体的には、生成部163は、コンテンツ配信装置20によってユーザに応じて選択されたニュース記事であるコンテンツ#1に対する反応を示す反応情報を生成する。
Subsequently, when the
また、生成部163は、第2情報の要約であるサマリ情報を生成する。図1に示す例では、生成部163は、ニュース記事であるコンテンツ#1の要約に相当する文字情報である「A社で労働組合が結成されたみたいです。」というサマリ情報R11を生成する。また、生成部163は、ユーザとの第2情報に関連する対話の契機となる反応情報を生成する。例えば、生成部163は、第2情報に対する意見をユーザに要求する反応情報を取得する。図1に示す例では、生成部163は、ニュース記事であるコンテンツ#1に対する意見をユーザに要求する文字情報である「ストが起きますかね?」という契機情報R12を生成する。生成部163は、サマリ情報R11と契機情報R12とを含む反応情報#1を生成する。なお、図1では、生成部163が、サマリ情報R11と契機情報R12の両方を含む反応情報#1を生成する例について説明したが、サマリ情報R11を含まない反応情報#1を生成してもよい。すなわち、生成部163は、契機情報R12である反応情報#1を生成してもよい。
In addition, the
(取得部164)
取得部164は、生成部163により生成された反応情報を取得する。具体的には、取得部164は、対話システムにユーザにより入力される第1情報以外の第2情報に対する反応として生成された文字情報である反応情報を取得する。より具体的には、取得部164は、具体的には、取得部164は、非タスク志向型対話システムである対話システムにユーザにより入力される第1情報以外の第2情報に対する反応情報を取得する。例えば、取得部164は、所定のコンテンツである第2情報に対する反応情報を取得する。また、取得部164は、ユーザに応じて選択される第2情報に対する反応情報を取得する。図1に示す例では、取得部164は、ニュース記事である第2情報に対する反応情報を取得する。より具体的には、取得部164は、コンテンツ配信装置20によってユーザに応じて選択されたニュース記事であるコンテンツ#1に対する反応を示す反応情報を取得する。
(Acquisition unit 164)
The acquisition unit 164 acquires the reaction information generated by the
また、取得部164は、第2情報の要約であるサマリ情報を取得する。図1に示す例では、取得部164は、ニュース記事であるコンテンツ#1の要約に相当する文字情報である「A社で労働組合が結成されたみたいです。」というサマリ情報R11を取得する。また、取得部164は、ユーザとの第2情報に関連する対話の契機となる反応情報を取得する。例えば、取得部164は、第2情報に対する意見をユーザに要求する反応情報を取得する。図1に示す例では、取得部164は、ニュース記事であるコンテンツ#1に対する意見をユーザに要求する文字情報である「ストが起きますかね?」という契機情報R12を取得する。取得部164は、サマリ情報R11と契機情報R12とを含む反応情報#1を取得する。なお、図1では、取得部164が、サマリ情報R11と契機情報R12の両方を含む反応情報#1を取得する例について説明したが、サマリ情報R11を含まない反応情報#1を取得してもよい。すなわち、取得部164は、契機情報R12である反応情報#1を取得してもよい。
In addition, the acquisition unit 164 acquires summary information which is a summary of the second information. In the example shown in FIG. 1, the acquisition unit 164 acquires the summary information R11 that is the text information corresponding to the summary of the
(出力部165)
出力部165は、取得部164により取得された反応情報をユーザに対して出力する。具体的には、出力部165は、判定部161によってユーザに対して反応情報を出力するタイミングであると判定された場合に、取得部164により取得された反応情報をユーザに対して出力する。より具体的には、出力部165は、対話システムに対するユーザによる第2情報の要求以外のタイミングで、反応情報を出力する。例えば、出力部165は、ユーザのコンテキストに基づくタイミングで、反応情報を出力する。図1に示す例では、出力部165は、対話システムに対するユーザの発話から所定の期間が経過したタイミングで、反応情報を出力する。
(Output unit 165)
The output unit 165 outputs the reaction information acquired by the acquisition unit 164 to the user. Specifically, the output unit 165 outputs the reaction information acquired by the acquisition unit 164 to the user when the determination unit 161 determines that it is the timing to output the reaction information to the user. More specifically, the output unit 165 outputs reaction information at a timing other than the user's request for the second information to the dialogue system. For example, the output unit 165 outputs reaction information at a timing based on the user's context. In the example shown in FIG. 1, the output unit 165 outputs reaction information at a timing when a predetermined period has elapsed from the user's utterance to the dialogue system.
また、出力部165は、サマリ情報と反応情報とを出力する。より具体的には、出力部165は、サマリ情報を出力した後に反応情報を出力する。また、出力部165は、反応情報を音声出力する。図1に示す例では、出力部165は、サマリ情報R11を音声出力した後に契機情報R12を音声出力する。 Further, the output unit 165 outputs summary information and reaction information. More specifically, the output unit 165 outputs the reaction information after outputting the summary information. Further, the output unit 165 outputs the reaction information by voice. In the example shown in FIG. 1, the output unit 165 outputs the summary information R11 by voice and then outputs the trigger information R12 by voice.
〔3.出力処理のフロー〕
次に、図9を用いて、実施形態に係る出力処理の手順について説明する。図9は、第1の実施形態に係る出力処理手順を示すフローチャートである。図9に示す例では、出力装置100は、センサ情報に基づいて、反応情報を出力するタイミングであるか否かを判定する(ステップS101)。出力装置100は、反応情報を出力するタイミングでないと判定した場合(ステップS101;No)、処理を終了する。
[3. Output processing flow]
Next, the procedure of output processing according to the embodiment will be described with reference to FIG. FIG. 9 is a flowchart showing an output processing procedure according to the first embodiment. In the example shown in FIG. 9, the
一方、出力装置100は、反応情報を出力するタイミングであると判定した場合(ステップS101;Yes)、コンテンツ配信装置20から所定のコンテンツを取得する(ステップS102)。続いて、出力装置100は、所定のコンテンツを取得すると、所定のコンテンツに対する反応情報を生成する(ステップS103)。続いて、出力装置100は、反応情報を生成すると、生成した反応情報を出力する(ステップS104)。
On the other hand, when the
〔4.コンテンツ配信装置の構成〕
次に、図10を用いて、実施形態に係るコンテンツ配信装置20の構成について説明する。図10は、実施形態に係るコンテンツ配信装置20の構成例を示す図である。図10に示すように、コンテンツ配信装置20は、通信部21と、記憶部22と、制御部23とを有する。
[4. Configuration of content distribution device]
Next, the configuration of the
(通信部21)
通信部21は、例えば、NIC等によって実現される。そして、通信部21は、ネットワークNと有線または無線で接続され、出力装置100との間で情報の送受信を行う。
(Communication unit 21)
The communication unit 21 is realized by, for example, a NIC or the like. Then, the communication unit 21 is connected to the network N by wire or wirelessly, and transmits / receives information to / from the
(記憶部22)
記憶部22は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。また、記憶部14は、図10に示すように、ユーザ情報記憶部221とコンテンツ記憶部222とを有する。
(Memory unit 22)
The
(ユーザ情報記憶部221)
ユーザ情報記憶部221は、ユーザに関する各種情報を記憶する。図11を用いて、実施形態に係るユーザ情報記憶部の一例について説明する。図11は、実施形態に係るユーザ情報記憶部の一例を示す図である。図11に示す例では、ユーザ情報記憶部221は、「ユーザID」、「ユーザ情報」といった項目を有する。
(User information storage unit 221)
The user information storage unit 221 stores various information about the user. An example of the user information storage unit according to the embodiment will be described with reference to FIG. FIG. 11 is a diagram showing an example of a user information storage unit according to the embodiment. In the example shown in FIG. 11, the user information storage unit 221 has items such as "user ID" and "user information".
「ユーザID」は、ユーザを識別するための識別情報を示す。「ユーザ情報」は、ユーザに関する情報を示す。例えば、「ユーザ情報」は、ユーザが興味や関心を抱いているジャンルやトピック、趣味や嗜好に関するキーワードである。なお、「ユーザ情報」には、ユーザの年齢、性別、居住地、家族のライフサイクル、所得、職業といったユーザのデモグラフィック情報が含まれてもよい。また、「ユーザ情報」は、ユーザの価値観、ライフスタイル、性格、好みなどのサイコグラフィック情報が含まれてもよい。 The "user ID" indicates identification information for identifying the user. "User information" indicates information about the user. For example, "user information" is a keyword related to a genre or topic, hobby or preference that the user is interested in. The "user information" may include user demographic information such as the user's age, gender, place of residence, family life cycle, income, and occupation. Further, the "user information" may include psychographic information such as a user's sense of values, lifestyle, personality, and preference.
(コンテンツ記憶部222)
コンテンツ記憶部222は、コンテンツに関する各種情報を記憶する。例えば、コンテンツ記憶部222は、ニュース記事、SNSにおける投稿情報、広告、映画等のレビューであるコンテンツに関する情報を記憶する。例えば、コンテンツ記憶部222は、コンテンツを形成するHTMLファイルや、コンテンツに表示される静止画像や動画像を記憶する。図12を用いて、実施形態に係るコンテンツ記憶部の一例について説明する。図12は、実施形態に係るコンテンツ記憶部の一例を示す図である。図12に示す例では、コンテンツ記憶部222は、「コンテンツID」、「コンテンツ」、「種別」といった項目を有する。
(Content storage unit 222)
The
「コンテンツID」は、コンテンツを識別するための識別情報を示す。「コンテンツ」は、ニュース記事やSNSにおける投稿情報や広告や映画のレビュー等のコンテンツに含まれる文字情報を示す。図12では「コンテンツ」に「コンテンツ#1」といった概念的な情報が格納される例を示したが、実際には、具体的なコンテンツ(を形成するHTMLファイル)、または、その格納場所を示すファイルパス名などが格納されてもよい。また、「コンテンツ」には、ニュース記事やSNSにおける投稿情報や広告や映画のレビュー等に表示される静止画像や動画像が記憶されてもよい。あるいは、「コンテンツ」には、ニュース記事やSNSにおける投稿情報や広告や映画等のレビューに表示される画像情報を解析した結果これらの画像情報から抽出される文字情報が記憶されてもよい。「種別」は、コンテンツの種別を示す。例えば、「種別」は、そのコンテンツがニュース記事であるか、SNSにおける投稿情報であるか、広告であるか、映画のレビューであるかといった種別を示す。
The "content ID" indicates identification information for identifying the content. "Content" indicates text information included in content such as news articles, posted information on SNS, advertisements, and movie reviews. In FIG. 12, an example in which conceptual information such as "
(制御部23)
制御部23は、例えば、CPUやMPU等によって、コンテンツ配信装置20内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部23は、例えば、ASICやFPGA等の集積回路により実現される。
(Control unit 23)
The
図10に示すように、制御部23は、受付部231と、選択部232と、配信部233とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部23の内部構成は、図10に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。
As shown in FIG. 10, the
(受付部231)
受付部231は、コンテンツの配信要求を受け付ける。受付部231は、コンテンツの配信要求を受信する。具体的には、受付部231は、出力装置100からコンテンツの配信要求を受信する。
(Reception Department 231)
The
(選択部232)
選択部232は、ユーザに応じたコンテンツを選択する。具体的には、選択部232は、受付部231によってコンテンツの配信要求が受け付けられると、要求元の出力装置100を利用するユーザを特定する。例えば、選択部232は、ユーザ情報記憶部221を参照して、要求元の出力装置100を利用するユーザを特定する。続いて、選択部232は、ユーザを特定すると、ユーザ情報記憶部221を参照して、特定したユーザに紐づくユーザ情報を取得する。選択部232は、ユーザ情報を取得すると、取得したユーザ情報に基づいて、ユーザに応じたコンテンツを選択する。例えば、選択部232は、ユーザ情報に基づいて、ユーザが興味や関心を抱いているジャンルやトピック、趣味や嗜好に関するキーワードを取得する。続いて、選択部232は、コンテンツ記憶部222を参照して、取得したキーワードが設定されたコンテンツをユーザに応じたコンテンツとして選択する。
(Selection unit 232)
The selection unit 232 selects the content according to the user. Specifically, the selection unit 232 identifies the user who uses the
図1に示す例では、選択部232は、ユーザU1を特定すると、ユーザ情報記憶部221を参照して、特定したユーザU1に紐づくユーザ情報#1を取得する。続いて、選択部232は、ユーザ情報#1を取得すると、取得したユーザ情報#1に基づいて、ユーザU1が興味や関心を抱いているジャンルやトピック、趣味や嗜好に関するキーワードを取得する。続いて、選択部232は、コンテンツ記憶部222を参照して、取得したキーワードが設定されたニュース記事であるコンテンツ#1をユーザU1に応じたコンテンツとして選択する。
In the example shown in FIG. 1, when the user U1 is specified, the selection unit 232 refers to the user information storage unit 221 and acquires the
(配信部233)
配信部233は、選択部232によって選択されたコンテンツを配信する。具体的には、配信部233は、選択部232によって選択されたコンテンツを出力装置100に配信する。図1に示す例では、配信部233は、選択部232によって選択されたコンテンツ#1を出力装置100に配信する。
(Distribution Department 233)
The
〔5.変形例〕
上述した実施形態に係る出力処理システム1は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、出力処理システム1の他の実施形態について説明する。なお、実施形態と同一部分には、同一符号を付して説明を省略する。
[5. Modification example]
The
〔5−1.対話システムの感想を示す反応情報の出力処理〕
図1では、出力装置100がコンテンツ#1に対する意見をユーザに要求する文字情報である「ストが起きますかね?」という契機情報R12を出力する例について説明したが、反応情報はコンテンツに対する意見をユーザに要求する文字情報に限られない。図13では、出力装置100が対話システムの第2情報に対する感想を示す反応情報を出力する例について説明する。図13に示す例では、取得部164は、対話システムの第2情報に対する感想を示す反応情報を取得する。
[5-1. Output processing of reaction information showing the impression of the dialogue system]
FIG. 1 has described an example in which the
ここから、図13を用いて、変形例に係る出力処理の一例について説明する。図13は、変形例に係る出力処理の一例を示す図である。図13に示す例では、判定部161は、センサ情報記憶部121を参照して、ユーザの画像に関する画像情報を取得する(ステップS21)。判定部161は、画像情報を取得すると、取得した画像情報に基づいて、ユーザに対して反応情報を出力するタイミングであるか否かを判定する(ステップS22)。具体的には、判定部161は、取得した画像情報に基づいて、所定時間以上(例えば、5分以上)ユーザが静止状態であると判定した場合、ユーザに対して反応情報を出力するタイミングであると判定する。続いて、要求部162は、判定部161によってユーザに対して反応情報を出力するタイミングであると判定された場合、コンテンツの配信要求をコンテンツ配信装置20に対して送信する(ステップS23)。
From here, an example of output processing according to a modified example will be described with reference to FIG. FIG. 13 is a diagram showing an example of output processing according to a modified example. In the example shown in FIG. 13, the determination unit 161 refers to the sensor
コンテンツ配信装置20は、コンテンツの配信要求を出力装置100から取得する。コンテンツ配信装置20は、コンテンツの配信要求を取得すると、要求元の出力装置100を利用するユーザを特定する。続いて、コンテンツ配信装置20は、ユーザを特定すると、ユーザに応じたコンテンツを選択する(ステップS24)。コンテンツ配信装置20は、コンテンツを選択すると、選択したコンテンツを出力装置100に配信する。具体的には、コンテンツ配信装置20は、政府が被災地の全避難所を対象にタブレット端末を配布することに関するニュース記事であるコンテンツ#2を出力装置100に配信する。
The
生成部163は、コンテンツ配信装置20からコンテンツ#2を取得する(ステップS25)。生成部163は、コンテンツ#2を取得すると、取得したコンテンツ#2をモデルM1に入力することにより、コンテンツ#2に対する反応を示す文字情報である反応情報#2を生成する(ステップS26)。具体的には、生成部163は、コンテンツ#2の要約に相当する文字情報である「政府は全避難所を対象にタブレット端末を配布するそうです。」というサマリ情報R21を生成する。また、生成部163は、ユーザとのコンテンツ#2に関連する対話の契機となる文字情報である契機情報R22を生成する。より具体的には、生成部163は、対話システムのコンテンツ#2に対する感想を示す文字情報である「停電しても使えるようなものであってほしいです。」という契機情報R22を生成する。生成部163は、サマリ情報R21と契機情報R22とを含む反応情報#2を生成する。取得部164は、生成部163によって生成された反応情報#2を取得する。なお、図13では、生成部163が、サマリ情報R21と契機情報R22の両方を含む反応情報#2を生成する例について説明したが、サマリ情報R21を含まない反応情報#2を生成してもよい。すなわち、生成部163は、契機情報R22である反応情報#2を生成してもよい。
The
出力部165は、取得部164によって取得された反応情報#2を音声出力する(ステップS27)。具体的には、出力装置100は、サマリ情報R21を音声出力した後に契機情報R22を音声出力する。
The output unit 165 outputs the
〔5−2.ユーザの行動を促す反応情報の出力処理〕
図1では、出力装置100がコンテンツ#1に対する意見をユーザに要求する文字情報である「ストが起きますかね?」という契機情報R12を含む反応情報#1を出力する例について説明したが、反応情報はコンテンツに対する意見をユーザに要求する文字情報に限られない。図14では、出力装置100がユーザに第2情報に関連する行動を促す反応情報を出力する例について説明する。図14に示す例では、取得部164は、ユーザに第2情報に関連する行動を促す反応情報を取得する。具体的には、取得部164は、ユーザに反応情報への応答以外の行動を促す反応情報を取得する。
[5-2. Output processing of reaction information that encourages user actions]
FIG. 1 has described an example in which the
また、図1では、出力装置100がニュース記事であるコンテンツ#1に対する反応情報#2を取得する例について説明したが、出力装置100が広告である第2情報に対する反応情報を取得してもよい。図14に示す例では、取得部164は、広告である第2情報に対する反応情報を取得する。
Further, in FIG. 1, an example in which the
ここから、図14を用いて、変形例に係る出力処理の一例について説明する。図14は、変形例に係る出力処理の一例を示す図である。図14に示す例では、判定部161は、センサ情報記憶部121を参照して、ユーザの動きに伴う加速度に関する加速度情報を取得する(ステップS31)。判定部161は、加速度情報を取得すると、取得した加速度情報に基づいて、ユーザに対して反応情報を出力するタイミングであるか否かを判定する(ステップS32)。具体的には、判定部161は、取得した加速度情報に基づいて、所定時間以上(例えば、5分以上)ユーザが静止状態であると判定した場合、ユーザに対して反応情報を出力するタイミングであると判定する。続いて、要求部162は、判定部161によってユーザに対して反応情報を出力するタイミングであると判定された場合、コンテンツの配信要求をコンテンツ配信装置20に対して送信する(ステップS33)。
From here, an example of output processing according to a modified example will be described with reference to FIG. FIG. 14 is a diagram showing an example of output processing according to a modified example. In the example shown in FIG. 14, the determination unit 161 refers to the sensor
コンテンツ配信装置20は、コンテンツの配信要求を出力装置100から取得する。コンテンツ配信装置20は、コンテンツの配信要求を取得すると、要求元の出力装置100を利用するユーザを特定する。続いて、コンテンツ配信装置20は、ユーザを特定すると、ユーザに応じたコンテンツを選択する(ステップS34)。コンテンツ配信装置20は、コンテンツを選択すると、選択したコンテンツを出力装置100に配信する。具体的には、コンテンツ配信装置20は、商品Cが新発売されたことに関する広告であるコンテンツ#3を出力装置100に配信する。
The
生成部163は、コンテンツ配信装置20からコンテンツ#3を取得する(ステップS35)。生成部163は、コンテンツ#3を取得すると、取得したコンテンツ#3をモデルM1に入力することにより、コンテンツ#3に対する反応を示す文字情報である反応情報#3を生成する(ステップS36)。具体的には、生成部163は、コンテンツ#3の要約に相当する文字情報である「商品Cが発売されたみたいですね。」というサマリ情報R31を生成する。また、生成部163は、ユーザとのコンテンツ#3に関連する対話の契機となる文字情報である契機情報R32を生成する。より具体的には、生成部163は、ユーザにコンテンツ#3に関連する行動を促す文字情報である契機情報R32を生成する。例えば、生成部163は、ユーザに反応情報#3への応答以外の行動を促す文字情報である「今度一緒に買いに行ってみませんか?」という契機情報R32を生成する。生成部163は、サマリ情報R31と契機情報R32とを含む反応情報#2を生成する。取得部164は、生成部163によって生成された反応情報#3を取得する。なお、図14では、生成部163が、サマリ情報R31と契機情報R32の両方を含む反応情報#3を生成する例について説明したが、サマリ情報R31を含まない反応情報#3を生成してもよい。すなわち、生成部163は、契機情報R32である反応情報#3を生成してもよい。
The
出力部165は、取得部164によって取得された反応情報#3を音声出力する(ステップS37)。具体的には、出力装置100は、サマリ情報R31を音声出力した後に契機情報R32を音声出力する。
The output unit 165 outputs the
なお、図14では、出力装置100がニュース記事以外のコンテンツとして、広告であるコンテンツ#2に対する反応情報#2を取得する例について説明したが、ニュース記事以外のコンテンツは広告に限られない。具体的には、取得部164は、所定のSNS(Social Networking Service)における投稿情報である第2情報に対する反応情報を取得する。
Although FIG. 14 has described an example in which the
〔5−3.プッシュ通知に関するタイミングでの出力〕
出力部165は、対話システムにおけるプッシュ通知に関するタイミングで、反応情報を出力する。具体的には、判定部161は、対話システムにおけるプッシュ通知に関する情報を取得する。例えば、判定部161は、対話システムにおけるプッシュ通知に関する情報として、あらかじめプログラムされた所定の期間毎にプッシュ通知を行うという情報を取得する。続いて、判定部161は、プッシュ通知に関する情報を取得すると、取得したプッシュ通知に関する情報に基づいて、対話システムにおけるプッシュ通知に関するタイミングであるか否かを判定する。出力部165は、判定部161によって対話システムにおけるプッシュ通知に関するタイミングであると判定された場合、反応情報を出力する。
[5-3. Output at the timing related to push notification]
The output unit 165 outputs reaction information at the timing related to the push notification in the dialogue system. Specifically, the determination unit 161 acquires information regarding push notifications in the dialogue system. For example, the determination unit 161 acquires information on performing push notifications at predetermined period programmed in advance as information on push notifications in the dialogue system. Subsequently, when the determination unit 161 acquires the information related to the push notification, it determines whether or not it is the timing related to the push notification in the dialogue system based on the acquired information related to the push notification. The output unit 165 outputs reaction information when the determination unit 161 determines that the timing is related to the push notification in the dialogue system.
〔5−4.検索が行われたタイミングでの出力〕
出力部165は、対話システムに対する行動以外のユーザの行動であって、第2情報に関連するユーザの行動が行われたタイミングで、反応情報を出力する。具体的には、出力部165は、ユーザが第2情報に関連する検索を行ったタイミングで、反応情報を出力する。より具体的には、判定部161は、ユーザの検索行動に関する検索情報を検索サーバ(図示略)から取得する。続いて、判定部161は、検索情報を取得すると、取得した検索情報に基づいて、ユーザが第2情報に関連する検索を行ったタイミングであるか否かを判定する。出力部165は、判定部161によってユーザが第2情報に関連する検索を行ったタイミングであると判定された場合、反応情報を出力する。
[5-4. Output at the timing of the search]
The output unit 165 outputs reaction information at the timing when the user's action related to the second information is performed, which is the user's action other than the action for the dialogue system. Specifically, the output unit 165 outputs reaction information at the timing when the user performs a search related to the second information. More specifically, the determination unit 161 acquires search information regarding the user's search behavior from the search server (not shown). Subsequently, when the search information is acquired, the determination unit 161 determines whether or not it is the timing when the user performs a search related to the second information based on the acquired search information. The output unit 165 outputs reaction information when it is determined by the determination unit 161 that it is the timing when the user performs a search related to the second information.
〔5−5.コンテンツ取得後のタイミング判定〕
図1では、判定部161によってユーザに対して反応情報を出力するタイミングであるか否かを判定した後に、要求部162がコンテンツの配信要求をコンテンツ配信装置20に送信する例について説明したが、これに限られない。具体的には、出力部165は、所定時間(例えば、60分)毎に反応情報を出力する。また、要求部162は、所定時間(例えば、30分)毎にコンテンツの配信要求をコンテンツ配信装置20に送信する。例えば、要求部162は、ある時刻t1にコンテンツの配信要求をコンテンツ配信装置20に送信する。コンテンツ配信装置20は、配信要求を受け付けると、第1コンテンツを出力装置100に配信する。続いて、要求部162は、コンテンツ配信装置20から第1コンテンツを取得する。要求部162は、第1コンテンツを取得すると、取得した第1コンテンツをコンテンツ記憶部122に格納する。続いて、生成部163は、コンテンツ記憶部122を参照して第1コンテンツを取得する。生成部163は、第1コンテンツを取得すると、取得した第1コンテンツを所定のモデルに入力することにより、第1反応情報を生成する。生成部163は、第1反応情報を生成すると、生成した第1反応情報を反応情報記憶部123に格納する。
[5-5. Timing judgment after content acquisition]
FIG. 1 has described an example in which the request unit 162 transmits a content distribution request to the
続いて、要求部162は、時刻t1から30分後の時刻t2にコンテンツの配信要求をコンテンツ配信装置20に送信する。コンテンツ配信装置20は、配信要求を受け付けると、第2コンテンツを出力装置100に配信する。続いて、要求部162は、コンテンツ配信装置20から第2コンテンツを取得する。要求部162は、第2コンテンツを取得すると、取得した第2コンテンツをコンテンツ記憶部122に格納する。続いて、生成部163は、第2コンテンツを所定のモデルに入力することにより、第2反応情報を生成する。生成部163は、第2反応情報を生成すると、生成した第2反応情報を反応情報記憶部123に格納する。続いて、生成部163は、第2反応情報を生成すると、コンテンツ記憶部122を参照して、時刻t1に配信を要求した第1コンテンツと時刻t2に配信を要求した第2コンテンツとを取得する。続いて、生成部163は、第1コンテンツと第2コンテンツを取得すると、第1コンテンツと第2コンテンツとの類似度を判定する。生成部163は、第1コンテンツと第2コンテンツとの類似度が所定の閾値を超える場合には、第1コンテンツが古くなり、新しい第2コンテンツに更新されたとみなして、コンテンツ記憶部122から第1コンテンツを削除する。続いて、判定部161は、ユーザに対して反応情報を出力するタイミングであるか否かを判定する。出力部165は、判定部161によってユーザに対して反応情報を出力するタイミングであると判定された場合、第2反応情報を出力する。
Subsequently, the request unit 162 transmits a content distribution request to the
〔5−6.レビューに対する反応情報〕
生成部163は、映画レビューであるコンテンツに対する反応情報として、対話システムがレビューの書き手の立場で述べられる文字情報である反応情報を生成する。例えば、生成部163は、ホラー映画の映画レビューであるコンテンツに対する反応情報として、「××(映画タイトル)怖かったですね!今夜は眠れなさそうです。」といったレビューの書き手の立場で述べられる文字情報である反応情報を生成する。
[5-6. Response information to the review]
The
〔5−7.モデルの更新〕
生成部163は、ユーザによる応答をフィードバックして更新されたモデルを用いて反応情報を生成する。具体的には、生成部163は、反応情報記憶部123の「ユーザによる応答の有無」の項目を参照して、ユーザによる応答の有無に応じて更新されたモデルを用いて反応情報を生成する。例えば、生成部163は、ユーザによる応答があった反応情報とコンテンツとのセットデータに対する学習の重みをユーザによる応答がなかった反応情報とコンテンツとのセットデータに対する学習の重みよりも大きくして学習されたモデルを用いて反応情報を生成する。
[5-7. Model update]
The
〔5−8.要約生成モデルと反応生成モデル〕
図1に示す例では、生成部163がコンテンツ#1を一つのモデルM1に入力して、サマリ情報R11と契機情報R12とを含む反応情報#1を生成する例について説明したが、サマリ情報R11と契機情報R12とを別のモデルで生成してもよい。具体的には、生成部163は、第2情報を入力すると、第2情報の要約であるサマリ情報を出力するモデルM11を用いて、サマリ情報を生成する。また、生成部163は、第2情報を入力すると、第2情報に対する反応を示す反応情報を出力するモデルM12を用いて、反応情報を生成する。図1に示す例では、生成部163は、コンテンツ#1を入力すると、コンテンツ#1の要約であるサマリ情報R11を出力するモデルM11を用いて、サマリ情報R11を生成する。また、生成部163は、コンテンツ#1を入力すると、コンテンツ#1に対する反応を示す契機情報R12を出力するモデルM12を用いて、契機情報R12を生成する。
[5-8. Summary generative model and reaction generative model]
In the example shown in FIG. 1, an example in which the
この場合、出力処理システム1は、サマリ役の出力装置100と、反応役の出力装置100という複数の出力装置100を含んでもよい。例えば、サマリ役の出力装置100が、コンテンツ#1の要約であるサマリ情報R11を音声出力する。続いて、反応役の出力装置100が、コンテンツ#1に対する反応を示す契機情報R12をサマリ役の出力装置100とは異なる音声によって音声出力する。なお、出力処理システム1は、サマリ役の出力装置100と、反応役の出力装置100の他にも、対話を進行させる役の出力装置100と、対話の進行を補助する役の出力装置100といった複数の出力装置100を含んでもよい。
In this case, the
〔5−9.画面への出力〕
出力部165は、音声に代えて、文字情報を画面に表示することで反応情報をユーザに対して出力してもよい。また、出力部165は、音声に代えて、画像情報を出力してもよい。この場合、出力部165は、反応情報をユーザが一見して理解できる画像を表示する。画像情報は動画、静止画どちらでもよい。さらに、出力装置100が人型のロボットである場合、出力部165は、ロボットの身振りや手振りで反応情報を出力してもよい。
[5-9. Output to screen]
The output unit 165 may output the reaction information to the user by displaying the character information on the screen instead of the voice. Further, the output unit 165 may output image information instead of the sound. In this case, the output unit 165 displays an image in which the user can understand the reaction information at a glance. The image information may be either a moving image or a still image. Further, when the
〔6.効果〕
上述してきたように、実施形態に係る出力装置100は、取得部164と出力部165とを備える。取得部164は、対話システムにユーザにより入力される第1情報以外の第2情報に対する反応として生成された文字情報である反応情報を取得する。出力部165は、取得部164により取得された反応情報をユーザに対して出力する。
[6. effect〕
As described above, the
これにより、出力装置100は、対話システムに対するユーザからの働きかけがなくとも、ニュース記事等に関連する対話の契機となる文字情報を自発的に出力することができる。すなわち、出力装置100は、装置から人へ自発的に適切に話しかけることができる。したがって、出力装置100は、対話システムへのユーザによる入力に寄らずに適切な情報を出力するができる。
As a result, the
また、取得部164は、非タスク志向型対話システムである対話システムにユーザにより入力される第1情報以外の第2情報に対する反応情報を取得する。 In addition, the acquisition unit 164 acquires reaction information for second information other than the first information input by the user to the dialogue system, which is a non-task-oriented dialogue system.
これにより、出力装置100は、非タスク志向型対話システムに対するユーザからの働きかけがなくとも、ニュース記事等に関連する対話の契機となる文字情報を自発的に出力することができる。
As a result, the
また、取得部164は、所定のコンテンツである第2情報に対する反応情報を取得する。 In addition, the acquisition unit 164 acquires reaction information with respect to the second information which is a predetermined content.
これにより、出力装置100は、所定のコンテンツに関連する対話の契機となる文字情報を自発的に出力することができる。
As a result, the
また、取得部164は、ニュース記事である第2情報に対する反応情報を取得する。 In addition, the acquisition unit 164 acquires reaction information to the second information which is a news article.
これにより、出力装置100は、ニュース記事に関連する対話の契機となる文字情報を自発的に出力することができる。
As a result, the
また、取得部164は、所定のSNS(Social Networking Service)における投稿情報である第2情報に対する反応情報を取得する。 In addition, the acquisition unit 164 acquires reaction information with respect to the second information which is the posted information in the predetermined SNS (Social Networking Service).
これにより、出力装置100は、SNSにおける投稿情報に関連する対話の契機となる文字情報を自発的に出力することができる。
As a result, the
また、取得部164は、広告である第2情報に対する反応情報を取得する。 In addition, the acquisition unit 164 acquires reaction information with respect to the second information which is an advertisement.
これにより、出力装置100は、広告に関連する対話の契機となる文字情報を自発的に出力することができる。
As a result, the
また、取得部164は、ユーザとの第2情報に関連する対話の契機となる反応情報を取得する。 In addition, the acquisition unit 164 acquires reaction information that triggers a dialogue related to the second information with the user.
これにより、出力装置100は、対話システムに対するユーザからの働きかけがなくとも、ニュース記事等に関連する対話の契機となる文字情報を自発的に出力することができる。
As a result, the
また、取得部164は、対話システムの第2情報に対する感想を示す反応情報を取得する。 In addition, the acquisition unit 164 acquires reaction information indicating an impression of the second information of the dialogue system.
これにより、出力装置100は、対話システムに対するユーザからの働きかけがなくとも、第2情報に対する感想を対話の契機として自発的に適切な対話を始めることができる。
As a result, the
また、取得部164は、第2情報に対する意見をユーザに要求する反応情報を取得する。 In addition, the acquisition unit 164 acquires reaction information that requests the user to give an opinion on the second information.
これにより、出力装置100は、対話システムに対するユーザからの働きかけがなくとも、第2情報に対するに対する意見をユーザに要求することを対話の契機として自発的に適切な対話を始めることができる。
As a result, the
また、取得部164は、ユーザに第2情報に関連する行動を促す反応情報を取得する。例えば、取得部164は、ユーザに反応情報への応答以外の行動を促す反応情報を取得する。 In addition, the acquisition unit 164 acquires reaction information that prompts the user to take an action related to the second information. For example, the acquisition unit 164 acquires reaction information that urges the user to take an action other than responding to the reaction information.
これにより、出力装置100は、対話システムに対するユーザからの働きかけがなくとも、第2情報関連する行動を促すことを対話の契機として自発的に適切な対話を始めることができる。
As a result, the
また、出力部165は、対話システムに対するユーザによる第2情報の要求以外のタイミングで、反応情報を出力する。 Further, the output unit 165 outputs reaction information at a timing other than the user's request for the second information to the dialogue system.
これにより、出力装置100は、対話システムに対するユーザからの働きかけがなくとも、自発的に適切な対話を始めることができる。
As a result, the
また、出力部165は、対話システムにおけるプッシュ通知に関するタイミングで、反応情報を出力する。 Further, the output unit 165 outputs reaction information at the timing related to the push notification in the dialogue system.
これにより、出力装置100は、対話システムにおけるプッシュ通知に関するタイミングで、自発的に適切な対話を始めることができる。
As a result, the
また、出力部165は、ユーザのコンテキストに基づくタイミングで、反応情報を出力する。 Further, the output unit 165 outputs reaction information at a timing based on the user's context.
これにより、出力装置100は、ユーザのコンテキストに応じて、自発的に適切な対話を始めることができる。
As a result, the
また、出力部165は、対話システムに対するユーザの発話から所定の期間が経過したタイミングで、反応情報を出力する。 Further, the output unit 165 outputs reaction information at a timing when a predetermined period has elapsed from the user's utterance to the dialogue system.
これにより、出力装置100は、ユーザとの対話が途切れたタイミングで、自発的に適切な対話を始めることができる。
As a result, the
また、出力部165は、対話システムに対する行動以外のユーザの行動であって、第2情報に関連するユーザの行動が行われたタイミングで、反応情報を出力する。例えば、出力部165は、ユーザが第2情報に関連する検索を行ったタイミングで、反応情報を出力する。 Further, the output unit 165 outputs reaction information at the timing when the user's action other than the action for the dialogue system and the user's action related to the second information is performed. For example, the output unit 165 outputs reaction information at the timing when the user performs a search related to the second information.
これにより、出力装置100は、ユーザによる検索が行われたタイミングで、自発的に適切な対話を始めることができる。
As a result, the
また、実施形態に係る出力装置100は、生成部163をさらに備える。生成部163は、第2情報から反応情報を生成する。取得部164は、生成部163により生成された反応情報を取得する。具体的には、生成部163は、第2情報を所定のモデルに入力することにより、反応情報を生成する。
Further, the
これにより、出力装置100は、あらかじめ登録された反応情報以外の反応情報を、自発的に適切に出力することができる。
As a result, the
また、取得部164は、ユーザに応じて選択される第2情報に対する反応情報を取得する。 In addition, the acquisition unit 164 acquires reaction information for the second information selected according to the user.
これにより、出力装置100は、ユーザに応じた内容の対話を自発的に適切に始めることができる。
As a result, the
また、出力部165は、反応情報を音声出力する。さらに、出力部165は、音声に代えて、画像情報を出力してもよい。この場合、出力部165は、反応情報をユーザが一見して理解できる画像を表示する。画像情報は動画、静止画どちらでもよい。 Further, the output unit 165 outputs the reaction information by voice. Further, the output unit 165 may output image information instead of the sound. In this case, the output unit 165 displays an image in which the user can understand the reaction information at a glance. The image information may be either a moving image or a still image.
これにより、出力装置100は、タイムリーな反応情報を自発的に適切に出力することができる。
As a result, the
また、取得部164は、第2情報の要約であるサマリ情報を取得する。また、出力部165は、サマリ情報と反応情報とを出力する。また、出力部165は、サマリ情報を出力した後に反応情報を出力する。 In addition, the acquisition unit 164 acquires summary information which is a summary of the second information. Further, the output unit 165 outputs summary information and reaction information. Further, the output unit 165 outputs the reaction information after outputting the summary information.
これにより、出力装置100は、サマリ情報を出力することにより、ユーザとの共通の話題を共有することを可能にする。また、出力装置100は、反応情報を出力することにより、サマリ情報に対するユーザの応答を引き出すきっかけを作ることができる。
As a result, the
〔7.ハードウェア構成〕
また、上述してきた実施形態に係る出力装置100およびコンテンツ配信装置20は、例えば図15に示すような構成のコンピュータ1000によって実現される。図15は、出力装置100およびコンテンツ配信装置20の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を備える。
[7. Hardware configuration]
Further, the
CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
The
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、所定の通信網を介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータを所定の通信網を介して他の機器へ送信する。
The
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。
The
メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
The
例えば、コンピュータ1000が出力装置100およびコンテンツ配信装置20として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部160または制御部23の機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置から所定の通信網を介してこれらのプログラムを取得してもよい。
For example, when the
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 Although some of the embodiments of the present application have been described in detail with reference to the drawings, these are examples, and various modifications are made based on the knowledge of those skilled in the art, including the embodiments described in the disclosure column of the invention. It is possible to practice the present invention in other improved forms.
〔8.その他〕
また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[8. Others]
Further, among the processes described in the above-described embodiments and modifications, all or part of the processes described as being automatically performed can be manually performed, or the processes described as being manually performed. It is also possible to automatically perform all or part of the processed processing by a known method. In addition, the processing procedure, specific name, and information including various data and parameters shown in the above document and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each figure is not limited to the illustrated information.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Further, each component of each of the illustrated devices is a functional concept, and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or part of them may be functionally or physically distributed / physically in arbitrary units according to various loads and usage conditions. It can be integrated and configured.
また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 In addition, the above-described embodiments and modifications can be appropriately combined as long as the processing contents do not contradict each other.
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、出力部は、出力手段や出力回路に読み替えることができる。 Further, the above-mentioned "section, module, unit" can be read as "means" or "circuit". For example, the output unit can be read as an output means or an output circuit.
1 出力処理システム
100 出力装置
110 通信部
120 記憶部
121 センサ情報記憶部
122 コンテンツ記憶部
123 反応情報記憶部
124 モデル情報記憶部
125 学習データ記憶部
130 入力部
140 表示部
150 物理センサ
160 制御部
161 判定部
162 要求部
163 生成部
164 取得部
165 出力部
1
Claims (25)
前記取得手順により取得された前記反応情報を前記ユーザに対して出力する出力手順と、
をコンピュータに実行させることを特徴とする出力プログラム。 An acquisition procedure for acquiring reaction information, which is character information generated as a reaction to second information other than the first information input by the user to the dialogue system, and
An output procedure for outputting the reaction information acquired by the acquisition procedure to the user,
An output program characterized by having a computer execute.
非タスク志向型対話システムである前記対話システムに前記ユーザにより入力される前記第1情報以外の前記第2情報に対する前記反応情報を取得する
ことを特徴とする請求項1に記載の出力プログラム。 The acquisition procedure is
The output program according to claim 1, wherein the reaction information to the second information other than the first information input by the user to the dialogue system, which is a non-task-oriented dialogue system, is acquired.
所定のコンテンツである前記第2情報に対する前記反応情報を取得する
ことを特徴とする請求項1または請求項2に記載の出力プログラム。 The acquisition procedure is
The output program according to claim 1 or 2, wherein the reaction information with respect to the second information, which is a predetermined content, is acquired.
ニュース記事である前記第2情報に対する前記反応情報を取得する
ことを特徴とする請求項3に記載の出力プログラム。 The acquisition procedure is
The output program according to claim 3, wherein the reaction information to the second information, which is a news article, is acquired.
所定のSNS(Social Networking Service)における投稿情報である前記第2情報に対する前記反応情報を取得する
ことを特徴とする請求項3に記載の出力プログラム。 The acquisition procedure is
The output program according to claim 3, wherein the reaction information to the second information, which is the posted information in a predetermined SNS (Social Networking Service), is acquired.
広告である前記第2情報に対する前記反応情報を取得する
ことを特徴とする請求項3に記載の出力プログラム。 The acquisition procedure is
The output program according to claim 3, wherein the reaction information to the second information, which is an advertisement, is acquired.
前記ユーザとの前記第2情報に関連する対話の契機となる前記反応情報を取得する
ことを特徴とする請求項1〜6のいずれか1項に記載の出力プログラム。 The acquisition procedure is
The output program according to any one of claims 1 to 6, wherein the reaction information that triggers a dialogue related to the second information with the user is acquired.
前記対話システムの前記第2情報に対する感想を示す前記反応情報を取得する
ことを特徴とする請求項1〜7のいずれか1項に記載の出力プログラム。 The acquisition procedure is
The output program according to any one of claims 1 to 7, wherein the reaction information indicating an impression of the second information of the dialogue system is acquired.
前記第2情報に対する意見を前記ユーザに要求する前記反応情報を取得する
ことを特徴とする請求項1〜7のいずれか1項に記載の出力プログラム。 The acquisition procedure is
The output program according to any one of claims 1 to 7, wherein the reaction information for requesting an opinion on the second information from the user is acquired.
前記ユーザに前記第2情報に関連する行動を促す前記反応情報を取得する
ことを特徴とする請求項1〜7のいずれか1項に記載の出力プログラム。 The acquisition procedure is
The output program according to any one of claims 1 to 7, wherein the reaction information for urging the user to take an action related to the second information is acquired.
前記ユーザに前記反応情報への応答以外の行動を促す前記反応情報を取得する
ことを特徴とする請求項10に記載の出力プログラム。 The acquisition procedure is
The output program according to claim 10, further comprising acquiring the reaction information that prompts the user to perform an action other than the response to the reaction information.
前記対話システムに対する前記ユーザによる前記第2情報の要求以外のタイミングで、前記反応情報を出力する
ことを特徴とする請求項1〜11のいずれか1項に記載の出力プログラム。 The output procedure is
The output program according to any one of claims 1 to 11, wherein the reaction information is output at a timing other than the request of the second information by the user to the dialogue system.
前記対話システムにおけるプッシュ通知に関するタイミングで、前記反応情報を出力する
ことを特徴とする請求項1〜12のいずれか1項に記載の出力プログラム。 The output procedure is
The output program according to any one of claims 1 to 12, characterized in that the reaction information is output at the timing related to the push notification in the dialogue system.
前記ユーザのコンテキストに基づくタイミングで、前記反応情報を出力する
ことを特徴とする請求項1〜13のいずれか1項に記載の出力プログラム。 The output procedure is
The output program according to any one of claims 1 to 13, wherein the reaction information is output at a timing based on the context of the user.
前記対話システムに対する前記ユーザの発話から所定の期間が経過したタイミングで、前記反応情報を出力する
ことを特徴とする請求項14に記載の出力プログラム。 The output procedure is
The output program according to claim 14, wherein the reaction information is output at a timing when a predetermined period has elapsed from the user's utterance to the dialogue system.
前記対話システムに対する行動以外の前記ユーザの行動であって、前記第2情報に関連する前記ユーザの行動が行われたタイミングで、前記反応情報を出力する
ことを特徴とする請求項14または請求項15に記載の出力プログラム。 The output procedure is
14. Claim 14 or claim, wherein the reaction information is output at the timing when the user's action related to the second information is performed, which is an action of the user other than the action for the dialogue system. The output program according to 15.
前記ユーザが前記第2情報に関連する検索を行ったタイミングで、前記反応情報を出力する
ことを特徴とする請求項16に記載の出力プログラム。 The output procedure is
The output program according to claim 16, wherein the reaction information is output at the timing when the user performs a search related to the second information.
をコンピュータに実行させ、
前記取得手順は、
前記生成手順により生成された前記反応情報を取得する
ことを特徴とする請求項1〜17のいずれか1項に記載の出力プログラム。 A generation procedure for generating the reaction information from the second information,
Let the computer run
The acquisition procedure is
The output program according to any one of claims 1 to 17, wherein the reaction information generated by the generation procedure is acquired.
前記第2情報を所定のモデルに入力することにより、前記反応情報を生成する
ことを特徴とする請求項18に記載の出力プログラム。 The generation procedure is
The output program according to claim 18, wherein the reaction information is generated by inputting the second information into a predetermined model.
前記ユーザに応じて選択される前記第2情報に対する前記反応情報を取得する
ことを特徴とする請求項1〜19のいずれか1項に記載の出力プログラム。 The acquisition procedure is
The output program according to any one of claims 1 to 19, wherein the reaction information to the second information selected according to the user is acquired.
前記反応情報を音声出力する
ことを特徴とする請求項1〜20のいずれか1項に記載の出力プログラム。 The output procedure is
The output program according to any one of claims 1 to 20, wherein the reaction information is output by voice.
前記第2情報の要約であるサマリ情報を取得し、
前記出力手順は、
前記サマリ情報と前記反応情報とを出力する
ことを特徴とする請求項1〜20のいずれか1項に記載の出力プログラム。 The acquisition procedure is
Obtain summary information that is a summary of the second information,
The output procedure is
The output program according to any one of claims 1 to 20, wherein the summary information and the reaction information are output.
前記サマリ情報を出力した後に前記反応情報を出力する
ことを特徴とする請求項22に記載の出力プログラム。 The output procedure is
The output program according to claim 22, wherein the reaction information is output after the summary information is output.
前記取得部により取得された前記反応情報を前記ユーザに対して出力する出力部と、
を備えることを特徴とする出力装置。 An acquisition unit that acquires reaction information, which is character information generated as a reaction to second information other than the first information input by the user to the dialogue system.
An output unit that outputs the reaction information acquired by the acquisition unit to the user,
An output device characterized by comprising.
対話システムにユーザにより入力される第1情報以外の第2情報に対する反応として生成された文字情報である反応情報を取得する取得工程と、
前記取得工程により取得された前記反応情報を前記ユーザに対して出力する出力工程と、
を含んだことを特徴とする出力方法。 A computer-executed output method
An acquisition process for acquiring reaction information, which is character information generated as a reaction to second information other than the first information input by the user to the dialogue system, and
An output step of outputting the reaction information acquired by the acquisition step to the user,
An output method characterized by including.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019069877A JP7409781B2 (en) | 2019-04-01 | 2019-04-01 | Output program, output device and output method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019069877A JP7409781B2 (en) | 2019-04-01 | 2019-04-01 | Output program, output device and output method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020170239A true JP2020170239A (en) | 2020-10-15 |
JP7409781B2 JP7409781B2 (en) | 2024-01-09 |
Family
ID=72745941
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019069877A Active JP7409781B2 (en) | 2019-04-01 | 2019-04-01 | Output program, output device and output method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7409781B2 (en) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004234492A (en) * | 2003-01-31 | 2004-08-19 | Nec Software Tohoku Ltd | Chat system and advertisement providing method |
JP2011100425A (en) * | 2009-11-09 | 2011-05-19 | Fujitsu Ltd | Information display device, information display program and information display method |
JP2015103099A (en) * | 2013-11-26 | 2015-06-04 | Kddi株式会社 | Terminal device, server device, distribution method, and distribution program |
JP2017151931A (en) * | 2016-02-26 | 2017-08-31 | ヤフー株式会社 | Dialog determination system, dialog determination method, dialog determination program, and terminal equipment |
JP2017191421A (en) * | 2016-04-13 | 2017-10-19 | 株式会社Stand | Network system, server, and information processing method |
WO2018057537A1 (en) * | 2016-09-20 | 2018-03-29 | Google Llc | Bot interaction |
JP2018097564A (en) * | 2016-12-13 | 2018-06-21 | ヤフー株式会社 | Distribution device, distribution method, distribution program, terminal device, display method, and display program |
JP2018129004A (en) * | 2017-02-10 | 2018-08-16 | ヤフー株式会社 | Generation apparatus, generation method, and generation program |
JP2018156473A (en) * | 2017-03-17 | 2018-10-04 | ヤフー株式会社 | Analysis device, analysis method, and program |
JP2019508820A (en) * | 2015-12-21 | 2019-03-28 | グーグル エルエルシー | Automatic suggestions for message exchange threads |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6228884B2 (en) | 2014-04-01 | 2017-11-08 | 富士ソフト株式会社 | Robot motion plan creation system and creation method |
JP6202041B2 (en) | 2015-04-24 | 2017-09-27 | マツダ株式会社 | Spoken dialogue system for vehicles |
JP6781545B2 (en) | 2015-12-28 | 2020-11-04 | ヴイストン株式会社 | robot |
-
2019
- 2019-04-01 JP JP2019069877A patent/JP7409781B2/en active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004234492A (en) * | 2003-01-31 | 2004-08-19 | Nec Software Tohoku Ltd | Chat system and advertisement providing method |
JP2011100425A (en) * | 2009-11-09 | 2011-05-19 | Fujitsu Ltd | Information display device, information display program and information display method |
JP2015103099A (en) * | 2013-11-26 | 2015-06-04 | Kddi株式会社 | Terminal device, server device, distribution method, and distribution program |
JP2019508820A (en) * | 2015-12-21 | 2019-03-28 | グーグル エルエルシー | Automatic suggestions for message exchange threads |
JP2017151931A (en) * | 2016-02-26 | 2017-08-31 | ヤフー株式会社 | Dialog determination system, dialog determination method, dialog determination program, and terminal equipment |
JP2017191421A (en) * | 2016-04-13 | 2017-10-19 | 株式会社Stand | Network system, server, and information processing method |
WO2018057537A1 (en) * | 2016-09-20 | 2018-03-29 | Google Llc | Bot interaction |
JP2018097564A (en) * | 2016-12-13 | 2018-06-21 | ヤフー株式会社 | Distribution device, distribution method, distribution program, terminal device, display method, and display program |
JP2018129004A (en) * | 2017-02-10 | 2018-08-16 | ヤフー株式会社 | Generation apparatus, generation method, and generation program |
JP2018156473A (en) * | 2017-03-17 | 2018-10-04 | ヤフー株式会社 | Analysis device, analysis method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP7409781B2 (en) | 2024-01-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230328051A1 (en) | Methods, systems, and media for presenting information related to an event based on metadata | |
Van Laer et al. | Storytelling in the digital era: A meta-analysis of relevant moderators of the narrative transportation effect | |
Smith | Marketing via smart speakers: what should Alexa say? | |
US11841887B2 (en) | Methods, systems, and media for modifying the presentation of contextually relevant documents in browser windows of a browsing application | |
CN110892395B (en) | Virtual assistant providing enhanced communication session services | |
US11120226B1 (en) | Conversation facilitation system for mitigating loneliness | |
US9213940B2 (en) | Cyberpersonalities in artificial reality | |
CN117219080A (en) | Virtual assistant for generating personalized responses within a communication session | |
US20210043208A1 (en) | Generating response in conversation | |
CN107567619A (en) | Recommendation is provided based on the mood from multiple data sources and/or behavioural information | |
US10671665B2 (en) | Personalized audio introduction and summary of result sets for users | |
US20130185291A1 (en) | Online rating and feedback system | |
CN112292675A (en) | Assisting a computer to interpret native language input with prominence ranking of entities and tasks | |
KR20090130323A (en) | Method and apparatus for generation of a user profile | |
KR20150075101A (en) | Sponsored stories in notifications | |
JP6677697B2 (en) | Matching support program, matching support device, matching support method, and matching support system | |
Lopatovska et al. | User recommendations for intelligent personal assistants | |
CN109478142A (en) | It is rendered as method, system and the medium of the user interface of the User Activity customization of prediction | |
Shao et al. | Hello Alexa! Exploring effects of motivational factors and social presence on satisfaction with artificial intelligence‐enabled gadgets | |
US20220272054A1 (en) | Collaborate multiple chatbots in a single dialogue system | |
JP7012599B2 (en) | Information processing equipment, information processing methods, and information processing programs | |
Quercia et al. | Using mobile phones to nurture social networks | |
JP2016024636A (en) | Control apparatus, control method, and control program | |
Kumar et al. | Exploring antecedents impacting user satisfaction with voice assistant app: A text mining-based analysis on Alexa services | |
JP2020057221A (en) | Information processing method, information processing device, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20191101 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20191108 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210317 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220118 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220301 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220428 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220913 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221213 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20221213 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20221221 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20230104 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20230120 |
|
C211 | Notice of termination of reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C211 Effective date: 20230124 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20230124 |
|
C13 | Notice of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: C13 Effective date: 20230404 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20230404 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230602 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230911 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20231026 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231221 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7409781 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |