JP2019164314A - Estimation device, estimation method, and estimation program - Google Patents
Estimation device, estimation method, and estimation program Download PDFInfo
- Publication number
- JP2019164314A JP2019164314A JP2018053523A JP2018053523A JP2019164314A JP 2019164314 A JP2019164314 A JP 2019164314A JP 2018053523 A JP2018053523 A JP 2018053523A JP 2018053523 A JP2018053523 A JP 2018053523A JP 2019164314 A JP2019164314 A JP 2019164314A
- Authority
- JP
- Japan
- Prior art keywords
- user
- attribute
- estimation
- question
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 26
- 238000001514 detection method Methods 0.000 claims description 25
- 230000003993 interaction Effects 0.000 abstract description 2
- 235000013305 food Nutrition 0.000 description 13
- 238000010586 diagram Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 7
- 238000003860 storage Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000004519 manufacturing process Methods 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 210000002784 stomach Anatomy 0.000 description 1
Images
Abstract
Description
本発明は、推定装置、推定方法および推定プログラムに関する。 The present invention relates to an estimation device, an estimation method, and an estimation program.
従来、例えば、ユーザへ適切な情報を提供することを目的として、ユーザの趣味嗜好等といったユーザの属性を推定する推定装置が知られている。推定装置は、例えば、ネットワーク上におけるユーザの行動に基づいて属性を推定する(例えば、特許文献1参照)。 Conventionally, for example, for the purpose of providing appropriate information to a user, an estimation device that estimates a user attribute such as a user's hobby preference is known. The estimation device estimates an attribute based on, for example, a user's behavior on the network (see, for example, Patent Document 1).
しかしながら、従来の技術は、ユーザの属性の推定精度を向上させる点で改善の余地があった。 However, the conventional technology has room for improvement in terms of improving the accuracy of user attribute estimation.
本願は、上記に鑑みてなされたものであって、ユーザの属性の推定精度を向上させることができる推定装置、推定方法および推定プログラムを提供することを目的とする。 The present application has been made in view of the above, and an object thereof is to provide an estimation device, an estimation method, and an estimation program capable of improving the accuracy of estimation of user attributes.
本願に係る推定装置は、生成部と、取得部と、推定部とを備える。前記生成部は、ユーザとの対話において当該ユーザの属性に関する質問を生成する。前記取得部は、前記生成部によって生成された前記質問に対する前記ユーザの回答を取得する。前記推定部は、前記取得部が取得した前記回答に基づいて前記ユーザの属性を推定する。 The estimation apparatus according to the present application includes a generation unit, an acquisition unit, and an estimation unit. The said production | generation part produces | generates the question regarding the said user's attribute in a dialog with a user. The acquisition unit acquires the user's answer to the question generated by the generation unit. The estimation unit estimates the attribute of the user based on the answer acquired by the acquisition unit.
実施形態の一態様によれば、ユーザの属性の推定精度を向上させることができるという効果を奏する。 According to one aspect of the embodiment, there is an effect that it is possible to improve the estimation accuracy of the user's attribute.
以下に、本願に係る推定装置、推定方法および推定プログラムを実施するための形態(以下、「実施形態」と記載する)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る推定装置、推定方法および推定プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Hereinafter, modes for carrying out the estimation apparatus, the estimation method, and the estimation program according to the present application (hereinafter referred to as “embodiments”) will be described in detail with reference to the drawings. In addition, the estimation apparatus, the estimation method, and the estimation program according to the present application are not limited by this embodiment. In the following embodiments, the same portions are denoted by the same reference numerals, and redundant description is omitted.
まず、図1を用いて、実施形態に係る推定装置によって実行される推定方法について説明する。図1は、実施形態に係る推定方法の概要を示す図である。図1には、実施形態に係る推定装置1を含む推定システムSを示している。
First, the estimation method executed by the estimation apparatus according to the embodiment will be described with reference to FIG. FIG. 1 is a diagram illustrating an outline of an estimation method according to the embodiment. FIG. 1 shows an estimation system S including an
図1に示すように、実施形態に係る推定システムSは、推定装置1と、情報提供端末100とを備える。推定装置1および情報提供端末100は、例えば、インターネット等の通信ネットワークを介して接続される。なお、図1では、1台の情報提供端末100が推定装置1に接続される場合を示しているが、複数台の情報提供端末100が推定装置1に接続されてもよい。
As shown in FIG. 1, the estimation system S according to the embodiment includes an
推定装置1は、ユーザUの属性を推定する情報処理装置である。ここでいう属性とは、ユーザUを特徴付ける情報であり、例えば、ユーザUの趣味や、嗜好、性格等の内面的な情報である。なお、属性には、例えば、ユーザUの容姿等の外面的な情報、経歴等の付加的な情報等がさらに含まれてもよい。
The
また、推定装置1は、推定したユーザUの属性に基づいてユーザUへ各種コンテンツを提供する提供サーバでもある。提供サーバとしての推定装置1は、情報提供端末100にインストールされた各種アプリ(例えば、ポータルアプリ、ニュースアプリ、オークションサイト、天気予報アプリ、ショッピングアプリ、ファイナンス(株価)アプリ、路線検索アプリ、地図提供アプリ、旅行アプリ、飲食店紹介アプリ、ブログ閲覧アプリ等)により提供される情報を配信する装置である。あるいは、提供サーバとしての推定装置1は、ポータルサイト、ニュースサイト、オークションサイト、天気予報サイト、ショッピングサイト、ファイナンス(株価)サイト、路線検索サイト、地図提供サイト、旅行サイト、飲食店紹介サイト、ウェブブログなどに関連する各種情報がタイル状に配置されたウェブページを配信する装置である。また、推定装置1は、アプリのデータそのものを配信するサーバであってもよいし、ポータルサイト等のウェブページを配信するサーバであってもよい。
The
また、図1に示すように、推定装置1は、ユーザUの属性に関する情報である属性情報41を記憶している。図1に示す例では、属性情報41には、属性の種別として「食物」、属性項目として「寿司」および「ラーメン」が含まれていることとする。なお、図1に示す属性情報41では、「寿司」の属性項目に、「○」がついており、ユーザUは、寿司が好きであること(肯定的)を示している。なお、「×」は、その食べ物が嫌い(否定的)であることを示し、空欄は、まだ推定できていないことを示している。
As shown in FIG. 1, the
情報提供端末100は、提供サーバとしての推定装置1から各種コンテンツを取得し、ユーザUへ提供する。例えば、情報提供端末100は、音声認識機能を備え、ユーザUの発話の認識結果に基づいて各種コンテンツを提供する。なお、情報提供端末100は、音声認識に限らず、例えば、タッチパネル式の表示部へのユーザUの操作を受け付けることで、各種コンテンツを提供してもよい。
The
また、情報提供端末100による情報提供方法は、例えば、音声出力により提供する。すなわち、情報提供端末100は、いわゆるスマートスピーカである。なお、情報提供端末100は、音声出力に限らず、例えば、プロジェクタや表示部等の映像出力により情報を提供してもよい。
Moreover, the information provision method by the
また、情報提供端末100は、スマートスピーカに限定されず、例えば、スマートデバイス(スマートフォン、あるいはタブレット)、携帯電話、パーソナルコンピュータ等であってもよい。
Moreover, the
ここで、従来の推定装置について説明する。従来の推定装置は、例えば、ネットワーク上におけるユーザの行動に基づいてかかるユーザの属性を推定していた。しかしながら、従来の推定装置は、ユーザの属性の推定精度を向上させる点で改善の余地があった。 Here, a conventional estimation apparatus will be described. A conventional estimation device estimates such user attributes based on, for example, user behavior on a network. However, the conventional estimation device has room for improvement in terms of improving the estimation accuracy of user attributes.
そこで、実施形態に係る推定装置1は、ユーザUとの対話を通してユーザUの属性を推定することとした。例えば、図1に示すように、実施形態に係る情報提供端末100がユーザUから「昼食が食べたい」という問いかけの音声入力を受け付けたとする(ステップS1)。
Therefore, the
かかる場合、実施形態に係る情報提供端末100は、提供サーバとしての推定装置1へ昼食に関するコンテンツを要求する(ステップS2)。つづいて、実施形態に係る推定装置1は、例えば、かかるコンテンツの要求をトリガにして、ユーザUの属性に関する質問を生成し、情報提供端末100へ送信する(ステップS3)。図1に示す例では、推定装置1は、属性情報41において、ユーザUのラーメンに対する嗜好性を推定できていないため、ラーメンの嗜好性を推定するための質問を生成する。
In such a case, the
そして、実施形態に係る情報提供端末100は、推定装置1によって生成された質問「ラーメンはどうですか?」を出力する(ステップS4)。そして、実施形態に係る情報提供端末100は、出力した質問に対するユーザUの回答「ラーメンは嫌いだな」を受け付ける(ステップS5)。
And the
実施形態に係る情報提供端末100は、受け付けた回答を推定装置1へ送信する(ステップS6)。実施形態に係る推定装置1は、情報提供端末100から取得した回答に基づいてユーザUの属性を推定する(ステップS7)。図1に示す例では、推定装置1は、ユーザUの回答「ラーメンは嫌いだな」を言語解析し、ラーメンの属性項目に「×」を記入する。
The
このように、実施形態に係る推定装置1は、ユーザUとの対話の中で、ユーザUの属性に関する質問を行うことで、例えば、ユーザUの属性のうち不足している属性を能動的に聞き出すことができるため、ユーザUの属性の推定精度を向上させることができる。
As described above, the
なお、図1では、推定装置1および情報提供端末100が別体で構成される場合について説明したが、推定装置1および情報提供端末100が1つの装置で構成されてもよい。
In addition, although the case where the
次に、図2を用いて、実施形態に係る推定装置1の構成例について説明する。図2は、実施形態に係る推定装置1の構成を示す図である。図2に示すように、実施形態に係る推定装置1は、通信部2と、制御部3と、記憶部4とを備える。なお、推定装置1は、推定装置1を利用する管理者等から各種操作を受け付ける入力部(たとえば、キーボードやマウス等)や、各種情報を表示するための表示部(たとえば、液晶ディスプレイ等)を備えていてもよい。
Next, a configuration example of the
通信部2は、たとえば、NIC(Network Interface Card)等によって実現される。通信部2は、通信ネットワークと有線または無線で接続され、通信ネットワークを介して、情報提供端末100との間で情報の送受信を行う。
The
記憶部4は、たとえば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。図2に示すように、記憶部4は、属性情報41を記憶する。
The
属性情報41は、ユーザUの属性に関する情報が含まれる。ここで、図3を用いて、属性情報41について説明する。
The
図3は、属性情報41の説明図である。図3に示すように、属性情報41には、「ユーザID」、「状況」、「種別」といった内容が含まれる。
FIG. 3 is an explanatory diagram of the
「ユーザID」は、ユーザUを識別する識別情報である。「状況」は、ユーザUの周囲の状況を示す情報である。「種別」は、属性の種別を示す情報である。また、各種別には、関連する複数の属性項目が含まれる。具体的には、種別が「食物」には、「寿司」、「ラーメン」等の食物に関する属性項目が含まれる。 “User ID” is identification information for identifying the user U. “Situation” is information indicating a situation around the user U. “Type” is information indicating the type of attribute. Each type includes a plurality of related attribute items. Specifically, the category “food” includes attribute items relating to food such as “sushi” and “ramen”.
例えば、ユーザID「U1」で識別されるユーザUは、自身が1人でいる場合には、寿司を好んで食べ、家族といる場合には、寿司を好んで食べず、ラーメンを好んで食べることを示している。なお、図3に示す例では、ユーザID「U1」で識別されるユーザUは、1人でいる場合に、ラーメンを好んで食べるか否かの属性の推定が完了していない。 For example, when the user U identified by the user ID “U1” is alone, he likes to eat sushi, and when he is with his family, he likes not to eat sushi but to eat ramen. It is shown that. In the example illustrated in FIG. 3, when the user U identified by the user ID “U1” is alone, the attribute estimation as to whether or not to eat ramen is not completed.
なお、図3に示す例では、「状況」は、周囲の人の有無を示したが、例えば、天気や時間、行動履歴等、任意の状況であってよい。このように、状況毎の属性を推定することで、例えば、ユーザUにコンテンツを提供する際、より適切なコンテンツを提供することができる。 In the example illustrated in FIG. 3, “situation” indicates the presence or absence of surrounding people, but may be any situation such as weather, time, action history, and the like. As described above, by estimating the attribute for each situation, for example, when providing content to the user U, more appropriate content can be provided.
図2に戻って制御部3について説明する。制御部3は、コントローラ(controller)であり、たとえば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、推定装置1内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部3は、たとえば、コントローラであり、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
Returning to FIG. 2, the
制御部3は、ユーザUの属性に関する質問を生成するとともに、かかる質問に対するユーザUの回答を取得し、かかる回答に基づいてユーザUの属性を推定する機能を以下に示す各部の動作により実現する。
The
図2に示すように、制御部3は、受付部31と、検出部32と、生成部33と、取得部34と、推定部35とを備える。
As shown in FIG. 2, the
受付部31は、情報提供端末100に対するユーザUの問いかけを受け付ける。具体的には、受付部31が問いかけを受け付けることにより、ユーザUとの対話が開始する。なお、ユーザU1の問いかけには、特定の属性を指定する問いかけ(能動的問いかけともいう)と、特定の属性を指定しない問いかけ(受動的問いかけともいう)とがあるが、かかる点については図4および図5で後述する。
The accepting
なお、受付部31は、情報提供端末100に対するユーザUの問いかけを受け付ける場合に限定されず、例えば、ユーザUの家族との会話を受け付けることで、対話開始のトリガとしてもよい。つまり、受付部31は、ユーザUが情報提供端末100に対して直接話しかけていない場合であっても、問いかけとして受け付けてもよい。
In addition, the
なお、受付部31が受け付ける問いかけは、例えば、情報提供端末100によって音声から言語に変換された情報であってもよく、情報提供端末100が録音した音源であってもよい。なお、情報提供端末100が録音した音源を取得する場合、受付部31は、かかる音源を解析して言語に変換する。
The inquiry received by the receiving
検出部32は、ユーザUの状況を検出する。例えば、検出部32は、各種センサで構成され、情報提供端末100が設置される空間(つまり、ユーザUと同じ空間)や、かかる空間の外側の温度や、湿度、天気等の環境情報を状況として検出する。また、検出部32は、例えば、マイクや振動センサ、赤外線センサ、カメラ等によってユーザUの周囲にいる人に関する情報を状況として検出する。
The
また、検出部32は、ユーザUの周囲の状況以外にも、例えば、マイクによって集音されたユーザUの発話内容に基づいて、ユーザUの喜怒哀楽の状態や、疲労度等の内面的な状況を検出する。
In addition to the situation around the user U, for example, the
なお、検出部32は、上記した検出方法に限らず、例えば、生成部33によって生成された質問に対するユーザUの回答に基づいてユーザUの状況を検出してもよい。例えば、検出部32は、上記したセンサ等によってユーザUの周囲に複数の他ユーザがいることを検出した場合、生成部33に対して複数の他ユーザの詳細を検出する質問を生成するように指示する。
Note that the
例えば、検出部32は、生成部33によって「皆さん、こんにちは、元気ですか?」といったあいさつを含む質問を生成し、かかる質問に対する他ユーザの回答から、他ユーザの性別や、年齢等の識別情報や、ユーザUとの関係性を検出する。このように、生成部33によって生成された質問に対する回答に基づいてユーザUの状況を検出することで、検出される状況の確度を向上させることができる。なお、検出部32は、あいさつを含む質問に限らず、例えば、「皆さんはラーメンは好きですか?」といった属性に関する質問も含ませた質問を行ってもよい。これにより、ユーザUの属性の推定精度をより向上させることができる。
For example, the
あるいは、検出部32は、生成部33によって生成された属性に関する質問に対するユーザUの回答の質(言葉の強弱や、発話速度、音量等)が通常とは異なる場合、ユーザUの状況が通常とは異なることを検出してもよい。かかる場合、検出部32は、ユーザUの属性に関する質問を一時中断して、ユーザUの状況を推定するための状況を質問を行うことで、ユーザUの状況を推定する。
Alternatively, when the quality of the answer of the user U to the question about the attribute generated by the generation unit 33 (word strength, speech rate, volume, etc.) is different from normal, the
生成部33は、属性情報41に基づいてユーザUの属性に関する質問を生成する。なお、生成部33の具体的な処理内容については、図4〜図6で後述する。
The
取得部34は、生成部33によって生成された質問に対するユーザUの回答を取得する。取得部34は、質問が択一で回答可能な質問の場合、どの選択肢を選択したかを取得する。選択肢は、「はい」および「いいえ」のような肯定および否定を選択する方式や、複数の候補の中から選択する方式等がある。
The
また、取得部34は、択一回答を取得する場合に限定されるものではなく、例えば、「○○が好き」等のように、特定の属性に対する嗜好性等を示す回答を取得してもよい。
Further, the
推定部35は、取得部34が取得した回答に基づいてユーザUの属性を推定する。例えば、推定部35は、取得部34が取得した回答が肯定か否定かを示す択一回答であった場合、属性情報41における属性項目の空欄に「○」(肯定)または「×」(否定)を入れる。
The
また、推定部35は、検出部32によって検出された状況毎の属性を推定する。つまり、推定部35は、ユーザUの質問に対する回答と、ユーザUの周囲の状況とを対応付ける。これにより、状況に合わせて変化するユーザUの属性を的確にとらえることができるため、より適切なコンテンツを提供することができる。
The
なお、推定部35は、属性情報41の属性項目を○×方式で推定する場合に限定されるものではなく、例えば、各属性項目に所定の指標値を入れてもよい。
Note that the
例えば、推定部35は、所定の属性項目におけるユーザUの嗜好が肯定および否定の両方存在した場合、肯定および否定の回答の比率に応じた指標値を入れる。すなわち、○×方式のように2種類(肯定か否定か)に分類せず、各属性項目を相対的に評価する。これにより、ユーザUの属性をより詳細に推定することができる。
For example, when there are both positive and negative preferences of the user U in a predetermined attribute item, the
次に、図4〜図6を用いて、実施形態に係る推定装置1の処理内容を具体的に説明する。図4〜図6は、実施形態に係る推定装置1の処理の具体例を示す図である。
Next, the processing content of the
図4では、ユーザUが「昼食が食べたい」という問いかけを情報提供端末100に対して行ったとする。換言すれば、このような問いかけは、特定の属性を指定する問いかけであるとも言える。つまり、このような問いかけは、情報提供端末100に対して特定の応答を期待してユーザUが主動的に行うものである。
In FIG. 4, it is assumed that the user U asks the
生成部33は、このような主動的な問いかけがあった場合、その問いかけに関連する質問を生成する。つまり、生成部33は、受付部31が受け付けた問いかけが特定の属性を指定する内容の場合、特定の属性に関連する質問を生成する。
When such a main question is generated, the
図4に示す例では、生成部33は、「昼食が食べたい」を言語解析した結果、ユーザUが食物に関する属性を指定していると判定し、属性情報41のうち種別が「食物」の属性項目を質問の対象とする。
In the example illustrated in FIG. 4, the
図4に示す例では、生成部33は、推定部35による推定が完了していない属性項目「ラーメン」に関する質問「ラーメンはどうですか?」を生成する。このように、ユーザUが特定の属性を指定した問いかけに合わせた質問を行うことで、ユーザUの質問に対する違和感を無くすことができるとともに、質問に対する回答を確実に得ることができる。
In the example illustrated in FIG. 4, the
また、属性情報41の推定が完了していない属性項目に関する質問を生成することで、ユーザUの潜在的な属性を探ることができるため、ユーザUの属性を幅広く推定することができる。その結果、より適切なコンテンツを提供することができる。
Moreover, since the potential attribute of the user U can be searched by generating a question regarding the attribute item for which the estimation of the
なお、生成部33は、「ラーメンはどうですか?」に対するユーザUの回答が否定であった場合には、再度、「食物」に関する質問を生成する。このとき、生成部33は、例えば、既に推定が完了した属性項目「寿司」に関する質問を生成する。
Note that the
これにより、ユーザUに合った応答ができるため、ユーザUに対して何度も質問を行うという状況を避けることができる。すなわち、ユーザUの満足度を向上させることができる。 Thereby, since the response suitable for the user U can be performed, the situation where the user U is questioned many times can be avoided. That is, the satisfaction level of the user U can be improved.
なお、生成部33は、再度、推定部35による推定が完了していない属性項目に関する質問を生成してもよい。ユーザUの属性をより幅広く推定することができる。
Note that the
また、生成部33は、ユーザUの問いかけに関連する属性の質問を生成したが、これに限定されず、ユーザUの対話の内容に関連する属性の質問であればよい。つまり、生成部33は、ユーザUの情報提供端末100に対する問いかけに関わらず、他ユーザとの対話の内容や、情報提供端末100との一連の対話の中で生じた内容に関する属性の質問であってもよい。
Moreover, although the production |
このように、生成部33は、対話の内容を解析して、その内容に応じた質問を行うことで、ユーザUに違和感を与えることのない質問を行うことができる。
In this way, the
さらに、生成部33は、「ラーメンはどうですか?」のような択一で回答が可能な質問を生成することで、ユーザUが質問に対して容易に回答できるようにできる。すなわち、ユーザUの属性を推定するための回答をより容易に得ることができる。
Furthermore, the
次に、図5では、ユーザUが「暇だな」という問いかけを情報提供端末100に対して行ったとする。換言すれば、このような問いかけは、特定の属性を指定しない問いかけであるとも言える。つまり、このような問いかけは、情報提供端末100に対して特定の応答を期待しておらず、ユーザUが何かしら新しい情報を欲して受動的に行うものである。
Next, in FIG. 5, it is assumed that the user U asks the
かかる場合に、生成部33は、任意の属性に関する質問を行う。具体的には、生成部33は、受付部31が受け付けた問いかけが特定の属性を指定しない内容の場合、任意の属性に関する質問を生成する。任意の属性とは、例えば、属性情報41のうち、任意の種別において推定が完了していない空欄の属性項目である。
In such a case, the
図5に示す例では、生成部33は、「オリンピック見ませんか?」といった任意の属性に関する質問を行う。なお、「オリンピック見ませんか?」に対応する属性項目は、種別が「スポーツ」であってもよく、「テレビ」であってもよい。あるいは、「オリンピック」に対応する種別であってもよい。
In the example illustrated in FIG. 5, the
また、生成部33は、任意の属性の選択方法について、例えば、推定が完了していない属性項目が多い種別を優先して選択してもよい。あるいは、生成部33は、検出部32によって検出されるユーザUの状況や、ユーザUの過去のネットワーク上の行動からユーザUが積極的に回答を行う属性を推定して選択してもよい。
The
つまり、生成部33は、受動的なユーザUに対して能動的に質問を行う。これにより、ユーザUの潜在的な属性の嗜好性を容易に探ることができる。
That is, the
なお、図5に示す例において、「オリンピック見ませんか?」に対してユーザUが肯定的な回答をした場合には、オリンピックの種別等のより詳細な属性項目に関する質問を行ってもよい。 In the example shown in FIG. 5, when the user U gives an affirmative answer to “Would you like to watch the Olympics?”, You may ask a question regarding more detailed attribute items such as the type of Olympics. .
また、「オリンピック見ませんか?」に対してユーザUが肯定的な回答をした場合には、生成部33は、異なる種別の属性に関する質問を生成してもよい。
When the user U gives an affirmative answer to “Do you want to watch the Olympics?”, The
次に、図6では、情報提供端末100から出力された質問「ラーメンはどうですか?」に対して、ユーザUが「いいね!ありがとう」と回答し、一連の対話が完了したこととする。
Next, in FIG. 6, it is assumed that the user U answered “Like! Thank you” to the question “How about ramen?” Output from the
生成部33は、対話が完了した場合に、かかる対話に関連する属性とは異なる属性に関する質問を生成する。図6に示す例では、属性「食物」に関する対話が完了し、「食物」と関連性がある属性(例えば、スポーツ)に関する質問を行う。
When the dialog is completed, the
図6に示す例では、生成部33は、「食物」に関する対話が完了後、「ところで、昼食後にスポーツはどうですか?」等の、「食物」と関連性がある属性に関する質問を行う。そして、推定部35は、「腹ごなしにちょうどいいね!」といった質問に対する肯定的な回答を得た場合、「食物」と「スポーツ」とを関連付けた属性の推定を行う。
In the example illustrated in FIG. 6, after the dialogue regarding “food” is completed, the
つまり、生成部33は、直前まで対話をしていたため、ユーザUが回答しやすい状況であることを利用して新たな属性の質問を行う。これにより、ユーザUに対して新たな属性の質問をする場合に、ユーザUに対して唐突感や戸惑いが生じることを軽減できる。
That is, since the
なお、生成部33は、かかる場合、直前の対話における属性の種別と関連する種別に関する質問を行うことで、ユーザUに対する唐突感をより軽減できる。
In this case, the
また、生成部33は、受付部31がユーザUの問いかけをトリガにして質問を生成したが、例えば、プッシュ通知のように、ユーザUの問いかけ無しに質問を生成してもよい。
In addition, the
また、生成部33は、複数のユーザUの属性情報41に基づいて各属性項目間や各種別間の関連度を算出し、かかる関連度に基づいて質問を生成してもよい。具体的には、生成部33は、生活行動が類似する複数のユーザUの中で属性項目間の嗜好が類似する場合に、関連度を高く算出する。
Further, the
例えば、複数のユーザUの中で、ラーメンを食べた後、運動するユーザUが所定数以上の場合、ラーメンの質問をした後、運動の属性項目に関する質問を生成する。つまり、生成部33は、複数のユーザUの嗜好の傾向から、ユーザUの嗜好を予め予測して質問を生成する。これにより、ユーザUの潜在的な属性を探りつつ、ユーザUの満足度を向上させることができる。
For example, after eating ramen among a plurality of users U, if the number of users U exercising is a predetermined number or more, after asking questions about ramen, questions relating to exercise attribute items are generated. That is, the
なお、上記では、推定部35は、ユーザUが質問に対して肯定的な回答を行った場合にユーザUがその質問の属性を好むと推定したが、否定的な回答を行った場合にもユーザUの属性を推定する。
In the above, the
具体的には、推定部35は、例えば、生成部33が生成した「芸能関連のニュースを聞きますか?」の質問に対してユーザU1が「No」と回答したとする。かかる場合、推定部35は、芸能関連のニュースが好きではないと推定するとともに、他のジャンル(種別あるいは属性項目)のニュースの中で、芸能関連のニュースと関連するニュースも好きではないと推定する。
Specifically, for example, the
より具体的には、推定部35は、例えば、芸能関連のニュースを抽象化(上位概念化)した種別と同じあるいは類似のニュース(例えば、スポーツニュース等)が好きではないと推定する。このように、ユーザUの否定的な回答からも属性を推定することで、ユーザUの属性を幅広く推定することができる。
More specifically, for example, the
なお、推定部35は、芸能関連のニュースに類似するニュースを好きではないと推定したが、一方で、芸能関連とは逆の属性(経済等)のニュースが好きであると推定してもよい。
In addition, although the
次に、図7を用いて、実施形態に係る推定装置1が実行する処理の手順について説明する。図7は、実施形態に係る推定装置1が実行する処理の手順を示すフローチャートである。
Next, a procedure of processing executed by the
図7に示すように、まず、受付部31は、ユーザU1の問いかけを受け付ける(ステップS101)。生成部33は、受付部31が受け付けた問いかけが特定の属性を指定する問いかけか否かを判定する(ステップS102)。
As illustrated in FIG. 7, first, the
生成部33は、受付部31が受け付けた問いかけが特定の属性を指定する問いかけであった場合(ステップS102,Yes)、指定された属性に関する質問を生成する(ステップS103)。
If the question received by the receiving
つづいて、取得部34は、生成部33によって生成された質問に対するユーザUの回答を取得する(ステップS104)。つづいて、推定部35は、取得部34が取得した回答に基づいてユーザUの属性を推定し(ステップS105)、処理を終了する。
Subsequently, the
一方、ステップS102において、生成部33は、受付部31が受け付けた問いかけが特定の属性を指定しない問いかけであった場合(ステップS102,No)、任意の属性に関する質問を生成し(ステップS106)、処理をステップS104へ移行する。
On the other hand, in step S102, when the question received by the receiving
また、上述してきた実施形態にかかる推定装置1は、例えば図8に示すような構成のコンピュータ1000によって実現される。図8は、実施形態に係る推定装置1の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
Moreover, the
CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
The
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、ネットワークNを介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータを、ネットワークNを介して他の機器へ送信する。
The
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを、入出力インターフェイス1600を介して出力装置へ出力する。
The
メディアインターフェイス1700は、記録媒体1800に格納されたプログラム又はデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
The
例えば、コンピュータ1000が実施形態にかかる推定装置1として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部3の機能を実現する。また、HDD1400には、記憶部4内のデータが格納される。コンピュータ1000のCPU1100は、これらのプログラムを、記録媒体1800から読み取って実行するが、他の例として、他の装置から、ネットワークNを介してこれらのプログラムを取得してもよい。
For example, when the
上述してきたように、実施形態に係る推定装置1は、生成部33と、取得部34と、推定部35とを備える。生成部33は、ユーザUとの対話においてユーザUの属性に関する質問を生成する。取得部34は、生成部33によって生成された質問に対するユーザUの回答を取得する。推定部35は、取得部34が取得した回答に基づいてユーザUの属性を推定する。
As described above, the
これにより、ユーザUの属性の推定精度を向上させることができる。 Thereby, the estimation accuracy of the attribute of the user U can be improved.
また、上述した実施形態に係る推定装置1において、生成部33は、ユーザUが択一で回答可能な質問を生成する。
In the
これにより、ユーザUが質問に対して容易に回答できるようになるため、ユーザUの属性を推定するための回答をより容易に得ることができる。 Thereby, since the user U can easily answer a question, an answer for estimating the attribute of the user U can be obtained more easily.
また、上述した実施形態に係る推定装置1において、生成部33は、対話の内容に関連する属性の質問を生成する。
Moreover, in the
これにより、ユーザUの質問に対する唐突感を軽減できる。 Thereby, the sudden feeling with respect to the user's U question can be reduced.
また、上述した実施形態に係る推定装置1において、ユーザUの属性には、複数の属性項目が含まれる。推定部35は、複数の属性項目それぞれを推定する。生成部33は、推定部35によって推定が完了していない属性項目に関する質問を生成する。
In the
これにより、ユーザUの属性を幅広く推定することができる。 Thereby, the attribute of the user U can be estimated widely.
また、上述した実施形態に係る推定装置1において、生成部33は、対話が完了した場合に、対話に関連する属性とは異なる属性に関する質問を生成する。
Moreover, in the
これにより、ユーザUに対して新たな属性の質問をする場合に、ユーザUに対して唐突感や戸惑いが生じることを軽減できる。 Thereby, when making a question of a new attribute to the user U, it is possible to reduce the occurrence of a sudden feeling and confusion with respect to the user U.
また、上述した実施形態に係る推定装置1は、受付部31をさらに備える。受付部31は、ユーザUの問いかけを受け付ける。生成部33は、受付部31が受け付けた問いかけが特定の属性を指定する内容の場合、特定の属性に関連する質問を生成する。
In addition, the
これにより、ユーザUの質問に対する違和感を無くすことができるとともに、質問に対する回答を確実に得ることができる。 Thereby, while being able to eliminate the uncomfortable feeling with respect to the question of the user U, an answer to the question can be reliably obtained.
また、上述した実施形態に係る推定装置1において、生成部33は、受付部31が受け付けた問いかけが特定の属性を指定しない内容の場合、任意の属性に関する質問を生成する。
Moreover, in the
これにより、ユーザUの潜在的な属性の嗜好性を容易に探ることができる。 Thereby, the preference property of the user U's potential attribute can be easily searched.
また、上述した実施形態に係る推定装置1は、検出部32をさらに備える。検出部32は、ユーザUの状況を検出する。生成部33は、検出部32によって検出された状況に応じた質問を生成する。推定部35は、ユーザUにおける状況毎の属性を推定する。
In addition, the
これにより、状況に合わせて変化するユーザUの属性を的確にとらえることができるため、より適切なコンテンツを提供することができる。 Thereby, since the attribute of the user U which changes according to a situation can be caught exactly, more appropriate content can be provided.
また、上述した実施形態に係る推定装置1において、生成部33は、ユーザUの状況に関する状況質問をさらに生成する。取得部34は、生成部33によって生成された状況質問に対するユーザUの状況回答を取得する。検出部32は、取得部34が取得した状況回答に基づいてユーザUの状況を検出する。
Further, in the
これにより、ユーザUの状況毎の属性における推定精度をより向上させることができる。 Thereby, the estimation precision in the attribute for every situation of the user U can be improved more.
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 As described above, some of the embodiments of the present application have been described in detail with reference to the drawings. However, these are merely examples, and various modifications, including the aspects described in the disclosure section of the invention, based on the knowledge of those skilled in the art, It is possible to implement the present invention in other forms with improvements.
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。 In addition, among the processes described in the above embodiment, all or part of the processes described as being automatically performed can be performed manually, or the processes described as being performed manually can be performed. All or a part can be automatically performed by a known method. In addition, the processing procedures, specific names, and information including various data and parameters shown in the document and drawings can be arbitrarily changed unless otherwise specified. For example, the various types of information illustrated in each drawing is not limited to the illustrated information.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Further, each component of each illustrated apparatus is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured.
また、上述してきた実施形態に記載した各処理は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 In addition, the processes described in the above-described embodiments can be appropriately combined within a range that does not contradict the processing contents.
また、上記してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、検出部32は、検出手段や検出回路に読み替えることができる。
Moreover, the above-mentioned “section (module, unit)” can be read as “means”, “circuit”, and the like. For example, the
1 推定装置
2 通信部
3 制御部
4 記憶部
31 受付部
32 検出部
33 生成部
34 取得部
35 推定部
41 属性情報
100 情報提供端末
U ユーザ
DESCRIPTION OF
Claims (11)
前記生成部によって生成された前記質問に対する前記ユーザの回答を取得する取得部と、
前記取得部が取得した前記回答に基づいて前記ユーザの属性を推定する推定部と
を備えることを特徴とする推定装置。 A generation unit for generating a question regarding the attribute of the user in the dialog with the user;
An acquisition unit for acquiring the user's answer to the question generated by the generation unit;
An estimation device comprising: an estimation unit that estimates an attribute of the user based on the answer acquired by the acquisition unit.
前記ユーザが択一で回答可能な前記質問を生成すること
を特徴とする請求項1に記載の推定装置。 The generator is
The estimation apparatus according to claim 1, wherein the question is generated so that the user can answer with an alternative.
前記対話の内容に関連する前記属性の前記質問を生成すること
を特徴とする請求項1または2に記載の推定装置。 The generator is
The estimation apparatus according to claim 1, wherein the question of the attribute related to the content of the dialogue is generated.
前記推定部は、
前記複数の属性項目それぞれを推定し、
前記生成部は、
前記推定部によって推定が完了していない前記属性項目に関する前記質問を生成すること
を特徴とする請求項1〜3のいずれか1つに記載の推定装置。 The attribute includes a plurality of attribute items,
The estimation unit includes
Estimating each of the plurality of attribute items;
The generator is
The estimation device according to claim 1, wherein the question regarding the attribute item that has not been estimated by the estimation unit is generated.
前記対話が完了した場合に、当該対話に関連する前記属性とは異なる前記属性に関する前記質問を生成すること
を特徴とする請求項1〜4のいずれか1つに記載の推定装置。 The generator is
The estimation apparatus according to claim 1, wherein when the dialogue is completed, the question related to the attribute different from the attribute related to the dialogue is generated.
前記生成部は、
前記受付部が受け付けた前記問いかけが特定の前記属性を指定する内容の場合、当該特定の属性に関連する前記質問を生成すること
を特徴とする請求項1〜5のいずれか1つに記載の推定装置。 A reception unit for receiving the user's inquiry;
The generator is
The said question relevant to the said specific attribute is produced | generated when the said inquiry which the said reception part received is the content which designates the specific said attribute, The Claim 1 characterized by the above-mentioned. Estimating device.
前記受付部が受け付けた前記問いかけが特定の前記属性を指定しない内容の場合、任意の前記属性に関する前記質問を生成すること
を特徴とする請求項6に記載の推定装置。 The generator is
The estimation device according to claim 6, wherein, when the inquiry received by the reception unit is content that does not designate a specific attribute, the question regarding any attribute is generated.
前記生成部は、
前記検出部によって検出された前記状況に応じた前記質問を生成し、
前記推定部は、
前記ユーザにおける前記状況毎の前記属性を推定すること
を特徴とする請求項1〜7のいずれか1つに記載の推定装置。 A detection unit for detecting the situation of the user;
The generator is
Generating the question according to the situation detected by the detection unit;
The estimation unit includes
The estimation apparatus according to any one of claims 1 to 7, wherein the attribute for each situation of the user is estimated.
前記ユーザの状況に関する状況質問をさらに生成し、
前記取得部は、
前記生成部によって生成された前記状況質問に対する前記ユーザの状況回答を取得し、
前記検出部は、
前記取得部が取得した前記状況回答に基づいて前記ユーザの状況を検出すること
を特徴とする請求項8に記載の推定装置。 The generator is
Further generating a status question regarding the user's status;
The acquisition unit
Obtaining the user's situation answer to the situation question generated by the generator;
The detector is
The estimation apparatus according to claim 8, wherein the situation of the user is detected based on the situation answer obtained by the acquisition unit.
ユーザとの対話における当該ユーザへの質問を生成する生成工程と、
前記生成工程によって生成された前記質問に対する前記ユーザの回答を取得する取得工程と、
前記取得工程が取得した前記回答に基づいて前記ユーザの属性を推定する推定工程と
を含むことを特徴とする推定方法。 An estimation method performed by a computer,
Generating a question for the user in the dialog with the user;
An acquisition step of acquiring the user's answer to the question generated by the generation step;
An estimation method comprising: an estimation step of estimating the attribute of the user based on the answer acquired by the acquisition step.
前記生成部によって生成された前記質問に対する前記ユーザの回答を取得する取得部と、
前記取得部が取得した前記回答に基づいて前記ユーザの属性を推定する推定部と
をコンピュータに実行させることを特徴とする推定プログラム。
A generation unit for generating a question to the user in the dialog with the user;
An acquisition unit for acquiring the user's answer to the question generated by the generation unit;
An estimation program that causes a computer to execute an estimation unit that estimates an attribute of the user based on the answer acquired by the acquisition unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018053523A JP6482703B1 (en) | 2018-03-20 | 2018-03-20 | Estimation apparatus, estimation method, and estimation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018053523A JP6482703B1 (en) | 2018-03-20 | 2018-03-20 | Estimation apparatus, estimation method, and estimation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6482703B1 JP6482703B1 (en) | 2019-03-13 |
JP2019164314A true JP2019164314A (en) | 2019-09-26 |
Family
ID=65718224
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018053523A Active JP6482703B1 (en) | 2018-03-20 | 2018-03-20 | Estimation apparatus, estimation method, and estimation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6482703B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020039726A1 (en) * | 2018-08-20 | 2020-02-27 | ソニー株式会社 | Information processing device, information processing system, and information processing method, and program |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002189937A (en) * | 2000-12-20 | 2002-07-05 | At Japan Media Kk | Gathering system, processor, and gathering method for personal information, and recording medium |
JP2004343320A (en) * | 2003-05-14 | 2004-12-02 | Sony Corp | Information processing apparatus and method, program, and recording medium |
JP2013511779A (en) * | 2009-11-19 | 2013-04-04 | シャム・テクノロジーズ・リミテッド | Adaptation questions and recommended devices and methods |
WO2014118975A1 (en) * | 2013-02-01 | 2014-08-07 | 株式会社電通 | Recommendation creation system |
EP2958336A1 (en) * | 2013-02-12 | 2015-12-23 | Sony Corporation | Information processing device, information processing method, and information processing system |
JP2017194906A (en) * | 2016-04-22 | 2017-10-26 | 株式会社Nttドコモ | Information processing apparatus |
JP2018005460A (en) * | 2016-06-30 | 2018-01-11 | シャープ株式会社 | Receiving device, information providing device, information providing system, information providing method, and program |
-
2018
- 2018-03-20 JP JP2018053523A patent/JP6482703B1/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002189937A (en) * | 2000-12-20 | 2002-07-05 | At Japan Media Kk | Gathering system, processor, and gathering method for personal information, and recording medium |
JP2004343320A (en) * | 2003-05-14 | 2004-12-02 | Sony Corp | Information processing apparatus and method, program, and recording medium |
JP2013511779A (en) * | 2009-11-19 | 2013-04-04 | シャム・テクノロジーズ・リミテッド | Adaptation questions and recommended devices and methods |
WO2014118975A1 (en) * | 2013-02-01 | 2014-08-07 | 株式会社電通 | Recommendation creation system |
EP2958336A1 (en) * | 2013-02-12 | 2015-12-23 | Sony Corporation | Information processing device, information processing method, and information processing system |
JP2017194906A (en) * | 2016-04-22 | 2017-10-26 | 株式会社Nttドコモ | Information processing apparatus |
JP2018005460A (en) * | 2016-06-30 | 2018-01-11 | シャープ株式会社 | Receiving device, information providing device, information providing system, information providing method, and program |
Non-Patent Citations (1)
Title |
---|
"想起特性を考慮した対話的ラベリング手法の基礎検討", 電子情報通信学会技術研究報告, vol. 114, no. 440, JPN6018033026, 23 January 2015 (2015-01-23), ISSN: 0003906332 * |
Also Published As
Publication number | Publication date |
---|---|
JP6482703B1 (en) | 2019-03-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6397067B2 (en) | System and method for integrating third party services with a digital assistant | |
US10819811B2 (en) | Accumulation of real-time crowd sourced data for inferring metadata about entities | |
KR102621114B1 (en) | System and method for providing user customized content | |
US20190057298A1 (en) | Mapping actions and objects to tasks | |
US8612866B2 (en) | Information processing apparatus, information processing method, and information processing program | |
US9965553B2 (en) | User agent with personality | |
US10972583B2 (en) | Methods and systems for personalizing user experience based on personality traits | |
AU2015236219A1 (en) | Personalized recommendation based on the user's explicit declaration | |
US10671665B2 (en) | Personalized audio introduction and summary of result sets for users | |
KR20170020841A (en) | Leveraging user signals for initiating communications | |
US20190205330A1 (en) | Predicting acoustic features for geographic locations | |
JP6305274B2 (en) | Response generation apparatus, response generation method, and response generation program | |
JP6310796B2 (en) | Control device, control method, and control program | |
JP2015004756A (en) | Determination device, determination method, and determination program | |
WO2020116026A1 (en) | Response processing device, response processing method, and response processing program | |
JP6482703B1 (en) | Estimation apparatus, estimation method, and estimation program | |
EP3654194A1 (en) | Information processing device, information processing method, and program | |
WO2020196100A1 (en) | Information processing device, information processing method, and program | |
WO2016052501A1 (en) | User interface device, program, and content notification method | |
JPWO2019207918A1 (en) | Information processing equipment, information processing methods and programs | |
JP6898064B2 (en) | Dialogue decision system, dialogue decision method, dialogue decision program, and terminal device | |
JP2021012660A (en) | Information processing device, information processing method, and information processing program | |
JP6553223B2 (en) | Response generation apparatus, response generation method, and response generation program | |
JP2019035897A (en) | Determination device, determination method, and determination program | |
JP6791829B2 (en) | Control unit, control method and control program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180420 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20180420 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20180516 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180813 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180828 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181012 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181030 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181217 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190115 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190212 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6482703 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |