JP2020201748A - 発話生成装置、発話生成方法及び発話生成プログラム - Google Patents
発話生成装置、発話生成方法及び発話生成プログラム Download PDFInfo
- Publication number
- JP2020201748A JP2020201748A JP2019108667A JP2019108667A JP2020201748A JP 2020201748 A JP2020201748 A JP 2020201748A JP 2019108667 A JP2019108667 A JP 2019108667A JP 2019108667 A JP2019108667 A JP 2019108667A JP 2020201748 A JP2020201748 A JP 2020201748A
- Authority
- JP
- Japan
- Prior art keywords
- utterance
- keyword
- sentence
- word
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 230000004044 response Effects 0.000 claims abstract description 59
- 239000013598 vector Substances 0.000 claims abstract description 59
- 238000000605 extraction Methods 0.000 claims abstract description 14
- 239000000284 extract Substances 0.000 claims description 8
- 230000014509 gene expression Effects 0.000 description 16
- 238000004891 communication Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 7
- 241000282414 Homo sapiens Species 0.000 description 4
- 235000013372 meat Nutrition 0.000 description 4
- 235000015429 Mirabilis expansa Nutrition 0.000 description 3
- 244000294411 Mirabilis expansa Species 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000008451 emotion Effects 0.000 description 3
- 230000004807 localization Effects 0.000 description 3
- 235000013536 miso Nutrition 0.000 description 3
- 238000000926 separation method Methods 0.000 description 3
- 238000003786 synthesis reaction Methods 0.000 description 3
- 230000009118 appropriate response Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000014759 maintenance of location Effects 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 235000021438 curry Nutrition 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 235000013305 food Nutrition 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 235000012149 noodles Nutrition 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000010979 ruby Substances 0.000 description 1
- 229910001750 ruby Inorganic materials 0.000 description 1
- 230000002269 spontaneous effect Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Images
Landscapes
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
しかしながら、一般的な人工無脳は、このようなコンテクストを考慮できていないという課題がある。このことは、会話が噛み合わない応答を行ってしまう原因となり、ユーザがコミュニケーションロボットに対して興味を失う要因の一つとなっている。
しかしながら、特許文献1の技術は、ユーザの発話文と記憶部に保存されているトピックとを比較するため、ユーザの発話文に含まれていないコンテクストを考慮できない。また、特許文献2の技術は、テレビ番組から抽出したキーワードとテンプレート文とから自発的な発話文を生成するため、ユーザの発話に対して応答文を生成できない。
本実施形態における発話生成装置1は、「食べたい」、「話したい」、「行きたい」などの要望を表す動詞を含む語句、又は「きれい」、「おいしそう」、「大きい」などの形容詞を含む語句を代表語と定義し、これらの代表語を含むテンプレート文と、代表語の特徴ベクトル及びキーワードデータベースに含まれる単語の特徴ベクトルを作成しておく。
これにより、発話生成装置1は、ユーザ発話文において明示されていないコンテクストである対象語を推定した上で、適切な応答発話文を生成することができる。例えば、キーワードとして、「ラーメン」、「どんぶり」、「レンゲ」、「博多」が保持されている状態で、ユーザが「これ食べたいな」などと発言した場合に、代表語である「食べたい」と特徴ベクトルの近い「ラーメン」が対象語として選択され、テンプレート文と組み合わせることで、「僕もラーメン食べたい」などの応答発話文が生成される。
図1は、本実施形態における発話生成装置1の機能構成を示すブロック図である。
発話生成装置1は、制御部及び記憶部の他、各種インタフェースを備えた情報処理装置であり、記憶部に格納されたソフトウェア(発話生成プログラム)を制御部が実行することにより、本実施形態の各種機能が実現される。
また、発話生成装置1の制御部は、応答生成処理ブロック20として、代表語探索部21と、対象語推定部22と、発話文生成部23とを備え、キーワード処理ブロック30として、キーワード抽出部31と、キーワード管理部32とを備える。
そして、発話生成装置1には、ユーザ発話文Uとテレビ出力文Tとが入力され、応答発話文Rが出力される。
ユーザ発話文Uは、音声入力装置40に入力された入力音声Viのうち、ユーザの発した音声のみを抽出してテキスト化したものである。なお、音声入力装置40は、コミュニケーションロボットに組み込まれ、複数のマイクを備えたマイクロフォンアレイにより構成される。
そこで、合成音は、音源定位・分離ユニット41により、入力された各音声の方向が検出され音源方向毎の音声に分離される。続いて、分離した音声の中からユーザの発話音声のみが抽出されると、音声認識ユニット42により、テキストに変換されたユーザ発話文Uが得られる。
文献A: 中臺一博、奥乃博、中島弘史、長谷川雄二、辻野広司、「ロボット聴覚オープンソースソフトウェアHARKの概要と評価」、第26回日本ロボット学会学術講演会、2008
文献B: 篠崎隆宏、「Kaldiツールキットを用いた音声認識システムの構築」、信学技報 116(279)、pp25−29、2016
テレビ出力文Tは、テレビの放送番組に付加されている字幕文(クローズドキャプション)であってよい。放送番組からの字幕文の抽出方法としては、例えば、ロボットがテレビ受像機と連動して、字幕情報を取得したり、放送連動サービスとして、インターネットなどの通信設備を用いて配信された字幕情報を受信したりする方法が考えられる。
また、テレビ出力文Tは、字幕文に限ったものではなく、例えば、ロボットに装備されたマイク又はカメラを用いて、テレビ音声から音声認識により文が抽出されてもよいし、テレビ映像のキャプチャ画像から画像処理によりオープンキャプションが抽出されてもよい。あるいは、既存の画像認識技術により、被写体の名称又は説明文などが生成されてもよい。
応答発話文Rは、音声合成ユニット51により音声へと変換され、スピーカにより構成される音声出力装置50から音声出力される。
音声合成ユニット51の実現手法は限定されないが、例えば次の文献Cの手法を用いることができる。
文献C: 大浦圭一郎、「日本語テキスト音声合成システム Open JTalk」、日本音響学会春季講論集、2010 1、pp343−344、2010
キーワードデータベース11は、キーワードが登録されたデータベースである。ここで、キーワードとは、主に、人名、地名、施設などの固有名詞又は一般名詞などである。本実施形態では、キーワードデータベース11には、テレビ出力文Tから対象語(コンテクスト)の候補として抽出したい単語(キーワード)が予め登録されているものとする。
キーワードメモリ12は、テレビ出力文Tから抽出されたキーワードを一定期間保持するためのメモリである。
この例では、キーワードメモリ12には、「ラーメン」、「どんぶり」、「レンゲ」、「博多」の4つのキーワードが格納されており、それぞれのキーワードが格納された日時も各キーワードに対応付けて保存されている。
なお、発話生成装置1の動作開始時には、キーワードメモリ12にはキーワードが保存されていない状態である。
代表語データベース13には、発話の特徴を示す代表語として感情を表す動詞及び形容詞を含む語句が登録されており、さらに、この代表語と意味が類似する別表現が登録される。
この例では、同じ又は似た意味の異なる表現を統一的に扱うため、種別、代表語、別表現の3つのフィールドのデータがリストとして保管されている。
代表語は、感情を表す動詞又は形容詞を含む語句であり、例えば、動詞を含む代表語として「話したい」、「聞きたい」、「食べたい」が登録されており、形容詞を含む代表語として「きれい」、「おもしろい」、「好き」が登録されている。
例えば、「話したい」の別表現として「おしゃべりしたい」、「しゃべってみたい」、「しゃべりたい」、「言いたい」、「言ってみたい」が、「聞きたい」の別表現として、「聞いてみたい」、「お聞きしたい」、「聴いてみたい」が、「食べたい」の別表現として「食いたい」、「食べちゃいたい」、「食べてみたい」が登録されている。
さらに、「きれい」の別表現として「綺麗」が、「おもしろい」の別表現として「面白い」が、「好き」の別表現として「大好き」が登録されている。
なお、本実施形態では、代表語データベース13にも、キーワードデータベース11と同様に、代表語と別表現とが予め登録されているものとする。
特徴ベクトルデータベース14には、代表語及び他のキーワードを含む単語又は語句と、各語に対応する分散表現である特徴ベクトルとが登録される。
なお、特徴ベクトルの算出方法は、word2vecに限定されるものではなく、意味的に近い語の特徴ベクトルがベクトル空間上で近くに分布する演算方式であればよい。
この例では、「ラーメン」の特徴ベクトルとしてvec1が登録され、以下、「どんぶり」、「レンゲ」、「博多」、「食べたい」、「聞きたい」、「話したい」の特徴ベクトルとしてそれぞれ、vec2〜vec7が登録され、全部でN個の特徴ベクトルが登録されている。
特徴ベクトルデータベース14には、予め大量の文章を入力として学習した特徴ベクトルが登録され、キーワードデータベース11及び代表語データベース13に含まれる語の特徴ベクトルが含まれる必要がある。
テンプレートデータベース15には、代表語に対する発話文のテンプレートが登録される。代表語は、代表語データベース13の代表語フィールドに登録されている語と同じである。
この例では、テンプレートデータベース15には、「使いたい」という代表語に対して、「%keyを使ってみたい」、「今度%keyを使ってみよう」などのテンプレート文が登録されている。また、同様に、「飲みたい」、「食べたい」、「きれい」、「おもしろい」、「好き」の各代表語に対応するテンプレート文が登録されている。
ここで、%keyは、何らかのキーワードに置き換えられる箇所を示している。
なお、テンプレートデータベース15のデータは、予め準備され登録される。
キーワード処理は、キーワード処理ブロック30を構成するキーワード抽出部31及びキーワード管理部32により実行される。
なお、テレビ出力文Tに複数のキーワードが含まれていた場合は、これら全てがキーワード管理部32に入力されてよい。
これにより、キーワードメモリ12には、視聴中のテレビ番組において現在話題になっているキーワードが所定期間(例えば、15秒間)保持される。
ステップS1において、キーワード抽出部31は、発話生成装置1への入力テキストとしてテレビ出力文Tを受け付ける。
なお、格納されたキーワードは、本処理とは別に、所定のキーワード保持時間が経過すると、キーワードメモリ12から削除される。
応答生成処理は、応答生成処理ブロック20を構成する代表語探索部21、対象語推定部22、及び発話文生成部23により実行される。
なお、ユーザ発話文Uに複数の代表語が含まれていた場合、代表語探索部21は、これら全てを対象語推定部22に入力してよい。また、代表語が一つも含まれていない場合、対象語推定部22への入力はなく、代表語探索部21は、次のユーザ発話文Uが入力されるまで待機する。
具体的には、まず、ユーザ発話文Uに、キーワードメモリ12に格納されているキーワードが含まれているかどうかを確認する。キーワードがユーザ発話文Uに含まれていた場合、このユーザ発話文Uに含まれる代表語の対象は、確認されたキーワードであることが明示的であり推定する必要がない。例えば、ユーザ発話文Uが「このラーメンおいしそう」であった場合、代表語である「おいしそう」の対象がキーワード「ラーメン」であることは自明である。
ここで、キーワードメモリ12に格納されているキーワードkの特徴ベクトルをveck、ユーザ発話文Uに含まれる代表語tの特徴ベクトルをvectとしたとき、veckとvectとの間の距離として、例えば、次式のコサイン類似度cos(veck,vect)が利用できる。
cos(veck,vect)=(veck・vect)/(|veck||vect|)
この例では、キーワードメモリ12には、「ラーメン」、「どんぶり」、「レンゲ」、「博多」の4つのキーワードが格納されており、それぞれの特徴ベクトルは、特徴ベクトルデータベース14により、vec1、vec2、vec3、vec4と定義されている。このとき、ユーザ発話文Uに代表語「食べたい」(特徴ベクトルvec5)が含まれていた場合を考える。
発話生成装置1は、このように生成した発話文を応答発話文Rとして出力する。
ステップS11において、代表語探索部21は、ユーザ発話文Uを受け付ける。
これにより、発話生成装置1は、テレビ番組視聴中にユーザが発した、感情を表現し、かつ、対象となるコンテクストを明示的に含んでいない発話、例えば、ラーメンが出てきたシーンで発した「これ食べたいな」というような発話に対して、「このラーメン食べてみたいね」、「僕は味噌ラーメンが好き」のように、明示されていないコンテクストを推定した上で、応答としての発話文を生成できる。
以下、本発明の第2実施形態について説明する。
本実施形態では、発話文生成部23の機能が第1実施形態とは異なり、外部の人工無能を利用して、応答発話文Rを生成する。
ここで、人工無脳は、テキスト又は音声を通じて会話を自動的に行うプログラムにより構成される。このような人工無脳は、インターネット上に存在する情報を収集し、SNSなどで話題となっている時事的な内容に関する対話を実現できるものも多い。
人工無脳は、ユーザから送られた文に対して返答を行う。例えば、ユーザが「ラーメン食べたい」と送ったとき、人工無脳からは、「僕は味噌ラーメンが好き」や「最近○○のラーメンが人気みたいだよ」などの返答が得られることが期待される。
この例では、「これ食べたい」というユーザ発話文Uに対して、代表語探索部21において「食べたい」が代表語として抽出され、対象語推定部22において「ラーメン」が対象語として推定された場合を示している。
ここでは、人工無能に文をパラメータとして入力することを想定している。このため、代表語及び対象語から文を作成するためのテンプレートが予め用意されてもよいし、テンプレートデータベース15が流用されてもよい。あるいは、語句を受け付け可能な人工無能の場合には、代表語及び対象語がそのままパラメータとして入力されてもよい。
また、複数の人工無脳を利用することも可能であるが、人工無脳は、その個性に合わせた一人称(私、僕、など)及び語尾(です、だよ、など)を利用している場合がある。この場合、テンプレートデータベース15のテンプレート文に合わせて、文を整形して応答発話文Rとすることが好ましい。
これにより、発話生成装置1は、限られたテンプレートによらず、バリエーションに富む応答発話文Rを出力することができる。また、代表語及び対象語の組み合わせは、ユーザの発話内容を解釈したものであるため、これに対して、さらに応答となる文を取得することで、発話生成装置1は、ユーザの発話に応じた対話を実現できる。
以下、本発明の第3実施形態について説明する。
発話生成装置1は、キーワードメモリ12に含まれるキーワードの中からユーザ発話文Uに含まれる代表語の対象となるキーワードを推定するが、キーワードメモリ12に格納されるキーワードが抽出されるテキストの発生元は限定されない。すなわち、対話の文脈となる対象語の発生元は、テレビ、ラジオ、人間など、様々なシチュエーションが考えられる。したがって、キーワード処理ブロック30へ入力されるテキストを変更し、キーワードメモリ12のデータを変更することで、異なるシチュエーションにおける発話文生成を実現できる。
これにより、キーワードメモリ12には、複数のユーザそれぞれの発したキーワードがユーザと対応付けて格納される。
そして、対象語推定部22は、代表語を抽出したユーザとは異なるユーザの発話文から抽出されたキーワードの中から対象語を決定する。
この例では、ユーザ2人のそばに発話生成装置1が組み込まれたコミュニケーションロボットがいる場合を想定している。
このとき、キーワードメモリ12には、キーワード及び格納日時のフィールドの他に、新たにユーザ情報を保存するフィールドが設けられる。このユーザ情報のフィールドには、キーワードが抽出される元となったユーザ発話文Uを発したユーザ名又はIDなどが格納される。
これにより、発話生成装置1は、複数のユーザの会話の輪に入り、ユーザ間の話題を推定しつつ、いずれかのユーザの発話に対して応答できる。
T テレビ出力文
U ユーザ発話文
1 発話生成装置
11 キーワードデータベース
12 キーワードメモリ
13 代表語データベース
14 特徴ベクトルデータベース
15 テンプレートデータベース
20 応答生成処理ブロック
21 代表語探索部
22 対象語推定部
23 発話文生成部
30 キーワード処理ブロック
31 キーワード抽出部
32 キーワード管理部
231 対話API呼出部
Claims (7)
- 入力文から、キーワードデータベースに登録されているキーワードを抽出するキーワード抽出部と、
抽出された前記キーワードをキーワードメモリに格納し、格納時から所定時間が経過した前記キーワードを前記キーワードメモリから削除するキーワード管理部と、
ユーザの発話文に含まれる代表語を探索する代表語探索部と、
前記代表語の特徴ベクトルと前記キーワードメモリに格納されている前記キーワードそれぞれの特徴ベクトルとの距離に基づいて、前記発話文の対象語となる前記キーワードを決定する対象語推定部と、
前記対象語及び前記代表語に基づいて応答発話文を生成する発話文生成部と、を備える発話生成装置。 - 前記発話文生成部は、前記対象語を、前記代表語に対応するテンプレートに組み合わせて応答発話文を生成する請求項1に記載の発話生成装置。
- 前記発話文生成部は、前記対象語及び前記代表語を含むパラメータにより、人工無能アプリケーションにアクセスし、前記応答発話文を取得する請求項1に記載の発話生成装置。
- 前記入力文は、テレビ番組の映像又は音声から抽出される請求項1から請求項3のいずれかに記載の発話生成装置。
- 前記入力文は、複数のユーザの発話文であり、
前記対象語推定部は、前記代表語を抽出したユーザとは異なるユーザの発話文から抽出されたキーワードの中から、前記対象語を決定する請求項1から請求項4のいずれかに記載の発話生成装置。 - 入力文から、キーワードデータベースに登録されているキーワードを抽出するキーワード抽出ステップと、
抽出された前記キーワードをキーワードメモリに格納し、格納時から所定時間が経過した前記キーワードを前記キーワードメモリから削除するキーワード管理ステップと、
ユーザの発話文に含まれる代表語を探索する代表語探索ステップと、
前記代表語の特徴ベクトルと前記キーワードメモリに格納されている前記キーワードそれぞれの特徴ベクトルとの距離に基づいて、前記発話文の対象語となる前記キーワードを決定する対象語推定ステップと、
前記対象語及び前記代表語に基づいて応答発話文を生成する発話文生成ステップと、をコンピュータが実行する発話生成方法。 - 請求項1から請求項5のいずれかに記載の発話生成装置としてコンピュータを機能させるための発話生成プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019108667A JP7365791B2 (ja) | 2019-06-11 | 2019-06-11 | 発話生成装置、発話生成方法及び発話生成プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019108667A JP7365791B2 (ja) | 2019-06-11 | 2019-06-11 | 発話生成装置、発話生成方法及び発話生成プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020201748A true JP2020201748A (ja) | 2020-12-17 |
JP7365791B2 JP7365791B2 (ja) | 2023-10-20 |
Family
ID=73743418
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019108667A Active JP7365791B2 (ja) | 2019-06-11 | 2019-06-11 | 発話生成装置、発話生成方法及び発話生成プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7365791B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022244883A1 (ja) * | 2021-05-21 | 2022-11-24 | 株式会社問道社 | 対話ツールを用いた思考認知支援システム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011170735A (ja) * | 2010-02-22 | 2011-09-01 | Sony Corp | サーバ装置、電子機器、検索システム、検索方法及びプログラム |
WO2018043113A1 (ja) * | 2016-08-29 | 2018-03-08 | ソニー株式会社 | 情報処理装置、情報処理方法、プログラム |
WO2018142686A1 (ja) * | 2017-01-31 | 2018-08-09 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP2018190077A (ja) * | 2017-04-28 | 2018-11-29 | 日本放送協会 | 発話生成装置、発話生成方法及び発話生成プログラム |
-
2019
- 2019-06-11 JP JP2019108667A patent/JP7365791B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011170735A (ja) * | 2010-02-22 | 2011-09-01 | Sony Corp | サーバ装置、電子機器、検索システム、検索方法及びプログラム |
WO2018043113A1 (ja) * | 2016-08-29 | 2018-03-08 | ソニー株式会社 | 情報処理装置、情報処理方法、プログラム |
WO2018142686A1 (ja) * | 2017-01-31 | 2018-08-09 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP2018190077A (ja) * | 2017-04-28 | 2018-11-29 | 日本放送協会 | 発話生成装置、発話生成方法及び発話生成プログラム |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022244883A1 (ja) * | 2021-05-21 | 2022-11-24 | 株式会社問道社 | 対話ツールを用いた思考認知支援システム |
Also Published As
Publication number | Publication date |
---|---|
JP7365791B2 (ja) | 2023-10-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11133027B1 (en) | Context driven device arbitration | |
CN110300001B (zh) | 会议音频控制方法、系统、设备及计算机可读存储介质 | |
US7788095B2 (en) | Method and apparatus for fast search in call-center monitoring | |
US8311824B2 (en) | Methods and apparatus for language identification | |
US9245523B2 (en) | Method and apparatus for expansion of search queries on large vocabulary continuous speech recognition transcripts | |
Hori et al. | A new approach to automatic speech summarization | |
US20180336902A1 (en) | Conference segmentation based on conversational dynamics | |
US20180027123A1 (en) | Conference searching and playback of search results | |
US20180027351A1 (en) | Optimized virtual scene layout for spatial meeting playback | |
US20080235018A1 (en) | Method and System for Determing the Topic of a Conversation and Locating and Presenting Related Content | |
JP6323947B2 (ja) | 音響イベント認識装置、及びプログラム | |
JPWO2008114811A1 (ja) | 情報検索システム、情報検索方法及び情報検索用プログラム | |
CN112818109B (zh) | 邮件的智能回复方法、介质、装置和计算设备 | |
JP6914094B2 (ja) | 発話生成装置、発話生成方法及び発話生成プログラム | |
KR102462219B1 (ko) | 화자 분리 기술을 이용한 회의록 자동 생성 방법 | |
JP6976155B2 (ja) | 類似テキスト抽出装置、自動応答システム、類似テキスト抽出方法、およびプログラム | |
CN115171731A (zh) | 一种情绪类别确定方法、装置、设备及可读存储介质 | |
US10699224B2 (en) | Conversation member optimization apparatus, conversation member optimization method, and program | |
JP6254504B2 (ja) | 検索サーバ、及び検索方法 | |
Fu et al. | Improving meeting inclusiveness using speech interruption analysis | |
JP7365791B2 (ja) | 発話生成装置、発話生成方法及び発話生成プログラム | |
US11798538B1 (en) | Answer prediction in a speech processing system | |
Chiba et al. | Dialogue Situation Recognition in Everyday Conversation From Audio, Visual, and Linguistic Information | |
JP7407560B2 (ja) | キーワード評価装置、キーワード評価方法及びキーワード評価プログラム | |
JP7352491B2 (ja) | ユーザ周辺データに応じて雑談のような対話を進行させる対話装置、プログラム及び方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220511 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230405 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230418 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230619 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230912 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231010 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7365791 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |