JP6755304B2 - 情報処理装置 - Google Patents

情報処理装置 Download PDF

Info

Publication number
JP6755304B2
JP6755304B2 JP2018514129A JP2018514129A JP6755304B2 JP 6755304 B2 JP6755304 B2 JP 6755304B2 JP 2018514129 A JP2018514129 A JP 2018514129A JP 2018514129 A JP2018514129 A JP 2018514129A JP 6755304 B2 JP6755304 B2 JP 6755304B2
Authority
JP
Japan
Prior art keywords
feature amount
utterance
user
target
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018514129A
Other languages
English (en)
Other versions
JPWO2017187712A1 (ja
Inventor
真一 狩谷
真一 狩谷
真一 本多
真一 本多
博之 勢川
博之 勢川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JPWO2017187712A1 publication Critical patent/JPWO2017187712A1/ja
Application granted granted Critical
Publication of JP6755304B2 publication Critical patent/JP6755304B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Child & Adolescent Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

本発明は、ユーザーによる発話の特徴を評価する情報処理装置、情報処理方法、プログラム、及び情報記憶媒体に関する。
ユーザーが発話する音声を受け付けて、その音声の内容に応じて情報処理を実行する情報処理装置が知られている。このような技術によれば、ユーザーは手を使ってキーボードやタッチパネルで文字を入力する代わりに、声で各種の指示や情報を入力することができる。また、ユーザーの発話から、感情や態度など発話した内容以外のものを読み取ることも研究されている(例えば非特許文献1参照)。このような技術によれば、ユーザーの発話に込められた感情などに応じて各種の情報処理を実行することができる。
Kikuo Maekawa and Hiroki Mori、"VOICE-QUALITY ANALYSIS OF JAPANESE FILLED PAUSES: A PRELIMINARY REPORT"、[online]、[平成27年11月16日検索]、インターネット<URL:http://www2.ninjal.ac.jp/kikuo/Maekawa-DISS2015.pdf>
上記従来例の技術では、ユーザーの話し方に個人差があるために、ユーザーの発話の特徴を正確に評価することができない場合がある。
本発明は上記実情を考慮してなされたものであって、その目的の一つは、ユーザーの発話の特徴をより精度よく評価できる情報処理装置、情報処理方法、プログラム、及び情報記憶媒体を提供することにある。
本発明に係る情報処理装置は、評価対象となるユーザーの発話に基づいて、当該ユーザーの平常時の発話の特徴を表す基準特徴量を決定する基準特徴量決定部と、前記ユーザーによる評価対象となる対象発話の音声特徴量のデータを取得する発話特徴量取得部と、前記対象発話の音声特徴量と前記基準特徴量との比較結果に基づいて、前記対象発話の特徴を評価する評価部と、を含むことを特徴とする。
本発明に係る情報処理方法は、評価対象となるユーザーの発話に基づいて、当該ユーザーの平常時の発話の特徴を表す基準特徴量を決定するステップと、前記ユーザーによる評価対象となる対象発話の音声特徴量のデータを取得するステップと、前記対象発話の音声特徴量と前記基準特徴量との比較結果に基づいて、前記対象発話の特徴を評価するステップと、を含むことを特徴とする。
本発明に係るプログラムは、評価対象となるユーザーの発話に基づいて、当該ユーザーの平常時の発話の特徴を表す基準特徴量を決定する基準特徴量決定部、前記ユーザーによる評価対象となる対象発話の音声特徴量のデータを取得する発話特徴量取得部、及び、前記対象発話の音声特徴量と前記基準特徴量との比較結果に基づいて、前記対象発話の特徴を評価する評価部、としてコンピュータを機能させるためのプログラムである。このプログラムは、コンピュータ読み取り可能で非一時的な情報記憶媒体に格納されて提供されてよい。
本発明の実施の形態に係る情報処理装置の構成を示す構成ブロック図である。 本発明の実施の形態に係る情報処理装置の機能を示す機能ブロック図である。 発話特徴量取得の対象となる時間区間の一例を示す図である。 基準特徴量のデータの一例を示す図である。 評価結果の表示例を示す図である。 本発明の実施の形態に係る情報処理装置が実行する処理の流れの一例を示すフロー図である。
以下、本発明の実施形態について、図面に基づき詳細に説明する。
図1は、本発明の一実施形態に係る情報処理装置1の構成を示す構成ブロック図である。情報処理装置1は、例えば家庭用ゲーム機や携帯型ゲーム機、パーソナルコンピュータ、スマートホン等であって、図1に示すように、制御部11と、記憶部12と、インタフェース部13と、を含んで構成されている。また、情報処理装置1は、表示装置14、マイクロホン15、及びスピーカー16と接続されている。
制御部11はCPU等を含んで構成され、記憶部12に記憶されているプログラムを実行して各種の情報処理を実行する。本実施形態において制御部11が実行する処理の具体例については、後述する。記憶部12は、RAM等のメモリデバイスを含み、制御部11が実行するプログラム、及び当該プログラムによって処理されるデータを格納する。インタフェース部13は、情報処理装置1が表示装置14、マイクロホン15、及びスピーカー16との間で各種の情報を授受するためのインタフェースである。
表示装置14は、ヘッドマウントディスプレイや家庭用テレビ受像機、液晶ディスプレイ等であって、情報処理装置1が出力する映像信号に応じた画像を画面上に表示する。マイクロホン15は、情報処理装置1のユーザーが発する声を集音して得られる音声信号を情報処理装置1に対して出力する。スピーカー16は、情報処理装置1が出力する音声信号に従って音声を鳴動させる。なお、表示装置14、マイクロホン15、及びスピーカー16は、いずれも情報処理装置1の筐体内に内蔵されてもよいし、情報処理装置1と有線又は無線により接続される別個の装置であってもよい。
以下、情報処理装置1が実現する機能について、図2を用いて説明する。図2に示すように、情報処理装置1は、機能的に、音声信号取得部21と、発話特徴量取得部22と、基準特徴量決定部23と、評価部24と、を含んで構成されている。これらの機能は、制御部11が記憶部12に記憶されたプログラムに従って動作することにより実現される。このプログラムは、インターネット等の通信ネットワークを介して情報処理装置1に提供されてもよいし、光ディスク等のコンピュータ読み取り可能な情報記憶媒体に格納されて提供されてもよい。
音声信号取得部21は、マイクロホン15によって集音された音声信号を取得し、発話特徴量取得部22に対して出力する。本実施形態において情報処理装置1は、評価対象となるユーザーの発話を受け付けて、その特徴を評価する。音声信号取得部21が取得する音声信号には、このユーザーが発話したときの声が含まれることになる。以下では、評価対象となるユーザーを対象ユーザーという。また、評価対象となる対象ユーザーの発話を、対象発話という。
特に本実施形態では、情報処理装置1は、仮想的なエージェントと対象ユーザーとの対話を実現するアプリケーションプログラムを実行することとする。エージェントの対象ユーザーに対する発言は表示装置14の画面に表示されてもよいし、スピーカー16から音声として再生されてもよい。この発言に応答する対象ユーザーの発話が対象発話となる。後述する評価部24は、対象発話の特徴を評価することによって、対象発話に込められた対象ユーザーの感情を推定する。
発話特徴量取得部22は、音声信号取得部21によって取得された音声信号から、対象ユーザーの声を表す波形データを抽出し、その波形データに対する解析処理を行うことによって、対象発話の特徴を表す音声特徴量の値を取得する。以下では、対象発話の特徴を表す音声特徴量を発話特徴量という。
発話特徴量取得部22は、複数種類の発話特徴量の値を取得してよい。例えば発話特徴量取得部22は、対象ユーザーの声の音量(振幅)、ピッチ(周波数)、話速などの各特徴について、その対象発話全体における統計量を発話特徴量の値として取得する。ここで各特徴の統計量は、対象発話全体の時間区間における平均値や、標準偏差、最大値、最小値、レンジ(最大値と最小値の差)などであってよい。
また、発話特徴量には、これらの特徴の時間変化を示す統計量が含まれてもよい。具体的に、例えば発話特徴量取得部22は、対象発話全体の時間区間に含まれる複数のサンプリングタイミングのそれぞれについて、その時点における音量やピッチの時間変化を示す微分値を、中心差分法などによって算出する。そして、各サンプリングタイミングについて算出された微分値の、対象発話全体における平均値や最大値、最小値、標準偏差などを、発話特徴量として取得する。一例として、対象ユーザーが驚いた際には、音量やピッチが一回の発話の中で大きく変動する可能性がある。このような発話の途中における時間変化などの特徴は、対象発話全体における音量やピッチの統計量には表れないと考えられる。そこで、微分値の統計量を発話特徴量として取得することで、このような一回の発話の中での変化を表す発話特徴量を得ることができる。
さらに、一回の発話の中での変化に関する発話特徴量として、発話特徴量取得部22は、対象発話全体のうちの一部の時間区間を対象とした音声特徴量を取得してもよい。より具体的に、発話特徴量取得部22は、対象発話全体のうちの最初(話し始め)の時間区間や、最後(話し終わり)の時間区間などを対象として、音量の平均値やピッチの平均値などの特徴量を算出する。図3は、対象発話が「おはよう」というものだった場合における、最初の時間区間T1及び最後の時間区間T2を示している。ここで各時間区間は、対象発話全体の最初及び最後の所定の長さの区間であってよい。所定の長さは、秒数やモーラ数、単語数などを単位として定義されてよい。図3の例では、時間区間T1及びT2は、それぞれモーラ数を単位として1モーラの長さとして定義されている。このような時間区間T1及びT2それぞれについての発話特徴量を取得することで、話し始めは音量が大きく最後は音量が小さいなどの発話の特徴を捉えることができる。また、発話特徴量取得部22は、図3に示すように、最初の時間区間T1及び最後の時間区間T2を除く途中の時間区間T3についても、発話特徴量取得の対象としてもよい。
図3の例では、発話特徴量取得の対象となる時間区間の長さは、予め定められた固定の長さであることとしたが、時間区間の長さは可変であってもよい。例えば、時間区間T1及びT2は、それぞれ対象発話全体の長さに対する割合によって定義されてもよい。さらに、発話特徴量取得部22は、最初の時間区間T1について取得された特徴量と、最後の時間区間T2について取得された特徴量との差を表す値を、発話特徴量の一つとして取得してもよい。これにより、対象発話の最初と最後における音量やピッチの相違を表す発話特徴量を得ることができる。
また、発話特徴量取得部22は、情報処理装置1が対象ユーザーに発話を促す出力を行ってから、対象ユーザーが対象発話を開始するまでの経過時間を発話特徴量の一つとして取得してもよい。具体的に発話特徴量取得部22は、エージェントによる質問が再生されてから対象ユーザーが発話するまでの経過時間を計測する。この経過時間は、対象ユーザーがフィラーとして認識される発話(すなわち、「あー」「えーと」などの言語的に意味を持たない発声)を行っている時間を含んでもよい。
発話特徴量取得部22が取得した発話特徴量に基づいて、評価部24が対象発話の特徴を評価する。具体的に評価部24は、発話特徴量取得部22が取得した発話特徴量を、基準特徴量と比較することによって、対象発話の評価を行う。基準特徴量決定部23は、この評価に用いられる基準特徴量を決定する。
ここで基準特徴量は、発話特徴量との比較の基準となる、対象ユーザーの平常時の発話(すなわち、強い感情が表れていない発話)の特徴を示す音声特徴量であって、対象ユーザーの実際の発話に基づいて決定される。基準特徴量決定部23は、発話特徴量取得部22が取得する発話特徴量と同種の音声特徴量について、基準特徴量を決定する。基準特徴量は、対象ユーザーが平常時にどの程度の声量で話すか、どの程度の声の高さで話すか、またどの程度の話速で話すかなどを示す量となる。
以下では基準特徴量決定部23は、ユーザーの平常時の発話と想定される実際の発話を受け付けて、その発話の特徴から基準特徴量を決定するものとする。具体的に、基準特徴量決定部23は、例えば対象ユーザーが情報処理装置1の使用を開始したタイミングなど、評価対象となる対象発話よりも先に、対象ユーザーの平常時の発話を受け付けて、その音声特徴量を算出する。これにより基準特徴量決定部23は、対象ユーザーの平常時の発話の特徴を表す基準特徴量を決定できる。以下では、基準特徴量の算出に使用される対象ユーザーの事前の発話を、基準発話という。
特に本実施形態では、基準特徴量は、対象ユーザーによる複数回の基準発話に基づいて算出されることとする。平常時であっても、人の話し方は常に一定とは限らない。そのため、複数回の基準発話を用いて基準特徴量を決定することが好ましい。基準特徴量決定部23は、複数回の基準発話のそれぞれについて得られた特徴量の値の平均値を基準特徴量の値としてもよい。しかしながらこれに限らず、基準特徴量決定部23は、平常時におけるその特徴量の変動幅を示すデータを、基準特徴量として取得してもよい。例えば音量に関して言うと、人によって大きな声で話したり小さな声で話したりというように音量の絶対値に個人差があるだけでなく、いつも一定の音量で話す人やその時々で音量が変化する人がいるなど、音量の変動幅にも個人差があると考えられる。そのため、基準特徴量を、特徴量の値の変動幅を表す数値範囲によって定義することで、このような変動幅の個人差を基準特徴量に反映することができる。図4は、このような変動幅を表す基準特徴量のデータの一例を示している。この図の例では、音量やピッチなどの各特徴量について、平常時に採り得る値の範囲の上限値及び下限値によって基準特徴量が定義されている。この場合の上限値及び下限値は、複数回の基準発話のそれぞれについて算出された音声特徴量の平均値や分散、最大値、最小値などに基づいて決定されてよい。
ここで、基準特徴量の算出に用いられる基準発話の音声データを取得する方法のいくつかの例について、説明する。例えば基準特徴量決定部23は、あまりユーザーが感情を込めないと想定される内容のメッセージを表示装置14の画面に表示し、対象ユーザーに読み上げてもらうことで、基準発話の音声データを取得する。このような基準発話の受け入れは、例えば対象ユーザーが情報処理装置1の使用開始時にユーザープロフィールを登録するタイミングで実行されてもよい。
また、情報処理装置1がエージェントとの対話処理を実行する場合、対話開始直後の対象ユーザーの発話を、基準発話として利用してもよい。対話が開始された直後は、初対面の挨拶が交わされるなどして、強い感情を込めた発言は行われないと想定されるためである。このような処理によれば、基準特徴量算出のためにわざわざ特別に対象ユーザーに基準発話を促す必要がなくなる。
複数のユーザーが情報処理装置1を使用する場合、基準特徴量決定部23は、ユーザー毎に基準特徴量を算出し、記憶部12内に記憶しておく。また、記憶部12内に記憶された基準特徴量のデータは、定期的に新たな基準発話の音声データに基づいて更新されてもよい。時間とともにユーザーの話し方の特徴が変化することもあるからである。また、情報処理装置1が複数種類のエージェントを実現する場合、同じ対象ユーザーであっても、対話相手となるエージェントの種類ごとに個別に基準特徴量を算出し、記憶することとしてもよい。この場合、対応するエージェントとの対話中における対象ユーザーの発話を基準発話として使用する。こうすれば、話し相手となるエージェントによって対象ユーザーの話し方が変動する場合に、それぞれのエージェントと話す際の基準となる基準特徴量を得ることができる。
評価部24は、前述したように、対象発話について取得された発話特徴量と、基準特徴量と、を比較した結果に基づいて、対象発話の特徴を評価する。具体的に、基準特徴量が単一の数値によって定義されている場合、評価部24は、発話特徴量と基準特徴量との差分を用いて、対象発話の評価処理を行う。また、基準特徴量が数値範囲によって定義されている場合、評価部24は、発話特徴量の値がその数値範囲に含まれるか、その数値範囲の上限値を超えているか、あるいは下限値を下回っているかを判定する。そして、その判定結果を用いて、評価処理を行う。あるいは、発話特徴量が基準特徴量の数値範囲に含まれていない場合、その数値範囲の境界値との差分を用いて評価処理を行ってもよい。
評価部24は、予め用意された評価基準に従って具体的な評価処理を行う。この評価基準は、発話特徴量と基準特徴量との比較結果を入力とし、対象発話の評価結果を出力とする推定エンジンとして実現される。このような推定エンジンは、予め被験者に対して実験を行った結果に基づいて人為的に生成してもよいし、教師つき機械学習などの手法で生成してもよい。推定エンジンの出力は、例えば複数の感情指標のそれぞれについて、その感情が対象発話に込められている可能性がどの程度あるかを示す数値であってよい。ここでの感情指標は、怒り、驚き、失望、困惑、嬉しい、よそよそしい、などである。このような感情指標のそれぞれについて数値を算出することによって、例えば対象発話の音量が平常時より大きい場合に対象ユーザーが驚いていたり怒っていたりする可能性が高いといった推定を行うことができる。
ここで注目すべき点は、推定エンジンが用いる評価基準自体は、対象ユーザーとは別の被験者から得られるサンプルデータに基づいて生成可能であって、複数の対象ユーザーに対して共通して使用されることである。本願発明者らは、以下のような仮説を立てて、その検証を行った。すなわち、発話の音声特徴量には個人差があるものの、発話毎の音声特徴量は平常時(感情的にニュートラルな状態)を中心とした統計的な分布に従う。そして、感情が込められた発話の特徴量の、平常時の発話の特徴量に対する変化傾向については、被験者によって多少の個人差があるものの、全体として同じ傾向を示す、という仮説である。研究の結果、本願発明者らはこの仮説が妥当であることを裏付ける検証結果を得た。このことから、対象ユーザーごとに取得された基準特徴量と発話特徴量との比較結果を入力として用いることにより、対象ユーザーごとに個別の推定エンジンを用意せずとも、発話音声の個人差を吸収して比較的精度の高い感情推定を行うことができる。
ただし、評価部24は、複数種類の評価基準を予め用意し、そのいずれかを使用して対象ユーザーについての評価処理を実行してもよい。この場合、評価部24が利用する複数の評価基準は、互いに異なるユーザーグループを対象としている。このユーザーグループは、発話の特徴が近い傾向を示すユーザーが同じグループに属するように複数のユーザーを分類したものである。実際に評価を行う際には、まず評価部24は、対象ユーザーについて決定された基準特徴量に基づいて、対象ユーザーが複数のユーザーグループのいずれに属するかを特定する。そして、そのユーザーグループを対象とする評価基準に従って、対象発話の評価を行う。こうすれば、感情に起因する発話特徴量の変化傾向について一般的な人と異なる傾向を持つ対象ユーザーについても、精度の高い評価を行える可能性が高くなる。
情報処理装置1は、評価部24による評価結果を用いて、その後に各種の処理を実行する。例えばエージェントとの会話処理においては、評価結果が示す対象ユーザーの感情を反映して、その後のエージェントの発言内容を決定し、出力する。また、評価部24は、評価結果そのものを表示装置14の画面に表示してユーザーに提示してもよい。図5は、評価結果の表示例を示している。この図の例では、6種類の感情指標それぞれの度合いを示す数値がレーダーチャートによって示されている。この図の例では、発話特徴量に関して比較的近い傾向を示す感情が隣接するように配置され、互いに関連性の低い感情は対向するように配置されている。推定対象となる複数種類の感情は互いに独立しているわけではなく、比較的近い種類の感情が交じり合った状態でユーザーが発話していたり、強い相関を示す複数種類の感情のうちのどちらの感情をユーザーが抱いているか明確に区別できなかったりすることがあり得る。そこで、このように関連性の高い感情指標が隣接するような配置で感情の推定結果を表示することにより、各指標値を個別に表示する場合と比較して、全体としてのユーザーの感情の傾向を把握しやすくすることができる。
ここで、情報処理装置1の制御部11が対象発話の評価を行う際に実行する処理の流れの一例について、図6のフロー図を用いて説明する。
まず制御部11は、エージェントの発言を出力する(S1)。そして、音声信号取得部21が、その発言に対する対象ユーザーの応答(対象発話)を含んだ音声信号を取得する(S2)。次に発話特徴量取得部22が、S2で取得された音声信号を対象とした解析処理によって、複数種類の発話特徴量を取得する(S3)。
その後、評価部24は、基準特徴量決定部23によって決定される基準特徴量をS3で算出された発話特徴量と比較して、比較結果を出力する。具体的に評価部24は、S3で得られた複数種類の発話特徴量のそれぞれについて、基準特徴量の数値範囲と比較し、その数値範囲に含まれるか、上限値を上回るか、または下限値を下回るかを示す比較結果を出力する(S4)。このような処理は、S3で得られた全ての種類の発話特徴量の値について、繰り返される(S5)。さらに続いて、評価部24は、S4で出力された各発話特徴量の比較結果を用いて推定エンジンによる感情の評価処理を実行し、感情推定の結果を出力する(S6)。これにより、対象発話に込められた対象ユーザーの感情を推定した結果が得られる。
以上説明した本実施形態に係る情報処理装置1によれば、声の大きい人や低い声の人など、平常時の発話特徴量に個人差があっても、その個人差を吸収して、評価対象とする対象発話に込められた感情を精度よく評価することができる。
なお、本発明の実施の形態は、以上説明したものに限られない。例えば評価部24は、発話特徴量や基準特徴量として、以上説明したもの以外の各種の音声特徴量を利用してもよい。また、以上の説明では発話特徴量取得部22は自身で発話特徴量を算出することとしたが、他のコンピュータで算出された発話特徴量のデータを取得してもよい。また、情報処理装置1は、ユーザーのすぐそばにあるローカルの装置ではなく、通信ネットワークを介して接続されたサーバ装置等であってもよい。この場合、情報処理装置1は、ローカルの装置から発話特徴量のデータを受信し、自身が保持する基準特徴量と比較して評価処理を行う。そして、評価結果をローカルの装置に送出する。
また、以上の説明では評価部24は評価処理によって対象発話に込められた感情を推定することとしたが、これに限らず、例えば発話した対象ユーザーの疲労度等を推定してもよい。また、以上の説明では情報処理装置1は対象ユーザーと対話する仮想的なエージェントを実現するものとし、対象発話は対象ユーザーがエージェントの発言に対して応答する発話であることとした。しかしながら、対象発話はこのようなものに限られず、対象ユーザーが音声入力を行う際の発話や、他のユーザーと会話している際の発話など、各種のものであってよい。また、対象発話はマイクロホン15によって取得された音声信号に含まれるのではなく、予め記憶部12内に記憶された音声波形データに含まれるものであってもよい。
また、以上の説明では基準特徴量決定部23は、対象ユーザーの平常時の(すなわち、強い感情が込められていない)発話を基準発話として受け付けて、その基準発話について算出された特徴量を基準特徴量として用いることとした。しかしながら基準特徴量の決定方法はこのようなものに限られない。例えば情報処理装置1は、対象ユーザーの基準特徴量として使用する可能性のある複数の基準特徴量候補を予め保持しておくこととしてもよい。この場合の具体例について、以下に詳しく説明する。
この例における基準特徴量候補は、対象ユーザーとは別の複数の話者(サンプル話者)が行った実際の発話のサンプルデータに基づいて、決定される。具体的に情報処理装置1は、話者及びその話者による発話が属するカテゴリと、そのカテゴリに該当するサンプル発話の特徴に基づいて算出される音声特徴量のデータ(対比用特徴量データ)と、そのカテゴリに属する話者による平常時の発話の特徴を示す基準特徴量候補と、を対応付けた基準特徴量決定用データを保持する。この例におけるカテゴリは、話者、及びその話者による発話についての各種の属性の組み合わせであってよい。話者に関する属性としては、話者の性別、年齢、声質などが挙げられる。また、発話の特徴としては、その発話に込められた感情が挙げられる。例えば、20代の男性で地声が低い声のサンプル話者が怒りを込めたサンプル発話を行った際に得られる音声特徴量のデータが、その属性値の組み合わせによって特定されるカテゴリ(20代、男性、低音、怒り)と対応付けてサンプル発話データとして記録される。また、そのサンプル話者が感情を込めずに行った発話(平常時発話)の音声特徴量も、併せて記録される。このようなサンプルデータを多数集めることによって、同一カテゴリについて得られる複数のサンプル発話データから、対比用特徴量データが算出される。なお、対比用特徴量データは複数種類の音声特徴量について算出される代表値(平均値等)であってもよいし、各音声特徴量についての数値範囲を規定するデータであってもよい。また、そのサンプル発話を行ったサンプル話者の平常時発話の音声特徴量データに基づいて、基準特徴量候補のデータが生成される。なお、基準特徴量候補のデータは、前述の実施例において、対象ユーザーに関して基準発話に基づいて基準特徴量を決定する際の計算方法と同様の手法によって、サンプル話者による平常時発話の音声特徴量から決定されてよい。
以上説明した手法で得られる基準特徴量決定用データを用いて、基準特徴量決定部23は実際の対象ユーザーの基準発話から基準特徴量を決定する。ここで注意すべき点は、前述した実施例とは異なり、この基準特徴量決定用データを用いる例においては、対象ユーザーから受け付ける基準発話は平常時のものに限られず、感情を込めた発話であってもよいということである。具体的に基準特徴量決定部23は、対象ユーザーの基準発話の音声特徴量を算出し、算出した音声特徴量が最もよく一致する対比用特徴量データを特定する。例えば対象ユーザーから得られる基準発話の音声特徴量が、基準特徴量決定用データに含まれる複数のカテゴリのうち、(20代、男性、低音、怒り)のカテゴリに対応付けられた対比用特徴量データに最も近いと判定される場合、対象ユーザーの基準発話はこのカテゴリに属する発話であると推定し、当該カテゴリに対応付けられた基準特徴量候補のデータを、以降の処理において使用する基準特徴量として決定する。このような手法によれば、対象ユーザーが基準発話として平常時の発話を行わずとも、その対象ユーザーの平常時の発話の特徴を示すと想定される基準特徴量を得ることができる。
1 情報処理装置、11 制御部、12 記憶部、13 インタフェース部、14 表示装置、15 マイクロホン、16 スピーカー、21 音声信号取得部、22 発話特徴量取得部、23 基準特徴量決定部、24 評価部。

Claims (11)

  1. 評価対象となるユーザーの発話に基づいて、当該ユーザーの平常時の発話の特徴を表す基準特徴量を決定する基準特徴量決定部と、
    前記ユーザーによる評価対象となる対象発話の音声特徴量のデータを取得する発話特徴量取得部と、
    前記対象発話の音声特徴量と前記基準特徴量との比較結果に基づいて、前記対象発話の特徴を評価する評価部と、
    を含み、
    前記評価部は、前記評価対象となるユーザーについて取得された前記基準特徴量に基づいて、当該評価対象となるユーザーを発話の特徴の傾向が互いに異なる複数のユーザーグループのいずれかに分類し、それぞれ前記複数のユーザーグループのいずれかを対象とし、前記対象発話の音声特徴量と前記基準特徴量との比較結果を評価するために用いられる複数の評価基準のうち、前記評価対象となるユーザーが属するユーザーグループを対象とする評価基準を用いて、前記対象発話の特徴を評価する
    ことを特徴とする情報処理装置。
  2. 請求項1に記載の情報処理装置において、
    前記基準特徴量決定部は、前記ユーザーによる平常時の複数回の発話に基づいて、当該複数回の発話おける音声特徴量の変動幅に応じた数値範囲として前記基準特徴量を決定し、
    前記評価部は、前記対象発話の音声特徴量が、前記基準特徴量の数値範囲に含まれるか、前記数値範囲の上限値を上回るか、または前記数値範囲の下限値を下回るかを、前記比較結果として用いる
    ことを特徴とする情報処理装置。
  3. 請求項1又は2に記載の情報処理装置において、
    前記対象発話の音声特徴量は、前記ユーザーに対して発話を促す出力がされてから、前記ユーザーが前記対象発話を開始するまでの経過時間を含む
    ことを特徴とする情報処理装置。
  4. 請求項1からのいずれか一項に記載の情報処理装置において、
    前記対象発話の音声特徴量は、前記対象発話の一部の時間区間の特徴を表す音声特徴量を含む
    ことを特徴とする情報処理装置。
  5. 請求項に記載の情報処理装置において、
    前記一部の時間区間は、前記対象発話の話し始めの時間区間、及び、話し終わりの時間区間の少なくとも一方を含む
    ことを特徴とする情報処理装置。
  6. 請求項に記載の情報処理装置において、
    前記対象発話の音声特徴量は、前記話し始めの時間区間の音声特徴量と、前記話し終わりの時間区間の音声特徴量と、の差の値を含む
    ことを特徴とする情報処理装置。
  7. 請求項1からのいずれか一項に記載の情報処理装置において、
    前記評価部は、複数種類の感情のそれぞれについて、前記対象発話に当該感情が込められている可能性を示す指標値を前記対象発話の特徴として算出し、
    前記情報処理装置は、前記算出される指標値に応じた出力を行う出力部をさらに含む
    ことを特徴とする情報処理装置。
  8. 請求項に記載の情報処理装置において、
    前記出力部は、前記複数種類の感情のそれぞれについて算出される指標値の大きさを、前記音声特徴量に関して相対的に強い相関を示す感情が隣接する態様で表示装置に表示させる
    ことを特徴とする情報処理装置。
  9. 基準特徴量決定部が、評価対象となるユーザーによる平常時の複数回の発話に基づいて、当該ユーザーの平常時の発話の特徴を表す基準特徴量を決定するステップと、
    発話特徴量取得部が、前記ユーザーによる評価対象となる対象発話の音声特徴量のデータを取得するステップと、
    評価部が、前記対象発話の音声特徴量と前記基準特徴量との比較結果に基づいて、前記対象発話の特徴を評価するステップと、
    前記評価部が、前記評価対象となるユーザーについて取得された前記基準特徴量に基づいて、当該評価対象となるユーザーを発話の特徴の傾向が互いに異なる複数のユーザーグループのいずれかに分類するステップと、
    を含み、
    前記評価部が前記対象発話の特徴を評価するステップでは、それぞれ前記複数のユーザーグループのいずれかを対象とし、前記対象発話の音声特徴量と前記基準特徴量との比較結果を評価するために用いられる複数の評価基準のうち、前記評価対象となるユーザーが属するユーザーグループを対象とする評価基準を用いて、前記対象発話の特徴を評価する
    ことを特徴とする情報処理方法。
  10. 評価対象となるユーザーによる平常時の複数回の発話に基づいて、当該ユーザーの平常時の発話の特徴を表す基準特徴量を決定する基準特徴量決定部、
    前記ユーザーによる評価対象となる対象発話の音声特徴量のデータを取得する発話特徴量取得部、及び、
    前記対象発話の音声特徴量と前記基準特徴量との比較結果に基づいて、前記対象発話の特徴を評価する評価部、
    としてコンピュータを機能させるためのプログラムであって、
    前記評価部は、前記評価対象となるユーザーについて取得された前記基準特徴量に基づいて、当該評価対象となるユーザーを発話の特徴の傾向が互いに異なる複数のユーザーグループのいずれかに分類し、それぞれ前記複数のユーザーグループのいずれかを対象とし、前記対象発話の音声特徴量と前記基準特徴量との比較結果を評価するために用いられる複数の評価基準のうち、前記評価対象となるユーザーが属するユーザーグループを対象とする評価基準を用いて、前記対象発話の特徴を評価する
    プログラム。
  11. 請求項10に記載のプログラムを記憶した、コンピュータ読み取り可能な情報記憶媒体。
JP2018514129A 2016-04-26 2017-02-09 情報処理装置 Active JP6755304B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016088019 2016-04-26
JP2016088019 2016-04-26
PCT/JP2017/004761 WO2017187712A1 (ja) 2016-04-26 2017-02-09 情報処理装置

Publications (2)

Publication Number Publication Date
JPWO2017187712A1 JPWO2017187712A1 (ja) 2018-11-01
JP6755304B2 true JP6755304B2 (ja) 2020-09-16

Family

ID=60160250

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018514129A Active JP6755304B2 (ja) 2016-04-26 2017-02-09 情報処理装置

Country Status (3)

Country Link
US (1) US11455985B2 (ja)
JP (1) JP6755304B2 (ja)
WO (1) WO2017187712A1 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10622006B2 (en) * 2017-05-17 2020-04-14 Futurewei Technologies, Inc. Mechanism and instrumentation for metering conversations
KR102413282B1 (ko) * 2017-08-14 2022-06-27 삼성전자주식회사 개인화된 음성 인식 방법 및 이를 수행하는 사용자 단말 및 서버
WO2019193781A1 (ja) * 2018-04-04 2019-10-10 パナソニックIpマネジメント株式会社 感情推定装置、感情推定方法及びプログラム
EP3766066B1 (en) * 2018-04-19 2024-02-21 Microsoft Technology Licensing, LLC Generating response in conversation
US11094316B2 (en) * 2018-05-04 2021-08-17 Qualcomm Incorporated Audio analytics for natural language processing
US20190385711A1 (en) 2018-06-19 2019-12-19 Ellipsis Health, Inc. Systems and methods for mental health assessment
WO2019246239A1 (en) 2018-06-19 2019-12-26 Ellipsis Health, Inc. Systems and methods for mental health assessment
US11763239B1 (en) * 2018-09-18 2023-09-19 Wells Fargo Bank, N.A. Emotional intelligence assistant
US10847177B2 (en) 2018-10-11 2020-11-24 Cordio Medical Ltd. Estimating lung volume by speech analysis
US11024327B2 (en) 2019-03-12 2021-06-01 Cordio Medical Ltd. Diagnostic techniques based on speech models
CA3129880A1 (en) * 2019-03-12 2020-09-17 Cordio Medical Ltd. Diagnostic techniques based on speech models
US11011188B2 (en) * 2019-03-12 2021-05-18 Cordio Medical Ltd. Diagnostic techniques based on speech-sample alignment
JP7394312B2 (ja) * 2019-06-25 2023-12-08 パナソニックIpマネジメント株式会社 照明装置及び照明器具
JP7394310B2 (ja) * 2019-06-25 2023-12-08 パナソニックIpマネジメント株式会社 照明装置及び照明器具
CN110428807A (zh) * 2019-08-15 2019-11-08 三星电子(中国)研发中心 一种基于深度学习的语音识别方法、系统及装置
US11335360B2 (en) * 2019-09-21 2022-05-17 Lenovo (Singapore) Pte. Ltd. Techniques to enhance transcript of speech with indications of speaker emotion
US11664044B2 (en) 2019-11-25 2023-05-30 Qualcomm Incorporated Sound event detection learning
US11484211B2 (en) 2020-03-03 2022-11-01 Cordio Medical Ltd. Diagnosis of medical conditions using voice recordings and auscultation
US11417342B2 (en) 2020-06-29 2022-08-16 Cordio Medical Ltd. Synthesizing patient-specific speech models
US11410677B2 (en) 2020-11-24 2022-08-09 Qualcomm Incorporated Adaptive sound event classification

Family Cites Families (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6304846B1 (en) * 1997-10-22 2001-10-16 Texas Instruments Incorporated Singing voice synthesis
JP2001083984A (ja) * 1999-09-09 2001-03-30 Alpine Electronics Inc インタフェース装置
US6658388B1 (en) * 1999-09-10 2003-12-02 International Business Machines Corporation Personality generator for conversational systems
US7137008B1 (en) * 2000-07-25 2006-11-14 Laurence Hamid Flexible method of user authentication
US20020116186A1 (en) * 2000-09-09 2002-08-22 Adam Strauss Voice activity detector for integrated telecommunications processing
KR20020067921A (ko) * 2000-10-23 2002-08-24 소니 가부시끼 가이샤 각식 로봇 및 각식 로봇의 행동 제어 방법, 및 기억 매체
US20030009341A1 (en) * 2001-07-05 2003-01-09 Tien-Yao Cheng Humanistic devices and methods for same
EP1336956B1 (en) * 2002-02-13 2006-07-19 Sony Deutschland GmbH Method, system and computer program for recognizing speech/speaker using emotional state change to govern unsupervised adaptation of the recognition process
JP2004349851A (ja) * 2003-05-20 2004-12-09 Ntt Docomo Inc 携帯端末、画像通信プログラム、及び画像通信方法
CN100534103C (zh) * 2004-09-10 2009-08-26 松下电器产业株式会社 用于通告人的情感的信息处理终端和方法
US8214214B2 (en) * 2004-12-03 2012-07-03 Phoenix Solutions, Inc. Emotion detection device and method for use in distributed systems
US7921369B2 (en) * 2004-12-30 2011-04-05 Aol Inc. Mood-based organization and display of instant messenger buddy lists
US7797261B2 (en) * 2005-04-13 2010-09-14 Yang George L Consultative system
US7778831B2 (en) * 2006-02-21 2010-08-17 Sony Computer Entertainment Inc. Voice recognition with dynamic filter bank adjustment based on speaker categorization determined from runtime pitch
US8150692B2 (en) * 2006-05-18 2012-04-03 Nuance Communications, Inc. Method and apparatus for recognizing a user personality trait based on a number of compound words used by the user
US8374874B2 (en) * 2006-09-11 2013-02-12 Nuance Communications, Inc. Establishing a multimodal personality for a multimodal application in dependence upon attributes of user interaction
JP4941966B2 (ja) * 2006-09-22 2012-05-30 国立大学法人 東京大学 感情の判別方法、感情判別装置、雰囲気情報通信端末
KR101541907B1 (ko) * 2008-10-14 2015-08-03 삼성전자 주식회사 음성 기반 얼굴 캐릭터 형성 장치 및 방법
US8862478B2 (en) * 2009-10-02 2014-10-14 National Institute Of Information And Communications Technology Speech translation system, first terminal apparatus, speech recognition server, translation server, and speech synthesis server
US20110231194A1 (en) * 2010-03-22 2011-09-22 Steven Lewis Interactive Speech Preparation
US8595005B2 (en) * 2010-05-31 2013-11-26 Simple Emotion, Inc. System and method for recognizing emotional state from a speech signal
US8639516B2 (en) * 2010-06-04 2014-01-28 Apple Inc. User-specific noise suppression for voice quality improvements
US8527268B2 (en) * 2010-06-30 2013-09-03 Rovi Technologies Corporation Method and apparatus for improving speech recognition and identifying video program material or content
US9159068B2 (en) * 2010-10-12 2015-10-13 International Business Machines Corporation Service management using user experience metrics
KR101310929B1 (ko) * 2010-10-28 2013-09-25 (주)아크릴 지능형 감성단어 확장장치 및 그 확장방법
US8756062B2 (en) * 2010-12-10 2014-06-17 General Motors Llc Male acoustic model adaptation based on language-independent female speech data
US20140025385A1 (en) * 2010-12-30 2014-01-23 Nokia Corporation Method, Apparatus and Computer Program Product for Emotion Detection
KR101801327B1 (ko) * 2011-07-29 2017-11-27 삼성전자주식회사 감정 정보 생성 장치, 감정 정보 생성 방법 및 감정 정보 기반 기능 추천 장치
JP5772448B2 (ja) 2011-09-27 2015-09-02 富士ゼロックス株式会社 音声解析システムおよび音声解析装置
CA2864076C (en) * 2012-02-07 2022-10-04 Social Market Analytics, Inc. Systems and methods of detecting, measuring, and extracting signatures of signals embedded in social media data streams
US9064493B2 (en) * 2012-07-09 2015-06-23 Nuance Communications, Inc. Detecting potential significant errors in speech recognition results
CN103543979A (zh) * 2012-07-17 2014-01-29 联想(北京)有限公司 一种输出语音的方法、语音交互的方法及电子设备
US10346542B2 (en) * 2012-08-31 2019-07-09 Verint Americas Inc. Human-to-human conversation analysis
US8798242B1 (en) * 2012-09-25 2014-08-05 Emc Corporation Voice-related information in data management systems
WO2014069076A1 (ja) * 2012-10-31 2014-05-08 日本電気株式会社 会話分析装置及び会話分析方法
US8923490B2 (en) * 2012-12-17 2014-12-30 Capital One Financial Corporation Systems and methods for providing searchable customer call indexes
US9460083B2 (en) * 2012-12-27 2016-10-04 International Business Machines Corporation Interactive dashboard based on real-time sentiment analysis for synchronous communication
CN103903627B (zh) * 2012-12-27 2018-06-19 中兴通讯股份有限公司 一种语音数据的传输方法及装置
JP6268717B2 (ja) * 2013-03-04 2018-01-31 富士通株式会社 状態推定装置、状態推定方法及び状態推定用コンピュータプログラム
US20150348538A1 (en) * 2013-03-14 2015-12-03 Aliphcom Speech summary and action item generation
JP6105337B2 (ja) * 2013-03-14 2017-03-29 日本写真印刷株式会社 評価システム及び評価方法
US9159362B2 (en) * 2013-03-15 2015-10-13 Disney Enterprises, Inc. Method and system for detecting and recognizing social interactions in a video
US20150287410A1 (en) * 2013-03-15 2015-10-08 Google Inc. Speech and semantic parsing for content selection
US20140343943A1 (en) * 2013-05-14 2014-11-20 Saudi Arabian Oil Company Systems, Computer Medium and Computer-Implemented Methods for Authenticating Users Using Voice Streams
EP3007165B1 (en) * 2013-05-31 2018-08-01 Yamaha Corporation Technology for responding to remarks using speech synthesis
US9311915B2 (en) * 2013-07-31 2016-04-12 Google Inc. Context-based speech recognition
JP6164076B2 (ja) * 2013-12-17 2017-07-19 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US20150264505A1 (en) * 2014-03-13 2015-09-17 Accusonus S.A. Wireless exchange of data between devices in live events
US9754503B2 (en) * 2014-03-24 2017-09-05 Educational Testing Service Systems and methods for automated scoring of a user's performance
US10141011B2 (en) * 2014-04-21 2018-11-27 Avaya Inc. Conversation quality analysis
US20150324348A1 (en) * 2014-05-09 2015-11-12 Lenovo (Singapore) Pte, Ltd. Associating an image that corresponds to a mood
US9369462B2 (en) * 2014-08-05 2016-06-14 Dell Products L.P. Secure data entry via audio tones
KR20160055337A (ko) * 2014-11-07 2016-05-18 삼성전자주식회사 텍스트 표시 방법 및 그 전자 장치
US9741342B2 (en) * 2014-11-26 2017-08-22 Panasonic Intellectual Property Corporation Of America Method and apparatus for recognizing speech by lip reading
DE102014018205A1 (de) * 2014-12-09 2016-06-09 Unify Gmbh & Co. Kg Konferenzsystem und Verfahren zum Steuern des Konferenzsystems
EP3259754B1 (en) * 2015-02-16 2022-06-15 Samsung Electronics Co., Ltd. Method and device for providing information
US10182155B2 (en) * 2016-02-03 2019-01-15 At&T Intellectual Property I, L.P. Directing care calls using historical call backs, demographics and real time attributes
US20170236520A1 (en) * 2016-02-16 2017-08-17 Knuedge Incorporated Generating Models for Text-Dependent Speaker Verification

Also Published As

Publication number Publication date
US11455985B2 (en) 2022-09-27
US20190130910A1 (en) 2019-05-02
WO2017187712A1 (ja) 2017-11-02
JPWO2017187712A1 (ja) 2018-11-01

Similar Documents

Publication Publication Date Title
JP6755304B2 (ja) 情報処理装置
CN107818798B (zh) 客服服务质量评价方法、装置、设备及存储介质
CN107053186B (zh) 对话装置、机器人、对话方法以及存储介质
US9412371B2 (en) Visualization interface of continuous waveform multi-speaker identification
Aloufi et al. Emotionless: Privacy-preserving speech analysis for voice assistants
US10755704B2 (en) Information processing apparatus
JP2017009826A (ja) グループ状態判定装置およびグループ状態判定方法
US10592997B2 (en) Decision making support device and decision making support method
CN110570853A (zh) 基于语音数据的意图识别方法和装置
JP2017009825A (ja) 会話状況分析装置および会話状況分析方法
JP2006267465A (ja) 発話状態評価装置、発話状態評価プログラム、プログラム格納媒体
CN110648672A (zh) 人物图像生成方法、交互方法、装置及终端设备
JPWO2017175351A1 (ja) 情報処理装置
JP2018169506A (ja) 会話満足度推定装置、音声処理装置および会話満足度推定方法
JP7407190B2 (ja) 発話解析装置、発話解析方法及びプログラム
CN114566187A (zh) 具有会话后表示的系统、电子装置和相关方法
US11138379B2 (en) Determination of transcription accuracy
CN113643684A (zh) 语音合成方法、装置、电子设备及存储介质
WO2020196743A1 (ja) 評価システム及び評価方法
CN108364631B (zh) 一种语音合成方法和装置
Moriya et al. Estimation of conversational activation level during video chat using turn-taking information.
Lovely et al. Rule-based lip-syncing algorithm for virtual character in voice chatbot
WO2024013977A1 (ja) 意見出力装置、意見出力方法及びプログラム
WO2023135939A1 (ja) 情報処理装置、および情報処理方法、並びにプログラム
US20230410807A1 (en) Dialogue evaluation method, dialogue evaluation apparatus and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180705

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190723

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190919

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200804

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200825

R150 Certificate of patent or registration of utility model

Ref document number: 6755304

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150