JPWO2019021953A1 - 音声操作装置及びその制御方法 - Google Patents

音声操作装置及びその制御方法 Download PDF

Info

Publication number
JPWO2019021953A1
JPWO2019021953A1 JP2019532562A JP2019532562A JPWO2019021953A1 JP WO2019021953 A1 JPWO2019021953 A1 JP WO2019021953A1 JP 2019532562 A JP2019532562 A JP 2019532562A JP 2019532562 A JP2019532562 A JP 2019532562A JP WO2019021953 A1 JPWO2019021953 A1 JP WO2019021953A1
Authority
JP
Japan
Prior art keywords
voice
information
speaker
voice operation
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019532562A
Other languages
English (en)
Other versions
JP6927308B2 (ja
Inventor
宗忠 安諸
宗忠 安諸
正典 溝口
正典 溝口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2019021953A1 publication Critical patent/JPWO2019021953A1/ja
Priority to JP2021127871A priority Critical patent/JP7314975B2/ja
Application granted granted Critical
Publication of JP6927308B2 publication Critical patent/JP6927308B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/60Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for measuring the quality of voice signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/06Decision making techniques; Pattern matching strategies
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/06Decision making techniques; Pattern matching strategies
    • G10L17/08Use of distortion metrics or a particular distance between probe pattern and reference templates
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/06Decision making techniques; Pattern matching strategies
    • G10L17/12Score normalisation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/06Decision making techniques; Pattern matching strategies
    • G10L17/14Use of phonemic categorisation or speech recognition prior to speaker recognition or verification
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • G10L17/24Interactive procedures; Man-machine interfaces the user being prompted to utter a password or a predefined phrase

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Game Theory and Decision Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Telephone Function (AREA)
  • Navigation (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

話者識別の精度をより向上させることが可能な音声操作装置及びその制御方法を提供する。音声情報と予め登録された利用者の声質モデルに基づいて利用者を音声操作の話者として識別する話者識別部と、音声情報を音声認識して音声操作情報を生成する音声操作認識部と、を備えた音声操作装置であって、話者識別部は、音声操作情報、音声操作装置の位置情報、話者の方向情報、話者の距離情報、時刻情報のうちの少なくとも1つを補助情報として用いて話者を識別する音声操作装置が提供される。

Description

本発明は、話者識別機能を有する音声操作装置に関するものである。
近年、音声による操作が可能な音声アシスタント機能を有するAIスピーカー(スマートスピーカーとも呼ばれる)が注目されている。このような音声操作装置によれば、所望の情報検索や連携する家電製品の操作を音声によって行えるため、利用者は、家事、掃除、洗濯等の作業を行いつつ、手を用いることなく所望の操作を行うことができる。また、音声操作装置は、マイク及びスピーカーと音声認識用のプロセッサを最小限の構成要素とする簡素な構成で低コストに実現可能であるため、手軽に複数の部屋に配置することが可能である。
特許文献1に記載の音声操作装置は、利用者による音声操作を認識する音声認識機能に加え、音声の声質から話者が誰であるかを識別する話者識別機能を有している。これにより、利用者の好みに合わせたサービスを提供可能としている。
特開2010−286702号公報
しかし、話者識別の技術は、研究開発が進んでいるものの依然として識別精度は高くない。特にAIスピーカーでは、録音された操作音声を利用したなりすましを避けるために、操作音声を非定型とすることが望まれるが、操作音声が非定型でかつ短文である場合は話者を識別することが特に難しい。また、利用者が発する音声の声質は、音源の距離、周囲の温度や反射等の環境に応じて大きく変化するため、操作音声を、予め登録された利用者の単一の声質モデルと比較するだけでは話者を識別することが難しい。そこで本発明は、話者識別の精度をより向上させることが可能な音声操作装置及びその制御方法を提供することを目的とする。
本発明の一観点によれば、音声情報と予め登録された利用者の声質モデルに基づいて利用者を音声操作の話者として識別する話者識別部と、音声情報を音声認識して音声操作情報を生成する音声操作認識部と、を備えた音声操作装置であって、話者識別部は、音声操作情報、音声操作装置の位置情報、話者の方向情報、話者の距離情報、時刻情報のうちの少なくとも1つを補助情報として用いて話者を識別する音声操作装置が提供される。
また、本発明の別観点によれば、音声情報と予め登録された利用者の声質モデルに基づいて利用者を音声操作の話者として識別する話者識別部と、音声情報を音声認識して音声操作情報を生成する音声操作認識部と、を備えた音声操作装置の制御方法であって、話者識別部は、音声操作情報、音声操作装置の位置情報、話者の方向情報、話者の距離情報、時刻情報のうちの少なくとも1つを補助情報として用いて話者を識別するステップを有する音声操作装置の制御方法が提供される。
本発明によれば、話者識別の精度をより向上させることが可能な音声操作装置及びその制御方法を提供することができる。
第1実施形態に係る音声操作装置の構成を概略的に示すブロック図である。 本発明に係る音声操作装置の配置例を示す図である。 第1実施形態に係る音声操作装置の制御方法を示すフローチャートである。 第2実施形態に係る音声操作装置の構成を概略的に示すブロック図である。 第2実施形態に係る音声操作装置の制御方法を示すフローチャートである。 第3実施形態に係る音声操作装置の構成を概略的に示すブロック図である。 第4実施形態に係る音声操作装置の構成を概略的に示すブロック図である。 第5実施形態に係る音声操作装置の構成を概略的に示すブロック図である。 第6実施形態に係る音声操作装置の構成を概略的に示すブロック図である。
以下、本発明の好適な実施形態について図面を用いて説明する。なお、本発明は以下の実施形態に限定されるものではなく、その要旨を逸脱しない範囲において適宜変更可能である。各図において同一、又は相当する機能を有するものは、同一符号を付し、その説明を省略又は簡潔にすることもある。
(第1実施形態)
図1は、第1実施形態に係る音声操作装置の構成を概略的に示すブロック図である。図1は、本実施形態の音声操作装置をAIスピーカーに対して適用した例を示している。本図は一例に過ぎず、本実施形態の音声操作装置は、例えば利用者による音声操作を認識可能なロボット、スマートフォン、カーナビ等に対して適用することも可能である。本実施形態の音声操作装置は、スピーカー1、マイクロフォン2、音声出力部11、音声入力部21、及び制御演算部3を備えて構成される。典型的なAIスピーカーでは、これらの構成要素はスピーカー1の筐体内に格納される。
制御演算部3は、記憶媒体に記憶されたプログラムを実行し、本実施形態の音声操作装置の各構成要素の制御及び演算を行うCPU等のプロセッサである。制御演算部3は、プログラムが記憶された不図示の記憶媒体を含む。制御演算部3は、音声操作応答部31、音声操作認識部32、話者識別部33、声質モデル331、及び無線通信部35を有している。
マイクロフォン2は、利用者の音声操作による音声振動を電気信号に変換する。音声入力部21は、マイクロフォン2から入力したアナログ信号をデジタルの音声情報に変換するとともに、音声情報に対して音声信号処理を施す。ここで、音声入力部21は、マイクロフォン2に含まれる構成としてもよい。
音声操作認識部32は、音声入力部21から入力した音声情報を音声認識して音声操作情報を生成する。制御演算部3は、生成された音声操作情報に対応する操作処理を実行する。具体的には、所望の情報検索や連携する家電製品の操作処理を、無線通信部35を介して実施する。
その後、音声操作応答部31は、操作処理の実行結果を音声出力部11及びスピーカー1を介して利用者に通知する。具体的には、音声出力部11は、音声操作応答部31から入力したデジタル情報をアナログ信号に変換する。スピーカー1は、音声出力部11から入力した電気信号を音声振動に変換して出力する。ここで、音声出力部11は、スピーカー1に含まれる構成としてもよい。
登録利用者情報330は、制御演算部3の記憶媒体に記憶されている。登録利用者情報330には、利用者の声質モデル331が予め登録されている。話者識別部33は、音声入力部21から入力した音声情報と利用者の声質モデル331との類似度を算出し、類似度が最も大きい利用者を音声操作の話者として識別する。これにより、利用者の好みに応じたサービスを提供することが可能となり、利用者の利便性をより向上させることができる。例えば、利用者の好みに合わせた情報を予め登録利用者情報330に登録しておき、音声操作情報に対応する操作処理を利用者の好みに合わせて実行したり、登録利用者情報330に予め登録された利用者以外による音声操作を禁止したりすることができる。
しかし前述のように、話者識別の技術は、研究開発が進んでいるものの依然として識別精度は高くない。そこで、本発明の話者識別部33は、音声操作情報、音声操作装置の位置情報、話者の方向情報、話者の距離情報、時刻情報のうちの少なくとも1つを補助情報として用いて話者を識別することを特徴とする。例えば、図1に示す本実施形態の音声操作装置では、補助情報を算出する補助情報算出部34として、音声操作認識部32を利用している。
図2は、本発明に係る音声操作装置の配置例を示す図である。図2に示すマイクロフォン2の位置には、本発明に係る音声操作装置が配置されている。図2の部屋に存在する利用者61、62は、例えば、自宅のリビングルームでくつろいでいるお母さんとお父さんであるものとする。
この場合、本実施形態の話者識別部33は、例えば音声操作による指示が天気情報の取得であるときは、音声操作の話者がお母さんである可能性が高いと判断する。或いは、音声操作による指示が株価情報の取得であるときは、音声操作の話者がお父さんである可能性が高いと判断する。そして、話者識別部33は、音声操作情報に応じて利用者の声質モデル331との類似度を補正する。
ここで、利用者に特徴的なキーワード等の情報は、予め音声操作情報に含まれるキーワードと関連付けて登録利用者情報330に登録しておいてもよいし、利用者が使用するキーワードの頻度に基づいて随時学習するようにしてもよい。音声操作装置が学習する場合は、類似度の補正値を予め登録利用者情報330に利用者ごとに登録しておき、話者を識別した結果を補正値に反映させるようにする。これにより、話者識別部33は、利用者に特徴的な補助情報と類似度の補正値との相関性を学習することになるので、音声操作に対応する操作処理を行うごとに、話者識別の精度を向上させることができる。
図3は、第1実施形態に係る音声操作装置の制御方法を示すフローチャートである。ステップS101において、マイクロフォン2及び音声入力部21は、利用者の音声操作による音声振動を電気信号に変換する。ステップS102において、音声操作認識部32は、マイクロフォン2及び音声入力部21から入力した音声情報を音声認識して音声操作情報を生成する。ここで、音声操作認識部32が行う音声認識方法としては周知の技術が用いられ得る。
ステップS103において、話者識別部33は、登録利用者情報330に予め登録された利用者の声質モデル331を、登録利用者情報330とともに読み出す。ステップS104において、話者識別部33は、音声入力部21から入力した音声情報と利用者の声質モデル331との類似度を算出する。
ここで、話者識別部33が行う話者認識方法としては、周知の技術が用いられ得る。例えば、登録利用者情報330に予め登録された利用者の声質モデル331の音声波形fと、音声入力部21から入力した音声情報の音声波形fとの距離sを下式(1)により求め、その逆数1/sを類似度として用いる。ここでΣは、所定の期間内の複数の時刻tにおいて和をとるものとする。また、音声波形f、fは適宜、正規化されているものとする。
=Σ{f(t)−f(t)} (1)
或いは、登録利用者情報330に予め登録された利用者の声質モデル331の周波数スペクトルFと、音声入力部21から入力した音声情報の周波数スペクトルFとの距離sを下式(2)により求め、その逆数1/sを類似度として用いてもよい。ここでΣは、所定の範囲内の複数の周波数kにおいて和をとるものとする。また、周波数スペクトルF、Fは適宜、正規化されているものとする。
=Σ{F(k)−F(k)} (2)
ステップS105において、話者識別部33は、上式(1)又は(2)により求めた類似度を、音声操作情報に含まれるキーワードに応じて補正する。例えば、音声操作による指示が天気情報の取得であるときは、お母さんの声質モデル331の音声波形の類似度1/sを+5点する。或いは、音声操作による指示が株価情報の取得であるときは、お父さんの声質モデル331の音声波形の類似度1/sを+5点する。ここで、類似度の補正値の大きさは、用途や利用者等に合わせてキーワードごとに適宜決定され得る。
ステップS106において、話者識別部33は、補正後の類似度が最も大きい利用者を音声操作の話者として識別する。ステップS107において、制御演算部3は、前記音声操作情報に対応する操作処理を、識別した利用者の好みに合わせて実行する。ステップS108において、音声操作応答部31は、ステップS107で実行した処理の結果を、スピーカー1及び音声出力部11を介して、音声により利用者に通知する。
以上のように、本実施形態の音声操作装置では、登録利用者情報は利用者に特徴的なキーワードを含み、話者識別部は、音声操作情報に含まれるキーワードに応じて類似度を補正する。このような構成によれば、話者識別の精度をより向上させることが可能な音声操作装置及びその制御方法を提供することができる。
(第2実施形態)
図4は、第2実施形態に係る音声操作装置の構成を概略的に示すブロック図である。本実施形態の音声操作装置は、GPS装置41及び位置算出部341を備えている点が、先の第1実施形態と異なっている。その他の構成については、第1実施形態と概ね同じである。以下では、主に第1実施形態と異なる構成について説明する。
GPS装置41は、GPS(Global Positioning System)情報を取得することが可能である。位置算出部341は、GPS装置41から入力したGPS情報を利用して、音声操作装置が配置された位置情報を算出する。ここで、位置算出部341は、GPS装置41に含まれる構成としてもよい。このように本実施形態の音声操作装置は、補助情報を算出する補助情報算出部34として、位置算出部341を備えていることを特徴とする。
前述のように、利用者が発する音声の声質は、音源の距離、周囲の温度や反射等の環境に応じて大きく変化するため、操作音声を、予め登録された利用者の単一の声質モデル331と比較するだけでは話者を識別することが難しい。
そこで、本実施形態の登録利用者情報330は、利用者ごとに複数の声質モデル331をデータベースとして有している。そして、話者識別部33は、位置算出部341が算出した音声操作装置の位置情報に応じて声質モデル331を選択する。例えば、音声操作装置が自宅に配置されている場合は、自宅の環境に適した声質モデル331を選択する。或いは、音声操作装置が職場に配置されている場合は、職場の環境に適した声質モデル331を選択する。また或いは、音声操作装置が移動中の車内に配置されている場合は、車内の環境に適した声質モデル331を選択する。これらの複数の声質モデル331は、予め登録利用者情報330に、音声操作装置の位置情報と関連付けて登録しておく。
これにより、ロボット、スマートフォン、カーナビ等のような移動し得る装置に対して本実施形態の音声操作装置を適用する場合でも、周囲の環境に適した声質モデル331が選択されることで、話者識別の精度をより向上させることができる。
図5は、第2実施形態に係る音声操作装置の制御方法を示すフローチャートである。図5に示す本実施形態のフローチャートは、ステップS203において声質モデル331を読み出す際に、音声操作装置の位置情報に応じて声質モデル331を選択している点が、先の第1実施形態の図3と異なっている。なお、図5のフローチャートでは、第1実施形態の図3のステップS105に示した類似度の補正処理を省略したが、本実施形態でも図3と同様に併せてステップS105を実施してもよい。
以上のように、本実施形態の音声操作装置は、音声操作装置の位置を位置情報として取得するGPS装置を更に備えている。そして、登録利用者情報は、利用者ごとに複数の声質モデルを有し、話者識別部は位置情報に応じて声質モデルを選択する。このような構成によっても、話者識別の精度をより向上させることが可能な音声操作装置及びその制御方法を提供することができる。
(第3実施形態)
図6は、第3実施形態に係る音声操作装置の構成を概略的に示すブロック図である。本実施形態の音声操作装置は、アレイマイク42及び音声方向算出部342を備えている点が、先の第1実施形態と異なっている。その他の構成については、第1実施形態と概ね同じである。以下では、主に第1実施形態と異なる構成について説明する。
アレイマイク42は、複数のマイクが配列された構成を有し、音声操作の話者の方向を特定することが可能である。音声方向算出部342は、アレイマイク42から入力した情報に基づいて、音声操作装置から見た話者の方向情報を算出する。ここで、音声方向算出部342は、アレイマイク42に含まれる構成としてもよい。このように本実施形態の音声操作装置は、補助情報を算出する補助情報算出部34として、音声方向算出部342を備えていることを特徴とする。
例えば、図2に示した部屋において、音声操作装置から見て左側の椅子がお母さん用の席であり、右側の椅子がお父さん用の席であるとする。この場合、本実施形態の話者識別部33は、例えば、音声操作の話者の方向が左側であるときは、音声操作の話者がお母さんである可能性が高いと判断する。或いは、音声操作の話者の方向が右側であるときは、音声操作の話者がお父さんである可能性が高いと判断する。このような利用者に特徴的な情報は、予め登録利用者情報330に、方向情報と関連付けて登録しておく。
本実施形態の音声操作装置における音声操作方法は、補助情報が方向情報である点を除いて、先の図3に示した第1実施形態のフローチャート、及び先の図5に示した第2実施形態のフローチャートが、ともに適用可能である。
以上のように、本実施形態の音声操作装置は、音声操作の話者の方向を方向情報として取得するアレイマイクを更に備えている。そして、話者識別部は方向情報を用いて話者を識別する。このような構成によっても、話者識別の精度をより向上させることが可能な音声操作装置及びその制御方法を提供することができる。なお、アレイマイク42を更に備える代わりに、マイクロフォン2を複数のマイクで構成して音声操作の話者の方向を特定するようにしてもよい。
(第4実施形態)
図7は、第4実施形態に係る音声操作装置の構成を概略的に示すブロック図である。本実施形態の音声操作装置は、測距センサ43及び距離算出部343を備えている点が、先の第1実施形態と異なっている。その他の構成については、第1実施形態と概ね同じである。以下では、主に第1実施形態と異なる構成について説明する。
測距センサ43は、話者までの距離を取得することが可能である。測距方式としては、例えば、視差を利用して距離を測定する方法や、光や電波の反射波を利用して距離を測定する周知の技術が用いられ得る。距離算出部343は、測距センサ43から入力した情報に基づいて、音声操作装置から話者までの距離を算出する。ここで、距離算出部343は、測距センサ43に含まれる構成としてもよい。このように本実施形態の音声操作装置は、補助情報を算出する補助情報算出部34として、距離算出部343を備えていることを特徴とする。
例えば、図2に示した部屋において、音声操作装置から遠い方の椅子がお母さん用の席であり、音声操作装置から近い方の椅子がお父さん用の席であるとする。この場合、本実施形態の話者識別部33は、例えば、音声操作装置から話者までの距離が遠いときは、音声操作の話者がお母さんである可能性が高いと判断する。或いは、音声操作装置から話者までの距離が近いときは、音声操作の話者がお父さんである可能性が高いと判断する。このような利用者に特徴的な情報は、予め登録利用者情報330に、距離情報と関連付けて登録しておく。
本実施形態の音声操作装置における音声操作方法は、補助情報が距離情報である点を除いて、先の図3に示した第1実施形態のフローチャート、及び先の図5に示した第2実施形態のフローチャートが、ともに適用可能である。
以上のように、本実施形態の音声操作装置は、音声操作の話者までの距離を距離情報として取得する測距センサを更に備えている。そして、話者識別部は距離情報を用いて話者を識別する。このような構成によっても、話者識別の精度をより向上させることが可能な音声操作装置及びその制御方法を提供することができる。
(第5実施形態)
図8は、第5実施形態に係る音声操作装置の構成を概略的に示すブロック図である。本実施形態の音声操作装置は、時計44及び時刻算出部344を備えている点が、先の第1実施形態と異なっている。その他の構成については、第1実施形態と概ね同じである。以下では、主に第1実施形態と異なる構成について説明する。
時計44は、現在の時刻を取得することが可能である。時刻算出部344は、時計44から入力した情報に基づいて、音声操作の発声時刻を算出する。ここで、時刻算出部344は、時計44に含まれる構成としてもよい。このように本実施形態の音声操作装置は、補助情報を算出する補助情報算出部34として、時刻算出部344を備えていることを特徴とする。
本実施形態の話者識別部33は、例えば、音声操作の発声時刻が昼間のときは、音声操作の話者がお母さんである可能性が高いと判断する。或いは、音声操作の発声時刻が深夜のときは、音声操作の話者がお父さんである可能性が高いと判断する。このような利用者に特徴的な情報は、予め登録利用者情報330に、時刻情報と関連付けて登録しておく。
本実施形態の音声操作装置における音声操作方法は、補助情報が時刻情報である点を除いて、先の図3に示した第1実施形態のフローチャート、及び先の図5に示した第2実施形態のフローチャートが、ともに適用可能である。
以上のように、本実施形態の音声操作装置は、音声操作の発声時刻を時刻情報として取得する時計を更に備えている。そして、話者識別部は時刻情報を用いて話者を識別する。このような構成によっても、話者識別の精度をより向上させることが可能な音声操作装置及びその制御方法を提供することができる。
(第6実施形態)
図9は、第6実施形態に係る音声操作装置の構成を概略的に示すブロック図である。本実施形態の音声操作装置は、上述の実施形態の構成を組み合わせた構成を有している。図9に示す補助情報取得装置40は、上述の実施形態のGPS装置41、アレイマイク42、測距センサ43、時計44のうちの少なくとも1つ含んでいる。また、図9に示す補助情報算出部34は、上述の実施形態の音声操作認識部32、位置算出部341、音声方向算出部342、距離算出部343、時刻算出部344のうちの、補助情報取得装置40が出力する補助情報を処理可能な構成を少なくとも含んでいる。ここで、補助情報算出部34は、補助情報取得装置40に含まれる構成としてもよい。
本実施形態の音声操作装置における音声操作方法は、補助情報が上述の実施形態の音声操作情報、位置情報、方向情報、距離情報、時刻情報の組み合わせである点を除いて、先の図3及び図5に示したフローチャートが、ともに適用可能である。
以上のように、本実施形態の音声操作装置は、音声情報と予め登録された利用者の声質モデルに基づいて利用者を音声操作の話者として識別する話者識別部を備えている。そして、話者識別部は、音声操作情報、音声操作装置の位置情報、話者の方向情報、話者の距離情報、時刻情報のうちの少なくとも1つを補助情報として用いて話者を識別する。このような構成によれば、話者識別の精度を更に向上させることが可能な音声操作装置及びその制御方法を提供することができる。
(その他の実施形態)
なお、上述の実施形態は、いずれも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
例えば、利用者のスケジュール情報を予め登録利用者情報330に登録しておき、スケジュール情報に応じて類似度を補正するようにしてもよい。一例としては、スケジュール情報においてお父さんが出張中であるときには、音声入力部21から入力した音声情報とお父さんの声質モデル331との類似度1/sを−5点する。
或いは、利用者に特徴的な音声の大きさを予め登録利用者情報330に登録しておき、音声操作の音声の大きさに応じて類似度を補正するようにしてもよい。一例としては、音声操作の音声が大きい場合は、音声入力部21から入力した音声情報とお父さんの声質モデル331との類似度1/sを+5点する。
利用者の存在する確率が高い方向や距離といった情報は、予め登録利用者情報330に、補助情報と関連付けて登録しておいてもよいし、音声操作装置が、随時学習するようにしてもよい。音声操作装置が学習する場合は、類似度の補正値を予め登録利用者情報330に利用者ごとに登録しておき、話者を識別した結果を補正値に反映させるようにする。或いは、音声操作装置は、利用者が発するキーワードや位置や方向や距離や時刻などの情報を常に収集し、これらの情報に応じて登録利用者情報330の利用者に特徴的な情報を更新するようにしてもよい。これにより、話者識別部33は、登録利用者情報330に登録された利用者に特徴的な情報と、補助情報算出部34を介して入力される補助情報との相関性を学習することになる。したがって、話者識別部33は、音声操作に対応する操作処理を行うごとに、話者識別の精度を向上させることができる。
また、第6実施形態のように複数種類の補助情報を併用する場合は、話者識別に用いる補助情報又はその組み合わせを、利用者の位置や方向等に応じて選択するようにしてもよい。この場合も、利用者の存在確率が高い位置や方向といった利用者に特徴的な情報を予め登録利用者情報330に登録しておき、これらの情報に応じて話者識別に用いる補助情報を選択するようにしてもよいし、音声操作装置が、随時学習するようにしてもよい。
また、上述の第1〜第6実施形態では、先の図3に示した第1実施形態のフローチャート、及び先の図5に示した第2実施形態のフローチャートが、ともに適用可能である。すなわち、利用者ごとに複数の声質モデル331を登録しておき、補助情報に応じて声質モデル331を選択する方法と、利用者に特徴的な情報を補助情報と関連付けて登録しておき、補助情報に応じて類似度を補正する方法の、いずれを用いてもよい。
上述の実施形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限られない。
(付記1)
音声情報と予め登録された利用者の声質モデルに基づいて前記利用者を音声操作の話者として識別する話者識別部と、
前記音声情報を音声認識して音声操作情報を生成する音声操作認識部と、
を備えた音声操作装置であって、
前記話者識別部は、前記音声操作情報、音声操作装置の位置情報、話者の方向情報、話者の距離情報、時刻情報のうちの少なくとも1つを補助情報として用いて話者を識別する
音声操作装置。
(付記2)
音声振動を前記音声情報に変換するマイクロフォンと、
前記利用者の前記声質モデルが予め登録された登録利用者情報と、
を更に備える
付記1に記載の音声操作装置。
(付記3)
前記登録利用者情報は前記利用者ごとに複数の前記声質モデルを有し、
前記話者識別部は前記補助情報に応じて前記声質モデルを選択する
付記2に記載の音声操作装置。
(付記4)
前記話者識別部は、前記補助情報に応じて前記利用者ごとのデータベースである前記声質モデルを選択する
付記3に記載の音声操作装置。
(付記5)
前記話者識別部は、前記音声情報と前記声質モデルの類似度を算出し、前記類似度に基づいて話者を識別する
付記2から4のいずれか1項に記載の音声操作装置。
(付記6)
前記話者識別部は、前記類似度が最も大きい前記利用者を音声操作の話者として識別する
付記5に記載の音声操作装置。
(付記7)
前記登録利用者情報は、前記利用者に特徴的な情報を前記補助情報と関連付けて有し、
前記話者識別部は前記補助情報に応じて前記類似度を補正する
付記5又は6に記載の音声操作装置。
(付記8)
前記登録利用者情報は前記類似度の補正値を前記利用者ごとに有し、
前記話者識別部は話者を識別した結果を前記補正値に反映させて、前記補助情報と前記補正値との相関性を学習する
付記5から7のいずれか1項に記載の音声操作装置。
(付記9)
前記登録利用者情報は前記利用者に特徴的なキーワードを含み、
前記話者識別部は前記音声操作情報に含まれる前記キーワードに応じて前記類似度を補正する
付記5から8のいずれか1項に記載の音声操作装置。
(付記10)
前記マイクロフォンは、音声操作の話者の方向を前記方向情報として取得するアレイマイクであり、
前記話者識別部は前記方向情報を用いて話者を識別する
付記2から9のいずれか1項に記載の音声操作装置。
(付記11)
前記音声操作の話者までの距離を前記距離情報として取得する測距センサを更に備え、
前記話者識別部は前記距離情報を用いて話者を識別する
付記2から10のいずれか1項に記載の音声操作装置。
(付記12)
前記音声操作の発声時刻を前記時刻情報として取得する時計を更に備え、
前記話者識別部は前記時刻情報を用いて話者を識別する
付記2から11のいずれか1項に記載の音声操作装置。
(付記13)
音声操作装置の位置を前記位置情報として取得するGPS装置を更に備え、
前記話者識別部は前記位置情報に応じて前記声質モデルを選択する
付記2から12のいずれか1項に記載の音声操作装置。
(付記14)
前記登録利用者情報は前記利用者のスケジュール情報を更に含み
前記話者識別部は前記スケジュール情報を更に用いて話者を識別する
付記2から13のいずれか1項に記載の音声操作装置。
(付記15)
前記登録利用者情報は前記利用者の好みに合わせた情報を前記利用者ごとに有し、
前記音声操作情報に対応する操作処理を前記利用者の好みに合わせて実行する制御演算部と、
実行結果を音声により通知するスピーカーと、
を更に有する
付記2から14のいずれか1項に記載の音声操作装置。
(付記16)
音声情報と予め登録された利用者の声質モデルに基づいて前記利用者を音声操作の話者として識別する話者識別部と、
前記音声情報を音声認識して音声操作情報を生成する音声操作認識部と、
を備えた音声操作装置の制御方法であって、
前記話者識別部は、前記音声操作情報、音声操作装置の位置情報、話者の方向情報、話者の距離情報、時刻情報のうちの少なくとも1つを補助情報として用いて話者を識別するステップを有する
音声操作装置の制御方法。
以上、実施形態を参照して本発明を説明したが、本発明は上記実施形態に限定されものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
この出願は、2017年7月26日に出願された日本出願特願2017−144336を基礎とする優先権を主張し、その開示の全てをここに取り込む。
1 :スピーカー
2 :マイクロフォン
3 :制御演算部
11 :音声出力部
21 :音声入力部
31 :音声操作応答部
32 :音声操作認識部
33 :話者識別部
34 :補助情報算出部
35 :無線通信部
40 :補助情報取得装置
41 :GPS装置
42 :アレイマイク
43 :測距センサ
44 :時計
61 :利用者
62 :利用者
330 :登録利用者情報
331 :声質モデル
341 :位置算出部
342 :音声方向算出部
343 :距離算出部
344 :時刻算出部

Claims (16)

  1. 音声情報と予め登録された利用者の声質モデルに基づいて前記利用者を音声操作の話者として識別する話者識別部と、
    前記音声情報を音声認識して音声操作情報を生成する音声操作認識部と、
    を備えた音声操作装置であって、
    前記話者識別部は、前記音声操作情報、音声操作装置の位置情報、話者の方向情報、話者の距離情報、時刻情報のうちの少なくとも1つを補助情報として用いて話者を識別する
    音声操作装置。
  2. 音声振動を前記音声情報に変換するマイクロフォンと、
    前記利用者の前記声質モデルが予め登録された登録利用者情報と、
    を更に備える
    請求項1に記載の音声操作装置。
  3. 前記登録利用者情報は前記利用者ごとに複数の前記声質モデルを有し、
    前記話者識別部は前記補助情報に応じて前記声質モデルを選択する
    請求項2に記載の音声操作装置。
  4. 前記話者識別部は、前記補助情報に応じて前記利用者ごとのデータベースである前記声質モデルを選択する
    請求項3に記載の音声操作装置。
  5. 前記話者識別部は、前記音声情報と前記声質モデルの類似度を算出し、前記類似度に基づいて話者を識別する
    請求項2から4のいずれか1項に記載の音声操作装置。
  6. 前記話者識別部は、前記類似度が最も大きい前記利用者を音声操作の話者として識別する
    請求項5に記載の音声操作装置。
  7. 前記登録利用者情報は、前記利用者に特徴的な情報を前記補助情報と関連付けて有し、
    前記話者識別部は前記補助情報に応じて前記類似度を補正する
    請求項5又は6に記載の音声操作装置。
  8. 前記登録利用者情報は前記類似度の補正値を前記利用者ごとに有し、
    前記話者識別部は話者を識別した結果を前記補正値に反映させて、前記補助情報と前記補正値との相関性を学習する
    請求項5から7のいずれか1項に記載の音声操作装置。
  9. 前記登録利用者情報は前記利用者に特徴的なキーワードを含み、
    前記話者識別部は前記音声操作情報に含まれる前記キーワードに応じて前記類似度を補正する
    請求項5から8のいずれか1項に記載の音声操作装置。
  10. 前記マイクロフォンは、音声操作の話者の方向を前記方向情報として取得するアレイマイクであり、
    前記話者識別部は前記方向情報を用いて話者を識別する
    請求項2から9のいずれか1項に記載の音声操作装置。
  11. 前記音声操作の話者までの距離を前記距離情報として取得する測距センサを更に備え、
    前記話者識別部は前記距離情報を用いて話者を識別する
    請求項2から10のいずれか1項に記載の音声操作装置。
  12. 前記音声操作の発声時刻を前記時刻情報として取得する時計を更に備え、
    前記話者識別部は前記時刻情報を用いて話者を識別する
    請求項2から11のいずれか1項に記載の音声操作装置。
  13. 音声操作装置の位置を前記位置情報として取得するGPS装置を更に備え、
    前記話者識別部は前記位置情報に応じて前記声質モデルを選択する
    請求項2から12のいずれか1項に記載の音声操作装置。
  14. 前記登録利用者情報は前記利用者のスケジュール情報を更に含み
    前記話者識別部は前記スケジュール情報を更に用いて話者を識別する
    請求項2から13のいずれか1項に記載の音声操作装置。
  15. 前記登録利用者情報は前記利用者の好みに合わせた情報を前記利用者ごとに有し、
    前記音声操作情報に対応する操作処理を前記利用者の好みに合わせて実行する制御演算部と、
    実行結果を音声により通知するスピーカーと、
    を更に有する
    請求項2から14のいずれか1項に記載の音声操作装置。
  16. 音声情報と予め登録された利用者の声質モデルに基づいて前記利用者を音声操作の話者として識別する話者識別部と、
    前記音声情報を音声認識して音声操作情報を生成する音声操作認識部と、
    を備えた音声操作装置の制御方法であって、
    前記話者識別部は、前記音声操作情報、音声操作装置の位置情報、話者の方向情報、話者の距離情報、時刻情報のうちの少なくとも1つを補助情報として用いて話者を識別するステップを有する
    音声操作装置の制御方法。
JP2019532562A 2017-07-26 2018-07-20 音声操作装置及びその制御方法 Active JP6927308B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021127871A JP7314975B2 (ja) 2017-07-26 2021-08-04 音声操作装置及びその制御方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017144336 2017-07-26
JP2017144336 2017-07-26
PCT/JP2018/027239 WO2019021953A1 (ja) 2017-07-26 2018-07-20 音声操作装置及びその制御方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021127871A Division JP7314975B2 (ja) 2017-07-26 2021-08-04 音声操作装置及びその制御方法

Publications (2)

Publication Number Publication Date
JPWO2019021953A1 true JPWO2019021953A1 (ja) 2020-04-16
JP6927308B2 JP6927308B2 (ja) 2021-08-25

Family

ID=65040714

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019532562A Active JP6927308B2 (ja) 2017-07-26 2018-07-20 音声操作装置及びその制御方法
JP2021127871A Active JP7314975B2 (ja) 2017-07-26 2021-08-04 音声操作装置及びその制御方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021127871A Active JP7314975B2 (ja) 2017-07-26 2021-08-04 音声操作装置及びその制御方法

Country Status (4)

Country Link
US (1) US11961534B2 (ja)
EP (1) EP3660842A4 (ja)
JP (2) JP6927308B2 (ja)
WO (1) WO2019021953A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023549794A (ja) * 2020-12-25 2023-11-29 日本電気株式会社 話者識別装置、方法およびプログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11327586A (ja) * 1998-05-15 1999-11-26 Nec Corp 話者照合装置、方法及び記憶媒体
JP2000250593A (ja) * 1999-03-03 2000-09-14 Fujitsu Ltd 話者認識装置及び方法
JP2004350226A (ja) * 2003-05-26 2004-12-09 Sharp Corp 移動電話機
JP2005078072A (ja) * 2003-09-03 2005-03-24 Samsung Electronics Co Ltd 音声認識及び話者認識を通じて個別化されたサービスを提供するav装置及びその方法
JP2009265567A (ja) * 2008-04-30 2009-11-12 Sony Corp 音声認識装置と音声認識方法とコンピュータ・プログラムおよびコマンド認識装置
JP2013029690A (ja) * 2011-07-28 2013-02-07 Toshiba Corp 話者分類装置、話者分類方法および話者分類プログラム
WO2016073321A1 (en) * 2014-11-03 2016-05-12 Microsoft Technology Licensing, Llc Augmentation of key phrase user recognition

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10301755A (ja) 1997-04-28 1998-11-13 Matsushita Electric Ind Co Ltd 操作誘導装置
US7266189B1 (en) * 2003-01-27 2007-09-04 Cisco Technology, Inc. Who said that? teleconference speaker identification apparatus and method
US8086461B2 (en) * 2007-06-13 2011-12-27 At&T Intellectual Property Ii, L.P. System and method for tracking persons of interest via voiceprint
US8315366B2 (en) * 2008-07-22 2012-11-20 Shoretel, Inc. Speaker identification and representation for a phone
KR101041039B1 (ko) 2009-02-27 2011-06-14 고려대학교 산학협력단 오디오 및 비디오 정보를 이용한 시공간 음성 구간 검출 방법 및 장치
JP5229124B2 (ja) 2009-06-12 2013-07-03 日本電気株式会社 話者照合装置、話者照合方法およびプログラム
US20150138333A1 (en) * 2012-02-28 2015-05-21 Google Inc. Agent Interfaces for Interactive Electronics that Support Social Cues
US9881616B2 (en) * 2012-06-06 2018-01-30 Qualcomm Incorporated Method and systems having improved speech recognition
US9721586B1 (en) * 2013-03-14 2017-08-01 Amazon Technologies, Inc. Voice controlled assistant with light indicator
JP2015040903A (ja) * 2013-08-20 2015-03-02 ソニー株式会社 音声処理装置、音声処理方法、及び、プログラム
US9847082B2 (en) * 2013-08-23 2017-12-19 Honeywell International Inc. System for modifying speech recognition and beamforming using a depth image
US20150255068A1 (en) * 2014-03-10 2015-09-10 Microsoft Corporation Speaker recognition including proactive voice model retrieval and sharing features
US20160072915A1 (en) * 2014-09-09 2016-03-10 Sophatar, Inc. System and method to provide interactive, user-customized content to touch-free terminals
WO2016095218A1 (en) * 2014-12-19 2016-06-23 Dolby Laboratories Licensing Corporation Speaker identification using spatial information
US9721566B2 (en) * 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US10283142B1 (en) * 2015-07-22 2019-05-07 Educational Testing Service Processor-implemented systems and methods for determining sound quality
JP2017090613A (ja) 2015-11-09 2017-05-25 三菱自動車工業株式会社 音声認識制御システム
JP6616182B2 (ja) 2015-12-25 2019-12-04 綜合警備保障株式会社 話者認識装置、判別値生成方法及びプログラム
US10152969B2 (en) * 2016-07-15 2018-12-11 Sonos, Inc. Voice detection by multiple devices
US10418033B1 (en) * 2017-06-01 2019-09-17 Amazon Technologies, Inc. Configurable output data formats
JP2017144336A (ja) 2017-06-06 2017-08-24 株式会社三洋物産 遊技機

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11327586A (ja) * 1998-05-15 1999-11-26 Nec Corp 話者照合装置、方法及び記憶媒体
JP2000250593A (ja) * 1999-03-03 2000-09-14 Fujitsu Ltd 話者認識装置及び方法
JP2004350226A (ja) * 2003-05-26 2004-12-09 Sharp Corp 移動電話機
JP2005078072A (ja) * 2003-09-03 2005-03-24 Samsung Electronics Co Ltd 音声認識及び話者認識を通じて個別化されたサービスを提供するav装置及びその方法
JP2009265567A (ja) * 2008-04-30 2009-11-12 Sony Corp 音声認識装置と音声認識方法とコンピュータ・プログラムおよびコマンド認識装置
JP2013029690A (ja) * 2011-07-28 2013-02-07 Toshiba Corp 話者分類装置、話者分類方法および話者分類プログラム
WO2016073321A1 (en) * 2014-11-03 2016-05-12 Microsoft Technology Licensing, Llc Augmentation of key phrase user recognition

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
荒木章子 他, 日本音響学会2008年 春季研究発表会講演論文集CD-ROM, JPN6020041489, 10 March 2008 (2008-03-10), pages 1 - 4, ISSN: 0004379205 *

Also Published As

Publication number Publication date
JP7314975B2 (ja) 2023-07-26
US11961534B2 (en) 2024-04-16
JP6927308B2 (ja) 2021-08-25
US20200202886A1 (en) 2020-06-25
WO2019021953A1 (ja) 2019-01-31
EP3660842A1 (en) 2020-06-03
EP3660842A4 (en) 2020-09-02
JP2021184282A (ja) 2021-12-02

Similar Documents

Publication Publication Date Title
US11875820B1 (en) Context driven device arbitration
JP6118838B2 (ja) 情報処理装置、情報処理システム、情報処理方法、及び情報処理プログラム
US10147439B1 (en) Volume adjustment for listening environment
JP5724125B2 (ja) 音源定位装置
US10685652B1 (en) Determining device groups
EP2801091B1 (en) Method, apparatus and computer program product for joint use of speech and text-based features for sentiment detection
JP6129134B2 (ja) 音声対話装置、音声対話システム、端末、音声対話方法およびコンピュータを音声対話装置として機能させるためのプログラム
JP5613335B2 (ja) 音声認識システム、認識辞書登録システム及び音響モデル識別子系列生成装置
JP2016536626A (ja) 多方向の復号をする音声認識
JP2005244968A (ja) モバイル・デバイス上のマルチセンサによるスピーチ改良のための方法および装置
CN105580071B (zh) 用于训练声音识别模型数据库的方法和装置
US9460714B2 (en) Speech processing apparatus and method
US8793128B2 (en) Speech signal processing system, speech signal processing method and speech signal processing method program using noise environment and volume of an input speech signal at a time point
JP2019095551A (ja) 生成装置、生成方法、および生成プログラム
JP5606951B2 (ja) 音声認識システムおよびこれを用いた検索システム
Cho et al. Sound source localization for robot auditory systems
JP6468258B2 (ja) 音声対話装置および音声対話方法
JP7314975B2 (ja) 音声操作装置及びその制御方法
US20200388268A1 (en) Information processing apparatus, information processing system, and information processing method, and program
WO2019207912A1 (ja) 情報処理装置及び情報処理方法
KR102365757B1 (ko) 인식 장치, 인식 방법 및 협업 처리 장치
JP2019015950A (ja) 音声認識方法、プログラム、音声認識装置、及びロボット
KR20140035164A (ko) 음성인식시스템의 동작방법
JP2018132623A (ja) 音声対話装置
KR20180124226A (ko) 음성인식 작동 시스템 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210706

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210719

R150 Certificate of patent or registration of utility model

Ref document number: 6927308

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150