JP2020086048A - 音声認識システム、及び音声認識方法 - Google Patents

音声認識システム、及び音声認識方法 Download PDF

Info

Publication number
JP2020086048A
JP2020086048A JP2018217921A JP2018217921A JP2020086048A JP 2020086048 A JP2020086048 A JP 2020086048A JP 2018217921 A JP2018217921 A JP 2018217921A JP 2018217921 A JP2018217921 A JP 2018217921A JP 2020086048 A JP2020086048 A JP 2020086048A
Authority
JP
Japan
Prior art keywords
voice
voice recognition
voice data
user
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018217921A
Other languages
English (en)
Other versions
JP7095569B2 (ja
Inventor
能勢 将樹
Masaki Nose
将樹 能勢
紘之 長野
Hiroyuki Nagano
紘之 長野
悠斗 後藤
Yuto Goto
悠斗 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2018217921A priority Critical patent/JP7095569B2/ja
Publication of JP2020086048A publication Critical patent/JP2020086048A/ja
Priority to JP2022097190A priority patent/JP7420166B2/ja
Application granted granted Critical
Publication of JP7095569B2 publication Critical patent/JP7095569B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Telephonic Communication Services (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】ユーザの音声がマイクの指向範囲から外れた場合であっても、音声認識の精度低下を抑制することが可能な、音声認識システム、及び音声認識方法を提供する。【解決手段】本発明により提供される音声認識システムは、同一空間内にて複数のユーザが発話した音声の音声データを、前記複数のユーザそれぞれが装着した複数の収音機器から取得する取得手段と、前記取得した複数の音声データの音量が閾値未満であるか否かを判定する判定手段と、前記判定手段により、前記複数の音声データの音量が何れも閾値未満であると判定された場合に、前記複数の音声データを併用した所定の処理と共に、音声認識処理を行なう音声認識処理手段と、を備える。【選択図】図1

Description

本発明は、音声認識システム、及び音声認識方法に関する。
近年、音声認識技術が広く用いられている。例えば、AI(Artificial Intelligence)スピーカにおけるユーザの音声操作の受け付けや、コールセンターでの顧客との会話内容の記録といった用途で、音声認識技術が広く用いられている。
これらの用途では、発話するユーザの口元と、ユーザの発話した音声を収音するマイクとの距離が近い。そのため、音声と、雑音の比を示すS/N比(signal-noise ratio)が高い状態となり、精度良く音声認識をすることができる。
一方で、例えば、会議における議事録の作成の用途で、会議卓の中央にテーブルマイクを配し、会議参加者の発話をまとめて収音する場合がある。この場合、発話者とマイクの距離が数十cm以上離れる。そのため、S/N比が低い状態となり、音声認識の精度が低下してしまうという問題が生じる。
このような問題を考慮した技術の一例が、特許文献1に開示されている。特許文献1に開示の技術では、会議に参加するユーザそれぞれに、ユーザの口元に対する指向性を有するマイクを装着させる。そして、これら複数のマイクそれぞれが収音した音声データを適宜選択して音声認識処理を行なう。これにより、発話者とマイクの距離が離れてしまうという問題を生じさせることなく、音声認識を行なうことができる。
しかしながら、特許文献1に開示の技術では、ユーザが、マイクの方向と異なる方向に発話してしまい、ユーザの音声がマイクの指向範囲から外れる場合を考慮していなかった。このようにユーザの音声がマイクの指向範囲から外れた場合、ユーザの音声は、他のユーザの音声や雑音に埋もれて収音されてしまうので、音声認識の精度が低下してしまう。
本発明は、このような状況に鑑みてなされたものであり、ユーザの音声がマイクの指向範囲から外れた場合であっても、音声認識の精度低下を抑制することが可能な、音声認識システム、及び音声認識方法を提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明により提供される音声認識システムは、同一空間内にて複数のユーザが発話した音声の音声データを、前記複数のユーザそれぞれが装着した複数の収音機器から取得する取得手段と、前記取得した複数の音声データの音量が閾値未満であるか否かを判定する判定手段と、前記判定手段により、前記複数の音声データの音量が何れも閾値未満であると判定された場合に、前記複数の音声データを併用した所定の処理と共に、音声認識処理を行なう音声認識処理手段と、を備える。
本発明によれば、ユーザの音声がマイクの指向範囲から外れた場合であっても、音声認識の精度低下を抑制することが可能な、音声認識システム、及び音声認識方法を提供することができる。
本発明の一実施形態に係る音声認識システムの全体構成と、音声認識システムを利用するユーザが存在する空間とを俯瞰した模式図である。 首掛け型のウェアラブルマイクにより本発明の一実施形態におけるマイクを実現した場合の装着例を示す模式図である。 各ユーザの発話の状況の一例を示すタイミングチャートである。 各ユーザの発話の状況の一例を示すタイミングチャートである。 音声認識システムに含まれる、各マイク、会議端末、及び音声認識サーバそれぞれのハードウェア構成を示すブロック図である。 音声認識システムに含まれる、各マイク、会議端末、及び音声認識サーバの機能的構成のうち、複数音声併用処理を実行するための機能的構成を示す機能ブロック図である。 会議端末の外観構成及び表示例を示す模式図である。 本発明の一実施形態における第1複数音声併用処理の流れを説明するフローチャートである。 本発明の一実施形態における第2複数音声併用処理の流れを説明するフローチャートである。 第1の変形例における会議端末の外観構成及び表示例を示す模式図である。 第1の変形例及び第2の変形例における画像解析に関して示す模式図である。 第1の変形例における会議端末での表示例を示す模式図である。 第2の変形例における音声認識部の構成例を示す模式図である。 第2の変形例における処理の流れを説明するフローチャートである。
以下、本発明の実施形態について、図面を用いて詳細に説明する。
[システム構成]
図1は、本実施形態に係る音声認識システムSの全体構成と、音声認識システムSを利用するユーザが存在する空間(ここでは、一例として会議室)とを俯瞰した模式図である。図1に示すように、音声認識システムSは、複数のマイク10(ここでは、一例としてマイク10A〜マイク10F)、会議端末20、及び音声認識サーバ30を含む。
また、窓やドアを含む会議室の中央には、テーブルが配置され、テーブル周囲には、会議に参加する複数のユーザU(ここでは、一例としてユーザUA〜ユーザUF)が位置する。これらユーザUそれぞれは、符号の末尾のアルファベットが、自身の符号と共通するマイク10を装着している。なお、これらユーザUの人数や各マイク10等の台数は一例に過ぎず、特に限定されない。
各マイク10は、各ユーザUの音声を収音する収音機器として機能する。各マイク10の形状は特に限定されないが、例えば、首掛け型、又は、バッジ型としてユーザUに装着されるウェアラブルマイクにより、各マイク10を実現することができる。このようなウェアラブルマイクであれば、例えば、ヘッドセットやピンマイクを煩わしく感じるユーザUや、他人が装着したマイクの使い回しを嫌がるユーザUであっても、気にかけることなく装着することができる。
マイク10の装着例について、図2を参照して説明する。図2は、首掛け型のウェアラブルマイクによりマイク10を実現した場合の装着例を示す模式図である。本例では、マイク10は、マイク10の上方、すなわち、マイク10を装着したユーザUの口から発話される音声を集中的に収音するために、口元への指向性を有している。
そのため、図2(A)に示すように、ユーザUが正面を向いて発話した場合、ユーザUの発話する音声を適切に収音することできる。一方で、図2(B)に示すように、ユーザUが、横や上を向いて、マイクの指向方向と異なる方向に発話してしまい、ユーザUの音声がマイクの指向範囲から外れる場合、このユーザUの音声は、他のユーザUの音声や雑音に埋もれて収音されてしまう。本実施形態では、「複数音声併用処理」を行なうことにより、この図2(B)に示すように、ユーザUの音声がマイクの指向範囲から外れる場合であっても、音声認識の精度低下を抑制する。この複数音声併用処理の詳細については後述する。
各マイク10は、収音した音声に対応するアナログ信号を、A/D変換回路にてアナログ−デジタル変換することにより、デジタル信号の音声データを作成する。そして、各マイク10は、作成した音声データを会議端末20に対して通信により送信する。かかる通信方法は特に限定されないが、例えば、多対多で接続が可能なBluetooth(登録商標)等の無線通信により実現することができる。このように、多対多で接続が可能な通信方法を用いることにより、各ユーザUの発話した音声を同時並行して収集することができる。
会議端末20は、各マイク10から受信した音声データを、音声認識サーバ30に対して送信する。かかる通信方法は特に限定されないが、例えば、インターネットや、LAN(Local Area Network)等のネットワークを介した、有線又は無線の通信により実現することができる。会議端末20は、通信機能を有する中継装置等で実現してもよいし、ディスプレイ上での入力操作により、ユーザUが文字等を入力できる電子情報ボード等の装置で実現してもよい。以下の説明では、会議端末20を電子情報ボードにより実現する場合を例に取って説明をする。なお、電子情報ボードは、インタラクティブ・ホワイトボード(IWB:Interactive Whiteboard)、または電子黒板等と称されることもある。
音声認識サーバ30は、各マイク10から受信した複数の音声データに対して、音声認識処理を行なうサーバである。音声認識サーバ30では、マイク10から受信した複数の音声データに対応した、複数の音声認識エンジンが並列に動作する。これにより、各ユーザUの音声データに対して並列的な音声認識処理をリアルタイムに実現できる。音声認識処理の結果は、例えば、テキスト化された上で、会議端末20等の表示部にリアルタイムで表示されたり、会議終了後に紙媒体に印刷されたりすることにより利用される。音声認識サーバ30は、例えば、クラウド上に設けられたクラウドサーバにより実現することができる。
[複数音声併用処理]
このような構成を有する音声認識システムSは、上述したように複数音声併用処理を行う。ここで、複数音声併用処理とは、複数のユーザUの音声データを併用することにより、音声認識の精度低下を抑制する一連の処理である。
具体的に、複数音声併用処理において音声認識システムSは、同一空間内にて複数のユーザUが発話した音声の音声データを、複数のユーザUそれぞれが装着した複数のマイク10から取得する。また、音声認識システムSは、取得した複数の音声データの音量が閾値未満であるか否かを判定する。ここで、取得した複数の音声データの音量が閾値未満である場合とは、例えば、上述した図2(B)に示すように、ユーザUの音声がマイクの指向範囲から外れる場合である。
そして、音声認識システムSは、複数の音声データの音量が何れも閾値未満であると判定された場合に、複数の音声データを併用した所定の処理と共に、音声認識処理を行なう。この複数の音声データを併用した所定の処理として、例えば、第1複数音声併用処理と、第2複数音声併用処理の2つの処理が挙げられる。
(第1複数音声併用処理)
第1複数音声併用処理では、音声認識システムSは、複数の音声データを合算し、合算した音声データに対して音声認識処理を行なう。これにより、合算によりS/N比が向上した音声データに対して音声認識処理を行なうことにできるので、音声認識の精度低下を抑制することができる。
第1複数音声併用処理について、図3及び図4を参照して説明する。図3及び図4は、各ユーザUの発話の状況の一例を示すタイミングチャートである。
本例では、図4に示すように、3人のユーザU(ユーザUA、ユーザUB、及びユーザUC)が、それぞれ異なるタイミング(一部重複したタイミングを含む)で、順番に発話する場合を想定する。具体的には、時系列に沿って「ユーザUA→ユーザUB→ユーザUC→ユーザUB→ユーザUA」の順番で発話する場合を想定する。ただし、この発話の中で最後に発話したユーザUAが横を向き、上述した図2(B)に示すように、マイクの指向範囲から外れてしまったものとする。
これら3人のユーザUそれぞれが装着しているマイク10(マイク10A、マイク10B、及びマイク10C)はそれぞれ、マイク10を装着しているユーザUの発話した音声を最も大きく収音している一方で、他のユーザUの発話した音声も少量ながら収音している。例えば、図中のT1〜T2の間、マイク10AはユーザUAの発話した音声を大きく収音しており、マイク10B及びマイク10CもユーザUAの発話した音声を少量ながら収音している。なお、図中における図示を省略するが、マイク10は、実際には、会議室内のノイズ(例えば、空調やプロジェクタ等の稼動音)も少量ながら収音している。
このような状況において、本実施形態では、上述したように音量に閾値を設定し、少なくとも1つのマイク10の音声データの音量が閾値以上であれば、この閾値以上の音量の音声データに対して音声認識を行なう。すなわち、少なくとも1つのマイク10において、装着しているユーザUの発話した音声を適切に収音できている場合には、この音声の音声データに対して音声認識を行なう。そして、他のマイク10が収音した閾値未満の音量の音声データには音声認識を行わない。
例えば、T1〜T2の期間はマイク10Aが収音したユーザUAの発話した音声の音声データに対して音声認識を行なう。また、T2〜T3の期間はマイク10Bが収音したユーザUBの発話した音声の音声データに対して音声認識を行なう。更に、T3〜T4の期間はマイク10Cが収音したユーザUCの発話した音声の音声データに対して音声認識を行なう。更に、T4〜T5の期間はマイク10Bが収音したユーザUBの発話した音声の音声データに対して音声認識を行なう。そして、それ以外の閾値未満の音量の音声データは音声認識の対象から除外する。
なお、T1〜T2の期間において、マイク10Aが収音したユーザUAの発話した音声と、マイク10Bが収音したユーザUBの発話した音声とは、時間的に一部重複しているが、それぞれのマイク10で閾値以上の音量で収音できている。そのため、この重複期間においてユーザUAの発話した音声の音声データと、ユーザUBの発話した音声の音声データはそれぞれ音声認識に用いられる。
ここで、本実施形態における、複数の音声データを併用した所定の処理が適用されるのは、ユーザUAが横を向いて発話しているT6〜T7の期間である。このT6〜T7の期間は、マイク10A、マイク10B、及びマイク10Cの何れも閾値未満の音量の音声しか収音していない。そのため、各マイク10が収音した音声のS/N比は低く、このまま各マイク10が収音した音声の音声データに対して音声認識を行ったとしても、ユーザUAの発話した音声は、適切に音声認識されない。
このように、ユーザUが横や上を向いて発話して、ユーザUの音声がマイクの指向範囲から外れ、何れのマイク10の音声データも閾値未満の音量である場合は、複数の音声データを併用した所定の処理を行なう。具体的には、図4に示すように、複数のマイク10で収音した音声の音声データを合算してS/N比を向上させる。そして、S/N比が向上することにより音声が強調された音声データに対して音声認識を行う。
これにより、ユーザUの音声がマイクの指向範囲から外れた場合であっても、音声認識の精度低下を抑制することが可能となる。
この場合に、複数の音声データの音量の比較結果に基づいて、発話したユーザUを推定するようにしてもよい。例えば、マイク10Aの音声データの音量が、マイク10Bやマイク10の音声データの音量よりも相対的に大きい場合には、マイク10Aに対応するユーザUAが発話したと推定してもよい。ただし、推定が困難な場合には、図4に示すように、発話者不特定として、後述の音声合算部230から出力するようにしてもよい。
(第2複数音声併用処理)
上述した第1複数音声併用処理により、音声認識の精度低下を抑制することができるが、音声データの合算を行なうために、各マイク10から取得した音声データの厳密なタイミング制御(例えば、μsecオーダーの厳密な同期制御等)が必要になる。また、加算処理を行なうための処理部も必要となる。そこで、他のより簡易な処理として、第2複数音声併用処理を行なうことも考えられる。
第2複数音声併用処理においても、第1複数音声併用処理と同様に、複数の音声データを併用した所定の処理を行なう。すなわち、図3に示すT6〜T7の期間のようにユーザUが横や上を向いて発話して、ユーザUの音声がマイクの指向範囲から外れ、何れのマイク10の音声データも閾値未満の音量である場合は、複数の音声データを併用した所定の処理を行なう。
具体的には、音声認識システムSは、複数の音声データそれぞれに対して音声認識処理を行い、複数の音声データそれぞれの音声認識結果の比較に基づいて、音声認識結果を補正する。これにより、或る1つの音声データの音声認識結果のみならず、複数の音声データそれぞれの音声認識結果を踏まえて補正を行なうことができるので、音声認識の精度低下を抑制することができる。
ここで、補正処理の例としては、或る区間(例えば、音声認識結果に基づいて特定される文節に対応する区間等)において、複数の音声データについての音声認識結果が共通している場合は、この共通する音声認識結果が正しいものとして補正を行う。
また、この場合に、例えば3つの音声データについての音声認識結果のうち、2つの音声認識結果が同じ結果だった場合は、この音声認識結果が正しいものとして補正を行うというように、いわゆる多数決に基づいた処理としてもよい。
あるいは、複数の音声認識処理の結果が全て異なるような場合は、複数の音声データそれぞれの音量を比較し、音量が最も大きい音声データについての音声認識結果を正しいものとして補正を行うようにしてもよい。
これにより、第2複数音声併用処理においても、ユーザUの音声がマイクの指向範囲から外れた場合であっても、音声認識の精度低下を抑制することが可能となる。
[ハードウェア構成]
次に、図5を参照して、本実施形態における各装置のハードウェア構成について説明をする。図5は、音声認識システムSに含まれる、各マイク10、会議端末20、及び音声認識サーバ30それぞれのハードウェア構成を示すブロック図である。
マイク10は、CPU(Central Processing Unit)11、ROM(Read Only Memory)12、RAM(Random Access Memory)13、通信I/F(Interface)14、操作部15、及び収音部16を含む。これら各部は、バス接続により相互に通信可能に接続される。
CPU11は、マイク10全体を制御する。具体的には、CPU11は、RAM13をワークエリア(すなわち、作業領域)として、ROM12等に格納されたファームウェアや、OS(Operating System)や、各種のプログラムに基づいた演算処理を行う。そして、CPU11は、この演算処理の結果に基づいて、マイク10に含まれる各ハードウェアを制御する。ここで、各種のプログラムとは、例えば、上述した複数音声併用処理において、音声データを会議端末20に対して送信するためのプログラムである。
ROM12は、ファームウェアや、OSや、各種のプログラムや、これらのプログラムにおいて利用する各種のデータ(例えば、上述した複数音声併用処理において利用する音声データ)を記憶する。
RAM13は、上述したように、CPU11のワークエリアとして機能する。
通信I/F14は、マイク10が、音声認識システムSに含まれる他の各装置と通信するためのインターフェースである。
操作部15は、例えば、各種の釦等で実現され、ユーザUの操作を受け付ける。例えば、操作部15は、マイク10の電源のオンオフの切り替え操作や、収音の開始指示操作を受け付ける。そして、操作部15は、受け付けたユーザUの操作の内容をCPU11に対して出力する。
収音部16は、収音した音声をアナログの電気信号に変換するデバイスと、この音声をデジタル変換するためのA/D変換回路とを含む。収音部16は、デジタル変換した音声データを、CPU11に対して出力する。
会議端末20は、CPU21、ROM22、RAM23、HDD24、通信I/F25、操作部26、表示部27、及び撮像部28を含む。これら各部は、バス接続により相互に通信可能に接続される。
CPU21は、会議端末20全体を制御する。具体的には、CPU21は、RAM23をワークエリアとして、ROM22やHDD24等に格納されたファームウェアや、OSや、各種のプログラムに基づいた演算処理を行う。そして、CPU21は、この演算処理の結果に基づいて、会議端末20に含まれる各ハードウェアを制御する。ここで、各種のプログラムとは、例えば、上述した複数音声併用処理を実現するためのプログラムや、電子情報ボードの機能を実現するプログラムである。
ROM22及びHDD24は、ファームウェアや、OSや、各種のプログラムや、これらのプログラムにおいて利用する各種のデータ(例えば、上述した複数音声併用処理や、電子情報ボードの機能において利用する各種のデータ)を記憶する。
RAM23は、上述したように、CPU21のワークエリアとして機能する。
通信I/F25は、会議端末20が、音声認識システムSに含まれる他の各装置と通信するためのインターフェースである。
操作部26は、例えば、各種の釦等で実現され、ユーザUの操作を受け付ける。例えば、操作部15は、会議端末20の電源のオンオフの切り替え操作や、収音の開始指示操作や、電子情報ボードの機能に関する操作を受け付ける。そして、操作部26は、受け付けたユーザUの操作の内容をCPU21に対して出力する。
表示部27は、液晶ディスプレイ(LCD:Liquid Crystal Display)や有機ELディスプレイ(Organic Electro Luminescence Display)等で実現され、CPU21から出力された所定の情報をユーザUに対して表示する。表示部27は、所定の情報として、例えば、音声認識結果をテキスト化した情報や、各種のユーザインタフェースをユーザUに対して表示する。
なお、操作部26及び表示部27を、電子情報ボード用のペンやユーザUの手によるタッチ操作を受付可能な、タッチパネルにより一体として実現してもよい。
撮像部28は、カメラを実現するための各種デバイスにより実現され、会議端末20が設置された場所において、例えば、会議に参加しているユーザUを撮像する。撮像部28は、撮像により作成した画像データをCPU21に対して出力する。
音声認識サーバ30は、CPU31、ROM32、RAM33、HDD34、及び通信I/F35を含む。これら各部は、バス接続により相互に通信可能に接続される。
CPU31は、音声認識サーバ30全体を制御する。具体的には、CPU31は、RAM33をワークエリアとして、ROM32やHDD34等に格納されたファームウェアや、OSや、各種のプログラムに基づいた演算処理を行う。そして、CPU31は、この演算処理の結果に基づいて、音声認識サーバ30に含まれる各ハードウェアを制御する。ここで、各種のプログラムとは、例えば、上述した複数音声併用処理を実現するためのプログラムである。
ROM32及びHDD34は、ファームウェアや、OSや、各種のプログラムや、これらのプログラムにおいて利用する各種のデータ(例えば、上述した複数音声併用処理において利用する各種のデータ)を記憶する。
RAM33は、上述したように、CPU31のワークエリアとして機能する。
通信I/F35は、音声認識サーバ30が、音声認識システムSに含まれる他の各装置と通信するためのインターフェースである。
[機能的構成]
次に、図5を参照して上述した各ハードウェアによって実現される機能的構成について図6を参照して説明をする。図6は、音声認識システムSに含まれる、各マイク10、会議端末20、及び音声認識サーバ30の機能的構成のうち、複数音声併用処理を実行するための機能的構成を示す機能ブロック図である。
なお、これら機能ブロックは、上述した各マイク10、会議端末20、及び音声認識サーバ30に含まれる各CPUが、複数音声併用処理を実現するためのプログラムに基づいて、各装置に含まれる各ハードウェアを制御することにより実現される。なお、以下で特に言及しない場合も含め、これら機能ブロック間では、複数音声併用処理を実現するために必要なデータを、適切なタイミングで適宜送受信する。
また、本実施形態では、各音声データに対して並列的に処理を行なうために、一部の機能ブロックが並列的に複数設けられている。ただし、並列的に複数設けられた同名の機能ブロックの機能はそれぞれ共通している。そのため、以下の説明では、各機能ブロック末尾のアルファベットを省略して説明する。
まず、各マイク10の機能ブロックについて説明をする。
複数音声併用処理が実行される場合、図6に示すように、各マイク10において、音声収音部110と、音声送信部120とが機能する。
音声収音部110は、各ユーザUの音声を収音及びアナログ−デジタル変換することにより、デジタル信号の音声データを作成する。
音声送信部120は、音声収音部110が作成した音声データを会議端末20に対して送信する。
次に、会議端末20の機能ブロックについて説明をする。
複数音声併用処理が実行される場合、図6に示すように、会議端末20において、音声取得部210と、音量判定部220と、音声合算部230と、文字列表示部240とが機能する。
音声取得部210は、音声送信部120が送信した音声データを受信することにより、音声データを取得する。
音量判定部220は、音声取得部210が受信した音声データの音量が閾値未満であるか否かを判定する。この閾値の値は、本実施形態を実装する環境等に応じて、予め設定しておくものとする。また、この閾値の値は、各音声データの音量の平均値等に基づいて適宜変更されてもよい。
なお、音量判定部220は、一時的に(例えば、数秒程度)ユーザUの発話が途切れる場合も考慮して、この一時的に途切れる期間よりも長い、一定期間における音声データの音量の平均値が、閾値未満であるか否かを判定するとよい。
音声合算部230は、もっぱら第1複数音声併用処理を行なう場合に機能する。第1複数音声併用処理を行なう場合、音声合算部230は、音量判定部220により、複数の音声データの音量が何れも閾値未満であると判定された場合に、複数の音声データを合算する。そして、音声合算部230は、合算した音声データを音声認識サーバ30に対して送信する。一方で、音声合算部230は、音量判定部220により、複数の音声データの内の何れかの音声データの音量が閾値以上であると判定された場合に、この閾値以上であると判定された音声データを音声認識サーバ30に対して送信し、閾値未満であると判定された音声データは送信しない。
なお、第2複数音声併用処理を行なう場合には、音声合算部230は、音量判定部220の判定結果に関わらず、複数の音声データの全てを音声認識サーバ30に対して送信する。
文字列表示部240は、音声認識サーバ30から受信した、音声認識結果を表示する。音声認識結果は、例えば、テキスト化した文字列として表示される。文字列表示部240による表示の一例を図7に示す。図7に示すように会議端末20は、例えば、電子情報ボードとして実現される。この場合、操作部26及び表示部27はタッチパネルとして実現される。そして、表示部27には処理の表示領域として、例えば、表示領域271が設けられる。文字列表示部240は、この表示領域271に、例えば、ユーザUが発話した時系列に沿って文字列を表示する。
この場合に、ユーザU(の装着しているマイク10)を識別する情報(例えば、予め登録したユーザUの名前やマイク10の番号等)を、対応するテキストと共に表示するようにしてもよい。このように表示をする場合には、音声合算部230等と同様に、文字列表示部240も、複数のマイク10に対応して複数設けるようにしてもよい。
このような表示を行うことにより、複数人の発話者が存在する会議シーンにおいて、誰がどのような発言を行ったかという発話履歴が表示される。
次に、音声認識サーバ30の機能ブロックについて説明をする。
複数音声併用処理が実行される場合、図6に示すように、音声認識サーバ30において、音声認識部310と、認識結果補正部320とが機能する。
音声認識部310は、会議端末20から受信した音声データに対して、音声認識処理を行なう。音声認識処理に用いる音声認識エンジンは特に限定されず、本実施形態特有の音声認識エンジンを利用してもよいし、汎用の音声認識エンジンを利用してもよい。
認識結果補正部320は、もっぱら第2複数音声併用処理を行なう場合に機能する。第2複数音声併用処理を行なう場合、認識結果補正部320は、音量判定部220により、複数の音声データの音量が何れも閾値未満であると判定された場合に、複数の音声データの音声認識結果の比較に基づいて、音声認識結果を補正(アンサンブル)する。そして、認識結果補正部320は、補正した音声認識結果を会議端末20に対して送信する。一方で、音声合算部230は、音量判定部220により、複数の音声データの内の何れかの音声データの音量が閾値以上であると判定された場合に、この閾値以上であると判定された音声データに関する音声認識結果を会議端末20に対して送信する。音声認識結果は、例えば、テキスト化した文字列として送信される。
なお、第1複数音声併用処理を行なう場合には、音量が閾値以上の音声データや、合算されてS/N比が向上した音声データといった、適切に音声認識できる音声データのみが音声認識の対象となっている。そのため、認識結果補正部320は、音量判定部220の判定結果に関わらず、音声認識部310による音声認識結果の全てを会議端末20に対して送信する。
[動作]
次に、本実施形態における複数音声併用処理の流れについて説明をする。なお、下記の説明にて特に言及しない場合であっても、図6を参照して上述した各機能ブロックは、複数音声併用処理に必要となる処理を適宜実行する。なお、第1複数音声併用処理と、第2複数音声併用処理の何れが行われるかは、予めなされた設定や、ユーザUによる選択操作に応じて決定される。
(第1複数音声併用処理)
図8は、第1複数音声併用処理の流れを説明するフローチャートである。第1複数音声併用処理は、例えば、マイク10による収音が開始されて音声データの取得が開始された場合や、ユーザUによる開始指示操作応じて実行される。
ステップS11において、第1音声併用処理のループ処理が開始される。
ステップS12において、会議端末20の各音声取得部210は、各マイク10から音声データを取得する。
ステップS13において、会議端末20の各音量判定部220は、一定期間における音声データの音量の平均値が、閾値未満であるか否かを判定する。
ステップS14において、会議端末20の音声合算部230は、ステップS13における判定結果に基づいて、一定期間における、全ての音声データの音量の平均値が、閾値未満であったか否かを判断する。全ての音声データの音量の平均値が、閾値未満であった場合は、ステップS14においてYesと判定され、処理はステップS15に進む。一方で、少なくとも何れかの音声データの音量の平均値が、閾値以上であった場合は、ステップS14においてNoと判定され、処理はステップS17に進む。
ステップS15において、会議端末20の音声合算部230は、各マイク10が収音した各音声データを選択する。この処理は、各音声データに対して並列的に行われる(ここでは、一例としてステップS15A〜ステップS15Cが行われる)。
ステップS16において、会議端末20の音声合算部230は、ステップS15において選択された各音声データを合算する。
一方で、ステップS17において、会議端末20の音声合算部230は、閾値以上の音量の音声データを選択する。
ステップS18において、音声認識サーバ30の音声認識部310は、ステップS16において合算されてS/N比の向上した音声データ、あるいは、ステップS17において選択された閾値以上の音量の音声データに対して音声認識処理を行う。
ステップS19において、会議端末20の文字列表示部240は、ステップS18における音声認識結果をテキスト化した文字列を出力する。この場合、出力は、例えば、図7を参照して上述したような表示や、紙媒体への印刷等により行われる。
ステップS20において、第1複数音声併用処理のループ処理が終了する条件が満たされていない場合には、ステップS11から上述のループ処理が繰り返される。一方で、第1複数音声併用処理のループ処理が終了する条件が満たされた場合には、ループ処理は終了する。終了条件は、例えば、マイク10による収音が終了して音声データの取得が終了したことや、ユーザUによる終了指示操作を受け付けたことである。
以上説明した第1複数音声併用処理により、ユーザUの音声がマイクの指向範囲から外れた場合であっても、音声認識の精度低下を抑制することが可能となる。
(第2複数音声併用処理)
図9は、第2複数音声併用処理の流れを説明するフローチャートである。第2複数音声併用処理は、例えば、マイク10による収音が開始されて音声データの取得が開始された場合や、ユーザUによる開始指示操作応じて実行される。
ステップS31において、第2音声併用処理のループ処理が開始される。
ステップS32において、会議端末20の各音声取得部210は、各マイク10から音声データを取得する。
ステップS33において、会議端末20の各音量判定部220は、一定期間における音声データの音量の平均値が、閾値未満であるか否かを判定する。
ステップS34において、会議端末20の音声合算部230は、ステップS33における判定結果に基づいて、一定期間における、全ての音声データの音量の平均値が、閾値未満であったか否かを判断する。全ての音声データの音量の平均値が、閾値未満であった場合は、ステップS34においてYesと判定され、処理はステップS35に進む。一方で、少なくとも何れかの音声データの音量の平均値が、閾値以上であった場合は、ステップS34においてNoと判定され、処理はステップS39に進む。
ステップS35において、会議端末20の音声合算部230は、各マイク10が収音した各音声データを選択する。この処理及び以後のステップS36及びステップS37の処理は、各音声データに対して並列的に行われる。ここでは、一例としてステップS35A〜ステップS35C、ステップS36A〜ステップS36C、及びステップS37A〜ステップS37Cが行われる。
ステップS36において、音声認識サーバ30の音声認識部310は、ステップS35において選択された各音声データに対して音声認識処理を行う。
ステップS37において、音声認識サーバ30の音声認識部310は、ステップS36における音声認識処理の結果を、テキスト化した文字列として出力する。
ステップS38において、音声認識サーバ30の認識結果補正部320は、複数の音声データそれぞれの音声認識結果の比較に基づいて、音声認識結果を補正する。
一方で、ステップS39において、会議端末20の音声合算部230は、閾値以上の音量の音声データを選択する。
ステップS40において、音声認識サーバ30の音声認識部310は、ステップS39において選択された閾値以上の音量の音声データに対して音声認識処理を行う。
ステップS41において、会議端末20の文字列表示部240は、ステップS38における補正後の文字列、又は、ステップS40における音声認識結果をテキスト化した文字列を出力する。この場合、出力は、例えば、図7を参照して上述したような表示や、紙媒体への印刷等により行われる。
ステップS42において、第2複数音声併用処理のループ処理が終了する条件が満たされていない場合には、ステップS31から上述のループ処理が繰り返される。一方で、第2複数音声併用処理のループ処理が終了する条件が満たされた場合には、ループ処理は終了する。終了条件は、例えば、マイク10による収音が終了して音声データの取得が終了したことや、ユーザUによる終了指示操作を受け付けたことである。
以上説明した第2複数音声併用処理により、ユーザUの音声がマイクの指向範囲から外れた場合であっても、音声認識の精度低下を抑制することが可能となる。
[変形例]
本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。
[第1の変形例]
上述した実施形態では、音声認識処理に基づいて文字列を表示していた。これに限らず、更に他の情報を表示するようにしてもよい。例えば、文字列に対応する発話を行ったユーザUの画像を対応付けて表示するようにしてもよい。
本変形例について図10、図11、及び図12を参照して説明をする。まず、表示の前提として、図10に示すように、撮像部28を、会議に参加している各ユーザUを撮像可能な位置に配置する。例えば、電子情報ボードとして実現された会議端末20の正面上部等に撮像部28を配置する。これにより、会議端末20に正対した位置で会議を行っている各ユーザUを撮像することができる。
次に、図11に示すようにして、撮像部28が撮像することにより作成される各ユーザUが被写体となった画像(あるいは、動画)に対して、画像解析を行うことにより、各ユーザUの顔等を検出し、この各ユーザUの内の誰が発話しているかを特定する。この特定は、一般的に知られているアルゴリズムに基づいた画像解析による、顔検知、あるいは動作検知により実現することができる。これらの画像解析を行う機能は、例えば、会議端末20の音声合算部230に実装する。そして、音声合算部230は、このように特定した発話中のユーザUの顔画像と、同時刻に収音した音声とを紐づけて音声認識サーバ30に送信する。
そして、音声認識サーバ30の認識結果補正部320は、音声認識処理の結果である文字列と、紐付けられている発話したユーザUの顔画像とを、会議端末20の文字列表示部240に対して送信する。そして、会議端末20の文字列表示部240は、表示領域271に、文字列と、発話したユーザUの顔画像とを紐づけて表示する。例えば、図12に示すようにして表示する。これにより、表示を参照したユーザUの、発話内容の理解や臨場感が向上する。すなわち、音声認識システムSの利便性が向上する。
なお、今回の会議に参加しているユーザUの、画像や特徴量等のデータを予め登録しておくことにより、より高い精度で、参加しているユーザUを特定することができる。
[第2の変形例]
上述した第1の変形例のようにして、会議に参加しているユーザUを特定した場合に、特定したユーザU個人に特化した音声認識のモデルに切り替えることで、音声認識の精度を向上させることができる。この場合に、仮にユーザU個人までは特定できなくても、男性か女性等の属性が分かれば、それぞれの音声認識のモデルを用いることでも、音声認識の精度を向上させることができる。
本変形例について図13及び図14を参照して説明する。本変形例では、音声認識サーバ30の音声認識部310に、複数の機能ブロックを含ませる。具体的には、図13に示すように、顔認証結果受信部311、第1音声認識モデル312、第2音声認識モデル313、第3音声認識モデル314、及び音声認識処理部315を含ませる。
そして、図8におけるステップS18において、図14に示す各処理を行う。具体的には、ステップS181において、顔認証結果受信部311が、会議端末20の音声合算部230による顔認証の結果を受信する。そして、受信した顔認証の結果に基づいて、顔認証結果受信部311が、論理的なスイッチを切り替えることにより、音声認識のモデルを切り替える。例えば、以下のようにして切り替える。
ステップS182において、顔認証の結果が「男性」であるか否かを判定する。「男性」である場合は、ステップS182においてYesと判定され、処理はステップS183に進む。ステップS183では、顔認証結果受信部311が男性用の音声認識モデルである第1音声認識モデル312に切り替えた上で、音声認識処理部315が音声認識処理を行う。一方で、「男性」でない場合は、ステップS182においてNoと判定され、処理はステップS184に進む。
ステップS184において、顔認証の結果が「女性」であるか否かを判定する。「女性」である場合は、ステップS184においてYesと判定され、処理はステップS185に進む。ステップS185では、顔認証結果受信部311が女性用の音声認識モデルである第2音声認識モデル313に切り替えた上で、音声認識処理部315が音声認識処理を行う。一方で、「女性」でない場合は、ステップS184においてNoと判定され、処理はステップS186に進む。ステップS185では、顔認証結果受信部311が汎用の音声認識モデルである第3音声認識モデル314に切り替えた上で、音声認識処理部315が音声認識処理を行う。
このように、顔認証の結果に基づいて、適切な音声モデルを利用することにより、音声認識の精度を向上させることができる。
なお、ステップS18のみならず、図9におけるステップS36やステップS40にも本変形例を適用し、上述したようにして、音声モデルの切り替えを行ってもよい。
[第3の変形例]
上述した実施形態における装置構成や、機能ブロックの切り分けは一例に過ぎず、これに限られない。例えば、会議端末20に音声認識サーバ30の機能を実装し、単一の装置として実現してもよい。あるいは、エッジデバイスである会議端末20を単なる通信中継装置により実現し、音声認識サーバ30に会議端末20の機能を実装するようにしてもよい。この場合に、例えば、音声認識処理の結果は、会議端末20以外の他の装置により表示されてもよい。
あるいは、会議端末20や音声認識サーバ30のそれぞれを、複数の装置により実現してもよい。例えば、音声認識サーバ30を、複数のクラウドサーバが協働することにより実現してもよい。
つまり、上述した各装置が備える機能ブロック、あるいは代替となる機能ブロックを、音声認識システムSに含まれる何れかの装置により実現するようにすればよい。換言すると、図6の機能的構成は例示に過ぎず、特に限定されない。すなわち、上述した一連の処理を全体として実行できる機能が音声認識システムSに含まれる各装置に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図6の例に限定されない。
なお、一例として上述した実施形態における機能的構成で機能ブロックを実現した場合、音声認識システムSは、本発明における「音声認識システム」に相当する。またこの場合、マイク10は、本発明における「収音機器」に相当する。更にこの場合、音声取得部210は、本発明における「取得手段」に相当する。更にこの場合、音量判定部220は、本発明における「判定手段」に相当する。更にこの場合、音声合算部230、音声認識部310、及び認識結果補正部320は、本発明における「音声認識処理手段」や「識別手段」に相当する。
[他の変形例]
上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。例えば、本実施形態における機能的構成は、演算処理を実行するプロセッサによって実現される。
本実施形態に用いることが可能なプロセッサには、シングルプロセッサ、マルチプロセッサ及びマルチコアプロセッサ等の各種処理装置単体によって構成されるものを含む。また、他にも、これら各種処理装置と、ASIC(Application Specific Integrated Circuit)やFPGA(Field‐Programmable Gate Array)等の処理回路とが組み合わせられたものを含む。
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布されるリムーバブルメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディアは、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスク等により構成される。
光ディスクは、例えば、CD−ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk),Blu−ray(登録商標) Disc(ブルーレイディスク)等により構成される。光磁気ディスクは、MD(Mini-Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている、図5の、ROM12、ROM22、及びROM32、あるいは、HDD24、及びHDD34等で構成される。
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものとする。
以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、更に、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
S 印刷システム
10 マイク
20 会議端末
30 音声認識サーバ
11、21、31、41 CPU
12、22、32、42 ROM
13、23、33、43 RAM
14、25、35 通信I/F
16 収音部
24、34 HDD
26 操作部
27 表示部
28 撮像部
110 音声収音部
120 音声送信部
210 音声取得部
220 音量判定部
230 音声合算部
240 文字列表示部
310 音声認識部
311 顔認証結果受信部
312 第1音声認識モデル
313 第2音声認識モデル
314 第3音声認識モデル
315 音声認識処理部
320 認識結果補正部
特開2017−167318号公報

Claims (9)

  1. 同一空間内にて複数のユーザが発話した音声の音声データを、前記複数のユーザそれぞれが装着した複数の収音機器から取得する取得手段と、
    前記取得した複数の音声データの音量が閾値未満であるか否かを判定する判定手段と、
    前記判定手段により、前記複数の音声データの音量が何れも閾値未満であると判定された場合に、前記複数の音声データを併用した所定の処理と共に、音声認識処理を行なう音声認識処理手段と、
    を備える音声認識システム。
  2. 前記音声認識処理手段は、
    前記複数の音声データを併用した所定の処理として、前記複数の音声データを合算し、
    前記合算した音声データに対して音声認識処理を行なう、
    請求項1に記載の音声認識システム。
  3. 前記音声認識処理手段は、
    前記複数の音声データそれぞれに対して音声認識処理を行い、
    前記複数の音声データを併用した所定の処理として、前記複数の音声データそれぞれの音声認識結果の比較に基づいて、音声認識結果を補正する、
    請求項1に記載の音声認識システム。
  4. 前記音声認識処理手段は、前記比較において前記複数の音声データそれぞれの音声認識結果が異なる場合に、最も多い音声認識結果に基づいて音声認識結果を補正する、
    請求項3に記載の音声認識システム。
  5. 前記音声認識処理手段は、前記判定手段により、前記複数の音声データの音量の少なくとも何れかが閾値以上であると判定された場合に、該閾値以上と判定された音声データに対して音声認識処理を行なう一方で、他の音声データに対しては音声認識処理を行わない、
    請求項1乃至4の何れか1項に記載の音声認識システム。
  6. 前記音声認識処理手段は、前記複数の音声データの音量が何れも閾値未満であると判定された場合に、前記複数の音声データそれぞれの音量の比較結果に基づいて、発話したユーザを推定する、
    請求項1乃至5の何れか1項に記載の音声認識システム。
  7. 前記複数の収音機器を更に備え、
    前記複数の収音機器は、首掛け型、又は、バッジ型の収音機器である、
    請求項1乃至6の何れか1項に記載の音声認識システム。
  8. 前記複数のユーザが被写体となった画像に基づいて、前記ユーザを識別する識別手段を更に備え、
    前記音声認識処理手段は、前記ユーザの識別結果に基づいて、前記ユーザそれぞれに対する音声認識処理の方法を異ならせる、
    請求項1乃至7の何れか1項に記載の音声認識システム。
  9. 音声認識システムが行なう音声認識方法であって、
    同一空間内にて複数のユーザが発話した音声の音声データを、前記複数のユーザそれぞれが装着した複数の収音機器から取得する取得ステップと、
    前記取得した複数の音声データの音量が閾値未満であるか否かを判定する判定ステップと、
    前記判定ステップにより、前記複数の音声データの音量が何れも閾値未満であると判定された場合に、前記複数の音声データを併用した所定の処理と共に、音声認識処理を行なう音声認識処理ステップと、
    有する音声認識方法。
JP2018217921A 2018-11-21 2018-11-21 音声認識システム、及び音声認識方法 Active JP7095569B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018217921A JP7095569B2 (ja) 2018-11-21 2018-11-21 音声認識システム、及び音声認識方法
JP2022097190A JP7420166B2 (ja) 2018-11-21 2022-06-16 音声認識システム、音声認識方法、及び音声処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018217921A JP7095569B2 (ja) 2018-11-21 2018-11-21 音声認識システム、及び音声認識方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022097190A Division JP7420166B2 (ja) 2018-11-21 2022-06-16 音声認識システム、音声認識方法、及び音声処理装置

Publications (2)

Publication Number Publication Date
JP2020086048A true JP2020086048A (ja) 2020-06-04
JP7095569B2 JP7095569B2 (ja) 2022-07-05

Family

ID=70907772

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018217921A Active JP7095569B2 (ja) 2018-11-21 2018-11-21 音声認識システム、及び音声認識方法
JP2022097190A Active JP7420166B2 (ja) 2018-11-21 2022-06-16 音声認識システム、音声認識方法、及び音声処理装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022097190A Active JP7420166B2 (ja) 2018-11-21 2022-06-16 音声認識システム、音声認識方法、及び音声処理装置

Country Status (1)

Country Link
JP (2) JP7095569B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021256318A1 (ja) * 2020-06-15 2021-12-23 ソニーグループ株式会社 情報処理装置、情報処理方法及びコンピュータプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0683388A (ja) * 1992-09-04 1994-03-25 Fujitsu Ten Ltd 音声認識装置
JP2004309965A (ja) * 2003-04-10 2004-11-04 Advanced Media Inc 会議録音・書き起こしシステム
JP2005338571A (ja) * 2004-05-28 2005-12-08 Sanyo Electric Co Ltd 音声認識装置および音声認識方法
JP2017167318A (ja) * 2016-03-16 2017-09-21 株式会社アドバンスト・メディア 議事録生成装置、及び議事録生成プログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4867804B2 (ja) * 2007-06-12 2012-02-01 ヤマハ株式会社 音声認識装置及び会議システム
JP6721298B2 (ja) * 2014-07-16 2020-07-15 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 音声情報制御方法及び端末装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0683388A (ja) * 1992-09-04 1994-03-25 Fujitsu Ten Ltd 音声認識装置
JP2004309965A (ja) * 2003-04-10 2004-11-04 Advanced Media Inc 会議録音・書き起こしシステム
JP2005338571A (ja) * 2004-05-28 2005-12-08 Sanyo Electric Co Ltd 音声認識装置および音声認識方法
JP2017167318A (ja) * 2016-03-16 2017-09-21 株式会社アドバンスト・メディア 議事録生成装置、及び議事録生成プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021256318A1 (ja) * 2020-06-15 2021-12-23 ソニーグループ株式会社 情報処理装置、情報処理方法及びコンピュータプログラム

Also Published As

Publication number Publication date
JP2022120164A (ja) 2022-08-17
JP7095569B2 (ja) 2022-07-05
JP7420166B2 (ja) 2024-01-23

Similar Documents

Publication Publication Date Title
JP5456832B2 (ja) 入力された発話の関連性を判定するための装置および方法
JP6651989B2 (ja) 映像処理装置、映像処理方法、及び映像処理システム
WO2019206186A1 (zh) 唇语识别方法及其装置、增强现实设备以及存储介质
JP2016051081A (ja) 音源分離装置、及び音源分離方法
KR20100062207A (ko) 화상통화 중 애니메이션 효과 제공 방법 및 장치
WO2017130486A1 (ja) 情報処理装置、情報処理方法およびプログラム
CN110096251B (zh) 交互方法及装置
US20210105437A1 (en) Information processing device, information processing method, and storage medium
JPWO2005109830A1 (ja) 会話支援装置及び会話支援方法
JP2019220848A (ja) データ処理装置、データ処理方法及びプログラム
JP7420166B2 (ja) 音声認識システム、音声認識方法、及び音声処理装置
US11164341B2 (en) Identifying objects of interest in augmented reality
JP7204337B2 (ja) 会議支援装置、会議支援システム、会議支援方法及びプログラム
US11700325B1 (en) Telephone system for the hearing impaired
JP7400364B2 (ja) 音声認識システム及び情報処理方法
JP2010134507A (ja) 再生装置
CN110291768A (zh) 信息处理装置、信息处理方法和信息处理系统
JP2021197658A (ja) 収音装置、収音システム及び収音方法
EP3288035B1 (en) Personal audio analytics and behavior modification feedback
JP7293863B2 (ja) 音声処理装置、音声処理方法およびプログラム
JP2020178150A (ja) 音声処理装置及び音声処理方法
JP2018063352A (ja) フレーム選択装置、フレーム選択方法及びプログラム
JP2020025221A (ja) コミュニケーション支援装置、コミュニケーション支援システム及び通信方法
CN112153461B (zh) 用于定位发声物的方法、装置、电子设备及可读存储介质
US20230083358A1 (en) Earphone smartcase with audio processor

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20190814

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210819

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20220203

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220517

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220524

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220606

R151 Written notification of patent or utility model registration

Ref document number: 7095569

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151