JP2004045591A - 音声認識方法及び特定話者音響辞書の提供方法 - Google Patents

音声認識方法及び特定話者音響辞書の提供方法 Download PDF

Info

Publication number
JP2004045591A
JP2004045591A JP2002200950A JP2002200950A JP2004045591A JP 2004045591 A JP2004045591 A JP 2004045591A JP 2002200950 A JP2002200950 A JP 2002200950A JP 2002200950 A JP2002200950 A JP 2002200950A JP 2004045591 A JP2004045591 A JP 2004045591A
Authority
JP
Japan
Prior art keywords
user
voice recognition
specific speaker
voice
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002200950A
Other languages
English (en)
Inventor
Keiichiro Osada
長田 啓一郎
Yoshihiro Furuyui
古結 義浩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Heavy Industries Ltd
Original Assignee
Mitsubishi Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Industries Ltd filed Critical Mitsubishi Heavy Industries Ltd
Priority to JP2002200950A priority Critical patent/JP2004045591A/ja
Publication of JP2004045591A publication Critical patent/JP2004045591A/ja
Withdrawn legal-status Critical Current

Links

Images

Abstract

【課題】会話ロボット等の音声認識機器の音声認識性能の向上。
【解決手段】複数の会話ロボット1を通信回線2を介してサーバ機3に接続する。サーバ機3には各会話ロボット1のユーザ4の特定話者音響辞書5が事前に登録されている。会話ロボット1−#iは、自分本来のユーザ4−#i以外のユーザ4−#j(j≠i)が操作する場合、サーバ機3に要求を出し、ユーザ4−#jの特定話者音響辞書5−#jをダウンロードし、特定話者音響辞書5−#jを参照してユーザ4−#jが発する音声を認識する。
【選択図】    図2

Description

【0001】
【発明の属する技術分野】
本発明は、音声認識機能を有するロボットなど各種音声認識機器における音声認識性能を向上させる技術に関する。
【0002】
【従来の技術】
近年、一般家庭内でロボットの所有者や操作者などのユーザの生活を補助・支援・介護するロボットや、愛玩用に動物を模したロボットが開発されており、いずれも音声認識機能を有しており、一種の音声認識機器である。これらの音声認識機能を有するロボットでは、従来、特定話者音響辞書が組み込まれ、例えば所有者といった特定個人のみの音声認識をサーポートしている。その理由は、特定話者音響辞書を用いる方が、非特定話者音響辞書を用いるより、音声認識性能(音声認識率)が高いからである。同様に、音声認識機能を有するパソコンなど、個人の使用を目的とした各種音声認識機器でも、従来は、特定話者音響辞書が組み込まれ、特定個人のみの音声認識をサーポートしている。
【0003】
従って、ある音声認識機器(例えば音声認識機能付きロボット)のユーザが別のユーザの音声認識機器(例えば音声認識機能付きロボット)を操作しようとする場合、それには自分の特定話者音響辞書が組み込まれていないため、音声認識性能が著しく低下するという不都合がある。
【0004】
また、従来の音声認識機器では、マイクロホンのゲインは固定か、あるいは、オートゲインコントロールであった。ゲイン固定の場合は、音声認識に用いる音声信号の大きさが話者とマイクロホンとの距離に依存して異なるため、大きすぎたり、小さすぎたりすると、音声認識性能が低下するという不都合がある。オートゲインコントロールの場合は、発話開始時にゲインが高く、その後発話中にゲインが変化するため、音声認識に用いる音声信号の大きさが著しく変動し、音声認識性能が低下するという不都合がある。
【0005】
更に、話者がマイクロホンに向かって発声しないと、話者の音声が周囲の雑音に埋もれてしまい、音声認識性能が低下するという不都合が生じる。
【0006】
【発明が解決しようとする課題】
従って、本発明の課題は、音声認識性能が向上に寄与する技術を提供することである。
【0007】
【課題を解決するための手段】
発明者は、以下に示す知見に基づいて、上記課題を解決する手段を案出した。
(1) 特定話者音響辞書を音声認識機器間で通信回線を介してネットワーク共有すれば、あるユーザが別のユーザの音声認識機器を操作する場合でも、音声認識性能が向上する。特定話者音響辞書のネットワーク共有には、サーバ機を用いてインターネット等により共有する場合と、音声認識機器をピアツーピア接続して共有する場合が考えられる。
(2) マイクロホンのゲインについては、話者とマイクロホンとの距離を計測して最適な値に調整し、話者が発話中は発話前のゲインに固定すれば、音声認識性能が向上する。
(3) 周囲の雑音については、音声認識機器に可動の腕部を備えてこの腕部にマイクロホンを持たせ、音声認識に際して話者に腕部を差し出せば、これに誘われて話者が腕部に向かって発声するので、雑音を少なく拾うことになって音声認識が向上する。
【0008】
第1発明は音声認識方法であり、音声認識機器で音声認識を行う際、話者の特定話者音響辞書を当該特定話者音響辞書を有する別の機器から通信回線を介してダウンロードし、これを参照して音声認識を行うことを特徴とする。
【0009】
第2発明は、第1発明の音声認識方法において、前記音声認識機器が話者の個人認識を行い、認識結果に対応する特定話者音響辞書を自動的にダウンロードすることを特徴とする。
【0010】
第3発明は、第1発明の音声認識方法において、前記別の機器が特定話者音響辞書を事前登録したサーバ機であり、インターネットに接続されていることを特徴とする。
【0011】
第4発明は、第1発明の音声認識方法において、前記別の機器が前記音声認識機器にピアツーピアに接続されたロボットであることを特徴とする。
【0012】
第5発明は、第1発明の音声認識方法において、前記音声認識機器が話者とマイクロホンとの距離を計測する手段を有し、音声ゲインを計測した距離に応じた値に調整し、話者が発話中の音声ゲインを発話前に調整した値に保持することを特徴とする。
【0013】
第6発明は、第1発明の音声認識方法において、前記音声認識機器がマイクロホンを有する可動の腕部を備え、音声認識に際し、話者に腕部を差し出すことを特徴とする。
【0014】
第7発明は、第1発明から第6発明いずれかの音声認識方法において、前記音声認識機器がロボットであることを特徴とする。
【0015】
第8発明は特定話者音響辞書の提供方法であり、ユーザの特定話者音響辞書をサーバ機に事前登録しておき、ユーザの要求に応じて当該ユーザの特定話者音響辞書を通信回線を介してユーザに提供することを特徴とする。
【0016】
【発明の実施の形態】
以下、音声認識機能付きロボット(以下、会話ロボットと呼ぶ)を音声認識機器の例にして、本発明の実施の形態を図面を参照しながら説明する。
【0017】
図1に会話ロボット1の外観を示し、ロボット本体11は頭部12と胸部13と胴部(台車部)14と左右の腕部15とを有する人間を模したものであり、頭部12と胸部13間の首関節や、胸部13と腕部15間の肩関節、腕部15内の肘関節、手首関節等が図示しない駆動機構により回動可能であるとともに、胴部14に装備された左右の走行用車輪16が図示しない駆動機構により操舵及び走行可能である。
【0018】
図1の会話ロボット1は、作業空間をバッテリ駆動により自律的に移動するように構成されており、一般家庭等の屋内を作業空間として人間と共存し、例えば、一般家庭内でロボットの所有者や操作者などのユーザの生活を補助・支援・介護するために用いられる。そのため、会話ロボット1は、内蔵のCPU(コンピュータ)及び各種のセンサにより、ユーザと会話する機能の他、ユーザの行動を見守ったり、ユーザの行動を補助したり、ユーザと一緒に行動したりする機能を備えている。会話ロボット1の形状としては、愛玩用に動物を模したものなど、種々考えられる。
【0019】
会話ロボット1はCPUを用いた図示しない制御部を持ち、頭部12には、2つのカメラ17と2つのマイクロホン18が装着されている。また、胸部13の中央部に音量・音源方向センサと焦電型赤外線センサからなる人検知センサ19、左右にスピーカ20aが装着されている。更に、胸部13の中央部に画像ディスプレイ20bが装着され、胴部14に超音波式障害物センサ21及びレーザ式障害物センサ22が装着されている。キーボード及びタッチセンサ等が装着されることもある。
【0020】
カメラ17はユーザや屋内を撮影してその画像を制御部に出力し、マイクロホン18はユーザの音声や電話のベル、呼び鈴、テレビの音などの生活音を取り込んで制御部に出力し、人検知センサ19はユーザの有無を検出して制御部に出力する。スピーカ20aはマイクロホン18とともにユーザとの会話に用いられ、画像ディスプレイ20bはユーザに対する情報提供に用いられる。キーボードやタッチセンサはユーザ用のデータ入力機器であり、ユーザの生活パターンデータを入力したり、ユーザの意思を入力するために用いられる。スピーカ20aはユーザに対する情報提供にも用いられる。制御部には、所定期間にわたるカレンダ及び現在の年月日及び時刻を計時するカレンダクロックが備えられている。
【0021】
制御部には、キーボード等のデータ入力機器と、カメラ17、マイクロホン18、人検知センサ19及び障害物センサ21、22等のユーザの生活パターンを常時モニタする外界センサと、カレンダクロックといった内界センサとにより、会話ロボット1の自己位置に関する情報と、ユーザの位置に関する情報と、ユーザの行動に関する情報とが入力される。
【0022】
制御部は、図示しないが、自己位置認識部と、ユーザ認識部と、会話処理部と、データベース(記憶手段)と、生活パターンデータ処理部、駆動制御部を有している。
【0023】
自己位置認識部は、カメラ17で撮影した画像情報に基づいて会話ロボット1自身の位置及び方位(向き、姿勢)を認識する。
【0024】
ユーザ認識部は、カメラ17で撮影した画像情報及び/またはマイクロホン18で取り込んだ音声からユーザ個人の認識を行い、また、カメラ17と人検知センサ19の検出結果からユーザの位置、向き、姿勢、活動量を認識する。
【0025】
更に、ユーザ認識部は、ユーザの位置に関連して、カメラ17で取得した画像情報を画像処理することにより、ユーザと会話ロボット1との距離を常に推定する機能を有している。例えば、ユーザの顔の画素数を計測することにより、距離を計測することができる。
【0026】
会話処理部は、ユーザと会話を行うものであり、マイクロフォン18で取り込んだ音声からユーザが話し掛ける発言内容等を音響辞書を用いて認識する音声認識機能と、ユーザへの話し掛けや、質問、返事等の各種会話用音声波形を作ってスピーカ20aを駆動する発言機能を有している。
【0027】
更に、会話処理部は、ユーザ認識部が計測したユーザと会話ロボット1との距離に応じて、マイクロフォン18のゲインを音声認識にとって最適な値に調整し、且つ、ユーザの発話中は、ゲインを発話前に調整した値に保持する機能を備えている。
【0028】
データベースは、ユーザとの会話用やユーザへの話し掛け用の各種音声データ、ユーザとの会話時やユーザへの話し掛け時の身振り動作のデータ、ユーザの生活情報(ユーザの居住に関する部屋の間取りや家具の配置、ユーザ個人の日常の生活パターン、ユーザの趣味、健康状態など)を記憶している。ユーザの生活情報には、必要に応じて文字列や映像、音声などのキーワードが付される。生活パターンのデータとしては、起床、就寝、食事、薬服用、散歩、自由時間、入浴などの行動に関するイベントが上げられ、これらのイベントが時間データとともにタイムスケジュールとして記憶される。
【0029】
生活パターンデータ処理部は、ユーザがデータ入力機器から直接入力した生活情報をキーワードを付してデータベースに蓄積したり、カメラ17やマイクロホン18、マイクロホン18a、人検知センサ19で取得した音声認識結果などユーザの各種情報を処理することで一つ一つの生活情報にキーワードやその日時を付してデータベースに蓄積する。更に、生活パターンデータ処理部は、ユーザからの指示や話し掛けに応じて、あるいは、時刻などに応じて、これに対応する音声データをデータベースから選択して会話処理部に与える。
【0030】
駆動制御部は、会話ロボット1の可動部(走行用車輪16や首関節、肩関節、肘関節、手首関節など)の各駆動機能を制御することで、ロボット本体11全体の移動、頭部12の動き、腕部14の動き等を実現する。
【0031】
次に、図2、図3を参照して、会話ロボット1(音声認識機器)が特定話者音響辞書をネットワーク共有して行う音声認識方法を説明する。
【0032】
[サーバ機を用いる方法]
図2に示す例では、会話ロボット1が3台(一般には、複数台)、通信回線2を介してサーバ機3に接続されている。本例では、通信回線2はインターネットである。サーバ機3には、各会話ロボット1のユーザ4の特定話者音響辞書5が事前に登録されている。以下の説明では、個々の会話ロボット1、ユーザ4、特定話者音響辞書5を区別する場合、会話ロボット1−#1、1−#2、1−#3、ユーザ4−#1、4−#2、4−#3、特定話者音響辞書5−#1、5−#2、5−#3と表記する。会話ロボット1−#i(i=1、2、3)の本来のユーザは4−#iであり、ユーザ4−#i(i=1、2、3)の特定話者音響辞書は5−#iである。
【0033】
サーバ機3はユーザ4−#iの要求に応じて、当該ユーザの特定話者音響辞書5−#iを通信回線2を介してユーザ4−#iに提供する。その際、サーバ機3は必要あれば個人認証を行い、正当なユーザ4−#iのみに特定話者音響辞書5−#iを提供する。ユーザ4−#iからサーバ機3への要求、あるいは、サーバ機3からへのユーザ4−#iへの特定話者音響辞書5−#iの提供は、ユーザ4−#i自身の会話ロボット1−#iに限らず、波の会話ロボット1−#j(j≠i)でも、あるいは、ユーザが操作する適宜な情報端末機器や、サーバ機3により特定話者音響辞書の登録や提供を商売とする業者の端末機器などであっても良い。
【0034】
会話ロボット1−#iは、自分本来のユーザ4−#i以外のユーザ4−#j(j≠i)が操作する場合、自動的に、あるいは、ユーザ4−#jの指示により、サーバ機3に要求を出し、通信回線2を介してユーザ4−#jの特定話者音響辞書5−#jをダウンロードし、特定話者音響辞書5−#jを参照してユーザ4−#jが発する音声を認識する。
【0035】
これにより、例えば、ユーザ4−#1が別のユーザの会話ロボット1−#2を操作する場合でも、音声認識性能が向上する。ユーザと会話ロボットの他の組合せでも、同じであり、音声認識性能が向上する。
【0036】
本例では、会話ロボット1−#iはユーザ4−#jの個人認証を行い、ユーザ4−#jが正当なユーザである場合のみ、自動的に特定話者音響辞書5−#jをダウンロードするようにしている。
【0037】
会話ロボット1−#iにユーザ4−#j(j≠i)の特定話者音響辞書5−#jがすでに組み込まれている場合は、ダウンロードの必要はない。
【0038】
会話ロボット1−#iは、自分本来のユーザ4−#iの特定話者音響辞書5−#jをサーバ機3からダウンロードすることが可能である。
【0039】
更に、会話ロボット1−#iは、ユーザが自分本来の1−#iであるか否かにかかわらず、ユーザ認識部で計測したユーザと自分との距離に応じてマイクロフォン18のゲインを音声認識にとって最適な値に調整しており、ユーザの発話中は、ゲインを発話前に調整した値に保持してユーザの音声認識を行い、音声認識性能の向上を図っている。
【0040】
[ピアツピア接続による方法]
図3に示す例では、会話ロボット1が2台(一般には、複数台)、通信回線2を介してピアツピア接続されている。各会話ロボット1には、自分自身のユーザ4の特定話者音響辞書5が組み込まれている。以下の説明では、個々の会話ロボット1、ユーザ4、特定話者音響辞書5を区別する場合、会話ロボット1−#1、1−#2、ユーザ4−#1、4−#2、特定話者音響辞書5−#1、5−#2と表記する。会話ロボット1−#i(i=1、2)の本来のユーザは4−#iであり、ユーザ4−#i(i=1、2)の特定話者音響辞書は5−#iである。
【0041】
会話ロボット1−#iは、自分本来のユーザ4−#i以外のユーザ4−#j(j≠i)が操作する場合、自動的に、あるいは、ユーザ4−#jの指示により、ユーザ4−#jの会話ロボット1−#jに要求を出し、通信回線2を介してユーザ4−#jの特定話者音響辞書5−#jをダウンロードし、特定話者音響辞書5−#jを参照してユーザ4−#jが発する音声を認識する。
【0042】
これにより、例えば、ユーザ4−#1が別のユーザの会話ロボット1−#2を操作する場合でも、音声認識性能が向上する。逆の場合、ユーザ4−#2が別のユーザの会話ロボット1−#1を操作する場合でも音声認識性能が向上する。
【0043】
本例では、会話ロボット1−#iはユーザの個人認証を行い、ユーザ4−#jが正当なユーザである場合のみ、自動的に特定話者音響辞書5−#jをダウンロードするようにしている。
【0044】
会話ロボット1−#iにユーザ4−#j(j≠i)の特定話者音響辞書5−#jがすでに組み込まれている場合は、ダウンロードの必要はない。
【0045】
更に、会話ロボット1−#iは、ユーザが自分本来の1−#iであるか否かにかかわらず、ユーザ認識部で計測したユーザと自分との距離に応じてマイクロフォン18のゲインを音声認識にとって最適な値に調整しており、ユーザの発話中は、ゲインを発話前に調整した値に保持してユーザの音声認識を行い、音声認識性能の向上を図っている。
【0046】
上記の説明では、話者と会話ロボット1との距離を計測する手段として、カメラ17を用いたユーザ認識部の機能を用いたが、これの代わりに、図1に示すように、会話ロボット1に装着した超音波センサ等を用いた距離センサ23を用いることができる。この距離センサ23は胸部13に装着されている。
【0047】
また、上記の説明では、会話ロボット1の音声認識に、頭部12に装着したマイクロホン18を用いたが、その設置場所は任意である。
【0048】
図1に示すように、会話ロボット1の腕部15の手先にマイクロホン18aを装着して用いる場合は、音声認識に際し、駆動制御部によりユーザに対して腕部15を差し出すようにすると良い。マイクロホン18aは、外部から見えるか見えないか問わない。
【0049】
これにより、あたかもレポータのようにマイクロホン18aを話者に差し出すことになり、話者がその手先(マイクロホン18a)に向かってしゃべるように仕向けることができる。その結果、雑音を少なくして、話者の音声だけをひろうことができ、音声認識性能が向上する。
【0050】
以上説明した実施例では、会話ロボット1を音声認識機器として説明したが、会話ロボット1に限らず、種々の音声認識機器に本発明を適用することができる。
【0051】
また、音声認識機器が話者と自分との距離を計測する手段を有して、話者との距離に応じてマイクロフォンのゲインを音声認識にとって最適な値に調整していて、話者の発話中は、ゲインを発話前に調整した値に保持して音声認識を行う技術は、特定話者音響辞書をネットワークで共有するか否かにかかわらず、音声認識性能の向上に多いに寄与するものである。
【0052】
更に、音声認識機器がマイクロホンを有する可動の腕部を備え、音声認識に際し、話者に腕部を差し出す技術も、特定話者音響辞書をネットワークで共有するか否かにかかわらず、音声認識性能の向上に多いに寄与するものである。
【0053】
【発明の効果】
第1発明は、音声認識機器で音声認識を行う際、話者の特定話者音響辞書を当該特定話者音響辞書を有する別の機器から通信回線を介してダウンロードし、これを参照して音声認識を行うので、音声認識機器の使用時に当該話者用の特定話者音響辞書が組み込まれていなくても、または、話者が自分の特定話者音響辞書を記憶した媒体を携帯しなくても、音声認識性能が向上する。
【0054】
第2発明は、前記音声認識機器が話者の個人認識を行い、認識結果に対応する特定話者音響辞書を自動的にダウンロードするので、特定話者音響辞書を不正にダウンロードすることがない。
【0055】
第3発明は、前記別の機器が特定話者音響辞書を事前登録したサーバ機であり、インターネットに接続されているので、多数の音声認識機器がサーバ機から特定話者音響辞書をダウンロードすることができる。
【0056】
第4発明は、前記別の機器が前記音声認識機器にピアツーピアに接続されたロボットであるので、ロボットが持つ特定話者音響辞書をダウンロードすることができる。
【0057】
第5発明は、前記音声認識機器が話者とマイクロホンとの距離を計測する手段を有し、音声ゲインを計測した距離に応じた値に調整し、話者が発話中の音声ゲインを発話前に調整した値に保持するので、音声認識中にゲインが変化せず、音声認識性能が向上する。
【0058】
第6発明は、前記音声認識機器がマイクロホンを有する可動の腕部を備え、音声認識に際し、話者に腕部を差し出すので、雑音を少なくして、話者の音声だけをひろうことができ、音声認識性能が向上する。
【0059】
第7発明は、前記音声認識機器がロボットであるので、ロボットのユーザが他人のロボットを操作する場合の音声認識性能が向上する。
【0060】
第8発明は、ユーザの特定話者音響辞書をサーバ機に事前登録しておき、ユーザの要求に応じて当該ユーザの特定話者音響辞書を通信回線を介してユーザに提供するので、ユーザがサーバ機から自分の特定話者音響辞書を取得して任意の音声認識機器で参照することができ、音声認識性能が向上する。
【図面の簡単な説明】
【図1】本発明の実施例に係る会話ロボットの外観を示す図。
【図2】サーバ機を用いて特定話者音響辞書を共有する音声認識方法の例を示す図。
【図3】ピアツーピア接続により特定話者音響辞書を共有する音声認識方法の例を示す図。
【符号の説明】
1 会話ロボット
2 通信回線
3 サーバ機
4 ユーザ
5 特定話者音響辞書
11 ロボット本体
12 頭部
13 胸部
14 胴部
15 腕部
16 走行用車輪
17 カメラ
18 マイクロホン
18a マイクロホン
19 人検知センサ
20a スピーカ
20b 画像ディスプレイ
21、22 障害物センサ
23 距離センサ

Claims (8)

  1. 音声認識機能を有する機器(以下、音声認識機器)で音声認識を行う際、話者の特定話者音響辞書を当該特定話者音響辞書を有する別の機器から通信回線を介してダウンロードし、これを参照して音声認識を行うことを特徴とする音声認識方法。
  2. 請求項1において、前記音声認識機器は話者の個人認識を行い、認識結果に対応する特定話者音響辞書を自動的にダウンロードすることを特徴とする音声認識方法。
  3. 請求項1において、前記別の機器が特定話者音響辞書を事前登録したサーバ機であり、インターネットに接続されていることを特徴とする音声認識方法。
  4. 請求項1において、前記別の機器が前記音声認識機器にピアツーピアに接続されたロボットであることを特徴とする音声認識方法。
  5. 請求項1において、前記音声認識機器は話者とマイクロホンとの距離を計測する手段を有し、音声ゲインを計測した距離に応じた値に調整し、話者が発話中の音声ゲインを発話前に調整した値に保持することを特徴とする音声認識方法。
  6. 請求項1において、前記音声認識機器はマイクロホンを有する可動の腕部を備え、音声認識に際し、話者に腕部を差し出すことを特徴とする音声認識方法。
  7. 請求項1から6いずれかにおいて、前記音声認識機器がロボットであることを特徴とする音声認識方法。
  8. ユーザの特定話者音響辞書をサーバ機に事前登録しておき、ユーザの要求に応じて当該ユーザの特定話者音響辞書を通信回線を介してユーザに提供することを特徴とする特定話者音響辞書の提供方法。
JP2002200950A 2002-07-10 2002-07-10 音声認識方法及び特定話者音響辞書の提供方法 Withdrawn JP2004045591A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002200950A JP2004045591A (ja) 2002-07-10 2002-07-10 音声認識方法及び特定話者音響辞書の提供方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002200950A JP2004045591A (ja) 2002-07-10 2002-07-10 音声認識方法及び特定話者音響辞書の提供方法

Publications (1)

Publication Number Publication Date
JP2004045591A true JP2004045591A (ja) 2004-02-12

Family

ID=31707616

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002200950A Withdrawn JP2004045591A (ja) 2002-07-10 2002-07-10 音声認識方法及び特定話者音響辞書の提供方法

Country Status (1)

Country Link
JP (1) JP2004045591A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010204266A (ja) * 2009-03-02 2010-09-16 Fujitsu Ltd 音響信号変換装置、方法、及びプログラム
JP2013529794A (ja) * 2010-06-24 2013-07-22 本田技研工業株式会社 車載音声認識システム及び車両外音声認識システム間の通信システム及び方法
CN106799736A (zh) * 2017-01-19 2017-06-06 深圳市鑫益嘉科技股份有限公司 一种机器人的交互触发方法和机器人
JP2018189904A (ja) * 2017-05-11 2018-11-29 オリンパス株式会社 収音装置、収音方法、収音プログラム、ディクテーション方法、情報処理装置及び情報処理プログラム
JP6473898B1 (ja) * 2018-03-31 2019-02-27 Nl技研株式会社 認知支援システム、認知支援装置、および認知支援サーバ

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010204266A (ja) * 2009-03-02 2010-09-16 Fujitsu Ltd 音響信号変換装置、方法、及びプログラム
JP2013529794A (ja) * 2010-06-24 2013-07-22 本田技研工業株式会社 車載音声認識システム及び車両外音声認識システム間の通信システム及び方法
US9564132B2 (en) 2010-06-24 2017-02-07 Honda Motor Co., Ltd. Communication system and method between an on-vehicle voice recognition system and an off-vehicle voice recognition system
US9620121B2 (en) 2010-06-24 2017-04-11 Honda Motor Co., Ltd. Communication system and method between an on-vehicle voice recognition system and an off-vehicle voice recognition system
US10269348B2 (en) 2010-06-24 2019-04-23 Honda Motor Co., Ltd. Communication system and method between an on-vehicle voice recognition system and an off-vehicle voice recognition system
US10818286B2 (en) 2010-06-24 2020-10-27 Honda Motor Co., Ltd. Communication system and method between an on-vehicle voice recognition system and an off-vehicle voice recognition system
CN106799736A (zh) * 2017-01-19 2017-06-06 深圳市鑫益嘉科技股份有限公司 一种机器人的交互触发方法和机器人
JP2018189904A (ja) * 2017-05-11 2018-11-29 オリンパス株式会社 収音装置、収音方法、収音プログラム、ディクテーション方法、情報処理装置及び情報処理プログラム
JP6473898B1 (ja) * 2018-03-31 2019-02-27 Nl技研株式会社 認知支援システム、認知支援装置、および認知支援サーバ
JP2019185079A (ja) * 2018-03-31 2019-10-24 Nl技研株式会社 認知支援システム、認知支援装置、および認知支援サーバ

Similar Documents

Publication Publication Date Title
JP7320239B2 (ja) 音源の方向を認識するロボット
US7562020B2 (en) Wearable computer system and modes of operating the system
JP5040865B2 (ja) ロボット制御システム、遠隔管理装置、遠隔管理方法及びプログラム
US20110118870A1 (en) Robot control system, robot, program, and information storage medium
JP7400923B2 (ja) 情報処理装置および情報処理方法
JP2019010728A (ja) お出迎え行動する自律行動型ロボット
US20130123658A1 (en) Child-Care Robot and a Method of Controlling the Robot
JP2009061547A (ja) ロボット制御システム、ロボット、プログラム及び情報記憶媒体
CN1761265A (zh) 移动设备上的多传感语音增强方法和装置
JP2011000681A (ja) コミュニケーションロボット
JP4622384B2 (ja) ロボット、ロボット制御装置、ロボットの制御方法およびロボットの制御用プログラム
US8103382B2 (en) Method and system for sharing information through a mobile multimedia platform
CN109429132A (zh) 耳机系统
JP2004216513A (ja) コミュニケーションロボット
JP2009090420A (ja) ロボット遠隔操作システム
JP2007152445A (ja) 自走式ロボット
JP3930389B2 (ja) ロボット発話中の動作プログラム生成装置及びロボット
JP4534427B2 (ja) ロボット制御装置および方法、記録媒体、並びにプログラム
CN106325228A (zh) 机器人的控制数据的生成方法及装置
JP2004034274A (ja) 会話ロボット及びその動作方法
CN108073112A (zh) 一种具有角色扮演的智能服务型机器人
JP2004017200A (ja) 情報サービスロボットシステム
Chen et al. Human-robot interaction based on cloud computing infrastructure for senior companion
JP2009131914A (ja) ロボット制御システム
US20210373596A1 (en) Voice-enabled external smart processing system with display

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20051004