JPH11282492A - 音声認識装置、話者検出装置及び画像記録装置 - Google Patents

音声認識装置、話者検出装置及び画像記録装置

Info

Publication number
JPH11282492A
JPH11282492A JP10079916A JP7991698A JPH11282492A JP H11282492 A JPH11282492 A JP H11282492A JP 10079916 A JP10079916 A JP 10079916A JP 7991698 A JP7991698 A JP 7991698A JP H11282492 A JPH11282492 A JP H11282492A
Authority
JP
Japan
Prior art keywords
speaker
voice
input
image
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10079916A
Other languages
English (en)
Other versions
JP3865924B2 (ja
Inventor
Hiroshi Furuyama
山 浩 志 古
Ikuo Inoue
上 郁 夫 井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP07991698A priority Critical patent/JP3865924B2/ja
Publication of JPH11282492A publication Critical patent/JPH11282492A/ja
Application granted granted Critical
Publication of JP3865924B2 publication Critical patent/JP3865924B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)

Abstract

(57)【要約】 【課題】 複数の話者に対して、信頼性の高い音声認識
を実現する。 【解決手段】 音声信号入力部1と、映像信号入力部2
と、複数話者の音声から共通する特徴を抽出して標準パ
ターンを作成し入力音声と標準音声パターンとの類似度
を算出する不特定話者音声認識部3と、予め登録された
話者の音声と入力音声との類似度を算出する特定話者音
声認識部3と、入力映像から顔領域を抽出する顔領域抽
出部9と、複数特定話者の顔画像データと話者識別番号
とを記録する顔画像データベース11と、顔領域抽出部
9と顔画像データベース11から入力する画像データと
の類似度を出力する画像比較部10と、不特定話者音声
認識部3、特定話者音声認識部4、及び画像比較部10
の出力から統合的類似度を算出し認識結果を出力する認
識結果統合部5とで構成される。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、映像信号と音声信
号を用いて音声認識を行う音声認識装置に関する。
【0002】
【従来の技術】音声認識方式には、特定話者音声認識方
式と不特定話者音声認識方式とがある。特定話者の音声
のみを認識する特定話者音声認識方式は、話者の音声を
予め登録し、入力音声と登録音声の類似度を算出し、入
力音声の認識を行うものである。従って、登録された話
者の音声入力に対しては、高い認識率を得ることができ
るが、話者の音声を登録する作業が必要となる。一方、
不特定話者認識方式では、不特定多数の音声から共通す
る特徴を抽出して標準パターンを作成し、入力音声と音
声標準パターンとの類似度を算出し、入力音声の認識を
行うものである。従って、話者の音声を登録する煩雑さ
はないが、特定話者音声認識方式と比較すると認識率は
低くなる。
【0003】このような、特定話者音声認識方式と不特
定話者音声認識方式における、それぞれの短所を補うた
め、特定話者音声認識方式と不特定話者音声認識方式を
併用する音声認識装置が考えられている(特開昭63−32
596号公報)。
【0004】この装置は図6に示すように、音声信号を
入力する音声信号入力部1、不特定話者音声認識方式に
より音声認識を行う不特定話者認識部3、特定話者音声
認識方式により音声認識を行う特定話者音声認識部4、
不特定話者認識部3と特定話者認識部4でそれぞれ求まっ
た認識結果を入力して、類似度の大きな方の認識結果を
出力する認識結果統合部5を備えている。また、認識結
果が正解と判断されたときには、入力音声の特徴データ
を特定話者認識用として特定話者認識部4に登録する。
【0005】このように、従来の音声認識装置では特定
話者音声認識方式と不特定話者音声認識方式を併用する
ことにより、音声認識の認識率を高め、また、特定の話
者の音声データを自動的に登録することが可能となって
いる。
【0006】
【発明が解決しようとする課題】音声認識装置の用途と
して、例えばパーソナルコンピューター、TVやVTR等、
家庭内にある電気製品の機器制御のための入力装置とし
ての利用が考えられるが、家庭内で利用する場合には、
ある特定の人物が発する音声に対してのみ高い認識率を
有するのでは不十分であり、同居している家族など、複
数の人物から発せられる、それぞれの音声入力に対して
も高い認識率を維持する必要がある。
【0007】本発明は、このような要求にこたえるもの
であり、複数の話者に対しても高い認識率を実現するこ
とができる音声認識方式を提供することを目的としてい
る。
【0008】
【課題を解決するための手段】そこで、本発明の音声認
識装置では、話者の特徴的外観(顔など)を含む映像デ
ータを入力する映像入力手段と、話者の音声データを入
力する音声入力手段と、不特定話者音声認識認識方式に
より音声認識を行う不特定話者音声手段と、認識を行う
話者を含む複数の話者の音声データを蓄積する音声デー
タベースと、特定話者音声認識方式により音声認識を行
う特定話者音声認識手段と、入力する映像から話者の顔
領域を抽出する顔領域抽出手段と、認識を行う話者を含
む複数の話者の顔画像データを蓄積する顔画像データベ
ースと、顔領域抽出手段から出力される顔画像と顔画像
データベースに蓄積された顔画像とを比較して、類似度
を出力する画像比較手段と、不特定話者音声認識手段と
特定話者音声認識手段からそれぞれ出力される認識候補
音声と入力音声との間の類似度と画像比較手段から出力
される類似度を統合して、最終的な音声認識結果として
出力する認識結果統合手段とを備え、不特定話者音声認
識手段から出力される入力音声と認識候補音声の類似度
と、画像比較手段から出力される顔画像データベースに
登録された話者の顔画像と入力映像に含まれる顔画像の
類似度と、特定話者認識手段から出力される音声データ
ベースに登録された話者の音声データと入力音声の類似
度を組み合わせて、総合的な類似度から認識結果を出力
するようにしている。
【0009】また、音声データベース、顔画像データベ
ースに複数の話者のデータが登録されている場合には、
それぞれの話者に対する顔画像と音声の類似度から、総
合的な類似度を算出し認識結果を出力する。
【0010】従って、登録された話者の顔画像と入力映
像に含まれる話者の顔画像の類似度が小さいときには、
不特定話者音声認識手段からの出力が認識結果に大きく
寄与し、登録された話者の顔画像と入力した話者の顔画
像の類似度が大きいときには、その中でも最も類似度の
大きな話者に対する、特定話者音声認識手段からの出力
が認識結果に大きく寄与するため、複数の特定話者、あ
るいは不特定の話者から発せられる音声の入力に対し
て、より信頼性の高い音声認識が可能となる。
【0011】
【発明の実施の形態】本発明の請求項1に記載の発明
は、音声認識装置に、話者の特徴的外観の画像を含む映
像データを入力する映像入力手段と、 話者の音声デー
タを入力する音声入力手段と、複数の特定の話者の音声
データを、それを特定できる話者識別情報とともに登録
し、登録された音声データと入力音声データとの類似度
を算出して音声認識を行う特定話者音声認識手段と、不
特定多数の話者の音声データから共通する特徴を抽出し
て標準パターンを作成、登録して、音声標準パターンと
入力音声データとの類似度を算出して音声認識を行う不
特定話者音声認識手段と、複数の話者の特徴的外観の画
像を、その話者を特定できる話者識別情報とともに登録
し、登録された画像データと前記映像データに含まれる
話者の画像データとの類似度を算出する画像認識手段
と、特定話者音声認識手段の出力と不特定話者音声認識
手段からの出力と画像認識手段からの出力とを統合し
て、音声認識結果として単語等を出力する認識結果統合
手段とを備えたものであり、登録された話者の顔画像と
入力映像に含まれる話者の顔画像の類似度の大小によっ
て出力元の音声認識手段を変えることにより、複数の特
定話者、あるいは不特定の話者から発せられる音声の入
力に対して、より信頼性の高い音声認識が可能になると
いう作用を有する。
【0012】本発明の請求項2に記載の発明は、音声認
識装置に、話者の特徴的外観を含む映像データを入力す
る映像入力手段と、話者の音声データを入力する音声入
力手段と、複数の話者の特徴的外観の画像を、その話者
を特定できる話者識別情報とともに登録し、登録された
画像データと前記映像データに含まれる話者の画像デー
タとの類似度を算出する画像認識手段と、複数の特定の
話者の音声データを、それを特定できる情報とともに登
録し、前記画像認識手段で算出された類似度をもとに登
録された音声データを絞り込んだ後、その絞り込まれた
音声データと入力音声データとの類似度を算出して音声
認識を行う特定話者音声認識手段と、不特定多数の話者
の音声データから共通する特徴を抽出して標準パターン
を作成、登録して、音声標準パターンと入力音声データ
との類似度を算出して音声認識を行う不特定話者音声認
識手段と、特定話者音声認識手段の出力と不特定話者音
声認識手段からの出力とを統合して、音声認識結果とし
て単語等を出力する認識結果統合手段とを備えたもので
あり、顔などを含む映像から話者の顔画像を抽出して、
登録された話者の顔画像データベースと照合し、類似度
を算出して、特定話者音声認識部、不特定話者音声認識
部から出力する音声の類似度との統合的な類似度を算出
して認識結果を出力することにより、複数の特定話者の
入力に対して、信頼性の高い音声認識を行うことが可能
となるという作用を有する。
【0013】本発明の請求項3に記載の発明は、請求項
1記載の音声認識装置において、特定話者音声認識手段
では、画像認識手段から出力される類似度が閾値を超え
た話者の音声データのみに対して、入力音声データとの
類似度を算出するようにしたものである。
【0014】本発明の請求項4に記載の発明は、請求項
1記載の音声認識装置において、特定話者音声認識手段
では、画像認識手段から出力される類似度のうち最大と
なる話者の音声データのみに対して、入力音声データと
の類似度を算出するようにしたものである。
【0015】本発明の請求項5に記載の発明は、請求項
1、3、4のいずれかに記載の音声認識装置において、
認識結果統合手段が、画像認識手段から出力される、話
者識別情報に対応する話者の画像データと入力映像に含
まれる画像データとの類似度をRi、特定話者音声認識
手段から出力される、話者識別情報に対応する話者の音
声データjに対する入力音声データとの類似度をR'i,
j、不特定話者音声認識手段から出力される、入力音声
データと音声データjとの類似度をR''とするときに、
その Ri と R'i,j と R''j とを用いて最適な音声デ
ータを出力するようにしたものである。
【0016】本発明の請求項6に記載の発明は、請求項
1、3〜5のいずれかに記載の音声認識装置において、
顔などの唇を含む外観を話者の特徴的外観とし、入力映
像から話者の唇の動きを検出する唇動き検出手段を備
え、特定話者認識手段では、単位時間あたりの唇の動き
量が設定された閾値よりも大きい入力に対してのみ、入
力音声データと登録音声データの類似度を算出するよう
にしたものである。
【0017】本発明の請求項7に記載の発明は、話者検
出装置として、話者の顔を含む映像データを入力する映
像入力部と、話者の音声データを入力する音声入力部
と、入力映像から話者の唇の動きを検出する唇動き検出
手段と、入力音声から音声レベルを検出する音声レベル
検出手段とを備えたものであり、単位時間あたりの唇の
動き量と音声レベルが共に設定された閾値を超えている
時には、入力された映像中に話者の映像が含まれている
ことを示す話者検出信号を出力するという作用を有す
る。
【0018】本発明の請求項8に記載の発明は、請求項
1、3〜6のいずれかに記載の音声認識装置において、
請求項7に記載の話者検出装置と同様の機能を有する話
者検出手段を具備し、特定話者認識手段では、話者検出
信号が設定された閾値以上となる入力に対してのみ、入
力音声データと登録音声データの類似度を算出するよう
にしたものである。
【0019】本発明の請求項9に記載の発明は、請求項
1、3〜6、8のいずれかに記載の音声認識装置におい
て、音声信号入力部と映像信号入力部は、それぞれ映像
表示装置の音声信号出力部と映像出力部に接続され、前
記映像表示装置の表示対象である出演者を特定できる出
演者識別情報を含む、出演者情報を入力する出演者情報
入力手段と、出演者情報を記録する出演者情報記録手段
と、出演者情報から現在、表示されている出演者を特定
し、登録された画像データの中から特定された出演者の
画像データを検索する画像検索手段を備えたものであ
り、画像認識部では、検索された出演者の画像と入力し
た映像信号に含まれる話者の画像との類似度を算出し、
類似度に応じた音声を出力するという作用を有する。
【0020】本発明の請求項10に記載の発明は、話者
の特徴的外観を含む映像データを入力する映像入力部
と、複数の話者の特徴的外観の画像を、それを特定でき
る話者識別情報と共に登録する画像データベースと、登
録された画像データと入力映像に含まれる話者の画像デ
ータとの類似度を算出する画像認識手段とを備えたもの
であり、入力した映像に含まれる画像と登録された画像
データの類似度を算出し、登録されているすべての画像
データに対する類似度が予め設定された閾値以下の場合
は、未登録の話者として新たな話者識別情報とともに画
像データベースに記録することによりデータベースの内
容をより充実させるという作用を有する。
【0021】本発明の請求項11に記載の発明は、請求
項1、3〜6、8、9のいずれかに記載の音声認識装置
において、請求項10に記載の顔画像装置と同様の機能
を有する画像記録手段を具備したものであり、未登録の
話者を自動的に登録することによりデータベースの内容
をより充実させるという作用を有する。
【0022】本発明の請求項12に記載の発明は、請求
項11記載の音声認識装置において、入力した映像に含
まれる画像と登録された画像データの類似度を算出し、
出力された類似度が予め設定した閾値S1以上となる登
録話者のすべての音声データに対して、特定話者音声認
識手段から出力する入力音声データと登録音声データと
の間の類似度が予め設定された閾値S2以下であり、か
つ、不特定話者音声認識手段から出力される候補単語等
の類似度が予め設定された閾値S3以上である場合に、
該当の話者の未登録音声データとして、それを特定でき
る話者識別情報とともに入力音声データを記録するため
の記録手段を備えたものである。
【0023】以下、本発明の実施の形態について図1か
ら図5を用いて説明する。なお、本発明はこれら実施の
形態に何等限定されるものではなく、その要旨を逸脱し
ない範囲において種々なる態様で実施し得る。
【0024】(実施の形態1)第一の実施の形態の音声
認識装置は、図1に示すように、音声を入力する音声信
号入力部1、映像を入力する映像信号入力部2、複数の
不特定話者の音声から共通する特徴を抽出して標準パタ
ーンを作成し、入力音声と音声標準パターンとの間の類
似度を算出して出力する不特定話者音声認識部3、予め
登録された話者の音声と入力音声の類似度を算出して出
力する特定話者音声認識部4、入力映像から話者の顔領
域を抽出する顔領域抽出部9、複数の特定話者の顔画像
データを話者の名前、もしくは話者識別コードとともに
記録する顔画像データベース11、顔領域抽出部9と顔
画像データベース11から入力する画像データを比較し
類似度を出力する画像比較部10、不特定話者認識部
3、特定話者認識部4、画像比較部10から出力される
それぞれの類似度から、類似度がもっとも大きな類似度
に対応する単語等を認識結果として出力する認識結果統
合部5により構成される。
【0025】また、特定話者音声認識部4は、入力した
音声をスペクトラム分析等により音声の特徴量を抽出す
る音声処理部6、隠れマルコフモデル等により入力音声
と登録音声データとの間の特徴量の類似度を算出して出
力する音声認識処理部7、複数の特定話者の音声データ
を話者の名前、もしくは話者識別コードとともに記録す
る音声データベース8により構成される。
【0026】この装置では、音声入力部1に入力した話
者の音声は不特定話者音声認識部3と特定話者音声認識
部4内の音声処理部6に入力する。音声処理部6の出力
は、音声認識処理部7に入力し、音声認識処理部7の出
力は、特定話者音声認識部4の出力として出力される。
また、音声認識処理部7と音声データベース8は互いに
接続されている。
【0027】映像信号入力部2に入力した話者の顔を含
む映像は、顔領域出力部9に入力し、顔領域抽出部9の
出力は画像比較部10に入力し、画像比較部10の出力
は音声認識処理部7に接続される。また、画像比較部1
0と画像データベース11は互いに接続されている。
【0028】不特定話者音声認識部3、特定話者音声認
識部4、画像比較部10の出力は、認識結果統合部5に
入力し、認識結果統合部5からは認識結果が出力され
る。なお、映像信号中に含まれる人物の顔領域部分を抽
出する手法は公知であり、例えば、第2回画像センシン
グシンポジウム講演集、A−1、pp.1〜6、「色情
報とGAを用いた顔画像抽出と個人照合の応用」などに
示されている。また、二つの顔画像データを比較する手
法も、例えば、電子情報通信学会論文誌、D−2,Vo
l.,J76−D−2,No.6,pp.1132〜1
139、「モザイクとニューラルネットを用いた顔画像
の認識」などに示されている。また、こうした技術を用
いて、顔画像を個人照合に利用することは特願平8−1
70866号公報、或いは特願平8−86171号公報
などに示されている。この実施の形態の装置において
も、これらの技術を用いることが可能であるが、それだ
けに限定されるものではない。
【0029】また、音声認識処理部7における類似度の
算出には、隠れマルコフモデル以外にニューラルネット
ワーク等、一般に用いられている他の手法を用いてもよ
い。顔画像比較部10では、登録された複数の話者に対
して、i番目の話者の顔画像データと顔領域抽出部9か
ら出力する顔画像データとの間の類似度Riを算出し出
力する。特定話者音声認識部4では、登録された複数の
話者に対してi番目の話者の音声データjと、入力音声
との類似度をRi,jを算出して出力する。不特定話者
認識部3では、音声データjに対して複数の不特定話者
の音声から共通する特徴を抽出して作成した標準パター
ンと入力音声との間の類似度R’’jを算出し、出力す
る。認識結果統合部5では、あらかじめ設定した係数を
αとするときに、登録された話者iのすべての音声デー
タjに対して、α・Ri・R'i,jとR''jを算出し、その
値が最大となる音声データjに対応する単語等を認識結
果として出力する。
【0030】ここで、係数αは、音声データベース8に
登録した音声データとは別に、音声データベース8に登
録された話者を含む複数の話者の音声データを用意し、
この音声データの入力に対して認識率が最大となるよう
あらかじめ設定するものである。このように特定話者音
声認識の方式において、登録された話者の顔画像データ
と入力映像に含まれる話者の顔画像を比較して、話者を
特定することにより、信頼性の高い音声認識が可能とな
る。
【0031】(実施の形態2)この音声認識装置は図2
に示すように、顔領域抽出部9から出力される話者の顔
領域映像を入力し、前述の顔領域抽出部9と同じ手法に
より話者の口唇部分を抽出した映像を出力する唇領域抽
出部12、唇領域抽出部12から出力される話者の口唇
領域映像を入力し、話者の唇の動きを検出する唇動き検
出部13と、実施の形態1と同じく音声処理部6、音声
認識処理部7、音声データベース8から構成される特定
話者音声認識部7、音声入力信号部1、映像信号入力部
2、不特定話者音声認識部3、顔領域抽出部9、画像比
較部10、認識結果統合部5を備えている。
【0032】この装置では、音声入力部1に入力した話
者の音声は不特定話者認識部3と特定話者認識部4内の
音声処理部6に入力する。音声処理部6の出力は、音声
認識処理部7に入力し、音声認識処理部7の出力は、特
定話者音声認識部4の出力として出力される。また、音
声認識処理部7と音声データベース8は互いに接続され
ている。映像信号入力部2に入力した話者の顔を含む映
像は、顔領域出力部9に入力し、顔領域抽出部9の出力
は画像比較部10と唇領域抽出部12に入力し、画像比
較部10の出力は音声認識処理部7に接続される。ま
た、画像比較部10と画像データベース11とは互いに
接続されている。
【0033】唇領域抽出部12の出力は唇動き検出部1
3に入力し、唇動き検出部13の出力は、音声認識処理
部7に入力する。不特定話者音声認識部3、特定話者音
声認識部4、画像比較部10の出力は、認識結果統合部
5に入力し、認識結果統合部5からは認識結果が出力さ
れる。唇動き検出部13では、唇領域抽出部12で抽出
した口唇領域の映像から、唇上のある着目点の動きベク
トルを検出し、単位時間の唇の動きベクトルの平均値が
設定した閾値よりも大きいときには K=1 閾値より小さいときには K=0 を出力する。認識結果統合部5では、登録されたすべて
の話者iの音声データjに対して、 α・K・Ri・R'i,jとR''j を算出し、その値が最大となる音声データjに対応する
単語等を認識結果として出力する。
【0034】このように特定話者音声認識の方式におい
て、入力映像に含まれる話者の唇の動きを検出すること
により、入力映像に複数の話者の顔が含まれているとき
にも、信頼性の高い音声認識が可能となる。
【0035】(実施の形態3)この装置は図3に示すよ
うに、入力した音声のレベルが閾値を超えているかを検
出する音声レベル検出部14と、実施の形態2と同じ
く、音声信号入力部1、音声処理部6、音声認識処理部
7、音声データベース8から構成される特定話者音声認
識部7、音声入力信号部1、映像信号入力部2、不特定
話者音声認識部3、顔領域抽出部9、画像比較部10、
認識結果統合部5、唇領域抽出部12、唇動き検出部1
3を備えている。
【0036】この装置では、音声入力部1に入力した話
者の音声は不特定話者認識部3と特定話者認識部4内の
音声処理部6に入力する。音声処理部6の出力は、音声
認識処理部7に入力し、音声認識処理部7の出力は、特
定話者音声認識部4の出力として出力される。また、音
声認識処理部7と音声データベース8は互いに接続され
ている。映像信号入力部2に入力した話者の顔を含む映
像は、顔領域出力部9に入力し、顔領域抽出部9の出力
は画像比較部10と唇領域抽出部12に入力し、画像比
較部10の出力は音声認識処理部7に接続される。ま
た、画像比較部10と画像データベース11は互いに接
続されている。唇領域抽出部12の出力は唇動き検出部
13に入力し、唇動き検出部13の出力は、音声認識処
理部7に入力する。また、音声入力部1は音声レベル検
出部14にも接続し、音声レベル検出部14の出力は音
声認識処理部7と接続されている。
【0037】不特定話者音声認識部3、特定話者音声認
識部4、画像比較部10の出力は、認識結果統合部5に
入力し、認識結果統合部5からは認識結果が出力され
る。また、唇動き検出部13では、唇領域抽出部12で
抽出した口唇領域の映像から、唇の動きを検出し、単位
時間の唇の動きの平均値が設定した閾値よりも大きいと
きには K=1 閾値よりも小さいときには K=0 を出力する。音声レベル検出部14では、単位時間の音
声レベルの平均値が設定した閾値よりも大きいときには L=1 閾値よりも小さいときには L=0 を出力する。認識結果統合部5では、登録されたすべて
の話者iの音声データjに対して、 α・K・L・Ri・R'i,jとR''j を算出し、その値が最大となる音声データjに対応する
単語等を認識結果として出力する。
【0038】このように特定話者音声認識の方式におい
て、入力映像に含まれる話者の唇の動きを検出すること
により、入力映像に複数の話者の顔が含まれているとき
にも、より信頼性の高い音声認識が可能となる。
【0039】(実施の形態4)この装置は図4に示すよ
うに、TV番組の出演者の名前のデータを含む番組表を
入力する番組表入力部15、番組表を記録する番組表記
録部16、番組表データと現在の時刻を比較し、現在、
放送されているTV番組の出演者を特定して出演者の名
前を出力する出演者名検出部部17、出演者名検出部1
7から出力する出演者の名前から顔画像データベース1
1を検索して、検索した顔画像を出力させる画像検索部
18と、実施の形態1と同じく音声処理部6と音声デー
タベース8と音声認識処理部7から構成される特定話者
認識部4と、音声信号入力部1、映像信号入力部2と、
不特定話者音声認識部3と、顔領域抽出部9と、画像比
較部10と、認識結果統合部5を備えている。
【0040】この装置では、番組表入力部15に入力し
た番組表データは、番組表記録部16に入力し、記録さ
れる。出演社名検出部17は、番組表記録部16と画像
検索部18に接続され、画像検索部19と顔画像データ
ベース11とは互いに接続されている。また、音声入力
部1に入力した話者の音声は不特定話者認識部3と特定
話者認識部4内の音声処理部6に入力する。音声処理部
6の出力は、音声認識処理部7に入力し、音声認識処理
部7の出力は、特定話者音声認識部4の出力として出力
される。また、音声認識処理部7と音声データベース8
は互いに接続されている。映像信号入力部2に入力した
話者の顔を含む映像は、顔領域出力部9に入力し、顔領
域抽出部9の出力は画像比較部10に入力し、画像比較
部10の出力は音声認識処理部7に接続される。また、
画像比較部10と画像データベース11とは互いに接続
されている。
【0041】不特定話者音声認識部3、特定話者音声認
識部4、画像比較部10の出力は、認識結果統合部5に
入力し、認識結果統合部5からは認識結果が出力され
る。また、音声信号入力部1と映像信号入力部2は、そ
れぞれTV受信機の音声信号出力端子と映像出力端子に
接続する。出演者名検出部17は、番組表記録部16に
記録されているTV番組表データと現在の時刻から、現
在放送されているTV番組の出演者を特定し、特定した
出演者の名前データを出力する。画像検索部18は、時
刻比較部17から出力する出演者の名前データをもとに
画像検索データベース11から、出演者の顔画像を検索
して、画像比較部12へと出力させる。顔画像比較部1
0では、TV番組の出演者と特定された複数の話者に対
して、k番目の話者の顔画像データと入力映像に含まれ
顔領域抽出部9から出力する顔画像データとの間の類似
度RKを算出し出力する。特定話者音声認識部4では、
出演者と特定された複数の話者に対してk番目の話者の
音声データjと、入力音声との類似度をR'k,jを算出し
て出力する。不特定話者認識部3では、音声データjに
対して複数の不特定話者の音声から共通する特徴を抽出
して作成した標準パターンと入力音声との間の類似度
R''jを算出し、出力する。音声認識認識統合部では、
あらかじめ設定した係数をαとするときに、出演者とし
て特定されたすべての話者kの音声データjに対して、 α・Rk・R'k,jとR''j を算出し、その値が最大となる音声データjに対応する
単語等を認識結果として出力する。
【0042】このように特定話者音声認識の方式におい
て、番組表データを本にTV番組の出演者を特定し、特
定された出演者の顔画像データとTV番組映像に含まれ
る話者の顔画像を比較して、話者を特定することによ
り、より信頼性の高い音声認識が可能となる。なお、本
実施の形態では映像表示装置としてTV受信機を例にあ
げて説明したが、VTR・ビデオ等の映像を表示するも
のであれば何でも構わない。
【0043】(実施の形態5)この装置は図5に示すよ
うに、複数の特定話者の音声データを話者の名前、もし
くは話者識別コードとともに記録し、かつ新規に音声デ
ータを追加記録する機能を有するする音声データベース
8、複数の特定話者の顔画像データを話者の名前、もし
くは話者識別コードとともに記録し、かつ新規に顔画像
データを追加記録する機能を有する顔画像データベース
11、音声データベース8、顔画像データベース11に
データを追加記録するための制御を行う記録制御部19
を備え、第一の実施の形態と同じく、音声処理部6、音
声データベース8、音声認識処理部7により構成される
特定話者音声認識部4と、音声信号入力部1と、映像信
号入力部2と、不特定話者音声認識部3と、認識結果統
合部5と、顔領域抽出部9と、顔画像データベース11
により構成される。
【0044】この装置では、音声入力部1に入力した話
者の音声は不特定話者認識部3と特定話者認識部4内の
音声処理部6に入力する。音声処理部6の出力は、音声
認識処理部7に入力し、音声認識処理部7の出力は、特
定話者音声認識部4の出力として出力される。また、音
声認識処理部7と音声データベース8は互いに接続され
ている。映像信号入力部2に入力した話者の顔を含む映
像は、顔領域出力部9に入力し、顔領域抽出部9の出力
は画像比較部10に入力し、画像比較部10の出力は音
声認識処理部7に接続される。また、画像比較部10と
画像データベース11とは互いに接続されている。不特
定話者音声認識部3、特定話者音声認識部4、画像比較
部10の出力は、認識結果統合部5に入力し、認識結果
統合部5からは認識結果が出力される。記録制御部2に
は、画像比較部10、不特定話者音声認識部3、特定話
者音声認識部4の出力が接続され、記録制御部20の出
力は音声データベース8と顔画像データベース11に接
続される。
【0045】顔画像比較部10では、登録された複数の
話者に対して、i番目の話者の顔画像データと入力映像
に含まれ顔領域抽出部9から出力する顔画像データとの
間の類似度Riを算出し出力する。顔画像データベース
11に登録されたすべての話者iに対して、画像比較部
10の出力Riが、あらかじめ設定された閾値以下の場
合は、記録制御部19は、新しい識別コードを付与し
て、顔領域抽出部9の出力を顔画像データベース11に
記録するよう制御する。
【0046】特定話者音声認識部4では、登録された複
数の話者のうち画像比較部の出力Riがあらかじめ設定
された閾値S1以上となる話者に対してi番目の話者の
音声データjと、入力音声との類似度をR'i,jを算出し
て出力する。不特定話者認識部3では、音声データjに
対して複数の不特定話者の音声から共通する特徴を抽出
して作成した標準パターンと入力音声との間の類似度
R''jを算出し、出力する。音声データjに対して、特
定話者音声認識部4の出力R'i,jが、あらかじめ設定し
た閾値S2よりも小さく、かつ、不特定話者音声認識部
3の出力R''jがあらかじめ設定した閾値S3よりも大
きい場合には、記録制御部19は、音声データ番号j、
話者の名前、あるいは話者識別コードとともに入力音声
を音声データベースに記録するよう制御する。
【0047】このように入力音声の話者が未登録の場合
は話者の顔画像データと音声データを、話者は登録済み
で音声データが未登録の場合は音声データを自動的に追
加記録することが可能となる。なお、上記実施の形態1
から5では、認識結果統合部5の入力として画像比較部
10からの出力を要件としている(方式1)が、それを
必須とはしない不特定話者音声認識部3及び音声認識処
理部7の2つの出力を入力(方式2)としても一向に構
わない。
【0048】方式2による方法では、主に以下の場合に
有効である。すなわち、(1) 一般に画像処理は負荷
が大きいためそれを軽減する対策として、音声認識処理
部7の処理対象を画像比較部10で類似度の大きいもの
に絞ることにより、音声認識処理部7の処理負荷を少し
でも軽減したい場合、(2) 音声データベース8のデ
ータが膨大な為、(画像処理の負荷の大小に関係なく)
音声認識処理部の負荷を軽減したい場合、などである。
【0049】一方、方式1では上記実施の形態1から5
の内容に加え、方式2と比較した場合、例えば以下のよ
うな場合に有効である。すなわち、(3) 例えば登録
された顔画像が正面である場合には、画像比較の対象と
して横顔等が入力されると、正面から捉えた顔(外観的
特徴)でない為、その類似度(画像比較部10からの出
力)の信頼性はやや低下する。そのような場合、方式2
のように音声データベース8を前記類似度で絞り込むと
音声認識処理部7の出力の信頼性を低下させる可能性が
あるので、認識結果統合部5での統合化処理の優先度と
して、不特定話者音声認識部3及び音声認識処理部7の
出力(絞り込みを行わない出力)を優先しつつ画像比較
部10の出力も有効活用したい場合、などである。
【0050】もちろん、上記方式1、方式2を(自動)
切り替えするようにすれば、様々な利用形態に対応した
より信頼性の高い認識結果(認識結果統合部5の出力)
が得られることは言うまでもない。
【0051】
【発明の効果】以上の説明から明らかなように、本発明
の音声認識装置は話者の特徴的外観として、例えば顔な
どを含む映像から話者の顔画像を抽出して、登録された
話者の顔画像データベースと照合し、類似度を算出し
て、特定話者音声認識部、不特定話者音声認識部から出
力する音声の類似度との統合的な類似度を算出して認識
結果を出力することにより、複数の特定話者の入力に対
して、信頼性の高い音声認識を行うことが可能となる。
【図面の簡単な説明】
【図1】本発明の第1の実施形態における音声認識装置
の概略構成を示すブロック図
【図2】本発明の第2の実施形態における音声認識装置
の概略構成を示すブロック図
【図3】本発明の第3の実施形態における音声認識装置
の概略構成を示すブロック図
【図4】本発明の第4の実施形態における音声認識装置
の概略構成を示すブロック図
【図5】本発明の第5の実施形態における音声認識装置
の概略構成を示すブロック図
【図6】従来の音声認識装置の概略構成図
【符号の説明】
1 音声信号入力部 2 映像信号入力部 3 不特定話者音声認識部 4 特定話者音声認識部 5 認識結果統合部 6 音声処理部 7 音声認識処理部 8 音声データベース 9 顔領域抽出部 10 画像比較部 11 画像データベース 12 唇領域抽出部 13 唇動き検出部 14 音声レベル検出部 15 番組表入力部 16 番組表記録部 17 出演者名検出部 18 画像検索部 19 記録制御部
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 FI G10L 5/06 G06F 15/62 380

Claims (12)

    【特許請求の範囲】
  1. 【請求項1】 話者の特徴的外観の画像を含む映像デー
    タを入力する映像入力手段と、 話者の音声データを入
    力する音声入力手段と、 複数の特定の話者の音声データを、それを特定できる話
    者識別情報とともに登録し、登録された音声データと入
    力音声データとの類似度を算出して音声認識を行う特定
    話者音声認識手段と、 不特定多数の話者の音声データから共通する特徴を抽出
    して標準パターンを作成、登録して、音声標準パターン
    と入力音声データとの類似度を算出して音声認識を行う
    不特定話者音声認識手段と、 複数の話者の特徴的外観の画像を、その話者を特定でき
    る話者識別情報とともに登録し、登録された画像データ
    と前記映像データに含まれる話者の画像データとの類似
    度を算出する画像認識手段と、 特定話者音声認識手段の出力と不特定話者音声認識手段
    からの出力と画像認識手段からの出力とを統合して、音
    声認識結果として単語等を出力する認識結果統合手段と
    を備えた音声認識装置。
  2. 【請求項2】 話者の特徴的外観を含む映像データを入
    力する映像入力手段と、 話者の音声データを入力する音声入力手段と、 複数の話者の特徴的外観の画像を、その話者を特定でき
    る話者識別情報とともに登録し、登録された画像データ
    と前記映像データに含まれる話者の画像データとの類似
    度を算出する画像認識手段と、 複数の特定の話者の音声データを、それを特定できる情
    報とともに登録し、前記画像認識手段で算出された類似
    度をもとに登録された音声データを絞り込んだ後、その
    絞り込まれた音声データと入力音声データとの類似度を
    算出して音声認識を行う特定話者音声認識手段と、不特
    定多数の話者の音声データから共通する特徴を抽出して
    標準パターンを作成、登録して、音声標準パターンと入
    力音声データとの類似度を算出して音声認識を行う不特
    定話者音声認識手段と、 特定話者音声認識手段の出力と不特定話者音声認識手段
    からの出力とを統合して、音声認識結果として単語等を
    出力する認識結果統合手段とを備えた音声認識装置。
  3. 【請求項3】 特定話者音声認識手段では、画像認識手
    段から出力される類似度が閾値を超えた話者の音声デー
    タのみに対して、入力音声データとの類似度を算出する
    請求項1に記載の音声認識装置。
  4. 【請求項4】 特定話者音声認識手段では、画像認識手
    段から出力される類似度のうち最大となる話者の音声デ
    ータのみに対して、入力音声データとの類似度を算出す
    る請求項1に記載の音声認識装置。
  5. 【請求項5】 認識結果統合手段が、画像認識手段から
    出力される、話者識別情報に対応する話者の画像データ
    と入力映像に含まれる画像データとの類似度をRi、特
    定話者音声認識手段から出力される、話者識別情報に対
    応する話者の音声データjに対する入力音声データとの
    類似度をR'i,j、不特定話者音声認識手段から出力され
    る、入力音声データと音声データjとの類似度をR''と
    するときに、その Ri と R'i,j と R''j とを用いて
    最適な音声データを出力することを特徴とする請求項
    1、3、4のいずれかに記載の音声認識装置。
  6. 【請求項6】 顔などの唇を含む外観を話者の特徴的外
    観とし、入力映像から話者の唇の動きを検出する唇動き
    検出手段を備え、特定話者認識手段では、単位時間あた
    りの唇の動き量が設定された閾値よりも大きい入力に対
    してのみ、入力音声データと登録音声データの類似度を
    算出することを特徴とする請求項1、3〜5のいずれか
    に記載の音声認識装置。
  7. 【請求項7】 話者の顔を含む映像データを入力する映
    像入力部と、話者の音声データを入力する音声入力部
    と、入力映像から話者の唇の動きを検出する唇動き検出
    手段と、入力音声から音声レベルを検出する音声レベル
    検出手段とを備え、 単位時間あたりの唇の動き量と音声レベルが共に設定さ
    れた閾値を超えている時には、入力映像中に話者の映像
    が含まれていることを示す話者検出信号を出力する話者
    検出装置。
  8. 【請求項8】 話者の顔を含む映像データを入力する映
    像入力部と、話者の音声データを入力する音声入力部
    と、入力映像から話者の唇の動きを検出する唇動き検出
    手段と、入力音声から音声レベルを検出する音声レベル
    検出手段とを備え、単位時間あたりの唇の動き量と音声
    レベルが共に設定された閾値を超えている時には、入力
    映像中に話者の映像が含まれていることを示す話者検出
    信号を出力する話者検出装置を具備し、 特定話者認識手段では、話者検出信号が設定された閾値
    以上となる入力に対してのみ、入力音声データと登録音
    声データの類似度を算出することを特徴とする請求項
    1、3〜6のいずれかに記載の音声認識装置。
  9. 【請求項9】 音声信号入力部と映像信号入力部は、そ
    れぞれ映像表示装置の音声信号出力部と映像出力部に接
    続され、前記映像表示装置の表示対象である出演者を特
    定できる出演者識別情報を含む、出演者情報を入力する
    出演者情報入力手段と、出演者情報を記録する出演者情
    報記録手段と、出演者情報から現在、表示されている出
    演者を特定し、登録された画像データの中から特定され
    た出演者の画像データを検索する画像検索手段を備え、
    画像認識部では、検索された出演者の画像と入力した映
    像信号に含まれる話者の画像との類似度を算出すること
    を特徴とする請求項1、3〜6、8のいずれかに記載の
    音声認識装置。
  10. 【請求項10】 話者の特徴的外観を含む映像データを
    入力する映像入力部と、複数の話者の特徴的外観の画像
    を、それを特定できる話者識別情報と共に登録する画像
    データベースと、登録された画像データと入力映像に含
    まれる話者の画像データとの類似度を算出する画像認識
    手段とを備え、 入力した映像に含まれる画像と登録された画像データの
    類似度を算出し、登録されているすべての画像データに
    対する類似度が予め設定された閾値以下の場合は、未登
    録の話者として新たな話者識別情報とともに画像データ
    ベースに記録する画像記録装置。
  11. 【請求項11】 話者の特徴的外観を含む映像データを
    入力する映像入力部と、複数の話者の特徴的外観の画像
    を、それを特定できる話者識別情報と共に登録する画像
    データベースと、登録された画像データと入力映像に含
    まれる話者の画像データとの類似度を算出する画像認識
    手段とを備え、入力した映像に含まれる画像と登録され
    た画像データの類似度を算出し、登録されているすべて
    の画像データに対する類似度が予め設定された閾値以下
    の場合は、未登録の話者として新たな話者識別情報とと
    もに画像データベースに記録する画像記録装置を具備
    し、未登録の話者を自動的に登録することが可能な請求
    項1、3〜6、8、9のいずれかに記載の音声認識装
    置。
  12. 【請求項12】 入力した映像に含まれる画像と登録さ
    れた画像データの類似度を算出し、出力された類似度が
    予め設定した閾値S1以上となる登録話者のすべての音
    声データに対して、特定話者音声認識手段から出力する
    入力音声データと登録音声データとの間の類似度が予め
    設定された閾値S2以下であり、かつ、不特定話者音声
    認識手段から出力される候補単語等の類似度が予め設定
    された閾値S3以上である場合に、該当の話者の未登録
    音声データとして、それを特定できる話者識別情報とと
    もに入力音声データを記録するための記録手段を有する
    請求項11に記載の音声認識装置。
JP07991698A 1998-03-26 1998-03-26 音声認識装置 Expired - Fee Related JP3865924B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP07991698A JP3865924B2 (ja) 1998-03-26 1998-03-26 音声認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP07991698A JP3865924B2 (ja) 1998-03-26 1998-03-26 音声認識装置

Publications (2)

Publication Number Publication Date
JPH11282492A true JPH11282492A (ja) 1999-10-15
JP3865924B2 JP3865924B2 (ja) 2007-01-10

Family

ID=13703630

Family Applications (1)

Application Number Title Priority Date Filing Date
JP07991698A Expired - Fee Related JP3865924B2 (ja) 1998-03-26 1998-03-26 音声認識装置

Country Status (1)

Country Link
JP (1) JP3865924B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010039771A (ko) * 1999-08-06 2001-05-15 포만 제프리 엘 시청각적 발성자 인식 및 발성 검증 방법 및 장치
EP1316944A2 (en) * 2001-11-28 2003-06-04 Fujitsu Limited Sound signal recognition system and method, and dialog control system and method using it
JP2005516263A (ja) * 2002-01-30 2005-06-02 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 音声認識システムのための音声アクティビティのオーディオビジュアル検出
JP2007528031A (ja) * 2004-03-30 2007-10-04 インテル・コーポレーション 音声および映像ソースデータを分離および評価する技術
JP2008077099A (ja) * 2001-03-28 2008-04-03 Qualcomm Inc 話し手に暗黙的に順応する技術を用いた音声認識システム
US9911421B2 (en) 2013-06-10 2018-03-06 Panasonic Intellectual Property Corporation Of America Speaker identification method, speaker identification apparatus, and information management method
CN113660537A (zh) * 2021-09-28 2021-11-16 北京七维视觉科技有限公司 一种字幕生成方法和装置

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010039771A (ko) * 1999-08-06 2001-05-15 포만 제프리 엘 시청각적 발성자 인식 및 발성 검증 방법 및 장치
JP4546512B2 (ja) * 2001-03-28 2010-09-15 クゥアルコム・インコーポレイテッド 話し手に暗黙的に順応する技術を用いた音声認識システム
JP2008077099A (ja) * 2001-03-28 2008-04-03 Qualcomm Inc 話し手に暗黙的に順応する技術を用いた音声認識システム
JP2008203876A (ja) * 2001-03-28 2008-09-04 Qualcomm Inc 話し手に暗黙的に順応する技術を用いた音声認識システム
JP4546555B2 (ja) * 2001-03-28 2010-09-15 クゥアルコム・インコーポレイテッド 話し手に暗黙的に順応する技術を用いた音声認識システム
JP2013152475A (ja) * 2001-03-28 2013-08-08 Qualcomm Inc 話し手に暗黙的に順応する技術を用いた音声認識システム
EP1316944A3 (en) * 2001-11-28 2006-06-07 Fujitsu Limited Sound signal recognition system and method, and dialog control system and method using it
US7177806B2 (en) 2001-11-28 2007-02-13 Fujitsu Limited Sound signal recognition system and sound signal recognition method, and dialog control system and dialog control method using sound signal recognition system
EP1316944A2 (en) * 2001-11-28 2003-06-04 Fujitsu Limited Sound signal recognition system and method, and dialog control system and method using it
JP2005516263A (ja) * 2002-01-30 2005-06-02 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 音声認識システムのための音声アクティビティのオーディオビジュアル検出
JP2007528031A (ja) * 2004-03-30 2007-10-04 インテル・コーポレーション 音声および映像ソースデータを分離および評価する技術
US9911421B2 (en) 2013-06-10 2018-03-06 Panasonic Intellectual Property Corporation Of America Speaker identification method, speaker identification apparatus, and information management method
CN113660537A (zh) * 2021-09-28 2021-11-16 北京七维视觉科技有限公司 一种字幕生成方法和装置

Also Published As

Publication number Publication date
JP3865924B2 (ja) 2007-01-10

Similar Documents

Publication Publication Date Title
JP4269473B2 (ja) オーディオ・ビジュアル記録物をセグメント化する方法およびコンピュータ記憶媒体、並びにコンピュータシステム
JP3485766B2 (ja) デジタルビデオデータから索引付け情報を抽出するシステムとその方法
JP4253989B2 (ja) ビデオの類似性探索方法及び記録媒体
JP4258090B2 (ja) ビデオフレームの分類方法及びセグメント化方法、及びコンピュータ可読記憶媒体
US6567775B1 (en) Fusion of audio and video based speaker identification for multimedia information access
US8200061B2 (en) Signal processing apparatus and method thereof
US20040143434A1 (en) Audio-Assisted segmentation and browsing of news videos
JP3065314B1 (ja) 高速信号探索方法、装置およびその記録媒体
JP2001092974A (ja) 話者認識方法及びその実行装置並びに音声発生確認方法及び装置
US20030108240A1 (en) Method and apparatus for automatic face blurring
Jiang et al. Video segmentation with the support of audio segmentation and classification
US7349477B2 (en) Audio-assisted video segmentation and summarization
US20050254782A1 (en) Method and device of editing video data
JP3865924B2 (ja) 音声認識装置
Iurgel et al. New approaches to audio-visual segmentation of TV news for automatic topic retrieval
Kyperountas et al. Enhanced eigen-audioframes for audiovisual scene change detection
CN114282621B (zh) 一种多模态融合的话者角色区分方法与系统
Neti et al. Audio-visual speaker recognition for video broadcast news
JP3408800B2 (ja) 信号検出方法、装置及びそのプログラム、記録媒体
Woo et al. Unsupervised speaker identification for TV news
AT&T
Chaloupka A prototype of audio-visual broadcast transcription system
Haller et al. Audiovisual anchorperson detection for topic-oriented navigation in broadcast news
WO2007036892A1 (en) Method and apparatus for long term memory model in face detection and recognition
Li et al. Fusion of visual and audio features for person identification in real video

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060607

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060725

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20060911

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20061003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20061004

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091013

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313114

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091013

Year of fee payment: 3

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091013

Year of fee payment: 3

R370 Written measure of declining of transfer procedure

Free format text: JAPANESE INTERMEDIATE CODE: R370

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091013

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313114

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091013

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091013

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101013

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111013

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111013

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121013

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees