JP4082611B2 - 音声収録システム、音声処理方法およびプログラム - Google Patents

音声収録システム、音声処理方法およびプログラム Download PDF

Info

Publication number
JP4082611B2
JP4082611B2 JP2004156571A JP2004156571A JP4082611B2 JP 4082611 B2 JP4082611 B2 JP 4082611B2 JP 2004156571 A JP2004156571 A JP 2004156571A JP 2004156571 A JP2004156571 A JP 2004156571A JP 4082611 B2 JP4082611 B2 JP 4082611B2
Authority
JP
Japan
Prior art keywords
audio
signal
microphone
audio signal
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004156571A
Other languages
English (en)
Other versions
JP2005338402A (ja
Inventor
雅史 西村
哲也 滝口
治 市川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Priority to JP2004156571A priority Critical patent/JP4082611B2/ja
Priority to US11/136,831 priority patent/US7599836B2/en
Publication of JP2005338402A publication Critical patent/JP2005338402A/ja
Application granted granted Critical
Publication of JP4082611B2 publication Critical patent/JP4082611B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0272Voice signal separating
    • G10L21/028Voice signal separating using properties of sound source

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Stereophonic Arrangements (AREA)

Description

本発明は、複数の話者による音声を収録し、収録された音声から話者を特定する方法およびシステムに関する。
音声認識技術の進歩と精度向上に伴って、その適用分野は大きく広がりつつあり、ディクテーション(口述筆記)によるビジネス文書の作成、医療所見、法律文書の作成、テレビ放送の字幕作成などに利用され始めている。また、裁判や会議等において、その進行を録音しておき、テキストに書き起こすことによって調書や議事録を作成するために、音声認識を用いたテキスト化技術を導入することが考えられている。
このような音声認識技術が用いられる場面において、単に収録された音声を認識するだけでなく、複数話者が発した音声から個々の音声の話者を特定することが必要となる場合がある。従来、この話者特定のための手法としては、マイクロフォンアレイ等によって得られる指向特性を用いて音声が到来する方向に基づき話者を特定する技術(例えば、特許文献1参照)や、話者ごとに個別に収録された音声をデータ化して話者を特定するための識別情報を付加する技術(例えば、特許文献2参照)等、種々の手法が提案されている。
特開2003−114699号公報 特開平10−215331号公報
上述したように、音声認識技術においては、収録された複数話者による音声から個々の音声の話者を特定することが必要となる場合があり、従来から種々の手法が提案されている。しかし、マイクロフォンアレイ等の指向性マイクロフォンを用いて話者を特定する手法では、複数話者がマイクロフォンから見て同じ様な方向に存在する場合等、音声の収録環境その他の条件によっては十分な精度を得られなかった。
また、話者ごとに個別に音声を収録する手法は、話者ごとに録音装置を用意しなければならず、システム規模が大きくなるため、コストやシステム導入および装置保守の際の手間が増大する。
ところで、裁判や会議における発話には、次のような特徴がある。
・質疑応答が対話の大部分を占め、質問者と回答者が逐次入れ替わることはない。
・やじなどの突発的なものを除けば、同時に発話するのは一人であり、音声が重なることが稀である。
・質問者の順序が決まっており、複数の相手に同時に質問することはほとんどない。そのため、同一トピックに関する回答が音声データの様々な部分に散在することが多い。
このような特殊な収録環境では、複数話者による音声から個々の音声の話者を特定するために、以上のような収録環境の特徴を利用することが考えられる。
そこで本発明は、簡単な装置構成で、収録された複数話者による音声から個々の音声の話者を特定する方法およびこの方法を用いたシステムを提供することを目的とする。
また本発明は、特に、裁判や会議といった特殊な状況で収録される音声に対して、その収録環境の特徴を利用して、個々の音声の話者を特定する方法およびこの方法を用いたシステムを提供することを目的とする。
上記の目的を達成するため、本発明は、次のように構成された音声収録システムとして実現される。すなわち、このシステムは、話者ごとに設けられたマイクロフォンと、このマイクロフォンごとに収録された2チャンネルの音声信号に対して、それぞれ異なる音声処理を行って固有の特性を付与し、かつチャンネルごとにミキシングする音声処理部と、この音声処理部の処理によってマイクロフォンごとの音声信号に付与された固有の特性に応じた解析を行い、音声信号の発話区間ごとに話者を特定する解析部とを備えることを特徴とする。
より詳細には、この音声処理部は、収録された2チャンネルの音声信号のうち、一方のチャンネルの音声信号における音声波形の極性を反転し、あるいは収録された2チャンネルの音声信号における信号パワーを各々異なる値で増加または減少させ、あるいは収録された2チャンネルの音声信号のうち、一方のチャンネルの音声信号を遅延させる。
そして、解析部は、それぞれミキシングされた2つのチャンネルの音声信号の和または差を取ることで、あるいはそれぞれミキシングされた2つのチャンネルの音声信号の遅延によるずれを補正した後に音声信号の和または差を取ることで、この音声信号の話者を特定する。
また、このシステムは、音声処理部により音声処理を施された音声信号を所定の記録媒体に録音する録音部をさらに備える構成とすることができる。この場合、解析部は、録音部により録音された音声を再生して上記のように解析し、話者を特定する。
また、上記の目的を達成する他の本発明は、次のような音声収録システムとしても実現される。すなわち、このシステムは、4人の話者に対応させたマイクロフォンと、このマイクロフォンにより収録された4つの2チャンネルの音声信号のうち、1つの音声信号に対しては何ら加工を行わず、他の1つの音声信号に対しては2チャンネルの一方の音声信号を極性反転し、さらに他の1つの音声信号に対しては2チャンネルの一方の音声信号を消去し、さらに他の1つの音声信号に対しては2チャンネルの他方の音声信号を消去し、かつこれらの音声信号をチャンネルごとにミキシングする音声処理部と、この音声処理部によって処理された2チャンネルの音声信号を録音する録音部とを備えることを特徴とする。
さらにこのシステムは、録音部により録音された音声を再生し、再生された2チャンネルの音声信号に対して、下記(1)〜(4)の解析を行う解析部を備える構成とすることもできる。
(1)2チャンネルの音声信号を足し合わせて取得される音声信号を第1の話者の発話とする。
(2)2チャンネルの音声信号の一方から他方を差し引いて取得される音声信号を第2の話者の発話とする。
(3)2チャンネルの音声信号の一方からのみ取得される音声信号を第3の話者の発話とする。
(4)2チャンネルの音声信号の他方からのみ取得される音声信号を第4の話者の発話とする。
また、本発明は、次のような録音装置としても実現される。すなわち、この装置は、話者ごとに設けられたマイクロフォンと、このマイクロフォンごとに収録された2チャンネルの音声信号に対して、それぞれ異なる音声処理を行う音声処理部と、この音声処理部により音声処理を施された音声信号を所定の記録媒体に録音する録音部とを備えることを特徴とする。
さらに本発明は、次のような音声解析装置としても実現される。すなわち、この装置は、所定のメディアに2チャンネルで録音された音声を再生する音声再生手段と、この音声再生手段により再生された2チャンネルの音声信号の和または差を取ることで、音声信号の話者を特定する解析手段とを備えることを特徴とする。
また、上記の目的を達成するさらに他の本発明は、次のような音声収録方法としても実現される。すなわち、この方法は、話者ごとに設けられたマイクロフォンで音声を入力する第1のステップと、マイクロフォンごとに収録された音声信号に対して、それぞれ異なる音声処理を行い、固有の特性を付与する第2のステップと、音声処理によってマイクロフォンごとの音声信号に付与された固有の特性に応じた解析を行い、音声信号の発話区間ごとに話者を特定する第3のステップとを含むことを特徴とする。
さらに本発明は、コンピュータを制御して上述したシステム、録音装置あるいは音声解析装置の各機能を実現するプログラム、またはコンピュータに上記の音声収録方法の各ステップに対応する処理を実行させるプログラムとしても実現される。このプログラムは、磁気ディスクや光ディスク、半導体メモリ、その他の記録媒体に格納して配布したり、ネットワークを介して配信したりすることにより提供される。
以上のように構成された本発明によれば、収録された音声信号にそれぞれ異なる音声処理を施すことにより、各音声信号に固有の特性を与え、再生時に音声信号に施された音声処理に対応した解析を行うことで、再生時に個々の音声の話者を確実に識別することができる。しかも、音声信号自体は一般的な2チャンネル(ステレオ)録音が可能な録音機器にて録音保存することができるので、本発明は、比較的簡単な装置構成で実現される。
また、話者の数が限定され、原則として複数話者が同時に発話することがないような特殊な収録環境では、話者の数に応じてより簡単な構成でシステムを実現することが可能である。
以下、添付図面を参照して、本発明を実施するための最良の形態(以下、実施形態)について詳細に説明する。
本実施形態では、複数話者が各々に割り当てられたマイクロフォンにより2チャンネルの音声を収録し、収録時に、マイクロフォンごと(すなわち話者ごと)に異なる音声処理を行う。そして、録音された音声に対して、収録時に施された処理に応じた解析を行うことにより、個々の音声の話者を特定する。
図1は、本実施形態による音声収録システムの全体構成を示す図である。
図1に示すように、本実施形態のシステムは、音声を入力するマイクロフォン10と、入力された音声に対する処理を行う音声処理部20と、音声処理部20で処理された音声を録音する録音部30と、録音された音声を解析して個々の音声の話者を特定する解析部40とを備える。
図1において、マイクロフォン10は、通常のモノラルマイクロフォンである。上述したようにマイクロフォン10からは2チャンネルの音声を収録するが、本実施形態では、モノラルマイクロフォンで収録した音声を2チャンネルに分離して用いる。なお、マイクロフォン10としてステレオマイクロフォンを使用し、初めから2チャンネルで音声を収録することも可能である。しかし、後述する解析部40による解析で2つのチャンネルの音声を比較することを考慮すると、モノラルマイクロフォンで収録した音声を分離して用いるのが好ましい。
音声処理部20は、マイクロフォン10により入力された音声に対して、音声波形の極性を反転したり、音声パワー(信号パワー)を増減させたり、音声信号を遅延させたりといった処理を行い、マイクロフォン10ごと(話者ごと)の音声信号にそれぞれ固有の特性を付与する。
録音部30は、通常の2チャンネルの録音装置であり、MD(Mini Disc)等の録音再生用メディアを用いた録音再生機や音声収録機能を備えたパーソナルコンピュータ等を用いることができる。
解析部40は、録音部30により録音された音声を、音声処理部20による処理により付与された各音声の特性に応じた解析を行い、個々の音声の話者を特定する。
以上の構成において、音声処理部20、録音部30および解析部40は別個の装置として構成できるが、これらをパーソナルコンピュータ等のコンピュータシステムで実現した場合は、単一の装置で構成することも可能である。また、音声処理部20と録音部30とを合わせて録音装置とし、この録音装置で録音された音声を解析部40に相当するコンピュータ(解析装置)で解析する構成としても良い。本実施形態を適用する環境や実施態様に応じて、これらの機能を適宜組み合わせた装置構成をとることが可能である。
図2は、本実施形態における音声処理部20、録音部30および解析部40を実現するのに好適なコンピュータ装置のハードウェア構成の例を模式的に示した図である。
図2に示すコンピュータ装置は、演算手段であるCPU(Central Processing Unit:中央処理装置)101と、M/B(マザーボード)チップセット102およびCPUバスを介してCPU101に接続されたメインメモリ103と、同じくM/Bチップセット102およびAGP(Accelerated Graphics Port)を介してCPU101に接続されたビデオカード104と、PCI(Peripheral Component Interconnect)バスを介してM/Bチップセット102に接続された磁気ディスク装置(HDD)105、ネットワークインタフェース106と、さらにこのPCIバスからブリッジ回路107およびISA(Industry Standard Architecture)バスなどの低速なバスを介してM/Bチップセット102に接続されたフレキシブルディスクドライブ108およびキーボード/マウス109とを備える。
なお、図2は本実施形態を実現するコンピュータ装置のハードウェア構成を例示するに過ぎず、本実施形態を適用可能であれば、他の種々の構成を取ることができる。例えば、ビデオカード104を設ける代わりに、ビデオメモリのみを搭載し、CPU101にてイメージデータを処理する構成としても良いし、外部記憶装置として、ATA(AT Attachment)やSCSI(Small Computer System Interface)などのインタフェースを介してCD−R(Compact Disc Recordable)やDVD−RAM(Digital Versatile Disc Random Access Memory)のドライブを設けても良い。
本実施形態では、話者を識別するための音声処理として、音声波形の極性反転、音声パワーの増減、音声信号の遅延を用いる。
すなわち、何も処理を行わない2チャンネル音声を基準とし、所定の話者の収録音声に対しては、2チャンネルの音声波形の一方を極性反転する。また、他の所定の話者の収録音声に対しては、2つのチャンネルの音声パワーを各々異なる値で増加または減少させる。さらに、他の所定の話者の収録音声に対しては、2チャンネルの音声信号の一方を遅延させる。
このように収録された音声では、何も処理を行っていない音声では、2つのチャンネルの音声を足し合わせると音声パワーがおおよそ2倍になり、一方のチャンネルの音声から他方のチャンネルの音声を差し引くと音声パワーがおおよそ0になる。反対に、一方のチャンネルの音声波形を極性反転した音声では、2つのチャンネルの音声を足し合わせると音声パワーがおおよそ0になり、一方のチャンネルの音声から他方のチャンネルの音声を差し引くと音声パワーがおおよそ2倍になる。
2チャンネルの一方の音声信号を遅延させた収録音声では、2チャンネルの音声信号間の遅延によるずれを補正し、その後に、2つのチャンネルの音声を足し合わせると音声パワーがおおよそ2倍になり、一方のチャンネルの音声から他方のチャンネルの音声を差し引くと音声パワーがおおよそ0になる。
また、各チャンネルの音声パワーを増減した収録音声では、収録時の増減幅に応じて各チャンネルの音声パワーをさらに適当に増加または減少させた後に、2つのチャンネルの音声を足し合わせたり差し引いたりすることにより、音声パワーを元の音声の整数倍や0にすることができる。
例えば、収録時に一方のチャンネル(このチャンネルを第1チャンネルとする)の音声パワーを1倍にし、他方のチャンネル(このチャンネルを第2チャンネルとする)の音声パワーを0.5倍にすると、再生時に第2チャンネルの音声パワーを2倍にして第1チャンネルの音声と足し合わせれば、音声パワーが第1チャンネルの音声のおおよそ2倍になる。一方、音声パワーを2倍にした第2チャンネルの音声を第1チャンネルの音声から差し引けば音声パワーがおおよそ0になる。
特殊な場合では、収録時に第1チャンネルの音声パワーを1倍にし、第2チャンネルの音声パワーを0倍にすると、再生時に2つのチャンネルの音声パワーを足し合わせても第1チャンネルの音声パワーと等しくなる。
本実施形態では、以上のような、収録時の音声処理により収録音声に付与される特性を利用して、個々の音声の話者を特定する。以下、具体的な処理の例を挙げて本実施形態の動作、特に音声処理部20と解析部40の動作についてさらに詳細に説明する。なお、以下の動作例では、複数の話者が同時に発話することはないか、あるいは複数話者による同時発話があった場合にはその部分の話者を正確に識別する必要はないものとする。
図3は、音声処理部20による処理を説明する図である。
図3に示す例では、話者1〜8の8人の話者を想定し、音声処理部20が、マイクロフォン10により入力される2チャンネルの音声にそれぞれ異なる処理を施した後、チャンネルごとに音声をミキサで合成して録音部30に送信している。また、音声処理部20は、音声波形の極性を反転する極性反転部21、音声パワーを増減させる増減幅部22、音声信号を一定時間遅延させる遅延部23を備えるものとする。
図3を参照すると、話者1の音声は、何も加工を行わずに録音部30に送られる。話者2の音声は、極性反転部21により第2チャンネルの音声波形が極性反転された後に録音部30に送られる。話者3の音声は、増減幅部22により、第1チャンネルの音声パワーがα倍され、第2チャンネルの音声パワーがβ倍されて録音部30に送られる。話者4の音声は、増減幅部22により、第1チャンネルの音声パワーがα’倍され、第2チャンネルの音声パワーがβ’倍されて録音部30に送られる。話者5の音声は、増減幅部22により、第1チャンネルの音声パワーがα’’倍され、第2チャンネルの音声パワーがβ’’倍されて録音部30に送られる。話者6の音声は、増減幅部22により、第1チャンネルの音声パワーがα’’’倍され、第2チャンネルの音声パワーがβ’’’倍されて録音部30に送られる。話者7の音声は、遅延部23により第2チャンネルの音声信号が遅延量Lだけ遅延されて録音部30に送られる。話者8の音声は、遅延部23により第2チャンネルの音声信号が遅延量L’だけ遅延されて録音部30に送られる。
ここで、上記の各パラメータは、例えば、α’=β=0、α=β’=α’’’=β’’’=1、α’’=β’’’=0.5、L=1msec(ミリ秒)、L’=2L=2msecのように任意に設定することができる。
解析部40は、録音部30により所定のメディアに録音された音声を再生する再生手段と、再生された音声信号を解析する解析手段とを備える。
図4は、解析部40の動作を説明するフローチャートである。
図4に示すように、解析部40の再生手段は、録音部30により所定のメディアに録音された2チャンネル音声を再生する(ステップ401)。ここで、第1チャンネルの音声信号をa(t)、第2チャンネルの音声信号をb(t)とする。
次に解析部40の解析手段は、下記の計算により、再生された音声信号の短区間Nにおけるそれぞれの音声パワーを算出する(ステップ402)。
Figure 0004082611
次に解析部40は、ステップ402で算出された短区間Nの音声パワーを順次調べ、音声パワーA(t)またはB(t)の少なくとも一方が、予め設定された閾値以上である区間を発話区間として検出する(ステップ403)。なお、話者7、8の音声は、上述したように音声処理部20の遅延部23によって遅延されているが、遅延量Lはわずかな量であるので、発話区間の検出には影響しない。
次に解析部40は、ステップ403で検出された発話区間ごとに、音声処理部20による処理とステップ402の計算に基づく下記の判別条件を適用し、各発話区間における話者を判別する(ステップ404)。
1)AB+(t) ≒ 4A(t) ならば話者1
2)AB-(t) ≒ 4A(t) ならば話者2
3)A(t) ≒ AB+(t) ならば話者3
4)B(t) ≒ AB+(t) ならば話者4
5)AB2a+(t) ≒ 4B(t) ならば話者5
6)AB2b+(t) ≒ 4A(t) ならば話者6
7)ABL(t) ≒ 4A(t) ならば話者7
8)AB2L(t) ≒ 4A(t) ならば話者8
この後、解析部40は、ステップ403で検出された各発話区間に対して、ステップ404における話者の判別結果に基づいて、第1チャンネルの音声信号a(t)または第2チャンネルの音声信号をb(t)を選択的に出力する(ステップ405)。具体的には、話者1、2による発話区間では、音声信号a(t)、b(t)のいずれを出力しても良い。話者3、6による発話区間では、音声信号a(t)の方が音声信号b(t)よりも音声パワーが強いので、音声信号a(t)を出力することが好ましい。反対に、話者4、5による発話区間では、音声信号b(t)の方が音声信号a(t)よりも音声パワーが強いので、音声信号b(t)を出力することが好ましい。話者7、8による発話区間では、音声信号b(t)は遅延されているので、音声信号a(t)を出力することが好ましい。
以上のように、本実施形態は、複数話者にそれぞれ対応させたマイクロフォン10から2チャンネルの音声を収録し、収録時に各マイクロフォン10の収録音声に対して音声処理部20によりそれぞれ異なる音声処理を施し、音声処理の施された音声信号をチャンネルごとにミキシングする。そして、ミキシングされた音声信号に対して、音声処理部20による音声処理によって付与された、マイクロフォン10ごと(話者ごと)に固有の特性に応じた解析を行うことにより、個々の発話区間における音声の話者を特定することが可能となる。
音声処理部20および解析部40の各機能は、これらの構成を図2に示したコンピュータにて実現する場合は、プログラム制御されたCPU101とメインメモリ103や磁気ディスク装置105等の記憶手段によって実現される。また、音声処理部20の極性反転部21、増減幅部22および遅延部23の機能は、それぞれの機能を持つ回路によってハードウェア的に実現しても良い。
図1に示した構成では、音声処理部20により音声処理の施された音声信号を録音部30によって録音し、解析部40は録音部30に録音されている音声信号を解析して話者を特定するようになっている。しかし、本実施形態は、上記のように音声収録時に音声信号を処理して話者を特定できるような特性を音声信号に付与するものであり、この技術思想の範囲であれば、種々のシステム構成を取り得ることは言うまでもない。
例えば、録音部30および解析部40の機能を単一のコンピュータシステムにて実現する場合、音声処理部20により音声処理され、ミキシングされた後に入力した音声信号に対して、まず解析部40による話者の特定を行ってしまい、その後に話者ごとの音声ファイルを作成して、図2の磁気ディスク装置105に格納するようにしても良い。
次に、裁判における発言を収録し、その収録音声からテキスト(電子調書)を作成するシステムに、上述した本実施形態を適用した例を説明する。
図5は、本実施形態を裁判における電子調書作成システムの音声収録手段として用いた場合の構成例を示す図である。
図5の構成において、極性反転器51およびマイクミキサ52a、52bは、図1の音声処理部20に対応する。また、音声をMDに録音するMDレコーダ53は、図1の録音部30に対応する。
マイクロフォン10としては、ピンマイク(pin microphone)が用いられ、裁判官、証人、代理人A、Bがそれぞれ装着しているものとし、図示されていない。また、図5の構成では、MDに録音された音声が、別途にコンピュータで解析されることとし、図1の解析部40に対応するコンピュータも図示されていない。
図5を参照すると、このシステムでは、裁判官の発話音声は、直接マイクミキサ52a、52bへ送られる。また、証人の発話音声は、第1チャンネルの音声が直接マイクミキサ52aへ送られ、第2チャンネルの音声が極性反転器51を介してマイクミキサ52bへ送られる。さらに、代理人Aの発話音声は、第1チャンネルの音声のみがマイクミキサ52aへ送られる。一方、代理人Bの発話音声は、第2チャンネルの音声のみがマイクミキサ52bへ送られる。
したがって、裁判官は図3の話者1に相当し、証人は図3の話者2に相当する。また、図3でα’=β=0、α=β’=1とすると、代理人Aは話者3に、代理人Bは話者4に相当する。
図6は、図5に示したシステムで所定の時間に収録された音声の波形を示すタイムチャートである。
図6を参照すると、代理人Aの音声と裁判官および証人のマイクロフォン10における第1チャンネルの音声がマイクミキサ52aで合成されている。そして、代理人Bの音声と裁判官および証人のマイクロフォン10における第2チャンネルの音声がマイクミキサ52bで合成されている。この図6に示す第1、第2チャンネルの音声が、MDレコーダ53によって、それぞれMDの第1、第2チャンネルに記録される。
次に、図1の解析部40に相当するコンピュータ(以下、解析装置)が、図5のシステムでMDに録音された音声を再生して解析し、個々の発話における話者(裁判官、証人、代理人A、代理人B)を特定する。具体的な方法は、図4を参照して上述した方法において、話者1〜4を識別した方法によれば良いが、裁判という特殊な状況で収録された音声から話者を特定する場合、次のような簡単化した方法をとることができる。
すなわち、裁判における発話には、次のような特徴がある。
・質疑応答が対話の大部分を占め、質問者と回答者が逐次入れ替わることはない。
・やじなどの突発的なものを除けば、同時に発話するのは一人であり、音声が重なることが稀である。
・質問者の順序が決まっており、複数の相手に同時に質問することはほとんどない。そのため、同一トピックに関する回答が音声データの様々な部分に散在することが多い。
そして、図5のシステムで収録される発話音声の話者は、裁判官、証人、代理人Aおよび代理人Bの4人に限られる。
これらの事情を考慮すると、図5のシステムでMDに録音された音声の話者は、次のようにして特定される。
1.第1チャンネルと第2チャンネルの音声信号の和を取ったときに音声パワーが増大する部分が裁判官の発話である。
2.第1チャンネルと第2チャンネルの音声信号の差を取ったときに音声パワーが増大する部分が証人の発話である。
3.上記1.2.の操作では音声パワーに大きな変化が見られず、第1チャンネルにのみ信号が存在する部分が代理人Aの発話である。
4.上記1.2.の操作では音声パワーに大きな変化が見られず、第2チャンネルのみに信号が存在する部分が代理人Bの発話である。
したがって、コンピュータは、MDに録音された音声の各発話区間に対して、以上4つの場合のいずれに該当するかを判断すれば、各発話区間の話者を特定することができる。
ところで、裁判では代理人が証人に接近して質問を行うことがある。この場合、証人のマイクロフォン10が、証人に接近して発話した代理人の音声を拾ってしまう。図6において、証人の音声波形には代理人Aの発話音声が含まれ、代理人Aの音声波形には証人の発話音声が含まれている。このため、第1チャンネルの音声は、一種のエコーがかかった様な状態となる。
しかし、図6の第1、第2チャンネルの音声信号を比較すると、この第1チャンネルにおけるエコー成分のうち、証人の音声波形に混入した代理人Aの音声成分は、第2チャンネルではエコー成分ではなく独立の音声として記録されている。これは、図5のシステム構成から、代理人Aのマイクロフォン10は第2チャンネルの音声信号を形成しないためである。したがって、証人の音声波形に代理人Aの音声成分が混入した箇所では、第1チャンネルの音声信号から第2チャンネルの音声信号を差し引くことで、代理人Aのクリーンな発話音声を推定することができる。
同様に、代理人Aのマイクロフォン10は第2チャンネルの音声信号を形成しないため、代理人Aの音声波形に混入した証人の音声成分は、第2チャンネルには記録されない。したがって、代理人Aの音声波形に証人の音声成分が混入した箇所では、第2チャンネルの音声信号を選択することにより、エコーのかかっていないクリーンな証人の発話音声を得ることができる。
以上のようなエコー成分の有無の判定は、数十ミリ秒〜数百ミリ秒程度の短区間の音声パワーを比較することで容易に可能なので、エコー成分が発見された時点で該当する発話区間に対して上記の操作を行うことにより、各話者のクリーンな発話音声が得られる。
図7は、図5のシステムで録音された音声を解析する方法を説明するフローチャートである。
図7に示すように、解析装置は、まずMDレコーダ53によりMDに録音された音声を再生する(ステップ701)。次に解析装置は、図4のステップ402〜404と同様の処理または上述した簡単化した処理により、音声信号の各発話区間における話者を推定する(ステップ702)。そして、推定された話者に応じて、各発話区間における音声信号を次のように制御しながら出力を行う(ステップ703)。
1)話者1(裁判官)の発話区間に関しては、第1チャンネルまたは第2チャンネルの音声をそのまま出力。
2)話者3(代理人A)の発話区間に関しては、a(t)+b(t)を出力(証人の音声が混入しているケースでも、混入重畳した音声信号は−b(t)であるため、+b(t)とすることでキャンセルすることができる)。
3)話者4(代理人B)の発話区間に関しては、a(t)+b(t)を出力(証人の音声が混入しているケースでも、混入重畳した音声信号は−a(t)であるため、+a(t)とすることでキャンセルすることができる)。
4)話者2(証人)の発話区間に関しては、これに先行する質問者の発話区間が話者3(代理人A)である場合はb(t)を出力し、話者4(代理人B)である場合はa(t)を出力する。また、先行する発話区間が話者1である場合は、第1、第2チャンネルのいずれか一方の音声信号を出力すればよい(代理人が証人に近づいたために、接近した代理人の音声が証人側のマイクに混入しているおそれがあるが、質問者ではない代理人を含む側の音声信号を用いることで混入のない音声信号を出力できる)。
以上、本実施形態では、収録時に各話者のマイクロフォン10の収録音声に対してそれぞれ異なる音声処理を施し、施された音声処理に応じた解析を行うことにより個々の音声の話者を特定した。そして、音声処理の内容として、音声波形の極性反転、音声パワーの増減、音声信号の遅延といった、音声信号(波形)自体を操作する処理を行った。
本実施形態の拡張として、各マイクロフォン10の収録音声に対して、データハイディングの手法を用いて、可聴帯域外の音声信号による識別情報を埋め込むことが考えられる。この場合、音声信号に埋め込まれた識別情報を検出することによって、容易に話者を特定することが可能となる。
本実施形態による音声収録システムの全体構成を示す図である。 本実施形態における音声処理部、録音部および解析部を実現するのに好適なコンピュータ装置のハードウェア構成の例を模式的に示した図である。 本実施形態の音声処理部による処理を説明する図である。 本実施形態の解析部の動作を説明するフローチャートである。 本実施形態を裁判における電子調書作成システムの音声収録手段として用いた場合の構成例を示す図である。 図5に示したシステムで所定の時間に収録された音声の波形を示すタイムチャートである。 図5のシステムで録音された音声を解析する方法を説明するフローチャートである。
符号の説明
101…CPU(Central Processing Unit:中央処理装置)、103…メインメモリ、105…磁気ディスク装置(HDD)、10…マイクロフォン、20…音声処理部、21…極性反転部、22…増減幅部、23…遅延部、30…録音部、40…解析部

Claims (10)

  1. 複数の話者の音声を収録するシステムにおいて、
    話者ごとに設けられたマイクロフォンと、
    前記マイクロフォンから各々2チャンネルの音声信号を取得し、取得された音声信号のうち、所定のマイクロフォンから取得された音声信号に対して音声処理を行い、チャンネルごとにミキシングする音声処理部と、
    前記音声処理部により音声処理を施され、ミキシングされた音声信号を解析し、発話区間ごとに音声信号を収録した前記マイクロフォンを特定する解析部とを備え、
    前記音声処理部は、
    所定のマイクロフォンから取得された音声信号に関して2チャンネルの音声信号の一方の極性を反転する第1の処理と、
    所定のマイクロフォンから取得された音声信号に関して2チャンネルの音声信号の一方の信号パワーを所定の割合で変化させる第2の処理と、
    所定のマイクロフォンから取得された音声信号に関して2チャンネルの音声信号の一方を遅延させる音声処理を行う第3の処理の、少なくともいずれか一つを前記音声処理として行い、
    前記解析部は、
    ミキシングされた2つのチャンネルの前記音声信号の差を取り、所定の発話区間の音声信号の信号パワーが増大した場合に、その発話区間の音声信号が前記第1の処理が施された音声信号と判断し、当該音声信号を収録したマイクロフォンを特定し、
    ミキシングされた2つのチャンネルの前記音声信号の一方の信号パワーを、前記第2の処理に対応する割合で逆方向に変化させ、当該2つのチャンネルの音声信号の和を取り、所定の発話区間の音声信号の信号パワーが元の信号パワーの整数倍に増大した場合に、その発話区間の音声信号が前記第2の処理が施された音声信号と判断し、当該音声信号を収録したマイクロフォンを特定し、
    ミキシングされた2つのチャンネルの前記音声信号の一方に対して、前記音声処理部による遅延分を補正する処理を行った後、当該2つのチャンネルの音声信号の和を取り、所定の発話区間の音声信号の信号パワーが元の信号パワーの整数倍に増大した場合に、その発話区間の音声信号が前記第3の処理が施された音声信号と判断し、当該音声信号を収録したマイクロフォンを特定する、音声収録システム。
  2. 前記音声処理部により音声処理を施された音声信号を所定の記録媒体に録音する録音部をさらに備え、
    前記解析部は、前記録音部により録音された音声を再生して解析し、話者を特定することを特徴とする請求項1に記載の音声収録システム。
  3. 複数の話者の音声を収録するシステムにおいて、
    話者ごとに設けられたマイクロフォンと、
    前記マイクロフォンから各々2チャンネルの音声信号を取得し、取得された音声信号のうち、所定のマイクロフォンから取得された音声信号に対して、2チャンネルの音声信号の一方の極性を反転する音声処理を行い、チャンネルごとにミキシングする音声処理部と、
    前記音声処理部により音声処理を施され、ミキシングされた2つのチャンネルの前記音声信号の差を取り、所定の発話区間の音声信号の信号パワーが増大した場合に、その発話区間の音声信号が前記所定のマイクロフォンで収録された音声信号と判断する解析部と、
    を備える音声収録システム。
  4. 複数の話者の音声を収録するシステムにおいて、
    話者ごとに設けられたマイクロフォンと、
    前記マイクロフォンから各々2チャンネルの音声信号を取得し、取得された音声信号のうち、所定のマイクロフォンから取得された音声信号に対して、2チャンネルの音声信号の一方の信号パワーを所定の割合で変化させる音声処理を行い、チャンネルごとにミキシングする音声処理部と、
    前記音声処理部により音声処理を施され、ミキシングされた2つのチャンネルの前記音声信号の一方の信号パワーを、前記音声処理に対応する割合で逆方向に変化させ、当該2つのチャンネルの音声信号の和を取り、所定の発話区間の音声信号の信号パワーが元の信号パワーの整数倍に増大した場合に、その発話区間の音声信号が前記所定のマイクロフォンで収録された音声信号と判断する解析部と、
    を備える音声収録システム。
  5. 複数の話者の音声を収録するシステムにおいて、
    話者ごとに設けられたマイクロフォンと、
    前記マイクロフォンから各々2チャンネルの音声信号を取得し、取得された音声信号のうち、所定のマイクロフォンから取得された音声信号に対して、2チャンネルの音声信号の一方を遅延させる音声処理を行い、チャンネルごとにミキシングする音声処理部と、
    前記音声処理部により音声処理を施され、ミキシングされた2つのチャンネルの前記音声信号の一方に対して、前記音声処理部による遅延分を補正する処理を行った後、当該2つのチャンネルの音声信号の和を取り、所定の発話区間の音声信号の信号パワーが元の信号パワーの整数倍に増大した場合に、その発話区間の音声信号が前記所定のマイクロフォンで収録された音声信号と判断する解析部と、
    を備える音声収録システム。
  6. 複数の話者の音声を収録するシステムにおいて、
    4人の話者に対応させたマイクロフォンと、
    前記マイクロフォンにより収録された4つの2チャンネルの音声信号のうち、第1のマイクロフォンで収録された音声信号に対しては何ら加工を行わず、第2のマイクロフォンで収録された音声信号に対しては2チャンネルの一方の音声信号を極性反転し、第3のマイクロフォンで収録された音声信号に対しては2チャンネルの一方の音声信号を消去し、第4のマイクロフォンで収録された音声信号に対しては2チャンネルの他方の音声信号を消去し、かつこれらの音声信号をチャンネルごとにミキシングする音声処理部と、
    前記音声処理部によって処理された2チャンネルの音声信号を録音する録音部と、
    前記録音部により録音された音声を再生し、再生された2チャンネルの前記音声信号に対して、下記(1)〜(4)の解析を行う解析部と
    を備える、音声収録システム。
    (1)2チャンネルの前記音声信号を足し合わせて所定の発話区間の音声信号の信号パワーが増大した場合に、その発話区間の音声信号が前記第1のマイクロフォンで収録された音声信号と判断とする。
    (2)2チャンネルの前記音声信号の差を取って所定の発話区間の音声信号の信号パワーが増大した場合に、その発話区間の音声信号が前記第2のマイクロフォンで収録された音声信号と判断とする。
    (3)2チャンネルの前記音声信号のうち、所定の発話区間では特定の1つのチャンネルからのみ音声信号が取得される場合に、その発話区間の音声信号が前記第3のマイクロフォンで収録された音声信号と判断する。
    (4)2チャンネルの前記音声信号のうち、所定の発話区間では前記特定の1つのチャンネルとは異なる他の1つのチャンネルからのみ音声信号が取得される場合に、その発話区間の音声信号が前記第4のマイクロフォンで収録された音声信号と判断する。
  7. コンピュータにより実現される音声処理手段が、話者ごとに設けられたマイクロフォンごとに収録された音声信号に対して、
    所定のマイクロフォンから取得された音声信号に関して2チャンネルの音声信号の一方の極性を反転する第1の処理と、
    所定のマイクロフォンから取得された音声信号に関して2チャンネルの音声信号の一方の信号パワーを所定の割合で変化させる第2の処理と、
    所定のマイクロフォンから取得された音声信号に関して2チャンネルの音声信号の一方を遅延させる音声処理を行う第3の処理の、少なくともいずれか一つの音声処理を行い、チャンネルごとにミキシングする第1のステップと、
    コンピュータにより実現される解析手段が、ミキシングされた音声信号を解析し、
    ミキシングされた2つのチャンネルの前記音声信号の差を取り、所定の発話区間の音声信号の信号パワーが増大した場合に、その発話区間の音声信号が前記第1の処理が施された音声信号と判断し、当該音声信号を収録したマイクロフォンを特定し、
    ミキシングされた2つのチャンネルの前記音声信号の一方の信号パワーを、前記第2の処理に対応する割合で逆方向に変化させ、当該2つのチャンネルの音声信号の和を取り、所定の発話区間の音声信号の信号パワーが元の信号パワーの整数倍に増大した場合に、その発話区間の音声信号が前記第2の処理が施された音声信号と判断し、当該音声信号を収録したマイクロフォンを特定し、
    ミキシングされた2つのチャンネルの前記音声信号の一方に対して、前記音声処理部による遅延分を補正する処理を行った後、当該2つのチャンネルの音声信号の和を取り、所定の発話区間の音声信号の信号パワーが元の信号パワーの整数倍に増大した場合に、その発話区間の音声信号が前記第3の処理が施された音声信号と判断し、当該音声信号を収録したマイクロフォンを特定する第2のステップと、
    を含む、音声処理方法。
  8. 前記音声処理手段が前記音声処理を施された音声信号を所定の記録媒体に録音するステップをさらに含み、
    前記第2のステップでは、前記記録媒体に録音された音声を再生して解析し、話者を特定することを特徴とする請求項7に記載の音声処理方法。
  9. コンピュータを、
    話者ごとに設けられたマイクロフォンごとに収録された音声信号に対して、
    所定のマイクロフォンから取得された音声信号に関して2チャンネルの音声信号の一方の極性を反転する第1の処理と、
    所定のマイクロフォンから取得された音声信号に関して2チャンネルの音声信号の一方の信号パワーを所定の割合で変化させる第2の処理と、
    所定のマイクロフォンから取得された音声信号に関して2チャンネルの音声信号の一方を遅延させる音声処理を行う第3の処理の、少なくともいずれか一つの音声処理を行い、チャンネルごとにミキシングする音声処理手段と、
    前記音声処理手段により音声処理を施され、ミキシングされた音声信号を解析し、
    ミキシングされた2つのチャンネルの前記音声信号の差を取り、所定の発話区間の音声信号の信号パワーが増大した場合に、その発話区間の音声信号が前記第1の処理が施された音声信号と判断し、当該音声信号を収録したマイクロフォンを特定し、
    ミキシングされた2つのチャンネルの前記音声信号の一方の信号パワーを、前記第2の処理に対応する割合で逆方向に変化させ、当該2つのチャンネルの音声信号の和を取り、所定の発話区間の音声信号の信号パワーが元の信号パワーの整数倍に増大した場合に、その発話区間の音声信号が前記第2の処理が施された音声信号と判断し、当該音声信号を収録したマイクロフォンを特定し、
    ミキシングされた2つのチャンネルの前記音声信号の一方に対して、前記音声処理部による遅延分を補正する処理を行った後、当該2つのチャンネルの音声信号の和を取り、所定の発話区間の音声信号の信号パワーが元の信号パワーの整数倍に増大した場合に、その発話区間の音声信号が前記第3の処理が施された音声信号と判断し、当該音声信号を収録したマイクロフォンを特定する解析手段として
    機能させる、プログラム。
  10. 前記コンピュータを、前記音声処理手段により音声処理を施された音声信号を所定の記録媒体に録音する録音手段としてさらに機能させ、
    前記解析手段では、前記コンピュータに、前記記録媒体に録音された音声を再生して解析することを特徴とする請求項9に記載のプログラム。
JP2004156571A 2004-05-26 2004-05-26 音声収録システム、音声処理方法およびプログラム Expired - Fee Related JP4082611B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004156571A JP4082611B2 (ja) 2004-05-26 2004-05-26 音声収録システム、音声処理方法およびプログラム
US11/136,831 US7599836B2 (en) 2004-05-26 2005-05-25 Voice recording system, recording device, voice analysis device, voice recording method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004156571A JP4082611B2 (ja) 2004-05-26 2004-05-26 音声収録システム、音声処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2005338402A JP2005338402A (ja) 2005-12-08
JP4082611B2 true JP4082611B2 (ja) 2008-04-30

Family

ID=35426541

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004156571A Expired - Fee Related JP4082611B2 (ja) 2004-05-26 2004-05-26 音声収録システム、音声処理方法およびプログラム

Country Status (2)

Country Link
US (1) US7599836B2 (ja)
JP (1) JP4082611B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11087767B2 (en) 2018-11-16 2021-08-10 Fujifilm Business Innovation Corp. Information processing apparatus and non-transitory computer readable medium

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8183013B2 (en) 2005-11-24 2012-05-22 Riken Method for production of protein having non-natural type amino acid integrated therein
US8395653B2 (en) 2010-05-18 2013-03-12 Polycom, Inc. Videoconferencing endpoint having multiple voice-tracking cameras
US9723260B2 (en) * 2010-05-18 2017-08-01 Polycom, Inc. Voice tracking camera with speaker identification
JP2013235050A (ja) * 2012-05-07 2013-11-21 Sony Corp 情報処理装置及び方法、並びにプログラム
WO2014097748A1 (ja) * 2012-12-18 2014-06-26 インターナショナル・ビジネス・マシーンズ・コーポレーション 特定の話者の音声を加工するための方法、並びに、その電子装置システム及び電子装置用プログラム
JP5761318B2 (ja) * 2013-11-29 2015-08-12 ヤマハ株式会社 識別情報重畳装置
JP2014082770A (ja) * 2013-11-29 2014-05-08 Yamaha Corp 表示装置およびオーディオ信号処理装置
CN106303876B (zh) * 2015-05-19 2019-08-13 比亚迪股份有限公司 语音系统、异音检测方法及电子装置
CN109510905B (zh) * 2018-12-06 2020-10-30 中通天鸿(北京)通信科技股份有限公司 多路语音的混音方法及系统

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02257472A (ja) 1989-03-29 1990-10-18 Sharp Corp Datを使った会議録作成方法
JPH10215331A (ja) 1997-01-30 1998-08-11 Toshiba Corp 音声会議システムとその情報端末装置
US6457043B1 (en) * 1998-10-23 2002-09-24 Verizon Laboratories Inc. Speaker identifier for multi-party conference
WO2002063828A1 (en) * 2001-02-06 2002-08-15 Polycom Israel Ltd. Control unit for multipoint multimedia/audio conference
JP2003060792A (ja) 2001-08-16 2003-02-28 Fujitsu Ltd 複数音声録音再生装置
JP2003114699A (ja) 2001-10-03 2003-04-18 Auto Network Gijutsu Kenkyusho:Kk 車載音声認識システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11087767B2 (en) 2018-11-16 2021-08-10 Fujifilm Business Innovation Corp. Information processing apparatus and non-transitory computer readable medium

Also Published As

Publication number Publication date
JP2005338402A (ja) 2005-12-08
US7599836B2 (en) 2009-10-06
US20050267762A1 (en) 2005-12-01

Similar Documents

Publication Publication Date Title
US7599836B2 (en) Voice recording system, recording device, voice analysis device, voice recording method and program
Zmolikova et al. Neural target speech extraction: An overview
JP4558308B2 (ja) 音声認識システム、データ処理装置、そのデータ処理方法及びプログラム
JP5049117B2 (ja) 音声および映像ソースデータを分離および評価する技術
US20210243528A1 (en) Spatial Audio Signal Filtering
US8315866B2 (en) Generating representations of group interactions
US20050182627A1 (en) Audio signal processing apparatus and audio signal processing method
JP2006301223A (ja) 音声認識システム及び音声認識プログラム
JP5018773B2 (ja) 音声入力システム、対話型ロボット、音声入力方法、および、音声入力プログラム
JP6594839B2 (ja) 話者数推定装置、話者数推定方法、およびプログラム
WO2010024426A1 (ja) 録音装置
KR100930039B1 (ko) 음성 인식기의 성능 평가 장치 및 그 방법
JP2006209069A (ja) 音声区間検出装置および音声区間検出プログラム
JP2006251545A (ja) 音声対話システム及びコンピュータプログラム
JP2006330170A (ja) 記録文書作成支援システム
JP3859612B2 (ja) 会議録音・書き起こしシステム
WO2020195924A1 (ja) 信号処理装置および方法、並びにプログラム
US20190272828A1 (en) Speaker estimation method and speaker estimation device
Watanabe et al. Communication support system of smart glasses for the hearing impaired
JP6942289B2 (ja) 情報処理装置、サウンドマスキングシステム、制御方法、及び制御プログラム
JP4772041B2 (ja) 音声トラック中の誤り自動検出方法及び装置
JP2000099097A (ja) 信号再生装置及び方法、音声信号再生装置、並びに、音声信号の速度変換方法
US20060020457A1 (en) Techniques for improving collaboration effectiveness
JP7007616B2 (ja) 学習データ生成装置、学習データ生成方法およびプログラム
Katoh et al. State estimation of meetings by information fusion using Bayesian network.

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070802

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070828

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071122

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20080104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080129

RD14 Notification of resignation of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7434

Effective date: 20080131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080207

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110222

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110222

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110222

Year of fee payment: 3

S202 Request for registration of non-exclusive licence

Free format text: JAPANESE INTERMEDIATE CODE: R315201

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110222

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120222

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130222

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130222

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140222

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees