JP2021516786A - 複数人の音声を分離する方法、装置、およびコンピュータプログラム - Google Patents
複数人の音声を分離する方法、装置、およびコンピュータプログラム Download PDFInfo
- Publication number
- JP2021516786A JP2021516786A JP2020548932A JP2020548932A JP2021516786A JP 2021516786 A JP2021516786 A JP 2021516786A JP 2020548932 A JP2020548932 A JP 2020548932A JP 2020548932 A JP2020548932 A JP 2020548932A JP 2021516786 A JP2021516786 A JP 2021516786A
- Authority
- JP
- Japan
- Prior art keywords
- network model
- sample
- voice
- mixed
- terminal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 57
- 238000004590 computer program Methods 0.000 title description 4
- 238000000926 separation method Methods 0.000 claims abstract description 68
- 239000011159 matrix material Substances 0.000 claims abstract description 58
- 239000000284 extract Substances 0.000 claims abstract description 33
- 230000006870 function Effects 0.000 claims description 59
- 238000012549 training Methods 0.000 claims description 50
- 230000005236 sound signal Effects 0.000 claims description 39
- 230000015654 memory Effects 0.000 claims description 25
- 238000000605 extraction Methods 0.000 claims description 13
- 238000004364 calculation method Methods 0.000 claims description 4
- 239000000203 mixture Substances 0.000 claims description 2
- 230000008569 process Effects 0.000 description 21
- 238000010586 diagram Methods 0.000 description 13
- 238000012545 processing Methods 0.000 description 11
- 230000009467 reduction Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 230000007774 longterm Effects 0.000 description 4
- 238000001228 spectrum Methods 0.000 description 4
- 238000006467 substitution reaction Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 101100269850 Caenorhabditis elegans mask-1 gene Proteins 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000002860 competitive effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Quality & Reliability (AREA)
- Biophysics (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Telephonic Communication Services (AREA)
Abstract
Description
一態様では、本願の実施例は、
端末がN(前記Nは2以上の正整数)種の人声が混合している分離対象の混合音声信号から混合音声特徴を抽出するステップと、
端末が敵対的生成ネットワークモデルを用いて前記混合音声特徴についてマスク係数抽出を行い、N種の人声に対応するマスクマトリックスを得るステップと、
端末が前記敵対的生成ネットワークモデルを用いて前記N種の人声に対応するマスクマトリックス及び前記混合音声信号について音声分離を行い、前記N種の人声に対応するN種の分離音声信号を出力するステップと、を含む、複数人の音声を分離する方法を提供する。
端末に実装される、複数人の音声を分離する装置であって、
N(前記Nは2以上の正整数)種の人声が混合している分離対象の混合音声信号から混合音声特徴を抽出するように構成された特徴抽出モジュールと、
敵対的生成ネットワークモデルを用いて前記混合音声特徴についてマスク係数抽出を行い、N種の人声に対応するマスクマトリックスを得るように構成されたマスクマトリックス生成モジュールと、
前記敵対的生成ネットワークモデルを用いて前記N種の人声に対応するマスクマトリックス及び前記混合音声信号について音声分離を行い、前記N種の人声に対応するN種の分離音声信号を出力するように構成された音声分離モジュールと、を含む、複数人の音声を分離する装置をさらに提供する。
本願の実施例は、複数人の音声を分離する方法を主に提供し、本願の実施例は、ニューラルネットワークにより、複数人の音声を含むシナリオでの音声間の分離を実現することができ、複雑な音響シナリオでの音声対話、例えばスマートスピーカー、スマートテレビ(TV)などのシナリオでの音声認識に適用される。本願の実施例は、複数人の音声を分離する装置をさらに提供し、当該複数人の音声を分離する装置は、オーディオ処理ソフトウェアの形態で端末に配置されてもよく、オーディオを記憶するサーバであってもよい。
101では、端末は、N(Nは2以上の正整数)種の人声が混合している分離対象の混合音声信号から混合音声特徴を抽出する。
端末が混合音声信号からシングルチャンネルの音声信号の時間領域特徴又は周波数領域特徴を抽出するか、又は
端末が混合音声信号からマルチチャンネルの音声信号の時間領域特徴又は周波数領域特徴を抽出するか、又は
端末が混合音声信号からシングルチャンネルの音声特徴を抽出するか、又は
端末が混合音声信号からマルチチャンネル間の関連特徴を抽出することを含む。
A1、端末がサンプルデータベースから混合音声サンプル及びクリーン音声サンプルを取得することと、
A2、端末が混合音声サンプルから混合音声サンプル特徴を抽出することと、
A3、端末が生成ネットワークモデルにより混合音声サンプル特徴についてマスク係数抽出を行い、N種の人声に対応するサンプルマスクマトリックスを得ることと、
A4、端末が生成ネットワークモデルを用いてサンプルマスクマトリックス及び混合音声サンプルについて音声分離を行い、分離音声サンプルを出力することと、
A5、端末が分離音声サンプル、混合音声サンプル及びクリーン音声サンプルを用いて生成ネットワークモデル及び敵対的ネットワークモデルを交互にトレーニングすることと、をさらに含む。
201では、端末は今回判別ネットワークモデルをトレーニングするとき、生成ネットワークモデルを固定する。
202では、端末は分離音声サンプル、混合音声サンプル及びクリーン音声サンプルを用いて判別ネットワークモデルの損失関数を取得する。
203では、端末は判別ネットワークモデルの損失関数を最小化することにより、判別ネットワークモデルを最適化する。
204では、端末は次回生成ネットワークモデルをトレーニングするとき、判別ネットワークモデルを固定する。
205では、端末は分離音声サンプル、混合音声サンプル及びクリーン音声サンプルを用いて生成ネットワークモデルの損失関数を取得する。
206では、端末は生成ネットワークモデルの損失関数を最小化することにより、生成ネットワークモデルを最適化する。
2021、端末が分離音声サンプル及び混合音声サンプルに基づいて第1の信号サンプル組み合わせを決定し、かつクリーン音声サンプル及び混合音声サンプルに基づいて第2の信号サンプル組み合わせを決定することと、
2022、端末が判別ネットワークモデルを用いて第1の信号サンプル組み合わせについて判別出力を行なって第1の判別出力結果を得て、そして第1の判別出力結果と判別ネットワークモデルの第1の目標出力との間の第1の歪みメトリックを取得することと、
2023、端末が判別ネットワークモデルを用いて第2の信号サンプル組み合わせについて判別出力を行なって第2の判別出力結果を得て、そして第2の判別出力結果と判別ネットワークモデルの第2の目標出力との間の第2の歪みメトリックを取得することと、
2024、端末が第1の歪みメトリック及び第2の歪みメトリックに基づいて判別ネットワークモデルの損失関数を取得することと、を含む。
例えば、該第1の歪みメトリックは、以下の公式で計算できる。
例えば、該第2の歪みメトリックは、以下の公式で計算できる。
一例として、判別ネットワークモデルを最適化するとき、対応する損失関数を以下のように定義してよい。
2051、端末が分離音声サンプル及び混合音声サンプルに基づいて第1の信号サンプル組み合わせを決定することと、
2052、端末が判別ネットワークモデルを用いて第1の信号サンプル組み合わせについて判別出力を行なって第1の判別出力結果を得て、そして第1の判別出力結果と判別ネットワークモデルの第2の目標出力との間の第3の歪みメトリックを取得することと、
2053、端末が分離音声サンプルとクリーン音声サンプルとの間の第4の歪みメトリックを取得することと、
2054、端末が第3の歪みメトリック及び第4の歪みメトリックに基づいて生成ネットワークモデルの損失関数を取得することと、を含む。
端末が分離音声サンプル及びクリーン音声サンプルについて置換不変性の計算を行い、分離音声サンプルとクリーン音声サンプルとの間の対応関係結果を得ることと、
端末が分離音声サンプルとクリーン音声サンプルとの間の対応関係結果に基づいて第4の歪みメトリックを取得することと、を含む。
一例として、生成ネットワークモデルを最適化するとき、対応する損失関数を以下のように定義してよい。
図4−aに示すように、本願の実施例に係る複数人の音声を分離する装置400は、
N(Nは2以上の正整数)種の人声が混合している分離対象の混合音声信号から混合音声特徴を抽出するように構成された特徴抽出モジュール401と、
敵対的生成ネットワークモデルを用いて前記混合音声特徴についてマスク係数抽出を行い、N種の人声に対応するマスクマトリックスを得るように構成されたマスクマトリックス生成モジュール402と、
前記敵対的生成ネットワークモデルを用いて前記N種の人声に対応するマスクマトリックス及び前記混合音声信号について音声分離を行い、前記N種の人声に対応するN種の分離音声信号を出力するように構成された音声分離モジュール403と、を含んでよい。
前記特徴抽出モジュール401は、分離対象の混合音声信号から混合音声特徴を抽出する前に、サンプルデータベースから前記混合音声サンプル及び前記クリーン音声サンプルを取得し、前記混合音声サンプルから混合音声サンプル特徴を抽出するようにさらに構成され、
前記マスクマトリックス生成モジュール402は、前記生成ネットワークモデルにより前記混合音声サンプル特徴についてマスク係数抽出を行い、N種の人声に対応するサンプルマスクマトリックスを得るようにさらに構成され、
前記音声分離モジュール403は、前記生成ネットワークモデルを用いて前記サンプルマスクマトリックス及び前記混合音声サンプルについて音声分離を行い、分離音声サンプルを出力するようにさらに構成され、
前記モデルトレーニングモジュール404は、前記分離音声サンプル、前記混合音声サンプル及び前記クリーン音声サンプルを用いて前記生成ネットワークモデル及び前記敵対的ネットワークモデルを交互にトレーニングするように構成される。
今回前記判別ネットワークモデルをトレーニングするとき、前記生成ネットワークモデルを固定し、前記分離音声サンプル、前記混合音声サンプル及び前記クリーン音声サンプルを用いて前記判別ネットワークモデルの損失関数を取得し、前記判別ネットワークモデルの損失関数を最小化することにより、前記判別ネットワークモデルを最適化するように構成された生成ネットワークトレーニングユニット4041と、
次回前記生成ネットワークモデルをトレーニングするとき、前記判別ネットワークモデルを固定し、前記分離音声サンプル、前記混合音声サンプル及び前記クリーン音声サンプルを用いて前記生成ネットワークモデルの損失関数を取得し、前記生成ネットワークモデルの損失関数を最小化することにより、前記生成ネットワークモデルを最適化するように構成された判別ネットワークトレーニングユニット4042と、を含む。
前記分離音声サンプル及び前記混合音声サンプルに基づいて第1の信号サンプル組み合わせを決定し、かつ前記クリーン音声サンプル及び前記混合音声サンプルに基づいて第2の信号サンプル組み合わせを決定するように構成された第1の音声組み合わせサブユニット40411と、
前記判別ネットワークモデルを用いて前記第1の信号サンプル組み合わせについて判別出力を行なって第1の判別出力結果を得て、そして前記第1の判別出力結果と前記判別ネットワークモデルの第1の目標出力との間の第1の歪みメトリックを取得するように構成された第1の判別出力サブユニットであって、前記判別ネットワークモデルを用いて前記第2の信号サンプル組み合わせについて判別出力を行なって第2の判別出力結果を得て、そして前記第2の判別出力結果と前記判別ネットワークモデルの第2の目標出力との間の第2の歪みメトリックを取得するように構成された第1の判別出力サブユニット40412と、
前記第1の歪みメトリック及び前記第2の歪みメトリックに基づいて前記判別ネットワークモデルの損失関数を取得するように構成された第1の損失関数取得サブユニット40413と、を含む。
前記分離音声サンプル及び前記混合音声サンプルに基づいて第1の信号サンプル組み合わせを決定するように構成された第2の音声組み合わせサブユニット40421と、
前記判別ネットワークモデルを用いて前記第1の信号サンプル組み合わせについて判別出力を行なって第1の判別出力結果を得て、そして前記第1の判別出力結果と前記判別ネットワークモデルの第2の目標出力との間の第3の歪みメトリックを取得するように構成された第2の判別出力サブユニット40422と、
前記分離音声サンプルと前記クリーン音声との間の第4の歪みメトリックを取得するように構成された歪みメトリック取得サブユニット40423と、
前記第3の歪みメトリック及び前記第4の歪みメトリックに基づいて前記生成ネットワークモデルの損失関数を取得するように構成された第2の損失関数取得サブユニット40424と、を含む。
RF回路1010は、情報を送受信するか又は通話の過程で、信号を送受信し、特に基地局からのダウンリンク情報を受信した後、プロセッサ1080に送って処理させ、また、アップリンク用データを基地局に送信するために用いられてよい。通常、RF回路1010は、アンテナ、少なくとも1つの増幅器、送受信機、カプラ、ローノイズアンプ(Low Noise Amplifier、LNA)、デュプレクサなどを含むが、それらに限定されない。また、RF回路1010は、さらに無線通信によりネットワーク及び他の機器と通信することができる。上記無線通信は、いずれかの通信規格又はプロトコルを使用してもよく、移動体通信用グローバルシステム(Global System of Mobile communication、GSM)、汎用パケット無線サービス(General Packet Radio Service、GPRS)、符号分割多元接続(Code Division Multiple Access、CDMA)、広帯域符号分割多元接続(Wideband Code Division Multiple Access、WCDMA(登録商標))、ロングタームエボリューション(Long Term Evolution、LTE)、電子メール、ショートメッセージサービス(Short Messaging Service、SMS)などを含むが、これらに限定されない。
図示しないが、携帯電話は、さらにカメラ、ブルートゥース(登録商標)モジュールなどを含んでよく、ここで詳述しない。
S1、端末がN(Nは2以上の正整数)種の人声が混合している分離対象の混合音声信号から混合音声特徴を抽出するステップと、
S2、前記端末が敵対的生成ネットワークモデルを用いて前記混合音声特徴についてマスク係数抽出を行い、N種の人声に対応するマスクマトリックスを得るステップと、
S3、前記端末が前記敵対的生成ネットワークモデルを用いて前記N種の人声に対応するマスクマトリックス及び前記混合音声信号について音声分離を行い、前記N種の人声に対応するN種の分離音声信号を出力するステップと、を実行するためのコンピュータプログラムを記憶するように構成されてよい。
401 特徴抽出モジュール
402 マスクマトリックス生成モジュール
403 音声分離モジュール
404 モデルトレーニングモジュール
4041 生成ネットワークトレーニングユニット
4042 判別ネットワークトレーニングユニット
40411 サブユニット
40412 第1の判別出力サブユニット
40413 第1の損失関数取得サブユニット
40421 サブユニット
40422 第2の判別出力サブユニット
40423 メトリック取得サブユニット
40424 第2の損失関数取得サブユニット
1010 RF回路
1010 無線周波数回路
1020 メモリ
1030 入力ユニット
1031 タッチパネル
1032 入力装置
1040 表示ユニット
1041 表示パネル
1050 センサー
1060 オーディオ回路
1061 スピーカ
1062 マイクロフォン
1070 WiFiモジュール
1070 ワイヤレスフィディリティーモジュール
1080 プロセッサ
1090 電源
1100 サーバ
1122 中央処理装置
1126 電源
1130 記憶媒体
1132 メモリ
1141 オペレーティングシステム
1142 アプリケーションプログラム
1144 データ
1150 無線ネットワークインタフェース
1158 入出力インタフェース
前記分離音声サンプル及び前記混合音声サンプルに基づいて第1の信号サンプル組み合わせを決定するように構成された第2の音声組み合わせサブユニット40421と、
前記判別ネットワークモデルを用いて前記第1の信号サンプル組み合わせについて判別出力を行なって第1の判別出力結果を得て、そして前記第1の判別出力結果と前記判別ネットワークモデルの第2の目標出力との間の第3の歪みメトリックを取得するように構成された第2の判別出力サブユニット40422と、
前記分離音声サンプルと前記クリーン音声サンプルとの間の第4の歪みメトリックを取得するように構成された歪みメトリック取得サブユニット40423と、
前記第3の歪みメトリック及び前記第4の歪みメトリックに基づいて前記生成ネットワークモデルの損失関数を取得するように構成された第2の損失関数取得サブユニット40424と、を含む。
Claims (15)
- 端末がN(前記Nは2以上の正整数)種の人声が混合している分離対象の混合音声信号から混合音声特徴を抽出するステップと、
前記端末が敵対的生成ネットワークモデルを用いて前記混合音声特徴についてマスク係数抽出を行い、N種の人声に対応するマスクマトリックスを得るステップと、
前記端末が前記敵対的生成ネットワークモデルを用いて前記N種の人声に対応するマスクマトリックス及び前記混合音声信号について音声分離を行い、前記N種の人声に対応するN種の分離音声信号を出力するステップと、を含む、複数人の音声を分離する方法。 - 前記敵対的生成ネットワークモデルは、生成ネットワークモデル及び敵対的ネットワークモデルを含み、
前記端末が分離対象の混合音声信号から混合音声特徴を抽出する前に、
前記端末がサンプルデータベースから前記混合音声サンプル及び前記クリーン音声サンプルを取得するステップと、
前記端末が前記混合音声サンプルから混合音声サンプル特徴を抽出するステップと、
前記端末が前記生成ネットワークモデルにより前記混合音声サンプル特徴についてマスク係数抽出を行い、N種の人声に対応するサンプルマスクマトリックスを得るステップと、
前記端末が前記生成ネットワークモデルを用いて前記サンプルマスクマトリックス及び前記混合音声サンプルについて音声分離を行い、分離音声サンプルを出力するステップと、
前記端末が前記分離音声サンプル、前記混合音声サンプル及び前記クリーン音声サンプルを用いて前記生成ネットワークモデル及び前記敵対的ネットワークモデルを交互にトレーニングするステップと、をさらに含む、請求項1に記載の方法。 - 前記端末が前記分離音声サンプル、前記混合音声サンプル及び前記クリーン音声サンプルを用いて前記生成ネットワークモデル及び前記敵対的ネットワークモデルを交互にトレーニングするステップは、
前記端末が今回前記判別ネットワークモデルをトレーニングするとき、前記生成ネットワークモデルを固定するステップと、
前記端末が前記分離音声サンプル、前記混合音声サンプル及び前記クリーン音声サンプルを用いて前記判別ネットワークモデルの損失関数を取得するステップと、
前記端末が前記判別ネットワークモデルの損失関数を最小化することにより、前記判別ネットワークモデルを最適化するステップと、
前記端末が次回前記生成ネットワークモデルをトレーニングするとき、前記判別ネットワークモデルを固定するステップと、
前記端末が前記分離音声サンプル、前記混合音声サンプル及び前記クリーン音声サンプルを用いて前記生成ネットワークモデルの損失関数を取得するステップと、
前記端末が前記生成ネットワークモデルの損失関数を最小化することにより、前記生成ネットワークモデルを最適化するステップと、を含む、請求項2に記載の方法。 - 前記端末が前記分離音声サンプル、前記混合音声サンプル及び前記クリーン音声サンプルを用いて前記判別ネットワークモデルの損失関数を取得するステップは、
前記端末が前記分離音声サンプル及び前記混合音声サンプルに基づいて第1の信号サンプル組み合わせを決定し、かつ前記クリーン音声サンプル及び前記混合音声サンプルに基づいて第2の信号サンプル組み合わせを決定するステップと、
前記端末が前記判別ネットワークモデルを用いて前記第1の信号サンプル組み合わせについて判別出力を行なって第1の判別出力結果を得て、そして前記第1の判別出力結果と前記判別ネットワークモデルの第1の目標出力との間の第1の歪みメトリックを取得するステップと、
前記端末が前記判別ネットワークモデルを用いて前記第2の信号サンプル組み合わせについて判別出力を行なって第2の判別出力結果を得て、そして前記第2の判別出力結果と前記判別ネットワークモデルの第2の目標出力との間の第2の歪みメトリックを取得するステップと、
前記端末が前記第1の歪みメトリック及び前記第2の歪みメトリックに基づいて前記判別ネットワークモデルの損失関数を取得するステップと、を含む、請求項3に記載の方法。 - 前記端末が前記分離音声サンプル、前記混合音声サンプル及び前記クリーン音声サンプルを用いて前記生成ネットワークモデルの損失関数を取得するステップは、
前記端末が前記分離音声サンプル及び前記混合音声サンプルに基づいて第1の信号サンプル組み合わせを決定するステップと、
前記端末が前記判別ネットワークモデルを用いて前記第1の信号サンプル組み合わせについて判別出力を行なって第1の判別出力結果を得て、そして前記第1の判別出力結果と前記判別ネットワークモデルの第2の目標出力との間の第3の歪みメトリックを取得するステップと、
前記端末が前記分離音声サンプルと前記クリーン音声との間の第4の歪みメトリックを取得するステップと、
前記端末が前記第3の歪みメトリック及び前記第4の歪みメトリックに基づいて前記生成ネットワークモデルの損失関数を取得するステップと、を含む、請求項3に記載の方法。 - 前記端末が前記分離音声サンプルと前記クリーン音声との間の第4の歪みメトリックを取得するステップは、
前記端末が前記分離音声サンプル及び前記クリーン音声サンプルについて置換不変性の計算を行い、前記分離音声サンプルと前記クリーン音声サンプルとの間の対応関係結果を得るステップと、
前記端末が前記分離音声サンプルと前記クリーン音声サンプルとの間の対応関係結果に基づいて前記第4の歪みメトリックを取得するステップと、を含む、請求項5に記載の方法。 - 前記端末が分離対象の混合音声信号から混合音声特徴を抽出するステップは、
前記端末が前記混合音声信号からシングルチャンネルの音声信号の時間領域特徴又は周波数領域特徴を抽出するか、又は
前記端末が前記混合音声信号からマルチチャンネルの音声信号の時間領域特徴又は周波数領域特徴を抽出するか、又は
前記端末が前記混合音声信号からシングルチャンネルの音声特徴を抽出するか、又は
前記端末が前記混合音声信号からマルチチャンネル間の関連特徴を抽出するステップを含む、請求項1〜6のいずれか1項に記載の方法。 - 端末に実装される、複数人の音声を分離する装置であって、
N(前記Nは2以上の正整数)種の人声が混合している分離対象の混合音声信号から混合音声特徴を抽出するように構成された特徴抽出モジュールと、
敵対的生成ネットワークモデルを用いて前記混合音声特徴についてマスク係数抽出を行い、N種の人声に対応するマスクマトリックスを得るように構成されたマスクマトリックス生成モジュールと、
前記敵対的生成ネットワークモデルを用いて前記N種の人声に対応するマスクマトリックス及び前記混合音声信号について音声分離を行い、前記N種の人声に対応するN種の分離音声信号を出力するように構成された音声分離モジュールと、を含む、複数人の音声を分離する装置。 - 前記敵対的生成ネットワークモデルは、生成ネットワークモデル及び敵対的ネットワークモデルを含み、
前記複数人の音声を分離する装置は、モデルトレーニングモジュールをさらに含み、
前記特徴抽出モジュールは、分離対象の混合音声信号から混合音声特徴を抽出する前に、サンプルデータベースから前記混合音声サンプル及び前記クリーン音声サンプルを取得し、前記混合音声サンプルから混合音声サンプル特徴を抽出するようにさらに構成され、
前記マスクマトリックス生成モジュールは、前記生成ネットワークモデルにより前記混合音声サンプル特徴についてマスク係数抽出を行い、N種の人声に対応するサンプルマスクマトリックスを得るようにさらに構成され、
前記音声分離モジュールは、前記生成ネットワークモデルを用いて前記サンプルマスクマトリックス及び前記混合音声サンプルについて音声分離を行い、分離音声サンプルを出力するようにさらに構成され、
前記モデルトレーニングモジュールは、前記分離音声サンプル、前記混合音声サンプル及び前記クリーン音声サンプルを用いて前記生成ネットワークモデル及び前記敵対的ネットワークモデルを交互にトレーニングするように構成される、請求項8に記載の装置。 - 前記モデルトレーニングモジュールは、
今回前記判別ネットワークモデルをトレーニングするとき、前記生成ネットワークモデルを固定し、前記分離音声サンプル、前記混合音声サンプル及び前記クリーン音声サンプルを用いて前記判別ネットワークモデルの損失関数を取得し、前記判別ネットワークモデルの損失関数を最小化することにより、前記判別ネットワークモデルを最適化するように構成された生成ネットワークトレーニングユニットと、
次回前記生成ネットワークモデルをトレーニングするとき、前記判別ネットワークモデルを固定し、前記分離音声サンプル、前記混合音声サンプル及び前記クリーン音声サンプルを用いて前記生成ネットワークモデルの損失関数を取得し、前記生成ネットワークモデルの損失関数を最小化することにより、前記生成ネットワークモデルを最適化するように構成された判別ネットワークトレーニングユニットと、を含む、請求項9に記載の装置。 - 前記生成ネットワークトレーニングユニットは、
前記分離音声サンプル及び前記混合音声サンプルに基づいて第1の信号サンプル組み合わせを決定し、かつ前記クリーン音声サンプル及び前記混合音声サンプルに基づいて第2の信号サンプル組み合わせを決定するように構成された第1の音声組み合わせサブユニットと、
前記判別ネットワークモデルを用いて前記第1の信号サンプル組み合わせについて判別出力を行なって第1の判別出力結果を得て、そして前記第1の判別出力結果と前記判別ネットワークモデルの第1の目標出力との間の第1の歪みメトリックを取得するように構成された第1の判別出力サブユニットであって、前記判別ネットワークモデルを用いて前記第2の信号サンプル組み合わせについて判別出力を行なって第2の判別出力結果を得て、そして前記第2の判別出力結果と前記判別ネットワークモデルの第2の目標出力との間の第2の歪みメトリックを取得するように構成された第1の判別出力サブユニットと、
前記第1の歪みメトリック及び前記第2の歪みメトリックに基づいて前記判別ネットワークモデルの損失関数を取得するように構成された第1の損失関数取得サブユニットと、を含む、請求項10に記載の装置。 - 前記判別ネットワークトレーニングユニットは、
前記分離音声サンプル及び前記混合音声サンプルに基づいて第1の信号サンプル組み合わせを決定するように構成された第2の音声組み合わせサブユニットと、
前記判別ネットワークモデルを用いて前記第1の信号サンプル組み合わせについて判別出力を行なって第1の判別出力結果を得て、そして前記第1の判別出力結果と前記判別ネットワークモデルの第2の目標出力との間の第3の歪みメトリックを取得するように構成された第2の判別出力サブユニットと、
前記分離音声サンプルと前記クリーン音声との間の第4の歪みメトリックを取得するように構成された歪みメトリック取得サブユニットと、
前記第3の歪みメトリック及び前記第4の歪みメトリックに基づいて前記生成ネットワークモデルの損失関数を取得するように構成された第2の損失関数取得サブユニットと、を含む、請求項10に記載の装置。 - 前記歪みメトリック取得サブユニットは、前記分離音声サンプル及び前記クリーン音声サンプルについて置換不変性の計算を行い、前記分離音声サンプルと前記クリーン音声サンプルとの間の対応関係結果を得て、そして前記分離音声サンプルと前記クリーン音声サンプルとの間の対応関係結果に基づいて前記第4の歪みメトリックを取得するように具体的に構成される、請求項12に記載の装置。
- 前記特徴抽出モジュールは、前記混合音声信号からシングルチャンネルの音声信号の時間領域特徴又は周波数領域特徴を抽出するか、又は前記混合音声信号からマルチチャンネルの音声信号の時間領域特徴又は周波数領域特徴を抽出するか、又は前記混合音声信号からシングルチャンネルの音声特徴を抽出するか、又は前記混合音声信号からマルチチャンネル間の関連特徴を抽出するように具体的に構成される、請求項8〜13のいずれか1項に記載の装置。
- コマンドを記憶するためのメモリと、
前記メモリにおける前記コマンドを実行して、請求項1〜7のいずれか1項に記載の方法を実行するためのプロセッサとを含む、複数人の音声を分離する装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810904488.9 | 2018-08-09 | ||
CN201810904488.9A CN110164469B (zh) | 2018-08-09 | 2018-08-09 | 一种多人语音的分离方法和装置 |
PCT/CN2019/099216 WO2020029906A1 (zh) | 2018-08-09 | 2019-08-05 | 一种多人语音的分离方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021516786A true JP2021516786A (ja) | 2021-07-08 |
Family
ID=67645182
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020548932A Pending JP2021516786A (ja) | 2018-08-09 | 2019-08-05 | 複数人の音声を分離する方法、装置、およびコンピュータプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US11450337B2 (ja) |
EP (1) | EP3751569A4 (ja) |
JP (1) | JP2021516786A (ja) |
CN (2) | CN110544488B (ja) |
WO (1) | WO2020029906A1 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021128328A (ja) * | 2020-02-14 | 2021-09-02 | システム・ワン・ノック・アンド・ディベロップメント・ソリューションズ・ソシエダッド・アノニマSystem One Noc & Development Solutions, S.A. | 畳み込みニューラルネットワークに基づく電話音声信号の強調のための方法 |
US20220262386A1 (en) * | 2020-02-10 | 2022-08-18 | Tencent Technology (Shenzhen) Company Limited | Speech enhancement method and apparatus, electronic device, and computer- readable storage medium |
JP7465992B2 (ja) | 2021-08-24 | 2024-04-11 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | オーディオデータ処理方法、装置、機器、記憶媒体及びプログラム |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108847238B (zh) * | 2018-08-06 | 2022-09-16 | 东北大学 | 一种服务机器人语音识别方法 |
CN110544482B (zh) * | 2019-09-09 | 2021-11-12 | 北京中科智极科技有限公司 | 一种单通道语音分离系统 |
CN110795892B (zh) * | 2019-10-23 | 2021-10-01 | 北京邮电大学 | 一种基于生成对抗网络的信道模拟方法及装置 |
CN110827849B (zh) * | 2019-11-11 | 2022-07-26 | 广州国音智能科技有限公司 | 数据建库的人声分离方法、装置、终端及可读存储介质 |
CN111341304A (zh) * | 2020-02-28 | 2020-06-26 | 广州国音智能科技有限公司 | 一种基于gan的说话人语音特征训练方法、装置和设备 |
CN113450823B (zh) * | 2020-03-24 | 2022-10-28 | 海信视像科技股份有限公司 | 基于音频的场景识别方法、装置、设备及存储介质 |
CN111477240B (zh) * | 2020-04-07 | 2023-04-07 | 浙江同花顺智能科技有限公司 | 音频处理方法、装置、设备和存储介质 |
CN111640456B (zh) * | 2020-06-04 | 2023-08-22 | 合肥讯飞数码科技有限公司 | 叠音检测方法、装置和设备 |
CN111899758B (zh) * | 2020-09-07 | 2024-01-30 | 腾讯科技(深圳)有限公司 | 语音处理方法、装置、设备和存储介质 |
CN112071329B (zh) * | 2020-09-16 | 2022-09-16 | 腾讯科技(深圳)有限公司 | 一种多人的语音分离方法、装置、电子设备和存储介质 |
CN112216300A (zh) * | 2020-09-25 | 2021-01-12 | 三一专用汽车有限责任公司 | 用于搅拌车驾驶室内声音的降噪方法、装置和搅拌车 |
CN112331218B (zh) * | 2020-09-29 | 2023-05-05 | 北京清微智能科技有限公司 | 一种针对多说话人的单通道语音分离方法和装置 |
CN113223497A (zh) * | 2020-12-10 | 2021-08-06 | 上海雷盎云智能技术有限公司 | 智能语音识别处理方法及系统 |
CN112992174A (zh) * | 2021-02-03 | 2021-06-18 | 深圳壹秘科技有限公司 | 一种语音分析方法及其语音记录装置 |
CN113077812A (zh) * | 2021-03-19 | 2021-07-06 | 北京声智科技有限公司 | 语音信号生成模型训练方法、回声消除方法和装置及设备 |
CN113571084B (zh) * | 2021-07-08 | 2024-03-22 | 咪咕音乐有限公司 | 音频处理方法、装置、设备及存储介质 |
CN114446316B (zh) * | 2022-01-27 | 2024-03-12 | 腾讯科技(深圳)有限公司 | 音频分离方法、音频分离模型的训练方法、装置及设备 |
CN114743561A (zh) * | 2022-05-06 | 2022-07-12 | 广州思信电子科技有限公司 | 语音分离装置及方法、存储介质、计算机设备 |
CN116597828B (zh) * | 2023-07-06 | 2023-10-03 | 腾讯科技(深圳)有限公司 | 模型确定方法、模型应用方法和相关装置 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020003537A (ja) * | 2018-06-25 | 2020-01-09 | カシオ計算機株式会社 | オーディオ抽出装置、学習装置、カラオケ装置、オーディオ抽出方法、学習方法及びプログラム |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8947347B2 (en) * | 2003-08-27 | 2015-02-03 | Sony Computer Entertainment Inc. | Controlling actions in a video game unit |
US7225124B2 (en) * | 2002-12-10 | 2007-05-29 | International Business Machines Corporation | Methods and apparatus for multiple source signal separation |
US20150287406A1 (en) * | 2012-03-23 | 2015-10-08 | Google Inc. | Estimating Speech in the Presence of Noise |
JP5841986B2 (ja) * | 2013-09-26 | 2016-01-13 | 本田技研工業株式会社 | 音声処理装置、音声処理方法、及び音声処理プログラム |
CN103903632A (zh) * | 2014-04-02 | 2014-07-02 | 重庆邮电大学 | 一种多声源环境下的基于听觉中枢系统的语音分离方法 |
CN105096961B (zh) * | 2014-05-06 | 2019-02-01 | 华为技术有限公司 | 语音分离方法和装置 |
CN106024005B (zh) * | 2016-07-01 | 2018-09-25 | 腾讯科技(深圳)有限公司 | 一种音频数据的处理方法及装置 |
WO2018045358A1 (en) * | 2016-09-05 | 2018-03-08 | Google Llc | Generating theme-based videos |
US11024009B2 (en) * | 2016-09-15 | 2021-06-01 | Twitter, Inc. | Super resolution using a generative adversarial network |
CN106847294B (zh) * | 2017-01-17 | 2018-11-30 | 百度在线网络技术(北京)有限公司 | 基于人工智能的音频处理方法和装置 |
CN107437077A (zh) * | 2017-08-04 | 2017-12-05 | 深圳市唯特视科技有限公司 | 一种基于生成对抗网络的旋转面部表示学习的方法 |
US10642846B2 (en) * | 2017-10-13 | 2020-05-05 | Microsoft Technology Licensing, Llc | Using a generative adversarial network for query-keyword matching |
CN107945811B (zh) * | 2017-10-23 | 2021-06-01 | 北京大学 | 一种面向频带扩展的生成式对抗网络训练方法及音频编码、解码方法 |
US10839822B2 (en) * | 2017-11-06 | 2020-11-17 | Microsoft Technology Licensing, Llc | Multi-channel speech separation |
CN108109619B (zh) | 2017-11-15 | 2021-07-06 | 中国科学院自动化研究所 | 基于记忆和注意力模型的听觉选择方法和装置 |
CN108198569B (zh) * | 2017-12-28 | 2021-07-16 | 北京搜狗科技发展有限公司 | 一种音频处理方法、装置、设备及可读存储介质 |
CN108346433A (zh) * | 2017-12-28 | 2018-07-31 | 北京搜狗科技发展有限公司 | 一种音频处理方法、装置、设备及可读存储介质 |
US10811000B2 (en) * | 2018-04-13 | 2020-10-20 | Mitsubishi Electric Research Laboratories, Inc. | Methods and systems for recognizing simultaneous speech by multiple speakers |
US11281976B2 (en) * | 2018-07-12 | 2022-03-22 | International Business Machines Corporation | Generative adversarial network based modeling of text for natural language processing |
-
2018
- 2018-08-09 CN CN201910745824.4A patent/CN110544488B/zh active Active
- 2018-08-09 CN CN201810904488.9A patent/CN110164469B/zh active Active
-
2019
- 2019-08-05 WO PCT/CN2019/099216 patent/WO2020029906A1/zh unknown
- 2019-08-05 JP JP2020548932A patent/JP2021516786A/ja active Pending
- 2019-08-05 EP EP19848216.8A patent/EP3751569A4/en active Pending
-
2020
- 2020-09-17 US US17/023,829 patent/US11450337B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020003537A (ja) * | 2018-06-25 | 2020-01-09 | カシオ計算機株式会社 | オーディオ抽出装置、学習装置、カラオケ装置、オーディオ抽出方法、学習方法及びプログラム |
Non-Patent Citations (3)
Title |
---|
CHENXING LI ET AL.: "CBLDNN-Based Speaker-Independent Speech Separation Via Generative Adversarial Training", 2018 IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS, SPEECH AND SIGNAL PROCESSING, JPN6021043377, April 2018 (2018-04-01), pages 711 - 715, XP033401816, ISSN: 0004937776, DOI: 10.1109/ICASSP.2018.8462505 * |
GUANGCAN LIU ET AL.: "Improving Speech Separation with Adversarial Network and Reinforcement Learning", 2018 INTERNATIONAL JOINT CONFERENCE ON NEURAL NETWORKS, JPN6021043380, July 2018 (2018-07-01), pages 1 - 7, XP033419297, ISSN: 0004937774, DOI: 10.1109/IJCNN.2018.8489444 * |
俵直弘ほか: "非線形ひずみ除去のための敵対的denoising autoencoder", 情報処理学会研究報告, vol. Vol.2018-SLP-123, No.1, JPN6021043378, July 2018 (2018-07-01), pages 1 - 7, ISSN: 0004937775 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220262386A1 (en) * | 2020-02-10 | 2022-08-18 | Tencent Technology (Shenzhen) Company Limited | Speech enhancement method and apparatus, electronic device, and computer- readable storage medium |
US12009004B2 (en) * | 2020-02-10 | 2024-06-11 | Tencent Technology (Shenzhen) Company Limited | Speech enhancement method and apparatus, electronic device, and computer-readable storage medium |
JP2021128328A (ja) * | 2020-02-14 | 2021-09-02 | システム・ワン・ノック・アンド・ディベロップメント・ソリューションズ・ソシエダッド・アノニマSystem One Noc & Development Solutions, S.A. | 畳み込みニューラルネットワークに基づく電話音声信号の強調のための方法 |
JP7094340B2 (ja) | 2020-02-14 | 2022-07-01 | システム・ワン・ノック・アンド・ディベロップメント・ソリューションズ・ソシエダッド・アノニマ | 畳み込みニューラルネットワークに基づく電話音声信号の強調のための方法 |
JP7465992B2 (ja) | 2021-08-24 | 2024-04-11 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | オーディオデータ処理方法、装置、機器、記憶媒体及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
CN110544488A (zh) | 2019-12-06 |
WO2020029906A1 (zh) | 2020-02-13 |
CN110544488B (zh) | 2022-01-28 |
US20210005216A1 (en) | 2021-01-07 |
EP3751569A1 (en) | 2020-12-16 |
CN110164469A (zh) | 2019-08-23 |
CN110164469B (zh) | 2023-03-10 |
EP3751569A4 (en) | 2021-07-21 |
US11450337B2 (en) | 2022-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2021516786A (ja) | 複数人の音声を分離する方法、装置、およびコンピュータプログラム | |
JP5996783B2 (ja) | 声紋特徴モデルを更新するための方法及び端末 | |
CN110364145B (zh) | 一种语音识别的方法、语音断句的方法及装置 | |
CN107274885B (zh) | 语音识别方法及相关产品 | |
CN108538320B (zh) | 录音控制方法和装置、可读存储介质、终端 | |
WO2017215649A1 (zh) | 音效调节方法及用户终端 | |
CN108346433A (zh) | 一种音频处理方法、装置、设备及可读存储介质 | |
CN108511002B (zh) | 危险事件声音信号识别方法、终端和计算机可读存储介质 | |
CN107993672B (zh) | 频带扩展方法及装置 | |
CN106528545B (zh) | 一种语音信息的处理方法及装置 | |
CN106920559B (zh) | 通话音的优化方法、装置及通话终端 | |
CN110364156A (zh) | 语音交互方法、系统、终端及可读存储介质 | |
CN111477243B (zh) | 音频信号处理方法及电子设备 | |
CN112735388B (zh) | 网络模型训练方法、语音识别处理方法及相关设备 | |
CN109302528B (zh) | 一种拍照方法、移动终端及计算机可读存储介质 | |
CN109873894B (zh) | 一种音量调节方法及移动终端 | |
CN109686359B (zh) | 语音输出方法、终端及计算机可读存储介质 | |
CN110944056A (zh) | 交互方法、移动终端及可读存储介质 | |
CN109889665B (zh) | 一种音量调节方法、移动终端及存储介质 | |
CN109543193B (zh) | 一种翻译方法、装置及终端设备 | |
US20210110838A1 (en) | Acoustic aware voice user interface | |
CN107645604B (zh) | 一种通话处理方法及移动终端 | |
CN115497498A (zh) | 音频处理方法、装置、系统、终端及计算机可读存储介质 | |
CN111010488A (zh) | 音频信号处理方法、装置和电子设备 | |
CN117012202B (zh) | 语音通道识别方法、装置、存储介质及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200914 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200914 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211026 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211101 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220128 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220523 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220921 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20220921 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20221006 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20221011 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20221209 |
|
C211 | Notice of termination of reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C211 Effective date: 20221219 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20230104 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20230327 |