JP5275102B2 - 音声合成装置及び音声合成方法 - Google Patents
音声合成装置及び音声合成方法 Download PDFInfo
- Publication number
- JP5275102B2 JP5275102B2 JP2009074707A JP2009074707A JP5275102B2 JP 5275102 B2 JP5275102 B2 JP 5275102B2 JP 2009074707 A JP2009074707 A JP 2009074707A JP 2009074707 A JP2009074707 A JP 2009074707A JP 5275102 B2 JP5275102 B2 JP 5275102B2
- Authority
- JP
- Japan
- Prior art keywords
- speaker
- formant
- speech
- unit
- interpolated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/06—Elementary speech units used in speech synthesisers; Concatenation rules
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/033—Voice editing, e.g. manipulating the voice of the synthesiser
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/097—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters using prototype waveform decomposition or prototype waveform interpolative [PWI] coders
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/003—Changing voice quality, e.g. pitch or formants
- G10L21/007—Changing voice quality, e.g. pitch or formants characterised by the process used
- G10L21/013—Adapting to target pitch
- G10L2021/0135—Voice conversion or morphing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/15—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being formant information
Description
(第1の実施形態)
図1に示すように、本発明の第1の実施形態に係る音声合成装置は、有声音生成部01、無声音生成部02及び加算部101を有する。
無声音生成部02は、音韻継続時間長007及び音韻記号列008に基づき無声音信号004を生成し、加算部101に入力する。例えば、無声音生成部02は、音韻記号列008に含まれる音素が無声子音または有声摩擦音を示す場合に、当該音素に相当する無声音信号004を生成する。無声音生成部02の具体的構成は特に限定されないが、例えばLPC合成フィルタを白色雑音で駆動する構成を適用可能であるし、その他の既存の構成が単独で或いは組み合わされて適用されてもよい。
ピッチ波形生成部04は、最大M(Mは2以上の整数)人分の話者パラメータに基づく補間話者のピッチ波形001を生成することができる。具体的には、図3に示すように、ピッチ波形生成部04は、M個の話者パラメータ記憶部411,・・・,41M、話者パラメータ選択部42、ホルマントマッピング部43、補間話者パラメータ44、NI(NIの具体的値は後述する)個の正弦波生成部451,…,45NI、NI個の乗算部2001,・・・200NI及び加算部102を含む。
ここでは、ホルマント同士を対応付けるためのコストとしてホルマント周波数及びホルマントパワーの差分に注目する。例えば、話者パラメータ選択部42が話者Xの話者パラメータ42X及び話者Yの話者パラメータ42Yを選択したとする。話者パラメータ42XにはNx個のホルマントが含まれ、話者パラメータ42YにはNy個のホルマントが含まれている。尚、Nx及びNyの値は同じでもよいし異なってもよい。このとき、話者Xの第x番目(即ち、ホルマントID=x)のホルマントと、話者Yの第y番目のホルマント(即ち、ホルマントID=y)のホルマントとを対応付けるコストCXY(x,y)は、次の数式(2)で算出することができる。
補間話者パラメータ生成部44は、話者パラメータ421,・・・,42Mに含まれるホルマント周波数、ホルマント位相、ホルマントパワー及び窓関数を所定の補間比率を用いて補間することにより、補間話者パラメータを生成する。ここでの説明において、補間話者パラメータ生成部44は、話者Xの話者パラメータ42Xと話者Yの話者パラメータ42Yを補間比率sX及びsYを夫々用いて補間するものとする。尚、補間比率sX及びsYは次の数式(5)を満たす。
前述した第1の実施形態に係る音声合成装置において、補間話者パラメータ生成部44は、ホルマントマッピング部43による対応付けに成功したホルマントに関して補間話者パラメータを生成している。一方、本発明の第2の実施形態に係る音声合成装置における補間話者パラメータ生成部44は、ホルマントマッピング部43による対応付けに失敗した(即ち、他の話者パラメータのいずれのホルマントとも対応付けられていない)ホルマントも上記補間話者パラメータへ挿入して利用する。
ステップS450の処理が開始すると、補間話者パラメータ生成部44は変数mに「1」を代入し、処理はステップS452に進む(ステップS451)。ここで、変数mは、処理対象となる話者パラメータを識別する話者IDを指定するための変数である。以下の説明において、話者IDは、話者パラメータ記憶部411,・・・,41Mの各々に付与される1以上M以下の互いに異なる整数とするが、これに限られるものでない。
本発明の第3の実施形態に係る音声合成装置は、前述した第1または第2の実施形態に係る音声合成装置におけるピッチ波形生成部04の構成を変更することにより実現される。図16に示すように、本実施形態に係る音声合成装置におけるピッチ波形生成部04は、周期成分ピッチ波形生成部06、非周期成分ピッチ波形生成部07及び加算部103を有する。
非周期成分音声素片選択部72は、ピッチパターン006、音韻継続時間長007及び音韻記号列008に基づいて、非周期成分音声素片記憶部711,・・・,71Mに記憶されている非周期成分ピッチ波形から夫々1フレーム分の非周期成分ピッチ波形721,・・・,72Mを選択して読み出す。非周期成分音声素片選択部72は、非周期成分ピッチ波形721,・・・,72Mを非周期成分音声素片補間部73に入力する。
前述した第1乃至第3の実施形態に係る音声合成装置において、ホルマントマッピング部43は、コスト関数として数式(2)を利用している。一方、本発明の第4の実施形態に係る音声合成装置において、ホルマントマッピング部43は、異なるコスト関数を利用する。
前述した第1乃至第4の実施形態に係る音声合成装置において、ホルマントマッピング部43は、コスト関数として数式(2)または数式(17)を利用している。一方、本発明の第5の実施形態に係る音声合成装置において、ホルマントマッピング部43は、異なるコスト関数を利用する。
本発明の第6の実施形態に係る音声合成装置は、前述した第1乃至第5の実施形態に従って合成する補間話者の音声を、特定の目標話者の音声に近づける最適補間比率921を最適補間比率算出部09の作用によって算出する。図22に示すように、最適補間比率算出部09は、補間話者ピッチ波形生成部90、目標話者ピッチ波形生成部91及び最適補間重み算出部92を有する。
421〜42M・・・話者パラメータ
43・・・ホルマントマッピング部
44・・・補間話者パラメータ生成部
Claims (9)
- 話者の音声に相当するピッチ波形毎に用意され、各ピッチ波形に含まれる複数のホルマントの各々に関するホルマント周波数、ホルマント位相、ホルマントパワー及び窓関数を含む話者パラメータを、話者毎に1つずつ選択して複数の話者パラメータを得る選択部と、
前記ホルマント周波数及び前記ホルマントパワーに基づくコスト関数を利用して前記複数の話者パラメータの間でホルマント同士の対応付けを行うマッピング部と、
前記マッピング部によって互いに対応付けられているホルマント同士でホルマント周波数、ホルマント位相、ホルマントパワー及び窓関数を所望の補間比率に従って補間して補間話者パラメータを生成する生成部と、
前記補間話者パラメータを用いて、前記補間比率に基づく補間話者の音声に相当するピッチ波形を合成する合成部と
を具備することを特徴とする音声合成装置。 - 前記コスト関数は、前記ホルマント周波数の差分及び前記ホルマントパワーの差分の重み付き和であることを特徴とする請求項1記載の音声合成装置。
- 前記生成部は、前記マッピング部によって対応付けられていないホルマントに関するホルマント周波数、ホルマント位相、ホルマントパワー及び窓関数を前記補間話者パラメータに挿入することを特徴とする請求項1記載の音声合成装置。
- 前記話者パラメータは、話者の音声の周期成分に相当するピッチ波形毎に用意され、
前記合成部は、前記補間話者パラメータを用いて、前記補間話者の音声の周期成分に相当するピッチ波形を合成し、
話者の音声の非周期成分に相当する各ピッチ波形から、話者毎に1つずつ選択して複数のピッチ波形を得る第2の選択部と、
前記複数のピッチ波形を前記補間比率に従って補間して前記補間話者の音声の非周期成分に相当するピッチ波形を生成する第2の生成部と、
前記補間話者の音声の周期成分に相当するピッチ波形及び前記補間話者の音声の非周期成分に相当するピッチ波形を合成して、前記補間話者の音声に相当するピッチ波形を得る第2の合成部と
を更に具備することを特徴とする請求項1記載の音声合成装置。 - 前記マッピング部は、話者間の声道長の差異を補償するための関数を前記ホルマント周波数に適用したうえで前記コスト関数を利用して前記複数の話者パラメータの間でホルマント同士の対応付けを行うことを特徴とする請求項1記載の音声合成装置。
- 前記マッピング部は、話者間のパワーの差異を補償するための関数を前記ホルマントパワーに適用したうえで前記コスト関数を利用して前記複数の話者パラメータの間でホルマント同士の対応付けを行うことを特徴とする請求項1記載の音声合成装置。
- 目標話者の音声に相当するピッチ波形を生成する第3の生成部と、
前記目標話者の音声に相当するピッチ波形に前記補間話者の音声に相当するピッチ波形を近づけるフィードバック制御を前記補間比率に対して行って、前記複数の話者パラメータに基づき前記目標話者の音声を得るための最適補間比率を算出する算出部と
を更に具備することを特徴とする請求項1記載の音声合成装置。 - コンピュータを、
話者の音声に相当するピッチ波形毎に用意され、各ピッチ波形に含まれる複数のホルマントの各々に関するホルマント周波数、ホルマント位相、ホルマントパワー及び窓関数を含む話者パラメータを、話者毎に1つずつ選択して複数の話者パラメータを得る選択手段、
前記ホルマント周波数及び前記ホルマントパワーに基づくコスト関数を利用して前記複数の話者パラメータの間でホルマント同士の対応付けを行うマッピング手段、
前記マッピング手段によって互いに対応付けられているホルマント同士でホルマント周波数、ホルマント位相、ホルマントパワー及び窓関数を所望の補間比率に従って補間して補間話者パラメータを生成する生成手段、
前記補間話者パラメータを用いて、前記補間比率に基づく補間話者の音声に相当するピッチ波形を合成する合成手段
として機能させるための音声合成プログラム。 - 選択部が、話者の音声に相当するピッチ波形毎に用意され、各ピッチ波形に含まれる複数のホルマントの各々に関するホルマント周波数、ホルマント位相、ホルマントパワー及び窓関数を含む話者パラメータを、話者毎に1つずつ選択して複数の話者パラメータを得ることと、
マッピング部が、前記ホルマント周波数及び前記ホルマントパワーに基づくコスト関数を利用して前記複数の話者パラメータの間でホルマント同士の対応付けを行うことと、
生成部が、前記マッピング部によって互いに対応付けられているホルマント同士でホルマント周波数、ホルマント位相、ホルマントパワー及び窓関数を所望の補間比率に従って補間して補間話者パラメータを生成することと、
合成部が、前記補間話者パラメータを用いて、前記補間比率に基づく補間話者の音声に相当するピッチ波形を合成することと
を具備することを特徴とする音声合成方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009074707A JP5275102B2 (ja) | 2009-03-25 | 2009-03-25 | 音声合成装置及び音声合成方法 |
PCT/JP2010/054250 WO2010110095A1 (ja) | 2009-03-25 | 2010-03-12 | 音声合成装置及び音声合成方法 |
US12/970,162 US9002711B2 (en) | 2009-03-25 | 2010-12-16 | Speech synthesis apparatus and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009074707A JP5275102B2 (ja) | 2009-03-25 | 2009-03-25 | 音声合成装置及び音声合成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010224498A JP2010224498A (ja) | 2010-10-07 |
JP5275102B2 true JP5275102B2 (ja) | 2013-08-28 |
Family
ID=42780788
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009074707A Active JP5275102B2 (ja) | 2009-03-25 | 2009-03-25 | 音声合成装置及び音声合成方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9002711B2 (ja) |
JP (1) | JP5275102B2 (ja) |
WO (1) | WO2010110095A1 (ja) |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8744853B2 (en) | 2009-05-28 | 2014-06-03 | International Business Machines Corporation | Speaker-adaptive synthesized voice |
FR2961938B1 (fr) * | 2010-06-25 | 2013-03-01 | Inst Nat Rech Inf Automat | Synthetiseur numerique audio ameliore |
WO2013016573A1 (en) | 2011-07-26 | 2013-01-31 | Glysens Incorporated | Tissue implantable sensor with hermetically sealed housing |
US10660550B2 (en) | 2015-12-29 | 2020-05-26 | Glysens Incorporated | Implantable sensor apparatus and methods |
US10561353B2 (en) | 2016-06-01 | 2020-02-18 | Glysens Incorporated | Biocompatible implantable sensor apparatus and methods |
JP6048726B2 (ja) | 2012-08-16 | 2016-12-21 | トヨタ自動車株式会社 | リチウム二次電池およびその製造方法 |
JP5726822B2 (ja) * | 2012-08-16 | 2015-06-03 | 株式会社東芝 | 音声合成装置、方法及びプログラム |
JP6286946B2 (ja) * | 2013-08-29 | 2018-03-07 | ヤマハ株式会社 | 音声合成装置および音声合成方法 |
JP6271748B2 (ja) * | 2014-09-17 | 2018-01-31 | 株式会社東芝 | 音声処理装置、音声処理方法及びプログラム |
US10638962B2 (en) | 2016-06-29 | 2020-05-05 | Glysens Incorporated | Bio-adaptable implantable sensor apparatus and methods |
US10872598B2 (en) * | 2017-02-24 | 2020-12-22 | Baidu Usa Llc | Systems and methods for real-time neural text-to-speech |
US10896669B2 (en) | 2017-05-19 | 2021-01-19 | Baidu Usa Llc | Systems and methods for multi-speaker neural text-to-speech |
US10638979B2 (en) | 2017-07-10 | 2020-05-05 | Glysens Incorporated | Analyte sensor data evaluation and error reduction apparatus and methods |
US20190019500A1 (en) * | 2017-07-13 | 2019-01-17 | Electronics And Telecommunications Research Institute | Apparatus for deep learning based text-to-speech synthesizing by using multi-speaker data and method for the same |
US10796686B2 (en) | 2017-10-19 | 2020-10-06 | Baidu Usa Llc | Systems and methods for neural text-to-speech using convolutional sequence learning |
US10872596B2 (en) | 2017-10-19 | 2020-12-22 | Baidu Usa Llc | Systems and methods for parallel wave generation in end-to-end text-to-speech |
US11017761B2 (en) | 2017-10-19 | 2021-05-25 | Baidu Usa Llc | Parallel neural text-to-speech |
US11278668B2 (en) | 2017-12-22 | 2022-03-22 | Glysens Incorporated | Analyte sensor and medicant delivery data evaluation and error reduction apparatus and methods |
US11255839B2 (en) | 2018-01-04 | 2022-02-22 | Glysens Incorporated | Apparatus and methods for analyte sensor mismatch correction |
CN109147805B (zh) * | 2018-06-05 | 2021-03-02 | 安克创新科技股份有限公司 | 基于深度学习的音频音质增强 |
US10810993B2 (en) * | 2018-10-26 | 2020-10-20 | Deepmind Technologies Limited | Sample-efficient adaptive text-to-speech |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2951514B2 (ja) * | 1993-10-04 | 1999-09-20 | 株式会社エイ・ティ・アール音声翻訳通信研究所 | 声質制御型音声合成装置 |
US6366883B1 (en) * | 1996-05-15 | 2002-04-02 | Atr Interpreting Telecommunications | Concatenation of speech segments by use of a speech synthesizer |
US6442519B1 (en) * | 1999-11-10 | 2002-08-27 | International Business Machines Corp. | Speaker model adaptation via network of similar users |
US6970820B2 (en) * | 2001-02-26 | 2005-11-29 | Matsushita Electric Industrial Co., Ltd. | Voice personalization of speech synthesizer |
US7251601B2 (en) * | 2001-03-26 | 2007-07-31 | Kabushiki Kaisha Toshiba | Speech synthesis method and speech synthesizer |
JP3732793B2 (ja) * | 2001-03-26 | 2006-01-11 | 株式会社東芝 | 音声合成方法、音声合成装置及び記録媒体 |
JP2003295882A (ja) * | 2002-04-02 | 2003-10-15 | Canon Inc | 音声合成用テキスト構造、音声合成方法、音声合成装置及びそのコンピュータ・プログラム |
JP3881970B2 (ja) * | 2003-07-25 | 2007-02-14 | 株式会社国際電気通信基礎技術研究所 | 知覚試験用音声データセット作成装置、コンピュータプログラム、音声合成用サブコスト関数の最適化装置、及び音声合成装置 |
US7567896B2 (en) * | 2004-01-16 | 2009-07-28 | Nuance Communications, Inc. | Corpus-based speech synthesis based on segment recombination |
US7716052B2 (en) * | 2005-04-07 | 2010-05-11 | Nuance Communications, Inc. | Method, apparatus and computer program providing a multi-speaker database for concatenative text-to-speech synthesis |
US20060259303A1 (en) * | 2005-05-12 | 2006-11-16 | Raimo Bakis | Systems and methods for pitch smoothing for text-to-speech synthesis |
JP4738057B2 (ja) * | 2005-05-24 | 2011-08-03 | 株式会社東芝 | ピッチパターン生成方法及びその装置 |
CN101622659B (zh) * | 2007-06-06 | 2012-02-22 | 松下电器产业株式会社 | 音质编辑装置及音质编辑方法 |
US8321222B2 (en) * | 2007-08-14 | 2012-11-27 | Nuance Communications, Inc. | Synthesis by generation and concatenation of multi-form segments |
JP5159325B2 (ja) * | 2008-01-09 | 2013-03-06 | 株式会社東芝 | 音声処理装置及びそのプログラム |
JP2009216723A (ja) * | 2008-03-06 | 2009-09-24 | Advanced Telecommunication Research Institute International | 類似音声選択装置、音声生成装置及びコンピュータプログラム |
JP2010128103A (ja) * | 2008-11-26 | 2010-06-10 | Nippon Telegr & Teleph Corp <Ntt> | 音声合成装置、音声合成方法、および音声合成プログラム |
-
2009
- 2009-03-25 JP JP2009074707A patent/JP5275102B2/ja active Active
-
2010
- 2010-03-12 WO PCT/JP2010/054250 patent/WO2010110095A1/ja active Application Filing
- 2010-12-16 US US12/970,162 patent/US9002711B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
US9002711B2 (en) | 2015-04-07 |
JP2010224498A (ja) | 2010-10-07 |
WO2010110095A1 (ja) | 2010-09-30 |
US20110087488A1 (en) | 2011-04-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5275102B2 (ja) | 音声合成装置及び音声合成方法 | |
JP4246792B2 (ja) | 声質変換装置および声質変換方法 | |
JP3913770B2 (ja) | 音声合成装置および方法 | |
JP4966048B2 (ja) | 声質変換装置及び音声合成装置 | |
CN107924686B (zh) | 语音处理装置、语音处理方法以及存储介质 | |
US10529314B2 (en) | Speech synthesizer, and speech synthesis method and computer program product utilizing multiple-acoustic feature parameters selection | |
JP5159325B2 (ja) | 音声処理装置及びそのプログラム | |
WO2018084305A1 (ja) | 音声合成方法 | |
US20130151256A1 (en) | System and method for singing synthesis capable of reflecting timbre changes | |
JP2009047837A (ja) | 音声合成方法及びその装置 | |
WO2018003849A1 (ja) | 音声合成装置および音声合成方法 | |
JP2010014913A (ja) | 声質変換音声生成装置および声質変換音声生成システム | |
JP3732793B2 (ja) | 音声合成方法、音声合成装置及び記録媒体 | |
JP6347536B2 (ja) | 音合成方法及び音合成装置 | |
JP2018077283A (ja) | 音声合成方法 | |
US20090326951A1 (en) | Speech synthesizing apparatus and method thereof | |
JP2009133890A (ja) | 音声合成装置及びその方法 | |
Lee et al. | A comparative study of spectral transformation techniques for singing voice synthesis | |
WO2012032748A1 (ja) | 音声合成装置、音声合成方法及び音声合成プログラム | |
JPH09319391A (ja) | 音声合成方法 | |
JP2010078808A (ja) | 音声合成装置及び方法 | |
JP6683103B2 (ja) | 音声合成方法 | |
JP2018077281A (ja) | 音声合成方法 | |
JP2010224053A (ja) | 音声合成装置、音声合成方法、プログラム及び記録媒体 | |
JP2010008922A (ja) | 音声処理装置、音声処理方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110323 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130423 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130515 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5275102 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313114 Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |