JP6743425B2 - 音信号処理方法および音信号処理装置 - Google Patents
音信号処理方法および音信号処理装置 Download PDFInfo
- Publication number
- JP6743425B2 JP6743425B2 JP2016043219A JP2016043219A JP6743425B2 JP 6743425 B2 JP6743425 B2 JP 6743425B2 JP 2016043219 A JP2016043219 A JP 2016043219A JP 2016043219 A JP2016043219 A JP 2016043219A JP 6743425 B2 JP6743425 B2 JP 6743425B2
- Authority
- JP
- Japan
- Prior art keywords
- sound signal
- similarity
- unit
- input sound
- matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000005236 sound signal Effects 0.000 title claims description 131
- 238000003672 processing method Methods 0.000 title claims description 4
- 238000004364 calculation method Methods 0.000 claims description 94
- 239000011159 matrix material Substances 0.000 claims description 88
- 238000001228 spectrum Methods 0.000 claims description 62
- 230000033764 rhythmic process Effects 0.000 claims description 47
- 230000004913 activation Effects 0.000 description 32
- 230000010365 information processing Effects 0.000 description 27
- 238000000034 method Methods 0.000 description 24
- 239000013598 vector Substances 0.000 description 24
- 230000008569 process Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 13
- 238000004458 analytical method Methods 0.000 description 12
- 230000010354 integration Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 230000001186 cumulative effect Effects 0.000 description 5
- 230000003595 spectral effect Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 241001342895 Chorus Species 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- HAORKNGNJCEJBX-UHFFFAOYSA-N cyprodinil Chemical compound N=1C(C)=CC(C2CC2)=NC=1NC1=CC=CC=C1 HAORKNGNJCEJBX-UHFFFAOYSA-N 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 230000035559 beat frequency Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 1
- 229940050561 matrix product Drugs 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001020 rhythmical effect Effects 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000010183 spectrum analysis Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
- G10H1/40—Rhythm
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10G—REPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
- G10G3/00—Recording music in notation form, e.g. recording the mechanical operation of a musical instrument
- G10G3/04—Recording music in notation form, e.g. recording the mechanical operation of a musical instrument using electrical means
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/54—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for retrieval
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/051—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction or detection of onsets of musical sounds or notes, i.e. note attack timings
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/061—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of musical phrases, isolation of musically relevant segments, e.g. musical thumbnail generation, or for temporal structure analysis of a musical piece, e.g. determination of the movement sequence of a musical work
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/071—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for rhythm pattern analysis or rhythm style recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/076—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of timing, tempo; Beat detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/121—Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
- G10H2240/131—Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
- G10H2240/141—Library retrieval matching, i.e. any of the steps of matching an inputted segment or phrase with musical database contents, e.g. query by humming, singing or playing; the steps may include, e.g. musical analysis of the input, musical feature extraction, query formulation, or details of the retrieval process
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Auxiliary Devices For Music (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
図1は、一実施形態に係る楽曲検索システム1の機能構成を例示する図である。楽曲検索システム1は、複数の楽曲データをあらかじめ記憶している。処理対象となる楽曲(検索キーとなる楽曲)の音の入力が受け付けられると(以下、この音を「入力音」といい、入力音を示す信号を「入力音信号」という)、楽曲検索システム1は、記憶している楽曲の中から、入力音と類似している楽曲を検索する。
2−1.概要
図8は、楽曲検索システム1の動作の概要を示すフローチャートである。図8のフローは、例えば、ユーザーが楽曲の検索開始の指示を入力したことを契機として開始される。ステップS1において、取得手段11は、入力音信号を取得する。ステップS2において、特定手段12は、対象区間特定処理を行う。ステップS3において、類似度計算手段13は、NMFによる類似度計算を行う。ステップS4において、類似度計算手段15は、ビートスペクトルによる類似度計算を行う。ステップS5において、統合手段16は、NMFによる類似度およびビートスペクトルによる類似度を統合する。ステップS6において、選択手段17は、統合された類似度に基づいて楽曲を選択する。ステップS7において、出力手段18は、選択された楽曲を出力する。すなわち、出力手段18は、入力音に似た伴奏音を出力する。以下、各処理の詳細を説明する。
ステップS3およびS4における類似度の計算は、入力音信号の全体を対象に行われてもよい。しかし、入力音信号の全体を対象とすると、以下の問題点がある。まず第1に、入力音信号の全体を対象とすると、計算にその分の時間を要する点である。第2に、入力音信号のうち、いわゆるイントロやアウトロ(エンディング)にはリズムが無い箇所が含まれている場合があり、このような部分まで含めて類似度を計算すると、類似度の信頼性が低下してしまうという点である。本実施形態においては、この点に対処するため、入力音信号のうち類似度計算の対象となる部分を一部に限っている。
次に、ステップS3におけるNMFによる類似度計算について説明する。類似度計算の詳細を説明する前に、まずNMFの概要について説明する。NMFとは、非負値の行列を2つの非負値の行列の積に分解する低ランク近似アルゴリズムである。非負値行列とは、その成分が全て非負値(すなわちゼロまたは正値)である行列をいう。一般にNMFは次式(1)で表される。
図16は、ステップS4におけるビートスペクトルによる類似度計算の詳細を例示するフローチャートである。ビートスペクトルとは、スペクトル上の繰り返しパターンを捉えた特徴量であり、何らかのスペクトログラム的な特徴量の時間領域の自己相関により計算される。この例では、スペクトル差分の自己相関により計算される。
ステップS5における類似度の統合は、詳細には以下のように行われる。この例では、NMFにより2つの類似度(音色類似度およびリズム類似度)が、ビートスペクトルにより1つの類似度(リズム類似度)が得られている。これらの類似度は、共通のスケールに正規化されている(例えば、類似度最低がゼロ、類似度最高が1)。
Di=2・DtN+DrN+Drb …(3)
ここで、DtNおよびDrNはNMFにより得られた音色類似度およびリズム類似度を、Drbはビートスペクトルにより得られたリズム類似度を、それぞれ示している。この例によれば、NMFによる類似度とビートスペクトルによる類似度とが同じ重みで評価される。統合された類似度は、複数の伴奏データの各々について計算される。
本発明は上述の実施形態に限定されるものではなく種々の変形実施が可能である。以下、変形例をいくつか説明する。以下の変形例のうち2つ以上のものが組み合わせて用いられてもよい。
Claims (3)
- 入力音信号を取得するステップと、
前記入力音信号から単位時間あたりのビート数を取得するステップと、
前記入力音信号を前記単位時間あたりのビート数で正規化するステップと、
前記正規化された入力音信号のビートスペクトルを計算するステップと、
前記正規化された入力音信号のビートスペクトルと、参照音信号から計算された正規化されたビートスペクトルとのリズム類似度を計算するステップと
を有する音信号処理方法。 - 非負値行列因子分解を用いて、前記入力音信号と前記参照音信号との第2類似度を計算するステップと、
前記リズム類似度および前記第2類似度を統合するステップと
を有する請求項1に記載の音信号処理方法。 - 入力音信号を取得する取得手段と、
前記入力音信号から単位時間あたりのビート数を取得するBPM取得手段と、
前記入力音信号を前記単位時間あたりのビート数で正規化する正規化手段と、
前記正規化された入力音信号のビートスペクトルを計算するBS計算手段と、
前記正規化された入力音信号のビートスペクトルと、参照音信号から計算された正規化されたビートスペクトルとを比較し、リズム類似度を計算するリズム類似度計算手段と
を有する音信号処理装置。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016043219A JP6743425B2 (ja) | 2016-03-07 | 2016-03-07 | 音信号処理方法および音信号処理装置 |
PCT/JP2017/009074 WO2017154928A1 (ja) | 2016-03-07 | 2017-03-07 | 音信号処理方法および音信号処理装置 |
US16/123,478 US10297241B2 (en) | 2016-03-07 | 2018-09-06 | Sound signal processing method and sound signal processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016043219A JP6743425B2 (ja) | 2016-03-07 | 2016-03-07 | 音信号処理方法および音信号処理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017161574A JP2017161574A (ja) | 2017-09-14 |
JP6743425B2 true JP6743425B2 (ja) | 2020-08-19 |
Family
ID=59789464
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016043219A Active JP6743425B2 (ja) | 2016-03-07 | 2016-03-07 | 音信号処理方法および音信号処理装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10297241B2 (ja) |
JP (1) | JP6743425B2 (ja) |
WO (1) | WO2017154928A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10586519B2 (en) * | 2018-02-09 | 2020-03-10 | Yamaha Corporation | Chord estimation method and chord estimation apparatus |
JP7266390B2 (ja) * | 2018-11-20 | 2023-04-28 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 行動識別方法、行動識別装置、行動識別プログラム、機械学習方法、機械学習装置及び機械学習プログラム |
DE112020002116T5 (de) * | 2019-04-26 | 2022-01-27 | Sony Group Corporation | Informationsverarbeitungsvorrichtung und Verfahren und Programm |
US10607500B1 (en) * | 2019-05-21 | 2020-03-31 | International Business Machines Corporation | Providing background music tempo to accompany procedural instructions |
WO2021059473A1 (ja) * | 2019-09-27 | 2021-04-01 | ヤマハ株式会社 | 音響解析方法、音響解析装置およびプログラム |
CN112466267B (zh) * | 2020-11-24 | 2024-04-02 | 瑞声新能源发展(常州)有限公司科教城分公司 | 振动生成方法、振动控制方法及其相关设备 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6542869B1 (en) * | 2000-05-11 | 2003-04-01 | Fuji Xerox Co., Ltd. | Method for automatic analysis of audio including music and speech |
US20030205124A1 (en) * | 2002-05-01 | 2003-11-06 | Foote Jonathan T. | Method and system for retrieving and sequencing music by rhythmic similarity |
US7812241B2 (en) * | 2006-09-27 | 2010-10-12 | The Trustees Of Columbia University In The City Of New York | Methods and systems for identifying similar songs |
JP4916947B2 (ja) * | 2007-05-01 | 2012-04-18 | 株式会社河合楽器製作所 | リズム検出装置及びリズム検出用コンピュータ・プログラム |
JP5560861B2 (ja) | 2010-04-07 | 2014-07-30 | ヤマハ株式会社 | 楽曲解析装置 |
US9093056B2 (en) * | 2011-09-13 | 2015-07-28 | Northwestern University | Audio separation system and method |
JP5962218B2 (ja) * | 2012-05-30 | 2016-08-03 | 株式会社Jvcケンウッド | 曲順決定装置、曲順決定方法、および曲順決定プログラム |
US9449646B2 (en) * | 2013-06-10 | 2016-09-20 | Htc Corporation | Methods and systems for media file management |
JP6197569B2 (ja) | 2013-10-17 | 2017-09-20 | ヤマハ株式会社 | 音響解析装置 |
JP6252147B2 (ja) | 2013-12-09 | 2017-12-27 | ヤマハ株式会社 | 音響信号分析装置及び音響信号分析プログラム |
-
2016
- 2016-03-07 JP JP2016043219A patent/JP6743425B2/ja active Active
-
2017
- 2017-03-07 WO PCT/JP2017/009074 patent/WO2017154928A1/ja active Application Filing
-
2018
- 2018-09-06 US US16/123,478 patent/US10297241B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017161574A (ja) | 2017-09-14 |
WO2017154928A1 (ja) | 2017-09-14 |
US10297241B2 (en) | 2019-05-21 |
US20190005935A1 (en) | 2019-01-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6743425B2 (ja) | 音信号処理方法および音信号処理装置 | |
US7273978B2 (en) | Device and method for characterizing a tone signal | |
JP4465626B2 (ja) | 情報処理装置および方法、並びにプログラム | |
Mauch et al. | Approximate Note Transcription for the Improved Identification of Difficult Chords. | |
CN104217729A (zh) | 音频处理方法和音频处理装置以及训练方法 | |
Miron et al. | Monaural score-informed source separation for classical music using convolutional neural networks | |
JP4613923B2 (ja) | 楽音処理装置およびプログラム | |
Oudre et al. | Chord recognition by fitting rescaled chroma vectors to chord templates | |
JP2008502928A (ja) | テスト信号に内在する和音の種類を決定するための装置および方法 | |
Osmalsky et al. | Neural networks for musical chords recognition | |
JP2012506061A (ja) | デジタル音楽音響信号の分析方法 | |
Cogliati et al. | Piano music transcription modeling note temporal evolution | |
JP6565528B2 (ja) | 自動アレンジ装置及びプログラム | |
JP2019200427A (ja) | 自動アレンジ方法 | |
JP2017161572A (ja) | 音信号処理方法および音信号処理装置 | |
Klapuri | Pattern induction and matching in music signals | |
JP7375302B2 (ja) | 音響解析方法、音響解析装置およびプログラム | |
Laroche et al. | Hybrid projective nonnegative matrix factorization with drum dictionaries for harmonic/percussive source separation | |
CN116710998A (zh) | 信息处理系统、电子乐器、信息处理方法及程序 | |
JP4926044B2 (ja) | 音信号の特徴を記述する装置および方法 | |
JP2017161573A (ja) | 音信号処理方法および音信号処理装置 | |
Özaslan et al. | Identifying attack articulations in classical guitar | |
Abeßer et al. | Genre Classification Using Bass-Related High-Level Features and Playing Styles. | |
Shibata et al. | Joint transcription of lead, bass, and rhythm guitars based on a factorial hidden semi-Markov model | |
JP6565529B2 (ja) | 自動アレンジ装置及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190124 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191210 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200630 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200713 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6743425 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |