JP2016136251A - 音楽コンテンツ及びリアルタイム音楽伴奏の自動採譜 - Google Patents
音楽コンテンツ及びリアルタイム音楽伴奏の自動採譜 Download PDFInfo
- Publication number
- JP2016136251A JP2016136251A JP2016006938A JP2016006938A JP2016136251A JP 2016136251 A JP2016136251 A JP 2016136251A JP 2016006938 A JP2016006938 A JP 2016006938A JP 2016006938 A JP2016006938 A JP 2016006938A JP 2016136251 A JP2016136251 A JP 2016136251A
- Authority
- JP
- Japan
- Prior art keywords
- music
- audio signal
- notation
- notations
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013518 transcription Methods 0.000 title claims abstract description 61
- 230000035897 transcription Effects 0.000 title claims abstract description 61
- 230000005236 sound signal Effects 0.000 claims abstract description 228
- 238000000034 method Methods 0.000 claims abstract description 96
- 238000012545 processing Methods 0.000 claims abstract description 33
- 230000000295 complement effect Effects 0.000 claims description 80
- 238000003860 storage Methods 0.000 claims description 28
- 230000014509 gene expression Effects 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 12
- 230000006978 adaptation Effects 0.000 claims description 3
- 238000004458 analytical method Methods 0.000 description 49
- 238000000605 extraction Methods 0.000 description 20
- 230000006870 function Effects 0.000 description 20
- 239000011295 pitch Substances 0.000 description 17
- 230000033764 rhythmic process Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 11
- 230000007704 transition Effects 0.000 description 10
- 230000000007 visual effect Effects 0.000 description 9
- 239000000203 mixture Substances 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 6
- 238000001514 detection method Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000012512 characterization method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 239000002184 metal Substances 0.000 description 3
- 229910052751 metal Inorganic materials 0.000 description 3
- 230000001755 vocal effect Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 238000007639 printing Methods 0.000 description 2
- 238000010223 real-time analysis Methods 0.000 description 2
- 238000011524 similarity measure Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 208000003443 Unconsciousness Diseases 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- ZOMSMJKLGFBRBS-UHFFFAOYSA-N bentazone Chemical compound C1=CC=C2NS(=O)(=O)N(C(C)C)C(=O)C2=C1 ZOMSMJKLGFBRBS-UHFFFAOYSA-N 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000007562 laser obscuration time method Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000004451 qualitative analysis Methods 0.000 description 1
- 238000004445 quantitative analysis Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000010561 standard procedure Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000026676 system process Effects 0.000 description 1
- 238000012384 transportation and delivery Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10G—REPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
- G10G1/00—Means for the representation of music
- G10G1/04—Transposing; Transcribing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10G—REPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
- G10G3/00—Recording music in notation form, e.g. recording the mechanical operation of a musical instrument
- G10G3/04—Recording music in notation form, e.g. recording the mechanical operation of a musical instrument using electrical means
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
- G10H1/0025—Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
- G10H1/40—Rhythm
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/066—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for pitch analysis as part of wider processing for musical purposes, e.g. transcription, musical performance evaluation; Pitch recognition, e.g. in polyphonic sounds; Estimation or use of missing fundamental
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/071—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for rhythm pattern analysis or rhythm style recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/086—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for transcription of raw audio or music data to a displayed or printed staff representation or to displayable MIDI-like note-oriented data, e.g. in pianoroll format
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/091—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for performance evaluation, i.e. judging, grading or scoring the musical qualities or faithfulness of a performance, e.g. with respect to pitch, tempo or other timings of a reference performance
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/005—Non-interactive screen display of musical or status data
- G10H2220/015—Musical staff, tablature or score displays, e.g. for score reading during a performance.
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/091—Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
- G10H2220/101—Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters
- G10H2220/126—Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters for graphical editing of individual notes, parts or phrases represented as variable length segments on a 2D or 3D representation, e.g. graphical edition of musical collage, remix files or pianoroll representations of MIDI-like files
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/075—Musical metadata derived from musical analysis or for use in electrophonic musical instruments
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Auxiliary Devices For Music (AREA)
- Electrophonic Musical Instruments (AREA)
Abstract
Description
本出願は、2015年1月20日に出願された合衆国予備特許出願第62/105,521号の利益を請求するものであり、その出願の開示が本出願における参照により全部にわたって一体化されるものである。
本特許出願において開示された態様は、一般的に信号処理に関し、より具体的に音声信号に含まれている音楽コンテンツの処理を含んでいる様々な用途に関するものである。
例えば、本願発明は以下の項目を提供する。
(項目1)
コンピューティング装置によって受信された音声信号に含まれる音楽コンテンツの自動採譜を実行する方法であって、上記方法は、
上記音楽コンテンツの少なくとも一部を特徴付ける音楽情報を抽出するために上記コンピューティング装置を使用して上記受信された音声信号を処理すること、
上記コンピューティング装置を使用して上記抽出された音楽情報について選択的に音楽的解釈を表示する複数の音楽表記を生成すること、及び、
上記受信された音声信号の上記音楽コンテンツを採譜するために上記複数の音楽表記の選択された1つを適用すること、
を備える上記方法。
(項目2)
更に、上記複数の音楽表記を上記コンピューティング装置のエンドユーザに提示すること、を備え、
上記複数の音楽表記の1つを選択することは、上記コンピューティング装置に結合された入力装置を使用して上記エンドユーザによって行われる上記項目に記載の上記方法。
(項目3)
上記複数の音楽表記から選択的音楽表記を上記コンピューティング装置のエンドユーザに提示すること、及び、
上記コンピューティング装置によって入力装置を介して上記選択的音楽表記を選択すること、
を備える上記項目のいずれか一項に記載の上記方法。
(項目4)
上記選択的音楽表記は、半時間表記及び倍時間表記の1つに対応する上記項目のいずれか一項に記載の上記方法。
(項目5)
上記選択的音楽表記は、4/4表記及び3/4表記の1つに対応する上記項目のいずれか一項に記載の上記方法。
(項目6)
上記選択的音楽表記はストレート時間及びスイング時間の1つである上記項目のいずれか一項に記載の上記方法。
(項目7)
更に、上記複数の音楽表記の各々のスコアを生成することを備える上記項目のいずれか一項に記載の上記方法。
(項目8)
上記複数の音楽表記の各々の上記スコアを生成することは、上記音声信号において検出されたオンセット箇所が特定の音楽表記の期待された拍箇所に一致していることに少なくとも部分的に基づいている上記項目のいずれか一項に記載の上記方法。
(項目9)
上記複数の音楽表記の各々の上記スコアを生成することは、時間箇所及び上記音声信号で検出された音符または和音の長さの少なくとも1つが、期待された時間箇所及び特定の音楽表記の音符または和音の長さの少なくとも1つに一致していることに少なくとも部分的に基づいている上記項目のいずれか一項に記載の上記方法。
(項目10)
上記複数の音楽表記の各々の上記スコアを生成することは、更に、(i)上記音声信号において検出されたオンセット箇所が特定の音楽表記の期待された拍箇所に一致していること、及び(ii)時間箇所及び上記音声信号において検出された音符または和音の期間の少なくとも1つが期待された時間箇所及び上記特定音楽表記の音符または和音の少なくとも1つに一致することに基づいている上記項目のいずれか一項に記載の上記方法。
(項目11)
各々の上記複数の音楽表記のスコアを生成することは、特定の音楽表記の演繹的な可能性に少なくとも基づいている上記項目のいずれか一項に記載の上記方法。
(項目12)
上記複数の音符の各々のスコアを生成することは、少なくとも使用履歴に基づいている上記項目のいずれか一項に記載の上記方法。
(項目13)
更に、
上記複数の音符の各々について上記音声信号の適合を示す小節を表示するそれぞれの適合スコアを生成すること、
上記複数の音楽表記の1つを選択することは上記生成された複数の適合スコアに基づくこと、
を備える上記項目のいずれか一項に記載の上記方法。
(項目14)
上記複数の音楽表記の上記選択された1つは最大適合スコアに対応する上記項目のいずれか一項に記載の上記方法。
(項目15)
更に、
上記コンピューティング装置のエンドユーザに上記複数の適合スコアの2つ以上の最大適合スコアに対応する上記複数の音楽表記のサブセットを提示することを備え、
上記複数の音楽表記の1つを選択することは、上記コンピューティング装置に結合された入力装置を使用して、上記2つ以上の最大適合スコアについてエンドユーザによって実行される上記項目のいずれか一項に記載の上記方法。
(項目16)
上記複数の適合スコアを生成することは、特定の音楽ジャンル及びエンドユーザのプロファイの少なくとも1つに基づくことから上記項目のいずれか一項に記載の上記方法。
(項目17)
上記複数の音楽表記は調号、拍子、メータ、及び音符の値の少なくとも1つ毎に異なる上記項目のいずれか一項に記載の上記方法。
(項目18)
更に、
上記コンピューティング装置を使用して、上記抽出された音楽情報と音楽的に互換性のある相補的音楽情報を決定することを備え、
上記採譜された音楽コンテンツは、また、上記相補的音楽情報を含む上記項目のいずれか一項に記載の上記方法。
(項目19)
上記音声信号は、第1タイプの楽器を使用して生成され、上記相補的音楽情報は、第2タイプの楽器のために生成される上記項目のいずれか一項に記載の上記方法。
(項目20)
受信された音声信号に含まれている音楽コンテンツの自動採譜を行うコンピュータプログラム製品であって、
上記コンピュータプログラム製品は、
コンピュータ可読プログラムコードを有するコンピュータ可読記憶媒体と共に、1つまたは複数のコンピュータプロセッサによって実行可能な上記コンピュータ可読プログラムコードを備え、
上記コンピュータ可読プログラムコードは、
上記音楽コンテンツの少なくとも一部を特徴付ける音楽情報を抽出するために受信した第1音声信号を処理し、
上記抽出された音楽情報の選択的音楽解釈を表わす複数の音楽表記を生成し、
上記受信された音声信号の上記音楽コンテンツを採譜する上記複数の音楽表記の選択された1つを適用することができる、上記コンピュータプログラム製品。
(項目21)
受信された音声信号に含まれる音楽コンテンツの自動採譜を実行する音楽採譜装置であって、
上記装置は、
1つまたは複数のコンピュータプロセッサを有し、
上記コンピュータプロセッサは、
上記音楽コンテンツの少なくとも一部を特徴付ける音楽情報を抽出するために上記受信された音声信号を処理し、
上記抽出された音楽情報の選択的音楽解釈を表わす複数の音楽表記を生成し、
上記受信された音声信号の上記音楽コンテンツを採譜するために上記複数の音楽表記の選択された1つを適用し、
上記採譜された音楽コンテンツを出力する、ように構成された上記音楽採譜装置。
(項目22)
上記採譜された音楽コンテンツの出力は、上記1つまたは複数のコンピュータプロセッサに結合されたディスプレイ装置を使用して実行される上記項目に記載の上記音楽採譜装置。
(項目23)
上記複数の音楽表記の1つを選択することは、上記1つまたは複数のコンピュータプロセッサに結合された入力装置を使用して実行される上記項目のいずれか一項に記載の上記音楽採譜装置。
(項目24)
上記複数の音楽表記は、調号、拍子、メータ及び音符の値の少なくとも1つが異なる上記項目のいずれか一項に記載の上記音楽採譜装置。
(項目25)
上記1つまたは複数のコンピュータプロセッサは更に、
上記抽出された音楽情報と音楽的に互換性のある相補的音楽情報を決定するように構成され、
上記採譜された音楽コンテンツ出力はまた、上記相補的音楽情報を含んでいる上記項目のいずれか一項に記載の上記音楽採譜装置。
(項目26)
上記1以上のコンピュータプロセッサは更に、
上記相補的音楽情報に対応する相補的音声信号を生成し、
上記受信された音声信号と同じ時期に上記1つまたは複数のコンピュータプロセッサに結合された音声出力装置を使用して上記相補的音声信号を出力するように構成された、上記項目のいずれか一項に記載の上記音楽採譜装置。
(摘要)
少なくとも一実施形態において、コンピューティング装置によって受信された音声信号に含まれている音楽コンテンツの自動採譜実行方法が提供されている。その方法は、コンピューティング装置を使用して、受信された音声信号を処理し、音楽コンテンツの少なくとも一部を特徴とする音楽情報を抽出し、コンピューティング装置を使用して、抽出された音楽情報の選択的な音楽的解釈を表す複数の音楽表記を生成することを含んでいる。その方法は、更に、受信された音声信号の音楽コンテンツを採譜するために、複数の音楽表記のうち選択されたものを適用することを含んでいる。
(音声信号の自動採譜)
(リアルタイム音楽伴奏の生成)
Claims (26)
- コンピューティング装置によって受信された音声信号に含まれる音楽コンテンツの自動採譜を実行する方法であって、前記方法は、
前記音楽コンテンツの少なくとも一部を特徴付ける音楽情報を抽出するために前記コンピューティング装置を使用して前記受信された音声信号を処理すること、
前記コンピューティング装置を使用して前記抽出された音楽情報について選択的に音楽的解釈を表示する複数の音楽表記を生成すること、及び、
前記受信された音声信号の前記音楽コンテンツを採譜するために前記複数の音楽表記の選択された1つを適用すること、
を備える前記方法。 - 更に、前記複数の音楽表記を前記コンピューティング装置のエンドユーザに提示すること、を備え、
前記複数の音楽表記の1つを選択することは、前記コンピューティング装置に結合された入力装置を使用して前記エンドユーザによって行われる請求項1に記載の前記方法。 - 前記複数の音楽表記から選択的音楽表記を前記コンピューティング装置のエンドユーザに提示すること、及び、
前記コンピューティング装置によって入力装置を介して前記選択的音楽表記を選択すること、
を備える請求項2に記載の前記方法。 - 前記選択的音楽表記は、半時間表記及び倍時間表記の1つに対応する請求項3に記載の前記方法。
- 前記選択的音楽表記は、4/4表記及び3/4表記の1つに対応する請求項3に記載の前記方法。
- 前記選択的音楽表記はストレート時間及びスイング時間の1つである請求項3に記載の前記方法。
- 更に、前記複数の音楽表記の各々のスコアを生成することを備える請求項1に記載の前記方法。
- 前記複数の音楽表記の各々の前記スコアを生成することは、前記音声信号において検出されたオンセット箇所が特定の音楽表記の期待された拍箇所に一致していることに少なくとも部分的に基づいている請求項7に記載の前記方法。
- 前記複数の音楽表記の各々の前記スコアを生成することは、時間箇所及び前記音声信号で検出された音符または和音の長さの少なくとも1つが、期待された時間箇所及び特定の音楽表記の音符または和音の長さの少なくとも1つに一致していることに少なくとも部分的に基づいている請求項7に記載の前記方法。
- 前記複数の音楽表記の各々の前記スコアを生成することは、更に、(i)前記音声信号において検出されたオンセット箇所が特定の音楽表記の期待された拍箇所に一致していること、及び(ii)時間箇所及び前記音声信号において検出された音符または和音の期間の少なくとも1つが期待された時間箇所及び前記特定音楽表記の音符または和音の少なくとも1つに一致することに基づいている請求項7に記載の前記方法。
- 各々の前記複数の音楽表記のスコアを生成することは、特定の音楽表記の演繹的な可能性に少なくとも基づいている請求項7に記載の前記方法。
- 前記複数の音符の各々のスコアを生成することは、少なくとも使用履歴に基づいている請求項7に記載の前記方法。
- 更に、
前記複数の音符の各々について前記音声信号の適合を示す小節を表示するそれぞれの適合スコアを生成すること、
前記複数の音楽表記の1つを選択することは前記生成された複数の適合スコアに基づくこと、
を備える請求項1に記載の前記方法。 - 前記複数の音楽表記の前記選択された1つは最大適合スコアに対応する請求項13に記載の前記方法。
- 更に、
前記コンピューティング装置のエンドユーザに前記複数の適合スコアの2つ以上の最大適合スコアに対応する前記複数の音楽表記のサブセットを提示することを備え、
前記複数の音楽表記の1つを選択することは、前記コンピューティング装置に結合された入力装置を使用して、前記2つ以上の最大適合スコアについてエンドユーザによって実行される請求項13に記載の前記方法。 - 前記複数の適合スコアを生成することは、特定の音楽ジャンル及びエンドユーザのプロファイの少なくとも1つに基づくことから請求項13に記載の前記方法。
- 前記複数の音楽表記は調号、拍子、メータ、及び音符の値の少なくとも1つ毎に異なる請求項1に記載の前記方法。
- 更に、
前記コンピューティング装置を使用して、前記抽出された音楽情報と音楽的に互換性のある相補的音楽情報を決定することを備え、
前記採譜された音楽コンテンツは、また、前記相補的音楽情報を含む請求項1に記載の前記方法。 - 前記音声信号は、第1タイプの楽器を使用して生成され、前記相補的音楽情報は、第2タイプの楽器のために生成される請求項18に記載の前記方法。
- 受信された音声信号に含まれている音楽コンテンツの自動採譜を行うコンピュータプログラム製品であって、
前記コンピュータプログラム製品は、
コンピュータ可読プログラムコードを有するコンピュータ可読記憶媒体と共に、1つまたは複数のコンピュータプロセッサによって実行可能な前記コンピュータ可読プログラムコードを備え、
前記コンピュータ可読プログラムコードは、
前記音楽コンテンツの少なくとも一部を特徴付ける音楽情報を抽出するために受信した第1音声信号を処理し、
前記抽出された音楽情報の選択的音楽解釈を表わす複数の音楽表記を生成し、
前記受信された音声信号の前記音楽コンテンツを採譜する前記複数の音楽表記の選択された1つを適用することができる、前記コンピュータプログラム製品。 - 受信された音声信号に含まれる音楽コンテンツの自動採譜を実行する音楽採譜装置であって、
前記装置は、
1つまたは複数のコンピュータプロセッサを有し、
前記コンピュータプロセッサは、
前記音楽コンテンツの少なくとも一部を特徴付ける音楽情報を抽出するために前記受信された音声信号を処理し、
前記抽出された音楽情報の選択的音楽解釈を表わす複数の音楽表記を生成し、
前記受信された音声信号の前記音楽コンテンツを採譜するために前記複数の音楽表記の選択された1つを適用し、
前記採譜された音楽コンテンツを出力する、ように構成された前記音楽採譜装置。 - 前記採譜された音楽コンテンツの出力は、前記1つまたは複数のコンピュータプロセッサに結合されたディスプレイ装置を使用して実行される請求項21に記載の前記音楽採譜装置。
- 前記複数の音楽表記の1つを選択することは、前記1つまたは複数のコンピュータプロセッサに結合された入力装置を使用して実行される請求項21に記載の前記音楽採譜装置。
- 前記複数の音楽表記は、調号、拍子、メータ及び音符の値の少なくとも1つが異なる請求項21に記載の前記音楽採譜装置。
- 前記1つまたは複数のコンピュータプロセッサは更に、
前記抽出された音楽情報と音楽的に互換性のある相補的音楽情報を決定するように構成され、
前記採譜された音楽コンテンツ出力はまた、前記相補的音楽情報を含んでいる請求項21に記載の前記音楽採譜装置。 - 前記1以上のコンピュータプロセッサは更に、
前記相補的音楽情報に対応する相補的音声信号を生成し、
前記受信された音声信号と同じ時期に前記1つまたは複数のコンピュータプロセッサに結合された音声出力装置を使用して前記相補的音声信号を出力するように構成された、請求項25に記載の前記音楽採譜装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562105521P | 2015-01-20 | 2015-01-20 | |
US62/105,521 | 2015-01-20 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016136251A true JP2016136251A (ja) | 2016-07-28 |
JP6735100B2 JP6735100B2 (ja) | 2020-08-05 |
Family
ID=55357848
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016006938A Active JP6735100B2 (ja) | 2015-01-20 | 2016-01-18 | 音楽コンテンツ及びリアルタイム音楽伴奏の自動採譜 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9773483B2 (ja) |
EP (1) | EP3048607B1 (ja) |
JP (1) | JP6735100B2 (ja) |
CN (1) | CN105810190B (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019201939A (ja) * | 2018-05-24 | 2019-11-28 | 学校法人立命館 | 譜面データ生成モデルの学習装置、譜面データ生成器、及びコンピュータプログラム |
US20210241735A1 (en) * | 2020-01-31 | 2021-08-05 | Obeebo Labs Ltd. | Systems, devices, and methods for computer-generated musical compositions |
WO2022244403A1 (ja) * | 2021-05-19 | 2022-11-24 | ヤマハ株式会社 | 楽譜作成装置、訓練装置、楽譜作成方法および訓練方法 |
WO2024085175A1 (ja) * | 2022-10-18 | 2024-04-25 | ヤマハ株式会社 | データ処理方法およびプログラム |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9741327B2 (en) * | 2015-01-20 | 2017-08-22 | Harman International Industries, Incorporated | Automatic transcription of musical content and real-time musical accompaniment |
JP6735100B2 (ja) | 2015-01-20 | 2020-08-05 | ハーマン インターナショナル インダストリーズ インコーポレイテッド | 音楽コンテンツ及びリアルタイム音楽伴奏の自動採譜 |
US9721551B2 (en) | 2015-09-29 | 2017-08-01 | Amper Music, Inc. | Machines, systems, processes for automated music composition and generation employing linguistic and/or graphical icon based musical experience descriptions |
US9711121B1 (en) * | 2015-12-28 | 2017-07-18 | Berggram Development Oy | Latency enhanced note recognition method in gaming |
CN108074553A (zh) * | 2016-11-18 | 2018-05-25 | 北京酷我科技有限公司 | 一种钢琴演奏的评价方法及系统 |
EP3389028A1 (en) * | 2017-04-10 | 2018-10-17 | Sugarmusic S.p.A. | Automatic music production from voice recording. |
US20180366096A1 (en) * | 2017-06-15 | 2018-12-20 | Mark Glembin | System for music transcription |
US10504498B2 (en) | 2017-11-22 | 2019-12-10 | Yousician Oy | Real-time jamming assistance for groups of musicians |
US11212637B2 (en) * | 2018-04-12 | 2021-12-28 | Qualcomm Incorproated | Complementary virtual audio generation |
SE542890C2 (en) * | 2018-09-25 | 2020-08-18 | Gestrument Ab | Instrument and method for real-time music generation |
JP7230464B2 (ja) * | 2018-11-29 | 2023-03-01 | ヤマハ株式会社 | 音響解析方法、音響解析装置、プログラムおよび機械学習方法 |
US10762887B1 (en) * | 2019-07-24 | 2020-09-01 | Dialpad, Inc. | Smart voice enhancement architecture for tempo tracking among music, speech, and noise |
US11037538B2 (en) | 2019-10-15 | 2021-06-15 | Shutterstock, Inc. | Method of and system for automated musical arrangement and musical instrument performance style transformation supported within an automated music performance system |
US10964299B1 (en) | 2019-10-15 | 2021-03-30 | Shutterstock, Inc. | Method of and system for automatically generating digital performances of music compositions using notes selected from virtual musical instruments based on the music-theoretic states of the music compositions |
US11024275B2 (en) | 2019-10-15 | 2021-06-01 | Shutterstock, Inc. | Method of digitally performing a music composition using virtual musical instruments having performance logic executing within a virtual musical instrument (VMI) library management system |
EP4055589A1 (en) * | 2020-02-05 | 2022-09-14 | Harmonix Music Systems, Inc. | Techniques for processing chords of musical content and related systems and methods |
CN112071287A (zh) * | 2020-09-10 | 2020-12-11 | 北京有竹居网络技术有限公司 | 用于生成歌谱的方法、装置、电子设备和计算机可读介质 |
SE544738C2 (en) * | 2020-12-22 | 2022-11-01 | Algoriffix Ab | Method and system for recognising patterns in sound |
US11948543B1 (en) * | 2022-12-12 | 2024-04-02 | Muse Cy Limited | Computer-implemented method and system for editing musical score |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000099092A (ja) * | 1998-09-18 | 2000-04-07 | Dainippon Printing Co Ltd | 音響信号の符号化装置および符号データの編集装置 |
JP2001236066A (ja) * | 2000-02-21 | 2001-08-31 | Yamaha Corp | 作曲機能を備えた携帯電話機 |
US20050086052A1 (en) * | 2003-10-16 | 2005-04-21 | Hsuan-Huei Shih | Humming transcription system and methodology |
JP2007193222A (ja) * | 2006-01-20 | 2007-08-02 | Casio Comput Co Ltd | メロディ入力装置及び楽曲検索装置 |
JP2010521021A (ja) * | 2007-02-14 | 2010-06-17 | ミューズアミ, インコーポレイテッド | 楽曲ベースの検索エンジン |
JP2014013340A (ja) * | 2012-07-05 | 2014-01-23 | Pioneer Electronic Corp | 作曲支援装置、作曲支援方法、作曲支援プログラム、作曲支援プログラムを格納した記録媒体およびメロディ検索装置 |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4356752A (en) | 1980-01-28 | 1982-11-02 | Nippon Gakki Seizo Kabushiki Kaisha | Automatic accompaniment system for electronic musical instrument |
US4960031A (en) * | 1988-09-19 | 1990-10-02 | Wenger Corporation | Method and apparatus for representing musical information |
US5869783A (en) | 1997-06-25 | 1999-02-09 | Industrial Technology Research Institute | Method and apparatus for interactive music accompaniment |
JP3582359B2 (ja) | 1998-05-20 | 2004-10-27 | ヤマハ株式会社 | 楽譜割付け装置及び楽譜割付けプログラムを記録したコンピュータで読み取り可能な記録媒体 |
JP3533974B2 (ja) | 1998-11-25 | 2004-06-07 | ヤマハ株式会社 | 曲データ作成装置および曲データ作成プログラムを記録したコンピュータで読み取り可能な記録媒体 |
JP3879357B2 (ja) | 2000-03-02 | 2007-02-14 | ヤマハ株式会社 | 音声信号または楽音信号の処理装置およびその処理プログラムが記録された記録媒体 |
US6225546B1 (en) * | 2000-04-05 | 2001-05-01 | International Business Machines Corporation | Method and apparatus for music summarization and creation of audio summaries |
DE10251112A1 (de) * | 2002-11-02 | 2004-05-19 | Philips Intellectual Property & Standards Gmbh | Verfahren und System zur Spracherkennung |
US20060111917A1 (en) * | 2004-11-19 | 2006-05-25 | International Business Machines Corporation | Method and system for transcribing speech on demand using a trascription portlet |
US7705231B2 (en) | 2007-09-07 | 2010-04-27 | Microsoft Corporation | Automatic accompaniment for vocal melodies |
US8168877B1 (en) | 2006-10-02 | 2012-05-01 | Harman International Industries Canada Limited | Musical harmony generation from polyphonic audio signals |
US8473283B2 (en) * | 2007-11-02 | 2013-06-25 | Soundhound, Inc. | Pitch selection modules in a system for automatic transcription of sung or hummed melodies |
KR20100111164A (ko) * | 2009-04-06 | 2010-10-14 | 삼성전자주식회사 | 사용자의 발화의도를 파악하는 음성 대화 처리장치 및 음성 대화 처리방법 |
US9251776B2 (en) | 2009-06-01 | 2016-02-02 | Zya, Inc. | System and method creating harmonizing tracks for an audio input |
US9257053B2 (en) | 2009-06-01 | 2016-02-09 | Zya, Inc. | System and method for providing audio for a requested note using a render cache |
US8507781B2 (en) | 2009-06-11 | 2013-08-13 | Harman International Industries Canada Limited | Rhythm recognition from an audio signal |
EP2362378B1 (en) | 2010-02-25 | 2016-06-08 | YAMAHA Corporation | Generation of harmony tone |
US8541676B1 (en) * | 2010-03-06 | 2013-09-24 | Alexander Waldman | Method for extracting individual instrumental parts from an audio recording and optionally outputting sheet music |
US8907195B1 (en) | 2012-01-14 | 2014-12-09 | Neset Arda Erol | Method and apparatus for musical training |
US8829322B2 (en) | 2012-10-26 | 2014-09-09 | Avid Technology, Inc. | Metrical grid inference for free rhythm musical input |
US20140142928A1 (en) | 2012-11-21 | 2014-05-22 | Harman International Industries Canada Ltd. | System to selectively modify audio effect parameters of vocal signals |
DE112013005807T5 (de) | 2012-12-05 | 2015-08-20 | Sony Corporation | Vorrichtung und Verfahren zur Erzeugung einer Echtzeitmusikbegleitung |
US9012754B2 (en) | 2013-07-13 | 2015-04-21 | Apple Inc. | System and method for generating a rhythmic accompaniment for a musical performance |
CN103915092B (zh) * | 2014-04-01 | 2019-01-25 | 百度在线网络技术(北京)有限公司 | 语音识别方法和装置 |
US9123315B1 (en) * | 2014-06-30 | 2015-09-01 | William R Bachand | Systems and methods for transcoding music notation |
JP6735100B2 (ja) | 2015-01-20 | 2020-08-05 | ハーマン インターナショナル インダストリーズ インコーポレイテッド | 音楽コンテンツ及びリアルタイム音楽伴奏の自動採譜 |
US9741327B2 (en) * | 2015-01-20 | 2017-08-22 | Harman International Industries, Incorporated | Automatic transcription of musical content and real-time musical accompaniment |
-
2016
- 2016-01-18 JP JP2016006938A patent/JP6735100B2/ja active Active
- 2016-01-18 US US14/997,670 patent/US9773483B2/en active Active
- 2016-01-19 EP EP16151847.7A patent/EP3048607B1/en active Active
- 2016-01-20 CN CN201610037156.6A patent/CN105810190B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000099092A (ja) * | 1998-09-18 | 2000-04-07 | Dainippon Printing Co Ltd | 音響信号の符号化装置および符号データの編集装置 |
JP2001236066A (ja) * | 2000-02-21 | 2001-08-31 | Yamaha Corp | 作曲機能を備えた携帯電話機 |
US20050086052A1 (en) * | 2003-10-16 | 2005-04-21 | Hsuan-Huei Shih | Humming transcription system and methodology |
JP2007193222A (ja) * | 2006-01-20 | 2007-08-02 | Casio Comput Co Ltd | メロディ入力装置及び楽曲検索装置 |
JP2010521021A (ja) * | 2007-02-14 | 2010-06-17 | ミューズアミ, インコーポレイテッド | 楽曲ベースの検索エンジン |
JP2014013340A (ja) * | 2012-07-05 | 2014-01-23 | Pioneer Electronic Corp | 作曲支援装置、作曲支援方法、作曲支援プログラム、作曲支援プログラムを格納した記録媒体およびメロディ検索装置 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019201939A (ja) * | 2018-05-24 | 2019-11-28 | 学校法人立命館 | 譜面データ生成モデルの学習装置、譜面データ生成器、及びコンピュータプログラム |
JP7193831B2 (ja) | 2018-05-24 | 2022-12-21 | 学校法人 関西大学 | 譜面データ生成モデルの構築方法、譜面データ生成器、譜面データ生成方法及びコンピュータプログラム |
US20210241735A1 (en) * | 2020-01-31 | 2021-08-05 | Obeebo Labs Ltd. | Systems, devices, and methods for computer-generated musical compositions |
US12027145B2 (en) * | 2020-01-31 | 2024-07-02 | Obeebo Labs Ltd. | Systems, devices, and methods for computer-generated musical compositions |
WO2022244403A1 (ja) * | 2021-05-19 | 2022-11-24 | ヤマハ株式会社 | 楽譜作成装置、訓練装置、楽譜作成方法および訓練方法 |
WO2024085175A1 (ja) * | 2022-10-18 | 2024-04-25 | ヤマハ株式会社 | データ処理方法およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP6735100B2 (ja) | 2020-08-05 |
EP3048607A3 (en) | 2016-08-31 |
US20160210947A1 (en) | 2016-07-21 |
US9773483B2 (en) | 2017-09-26 |
EP3048607A2 (en) | 2016-07-27 |
EP3048607B1 (en) | 2017-12-27 |
CN105810190B (zh) | 2021-02-12 |
CN105810190A (zh) | 2016-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6735100B2 (ja) | 音楽コンテンツ及びリアルタイム音楽伴奏の自動採譜 | |
US9741327B2 (en) | Automatic transcription of musical content and real-time musical accompaniment | |
US10964298B2 (en) | Network musical instrument | |
Dittmar et al. | Music information retrieval meets music education | |
US9672800B2 (en) | Automatic composer | |
US20120312145A1 (en) | Music composition automation including song structure | |
JP2012103603A (ja) | 情報処理装置、楽曲区間抽出方法、及びプログラム | |
JP2012532340A (ja) | 音楽教育システム | |
Lerch et al. | An interdisciplinary review of music performance analysis | |
US10032443B2 (en) | Interactive, expressive music accompaniment system | |
Danielsen et al. | Effects of instructed timing and tempo on snare drum sound in drum kit performance | |
Delgado et al. | A state of the art on computational music performance | |
d'Alessandro et al. | Drawing melodies: Evaluation of chironomic singing synthesis | |
Lerch | Software-based extraction of objective parameters from music performances | |
Dannenberg | New interfaces for popular music performance | |
JP5297662B2 (ja) | 楽曲データ加工装置、カラオケ装置、及びプログラム | |
Bacot et al. | The creative process of sculpting the air by Jesper Nordin: conceiving and performing a concerto for conductor with live electronics | |
Subramanian | Modelling gamakas of carnatic music as a synthesizer for sparse prescriptive notation | |
Danielsen et al. | There’s more to timing than time: Investigating musical microrhythm across disciplines and cultures | |
Sion | Harmonic interaction for monophonic instruments through musical phrase to scale recognition | |
JP7425558B2 (ja) | コード検出装置及びコード検出プログラム | |
Müller et al. | Music signal processing | |
Zuo | Towards automated segmentation of repetitive music recordings | |
Schulmeister | Learning Strategies for Contemporary Music: Rhythmic Translation, Choreography, and Instrumental Reconception | |
Robertson | Interactive real-time musical systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190117 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200302 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200602 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200622 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200713 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6735100 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |