JP6991620B1 - 電子楽器、電子楽器の制御方法、及びプログラム - Google Patents

電子楽器、電子楽器の制御方法、及びプログラム Download PDF

Info

Publication number
JP6991620B1
JP6991620B1 JP2021054440A JP2021054440A JP6991620B1 JP 6991620 B1 JP6991620 B1 JP 6991620B1 JP 2021054440 A JP2021054440 A JP 2021054440A JP 2021054440 A JP2021054440 A JP 2021054440A JP 6991620 B1 JP6991620 B1 JP 6991620B1
Authority
JP
Japan
Prior art keywords
section
chord
sound
data
timing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021054440A
Other languages
English (en)
Other versions
JP2022151396A (ja
Inventor
正行 伊藤
Original Assignee
Foot-Skills合同会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Foot-Skills合同会社 filed Critical Foot-Skills合同会社
Priority to JP2021054440A priority Critical patent/JP6991620B1/ja
Application granted granted Critical
Publication of JP6991620B1 publication Critical patent/JP6991620B1/ja
Priority to PCT/JP2022/009013 priority patent/WO2022209557A1/ja
Publication of JP2022151396A publication Critical patent/JP2022151396A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

【課題】楽曲における和音を所望のタイミングで演奏すると、演奏の進行に合わせて歌唱等のサウンドが自動再生される、ギター等の弦楽器を模した電子楽器を提供する。【解決手段】ギター等の弦楽器を模した電子楽器であって、楽曲における和音を演奏すると、演奏における和音選択操作のタイミングに基づいて、歌い出しの歌唱等のサウンドが自動再生され、さらに、和音発音操作のタイミングに基づいて、後続する歌唱等のサウンドが、演奏の進行に合わせて自動再生される。【選択図】図6

Description

本発明は、電子楽器、電子楽器の制御方法、及びプログラムに関するものである。
演奏者が優先音を示す識別子を指定すると、前記指定された優先音及び、前記指定された優先音と次の区間の優先音の間の前記優先音以外の音の自動演奏を進行させる電子楽器がある(例えば、特許文献1参照)。
特開昭57-129495号公報 特開2018-163183号公報
特許文献1および特許文献2に記載された技術においては、和音もしくは優先音を示す識別子を指定することにより、次の和音もしくは優先音の前までの区間の自動演奏を進行させることができるが、楽曲によっては、楽器演奏を行うよりも前のタイミングで歌唱等が開始される場合があり、楽器演奏と歌唱等のサウンドの再生タイミングを演奏者が共に指定することは困難であった。
本発明は、上述の事情を鑑みてなされたものであり、楽曲における和音を演奏すると、前記演奏における、和音選択操作のタイミングに基づいて、歌い出しの歌唱等のサウンドが自動再生され、さらに、和音発音操作のタイミングに基づいて後続する歌唱等のサウンドが、演奏の進行に合わせて自動再生される、ギター等の弦楽器を模した電子楽器を提供することを目的としている。
上記目的を達成するため、本発明の電子楽器は、
記憶されている楽曲データをそれぞれの区間長で区切った区間ごとに順次読み出す区間データ読出し手段と、
前記区間データ読み出し手段により読み出された区間に含まれるデータが示す和音と和音選択操作により選択された和音との一致を検出する比較手段と、
和音選択操作のタイミングに基づいて、比較手段による検出の結果が一致であるならば、前記区間に含まれるデータが示す、前記区間の歌い出しのサウンドである第1のサウンドの再生を開始する第1サウンド再生手段と、
和音発音操作のタイミングに基づいて、和音が発音され、比較手段による検出の結果が一致であるならば、前記区間に含まれるデータが示す、前記区間の歌い出しに後続するサウンドである第2のサウンドの再生を開始する第2サウンド再生手段と、
を具備することを特徴とする。
本発明では、楽曲における和音を所望のタイミングで演奏すると、前記演奏における、和音選択操作、もしくは、和音発音操作のタイミングに基づいて楽曲の進行に合わせた歌唱等のサウンドが自動再生される、ギター等の弦楽器を模した電子楽器を提供することができる。
図1は本発明の実施形態に係る端末装置の構成を示すブロック図である。 図2は本発明の実施形態に係る和音選択テーブルを説明する図である。 図3は本発明の実施形態に係る端末装置の演奏者による持ち方を説明する図である。 図4は本発明の実施形態に係る端末装置の演奏者の視点からの表示画面の表示内容および操作子を説明する図である。 図5は本発明の実施形態に係るサウンド自動再生機能を実現するメイン処理の構成を説明するフローチャートである。 図6は本発明の実施形態に係るサウンド自動再生機能を実現する演奏処理の構成を説明するフローチャートである。 図7は本発明の実施形態に係る端末装置の演奏者による楽曲演奏がなされた際の動作を説明する図である。
<実施形態>
図1は、本発明の実施形態に係る端末装置1の構成を示すブロック図である。
本発明の電子楽器の一例である端末装置1は、例えば、スマートフォン、タブレット端末などのスマートデバイスであって、ギターを電子楽器として再現するアプリケーションプログラムがインストールされている。
このアプリケーションプログラムを実行すると、この端末装置1は、ギターを模した電子楽器として機能し、楽曲における和音を所望のタイミングで演奏すると、前記演奏における、和音選択操作、もしくは、和音発音操作のタイミングに基づいて楽曲の進行に合わせた歌唱等のサウンドが自動再生される機能を実現する構成を含んだものとなっている。
サウンド自動再生機能の詳細については後述する。
[構成]
CPU部10は、単一のCPUを搭載してもよいし、複数のCPUを搭載するようにしてもよい。
記憶部11は、内部記憶装置とメインメモリを備える記憶装置である。内部記憶装置には、CPU部10によって実行される各種プログラムやそのプログラムで利用される各種データ、例えば、後述する楽曲データ、和音サウンドデータ、第1サウンドデータ、および、第2サウンドデータが格納されている。メインメモリは、コンピュータプログラムや情報を一時的に記憶する。
操作部12は、例えば、演奏者からの操作を受け付けるための入力装置である。
表示部13は、典型的には液晶表示装置である。
なお、本実施形態に係る処理では、操作部12及び表示部13として、液晶画面と一体化したタッチパネルを想定する。
図2は和音選択テーブルの図である。
和音とは、ここでは、メジャーコードA、B、C、・・・、Gと、マイナーコードAm、Bm、Cm、・・・Gmとの14の和音をいう。
和音選択テーブルは、後述する第1操作子群の操作子へのタッチ操作の有無の組み合わせが示す内容に応じて選択される和音を示している。
操作部12は、端末装置1の筐体に設けられた接触を検出するタッチセンサなどを有し、演奏者の操作によりその操作内容を表す操作データをCPU部10に出力する。
さらに操作部12は、同時に複数の箇所でタッチセンサに対する接触が行われている場合にも、接触された複数の操作データを出力する構成であり、多点検出が可能となっている。
表示部13は、端末装置1の筐体の一部の領域に設けられた表示画面130に画像を表示する液晶ディスプレイなどの表示デバイスである。
表示部13は、CPU部10の制御により、表示画面130に画像を表示する。
表示画面130に表示される画像は、メニュー画面、設定画面の他、アプリケーションの動作画面などの画像(図4参照)である。
この例においては、表示画面130の表面部分には、操作部12のタッチセンサが設けられ、タッチパネルとして機能する。
発音部14は、CPU部10によって実現される発音指示機能によって指示された音を示すオーディオ信号を生成し、生成したオーディオ信号を音声出力部141に出力する。
このときオーディオ信号の出力レベルについても指示に応じて調整してもよい。
音声出力部141は、発音部14から入力されるオーディオ信号を増幅する増幅部、増幅されたオーディオ信号を放音するスピーカなどの放音部を有する。
このように、発音部14および音声出力部141は発音手段として機能する。
インターフェース15は、例えば、外部装置と有線接続する接続端子、無線接続する無線接続手段、基地局やネットワークを介して接続する通信手段などがあって、接続した外部装置と各種データの送受信を行う。
以上が端末装置1の各部の構成についての説明である。
[動作]
次に、CPU部10がアプリケーションプログラムを実行することによって、ギターを模した電子楽器として機能する際の発音指示機能について説明する。
まず、CPU部10は、表示部13を制御して、各指の配置を示す操作マーカーなどを表す図4に示すような画像を表示画面130に表示するとともに、タッチセンサ上の各領域に操作子を割り当てる。
演奏者による端末装置1の持ち方、および、この表示内容と操作子について説明する。
図3は、端末装置1の演奏者による持ち方を説明する図である。
端末装置1を、一方の手のひらの人差し指、中指、薬指および小指のそれぞれ4つの指の付け根付近に、タッチパネル面が指先側を向くように乗せ、親指の先との間で挟み込むように持ち、他方の手の指先によりタッチパネルの水平方向における端部の操作が行えるようにする。
図4は、端末装置1の表示画面130の演奏者の視点からの表示内容および操作子についての説明図である。
図4に示すように表示画面130には、各指の配置を示す操作マーカーなどが表示されるが、破線、および、一点鎖線については、実際に表示されるわけではない。
この破線で囲まれた複数の領域の各々は、この画像を表示しているときにおけるタッチセンサへの操作について、CPU部10が各々の操作を受け付ける操作子として認識する領域を示している。
すなわち、CPU部10は、タッチセンサ上の各領域に各操作子を割り当てている。
この操作子については、破線で囲まれた第1操作子121-1、121-2、・・・121-4(それぞれを区別しない場合には、第1操作子121という)、および、一点鎖線で囲まれた第2操作子122により構成されている。
このようにして、タッチセンサは、各領域に設けられた第1操作子121、第2操作子122の、操作手段として機能する。
第1操作子121の各々は、和音を指定するための操作を受け付ける操作子であり、垂直方向の端部にて水平方向に互いに隣接して配置されており、演奏者の一方の片手の4つの指(人差し指、中指、薬指、および、小指)による操作が想定される。
第2操作子122は、和音の発音タイミングを指定するための操作を受け付ける操作子であり、水平方向の端部に配置されており、演奏者の他方の片手指によるスライド操作が想定される。
表示画面130には、図4に示すように、各指の配置を示す操作マーカーなどが表示され、各操作子に対応したタッチパネル上の領域を演奏者に認識させるようになっている。さらに、曲タイトル、和音名、選択方法アイコン、および、歌詞が表示され、演奏者に楽譜として提示している。
図5はサウンド自動再生機能を実現するメイン処理の構成を説明するフローチャートである。
CPU部10は、まず初期化処理を実行した後(ステップS501)、ステップS502ないしS505の一連の処理を繰り返し実行する。
CPU部10は、何れかの演奏曲が選曲されたか否かを判定する(ステップS502)。その判定がYESならば、CPU部10は、楽曲データ読込み処理を実行する(ステップS503)。ここでは、曲のタイトル、歌詞、区間数等のデータを読み込む。ステップS503の処理が終了するとステップS504に進み、読み込んだ楽曲データに基づいた情報を画面表示する。次いで、ステップS505にて自動サウンド再生機能を含む演奏処理を実行する。演奏処理の詳細については図6にて後述する。ステップS502の判定がNOならば、CPU部10は、ステップS503ないしステップS505の処理はスキップする。
次に、CPU部10は、演奏処理において自動サウンド再生機能を含む演奏処理を実行する。この処理の詳細は、図6を用いて後述する。
ステップS601ないしステップS612のメイン処理は繰り返し実行されて、端末装置1において何らかの操作が行われた際に、その操作に応じた処理が行われる。
CPU部10は、区間データ読み込み処理を実行する(ステップS601)。ここでは、和音情報、第1サウンド、および、第2サウンド、等のデータを読み込む。
CPU部10は、第1サウンドフラグをOFFにする(ステップS602)。
次に、CPU部10は、ステップS601で読み込んだ区間データ内に第1サウンドが含まれるか否かを判定する(ステップS603)。その判定がYESならば、CPU部10は、第1サウンドフラグをONにする(ステップS604)。ステップS603の判定がNOならば、CPU部10は、ステップS604の処理はスキップする。
ステップS605ないしステップS612の処理は繰り返し実行されて、ステップ601において読み込んだ区間データが演奏される間の処理が行われる。
CPU部10は、演奏終了操作が行われたか否かを判定する(ステップS605)。その判定がYESならば、CPU部10は、図5のフローチャートで例示されるステップS505の演奏処理を終了する。ステップS605の判定がNOならば、CPU部10は、演奏処理の終了をスキップする。
CPU部10は、選択操作が検出されたか否かを判定する(ステップS606)。その判定がYESならば、CPU部10は、第1操作子群の操作子へのタッチ操作の有無の組み合わせから予め対応付けられた和音情報を取得する(ステップS607)。ステップS606の判定がNOならば、CPU部10は、ステップS607ないしステップS611の処理はスキップする。
CPU部10は、第1サウンドフラグがONであるか否かを判定する(ステップS608)。その判定がYESならば、CPU部10は、区間データの和音情報と前記和音選択操作により選択された和音情報とが一致しているか否かを判定する(ステップS609)。その判定がYESならば、CPU部10は、第1サウンドの再生を開始する(ステップS610)。次いで、CPU部10は、第1サウンドフラグをOFFにする(ステップS611)。ステップS609の判定がNOならば、CPU部10は、ステップS610ないしステップS611の処理はスキップする。ステップS608の判定がNOならば、CPU部10は、ステップS609ないしステップS611の処理はスキップする。
CPU部10は、発音操作が検出されたか否かを判定する(ステップS612)。その判定がYESならば、CPU部10は、選択中の和音を発音する(ステップS613)。次いで、CPU部10は、和音が一致しているか否かを判定する(ステップS614)。その判定がYESならば、CPU部10は、現在再生中のサウンドがあるか否かを判定する(ステップS615)。その判定がYESならば、CPU部10は、そのサウンドを消音する(ステップS616)。ステップS615の判定がNOならば、CPU部10は、ステップS616の処理はスキップする。次いで、CPU部10は、第2サウンドの再生を開始する(ステップS617)。ステップS614の判定がNOならば、CPU部10は、ステップS615ないしステップS617の処理はスキップする。ステップS612の判定がNOならば、CPU部10は、ステップS613およびステップS614の処理はスキップする。
図7は本発明の端末装置1の演奏者による演奏がなされた際の動作を説明する図である。
図7の一番上の段には、演奏者が演奏しようとする楽曲データにおける和音演奏区間T1、T2、・・・T5が時系列的に並べられており、区間のそれぞれにおける和音、および、歌詞が示されている。また、t0、t1、・・・、t6は、それぞれの区間の演奏開始時刻が示されている。さらにその下の段には、楽曲データに対して演奏者が行った和音選択操作、もしくは、和音発音操作のタイミングの例が示されている。さらに、その下の段には、この操作によって自動再生されたサウンドの再生区間が細長い長方形で並べられており、区間のそれぞれにおいて再生されるサウンドの歌詞が示されている。また、t0’、t1’、・・・、t6’は、それぞれの区間のサウンド再生開始時刻が示されている。
まず、区間データ読み込み処理(ステップS601)により、T1の区間データが読み込まれる。
t0’の時点で演奏者が区間データの和音と一致するコードCを選択する操作を行うと、区間データの第1サウンドの再生が開始される。
t1’の時点で、演奏者が区間データの和音と一致するコードCを選択した状態で発音操作を行うと、区間データの第2サウンドの再生が開始され、次いで、区間データ読み込み処理により、T2の区間データが読み込まれる。
t1’からt2’の間、演奏者は、コードCを複数回演奏し、この演奏に応じて和音サウンドが発音される。
t2’の時点で演奏者が区間データの和音と一致するコードEを選択する操作を行い、次いで、発音操作を行うと、前回再生された第2サウンドが再生中の場合には消音される。次いで、区間データの第2サウンドの再生が開始される。次いで、区間データ読み込み処理(ステップS601)により、T3の区間データが読み込まれる。
t2’からt3’の間、演奏者は、コードEを複数回演奏し、和音サウンドがそれに応じて発音される。
1…端末装置、10…CPU部、101…タッチ操作特定部、102…操作子特定部、103…発音操作特定部、104…発音指示部、11…記憶部、12…操作部、121…第1操作子、122…第2操作子、13…表示部、130…表示画面、14…発音部、140…音源部、141…音声出力部、15…インターフェイス

Claims (3)

  1. 記憶されている楽曲データをそれぞれの区間長で区切った区間ごとに順次読み出す区間データ読出し手段と、
    前記区間データ読み出し手段により読み出された区間に含まれるデータが示す和音と和音選択操作により選択された和音との一致を検出する比較手段と、
    和音選択操作のタイミングに基づいて、比較手段による検出の結果が一致であるならば、前記区間に含まれるデータが示す、前記区間の歌い出しのサウンドである第1のサウンドの再生を開始する第1サウンド再生手段と、
    和音発音操作のタイミングに基づいて、和音が発音され、比較手段による検出の結果が一致であるならば、前記区間に含まれるデータが示す、前記区間の歌い出しに後続するサウンドである第2のサウンドの再生を開始する第2サウンド再生手段と、
    を具備することを特徴とする電子楽器。
  2. コンピュータの制御方法であって、
    区間データ読出し手段が、記憶されている楽曲データをそれぞれの区間長で区切った区間ごとに順次読み出し、
    比較手段が、前記区間データ読み出し手段により読み出された区間に含まれるデータが示す和音と和音選択操作により選択された和音との一致を検出
    第1サウンド再生手段が、和音選択操作のタイミングに基づいて、比較手段による検出の結果が一致であるならば、前記区間に含まれるデータが示す、前記区間の歌い出しのサウンドである第1のサウンドの再生を開始
    第2サウンド再生手段が、和音発音操作のタイミングに基づいて、和音が発音され、比較手段による検出の結果が一致であるならば、前記区間に含まれるデータが示す、前記区間の歌い出しに後続するサウンドである第2のサウンドの再生を開始する、
    ことを特徴とする制御方法。
  3. コンピュータが各ステップを実行するコンピュータの制御方法であって、
    記憶されている楽曲データをそれぞれの区間長で区切った区間ごとに順次読み出す区間データ読出しステップと、
    前記区間データ読み出しステップにより読み出された区間に含まれるデータが示す和音と和音選択操作により選択された和音との一致を検出する比較ステップと、
    和音選択操作のタイミングに基づいて、比較ステップによる検出の結果が一致であるならば、前記区間に含まれるデータが示す、前記区間の歌い出しのサウンドである第1のサウンドの再生を開始する第1サウンド再生ステップと、
    和音発音操作のタイミングに基づいて、和音が発音され、比較ステップによる検出の結果が一致であるならば、前記区間に含まれるデータが示す、前記区間の歌い出しに後続するサウンドである第2のサウンドの再生を開始する第2サウンド再生ステップと、
    備えるコンピュータの制御方法
JP2021054440A 2021-03-27 2021-03-27 電子楽器、電子楽器の制御方法、及びプログラム Active JP6991620B1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021054440A JP6991620B1 (ja) 2021-03-27 2021-03-27 電子楽器、電子楽器の制御方法、及びプログラム
PCT/JP2022/009013 WO2022209557A1 (ja) 2021-03-27 2022-03-03 電子楽器、電子楽器の制御方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021054440A JP6991620B1 (ja) 2021-03-27 2021-03-27 電子楽器、電子楽器の制御方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP6991620B1 true JP6991620B1 (ja) 2022-01-12
JP2022151396A JP2022151396A (ja) 2022-10-07

Family

ID=80185524

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021054440A Active JP6991620B1 (ja) 2021-03-27 2021-03-27 電子楽器、電子楽器の制御方法、及びプログラム

Country Status (2)

Country Link
JP (1) JP6991620B1 (ja)
WO (1) WO2022209557A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57129495A (en) * 1981-02-03 1982-08-11 Nippon Musical Instruments Mfg Electronic musical instrument
JP2013242446A (ja) * 2012-05-21 2013-12-05 Kawai Musical Instr Mfg Co Ltd 電子鍵盤楽器の自動伴奏装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6587007B1 (ja) * 2018-04-16 2019-10-09 カシオ計算機株式会社 電子楽器、電子楽器の制御方法、及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57129495A (en) * 1981-02-03 1982-08-11 Nippon Musical Instruments Mfg Electronic musical instrument
JP2013242446A (ja) * 2012-05-21 2013-12-05 Kawai Musical Instr Mfg Co Ltd 電子鍵盤楽器の自動伴奏装置

Also Published As

Publication number Publication date
WO2022209557A1 (ja) 2022-10-06
JP2022151396A (ja) 2022-10-07

Similar Documents

Publication Publication Date Title
JP4328828B2 (ja) 携帯型和音出力装置、コンピュータプログラムおよび記録媒体
US20050257667A1 (en) Apparatus and computer program for practicing musical instrument
JP2008253440A (ja) 音楽再生制御システム、音楽演奏プログラム、および演奏データの同期再生方法
JP2014200454A (ja) 記録媒体、ゲーム装置及びゲーム進行方法
JP2006201654A (ja) 伴奏追従システム
JP6991620B1 (ja) 電子楽器、電子楽器の制御方法、及びプログラム
JP5387642B2 (ja) 歌詞テロップ表示装置及びプログラム
JP2006106641A (ja) 電子音楽装置
JP6411412B2 (ja) プログラム、ゲーム装置及びゲーム進行方法
JP5394301B2 (ja) タイミング指定装置、曲再生装置、カラオケシステム及びタイミング指定方法
JP2005202204A (ja) 楽譜表示プログラム及び楽譜表示装置
JP2016206490A (ja) 表示制御装置、電子楽器およびプログラム
JP4882980B2 (ja) 楽曲検索装置及びプログラム
JP5510207B2 (ja) 楽音編集装置及びプログラム
JP5590350B2 (ja) 楽曲演奏装置及び楽曲演奏用プログラム
WO2014174621A1 (ja) 記録媒体、ゲーム装置及びゲーム進行方法
JP7070538B2 (ja) プログラム、方法、電子機器、及び演奏データ表示システム
JP7331915B2 (ja) 情報処理装置、電子楽器、音取りシステム、方法及びプログラム
JP3706386B2 (ja) キー変更ユーザインタフェースに特徴を有するカラオケ装置
JP2007233078A (ja) 評価装置、制御方法及びプログラム
JP2020171733A (ja) プログラム、ゲーム装置及びゲーム進行方法
JP6196571B2 (ja) 演奏装置及びプログラム
JP2019025346A (ja) プログラム、ゲーム装置及びゲーム進行方法
JP6587396B2 (ja) ギターカラオケ採点機能を備えるカラオケ装置
JP6048437B2 (ja) 情報処理装置、プログラム、カラオケシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210813

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210813

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211201

R150 Certificate of patent or registration of utility model

Ref document number: 6991620

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150