JP2013195581A - 演奏装置、方法及びプログラム - Google Patents

演奏装置、方法及びプログラム Download PDF

Info

Publication number
JP2013195581A
JP2013195581A JP2012061216A JP2012061216A JP2013195581A JP 2013195581 A JP2013195581 A JP 2013195581A JP 2012061216 A JP2012061216 A JP 2012061216A JP 2012061216 A JP2012061216 A JP 2012061216A JP 2013195581 A JP2013195581 A JP 2013195581A
Authority
JP
Japan
Prior art keywords
performance
unit
area
position coordinates
layout information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012061216A
Other languages
English (en)
Other versions
JP5549698B2 (ja
Inventor
Yuki Yoshihama
由紀 吉濱
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2012061216A priority Critical patent/JP5549698B2/ja
Priority to US13/768,889 priority patent/US9514729B2/en
Priority to CN201310051134.1A priority patent/CN103310766B/zh
Publication of JP2013195581A publication Critical patent/JP2013195581A/ja
Application granted granted Critical
Publication of JP5549698B2 publication Critical patent/JP5549698B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H7/00Instruments in which the tones are synthesised from a data store, e.g. computer organs
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/441Image sensing, i.e. capturing images or optical patterns for musical purposes or musical control purposes
    • G10H2220/455Camera input, e.g. analyzing pictures from a video camera and using the analysis results as control data
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2230/00General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
    • G10H2230/045Special instrument [spint], i.e. mimicking the ergonomy, shape, sound or other characteristic of a specific acoustic musical instrument category
    • G10H2230/251Spint percussion, i.e. mimicking percussion instruments; Electrophonic musical instruments with percussion instrument features; Electrophonic aspects of acoustic percussion instruments, MIDI-like control therefor
    • G10H2230/275Spint drum
    • G10H2230/281Spint drum assembly, i.e. mimicking two or more drums or drumpads assembled on a common structure, e.g. drum kit

Abstract

【課題】仮想的な楽器セットの配置などのレイアウト情報を、演奏者が打撃ミスをした場合のミス情報に応じて変更できる演奏装置を提供する。
【解決手段】CPU31は、楽曲データに基づいて、仮想パッドのうち、スティック部10A,10Bによりショット操作がなされたタイミングにおいてスティック部10A,10Bの位置座標が属するべき領域の仮想パッドを、当該楽曲データによって定められたタイミング毎に指定し、スティック部10A,10Bによりショット操作がなされたタイミングにおいて、スティック部10A,10Bの位置座標が、指定された仮想パッドの領域に属さなかった場合、当該位置座標を指定された仮想パッドに関連付ける関連付け、関連付けられた位置座標を含むように、指定された仮想パッドの領域を再配置する。
【選択図】図1

Description

本発明は、演奏装置及びプログラムに関する。
従来、演奏者の演奏動作を検知すると、演奏動作に応じた電子音を発音する演奏装置が提案されている。例えば、スティック上の部材のみで打楽器音を発音する演奏装置(エアドラム)が知られている。この演奏装置では、演奏者が、センサを内蔵するスティック状の部材を手で保持して振るといった、あたかもドラムを打撃するような演奏動作をすると、センサが当該演奏動作を検知し、打楽器音が発音される。
このような演奏装置によれば、現実の楽器を必要とせずに当該楽器の楽音を発音することができるため、演奏者は、演奏場所や演奏スペースに制約を受けずに演奏を楽しむことができる。
このような演奏装置として、例えば、特許文献1には、演奏者のスティック状の部材を用いた演奏動作を撮像すると共に、当該演奏動作の撮像画像と、楽器セットを示す仮想画像とを合成した合成画像をモニタに表示し、スティック状の部材と仮想的な楽器セットとの位置情報に応じて所定の楽音を発音するように構成された楽器ゲーム装置が提案されている。
特許第3599115号公報
しかしながら、特許文献1に記載の楽器ゲーム装置をそのまま適用した場合、仮想的な楽器セットの配置などのレイアウト情報は予め定められているため、演奏者が打撃ミスをした場合に打撃ミスに応じてレイアウト情報を変更することはできなかった。
本発明は、このような状況に鑑みてなされたものであり、仮想的な楽器セットの配置などのレイアウト情報を、演奏者が打撃ミスをした場合のミス情報に応じて変更できる演奏装置を提供することを目的とする。
上記目的を達成するため、本発明の一態様の演奏装置は、
演奏者が保持可能な演奏部材と、
前記演奏部材を被写体とする撮像画像を撮像すると共に、前記撮像画像平面上の前記演奏部材の位置座標を検出する撮像装置と、
前記撮像画像平面に配置された領域を規定するレイアウト情報を記憶する記憶手段と、
前記演奏部材により特定の演奏操作がなされたタイミングにおいて、前記演奏部材の位置座標が、前記レイアウト情報に基づいて前記撮像画像平面に配置された領域に属するか否かを判別する判別手段と、
この判別手段により前記領域に属すると判別された場合に、当該領域に対応する楽音の発音を指示する発音指示手段と、
前記判別手段により前記領域に属さないと判別された場合に、前記領域を、前記演奏部材の位置座標を含むように変更するために、前記記憶手段に記憶されたレイアウト情報を変更する変更手段と、
を備えたことを特徴とする。
本発明によれば、仮想的な楽器セットの配置などのレイアウト情報を、演奏者が打撃ミスをした場合のミス情報に応じて変更できる。
本発明の演奏装置の一実施形態の概要を示す図である。 上記演奏装置を構成するスティック部のハードウェア構成を示すブロック図である。 上記スティック部の斜視図である。 上記演奏装置を構成するカメラユニット部のハードウェア構成を示すブロック図である。 上記演奏装置を構成するセンターユニット部のハードウェア構成を示すブロック図である。 本発明の演奏装置の一実施形態に係るセットレイアウト情報を示す図である。 上記セットレイアウト情報が示す概念を仮想平面上で可視化した図である。 上記スティック部の処理の流れを示すフローチャートである。 上記カメラユニット部の処理の流れを示すフローチャートである。 上記センターユニット部の処理の流れを示すフローチャートである。 上記センターユニット部の仮想パッド再配置処理の流れを示すフローチャートである。 仮想パッドの再配置の例を示す図である。
以下、本発明の実施形態について、図面を用いて説明する。
[演奏装置1の概要]
初めに、図1を参照して、本発明の一実施形態としての演奏装置1の概要について説明する。
図1(1)に示すように、本実施形態の演奏装置1は、スティック部10R,10Lと、カメラユニット部20と、センターユニット部30と、を含んで構成される。本実施形態の演奏装置1は、2本のスティックを用いた仮想的なドラム演奏を実現するため、2つのスティック部10R,10Lを備えることとしているが、スティック部の数は、これに限られず1つとしてもよく、3つ以上としてもよい。なお、以下では、スティック部10R,10Lを個々に区別する必要がない場合には、両者を総称して「スティック部10」と呼ぶ。
スティック部10は、長手方向に延びるスティック状の演奏部材である。演奏者は、スティック部10の一端(根元側)を手に持ち、手首などを中心として振り上げたり振り下ろす動作を、演奏動作として行う。このような演奏者の演奏動作を検知するため、スティック部10の他端(先端側)には、加速度センサ及び角速度センサなどの各種センサが設けられている(後述のモーションセンサ部14)。スティック部10は、これらの各種センサにより検知された演奏動作に基づいて、センターユニット部30にノートオンイベントを送信する。
また、スティック部10の先端側には、後述するマーカー部15(図2参照)が設けられており、撮像時にカメラユニット部20がスティック部10の先端を判別可能に構成されている。
カメラユニット部20は、光学式の撮像装置として構成され、スティック部10を保持して演奏動作を行う演奏者を被写体として含む空間(以下、「撮像空間」と呼ぶ)を、所定のフレームレートで撮像し、動画像のデータとして出力する。カメラユニット部20は、撮像空間内における発光中のマーカー部15の位置座標を特定し、当該位置座標を示すデータ(以下、「位置座標データ」と呼ぶ)をセンターユニット部30に送信する。
センターユニット部30は、スティック部10からノートオンイベントを受信すると、受信時のマーカー部15の位置座標データに応じて、所定の楽音を発音する。具体的には、センターユニット部30は、カメラユニット部20の撮像空間に対応付けて、図1(2)に示す仮想ドラムセットDの位置座標データを記憶しており、当該仮想ドラムセットDの位置座標データと、ノートオンイベント受信時のマーカー部15の位置座標データとに基づいて、スティック部10が仮想的に打撃した楽器を特定し、当該楽器に対応する楽音を発音する。
次に、このような本実施形態の演奏装置1の構成について具体的に説明する。
[演奏装置1の構成]
初めに、図2〜図5を参照して、本実施形態の演奏装置1の各構成要素、具体的には、スティック部10、カメラユニット部20及びセンターユニット部30の構成について説明する。
[スティック部10の構成]
図2は、スティック部10のハードウェア構成を示すブロック図である。
図2に示すように、スティック部10は、CPU11(Central Processing Unit)と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、モーションセンサ部14と、マーカー部15と、データ通信部16と、スイッチ操作検出回路17と、を含んで構成される。
CPU11は、スティック部10全体の制御を実行し、例えば、モーションセンサ部14から出力されるセンサ値に基づいて、スティック部10の姿勢の検知、ショット検出及びアクション検出に加え、マーカー部15の発光・消灯などの制御を実行する。このとき、CPU11は、マーカー特徴情報をROM12から読み出し、当該マーカー特徴情報に従い、マーカー部15の発光制御を実行する。また、CPU11は、データ通信部16を介して、センターユニット部30との間の通信制御を実行する。
ROM12は、CPU11により各種処理が実行されるための処理プログラムを格納する。また、ROM12は、マーカー部15の発光制御に用いるマーカー特徴情報を格納する。ここで、カメラユニット部20は、スティック部10Rのマーカー部15(以下、「第1マーカー」と適宜呼ぶ)と、スティック部10Lのマーカー部15(以下、「第2マーカー」と適宜呼ぶ)とを区別する必要がある。マーカー特徴情報とは、第1マーカーと第2マーカーとをカメラユニット部20が区別するための情報であり、例えば、発光時の形状、大きさ、色相、彩度、あるいは輝度に加え、発光時の点滅スピードなどを用いることができる。
スティック部10RのCPU11及びスティック部10LのCPU11は、夫々異なるマーカー特徴情報を読み出し、夫々のマーカーの発光制御を実行する。
RAM13は、モーションセンサ部14が出力した各種センサ値など、処理において取得され又は生成された値を格納する。
モーションセンサ部14は、スティック部10の状態を検知するための各種センサであり、所定のセンサ値を出力する。ここで、モーションセンサ部14を構成するセンサとしては、例えば、加速度センサ、角速度センサ及び磁気センサなどを用いることができる。
図3は、スティック部10の斜視図であり、外部にはスイッチ部171とマーカー部15が配置されている。
演奏者は、スティック部10の一端(根元側)を保持し、手首などを中心とした振り上げ振り下ろし動作を行うことで、スティック部10に対して運動を生じさせる。その際にこの運動に応じたセンサ値がモーションセンサ部14から出力されるようになっている。
モーションセンサ部14からのセンサ値を受け付けたCPU11は、演奏者が持っているスティック部10の状態、を検知する。一例としては、CPU11は、スティック部10による仮想的な楽器の打撃タイミング(以下、「ショットタイミング」とも呼ぶ)を検知する。ショットタイミングは、スティック部10が振り下ろされてから停止される直前のタイミングであり、スティック部10にかかる振り下ろし方向とは逆向きの加速度の大きさがある閾値を超えたタイミングである。
図2に戻り、マーカー部15は、スティック部10の先端側に設けられた発光体であり 、例えばLEDなどで構成され、CPU11からの制御に応じて発光及び消灯する。具体的には、マーカー部15は、CPU11によってROM12から読み出されたマーカー特徴情報に基づいて発光する。このとき、スティック部10Rのマーカー特徴情報と、スティック部10Lのマーカー特徴情報とは異なるため、カメラユニット部20は、スティック部10Rのマーカー部(第1マーカー)の位置座標と、スティック部10Lのマーカー部(第2マーカー)の位置座標とを個々に区別し取得することができる。
データ通信部16は、少なくともセンターユニット部30との間で所定の無線通信を行う。所定の無線通信は、任意の方法で行うこととしてよく、本実施形態では、赤外線通信によりセンターユニット部30との間での無線通信を行う。なお、データ通信部16は、カメラユニット部20との間で無線通信を行うこととしてもよく、また、スティック部10R及びスティック部10Lとの間で無線通信を行うこととしてもよい。
スイッチ操作検出回路17は、スイッチ171と接続され、当該スイッチ171を介した入力情報を受け付ける。
[カメラユニット部20の構成]
スティック部10の構成についての説明は、以上である。続いて、図4を参照して、カメラユニット部20の構成について説明する。
図4は、カメラユニット部20のハードウェア構成を示すブロック図である。
カメラユニット部20は、CPU21と、ROM22と、RAM23と、イメージセンサ部24と、データ通信部25と、を含んで構成される。
CPU21は、カメラユニット部20全体の制御を実行し、例えば、イメージセンサ部24が検出したマーカー部15の位置座標データ及びマーカー特徴情報に基づいて、スティック部10R、10Lのマーカー部15(第1マーカー及び第2マーカー)の夫々の位置座標を算出し、夫々の算出結果を示す位置座標データを出力する制御を実行する。また、CPU21は、データ通信部25を介して、算出した位置座標データなどをセンターユニット部30に送信する通信制御を実行する。
ROM22は、CPU21により各種処理が実行されるための処理プログラムを格納する。RAM23は、イメージセンサ部24が検出したマーカー部15の位置座標データなど、処理において取得され又は生成された値を格納する。また、RAM23は、センターユニット部30から受信したスティック部10R、10Lの夫々のマーカー特徴情報も併せて格納する。
イメージセンサ部24は、例えば、光学式のカメラであり、スティック部10を持って演奏動作を行う演奏者の動画を所定のフレームレートで撮像する。また、イメージセンサ部24は、フレームごとの撮像データをCPU21に出力する。なお、撮像画像内におけるスティック部10のマーカー部15の位置座標の特定については、イメージセンサ部24が行うこととしてもよく、CPU21が行うこととしてもよい。同様に、撮像したマーカー部15のマーカー特徴情報についても、イメージセンサ部24が特定することとしてもよく、CPU21が特定することとしてもよい。
データ通信部25は、少なくともセンターユニット部30との間で所定の無線通信(例えば、赤外線通信)を行う。なお、データ通信部16は、スティック部10との間で無線通信を行うこととしてもよい。
[センターユニット部30の構成]
カメラユニット部20の構成についての説明は、以上である。続いて、図5を参照して、センターユニット部30の構成について説明する。
図5は、センターユニット部30のハードウェア構成を示すブロック図である。
センターユニット部30は、CPU31と、ROM32と、RAM33と、スイッチ操作検出回路34と、表示回路35と、音源装置36と、データ通信部37と、を含んで構成される。
CPU31は、センターユニット部30全体の制御を実行し、例えば、スティック部10から受信したショット検出及びカメラユニット部20から受信したマーカー部15の位置座標に基づいて、所定の楽音を発音する制御などを実行する。また、CPU31は、データ通信部37を介して、スティック部10及びカメラユニット部20との間の通信制御を実行する。
ROM32は、CPU31の実行する各種処理の処理プログラムを格納する。また、ROM32は、種々の音色の波形データ、例えば、フルート、サックス、トランペットなどの管楽器、ピアノなどの鍵盤楽器、ギターなどの弦楽器、バスドラム、ハイハット、スネア、シンバル、タムなど打楽器の波形データ(音色データ)を、位置座標などと対応付けて格納する。
音色データ等の格納方法としては、例えば、図6にセットレイアウト情報として示すように、セットレイアウト情報は、第1パッド〜第nパッドまでのn個のパッド情報を有しており、さらに各パッド情報にパッドの有無(後述する仮想平面における仮想パッドの存在の有無)、位置(後述する仮想平面における位置座標)、サイズ(仮想パッドの形状及び径など)、及び音色(波形データ)などが対応づけられて格納されている。
ここで、図7を参照して、具体的なセットレイアウトについて説明する。図7は、センターユニット部30のROM32に格納されたセットレイアウト情報(図6参照)が示す概念を仮想平面上で可視化した図である。
図7は、4個の仮想パッド81,82,83,84が仮想平面上に配置されている様子を示しており、仮想パッド81,82,83,84には、第1パッド〜第nパッドのうち、パッド有無データが「パッド有」となっているものが対応している。例えば、第2パッド、第3パッド、第5パッド、第6パッドの4つが対応している。さらに、位置データとサイズデータに基づいて仮想パッド81,82,83,84が配置されている。さらにまた、各仮想パッド81に音色データが対応付けられている。したがって、ショット検出時におけるマーカー部15の位置座標が仮想パッド81,82,83,84に対応する領域に属した場合、仮想パッド81,82,83,84に対応する音色が発音される。
なお、CPU31は、この仮想平面を仮想パッド81配置と共に後述する表示装置351に表示してもよい。
また、本実施形態において、この仮想平面での位置座標は、カメラユニット部20の撮像画像での位置座標と一致するものとする。
図5に戻って、RAM33は、スティック部10から受信したスティック部10の状態(ショット検出など)、カメラユニット部20から受信したマーカー部15の位置座標、及び、ROM32から読み出されたセットレイアウト情報など、処理において取得され又は生成された値を格納する。
ショット検出時(すなわち、ノートオンイベント受信時)にマーカー部15の位置座標が属する領域の仮想パッド81に対応する音色データ(波形データ)を、RAM33に格納されたセットレイアウト情報から、CPU31が読み出すことで、演奏者の演奏動作に応じた楽音が発音される。
スイッチ操作検出回路34は、スイッチ341と接続され、当該スイッチ341を介した入力情報を受け付ける。入力情報としては、例えば、発音する楽音の音量や発音する楽音の音色の変更、セットレイアウト番号の設定及び変更、表示装置351の表示の切り替えなどが含まれる。
また、表示回路35は、表示装置351と接続され、表示装置351の表示制御を実行する。
音源装置36は、CPU31からの指示にしたがって、ROM32から波形データを読み出して、楽音データを生成すると共に、楽音データをアナログ信号に変換し、図示しないスピーカから楽音を発音する。
また、データ通信部37は、スティック部10及びカメラユニット部20との間で所定の無線通信(例えば、赤外線通信)を行う。
[演奏装置1の処理]
以上、演奏装置1を構成するスティック部10、カメラユニット部20及びセンターユニット部30の構成について説明した。続いて、図8〜図11を参照して、演奏装置1の処理について説明する。
[スティック部10の処理]
図8は、スティック部10が実行する処理(以下、「スティック部処理」と呼ぶ)の流れを示すフローチャートである。
図8を参照して、スティック部10のCPU11は、モーションセンサ部14からモーションセンサ情報、すなわち、各種センサが出力するセンサ値を読み出し、RAM13に格納する(ステップS1)。その後、CPU11は、読み出したモーションセンサ情報に基づいて、スティック部10の姿勢検知処理を実行する(ステップS2)。姿勢検知処理では、CPU11は、モーションセンサ情報に基づいて、スティック部10の姿勢、例えば、スティック部10のロール角及びピッチ角などを算出する。
続いて、CPU11は、モーションセンサ情報に基づいて、ショット検出処理を実行する(ステップS3)。ここで、演奏者がスティック部10を用いて演奏を行う場合、一般には、現実の楽器(例えば、ドラム)を打撃する動作と同様の演奏動作を行う。このような演奏動作では、演奏者は、まずスティック部10を振り上げ、それから仮想的な楽器に向かって振り下ろす。そしてスティック部10を仮想的な楽器に打撃する寸前に、スティック部10の動作を止めようとする力を働かせる。このとき、演奏者は、仮想的な楽器にスティック部10を打撃した瞬間に楽音が発生することを想定しているため、演奏者が想定するタイミングで楽音を発生できるのが望ましい。そこで、本実施形態では、演奏者が仮想的な楽器の面にスティック部10を打撃する瞬間又はそのわずかに手前のタイミングで楽音を発音することとしている。
本実施形態においては、ショット検出のタイミングは、スティック部10が振り下ろされてから停止される直前のタイミングであり、スティック部10にかかる振り下ろし方向とは逆向きの加速度の大きさがある閾値を超えたタイミングである。
このショット検出のタイミングを発音タイミングとし、発音タイミングが到来したと判断されると、スティック部10のCPU11は、ノートオンイベントを生成し、センターユニット部30に送信する。これにより、センターユニット部30において、発音処理が実行されて、楽音が発音される。
ステップS3に示すショット検出処理では、モーションセンサ情報(例えば、加速度センサのセンサ合成値)に基づいて、ノートオンイベントを生成する。このとき、生成するノートオンイベントには、発音する楽音の音量を含めることとしてもよい。なお、楽音の音量は、例えば、センサ合成値の最大値から求めることができる。
続いて、CPU11は、ステップS1乃至ステップS3の処理で検出した情報、すなわち、モーションセンサ情報、姿勢情報及びショット情報を、データ通信部16を介してセンターユニット部30に送信する(ステップS4)。このとき、CPU11は、スティック識別情報と対応付けて、モーションセンサ情報、姿勢情報及びショット情報をセンターユニット部30に送信する。
これにより、処理はステップS1に戻され、それ以降の処理が繰り返される。
[カメラユニット部20の処理]
図9は、カメラユニット部20が実行する処理(以下、「カメラユニット部処理」と呼ぶ)の流れを示すフローチャートである。
図9を参照して、カメラユニット部20のCPU21は、イメージデータ取得処理を実行する(ステップS11)。この処理では、CPU21は、イメージセンサ部24からイメージデータを取得する。
続いて、CPU21は、第1マーカー検出処理(ステップS12)及び第2マーカー検出処理(ステップS13)を実行する。これらの処理では、CPU21は、イメージセンサ部24が検出した、スティック部10Rのマーカー部15(第1マーカー)及びスティック部10Lのマーカー部15(第2マーカー)の位置座標、サイズ、角度などのマーカー検出情報を、取得しRAM23に格納する。このとき、イメージセンサ部24は、発光中のマーカー部15について、マーカー検出情報を検出する。
続いて、CPU21は、ステップS12及びステップS13で取得したマーカー検出情報を、データ通信部25を介してセンターユニット部30に送信し(ステップS14)、ステップS11に処理を移行させる。
[センターユニット部30の処理]
図10は、センターユニット部30が実行する処理(以下、「センターユニット部処理」と呼ぶ)の流れを示すフローチャートである。
図10を参照して、センターユニット部30のCPU31は、楽曲の演奏を開始する(ステップS21)。この処理では、CPU31は、楽曲を、ドラム音を発音させずに再生する。当該楽曲のデータは、MIDI(Musical Instrument
Digital Interface)データであり、楽曲のテンポ、音符及び休符等に応じて定まるタイミング毎に、演奏者によりショットされるべき仮想パッド81,82,83,84が対応付けられている。この際、CPU31は、ドラムパートの楽譜を、表示回路35を介して表示装置351に表示してもよい。なお、楽曲データは、複数種類存在し、夫々が、ROM32に格納されている。CPU31は、楽曲データをROM32から読み出し、RAM33に格納して再生処理を行う。CPU31が読み出す楽曲データは、ランダムに決定されてもよいし、演奏者によるスイッチ341の操作に基づいて決定されてもよい。
続いて、CPU31は、カメラユニット部20から、第1マーカー及び第2マーカー夫々のマーカー検出情報を受信し、RAM33に格納する(ステップS22)。また、CPU31は、スティック部10R、10Lの夫々から、スティック識別情報と対応付けられたモーションセンサ情報、姿勢情報及びショット情報を受信し、RAM33に格納する(ステップS23)。さらに、CPU31は、スイッチ341の操作により入力された情報を取得する(ステップS24)。
続いて、CPU31は、ショットありか否かを判断する(ステップS25)。この処理では、CPU31は、スティック部10からノートオンイベントを受信したか否かにより、ショットの有無を判断する。このとき、ショットありと判断した場合には、CPU31は、ショット情報処理を実行する(ステップS26)。ショットなしと判断した場合には 、CPU31は、処理をステップS22に移行させる。
ショット情報処理では、CPU31は、RAM33に読み出されたセットレイアウト情報から、マーカー検出情報に含まれる位置座標が属する領域の仮想パッド81,82,83,84のいずれかに対応する音色データ(波形データ)を読み出し、ノートオンイベントに含まれる音量データと共に音源装置36に出力する。すると、音源装置36は、受け取った波形データに基づいて該当する楽音を発音する。
続いて、CPU31は、ショットにミスがあったか否かを判断する(ステップS27)。具体的には、CPU31は、ステップS26でのマーカー検出情報に含まれる位置座標が、ショットされるべき仮想パッドの領域に属さなかった場合に、ミスがあったと判断する。
ステップS27でミスがあったと判断された場合、CPU31は、ショットされるべき仮想パッドに関連付けてショット位置を記憶する(ステップS28)。具体的には、CPU31は、ステップS26でのマーカー検出情報に含まれる位置座標を、ショットされるべき仮想パッドに関連付けてRAM33に記憶する。
ステップS27でミスが無かったと判断された場合、又はステップS28の処理が終了すると、CPU31は、楽曲の演奏が終了したか否かを判断する(ステップS29)。具体的には、CPU31は、ステップS21で再生した楽曲が最後まで演奏した否か、又は、スイッチ341が操作されたことにより、楽曲の再生が強制的に終了されたか否か、を判断する。楽曲の演奏が終了でないと判断されると、CPU31は、処理をステップS22に移行させる。
楽曲の演奏が終了した判断されると、CPU31は、ミス情報を集計する(ステップS30)。例えば、CPU31は、ステップS28でRAM33に記憶されたミスショットの位置の座標分布を、仮想パッド81,82,83,84毎に対応付けて作成する。このミスショットの位置の座標分布の様子を図12の上段の図に示す。この図によれば、仮想パッド81,83の周囲にミスショットの位置座標が分布しており、仮想パッド82,84には、夫々特定の方向にミスショットの位置座標が分布している。
ステップS30の処理が終了すると、CPU31は、図11を参照して説明する仮想パッド再配置処理を実行し(ステップS31)、センターユニット部処理を終了する。
[センターユニット部30の仮想パッド再配置処理]
図11は、図10のセンターユニット部処理のうち、ステップS31の仮想パッド再配置処理の詳細な流れを示すフローチャートである。
図11を参照して、CPU31は、ミスショットの位置座標が仮想パッドの周囲に分布しているか否かを判断する(ステップS41)。具体的には、図10のステップS30で作成したミスショットの位置の座標分布に基づいて当該判断をする。
ステップS41で、ミスショットの位置座標が仮想パッドの周囲に分布していると判断された場合、CPU31は、仮想パッドを拡大し(ステップS42)、ミスショットの位置座標が仮想パッドの周囲に分布していると判断されなかった場合、CPU31は、仮想パッドを特定方向へ移動させる(ステップS43)。
仮想パッドを拡大する場合には、図12に示すように、仮想パッド81,83には周囲にミスショットの位置座標が分布しているので、CPU31は、ミスショットの位置座標を含むように仮想パッド81,83を拡大させることで、仮想パッドを再配置する。
仮想パッドを特定方向へ移動させる場合には、図12に示すように、仮想パッド82,84には、夫々特定の方向にミスショットの位置座標が分布しているので、CPU31は、ミスショットの位置座標を含むように仮想パッド82,84を夫々特定の方向に移動させることで、仮想パッドを再配置する。
ステップS42又はステップS43の処理が終了すると、CPU31は、全ての仮想パッド(仮想パッド81,82,83,84)について処理したか否かを判断する(ステップS44)。全ての仮想パッドについて処理したと判断した場合には、CPU31は、仮想パッド再配置処理を終了し、全ての仮想パッドについて処理しなかったと判断した場合には、ステップS41に処理を移行させる。
以上、本実施形態の演奏装置1の構成及び処理について説明した。
本実施形態においては、CPU31は、楽曲データに基づいて、仮想パッド81,82,83,84のうち、スティック部10によりショット操作がなされたタイミングにおいてスティック部10の位置座標が属するべき領域の仮想パッドを、当該楽曲データによって定められたタイミング毎に指定し、スティック部10によりショット操作がなされたタイミングにおいて、スティック部10の位置座標が、指定された仮想パッドの領域に属さなかった場合、当該位置座標を指定された仮想パッドに関連付ける関連付け、関連付けられた位置座標を含むように、指定された仮想パッドの領域を再配置する。
よって、レイアウト情報に基づいて配置された仮想パッド81,82,83,84の配置を、演奏者が打撃ミスをした場合のショットの位置座標を含むように再配置できる。
したがって、ドラム演奏の初心者等ショットミスをしがちな演奏者であっても演奏を楽しむことができる演奏装置を提供できる。
また、本実施形態においては、CPU31は、ショットするように指定された仮想パッドに関連付けられたミスショット時の位置座標の分布状況に応じて、当該指定された領域の再配置の方法を決定する。
よって、仮想パッドの領域を必要以上に拡大することを防止できる。また、仮想パッドの領域を必要な位置に再配置できる。
以上、本発明の実施形態について説明したが、実施形態は例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換など種々の変更を行うことができる。これら実施形態やその変形は、本明細書などに記載された発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
上記実施形態では、仮想的な打楽器として仮想ドラムセットD(図1参照)を例にとって説明したが、これに限られるものではなく、本発明は、スティック部10の振り下ろし動作で楽音を発音する木琴など他の楽器に適用することができる。
以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
演奏者が保持可能な演奏部材と、
前記演奏部材を被写体とする撮像画像を撮像すると共に、前記撮像画像平面上の前記演奏部材の位置座標を検出する撮像装置と、
前記撮像画像平面に配置された領域を規定するレイアウト情報を記憶する記憶手段と、
前記演奏部材により特定の演奏操作がなされたタイミングにおいて、前記演奏部材の位置座標が、前記レイアウト情報に基づいて前記撮像画像平面に配置された領域に属するか否かを判別する判別手段と、
この判別手段により前記領域に属すると判別された場合に、当該領域に対応する楽音の発音を指示する発音指示手段と、
前記判別手段により前記領域に属さないと判別された場合に、前記領域を、前記演奏部材の位置座標を含むように変更するために、前記記憶手段に記憶されたレイアウト情報を変更する変更手段と、
を備えたことを特徴とする演奏装置。
[付記2]
前記レイアウト情報は、前記領域の前記撮像画像平面上の位置及び当該領域のサイズを規定し、前記変更手段は、前記領域の位置及びサイズの少なくとも一方を変更するように前記レイアウト情報を変更することを特徴とする付記1に記載の演奏装置。
[付記3]
前記記憶手段は、前記撮像画像平面に配置された複数の領域夫々を規定するレイアウト情報を記憶するとともに、
前記複数の領域のうち、前記演奏部材により特定の演奏操作がなされたタイミング毎に前記演奏部材の位置座標が属するべき領域を、順次指定する領域指定手段と、をさらに有し、
前記判別手段は、前記演奏部材により特定の演奏操作がなされたタイミングにおいて、前記演奏部材の位置座標が、前記レイアウト情報に基づいて配置された複数の領域のいずれかに属するか否かを判別することを特徴とする付記1に記載の演奏装置。
[付記4]
演奏者が保持可能な演奏部材と、前記演奏部材を被写体とする撮像画像を撮像すると共に、前記撮像画像平面上の前記演奏部材の位置座標を検出する撮像装置と、前記撮像画像平面に配置された領域を規定するレイアウト情報を記憶する記憶手段と、を有する演奏装置に用いられるコンピュータに、
前記演奏部材により特定の演奏操作がなされたタイミングにおいて、前記演奏部材の位置座標が、前記レイアウト情報に基づいて前記撮像画像平面に配置された領域に属するか否かを判別する判別ステップと、
前記領域に属すると判別された場合に、当該領域に対応する楽音の発音を指示する発音指示ステップと、
前記領域に属さないと判別された場合に、前記領域を、前記演奏部材の位置座標を含むように変更するために、前記記憶手段に記憶されたレイアウト情報を変更する変更ステップと、
を実行させるプログラム。
1・・・演奏装置、10・・・スティック部、11・・・CPU、12・・・ROM、13・・・RAM、14・・・モーションセンサ部、15・・・マーカー部、16・・・データ通信部、17・・・スイッチ操作検出回路、171・・・スイッチ、20・・・カメラユニット部、21・・・CPU、22・・・ROM、23・・・RAM、24・・・イメージセンサ部、25・・・データ通信部、30・・・センターユニット、31・・・CPU、32・・ROM、33・・・RAM、34・・・スイッチ操作検出回路、341・・・スイッチ、35・・・表示回路、351・・・表示装置、36・・・音源装置、37・・・データ通信部、81〜84・・・仮想パッド
本発明は、演奏装置、方法及びプログラムに関する。
本発明は、このような状況に鑑みてなされたものであり、仮想的な楽器セットの配置などのレイアウト情報を、演奏者が打撃ミスをした場合のミス情報に応じて変更できる演奏装置、方法及びプログラムを提供することを目的とする。
上記目的を達成するため、本発明の一態様の演奏装置は、
演奏者が保持可能な演奏部材の、仮想平面上における位置座標を検出する位置センサと、
前記演奏部材により特定の演奏操作がなされたタイミングにおいて、前記演奏部材の位置座標が、所定の仮想平面上に配置された領域を規定するレイアウト情報に基づいて前記仮想平面に配置された領域に属するか否かを判別する判別手段と、
この判別手段により前記領域に属すると判別された場合に、当該領域に対応する楽音の発音を指示する発音指示手段と
前記判別手段により前記領域に属すると判別された場合に、前記領域を、前記演奏部材の位置座標を含むように変更するために、前記レイアウト情報を変更する変更手段と、
を備えたことを特徴とする。
また、本発明の一態様の方法は、
演奏者が保持可能な演奏部材の、仮想平面上における位置座標を検出する位置センサを有する演奏装置に用いられる方法であって、
前記演奏部材により特定の演奏操作がなされたタイミングにおいて、前記演奏部材の位置座標が、所定の仮想平面上に配置された領域を規定するレイアウト情報に基づいて前記仮想平面上に配置された領域に属するか否かを判別し、
前記領域に属すると判別された場合に、当該領域に対応する楽音の発音を指示し、
前記領域に属すると判別された場合に、前記領域を、前記演奏部材の位置座標を含むように変更するために、前記レイアウト情報を変更する、ことを特徴とする。
さらに本発明の一態様のプログラムは、
演奏者が保持可能な演奏部材の、仮想平面上における位置座標を検出する位置センサと、を有する演奏装置に用いられるコンピュータに、
前記演奏部材により特定の演奏操作がなされたタイミングにおいて、前記演奏部材の位置座標が、所定の仮想平面上に配置された領域を規定するレイアウト情報に基づいて前記仮想平面に配置された領域に属するか否かを判別する判別ステップと、
この判別ステップにより前記領域に属すると判別された場合に、当該領域に対応する楽音の発音を指示する発音指示ステップと、
前記判別ステップにより前記領域に属すると判別された場合に、前記領域を、前記演奏部材の位置座標を含むように変更するために、前記レイアウト情報を変更する変更ステップと、
を実行させることを特徴とする。

Claims (4)

  1. 演奏者が保持可能な演奏部材と、
    前記演奏部材を被写体とする撮像画像を撮像すると共に、前記撮像画像平面上の前記演奏部材の位置座標を検出する撮像装置と、
    前記撮像画像平面に配置された領域を規定するレイアウト情報を記憶する記憶手段と、
    前記演奏部材により特定の演奏操作がなされたタイミングにおいて、前記演奏部材の位置座標が、前記レイアウト情報に基づいて前記撮像画像平面に配置された領域に属するか否かを判別する判別手段と、
    この判別手段により前記領域に属すると判別された場合に、当該領域に対応する楽音の発音を指示する発音指示手段と、
    前記判別手段により前記領域に属さないと判別された場合に、前記領域を、前記演奏部材の位置座標を含むように変更するために、前記記憶手段に記憶されたレイアウト情報を変更する変更手段と、
    を備えたことを特徴とする演奏装置。
  2. 前記レイアウト情報は、前記領域の前記撮像画像平面上の位置及び当該領域のサイズを規定し、前記変更手段は、前記領域の位置及びサイズの少なくとも一方を変更するように前記レイアウト情報を変更することを特徴とする請求項1に記載の演奏装置。
  3. 前記記憶手段は、前記撮像画像平面に配置された複数の領域夫々を規定するレイアウト情報を記憶するとともに、
    前記複数の領域のうち、前記演奏部材により特定の演奏操作がなされたタイミング毎に前記演奏部材の位置座標が属するべき領域を、順次指定する領域指定手段と、をさらに有し、
    前記判別手段は、前記演奏部材により特定の演奏操作がなされたタイミングにおいて、前記演奏部材の位置座標が、前記レイアウト情報に基づいて配置された複数の領域のいずれかに属するか否かを判別することを特徴とする請求項1に記載の演奏装置。
  4. 演奏者が保持可能な演奏部材と、前記演奏部材を被写体とする撮像画像を撮像すると共に、前記撮像画像平面上の前記演奏部材の位置座標を検出する撮像装置と、前記撮像画像平面に配置された領域を規定するレイアウト情報を記憶する記憶手段と、を有する演奏装置に用いられるコンピュータに、
    前記演奏部材により特定の演奏操作がなされたタイミングにおいて、前記演奏部材の位置座標が、前記レイアウト情報に基づいて前記撮像画像平面に配置された領域に属するか否かを判別する判別ステップと、
    前記領域に属すると判別された場合に、当該領域に対応する楽音の発音を指示する発音指示ステップと、
    前記領域に属さないと判別された場合に、前記領域を、前記演奏部材の位置座標を含むように変更するために、前記記憶手段に記憶されたレイアウト情報を変更する変更ステップと、
    を実行させるプログラム。
JP2012061216A 2012-03-16 2012-03-16 演奏装置、方法及びプログラム Active JP5549698B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012061216A JP5549698B2 (ja) 2012-03-16 2012-03-16 演奏装置、方法及びプログラム
US13/768,889 US9514729B2 (en) 2012-03-16 2013-02-15 Musical instrument, method and recording medium capable of modifying virtual instrument layout information
CN201310051134.1A CN103310766B (zh) 2012-03-16 2013-02-16 演奏装置及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012061216A JP5549698B2 (ja) 2012-03-16 2012-03-16 演奏装置、方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2013195581A true JP2013195581A (ja) 2013-09-30
JP5549698B2 JP5549698B2 (ja) 2014-07-16

Family

ID=49135918

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012061216A Active JP5549698B2 (ja) 2012-03-16 2012-03-16 演奏装置、方法及びプログラム

Country Status (3)

Country Link
US (1) US9514729B2 (ja)
JP (1) JP5549698B2 (ja)
CN (1) CN103310766B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013195582A (ja) * 2012-03-16 2013-09-30 Casio Comput Co Ltd 演奏装置及びプログラム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5598490B2 (ja) 2012-03-19 2014-10-01 カシオ計算機株式会社 演奏装置、方法及びプログラム
CN105807907B (zh) * 2014-12-30 2018-09-25 富泰华工业(深圳)有限公司 体感交响乐演奏系统及方法
US9430997B2 (en) * 2015-01-08 2016-08-30 Muzik LLC Interactive instruments and other striking objects
US9966051B2 (en) * 2016-03-11 2018-05-08 Yamaha Corporation Sound production control apparatus, sound production control method, and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07281666A (ja) * 1994-04-05 1995-10-27 Casio Comput Co Ltd 画像制御装置
JP2002041038A (ja) * 2000-07-31 2002-02-08 Taito Corp 仮想楽器演奏装置
JP2004252149A (ja) * 2003-02-20 2004-09-09 Yamaha Corp 仮想打楽器演奏システム
JP2006337487A (ja) * 2005-05-31 2006-12-14 Yamaha Corp 鍵域分割装置及びプログラム

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5290964A (en) 1986-10-14 1994-03-01 Yamaha Corporation Musical tone control apparatus using a detector
US5177311A (en) 1987-01-14 1993-01-05 Yamaha Corporation Musical tone control apparatus
JP3599115B2 (ja) 1993-04-09 2004-12-08 カシオ計算機株式会社 楽器ゲーム装置
US7294777B2 (en) 2005-01-06 2007-11-13 Schulmerich Carillons, Inc. Electronic tone generation system and batons therefor
JP4679429B2 (ja) 2006-04-27 2011-04-27 任天堂株式会社 音出力プログラムおよび音出力装置
US8814641B2 (en) 2006-05-08 2014-08-26 Nintendo Co., Ltd. System and method for detecting moment of impact and/or strength of a swing based on accelerometer data
US8678895B2 (en) 2007-06-14 2014-03-25 Harmonix Music Systems, Inc. Systems and methods for online band matching in a rhythm action game
JP2011128427A (ja) 2009-12-18 2011-06-30 Yamaha Corp 演奏装置、演奏制御装置及びプログラム
JP5029732B2 (ja) 2010-07-09 2012-09-19 カシオ計算機株式会社 演奏装置および電子楽器
JP5338794B2 (ja) 2010-12-01 2013-11-13 カシオ計算機株式会社 演奏装置および電子楽器
JP5712603B2 (ja) 2010-12-21 2015-05-07 カシオ計算機株式会社 演奏装置および電子楽器
JP6007476B2 (ja) 2011-02-28 2016-10-12 カシオ計算機株式会社 演奏装置および電子楽器
JP5573899B2 (ja) 2011-08-23 2014-08-20 カシオ計算機株式会社 演奏装置
US9035160B2 (en) * 2011-12-14 2015-05-19 John W. Rapp Electronic music controller using inertial navigation
JP2013190690A (ja) 2012-03-14 2013-09-26 Casio Comput Co Ltd 演奏装置及びプログラム
JP5966465B2 (ja) 2012-03-14 2016-08-10 カシオ計算機株式会社 演奏装置、プログラム及び演奏方法
JP6127367B2 (ja) 2012-03-14 2017-05-17 カシオ計算機株式会社 演奏装置及びプログラム
JP6024136B2 (ja) 2012-03-15 2016-11-09 カシオ計算機株式会社 演奏装置、演奏方法及びプログラム
JP5598490B2 (ja) 2012-03-19 2014-10-01 カシオ計算機株式会社 演奏装置、方法及びプログラム
JP6044099B2 (ja) 2012-04-02 2016-12-14 カシオ計算機株式会社 姿勢検出装置、方法及びプログラム
JP2013213946A (ja) 2012-04-02 2013-10-17 Casio Comput Co Ltd 演奏装置、方法及びプログラム
JP2013213744A (ja) 2012-04-02 2013-10-17 Casio Comput Co Ltd 姿勢検出装置、方法及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07281666A (ja) * 1994-04-05 1995-10-27 Casio Comput Co Ltd 画像制御装置
JP2002041038A (ja) * 2000-07-31 2002-02-08 Taito Corp 仮想楽器演奏装置
JP2004252149A (ja) * 2003-02-20 2004-09-09 Yamaha Corp 仮想打楽器演奏システム
JP2006337487A (ja) * 2005-05-31 2006-12-14 Yamaha Corp 鍵域分割装置及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013195582A (ja) * 2012-03-16 2013-09-30 Casio Comput Co Ltd 演奏装置及びプログラム

Also Published As

Publication number Publication date
US9514729B2 (en) 2016-12-06
CN103310766A (zh) 2013-09-18
CN103310766B (zh) 2015-11-18
US20130239781A1 (en) 2013-09-19
JP5549698B2 (ja) 2014-07-16

Similar Documents

Publication Publication Date Title
JP6024136B2 (ja) 演奏装置、演奏方法及びプログラム
JP6127367B2 (ja) 演奏装置及びプログラム
JP5966465B2 (ja) 演奏装置、プログラム及び演奏方法
JP2013182195A (ja) 演奏装置及びプログラム
JP5533915B2 (ja) 習熟度判定装置、習熟度判定方法及びプログラム
JP5598490B2 (ja) 演奏装置、方法及びプログラム
US8710345B2 (en) Performance apparatus, a method of controlling the performance apparatus and a program recording medium
JP5573899B2 (ja) 演奏装置
JP5712603B2 (ja) 演奏装置および電子楽器
US20090318227A1 (en) Game controller case and sound output control method
JP5549698B2 (ja) 演奏装置、方法及びプログラム
JP2013040991A (ja) 操作子、操作方法及びプログラム
JP5861517B2 (ja) 演奏装置及びプログラム
JP6398291B2 (ja) 演奏装置、演奏方法及びプログラム
JP6111526B2 (ja) 楽音発生装置
JP5942627B2 (ja) 演奏装置、方法及びプログラム
JP6098083B2 (ja) 演奏装置、演奏方法及びプログラム
JP5974567B2 (ja) 楽音発生装置
JP6098081B2 (ja) 演奏装置、演奏方法及びプログラム
JP6094111B2 (ja) 演奏装置、演奏方法及びプログラム
JP5935399B2 (ja) 楽音発生装置
JP2011107445A (ja) 演奏装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140325

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140422

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140505

R150 Certificate of patent or registration of utility model

Ref document number: 5549698

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150