JP2022187914A - Music playing toy using portable terminal device - Google Patents

Music playing toy using portable terminal device Download PDF

Info

Publication number
JP2022187914A
JP2022187914A JP2021096151A JP2021096151A JP2022187914A JP 2022187914 A JP2022187914 A JP 2022187914A JP 2021096151 A JP2021096151 A JP 2021096151A JP 2021096151 A JP2021096151 A JP 2021096151A JP 2022187914 A JP2022187914 A JP 2022187914A
Authority
JP
Japan
Prior art keywords
musical score
gesture
image
musical
rotation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021096151A
Other languages
Japanese (ja)
Inventor
享寿 太田
Yukihisa Ota
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2021096151A priority Critical patent/JP2022187914A/en
Publication of JP2022187914A publication Critical patent/JP2022187914A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a music playing toy which detects rotational speed of a rotation gesture by the rotation gesture on a touch panel by one contact point of an electronic device such as a portable terminal device, determines a playing position of a musical score inputted from digital musical score input means on the basis of the detected rotational speed, and plays a music instrument on the basis of the determined playing position or to provide a music playing toy which detects a virtual radius of rotation, determines a sound volume on the basis of the detected virtual radius of rotation and plays the music instrument on the basis of the detected sound volume.SOLUTION: Detection means for detecting rotational speed of a rotation gesture on a touch panel by one contact point of an electronic device such as a portable terminal device and determination means for determining a playing position of a musical score on the basis of the detected rotational speed are provided, and a music instrument is played on the basis of the determined playing position, or detection means for detecting a virtual radius of rotation of the rotation gesture and determination means for determining a sound volume on the basis of the detected virtual radius of rotation are provided, and the music instrument is played on the basis of the determined sound volume.SELECTED DRAWING: Figure 2

Description

本発明は、スマートフォン等の携帯端末機器を用いた音楽演奏玩具に関するものである。 TECHNICAL FIELD The present invention relates to a musical playing toy using a mobile terminal device such as a smart phone.

従来よりたとえば特許文献1で示されるようにロール紙等に音符に対応した線を印刷記録して楽譜とし、このロール紙等の移動を撮影、記録あるいはそれ以外の方法により作成したデジタル動画データから、連続して静止画像を切り出して入力とする画像入力手段と、入力された静止画像から画像処理により記録されている音符を検出する画像処理手段とを設けることにより、検出した音符に基づいて対応する音符の音を出して前記楽譜を演奏するという自動演奏ピアノを模擬した音楽演奏玩具が知られている。 Conventionally, as shown in Patent Document 1, for example, lines corresponding to musical notes are printed and recorded on roll paper or the like to form a musical score, and the movement of the roll paper or the like is photographed, recorded, or created from digital moving image data by other methods. By providing an image input means for continuously cutting out still images and inputting them, and an image processing means for detecting musical notes recorded by image processing from the input still images, correspondence is made based on the detected musical notes. There is known a music playing toy that imitates a self-playing piano that plays the musical score by producing the sound of the notes played.

同文献によれば、画像入力手段に入力される画像は、カメラから入力される動画に限定されず、別途音符等が印刷されたロール紙を巻き取る様子や実際の自動演奏ピアノのロール紙が演奏により巻き取られる様子をビデオ撮影したMP4フォーマット等の動画、あるいは電子的に作られた同様の動画を入力する手段であっても良いとされている。 According to the same document, the image input to the image input means is not limited to the moving image input from the camera, and there is a scene of winding up a roll paper on which musical notes etc. are printed, and a roll paper of an actual self-playing piano. It is said that means for inputting moving images in MP4 format or the like obtained by video-recording how the tape is wound up during a performance, or similar moving images created electronically may be used.

また特許文献2、3、4によれば、自動演奏ピアノ用のロール紙に記録された楽譜と演奏の様子を電子的に模擬するピアノロールを、別途用意したデジタル楽譜データ、例えばMIDIデータ等に基づいて音楽を再生する機能について開示されている。 Further, according to Patent Documents 2, 3, and 4, a musical score recorded on roll paper for an automatic piano and a piano roll that electronically simulates the state of performance are converted into separately prepared digital musical score data, such as MIDI data. It discloses the ability to play music based on

さらに特許文献5においては操作端末から送信される操作者の動きに応じた運動情報を受信し、受信した運動情報に基づいて既存のデジタル楽譜データの編集等を行う技術が公開されている。なおデジタル楽譜データは特許文献5においては演奏データと呼ばれているが、ここでは後に登場する楽譜画像と対比するためにデジタル楽譜データ(略して楽譜データ)と呼ぶことにする。またデジタル楽譜画像とデジタル楽譜データをまとめてデジタル楽譜と呼ぶことにする。 Furthermore, Japanese Patent Application Laid-Open No. 2002-200000 discloses a technique for receiving exercise information according to the movement of an operator transmitted from an operation terminal and editing existing digital musical score data based on the received exercise information. Although digital musical score data is called performance data in Patent Document 5, it will be called digital musical score data (abbreviated musical score data) here in order to compare with musical score images that will appear later. Digital musical score images and digital musical score data are collectively referred to as digital musical scores.

一方、特許文献6、7では携帯端末機器のタッチパネル上を複数の指でタッチした状態で動かす操作をジェスチャーとして認識する技術が公開されており、ここではパネル上の指の回転を一定間隔で発生するジェスチャー・イベントとして認識し、認識した情報をブラウザに送ってWebページのエレメントを動的に回転させる技術が開示されている。 On the other hand, Patent Literatures 6 and 7 disclose techniques for recognizing as a gesture an operation of touching and moving a touch panel of a mobile terminal device with a plurality of fingers. A technology is disclosed that recognizes a gesture event as a gesture event, sends the recognized information to a browser, and dynamically rotates an element of a web page.

また特許文献8においては、タッチパネル上の指の回転を認識する方法として、位置座標上の仮想円を設定し、仮想円の中心座標、同仮想円の半径、及び同仮想円の回転角のうち少なくともいずれか一つの時間経過に伴う変化を操作信号として算出する技術が公開されている。 Further, in Patent Document 8, as a method of recognizing rotation of a finger on a touch panel, a virtual circle is set on the position coordinates, and among the center coordinates of the virtual circle, the radius of the virtual circle, and the rotation angle of the virtual circle, Techniques for calculating at least one change over time as an operation signal have been disclosed.

ここで、特許文献1で示された装置の入力画像として、同文献では示されなかった電子的に作られた楽譜の静止画像を考える。これは特許文献1で示されたロール紙に記録された楽譜を、PNGやJPEGといったファイルフォーマットで保存した電子画像であり、これをデジタル楽譜画像,略して楽譜画像と呼ぶことにする。この楽譜画像を用いれば、特許文献1で示されたカメラあるいは動画データから静止画像を切り出したのと同様に同楽譜画像を一定時間間隔で順次読み出し位置をずらしながら切り出し、その後切り出した画像を画像処理手段に渡して特許文献1で示されるものと同様の処理を行えば、前記楽譜画像を演奏することができる。 Here, as an input image for the apparatus disclosed in Patent Document 1, consider a still image of an electronically produced musical score, which is not disclosed in the document. This is an electronic image in which the musical score recorded on the roll paper disclosed in Patent Document 1 is saved in a file format such as PNG or JPEG. By using this musical score image, the same musical score image is cut out while sequentially shifting the reading position at regular time intervals in the same way as a still image is cut out from the camera or moving image data disclosed in Patent Document 1, and then the cut out image is displayed as an image. The score image can be played by passing it to the processing means and performing the same processing as disclosed in Patent Document 1. FIG.

このとき、前記携帯端末機器のタッチパネル上の回転ジェスチャーにより得られる回転の速度に基づいて、楽譜の演奏位置として前記静止画像を切り出す位置を決定するようにすれば、回転ジェスチャーの回転速度に依存した形で演奏速度を変更することが可能となる。 At this time, if the position at which the still image is cut out as the performance position of the musical score is determined based on the rotation speed obtained by the rotation gesture on the touch panel of the mobile terminal device, the rotation speed depends on the rotation speed of the rotation gesture. It is possible to change the performance speed in the shape.

また、タッチパネル上の指の回転をジェスチャーとして認識する際に回転円の仮想直径を認識し、それを演奏の音量に対応付けて音符の音を鳴らすようにすれば、特許文献1で示された装置では実現できなかった演奏中の音量の調整が可能となる。 In addition, if the virtual diameter of the rotation circle is recognized when recognizing the rotation of the finger on the touch panel as a gesture, and the sound of the musical note is made to correspond to the volume of the performance, the sound of the musical note is played. It is possible to adjust the volume during a performance, which could not be realized with a device.

さらに楽譜として楽譜画像の代わりに前述のデジタル楽譜データ(MIDIデータ等)を利用すれば、画像処理手段を必要としない、より簡易な装置が実現できる。 Furthermore, if the above-mentioned digital musical score data (MIDI data, etc.) is used instead of the musical score image as the musical score, a simpler apparatus that does not require image processing means can be realized.

しかしながら特許文献2,3、4、5においては実際の演奏の速度をリアルタイムに変更する技術は開示されておらず、特許文献6、7においてもジェスチャーによる指の回転として回転の角度、速さなどの認識方法が開示されてはいるものの、楽譜の演奏のために楽譜の演奏位置を決定する方法までは開示されていない。 However, Patent Documents 2, 3, 4, and 5 do not disclose a technique for changing the actual performance speed in real time. However, it does not disclose a method for determining the performance position of the musical score for performance of the musical score.

また、特許文献8においては、円の中心を決めない操作で2本以上の指を使っての操作、および円の中心を予め決めた上で1本の指の操作による、仮想円の半径および仮想円の回転角を求める方法については開示されているが、円の中心を予め決めずに1本の指の操作による仮想円の直径を求める方法については開示されていない。 Further, in Patent Document 8, an operation using two or more fingers without determining the center of the circle, and an operation with one finger after determining the center of the circle in advance, the radius of the virtual circle and A method for obtaining the rotation angle of the virtual circle is disclosed, but a method for obtaining the diameter of the virtual circle by manipulating one finger without predetermining the center of the circle is not disclosed.

特願2020-210850Patent application 2020-210850 特開2001-51586Japanese Patent Application Laid-Open No. 2001-51586 特開2007-279470JP 2007-279470 特開2015-069151JP 2015-069151 特開2004-053930JP 2004-053930 特開2019-57295JP 2019-57295 特開2016-201122JP 2016-201122 特許第6058118号Patent No. 6058118

本発明が解決しようとする課題は、携帯端末機器等の電子装置において、一接触点によるジェスチャー・イベントとして認識されるタッチパネル上の回転操作から、ジェスチャーの回転速度を検出し、検出した回転速度から演奏用の楽譜の演奏位置を決定し、決定した演奏位置に基づいて同楽譜を演奏するための実用的な方法、装置を提供することである。 The problem to be solved by the present invention is to detect the rotation speed of the gesture from the rotation operation on the touch panel that is recognized as a gesture event by one contact point in an electronic device such as a mobile terminal device, and to detect the rotation speed from the detected rotation speed. To provide a practical method and apparatus for determining a performance position of a musical score for performance and playing the same musical score based on the determined performance position.

またもう一つの本発明が解決しようとする課題は、携帯端末機器等の電子装置において、一接触点によるジェスチャー・イベントとして認識されるタッチパネル上の回転操作から、ジェスチャーの回転円の仮想的な直径を求め、その長さに応じて演奏の音量を決定することにより、演奏中にジェスチャーによる音量調整が可能な実用的な方法、装置を提供することである。 Another problem to be solved by the present invention is that, in an electronic device such as a mobile terminal device, from a rotation operation on a touch panel that is recognized as a gesture event by one contact point, the virtual diameter and determining the volume of the performance according to the length of the performance, thereby providing a practical method and device capable of adjusting the volume by gestures during the performance.

本発明は、演奏に利用するデジタルに記録された楽譜を読み込むための楽譜読み込み手段と、一接触点によるタッチパネル上の回転ジェスチャーを認識するためのジェスチャー検出手段と、ジェスチャー検出手段から一定時間間隔で得られる二次元座標上のタッチ位置座標からジェスチャーの回転の速度を求めるための回転速度検出手段と、回転速度検出手段により検出されたジェスチャーの回転速度から、前記楽譜の演奏位置を決定する演奏位置決定手段を設け、決定された演奏位置に基づいて前記楽譜を演奏することを最も主要な特徴とする。 The present invention comprises a musical score reading means for reading a digitally recorded musical score to be used in a performance, a gesture detecting means for recognizing a turning gesture on a touch panel by a single contact point, and the gesture detecting means at regular time intervals. Rotational speed detection means for determining the rotation speed of the gesture from the obtained touch position coordinates on the two-dimensional coordinates, and a performance position for determining the performance position of the musical score from the gesture rotation speed detected by the rotation speed detection means. The most important feature is that a determination means is provided and the musical score is played based on the determined playing position.

また本発明は、一接触点によるタッチパネル上の回転ジェスチャーを認識するためのジェスチャー検出手段と、ジェスチャー検出手段から一定時間間隔で得られる二次元座標上のタッチ位置座標から回転の仮想円の直径を求めるための直径検出手段と、求められた仮想円の直径から演奏の音量を決定するための音量決定手段を設け、音量決定手段の決定に基づいた音量で演奏することも主要な特徴とする。 Further, the present invention provides gesture detection means for recognizing a rotation gesture on a touch panel by one contact point, and the diameter of a virtual circle of rotation is determined from touch position coordinates on two-dimensional coordinates obtained from the gesture detection means at regular time intervals. A diameter detecting means for obtaining the diameter and a volume determining means for determining the volume of the performance from the obtained diameter of the virtual circle are provided, and the performance is performed at the volume based on the determination of the volume determining means.

本発明によれば、タッチパネル上の一接触点による回転ジェスチャーの回転の速度から楽譜の演奏位置を決定する演奏位置決定手段を設け、決定された演奏位置に基づいて楽譜を演奏することにより、ジェスチャーの回転の速度に応じて楽譜の演奏の速度を変えることが可能となり、携帯端末機器等の電子装置だけで従来の物理的な手回し装置を備えた音楽演奏玩具と同等の機能を提供できるという利点がある。 According to the present invention, a performance position determination means is provided for determining a performance position of a musical score based on the speed of rotation of the rotation gesture by one contact point on the touch panel. It is possible to change the playing speed of the musical score according to the rotation speed of the drum, and the advantage that it is possible to provide the same function as a conventional musical playing toy equipped with a conventional physical hand-cranked device with only an electronic device such as a mobile terminal device. There is

また本発明によれば、タッチパネル上の一接触点による回転ジェスチャーの回転の仮想円の直径を求めるための直径検出手段と、求められた仮想円の直径から演奏の音量を決定するための音量決定手段を設け、音量決定手段の決定に基づいて演奏の音量を変更することにより、演奏中の音量をジェスチャーにより自由に変えることのできるという従来の音楽演奏玩具にはなかった機能を提供できるという利点がある。 Further, according to the present invention, there are provided diameter detection means for obtaining the diameter of a virtual circle of rotation of a rotation gesture by one contact point on the touch panel, and volume determination for determining the volume of the performance from the obtained diameter of the virtual circle. By providing the means and changing the volume of the performance based on the determination of the volume determining means, it is possible to freely change the volume during the performance by means of gestures, which is an advantage of being able to provide a function not found in conventional music playing toys. There is

図1は第1の実施方法を示した説明図である。(実施例1)FIG. 1 is an explanatory diagram showing the first implementation method. (Example 1) 図2は実施例1におけるハードウェアおよびソフトウェアの構成を示した説明図である。FIG. 2 is an explanatory diagram showing the configuration of hardware and software in the first embodiment. 図3は実施例1におけるソフトウェアの動作を示したフローチャートである。FIG. 3 is a flowchart showing software operations in the first embodiment. 図4は実施例1におけるジェスチャーの内容を説明するための説明図1である。FIG. 4 is an explanatory diagram 1 for explaining contents of gestures in the first embodiment. 図5は実施例1におけるジェスチャーの内容を説明するための説明図2である。FIG. 5 is an explanatory diagram 2 for explaining contents of gestures in the first embodiment. 図6は一般的な楽譜を説明する説明図である。FIG. 6 is an explanatory diagram for explaining a general musical score. 図7は実施例1におけるデジタル楽譜画像を説明する説明図である。FIG. 7 is an explanatory diagram for explaining a digital musical score image according to the first embodiment. 図8は第2の実施方法を示した説明図である。(実施例2)FIG. 8 is an explanatory diagram showing the second implementation method. (Example 2)

従来の自動演奏ピアノを模擬する音楽演奏玩具を携帯端末機器等の電子装置だけで実現するという目的を、デジタル楽譜入力手段からデジタル楽譜を入力し、携帯端末のタッチパネル上での一接触点によるジェスチャーによる回転の速度を検出し、検出された回転の速度から同楽譜の演奏位置を決定し、決定された演奏位置に基づいて同楽譜を演奏することにより、ジェスチャーの回転の速度に応じて楽譜を演奏するという方法で実現した。また、同音楽演奏玩具の演奏時にジェスチャーによって音量調節を実現するという目的を、タッチパネル上での一接触点によるジェスチャーによる回転の仮想円の直径を求め、求められた仮想円の直径から演奏の音量を決定するという方法で実現した。 The purpose of realizing a music playing toy that simulates a conventional automatic piano with only electronic devices such as mobile terminal devices is to input digital musical scores from a digital musical score input means and gesture by one touch point on the touch panel of the mobile terminal. By detecting the rotation speed of the gesture, determining the performance position of the same score from the detected rotation speed, and playing the same score based on the determined performance position, the score is played according to the rotation speed of the gesture. It was realized by the method of playing. In addition, for the purpose of realizing volume control by gestures when playing the same music playing toy, the diameter of the virtual circle of rotation by gesture by one touch point on the touch panel was obtained, and the volume of the performance was calculated from the diameter of the virtual circle obtained. This was achieved by determining the

図1は、本発明装置の第1の実施例の全体図であって、100はスマートフォン本体、101は液晶パネルによる画像出力部である。同液晶パネルはタッチパネルになっており、ユーザー操作による情報入力部102も兼ねている。1011の破線の枠で示される部分はスマートフォン本体内にある楽譜入力手段から読み出されて、表示に必要な部分を切り出す、あるいは描画して、演奏の進行に応じて楽譜の移動する様子をリアルタイムに表示する楽譜画像表示部で、従来の自動演奏ピアノにおける演奏に伴ってロール紙が巻き取られる様子を見ることができるガラス窓の部分を模擬している。なお本実施例において表示される楽譜画像は、演奏の進行に従って302で示される矢印の方向へ移動する。1020の破線は演奏位置を示す仮想的なタイミング線であり、音符がその線上にあるときに音が出るということを表す。2001、2002、2003は液晶パネル101上に表示された楽譜画像の音符である。2010、2011は同パネル101上に表示された音符の位置検出用に楽譜画像の両端に記録されたマーカー線である。なおこのマーカー線は本実施例においては後述する画像処理手段において利用されるが、デジタル楽譜を利用して音符の音を出すためには必須ではない。1012の破線の枠で示される部分は鍵盤表示部で、演奏位置に音符がある場合には、音符に対応する鍵盤が押されたことを示すために白鍵、黒鍵それぞれの色を灰色に変えて表示する。また演奏位置にあった音符が時間経過に伴い移動してなくなった場合には、音符に対応する鍵盤が放されたことを示すために白鍵、黒鍵それぞれの色を元の色に変えて表示する。300は液晶パネル101上でジェスチャー操作をするための一本の指であり301はその指300による回転のジェスチャーの様子を模擬的に示した矢印である。指300を矢印301の方向に回転させると、その回転速度に応じて楽譜が矢印302の方向に移動し、演奏位置である仮想的なタイミング線1020上に音符が来るとその音を出し、タイミング線1020上から音符が外れるとその音を消すことにより演奏が実現する。 FIG. 1 is a general view of the first embodiment of the device of the present invention, wherein 100 is a smart phone main body, and 101 is an image output section using a liquid crystal panel. The liquid crystal panel is a touch panel, and also serves as an information input section 102 operated by the user. The part indicated by the dashed frame of 1011 is read from the musical score input means in the main body of the smartphone, and the part necessary for display is cut out or drawn, and the movement of the musical score according to the progress of the performance is displayed in real time. In the sheet music image display section displayed in , the portion of the glass window through which the rolling paper can be seen as the roll paper is being played with the performance of a conventional automatic playing piano is simulated. Note that the score image displayed in this embodiment moves in the direction of the arrow indicated by 302 as the performance progresses. A dashed line 1020 is a virtual timing line indicating a performance position, and indicates that a sound is produced when a note is on that line. 2001, 2002 and 2003 are musical notes of the score image displayed on the liquid crystal panel 101. FIG. Marker lines 2010 and 2011 are recorded at both ends of the musical score image displayed on the same panel 101 for position detection of notes. In this embodiment, the marker lines are used in the image processing means, which will be described later, but they are not essential for generating notes using the digital musical score. The portion indicated by the dashed frame of 1012 is the keyboard display section. When there is a note at the performance position, the white and black keys are grayed out to indicate that the key corresponding to the note has been pressed. change and display. Also, if the note that was at the playing position has moved and disappeared over time, the colors of the white and black keys are changed to their original colors to indicate that the key corresponding to the note has been released. indicate. Reference numeral 300 denotes a single finger for performing a gesture operation on the liquid crystal panel 101, and 301 denotes an arrow simulating a rotational gesture by the finger 300. FIG. When the finger 300 is rotated in the direction of the arrow 301, the musical score moves in the direction of the arrow 302 according to the rotation speed, and when a note comes on the imaginary timing line 1020 which is the performance position, the sound is produced and the timing is adjusted. A performance is realized by erasing the sound when the note deviates from the line 1020 .

図2は、本発明装置の同実施例のハードウェアおよびソフトウェアを示す構成図である。1はCPU(中央処理ユニット)であり、不揮発性メモリ(図示せず)に記憶されたプログラムに従って、各種処理を行ったり各種手段に対する命令を発行したりすることにより、本発明を実現する。2は楽譜画像入力手段であり、不揮発性メモリなどにより構成される装置本体内の楽譜保存手段(図示せず)や外部のWebサイト等から、演奏のためにCPU1は同手段により楽譜画像を読み出す。なお楽譜保存手段に保存される楽譜画像はMIDI等の楽譜データから作成することも可能であり、その場合には別途楽譜データを楽譜画像に変換して楽譜保存手段に保存する必要があるが、その詳細は省略する。7はジェスチャー検出手段であり、前述のタッチパネル102上の指300による回転ジェスチャーを認識し、一定の時間間隔でタッチパネル102上の指300の位置座標(x,y)を検出する。検出された指300の位置座標(x,y)からCPU1はソフトウェアプログラムにより構成される回転の速度検出手段8によりジェスチャーによる回転の速度を計算し、これから同様にソフトウェアプログラムにより構成される演奏位置決定手段10により楽譜の演奏位置を決定する。また検出された指300の位置座標(x,y)からCPU1はソフトウェアプログラムにより構成される回転の仮想円の直径検出手段9によりジェスチャーによる回転の仮想円の直径を計算し、これから同様にソフトウェアプログラムにより構成される音量決定手段11により演奏の音量を決定する。3は液晶パネル101などで構成される画像出力手段であり、CPU1は楽譜画像入力手段2から入力した楽譜画像を、演奏位置決定手段10により求められた演奏位置に基づいて、楽譜画像表示部1011での表示に必要なサイズにトリミングして画像出力手段3に渡し、画像出力手段3はCPU1から渡された楽譜画像を楽譜画像表示部1011に表示する。CPU1はまた楽譜画像入力手段2から読み出した楽譜画像から同演奏位置に相当する部分を切り出して画像処理手段4に送り、画像処理手段4はCPU1から渡された切り出した楽譜画像から画像処理により音符の位置を特定し、特定された位置に音符があるかないかを検出する。音符があるかないかを検出した画像処理手段4はその情報をCPU1に返し、CPU1は5の鍵盤状態記憶手段から一つ前の静止画像が渡されたタイミングでの音符に対応する鍵盤の状態を読み出して、鍵盤の一つ前の状態が「押されていない」状態でかつ現在渡された静止画像においては音符ありと判断された場合には対応する音符の音を出すと判断し、また同様に一つ前の処理タイミングにおける鍵盤の状態が「押されている」状態でかつ現在は音符なしと判断された場合には対応する音符の音を止めると判断し、鍵盤状態記憶手段5の内容を最新の状態に書き換える。そしてその判断に基づいてCPU1は6のサウンド出力手段に対して、対応する音符の音を出すあるいは止めるという指示をする。このとき音符の音を出す場合には音量決定手段11で決定した音量とともに指示をする。サウンド出力手段6はCPU1の指示に従って予め設定された音色で対応する音符の音を指定された音量で出したり止めたりする機能を有し、これにより楽譜画像に従った音楽を奏でることができる。またCPU1は対応する音符の音を出したり止めたりするという判断に従って、対応する鍵盤の色を変更するという処理を画像出力手段3に指示し、画像出力手段3は同指示に従って鍵盤表示部1012の対応する鍵盤の色を変更させる。 FIG. 2 is a configuration diagram showing the hardware and software of the embodiment of the device of the present invention. Reference numeral 1 denotes a CPU (Central Processing Unit), which implements the present invention by performing various processes and issuing commands to various means according to a program stored in a nonvolatile memory (not shown). A score image input means 2 is used by the CPU 1 to read a score image from a score storage means (not shown) in the main body of the apparatus composed of a non-volatile memory or from an external website or the like. . It should be noted that the musical score image stored in the musical score storage means can also be created from musical score data such as MIDI. The details are omitted. Gesture detection means 7 recognizes the aforementioned rotation gesture by the finger 300 on the touch panel 102 and detects the position coordinates (x, y) of the finger 300 on the touch panel 102 at regular time intervals. Based on the detected position coordinates (x, y) of the finger 300, the CPU 1 calculates the rotation speed of the gesture by the rotation speed detection means 8 configured by the software program, and determines the performance position similarly configured by the software program. The performance position of the musical score is determined by the means 10 . Further, from the detected position coordinates (x, y) of the finger 300, the CPU 1 calculates the diameter of the virtual circle of rotation caused by the gesture by the diameter detection means 9 of the virtual circle of rotation constituted by the software program. The volume of the performance is determined by the volume determining means 11 composed of. Reference numeral 3 denotes an image output means composed of a liquid crystal panel 101 or the like. , the image is trimmed to a size necessary for display in , and is transferred to the image output means 3 , and the image output means 3 displays the musical score image transferred from the CPU 1 on the musical score image display section 1011 . The CPU 1 also cuts out a portion corresponding to the same performance position from the musical score image read from the musical score image input means 2 and sends it to the image processing means 4. , and detect whether there is a note at the specified position. The image processing means 4 that detects whether or not there is a note returns the information to the CPU 1, and the CPU 1 stores the state of the keyboard corresponding to the note at the timing when the previous still image was delivered from the keyboard state storage means 5. If it is determined that the previous state of the keyboard is "unpressed" and that there is a note in the currently passed still image, it is determined that the sound of the corresponding note will be played, and the same If it is determined that the state of the keyboard at the previous processing timing is "pressed" and that there is no note at present, it is determined that the sound of the corresponding note is stopped, and the contents of the keyboard state storage means 5 be updated to the latest state. Based on the determination, the CPU 1 instructs the sound output means 6 to produce or stop the sound of the corresponding note. At this time, when the sound of a musical note is to be produced, an instruction is given together with the volume determined by the volume determining means 11. - 特許庁A sound output means 6 has a function of outputting or stopping the sound of a corresponding note with a tone color set in advance according to an instruction from the CPU 1 at a specified volume, thereby playing music according to the musical score image. In addition, the CPU 1 instructs the image output means 3 to change the color of the corresponding keyboard according to the decision to play or stop the sound of the corresponding note. Change the color of the corresponding keyboard.

図3は本発明装置の同実施例のソフトウェアの動作を示すフローチャートである。まずCPU1はS1においてジェスチャー検出手段7からジェスチャー・イベントが検出されるのを待つ。本実施例の場合、指300によるジェスチャー操作が始まると、1/60秒の間隔でイベントが発生し、パネル上を指300が最初にタッチした位置を原点O:(x,y)=(0,0)として、以降、指300がパネルから離れるまでの間、原点からの相対座標が毎回検出される。ジェスチャーが検出されればS2に進み回転の速度検出手段8と回転の仮想円の直径検出手段9によりそれぞれジェスチャーによる回転の速度と仮想円の直径を求める。 FIG. 3 is a flow chart showing the operation of the software of the same embodiment of the device of the present invention. First, the CPU 1 waits for a gesture event to be detected by the gesture detection means 7 in S1. In the case of this embodiment, when the gesture operation by the finger 300 starts, an event occurs at an interval of 1/60 second, and the position where the finger 300 first touches the panel is the origin O: (x, y)=(0 , 0), and thereafter, relative coordinates from the origin are detected each time until the finger 300 leaves the panel. If the gesture is detected, the process advances to S2, and the rotation speed and the diameter of the virtual circle due to the gesture are obtained by the rotation speed detection means 8 and the diameter detection means 9 of the virtual circle of rotation, respectively.

ここでジェスチャー・イベントによる指300のパネル上の位置座標から速度検出手段8と回転の仮想円の直径検出手段9による回転の速度と仮想円の直径を求める方法を示す。図4はパネル上の座標系とジェスチャー操作における特徴点を示したものであり、本実施例に置いては指300が最初にタッチした位置を原点O:(x,y)=(0,0)として、右側に正のx軸、下側に正のy軸を取る。Dh、Dvはそれぞれ回転の仮想円の直径を求めるために利用する特徴点PlcとPrc,PtcとPbcとの距離を表す。 Here, a method of obtaining the rotation speed and the diameter of the virtual circle by the speed detection means 8 and the diameter detection means 9 of the virtual circle of rotation from the position coordinates of the finger 300 on the panel due to the gesture event will be described. FIG. 4 shows the coordinate system on the panel and feature points in the gesture operation. ), with the positive x-axis on the right and the positive y-axis on the bottom. Dh and Dv represent the distances between the feature points Plc and Prc and between the feature points Ptc and Pbc used to obtain the diameter of the virtual circle of rotation, respectively.

図5はジェスチャー検手段7によって検出された、時間経過を伴うジェスチャーよる指300の回転時の座標(x,y)の推移グラフである。横軸は発生イベントの回数(0~119)、縦軸は座標値であり、実線および破線がそれぞれイベント発生時におけるxとyの値を示している。 FIG. 5 is a transition graph of the coordinates (x, y) when the finger 300 is rotated by gestures over time, detected by the gesture detection means 7 . The horizontal axis is the number of occurrence events (0 to 119), the vertical axis is coordinate values, and the solid and broken lines indicate the x and y values at the time of event occurrence, respectively.

これらより回転の速度Vは直近に発生したイベントにおける座標値を(X,Y)、その一つ前に発生したイベントにおける座標値を(Xp,Yp)とすれば、

Figure 2022187914000002

で求められる。 From these, the rotation speed V can be obtained by taking the coordinate values of the event that occurred most recently as (X, Y) and the coordinate values of the event that occurred immediately before that as (Xp, Yp).
Figure 2022187914000002

is required.

一方、回転の仮想円の直径は図4,5より、図5のx座標の推移を表した曲線あるいはy座標の推移を表した曲線の傾きがマイナスからプラスに転じる特徴点(図中、それぞれ上向きの黒と白の三角形Plc,Ptcで表される)と傾きがプラスからマイナスに転じる特徴点(図中、それぞれ下向きの黒と白の三角形Prc,Pbcで表される)における各々の特徴点間の距離がおおよそ回転の仮想円の直径に相当する。これらをそれぞれDh、Dvとすると一般的にこれら2つの値は異なるので仮想円の直径として両者の平均をとることにする。従って、Plcにおける座標値を(Xlc,Ylc)、Prcにおける座標値を(Xrc,Yrc)、Pbcにおける座標値を(Xbc,Ybc)、Ptcにおける座標値を(Xtc,Ytc)とし、仮想円の直径をDとすれば、

Figure 2022187914000003
により仮想円の直径Dが求められる。 On the other hand, from FIGS. 4 and 5, the diameter of the virtual circle of rotation is the feature point (in the figure, each upward black-and-white triangles Plc, Ptc) and feature points whose slope changes from positive to negative (represented by downward-pointing black-and-white triangles Prc, Pbc in the figure). The distance between them roughly corresponds to the diameter of the virtual circle of rotation. Assuming that these are Dh and Dv, respectively, these two values are generally different, so the diameter of the virtual circle is the average of both. Therefore, let the coordinate values in Plc be (Xlc, Ylc), the coordinate values in Prc be (Xrc, Yrc), the coordinate values in Pbc be (Xbc, Ybc), the coordinate values in Ptc be (Xtc, Ytc), and the virtual circle If D is the diameter,
Figure 2022187914000003
The diameter D of the virtual circle is obtained by

以上の計算をそれぞれ回転の速度検出手段8と回転の仮想円の直径検出手段9により行い、これにより指300によるジェスチャー操作による回転の速度と仮想円の直径が求まれば、CPU1はS3において演奏位置決定手段10および音量決定手段11により演奏位置と音量を決定する。 The above calculations are performed by the rotation speed detection means 8 and the diameter detection means 9 of the virtual circle of rotation, respectively. A performance position and volume are determined by the position determination means 10 and the volume determination means 11 .

ここで楽譜をデジタルに表現した楽譜画像について説明する。図6および図7は一般的な楽譜がデジタル楽譜画像としてどのように表現・演奏されるかを説明する図である。図6に示されるものは一般的な楽譜であり、同楽譜中2004,2005,2006,2007,2008で示されるものはそれぞれ音階の異なる4分音符である。また400で示される記号は速度記号であり、これは4分音符を1分間に80回数える速さで演奏することを示している。図7は図6で示された楽譜をデジタル画像に変換した楽譜画像の冒頭部分であり、その座標は右側に正のx軸、上側に正のy軸をとり、図6の401で示される丸に含まれる音符が2004、2005、2006、2007、2008として示されている。2010、2011は音符の位置検出用にデジタル楽譜画像の両端に記録されたマーカー線である。本実施例においては楽譜画像の幅の画素数は384ピクセル、音符の幅は2ピクセル、隣りの音符との隙間は1ピクセルとしており、85音(=7オクターブ[1オクターブは半音を含めて12音]+1音)を鳴らすことができるので、マーカー線2010と2011の間は256ピクセル=(2+1)×85+1(+1しているのはマーカー線の隙間分)としている。なお本実施例に置いては音符の位置を検出するためにマーカー線2010と2011を楽譜画像上に配置しているが、ある音符がx軸上のどの位置に配置されるのかを予め定めておけば、本マーカー線2010と2011は必須ではない。 Here, a musical score image representing a musical score digitally will be described. 6 and 7 are diagrams for explaining how a general musical score is expressed and played as a digital musical score image. What is shown in FIG. 6 is a general score, and what is indicated by 2004, 2005, 2006, 2007, and 2008 in the same score are quarter notes of different scales. A symbol indicated by 400 is a speed symbol, which indicates that a quarter note should be played at a speed of 80 times per minute. FIG. 7 shows the beginning of a musical score image obtained by converting the musical score shown in FIG. 6 into a digital image. Its coordinates are indicated by 401 in FIG. The notes included in the circle are indicated as 2004, 2005, 2006, 2007, 2008. Marker lines 2010 and 2011 are recorded at both ends of the digital musical score image for position detection of notes. In this embodiment, the number of pixels in the width of the score image is 384 pixels, the width of the note is 2 pixels, the gap between adjacent notes is 1 pixel, and 85 notes (= 7 octaves [1 octave is 12 octaves including semitones)]. sound]+1 sound), the space between the marker lines 2010 and 2011 is 256 pixels=(2+1)×85+1 (+1 is the gap between the marker lines). In this embodiment, the marker lines 2010 and 2011 are arranged on the musical score image in order to detect the positions of the notes. If so, the marker lines 2010 and 2011 are not essential.

ここで図6における4分音符2004は本実施例においては最低音から3オクターブ上に位置するので、最低音から数えて36音目(=12音×3オクターブ)に相当する。従って図7におけるマーカー線2010との間には、109ピクセル=(2+1)×36+1の間隔が空く。同様に、4分音符2005、2006、2007とマーカー線2010との間にはそれぞれ,115,121、124ピクセルの間隔が空くことになる。 Here, the quarter note 2004 in FIG. 6 is positioned three octaves above the lowest note in this embodiment, so it corresponds to the 36th note (=12 notes×3 octaves) counted from the lowest note. Therefore, there is an interval of 109 pixels=(2+1)×36+1 from the marker line 2010 in FIG. Similarly, quarter notes 2005, 2006, 2007 and marker line 2010 are spaced 115, 121, 124 pixels, respectively.

また図7における4分音符2004、2005、2006、2007、2008のy軸方向の長さは4分音符の長さに相当しており、本実施例に置いては4分音符2004の始まりから4分音符2005の始まりまでの距離は180ピクセルとなっている。同様に2005と2006、2006と2007、2007と2008との距離も180ピクセルとなっている。なおここでは図示しないが8分音符であればその長さは半分の90ピクセル、16分音符であれば45ピクセル、2分音符であれば360ピクセルとなる。 The length of the quarter notes 2004, 2005, 2006, 2007, and 2008 in FIG. 7 in the y-axis direction corresponds to the length of the quarter note. The distance to the beginning of quarter note 2005 is 180 pixels. Similarly, the distances between 2005 and 2006, 2006 and 2007, and 2007 and 2008 are also 180 pixels. Although not shown here, an eighth note has a length of 90 pixels, a sixteenth note has a length of 45 pixels, and a half note has a length of 360 pixels.

図6における楽譜の演奏は、譜面に従って矢印500で示されるように左から右に向かって進んでいく。一方楽譜画像の場合は、図7の矢印500で示されるように下から上に向かって進んでいく。図6,7における破線501は演奏位置を示しており、一定の時間間隔でこの破線を矢印500の方向に進めていけば、楽譜および楽譜画像上での演奏が進むことになる。そこで、ジェスチャー・イベントが発生するタイミング(本実施例の場合は1/60秒の間隔)でその時の回転速度に応じて破線501の進む距離を決めるようにする。例えば、本実施例の場合、図6の 速度記号400は4分音符を1分間に80回数える速さで演奏することを示しているので、図7の デジタル楽譜画像上では1分間に、14400ピクセル(=180ピクセル×80回)進めば良い。ジェスチャー・イベントは1/60秒の間隔で発生するので、ジェスチャー・イベント1回の発生に付き、4ピクセル(=14400ピクセル/60秒/60回)進めば良い。一方、ステップS2で求めた回転の速度Vは、実測の結果おおよそ平均値15.0をとることがわかっているので、速度Vが15.0のときにピクセル数が4ピクセルとなるように定数Cを求めれば、4ピクセル=15.0×CよりC=4/15.0=0.2667となる。
従って、回転の速度Vの時に進むピクセル数をNとすれば、

Figure 2022187914000004
となる[ROUND()は小数点以下四捨五入を表す]。以上により、速度Vのときに破線の進む距離であるピクセル数Nが求まるので、前回のジェスチャー・イベント発生時の演奏位置にピクセル数Nを加えて新たな演奏位置とすればよい。このような方法でCPU1はS3において演奏位置決定手段10により演奏位置を決定する。 The performance of the musical score in FIG. 6 progresses from left to right as indicated by arrow 500 according to the musical score. On the other hand, the musical score image proceeds from bottom to top as indicated by an arrow 500 in FIG. A dashed line 501 in FIGS. 6 and 7 indicates the performance position, and if this dashed line is advanced in the direction of the arrow 500 at regular time intervals, the performance on the musical score and the musical score image will progress. Therefore, the distance that the dashed line 501 advances is determined according to the rotation speed at the timing when the gesture event occurs (1/60 second interval in this embodiment). For example, in the case of this embodiment, the speed symbol 400 in FIG. 6 indicates that the quarter note is played at a speed of 80 times per minute. Pixels (=180 pixels×80 times) should be advanced. Since the gesture event occurs at an interval of 1/60 second, it suffices to advance 4 pixels (=14400 pixels/60 seconds/60 times) for each occurrence of the gesture event. On the other hand, since it is known that the rotation speed V obtained in step S2 has an average value of 15.0 as a result of actual measurement, a constant If C is obtained, 4 pixels=15.0×C, then C=4/15.0=0.2667.
Therefore, if the number of pixels advanced at the speed of rotation V is N,
Figure 2022187914000004
[ROUND( ) represents rounding to the nearest whole number]. As described above, the number of pixels N, which is the distance that the dashed line advances at the velocity V, can be obtained. Therefore, a new performance position can be obtained by adding the number of pixels N to the performance position at the time when the previous gesture event occurred. In this manner, the CPU 1 determines the performance position by the performance position determining means 10 in S3.

一方、音量決定手段11による音量の決定は以下の通りである。本実施例においては、回転の仮想円の直径検出手段9により検出される仮想円の直径Dは実測の結果0から236程度の間に収まることがわかっている.そこで、検出された値を0と236の間にクリップし、サウンド出力手段5に指定できる音量の範囲にスケーリングする。本実施例の場合、その値は0から127なので、サウンド出力手段5に指定する音量をVolとすれば、

Figure 2022187914000005
となる。以上により音量を決定する事ができるので、CPU1はS3において音量決定手段11により音量を決定する。 On the other hand, volume determination by the volume determining means 11 is as follows. In this embodiment, the diameter D of the virtual circle detected by the diameter detecting means 9 of the virtual circle of rotation is found to fall within the range of about 0 to 236 as a result of actual measurement. Therefore, the detected value is clipped between 0 and 236 and scaled to the volume range that can be specified for the sound output means 5 . In the case of this embodiment, the values are from 0 to 127, so if the volume to be specified to the sound output means 5 is Vol, then
Figure 2022187914000005
becomes. Since the volume can be determined as described above, the CPU 1 determines the volume by the volume determining means 11 in S3.

ステップS3において演奏位置と音量を決定したら、S4に進み演奏位置に基づいて楽譜画像を液晶パネル101上の楽譜表示部1011に表示できるようにトリミングする。例えば演奏位置が図7の破線501で示される位置であれば、この線を縦方向の中央に置いた縦384ピクセル、横384ピクセルの502の破線で囲まれた部分が、楽譜表示部1011に表示されるようにトリミングを行う。トリミングされた楽譜画像は画像出力手段3に渡され、CPU1は同画像を液晶パネル101の楽譜表示部1011に表示するようにに指示する。更にCPU1はS5において同楽譜画像をS3で求めた演奏位置に基づいて,画像処理に必要な部分を切り出す。本実施例においては、画像処理に必要な部分とは図7における演奏位置を示す破線501上の1ラインの画像である。CPU1はS6においてS5で切り出された同楽譜画像を画像処理手段4に渡し、画像処理手段4対しては音符を検出するように指示する。S7において画像処理手段4は渡された同切り出された楽譜画像から音符の位置を特定し、特定された位置に音符があるかないかを検出しその結果をCPU1に返す。S8においてCPU1は同デジタル楽譜画像から検出された音符と、鍵盤状態記憶手段5に記憶してある一つ前に入力されたデジタル楽譜画像から判断された同音符に対応した鍵盤が押されているかいないかの状態を記憶した情報に基づいて新たに鍵盤が押されたか離されたかを判断し、その状態を鍵盤状態記憶手段5に更新記憶しておく。S9においてはS8の新たに鍵盤が押されたか離されたかの判断に基づいて、サウンド出力手段6に同鍵盤に対応した音符の音を、S3で決定された音量で出すあるいは止めるという指示をする。またS10においてCPU1はS8の新たに鍵盤が押されたか離されたかの判断に基づいて、画像出力手段3に対して対応する鍵盤の色を変更するように指示をする。以上により、ジェスチャー・イベントの発生による一連の処理は終了するので、再びS1に戻り、ジェスチャー検出手段7からジェスチャー・イベントが検出されるのを待つ。 After determining the performance position and volume in step S3, the process advances to step S4 to trim the musical score image so that it can be displayed on the musical score display section 1011 on the liquid crystal panel 101 based on the performance position. For example, if the performance position is the position indicated by the dashed line 501 in FIG. Crop to display. The trimmed musical score image is delivered to the image output means 3, and the CPU 1 instructs the musical score display section 1011 of the liquid crystal panel 101 to display the same image. Further, in S5, the CPU 1 cuts out a portion necessary for image processing based on the performance position obtained in S3 from the musical score image. In this embodiment, the portion necessary for image processing is the one-line image on the dashed line 501 indicating the playing position in FIG. At S6, the CPU 1 transfers the musical score image cut out at S5 to the image processing means 4, and instructs the image processing means 4 to detect notes. At S7, the image processing means 4 specifies the positions of the notes from the same clipped musical score image delivered, detects whether or not there is a note at the specified positions, and returns the result to the CPU1. At S8, the CPU 1 determines whether the note detected from the same digital musical score image and the keyboard corresponding to the same note determined from the previously input digital musical score image stored in the keyboard state storage means 5 is pressed. Whether the keyboard is newly pressed or released is determined based on the information storing the state of absence, and the state is updated and stored in the keyboard state storage means 5.例文帳に追加In S9, based on the determination of whether the keyboard is newly pressed or released in S8, the sound output means 6 is instructed to output or stop the sound of the note corresponding to the same keyboard with the volume determined in S3. At S10, the CPU 1 instructs the image output means 3 to change the color of the corresponding keyboard based on the determination at S8 whether the keyboard is newly pressed or released. Since the series of processing due to the occurrence of the gesture event is completed as described above, the process returns to S1 again and waits for the gesture event to be detected by the gesture detection means 7 .

なお本実施例における画像処理手段4によるデジタル楽譜画像から音符を検出する画像処理の内容については特願2020-210850に記載されているとおりである。本実施例においては音符のx座標上の位置を求めるためにマーカー線2010,2011をデジタル楽譜画像上に配置しているので、特願2020-210850に示された方法と全く同じ方法でデジタル楽譜画像から音符を検出する事ができる。しかしながら本実施例においては特願2020-210850に記載されたような実際に撮影された画像を入力する構成とは異なり、デジタルに作成される楽譜画像を入力とするので、撮影時のカメラのブレや手回し演奏時のロール紙のゆらぎ等を考慮する必要が無い。従って既に述べたように音符が楽譜画像のx軸上のどの位置に配置されるのかを予め定めておけば、本マーカー線2010と2011は必須ではなく、予め定められた位置の画素の明るさレベルや隣接画素との明るさレベルの差分を調べる事により同等の処理が実現できる。 The content of the image processing for detecting notes from the digital musical score image by the image processing means 4 in this embodiment is as described in Japanese Patent Application No. 2020-210850. In this embodiment, the marker lines 2010 and 2011 are arranged on the digital musical score image in order to obtain the x-coordinate position of the note. It can detect musical notes from images. However, in this embodiment, unlike the configuration of inputting an actually photographed image as described in Japanese Patent Application No. 2020-210850, a digitally created score image is input, so camera shake during photographing is suppressed. Also, there is no need to consider the fluctuation of the roll paper during hand-cranked performance. Therefore, as already described, if the positions of the notes on the x-axis of the musical score image are determined in advance, the marker lines 2010 and 2011 are not essential, and the brightness of the pixels at the predetermined positions is determined in advance. Equivalent processing can be realized by checking the level and the difference in brightness level with adjacent pixels.

以上の様に本実施例によれば楽譜画像を入力する楽譜入力手段と、タッチパネル上の一接触点による回転ジェスチャーを認識するためのジェスチャー検出手段と、検出されたジェスチャーの回転の速度を求めるための回転速度検出手段と、前記回転速度検出手段から検出されたジェスチャーの回転の速度から、前記楽譜画像の演奏位置を決定する演奏位置決定手段を設け、決定された演奏位置に基づいてデジタル楽譜を演奏する方法を採用することにより、従来の自動演奏ピアノを模擬する音楽演奏玩具を携帯端末機器等の電子装置だけで実現可能とした。 As described above, according to this embodiment, there are the musical score input means for inputting the musical score image, the gesture detection means for recognizing the rotation gesture by one contact point on the touch panel, and the rotation speed of the detected gesture for obtaining the rotation speed. and performance position determination means for determining the performance position of the musical score image from the rotation speed of the gesture detected by the rotation speed detection means, and the digital musical score is generated based on the determined performance position. By adopting the playing method, a musical playing toy simulating a conventional automatic playing piano can be realized only by an electronic device such as a portable terminal device.

また本発明は、タッチパネル上の一接触点による回転ジェスチャーを認識するためのジェスチャー検出手段と、検出されたジェスチャーの回転の仮想円の直径を求めるための回転の仮想円の直径検出手段と、検出した仮想円の直径から音符の音量を決定するための音量決定手段を設け、音量決定手段の決定に基づいて演奏する音符の音量を変化させて演奏することにより、従来の自動演奏ピアノを模擬する音楽演奏玩具では実現できなかった機能を実現可能とした。 The present invention also provides gesture detection means for recognizing a rotation gesture by a single contact point on a touch panel, virtual rotation diameter detection means for obtaining the diameter of the virtual circle of rotation of the detected gesture, and detection. A conventional self-playing piano is simulated by providing volume determination means for determining the volume of notes from the diameter of the virtual circle, and playing the notes by changing the volume of the notes to be played based on the determination of the volume determination means. We have made it possible to realize functions that could not be realized with music playing toys.

なお、本実施例においてはタッチパネル上の指300による一接触点の回転ジェスチャーとして説明したが、ジェスチャーが認識できるのであれば、例えばタッチペン等を用いた一接触点によるジェスチャーであっても構わない。 In this embodiment, the rotation gesture with one contact point using the finger 300 on the touch panel is described, but a gesture with one contact point using a touch pen or the like may be used as long as the gesture can be recognized.

図8は本発明の第2の実施例を示すもので、実施例1では楽譜画像入力手段2から楽譜画像を入力としていたが、本実施例においては楽譜画像の代わりにMIDI等のデジタル楽譜データを入力とする楽譜データ入力手段12に変更されている。 FIG. 8 shows a second embodiment of the present invention. In the first embodiment, a musical score image is input from the musical score image input means 2, but in this embodiment digital musical score data such as MIDI is used instead of the musical score image. is changed to the musical score data input means 12 for inputting .

本実施例においては楽譜画像入力手段を持たないため、楽譜表示部1011に表示する楽譜画像は演奏位置決定手段9により決定された演奏位置と、楽譜データ入力手段12から入力される楽譜データから、画像生成手段14により楽譜表示部1011の表示用の画像を作成しそれを表示するようにしているが,ここではその詳細は省略する。 Since this embodiment does not have a musical score image input means, the musical score image displayed on the musical score display section 1011 is based on the performance position determined by the performance position determining means 9 and the musical score data input from the musical score data input means 12. An image for display on the musical score display section 1011 is created by the image generating means 14 and displayed, but details thereof are omitted here.

また、実施例1においては楽譜画像入力手段2から読み出した楽譜画像から演奏位置に相当する部分を切り出して画像処理手段4に送り、画像処理手段4により音符の位置を特定し、特定された位置に音符があるかないかを検出していたが、本実施例においては楽譜データ入力手段12から入力される楽譜データと演奏位置決定手段10により決定された演奏位置から演奏位置に音符があるかないかを直接検出する楽譜データ解析手段13により音符を決定して演奏を行うようにしている。 Further, in the first embodiment, a portion corresponding to the performance position is cut out from the musical score image read out from the musical score image input means 2 and sent to the image processing means 4. The position of the note is specified by the image processing means 4, and the specified position is However, in this embodiment, it is detected whether or not there is a note between the musical score data input from the musical score data input means 12 and the performance position determined by the performance position determining means 10. The musical score data analysis means 13 for directly detecting the musical notes determines the musical notes to be played.

特許文献2にも示されているように、一般的に楽譜データはどこの演奏位置でどの音符の音を出すあるいは止めるという形でデータを保持している。例えばMIDIデータであれば、トラックと呼ばれるグループにデルタタイム(特許文献2で言うところのデュレーション)とイベント(特許文献2で言うところのノートイベント)の繰り返しという形でデータが保持されており、デルタタイムとは別途指定される4分音符の長さと時間単位とで求められる時間で、一つ前に指定されたデルタタイムからの経過時間を表しており、イベントはその時の音符の音階、音量,オンかオフかを指定するものである。従って、演奏位置決定手段10によって演奏位置が決まれば、CPU1はソフトウェアプログラムにより構成される楽譜データ解析手段12により楽譜データ入力手段12から楽譜データ入力してそれを解析し、一つ前のジェスチャー・イベント発生時の演奏位置から現在の演奏位置までの間に変化のあった音符を決定することができる。変化のあった音符が決定できればそれを、音量決定手段11で決定された音量とともにサウンド出力手段6に対して音を出すあるいは止めるという指示をすることにより、実施例1と同等の機能が実現できる。 As shown in Patent Document 2, musical score data generally holds data in the form of which note is played or stopped at which performance position. For example, in the case of MIDI data, groups called tracks hold data in the form of repetitions of delta time (duration referred to in Patent Document 2) and events (note events referred to in Patent Document 2). Time is the time obtained by the length of a quarter note separately specified and the time unit, and represents the elapsed time from the delta time specified one before, and the event is the scale, volume, and It specifies whether it is on or off. Therefore, when the performance position is determined by the performance position determination means 10, the CPU 1 inputs the score data from the score data input means 12 by the score data analysis means 12 constituted by the software program, analyzes it, It is possible to determine notes that have changed from the performance position at the time of event occurrence to the current performance position. If the changed note can be determined, the sound output means 6 is instructed to output or stop the sound along with the volume determined by the volume determining means 11, thereby realizing a function equivalent to that of the first embodiment. .

本実施例によれば、楽譜画像入力手段2の代わりに楽譜データ入力手段12で構成され、演奏用の楽譜に画像データを利用する代わりに楽譜データを利用するので、画像処理による音符の決定を行わないためより簡易に音楽演奏玩具を実現できる。 According to this embodiment, the musical score image input means 2 is replaced by the musical score data input means 12, and the musical score data is used instead of the image data for the musical score for performance, so that the determination of musical notes by image processing is possible. Since this is not performed, a music playing toy can be realized more easily.

ジェスチャーの代わりに電気的な信号による回転の速度を検出して演奏位置を決定し、決定した演奏位置に基づいて楽譜を演奏することにより、携帯端末機器等のみならずパーソナルコンピューターによる装置、あるいは単体で動作する音楽演奏玩具などにも適用可能である。 By detecting the speed of rotation by electrical signals instead of gestures to determine the performance position and playing the musical score based on the determined performance position, not only portable terminal devices but also personal computer devices, or single units It can also be applied to music playing toys that operate with

1 CPU(中央処理ユニット)
2 楽譜画像入力手段
3 画像出力手段
4 画像処理手段
5 鍵盤状態記憶手段
6 サウンド出力手段
7 ジェスチャー検出手段
8 回転の速度検出手段
9 回転の仮想円の直径検出手段
10 演奏位置決定手段
11 音量決定手段
12 楽譜データ入力手段
13 楽譜データ解析手段
14 画像生成手段
1 CPU (central processing unit)
2 musical score image input means 3 image output means 4 image processing means 5 keyboard state storage means 6 sound output means 7 gesture detection means 8 rotation speed detection means 9 virtual circle diameter detection means 10 performance position determination means 11 volume determination means 12 score data input means 13 score data analysis means 14 image generation means

Claims (4)

デジタル楽譜入力手段と、一接触点によるタッチパネル上の回転操作をジェスチャーとして認識するジェスチャー検出手段と、検出されたジェスチャーからジェスチャーの回転速度を検出する手段と、前記デジタル楽譜入力手段から入力されたデジタル楽譜と検出された回転速度から同楽譜の演奏位置を決定する手段を備え、決定された演奏位置に基づいて演奏すべき音符を決定して演奏を行うことを特徴とする音楽演奏玩具。 digital musical score input means; gesture detection means for recognizing a rotation operation on the touch panel by one contact point as a gesture; means for detecting the rotation speed of the gesture from the detected gesture; A musical playing toy comprising a means for determining a playing position of the musical score from a musical score and a detected rotation speed, and playing a musical note by determining notes to be played based on the determined playing position. 前記デジタル楽譜は、デジタル楽譜画像として楽譜画像入力手段から前記決定された演奏位置に基づいて読み出され、画像処理手段により演奏すべき音符を決定して演奏を行うことを特徴とする請求項1に記載の音楽演奏玩具。 2. The digital musical score is read as a digital musical score image from the musical score image input means based on the determined performance position, and the musical score is determined by the image processing means and played. A musical playing toy as described in . 前記デジタル楽譜は、デジタル楽譜データとして楽譜データ入力手段から読み出され、同データと前記決定された演奏位置に基づいて楽譜データ解析手段により演奏すべき音符を決定して演奏を行うことを特徴とする請求項1に記載の音楽演奏玩具。 The digital musical score is read from the musical score data input means as digital musical score data, and based on the data and the determined performance position, the musical score data analysis means determines notes to be played and performs the musical score. The musical playing toy according to claim 1. 一接触点によるタッチパネル上の回転操作をジェスチャーとして認識するジェスチャー検出手段と、検出されたジェスチャーからジェスチャーの仮想円の直径を検出する手段と、検出された仮想円の直径から音符の音量を決定するための音量決定手段を設け、音量決定手段の決定に基づいて演奏する音符の音量を変化させて演奏を行うことを特徴とする音楽演奏玩具。 Gesture detection means for recognizing a rotation operation on the touch panel by one contact point as a gesture, means for detecting the diameter of a virtual circle of the gesture from the detected gesture, and determining the volume of the note from the diameter of the detected virtual circle. A music performance toy characterized by providing a volume determining means for playing a musical instrument by changing the volume of notes to be played based on the determination of the volume determining means.
JP2021096151A 2021-06-08 2021-06-08 Music playing toy using portable terminal device Pending JP2022187914A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021096151A JP2022187914A (en) 2021-06-08 2021-06-08 Music playing toy using portable terminal device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021096151A JP2022187914A (en) 2021-06-08 2021-06-08 Music playing toy using portable terminal device

Publications (1)

Publication Number Publication Date
JP2022187914A true JP2022187914A (en) 2022-12-20

Family

ID=84532115

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021096151A Pending JP2022187914A (en) 2021-06-08 2021-06-08 Music playing toy using portable terminal device

Country Status (1)

Country Link
JP (1) JP2022187914A (en)

Similar Documents

Publication Publication Date Title
JP4557899B2 (en) Sound processing program and sound processing apparatus
CN102568453B (en) Performance apparatus and electronic musical instrument
US8659545B2 (en) Device and method for controlling computerized equipment
US5604322A (en) Automatic performance apparatus with a display device
US10423385B2 (en) Audio feedback for continuous scrolled content
US8360836B2 (en) Gaming device, game processing method and information memory medium
JP2011516924A (en) Multi-mode learning system
US8895829B2 (en) Music playing movement display device, method and recording medium
CN102385459A (en) Information processing apparatus and method
GB2482729A (en) An augmented reality musical instrument simulation system
CN111259863A (en) Method for detecting/displaying playing hand type, medium, piano, terminal and server
US7504572B2 (en) Sound generating method
JP5753868B2 (en) GAME DEVICE AND PROGRAM
JP2022187914A (en) Music playing toy using portable terminal device
JP6217275B2 (en) Song data display device, song data display method and program
JP3183385B2 (en) Performance information input device for electronic musical instruments
JP3233103B2 (en) Fingering data creation device and fingering display device
CN109739388B (en) Violin playing method and device based on terminal and terminal
JP2013150826A (en) Game device, control method of game device, and program
Santini Composition as an embodied act: A framework for the gesture-based creation of augmented reality action scores
CN111782865A (en) Audio information processing method and device and storage medium
JP5232891B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
JP3890936B2 (en) Performance learning apparatus and performance learning processing program
JP2023095713A (en) Music playing device using portable terminal equipment
CN109801613B (en) Terminal-based cello playing method and device and terminal