JP2020064177A - Information processing apparatus and program - Google Patents
Information processing apparatus and program Download PDFInfo
- Publication number
- JP2020064177A JP2020064177A JP2018195753A JP2018195753A JP2020064177A JP 2020064177 A JP2020064177 A JP 2020064177A JP 2018195753 A JP2018195753 A JP 2018195753A JP 2018195753 A JP2018195753 A JP 2018195753A JP 2020064177 A JP2020064177 A JP 2020064177A
- Authority
- JP
- Japan
- Prior art keywords
- sound
- musical
- performance
- pitch
- score
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Auxiliary Devices For Music (AREA)
Abstract
Description
本発明は、演奏者の演奏音と楽譜上の楽譜音とを対応させるための技術に関する。 The present invention relates to a technique for associating a performance sound of a performer with a score sound on a score.
演奏者の演奏を評価するためには、演奏者が楽譜上のどの位置を演奏しているのかを特定する必要がある(例えば特許文献1参照)。 In order to evaluate the performance of the performer, it is necessary to specify which position on the score the performer is playing (for example, refer to Patent Document 1).
近年のスマートホン等のモバイル端末の普及に伴い、この種の端末によってピアノ等の演奏を収音してその演奏を評価するようなサービスが望まれている。このようなサービスにおいては、例えば端末において決められた演奏速度に応じて楽譜の表示を遷移させていき、その楽譜の進行に応じてユーザが演奏を行うことで、同じタイミングに相当する演奏音と楽譜上の音とを比較する、という手法が考えられる。 With the spread of mobile terminals such as smart phones in recent years, there is a demand for a service that collects a performance of a piano or the like by this type of terminal and evaluates the performance. In such a service, for example, the musical score display is transited in accordance with the performance speed determined on the terminal, and the user plays in accordance with the progress of the musical score, so that a musical sound corresponding to the same timing is produced. A method of comparing with the sound on the score can be considered.
しかしながら、このような手法では演奏速度が予め決められているため、ユーザが意図した演奏速度で演奏を行った場合、正しく評価を行えないという問題がある。 However, in such a method, since the performance speed is predetermined, there is a problem that the evaluation cannot be performed correctly when the performance is performed by the user.
そこで、本発明は、演奏速度が変化した場合であっても、演奏者の演奏音と楽譜上の楽譜音とを対応させることを目的とする。 Therefore, an object of the present invention is to make the performance sound of the performer correspond to the score sound on the score even when the performance speed changes.
上記課題を解決するため、本発明は、収音された演奏音を示す演奏音データにおいて、演奏音の音高を認識する認識部と、楽譜データによって示される楽譜音の音高と、前記認識部により演奏音データにおいて認識された演奏音の音高との一致度に基づいて、楽譜音と演奏音との対応関係を特定する特定部とを備え、前記特定部は、前記楽譜データに含まれる第1の楽譜音の音高と、前記演奏音データにおいて認識された演奏音の音高との一致度が閾値を超えた場合に、当該第1の楽譜音に対応する第1の演奏音の開始タイミングを特定し、前記楽譜データにおいて前記第1の楽譜音に続く第2の楽譜音の音高と、前記演奏音データにおいて認識された前記第1の演奏音に続く演奏音の音高との一致度が閾値を超えた場合に、前記第1の楽譜音に対応する前記第1の演奏音の終了タイミングを特定することを特徴とする情報処理装置を提供する。 In order to solve the above-mentioned problems, the present invention, in the performance sound data indicating the collected performance sound, a recognition unit that recognizes the pitch of the performance sound, the pitch of the score sound indicated by the score data, and the recognition. A specifying unit that specifies a correspondence relationship between the musical score sound and the musical performance sound based on the degree of coincidence with the pitch of the musical performance sound recognized in the musical sound data by the unit, and the specifying unit is included in the musical score data. When the degree of coincidence between the pitch of the first musical note sound and the pitch of the musical performance sound recognized in the musical performance sound data exceeds a threshold value, the first musical sound corresponding to the first musical note sound. Is specified, the pitch of the second musical note sound following the first musical note sound in the musical score data, and the pitch of the musical performance sound following the first musical sound recognized in the musical sound data. If the degree of coincidence with the Identifying the end timing of the first performance sound corresponding to an information processing apparatus according to claim.
前記特定部により特定された対応関係にある楽譜音及び演奏音を比較して演奏を評価する評価部を備えるようにしてもよい。 An evaluation unit may be provided that evaluates the performance by comparing the musical score sound and the performance sound that are in the correspondence relationship specified by the specification unit.
前記特定部は、前記楽譜データにおける1の楽譜音の音高と、前記演奏音データにおいて認識された演奏音の音高とを時間的に連続して所定回数比較し、比較した各々の音高の一致度が閾値を超えた場合に、当該楽譜音と当該演奏音とが対応することを特定するようにしてもよい。 The specifying unit continuously and temporally compares the pitch of one score sound in the score data with the pitch of the performance sound recognized in the performance sound data a predetermined number of times, and compares the respective pitches. If the degree of coincidence exceeds the threshold value, it may be specified that the musical score sound and the performance sound correspond to each other.
前記所定回数は、前記1の楽譜音の長さ、前記楽譜データにおけるテンポ又は演奏のテンポに応じて異なるようにしてもよい。 The predetermined number of times may be different depending on the length of the score sound, the tempo in the score data, or the tempo of performance.
前記楽譜データにおいて同一の音高の楽譜音が連続している場合と異なる音高の楽譜音が連続している場合とで、前記特定部が楽譜音に対応する演奏音の開始タイミング又は終了タイミングを特定する方法が異なるようにしてもよい。 The start timing or the end timing of the performance sound corresponding to the musical score sound by the specifying unit depending on whether the musical sound data of the same pitch is continuous in the musical score data or the musical sound of different pitches is continuous. The method of specifying the may be different.
前記楽譜データにおいて同一の音高の第1の楽譜音及び第2の楽譜音が連続する場合に、前記特定部は、当該第1の楽譜音及び当該第2の楽譜音の音高との一致度が閾値を超える演奏音の区間において、演奏音の音圧の増減に基づいて、前記第1の楽譜音に対応する第1の演奏音を特定し、前記第2の楽譜音に対応する第2の演奏音を特定するようにしてもよい。 When the first musical note sound and the second musical note sound of the same pitch are consecutive in the musical score data, the specifying unit matches the pitches of the first musical note sound and the second musical note sound. In the section of the performance sound whose degree exceeds the threshold value, the first performance sound corresponding to the first musical score sound is specified based on the increase / decrease in the sound pressure of the performance sound, and the first musical sound corresponding to the second musical sound is identified. The second performance sound may be specified.
前記楽譜データにおいて異なる音高の第1の楽譜音及び第2の楽譜音が連続する場合に、前記特定部は、前記楽譜データに含まれる第1の楽譜音の音高と、前記演奏音データにおいて認識された演奏音の音高との一致度が閾値を超えた場合に、当該第1の楽譜音に対応する第1の演奏音の開始タイミングを特定し、前記楽譜データにおいて前記第1の楽譜音に続く第2の楽譜音の音高と、前記演奏音データにおいて認識された前記第1の演奏音に続く演奏音の音高との一致度が閾値を超えた場合に、前記第1の楽譜音に対応する前記第1の演奏音の終了タイミングを特定するようにしてもよい。 When the first musical note sound and the second musical note sound with different pitches are continuous in the musical score data, the specifying unit determines the pitch of the first musical note sound included in the musical score data and the performance sound data. When the degree of coincidence with the pitch of the performance sound recognized in step S1 exceeds a threshold value, the start timing of the first performance sound corresponding to the first musical score sound is specified, and the first timing is specified in the musical score data. When the degree of coincidence between the pitch of the second musical score sound following the musical score sound and the pitch of the musical performance sound following the first musical performance sound recognized in the musical performance data exceeds a threshold value, the first musical sound The end timing of the first performance sound corresponding to the musical score sound may be specified.
前記特定部は、前記楽譜データにおいて前記第1の楽譜音に続く第2の楽譜音の音高と、前記演奏音データにおいて認識された前記第1の演奏音に続く演奏音の音高との一致度が閾値を超えない期間が所定期間を経過した場合には、前記第1の楽譜音に対応する前記第1の演奏音が終了したと判断するようにしてもよい。 The specifying unit includes a pitch of a second musical note following the first musical note in the musical score data and a pitch of a musical note following the first musical note recognized in the musical note data. If the period in which the degree of coincidence does not exceed the threshold has passed a predetermined period, it may be determined that the first performance sound corresponding to the first musical score sound has ended.
前記特定部は、前記第2の楽譜音の音高と前記第1の演奏音に続く演奏音の音高との一致度が閾値を超えない期間が所定期間を経過した場合が所定回数連続すると、前記楽譜データにおいて時間的に連続する複数の楽譜音の音高の組み合わせと、前記演奏音データにおいて時間的に連続して認識された複数の演奏音の音高の組み合わせとを照合して、楽譜音と演奏音との対応関係を特定するようにしてもよい。 The specifying unit determines that a predetermined number of times continues when a period in which the degree of coincidence between the pitch of the second musical score sound and the pitch of the performance sound following the first performance sound does not exceed a threshold has passed a predetermined number of times. By comparing a combination of pitches of a plurality of musical score sounds that are temporally continuous in the musical score data with a combination of pitches of a plurality of musical performance sounds that are continuously recognized in time in the musical performance sound data, You may make it specify the correspondence of a musical score sound and a performance sound.
また、本発明は、コンピュータを、収音された演奏音を示す演奏音データにおいて、演奏音の音高を認識する認識部と、楽譜データによって示される楽譜音の音高と、前記認識部により演奏音データにおいて認識された演奏音の音高との一致度に基づいて、楽譜音と演奏音との対応関係を特定する特定部であって、前記楽譜データに含まれる第1の楽譜音の音高と、前記演奏音データにおいて認識された演奏音の音高との一致度が閾値を超えた場合に、当該第1の楽譜音に対応する第1の演奏音の開始タイミングを特定し、前記楽譜データにおいて前記第1の楽譜音に続く第2の楽譜音の音高と、前記演奏音データにおいて認識された前記第1の演奏音に続く演奏音の音高との一致度が閾値を超えた場合に、前記第1の楽譜音に対応する前記第1の演奏音の終了タイミングを特定する特定部として機能させるためのプログラムを提供する。 Further, according to the present invention, in a computer, a recognition unit for recognizing a pitch of a performance sound in performance sound data indicating a collected performance sound, a pitch of a music score indicated by the score data, and the recognition unit are provided. A specifying unit that specifies a correspondence relationship between the musical score sound and the musical performance sound based on the degree of coincidence with the pitch of the musical performance sound recognized in the musical performance sound data. When the degree of coincidence between the pitch and the pitch of the performance sound recognized in the performance sound data exceeds a threshold value, the start timing of the first performance sound corresponding to the first musical score sound is specified, In the score data, the degree of coincidence between the pitch of the second score sound following the first score sound and the pitch of the performance sound following the first performance sound recognized in the performance sound data has a threshold value. If it exceeds, the above-mentioned corresponding to the above-mentioned first musical note sound It provides a program for functioning as a specifying unit configured to specify the end timing of a performance sound.
本発明によれば、演奏速度が変化した場合であっても、演奏者の演奏音と楽譜上の楽譜音とを対応させることが可能となる。 According to the present invention, even when the performance speed changes, the performance sound of the performer and the score sound on the score can be associated with each other.
[構成]
図1は、本実施形態の演奏評価システム1の一例を示す図である。演奏評価システム1は、例えばスマートホンやタブレット等のユーザ端末10と、サーバ装置20とを備える。ネットワーク2は、これらユーザ端末10及びサーバ装置20を通信可能に接続する。ネットワーク2は、例えばLAN(Local Area Network)又はWAN(Wide Area Network)、若しくはこれらの組み合わせであり、有線区間又は無線区間を含んでいる。なお、図1には、ユーザ端末10及びサーバ装置20を1つずつ示しているが、これらはそれぞれ複数であってもよい。
[Constitution]
FIG. 1 is a diagram showing an example of a
ユーザは、ピアノ等の楽器を演奏するときにユーザ端末10を自身の近くに置き、ユーザ端末10に実装されている演奏評価プログラムを起動する。ユーザの演奏が開始されると、ユーザ端末10は、ユーザによって演奏された音が楽譜上のどの音に対応するかを特定して両者を比較することで、その演奏の優劣を評価する。サーバ装置20は、上記演奏評価プログラムやそのプログラム実行時に利用されるデータをユーザ端末10に提供したり、演奏評価プログラムの実行により得られた評価結果等をユーザ端末10から取得して保存したりする。演奏評価プログラム実行時において、ユーザ端末10及びサーバ装置20は協働して動作してもよいし、ユーザ端末10単体で動作してもよい。本実施形態ではユーザ端末10単体で動作する例を説明する。
When playing a musical instrument such as a piano, the user puts the
図2は、ユーザ端末10のハードウェア構成の一例を示す図である。ユーザ端末10は、物理的には、プロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006及びこれらを接続するバスなどを含むコンピュータ装置として構成されている。なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。ユーザ端末10のハードウェア構成は、図に示した各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。
FIG. 2 is a diagram illustrating an example of the hardware configuration of the
ユーザ端末10における各機能は、プロセッサ1001、メモリ1002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることによって、プロセッサ1001が演算を行い、通信装置1004による通信を制御したり、メモリ1002及びストレージ1003におけるデータの読み出し及び書き込みの少なくとも一方を制御したりすることによって実現される。
Each function in the
プロセッサ1001は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ1001は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)によって構成されてもよい。また、例えばベースバンド信号処理部や呼処理部などがプロセッサ1001によって実現されてもよい。
The
プロセッサ1001は、プログラム(プログラムコード)、ソフトウェアモジュール、データなどを、ストレージ1003及び通信装置1004の少なくとも一方からメモリ1002に読み出し、これらに従って各種の処理を実行する。プログラムとしては、後述する動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。ユーザ端末10の機能ブロックは、メモリ1002に格納され、プロセッサ1001において動作する制御プログラムによって実現されてもよい。各種の処理は、1つのプロセッサ1001によって実行されてもよいが、2以上のプロセッサ1001により同時又は逐次に実行されてもよい。プロセッサ1001は、1以上のチップによって実装されてもよい。なお、プログラムは、電気通信回線を介してネットワーク2からユーザ端末10に送信されてもよい。
The
メモリ1002は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも1つによって構成されてもよい。メモリ1002は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ1002は、本実施形態に係る方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。
The
ストレージ1003は、コンピュータ読み取り可能な記録媒体であり、例えば、CD−ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu−ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つによって構成されてもよい。ストレージ1003は、補助記憶装置と呼ばれてもよい。ストレージ1003は、演奏評価プログラムや後述する楽譜データ群を記憶する。
The
通信装置1004は、有線ネットワーク及び無線ネットワークの少なくとも一方を介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。通信装置1004は、例えば周波数分割複信(FDD:Frequency Division Duplex)及び時分割複信(TDD:Time Division Duplex)の少なくとも一方を実現するために、高周波スイッチ、デュプレクサ、フィルタ、周波数シンセサイザなどを含んで構成されてもよい。例えば、送受信アンテナ、アンプ部、送受信部、伝送路インターフェースなどは、通信装置1004によって実現されてもよい。送受信部は、送信部と受信部とで、物理的に、または論理的に分離された実装がなされてもよい。
The
入力装置1005は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン、センサなど)である。出力装置1006は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー、LEDランプなど)である。なお、入力装置1005及び出力装置1006は、一体となった構成(例えば、タッチパネル)であってもよい。
The
プロセッサ1001、メモリ1002などの各装置は、情報を通信するためのバスによって接続される。バスは、単一のバスを用いて構成されてもよいし、装置間ごとに異なるバスを用いて構成されてもよい。
The respective devices such as the
また、ユーザ端末10は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ1001は、これらのハードウェアの少なくとも1つを用いて実装されてもよい。
The
図3は、ユーザ端末10の機能構成の一例を示すブロック図である。図3に示すように、ユーザ端末10において、収音部11と、認識部12と、特定部13と、評価部14という機能ブロックが実現される。
FIG. 3 is a block diagram showing an example of the functional configuration of the
収音部11は、ユーザがピアノ等の楽器を演奏したときの音(演奏音という)を収音する。
The
認識部12は、収音部11により収音された演奏音を示す演奏音データにおいて、その演奏音の高さ(音高)及び強度(音圧)を認識する。
The
特定部13は、楽譜データを記憶している。楽譜データは、楽曲を構成する各音の発音タイミング、音高、音圧及び長さ等の、音を示す情報を含む。楽譜データによって示される各音のことを楽譜音という。特定部13は、楽譜データによって示される楽譜音の音高と、認識部12により演奏音データにおいて認識された演奏音の音高との一致度に基づいて、楽譜音と演奏音との対応関係を特定する。特定部13は音高の変化に基づいて演奏音と楽譜音との対応関係を特定する、つまり、音の長さに依存せずに演奏音と楽譜音との対応関係を特定するから、仮にユーザの演奏速度が変化した場合であっても、演奏音と楽譜音とを対応させることが可能となる。
The specifying
評価部14は、特定部13により特定された対応関係にある楽譜音及び演奏音を比較して、ユーザの演奏を評価する。さらに、評価部14は、その評価結果を、演奏の優劣の指標値(例えば点数やレベル)として出力する。このときの出力形態は、表示によるものや音声出力によるものなど、ユーザに通知できる形態であればどのようなものであってもよい。
The
なお、前述したように、ユーザ端末10及びサーバ装置20が協働して動作する場合は、図3に示した機能ブロックは、ユーザ端末10及びサーバ装置20によって実現される。例えばユーザ端末10が収音部11及び認識部12を実現し、サーバ装置20が特定部13及び評価部14を実現するといった例が考えられるが、もちろんこの例に限定されるわけではない。
As described above, when the
[動作]
図4〜図6を参照して、ユーザ端末10の動作について説明する。図4,5に示す各処理の手順は、ユーザ端末10に実装されている演奏評価プログラムに記述されている。図4において、ユーザは、ユーザ端末10を操作して演奏評価プログラムを起動して、自身がこれから演奏する楽曲を指定する。そして、ユーザがユーザ端末10において演奏を開始する操作を行うと、ユーザ端末10の収音部11は、ユーザによる楽器の演奏音を収音する(ステップS11:収音処理)。
[motion]
The operation of the
次に、認識部12は、収音部11により収音された演奏音を示す演奏音データにおいて、その演奏音の音高及び音圧を認識する(ステップS12:認識処理)。
Next, the
ここで、図6は、楽譜音と演奏音との対応関係の一例を説明する図である。図6において、(A)は、縦軸を音高とし、横軸を時間としたときの楽譜音データの一例を示している。(B)は、縦軸を音高とし、横軸を時間としたときの、(A)に対応する楽譜の区間における演奏音データの一例を示している。(C)は、縦軸を音圧とし、横軸を時間としたときの、(B)に対応する区間における演奏音データの一例を示している。例えば図6(A)の楽譜データの例では、楽譜における第1区間(時間T0〜T1)では音高C4、第2区間(時間T1〜T2)では音高G4、第3区間(時間T2〜T3)では音高E4となっている。 Here, FIG. 6 is a diagram illustrating an example of a correspondence relationship between a musical score sound and a performance sound. In FIG. 6, (A) shows an example of musical score sound data in which the vertical axis represents pitch and the horizontal axis represents time. (B) shows an example of performance sound data in the section of the musical score corresponding to (A), where the vertical axis represents the pitch and the horizontal axis represents the time. (C) shows an example of performance sound data in the section corresponding to (B), where the vertical axis represents sound pressure and the horizontal axis represents time. For example, in the example of the score data of FIG. 6A, the pitch C4 is in the first section (time T0 to T1), the pitch G4 is the second section (time T1 to T2), and the third section (time T2 to T2). At T3), the pitch is E4.
認識部12は、十分に短い時間間隔(例えば20msec)で、演奏音データの周波数を解析して、その音高を検出する。認識部12は、時間的に所定回数連続して(例えば20msec×4回)、同一音高として決められた範囲内の音高が検出されると、その音高を演奏音の音高として認識する。このとき、同一音高として決められた範囲内の音高が最初に検出されたタイミングが、その音高の演奏音の開始タイミングとして認識される。このような処理により、例えば図6(B)の例では、第1区間(時間T0〜T1)では音高C4が認識され、第2区間(時間T1〜T2)では音高G4が認識され、第3区間(時間T2〜T3)では音高E4が認識されている。
The
また、認識部12は、演奏音データの音高とともに、その音圧を認識する。楽器がピアノのような鍵盤楽器である場合、ユーザの指が鍵盤を押下する打鍵時の音圧が最も大きく、以降は時間の経過に伴ってその音圧が減衰する。このため、図6(C)に例示しているように、第1区間、第2区間及び第3区間のそれぞれにおいて、区間の冒頭における音圧が最も大きく、以降は徐々に小さくなっている。
The
図4において、特定部13は、ユーザによって指定された楽曲の楽譜データをストレージ1003から読み出し、その楽譜データによって示される楽譜音の音高と、認識部12により演奏音データにおいて認識された演奏音の音高との一致度に基づいて、楽譜音と演奏音との対応関係を特定する(ステップS13:特定処理)。
In FIG. 4, the identifying
ここで、図5は、ステップS13の特定処理の一例を示すフローチャートである。ユーザにより演奏開始が指示されて演奏音の収音が始まると、まず、特定部13は、アタックが発生したか否かを判断する(ステップS131)。ここでいうアタックとは、ピアノの鍵盤が打鍵されることで、認識部12により認識された演奏音の音圧が第1閾値を超え、且つ、連続して検出された音圧の差が第2閾値を超えることをいう。第1閾値は、図6(C)に例示した音高の閾値Thであり、ピアノの鍵盤が打鍵されたか否かを判断するための基準となる値である。第2閾値は、認識部12が音圧を認識するときの一単位である時間間隔(例えば20msec)における音圧差に基づいてピアノの鍵盤が打鍵されたか否かを判断するための基準となる値である。
Here, FIG. 5 is a flowchart showing an example of the identification processing in step S13. When the user gives an instruction to start playing and the collection of playing sounds starts, the identifying
アタックが発生した場合(ステップS131;Yes)、特定部13は、認識部12により前述した手順で認識された演奏音の音高と、楽譜データの最初の楽譜音の音高との一致度が或る閾値を超えたか否か(以降、演奏音の音高が楽譜データの最初の楽譜音の音高と一致するか否か、と表現する)を判断する(ステップS132)。特定部13は、演奏音の音高が楽譜データの最初の楽譜音の音高と一致すると判断すると、ユーザによる楽器の演奏が開始されたと判断する(ステップS133)。
When an attack occurs (step S131; Yes), the identifying
特定部13は、楽譜データ上の最初の楽譜音(第1の楽譜音という)と、その次の楽譜音(つまり楽譜データにおける2番目の楽譜音であり、第2の楽譜音という)とが同一の音高であるか否かを判断する(ステップS134)。第1の楽譜音と第2の楽譜音とが同一の音高、つまり楽譜データにおいて同じ音が連続する場合(ステップS134;同音)、特定部13は、ステップS131〜S132で認識された演奏音(第1の演奏音という)の開始タイミングから一定時間が経過したか否かを判断する(ステップS135)。第1の演奏音の開始タイミングから一定時間が経過すると(ステップS135;Yes)、特定部13は、認識部12により認識された演奏音の音圧が閾値Thを超え且つ連続して検出された音圧の差が第2閾値を超えたか否か、つまりアタックが発生したか否かを判断する(ステップS136)。
The specifying
アタックが発生した場合(ステップS136;Yes)、特定部13は、第1の楽譜音と同じ第2の楽譜音の音高と、このアタック時に認識部12により認識された演奏音(第2の演奏音という)の音高とが一致するか否かを判断する(ステップS137)。第2の楽譜音の音高と第2の演奏音の音高とが一致した場合には(ステップS137;Yes)、特定部13は、その一致したタイミングを、第1の演奏音が終了した終了タイミングであり、第2の演奏音が開始された開始タイミングであると判断する(ステップS138)。このように、楽譜データにおいて同一の音高の楽譜音が連続する場合に、特定部13は、楽譜音の音高との一致度が閾値を超える演奏音の区間において、演奏音の音圧の増減に基づいて、第1の楽譜音に対応する第1の演奏音を特定し、第2の楽譜音に対応する第2の演奏音を特定する。
When an attack occurs (step S136; Yes), the specifying
そして、特定部13は、注目対象となる音を、楽譜データ上の次の楽譜音にセットして(ステップS139)、ステップS134の処理に遷移する。つまり、特定部13は、ステップS134以降の処理において、楽譜データにおける2番目の楽譜音を上述の第1の楽譜音として取り扱い、楽譜データにおける3番目の楽譜音を上述の第2の楽譜音として取り扱う。
Then, the specifying
ステップS136において、アタックが発生せずに(ステップS136;No)、所定期間が経過してタイムアウトとなった場合にも(ステップS140;Yes)、特定部13は、そのタイムアウトとなったタイミングを、第1の演奏音が終了した終了タイミングであり、第2の演奏音が開始された開始タイミングであると判断する(ステップS138)。この所定期間は、例えば第1の楽譜音の長さ以上の期間(例えば第1の楽譜音の長さ×1.2)である。そして、特定部13は、注目対象となる音を楽譜データ上の次の楽譜音にセットして(ステップS139)、ステップS135の処理に遷移する。
In step S136, even when the attack has not occurred (step S136; No) and the timeout has occurred after a predetermined period of time (step S140; Yes), the specifying
また、ステップS137において第1の楽譜音と同じ第2の楽譜音の音高と演奏音の音高とが一致しないまま(ステップS137;No)、所定期間が経過してタイムアウトとなった場合にも(ステップS140;Yes)、特定部13は、そのタイムアウトとなったタイミングを、第1の演奏音が終了した終了タイミングであり、第2の演奏音が開始された開始タイミングであると判断する(ステップS138)。この所定期間は、例えば第1の楽譜音の長さ以上の期間(例えば第1の楽譜音の長さ×1.2)である。つまり、特定部13は、楽譜データにおいて第1の楽譜音に続く第2の楽譜音の音高と、演奏音データにおいて認識された第1の演奏音に続く演奏音の音高との一致度が閾値を超えない期間が所定期間を経過した場合には、第1の楽譜音に対応する第1の演奏音が終了したと判断する。そして、特定部13は、注目対象となる音を楽譜データ上の次の楽譜音にセットして(ステップS139)、ステップS135の処理に遷移する。
Further, in step S137, when the pitch of the second musical score sound that is the same as the first musical score sound and the pitch of the performance sound do not match (step S137; No), a predetermined period elapses and a time-out occurs. Also (step S140; Yes), the specifying
なお、前述したステップS135において、ステップS136に移行するまで一定時間待機する理由は、第1の演奏音のアタックと第2の演奏音のアタックとが時間的に或る程度離れているべきだからである。 In step S135 described above, the reason why the attack of the first performance sound and the attack of the second performance sound should be separated to some extent in time is the reason why the attack of the first performance sound should wait for a certain period of time before proceeding to step S136. is there.
一方、ステップS134にて、楽譜データにおいて異なる音高の楽譜音が連続する場合(ステップS134;異音)、上述したような同一音高の楽譜音が連続している場合とは、特定部13が楽譜音に対応する演奏音の開始タイミング又は終了タイミングを特定する方法が異なる。まず、特定部13は、ステップS135と同様に、第1の演奏音の開始タイミングから一定時間が経過したか否かを判断する(ステップS141)。第1の演奏音の開始タイミングから一定時間が経過すると(ステップS141;Yes)、特定部13は、第2の楽譜音の音高と、第1の演奏音の開始タイミングから一定時間が経過したあとに認識部12により認識された第2の演奏音の音高とが一致するか否かを判断する(ステップS142)。第2の楽譜音の音高と第2の演奏音の音高とが一致した場合には(ステップS142;Yes)、特定部13は、その一致したタイミングを、第1の演奏音が終了した終了タイミングであり、第2の演奏音が開始された開始タイミングであると判断する(ステップS138)。そして、特定部13は、注目対象となる音を楽譜データ上の次の楽譜音にセットして(ステップS139)、ステップS135の処理に遷移する。
On the other hand, in step S134, when the score sounds of different pitches are continuous in the score data (step S134; abnormal sound), the case where the score sounds of the same pitch as described above are continuous is specified by the specifying
ステップS142において、第2の楽譜音の音高と第2の演奏音の音高とが一致せずに(ステップS142;No)、所定期間が経過してタイムアウトとなった場合にも(ステップS143;Yes)、特定部13は、そのタイムアウトとなったタイミングを、第1の演奏音が終了した終了タイミングであり、第2の演奏音が開始された開始タイミングであると判断する(ステップS138)。この所定期間は、例えば第2の楽譜音の長さ以上の期間(例えば第2の楽譜音の長さ×1.2)である。そして、特定部13は、注目対象となる音を楽譜データ上の次の楽譜音にセットして(ステップS139)、ステップS135の処理に遷移する。
Also in step S142, when the pitch of the second musical score sound and the pitch of the second musical performance sound do not match (step S142; No), a predetermined period elapses and time-out occurs (step S143). Yes)), and the identifying
特定部13が以上の処理を全ての楽譜音データに対して行うことで、楽譜音と演奏音との対応関係が特定される。
The specifying
再び図4の説明に戻り、評価部14は、特定部13により特定された対応関係にある楽譜音及び演奏音を比較して、ユーザの演奏を評価する(ステップS14:評価処理)。この比較は、演奏音が楽譜音をどの程度忠実に再現しているか否かという観点から行われる。そして、評価部14は、その評価結果を、演奏の優劣の指標値として出力する。
Returning to the explanation of FIG. 4 again, the
以上説明した実施形態によれば、演奏速度が変化した場合であっても、演奏者の演奏音と楽譜上の楽譜音とを対応させられる。また、ピアノのような楽器の場合は、演奏の発音当初から或る時間が経過すると音圧が小さくなることからその演奏音の音高を正しく認識できない可能性があるが、本実施形態によれば、音圧が小さくなった第1の演奏音の次の第2の演奏音が検出されたことをもって、第1の演奏音の終了タイミングを特定するので、演奏音の長さをより正確に特定することが可能となる。また、本実施形態が目的としているような楽譜上のトラッキングに関する技術として、DPマッチング(動的計画法)と呼ばれる手法が知られているが、本実施形態の手法はDPマッチングよりも簡単な処理手順のため処理速度が速い。このため、本実施形態によれば、演奏時においてより早くその演奏を評価することが可能となる。 According to the embodiment described above, the performance sound of the performer and the score sound on the score can be associated with each other even when the performance speed changes. Further, in the case of a musical instrument such as a piano, there is a possibility that the pitch of the performance sound cannot be correctly recognized because the sound pressure decreases after a certain time has passed from the beginning of the performance pronunciation, but according to the present embodiment. For example, since the end timing of the first performance sound is specified by detecting the second performance sound next to the first performance sound whose sound pressure has decreased, the length of the performance sound can be more accurately determined. It becomes possible to specify. A technique called DP matching (dynamic programming) is known as a technique related to tracking on a score, which is the object of the present embodiment, but the technique of the present embodiment is a simpler process than DP matching. Due to the procedure, the processing speed is fast. Therefore, according to the present embodiment, it becomes possible to evaluate the performance earlier during the performance.
[変形例]
本発明は、上述した実施形態に限定されない。上述した実施形態を以下のように変形してもよい。また、以下の2つ以上の変形例を組み合わせて実施してもよい。
[変形例1]
楽器においては、同時に複数の音が演奏される場合がある。これは和音と呼ばれている。認識部12は、和音が演奏された場合、周知技術を用いて、その和音を構成する音の音高をその確からしさ(最も確からしい第1順位〜第X順位)とともに認識する。このような和音が楽譜上に存在する場合、特定部13は、その和音を構成する複数の音(例えば音高C4,G4,E4の音)の各音高と、認識部12により演奏音から第1順位で認識される音高とを比較する。そして、特定部13は、認識された第1順位の演奏音の音高が和音を構成する複数の音のいずれかに一致した場合には、楽譜データにおいてその和音の楽譜音に相当する演奏音が開始されたこと、及び、楽譜データにおいてその和音の前の楽譜音に相当する演奏音が終了したと判断する。
[Modification]
The present invention is not limited to the above embodiments. The embodiment described above may be modified as follows. Further, the following two or more modified examples may be combined and implemented.
[Modification 1]
In a musical instrument, a plurality of sounds may be played at the same time. This is called a chord. When a chord is played, the recognizing
[変形例2]
実施形態において、認識部12は、或る時間間隔(例えば20msec)で演奏音の音高を検出し、時間的に所定回数連続して(例えば20msec×4回)、同一音高として決められた範囲内の音高が検出されると、その音高を演奏音の音高として認識していた。この所定回数は、固定値であってもよいし、また、楽譜音の長さ、楽譜データのテンポ又は演奏のテンポ(演奏速度)に応じて異なっていてもよい。例えば、認識部12は、注目対象となる楽譜音の長さが長いほど、上記の所定回数を多くしてもよい。また、認識部12は、楽譜データにおいて定められたテンポが速いほど、上記の所定回数を少なくしてもよい。また、特定部13が演奏音の開始タイミング及び終了タイミングを特定することで演奏のテンポ(演奏速度)を特定し得るから、認識部12は、その演奏のテンポが速いほど、上記の所定回数を少なくしてもよい。
[Modification 2]
In the embodiment, the
[変形例3]
実施形態において、特定部13は、楽譜データにおいて第1の楽譜音に続く第2の楽譜音の音高と、演奏音データにおいて認識された第1の演奏音に続く演奏音の音高との一致度が閾値を超えない期間が所定期間を経過した場合には、第1の楽譜音に対応する第1の演奏音が終了したと判断していた。このような第2の楽譜音の音高と第1の演奏音に続く演奏音の音高との一致度が閾値を超えない期間が所定期間を経過した、という場合が、所定回数連続して発生することが考えられる。例えば、ユーザが何度も連続して演奏を失敗するようなケースであり、このようなときには楽譜データにおける演奏位置が不明となる可能性が考えられる。このような場合、特定部13は、楽譜データにおいて時間的に連続する複数の楽譜音の音高の組み合わせと、演奏音データにおいて時間的に連続して認識された複数の演奏音の音高の組み合わせとを照合して、楽譜音と演奏音との対応関係を特定するようにしてもよい。具体的には、認識部12は、演奏音データにおいて、アタックの発生位置を境界として、複数の演奏音に分割して、各演奏音の音高を認識する。特定部13は、演奏位置が不明となった前後の楽譜データにおいて、認識した演奏音の音高と一致する楽譜音を検索し、さらに、その次の演奏音と楽譜音の音高とが一致するか否かを判断する。これにより、一定数以上の連続した音高の組み合わせが一致した場合には、特定部13は、楽譜データにおけるその位置を演奏位置と判断し、前述した図5の処理を再開する。
[Modification 3]
In the embodiment, the identifying
[変形例4]
本発明に係る情報処理装置の一例として、スマートホンやタブレット等のユーザ端末10を例示したが、図3に例示した機能ブロックを実現する情報処理装置であれば本発明を適用可能である。
また、本発明において、演奏に用いる楽器は、実施形態にて例示したピアノに限定されない。
[Modification 4]
Although the
Further, in the present invention, the musical instrument used for performance is not limited to the piano exemplified in the embodiment.
[そのほかの変形例]
なお、上記実施形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及びソフトウェアの少なくとも一方の任意の組み合わせによって実現される。また、各機能ブロックの実現方法は特に限定されない。すなわち、各機能ブロックは、物理的又は論理的に結合した1つの装置を用いて実現されてもよいし、物理的又は論理的に分離した2つ以上の装置を直接的又は間接的に(例えば、有線、無線などを用いて)接続し、これら複数の装置を用いて実現されてもよい。機能ブロックは、上記1つの装置又は上記複数の装置にソフトウェアを組み合わせて実現されてもよい。
[Other modifications]
Note that the block diagrams used in the description of the above embodiment show blocks of functional units. These functional blocks (components) are realized by an arbitrary combination of at least one of hardware and software. The method of realizing each functional block is not particularly limited. That is, each functional block may be realized by using one device physically or logically coupled, or directly or indirectly (for example, two or more devices physically or logically separated). , Wired, wireless, etc.) and may be implemented using these multiple devices. The functional blocks may be realized by combining the one device or the plurality of devices with software.
機能には、判断、決定、判定、計算、算出、処理、導出、調査、探索、確認、受信、送信、出力、アクセス、解決、選択、選定、確立、比較、想定、期待、見做し、報知(broadcasting)、通知(notifying)、通信(communicating)、転送(forwarding)、構成(configuring)、再構成(reconfiguring)、割り当て(allocating、mapping)、割り振り(assigning)などがあるが、これらに限られない。たとえば、送信を機能させる機能ブロック(構成部)は、送信部(transmitting unit)や送信機(transmitter)と呼称される。いずれも、上述したとおり、実現方法は特に限定されない。 Functions include judgment, decision, judgment, calculation, calculation, processing, derivation, investigation, search, confirmation, reception, transmission, output, access, solution, selection, selection, establishment, comparison, assumption, expectation, and observation. Broadcasting, notifying, communicating, forwarding, configuration, reconfiguring, allocating, mapping, assigning, etc., but not limited to these. I can't. For example, a functional block (component) that causes transmission to function is called a transmitting unit or a transmitter. In any case, as described above, the implementation method is not particularly limited.
例えば、本開示の一実施の形態におけるユーザ端末は、本開示の無線通信方法の処理を行うコンピュータとして機能してもよい。 For example, the user terminal according to the embodiment of the present disclosure may function as a computer that performs the process of the wireless communication method of the present disclosure.
情報の通知は、本開示において説明した態様/実施形態に限られず、他の方法を用いて行われてもよい。例えば、情報の通知は、物理レイヤシグナリング(例えば、DCI(Downlink Control Information)、UCI(Uplink Control Information))、上位レイヤシグナリング(例えば、RRC(Radio Resource Control)シグナリング、MAC(Medium Access Control)シグナリング、報知情報(MIB(Master Information Block)、SIB(System Information Block)))、その他の信号又はこれらの組み合わせによって実施されてもよい。また、RRCシグナリングは、RRCメッセージと呼ばれてもよく、例えば、RRC接続セットアップ(RRC Connection Setup)メッセージ、RRC接続再構成(RRC Connection Reconfiguration)メッセージなどであってもよい。 The notification of information is not limited to the aspect / embodiment described in the present disclosure, and may be performed using another method. For example, the information is notified by physical layer signaling (for example, DCI (Downlink Control Information), UCI (Uplink Control Information)), upper layer signaling (for example, RRC (Radio Resource Control) signaling, MAC (Medium Access Control) signaling, It may be implemented by notification information (MIB (Master Information Block), SIB (System Information Block)), another signal, or a combination thereof. Further, the RRC signaling may be called an RRC message, and may be, for example, an RRC connection setup (RRC Connection Setup) message, an RRC connection reconfiguration message, or the like.
本開示において説明した各態様/実施形態は、LTE(Long Term Evolution)、LTE−A(LTE-Advanced)、SUPER 3G、IMT−Advanced、4G(4th generation mobile communication system)、5G(5th generation mobile communication system)、FRA(Future Radio Access)、NR(new Radio)、W−CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broadband)、IEEE 802.11(Wi−Fi(登録商標))、IEEE 802.16(WiMAX(登録商標))、IEEE 802.20、UWB(Ultra-WideBand)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステム及びこれらに基づいて拡張された次世代システムの少なくとも一つに適用されてもよい。また、複数のシステムが組み合わされて(例えば、LTE及びLTE−Aの少なくとも一方と5Gとの組み合わせ等)適用されてもよい。 Each aspect / embodiment described in the present disclosure is LTE (Long Term Evolution), LTE-A (LTE-Advanced), SUPER 3G, IMT-Advanced, 4G (4th generation mobile communication system), 5G (5th generation mobile communication). system), FRA (Future Radio Access), NR (new Radio), W-CDMA (registered trademark), GSM (registered trademark), CDMA2000, UMB (Ultra Mobile Broadband), IEEE 802.11 (Wi-Fi (registered trademark) )), IEEE 802.16 (WiMAX (registered trademark)), IEEE 802.20, UWB (Ultra-WideBand), Bluetooth (registered trademark), systems using other suitable systems, and extensions based on these. It may be applied to at least one of the next-generation systems. Further, a plurality of systems may be combined and applied (for example, a combination of at least one of LTE and LTE-A and 5G).
本開示において説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本開示において説明した方法については、例示的な順序を用いて様々なステップの要素を提示しており、提示した特定の順序に限定されない。 The processing procedure, sequence, flowchart, etc. of each aspect / embodiment described in the present disclosure may be interchanged as long as there is no contradiction. For example, the methods described in this disclosure present elements of the various steps in a sample order, and are not limited to the specific order presented.
情報等は、上位レイヤ(又は下位レイヤ)から下位レイヤ(又は上位レイヤ)へ出力され得る。複数のネットワークノードを介して入出力されてもよい。 Information and the like can be output from the upper layer (or lower layer) to the lower layer (or upper layer). Input / output may be performed via a plurality of network nodes.
入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルを用いて管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。 The input / output information and the like may be stored in a specific place (for example, a memory) or may be managed using a management table. Information that is input / output can be overwritten, updated, or added. The output information and the like may be deleted. The input information and the like may be transmitted to another device.
判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:true又はfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。 The determination may be performed based on a value represented by 1 bit (0 or 1), may be performed based on a Boolean value (Boolean: true or false), or may be compared by numerical values (for example, a predetermined value). (Comparison with value).
本開示において説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。
以上、本開示について詳細に説明したが、当業者にとっては、本開示が本開示中に説明した実施形態に限定されるものではないということは明らかである。本開示は、請求の範囲の記載により定まる本開示の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本開示の記載は、例示説明を目的とするものであり、本開示に対して何ら制限的な意味を有するものではない。
Each aspect / embodiment described in the present disclosure may be used alone, in combination, or may be switched according to execution. Further, the notification of the predetermined information (for example, the notification of “being X”) is not limited to the explicit notification, and is performed implicitly (for example, the notification of the predetermined information is not performed). Good.
Although the present disclosure has been described in detail above, it is obvious to those skilled in the art that the present disclosure is not limited to the embodiments described in the present disclosure. The present disclosure can be implemented as modified and changed modes without departing from the spirit and scope of the present disclosure defined by the description of the claims. Therefore, the description of the present disclosure is for the purpose of exemplifying description, and does not have any restrictive meaning to the present disclosure.
ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。
また、ソフトウェア、命令、情報などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、有線技術(同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者回線(DSL:Digital Subscriber Line)など)及び無線技術(赤外線、マイクロ波など)の少なくとも一方を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び無線技術の少なくとも一方は、伝送媒体の定義内に含まれる。
Software, whether called software, firmware, middleware, microcode, hardware description language, or any other name, instructions, instruction sets, code, code segments, program code, programs, subprograms, software modules. , Application, software application, software package, routine, subroutine, object, executable, thread of execution, procedure, function, etc. should be construed broadly.
Also, software, instructions, information, etc. may be sent and received via a transmission medium. For example, the software uses a wired technology (coaxial cable, optical fiber cable, twisted pair, Digital Subscriber Line (DSL), etc.) and / or wireless technology (infrared, microwave, etc.) to use a website, When sent from a server, or other remote source, at least one of these wired and wireless technologies is included within the definition of transmission medium.
本開示において説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。
なお、本開示において説明した用語及び本開示の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。例えば、チャネル及びシンボルの少なくとも一方は信号(シグナリング)であってもよい。また、信号はメッセージであってもよい。また、コンポーネントキャリア(CC:Component Carrier)は、キャリア周波数、セル、周波数キャリアなどと呼ばれてもよい。
The information, signals, etc. described in this disclosure may be represented using any of a variety of different technologies. For example, data, instructions, commands, information, signals, bits, symbols, chips, etc. that may be referred to throughout the above description include voltage, current, electromagnetic waves, magnetic fields or magnetic particles, optical fields or photons, or any of these. May be represented by a combination of
The terms described in the present disclosure and terms necessary for understanding the present disclosure may be replaced with terms having the same or similar meanings. For example, at least one of the channel and the symbol may be a signal (signaling). The signal may also be a message. Moreover, a component carrier (CC: Component Carrier) may be called a carrier frequency, a cell, a frequency carrier, or the like.
本開示において使用する「システム」及び「ネットワーク」という用語は、互換的に使用される。 The terms "system" and "network" used in this disclosure are used interchangeably.
また、本開示において説明した情報、パラメータなどは、絶対値を用いて表されてもよいし、所定の値からの相対値を用いて表されてもよいし、対応する別の情報を用いて表されてもよい。例えば、無線リソースはインデックスによって指示されるものであってもよい。
上述したパラメータに使用する名称はいかなる点においても限定的な名称ではない。さらに、これらのパラメータを使用する数式等は、本開示で明示的に開示したものと異なる場合もある。様々なチャネル(例えば、PUCCH、PDCCHなど)及び情報要素は、あらゆる好適な名称によって識別できるので、これらの様々なチャネル及び情報要素に割り当てている様々な名称は、いかなる点においても限定的な名称ではない。
Further, the information, parameters, etc. described in the present disclosure may be represented by using an absolute value, may be represented by using a relative value from a predetermined value, or by using other corresponding information. May be represented. For example, the radio resources may be those indicated by the index.
The names used for the above parameters are not limiting in any way. Further, the formulas and the like that use these parameters may differ from those explicitly disclosed in this disclosure. Since different channels (eg PUCCH, PDCCH, etc.) and information elements can be identified by any suitable name, the different names assigned to these different channels and information elements are in no way limited names. is not.
本開示においては、「移動局(MS:Mobile Station)」、「ユーザ端末(user terminal)」、「ユーザ装置(UE:User Equipment)」、「端末」などの用語は、互換的に使用され得る。
移動局は、当業者によって、加入者局、モバイルユニット、加入者ユニット、ワイヤレスユニット、リモートユニット、モバイルデバイス、ワイヤレスデバイス、ワイヤレス通信デバイス、リモートデバイス、モバイル加入者局、アクセス端末、モバイル端末、ワイヤレス端末、リモート端末、ハンドセット、ユーザエージェント、モバイルクライアント、クライアント、又はいくつかの他の適切な用語で呼ばれる場合もある。
In the present disclosure, terms such as “mobile station (MS)”, “user terminal”, “user equipment (UE)”, and “terminal” may be used interchangeably. .
Mobile stations are defined by those skilled in the art as subscriber stations, mobile units, subscriber units, wireless units, remote units, mobile devices, wireless devices, wireless communication devices, remote devices, mobile subscriber stations, access terminals, mobile terminals, wireless. It may also be referred to as a terminal, remote terminal, handset, user agent, mobile client, client, or some other suitable term.
ユーザ端末は、送信装置、受信装置、通信装置などと呼ばれてもよい。なお、ユーザ端末の少なくとも一方は、移動体に搭載されたデバイス、移動体自体などであってもよい。当該移動体は、乗り物(例えば、車、飛行機など)であってもよいし、無人で動く移動体(例えば、ドローン、自動運転車など)であってもよいし、ロボット(有人型又は無人型)であってもよい。なお、ユーザ端末は、必ずしも通信動作時に移動しない装置も含む。例えば、ユーザ端末10は、センサなどのIoT(Internet of Things)機器であってもよい。本開示におけるユーザ端末は、基地局で読み替えてもよい。この場合、上述のユーザ端末10が有する機能を基地局が有する構成としてもよい。
The user terminal may be called a transmitting device, a receiving device, a communication device, or the like. Note that at least one of the user terminals may be a device mounted on a mobile body, the mobile body itself, or the like. The moving body may be a vehicle (eg, car, airplane, etc.), an unmanned moving body (eg, drone, self-driving car, etc.), or a robot (manned type or unmanned type). ) May be sufficient. Note that the user terminal also includes a device that does not necessarily move during communication operation. For example, the
「判断(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判断」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up、search、inquiry)(例えば、テーブル、データベース又は別のデータ構造での探索)、確認(ascertaining)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「判断」「決定」したとみなす事を含み得る。つまり、「判断」「決定」は、何らかの動作を「判断」「決定」したとみなす事を含み得る。また、「判断(決定)」は、「想定する(assuming)」、「期待する(expecting)」、「みなす(considering)」などで読み替えられてもよい。 The terms "determining" and "determining" may encompass a wide variety of actions. "Judgment", "decision" means, for example, judgment (judging), calculation (calculating), calculation (computing), processing (processing), derivation (deriving), investigating (investigating), searching (looking up, search, inquiry) (Eg, searching in a table, database, or another data structure), ascertaining what is considered to be “judgment” and “decision”, and the like. In addition, "decision" and "decision" include receiving (eg, receiving information), transmitting (eg, transmitting information), input (input), output (output), access (accessing) (for example, accessing data in a memory) may be regarded as “judging” and “deciding”. In addition, "judgment" and "decision" are considered to be "judgment" and "decision" when things such as resolving, selecting, choosing, choosing, establishing, and comparing are done. May be included. That is, the “judgment” and “decision” may include considering some action as “judgment” and “decision”. In addition, "determination (decision)" may be read as "assuming," "expecting," "considering," and the like.
「接続された(connected)」、「結合された(coupled)」という用語、又はこれらのあらゆる変形は、2又はそれ以上の要素間の直接的又は間接的なあらゆる接続又は結合を意味し、互いに「接続」又は「結合」された2つの要素間に1又はそれ以上の中間要素が存在することを含むことができる。要素間の結合又は接続は、物理的なものであっても、論理的なものであっても、或いはこれらの組み合わせであってもよい。例えば、「接続」は「アクセス」で読み替えられてもよい。本開示で使用する場合、2つの要素は、1又はそれ以上の電線、ケーブル及びプリント電気接続の少なくとも一つを用いて、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域及び光(可視及び不可視の両方)領域の波長を有する電磁エネルギーなどを用いて、互いに「接続」又は「結合」されると考えることができる。 The terms "connected," "coupled," or any variation thereof, mean any direct or indirect connection or coupling between two or more elements, It can include the presence of one or more intermediate elements between two elements that are “connected” or “coupled”. The connections or connections between the elements may be physical, logical, or a combination thereof. For example, “connection” may be read as “access”. As used in this disclosure, two elements are in the radio frequency domain, with at least one of one or more wires, cables and printed electrical connections, and as some non-limiting and non-exhaustive examples. , Can be considered to be “connected” or “coupled” to each other, such as with electromagnetic energy having wavelengths in the microwave region and the light (both visible and invisible) region.
本開示において使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。 As used in this disclosure, the phrase “based on” does not mean “based only on,” unless expressly specified otherwise. In other words, the phrase "based on" means both "based only on" and "based at least on."
本開示において使用する「第1の」、「第2の」などの呼称を使用した要素へのいかなる参照も、それらの要素の量又は順序を全般的に限定しない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本開示において使用され得る。したがって、第1及び第2の要素への参照は、2つの要素のみが採用され得ること、又は何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。 Any reference to elements using the designations "first," "second," etc. as used in this disclosure does not generally limit the amount or order of those elements. These designations may be used in this disclosure as a convenient way to distinguish between two or more elements. Thus, references to the first and second elements do not mean that only two elements may be employed, or that the first element must precede the second element in any way.
上記の各装置の構成における「手段」を、「部」、「回路」、「デバイス」等に置き換えてもよい。 The “means” in the configuration of each of the above devices may be replaced with “unit”, “circuit”, “device”, and the like.
本開示において、「含む(include)」、「含んでいる(including)」及びそれらの変形が使用されている場合、これらの用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。さらに、本開示において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。 Where the terms “include”, “including” and variations thereof are used in this disclosure, these terms are inclusive, as is the term “comprising”. Is intended. Furthermore, the term "or" as used in this disclosure is not intended to be an exclusive or.
本開示において、例えば、英語でのa, an及びtheのように、翻訳により冠詞が追加された場合、本開示は、これらの冠詞の後に続く名詞が複数形であることを含んでもよい。 In the present disclosure, where translations add articles, such as a, an, and the in English, the disclosure may include that the noun that follows these articles is in the plural.
本開示において、「AとBが異なる」という用語は、「AとBが互いに異なる」ことを意味してもよい。なお、当該用語は、「AとBがそれぞれCと異なる」ことを意味してもよい。「離れる」、「結合される」などの用語も、「異なる」と同様に解釈されてもよい。 In the present disclosure, the term “A and B are different” may mean “A and B are different from each other”. The term may mean that “A and B are different from C”. The terms "remove", "coupled" and the like may be construed as "different" as well.
1…演奏評価システム、2…ネットワーク、10…ユーザ端末、11…収音部、12…認識部、13…特定部、14…評価部、20…サーバ装置、1001…プロセッサ、1002…メモリ、1003…ストレージ、1004…通信装置、1005…入力装置、1006…出力装置。
DESCRIPTION OF
Claims (10)
楽譜データによって示される楽譜音の音高と、前記認識部により演奏音データにおいて認識された演奏音の音高との一致度に基づいて、楽譜音と演奏音との対応関係を特定する特定部とを備え、
前記特定部は、
前記楽譜データに含まれる第1の楽譜音の音高と、前記演奏音データにおいて認識された演奏音の音高との一致度が閾値を超えた場合に、当該第1の楽譜音に対応する第1の演奏音の開始タイミングを特定し、
前記楽譜データにおいて前記第1の楽譜音に続く第2の楽譜音の音高と、前記演奏音データにおいて認識された前記第1の演奏音に続く演奏音の音高との一致度が閾値を超えた場合に、前記第1の楽譜音に対応する前記第1の演奏音の終了タイミングを特定する
ことを特徴とする情報処理装置。 A recognition unit that recognizes the pitch of the performance sound in the performance sound data indicating the collected performance sound,
A specifying unit that specifies a correspondence relationship between the score sound and the performance sound based on the degree of coincidence between the pitch of the score sound indicated by the score data and the pitch of the performance sound recognized in the performance sound data by the recognition unit. With and
The specifying unit is
When the degree of coincidence between the pitch of the first musical note sound included in the musical score data and the pitch of the musical performance sound recognized in the musical performance data exceeds a threshold value, it corresponds to the first musical note sound. Specify the start timing of the first performance sound,
In the score data, the degree of coincidence between the pitch of the second score sound following the first score sound and the pitch of the performance sound following the first performance sound recognized in the performance sound data has a threshold value. An information processing apparatus, characterized in that, when the time exceeds, the end timing of the first performance sound corresponding to the first musical score sound is specified.
ことを特徴とする請求項1記載の情報処理装置。 The information processing apparatus according to claim 1, further comprising an evaluation unit that evaluates the performance by comparing the musical score sound and the performance sound that are in the correspondence relationship specified by the specifying unit.
ことを特徴とする請求項1又は2記載の情報処理装置。 The specifying unit continuously and temporally compares the pitch of one score sound in the score data with the pitch of the performance sound recognized in the performance sound data a predetermined number of times, and compares the respective pitches. The information processing apparatus according to claim 1 or 2, characterized in that, when the degree of coincidence of (1) exceeds a threshold value, it is specified that the musical score sound and the performance sound correspond.
ことを特徴とする請求項3記載の情報処理装置。 The information processing apparatus according to claim 3, wherein the predetermined number of times differs depending on the length of the musical score sound, the tempo in the musical score data, or the tempo of performance.
ことを特徴とする請求項1〜4のいずれか1項に記載の情報処理装置。 The start timing or the end timing of the performance sound corresponding to the musical score sound by the specifying unit depending on whether the musical sound data of the same pitch is continuous in the musical score data or the musical sound of different pitches is continuous. The information processing apparatus according to any one of claims 1 to 4, characterized in that a method of specifying is different.
ことを特徴とする請求項5記載の情報処理装置。 When the first musical note sound and the second musical note sound of the same pitch are consecutive in the musical score data, the specifying unit matches the pitches of the first musical note sound and the second musical note sound. In the section of the performance sound whose degree exceeds the threshold value, the first performance sound corresponding to the first musical score sound is specified based on the increase / decrease in the sound pressure of the performance sound, and the first musical sound corresponding to the second musical sound is identified. The information processing apparatus according to claim 5, wherein the performance sound of 2 is specified.
前記楽譜データにおいて前記第1の楽譜音に続く第2の楽譜音の音高と、前記演奏音データにおいて認識された前記第1の演奏音に続く演奏音の音高との一致度が閾値を超えた場合に、前記第1の楽譜音に対応する前記第1の演奏音の終了タイミングを特定する
ことを特徴とする請求項5又は6記載の情報処理装置。 When the first musical note sound and the second musical note sound with different pitches are continuous in the musical score data, the specifying unit determines the pitch of the first musical note sound included in the musical score data and the performance sound data. In the case where the degree of coincidence with the pitch of the performance sound recognized in 1 exceeds a threshold value, the start timing of the first performance sound corresponding to the first musical score sound is specified,
In the score data, the degree of coincidence between the pitch of the second score sound following the first score sound and the pitch of the performance sound following the first performance sound recognized in the performance sound data has a threshold value. The information processing apparatus according to claim 5 or 6, wherein when it exceeds, the ending timing of the first performance sound corresponding to the first musical score sound is specified.
ことを特徴とする請求項1〜7のいずれか1項に記載の情報処理装置。 The specifying unit includes a pitch of a second musical note following the first musical note in the musical score data and a pitch of a musical note following the first musical note recognized in the musical note data. The first performance sound corresponding to the first musical score sound is determined to have ended when a period in which the degree of coincidence does not exceed a threshold value has passed a predetermined time period. The information processing apparatus according to any one of items.
ことを特徴とする請求項8記載の情報処理装置。 The specifying unit determines that a predetermined number of times continues when a period in which the degree of coincidence between the pitch of the second musical score sound and the pitch of the performance sound following the first performance sound does not exceed a threshold has passed a predetermined number of times. By comparing a combination of pitches of a plurality of musical score sounds that are temporally continuous in the musical score data with a combination of pitches of a plurality of musical performance sounds that are continuously recognized in time in the musical performance sound data, 9. The information processing apparatus according to claim 8, wherein the correspondence relationship between the musical score sound and the performance sound is specified.
収音された演奏音を示す演奏音データにおいて、演奏音の音高を認識する認識部と、
楽譜データによって示される楽譜音の音高と、前記認識部により演奏音データにおいて認識された演奏音の音高との一致度に基づいて、楽譜音と演奏音との対応関係を特定する特定部であって、前記楽譜データに含まれる第1の楽譜音の音高と、前記演奏音データにおいて認識された演奏音の音高との一致度が閾値を超えた場合に、当該第1の楽譜音に対応する第1の演奏音の開始タイミングを特定し、前記楽譜データにおいて前記第1の楽譜音に続く第2の楽譜音の音高と、前記演奏音データにおいて認識された前記第1の演奏音に続く演奏音の音高との一致度が閾値を超えた場合に、前記第1の楽譜音に対応する前記第1の演奏音の終了タイミングを特定する特定部と
して機能させるためのプログラム。 Computer,
A recognition unit that recognizes the pitch of the performance sound in the performance sound data indicating the collected performance sound,
A specifying unit that specifies a correspondence relationship between the score sound and the performance sound based on the degree of coincidence between the pitch of the score sound indicated by the score data and the pitch of the performance sound recognized in the performance sound data by the recognition unit. If the degree of coincidence between the pitch of the first musical note sound included in the musical score data and the pitch of the musical performance sound recognized in the musical performance data exceeds a threshold, the first musical score A start timing of a first performance sound corresponding to a note is specified, and a pitch of a second music sound following the first music sound in the music score data and the first pitch recognized in the performance sound data. To function as a specifying unit that specifies the end timing of the first performance sound corresponding to the first musical score sound when the degree of coincidence with the pitch of the performance sound following the performance sound exceeds a threshold value. Program of.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018195753A JP7232011B2 (en) | 2018-10-17 | 2018-10-17 | Information processing device and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018195753A JP7232011B2 (en) | 2018-10-17 | 2018-10-17 | Information processing device and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020064177A true JP2020064177A (en) | 2020-04-23 |
JP7232011B2 JP7232011B2 (en) | 2023-03-02 |
Family
ID=70388278
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018195753A Active JP7232011B2 (en) | 2018-10-17 | 2018-10-17 | Information processing device and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7232011B2 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6273296A (en) * | 1985-09-27 | 1987-04-03 | カシオ計算機株式会社 | Signal converter for electronic musical instrument |
JPH0527670A (en) * | 1991-07-24 | 1993-02-05 | Yamaha Corp | Score display device |
JPH10207455A (en) * | 1996-11-20 | 1998-08-07 | Yamaha Corp | Sound signal analyzing device and its method |
JP2001337675A (en) * | 2000-05-25 | 2001-12-07 | Yamaha Corp | Playing support device and playing support method |
JP2003058154A (en) * | 2001-08-13 | 2003-02-28 | Casio Comput Co Ltd | Musical performance practicing device and program for musical performance practicing process |
JP2007133199A (en) * | 2005-11-11 | 2007-05-31 | Nippon Hoso Kyokai <Nhk> | Musical score information tracking device |
JP2015215455A (en) * | 2014-05-09 | 2015-12-03 | 圭介 加藤 | Information processing device, information processing method and program |
-
2018
- 2018-10-17 JP JP2018195753A patent/JP7232011B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6273296A (en) * | 1985-09-27 | 1987-04-03 | カシオ計算機株式会社 | Signal converter for electronic musical instrument |
JPH0527670A (en) * | 1991-07-24 | 1993-02-05 | Yamaha Corp | Score display device |
JPH10207455A (en) * | 1996-11-20 | 1998-08-07 | Yamaha Corp | Sound signal analyzing device and its method |
JP2001337675A (en) * | 2000-05-25 | 2001-12-07 | Yamaha Corp | Playing support device and playing support method |
JP2003058154A (en) * | 2001-08-13 | 2003-02-28 | Casio Comput Co Ltd | Musical performance practicing device and program for musical performance practicing process |
JP2007133199A (en) * | 2005-11-11 | 2007-05-31 | Nippon Hoso Kyokai <Nhk> | Musical score information tracking device |
JP2015215455A (en) * | 2014-05-09 | 2015-12-03 | 圭介 加藤 | Information processing device, information processing method and program |
Also Published As
Publication number | Publication date |
---|---|
JP7232011B2 (en) | 2023-03-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210407508A1 (en) | Method of providing voice command and electronic device supporting the same | |
JP6820058B2 (en) | Speech recognition methods, devices, devices, and storage media | |
JP5378701B2 (en) | Method and apparatus for measuring state of a plurality of channels, method and apparatus for selecting idle channel | |
JP7166350B2 (en) | dialogue device | |
CN107229629B (en) | Audio recognition method and device | |
CN110097895B (en) | Pure music detection method, pure music detection device and storage medium | |
CN115004649A (en) | Communication system based on neural network model and configuration method thereof | |
CN109510636A (en) | Receive test method, device, medium and the equipment of FM signal function | |
JP7438191B2 (en) | information processing equipment | |
JP2020064177A (en) | Information processing apparatus and program | |
WO2020054244A1 (en) | Conversation information generation device | |
JP2020505813A (en) | Encoding method and encoding device | |
WO2019193796A1 (en) | Interaction server | |
CN106782614B (en) | Sound quality detection method and device | |
WO2018127155A1 (en) | Encoding method and encoder | |
JP2021028649A (en) | Information processor and program | |
WO2021251187A1 (en) | Prediction device | |
WO2019187463A1 (en) | Dialogue server | |
WO2021251188A1 (en) | Recommendation information provision device | |
JPWO2011161900A1 (en) | Information classification system | |
JP2020071758A (en) | Control system and control method | |
JP6705038B1 (en) | Action support device | |
WO2021256278A1 (en) | Recommendation information providing device | |
JP2020035261A (en) | Topic division device | |
WO2024089954A1 (en) | Information processing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210902 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220815 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220823 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221004 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230207 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230217 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7232011 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |