WO2019049293A1 - コード情報抽出装置、コード情報抽出方法およびコード情報抽出プログラム - Google Patents

コード情報抽出装置、コード情報抽出方法およびコード情報抽出プログラム Download PDF

Info

Publication number
WO2019049293A1
WO2019049293A1 PCT/JP2017/032378 JP2017032378W WO2019049293A1 WO 2019049293 A1 WO2019049293 A1 WO 2019049293A1 JP 2017032378 W JP2017032378 W JP 2017032378W WO 2019049293 A1 WO2019049293 A1 WO 2019049293A1
Authority
WO
WIPO (PCT)
Prior art keywords
musical score
score
extraction
code information
code
Prior art date
Application number
PCT/JP2017/032378
Other languages
English (en)
French (fr)
Inventor
大地 渡邉
Original Assignee
ヤマハ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヤマハ株式会社 filed Critical ヤマハ株式会社
Priority to CN201780094405.8A priority Critical patent/CN111052220B/zh
Priority to JP2019540226A priority patent/JP6838659B2/ja
Priority to PCT/JP2017/032378 priority patent/WO2019049293A1/ja
Publication of WO2019049293A1 publication Critical patent/WO2019049293A1/ja
Priority to US16/807,766 priority patent/US11308924B2/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19173Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • G06V30/413Classification of content, e.g. text, photographs or tables
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • G06V30/416Extracting the logical structure, e.g. chapters, sections or page numbers; Identifying elements of the document, e.g. authors
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10GREPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
    • G10G3/00Recording music in notation form, e.g. recording the mechanical operation of a musical instrument
    • G10G3/04Recording music in notation form, e.g. recording the mechanical operation of a musical instrument using electrical means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/38Chord
    • G10H1/383Chord detection and/or recognition, e.g. for correction, or automatic bass generation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/086Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for transcription of raw audio or music data to a displayed or printed staff representation or to displayable MIDI-like note-oriented data, e.g. in pianoroll format
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/571Chords; Chord sequences
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/005Non-interactive screen display of musical or status data
    • G10H2220/015Musical staff, tablature or score displays, e.g. for score reading during a performance
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/441Image sensing, i.e. capturing images or optical patterns for musical purposes or musical control purposes
    • G10H2220/451Scanner input, e.g. scanning a paper document such as a musical score for automated conversion into a musical file format

Definitions

  • the present invention relates to a code information extraction device for extracting code information from image data of a musical score, a code information extraction method, and a code information extraction program.
  • Patent Document 1 describes an electronic musical instrument system including an electronic musical instrument and an image capturing device.
  • the image capture device comprises a scanner, a digital camera or the like, and reads song information from a score (printed score) printed on a sheet of paper.
  • the song information includes setting information such as registration associated with the performance of the song in addition to the normal score information.
  • the read song information is converted into musical score image information, and the musical score image information is input to the electronic musical instrument.
  • the electronic musical instrument acquires score image information, it converts the score image information into music data and reads it by score reading processing using image analysis technology.
  • a musical score may have chord information (for example, a chord name) representing a chord (chord) in a song. It is required to efficiently extract code information written on such a general musical score.
  • a QR code registered trademark
  • setting information can be acquired by reading the QR code (registered trademark).
  • the convenience is low because it is necessary to prepare a QR code (registered trademark) in addition to a general musical score.
  • An object of the present invention is to provide a code information extraction device, a code information extraction method and a code information extraction program capable of efficiently extracting code information from musical score image data.
  • a code information extraction apparatus including: an acquisition unit for acquiring musical score image data representing a reference musical score; and a score of a reference musical score among a plurality of predetermined musical score types based on the acquired musical score image data.
  • a determination unit and a code information extraction unit for extracting code information from the acquired musical score image data based on the determined code extraction area.
  • the extraction area determination unit determines first and second extraction areas having different priorities as code extraction areas, and the code information extraction unit determines the presence or absence of code information in the first extraction area, and the first extraction is performed. If there is no code information in the area, the presence or absence of code information in the second extraction area may be determined.
  • the extraction area information may define different code extraction areas depending on the musical score type.
  • the musical score type determination unit may determine the musical score type of the reference musical score based on whether or not the reference musical score includes one or more horizontal lines constituting a part of the musical score as a musical score line.
  • the musical score type determination unit may determine the musical score type of the reference musical score on the basis of whether or not the musical score lines are formed of five horizontal lines arranged in parallel with each other at equal intervals.
  • the musical score type determination unit includes the musical score types of the reference musical score based on whether or not the musical score lines including the plurality of musical score lines arranged such that the reference musical scores are arranged vertically are connected to one another by the vertical lines. You may decide.
  • the musical score type determination unit may determine the musical score type of the reference musical score based on whether or not the musical score lines are configured by six horizontal lines arranged in parallel with each other at equal intervals.
  • a chord information extraction method comprising the steps of acquiring musical score image data representing a reference musical score, and of a plurality of musical score types previously determined based on the musical score image data acquired. Determining a chord extraction area in the reference musical score based on extraction area information defining a relationship between a plurality of musical score types and a chord extraction area to be subjected to extraction of chord information; Extracting code information from the obtained music score image data based on the extracted code extraction area.
  • a code information extraction program includes the steps of acquiring musical score image data representing a reference musical score and, based on the musical score image data acquired, a reference musical score of a plurality of predetermined musical score types. The step of determining the musical score type, the step of determining the chord extraction region in the reference musical score on the basis of the extraction region information defining the relationship between the plurality of musical score types and the chord extraction region targeted for the extraction of the chord information And a step of extracting code information from the obtained music score image data on the basis of the obtained code extraction area.
  • code information can be efficiently extracted from musical score image data.
  • FIG. 1 is a block diagram showing the configuration of a code information extraction apparatus according to an embodiment of the present invention.
  • FIG. 2 is a block diagram showing a functional configuration of the code information extraction apparatus.
  • FIG. 3 is a diagram for explaining the relationship between the musical score type and the chord extraction area.
  • FIG. 4 is a diagram for explaining the relationship between the musical score type and the chord extraction area.
  • FIG. 5 is a diagram for explaining the relationship between the musical score type and the chord extraction area.
  • FIG. 6 is a diagram for explaining an example of extraction of code information.
  • FIG. 7 is a diagram for explaining another determination example of the code extraction area.
  • FIG. 8 is a flowchart showing an example of the code information extraction process.
  • FIG. 9 is a flowchart showing an example of the musical score type determination process.
  • FIG. 1 is a block diagram showing the configuration of the code information extraction device according to the embodiment of the present invention.
  • the chord information extraction apparatus 100 of FIG. 1 extracts chord information representing a chord (chord) from musical score image data representing a musical score.
  • the chord information extraction apparatus 100 of FIG. 1 includes a music score input unit 1, an operation unit 4, a display unit 6, a RAM (random access memory) 9, a ROM (read only memory) 10, a CPU (central processing unit) 11, a storage device 13 and a communication I / F (interface) 14. Each of these components is connected to the bus 19.
  • the musical score input unit 1 reads a musical score printed on a recording medium such as paper, and inputs musical score image data representing the musical score to the CPU 11.
  • the music score input unit 1 is a scanner and includes a light source and a photoelectric conversion element. Light is emitted from the light source to the musical score, and the reflected light is received by the photoelectric conversion element. The photoelectric conversion element generates musical score image data based on the received light.
  • the operation unit 4 includes various operation elements operated by the user, and is used to turn on / off the power and perform various settings.
  • the display unit 6 includes, for example, a liquid crystal display, and displays the extracted code information. At least a part of the operation unit 4 and the display unit 6 may be configured by a touch panel display.
  • the RAM 9, the ROM 10 and the CPU 11 constitute a computer 200.
  • the RAM 9 is, for example, a volatile memory, is used as a work area of the CPU 11, and temporarily stores various data.
  • the ROM 10 is, for example, a non-volatile memory, and stores computer programs such as a control program and a code information extraction program.
  • the CPU 11 executes code information extraction processing described later by executing a code information extraction program stored in the ROM 10 on the RAM 9.
  • the storage device 13 includes a storage medium such as a hard disk, an optical disk, a magnetic disk, or a memory card.
  • a storage medium such as a hard disk, an optical disk, a magnetic disk, or a memory card.
  • extraction area information is stored. Details of the extraction area information will be described later.
  • One or more music score image data may be stored in the storage device 13, or a code information extraction program may be stored in the storage device 13.
  • the communication I / F 14 can be connected to various external devices such as an external storage device. Also, the communication I / F 14 may be connected to the communication network. When the communication I / F 14 is connected to the external storage device, at least one of the code information extraction program, the music score image data and the extraction area information may be stored in the external storage device.
  • the code information extraction program in the present embodiment may be provided in a form stored in a computer readable recording medium, and may be installed in the ROM 10 or the storage device 13. Further, when the communication I / F 14 is connected to the communication network, a code information extraction program distributed from a server connected to the communication network may be installed in the ROM 10 or the storage device 13. Similarly, at least one of the musical score image data and the extraction area information may be obtained from the storage medium, or may be obtained from a server connected to the communication network.
  • FIG. 2 is a block diagram showing a functional configuration of the code information extraction device 100.
  • the code information extraction apparatus 100 includes an acquisition unit 51, a music score type determination unit 52, an extraction area determination unit 54, a code information extraction unit 55, and a display control unit 56.
  • the functions of these components are realized by the CPU 11 of FIG. 1 executing the code information extraction program.
  • the acquisition unit 51 acquires the music score image data input by the music score input unit 1.
  • the acquisition unit 51 may acquire music image data from any of the storage device 13 of FIG. 1, an external storage device connected to the communication I / F 14, or a server connected to a communication network.
  • the musical score represented by the acquired musical score image data will be referred to as a reference musical score.
  • a song corresponding to the reference score (a song played according to the reference score) is referred to as a reference song.
  • the musical score type determination unit 52 determines the musical score type of the reference musical score among a plurality of predetermined musical score types based on the acquired musical score image data.
  • the music score type represents the type of music score.
  • a musical score type for example, there are a lead sheet, a piano score, a tablature score, a guitar chord score and a text chord score. Specific examples of these musical score types will be described later.
  • the extraction area determination unit 54 determines a code extraction area in the reference music sheet based on the extraction area information RG stored in the storage device 13.
  • the code extraction area is an area targeted for extraction of code information. As described later, there is a fixed tendency in the notation position of the chord information for each musical score type. Therefore, the relationship between the musical score type and the chord extraction area is predetermined as extraction area information RG.
  • the extraction area information RG defines, for each musical score type, a relative positional relationship between a reference index (hereinafter referred to as a musical score index) in the score and the chord extraction area.
  • the code information extraction unit 55 extracts code information from the obtained music score image data based on the determined code extraction area. Specifically, the chord information extraction unit 55 determines the presence or absence of chord information in the chord extraction area based on the musical score image data, and when the chord information is described in the chord extraction area, the chord information of the musical score image Extract from the data.
  • the code information is represented by, for example, a code name.
  • the display control unit 56 controls the display unit 6 so that the extracted code information is displayed.
  • the display control unit 56 causes text code notation (see FIG. 5 described later) including the extracted code information to be displayed on the screen of the display unit 6.
  • FIGS. 3, 4 and 5 are diagrams for explaining the relationship between the musical score type and the chord extraction region.
  • each piece of code information is described by a code name.
  • FIG. 3 shows an example of a lead sheet and a piano score.
  • the lead sheet of FIG. 3 includes a staff Ea and at least one piece of code information Ci.
  • a plurality of staff Ea may be arranged vertically.
  • Each staff line Ea is composed of five horizontal lines (horizontal lines) parallel to each other and equally spaced.
  • note strings of any part (for example, melody part) of the reference music are arranged on the staff Ea.
  • the lyric of a reference music may be described by the area
  • Each piece of code information Ci is usually written at a position adjacent to the staff Ea above the staff Ea. Therefore, for example, a region R1 of a certain range above each staff line Ea is determined as a code extraction region.
  • the extraction area information RG defines, for the lead sheet, that each staff Ea is a musical score index, and also determines the relative positional relationship between each staff Ea and the area R1.
  • the piano score of FIG. 3 includes a staff pair Ep and at least one piece of chord information Ci.
  • Each staff pair Ep includes upper and lower two stages of staff Ea.
  • a plurality of sets of stave pairs Ep may be arranged to be aligned vertically.
  • a particular vertical line such as a bar line, extends continuously up and down so as to connect the upper stave Ea and the lower stave Ea of the stave pair Ep.
  • a pair of bars adjacent to the top and bottom in each stave pair Ep represents the same section in the reference music.
  • Each piece of code information Ci is normally written at a position above the upper stave Ea included in the stave pair Ep and adjacent to the upper stave Ea. Therefore, for example, a region R2 of a certain range above each pair of staves Ep is determined as a code extraction region.
  • the extraction region information RG determines that each stave pair Ep is a musical score index and determines the relative positional relationship between each stave pair Ep and the region R2 with respect to the piano score.
  • the tablature score of FIG. 4 is a tablature score for guitar (hereinafter referred to as a guitar tablature).
  • the guitar tablature includes six lines Eb and at least one chord information.
  • the six lines Eb are composed of six horizontal lines which are parallel to each other and equally spaced. These six horizontal lines correspond to the six strings of the guitar, respectively. Although only one six-wire Eb is shown in FIG. 4, a plurality of six-wires Eb may be arranged vertically.
  • Each piece of code information Ci is usually written at a position adjacent to the six lines Eb above the six lines Eb. Therefore, for example, a region R3 of a certain range above each six lines Eb is determined as a code extraction region.
  • the extraction area information RG determines that each of the six lines Eb is a score index for the guitar tablature, and also determines the relative positional relationship between each of the six lines Eb and the area R3.
  • the guitar chord score of FIG. 4 includes a rhythm score RS and at least one chord diagram CD.
  • the rhythm score RS has a configuration in which notes representing a rhythm are arranged on one horizontal line (hereinafter referred to as a rhythm line Ec). Although only one rhythm score RS is shown in FIG. 4, a plurality of rhythm scores RS may be displayed.
  • Each chord diagram CD is generally described at a position adjacent to the rhythm line Ec above the rhythm line Ec.
  • Each chord diagram CD includes chord information Ci and a fingerboard diagram FB representing a portion of a guitar fingerboard.
  • the fingerboard drawing FB shows the position on the strings and the fingerboard to be pressed when playing the chord represented by the chord information Ci.
  • each code diagram CD the code information Ci is written at the upper left position of the fingerboard diagram FB. Therefore, for example, a region R4 of a certain range above each rhythm line Ec and above one or more fingerboard drawings FB is determined as a code extraction region.
  • the extraction area information RG determines that each rhythm line Ec is a musical score index for the guitar chord score, and also determines the relative positional relationship between each rhythm line Ec and the area R4.
  • each fingerboard drawing FB may be used as a musical score index, and the area above the fingerboard drawing FB may be determined as a chord extraction area.
  • the text chord score of FIG. 5 includes a plurality of bar lines BL and at least one piece of chord information Ci arranged in a plurality of stages.
  • Each piece of code information Ci is usually arranged in a region between two bar lines BL adjacent on the left and right. Therefore, for example, an area R5 of a certain range between the bar line BL located at the left end of each stage and the bar line BL located at the right end of each stage is determined as the code extraction area.
  • the extraction area information RG determines that a pair of bar lines BL located at the left end and the right end of each row is a music score index, and the relative position between the pair of bar lines BL and the area R5. To establish a specific positional relationship.
  • each bar line BL may be used as a musical score index, and an area between two bar lines BL adjacent on the left and right may be determined as a chord extraction area.
  • the extraction area information RG defines, for each music score type, a relative positional relationship between the music score index and the code extraction area so that the code information Ci is included in the code extraction area.
  • the code information Ci is usually described as being aligned in the lateral direction. Therefore, in the example of FIGS. 3 to 5, the elongated region extending in the lateral direction is determined as the code extraction region.
  • FIG. 6 is a diagram for explaining an example of extraction of code information.
  • one staff Ea of a lead sheet which is a reference music sheet is shown.
  • the illustration of the notes on each staff Ea is omitted.
  • the score type of the reference score is determined. For example, after the musical score image data input by the musical score input unit 1 of FIG. 1 is subjected to binarization processing and inclination correction, etc., staves, six lines, rhythm lines based on the luminance distribution in the longitudinal direction and the lateral direction. Various pieces of information regarding the bar line and the like are detected, and the musical score type is determined based on the information. Alternatively, the musical score image data may be compressed, and the musical score type may be determined by an image recognition method using machine learning such as a convolutional neural network. The specific determination method of a musical score type is mentioned later. In the example of FIG. 6, the score type of the reference score is determined to be a lead sheet.
  • the code extraction area CR in the reference musical score is determined.
  • the extraction area information RG defines the relative positional relationship between each staff Ea and the code extraction area CR with respect to the lead sheet.
  • the code extraction area CR of the lead sheet is a rectangular area above each staff line Ea.
  • the position of the upper side of the code extraction area CR is set to a position upper by a predetermined upper side distance from the fifth line (horizontal line located at the top) of the detected staff Ea.
  • the position of the lower side is set to a position above the fifth line of the detected staff Ea by a predetermined lower side distance.
  • the position of the left side of the code extraction area CR is set to a position on the left by a predetermined left side distance from the position of the left end of the detected staff Ea, and the position of the right side of the code extraction area CR is From the position of the right end of the line Ea, it is set to a position on the right by a predetermined distance on the right side.
  • the left side and the right side of the code extraction area CR are the left end of the staff Ea and the code extraction area CR includes the code information Ci. It is preferable to locate each outside by a certain distance than the right end.
  • the upper side distance and the lower side distance may be determined to depend on the vertical dimension of the detected staff Ea.
  • the left side distance and the right side distance may be determined to depend on the dimension in the left-right direction of the detected staff Ea.
  • an interval between the plurality of staves Ea arranged vertically may be detected, and the dimension of the code extraction area CR in the vertical direction may be determined based on the interval.
  • chord information Ci is extracted from the musical score image data.
  • the luminance distribution of the code extraction area CR is obtained from the musical score image data, and the code information Ci is extracted based on the luminance distribution.
  • the characters “Fm 7 ”, “B ⁇ m 7 ”, “E ⁇ 7 ” and “A ⁇ maj 7 ”, which are characters representing code names, are extracted as code information Ci.
  • Letters representing code names include alphabets, numbers and various symbols.
  • each letter of a letter group representing a code name is configured integrally, and does not include multiple parts separated from each other.
  • each of “B”, “ ⁇ ”, “m” and “ 7 ” is integrally configured. That is, all the parts which comprise a character are mutually connected. Therefore, in the musical score image data, each of the characters representing the code name can be extracted with high accuracy based on the portion where the luminance largely changes.
  • the music score type is determined based on the music score image data
  • the code extraction area suitable for the music score type is determined based on the extraction area information RG.
  • Code information Ci is extracted from the musical score image data based on the code extraction area.
  • error information indicating that the code information Ci is not extracted from the reference score may be displayed by the display unit 6. .
  • the time position in the reference music corresponding to each piece of code information Ci may be acquired based on the written position of each piece of code information Ci in the reference musical score.
  • the time position of each code information Ci in the reference music can be specified based on the positional relationship between each piece of code information Ci and the bar line.
  • the time position is represented by, for example, a bar number, a beat and a tick.
  • display of the extracted chord information Ci or generation of automatic accompaniment data based on the extracted chord information Ci can be performed easily and efficiently based on the acquired time position.
  • the code information Ci be distinguished from other information so that information other than the code information Ci is not extracted erroneously as the code information Ci.
  • the notation rules of the code information Ci may be predetermined, and information that does not conform to the notation rules may be excluded from the target of extraction.
  • FIG. 7 is a diagram for explaining another determination example of the code extraction area.
  • An example of a piano score is shown in FIG.
  • the code information Ci is described in the upper region of each staff pair Ep, except for the example of the staff pair Ep as in the example of FIG.
  • the code information Ci may be written at a position between the upper staff Ea and the lower staff Ea.
  • first and second regions having different priorities may be set as the code extraction region CR.
  • the first area has higher priority than the second area.
  • the presence or absence of code information Ci in the first area is determined.
  • the code information Ci is detected in the first area
  • the code information Ci is extracted.
  • the presence or absence of the notation of the code information Ci in the second area is determined.
  • the code information Ci is detected in the second area
  • the code information Ci is extracted.
  • the area above the staff pair Ep (the area above the upper staff Ea) is determined to be the first area CRa, and the upper staff Ea and the lower staff Ea An area between them is determined as a second area CRb.
  • the presence or absence of the code information Ci in the first region CRa is first determined, and the code information Ci is not described in the first region CRa, so the presence or absence of the code information Ci in the second region CRb is subsequently determined. It is judged.
  • the code information Ci is described in the second area CRb, the code information Ci in the second area CRb is extracted from the musical score image data.
  • the code information Ci can be extracted from the music image data.
  • the chord information Ci can be appropriately extracted from the musical score image data.
  • first and second areas having different priorities are determined as code extraction areas, and the presence or absence of code information Ci is determined in two steps in the first and second areas.
  • Regions of three or more patterns having different priorities may be set, and the presence or absence of the code information Ci may be determined in three or more stages in these regions.
  • FIG. 8 is a flowchart showing an example of code information extraction processing by each functional unit in FIG.
  • the code information extraction process of FIG. 8 is performed by the CPU 11 of FIG. 1 executing the code information extraction program stored in the ROM 10 or the storage device 13.
  • the acquisition unit 51 acquires the music score image data input by the music score input unit 1 (step S1).
  • the musical score type determination unit 52 performs musical score type determination processing for determining the musical score type of the reference musical score (step S2). Details of the musical score type determination process will be described later.
  • the extraction area determination unit 54 determines a chord extraction area in the reference music sheet based on the determined musical score type and the extraction area information RG stored in the storage device 13 (step S3). For example, the extraction area determination unit 54 detects a musical score index corresponding to the determined musical score type from the musical score image data, and sets a code extraction area on the reference musical score so as to have a predetermined positional relationship with the musical score index. Do. In this example, the extraction area determination unit 54 determines first and second areas having different priorities as code extraction areas.
  • the code information extraction unit 55 determines whether there is code information in the determined first area (step S4). If there is code information in the first area, the code information extraction unit 55 extracts the code information from the musical score image data (step S5), and the process proceeds to step S8. On the other hand, when there is no code information in the first area, the code information extraction unit 55 determines whether there is code information in the determined second area (step S6). If there is code information in the second area, the code information extraction unit 55 extracts the code information from the musical score image data, and the process proceeds to step S8.
  • step S8 the display control unit 56 controls the display unit 6 so that the extracted code information is displayed (step S8).
  • step S6 display control unit 56 controls display unit 6 to display error information indicating that the code information has not been extracted (step S9). ).
  • the code information extraction process ends.
  • a specific example of the musical score type determination process of step S2 will be described.
  • various information such as staves, six lines, rhythm lines, and bars are detected from the musical score image data acquired in step S1 of FIG. 8, and the musical score type is determined based on the information.
  • a music score line is one or more horizontal lines that form part of a score, and represents the passage of time in a reference song.
  • musical symbols such as crescendo, decrescendo, and first and second brackets used in combination with a repetition symbol may include horizontal lines or horizontal straight lines that are relatively long. Therefore, it is preferable that these musical symbols and musical score lines (for example, rhythm lines) be identified. For example, musical score lines can be identified from these musical symbols based on the length of the straight lines, or the parallelism and spacing of multiple straight lines arranged one above the other.
  • FIG. 9 is a flowchart showing an example of the musical score type determination process by the musical score type determination unit 52.
  • the musical score type determination unit 52 determines whether the reference musical score includes a musical score line based on the musical score image data (step S21). When the reference musical score includes a musical score line, the musical score type determination unit 52 determines whether the musical score line is composed of five horizontal lines, that is, whether the musical score line is a staff line (step S22). When the musical score line is a staff line, the musical score type determination unit 52 determines whether or not two musical score lines adjacent to each other including a plurality of staves whose reference music faces are arranged vertically are connected to each other ( Step S23).
  • the musical score type determination unit 52 determines that the musical score type of the reference musical score is a piano score (step S24).
  • the lead sheet as in the example of FIG. 3, one stave is not usually connected to the other stave. Therefore, if the reference music sheet does not include a plurality of staves, or if two vertically adjacent staves are not connected to each other, the music score type determination unit 52 determines that the music score type of the reference music face is a lead sheet. (Step S25).
  • step S22 when the music score line is not a staff line, the music score type determination unit 52 determines whether the music score line is configured by six horizontal lines, that is, whether the music score line is a six line (step) S26). If the music score line is a six line, the music score type determination unit 52 determines that the music score type of the reference music score is a guitar tablature (step S27). If the music score line is not a six line, the music score type determination unit 52 determines that the detected music score line is a rhythm line, and determines that the music score type of the reference music score is a guitar chord music (step S28).
  • step S27 it may be determined whether the score type of the reference score is guitar chord based on the presence or absence of the note on the score line and the presence or absence of the chord diagram. . If neither the musical note nor the chord diagram on the musical score line is detected, the musical score type determination unit 52 may proceed to step S31 described later.
  • step S21 when the reference musical score does not include a score line, the musical score type determination unit 52 determines whether the reference musical score includes a bar line (step S29). When the reference score includes a bar line, the score type determination unit 52 determines that the score type of the reference score is a text chord score (step S30). On the other hand, there is a case where neither the musical score line nor the bar line is detected from the musical score image data due to the difference in density of the reference musical score, the stain of the reference musical score, or the like. In that case, the musical score type determination unit 52 receives specification of a musical score type by the user (step S31). In this case, the musical score type determination unit 52 determines that the musical score type of the reference musical score is the designated musical score type. Thus, the musical score type determination process ends.
  • the reference score is any one of the lead sheet, piano score, guitar tablature, guitar chord score and text chord score of FIGS. 3 to 5, the reference score is based on the score image data.
  • the musical score type is determined, the musical score type is not limited to these examples.
  • a lead sheet there may be a case where two upper and lower rows of staff Ea are connected like a piano score, or three or more rows of staves Ea are connected.
  • the tablature for bass instead of the six lines Eb in FIG. 4, four lines including four horizontal lines respectively corresponding to the four strings of the base are included.
  • chord information is described on the staff or the pair of staves as the text chord score, or the bar line may not be described but only the chord information may be described.
  • musical score type in which a note is not written and lyrics and chord information are written in parallel.
  • total score or a band score etc. in which various music scores such as lead sheet, piano score, tablature score and rhythm score are combined.
  • musical score types can also be determined based on various information such as musical score lines and bar lines detected from musical score image data, as in the example of FIG. 9. Moreover, in any musical score type, there is a fixed tendency in the notation position of code information. Therefore, it is also possible to appropriately determine the chord extraction area by using music score lines and bar lines as music score indicators for these various music score types.
  • the musical score type of the reference musical score is determined based on the presence or absence of the musical score line in the reference musical score, the presence or absence of the staff line, the presence or absence of the six lines, and connection of a plurality of musical score lines.
  • the determined music score type may be changeable by the user.
  • the display unit 6 displays a type confirmation screen for confirming the determined musical score type. While a user can confirm a musical score type on a type confirmation screen, he may operate the operation part 4 and can change a musical score type. Further, a plurality of music score type candidates may be displayed by the display unit 6, and the user may be able to select one of the plurality of candidates.
  • the determined code extraction area may be changeable by the user. Also, the user may be able to select one code extraction area from a plurality of code extraction area candidates.
  • the extracted code information is displayed on the screen of the display unit 6 in the above embodiment, other processes may be performed using the extracted code information.
  • automatic accompaniment data for outputting automatic accompaniment may be generated based on the extracted chord information and its time position.
  • chord information such as musical notes, bar lines, repetitive symbols and rehearsal marks
  • chord information such as musical notes, bar lines, repetitive symbols and rehearsal marks
  • chord information extraction apparatus 100 includes the musical score input unit 1 in the above embodiment, the musical score input unit 1 may be used as an external device of the chord information extraction apparatus 100.
  • the code information extraction device 100 may be applied to an electronic musical instrument such as an electronic keyboard instrument, and may be applied to another electronic device such as a personal computer, a smartphone or a tablet terminal.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

コード情報抽出装置は、取得部、譜面タイプ決定部、抽出領域決定部およびコード情報検出部を備える。取得部は、参照譜面を表す譜面画像データを取得する。譜面タイプ決定部は、取得された譜面画像データに基づいて、予め定められた複数の譜面タイプのうち参照譜面の譜面タイプを決定する。抽出領域決定部は、複数の譜面タイプとコード情報の抽出の対象となるコード抽出領域との関係を定めた抽出領域情報に基づいて、参照譜面におけるコード抽出領域を決定する。コード情報抽出部は、決定されたコード抽出領域に基づいて、取得された譜面画像データからコード情報を抽出する。

Description

コード情報抽出装置、コード情報抽出方法およびコード情報抽出プログラム
 本発明は、譜面の画像データからコード情報を抽出するコード情報抽出装置、コード情報抽出方法およびコード情報抽出プログラムに関する。
 従来、スキャナ等を用いて譜面の画像データを取得し、その画像データから曲に関する種々の情報を抽出することが提案されている。例えば、特許文献1には、電子楽器および画像取り込み装置により構成される電子楽器システムが記載されている。画像取り込み装置は、スキャナまたはデジタルカメラ等からなり、紙面に印刷された楽譜(印刷楽譜)から曲情報を読み取る。曲情報は、通常の楽譜情報に加えて、曲の演奏に関連付けられたレジストレーション等の設定情報を含む。読み取った曲情報を楽譜画像情報に変換し、その楽譜画像情報を電子楽器に入力する。電子楽器は、楽譜画像情報を取得すると、画像解析技術を用いた楽譜読み込み処理により楽譜画像情報を曲データに変換して読み込む。
特許第4702139号公報
 譜面には、曲中のコード(和音)を表すコード情報(例えば、コードネーム)が表記されることがある。このような一般的な譜面に表記されたコード情報を効率良く抽出することが求められる。上記の電子楽器システムでは、設定情報として例えばQRコード(登録商標)が印刷楽譜に付され、QRコード(登録商標)を読み込むことによって設定情報を取得することができる。しかしながら、一般的な譜面に加えてQRコード(登録商標)を用意する必要があるので、利便性が低い。
 本発明の目的は、譜面画像データからコード情報を効率良く抽出することが可能なコード情報抽出装置、コード情報抽出方法およびコード情報抽出プログラムを提供することである。
 本発明の一局面に従うコード情報抽出装置は、参照譜面を表す譜面画像データを取得する取得部と、取得された譜面画像データに基づいて、予め定められた複数の譜面タイプのうち参照譜面の譜面タイプを決定する譜面タイプ決定部と、複数の譜面タイプとコード情報の抽出の対象となるコード抽出領域との関係を定めた抽出領域情報に基づいて、参照譜面におけるコード抽出領域を決定する抽出領域決定部と、決定されたコード抽出領域に基づいて、取得された譜面画像データからコード情報を抽出するコード情報抽出部とを備える。
 抽出領域決定部は、コード抽出領域として優先度が異なる第1および第2の抽出領域を決定し、コード情報抽出部は、第1の抽出領域におけるコード情報の有無を判定し、第1の抽出領域にコード情報がない場合に第2の抽出領域におけるコード情報の有無を判定してもよい。抽出領域情報は、譜面タイプによって異なるコード抽出領域を定めてもよい。
 譜面タイプ決定部は、参照譜面が、楽譜の一部を構成する1または複数の横線を譜面線として含むか否かに基づいて、参照譜面の譜面タイプを決定してもよい。譜面タイプ決定部は、譜面線が互いに平行でかつ等間隔に配置された5本の横線により構成されるか否かに基づいて、参照譜面の譜面タイプを決定してもよい。譜面タイプ決定部は、参照譜面が上下に並ぶように配置された複数の譜面線を含み、かつ複数の譜面線が縦線によって互いに連結されているか否かに基づいて、参照譜面の譜面タイプを決定してもよい。譜面タイプ決定部は、譜面線が互いに平行でかつ等間隔に配置された6本の横線により構成されるか否かに基づいて、参照譜面の譜面タイプを決定してもよい。
 本発明の他の局面に従うコード情報抽出方法は、参照譜面を表す譜面画像データを取得するステップと、取得された譜面画像データに基づいて、予め定められた複数の譜面タイプのうち参照譜面の譜面タイプを決定するステップと、複数の譜面タイプとコード情報の抽出の対象となるコード抽出領域との関係を定めた抽出領域情報に基づいて、参照譜面におけるコード抽出領域を決定するステップと、決定されたコード抽出領域に基づいて、取得された譜面画像データからコード情報を抽出するステップとを含む。
 本発明のさらに他の局面に従うコード情報抽出プログラムは、参照譜面を表す譜面画像データを取得するステップと、取得された譜面画像データに基づいて、予め定められた複数の譜面タイプのうち参照譜面の譜面タイプを決定するステップと、複数の譜面タイプとコード情報の抽出の対象となるコード抽出領域との関係を定めた抽出領域情報に基づいて、参照譜面におけるコード抽出領域を決定するステップと、決定されたコード抽出領域に基づいて、取得された譜面画像データからコード情報を抽出するステップとを、コンピュータに実行させるためのものである。
 本発明によれば、譜面画像データからコード情報を効率良く抽出することができる。
図1は本発明の実施の形態に係るコード情報抽出装置の構成を示すブロック図である。 図2はコード情報抽出装置の機能的な構成を示すブロック図である。 図3は譜面タイプとコード抽出領域との関係について説明するための図である。 図4は譜面タイプとコード抽出領域との関係について説明するための図である。 図5は譜面タイプとコード抽出領域との関係について説明するための図である。 図6はコード情報の抽出例について説明するための図である。 図7はコード抽出領域の他の決定例について説明するための図である。 図8はコード情報抽出処理の一例を示すフローチャートである。 図9は譜面タイプ決定処理の一例を示すフローチャートである。
 以下、本発明の実施の形態に係るコード情報抽出装置、コード情報抽出方法およびコード情報抽出プログラムについて図面を用いて詳細に説明する。
 [1]コード情報抽出装置の構成
 図1は本発明の実施の形態に係るコード情報抽出装置の構成を示すブロック図である。図1のコード情報抽出装置100は、譜面を表す譜面画像データからコード(和音)を表すコード情報を抽出する。
 図1のコード情報抽出装置100は、譜面入力部1、操作部4、表示部6、RAM(ランダムアクセスメモリ)9、ROM(リードオンリメモリ)10、CPU(中央演算処理装置)11、記憶装置13および通信I/F(インターフェース)14を備える。これらの構成要素は、それぞれバス19に接続される。
 譜面入力部1は、紙等の記録媒体に印刷された譜面を読み込み、その譜面を表す譜面画像データをCPU11に入力する。例えば、譜面入力部1はスキャナであり、光源および光電変換素子を含む。光源から譜面に光が照射され、その反射光が光電変換素子により受光される。光電変換素子は、受光した光に基づいて譜面画像データを生成する。
 操作部4は、ユーザにより操作される種々の操作子を含み、電源のオンオフおよび各種設定を行うために用いられる。表示部6は、例えば液晶ディスプレイを含み、抽出されたコード情報を表示する。操作部4および表示部6の少なくとも一部がタッチパネルディスプレイにより構成されてもよい。
 RAM9、ROM10およびCPU11がコンピュータ200を構成する。RAM9は、例えば揮発性メモリからなり、CPU11の作業領域として用いられるとともに、各種データを一時的に記憶する。ROM10は、例えば不揮発性メモリからなり、制御プログラム、コード情報抽出プログラム等のコンピュータプログラムを記憶する。CPU11は、ROM10に記憶されたコード情報抽出プログラムをRAM9上で実行することにより後述するコード情報抽出処理を行う。
 記憶装置13は、ハードディスク、光学ディスク、磁気ディスクまたはメモリカード等の記憶媒体を含む。記憶装置13には、抽出領域情報が記憶される。抽出領域情報の詳細については後述する。記憶装置13に1または複数の譜面画像データが記憶されていてもよく、あるいは記憶装置13にコード情報抽出プログラムが記憶されていてもよい。
 通信I/F14は、外部記憶装置等の種々の外部機器に接続可能である。また、通信I/F14が通信網に接続されてもよい。通信I/F14が外部記憶装置に接続されている場合、コード情報抽出プログラム、譜面画像データおよび抽出領域情報の少なくとも1つが、外部記憶装置に記憶されていてもよい。
 本実施の形態におけるコード情報抽出プログラムは、コンピュータが読み取り可能な記録媒体に格納された形態で提供され、ROM10または記憶装置13にインストールされてもよい。また、通信I/F14が通信網に接続されている場合、通信網に接続されたサーバから配信されたコード情報抽出プログラムがROM10または記憶装置13にインストールされてもよい。同様に、譜面画像データおよび抽出領域情報の少なくとも1つが、記憶媒体から取得されてもよく、通信網に接続されたサーバから取得されてもよい。
 [2]コード情報抽出装置の機能的な構成
 図2は、コード情報抽出装置100の機能的な構成を示すブロック図である。図2に示すように、コード情報抽出装置100は、取得部51、譜面タイプ決定部52、抽出領域決定部54、コード情報抽出部55および表示制御部56を含む。これらの構成要素の機能は、図1のCPU11がコード情報抽出プログラムを実行することにより実現される。
 取得部51は、譜面入力部1により入力された譜面画像データを取得する。取得部51は、図1の記憶装置13、通信I/F14に接続された外部記憶装置、あるいは通信網に接続されたサーバのいずれかから譜面画像データを取得してもよい。以下、取得された譜面画像データが表す譜面を参照譜面と呼ぶ。また、参照譜面に対応する曲(参照譜面に従って演奏される曲)を参照曲と呼ぶ。
 譜面タイプ決定部52は、取得された譜面画像データに基づいて、予め定められた複数の譜面タイプのうち、参照譜面の譜面タイプを決定する。譜面タイプは、譜面の種類を表す。譜面タイプとしては、例えば、リードシート、ピアノ譜、タブラチュア譜、ギターコード譜およびテキストコード譜がある。これらの譜面タイプの具体例については後述する。
 抽出領域決定部54は、記憶装置13に記憶される抽出領域情報RGに基づいて、参照譜面におけるコード抽出領域を決定する。コード抽出領域は、コード情報の抽出の対象となる領域である。後述のように、譜面タイプごとにコード情報の表記位置には一定の傾向がある。そこで、譜面タイプとコード抽出領域との関係が抽出領域情報RGとして予め定められる。本例において、抽出領域情報RGは、各譜面タイプについて、楽譜における基準となる指標(以下、譜面指標と呼ぶ。)と、コード抽出領域との相対的な位置関係を定める。
 コード情報抽出部55は、決定されたコード抽出領域に基づいて、取得された譜面画像データからコード情報を抽出する。具体的には、コード情報抽出部55は、譜面画像データに基づいて、コード抽出領域におけるコード情報の有無を判定し、コード抽出領域にコード情報が表記されている場合、そのコード情報を譜面画像データから抽出する。コード情報は、例えばコードネームで表記される。
 表示制御部56は、抽出されたコード情報が表示されるように表示部6を制御する。例えば、表示制御部56は、抽出されたコード情報を含むテキストコード譜(後述の図5参照)を表示部6の画面上に表示させる。
 [3]譜面タイプとコード抽出領域との関係
 図3、図4および図5は、譜面タイプとコード抽出領域との関係について説明するための図である。図3~図5の例では、各コード情報がコードネームで表記されている。図3には、リードシートおよびピアノ譜の例が示される。図3のリードシートは、五線Eaおよび少なくとも1つのコード情報Ciを含む。図3には、1つの五線Eaのみが示されるが、複数の五線Eaが上下に並ぶように配置されてもよい。各五線Eaは、互いに平行でかつ等間隔に配置された5本の横線(水平線)により構成される。通常、五線Ea上には、参照曲のいずれかのパート(例えば、メロディパート)の音符列が配置される。なお、五線Eaの下方の領域に、参照曲の歌詞が表記されている場合もある。
 各コード情報Ciは、通常、五線Eaの上方においてその五線Eaと隣り合う位置に表記される。そこで、例えば、各五線Eaの上方における一定範囲の領域R1がコード抽出領域に決定される。この場合、抽出領域情報RGは、リードシートについて、各五線Eaが譜面指標であることを定めるとともに、各五線Eaと領域R1との相対的な位置関係を定める。
 図3のピアノ譜は、五線対Epおよび少なくとも1つのコード情報Ciを含む。各五線対Epは、上下2段の五線Eaを含む。図3には、1組の五線対Epのみが示されるが、複数組の五線対Epが上下に並ぶように配置されてもよい。小節線等の特定の縦線は、五線対Epの上段の五線Eaと下段の五線Eaとを連結するように上下に連続的に延びる。各五線対Epにおいて上下に隣り合う一対の小節は、参照曲中の同じ区間を表す。
 各コード情報Ciは、通常、五線対Epに含まれる上段の五線Eaの上方においてその上段の五線Eaと上方に隣り合う位置に表記される。そこで、例えば、各五線対Epの上方の一定範囲の領域R2がコード抽出領域に決定される。この場合、抽出領域情報RGは、ピアノ譜について、各五線対Epが譜面指標であることを定めるとともに、各五線対Epと領域R2との相対的な位置関係を定める。
 図4には、タブラチュア譜およびギターコード譜の例が示される。図4のタブラチュア譜は、ギター用のタブラチュア譜(以下、ギタータブ譜と呼ぶ。)である。ギタータブ譜は、六線Ebおよび少なくとも1つのコード情報を含む。六線Ebは、互いに平行でかつ等間隔に配置された6本の横線により構成される。これらの6本の横線は、ギターの6本の弦にそれぞれ対応する。図4には、1つの六線Ebのみが示されるが、複数の六線Ebが上下に並ぶように配置されてもよい。
 各コード情報Ciは、通常、六線Ebの上方においてその六線Ebと隣り合う位置に表記される。そこで、例えば、各六線Ebの上方の一定範囲の領域R3がコード抽出領域に決定される。この場合、抽出領域情報RGは、ギタータブ譜について、各六線Ebが譜面指標であることを定めるとともに、各六線Ebと領域R3との相対的な位置関係を定める。
 図4のギターコード譜は、リズム譜RSおよび少なくとも1つのコードダイアグラムCDを含む。リズム譜RSは、1本の横線(以下、リズム線Ecと呼ぶ。)上にリズムを表す音符が配置された構成を有する。図4においては、一段のリズム譜RSのみ示されるが、リズム譜RSが複数段であってもよい。各コードダイアグラムCDは、通常、リズム線Ecの上方においてそのリズム線Ecと隣り合う位置に表記される。各コードダイアグラムCDは、コード情報Ciと、ギターの指板の一部を表す指板図FBとを含む。指板図FBは、コード情報Ciにより表されるコードを演奏する際に押さえるべき弦および指板上の位置を示す。
 各コードダイアグラムCDにおいて、コード情報Ciは、指板図FBの左上の位置に表記される。そこで、例えば、各リズム線Ecの上方でかつ1または複数の指板図FBの上方の一定範囲の領域R4がコード抽出領域に決定される。この場合、抽出領域情報RGは、ギターコード譜について、各リズム線Ecが譜面指標であることを定めるとともに、各リズム線Ecと領域R4との相対的な位置関係を定める。あるいは、各指板図FBが譜面指標として用いられ、指板図FBごとにその上方の領域がコード抽出領域に決定されてもよい。
 図5には、テキストコード譜の例が示される。図5のテキストコード譜は、複数段に配置された複数の小節線BLおよび少なくとも1つのコード情報Ciを含む。各コード情報Ciは、通常、左右に隣り合う2つの小節線BLの間の領域に配置される。そこで、例えば、各段の左端に位置する小節線BLと各段の右端に位置する小節線BLとの間の一定範囲の領域R5がコード抽出領域に決定される。この場合、抽出領域情報RGは、テキストコード譜について、各段の左端および右端に位置する一対の小節線BLが譜面指標であることを定めるとともに、当該一対の小節線BLと領域R5との相対的な位置関係を定める。あるいは、各小節線BLが譜面指標として用いられ、左右に隣り合う各2つの小節線BLの間の領域がコード抽出領域に決定されてもよい。
 このように、譜面タイプごとにコード情報Ciの表記位置に一定の傾向がある。そこで、抽出領域情報RGは、各譜面タイプについて、コード情報Ciがコード抽出領域に含まれるように、譜面指標とコード抽出領域との相対的な位置関係を定める。なお、図3~図5の例のように、いずれの譜面タイプにおいても、コード情報Ciは、通常、横方向に並ぶように表記される。そこで、図3~図5の例では、横方向に延びる長尺状の領域がコード抽出領域に決定される。
 [4]コード情報の抽出
 譜面画像データからのコード情報の抽出の概要について、参照譜面がリードシートである場合を例に説明する。図6は、コード情報の抽出例について説明するための図である。図6の上段には、参照譜面であるリードシートの1つの五線Eaが示される。各五線Ea上の音符の図示は省略されている。
 まず、参照譜面の譜面タイプが決定される。例えば、図1の譜面入力部1により入力された譜面画像データの2値化処理および傾き補正等が行われた後、縦方向および横方向における輝度分布に基づいて五線、六線、リズム線および小節線等に関する種々の情報が検出され、それらの情報に基づいて譜面タイプが決定される。あるいは、譜面画像データが圧縮され、畳み込みニューラルネットワーク等の機械学習を用いた画像認識手法により譜面タイプが決定されてもよい。譜面タイプの具体的な決定方法については後述する。図6の例では、参照譜面の譜面タイプがリードシートであると決定される。
 続いて、抽出領域情報RGに基づいて、図6の中段に示すように、参照譜面におけるコード抽出領域CRが決定される。上記のように、抽出領域情報RGは、リードシートについて、各五線Eaとコード抽出領域CRとの相対的な位置関係を定める。本例において、リードシートのコード抽出領域CRは、各五線Eaの上方の矩形の領域である。
 例えば、コード抽出領域CRの上辺の位置は、検出された五線Eaの第5線(最も上に位置する横線)より予め定められた上辺距離だけ上方の位置に設定され、コード抽出領域CRの下辺の位置は、検出された五線Eaの第5線より予め定められた下辺距離だけ上方の位置に設定される。コード抽出領域CRの左辺の位置は、検出された五線Eaの左端の位置より予め定められた左辺距離だけ左方の位置に設定され、コード抽出領域CRの右辺の位置は、検出された五線Eaの右端の位置より予め定められた右辺距離だけ右方の位置に設定される。コード情報Ciが五線Eaの左端または右端より外側にはみ出ている場合でも、コード情報Ciがコード抽出領域CRに含まれるように、コード抽出領域CRの左辺および右辺は、五線Eaの左端および右端よりもそれぞれ一定距離外側に位置することが好ましい。
 上辺距離および下辺距離は、検出された五線Eaの上下方向の寸法に依存するように定められてもよい。同様に、左辺距離および右辺距離は、検出された五線Eaの左右方向の寸法に依存するように定められてもよい。あるいは、上下に並ぶ複数の五線Eaの間隔が検出され、その間隔に基づいてコード抽出領域CRの上下方向の寸法が決定されてもよい。
 このようにして決定されたコード抽出領域CRに基づいて、譜面画像データからコード情報Ciが抽出される。例えば、譜面画像データからコード抽出領域CRの輝度分布が取得され、その輝度分布に基づいて、コード情報Ciが抽出される。図6の例では、コードネームを表す文字群である“Fm”、“B”、“E ”および“Amaj”がそれぞれコード情報Ciとして抽出される。コードネームを表す文字群は、アルファベット、数字および種々の記号を含む。
 通常、コードネームを表す文字群の各文字は、一体的に構成されており、互いに離間した複数の部位を含まない。例えば、“B”について、“B”、“”、“m”および“”の各々は、一体的に構成されている。すなわち、文字を構成する全ての部位が互いに連結されている。そのため、譜面画像データにおいて、輝度が大きく変化する部分を基準として、コードネームを表す文字の各々を精度良く抽出することができる。
 参照譜面が他の譜面タイプである場合にも同様に、譜面画像データに基づいて譜面タイプが決定され、抽出領域情報RGに基づいてその譜面タイプに適したコード抽出領域が決定され、決定されたコード抽出領域に基づいて譜面画像データからコード情報Ciが抽出される。なお、決定されたコード抽出領域CRにコード情報Ciが表記されていない場合には、例えば、参照譜面からコード情報Ciが抽出されなかったことを示すエラー情報が表示部6により表示されてもよい。
 参照譜面における各コード情報Ciの表記位置に基づいて、各コード情報Ciに対応する参照曲中の時間位置が取得されてもよい。例えば、参照譜面が小節線を含む場合には、各コード情報Ciと小節線との位置関係に基づいて、参照曲中における各コード情報Ciの時間位置を特定することができる。時間位置は、例えば、小節番号、拍およびティック(tick)により表される。この場合、取得された時間位置に基づいて、抽出されたコード情報Ciの表示、または抽出されたコード情報Ciに基づく自動伴奏データの生成等を容易にかつ効率良く行うことができる。
 決定されたコード抽出領域CRには、音符の一部、リハーサルマークまたは小節番号等のコード情報Ci以外の情報が表記されている場合がある。そのため、これらのコード情報Ci以外の情報がコード情報Ciとして誤って抽出されないように、コード情報Ciと他の情報とが識別されることが好ましい。例えば、コード情報Ciの表記規則が予め定められ、その表記規則に従わない情報が、抽出の対象から除外されてもよい。
 譜面タイプによっては、コード情報Ciの表記位置に複数のバリエーションが存在する場合がある。そこで、そのような複数のバリエーションに対応するように、複数パターンのコード抽出領域が決定されてもよい。図7は、コード抽出領域の他の決定例について説明するための図である。図7には、ピアノ譜の一例が示される。ピアノ譜においては、通常、図3の例のように、各五線対Epの上方の領域にコード情報Ciが表記されるが、例外として、図7の例のように、五線対Epの上段の五線Eaと下段の五線Eaとの間の位置にコード情報Ciが表記される場合がある。
 そこで、コード抽出領域CRとして、優先度が異なる第1および第2の領域がそれぞれ設定されてもよい。第1の領域は第2の領域よりも優先度が高い。先に第1の領域におけるコード情報Ciの有無が判定される。第1の領域においてコード情報Ciが検出されると、そのコード情報Ciが抽出される。一方、第1の領域にコード情報Ciがない場合には、続いて、第2の領域におけるコード情報Ciの表記の有無が判定される。第2の領域においてコード情報Ciが検出されると、そのコード情報Ciが抽出される。
 図7の下段の例では、五線対Epの上方の領域(上段の五線Eaの上方の領域)が第1の領域CRaに決定され、上段の五線Eaと下段の五線Eaとの間の領域が第2の領域CRbに決定される。この場合、先に第1の領域CRaにおけるコード情報Ciの有無が判定され、第1の領域CRaにコード情報Ciが表記されていないので、続いて第2の領域CRbにおけるコード情報Ciの有無が判定される。この場合、第2の領域CRbにコード情報Ciが表記されているので、譜面画像データから第2の領域CRbにあるコード情報Ciが抽出される。
 このように、第1の領域CRaにコード情報Ciがない場合であっても、第2の領域CRbにコード情報Ciがある場合には、譜面画像データからコード情報Ciを抽出することができる。これにより、決定された譜面タイプにおけるコード情報の表記位置に複数のバリエーションがある場合でも、譜面画像データからコード情報Ciを適切に抽出することができる。
 なお、図7の例では、コード抽出領域として、優先度が異なる第1および第2の領域が決定され、その第1および第2の領域において2段階でコード情報Ciの有無が判定されるが、優先度が異なる3パターン以上の領域が設定され、それらの領域において3段階以上でコード情報Ciの有無が判定されてもよい。
 [5]コード情報抽出処理
 次に、本実施の形態に係るコード情報抽出方法によるコード情報抽出処理について説明する。図8は、図2の各機能部によるコード情報抽出処理の一例を示すフローチャートである。図8のコード情報抽出処理は、図1のCPU11がROM10または記憶装置13に記憶されたコード情報抽出プログラムを実行することにより行われる。
 まず、取得部51が、譜面入力部1により入力された譜面画像データを取得する(ステップS1)。次に、譜面タイプ決定部52が、参照譜面の譜面タイプを決定するための譜面タイプ決定処理を行う(ステップS2)。譜面タイプ決定処理の詳細については後述する。次に、抽出領域決定部54が、決定された譜面タイプおよび記憶装置13に記憶された抽出領域情報RGに基づいて、参照譜面におけるコード抽出領域を決定する(ステップS3)。例えば、抽出領域決定部54は、決定された譜面タイプに対応する譜面指標を譜面画像データから検出し、その譜面指標に対して一定の位置関係を有するように参照譜面上でコード抽出領域を設定する。本例では、抽出領域決定部54が、コード抽出領域として優先度が異なる第1および第2の領域を決定する。
 次に、コード情報抽出部55が、決定された第1の領域にコード情報があるか否かを判定する(ステップS4)。第1の領域にコード情報がある場合、コード情報抽出部55は、そのコード情報を譜面画像データから抽出し(ステップS5)、ステップS8に進む。一方、第1の領域にコード情報がない場合、コード情報抽出部55は、決定された第2の領域にコード情報があるか否かを判定する(ステップS6)。第2の領域にコード情報がある場合、コード情報抽出部55は、そのコード情報を譜面画像データから抽出し、ステップS8に進む。
 ステップS8においては、表示制御部56が、抽出されたコード情報が表示されるように表示部6を制御する(ステップS8)。一方、ステップS6において、第2の領域にコード情報がない場合、表示制御部56は、コード情報が抽出されなかったことを示すエラー情報が表示されるように表示部6を制御する(ステップS9)。これにより、コード情報抽出処理が終了する。
 ステップS2の譜面タイプ決定処理の具体例について説明する。本例では、図8のステップS1で取得された譜面画像データから五線、六線、リズム線および小節等の種々の情報が検出され、その情報に基づいて譜面タイプが判別される。以下の説明では、図3の五線Ea、図4の六線Ebおよびリズム線Ecを総称して譜面線と呼ぶ。譜面線は、楽譜の一部を構成する1または複数の横線であり、参照曲中の時間の経過を表す。
 なお、クレッシェンド、デクレッシェンド、ならびに反復記号と組み合わせて用いられる1番かっこおよび2番かっこ等の音楽記号は、水平または水平に近く、かつ比較的長い直線を含む場合がある。そのため、これらの音楽記号と譜面線(例えばリズム線)とが識別されることが好ましい。例えば、直線の長さ、または上下に並ぶ複数の直線の平行度および間隔等に基づいて、譜面線をこれらの音楽記号から識別することができる。
 図9は、譜面タイプ決定部52による譜面タイプ決定処理の一例を示すフローチャートである。まず、譜面タイプ決定部52は、譜面画像データに基づいて、参照譜面が譜面線を含むか否かを判定する(ステップS21)。参照譜面が譜面線を含む場合、譜面タイプ決定部52は、譜面線が5本の横線により構成されているか否か、すなわち譜面線が五線であるか否かを判定する(ステップS22)。譜面線が五線である場合、譜面タイプ決定部52は、参照譜面が上下に並ぶ複数の五線を含み、かつ上下に隣り合う2つの五線が互いに連結されているか否かを判定する(ステップS23)。
 図3の例のように、ピアノ譜においては、通常、小節線等によって一対の五線Eaが互いに連結されている。そこで、上下に隣り合う2つの五線が互いに連結されている場合、譜面タイプ決定部52は、参照譜面の譜面タイプがピアノ譜であると決定する(ステップS24)。一方、図3の例のように、リードシートのおいては、通常、一の五線が他の五線と連結されていない。そこで、参照譜面が複数の五線を含まない場合、または上下に隣り合う2つの五線が互いに連結されていない場合、譜面タイプ決定部52は、参照譜面の譜面タイプがリードシートであると決定する(ステップS25)。
 ステップS22において、譜面線が五線でない場合、譜面タイプ決定部52は、譜面線が6本の横線により構成されているか否か、すなわち譜面線が六線であるか否かを判定する(ステップS26)。譜面線が六線である場合、譜面タイプ決定部52は、参照譜面の譜面タイプがギタータブ譜であると決定する(ステップS27)。譜面線が六線でない場合、譜面タイプ決定部52は、検出された譜面線がリズム線であると判定し、参照譜面の譜面タイプがギターコード譜であると決定する(ステップS28)。なお、ステップS27で譜面線が六線でない場合、譜面線上の音符の有無およびコードダイアグラムの有無に基づいて、参照譜面の譜面タイプがギターコード譜であるか否かの判定が行われてもよい。譜面線上の音符およびコードダイアグラムがいずれも検出されない場合、譜面タイプ決定部52は、後述のステップS31に進んでもよい。
 ステップS21において、参照譜面が譜面線を含まない場合、譜面タイプ決定部52は、参照譜面が小節線を含むか否かを判定する(ステップS29)。参照譜面が小節線を含む場合、譜面タイプ決定部52は、参照譜面の譜面タイプがテキストコード譜であると決定する(ステップS30)。一方、参照譜面の濃淡の差、または参照譜面の汚れ等に起因して、譜面画像データから譜面線および小節線のいずれも検出されない場合がある。その場合、譜面タイプ決定部52は、ユーザによる譜面タイプの指定を受け付ける(ステップS31)。この場合、譜面タイプ決定部52は、参照譜面の譜面タイプが、指定された譜面タイプであると決定する。これにより、譜面タイプ決定処理が終了する。
 なお、図9の例では、参照譜面が図3~図5のリードシート、ピアノ譜、ギタータブ譜、ギターコード譜およびテキストコード譜のいずれかである場合に、譜面画像データに基づいて参照譜面の譜面タイプが決定されるが、譜面タイプはこれらの例に限らない。例えば、リードシートにおいて、ピアノ譜のように上下2段の五線Eaが連結されている場合、あるいは3段以上の五線Eaが連結されている場合がある。また、ベース用のタブラチュア譜では、図4の六線Ebの代わりに、ベースの4本の弦にそれぞれ対応する4本の横線からなる四線を含む。また、テキストコード譜として、五線または五線対上にコード情報が表記される場合、あるいは小節線が表記されずにコード情報のみが表記される場合がある。また、音符が表記されず、歌詞とコード情報とが並列に表記された譜面タイプもある。さらに、リードシート、ピアノ譜、タブラチュア譜およびリズム譜等の種々の譜面が組み合わされた総譜またはバンドスコア等もある。
 これらの譜面タイプについても、図9の例と同様にして、譜面画像データから検出される譜面線および小節線等の種々の情報に基づいて、判別することは可能である。また、いずれの譜面タイプにおいても、コード情報の表記位置には一定の傾向がある。そのため、これらの種々の譜面タイプについても、譜面線および小節線等を譜面指標として用いて、コード抽出領域を適切に決定することが可能である。
 [6]実施の形態の効果
 本実施の形態に係るコード情報抽出装置100においては、複数の譜面タイプとコード情報の抽出の対象となるコード抽出領域との関係を定めた抽出領域情報RGに基づいて、参照譜面におけるコード抽出領域が決定される。譜面タイプごとにコード情報の表記位置には一定の傾向があるので、参照譜面の譜面タイプに対応するコード抽出領域が決定されることにより、譜面画像データからコード情報を効率良く抽出することができる。
 また、本実施の形態では、参照譜面における譜面線の有無、五線の有無、六線の有無、および複数の譜面線の連結等に基づいて、参照譜面の譜面タイプが決定される。これにより、リードシート、ピアノ譜およびギタータブ譜等に代表される種々の譜面タイプを効率良く適切に決定することができる。
 [7]他の実施の形態
 決定された譜面タイプをユーザが変更可能であってもよい。例えば、決定された譜面タイプを確認するためのタイプ確認画面が表示部6により表示される。ユーザが、タイプ確認画面上で譜面タイプを確認することができるとともに、操作部4を操作して譜面タイプを変更することができてもよい。また、譜面タイプの複数の候補が表示部6により表示され、ユーザが複数の候補から一の候補を選択可能であってもよい。同様に、決定されたコード抽出領域をユーザが変更可能であってもよい。また、ユーザが、コード抽出領域の複数の候補から一のコード抽出領域を選択可能であってもよい。
 上記実施の形態では、抽出されたコード情報が表示部6の画面上に表示されるが、抽出されたコード情報を利用して他の処理が行われてもよい。例えば、抽出されたコード情報およびその時間位置に基づいて、自動伴奏を出力するための自動伴奏データが生成されてもよい。
 譜面画像データから音符、小節線、反復記号およびリハーサルマーク等のコード情報以外の情報が抽出されていてもよい。その場合、これらの情報に基づいて、種々の形態でコード情報を表示することが可能となる。また、コード情報に基づく自動伴奏データの生成を精度良く行なうことが可能となる。
 上記実施の形態では、コード情報抽出装置100が譜面入力部1を含むが、コード情報抽出装置100の外部装置として譜面入力部1が用いられてもよい。
 コード情報抽出装置100は、電子鍵盤楽器等の電子楽器に適用されてもよく、パーソナルコンピュータ、スマートフォンまたはタブレット端末等の他の電子機器に適用されてもよい。

Claims (9)

  1. 参照譜面を表す譜面画像データを取得する取得部と、
     取得された譜面画像データに基づいて、予め定められた複数の譜面タイプのうち前記参照譜面の譜面タイプを決定する譜面タイプ決定部と、
     前記複数の譜面タイプとコード情報の抽出の対象となるコード抽出領域との関係を定めた抽出領域情報に基づいて、前記参照譜面におけるコード抽出領域を決定する抽出領域決定部と、
     決定されたコード抽出領域に基づいて、取得された譜面画像データからコード情報を抽出するコード情報抽出部とを備えた、コード情報抽出装置。
  2. 前記抽出領域決定部は、前記コード抽出領域として優先度が異なる第1および第2の抽出領域を決定し、
     前記コード情報抽出部は、前記第1の抽出領域におけるコード情報の有無を判定し、前記第1の抽出領域にコード情報がない場合に前記第2の抽出領域におけるコード情報の有無を判定する、請求項1記載のコード情報抽出装置。
  3. 前記抽出領域情報は、譜面タイプによって異なるコード抽出領域を定める、請求項1または2記載のコード情報抽出装置。
  4. 前記譜面タイプ決定部は、
     前記参照譜面が、楽譜の一部を構成する1または複数の横線を譜面線として含むか否かに基づいて、前記参照譜面の譜面タイプを決定する、請求項1または2記載のコード情報抽出装置。
  5. 前記譜面タイプ決定部は、
     前記譜面線が互いに平行でかつ等間隔に配置された5本の横線により構成されるか否かに基づいて、前記参照譜面の譜面タイプを決定する、請求項4記載のコード情報抽出装置。
  6. 前記譜面タイプ決定部は、
     前記参照譜面が上下に並ぶように配置された複数の前記譜面線を含み、かつ前記複数の譜面線が縦線によって互いに連結されているか否かに基づいて、前記参照譜面の譜面タイプを決定する、請求項4または5記載のコード情報抽出装置。
  7. 前記譜面タイプ決定部は、
     前記譜面線が互いに平行でかつ等間隔に配置された6本の横線により構成されるか否かに基づいて、前記参照譜面の譜面タイプを決定する、請求項1~6のいずれか一項に記載のコード情報抽出装置。
  8. 参照譜面を表す譜面画像データを取得するステップと、
     取得された譜面画像データに基づいて、予め定められた複数の譜面タイプのうち前記参照譜面の譜面タイプを決定するステップと、
     前記複数の譜面タイプとコード情報の抽出の対象となるコード抽出領域との関係を定めた抽出領域情報に基づいて、前記参照譜面におけるコード抽出領域を決定するステップと、
     決定されたコード抽出領域に基づいて、取得された譜面画像データからコード情報を抽出するステップとを含む、コード情報抽出方法。
  9. 参照譜面を表す譜面画像データを取得するステップと、
     取得された譜面画像データに基づいて、予め定められた複数の譜面タイプのうち前記参照譜面の譜面タイプを決定するステップと、
     前記複数の譜面タイプとコード情報の抽出の対象となるコード抽出領域との関係を定めた抽出領域情報に基づいて、前記参照譜面におけるコード抽出領域を決定するステップと、
     決定されたコード抽出領域に基づいて、取得された譜面画像データからコード情報を抽出するステップとを、
     コンピュータに実行させるためのコード情報抽出プログラム。
PCT/JP2017/032378 2017-09-07 2017-09-07 コード情報抽出装置、コード情報抽出方法およびコード情報抽出プログラム WO2019049293A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201780094405.8A CN111052220B (zh) 2017-09-07 2017-09-07 和弦信息提取装置、和弦信息提取方法及存储装置
JP2019540226A JP6838659B2 (ja) 2017-09-07 2017-09-07 コード情報抽出装置、コード情報抽出方法およびコード情報抽出プログラム
PCT/JP2017/032378 WO2019049293A1 (ja) 2017-09-07 2017-09-07 コード情報抽出装置、コード情報抽出方法およびコード情報抽出プログラム
US16/807,766 US11308924B2 (en) 2017-09-07 2020-03-03 Chord information extraction device, chord information extraction method and non-transitory computer readable medium storing chord information extraction program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/032378 WO2019049293A1 (ja) 2017-09-07 2017-09-07 コード情報抽出装置、コード情報抽出方法およびコード情報抽出プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/807,766 Continuation US11308924B2 (en) 2017-09-07 2020-03-03 Chord information extraction device, chord information extraction method and non-transitory computer readable medium storing chord information extraction program

Publications (1)

Publication Number Publication Date
WO2019049293A1 true WO2019049293A1 (ja) 2019-03-14

Family

ID=65634957

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/032378 WO2019049293A1 (ja) 2017-09-07 2017-09-07 コード情報抽出装置、コード情報抽出方法およびコード情報抽出プログラム

Country Status (4)

Country Link
US (1) US11308924B2 (ja)
JP (1) JP6838659B2 (ja)
CN (1) CN111052220B (ja)
WO (1) WO2019049293A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111274891A (zh) * 2020-01-14 2020-06-12 成都嗨翻屋科技有限公司 一种面向简谱图像的音高及对应歌词提取方法及系统

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111052221B (zh) * 2017-09-07 2023-06-23 雅马哈株式会社 和弦信息提取装置、和弦信息提取方法及存储器
CN111052220B (zh) * 2017-09-07 2023-06-27 雅马哈株式会社 和弦信息提取装置、和弦信息提取方法及存储装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5886695U (ja) * 1981-12-04 1983-06-11 ヤマハ株式会社 電子楽器の自動伴奏装置
JP2007122277A (ja) * 2005-10-26 2007-05-17 Kawai Musical Instr Mfg Co Ltd 楽譜認識装置および楽譜認識プログラム

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2775651B2 (ja) * 1990-05-14 1998-07-16 カシオ計算機株式会社 音階検出装置及びそれを用いた電子楽器
JP3466894B2 (ja) 1997-11-25 2003-11-17 株式会社河合楽器製作所 楽譜認識方法及びその装置並びに楽譜認識プログラムを記録したコンピュータ読み取り可能な記録媒体
JP4075565B2 (ja) * 2002-03-08 2008-04-16 ヤマハ株式会社 楽譜表示制御装置および楽譜表示制御プログラム
JP2006053170A (ja) * 2004-07-14 2006-02-23 Yamaha Corp 電子音楽装置およびその制御方法を実現するためのプログラム
JP4702139B2 (ja) * 2006-03-29 2011-06-15 ヤマハ株式会社 電子楽器
JP4823804B2 (ja) * 2006-08-09 2011-11-24 株式会社河合楽器製作所 コード名検出装置及びコード名検出用プログラム
JP4375471B2 (ja) * 2007-10-05 2009-12-02 ソニー株式会社 信号処理装置、信号処理方法、およびプログラム
CN102194347A (zh) * 2010-03-04 2011-09-21 张平治 坐标数码乐谱计算机处理技术
CN102682752B (zh) * 2011-03-07 2014-11-05 卡西欧计算机株式会社 乐谱信息生成装置及其方法、乐音生成控制装置及其方法
JP5847048B2 (ja) * 2012-09-26 2016-01-20 株式会社エクシング ピアノロール型譜表示装置、ピアノロール型譜表示プログラム、及びピアノロール型譜表示方法
EP2772904B1 (en) * 2013-02-27 2017-03-29 Yamaha Corporation Apparatus and method for detecting music chords and generation of accompaniment.
JP5790686B2 (ja) * 2013-03-25 2015-10-07 カシオ計算機株式会社 コード演奏ガイド装置、方法、およびプログラム
JP6295583B2 (ja) * 2013-10-08 2018-03-20 ヤマハ株式会社 音楽データ生成装置および音楽データ生成方法を実現するためのプログラム
TW201719628A (zh) * 2015-11-27 2017-06-01 Hai Ma Music Studio Co Ltd 具有指法標示之樂譜產生方法及其系統
JP2018146718A (ja) * 2017-03-03 2018-09-20 ヤマハ株式会社 教習装置、教習プログラムおよび教習方法
CN111052221B (zh) * 2017-09-07 2023-06-23 雅马哈株式会社 和弦信息提取装置、和弦信息提取方法及存储器
CN111052220B (zh) * 2017-09-07 2023-06-27 雅马哈株式会社 和弦信息提取装置、和弦信息提取方法及存储装置
JP7157377B2 (ja) * 2018-10-03 2022-10-20 カシオ計算機株式会社 演奏情報表示装置及び演奏情報表示方法、演奏情報表示プログラム、並びに、電子楽器
JP7492814B2 (ja) * 2019-08-08 2024-05-30 正裕 印藤 楽譜、楽譜の記載方法、楽譜表示装置、楽譜生成装置、楽譜生成方法、及びプログラム
CN110473507B (zh) * 2019-09-02 2020-08-25 玖月音乐科技(北京)有限公司 一种双排键智能走谱方法及系统
US10885891B2 (en) * 2020-01-23 2021-01-05 Pallavi Ekaa Desai System, method and apparatus for directing a presentation of a musical score via artificial intelligence

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5886695U (ja) * 1981-12-04 1983-06-11 ヤマハ株式会社 電子楽器の自動伴奏装置
JP2007122277A (ja) * 2005-10-26 2007-05-17 Kawai Musical Instr Mfg Co Ltd 楽譜認識装置および楽譜認識プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111274891A (zh) * 2020-01-14 2020-06-12 成都嗨翻屋科技有限公司 一种面向简谱图像的音高及对应歌词提取方法及系统

Also Published As

Publication number Publication date
CN111052220A (zh) 2020-04-21
JP6838659B2 (ja) 2021-03-03
US11308924B2 (en) 2022-04-19
CN111052220B (zh) 2023-06-27
JPWO2019049293A1 (ja) 2020-09-24
US20200202823A1 (en) 2020-06-25

Similar Documents

Publication Publication Date Title
US11308924B2 (en) Chord information extraction device, chord information extraction method and non-transitory computer readable medium storing chord information extraction program
US9275616B2 (en) Associating musical score image data and logical musical score data
JP6429336B2 (ja) 物理的オブジェクトにより音楽の学習、作曲及び演奏するためのシステム及び方法
US9478201B1 (en) System and method for optical music recognition
US8008562B2 (en) Image processing apparatus, musical score editing method executed thereon, and storage medium storing program
CN108028040B (zh) 音乐演奏辅助装置和方法
US20200202822A1 (en) Chord information extraction device, chord information extraction method and non-transitory computer readable medium storing chord information extraction program
US20040255755A1 (en) Colored music notation system and method of colorizing music notation
JP4803797B2 (ja) 楽譜認識装置および楽譜認識プログラム
JP5154886B2 (ja) 楽譜認識装置及びコンピュータプログラム
JP5572324B2 (ja) 鍵盤楽器の練習補助用表示装置
JP4738135B2 (ja) 楽譜認識装置および楽譜認識プログラム
US20040139843A1 (en) Music notation system
CN111176544A (zh) 一种基于图像处理的多功能琴谱显示设备及图像处理方法
JP2013228508A (ja) 音符位置検出装置、音符位置推定方法およびプログラム
JP2003242438A (ja) 楽譜認識装置
WO2019087331A1 (ja) 基準位置検出装置および基準位置検出方法
US10347228B2 (en) Music system having an asymmetrical keyboard layout and notation system and method of using same
JPH06332443A (ja) 楽譜認識装置
JP2020024492A (ja) 文字認識装置
JP2009258462A (ja) ハーモニカ演奏用楽譜
JP2010102408A (ja) 楽譜認識装置、及びコンピュータプログラム
JP4442136B2 (ja) 文字認識方法および装置
JP2002318579A (ja) 演奏用楽譜、表示装置および演奏用楽譜の記譜法
George Evaluation in the visual perception of music

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17924190

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019540226

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17924190

Country of ref document: EP

Kind code of ref document: A1