JP2017158127A - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP2017158127A
JP2017158127A JP2016041765A JP2016041765A JP2017158127A JP 2017158127 A JP2017158127 A JP 2017158127A JP 2016041765 A JP2016041765 A JP 2016041765A JP 2016041765 A JP2016041765 A JP 2016041765A JP 2017158127 A JP2017158127 A JP 2017158127A
Authority
JP
Japan
Prior art keywords
processing unit
image
parts
partial score
score corresponding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016041765A
Other languages
Japanese (ja)
Other versions
JP6547658B2 (en
Inventor
里奈 新井
Rina Arai
里奈 新井
幸広 森
Yukihiro Mori
幸広 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Document Solutions Inc
Original Assignee
Kyocera Document Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Document Solutions Inc filed Critical Kyocera Document Solutions Inc
Priority to JP2016041765A priority Critical patent/JP6547658B2/en
Publication of JP2017158127A publication Critical patent/JP2017158127A/en
Application granted granted Critical
Publication of JP6547658B2 publication Critical patent/JP6547658B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Editing Of Facsimile Originals (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing apparatus and an image processing method that can improve convenience of a score including a plurality of parts.SOLUTION: An image processing apparatus comprises: a first detection processing part that detects partial scores P1 to P5 corresponding respectively to a plurality of parts on the basis of image data D1 of a score including the partial scores P1 to P5; an extraction processing part that extracts, from the partial scores P1 to P5 detected by the first detection processing part, partial scores corresponding to one or more parts selected according to a predetermined selection operation; and an integration processing part that integrates a plurality of images showing the partial scores corresponding to the parts extracted by the extraction processing part into one image.SELECTED DRAWING: Figure 4

Description

本発明は、画像処理装置、及び画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method.

複写機のような画像処理装置では、様々な種類の原稿が印刷される。例えば、この種の画像処理装置では、楽譜の原稿が印刷されることがある。なお、楽譜の原稿から読み取られた画像データに基づいて、前記楽譜に補助記号を付加することが可能な画像処理装置が知られている(特許文献1参照)。   In an image processing apparatus such as a copying machine, various types of originals are printed. For example, in this type of image processing apparatus, a musical score document may be printed. An image processing apparatus is known that can add auxiliary symbols to the musical score based on image data read from a musical score manuscript (see Patent Document 1).

特開2010−220097号公報JP 2010-220097 A

ところで、画像処理装置では、合奏曲の楽譜のような複数のパートを含む楽譜の原稿が印刷されることがある。例えば、合奏に参加するユーザーが、担当パートの演奏に利用するために、画像処理装置を用いて合奏曲の楽譜の原稿を印刷することがある。ここで、印刷された楽譜に含まれる担当パート以外のパートは、ユーザーにとって不要であることが多い。担当パート以外のパートがユーザーにとって不要である場合、ユーザーは、印刷された楽譜に含まれる複数のパートから担当パートを見つけ出す手間を不便に感じる。   By the way, in the image processing apparatus, a musical score document including a plurality of parts such as a musical score of an ensemble may be printed. For example, a user participating in an ensemble may print a musical score manuscript of the ensemble using an image processing device in order to use it for the performance of the part in charge. Here, parts other than the assigned part included in the printed score are often unnecessary for the user. When a part other than the responsible part is unnecessary for the user, the user feels inconvenient to find the responsible part from a plurality of parts included in the printed score.

本発明の目的は、複数のパートを含む楽譜の利便性を向上可能な画像処理装置、及び画像処理方法を提供することにある。   An object of the present invention is to provide an image processing apparatus and an image processing method capable of improving the convenience of a score including a plurality of parts.

本発明の一の局面に係る画像処理装置は、第1検出処理部と、抽出処理部と、集約処理部とを備える。前記第1検出処理部は、複数のパートを含む楽譜の画像データに基づいて前記パート各々に対応する部分楽譜を検出する。前記抽出処理部は、前記第1検出処理部によって検出された複数の前記パート各々に対応する前記部分楽譜から予め定められた選択操作に応じて選択された一又は複数の前記パートに対応する前記部分楽譜を抽出する。前記集約処理部は、前記抽出処理部によって抽出された前記パートに対応する前記部分楽譜を示す複数の画像を一つの画像に集約する。   An image processing apparatus according to one aspect of the present invention includes a first detection processing unit, an extraction processing unit, and an aggregation processing unit. The first detection processing unit detects a partial score corresponding to each part based on image data of a score including a plurality of parts. The extraction processing unit corresponds to one or a plurality of the parts selected according to a selection operation predetermined from the partial score corresponding to each of the plurality of parts detected by the first detection processing unit. Extract a partial score. The aggregation processing unit aggregates a plurality of images indicating the partial score corresponding to the part extracted by the extraction processing unit into one image.

本発明の他の局面に係る画像処理方法は、以下の第1ステップと、第2ステップと、第3ステップとを含む。前記第1ステップでは、複数のパートを含む楽譜の画像データに基づいて前記パート各々に対応する部分楽譜が検出される。前記第2ステップでは、前記第1ステップによって検出された複数の前記パート各々に対応する前記部分楽譜から予め定められた選択操作に応じて選択された一又は複数の前記パートに対応する前記部分楽譜が抽出される。前記第3ステップでは、前記第2ステップによって抽出された前記パートに対応する前記部分楽譜を示す複数の画像が一つの画像に集約される。   An image processing method according to another aspect of the present invention includes the following first step, second step, and third step. In the first step, a partial score corresponding to each part is detected based on image data of a score including a plurality of parts. In the second step, the partial score corresponding to one or a plurality of the parts selected according to a predetermined selection operation from the partial scores corresponding to each of the plurality of parts detected in the first step. Is extracted. In the third step, a plurality of images indicating the partial score corresponding to the part extracted in the second step are integrated into one image.

本発明によれば、複数のパートを含む楽譜の利便性を向上させることが可能である。   According to the present invention, it is possible to improve the convenience of a score including a plurality of parts.

図1は、本発明の実施形態に係る画像処理装置の構成を示す図である。FIG. 1 is a diagram showing a configuration of an image processing apparatus according to an embodiment of the present invention. 図2は、本発明の実施形態に係る画像処理装置のシステム構成を示すブロック図である。FIG. 2 is a block diagram showing a system configuration of the image processing apparatus according to the embodiment of the present invention. 図3は、本発明の実施形態に係る画像処理装置で実行されるパート集約処理の一例を示すフローチャートである。FIG. 3 is a flowchart showing an example of part aggregation processing executed by the image processing apparatus according to the embodiment of the present invention. 図4は、本発明の実施形態に係る画像処理装置で取得される楽譜の画像データの一例を示す図である。FIG. 4 is a diagram illustrating an example of image data of a score acquired by the image processing apparatus according to the embodiment of the present invention. 図5は、本発明の実施形態に係る画像処理装置の操作表示部に表示される選択画面の一例を示す図である。FIG. 5 is a diagram illustrating an example of a selection screen displayed on the operation display unit of the image processing apparatus according to the embodiment of the present invention. 図6は、本発明の実施形態に係る画像処理装置から出力される画像データの一例を示す図である。FIG. 6 is a diagram illustrating an example of image data output from the image processing apparatus according to the embodiment of the present invention. 図7は、本発明の実施形態に係る画像処理装置から出力される画像データの他の一例を示す図である。FIG. 7 is a diagram illustrating another example of image data output from the image processing apparatus according to the embodiment of the present invention.

以下、添付図面を参照しながら、本発明の実施形態について説明する。なお、以下の実施形態は、本発明を具体化した一例であって、本発明の技術的範囲を限定するものではない。   Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. The following embodiment is an example embodying the present invention, and does not limit the technical scope of the present invention.

[画像処理装置10の構成]
まず、図1及び図2を参照しつつ、本発明の実施形態に係る画像処理装置10の構成について説明する。ここで、図1は画像処理装置10の構成を示す断面模式図である。
[Configuration of Image Processing Device 10]
First, the configuration of the image processing apparatus 10 according to the embodiment of the present invention will be described with reference to FIGS. 1 and 2. Here, FIG. 1 is a schematic cross-sectional view showing the configuration of the image processing apparatus 10.

画像処理装置10は、原稿から画像データを読み取るスキャン機能、及び画像データに基づいて画像を形成するプリント機能と共に、ファクシミリ機能、及びコピー機能などの複数の機能を有する複合機である。また、本発明は、スキャナー装置、プリンター装置、ファクシミリ装置、コピー機、及びパーソナルコンピューターなどの画像処理装置に適用可能である。   The image processing apparatus 10 is a multifunction machine having a plurality of functions such as a facsimile function and a copy function, as well as a scan function for reading image data from a document and a print function for forming an image based on the image data. The present invention is also applicable to image processing apparatuses such as scanner apparatuses, printer apparatuses, facsimile apparatuses, copiers, and personal computers.

図1及び図2に示されるように、画像処理装置10は、ADF(自動原稿搬送装置)1、画像読取部2、画像形成部3、給紙部4、制御部5、操作表示部6、及び記憶部7を備える。   As shown in FIGS. 1 and 2, the image processing apparatus 10 includes an ADF (automatic document feeder) 1, an image reading unit 2, an image forming unit 3, a paper feeding unit 4, a control unit 5, an operation display unit 6, And a storage unit 7.

ADF1は、原稿セット部、複数の搬送ローラー、原稿押さえ、及び排紙部を備え、画像読取部2によって読み取られる原稿を搬送する。画像読取部2は、原稿台、光源、複数のミラー、光学レンズ、及びCCDを備え、原稿から画像データを読み取ることが可能である。   The ADF 1 includes a document setting unit, a plurality of conveyance rollers, a document pressing unit, and a paper discharge unit, and conveys a document read by the image reading unit 2. The image reading unit 2 includes a document table, a light source, a plurality of mirrors, an optical lens, and a CCD, and can read image data from the document.

画像形成部3は、画像読取部2で読み取られた画像データに基づいて、電子写真方式でカラー又はモノクロの画像を形成することが可能である。また、画像形成部3は、外部のパーソナルコンピューター等の情報処理装置から入力された画像データに基づいて、画像を形成することも可能である。具体的に、画像形成部3は、C(シアン)、M(マゼンタ)、Y(イエロー)、及びK(ブラック)に対応する複数の画像形成ユニット、光走査装置、中間転写ベルト、二次転写ローラー、定着装置、及び排紙トレイを備える。給紙部4は、画像形成部3にシートを供給する。画像形成部3では、給紙部4から供給されるシートにカラー又はモノクロの画像が形成されて、画像形成後のシートが前記排紙トレイに排出される。なお、画像形成部3は、インクジェット方式などの他の画像形成方式により画像を形成するものであってもよい。   The image forming unit 3 can form a color or monochrome image by electrophotography based on the image data read by the image reading unit 2. The image forming unit 3 can also form an image based on image data input from an information processing apparatus such as an external personal computer. Specifically, the image forming unit 3 includes a plurality of image forming units corresponding to C (cyan), M (magenta), Y (yellow), and K (black), an optical scanning device, an intermediate transfer belt, and a secondary transfer. A roller, a fixing device, and a paper discharge tray are provided. The sheet feeding unit 4 supplies sheets to the image forming unit 3. In the image forming unit 3, a color or monochrome image is formed on the sheet supplied from the paper feeding unit 4, and the sheet after image formation is discharged to the paper discharge tray. The image forming unit 3 may form an image by another image forming method such as an ink jet method.

制御部5は、不図示のCPU、ROM、RAM、及びEEPROM(登録商標)などの制御機器を備える。前記CPUは、各種の演算処理を実行するプロセッサーである。前記ROMは、前記CPUに各種の処理を実行させるための制御プログラムなどの情報が予め記憶される不揮発性の記憶媒体である。前記RAMは揮発性の記憶媒体であり、前記EEPROMは不揮発性の記憶媒体である。前記RAM及び前記EEPROMは、前記CPUが実行する各種の処理の一時記憶メモリー(作業領域)として使用される。制御部5では、前記CPUにより前記ROMに予め記憶された各種の制御プログラムが実行される。これにより、画像処理装置10が制御部5により統括的に制御される。なお、制御部5は、集積回路(ASIC)などの電子回路で構成されたものであってもよく、画像処理装置10を統括的に制御するメイン制御部とは別に設けられた制御部であってもよい。   The control unit 5 includes control devices such as a CPU, ROM, RAM, and EEPROM (registered trademark) (not shown). The CPU is a processor that executes various arithmetic processes. The ROM is a non-volatile storage medium in which information such as a control program for causing the CPU to execute various processes is stored in advance. The RAM is a volatile storage medium, and the EEPROM is a nonvolatile storage medium. The RAM and the EEPROM are used as a temporary storage memory (working area) for various processes executed by the CPU. In the control unit 5, various control programs stored in advance in the ROM are executed by the CPU. As a result, the image processing apparatus 10 is comprehensively controlled by the control unit 5. The control unit 5 may be an electronic circuit such as an integrated circuit (ASIC), and is a control unit provided separately from the main control unit that comprehensively controls the image processing apparatus 10. May be.

操作表示部6は、制御部5からの制御指示に応じて各種の情報を表示する液晶ディスプレーなどの表示部、及びユーザーの操作に応じて制御部5に各種の情報を入力する操作キー又はタッチパネルなどの操作部を有する。   The operation display unit 6 is a display unit such as a liquid crystal display that displays various types of information in response to control instructions from the control unit 5, and an operation key or touch panel that inputs various types of information to the control unit 5 in response to user operations. And so on.

記憶部7は、不揮発性の記憶媒体である。例えば、記憶部7は、フラッシュメモリー、SSD(ソリッドステートドライブ)、又はHDD(ハードディスクドライブ)などの記憶媒体である。   The storage unit 7 is a nonvolatile storage medium. For example, the storage unit 7 is a storage medium such as a flash memory, an SSD (solid state drive), or an HDD (hard disk drive).

画像処理装置10では、様々な種類の原稿が印刷される。例えば、画像処理装置10では、楽譜の原稿が印刷されることがある。なお、楽譜の原稿から読み取られた画像データに基づいて、前記楽譜に補助記号を付加することが可能な画像処理装置が知られている。   The image processing apparatus 10 prints various types of documents. For example, the image processing apparatus 10 may print a musical score document. An image processing apparatus is known that can add auxiliary symbols to a musical score based on image data read from a musical score manuscript.

ところで、画像処理装置10では、合奏曲の楽譜のような複数のパートを含む楽譜の原稿が印刷されることがある。例えば、合奏に参加するユーザーが、担当パートの演奏に利用するために、画像処理装置10を用いて合奏曲の楽譜の原稿を印刷することがある。ここで、印刷された楽譜に含まれる担当パート以外のパートは、ユーザーにとって不要であることが多い。担当パート以外のパートがユーザーにとって不要である場合、ユーザーは、印刷された楽譜に含まれる複数のパートから担当パートを見つけ出す手間を不便に感じる。   By the way, the image processing apparatus 10 may print a musical score original including a plurality of parts such as a musical score of an ensemble. For example, a user participating in an ensemble may print a musical score manuscript of the ensemble using the image processing apparatus 10 in order to use it for the performance of the part in charge. Here, parts other than the assigned part included in the printed score are often unnecessary for the user. When a part other than the responsible part is unnecessary for the user, the user feels inconvenient to find the responsible part from a plurality of parts included in the printed score.

これに対し、本発明の実施形態に係る画像処理装置10は、以下に説明するように、複数のパートを含む楽譜の利便性を向上させることが可能である。   On the other hand, the image processing apparatus 10 according to the embodiment of the present invention can improve the convenience of a score including a plurality of parts, as will be described below.

具体的に、制御部5の前記ROMには、前記CPUに後述のパート集約処理(図3のフローチャート参照)を実行させるためのパート集約プログラムが予め記憶されている。なお、前記パート集約プログラムは、CD、DVD、フラッシュメモリーなどのコンピューター読み取り可能な記録媒体に記録されており、前記記録媒体から読み取られて記憶部7にインストールされるものであってもよい。   Specifically, the ROM of the control unit 5 stores in advance a part aggregation program for causing the CPU to execute a later-described part aggregation process (see the flowchart of FIG. 3). The part aggregation program may be recorded on a computer-readable recording medium such as a CD, a DVD, or a flash memory, and read from the recording medium and installed in the storage unit 7.

そして、制御部5は、図2に示されるように、取得処理部51、第1検出処理部52、第2検出処理部53、抽出処理部54、集約処理部55、及び出力処理部56を含む。具体的に、制御部5は、前記CPUを用いて前記ROMに記憶されている前記パート集約プログラムを実行する。これにより、制御部5は、取得処理部51、第1検出処理部52、第2検出処理部53、抽出処理部54、集約処理部55、及び出力処理部56として機能する。   Then, as shown in FIG. 2, the control unit 5 includes an acquisition processing unit 51, a first detection processing unit 52, a second detection processing unit 53, an extraction processing unit 54, an aggregation processing unit 55, and an output processing unit 56. Including. Specifically, the control unit 5 executes the part aggregation program stored in the ROM using the CPU. Thereby, the control unit 5 functions as an acquisition processing unit 51, a first detection processing unit 52, a second detection processing unit 53, an extraction processing unit 54, an aggregation processing unit 55, and an output processing unit 56.

取得処理部51は、複数のパートを含む楽譜の画像データを取得する。   The acquisition processing unit 51 acquires image data of a score including a plurality of parts.

例えば、取得処理部51は、画像読取部2を用いて前記楽譜の原稿から前記楽譜の画像データを取得する。具体的に、取得処理部51は、ADF1の前記原稿セット部に原稿が載置されている場合には、ADF1及び画像読取部2を用いて、前記原稿セット部に載置された原稿から前記楽譜の画像データを読み取る。また、取得処理部51は、画像読取部2の前記原稿台に原稿が載置されている場合には、画像読取部2を用いて、前記原稿台に載置された原稿から前記楽譜の画像データを読み取る。   For example, the acquisition processing unit 51 uses the image reading unit 2 to acquire the score image data from the score document. Specifically, when a document is placed on the document setting unit of the ADF 1, the acquisition processing unit 51 uses the ADF 1 and the image reading unit 2 to read the document from the document placed on the document setting unit. Read the image data of the score. In addition, when a document is placed on the document table of the image reading unit 2, the acquisition processing unit 51 uses the image reading unit 2 to image the score from the document placed on the document table. Read data.

また、取得処理部51は、外部の情報処理装置から送信される前記楽譜の画像データを受信することで、前記楽譜の画像データを取得してもよい。また、取得処理部51は、画像読取部2によって読み取られて、又は外部の情報処理装置から送信されて記憶部7に格納された前記楽譜の画像データを読み出すことで、前記楽譜の画像データを取得してもよい。   The acquisition processing unit 51 may acquire the image data of the score by receiving the image data of the score transmitted from an external information processing apparatus. The acquisition processing unit 51 reads the image data of the score by reading the image data of the score that is read by the image reading unit 2 or transmitted from an external information processing apparatus and stored in the storage unit 7. You may get it.

第1検出処理部52は、取得処理部51によって取得された前記楽譜の画像データに基づいて、前記パート各々に対応する部分楽譜を検出する。   The first detection processing unit 52 detects a partial score corresponding to each of the parts based on the image data of the score acquired by the acquisition processing unit 51.

例えば、第1検出処理部52は、前記楽譜に含まれる五線及び前記パートの名称に基づいて、前記パート各々に対応する前記部分楽譜を検出する。具体的に、第1検出処理部52は、前記パートの名称が予め定められた特殊パートであるか否かに応じて前記パートの名称ごとに特定される一又は複数の前記五線を含む領域を、前記パートに対応する前記部分楽譜として検出する。   For example, the first detection processing unit 52 detects the partial score corresponding to each of the parts based on the staff and the name of the part included in the score. Specifically, the first detection processing unit 52 includes an area including one or more staffs that are specified for each part name depending on whether or not the part name is a predetermined special part. Is detected as the partial score corresponding to the part.

ここで、前記特殊パートは、旋律の表現に複数の前記五線が用いられる前記パートである。例えば、前記特殊パートに対応して特定される前記五線の数は、前記特殊パートごとに予め定められている。例えば、前記特殊パートは、ピアノを含む。また、前記特殊パートがピアノである場合に前記特殊パートに対応して特定される前記五線の数は二つである。   Here, the special part is the part in which a plurality of the staffs are used for expressing the melody. For example, the number of staffs specified corresponding to the special part is predetermined for each special part. For example, the special part includes a piano. Further, when the special part is a piano, the number of staffs specified corresponding to the special part is two.

例えば、第1検出処理部52は、前記パートの名称が前記特殊パートではない場合は、前記パートの名称から予め定められた特定方向に配置された一つの前記五線を、前記パートの名称に対応する前記五線として特定する。一方、第1検出処理部52は、前記パートの名称が前記特殊パートである場合は、前記パートの名称から前記特定方向に配置された複数の前記五線を、前記パートの名称に対応する前記五線として特定する。例えば、前記特定方向は、前記パートの名称の下方、又は右方である。   For example, if the name of the part is not the special part, the first detection processing unit 52 sets one of the staffs arranged in a specific direction predetermined from the name of the part as the name of the part. Identify as the corresponding staff. On the other hand, the first detection processing unit 52, when the name of the part is the special part, the plurality of staffs arranged in the specific direction from the name of the part, the corresponding to the name of the part Identify as a staff. For example, the specific direction is below or to the right of the name of the part.

そして、第1検出処理部52は、特定された前記パートの名称に対応する一又は複数の前記五線を含む領域を前記パートに対応する前記部分楽譜として検出する。   And the 1st detection process part 52 detects the area | region containing the one or some said staff corresponding to the name of the specified said part as the said partial score corresponding to the said part.

ここで、図4を参照しつつ、第1検出処理部52による前記パートに対応する前記部分楽譜の検出手順について説明する。図4には、取得処理部51によって取得された前記楽譜の画像データの一例である楽譜の画像データD1が示されている。   Here, the procedure for detecting the partial score corresponding to the part by the first detection processing unit 52 will be described with reference to FIG. FIG. 4 shows musical score image data D <b> 1 that is an example of the musical score image data acquired by the acquisition processing unit 51.

まず、第1検出処理部52は、取得処理部51によって取得された楽譜の画像データD1に基づいて、楽譜の画像データD1に含まれる五線G11〜G28を検出する。例えば、第1検出処理部52は、楽譜の画像データD1に対して、楽譜の画像データD1に含まれる画素各々を予め設定された閾値に基づいて二値化する二値化処理を実行する。そして、第1検出処理部52は、前記二値化処理の実行結果に基づいて、楽譜の画像データD1に含まれる五線G11〜G28を検出する。   First, the first detection processing unit 52 detects the staffs G11 to G28 included in the musical score image data D1 based on the musical score image data D1 acquired by the acquisition processing unit 51. For example, the first detection processing unit 52 executes binarization processing for binarizing each pixel included in the musical score image data D1 based on a preset threshold value with respect to the musical score image data D1. And the 1st detection process part 52 detects the staff G11-G28 contained in the image data D1 of a score based on the execution result of the said binarization process.

次に、第1検出処理部52は、取得処理部51によって取得された楽譜の画像データD1に基づいて、楽譜の画像データD1に含まれるパート名M1〜M5を検出する。例えば、第1検出処理部52は、楽譜の画像データD1に対して、楽譜の画像データD1に含まれる文字を認識するOCR(光学文字認識)処理を実行する。そして、第1検出処理部52は、前記OCR処理の実行結果に基づいて、楽譜の画像データD1に含まれるパート名M1〜M5を検出する。   Next, the first detection processing unit 52 detects part names M1 to M5 included in the musical score image data D1 based on the musical score image data D1 acquired by the acquisition processing unit 51. For example, the first detection processing unit 52 performs OCR (optical character recognition) processing for recognizing characters included in the score image data D1 on the score image data D1. Then, the first detection processing unit 52 detects part names M1 to M5 included in the musical score image data D1 based on the execution result of the OCR process.

次に、第1検出処理部52は、検出されたパート名M1〜M5が、前記特殊パートであるか否かを判断する。例えば、第1検出処理部52は、パート名M1〜M4は前記特殊パートではないと判断する。また、第1検出処理部52は、パート名M5は前記特殊パートであると判断する。   Next, the first detection processing unit 52 determines whether or not the detected part names M1 to M5 are the special parts. For example, the first detection processing unit 52 determines that the part names M1 to M4 are not the special parts. Further, the first detection processing unit 52 determines that the part name M5 is the special part.

次に、第1検出処理部52は、検出されたパート名M1〜M5に対応する前記五線を特定する。例えば、第1検出処理部52は、パート名M1の右方に配置された五線G11、五線G17、及び五線G23をパート名M1に対応する前記五線として特定する。また、第1検出処理部52は、パート名M2の右方に配置された五線G12、五線G18、及び五線G24をパート名M2に対応する前記五線として特定する。また、第1検出処理部52は、パート名M3の右方に配置された五線G13、五線G19、及び五線G25をパート名M3に対応する前記五線として特定する。また、第1検出処理部52は、パート名M4の右方に配置された五線G14、五線G20、及び五線G26をパート名M4に対応する前記五線として特定する。また、第1検出処理部52は、パート名M5の右方に配置された五線G15〜G16、五線G21〜G22、及び五線G27〜G28をパート名M5に対応する前記五線として特定する。   Next, the first detection processing unit 52 specifies the staff corresponding to the detected part names M1 to M5. For example, the first detection processing unit 52 specifies the staff G11, staff G17, and staff G23 arranged to the right of the part name M1 as the staff corresponding to the part name M1. The first detection processing unit 52 identifies the staff G12, staff G18, and staff G24 arranged on the right side of the part name M2 as the staff corresponding to the part name M2. Further, the first detection processing unit 52 specifies the staff G13, staff G19, and staff G25 arranged on the right side of the part name M3 as the staff corresponding to the part name M3. Moreover, the 1st detection process part 52 specifies the staff G14, the staff G20, and the staff G26 arrange | positioned on the right side of the part name M4 as the said staff corresponding to the part name M4. In addition, the first detection processing unit 52 identifies the staff G15 to G16, the staff G21 to G22, and the staff G27 to G28 arranged to the right of the part name M5 as the staff corresponding to the part name M5. To do.

そして、第1検出処理部52は、パート名M1〜M5各々に対応して特定された前記五線を含む領域を、前記パートに対応する前記部分楽譜として検出する。例えば、第1検出処理部52は、パート名M1及びパート名M1に対応して特定された五線G11、五線G17、及び五線G23を含む領域を部分楽譜P1として特定する。また、第1検出処理部52は、パート名M2及びパート名M2に対応して特定された五線G12、五線G18、及び五線G24を含む領域を部分楽譜P2として特定する。また、第1検出処理部52は、パート名M3及びパート名M3に対応して特定された五線G13、五線G19、及び五線G25を含む領域を部分楽譜P3として特定する。また、第1検出処理部52は、パート名M4及びパート名M4に対応して特定された五線G14、五線G20、及び五線G26を含む領域を部分楽譜P4として特定する。また、第1検出処理部52は、パート名M5及びパート名M5に対応して特定された五線G15〜G16、五線G21〜G22、及び五線G27〜G28を含む領域を部分楽譜P5として特定する。なお、図4では、部分楽譜P1〜P5が二点鎖線により示されている。   And the 1st detection process part 52 detects the area | region containing the said staff specified corresponding to each part name M1-M5 as the said partial score corresponding to the said part. For example, the first detection processing unit 52 specifies a region including the staff G11, staff G17, and staff G23 identified corresponding to the part name M1 and the part name M1 as the partial score P1. In addition, the first detection processing unit 52 specifies a region including the staff G12, staff G18, and staff G24 identified corresponding to the part name M2 and the part name M2 as the partial score P2. In addition, the first detection processing unit 52 specifies a region including the staff G13, staff G19, and staff G25 identified corresponding to the part name M3 and the part name M3 as the partial score P3. In addition, the first detection processing unit 52 specifies a region including the staff G14, staff G20, and staff G26 identified corresponding to the part name M4 and the part name M4 as the partial score P4. In addition, the first detection processing unit 52 uses, as a partial score P5, an area including the staff G15 to G16, staff G21 to G22, and staff G27 to G28 specified corresponding to the part name M5 and the part name M5. Identify. In FIG. 4, the partial scores P1 to P5 are indicated by two-dot chain lines.

なお、第1検出処理部52は、前記五線に基づくことなく、前記パートに対応する前記部分楽譜を検出してもよい。例えば、第1検出処理部52は、前記パートの名称が前記特殊パートであるか否かに応じて前記パートの名称ごとに特定される領域を、前記パートに対応する前記部分楽譜として検出してもよい。   Note that the first detection processing unit 52 may detect the partial score corresponding to the part without being based on the staff. For example, the first detection processing unit 52 detects an area specified for each part name according to whether the part name is the special part as the partial score corresponding to the part. Also good.

第2検出処理部53は、前記楽譜の画像データに基づいて、前記楽譜に含まれる演奏記号のうち予め定められた特定演奏記号を検出する。ここで、前記特定演奏記号は、前記楽譜に含まれる全ての前記パートの演奏に関わる前記演奏記号である。例えば、前記特定演奏記号は、速度記号及び発想記号を含む。   The second detection processing unit 53 detects a predetermined specific performance symbol among performance symbols included in the score based on the image data of the score. Here, the specific performance symbol is the performance symbol related to the performance of all the parts included in the score. For example, the specific performance symbol includes a speed symbol and an idea symbol.

例えば、第2検出処理部53は、第1検出処理部52によって実行された前記OCR処理の実行結果に基づいて、前記特定演奏記号を検出する。例えば、第2検出処理部53は、図4に示される楽譜の画像データD1から、特定演奏記号A1を検出する。   For example, the second detection processing unit 53 detects the specific performance symbol based on the execution result of the OCR process executed by the first detection processing unit 52. For example, the second detection processing unit 53 detects the specific performance symbol A1 from the musical score image data D1 shown in FIG.

抽出処理部54は、第1検出処理部52によって検出された複数の前記パート各々に対応する前記部分楽譜から予め定められた選択操作に応じて選択された一又は複数の前記パートに対応する前記部分楽譜を抽出する。   The extraction processing unit 54 corresponds to one or a plurality of the parts selected according to a predetermined selection operation from the partial score corresponding to each of the plurality of parts detected by the first detection processing unit 52. Extract a partial score.

例えば、抽出処理部54は、第1検出処理部52によって検出された前記パートに対応する前記部分楽譜の選択に用いられる選択画面を操作表示部6に表示させる。そして、抽出処理部54は、前記選択画面におけるユーザーの操作に応じて、第1検出処理部52によって検出された複数の前記パート各々に対応する前記部分楽譜から一又は複数の前記パートに対応する前記部分楽譜を抽出する。ここに、前記選択画面におけるユーザーの操作が、本発明における予め定められた選択操作の一例である。   For example, the extraction processing unit 54 causes the operation display unit 6 to display a selection screen used for selecting the partial score corresponding to the part detected by the first detection processing unit 52. Then, the extraction processing unit 54 corresponds to one or a plurality of the parts from the partial score corresponding to each of the plurality of parts detected by the first detection processing unit 52 in accordance with a user operation on the selection screen. The partial score is extracted. Here, the user operation on the selection screen is an example of a predetermined selection operation in the present invention.

図5に、抽出処理部54によって操作表示部6に表示される前記選択画面の一例を示す。図5に示される選択画面X1は、表示領域R1、操作キーK1〜K2を含む。表示領域R1には、楽譜の画像データD1が表示される。ユーザーは、選択画面X1において、表示領域R1に表示された楽譜の画像データD1から、一又は複数の前記パートに対応する前記部分楽譜を選択することが可能である。例えば、ユーザーは、選択画面X1において所望の前記パートに対応する前記部分楽譜の表示領域に対してタッチ操作を行うことで、前記パートに対応する前記部分楽譜を選択することが可能である。例えば、ユーザーにより選択画面X1の部分楽譜P5の表示領域に対するタッチ操作が行われると、抽出処理部54は、部分楽譜P5が選択状態であることを示すカーソルA2を表示領域R1に表示させる。カーソルA2が表示領域R1に表示されている状態で、ユーザーにより操作キーK1に対するタッチ操作が行われると、抽出処理部54は、部分楽譜P5を抽出する。一方、ユーザーにより操作キーK2に対するタッチ操作が行われた場合には、抽出処理部54は、前記パートに対応する前記部分楽譜の抽出を行わない。なお、図5では、カーソルA2は二点鎖線により示されている。   FIG. 5 shows an example of the selection screen displayed on the operation display unit 6 by the extraction processing unit 54. The selection screen X1 shown in FIG. 5 includes a display area R1 and operation keys K1 to K2. In the display area R1, musical score image data D1 is displayed. The user can select the partial score corresponding to one or a plurality of the parts from the score image data D1 displayed in the display area R1 on the selection screen X1. For example, the user can select the partial score corresponding to the part by performing a touch operation on the partial score display area corresponding to the desired part on the selection screen X1. For example, when the user performs a touch operation on the display area of the partial score P5 on the selection screen X1, the extraction processing unit 54 displays a cursor A2 indicating that the partial score P5 is selected in the display area R1. When the user performs a touch operation on the operation key K1 while the cursor A2 is displayed in the display area R1, the extraction processing unit 54 extracts the partial score P5. On the other hand, when the user performs a touch operation on the operation key K2, the extraction processing unit 54 does not extract the partial score corresponding to the part. In FIG. 5, the cursor A2 is indicated by a two-dot chain line.

集約処理部55は、抽出処理部54によって抽出された前記パートに対応する前記部分楽譜を示す複数の画像を一つの画像に集約する。   The aggregation processing unit 55 aggregates a plurality of images indicating the partial score corresponding to the part extracted by the extraction processing unit 54 into one image.

また、集約処理部55は、抽出処理部54によって抽出された前記パートに対応する前記部分楽譜を示す複数の画像、及び第2検出処理部53によって検出された前記特定演奏記号を一つの画像に集約する。   In addition, the aggregation processing unit 55 combines the plurality of images indicating the partial score corresponding to the part extracted by the extraction processing unit 54 and the specific performance symbol detected by the second detection processing unit 53 into one image. Summarize.

例えば、集約処理部55は、第2検出処理部53によって検出された前記特定演奏記号を含み、抽出処理部54によって抽出された前記パートに対応する前記部分楽譜を示す複数の画像が予め定められた間隔で配置された集約画像データを生成する。なお、前記間隔は、操作表示部6に対するユーザーの操作に応じて任意に設定されてよい。   For example, the aggregation processing unit 55 includes a plurality of images that include the specific performance symbol detected by the second detection processing unit 53 and indicate the partial score corresponding to the part extracted by the extraction processing unit 54. Aggregated image data arranged at regular intervals is generated. The interval may be arbitrarily set according to a user operation on the operation display unit 6.

例えば、集約処理部55は、図5に示される選択画面X1において部分楽譜P5が選択された場合に、特定演奏記号A1を含み、部分楽譜P5を示す五線G15〜G16(図4参照)を含む画像、五線G21〜G22を含む画像、及び五線G27〜G28を含む画像が前記間隔で配置された、図6に示される集約画像データD2を生成する。   For example, when the partial score P5 is selected on the selection screen X1 shown in FIG. 5, the aggregation processing unit 55 includes staffs G15 to G16 (see FIG. 4) including the specific performance symbol A1 and indicating the partial score P5. The aggregated image data D2 shown in FIG. 6 is generated in which the image including the image including the staff G21 to G22 and the image including the staff G27 to G28 are arranged at the intervals.

また、集約処理部55は、抽出処理部54によって複数の前記パート各々に対応する前記部分楽譜が抽出された場合に、抽出された複数の前記パート各々に対応する前記部分楽譜を示す複数の画像を一つの画像に集約する。例えば、集約処理部55は、抽出処理部54によって抽出された複数の前記パート各々に対応する前記部分楽譜を示す複数の画像が前記間隔で配置された前記集約画像データを生成する。   In addition, when the partial score corresponding to each of the plurality of parts is extracted by the extraction processing unit 54, the aggregation processing unit 55 includes a plurality of images indicating the partial score corresponding to each of the plurality of extracted parts. Are combined into one image. For example, the aggregation processing unit 55 generates the aggregated image data in which a plurality of images indicating the partial score corresponding to each of the plurality of parts extracted by the extraction processing unit 54 are arranged at the intervals.

また、集約処理部55は、抽出処理部54によって複数の前記パート各々に対応する前記部分楽譜が抽出された場合に、抽出された複数の前記パート各々に対応する前記部分楽譜を示す複数の画像を一つの画像に集約すると共に、抽出された複数の前記パート各々に対応する前記部分楽譜の色を互いに異なる色に変化させる。例えば、集約処理部55は、前記集約画像データにおいて、前記パート各々に対応する前記部分楽譜の色を互いに異なる色に変化させる。   In addition, when the partial score corresponding to each of the plurality of parts is extracted by the extraction processing unit 54, the aggregation processing unit 55 includes a plurality of images indicating the partial score corresponding to each of the plurality of extracted parts. Are integrated into one image, and the color of the partial score corresponding to each of the extracted parts is changed to a different color. For example, the aggregation processing unit 55 changes the color of the partial score corresponding to each part in the aggregated image data to different colors.

例えば、集約処理部55は、図5に示される選択画面X1において部分楽譜P1及び部分楽譜P5が選択された場合に、特定演奏記号A1を含み、部分楽譜P1を示す五線G11を含む画像、五線G17を含む画像、及び五線G23を含む画像、並びに部分楽譜P5を示す五線G15〜G16を含む画像、五線G21〜G22を含む画像、及び五線G27〜G28を含む画像が前記間隔で配置された、図7に示される集約画像データD3を生成する。例えば、集約処理部55は、図7に示されるように、部分楽譜P1を示す画像と、部分楽譜P5を示す画像とが交互に配置された集約画像データD3を生成する。また、集約処理部55は、集約画像データD3において、部分楽譜P1の色と、部分楽譜P5の色とを、互いに異なる色に変化させる。また、集約処理部55は、集約画像データD3において、特定演奏記号A1の色を、部分楽譜P1の色と同じ色に変化させる。なお、集約処理部55は、部分楽譜P1を示す複数の画像が配置された後に、部分楽譜P5を示す複数の画像が配置された前記集約画像データを生成してもよい。また、集約画像データD3において、部分楽譜P1、部分楽譜P5、及び特定演奏記号A1各々の色は、操作表示部6に対するユーザーの操作に応じて任意に選択されてよい。   For example, when the partial score P1 and the partial score P5 are selected on the selection screen X1 shown in FIG. 5, the aggregation processing unit 55 includes an image including the specific performance symbol A1 and the staff G11 indicating the partial score P1, The image including the staff G17, the image including the staff G23, the image including the staff G15 to G16 indicating the partial score P5, the image including the staff G21 to G22, and the image including the staff G27 to G28 are described above. Aggregated image data D3 shown in FIG. 7 arranged at intervals is generated. For example, as shown in FIG. 7, the aggregation processing unit 55 generates aggregated image data D3 in which an image showing the partial score P1 and an image showing the partial score P5 are alternately arranged. Further, the aggregation processing unit 55 changes the color of the partial score P1 and the color of the partial score P5 to different colors in the aggregated image data D3. Further, the aggregation processing unit 55 changes the color of the specific performance symbol A1 to the same color as the color of the partial score P1 in the aggregated image data D3. The aggregation processing unit 55 may generate the aggregated image data in which a plurality of images showing the partial score P5 are arranged after a plurality of images showing the partial score P1 are arranged. In the aggregated image data D3, the color of each of the partial score P1, the partial score P5, and the specific performance symbol A1 may be arbitrarily selected according to a user operation on the operation display unit 6.

なお、集約処理部55は、抽出処理部54によって複数の前記パート各々に対応する前記部分楽譜が抽出された場合に、抽出された複数の前記パート各々に対応する前記部分楽譜ごとに前記パートに対応する前記部分楽譜を示す複数の画像を一つの画像に集約してもよい。例えば、集約処理部55は、抽出処理部54によって抽出された複数の前記パート各々に対応する前記部分楽譜ごとに、前記パートに対応する前記部分楽譜を示す複数の画像が前記間隔で配置された前記集約画像データを生成してもよい。また、集約処理部55は、抽出処理部54によって抽出された複数の前記パート各々に対応する前記部分楽譜を示す複数の画像が前記間隔で配置された前記集約画像データを生成する処理を実行するか、抽出処理部54によって抽出された複数の前記パート各々に対応する前記部分楽譜ごとに、前記パートに対応する前記部分楽譜を示す複数の画像が前記間隔で配置された前記集約画像データを生成する処理を実行するかを、操作表示部6に対するユーザーの操作に応じて切り替えてもよい。   When the partial score corresponding to each of the plurality of parts is extracted by the extraction processing unit 54, the aggregation processing unit 55 adds the partial score corresponding to each of the extracted plurality of parts to the part. A plurality of images showing the corresponding partial scores may be integrated into one image. For example, for the partial score corresponding to each of the plurality of parts extracted by the extraction processing unit 54, the aggregation processing unit 55 includes a plurality of images indicating the partial score corresponding to the part arranged at the interval. The aggregated image data may be generated. In addition, the aggregation processing unit 55 executes a process of generating the aggregated image data in which a plurality of images indicating the partial score corresponding to each of the plurality of parts extracted by the extraction processing unit 54 are arranged at the intervals. Alternatively, for each partial score corresponding to each of the plurality of parts extracted by the extraction processing unit 54, the aggregated image data in which a plurality of images indicating the partial scores corresponding to the part are arranged at the intervals is generated. Whether to perform the processing to be performed may be switched according to a user operation on the operation display unit 6.

出力処理部56は、集約処理部55によって生成された前記集約画像データを出力する。   The output processing unit 56 outputs the aggregated image data generated by the aggregation processing unit 55.

例えば、出力処理部56は、画像形成部3を用いて集約処理部55によって生成された前記集約画像データを印刷する。   For example, the output processing unit 56 prints the aggregated image data generated by the aggregation processing unit 55 using the image forming unit 3.

また、出力処理部56は、集約処理部55によって生成された前記集約画像データを記憶部7に格納してもよい。また、出力処理部56は、集約処理部55によって生成された前記集約画像データを外部の情報処理装置に送信してもよい。   The output processing unit 56 may store the aggregated image data generated by the aggregation processing unit 55 in the storage unit 7. Further, the output processing unit 56 may transmit the aggregated image data generated by the aggregation processing unit 55 to an external information processing apparatus.

[パート集約処理]
以下、図3を参照しつつ、画像処理装置10において制御部5により実行されるパート集約処理の手順の一例と共に、本発明における画像処理方法の手順について説明する。ここで、ステップS11、S12・・・は、制御部5により実行される処理手順(ステップ)の番号を表している。なお、制御部5は、操作表示部6に対して前記パート集約処理の実行を指示する旨のユーザーの操作が行われた場合に、前記パート集約処理を実行する。
[Parts aggregation processing]
Hereinafter, the procedure of the image processing method according to the present invention will be described together with an example of the procedure of part aggregation processing executed by the control unit 5 in the image processing apparatus 10 with reference to FIG. Here, steps S11, S12,... Represent the numbers of processing procedures (steps) executed by the control unit 5. The control unit 5 executes the part aggregation process when a user operation is performed to instruct the operation display unit 6 to execute the part aggregation process.

<ステップS11>
まず、ステップS11において、制御部5は、前記楽譜の画像データを取得する。ここで、ステップS11の処理は、制御部5の取得処理部51により実行される。
<Step S11>
First, in step S11, the control unit 5 acquires image data of the score. Here, the process of step S <b> 11 is executed by the acquisition processing unit 51 of the control unit 5.

例えば、制御部5は、ADF1の前記原稿セット部に原稿が載置されている場合には、ADF1及び画像読取部2を用いて、前記原稿セット部に載置された原稿から前記楽譜の画像データを読み取る。また、制御部5は、画像読取部2の前記原稿台に原稿が載置されている場合には、画像読取部2を用いて、前記原稿台に載置された原稿から前記楽譜の画像データを読み取る。例えば、ステップS11では、制御部5によって図4に示される楽譜の画像データD1が取得される。   For example, when a document is placed on the document set unit of the ADF 1, the control unit 5 uses the ADF 1 and the image reading unit 2 to image the score from the document placed on the document set unit. Read data. In addition, when a document is placed on the document table of the image reading unit 2, the control unit 5 uses the image reading unit 2 to convert the image data of the score from the document placed on the document table. Read. For example, in step S11, the image data D1 of the musical score shown in FIG.

<ステップS12>
ステップS12において、制御部5は、ステップS11で取得された前記楽譜の画像データに基づいて、前記パート各々に対応する前記部分楽譜を検出する。ここに、ステップS12の処理が、本発明における第1ステップの一例であって、制御部5の第1検出処理部52により実行される。
<Step S12>
In step S12, the control unit 5 detects the partial score corresponding to each of the parts based on the image data of the score acquired in step S11. Here, the process of step S12 is an example of the first step in the present invention, and is executed by the first detection processing unit 52 of the control unit 5.

例えば、制御部5は、まず、ステップS11で取得された前記楽譜の画像データに基づいて、前記楽譜の画像データに含まれる前記五線を検出する。例えば、制御部5は、前記楽譜の画像データに対して、前記二値化処理を実行する。そして、制御部5は、前記二値化処理の実行結果に基づいて、前記楽譜の画像データに含まれる前記五線を検出する。   For example, the control unit 5 first detects the staff included in the musical score image data based on the musical score image data acquired in step S11. For example, the control unit 5 executes the binarization process on the musical score image data. And the control part 5 detects the said staff included in the image data of the said score based on the execution result of the said binarization process.

次に、制御部5は、ステップS11で取得された前記楽譜の画像データに基づいて、前記楽譜の画像データに含まれる前記パートの名称を検出する。例えば、制御部5は、前記楽譜の画像データに対して、前記OCR処理を実行する。そして、制御部5は、前記OCR処理の実行結果に基づいて、前記楽譜の画像データに含まれる前記パートの名称を検出する。   Next, the control unit 5 detects the name of the part included in the image data of the score based on the image data of the score acquired in step S11. For example, the control unit 5 performs the OCR process on the musical score image data. And the control part 5 detects the name of the said part contained in the image data of the said score based on the execution result of the said OCR process.

次に、制御部5は、検出された前記パートの名称が、前記特殊パートであるか否かを判断する。   Next, the control unit 5 determines whether or not the name of the detected part is the special part.

次に、制御部5は、検出された前記パートの名称に対応する前記五線を特定する。例えば、制御部5は、前記パートの名称が前記特殊パートではないと判断した場合は、前記パートの名称の右方に配置された一つの前記五線を、前記パートの名称に対応する前記五線として特定する。一方、制御部5は、前記パートの名称が前記特殊パートであると判断した場合は、前記パートの名称の右方に配置された複数の前記五線を、前記パートの名称に対応する前記五線として特定する。   Next, the control unit 5 identifies the staff corresponding to the detected name of the part. For example, when the control unit 5 determines that the name of the part is not the special part, the control unit 5 sets one of the staffs arranged to the right of the name of the part to the name of the part corresponding to the name of the part. Identifies as a line. On the other hand, when the control unit 5 determines that the name of the part is the special part, a plurality of staffs arranged on the right side of the name of the part are displayed as the five corresponding to the name of the part. Identifies as a line.

そして、制御部5は、前記パートの名称各々に対応して特定された前記五線を含む領域を、前記パートに対応する前記部分楽譜として特定する。例えば、ステップS12では、制御部5によって図4に示される部分楽譜P1〜P5が検出される。   And the control part 5 specifies the area | region containing the said staff specified corresponding to each name of the said part as the said partial score corresponding to the said part. For example, in step S12, the partial score P1 to P5 shown in FIG.

<ステップS13>
ステップS13において、制御部5は、ステップS11で取得された前記楽譜の画像データに基づいて、前記特定演奏記号を検出する。ここで、ステップS13の処理は、制御部5の第2検出処理部53により実行される。なお、ステップS13の処理は省略されてもよい。
<Step S13>
In step S13, the control unit 5 detects the specific performance symbol based on the image data of the musical score acquired in step S11. Here, the process of step S <b> 13 is executed by the second detection processing unit 53 of the control unit 5. Note that the process of step S13 may be omitted.

例えば、制御部5は、ステップS12で実行された前記OCR処理の実行結果に基づいて、前記楽譜の画像データから前記特定演奏記号を検出する。例えば、ステップS13では、制御部5によって図4に示される特定演奏記号A1が検出される。   For example, the control unit 5 detects the specific performance symbol from the image data of the score based on the execution result of the OCR process executed in step S12. For example, in step S13, the specific performance symbol A1 shown in FIG.

<ステップS14>
ステップS14において、制御部5は、操作表示部6に前記選択画面を表示させる。例えば、ステップS14では、制御部5によって図5に示される選択画面X1が操作表示部6に表示される。
<Step S14>
In step S <b> 14, the control unit 5 causes the operation display unit 6 to display the selection screen. For example, in step S <b> 14, the selection screen X <b> 1 shown in FIG. 5 is displayed on the operation display unit 6 by the control unit 5.

<ステップS15>
ステップS15において、制御部5は、ステップS14で操作表示部6に表示された前記選択画面において、ステップS12で検出された複数の前記パート各々に対応する前記部分楽譜から一又は複数の前記パートに対応する前記部分楽譜を選択するユーザーの操作が行われたか否かを判断する。例えば、ステップS15では、図5に示される選択画面X1において、カーソルA2が表示された状態で操作キーK1が操作されたか否かが判断される。
<Step S15>
In step S15, the control unit 5 changes the partial score corresponding to each of the plurality of parts detected in step S12 to one or a plurality of the parts on the selection screen displayed on the operation display unit 6 in step S14. It is determined whether or not a user operation for selecting the corresponding partial score has been performed. For example, in step S15, it is determined whether or not the operation key K1 has been operated with the cursor A2 displayed on the selection screen X1 shown in FIG.

ここで、制御部5は、前記選択画面において、ステップS12で検出された複数の前記パート各々に対応する前記部分楽譜から一又は複数の前記パートに対応する前記部分楽譜を選択するユーザーの操作が行われたと判断すると(S15のYes側)、処理をステップS16に移行させる。また、ステップS12で検出された複数の前記パート各々に対応する前記部分楽譜から一又は複数の前記パートに対応する前記部分楽譜を選択するユーザーの操作が行われていなければ(S15のNo側)、制御部5は、ステップS15で一又は複数の前記パートに対応する前記部分楽譜を選択するユーザーの操作を待ち受ける。   Here, the control unit 5 performs, on the selection screen, a user operation to select the partial score corresponding to one or a plurality of the parts from the partial score corresponding to each of the plurality of parts detected in step S12. If it is determined that the process has been performed (Yes in S15), the process proceeds to step S16. Further, if the user does not perform an operation to select the partial score corresponding to one or a plurality of the parts from the partial scores corresponding to the plurality of parts detected in step S12 (No side in S15). In step S15, the control unit 5 waits for a user operation to select the partial score corresponding to one or more of the parts.

<ステップS16>
ステップS16において、制御部5は、前記選択画面において行われたユーザーの操作に応じて、ステップS12で検出された複数の前記パート各々に対応する前記部分楽譜から一又は複数の前記対象パートに対応する前記部分楽譜を抽出する。ここに、ステップS14〜ステップS16までの処理が、本発明における第2ステップの一例であって、制御部5の抽出処理部54により実行される。例えば、ステップS16では、制御部5によって図5に示される部分楽譜P5が抽出される。
<Step S16>
In step S <b> 16, the control unit 5 responds to one or a plurality of the target parts from the partial score corresponding to each of the plurality of parts detected in step S <b> 12 according to a user operation performed on the selection screen. The partial score is extracted. Here, the processing from step S14 to step S16 is an example of the second step in the present invention, and is executed by the extraction processing unit 54 of the control unit 5. For example, in step S16, the partial score P5 shown in FIG.

<ステップS17>
ステップS17において、制御部5は、ステップS16で抽出された前記パートに対応する前記部分楽譜を示す複数の画像を一つの画像に集約する。ここに、ステップS17の処理が、本発明における第3ステップの一例であって、制御部5の集約処理部55により実行される。
<Step S17>
In step S17, the control unit 5 aggregates a plurality of images indicating the partial score corresponding to the part extracted in step S16 into one image. Here, the process of step S17 is an example of a third step in the present invention, and is executed by the aggregation processing unit 55 of the control unit 5.

例えば、制御部5は、ステップS16で抽出された前記パートに対応する前記部分楽譜を示す複数の画像が前記間隔で配置された前記集約画像データを生成する。   For example, the control unit 5 generates the aggregated image data in which a plurality of images indicating the partial score corresponding to the part extracted in step S16 are arranged at the intervals.

ここで、制御部5は、ステップS16で抽出された前記パートに対応する前記部分楽譜を示す複数の画像、及びステップS13で検出された前記特定演奏記号を一つの画像に集約する。これにより、前記楽譜に含まれる全ての前記パートの演奏に関わる前記特定演奏記号が、前記集約画像データに含められる。従って、ユーザーは、画像処理装置10から出力される前記集約画像データにおいて、自分が担当する前記パートに加えて、前記特定演奏記号を参照することが可能である。   Here, the control unit 5 aggregates a plurality of images indicating the partial score corresponding to the part extracted in step S16 and the specific performance symbols detected in step S13 into one image. As a result, the specific performance symbols relating to the performance of all the parts included in the score are included in the aggregated image data. Therefore, in the aggregated image data output from the image processing apparatus 10, the user can refer to the specific performance symbol in addition to the part that he / she is in charge of.

例えば、ステップS16で図5に示される部分楽譜P5が抽出された場合、ステップS17では、制御部5によって図6に示される集約画像データD2が生成される。また、ステップS16で図5に示される部分楽譜P1及び部分楽譜P5が抽出された場合、ステップS17では、制御部5によって図7に示される集約画像データD3が生成される。ここで、集約画像データD3では、部分楽譜P1の色と、部分楽譜P5の色とが互いに異なる色とされる。これにより、集約画像データD3に含まれる部分楽譜P1及び部分楽譜P5の識別が容易となる。   For example, when the partial score P5 shown in FIG. 5 is extracted in step S16, the aggregated image data D2 shown in FIG. 6 is generated by the control unit 5 in step S17. If the partial score P1 and the partial score P5 shown in FIG. 5 are extracted in step S16, the aggregated image data D3 shown in FIG. 7 is generated by the control unit 5 in step S17. Here, in the aggregated image data D3, the color of the partial score P1 and the color of the partial score P5 are different from each other. This facilitates identification of the partial score P1 and the partial score P5 included in the aggregated image data D3.

<ステップS18>
ステップS18において、制御部5は、ステップS17で生成された前記集約画像データを出力する。ここで、ステップS18の処理は、制御部5の出力処理部56により実行される。
<Step S18>
In step S18, the control unit 5 outputs the aggregated image data generated in step S17. Here, the process of step S <b> 18 is executed by the output processing unit 56 of the control unit 5.

例えば、制御部5は、画像形成部3を用いてステップS17で生成された前記集約画像データを印刷する。例えば、ステップS18では、制御部5によってステップS17で生成された集約画像データD2又は集約画像データD3が印刷される。   For example, the control unit 5 prints the aggregated image data generated in step S <b> 17 using the image forming unit 3. For example, in step S18, the aggregated image data D2 or the aggregated image data D3 generated in step S17 by the control unit 5 is printed.

なお、制御部5は、選択画面X1(図5参照)において操作キーK2が操作された場合は、楽譜の画像データD1をそのままの状態で印刷してよい。   When the operation key K2 is operated on the selection screen X1 (see FIG. 5), the control unit 5 may print the score image data D1 as it is.

このように、画像処理装置10では、複数の前記パートを含む前記楽譜の画像データに基づいて前記パート各々に対応する前記部分楽譜が検出されて、検出された複数の前記パート各々に対応する前記部分楽譜からユーザーの操作に応じて抽出された一又は複数の前記パートに対応する前記部分楽譜を示す複数の画像が一つの画像に集約される。従って、複数の前記パートを含む前記楽譜の利便性を向上させることが可能である。   Thus, in the image processing apparatus 10, the partial score corresponding to each of the parts is detected based on the image data of the score including the plurality of parts, and the plurality of parts corresponding to the detected plurality of parts are detected. A plurality of images showing the partial score corresponding to one or a plurality of the parts extracted from the partial score in accordance with the user's operation are collected into one image. Therefore, it is possible to improve the convenience of the score including a plurality of parts.

1 ADF
2 画像読取部
3 画像形成部
4 給紙部
5 制御部
6 操作表示部
7 記憶部
10 画像処理装置
51 取得処理部
52 第1検出処理部
53 第2検出処理部
54 抽出処理部
55 集約処理部
56 出力処理部
1 ADF
2 Image reading unit 3 Image forming unit 4 Paper feeding unit 5 Control unit 6 Operation display unit 7 Storage unit 10 Image processing device 51 Acquisition processing unit 52 First detection processing unit 53 Second detection processing unit 54 Extraction processing unit 55 Aggregation processing unit 56 Output processor

Claims (9)

複数のパートを含む楽譜の画像データに基づいて前記パート各々に対応する部分楽譜を検出する第1検出処理部と、
前記第1検出処理部によって検出された複数の前記パート各々に対応する前記部分楽譜から予め定められた選択操作に応じて選択された一又は複数の前記パートに対応する前記部分楽譜を抽出する抽出処理部と、
前記抽出処理部によって抽出された前記パートに対応する前記部分楽譜を示す複数の画像を一つの画像に集約する集約処理部と、
を備える画像処理装置。
A first detection processing unit for detecting a partial score corresponding to each of the parts based on image data of a score including a plurality of parts;
Extraction that extracts the partial score corresponding to one or a plurality of the parts selected in accordance with a predetermined selection operation from the partial score corresponding to each of the plurality of parts detected by the first detection processing unit A processing unit;
An aggregation processing unit that aggregates a plurality of images indicating the partial score corresponding to the part extracted by the extraction processing unit into one image;
An image processing apparatus comprising:
前記第1検出処理部は、前記楽譜に含まれる五線及び前記パートの名称に基づいて前記パート各々に対応する前記部分楽譜を検出する請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the first detection processing unit detects the partial score corresponding to each of the parts based on a staff and a name of the part included in the score. 前記集約処理部は、前記抽出処理部によって複数の前記パート各々に対応する前記部分楽譜が抽出された場合に、抽出された複数の前記パート各々に対応する前記部分楽譜ごとに前記パートに対応する前記部分楽譜を示す複数の画像を一つの画像に集約する請求項1又は2に記載の画像処理装置。   When the partial score corresponding to each of the plurality of parts is extracted by the extraction processing unit, the aggregation processing unit corresponds to the part for each partial score corresponding to each of the plurality of extracted parts. The image processing apparatus according to claim 1, wherein a plurality of images representing the partial score are collected into one image. 前記集約処理部は、前記抽出処理部によって複数の前記パート各々に対応する前記部分楽譜が抽出された場合に、抽出された複数の前記パート各々に対応する前記部分楽譜を示す複数の画像を一つの画像に集約する請求項1又は2に記載の画像処理装置。   When the partial score corresponding to each of the plurality of parts is extracted by the extraction processing unit, the aggregation processing unit sets a plurality of images indicating the partial score corresponding to each of the extracted plurality of parts. The image processing apparatus according to claim 1, wherein the image processing apparatus aggregates the images into one image. 前記集約処理部は、前記抽出処理部によって複数の前記パート各々に対応する前記部分楽譜が抽出された場合に、抽出された複数の前記パート各々に対応する前記部分楽譜を示す複数の画像を一つの画像に集約すると共に、抽出された複数の前記パート各々に対応する前記部分楽譜の色を互いに異なる色に変化させる請求項4に記載の画像処理装置。   When the partial score corresponding to each of the plurality of parts is extracted by the extraction processing unit, the aggregation processing unit sets a plurality of images indicating the partial score corresponding to each of the extracted plurality of parts. The image processing apparatus according to claim 4, wherein the image processing apparatus aggregates the images into one image and changes the color of the partial score corresponding to each of the extracted parts to a different color. 前記楽譜の画像データに基づいて前記楽譜に含まれる演奏記号のうち予め定められた特定演奏記号を検出する第2検出処理部を更に備え、
前記集約処理部は、前記抽出処理部によって抽出された前記パートに対応する前記部分楽譜を示す複数の画像及び前記第2検出処理部によって検出された前記特定演奏記号を一つの画像に集約する請求項1〜5のいずれかに記載の画像処理装置。
A second detection processing unit for detecting a predetermined specific performance symbol among performance symbols included in the score based on image data of the score;
The aggregation processing unit aggregates a plurality of images indicating the partial score corresponding to the part extracted by the extraction processing unit and the specific performance symbols detected by the second detection processing unit into one image. Item 6. The image processing apparatus according to any one of Items 1 to 5.
原稿から画像データを読み取る画像読取部と、
前記画像読取部を用いて前記原稿から前記楽譜の画像データを取得する取得処理部と、
を更に備える請求項1〜6のいずれかに記載の画像処理装置。
An image reading unit for reading image data from a document;
An acquisition processing unit for acquiring image data of the musical score from the document using the image reading unit;
The image processing apparatus according to claim 1, further comprising:
画像データに基づいて画像を形成する画像形成部と、
前記画像形成部を用いて前記集約処理部によって集約された画像を印刷する出力処理部と、
を更に備える請求項1〜7のいずれかに記載の画像処理装置。
An image forming unit that forms an image based on the image data;
An output processing unit that prints an image aggregated by the aggregation processing unit using the image forming unit;
The image processing apparatus according to claim 1, further comprising:
複数のパートを含む楽譜の画像データに基づいて前記パート各々に対応する部分楽譜を検出する第1ステップと、
前記第1ステップによって検出された複数の前記パート各々に対応する前記部分楽譜から予め定められた選択操作に応じて選択された一又は複数の前記パートに対応する前記部分楽譜を抽出する第2ステップと、
前記第2ステップによって抽出された前記パートに対応する前記部分楽譜を示す複数の画像を一つの画像に集約する第3ステップと、
を含む画像処理方法。
A first step of detecting a partial score corresponding to each of the parts based on image data of a score including a plurality of parts;
A second step of extracting the partial score corresponding to one or a plurality of the parts selected in accordance with a predetermined selection operation from the partial score corresponding to each of the plurality of parts detected in the first step; When,
A third step of aggregating a plurality of images indicating the partial score corresponding to the part extracted in the second step into one image;
An image processing method including:
JP2016041765A 2016-03-04 2016-03-04 Image processing apparatus, image processing method Expired - Fee Related JP6547658B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016041765A JP6547658B2 (en) 2016-03-04 2016-03-04 Image processing apparatus, image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016041765A JP6547658B2 (en) 2016-03-04 2016-03-04 Image processing apparatus, image processing method

Publications (2)

Publication Number Publication Date
JP2017158127A true JP2017158127A (en) 2017-09-07
JP6547658B2 JP6547658B2 (en) 2019-07-24

Family

ID=59810482

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016041765A Expired - Fee Related JP6547658B2 (en) 2016-03-04 2016-03-04 Image processing apparatus, image processing method

Country Status (1)

Country Link
JP (1) JP6547658B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0997061A (en) * 1995-09-29 1997-04-08 Kawai Musical Instr Mfg Co Ltd Musical score recognition device
JP2003288075A (en) * 2002-03-27 2003-10-10 Ricoh Co Ltd Music edition system
JP2014179831A (en) * 2013-03-15 2014-09-25 Konica Minolta Inc Information display device, information editing method and information editing program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0997061A (en) * 1995-09-29 1997-04-08 Kawai Musical Instr Mfg Co Ltd Musical score recognition device
JP2003288075A (en) * 2002-03-27 2003-10-10 Ricoh Co Ltd Music edition system
JP2014179831A (en) * 2013-03-15 2014-09-25 Konica Minolta Inc Information display device, information editing method and information editing program

Also Published As

Publication number Publication date
JP6547658B2 (en) 2019-07-24

Similar Documents

Publication Publication Date Title
US9191532B2 (en) Image display device and computer-readable storage medium storing a display control program
JP2018130889A (en) Image forming apparatus and image forming method
US20210287187A1 (en) Image processing apparatus and non-transitory computer readable medium storing program
JP5942869B2 (en) Control device, electronic apparatus, image forming apparatus, and program
JP2018056797A (en) Image processing device
JP6547658B2 (en) Image processing apparatus, image processing method
US20140160499A1 (en) Mage forming apparatus, control method thereof, and storage medium
JP6583164B2 (en) Image forming apparatus
JP5148312B2 (en) Image forming apparatus
JP6524941B2 (en) Image processing apparatus, image processing method
JP5507509B2 (en) Mark detection device
JP5746602B2 (en) Image processing apparatus and image processing method
JP7505236B2 (en) Image processing device and image processing method
JP7524611B2 (en) Image forming device
JP2019068128A (en) Image processing apparatus and image processing method
JP2010028631A (en) Image forming apparatus, method ,and program
US20150146254A1 (en) Image Processing Apparatus and Image Processing Method That Ensures Effective Search
JP5802782B2 (en) Mark detection device
JP2022166660A (en) image forming device
JP3977834B2 (en) Image forming apparatus
JP6270060B2 (en) Image processing device
JP2023021740A (en) Image forming apparatus
JP2016218638A (en) Electronic apparatus
JP2013199120A (en) Image forming apparatus
JP2019176443A (en) Image reading device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190528

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190610

R150 Certificate of patent or registration of utility model

Ref document number: 6547658

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees