JP6547658B2 - Image processing apparatus, image processing method - Google Patents

Image processing apparatus, image processing method Download PDF

Info

Publication number
JP6547658B2
JP6547658B2 JP2016041765A JP2016041765A JP6547658B2 JP 6547658 B2 JP6547658 B2 JP 6547658B2 JP 2016041765 A JP2016041765 A JP 2016041765A JP 2016041765 A JP2016041765 A JP 2016041765A JP 6547658 B2 JP6547658 B2 JP 6547658B2
Authority
JP
Japan
Prior art keywords
processing unit
score
image
partial
name
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016041765A
Other languages
Japanese (ja)
Other versions
JP2017158127A (en
Inventor
里奈 新井
里奈 新井
幸広 森
幸広 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Document Solutions Inc
Original Assignee
Kyocera Document Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Document Solutions Inc filed Critical Kyocera Document Solutions Inc
Priority to JP2016041765A priority Critical patent/JP6547658B2/en
Publication of JP2017158127A publication Critical patent/JP2017158127A/en
Application granted granted Critical
Publication of JP6547658B2 publication Critical patent/JP6547658B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Editing Of Facsimile Originals (AREA)
  • Auxiliary Devices For Music (AREA)

Description

本発明は、画像処理装置、及び画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method.

複写機のような画像処理装置では、様々な種類の原稿が印刷される。例えば、この種の画像処理装置では、楽譜の原稿が印刷されることがある。なお、楽譜の原稿から読み取られた画像データに基づいて、前記楽譜に補助記号を付加することが可能な画像処理装置が知られている(特許文献1参照)。   In an image processing apparatus such as a copying machine, various types of originals are printed. For example, in this type of image processing apparatus, a document of a musical score may be printed. There is known an image processing apparatus capable of adding an auxiliary symbol to a score based on image data read from a document of the score (see Patent Document 1).

特開2010−220097号公報JP, 2010-220097, A

ところで、画像処理装置では、合奏曲の楽譜のような複数のパートを含む楽譜の原稿が印刷されることがある。例えば、合奏に参加するユーザーが、担当パートの演奏に利用するために、画像処理装置を用いて合奏曲の楽譜の原稿を印刷することがある。ここで、印刷された楽譜に含まれる担当パート以外のパートは、ユーザーにとって不要であることが多い。担当パート以外のパートがユーザーにとって不要である場合、ユーザーは、印刷された楽譜に含まれる複数のパートから担当パートを見つけ出す手間を不便に感じる。   By the way, in an image processing apparatus, an original of a musical score including a plurality of parts such as a musical score of musical score may be printed. For example, a user who participates in an ensemble may print an original score of an ensemble score using an image processing apparatus in order to use the performance of the part in charge. Here, parts other than the part in charge included in the printed score are often unnecessary for the user. When a part other than the part in charge is unnecessary for the user, the user feels inconvenient to find out the part in charge from the plurality of parts included in the printed score.

本発明の目的は、複数のパートを含む楽譜の利便性を向上可能な画像処理装置、及び画像処理方法を提供することにある。   An object of the present invention is to provide an image processing apparatus and an image processing method capable of improving the convenience of a score including a plurality of parts.

本発明の一の局面に係る画像処理装置は、第1検出処理部と、抽出処理部と、集約処理部とを備える。前記第1検出処理部は、複数のパートを含む楽譜の画像データに基づいて前記パート各々に対応する部分楽譜を検出する。前記抽出処理部は、前記第1検出処理部によって検出された複数の前記パート各々に対応する前記部分楽譜から予め定められた選択操作に応じて選択された一又は複数の前記パートに対応する前記部分楽譜を抽出する。前記集約処理部は、前記抽出処理部によって抽出された前記パートに対応する前記部分楽譜を示す複数の画像を一つの画像に集約する。   An image processing apparatus according to one aspect of the present invention includes a first detection processing unit, an extraction processing unit, and an aggregation processing unit. The first detection processing unit detects a partial score corresponding to each of the parts based on image data of a score including a plurality of parts. The extraction processing unit corresponds to one or more of the parts selected according to a selection operation predetermined from the partial score corresponding to each of the plurality of parts detected by the first detection processing unit. Extract partial score. The aggregation processing unit consolidates a plurality of images indicating the partial score corresponding to the part extracted by the extraction processing unit into one image.

本発明の他の局面に係る画像処理方法は、以下の第1ステップと、第2ステップと、第3ステップとを含む。前記第1ステップでは、複数のパートを含む楽譜の画像データに基づいて前記パート各々に対応する部分楽譜が検出される。前記第2ステップでは、前記第1ステップによって検出された複数の前記パート各々に対応する前記部分楽譜から予め定められた選択操作に応じて選択された一又は複数の前記パートに対応する前記部分楽譜が抽出される。前記第3ステップでは、前記第2ステップによって抽出された前記パートに対応する前記部分楽譜を示す複数の画像が一つの画像に集約される。   An image processing method according to another aspect of the present invention includes the following first step, second step, and third step. In the first step, a partial score corresponding to each of the parts is detected based on image data of a score including a plurality of parts. In the second step, the partial score corresponding to one or more of the parts selected according to a selection operation determined in advance from the partial scores corresponding to each of the plurality of parts detected in the first step. Is extracted. In the third step, a plurality of images indicating the partial score corresponding to the part extracted in the second step are integrated into one image.

本発明によれば、複数のパートを含む楽譜の利便性を向上させることが可能である。   According to the present invention, it is possible to improve the convenience of a score including a plurality of parts.

図1は、本発明の実施形態に係る画像処理装置の構成を示す図である。FIG. 1 is a diagram showing the configuration of an image processing apparatus according to an embodiment of the present invention. 図2は、本発明の実施形態に係る画像処理装置のシステム構成を示すブロック図である。FIG. 2 is a block diagram showing the system configuration of the image processing apparatus according to the embodiment of the present invention. 図3は、本発明の実施形態に係る画像処理装置で実行されるパート集約処理の一例を示すフローチャートである。FIG. 3 is a flowchart showing an example of part grouping processing performed by the image processing apparatus according to the embodiment of the present invention. 図4は、本発明の実施形態に係る画像処理装置で取得される楽譜の画像データの一例を示す図である。FIG. 4 is a view showing an example of image data of a musical score acquired by the image processing apparatus according to the embodiment of the present invention. 図5は、本発明の実施形態に係る画像処理装置の操作表示部に表示される選択画面の一例を示す図である。FIG. 5 is a view showing an example of a selection screen displayed on the operation display unit of the image processing apparatus according to the embodiment of the present invention. 図6は、本発明の実施形態に係る画像処理装置から出力される画像データの一例を示す図である。FIG. 6 is a view showing an example of image data output from the image processing apparatus according to the embodiment of the present invention. 図7は、本発明の実施形態に係る画像処理装置から出力される画像データの他の一例を示す図である。FIG. 7 is a view showing another example of image data output from the image processing apparatus according to the embodiment of the present invention.

以下、添付図面を参照しながら、本発明の実施形態について説明する。なお、以下の実施形態は、本発明を具体化した一例であって、本発明の技術的範囲を限定するものではない。   Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. The following embodiments are merely specific examples of the present invention, and do not limit the technical scope of the present invention.

[画像処理装置10の構成]
まず、図1及び図2を参照しつつ、本発明の実施形態に係る画像処理装置10の構成について説明する。ここで、図1は画像処理装置10の構成を示す断面模式図である。
[Configuration of Image Processing Device 10]
First, the configuration of an image processing apparatus 10 according to an embodiment of the present invention will be described with reference to FIGS. 1 and 2. Here, FIG. 1 is a schematic cross-sectional view showing the configuration of the image processing apparatus 10. As shown in FIG.

画像処理装置10は、原稿から画像データを読み取るスキャン機能、及び画像データに基づいて画像を形成するプリント機能と共に、ファクシミリ機能、及びコピー機能などの複数の機能を有する複合機である。また、本発明は、スキャナー装置、プリンター装置、ファクシミリ装置、コピー機、及びパーソナルコンピューターなどの画像処理装置に適用可能である。   The image processing apparatus 10 is a multifunction peripheral having a scan function for reading image data from a document, a print function for forming an image based on image data, and a plurality of functions such as a facsimile function and a copy function. The present invention is also applicable to image processing apparatuses such as scanners, printers, facsimiles, copiers, and personal computers.

図1及び図2に示されるように、画像処理装置10は、ADF(自動原稿搬送装置)1、画像読取部2、画像形成部3、給紙部4、制御部5、操作表示部6、及び記憶部7を備える。   As shown in FIGS. 1 and 2, the image processing apparatus 10 includes an ADF (automatic document feeder) 1, an image reading unit 2, an image forming unit 3, a sheet feeding unit 4, a control unit 5, an operation display unit 6, And a storage unit 7.

ADF1は、原稿セット部、複数の搬送ローラー、原稿押さえ、及び排紙部を備え、画像読取部2によって読み取られる原稿を搬送する。画像読取部2は、原稿台、光源、複数のミラー、光学レンズ、及びCCDを備え、原稿から画像データを読み取ることが可能である。   The ADF 1 includes an original setting unit, a plurality of conveyance rollers, an original pressing unit, and a discharge unit, and conveys an original read by the image reading unit 2. The image reading unit 2 includes an original table, a light source, a plurality of mirrors, an optical lens, and a CCD, and can read image data from an original.

画像形成部3は、画像読取部2で読み取られた画像データに基づいて、電子写真方式でカラー又はモノクロの画像を形成することが可能である。また、画像形成部3は、外部のパーソナルコンピューター等の情報処理装置から入力された画像データに基づいて、画像を形成することも可能である。具体的に、画像形成部3は、C(シアン)、M(マゼンタ)、Y(イエロー)、及びK(ブラック)に対応する複数の画像形成ユニット、光走査装置、中間転写ベルト、二次転写ローラー、定着装置、及び排紙トレイを備える。給紙部4は、画像形成部3にシートを供給する。画像形成部3では、給紙部4から供給されるシートにカラー又はモノクロの画像が形成されて、画像形成後のシートが前記排紙トレイに排出される。なお、画像形成部3は、インクジェット方式などの他の画像形成方式により画像を形成するものであってもよい。   The image forming unit 3 can form a color or monochrome image by electrophotography based on the image data read by the image reading unit 2. The image forming unit 3 can also form an image based on image data input from an information processing apparatus such as an external personal computer. Specifically, the image forming unit 3 includes a plurality of image forming units corresponding to cyan (C), magenta (M), yellow (Y), and black (K), an optical scanning device, an intermediate transfer belt, and a secondary transfer. A roller, a fixing device, and a discharge tray are provided. The sheet feeding unit 4 supplies a sheet to the image forming unit 3. In the image forming unit 3, a color or monochrome image is formed on the sheet supplied from the sheet feeding unit 4, and the sheet on which the image is formed is discharged to the sheet discharge tray. The image forming unit 3 may form an image by another image forming method such as an inkjet method.

制御部5は、不図示のCPU、ROM、RAM、及びEEPROM(登録商標)などの制御機器を備える。前記CPUは、各種の演算処理を実行するプロセッサーである。前記ROMは、前記CPUに各種の処理を実行させるための制御プログラムなどの情報が予め記憶される不揮発性の記憶媒体である。前記RAMは揮発性の記憶媒体であり、前記EEPROMは不揮発性の記憶媒体である。前記RAM及び前記EEPROMは、前記CPUが実行する各種の処理の一時記憶メモリー(作業領域)として使用される。制御部5では、前記CPUにより前記ROMに予め記憶された各種の制御プログラムが実行される。これにより、画像処理装置10が制御部5により統括的に制御される。なお、制御部5は、集積回路(ASIC)などの電子回路で構成されたものであってもよく、画像処理装置10を統括的に制御するメイン制御部とは別に設けられた制御部であってもよい。   The control unit 5 includes control devices such as a CPU, a ROM, a RAM, and an EEPROM (registered trademark) (not shown). The CPU is a processor that executes various arithmetic processing. The ROM is a non-volatile storage medium in which information such as a control program for causing the CPU to execute various processes is stored in advance. The RAM is a volatile storage medium, and the EEPROM is a non-volatile storage medium. The RAM and the EEPROM are used as temporary storage memories (work areas) of various processes executed by the CPU. In the control unit 5, the CPU executes various control programs stored in advance in the ROM. As a result, the image processing apparatus 10 is totally controlled by the control unit 5. The control unit 5 may be configured by an electronic circuit such as an integrated circuit (ASIC) or the like, and is a control unit provided separately from the main control unit that generally controls the image processing apparatus 10. May be

操作表示部6は、制御部5からの制御指示に応じて各種の情報を表示する液晶ディスプレーなどの表示部、及びユーザーの操作に応じて制御部5に各種の情報を入力する操作キー又はタッチパネルなどの操作部を有する。   The operation display unit 6 is a display unit such as a liquid crystal display that displays various types of information in response to a control instruction from the control unit 5, and operation keys or a touch panel that inputs various types of information to the control unit 5 in accordance with user operations. Etc. has an operation unit.

記憶部7は、不揮発性の記憶媒体である。例えば、記憶部7は、フラッシュメモリー、SSD(ソリッドステートドライブ)、又はHDD(ハードディスクドライブ)などの記憶媒体である。   The storage unit 7 is a non-volatile storage medium. For example, the storage unit 7 is a storage medium such as a flash memory, an SSD (solid state drive), or an HDD (hard disk drive).

画像処理装置10では、様々な種類の原稿が印刷される。例えば、画像処理装置10では、楽譜の原稿が印刷されることがある。なお、楽譜の原稿から読み取られた画像データに基づいて、前記楽譜に補助記号を付加することが可能な画像処理装置が知られている。   In the image processing apparatus 10, various types of originals are printed. For example, in the image processing apparatus 10, a document of a musical score may be printed. There is known an image processing apparatus capable of adding an auxiliary symbol to the score based on image data read from a document of the score.

ところで、画像処理装置10では、合奏曲の楽譜のような複数のパートを含む楽譜の原稿が印刷されることがある。例えば、合奏に参加するユーザーが、担当パートの演奏に利用するために、画像処理装置10を用いて合奏曲の楽譜の原稿を印刷することがある。ここで、印刷された楽譜に含まれる担当パート以外のパートは、ユーザーにとって不要であることが多い。担当パート以外のパートがユーザーにとって不要である場合、ユーザーは、印刷された楽譜に含まれる複数のパートから担当パートを見つけ出す手間を不便に感じる。   By the way, in the image processing apparatus 10, a manuscript of a score including a plurality of parts such as a score of a musical ensemble may be printed. For example, a user who participates in an ensemble may use the image processing apparatus 10 to print an original sheet of the score of the ensemble in order to use the performance of the assigned part. Here, parts other than the part in charge included in the printed score are often unnecessary for the user. When a part other than the part in charge is unnecessary for the user, the user feels inconvenient to find out the part in charge from the plurality of parts included in the printed score.

これに対し、本発明の実施形態に係る画像処理装置10は、以下に説明するように、複数のパートを含む楽譜の利便性を向上させることが可能である。   On the other hand, the image processing apparatus 10 according to the embodiment of the present invention can improve the convenience of the score including a plurality of parts as described below.

具体的に、制御部5の前記ROMには、前記CPUに後述のパート集約処理(図3のフローチャート参照)を実行させるためのパート集約プログラムが予め記憶されている。なお、前記パート集約プログラムは、CD、DVD、フラッシュメモリーなどのコンピューター読み取り可能な記録媒体に記録されており、前記記録媒体から読み取られて記憶部7にインストールされるものであってもよい。   Specifically, in the ROM of the control unit 5, a part consolidation program for causing the CPU to execute part consolidation processing (see the flowchart of FIG. 3) described later is stored in advance. The part grouping program may be recorded in a computer readable recording medium such as a CD, a DVD, a flash memory, etc., and may be read from the recording medium and installed in the storage unit 7.

そして、制御部5は、図2に示されるように、取得処理部51、第1検出処理部52、第2検出処理部53、抽出処理部54、集約処理部55、及び出力処理部56を含む。具体的に、制御部5は、前記CPUを用いて前記ROMに記憶されている前記パート集約プログラムを実行する。これにより、制御部5は、取得処理部51、第1検出処理部52、第2検出処理部53、抽出処理部54、集約処理部55、及び出力処理部56として機能する。   Then, as shown in FIG. 2, the control unit 5 includes an acquisition processing unit 51, a first detection processing unit 52, a second detection processing unit 53, an extraction processing unit 54, an aggregation processing unit 55, and an output processing unit 56. Including. Specifically, the control unit 5 executes the part grouping program stored in the ROM using the CPU. Thus, the control unit 5 functions as an acquisition processing unit 51, a first detection processing unit 52, a second detection processing unit 53, an extraction processing unit 54, an aggregation processing unit 55, and an output processing unit 56.

取得処理部51は、複数のパートを含む楽譜の画像データを取得する。   The acquisition processing unit 51 acquires image data of a score including a plurality of parts.

例えば、取得処理部51は、画像読取部2を用いて前記楽譜の原稿から前記楽譜の画像データを取得する。具体的に、取得処理部51は、ADF1の前記原稿セット部に原稿が載置されている場合には、ADF1及び画像読取部2を用いて、前記原稿セット部に載置された原稿から前記楽譜の画像データを読み取る。また、取得処理部51は、画像読取部2の前記原稿台に原稿が載置されている場合には、画像読取部2を用いて、前記原稿台に載置された原稿から前記楽譜の画像データを読み取る。   For example, the acquisition processing unit 51 uses the image reading unit 2 to acquire the image data of the score from the document of the score. Specifically, when the document is placed on the document setting unit of the ADF 1, the acquisition processing unit 51 uses the ADF 1 and the image reading unit 2 to start the document placed on the document setting unit. Read the image data of the score. Further, when a document is placed on the document table of the image reading unit 2, the acquisition processing unit 51 uses the image reading unit 2 to generate an image of the score from the document placed on the document table Read the data

また、取得処理部51は、外部の情報処理装置から送信される前記楽譜の画像データを受信することで、前記楽譜の画像データを取得してもよい。また、取得処理部51は、画像読取部2によって読み取られて、又は外部の情報処理装置から送信されて記憶部7に格納された前記楽譜の画像データを読み出すことで、前記楽譜の画像データを取得してもよい。   In addition, the acquisition processing unit 51 may acquire the image data of the score by receiving the image data of the score transmitted from an external information processing apparatus. Further, the acquisition processing unit 51 reads out the image data of the musical score read by the image reading unit 2 or transmitted from an external information processing apparatus and stored in the storage unit 7 to obtain the image data of the musical score. You may get it.

第1検出処理部52は、取得処理部51によって取得された前記楽譜の画像データに基づいて、前記パート各々に対応する部分楽譜を検出する。   The first detection processing unit 52 detects a partial score corresponding to each of the parts based on the image data of the score acquired by the acquisition processing unit 51.

例えば、第1検出処理部52は、前記楽譜に含まれる五線及び前記パートの名称に基づいて、前記パート各々に対応する前記部分楽譜を検出する。具体的に、第1検出処理部52は、前記パートの名称が予め定められた特殊パートであるか否かに応じて前記パートの名称ごとに特定される一又は複数の前記五線を含む領域を、前記パートに対応する前記部分楽譜として検出する。   For example, the first detection processing unit 52 detects the partial score corresponding to each of the parts based on the staff included in the score and the name of the part. Specifically, the first detection processing unit 52 is an area including one or more of the staff identified for each name of the part according to whether or not the name of the part is a predetermined special part. Is detected as the partial score corresponding to the part.

ここで、前記特殊パートは、旋律の表現に複数の前記五線が用いられる前記パートである。例えば、前記特殊パートに対応して特定される前記五線の数は、前記特殊パートごとに予め定められている。例えば、前記特殊パートは、ピアノを含む。また、前記特殊パートがピアノである場合に前記特殊パートに対応して特定される前記五線の数は二つである。   Here, the special part is the part in which a plurality of the staves are used to express melody. For example, the number of the staves specified corresponding to the special part is predetermined for each special part. For example, the special part includes a piano. When the special part is a piano, the number of the staves specified corresponding to the special part is two.

例えば、第1検出処理部52は、前記パートの名称が前記特殊パートではない場合は、前記パートの名称から予め定められた特定方向に配置された一つの前記五線を、前記パートの名称に対応する前記五線として特定する。一方、第1検出処理部52は、前記パートの名称が前記特殊パートである場合は、前記パートの名称から前記特定方向に配置された複数の前記五線を、前記パートの名称に対応する前記五線として特定する。例えば、前記特定方向は、前記パートの名称の下方、又は右方である。   For example, when the name of the part is not the special part, the first detection processing unit 52 sets one of the staffs arranged in a specific direction determined in advance from the name of the part as the name of the part. Identify as the corresponding said staff. On the other hand, when the name of the part is the special part, the first detection processing unit 52 corresponds to the name of the part corresponding to the name of the part, with respect to the plurality of staff arranged in the specific direction from the name of the part Identify as a staff. For example, the specific direction is below or to the right of the name of the part.

そして、第1検出処理部52は、特定された前記パートの名称に対応する一又は複数の前記五線を含む領域を前記パートに対応する前記部分楽譜として検出する。   Then, the first detection processing unit 52 detects an area including one or more of the staff corresponding to the specified name of the part as the partial score corresponding to the part.

ここで、図4を参照しつつ、第1検出処理部52による前記パートに対応する前記部分楽譜の検出手順について説明する。図4には、取得処理部51によって取得された前記楽譜の画像データの一例である楽譜の画像データD1が示されている。   Here, the procedure for detecting the partial score corresponding to the part by the first detection processing unit 52 will be described with reference to FIG. FIG. 4 shows image data D1 of a musical score which is an example of the image data of the musical score acquired by the acquisition processing unit 51.

まず、第1検出処理部52は、取得処理部51によって取得された楽譜の画像データD1に基づいて、楽譜の画像データD1に含まれる五線G11〜G28を検出する。例えば、第1検出処理部52は、楽譜の画像データD1に対して、楽譜の画像データD1に含まれる画素各々を予め設定された閾値に基づいて二値化する二値化処理を実行する。そして、第1検出処理部52は、前記二値化処理の実行結果に基づいて、楽譜の画像データD1に含まれる五線G11〜G28を検出する。   First, the first detection processing unit 52 detects staves G11 to G28 included in the image data D1 of the score based on the image data D1 of the score acquired by the acquisition processing unit 51. For example, the first detection processing unit 52 performs a binarization process for binarizing each pixel included in the image data D1 of the score on the image data D1 of the score based on a preset threshold value. Then, the first detection processing unit 52 detects the staves G11 to G28 included in the image data D1 of the score based on the execution result of the binarization processing.

次に、第1検出処理部52は、取得処理部51によって取得された楽譜の画像データD1に基づいて、楽譜の画像データD1に含まれるパート名M1〜M5を検出する。例えば、第1検出処理部52は、楽譜の画像データD1に対して、楽譜の画像データD1に含まれる文字を認識するOCR(光学文字認識)処理を実行する。そして、第1検出処理部52は、前記OCR処理の実行結果に基づいて、楽譜の画像データD1に含まれるパート名M1〜M5を検出する。   Next, the first detection processing unit 52 detects part names M1 to M5 included in the image data D1 of the score based on the image data D1 of the score acquired by the acquisition processing unit 51. For example, the first detection processing unit 52 performs an optical character recognition (OCR) process for recognizing characters included in the image data D1 of the score on the image data D1 of the score. Then, the first detection processing unit 52 detects the part names M1 to M5 included in the image data D1 of the score based on the execution result of the OCR processing.

次に、第1検出処理部52は、検出されたパート名M1〜M5が、前記特殊パートであるか否かを判断する。例えば、第1検出処理部52は、パート名M1〜M4は前記特殊パートではないと判断する。また、第1検出処理部52は、パート名M5は前記特殊パートであると判断する。   Next, the first detection processing unit 52 determines whether or not the detected part names M1 to M5 are the special part. For example, the first detection processing unit 52 determines that the part names M1 to M4 are not the special part. Further, the first detection processing unit 52 determines that the part name M5 is the special part.

次に、第1検出処理部52は、検出されたパート名M1〜M5に対応する前記五線を特定する。例えば、第1検出処理部52は、パート名M1の右方に配置された五線G11、五線G17、及び五線G23をパート名M1に対応する前記五線として特定する。また、第1検出処理部52は、パート名M2の右方に配置された五線G12、五線G18、及び五線G24をパート名M2に対応する前記五線として特定する。また、第1検出処理部52は、パート名M3の右方に配置された五線G13、五線G19、及び五線G25をパート名M3に対応する前記五線として特定する。また、第1検出処理部52は、パート名M4の右方に配置された五線G14、五線G20、及び五線G26をパート名M4に対応する前記五線として特定する。また、第1検出処理部52は、パート名M5の右方に配置された五線G15〜G16、五線G21〜G22、及び五線G27〜G28をパート名M5に対応する前記五線として特定する。   Next, the first detection processing unit 52 specifies the staff corresponding to the detected part names M1 to M5. For example, the first detection processing unit 52 specifies the staff G11, the staff G17, and the staff G23 disposed to the right of the part name M1 as the staff corresponding to the part name M1. Further, the first detection processing unit 52 specifies the staff G12, the staff G18, and the staff G24 disposed on the right of the part name M2 as the staff corresponding to the part name M2. Further, the first detection processing unit 52 specifies the staff G13, the staff G19, and the staff G25 disposed on the right of the part name M3 as the staff corresponding to the part name M3. Further, the first detection processing unit 52 specifies the staff G14, the staff G20, and the staff G26 disposed on the right of the part name M4 as the staff corresponding to the part name M4. Further, the first detection processing unit 52 identifies the staff G15 to G16, the staff G21 to G22, and the staff G27 to G28 disposed on the right of the part name M5 as the staff corresponding to the part name M5. Do.

そして、第1検出処理部52は、パート名M1〜M5各々に対応して特定された前記五線を含む領域を、前記パートに対応する前記部分楽譜として検出する。例えば、第1検出処理部52は、パート名M1及びパート名M1に対応して特定された五線G11、五線G17、及び五線G23を含む領域を部分楽譜P1として特定する。また、第1検出処理部52は、パート名M2及びパート名M2に対応して特定された五線G12、五線G18、及び五線G24を含む領域を部分楽譜P2として特定する。また、第1検出処理部52は、パート名M3及びパート名M3に対応して特定された五線G13、五線G19、及び五線G25を含む領域を部分楽譜P3として特定する。また、第1検出処理部52は、パート名M4及びパート名M4に対応して特定された五線G14、五線G20、及び五線G26を含む領域を部分楽譜P4として特定する。また、第1検出処理部52は、パート名M5及びパート名M5に対応して特定された五線G15〜G16、五線G21〜G22、及び五線G27〜G28を含む領域を部分楽譜P5として特定する。なお、図4では、部分楽譜P1〜P5が二点鎖線により示されている。   Then, the first detection processing unit 52 detects an area including the staff identified corresponding to each of the part names M1 to M5 as the partial score corresponding to the part. For example, the first detection processing unit 52 specifies an area including the staff G11, the staff G17, and the staff G23 specified corresponding to the part name M1 and the part name M1 as the partial score P1. Further, the first detection processing unit 52 specifies an area including the staff G12, the staff G18, and the staff G24 specified corresponding to the part name M2 and the part name M2 as a partial score P2. Further, the first detection processing unit 52 specifies an area including the staff G13, the staff G19, and the staff G25 specified corresponding to the part name M3 and the part name M3 as a partial score P3. Further, the first detection processing unit 52 specifies an area including the staff G14, the staff G20, and the staff G26 specified corresponding to the part name M4 and the part name M4 as the partial score P4. Further, the first detection processing unit 52 sets a region including the staff G15 to G16, the staff G21 to G22, and the staff G27 to G28 specified corresponding to the part name M5 and the part name M5 as the partial score P5. Identify. In FIG. 4, the partial scores P <b> 1 to P <b> 5 are indicated by two-dot chain lines.

なお、第1検出処理部52は、前記五線に基づくことなく、前記パートに対応する前記部分楽譜を検出してもよい。例えば、第1検出処理部52は、前記パートの名称が前記特殊パートであるか否かに応じて前記パートの名称ごとに特定される領域を、前記パートに対応する前記部分楽譜として検出してもよい。   The first detection processing unit 52 may detect the partial score corresponding to the part without being based on the staff. For example, the first detection processing unit 52 detects an area specified for each part name according to whether or not the part name is the special part, as the partial score corresponding to the part. It is also good.

第2検出処理部53は、前記楽譜の画像データに基づいて、前記楽譜に含まれる演奏記号のうち予め定められた特定演奏記号を検出する。ここで、前記特定演奏記号は、前記楽譜に含まれる全ての前記パートの演奏に関わる前記演奏記号である。例えば、前記特定演奏記号は、速度記号及び発想記号を含む。   The second detection processing unit 53 detects a predetermined specific musical performance symbol among the musical performance symbols included in the musical score, based on the image data of the musical score. Here, the specific musical symbol is the musical symbol relating to the performance of all the parts included in the score. For example, the specific musical symbols include speed symbols and expression symbols.

例えば、第2検出処理部53は、第1検出処理部52によって実行された前記OCR処理の実行結果に基づいて、前記特定演奏記号を検出する。例えば、第2検出処理部53は、図4に示される楽譜の画像データD1から、特定演奏記号A1を検出する。   For example, the second detection processing unit 53 detects the specific musical symbol based on the execution result of the OCR processing performed by the first detection processing unit 52. For example, the second detection processing unit 53 detects the specific musical symbol A1 from the image data D1 of the musical score shown in FIG.

抽出処理部54は、第1検出処理部52によって検出された複数の前記パート各々に対応する前記部分楽譜から予め定められた選択操作に応じて選択された一又は複数の前記パートに対応する前記部分楽譜を抽出する。   The extraction processing unit 54 corresponds to one or more of the parts selected according to a selection operation predetermined from the partial score corresponding to each of the plurality of parts detected by the first detection processing unit 52. Extract partial score.

例えば、抽出処理部54は、第1検出処理部52によって検出された前記パートに対応する前記部分楽譜の選択に用いられる選択画面を操作表示部6に表示させる。そして、抽出処理部54は、前記選択画面におけるユーザーの操作に応じて、第1検出処理部52によって検出された複数の前記パート各々に対応する前記部分楽譜から一又は複数の前記パートに対応する前記部分楽譜を抽出する。ここに、前記選択画面におけるユーザーの操作が、本発明における予め定められた選択操作の一例である。   For example, the extraction processing unit 54 causes the operation display unit 6 to display a selection screen used for selecting the partial score corresponding to the part detected by the first detection processing unit 52. Then, the extraction processing unit 54 corresponds to one or more of the partial scores corresponding to each of the plurality of parts detected by the first detection processing unit 52 according to the user's operation on the selection screen. Extract the partial score. Here, the user's operation on the selection screen is an example of a predetermined selection operation in the present invention.

図5に、抽出処理部54によって操作表示部6に表示される前記選択画面の一例を示す。図5に示される選択画面X1は、表示領域R1、操作キーK1〜K2を含む。表示領域R1には、楽譜の画像データD1が表示される。ユーザーは、選択画面X1において、表示領域R1に表示された楽譜の画像データD1から、一又は複数の前記パートに対応する前記部分楽譜を選択することが可能である。例えば、ユーザーは、選択画面X1において所望の前記パートに対応する前記部分楽譜の表示領域に対してタッチ操作を行うことで、前記パートに対応する前記部分楽譜を選択することが可能である。例えば、ユーザーにより選択画面X1の部分楽譜P5の表示領域に対するタッチ操作が行われると、抽出処理部54は、部分楽譜P5が選択状態であることを示すカーソルA2を表示領域R1に表示させる。カーソルA2が表示領域R1に表示されている状態で、ユーザーにより操作キーK1に対するタッチ操作が行われると、抽出処理部54は、部分楽譜P5を抽出する。一方、ユーザーにより操作キーK2に対するタッチ操作が行われた場合には、抽出処理部54は、前記パートに対応する前記部分楽譜の抽出を行わない。なお、図5では、カーソルA2は二点鎖線により示されている。   FIG. 5 shows an example of the selection screen displayed on the operation display unit 6 by the extraction processing unit 54. The selection screen X1 shown in FIG. 5 includes a display area R1 and operation keys K1 to K2. Image data D1 of a musical score is displayed in the display area R1. The user can select the partial score corresponding to one or more of the parts from the image data D1 of the score displayed in the display area R1 on the selection screen X1. For example, the user can select the partial score corresponding to the part by performing a touch operation on the display area of the partial score corresponding to the desired part on the selection screen X1. For example, when the user performs a touch operation on the display area of the partial score P5 of the selection screen X1, the extraction processing unit 54 causes the display area R1 to display a cursor A2 indicating that the partial score P5 is in a selected state. When the user performs a touch operation on the operation key K1 in a state where the cursor A2 is displayed in the display area R1, the extraction processing unit 54 extracts the partial score P5. On the other hand, when the user performs a touch operation on the operation key K2, the extraction processing unit 54 does not extract the partial score corresponding to the part. In FIG. 5, the cursor A2 is indicated by a two-dot chain line.

集約処理部55は、抽出処理部54によって抽出された前記パートに対応する前記部分楽譜を示す複数の画像を一つの画像に集約する。   The aggregation processing unit 55 integrates a plurality of images indicating the partial score corresponding to the part extracted by the extraction processing unit 54 into one image.

また、集約処理部55は、抽出処理部54によって抽出された前記パートに対応する前記部分楽譜を示す複数の画像、及び第2検出処理部53によって検出された前記特定演奏記号を一つの画像に集約する。   Further, the aggregation processing unit 55 combines a plurality of images indicating the partial score corresponding to the part extracted by the extraction processing unit 54 and the specific performance symbol detected by the second detection processing unit 53 into one image. Summarize.

例えば、集約処理部55は、第2検出処理部53によって検出された前記特定演奏記号を含み、抽出処理部54によって抽出された前記パートに対応する前記部分楽譜を示す複数の画像が予め定められた間隔で配置された集約画像データを生成する。なお、前記間隔は、操作表示部6に対するユーザーの操作に応じて任意に設定されてよい。   For example, the aggregation processing unit 55 includes a plurality of images representing the partial score corresponding to the part extracted by the extraction processing unit 54 including the specific musical symbol detected by the second detection processing unit 53 in advance. Aggregate image data arranged at a predetermined interval. The interval may be arbitrarily set in accordance with the user's operation on the operation display unit 6.

例えば、集約処理部55は、図5に示される選択画面X1において部分楽譜P5が選択された場合に、特定演奏記号A1を含み、部分楽譜P5を示す五線G15〜G16(図4参照)を含む画像、五線G21〜G22を含む画像、及び五線G27〜G28を含む画像が前記間隔で配置された、図6に示される集約画像データD2を生成する。   For example, when the partial score P5 is selected on the selection screen X1 shown in FIG. 5, for example, the aggregation processing unit 55 includes stave G15 to G16 (see FIG. 4) indicating the partial score P5. An aggregate image data D2 shown in FIG. 6 is generated in which the images including the image, the image including the staff G21 to G22, and the images including the staff G27 to G28 are arranged at the intervals.

また、集約処理部55は、抽出処理部54によって複数の前記パート各々に対応する前記部分楽譜が抽出された場合に、抽出された複数の前記パート各々に対応する前記部分楽譜を示す複数の画像を一つの画像に集約する。例えば、集約処理部55は、抽出処理部54によって抽出された複数の前記パート各々に対応する前記部分楽譜を示す複数の画像が前記間隔で配置された前記集約画像データを生成する。   Further, when the extraction processing unit 54 extracts the partial score corresponding to each of the plurality of parts, the aggregation processing unit 55 generates a plurality of images indicating the partial score corresponding to each of the plurality of extracted parts. Integrate into one image. For example, the aggregation processing unit 55 generates the aggregated image data in which a plurality of images indicating the partial score corresponding to each of the plurality of parts extracted by the extraction processing unit 54 are arranged at the intervals.

また、集約処理部55は、抽出処理部54によって複数の前記パート各々に対応する前記部分楽譜が抽出された場合に、抽出された複数の前記パート各々に対応する前記部分楽譜を示す複数の画像を一つの画像に集約すると共に、抽出された複数の前記パート各々に対応する前記部分楽譜の色を互いに異なる色に変化させる。例えば、集約処理部55は、前記集約画像データにおいて、前記パート各々に対応する前記部分楽譜の色を互いに異なる色に変化させる。   Further, when the extraction processing unit 54 extracts the partial score corresponding to each of the plurality of parts, the aggregation processing unit 55 generates a plurality of images indicating the partial score corresponding to each of the plurality of extracted parts. Are integrated into one image, and the color of the partial score corresponding to each of the plurality of extracted parts is changed to a different color. For example, the aggregation processing unit 55 changes the color of the partial score corresponding to each of the parts to a different color in the aggregated image data.

例えば、集約処理部55は、図5に示される選択画面X1において部分楽譜P1及び部分楽譜P5が選択された場合に、特定演奏記号A1を含み、部分楽譜P1を示す五線G11を含む画像、五線G17を含む画像、及び五線G23を含む画像、並びに部分楽譜P5を示す五線G15〜G16を含む画像、五線G21〜G22を含む画像、及び五線G27〜G28を含む画像が前記間隔で配置された、図7に示される集約画像データD3を生成する。例えば、集約処理部55は、図7に示されるように、部分楽譜P1を示す画像と、部分楽譜P5を示す画像とが交互に配置された集約画像データD3を生成する。また、集約処理部55は、集約画像データD3において、部分楽譜P1の色と、部分楽譜P5の色とを、互いに異なる色に変化させる。また、集約処理部55は、集約画像データD3において、特定演奏記号A1の色を、部分楽譜P1の色と同じ色に変化させる。なお、集約処理部55は、部分楽譜P1を示す複数の画像が配置された後に、部分楽譜P5を示す複数の画像が配置された前記集約画像データを生成してもよい。また、集約画像データD3において、部分楽譜P1、部分楽譜P5、及び特定演奏記号A1各々の色は、操作表示部6に対するユーザーの操作に応じて任意に選択されてよい。   For example, when the partial score P1 and the partial score P5 are selected on the selection screen X1 shown in FIG. 5, for example, the aggregation processing unit 55 is an image including the specific musical symbol A1 and including the staff G11 indicating the partial score P1. The image containing the staff G17, the image containing the staff G23, and the image containing staff G15 to G16 indicating the partial score P5, the image containing the staff G21 to G22, and the image containing the staff G27 to G28 Aggregated image data D3 shown in FIG. 7 arranged at intervals are generated. For example, as illustrated in FIG. 7, the aggregation processing unit 55 generates aggregated image data D3 in which an image indicating a partial score P1 and an image indicating a partial score P5 are alternately arranged. Further, the aggregation processing unit 55 changes the color of the partial score P1 and the color of the partial score P5 to different colors in the aggregated image data D3. Further, the aggregation processing unit 55 changes the color of the specific musical performance symbol A1 to the same color as the color of the partial score P1 in the aggregated image data D3. The aggregation processing unit 55 may generate the aggregated image data in which the plurality of images indicating the partial score P5 are disposed after the plurality of images indicating the partial score P1 are disposed. Further, in the aggregated image data D3, the color of each of the partial score P1, the partial score P5, and the specific musical symbol A1 may be arbitrarily selected according to the operation of the user on the operation display unit 6.

なお、集約処理部55は、抽出処理部54によって複数の前記パート各々に対応する前記部分楽譜が抽出された場合に、抽出された複数の前記パート各々に対応する前記部分楽譜ごとに前記パートに対応する前記部分楽譜を示す複数の画像を一つの画像に集約してもよい。例えば、集約処理部55は、抽出処理部54によって抽出された複数の前記パート各々に対応する前記部分楽譜ごとに、前記パートに対応する前記部分楽譜を示す複数の画像が前記間隔で配置された前記集約画像データを生成してもよい。また、集約処理部55は、抽出処理部54によって抽出された複数の前記パート各々に対応する前記部分楽譜を示す複数の画像が前記間隔で配置された前記集約画像データを生成する処理を実行するか、抽出処理部54によって抽出された複数の前記パート各々に対応する前記部分楽譜ごとに、前記パートに対応する前記部分楽譜を示す複数の画像が前記間隔で配置された前記集約画像データを生成する処理を実行するかを、操作表示部6に対するユーザーの操作に応じて切り替えてもよい。   When the partial score corresponding to each of the plurality of parts is extracted by the extraction processing unit 54, the aggregation processing unit 55 sets the part for each of the partial scores corresponding to the plurality of extracted parts. A plurality of images representing the corresponding partial score may be integrated into one image. For example, for each of the partial scores corresponding to each of the plurality of parts extracted by the extraction processing unit 54, the aggregation processing unit 55 arranges a plurality of images indicating the partial scores corresponding to the part at the intervals. The aggregated image data may be generated. Also, the aggregation processing unit 55 executes processing for generating the aggregated image data in which a plurality of images indicating the partial score corresponding to each of the plurality of parts extracted by the extraction processing unit 54 are arranged at the intervals. For each of the partial scores corresponding to each of the plurality of parts extracted by the extraction processing unit 54, the aggregation image data in which a plurality of images indicating the partial scores corresponding to the part are arranged at the intervals is generated Depending on the user's operation on the operation display unit 6, whether to execute the process may be switched.

出力処理部56は、集約処理部55によって生成された前記集約画像データを出力する。   The output processing unit 56 outputs the aggregated image data generated by the aggregation processing unit 55.

例えば、出力処理部56は、画像形成部3を用いて集約処理部55によって生成された前記集約画像データを印刷する。   For example, the output processing unit 56 prints the aggregated image data generated by the aggregation processing unit 55 using the image forming unit 3.

また、出力処理部56は、集約処理部55によって生成された前記集約画像データを記憶部7に格納してもよい。また、出力処理部56は、集約処理部55によって生成された前記集約画像データを外部の情報処理装置に送信してもよい。   Further, the output processing unit 56 may store the aggregated image data generated by the aggregation processing unit 55 in the storage unit 7. Further, the output processing unit 56 may transmit the aggregated image data generated by the aggregation processing unit 55 to an external information processing apparatus.

[パート集約処理]
以下、図3を参照しつつ、画像処理装置10において制御部5により実行されるパート集約処理の手順の一例と共に、本発明における画像処理方法の手順について説明する。ここで、ステップS11、S12・・・は、制御部5により実行される処理手順(ステップ)の番号を表している。なお、制御部5は、操作表示部6に対して前記パート集約処理の実行を指示する旨のユーザーの操作が行われた場合に、前記パート集約処理を実行する。
Part consolidation processing
Hereinafter, the procedure of the image processing method in the present invention will be described together with an example of the procedure of the part aggregation process performed by the control unit 5 in the image processing apparatus 10 with reference to FIG. 3. Here, steps S11, S12,... Indicate the numbers of the processing procedures (steps) executed by the control unit 5. The control unit 5 executes the part grouping process when a user's operation of instructing the operation display unit 6 to execute the part grouping process is performed.

<ステップS11>
まず、ステップS11において、制御部5は、前記楽譜の画像データを取得する。ここで、ステップS11の処理は、制御部5の取得処理部51により実行される。
<Step S11>
First, in step S11, the control unit 5 acquires the image data of the score. Here, the process of step S11 is executed by the acquisition processing unit 51 of the control unit 5.

例えば、制御部5は、ADF1の前記原稿セット部に原稿が載置されている場合には、ADF1及び画像読取部2を用いて、前記原稿セット部に載置された原稿から前記楽譜の画像データを読み取る。また、制御部5は、画像読取部2の前記原稿台に原稿が載置されている場合には、画像読取部2を用いて、前記原稿台に載置された原稿から前記楽譜の画像データを読み取る。例えば、ステップS11では、制御部5によって図4に示される楽譜の画像データD1が取得される。   For example, when a document is placed on the document setting unit of the ADF 1, the control unit 5 uses the ADF 1 and the image reading unit 2 to generate an image of the score from the document placed on the document setting unit Read the data Further, when the document is placed on the document table of the image reading unit 2, the control unit 5 uses the image reading unit 2 to generate image data of the score from the document placed on the document table Read For example, in step S11, the control unit 5 acquires the image data D1 of the score shown in FIG.

<ステップS12>
ステップS12において、制御部5は、ステップS11で取得された前記楽譜の画像データに基づいて、前記パート各々に対応する前記部分楽譜を検出する。ここに、ステップS12の処理が、本発明における第1ステップの一例であって、制御部5の第1検出処理部52により実行される。
<Step S12>
In step S12, the control unit 5 detects the partial score corresponding to each of the parts based on the image data of the score obtained in step S11. Here, the process of step S12 is an example of the first step in the present invention, and is executed by the first detection processing unit 52 of the control unit 5.

例えば、制御部5は、まず、ステップS11で取得された前記楽譜の画像データに基づいて、前記楽譜の画像データに含まれる前記五線を検出する。例えば、制御部5は、前記楽譜の画像データに対して、前記二値化処理を実行する。そして、制御部5は、前記二値化処理の実行結果に基づいて、前記楽譜の画像データに含まれる前記五線を検出する。   For example, the control unit 5 first detects the staff included in the image data of the score based on the image data of the score acquired in step S11. For example, the control unit 5 executes the binarization process on the image data of the score. Then, the control unit 5 detects the staff included in the image data of the score based on the execution result of the binarization processing.

次に、制御部5は、ステップS11で取得された前記楽譜の画像データに基づいて、前記楽譜の画像データに含まれる前記パートの名称を検出する。例えば、制御部5は、前記楽譜の画像データに対して、前記OCR処理を実行する。そして、制御部5は、前記OCR処理の実行結果に基づいて、前記楽譜の画像データに含まれる前記パートの名称を検出する。   Next, the control unit 5 detects the name of the part included in the image data of the score based on the image data of the score acquired in step S11. For example, the control unit 5 executes the OCR process on the image data of the score. Then, the control unit 5 detects the name of the part included in the image data of the score based on the execution result of the OCR processing.

次に、制御部5は、検出された前記パートの名称が、前記特殊パートであるか否かを判断する。   Next, the control unit 5 determines whether the name of the detected part is the special part.

次に、制御部5は、検出された前記パートの名称に対応する前記五線を特定する。例えば、制御部5は、前記パートの名称が前記特殊パートではないと判断した場合は、前記パートの名称の右方に配置された一つの前記五線を、前記パートの名称に対応する前記五線として特定する。一方、制御部5は、前記パートの名称が前記特殊パートであると判断した場合は、前記パートの名称の右方に配置された複数の前記五線を、前記パートの名称に対応する前記五線として特定する。   Next, the control unit 5 specifies the staff corresponding to the name of the detected part. For example, when the control unit 5 determines that the name of the part is not the special part, the five score lines corresponding to the name of the part correspond to the one staff line disposed to the right of the name of the part. Identify as a line. On the other hand, when the control unit 5 determines that the name of the part is the special part, a plurality of the staff arranged on the right of the name of the part corresponds to the five corresponding to the name of the part Identify as a line.

そして、制御部5は、前記パートの名称各々に対応して特定された前記五線を含む領域を、前記パートに対応する前記部分楽譜として特定する。例えば、ステップS12では、制御部5によって図4に示される部分楽譜P1〜P5が検出される。   Then, the control unit 5 specifies an area including the staff identified corresponding to each name of the part as the partial score corresponding to the part. For example, in step S12, the control unit 5 detects the partial scores P1 to P5 shown in FIG.

<ステップS13>
ステップS13において、制御部5は、ステップS11で取得された前記楽譜の画像データに基づいて、前記特定演奏記号を検出する。ここで、ステップS13の処理は、制御部5の第2検出処理部53により実行される。なお、ステップS13の処理は省略されてもよい。
<Step S13>
In step S13, the control unit 5 detects the specific musical symbol based on the image data of the musical score acquired in step S11. Here, the process of step S13 is executed by the second detection processing unit 53 of the control unit 5. Note that the process of step S13 may be omitted.

例えば、制御部5は、ステップS12で実行された前記OCR処理の実行結果に基づいて、前記楽譜の画像データから前記特定演奏記号を検出する。例えば、ステップS13では、制御部5によって図4に示される特定演奏記号A1が検出される。   For example, the control unit 5 detects the specific musical symbol from the image data of the musical score, based on the execution result of the OCR processing performed in step S12. For example, in step S13, the control unit 5 detects the specific musical symbol A1 shown in FIG.

<ステップS14>
ステップS14において、制御部5は、操作表示部6に前記選択画面を表示させる。例えば、ステップS14では、制御部5によって図5に示される選択画面X1が操作表示部6に表示される。
<Step S14>
In step S14, the control unit 5 causes the operation display unit 6 to display the selection screen. For example, in step S14, the control unit 5 causes the operation display unit 6 to display the selection screen X1 shown in FIG.

<ステップS15>
ステップS15において、制御部5は、ステップS14で操作表示部6に表示された前記選択画面において、ステップS12で検出された複数の前記パート各々に対応する前記部分楽譜から一又は複数の前記パートに対応する前記部分楽譜を選択するユーザーの操作が行われたか否かを判断する。例えば、ステップS15では、図5に示される選択画面X1において、カーソルA2が表示された状態で操作キーK1が操作されたか否かが判断される。
<Step S15>
In step S15, in the selection screen displayed on the operation display unit 6 in step S14, the control unit 5 selects one or more of the partial scores corresponding to the plurality of parts detected in step S12. It is determined whether or not the user's operation of selecting the corresponding partial score has been performed. For example, in step S15, it is determined whether or not the operation key K1 has been operated with the cursor A2 displayed on the selection screen X1 shown in FIG.

ここで、制御部5は、前記選択画面において、ステップS12で検出された複数の前記パート各々に対応する前記部分楽譜から一又は複数の前記パートに対応する前記部分楽譜を選択するユーザーの操作が行われたと判断すると(S15のYes側)、処理をステップS16に移行させる。また、ステップS12で検出された複数の前記パート各々に対応する前記部分楽譜から一又は複数の前記パートに対応する前記部分楽譜を選択するユーザーの操作が行われていなければ(S15のNo側)、制御部5は、ステップS15で一又は複数の前記パートに対応する前記部分楽譜を選択するユーザーの操作を待ち受ける。   Here, on the selection screen, the control unit 5 performs a user operation of selecting the partial score corresponding to one or more of the parts from the partial score corresponding to each of the plurality of parts detected in step S12. If it is determined that the process has been performed (Yes in S15), the process proceeds to step S16. In addition, if the user's operation to select the partial score corresponding to one or more of the parts from the partial score corresponding to each of the plurality of parts detected in step S12 is not performed (No side of S15) The control unit 5 waits for the user's operation of selecting the partial score corresponding to one or more of the parts in step S15.

<ステップS16>
ステップS16において、制御部5は、前記選択画面において行われたユーザーの操作に応じて、ステップS12で検出された複数の前記パート各々に対応する前記部分楽譜から一又は複数の前記対象パートに対応する前記部分楽譜を抽出する。ここに、ステップS14〜ステップS16までの処理が、本発明における第2ステップの一例であって、制御部5の抽出処理部54により実行される。例えば、ステップS16では、制御部5によって図5に示される部分楽譜P5が抽出される。
<Step S16>
In step S16, the control unit 5 responds to one or more target parts from the partial score corresponding to each of the plurality of parts detected in step S12 according to the user operation performed on the selection screen. Extract the partial score. Here, the processing from step S14 to step S16 is an example of the second step in the present invention, and is executed by the extraction processing unit 54 of the control unit 5. For example, in step S16, the control unit 5 extracts the partial score P5 shown in FIG.

<ステップS17>
ステップS17において、制御部5は、ステップS16で抽出された前記パートに対応する前記部分楽譜を示す複数の画像を一つの画像に集約する。ここに、ステップS17の処理が、本発明における第3ステップの一例であって、制御部5の集約処理部55により実行される。
<Step S17>
In step S17, the control unit 5 combines a plurality of images indicating the partial score corresponding to the part extracted in step S16 into one image. Here, the process of step S17 is an example of the third step in the present invention, and is executed by the aggregation processing unit 55 of the control unit 5.

例えば、制御部5は、ステップS16で抽出された前記パートに対応する前記部分楽譜を示す複数の画像が前記間隔で配置された前記集約画像データを生成する。   For example, the control unit 5 generates the aggregated image data in which a plurality of images indicating the partial score corresponding to the part extracted in step S16 are arranged at the intervals.

ここで、制御部5は、ステップS16で抽出された前記パートに対応する前記部分楽譜を示す複数の画像、及びステップS13で検出された前記特定演奏記号を一つの画像に集約する。これにより、前記楽譜に含まれる全ての前記パートの演奏に関わる前記特定演奏記号が、前記集約画像データに含められる。従って、ユーザーは、画像処理装置10から出力される前記集約画像データにおいて、自分が担当する前記パートに加えて、前記特定演奏記号を参照することが可能である。   Here, the control unit 5 combines a plurality of images indicating the partial score corresponding to the part extracted in step S16 and the specific performance symbol detected in step S13 into one image. Thereby, the specific musical symbols relating to the performance of all the parts included in the score are included in the aggregated image data. Therefore, the user can refer to the specific musical symbol in addition to the part for which he is in charge in the aggregated image data output from the image processing apparatus 10.

例えば、ステップS16で図5に示される部分楽譜P5が抽出された場合、ステップS17では、制御部5によって図6に示される集約画像データD2が生成される。また、ステップS16で図5に示される部分楽譜P1及び部分楽譜P5が抽出された場合、ステップS17では、制御部5によって図7に示される集約画像データD3が生成される。ここで、集約画像データD3では、部分楽譜P1の色と、部分楽譜P5の色とが互いに異なる色とされる。これにより、集約画像データD3に含まれる部分楽譜P1及び部分楽譜P5の識別が容易となる。   For example, when the partial score P5 shown in FIG. 5 is extracted in step S16, the integrated image data D2 shown in FIG. 6 is generated by the control unit 5 in step S17. Further, when the partial score P1 and the partial score P5 shown in FIG. 5 are extracted in step S16, the integrated image data D3 shown in FIG. 7 is generated by the control unit 5 in step S17. Here, in the consolidated image data D3, the color of the partial score P1 and the color of the partial score P5 are different from each other. This facilitates identification of the partial score P1 and the partial score P5 included in the aggregated image data D3.

<ステップS18>
ステップS18において、制御部5は、ステップS17で生成された前記集約画像データを出力する。ここで、ステップS18の処理は、制御部5の出力処理部56により実行される。
<Step S18>
In step S18, the control unit 5 outputs the integrated image data generated in step S17. Here, the process of step S18 is executed by the output processing unit 56 of the control unit 5.

例えば、制御部5は、画像形成部3を用いてステップS17で生成された前記集約画像データを印刷する。例えば、ステップS18では、制御部5によってステップS17で生成された集約画像データD2又は集約画像データD3が印刷される。   For example, the control unit 5 uses the image forming unit 3 to print the aggregated image data generated in step S17. For example, in step S18, the consolidated image data D2 or aggregated image data D3 generated in step S17 is printed by the control unit 5.

なお、制御部5は、選択画面X1(図5参照)において操作キーK2が操作された場合は、楽譜の画像データD1をそのままの状態で印刷してよい。   When the operation key K2 is operated on the selection screen X1 (see FIG. 5), the control unit 5 may print the image data D1 of the score as it is.

このように、画像処理装置10では、複数の前記パートを含む前記楽譜の画像データに基づいて前記パート各々に対応する前記部分楽譜が検出されて、検出された複数の前記パート各々に対応する前記部分楽譜からユーザーの操作に応じて抽出された一又は複数の前記パートに対応する前記部分楽譜を示す複数の画像が一つの画像に集約される。従って、複数の前記パートを含む前記楽譜の利便性を向上させることが可能である。   As described above, in the image processing apparatus 10, the partial score corresponding to each of the parts is detected based on the image data of the score including the plurality of parts, and the partial score corresponding to each of the detected plurality of parts is detected. A plurality of images indicating the partial score corresponding to one or more of the parts extracted from the partial score in response to a user's operation are integrated into one image. Therefore, it is possible to improve the convenience of the score including the plurality of parts.

1 ADF
2 画像読取部
3 画像形成部
4 給紙部
5 制御部
6 操作表示部
7 記憶部
10 画像処理装置
51 取得処理部
52 第1検出処理部
53 第2検出処理部
54 抽出処理部
55 集約処理部
56 出力処理部
1 ADF
2 image reading unit 3 image forming unit 4 sheet feeding unit 5 control unit 6 operation display unit 7 storage unit 10 image processing apparatus 51 acquisition processing unit 52 first detection processing unit 53 second detection processing unit 54 extraction processing unit 55 aggregation processing unit 56 Output processing unit

Claims (6)

複数のパートを含む楽譜の画像データに基づいて前記パート各々に対応する部分楽譜を検出する第1検出処理部と、
前記第1検出処理部によって検出された複数の前記部分楽譜を含む選択画面を表示させて、当該選択画面におけるいずれか複数の前記部分楽譜を選択するユーザーの操作に応じて選択された複数の前記部分楽譜を抽出する抽出処理部と、
前記抽出処理部によって抽出された複数の前記部分楽譜を示す複数の画像を一つの画像に集約する集約処理部と、
を備え、
前記第1検出処理部は、前記楽譜に含まれる五線及び前記パートの名称に基づいて前記パート各々に対応する前記部分楽譜を検出し、前記パートの名称が予め定められた特殊パートではない場合は当該パートの名称から予め定められた特定方向に配置された一つの前記五線を含み他の前記五線を含まない領域を当該パートに対応する前記部分楽譜として検出し、前記パートの名称が前記特殊パートである場合は当該パートの名称から前記特定方向に当該パートの名称に対応付けられて配置された当該パートに対応付けられた数の前記五線を含み他の前記五線を含まない領域を当該パートに対応する前記部分楽譜として検出する画像処理装置。
A first detection processing unit that detects a partial score corresponding to each of the parts based on image data of a score including a plurality of parts;
A plurality of the above selected according to the user's operation of selecting any of the plurality of partial scores on the selection screen by displaying a selection screen including the plurality of partial scores detected by the first detection processing unit. An extraction processing unit that extracts a partial score;
An aggregation processing unit that aggregates a plurality of images indicating the plurality of partial scores extracted by the extraction processing unit into one image;
Equipped with
The first detection processing unit detects the partial score corresponding to each of the parts based on the score included in the score and the name of the part, and the name of the part is not a predetermined special part An area including one of the staff arranged in a specific direction predetermined from the name of the part and not including the other staves is detected as the partial score corresponding to the part, and the name of the part is When it is the special part, it includes the number of the staff corresponding to the part arranged corresponding to the name of the part in the specific direction from the name of the part and does not include the other staves An image processing apparatus that detects an area as the partial score corresponding to the part.
前記集約処理部は、前記抽出処理部によって複数の前記パート各々に対応する前記部分楽譜が抽出された場合に、抽出された複数の前記パート各々に対応する前記部分楽譜を示す複数の画像を一つの画像に集約すると共に、抽出された複数の前記パート各々に対応する前記部分楽譜の色を互いに異なる色に変化させる請求項1に記載の画像処理装置。   When the extraction processing unit extracts the partial score corresponding to each of the plurality of parts, the aggregation processing unit extracts one of a plurality of images indicating the partial score corresponding to each of the plurality of extracted parts. The image processing apparatus according to claim 1, wherein the image processing apparatus according to claim 1, wherein the partial score corresponding to each of the plurality of extracted parts is changed to a different color while being integrated into one image. 前記楽譜の画像データに基づいて前記楽譜に含まれる演奏記号のうち予め定められた特定演奏記号を検出する第2検出処理部を更に備え、
前記集約処理部は、前記抽出処理部によって抽出された前記パートに対応する前記部分楽譜を示す複数の画像及び前記第2検出処理部によって検出された前記特定演奏記号を一つの画像に集約する請求項1又は2に記載の画像処理装置。
And a second detection processing unit that detects a predetermined specific performance symbol from among the performance symbols included in the score based on the image data of the score.
The aggregation processing unit consolidates a plurality of images indicating the partial score corresponding to the part extracted by the extraction processing unit and the specific performance symbol detected by the second detection processing unit into one image. An image processing apparatus according to claim 1 or 2.
原稿から画像データを読み取る画像読取部と、
前記画像読取部を用いて前記原稿から前記楽譜の画像データを取得する取得処理部と、
を更に備える請求項1〜3のいずれかに記載の画像処理装置。
An image reading unit that reads image data from a document;
An acquisition processing unit that acquires image data of the score from the document using the image reading unit;
The image processing apparatus according to any one of claims 1 to 3, further comprising:
画像データに基づいて画像を形成する画像形成部と、
前記画像形成部を用いて前記集約処理部によって集約された画像を印刷する出力処理部と、
を更に備える請求項1〜4のいずれかに記載の画像処理装置。
An image forming unit that forms an image based on image data;
An output processing unit that prints the images aggregated by the aggregation processing unit using the image forming unit;
The image processing apparatus according to any one of claims 1 to 4, further comprising:
複数のパートを含む楽譜の画像データに基づいて前記パート各々に対応する部分楽譜を検出する第1ステップと、
前記第1ステップによって検出された複数の前記部分楽譜を含む選択画面を表示させて、当該選択画面におけるいずれか複数の前記部分楽譜を選択するユーザーの操作に応じて選択された複数の前記部分楽譜を抽出する第2ステップと、
前記第2ステップによって抽出された複数の前記部分楽譜を示す複数の画像を一つの画像に集約する第3ステップと、
を含み、
前記第1ステップでは、前記楽譜に含まれる五線及び前記パートの名称に基づいて前記パート各々に対応する前記部分楽譜が検出され、前記パートの名称が予め定められた特殊パートではない場合は当該パートの名称から予め定められた特定方向に配置された一つの前記五線を含み他の前記五線を含まない領域が当該パートに対応する前記部分楽譜として検出され、前記パートの名称が前記特殊パートである場合は当該パートの名称から前記特定方向に当該パートの名称に対応付けられて配置された当該パートに対応付けられた数の前記五線を含み他の前記五線を含まない領域が当該パートに対応する前記部分楽譜として検出される画像処理方法。
A first step of detecting a partial score corresponding to each of the parts based on image data of a score including a plurality of parts;
A plurality of the partial scores selected according to the user's operation of displaying a selection screen including the plurality of partial scores detected in the first step and selecting any of the plurality of partial scores on the selection screen The second step of extracting
A third step of combining a plurality of images indicating the plurality of partial scores extracted in the second step into one image;
Including
In the first step, the partial score corresponding to each of the parts is detected based on the score included in the score and the name of the part, and if the name of the part is not a predetermined special part An area including one of the staff arranged in a specific direction predetermined from the part name and not including the other staff is detected as the partial score corresponding to the part, and the part name is the special When the part is a part, an area including the number of the staff corresponding to the part arranged in correspondence with the name of the part in the specific direction from the name of the part and not including the other staff An image processing method detected as the partial score corresponding to the part.
JP2016041765A 2016-03-04 2016-03-04 Image processing apparatus, image processing method Expired - Fee Related JP6547658B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016041765A JP6547658B2 (en) 2016-03-04 2016-03-04 Image processing apparatus, image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016041765A JP6547658B2 (en) 2016-03-04 2016-03-04 Image processing apparatus, image processing method

Publications (2)

Publication Number Publication Date
JP2017158127A JP2017158127A (en) 2017-09-07
JP6547658B2 true JP6547658B2 (en) 2019-07-24

Family

ID=59810482

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016041765A Expired - Fee Related JP6547658B2 (en) 2016-03-04 2016-03-04 Image processing apparatus, image processing method

Country Status (1)

Country Link
JP (1) JP6547658B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022041107A (en) * 2020-08-31 2022-03-11 富士フイルムビジネスイノベーション株式会社 Print control device and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3608674B2 (en) * 1995-09-29 2005-01-12 株式会社河合楽器製作所 Score recognition device
JP3801939B2 (en) * 2002-03-27 2006-07-26 株式会社リコー Music score editing device
JP5761237B2 (en) * 2013-03-15 2015-08-12 コニカミノルタ株式会社 Information display device, information editing method, and information editing program

Also Published As

Publication number Publication date
JP2017158127A (en) 2017-09-07

Similar Documents

Publication Publication Date Title
US9191532B2 (en) Image display device and computer-readable storage medium storing a display control program
JP2018130889A (en) Image forming apparatus and image forming method
JP6547658B2 (en) Image processing apparatus, image processing method
JP2018056797A (en) Image processing device
JP6524941B2 (en) Image processing apparatus, image processing method
US20140160499A1 (en) Mage forming apparatus, control method thereof, and storage medium
JP6583164B2 (en) Image forming apparatus
JP7505236B2 (en) Image processing device and image processing method
JP5507509B2 (en) Mark detection device
JP6269298B2 (en) Image forming apparatus
JP2019208178A (en) Image forming apparatus
JP6074968B2 (en) Image processing apparatus and control program
JP5746602B2 (en) Image processing apparatus and image processing method
JP7524611B2 (en) Image forming device
US20150146254A1 (en) Image Processing Apparatus and Image Processing Method That Ensures Effective Search
JP7151322B2 (en) Image processing device and image processing method
JP2010028631A (en) Image forming apparatus, method ,and program
JP5802782B2 (en) Mark detection device
JP6908001B2 (en) Information processing system, information processing device, image forming device
JP3977834B2 (en) Image forming apparatus
JP2024149243A (en) Image forming device
JP2016218638A (en) Electronics
JP6141237B2 (en) Image processing apparatus and image processing method
JP4242828B2 (en) Image forming apparatus and scanner apparatus
JP6614744B2 (en) Scan service terminal, scan service system, scan information providing method, and scan information providing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190528

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190610

R150 Certificate of patent or registration of utility model

Ref document number: 6547658

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees