JP2019213190A - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP2019213190A
JP2019213190A JP2019016307A JP2019016307A JP2019213190A JP 2019213190 A JP2019213190 A JP 2019213190A JP 2019016307 A JP2019016307 A JP 2019016307A JP 2019016307 A JP2019016307 A JP 2019016307A JP 2019213190 A JP2019213190 A JP 2019213190A
Authority
JP
Japan
Prior art keywords
image
document
luminance
processing apparatus
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019016307A
Other languages
Japanese (ja)
Inventor
純也 荒川
Junya Arakawa
純也 荒川
航也 島村
Koya Shimamura
航也 島村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US16/415,499 priority Critical patent/US11308318B2/en
Priority to CN201910463948.3A priority patent/CN110557515B/en
Publication of JP2019213190A publication Critical patent/JP2019213190A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Facsimiles In General (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

To make it easy to detect a document area from a scan image by generating the scan image in which a signal on a high luminance side remains when scanning a document, and to make it possible to store the document at brightness suitable for storage and transmission by adjusting brightness of the scan image.SOLUTION: The image processing apparatus is configured to: generate a first image whose luminance is adjusted so that a signal value on a high luminance side when a document is read remains; and detect a position of an area corresponding to the document included in the generated first image. Then, a second image is generated by adjusting luminance of pixels included in the first image to be high. A document image is cut out from the generated second image on the basis of the detected position of the document area.SELECTED DRAWING: Figure 7

Description

本発明は、原稿台に載置された原稿を読み取ることで得られた画像から、当該原稿に対応する領域を切り出し可能な画像処理装置、画像処理方法、及びプログラムに関するものである。   The present invention relates to an image processing apparatus, an image processing method, and a program that can cut out an area corresponding to a document from an image obtained by reading a document placed on a document table.

従来から、フラットベッドスキャナの原稿台上に、帳票文書や、非定型面積の領収書や、名刺、カードなどの原稿を複数枚並べて、まとめてスキャンし、生成されたスキャン画像から原稿ごとの画像を切り出すマルチクロップ処理が知られている。   Conventionally, multiple documents such as form documents, receipts of non-standard areas, business cards, cards, etc. are arranged on the platen of the flatbed scanner, scanned together, and images for each document are generated from the generated scanned images. A multi-crop process for cutting out a video is known.

マルチクロップ処理において、読み取られる帳票や領収書、名刺、カード等の原稿は白い用紙に文字や画像が印刷されたものである場合が多い。また、原稿を押さえるための原稿台カバー(圧板)は通常白色であるので、スキャン画像において原稿の無い箇所(背景)は、原稿台カバーの白色となる。したがって、スキャン画像に対してマルチクロップ処理を行う際、白色の原稿と白色の背景との輝度差が小さく、原稿の縁の検出に失敗する場合がある。そこで、原稿台をスキャンして得られたスキャン画像から白い原稿の縁を検出しやすくする方法が検討されている。たとえば、特許文献1では、原稿をスキャナの原稿台に載置した後に、その原稿を黒いシートで覆ってスキャンを実行することで、原稿以外の領域が黒くなるようにして原稿の縁を検出しやすくしている。また、特許文献2では、原稿台カバーを開いたままスキャンを実行することで、原稿が載置されていない箇所が黒く出力されるようにし、白い原稿の縁を検出しやすくしている。   In multi-crop processing, documents such as forms, receipts, business cards, and cards that are read are often printed on white paper with characters and images. Further, since the document table cover (pressure plate) for pressing the document is usually white, a portion (background) where there is no document in the scanned image is white on the document table cover. Therefore, when multi-crop processing is performed on a scanned image, the brightness difference between the white document and the white background is small, and detection of the edge of the document may fail. Therefore, a method for making it easy to detect the edge of a white document from a scanned image obtained by scanning the document table has been studied. For example, in Patent Document 1, after placing a document on a document table of a scanner, the document is covered with a black sheet, and scanning is performed to detect the edge of the document so that the area other than the document becomes black. It is easy. Further, in Patent Document 2, scanning is executed with the document table cover open, so that a portion where no document is placed is output in black, and the edge of a white document is easily detected.

特開2003−338920号公報JP 2003-338920 A 特開2017−103593号公報JP 2017-103593 A

しかしながら、特許文献1に記載の方法では、ユーザが原稿を原稿台に並べた後に更に黒いシートを上に重ねる必要があり、ユーザの手間がかかる。また、特許文献2に記載の方法では、原稿台カバーを開けているためスキャン実行時の照射光がユーザの目に入ってしまい、ユーザにとっては眩しく不快感が生じる。さらに、原稿台カバーを開けていると、原稿を押さえることができないため、カールしている原稿など(例えばレシート)では、原稿台から原稿の一部が浮いてしまい、スキャン画像の画質の劣化の原因にもなりうる。   However, in the method described in Patent Document 1, it is necessary for the user to stack a black sheet on the document after arranging the documents on the document table, which takes time and effort for the user. Further, in the method described in Patent Document 2, since the document table cover is opened, the irradiation light at the time of executing the scan enters the eyes of the user, which is dazzling for the user. Furthermore, since the original cannot be pressed when the original table cover is opened, a part of the original floats from the original table in a curled original or the like (for example, a receipt), and the image quality of the scanned image is deteriorated. It can also be a cause.

上記課題を解決するために、本発明は、読取手段で原稿を読み取った際の高輝度側の信号値が残るように輝度を調整した第1の画像を生成する第1の調整手段と、前記第1の調整手段で生成された第1の画像内に含まれる前記原稿に対応する領域の位置を検出する検出手段と、前記第1の画像に含まれる画素の輝度が高くなるように調整することにより第2の画像を生成する第2の調整手段と、前記検出手段で検出された前記原稿に対応する領域の位置に基づいて、前記第2の調整手段で生成された第2の画像から、前記原稿に対応する原稿画像を切り出す切り出し手段と、を有することを特徴とする。   In order to solve the above-described problem, the present invention provides a first adjustment unit that generates a first image whose luminance is adjusted such that a signal value on the high luminance side when a document is read by the reading unit remains, Detection means for detecting the position of an area corresponding to the original included in the first image generated by the first adjustment means, and adjustment is performed so that the luminance of the pixels included in the first image is increased. Based on the position of the area corresponding to the original detected by the detection means and the second adjustment means for generating the second image, the second adjustment means generates the second image from the second image generated by the second adjustment means. And a cutout means for cutting out a document image corresponding to the document.

本発明によれば、マルチクロップ処理を行う場合は、原稿をスキャンする際に高輝度側の信号が残るようにしたスキャン画像を生成することにより、スキャン画像から原稿の領域を検出しやすくし、さらに、該スキャン画像の輝度を調整することにより保存や送信に適した明るさで原稿の画像を保存することができる。   According to the present invention, when performing multi-crop processing, it is easy to detect a document area from a scan image by generating a scan image in which a signal on the high luminance side remains when scanning a document, Further, by adjusting the brightness of the scanned image, it is possible to save the original image with brightness suitable for storage and transmission.

本発明の第1の実施例に関する適用可能なシステムの全体構成を示す図である。1 is a diagram illustrating an overall configuration of an applicable system according to a first embodiment of the present invention. 本発明の第1の実施例に関する画像読取装置のハードウェア構成例を示す図である。1 is a diagram illustrating a hardware configuration example of an image reading apparatus according to a first embodiment of the present invention. 本発明の第1の実施例に関する画像処理機能全体のシーケンスを示す図である。It is a figure which shows the sequence of the whole image processing function regarding 1st Example of this invention. 本発明の第1の実施例に関するUI表示を示す図である。It is a figure which shows UI display regarding 1st Example of this invention. 本発明の第1の実施例に関するサンプル画像など説明を行うための図である。It is a figure for demonstrating the sample image etc. regarding 1st Example of this invention. 本発明の第1の実施例に関するゲイン調整による正規化処理のフローチャートを示す図である。It is a figure which shows the flowchart of the normalization process by the gain adjustment regarding 1st Example of this invention. 本発明の第1の実施例に関するゲイン調整による正規化処理を説明する図である。It is a figure explaining the normalization process by the gain adjustment regarding 1st Example of this invention. 本発明の第1の実施例に関する画像処理機能全体のフローチャートを示す図である。It is a figure which shows the flowchart of the whole image processing function regarding 1st Example of this invention. 本発明の第1の実施例に関するマルチクロップ座標検出処理のフローチャートを示す図である。It is a figure which shows the flowchart of the multicrop coordinate detection process regarding 1st Example of this invention. 本発明の第1の実施例に関するマルチクロップ座標検出処理のサンプル画像など説明を行うための図である。It is a figure for demonstrating the sample image etc. of the multi crop coordinate detection process regarding 1st Example of this invention. 本発明の第1の実施例に関する輝度調整処理のフローチャートを示す図である。It is a figure which shows the flowchart of the luminance adjustment process regarding 1st Example of this invention. 本発明の第1の実施例に関する輝度調整処理を説明する図である。It is a figure explaining the brightness | luminance adjustment process regarding the 1st Example of this invention. 本発明の第1の実施例に関する輝度調整処理を説明する図である。It is a figure explaining the brightness | luminance adjustment process regarding the 1st Example of this invention. 本発明の第1の実施例に関する画像クロッピング処理のフローチャートを示す図である。It is a figure which shows the flowchart of the image cropping process regarding 1st Example of this invention. 本発明の第1の実施例に関する画像クロッピング処理のサンプル画像など説明を行うための図である。It is a figure for demonstrating the sample image etc. of the image cropping process regarding 1st Example of this invention. 本発明の第2の実施例に関する画像処理機能全体のフローチャートを示す図である。It is a figure which shows the flowchart of the whole image processing function regarding the 2nd Example of this invention. 本発明の第2の実施例に関する画像処理機能の設定値を示すテーブルの一例を示す図である。It is a figure which shows an example of the table which shows the setting value of the image processing function regarding 2nd Example of this invention. 本発明の第3の実施例に関する画像処理機能全体のシーケンスを示す図である。It is a figure which shows the sequence of the whole image processing function regarding the 3rd Example of this invention. 輝度調整処理の2つ目の手法を説明するフローチャートを示す図である。It is a figure which shows the flowchart explaining the 2nd method of a brightness | luminance adjustment process. 3次元LUTの構成の概念図である。It is a conceptual diagram of a structure of a three-dimensional LUT. 3次元LUTと入力画素信号Pとの関係を示す図である。It is a figure which shows the relationship between a three-dimensional LUT and the input pixel signal P. 3次元LUTを用いた処理の流れを示す図である。It is a figure which shows the flow of a process using 3D LUT. 輝度調整処理の具体例を示す図である。It is a figure which shows the specific example of a brightness | luminance adjustment process.

以下、図面を用いて本発明に係る実施形態を詳細に説明する。ただし、この実施形態に記載されている構成要素はあくまで例示であり、この発明の範囲をそれらに限定する趣旨のものではない。   Hereinafter, embodiments according to the present invention will be described in detail with reference to the drawings. However, the components described in this embodiment are merely examples, and are not intended to limit the scope of the present invention thereto.

(実施例1)
<システム構成>
図1は本実施例を適用可能なシステムの全体構成を示す図である。
(Example 1)
<System configuration>
FIG. 1 is a diagram showing the overall configuration of a system to which this embodiment can be applied.

図1に示すように、画像処理装置100、PC/サーバー端末101はイーサネット(登録商標)や無線LANなどからなるLAN104に接続され、Internet105に接続されている。また、モバイル端末103は公衆無線通信網102などからInternet105に接続されている。画像処理装置100、PC/サーバー端末101及び、モバイル端末103はLAN104又は、公衆無線通信網102からInternet105に接続され、相互に通信可能となっている。なお、PC/サーバー端末101とモバイル端末103に関しては、どちらか一方がある構成でも良いし、画像処理装置100のみがPC/サーバー端末101やモバイル端末103などが実施する処理を行っても良い。   As shown in FIG. 1, the image processing apparatus 100 and the PC / server terminal 101 are connected to a LAN 104 such as Ethernet (registered trademark) or a wireless LAN, and are connected to the Internet 105. The mobile terminal 103 is connected to the Internet 105 from the public wireless communication network 102 or the like. The image processing apparatus 100, the PC / server terminal 101, and the mobile terminal 103 are connected to the Internet 105 from the LAN 104 or the public wireless communication network 102, and can communicate with each other. Note that either the PC / server terminal 101 or the mobile terminal 103 may be configured, or only the image processing apparatus 100 may perform processing performed by the PC / server terminal 101, the mobile terminal 103, or the like.

画像処理装置100は操作部、スキャナ部及び、プリンタ部を有する複合機である。本実施例のシステムで、画像処理装置100は、1枚または複数枚の名刺や免許証、ハガキなど原稿を読み取るスキャン端末として利用される。また、画像処理装置100は、原稿を読み取って得られたスキャン画像から、原稿ごとの原稿画像を抽出するマルチクロップ処理を実施する。さらに、画像処理装置100は、表示部や、タッチパネルやハードボタンなどの操作部を有し、エラー通知や指示通知などの表示や、スキャン操作や設定操作などの操作を行う。   The image processing apparatus 100 is a multifunction machine having an operation unit, a scanner unit, and a printer unit. In the system of the present embodiment, the image processing apparatus 100 is used as a scan terminal that reads one or more business cards, licenses, postcards, and other documents. In addition, the image processing apparatus 100 performs multi-crop processing that extracts a document image for each document from a scanned image obtained by reading the document. Further, the image processing apparatus 100 includes a display unit and operation units such as a touch panel and hard buttons, and performs operations such as display of error notifications and instruction notifications, scan operations, and setting operations.

PC/サーバー端末101は、画像処理装置100で生成した画像を表示する。また、PC/サーバー端末101は、画像処理装置100が生成した画像の保存や、OCR(optical character recognition)処理などを実施し、再利用可能なメタデータを生成する。なお、画像処理装置100が実施するマルチクロップ処理をPC/サーバー端末101で実施しても良い。更に、PC/サーバー端末101は、クラウドやサーバーなどの外部ストレージとの通信も可能で、保存した画像やメタデータを外部ストレージへ送信することができる。なお、本実施例では、PC/サーバー端末101で画像の保存、メタデータ生成及び、外部ストレージへの送信を行うフローを説明するが、画像処理装置100に同機能を備えてもよい。このようにすることでこれらのフローを画像処理装置100単体でも行うことができる。   The PC / server terminal 101 displays an image generated by the image processing apparatus 100. In addition, the PC / server terminal 101 performs storage of an image generated by the image processing apparatus 100, OCR (optical character recognition) processing, and the like, and generates reusable metadata. Note that the multi-crop processing performed by the image processing apparatus 100 may be performed by the PC / server terminal 101. Further, the PC / server terminal 101 can communicate with an external storage such as a cloud or a server, and can transmit stored images and metadata to the external storage. In the present embodiment, the flow of image storage, metadata generation, and transmission to an external storage on the PC / server terminal 101 will be described, but the image processing apparatus 100 may have the same function. By doing so, these flows can be performed by the image processing apparatus 100 alone.

また、モバイル端末103は、操作部、無線通信部、ウェブブラウザを動作させるアプリ部を有するスマートフォンやタブレット端末である。本実施例のシステムで、モバイル端末103は、PC/サーバー端末101と同様に表示端末、操作端末及び、メタデータ生成・保存端末として利用される。なお、PC/サーバー端末101とモバイル端末103は、表示、操作及び、メタデータ生成・保存の機能など、どちらか一方の構成でもかまわない。   The mobile terminal 103 is a smartphone or tablet terminal having an operation unit, a wireless communication unit, and an application unit that operates a web browser. In the system of the present embodiment, the mobile terminal 103 is used as a display terminal, an operation terminal, and a metadata generation / storage terminal in the same manner as the PC / server terminal 101. Note that the PC / server terminal 101 and the mobile terminal 103 may have either one of the configurations such as display, operation, and metadata generation / storage functions.

以上の構成要素はあくまで例示であり、すべての構成が必要というものではない。例えば画像処理装置100が、原稿を読み込むスキャン機能や表示・操作機能に加え、画像の保存機能、メタデータ生成機能、メタデータの保存機能、外部ストレージへの送信機能を有してもよい。上記構成を画像処理装置100が有する場合には、以下の処理を画像処理装置100が実行するとしてもよい。   The above components are merely examples, and not all configurations are necessary. For example, the image processing apparatus 100 may have an image storage function, a metadata generation function, a metadata storage function, and a transmission function to an external storage in addition to a scan function for reading a document and a display / operation function. When the image processing apparatus 100 has the above configuration, the image processing apparatus 100 may execute the following processing.

<画像処理装置100のハードウェア構成>
図2は、画像処理装置100の構成を示すブロック図である。制御部110は、CPU111、記憶装置112、ネットワークI/F部113、スキャナI/F部114、表示・操作部I/F部115で構成され、これらはシステムバス116を介して互いに通信可能に接続されている。制御部110は、画像処理装置100全体の動作を制御する。
<Hardware Configuration of Image Processing Apparatus 100>
FIG. 2 is a block diagram illustrating a configuration of the image processing apparatus 100. The control unit 110 includes a CPU 111, a storage device 112, a network I / F unit 113, a scanner I / F unit 114, and a display / operation unit I / F unit 115, which can communicate with each other via a system bus 116. It is connected. The control unit 110 controls the overall operation of the image processing apparatus 100.

CPU111は、記憶装置112に記憶された制御プログラムを読み出して読取制御や送信制御などの各種制御を行う。   The CPU 111 reads out a control program stored in the storage device 112 and performs various controls such as reading control and transmission control.

記憶装置112は、上記プログラム、画像、メタデータ、設定データ及び、処理結果データなどを格納し保持する。記憶装置112は、不揮発性メモリであるROM117、揮発性メモリであるRAM118及び、大容量記憶領域であるHDD119などで構成される。   The storage device 112 stores and holds the program, image, metadata, setting data, processing result data, and the like. The storage device 112 includes a ROM 117 that is a nonvolatile memory, a RAM 118 that is a volatile memory, and an HDD 119 that is a large-capacity storage area.

ROM117は、制御プログラムなどを保持する。CPU111はROM117に記憶された制御プログラムを読み出し、画像処理装置100を制御する。   The ROM 117 holds a control program and the like. The CPU 111 reads a control program stored in the ROM 117 and controls the image processing apparatus 100.

RAM118は、CPU111の主メモリ、ワークエリア等の一時記憶領域として用いられる。   The RAM 118 is used as a temporary storage area such as a main memory or work area for the CPU 111.

HDD119は、大容量記憶領域であるHDDで、画像、メタデータなどを保存する記憶領域として用いられる。   The HDD 119 is an HDD that is a large-capacity storage area, and is used as a storage area for storing images, metadata, and the like.

ネットワークI/F部113は、制御部110(画像処理装置100)をLAN104に接続するインタフェースである。ネットワークI/F部113は、PC/サーバー端末101やモバイル端末103等のLAN104上の外部装置に画像を送信したり、LAN104上の外部装置から各種情報を受信したりする。   The network I / F unit 113 is an interface that connects the control unit 110 (image processing apparatus 100) to the LAN 104. The network I / F unit 113 transmits an image to an external device on the LAN 104 such as the PC / server terminal 101 or the mobile terminal 103, and receives various information from the external device on the LAN 104.

スキャナI/F部114は、スキャナ部120と制御部110を接続するインタフェースである。スキャナ部120は、原稿上の画像を読み取って画像を生成し、スキャナI/F部114を介して制御部110に入力する。   The scanner I / F unit 114 is an interface that connects the scanner unit 120 and the control unit 110. The scanner unit 120 reads an image on a document to generate an image, and inputs the image to the control unit 110 via the scanner I / F unit 114.

表示・操作部I/F部115は、表示・操作部121と制御部110とを接続するインタフェースである。表示・操作部121には、タッチパネル機能を有する液晶表示部やテンキー、スタートボタン、キャンセルボタン等のハードキーが備えられている。スタートボタンは、コピーやスキャンの処理を開始させるためのボタンである。キャンセルボタンは画像処理装置100が実行中の処理を一時停止、または中止するためのボタンである。   The display / operation unit I / F unit 115 is an interface that connects the display / operation unit 121 and the control unit 110. The display / operation unit 121 includes a liquid crystal display unit having a touch panel function and hard keys such as a numeric keypad, a start button, and a cancel button. The start button is a button for starting copy or scan processing. The cancel button is a button for temporarily stopping or canceling the processing being executed by the image processing apparatus 100.

その他、画像処理装置100にはプリンタ部等もあるものがあるが、本実施例では用いないため省略する。   In addition, some image processing apparatuses 100 include a printer unit and the like, but are omitted because they are not used in this embodiment.

以上のように、本実施例に係る画像処理装置100では、上記のハードウェア構成によって、画像処理機能を提供することが可能である。   As described above, the image processing apparatus 100 according to the present embodiment can provide an image processing function with the above hardware configuration.

<「スキャンして送信」機能の実行フロー>
図3を用いて、ユーザが「スキャンして送信」機能を用いてマルチクロップ処理を実行するためのシーケンスを説明する。本実施例で説明する処理は、画像処理装置100が有しているCPU111が記憶装置112に記憶された制御プログラムを読み出して制御プログラムを実行することにより実現される。
<Execution flow of "Scan and send"function>
A sequence for the user to execute the multi-crop process using the “scan and send” function will be described with reference to FIG. The processing described in the present embodiment is realized by the CPU 111 included in the image processing apparatus 100 reading out the control program stored in the storage device 112 and executing the control program.

「スキャンして送信」機能とは、LAN等ネットワークに接続された画像処理装置で原稿をスキャンし、得られた画像を外部装置に送信する機能である。具体的には、スキャナで読み取って生成した画像に対し、画像処理やフォーマット変換を実行し、ユーザの指定したサーバーのフォルダや、電子メール、複写機内のHDDに送信する機能である。   The “scan and send” function is a function of scanning a document with an image processing apparatus connected to a network such as a LAN and transmitting the obtained image to an external apparatus. Specifically, this is a function of executing image processing and format conversion on an image read and generated by a scanner, and transmitting the image to a server folder designated by a user, an e-mail, or an HDD in a copying machine.

機能使用指示S400において、ユーザは表示・操作部121を操作して、メインメニューの中から「スキャンして送信」機能を選択する。画像処理装置100は、表示・操作部121を介して「スキャンして送信」機能の選択を受け付ける。図4(a)は表示・操作部121に表示されるメインメニューUI500である。メインメニューUI500は、画像処理装置100で実施可能な機能がボタンとして表示される画面である。例えば、「コピー」機能ボタン501、「スキャンして送信」機能ボタン502、「スキャンして保存」機能ボタン503、「保存ファイルの利用」機能ボタン504、「プリント」機能ボタン505などが表示される。画像処理装置100はメインメニューUI500を介して、ユーザから、所望の機能の選択を受け付ける。本実施例では、ユーザが「スキャンして送信」機能ボタン502をタップ操作して選択したとする。   In the function use instruction S400, the user operates the display / operation unit 121 to select the “scan and send” function from the main menu. The image processing apparatus 100 accepts the selection of the “scan and send” function via the display / operation unit 121. FIG. 4A shows a main menu UI 500 displayed on the display / operation unit 121. The main menu UI 500 is a screen on which functions that can be performed by the image processing apparatus 100 are displayed as buttons. For example, a “Copy” function button 501, a “Scan and send” function button 502, a “Scan and save” function button 503, a “Use saved file” function button 504, a “Print” function button 505, and the like are displayed. . The image processing apparatus 100 receives selection of a desired function from the user via the main menu UI 500. In this embodiment, it is assumed that the user taps and selects the “scan and send” function button 502.

S401において、画像処理装置100の表示・操作部121は、ユーザにより指定された機能の設定画面(すなわち、「スキャンして送信」機能が指定された場合は、「スキャンして送信」機能の設定画面)を表示する。図4(b)は表示・操作部121に表示される設定画面である「スキャンして送信」設定UI510の一例である。「スキャンして送信」設定UI510は「スキャンして送信」機能で使用される各種設定の状態を示している。例えば、「送信先」511は、生成した画像を送信する送信先のアドレスを表示する。ユーザが「送信先」511をタップ操作すると不図示の送信先設定画面が表示され、ユーザは画像の送信先を入力することができる。本実施例では、マルチクロップ処理を行った画像をPC/サーバー端末101に送信する。すなわち、「送信先」511には、PC/サーバー端末101のURL(Uniform Resource Locator)やIPアドレスや電子メールアドレス等が設定される。「スキャン/送信設定」512は、生成される画像のカラー設定や生成する画像ファイルのフォーマット、原稿の種類の状態を表示する。また、「その他の機能」513は「スキャンして送信」設定UI510に表示されていない応用機能を設定するためのボタンである。   In step S401, the display / operation unit 121 of the image processing apparatus 100 sets the setting screen for the function designated by the user (that is, if the “scan and send” function is designated, the “scan and send” function is set). Screen). FIG. 4B is an example of a “scan and send” setting UI 510 that is a setting screen displayed on the display / operation unit 121. The “scan and send” setting UI 510 indicates the status of various settings used in the “scan and send” function. For example, “transmission destination” 511 displays an address of a transmission destination to which the generated image is transmitted. When the user taps the “transmission destination” 511, a transmission destination setting screen (not shown) is displayed, and the user can input the transmission destination of the image. In this embodiment, the image subjected to the multi-crop processing is transmitted to the PC / server terminal 101. That is, the URL (Uniform Resource Locator), IP address, e-mail address, etc. of the PC / server terminal 101 are set in the “transmission destination” 511. A “scan / transmission setting” 512 displays the color setting of the image to be generated, the format of the image file to be generated, and the state of the type of document. Further, “other functions” 513 is a button for setting application functions that are not displayed in the “scan and send” setting UI 510.

S402において、画像処理装置100はユーザから、「スキャンして送信」設定UI510で設定することのできる基本的な設定項目に関する設定指示を受け付ける。S402で受け付けられる設定とは、例えば、生成する画像のカラー設定や生成する画像ファイルのフォーマット選択などである。画像処理装置100は、「送信先」511、「スキャン/送信設定」512のいずれかのタップ操作を受け付けて、それぞれに対応する設定項目の入力を受け付ける。   In step S <b> 402, the image processing apparatus 100 receives a setting instruction related to basic setting items that can be set with the “scan and send” setting UI 510 from the user. The settings accepted in S402 are, for example, the color setting of the image to be generated and the format selection of the image file to be generated. The image processing apparatus 100 accepts a tap operation of either “transmission destination” 511 or “scan / transmission setting” 512, and accepts input of setting items corresponding to each of the tap operations.

S403において、画像形成装置100は、S402でユーザが指示した基本設定に関する設定値を画像処理装置100のRAM118に記憶する。   In step S <b> 403, the image forming apparatus 100 stores setting values related to the basic settings designated by the user in step S <b> 402 in the RAM 118 of the image processing apparatus 100.

次に、S404において、ユーザが「その他の機能」513をタップ操作で選択したものとする。   Next, in S <b> 404, it is assumed that the user selects “other functions” 513 by a tap operation.

S405において、画像処理装置100は、設定UI510にてユーザによる「その他の機能」513の選択を受け付けて、応用機能の設定を行うための画面を表示・操作部121に表示する。図4(c)は応用機能を設定するための「その他の機能」設定UI520の一例である。「その他の機能」設定UI520は、画像処理装置100が実行可能な「スキャンして送信」機能の各種応用機能を設定するためのボタンを表示する。「その他の機能」設定UI520は、例えば、「ページ集約」ボタン521や「カラータイプ」ボタン522、「原稿の種類」ボタン523、「カラーの調整」ボタン524、「ファイル名設定」ボタン525、「マルチクロップ」ボタン526などを表示する。「マルチクロップ」ボタン526は、複数枚の原稿を原稿台上に並べて配置した状態でスキャンすることにより生成された画像から、各原稿に対応する原稿画像を抽出する処理の実行を指示するためのボタンである。本実施例では、「その他の機能」設定UI520は、設定UI510で設定可能な設定項目と重複する設定項目も表示するものとする。なお、「その他の機能」設定UI520は、設定UI510で設定可能な設定項目以外の設定項目を表示するように構成してもよい。   In step S <b> 405, the image processing apparatus 100 accepts selection of “other functions” 513 by the user via the setting UI 510 and displays a screen for setting application functions on the display / operation unit 121. FIG. 4C is an example of an “other function” setting UI 520 for setting application functions. The “other functions” setting UI 520 displays buttons for setting various application functions of the “scan and send” function that can be executed by the image processing apparatus 100. The “other functions” setting UI 520 includes, for example, a “page aggregation” button 521, a “color type” button 522, a “document type” button 523, a “color adjustment” button 524, a “file name setting” button 525, “ A “multi-crop” button 526 and the like are displayed. A “multi-crop” button 526 is used to instruct execution of processing for extracting a document image corresponding to each document from an image generated by scanning a plurality of documents arranged side by side on the document table. Button. In this embodiment, the “other function” setting UI 520 also displays setting items that overlap with setting items that can be set by the setting UI 510. The “other functions” setting UI 520 may be configured to display setting items other than the setting items that can be set by the setting UI 510.

S406において、ユーザが、「その他の機能」設定UI520内の「マルチクロップ」ボタン526をタップ操作して選択したものとする。   In S406, it is assumed that the user selects the “multi-crop” button 526 in the “other functions” setting UI 520 by performing a tap operation.

ユーザが「マルチクロップ」ボタン526を選択すると、S407において、画像処理装置100はマルチクロップ処理を実行することを示すマルチクロップ処理フラグをONに設定する。マルチクロップ処理フラグはRAM118に記憶される。また、S407において、画像処理装置100は、表示・操作部121に図4(d)に示すマルチクロップの選択がされたことを示す画面520を表示する。ユーザが「マルチクロップ」ボタン526を選択すると、「その他の機能」設定UI520の「マルチクロップ」ボタン526の色が反転し、マルチクロップ処理がオンに設定されていることを示す画面が表示される。本実施例ではマルチクロップ処理がオンに設定されている場合の処理を説明する。「その他の機能」設定UI520において、ユーザが「閉じる」ボタン527をタップ操作して選択すると、表示・操作部121は図4(b)の「スキャンして送信」設定UI510を表示する。   When the user selects the “multi-crop” button 526, in step S407, the image processing apparatus 100 sets a multi-crop processing flag indicating ON to execute the multi-crop processing to ON. The multi-crop processing flag is stored in the RAM 118. In step S <b> 407, the image processing apparatus 100 displays a screen 520 indicating that the multi-crop selection illustrated in FIG. 4D is selected on the display / operation unit 121. When the user selects the “multi-crop” button 526, the color of the “multi-crop” button 526 of the “other functions” setting UI 520 is inverted, and a screen indicating that the multi-crop processing is set to ON is displayed. . In the present embodiment, processing when multi-crop processing is set to ON will be described. When the user taps and selects the “Close” button 527 in the “other function” setting UI 520, the display / operation unit 121 displays the “scan and send” setting UI 510 in FIG. 4B.

S408において、ユーザが、「スキャンして送信」機能の実行を指示するために、スタートキー506を押下したものとする。スタートキー506の押下により、画像処理装置100は、原稿の読み取り開始が指示されたものと判断する。スタートキー506の押下を受け付けたことに従って、画像処理装置100は、原稿をスキャンするための各種設定をRAM118に設定し、原稿の読み取り処理の準備を開始する。   In step S408, it is assumed that the user presses the start key 506 in order to instruct execution of the “scan and send” function. By pressing the start key 506, the image processing apparatus 100 determines that an instruction to start reading a document has been issued. In response to accepting pressing of the start key 506, the image processing apparatus 100 sets various settings for scanning a document in the RAM 118, and starts preparation for a document reading process.

まず、S409において、画像処理装置100は、輝度ゲイン調整に用いられるパラメータをRAM118に設定する。輝度ゲイン調整とは、スキャナ部120が原稿を読み取って得られた画像の輝度を調整する処理である。S407でマルチクロップ処理フラグがONに設定されている場合、画像処理装置100は、マルチクロップ処理がオフに設定されているときと異なるパラメータをRAM118に設定する。   First, in S409, the image processing apparatus 100 sets parameters used for luminance gain adjustment in the RAM 118. The brightness gain adjustment is a process for adjusting the brightness of an image obtained by the scanner unit 120 reading a document. When the multi-crop processing flag is set to ON in S407, the image processing apparatus 100 sets different parameters in the RAM 118 than when the multi-crop processing is set to off.

S410において、画像処理装置100は、スキャナ部120に対し、スキャナを駆動させ、原稿台に置かれた原稿を読み取る。   In step S410, the image processing apparatus 100 drives the scanner unit 120 to read the document placed on the document table.

S411において、画像処理装置100は、S410で読み取った画像を画像処理で扱えるビットマップ形式の画像へ変換する。例えば、S411において、画像処理装置100はスキャナ部120から入力された輝度信号値を、8ビットのデジタル信号に変換する。さらに、画像処理装置100は、変換後の輝度信号値に対し、シェーディング補正を行う。シェーディング補正とは、入力された輝度信号値に対して、スキャナ部120の照明系、結像系、撮像系等で発生する様々な歪みを取り除く補正処理である。その後さらに、画像処理装置100は、シェーディング補正を行った輝度信号値に対して、S409で設定した設定値を用いて輝度ゲイン調整を行う。マルチクロップ処理を実行する場合の輝度ゲイン調整では、マルチクロップ処理を実行しない場合の通常のスキャン画像よりも、高輝度側の信号値の情報が保持された画像が生成される。通常のスキャン画像では、シェーディング補正後の輝度信号値が所定の基準値よりも高い場合は白(すなわち輝度値255)として扱うようにすることで、白の輝度ムラが出ないようにしているが、マルチクロップ処理を実行する場合は、高輝度側の輝度信号値が異なる値として出力されるように輝度ゲイン調整を行う。画像処理装置100は、さらに、カラーバランスの調整、下地濃度の除去、シャープネス処理、及びコントラストの調整等の画質調整処理を行ない、HDD119にデータとして格納を行う。   In step S411, the image processing apparatus 100 converts the image read in step S410 into an image in a bitmap format that can be handled by image processing. For example, in S411, the image processing apparatus 100 converts the luminance signal value input from the scanner unit 120 into an 8-bit digital signal. Further, the image processing apparatus 100 performs shading correction on the converted luminance signal value. The shading correction is a correction process for removing various distortions generated in the illumination system, imaging system, imaging system, and the like of the scanner unit 120 with respect to the input luminance signal value. Thereafter, the image processing apparatus 100 further performs luminance gain adjustment using the setting value set in S409 on the luminance signal value subjected to the shading correction. In the luminance gain adjustment in the case of executing the multi-crop process, an image in which the information of the signal value on the higher luminance side is held than the normal scan image in the case of not executing the multi-crop process is generated. In a normal scan image, when the luminance signal value after shading correction is higher than a predetermined reference value, it is handled as white (that is, luminance value 255) so that white luminance unevenness does not occur. When performing the multi-crop processing, the luminance gain adjustment is performed so that the luminance signal value on the high luminance side is output as a different value. The image processing apparatus 100 further performs image quality adjustment processing such as color balance adjustment, background density removal, sharpness processing, and contrast adjustment, and stores the data in the HDD 119 as data.

図5(a)は、複数枚の原稿が原稿台に載置された状態を示す模式図である。ここでは、A3面積の領域を読み取ることが可能なスキャナ部120に3枚の原稿が配置されているとする。載置する原稿として、例えば、定形面積の原稿(例えば、A4の納品書)や複数枚の非定形面積の原稿(例えば、領収書)などの原稿が原稿台上に並べて載置されている。原稿台に載置される原稿の種類、枚数、配置はこれに限らない。   FIG. 5A is a schematic diagram showing a state in which a plurality of documents are placed on a document table. Here, it is assumed that three originals are arranged in the scanner unit 120 capable of reading the area of A3 area. As a document to be placed, for example, a document having a fixed area (for example, an A4 delivery note) or a plurality of documents having a non-standard area (for example, a receipt) are placed side by side on a document table. The type, number, and arrangement of documents placed on the document table are not limited to this.

図5(b)は、マルチクロップ処理をオフに設定し、画像処理装置100が画像形成時の輝度ゲイン調整パラメータを標準値で処理した場合に生成する画像である。図6(a)はマルチクロップ処理がオフに設定されているときの輝度ゲイン調整の模式図である。マルチクロップ処理がオフに設定されている場合、シェーディング補正後の輝度値が白色基準値(255)よりも高い領域は、全て白色基準値(255)として出力する。そのため、図5(b)に示すように、原稿の白色部分や原稿台カバーの白色部分は同じ輝度の白色として出力される。この場合、原稿Aおよび原稿Cの下地は白であるので、原稿の下地の白色と原稿台カバーの白色部分との差異がなくなっているので、原稿端の境界を検出することは困難である。   FIG. 5B shows an image generated when the multi-crop processing is set to OFF and the image processing apparatus 100 processes the luminance gain adjustment parameter at the time of image formation with the standard value. FIG. 6A is a schematic diagram of luminance gain adjustment when the multi-crop processing is set to off. When the multi-crop processing is set to OFF, all regions where the luminance value after shading correction is higher than the white reference value (255) are output as the white reference value (255). Therefore, as shown in FIG. 5B, the white portion of the document and the white portion of the document table cover are output as white having the same luminance. In this case, since the background of the original A and the original C is white, the difference between the white background of the original and the white portion of the original table cover is eliminated, so that it is difficult to detect the boundary of the original edge.

図5(c)は、マルチクロップ処理をオンに設定し、画像処理装置100が画像形成時の輝度ゲイン調整パラメータを標準値と異なる値に設定して、高輝度側の信号値が保持されるようにした状態で処理した場合の画像の例である。図6(b)は、マルチクロップ処理がオンに設定されているときの輝度ゲイン調整の模式図である。マルチクロップ処理がオンに設定されている場合、シェーディング補正後の輝度値に対して所定のゲイン調整パラメータを掛けて、出力を行う。例えば、図6(b)において、画像処理装置100は、シェーディング補正後の信号が260の白色に対して、輝度ゲイン調整パラメータを掛けて、輝度値250として出力を行う。図6(b)に示す通り、マルチクロップ処理がオンに設定されている場合、マルチクロップ処理がオフに設定されたときの画像に比べ、高輝度側の信号値が輝度ゲイン調整パラメータによって低い輝度値に変換される。そのため、マルチクロップ処理がオンに設定されている場合、マルチクロップ処理がオフに設定されているときよりも画像全体が暗く出力されるが、原稿の白色と原稿台カバーの白色とが異なる輝度値として出力されやすくなり、原稿端の境界を検出しやすくなる。   In FIG. 5C, the multi-crop processing is set to ON, the luminance gain adjustment parameter at the time of image formation is set by the image processing apparatus 100 to a value different from the standard value, and the signal value on the high luminance side is held. It is an example of the image at the time of processing in the state made like this. FIG. 6B is a schematic diagram of luminance gain adjustment when the multi-crop processing is set to ON. When the multi-crop processing is set to ON, output is performed by multiplying the luminance value after shading correction by a predetermined gain adjustment parameter. For example, in FIG. 6B, the image processing apparatus 100 multiplies the white color whose signal after shading correction is 260 by the luminance gain adjustment parameter and outputs the result as the luminance value 250. As shown in FIG. 6B, when the multi-crop processing is set to ON, the signal value on the high luminance side is lower than the image when the multi-crop processing is set to OFF due to the luminance gain adjustment parameter. Converted to a value. For this reason, when multi-crop processing is set to on, the entire image is output darker than when multi-crop processing is set to off, but the brightness value of the document white and the platen cover white are different. And the boundary of the document edge can be easily detected.

S412において、画像処理装置100は、S411でHDD119内に格納した輝度ゲイン調整後の画像を取得する。画像処理装置100のCPU111は、取得した画像内に含まれる各原稿のエッジに基づいて4頂点座標を検出し、検出した各原稿の4頂点座標値を出力し、RAM118に記憶する。S412で実行されるマルチクロップ座標検出処理については、後述で詳細を説明する。   In step S <b> 412, the image processing apparatus 100 acquires the image after luminance gain adjustment stored in the HDD 119 in step S <b> 411. The CPU 111 of the image processing apparatus 100 detects the four vertex coordinates based on the edges of each document included in the acquired image, outputs the detected four vertex coordinate values of each document, and stores them in the RAM 118. The details of the multi-crop coordinate detection process executed in S412 will be described later.

S413において、画像処理装置100は、S411で生成された画像の輝度を、送信用画像に適した輝度値になるように調整する画像輝度調整処理を行う。S411において生成された画像は、図5(c)に示したようにマルチクロップ座標検出の精度を上げるため全体的に暗い画像となっている。画像処理装置100は、マルチクロップ用の設定値で輝度ゲイン調整を行った画像の輝度を、図5(b)に示すように標準値で輝度ゲイン調整した画像と同等程度の輝度へデジタル変換し、HDD119に保存する。画像輝度調整処理の詳細については、後述する。すなわち、S413でマルチクロップ用の画像の輝度を全体的にあげる処理を行うことで、通常の設定でスキャンした際の明るさと同程度の明るさの画像に変換して、送信用画像として使用することができる。   In step S413, the image processing apparatus 100 performs image luminance adjustment processing for adjusting the luminance of the image generated in step S411 so that the luminance value is suitable for the transmission image. The image generated in S411 is a dark image as a whole in order to improve the accuracy of multi-crop coordinate detection as shown in FIG. The image processing apparatus 100 digitally converts the luminance of the image that has been subjected to the luminance gain adjustment with the setting value for multi-crop to a luminance equivalent to that of the image that has been adjusted with the luminance gain using the standard value as shown in FIG. And stored in the HDD 119. Details of the image brightness adjustment processing will be described later. That is, in S413, the overall brightness of the multi-crop image is increased to convert it to an image having the same brightness as that obtained when scanning with normal settings, and used as a transmission image. be able to.

S414において、画像処理装置100は、S413でデジタル変換処理されHDD119に格納されている画像データから、各原稿に対応する領域の部分画像を抽出する画像クロッピング処理を実行する。画像処理装置100は、S412で検出した各原稿の4頂点座標値に基づいて、S413で変換された画像から、各原稿に対応する領域の部分画像を切り出し、傾き補正等のアフィン変換を行って矩形の原稿画像を得る。画像処理装置100は、切り出し後の各原稿の原稿画像を圧縮し画像圧縮後にHDD119に格納する。   In step S <b> 414, the image processing apparatus 100 executes image cropping processing for extracting a partial image in an area corresponding to each document from the image data digitally converted in step S <b> 413 and stored in the HDD 119. The image processing apparatus 100 cuts out a partial image corresponding to each document from the image converted in S413 based on the four vertex coordinate values of each document detected in S412, and performs affine transformation such as tilt correction. A rectangular document image is obtained. The image processing apparatus 100 compresses the document image of each document after cutting, and stores it in the HDD 119 after image compression.

S415において、画像処理装置100はマルチクロップ処理後の各原稿の画像を、表示・操作部121のマルチクロップ処理結果UI画面に表示する。図4(e)は表示・操作部121に表示されるマルチクロップの処理結果を示す画面の一例である。「原稿検出結果」UI530は、マルチクロップ処理によって切り出された画像を並べた画面である。   In step S <b> 415, the image processing apparatus 100 displays the image of each document after the multi-crop processing on the multi-crop processing result UI screen of the display / operation unit 121. FIG. 4E shows an example of a screen showing a multi-crop processing result displayed on the display / operation unit 121. The “document detection result” UI 530 is a screen on which images cut out by the multi-crop processing are arranged.

S416において、ユーザは、表示・操作部121に表示された画像の切り出し結果を確認した後、当該表示された各原稿画像の保存・送信指示をする。すなわち、ユーザによりスタートキー506が押下されると、画像処理装置100は、当該表示されている各原稿画像の保存・送信指示が為されたと判断する。   In step S <b> 416, the user confirms the cutout result of the image displayed on the display / operation unit 121, and then instructs to save / transmit the displayed document image. That is, when the start key 506 is pressed by the user, the image processing apparatus 100 determines that an instruction to save and transmit each displayed document image has been issued.

S417において、画像処理装置100は、クロップ処理後の各原稿画像を、図4(b)の送信先511で設定された送信先であるPC/サーバー端末101に対して、送信する。なお、PC/サーバー端末101に送信される画像ファイルは、「スキャンして送信」設定UI510や「その他の機能」設定UI520で設定されたフォーマットやファイル名のファイルにして送信される。   In step S417, the image processing apparatus 100 transmits each document image after the crop processing to the PC / server terminal 101 that is the transmission destination set in the transmission destination 511 in FIG. 4B. Note that the image file transmitted to the PC / server terminal 101 is transmitted as a file having the format and file name set in the “scan and send” setting UI 510 and the “other function” setting UI 520.

S418において、PC/サーバー端末101は、画像処理装置100から送信されたマルチクロップ後の各原稿の画像ファイルを保存する。ここで、PC/サーバー端末101は受信した画像ファイルを保存するだけでも良いが、例えば、画像ファイルに対してOCR処理等の文字認識処理を行い、処理結果を付加してから保存するようにしてもよい。このようにすることで、画像の検索性が向上させたり、画像から抽出された情報をシステムに登録したりすることができる。   In step S <b> 418, the PC / server terminal 101 stores the image file of each document after multi-cropping transmitted from the image processing apparatus 100. Here, the PC / server terminal 101 may only save the received image file. For example, the character recognition process such as the OCR process is performed on the image file, and the process result is added and saved. Also good. By doing in this way, the searchability of an image can be improved, or information extracted from an image can be registered in the system.

S419において、ユーザが、PC/サーバー端末101に対して原稿画像の表示を指示した場合、420において、PC/サーバー端末101は、ユーザから表示が指示された原稿画像の表示処理を行う。PC/サーバー端末101に記憶された画像に対してOCR処理等の処理がされている場合、PC/サーバー端末101はS420においてOCR処理の結果等を表示することも可能である。なお、ここでは、ユーザがPC/サーバー端末101を直接操作して閲覧指示を行い、PC/サーバー端末101の表示部に保存された画像を表示するものとして説明したが、これに限るものではない。例えば、ユーザが携帯端末103等を操作して、PC/サーバー端末101に閲覧リクエストを送信した場合は、PC/サーバー端末101から携帯端末103に画像が送信されて表示されるようにしてもよい。   In S419, when the user instructs the PC / server terminal 101 to display a document image, in 420, the PC / server terminal 101 performs display processing of the document image instructed to be displayed by the user. When processing such as OCR processing is performed on an image stored in the PC / server terminal 101, the PC / server terminal 101 can also display the result of OCR processing in S420. Here, although it has been described that the user directly operates the PC / server terminal 101 to give a browsing instruction and displays the image stored on the display unit of the PC / server terminal 101, the present invention is not limited to this. . For example, when the user operates the mobile terminal 103 or the like to transmit a browsing request to the PC / server terminal 101, an image may be transmitted from the PC / server terminal 101 to the mobile terminal 103 and displayed. .

<「スキャンして送信」機能のソフトウェア構成>
図7は、「スキャンして送信」機能においてマルチクロップ処理がオンに設定された場合の、画像処理装置100の処理を示すフローチャートである。以下の処理は、CPU111がROM117、HDD119等に記憶された制御プログラムを実行することにより実現される。
<Software configuration of "Scan and send"function>
FIG. 7 is a flowchart showing the processing of the image processing apparatus 100 when the multi-crop processing is set to ON in the “scan and send” function. The following processing is realized by the CPU 111 executing a control program stored in the ROM 117, the HDD 119, or the like.

図7に記載の処理は、マルチクロップ処理がオンに設定された状態で、スタートキーが押下されたことに従って実行される。   The process illustrated in FIG. 7 is executed in accordance with the start key being pressed while the multi-crop process is set to ON.

CPU111は、輝度ゲイン調整を実行するためのパラメータをROM117から読み出してRAM118に格納する(S600)。マルチクロップ処理がオンに設定されたときの輝度ゲイン処理に用いられるパラメータは予めROM117に記憶されている。   The CPU 111 reads out parameters for executing luminance gain adjustment from the ROM 117 and stores them in the RAM 118 (S600). Parameters used for luminance gain processing when the multi-crop processing is set to ON are stored in the ROM 117 in advance.

CPU111は、スキャナI/F114を介してスキャナ部120を制御し、原稿をスキャンする(S601)。   The CPU 111 controls the scanner unit 120 via the scanner I / F 114 to scan the document (S601).

CPU111は、S601で原稿をスキャンして得られた画像に対してS600で取得したパラメータを用いて輝度ゲイン調整を実行する(S602)。S602で実行される輝度ゲイン調整の詳細は後述する。S602において、CPU111は、輝度ゲイン調整の前にシェーディング補正を行い、画像の輝度を所定の白基準に基づいて正規化する。また、輝度ゲイン調整後には、CPU111は画像の輝度をsRGB等の規格化されたRGB信号への変換を行う。その際には、3次元LUT(Look Up Table)や1次元LUTを利用した変換処理が行われる。S602の処理を実行した後、図5(c)に示す輝度ゲイン調整された画像(マルチクロップ処理に適した画像)がRAM118に記憶される。   The CPU 111 performs brightness gain adjustment on the image obtained by scanning the document in S601 using the parameters acquired in S600 (S602). Details of the luminance gain adjustment executed in S602 will be described later. In step S602, the CPU 111 performs shading correction before the luminance gain adjustment, and normalizes the luminance of the image based on a predetermined white reference. After the luminance gain adjustment, the CPU 111 converts the luminance of the image into a standardized RGB signal such as sRGB. At that time, a conversion process using a three-dimensional LUT (Look Up Table) or a one-dimensional LUT is performed. After executing the processing of S602, the luminance gain adjusted image shown in FIG. 5C (image suitable for multi-crop processing) is stored in the RAM 118.

CPU111は、S602において輝度ゲイン調整された画像に対してクロップする座標を検出する(S603)。CPU111は輝度ゲイン調整後の画像を入力画像とし、原稿のエッジの直線を検出して、エッジの直線で囲まれる原稿の矩形に基づいて各原稿の4頂点座標を検出する。S603において、CPU111が実行する処理については、図9を用いて後述する。画像処理装置は、S603において検出された座標に基づいて、画像内の原稿に対応する領域を特定する。   The CPU 111 detects the coordinates to be cropped for the image whose luminance gain has been adjusted in S602 (S603). The CPU 111 uses the image after the luminance gain adjustment as an input image, detects a straight line of the document edge, and detects the four vertex coordinates of each document based on the rectangle of the document surrounded by the straight line of the edge. The processing executed by the CPU 111 in S603 will be described later with reference to FIG. The image processing apparatus identifies an area corresponding to the document in the image based on the coordinates detected in S603.

CPU111は、S602で輝度ゲイン調整がなされた画像(マルチクロップ処理に適した画像)の輝度を再度調整することにより、送信に適した輝度の画像を生成する(S604)。S604において、CPU111は輝度ゲイン調整済みの画像を全体的に明るくなるように処理する。S604に記載の処理を実行することで、CPU111は図5(d)に記載の画像を生成し、RAM118に記憶する。S604において実行される詳細は、図11を用いて後述する。   The CPU 111 again adjusts the luminance of the image (the image suitable for multi-crop processing) for which the luminance gain adjustment has been performed in S602, thereby generating an image having a luminance suitable for transmission (S604). In step S604, the CPU 111 processes the brightness gain adjusted image so as to be brightened as a whole. By executing the process described in S <b> 604, the CPU 111 generates the image illustrated in FIG. 5D and stores the image in the RAM 118. Details executed in step S604 will be described later with reference to FIG.

CPU111は、S603において検出された座標と、S604において輝度が調整された画像を用いて画像の切り出しを行う(S605)。S605において、CPU111はS603で特定された各原稿の4頂点に基づいて、輝度が調整された画像から、各原稿の領域に対応する部分画像を切り出す。そして、CPU111は切り出し後の画像をRAM118に記憶する。S605における詳細は図14を用いて後述する。   The CPU 111 cuts out an image using the coordinates detected in S603 and the image whose luminance is adjusted in S604 (S605). In step S <b> 605, the CPU 111 cuts out a partial image corresponding to each document area from the image whose luminance has been adjusted based on the four vertices of each document specified in step S <b> 603. Then, the CPU 111 stores the cut-out image in the RAM 118. Details of S605 will be described later with reference to FIG.

CPU111は、図4(e)で示したように、切り出し後の画像を表示・操作部121に表示する(S606)。   As shown in FIG. 4E, the CPU 111 displays the cut-out image on the display / operation unit 121 (S606).

CPU111は、ユーザから送信指示を受け付けたか否かを判定する(S607)。ユーザからの送信指示は、ユーザがスタートキー506を押下したことによって受け付けられる。ユーザから送信指示を受付けられていない場合、CPU111はS607の処理を引き続き実行する。CPU111は、送信指示を受付けた場合に処理をS608に進める。   The CPU 111 determines whether a transmission instruction has been received from the user (S607). A transmission instruction from the user is accepted when the user presses the start key 506. When the transmission instruction is not received from the user, the CPU 111 continues to execute the process of S607. If the CPU 111 receives a transmission instruction, the process proceeds to S608.

CPU111は、切り出し後の画像をPC/サーバー端末101に送信する(S608)。CPU111は、切り出した画像をユーザにより指定された送信先に送信する。本実施例では、外部のPC/サーバー端末101に画像を送信するとするが、画像処理装置100の記憶装置112に切り出し後の画像が記憶されてもよい。切り出し後の画像を記憶装置112に記憶する場合、ユーザは切り出し後の画像の送信先として、記憶装置112の記憶先のフォルダアドレス等を指定する。   The CPU 111 transmits the clipped image to the PC / server terminal 101 (S608). The CPU 111 transmits the clipped image to the transmission destination designated by the user. In this embodiment, the image is transmitted to the external PC / server terminal 101. However, the image after cutting may be stored in the storage device 112 of the image processing apparatus 100. When storing the clipped image in the storage device 112, the user designates the folder address of the storage destination of the storage device 112 as the transmission destination of the clipped image.

なお、図7のS607において、ユーザからの送信指示を待つとして説明した。S607において、送信指示のほかにスキャン・原稿検出のリトライ指示をユーザから受け付けるとしてもよい。たとえば、図4(e)に示す「原稿検出結果」表示UI530において、画像処理装置100は不図示のリトライボタンを表示する。ユーザがリトライボタンをタップ操作した場合、画像処理装置100は処理をS600に戻す。このようにすることで、切り出し結果がユーザの期待するものと違うものであった場合にすぐにスキャンのやり直しをすることができる。S600においてCPU111が輝度ゲイン調整パラメータは常に同じ値であってもよいが、リトライ回数に応じて輝度ゲイン調整パラメータの値を大きくするなど、輝度ゲイン調整パラメータの値を変えてスキャンをするとしてもよい。また、図7のS607において、表示されている原稿画像の1つがユーザにより選択され、かつ、原稿切り出し位置の修正指示が為された場合は、その原稿画像を切り出す前の画像を表示して(その原稿画像の周辺を拡大表示するようにしてもよい)、ユーザが手動で切り出し位置の修正を行えるようにしてもよい。   In addition, in S607 of FIG. 7, it demonstrated as waiting for the transmission instruction | indication from a user. In step S607, a scan / document detection retry instruction may be received from the user in addition to the transmission instruction. For example, in the “document detection result” display UI 530 shown in FIG. 4E, the image processing apparatus 100 displays a retry button (not shown). When the user taps the retry button, the image processing apparatus 100 returns the process to S600. By doing in this way, when the cutout result is different from what the user expects, it is possible to redo the scan immediately. In step S600, the CPU 111 may always use the same value as the luminance gain adjustment parameter, but the luminance gain adjustment parameter may be changed according to the number of retries, for example, and the scan may be performed by changing the value of the luminance gain adjustment parameter. . In S607 of FIG. 7, when one of the displayed document images is selected by the user and an instruction to correct the document clipping position is given, the image before the document image is clipped is displayed ( The periphery of the document image may be enlarged and displayed, or the user may be able to manually correct the cutout position.

<輝度ゲイン調整処理>
次に、図7のS602において実行される輝度ゲイン調整の処理の詳細について説明する。
<Luminance gain adjustment processing>
Next, details of the luminance gain adjustment process executed in S602 of FIG. 7 will be described.

図8は、S602に記載の輝度ゲイン調整においてCPU111が実行する処理を示すフローチャートである。図8に記載の処理を実行するためのプログラムはROM117、HDD119等の記憶装置に記憶されている。CPU111がROM117またはHDD119に記憶されているプログラムを実行することで処理が実現される。輝度ゲイン調整処理は使用されるパラメータの値は異なるが、マルチクロップ処理がオンの場合も、オフの場合も実行される処理である。   FIG. 8 is a flowchart showing processing executed by the CPU 111 in the luminance gain adjustment described in S602. A program for executing the processing illustrated in FIG. 8 is stored in a storage device such as the ROM 117 and the HDD 119. The processing is realized by the CPU 111 executing a program stored in the ROM 117 or the HDD 119. The brightness gain adjustment process is a process that is executed both when the multi-crop process is on and when it is off, although the parameter values used are different.

CPU111は、輝度ゲイン調整に用いるパラメータをROM117から読み出してRAM118に設定する(S1000)。マルチクロップ処理がオンに設定されているときに用いられるパラメータは、マルチクロップ処理がオフに設定されているときに用いられるパラメータよりも大きな値である。たとえば、本実施例では、マルチクロップ処理がオフに設定されてるときの輝度ゲイン調整パラメータを255、マルチクロップ処理がオンに設定されているときの輝度ゲイン調整パラメータを265とする。輝度ゲイン調整に用いられるパラメータは、予めROM117に記憶されており、当該パラメータは画像処理装置100の工場出荷時に設定される値である。なお、輝度ゲイン調整に用いられるパラメータは、出荷後、サービスマン等により再度設定されるとしてもよい。   The CPU 111 reads parameters used for luminance gain adjustment from the ROM 117 and sets them in the RAM 118 (S1000). The parameter used when the multi-crop process is set to on is a larger value than the parameter used when the multi-crop process is set to off. For example, in this embodiment, the luminance gain adjustment parameter when the multi-crop processing is set to off is 255, and the luminance gain adjustment parameter when the multi-crop processing is set to on is 265. Parameters used for brightness gain adjustment are stored in the ROM 117 in advance, and the parameters are values set when the image processing apparatus 100 is shipped from the factory. It should be noted that the parameters used for luminance gain adjustment may be set again by a service person after shipment.

CPU111は、S1000でRAM118に記憶された輝度ゲイン調整パラメータを用いて、スキャンして得られた画像の白色基準に基づいて正規化された後の輝度を調整する(S1001)。S1001において、CPU111は以下の式1を用いて輝度ゲイン調整を実行する。以下の式1において、dはスキャナのCCDセンサから出力されるRGB信号の信号値を示し、白色基準に基づいて正規化された後の信号値に変換されることを示している。ここで、白色基準とは、通常時に、どのレベルの白の信号値を、出力画像における輝度値255にするべきかという基準である。マルチクロップ処理がオフ時に輝度ゲイン調整後の輝度値が255となる信号値は、マルチクロップ処理がオン時の輝度ゲイン調整においては、255より暗い輝度値となるように調整されることとなる。d’は輝度ゲイン調整後の信号値を示している。このように、S1001の画像の輝度を調整する処理では、画像の各画素の輝度が線形に変換される。なお、本実施例において、マルチクロップ処理がオフに設定されているときの輝度ゲイン調整パラメータは255であり、実質的にはスルー相当の処理となる。これは、既に白色基準に基づいて正規化されている信号であるためである。ただし、必要に応じて、輝度ゲイン調整パラメータを変更してもよい。   The CPU 111 uses the brightness gain adjustment parameter stored in the RAM 118 in S1000 to adjust the normalized brightness based on the white reference of the image obtained by scanning (S1001). In step S <b> 1001, the CPU 111 performs luminance gain adjustment using the following formula 1. In the following Equation 1, d indicates the signal value of the RGB signal output from the CCD sensor of the scanner, and indicates that it is converted to a signal value after being normalized based on the white reference. Here, the white reference is a reference as to which level of the white signal value should be the luminance value 255 in the output image in a normal state. When the multi-crop processing is turned off, the signal value having the luminance value after the luminance gain adjustment of 255 is adjusted so that the luminance value is darker than 255 in the luminance gain adjustment when the multi-crop processing is turned on. d 'represents the signal value after luminance gain adjustment. As described above, in the process of adjusting the luminance of the image in S1001, the luminance of each pixel of the image is linearly converted. In this embodiment, the luminance gain adjustment parameter when the multi-crop process is set to OFF is 255, which is substantially a process equivalent to through. This is because the signal is already normalized based on the white reference. However, the luminance gain adjustment parameter may be changed as necessary.

Figure 2019213190
Figure 2019213190

ここで、図6の模式図を用いてS1001における処理を説明する。図6(a)はマルチクロップ処理がオフに設定されている場合を示しており、図6(b)はマルチクロップ処理がオンに設定されている場合を示している。CPU111はCCDセンサの出力を取得し、白色基準が255になるように正規化したあと(シェーディング補正後信号)に、式1を用いて調整後の信号値を算出する。たとえば、マルチクロップがオフに設定されている場合は、シェーディング補正後の信号値が260の場合、輝度ゲイン調整後の信号値は260になる。一方で、マルチクロップ処理がオンに設定されている場合、シェーディング補正後の信号値が260の場合、輝度ゲイン調整後の信号値は250.2になる。このように、マルチクロップ処理がオンに設定されている場合、輝度ゲイン調整後の信号値はマルチクロップがオフに設定されている場合よりも低くなり、画像全体が通常よりも暗い画像が生成される。   Here, the process in S1001 will be described with reference to the schematic diagram of FIG. FIG. 6A shows a case where the multi-crop process is set to off, and FIG. 6B shows a case where the multi-crop process is set to on. The CPU 111 obtains the output of the CCD sensor, normalizes the white reference to be 255 (the signal after shading correction), and then calculates an adjusted signal value using Equation 1. For example, when the multi-crop is set to OFF and the signal value after shading correction is 260, the signal value after luminance gain adjustment is 260. On the other hand, when the multi-crop processing is set to ON and the signal value after shading correction is 260, the signal value after luminance gain adjustment is 250.2. Thus, when multi-crop processing is set to on, the signal value after luminance gain adjustment is lower than when multi-crop is set to off, and an image that is darker than usual is generated. The

CPU111は、輝度ゲイン調整後の信号値に対して、端数処理を実行する(S1002)。S1002においてCPU111は、輝度ゲイン調整後の信号値が255以上の領域の信号値をすべて255に置換する。たとえば、マルチクロップがオンに設定されている場合に、シェーディング補正後信号の値が275であった場合、輝度ゲイン調整後の信号値は265となる。CPU111はS1002において当該領域の信号値を端数処理し、265から255に変更する。このようにCPU111は、画像中のある輝度よりも明るい箇所を、所定の輝度で置換して出力する。また、S1002においてCPU111は、小数点以下の値については、四捨五入を行う。   The CPU 111 executes fraction processing on the signal value after the luminance gain adjustment (S1002). In step S <b> 1002, the CPU 111 replaces all signal values in the region where the signal value after luminance gain adjustment is 255 or more with 255. For example, when the multi-crop is set to ON and the value of the signal after shading correction is 275, the signal value after luminance gain adjustment is 265. In step S1002, the CPU 111 rounds the signal value of the area and changes the value from 265 to 255. In this way, the CPU 111 replaces a portion brighter than a certain luminance in the image with a predetermined luminance, and outputs it. In S1002, the CPU 111 rounds off values after the decimal point.

ここで、再度、図6(a)(b)を参照し、S1002において実行される端数処理を説明する。ここで、輝度値に言及する際の、()内の数字は、輝度ゲイン調整後の信号値である。CPU111は、輝度ゲイン調整後の輝度値が255を超える箇所について、出力信号を255に置換する。たとえば、図6(a)では、輝度ゲイン調整後の原稿台カバーの白色(260)や原稿の白色(265)は、255に置換される。図6(b)では、輝度ゲイン調整後の原稿の白色(255)はそのまま255で出力され、第2の原稿の白色(265)は255に置換される。   Here, with reference to FIGS. 6A and 6B again, the fraction processing executed in S1002 will be described. Here, the numbers in parentheses when referring to luminance values are signal values after luminance gain adjustment. The CPU 111 replaces the output signal with 255 for locations where the luminance value after luminance gain adjustment exceeds 255. For example, in FIG. 6A, the white (260) of the original plate cover and the white (265) of the original after the luminance gain adjustment are replaced with 255. In FIG. 6B, the white color (255) of the original after the luminance gain adjustment is output as it is at 255, and the white color (265) of the second original is replaced with 255.

マルチクロップ処理がオフに設定されているときには、原稿台カバーの白色(260)と原稿の白色(265)はいずれも255に置換される。一方で、マルチクロップ処理がオンに設定されているときには、原稿台カバーの白色260と原稿の白色265は、輝度ゲイン調整によりそれぞれ(250.2)と(255)に変換されるため、端数処理後の輝度値にも差がでる。これにより、通常のスキャンでは検出することのできない原稿のエッジを検出できるようになる。本実施例では、マルチクロップ処理がONに設定されている場合の輝度ゲイン調整パラメータを265としたが、より暗い値としても構わない。   When the multi-crop processing is set to OFF, the white (260) of the original plate cover and the white (265) of the original are both replaced with 255. On the other hand, when the multi-crop processing is set to ON, the white 260 of the document table cover and the white 265 of the document are converted into (250.2) and (255) by the brightness gain adjustment, respectively. There is also a difference in the later luminance values. As a result, it becomes possible to detect an edge of a document that cannot be detected by normal scanning. In this embodiment, the luminance gain adjustment parameter when the multi-crop processing is set to ON is 265, but a darker value may be used.

<マルチクロップ座標検出処理の方法>
次に、図9を用いて、図7のS603において実行される輝度原調整後の画像から各原稿の4頂点座標を検出する処理を説明する。図9に記載の処理を実行するためのプログラムはROM117またはHDD119に記憶されている。CPU111が当該プログラムを読み出して実行することにより処理が実現される。
<Method of multi-crop coordinate detection processing>
Next, a process for detecting the four vertex coordinates of each original from the image after the luminance original adjustment executed in S603 of FIG. 7 will be described with reference to FIG. A program for executing the processing illustrated in FIG. 9 is stored in the ROM 117 or the HDD 119. The processing is realized by the CPU 111 reading and executing the program.

なお、マルチクロップを行うための座標検出処理には様々な方法があるが、ここでは代表的な手法である輪郭検出し、検出した輪郭を元に4頂からなる矩形を検出する方法を説明する。他の方法を用いて原稿の輪郭を抽出し切り出す領域を決定するとしてもよい。   Note that there are various methods for coordinate detection processing for performing multi-crop. Here, a method of detecting a contour, which is a representative method, and detecting a rectangle composed of four vertices based on the detected contour will be described. . Another method may be used to determine the area to be extracted by extracting the outline of the document.

CPU111は、HDD119に記憶された輝度ゲイン調整後の画像をRAM118に展開する(S700)。CPU111は、HDD119にJPEG等で画像圧縮され、保存されている輝度ゲイン調整後の画像を、RAM118に展開する。S700では、図5(c)に記載の輝度ゲイン調整後の画像がRAM118に展開される。   The CPU 111 expands the image after luminance gain adjustment stored in the HDD 119 in the RAM 118 (S700). The CPU 111 expands the image after luminance gain adjustment, which is compressed and stored in the HDD 119 with JPEG or the like, in the RAM 118. In S700, the image after the luminance gain adjustment shown in FIG.

CPU111は、S700で展開した画像を原稿の座標検出処理に必要な画像へ変換する(S701)。S701においてCPU111が実行する処理とは、例えば、RGBの3チャンネルで構成されている画像をグレーの1チャンネルに変換するグレー化変換や、解像度を低解像度化等の処理である。S701に記載の処理は、以後の処理の高速化を行うための処理であり、S701に記載の処理を省略してもよい。   The CPU 111 converts the image developed in S700 into an image necessary for document coordinate detection processing (S701). The processing executed by the CPU 111 in S701 is, for example, graying conversion for converting an image configured by three RGB channels into one gray channel, or processing for reducing the resolution. The process described in S701 is a process for speeding up subsequent processes, and the process described in S701 may be omitted.

CPU111は、S701において生成した画像からエッジ成分等の抽出処理を行い、エッジ部画像を生成する(S702)。S702において実行される処理は、各原稿のエッジ成分を抽出する方法であれば公知の方法でよく、例えば以下の方法等で実現される。   The CPU 111 performs extraction processing of edge components and the like from the image generated in S701, and generates an edge part image (S702). The processing executed in S702 may be a known method as long as it is a method for extracting the edge component of each document, and is realized by the following method, for example.

画像の輝度の勾配を見積もるSobel法やPrewitt法、Roberts cross法を用いてエッジ箇所を抽出する。また、画像の輝度の勾配の連続性等を考慮したCanny法を用いてもよい。さらに、エッジ抽出処理だけでなく、局所的な適応的二値化処理によって、局所的に異なる閾値処理を行うことでエッジを検出しても良い。さらに、S702において、CPU111はこれらの方法の1つを実行してもよいし、複数の処理を行い各処理で得た結果を論理積演算(AND演算)し原稿のエッジを抽出してもよい。   Edge portions are extracted using the Sobel method, the Prewitt method, and the Roberts cross method for estimating the luminance gradient of the image. Alternatively, the Canny method may be used in consideration of the continuity of the brightness gradient of the image. Furthermore, not only edge extraction processing but also edge detection may be performed by performing locally different threshold processing by local adaptive binarization processing. Further, in S702, the CPU 111 may execute one of these methods, or may perform a plurality of processes and perform an AND operation (AND operation) on the result obtained in each process to extract the edge of the document. .

CPU111は、S702で生成した画像のエッジ部画像から、数画素程度の塊で構成される孤立点除去を行う(S703)。数画素程度の小さな画素の塊は原稿のエッジ部ではなく、ノイズ等の可能性が高い。そこで以後の輪郭検出処理等で誤判定の原因となるノイズを除去するために、CPU111は数画素程度の小さなエッジ部の塊を除去する。   The CPU 111 performs isolated point removal composed of a cluster of about several pixels from the edge portion image of the image generated in S702 (S703). A small pixel block of about several pixels is not an edge portion of a document, and has a high possibility of noise or the like. Therefore, in order to remove noise that causes erroneous determination in the subsequent contour detection processing or the like, the CPU 111 removes a cluster of small edge portions of about several pixels.

CPU111は、孤立点が除去された後のエッジ部画像に対しての線分連結処理を行う(S704)。エッジ部画像において、原稿のエッジ部の輝度の勾配が不均一であると、輪郭線が途中で途切れてしまう場合がある。S703において、CPU111は途切れた輪郭線を連結させるための直線連結処理を実行する。S703において実行される処理は公知の方法の処理である。例えば、ハフ変換等の手法により線分を連結する。また、画像の膨張処理により線分を連結するとしてもよい。図10(a)はS701からS704までの処理を行った後の画像である。{0,0}、{X,0}、{0、Y}、{X,Y}で囲まれる画像800はスキャンした画像全体を示している。   The CPU 111 performs line segment connection processing on the edge portion image after the isolated points are removed (S704). In the edge portion image, when the luminance gradient of the edge portion of the document is not uniform, the contour line may be interrupted in the middle. In step S <b> 703, the CPU 111 executes a straight line connection process for connecting the disconnected contour lines. The processing executed in S703 is a known method. For example, the line segments are connected by a technique such as Hough transform. Further, line segments may be connected by image expansion processing. FIG. 10A shows an image after the processing from S701 to S704 is performed. An image 800 surrounded by {0, 0}, {X, 0}, {0, Y}, {X, Y} shows the entire scanned image.

CPU111は、生成されたエッジ部画像からエッジ部で囲まれる輪郭を抽出する(S705)。CPU111は、エッジ部分を示す画素の連結性を見ながら輪郭を検出する。さらに、CPU111は輪郭線の曲線方向が変わる点となる輪郭の変曲点の座標等を取得する。   The CPU 111 extracts a contour surrounded by the edge portion from the generated edge portion image (S705). The CPU 111 detects the contour while looking at the connectivity of the pixels indicating the edge portion. Further, the CPU 111 acquires the coordinates of the inflection point of the contour, which is the point where the curve direction of the contour changes.

CPU111は、S705で検出した変曲点の座標を用いて、画像から矩形を検出する(S706)。CPU111はS705で検出した変曲点の座標と、連続したエッジ線で囲まれる矩形を検出する。手法としては、例えば、エッジの線によって連結しているオブジェクトの外接矩形を検出する方法などがある。   The CPU 111 detects a rectangle from the image using the coordinates of the inflection point detected in S705 (S706). The CPU 111 detects the rectangle surrounded by the coordinates of the inflection point detected in S705 and the continuous edge line. As a method, for example, there is a method of detecting a circumscribed rectangle of objects connected by edge lines.

CPU111は、S706で検出された矩形から原稿のエッジ部分となる矩形を選択する(S707)。たとえば、図10(a)の原稿Aをスキャンした場合、原稿のエッジ部を示す矩形と、原稿Aに印刷されているテーブルを構成する矩形が複数検出される。そこで、複数の矩形から原稿Aの縁となる箇所を選択する必要がある。S707において、CPU111は、複数の矩形のうち、最も外側にある矩形のみを有効な矩形と判断し、別の矩形に内包された矩形を無効な矩形とする。これにより、原稿の紙片で形成される矩形は有効な矩形となるが、原稿内にある表図などの矩形は無効な矩形として判定される。   The CPU 111 selects a rectangle that becomes the edge portion of the document from the rectangles detected in S706 (S707). For example, when the document A in FIG. 10A is scanned, a plurality of rectangles indicating the edge portion of the document and a rectangle constituting the table printed on the document A are detected. Therefore, it is necessary to select a portion that becomes the edge of the document A from a plurality of rectangles. In step S <b> 707, the CPU 111 determines that only the outermost rectangle among the plurality of rectangles is a valid rectangle, and sets a rectangle included in another rectangle as an invalid rectangle. As a result, the rectangle formed by the paper piece of the document becomes a valid rectangle, but a rectangle such as a table in the document is determined as an invalid rectangle.

CPU111は、S701において画像サイズを縮小等している場合には、有効な矩形の各頂点の座標を入力された画像サイズでの座標に変換する(S708)。S701において、画像サイズを変換していない場合、当該処理を省略する。   If the image size is reduced in S701, the CPU 111 converts the coordinates of each vertex of the effective rectangle into the coordinates of the input image size (S708). If the image size is not converted in S701, the process is omitted.

CPU111は、各原稿の4頂点座標をHDD119に格納する(S709)。なお、座標データの格納先は記憶装置112のいずれであってもよい。   The CPU 111 stores the four vertex coordinates of each document in the HDD 119 (S709). Note that the storage location of the coordinate data may be any of the storage devices 112.

図10(b)は検出した各原稿の4頂点座標を示す模式図である。左上を原点とする幅Xピクセル、高さYピクセル面積の画像である。画像800から原稿A801、原稿B802、原稿C803のそれぞれに対応する。700から709の処理によって、画像800を各原稿の画像を分割し、その画像の4頂点の座標値を取得する。本実施例では、801(原稿A)の場合、801の4頂点である801{x,y}、801{x,y}、801{x,y}、801{x,y}の座標値を取得する。なお、取得した原稿の枚数分の4頂点を取得する(801{x,y}〜803{x,y}:(i=1〜4))。 FIG. 10B is a schematic diagram showing the four vertex coordinates of each detected original. It is an image having a width X pixel area and a height Y pixel area with the upper left as the origin. The image 800 corresponds to each of the original A801, the original B802, and the original C803. By the processing from 700 to 709, the image of each original is divided into the image 800, and the coordinate values of the four vertices of the image are acquired. In this embodiment, in the case of 801 (original A), 801 {x 1 , y 1 }, 801 {x 2 , y 2 }, 801 {x 3 , y 3 }, 801 {x 4 , which are the four vertices of 801 , Y 4 } is obtained. Note that four vertices corresponding to the number of acquired documents are acquired (801 {x i , y i } to 803 {x i , y i }: (i = 1 to 4)).

<画像輝度調整処理の方法>
次に、図7のS604において、CPU111が実行する画像の輝度調整処理について図11を用いて説明する。図11に記載の処理を実行するためのプログラムはROM117、または、HDD119等に記憶される。CPU111がROM117またはHDD119に記憶された制御プログラムを実行することにより処理が実現される。
<Image brightness adjustment processing method>
Next, image brightness adjustment processing executed by the CPU 111 in S604 of FIG. 7 will be described with reference to FIG. A program for executing the processing shown in FIG. 11 is stored in the ROM 117, the HDD 119, or the like. The processing is realized by the CPU 111 executing a control program stored in the ROM 117 or the HDD 119.

図7のS602で輝度ゲイン調整がなされた画像は通常のスキャン画像よりも画像全体が暗くなっており、保存・送信用の画像には適さない。そこで、S604において、CPU111は画像の明るさを明るくし、外部に送信して保存する用の画像を生成する。どの程度まで画像の輝度を明るくするかは任意に設定されるものとしてよいが、マルチクロップ処理がオフに設定されているときと同程度まで明るくすることが望ましい。   The image whose luminance gain is adjusted in S602 in FIG. 7 is darker than the normal scan image, and is not suitable for an image for storage / transmission. In step S604, the CPU 111 increases the brightness of the image and generates an image to be transmitted and stored outside. The degree to which the brightness of the image is increased may be arbitrarily set, but it is desirable to increase the brightness to the same level as when the multi-crop processing is set to off.

画像輝度調整処理では、画像全体の輝度を明るく補正できればよく、その手法は限定しない。ここでは、例として3例を説明する。本実施例では、以下の3例のうちいずれかを用いて画像の輝度を調整するものとする。   In the image brightness adjustment process, it is sufficient that the brightness of the entire image can be corrected brightly, and the method is not limited. Here, three examples will be described as an example. In the present embodiment, the luminance of the image is adjusted using any one of the following three examples.

1つ目の手法は、ガンマ補正処理を用いて画像の輝度を明るく補正する方法である。図11は画像輝度調整処理のフローを示すフローチャートである。図11に記載の処理を実現するためのプログラムはROM117または、HDD119に記憶されており、CPU111が当該プログラムを読出し実行することで処理が実現する。   The first method is a method of correcting the brightness of an image brightly using gamma correction processing. FIG. 11 is a flowchart showing the flow of image brightness adjustment processing. A program for realizing the processing illustrated in FIG. 11 is stored in the ROM 117 or the HDD 119, and the processing is realized by the CPU 111 reading and executing the program.

CPU111は、画像の信号値をRGB色空間からYUV色空間へ変換する(S1100)。S1100においては、変換後の色空間をYUV色空間としたが、変換後の色空間はYCbCr色空間など輝度と色差で構成される色空間であればよい。   The CPU 111 converts the signal value of the image from the RGB color space to the YUV color space (S1100). In S1100, the converted color space is the YUV color space, but the converted color space may be a color space composed of luminance and color difference, such as a YCbCr color space.

CPU111は、S1100において以下の式2を用いてRGBからYUVへの変換を行う。
Y= 0.299×R+0.587×G+0.114×B
U=−0.169×R−0.331×G+0.500×B・・・(式2)
V= 0.500×R−0.419×G−0.081×B
In step S1100, the CPU 111 performs conversion from RGB to YUV by using the following Expression 2.
Y = 0.299 × R + 0.587 × G + 0.114 × B
U = −0.169 × R−0.331 × G + 0.500 × B (Expression 2)
V = 0.500 × R−0.419 × G−0.081 × B

CPU111は、輝度信号であるY信号を明るくなるようにガンマ補正処理を実行する(S1101)。CPU111は、変換後のY信号の信号値を以下の式3を用いて補正する。   The CPU 111 executes gamma correction processing so that the Y signal, which is a luminance signal, is brightened (S1101). The CPU 111 corrects the signal value of the Y signal after conversion using the following Expression 3.

Figure 2019213190
Figure 2019213190

図12は、γ値を2.0の場合の変換テーブルである。γ値はマルチクロップ処理がオンに設定されているときの輝度ゲイン調整パラメータの値に基づいて値を決定される。即ち、輝度ゲイン調整を実行するときにどの程度、画像が暗くなるよう設定したかに応じて決まる。ガンマ値は予めROM117、またはHDD119に記憶されているとする。図12において、横軸は入力信号、縦軸は出力信号を示している。S1101に記載の処理を行うことによって、画像全体が明るく補正される。   FIG. 12 is a conversion table when the γ value is 2.0. The γ value is determined based on the value of the luminance gain adjustment parameter when the multi-crop processing is set to ON. That is, it is determined according to how much the image is set to be dark when the brightness gain adjustment is executed. It is assumed that the gamma value is stored in the ROM 117 or HDD 119 in advance. In FIG. 12, the horizontal axis indicates the input signal, and the vertical axis indicates the output signal. By performing the process described in S1101, the entire image is brightly corrected.

CPU111は、S1101における補正後のY’の信号値と、S1100における変換後のUとVを用いて、R’G’B’値を算出する(S1102)。CPU111は、以下の式4を用いてYUV信号をRGBへ変換する。CPU111は補正後の画像をHDD119に格納する。
R’=1.000×Y’+1.402×V
G’=1.000×Y’−0.344×U−0.714×V・・・(式4)
B’=1.000×Y’+1.772×U
The CPU 111 calculates an R′G′B ′ value using the Y ′ signal value after correction in S1101 and the converted U and V values in S1100 (S1102). The CPU 111 converts the YUV signal to RGB using Expression 4 below. The CPU 111 stores the corrected image in the HDD 119.
R ′ = 1.000 × Y ′ + 1.402 × V
G ′ = 1.000 × Y′−0.344 × U−0.714 × V (Formula 4)
B ′ = 1.000 × Y ′ + 1.772 × U

図11に記載の処理を実行することで、図7S602において生成された画像全体の輝度を明るく補正することができる。図5(d)は、図5(c)を入力画像として入れて、本処理を施した画像の図であり、標準の輝度で取得した画像である図5(b)と近い輝度の画像になる。このようにすることで、原稿のエッジ部を抽出しやすいよう、全体を暗く補正した画像から、保存に適した明るい画像を得ることができる。上記の方法では、RGB値を輝度と色差で構成される色空間に変換し輝度信号のみを調整する。このようにすることで、画像の輝度を明るくした後も、画像に含まれる色差を保つことができる。   By executing the processing shown in FIG. 11, the brightness of the entire image generated in FIG. 7S602 can be corrected brightly. FIG. 5D is a diagram of an image obtained by applying FIG. 5C as an input image and subjected to this processing, and an image having a luminance close to that of FIG. 5B, which is an image acquired at a standard luminance. Become. In this way, a bright image suitable for storage can be obtained from an image that has been darkly corrected so that the edge portion of the document can be easily extracted. In the above method, RGB values are converted into a color space composed of luminance and color difference, and only the luminance signal is adjusted. In this way, the color difference included in the image can be maintained even after the brightness of the image is increased.

2つ目の手法として、1つ目の処理よりも簡易的な手法で画像の輝度を調整する方法を説明する。2つ目の手法では、RGB空間から他の色空間への変換を行うことなく画像の輝度を明るくする。CPU111は、RGB信号を取得して、以下の式5を用いてR’G’B’信号へ変換する。   As a second method, a method of adjusting the brightness of an image by a simpler method than the first process will be described. In the second method, the brightness of the image is increased without performing conversion from the RGB space to another color space. The CPU 111 acquires the RGB signal and converts it into an R′G′B ′ signal using the following Equation 5.

Figure 2019213190
Figure 2019213190

上記の変換式で画像全体の輝度を上げて変換することができる。   The above conversion formula can be converted by increasing the luminance of the entire image.

上記で説明したガンマ補正処理を用いて画像の輝度を明るく補正する方法により、スキャン時に通常より暗く設定しスキャンした画像の明るさを通常と同等の明るさに変換することができる。しかし、「スキャンして送信」機能において、S411の画像形成処理における画像処理として、上記とは異なるガンマ補正処理(以後、画像形成内のガンマ補正と表記)が行われるように予め設定されている場合がある。画像形成内のガンマ補正処理は、例えば、スキャン対象原稿がもともと白い紙であったとしても、紙の質やスキャナの光源やセンサーの状態によっては若干の下地色が付く場合があるので、その下地色を消すなどの目的で行われるものである。そこで、S411において画像形成内のガンマ補正が行われた場合、一度処理された画像形成内のガンマ補正の効果を消したうえで、輝度補正を行い、再度画像形成内のガンマ補正を行うようにしてもよい。   By the method of correcting the brightness of the image brightly using the gamma correction process described above, it is possible to convert the brightness of the scanned image to a brightness equivalent to the normal brightness by setting it to be darker than normal at the time of scanning. However, in the “scan and send” function, gamma correction processing (hereinafter referred to as gamma correction in image formation) different from the above is performed as image processing in the image forming processing in S411. There is a case. The gamma correction processing in image formation is, for example, that even if the document to be scanned is originally white paper, it may have a slight background color depending on the quality of the paper and the light source and sensor status of the scanner. This is done for the purpose of erasing the color. Therefore, when the gamma correction in the image formation is performed in S411, the brightness correction is performed after the effect of the gamma correction in the image formation once processed is deleted, and the gamma correction in the image formation is performed again. May be.

図19は画像輝度調整処理のフローを示すフローチャートである。図19に記載の処理を実現するためのプログラムはROM117または、HDD119に記憶されており、CPU111が当該プログラムを読出し実行することで処理が実現する。   FIG. 19 is a flowchart showing the flow of image brightness adjustment processing. A program for realizing the processing illustrated in FIG. 19 is stored in the ROM 117 or the HDD 119, and the processing is realized by the CPU 111 reading and executing the program.

CPU111は、画像形成内のガンマ補正の効果を消す(逆関数をかける)ような変換を行う(S1103)。例えば、画像形成内において入力される輝度に対し、1.8乗(または、1.0乗〜3.0乗程度)の値を用いたガンマ補正が実行される。   The CPU 111 performs conversion to eliminate the effect of gamma correction in the image formation (multiply the inverse function) (S1103). For example, gamma correction using a value of 1.8th power (or about 1.0th power to 3.0th power) is executed for luminance input in image formation.

Figure 2019213190
Figure 2019213190

上記の変換式で画像形成内のガンマ補正の効果を消す(逆関数をかける)ような変換を行うことができる。   Conversion that eliminates the effect of gamma correction in image formation (by applying an inverse function) can be performed using the above conversion formula.

その後、CPU111は、画像の輝度を調整するための変換を行う(S1104)。例えば、入力される信号値に対し特定の係数をかけることによって輝度を調整することができる。
R′=R×rate この際、rate>1.0とする
G′=255×rate この際、rate>1.0とする・・・(式7)
B′=255×rate この際、rate>1.0とする
Thereafter, the CPU 111 performs conversion for adjusting the luminance of the image (S1104). For example, the luminance can be adjusted by applying a specific coefficient to the input signal value.
R ′ = R × rate At this time, rate> 1.0 G ′ = 255 × rate At this time, rate> 1.0 (Expression 7)
B ′ = 255 × rate At this time, rate> 1.0

更に、その後、CPU111は、画像形成内のガンマ補正と同等のガンマ補正をかけるような変換を行う(S1105)。例えば、画像形成内において入力される輝度に対し、1/1.8乗(または、1/1.0乗〜1/3.0乗程度)の値を用いたガンマ補正が実行される。   Further, after that, the CPU 111 performs conversion so as to perform gamma correction equivalent to gamma correction in image formation (S1105). For example, gamma correction using a value of 1 / 1.8 power (or about 1 / 1.0 power to 1 / 3.0 power) is executed for luminance input in image formation.

Figure 2019213190
Figure 2019213190

上記の変換式で画像形成内のガンマ補正と同等のガンマ補正を行う変換を行うことができる。   With the above conversion formula, it is possible to perform conversion for performing gamma correction equivalent to gamma correction in image formation.

3つ目の手法として、3次元LUT(LookUp Table)による変換処理を説明する。ここで扱う3次元LUTは、入力されたRGBデータを変換して、別のRGBデータへ変換するために利用するものである。3次元LUTの構成を概念的に表すと図20のようになり、R、G、Bの3方向に0〜255の直行軸を設ける。これは、入力されたRGBデータの1画素ごとに対応した軸である。この直行軸上には離散的にLUTのエントリーポイントが配置されており、各エントリーポイントには3次元LUTのRGB出力値が格納されている。以後、このエントリーポイントを格子点と呼称する。図13は、格子点間隔が17の場合の格子点テーブルの例である。図13の入力R,入力G、入力Bは、図20の直行軸上の座標である。出力R、出力G,出力Bは、入力R,入力G、入力Bの組み合わせに対応する出力値である。たとえば、入力R,入力G、入力Bが(0,0,17)であった場合の出力R、出力G,出力Bは(0,0,19)となる。   As a third method, a conversion process using a three-dimensional LUT (LookUp Table) will be described. The three-dimensional LUT handled here is used to convert input RGB data and convert it into other RGB data. A conceptual representation of the configuration of the three-dimensional LUT is as shown in FIG. This is an axis corresponding to each pixel of the input RGB data. LUT entry points are discretely arranged on the orthogonal axis, and RGB output values of the three-dimensional LUT are stored in each entry point. Hereinafter, this entry point is referred to as a grid point. FIG. 13 is an example of a lattice point table when the lattice point interval is 17. FIG. Input R, input G, and input B in FIG. 13 are coordinates on the orthogonal axis in FIG. Output R, output G, and output B are output values corresponding to combinations of input R, input G, and input B. For example, when the input R, input G, and input B are (0, 0, 17), the output R, output G, and output B are (0, 0, 19).

3次元LUTには、格子点に対応するRGB値以外も入力される。そのような場合には、補間処理により出力のRGB値を決定する。具体的には、入力RGB値が3次元LUTに入力されたとき、その座標を包括する4つの格子点すなわち三角錐の頂点となる格子を決定する。そして、各格子が持つ出力RGB値と、各格子と入力RGB値の座標の距離をもとに線形補間をして、出力RGB値を決定する。より詳細には特開2005−354421号公報などで説明がなされているものである。   Other than the RGB values corresponding to the grid points are also input to the three-dimensional LUT. In such a case, output RGB values are determined by interpolation processing. Specifically, when the input RGB value is input to the three-dimensional LUT, four lattice points including the coordinates, that is, the lattice serving as the apex of the triangular pyramid are determined. Then, an output RGB value is determined by performing linear interpolation based on the output RGB value of each grid and the distance between the coordinates of each grid and the input RGB value. More details are described in JP-A-2005-354421.

例えば入力画素信号Pを包括する4格子が図21に示すとおりになった場合をもとに説明すると、該4格子はC0、C1、C2、C3のようになる。   For example, a description will be given based on the case where four grids including the input pixel signal P are as shown in FIG. 21. The four grids are C0, C1, C2, and C3.

夫々の格子に格納されている出力RGB値を
C0:(R_C0、G_C0、B_C0)
C1:(R_C1、G_C1、B_C1)
C2:(R_C2、G_C2、B_C2)
C3:(R_C3、G_C3、B_C3)
とし、格子間の距離をNとする。
The output RGB values stored in the respective grids are represented as C0: (R_C0, G_C0, B_C0).
C1: (R_C1, G_C1, B_C1)
C2: (R_C2, G_C2, B_C2)
C3: (R_C3, G_C3, B_C3)
And the distance between the lattices is N.

また、これら4つの格子が選択された時点で、各格子と入力RGB値の座標の距離をもとにA0、A1、A2,A3の重み係数が算出される。   Further, when these four grids are selected, the weighting coefficients A0, A1, A2, and A3 are calculated based on the distances between the coordinates of the grids and the input RGB values.

そして入力RGB信号に対する3次元LUTの出力RGB値R2、G2、B2は
R2=(A0×R_C0+A1×R_C1+A2×R_C2+A3×R_C3)/N
G2=(A0×G_C0+A1×G_C1+A2×G_C2+A3×G_C3)/N
B2=(A0×B_C0+A1×B_C1+A2×B_C2+A3×B_C3)/N
のように線形補間し、導出される。このようにして、3次元LUTを利用することにより、入力されたRGB信号を非線形に変換して、異なる色空間特性を持つRGB信号を出力することが可能となる。なお、格子点の数を増やすことにより、補間演算精度が向上するが、使用メモリ量増加とのトレードオフとなる。
The output RGB values R2, G2, and B2 of the three-dimensional LUT for the input RGB signal are R2 = (A0 × R_C0 + A1 × R_C1 + A2 × R_C2 + A3 × R_C3) / N
G2 = (A0 * G_C0 + A1 * G_C1 + A2 * G_C2 + A3 * G_C3) / N
B2 = (A0 × B_C0 + A1 × B_C1 + A2 × B_C2 + A3 × B_C3) / N
It is derived by linear interpolation as follows. In this way, by using the three-dimensional LUT, it is possible to convert input RGB signals nonlinearly and output RGB signals having different color space characteristics. Note that increasing the number of grid points improves the interpolation calculation accuracy, but this is a trade-off with an increase in the amount of memory used.

S602において、輝度ゲイン調整後のRGB信号は、sRGB等の規格化されたRGB信号へ変換される。これは、輝度ゲイン調整後のRGB信号は、光学デバイスに依存した特性を持っているだけであるためである。その変換には、ガンマ補正のための1次元LUTと3次元LUTが組み合わせて利用される場合が多い。このような変換は、一般的に非線形な変換であり、単純な線形演算処理では対応が出来ないためである。   In S602, the RGB signal after luminance gain adjustment is converted into a standardized RGB signal such as sRGB. This is because the RGB signal after luminance gain adjustment only has characteristics depending on the optical device. For the conversion, a one-dimensional LUT and a three-dimensional LUT for gamma correction are often used in combination. This is because such conversion is generally non-linear conversion and cannot be handled by simple linear arithmetic processing.

ここで利用される3次元LUTのパラメータは、マルチクロップがオフに設定されている通常スキャン時に最適化して設計されていることが想定される。このような場合には、S602で非線形の変換が行われているため、S604の輝度調整処理において線形の処理を行っても、通常スキャン時と同等のRGB値に戻すことは出来ない。このような場合には、本ステップにおいても、3次元LUTを利用して、RGB信号の変換を行うことにより、輝度調整処理を行う。   It is assumed that the parameters of the three-dimensional LUT used here are optimized and designed during normal scanning in which multi-crop is set to off. In such a case, since non-linear conversion is performed in S602, even if linear processing is performed in the luminance adjustment processing in S604, it is not possible to return to RGB values equivalent to those during normal scanning. In such a case, also in this step, luminance adjustment processing is performed by converting RGB signals using a three-dimensional LUT.

続いて、この輝度調整用の輝度調整3次元LUTの作成方法について、図22を用いて説明を行う。図22(a)は、マルチクロップ設定がオフの際のRGB信号の流れを表現している。入力RGB2201は、シェーディング補正を行い、画像の輝度を所定の白基準に基づいて正規化された信号である。この信号に対して、輝度ゲイン調整を行うが、マルチクロップ設定がオフの際には、スルー相当の処理しかされない。そのため、輝度ゲイン調整後RGB2202と入力RGB2201は同等の信号となる。ただし、信号値が255以上の領域の信号値を255に置換する処理は行う。この後に、ガンマ補正1次元LUTによる処理と、色空間変換3次元LUTによる処理により、規格化されたRGBへ
変換されたものが通常出力RGB2203である。これ以降の処理は、マルチクロップ設定がオフであるため施されない。
Next, a method of creating the brightness adjustment three-dimensional LUT for brightness adjustment will be described with reference to FIG. FIG. 22A represents the flow of RGB signals when the multi-crop setting is off. The input RGB 2201 is a signal obtained by performing shading correction and normalizing the luminance of the image based on a predetermined white standard. The luminance gain adjustment is performed on this signal, but when the multi-crop setting is off, only processing equivalent to through is performed. Therefore, RGB 2202 after the luminance gain adjustment and the input RGB 2201 are equivalent signals. However, the process of replacing the signal value in the region where the signal value is 255 or more with 255 is performed. After this, the normal output RGB 2203 is converted into the standardized RGB by the processing by the gamma correction one-dimensional LUT and the processing by the color space conversion three-dimensional LUT. The subsequent processing is not performed because the multi-crop setting is off.

図22(b)は、マルチクロップ設定がオンの際の、RGB信号の流れを表現している。入力RGB2204は、シェーディング補正を行い、画像の輝度を所定の白基準に基づいて正規化された信号である。この信号は、入力RGB2201と同等の信号である。この信号に対して、輝度ゲイン調整を行い、輝度ゲイン調整後RGB2205とする。この後に、ガンマ補正1次元LUTによる処理と、色空間変換3次元LUTによる処理により生成されるのが、輝度調整前RGB2206である。この輝度調整前RGB2206を生成する際の、ガンマ補正1次元LUTと、色空間変換3次元LUTは、図22(a)のものと同一のパラメータのLUTである。ただし、輝度ゲイン調整が行われているため、通常出力RGB2203と輝度調整前RGB2206は、同一の出力とはならない。この信号が輝度調整3次元LUTとクロップ座標検出処理の入力信号となる。S604の輝度調整処理の目的は、輝度調整前RGB2206を変換して、通常出力RGB2203と同等の信号とすることである。つまり、輝度調整3次元LUT2201は、輝度調整前信号2206を変換し、出力される輝度調整後信号2207を、通常出力RGB2203と同等にすることが役務となる。なお、補間演算の精度や、ビット精度の問題で、完全に同一にはならないため、同等の出力とすることが目的となる。   FIG. 22B represents the flow of RGB signals when the multi-crop setting is on. The input RGB 2204 is a signal obtained by performing shading correction and normalizing the luminance of the image based on a predetermined white standard. This signal is equivalent to the input RGB 2201. A luminance gain adjustment is performed on this signal to obtain RGB 2205 after the luminance gain adjustment. After this, RGB 2206 before luminance adjustment is generated by processing by the gamma correction one-dimensional LUT and processing by the color space conversion three-dimensional LUT. The gamma correction one-dimensional LUT and the color space conversion three-dimensional LUT when generating the RGB 2206 before brightness adjustment are LUTs having the same parameters as those in FIG. However, since the luminance gain adjustment is performed, the normal output RGB 2203 and the RGB 2206 before luminance adjustment do not have the same output. This signal becomes an input signal for the luminance adjustment three-dimensional LUT and the crop coordinate detection process. The purpose of the luminance adjustment processing in S604 is to convert the RGB 2206 before luminance adjustment into a signal equivalent to the normal output RGB 2203. That is, the luminance adjustment three-dimensional LUT 2201 has a function of converting the pre-luminance adjustment signal 2206 and making the outputted luminance adjustment signal 2207 equivalent to the normal output RGB 2203. It should be noted that the output is the same because it is not completely the same due to the accuracy of interpolation calculation and bit accuracy.

そのための輝度調整3次元LUT2201のパラメータの求め方について、続いて説明をする。まず、入力RGB2201と入力RGB2204のRGB値が同一である場合の、通常出力RGB2203のRGB値と、輝度調整前RGB2207のRGB値の組み合わせを求める。入力RGB2201と入力RGB2204のRGB値を変化させることにより、種々の組み合わせを求め、組み合わせ表とする。RGB値は、R,G,Bそれぞれについて、0からXまで変化させる。Xは、図22(b)の輝度ゲイン調整後RGB2205で255の信号値となる入力RGB2204の信号値の中で最少となる値である。本実施例においては、図6(b)からわかるように、265である。この組み合わせ表は、輝度調整3次元LUT2201の入力と出力の組み合わせとなる。入力が、輝度調整前RGB2206のRGB値であり、出力が通常出力RGB2203のRGB値である。この組み合わせ表から、3次元LUTの格子点に格納されるRGB値を求めれば、輝度調整3次元LUT2201のパラメータを求められることになる。ここで、格子点の座標は、輝度調整前RGB2207のRGB値であり、その格子点に格納される値が該当する輝度調整前RGB2207のRGB値と組になる通常出力RGB2203のRGB値である。組み合わせ表に、格子点座標の輝度調整前RGB2207のRGB値が存在しない場合には、格子点座標の周囲の座標の組となる通常出力RGB2203のRGB値を補間して、格子点に格納される値とする。このようにして、非線形の輝度調整処理が可能な、輝度調整3次元LUTを作成することが可能となる。   A method for obtaining the parameters of the luminance adjustment three-dimensional LUT 2201 for that purpose will be described subsequently. First, when the RGB values of the input RGB 2201 and the input RGB 2204 are the same, a combination of the RGB value of the normal output RGB 2203 and the RGB value of the RGB 2207 before luminance adjustment is obtained. By changing the RGB values of the input RGB 2201 and the input RGB 2204, various combinations are obtained and used as a combination table. The RGB values are changed from 0 to X for each of R, G, and B. X is the minimum value among the signal values of the input RGB 2204 that becomes a signal value of 255 in RGB 2205 after luminance gain adjustment in FIG. In this embodiment, it is 265 as can be seen from FIG. This combination table is a combination of input and output of the luminance adjustment three-dimensional LUT 2201. The input is the RGB value of RGB 2206 before luminance adjustment, and the output is the RGB value of normal output RGB 2203. If the RGB values stored in the lattice points of the three-dimensional LUT are obtained from this combination table, the parameters of the luminance adjustment three-dimensional LUT 2201 can be obtained. Here, the coordinates of the grid point are the RGB values of the RGB 2207 before luminance adjustment, and the RGB values of the normal output RGB 2203 in which the values stored in the grid points are paired with the RGB values of the corresponding RGB 2207 before luminance adjustment. If the RGB value of RGB2207 before luminance adjustment of the grid point coordinates does not exist in the combination table, the RGB values of the normal output RGB 2203 that is a set of coordinates around the grid point coordinates are interpolated and stored in the grid points. Value. In this way, it is possible to create a luminance adjustment three-dimensional LUT capable of nonlinear luminance adjustment processing.

ここまで、説明した手法は、3次元LUTでの処理を2回行う必要がある。しかしながら、3次元LUTでの処理は、計算コストが高い。また、輝度調整3次元LUTの処理を、外部サーバーで行う際などは、機種ごとの輝度調整3次元LUTを外部サーバー側に保持する必要がある。このような課題を解決するために、3次元LUTを1回だけ利用する方法について、図22(c)(d)を用いて説明を行う。図22(c)は、図22(b)における輝度調整3次元LUT2201を分割して、非線形補正3次元LUT2203と輝度調整1次元LUT2204として、クロップ座標検出処理の前後に配置している。ここで、輝度調整1次元LUT2204は、輝度ゲインをもとに戻すことだけを行う。具体的には、R,G,Bの信号ごとに下記の式6を利用して計算する。   Up to this point, the described method needs to perform the process in the three-dimensional LUT twice. However, the processing with the three-dimensional LUT has a high calculation cost. Further, when the brightness adjustment three-dimensional LUT processing is performed by an external server, it is necessary to hold the brightness adjustment three-dimensional LUT for each model on the external server side. In order to solve such a problem, a method of using the three-dimensional LUT only once will be described with reference to FIGS. In FIG. 22C, the luminance adjustment three-dimensional LUT 2201 in FIG. 22B is divided and arranged as a non-linear correction three-dimensional LUT 2203 and a luminance adjustment one-dimensional LUT 2204 before and after the crop coordinate detection process. Here, the luminance adjustment one-dimensional LUT 2204 only returns the luminance gain. Specifically, the calculation is performed for each of the R, G, and B signals using the following Equation 6.

Figure 2019213190
Figure 2019213190

ここで、INは輝度調整1次元LUT2204の入力であり、OUTは輝度調整1次元LUT2204の出力である。ここで、OUTの値が255を超える場合には、255とする処理を行う。輝度ゲイン調整パラメータは、式1のもとの同一の値を利用する。本実施例においては、265であるが、式1と同一のパラメータであれば、他の値でも良い。式6は、式1で信号値にかけた輝度ゲイン調整処理をもとに戻す処理となる。しかしながら、ガンマ補正1次元LUTおよび色空間変換3次元LUTの処理を、考慮していない。そこで、その部分については、非線形補正3次元LUT2203で吸収を行う。つまり、非線形補正3次元LUT2203は、色空間変換後RGB2008を処理し、出力される輝度調整前信号2209を、輝度調整1次元LUT2204でさらに処理した後に、通常出力RGB2203と同等にすることが役務となる。なお、補間演算の精度や、ビット精度の問題で、完全に同一にはならないため、同等の出力とすることが目的となる。   Here, IN is an input of the luminance adjustment one-dimensional LUT 2204, and OUT is an output of the luminance adjustment one-dimensional LUT 2204. Here, when the value of OUT exceeds 255, the process of 255 is performed. The luminance gain adjustment parameter uses the same value as in Equation 1. In the present embodiment, the value is 265, but other values may be used as long as the parameters are the same as those in the expression 1. Expression 6 is a process for returning to the luminance gain adjustment process applied to the signal value in Expression 1. However, the processing of the gamma correction one-dimensional LUT and the color space conversion three-dimensional LUT is not considered. Therefore, the portion is absorbed by the non-linear correction three-dimensional LUT 2203. That is, the non-linear correction three-dimensional LUT 2203 processes RGB 2008 after color space conversion, and outputs the pre-luminance adjustment signal 2209 to be equivalent to the normal output RGB 2203 after further processing by the luminance adjustment one-dimensional LUT 2204. Become. It should be noted that the output is the same because it is not completely the same due to the accuracy of interpolation calculation and bit accuracy.

非線形補正3次元LUT2203のパラメータの求め方について、続いて説明をする。まず、輝度調整3次元LUT2201のパラメータを求めた際と同一の組み合わせ表を求める。ここで入力値は、輝度調整3次元LUT2201のパラメータを求める際には、輝度調整前RGB2207であったが、今回は、色空間変換後RGB2208となるが、両者の値は同一である。続いて、この組み合わせ表の出力値(通常出力RGB2203のRGB値)の値を式1を利用して変換する。これは、今回求めたいのは、非線形補正3次元LUTの出力である輝度調整前RGB2209であるためである。変換後の値を輝度調整1次元LUTで処理すると、輝度調整後RGB2210と通常出力RGB2203が同等の値となる。ただし、このままでは、輝度調整前RGB2209は0から255×255/輝度ゲイン調整パラメータの値しか持たなくなる。輝度ゲイン調整パラメータが265のときには、約245である。クロップ座標検出処理のためには、255に近い部分の値が重要であるため、非線形補正3次元LUT2203の出力値としては、255付近の値を保持するようにすることが望ましい。そこで、変換後の出力値が255×255/輝度ゲイン調整パラメータの値である場合は、入力値の信号値をそのまま出力値とするように補正を行う。補正後の出力値が255×255/輝度ゲイン調整パラメータの値を下回った場合には、補正後の出力値を255×255/輝度ゲイン調整パラメータの値のままとする。このような補正処理を行っても、輝度調整1次元LUT2204の処理で255とされるため問題は生じない。具体的な例を図23に示す。図23は、輝度ゲイン調整パラメータが265である場合の、組み合わせ表のから2種類の組み合わせの例を示したものである。組み合わせIndex1の場合については、出力値RGB(80、53、124)が変換され、式1による変換後出力値RGB(77.0、51.0、119.3)となる。補正処理は、補正条件(255×255/265≒245.4)を満たすRGB値がないので施されず、補正処理後出力値は変換後出力と同一になる。補正処理後出力値RGBが、輝度調整1次元LUT2204で処理されると、輝度調整後RGB(80、53、124)となり、出力値RGBと同一となり、正しい変換処理となっていることが分かる。組み合わせIndex2の場合については、出力値RGB(228、255、255)が変換され、式1による変換後出力値RGB(219.4、245.4、245.4)となる。補正処理は、補正条件(255×255/265=245.4)を満たすRGB値であるGおよびBに対して施される。Gについては、入力値が243であり、245.4を下回るため、245.4のままとなる。Bについては、入力値が250であり、245.4を上回るため、250となる。結果として、補正処理後出力値RGBは(219.4、245.4、250)となる。この補正処理後出力値RGBが、輝度調整1次元LUT2204で処理されると、輝度調整後RGB(228、255、255)となり、出力値RGBと同一となり、正しい変換処理となっていることが分かる。なお、Bについては、255を超える値を255とする処理が働いている。このようにして計算する補正処理後出力値のRGBを非線形補正3次元LUT2203の出力とする。そして、色空間変換後RGB2208を非線形補正3次元LUT2203の入力とする。この入出力の組み合わせ表から、3次元LUTの格子点に格納されるRGB値を求めれば、非線形補正3次元LUT2203のパラメータを求められることになる。ここで、格子点の座標は、色空間変換後RGB2208のRGB値であり、その格子点に格納される値が該当する色空間変換後RGB2208のRGB値と組になる補正処理後出力値のRGB値である。組み合わせ表に、格子点座標の色空間変換後RGB2208のRGB値が存在しない場合には、格子点座標の周囲の座標の組となる補正処理後出力値のRGB値を補間して、格子点に格納される値とする。このようにして、非線形の輝度調整処理が可能な、輝度調整1次元LUTと組み合わせることが可能な、非線形補正3次元LUTを作成することが可能となる。こうして作成した非線形補正3次元LUT2203は、色空間変換3次元LUT2202と合成することが可能である。それを示したのが、図22(d)である。図22(d)において、色空間変換&非線形補正3次元LUT2205は、色空間変換3次元LUT2202と非線形補正3次元LUT2203を合成したものである。合成することによって、3次元LUT処理を1回にすることが可能となる。   Next, how to determine the parameters of the nonlinear correction three-dimensional LUT 2203 will be described. First, the same combination table is obtained as when the parameters of the luminance adjustment three-dimensional LUT 2201 are obtained. Here, the input value is RGB 2207 before luminance adjustment when obtaining the parameters of the luminance adjustment three-dimensional LUT 2201, but this time it is RGB 2208 after color space conversion, but both values are the same. Subsequently, the value of the output value (the RGB value of the normal output RGB 2203) of this combination table is converted using Equation 1. This is because the RGB 2209 before luminance adjustment, which is the output of the nonlinear correction three-dimensional LUT, is to be obtained this time. When the converted value is processed by the luminance adjustment one-dimensional LUT, the luminance adjusted RGB 2210 and the normal output RGB 2203 become equivalent values. However, in this state, the RGB 2209 before luminance adjustment has only a value of 0 to 255 × 255 / luminance gain adjustment parameter. When the luminance gain adjustment parameter is 265, it is about 245. Since the value close to 255 is important for the crop coordinate detection process, it is desirable to maintain a value near 255 as the output value of the nonlinear correction three-dimensional LUT 2203. Therefore, when the output value after conversion is the value of 255 × 255 / luminance gain adjustment parameter, correction is performed so that the signal value of the input value is directly used as the output value. When the corrected output value falls below the value of 255 × 255 / luminance gain adjustment parameter, the corrected output value remains the value of 255 × 255 / luminance gain adjustment parameter. Even if such correction processing is performed, there is no problem because the luminance adjustment one-dimensional LUT 2204 is set to 255. A specific example is shown in FIG. FIG. 23 shows an example of two types of combinations from the combination table when the luminance gain adjustment parameter is 265. In the case of the combination Index1, the output value RGB (80, 53, 124) is converted into the converted output value RGB (77.0, 51.0, 119.3) according to Equation 1. The correction process is not performed because there is no RGB value that satisfies the correction condition (255 × 255 / 265≈245.4), and the output value after the correction process is the same as the output after conversion. If the output value RGB after correction processing is processed by the luminance adjustment one-dimensional LUT 2204, it becomes RGB after luminance adjustment (80, 53, 124), which is the same as the output value RGB, and it is understood that the conversion processing is correct. In the case of the combination Index2, the output value RGB (228, 255, 255) is converted into the converted output value RGB (219.4, 245.4, 245.4) according to Equation 1. The correction process is performed on G and B that are RGB values that satisfy the correction condition (255 × 255/265 = 245.4). For G, the input value is 243, which is less than 245.4, so it remains 245.4. For B, the input value is 250, which exceeds 245.4, so it is 250. As a result, the corrected output value RGB is (219.4, 245.4, 250). When the output value RGB after correction processing is processed by the luminance adjustment one-dimensional LUT 2204, it becomes RGB after luminance adjustment (228, 255, 255), which is the same as the output value RGB, and it is understood that the conversion processing is correct. . For B, a process of setting a value exceeding 255 to 255 is working. The RGB of the post-correction output value calculated in this way is used as the output of the non-linear correction three-dimensional LUT 2203. Then, RGB 2208 after color space conversion is used as an input of the nonlinear correction three-dimensional LUT 2203. If the RGB values stored in the lattice points of the three-dimensional LUT are obtained from this input / output combination table, the parameters of the nonlinear correction three-dimensional LUT 2203 can be obtained. Here, the coordinates of the grid point are RGB values of RGB2208 after color space conversion, and the RGB values of the output values after correction processing in which the values stored in the grid points are paired with the RGB values of RGB2208 after the corresponding color space conversion Value. If the RGB value of RGB2208 after color space conversion of grid point coordinates does not exist in the combination table, the RGB value of the output value after correction processing, which is a set of coordinates around the grid point coordinates, is interpolated to the grid point. The value to be stored. In this way, it is possible to create a nonlinear correction three-dimensional LUT that can be combined with a luminance adjustment one-dimensional LUT capable of nonlinear luminance adjustment processing. The nonlinear correction three-dimensional LUT 2203 created in this way can be combined with the color space conversion three-dimensional LUT 2202. This is shown in FIG. 22 (d). In FIG. 22D, a color space conversion & nonlinear correction three-dimensional LUT 2205 is a combination of a color space conversion three-dimensional LUT 2202 and a nonlinear correction three-dimensional LUT 2203. By synthesizing, it is possible to perform the three-dimensional LUT process once.

以上のように3次元LUTを用いることにより、マルチクロップ処理がオフ時の処理で非線形な処理が施されている場合であっても、マルチクロップ処理がオン時の最終的な信号値をマルチクロップ処理がオフ時の信号と同等の信号とすることが可能となる。   As described above, by using the three-dimensional LUT, even when non-linear processing is performed when multi-crop processing is off, the final signal value when multi-crop processing is on is multi-crop. It becomes possible to make the signal equivalent to the signal when the processing is off.

なお、本実施例では3つの画像輝度調整処理を説明したが、画像の輝度を調整する方法を限定するものではなく画像全体を明るくできる手法であれば上記以外の方法を用いるとしてもよい。   In the present embodiment, three image brightness adjustment processes have been described. However, the method for adjusting the brightness of the image is not limited, and any method other than the above may be used as long as it can brighten the entire image.

<画像クロッピング出力処理の方法>
次に、図14はCPU111が原稿に対応する画像を切り出して出力、保存する処理を示すフローチャートである。図14に記載の処理を実行するためのプログラムは、ROM117またはHDD119に記憶されており、CPU111が当該プログラムを実行することにより処理が実現される。
<Image cropping output processing method>
Next, FIG. 14 is a flowchart showing processing in which the CPU 111 cuts out an image corresponding to a document, outputs it, and saves it. A program for executing the process shown in FIG. 14 is stored in the ROM 117 or the HDD 119, and the process is realized by the CPU 111 executing the program.

CPU111は、図7S604においてHDD119に格納されている画像をRAM118に展開する(S900)。S900において、CPU111はHDD119にJPEG等で画像圧縮され、保存されている画像を、展開する。   The CPU 111 expands the image stored in the HDD 119 in FIG. 7 S604 in the RAM 118 (S900). In step S <b> 900, the CPU 111 expands an image that has been compressed in the HDD 119 using JPEG or the like and stored.

CPU111は、図7S603において検出され、HDD119に格納された座標を取得する(S901)。   The CPU 111 acquires the coordinates detected in FIG. 7S603 and stored in the HDD 119 (S901).

CPU111は、S900で取得した画像とS901で取得した各原稿の4頂点の座標を用いて画像の切り出し処理を実行する(S903)。画像を切り出す方法は、公知の方法を用いるとする。たとえば、S901で取得された4点を結んだ矩形が傾斜していない場合、CPU111は4頂点で囲まれた領域を切り出す。また、4頂点を結んだ矩形が傾斜している場合、CPU111は公知のアフィン変換により回転のみを考慮し、切り出す領域を決定する。また、CPU111が回転に加え、台形補正やひずみ補正を考慮したホモグラフィ行列を用いた射影変換により切り出す領域を決定してもよい。   The CPU 111 executes image clipping processing using the image acquired in S900 and the coordinates of the four vertices of each document acquired in S901 (S903). It is assumed that a known method is used as a method of cutting out an image. For example, when the rectangle connecting the four points acquired in S901 is not inclined, the CPU 111 cuts out an area surrounded by the four vertices. When the rectangle connecting the four vertices is inclined, the CPU 111 determines a region to be cut out by considering only rotation by a known affine transformation. Further, the CPU 111 may determine a region to be cut out by projective transformation using a homography matrix in consideration of trapezoidal correction and distortion correction in addition to rotation.

CPU111は、S902において切り出した画像を圧縮しHDD119に格納する(S903)。図15にS903でHDD119に格納された画像を示す。S903では、入力した図5(d)から、図15(a)(b)(c)の各原稿の画像がHDD119に格納される。   The CPU 111 compresses the image cut out in S902 and stores it in the HDD 119 (S903). FIG. 15 shows an image stored in the HDD 119 in S903. In step S <b> 903, the image of each document in FIGS. 15A, 15 </ b> B, and 15 </ b> C is stored in the HDD 119 from the input FIG.

なお、本実施例では「スキャンして送信」機能のフローを例に説明したが、「スキャンして送信」機能に関わらず本実施例を実行するとしてもよい。例えば、スキャンした画像を画像処理装置100等に保存する「スキャンして保存」機能や、マルチクロップ後の原稿画像をFAX送信するFAX送信機能等において本実施例を実行するとしてもよい。   In this embodiment, the flow of the “scan and send” function is described as an example. However, the present embodiment may be executed regardless of the “scan and send” function. For example, the present embodiment may be executed in a “scan and save” function for saving a scanned image in the image processing apparatus 100 or the like, a FAX transmission function for FAX-transmitting a multi-crop original image, or the like.

また、本実施例では、画像処理装置100が、クロップ座標の検出、画像の輝度補正、画像の切り出し処理を実行するとして説明した。画像処理装置100にスキャンを行い、輝度ゲイン調整をした後の画像を、サーバーやPC、クラウドに送信する。そして、サーバーやPC、クラウドにおいて、クロップ座標の検出、画像の輝度補正、画像の切り出し処理が実行されるとしてもよい。   In the present embodiment, the image processing apparatus 100 has been described as executing crop coordinate detection, image brightness correction, and image cutout processing. The image processing apparatus 100 is scanned, and the image after the luminance gain adjustment is transmitted to the server, PC, or cloud. Then, crop coordinate detection, image brightness correction, and image cropping processing may be executed in a server, PC, or cloud.

以上によって、マルチクロップ処理を行う場合は、原稿をスキャンする際に高輝度側の信号が残るようにしたスキャン画像を生成することにより、スキャン画像から原稿の領域を検出しやすくし、さらに、該スキャン画像の輝度を調整することにより、保存に適した明るさの画像を生成することができる。   As described above, when multi-crop processing is performed, it is possible to easily detect a region of a document from a scanned image by generating a scanned image in which a signal on a high luminance side remains when scanning a document. By adjusting the brightness of the scanned image, an image having brightness suitable for storage can be generated.

(実施例2)
実施例1では、輝度ゲイン調整に使用されるパラメータを変え、通常よりも画像全体が暗くなるよう処理した画像を用いて原稿のエッジ部を抽出した。そして、原稿のエッジ部抽出に用いた画像の輝度を補正し、画像全体を明るくすることで、保存用の画像を生成した。実施例1で説明した方法を用いてデジタル処理で画像の輝度を明るく補正すると、通常の明るさで取得した画像に対し、色味や階調性が変わってしまう場合がある。実施例2では、マルチクロップ処理の設定に応じてデジタル処理で原稿の明るさを調整するか、再度原稿をスキャンし通常のスキャン時に用いられるパラメータを用いて輝度ゲイン調整を行うかを切り替える方法を説明する。
(Example 2)
In the first embodiment, the parameters used for luminance gain adjustment are changed, and the edge portion of the document is extracted using an image processed so that the entire image becomes darker than usual. Then, the brightness of the image used for extracting the edge portion of the document is corrected, and the entire image is brightened to generate a storage image. When the brightness of an image is corrected brightly by digital processing using the method described in the first embodiment, the color and gradation may be changed with respect to an image acquired with normal brightness. In the second embodiment, there is a method of switching between adjusting the brightness of a document by digital processing according to the setting of the multi-crop processing, or performing brightness gain adjustment using a parameter that is scanned again and is used during normal scanning. explain.

写真等の画像の色味や階調性等の画質を優先する原稿をスキャンする場合、一度、マルチクロップ用のパラメータを用いて輝度ゲイン調整を行ったのち、再度スキャンを実行し、通常のスキャンで用いられるパラメータを用いて輝度ゲイン調整を行う。このようにすることで、原稿の画質や色味を担保しつつ、クロップする座標の精度を上げることができる。一方で、モノクロの文書原稿や文字のみの原稿等、画質を優先する必要のない原稿をスキャンするときには、デジタル処理で画像の輝度をあげることで、原稿毎の画像を得るのにかかる処理時間を抑制することができる。   When scanning a document that prioritizes image quality such as the color and gradation of an image such as a photo, adjust the brightness gain once using the parameters for multi-crop and then scan again to perform normal scanning. The luminance gain is adjusted using the parameters used in the above. By doing so, it is possible to increase the accuracy of the coordinates to be cropped while ensuring the image quality and color of the document. On the other hand, when scanning a document that does not require priority on image quality, such as a monochrome document or a text-only document, the processing time required to obtain an image for each document can be increased by increasing the brightness of the image by digital processing. Can be suppressed.

原稿をスキャンして外部の装置に送信したり、画像処理装置100内に記憶する場合、様々な画像処理が行われる。例えば、二値化処理を行ってから保存する指示や文字認識を行い文字列データとして保存する指示がなされている場合、保存する画像の色味や色の階調性が低下しても問題ない。そこで、二値化処理や文字認識処理が指示された場合、画像処理装置100はマルチクロップ用のパラメータを用いて輝度ゲイン調整がなされた画像の輝度を補正することで得られた画像から原稿の画像を抽出する。一方でJPEG変換や全面写真専用処理を行う設定がなされた場合、色味や色の階調性を保証することが望まれる。そこで、1度目にスキャンして得られた画像に対して、マルチクロップ用のパラメータを用いて輝度ゲイン調整を行い各原稿のエッジを検出する。そして、2度目にスキャンして得られた画像に対して、通常のスキャン時のパラメータを用いて輝度ゲイン調整を行い、保存用の画像を生成する。このようにすることで、保存用の画像の色味や階調性を保証することができる。   When a document is scanned and transmitted to an external apparatus or stored in the image processing apparatus 100, various image processes are performed. For example, if there is an instruction to save after binarization processing or an instruction to perform character recognition and save as character string data, there is no problem even if the color tone or color gradation of the image to be saved is lowered. . Therefore, when a binarization process or a character recognition process is instructed, the image processing apparatus 100 uses the multi-crop parameters to correct the brightness of the image that has been subjected to the brightness gain adjustment, and then corrects the brightness of the image. Extract images. On the other hand, when a setting for performing JPEG conversion or dedicated processing for whole-surface photography is made, it is desirable to guarantee the color and gradation of the color. Therefore, brightness gain adjustment is performed on the image obtained by scanning for the first time using the parameters for multi-crop to detect the edge of each document. Then, brightness gain adjustment is performed on the image obtained by the second scan using parameters at the time of normal scanning, and a storage image is generated. By doing so, it is possible to guarantee the color and gradation of the image for storage.

本実施例では、上記のように画質を優先する後段処理か、処理速度を優先する後段処理(画質を優先しない後段処理)かによって処理を切り替える。図16は実施例2において画像処理装置100が実行する処理を示すフローチャートである。図16に記載の処理を実行するためのプログラムはROM117またはHDD119に格納されている。CPU111がROM117、またはHDD119に格納されている処理を読み出して実行することにより以下の処理が実現される。図7と同様の処理については図7と同じ符号を付与する。ここでは、図7の異なる処理についてのみ説明をする。   In the present embodiment, the process is switched depending on whether it is a post-process that prioritizes image quality or a post-process that prioritizes processing speed (post-process that does not prioritize image quality) as described above. FIG. 16 is a flowchart illustrating processing executed by the image processing apparatus 100 according to the second embodiment. A program for executing the processing illustrated in FIG. 16 is stored in the ROM 117 or the HDD 119. The CPU 111 reads and executes the processing stored in the ROM 117 or the HDD 119, thereby realizing the following processing. Processes similar to those in FIG. 7 are assigned the same reference numerals as in FIG. Here, only different processes in FIG. 7 will be described.

CPU111は、設定されている設定値が画質を優先する設定値であるか否かを判定する(S1601)。画質を優先する設定がなされているか否かの判定方法は様々であるが、本実施例では図17に示すテーブルを用いて画質を優先する設定であるか否かを判定する。CPU111はユーザが設定した設定値を参照し、画質優先の設定値が設定されているか否かを判定する。画質を優先する設定値が設定されていない場合、CPU111がS604以降の処理を実行する。画質を優先する設定がなされていない場合は、実施例1と同様にマルチクロップ用の輝度ゲイン調整パラメータを用いて輝度ゲイン調整をして得られた画像の輝度をデジタル処理により明るくする。これにより、マルチクロップ処理が完了するまでにかかる時間を短くすることができる。   The CPU 111 determines whether or not the set setting value is a setting value that prioritizes image quality (S1601). There are various methods for determining whether or not the setting for giving priority to the image quality is made. In this embodiment, it is determined whether or not the setting for giving priority to the image quality is made using the table shown in FIG. The CPU 111 refers to the setting value set by the user and determines whether or not the setting value for image quality priority is set. When the setting value giving priority to the image quality is not set, the CPU 111 executes the processing after S604. When the setting for giving priority to the image quality is not made, the brightness of the image obtained by performing the brightness gain adjustment using the brightness gain adjustment parameter for multi-crop is brightened by digital processing as in the first embodiment. As a result, it is possible to shorten the time required for completing the multi-crop processing.

一方で、画質を優先する処理が設定されている場合、CPU111がS1602以降に記載の処理を実行する。   On the other hand, if processing that prioritizes image quality is set, the CPU 111 executes processing described in and after S1602.

CPU111は、マルチクロップ処理がオフに設定されているときに用いられる輝度ゲイン調整パラメータをROM117から読み出してRAM118に記憶する(S1602)。マルチクロップ処理がオフに設定されているときに用いられる輝度ゲイン調整パラメータとは、S600において設定される輝度ゲイン調整パラメータよりも小さな値である。マルチクロップ処理がオフのときに用いられる輝度ゲイン調整パラメータは予めROM117に格納されている。   The CPU 111 reads out the luminance gain adjustment parameter used when the multi-crop processing is set to off from the ROM 117 and stores it in the RAM 118 (S1602). The luminance gain adjustment parameter used when the multi-crop processing is set to off is a value smaller than the luminance gain adjustment parameter set in S600. Luminance gain adjustment parameters used when the multi-crop processing is off are stored in the ROM 117 in advance.

CPU111は、スキャナI/F114を介してスキャナ部120を制御し、原稿をスキャンする(S1603)。S1603において、CPU111が実行する処理は、S601においてCPU111が実行する処理と同様の処理である。   The CPU 111 controls the scanner unit 120 via the scanner I / F 114 and scans the document (S1603). The processing executed by the CPU 111 in S1603 is the same processing as the processing executed by the CPU 111 in S601.

CPU111はS1602において取得された輝度ゲイン調整パラメータを用いてS1602で取得された画像の輝度を調整する(S1604)。S1604で実行される処理は、図8を用いて説明した処理と同様の処理であるため説明を省略する。S1604を実行することで、図5(b)に示す画像を生成することができる。以降の処理はS605以降と同様であるため説明を省略する。上記のS1602〜S1604のように、画質を優先する設定がなされている場合は、通常のスキャンと同じパラメータを用いて輝度ゲイン調整を行う。このようにすることで、マルチクロップ処理を行わないときと同程度の画質や色味を保証した画像から原稿の画像を切り出すことができる。   The CPU 111 adjusts the luminance of the image acquired in S1602 using the luminance gain adjustment parameter acquired in S1602 (S1604). The processing executed in S1604 is the same processing as that described with reference to FIG. By executing S1604, the image shown in FIG. 5B can be generated. Since the subsequent processing is the same as that after S605, description thereof is omitted. When settings are given priority to image quality as in S1602 to S1604 above, brightness gain adjustment is performed using the same parameters as in normal scanning. In this way, an image of a document can be cut out from an image that guarantees the same image quality and color as when no multi-crop processing is performed.

以上のように設定値に応じて画像の切り出し元となる画像の生成方法を切り替える。このようにすることで、色味や階調性などの画質を優先する場合と、パフォーマンスやユーザの手離れなどの速度を優先させる場合で処理を切り替えることができる。   As described above, the generation method of the image to be the image cut-out source is switched according to the set value. In this way, processing can be switched between when priority is given to image quality such as color and gradation, and when priority is given to speed such as performance and user's handing off.

なお、本実施例ではユーザの指示で設定された設定値に基づいて処理を切り替える構成とした。S601のスキャンにより取得された画像を解析して、画質を優先した処理を行うか否かを判定してもよい。たとえば、CPU111がスキャンして得られた画像に含まれる色の数やグラデーションの有無に応じてS1601以降を実行するかS604以降を実行するか切り替えるとしてもよい。このとき、CPU111は、画像に含まれる色の数が所定の数以上である場合、または、画像内にグラデーションの領域がある場合に、S1601以降の処理を実行する。   In this embodiment, the processing is switched based on the set value set by the user's instruction. The image acquired by the scan in S601 may be analyzed to determine whether or not to perform processing giving priority to image quality. For example, depending on the number of colors included in the image obtained by scanning by the CPU 111 and the presence or absence of gradation, it may be switched between executing S1601 and subsequent steps or executing S604 and subsequent steps. At this time, if the number of colors included in the image is equal to or greater than a predetermined number, or if there is a gradation area in the image, the CPU 111 executes the processing from S1601 onward.

さらに、本実施例では、画質を優先する設定がなされている場合に、再度原稿をスキャンして、S602とは異なる輝度ゲイン調整パラメータを用いて輝度ゲイン調整を実行するとした。画像処理装置100がS601において原稿をスキャンして得られた画像を記憶するメモリを有する場合、S1604において、メモリに保存された画像に対して輝度ゲイン調整を実行するとしてもよい。このとき、S1603において原稿を再度スキャンする必要がなくなる。そのため、画質を優先する場合であっても、原稿のスキャンを2回行うことなくマルチクロップ処理を実行することができる。   Furthermore, in this embodiment, when priority is given to the image quality, the document is scanned again and the brightness gain adjustment is executed using the brightness gain adjustment parameter different from S602. When the image processing apparatus 100 has a memory for storing the image obtained by scanning the document in S601, the brightness gain adjustment may be executed on the image stored in the memory in S1604. At this time, it is not necessary to scan the original again in S1603. Therefore, even when priority is given to image quality, the multi-crop process can be executed without scanning the document twice.

(実施例3)
実施例1では、輝度ゲイン調整に使用されるパラメータを変え、通常よりも画像全体が暗くなるよう処理した画像を用いて原稿のエッジ部を抽出した。そして、原稿のエッジ部抽出に用いた画像の輝度を補正し、画像全体を明るくすることで、保存用の画像を生成した。実施例1で説明した方法では原稿の全体画像の輝度を補正した上で、画像の一部から切り出しを行う。全体画像の輝度調整を行うため、最終的な画像として不要な部分にも輝度調整が行われ処理パフォーマンスが低下してしまう可能性がある。実施例3では、処理パフォーマンスを向上させるための検出した原稿の各画像を切り出ししたのちに、切り出した画像にのみ輝度調整を行う方法を説明する。
(Example 3)
In the first embodiment, the parameters used for luminance gain adjustment are changed, and the edge portion of the document is extracted using an image processed so that the entire image becomes darker than usual. Then, the brightness of the image used for extracting the edge portion of the document is corrected, and the entire image is brightened to generate a storage image. In the method described in the first embodiment, the luminance of the entire original image is corrected, and then a part of the image is cut out. Since the brightness adjustment of the entire image is performed, the brightness adjustment is also performed on a portion unnecessary as a final image, and the processing performance may be deteriorated. In the third embodiment, a method of performing brightness adjustment only on a cut-out image after cutting out each image of the detected document for improving the processing performance will be described.

図18を用いて、ユーザが「スキャンして送信」機能を用いてマルチクロップ処理を実行するためのシーケンスを説明する図である。図18は、図3の構成に対し、S414の画像クロッピング処理の内容を変更し、さらに、画像クロッピング処理(S414)とマルチクロップ処理結果UI表示処理(S415)との間に、クロップ画像輝度調整処理(S422)を追加する。   FIG. 19 is a diagram illustrating a sequence for a user to execute a multi-crop process using a “scan and send” function using FIG. 18 is different from the configuration of FIG. 3 in the contents of the image cropping process of S414, and further, the crop image brightness adjustment is performed between the image cropping process (S414) and the multi-crop process result UI display process (S415). A process (S422) is added.

S400〜S412までの処理、および、S415以降の処理については、実施例1と同様であるので、詳細説明を省略する。   Since the processes from S400 to S412 and the processes from S415 onward are the same as those in the first embodiment, detailed description thereof is omitted.

S414の画像クロッピング処理において、画像処理装置100は、S411でHDD119にデータとして格納された画像から、各原稿に対応する原稿画像の切り出しを行う。画像処理装置100は、原稿の左上、右上、右下、左下の4頂点座標を元に、傾き補正等のアフィン変換も用いて、矩形の原稿画像の切り出し処理を行う。画像処理装置100は、切り出し後の画像を圧縮し画像圧縮後にHDD119に格納する。   In the image cropping process of S414, the image processing apparatus 100 cuts out a document image corresponding to each document from the image stored as data in the HDD 119 in S411. The image processing apparatus 100 cuts out a rectangular document image using affine transformation such as tilt correction based on the four vertex coordinates of the upper left, upper right, lower right, and lower left of the document. The image processing apparatus 100 compresses the cut-out image and stores it in the HDD 119 after the image compression.

S422のクロップ画像輝度調整処理において、画像処理装置100は、S414で切り出してHDD119に格納した各原稿画像の輝度を調整する処理を行う。S422での輝度調整処理は、実施例1において説明したS413の画像輝度調整処理と同様の処理である。すなわち、S422のクロップ画像輝度調整処理において、各原稿画像の輝度をあげる処理を行うことで、通常の設定でスキャンした際の明るさと同程度の明るさの画像を生成することができる。   In the crop image brightness adjustment process in S422, the image processing apparatus 100 performs a process of adjusting the brightness of each document image cut out in S414 and stored in the HDD 119. The brightness adjustment process in S422 is the same process as the image brightness adjustment process in S413 described in the first embodiment. In other words, in the crop image brightness adjustment process in S422, an image having the same brightness as that obtained when scanning with normal settings can be generated by increasing the brightness of each document image.

以上によって、原稿位置検出に適した画像から座標位置を検出し、当該画像から各原稿の画像の切り出しを行い、当該切り出した原稿画像に輝度調整を行うことで送信用画像を生成する、という構成にすることで、処理のパフォーマンスを向上することができる。   As described above, the coordinate position is detected from an image suitable for document position detection, the image of each document is cut out from the image, and the transmission image is generated by adjusting the brightness of the cut out document image. By doing so, processing performance can be improved.

(他の実施形態)
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施例の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム又は装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのコンピュータプログラム、及び該コンピュータプログラムを記憶した記憶媒体は本発明を構成することになる。
(Other embodiments)
The present invention is also realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program code. It is a process to be executed. In this case, the computer program and the storage medium storing the computer program constitute the present invention.

Claims (14)

読取手段で原稿を読み取った際の高輝度側の信号値が残るように輝度を調整した第1の画像を生成する第1の調整手段と、
前記第1の調整手段で生成された第1の画像内に含まれる前記原稿に対応する領域の位置を検出する検出手段と、
前記第1の画像に含まれる画素の輝度が高くなるように調整することにより第2の画像を生成する第2の調整手段と、
前記検出手段で検出された前記原稿に対応する領域の位置に基づいて、前記第2の調整手段で生成された第2の画像から、前記原稿に対応する原稿画像を切り出す切り出し手段と、
を有することを特徴とする画像処理装置。
First adjusting means for generating a first image whose luminance is adjusted such that a signal value on the high luminance side when the original is read by the reading means remains;
Detecting means for detecting a position of an area corresponding to the document included in the first image generated by the first adjusting means;
Second adjusting means for generating a second image by adjusting the luminance of the pixels included in the first image to be high;
Clipping means for cutting out a document image corresponding to the document from the second image generated by the second adjustment unit based on the position of the region corresponding to the document detected by the detection unit;
An image processing apparatus comprising:
前記第1の画像には、複数の原稿の画像が含まれ、
前記検出手段は、前記第1の画像内に含まれる前記複数の原稿それぞれに対応する領域の位置を検出し、
前記切り出し手段は、前記複数の原稿それぞれに対応する領域の位置に基づいて、前記第2の原稿から、前記複数の原稿それぞれに対応する原稿画像を切り出す、
ことを特徴とする請求項1に記載の画像処理装置。
The first image includes a plurality of original images,
The detecting means detects a position of an area corresponding to each of the plurality of documents included in the first image;
The cutout means cuts out a document image corresponding to each of the plurality of documents from the second document based on the position of an area corresponding to each of the plurality of documents.
The image processing apparatus according to claim 1.
前記第1の調整手段は、前記読取手段で原稿を読み取った際の高輝度側の所定の輝度値が第1の輝度値となるようにゲイン調整した後、更に、当該ゲイン調整後の輝度値が前記第1の輝度値より高い画素については、輝度値を前記第1の輝度値に置換する処理を行うことにより、前記第1の画像を生成する、ことを特徴とする請求項1に記載の画像処理装置。   The first adjusting unit performs gain adjustment so that a predetermined luminance value on the high luminance side when the original is read by the reading unit becomes the first luminance value, and further, the luminance value after the gain adjustment. 2. The first image is generated by performing a process of replacing a luminance value with the first luminance value for a pixel that is higher than the first luminance value. Image processing apparatus. 前記第1の調整手段は、前記所定の輝度値が前記第1の輝度値になるように、各画素の輝度値を線形にゲイン調整することを特徴とする請求項3に記載の画像処理装置。   The image processing apparatus according to claim 3, wherein the first adjustment unit linearly adjusts a gain of each pixel so that the predetermined luminance value becomes the first luminance value. . 前記切り出し手段で切り出した原稿画像を表示する表示手段、を更に有することを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。   5. The image processing apparatus according to claim 1, further comprising a display unit configured to display a document image cut out by the cutout unit. 前記切り出し手段で切り出した原稿画像に対する文字認識処理を実行する文字認識処理手段と、
前記切り出した原稿画像と当該原稿画像の文字認識処理の結果とを関連付けて保存する保存手段と、
を更に有することを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
Character recognition processing means for executing character recognition processing on the document image cut out by the cut-out means;
Storage means for storing the clipped document image and the result of character recognition processing of the document image in association with each other;
The image processing apparatus according to claim 1, further comprising:
前記切り出し手段で切り出した原稿画像を、指定された宛先に送信する送信手段、を更に有することを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising: a transmission unit that transmits the document image cut out by the cutout unit to a specified destination. 前記第2の調整手段は、前記第1の画像に含まれる画素の輝度が高くなるようにガンマ補正処理を行うことにより前記第2の画像を生成することを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。   8. The second adjustment unit according to claim 1, wherein the second adjustment unit generates the second image by performing a gamma correction process so that a luminance of a pixel included in the first image is increased. The image processing apparatus according to any one of the above. 前記第2の調整手段は、所定の3次元ルックアップテーブルを用いて、前記第1の画像に含まれる画素の輝度が高くなるように調整することにより前記第2の画像を生成することを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。   The second adjustment unit generates the second image by adjusting the brightness of pixels included in the first image using a predetermined three-dimensional lookup table. The image processing apparatus according to any one of claims 1 to 7. 前記原稿画像を切り出すか否かの設定をユーザから受け付ける受付手段と、
前記受付手段で前記原稿画像を切り出す設定を受付けた場合は、前記第1の調整手段と前記検出手段と前記第2の調整手段と前記切り出し手段とによる処理を行うように制御し、
前記受付手段で前記原稿画像を切り出さない設定を受け付けた場合は、前記読取手段で原稿を読み取った際の高輝度側の所定の信号値より高い信号値が白の輝度値となるように前記第1の調整手段で調整した画像を出力するように制御する制御手段と、
を有することを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。
Accepting means for accepting a setting as to whether or not to cut out the original image from a user;
If the accepting unit accepts the setting for cutting out the original image, control is performed so as to perform processing by the first adjusting unit, the detecting unit, the second adjusting unit, and the cutting unit,
When the accepting unit accepts a setting not to cut out the document image, the signal value higher than a predetermined signal value on the high luminance side when the document is read by the reading unit becomes a white luminance value. Control means for controlling to output an image adjusted by one adjusting means;
The image processing apparatus according to claim 1, further comprising:
読取手段で原稿を読み取った際の高輝度側の信号値が残るように輝度を調整した第1の画像を生成する第1の調整手段と、
前記第1の調整手段で生成された第1の画像内に含まれる前記原稿に対応する領域の位置を検出する検出手段と、
前記検出手段で検出された前記原稿に対応する領域の位置に基づいて、前記第1の調整手段で生成された第1の画像から、前記原稿に対応する第1の原稿画像を切り出す切り出し手段と、
前記切り出し手段で切り出された第1の原稿画像に含まれる画素の輝度が高くなるように調整することにより、第2の原稿画像を生成する第2の調整手段と、
を有することを特徴とする画像処理装置。
First adjusting means for generating a first image whose luminance is adjusted such that a signal value on the high luminance side when the original is read by the reading means remains;
Detecting means for detecting a position of an area corresponding to the document included in the first image generated by the first adjusting means;
Clipping means for cutting out the first document image corresponding to the document from the first image generated by the first adjustment unit based on the position of the area corresponding to the document detected by the detection unit; ,
A second adjustment unit that generates a second document image by adjusting the luminance of the pixels included in the first document image cut out by the clipping unit;
An image processing apparatus comprising:
コンピュータを、請求項1乃至11のいずれか1項に記載の画像処理装置の各手段として機能させるためのコンピュータプログラム。   The computer program for functioning a computer as each means of the image processing apparatus of any one of Claims 1 thru | or 11. 画像処理装置の処理手段が実行する画像処理方法であって、
読取手段で原稿を読み取った際の高輝度側の信号値が残るように輝度を調整した第1の画像を生成する第1の調整工程と、
前記第1の調整工程で生成された第1の画像内に含まれる前記原稿に対応する領域の位置を検出する検出工程と、
前記第1の画像に含まれる画素の輝度が高くなるように調整することにより第2の画像を生成する第2の調整工程と、
前記検出工程で検出された前記原稿に対応する領域の位置に基づいて、前記第2の調整工程で生成された第2の画像から、前記原稿に対応する原稿画像を切り出す切り出し工程と、
を有することを特徴とする画像処理方法。
An image processing method executed by processing means of an image processing apparatus,
A first adjustment step of generating a first image whose luminance is adjusted such that a signal value on the high luminance side when the original is read by the reading unit remains;
A detection step of detecting a position of an area corresponding to the document included in the first image generated in the first adjustment step;
A second adjustment step of generating a second image by adjusting the brightness of the pixels included in the first image to be high;
A clipping step of cutting out a document image corresponding to the document from the second image generated in the second adjustment step based on the position of the region corresponding to the document detected in the detection step;
An image processing method comprising:
画像処理装置の処理手段が実行する画像処理方法であって、
読取手段で原稿を読み取った際の高輝度側の信号値が残るように輝度を調整した第1の画像を生成する第1の調整工程と、
前記第1の調整工程で生成された第1の画像内に含まれる前記原稿に対応する領域の位置を検出する検出工程と、
前記検出工程で検出された前記原稿に対応する領域の位置に基づいて、前記第1の調整工程で生成された第1の画像から、前記原稿に対応する第1の原稿画像を切り出す切り出し工程と、
前記切り出し工程で切り出された第1の原稿画像に含まれる画素の輝度が高くなるように調整することにより、第2の原稿画像を生成する第2の調整工程と、
を有することを特徴とする画像処理方法。
An image processing method executed by processing means of an image processing apparatus,
A first adjustment step of generating a first image whose luminance is adjusted such that a signal value on the high luminance side when the original is read by the reading unit remains;
A detection step of detecting a position of an area corresponding to the document included in the first image generated in the first adjustment step;
A clipping step of cutting out a first document image corresponding to the document from the first image generated in the first adjustment step based on the position of the region corresponding to the document detected in the detection step; ,
A second adjustment step of generating a second original image by adjusting the brightness of the pixels included in the first original image cut out in the cutout step;
An image processing method comprising:
JP2019016307A 2018-05-30 2019-01-31 Image processing apparatus, image processing method, and program Pending JP2019213190A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US16/415,499 US11308318B2 (en) 2018-05-30 2019-05-17 Image processing apparatus, image processing method, and storage medium
CN201910463948.3A CN110557515B (en) 2018-05-30 2019-05-30 Image processing apparatus, image processing method, and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018103878 2018-05-30
JP2018103878 2018-05-30

Publications (1)

Publication Number Publication Date
JP2019213190A true JP2019213190A (en) 2019-12-12

Family

ID=68847101

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019016307A Pending JP2019213190A (en) 2018-05-30 2019-01-31 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2019213190A (en)

Similar Documents

Publication Publication Date Title
CN110557515B (en) Image processing apparatus, image processing method, and storage medium
JP7130436B2 (en) IMAGE PROCESSING APPARATUS FOR MULTI-CROP PROCESSING, METHOD AND PROGRAM FOR GENERATING IMAGE IN UNIT OF DOCUMENT USING MULTI-CROP PROCESSING
JP4700721B2 (en) Image processing device
US9307115B2 (en) Image processing device generating rectangular image data from intermediate image data
US10841457B2 (en) Image forming apparatus with density correction and edge smoothing, method, and storage medium storing program to perform the method
JP2015171099A (en) Image processing apparatus and image processing method
EP1850291B1 (en) System and method for enhancing stored binary images
JP6628279B2 (en) Image processing apparatus, image processing method, image processing program, and recording medium
US20110235906A1 (en) Image processing apparatus, image processing method, and computer-readable storage medium for computer program
JP5819378B2 (en) Image determination apparatus, image processing system, program, and recording medium
JP2019140628A (en) Image reading device, image reading method, and program
JP2019213190A (en) Image processing apparatus, image processing method, and program
JP5025611B2 (en) Image processing apparatus, image forming apparatus, computer program, recording medium, and image processing method
JP2018182464A (en) Image processing system and program
JP2014017636A (en) Image reader and program
JP2017135690A (en) Image processing device, image processing method, and program
US20160072966A1 (en) Non-transitory computer readable medium and image processing device
US20090323090A1 (en) Image forming apparatus and image forming method
JP4277464B2 (en) Image processing apparatus, image processing method, image processing program, and computer-readable recording medium on which image processing program is recorded
US11863717B2 (en) Image reading apparatus and image reading method
JP2010004152A (en) Image processor and character region extraction method, and computer program
JP6915295B2 (en) Data processing equipment and data processing program
JP2022189063A (en) Image data generation device and image data generation method
JP2006254324A (en) Image forming apparatus and method
JP2023055502A (en) Information processing device, information processing method, program and image processing system