WO2022097600A1 - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
WO2022097600A1
WO2022097600A1 PCT/JP2021/040231 JP2021040231W WO2022097600A1 WO 2022097600 A1 WO2022097600 A1 WO 2022097600A1 JP 2021040231 W JP2021040231 W JP 2021040231W WO 2022097600 A1 WO2022097600 A1 WO 2022097600A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
pixel value
image data
character
control unit
Prior art date
Application number
PCT/JP2021/040231
Other languages
English (en)
French (fr)
Inventor
ハレル ジュン セニザ
Original Assignee
京セラドキュメントソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラドキュメントソリューションズ株式会社 filed Critical 京セラドキュメントソリューションズ株式会社
Priority to US18/250,115 priority Critical patent/US20240007579A1/en
Priority to JP2022560760A priority patent/JPWO2022097600A1/ja
Publication of WO2022097600A1 publication Critical patent/WO2022097600A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/58Edge or detail enhancement; Noise or error suppression, e.g. colour misregistration correction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/409Edge or detail enhancement; Noise or error suppression
    • H04N1/4092Edge or detail enhancement
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6016Conversion to subtractive colour signals
    • H04N1/6022Generating a fourth subtractive colour signal, e.g. under colour removal, black masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/62Retouching, i.e. modification of isolated colours only or in isolated picture areas only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/407Control or modification of tonal gradation or of extreme levels, e.g. background level
    • H04N1/4072Control or modification of tonal gradation or of extreme levels, e.g. background level dependent on the contents of the original

Definitions

  • the present invention relates to an image processing device and an image processing method for processing image data including characters.
  • Patent Document 1 describes an example of an apparatus that performs image processing according to a region.
  • Patent Document 1 the original is optically read for each unit area, image data separated into a plurality of color components is acquired, and the image data is not a character area based on the change in the brightness value of the pixels in the image data.
  • the first is to perform brightness value correction that offsets the brightness value of each pixel by a preset predetermined amount with respect to the image data of at least one color component when discriminating between the character area and the monochrome image data.
  • a color scanner device including an image processing means that performs image processing according to a region type determined by the region discriminating means and outputs the monochrome image data is described (Patent Document 1: Claim 1). ..
  • a document may be printed based on image data.
  • a print job based on image data obtained by scanning a manuscript may be referred to as a copy job.
  • Image data of documents may be transmitted.
  • the character part will look beautiful.
  • the character part looks good and the image quality can be improved.
  • image processing for adjusting contrast and brightness may be performed.
  • the density of the character part may decrease.
  • the density of relatively light-colored characters may decrease.
  • the color of the characters may be bright (light), the characters may be faint, or the outline may be blurred. That is, there is a problem that the characters may not be easy to see even if the conventional contrast and brightness are adjusted. On the contrary, the characters may be difficult to read.
  • Patent Document 1 has an advantage in that appropriate image processing is performed for each of the character area and the non-character area. However, there may be cases where the characters are not easy to read.
  • the present invention makes the characters darker, makes the outline of the characters stand out, and makes the characters easier to read, regardless of the density of the characters in the image data.
  • the image processing device includes a storage unit and a pixel value adjusting unit.
  • the storage unit stores image data.
  • the pixel value adjusting unit divides the image data into a plurality of pieces by attaching a label to each pixel based on the pixel value of the pixel included in the image data.
  • the pixel value adjusting unit determines whether or not the component is a character for each component which is a group of pixels with the same label.
  • the pixel value adjusting unit adjusts the pixel value of the character pixel, which is the pixel of the component determined to be a character, in a darkening direction.
  • the image processing apparatus will be described with reference to FIGS. 1 to 13.
  • the multifunction device 100 will be described as an example of the image processing device.
  • the multifunction device 100 is also an image forming apparatus.
  • Each element such as the configuration and arrangement in this description does not limit the scope of the invention, but is merely an explanatory example.
  • FIG. 1 is a diagram showing an example of the multifunction device 100 according to the embodiment.
  • the multifunction device 100 includes a control unit 1, a storage unit 2, an image reading unit 3, an operation panel 4, and a printer unit 5.
  • the control unit 1 controls the control unit 1, the storage unit 2, the image reading unit 3, the operation panel 4, and the printer unit 5.
  • the control unit 1 includes a control circuit 11, an image processing circuit 12, an image data generation circuit 13, and a communication circuit unit 14.
  • the control unit 1 is a board including a plurality of circuits.
  • the control circuit 11 is a CPU.
  • the control circuit 11 performs operations and processes related to control.
  • the image processing circuit 12 performs image processing.
  • the multifunction device 100 includes a ROM, a RAM, and a storage as a storage unit 2.
  • the storage unit 2 stores a control program and various data.
  • the storage is a large capacity storage device.
  • the storage can store image data non-volatilely.
  • the storage is either one or both of HDD and SSD.
  • the multifunction device 100 includes a pixel value adjusting unit that performs readability improvement processing.
  • the pixel value adjusting unit performs division processing, determination processing, and density adjustment processing.
  • the pixel value adjusting unit attaches a label to each pixel and divides the image data based on the label.
  • the pixel value adjusting unit performs labeling processing as division processing.
  • the pixel value adjusting unit determines whether or not each of the divided components 6 (area) is a character.
  • the component 6 is a group of pixels with the same label.
  • the pixel value adjusting unit adjusts the pixel value of the character pixel, which is the pixel of the component 6 determined to be a character, in the direction of darkening.
  • the control unit 1 can be used as a pixel value adjustment unit.
  • the control unit 1 reads the image data into the RAM and performs readability improvement processing.
  • the control circuit 11 may perform readability improvement processing.
  • the image processing circuit 12 may perform readability improvement processing. Of the readability improving processing, the control circuit 11 may perform a part of the processing, and the image processing circuit 12 may perform the remaining processing.
  • a dedicated circuit that performs readability improvement processing may be provided in the control unit 1.
  • the dedicated circuit may be provided outside the control unit 1.
  • the image reading unit 3 includes a platen, a light source (ramb), a lens, and an image sensor.
  • a document (original) to be read can be set on the platen in the image reading unit 3.
  • the light source illuminates the platen and the set document.
  • the lens guides the reflected light of the document to the image sensor.
  • the image sensor includes a row of light receiving elements.
  • the image sensor is a line sensor. Each light receiving element receives reflected light and outputs a voltage corresponding to the amount of received light as an analog image signal.
  • the light source, lens, and image sensor are unitized.
  • the image reading unit 3 includes a motor and a wire for moving the unit. When reading a document, the image reading unit 3 moves the unit in the sub-scanning direction (direction orthogonal to the direction in which the light receiving elements are arranged) and reads the entire document.
  • the image reading unit 3 supports reading in color.
  • the image data generation circuit 13 generates image data of the original based on the analog image signal output by the image reading unit 3 reading the original.
  • the image data generation circuit 13 includes an amplifier circuit, an offset circuit, and an A / D conversion circuit.
  • the amplifier circuit amplifies the analog image signal.
  • the offset circuit adjusts the voltage value of the analog image signal input to the A / D conversion circuit.
  • the A / D conversion circuit changes an analog image signal into digital data and generates image data.
  • the image data generation circuit 13 generates image data (raster data) in RGB bitmap format.
  • the communication circuit unit 14 communicates with the computer 200.
  • the computer 200 is a PC or a server.
  • the communication circuit unit 14 includes a communication connector, a communication control circuit, and a communication memory.
  • the communication memory stores communication software and data.
  • the communication circuit unit 14 can send and receive data to and from the computer 200.
  • the multifunction device 100 includes an operation panel 4.
  • the operation panel 4 includes a display panel 41, a touch panel 42, and a hard key 43.
  • the control unit 1 controls the display of the display panel 41.
  • the control unit 1 displays a screen and an image on the display panel 41.
  • the control unit 1 displays an operation image.
  • the operation image is a button (soft key) or a tab.
  • the control unit 1 Based on the output of the touch panel 42, the control unit 1 recognizes the operated operation image. Further, the control unit 1 recognizes the operated hard key 43.
  • the operation panel 4 accepts the user's setting operation.
  • the control unit 1 recognizes the setting contents of the job made on the operation panel 4.
  • the control unit 1 controls the multifunction device 100 so that it operates as set.
  • the operation panel 4 accepts a selection as to whether or not to perform readability improvement processing in the job.
  • the control unit 1 performs the readability improvement process on the image data used for the job. Then, the control unit 1 performs a job based on the image data that has undergone readability improvement processing.
  • the control unit 1 does not perform the readability improving process on the image data used for the job.
  • the printer unit 5 includes a paper feeding unit 5a, a paper transport unit 5b, an image forming unit 5c, and a fixing unit 5d.
  • the paper feed unit 5a includes a paper cassette and a paper feed roller. The stack of paper is set in the paper cassette.
  • the control unit 1 rotates a paper feed roller to supply paper.
  • the paper transport unit 5b includes a pair of transport rollers.
  • the control unit 1 rotates a pair of transfer rollers to transfer the paper to the paper transfer unit 5b.
  • the control unit 1 causes the image forming unit 5c to form a toner image based on the image data.
  • the image forming unit 5c includes an exposure device, an image forming unit, and an intermediate transfer unit.
  • a plurality of image forming units are provided.
  • Each image forming unit includes a photoconductor drum, a charging device, and a developing device.
  • the image forming unit 5c forms an image forming unit that forms a black toner image, an image forming unit that forms a cyan toner image, an image forming unit that forms a magenta toner image, and a yellow toner image.
  • the image forming unit 5c can be printed in color.
  • the intermediate transfer unit includes a rotating intermediate transfer belt and a secondary transfer roller. Each image forming unit primary transfers the formed toner image to the intermediate transfer belt. The secondary transfer roller secondarily transfers the toner image to the conveyed paper.
  • the control unit 1 causes the fixing unit 5d to fix the toner image transferred to the paper.
  • the fixing portion 5d includes a heater and a plurality of fixing rotating bodies.
  • the toner image is fixed on the paper by heating and pressurizing the fixing portion 5d.
  • the control unit 1 causes the paper transport unit 5b to discharge the paper after fixing to the outside of the machine.
  • FIG. 2 is a diagram showing an example of image data.
  • 3 to 7 are diagrams showing an example of the result of the division processing by the multifunction device 100 according to the embodiment.
  • 8 and 9 are diagrams showing an example of the labeling process according to the embodiment.
  • the control unit 1 performs division processing and divides the image data into a plurality of areas.
  • the control unit 1 performs a labeling process at the time of the division process.
  • the labeling process is sometimes referred to as CCL (Connected Component Labeling) process.
  • CCL Connected Component Labeling
  • a group of pixels (one divided area) with the same label will be referred to as a component 6.
  • the image data of a document contains characters. Characters are represented by a figure in which pixels having the same pixel value or similar pixel values are connected. In this description, a figure in which pixels having the same pixel value or similar pixel values are connected is referred to as a connected figure 6a.
  • the image data includes a sentence, the image data includes a plurality of connected figures 6a.
  • the control unit 1 assigns a different label to each connected figure. For example, the control unit 1 uses a number (number) as a label. The control unit 1 labels the first connected figure 6a with 1. Every time a new connected figure 6a is detected, the number on the label is increased by 1. By labeling, the number of connected figures 6a can be counted. In other words, the numbers on the label can tell how many parts the image data is divided into. 8 and 9 show an example of labeling processing.
  • the connected figure 6a (a group of pixels) with the same label is the component 6.
  • FIG. 8 shows a state before the image data is divided into a plurality of areas and the labeling process is performed.
  • FIG. 9 shows a state after the image data is divided into a plurality of areas and the labeling process is performed.
  • the control unit 1 can perform labeling processing on color image data. Prior to the labeling process, the control unit 1 may perform smoothing image processing on the image data. By the smoothing process, the control unit 1 may remove noise contained in the image data.
  • the control unit 1 uses one of the pixels in the image data as the pixel of interest.
  • the control unit 1 sets all the pixels as the pixel of interest.
  • the control unit 1 switches the pixels of interest in order. The following processing is performed on the pixel of interest.
  • the control unit 1 checks whether or not there are labeled pixels in eight directions (upper, lower, left, right, upper left, upper right, lower left, lower right) centered on the pixel of interest. .. It may be in 4 directions (up, down, left, right) instead of 8 directions. If there are no labeled pixels, the second process is performed. If there is only one labeled pixel, the third process is performed. If there are a plurality of labeled pixels, the fourth process is performed.
  • the control unit 1 attaches a new label (label with the number increased by 1) to the pixel of interest.
  • the control unit 1 determines whether or not to attach the same label as the labeled pixel. When it is determined that the same label is attached, the control unit 1 attaches the same label as the labeled pixel to the pixel of interest. If it is determined that the same label is not attached, the control unit 1 attaches a new label to the pixel of interest.
  • the control unit 1 obtains the luminance value of the pixel of interest and the luminance value of the labeled pixel, and determines that the same label is attached when the absolute value of the difference between the luminance values is equal to or less than the predetermined determination threshold value D1. You may.
  • the storage unit non-volatilely stores the determination threshold value D1 (see FIG. 1). When the absolute value of the difference between the luminance values exceeds the determination threshold value D1, the control unit 1 may determine that the same label is not attached.
  • the control unit 1 can obtain the luminance value of each pixel based on the pixel value.
  • the control unit 1 may multiply the pixel value of each color component of the pixel by a predetermined coefficient and obtain the total value as the luminance value.
  • control unit 1 may obtain the color-to-color distance between the pixel value of the pixel of interest and the pixel value of the labeled pixel, and determine whether or not to attach the same label based on the color-to-color distance. For example, the control unit 1 obtains the difference in pixel values for each of the color components of R, G, and B, squares each difference, obtains the total value of the squared values, and calculates the square root of the total value as the intercolor distance. May be sought as. Further, the control unit 1 may obtain the difference in pixel values for each of the color components of R, G, and B, obtain the absolute value of the difference for each color component, and obtain the total value of the absolute values as the intercolor distance.
  • the control unit 1 may determine that the same label is attached.
  • the storage unit non-volatilely stores the determination reference distance D2 (see FIG. 1).
  • the control unit 1 may determine that the same label is not attached.
  • the control unit 1 selects one of the plurality of labeled pixels, which has the closest pixel value to the pixel of interest.
  • the labeled pixel having the closest pixel value to the pixel of interest is referred to as a comparison target pixel.
  • the control unit 1 may select the pixel having the closest luminance value from the plurality of labeled pixels as the comparison target pixel.
  • the control unit 1 may determine that the same label as the comparison target pixel is attached.
  • the control unit 1 may determine that a new label is attached.
  • control unit 1 obtains the difference between the pixel value of the pixel of interest and the pixel value of the labeled pixel for each of the color components of R, G, and B, obtains the color-to-color distance based on the obtained difference, and obtains the color-to-color distance.
  • the shortest labeled pixel may be selected as the comparison target pixel.
  • the method of obtaining the color-to-color distance may be the same as the above-mentioned (third process).
  • the control unit 1 may determine that the control unit 1 attaches the same label.
  • the control unit 1 may determine that the same label is not attached.
  • the method of obtaining the color-to-color distance may be the same as the above-mentioned (third process).
  • the labeling process of the control unit 1 is not limited to the above method.
  • the control unit 1 may attach the same label to the connected (adjacent) pixels with the same pixel value. In this case, one component 6 (area) in the image data tends to be small. Then, the control unit 1 may perform the integration process of the labeled component 6. For example, the control unit 1 may integrate components 6 having a predetermined color-to-color distance and smaller than the integration threshold value stored in the storage unit 2. Components 6 of approximately the same color can be combined.
  • FIG. 2 shows an example of image data to be labeled.
  • FIG. 2 shows an example of image data in which four characters (alphabets) A, B, C, and D are arranged on one page.
  • the control unit 1 can perform labeling processing on the image data obtained by reading the original by the image reading unit 3. For example, the control unit 1 performs labeling processing of color image data (RGB format image data) obtained by reading a document.
  • RGB format image data RGB format image data
  • FIG. 3 to 7 show an example of the result of the labeling process of the image data of FIG. 2 by the control unit 1.
  • the control unit 1 attaches the same label to the pixels (base pixels) outside the outline of each alphabet (character).
  • the control unit 1 recognizes a group of pixels outside the outline of each alphabet (character) as one component 6.
  • FIG. 3 shows a group (component 6) of pixels outside each alphabet, which is divided (extracted) from image data (see FIG. 2).
  • FIG. 4 shows the alphabetic part of A divided (extracted) from the image data (see FIG. 2).
  • the control unit 1 attaches the same label to the connection (group) of pixels of the character (shape) of A. Further, the control unit 1 also attaches another label to the triangle of the base color inside A. As a result, the control unit 1 recognizes a group of pixels indicating the character A as one component 6. Further, the control unit 1 recognizes the triangle inside A as another component 6.
  • FIG. 5 shows the alphabetic part of B divided (extracted) from the image data (see FIG. 2).
  • the control unit 1 attaches the same label to a group of pixels indicating the character (shape) of B. Further, the control unit 1 attaches a different label to each of the two areas (a group of pixels of the base color) inside B. As a result, the control unit 1 recognizes the connection of the pixels indicating the character B as one component 6. Further, the control unit 1 recognizes each of the two semi-ellipses inside B as a separate component 6.
  • FIG. 6 shows the alphabetic part of C divided (extracted) from the image data (see FIG. 2).
  • the control unit 1 attaches the same label to the connection (group) of pixels indicating the character (shape) of C.
  • the control unit 1 recognizes a group of pixels indicating the character C as one component 6.
  • FIG. 7 shows the alphabetic part of D divided (extracted) from the image data (see FIG. 2).
  • the control unit 1 attaches the same label to a group (connection) of pixels indicating the character (shape) of D. Further, the control unit 1 also attaches another label to the group of pixels of the background color inside D. As a result, the control unit 1 recognizes a group of pixels indicating the character D as one component 6. Further, the control unit 1 recognizes the semi-ellipse inside D as another component 6.
  • control unit 1 performs the image data labeling process and divides it into a plurality of components 6. Some components 6 include characters. The control unit 1 extracts the character component 6 from the component 6.
  • FIG. 10 is a diagram showing an example of a flow of processing of a job accompanied by a readability improving process in the multifunction device 100 according to the embodiment.
  • FIG. 11 is a diagram showing an example of the adjustment setting screen 7 according to the embodiment.
  • 12 and 13 are diagrams showing an example of adjusting the pixel value in the multifunction device 100 according to the embodiment.
  • the operation panel 4 accepts a selection of whether or not to perform readability improvement processing in the job.
  • FIG. 10 shows an example of the processing flow when performing the readability improvement processing. The start of FIG. 10 is the time when the job is started with the selection to perform the readability improvement process selected. It should be noted that the control unit 1 may automatically perform the readability improvement process on the image data used in the job in all the jobs without accepting the selection of whether or not to perform the readability improvement process.
  • a copy job, a transmission job, and a save job can be performed.
  • the operation panel 4 accepts the selection of the job type and the start instruction of the selected type of job.
  • the control unit 1 causes the image reading unit 3 to read the original and generates image data.
  • the control unit 1 can perform readability improvement processing of the image data of the generated original.
  • the control unit 1 causes the printer unit 5 to perform printing based on the image data after the readability improvement processing.
  • control unit 1 causes the image reading unit 3 to read the original and generates image data.
  • the control unit 1 can perform readability improvement processing of the image data of the generated original.
  • the control unit 1 causes the communication circuit unit 14 to transmit an image file based on the image data after the readability improvement process.
  • control unit 1 causes the image reading unit 3 to read the original and generates image data.
  • the control unit 1 can perform readability improvement processing of the image data of the generated original.
  • the control unit 1 stores an image file based on the image data after the readability improvement process in a set storage destination.
  • the multifunction device 100 can also perform a print job.
  • the control unit 1 when the communication circuit unit 14 receives the print job data from the computer 200, the control unit 1 generates image data based on the print job data.
  • the control unit 1 can perform readability improvement processing of the generated image data.
  • the control unit 1 causes the printer unit 5 to perform printing based on the image data after the readability improvement processing.
  • the control unit 1 acquires the image data used for the job (step # 1). For example, in the case of a copy job, a transmission job, and a save job, the control unit 1 causes the image reading unit 3 to read the original. Based on the analog image signal output by the image reading unit 3, the control unit 1 generates image data of the scanned document. As a result, the image data used for the job can be obtained. In the case of a print job, the control unit 1 generates image data based on the print job data. The control unit 1 stores the acquired image data (image data used for the job) in the storage unit.
  • control unit 1 divides the image data into a plurality of pixels by attaching a label to each pixel of the acquired image data (step # 2). That is, the control unit 1 performs the labeling process described above. The control unit 1 recognizes a group of pixels with the same label as one component 6 (area).
  • the control unit 1 determines whether or not each component 6 is a character (step # 3). When determining whether or not the component 6 is a character, for example, the control unit 1 surrounds each component 6 with an circumscribed rectangle. The control unit 1 sets the color of the pixel of the portion other than the component 6 to white in each circumscribed rectangle. The control unit 1 performs ⁇ CR (Optical Character Recognition) processing based on the image of the circumscribed rectangle.
  • ⁇ CR Optical Character Recognition
  • control unit 1 may generate binarized image data for each of the images of the circumscribed rectangle.
  • the control unit 1 normalizes the size of each binarized image data (sets it to a predetermined size). For example, it is normalized by performing enlargement or reduction processing.
  • the control unit 1 performs matching processing of the normalized binarized image data and recognizes the characters.
  • the storage unit 2 stores the template image data T1 in a non-volatile manner (see FIG. 1).
  • the template image data T1 is character image data, and there are a plurality of types.
  • the template image data T1 is image data for comparison (matching) with the binarized image data after normalization. For example, based on the match rate, the control unit 1 recognizes the characters of the component 6 (the image of the circumscribed rectangle). For example, when there is no template image data T1 whose matching rate exceeds the predetermined recognition threshold value D3, the control unit 1 determines that the component 6 corresponding to the binarized image data is not the character component 6.
  • the storage unit 2 non-volatilely stores the recognition threshold value D3 (see FIG. 1). When there is a character whose matching rate exceeds the recognition threshold D3, the control unit 1 determines that the component 6 corresponding to the binarized image data is the character component 6.
  • control unit 1 may determine the feature amount (feature vector) of the image of the circumscribed rectangle and determine whether it is a character or not based on the determined feature amount.
  • the control unit 1 causes the operation panel 4 to display the adjustment setting screen 7 (step # 4).
  • the adjustment setting screen 7 is a screen for setting and displaying the readability improvement process.
  • FIG. 11 is a diagram showing an example of the adjustment setting screen 7.
  • the control unit 1 displays the preview image P1 on the display panel 41.
  • the preview image P1 is a predicted view of the finish of the job.
  • the control unit 1 displays the preview image P1 on the display panel 41 based on the reduced image data of the image data used for the job. As shown in FIG. 6, in the preview image P1, the control unit 1 may display the recognized boundary between the component 6 and the component 6 with a broken line.
  • the operation panel 4 may accept the selection of the component 6 that does not adjust the pixel value.
  • the adjustment setting screen 7 is provided with a component selection button B0.
  • the component selection button B0 When the component selection button B0 is pressed, the operation panel 4 is in a state where the component 6 can be selected. In this state, the user touches the component 6 that does not adjust the pixel value.
  • the control unit 1 does not adjust the pixel value even if it is determined to be the character component 6. This makes it possible not to adjust the density of the component 6 of a specific character. You can freely select whether to darken the color of the characters or not.
  • the operation panel 4 may accept selection of a character pixel value adjustment level (intensity, pixel value adjustment amount).
  • FIG. 11 shows an example in which there are three levels, High (strong), Middle (normal), and Low (weak).
  • the same number of radio buttons RB1 as the number of levels may be provided.
  • the radio button RB1 By operating the radio button RB1, the user can select the level of the readability improvement process (pixel value adjustment). You can choose how dark the text color should be.
  • High is selected, the control unit 1 makes the absolute value of the pixel value adjustment amount larger than when Middle (normal) and Low (weak) are selected.
  • Middle the control unit 1 makes the absolute value of the pixel value adjustment amount larger than when Low (weak) is selected. That is, the control unit 1 adjusts the pixel value of the character pixel by an amount corresponding to the set level.
  • the operation panel 4 may accept the selection of the component 6 to be erased.
  • the adjustment setting screen 7 is provided with a first erase button B1 and a second erase button B2.
  • the operation panel 4 is in a state where the component 6 can be selected. In this state, the user touches the component 6 to be erased.
  • the control unit 1 changes the pixel value to a predetermined pixel value of the erased color. For example, by touching the black-painted quadrangle among the figures in the preview image P1 of FIG. 6, only the black-painted quadrangle can be erased.
  • the erasing color is white (pure white).
  • the control unit 1 may generate a histogram of pixel values, recognize the pixel value most frequently appearing as the background color, and change the pixel value of the component 6 selected to be erased to the pixel value of the background color. A specific component 6 can be erased (invisible).
  • the control unit 1 changes the pixel values of all the components 6 included in the image data that are determined not to be characters to the pixel values of the erase color. You can erase everything except the letters. For example, in the example of FIG. 11, by operating the second erase button B2, the black-painted circle, the black-painted triangle, and the black-painted quadrangle can be erased together.
  • control unit 1 When the first erase button B1 or the second erase button B2 is operated, the control unit 1 performs a process of erasing the component 6 from the image data used for the job (step # 5).
  • the setting on the adjustment setting screen 7 can be completed by operating the end button B3 of the adjustment setting screen 7.
  • the operation panel 4 receives an instruction to complete the setting on the adjustment setting screen 7.
  • the control unit 1 skips step # 5.
  • the control unit 1 Upon recognizing the operation of the end button B3, the control unit 1 converts the format of the image data used for the job and generates the image data in the CMYK format (step # 6). For example, the control unit 1 converts RGB format image data into CMYK format image data.
  • the storage unit 2 non-volatilely stores the conversion table data TB1 (see FIG. 1).
  • the conversion table data TB1 is a table that defines the correspondence between the RGB pixel values and the CMYK pixel values. For example, the corresponding CMYK pixel value is defined for each RGB pixel value. Correspondences are defined so that the colors in the RGB color space are properly reproduced in the CMYK color space.
  • the control unit 1 refers to the conversion table data TB1 and generates image data in CMYK format.
  • control unit 1 adjusts the pixel value of the character pixel, which is the pixel of the component 6 determined to be a character (step # 7). Specifically, the control unit 1 changes the pixel value of the character pixel in at least one color component in the direction in which the character pixel becomes darker. The control unit 1 changes the pixel value of the character pixel according to the selected pixel value adjustment level (intensity).
  • the pixel value adjusting unit may change the pixel value of the character pixel for all the color components of CMYK.
  • the control unit 1 may change each color component by the same amount. Changing each color component by the same amount has the advantage that the color of the characters does not change significantly.
  • the control unit 1 may increase the values (%) of C, M, Y, and K by 30%, respectively.
  • the control unit 1 may increase the values (%) of C, M, Y, and K by 20%, respectively.
  • the control unit 1 may increase the values (%) of C, M, Y, and K by 10% each.
  • 12 and 13 show an example of increasing the values (%) of C, M, Y, and K by 20% each.
  • the letter A in FIG. 12 shows an example of a character before the pixel value adjustment.
  • the letter A in FIG. 13 shows an example of a character after adjusting the pixel value.
  • 12 and 13 show an example of increasing the pixel value by 20% for each of the color components of Cyan, Magenta, Yellow, and Black. 12 and 13 show an example in which gray is adjusted to dark gray. When changing the color component, the control unit 1 does not increase the color component beyond the upper limit value (100%).
  • the color of the characters is adjusted in the darkening direction.
  • the outline of the character and its inside are solidly painted in a dark color.
  • the outline and boundaries of the characters become clear. The characters are easier to read.
  • the pixel value adjusting unit may increase the pixel value of the character pixel of only one color component of the CMYK color component, or may increase the pixel value of the character pixel of the two color components. However, the pixel values of the character pixels of the three color components may be darkened.
  • control unit 1 performs a job based on the image data in which the pixel value of the character pixel is adjusted (step # 8). For example, the control unit 1 performs a copy job, a print job, a transmission job, or a save job based on the adjusted image data. Upon completion of the job, the control unit 1 ends the process related to the flowchart (end).
  • the image processing device includes a storage unit 2 and a pixel value adjusting unit (for example, a control unit 1).
  • the storage unit 2 stores image data.
  • the pixel value adjusting unit divides the image data into a plurality of pieces by attaching a label to each pixel based on the pixel value of the pixel included in the image data.
  • the pixel value adjusting unit determines whether or not the component 6 is a character for each component 6 which is a group of pixels with the same label.
  • the pixel value adjusting unit adjusts the pixel value of the character pixel, which is the pixel of the component 6 determined to be a character, in the direction of darkening.
  • the characters (component 6) included in the image data can be recognized by the labeling process (labeling process). Then, the pixel value of the pixel of the component 6 determined to be a character can be adjusted (changed) in the direction in which the color of the character becomes darker. As a result, the color of the characters can be darkened.
  • the outline (boundary) of the character becomes clear. Characters are easier to read (improved readability). The outline of any character is clear regardless of the pixel value, making the document easier to read. Compared to image processing that adjusts contrast and brightness, it is possible to obtain image data that has darker characters, is clearer, and is easier to read.
  • the pixel value adjustment unit converts the image data into CMYK format image data.
  • the pixel value adjusting unit darkens the pixel value of the character pixel for at least one color component among the color components of CMYK. This makes it possible to darken the color of the character pixels.
  • the characters in the image data can be made easier to read.
  • the pixel value adjusting unit may change the pixel value of the character pixel for all the color components.
  • the pixel value adjusting unit changes each color component by the same amount.
  • the color components of each are changed by the same amount, so that the color of the characters can be darkened while maintaining the color of the characters. For example, bright blue letters can be changed to dark (dark) blue letters.
  • the pixel value adjusting unit changes the pixel value of the pixel of the component 6 determined to be not a character to the pixel value of the predetermined erasing color. As a result, among the image data, the pixels of the component 6 that are not characters can be automatically erased. You can fill in non-text areas to make the text stand out.
  • the pixel value adjustment unit changes the pixel values of all the components 6 determined to be non-characters to the pixel values of the erase color. As a result, it is possible to obtain image data in which characters other than characters in the image data are deleted (filled). You can make the characters stand out. Easy-to-read image data can be obtained.
  • the erase color may be white.
  • the color of the paper is often white.
  • the portion other than the characters can be set to white. It is possible to bring the color of a pixel other than a character pixel closer to the color of paper.
  • the image processing device includes an operation panel 4 that accepts the selection of the component 6 that does not adjust the pixel value.
  • the pixel value adjusting unit does not change the pixel value of the pixel of the selected component 6. This allows you to avoid adjusting the color of a particular (selected) component 6. The color can be maintained for a particular character.
  • the image processing device includes an operation panel 4 that accepts selection of a pixel value adjustment level for character pixels.
  • the pixel value adjusting unit changes the pixel value of the character pixel according to the selected level. This makes it possible to select the degree of adjustment of the character color recognized by the labeling process.
  • the color of the adjusted characters can be a desired color.
  • the image processing device includes an image reading unit 3 for reading a document.
  • the storage unit 2 stores the image data obtained by reading the original by the image reading unit 3. This makes it possible to adjust the color of characters in the image data obtained by scanning the original.
  • the characters in the image data of the manuscript can be made clear and easy to read.
  • the present invention can be used for an image processing device and an image processing method.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)

Abstract

画像処理装置(100)は、記憶部(2)と画素値調整部(1)を含む。記憶部(2)は、画像データを記憶する。画素値調整部(1)は、画素値に基づき各画素にラベルを付し、画像データを複数に分割する。画素値調整部(1)は、同じラベルが付された画素のまとまりであるコンポーネント(6)が文字か否かを判定する。画素値調整部(1)は、文字と判定したコンポーネント(6)の画素である文字画素の画素値を濃くなる方向に調整する。

Description

画像処理装置及び画像処理方法
 本発明は、文字を含む画像データを処理する画像処理装置及び画像処理方法に関する。
 文字(文字画像)を含む画像データを処理する場合、文字のエッジを強調する処理を行うことがある。一方、エッジ強調の画像処理を写真画像に行うと、美しさ及び滑らかな階調変化が失われることがある。そこで、領域に応じた画像処理を行う装置の一例が特許文献1に記載されている。
 具体的に、特許文献1には、原稿を単位領域ごとに光学的に読み取り、複数の色成分に分離した画像データを取得し、画像データ中の画素の輝度値変化に基づいて文字領域と非文字領域と、を判別し、モノクロ画像データを取得するときに、少なくとも1つの色成分の画像データに対して、各画素の輝度値を予め設定した所定量だけオフセットさせる輝度値補正を行う第1の輝度値補正手段と、前記第1の輝度値補正手段が輝度値補正を行った画像データに基づいて前記領域判別を行う前記領域判別手段と、少なくとも1つの他の色成分の画像データに対して、前記領域判別手段が判別した領域種に応じた画像処理を行い、前記モノクロ画像データとして出力する画像処理手段と、を備えるカラースキャナ装置が記載されている(特許文献1:請求項1)。
特開2005-295345号公報
 画像データに基づきジョブを行う画像処理装置がある。例えば、画像データに基づき、文書を印刷することがある。原稿を読み取って得られた画像データに基づく印刷ジョブはコピージョブと称されることがある。文書の画像データを送信することもある。
 画像データに含まれる文字(文字画像)を鮮明にできれば、文字部分が美しく見える。文字部分が見映えし、画質を高めることができる。一般に、文字は用紙(下地)よりも濃い色で記述される。そこで、従来、文字を鮮明にするため、コントラストや明るさを調整する画像処理を行うことがある。
 コントラストを高く(強く)する画像処理、又は、ヒストグラム全体をシフトする明るさ調整を行うと、かえって、文字部分の濃度が下がる場合がある。例えば、比較的明るい色の文字の濃度が下がることがある。その結果、文字の色が明るく(薄く)なったり、文字がかすれたり、輪郭がぼやけたりする場合がある。つまり、従来のコントラスト、明るさを調整しても、文字を見やすくできない場合があるという問題がある。かえって文字が読みづらくなる場合があり得る。
 特許文献1には、文字領域と非文字領域のそれぞれに、適した画像処理を行う点にメリットがある。しかし、文字を読みやすくできない場合はあり得る。
 上記問題点を鑑み、本発明は画像データ内の文字の濃度によらず、文字を濃くし、文字の輪郭を際立たせ、文字を読みやすくする。
 本発明に係る画像処理装置は、記憶部と画素値調整部を含む。前記記憶部は画像データを記憶する。前記画素値調整部は、前記画像データに含まれる画素の画素値に基づき各画素にラベルを付すことにより前記画像データを複数に分割する。前記画素値調整部は、同じ前記ラベルが付された画素のまとまりであるコンポーネントごとに前記コンポーネントが文字か否かを判定する。前記画素値調整部は、文字と判定した前記コンポーネントの画素である文字画素の画素値を濃くなる方向に調整する。
 本発明によれば、画像データ内の文字の濃度によらず、各文字を濃くし、輪郭を明確にし、読みやすくすることができる。
実施形態に係る複合機の一例を示す図である。 画像データの一例を示す図である。 実施形態に係る複合機の分割処理の結果の一例を示すとともに、文字の輪郭の外側の画素のまとまりを示す図である。 実施形態に係る複合機の分割処理の結果の一例を示すともに、画像データから分割(抽出)された部分の一つを示す図である。 実施形態に係る複合機の分割処理の結果の一例を示すともに、画像データから分割(抽出)された部分の一つを示す図である。 実施形態に係る複合機の分割処理の結果の一例を示すともに、画像データから分割(抽出)された部分の一つを示す図である。 実施形態に係る複合機の分割処理の結果の一例を示すともに、画像データから分割(抽出)された部分の一つを示す図である。 実施形態に係るラベリング処理の一例を示すとともに、画像データを複数の領域に分割し、ラベリング処理を行う前の状態を示す図である。 実施形態に係るラベリング処理の一例を示すとともに、画像データを複数の領域に分割し、ラベリング処理を行った後の状態を示す図である。 実施形態に係る複合機での可読性向上処理を伴うジョブの処理の流れの一例を示す図である。 実施形態に係る調整設定画面の一例を示す図である。 実施形態に係る複合機での画素値調整前の一例を示す図である。 実施形態に係る複合機での画素値調整後の一例を示す図である。
 図1~図13を用いて、本発明に係る画像処理装置を説明する。画像処理装置として複合機100を例に挙げて説明する。複合機100は画像形成装置でもある。本説明での構成、配置等の各要素は、発明の範囲を限定するものではなく単なる説明例にすぎない。
(複合機100の概要)
 まず、図1を用いて実施形態に係る複合機100の一例を説明する。図1は、実施形態に係る複合機100の一例を示す図である。
 複合機100は、制御部1、記憶部2、画像読取部3、操作パネル4、及び、プリンター部5を含む。制御部1は制御部1、記憶部2、画像読取部3、操作パネル4、及び、プリンター部5を制御する。制御部1は、制御回路11、画像処理回路12、画像データ生成回路13、通信回路部14を含む。例えば、制御部1は複数の回路を含む基板である。例えば、制御回路11はCPUである。制御回路11は制御に関する演算、処理を行う。画像処理回路12は、画像処理を行う。
 複合機100は、記憶部2としてROM、RAM、ストレージを含む。例えば、記憶部2は制御用プログラムや各種データを記憶する。例えば、ストレージは、大容量記憶装置である。ストレージは画像データを不揮発的に記憶できる。例えば、ストレージは、HDDとSSDの何れか一方、又は、両方である。
 複合機100は可読性向上処理を行う画素値調整部を含む。可読性向上処理のとき、画素値調整部は、分割処理、判定処理、及び、濃度調整処理を行う。分割処理では、画素値調整部は、各画素にラベルを付し、ラベルに基づいて画像データを分割する。画素値調整部は、分割処理としてラベリング処理を行う。判定処理では、画素値調整部は、分割された各コンポーネント6(領域)が文字か否かを判定する。コンポーネント6とは、同じラベルが付された画素のまとまりである。濃度調整処理では、画素値調整部は、文字と判定したコンポーネント6の画素である文字画素の画素値を濃くなる方向に調整する。
 制御部1を画素値調整部として用いることができる。例えば、制御部1は、RAMに画像データを読み出し、可読性向上処理を行う。制御回路11が可読性向上処理を行ってもよい。画像処理回路12が可読性向上処理を行ってもよい。可読性向上処理のうち、一部を制御回路11が行い、画像処理回路12が残りの処理を行ってもよい。可読性向上処理を行う専用回路が制御部1に設けられてもよい。なお、当該専用回路は、制御部1外に設けられてもよい。
 画像読取部3は、原稿台、光源(ランブ)、レンズ、イメージセンサーを含む。画像読取部3には読み取りたい文書(原稿)を原稿台にセットすることができる。光源は、原稿台及びセットされた文書に光を照射する。レンズは、原稿の反射光をイメージセンサーに導く。イメージセンサーは、受光素子の列を含む。例えば、イメージセンサーはラインセンサーである。各受光素子は、反射光を受け、受けた光量に応じた電圧をアナログ画像信号として出力する。光源、レンズ、イメージセンサーはユニット化されている。画像読取部3は、ユニットを移動させるモーター、ワイヤーを含む。原稿を読み取るとき、画像読取部3は当該ユニットを副走査方向(受光素子が並ぶ方向と直交する方向)に移動させ、原稿全体を読み取る。画像読取部3はカラーでの読み取りに対応している。
 画像データ生成回路13は、画像読取部3が原稿を読み取って出力したアナログ画像信号に基づき、原稿の画像データを生成する。例えば、画像データ生成回路13は、増幅回路、オフセット回路、A/D変換回路を含む。増幅回路はアナログ画像信号を増幅する。オフセット回路は、A/D変換回路に入力されるアナログ画像信号の電圧値を調整する。A/D変換回路は、アナログ画像信号をディジタルデータに変更し、画像データを生成する。例えば、画像データ生成回路13は、RGBのビットマップ形式の画像データ(ラスターデータ)を生成する。
 通信回路部14はコンピューター200と通信する。例えば、コンピューター200は、PCやサーバーである。通信回路部14は、通信用コネクタ、通信制御回路、通信用メモリーを含む。通信用メモリーは、通信用のソフトウェアとデータを記憶する。通信回路部14は、コンピューター200とデータを送受信できる。
 複合機100は操作パネル4を含む。操作パネル4は、表示パネル41、タッチパネル42、ハードキー43を含む。制御部1は表示パネル41の表示を制御する。制御部1は、画面、画像を表示パネル41に表示させる。制御部1は操作用画像を表示させる。例えば、操作用画像はボタン(ソフトキー)、タブである。タッチパネル42の出力に基づき、制御部1は操作された操作用画像を認識する。また、制御部1は、操作されたハードキー43を認識する。操作パネル4は使用者の設定操作を受け付ける。制御部1は、操作パネル4でなされたジョブの設定内容を認識する。制御部1は設定どおりに動作するように複合機100を制御する。
 具体的に、操作パネル4は、ジョブにて可読性向上処理を行うか否かの選択を受け付ける。可読性向上処理を行う選択がなされているとき、制御部1は、可読性向上処理をジョブに用いる画像データに施す。そして、制御部1は、可読性向上処理を行った画像データに基づきジョブを行う。可読性向上処理を行わない選択がなされているとき、制御部1は、可読性向上処理をジョブに用いる画像データに施さない。
 プリンター部5は給紙部5a、用紙搬送部5b、画像形成部5c、及び、定着部5dを含む。給紙部5aは用紙カセット、給紙ローラーを含む。用紙束が用紙カセットにセットされる。印刷ジョブのとき、制御部1は給紙ローラーを回転させ、用紙を供給させる。用紙搬送部5bは、搬送ローラー対含む。印刷ジョブのとき、制御部1は搬送ローラー対を回転させ、用紙を用紙搬送部5bに搬送させる。制御部1は画像データに基づくトナー像を画像形成部5cに形成させる。
 画像形成部5cは、露光装置、画像形成ユニット、中間転写部を含む。画像形成ユニットは複数設けられる。それぞれの画像形成ユニットは感光体ドラム、帯電装置、現像装置を含む。例えば、画像形成部5cは、ブラックのトナー像を形成する画像形成ユニットと、シアンのトナー像を形成する画像形成ユニットと、マゼンタのトナー像を形成する画像形成ユニットと、イエローのトナー像を形成する画像形成ユニットと、を含む。画像形成部5cはカラー印刷可能である。中間転写部は周回する中間転写ベルトと2次転写ローラーを含む。各画像形成ユニットは形成したトナー像を中間転写ベルトに一次転写する。2次転写ローラーは、搬送される用紙にトナー像を2次転写する。
 制御部1は、用紙に転写されたトナー像の定着を定着部5dに行わせる。定着部5dは、ヒーターと複数の定着用回転体を含む。定着部5dの加熱、加圧により、用紙にトナー像が定着する。制御部1は定着後の用紙の機外への排出を、用紙搬送部5bに行わせる。
(分割処理)
 次に、図2~図9を用いて、実施形態に係る制御部1が行う分割処理の一例を説明する。図2は、画像データの一例を示す図である。図3~図7は、実施形態に係る複合機100による分割処理の結果の一例を示す図である。図8及び図9は実施形態に係るラベリング処理の一例を示す図である。
 制御部1は、分割処理を行い、画像データを複数の領域に分割する。制御部1は、分割処理のとき、ラベリング処理を行う。ラベリング処理は、CCL(Connected Component Labeling)処理と称されることもある。以下の説明では、同じラベルが付された画素のまとまり(分割された1つの領域)をコンポーネント6と称する。
 例えば、文書の画像データには、文字が含まれる。画素値が同じ又は画素値の近い画素が連結(Connected)した図形によって、文字が表現される。本説明では、画素値が同じ又は画素値の近い画素が連結した図形を連結図形6aと称する。画像データに文章が含まれる場合、画像データに連結図形6aが複数含まれる。
 ラベリング処理のとき、制御部1は、それぞれの連結する図形に、異なるラベルを割り当てる。例えば、制御部1は、ラベルとして数字(番号)を用いる。制御部1は、最初の連結図形6aに1のラベルを付す。新たな連結図形6aを検知するごとに、ラベルの数字を1大きくする。ラベリングによって、連結図形6aの個数を数え上げることができる。言い換えると、ラベルの数字によって、画像データがいくつに分割したかを把握することができる。図8及び図9はラベリング処理の一例を示す。同じラベルが付された連結図形6a(画素のまとまり)が、コンポーネント6である。図8は、画像データを複数の領域に分割し、ラベリング処理を行う前の状態を示している。図9は、画像データを複数の領域に分割し、ラベリング処理を行った後の状態を示している。
 制御部1は、カラーの画像データについて、ラベリング処理を行える。ラベリング処理の前に、制御部1は、平滑化の画像処理を画像データに施してもよい。平滑化処理によって、制御部1は、画像データに含まれるノイズを除去してもよい。
 ラベリング処理のとき、制御部1は、画像データ内の画素のうちの1つ画素を注目画素とする。制御部1は、全ての画素を注目画素とする。制御部1は、注目画素を順番に切り替える。注目画素について、以下の処理を行う。
 (第1処理)制御部1は、注目画素を中心とした8方向(上、下、左、右、左上、右上、左下、右下)において、ラベル付け済の画素があるか否かを調べる。8方向ではなく、4方向(上、下、左、右)でもよい。ラベル付け済の画素がない場合、第2処理を行う。ラベル付け済の画素が1つだけある場合、第3処理を行う。ラベル付け済の画素が複数ある場合、第4処理を行う。
 (第2処理)制御部1は、注目画素に新しいラベル(番号を1増やしたラベル)を付す。
 (第3処理)見つかったラベル付け済の画素と注目画素の画素値に基づき、制御部1は、ラベル付け済の画素と同じラベルを付すか否かを判定する。同じラベルを付すと判定した場合、制御部1は、ラベル付け済の画素と同じラベルを注目画素に付す。同じラベルを付さないと判定した場合、制御部1は、新たなラベルを注目画素に付す。
 例えば、制御部1は、注目画素の輝度値とラベル付け済の画素の輝度値を求め、輝度値の差の絶対値が予め定められた判定用閾値D1以下のとき、同じラベルを付すと判定してもよい。なお、記憶部は判定用閾値D1を不揮発的に記憶する(図1参照)。制御部1は、輝度値の差の絶対値が判定用閾値D1を超えているとき、同じラベルを付さないと判定してもよい。ここで、制御部1は、画素値に基づき、それぞれの画素の輝度値を求めることができる。制御部1は、画素のそれぞれの色成分の画素値に、所定の係数を乗じ、その合計値を輝度値として求めてもよい。
 また、制御部1は、注目画素の画素値とラベル付け済の画素の画素値の色彩間距離を求め、色彩間距離に基づき、同じラベルを付すか否かを判定してもよい。例えば、制御部1は、画素値の差をR、G、Bの色成分ごとに求め、それぞれの差を2乗し、2乗した値の合計値を求め、合計値の平方根を色彩間距離として求めてもよい。また、制御部1は、画素値の差をR、G、Bの色成分ごとに求め、色成分ごとに差の絶対値を求め、絶対値の合計値を色彩間距離として求めてもよい。色彩間距離が予め定められた判定用基準距離D2以下のとき、制御部1は同じラベルを付すと判定してもよい。なお、記憶部は判定用基準距離D2を不揮発的に記憶する(図1参照)。色彩間距離が判定用基準距離D2を超えているとき、制御部1は、同じラベルを付さないと判定してもよい。
 (第4処理) 制御部1は、複数のラベル付け済の画素のうち、注目画素と画素値が最も近いラベル付け済の画素を1つ選択する。なお、以下の説明では、便宜上、注目画素と画素値が最も近いラベル付け済の画素を比較対象画素と称する。
 制御部1は、複数のラベル付け済の画素のうち、輝度値が最も近い画素を比較対象画素として選択してもよい。
 そして、制御部1は、注目画素の輝度値と比較対象画素の輝度値との差の絶対値が判定用閾値D1以下のとき、比較対象画素と同じラベルを付すと判定してもよい。制御部1は、輝度値の差の絶対値が判定用閾値D1を超えているとき、新しいラベルを付すと判定してもよい。
 また、制御部1は、注目画素の画素値とラベル付け済の画素の画素値の差をR、G、Bの色成分ごとに求め、求めた差に基づき色彩間距離を求め、色彩間距離が最も短いラベル付け済の画素を比較対象画素として選択してもよい。色彩間距離の求め方は上述の(第3処理)と同様でよい。
 そして、制御部1は、注目画素の画素値と比較対象画素の画素値との色彩間距離が判定用基準距離D2以下のとき、制御部1は同じラベルを付すと判定してもよい。色彩間距離が判定用基準距離D2を超えているとき、制御部1は、同じラベルを付さないと判定してもよい。色彩間距離の求め方は上述の(第3処理)と同様でよい。
 なお、制御部1は、ラベリング処理の手法は、上記の手法に限られない。制御部1は、同じ画素値でつながりあう(隣接する)画素に同じラベルを付してもよい。この場合、画像データでの1つのコンポーネント6(領域)は小さくなりやすい。そして、制御部1は、ラベルを付したコンポーネント6の統合処理を行ってもよい。例えば、制御部1は、色彩間距離が予め定められ、記憶部2が記憶する統合用閾値より小さいコンポーネント6同士を統合してもよい。ほぼ同じ色のコンポーネント6を結合することができる。
 図2は、ラベリング処理する画像データの一例を示す。図2は、1ページ内にA、B、C、Dの4つの文字(アルファベット)を配置した画像データの一例を示す。制御部1は、画像読取部3が原稿を読み取って得られた画像データについて、ラベリング処理を行える。例えば、制御部1は、原稿を読み取って得られたカラーの画像データ(RGB形式の画像データ)のラベリング処理を行う。
 図3~図7は、制御部1が図2の画像データのラベリング処理の結果の一例を示す。例えば、制御部1は、各アルファベット(文字)の輪郭の外側の画素(下地の画素)に同じラベルを付す。その結果、制御部1は、各アルファベット(文字)の輪郭の外側の画素のまとまりを1つのコンポーネント6と認識する。図3は、画像データ(図2を参照)から分割(抽出)された、各アルファベットの外側の画素のまとまり(コンポーネント6)を示す。
 図4は、画像データ(図2を参照)から分割(抽出)されたAのアルファベットの部分を示す。この部分については、ラベリング処理では、制御部1は、Aの文字(形状)の画素のつながり(まとまり)に同じラベルを付す。また、制御部1は、Aの内側の下地色の三角形にも、別のラベルを付す。その結果、制御部1は、Aの文字を示す画素のまとまりを1つのコンポーネント6と認識する。また、制御部1は、Aの内側の三角形をもう1つのコンポーネント6と認識する。
 図5は、画像データ(図2を参照)から分割(抽出)されたBのアルファベットの部分を示す。この部分については、ラベリング処理では、制御部1は、Bの文字(形状)を示す画素のまとまりに同じラベルを付す。また、制御部1は、Bの内側の2つの領域(下地色の画素のまとまり)のそれぞれに、別のラベルを付す。その結果、制御部1は、Bの文字を示す画素のつながりを1つのコンポーネント6と認識する。また、制御部1は、Bの内側の2つの半楕円のそれぞれを、別個のコンポーネント6と認識する。
 図6は、画像データ(図2を参照)から分割(抽出)されたCのアルファベットの部分を示す。この部分については、ラベリング処理では、制御部1は、Cの文字(形状)を示す画素のつながり(まとまり)に同じラベルを付す。その結果、制御部1は、Cの文字を示す画素のまとまりを1つのコンポーネント6と認識する。
 図7は、画像データ(図2を参照)から分割(抽出)されたDのアルファベットの部分を示す。この部分については、ラベリング処理では、制御部1は、Dの文字(形状)を示す画素のまとまり(つながり)に同じラベルを付す。また、制御部1は、Dの内側の下地色の画素のまとまりにも、別のラベルを付す。その結果、制御部1は、Dの文字を示す画素のまとまりを1つのコンポーネント6と認識する。また、制御部1は、Dの内側の半楕円をもう1つのコンポーネント6と認識する。
 このように、制御部1は、画像データのラベリング処理を行い、複数のコンポーネント6に分割する。コンポーネント6には、文字を含むものがある。制御部1は、コンポーネント6のうち、文字のコンポーネント6を抽出する。
(可読性向上処理を伴うジョブの処理の流れ)
 図10~図13を用いて、実施形態に係る複合機100での可読性向上処理を伴うジョブの処理の流れの一例を説明する。図10は、実施形態に係る複合機100での可読性向上処理を伴うジョブの処理の流れの一例を示す図である。図11は、実施形態に係る調整設定画面7の一例を示す図である。図12及び図13は、実施形態に係る複合機100での画素値の調整の一例を示す図である。
 操作パネル4は、ジョブにて、可読性向上処理を行うか否かの選択を受け付ける。図10は、可読性向上処理を行うときの処理の流れの一例を示す。図10のスタートは、可読性向上処理を行う選択がなされている状態で、ジョブを開始する時点である。なお、可読性向上処理を行うか否かの選択を受け付けず、制御部1は、全てのジョブにおいて、可読性向上処理を自動的にジョブで用いる画像データに行ってもよい。
 ここで、複合機100では、コピージョブ、送信ジョブ、保存ジョブを行うことができる。操作パネル4は、ジョブの種類の選択と、選択した種類のジョブの開始指示を受け付ける。コピージョブのとき、制御部1は、原稿を画像読取部3に読み取らせ、画像データを生成する。制御部1は、生成した原稿の画像データの可読性向上処理を行える。制御部1は、可読性向上処理後の画像データに基づく印刷をプリンター部5に行わせる。
 送信ジョブのとき、制御部1は、原稿を画像読取部3に読み取らせ、画像データを生成する。制御部1は、生成した原稿の画像データの可読性向上処理を行える。設定された宛先に向けて、制御部1は、可読性向上処理後の画像データに基づく画像ファイルを通信回路部14に送信させる。
 保存ジョブのとき、制御部1は、原稿を画像読取部3に読み取らせ、画像データを生成する。制御部1は、生成した原稿の画像データの可読性向上処理を行える。制御部1は、可読性向上処理後の画像データに基づく画像ファイルを設定された保存先に記憶させる。
 また、複合機100では、プリントジョブを行うこともできる。例えば、通信回路部14がコンピューター200からのプリントジョブ用データを受信したとき、制御部1はプリントジョブ用データに基づいて画像データを生成する。制御部1は、生成した画像データの可読性向上処理を行える。制御部1は、可読性向上処理後の画像データに基づく印刷をプリンター部5に行わせる。
 まず、制御部1は、ジョブに用いる画像データを取得する(ステップ♯1)。例えば、コピージョブ、送信ジョブ、及び、保存ジョブの場合、制御部1は、画像読取部3に原稿を読み取らせる。画像読取部3が出力するアナログ画像信号に基づき、制御部1は、読み取った原稿の画像データを生成する。これにより、ジョブに用いる画像データが得られる。プリントジョブの場合、制御部1は、プリントジョブ用データに基づいて画像データを生成する。制御部1は、取得した画像データ(ジョブに用いる画像データ)を記憶部に記憶させる。
 次に、制御部1は、取得した画像データの各画素にラベルを付すことにより、画像データを複数に分割する(ステップ♯2)。つまり、制御部1は、上述したラベリング処理を行う。制御部1は、同じラベルを付した画素のまとまりを1つのコンポーネント6(領域)と認識する。
 制御部1は、それぞれのコンポーネント6が文字か否かを判定する(ステップ♯3)。コンポーネント6が文字か否かを判定するとき、例えば、制御部1は、それぞれのコンポーネント6を外接矩形で囲う。制御部1は、それぞれの外接矩形において、コンポーネント6でない部分の画素の色を白色とする。制御部1は、外接矩形の画像に基づき、ОCR(Optical Character Recognition)処理を行う。
 例えば、ОCR処理では、制御部1は、外接矩形の画像のそれぞれについて、二値化画像データを生成してもよい。制御部1は、それぞれの2値化画像データのサイズを正規化する(所定のサイズとする)。例えば、拡大又は縮小の処理を行って、正規化する。制御部1は、正規化後の2値化画像データのマッチング処理を行って、文字を認識する。
 マッチング処理を行う場合、記憶部2は、テンプレート画像データT1を不揮発に記憶する(図1参照)。テンプレート画像データT1は、文字の画像データであって、複数種類ある。テンプレート画像データT1は、正規化後の2値化画像データと比較(マッチング)するための画像データである。例えば、一致率に基づき、制御部1は、コンポーネント6(外接矩形の画像)の文字を認識する。例えば、一致率が予め定められた認識用閾値D3を超えるテンプレート画像データT1がない場合、制御部1は、2値化画像データに対応するコンポーネント6は文字のコンポーネント6ではないと判定する。例えば、記憶部2は、認識用閾値D3を不揮発的に記憶する(図1参照)。一致率が認識用閾値D3を超える文字がある場合、制御部1は、2値化画像データに対応するコンポーネント6は文字のコンポーネント6であると判定する。
 なお、制御部1は、外接矩形の画像の特徴量(特徴ベクトル)を定め、定めた特徴量に基づき、文字か否かを判定してもよい。
 次に、制御部1は、操作パネル4に調整設定画面7を表示させる(ステップ♯4)。調整設定画面7は、可読性向上処理に関する設定、表示を行うための画面である。図11は、調整設定画面7の一例を示す図である。
 制御部1は、プレビュー画像P1を表示パネル41に表示させる。プレビュー画像P1は、ジョブの仕上がりの予想図である。制御部1は、ジョブに用いる画像データを縮小した画像データに基づき、プレビュー画像P1を表示パネル41に表示させる。図6に示すように、プレビュー画像P1において、制御部1は、認識したコンポーネント6とコンポーネント6の境界を破線で表示してもよい。
 操作パネル4は、画素値の調整を行わないコンポーネント6の選択を受け付けてもよい。例えば、調整設定画面7には、コンポーネント選択ボタンB0が設けられる。コンポーネント選択ボタンB0を押すと、操作パネル4は、コンポーネント6を選択できる状態になる。この状態で、使用者は、画素値を調整しないコンポーネント6をタッチする。画素値を調整しない選択がなされたコンポーネント6については、制御部1は、文字のコンポーネント6と判定しても、画素値の調整を行わない。これにより、特定の文字のコンポーネント6の濃度を調整しないようにすることができる。文字の色を濃くする、濃くしないを自由に選択することができる。
 また、操作パネル4は、文字の画素値調整のレベル(強度、画素値の調整量)の選択を受け付けてもよい。図11は、レベルがHigh(強)、Middle(普通)、Low(弱)の3段階である例を示す。図11に示すように、レベル数と同数のラジオボタンRB1が設けられてもよい。ラジオボタンRB1を操作することにより、使用者は、可読性向上処理(画素値調整)のレベルを選択することができる。文字の色をどの程度濃くするかを選択することができる。Highが選択されたとき、制御部1は、Middle(普通)、Low(弱)が選択されたときよりも、画素値の調整量の絶対値を大きくする。Middleが選択されたとき、制御部1は、Low(弱)が選択されたときよりも、画素値の調整量の絶対値を大きくする。つまり、制御部1は、設定されたレベルに応じた量で、文字画素の画素値を調整する。
 操作パネル4は、消去するコンポーネント6の選択を受け付けてもよい。例えば、調整設定画面7には、第1消去ボタンB1と第2消去ボタンB2が設けられる。第1消去ボタンB1を押すと、操作パネル4は、コンポーネント6を選択できる状態になる。この状態で、使用者は、消したいコンポーネント6をタッチする。消す選択がなされたコンポーネント6については、制御部1は、画素値を予め定められた消去色の画素値に変更する。例えば、図6のプレビュー画像P1の図形のうち、黒塗四角形をタッチすることにより、黒塗四角形のみを消すことができる。例えば、消去色は、白色(真っ白)である。制御部1は、画素値のヒストグラムを生成し、最も登場頻度が多い画素値を下地色と認識し、消す選択がなされたコンポーネント6の画素値を下地色の画素値に変更してもよい。特定のコンポーネント6を消す(見えなくする)ことができる。
 第2消去ボタンB2が操作されたとき、制御部1は、画像データに含まれるコンポーネント6のうち、文字ではないと判定した全てのコンポーネント6の画素値を消去色の画素値に変更する。文字以外、全てを消すことができる。例えば、図11の例でいえば、第2消去ボタンB2を操作することにより、黒塗円、黒塗三角形、黒塗四角形をまとめて消すことができる。
 第1消去ボタンB1、又は、第2消去ボタンB2が操作されたとき、制御部1は、ジョブに用いる画像データからコンポーネント6を消す処理をする(ステップ♯5)。
 消したいコンポーネント6の消去処理が終了したとき、調整設定画面7のエンドボタンB3を操作することにより、調整設定画面7での設定を終わらせることができる。操作パネル4は調整設定画面7での設定完了の指示を受け付ける。第1消去ボタンB1、又は、第2消去ボタンB2が操作されずに、エンドボタンB3が操作されたとき、制御部1は、ステップ♯5をスキップする。
 なお、調整設定画面7で設定を行わなくてもよい。設定の必要がなければ、使用者は、調整設定画面7の表示後、直ちにエンドボタンB3を操作すればよい。
 エンドボタンB3の操作を認識すると、制御部1は、ジョブに用いる画像データの形式を変換し、CMYK形式の画像データを生成する(ステップ♯6)。例えば、制御部1は、RGB形式の画像データをCMYK形式の画像データに変換する。例えば、記憶部2は、変換テーブルデータTB1を不揮発的に記憶する(図1参照)。変換テーブルデータTB1は、RGBの画素値とCMYKの画素値の対応関係を定義したテーブルである。例えば、RGBの画素値ごとに、対応するCMYKの画素値が定義される。RGB色空間上の色がCMYK色空間で適切に再現されるように、対応関係が定義される。制御部1は、変換テーブルデータTB1を参照して、CMYK形式の画像データを生成する。
 続いて、制御部1は、文字と判定したコンポーネント6の画素である文字画素の画素値を調整する(ステップ♯7)。具体的に、制御部1は、文字画素が濃くなる方向に、少なくとも1つの色成分において、文字画素の画素値を変化させる。選択された画素値調整のレベル(強度)に応じて、制御部1は、文字画素の画素値を変化させる。
 図12及び図13に示すように、画素値調整部は、CMYKの全ての色成分について、文字画素の画素値を変更してもよい。図12及び図13に示すように、制御部1は、それぞれの色成分を同じ量ずつ変更してもよい。それぞれの色成分を同じ量ずつ変更すると、文字の色味が大きく変化しないというメリットがある。
 例えば、画素値調整のレベルがHighのとき、制御部1は、C、M、Y、Kの値(%)をそれぞれ30%ずつ増やしてもよい。画素値調整のレベルがMiddleのとき、制御部1は、C、M、Y、Kの値(%)をそれぞれ20%ずつ増やしてもよい。画素値調整のレベルがLowのとき、制御部1は、C、M、Y、Kの値(%)をそれぞれ10%ずつ増やしてもよい。
 図12及び図13は、C、M、Y、Kの値(%)をそれぞれ20%ずつ増やす例を示す。図12のアルファベットのAは、画素値調整前の文字の一例を示す。図12のAの色は、Cyan=0%、Magenta=0%、Yellow=0%、Black=50%である。図13のアルファベットのAは、画素値調整後の文字の一例を示す。図13の右側のAの色は、Cyan=20%、Magenta=20%、Yellow=20%、Black=70%である。図12及び図13は、Cyan、Magenta、Yellow、Blackのそれぞれ色成分について、画素値を20%ずつ増やす例を示す。図12及び図13は、グレーがダークグレーに調整される例を示す。なお、色成分を変更する場合、制御部1は、上限値(100%)を超えては増やさない。
 図12及び図13に示すように、濃くなる方向に、文字の色が調整される。言い換えると、文字の輪郭とその内側が濃い色でベタ塗りされる。その結果、文字の輪郭、境界が明確になる。文字が読みやすくなる。
 なお、画素値調整部は、CMYKの色成分のうち、1つの色成分だけ、文字画素の画素値を濃くしてもよいし、2つの色成分の文字画素の画素値を濃くしてもよいし、3つの色成分の文字画素の画素値を濃くしてもよい。
 そして、制御部1は、文字画素の画素値を調整した画像データに基づき、ジョブを行う(ステップ♯8)。例えば、制御部1は、調整後の画像データに基づき、コピージョブ、プリントジョブ、送信ジョブ、又は、保存ジョブを行う。ジョブ完了により、制御部1は、フローチャートに関する処理を終了する(エンド)。
 このようにして、実施形態に係る画像処理装置(複合機100)は、記憶部2と画素値調整部(例えば、制御部1)を含む。記憶部2は画像データを記憶する。画素値調整部は、画像データに含まれる画素の画素値に基づき各画素にラベルを付すことにより画像データを複数に分割する。画素値調整部は、同じラベルが付された画素のまとまりであるコンポーネント6ごとにコンポーネント6が文字か否かを判定する。画素値調整部は、文字と判定したコンポーネント6の画素である文字画素の画素値を濃くなる方向に調整する。
 これにより、ラベルを付す処理(ラベリング処理)によって、画像データに含まれる文字(コンポーネント6)を認識することができる。そして、文字の色が濃くなる方向に、文字と判定したコンポーネント6の画素の画素値を調整(変更)することができる。その結果、文字の色を濃くすることができる。文字の輪郭(境界)が明確になる。文字が読みやすくなる(可読性の向上)。画素値によらず、どのような文字でも輪郭が明確になるので、文書が読みやすくなる。コントラストや明るさを調整する画像処理に比べて、文字が濃く、明確、かつ、読みやすい画像データを得ることができる。
 画素値調整部は、画像データをCMYK形式の画像データに変換する。画素値調整部は、CMYKの色成分のうち、少なくとも1つの色成分について、文字画素の画素値を濃くする。これにより、文字画素の色を濃くすることができる。画像データ内の文字を読みやすくすることができる。
 画素値調整部は、全ての色成分について、文字画素の画素値を変更してもよい。画素値調整部は、それぞれの色成分を同じ量変更する。これにより、それぞれの色成分を同量変更するので、文字の色味を維持したまま、文字の色を濃くすることができる。例えば、明るい青文字を、濃い(暗め)の青文字に変更することができる。
 画素値調整部は、文字ではないと判定したコンポーネント6の画素の画素値を予め定められた消去色の画素値に変更する。これにより、画像データのうち、文字ではないコンポーネント6の画素を自動的に消すことができる。文字でない部分を塗りつぶし、文字を目立たせることができる。
 画素値調整部は、文字ではないと判定した全てのコンポーネント6の画素値を消去色の画素値に変更する。これにより、画像データ内の文字以外が削除された(塗りつぶされた)画像データを得ることができる。文字を目立たせることができる。読みやすい画像データを得ることができる。
 消去色は白色でもよい。用紙の色は白色であることが多い。消去色を白色とすることにより、文字以外の部分を白色とすることができる。文字画素でない画素の色と、用紙の色とを近づけることができる。画素値調整後の画像データに基づいて印刷した場合、文字ではない部分の画素は印刷されない。
 画像処理装置は、画素値の調整を行わないコンポーネント6の選択を受け付ける操作パネル4を含む。画素値調整部は、選択されたコンポーネント6の画素の画素値を変更しない。これにより、特定の(選択した)コンポーネント6の色を調整しないようにすることができる。特定の文字について、色を維持することができる。
 画像処理装置は、文字画素の画素値調整のレベルの選択を受け付ける操作パネル4を含む。画素値調整部は、選択されたレベルに応じて、文字画素の画素値を変更する。これにより、ラベリング処理によって認識した文字の色の調整の程度を選ぶことができる。調整後の文字の色を所望の色にすることができる。
 画像処理装置は、原稿を読み取る画像読取部3を含む。記憶部2は、画像読取部3が原稿を読み取って得られた画像データを記憶する。これにより、原稿を読み取って得られた画像データの文字の色を調整することができる。原稿の画像データの文字を明確かつ読みやすくすることができる。
 以上、本発明の実施形態及び変形例について説明したが、本発明の範囲はこれに限定されるものではなく、発明の主旨を逸脱しない範囲で種々の変更を加えて実施することができる。
 本発明は、画像処理装置及び画像処理方法に利用可能である。

Claims (10)

  1.  画像データを記憶する記憶部と、
     前記画像データに含まれる画素の画素値に基づき各画素にラベルを付すことにより前記画像データを複数に分割し、同じ前記ラベルが付された画素のまとまりであるコンポーネントごとに前記コンポーネントが文字か否かを判定し、文字と判定した前記コンポーネントの画素である文字画素の画素値を濃くなる方向に調整する画素値調整部と、を含む画像処理装置。
  2.  前記画素値調整部は、
      前記画像データをCMYK形式の画像データに変換し、
      CMYKの色成分のうち、少なくとも1つの前記色成分について、前記文字画素の画素値を濃くする請求項1記載の画像処理装置。
  3.  前記画素値調整部は、
      全ての前記色成分について、前記文字画素の画素値を変更し、
      それぞれの前記色成分を同じ量変更する請求項2記載の画像処理装置。
  4.  前記画素値調整部は、文字ではないと判定した前記コンポーネントの画素の画素値を予め定められた消去色の画素値に変更する請求項1に記載の画像処理装置。
  5.  前記画素値調整部は、文字ではないと判定した全ての前記コンポーネントの画素値を前記消去色の画素値に変更する請求項4に記載の画像処理装置。
  6.  前記消去色は白色である請求項4に記載の画像処理装置。
  7.  画素値の調整を行わない前記コンポーネントの選択を受け付ける操作パネルを含み、
     前記画素値調整部は、選択された前記コンポーネントの画素の画素値を変更しない請求項1に記載の画像処理装置。
  8.  前記文字画素の画素値調整のレベルの選択を受け付ける操作パネルを含み、
     前記画素値調整部は、選択された前記レベルに応じて、前記文字画素の画素値を変更する請求項1に記載の画像処理装置。
  9.  原稿を読み取る画像読取部を含み、
     前記記憶部は、前記画像読取部が原稿を読み取って得られた前記画像データを記憶する請求項1に記載の画像処理装置。
  10.  画像データを記憶し、
     前記画像データに含まれる画素の画素値に基づき各画素にラベルを付すことにより前記画像データを複数に分割し、
     同じ前記ラベルが付された画素のまとまりであるコンポーネントごとに前記コンポーネントが文字か否かを判定し、
     文字と判定した前記コンポーネントの画素である文字画素の画素値を濃くなる方向に調整する画像処理方法。
PCT/JP2021/040231 2020-11-05 2021-11-01 画像処理装置及び画像処理方法 WO2022097600A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US18/250,115 US20240007579A1 (en) 2020-11-05 2021-11-01 Image processing device and image processing method
JP2022560760A JPWO2022097600A1 (ja) 2020-11-05 2021-11-01

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020184862 2020-11-05
JP2020-184862 2020-11-05

Publications (1)

Publication Number Publication Date
WO2022097600A1 true WO2022097600A1 (ja) 2022-05-12

Family

ID=81457867

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/040231 WO2022097600A1 (ja) 2020-11-05 2021-11-01 画像処理装置及び画像処理方法

Country Status (3)

Country Link
US (1) US20240007579A1 (ja)
JP (1) JPWO2022097600A1 (ja)
WO (1) WO2022097600A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007079587A (ja) * 2006-10-05 2007-03-29 Sharp Corp 画像処理装置
JP2010011450A (ja) * 2008-06-26 2010-01-14 Toshiba Corp 画像形成装置及び画像処理方法
JP2010288250A (ja) * 2009-05-12 2010-12-24 Ricoh Co Ltd 画像処理装置、画像処理方法、プログラムおよび記録媒体

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007079587A (ja) * 2006-10-05 2007-03-29 Sharp Corp 画像処理装置
JP2010011450A (ja) * 2008-06-26 2010-01-14 Toshiba Corp 画像形成装置及び画像処理方法
JP2010288250A (ja) * 2009-05-12 2010-12-24 Ricoh Co Ltd 画像処理装置、画像処理方法、プログラムおよび記録媒体

Also Published As

Publication number Publication date
JPWO2022097600A1 (ja) 2022-05-12
US20240007579A1 (en) 2024-01-04

Similar Documents

Publication Publication Date Title
US8027059B2 (en) Image processing device
US8941864B2 (en) Image processing apparatus, image reading apparatus, image forming apparatus, and image processing method
US7842871B2 (en) Sheet music creation method and image processing system
US20120251004A1 (en) Image processing apparatus and image processing method
US7652799B2 (en) Image forming apparatus and image forming method
US20100315687A1 (en) Image reading device, image reading device shading correction method, and image forming apparatus
US20200202155A1 (en) Method for image processing, and image-processing system
US7982907B2 (en) Image generating apparatus, image processing apparatus, program product and method for printing marked-up print data in color appropriate for printing
JP2007166287A (ja) 画像処理装置、および画像処理方法
US9338310B2 (en) Image processing apparatus and computer-readable medium for determining pixel value of a target area and converting the pixel value to a specified value of a target image data
WO2022097600A1 (ja) 画像処理装置及び画像処理方法
JP2001061061A (ja) 画像処理装置
JP2014090228A (ja) 画像読み取り装置及び画像形成装置
JP2006196976A (ja) Ocrによる自動清書機能を持つ複写システム
EP4007249A1 (en) Image reading device and image reading method
US20200021713A1 (en) Image processing apparatus and image forming apparatus
CN110519479B (zh) 信息处理系统、信息处理装置和图像形成装置
CN110971780B (zh) 图像处理装置以及图像处理装置的控制方法
JP7298363B2 (ja) 画像処理装置
JP4101188B2 (ja) 画像処理装置及び画像処理方法及びコンピュータプログラム
CN100578385C (zh) 图像形成设备及其控制方法
JP6688675B2 (ja) 画像処理装置および画像形成装置
JPWO2022097600A5 (ja)
JP6524941B2 (ja) 画像処理装置、画像処理方法
US9355326B2 (en) Image processing apparatus, ruled line determination method, and storage medium having ruled line determination program stored therein

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21889153

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022560760

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21889153

Country of ref document: EP

Kind code of ref document: A1