WO1997036417A1 - Technique et appareil de reconnaissance d'images et copieur et imprimante faisant appel a ceux-ci - Google Patents

Technique et appareil de reconnaissance d'images et copieur et imprimante faisant appel a ceux-ci Download PDF

Info

Publication number
WO1997036417A1
WO1997036417A1 PCT/JP1997/001006 JP9701006W WO9736417A1 WO 1997036417 A1 WO1997036417 A1 WO 1997036417A1 JP 9701006 W JP9701006 W JP 9701006W WO 9736417 A1 WO9736417 A1 WO 9736417A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
data
processing
recognition
unit
Prior art date
Application number
PCT/JP1997/001006
Other languages
English (en)
French (fr)
Inventor
Junji Hiraishi
Original Assignee
Omron Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corporation filed Critical Omron Corporation
Priority to EP97908506A priority Critical patent/EP0891070B1/en
Priority to DE69722605T priority patent/DE69722605T2/de
Priority to JP09534252A priority patent/JP3143926B2/ja
Priority to US09/142,754 priority patent/US6519364B1/en
Publication of WO1997036417A1 publication Critical patent/WO1997036417A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00838Preventing unauthorised reproduction
    • H04N1/0084Determining the necessity for prevention
    • H04N1/00843Determining the necessity for prevention based on recognising a copy prohibited original, e.g. a banknote
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00795Reading arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00838Preventing unauthorised reproduction
    • H04N1/0084Determining the necessity for prevention
    • H04N1/00843Determining the necessity for prevention based on recognising a copy prohibited original, e.g. a banknote
    • H04N1/00846Determining the necessity for prevention based on recognising a copy prohibited original, e.g. a banknote based on detection of a dedicated indication, e.g. marks or the like
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00838Preventing unauthorised reproduction
    • H04N1/0084Determining the necessity for prevention
    • H04N1/00843Determining the necessity for prevention based on recognising a copy prohibited original, e.g. a banknote
    • H04N1/00848Determining the necessity for prevention based on recognising a copy prohibited original, e.g. a banknote by detecting a particular original
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00838Preventing unauthorised reproduction
    • H04N1/00856Preventive measures
    • H04N1/00875Inhibiting reproduction, e.g. by disabling reading or reproduction apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/393Enlarging or reducing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/19Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays
    • H04N1/191Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays the array comprising a one-dimensional array, or a combination of one-dimensional arrays, or a substantially one-dimensional array, e.g. an array of staggered elements
    • H04N1/1911Simultaneously or substantially simultaneously scanning picture elements on more than one main scanning line, e.g. scanning in swaths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/19Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays
    • H04N1/191Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays the array comprising a one-dimensional array, or a combination of one-dimensional arrays, or a substantially one-dimensional array, e.g. an array of staggered elements
    • H04N1/192Simultaneously or substantially simultaneously scanning picture elements on one main scanning line
    • H04N1/193Simultaneously or substantially simultaneously scanning picture elements on one main scanning line using electrically scanned linear arrays, e.g. linear CCD arrays

Definitions

  • the present invention relates to an image recognition method and apparatus, and a copier and a printer using the same.
  • the present invention relates to an image recognition method and apparatus, and a copying machine and a printer using the same. Background art
  • a single-row image sensor 1 such as a CCD with a reading width equivalent to the width of the original is used to face the original 2.
  • the actual width d of the image sensor 1 is shorter than the original width D due to the reduction optical system including the lens 3, but there are also the same ones.
  • the entire surface is scanned by a raster scan method. That is, as shown in FIG. 2, first, the image sensor 1 is positioned at the head of the original 2, and the image sensor 1 reads the line a (main scanning direction) in the first column. Next, the image sensor 1 is moved by one line in the sub-scanning direction, and the next line b (main scanning direction) is read.
  • the entire surface of the document is read, and based on the read, predetermined image processing is performed to print out.
  • this type of full-page raster-scan copying machine can copy with very high accuracy, it can print out almost the same document as the original. Therefore, for example, when a copy-prohibited material such as a bill is copied using this digital color copier, it may be used in a forgery act.
  • an image recognition device for recognizing a special document is installed, recognition and recognition processing are performed based on the image data read by the image sensor 1, and printing is performed on a copy prohibited matter.
  • the presence / absence of the specified pattern is determined, and if the specified pattern is detected, a predetermined copy prohibition process such as output stop or painting is performed.
  • color copiers include, for example, ink jet copiers in addition to the digital color copiers described above.
  • the image reading method of this type of copying machine is as shown in FIGS. 3A and 3B. That is, the image sensor 5 having a small width is arranged to face the document 2. This image sensor 5 has a reading performance of 128 dots at 400 dpi.
  • an X motor for moving the image sensor 5 in the X direction and a Y motor for moving the image sensor 5 in the Y direction are provided. By controlling the rotation of each motor, the image sensor 5 can be moved to an arbitrary position on the secondary plane of the document 2. You can move to the position.
  • the X motor is rotated forward to move the image sensor 5 in the X direction, and from the position X0 to the position Xn. During this movement, the image data of the opposing portion (the first column reading area a) is read.
  • the image sensor 5 is moved obliquely as shown by the broken line in the figure, and the head (X 0). Then, the Y motor is stopped, and the X motor is rotated forward to move from the position X0 to the position Xn in the second-row reading area b. During this movement, the image data of the opposing portion (area b) is read.
  • the whole surface of the original is read while repeating the above processing.
  • the image is read in units of regions a, b, ... in a raster scan within the band-like region (solid arrows in the figure indicate the image reading).
  • the line connecting the adjacent arrows indicates that the image sensor is moving, and the data for each pixel is read in the order of the arrows.
  • each time one area is read an image corresponding to the area is formed by predetermined image processing, and an image for the formed one area is output.
  • read data for one area in the example shown, area a in the first column
  • the image processing is performed, and data for one area is given to the output unit, and the area a 'corresponding to the read area a is printed using the print head 7 (in the case of the same magnification).
  • the print head 7 provided in the output unit has 128 nozzles for one color component corresponding to the reading portion, and each pixel detected by the detection element of the corresponding sensor. The on / off of the color component of the corresponding nozzle is controlled based on the color.
  • the above-mentioned ink-jet type color copying machine has not been provided with an image recognition device for recognizing a special type of original document which is conventionally mounted on a laser type digital color copying machine.
  • the above problem becomes more prominent because the operation of the reading portion when performing the enlarged Z reduction process is different.
  • the image sensor moves in one direction. Therefore, the reading resolution in the width direction of the document (the arrangement direction of the image sensor 1 'the main scanning direction) is constant regardless of the enlargement / reduction ratio.
  • the reading resolution in the sub-scanning direction is changed by enlarging / reducing. Specifically, during the enlargement process, the moving speed of the image sensor in the sub scanning direction is reduced, and during the reducing process, the moving speed of the image sensor in the sub scanning direction is increased. To adjust. Since the movement is simple in this way, it is possible to obtain image data having the same resolution regardless of the magnification ratio simply by thinning out or complementing the read image data in the sub-scanning direction as appropriate according to the moving speed. it can.
  • the output simultaneously controls the 128 nozzles provided in the print head 7, so that when reading a certain rectangular area, the image data detected by the image sensor is read.
  • the first band use the first N data, do not use the data after the N + 1st, and read the next band-like area.
  • the Y motor is rotated so that the moving amount of the image sensor 1 is also moved by a distance corresponding to ⁇ of the image sensors (specific processing will be described later).
  • the moving speed of the image sensor is changed in accordance with the magnification, as in the case of the laser type. Therefore, the read image data is two-dimensionally changed in accordance with the scaling factor. Therefore, simply decimating or complementing the read image data in the given order is the same regardless of the scaling factor. Image data cannot be obtained.
  • the present invention has been made in view of the above-described background, and an object of the present invention is to solve the above-described problem and to address a small band-like area smaller than all originals, such as an inkjet method. Even copying machines and printers that read (receive from outside) and generate and output print data based on given image data can reliably copy image data containing specific images (specific patterns).
  • An object of the present invention is to provide a method and apparatus for recognizing an image, and a copying machine and a printer using the same.
  • Another object of the present invention is to provide an image storage method and apparatus capable of performing a scaling process in addition to the above objects. Disclosure of the invention
  • an image recognition device including an image processing unit that generates print data from input image data and outputs the print data to an output unit includes a recognition device that recognizes a specific image.
  • Image data input to the image processing unit is sequentially input as image data obtained by scanning the entire image and dividing the entire image into a number of small band-like regions.
  • the output unit sequentially outputs the image data as linear data of a predetermined line based on the output of the image processing unit.
  • the recognition device detects a specific image from a plurality of scans of the image data, and of The result is provided to the output unit in comparison with the stored data.
  • the whole image is divided into small areas and input to the image processing unit, and it is detected whether the image data input by the recognition device is a specific image. As a result, a specific document can be detected without having an image memory for one page for reading the entire image.
  • an image reading unit that reads an image in a band-shaped small area unit (area extending in each sub-scanning direction) with respect to the entire image reading area.
  • Unit 10 an image reading unit (reading unit) that reads an image in a band-shaped small area unit (area extending in each sub-scanning direction) with respect to the entire image reading area.
  • image processing means image processing unit 20 for generating and outputting print data based on image data output from the image reading unit.
  • the image processing system has a scaling function. The scaling process operates so as to satisfy the following requirements (1) to (3).
  • the width of the print data obtained by the reduction processing becomes equal (in the embodiment, 64 dots are fixed).
  • the image recognition apparatus for recognizing a specific image (corresponding to “specific mark M, specific pattern” in the embodiment) present in the read image data in the image processing system described above, And a recognition unit that performs a predetermined recognition process based on the image data after scaling corresponding to the image data generated in the unit, and that recognizes the specific image, and an output unit that outputs a recognition result by the recognition unit.
  • the recognition and recognition means and the output means are shared as recognition and recognition devices 50, 50 'and 50 ".
  • the image processing system to which the present invention is applied is described above.
  • Image processing means for receiving image data from an external device, generating and outputting print data based on the received image data, and further performing a scaling process in the image processing system as described below.
  • the present invention may be configured to satisfy the requirements of (1) to (3).
  • the print data is two data indicating whether or not to output ink corresponding to each color component
  • the recognition means is after scaling corresponding to the magnification generated in the image processing means
  • the recognition processing is performed based on the multi-valued image data before the generation of the binary data.
  • the image data used for the recognition may be a signal specifying a color component that is not optical color information such as YMC data or YMCK data.
  • print data is generated based on image data obtained by reading an image in units of a plurality of parallel strip-shaped small areas from the entire image reading area. If the print data is generated by performing a scaling process, it is executed so as to satisfy the following requirements (1) to (3).
  • a predetermined recognition process is performed on the basis of the image data after scaling, so that a specific image included in the image data is recognized.
  • image data is received from an external device in units of a plurality of parallel band-shaped small regions for an image region to be subjected to print processing. Next, it is based on generating and outputting print data based on the received image data.
  • the print data is generated by performing the scaling process, the print data is executed so as to satisfy the following requirements (1) to (3).
  • a predetermined recognition process is performed on the basis of the image data after scaling, so that a specific image included in the image data is recognized.
  • the printing data is binary data indicating whether or not to output an ink corresponding to each color component, and after the scaling corresponding to the magnification generated in the image processing means, and That is, a predetermined recognition process is performed based on the multi-valued image data before the generation of the value data, so that the specific image is recognized.
  • the recognition processing may be performed based on image data such as YMC data and YMCK data that specify a color component that is not optical color information (RGB data). Les ,.
  • the image is read in band-shaped small area units, scaling processing is performed on the read image data, print data is generated, and the generated print data is generated.
  • the copier has a function of performing print processing in units of band-shaped small areas based on the image recognition equipment, and has an image recognition device that recognizes a specific image using the data after scaling processing. When a specific image is recognized by, output prohibition processing is performed.
  • the image data given in band-shaped small area units is subjected to scaling processing and print data is generated, and the band-shaped small data is generated based on the generated print data.
  • an image recognition device that recognizes a specific image using data after scaling processing is provided, and if the specific image is recognized by the image recognition device, The output prohibition processing is performed.
  • the recognition process is performed without performing the scaling process or based on the data after scaling. That is, unlike the laser-type copiers and printers of the ink-jet type, copiers and printers generate print data for each image data obtained from the small area specified by the main run and the sub run, and perform the printing process. No. In the case of the scaling process, the reading width is substantially different depending on the scaling ratio. (In the embodiment, the image data read by the reading unit is 128 dots, which is the same as that at the same magnification, but by not using the image data of dots exceeding N dots from the head, the actual Typical reading width is reduced). In this way, on the scanned image data side, the data changes due to the difference in the scaling ratio, but the width of the data after scaling is specified in two types: reduction processing and enlargement processing .
  • the response becomes easy. Then, by acquiring information on which of the scaling support is enlargement or reduction, the recognition algorithm prepared in advance is switched, and a predetermined process is performed. In addition, since predetermined recognition processing is performed on image data that has been subjected to scaling, equivalent devices can be used for printers without a reading unit.
  • the scanning direction A of the sensor 5 itself is defined as the main scanning
  • the direction B in which the sensor moves to read a certain band-shaped area is defined as the sub-scanning direction.
  • the image data in the band-shaped area can be read while being raster-scanned.
  • the movement of the sensor synchronized with the print head that is, the movement C of the print head for reading the next band-like area is defined as page scanning.
  • Magnification processing includes enlargement processing and reduction processing.
  • variable magnification processing includes not only the magnification processing but also the magnification of 100%, that is, the magnification without the magnification processing.
  • the output prohibition processing includes not only stopping the output, but also printing a solid document in black or the like, or outputting a document different from the original such as printing a special design overlaid.
  • FIG. 1 is a diagram showing an example of a configuration of a reading section of a conventional digital color copying machine.
  • FIG. 2 is a diagram illustrating a scanning method in a digital color copying machine.
  • FIGS. 3A and 3B are diagrams illustrating a scanning method in an inkjet type copying machine to which the present invention is applied.
  • FIG. 4 is a view for explaining a scanning method in an ink-jet type copying machine to which the present invention is applied.
  • FIG. 5 is a diagram showing a schematic configuration of an ink-jet type copying machine.
  • FIG. 6 is a diagram for explaining the definition of the scanning direction at the time of scanning in the inkjet type copying machine to which the present invention is applied.
  • FIG. 7 is a block diagram for explaining the first embodiment of the present invention.
  • FIGS. 8 and 9 are diagrams for explaining the scanning in the reduction process.
  • FIG. 10 is a diagram for explaining the enlargement / reduction processing.
  • FIG. 11 is a diagram illustrating an internal configuration of the output unit.
  • FIG. 12 is a diagram showing the internal configuration of the recognition equipment.
  • FIG. 13 and FIG. 14 are diagrams illustrating the function of the binary-to-multivalue conversion unit.
  • FIG. 15 is a block diagram showing the internal structure of the recognition unit.
  • FIGS. 16 and 17 are diagrams for explaining the function of the buffer control unit.
  • FIGS. 18A and 18B are diagrams illustrating the operation of the mark detection unit.
  • FIG. 19, FIG. 20 and FIG. 21 are diagrams for explaining the functions of the mark detection unit and the buffer control unit.
  • FIG. 22 is a diagram showing another example of the recognition equipment.
  • FIG. 23 is a block diagram illustrating a second embodiment of the present invention.
  • FIG. 24 is a diagram illustrating an example of a recognition device according to the second embodiment.
  • FIGS. 25A and 25B are diagrams illustrating the function of the thinning unit.
  • FIG. 26 and FIG. 27 are diagrams illustrating another example of the recognition device in the second embodiment.
  • FIG. 28 is a diagram illustrating an example of a recognition device according to the third embodiment.
  • a reading unit 10 that reads a document in units of a small area, and an image that acquires RGB data output from the reading unit 10 and performs predetermined image processing to form an output image Processing unit 20 and the actual paper based on the output of the image processing unit 20.
  • An output unit 30 for printing As shown in the figure, a reading unit 10 that reads a document in units of a small area, and an image that acquires RGB data output from the reading unit 10 and performs predetermined image processing to form an output image Processing unit 20 and the actual paper based on the output of the image processing unit 20.
  • An output unit 30 for printing for printing.
  • an external device interface (i / f) 40 is provided on the input side of the image processing unit 20 in parallel with the reading unit 10.
  • an RGB signal is supplied to the image processing unit 20 from an external computer or the like via the interface 40.
  • the external device interface 40 is not provided.
  • the configuration shown in FIG. 7 can be used without the reading unit 10.
  • the reading unit 10 includes a sensor unit 11 and a shading correction unit 12.
  • the sensor unit 11 includes an image sensor such as a CCD (400 dpi 128 dots) for reading a band-like area and the image sensor in the X direction (sub-scanning direction). ) And a drive mechanism for moving in the Y direction (page scanning direction).
  • the shading correction unit 12 performs shading correction on the image data read by the sensor unit 11, and depends on the variation in the sensitivity of each cell constituting the sensor and the accuracy of the optical system. It corrects unevenness, generates uniform luminance signals for the three RGB colors, and outputs the luminance signals to the image processing unit 20 in the next stage.
  • the image processing unit 20 performs logarithmic conversion of the RGB data given via the reading unit 10 or the external device interface 40 by the YMCK conversion unit 21 and prints Y (yellow), M ( Magenta) and C (cyan) data are generated, and black components are removed from the Y, ,, and C color components, and Bk (black) data is generated.
  • the data of the four color components obtained by adding Bk (hereinafter simply referred to as “K”) to the YM C is sent to the zoom processing unit 22, where the magnification specified by the copier main body is given. Perform predetermined zoom (magnification) processing so that.
  • the given data is output as it is.
  • the data for 128 dots (main scanning direction) read by the sensor at one time is used as it is for the data for one print head (128 dots).
  • the data of a predetermined number of dots from the beginning of the 128 dots read by the sensor is used, and the number of 64 dots (one print data of 128 dots) is used. Create print head data for half) minutes. For example, in the case of 50%, as shown in Fig. 8, 128 dots are read in the first sub-scan, and 64 heads of print head data are created.
  • the data of 64 dots from 128 dots can be created by, for example, performing a simple interrogation once every two times, or calculating the average of the data of two dots to convert the data of one dot. Various methods can be adopted other than creation.
  • the zoom processing unit 22 generates print head data for the first 64 dots from the 128 dots.
  • the sensor unit 11 of the reading unit 10 moves by 128 dots in the page scanning direction in the sensor unit 11, and the sensor unit for the second sub-scanning 1 Based on the 128-dot data read in step 1, data for the second half of the print head, 64-dots, is generated again and combined with the first data to produce 128-dot dots.
  • the print head data is created and output for each print job (details will be described later).
  • the print head outputs 128 dots simultaneously as described above, when the size is reduced to 75 ° / 0 , for example, as shown in FIG.
  • the zoom processing unit 22 extracts up to N pieces of data from the top and creates data for 64 dots.
  • N + 1 8 (85 in the case of 75%) first and subsequent dots are used. Data is not used. Therefore, image data corresponding to such a portion is generated from data obtained in the next sub-scan. Therefore, the movement distance of the sensor in the page scanning direction in the sensor unit 11 is equal to the number of N dots used in one sub-scan, and the second sub-scan is equivalent to 128 dots from the (N + 1) th sub-scan. The data will be read (the first N dots are actually used). As described above, the moving distance of the page scanning varies depending on the reduction ratio.
  • the first N data are used, and they are appropriately interpolated to create data for 128 dots for the print head. That is, for example, when enlarging to 200%, by using data for the first 64 dots and making it 128 dots, the enlargement ratio becomes 200%. This processing is performed by the zoom processing section 22. In addition, since up to N data items are used in the enlargement process, the page scan movement distance is N dots.
  • FIG. 10 shows an example of the relationship between the numbers of dots in the data for data.
  • the illustrated example is merely an example, and the reduction / enlargement processing is not limited to the above.
  • the output of the zoom processing unit 22 is sent to the head shading / gamma correction unit 23, and in order to eliminate unevenness (shading) at the time of printing based on variations in the shape of the nozzles in the print head,
  • the pixel signal is corrected for each nozzle (head shading correction).
  • gamma correction is performed to emphasize the edge and adjust the overall brightness of the print result by adjusting the increase or decrease of the density signal.
  • the data subjected to each of the above-mentioned corrections is provided to the suspected interrogation processing / black character processing section 24 in the next stage, and it is determined whether or not to output ink from the corresponding nozzle. That is, the nozzles of the print head are provided with one set of four nozzles corresponding to each color component, for a total of 128 sets. For each pixel of 128 dots, a binary value indicating whether or not to output the corresponding ink from a predetermined nozzle (there may be a plurality of nozzles) out of the four nozzles. Therefore, pseudo gradation expression is performed by an error diffusion method or an average density method, and each image is binarized while referring to the density of surrounding pixels (pseudo gradation processing).
  • B k black signal
  • a signal is generated such that the ink is emitted only from the nozzle corresponding to the black signal and the ink is not emitted from the nozzles of other color signals.
  • the output unit 30 has a buffer memory 31 and a synthesizing unit 32 on the input side, and the data output from the image processing unit 20 is given to one of them. It is. That is, as described above, data is given from the image processing unit 20 in a unit of one of 128 dots (in the case of equal magnification and enlargement processing) or 64 dots (in the case of reduction processing).
  • the unit for the final printing process is 128 dots.
  • the print data storage unit 33 sends a control signal to the head control unit 34 at a predetermined timing, and the head control unit 34 generates a predetermined number of nozzles and ink tanks based on the control signal.
  • a predetermined color of ink is ejected to a predetermined pixel of 128 dots to perform a printing process.
  • the above-described image processing unit 20 and output unit 30 are conventionally known, and a detailed description of each unit will be omitted. In addition, if necessary, for example, it is described in detail in “Nikkei Electronics J, May 19, 1992, pages 195 to 216” (for zooming). Excluding parts).
  • a recognition device 50 for detecting a specific pattern is provided. Then, the output of the image processing unit 20 is provided to the recognition device 50, where predetermined recognition processing is performed on the image data for printing after the zoom processing, and the recognition result (the detection signal of the specific pattern) is obtained. ) Is given to the output unit 30. A predetermined output prohibition process is performed. That is, in the present invention, the recognition processing is performed using the image data formed for printing or the data equivalent thereto (after the zoom processing).
  • the image data given to the image processing can be handled equally regardless of the force given from the reading unit 10 or the data given from the external device interface 40. . Therefore, it can be applied as a recognition unit for a copying machine while using the same configuration, and can also be applied as a recognition unit for a printer.
  • FIG. 12 shows the internal configuration of the recognition processing device 50. That is, since the output data from the image processing unit 20 is binary data of YMCK, in this example, a binary-to-multivalue conversion unit 51 is provided on the input side, and there is a multi-level conversion unit having gradation. The data is converted to value data to increase the amount of information so that accurate recognition can be performed. Then, the multi-value data of YMCK is given to a recognition unit 52, and an actual recognition process is performed.
  • the binary-to-multivalue conversion unit 51 uses a 5 ⁇ 5 filter as shown in FIG. 13, for example, with respect to the central pixel A to be processed and the value of the peripheral binary data (1 Z0) is weighted and aggregated to generate multi-valued data.
  • the color image data is usually expressed in 256 gradations or more, so the amount of information is smaller than that of such data.
  • Multi-valued image can be converted to 0 dpi image
  • the processing speed and accuracy are taken into consideration. To decide.
  • a line memory 51a is provided, and necessary pixel data is temporarily stored in the line memory 51a. Multi-value processing is performed while reading necessary pixel data. Since data is provided for each vertical column, the data is stored for each vertical column related to the line memory 51a, and if stored for 5 columns in the sub-scanning direction, it is read out and subjected to multi-value processing. Will begin to do so.
  • the recognition unit 52 is configured as shown in FIG. That is, the image data is sequentially supplied to the buffer control unit 52a from the binary-to-multivalue conversion unit 51, and the buffer control unit 52a addresses the supplied image data and performs buffering on the buffer memory 52b.
  • the data is stored in a predetermined address in the.
  • the image processing apparatus 20 is in the main scanning direction. Data is given vertically one row in the figure. Then, if all the pixels are multi-valued by the binary-to-multi-value conversion processing section 51, if the image processing device 20 is input by 126 dots at a time, the binary-to-multi-value conversion is performed. The output from the unit 51 is still the same as the number of pixels (the data is converted to multi-valued and therefore different), so the first time is (0, 0), (0, 1), ...... (0 , 127), and the second time, (1, 0), (1, 1),... (1, 127).
  • the image data given in the vertical direction can be stored in the horizontal direction (see FIG. 17).
  • the coordinate value (X i)-of the X coordinate is used for the lower address of the memory
  • the coordinate value (yj) is used for the upper address of the memory.
  • the data stored in the buffer memory 52b is sequentially provided to the mark detecting unit 52c and the detailed matching unit 52d, and the mark detecting unit 52c detects a predetermined mark, and the predetermined mark is detected.
  • the detection signal is sent to the detailed matching section 52d, and a detailed matching process is performed to make an accurate determination.
  • a specific mark M such as a "combination of circles and stars" is printed on the specific document (image data) to be detected, as shown in Figs. 18A and 18B, and the specific mark M is detected. Shall be. If the size of the specific mark M is 8 mm, the width of the output data generated based on one sub-scan by single-size or enlargement processing is 128 dots at 400 dpi. mm. However, the specific mark does not always exist in the band-shaped area scanned in the sub-scanning direction, and usually extends over adjacent territories (see Fig. 18A). Therefore, the mark detection unit 52c starts the search when data of 16 mm width obtained by the two sub-scans is stored in the buffer memory 82b.
  • the image data generated based on the first sub-scan is only stored in the buffer memory, and the mark detection unit 52c does not operate at that time. Then, the image data generated based on the second sub-scan is stored in the buffer memory, so that searchable data is obtained. Therefore, after the data based on the second sub-scan is stored, the stored data is read out for the first and second times, and the first search is performed. After the image data generated based on the third sub-scan is stored in the memory, the data stored in the second and third Is read, and the second search is performed. Thereafter, by repeatedly performing the above-described processing, the presence or absence of the specific mark M is determined for each band-shaped region having a width of 16 mm. It should be noted that, for specific detection processing of the specific mark M, various conventionally known recognition algorithms, such as determination by pattern matching and feature amount extraction, can be applied, and a detailed description thereof will be omitted.
  • FIG. 19 shows the operation timing of writing Z reading to the buffer memory 52b and search processing in the mark detection unit 52c. That is, in stage 1, image data for 128 dots in the y direction (main scanning direction) is stored in the buffer memory 52b. In stage2, page scanning is performed, and image data for 128 dots in the y direction (main scanning direction) for the next band-like area is stored in the buffer memory 52b. At this time, it is stored in an area different from the area stored in stage1.
  • stage 3 page scanning is performed, and image data for 128 dots in the Y direction (main scanning direction) for the next band-like area is stored in the buffer memory 52b. At this time, the data is stored in an area different from the area stored in stage1,2. In addition, since the searchable data is completed by the processing of stage2, the specific mark M is searched using the already stored 256-dot data in parallel with the storage of data in stage3.
  • stage 4 page scanning is performed, and image data for 128 dots in the Y direction (main scanning direction) of the next band-like area is stored in the buffer memory 52b.
  • image data for 128 dots in the Y direction (main scanning direction) of the next band-like area is stored in the buffer memory 52b.
  • the specific mark M is searched using the data of 256 dots stored in stage2,3.
  • a detection signal is output to the detailed matching unit 52d. Since generally a memory is based on the multiple of 4, the s tage 4, stored in a different location without Bok override, over which one line Bok the portion stored in stage 1 in s tage 5 So that the ring buff You can also configure the key.
  • a specific processing flow corresponding to such processing is as shown in FIG. That is, in stage 1-4, image data for 64 dots in the Y direction (main scanning direction) is sequentially stored in separate portions of the buffer memory 52b. In stage 5, page scanning is performed, and image data for 64 dots in the Y direction (main scanning direction) for the next band-like area is stored in another part of the buffer memory 52b.
  • the searchable data since the searchable data has been prepared by the processing up to stage 4, the 256-dot data already stored (the data obtained by executing stages 1 to 4) is stored in parallel with the data storage in stage 5. Use) to search for the specific mark M.
  • stage 6 page scanning is performed, and image data for 64 dots in the Y direction (main scanning direction) for the next band area is stored in another part of the buffer memory 52b.
  • the mark detection unit 52c # continues to execute the search process based on the data obtained by executing stage 1 to 4 performed in stage 5, or suspends the search process.
  • the moving time of the sub-scanning becomes short, so that the search time based on one sub-scanning process also becomes short. Therefore, there is a possibility that the search processing for the area of 256 dots may not be completed. Therefore, the time for preliminary search is secured in stage 6 so that the search processing can be completed without fail.
  • stage 7 page scanning is performed, and image data for 64 dots in the Y direction (main scanning direction) for the next band is stored in the buffer memory 52b. I do. At this time, since the data stored in stages 1 and 2 has been used by the search processing in stages 5 and 6, the data stored in stage 1 is overwritten. In this stage 7, the specific mark M is searched using the 256-dot data stored in stages 3-6.
  • search processing can be completed in one satge, instead of waiting for acquisition of data for four times and starting search processing as described above, if data for three times is acquired, Of course, the search processing may be performed based on the past three data, and thereafter, each time data based on one sub-scan is obtained, the search processing may be performed.
  • the data for the print head is 64 dots. If the data is for 64 dots, the flow of FIG. If it is not 4 dots (1 28 dots), the flow of Figure 19 will be executed. Then, whether or not it is 64 dots is determined based on a flag provided from the image processing unit 20. That is, at the time of printing processing in the output unit 30, switching of whether or not to combine images is performed based on a flag signal from the image processing unit 20, so that such a flag is recognized. , And the recognition device 50 ⁇ .
  • the binary-to-multi-level conversion section 51 since the binary-to-multi-level conversion section 51 generates multi-level data without lowering the resolution, search processing is performed each time data of 256 dots is secured. However, if the resolution is reduced to 100 dpi, for example, twice (1 ⁇ , enlargement processing) or 4 times (reduction processing) corresponding to 16 mm width data If the image data based on the sub-scanning data is obtained, the processing is performed based on the image data. Therefore, the number of dots is not limited to the one described above, but decreases.
  • the detailed matching section 52d is used to reliably determine whether or not the image data is a copy prohibited print when the mark detection section 52c detects a specific mark.
  • a predetermined recognition process is performed based on the dictionary data 52 e stored in the OM etc.
  • the detailed matching unit cuts out that part and performs rotation matching with the dictionary data stored in the ROM to make high-precision determination. Perform It should be noted that since various conventionally known algorithms can be applied to specific recognition algorithms, detailed descriptions thereof are omitted.
  • the mark detecting unit 52c is used to detect a pattern having a predetermined positional relationship from the specific mark M detected by the mark detecting unit 52c. It is needless to say that the detection target in and the detection target in the detailed matching unit 52d may be different.
  • the specific mark M detected by the mark detection unit 52c, the specific mark detected by the detailed matching unit, or a pattern having a predetermined positional relationship is a specific pattern to be recognized (detected) in the present invention.
  • the scanning unit 10 When used as a copier, the scanning unit 10 performs raster scanning for one band by moving the sensor in the sub-scanning direction and acquiring main scanning data at each position. To obtain image data (RGB). Then, the RGB data obtained by performing the predetermined shading correction is sequentially provided to the image processing unit 20 in real time while performing the sub-scanning process.
  • image data RGB
  • the RGB data obtained by performing the predetermined shading correction is sequentially provided to the image processing unit 20 in real time while performing the sub-scanning process.
  • complicated processing such as changing the moving speed in the sub-scanning direction and changing the moving distance in the page scanning direction according to the scaling ratio (enlargement Z reduction ratio) is performed. Do.
  • the image processing unit 20 After converting the given image data into YMCK data, the image processing unit 20 generates image data of 128 dots according to the magnification in the case of equal magnification and enlargement processing by the zoom processing unit 22. I do. Also, in the case of the reduction processing, image data of 64 dots is generated according to the magnification. That is, while the reading unit 10 performs a wide variety of complicated processes in accordance with the magnification, the zoom processing unit 22 outputs two types of 128 dots and 64 dots.
  • predetermined correction processing predetermined correction processing, pseudo gradation processing, and the like are performed to generate YMCK binary data, which is provided to the output unit 30.
  • the unit of the given data is In accordance with the output of the processing unit 22, the unit is 128 dots or 64 dots.
  • the same YMCK binary data is given to the recognition device 50 in parallel with this.
  • the output unit 30 generates image data for the print head based on the given image data, and prints the band area in data units of 128 dots of the print head.
  • the recognition device 50 converts the YMCK (binary) into multi-valued data in the binary-to-multi-valued conversion unit 51, and then gives it to the recognition unit 52 to perform a predetermined recognition process. Then, when the specific mark (pattern) is detected, a detection signal is given to the output unit 30, and the output unit 30 stops printing based on the detection signal.
  • the determination is made using the print data after the zoom processing or data based on the print data, so that such data is classified into two types regardless of the magnification. Because of this, accurate judgment can be made with a simple algorithm.
  • RGB data is supplied to the image processing unit 20 in a predetermined order from an external device such as a computer via an external device interface 40.
  • This data is provided in a manner similar to the output from the reading unit 10 in that data of a predetermined number of dots is sequentially provided in the main scanning direction along the sub-scanning direction. Then, the data is sequentially transmitted from the position where the processing is skipped by a predetermined number of bits in the page scanning direction.
  • the processing after the image processing unit 20 is the same as the above-described processing in the copying machine, and a description thereof will be omitted.
  • the recognition unit 52 performs processing based on the YMCK multi-valued data.
  • the present invention is not limited to this, and the binary-multi-value conversion unit shown in FIG.
  • the binary data of YMCK may be directly supplied to the recognizing unit 52, and the recognition processing may be performed based on the binary data.
  • a CK-RGB conversion unit 53 may be provided to convert YMCK data (multi-valued) to RGB data (multi-valued) and perform recognition processing based on the RGB data.
  • the YMCK-RGB converter 53 converts the YMCK to RGB using, for example, a look-up table.
  • the processing in the recognition unit 52 The basic processing is the same as in the above-described embodiment, except that the data to be handled is changed from YMCK to RGB.
  • FIG. 23 shows a second embodiment of the present invention. As shown in the figure, in this embodiment, the connection position of the recognition device 50 'is different from that of the first embodiment. That is, the output (YMCK multi-direct data) of the zoom processing unit 22 is recognized and given to the recognition device 50 '.
  • the binary-multi-value conversion unit 51 is removed from the recognition device 50 shown in FIG. 12 in the first embodiment.
  • a recognition unit 52 alone or a recognition device 50 shown in FIG. 22 in which the binary-to-multivalue conversion unit 51 is removed and which is constituted by a YMCK-RGB conversion unit 53 and a recognition unit 52 may be used. .
  • an interrogation unit 54 may be provided in front of the recognition unit 52 to reduce the resolution. Then, the decimation unit 54 can reduce the resolution from 400 dpi to 100 dpi by performing an averaging process as shown in FIGS. 25A and 25B. In other words, the sum of the density values of the pixels (1) to (16) existing in the 4 ⁇ 4 local area is calculated, the average value is calculated by dividing the sum by the number of pixels, and the 16 pixels are interrogated. It is set to the strain value of the last pixel (see Fig. 25B).
  • the data given to the line memory 54a is held, and data for a predetermined column (4 columns in this example) is stored. Then, it is read out and thinned out (averaged).
  • the main scanning direction is the vertical direction in the figure
  • data is sequentially provided one column at a time. That is, the pixel data of (1), (5), (9), (1 3)... is given at the first time, and (2), (6), (10), (1)... at the second time. Pixel data is given. Then, the given pixel data is sequentially stored in the line memory 54a. I do. Then, in the following order, data is provided in the sub-scanning direction, and when data up to the fourth column in the sub-scanning direction is provided, the past three columns of data are also read from the line memory 54a and used. Averaging process.
  • the configuration and operation of the recognizing unit 52 are the same as those of the first embodiment except that the data to be processed is multi-valued data with reduced resolution after the decimation process. And a detailed description thereof will be omitted.
  • a predetermined recognition process is performed by the recognition device 50 ′, and when the object is recognized as a copy / output prohibited object, the detection signal is converted into a pseudo-intermediate tone processing / black character processing unit 24 or an output unit. Give to 30 to perform copy prohibition processing. That is, the same processing as in the above-described first embodiment can be performed on the output unit 30. In addition, the pseudo-halftone processing.
  • a feature value extraction unit 55 may be provided before the recognition / knowledge unit 52 to reduce the number of data to be processed.
  • processing such as edge extraction or color separation by a window comparator can be performed to perform binarization.
  • other various kinds of feature amount extraction may be performed.
  • the image data (25 (Multi-valued data such as 6 gradations) may be sent to the feature value extraction unit 55, and the image data obtained by extracting the feature value there may be provided to the recognition unit 52.
  • FIG. 28 shows a third embodiment of the present invention.
  • the internal configuration of the image processing unit 20 ′ is such that a YMCK conversion unit 21 is provided downstream of the zoom processing unit 22, and zoom (magnification) is performed.
  • the processing is performed on the basis of the RGB data, and the scaled-down RGB data converted to 64 or 128 dots is converted to YMCK data. Since the other configuration and the operation and effect are the same as those of the above-described embodiment, the same reference numerals are given and the details are given. Detailed description is omitted.
  • the output of the zoom processing unit 22 is provided to the recognition device 50 #. Therefore, the recognition device 50 "is provided with RGB data.
  • the recognition process in the recognition device 50 ⁇ is performed only by changing the data to be handled to RGB data. Since the same embodiments as those described above (especially those of the second embodiment) can be used, detailed description thereof will be omitted.
  • the recognition device shown in the second embodiment is used as it is. Can be applied.
  • the signal output from the image processing unit 20 ′ outputs the image processing unit 20 ′ in the first embodiment. Since it is equivalent to the signal output from the recognition device, the recognition device shown in the first embodiment can be applied as it is.
  • the image data provided to the image processing units 20 and 20 ′ is RGB data.
  • the present invention is not limited to this.
  • a YM C or YM CK signal may be used, and any type of signal can be used as long as color information can be specified.
  • the image recognition method and apparatus since the recognition processing is performed based on the image data after scaling, the image data can be obtained regardless of the scaling factor. Since the type is limited to two types, it can be easily handled.

Description

明細書
画像認識方法及び装置並びにそれを用いた複写機及びプリンタ 技術分野
本発明は、 画像認識方法及び装置並びにそれを用いた複写機及びプリンタに関 するものである。 背景技術
通常のデジタルカラ一複写機 (レーザータイプ) の読取り部では、 図 1に示す ように原稿幅と同等の読取り幅を持った C C D等の 1列のイメージセンサ 1を用 い、 原稿 2と対峙させる。 この例では、 レンズ 3を含む縮小光学系により原稿幅 Dよりも実際のイメージセンサ 1の幅 dは短いが、 同一のものもある。 そして、 イメージセンサ 1の長手方向を主走査方向とした場合に、 それと直交する副走査 方向にィメ一ジセンサ 1を往復移動できるようになっている。
そして、 係るイメージセンサ 1を用いて原稿を読取るには、 全面ラスタスキヤ ン方式にて行なわれる。 つまり、 図 2に示すように、 まずイメージセンサ 1を原 稿 2の先頭に位置させ、 イメージセンサ 1にて 1列目のライン a (主走査方向) を読取る。 次に、 イメージセンサ 1を副走査方向に 1ライン分移動し、 次のライ ン b (主走査方向) を読取る。 以下、 上記処理を順に繰返しながら、 原稿全面を 読取り、 それに基づいて所定の画像処理を行ないプリントアウトする。
そして、 この種の全面ラスタスキャン方式の複写機は、 非常に高精度に複写で きるため、 原稿とほとんど同一のものをプリントアウトすることができる。 した がって、 たとえば紙幣等の複写禁止物をこのデジタルカラ一複写機を用いて複写 するといつた偽造行為に利用されるおそれがある。
そこで、 通常係る偽造行為を防止するため、 特嵇原稿を認識する画像認識装置 を実装し、 イメージセンサ 1にて読取られた画像データに基づいて認、識処理を行 ない、 複写禁止物に印刷された特定パターンの有無を判断し、 特定パターンが検 出されたならば、 出力停止や、 塗り潰し等の所定の複写禁止処理を行なうように している。 一方、 カラ一複写機には、 上記したデジタルカラ一複写機以外にも、 たとえば インクジエツト方式の複写機がある。 このタイプの複写機の画像の読取り方式は、 図 3 A, 3 Bに示すようになつている。 すなわち、 原稿 2に対向して幅の小さい イメージセンサ 5を配置する。 このイメージセンサ 5は、 4 0 0 d p iで 1 2 8 ドットの読取り性能を持っている。 さらに、 イメージセンサ 5を X方向に移動す る Xモータと、 Y方向に移動する Yモータを設け、 各モータの回転を制御するこ とによりイメージセンサ 5を原稿 2の 2次平面上の任意の位置に移動することが できるようになつている。
そして、 画像データを読取るには、 まず Xモータを正回転させてイメージセン サ 5を X方向に移動し、 X 0の位置から X nの位置まで移動する。 この移動中に 対向する部分 (1列目の読取り領域 a ) の画像データを読取る。 次に、 Xモータ を逆回転させるとともに Yモータを正方向に所定角度回転させることにより、 図 中破線で示すようにイメージセンサ 5を斜めに移動させ、 2列目の読取り領域 b の先頭 (X 0 ) に位匱させる。 そして、 Yモータを停止し、 Xモータを正回転さ せることにより、 2列目の読取り領域 bにおける X 0の位置から X nの位置まで 移動させる。 この移動中に対向する部分 (領域 b ) の画像データを読取る。
以下、 上記処理を順に繰返しながら、 原稿全面を読取る。 そして、 各領域 a, b , …単位での画像の読取りは、 図 4に示すように、 帯状の領域内でラスタスキ ヤンを行なうようになっている (同図中実線の矢印が画像を読取っている部分で、 隣接する矢印を結ぶ線がイメージセンサの移動中を示すとともに、 矢印の順に各 画素のデータが読込まれる) 。
そして、 プリントアウトは、 1つの領域を読取る都度、 所定の画像処理により その領域に対応する画像を形成し、 その形成した 1つの領域についての画像を出 力するようになっている。 つまり、 図 5に示すように、 イメージセンサ 5を備え た読取り部から 1つの領域 (図示の例では、 1列目の領域 a ) についての読取り データが画像処理部 6に与えられ、 そこにおいて所定の画像処理を行ない、 出力 部に 1つの領域分のデータを与え、 その読取った領域 aに対応する領域 a ' に対 して印刷ヘッド 7を用いて印刷する (等倍の場合) 。 このように、 画像の読取り と画像形成をリンクさせ、 少しずつ印刷していくことにより、 全体として小メモ リで安価な複写機を構成することができるようになっている。
さらに、 出力部に設けられた印刷ヘッド 7は、 読取り部分に対応して 1つの色 成分に対して 1 2 8本のノズルを有しており、 対応するセンサの検出素子で検出 した各画素の色に基づいて対応するノズルの色成分のオン Zオフを制御するよう になっている。
そして、 上記インクジェット方式のカラー複写機には、 従来レ一ザ方式のデジ タルカラ一複写機に搭載されるような特種原稿を認識するための画像認識装置は 設置されていなかった。
しかしながら、 近年では、 上記したインクジェット方式のカラー複写機でも高 精度なカラ一印刷が可能となり、 複写物と原稿との同一性が高くなつてきたため、 それにともない、 特殊原稿を認識する画像認識装置の実装が望まれてきた。 しか し、 上記したようにスキャン方式が異なることから、 今まで全面ラスタスキャン 方式のデジタルカラ一複写機で使用してきた画像認識装匱をそのまま適用するこ とはできない。
しかも、 拡大 Z縮小処理を行なう際の読取り部分の動作が異なるため、 上記問 題はより顕著となる。 すなわち、 デジタルカラ一複写機の場合には、 図 1, 図 2 に示すように、 イメージセンサの移動方向は、 1方向である。 したがって、 原稿 の幅方向 (イメージセンサ 1の配匱方向 '主走査方向) の読取り解像度は、 拡 大 ·縮小率に関係なく一定である。 そして、 副走査方向の読取り解像度を拡大/ 縮小により変えている。 具体的には、 拡大処理の時には、 イメージセンサの副走 查方向の移動速度を遅くし、 縮小処理の時には、 イメージセンサの副走査方向の 移動速度を早くし、 その速度は、 拡大 Z縮小率により調整するようにしている。 この様に動きが単純であるので、 副走査方向に対する読取り画像データを移動速 度に応じて適宜間引いたり補完するだけでて、 変倍率に関係なく解像度などが同 —の画像データを得ることができる。
これに対し、 インクジェット方式の場合には、 出力は印刷ヘッド 7に設けられ た 1 2 8本のノズルを同時に制御することから、 ある带状の領域を読取る際に、 イメージセンサで検出した画像データのうち、 先頭から N番目までを使用し、 N + 1番目以降のデータを使用しないようにするとともに、 次の帯状の領域の読取 りのために Yモータを回転させてイメージセンサ 1の移動量も、 イメージセンサ 内の Ν個分に相当する距離だけ移動させるようになる (具体的な処理は後述す る) 。
したがって、 ィメ一ジセンサ 1からの出力信号のうち一部を無効にするととも に、 Υ方向の移動距離も一定ではないので、 従来のデジタルカラ一複写機の読取 り機構と異なるため、 従来の認識装置をそのまま適用できない。
さらに、 副走査方向については、 レーザ一タイプのものと同様にイメージセン ザの移動速度を変倍率に応じて変更する。 従って、 読取られた画像データは、 変 倍率に応じて 2次元的に変更されるので、 読取られた画像データを与えられた順 番に単純に間引いたり補完するだけでは、 変倍率にかかわらず同一の画像データ を得ることはできない。
本発明は、 上記した背景に鑑みてなされたもので、 その目的とするところは、 上記した問題を解决し、 インクジェット方式のように、 原稿全 ί本よりも小さい帯 状の小領域に対して読取る (外部から受け取る) とともに、 与えられた画像デ一 タに基づいて印刷用データを生成し出力するような複写機, プリンタ等であって も確実に特定画像 (特定パターン) を含む画像データを検出することのできる画 像認識方法及び装置並びにそれを用いた複写機及びプリンタを提供することにあ る。
この発明の他の目的は、 上記目的に加えて変倍処理のできる画像記憶方法およ び装置を提供することである。 発明の開示
上記した目的を達成するために、 本発明に係る入力された画像データから印刷 用データを生成し出力部に出力する画像処理部を備えた画像認識装置は特定画像 を認識する認識装置を含む。
画像処理部へ入力される画像データは、 全体画像の走査により全体画像を多数 の帯状の小領域に分割した画像データとして順次入力される。 出力部は、 画像処 理部の出力に基づいて、 画像データを所定行の带状データとして順次出力してい き、 認識装置は、 前記画像データの複数回走査分より特定画像を検出し、 内部の 記憶データと比較して、 結果を前記出力部に与える。
画像全体を小領域に分割して画像処理部へ入力し、 認識装置で入力された画像 データが特定画像かどうか検出される。 その結果、 画像全体を読込む 1頁分の画 像メモリを有することなく特定ドキュメン卜の検出が可能になる。
この発明の他の局面によれば、 画像認識装匱では、 全体の画像読取領域に対し、 帯状の小領域単位 (各副走査方向に伸びる領域) で画像の読取りを行なう画像読 取部 (読取部 1 0 ) と、 その画像読取部から出力される画像データに基づいて印 刷用データを生成し出力する画像処理手段 (画像処理部 2 0 ) とを備えた画像処 理システムに実装される。 そして、 その適用対象の画像処理システムをさらに詳 述すると、 変倍機能を有しており、 その変倍処理は、 下記の (1 ) 〜 (3 ) の要 件を具備するように動作する。
( 1 ) 変倍率に応じて前記帯状の小領域の実質的な読取幅を替える。
( 2 ) 変倍率の大きさに関係なく拡大処理されて得られた印刷用データの幅は 等しくなる (実施の形態では 1 2 8ドット一定) 。
( 3 ) 変倍率の大きさに関係なく縮小処理されて得られた印刷用データの幅は 等しくなる (実施の形態では 6 4 ドット一定) 。
そして、 上記した画像処理システムにおける前記読取られた画像データ中に存 在する特定画像 (実施の形態では、 「特定マーク M, 特定パターン」 に対応) を 認識する画像認識装置は、 前記画像処理手段内で生成された変倍対応後の画像デ ータに基づいて所定の認識処理を行ない、 前記特定画像を認識する認識手段と、 その認識手段による認識結果を出力する出力手段を含む。 なお、 実施の形態では、 認、識手段と出力手段が認、識装置 5 0, 5 0 ' , 5 0 " のように兼用されている。 また、 適用対象の画像処理システムとしては、 上記したものに限られず、 画像 データを外部装置より受け取るとともに、 その受け取った画像データに基づいて 印刷用データを生成し出力する画像処理手段を備え、 さらに前記画像処理システ ムにおける変倍処理は、 下記の (1 ) 〜 (3 ) の耍件を具備するようにしたもの でもよい。
( 1 ) 変倍率に応じて前記帯状の小領域の実質的な読取幅を替える。
( 2 ) 変倍率の大きさに関係なぐ拡大処理されて得られた印刷用データの幅は 等しくなる。
( 3 ) 変倍率の大きさに関係なく縮小処理されて得られた印刷用データの幅は 等しくなる。
なお、 上記画像処理システムにおいて変倍処理は必須ではなく、 上記要件を任 意に組合せてもよい。 そして、 上記要件を組合せたものが、 各実施の形態で示し たものである。
そして、 好ましくは前記印刷用データが、 各色成分に対応するインクを出力す るか否かの 2 データであり、 前記認識手段が前記画像処理手段内で生成された 変倍対応後であって、 かつ前記 2値データの生成前の多値の画像データに基づい て認識処理するようにすることである。 また、 前記認識に使用される画像データ は、 YMCデータや YM C Kデータ等の光学的色情報でない色成分を特定する信 号としてもよい。
—方、 本発明に係る画像認識方法では、 全体の画像読取領域に対し、 複数の平 行な帯状の小領域単位で画像の読取りを行なって得られた画像データに基づいて 印刷用データを生成し出力するのを基本とし、 変倍処理をして前記印刷用データ を生成する場合には、 下記の (1 ) 〜 (3 ) の要件を具備するように実行する。
( 1 ) 変倍率に応じて前記帯状の小領域の実質的な読取幅を替える。
( 2 ) 変倍率の大きさに関係なく拡大処理して得られた印刷用データの幅を等 しくする。
( 3 ) 変倍率の大きさに関係なく縮小処理して得られた印刷用データの幅を等 しくする。
そして、 変倍対応後の画像データに基づいて所定の認識処理を行ない、 前記画 像データ中に含まれる特定画像を認識するようにした。
また、 別の解決手段としては、 印刷処理対象の画像領域に対し、 複数の平行な 帯状の小領域単位で画像データを外部装置より受け取る。 次いでその受け取った 画像データに基づいて印刷用データを生成し出力するのを基本とする。 そして、 変倍処理をして前記印刷用データを生成する場合には、 下記の (1 ) 〜 (3 ) の 要件を具備するように実行する。
( 1 ) 変倍率に応じて前記帯状の小領域の実質的な読取幅を替える。 ( 2 ) 変倍率の大きさに関係なく拡大処理して得られた印刷用データの幅を等 しくする。
( 3 ) 変倍率の大きさに関係なく縮小処理して得られた印刷用データの幅を等 しくする。
そして、 変倍対応後の画像データに基づいて所定の認識処理を行ない、 前記画 像データ中に含まれる特定画像を認識するようにした。
さらに、 好ましくは前記印刷用データが、 各色成分に対応するィンクを出力す るか否かの 2値データであり、 前記画像処理手段内で生成された変倍対応後であ つて、 かつ前記 2値データの生成前の多値の画像データに基づいて所定の認識処 理を行ない、 前記特定画像を認識するようにすることである。 また、 YM Cデ一 タゃ YMC Kデータ等の、 光学的色情報 (R G Bデータ) でない色成分を特定す る信号からなる画像データに基づレ、て前記認識処理を行なうようにしてもよレ、。 また、 本発明に係る複写機では、 帯状の小領域単位で画像を読取るとともに、 読取つた画像データに対して変倍対応処理を行なうとともに印刷用データを生成 し、 その生成された印刷用データに基づいて帯状の小領域単位で印刷処理する機 能を有する複写機を前提とし、 変倍処理された後のデータを用いて特定画像を認 識する画像認識装匱を備え、 その画像認識装匱により特定画像を認識した場合に は、 出力禁止処理を行なうようにした。
また、 本発明に係るプリンタでは、 帯状の小領域単位で与えられた画像データ に対して変倍対応処理を行なうとともに印刷用データを生成し、 その生成された 印刷用データに基づいて帯状の小領域単位で印刷処理する機能を有するプリンタ を前提とし、 変倍処理された後のデータを用いて特定画像を認識する画像認識装 置を備え、 その画像認識装置により特定画像を認識した場合には、 出力禁止処理 を行なうようにした。
本発明を要約すると、 変倍処理をすることなく、 または変倍対応後のデータに 基づいて認識処理をするようにしている。 すなわち、 インクジェット方式の複写 機やプリンタ等では、 レーザ一タイプと違い、 主走奄と副走查により特定される 小領域から得られる画像データごとに印刷用のデータを生成し、 印刷処理を行な う。 そして、 変倍処理の場合には、 その変倍率に応じて実質的に読取り幅が異な る (実施の形態では、 読取部では読取った画像データは、 等倍の時と同じ 1 2 8 ドットであるが、 先頭から Nドット分を越えたドッ卜の画像データを使用しない ことにより、 実質的な読取り幅が縮小している) 。 このように、 読取った画像デ ータ側では、 変倍率の相違によりデータが変わるが、 変倍対応を経たデータの幅 は、 縮小処理の場合と、 拡大処理の場合の 2種類に特定される。
したがって、 対応が容易になる。 そして、 変倍対応が拡大 縮小のどちらであ るかの情報を取得することにより、 予め用意した認識アルゴリズムを切り替え、 所定の処理を行なう。 また、 変倍対応後の画像データに対して、 所定の認識処理 を行なうため、 読取部がないプリンタのようなものに対しても同等の装置で対応 できる。
なお、 ここで用語を定義する。
本明細書では、 図 6に示すように、 センサ 5自身の走査方向である Aを主走査 とし、 ある帯状の領域を読取るためにセンサが移動する方向 Bを副走査方向とす る。 このように、 センサで主走査方向の読取りを行ないながらセンサを副走査方 向に移動させることにより、 帯状の領域内の画像データをラスタスキャンしなが ら読取るようになる。 さらに、 印刷ヘッドと同期したセンサの移動、 すなわち、 次の帯状の領域を読取るための印刷へッドの移動 Cをページ走査とする。
変倍処理 (ズーム処理) は、 拡大処理と縮小処理を含む。 そして、 変倍対応と は、 係る変倍処理をするものはもちろんのこと、 変倍率が 1 0 0 %すなわち、 等 倍で変倍処理をしないものも含む。
出力禁止処理とは、 出力を停止することはもちろんのこと、 黒色等でベたに印 刷したり、 特殊なデザインを重ねて印刷する場合等の原稿と異なるものを出力す る場合も含む。 図面の簡単な説明
図 1は、 従来のデジタルカラー複写機の読取部の構成の一例を示す図である。 図 2は、 デジタルカラー複写機におけるスキャン方式を説明する図である。 図 3 A, 3 Bは、 本発明が対象とするインクジェット方式の複写機におけるス キャン方式を説明する図である。 図 4は、 本発明が対象とするインクジエツト方式の複写機におけるスキャン方 式を説明する図である。
図 5は、 インクジェット方式の複写機の概略構成を示す図である。
図 6は、 本発明が対象とするインクジエツト方式の複写機におけるスキャン時 の走査方向の定義を説明するための図である。
図 7は、 本発明の第 1の実施の形態を説明するプロック図である。
図 8, 図 9は、 縮小処理の走査を説明する図である。
図 1 0は、 拡大/縮小の処理を説明する図である。
図 1 1は、 出力部の内部構成を示す図である。
図 1 2は、 認識装匱の内部構成を示す図である。
図 1 3, 図 1 4は、 2値一多値変換部の機能を説明する図である。
図 1 5は、 認識部の内部構造を示すブロック図である。
図 1 6, 図 1 7は、 バッファコントロール部の機能を説明する図である。
図 1 8 A, 1 8 Bは、 マーク検出部の作用を説明する図である。
図 1 9, 図 2 0, 図 2 1は、 マーク検出部及びバッファコントロール部の機能 を説明する図である。
図 2 2は、 認識装匱の他の例を示す図である。
図 2 3は、 本発明の第 2の実施の形態を説明するブロック図である。
図 2 4は、 第 2の実施の形態における認識装置の一例を示す図である。
図 2 5 A, 2 5 Bは、 間引き部の機能を説明する図である。
図 2 6, 図 2 7は、 第 2の実施の形態における認識装置の他の例を示す図であ る。
図 2 8は、 第 3の実施の形態における認識装匱の一例を示す図である。 発明を実施するための最良の形態
まず、 図 7を用いて、 本発明が適用される複写機の全体構成の一例を説明する。 同図に示すように、 原稿を ^状の小領域単位で読取る読取部 1 0と、 その読取部 1 0から出力される R G Bデータを取得し、 所定の画像処理を行ない出力画像を 形成する画像処理部 2 0と、 その画像処理部 2 0の出力に基づいて実際に用紙に 印刷する出力部 3 0とを備えている。
さらに、 複写機にプリンタ機能を付加したものの場合には、 画像処理部 2 0の 入力側に、 読取部 1 0と並列的に外部装置インタフェース ( i / f ) 4 0を設け る。 そして、 そのインタフェース 4 0を介して外部のコンピュータ等から R G B 信号を画像処理部 2 0に与えるようにしたものもある。 なお、 複写機専用の装置 の場合には、 この外部装置インタフェース 4 0を設けないことになる。 逆にプリ ンタ専用の場合には、 図 7に示す構成から読取部 1 0を設けないことにより構成 できる。
さらに各部について詳述すると、 まず、 読取部 1 0は、 センサ部 1 1と、 シェ ーデイング補正部 1 2とを有している。 センサ部 1 1は、 従来の技術でも説明し たように、 帯状の領域を読取るための C C D等のイメージセンサ (4 0 0 d p i ノ1 2 8 ドット) 並びにそのイメージセンサを X方向 (副走査方向) 並びに Y方 向 (ページ走査方向) に移動させる駆動機構などを有している。 また、 シエーデ イング捕正部 1 2は、 センサ部 1 1で読取られた画像データに対してシェ一ディ ング補正を行ない、 センサを構成する各セルの感度のばらつきや光学系の精度に 依存したムラを補正し、 均一化した R G Bの 3色に対する輝度信号を生成し、 次 段の画像処理部 2 0に出力するようになっている。
画像処理部 2 0は、 読取部 1 0或いは外部装置インタフェース 4 0を介して与 えられた R G Bデータを YM C K変換部 2 1にて対数変換し、 印刷用の Y (イエ ロー) , M (マゼンダ) , C (シアン) のデータを生成し、 さらに Y, Μ, Cの 各色成分から黒成分を除去するとともに、 B k (黒) のデータを生成する。 この YM Cに B k (以下、 本明細書では単に 「K」 と称する) を加えた 4色の色成分 のデータをズーム処理部 2 2に送り、 そこにおいて複写機本体側から指示された 倍率になるように所定のズーム (変倍) 処理を行なう。
すなわち、 等倍の場合には、 与えられたデータをそのまま出力する。 つまり、 センサが一回で読取る 1 2 8ドット (主走査方向) 分のデータをそのまま 1回の 印刷へッド用データ (1 2 8ドット) に使用する。
また、 縮小の場合には、 センサが読取る 1 2 8 ドットのうち、 先頭から所定の ドット数のデータを使用し、 6 4 ドット数 (1回の印刷用データ 1 2 8ドッ卜の 半分) 分の印刷ヘッド用データを作成する。 一例を挙げると、 たとえば 5 0 %の 場合には図 8に示すように、 1回目の副走査で 1 2 8 ドット読取り、 印刷へッド 用のデータを 6 4 ドット分作る。
なお、 1 2 8ドットから 6 4 ドット分のデータを作成するのは、 たとえば 2回 に 1回を単純問引きしたり、 或いは、 2ドット分のデータの平均を求めて 1 ドッ トのデータを作成するなどの他、 種々の方法を採ることができる。 この 1 2 8 ド ットから前半の 6 4 ドット分の印刷へッド用データを生成するのが、 ズ一ム処理 部 2 2である。
なお、 実際の印刷は 1 2 8ドット分をまとめて行なうので、 読取部 1 0のセン サ部 1 1にてページ走査方向に 1 2 8ドット分移動し、 2回目の副走査によるセ ンサ部 1 1で読取られた 1 2 8 ドットのデータに基づいて再度印刷へッド用の後 半の 6 4 ドット分のデータを生成し、 それを 1回目のデータと合成して 1 2 8 ド ット分の印刷ヘッド用データを作成し、 出力するようになる (詳細は後述する) 。 また、 上記したように印刷へッドが 1 2 8 ドット分を同時に出力するようにな つていることから、 たとえば 7 5 °/0に縮小するような場合には、 図 9に示すよう に、 1回目の副走査により 1 2 8ドット読取ったデータのうち、 先頭から 8 5 ド ッ卜までを使用し、 印刷へッド用のデータを 6 4 ドット分作成する。 これにより 8 5ドットから 6 4ドットに縮小されるので読取った画像データに対し約 7 5 % の縮小率のデータが作成される。 そして、 この先頭から N個までのデータを抽出 し、 6 4ドット分のデータを作成するのが、 ズーム処理部 2 2である。
なお、 このように先頭から N個 (7 5 %の場合には 8 5個) のドットデータし か使用しないため、 先頭から N + 1個 (7 5 %の場合には 8 5個) 以降のデータ は、 使用されない。 そこで、 係る部分に対応する画像デ一タは、 次の副走査で取 得されたデータから生成される。 したがって、 センサ部 1 1でのセンサのページ 走査方向の移動距離は、 1回の副走査で使用した Nドット数分となり、 2回目の 副走査は、 N + 1番目から 1 2 8ドット分のデータを読取るようになる (実際に 使用するのは先頭から Nドットまで) 。 このように、 縮小率が変わることにより ページ走査の移動距離が異なる。
また、 図示は省略するが、 拡大の場合には、 1回の副^查で得られた 1 2 8 ド ットの画素データのうち、 先頭から N個までのデータを用い、 それを適宜な補問 処理を行ない、 印刷へッド用の 1 2 8 ドット分のデータを作成する。 すなわち、 たとえば 2 0 0 %に拡大する場合には、 先頭から 6 4 ドット分のデータを用いて それを 1 2 8 ドットにすることにより、 拡大率が 2 0 0 %になる。 そしてこの処 理がズーム処理部 2 2にて行なわれる。 また、 拡大処理の際も、 先頭から N個ま でのデータを使用するため、 ページ走査の移動距離もそれに合わせて Nドット分 となる。
そして、 上記した縮小 ·拡大処理における読取った 1 2 8ドッ卜のうちの先頭 から使用するドット数と、 ページ走査での移動距離並びに、 抽出されたドッ卜の データに基づいて生成される印刷へッド用のデータのドット数の関係の一例を示 すと、 図 1 0のようになる。 なお、 図示の例は、 あくまでも一例であり、 また、 縮小 ·拡大処理も上記のものに限らない。
そして、 ズーム処理部 2 2の出力が、 へッドシェ一デイング ·ガンマ補正部 2 3に送られ、 印刷へッドにあるノズルの形状のばらつきに基づく印刷時のムラ (シェーディング) をなくすために、 各ノズルごとに画素信号を補正 (ヘッドシ ェ一デイング補正) する。 さらに、 文字の切れ目などを鮮明に表現するために、 ェッジを強調したり、 濃度信号の増減を調整して印刷結果の全体的な明るさを調 整するガンマ補正を行なう。
そして、 上記各補正が行なわれたデータが、 次段の疑 中問調処理 ·黒文字処 理部 2 4に与えられ、 対応するノズルからインクを出力するか否かの決定を行な う。 すなわち、 印刷ヘッドのノズルは、 各色成分に応じて 4本を 1セットとした のを 1 2 8セット分備えてある。 そして、 1 2 8 ドッ トの各画素に対しては、 4 つのノズルのうち、 所定のノズル (複数の場合あり) から対応するインクを出力 するか否かの 2値である。 そこで、 誤差拡散法や平均濃度法により疑似階調表現 を行ない、 周囲の画素の濃度を参照しながら、 各画尜を 2値化処理する (疑似階 調処理) 。
さらに、 黒文字の部分は、 B k (黒信号) のみをオンにし、 黒信号に対応する ノズルからのみィンクを出射し、 他の色信号のノズルからはィンクを出射しない ような信号を生成する。 これにより、 カラー印刷でありながら、 黒文字部分が鮮 明に印刷されるようになる。
出力部 3 0は、 図 1 1に示すように、 入力側にバッファメモリ 3 1と、 合成部 3 2を有しており、 画像処理部 2 0から出力されたデータは、 いずれかに与えら れる。 すなわち、 上記したように画像処理部 2 0からは、 1 2 8 ドット分 (等倍 及び拡大処理の場合) 或いは 6 4 ドット分 (縮小処理の場合) のいずれかの単位 でデータが与えられる。 そして、 最終的に印刷処理する単位は 1 2 8ドット分で ある。
そこで、 縮小処理の場合には前半の 6 4 ドット分のデータが入力されてきた場 合には、 バッファメモリ 3 1に格納する。 そして、 後半の 6 4 ドット分のデータ が入力されてきた場合に、 その後半のデータを合成部 3 2に与えるとともに、 バ ッファメモリ 3 1に格納されたデータも合成部 3 2に与え、 そこにおいて 1 2 8 ドット分のデータを生成する。 そして、 そのようにして生成したデータを、 印刷 データ格納部 3 3に格納する。
また、 等倍並びに拡大処理の場合には、 画像処理部 2 0から 1 2 8ドット分の データが送られてくるので、 そのまま合成部 3 2をスルーして印刷データ格納部 3 3に格納される。 なお、 1 2 8 Z 6 4のいずれのデータかは、 画像処理部 2 0 から与えられる制御信号 (1ノ0のフラグ) に基づいて決定される。
印刷データ格納部 3 3では、 所定のタイミングでへッド制御部 3 4に対して制 御信号を送り、 ヘッド制御部 3 4は、 その制御信号に基づいて所定数のノズル及 びインクタンク等を備えた印刷へッド 3 5を動作させ、 1 2 8 ドットの所定の画 素に対して、 所定の色のインクを出射し、 印刷処理をするようになっている。 なお、 上記した画像処理部 2 0や出力部 3 0は、 従来公知のもので、 各部の詳 細な説明を省略する。 なおまた、 必要があれば、 たとえば 「日経エレク トロニク ス J の 1 9 9 2年 5月 2 5日号の第 1 9 5頁〜第 2 1 4頁などに詳しく説明され ている (変倍対応部分を除く) 。
ここで本発明では、 図 7に示すように、 特定パターンを検出するための認識装 置 5 0を設けている。 そして、 上記した画像処理部 2 0の出力を認識装置 5 0へ 与え、 そこにおいて、 ズーム処理後の印刷用の画像データに対して、 所定の認識 処理を行ない、 認識結果 (特定パターンの検出信号) を出力部 3 0に対して与え、 所定の出力禁止処理を行なうようになっている。 すなわち、 本発明では、 印刷す るために形成した画像データ或いはそれに準じたデータ (ズーム処理後) を使用 して認識処理をする。
これにより、 画像処理に与えられた画像データが、 読取部 1 0から与えられた ものである力 或いは外部装置用インタフェース 4 0から与えられたものである かにかかわらず、 同等に取り扱うことができる。 したがって、 同一の構成を用い ながら複写機用の認識部としても適用でき、 また、 プリンタ用の認識部としても 適用できる。
そして、 認識処理装置 5 0の内部構成を示すと、 図 1 2に示すようになつてい る。 すなわち、 画像処理部 2 0からの出力データは、 YMC Kの 2値データであ るので、 本例では入力側に 2値—多値変換部 5 1を設け、 そこにおいて階調を持 つた多値データに変換し、 情報量を増やし、 精度の良い認識を行なえるようにし ている。 そして、 その YMC Kの多値データを認識部 5 2に与え、 実際の認識処 理を行なうようになっている。
まず、 2値一多値変換部 5 1は、 たとえば図 1 3に示すような 5 X 5のフィル タを用い、 処理対象の中央の画素 Aに対して周辺の 2値化データの値 (1 Z 0 ) に加重をかけるとともに、 集約することにより多値データを生成する。 なお、 図 中の a〜 f は係数であり、 一例を示すと、 図示したように a = 1 1, b = 6 , c = 3 , d = 2, e = 1 , f = 0とすることができる。 すると、 たとえば 5 X 5の すべての画素が 1ならば、 6 3という多値データが得られる。 但し、 通常は、 力 ラー画像データは 2 5 6階調以上で表現されるので、 係るデータに比べると情報 量は少ない。
そして、 多値データを作成する基準となる処理対象の画素を図 1 4に示すよう に、 Α, Α' , Α" ……というように 4画素おきにすると、 4 0 0 d p i画像を 1 0 0 d p iの画像に多値化できる。 もちろん、 すべての画素に対して行なえば、 解像度は元のままの多値データを製造することができ、 どのようにするかは処理 速度, 精度等を考慮して決定する。
さらに、 上記したように周囲の画素のデータを使用することから、 ラインメモ リ 5 1 aを備え、 必要な画素データをラインメモリ 5 1 aに一時的に保持し、 必 要な画素データを読出しながら多値化処理を行なうようになる。 なお、 縦一列ご とにデータが与えられるので、 ラインメモリ 5 1 aにも係る縦一列ごとに格納し、 副走査方向に 5列分格納されたならば、 それを読出して、 多値化処理を行なうよ うになる。
—方、 認識部 52は、 図 1 5に示すようになつている。 すなわち、 2値一多値 変換部 51から画像データが、 順次バッファコントロール部 52 aに与えられ、 ノくッファコント口ール部 52 aでは、 与えられた画像データをァドレッシングし てバッファメモリ 52 b内の所定のァドレスにデータを格納する。
つまり、 印刷用の画像データを構成する画素が、 図 1 6に示すような並びにな つているとし、 その位置座標を (x i , y j ) とすると、 画像処理装置 20から は、 主走査方向である図中縦一列ずつデータが与えられる。 そして 2値一多値変 換処理部 51ですベての画素に対して多値化処理したとすると、 画像処理装置 2 0から 1 26ドットずつ入力される場合には、 2値一多値変換部 51からもその ままの画素数の状態 (データは多値に変換されているため異なる) で出力される ので、 1回目は、 (0, 0) , (0, 1) , …… (0, 1 27) のデータが与え られ、 2回目は、 (1, 0) , (1 , 1 ) , …… (1, 1 27) のデータが与え られる。 そして、 副走査方向の終わり ( i =ma x) までのデータが与えられた ならば、 ページ走査方向に 1 26 ドット進んだデータが与えられるので、 (0, 1 28) , (0, 1 29) , …… (0, 255) のデータが与えられる (以下順 次与えられる) 。
また、 縮小処理のように 64 ドット分ずつデータが与えられる場合には、 1回 目は、 (0, 0) , (0, 1) , …… (0, 63) のデータが与えられ、 2回目 は、 (1, 0) , (1, 1) , …… (1, 63) のデータが与えられる。 そして、 副走査方向の終わり ( i =ma x) までのデータが与えられたならば、 ページ走 査方向に 64 ドット進んだデータが与えられるので、 (0, 64) , (0, 6 5) , …… (0, 1 27) のデータが与えられる (以下順に与えられる) 。
そして、 座標値をバッファメモリ 52 bのァドレスに使用することにより、 縦 方向に与えられる画像データを、 横方向に格納することができる (図 1 7参照) 。 すなわち、 X座標の座標値 (X i )-をメモリの下位アドレスに使用し、 Y座標の 座標値 (y j ) をメモリの上位アドレスに使用する。 これにより、 帯状にラスタ スキャン (主走査 +副走査) されたデータが、 ページ走査されてくるデータであ つても、 縦一列で順に送られてくるデータが横一列に整列して格納され、 印刷す る画像データの各画素の位置にあったァドレスに格納されるようになる。
なお、 2値一多値変換部 5 1にて解像度を低下させた場合には、 認識部 5 2に 一度に与えられるデータ数が異なるものの、 縦方向の一列毎にデータが与えられ、 座標値に基づいてバッファメモリにァドレッシングするのは同じである。
そして、 バッファメモリ 5 2 bに格納されたデータをマーク検出部 5 2 c並び に詳細マッチング部 5 2 dに順次与え、 マーク検出部 5 2 cにて所定のマークの 検出を行ない、 所定のマークらしい画像が検出されたならば、 検出信号を詳細マ ツチング部 5 2 dに送り、 詳細なマッチング処理を行ない、 正確な判定を行なう ようになっている。
まず、 マーク検出部 5 2 aの処理機能について説明する。 検出したい特定原稿 (画像データ) 中に図 1 8 A, 1 8 Bに示すような 「円と星印の組合せ」 力 らな る特定マーク Mを印刷しておき、 係る特定マーク Mを検出するものとする。 そし て、 特定マーク Mの寸法が 8 mmとすると、 等倍或いは拡大処理により 1回の副 走査に基づいて生成される出力データの幅が 4 0 0 d p iで 1 2 8 ドットである ので、 8 mmとなり一致する。 但し、 必ずしも副走査した帯状の領域にその特定 マークが存在するとは限らず、 通常は、 隣接する領城にまたがって存在する (図 1 8 A参照) 。 そこで、 マーク検出部 5 2 cは、 2回の副走査で得られる 1 6 m m幅分のデータがバッファメモリ 8 2 bに格納された時点でサーチを開始するよ うにしている。
つまり、 1回目の副走査に基づいて生成された画像データは、 バッファメモリ に格納されるだけで、 その時点ではマーク検出部 5 2 cは動作しない。 そして、 2回目の副走査に基づいて生成された画像データがバッファメモリに格納される とにより、 サーチ可能なデータが揃う。 そこで、 2回目の副走査に基づくデータ が格納された後、 1回目と 2回目にそれぞれ格納されたデータを読出し、 1回目 のサーチを行なう。 そして、 3回目の副走査に基づいて生成された画像データが モリに格納された後に、 2回目と 3回目にそれぞれ格納されたデータ を読出し、 2回目のサーチを行なう。 以後、 上記処理を橾返し行なうことにより、 1 6 mm幅の帯状領域毎に特定マーク Mの有無の判断が行なわれる。 なお、 特定 マーク Mの具体的な検出処理は、 パターンマッチングや特徴量抽出による判定な ど、 従来公知の種々の認識アルゴリズムを適用できるので、 その詳細な説明を省 略する。
そして、 上記バッファメモリ 52 bに対する書き込み Z読出しとマーク検出部 52 cにおけるサーチ処理の動作タイミングは、 図 1 9に示すようになる。 すな わち、 まず s t a g e 1では、 y方向 (主走査方向) の 1 28 ドット分の画像デ —タをバッファメモリ 52 bに格納する。 s t a g e 2では、 ページ走査を行な い、 次の帯状領域についての y方向 (主走査方向) の 1 28ドット分の画像デー タをバッファメモリ 52 bに格納する。 このとき、 s t a g e 1で格納した領域 とは異なる領域に格納する。
次いで、 s t a g e 3では、 ページ走査を行ない、 次の帯状領域についての Y 方向 (主走査方向) の 1 28ドット分の画像データをバッファメモリ 52 bに格 納する。 このとき、 s t a g e 1, 2で格納した領域とは異なる領域に格納する。 また、 s t a g e 2の処理により、 サーチ可能なデータが揃ったため、 s t a g e 3でのデータの格納と並列的に、 すでに格納した 256 ドットのデータを使つ て特定マーク Mをサーチする。
同様に、 s t a g e 4では、 ページ走査を行ない、 次の帯状領域についての Y 方向 (主走査方向) の 1 28ドット分の画像データをバッファメモリ 52 bに格 納する。 このとき、 s t a g e 3におけるサーチ処理により、 s t a g e lで格 納したデータは使用済みとなっているので、 s t a g e 1で格納した部分にォー ノく一ライトする。 さらに、 s t a g e 4では、 s t a g e 2, 3で格納した 25 6 ドットのデータを使って特定マーク Mをサーチする。
以後、 上記処理を繰返しながらデータの格納並びにサーチ処理を行なう。 そし て、 特定マーク Mらしきものを検出した場合には、 詳細マッチング部 52 dに検 出信号を出力する。 なお、 一般的にメモリは 4の倍数を基準としているので、 s t a g e 4では、 オーバーライ卜することなく別の場所に格納し、 s t a g e 5 で s t a g e 1で格納した部分にオーバ一ライ卜するようにして、 リングバッフ ァを構成してもよレ、。
一方、 上記したように、 縮小処理の場合には、 1回の副走査で印刷用の画像デ —タの 64ドット分が生成される。 したがって、 4 mm幅のデータしか与えられ てこない。 したがって、 図 1 8 Bに示すように、 4回分の副走査により、 上記と 同様の 1 6 mm幅の帯状の領域のデータが揃うので、 4回分のデータが格納され たなら、 それを読出しサーチ処理を行なうようになる。 そして、 本例では、 サー チ処理するタイミング及びサーチ領域を図 1 8 Λに示す等倍, 拡大処理と同様に するために、 以後は 8 mm分のデータ (2回の副走査) が揃う都度、 過去 4回分 のデータを読出し、 それに基づいてサーチ処理を行なうようにしている。
そして、 係る処理に対応する具体的な処理フローは、 図 20に示すようになつ ている。 つまり、 s t a g e 1〜4では、 Y方向 (主走査方向) の 64 ドット分 の画像データをバッファメモリ 52 bの別々の部分に順次格納する。 そして、 s t a g e 5では、 ページ走査を行ない、 次の帯状領域についての Y方向 (主走査 方向) の 64 ドット分の画像データをバッファメモリ 52 bの別の部分に格納す る。 また、 s t a g e 4までの処理により、 サーチ可能なデータが揃ったため、 s t a g e 5でのデータの格納と並列的に、 すでに格納した 256ドットのデ一 タ (s t a g e 1〜4の実行により得られたデータ) を使って特定マーク Mをサ ーチする。
次に、 s t a g e 6では、 ページ走査を行ない、 次の帯状領域についての Y方 向 (主走査方向) の 64 ドット分の画像データをバッファメモリ 52 bの別の部 分に格納する。 このとき、 マーク検出部 52 c侧では、 s t a g e 5で行なった s t a g e 1〜4の実行により得られたデータに基づくサーチ処理を継続して実 行しているか、 或いはサーチ処理を休止している。 すなわち、 縮小処理の場合に は、 副走査の移動時間が短くなるので、 1回の副走査処理に基づくサーチ時間も 短くなる。 そこで、 256ドット分の領域に対するサーチ処理が完了しないおそ れもあるので、 s t a g e 6でサーチのための予備-の時問を確保し、 確実にサー チ処理を完了できるようにした。
さらに、 s t a g e 7では、 ページ走査を行ない、 次の帯状領域についての Y 方向 (主走査方向) の 64 ドット分の画像データをバッファメモリ 52 bに格納 する。 このとき、 s t a g e 5, 6におけるサーチ処理により、 s t a g e l , 2で格納したデータは使用済みとなっているので、 s t a g e 1で格納した部分 にオーバ一ライトする。 そして、 この s t a g e 7では、 s t a g e 3〜 6で格 納した 2 5 6 ドッ卜のデータを使って特定マーク Mをサーチする。
以後、 上記処理を橾返しながらデータの格納並びにサーチ処理を行なう。 そし て、 特定マーク Mらしきものを検出した場合には、 詳細マッチング部 5 2 dに検 出信号を出力する。
なお、 1回の s a t g eでサーチ処理が完了できるのならば、 上記したように 4回分のデータの取得を待ってサーチ処理を開始するのではなく、 3回分のデ一 タを取得したならば、 過去 3回分のデータに基づいてサーチ処理を行ない、 以後、 1回の副走査に基づくデータが取得されるごとにサーチ処理をするようにしても もちろん良い。
そして、 実際には、 図 2 1に示すように、 まず、 印刷ヘッド用のデータが 6 4 ドットか否かを判断し、 6 4 ドット用の場合には図 2 0のフローを実行し、 6 4 ドットでない (1 2 8 ドット) の場合には、 図 1 9のフローを実行するようにな る。 そして、 6 4ドットか否かは、 画像処理部 2 0から与えられるフラグに基づ いて判断する。 すなわち、 出力部 3 0における印刷処理の際に、 画像の合成を行 なうか否かの切替を画像処理部 2 0からのフラグ信号に基づいて実行するように しているので、 係るフラグを認、識装置 5 0侧にも与えるようにしている。
また、 上記した例では、 2値一多値変換部 5 1にて解像度を落とすことなく多 値データを生成するようにしていたため、 2 5 6 ドット分のデータが確保される 都度サーチ処理を行なうようにしたが、 たとえば 1 0 0 d p i等に解像度が低下 している場合には、 1 6 mm幅分のデータに相当する 2回 (等倍, 拡大処理) 或 いは 4回 (縮小処理) 分の副走査データに基づく画像データが得られたならば、 それに基づいて処理をするようになる。 したがって、 ドット数は上記したものに 限られず、 少なくなる。
—方、 詳細マッチング部 5 2 dは、 マーク検出部 5 2 cで特定マークを検出し た場合に、 その画像データが複写ノ印刷禁止物か否かを確実に判定するためのも ので、 R OM等に格納された辞書データ 5 2 eに基づいて所定の認識処理を行な すなわち、 マーク検出部 5 2 cにより、 おおよその特定マークの位置が分かつ ているので、 詳細マッチング部では、 その部分を切り出し、 R OMに格納された 辞書データと回転マッチングを行ない、 高精度の判定を行なう。 なお、 具体的な 認識アルゴリズムは、 従来公知の種々のものを適用できるので、 詳細な説明を省 略する。
また、 詳細マッチング 5 2 dにおける認識対象として、 マーク検出部 5 2 cで 検出した特定マーク Mを基準とし、 そこから所定の位置関係にあるパターンを検 出するように、 マーク検出部 5 2 cにおける検出対象物と、 詳細マッチング部 5 2 dにおける検出対象物が異なっていてももちろん良い。 そして、 マーク検出部 5 2 cで検出する上記特定マーク Mや、 詳細マッチング部で検出する特定マーク 或いは所定の位置関係にあるパターンが、 本発明でいう認識 (検出) 対象の特定 パターンとなる。
次に、 上記した装置を用いて本発明に係る認識方法の実施の形態の一例を説明 する。 複写機として使用する場合には、 読取部 1 0にて、 センサを副走査方向に 移動させながら、 各位置で主走査のデータを取得することにより、 1つの帯状領 域に対してラスタスキャンして画像データ (R G B ) を取得する。 そして、 所定 のシェーディング補正を行ない得られた R G Bデータを、 副走査処理しながらリ アルタイムで順次画像処理部 2 0に与える。 なお、 変倍処理する場合には、 その 変倍率 (拡大 Z縮小率) に応じて、 副走査方向の移動速度を替えるとともに、 ぺ ージ走査方向の移動距離を異ならせるといった、 複雑な処理を行なう。
画像処理部 2 0は、 与えられた画像データを YM C Kデータに変換後、 ズーム 処理部 2 2により等倍及び拡大処理の場合には、 その倍率に応じた 1 2 8ドット の画像データを生成する。 また、 縮小処理の場合には、 その倍率に応じた 6 4 ド ットの画像データを生成する。 すなわち、 読取部 1 0では、 倍率に応じて多岐に 渡る複雑な処理を行なったのに対し、 ズーム処现部 2 2の出力は、 1 2 8 ドット と 6 4ドットの 2種類になる。
そして、 所定の補正処理並びに疑 階調処理等を行ない、 YM C Kの 2値デ一 タを生成し、 出力部 3 0に与える。 このとき、 与えるデータの単位は、 ズーム処 理部 22の出力に対応して 1 28ドット単位か、 或いは 64 ドット単位となる。 また、 これと並列的に認識装置 50に対しても同様の YMCKの 2値データを与 える。
すると、 出力部 30では、 与えられた画像データに基づいて印刷ヘッド用の画 像データを生成し、 印刷用へッドの 1 28 ドット分のデータ単位で、 帯状領域に 対して印刷を施す。 また、 これと同時に認識装置 50では、 2値一多値変換部 5 1にて YMCK (2値) を多値データに変換後、 認識部 52に与え、 所定の認識 処理を行なう。 そして、 特定マーク (パターン) を検出したならば、 検出信号を 出力部 30に与え、 それに基づいて出力部 30では、 印刷を停止する。
上記したように、 本実施の形態では、 ズーム処理後の印刷用データ或いはそれ に準じたデ一タを使用して判断するようにしたため、 係るデータは、 倍率に関係 なく 2種類に分類することができるので、 簡単なアルゴリズムで、 正確な判定を 行なうことができる。
なお、 プリンタとして使用する場合には、 外部装 gインタフエ一ス 40を介し て、 コンピュータ等の外部装置から RGBデータを所定の順番に画像処理部 20 に与える。 このデータの与え方は、 読取部 10からの出力と同様に、 主走査方向 に所定ドット数のデータを副走査方向に沿って順次与えるようになる。 そして、 係る処理をページ走査方向に所定ビット数だけ飛んだ位匱から、 順次データを送 る。 なお、 画像処理部 20以降の処理は、 上記した複写機における処理と同様で あるので、 その説明を省略する。
なお、 上記した実施の形餱では、 YMCK多値データに基づいて認識部 52で 処理するようにしたが、 本発明はこれに限ることはなく、 図 1 2に示す 2値一多 値変換部 51をなくし、 YMCKの 2値データを直接認識部 52に与え、 その 2 値デ一タに基づレ、て認識処理をするようにしても良い。
また、 図 22に示すように、 2値—多値変換部 51と認識部 52の間に、 YM
CK一 RGB変換部 53を設け、 YMCKデータ (多値) を RGBデータ (多 値) に変換し、 RGBデータに基づいて認識処理を行なうようにしても良い。 そ して、 YMCK— RGB変換部 53では、 たとえばルックアップテ一ブルを用い て YMCKから RGBを変換するようにしている。 なお、 認識部 52内の処理は、 扱うデータが YMCKから RGBに変わっただけで、 基本的な処理は、 上記した 実施の形態と同様となる。
図 23は、 本発明の第 2の実施の形態を示している。 同図に示すように、 本実 施の形態では、 上記した第 1の実施の形態と比較し、 認識装匱 50' の接続位置 を異ならせている。 すなわち、 ズーム処理部 22の出力 (YMCK多 ί直データ) を認、識装置 50' に与えるようにしている。
この認識装匱 50' では、 画像データが多値情報であるので、 たとえば、 第 1 の実施の形態における図 1 2に示す認識装置 50のうち、 2値一多値変換部 5 1 を除去した認識部 52のみの構成としたり、 或いは図 22に示す認識装置 50の うち、 2値一多値変換部 51を除去し、 YMCK— RGB変換部 53と認識部 5 2とから構成したものでもよい。
また、 この多値データは、 通常 256階調以上でデータ量が大きいので、 バッ ファメモリの容量が大きくなるとともに、 メモリへの読書きのアクセスタイムに ハイスピードが要求されるので、 コスト髙を招く。
そこで、 たとえば図 24に示すように、 認識部 52の前に、 問引き部 54を設 置し、 解像度を低下させるようにしてもよレ、。 そして、 間引き部 54は、 たとえ ぱ図 25 A, 図 25 Bに示すような平均化処理を行なうことにより 400 d p i から 100 d p iの解像度に低下させるようにすることができる。 つまり、 4 X 4の局所領域に存在する画素 (1) 〜 (1 6) の濃度値の総和を求め、 それを画 素数で除算することにより平均値を求め、 その 1 6画素分を問引き後の 1つの画 素の漉度値とするようにしている (図 25 B参照) 。
そして、 その平均化するために所定数の画素データを保持する必要があるので、 —旦ラインメモリ 54 aに与えられたデータを保持し、 所定列 (本例では 4列) 分のデータが格納されたならば、 それを読出して間引き (平均化) 処理を行なう ようになる。
なお、 主走査方向が図中縦方向であるので、 縦一列ずつ順にデータが与えられ る。 すなわち、 1回目には (1) , (5) , (9) , (1 3) …の画素データが 与えられ、 2回目には (2) , (6) , (10) , (1 ) …の画素データが与 えられる。 そして、 その与えられた-画素データを順次ラインメモリ 54 aに格納 する。 そして以下順に副走査方向にデータが与えられ、 副走査方向の 4列目まで のデータが与えられた時に、 過去の 3列分のデータもラインメモリ 5 4 aより読 出して、 そのデータを用いて平均化処理を行なうようになる。
なおまた、 認識部 5 2の構成並びに作用は、 処理対象のデータが間引き処理後 の解像度が低下した多値データであることを除いて第 1の実施の形態と同様であ るので、 同一符号を付し、 その詳細な説明を省略する。
そして、 認識装匱 5 0 ' にて所定の認識処理を行ない、 複写/出力禁止物と認 識した場合には、 その検出信号を疑似中問調処理 ·黒文字処理部 2 4または、 出 力部 3 0に与え、 複写禁止処理を行なう。 すなわち、 出力部 3 0に対しては、 上 記した第 1の実施の形態と同様の処理が行なえる。 また、 疑似中間調処理 .黒文 字処理部 2 4では、 YM C Kの 2値データの出力を停止したり、 すべての画素を 「黒 = 1, 他の色 = 0」 にして全面を黒に塗りつぶすようにするなどの処理を行 なうことができる。
さらに、 上記したようにグレイデータ (2 5 6階調等の多値データ) のままで は、 認識部の回路規模が大きくなることから、 認識装匱 5 0 ' として図 2 6に示 すように、 認、識部 5 2の前段に特徴量抽出部 5 5を設け、 処理対象のデータ数を 削减するようにしてもよい。 この特徵量抽出の一例をあげると、 たとえばエッジ 抽出やウインドコンパレ一タによる色分離などの処理を行ない 2値化等すること ができる。 また、 それ以外の各種の特徴量抽出を行なってもよい。
さらに、 上記した 2つの構成 (図 2 4 , 図 2 6 ) のものを組合せ、 図 2 7に示 すように、 間引き部 5 4にて間引き処理をして解像度が低下した画像データ (2 5 6階調等の多値データ) を特徴量抽出部 5 5に送り、 そこにおいて特徵量抽出 して得られた画像データを認識部 5 2に与えるようにしてもよい。
図 2 8は、 本発明の第 3の実施の形態を示している。 本実施の形態では、 上記 した各実施の形態と相違して、 画像処理部 2 0 ' の内部構成が、 ズーム処理部 2 2の後段に YMC K変換部 2 1を設け、 ズーム (変倍) 処理は、 R G Bデータに 基づいて行ない、 変倍処理されて 6 4または 1 2 8 ドッ卜にされた R G Bデータ を YM C Kデータに変換するようにしている。 なお、 その他の構成並びにその作 用効果は上記した実施の形態めものと同様であるので、 同一符号を付しその詳細 な説明を省略する。
そして、 係る構成において、 ズーム処理部 2 2の出力を認識装置 5 0〃 に与え るようにしている。 したがって、 認識装置 5 0 " には、 R G Bデータが与えられ ることになる。 なお、 認識装置 5 0〃 内における認識処理は、 扱うデータが R G Bデータに変わるだけで、 具体的な処理は、 上記した各実施の形態 (特に第 2の 実施の形態のもの) と同様のものを用いることができるので、 その詳細な説明を 省略する。
また、 図示省略するが、 このような画像処理部 2 0 ' (ズーム処理後に YM C K変換するタイプ) において、 YM C K変換部 2 1の出力を認識装匱に与える構 成にした場合には、 YM C K変換部 2 1から出力される信号は、 第 2の実施の形 態におけるズーム処理部 2 2から出力される信号と等価であるので、 第 2の実施 の形態に示した認識装置をそのまま適用することができる。 同様に、 画像処理部 2 0 ' の出力を認識装置に与える構成にした場合には、 画像処理部 2 0 ' 力 ら出 力される信号は、 第 1の実施の形態における画像処理部 2 0から出力される信号 と等価であるので、 第 1の実施の形態に示した認識装置をそのまま適用すること ができる。
なお、 上記した実施の形態では、 いずれも画像処理部 2 0, 2 0 ' に与えられ る画像データは、 R G Bデータであるが、 本発明はこれに限ることはなく、 R G Bデータ以外の信号、 たとえば YM Cや YM C K信号でもよく、 色情報が特定で きるものであれば信号の種類は問わない。
産業上の利用可能性
以上のように、 本発明に係る画像認識方法及び装置並びにそれを用いた複写機 及びプリンタでは、 変倍対応後の画像データに基づいて認識処理をしたため、 変 倍率に関係なく画像データの採り得る種類が 2種類に限定されるので、 容易に対 応できる。
これによりインクジエツト方式のように、 原稿全体よりも小さい帯状の領域に 対して読取る (外部から受け取る) ともに、 与えられた画像データに基づいて印 刷用データを生成し出力するような複写機, プリンタ等であっても確実に特定画 像を含む画像データを検出すること-ができる。

Claims

請求の範囲
1 . 入力された画像データから印刷用データを生成し出力部に出力する画像処理 部を備えた画像認識装置において、
特定画像を認識する認識装置を設け、
前記画像処理部へ入力される画像データは、 全体画像の走査により全 ί本画像を 多数の帯状の小領域に分割した画像データとして順次入力されるものであり、 前記出力部は、 前記画像処理部の出力に基づいて、 画像データを所定行の帯状 データとして順次出力していき、
前記認識装匱は、 前記画像データの複数回走査分より特定画像を検出し、 内部 の記憶データと比較して、 結果を前記出力部に与えるように構成したことを特徴 とする画像認識装置。
2 . 前記認識装匱は、 前記特定画像の検出に際し、 相連続するサーチのサ一チ領 域の一部が互いに重なり合うようにして特定画像をサーチすることを特徴とする 請求項 1の画像認識装置。
3 . 入力された画像データを変倍処理して印刷用データを生成し出力部に出力す る画像処理部を備えた画像認識装匱において、
特定画像を認識する認識装置を設け、
前記画像処理部へ入力される画像データは、 全体画像の走査により全体画像を 多数の帯状の小領域に分割した画像データとして順次入力されるものであり、 前記画像処理部は、 分割状態の画像データを受入れながら変倍率に応じた変倍 処理を行ない、
前記出力部は、 前記画像処理部の出力に基づいて、 画像データを所定行の帯状 データとして順次出力していき、
前記認識装匱は、 前記画像処理部が変倍処理した前記画像データの複数回走査 分より特定画像を検出し、 内部の記憶データと比較して、 結果を前記出力部に与 えるように構成したことを特徴とする画像認識装置。
4 . 全体の画像読取領域に対し、 帯状の小領域単位で画像の読取りを行なう画像 読取部と、 その画像読取部から出力される画像データに Sづいて印刷用データを 生成し出力する画像処理手段とを備えた画像処理システムに実装され、 前記読取 られた画像データ中に存在する特定画像を認識する画像認識装置であって、 前記画像処理システムにおける変倍処理は、 下記の (1 ) 〜 (3 ) の要件を具 備するものであり、
( 1 ) 変倍率に応じて前記帯状の小領域の実質的な読取幅を替える
( 2 ) 変倍率の大きさに関係なく拡大処理されて得られた印刷用データの幅は 等しくなる
( 3 ) 変倍率の大きさに関係なく縮小処理されて得られた印刷用データの幅は 等しくなる
かつ、 前記画像処理手段内で生成された変倍対応後の画像データに基づいて所 定の認識処理を行ない、 前記特定画像を認識する認識手段と、 その認識手段によ る認識結果を出力する出力手段を備えたことを特徴とする画像認識装置。
5 . 画像データを外部装置より受け取るとともに、 その受け取った画像データに 基づいて印刷用データを生成し出力する画像処理手段を備えた画像処理システム に実装され、 前記受け取った画像データ中に存在する特定画像を認識する画像認 識装置であって、
前記画像処理システムにおける変倍処理は、 下記の (1 ) 〜 (3 ) の要件を具 備するものであり、
( 1 ) 変倍率に応じて前記帯状の小領域の実質的な読取幅を替える ( 2 ) 変倍率の大きさに関係なく拡大処理されて得られた印刷用データの幅は 等しくなる
( 3 ) 変倍率の大きさに関係なく縮小処理されて得られた印刷用データの幅は 等しくなる
かつ、 前記画像処理手段内で生成された変倍対応後の画像データに基づいて所 定の認識処理を行ない、 前記特定画像を認識する認識手段と、 その認識手段によ る認識結果を出力する出力手段を備えたことを特徴とする画像認識装置。
*
6 . 前記印刷用データが、 各色成分に対応するインクを出力するか否かの 2値デ ータであり、
前記認識手段が前記画像処理手段内で生成された変倍対応後であって、 かつ前 記 2値データの生成前の多値の画像データに基づいて認識処理するようにしてな ることを特徴とする請求項 4または 5に記載の画像認識装匱。
7 . 前記認識に使用される画像データは、 YM Cデータや YM C Kデ一タ等の光 学的色情報でない色成分を特定する信号であることを特徴とする請求項 4または 5に記載の画像認識装置。
8 . 全体の画像読取領域に対し、 複数の平行な帯状の小領域単位で画像の読取り を行なって得られた画像データに基づいて印刷用データを生成し出力するのを基 本とし、
変倍処理をして前記印刷用データを生成する場合には、 下記の (1 ) 〜 (3 ) の要件を満たすように実行し、
( 1 ) 変倍率に応じて前記帯状の小領域の実質的な読取幅を替える
( 2 ) 変倍率の大きさに関係なく拡大処理して得られた印刷用データの幅を等 しくする
( 3 ) 変倍率の大きさに関係なく縮小処理して得られた印刷用データの幅を等 しくする
かつ、 変倍対応後の画像データに基づいて所定の認識処理を行ない、 前記画像 データ中に含まれる特定画像を認識することを特徴とする画像認識方法。
9 . 印刷処理対象の画像領域に対し、 複数の平行な带状の小領域単位で画像デー タを外部装置より受けとり、
次いでその受け取った画像データに基づいて印刷用データを生成し出力するの を基本とし、
変倍処理をして前記印刷用データを生成する場合には、 下記の (1 ) 〜 (3 ) の要件を満たすように実行し、
( 1 ) 変倍率に応じて前記带状の小領域の実質的な読取幅を替える
( 2 ) 変倍率の大きさに関係なく拡大処理して得られた印刷用データの幅を等 しくする
( 3 ) 変倍率の大きさに関係なく縮小処理して得られた印刷用データの幅を等 しくする
かつ、 変倍対応後の画像データに基づいて所定の認識処理を行ない、 前記画像 データ中に含まれる特定画像を認識することを特徴とする画像認識方法。
1 0 . 前記印刷用データが、 各色成分に対応するインクを出力するか否かの 2値 データであり、
前記画像処理手段内で生成された変倍対応後であつて、 かつ前記 2値データの 生成前の多値の画像データに基づいて所定の認識処理を行ない、 前記特定画像を 認識するようにしたことを特徴とする請求項 8または 9に記載の画像認識方法。
1 1 . YM Cデータや YM C Kデータ等の、 光学的色情報でない色成分を特定す る信号からなる画像データに基づいて前記認識処理を行なうようにしたことを特 徴とする請求項 8または 9に記載の画像認識方法。
1 2 . 带状の小領域単位で画像を読取るとともに、 読取った画像データに対して 変倍対応処理を行なうとともに印刷用データを生成し、 その生成された印刷用デ —タに基づいて帯状の小領域単位で印刷処理する機能を有する複写機において、 請求項 4 , 6 , 7のいずれかに規定する画像認識装置を備え、 その画像認識装 置により特定画像を認識した場合には、 出力禁止処理を行なうようにしたことを 特徴とする複写機。
1 3 . 帯状の小領域単位で与えられた画像データに対して変倍対応処理を行なう とともに印刷用データを生成し、 その生成された印刷用データに基づいて帯状の 小領域単位で印刷処理する機能を有するプリンタにおいて、
請求項 5〜 7のいずれかに規定する画像認識装匱を備え、 その画像認識装置に より特定画像を認識した場合には、 出力禁止処理を行なうようにしたことを特徴 とするプリンタ。
PCT/JP1997/001006 1996-03-27 1997-03-26 Technique et appareil de reconnaissance d'images et copieur et imprimante faisant appel a ceux-ci WO1997036417A1 (fr)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP97908506A EP0891070B1 (en) 1996-03-27 1997-03-26 Method and device for recognizing an image, and copying machine and printer using them
DE69722605T DE69722605T2 (de) 1996-03-27 1997-03-26 Verfahren und vorrichtung zur bilderkennung sowie ihre anwendung in einem kopiergerät und einem drucker
JP09534252A JP3143926B2 (ja) 1996-03-27 1997-03-26 画像認識方法及び装置並びにそれを用いた複写機及びプリンタ
US09/142,754 US6519364B1 (en) 1996-03-27 1997-03-26 Method and apparatus for recognizing images, and copying machine and printer using the same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP9591096 1996-03-27
JP8/95910 1996-03-27

Publications (1)

Publication Number Publication Date
WO1997036417A1 true WO1997036417A1 (fr) 1997-10-02

Family

ID=14150454

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1997/001006 WO1997036417A1 (fr) 1996-03-27 1997-03-26 Technique et appareil de reconnaissance d'images et copieur et imprimante faisant appel a ceux-ci

Country Status (8)

Country Link
US (1) US6519364B1 (ja)
EP (1) EP0891070B1 (ja)
JP (1) JP3143926B2 (ja)
KR (1) KR100348505B1 (ja)
CN (1) CN1217122A (ja)
DE (1) DE69722605T2 (ja)
TW (1) TW356544B (ja)
WO (1) WO1997036417A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7933031B2 (en) 2004-12-22 2011-04-26 Canon Kabushiki Kaisha Information processing apparatus and method for inhibiting printing of secure documents

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6449377B1 (en) 1995-05-08 2002-09-10 Digimarc Corporation Methods and systems for watermark processing of line art images
US6345104B1 (en) 1994-03-17 2002-02-05 Digimarc Corporation Digital watermarks and methods for security documents
EP1122940A3 (en) * 2000-01-31 2003-09-10 Canon Kabushiki Kaisha Image processing method and apparatus
JP3932379B2 (ja) * 2001-10-02 2007-06-20 株式会社日立製作所 画像処理装置と撮像素子
JP3870892B2 (ja) * 2002-11-05 2007-01-24 村田機械株式会社 カラー画像読取記録装置
AU2003289382A1 (en) * 2002-12-19 2004-07-14 Matsushita Electric Industrial Co., Ltd. Print control device and print control method
CN100357876C (zh) * 2004-12-22 2007-12-26 佳能株式会社 信息处理装置和信息处理方法
JP4492671B2 (ja) * 2007-10-31 2010-06-30 ブラザー工業株式会社 画像処理プログラム
CN101472025B (zh) * 2007-12-28 2010-12-15 东友科技股份有限公司 海报打印控制模块及其方法
JP4762327B2 (ja) * 2009-03-24 2011-08-31 シャープ株式会社 画像処理装置及び画像形成装置
JP5333866B2 (ja) * 2010-08-31 2013-11-06 ブラザー工業株式会社 画像読取装置、画像形成装置、及び、画像読取方法
CN102407683B (zh) * 2010-09-26 2015-04-29 江门市得实计算机外部设备有限公司 打印机的无级变倍打印控制方法和装置
TWI583174B (zh) * 2016-07-06 2017-05-11 虹光精密工業股份有限公司 具有影像移動及塡補功能的影像處理裝置、複印設備及複印方法
TWI607410B (zh) 2016-07-06 2017-12-01 虹光精密工業股份有限公司 具有分區影像處理功能的影像處理設備及影像處理方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63152266A (ja) * 1986-12-17 1988-06-24 Canon Inc 画像形成装置
JPH0514610A (ja) * 1991-07-05 1993-01-22 Canon Inc 画像入出力装置
JPH07162677A (ja) * 1993-12-08 1995-06-23 Toshiba Corp 画像入力装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2692797B2 (ja) * 1986-09-02 1997-12-17 キヤノン株式会社 画像処理装置
US5504822A (en) * 1986-09-19 1996-04-02 Holt; Arthur W. Character recognition system
DE69023782T2 (de) * 1989-02-10 1996-06-13 Canon Kk Gerät zum Lesen oder Verarbeiten eines Bildes.
EP0506479B1 (en) * 1991-03-29 1997-02-12 Canon Kabushiki Kaisha Image processing apparatus
JPH0514683A (ja) * 1991-07-01 1993-01-22 Canon Inc 画像処理装置
DE4393748C5 (de) * 1992-08-03 2004-08-26 Ricoh Co., Ltd. Vorlagen-Unterscheidungssystem
JPH0670109A (ja) * 1992-08-21 1994-03-11 Canon Inc 画像処理装置
US5638498A (en) * 1992-11-10 1997-06-10 Adobe Systems Incorporated Method and apparatus for reducing storage requirements for display data
US5991515A (en) * 1992-11-10 1999-11-23 Adobe Systems Incorporated Method and apparatus for compressing and decompressing data prior to display
JP3093489B2 (ja) * 1992-11-12 2000-10-03 キヤノン株式会社 インクジェット記録方法
EP0609008B1 (en) * 1993-01-19 2001-06-20 Canon Kabushiki Kaisha Image processing apparatus and method
JP3176175B2 (ja) * 1993-03-04 2001-06-11 キヤノン株式会社 画像記録方法
US5845008A (en) * 1994-01-20 1998-12-01 Omron Corporation Image processing device and method for identifying an input image, and copier scanner and printer including same
JPH07288681A (ja) 1994-04-14 1995-10-31 Ricoh Co Ltd カラー画像形成装置
JP3337879B2 (ja) * 1995-02-13 2002-10-28 キヤノン株式会社 インクジェットプリント方法およびこれに用いられるインクジェットヘッド、インクジェットカートリッジおよびインクジェットプリント装置
JPH10108019A (ja) * 1996-09-30 1998-04-24 Canon Inc 画像処理方法とその装置並びに媒体
US6052140A (en) * 1997-01-08 2000-04-18 Fuji Photo Film Co., Ltd. Image forming apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63152266A (ja) * 1986-12-17 1988-06-24 Canon Inc 画像形成装置
JPH0514610A (ja) * 1991-07-05 1993-01-22 Canon Inc 画像入出力装置
JPH07162677A (ja) * 1993-12-08 1995-06-23 Toshiba Corp 画像入力装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP0891070A4 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7933031B2 (en) 2004-12-22 2011-04-26 Canon Kabushiki Kaisha Information processing apparatus and method for inhibiting printing of secure documents

Also Published As

Publication number Publication date
DE69722605D1 (de) 2003-07-10
EP0891070A1 (en) 1999-01-13
TW356544B (en) 1999-04-21
CN1217122A (zh) 1999-05-19
US6519364B1 (en) 2003-02-11
EP0891070B1 (en) 2003-06-04
JP3143926B2 (ja) 2001-03-07
KR100348505B1 (ko) 2003-01-08
EP0891070A4 (en) 1999-12-15
DE69722605T2 (de) 2004-04-29
KR20000005016A (ko) 2000-01-25

Similar Documents

Publication Publication Date Title
US5621503A (en) Image forming apparatus and method with anti-forgery function
JP3143926B2 (ja) 画像認識方法及び装置並びにそれを用いた複写機及びプリンタ
JP4424309B2 (ja) 画像処理装置、文字判定プログラム、および文字判定方法
EP2178705A1 (en) Image processing apparatus, image forming apparatus, and image processing method
CA2210502C (en) Logic filters for resolution conversion of digital images
US8441690B2 (en) Image processing apparatus and image processing method for processing screen-processed image
JPH11138790A (ja) 原稿画像を予め読込んで最適印刷を行うインクジェット複写機の操作方法
US7372992B2 (en) Image data processing machine
US5937147A (en) Printing of enhanced images
US7760390B2 (en) Binary resolution conversion aparatus and method
US7161706B2 (en) System for improving digital coplers and multifunction peripheral devices
US7420713B2 (en) Color printing apparatus configured to superpose specified pattern on image
US8064101B2 (en) White region identification to accelerate image processing for copies
JP5517028B2 (ja) 画像処理装置
US7304763B2 (en) Image processing apparatus and method
JP2001309163A (ja) カラーデータとともに伝送されるハーフトーン付き黒色データの解像度向上
JP2014128901A (ja) 画像処理装置および画像処理方法
JP6025803B2 (ja) 画像処理装置
JP4803243B2 (ja) 画像処理装置および画像処理プログラム
JP2007008177A (ja) 印刷装置、印刷装置制御プログラム及び印刷装置制御方法、並びに印刷用データ生成装置、印刷用データ生成プログラム及び印刷用データ生成方法
JP2018078537A (ja) 画像処理装置、画像処理方法及びプログラム
JP5266962B2 (ja) 印刷装置
JPH054381A (ja) 画像記録装置
JPH10243223A (ja) 画像出力装置及び画像出力方法
JP2006166217A (ja) 縮小レイアウト機能を持った画像処理装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 97194150.5

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): CN JP KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH DE DK ES FI FR GB GR IE IT LU MC NL PT SE

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 09142754

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1019980707636

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 1997908506

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1997908506

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1019980707636

Country of ref document: KR

WWG Wipo information: grant in national office

Ref document number: 1019980707636

Country of ref document: KR

WWG Wipo information: grant in national office

Ref document number: 1997908506

Country of ref document: EP