WO2006013956A1 - 画像処理システム及び画像処理方法 - Google Patents

画像処理システム及び画像処理方法 Download PDF

Info

Publication number
WO2006013956A1
WO2006013956A1 PCT/JP2005/014391 JP2005014391W WO2006013956A1 WO 2006013956 A1 WO2006013956 A1 WO 2006013956A1 JP 2005014391 W JP2005014391 W JP 2005014391W WO 2006013956 A1 WO2006013956 A1 WO 2006013956A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
unit
print
area
drawing area
Prior art date
Application number
PCT/JP2005/014391
Other languages
English (en)
French (fr)
Inventor
Yoichiro Maki
Hideyuki Narusawa
Goro Ishida
Shoji Kojima
Makoto Oyanagi
Masaya Kobayashi
Original Assignee
Seiko Epson Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2004230412A external-priority patent/JP4554296B2/ja
Priority claimed from JP2004235151A external-priority patent/JP4690676B2/ja
Priority claimed from JP2004280260A external-priority patent/JP3778293B2/ja
Priority claimed from JP2005101848A external-priority patent/JP4289316B2/ja
Priority claimed from JP2005102091A external-priority patent/JP4289317B2/ja
Priority claimed from JP2005176110A external-priority patent/JP2006352526A/ja
Application filed by Seiko Epson Corporation filed Critical Seiko Epson Corporation
Priority to EP05768546.3A priority Critical patent/EP1696658B1/en
Publication of WO2006013956A1 publication Critical patent/WO2006013956A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00352Input means
    • H04N1/00355Mark-sheet input
    • H04N1/00358Type of the scanned marks
    • H04N1/00363Bar codes or the like
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00352Input means
    • H04N1/00355Mark-sheet input
    • H04N1/00368Location of the scanned marks
    • H04N1/00374Location of the scanned marks on the same page as at least a part of the image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00352Input means
    • H04N1/00355Mark-sheet input
    • H04N1/00376Means for identifying a mark sheet or area
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00962Input arrangements for operating instructions or parameters, e.g. updating internal software
    • H04N1/00968Input arrangements for operating instructions or parameters, e.g. updating internal software by scanning marks on a sheet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/3871Composing, repositioning or otherwise geometrically modifying originals the composed originals being of different kinds, e.g. low- and high-resolution originals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6027Correction or control of colour gradation or colour contrast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0077Types of the still picture apparatus
    • H04N2201/0094Multifunctional device, i.e. a device capable of all of reading, reproducing, copying, facsimile transception, file transception

Definitions

  • the present invention relates to an image processing system and an image processing method, and more particularly to a technique for combining handwritten characters and an image stored in a recording medium.
  • a printing system that reads and prints image data stored in a removable memory or the like that is connected to a personal computer (PC) or the like is known.
  • PC personal computer
  • a printing system if you try to accept setting operations such as selection of images to be printed, number of copies to be printed, layout, etc., from a menu displayed on a small screen, the problem is that the menu hierarchy becomes deep and the operation becomes complicated. is there. On the other hand, if the menu is displayed on a large screen, there is a problem that the manufacturing cost increases.
  • JP 2002-51283 A a mark sheet on which a list of thumbnail images of image files stored in a removable memory or the like and selectable printing conditions are printed is printed, and the mark written on the mark sheet is printed.
  • An image processing system that accepts various printing condition setting operations by optical recognition is disclosed.
  • a first object of the present invention is to provide an image processing system and an image processing method capable of combining and displaying an image such as a handwritten message on another image.
  • the second object of the present invention is the positional relationship between an image combined with a handwritten character and the handwritten character. It is an object of the present invention to provide an image processing system that allows a user to accurately grasp the image, accurately divide the area of the object recorded by the user, and print a composite image of the image and the object. Means for solving the problem
  • An image processing system for achieving the first object includes a first receiving unit that receives an order sheet request, and a print unit that displays an area notation indicating a free drawing area in response to the order sheet request on a sheet.
  • a print control unit for printing on the printer, a second reception unit for receiving a scan request, and a read control unit for causing the scan unit to read the paper on which the object is recorded in the free drawing area in response to the scan request.
  • a synthesis unit that synthesizes the image of the free drawing area read by the scan unit in response to the scan request with another image.
  • the region notation by printing the region notation, it is possible to allow the user to recognize a free drawing region that is a region where an object such as a handwritten character is to be recorded and that can be specified at the time of reading.
  • the image of the free drawing area is read in response to the scan request, and the image of the free drawing area and another image are combined. That is, according to the present invention, by causing the user to record an object such as a handwritten character in a predetermined free drawing area, an image of the object such as a handwritten character recorded in the free drawing area and another image are recorded. Can be combined and displayed.
  • the print control unit may cause the print unit to print an identification notation on the paper.
  • the combining unit may combine the image of the free drawing area read by the scan unit with another image based on the image of the identification table read by the scan unit.
  • the image of the free drawing area and other images are also determined according to the predetermined free drawing area based on the read image power. And can be synthesized. That is, according to the present invention, it is possible to identify, for example, a predetermined free drawing area based on the read image, and read an object recorded in the free drawing area. Further, according to the present invention, based on the read image, the identification and notation power, for example, an object recorded in the free drawing area and another image are preliminarily determined in accordance with the free drawing area. Can be recognized.
  • the image processing system may further include an image selection instruction accepting unit that accepts support for selecting one or more of! Further, the other image may be the selected image.
  • the user can display an image obtained by combining the selected image and a handwritten message by selecting an arbitrary image stored in the accessible area, for example, using the operation panel. .
  • the print control unit may cause the print unit to print the image selected by the image selection instruction receiving unit on the paper.
  • an image selected from accessible images and an area notation indicating a free drawing area can be printed on one sheet of paper. Therefore, the user can record the object to be combined with the selected image in the free drawing area while confirming the selected image. In other words, the user can record an object such as a handwritten character in the free drawing area while imagining the synthesis result.
  • the image indicating the selected image data is a composite result obtained by combining the image represented by the selected image data and a sample image of the image in the free drawing area under a first combining condition. It may be an image to represent.
  • the synthesizing unit may synthesize the image represented by the selected image data and the image of the free drawing area under a second synthesis condition corresponding to the first synthesis condition.
  • the synthesizing unit synthesizes the image represented by the selected image data and the sample image representing the object under the synthesizing condition corresponding to the synthesizing condition of the image representing the synthesis result. That is, the image representing the synthesis result represents the synthesis result based on the synthesis condition corresponding to the synthesis condition in the synthesis unit. For this reason, when a user records an object such as a handwritten character in a free-drawing area, the image of the composite result is displayed.
  • the image processing system is configured to select one of a plurality of different synthesis conditions for synthesizing the selected image and the image of the free drawing area as the first synthesis condition. May further include a synthesis condition instruction receiving unit.
  • the print control units are mutually receivable by the synthesis condition instruction accepting unit.
  • a plurality of images representing a plurality of synthesis results synthesized under different synthesis conditions may be printed on the paper on the print unit.
  • the user can recognize the composite conditions that can be received by the composite condition instruction receiving unit from a plurality of images representing the composite results that are combined on the paper under different composite conditions.
  • the user can record the object in the free drawing area while imagining the composition result when the composition is synthesized under the composition condition actually selected in the image representing the composition result.
  • the print control unit may cause the print unit to print an image notation representing an accessible image on the paper.
  • the image processing system further includes an image selection instruction recognition unit that recognizes the image represented by the image notation instructed by the image selection instruction recorded on the paper based on the image read by the scan unit. You may prepare for.
  • the other image may be an image represented by the image notation designated by the image selection instruction.
  • the user can designate image data to be synthesized by recording an image selection instruction for designating arbitrary image data stored in advance in an accessible area on a sheet. For this reason, according to the present invention, the operation using the operation panel or the like can be simplified.
  • the image selection instruction recognition unit may recognize the image represented by the plurality of image notations instructed by the image selection instruction.
  • the synthesizing unit may synthesize the image of the object and the plurality of other images.
  • the user can select two or more images to be combined with a handwritten message or the like.
  • the reading control unit may cause the scanning unit to read the image selection instruction at a resolution lower than that of the free drawing area.
  • the print control unit may include a plurality of composition condition notations on the sheet that represent different composition conditions for compositing the image of the free drawing area and the other image.
  • the lint unit may be printed.
  • the image processing system further includes a synthesis condition recognition unit that recognizes the synthesis condition represented by the synthesis condition notation instructed in a synthesis condition instruction printed on the paper based on an image read by the scan unit. Also good.
  • the combining unit may combine the image of the free drawing area read by the scan unit and the other image in accordance with the combining condition represented by the combining condition notation specified in the combining condition instruction. Yo ...
  • the composition condition specifically includes, for example, the arrangement, size, and shape of a region into which each image is inserted, and the transmittance of a layer into which each image is inserted.
  • the reading control unit causes the scan unit to read the combination condition instruction at a first resolution, and causes the scan unit to read the free drawing area at a second resolution higher than the first resolution. It may be allowed.
  • the image processing apparatus further includes a synthesis condition instruction receiving unit that receives an instruction of a synthesis condition for synthesizing the image of the object and the other image, and the printing control unit is configured to The area notation indicating the free drawing area in a mode according to the synthesis condition may be printed on the paper on the print unit.
  • the synthesizing unit may synthesize the image of the object and the other image in accordance with the instructed synthesizing condition.
  • an instruction for a composition condition is received before an area notation is printed, an area notation indicating a free drawing area in a mode according to the instruction is printed, and an image recorded in the free drawing area is recorded. Therefore, the user can record an object such as a handwritten character in a free drawing area in a desired form and synthesize it with another image.
  • the synthesis condition may include a superposition synthesis condition.
  • the superposition and synthesis condition may include a boundary processing condition between two images to be superposed and synthesized.
  • the superposition and synthesis condition may include the transparency of two images to be superposed and synthesized.
  • the print control unit may cause the print unit to print a reference mark on the paper.
  • the reading control unit may recognize the free drawing area based on the reference mark.
  • the position of the free drawing area is relatively recognized based on the reference mark printed on the paper, it is possible to accurately combine the image recorded in the free drawing area with another image. it can.
  • the image processing system may further include an area extraction unit that extracts an area of the object recorded in the free drawing area from an image of the free drawing area read by the scan unit. Good.
  • the image of the free drawing area may be an image of the object area.
  • the image processing system may further include an image selection instruction receiving unit that receives an instruction to select any one or more of accessible images.
  • the other image may be the selected image.
  • the print control unit may cause the print unit to print the selected image in the free drawing area that is thin enough that the area extraction unit can extract the area of the object.
  • the other image to be combined is printed thinly in the free drawing area. It is possible to record objects such as handwritten characters in the free-drawing area while accurately grasping.
  • the area extraction unit recognizes the ground color of the paper based on a blank area image outside the free drawing area read by the scan unit, and based on the ground color of the paper, To recognize the area of the object.
  • the image processing system may further include the print unit and the scan unit.
  • the image processing system may further include an interface for connecting the print unit and the scan unit.
  • An image processing method for achieving the above object includes a first accepting stage for accepting an order sheet request, and a printing unit on a sheet having an area description indicating a free drawing area in response to the order sheet request.
  • a print control stage for printing on the paper a second reception stage for accepting a scan request, a read control stage for causing the scan unit to read the paper on which the object is recorded in the free drawing area in response to the scan request, And a synthesis step of synthesizing the image of the free drawing area read by the scan unit in response to a scan request with another image.
  • An image processing system that achieves the second object described above includes an access unit that accesses a user image stored in a recording medium, and forms a background image by reducing the color gamut of the user image.
  • a subtractive color processing unit an order sheet print control unit that causes the print unit to create an order sheet on which the background image is printed in the free drawing area, and an image power of the free drawing area read by the scan unit.
  • a synthesis unit that divides an area of the object recorded in the area using a color gamut of the background image as a reference, and superimposes the area of the object on the user image to form a synthesized image; and
  • An image forming system comprising: a composite print control unit that causes the print unit to print.
  • the image processing system When the image processing system prints a background image formed by reducing the color gamut of the user image in the free drawing area where the user records an object such as a handwritten character, the user combines the image with the handwritten character, the handwritten character, etc.
  • the object such as handwritten characters can be recorded in the free drawing area while accurately grasping the positional relationship with the object.
  • the image processing system prints a background image formed by reducing the color gamut of the user image in the free drawing area
  • the image processing system captures the object recorded in the free drawing area with a color outside the color gamut of the background image.
  • the image force obtained by reading the free drawing area can also be accurately divided.
  • the image processing system must store the color gamut of the background image.
  • the image processing system can reduce the storage capacity necessary for storing the color gamut of the background image by reducing the color gamut of the user image and forming the background image.
  • the color reduction processing unit may form the background image of a single hue.
  • the image processing system When the image processing system prints a single-hue background image formed by reducing the color gamut of the user image in the free-drawing area, the user can record objects such as handwritten characters with a wide hue in the free-drawing area. .
  • the subtractive color processing unit may form the background image having multiple gradations.
  • the user can easily understand the spatial structure of the user image even if the background image has a single hue. It can be determined in relation to the spatial composition of
  • the subtractive color processing unit may form the background image having three power error channels in which only one color channel has gradation.
  • the background image power has gradation in only one color channel and the other two color channels in the background image have fixed gradation values
  • the image processing system only needs to memorize the combination of the gradation value of one color channel and the fixed value of the other two color channels. The storage capacity required to store the color gamut of the background image is further reduced.
  • the subtractive color processing unit may form the lightened background image.
  • the order sheet print control unit may cause the print unit to print a sample patch whose color gamut matches the color gamut of the background image.
  • the synthesizing unit may determine that a color value is not included in the color gamut of the image of the sample patch read by the scan unit! /, And the area in the free drawing area may be determined as the area of the object. Yes.
  • the image processing system prints a background image of the same color gamut, if the paper quality is different, the color gamut of the background image printed on the paper will also be different. Therefore, if the type of paper used to create the order sheet is specified, the range of the color gamut predetermined according to the color gamut of the background image is used as the area of the background image from the free drawing area.
  • region division is executed as the color gamut range of the divided region, the object region is erroneously recognized as the background image region, or the background image region is erroneously recognized as the object region.
  • the color gamut of the background image is based on the color gamut of the sample patch actually printed on the paper. Therefore, it is possible to improve the determination accuracy of the background image area in the free drawing area.
  • the image processing system may further include a recording medium that stores gradation ranges of the other two color channels in association with gradation values of the color channel having gradation.
  • the composition unit includes, for each pixel in the free drawing area, gradation ranges of the other two color channels associated with gradation values of the color channel having gradations of the pixels of the free drawing area. If the gray level values of the other two power error channels are not included in the pixel of the free drawing area, it may be determined that the pixel constitutes the area of the object.
  • the background image power has gradation only in one color channel and the other two color channels of the background image have fixed values
  • printing and reading the background image is In, only one color channel of the read background image has gradation, and the other two color channels have fixed values.
  • the background image to be printed has such gradation characteristics, the separation of colors before printing, halftone processing, the device color of the scan unit and the device color of the print unit Differences
  • the read background image results in only one color channel having a wide gradation and the other two color channels having a narrow gradation.
  • the image processing system stores the color gamut of the background image by storing the narrow gradation range of the other two color channels in association with the gradation value of the color channel having gradation, and the color chart having gradation.
  • Memory for storing the color gamut of the background image by determining the area of the background image in the free drawing area based on the gradation range of the other two color channels stored for each tone value of the channel The capacity can be further reduced.
  • the color reduction processing unit may form the background image representing an edge component of the user image.
  • the background image represents the edge component of the user image
  • the user can easily understand the spatial structure of the user image even if the background image has a single hue, so the arrangement of objects such as handwritten characters This can be determined in association with the spatial configuration of the user image.
  • Each function of the plurality of units provided in the present invention is realized by hardware resources whose functions are specified by the configuration itself, hardware resources whose functions are specified by a program, or a combination thereof.
  • the functions of the plurality of units are not limited to those realized by node hardware resources that are physically independent of each other.
  • the present invention can be specified as an invention of a program that can only be specified as an invention of an apparatus and a method, or as an invention of a recording medium on which the program is recorded.
  • FIG. 2 is a front view showing the appearance of the multifunction machine 1 as the first embodiment of the image processing system of the present invention.
  • FIG. 3 is a block diagram showing the multifunction machine 1 according to the first embodiment of the present invention.
  • the MFP 1 has a function of outputting image data read from a document to a personal computer (PC) (not shown), a function of copying a document, a function of printing data output from the PC, and a memory input from the removable memory 3.
  • the scan unit 20 of the multifunction machine 1 includes an image sensor 21, an optical system 22, a sensor driving unit 23, a sensor carriage driving unit 24, an AFE (Analog Front End) unit 25, a digital image processing unit 26, and the like.
  • the image sensor 21 driven by the sensor driving unit 23 is a linear image sensor having RGB three-channel light receiving elements, and is mounted on a sensor carriage 27 that moves in parallel with a document table (not shown).
  • the image sensor 21 outputs an electrical signal correlated with the density of the optical image of the document placed on the document table formed on the light receiving surface by the optical system 22 including a lens and a mirror (not shown).
  • the sensor carriage drive unit 24 includes a motor, a drive belt, a drive circuit, and the like.
  • the sensor carriage drive unit 24 reciprocates the sensor carriage 27 along a guide rod installed perpendicular to the scanning line.
  • the two-dimensional image can be scanned by moving the image sensor 21 in a direction perpendicular to the scanning line.
  • the AFE unit 25 includes an analog signal processing unit, an AZD converter, and the like.
  • the digital image processing unit 26 performs processing such as shading correction on the output signal output from the AFE unit 25 to generate a digital image.
  • the print unit 30 of the multifunction machine 1 includes a recording head 31, a head driving unit 32, a head carriage driving unit 33, a paper feeding unit 34, and the like for forming an image on a sheet by an inkjet method.
  • the print unit 30 may have a configuration corresponding to another printing method such as a laser method.
  • the recording head 31 is provided in a head carriage 37 on which an ink cartridge (not shown) is mounted, and includes a nozzle, a piezo element, an ink passage, and the like. .
  • the head carriage drive unit 33 includes a motor, a drive belt, a drive circuit, and the like (not shown). The head carriage drive unit 33 reciprocates the recording head 31 perpendicularly to the paper transport direction.
  • the paper feeding unit 34 includes a paper conveying roller, a motor, a drive circuit, and the like (not shown).
  • the paper feeding unit 34 conveys the sheet in a direction perpendicular to the moving direction axis of the recording head 31 by rotating the sheet conveying roller.
  • the card read / write unit 41 is a card slot (not shown) for inserting the removable memory 3. A lot, memory controller, etc. are provided.
  • the operation unit 42 includes an LCD 14 for displaying a menu and various buttons such as a determination button 10 and a cross button 12 for operating the menu (see FIG. 2).
  • the control unit 50 includes a CPU 51, a ROM 52, and a RAM 53.
  • the CPU 51 executes a control program stored in the ROM 52 to control each part of the multifunction device 1.
  • the ROM 52 is a non-volatile memory that stores a control program
  • the RAM 53 is a volatile memory that temporarily stores a program such as an image processing program and data such as image data.
  • the control program may be stored in the ROM 52 from a predetermined server via the network, or the computer-readable storage medium such as the removable memory 3 may be read and stored in the ROM 52.
  • FIG. 4 is a functional block diagram showing the configuration of the control program of the multifunction machine 1.
  • the composition instruction receiving module 61 as the first receiving unit and the second receiving unit is a program component that receives an order sheet request and a scan request.
  • the order sheet request is an instruction that the user requests the multifunction device 1 to print an order sheet for writing handwritten characters.
  • the scan request is an instruction that the user requests the MFP 1 to perform a series of processes for reading an order sheet and combining handwritten characters or the like with a photographic image.
  • the image selection instruction receiving module 60 as an image selection instruction receiving unit is a program component that receives an instruction (image selection instruction) for selecting an arbitrary image file from accessible image files.
  • the accessible image file is specifically an image file stored in a predetermined folder of the removable memory 3, for example.
  • the image selection instruction receiving module 60 is connected to the internal memory ROM52 and RAM53, the memory of a portable electronic device such as a digital camera connected to the multifunction device 1, a mobile phone with a camera function, etc.
  • the user may select image data stored in a hard disk device of a connected PC or a file server connected to the MFP 1 via a communication line.
  • the print control module 62 as a print control unit reads from the ROM 52 a template (order sheet template) 103 (see Fig. 5) for printing the order sheet.
  • the program part causes the print unit 30 to print the order sheet based on the order sheet template 113.
  • the order sheet template 113 shown in FIG. 5 includes object information and layout information for printing the reference marks 82 and 107, the verification mark 81, and the rectangular frame 110 on a sheet.
  • a frame 112 represents the printing paper size defined by the order sheet template 113.
  • a rectangular frame 110 as an area notation defined by the order sheet template 113 is a rectangular frame indicating the outer edge of the free drawing area 72 on the paper surface of the order sheet 70 (see FIG. 6).
  • the free drawing area 72 may be a rectangular frame having an aspect ratio different from that of the printing paper for printing the composite image, or may be a non-rectangular frame such as a circular frame.
  • the area description may be, for example, four marks (cross shape, L shape, etc.) indicating the four corners of the free drawing area 72.
  • the reference marks 82 and 107 defined by the order sheet template 113 are marks for specifying the positions of the free drawing area 72 and the verification mark 81 when the order sheet 70 is read.
  • a frame 108 defined by the order sheet template 113 is an area to which the verification mark 81 is assigned.
  • the verification mark 81 is a removable memory 3 that is connected to the multifunction device 1 during the process of printing the order sheet 70 and a removable memory 3 that is connected to the multifunction device 1 during the process of printing the composite image. This is a mark for verifying the identity with memory 3.
  • the verification mark 81 can specify a checksum calculated based on the file names, the number of files, etc. of all image files of a predetermined format stored in a predetermined folder of the removable memory 3. It carries a lot of information.
  • the reading control module 64 serving as a reading control unit is a program component having the following functions. First, the entire scan platen (pre-scan area) is scanned by the scan unit 20 at a low resolution to obtain a pre-scan image. Second, the free drawing area 72 of the order sheet 70 is specified based on the pre-scan image. Third, the verification mark 81 is verified based on the pre-scan image. Fourth, the free drawing area 72 is read by the scan queue 20 at a high resolution, and a high-resolution scan image is obtained.
  • the synthesis module 66 as a synthesis unit and an area extraction unit acquires the image of the free drawing area 72 read by the scan unit 20, and the image and photograph of the free drawing area 72. It is a program part that synthesizes an image. Specifically, for example, the synthesis module 66 extracts the image power of the free drawing area 72, the area of the object 116 (see FIG. 6) such as handwritten characters, and the user 116 converts the image of the object 116 based on the composition template described later. Is selected.
  • control unit 50 Some of the functions of the control unit 50 realized by executing the synthesis instruction receiving module 61, the print control module 62, the reading control module 64, and the synthesis module 66 described above are DSP, ASIC (Application Specific Integrated Circuit). It can be realized by a dedicated circuit such as).
  • FIG. 7 is a schematic diagram for explaining a composite template.
  • the composite template 120 includes layout information necessary for printing the composite image 132 on the paper 134.
  • a frame 131 represents the print paper size defined by the composite template 120.
  • a frame 128 defined by the composite template 120 is an area to which the image 122 and the photographic image 126 of the free drawing area 72 are allocated. In the example shown in the figure, the areas to which the image 122 and the photographic image 126 of the free drawing area 72 are allocated are the same. Of course, the respective images may be allocated to different frames.
  • the aspect ratio of the frame 128 defined by the composite template 120 and the rectangular frame 110 defined by the order sheet template 113 are the same.
  • the alpha channel 124 is information that defines the transparency of the layer of the image 122 in the free rendering area 72 for each pixel.
  • the compositing module 66 identifies the region 130 of the object 116 such as handwritten characters by the region dividing process on the image 122 of the free drawing region 72, sets the transparency of the region 130 of the object 116 to opaque, and makes the other regions transparent.
  • the alpha channel 124 is generated by the process set to.
  • a composite image 132 is generated by weighting and adding the image 122 and the photographic image 126 in the free rendering area 72 with the alpha channel 124 for each pixel.
  • FIG. 8 is a flowchart showing an image processing method according to the first embodiment of the present invention. The process shown in FIG. 8 is executed by the control unit 50 executing the above-described control program.
  • the control unit 50 receives an order sheet request (step S100). Specifically, for example, the composition instruction receiving module 61 displays the menu screen 1000 shown in FIG. 14, and then the signal output from the operation unit 42 is accepted as an order sheet request when the user selects “handwritten character combination printing” by operating the cross button 12 and presses the decision button 10. In the drawing, among the items displayed on the LCD 14, items selected by operating the cross button 12 are hatched.
  • control unit 50 Upon receiving the order sheet request, control unit 50 sets an order sheet template and a composite template (step S103). Specifically, the composition instruction receiving module 61 reads the order sheet template and composition template from the ROM 52 into the RAM 53. By this process, a free drawing area 72 of the order sheet 70 corresponding to the order sheet request is set. In addition, by this processing, the arrangement according to the order sheet request, the layer vertical relationship, the transmittance of each layer, the printing paper size, etc. are set for the image 122 and the photographic image 126 in the free drawing area 72. The control unit 50 may alternatively accept order sheet requests corresponding to different order sheet templates in step S100, and set an order sheet template corresponding to the accepted order sheet request.
  • step S104 the multi-function device 1 accepts an instruction to select any image file having an image file power accessible by the user.
  • the image selection instruction receiving module 60 displays the image selection screen 1020 shown in FIG. 9 on the LCD 14, and then the user presses the cross button 12 and the decision button 10 to operate the operation unit 42.
  • an image file of a predetermined format stored in a predetermined folder of the removable memory 3 is selected.
  • step S106 the multi function device 1 prints the order sheet 70.
  • the print control module 62 generates data of pages to which the reference marks 82 and 107, the verification mark 81, and the rectangular frame 110 are assigned based on the order sheet template read into the RAM 53.
  • the print control module 62 generates print data by performing binarization processing, interlace processing, and the like on the data of the page.
  • the print control module 62 outputs print data to the print unit 30 and prints the order sheet 70 on the print unit 30.
  • the print control module 62 calculates a checksum based on the image file stored in the predetermined directory of the removable memory 3, and performs a check.
  • An image representing the verification mark 81 corresponding to the thumb is assigned to the frame 108.
  • the print control module 62 may display the screen 1040 shown in FIG. 9 on the L CD 14 during the period until the print sheet 30 completes the printing of the order sheet 70! / ⁇ .
  • the user records an object 116 such as a handwritten character in the free drawing area 72 of the order sheet 70 printed in step S106, as shown in FIG.
  • the outer edge of the free drawing area 72 is clearly indicated by a rectangular frame 110.
  • magazine clippings can be pasted, and characters and images can be printed.
  • step S108 the control unit 50 receives a scan request.
  • the composition instruction reception module 61 displays the menu screen 1060 shown in FIG. 9 on the LCD 14, and then scans the signal output from the operation unit 42 when the user presses the enter button 10. Accept as a request.
  • the control unit 50 displays the screen 1080 shown in FIG. 9 on the LCD 14 and guides the progress to the user.
  • step S109 the multi function device 1 reads the pre-scan area. Specifically, the reading control module 64 causes the scan unit 20 to read the pre-scan area and obtains a press scan image.
  • step S110 the control unit 50 specifies the free drawing area 72 of the order sheet 70.
  • the reading control module 64 specifies the positions of the reference marks 82 and 107 in the pre-scan image by pattern matching or the like.
  • the reading control module 64 specifies the range of the free drawing area 72 based on the positions of the reference marks 82 and 107.
  • the reading control module 64 sets the free drawing area 72 according to the relative positional relationship between the reference marks 82 and 107 and the rectangular frame 110 defined in the order sheet template 113 set in step S102. Identify the range. That is, since the order sheet template 113 is set in response to an order sheet request being received, the control unit 50 specifies the range of the free drawing area 72 in accordance with the order sheet request.
  • step S110 the control unit 50 identifies the range of the verification mark 81 based on the pre-scan image, recognizes the verification mark 81, the checksum corresponding to the verification mark 81, and a predetermined value in the removable memory 3. Image files in a predetermined format stored in a folder Verify the identity with the checksum calculated based on. As a result, if the two check sums do not match, the control unit 50 performs error processing. Of course, such error determination and error handling may be omitted.
  • the multi function device 1 reads the free rendering area 72 with high resolution.
  • the reading control module 64 causes the scan unit 20 to read the free drawing area 72 at a higher resolution than that during the press scan, and stores the image of the free drawing area 72 in the RAM 53.
  • the control unit 50 extracts an area 130 corresponding to the object 116 recorded in the free drawing area 72 from the image 122 (see FIG. 7) of the free drawing area 72.
  • the composition module 66 performs region division processing using a predetermined threshold on the image 122 in the free drawing region 72 to identify the region 130 corresponding to the object 116.
  • the synthesis module 66 may specify a region corresponding to the object 116 using the pre-scan image.
  • the compositing module 66 then generates an alpha channel 124 with the region 130 corresponding to the object 116 set opaque and the other regions set transparent.
  • step S116 the control unit 50 combines the image 122 (see FIG. 7) of the free drawing area 72 and the photographic image 126. Specifically, the composition module 66 weights the image 122 in the free rendering area 72 and the image 126 represented by the image file selected in step S104 based on the composition template 120 by using the alpha channel 124 for each pixel. The resultant composite image 132 is assigned to the frame 128. The composite template 120 used at this time is the one read by the control unit 50 from the ROM 52 into the RAM 53 upon receipt of the order sheet request.
  • control unit 50 since the image 122 in the free drawing area 72 and the photographic image 126 are combined based on the composite template 120, the control unit 50 responds to the order sheet request with the image 122 and the photographic image 126 in the free drawing area 72. Is to synthesize.
  • step S118 the multi function device 1 prints a composite image.
  • the control unit 50 generates data of a page in which the composite image 132 is assigned to the frame 128 based on the composite template 120, and performs binary digit processing, interlace processing, and the like on the data. Then, print data is generated, and the print data is output to the print unit 30 so that the composite image 132 is printed on the paper 134.
  • the user causes the multifunction device 1 to read the order sheet 70 in which handwritten characters and the like are written in the free drawing area 72, whereby handwritten characters and the like are photographed.
  • the composite image can be printed on the MFP 1.
  • the verification mark 81 corresponds to the identification notation described in the claims, and carries information for specifying the composite template. This will be specifically described below.
  • the pattern of the verification mark 81 is determined according to the composite template. Based on the verification mark 81, the multifunction device 1 may select one composite template or a plurality of composite templates. In other words, at least it is only necessary to determine whether or not it is an order sheet that can record handwritten characters based on the verification mark 81! /. From the verification mark 81, it is not possible to determine even the force that is out of the multiple types of order sheets that can record handwritten characters corresponding to different composite templates. Further, the verification mark 81 corresponds to the composite template and, at the same time, naturally corresponds to the order sheet template 113. This is because the frame 128 (see FIG. 7) for assigning the image of the free drawing area 72 defined by the composite template corresponds to the rectangular frame 110 defined by the order sheet template 113. That is, the verification mark 81 carries information that can identify the order sheet itself.
  • FIG. 10 is a flowchart showing an image processing method according to the second embodiment of the present invention.
  • step S103 the control unit 50 sets an order sheet template.
  • the synthesis template is not set.
  • step S106 the multifunction machine 1 prints the order sheet 70.
  • the print control module 62 specifies information for specifying a composite template corresponding to the order sheet request.
  • the verification mark 81 of the pattern carrying the information is read from the ROM 53 and assigned to the frame 108 (see Fig. 5).
  • step S110 the control unit 50 identifies the free drawing area 72 of the order sheet 70. At this time, the control unit 50 specifies the free drawing area 72 based on the verification mark 81. Specifically, the reading control module 64 specifies the positions of the reference marks 82 and 107 in the pre-scan image by pattern matching or the like. Next, the reading control module 64 identifies the range of the verification mark 81 based on the positions of the reference marks 82 and 107, recognizes the verification mark 81 represented by the pre-scan image, and corresponds to the verification mark 81. Specify the range of free-drawing area 72.
  • the reading control module 64 determines the range of the free drawing area 72 according to the relative positional relationship between the reference marks 82 and 107 and the rectangular frame 110 defined in the order sheet template 113 corresponding to the verification mark 81. Is identified. That is, the control unit 50 identifies the range of the free drawing area 72 based on the image of the verification mark 81.
  • control unit 50 sets a composite template corresponding to verification mark 81.
  • the synthesis module 66 reads the synthesis template corresponding to the verification mark 81 from the ROM 52 into the RAM 53. That is, in the second embodiment, the composite template is not determined until the order sheet 70 is read.
  • the control unit 50 performs the processing of step S104 (image selection processing) described in the first embodiment after receiving the composite print instruction, for example, immediately before the composite processing (S116).
  • step S108 and the processing before step S106 are continuous. There is no need. That is, completely different processing may be performed between step S106 and step S108, or the power of the multifunction device 1 may be turned off.
  • step S108 when a scan request is received in step S108, the user also receives a composite template selection instruction, and in step S111, the composite template is selected.
  • the consistency between the selection instruction content and the composite template corresponding to the order sheet 70 may be checked. Also, if there is only one type of order sheet handled by MFP 1, the consistency check Omit the ku.
  • FIG. 11 is a functional block diagram of the MFP 1 according to the third embodiment of the present invention.
  • the print control module 62 also prints the image selected by the image selection instruction receiving module 60 on the order sheet based on the order sheet template 113 shown in FIG.
  • a frame 200 defined by the order sheet template 113 shown in FIG. 12 is a frame to which an image 202 indicating a file selected by the image selection instruction receiving module 60 is allocated.
  • the order sheet template 113 corresponds to the composite template 120 shown in FIG. That is, since the layout position and size of the image 122 selected from the user and the layout position and size of the image 122 read from the free rendering area 72 match in the composite template 120, the aspect ratio of the frame 200 and the frame 110 Have the same aspect ratio.
  • the order sheet template 113 may be defined so that a frame indicating the outer edge of the paper is printed outside the frames 200 and 100. In this way, the user can confirm before printing that the image 126 of the selected file and the image 122 (see FIG. 7) read from the free drawing area 72 are arranged on the printing paper.
  • the print control module 62 may assign a reduced image generated based on the image 126 of the image file selected by the user to the frame 200. Further, if the selected image file is an image file that stores thumbnail data such as an Exif file, the print control module 62 may assign the thumbnail image to the frame 200.
  • the multi-function device 1 includes an image 202 indicating selected image data and a rectangular frame 110 indicating a free drawing area 72. Print on 70 order sheets. Therefore, the user can record the object 116 such as a handwritten character to be combined with the selected image in the free drawing area 72 while confirming the selected image on the order sheet 70. That is, the user can record the object in the free drawing area 72 while predicting the synthesis result.
  • the multi function device 1 according to the fourth embodiment of the present invention lightens the image represented by the selected image file. Print in the free drawing area.
  • step S106 described above the print control module 62 prints the image selected by the image selection instruction receiving module 60 on the order sheet based on the order sheet template 113 shown in FIG.
  • a frame 200 defined by the order sheet template 113 shown in FIG. 12 is a frame to which an image 202 indicating a file selected by the image selection instruction receiving module 60 and a rectangular frame 110 indicating a free drawing area are allocated.
  • the rectangular frame 110 does not necessarily have to be printed because the outer edge of the free drawing area can be clarified by printing the image 202 lightly on the entire free drawing area.
  • An image 202 indicating a file selected by the image selection instruction receiving module 60 is a monochrome image obtained by performing a binary image process by the print control module 62 on the luminance value of the image of the selected file.
  • the threshold value of the binary value is set so low that the image 202 indicating the file selected in the process of extracting the object region in step S114 is not extracted.
  • the image 200 printed in the free drawing area 72 may be a light color image, a light image, or a monotone image! / ⁇ ⁇ ⁇ .
  • the print control module 62 performs a lightening process at a light / dark level instead of the binarization process on each channel of the image of the selected file.
  • the multi function device 1 prints the image 202 indicating the selected image data in the free rendering area 72 as shown in FIG. Therefore, the user can record the object 116 such as a handwritten character to be combined with the selected image in the free drawing area 72 while accurately grasping the arrangement with respect to the selected image.
  • the multi function device 1 prints on the order sheet 70 a sample 111 of the composite result of the image represented by the selected image file and the image of the object such as handwritten characters (see FIG. 16). ).
  • the composition instruction receiving module 61 also corresponds to a composition condition instruction receiving unit. That is, the compositing instruction receiving module 61 receives an instruction to select a compositing condition for compositing the image 122 representing the object recorded in the free drawing area 72 and the photographic image 126. Compositing conditions include image placement, layer vertical relationship, layer For example, it is the content of the composite template.
  • the composition instruction reception module 61 sets a composition template and an order sheet template according to an instruction for selecting a composition condition.
  • FIG. 17 is a schematic diagram showing an order sheet template 113 for printing the order sheet 70.
  • FIG. 18 is a schematic diagram for explaining a composite template corresponding to the order sheet template 113 shown in FIG. That is, the order sheet template 113 shown in FIG. 17 and the composite template 120 shown in FIG. 18 are templates read from the ROM 52 in response to an instruction for selecting the same composite condition.
  • the order sheet template 113 defines a frame 206 to which an image 208 representing a sample of the free drawing area 72 in which handwritten characters are recorded is assigned.
  • the frame 200 and the frame 206 to which the image 202 indicating the file selected by the image selection instruction reception module 60 is allocated are defined inside the rectangular frame 204 that represents the outer edge of the printing paper for printing the composite image.
  • the aspect ratio of the rectangular frame 204 matches the aspect ratio of the printing paper for printing the composite image. Note that if the frame 206 to which the image 208 representing the sample of the free drawing area 72 is allocated and the frame 200 to which the image 202 indicating the file selected by the image selection instruction receiving module 60 overlaps, an order is placed.
  • Sheet template 113 defines an alpha channel for setting the transmission of two images
  • a frame 128a defined by the composite template 120 is an area to which the photographic image 126 is assigned.
  • the photographic image 126 is an image of a file selected by the image selection instruction receiving module 60.
  • a frame 128b defined by the composite template 120 is an area to which the image 122 of the free drawing area 72 is allocated.
  • the relationship between the relative size and relative position of the frame 131, the frame 128a, and the frame 128b corresponding to the printing paper size defined by the composite template 120 is the same as the rectangular frame 204 defined by the order sheet template 113, It is equal to the relationship between the relative size and relative position of the frame 200 and the frame 206.
  • the sample 111 (see Figure 16) printed on the order sheet 70 based on the rectangular frames 204, 200, 206 allows the user to The synthesis result can be predicted.
  • the image 202 assigned to the frame 200 of the order sheet template 113 may be an image selected by the user or a sample image stored in the ROM 52 in advance. Also, instead of combining the frame 204, the image 202, and the image 208 and displaying the combined result sample, one sample image corresponding to the combined result sample may be stored in the ROM 52 and assigned.
  • FIG. 19 is a flowchart showing an image processing method according to the fifth embodiment of the present invention.
  • the multi function device 1 accepts instructions for different synthesis conditions for synthesizing the object image 122 and the photographic image 126.
  • the composition instruction reception module 61 displays the menu screen 1100 shown in FIG. 20 on the LCD 14, and then the user selects one of the composition conditions by operating the cross button 12 and presses the enter button 10.
  • the signal output from the operation unit 42 is accepted as a synthesis condition instruction.
  • the composite instruction reception module 61 may guide the user to select composite conditions by displaying on the screen a sample 111 that specifically indicates the composite result, or may select “upper and lower double columns” and “superposition”. The user may be informed of selectable synthesis conditions by displaying a character string such as.
  • step S102 the composition instruction receiving module 61 reads the order sheet template 113 and the composition template 120 corresponding to the composition condition instruction received in step S101 from the ROM 52 into the RAM 53.
  • the free drawing area 72 of the order sheet 70 corresponding to the compositing condition instruction is set.
  • the arrangement according to the compositing condition instruction, the vertical relationship of the layers, The transparency of each layer, the print paper size, etc. are set.
  • the order sheet 70 is printed with the sample 111 of the combination result of the image selected by the user and the object such as handwritten characters, so that the user can combine the images.
  • the object can be recorded in the free drawing area 72 while specifically imagining the result.
  • FIG. 21 is a schematic diagram showing a state in which an object is recorded on an order sheet 70 printed by the multifunction machine 1 according to the sixth embodiment of the present invention.
  • Compound according to the sixth embodiment of the present invention In the machine 1, a plurality of samples 111 are printed on the order sheet 70, and a composite condition instruction is received via the identifier 136 attached to each sample 111.
  • the template for printing the order sheet 70 is substantially the same as that of the fifth embodiment except that there are a plurality of definition information for printing the sample 111, and thus the description thereof is omitted.
  • FIG. 22 is a flowchart showing an image processing method according to the sixth embodiment of the present invention.
  • the multi function device 1 After receiving the scan request in step S108, the multi function device 1 executes step S101 and accepts the synthesis condition instruction. Specifically, the composition instruction receiving module 61 displays a menu screen 1110 shown in FIG. On the menu screen 1110, by pressing the cross button 12 and the decision button 10, one of the identifiers 136 attached to each sample 111 of the order sheet 70 can be selected.
  • the combination instruction receiving module 61 receives a combination condition instruction for V deviation depending on a signal output from the operation unit 42 when the user presses the cross button 12 and the decision button 10.
  • control unit 50 sets a synthesis template according to the synthesis condition instruction received in step S110. Specifically, the synthesis module 66 reads the synthesis template corresponding to the identifier selected by the user in step S110 from the ROM 52 into the RAM 53.
  • a plurality of samples 111 corresponding to the synthesis conditions that can be selected by the user are printed on the order sheet 70. Therefore, the user can specifically recognize selectable synthesis conditions even when the resolution of the LCD 14 is low and the screen size is small.
  • FIG. 1 is a schematic diagram showing a state in which an object 116 is recorded on an order sheet 70 printed by the multifunction machine 1 according to the seventh embodiment of the present invention.
  • a plurality of check boxes 88 for selecting the synthesis conditions are printed on the order sheet 70, and the handwriting 88m in which the check boxes 88 are filled is optically recognized.
  • a check box 88 is arranged immediately below each of the plurality of samples 111 representing the composite result. Sample 111 corresponds to the synthesis condition notation described in the claims.
  • the user can either By filling the check box 88, it is possible to select a synthesis condition that is arranged immediately above the check box 88 and corresponds to the sample 111.
  • the handwriting 88m with check box 88 filled in corresponds to the compositing condition instruction.
  • FIG. 24 is a flowchart showing an image processing method according to the seventh embodiment of the present invention.
  • step SI 11 the control unit 50 sets a composite template corresponding to the filled check box 88.
  • the synthesis module 66 as a synthesis condition recognition unit determines which check box 88 is filled based on the pre-scanned image, and the synthesis template corresponding to the filled check box 88. Load the data from ROM52 into RAM53. As a result, the control unit 50 recognizes the synthesis condition represented by the sample 111 instructed in the synthesis condition instruction recorded on the order sheet 70.
  • the user can specify the synthesis condition by filling the check box 88 before and after recording the handwritten character or the like in the free drawing area 72. It can be set easily.
  • FIG. 25 is a schematic diagram showing an order sheet 70 printed by the multifunction machine 1 according to the eighth embodiment of the present invention.
  • the check boxes 91 and 76 for selecting the printing conditions are printed on the order sheet 70, and the handwriting 91m and 76m filled with the check boxes 91 and 76 are optically printed.
  • Set the printing conditions by recognizing it. The user can select any one of a plurality of types of printing paper forces by painting any one of the plurality of check boxes 91. In addition, the user can select the number of prints by filling one of the multiple check boxes 76.
  • the printing conditions are easily set. be able to.
  • FIG. 26 is a functional block diagram of the multifunction machine 1 according to the ninth embodiment of the present invention.
  • the third operation means 304 includes an operation unit 42 and a control unit 50 that executes the combination instruction receiving module. And a predetermined button operation for selecting a layout between an image selected in an image selection area 71 (to be described later) and an image representing the free drawing area 72 is received.
  • the first operation means 300 is configured by a control unit 50, an operation unit 42, and the like that execute a synthesis instruction receiving module, and receives a predetermined button operation as an order sheet request.
  • the first output means 310 includes a control unit 50 that executes a print control module, a card read / write unit 41, a print unit 30, and the like.
  • the first output means 310 reads the image data stored in the removable memory 3 and the template stored in the ROM 52 and prints an order sheet described later.
  • the second operation unit 302 includes a control unit 50, an operation unit 42, and the like that execute a compositing instruction receiving module, and receives a predetermined button operation as a composite image print request.
  • the order reading unit 306 includes a control unit 50 that executes a reading control module and an image selection instruction recognition module, a scan unit 20, and the like.
  • a print request for a composite image is received by the second operation unit 302
  • an order sheet is received.
  • 70 is read, the verification mark 81, the reference mark 82, and the filled check boxes 74m, 76m, 79m, 86m, and 87m are optically recognized, and the image of the free drawing area 72 is output.
  • the image selection instruction recognition module as the image selection instruction recognition unit is a program component that recognizes the image file selected by the user based on the image read from the check box 74.
  • the second output means 308 includes a control unit 50 that executes a synthesis module, a print unit 30, and the like, and prints a composite image of the image selected in the image selection area 71 and the image representing the free drawing area 72. . In the preview described later, the second output means 308 displays the composite image on the LCD 14 without printing.
  • FIG. 27 is a schematic diagram showing an example of an order sheet 70 printed by the multi-function peripheral 1 in a state where the removable memory 3 having the directory structure shown in FIG. 28 is connected.
  • the layout of order sheet 70 is defined by the order sheet template stored in ROM52.
  • FIG. 31 is a schematic diagram showing an example of an order sheet 70 in which necessary items are entered by the user.
  • the layout of each element on Order Sheet 70 82 82 is set as a standard.
  • the fiducial mark 82 is laid out in the upper left corner of the order sheet 70! /.
  • the order reading unit 306 recognizes the position of the reference mark 82, the position of each element described on the order sheet 70 can be relatively recognized.
  • an image file stored in the DCIM folder 90 of the removable memory 3 (for example, tree.jpg ⁇ face.jpg flower.jpg umi.jpg ⁇ maple.jpg ⁇ sunrise.jpg, mountain.
  • a thumbnail image 73 and a check box 74 stored in jpg, person.jpg) are laid out.
  • the check box 74 the main image of the image file corresponding to the thumbnail image 73m (for example, the sunrise.jpg thumbnail image) laid out immediately above the check box 74m can be selected as a compositing target.
  • the thumbnail image 73 corresponds to the image notation described in the claims.
  • the handwriting with the check box 74m filled corresponds to the image selection instruction described in the claims.
  • the image file stored in the DCIM folder 90 of the removable memory 3 may be represented as a main image, or the file name may be represented by printing an internal identifier.
  • the free drawing area 72 is a blank area for drawing a handwritten character (for example, “Kagasho”) or pasting a magazine clipping, and is surrounded by a rectangular frame.
  • the handwriting of characters and figures handwritten in the free drawing area 72, the printed material pasted in the free drawing area 72, and the characters and figures printed in the free drawing area 72 correspond to the objects described in the claims.
  • a check box 76 corresponding to each digit of the number of printed sheets from 0 to 99 and a check box 84 for selecting a preview are laid out. Select the tens digit of the number of printed sheets by filling the check box 76 laid out in the left column, and fill the check box 76 laid out in the right column to the first place. Can be selected.
  • an image 78 schematically showing a layout and a check box 79 are laid out.
  • a layout corresponding to the image 78 laid out immediately above the filled check box 79 can be selected.
  • the handwriting filled with the check box 79 corresponds to the composition condition instruction described in the claims.
  • a check box 86 and a check box 87 are displayed.
  • the check box 86 it is possible to select a boundary processing condition for whether or not to perform white bordering when handwritten characters are superimposed on the image selected in the image selection area 71.
  • the check box 87 the transparency of the layer representing the handwritten character (for example, 0%) can be selected. You may be able to set the width of the white border as the boundary processing condition! Or you can select another transparency as the overlay composition condition.
  • FIG. 29 is a flowchart showing a process for printing a composite image in the multifunction machine 1 according to the ninth embodiment of the present invention.
  • FIG. 30 is a schematic diagram showing screen transition of the LCD 14.
  • step S10 When the removable memory 3 is connected to the MFP 1, and the user selects “Print order sheet” with the cross-shaped button 12 and presses the Enter button 10 on the menu screen 100, the template of the order sheet 70 is selected on the LCD 14. Screen 102 is displayed.
  • the first operation means 300 accepts the order sheet request.
  • the process proceeds to step S12 (step S10).
  • step S12 a screen 104 indicating that the order sheet 70 is being printed is displayed on the LCD 14, and the first output means 310 prints the order sheet 70.
  • step S14 the user fills the check boxes 7 4, 76, 79, 86, and 87 of the printed order sheet 70 according to the image processing conditions to be set, and draws handwritten characters in the free drawing area 72. (See Figure 31).
  • step S16 the process proceeds to step S18 (step S16).
  • step S18 a screen 106 indicating that the composite image is being printed is displayed on the LCD 14, and the second output means 308 prints the composite image.
  • the menu screen is displayed on the SLCD14.
  • FIG. 32 is a flowchart showing details of the process of printing the order sheet 70 (step S12).
  • the first output means 3 10 gives an identifier to the image file stored in the DCIM folder 90 of the removable memory 3 (step S200).
  • a serial number as an identifier is assigned to each image file in the ASCII code order of the file name of the image file.
  • a checksum is set (step S 201).
  • the checksum is calculated according to the contents of data stored in the DCIM folder 90 of the removable memory 3 and stored in a predetermined area of the RAM 53.
  • step S10 the template selected in step S10 is read from the ROM 52 into the RAM 53 (step S202), and the first output means 310 assigns the thumbnail image of the image file and the verification mark 81 to the layout frame defined in the template and orders them.
  • Sheet 70 is printed (step S203).
  • FIG. 33 is a flowchart showing details of the process for printing a composite image (step S18).
  • step S300 the order reading means 306 reads the order sheet 70 as a low-resolution monochrome binary image, and images the positions of the verification mark 81 and the check boxes 74, 76, 79, 86, 87 based on the reference mark 82.
  • the verification mark 81 and the processing conditions selected by the filled check boxes are optically recognized.
  • step S302 the checksum corresponding to the verification mark 81 recognized in step S300 is compared with the checksum set in step S201, and the image file displayed on the order sheet 70 and the removable memory 3 are displayed. It is determined whether or not the image files stored in the file match. If they match, the process proceeds to step S304, and if they do not match, a screen is displayed on the LCD 14 that warns that the image file written in the order sheet 70 and the image file stored in the removable memory 3 are different ( Step S306
  • step S304 it is determined whether or not two or more image files are selected in the image selection area 71. If only one image file has been selected, the process proceeds to step S308. If two or more image files have been selected, a warning screen is displayed on the LCD 14 (step S3). Ten).
  • the range of the free drawing area 72 is recognized based on the reference mark 82 recognized in step S300 (step S308).
  • the position of the free drawing area 72 can be accurately determined even when the order sheet 70 is not placed at a predetermined position on the platen. Can be specified.
  • the order reading unit 306 reads the free drawing area 72 and the margin area 83 (see FIG. 27) in the vicinity thereof with high resolution (step S312).
  • a region of an object such as a handwritten character is extracted from the image representing the free drawing region 72 (step S314). If the image representing the free drawing area 72 is directly combined with the image selected in the image selection area 71 without performing step S314, an image representing the entire image including the margin of the free drawing area 72 is displayed in the image selection area 71. It is possible to create a composite image with the selected image.
  • step S316 the object such as the handwritten character in the region extracted in step S314 and the composition target image selected in the image selection region 71 are selected according to the layout selected in the layout selection region 77. Synthesize.
  • the second output unit 308 repeats printing of the composite image until the composite image is printed by the number of prints selected in the area 75 for selecting the number of prints (steps S318 and 320).
  • FIG. 34 shows a process (step S 3 14) for extracting the handwritten character area from the image representing the free drawing area 72 and superimposing the extracted area on the image selected in the image selection area 71. It is a flowchart which shows a detail.
  • a threshold value for separating the margin area 83 where the ground color of the order sheet 70 appears and the handwritten character is determined. Specifically, first, a luminance histogram of the margin area 83 is created. In this luminance histogram, as shown in FIG. 35, the distribution is concentrated on the luminance values corresponding to the ground color of the order sheet 70. Therefore, next, the threshold for extracting the image area representing the free drawing area 72 and the area of the object is set near the range where the distribution is concentrated. As a result, it is possible to set an appropriate value corresponding to the ground color of the printing paper used for the order sheet 70.
  • step S402 based on the specified threshold value, whether the image represents the free drawing area 72 or not. Extract the handwritten text area and set the alpha channel value of the area to the transparency selected in the check box 87 of the superimposing composition selection area 85, and the alpha channel value of the other areas to be completely transparent Set.
  • the alpha channel is a channel that represents the transparency of the layer of the image for each pixel.
  • step S403 noise included in the region extracted as the handwritten character is removed. Specifically, the transparency of the island-like area composed of a predetermined number of pixels or less in the extracted area is set to be completely transparent.
  • FIG. 36 (b) is a schematic diagram showing the superposition synthesis process when the transparency of the area corresponding to noise in the alpha channel is not changed, that is, when noise removal is not performed.
  • step S404 if white bordering is selected as the superposition synthesis condition, the opaque region of the alpha channel is expanded (step S404).
  • step S316 the background color of the order sheet 70 around the handwritten character is superimposed on the image selected in the image selection area 71, so that the handwritten character is trimmed to form a composite image. (See Figure 36 (d)).
  • the processing in step S314 has been described in detail above.
  • the user easily recognizes image processing conditions such as accessible image data, selectable layout, number of prints, and boundary processing conditions. be able to.
  • image processing conditions such as accessible image data, selectable layout, number of prints, and boundary processing conditions. be able to.
  • the user can easily select an image to be combined from accessible image data, select an image processing condition, and input a handwritten message to be combined with an image to be combined. Therefore, even if the hardware providing the HMI is a simple system, the user can easily display a desired image and a handwritten message on the system.
  • the image 78 showing the layout and the thumbnail image 73 representing the photographic image to be combined are printed together with the rectangular frame surrounding the free-drawing area 72, the user can select the photographic image and the handwritten character.
  • An object such as a handwritten character can be recorded in the free drawing area 72 while accurately predicting the force with which the etc. are combined.
  • the order sheet 70 has a reference mark 82, a handwritten message, etc. Since the position of the free drawing area 72 in which is written can be relatively recognized on the image representing the order sheet 70, the actual free drawing area 72 can be accurately recognized.
  • the blank area 83 is read to recognize the ground color of the order sheet 70, the handwritten character area can be accurately extracted from the image representing the free drawing area 72. Furthermore, by reading the order sheet 70 at a low resolution and reading the free drawing area 72 and the margin area 83 in the vicinity thereof at a high resolution, the reading time of the order sheet 70 can be shortened without degrading the image quality of the composite image. it can.
  • the image processing system of the present invention may be constituted by a single printer provided with an optical sensor for detecting the paper position provided in the paper transport path.
  • the check box filled in the order sheet may be recognized by the optical sensor for detecting the paper position.
  • thumbnail image 73 instead of laying out the thumbnail image 73 in the image selection area 71, an identifier or a file name may be laid out. In this case, it is desirable that the thumbnail image 73 and the corresponding identifier be displayed on the LCD 14.
  • an order sheet 70 that can select two image files in the image selection area 71 is used.
  • FIG. 37 is a schematic diagram showing screen transitions according to the tenth embodiment of the present invention.
  • a screen 2021 for selecting a layout is displayed on the LCD 14.
  • the screen 2021 displays an icon 203 that schematically represents the layout.
  • the layout indicated by the icon is selected and the first operation unit 300 is selected.
  • a print request for an order sheet 70 corresponding to the layout is received (step S10).
  • FIG. 38 is a schematic diagram showing an example of an order sheet 70 according to the tenth embodiment of the present invention.
  • check boxes 74a and 74b are printed for each thumbnail image 73.
  • the user can select two image files by filling one of the check boxes 74a and filling one of the check boxes 74b.
  • the free drawing area 72 a rectangular frame indicating areas 89a and 89b in which the image represented by the image file selected in the image selection area 71 is laid out is written.
  • the user can draw handwritten characters in the free drawing area 72 outside the areas 89a and 89b.
  • the positions and sizes of the frames 89a and 89b with respect to the free drawing area 72 coincide with the positions and sizes of the images in which the free drawing area 72 in the composite layout of two images selected by the user is read.
  • the order sheet 70 having a mode corresponding to the layout selected by the user is output, the user can write a handwritten message or the like in the free drawing area 72.
  • the result of synthesis with the image to be synthesized.
  • two images to be combined can be selected.
  • An order sheet receiving terminal as an eleventh embodiment of the image processing system of the present invention is an apparatus for reading an order sheet and receiving a print order.
  • FIG. 39 is a schematic diagram showing a printing system using the order sheet receiving terminal according to the eleventh embodiment of the present invention.
  • the printing system 6 includes an order sheet receiving terminal 4, a printer 212 connected to the order sheet receiving terminal 4, a PC 210, and a printer 211 connected to the PC 210! RU
  • the order sheet reception terminal 4 is installed, for example, in a store providing a digital image print service, a convenience store, or the like.
  • the order sheet receiving terminal 4 includes an input unit 213, an operation unit 214, an order reading unit 306, and an output unit 215.
  • the operation unit 214 has substantially the same function as the second operation unit of the ninth embodiment.
  • the output unit 215 has substantially the same function as the second output unit of the ninth embodiment. Are the same.
  • the input unit 213 is an interface for inputting data stored in the removable memory 3.
  • the order sheet reception terminal 4 receives a predetermined button operation by the user as a read request for the order sheet 70 by the operation unit 214, and is provided in the order sheet reception terminal 4 by the output unit 215. Display a preview of the print result of the composite image on the display device that does not.
  • the composite image is generated based on the image input from the removable memory 3 by the input unit 213 and printed by the printer 212 connected to the order sheet receiving terminal 4.
  • the setting of the number of prints is accepted by a key operation.
  • FIG. 40 is a schematic diagram showing screen transition of the LCD 14 in the twelfth embodiment of the present invention.
  • FIG. 1 is a flowchart showing a process for printing a composite image in the image processing system in the twelfth embodiment of the present invention.
  • step S330 the multi function device 1 displays the test mode screen 220 on the LCD 14.
  • a composite image 228 composed of the handwritten characters described in the free drawing area 72 and the image represented by the image file selected in the image selection area 71 is displayed.
  • a “print” button 222 and a number setting box 224 are displayed on the test mode screen 220.
  • a desired number of prints can be set in the number setting box 224 by operating the cross button 12 up and down.
  • the cross button 1 2 is operated to the left or right, the “print” button 222 or the “return” button 226 is selected.
  • the OK button 10 is pressed while the “Print” button 222 is selected, the set print
  • the print request for the number of sheets is accepted, and the process proceeds to step S318 (step S334).
  • the second output unit 308 repeats the printing of the composite image until the composite image is printed for the set number of prints.
  • step S332 the composite image 228 may be displayed on the test mode screen 220 by the second output unit.
  • the user sets the desired number of prints. There is no need to re-read the order sheet just to set the number of copies. In other words, when setting the desired number of printed sheets, the user can set the number of printed sheets with a simple button operation that does not need to read an order sheet that takes a long time, so the work time can be reduced. .
  • the free drawing area 72 image obtained when the order sheet 70 is read at a low resolution and the thumbnail image of the image file selected in the image selection area 71 are combined and displayed on the screen. Thereafter, when a user's print request is received, the image of the free drawing area 72 obtained when the order sheet 70 is read at high resolution and the main image of the image file selected in the image selection area 71 are combined and printed.
  • FIG. 42 is a schematic diagram showing screen transition of the LCD 14 in the thirteenth embodiment of the present invention
  • FIG. 43 shows processing for printing a composite image by the image processing system in the thirteenth embodiment of the present invention. It is a flowchart to show.
  • step S340 MFP 1 uses the image in free drawing area 72 read in low resolution in step S300 and the thumbnail image of the image file selected in image selection area 71 as the image processing conditions set in order sheet 70.
  • the composite image 23 8 synthesized based on the result is displayed on the test mode screen 230 of the LCD 14.
  • the “print” switch 232 displayed on the test mode screen 230 is selected by operating the cross button 12 and the enter button 10 is pressed, a scan request is accepted (step S342), and the process proceeds to step S312.
  • the free drawing area 72 is read with the resolution, the main image of the image file selected in the image selection area 71 and the high resolution image in the free drawing area 72 are combined, and printing is performed for the set number of sheets.
  • the test mode screen 230 also includes a “return” switch 236. When the user selects the “return” switch 236 using the cross-shaped button 12 and presses the enter button 10, printing is not performed (step S342). 1000 is displayed.
  • the image in the free drawing area 72 obtained when the order sheet 70 is read at a low resolution and the image selection area 71 are selected.
  • the thumbnail images of the image file are combined based on the image processing conditions set in the order sheet 70 and displayed on the test mode screen 230. For this reason, the user can make a print request after confirming the approximate print result. Therefore, the image processing system according to the thirteenth embodiment of the present invention can save printing paper and ink consumed in test printing. Further, in the image processing system according to the thirteenth embodiment of the present invention, the composite image 238 on the test mode screen 230 is displayed based on the image and thumbnail image read at a low resolution. The time required can be reduced.
  • the image processing system it is possible to select an image to be combined in the order sheet 70, and to set the layout, the number of printed sheets, and the boundary processing conditions as image processing conditions. After reading the sheet 70, a handwritten message or the like is separately read and combined with the selected image.
  • FIG. 44 is a schematic diagram showing an order sheet 70 according to the fourteenth embodiment of the present invention.
  • the order sheet 70 includes an image selection area 71, an area 75 for selecting the number of prints, a layout selection area 77, and a superimposition / combination condition selection area 85.
  • FIG. 45 is a schematic diagram showing screen transition of the LCD 14 according to the fourteenth embodiment of the present invention
  • FIG. 46 is a flowchart showing processing for printing a composite image by the image processing system according to the fourteenth embodiment of the present invention
  • FIG. 47 is a schematic diagram showing the user document 260.
  • the user places the order sheet 70 on the document table (not shown), selects “print composite image” with the cross-shaped button 12 on the menu screen 1000, and presses the OK button 10. Then, the second operation unit 302 receives the scan request and starts the process of printing the composite image.
  • the multifunction device 1 reads the order sheet 70 as a low-resolution monochrome binary image, recognizes the image to be composited and the image processing conditions, and performs steps S302 and S304. ! / When various errors are checked, the document set standby screen 240 is displayed on the LCD 14.
  • the multifunction device 1 displays a screen 242 indicating that the composite image is being printed on the LCD 14.
  • the multifunction device 1 reads the entire image of the document table as a low-resolution monochrome binary image, and specifies the composition target area of the document table from the read image (step S352).
  • the entire user document 260 may be set as the synthesis target area, or an area excluding the area corresponding to the mount of the user document 260 may be set as the synthesis target area. Thereafter, the process of reading the synthesis target area as a target area such as handwritten characters at a high resolution, generating a synthesized image, and printing is the same as in the first embodiment.
  • the force image processing system described in the example in which the result of combining the image of the free drawing area 72 and the image selected in the image selection area 71 is printed is free.
  • Data representing an image obtained by combining the image in the drawing area 72 and the image selected in the image selection area 71 may be output to a removable memory, a communication line, or the like.
  • the image processing system of the present invention may be configured by a PC and a printer connected to the PC and an image scanner, instead of the multifunction device 1 alone.
  • an interface such as a USB (Universal Serial Bus) interface for connecting the PC and the image scanner and a USB interface for connecting the PC and the printer are described in the claims “Print Unit and Scan Unit”. Corresponds to the interface to which and are connected.
  • USB Universal Serial Bus
  • FIG. 48 is a table summarizing the combinations of the components arranged in the order sheet described so far.
  • the combination of components placed on the order sheet is not limited to this table. That is, when the control unit 50 accepts an order sheet request, the components to be printed on the order sheet that should be selected by operating the cross button 12 or the enter button 10 or preset in the order sheet template are shown in this table. Other combinations may be used. In addition, it is possible to appropriately change whether the various printing conditions are user selection by the cross button 12 or the decision button 10 or user selection of a plurality of options presented on the order sheet.
  • FIG. 50 is a diagram showing the appearance of the multifunction machine 1 as the fifteenth embodiment of the image processing system according to the present invention.
  • FIG. 51 is a block diagram showing the multifunction machine 1.
  • the multi-function device 1 has a removable memory 20 and a not-shown! PC (Personal Computer) force to print an input image and a copy function.
  • the image processing system may include a scanner having an image reading function, a printer having a printing function, and a PC having a scanner and a printer control function.
  • the scan unit 50 is mainly accommodated in the upper case 14, and includes an illumination unit 52, an image sensor 54, an AFE (Analog Front End) unit 56, a sensor driving unit 74, a sensor carriage driving unit 76, and the like.
  • the illumination unit 52 is configured by a fluorescent tube lamp or the like that is long in the main scanning direction.
  • the image sensor 54 driven by the sensor driving unit 74 is a linear image sensor such as a color CCD linear image sensor including a RGB three-channel photoelectric element group.
  • the image sensor 54 is mounted on a sensor carriage (not shown) that moves in parallel with the transparent document table 12.
  • the image sensor 54 outputs an electrical signal correlated with the density of the optical image of the original image formed on the light receiving surface by a lens and a mirror (not shown).
  • the sensor carriage drive unit 76 includes a motor, a drive belt, a drive circuit, etc. (not shown).
  • the sensor carriage drive unit 76 reciprocates the sensor carriage along a guide rod (not shown) installed perpendicular to the main scanning direction.
  • a guide rod (not shown) installed perpendicular to the main scanning direction.
  • the AFE section 56 is used for analog signals such as amplification and noise removal. Signal processing circuit, AZD converter, etc.
  • the print unit 86 is mainly housed in the lower case 16, and includes a print head 84 for forming an image on a sheet by an ink jet method, a head carriage driving unit 78, a paper feeding unit 80, and a print control unit 82 for controlling them. Etc.
  • the print unit 86 may be configured to support other printing methods such as a laser method.
  • the print head 84 is provided on a head carriage (not shown) on which an ink cartridge is mounted, and includes a nozzle, a piezo element, a piezo drive circuit that outputs a drive signal to be applied to the piezo element, and the like.
  • the piezo drive circuit can control the ink droplets ejected from the nozzles in three stages, large, medium and small, according to the waveform of the drive signal applied to the piezo element.
  • the piezo drive circuit applies a drive signal having a predetermined waveform to the piezo element in accordance with the control signal output from the print control unit 82.
  • the head carriage drive unit 78 includes a motor, a drive belt, a motor drive circuit, etc. (not shown).
  • the head carriage drive unit 78 reciprocates the print head 84 in the direction perpendicular to the paper transport direction.
  • the paper feeding unit 80 includes a paper transport roller, a motor, a motor drive circuit, and the like (not shown).
  • the paper feeding unit 80 conveys the paper in a direction perpendicular to the moving direction axis of the print head 84 by rotating the paper carrying roller.
  • the print control unit 82 has a buffer memory to which print data is sequentially transferred from the RAM 60, a function for controlling the timing for outputting the print data stored in the notch memory to the print head 84 according to the position of the head carriage, and the head carriage.
  • the ASIC has a function for controlling the drive unit 78 and a function for controlling the paper feeding unit 80.
  • An external memory controller 70 that functions as an access unit is connected to the removable memory 20 inserted from the card slot 18.
  • the data stored in the removable memory 20 is read by the external memory controller 70 and transferred to the RAM 60.
  • the operation unit 68 includes an LCD 24 for displaying a menu, and various push buttons such as a cross button 22 for operating the menu, an OK button 28, a cancel button 21, a print instruction button 30, and a numeric keypad 26.
  • the operation unit 68 may be configured with a touch panel, a pointing device, or the like.
  • the communication unit 69 functioning as an access unit is a communication interface for the control unit 58 to communicate with an external system such as a PC.
  • the communication unit 69 communicates with an external system through a LAN, the Internet, a USB, or the like.
  • the control unit 58 includes a RAM 60, a ROM 62, and a CPU 64.
  • the CPU 64 executes the control program stored in the ROM 62 and controls each part of the multifunction device 1.
  • the ROM 62 is a nonvolatile memory that stores a control program.
  • the RAM 60 as a recording medium is a volatile memory in which various data such as a control program, an image read by the scan unit 50, a color gamut table of a background image, and the like are temporarily stored.
  • the control program may be stored in the ROM 62 via a network from a remote server, or may be stored in the ROM 62 via a computer-readable recording medium such as the removable memory 20.
  • the control unit 58 functions as a color reduction processing unit, an order sheet print control unit, a composition unit, and a composition print control unit by executing a control program.
  • the digital image processing unit 66 is a dedicated circuit such as a DSP that performs image processing such as JEPG image decoding, resolution conversion, unsharp processing, gradation correction, binarization, and color separation processing in cooperation with the CPU 64. is there.
  • FIG. 52 is a flowchart showing the flow of order sheet printing processing.
  • the processing shown in FIG. 52 is started when the order sheet printing mode is selected from the mode selection menu, and is executed by the control unit 58 executing a predetermined module of the control program stored in the ROM 62.
  • control unit 58 sets a user image that is a photographic image to be synthesized (step S100). Specifically, for example, the control unit 58 displays the user image stored in the removable memory 20 on the LCD 24, and receives a selection instruction of the user image by operating the cross button 22, the OK button 28, etc. The user image corresponding to is set as the compositing target.
  • the user image power also generates a background image in cooperation with the digital image processing unit 6 in step S102, 104, 106, 108, 110.
  • the user image that is the basis of the background image may be the highest-resolution image that is combined with an object such as handwritten characters, or a thumbnail image.
  • a background image By forming a background image based on the thumbnail image, the processing time is reduced. It can be shortened.
  • a user image such as JPEG format, when decoded, has three RGB color channels. The color gamut of the user image is composed of 16777216 (256 x 256 x 256) color value power when the gradation value of each channel is composed of 1 byte.
  • the color gamut of a user image extends over the entire color space, it is extremely difficult to optically recognize a character area written with a color pen on the printed user image. If the color gamut of the user image and the character area do not overlap, the pixels in the specific color gamut can be determined as the character area. To extend the range of the color gamut of objects such as characters that can be written on the user image, that is, to increase the colors available to the user, the user printed under the object The color gamut of the image must be narrowed.
  • various image processing executed by the multifunction device 1 to reduce the color gamut of the user image will be described.
  • FIG. 53 is a schematic diagram showing the color gamut of the user image and the background image printed on the order sheet. Since the object represented by the user image is arbitrary, the color gamut of the user image is a full color (for example, 16777216 colors). In order to narrow the color gamut of the background image, the control unit 58 first converts the user image into a gray tone image (step S102).
  • FIG. 54 is a diagram showing changes in gradation characteristics in the process until the user image power and the background image are generated.
  • a user image having the gradation characteristics shown in Fig. 54 (A) is converted into a graytone image
  • the gradation characteristics of the graytone image match the histograms of the RGB channels as shown in Fig. 54 (B). Will come to do.
  • the control unit 58 may obtain the brightness from the RGB, convert the RGB tone value to a value having a linear relationship with the brightness, generate a gray tone image, and convert the R value to the G channel tone value.
  • a gray-tone image may be generated by converting the gradation values of the B channel and the B channel.
  • the control unit 58 converts the gray tone image into a cyan monotone image (step S104). Specifically, for example, the control unit 58 sets all the gradation values of the G and B channels to one fixed value (for example, 256 Z256) while leaving only the gradation value of the R channel that is the complementary color of cyan. .
  • the hue of the monotone image is not particularly limited to cyan, but may be a single hue, but the hue of the ink color of the print unit 86 such as cyan, magenta, and yellow is desirable.
  • control unit 58 flattens the R channel histogram of the cyan monotone image.
  • Step S106 Specifically, for example, the control unit 58 sequentially adds the frequency of the gradation value of the R channel in order of the minimum value power, and when the value is closest to the target frequency, the gradation value [r to The minimum gradation value R after flattening is set to the pixel of [r].
  • the controller 58 sequentially adds the frequency of the gradation value of the R channel in order of the minimum value power, and when the value is closest to the target frequency, the gradation value [r to The minimum gradation value R after flattening is set to the pixel of [r].
  • the tone value of the channel ! The frequency of each tone value is added again in order, and the target frequency is reached.
  • the control unit 58 determines the average gradation value of the surrounding pixels.
  • a new gradation value may be set according to the above, or a new gradation value may be set at random.
  • the monotone image has the gradation characteristics shown in Fig. 54 (D).
  • the contrast of the band (value range) of the gradation value that is less frequent than the histogram flatness is set.
  • the contrast of a band with a high gradation value can be improved.
  • the control unit 58 forms a background image by compressing the gradation value of the cyan monotone image into a noise light band (step S108).
  • the resulting background image is lighter than the original user image because the R channel tone values are concentrated in the highlight band.
  • the control unit 58 converts the gradation value of the R channel so that the shadow level of the R channel of the cyan monotone image increases to a predetermined value (for example, 200/255).
  • the gradation value conversion method follows the flatness of the histogram.
  • the background image formed by compressing the gradation value of the R channel of the monotone image shown in FIG. 54 (D) into the highlight band has the gradation characteristics shown in FIG. 54 (E).
  • FIG. 55 shows an example of an order sheet image.
  • the order sheet image as a whole is stored in the ROM 62 as one image or a combination of image component drawing commands.
  • the position reference marks 90 and 98 are marks for making the control unit 58 recognize the position and inclination of the order sheet placed on the document table 12.
  • the block code 92 is a mark for causing the control unit 58 to recognize the type of the order sheet.
  • the plurality of check marks 94 are marks for causing the control unit 58 to recognize composite print conditions such as the number of copies to be printed and boundary processing conditions between handwritten characters and user images.
  • the sample patch 96 is a chart in which the color gamut matches the background image and the density is uniformly converted from transparent to the maximum density of the background image. There may be one specimen patch 96 or a plurality of areas having different color gamuts.
  • the background image is assigned to the rectangular free-drawing area 100 in which the coordinates of the opposite vertices are recorded in ROM62.
  • the auxiliary image area 102 is stored in the coordinate vertices 62 of the opposite vertices, and the user image is assigned with the same gradation characteristics.
  • the user image assigned to the auxiliary image area 102 may be the highest resolution image or a thumbnail image V.
  • FIG. 56 shows an example of an order sheet image to which a background image is assigned.
  • step S112 the control unit 58 causes the print unit 86 to print the order sheet image to which the background image is assigned.
  • the above-described background image assigning process to the order sheet and the order sheet printing process are executed for each band of the image.
  • the control unit 58 converts the resolution of the background image when the background image or the user image is allocated within the band while executing the print processing of the order sheet image before the allocation for each band.
  • the print processing is executed after correcting the image quality of the user image, assigning the background image and the user image, and the like.
  • FIG. 57 is a flowchart showing the flow of order sheet printing processing.
  • the processing shown in FIG. 57 is executed by the control unit 58 executing a predetermined module of the control program.
  • the control unit 58 cooperates with the digital image processing unit 66 to convert the resolution of the background image or the user image according to the size of the allocated area. It also converts the entire template image to print resolution.
  • step S122 the control unit 58 adjusts the image quality of the user image allocated to the auxiliary image region 102 in cooperation with the digital image processing unit 66. Specifically, for example, the control unit 58 performs unsharp processing or the like.
  • step S124 the control unit 58 executes a color separation process. Specifically, for example, the control unit 58 converts the gradation value of the order sheet image into a value in the RGB color space and a value in the CMY color space (K (black) or the like may be provided). Convert. As a result, in principle, the free rendering area 100, which is a cyan monotone image in which the G and B channels are fixed values and only the R channel has gradation, has gradation characteristics with gradation only in the C (cyan) channel. Become.
  • the M and K channels in the free drawing area 100 are used.
  • the gray level is narrow, narrow in the band, and wide.
  • control unit 58 executes halftone processing.
  • the basic halftone process is a process that converts the array of multi-tone color values into a binary array that does not force the ink droplets to be ejected.
  • the multi-tone color value is one of four values: not ejected, ejecting small ink droplets, ejecting medium ink droplets, or ejecting large ink droplets For each channel.
  • the gradation that can be expressed by ink droplets is four gradations, an error occurs in the gradation of each pixel. By distributing this error to neighboring pixels, many gray scales can be expressed in a pseudo manner.
  • the ROM 62 stores a lookup table that describes the four values to be assigned to the pixel of interest for each CMY gradation and the error assigned to the neighboring pixels.
  • the ejection amount of the ink droplet group per unit area ejected from the print head 84 is such that the lower the density, the higher the composition ratio of the smaller ink droplets, and the higher the density, the larger the ink droplets. The composition ratio becomes high.
  • control unit 58 executes an interlace process for rearranging the four-valued injection data formed by the halftone process in the order of injection (step S128).
  • step S130 the control unit 58 outputs the ejection data to the print control unit 82 in the order of ejection, and the print control unit 82 drives the print head 84 based on the ejection data stored in the buffer memory sequentially.
  • FIG. 59 and FIG. 60 are schematic diagrams for explaining how the density of an image is read when an image having a uniform density change on a sheet is formed with ink droplets of a plurality of sizes.
  • FIG. 110, 112, 114, 116, 118, 120 ⁇ Scan unit 50 scans one pixel.
  • Reference numerals 110 and 112, 114 and 116, and 118 and 120 are groups of pixels corresponding to the same color value (device color) of the print unit 86, respectively. Since one pixel read by the scan unit 50 is extremely small, even if the pixels correspond to the same color value, the configuration of the ink droplets in the pixel is not uniform as shown in FIGS.
  • the ratio of the area occupied by ink droplets in the pixels is different.
  • the variation in the ratio of the area occupied by ink droplets within the pixels corresponding to the same color value increases as the ink droplets increase.
  • the smaller the variation in the ratio of the area occupied by ink droplets in the pixels corresponding to the same color value the higher the determination accuracy. That is, in order to improve the accuracy of determining the area of the background image, it is desirable to print the background image and the specimen patch 96 using as small an ink droplet as possible.
  • the control unit 58 forms a light background image to the extent that large ink droplets and medium ink droplets are not ejected before halftone processing.
  • control unit 58 or the print control unit 82 converts the value for ejecting the large ink droplet and the medium ink droplet into a non-ejection value.
  • control unit 58 or the print control unit 82 converts the value for ejecting the large ink droplet and the medium ink droplet into the value for ejecting the small ink droplet.
  • the print control unit 82 outputs a drive signal having a waveform for ejecting a small ink droplet from the piezo drive circuit in accordance with a value for ejecting a large ink droplet and a medium ink droplet.
  • the lookup table does not have a value for ejecting large ink drops and medium ink drops.
  • the control unit 58 does not have a value for ejecting large ink droplets and medium ink droplets. Execute the process.
  • FIG. 49 is a plan view showing an example of an order sheet on which handwritten characters 126 (Hello! Are entered after being printed by the above processing.
  • a background image is printed in the free drawing area 100.
  • the user image is printed with the same gradation characteristics.
  • the user can record an object such as a handwritten character 126 on the background image printed in the free drawing area 100.
  • a seal or the like may be pasted to record the object to be synthesized with the user image.
  • the user can set desired printing conditions by painting any check mark 94.
  • the user image which is the original image of the background image, and the object such as the handwritten character 126 are synthesized based on the free drawing area 100 as the reference of the allocation position
  • the user can create the background image printed in multiple tones.
  • An object such as a handwritten character 126 can be recorded in the free rendering area 100 while recognizing the spatial configuration of the user image based on the spatial configuration. That is, the user can record an object such as the handwritten character 126 in the free drawing region 100 while recognizing which region of the user image the handwritten character 126 is assigned to.
  • the user can reliably recognize the spatial structure of the user image regardless of the light background image power regardless of the tone characteristics of the user image. can do. Furthermore, since the user image is printed with the same gradation characteristics in the auxiliary image area 102, the user is based on the background image printed in the free drawing area 100 and the user image printed in the auxiliary image area 102. Thus, the positional relationship between the user image and the object such as the handwritten character 126 can be recognized more reliably.
  • the user can record the object in the free rendering area 100 with any hue other than cyan.
  • the background image is dimmed, even if it has the same hue as the background image, if the color differs from the background image in brightness and saturation, the object is recorded in the free drawing area 100 using that color. be able to.
  • the area of the object recorded in the free rendering area 100 with an arbitrary hue different from that of the background image can be optically recognized by the multifunction device 1, and even if the hue is the same as that of the background image, the brightness and saturation are different. This means that the multifunction device 1 can optically recognize the area of the recorded object.
  • the background image is not necessarily a single hue as long as the color gamut of the user image is reduced. If the maximum color gamut of the background image is determined in advance, it is sufficient to guide the user to specify a writing instrument of a color outside the color gamut of the background image.
  • FIG. 61 is a flowchart showing a flow of processing in which the multifunction device 1 reads an order sheet, and synthesizes and prints an object such as a handwritten character recorded on the order sheet and a user image.
  • the order sheet is read to the multifunction device 1 by a predetermined operation using the operation unit 68 in a state where the order sheet on which the user has written handwritten characters is placed on the document table 12 of the multifunction device 1. Start by instructing.
  • step S200 the multi-function device 1 reads the order sheet in binary. Specifically, the document placed on the document table 12 is read by the scan unit 50, and the read original image is stored in the RAM 60.
  • the control unit 58 binarizes the image of the document stored in the RAM 60 with a predetermined threshold (for example, 128Z256).
  • step S202 the control unit 58 sets printing conditions corresponding to the filled check mark 94 by performing OMR (Optical Mark Recognition) processing on the binarized document image.
  • OMR Optical Mark Recognition
  • the position of the image parts (background image, specimen patch, check mark, etc.) printed on the order sheet is specified based on the positions of the position reference marks 90 and 98.
  • step S204 the multi function device 1 reads the specimen patch 96 in full color. Specifically, the area of the specimen patch 96 is read by the scan unit 50 with reference to the positions of the position reference marks 90 and 98, and the read image of the specimen patch 96 is stored in the RAM 60.
  • step S206 the control unit 58 generates a color gamut table of the background image based on the sample patch 96 image.
  • the color gamut table of the background image matches the color gamut of the background image This is a lookup table in which the color gamut of the sample patch 96 is stored.
  • FIG. 62 is a graph showing an example of data stored in the color gamut table of the background image.
  • the control unit 58 In order to accurately recognize the background image area in the free drawing area 100, the control unit 58 must completely store the color gamut of the sample patch whose color gamut matches the background image. Therefore, modeling to store the color gamut of the sample patch in the limited RAM 60 capacity is required. Since the sample patch and the background image are images of a single hue of cyan, in the image read from the sample patch, theoretically only the R channel has gradation, and the B and G channels are fixed values (for example, 256Z256) gradation characteristics. However, in practice, gradation appears in the B and G channels due to the separation accuracy and the difference in device colors between the scan unit 50 and the print unit 86.
  • the control unit 58 stores the color gamut of the sample patch and the background image with a small capacity by storing how the B and G channel gradations are distributed with respect to the R channel gradation. be able to. Specifically, the control unit 58 examines the RGB3 channel value of the sample patch image for each pixel, and detects the maximum and minimum values of the G and B channels with respect to an arbitrary R channel value. Color gamut can be stored.
  • the control unit 58 examines the RGB3 channel value of the sample patch image for each pixel, and detects the maximum and minimum values of the G and B channels with respect to an arbitrary R channel value. Color gamut can be stored.
  • FIG. 63 is a flowchart showing the flow of the background image color gamut table generation process.
  • the controller 58 resets the minimum value (Gmin, Bmin) and maximum value (Gmax, Bmax) of the G and B channels (step S300), and then repeats the following processing for all the pixels of the sample patch image ( Step S302). Specifically, the control unit 58 sets the values (Gmax, Gmin, Bmax, Bmin) corresponding to all the R values to (0, 255, 0, 255).
  • step S304 and step S306 the control unit 58 stores the G channel value of the target pixel in association with the R channel value of the target pixel, and is larger than the maximum value (Gmax) of the G channel. If it is larger, the maximum G channel value (Gmax) associated with the R channel value of the target pixel is updated to the G channel value of the target pixel.
  • control unit 58 stores the G channel value of the target pixel in association with the R channel value of the target pixel, and stores the minimum value (Gm is smaller than in)! /, and if it is smaller, it is associated with the R channel value of the target pixel! / Update the G channel minimum value (Gmin) to the G channel value of the target pixel.
  • step S308 and step S310 the control unit 58 stores the value of the B channel of the target pixel in association with the value of the R channel of the target pixel, and is larger than the maximum value (Bmax) of the B channel. If it is large, the maximum B channel value (Bmax) associated with the R channel value of the target pixel is updated to the B channel value of the target pixel.
  • step S316 and step S318, the control unit 58 determines whether the B channel value of the target pixel is stored in association with the R channel value of the target pixel and is smaller than the minimum value (Bmin) of the B channel. If it is smaller, the minimum value (Bmin) of the B channel associated with the R channel value of the target pixel is updated to the B channel value of the target pixel.
  • the maximum and minimum values of the B and G channels are stored for all values of the R channel, and the color gamut of the sample patch 96 is completely stored.
  • the data size of the color gamut table that stores the maximum and minimum values of the B and G channels in association with the R channel values is only 1 Kbyte (256 X 2) when the gradation value of each channel is 1 byte. X 2 bytes).
  • the background color gamut table generation process has been described above.
  • step S208 the multi function device 1 reads the free drawing area 100.
  • the free drawing area 100 in which handwritten characters and the like are written on the printed background image is read by the scan unit 50 with reference to the positions of the position reference marks 90 and 98, and the read free drawing is read.
  • the image of area 100 is stored in RAM60.
  • step S210 the control unit 58 divides the object area such as handwritten characters from the image of the free drawing area 100. Specifically, the control unit 58 adds a channel (alpha channel) indicating transparency to the image of the free drawing area 100, and sets the background image area to be transparent.
  • a channel alpha channel
  • FIG. 64 is a flowchart showing the flow of the object area dividing process.
  • the control unit 58 repeats the following processing for all the pixels in the free drawing area 100 (step S400).
  • step S402 the control unit 58 determines that the B and G channel values of the target pixel are the background image. It is determined whether or not the force is within the range of the B and G channel values stored in the color gamut table in association with the R channel value of the target pixel. That is, the control unit 58 stores the R channel value of the target pixel in association with the R channel value, and the maximum value of the G channel is equal to or larger than the G channel value of the target pixel and corresponds to the R channel value of the target pixel.
  • the minimum value of the G channel stored in addition to the G channel value of the target pixel is stored in association with the value of the R channel of the target pixel, and the maximum value of the B channel is stored in association with the value of the target pixel. It is determined whether the minimum value of the B channel stored in association with the R channel value of the target pixel is equal to or greater than the B channel value and less than the B channel value of the target pixel.
  • the control unit 58 sets the target pixel as a transparent pixel (step S404). That is, the alpha channel of the target pixel is set to a value indicating transparency.
  • the area of the object such as a handwritten character is set to a value obtained by reading the free drawing area 100, and the background image area is set to be transparent, as shown in FIG.
  • an image 142 of an object such as a handwritten character is generated from the image 140 in the free drawing area 100.
  • step S212 the control unit 58 superimposes and composites the region of the object on the user image. Specifically, the control unit 58 uses the alpha channel of the object image 142 to add the color value of the object image 142 and the color value of the user image 146 for each RGB channel. Thus, a composite image 144 is formed.
  • step S214 the multi function device 1 prints the composite image 144 in which the area of the object is superimposed on the user image.
  • the control unit 58 and the print unit 86 execute the processing shown in FIG. 57 and print the composite image 144.
  • the print unit 86 operates in the normal mode, and ejects large, medium, and small ink droplets to form a composite image on the paper.
  • the background image may be an image representing an edge component of the user image.
  • the control unit 58 performs edge detection processing on the user image stored in the RAM 60 from the removable memory 20 to form a differential image of the user image.
  • the differential image is an image having a value obtained by calculating the change width of the color value between adjacent pixels in the horizontal direction and the vertical direction and calculating the change width with a predetermined threshold value for each pixel. Even when the multifunction device 1 prints such a background image representing the edge component of the user image in the free rendering area 100, the user can recognize the spatial configuration of the user image. Also, since the image representing the edge component is a binary image, the color gamut is extremely narrow. Therefore, the user can record an object such as a handwritten character in the free drawing area 100 using many colors.
  • FIG. 66 shows an example of an order sheet image according to the seventeenth embodiment of the present invention.
  • a rectangular frame 104 is a mark indicating the outer edge of the free drawing area 100.
  • a color within the color gamut of the background image is set in the rectangular frame 104.
  • Cross marks 106, 108, 110, and 112 are marks for making the control unit 58 recognize the reading area.
  • the cross marks 106, 108, 110, and 112 are arranged near the free drawing area 100.
  • intersection of the line connecting the center of the cross mark 106 and the center of the cross mark 110 and the line connecting the center of the cross mark 112 and the center of the cross mark 108 is the intersection of the diagonal lines of the rectangular free-drawing area 100
  • the positions of the cross marks 106, 108, 110, and 112 are set so that they match!
  • FIG. 67 shows an example of an order sheet image to which a background image is assigned.
  • FIG. 68 is a plan view showing an example of an order sheet in which the balloon 114 and the balloon 116 (H i! Are written after being printed by the above process.
  • a background image is printed in the free drawing area 100.
  • the user image is printed with the same gradation characteristics.
  • the user can freely record handwritten characters on the background image printed in the free drawing area 100.
  • a magazine clip or sticker may be attached to record the object to be combined with the user image.
  • the user can set a desired printing condition by painting an arbitrary check mark 94.
  • the user image which is the original image of the background image, the balloon line 114, and the balloon character 116 are combined based on the free drawing area 100 as the reference of the allocation position
  • the user can print the background printed in multiple tones.
  • the balloon 114 and the balloon character 116 can be recorded in the free rendering area 100 while recognizing the spatial configuration of the user image based on the spatial configuration of the image. That is, the user can record the balloon line 114 and the balloon character 116 in the free drawing area 100 while recognizing which area of the user image the balloon line 114 and the balloon character 116 are assigned.
  • the user can reliably recognize the spatial configuration of the user image including the light background image regardless of the tone characteristics of the user image. Can do.
  • the user image is printed with the same gradation characteristics in the auxiliary image area 102, the user is based on the background image printed in the free drawing area 100 and the user image printed in the auxiliary image area 102. The positional relationship between the user image and the object such as the handwritten character 126 can be recognized more reliably.
  • FIG. 69 is a flowchart showing a flow of processing in which the multifunction device 1 reads the order sheet, and combines and prints the object such as the balloon line 114 and the balloon character 116 recorded on the order sheet and the user image.
  • the order sheet is read by a predetermined operation using the operation unit 68 in a state where the order sheet on which the balloon line 114, the balloon characters 11 6 and the like are written is placed on the document table 12 of the multifunction machine 1. Start by instructing MFP 1
  • step S202 the control unit 58 sets a printing condition according to the filled check mark 94 by performing OMR (Optical Mark Recognition) processing on the binarized document image.
  • OMR Optical Mark Recognition
  • the positions of image parts (specimen patches, check marks, cross marks, etc.) printed on the order sheet based on the positions of the position reference marks 90 and 98 are identified with relatively low accuracy.
  • 108, 110, and 112 the reading area for reading the free drawing area 100 is identified with high accuracy.
  • the control unit 58 analyzes the edge region of the binarized document image and detects the outer edge of the position reference marks 90 and 98.
  • the controller 58 Specifies the inclination of the order sheet based on the detected outer edge of the position reference marks 90, 98, and the position of the check mark 94 and the cross mark 106, 108, 110, 112 force S Is identified. Analyzing the area where the specified cross mark 106, 108, 110, 112 will exist and detecting the edge of the cross mark 106, 108, 110, 112, the center position of the cross mark 106, 108, 110, 112 Is identified.
  • the control unit 58 obtains an intersection 118 between the line connecting the center of the cross mark 106 and the center of the cross mark 110 and the line connecting the center of the cross mark 112 and the center of the cross mark 108, and uses the intersection 118 as a reference.
  • an area having a predetermined width and height is specified as an area for reading the free drawing area 100 and the sample patch 96.
  • the size and inclination of the area for reading the predetermined free drawing area 100 and the specimen notch 96 are corrected. Also good.
  • the free drawing area 100 can be read accurately. .
  • step S204 the multi function device 1 reads the specimen patch 96 in full color. Specifically, the area specified as described above is read by the scan unit 50, and the read image of the sample patch 96 is stored in the RAM 60.
  • step S208 the multi function device 1 reads the free drawing area 100.
  • the read area 120 (see FIG. 61) identified by the above-described processing is read by the scan unit 50 based on the free rendering area 100 identified in step S202, and the read free rendering area 100 and its read
  • the image of the area 120 including the surroundings is stored in the RAM 60.
  • the reading area 120 is set wider than the free drawing area 100 by a predetermined width in both the horizontal and vertical directions.
  • FIG. 70 is a schematic diagram showing an image group generated in a series of processes until the composite image is formed with the user image power.
  • Reference numeral 204 denotes a background image formed from the user image 202 by the above-described color reduction processing.
  • Reference numeral 206 denotes an order sheet which is a result of printing a composite image of the template image 200 and the background image 204 on a sheet.
  • the broken line in the vertical direction represents the ground color of the paper.
  • 208 is filled with callout lines and callout characters Represents an order sheet.
  • the image 210 of the region 120 including the free drawing region 100 and its surroundings is composed of three RGB color channels 21 OR, 210B, and 210G.
  • a balloon 114 and a balloon character 116 appear in the free drawing area 100 and the image 210 in which the surrounding area is read. Since the image 210 is wider than the free drawing area 100, a rectangular frame 104 indicating the outer edge of the free drawing area 100 appears in the image 210.
  • step S210 the control unit 58 forms a composite image based on the image of the area 120 including the free drawing area 100 and its surroundings and the user image.
  • FIG. 71 is a flowchart showing the flow of the composite image forming process.
  • step S500 the control unit 58 generates an alpha channel 216a in which the outer region of the closed curve becomes transparent for the image 210 of the region 120 including the free drawing region 100 and its surroundings (in FIG. ) Represents the alpha channel 21 6 ⁇ by representing pixels of opaque values in black;).
  • the control unit 58 stores the ⁇ and G channel values of the target pixel in the background image color gamut table in association with the R channel values of the target pixel, and the range of the ⁇ and G channel values.
  • the target pixel area within the range is recognized as the background image area, and the target pixel area outside the range is recognized as the handwriting area of the user while being included in another closed curve. Detect closed curves that are not.
  • the control unit 58 specifies the outer region of the closed curve with the closed curve thus detected as a boundary, and generates an ⁇ channel in which the outer region of the closed curve is a transparent value and the closed curve and the inner region thereof are opaque values.
  • the rectangular frame 104 Since the color of the rectangular frame 104 indicating the outer edge of the free drawing area 100 is within the color gamut of the background image, when the outside force of the free drawing area 100 scans the image of the area 120 to detect a closed curve, the rectangular frame 104 Is not detected as a closed curve.
  • step S502 the control unit 58 fills the background image area in the closed curve of the image 210 of the area 120 including the free drawing area 100 and the surrounding area with a specific color such as white.
  • a balloon image 216 is formed from the image 210 of the region 120 including the free drawing region 100 and its periphery.
  • the balloon image 216 is made up of a total of four channels of 216R, 216G, and 216B RGB3 channels and ⁇ channels 216 ⁇ .
  • step S504 the control unit 58 combines the user image 202 and the balloon image 216. Specifically, the control unit 58 adds the image 210 of the area 120 including the free drawing area 100 and its surroundings and the user image 202 for each RGB channel using the ⁇ channel 216 a. 218 is formed. At this time, since the opacity value is set for the ⁇ channel 216 ⁇ in the region corresponding to the balloon line 114, the values of the channels 216R, 216G, and 216B of the balloon image are set, so that the balloon line 114 is set. The value read by scanning unit 50 is set. That is, the balloon line 114 is drawn in the area corresponding to the balloon line 114.
  • the values for the 216R, 216G, and 216B channels of the balloon image are set. Then, the value obtained by reading the balloon character 11 6 with the scan unit 50 is set. That is, the balloon character 116 is drawn in the area corresponding to the balloon character 116. Also, in the area outside the balloon 116 inside the balloon 114 (the area outside the handwriting inside the closed curve), an opacity value is set for the alpha channel 216 alpha, and white for the 216R, 216G, and 216B channels of the balloon image.
  • the values to be set are set, the values of the channels 216R, 216G, and 216B of the balloon image are set, so that the white value is set. That is, white is drawn in the area other than the balloon character 116 inside the balloon line 114. Further, in the area outside the balloon line 114 (outside area of the closed curve), a transparency value is set in the a channel 216a. Therefore, the user image 202 is drawn by setting the value of the user image 202.
  • FIG. 72 is a schematic diagram showing the correspondence between the positions of the images described above. Based on a predetermined free drawing area 100, a layout of a background image 204 for printing an order sheet, an area 120 for reading the free drawing area 100, and a composite image 218 are formed. By setting the layout of the user image 202 and the balloon image 216 for the purpose, the correspondence relationship between the positions of the images shown in FIG. 72 can be set. Specifically, these settings are performed by setting the coordinates of the layout frame, setting the enlargement / reduction ratio of the image, and setting the coordinates of the reading area.
  • step S214 the multi function device 1 prints the composite image 218.
  • the control unit 58 and the print unit 86 execute the processing shown in FIG. 57 described above, and print the composite image 218.
  • the print unit 86 operates in the normal mode and ejects large, medium and small ink droplets to form an image on the paper.
  • a plurality of composite images 218 can be laid out on a single sheet 222.
  • Such a layout can be realized by storing in the ROM 62 a template 220 corresponding to one sheet 222 and having a plurality of layout frames 224 defined therein.
  • FIG. 1 is a schematic diagram showing an order sheet according to a seventh embodiment of the present invention.
  • FIG. 2 is a front view of the multifunction machine according to the first embodiment of the present invention.
  • FIG. 3 is a block diagram of a multifunction machine according to the first embodiment of the present invention.
  • FIG. 5 is a schematic diagram showing an order sheet template according to the first embodiment of the present invention.
  • FIG. 6 is a schematic diagram showing an order sheet according to the first embodiment of the present invention.
  • FIG. 7 (A) is a schematic diagram showing a synthetic template that works on the first embodiment of the present invention. (B) The schematic diagram which shows a synthetic result.
  • FIG. 10 is a flowchart according to the second embodiment of the present invention.
  • FIG. 15 is a schematic diagram showing an order sheet template according to a fourth embodiment of the present invention.
  • 16] A schematic diagram showing an order sheet according to the fifth embodiment of the present invention.
  • FIG. 18 is a schematic diagram showing a synthetic template used in the fifth embodiment of the present invention.
  • FIG. 19 is a flowchart according to the fifth embodiment of the present invention.
  • ⁇ 20 A schematic diagram showing screen transition according to the fifth embodiment of the present invention.
  • ⁇ 23 Schematic diagram showing screen transition according to the sixth embodiment of the present invention.
  • FIG. 24 is a flowchart according to the seventh embodiment of the present invention.
  • FIG. 1 A schematic diagram showing an order sheet according to the ninth embodiment of the present invention.
  • ⁇ 28] A schematic diagram showing a directory structure according to the ninth embodiment of the present invention.
  • FIG. 29 is a flowchart according to the ninth embodiment of the present invention.
  • ⁇ 30 A schematic diagram showing screen transition according to the ninth embodiment of the present invention.
  • FIG. 31 A schematic diagram showing an order sheet according to the ninth embodiment of the present invention.
  • FIG. 34 is a flowchart according to the ninth embodiment of the present invention.
  • ⁇ 35 A schematic diagram showing a density histogram according to the ninth embodiment of the present invention.
  • FIG. 36 A schematic diagram showing a superimposing process according to the ninth embodiment of the present invention.
  • 37 A schematic diagram showing screen transition according to the tenth embodiment of the present invention.
  • FIG. 38 is a schematic diagram showing an order sheet according to the tenth embodiment of the present invention.
  • FIG. 39 is a schematic diagram showing an image processing system according to the eleventh embodiment of the invention.
  • FIG. 40 A schematic diagram showing screen transition according to the twelfth embodiment of the present invention.
  • FIG. 41 is a flowchart according to the twelfth embodiment of the present invention.
  • FIG. 42 is a schematic diagram showing screen transition according to the thirteenth embodiment of the present invention.
  • FIG. 43 is a flowchart according to the thirteenth embodiment of the present invention.
  • FIG. 44 Schematic diagram showing an order sheet according to the fourteenth embodiment of the present invention c
  • FIG. 45 Schematic diagram showing screen transition according to the fourteenth embodiment of the present invention.
  • FIG. 46 A flowchart according to the fourteenth embodiment of the present invention.
  • FIG. 47 A schematic diagram showing a user document according to the fourteenth embodiment of the present invention.
  • FIG. 48 A table summarizing multiple embodiments of the present invention.
  • FIG. 49 This is a plan view of one embodiment of the present invention.
  • FIG. 50 A perspective view according to one embodiment of the present invention.
  • ⁇ 51 A block diagram according to one embodiment of the present invention.
  • ⁇ 53 A schematic diagram of one embodiment of the present invention.
  • FIG. 54 According to one Example of the Present Invention—Histogram.
  • FIG. 55 is a schematic diagram according to one embodiment of the present invention.
  • FIG. 56 Schematic view of one embodiment of the present invention.
  • ⁇ 59 A schematic diagram of one embodiment of the present invention.
  • ⁇ 60 A schematic diagram of one embodiment of the present invention.
  • FIG. 62 is a schematic diagram according to one embodiment of the present invention.
  • FIG. 63 is a flowchart according to one embodiment of the present invention.
  • FIG. 64 is a flowchart according to one embodiment of the present invention.
  • FIG. 65 is a schematic diagram useful for one embodiment of the present invention.
  • FIG. 66 is a schematic diagram useful for one embodiment of the present invention.
  • FIG. 67 is a plan view useful for one embodiment of the present invention.
  • FIG. 68 is a plan view useful for one embodiment of the present invention.
  • FIG. 69 is a flowchart according to one embodiment of the present invention.
  • FIG. 70 is a schematic diagram useful for one embodiment of the present invention.
  • FIG. 72 is a schematic diagram according to one embodiment of the present invention.
  • FIG. 73 is a schematic diagram according to one embodiment of the present invention.
  • MFP image processing system
  • 20 Removable memory (recording medium)
  • 50 Scan unit
  • 70 External memory controller (access unit)
  • 86 Print unit
  • 96 Sample patch
  • 100 Free drawing area
  • 126 Handwritten text (object)
  • 140 Free drawing area image
  • 142 Object image
  • 144 Composite image
  • 146 User image

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Record Information Processing For Printing (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

 手書きメッセージ等の画像を他の画像に合成表示できる画像処理システム及び画像処理方法を提供する  オーダーシート要求を受け付ける第一受付ユニットと、前記オーダーシート要求に応じて自由描画領域を示す領域表記を用紙に印刷部に印刷させる印刷制御ユニットと、スキャン要求を受け付ける第二受付ユニットと、前記スキャン要求に応じて前記自由描画領域に対象物が記録された前記用紙を撮像部に読み取らせる読み取り制御ユニットと、前記スキャン要求に応じて前記撮像部に読み取られた前記自由描画領域の画像と他の画像とを合成する合成ユニットと、を備えることを特徴とする画像処理システム。

Description

明 細 書
画像処理システム及び画像処理方法
技術分野
[0001] 本発明は画像処理システム及び画像処理方法に関し、特に手書き文字と記録媒体 に格納されて 、る画像との合成技術に関する。
背景技術
[0002] 従来、パーソナルコンピュータ (PC)等に接続することなぐリムーバブルメモリ等に 保存されて ヽる画像データを自ら読み込んで印刷する印刷システムが知られて 、る 。このような印刷システムで印刷対象の画像の選択、印刷枚数、レイアウト等の設定 操作を小さな画面に表示されるメニューで受け付けようとすると、メニューの階層が深 くなり操作が煩雑になるという問題がある。一方、大きな画面にメニューを表示しようと すると、製造コストが増大するという問題がある。
特開 2002— 51283号公報には、リムーバブルメモリ等に保存されている画像ファ ィルのサムネイル画像の一覧と選択可能な印刷条件とが印刷されたマークシートを 印刷し、マークシートに書き込まれたマークを光学的に認識することによって、種々の 印刷条件の設定操作を受け付ける画像処理システムが開示されている。
しかし、特開 2002— 51283号公報に開示された画像処理システムでダリーティン グカード等を作成しょうとするとき、次のような問題が生ずる。一般にダリーティング力 ードには、ディジタルカメラ等で記録した画像だけではなぐ送り主のメッセージ等が 記入される。しかし、特開 2002— 51283号公報に開示された画像処理システムで 画像だけが印刷されたカード毎に同一のメッセージを繰り返し手書きするのは手間が か 、 。
発明の開示
発明が解決しょうとする課題
[0003] 本発明の第一の目的は、手書きメッセージ等の画像を他の画像に合成表示できる 画像処理システム及び画像処理方法を提供することである。
本発明の第二の目的は、手書き文字に合成される画像と手書き文字との位置関係 をユーザに正確に把握させ、ユーザが記録した対象物の領域を正確に分割でき、画 像と対象物との合成画像を印刷できる画像処理システムを提供することである。 課題を解決するための手段
[0004] (1)上記第一の目的を達成するための画像処理システムは、オーダーシート要求 を受け付ける第一受付ユニットと、前記オーダーシート要求に応じて自由描画領域を 示す領域表記を用紙にプリントユニットに印刷させる印刷制御ユニットと、スキャン要 求を受け付ける第二受付ユニットと、前記スキャン要求に応じて前記自由描画領域に 対象物が記録された前記用紙をスキャンユニットに読み取らせる読み取り制御ュ-ッ トと、前記スキャン要求に応じて前記スキャンユニットに読み取られた前記自由描画 領域の画像と他の画像とを合成する合成ユニットと、を備える。
本発明によると、領域表記を印刷させることにより、手書き文字等の対象物を記録 すべき領域であり読み取り時にその領域を特定可能な領域である自由描画領域を、 ユーザに認識させることができる。本発明によると、スキャン要求に応じて、自由描画 領域の画像が読み取られ、自由描画領域の画像と他の画像とが合成される。すなわ ち本発明によると、予め決められた自由描画領域にユーザに手書き文字等の対象物 を記録させることにより、その自由描画領域に記録された手書き文字等の対象物の 画像と他の画像とを合成表示することを可能とする。
[0005] (2)前記印刷制御ユニットは、識別表記を前記用紙に前記プリントユニットに印刷さ せてもよい。前記合成ユニットは、前記スキャンユニットに読み取られた前記識別表 記の画像に基づいて、前記スキャンユニットに読み取られた前記自由描画領域の画 像と他の画像とを合成してもよ 、。
本発明によると、領域表記とともに識別表記を用紙に印刷することにより、その用紙 力も読み取られた画像に基づいて、予め決められた自由描画領域に応じて、自由描 画領域の画像と他の画像とを合成することができる。すなわち本発明によると、識別 表記力 読み取られた画像に基づいて、例えば予め決められている自由描画領域を 特定し、自由描画領域に記録された対象物を読み取ることができる。また本発明によ ると、識別表記力も読み取られた画像に基づいて、例えば自由描画領域に記録され た対象物と他の画像について自由描画領域に応じて予め決められている合成条件 を認識することができる。
[0006] (3)前記画像処理システムは、アクセス可能な画像の!/、ずれか 1つ以上を選択する 支持を受け付ける画像選択指示受付ユニットをさらに備えてもょ ヽ。また前記他の画 像は、選択された前記画像であってもよい。
本発明によると、ユーザはアクセス可能な領域に予め記憶された任意の画像を例え ば操作パネルを用いて選択することにより、選択した画像と手書きメッセージ等を合 成した画像を表示させることができる。
[0007] (4)前記印刷制御ユニットは、前記画像選択指示受付ユニットによって選択された 前記画像を前記用紙に前記プリントユニットに印刷させてもよい。
本発明によると、アクセス可能な画像から選択された画像と自由描画領域を示す領 域表記とを 1枚の用紙に印刷できる。そのためユーザは選択した画像を確認しながら 、選択した画像に合成するための対象物を自由描画領域に記録することができる。 つまりユーザは合成結果をイメージしながら手書き文字などの対象物を自由描画領 域に記録することができる。
[0008] (5)前記選択された画像データを示す画像は、前記選択された画像データが表す 画像と前記自由描画領域の画像のサンプル画像とを第一の合成条件で合成した合 成結果を表す画像であってもよい。前記合成ユニットは、前記選択された画像データ が表す画像と前記自由描画領域の画像とを前記第一の合成条件に対応する第二の 合成条件で合成してもよい。
合成ユニットは、選択された画像データが表す画像と対象物を表す画像のサンプ ル画像とを、合成結果を表す画像の合成条件に対応する合成条件で合成する。つ まり合成結果を表す画像は、合成ユニットにおける合成条件に対応する合成条件に よる合成結果を表している。そのためユーザは自由描画領域に手書き文字などの対 象物を記録するときに、合成結果をイメージしゃすい。
[0009] (6)前記画像処理システムは、選択された前記画像と前記自由描画領域の画像と を合成するための互いに異なる複数の合成条件のいずれかを前記第一の合成条件 として選択する指示を受け付ける合成条件指示受付ユニットをさらに備えてもよい。 前記印刷制御ユニットは、前記合成条件指示受付ユニットで受け付け可能な互いに 異なる合成条件で合成した複数の前記合成結果を表す複数の画像を前記用紙に前 記プリントユニットに印刷させてもよい。
ユーザは、用紙に印刷された互いに異なる合成条件で合成した合成結果を表す複 数の画像で、合成条件指示受付ユニットで受け付け可能な合成条件を認識すること ができる。またユーザは、合成結果を表す画像で実際に選択する合成条件で合成し たときの合成結果をイメージしながら、対象物を自由描画領域に記録することができ る。
[0010] (7)前記印刷制御ユニットは、アクセス可能な画像を表す画像表記を前記用紙に 前記プリントユニットに印刷させてもよい。前記画像処理システムは、前記用紙に記 録された画像選択指示に指示された前記画像表記が表す前記画像を、前記スキヤ ンユニットに読み取られた画像に基づいて認識する画像選択指示認識ユニットをさら に備えてもよい。前記他の画像は、前記画像選択指示に指示された前記画像表記 が表す画像であってもよ 、。
本発明によると、ユーザは、アクセス可能な領域に予め記憶された任意の画像デー タを指示する画像選択指示を用紙に記録することにより、合成対象の画像データを 指定することができる。このため本発明によると、操作パネル等を用いた操作を簡素 ィ匕することがでさる。
[0011] (8)前記画像選択指示認識ユニットは、前記画像選択指示に指示された複数の前 記画像表記が表す前記画像を認識してもよい。前記合成ユニットは、前記対象物の 画像と複数の前記他の画像とを合成してもよ 、。
本発明によると、ユーザは手書きメッセージ等と合成される画像を 2以上選択できる
[0012] (9)前記読み取り制御ユニットは、前記スキャンユニットに前記画像選択指示を前 記自由描画領域より低 ヽ解像度で読み取らせてもよ ヽ。
本発明によると、合成画像の品質劣化を招くことなぐ合成画像を得るための処理 量を低減することができる。
[0013] (10)前記印刷制御ユニットは、前記自由描画領域の画像と前記他の画像とを合成 するための互いに異なる合成条件を表す複数の合成条件表記を前記用紙に前記プ リントユニットに印刷させてもよい。前記画像処理システムは、前記用紙に印刷された 合成条件指示に指示された前記合成条件表記が表す前記合成条件を前記スキャン ユニットに読み取られた画像に基づいて認識する合成条件認識ユニットをさらに備え てもよい。前記合成ユニットは、前記合成条件指示に指示された前記合成条件表記 が表す前記合成条件に応じて、前記スキャンユニットに読み取られた前記自由描画 領域の画像と前記他の画像とを合成してもよ 、。
本発明によると、ユーザは手書きメッセージ等とともに合成条件指示を用紙に記録 することにより合成条件を設定できるため、合成表示のために必要な操作パネル等 に対するユーザの操作が簡素化される。尚、合成条件とは、具体的には例えば各画 像を差し込む領域の配置、大きさ及び形状や、各画像が差し込まれるレイヤの透過 率などである。
[0014] (11)前記読み取り制御ユニットは、前記スキャンユニットに前記合成条件指示を第 一解像度で読み取らせ、前記スキャンユニットに前記自由描画領域を前記第一解像 度より高い第二解像度で読み取らせてもよい。
本発明によると、合成画像の品質劣化を招くことなぐ合成画像を得るための処理 量を低減することができる。
[0015] (12)前記対象物の画像と前記他の画像とを合成するための合成条件の指示を受 け付ける合成条件指示受付ユニットをさらに備え、前記印刷制御ユニットは、指示さ れた前記合成条件に応じた態様の前記自由描画領域を示す前記領域表記を前記 用紙に前記プリントユニットに印刷させてもよい。前記合成ユニットは、指示された前 記合成条件に応じて前記対象物の画像と前記他の画像とを合成してもよい。
本発明によると、領域表記が印刷される前に合成条件の指示が受け付けられ、そ の指示に応じた態様の自由描画領域を示す領域表記が印刷され、その自由描画領 域に記録された画像が合成されるため、ユーザは自分が望む形態の自由描画領域 に手書き文字等の対象物を記録して他の画像と合成することができる。
[0016] (13)前記合成条件は、重畳合成条件を含んでもよい。
[0017] (14)前記重畳合成条件は、重畳合成される 2つの画像の境界処理条件を含んで ちょい。 [0018] (15)前記重畳合成条件は、重畳合成される 2つの画像の透明度を含んでもよい。
[0019] (16)前記印刷制御ユニットは、前記プリントユニットに前記用紙に基準マークを印 刷させてもよい。前記読み取り制御ユニットは、前記基準マークに基づいて前記自由 描画領域を認識してもよい。
本発明によると、用紙に印刷された基準マークに基づいて自由描画領域の位置が 相対的に認識されるため、自由描画領域に記録された画像と他の画像とを正確に合 成することができる。
[0020] (17)前記画像処理システムは、前記自由描画領域に記録された対象物の領域を 前記スキャンユニットに読み取られた前記自由描画領域の画像から抽出する領域抽 出ユニットをさらに備えてもよい。前記自由描画領域の画像は、前記対象物の領域の 画像であってもよい。
本発明によると、例えば写真の上に直接メッセージを手書きしたデザインの合成画 像を表示することが可能になる。
[0021] (18)前記画像処理システムは、アクセス可能な画像のいずれ力 1つ以上を選択す る指示を受け付ける画像選択指示受付ユニットをさらに備えてもょ 、。前記他の画像 は、選択された前記画像であってもよい。前記印刷制御ユニットは、選択された前記 画像を、前記領域抽出ユニットが前記対象物の領域を抽出可能な程度に薄ぐ前記 自由描画領域に前記プリントユニットに印刷させてもよい。
本発明によると、他の画像と合成しょうとする手書き文字等を自由描画領域に記録 しょうとするときに、合成対象の他の画像が薄く自由描画領域に印刷されているため 、ユーザは合成結果を正確に把握しながら自由描画領域に手書き文字等の対象物 を記録することができる。
[0022] (19)前記領域抽出ユニットは、前記スキャンユニットに読み取られた前記自由描画 領域外の余白領域の画像に基づいて前記用紙の地色を認識し、前記用紙の地色に 基づ 、て前記対象物の領域を認識してもよ 、。
本発明によると、自由描画領域外の余白領域に存在する用紙の地色に基づいて 対象物の領域が認識されるため、自由描画領域の画像から手書き文字等の対象物 の領域が精度よく抽出される。 [0023] (20)前記画像処理システムは、前記プリントユニットと前記スキャンユニットとをさら に備えてもよい。
[0024] (21)前記画像処理システムは、前記プリントユニットと前記スキャンユニットとが接 続されるインタフェースをさらに備えてもょ 、。
[0025] (22)上記目的を達成するための画像処理方法は、オーダーシート要求を受け付 ける第一受付段階と、前記オーダーシート要求に応じて自由描画領域を示す領域表 記を用紙にプリントユニットに印刷させる印刷制御段階と、スキャン要求を受け付ける 第二受付段階と、前記スキャン要求に応じて前記自由描画領域に対象物が記録さ れた前記用紙をスキャンユニットに読み取らせる読み取り制御段階と、前記スキャン 要求に応じて前記スキャンユニットに読み取られた前記自由描画領域の画像と他の 画像とを合成する合成段階と、を含む。
[0026] (23)上記第二の目的を達成する画像処理システムは、記録媒体に格納されたュ 一ザ画像にアクセスするアクセスユニットと、前記ユーザ画像の色域を減縮し背景画 像を形成する減色処理ユニットと、自由描画領域に前記背景画像が印刷されたォー ダシートをプリントユニットに作成させるオーダシート印刷制御ユニットと、スキャンュ ニットに読み取られた前記自由描画領域の画像力 ユーザが前記自由描画領域に 記録した対象物の領域を前記背景画像の色域を基準に用いて分割し、前記ユーザ 画像に前記対象物の領域を重畳して合成画像を形成する合成ユニットと、前記合成 画像を前記プリントユニットに印刷させる合成印刷制御ユニットと、を備えることを特徴 とする画像形成システム。
画像処理システムがユーザに手書き文字などの対象物を記録させる自由描画領域 にユーザ画像の色域を減縮して形成された背景画像を印刷すると、ユーザは手書き 文字に合成される画像と手書き文字等の対象物との位置関係を正確に把握しながら 手書き文字等の対象物を自由描画領域に記録することができる。また画像処理シス テムがユーザ画像の色域を減縮して形成した背景画像を自由描画領域に印刷する と、画像処理システムは背景画像の色域外の色で自由描画領域に記録された対象 物の領域を自由描画領域を読み取った画像力も正確に分割することができる。また、 背景画像の色域を基準として手書き文字などの対象物の領域を分割しょうとする場 合、画像処理システムは背景画像の色域を記憶しなければならない。フルカラーの 背景画像の色域を記憶するためには大容量の記録媒体を画像処理システムに設け る必要がある。画像処理システムはユーザ画像の色域を減縮して背景画像を形成す ることにより、背景画像の色域を記憶するために必要な記憶容量を低減することがで きる。
[0027] (24)前記減色処理ユニットは、単一色相の前記背景画像を形成してもよい。
画像処理システムがユーザ画像の色域を減縮して形成した単一色相の背景画像 を自由描画領域に印刷すると、ユーザは幅広い色相の手書き文字などの対象物を 自由描画領域に記録することができる。
[0028] (25)前記減色処理ユニットは、多階調の前記背景画像を形成してもよい。
背景画像が多階調である場合、ユーザは背景画像の色相が単一であってもユーザ 画像の空間構成を容易に理解することができるため、手書き文字などの対象物の配 置をユーザ画像の空間構成と連関させて決めることができる。
[0029] (26)前記減色処理ユニットは、 1つのカラーチャネルだけが階調を有する 3つの力 ラーチャネルを有する前記背景画像を形成してもよ ヽ。
背景画像力^つのカラーチャネルだけに階調を有し、背景画像の他の 2つのカラー チャネルが固定階調値になっている場合、背景画像を印刷して読み取ると、原理的 には、読み取った背景画像の 1つのカラーチャネルだけが階調を有し、他の 2つの力 ラーチャネルが固定値になる。読み取った背景画像がこのような階調特性を持つ場 合、画像処理システムは、 1つのカラーチャネルの階調値と他の 2つのカラーチヤネ ルの固定値との組み合わせだけを記憶すればょ 、ため、背景画像の色域を記憶す るために必要な記憶容量はさらに減少する。
[0030] (27)前記減色処理ユニットは、淡色化された前記背景画像を形成してもよ ヽ。
画像処理システムがユーザ画像を淡色化して背景画像を形成することにより、背景 画像の色域は狭くなり、その結果背景画像の色域を記憶するための記憶容量は小さ くなる。また、背景画像が淡色化されていると、背景画像上に濃い色で記録された手 書き文字などの対象物の領域を背景画像の領域と判別することができるため、ユー ザは背景画像上に手書き文字などの対象物を濃い色で記録することができる。 [0031] (28)前記オーダシート印刷制御ユニットは、前記背景画像の色域に色域が一致す る標本パッチを前記オーダシートに前記プリントユニットに印刷させてもよい。前記合 成ユニットは、前記スキャンユニットに読み取られた前記標本パッチの画像の色域に 色値が含まれな!/、前記自由描画領域内の領域を前記対象物の領域と判定してもよ い。
画像処理システムが同一の色域の背景画像を印刷しても、用紙の紙質が異なれば 用紙に印刷された背景画像の色域も異なる。したがって、オーダシートを作成するた めに用いられる用紙の種類が特定されて 、な 、場合、背景画像の色域に応じて予め 決めた色域の範囲を、自由描画領域から背景画像の領域として分割される領域の色 域の範囲として領域分割を実行すると、対象物の領域が背景画像の領域と誤認識さ れたり、背景画像の領域が対象物の領域と誤認識される。そこで、背景画像の色域 に色域が一致する標本パッチを背景画像とともにオーダシートに印刷することにより、 実際に使用された用紙に印刷された標本パッチの色域を基準として背景画像の色 域を認識することができるため、自由描画領域内の背景画像の領域の判定精度を向 上させることができる。
[0032] (29)前記画像処理システムは、階調を有する前記カラーチャネルの階調値に対応 付けて他の 2つの前記カラーチャネルの階調範囲を記憶する記録媒体をさらに備え てもよい。前記合成ユニットは、前記自由描画領域の画素毎に、前記自由描画領域 の画素の階調を有する前記カラーチャネルの階調値に対応付けられている他の 2つ の前記カラーチャネルの階調範囲に前記自由描画領域の画素の他の 2つの前記力 ラーチャネルの階調値が含まれな 、と、前記対象物の領域を構成する画素と判定し てもよい。
上述したように、背景画像力^つのカラーチャネルだけに階調を有し、背景画像の 他の 2つのカラーチャネルが固定値になっている場合、背景画像を印刷して読み取 ると、原理的には、読み取った背景画像の 1つのカラーチャネルだけが階調を有し、 他の 2つのカラーチャネルが固定値になる。し力し現実には、印刷対象の背景画像 がそのような階調特性を持っていたとしても、印刷前の分版処理や、ハーフトーン処 理、スキャンユニットのデバイスカラーとプリントユニットのデバイスカラーとの違い等 により、読み取った背景画像は、 1つのカラーチャネルだけが広い階調を有し、他の 2 つのカラーチャネルが狭い階調を有する結果になる。そこで画像処理システムは、階 調を有するカラーチャネルの階調値に対応付けて他の 2つのカラーチャネルの狭い 階調範囲を記憶することによって背景画像の色域を記憶し、階調を有するカラーチヤ ネルの階調値毎に記憶した他の 2つのカラーチャネルの階調範囲を基準にして自由 描画領域内で背景画像の領域を判定することにより、背景画像の色域を記憶するた めの記憶容量をさらに低減することができる。
[0033] (30)前記減色処理ユニットは、前記ユーザ画像のエッジ成分を表す前記背景画 像を形成してもよい。
背景画像がユーザ画像のエッジ成分を表す場合、ユーザは背景画像の色相が単 一であってもユーザ画像の空間構成を容易に理解することができるため、手書き文 字などの対象物の配置をユーザ画像の空間構成と連関させて決めることができる。
[0034] 尚、本発明に備わる複数のユニットの各機能は、構成自体で機能が特定されるハ 一ドウエア資源、プログラムにより機能が特定されるハードウェア資源、又はそれらの 組み合わせにより実現される。また、これら複数のユニットの各機能は、各々が物理 的に互いに独立したノヽードウエア資源で実現されるものに限定されない。また、本発 明は装置及び方法の発明として特定できるだけでなぐプログラムの発明としても、そ のプログラムを記録した記録媒体の発明としても特定することができる。 発明を実施するための最良の形態
[0035] 以下、複数の実施例に基づいて本発明の実施の形態を説明する。各実施例で対 応する構成要素には同一の符号を用い、重複する説明は省略する。
(第一実施例)
図 2は、本発明の画像処理システムの第一実施例としての複合機 1の外観を示す 正面図である。図 3は、本発明の第一実施例による複合機 1を示すブロック図である 。複合機 1は、図示しないパーソナルコンピュータ (PC)に原稿から読み取った画像 データを出力する機能と、原稿を複写する機能と、 PCから出力されるデータを印刷 する機能と、リムーバブルメモリ 3から入力した画像データを印刷する機能とを有する [0036] 複合機 1のスキャンユニット 20は、イメージセンサ 21、光学系 22、センサ駆動部 23 、センサキャリッジ駆動部 24、 AFE (Analog Front End)部 25、ディジタル画像処理 部 26等を備える。
センサ駆動部 23に駆動されるイメージセンサ 21は、 RGBの 3チャンネルの受光素 子を備えるリニアイメージセンサであって、図示しない原稿台と平行に移動するセン サキャリッジ 27に搭載されている。イメージセンサ 21は、図示しないレンズ及びミラー で構成される光学系 22により受光面に結像される原稿台に載置された原稿の光学 像の濃淡に相関する電気信号を出力する。
[0037] センサキャリッジ駆動部 24は、モータ、駆動ベルト、駆動回路などを備える。センサ キャリッジ駆動部 24は、走査線に垂直に架設されたガイドロッドに沿ってセンサキヤリ ッジ 27を往復移動させる。イメージセンサ 21が走査線に垂直な方向に移動すること により二次元画像の走査が可能となる。
AFE部 25は、アナログ信号処理部、 AZD変換器等を備える。
ディジタル画像処理部 26は、 AFE部 25から出力された出力信号に対し、シエーデ イング補正等の処理を行ってディジタル画像を生成する。
[0038] 複合機 1のプリントユニット 30は、インクジェット方式で用紙に画像を形成するため の記録ヘッド 31、ヘッド駆動部 32、ヘッドキャリッジ駆動部 33、送紙部 34等を備える 。尚、プリントユニット 30はレーザー方式等の他の印刷方式に対応する構成でもよい 記録ヘッド 31は、図示しないインクカートリッジが搭載されるヘッドキャリッジ 37に設 けられ、ノズル、ピエゾ素子、インク通路等を備える。
ヘッドキャリッジ駆動部 33は、図示しないモータ、駆動ベルト、駆動回路等を備える 。ヘッドキャリッジ駆動部 33は、記録ヘッド 31を用紙の搬送方向と垂直に往復移動さ せる。
[0039] 送紙部 34は、図示しない用紙搬送用ローラ、モータ、駆動回路等を備える。送紙 部 34は、用紙搬送ローラを回転させることにより用紙を記録ヘッド 31の移動方向軸 線と垂直な方向に搬送する。
カード読み書き部 41は、リムーバブルメモリ 3を挿入するための図示しないカードス ロット、メモリコントローラ等を備える。
[0040] 操作部 42は、メニューを表示するための LCD14と、メニューを操作するための決 定ボタン 10、十字ボタン 12等の各種のボタンとを備える(図 2参照)。
制御部 50は、 CPU51、 ROM52及び RAM53を備える。 CPU51は ROM52に記 憶された制御プログラムを実行して複合機 1の各部を制御する。 ROM52は制御プロ グラムを記憶している不揮発性メモリであり、 RAM53は、画像処理プログラム等のプ ログラムや画像データ等のデータを一時的に記憶する揮発性メモリである。制御プロ グラムは所定のサーバからネットワーク経由で ROM52に格納してもよいし、リムーバ ブルメモリ 3等のコンピュータ読み取り可能な記憶媒体力も読み出して ROM52に格 糸内してちょい。
[0041] 図 4は、複合機 1の制御プログラムの構成を示す機能ブロック図である。
第一受付ユニット及び第二受付ユニットとしての合成指示受付モジュール 61は、ォ 一ダーシート要求及びスキャン要求を受け付けるプログラム部品である。オーダーシ ート要求とは、手書き文字等を書き込むためのオーダーシートを印刷する処理をユー ザが複合機 1に要求する指示である。スキャン要求とは、オーダーシートを読み取り、 手書き文字等を写真画像に合成する一連の処理をユーザが複合機 1に要求する指 示である。
[0042] 画像選択指示受付ユニットとしての画像選択指示受付モジュール 60は、アクセス 可能な画像ファイルから任意の画像ファイルを選択する指示 (画像選択指示)を受け 付けるプログラム部品である。アクセス可能な画像ファイルとは、具体的には例えばリ ムーバブルメモリ 3の所定フォルダに保存されている画像ファイルである。尚、画像選 択指示受付モジュール 60は、内部メモリである ROM52及び RAM53や、複合機 1 に接続されるディジタルカメラ、カメラ機能付き携帯電話等の携帯用電子機器のメモ リゃ、複合機 1に接続される PCのハードディスク装置や、通信回線を介して複合機 1 に接続されているファイルサーバなどに保存されている画像データをユーザに選択さ せてもよい。
[0043] 印刷制御ユニットとしての印刷制御モジュール 62は、オーダーシートを印刷するた めのテンプレート(オーダーシートテンプレート) 103 (図 5参照)を ROM52から読み 込み、オーダーシートテンプレート 113に基づいてオーダーシートをプリントユニット 3 0に印刷させるプログラム部品である。
図 5に示すオーダーシートテンプレート 113は、基準マーク 82、 107、検証マーク 8 1及び矩形枠 110を用紙に印刷するためのオブジェクト情報及びレイアウト情報で構 成される。枠 112はオーダーシートテンプレート 113が定義している印刷用紙サイズ を表している。オーダーシートテンプレート 113が定義する領域表記としての矩形枠 110は、オーダーシート 70 (図 6参照)の紙面上の自由描画領域 72の外縁を示す矩 形の枠である。 自由描画領域 72は、合成画像を印刷するための印刷用紙とは異なる アスペクト比の矩形枠でもよいし、円形枠などの矩形以外の枠でもよい。また領域表 記は、例えば自由描画領域 72の四隅を示す 4つのマーク(十字形、 L字形等)であつ てもよい。オーダーシートテンプレート 113が定義する基準マーク 82、 107は、ォー ダーシート 70を読み取る際に自由描画領域 72及び検証マーク 81の位置を特定す るためのマークである。オーダーシートテンプレート 113が定義する枠 108は、検証 マーク 81が割り付けられる領域である。検証マーク 81は、オーダーシート 70を印刷 する処理の実行中に複合機 1に接続されて ヽるリムーバブルメモリ 3と、合成画像を 印刷する処理の実行中に複合機 1に接続されて ヽるリムーバブルメモリ 3との同一性 を検証するためのマークである。具体的には例えば、検証マーク 81はリムーバブルメ モリ 3の所定のフォルダに格納された所定のフォーマットの全ての画像ファイルのファ ィル名、ファイル数等に基づいて算出されるチェックサムを特定可能な情報を担持し ている。
[0044] 読み取り制御ユニットとしての読取制御モジュール 64は、次の機能を有するプログ ラム部品である。第一に、原稿台の全面(プレスキャン領域)をスキャンユニット 20に 低解像度で読み取らせてプレスキャン画像を取得する。第二に、プレスキャン画像に 基づいてオーダーシート 70の自由描画領域 72を特定する。第三に、プレスキャン画 像に基づいて検証マーク 81を検証する。第四に、自由描画領域 72をスキャンュ-ッ ト 20に高解像度で読み取らせ、高解像度のスキャン画像を取得する。
[0045] 合成ユニット及び領域抽出ユニットとしての合成モジュール 66は、スキャンユニット 20が読み取った自由描画領域 72の画像を取得し、 自由描画領域 72の画像と写真 画像とを合成するプログラム部品である。具体的には例えば、合成モジュール 66は、 自由描画領域 72の画像力 手書き文字等の対象物 116 (図 6参照)の領域を抽出し 、後述する合成テンプレートに基づいて対象物 116の画像をユーザが選択する写真 画像に合成する。
以上説明した合成指示受付モジュール 61、印刷制御モジュール 62、読取制御モ ジュール 64及び合成モジュール 66が実行されることによって実現される制御部 50の 機能の一部は、 DSP、 ASIC (Application Specific Integrated Circuit)等の専用回路 によって実現することもできる。
[0046] 図 7は合成テンプレートを説明するための模式図である。
合成テンプレート 120は、用紙 134に合成画像 132を印刷するために必要なレイァ ゥト情報で構成される。枠 131は、合成テンプレート 120が定義する印刷用紙サイズ を表している。合成テンプレート 120が定義する枠 128は、自由描画領域 72の画像 122と写真画像 126が割り付けられる領域である。図に示した例では、自由描画領域 72の画像 122と写真画像 126が割り付けられる領域が一致しているが、勿論それぞ れの画像を異なる枠に割り付けてもよい。合成テンプレート 120が定義する枠 128と オーダーシートテンプレート 113が定義する矩形枠 110とは互 、のアスペクト比が一 致している。アルファチャンネル 124は、自由描画領域 72の画像 122のレイヤの透 過率を画素毎に定義する情報である。合成モジュール 66が自由描画領域 72の画像 122に対する領域分割処理によって手書き文字等の対象物 116の領域 130を特定 し、対象物 116の領域 130の透過率を不透明に設定し、その他の領域を透明に設定 する処理によって、アルファチャンネル 124は生成される。自由描画領域 72の画像 1 22と写真画像 126とを画素毎にアルファチャンネル 124で重み付けして加算すること により、合成画像 132が生成される。
[0047] 図 8は、本発明の第一実施例による画像処理方法を示すフローチャートである。図 8に示す処理は、制御部 50が上述の制御プログラムを実行することによって実行され る。
はじめに、制御部 50はオーダーシート要求を受け付ける (ステップ S100)。具体的 には例えば、合成指示受付モジュール 61は、図 9に示すメニュー画面 1000を LCD 14に表示させ、その後に十字ボタン 12の操作によりユーザが「手書き文字合成印刷 」を選択し決定ボタン 10を押すことによって操作部 42から出力される信号をオーダー シート要求として受け付ける。図面では、 LCD14に表示されている項目のうち十字ボ タン 12の操作により選択されている項目にハッチングを記している。
[0048] 制御部 50は、オーダーシート要求を受け付けると、オーダーシートテンプレート及 び合成テンプレートを設定する (ステップ S103)。具体的には、合成指示受付モジュ ール 61は、 ROM52からオーダーシートテンプレート及び合成テンプレートを RAM 53に読み込む。この処理により、オーダーシート要求に応じたオーダーシート 70の 自由描画領域 72が設定される。また、この処理により、 自由描画領域 72の画像 122 及び写真画像 126について、オーダーシート要求に応じた配置、レイヤの上下関係 、各レイヤの透過率、印刷用紙サイズ等が設定される。尚、制御部 50は、ステップ S1 00で互いに異なるオーダーシートテンプレートに対応するオーダーシート要求を択 一的に受け付け、受け付けたオーダーシート要求に応じたオーダーシートテンプレ ートを設定してもよい。
[0049] ステップ S104では、複合機 1はユーザがアクセス可能な画像ファイル力も任意の画 像ファイルを選択する指示を受け付ける。具体的には例えば、画像選択指示受付モ ジュール 60は、図 9に示す画像選択画面 1020を LCD 14に表示させ、その後にュ 一ザが十字ボタン 12及び決定ボタン 10を押すことによって操作部 42から出力される 信号に応じて、リムーバブルメモリ 3の所定のフォルダに格納されて 、る所定のフォー マットの画像ファイルを選択する。
[0050] ステップ S106では、複合機 1はオーダーシート 70を印刷する。具体的には、印刷 制御モジュール 62は、 RAM53に読み込まれているオーダーシートテンプレートに 基づいて基準マーク 82、 107、検証マーク 81及び矩形枠 110が割り付けられたぺー ジのデータを生成する。次に印刷制御モジュール 62は、そのページのデータに二値 化処理、インタレース処理等を施して印刷データを生成する。次に印刷制御モジユー ル 62は、プリントユニット 30に印刷データを出力し、オーダーシート 70をプリントュニ ット 30に印刷させる。このとき、印刷制御モジュール 62は、リムーバブルメモリ 3の所 定のディレクトリに格納された画像ファイルに基づいてチェックサムを算出し、チェック サムに対応した検証マーク 81を表す画像を枠 108に割り付ける。また、プリントュ-ッ ト 30がオーダーシート 70の印刷を完了するまでの期間、印刷制御モジュール 62は L CD 14に図 9に示す画面 1040を表示してもよ!/ヽ。
[0051] ユーザは、ステップ S106で印刷されたオーダーシート 70の自由描画領域 72に図 6に示すように手書き文字等の対象物 116を記録する。自由描画領域 72の外縁は 矩形枠 110によって明示されている。自由描画領域 72には、手書き文字の他、雑誌 の切り抜きを貼り付けたり、文字や画像を印刷したりすることができる。
ステップ S108では、制御部 50はスキャン要求を受け付ける。具体的には例えば、 合成指示受付モジュール 61は、図 9に示すメニュー画面 1060を LCD 14に表示さ せ、その後にユーザが決定ボタン 10を押すことによって操作部 42から出力される信 号をスキャン要求として受け付ける。尚、スキャン要求を受け付けた後、制御部 50は LCD 14に図 9に示す画面 1080を表示して進拔状況をユーザに案内してもょ 、。
[0052] ステップ S109では、複合機 1はプレスキャン領域を読み取る。具体的には読取制 御モジュール 64は、プレスキャン領域をスキャンユニット 20に読み取らせてプレスキ ヤン画像を取得する。
ステップ S110では、制御部 50はオーダーシート 70の自由描画領域 72を特定する 。具体的には読取制御モジュール 64は、パターンマッチング等によってプレスキャン 画像内で基準マーク 82、 107の位置を特定する。次に読取制御モジュール 64は、 基準マーク 82、 107の位置に基づいて自由描画領域 72の範囲を特定する。このとき 、読取制御モジュール 64は、ステップ S 102で設定されたオーダーシートテンプレー ト 113で定義されている基準マーク 82、 107及び矩形枠 110の相対的な位置関係に 応じて自由描画領域 72の範囲を特定する。すなわち、オーダーシートテンプレート 1 13はオーダーシート要求が受け付けられるとそれに応じて設定されるものであるため 、制御部 50はオーダーシート要求に応じて自由描画領域 72の範囲を特定するという ことである。
[0053] またステップ S110では、制御部 50はプレスキャン画像に基づいて検証マーク 81の 範囲を特定し、検証マーク 81を認識し、検証マーク 81に対応するチェックサムと、リ ムーバブルメモリ 3の所定のフォルダに格納された所定のフォーマットの画像ファイル に基づいて算出するチェックサムとの同一性を検証する。その結果、 2つのチェックサ ムが一致していなければ制御部 50はエラー処理を実施する。尚、このようなエラー判 定及びエラー処理は勿論省略してもよ ヽ。
[0054] ステップ S112では、複合機 1は自由描画領域 72を高解像度で読み取る。具体的 には読取制御モジュール 64は、スキャンユニット 20に自由描画領域 72をプレスキヤ ン時よりも高解像度で読み取らせ自由描画領域 72の画像を RAM53に格納させる。 ステップ S114では、制御部 50は、自由描画領域 72の画像 122 (図 7参照)から自 由描画領域 72に記録された対象物 116に対応する領域 130を抽出する。具体的に は、合成モジュール 66は、自由描画領域 72の画像 122に対して所定のしきい値を 用いた領域分割処理を施して対象物 116に対応する領域 130を特定する。尚、合成 モジュール 66は、プレスキャン画像を用 V、て対象物 116に対応する領域を特定して もよい。次に合成モジュール 66は、対象物 116に対応する領域 130を不透明に、そ の他の領域を透明に設定したアルファチャンネル 124を生成する。
[0055] ステップ S116では、制御部 50は、自由描画領域 72の画像 122 (図 7参照)と写真 画像 126とを合成する。具体的には、合成モジュール 66は、合成テンプレート 120に 基づいて、自由描画領域 72の画像 122と、ステップ S 104で選択された画像ファイル が表す画像 126とを画素毎にアルファチャンネル 124で重み付けして加算し、その 結果得られる合成画像 132を枠 128に割り付ける。このとき用いられる合成テンプレ ート 120は、オーダーシート要求を受け付けたことによって制御部 50が ROM52から RAM53に読み込んだものである。すなわち、自由描画領域 72の画像 122と写真画 像 126との合成は合成テンプレート 120に基づいて行われるため、制御部 50は自由 描画領域 72の画像 122と写真画像 126とをオーダーシート要求に応じて合成すると いうことである。
[0056] ステップ S118では、複合機 1は合成画像を印刷する。具体的には、制御部 50は合 成テンプレート 120に基づいて合成画像 132が枠 128に割り付けられたページのデ ータを生成し、そのデータに二値ィ匕処理、インタレース処理等を施して印刷データを 生成し、プリントユニット 30に印刷データを出力することによって、合成画像 132を用 紙 134に印刷させる。 [0057] 以上説明した本発明の第一実施例によると、ユーザは自由描画領域 72に手書き 文字等を書き込んだオーダーシート 70を複合機 1に読み取らせることによって、手書 き文字等を写真画像に合成して得られる画像を複合機 1に印刷させることができる。 したがって、そのようにして得られる合成画像を印刷した印刷物を容易に大量に作成 できる。また、光沢紙に印刷した写真画像に手書き文字をきれいに上書きすることは 紙とインクの性質上困難である力 上述の実施例によれば、ユーザはあた力も光沢紙 に印刷した写真画像に手書き文字をきれいに上書きしたような印刷物を容易に作成 することができる。
[0058] (第二実施例)
本発明の第二実施例では、上述した検証マーク 81 (図 5参照)が請求項に記載の 識別表記に相当し、合成テンプレートを特定するための情報を担持している。以下、 具体的に説明する。
検証マーク 81のパターンは、合成テンプレートに応じて決まっている。尚、複合機 1 が検証マーク 81に基づ 、て選択可能な合成テンプレートは 1つであってもよ 、し、複 数であってもよい。すなわち、少なくとも、手書き文字などを記録できるオーダーシー トである力否かだけが検証マーク 81に基づ 、て判定可能であればよ!/、。検証マーク 81からは、それぞれが異なる合成テンプレートに対応し手書き文字などを記録できる 複数種類のオーダーシートのうちの 、ずれである力までは判定不能でもよ 、。また、 検証マーク 81は、合成テンプレートに対応していると同時に、当然に、オーダーシー トテンプレート 113にも対応している。合成テンプレートが定義する自由描画領域 72 の画像を割り付ける枠 128 (図 7参照)とオーダーシートテンプレート 113が定義する 矩形枠 110とが対応しているからである。すなわち、検証マーク 81はオーダーシート 自体を識別可能な情報を担持して 、る。
[0059] 図 10は、本発明の第二実施例による画像処理方法を示すフローチャートである。
ステップ S 103では、制御部 50はオーダーシートテンプレートを設定する。このとき 第一実施例とは異なり、合成テンプレートは設定されない。
ステップ S106では、複合機 1はオーダーシート 70を印刷する。このとき印刷制御モ ジュール 62は、オーダーシート要求に応じた合成テンプレートを特定するための情 報を担持したパターンの検証マーク 81を ROM53から読み込んで枠 108 (図 5参照) に割り付ける。
[0060] ステップ S110では、制御部 50はオーダーシート 70の自由描画領域 72を特定する 。このとき制御部 50は、検証マーク 81に基づいて自由描画領域 72を特定する。具 体的には、読取制御モジュール 64は、パターンマッチング等によってプレスキャン画 像内で基準マーク 82、 107の位置を特定する。次に読取制御モジュール 64は、基 準マーク 82、 107の位置に基づいて検証マーク 81の範囲を特定し、プレスキャン画 像によって表されている検証マーク 81を認識し、検証マーク 81に対応する自由描画 領域 72の範囲を特定する。このとき、読取制御モジュール 64は、検証マーク 81に対 応するオーダーシートテンプレート 113で定義されている基準マーク 82、 107及び矩 形枠 110の相対的な位置関係に応じて自由描画領域 72の範囲を特定する。すなわ ち、制御部 50は、検証マーク 81の画像に基づいて自由描画領域 72の範囲を特定 する。
[0061] ステップ S 111では、制御部 50は検証マーク 81に対応する合成テンプレートを設 定する。具体的には、合成モジュール 66は、検証マーク 81に対応する合成テンプレ ートを ROM52から RAM53に読み込む。すなわち、第二実施例では、オーダーシ ート 70が読み取られるまで合成テンプレートが定まらない。
制御部 50は、第一実施例で説明したステップ S104の処理 (画像選択処理)を合成 印刷指示の受け付け後、例えば合成処理 (S 116)の直前に実施する。
[0062] 以上説明した第二実施例では、合成印刷指示受け付け後に、合成テンプレートの 設定と、画像の選択とが実行されるため、ステップ S108以後の処理と、ステップ S10 6以前の処理に連続性がなくてもよい。すなわち、ステップ S106とステップ S108の 間に全く別の処理が行われてもよいし、複合機 1の電源がオフになってもよい。
尚、ステップ SI 11で検証マーク 81に基づ 、て合成テンプレートを設定する処理に 変えて、ステップ S108でスキャン要求を受け付ける際に合成テンプレートの選択指 示をユーザ力も受け付け、ステップ S111では合成テンプレートの選択指示内容と、 オーダーシート 70に対応する合成テンプレートとの整合性をチェックしてもよい。また 、複合機 1が扱うオーダーシートが一種類のみである場合には、その整合性のチエツ クを省略してちょい。
[0063] (第三実施例)
図 11は、本発明の第三実施例による複合機 1の機能ブロック図である。 印刷制御モジュール 62は、上述のステップ S106において、画像選択指示受付モ ジュール 60によって選択された画像も図 12に示すオーダーシートテンプレート 113 に基づいてオーダーシートに印刷する。図 12に示すオーダーシートテンプレート 11 3が定義する枠 200は、画像選択指示受付モジュール 60によって選択されたフアイ ルを示す画像 202が割り付けられる枠である。オーダシートテンプレート 113は、図 7 に示した合成テンプレート 120に対応している。すなわち、ユーザによって選択され る画像 202の割り付け位置及びサイズと自由描画領域 72から読み取られる画像 122 の割り付け位置及びサイズとは合成テンプレート 120で一致しているため、枠 200の アスペクト比と枠 110とのアスペクト比が一致している。枠 200、枠 100の外側に用紙 の外縁を示す枠が印刷されるようにオーダーシートテンプレート 113を定義してもよ い。そのようにすれば、ユーザは、選択したファイルの画像 126と自由描画領域 72か ら読み取られる画像 122 (図 7参照)とが印刷用紙にどのように配置されるかを印刷前 に確認できる。尚、印刷制御モジュール 62は、ユーザによって選択された画像フアイ ルの画像 126に基づいて生成した縮小画像を枠 200に割り付けてもよい。また、選択 された画像ファイルが Exifファイルなどのサムネイルデータを格納している画像フアイ ルであれば、印刷制御モジュール 62は、サムネイル画像を枠 200に割り付けてもよ い。
[0064] 以上説明した本発明の第三実施例によると、複合機 1は、図 13に示すように、選択 された画像データを示す画像 202と自由描画領域 72を示す矩形枠 110とを 1枚のォ 一ダーシート 70に印刷する。そのためユーザは、選択した画像をオーダーシート 70 で確認しながら、選択した画像に合成するための手書き文字等の対象物 116を自由 描画領域 72に記録することができる。つまりユーザは、合成結果を予想しながら自由 描画領域 72に対象物を記録することができる。
[0065] (第四実施例)
本発明の第四実施例による複合機 1は、選択された画像ファイルが表す画像を淡く 自由描画領域内に印刷する。
印刷制御モジュール 62は、上述のステップ S106において、画像選択指示受付モ ジュール 60によって選択された画像を図 14に示すオーダーシートテンプレート 113 に基づいてオーダーシートに印刷する。図 12に示すオーダーシートテンプレート 11 3が定義する枠 200は、画像選択指示受付モジュール 60によって選択されたフアイ ルを示す画像 202と自由描画領域を示す矩形枠 110が割り付けられる枠である。尚 、自由描画領域の全体に画像 202が淡く印刷されることで自由描画領域の外縁を明 示できるため、矩形枠 110は必ずしも印刷される必要はない。画像選択指示受付モ ジュール 60によって選択されたファイルを示す画像 202は、選択されたファイルの画 像の輝度値に対して印刷制御モジュール 62が二値ィ匕処理を施したモノクロ画像であ る。ニ値ィ匕のしきい値は、ステップ S 114で対象物の領域を抽出する処理で選択され たファイルを示す画像 202が抽出されない程度に低く設定される。尚、自由描画領 域 72に印刷される画像 200は、淡 、カラー画像や淡!、モノトーン画像であってもよ!/ヽ 。カラー画像を自由描画領域 72に印刷する場合、印刷制御モジュール 62は、選択 されたファイルの画像の各チャネルに対し、二値化処理に変えて濃淡レベルの淡色 化処理を施す。
以上説明した本発明の第四実施例によると、複合機 1は、図 15に示すように、選択 された画像データを示す画像 202を自由描画領域 72内に印刷する。そのためユー ザは、選択した画像に対する配置を正確に把握しながら、選択した画像に合成する ための手書き文字等の対象物 116を自由描画領域 72に記録することができる。
(第五実施例)
本発明の第五実施例による複合機 1は、選択された画像ファイルが表す画像と手 書き文字等の対象物の画像との合成結果の見本 111をオーダーシート 70に印刷す る(図 16参照)。
本発明の第五実施例では、合成指示受付モジュール 61は、合成条件指示受付ュ ニットにも相当する。すなわち、合成指示受付モジュール 61は、自由描画領域 72に 記録された対象物を表す画像 122と写真画像 126とを合成するための合成条件を選 択する指示を受け付ける。合成条件とは、画像の配置、レイヤの上下関係、レイヤの 透過率等であり、具体的には例えば合成テンプレートの内容である。合成指示受付 モジュール 61は、合成条件を選択する指示に応じて合成テンプレート及びオーダー シートテンプレートを設定する。
[0067] 図 17は、オーダーシート 70を印刷するためのオーダーシートテンプレート 113を示 す模式図である。図 18は、図 17に示すオーダーシートテンプレート 113に対応する 合成テンプレートを説明するための模式図である。すなわち、図 17に示すオーダー シートテンプレート 113と図 18に示す合成テンプレート 120とは、同一の合成条件を 選択する指示に応じて ROM52から読み込まれるテンプレートである。
オーダーシートテンプレート 113は、手書き文字等が記録された自由描画領域 72 の見本を表す画像 208が割り付けられる枠 206を定義して 、る。画像選択指示受付 モジュール 60によって選択されたファイルを示す画像 202が割り付けられる枠 200と 枠 206とは、合成画像を印刷するための印刷用紙の外縁を表す矩形枠 204の内側 に定義される。矩形枠 204のアスペクト比は合成画像を印刷するための印刷用紙の アスペクト比と一致している。尚、自由描画領域 72の見本を表す画像 208が割り付け られる枠 206と、画像選択指示受付モジュール 60によって選択されたファイルを示 す画像 202が割り付けられる枠 200とが重なっている場合には、オーダーシートテン プレート 113は 2つの画像の透過率を設定するためのアルファチャンネルを定義する
[0068] 合成テンプレート 120が定義する枠 128aは、写真画像 126が割り付けられる領域 である。写真画像 126は、画像選択指示受付モジュール 60によって選択されたファ ィルの画像である。合成テンプレート 120が定義する枠 128bは、自由描画領域 72 の画像 122が割り付けられる領域である。合成テンプレート 120が定義する印刷用紙 サイズに対応する枠 131と、枠 128aと、枠 128bの相対的な大きさ及び相対的な位 置の関係は、オーダーシートテンプレート 113が定義する矩形枠 204と、枠 200と、 枠 206の相対的な大きさ及び相対的な位置の関係と等しい。すなわち、枠 128a、 12 8b、 131を 1つの図形とみなし、矩形枠 204、 200、 206を 1つの図形とみなすと、そ れら 2つの図形は互いに相似な関係にある。したがって、矩形枠 204、 200、 206に 基づいてオーダーシート 70に印刷される見本 111 (図 16参照)によって、ユーザは 合成結果を予測することができる。尚、オーダシートテンプレート 113の枠 200に割り 付けられる画像 202は、ユーザによって選択された画像でもよいし、予め ROM52に 格納されている見本画像でもよい。また、枠 204、画像 202及び画像 208を合成して 合成結果の見本を表示する変わりに、合成結果の見本に相当する 1つの見本画像を ROM52に格納しておき、それを割り付けてもよい。
[0069] 図 19は、本発明の第五実施例による画像処理方法を示すフローチャートである。
ステップ S101では、複合機 1は、対象物の画像 122と写真画像 126とを合成する ための互いに異なる合成条件の指示を受け付ける。具体的には、合成指示受付モジ ユール 61は、図 20に示すメニュー画面 1100を LCD14に表示させ、その後に十字 ボタン 12の操作によりユーザがいずれかの合成条件を選択し決定ボタン 10を押すこ とによって操作部 42から出力される信号を合成条件指示として受け付ける。合成指 示受付モジュール 61は、合成結果を具体的に示す見本 111を画面表示することに より選択可能な合成条件をユーザに案内してもよいし、「上下二段組」、「重ね合わせ 」などの文字列を画面表示することにより選択可能な合成条件をユーザに案内しても よい。
[0070] ステップ S102では、合成指示受付モジュール 61は、ステップ S101で受け付けた 合成条件指示に応じたオーダーシートテンプレート 113及び合成テンプレート 120を ROM52から RAM53に読み込む。この処理により、合成条件指示に応じたオーダ 一シート 70の自由描画領域 72が設定され、自由描画領域 72の画像 122及び写真 画像 126については、合成条件指示に応じた配置、レイヤの上下関係、各レイヤの 透過率、印刷用紙サイズ等が設定される。
[0071] 以上説明した本発明の第五実施例によると、オーダーシート 70にはユーザが選択 する画像と手書き文字等の対象物との合成結果の見本 111が印刷されるため、ユー ザは合成結果を具体的に想像しながら自由描画領域 72に対象物を記録することが できる。
[0072] (第六実施例)
図 21は、本発明の第六実施例による複合機 1によって印刷されるオーダーシート 7 0に対象物が記録された状態を示す模式図である。本発明の第六実施例による複合 機 1では、オーダーシート 70に複数の見本 111を印刷し、各見本 111に付された識 別子 136を介して合成条件指示を受け付ける。オーダーシート 70を印刷するための テンプレートは、見本 111を印刷するための定義情報が複数になる点を除いては第 五実施例と実質的に同一であるため、説明を省略する。
[0073] 図 22は、本発明の第六実施例による画像処理方法を示すフローチャートである。
複合機 1は、ステップ S 108でスキャン要求を受け付けた後にステップ S 101を実施 して合成条件指示を受け付ける。具体的には、合成指示受付モジュール 61は、図 2 3に示すメニュー画面 1110を LCD14に表示させる。メニュー画面 1110では、十字 ボタン 12及び決定ボタン 10を押すことによって、オーダーシート 70の各見本 111に 付された識別子 136のいずれかを選択可能である。合成指示受付モジュール 61は、 ユーザが十字ボタン 12及び決定ボタン 10を押すことによって操作部 42から出力さ れる信号に応じて、 Vヽずれかの合成条件指示を受け付ける。
ステップ SI 11では、制御部 50はステップ S110で受け付けられた合成条件指示に 応じて合成テンプレートを設定する。具体的には、合成モジュール 66は、ステップ S1 10でユーザが選択した識別子に応じた合成テンプレートを ROM52から RAM53に 読み込む。
[0074] 以上説明した本発明の第六実施例によると、ユーザが選択しうる合成条件に応じた 複数の見本 111がオーダーシート 70に印刷される。そのためユーザは、 LCD14の 解像度が低く画面サイズが小さい場合であっても、選択可能な合成条件を具体的に 認識することができる。
[0075] (第七実施例)
図 1は、本発明の第七実施例による複合機 1によって印刷されるオーダーシート 70 に対象物 116が記録された状態を示す模式図である。本発明の第七実施例による 複合機 1では、オーダーシート 70に合成条件を選択するための複数のチェックボック ス 88を印刷し、チェックボックス 88を塗りつぶした筆跡 88mを光学的に認識すること によって合成条件を設定する。オーダーシート 70を印刷するためのテンプレートは、 合成結果を表す複数の見本 111のそれぞれの直下にチェックボックス 88を配置して いる。見本 111は請求項に記載の合成条件表記に相当する。ユーザは、いずれかの チェックボックス 88を塗りつぶすことにより、そのチェックボックス 88の真上に配置され て 、る見本 111に対応する合成条件を選択することができる。チェックボックス 88を 塗りつぶした筆跡 88mが合成条件指示に相当する。
[0076] 図 24は、本発明の第七実施例による画像処理方法を示すフローチャートである。
ステップ SI 11では、制御部 50は塗りつぶされたチェックボックス 88に対応する合 成テンプレートを設定する。具体的には、合成条件認識ユニットとしての合成モジュ ール 66は、いずれのチェックボックス 88が塗りつぶされているかをプレスキャン画像 に基づいて判定し、塗りつぶされているチェックボックス 88に対応する合成テンプレ ートを ROM52から RAM53に読み込む。その結果、オーダーシート 70に記録され た合成条件指示に指示された見本 111が表す合成条件が制御部 50に認識される。
[0077] 以上説明した本発明の第七実施例によると、ユーザは自由描画領域 72に手書き 文字等を記録する前後にチェックボックス 88を塗りつぶすことにより、合成条件を指 示できるため、合成条件を容易に設定することができる。
[0078] (第八実施例)
図 25は、本発明の第八実施例による複合機 1によって印刷されるオーダーシート 7 0を示す模式図である。本発明の第八実施例による複合機 1では、オーダーシート 7 0に印刷条件を選択するためのチェックボックス 91、 76を印刷し、チェックボックス 91 、 76を塗りつぶした筆跡 91m、 76mを光学的に認識することによって印刷条件を設 定する。ユーザは、複数のチェックボックス 91のいずれか 1つを塗りつぶすことにより 、複数種類の印刷用紙力もいずれ力 1つを選択することができる。またユーザは、複 数のチェックボックス 76のいずれか 1つを塗りつぶすことにより、印刷枚数を選択する ことができる。
本発明の第八実施例によると、ユーザは自由描画領域 72に手書き文字等を記録 する前後にチェックボックス 91、 76を塗りつぶすことにより、印刷条件を指示できるた め、印刷条件を容易に設定することができる。
[0079] (第九実施例)
図 26は、本発明の第九実施例による複合機 1の機能ブロック図である。 第三操作手段 304は、操作部 42、合成指示受付モジュールを実行する制御部 50 等で構成され、後述する画像選択領域 71で選択された画像と自由描画領域 72を表 す画像とのレイアウトを選択する所定のボタン操作を受け付ける。
第一操作手段 300は、合成指示受付モジュールを実行する制御部 50、操作部 42 等で構成され、所定のボタン操作をオーダーシート要求として受け付ける。
[0080] 第一出力手段 310は、印刷制御モジュールを実行する制御部 50、カード読み書き 部 41、プリントユニット 30等で構成される。第一出力手段 310は、第一操作手段 300 によりオーダーシート要求が受け付けられると、リムーバブルメモリ 3に記憶された画 像データと ROM52に記憶されたテンプレートを読み込んで後述するオーダーシート を印刷する。
[0081] 第二操作手段 302は、合成指示受付モジュールを実行する制御部 50、操作部 42 等で構成され、所定のボタン操作を合成画像の印刷要求として受け付ける。
オーダー読み取り手段 306は、読み取り制御モジュール及び画像選択指示認識モ ジュールを実行する制御部 50、スキャンユニット 20等で構成され、第二操作手段 30 2により合成画像の印刷要求が受け付けられると、オーダーシート 70を読み取り、検 証マーク 81、基準マーク 82、塗りつぶされたチェックボックス 74m、 76m、 79m、 86 m、及び 87mを光学的に認識し、また自由描画領域 72の画像を出力する。画像選 択指示認識ユニットとしての画像選択指示認識モジュールは、チェックボックス 74を 読み取った画像に基づ 、て、ユーザが選択した画像ファイルを認識するプログラム 部品である。
[0082] 第二出力手段 308は、合成モジュールを実行する制御部 50、プリントユニット 30等 で構成され、画像選択領域 71で選択された画像と自由描画領域 72を表す画像との 合成画像を印刷する。尚、後述するプレビューでは、第二出力手段 308は、合成画 像を印刷せずに LCD14に表示する。
[0083] 図 27は、図 28に示すディレクトリ構造のリムーバブルメモリ 3が接続された状態で複 合機 1によって印刷されるオーダーシート 70の一例を示す模式図である。オーダー シート 70のレイアウトは ROM52に記憶されたオーダーシートテンプレートによって定 義されている。図 31は、必要事項がユーザによって記入されたオーダーシート 70の 一例を示す模式図である。オーダーシート 70に表記される各要素の配置は、基準マ ーク 82を基準として設定されて ヽる。
[0084] 基準マーク 82は、オーダーシート 70の上部左隅にレイアウトされて!/、る。オーダー 読み取り手段 306が基準マーク 82の位置を認識することにより、オーダーシート 70 に表記されて ヽる各要素の位置を相対的に認識できる。
画像選択領域 71には、リムーバブルメモリ 3の DCIMフォルダ 90に保存されている 画像ファイル(例えば、木. jpgゝ顔. jpgゝ花. jpgゝ海. jpgゝもみじ. jpgゝ 日の出. jpg 、山. jpg、人. jpg)に格納されているサムネイル画像 73とチェックボックス 74がレイァ ゥトされている。チェックボックス 74を塗りつぶすことにより、そのチェックボックス 74m の直上にレイアウトされているサムネイル画像 73m (例えば、 日の出. jpgのサムネィ ル画像)に対応する画像ファイルの本画像を合成対象として選択できる。サムネイル 画像 73は請求項に記載の画像表記に相当する。チェックボックス 74mを塗りつぶし た筆跡が請求項に記載の画像選択指示に相当する。尚、リムーバブルメモリ 3の DCI Mフォルダ 90に保存されている画像ファイルは、本画像で表記してもよいし、フアイ ル名ゃ内部識別子を印刷して表記してもよい。
[0085] 自由描画領域 72は、手書き文字 (例えば、「賀正」)を描画したり、雑誌の切り抜き を貼付けたりするための空白領域であって矩形枠で囲まれている。 自由描画領域 72 に手書きされる文字や図形の筆跡、自由描画領域 72に貼り付けられる印刷物、自由 描画領域 72に印刷される文字や図形が請求項に記載の対象物に相当する。
[0086] 印刷枚数を選択する領域 75には、 0〜99枚までの印刷枚数の各桁の数字に対応 するチェックボックス 76及びプレビューを選択するチェックボックス 84がレイアウトされ ている。左の列にレイアウトされているチェックボックス 76を塗りつぶすことにより印刷 枚数の十の位の数字を選択し、右の列にレイアウトされているチェックボックス 76を塗 りつぶすことにより印刷枚数の一の位の数字を選択できる。
[0087] レイアウト選択領域 77には、レイアウトを模式的に示す画像 78とチェックボックス 79 とがレイアウトされている。チェックボックス 79を塗りつぶすことにより、塗りつぶされた チェックボックス 79の直上にレイアウトされている画像 78に対応するレイアウトを選択 できる。チェックボックス 79を塗りつぶした筆跡(79m:図 31参照)が請求項に記載の 合成条件指示に相当する。 [0088] 重畳合成条件選択領域 85には、チェックボックス 86、チェックボックス 87が表示さ れている。チェックボックス 86を塗りつぶすことにより、画像選択領域 71で選択された 画像に手書き文字を重畳合成するとき白縁取りを施すか否かの境界処理条件を選 択することができる。また、チェックボックス 87を塗りつぶすことにより、手書き文字を 表すレイヤの透明度 (例えば、 0%)を選択できる。尚、境界処理条件として白縁取り の幅を設定できてもよ!、し、重畳合成条件として他の透明度を選択できてもょ 、。
[0089] 図 29は、本発明の第九実施例による複合機 1で合成画像を印刷する処理を示すフ ローチャートである。図 30は、 LCD14の画面遷移を示す模式図である。
複合機 1にリムーバブルメモリ 3を接続し、メニュー画面 100でユーザが十字ボタン 12により「オーダーシートを印刷する」を選択して決定ボタン 10を押すと、 LCD14に はオーダーシート 70のテンプレートを選択する画面 102が表示される。画面 102で ユーザが十字ボタン 12でテンプレート (例えば、年賀状)を選択して決定ボタン 10を 押すと、第一操作手段 300がオーダーシート要求を受け付ける。第一操作手段 300 がオーダーシート要求を受け付けると、ステップ S12に進む (ステップ S10)。
[0090] ステップ S12では、オーダーシート 70の印刷中であることを示す画面 104が LCD1 4に表示され、第一出力手段 310がオーダーシート 70を印刷する。
ステップ S14において、ユーザは印刷されたオーダーシート 70のチェックボックス 7 4、 76、 79、 86、 87を、設定しょうとする画像処理条件に応じて塗りつぶし、自由描 画領域 72に手書き文字を描画する(図 31参照)。
[0091] 次に、ユーザがオーダーシート 70を図示しな!、原稿台の所定の位置に置き、メ-ュ 一画面 100で十字ボタン 12により「合成画像を印刷する」を選択して決定ボタン 10を 押すと、第二操作手段 302がスキャン要求を受け付ける。第二操作手段 302がスキ ヤン要求を受け付けるとステップ S 18に進む (ステップ S 16)。
[0092] ステップ S18では、合成画像の印刷中であることを示す画面 106が LCD14に表示 され、第二出力手段 308が合成画像を印刷する。合成画像の印刷が完了すると、メ ニュー画面 100力 SLCD14に表示される。
図 32はオーダーシート 70を印刷する処理 (ステップ S12)の詳細を示すフローチヤ ートである。 [0093] 第一操作手段 300によりオーダーシート要求が受け付けられると、第一出力手段 3 10は、リムーバブルメモリ 3の DCIMフォルダ 90に保存されている画像ファイルに識 別子を付与する(ステップ S200)。このとき、画像ファイルのファイル名のアスキーコ ード順に、各画像ファイルに識別子としての連続番号を付与する。
[0094] 次に、チェックサムを設定する(ステップ S 201)。チェックサムは、リムーバブルメモリ 3の DCIMフォルダ 90に保存されているデータの内容に応じて算出され、 RAM53 の所定の領域に保存される。
次に、ステップ S10で選択されたテンプレートを ROM52から RAM53に読み込み( ステップ S202)、第一出力手段 310は、当該テンプレートで定義されたレイアウト枠 に画像ファイルのサムネイル画像及び検証マーク 81を割り付けてオーダーシート 70 を印刷する (ステップ S203)。
[0095] 図 33は合成画像を印刷する処理 (ステップ S18)の詳細を示すフローチャートであ る。
ステップ S300では、オーダー読み取り手段 306が低解像度のモノクロ 2値画像とし てオーダーシート 70を読み取り、基準マーク 82に基づいて検証マーク 81とチェック ボックス 74、 76、 79、 86、 87との位置を画像上で特定した上で、検証マーク 81と、 塗りつぶされたチェックボックス(図 1参照)74m、 76m、 79m、 86m、及び 87mによ つて選択された処理条件と、を光学的に認識する。
[0096] ステップ S302では、ステップ S300で認識された検証マーク 81に対応するチェック サムとステップ S201で設定したチェックサムとを比較し、オーダーシート 70に表記さ れて 、る画像ファイルとリムーバブルメモリ 3に格納されて 、る画像ファイルが一致し ているか否かを判断する。一致していればステップ S304に進み、一致していなけれ ばオーダーシート 70に表記されている画像ファイルとリムーバブルメモリ 3に格納され て 、る画像ファイルが異なる旨を警告する画面を LCD14に表示する (ステップ S306
) o
[0097] ステップ S304では、画像選択領域 71で 2つ以上の画像ファイルが選択されていな いかを判別する。画像ファイルが 1つだけ選択されていればステップ S308に進み、 2 つ以上選択されて 、ればその旨を警告する画面を LCD14に表示する (ステップ S3 10)。
次に、ステップ S300で認識された基準マーク 82に基づいて自由描画領域 72の範 囲を認識する (ステップ S308)。基準マーク 82を利用して画像上で自由描画領域 72 の範囲を特定することにより、原稿台上で予め決められた位置にオーダーシート 70 が置かれていなくても自由描画領域 72の位置を正確に特定することができる。
[0098] 次に、オーダー読み取り手段 306が自由描画領域 72とその近傍の余白領域 83 ( 図 27参照)を高解像度で読み取る (ステップ S312)。
次に、自由描画領域 72を表す画像から手書き文字等の対象物の領域を抽出する( ステップ S314)。尚、ステップ S314を行わず、自由描画領域 72を表す画像をそのま ま画像選択領域 71で選択された画像と合成すると、自由描画領域 72の余白を含む 全体を表す画像を画像選択領域 71で選択された画像に合成した画像を作成するこ とがでさる。
[0099] ステップ S316では、ステップ S314で抽出された領域の手書き文字等の対象物と 画像選択領域 71で選択された合成対象の画像とを、レイアウト選択領域 77で選択さ れたレイアウトに応じて合成する。
次に、印刷枚数を選択する領域 75で選択された印刷枚数だけ合成画像が印刷さ れるまで合成画像の印刷を第二出力手段 308で繰り返す (ステップ S318、 320)。
[0100] 図 34は、自由描画領域 72を表す画像から手書き文字の領域を抽出し、抽出した 領域を画像選択領域 71で選択された画像に重畳合成するための処理 (ステップ S 3 14)の詳細を示すフローチャートである。
ステップ S400では、オーダーシート 70の地色が表れている余白領域 83と手書き 文字とを分けるしきい値を決定する。具体的にはまず始めに、余白領域 83の輝度ヒ ストグラムを作成する。この輝度ヒストグラムでは、図 35に示すように、オーダーシート 70の地色に対応する輝度値に分布が集中する。そこで次に、自由描画領域 72を表 す画像力も対象物の領域を抽出するためのしきい値を、その分布が集中する範囲の 近傍に設定する。これにより、オーダーシート 70に用いられた印刷用紙の地色に応 じた適切な値に設定することができる。
[0101] ステップ S402では、特定したしきい値に基づいて、自由描画領域 72を表す画像か ら手書き文字の領域を抽出し、当該領域のアルファチャンネルの値を重畳合成条件 選択領域 85のチェックボックス 87で選択された透明度に設定し、それ以外の領域の アルファチャンネルの値を完全な透明に設定する。アルファチャンネルとは、画素毎 に当該画像のレイヤの透明度を表すチャンネルである。
[0102] ステップ S403では、手書き文字として抽出された領域に含まれているノイズを除去 する。具体的には、抽出された領域のうち所定数以下の画素数で構成される島状の 領域の透明度を完全な透明に設定する。ここで、図 36 (b)は、アルファチャンネルに おいてノイズに相当する領域の透明度を変更しない場合、すなわちノイズの除去を 行わない場合の重畳合成処理を示す模式図であり、図 36 (c)は、アルファチャンネ ルにおいてノイズに相当する領域の透明度を完全に透明にした場合、すなわちノィ ズの除去を行った場合の重畳合成処理を示す模式図である。
[0103] 次に、重畳合成条件として白縁取りが選択されていれば、アルファチャンネルの不 透明領域を膨張させる (ステップ S404)。この結果、ステップ S316では、手書き文字 の周辺のオーダーシート 70の地色が画像選択領域 71で選択された画像の上に重 畳合成されるため、手書き文字等に縁取りをして合成画像を形成することができる( 図 36 (d)参照)。以上ステップ S314の処理を詳細に説明した。
[0104] 以上説明した本発明の第九実施例に係る複合機 1によると、ユーザはアクセス可能 な画像データ、選択可能なレイアウト、印刷枚数、境界処理条件等の画像処理条件 を容易に認識することができる。また、ユーザはアクセス可能な画像データからの合 成対象となる画像の選択、画像処理条件の選択、及び合成対象となる画像と合成す る手書きメッセージ等の入力を容易に行うことができる。したがって、 HMIを提供する ハードウェアが簡素なシステムであっても、ユーザは、そのシステムに所望の画像と 手書きメッセージ等を容易に合成表示することができる。
また、レイアウトを模式的に示す画像 78と合成対象の写真画像を表すサムネイル 画像 73等の画像とが自由描画領域 72を囲む矩形枠とともに印刷されているため、ュ 一ザは写真画像と手書き文字等がどのように合成される力を正確に予想しながら手 書き文字等の対象物を自由描画領域 72に記録することができる。
[0105] さらに、オーダーシート 70が基準マーク 82を有しているので、手書きメッセージ等 が表記された自由描画領域 72の位置を、オーダーシート 70を表す画像上で相対的 に認識できるため、現実の自由描画領域 72を正確に認識することができる。
さらに、画像処理条件として重畳合成を選択することができるので、例えば写真の 上に直接メッセージを手書きしたデザインの印刷物を作成することができる。
[0106] さらに、余白領域 83を読み取ってオーダーシート 70の地色を認識するため、自由 描画領域 72を表す画像から手書き文字の領域を精度よく抽出することができる。 さらに、オーダーシート 70を低解像度で読み取り、自由描画領域 72とその近傍の 余白領域 83を高解像度で読み取ることにより、合成画像の画質を低下させることなく オーダーシート 70の読み取り時間を短縮することができる。
また、本発明の画像処理システムは、用紙搬送経路に設けられる紙位置検出用の 光センサを備えるプリンタ単体で構成してもよい。すなわち、そのような紙位置検出用 の光センサによってオーダーシートの塗りつぶされたチェックボックスを認識してもよ い。
[0107] また、画像選択領域 71にはサムネイル画像 73をレイアウトする代わりに、識別子や ファイル名をレイアウトしてもよい。この場合、 LCD14にサムネイル画像 73とそれに 対応する識別子を表示できる構成であることが望ま U、。
(第十実施例)
第十実施例による複合機 1では、画像選択領域 71で 2つの画像ファイルを選択で きるオーダーシート 70を用いる。
[0108] 図 37は、本発明の第十実施例に係る画面の遷移を示す模式図である。
メニュー画面 100が表示された状態において、ユーザが十字ボタン 12により「ォー ダーシートを印刷する」を選択して決定ボタン 10を押すと、 LCD14にはレイアウトを 選択する画面 2021が表示される。画面 2021〖こは、レイアウトを模式的に表すアイコ ン 203が表示される。画面 2021が表示された状態において、ユーザが十字ボタン 1 2でいずれか 1つのアイコンを選択して決定ボタン 10を押すと、当該アイコンの示す レイアウトが選択され、第一操作ユニット 300が選択されたレイアウトに応じたオーダ 一シート 70の印刷要求を受け付ける(ステップ S10)。
[0109] 図 38は、本発明の第十実施例に係るオーダーシート 70の一例を示す模式図であ る。
画像選択領域 71には、サムネイル画像 73毎にチェックボックス 74a及び 74bが印 刷されている。ユーザは、チェックボックス 74aのいずれ力 1つを塗りつぶし、チェック ボックス 74bのいずれ力 1つを塗りつぶすことにより 2つの画像ファイルを選択すること ができる。
[0110] 自由描画領域 72には、画像選択領域 71で選択された画像ファイルが表す画像が レイアウトされる領域 89a及び 89bを示す矩形の枠が表記されている。ユーザは、領 域 89a及び 89b外の自由描画領域 72に手書き文字を描画することができる。 自由描 画領域 72に対する枠 89aと枠 89bの位置及び大きさは、ユーザにより選択される 2つ の画像の合成レイアウトにおける自由描画領域 72が読み取られた画像に対する位 置及び大きさに一致して 、る。
以上説明した本発明の第十実施例による画像処理システムでは、ユーザが選択し たレイアウトに応じた態様のオーダーシート 70が出力されるため、ユーザは自由描画 領域 72に手書きメッセージ等を表記するとき、合成対象となる画像との合成結果を容 易にイメージすることができる。また、オーダーシート 70のチェックボックス 74a及び 7 4bを塗りつぶすだけで、 2つの合成対象となる画像を選択することができる。
[0111] (第十一実施例)
本発明の画像処理システムの第十一実施例としてのオーダーシート受付端末は、 オーダーシートを読み取り、印刷の注文を受け付ける装置である。
[0112] 図 39は、本発明の第十一実施例によるオーダーシート受付端末を利用した印刷シ ステムを表す模式図である。印刷システム 6は、オーダーシート受付端末 4と、オーダ 一シート受付端末 4に接続されたプリンタ 212と、 PC210と、 PC210に接続されたプ リンタ 211とで構成されて!、る。
オーダーシート受付端末 4は、例えばディジタル画像のプリントサービスを提供する 店舗、コンビ-エンスストア等に設置されている。オーダーシート受付端末 4は、入力 ユニット 213、操作ユニット 214、オーダー読み取りユニット 306、及び出力ユニット 2 15を備える。操作ユニット 214は、第九実施例の第二操作ユニットと機能が実質的に 同一である。出力ユニット 215は、第九実施例の第二出力ユニットと機能が実質的に 同一である。入力ユニット 213は、リムーバブルメモリ 3に記憶されたデータを入力す るインタフェースである。
[0113] オーダーシート受付端末 4は、操作ユニット 214によって、ユーザによる所定のボタ ン操作をオーダーシート 70の読み取り要求として受け付け、出力ユニット 215によつ て、オーダーシート受付端末 4に設けられた図示しない表示装置に合成画像の印刷 結果のプレビューを表示する。合成画像は、入力ユニット 213によってリムーバブルメ モリ 3から入力される画像に基づいて生成され、オーダーシート受付端末 4に接続さ れたプリンタ 212で印刷される。
[0114] 以上説明した本発明の第十一実施例による画像処理システムでは、ユーザは、高 画質印刷の可能なプリンタを所有していなくても、手書き文字等をレイアウトした高画 質の合成画像の印刷物を容易に入手できる。
(第十二実施例)
第十二実施例による画像処理システムでは、印刷枚数の設定をキー操作で受け付 ける。
[0115] 図 40は、本発明の第十二実施例における LCD14の画面遷移を示す模式図、図 4
1は、本発明の第十二実施例おける画像処理システムで合成画像を印刷する処理を 示すフローチャートである。
複合機 1は、合成画像を印刷する処理のステップ S330において、オーダーシート 7 0のプレビューを選択するチェックボックス 84が塗りつぶされていると認識するとプレ ビュー要求と判定しステップ S332に進み、プレビュー要求でな 、と判定するとステツ プ S318に進む。ステップ S332において、複合機 1は LCD14にテストモード画面 22 0を表示する。テストモード画面 220には、自由描画領域 72に記載された手書き文 字と画像選択領域 71で選択された画像ファイルが表す画像の合成画像 228が表示 される。また、テストモード画面 220には「印刷」ボタン 222と枚数設定ボックス 224が 表示される。テストモード画面 220において、十字ボタン 12を上下に操作すること〖こ よって枚数設定ボックス 224に所望の印刷枚数を設定することができる。十字ボタン 1 2が左右に操作されると「印刷」ボタン 222又は「戻る」ボタン 226が選択される。「印 刷」ボタン 222が選択された状態で決定ボタン 10が押されると、設定されている印刷 枚数分の印刷要求が受け付けられ、ステップ S318に進む (ステップ S334)。ステツ プ S318と S320では、設定された印刷枚数だけ合成画像が印刷されるまで合成画 像の印刷を第二出力ユニット 308で繰り返す。
[0116] 尚、ステップ S332において、テストモード画面 220に合成画像 228を画面表示した 力 第二出力ユニットにより合成画像 228を一枚印刷表示してもよい。
以上説明した本発明の第十二実施例による画像処理システムでは、オーダーシー ト 70において設定されたプレビュー要求に対し、合成画像を画面表示あるいは印刷 表示した後、ユーザが所望の印刷枚数を設定するとき、印刷枚数を設定するためだ けに再度オーダーシートを読み込む必要が無い。すなわち、ユーザは所望の印刷枚 数を設定するとき、長時間を要するオーダーシートの読み込みを行う必要がなぐ簡 単なボタン操作により印刷枚数の設定が行えるため、作業時間を短縮することができ る。
[0117] (第十三実施例)
第十三実施例による画像処理システムでは、オーダーシート 70を低解像度で読み 取ったときに得られる自由描画領域 72の画像と画像選択領域 71で選択された画像 ファイルのサムネイル画像を画面に合成表示した後、ユーザの印刷要求を受け付け ると、オーダーシート 70を高解像度で読み取ったときに得られる自由描画領域 72の 画像と画像選択領域 71で選択された画像ファイルの本画像を合成印刷する。
[0118] 図 42は、本発明の第十三実施例における LCD14の画面遷移を示す模式図、図 4 3は、本発明の第十三実施例おける画像処理システムで合成画像を印刷する処理を 示すフローチャートである。
複合機 1は、ステップ S340において、ステップ S300で低解像度で読み取った自由 描画領域 72の画像と画像選択領域 71で選択された画像ファイルのサムネイル画像 とをオーダーシート 70で設定された画像処理条件に基づいて合成した合成画像 23 8を、 LCD14のテストモード画面 230に表示する。テストモード画面 230に表示され た「印刷」スィッチ 232が、十字ボタン 12の操作により選択され、決定ボタン 10が押さ れるとスキャン要求が受け付けられ (ステップ S342)、ステップ S312に進む。ステップ S312、 S314、 S316、 S318、 S320にお!/ヽて ίま、第九実施 ί列で説明したように、高 解像度で自由描画領域 72を読み取り、画像選択領域 71で選択された画像ファイル の本画像と自由描画領域 72の高解像度画像とを合成し、設定された枚数分の印刷 を行う。また、テストモード画面 230は、「戻る」スィッチ 236を備え、ユーザが十字ボタ ン 12により「戻る」スィッチ 236を選択し決定ボタン 10を押すと、印刷を行わず (ステツ プ S342)、メニュー画面 1000を表示する。
[0119] 以上説明した本発明の第十三実施例による画像処理システムでは、オーダーシー ト 70を低解像度で読み取ったときに得られる自由描画領域 72の画像と画像選択領 域 71で選択された画像ファイルのサムネイル画像を、オーダーシート 70で設定され た画像処理条件に基づいて合成し、テストモード画面 230に表示する。このため、ュ 一ザはおよその印刷結果を確認した後に印刷要求をすることができる。したがって、 本発明の第十三実施例による画像処理システムでは、テスト印刷で消費される印刷 用紙とインクを節減することができる。また、本発明の第十三実施例による画像処理 システムでは、テストモード画面 230の合成画像 238を低解像度で読み取られた画 像とサムネイル画像に基づ 、て表示するため、印刷結果の確認に要する時間を短縮 することができる。
[0120] (第十四実施例)
第十四実施例による画像処理システムでは、オーダーシート 70において、合成対 象となる画像の選択と、画像処理条件であるレイアウトと印刷枚数と境界処理条件を 設定可能とし、オーダー読み取りユニット 306においてオーダーシート 70を読み取つ た後、手書きメッセージ等を別途読み込み、選択された画像と合成表示する。
[0121] 図 44は、本発明の第十四実施例に係るオーダーシート 70を示す模式図である。ォ 一ダーシート 70は、画像選択領域 71と、印刷枚数を選択する領域 75と、レイアウト 選択領域 77と、重畳合成条件選択領域 85を備える。
図 45は、本発明の第十四実施例に係る LCD14の画面遷移を示す模式図、図 46 は、本発明の第十四実施例に係る画像処理システムで合成画像を印刷する処理を 示すフローチャート、図 47はユーザ原稿 260を示す模式図である。
[0122] 複合機 1は、ユーザがオーダーシート 70を図示しない原稿台に置き、メニュー画面 1000で十字ボタン 12により「合成画像を印刷する」を選択して決定ボタン 10を押す と、第二操作ユニット 302がスキャン要求を受け付け、合成画像を印刷する処理を開 始する。複合機 1は、合成画像を印刷する処理のステップ S300において、低解像度 のモノクロ 2値画像としてオーダーシート 70を読み取って合成対象となる画像と画像 処理条件を認識し、ステップ S302及びステップ S304にお!/、て各種のエラーのチェ ックを行うと、 LCD14に原稿セット待機画面 240を表示する。次に、ユーザがユーザ 原稿 260を図示しない原稿台に置き、決定ボタン 10を押すと、ユーザ原稿 260のセ ットが完了したと判定し (ステップ S350)、ステップ S352に進む。ここで、矩形のユー ザ原稿 260は、原稿台の予め決められた位置に置かれる矩形の原稿でもよいし、原 稿台の任意の位置に置かれる任意の形状の原稿でもよい。次に、複合機 1は、 LCD 14に合成画像の印刷中であることを示す画面 242を表示する。また、複合機 1は、低 解像度のモノクロ 2値画像として原稿台全体の画像を読み取って、読み取った画像 から原稿台の合成対象領域を特定する (ステップ S352)。このとき、ユーザ原稿 260 の全体を合成対象領域としてもよいし、ユーザ原稿 260の台紙に相当する領域を除 外した領域を合成対象領域としてもよい。以後、合成対象領域を手書き文字等の対 象物の領域として高解像度で読み取り、合成画像を生成し、印刷する処理について は第一実施例と同様である。
[0123] 以上説明した本発明の第十四実施例による画像処理システムでは、合成する対象 物を多様ィ匕することができる。
[0124] 以上説明した複数の実施例では、自由描画領域 72の画像と画像選択領域 71で選 択された画像を合成した結果を印刷する例にっ ヽて説明した力 画像処理システム は、自由描画領域 72の画像と画像選択領域 71で選択された画像を合成して得た画 像を表すデータをリムーバブルメモリ、通信回線等に出力するだけでもよい。
また、本発明の画像処理システムは、複合機 1単体でなくても、 PCと PC〖こ接続され たプリンタとイメージスキャナとで構成してもよい。この場合、 PCとイメージスキャナと を接続するための USB (Universal Serial Bus)インタフェース、 PCとプリンタとを接続 するための USBインタフェース等のインタフェースが特許請求の範囲に記載の「プリ ントユニットとスキャンユニットとが接続されるインタフェース」に相当する。
[0125] (オーダシートの構成一覧) 図 48は、ここまでに説明したオーダシートに配置された構成要素の組み合わせをま とめた表である。オーダシートに配置される構成要素の組み合わせは、この表に限定 されない。すなわち制御部 50がオーダシート要求を受け付ける時に、十字ボタン 12 や決定ボタン 10の操作によって選択されるべき、もしくはオーダシートテンプレートに 予め設定されるべき、オーダシートに印刷すべき構成要素は、この表以外の組み合 わせとしてもよい。また各種印刷条件を、十字ボタン 12や決定ボタン 10によるユーザ 選択、もしくはオーダシートに提示される複数の選択肢力 のユーザ選択のいずれ にするかは、適宜変更可能である。
[0126] (第十五実施例)
1.画像処理システムの構成
図 50は、本発明による画像処理システムの第十五実施例としての複合機 1の外観 を示す図である。図 51は、複合機 1を示すブロック図である。複合機 1は、リムーパブ ルメモリ 20や図示しな!、PC (Personal Computer)力 入力される画像を印刷する機 能と、複写機能とを有する。尚、画像処理システムは、画像の読み取り機能を有する スキャナと、印刷機能を有するプリンタと、スキャナとプリンタの制御機能を有する PC とで構成してもよい。
[0127] スキャンユニット 50は、主に上部ケース 14に収容され、照明部 52、イメージセンサ 5 4、 AFE (Analog Front End)部 56、センサ駆動部 74、センサキャリッジ駆動部 76等 を備える。照明部 52は、主走査方向に長い蛍光管ランプ等で構成される。センサ駆 動部 74に駆動されるイメージセンサ 54は、 RGBの 3チャネルの光電素子群を備える カラー CCDリニアイメージセンサ等のリニアイメージセンサである。イメージセンサ 54 は、透明な原稿台 12と平行に移動する図示しないセンサキャリッジに搭載されている 。イメージセンサ 54は、図示しないレンズ及びミラーにより受光面に結像される原稿 の光学像の濃淡に相関する電気信号を出力する。センサキャリッジ駆動部 76は、図 示しないモータ、駆動ベルト、駆動回路等を備える。センサキャリッジ駆動部 76は、 主走査方向に垂直に架設された図示しないガイドロッドに沿ってセンサキャリッジを 往復移動させる。イメージセンサ 54が主走査方向と垂直な方向に移動することにより 二次元画像を読み取り可能となる。 AFE部 56は、増幅、ノイズ除去等のアナログ信 号処理回路、 AZD変換器等を備える。
[0128] プリントユニット 86は、主に下部ケース 16に収容され、インクジェット方式で用紙に 画像を形成するための印字ヘッド 84、ヘッドキャリッジ駆動部 78、送紙部 80、これら を制御する印刷制御部 82等を備える。尚、プリントユニット 86はレーザ方式等の他の 印刷方式に対応する構成でもよい。印字ヘッド 84は、インクカートリッジが搭載される 図示しないヘッドキャリッジに設けられ、ノズル、ピエゾ素子、ピエゾ素子に印加する 駆動信号を出力するピエゾ駆動回路等を備える。ピエゾ駆動回路はピエゾ素子に印 加する駆動信号の波形によって、ノズルから噴射されるインク滴を大中小の 3段階に 制御することができる。ピエゾ駆動回路は、印刷制御部 82から出力される制御信号 に応じて所定の波形の駆動信号をピエゾ素子に印加する。ヘッドキャリッジ駆動部 7 8は、図示しないモータ、駆動ベルト、モータ駆動回路等を備える。ヘッドキャリッジ駆 動部 78は、用紙の搬送方向と垂直に印字ヘッド 84を往復移動させる。送紙部 80は 、図示しない用紙搬送ローラ、モータ、モータ駆動回路等を備える。送紙部 80は、用 紙搬送ローラを回転させることにより用紙を印字ヘッド 84の移動方向軸線と垂直な方 向に搬送する。印刷制御部 82は、 RAM60から順次印字データが転送されるバッフ ァメモリと、ノッファメモリに格納された印字データを印字ヘッド 84に出力するタイミン グをヘッドキャリッジの位置に応じて制御する機能と、ヘッドキャリッジ駆動部 78を制 御する機能と、送紙部 80を制御する機能とを備える ASICである。
[0129] アクセスユニットとして機能する外部メモリコントローラ 70は、カードスロット 18から揷 入されたリムーバブルメモリ 20に接続される。リムーバブルメモリ 20に格納されたデ ータは外部メモリコントローラ 70によって読み出され、 RAM60に転送される。
操作部 68は、メニューを表示するための LCD24と、メニューを操作するための十 字ボタン 22、 OKボタン 28、キャンセルボタン 21、印刷指示ボタン 30、テンキー 26等 の各種の押しボタンを備える。尚、操作部 68をタツチパネル、ポインティングデバイス 等で構成してもよい。
アクセスユニットとして機能する通信部 69は、制御部 58が PC等の外部のシステム と通信するための通信インタフェースである。通信部 69は、 LAN、インターネット、 U SB等を通じて外部のシステムと通信する。 [0130] 制御部 58は、 RAM60、 ROM62及び CPU64を備える。 CPU64は ROM62に格 納されている制御プログラムを実行して複合機 1の各部を制御する。 ROM62は、制 御プログラムを格納している不揮発性メモリである。記録媒体としての RAM60は、制 御プログラムやスキャンユニット 50に読み取られた画像、背景画像の色域テーブル 等の各種のデータが一時的に格納される揮発性メモリである。制御プログラムは遠隔 地のサーバからネットワークを経由して ROM62に格納してもよいし、リムーバブルメ モリ 20等のコンピュータ読み取り可能な記録媒体を経由して ROM62に格納してもよ い。制御部 58は制御プログラムを実行することにより、減色処理ユニット、オーダシー ト印刷制御ユニット、合成ユニット及び合成印刷制御ユニットとして機能する。
ディジタル画像処理部 66は、 JEPG画像のデコード、解像度変換、アンシャープ処 理、階調補正、二値化、分版処理等の画像処理を CPU64と協働して実行する DSP 等の専用回路である。
以上、複合機 1のハードウェア構成について説明した。次にオーダシートの印刷処 理について説明する。
[0131] 2.オーダシートの印刷処理
図 52はオーダシートの印刷処理の流れを示すフローチャートである。図 52に示す 処理は、モード選択メニューでオーダシート印刷モードが選択されると開始され、制 御部 58が ROM62に格納された制御プログラムの所定のモジュールを実行すること により実行される。
はじめに制御部 58は合成対象の写真画像であるユーザ画像を設定する (ステップ S100)。具体的には例えば、制御部 58は、リムーバブルメモリ 20に格納されたユー ザ画像を LCD24に表示し、十字ボタン 22、 OKボタン 28等の操作によるユーザ画 像の選択指示を受け付けると、選択指示に応じたユーザ画像を合成対象として設定 する。
[0132] ステップ S102、 104、 106、 108、 110で【ま、 ff¾御咅 58ίまディジタノレ画像処理咅 6と協働してユーザ画像力も背景画像を生成する。背景画像の元になるユーザ画像 は、手書き文字等の対象物と合成される最高解像度の画像でもよいし、サムネイル画 像でもよい。サムネイル画像に基づいて背景画像を形成することにより、処理時間を 短縮することができる。 JPEGフォーマット等のユーザ画像はデコードされると RGBの 3つのカラーチャネルを有する。ユーザ画像の色域は、各チャネルの階調値が 1バイ トで構成されると、 16777216 (256 X 256 X 256)の色値力ら構成される。ユーザ画 像の色域が色空間の全体に拡がっている場合、印刷されたユーザ画像の上にカラ 一ペンなどで書き込まれた文字の領域を光学的に認識することは極めて困難である 。ユーザ画像の色域と文字の領域の色域が重なっていない場合、特定の色域内の 画素を文字の領域と判定することができる。ユーザ画像の上に書き込むことのできる 文字などの対象物の色域の範囲を広げるためには、すなわち、ユーザが利用可能な 色を多くするためには、対象物の下に印刷されているユーザ画像の色域を狭くしなけ ればならない。以下、ユーザ画像の色域を減縮するために複合機 1が実行する様々 な画像処理につ 、て説明する。
[0133] 図 53はユーザ画像の色域とオーダシートに印刷される背景画像の色域を示す模 式図である。ユーザ画像が表す対象物は任意であるためユーザ画像の色域はフル カラー(例えば 16777216色)の色域である。背景画像の色域を狭くするため、始め に制御部 58はユーザ画像をグレートーン画像に変換する(ステップ S102)。
図 54はユーザ画像力も背景画像が生成されるまでの過程における階調特性の変 化を示す図である。図 54 (A)に示す階調特性を有するユーザ画像がグレートーン画 像に変換されると、グレートーン画像の階調特性は図 54 (B)に示すように RGBの各 チャネルのヒストグラムが一致するようになる。制御部 58は、 RGBから明度を求め、明 度と線形な関係を有する値に RGBの階調値を変換してグレートーン画像を生成して もよ 、し、 Gチャネルの階調値に R及び Bチャネルの階調値を変換してグレートーン 画像を生成してもよい。
[0134] 次に制御部 58は、グレートーン画像をシアンのモノトーン画像に変換する(ステップ S104)。具体的には例えば制御部 58は、シアンの補色である Rのチャネルの階調値 だけをそのままにして G及び Bのチャネルの階調値を全て 1つの固定値 (例えば 256 Z256)に設定する。尚、モノトーン画像の色相は特にシアンに限定されるものでは なぐ単一の色相であればよいが、シアン、マゼンタ、イェロー等のプリントユニット 86 のインク色の色相が望ましい。図 54 (B)に示す階調特性を有するグレートーン画像 を、 G及び Bチャネルの階調値を全て最大値に変換してシアンのモノトーン画像に変 換すると、モノトーン画像は図 54 (C)に示す階調特性になる。
次に制御部 58は、シアンのモノトーン画像の Rチャネルのヒストグラムを平坦ィ匕する
(ステップ S106)。具体的には例えば制御部 58は、 Rチャネルの階調値の頻度を最 小値力も順に加算し、目標頻度に最も近い値になったら、それまでに頻度を加算した 階調値 [r〜r ]の画素に平坦ィ匕後の最小階調値 Rを設定する。次に制御部 58は R
1 P 1
チャネルの階調値!: カゝら再び各階調値の頻度を順に加算していき、目標頻度に最
P+1
も近い値になったら、それまでに頻度を加算した階調値 [r 〜r ]の画素に平坦化後
P+1 Q
の階調値 Rを設定する。階調値を変換する際、制御部 58は周辺画素の平均階調値
2
などに応じて新たな階調値を設定してもよ 、し、ランダムに新たな階調値を設定して もよい。シアンのモノトーン画像の Rチャネルのヒストグラムを平坦ィ匕すると、モノトーン 画像は図 54 (D)に示す階調特性になる。
Rチャネルの階調値の標準偏差を減少させる方法としては、上述したヒストグラム平 坦化以外に、例えばパラメトリック変換や線形変換を採用することができる。また、ュ 一ザ画像の階調特性を解析し、ユーザ画像の階調特性に応じてこれらの変換方法 を切り換えてもよ!/、し、ユーザ画像の階調特性力 ¾チャネルの階調値の標準偏差を 減少させなくても背景画像で十分なコントラストを得られる特性である場合には、 Rチ ャネルの階調値の標準偏差を減少させるこれらの変換を実行しな 、ようにしてもょ ヽ ノラメトリック変換で目標とするヒストグラム g (j = l, 2, · ' ·Μ)は次式(1)で与えら れる。
[数 1]
S l ) . . . ( i )
Figure imgf000044_0001
ノ ラメータは例えば p = 0. 5〜0. 7に設定する。このようなパラメータを設定すること により、ヒストグラム平坦ィ匕に比べて頻度の低い階調値のバンド (値域)のコントラスト をそれほど低下させず、頻度の高い階調値のバンドのコントラストを改善することがで きる。尚、パラメトリック変換における変換後の Rチャネルの階調値を求めるァルゴリズ ムは上述したヒストグラム平坦ィ匕のアルゴリズムに準ずる。
線形変換はユーザ画像の Gチャネルの階調値が狭 、バンドに分布して 、る場合に 有効である。 Rチャネルの階調値のバンド [r、 r ]をより広いバンド [R、 R ]に線形に
A B c d 引き延ばす変換式は、次式(2)のとおりである。
[数 2] r i :変換前の階調値
R i :変換後の階調値
Figure imgf000045_0001
[0137] 次に制御部 58は、シアンのモノトーン画像の階調値をノヽイライトバンドに圧縮して 背景画像を形成する (ステップ S108)。この結果形成される背景画像は、 Rチャネル の階調値がハイライトバンドに集中しているため、元のユーザ画像に比べて淡い画像 になる。具体的には例えば制御部 58は、シアンのモノトーン画像の Rチャネルのシャ ドーレベルが所定値 (例えば 200/255)まで上がるように Rチャネルの階調値を変 換する。階調値の変換方法はヒストグラムの平坦ィ匕に準ずる。図 54 (D)に示すモノト ーン画像の Rチャネルの階調値をハイライトバンドに圧縮して形成された背景画像は 図 54 (E)に示す階調特性になる。
[0138] 階調値の分布を狭い幅に圧縮すると、元画像でコントラストが低いバンドでは階調 が消滅する。すなわち、画像の空間構成に関する情報が消滅する。すると、ユーザは 、オーダシートに印刷された背景画像の上に手書き文字等を書き込もうとするときに、 手書き文字と背景画像に表されて 、る対象物との位置関係を認識できなくなる。上 述したように階調値を圧縮する前に階調値の標準偏差を減少させる、すなわち、階 調値の分布をならすることにより、画像の空間構成に関する情報の減少を抑制するこ とができる。もちろん、階調値の分布をならし階調値の分布を圧縮することにより、元 のユーザ画像の階調特性は大きく変化する。しかし背景画像は、手書き文字をォー ダシートに書き込む位置を決める目安でしかないため、階調特性が変化したとしても ユーザ画像のおおよその空間構成をユーザが把握できる画像であれば十分である。 以上背景画像の形成処理について説明した。
[0139] 制御部 58は、背景画像を形成すると、オーダシート画像に背景画像を割り付ける( ステップ S110)。図 55はオーダシート画像の一例を示している。オーダシート画像は 全体として 1つの画像又は画像部品の描画命令の組み合わせとして ROM62に格納 されている。位置基準マーク 90、 98は、原稿台 12に載置されたオーダシートの位置 及び傾きを制御部 58に認識させるためのマークである。ブロックコード 92は、オーダ シートの種類を制御部 58に認識させるためのマークである。複数のチェックマーク 94 は印刷部数、手書き文字とユーザ画像の境界処理条件等の合成印刷条件を制御部 58に認識させるためのマークである。標本パッチ 96は、背景画像と色域が一致し、 透明から背景画像の最大濃度まで一様に濃度が変換するチャートである。標本パッ チ 96は、 1つでもよいし、互いに色域が異なる複数の領域で構成してもよい。背景画 像は向かい合う頂点の座標が ROM62に記録されている矩形の自由描画領域 100 に割り付けられる。補助画像領域 102は、向かい合う頂点の座標カ¾^^62に記憶 されており、ユーザ画像がそのままの階調特性で割り付けられる。補助画像領域 102 に割り付けられるユーザ画像は最高解像度の画像でもよ 、し、サムネイル画像でもよ V、。図 56は背景画像が割り付けられたオーダシート画像の一例を示して 、る。
[0140] ステップ S112では、制御部 58は背景画像が割り付けられたオーダシート画像をプ リントユニット 86に印刷させる。尚、上述したオーダシートへの背景画像の割付処理と 、オーダシートの印刷処理とは画像のバンド単位に実行される。具体的には制御部 5 8は、割付前のオーダシート画像の印刷処理をバンド単位に実行しながら、バンド内 に背景画像やユーザ画像が割り付けられて ヽる場合には、背景画像の解像度変換、 ユーザ画像の画質補正、背景画像及びユーザ画像の割付等を行ってから印刷処理 を実行する。
[0141] 図 57はオーダシートの印刷処理の流れを示すフローチャートである。図 57に示す 処理は制御部 58が制御プログラムの所定のモジュールを実行することによって実行 される。 ステップ S120では、制御部 58は、ディジタル画像処理部 66と協働して背景画像 又はユーザ画像の解像度を割付される領域の大きさに応じて変換する。またテンプ レート画像全体を印刷解像度に変換する。
[0142] ステップ S122では、制御部 58は、補助画像領域 102に割り付けられるユーザ画像 の画質をディジタル画像処理部 66と協働して調整する。具体的には例えば制御部 5 8はアンシャープ処理等を実行する。
ステップ S124では、制御部 58は、分版処理を実行する。具体的には例えば制御 部 58は、オーダシート画像の階調値を RGB色空間の値カゝら CMY色空間 (K (黒)等 の補助的なチャネルをもたせてもよい。)の値に変換する。この結果、原理的には、 G 及び Bチャネルが固定値で Rチャネルだけが階調を有するシアンのモノトーン画像で ある自由描画領域 100は C (シアン)チャネルだけに階調を有する階調特性になる。 ただし実際には、 RGB値から CMY値への変換に用いる 3D— LUTのグリッド値の誤 差や 3D— LUTのグリッド間の補間処理での誤差により、自由描画領域 100の M及 び Kチャネルにも濃 、バンドで狭 、幅の階調が表れることが一般的である。
[0143] ステップ S126では、制御部 58はハーフトーン処理を実行する。ハーフトーン処理 の基本は多階調の色値の配列をインク滴を噴射する力しないかの二値の配列に変 換する処理である。大中小のインク滴を使い分ける場合には、噴射しない、小インク 滴を噴射する、中インク滴を噴射する、大インク滴を噴射する、の 4値のいずれかの 値に多階調の色値をチャネル毎に変換する。この場合、インク滴で表現できる階調 は 4階調であるため、各画素の階調に誤差が発生する。この誤差を近傍画素に分散 させることによって擬似的に多くの階調を表現することができる。このような誤差拡散 処理を高速に実行するため、 CMYの階調毎に注目画素に割り当てる 4値とその傍 画素に振り分ける誤差を記述したルックアップテーブルが ROM62に格納されている 。印字ヘッド 84から噴射される単位面積当たりのインク滴群の噴射量は、図 58に示 すように濃度が低 、ほど小インク滴の構成比率が高くなり、濃度が高 、ほど大インク 滴の構成比率が高くなる。
[0144] ハーフトーン処理後、制御部 58はハーフトーン処理によって形成された 4値の噴射 データを噴射順に並び替えるインタレース処理を実行する (ステップ S 128)。 ステップ S130では、制御部 58は噴射順に噴射データを印刷制御部 82に出力し、 印刷制御部 82は順次バッファメモリに格納される噴射データに基づ!/、て印字ヘッド 8 4を駆動する。
[0145] 図 59及び図 60は、用紙上に一様に濃度が変化する画像を複数サイズのインク滴 で形成した場合にその画像の濃度がどのように読み取られるかを説明するための模 式図である。 110、 112、 114、 116、 118、 120ίまスキャンユニット 50力読み取る 1画 素を示して ヽる。また 110と 112、 114と 116、 118と 120は、それぞれプリントユニット 86の同一の色値(デバイスカラー)に対応する画素の組である。スキャンユニット 50 が読み取る 1画素は極めて小さいため、同一の色値に対応する画素であっても、画 素内のインク滴の構成は図 59及び図 60に示すように一様ではない。すなわち、同一 の色値に対応する画素であっても画素内でインク滴が占める面積の割合は異なる。 同一の色値に対応する画素内でインク滴が占める面積の割合のばらつきは、インク 滴が大きくなるほど大きくなる。読み取った自由描画領域内で背景画像の領域を判 定する場合、同一の色値に対応する画素内でインク滴が占める面積の割合のばらつ きが小さいほど判定精度は高くなる。すなわち、背景画像の領域を判定する精度を 向上させるためには、できるだけ小さなインク滴を使って背景画像及び標本パッチ 96 を印刷することが望ましい。
[0146] できるだけ小さなインク滴を使って背景画像を印刷する方法としては、例えば以下 の方法がある。
(1)制御部 58がハーフトーン処理前、大インク滴及び中インク滴が噴射されない程 度に淡 ヽ背景画像を形成する。
(2)制御部 58又は印刷制御部 82がハーフトーン処理後、大インク滴及び中インク 滴を噴射する値を噴射しな ヽ値に変換する。
(3)制御部 58又は印刷制御部 82がハーフトーン処理後、大インク滴及び中インク 滴を噴射する値を小インク滴を噴射する値に変換する。
(4)印刷制御部 82が大インク滴及び中インク滴を噴射する値に応じて小インク滴が 噴射される波形の駆動信号をピエゾ駆動回路から出力させる。
(5)大インク滴及び中インク滴を噴射する値を持たな 、ルックアップテーブルが通 常モード用のルックアップテーブルとは別に ROM62に格納され、背景画像を印刷 するモードでは、制御部 58が大インク滴及び中インク滴を噴射する値を持たな 、ルツ クアップテーブルを用いてハーフトーン処理を実行する。
[0147] 3.対象物のオーダシートへの記入
図 49は上述の処理によって印刷された後に手書き文字 126 (Hello! )が記入され たオーダシートの一例を示す平面図である。自由描画領域 100には背景画像が印 刷されている。補助画像領域 102にはユーザ画像がそのままの階調特性で印刷され ている。ユーザは自由描画領域 100に印刷された背景画像の上に手書き文字 126 等の対象物を記録することができる。自由描画領域 100には雑誌の切り抜きゃシー ルなどを貼付してユーザ画像と合成される対象物を記録してもよ ヽ。またユーザは任 意のチェックマーク 94を塗りつぶすことによって所望の印刷条件を設定することがで きる。
[0148] 背景画像の元画像であるユーザ画像と手書き文字 126等の対象物とは自由描画 領域 100を割り付け位置の基準にして合成されるため、ユーザは多階調で印刷され た背景画像の空間構成に基づいてユーザ画像の空間構成を認識しながら手書き文 字 126等の対象物を自由描画領域 100内に記録することができる。すなわち、ユー ザはユーザ画像のどの領域に手書き文字 126が割り付けられるのかを認識しながら 自由描画領域 100内に手書き文字 126等の対象物を記録することができる。さらに、 背景画像の Rチャネルのヒストグラムがハイライトバンドで平均化されて 、るため、ュ 一ザ画像の階調特性に関わらず、ユーザは淡い背景画像力 ユーザ画像の空間構 成を確実に認識することができる。さらに、補助画像領域 102にユーザ画像がそのま まの階調特性で印刷されているため、ユーザは自由描画領域 100に印刷された背景 画像と補助画像領域 102に印刷されたユーザ画像とに基づいてユーザ画像と手書 き文字 126等の対象物との位置関係をより確実に認識することができる。
[0149] また背景画像は単一の色相(シアン)し力持たな 、ため、ユーザはシアン以外の任 意の色相で対象物を自由描画領域 100に記録することができる。また背景画像は淡 色化されているため、背景画像と同じ色相であっても背景画像と明度や彩度が異な る色であればその色を用いて対象物を自由描画領域 100に記録することができる。 すなわち、背景画像と異なる任意の色相で自由描画領域 100に記録された対象物 の領域を複合機 1が光学的に認識でき、背景画像と同じ色相であっても明度や彩度 が異なる色で記録された対象物であれば複合機 1が光学的にその領域を認識できる ということである。
尚、背景画像はユーザ画像の色域を減縮したものであればよぐ必ずしも単一色相 である必要はない。背景画像の最大色域が予め決まっていれば、背景画像の色域 外の色の筆記具を仕様するようにユーザに案内すれば足りる。
[0150] 4.ユーザ画像と手書き文字との合成
図 61は複合機 1がオーダシートを読み取り、オーダシートに記録された手書き文字 等の対象物とユーザ画像とを合成して印刷する処理の流れを示すフローチャートで ある。図 61に示す処理は、ユーザが手書き文字等を書き込んだオーダシートを複合 機 1の原稿台 12に載置した状態で操作部 68を用いた所定の操作によりオーダシー トの読み取りを複合機 1に指示することによって開始される。
[0151] ステップ S200では、複合機 1はオーダシートを二値で読み取る。具体的には、原稿 台 12に載置された原稿がスキャンユニット 50によって読み取られ、読み取られた原 稿の画像が RAM60に格納される。制御部 58は RAM60に格納された原稿の画像 を所定のしき 、値 (例えば 128Z256)で二値化する。
ステップ S202では、制御部 58は二値化された原稿の画像を OMR (Optical Mark Recognition)処理することにより、塗りつぶされたチェックマーク 94に応じた印刷条件 を設定する。このとき、位置基準マーク 90、 98の位置を基準にしてオーダシート上に 印刷されている画像部品 (背景画像、標本パッチ、チェックマーク等)の位置が特定さ れる。
[0152] ステップ S204では、複合機 1は標本パッチ 96をフルカラーで読み取る。具体的に は、標本パッチ 96の領域が位置基準マーク 90、 98の位置を基準にしてスキャンュ- ット 50によって読み取られ、読み取られた標本パッチ 96の画像が RAM60に格納さ れる。
ステップ S206では、制御部 58は標本パッチ 96の画像に基づいて背景画像の色 域テーブルを生成する。背景画像の色域テーブルは、背景画像の色域と一致する 標本パッチ 96の色域が格納されるルックアップテーブルである。
[0153] 図 62は背景画像の色域テーブルに格納されるデータの一例を示すグラフである。
自由描画領域 100内で背景画像の領域を正確に認識するためには、制御部 58は 背景画像と色域が一致する標本パッチの色域を完全に記憶しなければならな 、。そ こで、限られた RAM60の容量に標本パッチの色域を格納するためのモデル化が必 要になる。標本パッチ及び背景画像はシアンの単一色相の画像であるため、標本パ ツチを読み取った画像は、理論的には Rチャネルのみが階調を有し、 B及び Gチヤネ ルは固定値 (例えば 256Z256)の階調特性になる。しかし、実際には分版精度、ス キャンユニット 50とプリントユニット 86のデバイスカラーの違い等により、 B及び Gチヤ ネルにも階調が表れる。ただし、 B及び Gチャネルの階調は Rチャネルの階調と強い 相関関係があり、ある狭い幅でのみ変化するという特徴がある。そこで、制御部 58は Rチャネルの階調に対して B及び Gチャネルの階調がどのように分布するかを記憶す ることにより、標本パッチ及び背景画像の色域を少な 、容量で記憶することができる。 具体的には、制御部 58は標本パッチの画像の RGB3チャネルの値を画素毎に調べ 、任意の Rチャネルの値に対する G及び Bチャネルの最大値及び最小値を検出する ことにより、標本パッチの色域を記憶することができる。以下、フローチャートに基づい て詳細に説明する。
[0154] 図 63は背景画像の色域テーブルの生成処理の流れを示すフローチャートである。
制御部 58は G及び Bチャネルの最小値(Gmin, Bmin)及び最大値(Gmax, Bma x)をリセットした後 (ステップ S300)、以下の処理を標本パッチの画像の全画素につ いて繰り返す (ステップ S302)。具体的には、制御部 58は全ての Rの値に対応する( Gmax, Gmin, Bmax, Bmin)の値を(0, 255, 0, 255)に設定する。
[0155] ステップ S304及びステップ S306では、制御部 58は注目画素の Gチャネルの値が 、注目画素の Rチャネルの値に対応付けて記憶されて 、る Gチャネルの最大値(Gm ax)より大き ヽか判定し、大きければ注目画素の Rチャネルの値に対応付けられて!/、 る Gチャネルの最大値(Gmax)を注目画素の Gチャネルの値に更新する。
ステップ S312及びステップ S314では、制御部 58は注目画素の Gチャネルの値が 、注目画素の Rチャネルの値に対応付けて記憶されて 、る Gチャネルの最小値(Gm in)より小さ!/、か判定し、小さければ注目画素の Rチャネルの値に対応付けられて!/、 る Gチャネルの最小値(Gmin)を注目画素の Gチャネルの値に更新する。
[0156] ステップ S308及びステップ S310では、制御部 58は注目画素の Bチャネルの値が 、注目画素の Rチャネルの値に対応付けて記憶されて 、る Bチャネルの最大値(Bm ax)より大き ヽか判定し、大きければ注目画素の Rチャネルの値に対応付けられて!/、 る Bチャネルの最大値(Bmax)を注目画素の Bチャネルの値に更新する。
ステップ S316及びステップ S318では、制御部 58は注目画素の Bチャネルの値が 、注目画素の Rチャネルの値に対応付けて記憶されて 、る Bチャネルの最小値(Bmi n)より小さ ヽか判定し、小さければ注目画素の Rチャネルの値に対応付けられて!/、る Bチャネルの最小値(Bmin)を注目画素の Bチャネルの値に更新する。
[0157] 以上の処理が全画素について終了すると、 Rチャネルの全ての値について B及び Gチャネルの最大値と最小値が記憶され、標本パッチ 96の色域が完全に記憶される 。このように Rチャネルの値に関連付けて B及び Gチャネルの最大値と最小値を記憶 する色域テーブルのデータサイズは、各チャネルの階調値が 1バイトの場合、わずか 1Kバイト(256 X 2 X 2バイト)である。以上、背景画像の色域テーブルの生成処理に ついて説明した。
[0158] ステップ S208では、複合機 1は自由描画領域 100を読み取る。具体的には、印刷 された背景画像の上に手書き文字などが書き込まれた自由描画領域 100が位置基 準マーク 90、 98の位置を基準にしてスキャンユニット 50によって読み取られ、読み取 られた自由描画領域 100の画像が RAM60に格納される。
ステップ S210では、制御部 58は自由描画領域 100の画像から手書き文字等の対 象物の領域を分割する。具体的には、制御部 58は自由描画領域 100の画像に透明 度を示すチャネル (アルファチャネル)を追加し、背景画像の領域を透明に設定する
[0159] 図 64は対象物領域の分割処理の流れを示すフローチャートである。
制御部 58は自由描画領域 100の全画素について以下の処理を繰り返す (ステップ S400)。
ステップ S402では、制御部 58は、注目画素の B及び Gチャネルの値が背景画像 の色域テーブルに注目画素の Rチャネルの値と対応付けて記憶されて 、る B及び G チャネルの値の範囲内である力否かを判定する。すなわち、制御部 58は、注目画素 の Rチャネルの値に対応付けて記憶されて 、る Gチャネルの最大値が注目画素の G チャネルの値以上で、かつ、注目画素の Rチャネルの値に対応付けて記憶されてい る Gチャネルの最小値が注目画素の Gチャネルの値以下で、かつ、注目画素の Rチ ャネルの値に対応付けて記憶されて 、る Bチャネルの最大値が注目画素の Bチヤネ ルの値以上で、かつ、注目画素の Rチャネルの値に対応付けて記憶されている Bチ ャネルの最小値が注目画素の Bチャネルの値以下であるかを判定する。
[0160] 注目画素の B及び Gチャネルの値が背景画像の色域テーブルに注目画素の Rチヤ ネルの値と対応付けて記憶されて 、る B及び Gチャネルの値の範囲内である場合、 注目画素の色値は背景画像の色域内であるため、制御部 58は注目画素を透明画 素に設定する(ステップ S404)。すなわち、注目画素のアルファチャネルは透明を示 す値に設定される。
以上の処理が自由描画領域 100の全画素について終了すると、手書き文字等の 対象物の領域は自由描画領域 100を読み取った値に設定され、背景画像の領域は 透明に設定され、図 65に示すように、自由描画領域 100の画像 140から手書き文字 等の対象物の画像 142が生成される。
[0161] ステップ S212では、制御部 58はユーザ画像に対象物の領域を重畳合成する。具 体的には、制御部 58は対象物の画像 142のアルファチャネルを用いて対象物の画 像 142の色値とユーザ画像 146の色値とを RGBのチャネル毎に加算することによつ て合成画像 144を形成する。
ステップ S214では、複合機 1はユーザ画像に対象物の領域が重畳された合成画 像 144を印刷する。具体的には、制御部 58及びプリントユニット 86は上述した図 57 に示す処理を実行し、合成画像 144を印刷する。このとき、プリントユニット 86は通常 モードで作動し、大中小のインク滴を噴射して用紙に合成画像を形成する。
以上説明した一連の処理が終了すると、オーダシートに記録した手書き文字等の 対象物が、ディジタルカメラ等で生成されリムーバブルメモリ 20に格納されて ヽたュ 一ザ画像に合成された印刷物が複合機 1によって作成される。 [0162] (第十六実施例)
背景画像は、ユーザ画像のエッジ成分を表す画像としてもよい。具体的には例えば 、制御部 58は、リムーバブルメモリ 20から RAM60に格納されたユーザ画像に対し てエッジ検出処理を行い、ユーザ画像の微分画像を形成する。微分画像は水平方 向及び垂直方向に隣接画素間の色値の変化幅を計算し、変化幅を所定のしきい値 でニ値ィ匕した値を画素毎に持つ画像である。このようなユーザ画像のエッジ成分を 表す背景画像を複合機 1が自由描画領域 100に印刷しても、ユーザはユーザ画像 の空間構成を認識することができる。また、エッジ成分を表す画像は二値画像である ため、色域は極めて狭い。したがって、ユーザは多くの色を使って自由描画領域 100 に手書き文字などの対象物を記録することができる。
(第十七実施例)
図 66は、本発明の第十七実施例に係るオーダシート画像の一例を示している。 矩形枠 104は自由描画領域 100の外縁を示すマークである。矩形枠 104には背景 画像の色域内の色が設定されている。十字マーク 106、 108、 110、 112は読み取り 領域を制御部 58に認識させるためのマークである。十字マーク 106、 108、 110、 11 2は自由描画領域 100の近傍に配置されている。十字マーク 106の中心と十字マー ク 110の中心とを結ぶ線と、十字マーク 112の中心と十字マーク 108の中心とを結ぶ 線との交点が矩形の自由描画領域 100の外縁の対角線の交点に一致するように十 字マーク 106、 108、 110、 112の位置力設定されて!ヽる。
図 67は背景画像が割り付けられたオーダシート画像の一例を示している。
[0163] 図 68は上述の処理によって印刷された後に吹き出し線 114と吹き出し文字 116 (H i! )が記入されたオーダシートの一例を示す平面図である。自由描画領域 100には 背景画像が印刷されている。補助画像領域 102にはユーザ画像がそのままの階調 特性で印刷されている。ユーザは自由描画領域 100に印刷された背景画像の上に 自由に手書き文字などを記録することができる。自由描画領域 100には雑誌の切り 抜きやシールなどを貼付してユーザ画像と合成される対象物を記録してもよ ヽ。また ユーザは任意のチェックマーク 94を塗りつぶすことによって所望の印刷条件を設定 することができる。 [0164] 背景画像の元画像であるユーザ画像と吹き出し線 114と吹き出し文字 116とは自 由描画領域 100を割り付け位置の基準にして合成されるため、ユーザは多階調で印 刷された背景画像の空間構成に基づいてユーザ画像の空間構成を認識しながら吹 き出し線 114と吹き出し文字 116を自由描画領域 100内に記録することができる。す なわち、ユーザはユーザ画像のどの領域に吹き出し線 114と吹き出し文字 116が割 り付けられるのかを認識しながら自由描画領域 100内に吹き出し線 114と吹き出し文 字 116を記録することができる。さらに、背景画像の Rチャネルのヒストグラムがハイラ イトバンドで平均化されているため、ユーザ画像の階調特性に関わらず、ユーザは淡 い背景画像カゝらユーザ画像の空間構成を確実に認識することができる。さらに、補助 画像領域 102にユーザ画像がそのままの階調特性で印刷されて ヽるため、ユーザは 自由描画領域 100に印刷された背景画像と補助画像領域 102に印刷されたユーザ 画像とに基づいてユーザ画像と手書き文字 126等の対象物との位置関係をより確実 に認識することができる。
[0165] 図 69は複合機 1がオーダシートを読み取り、オーダシートに記録された吹き出し線 114、吹き出し文字 116等の対象物とユーザ画像とを合成して印刷する処理の流れ を示すフローチャートである。図 62に示す処理は、吹き出し線 114、吹き出し文字 11 6等を書き込んだオーダシートを複合機 1の原稿台 12に載置した状態で操作部 68を 用いた所定の操作によりオーダシートの読み取りを複合機 1に指示することによって 開始される。
[0166] ステップ S202では、制御部 58は二値化された原稿の画像を OMR (Optical Mark Recognition)処理することにより、塗りつぶされたチェックマーク 94に応じた印刷条件 を設定する。このとき、位置基準マーク 90、 98の位置を基準にしてオーダシート上に 印刷されている画像部品(標本パッチ、チェックマーク、十字マーク等)の位置が比較 的低い精度で特定され、十字マーク 106、 108、 110、 112の位置に基づいて自由 描画領域 100を読み取るための読み取り領域が高い精度で特定される。
[0167] 自由描画領域 100を読み取るための読み取り領域の特定処理について図 68を参 照しながら具体的に説明する。はじめに制御部 58は二値化された原稿の画像の端 部領域を解析して位置基準マーク 90、 98の外縁エッジを検出する。次に制御部 58 は検出した位置基準マーク 90、 98の外縁エッジを基準にして、オーダシートの傾き を特定するとともに、チェックマーク 94の位置と十字マーク 106、 108、 110、 112力 S 存在するであろう領域とを特定する。特定された十字マーク 106、 108、 110、 112が 存在するであろう領域を解析して十字マーク 106、 108、 110、 112のエッジを検出し 、十字マーク 106、 108、 110、 112の中心位置を特定する。次に制御部 58は十字 マーク 106の中心と十字マーク 110の中心とを結ぶ線と、十字マーク 112の中心と十 字マーク 108の中心とを結ぶ線との交点 118を求め、交点 118を基準として予め決 められた幅と高さを持つ領域を自由描画領域 100及び標本パッチ 96を読み取るた めの領域として特定する。このとき、位置基準マーク 90、 98若しくは十字マーク 106 、 108、 110、 112の位置に基づいて、予め決められた自由描画領域 100及び標本 ノツチ 96を読み取るための領域の大きさや傾きを補正してもよい。自由描画領域 10 0の近傍に印刷されている十字マーク 106、 108、 110、 112を基準として自由描画 領域 100を読み取るための領域を特定することにより、正確に自由描画領域 100を 読み取ることができる。
ステップ S204では、複合機 1は標本パッチ 96をフルカラーで読み取る。具体的に は、上述したように特定した領域がスキャンユニット 50によって読み取られ、読み取ら れた標本パッチ 96の画像が RAM60に格納される。
[0168] ステップ S208では、複合機 1は自由描画領域 100を読み取る。具体的には、上述 した処理によって特定された読み取り領域 120 (図 61参照)がステップ S202で特定 した自由描画領域 100を基準にしてスキャンユニット 50によって読み取られ、読み取 られた自由描画領域 100とその周囲とを含む領域 120の画像が RAM60に格納され る。読み取り領域 120は自由描画領域 100に対して水平垂直の両方向に所定の幅 だけ広く設定されている。
[0169] 図 70はユーザ画像力も合成画像が形成されるまでの一連の処理において生成さ れる画像群を示す模式図である。 204は上述した減色処理によってユーザ画像 202 から形成された背景画像を表して 、る。 206はテンプレート画像 200と背景画像 204 とを合成した画像を用紙に印刷した結果であるオーダシートを表して 、る。垂直方向 の破線は用紙の地色を表している。 208は吹き出し線及び吹き出し文字が記入され たオーダシートを表している。自由描画領域 100とその周囲とを含む領域 120の画 像 210は、 21 OR, 210B、 210Gという RGB3つのカラーチャネルで構成されている 。自由描画領域 100とその周囲が読み取られている画像 210には吹き出し線 114及 び吹き出し文字 116が表れる。また画像 210は自由描画領域 100より広いため、画 像 210には自由描画領域 100の外縁を示す矩形枠 104が表れる。
ステップ S210では、制御部 58は自由描画領域 100とその周囲とを含む領域 120 の画像とユーザ画像とに基づいて合成画像を形成する。
[0170] 図 71は合成画像の形成処理の流れを示すフローチャートである。
ステップ S500では、制御部 58は自由描画領域 100とその周囲とを含む領域 120 の画像 210について閉曲線の外側領域が透明になる αチャネル 216 aを生成する ( 図 49では、透明値の画素を白、不透明値の画素を黒で表すことにより αチャネル 21 6 αを表している。;)。具体的には制御部 58は、注目画素の Β及び Gチャネルの値が 背景画像の色域テーブルに注目画素の Rチャネルの値と対応付けて記憶されて 、る Β及び Gチャネルの値の範囲内であるか否かを判定し、範囲内の注目画素の領域を 背景画像の領域と認識し、範囲外の注目画素の領域をユーザの筆跡の領域と認識 しながら、他の閉曲線に包含されていない閉曲線を検出する。制御部 58はこのよう にして検出した閉曲線を境にして閉曲線の外側領域を特定し、閉曲線の外側領域が 透明値、閉曲線及びその内側領域が不透明値である αチャネルを生成する。自由 描画領域 100の外側力も領域 120の画像をスキャンして閉曲線を検出することにより 、閉曲線で囲まれた領域の大きさゃ閉曲線内の筆跡の構成と無関係に、他の閉曲 線に包含されていない閉曲線、すなわち、吹き出し線 114を検出することができる。 尚、自由描画領域 100の外縁を示す矩形枠 104の色は背景画像の色域内であるた め、自由描画領域 100の外側力も領域 120の画像をスキャンして閉曲線を検出する とき、矩形枠 104が閉曲線として検出されることはない。
[0171] ステップ S502では、制御部 58は自由描画領域 100とその周囲とを含む領域 120 の画像 210の閉曲線内の背景画像領域を白などの特定色で塗りつぶす。具体的に は aチャネル 216 aが不透明値である領域について、制御部 58は注目画素の B及 び Gチャネルの値が背景画像の色域テーブルに注目画素の Rチャネルの値と対応 付けて記憶されて 、る B及び Gチャネルの値の範囲内である力否かを判定し、範囲 外の注目画素を吹き出し文字 116と認識しながら、範囲内の注目画素を白(R= 255 、 G = 255、 B = 255)に変更する。このような処理の結果、自由描画領域 100とその 周囲とを含む領域 120の画像 210から吹き出し画像 216が形成される。吹き出し画 像 216は、 216R、 216G、 216Bの RGB3チヤネノレと αチヤネノレ 216 αの合計 4チヤ ネルで構成される。
[0172] ステップ S504では、制御部 58はユーザ画像 202と吹き出し画像 216とを合成する 。具体的には制御部 58は、自由描画領域 100とその周囲とを含む領域 120の画像 2 10とユーザ画像 202とを αチャネル 216 aを用いて RGBのチャネル毎に加算するこ とによって合成画像 218を形成する。このとき、吹き出し線 114に対応する領域では 、 αチャネル 216 αに不透明値が設定されているため、吹き出し画像の 216R、 216 G、 216Bの各チャネルの値が設定されることによって、吹き出し線 114をスキャンュ ニット 50で読み取った値が設定される。すなわち、吹き出し線 114に対応する領域に は吹き出し線 114が描画される。また吹き出し文字 116に対応する領域(閉曲線の内 側領域)でも、 αチャネル 216 αに不透明値が設定されているため、吹き出し画像の 216R、 216G、 216Bの各チャネルの値が設定されることによって、吹き出し文字 11 6をスキャンユニット 50で読み取った値が設定される。すなわち吹き出し文字 116に 対応する領域には吹き出し文字 116が描画される。また吹き出し線 114の内側の吹 き出し文字 116でない領域(閉曲線内の筆跡外の領域)では、 αチャネル 216 αに 不透明値が設定され吹き出し画像の 216R、 216G、 216Bの各チャネルに白に対応 する値が設定されているため、吹き出し画像の 216R、 216G、 216Bの各チャネルの 値が設定されること〖こよって、白の値が設定される。すなわち、吹き出し線 114の内 側の吹き出し文字 116でな 、領域には白が描画される。また吹き出し線 114の外側 領域(閉曲線の外側領域)では、 aチャネル 216 aに透明値が設定されて 、るため、 ユーザ画像 202の値が設定されることによって、ユーザ画像 202が描画される。
[0173] 図 72は上述した各画像の位置の対応関係を示す模式図である。予め決められた 自由描画領域 100を基準にして、オーダシートを印刷するための背景画像 204のレ ィアウトと、自由描画領域 100を読み取るための領域 120と、合成画像 218を形成す るためのユーザ画像 202及び吹き出し画像 216のレイアウトとを設定しておくことによ り、図 72に示す各画像の位置の対応関係を設定できる。具体的には、これらの設定 は、レイアウト枠の座標の設定と、画像の拡大縮小率の設定と、読み取り領域の座標 の設定によって行われる。
以上合成画像の形成について説明した。
[0174] ステップ S214 (図 69参照)では、複合機 1は合成画像 218を印刷する。具体的に は、制御部 58及びプリントユニット 86は上述した図 57に示す処理を実行し、合成画 像 218を印刷する。このとき、プリントユニット 86は通常モードで作動し、大中小のィ ンク滴を噴射して用紙に画像を形成する。用紙に対する合成画像 218のレイアウトは 任意である力 例えば図 73に示すように 1枚の用紙 222に複数の合成画像 218をレ ィアウトすることもできる。このようなレイアウトは 1枚の用紙 222に対応する、レイアウト 枠 224が複数定義されたテンプレート 220を ROM62に格納しておくことによって実 現できる。またテンプレート 220に破線画像とレイアウトを定義しておくことにより、 1枚 の用紙 222で複数のカードを作成するための切取線 226を印刷することもできる。 以上説明した一連の処理が終了すると、オーダシートに記入した吹き出し線 114と 吹き出し文字 116とがディジタルカメラ等で撮像された被写体に上書きされ、さらに吹 き出し線 114の内側の吹き出し文字 116でない領域が白で塗りつぶされた印刷物が 複合機 1によって作成される。
尚、以上説明した各実施例で説明した各要素は、矛盾のない限り任意に組み合わ せてもよい。
図面の簡単な説明
[0175] [図 1]本発明の第七実施例に係るオーダーシートを示す模式図。
[図 2]本発明の第一実施例に係る複合機の正面図。
[図 3]本発明の第一実施例に係る複合機のブロック図。
圆 4]本発明の第一実施例に係る複合機の機能ブロック図。
[図 5]本発明の第一実施例に係るオーダーシートテンプレートを示す模式図。
[図 6]本発明の第一実施例に係るオーダーシートを示す模式図。
[図 7] (A)は本発明の第一実施例に力かる合成テンプレートを示す模式図。 (B)は、 合成結果を示す模式図。
圆 8]本発明の第一実施例に係るフローチャート。
圆 9]本発明の第一実施例に係る画面遷移を示す模式図。
[図 10]本発明の第二実施例に係るフローチャート。
圆 11]本発明の第二実施例に係る機能ブロック図。
圆 12]本発明の第三実施例に係るオーダーシートテンプレートを示す模式図。 圆 13]本発明の第三実施例に係るオーダーシートを示す模式図。
圆 14]本発明の第四実施例に係るオーダーシートを示す模式図。
[図 15]本発明の第四実施例に係るオーダーシートテンプレートを示す模式図。 圆 16]本発明の第五実施例に係るオーダーシートを示す模式図。
圆 17]本発明の第五実施例に係るオーダーシートテンプレートを示す模式図。 圆 18]本発明の第五実施例にカゝかる合成テンプレートを示す模式図。
[図 19]本発明の第五実施例に係るフローチャート。
圆 20]本発明の第五実施例に係る画面遷移を示す模式図。
圆 21]本発明の第六実施例に係るオーダーシートを示す模式図。
圆 22]本発明の第六実施例に係るフローチャート。
圆 23]本発明の第六実施例に係る画面遷移を示す模式図。
[図 24]本発明の第七実施例に係るフローチャート。
圆 25]本発明の第八実施例に係るオーダーシートを示す模式図。
圆 26]本発明の第九実施例に係る機能ブロック図。
圆 27]本発明の第九実施例に係るオーダーシートを示す模式図。
圆 28]本発明の第九実施例に係るディレクトリ構造を示す模式図。
[図 29]本発明の第九実施例に係るフローチャート。
圆 30]本発明の第九実施例に係る画面遷移を示す模式図。
圆 31]本発明の第九実施例に係るオーダーシートを示す模式図。
圆 32]本発明の第九実施例に係るフローチャート。
圆 33]本発明の第九実施例に係るフローチャート。
[図 34]本発明の第九実施例に係るフローチャート。 圆 35本発明の第九実施例に係る濃淡ヒストグラムを示す模式図。
[図 36:本発明の第九実施例に係る重畳合成処理を示す模式図。 圆 37本発明の第十実施例に係る画面遷移を示す模式図。
[図 38:本発明の第十実施例に係るオーダーシートを示す模式図。
[図 39:発明の第十一実施例による画像処理システムを示す模式図。
[図 40:本発明の第十二実施例に係る画面遷移を示す模式図。
[図 41本発明の第十二実施例に係るフローチャート。
[図 42本発明の第十三実施例に係る画面遷移を示す模式図。
[図 43本発明の第十三実施例に係るフローチャート。
[図 44:本発明の第十四実施例に係るオーダーシートを示す模式図 c [図 45本発明の第十四実施例に係る画面遷移を示す模式図。
[図 46:本発明の第十四実施例に係るフローチャート。
[図 47:本発明の第十四実施例に係るユーザ原稿を示す模式図。
[図 48:本発明の複数の実施例をまとめた表。
[図 49:本発明の-一実施例に -かかる平 図。
[図 50:本発明の-一実施例にかかる斜視図。
圆 51本発明の-一実施例に .かかるブロック図。
圆 52本発明の-一実施例に -かかるフローチヤ一 -ト。
圆 53本発明の-一実施例にかかる模式図。
[図 54:本発明の-一実施例に —かかるヒストグラム。
圆 55本発明の-一実施例にかかる模式図。
[図 56:本発明の-一実施例にかかる模式図。
圆 57本発明の-一実施例に -かかるフローチヤ一 -ト。
圆 58本発明の-一実施例に -カ力ゝるグブフ。
圆 59本発明の-一実施例にかかる模式図。
圆 60本発明の-一実施例にかかる模式図。
圆 61本発明の-一実施例に -かかるフローチヤ一 -ト。
[図 62本発明の-一実施例にかかる模式図。 [図 63]本発明の-一実施例にかかるフローチヤ -ト。
[図 64]本発明の-一実施例にかかるフローチヤ -ト。
[図 65]本発明の-一実施例に力かる模式図。
[図 66]本発明の-一実施例に力かる模式図。
[図 67]本発明の-一実施例に力かる平面図。
[図 68]本発明の-一実施例に力かる平面図。
[図 69]本発明の-一実施例にかかるフローチヤ -ト。
[図 70]本発明の-一実施例に力かる模式図。
圆 71]本発明の-一実施例にかかるフローチヤ -ト。
[図 72]本発明の-一実施例に係る模式図。
[図 73]本発明の-一実施例に係る模式図。
符号の説明
1:複合機 (画像処理システム)、 20:リムーバブルメモリ(記録媒体)、 50:スキャンュ ニット、 70:外部メモリコントローラ(アクセスユニット)、 86:プリントユニット、 96:標本 パッチ、 100:自由描画領域、 126:手書き文字 (対象物)、 140:自由描画領域の画 像、 142:対象物の画像、 144:合成画像、 146:ユーザ画像

Claims

請求の範囲
[1] オーダーシート要求を受け付ける第一受付ユニットと、
前記オーダーシート要求に応じて自由描画領域を示す領域表記を用紙にプリント ユニットに印刷させる印刷制御ユニットと、
スキャン要求を受け付ける第二受付ユニットと、
前記スキャン要求に応じて前記自由描画領域に対象物が記録された前記用紙をス キャンユニットに読み取らせる読み取り制御ユニットと、
前記スキャン要求に応じて前記スキャンユニットに読み取られた前記自由描画領域 の画像と他の画像とを合成する合成ユニットと、
を備えることを特徴とする画像処理システム。
[2] 前記印刷制御ユニットは、識別表記を前記用紙に前記プリントユニットに印刷させ、 前記合成ユニットは、前記スキャンユニットに読み取られた前記識別表記の画像に 基づいて、前記スキャンユニットに読み取られた前記自由描画領域の画像と他の画 像とを合成することを特徴とする請求項 1に記載の画像処理システム。
[3] アクセス可能な画像のいずれか 1つ以上を選択する指示を受け付ける画像選択指 示受付ユニットをさらに備え、
前記他の画像は、選択された前記画像であることを特徴とする請求項 1に記載の画 像処理システム。
[4] 前記印刷制御ユニットは、前記画像選択指示受付ユニットによって選択された前記 画像を前記用紙に前記プリントユニットに印刷させることを特徴とする請求項 3に記載 の画像処理システム。
[5] 前記印刷制御ユニットは、前記選択された画像と前記自由描画領域の画像のサン プル画像とを第一の合成条件で合成した合成結果を表す画像を前記用紙に前記プ リントユニットに印刷させ、
前記合成ユニットは、前記選択された画像と前記自由描画領域の画像とを前記第 一の合成条件に対応する第二の合成条件で合成することを特徴とする請求項 4に記 載の画像処理システム。
[6] 選択された前記画像と前記自由描画領域の画像とを合成するための互いに異なる 複数の合成条件のいずれかを前記第一の合成条件として選択する指示を受け付け る合成条件指示受付ユニットをさらに備え、
前記印刷制御ユニットは、前記合成条件指示受付ユニットで受け付け可能な互!ヽ に異なる合成条件で合成した複数の前記合成結果を表す複数の画像を前記用紙に 前記プリントユニットに印刷させることを特徴とする請求項 5に記載の画像処理システ ム。
[7] 前記印刷制御ユニットは、アクセス可能な画像を表す画像表記を前記用紙に前記 プリントユニットに印刷させ、
前記用紙に記録された画像選択指示に指示された前記画像表記が表す前記画像 を、前記スキャンユニットに読み取られた画像に基づ ヽて認識する画像選択指示認 識ユニットをさらに備え、
前記他の画像は、前記画像選択指示に指示された前記画像表記が表す画像であ ることを特徴とする請求項 1に記載の画像処理システム。
[8] 前記画像選択指示認識ユニットは、前記画像選択指示に指示された複数の前記 画像表記が表す複数の前記画像を認識し、
前記合成ユニットは、前記対象物の画像と複数の前記他の画像とを合成することを 特徴とする請求項 7に記載の画像処理システム。
[9] 前記読み取り制御ユニットは、前記スキャンユニットに前記画像選択指示を前記自 由描画領域より低い解像度で読み取らせることを特徴とする請求項 7又は 8に記載の 画像処理システム。
[10] 前記印刷制御ユニットは、前記自由描画領域の画像と前記他の画像とを合成する ための互いに異なる合成条件を表す複数の合成条件表記を前記用紙に前記プリン トユニットに印刷させ、
前記用紙に記録された合成条件指示に指示された前記合成条件表記が表す前記 合成条件を前記スキャンユニットに読み取られた画像に基づいて認識する合成条件 認識ユニットをさらに備え、
前記合成ユニットは、前記合成条件指示に指示された前記合成条件表記が表す 前記合成条件に応じて、前記スキャンユニットに読み取られた前記自由描画領域の 画像と前記他の画像とを合成することを特徴とする請求項 1に記載の画像処理システ ム。
[11] 前記読み取り制御ユニットは、前記スキャンユニットに前記合成条件指示を第一解 像度で読み取らせ、前記スキャンユニットに前記自由描画領域を前記第一解像度よ り高い第二解像度で読み取らせることを特徴とする請求項 10に記載の画像処理シス テム。
[12] 前記対象物の画像と前記他の画像とを合成するための合成条件の指示を受け付 ける合成条件指示受付ユニットを更に備え、
前記印刷制御ユニットは、指示された前記合成条件に応じた態様の前記自由描画 領域を示す前記領域表記を前記用紙に前記プリントユニットに印刷させ、
前記合成ユニットは、指示された前記合成条件に応じて前記対象物の画像と前記 他の画像とを合成することを特徴とする請求項 1に記載の画像処理システム。
[13] 前記合成条件は、重畳合成条件を含むことを特徴とする請求項 10又は 12に記載 の画像処理システム。
[14] 前記重畳合成条件は、重畳合成される 2つの画像の境界処理条件を含むことを特 徴とする請求項 13に記載の画像処理システム。
[15] 前記重畳合成条件は、重畳合成される 2つの画像の透明度を含むことを特徴とす る請求項 13に記載の画像処理システム。
[16] 前記印刷制御ユニットは、前記プリントユニットに前記用紙に基準マークを印刷させ 前記読み取り制御ユニットは、前記基準マークに基づいて前記自由描画領域を認 識することを特徴とする請求項 1に記載の画像処理システム。
[17] 前記自由描画領域に記録された対象物の領域を前記スキャンユニットに読み取ら れた前記自由描画領域の画像力 抽出する領域抽出ユニットをさらに備え、 前記自由描画領域の画像は、前記対象物の領域の画像であることを特徴とする請 求項 1に記載の画像処理システム。
[18] アクセス可能な画像のいずれか 1つ以上を選択する指示を受け付ける画像選択指 示受付ユニットをさらに備え、 前記他の画像は、選択された前記画像であり、
前記印刷制御ユニットは、選択された前記画像を、前記領域抽出ユニットが前記対 象物の領域を抽出可能な程度に薄ぐ前記自由描画領域に前記プリントユニットに 印刷させることを特徴とする請求項 17に記載の画像処理システム。
[19] 前記領域抽出ユニットは、前記スキャンユニットに読み取られた前記自由描画領域 外の余白領域の画像に基づいて前記用紙の地色を認識し、前記用紙の地色に基づ いて前記対象物の領域を認識することを特徴とする請求項 17又は 18に記載の画像 処理システム。
[20] 前記プリントユニットと前記スキャンユニットとをさらに備えることを特徴とする請求項
1に記載の画像処理システム。
[21] 前記プリントユニットと前記スキャンユニットとが接続されるインタフェースをさらに備 えることを特徴とする請求項 1に記載の画像処理システム。
[22] オーダーシート要求を受け付ける第一受付段階と、
前記オーダーシート要求に応じて自由描画領域を示す領域表記を用紙にプリント ユニットに印刷させる印刷制御段階と、
スキャン要求を受け付ける第二受付段階と、
前記スキャン要求に応じて前記自由描画領域に対象物が記録された前記用紙をス キャンユニットに読み取らせる読み取り制御段階と、
前記スキャン要求に応じて前記スキャンユニットに読み取られた前記自由描画領域 の画像と他の画像とを合成する合成段階と、
を含むことを特徴とする画像処理方法。
[23] 記録媒体に格納されたユーザ画像にアクセスするアクセスユニットと、
前記ユーザ画像の色域を減縮し背景画像を形成する減色処理ユニットと、 自由描画領域に前記背景画像が印刷されたオーダシートをプリントユニットに作成 させるオーダシート印刷制御ユニットと、
スキャンユニットに読み取られた前記自由描画領域の画像力 ユーザが前記自由 描画領域に記録した対象物の領域を前記背景画像の色域を基準に用いて分割し、 前記ユーザ画像に前記対象物の領域を重畳して合成画像を形成する合成ユニットと 前記合成画像を前記プリントユニットに印刷させる合成印刷制御ユニットと、 を備えることを特徴とする画像形成システム。
[24] 前記減色処理ユニットは、単一色相の前記背景画像を形成することを特徴とする請 求項 23に記載の画像形成システム。
[25] 前記減色処理ユニットは、多階調の前記背景画像を形成することを特徴とする請求 項 23又は 24に記載の画像形成システム。
[26] 前記減色処理ユニットは、 1つのカラーチャネルだけが階調を有する 3つのカラー チャネルを有する前記背景画像を形成することを特徴とする請求項 23に記載の画像 形成システム。
[27] 前記減色処理ユニットは、淡色化された前記背景画像を形成することを特徴とする 請求項 23に記載の画像形成システム。
[28] 前記オーダシート印刷制御ユニットは、前記背景画像の色域に色域が一致する標 本パッチを前記オーダシートに前記プリントユニットに印刷させ、
前記合成ユニットは、前記スキャンユニットに読み取られた前記標本パッチの画像 の色域に色値が含まれな 、前記自由描画領域内の領域を前記対象物の領域と判 定することを特徴とする請求項 23に記載の画像形成システム。
[29] 階調を有する前記カラーチャネルの階調値に対応付けて他の 2つの前記カラーチ ャネルの階調範囲を記憶する記憶媒体をさらに備え、
前記合成ユニットは、前記自由描画領域の画素毎に、前記自由描画領域の画素の 階調を有する前記カラーチャネルの階調値に対応付けられている他の 2つの前記力 ラーチャネルの階調範囲に前記自由描画領域の画素の他の 2つの前記カラーチヤ ネルの階調値が含まれな!/、と、前記対象物の領域を構成する画素と判定することを 特徴とする請求項 28に記載の画像形成システム。
[30] 前記減色処理ユニットは、前記ユーザ画像のエッジ成分を表す前記背景画像を形 成することを特徴とする請求項 23に記載の画像形成システム。
PCT/JP2005/014391 2004-08-06 2005-08-05 画像処理システム及び画像処理方法 WO2006013956A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP05768546.3A EP1696658B1 (en) 2004-08-06 2005-08-05 Image processing system and image processing method

Applications Claiming Priority (12)

Application Number Priority Date Filing Date Title
JP2004-230412 2004-08-06
JP2004230412A JP4554296B2 (ja) 2004-08-06 2004-08-06 画像処理システム、プログラム、記録媒体
JP2004-235151 2004-08-12
JP2004235151A JP4690676B2 (ja) 2004-08-12 2004-08-12 画像処理システム、画像処理方法及び画像処理プログラム
JP2004-280260 2004-09-27
JP2004280260A JP3778293B2 (ja) 2004-09-27 2004-09-27 画像処理システム及び画像処理方法
JP2005-101848 2005-03-31
JP2005101848A JP4289316B2 (ja) 2005-03-31 2005-03-31 画像形成システム
JP2005102091A JP4289317B2 (ja) 2005-03-31 2005-03-31 画像形成システム
JP2005-102091 2005-03-31
JP2005176110A JP2006352526A (ja) 2005-06-16 2005-06-16 画像形成システム、画像形成方法及び画像形成プログラム
JP2005-176110 2005-06-16

Publications (1)

Publication Number Publication Date
WO2006013956A1 true WO2006013956A1 (ja) 2006-02-09

Family

ID=35787234

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/014391 WO2006013956A1 (ja) 2004-08-06 2005-08-05 画像処理システム及び画像処理方法

Country Status (2)

Country Link
EP (1) EP1696658B1 (ja)
WO (1) WO2006013956A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007124617A (ja) * 2005-09-30 2007-05-17 Canon Inc 画像合成装置および画像合成装置の制御方法
JP2007243529A (ja) * 2006-03-08 2007-09-20 Seiko Epson Corp 画像形成システム及び画像形成方法
JP2008028962A (ja) * 2006-07-25 2008-02-07 Canon Inc 画像処理装置および画像処理装置の制御方法
US7986832B2 (en) 2005-09-30 2011-07-26 Canon Kabushiki Kaisha Image combining apparatus and control method for the same
JP2012068746A (ja) * 2010-09-21 2012-04-05 King Jim Co Ltd 画像処理システムとそれに用いる撮像対象物
US8368781B2 (en) 2010-09-21 2013-02-05 King Jim Co., Ltd. Imaging object
US8654218B2 (en) 2010-09-21 2014-02-18 King Jim Co., Ltd. Image processing system and imaging object used for same

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4933993B2 (ja) * 2006-09-19 2012-05-16 株式会社リコー 画像管理方法及び画像処理装置
JP2008236456A (ja) 2007-03-22 2008-10-02 Brother Ind Ltd プリンタ複合機、プリントシステム、及び、静止画像印刷プログラム
JP5180730B2 (ja) 2008-08-07 2013-04-10 キヤノン株式会社 印刷制御装置、印刷制御方法、およびプログラム
US9779323B2 (en) 2012-06-15 2017-10-03 Whitelines Ab Paper sheet or presentation board such as white board with markers for assisting processing by digital cameras
JP2014071539A (ja) * 2012-09-27 2014-04-21 Sharp Corp 画像データ編集装置、および画像データ編集方法
JP7167684B2 (ja) * 2018-12-13 2022-11-09 セイコーエプソン株式会社 コピー装置、印刷物の生産方法
JP6965867B2 (ja) 2018-12-13 2021-11-10 セイコーエプソン株式会社 機械学習モデルの生産方法、コピー装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10260482A (ja) * 1997-03-17 1998-09-29 Fuji Photo Film Co Ltd メッセージ付きプリント作成方法及びシステム
JP2001268342A (ja) 2000-03-17 2001-09-28 Fuji Photo Film Co Ltd メッセージ付き画像再生方法およびシステム
JP2001326846A (ja) * 2000-05-16 2001-11-22 Fuji Photo Film Co Ltd 画像撮像装置及びその制御方法
JP2002051283A (ja) 2000-05-24 2002-02-15 Hewlett Packard Co <Hp> 項目を選択する方法及び装置
JP2002305701A (ja) * 2000-12-12 2002-10-18 Hewlett Packard Co <Hp> ユーザ記入プルーフ・シートによるディジタル・カメラ画像の記憶および取り出し方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5438430A (en) * 1992-09-25 1995-08-01 Xerox Corporation Paper user interface for image manipulations such as cut and paste
US20010040685A1 (en) * 1998-10-15 2001-11-15 Hewlett-Packard Company System and method for printing and scanning a user-completed digital still camera image proof sheet and order form

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10260482A (ja) * 1997-03-17 1998-09-29 Fuji Photo Film Co Ltd メッセージ付きプリント作成方法及びシステム
JP2001268342A (ja) 2000-03-17 2001-09-28 Fuji Photo Film Co Ltd メッセージ付き画像再生方法およびシステム
JP2001326846A (ja) * 2000-05-16 2001-11-22 Fuji Photo Film Co Ltd 画像撮像装置及びその制御方法
JP2002051283A (ja) 2000-05-24 2002-02-15 Hewlett Packard Co <Hp> 項目を選択する方法及び装置
JP2002305701A (ja) * 2000-12-12 2002-10-18 Hewlett Packard Co <Hp> ユーザ記入プルーフ・シートによるディジタル・カメラ画像の記憶および取り出し方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1696658A4 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007124617A (ja) * 2005-09-30 2007-05-17 Canon Inc 画像合成装置および画像合成装置の制御方法
US7986832B2 (en) 2005-09-30 2011-07-26 Canon Kabushiki Kaisha Image combining apparatus and control method for the same
JP2007243529A (ja) * 2006-03-08 2007-09-20 Seiko Epson Corp 画像形成システム及び画像形成方法
JP2008028962A (ja) * 2006-07-25 2008-02-07 Canon Inc 画像処理装置および画像処理装置の制御方法
JP2012068746A (ja) * 2010-09-21 2012-04-05 King Jim Co Ltd 画像処理システムとそれに用いる撮像対象物
US8368781B2 (en) 2010-09-21 2013-02-05 King Jim Co., Ltd. Imaging object
US8654218B2 (en) 2010-09-21 2014-02-18 King Jim Co., Ltd. Image processing system and imaging object used for same
TWI428011B (zh) * 2010-09-21 2014-02-21 King Jim Co Ltd Used in the image processing system in the photographic objects
TWI428012B (zh) * 2010-09-21 2014-02-21 King Jim Co Ltd Image processing program, carrying terminal, and image processing method
US8705068B2 (en) 2010-09-21 2014-04-22 King Jim Co., Ltd. Image processing system for placing detected symbols at predetermined locations on a document
US8767099B2 (en) 2010-09-21 2014-07-01 King Jim Co., Ltd. Image processing system and imaging object used for same

Also Published As

Publication number Publication date
EP1696658B1 (en) 2013-05-08
EP1696658A4 (en) 2009-09-09
EP1696658A1 (en) 2006-08-30

Similar Documents

Publication Publication Date Title
US7646517B2 (en) Image processing system and image processing method
US8023145B2 (en) Image processing system and image processing method
WO2006013956A1 (ja) 画像処理システム及び画像処理方法
JP4772888B2 (ja) 画像処理装置、画像形成装置、画像処理方法、プログラムおよびその記録媒体
JP4457998B2 (ja) 合成画像形成システム
JP4927122B2 (ja) 画像処理方法、画像処理装置、画像形成装置、プログラムおよび記録媒体
US8363260B2 (en) Image processing apparatus and image processing method
JP5014284B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP4379460B2 (ja) 画像形成システム、画像形成プログラム及び記録媒体
JP4645485B2 (ja) 画像形成システム及び画像形成方法
JP4674123B2 (ja) 画像処理システム及び画像処理方法
JP2006352526A (ja) 画像形成システム、画像形成方法及び画像形成プログラム
JP4690676B2 (ja) 画像処理システム、画像処理方法及び画像処理プログラム
JP4581902B2 (ja) 合成画像形成装置
JP4289317B2 (ja) 画像形成システム
JP4661446B2 (ja) 合成画像形成装置
JP4289316B2 (ja) 画像形成システム
JP3778293B2 (ja) 画像処理システム及び画像処理方法
JP4581901B2 (ja) 合成画像形成装置
JP4363351B2 (ja) 画像形成システム
JP4363352B2 (ja) 画像形成システム
JP4582247B2 (ja) 画像処理システム、画像処理方法及び画像処理プログラム
JP2022189063A (ja) 画像データ生成装置および画像データ生成方法

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KM KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU LV MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2005768546

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2005768546

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE