WO2014041641A1 - 情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
WO2014041641A1
WO2014041641A1 PCT/JP2012/073360 JP2012073360W WO2014041641A1 WO 2014041641 A1 WO2014041641 A1 WO 2014041641A1 JP 2012073360 W JP2012073360 W JP 2012073360W WO 2014041641 A1 WO2014041641 A1 WO 2014041641A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
information processing
area
processing apparatus
position specifying
Prior art date
Application number
PCT/JP2012/073360
Other languages
English (en)
French (fr)
Inventor
聡一郎 小野
Original Assignee
株式会社東芝
東芝ソリューション株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社東芝, 東芝ソリューション株式会社 filed Critical 株式会社東芝
Priority to PCT/JP2012/073360 priority Critical patent/WO2014041641A1/ja
Priority to JP2012543388A priority patent/JP5180412B1/ja
Priority to CN201280002972.3A priority patent/CN103875018B/zh
Priority to US13/846,036 priority patent/US9007634B2/en
Publication of WO2014041641A1 publication Critical patent/WO2014041641A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00681Detecting the presence, position or size of a sheet or correcting its position before scanning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/3872Repositioning or masking
    • H04N1/3873Repositioning or masking defined only by a limited number of coordinate points or parameters, e.g. corners, centre; for trimming

Definitions

  • Embodiments described herein relate generally to an information processing apparatus, an information processing method, and a program.
  • a technique for writing additional information in an optically readable form such as characters, symbols, barcodes, two-dimensional codes, etc., using visible or invisible ink on input documents etc. Widely used in the field.
  • process numbers etc. are written as additional information on forms that have already been filled in, and the process numbers etc. written on the forms are optically read for subsequent processing. Yes.
  • the additional information is written in a position that does not overlap with the existing entry so that it can be read correctly later.
  • additional information may be written on top of existing entries so that the additional information cannot be read correctly.
  • it may not be possible to ensure a region of sufficient size for writing additional information common to all formats at the same position. For this reason, it is possible to provide a technology that can appropriately secure an area where additional information can be written even for documents in unknown forms or a wide variety of forms, and that can correctly recognize the additional information written in that area. It is desired.
  • the problem to be solved by the present invention is to appropriately secure an area where additional information can be written even for documents of unknown styles and various forms, and to correctly recognize the additional information written in the area.
  • An information processing apparatus, an information processing method, and a program are provided.
  • the information processing apparatus includes an input unit, a detection unit, a generation unit, and an output unit.
  • the input unit inputs an original image.
  • the detection unit detects a writing area in which additional information is written from the original image.
  • the generation unit generates a position specifying image which is an image added to a predetermined area of the original image and is an image for specifying the position of the writing area in the original image.
  • the output unit outputs the position specifying image.
  • FIG. 1 is a configuration diagram showing an outline of a form processing system.
  • FIG. 2 is a block diagram illustrating a functional configuration of the first information processing apparatus.
  • FIG. 3 is a schematic diagram conceptually illustrating an example of processing in which the detection unit detects a writing area from an original image.
  • FIG. 4 is a diagram illustrating an example of the position specifying image generated by the generation unit.
  • FIG. 5 is a flowchart showing a flow of a series of processes executed by the first information processing apparatus.
  • FIG. 6 is a block diagram illustrating a functional configuration of the second information processing apparatus.
  • FIG. 7 is a schematic diagram conceptually illustrating an example of processing in which the specifying unit detects the writing area from the processed image.
  • FIG. 1 is a configuration diagram showing an outline of a form processing system.
  • FIG. 2 is a block diagram illustrating a functional configuration of the first information processing apparatus.
  • FIG. 3 is a schematic diagram conceptually illustrating an example of processing in which the detection unit detects
  • FIG. 8 is a flowchart showing a flow of a series of processes executed by the second information processing apparatus.
  • FIG. 9 is a diagram showing a position specifying image of the first modification.
  • FIG. 10 is a diagram showing a position specifying image of the second modified example.
  • FIG. 11 is a diagram showing a position specifying image of the third modified example.
  • FIG. 12 is a diagram showing a position specifying image of the fourth modified example.
  • FIG. 13 is a diagram showing a position specifying image of the fifth modified example.
  • FIG. 14 is a diagram showing a position specifying image of the sixth modified example.
  • FIG. 15 is a diagram showing a position specifying image of the seventh modified example.
  • FIG. 16 is a diagram illustrating an example of a hardware configuration of the first information processing apparatus and the second information processing apparatus.
  • FIG. 1 is a configuration diagram showing an outline of a form processing system according to the present embodiment.
  • the form processing system according to the present embodiment includes a first information processing apparatus 10, a second information processing apparatus 20, a process number assigning apparatus 30, and a printing apparatus 40.
  • the first information processing apparatus 10 receives the original image Im1, detects a writing area in which a process number as additional information is written from the original image Im1, and also determines a predetermined area (for example, the peripheral edge of the image) of the original image Im1.
  • a position specifying image Im2 that is an image added to an area having a predetermined width and for specifying the position of the writing area in the original image Im1 is generated, and this position specifying image Im2 is output.
  • an area that is predetermined as an area to which the position specifying image Im2 is added is referred to as an image addition area.
  • the original image Im1 input to the first information processing apparatus 10 is image data obtained by optically reading a form LS1 that has already been filled in with a scanner or the like (not shown).
  • the original image Im1 may be directly input to the first information processing apparatus 10 from a scanner or the like, or may be temporarily stored in a predetermined storage device and then input to the first information processing apparatus 10 from this storage device. . Further, the original image Im1 may be input to the first information processing apparatus 10 via the network from an external apparatus connected to the first information processing apparatus 10 via the network.
  • the position specifying image Im2 output from the first information processing apparatus 10 is input to the processing number assigning apparatus 30.
  • the first information processing device 10 to the processing number assigning device 30 are given the coordinate value of the representative point of the writing area (for example, the center point of the writing area) in the original image Im1, separately from the position specifying image Im2. It is done.
  • the processing number assigning device 30 identifies the position of the writing area based on the coordinate value, and superimposes the image in which the processing number corresponding to the form LS1 is written on the position of the writing area with the position identifying image Im2.
  • a print target image Im3 is generated, and the print target image Im3 is output.
  • the print target image Im3 output by the process number assigning device 30 is input to the printing device 40.
  • the position specifying image Im2 output from the first information processing apparatus 10 is directly input to the printing apparatus 40, and the process number assigning apparatus 30 inputs an image in which the process number is written at the position of the writing area to the printing apparatus 40.
  • the printing target image Im3 may be generated by superimposing these images on the printing apparatus 40.
  • the printing apparatus 40 receives the print target image Im3 and also feeds a form LS1 corresponding to the original image Im1 as a print medium.
  • the printing apparatus 40 prints the print target image Im3 input from the process number assigning apparatus 30 so as to overlap the form LS1.
  • the position specifying image Im2 is printed in the area on the form LS1 corresponding to the image addition area of the original image Im1, and the process number is printed at the position on the form LS1 corresponding to the writing area of the original image Im1.
  • the form LS2 is discharged from the printing apparatus 40.
  • the second information processing apparatus 20 receives the processed image Im4, specifies the position of the writing area in the processed image Im4 based on the position specifying image Im2 included in the processed image Im4, and executes the writing. Recognize and output the process number written in the area. The process number output by the second information processing apparatus 20 is used for subsequent form processing.
  • the processed image Im4 input to the second information processing apparatus 20 is obtained by optically reading the form LS2 printed with the position specifying image Im2 and the processing number discharged from the printing apparatus 40 with a scanner or the like (not shown).
  • the processed image Im4 may be directly input to the second information processing device 20 from a scanner or the like, or once stored in a predetermined storage device, the second information processing may be performed from this storage device. It may be input to the device 20. Further, the processed image Im4 may be input to the second information processing device 20 via the network from an external device connected to the second information processing device 20 via the network.
  • FIG. 2 is a block diagram illustrating a functional configuration of the first information processing apparatus 10. As illustrated in FIG. 2, the first information processing apparatus 10 includes an input unit 11, a detection unit 12, a generation unit 13, and an output unit 14 as functional components.
  • the input unit 11 inputs the original image Im1, performs preprocessing such as color image binarization and inclination correction processing on the original image Im1 as necessary, and passes the result to the detection unit 12.
  • the detecting unit 12 detects a writing area in which the process number is written from the area excluding the image addition area in the original image Im1.
  • a predetermined width a sufficiently small width in which no entry is assumed to be present
  • FIG. 3 is a schematic diagram conceptually illustrating an example of a process in which the detection unit 12 detects a writing area from the original image Im1.
  • the detection unit 12 scans a region excluding the image addition region Rs in the original image Im1 to obtain x and y that minimize the evaluation function expressed by the following formula (1).
  • a rectangular area having a height of 2w and a width of 2h centering around the pixel (x0, y0) is detected as the writing area Rn.
  • the values of x and y are provided with a constraint that the rectangular area does not overlap with the image addition area Rs.
  • the size of the writing area Rn is constant, and the values of parameters w and h that determine the size of the rectangular area are predetermined.
  • the size of the writing area Rn may be a variable size specified by the processing number assigning device 30 or the like, for example. In this case, the values of the parameters w and h that determine the size of the rectangular area are determined according to the size of the designated writing area Rn.
  • the original image Im1 is quantized as a rectangular image having a width W and a height H, and f (x, y) is a pixel value at the position (x, y), and the foreground color (entry) It is assumed that the sample is sampled so that the maximum value is obtained at the position where the mark is present and the minimum value is obtained at the background color (the position where no entry is present). As a result, in the original image Im1, an area having the smallest overlap with the existing entry is detected as the writing area Rn.
  • the generating unit 13 generates a position specifying image Im2, which is an optically readable image for specifying the position of the writing area detected by the detecting unit 12.
  • a position specifying image Im2 is an optically readable image for specifying the position of the writing area detected by the detecting unit 12.
  • the detection unit is assumed on the assumption that an area having a predetermined width at the periphery of the original image Im1 is determined in advance as an image addition area.
  • 12 is generated as a position specifying image Im2 in which the position in the image addition area that overlaps the writing area detected in 12 and the original image Im1 in the horizontal direction or the vertical direction is distinguished from the position in the other image addition area.
  • FIG. 4 is a diagram illustrating an example of the position specifying image Im2 generated by the generation unit 13.
  • the position where the projection in the horizontal direction and the vertical direction of the writing area Rn detected by the detection unit 12 intersects in the image addition area Rs is marked by, for example, black painting or the like. It is an image.
  • the marking position of the region corresponding to the first side of the original image Im1 and the second side orthogonal to the first side of the original image Im1 in the image addition region Rs can be specified from the marking position of the area.
  • the position of the writing area Rn can be specified from two marking positions corresponding to two orthogonal sides of the original image Im1, but the position of the writing area Rn is specified.
  • markings are made at four positions corresponding to the four sides of the original image Im1.
  • the position of the writing area Rn is changed from the remaining marking position. Can be identified correctly.
  • the output unit 14 converts the position specifying image Im ⁇ b> 2 generated by the generation unit 13 into a format that can be handled by the process number assigning device 30 as necessary, and outputs the processed image to the process number assigning device 30. Output. As described above, the output unit 14 outputs the coordinate value of the representative point of the writing area in the original image Im1 to the process number assigning device 30 separately from the position specifying image Im2.
  • FIG. 5 is a flowchart showing a flow of a series of processes executed by the first information processing apparatus 10.
  • the input unit 11 inputs the original image Im1 (step S101).
  • the detection unit 12 detects a writing area from the original image Im1 input in step S101 (step S102).
  • the generation unit 13 generates a position specifying image Im2 for specifying the position of the writing area detected in step S102 (step S103).
  • the output unit 14 outputs the position specifying image Im2 generated in step S103 to the process number assigning device 30 (step S104).
  • FIG. 6 is a block diagram showing a functional configuration of the second information processing apparatus 20.
  • the second information processing device 20 includes an input unit 21, a specifying unit 22, a recognition unit 23, and an output unit 24 as functional components.
  • the input unit 21 inputs the processed image Im4, performs preprocessing such as binarization of the color image and inclination correction processing on the processed image Im4 as necessary, and passes the processed image Im4 to the specifying unit 22.
  • the specifying unit 22 specifies the position of the writing area in the processed image Im4 based on the position specifying image Im2 included in the processed image Im4.
  • FIG. 7 is a schematic diagram conceptually illustrating an example of processing in which the specifying unit 22 detects the writing area Rn from the processed image Im4.
  • the position specifying image Im2 is an image obtained by marking the position of the image addition region Rs where the projection in the horizontal direction and the vertical direction of the writing region Rn intersects, for example, by black painting or the like. To do.
  • the specifying unit 22 includes, for the region Rs1 extending in the vertical direction in the image addition region Rs, the pixels constituting the region Rs1 for each horizontal line that is a row of pixels in the horizontal direction.
  • the ratio of the foreground color (for example, black) pixel is calculated, and the position where the ratio of the foreground color pixel exceeds a predetermined threshold is set as the marking position.
  • specification part 22 specifies two horizontal lines (1st boundary horizontal line HL1 and 2nd boundary horizontal line HL2) used as the boundary of a marking position and the position which is not so.
  • the specifying unit 22 For the region Rs2 that extends in the horizontal direction in the image addition region Rs, the specifying unit 22 sets the foreground color (for example, black) among the pixels that form the region Rs2 for each vertical line that is a row of pixels in the vertical direction. ) And the position where the ratio of the foreground pixels exceeds a predetermined threshold is determined as the marking position. Then, the specifying unit 22 specifies two vertical lines (a first boundary vertical line VL1 and a second boundary vertical line VL2) that are boundaries between the marking position and a position that is not. Then, the specifying unit 22 writes a region surrounded by four line segments of the first boundary horizontal line HL1, the second boundary horizontal line HL2, the first boundary vertical line VL1, and the second boundary vertical line VL2. It is specified as the embedded region Rn.
  • the foreground color for example, black
  • the specifying unit 22 specifies two vertical lines (a first boundary vertical line VL1 and a second boundary vertical line VL2) that are boundaries between the marking position and
  • the identifying unit 22 identifies the marking position by comparing the ratio of the pixels in the foreground color with the threshold value, so that a part of the marking is a background color (for example, white) due to, for example, printing failure or reading failure. Even if it is reversed, it is possible to correctly recognize the marking position and accurately specify the writing position Rn.
  • the recognizing unit 23 processes the processing number written in the writing area specified by the specifying unit 22, that is, the processing number of the form LS ⁇ b> 1 written as additional information in the writing area by the processing number assigning device 30. Is recognized using a technique such as known character recognition.
  • the output unit 24 outputs the process number recognized by the recognition unit 23.
  • FIG. 8 is a flowchart showing a flow of a series of processes executed by the second information processing apparatus 20.
  • the input unit 21 inputs the processed image Im4 (step S201).
  • the specifying unit 22 specifies the position of the writing area in the processed image Im4 based on the position specifying image Im2 included in the processed image Im4 input in step S201 (step S202).
  • the recognizing unit 23 recognizes the process number written in the writing area recognized in step S202 (step S203).
  • the output unit 24 outputs the process number recognized in step S203 (step S204).
  • the first information processing apparatus 10 inputs the original image Im1 obtained by optically reading the form LS1. Then, a writing area for writing a processing number as additional information is detected from the original image Im1, a position specifying image Im2 for specifying the position of the writing area is generated, and the position specifying image Im2 is output. I am doing so. Further, the second information processing apparatus 20 inputs a processed image Im4 obtained by optically reading the form LS2 in which the process number is printed in the writing area of the form LS1 and the position specifying image Im2 is printed in the image addition area.
  • the position of the writing area is specified based on the position specifying image Im2 included in the processed image Im4, and the processing number written in the writing area is recognized. Therefore, in this form processing system, even if the form of the form is an unknown form or a wide variety of forms, an area in which a process number as additional information can be written is appropriately secured, and It is possible to correctly recognize the additional information written in the area.
  • FIG. 9 is a diagram illustrating a position specifying image Im2a according to the first modification.
  • the generation unit 13 of the first information processing apparatus 10 arranges a barcode representing the coordinate value of the representative point (for example, the center point Pc) of the writing region Rn detected by the detection unit 12 in the image addition region Rs.
  • the image is generated as the position specifying image Im2a.
  • the specifying unit 22 of the second information processing device 20 reads the barcode of the position specifying image Im2a included in the processed image Im4, thereby determining the position of the writing area Rn in the processed image Im4. Can be identified.
  • the position specifying image Im2a of the first modified example arranges a two-dimensional code representing the coordinate value of the representative point of the writing area Rn and a numerical value representing the coordinate value in the image addition area Rs instead of the barcode. It may be what you did. Further, the position specifying image Im2a of the first modified example includes a barcode and a two-dimensional code including not only the coordinate value of the representative point of the writing area Rn but also other information such as the size information of the writing area Rn. Further, numerical values or the like may be arranged in the image addition region Rs.
  • FIG. 10 is a diagram illustrating a position specifying image Im2b according to the second modification.
  • the generation unit 13 of the first information processing apparatus 10 includes four arrows representing directions from the representative points of the four rectangular regions Rs1 to Rs4 to the representative points of the writing region Rn in the four rectangular regions Rs1 to Rs4.
  • An image in which (or a straight line) is arranged is generated as the position specifying image Im2b.
  • the generation unit 13 As shown in FIG. 10, an arrow indicating the direction from the upper left vertex P1 of the image to the center point Pc of the writing region Rn is arranged in the rectangular region Rs1 positioned at the upper left of the image, and the writing is started from the upper right vertex P2 of the image.
  • An arrow indicating the direction to the center point Pc of the embedded area Rn is disposed in the rectangular area Rs2 located at the upper right of the image, and an arrow indicating the direction from the lower left vertex P3 of the image to the center point Pc of the writing area Rn is displayed.
  • an arrow indicating the direction from the lower right vertex P4 of the image to the center point Pc of the writing area Rn is arranged in the rectangular area Rs4 located at the lower right of the image And the position-specific image Im2b To generate Te.
  • the specifying unit 22 of the second information processing apparatus 20 first performs Hough transform or least square method on the four rectangular regions Rs1 to Rs4 of the position specifying image Im2b included in the processed image Im4.
  • the slope of the arrow (or straight line) arranged in each of the rectangular regions Rs1 to Rs4 is estimated using the known method.
  • a point at which the sum of squares of the distance to (or a straight line) is minimized is obtained as a representative point (for example, center point Pc) of the writing area Rn.
  • This point can be obtained as a point (x, y) which is a solution of a linear equation represented by the following formula (2).
  • N is the number of arrows (or straight lines).
  • the specifying unit 22 can specify the position of the writing region Rn in the processed image Im4 by obtaining the coordinates of the representative point (for example, the center point Pc) of the writing region Rn by the method described above.
  • the position specifying image Im2b shown in FIG. 10 is assumed to have four rectangular areas Rs1 to Rs4 defined in advance as the image addition areas Rs.
  • An arrow indicating the direction from the representative points P1 to P4 of Rs1 to Rs4 to the center point Pc of the writing area Rn is arranged.
  • the position specifying image Im2b of the second modification may be an image in which arrows (or straight lines) are arranged in at least two rectangular areas.
  • an intersection of two arrows (or straight lines) included in the position specifying image Im2b is a representative point of the writing area Rn.
  • the position of the write area Rn can be specified.
  • the position specifying image Im2b shown in FIG. 10 by arranging arrows (or straight lines) in each of the four rectangular areas Rs1 to Rs4, redundancy as information for specifying the position of the writing area Rn is provided. For example, even if one (or two) of the four arrows (or straight lines) cannot be read properly due to overlapping existing entries, the remaining arrows ( Alternatively, the position of the writing area Rn can be correctly specified using a straight line).
  • one additional small area is provided in addition to the four rectangular areas Rs1 to Rs4 where the arrows (or straight lines) as described above are arranged,
  • information indicating the size of the writing area Rn may be arranged.
  • FIG. 11 is a diagram illustrating a position specifying image Im2c according to the third modification.
  • a rectangular area having a predetermined size located at one corner (for example, the upper left corner of the image) of the original image Im1 is determined in advance as the image addition area Rs.
  • the four arrows (or straight lines) shown in the second modification are collectively arranged in one image addition region Rs.
  • the generation unit 13 of the first information processing device 10 represents the direction from the upper left vertex P1 of the image to the center point Pc of the writing area Rn.
  • An arrow is arranged in the image addition region Rs so that the vertex P1 serves as a base point, and an arrow indicating the direction from the vertex P2 on the upper right side of the image to the center point Pc of the writing region Rn is on the upper right side of the image addition region Rs.
  • An arrow indicating the direction from the vertex P3 at the lower left of the image to the center point Pc of the writing region Rn is arranged in the image additional region Rs so that the vertex P2 ′ is the starting point, and the vertex P3 at the lower left of the image additional region Rs. Is placed in the image addition region Rs so that 'is the starting point, and an arrow indicating the direction from the lower right vertex P4 of the image to the center point Pc of the writing region Rn is indicated by the lower right vertex P4 of the image addition region Rs. Arranged in the image addition area Rs so that 'is the starting point The image is generated as position specifying image Im2c.
  • the specifying unit 22 of the second information processing device 20 performs a known method such as a Hough transform or a least square method on the image addition region Rs of the position specifying image Im2c included in the processed image Im4.
  • a known method such as a Hough transform or a least square method
  • the image addition region Rs of the position specifying image Im2c included in the processed image Im4 are used to estimate the inclinations of the four arrows (or straight lines) arranged in the image addition region Rs, and the coordinates of the representative point (for example, the center point Pc) of the writing region Rn by the same method as in the second modification.
  • the position of the writing area Rn in the processed image Im4 can be specified.
  • the position specifying image Im2c shown in FIG. 11 is an image in which four arrows (or straight lines) are arranged in the image addition region Rs, but at least two arrows (or straight lines) as in the second modification. Any image including However, like the second modification, the position of the writing area Rn is specified by arranging four arrows (or straight lines) in the image addition area Rs as in the position specifying image Im2c shown in FIG. It is possible to provide redundancy as information to be performed.
  • the position specifying image Im2c shown in FIG. 11 is an example in which the upper left corner of the image is the image addition region Rs, but the other corner of the image is the image addition region Rs, and the image addition region Rs is within the image addition region Rs.
  • a plurality of arrows may be arranged together. Furthermore, an image addition region Rs may be provided at each of a plurality of corners of the image, and a plurality of arrows (or straight lines) may be collectively arranged in each of the plurality of image addition regions Rs. In this case, redundancy as information for specifying the position of the write area Rn can be further increased.
  • one additional small area is provided in addition to the image addition area Rs in which the arrows (or straight lines) as described above are arranged and arranged, and the inside of the additional small area
  • information indicating the size of the writing area Rn may be arranged.
  • FIG. 12 is a diagram illustrating a position specifying image Im2d according to a fourth modification.
  • the fourth modified example as in the second modified example, it is assumed that four rectangular regions Rs1 to Rs4 having predetermined sizes located at the four corners of the original image Im1 are determined in advance as the image addition regions Rs. .
  • two vertices forming a diagonal of the writing area Rn (the upper left vertex Pa and the lower right vertex Pb of the writing area Rn in the example of FIG. 12) It is defined as a representative point.
  • the generation unit 13 of the first information processing device 10 displays an arrow indicating the direction from the upper left vertex P1 of the image to the upper left vertex Pa of the writing area Rn, as shown in FIG. Arranged in the rectangular area Rs1 located at the upper left of the image, and an arrow indicating the direction from the upper right vertex P2 of the image to the lower right vertex Pb of the writing area Rn is arranged in the rectangular area Rs2 located at the upper right of the image
  • An arrow indicating the direction from the lower left vertex P3 of the image to the upper left vertex Pa of the writing area Rn is arranged in the rectangular area Rs3 located at the lower left of the image, and the writing area from the lower right vertex P4 of the image
  • An image in which an arrow indicating the direction to the lower right vertex Pb of Rn is arranged in the rectangular region Rs4 located at the lower right of the image is generated as the position specifying image Im2d.
  • the specifying unit 22 of the second information processing device 20 first uses arrows (or straight lines) arranged in the four rectangular regions Rs1 to Rs4 of the position specifying image Im2d included in the processed image Im4.
  • the inclination is estimated by the same method as in the second modification.
  • the specifying unit 22 obtains the intersection of the arrow (or straight line) arranged in the rectangular area Rs1 and the arrow (or straight line) arranged in the rectangular area Rs2 as the upper left vertex Pa of the writing area Rn, and obtains the rectangular area
  • the position of the writing area Rn is specified by obtaining the intersection of the arrow (or straight line) arranged in Rs3 and the arrow (or straight line) arranged in the rectangular area Rs4 as the lower right vertex Pb of the writing area Rn. can do.
  • one additional small area is provided in addition to the four rectangular areas Rs1 to Rs4 in which the arrows (or straight lines) as described above are arranged,
  • information indicating the size of the writing area Rn may be arranged.
  • FIG. 13 is a diagram illustrating a position specifying image Im2e according to a fifth modification.
  • the position specifying image Im2e of the fifth modification has a rectangular area of a predetermined size located at one corner (for example, the upper left corner of the image) of the original image Im1.
  • the four arrows (or straight lines) shown in the fourth modification are collectively arranged in one image addition region Rs on the premise that they are determined in advance.
  • the generation unit 13 of the first information processing device 10 changes the direction from the upper left vertex P1 of the image to the upper left vertex Pa of the writing region Rn.
  • An arrow indicating the direction from the vertex P2 at the upper right of the image to the vertex Pb at the lower right of the writing region Rn is arranged in the image adding region Rs so that the vertex P1 serves as a base point. Is arranged in the image addition region Rs so that the upper right vertex P2 ′ is the starting point, and an arrow indicating the direction from the lower left vertex P3 of the image to the upper left vertex Pa of the writing region Rn is indicated in the image addition region Rs.
  • An arrow indicating the direction from the lower right vertex P4 of the image to the lower right vertex Pb of the writing region Rn is arranged in the image additional region Rs so that the lower left vertex P3 ′ is the starting point.
  • the specifying unit 22 of the second information processing apparatus 20 estimates the inclinations of the four arrows (or straight lines) of the position specifying image Im2e included in the processed image Im4, as in the third modification. Then, by obtaining the coordinates of two vertices (for example, the upper left vertex Pa and the lower right vertex Pb) forming a diagonal of the writing area Rn by the same method as in the fourth modified example, the writing in the processed image Im4 is performed.
  • the position of the insertion region Rn can be specified.
  • the position specifying image Im2e shown in FIG. 13 is an example in which the upper left corner of the image is the image addition region Rs, but the other corner of the image is the image addition region Rs, and the image addition region Rs is within the image addition region Rs.
  • a plurality of arrows (or straight lines) may be arranged together.
  • an image addition region Rs may be provided at each of a plurality of corners of the image, and a plurality of arrows (or straight lines) may be collectively arranged in each of the plurality of image addition regions Rs. In this case, redundancy as information for specifying the position of the write area Rn can be further increased.
  • one additional small area is provided in addition to the image additional area Rs in which the arrows (or straight lines) as described above are collectively arranged, and the inside of the additional small area
  • information indicating the size of the writing area Rn may be arranged.
  • FIG. 14 is a diagram illustrating a position specifying image Im2f according to a sixth modification.
  • the sixth modification is an example when the detection unit 12 of the first information processing apparatus 10 detects two write areas Rn1 and Rn2 from the original image Im1.
  • the position specifying image Im2f of the sixth modification is an image for specifying the positions of these two write areas Rn1 and Rn2, and has, for example, the same mode as the position specifying image Im2c of the third modification.
  • the representative point of the writing region Rn1 is the center point Pc1 of the writing region Rn1
  • the representative point of the writing region Rn2 is the center point Pc2 of the writing region Rn2
  • the region at the upper left corner of the image is the image addition region Rs.
  • the generation unit 13 of the first information processing apparatus 10 displays the arrow indicating the direction from the upper left vertex P1 of the image to the center point Pc1 of the writing region Rn1, and the image addition region Rs so that the vertex P1 becomes the base point.
  • An arrow indicating the direction from the upper right vertex P2 of the image to the center point Pc1 of the writing region Rn1 is placed in the image addition region Rs so that the upper right vertex P2 ′ of the image addition region Rs is the starting point.
  • An arrow indicating the direction from the lower left vertex P3 of the image to the center point Pc2 of the writing region Rn2 is arranged in the image addition region Rs so that the lower left vertex P3 ′ of the image addition region Rs is the starting point.
  • the vertex P4 at the bottom right of the image An image in which an arrow indicating the direction to the center point Pc2 of the writing area Rn2 is arranged in the image addition area Rs so that the lower right vertex P4 ′ of the image addition area Rs starts is generated as the position specifying image Im2f To do.
  • the specifying unit 22 of the second information processing apparatus 20 estimates the inclinations of the four arrows (or straight lines) of the position specifying image Im2f included in the processed image Im4, as in the third modification. To do. Then, the specifying unit 22 writes an intersection of an arrow (or a straight line) having the upper left vertex P1 of the image addition region Rs as a base point and an arrow (or a straight line) having the upper right vertex P2 ′ of the image addition region Rs as a base point. By obtaining the representative point of the embedded area Rn1, the position of the writing area Rn1 in the processed image Im4 can be specified.
  • the specifying unit 22 also intersects an arrow (or a straight line) with the lower left vertex P3 ′ of the image addition region Rs as a base point and an arrow (or a straight line) with the lower right vertex P4 ′ of the image addition region Rs as a base point. Is obtained as a representative point of the writing area Rn2, and the position of the writing area Rn2 in the processed image Im4 can be specified.
  • the position specifying image Im2f shown in FIG. 14 is an example in which the upper left corner of the image is the image addition region Rs, but the other corner of the image is the image addition region Rs, and the image addition region Rs is within the image addition region Rs.
  • Four arrows (or straight lines) may be arranged together.
  • an image addition region Rs may be provided at each of a plurality of corners of the image, and four arrows (or straight lines) may be aggregated and arranged in each of the plurality of image addition regions Rs. In this case, it is possible to further increase the redundancy as information for specifying the position of the write area Rn, and it is possible to cope with the case where three or more write areas Rn are detected.
  • the position specifying image Im2f shown in FIG. 14 can specify the positions of the two writing areas Rn1 and Rn2 in the same manner as the position specifying image Im2c of the third modified example, but is not limited thereto.
  • an image in which the positions of the two write areas Rn1 and Rn2 can be specified in the same manner as in the first and second modifications may be used.
  • FIG. 15 is a diagram illustrating a position specifying image Im2g according to a seventh modification.
  • the position specifying image Im2g according to the seventh modification adds four arrows (or straight lines) for obtaining the two vertices Pa and Pb forming the diagonal of the writing area Rn as one image.
  • the length of each arrow (or straight line) is assumed to be proportional to the distance to the vertices Pa and Pb on the premise that they are collectively arranged in the region Rs.
  • the generation unit 13 of the first information processing device 10 changes the direction from the upper left vertex P1 of the image to the upper left vertex Pa of the writing region Rn.
  • the specifying unit 22 of the second information processing device 20 uses the same technique as that of the fifth modification to make two vertices that are diagonal to the writing area Rn (for example, the upper left vertex Pa and the lower right)
  • the position of the writing area Rn in the processed image Im4 can be specified by obtaining the coordinates of the vertex Pb).
  • the writing area Rn is determined from the length of the other arrow. Can be obtained, and the position of the writing area Rn in the processed image Im4 can be specified.
  • the position specifying image Im2g shown in FIG. 15 is an example in which the upper left corner of the image is the image addition region Rs, but the other corner of the image is the image addition region Rs, and the image addition region Rs is within the image addition region Rs.
  • a plurality of arrows (or straight lines) may be arranged together.
  • an image addition region Rs may be provided at each of a plurality of corners of the image, and a plurality of arrows (or straight lines) may be collectively arranged in each of the plurality of image addition regions Rs. In this case, redundancy as information for specifying the position of the write area Rn can be further increased.
  • one additional small area is provided in addition to the image additional area Rs in which the arrows (or straight lines) as described above are arranged and arranged, and the inside of the additional small area
  • information indicating the size of the writing area Rn may be arranged.
  • the first information processing apparatus 10 and the second information processing apparatus 20 are a control device such as a CPU (Central Processing Unit) 101, a ROM (Read Only Memory) 102, and a RAM (Random Access). Memory) 103, a communication I / F 104 that communicates by connecting to a network, a bus 105 that connects each unit, and the like, and a hardware configuration using a normal computer.
  • a control device such as a CPU (Central Processing Unit) 101, a ROM (Read Only Memory) 102, and a RAM (Random Access).
  • Memory 103
  • a communication I / F 104 that communicates by connecting to a network
  • bus 105 that connects each unit, and the like
  • the programs executed in the first information processing apparatus 10 and the second information processing apparatus 20 are files in an installable or executable format, such as CD-ROM (Compact Disk Read Only Memory), flexible disk (FD), CD -Recorded on computer-readable recording media such as R (Compact Disk Recordable), DVD (Digital Versatile Disc), etc., and provided as a computer program product.
  • CD-ROM Compact Disk Read Only Memory
  • FD flexible disk
  • CD -Recorded on computer-readable recording media such as R (Compact Disk Recordable), DVD (Digital Versatile Disc), etc.
  • the program executed by the first information processing apparatus 10 or the second information processing apparatus 20 is stored on a computer connected to a network such as the Internet and is provided by being downloaded via the network. Also good.
  • the program executed by the first information processing apparatus 10 and the second information processing apparatus 20 may be configured to be provided or distributed via a network such as the Internet.
  • a program executed by the first information processing apparatus 10 or the second information processing apparatus 20 may be provided by being incorporated in the ROM 102 or the like in advance.
  • the program executed by the first information processing device 10 has a module configuration including each processing unit (the input unit 11, the detection unit 12, the generation unit 13, and the output unit 14) of the first information processing device 10,
  • each processing unit described above is loaded on the main storage device, and each processing unit described above is the main storage device. It is supposed to be generated above.
  • the first information processing apparatus 10 realizes part or all of the above-described processing units using dedicated hardware such as ASIC (Application Specific Integrated Circuit) or FPGA (Field-Programmable Gate Array). Is also possible.
  • the program executed by the second information processing device 20 has a module configuration including each processing unit (the input unit 21, the specifying unit 22, the recognition unit 23, and the output unit 24) of the second information processing device 20,
  • each processing unit described above is loaded on the main storage device, and each processing unit described above is the main storage device. It is supposed to be generated above.
  • the second information processing apparatus 20 can also realize part or all of the above-described processing units using dedicated hardware such as an ASIC or FPGA.
  • the first information processing device 10 and the second information processing device 20 are realized as separate devices, but the function and the second information of the first information processing device 10 are implemented. You may make it implement
  • the information processing apparatus has a first operation mode that functions as the first information processing apparatus 10 and a second operation mode that functions as the second information processing apparatus 20, and the first information processing is performed by switching between these operation modes. Two functions of the device 10 and the second information processing device 20 are realized.
  • the position for writing the process number is detected from the original image Im1 that is image data obtained by optically reading the form LS1, and the position for specifying the write position is detected.
  • the specific image Im2 is generated, and the position specific image Im2 is obtained from the processed image Im4 which is image data obtained by optically reading the form LS2 obtained by printing the processing number and the position specific image Im2 on the form LS1.
  • the processed image Im4 is generated by combining the position specifying image Im2 and the image having the processing number with the original image Im1, and the position specifying image Im4 is generated from the processed image Im4.
  • the process number may be recognized based on Im2. That is, the position specifying image Im2 and the processing number image are not printed optically after being printed once, but can be handled as image data.
  • the above-described embodiment is an application example to a form processing system.
  • the applicable example is not limited to this, and is widely applicable to systems and apparatuses that have a purpose of writing additional information in a document that already has an entry. Can be applied.

Abstract

 実施形態の情報処理装置(10)は、入力部(11)と、検出部(12)と、生成部(13)と、出力部(14)と、を備える。入力部(11)は、元画像(Im1)を入力する。検出部(12)は、前記元画像(Im1)から、追加情報を書き込む書込領域を検出する。生成部(13)は、前記元画像(Im1)の予め定められた領域に付加される画像であって、前記元画像(Im1)における前記書込領域の位置を特定するための画像である位置特定画像(Im2)を生成する。出力部(13)は、前記位置特定画像(Im2)を出力する。

Description

情報処理装置、情報処理方法およびプログラム
 本発明の実施形態は、情報処理装置、情報処理方法およびプログラムに関する。
 入力された書類等に対して、可視または不可視のインクを用いて、文字や記号、バーコード、二次元コード等の光学的に読み取り可能な形態で追加情報を書き込む技術は、例えば帳票処理等の分野において広く用いられている。帳票処理の分野では、既に記入が存在する帳票に追加情報として処理番号等を書き込んでおき、その帳票に書き込まれた処理番号等を光学的に読み取ることで、その後の処理に活用するようにしている。
 前記追加情報は、後に正しく読み取ることができるように、既に存在している記入とは重ならない位置に書き込むことが原則である。しかし、書類等の様式が未知のものである場合、既に存在する記入の上に追加情報が重なるように書き込まれてしまい、追加情報を正しく読み取ることができなくなる場合がある。また、多種多様な様式の書類等を取り扱う場合には、全ての様式に共通して追加情報を書き込むための十分な大きさの領域を同じ位置に確保できないこともある。このため、未知の様式や多種多様な様式の書類等に対しても追加情報を書き込める領域を適切に確保し、かつ、その領域に書き込まれた追加情報を正しく認識することができる技術の提供が望まれている。
特許第3570976号公報
 本発明が解決しようとする課題は、未知の様式や多種多様な様式の書類等に対しても追加情報を書き込める領域を適切に確保し、かつ、その領域に書き込まれた追加情報を正しく認識できるようにする情報処理装置、情報処理方法およびプログラムを提供することである。
 実施形態の情報処理装置は、入力部と、検出部と、生成部と、出力部と、を備える。入力部は、元画像を入力する。検出部は、前記元画像から、追加情報を書き込む書込領域を検出する。生成部は、前記元画像の予め定められた領域に付加される画像であって、前記元画像における前記書込領域の位置を特定するための画像である位置特定画像を生成する。出力部は、前記位置特定画像を出力する。
図1は、帳票処理システムの概要を示す構成図である。 図2は、第1情報処理装置の機能的な構成を示すブロック図である。 図3は、検出部が元画像から書込領域を検出する処理の一例を概念的に示す模式図である。 図4は、生成部が生成する位置特定画像の一例を示す図である。 図5は、第1情報処理装置により実行される一連の処理の流れを示すフローチャートである。 図6は、第2情報処理装置の機能的な構成を示すブロック図である。 図7は、特定部が処理済み画像から書込領域を検出する処理の一例を概念的に示す模式図である。 図8は、第2情報処理装置により実行される一連の処理の流れを示すフローチャートである。 図9は、第1変形例の位置特定画像を示す図である。 図10は、第2変形例の位置特定画像を示す図である。 図11は、第3変形例の位置特定画像を示す図である。 図12は、第4変形例の位置特定画像を示す図である。 図13は、第5変形例の位置特定画像を示す図である。 図14は、第6変形例の位置特定画像を示す図である。 図15は、第7変形例の位置特定画像を示す図である。 図16は、第1情報処理装置および第2情報処理装置のハードウェア構成の一例を示す図である。
 以下、実施形態の情報処理装置、情報処理方法およびプログラムを、図面を参照して説明する。以下で説明する実施形態は、既に記入が存在する帳票に対して追加情報として処理番号を書き込み、その後、処理番号を読み取ることで帳票を識別して様々な処理に役立てる帳票処理システムへの適用例であるが、適用可能なシステムはこれに限られるものではない。
(帳票処理システム)
 図1は、本実施形態に係る帳票処理システムの概要を示す構成図である。本実施形態に係る帳票処理システムは、第1情報処理装置10と、第2情報処理装置20と、処理番号付与装置30と、印刷装置40と、を備える。
 第1情報処理装置10は、元画像Im1を入力し、元画像Im1から追加情報である処理番号を書き込む書込領域を検出するとともに、元画像Im1の予め定められた領域(例えば画像の周縁の所定幅を持つ領域)に付加される画像であって、元画像Im1における書込領域の位置を特定するための画像である位置特定画像Im2を生成し、この位置特定画像Im2を出力する。以下では、位置特定画像Im2が付加される領域として予め定められた領域を、画像付加領域という。
 第1情報処理装置10に入力される元画像Im1は、既に記入が存在する帳票LS1を、図示しないスキャナ等により光学的に読み取ることで得られる画像データである。元画像Im1は、スキャナ等から第1情報処理装置10に直接入力されてもよいし、所定の記憶装置に一旦格納された後、この記憶装置から第1情報処理装置10に入力されてもよい。また、元画像Im1は、第1情報処理装置10に対してネットワークを介して接続された外部装置から、ネットワーク経由で第1情報処理装置10に入力されるようにしてもよい。
 第1情報処理装置10が出力する位置特定画像Im2は、処理番号付与装置30に入力される。また、第1情報処理装置10から処理番号付与装置30には、位置特定画像Im2とは別個に、元画像Im1における書込領域の代表点(例えば書込領域の中心点)の座標値が与えられる。処理番号付与装置30は、この座標値を元に書込領域の位置を特定し、この書込領域の位置に帳票LS1に対応する処理番号を書き込んだ画像を位置特定画像Im2と重ね合わせることで印刷対象画像Im3を生成し、この印刷対象画像Im3を出力する。処理番号付与装置30が出力する印刷対象画像Im3は、印刷装置40に入力される。
 なお、第1情報処理装置10が出力する位置特定画像Im2を印刷装置40に直接入力するとともに、処理番号付与装置30は書込領域の位置に処理番号を書き込んだ画像を印刷装置40に入力し、これらの画像を印刷装置40において重ね合わせることで印刷対象画像Im3を生成するようにしてもよい。
 印刷装置40には、印刷対象画像Im3が入力される他、印刷媒体として元画像Im1に対応する帳票LS1が給紙される。印刷装置40は、処理番号付与装置30から入力された印刷対象画像Im3を帳票LS1上に重ねて印刷する。これにより、元画像Im1の画像付加領域と対応する帳票LS1上の領域に位置特定画像Im2が印刷され、元画像Im1の書込領域と対応する帳票LS1上の位置に処理番号が印刷されてなる帳票LS2が、印刷装置40から排紙される。
 第2情報処理装置20は、処理済み画像Im4を入力し、この処理済み画像Im4に含まれる位置特定画像Im2に基づいて、処理済み画像Im4における書込領域の位置を特定するとともに、この書込領域に書き込まれた処理番号を認識して出力する。第2情報処理装置20が出力する処理番号は、その後の帳票処理に活用される。
 第2情報処理装置20に入力される処理済み画像Im4は、印刷装置40から排紙された、位置特定画像Im2および処理番号が印刷された帳票LS2を、図示しないスキャナ等により光学的に読み取ることで得られる画像データである。つまり、処理済み画像Im4は、元画像Im1の画像付加領域に第1情報処理装置10が出力した位置特定画像Im2が付加されるとともに、第1情報処理装置10が検出した書込領域に処理番号付与装置30によって処理番号が書き込まれた画像である。処理済み画像Im4は、元画像Im1と同様に、スキャナ等から第2情報処理装置20に直接入力されてもよいし、所定の記憶装置に一旦格納された後、この記憶装置から第2情報処理装置20に入力されてもよい。また、処理済み画像Im4は、第2情報処理装置20に対してネットワークを介して接続された外部装置から、ネットワーク経由で第2情報処理装置20に入力されるようにしてもよい。
(第1情報処理装置)
 次に、第1情報処理装置10についてさらに詳しく説明する。図2は、第1情報処理装置10の機能的な構成を示すブロック図である。第1情報処理装置10は、機能的な構成要素として、図2に示すように、入力部11と、検出部12と、生成部13と、出力部14と、を備える。
 入力部11は、元画像Im1を入力し、必要に応じて、元画像Im1に対して例えばカラー画像の2値化や傾き補正処理等の前処理を施して、検出部12に渡す。
 検出部12は、元画像Im1のうちの画像付加領域を除く領域の中から、処理番号を書き込む書込領域を検出する。本実施形態では、元画像Im1の周縁の所定幅(記入が存在しないことが想定される十分に小さな幅)を持つ領域が、画像付加領域として予め定められているものとする。
 図3は、検出部12が元画像Im1から書込領域を検出する処理の一例を概念的に示す模式図である。検出部12は、例えば図3に示すように、元画像Im1のうちの画像付加領域Rsを除く領域をスキャンして、下記式(1)で示す評価関数を最小にするx,yを求めてx0,y0とし、画素(x0,y0)を中心とする高さ2w、幅2hの矩形領域を、書込領域Rnとして検出する。
Figure JPOXMLDOC01-appb-M000001
 ただし、x,yの値には、前記矩形領域が画像付加領域Rsと重複しない制約が設けられているものとする。また、書込領域Rnの大きさは一定であるものとし、矩形領域の大きさを定めるパラメータw,hの値は予め定められているものとする。なお、書込領域Rnの大きさは、例えば処理番号付与装置30等によって指定される可変の大きさであってもよい。この場合、矩形領域の大きさを定めるパラメータw,hの値は、指定された書込領域Rnの大きさに応じて定められる。
 また、元画像Im1は、幅W、高さHの矩形の画像として量子化されているものとし、f(x,y)は位置(x,y)における画素値であって、前景色(記入が存在する位置)で最大、背景色(記入が存在しない位置)で最小の値を取るように標本化されているものとする。これにより、元画像Im1において、既に存在する記入との重なりが最も少ない領域が書込領域Rnとして検出されることになる。
 図2に戻り、生成部13は、検出部12により検出された書込領域の位置を特定するための光学的に読み取り可能な画像である位置特定画像Im2を生成する。位置特定画像Im2の態様としては様々なものが考えられるが、ここでは、一例として、元画像Im1の周縁の所定幅を持つ領域が画像付加領域として予め定められていることを前提に、検出部12により検出された書込領域と元画像Im1の水平方向または垂直方向に重なる画像付加領域における位置を、その他の画像付加領域における位置とは区別した画像を、位置特定画像Im2として生成する。
 図4は、生成部13が生成する位置特定画像Im2の一例を示す図である。この図4に示す位置特定画像Im2は、画像付加領域Rsにおいて、検出部12により検出された書込領域Rnの水平方向および垂直方向への射影が交わる位置を、例えば黒の塗り潰し等によりマーキングした画像である。この図4に示す位置特定画像Im2では、画像付加領域Rsのうち、元画像Im1の第1辺に対応する領域のマーキング位置と、元画像Im1の第1辺に直交する第2辺に対応する領域のマーキング位置とから、検出部12により検出された書込領域Rnの位置を特定することができる。
 なお、図4に示す位置特定画像Im2では、元画像Im1の直交する2辺に対応する2つのマーキング位置から書込領域Rnの位置を特定することができるが、書込領域Rnの位置を特定する情報としての冗長性を持たせるために、図4に示すように、元画像Im1の4つの辺に対応する4つの位置にマーキングをしている。これにより、例えば4つのマーキングのうちの1つ(あるいは2つ)が既に存在する記入と重なる等により適切に読み取ることができない場合であっても、残りのマーキングの位置から書込領域Rnの位置を正しく特定することができる。
 図2に戻り、出力部14は、生成部13によって生成された位置特定画像Im2を、必要に応じて処理番号付与装置30が扱うことのできる形式に変換して、処理番号付与装置30に対して出力する。なお、出力部14は、上述したように、位置特定画像Im2とは別個に、元画像Im1における書込領域の代表点の座標値も処理番号付与装置30に対して出力する。
 図5は、第1情報処理装置10により実行される一連の処理の流れを示すフローチャートである。第1情報処理装置10が起動すると、まず、入力部11が元画像Im1を入力する(ステップS101)。次に、検出部12が、ステップS101で入力された元画像Im1から書込領域を検出する(ステップS102)。次に、生成部13が、ステップS102で検出された書込領域の位置を特定するための位置特定画像Im2を生成する(ステップS103)。そして最後に、出力部14が、ステップS103で生成された位置特定画像Im2を処理番号付与装置30に対して出力する(ステップS104)。
(第2情報処理装置)
 次に、第2情報処理装置20についてさらに詳しく説明する。図6は、第2情報処理装置20の機能的な構成を示すブロック図である。第2情報処理装置20は、機能的な構成要素として、図6に示すように、入力部21と、特定部22と、認識部23と、出力部24と、を備える。
 入力部21は、処理済み画像Im4を入力し、必要に応じて、処理済み画像Im4に対して例えばカラー画像の2値化や傾き補正処理等の前処理を施して、特定部22に渡す。
 特定部22は、処理済み画像Im4に含まれる位置特定画像Im2に基づいて、処理済み画像Im4における書込領域の位置を特定する。
 図7は、特定部22が処理済み画像Im4から書込領域Rnを検出する処理の一例を概念的に示す模式図である。ここでは、位置特定画像Im2は、上述したように、書込領域Rnの水平方向および垂直方向への射影が交わる画像付加領域Rsの位置を、例えば黒の塗り潰し等によりマーキングした画像であるものとする。
 この場合、特定部22は、図7に示すように、画像付加領域Rsのうちの垂直方向に延びる領域Rs1については、水平方向の画素の並びである水平ラインごとに、領域Rs1を構成する画素のうちで前景色(例えば黒)の画素が占める比率を求め、前景色の画素が占める比率が予め定めた閾値を超えた位置をマーキング位置とする。そして、特定部22は、マーキング位置とそうでない位置との境界となる2つの水平ライン(第1境界水平ラインHL1および第2境界水平ラインHL2)を特定する。また、特定部22は、画像付加領域Rsのうちの水平方向に延びる領域Rs2については、垂直方向の画素の並びである垂直ラインごとに、領域Rs2を構成する画素のうちで前景色(例えば黒)の画素が占める比率を求め、前景色の画素が占める比率が予め定めた閾値を超えた位置をマーキング位置とする。そして、特定部22は、マーキング位置とそうでない位置との境界となる2つの垂直ライン(第1境界垂直ラインVL1および第2境界垂直ラインVL2)を特定する。そして、特定部22は、第1境界水平ラインHL1と、第2境界水平ラインHL2と、第1境界垂直ラインVL1と、第2境界垂直ラインVL2との4つの線分に囲まれる領域を、書込領域Rnとして特定する。
 特定部22は、以上のように、前景色の画素が占める比率を閾値と比較してマーキング位置を特定することで、例えば印刷不良や読取不良等によってマーキングの一部が背景色(例えば白)に反転されていたとしても、マーキング位置を正しく認識して書込位置Rnを正確に特定することができる。
 図6に戻り、認識部23は、特定部22により特定された書込領域に書き込まれた処理番号、つまり、処理番号付与装置30によって追加情報として書込領域に書き込まれた帳票LS1の処理番号を、既知の文字認識等の技術を用いて認識する。
 出力部24は、認識部23により認識された処理番号を出力する。
 図8は、第2情報処理装置20により実行される一連の処理の流れを示すフローチャートである。第2情報処理装置20が起動すると、まず、入力部21が処理済み画像Im4を入力する(ステップS201)。次に、特定部22が、ステップS201で入力された処理済み画像Im4に含まれる位置特定画像Im2に基づいて、処理済み画像Im4における書込領域の位置を特定する(ステップS202)。次に、認識部23が、ステップS202で認識された書込領域に書き込まれている処理番号を認識する(ステップS203)。そして最後に、出力部24が、ステップS203で認識された処理番号を出力する(ステップS204)。
 以上、具体的な例を挙げながら詳細に説明したように、本実施形態に係る帳票処理システムでは、第1情報処理装置10が、帳票LS1を光学的に読み取ることで得られる元画像Im1を入力し、この元画像Im1から追加情報である処理番号を書き込むための書込領域を検出するとともに、書込領域の位置を特定するための位置特定画像Im2を生成し、位置特定画像Im2を出力するようにしている。また、第2情報処理装置20が、帳票LS1の書込領域に処理番号、画像付加領域に位置特定画像Im2が印刷されてなる帳票LS2を光学的に読み取ることで得られる処理済み画像Im4を入力し、この処理済み画像Im4に含まれる位置特定画像Im2に基づいて書込領域の位置を特定し、書込領域に書き込まれた処理番号を認識するようにしている。したがって、この帳票処理システムでは、帳票の様式が未知の様式であったり多種多様な様式であったりしても、帳票に対して追加情報である処理番号を書き込める領域を適切に確保し、かつ、その領域に書き込まれた追加情報を正しく認識することができる。
 なお、上述した実施形態では、位置特定画像Im2の一態様を説明したが、位置特定画像Im2の態様としては、上述した例の他にも様々なバリエーションが考えられる。以下では、位置特定画像Im2の異なる態様を変形例として説明する。
(第1変形例)
 図9は、第1変形例の位置特定画像Im2aを示す図である。第1変形例では、元画像Im1の周縁の一部の小さな領域が画像付加領域Rsとして予め定められていることを前提とする。第1情報処理装置10の生成部13は、この画像付加領域Rs内に、検出部12により検出された書込領域Rnの代表点(例えば中心点Pc)の座標値を表すバーコードを配置した画像を、位置特定画像Im2aとして生成する。
 第1変形例の場合、第2情報処理装置20の特定部22は、処理済み画像Im4に含まれる位置特定画像Im2aのバーコードを読み取ることで、処理済み画像Im4における書込領域Rnの位置を特定することができる。
 なお、第1変形例の位置特定画像Im2aは、バーコードの代わりに、書込領域Rnの代表点の座標値を表す二次元コードや座標値を表す数値そのものを、画像付加領域Rs内に配置したものであってもよい。また、第1変形例の位置特定画像Im2aは、書込領域Rnの代表点の座標値だけでなく、書込領域Rnの大きさの情報等、他の情報も含めたバーコード、二次元コード、数値等を画像付加領域Rs内に配置したものであってもよい。
(第2変形例)
 図10は、第2変形例の位置特定画像Im2bを示す図である。第2変形例では、元画像Im1の四隅に位置する所定の大きさの4つの矩形領域Rs1~Rs4が画像付加領域Rsとして予め定められていることを前提とする。第1情報処理装置10の生成部13は、これら4つの矩形領域Rs1~Rs4内に、これら4つの矩形領域Rs1~Rs4の代表点から書込領域Rnの代表点への方向を表す4つの矢印(または直線)を配置した画像を、位置特定画像Im2bとして生成する。
 例えば、4つの矩形領域Rs1~Rs4の代表点をそれぞれ画像の四隅の頂点P1~P4とし、書込領域Rnの代表点を書込領域Rnの中心点Pcとした場合、生成部13は、図10に示すように、画像の左上の頂点P1から書込領域Rnの中心点Pcへの方向を表す矢印を画像の左上に位置する矩形領域Rs1内に配置し、画像の右上の頂点P2から書込領域Rnの中心点Pcへの方向を表す矢印を画像の右上に位置する矩形領域Rs2内に配置し、画像の左下の頂点P3から書込領域Rnの中心点Pcへの方向を表す矢印を画像の左下に位置する矩形領域Rs3内に配置し、画像の右下の頂点P4から書込領域Rnの中心点Pcへの方向を表す矢印を画像の右下に位置する矩形領域Rs4内に配置した画像を、位置特定画像Im2bとして生成する。
 第2変形例の場合、第2情報処理装置20の特定部22は、まず、処理済み画像Im4に含まれる位置特定画像Im2bの4つの矩形領域Rs1~Rs4に対し、ハフ変換または最小二乗法等の既知の方法を用いて各矩形領域Rs1~Rs4に配置された矢印(または直線)の傾きを推定する。そして、特定部22は、4つの矢印(または直線)のそれぞれをax+by+c=0(i=1,2,3,4,a+b=1)という数式で表し、4つの矢印(または直線)との距離の二乗和が最小になる点を書込領域Rnの代表点(例えば中心点Pc)として求める。この点は、下記式(2)で示す線形方程式の解となる点(x,y)として求めることができる。ただし、Nは矢印(または直線)の本数である。
Figure JPOXMLDOC01-appb-M000002
 特定部22は、以上のような手法で書込領域Rnの代表点(例えば中心点Pc)の座標を求めることで、処理済み画像Im4における書込領域Rnの位置を特定することができる。
 なお、図10に示した位置特定画像Im2bは、4つの矩形領域Rs1~Rs4が画像付加領域Rsとして予め定められていることを前提に、4つの矩形領域Rs1~Rs4のそれぞれに、各矩形領域Rs1~Rs4の代表点P1~P4から書込領域Rnの中心点Pcへの方向を表す矢印を配置している。しかし、第2変形例の位置特定画像Im2bは、少なくとも2つの矩形領域に矢印(または直線)を配置した画像であればよい。例えば、2つの矩形領域に矢印(または直線)を配置した画像を位置特定画像Im2bとした場合、その位置特定画像Im2bに含まれる2つの矢印(または直線)の交点を書込領域Rnの代表点として求めることで、書込領域Rnの位置を特定することができる。ただし、図10に示した位置特定画像Im2bのように、4つの矩形領域Rs1~Rs4のそれぞれに矢印(または直線)を配置することで、書込領域Rnの位置を特定する情報としての冗長性を持たせることができ、例えば4つの矢印(または直線)のうちの1つ(あるいは2つ)が既に存在する記入と重なる等により適切に読み取ることができない場合であっても、残りの矢印(または直線)を用いて書込領域Rnの位置を正しく特定することができる。
 また、第2変形例の位置特定画像Im2bでは、上記のような矢印(または直線)を配置する4つの矩形領域Rs1~Rs4の他に追加の小領域を1つ設け、その追加の小領域内に、書込領域Rnの大きさを表す情報等を配置するようにしてもよい。
(第3変形例)
 図11は、第3変形例の位置特定画像Im2cを示す図である。第3変形例の位置特定画像Im2cは、元画像Im1の1つの角部(例えば画像の左上角部)に位置する所定の大きさの矩形領域が画像付加領域Rsとして予め定められていることを前提に、第2変形例で示した4つの矢印(または直線)を、1つの画像付加領域Rs内に集約して配置したものである。
 例えば、画像の左上角部の領域を画像付加領域Rsとした場合、第1情報処理装置10の生成部13は、画像の左上の頂点P1から書込領域Rnの中心点Pcへの方向を表す矢印を、頂点P1が基点となるように画像付加領域Rs内に配置し、画像の右上の頂点P2から書込領域Rnの中心点Pcへの方向を表す矢印を、画像付加領域Rsの右上の頂点P2’が起点となるように画像付加領域Rs内に配置し、画像の左下の頂点P3から書込領域Rnの中心点Pcへの方向を表す矢印を、画像付加領域Rsの左下の頂点P3’が起点となるように画像付加領域Rs内に配置し、画像の右下の頂点P4から書込領域Rnの中心点Pcへの方向を表す矢印を、画像付加領域Rsの右下の頂点P4’が起点となるように画像付加領域Rs内に配置した画像を、位置特定画像Im2cとして生成する。
 第3変形例の場合、第2情報処理装置20の特定部22は、処理済み画像Im4に含まれる位置特定画像Im2cの画像付加領域Rsに対し、ハフ変換または最小二乗法等の既知の方法を用いて、この画像付加領域Rs内に配置された4つの矢印(または直線)の傾きを推定し、第2変形例と同様の手法により書込領域Rnの代表点(例えば中心点Pc)の座標を求めることで、処理済み画像Im4における書込領域Rnの位置を特定することができる。
 なお、図11に示した位置特定画像Im2cは、画像付加領域Rs内に4つの矢印(または直線)を配置した画像であるが、第2変形例と同様に、少なくとも2つの矢印(または直線)を含む画像であればよい。ただし、図11に示した位置特定画像Im2cのように、画像付加領域Rs内に4つの矢印(または直線)を配置することで、第2変形例と同様に、書込領域Rnの位置を特定する情報としての冗長性を持たせることができる。また、図11に示した位置特定画像Im2cは、画像の左上角部を画像付加領域Rsとした例であるが、画像の他の角部を画像付加領域Rsとし、その画像付加領域Rs内に複数の矢印(または直線)を集約して配置するようにしてもよい。さらに、画像の複数の角部にそれぞれ画像付加領域Rsを設け、複数の画像付加領域Rsのそれぞれに、複数の矢印(または直線)を集約して配置するようにしてもよい。この場合、書込領域Rnの位置を特定する情報としての冗長性をより高めることができる。
 また、第3変形例の位置特定画像Im2cでは、上記のような矢印(または直線)を集約して配置する画像付加領域Rsの他に追加の小領域を1つ設け、その追加の小領域内に、書込領域Rnの大きさを表す情報等を配置するようにしてもよい。
(第4変形例)
 図12は、第4変形例の位置特定画像Im2dを示す図である。第4変形例では、第2変形例と同様に、元画像Im1の四隅に位置する所定の大きさの4つの矩形領域Rs1~Rs4が画像付加領域Rsとして予め定められていることを前提とする。また、第4変形例では、書込領域Rnの対角をなす2つの頂点(図12の例では書込領域Rnの左上の頂点Paおよび右下の頂点Pb)が、この書込領域Rnの代表点として定められている。
 第4変形例の場合、第1情報処理装置10の生成部13は、例えば図12に示すように、画像の左上の頂点P1から書込領域Rnの左上の頂点Paへの方向を表す矢印を画像の左上に位置する矩形領域Rs1内に配置し、画像の右上の頂点P2から書込領域Rnの右下の頂点Pbへの方向を表す矢印を画像の右上に位置する矩形領域Rs2内に配置し、画像の左下の頂点P3から書込領域Rnの左上の頂点Paへの方向を表す矢印を画像の左下に位置する矩形領域Rs3内に配置し、画像の右下の頂点P4から書込領域Rnの右下の頂点Pbへの方向を表す矢印を画像の右下に位置する矩形領域Rs4内に配置した画像を、位置特定画像Im2dとして生成する。
 第4変形例の場合、第2情報処理装置20の特定部22は、まず、処理済み画像Im4に含まれる位置特定画像Im2dの4つの矩形領域Rs1~Rs4に配置された矢印(または直線)の傾きを、第2変形例と同様の手法で推定する。そして、特定部22は、矩形領域Rs1に配置された矢印(または直線)と矩形領域Rs2に配置された矢印(または直線)との交点を書込領域Rnの左上の頂点Paとして求め、矩形領域Rs3に配置された矢印(または直線)と矩形領域Rs4に配置された矢印(または直線)との交点を書込領域Rnの右下の頂点Pbとして求めることで、書込領域Rnの位置を特定することができる。
 なお、第4変形例の位置特定画像Im2dでは、上記のような矢印(または直線)を配置する4つの矩形領域Rs1~Rs4の他に追加の小領域を1つ設け、その追加の小領域内に、書込領域Rnの大きさを表す情報を配置するようにしてもよい。これにより、位置特定画像Im2dの4つの矢印(または直線)の一部が印刷不良または読取不良等によって欠落したとしても、書込領域Rnの大きさを認識することができ、書込領域Rnの位置を正しく特定することができる。
(第5変形例)
 図13は、第5変形例の位置特定画像Im2eを示す図である。第5変形例の位置特定画像Im2eは、第3変形例と同様に、元画像Im1の1つの角部(例えば画像の左上角部)に位置する所定の大きさの矩形領域が画像付加領域Rsとして予め定められていることを前提に、第4変形例で示した4つの矢印(または直線)を、1つの画像付加領域Rs内に集約して配置したものである。
 例えば、画像の左上角部の領域を画像付加領域Rsとした場合、第1情報処理装置10の生成部13は、画像の左上の頂点P1から書込領域Rnの左上の頂点Paへの方向を表す矢印を、頂点P1が基点となるように画像付加領域Rs内に配置し、画像の右上の頂点P2から書込領域Rnの右下の頂点Pbへの方向を表す矢印を、画像付加領域Rsの右上の頂点P2’が起点となるように画像付加領域Rs内に配置し、画像の左下の頂点P3から書込領域Rnの左上の頂点Paへの方向を表す矢印を、画像付加領域Rsの左下の頂点P3’が起点となるように画像付加領域Rs内に配置し、画像の右下の頂点P4から書込領域Rnの右下の頂点Pbへの方向を表す矢印を、画像付加領域Rsの右下の頂点P4’が起点となるように画像付加領域Rs内に配置した画像を、位置特定画像Im2eとして生成する。
 第5変形例の場合、第2情報処理装置20の特定部22は、第3変形例と同様に、処理済み画像Im4に含まれる位置特定画像Im2eの4つの矢印(または直線)の傾きを推定し、第4変形例と同様の手法により、書込領域Rnの対角をなす2つの頂点(例えば左上の頂点Paおよび右下の頂点Pb)の座標を求めることで、処理済み画像Im4における書込領域Rnの位置を特定することができる。
 なお、図13に示した位置特定画像Im2eは、画像の左上角部を画像付加領域Rsとした例であるが、画像の他の角部を画像付加領域Rsとし、その画像付加領域Rs内に複数の矢印(または直線)を集約して配置するようにしてもよい。さらに、画像の複数の角部にそれぞれ画像付加領域Rsを設け、複数の画像付加領域Rsのそれぞれに、複数の矢印(または直線)を集約して配置するようにしてもよい。この場合、書込領域Rnの位置を特定する情報としての冗長性をより高めることができる。
 また、第5変形例の位置特定画像Im2eでは、上記のような矢印(または直線)を集約して配置する画像付加領域Rsの他に追加の小領域を1つ設け、その追加の小領域内に、書込領域Rnの大きさを表す情報等を配置するようにしてもよい。
(第6変形例)
 図14は、第6変形例の位置特定画像Im2fを示す図である。第6変形例は、第1情報処理装置10の検出部12が、元画像Im1から2つの書込領域Rn1,Rn2を検出した場合の例である。第6変形例の位置特定画像Im2fは、これら2つの書込領域Rn1,Rn2の位置を特定するための画像であり、例えば、第3変形例の位置特定画像Im2cと同様の態様をとる。
 例えば、書込領域Rn1の代表点を書込領域Rn1の中心点Pc1、書込領域Rn2の代表点を書込領域Rn2の中心点Pc2とし、画像の左上角部の領域を画像付加領域Rsとした場合、第1情報処理装置10の生成部13は、画像の左上の頂点P1から書込領域Rn1の中心点Pc1への方向を表す矢印を、頂点P1が基点となるように画像付加領域Rs内に配置し、画像の右上の頂点P2から書込領域Rn1の中心点Pc1への方向を表す矢印を、画像付加領域Rsの右上の頂点P2’が起点となるように画像付加領域Rs内に配置し、画像の左下の頂点P3から書込領域Rn2の中心点Pc2への方向を表す矢印を、画像付加領域Rsの左下の頂点P3’が起点となるように画像付加領域Rs内に配置し、画像の右下の頂点P4から書込領域Rn2の中心点Pc2への方向を表す矢印を、画像付加領域Rsの右下の頂点P4’が起点となるように画像付加領域Rs内に配置した画像を、位置特定画像Im2fとして生成する。
 第6変形例の場合、第2情報処理装置20の特定部22は、第3変形例と同様に、処理済み画像Im4に含まれる位置特定画像Im2fの4つの矢印(または直線)の傾きを推定する。そして、特定部22は、画像付加領域Rsの左上の頂点P1を基点とする矢印(または直線)と画像付加領域Rsの右上の頂点P2’を基点とする矢印(または直線)との交点を書込領域Rn1の代表点として求めることで、処理済み画像Im4における書込領域Rn1の位置を特定することができる。また、特定部22は、画像付加領域Rsの左下の頂点P3’を基点とする矢印(または直線)と画像付加領域Rsの右下の頂点P4’を基点とする矢印(または直線)との交点を書込領域Rn2の代表点として求めることで、処理済み画像Im4における書込領域Rn2の位置を特定することができる。
 なお、図14に示した位置特定画像Im2fは、画像の左上角部を画像付加領域Rsとした例であるが、画像の他の角部を画像付加領域Rsとし、その画像付加領域Rs内に4つの矢印(または直線)を集約して配置するようにしてもよい。さらに、画像の複数の角部にそれぞれ画像付加領域Rsを設け、複数の画像付加領域Rsのそれぞれに、4つの矢印(または直線)を集約して配置するようにしてもよい。この場合、書込領域Rnの位置を特定する情報としての冗長性をより高めることができるとともに、3つ以上の書込領域Rnが検出された場合にも対応することができる。
 また、図14に示した位置特定画像Im2fは、第3変形例の位置特定画像Im2cと同様の態様で2つの書込領域Rn1,Rn2の位置を特定できるようにしているが、これに限らず、例えば第1変形例や第2変形例と同様の態様で2つの書込領域Rn1,Rn2の位置を特定できるようにした画像であってもよい。
(第7変形例)
 図15は、第7変形例の位置特定画像Im2gを示す図である。第7変形例の位置特定画像Im2gは、第5変形例と同様に、書込領域Rnの対角をなす2つの頂点Pa,Pbを求めるための4つの矢印(または直線)を1つの画像付加領域Rsに集約して配置することを前提とし、それぞれの矢印(または直線)の長さを、頂点Pa,Pbまでの距離に比例した長さとしたものである。
 例えば、画像の左上角部の領域を画像付加領域Rsとした場合、第1情報処理装置10の生成部13は、画像の左上の頂点P1から書込領域Rnの左上の頂点Paへの方向を表す矢印であって、P1-Pa間の長さに比例した長さの矢印と、画像の右上の頂点P2から書込領域Rnの右下の頂点Pbへの方向を表す矢印であって、P2-Pb間の長さに比例した長さの矢印と、画像の左下の頂点P3から書込領域Rnの左上の頂点Paへの方向を表す矢印であって、P3-Pa間の長さに比例した長さの矢印と、画像の右下の頂点P4から書込領域Rnの右下の頂点Pbへの方向を表す矢印であって、P4-Pb間の長さに比例した長さの矢印とを、第5変形例と同様の手法で画像付加領域Rs内に配置した画像を、位置特定画像Im2gとして生成する。
 第7変形例の場合、第2情報処理装置20の特定部22は、第5変形例と同様の手法により、書込領域Rnの対角をなす2つの頂点(例えば左上の頂点Paおよび右下の頂点Pb)の座標を求めることで、処理済み画像Im4における書込領域Rnの位置を特定することができる。さらに、第7変形例の場合、書込領域Rnの1つの頂点を求めるための2つの矢印のうちの一方が正確に読み取れない場合であっても、他方の矢印の長さから書込領域Rnの頂点の座標を求めることができ、処理済み画像Im4における書込領域Rnの位置を特定することができる。
 なお、図15に示した位置特定画像Im2gは、画像の左上角部を画像付加領域Rsとした例であるが、画像の他の角部を画像付加領域Rsとし、その画像付加領域Rs内に複数の矢印(または直線)を集約して配置するようにしてもよい。さらに、画像の複数の角部にそれぞれ画像付加領域Rsを設け、複数の画像付加領域Rsのそれぞれに、複数の矢印(または直線)を集約して配置するようにしてもよい。この場合、書込領域Rnの位置を特定する情報としての冗長性をより高めることができる。
 また、第7変形例の位置特定画像Im2gでは、上記のような矢印(または直線)を集約して配置する画像付加領域Rsの他に追加の小領域を1つ設け、その追加の小領域内に、書込領域Rnの大きさを表す情報等を配置するようにしてもよい。
(情報処理装置のハードウェア構成)
 本実施形態に係る第1情報処理装置10における上述した各機能や、第2情報処理装置20における上述した各機能は、たとえば、第1情報処理装置10や第2情報処理装置20において所定のプログラムを実行することにより実現することができる。この場合、第1情報処理装置10や第2情報処理装置20は、例えば図16に示すように、CPU(Central Processing Unit)101などの制御装置、ROM(Read Only Memory)102やRAM(Random Access Memory)103などの記憶装置、ネットワークに接続して通信を行う通信I/F104、各部を接続するバス105等を備えた、通常のコンピュータを利用したハードウェア構成となる。
 第1情報処理装置10や第2情報処理装置20で実行されるプログラムは、インストール可能な形式または実行可能な形式のファイルでCD-ROM(Compact Disk Read Only Memory)、フレキシブルディスク(FD)、CD-R(Compact Disk Recordable)、DVD(Digital Versatile Disc)等のコンピュータで読み取り可能な記録媒体に記録されてコンピュータプログラムプロダクトとして提供される。
 また、第1情報処理装置10や第2情報処理装置20で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、第1情報処理装置10や第2情報処理装置20で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。
 また、第1情報処理装置10や第2情報処理装置20で実行されるプログラムを、ROM102等に予め組み込んで提供するように構成してもよい。
 第1情報処理装置10で実行されるプログラムは、第1情報処理装置10の各処理部(入力部11、検出部12、生成部13、および出力部14)を含むモジュール構成となっており、実際のハードウェアとしては、例えば、CPU101(プロセッサ)が上記記録媒体からプログラムを読み出して実行することにより、上述した各処理部が主記憶装置上にロードされ、上述した各処理部が主記憶装置上に生成されるようになっている。なお、第1情報処理装置10は、上述した各処理部の一部または全部を、ASIC(Application Specific Integrated Circuit)やFPGA(Field-Programmable Gate Array)などの専用のハードウェアを用いて実現することも可能である。
 第2情報処理装置20で実行されるプログラムは、第2情報処理装置20の各処理部(入力部21、特定部22、認識部23、および出力部24)を含むモジュール構成となっており、実際のハードウェアとしては、例えば、CPU101(プロセッサ)が上記記録媒体からプログラムを読み出して実行することにより、上述した各処理部が主記憶装置上にロードされ、上述した各処理部が主記憶装置上に生成されるようになっている。なお、第2情報処理装置20は、上述した各処理部の一部または全部を、ASICやFPGAなどの専用のハードウェアを用いて実現することも可能である。
 なお、本実施形態に係る帳票処理システムでは、第1情報処理装置10と第2情報処理装置20とをそれぞれ個別の装置として実現しているが、第1情報処理装置10の機能と第2情報処理装置20の機能とを、単一の情報処理装置における2つの機能として実現するようにしてもよい。この場合、情報処理装置は、第1情報処理装置10として機能する第1動作モードと、第2情報処理装置20として機能する第2動作モードを持ち、これら動作モードの切り替えによって、第1情報処理装置10と第2情報処理装置20の2つの機能を実現する。
 また、本実施形態に係る帳票処理システムでは、帳票LS1を光学的に読み取った画像データである元画像Im1から処理番号を書き込む書込位置を検出するとともに、その書込位置を特定するための位置特定画像Im2を生成し、帳票LS1上に処理番号と位置特定画像Im2とを印刷することで得られる帳票LS2を光学的に読み取った画像データである処理済み画像Im4から、位置特定画像Im2をもとに処理番号を認識するようにしているが、位置特定画像Im2と処理番号の画像とを元画像Im1に合成することで処理済み画像Im4を生成し、この処理済み画像Im4から、位置特定画像Im2をもとに処理番号を認識するようにしてもよい。すなわち、位置特定画像Im2や処理番号の画像を一旦印刷した後に光学的に読み取るのではなく、画像データのまま扱うこともできる。
 また、上述した実施形態は帳票処理システムへの適用例であるが、適用可能な例はこれに限らず、既に記入が存在する書類等に追加情報を書き込む用途があるシステムや装置に対して広く適用することができる。
 以上、本発明の実施形態を説明したが、ここで説明した実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。ここで説明した新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。ここで説明した実施形態やその変形は、発明の範囲や要旨に含まれるとともに、請求の範囲に記載された発明とその均等の範囲に含まれる。

Claims (7)

  1.  元画像を入力する入力部と、
     前記元画像から、追加情報を書き込む書込領域を検出する検出部と、
     前記元画像の予め定められた領域に付加される画像であって、前記元画像における前記書込領域の位置を特定するための画像である位置特定画像を生成する生成部と、
     前記位置特定画像を出力する出力部と、を備える情報処理装置。
  2.  前記位置特定画像は、前記元画像における前記書込領域の座標値を表す画像である、請求項1に記載の情報処理装置。
  3.  前記位置特定画像は、前記元画像の予め定められた領域において、前記書込領域と前記元画像の水平方向または垂直方向に重なる位置を、その他の位置とは区別した画像である、請求項1に記載の情報処理装置。
  4.  前記位置特定画像は、前記元画像の予め定められた領域における代表点から前記書込領域の代表点への方向を表す画像である、請求項1に記載の情報処理装置。
  5.  請求項1~4のいずれか一項に記載の情報処理装置から出力される前記位置特定画像が前記元画像の予め定められた領域に付加されるとともに、前記情報処理装置により検出された前記書込領域に前記追加情報が書き込まれた画像である処理済み画像を入力する入力部と、
     前記位置特定画像に基づいて、前記処理済み画像における前記書込領域を特定する特定部と、
     特定された前記書込領域に書き込まれた前記追加情報を認識する認識部と、を備える情報処理装置。
  6.  情報処理装置において実行される情報処理方法であって、
     前記情報処理装置の入力部が、元画像を入力するステップと、
     前記情報処理装置の検出部が、前記元画像から、追加情報を書き込む書込領域を検出するステップと、
     前記情報処理装置の生成部が、前記元画像の予め定められた領域に付加される画像であって、前記元画像における前記書込領域の位置を特定するための画像である位置特定画像を生成するステップと、
     前記情報処理装置の出力部が、前記位置特定画像を出力するステップと、を含む情報処理方法。
  7.  コンピュータに、
     元画像を入力する機能と、
     前記元画像から、追加情報を書き込む書込領域を検出する機能と、
     前記元画像の予め定められた領域に付加される画像であって、前記元画像における前記書込領域の位置を特定するための画像である位置特定画像を生成する機能と、
     前記位置特定画像を出力する機能と、を実現させるためのプログラム。
PCT/JP2012/073360 2012-09-12 2012-09-12 情報処理装置、情報処理方法およびプログラム WO2014041641A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
PCT/JP2012/073360 WO2014041641A1 (ja) 2012-09-12 2012-09-12 情報処理装置、情報処理方法およびプログラム
JP2012543388A JP5180412B1 (ja) 2012-09-12 2012-09-12 情報処理装置、情報処理方法およびプログラム
CN201280002972.3A CN103875018B (zh) 2012-09-12 2012-09-12 信息处理装置及信息处理方法
US13/846,036 US9007634B2 (en) 2012-09-12 2013-03-18 Information processing device, information processing method, and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/073360 WO2014041641A1 (ja) 2012-09-12 2012-09-12 情報処理装置、情報処理方法およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/846,036 Continuation US9007634B2 (en) 2012-09-12 2013-03-18 Information processing device, information processing method, and computer program product

Publications (1)

Publication Number Publication Date
WO2014041641A1 true WO2014041641A1 (ja) 2014-03-20

Family

ID=48189462

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/073360 WO2014041641A1 (ja) 2012-09-12 2012-09-12 情報処理装置、情報処理方法およびプログラム

Country Status (4)

Country Link
US (1) US9007634B2 (ja)
JP (1) JP5180412B1 (ja)
CN (1) CN103875018B (ja)
WO (1) WO2014041641A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6954229B2 (ja) * 2018-05-25 2021-10-27 京セラドキュメントソリューションズ株式会社 画像処理装置及び画像形成装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001028032A (ja) * 2000-01-01 2001-01-30 Matsushita Electric Ind Co Ltd 画像情報処理装置及びマークシート
JP2004246577A (ja) * 2003-02-13 2004-09-02 Canon Inc 画像処理方法
JP2005122682A (ja) * 2003-07-16 2005-05-12 Ricoh Co Ltd 文書処理システム、文書処理方法、文書処理プログラム
JP2009100262A (ja) * 2007-10-17 2009-05-07 Fuji Xerox Co Ltd コード情報処理装置およびコード情報処理プログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3570976B2 (ja) 1999-08-04 2004-09-29 株式会社東芝 帳票処理装置
CN1306456C (zh) * 2002-12-13 2007-03-21 佳能株式会社 图像处理方法和装置
US7391917B2 (en) 2003-02-13 2008-06-24 Canon Kabushiki Kaisha Image processing method
JP2005229176A (ja) * 2004-02-10 2005-08-25 Oki Electric Ind Co Ltd 付加情報処理装置,付加情報処理システムおよび付加情報処理方法
US8023145B2 (en) * 2004-02-27 2011-09-20 Seiko Epson Corporation Image processing system and image processing method
CN100573577C (zh) * 2004-12-08 2009-12-23 株式会社理光 在文档图像中嵌入和提取附加信息

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001028032A (ja) * 2000-01-01 2001-01-30 Matsushita Electric Ind Co Ltd 画像情報処理装置及びマークシート
JP2004246577A (ja) * 2003-02-13 2004-09-02 Canon Inc 画像処理方法
JP2005122682A (ja) * 2003-07-16 2005-05-12 Ricoh Co Ltd 文書処理システム、文書処理方法、文書処理プログラム
JP2009100262A (ja) * 2007-10-17 2009-05-07 Fuji Xerox Co Ltd コード情報処理装置およびコード情報処理プログラム

Also Published As

Publication number Publication date
US9007634B2 (en) 2015-04-14
JP5180412B1 (ja) 2013-04-10
JPWO2014041641A1 (ja) 2016-08-12
CN103875018A (zh) 2014-06-18
US20140071462A1 (en) 2014-03-13
CN103875018B (zh) 2017-02-15

Similar Documents

Publication Publication Date Title
US9002106B2 (en) Image processing apparatus, image processing method, and storage medium
US8792128B2 (en) Apparatus, system, and method of inspecting image, and recording medium storing image inspection control program
US9204009B2 (en) Image forming apparatus
JP5861503B2 (ja) 画像検査装置及び方法
US20100020351A1 (en) Image processing apparatus, image processing method, and computer readable medium
JP2017161969A (ja) 文字認識装置、方法およびプログラム
US20140231522A1 (en) Image generating method, information processing method, and information processing device
US20170091547A1 (en) Information processing apparatus, information processing method, and non-transitory computer readable medium
JP5180412B1 (ja) 情報処理装置、情報処理方法およびプログラム
US9361708B2 (en) Image processing device, image processing method
US10049269B2 (en) Information processing apparatus, information processing method, and non-transitory computer readable medium
US11190684B2 (en) Image processing apparatus, image processing method, and storage medium
US7969618B2 (en) Image forming apparatus, image forming system, computer readable recording medium, and image forming method
US20100238470A1 (en) Document image processing system and document image processing method
JP4803001B2 (ja) 画像処理装置及び画像処理プログラム
JP2009105541A (ja) 画像処理装置、方法、および、プログラム
JP5434273B2 (ja) 画像処理装置及び画像処理プログラム
JP2012181618A (ja) 画像処理プログラムおよび画像処理装置
JP2007299321A (ja) 情報処理装置、情報処理方法、情報処理プログラム、及び、情報記憶媒体
JP2009272714A (ja) 画像処理装置、画像処理方法、プログラム及びプログラムを記録した記録媒体
JP6645143B2 (ja) 画像解析装置
JP2011039896A (ja) 画像処理装置及びコンピュータプログラム
JP5871116B2 (ja) 画像処理装置、方法、およびプログラム
JP2010049587A (ja) 差分抽出装置及び差分抽出プログラム
JP2009020816A (ja) 文書認識装置、文書認識方法、コンピュータプログラム

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2012543388

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12884652

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12884652

Country of ref document: EP

Kind code of ref document: A1