WO2018029924A1 - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
WO2018029924A1
WO2018029924A1 PCT/JP2017/017572 JP2017017572W WO2018029924A1 WO 2018029924 A1 WO2018029924 A1 WO 2018029924A1 JP 2017017572 W JP2017017572 W JP 2017017572W WO 2018029924 A1 WO2018029924 A1 WO 2018029924A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
line
unit
cut
cutout
Prior art date
Application number
PCT/JP2017/017572
Other languages
English (en)
French (fr)
Inventor
陽 島田
Original Assignee
京セラドキュメントソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラドキュメントソリューションズ株式会社 filed Critical 京セラドキュメントソリューションズ株式会社
Priority to US15/737,121 priority Critical patent/US20190012757A1/en
Priority to JP2017564748A priority patent/JP6447755B2/ja
Priority to CN201780002149.5A priority patent/CN107925710B/zh
Publication of WO2018029924A1 publication Critical patent/WO2018029924A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/174Form filling; Merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals

Definitions

  • the present invention relates to an image processing apparatus and an image processing method, and more particularly to a technique for cutting out an image of a partial area from an image to be processed.
  • Patent Document 1 discloses a technique for detecting an area surrounded by a line handwritten by a user on a document and cutting out an image of the detected area. Also disclosed is a technique for listing the cut-out images according to the numbers handwritten by the user. According to these techniques, the user can specify a range to cut out an image by an intuitive and simple operation of handwriting a line on a manuscript.
  • the present invention has been made in view of the above circumstances, and cuts out an image even when the document is larger than the size of the document table and the area surrounded by the filled lines is divided and read. It is an object of the present invention to enable a simple operation to combine cut-out images into one image.
  • An image processing apparatus includes: a detection unit that detects a predetermined type of line image included in a processing target image; and (i) a first surrounding area surrounded by the line image. Cut out from the processing target image to generate a first cutout image, and (ii) if there is the line image that does not form the first surrounding area, (ii-i) the line Cutting out a second surrounding area surrounded by an image and a virtual line connecting one end and the other end of the line image from the processing target image to generate a second cut-out image; (ii-ii) When there are two second cut-out images, a composite image obtained by combining the two second cut-out images is obtained by superimposing the virtual lines of the two second cut-out images.
  • An image processing device including a cutout unit to be generated.
  • An image processing method includes a step of detecting a predetermined type of line image included in a processing target image, and (i) a first surrounded by the line image.
  • a go region is cut out from the processing target image to generate a first cut image, and (ii) when there is the line image that does not form the first go region, (ii-i ) Cut out the second surrounding area surrounded by the line image and a virtual line connecting one end and the other end of the line image from the processing target image to generate a second cut-out image; -ii)
  • the two second cut-out images are synthesized by superimposing the virtual lines of the two second cut-out images.
  • a step of generating a composite image is detecting a predetermined type of line image included in a processing target image, and (i) a first surrounded by the line image.
  • a go region is cut out from the processing target image to generate a first cut image, and (ii) when there is the line image that does not form the first go region, (ii
  • the image is cut out and the cut image is 1 It can be combined into one image with a simple operation.
  • FIG. 1 is a perspective view illustrating an image forming apparatus including an image reading apparatus as an example of an image processing apparatus according to an embodiment of the present disclosure. It is side surface sectional drawing which shows the structure of an image reading apparatus. It is a top view which shows the image reading part of an image reading apparatus.
  • 2 is a functional block diagram schematically showing a main internal configuration of the image reading apparatus.
  • FIG. 6 is a flowchart showing a flow of operation by the image reading apparatus.
  • (A) to (C) are diagrams illustrating an example of a document to be read and an image to be processed.
  • (A) And (B) is a figure which shows an example of a process target image.
  • 10 is a flowchart showing a flow of operations of an image reading apparatus according to a modification.
  • FIG. 6 is a diagram illustrating an example of a document to be read.
  • FIG. It is a figure which shows an example of a process target image. It is a figure which shows an example of a synthesized image.
  • (A) to (C) are diagrams illustrating an example of a processing target image and a composite image.
  • FIG. 1 is a perspective view showing an image forming apparatus including an image reading apparatus which is an example of an image processing apparatus according to an embodiment of the present invention.
  • the image forming apparatus 1 is a multifunction machine having a plurality of functions such as a facsimile communication function, a copy function, a printer function, and a scanner function. As shown in FIG. 1, the image forming apparatus 1 is generally configured by an apparatus main body 80 and an image reading apparatus 10 disposed above the apparatus main body 80.
  • a paper feed unit, an image forming unit, and the like are accommodated in the housing 81 that forms the outer shell of the apparatus main body 80.
  • the image forming unit forms an image on the recording paper conveyed from the paper feeding unit based on the image data generated by the image reading device 10.
  • the recording paper on which the image has been formed is discharged to the discharge tray 82 after the fixing process.
  • the operation unit 91 and the display unit 92 are disposed on the front surface of the casing 81 of the apparatus main body 80.
  • the display unit 92 includes a liquid crystal display (LCD: Liquid Crystal Display) and an organic EL (OLED: Organic Light-Emitting Diode) display.
  • the operation unit 91 is a plurality of operation keys that accept operations from the user on the screen displayed on the display unit 92.
  • An image forming instruction, an image reading instruction, or the like is input to the image forming apparatus 1 or the image reading apparatus 10 by a user operation using the operation unit 91 or the like.
  • the input instruction is received by the receiving unit 106 described later.
  • FIG. 2 is a side sectional view showing the structure of the image reading apparatus 10.
  • the image reading apparatus 10 includes an image reading unit 30 and a document conveying unit 20 disposed above the image reading unit 30.
  • the document conveying unit 20 feeds a bundle of documents placed on the document placing unit 21 one by one by a driving mechanism 23 including a paper feed roller and a conveyance roller, and conveys the bundle to a position facing the document reading slit 36. After enabling reading by the image reading unit 30 through the document reading slit 36, the document is discharged to the document discharge unit 22.
  • FIG. 3 is a top view showing the image reading unit 30.
  • a contact glass 37 is fitted into an opening provided in the main body frame 38.
  • a document to be read is placed on the upper surface of the contact glass 37, and the contact glass 37 serves as a document placing table.
  • a reading unit 40 is provided on the lower surface side of the contact glass 37 in the main body frame 38 so as to be movable in the sub-scanning direction (the arrow Y direction in the figure).
  • the reading unit 40 is reciprocated in the sub-scanning direction by a reading unit driving unit (not shown) including a motor, a gear, and the like, and reads a document placed on the contact glass 37.
  • the reading unit 40 converts image data (processing target image) indicating the read document into an image memory 41 (see FIG. 4) described below in a lossless compression image format such as RAW (Raw image format) or PNG (Portable Network Graphics) format. ).
  • a lossless compression image format such as RAW (Raw image format) or PNG (Portable Network Graphics) format.
  • FIG. 4 is a functional block diagram showing the main internal configuration of the image reading apparatus 10.
  • the image reading apparatus 10 includes a document conveying unit 20, an image reading unit 30, an image memory 41, a storage unit 42, an operation unit 91, a display unit 92, and a control unit 100.
  • the same components as those in FIG. 1 are denoted by the same reference numerals and description thereof is omitted.
  • the image memory 41 is a memory for temporarily storing a processing target image generated by the image reading unit 30 reading a document.
  • the storage unit 42 is a large-capacity storage device such as an HDD (Hard Disk Drive).
  • the storage unit 42 stores programs and data necessary for the operation of the image forming apparatus 1 and the image reading apparatus 10.
  • the control unit 100 includes a processor such as a CPU (Central Processing Unit) or a DSP (Digital Signal Processor), and a memory such as a RAM (Random Access Memory) or a ROM (Read Only Memory).
  • the control unit 100 is configured to execute an operation control unit 101, a line image detection unit 102, an image cropping unit by executing a control program such as an image processing program stored in the memory or the storage unit 42 on the processor. 103, functions as an inclination correction unit 104, a display control unit 105, and a reception unit 106.
  • each said structure of the control unit 100 may be each comprised by the hard circuit irrespective of the operation
  • the operation control unit 101 controls overall operation of the image reading apparatus 10 and the image forming apparatus 1.
  • the operation control unit 101 has a function of controlling an image reading operation by the image reading unit 30 by controlling a driving operation by a reading unit driving unit that moves the reading unit 40 in the sub-scanning direction.
  • the line image detection unit 102 has a function of detecting a predetermined type of line image included in the processing target image generated by reading the document by the image reading unit 30.
  • the line image detection unit 102 detects the edge position in the image by performing Hough transform on the processing target image, for example. Then, the line image detection unit 102 uses a line marked with a predetermined color marker included in the processing target image or a predetermined line image as the predetermined type of line image based on the detected edge position.
  • a line having a predetermined width or a predetermined type of line (for example, a solid line, a broken line, a dotted line, a one-dot chain line, or the like) is detected. Accordingly, the line image detection unit 102 can easily and appropriately detect the line image.
  • the line image detection unit 102 is an example of a detection unit in the claims.
  • the image cutout unit 103 cuts out a region (first surrounding region) surrounded by the line image detected by the line image detection unit 102 from the processing target image, and generates a cutout image (first cutout image). It has the function to do. In addition, when there is a line image that does not form the first surrounding area in the processing target image, the image cutout unit 103 connects the line image and one end and the other end of the line image. A region surrounded by the virtual line (second surrounding region) is cut out from the processing target image to generate a cut-out image (second cut-out image).
  • the image cutout unit 103 is an example of a cutout unit in the claims.
  • the inclination correction unit 104 has a function of correcting the inclination of the cutout image horizontally by detecting the inclination of the cutout image cut out by the image cutout unit 103 and performing rotation processing on the cutout image. Have.
  • the display control unit 105 has a function of controlling a display operation such as a screen by the display unit 92.
  • the accepting unit 106 has a function of accepting an image reading instruction, an image forming instruction, and the like in response to a user operation using the operation unit 91 or the like.
  • FIG. 5 is a flowchart showing an operation flow of the image reading apparatus 10.
  • the image reading unit 30 is placed on the contact glass 37 under the control of the operation control unit 101.
  • the placed original is read (step S11), and a processing target image is generated (step S12).
  • the processing target image is acquired by reading the document by the image reading unit 30, but the processing target image is acquired by receiving the image from another information processing apparatus such as a PC (Personal Computer). May be.
  • a PC Personal Computer
  • the image reading unit 30 when the document S to be read is larger than the contact glass 37, the document cannot be read at a time.
  • the document S is bent or cut at the position of the line B1, and the document S is read twice.
  • the image reading unit 30 generates the image a ⁇ b> 1 and the image a ⁇ b> 2 as images indicating the document S.
  • the image a1 and the image a2 are stored in the image memory 41 as processing target images.
  • a marker line m1 is written on the document S, and an area surrounded by the marker line m1 is a cutout range desired by the user.
  • the marker line m1 is shown in the line image m11 shown in the image a1 and the image a2, as shown in FIG. 6C, as a result of the document S being read in two steps as described above. It is imaged as a line image m12.
  • the line image detection unit 102 detects a predetermined type of line image included in the processing target image acquired in the process of step S ⁇ b> 12 (step S ⁇ b> 13).
  • the image cutout unit 103 determines whether or not the first surrounding area surrounded by the line image exists in the processing target image, and when the first surrounding area exists (YES in step S14). Then, a process of cutting out the first surrounding area from the target processed image to generate a first cutout image is performed (step S15). The image cutout unit 103 stores the first cutout image generated by the above processing in the image memory 41.
  • the image cutout unit 103 determines whether or not there is a line image in which the first surrounding area is not formed in the target processing image (step S16). When there is a line image that does not form the first surrounding area (YES in step S16), the image cutout unit 103 extracts the line image and one end and the other end of the line image from the processing target image. A process of generating a second cut-out image by cutting out the second surrounding area surrounded by the connecting virtual line (step S17). Here, the image cutout unit 103 draws the imaginary line so that the second surrounding area is a rectangular area.
  • the image cut-out unit 103 When there are two second Go regions, that is, when two second cut-out images are generated in the process of Step S17 (YES in Step S18), the image cut-out unit 103 performs the two cut-out portions. By superimposing the virtual lines of the images, a composite image is generated by combining the two second cut-out images (step S19). Then, the image cutout unit 103 performs a process of outputting the first cutout image and the composite image generated by the above process (step S20). The image cutout unit 103, for example, stores the generated first cutout image and composite image in the storage unit 42, and generates the first cutout image and composite image generated in another information processing apparatus such as a PC. A process to be transmitted to the communication unit, a process to display the first cut image and the synthesized image generated on the display unit 92, and the like are executed as the output process.
  • the image cutout unit 103 performs processing illustrated in FIG. As shown in A), a process of drawing a virtual line L1 connecting the end points h1 and h2 of the line image m11 to the image a1 and cutting out the area surrounded by the line image m11 and the virtual line L1 as a second surrounding area. Do.
  • the image cutout unit 103 draws a virtual line L2 connecting the end points h3 and h4 of the line image a12 with respect to the image a2, and cuts out an area surrounded by the line image m12 and the virtual line L2 as a second surrounding area.
  • the image a1 and the image a2 are cut out images.
  • the image cutout unit 103 cuts out the cutout image a1 and the cutout image a1 so that the virtual line L1 of the cutout image a1 and the virtual line L2 of the cutout image a2 overlap each other.
  • the image a2 is synthesized.
  • an image is cut out even when the document is larger than the size of the contact glass 37 and the area surrounded by the written line is divided and read.
  • the display control unit 105 performs two (second) cutouts on the display unit 92 before the above-described composite image generation processing. Images a1 and a2 may be displayed. Thereby, the virtual line L1 of the cut-out image a1 and the virtual line L2 of the cut-out image a2 that are overlapped with each other can be confirmed in advance by the user.
  • FIG. 8 is a flowchart showing a flow of operations of the image reading apparatus 10 according to the first modification.
  • symbol is attached
  • the image cut-out unit 103 compares the lengths of the virtual lines of the plurality of second cut-out images, and selects two second cut-out images having the same or closest virtual line length (step S31). Then, the image cutout unit 103 combines the two second cutout images so that the virtual lines of the two selected second cutout images overlap each other (Step S32). The image cutout unit 103 repeats the processes of step S31 and step S32 until the number of virtual lines that are not overlapped becomes one or less (step S33).
  • the original S to be read is bent or cut at the positions of the lines B2 and B3, and the original S is read in four steps.
  • an image a ⁇ b> 3 an image a ⁇ b> 4, an image a ⁇ b> 5, and an image a ⁇ b> 6 are generated by the image reading unit 30 as images indicating the document S.
  • the image a3, image a4, image a5, and image a6 are stored in the image memory 41 as processing target images.
  • a marker line m2 is written on the document S, and an area surrounded by the marker line m2 is a cutout range desired by the user.
  • the marker line m2 is, as shown in FIG. 10, the line image m14 shown in the image a3, the line image m15 shown in the image a4, The line image m16 shown in the image a5 and the line image m17 shown in the image a6 are imaged.
  • the image cutout unit 103 draws virtual lines L3 and L4 connecting the end points h5 and h6 of the line image m14 with respect to the image a3, and the line image m14 and the virtual lines L3 and L4.
  • a process of cutting out the area surrounded by as a second surrounding area is performed.
  • the image cutout unit 103 draws virtual lines L3 and L4 so that the second surrounding area is a rectangular area.
  • the image cutout unit 103 draws virtual lines L7 and L8 that connect the end points h7 and h8 of the line image m15 with respect to the image a4, and the region surrounded by the line image m15 and the virtual lines L7 and L8 is the second. Processing to cut out as a Go area is performed. In addition, the image cutout unit 103 draws virtual lines L9 and L10 that connect the end points h9 and h10 of the line image m16 to the image a5, and the region surrounded by the line image m16 and the virtual lines L9 and L10 is the second. Processing to cut out as a Go area is performed.
  • the image cutout unit 103 draws virtual lines L11 and L12 that connect the end points h11 and h12 of the line image m17 with respect to the image a6, and the region surrounded by the line image m17 and the virtual lines L11 and L12 is the second. Processing to cut out as a Go area is performed.
  • the image cutout unit 103 compares the virtual line lengths A1 to A8. For example, since the length A1 of the virtual line L4 and the length A3 of the virtual line L7 are equal, the image cutout unit 103 synthesizes the image a3 and the image a4 so that the virtual line L4 and the virtual line L7 overlap each other. To do. Further, for example, since the length A5 of the virtual line L9 and the length A8 of the virtual line L12 are equal, the image cutout unit 103 combines the image a5 and the image a6 so that the virtual line L9 and the virtual line L12 overlap each other. Synthesize. By repeating this process, all virtual lines can be superimposed in the example shown in FIG. 10, and one synthesized image can be generated by synthesizing the images a3 to a6.
  • one composite image can be generated even when there are three or more second cut-out images.
  • the display control unit 105 causes the display unit 92 to display the composite image
  • two line images m21 and m22 are included in an image a7 showing one original.
  • the image cutout unit 103 draws a virtual line L21 for the line image m21 and draws a virtual line L22 for the line image m22 so that the second surrounding area is rectangular.
  • the image cutout unit 103 then converts the second surrounding area surrounded by the line image m21 and the virtual line L21 and the second surrounding area surrounded by the line image m21 and the virtual line L22 into the virtual lines L21 and L22.
  • two line images m23 and m24 are included in an image a9 indicating one original.
  • the image cutout unit 103 draws a virtual line L23 for the line image m23 and draws a virtual line L24 for the line image m24 so that the second surrounding area is rectangular. Then, the image cutout unit 103 converts the second surrounding area surrounded by the line image m23 and the virtual line L23 and the second surrounding area surrounded by the line image m24 and the virtual line L24 into the virtual lines L23 and L24.
  • the display control unit 105 causes the display unit 92 to display a reception screen for receiving a position where the virtual lines L23 and L24 are superimposed.
  • the virtual line L23 is attached to the left end of the virtual line L24 to synthesize the image
  • the virtual line L23 is attached to the center of the virtual line L24, or the image is synthesized
  • the image cutting unit 103 determines a position where the virtual lines are overlapped according to the pressing operation.
  • the image cutout unit 103 causes the virtual line L23 and the virtual line L23 to be attached to the right end of the virtual line L24 in response to a pressing operation on the reception screen received by the reception unit 106.
  • the position where L24 is superimposed is determined.
  • three line images m24, m25, and m26 are included in an image a11 indicating one original.
  • the image cutout unit 103 draws a virtual line L24 for the line image m24, draws virtual lines L25 and L26 for the line image m25, and draws a virtual line L25 and L26 for the line image m26 so that the second surrounding area is rectangular.
  • the image cutout unit 103 converts the second surrounding area surrounded by the line image m24 and the virtual line L24 and the second surrounding area surrounded by the line image m25 and the virtual lines L25 and L26 into the virtual lines L24 and L25. Are combined so that they overlap.
  • the image cutout unit 103 also converts the second surrounding area surrounded by the line image m25 and the virtual lines L25 and L26, and the second surrounding area surrounded by the line image m26 and the virtual line L27 into the virtual line L26. And L27 are combined so that they overlap.
  • the composite image a12 is generated by the above processing.
  • the image cutout unit 103 selects as an image to superimpose virtual lines located at the closest positions.
  • the line image detection unit 102 detects a second line image of a predetermined type different from the type of the line image detected in the above embodiment from the processing target image. . Then, the image cutout unit 103 cuts out the surrounding area surrounded by the line image and the second line image from the processing target image as the second surrounding area, and generates a second cutout image.
  • the line image detection unit 102 detects the second line image entered by the user instead of specifying a virtual line connecting one end and the other end of the line image. Thus, the second go region is specified and the second cut image is generated.
  • the image reading apparatus 10 has been described above as an example of the image processing apparatus, the present invention is not necessarily limited to this case.
  • the image processing apparatus described above can be applied to a PC or other information processing apparatus.
  • control program such as the image processing program described in the above embodiment is recorded on a computer-readable non-transitory recording medium such as a hard disk, CD-ROM, DVD-ROM, or semiconductor memory. Also good.
  • a computer-readable non-transitory recording medium that records the control program is an embodiment of the present invention.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Image Processing (AREA)

Abstract

画像処理装置は、線画像検出部(102)と、画像切出部(103)とを備える。線画像検出部(102)は、処理対象画像内に含まれる予め定められた種別の線画像を検出する。画像切出部(103)は、線画像により囲まれた第1の囲繞領域を切り出す。また、画像切出部(103)は、第1の囲繞領域を形成していない線画像が存在する場合には、当該線画像、および、当該線画像の一端と他端とを結ぶ仮想線により囲まれた第2の囲繞領域を切り出して第2の切出画像を生成する。そして、画像切出部(103)は2つの第2の切出画像の仮想線同士を重ね合わせることで、当該2つの第2の切出画像を合成した合成画像を生成する。

Description

画像処理装置および画像処理方法
 本発明は、画像処理装置および画像処理方法に関し、特に、処理対象の画像から一部の領域の画像を切り出す技術に関する。
 処理対象の画像から一部の領域の画像を切り出す技術、所謂クロッピング技術が知られている。下記の特許文献1には、原稿に対してユーザーの手書きで記入された線により囲われた領域を検出し、当該検出した領域の画像を切り出す技術が開示されている。また、ユーザーの手書きで記入された数字に応じて上記の切り出した画像をリスト化する技術も開示されている。これらの技術によれば、原稿に対して手書きで線を記入するという直感的かつ簡易な操作で、ユーザーが画像を切り出す範囲を指定することができる。
特開2012-151722号公報
 ここで、原稿が原稿載置台のサイズより大きい場合、ユーザーの手書きで記入された線により囲われた領域が分割して読み取られる。この場合、上記の特許文献1に開示される技術では、画像を切り出す領域を特定することができず、画像を切り出すことができない。また、上記の特許文献1に開示される技術では、切り出した画像を1つの画像にまとめるためには、ユーザーが数字を記入する必要があり煩わしい。
 本発明は、上記の事情に鑑みなされたものであり、原稿が原稿載置台のサイズより大きく、記入された線により囲われた領域が分割して読み取られた場合であっても、画像を切り出すこと、および、切り出した画像を1つの画像にまとめることを簡易な操作で行えるようにすることを目的とする。
 本発明の一局面に係る画像処理装置は、処理対象画像内に含まれる予め定められた種別の線画像を検出する検出部と、(i)前記線画像により囲まれた第1の囲繞領域を前記処理対象画像から切り出して、第1の切出画像を生成するとともに、(ii)前記第1の囲繞領域を形成していない前記線画像が存在する場合には、(ii-i)当該線画像、および、当該線画像の一端と他端とを結ぶ仮想線により囲まれた第2の囲繞領域を前記処理対象画像から切り出して、第2の切出画像を生成し、(ii-ii)前記第2の切出画像が2つ存在するときに、当該2つの第2の切出画像の前記仮想線同士を重ね合わせることで、当該2つの第2の切出画像を合成した合成画像を生成する切出部と、を備える画像処理装置である。
 また、本発明の別の一局面に係る画像処理方法は、処理対象画像内に含まれる予め定められた種別の線画像を検出するステップと、(i)前記線画像により囲まれた第1の囲繞領域を前記処理対象画像から切り出して、第1の切出画像を生成するとともに、(ii)前記第1の囲繞領域を形成していない前記線画像が存在する場合には、(ii-i)当該線画像、および、当該線画像の一端と他端とを結ぶ仮想線により囲まれた第2の囲繞領域を前記処理対象画像から切り出して、第2の切出画像を生成し、(ii-ii)前記第2の切出画像が2つ存在するときに、当該2つの第2の切出画像の前記仮想線同士を重ね合わせることで、当該2つの第2の切出画像を合成した合成画像を生成するステップと、を具備する画像処理方法である。
 本発明によれば、原稿が原稿載置台のサイズより大きく、記入された線により囲われた領域が分割して読み取られた場合であっても、画像を切り出すこと、および、切り出した画像を1つの画像にまとめることを簡易な操作で行える。
本発明の一実施形態にかかる画像処理装置の一例としての画像読取装置を備えた画像形成装置を示す斜視図である。 画像読取装置の構造を示す側面断面図である。 画像読取装置の画像読取部を示す上面図である。 画像読取装置の主要内部構成を概略的に示す機能ブロック図である。 画像読取装置による動作の流れを示すフローチャートである。 (A)~(C)は、読み取り対象の原稿および処理対象画像の一例を示す図である。 (A)および(B)は、処理対象画像の一例を示す図である。 変形例にかかる画像読取装置の動作の流れを示すフローチャートである。 読み取り対象の原稿の一例を示す図である。 処理対象画像の一例を示す図である。 合成画像の一例を示す図である。 (A)~(C)は、処理対象画像および合成画像の一例を示す図である。
 以下、本発明の一実施形態にかかる画像処理装置および画像処理方法について図面を参照して説明する。図1は、本発明の一実施形態にかかる画像処理装置の一例である画像読取装置を備えた画像形成装置を示す斜視図である。
 画像形成装置1は、ファクシミリ通信機能、コピー機能、プリンター機能、およびスキャナー機能などの複数の機能を兼ね備えた複合機である。図1に示すように、画像形成装置1は、装置本体80と、装置本体80の上方に配置された画像読取装置10とから概略構成される。
 装置本体80の外郭を構成する筐体81の内部には、不図示の給紙部や画像形成部などが収容されている。画像形成部は、画像読取装置10が生成した画像データに基づき、給紙部から搬送された記録紙上に画像を形成する。画像形成済みの記録紙は、定着処理が施された後に排出トレイ82に排出される。
 装置本体80の筐体81の前面には、操作部91および表示部92が配置されている。表示部92は、液晶ディスプレイ(LCD:Liquid Crystal Display)や有機EL(OLED:Organic Light-Emitting Diode)ディスプレイを含んで構成される。また、操作部91は、表示部92に表示される画面に対する操作をユーザーから受け付ける複数の操作キーである。
 操作部91などを用いたユーザー操作により、画像形成装置1や画像読取装置10には、画像形成指示や画像読取指示などが入力される。当該入力された指示は、後述する受付部106により受け付けられる。
 図2は、画像読取装置10の構造を示す側面断面図である。画像読取装置10は、画像読取部30と、画像読取部30の上方に配置された原稿搬送部20とを備えている。
 原稿搬送部20は、給紙ローラーおよび搬送ローラーなどからなる駆動機構23により、原稿載置部21に載置された原稿束を1枚ずつ繰り出して原稿読取スリット36に対向する位置へ搬送し、原稿読取スリット36を介して画像読取部30による読取を可能とした後、原稿を原稿排出部22へと排出する。
 図3は、画像読取部30を示す上面図である。画像読取部30は、本体フレーム38に設けられた開口にコンタクトガラス37が嵌め込まれている。コンタクトガラス37の上面には読み取り対象の原稿が載置され、コンタクトガラス37は原稿載置台としての役割を果たす。
 図2に戻って、本体フレーム38内におけるコンタクトガラス37の下面側には、副走査方向(図中の矢印Y方向)に移動可能に設けられた読取ユニット40が設けられている。読取ユニット40は、モーターやギアなどからなる読取ユニット駆動部(不図示)により副走査方向に往復移動され、コンタクトガラス37に載置された原稿を読み取る。
 読取ユニット40は、読み取った原稿を示す画像データ(処理対象画像)を、RAW(Raw image format)形式やPNG(Portable Network Graphics)などの可逆圧縮の画像形式で後述する画像メモリ41(図4参照)に記憶させる。
 図4は、画像読取装置10の主要内部構成を示す機能ブロック図である。画像読取装置10は、原稿搬送部20、画像読取部30、画像メモリ41、記憶部42、操作部91、表示部92、および制御ユニット100を備えて構成される。図1と同じ構成要素には同じ番号を付し、説明を省略する。
 画像メモリ41は、画像読取部30が原稿を読み取って生成した処理対象画像などを一時的に保存するメモリである。記憶部42は、HDD(Hard Disk Drive)などの大容量の記憶装置である。記憶部42には、画像形成装置1や画像読取装置10の動作に必要なプログラムやデータが記憶されている。
 制御ユニット100は、CPU(Central Processing Unit)やDSP(Digital Signal Processor)などのプロセッサ、およびRAM(Random Access Memory)やROM(Read Only Memory)などのメモリを含んで構成される。制御ユニット100は、上記のメモリまたは記憶部42などに記憶された画像処理プログラムなどの制御プログラムが上記のプロセッサに実行されることにより、動作制御部101、線画像検出部102、画像切出部103、傾き補正部104、表示制御部105、および受付部106として機能する。なお、制御ユニット100の上記の各構成は、前述の制御プログラムに基づく動作によらず、それぞれハード回路により構成されてもよい。
 動作制御部101は、画像読取装置10および画像形成装置1の全体的な動作制御を司る。特に、動作制御部101は、読取ユニット40を副走査方向に移動させる読取ユニット駆動部による駆動動作などを制御することで、画像読取部30による画像読取動作を制御する機能を有する。
 線画像検出部102は、画像読取部30が原稿を読み取って生成した処理対象画像内に含まれる予め定められた種別の線画像を検出する機能を有する。線画像検出部102は、例えば、処理対象画像に対してハフ変換を行うことで当該画像におけるエッジ位置を検出する。そして、線画像検出部102は、検出したエッジ位置に基づき、上記の予め定められた種別の線画像として、処理対象画像内に含まれる予め定められた色のマーカーによりマーキングされた線や予め定められた幅の線や、予め定められた種類の線(例えば、実線、破線、点線、一点鎖線等)を検出する。これにより、線画像検出部102は、上記線画像を容易に、かつ、適切に検出することが可能になる。なお、線画像検出部102は、特許請求の範囲における検出部の一例である。
 画像切出部103は、線画像検出部102が検出した線画像により囲まれた領域(第1の囲繞領域)を処理対象画像から切り出して、切出画像(第1の切出画像)を生成する機能を有する。また、画像切出部103は、処理対象画像内に第1の囲繞領域を形成していない線画像が存在する場合には、当該線画像、および、当該線画像の一端と他端とを結ぶ仮想線により囲まれた領域(第2の囲繞領域)を処理対象画像から切り出して、切出画像(第2の切出画像)を生成する。なお、画像切出部103は、特許請求の範囲における切出部の一例である。
 傾き補正部104は、画像切出部103が切り出した切出画像の傾きを検出して、当該切出画像に対して回転処理を施すことで、切出画像の傾きを水平に補正する機能を有する。
 表示制御部105は、表示部92による画面などの表示動作を制御する機能を有する。
 受付部106は、操作部91などを用いたユーザー操作に応じて、画像読取指示や画像形成指示などを受け付ける機能を有する。
 続いて上記の構成を備えた画像読取装置10の動作を説明する。図5は、画像読取装置10の動作の流れを示すフローチャートである。
 受付部106がクロッピング機能を利用した原稿の読み取りを行うべき旨の読取指示を受け付けると(ステップS10においてYES)、動作制御部101による制御のもと、画像読取部30は、コンタクトガラス37に載置された原稿を読み取り(ステップS11)、処理対象画像を生成する(ステップS12)。
 なお、上記では画像読取部30による原稿の読み取りにより処理対象画像を取得する場合を説明したが、PC(Personal Computer)などの他の情報処理装置から画像を受信することで処理対象画像を取得してもよい。
 ここで、図6(A)に示すように、読み取り対象の原稿Sがコンタクトガラス37より大きいサイズである場合、原稿を一度に読み取ることができない。この場合、図6(B)に示すように、原稿Sを線B1の位置で折り曲げるか切断して、原稿Sを2回に分けて読み取る。この結果、図6(C)に示すように、原稿Sを示す画像として画像a1および画像a2が画像読取部30により生成される。当該画像a1および画像a2は、処理対象画像として画像メモリ41に記憶される。
 図6(B)に示す例では、原稿Sにはマーカー線m1が記入されており、当該マーカー線m1により囲まれる領域が、ユーザーが所望する切り出し範囲となる。このマーカー線m1は、上記のように原稿Sが2回に分けて読み取られた結果、図6(C)に示すように、画像a1に示された線画像m11、および画像a2に示された線画像m12として画像化される。
 図5に戻って、線画像検出部102は、ステップS12の処理で取得した処理対象画像内に含まれる予め定められた種別の線画像を検出する(ステップS13)。
 そして、画像切出部103は、処理対象画像内に線画像により囲まれた第1の囲繞領域が存在するか否かを判定し、第1の囲繞領域が存在する場合(ステップS14においてYES)、対象処理画像から第1の囲繞領域を切り出して第1の切出画像を生成する処理を行う(ステップS15)。画像切出部103は、上記の処理で生成した第1の切出画像を画像メモリ41に記憶させる。
 また、画像切出部103は、対象処理画像内に第1の囲繞領域を形成していない線画像が存在するか否かを判定する(ステップS16)。そして、第1の囲繞領域を形成していない線画像が存在する場合(ステップS16においてYES)、画像切出部103は、処理対象画像から、線画像、および線画像の一端と他端とを結ぶ仮想線により囲まれた第2の囲繞領域を切り出して第2の切出画像を生成する処理を行う(ステップS17)。ここで、画像切出部103は、第2の囲繞領域が矩形の領域となるように上記の仮想線を引く。
 第2の囲繞領域が2つ存在する場合、すなわちステップS17の処理において第2の切出画像が2つ生成された場合(ステップS18においてYES)、画像切出部103は、当該2つの切出画像の仮想線同士を重ね合わせることで、2つの第2の切出画像を合成した合成画像を生成する(ステップS19)。そして、画像切出部103は、上記の処理で生成した第1の切出画像および合成画像を出力する処理を行う(ステップS20)。画像切出部103は、例えば、生成した第1の切出画像および合成画像を記憶部42に記憶させる処理、PCなどの他の情報処理装置へ生成した第1の切出画像および合成画像を通信部に送信させる処理、および表示部92に生成した第1の切出画像および合成画像を表示させる処理などを上記の出力処理として実行する。
 図6(C)、図7(A)、および図7(B)を用いて上記の処理を具体的に説明する。図6(C)に示す処理対象画像である画像a1および画像a2内には、線画像m11およびm12により囲まれた第1の囲繞領域が存在しないため、画像切出部103は、図7(A)に示すように、画像a1に対して線画像m11の端点h1とh2とを結ぶ仮想線L1を引き、線画像m11および仮想線L1により囲われる領域を第2の囲繞領域として切り出す処理を行う。また、画像切出部103は、画像a2に対して線画像a12の端点h3とh4とを結ぶ仮想線L2を引き、線画像m12および仮想線L2により囲われる領域を第2の囲繞領域として切り出す処理を行う。図7(A)に示す例では、画像a1の全体の範囲および画像a2の全体の範囲が第2の囲繞領域となっているため、画像a1および画像a2が切出画像となる。そして、画像切出部103は、図7(B)に示すように、切出画像a1の仮想線L1と切出画像a2の仮想線L2とが重ね合わさるように、切出画像a1と切出画像a2とを合成する。
 以上のように、上記の画像読取装置10によれば、原稿がコンタクトガラス37のサイズより大きく、記入された線により囲われた領域が分割して読み取られた場合であっても、画像を切り出すこと、および、切り出した画像を1つの画像にまとめることが簡易な操作で行えるようになる。
 また、例えば、図7(A)および図7(B)に示すように、表示制御部105は、上記の合成画像の生成処理前に、表示部92に、2つの(第2の)切出画像a1およびa2を表示させてもよい。これにより、互いに重ね合わせられる切出画像a1の仮想線L1と切出画像a2の仮想線L2とを、ユーザーに前もって確認させることができる。
 なお、本発明は、上記の実施の形態の構成に限られず種々の変形が可能である。
 <変形例1>
 変形例1では、第2の切出画像が3つ以上存在する場合の処理について説明する。図8は、変形例1にかかる画像読取装置10の動作の流れを示すフローチャートである。なお、図5に示したフローチャートで説明した処理と同内容の処理については同符号を付して説明を略する。
 変形例1にかかる画像読取装置10では、第2の囲繞領域が3つ以上存在する場合、すなわち、第2の切出画像が3つ以上存在する場合(ステップS30においてYES)、画像切出部103は、複数の第2の切出画像の仮想線の長さを比較して、仮想線の長さが同じまたは最も近い2つの第2の切り出し画像を選択する(ステップS31)。そして、画像切出部103は、選択した2つの第2の切出画像の仮想線同士が重ね合わさるように、2つの第2の切出画像を合成する(ステップS32)。画像切出部103は、このステップS31およびステップS32の処理を重ね合わされていない仮想線が1つ以下となるまで繰り返す(ステップS33)。
 上記の処理を図9および図10を用いて具体的に説明する。図9に示す例では、読み取り対象の原稿Sが線B2および線B3の位置で折り曲げるか切断して、原稿Sを4回に分けて読み取っている。この結果、図10に示すように、原稿Sを示す画像として画像a3、画像a4、画像a5、および画像a6が画像読取部30により生成される。当該画像a3、画像a4、画像a5、および画像a6は、処理対象画像として画像メモリ41に記憶される。
 また、図9に示す例では、原稿Sにはマーカー線m2が記入されており、当該マーカー線m2により囲まれる領域が、ユーザーが所望する切り出し範囲となる。このマーカー線m2は、上記のように原稿Sが4回に分けて読み取られた結果、図10に示すように、画像a3に示された線画像m14、画像a4に示された線画像m15、画像a5に示された線画像m16、および画像a6に示された線画像m17して画像化される。
 処理対象画像である画像a3、a4、a5、およびa6内には、線画像m14、m15、m16、およびm17により囲まれた第1の囲繞領域が存在しない。このため、画像切出部103は、図10に示すように、画像a3に対して線画像m14の端点h5とh6とを結ぶ仮想線L3およびL4を引き、線画像m14および仮想線L3、L4により囲われる領域を第2の囲繞領域として切り出す処理を行う。この際、画像切出部103は、第2の囲繞領域が矩形の領域となるように仮想線L3およびL4を引く。また、画像切出部103は、画像a4に対して線画像m15の端点h7とh8とを結ぶ仮想線L7およびL8を引き、線画像m15および仮想線L7、L8により囲われる領域を第2の囲繞領域として切り出す処理を行う。また、画像切出部103は、画像a5に対して線画像m16の端点h9とh10とを結ぶ仮想線L9およびL10を引き、線画像m16および仮想線L9、L10により囲われる領域を第2の囲繞領域として切り出す処理を行う。また、画像切出部103は、画像a6に対して線画像m17の端点h11とh12とを結ぶ仮想線L11およびL12を引き、線画像m17および仮想線L11、L12により囲われる領域を第2の囲繞領域として切り出す処理を行う。
 そして、画像切出部103は、上記の仮想線の長さA1~A8を比較する。例えば、仮想線L4の長さA1と仮想線L7の長さA3が等しいため、画像切出部103は、仮想線L4と仮想線L7とが重ね合わさるように、画像a3と画像a4とを合成する。また例えば、仮想線L9の長さA5と仮想線L12の長さA8が等しいため、画像切出部103は、仮想線L9と仮想線L12とが重ね合わさるように、画像a5と画像a6とを合成する。この処理を繰り返すことで、図10に示した例では全ての仮想線を重ね合わせることができ、画像a3~a6を合成した1つの合成画像を生成することができる。
 以上のように、変形例1にかかる画像読取装置10によれば、第2の切出画像が3つ以上存在する場合であっても、1つの合成画像を生成することができる。
 なお、図11に示すように、上記の合成画像の生成処理後に、重ね合わされていない仮想線L8およびL9が残存する場合、表示制御部105は、表示部92に、合成画像を表示させるとともに、当該合成画像に更に他の画像を合成すべき箇所が残存していることを示す報知画面を表示させてもよい。これにより、読み取らせていない原稿が存在していることをユーザーに報知することができる。
 <変形例2>
 変形例2では、1つの原稿内に複数の切出領域が存在する場合について説明する。
 図12(A)に示す例では、1つの原稿を示す画像a7内に2つの線画像m21およびm22が含まれている。画像切出部103は、第2の囲繞領域が矩形となるように、線画像m21に対して仮想線L21を引き、線画像m22に対して仮想線L22を引く。そして、画像切出部103は、線画像m21および仮想線L21で囲まれた第2の囲繞領域、および線画像m21および仮想線L22で囲まれた第2の囲繞領域を、仮想線L21およびL22が重なり合うように合成することで合成画像a8を生成する。
 図12(B)に示す例では、1つの原稿を示す画像a9内に2つの線画像m23およびm24が含まれている。画像切出部103は、第2の囲繞領域が矩形となるように、線画像m23に対して仮想線L23を引き、線画像m24に対して仮想線L24を引く。そして、画像切出部103は、線画像m23および仮想線L23で囲まれた第2の囲繞領域、および線画像m24および仮想線L24で囲まれた第2の囲繞領域を、仮想線L23およびL24が重なり合うように合成することで合成画像a10を生成する。
 ここで、仮想線L23およびL24の長さは異なる長さとなっている。この場合、表示制御部105は、仮想線L23およびL24を重ね合わせる位置を受け付けるための受付画面を表示部92に表示させる。当該受付画面には、例えば、仮想線L23を仮想線L24の左端に付けて画像を合成するか、仮想線L23を仮想線L24の中央部に付けて画像を合成するか、または、仮想線L23を仮想線L24の右端に付けて画像を合成するかを受け付けるためのボタンが配置されている。受付部106が受付画面に配置された当該ボタンに対する押下操作を受け付けた場合、画像切出部103は、押下操作に応じて仮想線同士を重ね合わせる位置を決定する。図12(B)に示す例では、画像切出部103が、受付部106が受け付けた受付画面に対する押下操作に応じて、仮想線L23が仮想線L24の右端に付くように、仮想線L23およびL24を重ね合わせる位置を決定している。
 図12(C)に示す例では、1つの原稿を示す画像a11内に3つの線画像m24、m25、およびm26が含まれている。画像切出部103は、第2の囲繞領域が矩形となるように、線画像m24に対して仮想線L24を引き、線画像m25に対して仮想線L25およびL26を引き、線画像m26に対して仮想線L27を引く。画像切出部103は、線画像m24および仮想線L24で囲まれた第2の囲繞領域、および線画像m25および仮想線L25、L26で囲まれた第2の囲繞領域を、仮想線L24およびL25が重なり合うように合成する。また、画像切出部103は、線画像m25および仮想線L25、L26で囲まれた第2の囲繞領域、および線画像m26および仮想線L27で囲まれた第2の囲繞領域を、仮想線L26およびL27が重なり合うように合成する。上記の処理により合成画像a12が生成される。
 ここで、仮想線L24、L25、L26、およびL27の長さは全て同じ長さとなっている。この場合、画像切出部103は、最も近い位置に位置する仮想線同士を重ね合わせる画像として選択する。
 <変形例3>
 変形例3にかかる画像処理装置では、線画像検出部102が、上記の実施形態で検出した線画像の種別とは異なる予め定められた種別の第2の線画像を処理対象画像内から検出する。そして、画像切出部103は、線画像および第2の線画像により囲まれた囲繞領域を第2の囲繞領域として処理対象画像から切り出して、第2の切出画像を生成する。
 ユーザーは、図6に示したマーカー線m1や図9に示したマーカー線m2とは異なる種別(色や線の太さ)の線を、図7(A)および図7(B)に示した点線L1、L2や、図10に示した点線L4~L12や、図12(A)~図12(C)に示した点線L21~L27などの位置に、マーカー線m1やm2とともに手書きで記入する。変形例3にかかる画像処理装置では、線画像検出部102は、線画像の一端と他端とを結ぶ仮想線を特定する代わりに、ユーザーにより記入された上記の第2の線画像を検出することで、第2の囲繞領域を特定し第2の切出画像を生成している。 
 <その他の変形例>
 上記では、画像処理装置の一例として画像読取装置10を説明したが、本発明は必ずしもこの場合に限定されない。例えば、上記で説明した画像処理装置はPCや他の情報処理装置に適用することができる。
 また、上記の実施の形態で説明した画像処理プログラムなどの制御プログラムをコンピューター読み取り可能な非一時的な記録媒体、例えば、ハードディスク、CD-ROM、DVD-ROM、半導体メモリなどに記録されたものとしてもよい。この場合、当該制御プログラムを記録したコンピューター読み取り可能な非一時的な記録媒体が、本発明の一実施形態となる。

Claims (9)

  1.  処理対象画像内に含まれる予め定められた種別の線画像を検出する検出部と、
     (i)前記線画像により囲まれた第1の囲繞領域を前記処理対象画像から切り出して、第1の切出画像を生成するとともに、(ii)前記第1の囲繞領域を形成していない前記線画像が存在する場合には、(ii-i)当該線画像、および、当該線画像の一端と他端とを結ぶ仮想線により囲まれた第2の囲繞領域を前記処理対象画像から切り出して、第2の切出画像を生成し、(ii-ii)前記第2の切出画像が2つ存在するときに、当該2つの第2の切出画像の前記仮想線同士を重ね合わせることで、当該2つの第2の切出画像を合成した合成画像を生成する切出部と、を備える画像処理装置。
  2.  前記切出部は、前記第2の切出画像が3つ以上存在するとき、当該複数の第2の切出画像から2つの第2の切出画像を選択し、当該選択した2つの第2の切出画像の前記仮想線同士を重ね合わせる処理を、重ね合わされていない前記仮想線が1つ以下になるまで繰り返すことで合成画像を生成する、請求項1に記載の画像処理装置。
  3.  前記切出部は、前記複数の第2の切出画像の前記仮想線の長さを比較して、前記仮想線の長さが同じまたは最も近い2つの前記第2の切出画像を選択し、当該選択した2つの第2の切出画像の前記仮想線同士を重ね合わせることで前記合成画像を生成する、請求項2に記載の画像処理装置。
  4.  ユーザーからの指示を受け付ける受付部を更に備え、
     前記切出部は、前記選択した2つの第2の切出画像の前記仮想線の長さが異なる場合、前記受付部が受け付けた指示に応じて前記仮想線同士を重ね合わせる位置を決定し、当該決定した位置で前記仮想線同士を重ね合わせることで前記合成画像を生成する、請求項1乃至請求項3の何れか1項に記載の画像処理装置。
  5.  前記検出部は、前記線画像の種別とは異なる予め定められた種別の第2の線画像を前記処理対象画像内から更に検出し、
     前記切出部は、前記線画像および前記第2の線画像により囲まれた囲繞領域を前記第2の囲繞領域として前記処理対象画像から切り出して、前記第2の切出画像を生成する、請求項1乃至請求項4の何れか1項に記載の画像処理装置。
  6.  表示部と、
     前記切出部による前記合成画像の生成処理前に、前記表示部に、前記2つの第2の切出画像を表示させる表示制御部と、を更に備える、請求項1乃至請求項5の何れか1項に記載の画像処理装置。
  7.  前記表示制御部は、前記切出部による前記合成画像の生成処理後に、重ね合わされていない前記仮想線が残存する場合、前記表示部に、前記合成画像を表示させるとともに、前記合成画像に更に他の画像を合成すべき箇所が残存していることを示す報知画面を表示させる、請求項6に記載の画像処理装置。
  8.  前記検出部は、前記予め定められた種別の線画像として、前記処理対象画像内に含まれる予め定められた色のマーカーによりマーキングされた線や予め定められた幅の線や、予め定められた種類の線を検出する、請求項1乃至請求項7の何れか1項に記載の画像処理装置。
  9.  処理対象画像内に含まれる予め定められた種別の線画像を検出するステップと、
     (i)前記線画像により囲まれた第1の囲繞領域を前記処理対象画像から切り出して、第1の切出画像を生成するとともに、(ii)前記第1の囲繞領域を形成していない前記線画像が存在する場合には、(ii-i)当該線画像、および、当該線画像の一端と他端とを結ぶ仮想線により囲まれた第2の囲繞領域を前記処理対象画像から切り出して、第2の切出画像を生成し、(ii-ii)前記第2の切出画像が2つ存在するときに、当該2つの第2の切出画像の前記仮想線同士を重ね合わせることで、当該2つの第2の切出画像を合成した合成画像を生成するステップと、を具備する画像処理方法。
PCT/JP2017/017572 2016-08-08 2017-05-09 画像処理装置および画像処理方法 WO2018029924A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US15/737,121 US20190012757A1 (en) 2016-08-08 2017-05-09 Image processing apparatus and image processing method
JP2017564748A JP6447755B2 (ja) 2016-08-08 2017-05-09 画像処理装置および画像処理方法
CN201780002149.5A CN107925710B (zh) 2016-08-08 2017-05-09 图像处理装置以及图像处理方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-155937 2016-08-08
JP2016155937 2016-08-08

Publications (1)

Publication Number Publication Date
WO2018029924A1 true WO2018029924A1 (ja) 2018-02-15

Family

ID=61161890

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/017572 WO2018029924A1 (ja) 2016-08-08 2017-05-09 画像処理装置および画像処理方法

Country Status (4)

Country Link
US (1) US20190012757A1 (ja)
JP (1) JP6447755B2 (ja)
CN (1) CN107925710B (ja)
WO (1) WO2018029924A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04117069A (ja) * 1990-09-03 1992-04-17 Hitachi Ltd 画像処理装置における画像合成方法
JPH07283933A (ja) * 1994-04-04 1995-10-27 Canon Inc 画像処理方法および画像処理装置
JP2006338584A (ja) * 2005-06-06 2006-12-14 Ribakku:Kk 画像処理装置、画像処理方法、画像処理プログラム、及び画像処理システム、並びに撮像装置
JP2012151722A (ja) * 2011-01-20 2012-08-09 Murata Mach Ltd 画像処理装置、画像処理システム、画像処理方法、および、プログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009239688A (ja) * 2008-03-27 2009-10-15 Nec Access Technica Ltd 画像合成装置
JP5183453B2 (ja) * 2008-12-17 2013-04-17 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
CN101692335B (zh) * 2009-09-24 2011-12-21 广东威创视讯科技股份有限公司 一种实现无缝拼接大屏幕显示的图像处理方法及其装置
US8520273B2 (en) * 2009-05-19 2013-08-27 Sindoh Co., Ltd. A4-size scanner having function of scanning A3 document and scanning method thereof
US8625877B2 (en) * 2011-12-15 2014-01-07 Ncr Corporation Methods of operating an image-based check processing system to detect a double feed condition of carrier envelopes and an apparatus therefor
JP6314408B2 (ja) * 2013-10-09 2018-04-25 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム
JP5749367B1 (ja) * 2014-03-06 2015-07-15 株式会社Pfu 画像読取装置、画像処理方法、および、プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04117069A (ja) * 1990-09-03 1992-04-17 Hitachi Ltd 画像処理装置における画像合成方法
JPH07283933A (ja) * 1994-04-04 1995-10-27 Canon Inc 画像処理方法および画像処理装置
JP2006338584A (ja) * 2005-06-06 2006-12-14 Ribakku:Kk 画像処理装置、画像処理方法、画像処理プログラム、及び画像処理システム、並びに撮像装置
JP2012151722A (ja) * 2011-01-20 2012-08-09 Murata Mach Ltd 画像処理装置、画像処理システム、画像処理方法、および、プログラム

Also Published As

Publication number Publication date
CN107925710B (zh) 2019-05-14
JPWO2018029924A1 (ja) 2018-08-09
US20190012757A1 (en) 2019-01-10
JP6447755B2 (ja) 2019-01-09
CN107925710A (zh) 2018-04-17

Similar Documents

Publication Publication Date Title
US9374483B2 (en) Image reading device outputting output image and explanation image, and image processing system having the same
JP2013031090A (ja) 画像読取装置、及び、読取制御プログラム
JPWO2019008919A1 (ja) 原稿読取装置
US8493629B2 (en) Image processing apparatus, method, and computer program
JP6592873B2 (ja) 画像読取装置、画像形成装置、画像読取方法及び画像読取プログラム
US20190361647A1 (en) Control method for image processing apparatus
US7675641B2 (en) Method and device for converting scanned text to audio data via connection lines and lookup tables
US8576428B2 (en) Image forming apparatus forms an output image from an image-repeated image
JP6447755B2 (ja) 画像処理装置および画像処理方法
US8885207B2 (en) Printing apparatus for printing on envelope
JP6551316B2 (ja) 画像読取装置および画像形成装置
JP6953957B2 (ja) 画像処理装置及びプログラム
JP4281577B2 (ja) 画像処理システム
JP2018170653A (ja) 画像形成装置及びプログラム
JP7180408B2 (ja) 画像処理装置および画像処理プログラム
US9538024B2 (en) Portable terminal and recording medium that handles target image data and scanned image data as single data
JP6260177B2 (ja) 画像処理システム、画像処理方法、及び画像処理プログラム
JP2006203667A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP5096270B2 (ja) 画像形成装置
JP7069821B2 (ja) 画像処理装置、画像処理システム、及び画像処理プログラム
JP6107851B2 (ja) プログラム及び画像処理装置
JP2017208626A (ja) 画像処理装置及び画像読取装置並びに画像読取システム
JP2014203338A (ja) 画像処理装置、画像形成装置、及び画像処理プログラム
JP2008022161A (ja) 印刷装置、印刷方法及びプログラム
JP2017069782A (ja) 画像処理装置

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2017564748

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17838999

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17838999

Country of ref document: EP

Kind code of ref document: A1