JP2013192101A - Image processor and original reading system equipped with the same - Google Patents

Image processor and original reading system equipped with the same Download PDF

Info

Publication number
JP2013192101A
JP2013192101A JP2012057759A JP2012057759A JP2013192101A JP 2013192101 A JP2013192101 A JP 2013192101A JP 2012057759 A JP2012057759 A JP 2012057759A JP 2012057759 A JP2012057759 A JP 2012057759A JP 2013192101 A JP2013192101 A JP 2013192101A
Authority
JP
Japan
Prior art keywords
line segment
unit
outline
document
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012057759A
Other languages
Japanese (ja)
Inventor
Fumio Nakamura
文夫 中村
Yae Wakahara
八重 若原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2012057759A priority Critical patent/JP2013192101A/en
Publication of JP2013192101A publication Critical patent/JP2013192101A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Input (AREA)
  • Facsimile Scanning Arrangements (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To easily and securely complement a missing part of an outline even if a part of the outline cannot be acquired by existence of a finger which covers a part of the outline during photographing of an image of an original which is read by a document camera and the like.SOLUTION: An image processor (PC) 3 includes: an edge extraction section 32 which extracts an edge pixel in a photographed image; a corner point/throat point detection section 33 which detects right and left corner points on at least one side in a vertical direction of an original and detects a throat point on the one side; a segment recognition section 34 for recognizing candidates of a plurality of segments which can constitute an outline at least on one side of the original on the basis of the edge pixel; an invalid segment removing section 35 for removing an invalid segment from the candidates of the segments on the basis of an angle to the segment connecting the corner point and the throat point; and a segment interpolation section 36 for interpolating the segment to the outline constituted of the segments from which the invalid segment is removed.

Description

本発明は、本などの原稿を読み取って得られた画像を処理する画像処理装置およびこれを備えた原稿読取システムに関する。   The present invention relates to an image processing apparatus that processes an image obtained by reading a document such as a book, and a document reading system including the image processing apparatus.

本のページを自然に開いた状態で上方から撮影してページの画像を読み取ることができる書画カメラ(ブックスキャナ)が普及している(特許文献1参照)。このような書画カメラを用いると、ページをめくりながらページの画像を次々に読み取ることができるため、本を電子化する作業を効率良く行うことができる。   2. Description of the Related Art Document cameras (book scanners) that can take a picture of a page and read an image of the page while the page of the book is naturally opened are widely used (see Patent Document 1). When such a document camera is used, since the images of the pages can be read one after another while turning the pages, the work of digitizing the book can be performed efficiently.

この種の書画カメラで書籍などの製本された原稿を読み取る場合、原稿を自然に開いたままの状態では、ページが浮き上がるなどして読み取られた画像にずれや歪みが生じるため、ユーザは手指等で原稿を押さえてページの反りを解消する必要がある。しかしながら、ユーザが手指等で原稿を押さえた場合、その手指等も一緒に撮影されてしまうため、取得した撮像画像が見苦しいものとなってしまう。   When reading a bound document such as a book with this type of document camera, if the document is left open naturally, the scanned image may be misaligned or distorted due to the page being lifted. It is necessary to eliminate the warp of the page by holding down the document. However, when the user presses the document with fingers or the like, the fingers and the like are also photographed, so that the acquired captured image becomes unsightly.

そこで、原稿の所定部分(例えば手指が置かれる確率の高い原稿の左右端付近)に相当する画像の濃度分布に基づき、当該所定部分に手指が存在するか否かを判定し、手指が存在する場合には、その領域を白データに置き換えることによりそれらの像を消去する技術が知られている(特許文献2参照)。   Therefore, based on the density distribution of the image corresponding to a predetermined portion of the document (for example, near the left and right edges of the document with a high probability of placing a finger), it is determined whether or not the finger exists in the predetermined portion. In some cases, a technique is known in which the image is erased by replacing the area with white data (see Patent Document 2).

特開2001−103240号公報JP 2001-103240 A 特開平6−78133号公報JP-A-6-78133

ところで、製本された原稿の外形輪郭を画定するエッジ(以下、外形線という。)の情報は、撮影画像における原稿領域の認識や種々の画像処理(例えば、平面化処理)の際に重要となるが、上述のように原稿を押さえたユーザの指等によって原稿の外縁部が覆われると外形線の認識が困難となる場合がある。   By the way, information on edges (hereinafter referred to as outlines) that define the outline of a bound document is important for recognition of a document area in a captured image and various image processing (for example, planarization processing). However, when the outer edge of the document is covered with the user's finger or the like holding the document as described above, it may be difficult to recognize the outline.

しかしながら、上記特許文献2に記載された従来技術では、手指が存在する場合にその領域を単に白データに置き換える構成であるため、画像の見栄えは向上するものの、指に覆われた外形線は必ずしも認識することはできないという問題があった。また、この従来技術では、手指を検出対象としているため、外形線を覆う他の物体(例えば本を押さえる道具等)には対応できない場合があった。   However, in the conventional technique described in Patent Document 2, since the area is simply replaced with white data when a finger is present, the appearance of the image is improved, but the outline covered by the finger is not necessarily provided. There was a problem that it could not be recognized. Further, in this conventional technique, since the finger is a detection target, there are cases where it is not possible to deal with other objects (such as a tool for holding a book) covering the outline.

本発明は、このような従来技術の課題を鑑みて案出されたものであり、撮影時に外形線の一部を覆う手指等が存在することにより当該外形線の一部が取得できない場合でも、その外形線の欠落部分を容易かつ確実に補完可能とした画像処理装置およびこれを備えた原稿読取システムを提供することを主目的とする。   The present invention has been devised in view of such problems of the prior art, and even when a part of the outline cannot be obtained due to the presence of a finger or the like covering a part of the outline at the time of shooting, It is a main object of the present invention to provide an image processing apparatus capable of easily and surely complementing a missing portion of the outline and a document reading system provided with the image processing apparatus.

本発明の画像処理装置は、製本された原稿の左右の紙面を撮影した撮影画像を取得する撮影画像取得部と、前記撮影画像における複数のエッジ画素を抽出するエッジ抽出部と、前記原稿の上下方向の少なくとも一方側における左右の角点を検出する角点検出部と、前記原稿の少なくとも前記一方側における綴じ中心線の端点であるのど点を検出するのど点検出部と、前記エッジ画素に基づき、前記原稿の少なくとも前記一方側における外形線を構成し得る複数の線分の候補を認識する線分認識部と、前記左右の紙面の少なくとも一方に関し、前記角点と前記のど点とを結ぶ線分に対する角度に基づき前記線分の候補の中から無効線分を排除する無効線分排除部と、前記無効線分が排除された前記線分の候補で構成された外形線における欠落部分に対して線分補間を行う線分補間部とを備えることを特徴とする。   An image processing apparatus according to the present invention includes a photographic image acquisition unit that acquires photographic images obtained by photographing left and right paper surfaces of a bound document, an edge extraction unit that extracts a plurality of edge pixels in the photographic image, and upper and lower sides of the document. Based on the edge pixel, a corner point detection unit that detects left and right corner points on at least one side of the direction, a throat point detection unit that detects a throat point that is an end point of a binding center line on at least one side of the document, and A line segment recognition unit for recognizing a plurality of line segment candidates that can form an outline on at least one side of the document, and a line connecting the corner point and the throat point with respect to at least one of the left and right sheets. An invalid line segment eliminating unit that eliminates an invalid line segment from the line segment candidates based on an angle with respect to a segment, and a missing part in an outline formed by the line segment candidate from which the invalid line segment is excluded Characterized in that it comprises a line segment interpolation unit for performing line interpolation on.

このように本発明によれば、撮影時に外形線の一部を覆う手指等が存在することにより当該外形線の一部が取得できない場合でも、その外形線の欠落部分を容易かつ確実に補完可能となるという優れた効果を奏する。   As described above, according to the present invention, even when a part of the outline cannot be acquired due to the presence of a finger or the like that covers a part of the outline at the time of shooting, the missing portion of the outline can be easily and reliably complemented. It has an excellent effect of becoming.

実施形態に係る原稿読取システム1を示す全体構成図1 is an overall configuration diagram showing a document reading system 1 according to an embodiment. 図1中の書画カメラ2およびPC3の概略構成を示すブロック図1 is a block diagram showing a schematic configuration of the document camera 2 and the PC 3 in FIG. 図1中の原稿読取システム1による原稿読取手順の要部を示すフロー図FIG. 1 is a flowchart showing a main part of a document reading procedure by the document reading system 1 in FIG. 図3中の画像入力(ST101)により取得された撮影画像の一例を示す模式図Schematic diagram illustrating an example of a captured image acquired by image input (ST101) in FIG. 図3中の角点検出(ST103)の詳細を示すフロー図Flow chart showing details of corner point detection (ST103) in FIG. 図5中のエッジ検索(ST201)の処理の一例を示す説明図Explanatory drawing which shows an example of the process of edge search (ST201) in FIG. 図5中の角点推定(ST203)の処理の一例を示す説明図Explanatory drawing which shows an example of the process of the corner point estimation (ST203) in FIG. 図5中の角点の有効性判定(ST204)の処理の一例を示す説明図Explanatory drawing which shows an example of the process of validity determination (ST204) of the corner point in FIG. 図3中の線分認識(ST105)の結果一例を示す模式図Schematic diagram showing an example of the result of line segment recognition (ST105) in FIG. 図3中の線分認識(ST105)におけるエッジトレースの処理過程の一例を示す模式図Schematic diagram showing an example of an edge trace processing process in line segment recognition (ST105) in FIG. 図3中の無効線分排除(ST106)の詳細を示すフロー図FIG. 3 is a flowchart showing details of the invalid line segment elimination (ST106) in FIG. 図11中のST301、ST303の処理の概要を示す説明図Explanatory drawing which shows the outline | summary of the process of ST301 and ST303 in FIG. 図11中のST305の処理の概要を示す説明図Explanatory drawing which shows the outline | summary of the process of ST305 in FIG. 図3中の無効線分排除(ST106)の結果一例を示す模式図Schematic diagram showing an example of the result of invalid line segment elimination (ST106) in FIG. 図3中の線分補間(ST107)の結果一例を示す模式図Schematic diagram showing an example of the result of line segment interpolation (ST107) in FIG.

上記課題を解決するためになされた第1の発明に係る画像処理装置は、製本された原稿の左右の紙面を撮影した撮影画像を取得する撮影画像取得部と、前記撮影画像における複数のエッジ画素を抽出するエッジ抽出部と、前記原稿の上下方向の少なくとも一方側における左右の角点を検出する角点検出部と、前記原稿の少なくとも前記一方側における綴じ中心線の端点であるのど点を検出するのど点検出部と、前記エッジ画素に基づき、前記原稿の少なくとも前記一方側における外形線を構成し得る複数の線分の候補を認識する線分認識部と、前記左右の紙面の少なくとも一方に関し、前記角点と前記のど点とを結ぶ線分に対する角度に基づき前記線分の候補の中から無効線分を排除する無効線分排除部と、前記無効線分が排除された前記線分の候補で構成された外形線における欠落部分に対して線分補間を行う線分補間部とを備える構成とする。   An image processing apparatus according to a first aspect of the present invention, which has been made to solve the above-described problems, includes a captured image acquisition unit that acquires captured images obtained by capturing left and right sheets of a bound document, and a plurality of edge pixels in the captured image. An edge extracting unit for extracting the edge, a corner point detecting unit for detecting left and right corner points on at least one side in the vertical direction of the document, and a throat point that is an end point of the binding center line on at least one side of the document. A throat point detection unit, a line segment recognition unit for recognizing a plurality of line segment candidates that can form an outline on at least one side of the document based on the edge pixels, and at least one of the left and right paper surfaces , An invalid line segment eliminating unit that eliminates invalid line segments from the line segment candidates based on an angle with respect to a line segment connecting the corner point and the throat point, and the line from which the invalid line segment is excluded A configuration and a line segment interpolation unit for performing line interpolation on missing part in the candidate contour line composed of.

これによると、撮影時に原稿の上下方向の少なくとも一方側における外形線の一部を覆う手指等が存在することにより当該外形線の一部が取得できない場合でも、当該手指等から認識される無効線分を排除し、外形線の欠落部分を容易かつ確実に補完することが可能となる。   According to this, even if a part of the outline cannot be acquired due to the presence of a finger or the like that covers a part of the outline on at least one side in the vertical direction of the document at the time of shooting, the invalid line recognized from the finger or the like Therefore, it is possible to easily and reliably complement the missing part of the outline.

また、第2の発明は、前記第1の発明において、前記線分認識部は、前記角点と前記のど点との間で前記エッジ画素をトレースすることにより、前記複数の線分の候補を認識する構成とする。   In a second aspect based on the first aspect, the line segment recognition unit traces the edge pixel between the corner point and the throat point, thereby determining the plurality of line segment candidates. The configuration is to recognize.

これによると、外形線の線分の候補をより適切に認識することができ、外形線の欠落部分をより精度良く補完することが可能となる。   According to this, it is possible to more appropriately recognize outline line segment candidates, and it is possible to more accurately complement missing parts of the outline line.

また、第3の発明は、前記第1または第2の発明において、前記無効線分排除部は、前記線分の候補の端点と、これに隣接する他の線分の両端点を通る仮想直線との最短距離を算出し、当該最短距離が所定の閾値以上である場合、当該線分の候補を無効線分として排除する構成とする。   According to a third aspect of the present invention, in the first or second aspect, the invalid line segment exclusion unit is a virtual straight line that passes through the end points of the line segment candidates and the end points of other line segments adjacent thereto. If the shortest distance is greater than or equal to a predetermined threshold, the line segment candidate is excluded as an invalid line segment.

これによると、他の線分との距離に基づき、手指等から認識される無効線分をより効果的に排除することができ、外形線の欠落部分をより精度良く補完することが可能となる。   According to this, it is possible to more effectively eliminate invalid line segments recognized from fingers and the like based on the distance to other line segments, and it is possible to more accurately complement missing portions of the outline. .

また、第4の発明に係る画像処理装置は、原稿の紙面を撮影した撮影画像を取得する撮影画像取得部と、前記撮影画像における複数のエッジ画素を抽出するエッジ抽出部と、前記原稿の左右方向の少なくとも一方側における上下の角点を検出する角点検出部と、前記エッジ画素に基づき、前記原稿の少なくとも前記一方側における外形線を構成し得る複数の線分の候補を認識する線分認識部と、前記上下の角点を結ぶ線分に対する角度に基づき前記線分の候補の中から無効線分を排除する無効線分排除部と、前記無効線分が排除された複数の線分で構成された外形線における欠落部分に対して線分補間を行う線分補間部とを備えた構成とする。   An image processing apparatus according to a fourth aspect of the present invention is a captured image acquisition unit that acquires a captured image obtained by capturing a paper surface of an original, an edge extraction unit that extracts a plurality of edge pixels in the captured image, and left and right sides of the original. A line segment that recognizes a plurality of line segment candidates that can form an outline on at least one side of the document based on the edge pixel and a corner point detection unit that detects upper and lower corner points on at least one side of the direction. A recognition unit, an invalid line segment elimination unit that eliminates invalid line segments from the line segment candidates based on an angle with respect to a line segment that connects the upper and lower corner points, and a plurality of line segments from which the invalid line segment is eliminated And a line segment interpolating unit that performs line segment interpolation on the missing part in the outline line configured as described above.

これによると、撮影時に原稿の左右方向の少なくとも一方側における外形線の一部を覆う手指等が存在することにより当該外形線の一部が取得できない場合でも、当該手指等から認識される無効線分を排除し、外形線の欠落部分を容易かつ確実に補完することが可能となる。   According to this, even when a finger or the like that covers a part of the outline on at least one side in the left-right direction of the document exists at the time of shooting, even if a part of the outline cannot be obtained, an invalid line recognized from the finger or the like Therefore, it is possible to easily and reliably complement the missing part of the outline.

また、第5の発明は、前記第1から第4の発明のいずれかに係る画像処理装置と、前記撮影画像を生成するカメラ部を備えた画像入力装置とを備えた原稿読取システムである。   According to a fifth aspect of the present invention, there is provided a document reading system including the image processing apparatus according to any one of the first to fourth aspects, and an image input apparatus including a camera unit that generates the captured image.

以下、本発明の実施の形態について図面を参照しながら説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、第1実施形態に係る原稿読取システム1を示す全体構成図である。この原稿読取システム1は、本(原稿)Bの紙面の画像を読み取って、紙面の画像データを取得するものであり、紙面を撮影して映像信号に変換する書画カメラ(画像入力装置)2と、この書画カメラ2と通信可能に接続されたPC3とから構成される。   FIG. 1 is an overall configuration diagram showing a document reading system 1 according to the first embodiment. The document reading system 1 reads a paper image of a book (original) B to acquire image data of the paper surface, and a document camera (image input device) 2 that captures the paper surface and converts it into a video signal. The document camera 2 and the PC 3 connected to be communicable with each other.

書画カメラ2は、撮影機能を有するカメラ部4と、このカメラ部4を保持するスタンド部5とを備えている。カメラ部4は、CCDやCMOS等からなるイメージセンサと、LEDや蛍光ランプ等からなる照明用光源(共に図示せず)とを内蔵する。スタンド部5は、机上面などの載置面6に載置される略V字状の脚7と、この脚7に支持され、斜め上方に伸縮自在のアーム8とを有している。アーム8は、ヒンジ部8aによってカメラ部4を回動可能に保持しており、これにより、カメラ部4の光軸方向(撮影方向)を調整可能となっている。   The document camera 2 includes a camera unit 4 having a photographing function and a stand unit 5 that holds the camera unit 4. The camera unit 4 includes an image sensor made up of a CCD, a CMOS, etc., and an illumination light source (both not shown) made up of an LED, a fluorescent lamp, or the like. The stand portion 5 includes a substantially V-shaped leg 7 placed on a placement surface 6 such as a desk top surface, and an arm 8 that is supported by the leg 7 and that can be extended and contracted obliquely upward. The arm 8 holds the camera unit 4 so as to be rotatable by a hinge unit 8a, whereby the optical axis direction (shooting direction) of the camera unit 4 can be adjusted.

PC3は、書画カメラ2の各種動作条件をユーザが設定したり、書画カメラ2で撮像した撮影画像をユーザが確認したりするための入出力装置として機能すると共に、撮影画像の画像処理や記録等を行う画像処理装置としても機能する。なお、原稿読取システム1において書画カメラ2と共に用いられる装置としては、PC(Personal Computer)に限らず同様の機能を実現可能な任意の情報処理装置を用いることができる。また、PC3の機能の少なくとも一部を書画カメラ2に付加することや、PC3と書画カメラ2とを一体的に構成することも可能である。   The PC 3 functions as an input / output device for the user to set various operating conditions of the document camera 2 and for the user to check a captured image captured by the document camera 2, and to perform image processing and recording of the captured image. It also functions as an image processing apparatus that performs the above. The apparatus used together with the document camera 2 in the document reading system 1 is not limited to a PC (Personal Computer), and any information processing apparatus capable of realizing the same function can be used. It is also possible to add at least a part of the functions of the PC 3 to the document camera 2 or to integrally configure the PC 3 and the document camera 2.

また、書画カメラ2とPC3は直接的に接続されている必要はなく、例えば図示しないネットワークを介して接続されていてもよい。この場合、書画カメラ2が撮像のためのトリガ信号を発生させ(具体的には、例えばイメージキャプチャを指示するスイッチやボタン)、遠隔のPC3(例えば、サーバ)に対してプッシュ型のデータ伝送をすることになる。   Further, the document camera 2 and the PC 3 do not need to be directly connected, and may be connected via a network (not shown), for example. In this case, the document camera 2 generates a trigger signal for imaging (specifically, a switch or button for instructing image capture, for example), and performs push-type data transmission to a remote PC 3 (for example, a server). Will do.

書画カメラ2による撮影では、ユーザがカメラ部4の真下(光軸方向)の載置面6上に本Bを開いた状態で載置することにより、本Bの見開き2ページと本Bの周囲の載置面6の一部を含む撮影画像(動画または静止画)が得られる。撮影画像は、PC3に適宜送信され、そこで必要な画像処理がなされた後、所定の記録媒体に保存されると共にユーザに対して表示される。なお、原稿読取システム1が読み取る原稿は、本に限らず、文字、図面、写真その他これに類する情報を含む任意の情報伝達媒体とすることができる。更に、この情報伝達媒体はポジフィルム、ネガフィルム等の透過原稿であってもよく、この場合は、例えば透明な導光板の側面に光源を配置した光源ユニットにより背面から光を照射し、透過光を撮像するように構成すればよい。   In photographing by the document camera 2, the user places the book B in an open state on the placement surface 6 just below the camera unit 4 (in the optical axis direction), so that two pages of the book B and the periphery of the book B are placed. A captured image (moving image or still image) including a part of the mounting surface 6 is obtained. The captured image is appropriately transmitted to the PC 3, where necessary image processing is performed, and then stored in a predetermined recording medium and displayed to the user. The document read by the document reading system 1 is not limited to a book, but may be any information transmission medium including characters, drawings, photographs, and other similar information. Further, the information transmission medium may be a transmission original such as a positive film or a negative film. In this case, for example, light is emitted from the back side by a light source unit in which a light source is arranged on the side of a transparent light guide plate, and transmitted light is transmitted. May be configured to take an image.

図2は、図1中の書画カメラ2およびPC3の概略構成を示すブロック図である。   FIG. 2 is a block diagram showing a schematic configuration of the document camera 2 and the PC 3 in FIG.

書画カメラ2は、カメラ部4を備えた撮像処理部11と、ユーザが設定した動作条件に基づいて撮像処理部11に所要の動作を行わせる操作指示部12と、PC3との接続のためのUSB規格等に準拠する外部インタフェイス13とを有している。   The document camera 2 includes an imaging processing unit 11 having a camera unit 4, an operation instruction unit 12 that causes the imaging processing unit 11 to perform a required operation based on an operation condition set by a user, and a PC 3. And an external interface 13 conforming to the USB standard or the like.

PC3は、書画カメラ2との接続のためのUSB規格等に準拠する外部インタフェイス21と、書画カメラ2からの撮影画像データが入力される画像データ入力部(撮影画像取得部)22と、撮影画像の記録や表示に際して必要な画像処理を行う画像処理部23と、キーボード等からなる入力操作部24においてユーザが設定した動作条件を書画カメラ2に対して送信する操作系制御部25と、画像処理後の撮影画像をLCDやプロジェクタ等からなる表示部26に表示するためのデータを生成する表示データ生成部27と、画像処理後の撮影画像データを保存するデータ格納部28とを有している。画像処理部23は、撮影画像データの画像処理の際に本Bの外形線を検出する外形検出部31を有している。外形検出部31によって処理される撮影画像データは画像データ記憶部37から読み出され、また、後述する外形検出部31での処理に用いられる各種パラメータの情報はパラメータ記憶部38から読み出される。   The PC 3 includes an external interface 21 compliant with the USB standard for connection with the document camera 2, an image data input unit (captured image acquisition unit) 22 to which photographed image data from the document camera 2 is input, and photographing. An image processing unit 23 that performs image processing necessary for recording and displaying an image, an operation system control unit 25 that transmits operating conditions set by a user in an input operation unit 24 such as a keyboard to the document camera 2, and an image A display data generation unit 27 that generates data for displaying the processed captured image on a display unit 26 such as an LCD or a projector, and a data storage unit 28 that stores the captured image data after the image processing; Yes. The image processing unit 23 includes an outline detection unit 31 that detects the outline of the book B during image processing of captured image data. The captured image data processed by the outer shape detection unit 31 is read from the image data storage unit 37, and information on various parameters used for processing in the outer shape detection unit 31 described later is read from the parameter storage unit 38.

PC3における画像データ入力部22、画像処理部23、操作系制御部25および表示データ生成部27等における処理機能は、画像処理アプリケーションなどのプログラムをCPUで実行するソフトウェア処理によって実現することができる。或いは、PC3を画像処理装置と解釈して、特定の処理を高速に実行するハードウェアを備える構成としてもよい。画像データ記憶部37およびパラメータ記憶部38は汎用のメモリからなる。   The processing functions of the image data input unit 22, the image processing unit 23, the operation system control unit 25, the display data generation unit 27, and the like in the PC 3 can be realized by software processing in which a program such as an image processing application is executed by the CPU. Or it is good also as a structure provided with the hardware which interprets PC3 as an image processing apparatus and performs a specific process at high speed. The image data storage unit 37 and the parameter storage unit 38 are composed of general-purpose memories.

PC3において、画像データ入力部22は、書画カメラ2から送信される撮影画像データを画像処理部23の画像データ記憶部37に格納し、必要に応じてその撮影画像データを外形検出部31に出力する。そして、外形検出部31によって検出された外形線のデータは、画像処理部23が実行する周知の画像処理(例えば、平面化)に必要な情報となる。所定の画像処理がなされた撮影画像データは、データ格納部28に格納されると共に、表示データ生成部27に送られて表示部26に表示される。   In the PC 3, the image data input unit 22 stores the captured image data transmitted from the document camera 2 in the image data storage unit 37 of the image processing unit 23, and outputs the captured image data to the outer shape detection unit 31 as necessary. To do. The outline data detected by the outline detector 31 is information necessary for well-known image processing (for example, planarization) executed by the image processor 23. The captured image data that has undergone the predetermined image processing is stored in the data storage unit 28 and is also sent to the display data generation unit 27 and displayed on the display unit 26.

外形検出部31は、撮影画像について複数のエッジ画素を抽出して二値化したエッジ画像を取得するエッジ抽出部32と、製本された(背の部分が綴じられた)本Bの4つの角点および本Bの左右のページの境界線(綴じ中心線)をなすのど部の上下の端点(以下、のど点という。)を検出する角点・のど点検出部33と、本Bの外形線を構成し得る複数の線分の候補として、エッジ画像における各エッジ画素を結ぶ複数の線分(直線成分等)を認識する線分認識部34と、認識された線分の候補の中から無効線分を排除する無効線分排除部35と、無効線分が排除された線分の候補で構成された外形線における欠落部分に対して線分補間を行う線分補間部36とを有している。   The outer shape detection unit 31 extracts four edge pixels from a captured image and obtains a binarized edge image, and the four corners of the book B that has been bound (the back portion is bound). A corner point / throat point detection unit 33 for detecting upper and lower end points (hereinafter referred to as throat points) of the throat portion that forms the boundary line (binding center line) between the left and right pages of the point B and the book B, and the outline of the book B A line segment recognition unit 34 that recognizes a plurality of line segments (straight line components, etc.) connecting edge pixels in the edge image as candidates of a plurality of line segments that can constitute the image, and invalid from the recognized line segment candidates An invalid line segment eliminating unit 35 that eliminates a line segment, and a line segment interpolating unit 36 that performs line segment interpolation on a missing portion in an outline formed by candidate line segments from which an invalid line segment is excluded. ing.

また、PC3において、ユーザは入力操作部24を操作することにより、書画カメラ2で撮影される画像の解像度、フレームレート、シャッタスピード、照明用光源の発光量などの動作条件を適宜入力することができる。この動作条件は、操作系制御部25から書画カメラ2に対して制御信号として送信され、書画カメラ2では、PC3からの制御信号に基づき操作指示部12が送出した処理命令にしたがって撮像処理部11が撮影動作を実行する。   In the PC 3, the user can appropriately input operating conditions such as the resolution of the image captured by the document camera 2, the frame rate, the shutter speed, and the amount of light emitted from the illumination light source by operating the input operation unit 24. it can. This operating condition is transmitted as a control signal from the operation system control unit 25 to the document camera 2, and the document camera 2 captures the imaging processing unit 11 in accordance with a processing command sent from the operation instruction unit 12 based on the control signal from the PC 3. Performs the shooting operation.

図3は図1の原稿読取システム1による原稿読取手順の要部を示すフロー図であり、図4は図3中の画像入力(ST101)により取得された撮影画像の一例を示す模式図である。   FIG. 3 is a flowchart showing a main part of a document reading procedure by the document reading system 1 in FIG. 1, and FIG. 4 is a schematic diagram showing an example of a photographed image acquired by image input (ST101) in FIG. .

まず、ユーザは、読取位置(書画カメラ2の撮影可能位置)に本Bを開いた状態でセットし、書画カメラ2を起動させると共に、PC3で所要のアプリケーションを起動させる。これにより、画像の入力、すなわち書画カメラ2での撮像が開始されてその撮影画像データがPC3に順次送信される(ST101)。   First, the user sets the book B in an opened state at the reading position (capturing position of the document camera 2), activates the document camera 2, and activates a required application on the PC 3. Thereby, image input, that is, imaging with the document camera 2 is started, and the captured image data is sequentially transmitted to the PC 3 (ST101).

ここで、撮影画像は、例えば図4(A)、(B)に示すように、書画カメラ2の矩形の撮影エリア40により画定され、この撮影エリア40内には本Bの画像とその背景となる載置面6の画像とが含まれる。中央ののど部42によって仕切られた左右の紙面(見開き)41L、41Rには、ここでは図示しないが、文字や記号等が表示される文章領域や、図面や写真等が表示される図形枠等がそれぞれ含まれている。   Here, the photographed image is defined by a rectangular photographing area 40 of the document camera 2 as shown in FIGS. 4A and 4B, for example, and the book B image and its background are included in the photographing area 40. And an image of the mounting surface 6. The left and right paper surfaces (spreads) 41L and 41R partitioned by the central throat portion 42 are not illustrated here, but a text area in which characters and symbols are displayed, a graphic frame in which drawings and photographs are displayed, and the like Is included.

本Bのような製本された原稿を読み取る場合、図4(A)に示すように、本Bを自然に開いたままの状態では、ページが浮き上がるなどして読み取られた画像にずれや歪みが生じ得る。そこで、ユーザは、図4(B)に示すように、手指F1、F2により紙面41L、41Rの外周縁部を押さえてページの反りを解消する場合がある。以下では、図4(B)に示すような手指F1、F2を含む撮像画像を取得した場合のPC3の処理について説明する。なお、ここでは、本Bを押さえてページの浮き上がりを防止する手段として手指を示しているが、これに限らず、例えば書画カメラ2に設けられた押さえ治具等でもよい。   When scanning a bookbinding document such as book B, as shown in FIG. 4A, if the book B is left open naturally, the scanned image may be misaligned or distorted. Can occur. Therefore, as shown in FIG. 4B, the user may press the outer peripheral edge portions of the paper surfaces 41L and 41R with the fingers F1 and F2 to eliminate the page warpage. Below, the process of PC3 at the time of acquiring the captured image containing fingers F1 and F2 as shown to FIG. 4 (B) is demonstrated. Here, the fingers are shown as means for preventing the page from rising by pressing the book B. However, the present invention is not limited to this, and a holding jig or the like provided in the document camera 2 may be used.

再び図3を参照して、PC3では、書画カメラ2から受信した撮影画像データを画像データ入力部22が画像データ記憶部37に格納した後、エッジ抽出部32は、撮影画像において輝度が急激に変化する部位を二値化したエッジ画素として抽出することによりエッジ画像を取得する(ST102)。このエッジ抽出処理は、キャニー(Canny)法等の周知の方法を用いて行うことができる。   Referring again to FIG. 3, in PC 3, after the captured image data received from document camera 2 is stored in image data storage unit 37 by image data input unit 22, edge extraction unit 32 causes the brightness of the captured image to rapidly increase. An edge image is acquired by extracting a changing part as a binarized edge pixel (ST102). This edge extraction process can be performed using a known method such as the Canny method.

次に、角点・のど点検出部33は、後に詳述するように、略矩形をなす本Bの4つの角点を検出する(ST103)。ここで検出される角点は、通常は紙面41L、41Rよりもややサイズの大きい表紙の四隅となる。   Next, as will be described in detail later, the corner point / throat point detection unit 33 detects the four corner points of the book B having a substantially rectangular shape (ST103). The corner points detected here are usually the four corners of the cover that is slightly larger in size than the paper surfaces 41L and 41R.

さらに、角点・のど点検出部33は、検出した角点の情報に基づき、本Bの2つののど点を検出する(ST104)。のど点検出では、例えばハフ変換等を用いてエッジ画像における縦方向の直線を複数検出した後、上側の左右の角点の中間位置と下側の左右の角点の中間位置の座標との比較からのど部から検出された直線を選択し、この直線の上下端の位置(外形線の上辺、下辺との交点)をのど点(図8中の符号D1、D2参照)として設定することができる。この場合、予めのど点候補とその周辺のエッジ画素との形状(接続関係)を想定した複数の画像パターンを準備しておき、直線およびその周辺画素をそれらの画素パターンと比較することにより、のど点の検出が容易となる。   Further, the corner point / throat point detection unit 33 detects the two throat points of book B based on the detected corner point information (ST104). In throat detection, for example, by detecting multiple vertical lines in the edge image using Hough transform etc., compare the coordinates of the middle position of the upper left and right corner points with the coordinates of the middle position of the lower left and right corner points. A straight line detected from the throat portion can be selected, and the positions of the upper and lower ends of this straight line (intersections with the upper and lower sides of the outline) can be set as throat points (see symbols D1 and D2 in FIG. 8). . In this case, by preparing a plurality of image patterns assuming the shape (connection relationship) between the throat point candidate and the peripheral edge pixels in advance, and comparing the straight line and the peripheral pixels with those pixel patterns, Point detection is easy.

なお、ST103、ST104における角点およびのど点の検出は、上述の方法に限らず、他の周知の方法を用いて実行することが可能である。   The detection of corner points and throat points in ST103 and ST104 is not limited to the method described above, and can be performed using other known methods.

次に、線分認識部34は、後に詳述するように、検出された複数のエッジ画素から線分の認識(直線成分等の検出)を行う(ST105)。この線分認識処理では、所定の始点および終点が設定され、本Bの外周領域に対してエッジのトレース処理を行うことにより、本Bの外形線を構成し得る複数の線分の候補を認識する。ここで認識された各線分に関する端点の座標値等のデータは、パラメータ記憶部38に格納される。   Next, as will be described in detail later, the line segment recognition unit 34 performs line segment recognition (detection of straight line components and the like) from the detected plurality of edge pixels (ST105). In this line segment recognition process, a predetermined start point and end point are set, and by performing edge trace processing on the outer peripheral area of book B, a plurality of line segment candidates that can form the outline of book B are recognized. To do. Data such as the coordinate values of the end points related to the respective line segments recognized here are stored in the parameter storage unit 38.

その後、無効線分排除部35は、後に詳述するように、ST105において認識された複数の線分から外形線を構成するのに不適切な無効線分を抽出し、この抽出した無効線部を線分の候補から排除する(ST106)。これにより、線分認識部34によって認識された線分の候補のうち、外形線を構成するのに適切な有効線分が選別される。   Thereafter, as described in detail later, the invalid line segment removing unit 35 extracts an invalid line segment inappropriate for constructing the outline from the plurality of line segments recognized in ST105, and the extracted invalid line unit is extracted. It is excluded from the line segment candidates (ST106). As a result, effective line segments appropriate for forming the outline are selected from the line segment candidates recognized by the line segment recognition unit 34.

最後に、線分補間部36は、無効線分が排除された線分の候補で構成された外形線について、欠落部分(線分同士の端点が接続していない領域)が存在する場合には、この欠落部分に対して線分補間を行う(ST107)。この線分補間処理では、線形補間により端点間を直線で結ぶことにより、外形線を補完することができるが、これに限らず、例えば高次のスプライン補間を実施して端点間を曲線で結んでもよい。   Finally, the line segment interpolation unit 36 has a missing part (area where the end points of the line segments are not connected) in the outline formed by the line segment candidates from which the invalid line segment is excluded. Then, line segment interpolation is performed on this missing portion (ST107). In this line interpolation process, the outline can be complemented by connecting the end points with a straight line by linear interpolation, but this is not limiting, and for example, high-order spline interpolation is performed to connect the end points with a curve. But you can.

図5は図3中の角点検出(ST103)の詳細を示すフロー図であり、図6、図7及び図8はそれぞれ図5中のエッジ検索(ST201)、角点推定(ST203)及び角点の有効性判定(ST204)の処理の一例を示す説明図である。   FIG. 5 is a flowchart showing details of corner point detection (ST103) in FIG. 3, and FIGS. 6, 7 and 8 respectively show edge search (ST201), corner point estimation (ST203) and corners in FIG. It is explanatory drawing which shows an example of a process of point validity determination (ST204).

図5に示すように、まず角点・のど点検出部33は、撮影エリア40の四方から対角線上にエッジ画素を検索する(ST201)。より詳細には、図6に示すように、矩形をなす撮影エリア40において互いに直交する2辺に沿った座標軸(X軸およびY軸)に対して所定角度(ここでは±45度)傾斜した仮想直線L1〜L4を、撮影画像の4つの頂点45a〜45dを始点として、その始点から対角線上を撮影画像の中心に向かって、所定の移動間隔で段階的に平行移動させながら、仮想直線L1〜L4と本Bの輪郭成分との交点(エッジ画素)を収集する。この仮想直線L1〜L4の移動は、後に角点を推定可能な所定数の交点が検出されるまで実施される。   As shown in FIG. 5, first, the corner point / throat point detection unit 33 searches for edge pixels on the diagonal line from the four sides of the imaging area 40 (ST201). More specifically, as shown in FIG. 6, in a rectangular imaging area 40, a virtual inclined at a predetermined angle (± 45 degrees in this case) with respect to coordinate axes (X axis and Y axis) along two sides orthogonal to each other. While the straight lines L1 to L4 are translated from the start points of the four vertices 45a to 45d in steps toward the center of the captured image from the start points to the center of the captured image, the virtual straight lines L1 to L4 Intersection points (edge pixels) between L4 and the contour component of book B are collected. The movement of the virtual straight lines L1 to L4 is carried out until a predetermined number of intersections capable of estimating the corner points later are detected.

一般にユーザは見開いた本Bの下辺の中央(即ち、本Bの下辺と「のど」が交差する部分)の近傍(図4(B)の状況)や、見開き両ページの左右かつ本Bの上下中央部分を押さえることが多い。このように撮像エリア40の四方から対角線上にエッジ画素を検出することで、角点検出の際に、ユーザが本Bの反りを解消するために置いた指等を有効に排除することができる。   In general, the user is in the vicinity (the situation shown in FIG. 4B) of the center of the lower side of book B (that is, the portion where the lower side of book B intersects with the “throat”), the left and right sides of both spread pages, and the upper and lower sides of book B. Often presses the center. By detecting edge pixels diagonally from the four sides of the imaging area 40 in this way, it is possible to effectively eliminate a finger or the like placed by the user to eliminate the warp of the book B at the time of corner point detection. .

ここで、仮想直線については、始点から最初の交点が検出されるまでは、仮想直線L1〜L4を第1の移動間隔step1で大きく移動させ、交点が検出されると、その直前の位置から仮想直線を第2の移動間隔step2で細かく移動させるとよい。   Here, for the virtual straight line, the virtual straight lines L1 to L4 are largely moved at the first movement interval step1 until the first intersection from the start point is detected, and when the intersection is detected, the virtual straight line is detected from the position immediately before it. The straight line may be moved finely at the second movement interval step2.

このように傾斜した仮想直線を所定の移動間隔で段階的に平行移動させながら、輪郭成分と仮想直線との交点を収集すると、仮想直線が本Bの角点付近の輪郭成分に到達したところで、交点の列が概ね直角に近い状態で2方向に分かれるように現れるため、この交点の出現状況から本Bの角点を精度よく検出することができる。ただし、実際問題として、書籍等の外形角点の形状は鈍っていることが多く、本実施形態では、以下のように外形角点の位置を推定によって求めている。   When the intersection of the contour component and the virtual straight line is collected while the virtual straight line inclined in this manner is translated stepwise at a predetermined movement interval, when the virtual straight line reaches the contour component near the corner point of book B, Since the row of intersections appears to be divided in two directions in a state of being substantially close to a right angle, the corner point of book B can be accurately detected from the appearance of the intersection. However, as an actual problem, the shape of the outer corner point of a book or the like is often dull, and in this embodiment, the position of the outer corner point is obtained by estimation as follows.

まず、角点・のど点検出部33は、ST201で検索されたエッジ画素から角点を推定するための直線を検出する(ST202)。例えば、図7に示すように、本Bの左下の角領域において、概ねX軸方向に沿って存在する輪郭点Px1、Px2と、概ねY軸方向に沿って存在する輪郭点Py1、Py2とが、ST201においてエッジ画素として検索された場合、角点・のど点検出部33は、輪郭点Px1、Px2を通る直線Lxと、輪郭点Py1、Py2を通る直線Lyとをそれぞれ検出することができる。そして、角点・のど点検出部33は、直線Lxと直線Lyとの交点を角点Cとして設定する(ST203)。   First, the corner / throat point detection unit 33 detects a straight line for estimating a corner point from the edge pixel searched in ST201 (ST202). For example, as shown in FIG. 7, in the lower left corner region of book B, contour points Px1 and Px2 that exist approximately along the X-axis direction and contour points Py1 and Py2 that exist approximately along the Y-axis direction are In ST201, the corner point / throat point detection unit 33 can detect the straight line Lx passing through the contour points Px1 and Px2 and the straight line Ly passing through the contour points Py1 and Py2, respectively. Then, the corner point / throat point detection unit 33 sets the intersection point of the straight line Lx and the straight line Ly as the corner point C (ST203).

ここで、より多くの輪郭点が存在する場合には、それらのうちの2点に基づき複数の直線が抽出される(すなわち、角点候補となる複数の交点が算出される)が、直線同士の角度θaや2点の位置関係に基づき最適な交点を選択することができる。また、輪郭成分において外形線の2辺が閉じている(すなわち、角点付近のエッジ画素が連続している)場合には、仮想直線L1〜L4を始点から平行移動させて、最初に検出した交点を角点Cとして選定することができる。つまり、角点に仮想直線が接した場合、理想的には輪郭成分との交点は一つとなるため、接触したことをもって角点を検出するのである。また、仮想直線を対角方向にstep1の移動間隔で移動させ、交点を複数検出したならば、それまでの移動方向とは逆の方向(つまり、仮想直線L1の場合は頂点45aの方向)に細かく(例えばstep2で)移動させ、交点が1又は0となったことに基づき角点を検出するようにしてもよい。そして、これらの操作をstep幅を小さくしながら複数回繰り返すことで、理論上は角点の検出精度が向上する。さらに、載置面6の画像にノイズ成分が存在する場合には、予め除去しておくとよい。   Here, when there are more contour points, a plurality of straight lines are extracted based on two of them (that is, a plurality of intersections that are corner point candidates are calculated). Can be selected based on the angle θa and the positional relationship between the two points. Further, when two sides of the contour line are closed in the contour component (that is, edge pixels near the corner points are continuous), the virtual straight lines L1 to L4 are translated from the start point and detected first. The intersection point can be selected as the corner point C. That is, when a virtual straight line is in contact with a corner point, there is ideally one intersection with the contour component, so that the corner point is detected when contacted. In addition, if the virtual straight line is moved diagonally at a step 1 movement interval and a plurality of intersections are detected, the direction is opposite to the previous movement direction (that is, the direction of the vertex 45a in the case of the virtual straight line L1). It may be moved finely (for example, in step 2), and the corner point may be detected based on the fact that the intersection is 1 or 0. Then, by repeating these operations a plurality of times while reducing the step width, theoretically the detection accuracy of corner points is improved. Furthermore, when a noise component exists in the image of the mounting surface 6, it is good to remove beforehand.

本Bの4つの角点を設定した後に、角点・のど点検出部33は、それら角点の位置関係から設定した角点の有効性を判定する(ST204)。角点の有効性は、例えば図8に示すように、4つの角点C1〜C4の位置関係(各角点間の距離や各角点を結ぶ線分のなす角度の比較等)に基づき、角点C1〜C4が略矩形状に配置されているか否かにより判定する。   After setting the four corner points of book B, the corner point / throat detection unit 33 determines the validity of the corner points set based on the positional relationship between these corner points (ST204). For example, as shown in FIG. 8, the effectiveness of the corner points is based on the positional relationship between the four corner points C1 to C4 (such as a distance between the corner points and a comparison of angles formed by line segments connecting the corner points). It is determined by whether or not the corner points C1 to C4 are arranged in a substantially rectangular shape.

そして、角点・のど点検出部33は、全ての角点C1〜C4が有効である場合(ST205;YES)には、角点検出処理を終了する。一方、角点・のど点検出部33は、いずれかの角点が有効でないと判定した場合(ST205;NO)には、他の角点に基づき無効と判断した角点の座標を補正する(ST206)。例えば、図8に示すように、紙面の図形枠の角等を検出することにより、誤った角点C3eが設定されていた場合、他の3つの角点C1、C2、C4との位置関係から適切な位置に角点C3を設定することができる。   Then, when all the corner points C1 to C4 are valid (ST205; YES), the corner point / throat point detection unit 33 ends the corner point detection process. On the other hand, when it is determined that any corner point is not valid (ST205; NO), the corner point / throat point detection unit 33 corrects the coordinates of the corner point determined to be invalid based on the other corner points ( ST206). For example, as shown in FIG. 8, when an erroneous corner point C3e is set by detecting the corner of the graphic frame on the paper, the positional relationship with the other three corner points C1, C2, C4 is determined. The corner point C3 can be set at an appropriate position.

図9は図3中の線分認識(ST105)の結果の一例を示す模式図であり、図10は図3中の線分認識(ST105)におけるエッジトレースの処理過程の一例を示す模式図である。   9 is a schematic diagram showing an example of the result of line segment recognition (ST105) in FIG. 3, and FIG. 10 is a schematic diagram showing an example of an edge trace processing process in line segment recognition (ST105) in FIG. is there.

例えば、左紙面41Lの下辺(外形線)を対象とするエッジトレース処理では、のど点D1および角点C1をそれぞれ始点および終点に設定し、のど点D1から角点C1に向けてエッジ画素を探索する。ここでは、線分の特徴(直線、曲線、分岐等)に基づき予め複数の画素パターンが準備されており、探索した一群のエッジ画素をそれらの画素パターンと比較して一致した場合に線分およびその端点を認識する。   For example, in the edge trace processing for the lower side (outline) of the left page 41L, the throat point D1 and the corner point C1 are set as the start point and the end point, respectively, and the edge pixel is searched from the throat point D1 toward the corner point C1. To do. Here, a plurality of pixel patterns are prepared in advance based on line segment characteristics (straight lines, curves, branches, etc.), and when a group of searched edge pixels are compared with those pixel patterns, the line segments and Recognize its end points.

エッジトレース処理においては、図10(A)に示すように、本Bの外形線を覆う障害物(ここでは手指F2)が存在する場合、線分は比較的大きな角度で折れ曲がる。この場合、手指F2の外形輪郭に沿って線分の分岐が生じる。   In the edge trace process, as shown in FIG. 10A, when there is an obstacle (here, finger F2) covering the outline of book B, the line is bent at a relatively large angle. In this case, a line segment branches along the outer contour of the finger F2.

また、図10(B)に示すように、一部の領域においてエッジ画素を探索できない場合には、線分が完全に折り返され、0度(または360度)に近い角度をなす。このように障害物やエッジ画素の欠落によりエッジを探索できない場合には、エッジの探索範囲を拡げて(終点方向に位置する次の始点を選択して)さらに探索を継続する。最終的に、エッジ画素の探索が終点(ここでは角点C1)または撮影エリア40の外縁まで達すると線分認識処理が終了する。   Further, as shown in FIG. 10B, when an edge pixel cannot be searched in a partial region, the line segment is completely folded back to form an angle close to 0 degrees (or 360 degrees). Thus, when an edge cannot be searched due to a lack of an obstacle or an edge pixel, the edge search range is expanded (the next start point positioned in the end point direction is selected) and the search is continued. Finally, when the search for edge pixels reaches the end point (here, corner point C1) or the outer edge of the imaging area 40, the line segment recognition process ends.

なお、線分認識の処理は、少なくとも本Bの外形線を構成し得る複数の線分の候補を認識可能な限りにおいて、上述の方法に限らず、他の周知の方法を用いてもよい。また、ここでは左紙面の下辺(外形線)の線分認識についてのみ示したが、右紙面の下辺についても同様に処理することが可能である。   Note that the line segment recognition process is not limited to the above-described method as long as at least a plurality of line segment candidates that can form the outline of book B can be recognized, and other well-known methods may be used. Although only the line segment recognition of the lower side (outline) of the left page is shown here, the same process can be performed for the lower side of the right page.

図11は図3中の無効線分排除(ST106)の詳細を示すフロー図であり、図12は図11中のST301、ST303の処理の概要を示す説明図であり、図13は図11中のST305の処理の概要を示す説明図であり、図14は図3中の無効線分排除(ST106)の結果の一例を示す模式図である。   FIG. 11 is a flowchart showing details of the invalid line segment elimination (ST106) in FIG. 3, FIG. 12 is an explanatory diagram showing an outline of the processing of ST301 and ST303 in FIG. 11, and FIG. 13 is in FIG. FIG. 14 is an explanatory diagram showing an outline of the process of ST305, and FIG. 14 is a schematic diagram showing an example of the result of the invalid line segment elimination (ST106) in FIG.

図11に示すように、無効線分排除部35は、線分認識部34によって認識された各線分について、それらの両端点の座標の情報を取得し(ST301)、それら両端点が予め設定された有効領域内にあるか否かを判定する(ST302)。そして、線分が有効領域内にない場合(NO)、当該線分を無効線分として除去する(ST307)。   As shown in FIG. 11, the invalid line segment removal unit 35 acquires the coordinate information of both end points of each line segment recognized by the line segment recognition unit 34 (ST301), and the both end points are preset. It is determined whether it is within the effective area (ST302). If the line segment is not within the effective area (NO), the line segment is removed as an invalid line segment (ST307).

ここで、例えば図12に示すように、有効領域Rは、線分認識におけるエッジトレースの始点(のど点D1)から終点(角点C1)に向けて帯状に延びる平行四辺形の領域を設定することができる。ここで、平行四辺形の1組の対辺は、エッジトレースの始点および終点を結ぶ基準線Lsに平行であり、他の1組の対辺はそれぞれエッジトレースの始点および終点を通るように設定されている。   Here, for example, as shown in FIG. 12, the effective region R is a parallelogram region extending in a strip shape from the start point (throat point D1) of the edge trace to the end point (corner point C1) in line segment recognition. be able to. Here, one set of opposite sides of the parallelogram is parallel to the reference line Ls connecting the start point and end point of the edge trace, and the other set of opposite sides is set to pass through the start point and end point of the edge trace, respectively. Yes.

線分が有効領域内にある場合(ST302;YES)、無効線分排除部35は、更に、判定対象である線分L0の両端点を結ぶ直線と基準線Lsとのなす角度θb(図12参照)を算出し(ST303)、予め設定された所定の閾値(例えば20度)以下であるか否かを判定する(ST304)。そして、角度θbが閾値を超える場合(NO)、無当該線分を無効線分として除去する(ST307)。   When the line segment is within the effective region (ST302; YES), the invalid line segment exclusion unit 35 further forms an angle θb formed by a straight line connecting both end points of the line segment L0 to be determined and the reference line Ls (FIG. 12). Reference) is calculated (ST303), and it is determined whether or not it is equal to or less than a predetermined threshold value (for example, 20 degrees) (ST304). When the angle θb exceeds the threshold value (NO), the no relevant line segment is removed as an invalid line segment (ST307).

線分と基準線Lsとの角度θbが閾値以下の場合(ST304;YES)、無効線分排除部35は、判定対象の線分L0の端点とこれに隣接する他の線分との距離を算出し(ST305)、この距離が予め設定された所定の閾値以下であるか否かを判定する(ST306)。   When the angle θb between the line segment and the reference line Ls is equal to or smaller than the threshold (ST304; YES), the invalid line segment exclusion unit 35 calculates the distance between the end point of the line segment L0 to be determined and another line segment adjacent thereto. It is calculated (ST305), and it is determined whether this distance is equal to or less than a predetermined threshold value (ST306).

ここで、例えば図13に示すように、無効線分排除部35は、判定対象線分の端点Paと、これに隣接する他の線分の両端点Pb、Pcを通る仮想直線Liとの最短距離dを算出し、この最短距離dを閾値と比較する。この場合、端点Paと端点PbとのX軸方向の距離ΔXを算出し、この距離ΔXの値に応じて閾値を変化させることができる。例えば、距離ΔXの増大に応じて閾値を線形的に増加させるとよい。なお、隣接する他の線分は、ΔXの大きさに基づき選択(ΔXが最小となる線分を選択)することができる。同様に、本Bの外形輪郭における左右の辺の場合は、Y軸方向の距離ΔYに応じて閾値を変化させることができる。   Here, for example, as shown in FIG. 13, the invalid line segment exclusion unit 35 sets the shortest point between the end point Pa of the determination target line segment and the virtual straight line Li passing through the end points Pb and Pc of the other adjacent line segments. A distance d is calculated, and this shortest distance d is compared with a threshold value. In this case, the distance ΔX in the X-axis direction between the end point Pa and the end point Pb can be calculated, and the threshold value can be changed according to the value of the distance ΔX. For example, the threshold value may be increased linearly as the distance ΔX increases. Other adjacent line segments can be selected based on the size of ΔX (the line segment that minimizes ΔX is selected). Similarly, in the case of the left and right sides in the outer contour of the book B, the threshold value can be changed according to the distance ΔY in the Y-axis direction.

最終的に全ての線分の判定が終了すると(ST308)、無効線分除去の処理が終了し、図14に示すような、有効線分で構成された外形線が得られる。なお、ST305、ST306の処理については、省略することも可能である。ここで、形成される外形線には、障害物(ここでは手指)による遮蔽やエッジ画素の欠落により、各線分の連続性が絶たれた欠落部分Laが存在する。   When all the line segments are finally determined (ST308), the invalid line segment removal process is completed, and an outline composed of effective line segments as shown in FIG. 14 is obtained. Note that the processing of ST305 and ST306 can be omitted. Here, in the formed outline, there is a missing portion La in which the continuity of each line segment is cut off due to shielding by an obstacle (here, a finger) or missing edge pixels.

図15は図3中の線分補間(ST107)の結果一例を示す模式図である。   FIG. 15 is a schematic diagram showing an example of the result of the line segment interpolation (ST107) in FIG.

原稿読取システム1では、上述のように角点(C1またはC2)とのど点(D1)とを結ぶ線分に対する角度に基づき、外形線を構成する線分の候補の中から無効線分を排除した後に、図15に示すように、残りの有効線分で構成された外形線における欠落部分La(図14参照)に対して、既にエッジトレースによって生成された線分で、かつ欠落部分Laの両側に隣接する2つの線分の開放端を結合して線分Lcを生成する。即ち、線分を挿入して補間を行なう。または、既に存在する線分の開放端を、その線分の延長線上に延伸して、欠落部分Laを挟んで対向する線分の開放端と接続する。これにより、撮影時に原稿の下方側における外形線(下辺)の一部を覆う手指が存在することにより当該外形線の一部が取得できない場合でも、外形線の欠落部分Laを容易かつ確実に補完することができる。   In the document reading system 1, as described above, invalid line segments are excluded from the line segment candidates constituting the outline based on the angle with respect to the line segment connecting the corner point (C1 or C2) and the throat point (D1). After that, as shown in FIG. 15, with respect to the missing portion La (see FIG. 14) in the outline formed by the remaining effective line segments, the line segments already generated by the edge trace and the missing portion La A line segment Lc is generated by combining open ends of two line segments adjacent to both sides. That is, interpolation is performed by inserting a line segment. Alternatively, an open end of a line segment that already exists is extended on an extension line of the line segment, and is connected to an open end of a line segment that is opposed to the missing portion La. Thereby, even when a part of the outline cannot be acquired due to the presence of a finger covering a part of the outline (lower side) on the lower side of the document at the time of photographing, the missing part La of the outline is easily and reliably complemented. can do.

本発明を特定の実施形態に基づいて説明したが、これらの実施形態はあくまでも例示であって、本発明はこれらの実施形態によって限定されるものではない。上記実施形態では、原稿の下辺(外形線)の処理についてのみ示したが、原稿の上辺についても同様に実施することができる。さらに、原稿の左右の辺(Y軸方向の外形線)についても同様に処理可能であり、その場合、のど点の座標は不要となり、上下の角点間でエッジトレースを実施することとなる。また、線分認識においてエッジトレースの始点または終点に用いる角点は、ページの角点としてもよい。なお、上記実施形態に示した本発明に係る画像処理装置およびこれを備えた原稿読取システムの各構成要素は、必ずしも全てが必須ではなく、少なくとも本発明の範囲を逸脱しない限りにおいて適宜取捨選択することが可能である。   Although the present invention has been described based on specific embodiments, these embodiments are merely examples, and the present invention is not limited to these embodiments. In the above embodiment, only the processing of the lower side (outline) of the document has been described, but the same can be applied to the upper side of the document. Furthermore, the same processing can be performed for the left and right sides of the document (outline of the Y-axis direction). In this case, the coordinates of the throat point are not necessary, and edge tracing is performed between the upper and lower corner points. Further, the corner point used as the start point or end point of the edge trace in line segment recognition may be a page corner point. Note that not all of the components of the image processing apparatus according to the present invention and the document reading system including the image processing apparatus according to the present invention shown in the above-described embodiments are necessarily selected as long as they do not depart from the scope of the present invention. It is possible.

本発明に係る画像処理装置およびこれを備えた原稿読取システムは、撮影時に外形線の一部を覆う手指等が存在することにより当該外形線の一部が取得できない場合でも、その外形線の欠落部分を容易かつ確実に補完可能とし、本などの原稿を読み取って得られた画像を処理する画像処理装置およびこれを備えた原稿読取システムなどとして有用である。   The image processing apparatus according to the present invention and the document reading system provided with the image processing apparatus have a missing outline even when a part of the outline cannot be acquired due to the presence of a finger or the like covering a part of the outline during shooting. The present invention is useful as an image processing apparatus that processes an image obtained by reading a document such as a book, a document reading system including the same, and the like, which can easily and reliably complement a portion.

1 原稿読取システム
2 書画カメラ(画像入力装置)
3 PC(画像処理装置)
22 画像データ入力部(撮影画像取得部)
23 画像処理装置
30 外形検出部
31 エッジ抽出部
33 角点・のど点検出部
34 線分認識部
35 無効線分排除部
36 線分補間部
41L 左紙面
41R 右紙面
C、C1〜C4 角点
D1、D2 のど点
1 Document Reading System 2 Document Camera (Image Input Device)
3 PC (image processing device)
22 Image data input unit (captured image acquisition unit)
23 Image processing device 30 Outline detection unit 31 Edge extraction unit 33 Corner point / throat point detection unit 34 Line segment recognition unit 35 Invalid line segment exclusion unit 36 Line segment interpolation unit 41L Left paper surface 41R Right paper surface C, C1 to C4 Corner points D1 , D2 throat

Claims (5)

製本された原稿の左右の紙面を撮影した撮影画像を取得する撮影画像取得部と、
前記撮影画像における複数のエッジ画素を抽出するエッジ抽出部と、
前記原稿の上下方向の少なくとも一方側における左右の角点を検出する角点検出部と、
前記原稿の少なくとも前記一方側における綴じ中心線の端点であるのど点を検出するのど点検出部と、
前記エッジ画素に基づき、前記原稿の少なくとも前記一方側における外形線を構成し得る複数の線分の候補を認識する線分認識部と、
前記左右の紙面の少なくとも一方に関し、前記角点と前記のど点とを結ぶ線分に対する角度に基づき前記線分の候補の中から無効線分を排除する無効線分排除部と、
前記無効線分が排除された前記線分の候補で構成された外形線における欠落部分に対して線分補間を行う線分補間部とを備えたことを特徴とする画像処理装置。
A captured image acquisition unit that acquires captured images of left and right sheets of a bound document;
An edge extraction unit that extracts a plurality of edge pixels in the captured image;
A corner point detector for detecting left and right corner points on at least one side of the document in the vertical direction;
A throat point detection unit for detecting a throat point that is an end point of a binding center line on at least one side of the document;
A line segment recognition unit that recognizes a plurality of line segment candidates that can form an outline on at least one side of the document based on the edge pixels;
With respect to at least one of the left and right paper surfaces, an invalid line segment eliminating unit that eliminates invalid line segments from the line segment candidates based on an angle with respect to a line segment connecting the corner point and the throat point;
An image processing apparatus comprising: a line segment interpolation unit that performs line segment interpolation on a missing portion in an outline formed by the line segment candidates from which the invalid line segment is excluded.
前記線分認識部は、前記角点と前記のど点との間で前記エッジ画素をトレースすることにより、前記複数の線分の候補を認識することを特徴とする請求項1に記載の画像処理装置。   The image processing according to claim 1, wherein the line segment recognition unit recognizes the plurality of line segment candidates by tracing the edge pixel between the corner point and the throat point. apparatus. 前記無効線分排除部は、前記線分の候補の端点と、これに隣接する他の線分の両端点を通る仮想直線との最短距離を算出し、当該最短距離が所定の閾値以上である場合、当該線分の候補を無効線分として排除することを特徴とする請求項1または請求項2に記載の画像処理装置。   The invalid line segment exclusion unit calculates a shortest distance between the end point of the line segment candidate and a virtual straight line passing through both end points of another line segment adjacent thereto, and the shortest distance is equal to or greater than a predetermined threshold value. 3. The image processing apparatus according to claim 1, wherein the line segment candidates are excluded as invalid line segments. 原稿の紙面を撮影した撮影画像を取得する撮影画像取得部と、
前記撮影画像における複数のエッジ画素を抽出するエッジ抽出部と、
前記原稿の左右方向の少なくとも一方側における上下の角点を検出する角点検出部と、
前記エッジ画素に基づき、前記原稿の少なくとも前記一方側における外形線を構成し得る複数の線分の候補を認識する線分認識部と、
前記上下の角点を結ぶ線分に対する角度に基づき前記線分の候補の中から無効線分を排除する無効線分排除部と、
前記無効線分が排除された複数の線分で構成された外形線における欠落部分に対して線分補間を行う線分補間部とを備えたことを特徴とする画像処理装置。
A captured image acquisition unit for acquiring a captured image of a paper surface of the document;
An edge extraction unit that extracts a plurality of edge pixels in the captured image;
A corner point detector for detecting upper and lower corner points on at least one side in the left-right direction of the document;
A line segment recognition unit that recognizes a plurality of line segment candidates that can form an outline on at least one side of the document based on the edge pixels;
An invalid line segment exclusion unit that eliminates invalid line segments from the line segment candidates based on an angle with respect to the line segment connecting the upper and lower corner points;
An image processing apparatus, comprising: a line segment interpolation unit that performs line segment interpolation on a missing portion in an outline formed of a plurality of line segments from which the invalid line segment is excluded.
請求項1から請求項4のいずれかに記載の画像処理装置と、前記撮影画像を生成するカメラ部を備えた画像入力装置とを備えた原稿読取システム。   An original reading system comprising: the image processing apparatus according to claim 1; and an image input apparatus including a camera unit that generates the captured image.
JP2012057759A 2012-03-14 2012-03-14 Image processor and original reading system equipped with the same Pending JP2013192101A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012057759A JP2013192101A (en) 2012-03-14 2012-03-14 Image processor and original reading system equipped with the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012057759A JP2013192101A (en) 2012-03-14 2012-03-14 Image processor and original reading system equipped with the same

Publications (1)

Publication Number Publication Date
JP2013192101A true JP2013192101A (en) 2013-09-26

Family

ID=49391931

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012057759A Pending JP2013192101A (en) 2012-03-14 2012-03-14 Image processor and original reading system equipped with the same

Country Status (1)

Country Link
JP (1) JP2013192101A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015084501A (en) * 2013-10-25 2015-04-30 東芝テック株式会社 Imaging apparatus and object recognition scanner
JP2019503011A (en) * 2016-01-29 2019-01-31 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング Recognizing objects, especially 3D objects
JP7509338B1 (en) 2023-02-20 2024-07-02 Jfeスチール株式会社 MEASUREMENT METHOD, MEASUREMENT APPARATUS, OBJECT MANUFACTURING METHOD, OBJECT QUALITY CONTROL METHOD, OBJECT MANUFACTURING EQUIPMENT, COMPUTING UNIT, IMAGING TERMINAL, IMAGING SYSTEM, AND INFORMATION PROCESSING APPARATUS
WO2024176687A1 (en) * 2023-02-20 2024-08-29 Jfeスチール株式会社 Measurement method, measurement device, method for manufacturing object, method for managing quality of object, equipment for manufacturing object, computation unit, imaging terminal, imaging system, and information processing device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015084501A (en) * 2013-10-25 2015-04-30 東芝テック株式会社 Imaging apparatus and object recognition scanner
JP2019503011A (en) * 2016-01-29 2019-01-31 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング Recognizing objects, especially 3D objects
JP7509338B1 (en) 2023-02-20 2024-07-02 Jfeスチール株式会社 MEASUREMENT METHOD, MEASUREMENT APPARATUS, OBJECT MANUFACTURING METHOD, OBJECT QUALITY CONTROL METHOD, OBJECT MANUFACTURING EQUIPMENT, COMPUTING UNIT, IMAGING TERMINAL, IMAGING SYSTEM, AND INFORMATION PROCESSING APPARATUS
WO2024176687A1 (en) * 2023-02-20 2024-08-29 Jfeスチール株式会社 Measurement method, measurement device, method for manufacturing object, method for managing quality of object, equipment for manufacturing object, computation unit, imaging terminal, imaging system, and information processing device

Similar Documents

Publication Publication Date Title
AU2007224085B2 (en) Model- based dewarping method and apparatus
JP6099457B2 (en) Image processing apparatus, area determination method, and computer program
WO2015073920A1 (en) Systems and methods for generating composite images of long documents using mobile video data
WO2011011353A2 (en) Stereoscopic form reader
JP2013505669A5 (en)
JP5975281B2 (en) Image processing apparatus and program
CN109479082A (en) Image processing method and device
JP2019109624A (en) Information processing apparatus, program, and information processing method
JP2013192101A (en) Image processor and original reading system equipped with the same
EP3069298A1 (en) Systems and methods for generating composite images of long documents using mobile video data
JP6098784B2 (en) Image processing apparatus and program
CN112507767A (en) Face identification method and related computer system
JP2013242826A (en) Image processing device and document reading system including the same
JP2006211046A (en) Photographing apparatus, image processing method for photographing apparatus, and program
JP4182937B2 (en) Image capturing apparatus, image processing method for image capturing apparatus, and program
WO2019080061A1 (en) Camera device-based occlusion detection and repair device, and occlusion detection and repair method therefor
US20210281742A1 (en) Document detections from video images
JP2013247531A (en) Image processing apparatus and document reading system comprising the same
JP2019050030A (en) Image extracting device, control method of image extracting device, and program
JP6157068B2 (en) Information processing apparatus and control method thereof
JP2020149184A (en) Information processor and control method thereof and program
JP2013192100A (en) Image processor and original reading system equipped with the same
JP6521481B2 (en) Image correction apparatus, image correction method, program
US20110234816A1 (en) Method for image pickup and image pickup device using the same
JP2018181244A (en) Line segment extraction device, method for controlling line segment extraction device, and program