WO2015140935A1 - Overhead-type image reading apparatus, image processing method, and program - Google Patents

Overhead-type image reading apparatus, image processing method, and program Download PDF

Info

Publication number
WO2015140935A1
WO2015140935A1 PCT/JP2014/057400 JP2014057400W WO2015140935A1 WO 2015140935 A1 WO2015140935 A1 WO 2015140935A1 JP 2014057400 W JP2014057400 W JP 2014057400W WO 2015140935 A1 WO2015140935 A1 WO 2015140935A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
medium
read
unit
image reading
Prior art date
Application number
PCT/JP2014/057400
Other languages
French (fr)
Japanese (ja)
Inventor
夕貴 松田
貴彦 深澤
健 李
Original Assignee
株式会社Pfu
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Pfu filed Critical 株式会社Pfu
Priority to PCT/JP2014/057400 priority Critical patent/WO2015140935A1/en
Priority to JP2016508376A priority patent/JP6159017B2/en
Publication of WO2015140935A1 publication Critical patent/WO2015140935A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/10Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using flat picture-bearing surfaces
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G06T3/06
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/10Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using flat picture-bearing surfaces
    • H04N1/107Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using flat picture-bearing surfaces with manual scanning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/38Circuits or arrangements for blanking or otherwise eliminating unwanted parts of pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof

Abstract

The present invention acquires: a read image that is provided by having an image reading unit read a medium; and pattern images having changed luminances by having the image reading unit read the medium irradiated with light with changed irradiation positions, said light being radiated from a light source unit. On the basis of the different pattern images, three-dimensional information of the medium is acquired, and on the basis of the three-dimensional information, distortion of the read image is corrected.

Description

オーバーヘッド型画像読取装置、画像処理方法、および、プログラムOverhead image reading apparatus, image processing method, and program
 本発明は、オーバーヘッド型画像読取装置、画像処理方法、および、プログラムに関する。 The present invention relates to an overhead image reading apparatus, an image processing method, and a program.
 従来から、紙面の3次元の形状を補足する技術が開示されている。 Conventionally, techniques for supplementing the three-dimensional shape of paper have been disclosed.
 ここで、撮像される文書を横切る一連のストライプを形成するため光の層を、隣接する光の層の間の相対的な拡がりが該光の層に沿った横方向で変化して拡がりが比較的小さい場所にストライプを集中させて投影し、文書のイメージおよび文書上に投影された光ストライプのイメージを捕捉する撮像システムが開示されている(特許文献1を参照)。 Here, the light layers are compared to form a series of stripes across the document being imaged, with the relative spread between adjacent light layers changing in the lateral direction along the light layer, and the spreads compared. An imaging system is disclosed in which stripes are concentrated and projected onto a small area to capture a document image and an image of a light stripe projected onto the document (see Patent Document 1).
 また、可展面の概念を導入した高速な3次元変形推定手法と、局所解像度を導入した最適形状の認識のための評価関数を用いて、高速な3次元センシングによってリアルタイムに得られた紙面変形を評価し、書籍電子化のために最適となるタイミングにおいてのみ高精細な画像を適応的に撮像する書籍読み取りシステムが開示されている(特許文献2を参照)。 In addition, using a high-speed 3D deformation estimation method that introduces the concept of developable surface and an evaluation function for recognizing an optimal shape that introduces local resolution, the paper surface deformation obtained in real time by high-speed 3D sensing A book reading system that adaptively captures a high-definition image only at a timing that is optimal for digitizing a book is disclosed (see Patent Document 2).
特表2003-504947号公報Special table 2003-504947 gazette 特開2012-253721号公報JP 2012-253721 A
 しかしながら、従来の撮像システム(特許文献1等)においては、歪みが大きい領域に光線を集中させている間の原稿状態が一定である保証をできないという問題点を有していた。 However, the conventional imaging system (Patent Document 1 or the like) has a problem in that it cannot be guaranteed that the original state is constant while the light beam is concentrated in a region where distortion is large.
 また、従来の撮像システム(特許文献2等)においては、高解像度の3次元形状が歪み補正に適応可能であるか判断できないという問題点を有していた。 Further, the conventional imaging system (Patent Document 2 and the like) has a problem that it cannot be determined whether a high-resolution three-dimensional shape can be applied to distortion correction.
 本発明は、上記問題点に鑑みてなされたもので、原稿の3次元立体情報を取得し、取得した3次元立体情報に基づいて3次元歪みを補正することができる、オーバーヘッド型画像読取装置、画像処理方法、および、プログラムを提供することを目的とする。 The present invention has been made in view of the above problems, and is an overhead image reading apparatus capable of acquiring three-dimensional solid information of a document and correcting three-dimensional distortion based on the acquired three-dimensional solid information. An object is to provide an image processing method and a program.
 このような目的を達成するため、本発明に係るオーバーヘッド型画像読取装置は、媒体を画像読取部にて読み取らせた読取画像、および、照射位置を変化させた光を光源部から照射された前記媒体を前記画像読取部にて読み取らせ、明るさを変化させたパターン画像を取得する画像取得手段と、複数の異なる前記パターン画像に基づいて、前記媒体の3次元情報を取得する3次元情報取得手段と、前記3次元情報に基づいて、前記読取画像の歪みを補正する歪み補正手段と、を備える。 In order to achieve such an object, the overhead image reading apparatus according to the present invention includes a read image in which a medium is read by an image reading unit, and light that has been irradiated from a light source unit with light whose irradiation position is changed. 3D information acquisition for acquiring 3D information of the medium based on a plurality of different pattern images and an image acquisition means for acquiring a pattern image whose brightness is changed by reading the medium by the image reading unit Means, and distortion correction means for correcting distortion of the read image based on the three-dimensional information.
 また、本発明に係る画像処理方法は、オーバーヘッド型画像読取装置で実行される、媒体を画像読取部にて読み取らせた読取画像、および、照射位置を変化させた光を光源部から照射された前記媒体を前記画像読取部にて読み取らせ、明るさを変化させたパターン画像を取得する画像取得ステップと、複数の異なる前記パターン画像に基づいて、前記媒体の3次元情報を取得する3次元情報取得ステップと、前記3次元情報に基づいて、前記読取画像の歪みを補正する歪み補正ステップと、を含む。 In addition, the image processing method according to the present invention is executed by the overhead image reading apparatus, and the read image obtained by reading the medium by the image reading unit and the light whose irradiation position is changed are irradiated from the light source unit. An image acquisition step of reading the medium by the image reading unit and acquiring a pattern image with changed brightness, and three-dimensional information of acquiring three-dimensional information of the medium based on a plurality of different pattern images An acquisition step, and a distortion correction step of correcting distortion of the read image based on the three-dimensional information.
 また、本発明に係るプログラムは、オーバーヘッド型画像読取装置に実行させるための、媒体を画像読取部にて読み取らせた読取画像、および、照射位置を変化させた光を光源部から照射された前記媒体を前記画像読取部にて読み取らせ、明るさを変化させたパターン画像を取得する画像取得ステップと、複数の異なる前記パターン画像に基づいて、前記媒体の3次元情報を取得する3次元情報取得ステップと、前記3次元情報に基づいて、前記読取画像の歪みを補正する歪み補正ステップと、を含む。 In addition, the program according to the present invention is a program for causing an overhead image reading apparatus to execute a read image obtained by reading a medium with an image reading unit, and light emitted from a light source unit with light whose irradiation position has been changed. An image acquisition step of acquiring a pattern image in which the medium is read by the image reading unit and changing the brightness, and three-dimensional information acquisition of acquiring three-dimensional information of the medium based on a plurality of different pattern images And a distortion correction step of correcting distortion of the read image based on the three-dimensional information.
 この発明によれば、3次元歪みを有する原稿媒体であっても、可展面である場合は歪みのない画像に補正できる。 According to the present invention, even a manuscript medium having three-dimensional distortion can be corrected to an image having no distortion when it is a developable surface.
図1は、オーバーヘッド型画像読取装置の概略構成の一例を示す側面図である。FIG. 1 is a side view showing an example of a schematic configuration of an overhead image reading apparatus. 図2は、オーバーヘッド型画像読取装置の概略構成の一例を示す正面図である。FIG. 2 is a front view illustrating an example of a schematic configuration of the overhead image reading apparatus. 図3は、オーバーヘッド型画像読取装置の構成の一例を示す側面図である。FIG. 3 is a side view showing an example of the configuration of the overhead image reading apparatus. 図4は、オーバーヘッド型画像読取装置の構成の一例を示す機能ブロック図である。FIG. 4 is a functional block diagram illustrating an example of the configuration of the overhead image reading apparatus. 図5は、本実施形態のオーバーヘッド型画像読取装置における処理の一例を示すフローチャートである。FIG. 5 is a flowchart showing an example of processing in the overhead image reading apparatus of the present embodiment. 図6は、本実施形態における媒体へのライン光照射の一例を示す図である。FIG. 6 is a diagram illustrating an example of line light irradiation on a medium according to the present embodiment. 図7は、本実施形態における媒体へのライン光照射の一例を示す図である。FIG. 7 is a diagram illustrating an example of line light irradiation on a medium according to the present embodiment. 図8は、本実施形態における媒体へのライン光照射の一例を示す図である。FIG. 8 is a diagram illustrating an example of line light irradiation on the medium according to the present embodiment. 図9は、本実施形態における媒体へのライン光照射の一例を示す図である。FIG. 9 is a diagram illustrating an example of line light irradiation on a medium according to the present embodiment. 図10は、本実施形態における画像および奥行情報の妥当性判定処理の一例を示すフローチャートである。FIG. 10 is a flowchart illustrating an example of the image and depth information validity determination processing in the present embodiment. 図11は、本実施形態におけるエッジ検出処理の一例を示す図である。FIG. 11 is a diagram illustrating an example of edge detection processing in the present embodiment. 図12は、本実施形態における3次元形状復元処理の一例を示すフローチャートである。FIG. 12 is a flowchart illustrating an example of the three-dimensional shape restoration process in the present embodiment. 図13は、本実施形態における歪み補正処理の一例を示すフローチャートである。FIG. 13 is a flowchart illustrating an example of the distortion correction process in the present embodiment. 図14は、本実施形態のオーバーヘッド型画像読取装置における処理の一例を示すフローチャートである。FIG. 14 is a flowchart illustrating an example of processing in the overhead image reading apparatus of the present embodiment. 図15は、本実施形態におけるパターン照射画像の一例を示す図である。FIG. 15 is a diagram illustrating an example of a pattern irradiation image in the present embodiment. 図16は、本実施形態における位相情報算出処理の一例を示す図である。FIG. 16 is a diagram illustrating an example of phase information calculation processing in the present embodiment. 図17は、本実施形態における絶対位相算出処理の一例を示す図である。FIG. 17 is a diagram illustrating an example of an absolute phase calculation process in the present embodiment. 図18は、本実施形態における3次元形状復元処理の一例を示す図である。FIG. 18 is a diagram illustrating an example of a three-dimensional shape restoration process in the present embodiment. 図19は、本実施形態における歪み補正処理の一例を示すフローチャートである。FIG. 19 is a flowchart illustrating an example of distortion correction processing according to the present embodiment.
 以下に、本発明に係るオーバーヘッド型画像読取装置、画像処理方法、および、プログラムの実施形態を図面に基づいて詳細に説明する。なお、この実施形態により本発明が限定されるものではない。特に、本実施形態においては、読み取り対象の媒体は、本等の綴じ媒体、ステープルで綴じられた媒体、新聞、布、原稿用紙、または、プリント等であってもよい。 Hereinafter, embodiments of an overhead image reading apparatus, an image processing method, and a program according to the present invention will be described in detail with reference to the drawings. In addition, this invention is not limited by this embodiment. In particular, in the present embodiment, the medium to be read may be a binding medium such as a book, a medium bound with staples, a newspaper, cloth, original paper, or a print.
[1.本実施形態の構成]
 本実施形態に係るオーバーヘッド型画像読取装置100の構成の一例について図1乃至図4を参照して説明する。図1は、オーバーヘッド型画像読取装置100の概略構成の一例を示す側面図である。図2は、オーバーヘッド型画像読取装置100の概略構成の一例を示す正面図である。図3は、オーバーヘッド型画像読取装置100の構成の一例を示す側面図である。図4は、オーバーヘッド型画像読取装置100の構成の一例を示す機能ブロック図である。
[1. Configuration of this embodiment]
An example of the configuration of the overhead image reading apparatus 100 according to the present embodiment will be described with reference to FIGS. 1 to 4. FIG. 1 is a side view illustrating an example of a schematic configuration of the overhead image reading apparatus 100. FIG. 2 is a front view illustrating an example of a schematic configuration of the overhead image reading apparatus 100. FIG. 3 is a side view showing an example of the configuration of the overhead image reading apparatus 100. FIG. 4 is a functional block diagram illustrating an example of the configuration of the overhead image reading apparatus 100.
 図1および図2に示すように、オーバーヘッド型画像読取装置100は、光源部21(ライン光源21a、および、エリア光源21b)、および、画像読取部22(ラインセンサ22a、および、エリアセンサ22b)を備えて構成することができる。 As shown in FIGS. 1 and 2, the overhead image reading apparatus 100 includes a light source unit 21 (line light source 21a and area light source 21b) and an image reading unit 22 (line sensor 22a and area sensor 22b). It can comprise.
 図1に示すように、画像読取部22は、上向きに設置された綴じ媒体等の媒体(原稿)を、ライン光源21aとラインセンサ22a(リニアセンサ)とを用いて上方よりスキャンして媒体(原稿)の画像を読み取ってもよい。例えば、媒体(原稿)を上向きに設置して上方より媒体(原稿)を撮像する場合、主走査方向のラインの一次元画像(ライン画像)は、ラインセンサ22aにより媒体(原稿)の主走査方向のラインから届く光が、ライン上の画素ごとにアナログ電荷量に光電変換され、A/Dコンバータによりラインセンサ22aにより出力されたアナログ電荷量をデジタル信号に変換されることで出力されてもよい。そして、モータの駆動によりラインセンサ22aが所定の回転方向に回転すると、それに伴って、ラインセンサ22aの読み取りラインは、所定の副走査方向(例えば、奥行方向の奥側から手前側への方向等)に移動する。そして、これらが合成されることにより2次元の画像が生成される。 As shown in FIG. 1, the image reading unit 22 scans a medium (document) such as a binding medium installed upward from above using a line light source 21 a and a line sensor 22 a (linear sensor), and scans the medium ( An original image may be read. For example, when a medium (original) is placed upward and the medium (original) is imaged from above, a one-dimensional image (line image) of a line in the main scanning direction is detected by the line sensor 22a in the main scanning direction of the medium (original). The light arriving from the line may be photoelectrically converted into an analog charge amount for each pixel on the line, and the analog charge amount output from the line sensor 22a by the A / D converter may be converted into a digital signal and output. . When the line sensor 22a is rotated in a predetermined rotation direction by driving the motor, the reading line of the line sensor 22a is accordingly moved in a predetermined sub-scanning direction (for example, a direction from the back side to the near side in the depth direction, etc. ) These are combined to generate a two-dimensional image.
 また、図2に示すように、画像読取部22は、上向きに設置された媒体(原稿)を、エリア光源21bとエリアセンサ22bとを用いて上方よりスキャンして媒体(原稿)の画像を読み取ってもよい。例えば、媒体(原稿)を上向きに設置して上方より媒体(原稿)を撮像する場合、媒体(原稿)の読取画像(2次元画像)は、エリアセンサ22bにより原稿平面(主走査方向と副走査方向の2次元平面)から届く光が、画素ごとにアナログ電荷量に光電変換され、A/Dコンバータによりエリアセンサ22bにより出力されたアナログ電荷量をデジタル信号に変換されることで出力されてもよい。 Further, as shown in FIG. 2, the image reading unit 22 scans a medium (original) placed upward by scanning from above using an area light source 21b and an area sensor 22b to read an image on the medium (original). May be. For example, when the medium (original) is placed upward and the medium (original) is imaged from above, the read image (two-dimensional image) of the medium (original) is scanned by the area sensor 22b on the original plane (main scanning direction and sub-scanning). Even if the light reaching from the two-dimensional plane in the direction is photoelectrically converted into an analog charge amount for each pixel and the analog charge amount output from the area sensor 22b by the A / D converter is converted into a digital signal, the light is output. Good.
 次に、図3に示すように、オーバーヘッド型画像読取装置100(オーバーヘッド型スキャナ)は、本体10、光学ユニット20、および、エリアセンサ22bを少なくとも有する。オーバーヘッド型画像読取装置100は、光学ユニット20の鉛直方向下方の載置面2に載置された媒体(読取媒体)Sの画像を読み取ることができる。エリアセンサ22bは、載置面2に載置された媒体Sの読取画像(2次元画像)を読み取ることができる。載置面2は、例えば、机の上面等の平面である。 Next, as shown in FIG. 3, the overhead image reading apparatus 100 (overhead scanner) has at least a main body 10, an optical unit 20, and an area sensor 22b. The overhead image reading apparatus 100 can read an image of a medium (reading medium) S placed on the placing surface 2 below the optical unit 20 in the vertical direction. The area sensor 22b can read a read image (two-dimensional image) of the medium S placed on the placement surface 2. The placement surface 2 is a flat surface such as an upper surface of a desk, for example.
 本実施形態のオーバーヘッド型画像読取装置100では、光学ユニット20が回転軸Xまわりに振子状に回転する。また、ラインセンサ22aは、光学ユニット20における回転軸Xの半径方向外側に配置されており、回転軸Xを中心とする円周上を回転軸X周りに回転しながら媒体Sを撮像する。これにより、以下に説明するように、媒体Sを走査する間におけるラインセンサ22aと媒体S上の読取対象位置との距離変化が抑制される。よって、本実施形態に係るオーバーヘッド型画像読取装置100によれば、光学ユニット20の高さ位置を低くすることと、被写界深度の低減とを両立させることができる。なお、本明細書では、特に記載しない限り「半径方向」とは、回転軸Xと直交する半径方向を示すものとする。また、本明細書では、特に記載しない場合、「軸方向視」とは回転軸Xの軸方向視を示すものとする。 In the overhead image reading apparatus 100 of the present embodiment, the optical unit 20 rotates in a pendulum shape around the rotation axis X. Further, the line sensor 22a is disposed on the outer side in the radial direction of the rotation axis X in the optical unit 20, and images the medium S while rotating around the rotation axis X on the circumference centering on the rotation axis X. Accordingly, as described below, a change in the distance between the line sensor 22a and the reading target position on the medium S while the medium S is scanned is suppressed. Therefore, according to the overhead image reading apparatus 100 according to the present embodiment, it is possible to achieve both reduction in the height position of the optical unit 20 and reduction in the depth of field. In the present specification, unless otherwise specified, “radial direction” indicates a radial direction orthogonal to the rotation axis X. Further, in this specification, unless otherwise specified, “view in the axial direction” indicates a view in the axial direction of the rotation axis X.
 本実施形態では、オーバーヘッド型画像読取装置100が載置面2と同一面上に載置される場合を例に説明するが、これに限定されるものではない。オーバーヘッド型画像読取装置100が載置される箇所と、媒体Sが載置される載置面2とは異なっていてもよい。一例として、オーバーヘッド型画像読取装置100は、載置面2を有する載置台を備えていてもよい。 In this embodiment, a case where the overhead image reading apparatus 100 is placed on the same surface as the placement surface 2 will be described as an example, but the present invention is not limited to this. The place where the overhead image reading apparatus 100 is placed and the placement surface 2 on which the medium S is placed may be different. As an example, the overhead image reading apparatus 100 may include a mounting table having the mounting surface 2.
 本体10は、台座部11、アーム部12、支持部13およびカバー部14を有する。台座部11は、載置面2等に載置されて本体10全体を支持するものであり、本体10の基部である。オーバーヘッド型画像読取装置100の電源スイッチや画像読取開始スイッチ等の操作部材は、例えば台座部11に配置される。台座部11は、例えば、扁平な形状とされており、その下面が載置面2と互いに対向するようにして設置される。台座部11の下面には、脚部11bが配置されている。脚部11bは、台座部11の下面の四隅にそれぞれ配置されており、台座部11を支持する。 The main body 10 has a pedestal part 11, an arm part 12, a support part 13 and a cover part 14. The pedestal portion 11 is placed on the placement surface 2 or the like and supports the entire main body 10, and is a base portion of the main body 10. Operation members such as a power switch and an image reading start switch of the overhead image reading apparatus 100 are disposed on the pedestal 11, for example. The pedestal portion 11 has, for example, a flat shape, and is installed such that the lower surface thereof faces the mounting surface 2. A leg portion 11 b is disposed on the lower surface of the pedestal portion 11. The leg portions 11 b are arranged at the four corners of the lower surface of the pedestal portion 11 and support the pedestal portion 11.
 本実施形態の台座部11は、扁平な直方体あるいはこれと同様や類似の形状を有しており、幅方向(後述する主走査方向)の長さおよび奥行方向(後述する副走査方向)の長さのいずれよりも鉛直方向の長さが小さい。また、台座部11における幅方向の長さは、奥行方向の長さよりも大きくされてもよい。 The pedestal portion 11 of this embodiment has a flat rectangular parallelepiped shape or a similar or similar shape, and has a length in the width direction (main scanning direction to be described later) and a length in the depth direction (sub-scanning direction to be described later). The length in the vertical direction is smaller than any of the above. Moreover, the length of the width direction in the base part 11 may be made larger than the length of the depth direction.
 媒体Sは、台座部11の側方の4面の内の1つの面である前面11aに媒体Sの一辺を突き当てるようにして載置される。媒体Sは、例えば、前面11a側に配置された二つの脚部11bに突き当てるようにして載置される。つまり、媒体Sは、一辺が前面11aと平行となるようにして載置面2に載置される。本実施形態においては、矩形の媒体Sの一辺を前面11aに突き当てるようにして載置したときの媒体Sにおける前面11a側の一辺と平行な方向を「幅方向」あるいは「主走査方向」と記載する。また、媒体Sにおける前面11a側の一辺と直交する辺に平行な方向を「奥行方向」あるいは「副走査方向」と記載する。つまり、奥行方向とは、ユーザが媒体Sを挟んでオーバーヘッド型画像読取装置100と対向しているときのユーザとオーバーヘッド型画像読取装置100とが向かい合う方向である。奥行方向において、背面11cから前面11aに向かう向きを前方と記載し、前面11aから背面11cに向かう向きを後方と記載する。なお、背面11cとは、台座部11の側方の4面の内、奥行方向において前面11aと互いに対向する面である。 The medium S is placed so that one side of the medium S abuts against the front surface 11a which is one of the four surfaces on the side of the pedestal 11. For example, the medium S is placed so as to abut against the two leg portions 11b arranged on the front surface 11a side. That is, the medium S is placed on the placement surface 2 so that one side is parallel to the front surface 11a. In this embodiment, a direction parallel to one side of the front surface 11a of the medium S when the rectangular medium S is placed so as to abut one side of the front surface 11a is referred to as a “width direction” or a “main scanning direction”. Describe. In addition, a direction parallel to a side orthogonal to one side of the front surface 11a side of the medium S is referred to as a “depth direction” or a “sub-scanning direction”. That is, the depth direction is a direction in which the user and the overhead image reading apparatus 100 face each other when the user is facing the overhead image reading apparatus 100 with the medium S interposed therebetween. In the depth direction, the direction from the back surface 11c to the front surface 11a is described as front, and the direction from the front surface 11a to the back surface 11c is described as rear. In addition, the back surface 11c is a surface which mutually opposes the front surface 11a in the depth direction among four surfaces of the side of the base part 11. FIG.
 アーム部12は、台座部11と接続されており、台座部11から鉛直方向上方に向けて延在している。アーム部12は、例えば、断面矩形の柱状もしくは煙突状に形成されている。アーム部12の下部は、鉛直方向下側へ向かうに従い断面積が拡大するテーパ形状に形成されている。より具体的には、アーム部12の下部は、鉛直方向下側へ向かうに従い幅方向の長さが拡大している。アーム部12は、台座部11の上面における1辺側に接続されている。具体的には、アーム部12は、台座部11の上面の縁を形成する4辺のうち媒体Sが配置される側と反対側の1辺側に接続されている。言い換えると、アーム部12は、台座部11における媒体Sから遠い背面11c側の端部に接続されている。また、アーム部12は、台座部11における幅方向の中央部に接続されている。 The arm portion 12 is connected to the pedestal portion 11 and extends upward from the pedestal portion 11 in the vertical direction. For example, the arm portion 12 is formed in a columnar shape or a chimney shape having a rectangular cross section. The lower part of the arm part 12 is formed in a tapered shape whose cross-sectional area increases as it goes downward in the vertical direction. More specifically, the length in the width direction of the lower portion of the arm portion 12 is increased toward the lower side in the vertical direction. The arm portion 12 is connected to one side of the upper surface of the pedestal portion 11. Specifically, the arm portion 12 is connected to one side of the four sides forming the edge of the upper surface of the pedestal portion 11 that is opposite to the side where the medium S is disposed. In other words, the arm portion 12 is connected to the end portion on the back surface 11 c side that is far from the medium S in the pedestal portion 11. The arm portion 12 is connected to the central portion in the width direction of the pedestal portion 11.
 アーム部12の鉛直方向上方の端部には、支持部13が接続されている。支持部13は、アーム部12の上端から副走査方向の前方に向けて突出している。また、支持部13は、アーム部12の上端から幅方向の両側へ突出している。すなわち、支持部13は、アーム部12から媒体Sが載置される載置側へ張り出しており、かつアーム部12から幅方向の両側に張り出している。 A support portion 13 is connected to an end portion of the arm portion 12 in the vertical direction. The support portion 13 protrudes forward from the upper end of the arm portion 12 in the sub-scanning direction. Moreover, the support part 13 protrudes from the upper end of the arm part 12 to the both sides of the width direction. That is, the support portion 13 protrudes from the arm portion 12 to the placement side on which the medium S is placed, and extends from the arm portion 12 to both sides in the width direction.
 台座部11と支持部13とは鉛直方向において互いに対向しており、両者における奥行方向の媒体S側と反対側の端部同士がアーム部12を介して接続されている。また、支持部13は、台座部11よりも奥行方向の前方に張り出している。つまり、支持部13の前端は、台座部11の前端よりも前方に位置している。よって、支持部13の少なくとも一部は、媒体Sが台座部11に突き当てるようにして載置面2に載置されると、その媒体Sと鉛直方向において互いに対向する。 The pedestal 11 and the support 13 are opposed to each other in the vertical direction, and the ends opposite to the medium S side in the depth direction are connected via the arm 12. Further, the support portion 13 protrudes forward in the depth direction from the pedestal portion 11. That is, the front end of the support portion 13 is located in front of the front end of the pedestal portion 11. Therefore, at least a part of the support part 13 faces the medium S in the vertical direction when the medium S is placed on the placement surface 2 so as to abut against the pedestal part 11.
 カバー部14は、光学ユニット20の回転軸Xに設けられており、支持部13および光学ユニット20をカバーしている。カバー部14は、支持部13および光学ユニット20を鉛直方向上方から覆っており、支持部13および光学ユニット20を含む本体上部の外殻を形成している。なお、カバー部14は、支持部13と一体に形成されていてもよい。すなわち、光学ユニット20は、カバー部14によって回転軸X周りに回転自在に支持されていてもよい。 The cover unit 14 is provided on the rotation axis X of the optical unit 20 and covers the support unit 13 and the optical unit 20. The cover part 14 covers the support part 13 and the optical unit 20 from above in the vertical direction, and forms an outer shell of the upper part of the main body including the support part 13 and the optical unit 20. Note that the cover portion 14 may be formed integrally with the support portion 13. That is, the optical unit 20 may be supported by the cover portion 14 so as to be rotatable around the rotation axis X.
 光学ユニット20は、本体10に対して回転軸X周りに回転することができる回転ユニットである。回転軸Xは、幅方向、すなわち前面11aと平行な方向に水平に延在している。つまり、回転軸Xは、鉛直軸Vと直交している。鉛直軸Vは、載置面2の法線と一致する。光学ユニット20は、ライン光源21a、ラインセンサ22a、本体23および軸部24を有する。軸部24は、円柱形状であり、軸受等を介して支持部13によって回転軸X周りに回転自在に支持されている。軸部24が支持部13によって支持されていることから、回転軸Xは、アーム部12の鉛直方向上方端部から台座部11に対して載置側に突出した位置にある。本体23は、軸部24と接続されており、軸部24から回転軸Xの半径方向外側に延在している。本体23は、例えば、軸方向視における断面形状が矩形の中空の部材である。ライン光源21aおよびラインセンサ22aは、本体23内に配置されている。 The optical unit 20 is a rotation unit that can rotate around the rotation axis X with respect to the main body 10. The rotation axis X extends horizontally in the width direction, that is, the direction parallel to the front surface 11a. That is, the rotation axis X is orthogonal to the vertical axis V. The vertical axis V coincides with the normal line of the placement surface 2. The optical unit 20 includes a line light source 21a, a line sensor 22a, a main body 23, and a shaft portion 24. The shaft portion 24 has a cylindrical shape, and is supported rotatably around the rotation axis X by the support portion 13 via a bearing or the like. Since the shaft portion 24 is supported by the support portion 13, the rotation axis X is at a position protruding from the upper end in the vertical direction of the arm portion 12 to the mounting side with respect to the pedestal portion 11. The main body 23 is connected to the shaft portion 24 and extends from the shaft portion 24 outward in the radial direction of the rotation axis X. The main body 23 is, for example, a hollow member having a rectangular cross-sectional shape when viewed in the axial direction. The line light source 21 a and the line sensor 22 a are disposed in the main body 23.
 支持部13には、図示しない駆動部が配置されている。駆動部は、光学ユニット20を回転軸X周りに回転させるものである。駆動部は、例えば、電動式のモータと、モータの回転軸と光学ユニット20とを接続する伝達部とを有する。モータは、例えば、ステッピングモータであり、光学ユニット20の回転角度を精度良く制御することができる。また、伝達部は、例えば、プーリ、ベルト、ウォームギア等の組合せからなり、モータの回転を減速して光学ユニット20に伝達する。 The drive unit (not shown) is disposed on the support unit 13. The drive unit rotates the optical unit 20 around the rotation axis X. The drive unit includes, for example, an electric motor, and a transmission unit that connects the rotation shaft of the motor and the optical unit 20. The motor is, for example, a stepping motor, and can accurately control the rotation angle of the optical unit 20. Further, the transmission unit includes, for example, a combination of a pulley, a belt, a worm gear, and the like, and reduces the rotation of the motor and transmits it to the optical unit 20.
 ライン光源21aは、LED等の発光部を有しており、媒体Sに対して鉛直方向上方から光を照射することができる。 The line light source 21a has a light emitting unit such as an LED, and can irradiate the medium S with light from above in the vertical direction.
 ラインセンサ22aは、例えば、CCD(Charge Coupled Device)を有するイメージセンサであり、載置面2に載置された媒体Sを撮像することができる。具体的には、ラインセンサ22aは、読取対象ラインL上の読取画像によって反射されてラインセンサ22aに入射された反射光を光電変換により電子データに変換して読取画像の画像データを生成する。ラインセンサ22aは、読取レンズおよびCCD27を有する。CCD27は、画像を読み取る複数の画素が主走査方向に配列されたイメージセンサである。CCD27は、主走査方向が回転軸Xと平行な状態で光学ユニット20に配置されている。読取レンズは、媒体Sからの反射光をCCD27の受光面27aに結像させる。CCD27の各画素は、読取レンズによって受光面27aに結像した読取画像の光を受光し、受光した光に対応する電気信号を出力する。CCD27は、媒体Sの読取対象ラインL上の画像を読み取り、主走査方向のライン画像データを生成することができる。なお、CCD27のライン数は、単数であっても複数であってもよい。 The line sensor 22a is an image sensor having a CCD (Charge Coupled Device), for example, and can image the medium S placed on the placement surface 2. Specifically, the line sensor 22a converts the reflected light reflected by the read image on the read target line L and incident on the line sensor 22a into electronic data by photoelectric conversion, and generates image data of the read image. The line sensor 22 a has a reading lens and a CCD 27. The CCD 27 is an image sensor in which a plurality of pixels for reading an image are arranged in the main scanning direction. The CCD 27 is disposed in the optical unit 20 with the main scanning direction being parallel to the rotation axis X. The reading lens forms an image of the reflected light from the medium S on the light receiving surface 27 a of the CCD 27. Each pixel of the CCD 27 receives the light of the read image formed on the light receiving surface 27a by the reading lens, and outputs an electrical signal corresponding to the received light. The CCD 27 can read an image on the reading target line L of the medium S and generate line image data in the main scanning direction. The number of lines of the CCD 27 may be singular or plural.
 ライン光源21aは、媒体Sにおける読取対象ラインL上の画像、すなわち読取画像に対して光を照射する。 The line light source 21a irradiates the image on the reading target line L on the medium S, that is, the read image with light.
 本実施形態のオーバーヘッド型画像読取装置100では、ラインセンサ22aが光学ユニット20と共に回転し、回転軸Xを中心とする円周上を回転軸X周りに回転しながら媒体Sを走査・撮像する。これにより、ラインセンサ22aと読取対象位置である読取対象ラインLとの光路長の変動が抑制される。 In the overhead image reading apparatus 100 of the present embodiment, the line sensor 22a rotates together with the optical unit 20, and scans and images the medium S while rotating around the rotation axis X about the rotation axis X. Thereby, the fluctuation | variation of the optical path length with the line sensor 22a and the reading object line L which is a reading object position is suppressed.
 図3には、読取可能範囲における最も後方側を撮像するときの回転位置にある光学ユニット20が示されている。以下、光学ユニット20のこの回転位置を「最後方読取位置」とも記載する。最後方読取位置の光学ユニット20は、台座部11の前方端に突き当てられた媒体Sの一辺を読み取ることができる。最後方読取位置は、画像の読み取りを開始するときの光学ユニット20の回転位置である。 FIG. 3 shows the optical unit 20 in the rotational position when imaging the rearmost side in the readable range. Hereinafter, this rotational position of the optical unit 20 is also referred to as a “last reading position”. The optical unit 20 at the rearmost reading position can read one side of the medium S abutted against the front end of the pedestal 11. The rearmost reading position is a rotational position of the optical unit 20 at the start of image reading.
 最後方読取位置では、光学ユニット20の本体23は、軸部24よりも後方に位置している。最後方読取位置の光学ユニット20は、回転軸Xからほぼ水平な方向に延在しており、詳しくは、回転軸Xから半径方向に離れるに従って鉛直方向下側に向かうようにわずかに傾斜している。つまり本体23は、半径方向の外側の部分が内側の部分よりも副走査方向の後方かつ鉛直方向下方に位置するように傾斜した姿勢である。最後方読取位置は、画像の読み取りを行わないときの待機位置でもある。すなわち、光学ユニット20は、画像の読み取りを行わないときには最後方読取位置に置かれて画像読み取り開始の指令がなされるまで待機する。なお、待機位置は、最後方読取位置とは異なる位置であってもよい。例えば、待機位置は、最後方読取位置よりも本体23が鉛直方向上方にある位置、言い換えると最後方読取位置よりも矢印Y1方向と反対方向まで回転した位置とされてもよい。 In the last reading position, the main body 23 of the optical unit 20 is located behind the shaft portion 24. The optical unit 20 at the rearmost reading position extends in a substantially horizontal direction from the rotation axis X. Specifically, the optical unit 20 is slightly inclined so as to be directed downward in the vertical direction as the distance from the rotation axis X increases in the radial direction. Yes. That is, the main body 23 is inclined so that the radially outer portion is positioned rearward in the sub-scanning direction and vertically below the inner portion. The last reading position is also a standby position when the image is not read. That is, when the image is not read, the optical unit 20 is placed at the last reading position and waits until an image reading start command is issued. Note that the standby position may be a position different from the last reading position. For example, the standby position may be a position where the main body 23 is vertically above the last reading position, in other words, a position rotated to a direction opposite to the arrow Y1 direction from the last reading position.
 図3に示すように、光学ユニット20が媒体Sの読み取りを開始する位置にあるときのライン光源21aおよびラインセンサ22aは、それぞれの光軸方向において載置面2と対向している。言い換えると、最後方読取位置にある状態のライン光源21aおよびラインセンサ22aは、それぞれ載置面2に光を照射可能な状態および載置面2の画像を読取可能な状態である。図3に示すように、ライン光源21aの光軸A1およびラインセンサ22aの光軸A2は、いずれも回転軸Xと交差しておらず、軸方向視において回転軸Xから離間している。光学ユニット20が最後方読取位置にある場合の光軸A1,A2は、いずれも鉛直方向下方へ向かうに従い前方へ向かう傾斜を有している。軸方向視において、光軸A1,A2は、回転軸Xから受光面27aを通って半径方向外側に延びる仮想線Wに対して交差している。本実施形態では、光軸A1,A2は、上記仮想線Wに対して直交している。また、軸方向視において、ライン光源21aおよびラインセンサ22aは、回転軸Xから半径方向外側に延在する同一の仮想線上、例えば仮想線W上に配置されている。なお、ライン光源21aおよびラインセンサ22aは、受光面27aを通る仮想線Wとは半径方向の異なる方向に延在する共通の仮想線上に配置されてもよい。 As shown in FIG. 3, the line light source 21a and the line sensor 22a when the optical unit 20 is at a position where the reading of the medium S starts are opposed to the placement surface 2 in the respective optical axis directions. In other words, the line light source 21a and the line sensor 22a in the state of being in the rearmost reading position are in a state in which light can be irradiated on the mounting surface 2 and an image on the mounting surface 2 can be read. As shown in FIG. 3, neither the optical axis A1 of the line light source 21a nor the optical axis A2 of the line sensor 22a intersects the rotation axis X, and is separated from the rotation axis X when viewed in the axial direction. The optical axes A1 and A2 when the optical unit 20 is in the rearmost reading position have an inclination that goes forward as it goes downward in the vertical direction. When viewed in the axial direction, the optical axes A1 and A2 intersect a virtual line W extending from the rotation axis X through the light receiving surface 27a to the outside in the radial direction. In the present embodiment, the optical axes A1 and A2 are orthogonal to the virtual line W. Further, when viewed in the axial direction, the line light source 21a and the line sensor 22a are arranged on the same virtual line extending from the rotation axis X in the radial direction, for example, on the virtual line W. The line light source 21a and the line sensor 22a may be disposed on a common virtual line extending in a different radial direction from the virtual line W passing through the light receiving surface 27a.
 最後方読取位置から媒体Sの読み取りを開始すると、駆動部は、光学ユニット20を矢印Y1方向に回転させる。言い換えると、駆動部は、光学ユニット20の本体23が鉛直方向下方に移動し、かつ前方に移動するように光学ユニット20を回転させる。これにより、ラインセンサ22aによる読取対象位置が前方へ移動し、後方から前方へ順次媒体Sを読み取ることができる。光学ユニット20の回転によって、ラインセンサ22aが鉛直方向下方に移動することで、ラインセンサ22aと読取対象ラインLとの鉛直方向の距離、すなわち光路長の鉛直方向成分が減少する。一方、光学ユニット20の回転によって、鉛直軸Vに対するラインセンサ22aの光軸A2の傾斜角度θ2が増加し、ラインセンサ22aと読取対象ラインLとの副走査方向の距離、すなわち光路長の副走査方向成分が増加する。このように、光学ユニット20の回転に伴って光路長の鉛直方向成分が減少し、かつ副走査方向成分が増加することで、媒体Sを走査する間の光路長の変動が抑制される。 When the reading of the medium S is started from the last reading position, the driving unit rotates the optical unit 20 in the arrow Y1 direction. In other words, the drive unit rotates the optical unit 20 so that the main body 23 of the optical unit 20 moves downward in the vertical direction and moves forward. As a result, the position to be read by the line sensor 22a moves forward, and the medium S can be read sequentially from the rear to the front. By the rotation of the optical unit 20, the line sensor 22a moves downward in the vertical direction, whereby the vertical distance between the line sensor 22a and the reading target line L, that is, the vertical component of the optical path length is reduced. On the other hand, the rotation angle of the optical axis A2 of the line sensor 22a with respect to the vertical axis V increases due to the rotation of the optical unit 20, and the distance between the line sensor 22a and the line L to be read in the sub-scanning direction, that is, the optical path length sub-scanning. The direction component increases. As described above, as the optical unit 20 rotates, the vertical component of the optical path length decreases and the sub-scanning direction component increases, so that fluctuations in the optical path length while scanning the medium S are suppressed.
 更に、図4に示すように、オーバーヘッド型画像読取装置100は、概略的に、光源部21と画像読取部22と制御部102とを少なくとも備えて構成されてもよい。ここで、光源部21は、ライン光源21aおよび/またはエリア光源21bを含んでいてもよい。また、光源部21は、照射位置を変化させて、位相を変化させたパターン光を媒体に照射してもよい。また、光源部21は、更に、媒体に均一な光を照射してもよい。すなわち、光源部21(例えば、エリア光源21b)は、通常読取時の均一な光源を照射する機能と3次元形状を復元処理する為のパターン光とを照射する機能を有していてもよい。また、光源部21(例えば、ライン光源21a)は、レーザ光源等であり、ライン光としてレーザ光を照射してもよい。 Furthermore, as shown in FIG. 4, the overhead image reading apparatus 100 may be roughly configured to include at least a light source unit 21, an image reading unit 22, and a control unit 102. Here, the light source unit 21 may include a line light source 21a and / or an area light source 21b. Further, the light source unit 21 may irradiate the medium with the pattern light whose phase is changed by changing the irradiation position. The light source unit 21 may further irradiate the medium with uniform light. That is, the light source unit 21 (for example, the area light source 21b) may have a function of irradiating a uniform light source during normal reading and a function of irradiating pattern light for restoring the three-dimensional shape. The light source unit 21 (for example, the line light source 21a) is a laser light source or the like, and may emit laser light as line light.
 また、画像読取部22は、ラインセンサ22aおよび/またはエリアセンサ22bを含んでいてもよい。また、オーバーヘッド型画像読取装置100は、更に、記憶部106(図示せず)と入出力部112(図示せず)とを備えていてもよい。ここで、これら各部は任意の通信路を介して通信可能に接続されている。 Further, the image reading unit 22 may include a line sensor 22a and / or an area sensor 22b. The overhead image reading apparatus 100 may further include a storage unit 106 (not shown) and an input / output unit 112 (not shown). Here, these units are communicably connected via an arbitrary communication path.
 また、オーバーヘッド型画像読取装置100は、更に、入出力インターフェース部(図示せず)を備えていてもよく、光源部21および画像読取部22等を、制御部102と接続してもよい。ここで、入出力インターフェース部は、入出力部112を、制御部102と接続してもよい。また、オーバーヘッド型画像読取装置100は、更に、通信インターフェース部(図示せず)を備えていてもよく、通信インターフェース部を介してネットワークを経由し、外部装置(例えば、PC等)と相互に通信可能に接続されていてもよい。通信インターフェース部は、通信回線および/または電話回線等に接続されるアンテナおよび/またはルータ等の通信装置に接続されるインターフェースでありオーバーヘッド型画像読取装置100とネットワークとの間における通信制御を行う機能を有していてもよい。 Further, the overhead image reading apparatus 100 may further include an input / output interface unit (not shown), and the light source unit 21 and the image reading unit 22 may be connected to the control unit 102. Here, the input / output interface unit may connect the input / output unit 112 to the control unit 102. The overhead image reading apparatus 100 may further include a communication interface unit (not shown), and communicates with an external device (for example, a PC) via the communication interface unit via a network. It may be connected as possible. The communication interface unit is an interface connected to a communication device such as an antenna and / or a router connected to a communication line and / or a telephone line, etc., and functions to control communication between the overhead image reading device 100 and the network. You may have.
 ここで、記憶部106は、各種のデータベース、テーブル、および/または、ファイルなどを格納する。記憶部106は、ストレージ手段であり、例えばRAM・ROM等のメモリ、ハードディスクのような固定ディスク装置、フレキシブルディスク、および/または、光ディスク等を用いることができる。記憶部106には、CPU(Central Processing Unit)に命令を与え各種処理を行うためのコンピュータプログラム等が記録されていてもよい。ここで、記憶部106は、画像等を記憶してもよい。 Here, the storage unit 106 stores various databases, tables, and / or files. The storage unit 106 is a storage unit, and for example, a memory such as a RAM / ROM, a fixed disk device such as a hard disk, a flexible disk, and / or an optical disk can be used. The storage unit 106 may store a computer program or the like for giving a command to a CPU (Central Processing Unit) and performing various processes. Here, the storage unit 106 may store an image or the like.
 また、入出力部112は、データの入出力(I/O)を行う。ここで、入出力部112は、例えば、キー入力部、タッチパネル、コントロールパッド(例えば、タッチパッド、および、ゲームパッド等)、マウス、キーボード、および、マイク等であってもよい。また、入出力部112は、アプリケーション等の表示画面を表示する表示部(例えば、液晶または有機EL等から構成されるディスプレイ、モニタ、および、タッチパネル等)であってもよい。また、入出力部112は、音声情報を音声として出力する音声出力部(例えば、スピーカ等)であってもよい。 Also, the input / output unit 112 performs data input / output (I / O). Here, the input / output unit 112 may be, for example, a key input unit, a touch panel, a control pad (for example, a touch pad and a game pad), a mouse, a keyboard, and a microphone. The input / output unit 112 may be a display unit that displays a display screen of an application or the like (for example, a display, a monitor, a touch panel, or the like including a liquid crystal or an organic EL). The input / output unit 112 may be an audio output unit (for example, a speaker) that outputs audio information as audio.
 また、制御部102は、オーバーヘッド型画像読取装置100を統括的に制御するCPU等からなる。制御部102は、制御プログラムと各種の処理手順等を規定したプログラムと所要データとを格納するための内部メモリを有し、これらプログラムに基づいて種々の処理を実行するための情報処理を行ってもよい。ここで、図4を参照して、本実施形態に係る制御部102の構成の一例について説明する。 The control unit 102 includes a CPU that controls the overhead image reading apparatus 100 in an integrated manner. The control unit 102 has an internal memory for storing a control program, a program defining various processing procedures, and necessary data, and performs information processing for executing various processes based on these programs. Also good. Here, an example of the configuration of the control unit 102 according to the present embodiment will be described with reference to FIG.
 図4に示すように、制御部102は、概略的に、画像制御部102a、前後判定部102e、3次元情報取得部102f、および、歪み補正部102gを少なくとも備えて構成される。また、これら各部は任意の通信路を介して通信可能に接続されている。 As shown in FIG. 4, the control unit 102 is roughly configured to include at least an image control unit 102a, a front / rear determination unit 102e, a three-dimensional information acquisition unit 102f, and a distortion correction unit 102g. Further, these units are communicably connected via an arbitrary communication path.
 画像制御部102aは、光源部21と画像読取部22との同期制御を実施、および/または、画像処理を制御する。すなわち、画像制御部102aは、画像読取部22を制御して、画像を取得してもよい。例えば、画像制御部102aは、画像読取部22を制御して、モータを回転駆動させ、ラインセンサ22aにより光電変換され、A/Dコンバータによりアナログデジタル変換されたラインごとの一次元画像を合成することにより、2次元の画像を取得して記憶部106に格納する処理を制御してもよい。 The image control unit 102a performs synchronization control between the light source unit 21 and the image reading unit 22, and / or controls image processing. That is, the image control unit 102a may acquire an image by controlling the image reading unit 22. For example, the image control unit 102a controls the image reading unit 22 to rotate and drive the motor, and synthesizes a one-dimensional image for each line that is photoelectrically converted by the line sensor 22a and analog-digital converted by the A / D converter. Thus, the process of acquiring a two-dimensional image and storing it in the storage unit 106 may be controlled.
 また、例えば、画像制御部102aは、画像読取部22を制御して、エリアセンサ22bにより光電変換され、A/Dコンバータによりアナログデジタル変換された画像を取得して記憶部106に格納する処理を制御してもよい。すなわち、画像制御部102aは、エリアセンサ22bでモーション撮影を行って連続画像(動画像)を取得する機能を有していてもよい。ここで、画像制御部102aは、機能概念的に、画像取得部102bとアラーム通知部102cとクロップ部102dとを備える。 In addition, for example, the image control unit 102a controls the image reading unit 22, acquires an image photoelectrically converted by the area sensor 22b and analog-digital converted by the A / D converter, and stores the image in the storage unit 106. You may control. That is, the image control unit 102a may have a function of acquiring a continuous image (moving image) by performing motion shooting with the area sensor 22b. Here, the image control unit 102a includes an image acquisition unit 102b, an alarm notification unit 102c, and a crop unit 102d in terms of functional concept.
 画像取得部102bは、媒体を画像読取部22にて読み取らせ、画像を取得する。ここで、画像取得部102bは、媒体を画像読取部22にて読み取らせた読取画像、および、照射位置を変化させた光を光源部21から照射された媒体を画像読取部22にて読み取らせ、明るさを変化させたパターン画像を取得する。ここで、パターン画像は、明るさの位相パターンを変化させたものであってもよい。例えば、パターン画像は、正弦波に基づいて、明るさの位相パターンを変化させた画像であってもよい。また、読取画像は、媒体全体を読み取らせた画像であってもよい。 The image acquisition unit 102b causes the image reading unit 22 to read the medium and acquires an image. Here, the image acquisition unit 102b causes the image reading unit 22 to read the read image obtained by reading the medium by the image reading unit 22 and the medium irradiated from the light source unit 21 by changing the irradiation position. A pattern image with varying brightness is acquired. Here, the pattern image may be obtained by changing the phase pattern of brightness. For example, the pattern image may be an image in which the phase pattern of brightness is changed based on a sine wave. The read image may be an image obtained by reading the entire medium.
 また、画像取得部102bは、媒体を画像読取部22にて読み取らせた読取画像、および、パターン光を光源部21から照射された媒体を画像読取部22にて読み取らせ、明るさの位相パターンを変化させたパターン画像を取得してもよい。また、画像取得部102bは、パターン画像の取得前後に、媒体を画像読取部22にて読取らせ、二つの読取画像を前画像および後画像として取得してもよい。また、画像取得部102bは、均一な光を光源部21から照射された媒体を画像読取部22にて読み取らせた読取画像を取得してもよい。また、画像取得部102bは、画像等を記憶部106に格納してもよい。 Further, the image acquisition unit 102b causes the image reading unit 22 to read the read image obtained by reading the medium with the image reading unit 22 and the medium irradiated with the pattern light from the light source unit 21, and the phase pattern of brightness. A pattern image obtained by changing the pattern may be acquired. Further, the image acquisition unit 102b may cause the image reading unit 22 to read the medium before and after acquiring the pattern image, and acquire the two read images as a front image and a back image. The image acquisition unit 102b may acquire a read image obtained by causing the image reading unit 22 to read a medium irradiated with uniform light from the light source unit 21. The image acquisition unit 102b may store an image or the like in the storage unit 106.
 アラーム通知部102cは、前後判定部102eにより位置変化が有ると判定された場合、再度画像読取を促すためのアラームを通知する。 The alarm notification unit 102c notifies an alarm for prompting image reading again when the front / rear determination unit 102e determines that there is a position change.
 クロップ部102dは、読取画像における媒体画像のクロップ処理を行う。 The crop unit 102d performs a crop process on the medium image in the read image.
 前後判定部102eは、前画像における媒体画像と、後画像における媒体画像と、の位置変化を判定する。ここで、前後判定部102eは、前画像における媒体画像のエッジ座標と、後画像における媒体画像のエッジ座標と、に基づいて、位置変化を判定してもよい。 The front-rear determination unit 102e determines a change in position between the medium image in the previous image and the medium image in the rear image. Here, the back-and-forth determination unit 102e may determine the position change based on the edge coordinates of the medium image in the previous image and the edge coordinates of the medium image in the subsequent image.
 また、前後判定部102eは、前画像における媒体画像のエッジ座標と、後画像における媒体画像のエッジ座標と、の間で差異を示す座標数に基づいて、位置変化を判定してもよい。なお、前後判定部102eは、媒体の奥行情報の読取処理の前後に取得された画像(前画像および後画像)を用いて、奥行情報の妥当性を判定する奥行情報妥当性判定部として機能してもよい。 Further, the front / rear determination unit 102e may determine the position change based on the number of coordinates indicating a difference between the edge coordinates of the medium image in the previous image and the edge coordinates of the medium image in the subsequent image. The front-rear determination unit 102e functions as a depth information validity determination unit that determines the validity of the depth information using images acquired before and after the medium depth information reading process (the front image and the rear image). May be.
 3次元情報取得部102fは、複数の異なるパターン画像に基づいて、媒体の3次元情報を取得する。ここで、3次元情報取得部102fは、前後判定部102eにより位置変化が無いと判定された場合、複数の異なるパターン画像に基づいて、媒体の3次元情報を取得してもよい。なお、3次元情報取得部102fは、媒体の奥行情報を演算する奥行情報演算部として機能してもよい。 The three-dimensional information acquisition unit 102f acquires three-dimensional information on the medium based on a plurality of different pattern images. Here, the three-dimensional information acquisition unit 102f may acquire the three-dimensional information of the medium based on a plurality of different pattern images when the front-rear determination unit 102e determines that there is no position change. The three-dimensional information acquisition unit 102f may function as a depth information calculation unit that calculates the depth information of the medium.
 歪み補正部102gは、3次元情報に基づいて、読取画像の歪みを補正する。ここで、歪み補正部102gは、3次元情報に基づいて、媒体の3次元形状の平坦化を行い、読取画像を用いて色情報をマッピングすることで、読取画像の歪みを補正してもよい。また、歪み補正部102gは、3次元情報に基づいて、媒体の3次元形状の平坦化を行い、前画像および/または後画像を用いて色情報をマッピングすることで、読取画像の歪みを補正してもよい。また、歪み補正部102gは、3次元情報に基づいて、媒体画像の歪みを補正してもよい。 The distortion correction unit 102g corrects the distortion of the read image based on the three-dimensional information. Here, the distortion correction unit 102g may correct the distortion of the read image by flattening the three-dimensional shape of the medium based on the three-dimensional information and mapping the color information using the read image. . Further, the distortion correction unit 102g flattens the three-dimensional shape of the medium based on the three-dimensional information, and corrects the distortion of the read image by mapping the color information using the previous image and / or the subsequent image. May be. The distortion correction unit 102g may correct the distortion of the medium image based on the three-dimensional information.
 また、歪み補正部102gは、画像の歪みを補正し、補正画像を取得してもよい。ここで、歪み補正部102gは、画像を、射影変換(例えば、正面方向から撮影したように射影変換)することで、画像の歪みを補正してもよい。また、補正は、幾何補正であってもよい。また、歪み補正部102gは、補正画像を記憶部106に格納してもよい。 Further, the distortion correction unit 102g may correct the distortion of the image and obtain a corrected image. Here, the distortion correction unit 102g may correct the distortion of the image by performing projective transformation (for example, projective transformation as if taken from the front direction). Further, the correction may be geometric correction. The distortion correction unit 102g may store the corrected image in the storage unit 106.
 なお、制御部102は、画像を入出力部112を介して出力させてもよい。ここで、制御部102は、画像(例えば、読取画像、パターン画像、前画像、後画像、媒体画像、または、補正画像等)を入出力部112に表示させてもよい。また、制御部102は、画像読取部22にて読み取られた画像等を入出力部112に表示させてもよい。 Note that the control unit 102 may output the image via the input / output unit 112. Here, the control unit 102 may cause the input / output unit 112 to display an image (for example, a read image, a pattern image, a previous image, a subsequent image, a medium image, or a corrected image). The control unit 102 may cause the input / output unit 112 to display an image read by the image reading unit 22.
 なお、本実施形態におけるオーバーヘッド型画像読取装置100は、更に、媒体(例えば、綴じ媒体等)の積載台を備えていてもよい。また、画像読取部22は、積載台の上部に配置され、積載台を撮像してもよい。また、制御部102は、画像読取部22を制御してもよい。 Note that the overhead image reading apparatus 100 according to the present embodiment may further include a loading platform for a medium (for example, a binding medium). Further, the image reading unit 22 may be arranged on the upper part of the loading table and may image the loading table. Further, the control unit 102 may control the image reading unit 22.
[2.本実施形態の処理]
 上述した構成のオーバーヘッド型画像読取装置100で実行される処理の一例について、図5乃至図19を参照して説明する。
[2. Processing of this embodiment]
An example of processing executed by the overhead image reading apparatus 100 having the above-described configuration will be described with reference to FIGS.
[2-1.処理(1)]
 本実施形態のオーバーヘッド型画像読取装置100における処理の一例について、図5乃至図13を参照して説明する。図5は、本実施形態のオーバーヘッド型画像読取装置100における処理の一例を示すフローチャートである。
[2-1. Processing (1)]
An example of processing in the overhead image reading apparatus 100 of the present embodiment will be described with reference to FIGS. FIG. 5 is a flowchart illustrating an example of processing in the overhead image reading apparatus 100 of the present embodiment.
 図5に示すように、まず、画像取得部102bは、パターン画像の取得前に、エリア光源21bにより均一な光を照射された媒体をエリアセンサ22bにて読み取らせ(撮影させ)、媒体全体を読み取らせた読取画像(前画像)を取得する(ステップSA-1)。 As shown in FIG. 5, first, the image acquisition unit 102b causes the area sensor 22b to read (capture) the medium irradiated with uniform light by the area light source 21b before acquiring the pattern image. A read image (previous image) that has been read is acquired (step SA-1).
 そして、画像制御部102aは、ライン光源21aと画像読取部22とを制御し、ラインセンサ22aおよびエリアセンサ22bにて、照射位置を変化させた光をライン光源21aから照射された媒体の読み取り(スキャン)を開始させる(ステップSA-2)。 Then, the image control unit 102a controls the line light source 21a and the image reading unit 22, and the line sensor 22a and the area sensor 22b read the medium irradiated with light from the line light source 21a with the irradiation position changed ( Scan) is started (step SA-2).
 そして、画像取得部102bは、媒体をエリアセンサ22bにて読み取らせ、媒体上の明るさを変化させたパターン画像(奥行情報用画像)を取得する(ステップSA-3)。 Then, the image acquisition unit 102b causes the area sensor 22b to read the medium, and acquires a pattern image (depth information image) in which the brightness on the medium is changed (step SA-3).
 同時に、画像取得部102bは、媒体をラインセンサ22aにて読み取らせ、媒体全体を読み取らせた読取画像(マッピング用画像)を取得する(ステップSA-4)。 At the same time, the image acquisition unit 102b causes the line sensor 22a to read the medium, and acquires a read image (mapping image) obtained by reading the entire medium (step SA-4).
 ここで、図6乃至図9を参照して、本実施形態における画像取得の一例について説明する。図6乃至図9は、本実施形態における媒体へのライン光照射の一例を示す図である。 Here, an example of image acquisition in the present embodiment will be described with reference to FIGS. 6 to 9 are diagrams illustrating an example of line light irradiation on a medium according to the present embodiment.
 図6に示すように、画像取得部102bは、ライン光源21aからのライン光が照射された媒体上の位置(ライン光照射位置)と照射されていない媒体上の位置との境界(図中の点線)を含む媒体領域(媒体上で明暗変化する領域)を、エリアセンサ22bにて読み取らせ、媒体の3次元形状を取得するためのエリア画像を取得する。 As shown in FIG. 6, the image acquisition unit 102b has a boundary (in the drawing) between a position on the medium irradiated with the line light from the line light source 21a (line light irradiation position) and a position on the medium not irradiated. A medium region including a dotted line) (a region that changes in brightness on the medium) is read by the area sensor 22b, and an area image for acquiring a three-dimensional shape of the medium is acquired.
 そして、図7に示すように、画像取得部102bは、ライン光源21aから照射されるライン光の照射位置が媒体上で変化する間、連続的に、媒体上で明暗変化する領域をエリアセンサ22bにて読み取らせ、媒体の3次元形状を取得するためのエリア画像を取得する。このように、本実施形態においては、通常読取位置より奥の明暗変化する部分のエリア画像を使用することで、3次元形状復元処理を先に開始することができる。 Then, as shown in FIG. 7, the image acquisition unit 102b continuously displays areas that change in brightness on the medium while the irradiation position of the line light emitted from the line light source 21a changes on the medium. To obtain an area image for acquiring the three-dimensional shape of the medium. As described above, in the present embodiment, the three-dimensional shape restoration process can be started first by using the area image of the portion where the contrast changes from the normal reading position.
 また、本実施形態において、図8に示すように、ライン光源21aは、媒体上にレーザ光を移動させながら照射してもよい。そして、図8に示すように、エリアセンサ22bは、レーザ光が照射された媒体上の位置と照射されていない媒体上の位置との境界を含む媒体領域を読み取り、図9に示すような媒体全体の高さ情報を取得するためのエリア画像を取得してもよい。このように、本実施形態において、ライン光を移動させた画像を用いることで密な3次元形状を取得することができる。 Further, in the present embodiment, as shown in FIG. 8, the line light source 21a may irradiate while moving the laser beam on the medium. Then, as shown in FIG. 8, the area sensor 22b reads the medium area including the boundary between the position on the medium irradiated with the laser light and the position on the medium not irradiated, and the medium as shown in FIG. You may acquire the area image for acquiring the whole height information. Thus, in this embodiment, a dense three-dimensional shape can be acquired by using an image in which line light is moved.
 一方、図6に示すように、画像取得部102bは、ライン光源21aからのライン光が照射された媒体上の位置(図中の実線:通常読取位置)を、ラインセンサ22aにて読み取らせたライン画像を取得する。そして、図7に示すように、画像取得部102bは、ライン光源21aから照射されるライン光の照射位置が媒体上で変化する間、連続的に、通常読取位置をラインセンサ22aにて読み取らせ、媒体全体を読み取らせた読取画像(2次元画像)を取得する。 On the other hand, as shown in FIG. 6, the image acquisition unit 102b causes the line sensor 22a to read the position on the medium irradiated with the line light from the line light source 21a (solid line in the figure: normal reading position). Get a line image. Then, as shown in FIG. 7, the image acquisition unit 102b causes the line sensor 22a to continuously read the normal reading position while the irradiation position of the line light irradiated from the line light source 21a changes on the medium. Then, a read image (two-dimensional image) obtained by reading the entire medium is acquired.
 図5に戻り、画像取得部102bは、パターン画像の取得後に、エリア光源21bにより均一な光を照射された媒体をエリアセンサ22bにて読み取らせ(撮影させ)、媒体全体を読み取らせた読取画像(後画像)を取得する(ステップSA-5)。 Returning to FIG. 5, the image acquisition unit 102 b causes the area sensor 22 b to read (capture) the medium irradiated with uniform light by the area light source 21 b after acquiring the pattern image, and read the entire medium. (After image) is acquired (step SA-5).
 そして、前後判定部102eは、画像および奥行情報の妥当性があるか否か判定する(ステップSA-6)。すなわち、前後判定部102eは、マッピング用画像および奥行情報用画像が歪み補正処理に用いる妥当性があるか否か判定している。例えば、前後判定部102eは、歪み補正に適している画像および解像度の高い3次元形状が取得できているか否かを判断してもよい。 Then, the front / rear determination unit 102e determines whether the image and the depth information are valid (step SA-6). That is, the front / rear determination unit 102e determines whether the mapping image and the depth information image are valid for use in the distortion correction process. For example, the front / rear determination unit 102e may determine whether an image suitable for distortion correction and a high-resolution three-dimensional shape can be acquired.
 ここで、図10を参照して、本実施形態における画像および奥行情報の妥当性判定処理の一例について説明する。図10は、本実施形態における画像および奥行情報の妥当性判定処理の一例を示すフローチャートである。 Here, with reference to FIG. 10, an example of the validity determination process of the image and depth information in the present embodiment will be described. FIG. 10 is a flowchart illustrating an example of the image and depth information validity determination processing in the present embodiment.
 まず、ステップSA-5の処理に続いて、前後判定部102eは、画像取得部102bにより取得された前画像における媒体のエッジ座標(画素)の検出を行う(ステップSB-1)。 First, following the processing in step SA-5, the front-rear determination unit 102e detects the edge coordinates (pixels) of the medium in the previous image acquired by the image acquisition unit 102b (step SB-1).
 ここで、図11を参照して、本実施形態におけるエッジ検出処理の一例について説明する。図11は、本実施形態におけるエッジ検出処理の一例を示す図である。 Here, an example of edge detection processing in the present embodiment will be described with reference to FIG. FIG. 11 is a diagram illustrating an example of edge detection processing in the present embodiment.
 図11に示すように、本実施形態においては、読取画像の輝度情報に基づいて、読取画像の外縁から所定の(例えば、大きな)輝度変化をする座標(画素)を検出することで、媒体のエッジ座標(画素)の検出を行ってもよい。例えば、本実施形態においては、読取画像の外縁から直線的な輝度変化をする座標群を検出することで、本等の媒体のエッジ座標(画素)の検出を行ってもよい。 As shown in FIG. 11, in the present embodiment, based on the luminance information of the read image, coordinates (pixels) that change a predetermined (for example, large) luminance from the outer edge of the read image are detected, so that Edge coordinates (pixels) may be detected. For example, in this embodiment, edge coordinates (pixels) of a medium such as a book may be detected by detecting a group of coordinates that change linearly from the outer edge of the read image.
 図10に戻り、前後判定部102eは、画像取得部102bにより取得された後画像における媒体のエッジ座標(画素)の検出を行う(ステップSB-2)。 Returning to FIG. 10, the front-rear determination unit 102e detects the edge coordinates (pixels) of the medium in the post-image acquired by the image acquisition unit 102b (step SB-2).
 そして、前後判定部102eは、検出した前画像におけるエッジ座標と、検出した後画像におけるエッジ座標と、の異なる点(座標)をカウントする(ステップSB-3)。 Then, the front / rear determination unit 102e counts different points (coordinates) between the detected edge coordinates in the previous image and the detected edge coordinates (step SB-3).
 そして、前後判定部102eは、カウントした異なる点(座標)が一定数以下であるか否か判定する(ステップSB-4)。 Then, the front / rear determination unit 102e determines whether the counted different points (coordinates) are equal to or less than a certain number (step SB-4).
 そして、前後判定部102eは、カウントした異なる点(座標)が一定数以下であると判定した場合(ステップSB-4:Yes)、被写体である媒体が動いていない、すなわち、画像および奥行情報の妥当性があると判断(判定)して(ステップSB-5)、処理をステップSA-8に移行させる。すなわち、前後判定部102eは、解像度の高い3次元形状を取得する前後の2次元画像を用いて妥当性を判断している。 Then, when the front / rear determination unit 102e determines that the counted different points (coordinates) are equal to or less than a certain number (step SB-4: Yes), the subject medium is not moving, that is, the image and depth information It is determined (determined) that it is valid (step SB-5), and the process proceeds to step SA-8. That is, the front / rear determination unit 102e determines the validity using the two-dimensional images before and after acquiring a high-resolution three-dimensional shape.
 一方、前後判定部102eは、カウントした異なる点(座標)が一定数以下では無いと判定した場合(ステップSB-4:No)、被写体である媒体が動いた、すなわち、画像および奥行情報の妥当性がないと判断(判定)して(ステップSB-6)、処理をステップSA-7に移行させる。 On the other hand, if the forward / backward determination unit 102e determines that the counted different points (coordinates) are not equal to or less than a certain number (step SB-4: No), the subject medium has moved, that is, the image and depth information are valid. It is determined (determined) that there is no property (step SB-6), and the process proceeds to step SA-7.
 このように、本実施形態においては、奥行情報用画像読取処理の前後画像のエッジ検出による差分情報を判定に用いることで、ハードウェアを追加せずに被写体の移動を検知することができる。すなわち、本実施形態においては、被写体の移動検知を画像処理で判断することで、ハードウェアの追加などが不要となる。また、本実施形態においては、差分情報としてエッジ情報を用いることで、エッジ検出結果を歪み補正処理にも使用することができ、全体の処理時間を少なくすることができる。 As described above, in this embodiment, by using the difference information based on the edge detection of the images before and after the depth information image reading process for the determination, it is possible to detect the movement of the subject without adding hardware. That is, in the present embodiment, it is not necessary to add hardware by determining the movement detection of the subject by image processing. In this embodiment, by using edge information as difference information, the edge detection result can be used for distortion correction processing, and the overall processing time can be reduced.
 図5に戻り、アラーム通知部102cは、前後判定部102eにより画像および奥行情報の妥当性がない(適切でない)と判定された場合(ステップSA-6:No)、ユーザに再度画像読取を促すためのアラームを通知し(ステップSA-7)、処理をステップSA-1に移行させる。 Returning to FIG. 5, when the front-rear determination unit 102e determines that the image and depth information are not valid (inappropriate) (step SA-6: No), the alarm notification unit 102c prompts the user to read the image again. Alarm is notified (step SA-7), and the process proceeds to step SA-1.
 一方、3次元情報取得部102fは、前後判定部102eにより画像および奥行情報の妥当性がある(適切)と判定された場合(ステップSA-6:Yes)、複数の異なるパターン画像に基づいて、媒体の3次元情報(奥行情報)を取得(生成)する(ステップSA-8)。 On the other hand, when the three-dimensional information acquisition unit 102f determines that the image and depth information are valid (appropriate) by the front / rear determination unit 102e (step SA-6: Yes), based on a plurality of different pattern images, Obtain (generate) three-dimensional information (depth information) of the medium (step SA-8).
 ここで、図12を参照して、本実施形態における3次元形状復元処理の一例について説明する。図12は、本実施形態における3次元形状復元処理の一例を示すフローチャートである。 Here, an example of the three-dimensional shape restoration process in the present embodiment will be described with reference to FIG. FIG. 12 is a flowchart illustrating an example of the three-dimensional shape restoration process in the present embodiment.
 図12に示すように、3次元情報取得部102fは、複数の異なるパターン画像に基づいて、媒体の3次元形状の復元処理を行う(ステップSC-1)。 As shown in FIG. 12, the three-dimensional information acquisition unit 102f performs a three-dimensional shape restoration process on the medium based on a plurality of different pattern images (step SC-1).
 そして、クロップ部102dは、読取画像における媒体画像のクロップ処理を行い(ステップSC-2)、処理を終了する。 Then, the crop unit 102d performs a crop process on the medium image in the read image (step SC-2), and ends the process.
 図5に戻り、歪み補正部102gは、3次元情報に基づいて、媒体画像の歪みを補正し(ステップSA-9)、処理を終了する。すなわち、本実施形態においては、紙の浮きまたは立体的な折り目などを3次元形状として取得し、そのデータを活用することで歪みのない画像に補正する技術を提供している。 Referring back to FIG. 5, the distortion correction unit 102g corrects the distortion of the medium image based on the three-dimensional information (Step SA-9), and ends the process. That is, in the present embodiment, there is provided a technique for acquiring a paper float or a three-dimensional crease as a three-dimensional shape and using the data to correct the image without distortion.
 ここで、図13を参照して、本実施形態における歪み補正処理の一例について説明する。図13は、本実施形態における歪み補正処理の一例を示すフローチャートである。 Here, an example of the distortion correction processing in the present embodiment will be described with reference to FIG. FIG. 13 is a flowchart illustrating an example of the distortion correction process in the present embodiment.
 図13に示すように、歪み補正部102gは、3次元情報に基づいて、媒体の歪み形状の平坦化を行う(ステップSD-1)。 As shown in FIG. 13, the distortion correction unit 102g flattens the distortion shape of the medium based on the three-dimensional information (step SD-1).
 そして、歪み補正部102gは、ラインセンサ22aで読み取られた2次元画像(マッピング用画像)を用いて色情報をマッピングすることで、媒体の歪みを補正し(ステップSD-2)、処理を終了する。 Then, the distortion correction unit 102g corrects the distortion of the medium by mapping the color information using the two-dimensional image (mapping image) read by the line sensor 22a (step SD-2), and ends the processing. To do.
 このように、本実施形態においては、画像読取用と3次元形状計測(奥行情報検出)用の機能(すなわち、奥行情報用画像およびマッピング用画像の取得)を同一光源(すなわち、ライン光源21aのみ)とすることで、簡素な装置構成が実現できる。また、本実施形態においては、上記処理により、急峻な歪みを補正可能な画像読取装置を実現することができる。すなわち、本実施形態においては、解像度の高い奥行情報を得ることで、媒体(原稿)の急峻な歪みにも対応可能である。 As described above, in the present embodiment, functions for image reading and three-dimensional shape measurement (depth information detection) (that is, acquisition of an image for depth information and an image for mapping) are the same light source (that is, only the line light source 21a). ), A simple device configuration can be realized. In the present embodiment, an image reading apparatus capable of correcting steep distortion can be realized by the above processing. In other words, in the present embodiment, it is possible to deal with steep distortion of a medium (original) by obtaining depth information with high resolution.
 また、本実施形態においては、補正に適している画像および奥行情報が取得できているかを判断することで、不自然な補正結果となることを防止することができる。また、本実施形態においては、動き検知を画像処理で行うことでハードウェアを追加することなく、実現することができる。また、本実施形態においては、奥行情報の妥当性判定を前後画像の原稿エッジの差分情報を用いることで、クロップ処理にも使用することができる。また、本実施形態においては、ユーザにアラーム通知することで意図しない補正結果となることを防止することができる。 In this embodiment, it is possible to prevent an unnatural correction result from being determined by determining whether an image suitable for correction and depth information can be acquired. Further, in the present embodiment, it is possible to realize the motion detection by image processing without adding hardware. In the present embodiment, the validity information of the depth information can also be used for the crop processing by using the difference information of the document edges of the preceding and following images. In the present embodiment, an unintended correction result can be prevented by notifying the user of an alarm.
[2-2.処理(2)]
 また、本実施形態のオーバーヘッド型画像読取装置100における処理の一例について、図14乃至図19を参照して説明する。図14は、本実施形態のオーバーヘッド型画像読取装置100における処理の一例を示すフローチャートである。
[2-2. Processing (2)]
An example of processing in the overhead image reading apparatus 100 of the present embodiment will be described with reference to FIGS. FIG. 14 is a flowchart illustrating an example of processing in the overhead image reading apparatus 100 of the present embodiment.
 図14に示すように、まず、画像制御部102aは、均一な光を照射させるエリア光源21b(均一光源)を制御し、エリア光源21b(均一光源)を点灯させる(ステップSE-1)。 As shown in FIG. 14, first, the image control unit 102a controls the area light source 21b (uniform light source) that emits uniform light to turn on the area light source 21b (uniform light source) (step SE-1).
 そして、画像取得部102bは、パターン画像の取得前に、エリア光源21bにより均一な光を照射された媒体をエリアセンサ22bにて読み取らせ、媒体全体を読み取らせた読取画像(前画像)を取得する(ステップSE-2)。 Then, before acquiring the pattern image, the image acquisition unit 102b causes the area sensor 22b to read the medium irradiated with uniform light by the area light source 21b, and acquires a read image (previous image) that has read the entire medium. (Step SE-2).
 そして、画像制御部102aは、エリア光源21b(均一光源)を制御し、エリア光源21b(均一光源)を消灯させる(ステップSE-3)。 Then, the image control unit 102a controls the area light source 21b (uniform light source) to turn off the area light source 21b (uniform light source) (step SE-3).
 そして、画像制御部102aは、エリア光源21bを制御し、照射位置を変化させて、位相を変化させたパターン光をエリア光源21bに照射させる(ステップSE-4)。 Then, the image control unit 102a controls the area light source 21b, changes the irradiation position, and irradiates the area light source 21b with the pattern light whose phase has been changed (step SE-4).
 そして、画像取得部102bは、位相を変化させたパターン光をエリア光源21bから照射された媒体をエリアセンサ22bにて読み取らせ、明るさの位相パターンを変化させたパターン画像を取得する(ステップSE-5)。 Then, the image acquisition unit 102b causes the area sensor 22b to read the medium irradiated with the pattern light whose phase has been changed from the area light source 21b, and acquires a pattern image in which the brightness phase pattern has been changed (step SE). -5).
 そして、制御部102は、指定回数の照射位置を変化させた媒体読取が終了(完了)したか否か判定する(ステップSE-6)。 Then, the control unit 102 determines whether or not the medium reading with the designated number of irradiation positions changed is completed (completed) (step SE-6).
 そして、制御部102は、指定回数の照射位置を変化させた媒体読取が終了(完了)していないと判定した場合(ステップSE-6:No)、処理をステップSE-4に移行させる。 Then, when the control unit 102 determines that the medium reading after changing the irradiation position for the designated number of times is not completed (completed) (step SE-6: No), the process proceeds to step SE-4.
 一方、画像制御部102aは、制御部102により指定回数の照射位置を変化させた媒体読取が終了(完了)したと判定された場合(ステップSE-6:Yes)、均一な光を照射させるエリア光源21b(均一光源)を制御し、エリア光源21b(均一光源)を点灯させる(ステップSE-7)。 On the other hand, when it is determined by the control unit 102 that the medium reading with the designated number of irradiation positions changed is completed (completed) (step SE-6: Yes), the image control unit 102a is configured to irradiate uniform light. The light source 21b (uniform light source) is controlled to turn on the area light source 21b (uniform light source) (step SE-7).
 ここで、図15を参照して、本実施形態におけるパターン照射画像の一例について説明する。図15は、本実施形態におけるパターン照射画像の一例を示す図である。 Here, with reference to FIG. 15, an example of the pattern irradiation image in the present embodiment will be described. FIG. 15 is a diagram illustrating an example of a pattern irradiation image in the present embodiment.
 図15に示すように、画像取得部102bは、位相を変化させたパターン光をエリア光源21bから照射された媒体をエリアセンサ22bにて読み取らせ、明るさの位相パターンを変化させたパターン画像(パターン照射画像)を複数(例えば、3枚以上等)取得してもよい。 As shown in FIG. 15, the image acquisition unit 102 b causes the area sensor 22 b to read the medium irradiated with the pattern light whose phase has been changed from the area light source 21 b, and the pattern image ( A plurality (for example, three or more) of pattern irradiation images may be acquired.
 図14に戻り、画像取得部102bは、パターン画像の取得後に、エリア光源21bにより均一な光を照射された媒体をエリアセンサ22bにて読み取らせ、媒体全体を読み取らせた読取画像(後画像)を取得する(ステップSE-8)。 Returning to FIG. 14, after acquiring the pattern image, the image acquisition unit 102 b causes the area sensor 22 b to read the medium irradiated with uniform light by the area light source 21 b and read the entire medium (post-image). Is acquired (step SE-8).
 そして、画像制御部102aは、エリア光源21b(均一光源)を制御し、エリア光源21b(均一光源)を消灯させる(ステップSE-9)。 The image control unit 102a controls the area light source 21b (uniform light source) to turn off the area light source 21b (uniform light source) (step SE-9).
 そして、前後判定部102eは、画像および奥行情報の妥当性があるか否か判定する(ステップSE-10)。 Then, the front / rear determination unit 102e determines whether the image and the depth information are valid (step SE-10).
 そして、アラーム通知部102cは、前後判定部102eにより画像および奥行情報の妥当性がない(媒体の移動を検知した)と判定された場合(ステップSE-10:No)、ユーザに再度画像読取を促すためのアラームを通知し(ステップSE-11)、処理をステップSE-1に移行させる。 Then, when the alarm notification unit 102c determines that the image and depth information are not valid (detection of the movement of the medium) by the front / rear determination unit 102e (step SE-10: No), the user is again prompted to read the image. An alarm for prompting is notified (step SE-11), and the process proceeds to step SE-1.
 一方、3次元情報取得部102fは、前後判定部102eにより画像および奥行情報の妥当性がある(被写体が動いていない)と判定された場合(ステップSE-10:Yes)、複数の異なるパターン画像に基づいて、媒体の3次元情報の取得(媒体の3次元形状の復元処理)を行う(ステップSE-12)。 On the other hand, when the three-dimensional information acquisition unit 102f determines that the image and depth information are valid (the subject is not moving) by the back-and-forth determination unit 102e (step SE-10: Yes), a plurality of different pattern images Based on the above, the three-dimensional information of the medium is acquired (the three-dimensional shape of the medium is restored) (step SE-12).
 ここで、図16乃至図18を参照して、本実施形態における3次元形状復元処理の一例について説明する。図16は、本実施形態における位相情報算出処理の一例を示す図である。図17は、本実施形態における絶対位相算出処理の一例を示す図である。図18は、本実施形態における3次元形状復元処理の一例を示す図である。 Here, an example of the three-dimensional shape restoration processing in the present embodiment will be described with reference to FIGS. FIG. 16 is a diagram illustrating an example of phase information calculation processing in the present embodiment. FIG. 17 is a diagram illustrating an example of an absolute phase calculation process in the present embodiment. FIG. 18 is a diagram illustrating an example of a three-dimensional shape restoration process in the present embodiment.
 図16に示すように、3次元情報取得部102fは、図15に示すような複数枚のパターン照射画像に基づいて、以下の数式1を用いて媒体の位相情報の算出を行ってもよい。
Figure JPOXMLDOC01-appb-M000001
As illustrated in FIG. 16, the three-dimensional information acquisition unit 102 f may calculate the phase information of the medium using Equation 1 below based on a plurality of pattern irradiation images as illustrated in FIG. 15.
Figure JPOXMLDOC01-appb-M000001
 そして、図17に示すように、3次元情報取得部102fは、算出した位相情報に基づいて、媒体の絶対位相の算出を行ってもよい。 And as shown in FIG. 17, the three-dimensional information acquisition part 102f may calculate the absolute phase of a medium based on the calculated phase information.
 そして、図18に示すように、3次元情報取得部102fは、算出した絶対位相に基づいて、以下の数式2を用いて深度推定を行い、媒体の3次元形状復元処理を行ってもよい。このように、本実施形態においては、位相パターンを変化させた画像を用いることで、密な3次元形状を取得する場合でも、3次元形状復元処理に必要な画像を読み取る際の時間をかけずにすむ。
Figure JPOXMLDOC01-appb-M000002
Then, as illustrated in FIG. 18, the three-dimensional information acquisition unit 102 f may perform depth estimation using the following formula 2 based on the calculated absolute phase, and perform a three-dimensional shape restoration process of the medium. As described above, in the present embodiment, even when a dense three-dimensional shape is acquired by using an image in which the phase pattern is changed, it does not take time to read an image necessary for the three-dimensional shape restoration process. I'm sorry.
Figure JPOXMLDOC01-appb-M000002
 図14に戻り、歪み補正部102gは、3次元情報に基づいて、読取画像(媒体画像)の歪みを補正し(ステップSE-13)、処理を終了する。 14, the distortion correction unit 102g corrects the distortion of the read image (medium image) based on the three-dimensional information (step SE-13), and ends the process.
 ここで、図19を参照して、本実施形態における歪み補正処理の一例について説明する。図19は、本実施形態における歪み補正処理の一例を示すフローチャートである。 Here, with reference to FIG. 19, an example of distortion correction processing in the present embodiment will be described. FIG. 19 is a flowchart illustrating an example of distortion correction processing according to the present embodiment.
 図19に示すように、歪み補正部102gは、3次元情報に基づいて、媒体の歪み形状の平坦化を行う(ステップSF-1)。 As shown in FIG. 19, the distortion correction unit 102g flattens the distortion shape of the medium based on the three-dimensional information (step SF-1).
 そして、歪み補正部102gは、エリアセンサ22bで読み取られ、妥当性判定処理に使用された2次元画像(前画像および後画像)を用いて色情報をマッピングすることで、読取画像(媒体画像)の歪みを補正し(ステップSF-2)、処理を終了する。 The distortion correction unit 102g maps the color information using the two-dimensional image (the previous image and the subsequent image) read by the area sensor 22b and used for the validity determination process, thereby reading the read image (medium image). Is corrected (step SF-2), and the process is terminated.
 このように、本実施形態において、3次元形状復元処理を実施する為に、対象物に位相パターンを照射して撮影してもよい。また、本実施形態において、一般的には位相をずらした画像を3枚以上用意する為、必要回数画像読取を実施してもよい。また、本実施形態において、位相パターンの照射および画像読取は同期して処理を実施してもよい。 As described above, in this embodiment, in order to perform the three-dimensional shape restoration process, the object may be imaged by irradiating the phase pattern. In the present embodiment, generally, since three or more images having a phase shift are prepared, the image reading may be performed as many times as necessary. In the present embodiment, phase pattern irradiation and image reading may be performed in synchronization.
 また、本実施形態において、3次元形状復元に必要な枚数の撮影後はテクスチャ用の画像読取を実施してもよい。また、本実施形態において、3次元形状復元の為に取得したパターン照射画像より3次元形状を復元してもよい。また、本実施形態において、3次元形状およびテクスチャ用の画像を用いて3次元の歪みを補正した画像を取得してもよい。 In this embodiment, texture image reading may be performed after the number of images necessary for three-dimensional shape restoration is captured. In the present embodiment, the three-dimensional shape may be restored from the pattern irradiation image acquired for the three-dimensional shape restoration. In the present embodiment, an image obtained by correcting three-dimensional distortion using a three-dimensional shape and texture image may be acquired.
 また、本実施形態において、3次元形状復元処理で使用する2次元画像は、パターン照射の影響を受ける為、均一な光源を照射した2次元画像を用いて色情報マッピングを実施してもよい。また、本実施形態において、マッピング用画像を媒体エッジ情報の差分を用いた媒体領域特定にも活用することができる。また、本実施形態において、色情報のマッピングには移動検知処理で使用した画像を用いることで、全体処理を効率的に実施可能になるとともに、補正後の画像にパターン照射の影響を受けることがない。 In this embodiment, since the two-dimensional image used in the three-dimensional shape restoration process is affected by pattern irradiation, color information mapping may be performed using a two-dimensional image irradiated with a uniform light source. In the present embodiment, the mapping image can also be used for specifying a medium region using the difference of the medium edge information. In the present embodiment, by using the image used in the movement detection process for mapping color information, the entire process can be performed efficiently and the corrected image may be affected by pattern irradiation. Absent.
 以上のように、本実施形態においては、位相パターンを照射する光源およびその画像を取得する撮像素子を用いて、精度の良い3次元形状を復元することで、3次元情報に基づいて歪んだ画像を補正することができる。また、本実施形態においては、従来のグリッド光を照射する手法では媒体の急峻な変化を取得することが出来ない為、位相を変化させたパターン光を用いることで撮像エリア全体の立体情報を取得することを可能としている。 As described above, in the present embodiment, an image distorted based on three-dimensional information is obtained by restoring an accurate three-dimensional shape using a light source that irradiates a phase pattern and an image sensor that acquires the image. Can be corrected. In this embodiment, since the conventional method of irradiating grid light cannot acquire a steep change in the medium, three-dimensional information of the entire imaging area is acquired by using pattern light whose phase has been changed. It is possible to do.
 それにより、本実施形態においては、折り目などの急峻な変化に対する歪みであっても補正可能としている。また、本実施形態においては、位相を変化させたパターン光を複数回照射して撮像する場合、被写体が動いていないことが前提となるため、立体情報を取得する前後に被写体全体を撮影し、その画像を比較することで被写体が動いていないことを判定してもよい。 Thereby, in this embodiment, even a distortion with respect to a steep change such as a fold can be corrected. Further, in the present embodiment, when imaging by irradiating the pattern light with the phase changed a plurality of times, it is assumed that the subject is not moving, so the entire subject is photographed before and after obtaining the three-dimensional information, It may be determined that the subject is not moving by comparing the images.
 そして、本実施形態においては、被写体の移動判定を、媒体のエッジ検出座標に基づいて行ってもよい。また、本実施形態においては、被写体の移動判定後に、被写体の移動がない場合、撮影画像および立体情報から歪みのない画像を生成してもよい。一方、本実施形態においては、被写体の移動が検知された場合、ユーザにアラームを通知して再度立体情報の取得を実施してもよい。 In the present embodiment, the movement determination of the subject may be performed based on the edge detection coordinates of the medium. In the present embodiment, if there is no movement of the subject after the movement of the subject is determined, an image without distortion may be generated from the captured image and the stereoscopic information. On the other hand, in the present embodiment, when the movement of the subject is detected, an alarm may be notified to the user, and the acquisition of the three-dimensional information may be performed again.
 このように、本実施形態においては、紙の浮きまたは立体的な折り目などの影響で画像が歪むという、従来のオーバーヘッド型スキャナにおいて生じる課題を解決している。また、従来から媒体の輪郭から3次元形状を推測して歪みを補正する手法などが提案されているが、3次元形状の推定には、決まったパターン(定形)の媒体であることが前提となっていた。そこで、本実施形態においては、不定形で自由な形状に歪んだ媒体が補正できないという従来の課題を解決している。 As described above, the present embodiment solves the problem that occurs in the conventional overhead scanner that the image is distorted due to the influence of floating paper or three-dimensional folds. Conventionally, a method for correcting the distortion by estimating the three-dimensional shape from the contour of the medium has been proposed. However, the estimation of the three-dimensional shape is based on the assumption that the medium has a fixed pattern (fixed shape). It was. Therefore, the present embodiment solves the conventional problem that an irregularly shaped and distorted medium cannot be corrected.
 また、従来からグリッド光の照射により3次元形状を取得して、歪みを補正する手法などが提案されているが、媒体の緩やかな歪みが補正出来る一方で、折り目などの急峻な変化に対しては立体情報を正しく取得することが出来ず、歪みが補正されないことがあった。そこで、本実施形態においては、媒体の急峻な歪みが補正できないという従来の課題を解決している。 Conventionally, a method for correcting a distortion by acquiring a three-dimensional shape by irradiating grid light has been proposed. However, while a gentle distortion of a medium can be corrected, Could not acquire the three-dimensional information correctly and the distortion was not corrected. Therefore, in the present embodiment, the conventional problem that the steep distortion of the medium cannot be corrected is solved.
 また、従来から密な3次元形状を取得する為の手法として、位相を変化させたパターン光を照射する手法が知られているが、パターン光を切り替えて照射および読取を実施する為に時間が掛かってしまい、その間に媒体が動いてしまうと正しく歪み補正できなかった。そこで、本実施形態においては、媒体の移動検知を組み合わせることで、正しく歪み補正できないという従来の課題を解決している。 Conventionally, as a method for acquiring a dense three-dimensional shape, a method of irradiating pattern light with a changed phase is known. However, it takes time to perform irradiation and reading by switching pattern light. If the medium moves during that time, the distortion cannot be corrected correctly. Therefore, in the present embodiment, the conventional problem that the distortion cannot be corrected correctly by combining the movement detection of the medium is solved.
[3.他の実施形態]
 さて、これまで本発明の実施形態について説明したが、本発明は、上述した実施形態以外にも、特許請求の範囲に記載した技術的思想の範囲内において種々の異なる実施形態にて実施されてよいものである。
[3. Other Embodiments]
Although the embodiments of the present invention have been described so far, the present invention can be implemented in various different embodiments within the scope of the technical idea described in the claims other than the above-described embodiments. It ’s good.
 例えば、オーバーヘッド型画像読取装置100は、スタンドアローンの形態で処理を行ってもよく、クライアント端末(オーバーヘッド型画像読取装置100とは別筐体である)からの要求に応じて処理を行い、その処理結果を当該クライアント端末に返却するようにしてもよい。 For example, the overhead image reading apparatus 100 may perform processing in a stand-alone form, and performs processing in response to a request from a client terminal (which is a separate housing from the overhead image reading apparatus 100). The processing result may be returned to the client terminal.
 また、実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。 In addition, among the processes described in the embodiment, all or a part of the processes described as being automatically performed can be manually performed, or all of the processes described as being manually performed can be performed. Alternatively, a part can be automatically performed by a known method.
 このほか、明細書中および図面中で示した処理手順、制御手順、具体的名称、各処理の登録データもしくは検索条件等のパラメータを含む情報、画面例、または、データベース構成については、特記する場合を除いて任意に変更することができる。 In addition, the processing procedure, control procedure, specific name, information including parameters such as registration data or search conditions for each processing, screen examples, or database configuration shown in the description and drawings are specially noted. It can be changed arbitrarily except for.
 また、オーバーヘッド型画像読取装置100に関して、図示の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。 Further, regarding the overhead image reading apparatus 100, each illustrated component is functionally conceptual and does not necessarily need to be physically configured as illustrated.
 例えば、オーバーヘッド型画像読取装置100の各装置が備える処理機能、特に制御部102にて行われる各処理機能については、その全部または任意の一部を、CPU(Central Processing Unit)および当該CPUにて解釈実行されるプログラムにて実現してもよく、また、ワイヤードロジックによるハードウェアとして実現してもよい。尚、プログラムは、後述する、コンピュータに本発明に係る方法を実行させるためのプログラム化された命令を含む、一時的でないコンピュータ読み取り可能な記録媒体に記録されており、必要に応じてオーバーヘッド型画像読取装置100に機械的に読み取られる。すなわち、ROMまたはHDD(Hard Disk Drive)などの記憶部106などには、OS(Operating System)と協働してCPUに命令を与え、各種処理を行うためのコンピュータプログラムが記録されている。このコンピュータプログラムは、RAMにロードされることによって実行され、CPUと協働して制御部を構成する。 For example, all or some of the processing functions provided in each apparatus of the overhead image reading apparatus 100, particularly the processing functions performed by the control unit 102, are performed by a CPU (Central Processing Unit) and the CPU. It may be realized by a program to be interpreted and executed as hardware by wired logic. The program is recorded on a non-transitory computer-readable recording medium including a programmed instruction for causing a computer to execute the method according to the present invention, which will be described later, and an overhead image as necessary. It is mechanically read by the reading device 100. That is, in the storage unit 106 such as a ROM or an HDD (Hard Disk Drive), a computer program for giving instructions to the CPU in cooperation with an OS (Operating System) and performing various processes is recorded. This computer program is executed by being loaded into the RAM, and constitutes a control unit in cooperation with the CPU.
 また、このコンピュータプログラムは、オーバーヘッド型画像読取装置100に対して任意のネットワークを介して接続されたアプリケーションプログラムサーバに記憶されていてもよく、必要に応じてその全部または一部をダウンロードすることも可能である。 The computer program may be stored in an application program server connected to the overhead image reading apparatus 100 via an arbitrary network, and may be downloaded in whole or in part as necessary. Is possible.
 また、本発明に係るプログラムを、コンピュータ読み取り可能な記録媒体に格納してもよく、また、プログラム製品として構成することもできる。ここで、この「記録媒体」とは、メモリーカード、USBメモリ、SDカード、フレキシブルディスク、光磁気ディスク、ROM、EPROM、EEPROM、CD-ROM、MO、DVD、および、Blu-ray(登録商標) Disc等の任意の「可搬用の物理媒体」を含むものとする。 Further, the program according to the present invention may be stored in a computer-readable recording medium, or may be configured as a program product. Here, the “recording medium” includes a memory card, USB memory, SD card, flexible disk, magneto-optical disk, ROM, EPROM, EEPROM, CD-ROM, MO, DVD, and Blu-ray (registered trademark). It includes any “portable physical medium” such as Disc.
 また、「プログラム」とは、任意の言語や記述方法にて記述されたデータ処理方法であり、ソースコードやバイナリコード等の形式を問わない。なお、「プログラム」は必ずしも単一的に構成されるものに限られず、複数のモジュールやライブラリとして分散構成されるものや、OS(Operating System)に代表される別個のプログラムと協働してその機能を達成するものをも含む。なお、実施形態に示した各装置において記録媒体を読み取るための具体的な構成、読み取り手順、あるいは、読み取り後のインストール手順等については、周知の構成や手順を用いることができる。 In addition, “program” is a data processing method described in an arbitrary language or description method, and may be in any form such as source code or binary code. Note that the “program” is not necessarily limited to a single configuration, but is distributed in the form of a plurality of modules and libraries, or in cooperation with a separate program typified by an OS (Operating System). Including those that achieve the function. In addition, a well-known structure and procedure can be used about the specific structure for reading a recording medium in each apparatus shown in embodiment, a reading procedure, or the installation procedure after reading.
 記憶部106に格納される各種のデータベース等は、RAMもしくはROM等のメモリ装置、ハードディスク等の固定ディスク装置、フレキシブルディスク、および/または、光ディスク等のストレージ手段であり、各種処理やウェブサイト提供に用いる各種のプログラム、テーブル、データベース、および/または、ウェブページ用ファイル等を格納してもよい。 Various databases and the like stored in the storage unit 106 are storage means such as a memory device such as a RAM or a ROM, a fixed disk device such as a hard disk, a flexible disk, and / or an optical disk. Various programs, tables, databases, and / or web page files used may be stored.
 また、オーバーヘッド型画像読取装置100は、既知のパーソナルコンピュータ、ワークステーション等の情報処理装置として構成してもよく、また、該情報処理装置に任意の周辺装置を接続して構成してもよい。また、オーバーヘッド型画像読取装置100は、該情報処理装置に本発明の方法を実現させるソフトウェア(プログラム、データ等を含む)を実装することにより実現してもよい。 The overhead image reading apparatus 100 may be configured as an information processing apparatus such as a known personal computer or workstation, or may be configured by connecting an arbitrary peripheral device to the information processing apparatus. The overhead image reading apparatus 100 may be realized by installing software (including programs, data, and the like) that realizes the method of the present invention in the information processing apparatus.
 更に、装置の分散・統合の具体的形態は図示するものに限られず、その全部または一部を、各種の付加等に応じて、または、機能負荷に応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。すなわち、上述した実施形態を任意に組み合わせて実施してもよく、実施形態を選択的に実施してもよい。 Furthermore, the specific form of distribution / integration of the devices is not limited to that shown in the figure, and all or a part of them may be functional or physical in arbitrary units according to various additions or according to functional loads. Can be distributed and integrated. That is, the above-described embodiments may be arbitrarily combined and may be selectively implemented.
 以上のように、本発明に係るオーバーヘッド型画像読取装置、画像処理方法、および、プログラムは、産業上の多くの分野、特にスキャナで読み取った画像を扱う画像処理分野で実施することができ、極めて有用である。 As described above, the overhead image reading apparatus, the image processing method, and the program according to the present invention can be implemented in many industrial fields, particularly in the image processing field that handles images read by a scanner. Useful.
 2 載置面
 10 本体
 20 光学ユニット
 21 光源部
 21a ライン光源
 21b エリア光源
 22 画像読取部
 22a ラインセンサ
 22b エリアセンサ
 100 オーバーヘッド型画像読取装置
 102 制御部
 102a 画像制御部
 102b 画像取得部
 102c アラーム通知部
 102d クロップ部
 102e 前後判定部
 102f 3次元情報取得部
 102g 歪み補正部
 106 記憶部
 112 入出力部
DESCRIPTION OF SYMBOLS 2 Mounting surface 10 Main body 20 Optical unit 21 Light source part 21a Line light source 21b Area light source 22 Image reading part 22a Line sensor 22b Area sensor 100 Overhead type image reading apparatus 102 Control part 102a Image control part 102b Image acquisition part 102c Alarm notification part 102d Crop unit 102e Front / rear determination unit 102f Three-dimensional information acquisition unit 102g Distortion correction unit 106 Storage unit 112 Input / output unit

Claims (14)

  1.  媒体を画像読取部にて読み取らせた読取画像、および、照射位置を変化させた光を光源部から照射された前記媒体を前記画像読取部にて読み取らせ、明るさを変化させたパターン画像を取得する画像取得手段と、
     複数の異なる前記パターン画像に基づいて、前記媒体の3次元情報を取得する3次元情報取得手段と、
     前記3次元情報に基づいて、前記読取画像の歪みを補正する歪み補正手段と、
     を備えたことを特徴とする、オーバーヘッド型画像読取装置。
    A read image obtained by causing the image reading unit to read the medium, and a pattern image obtained by causing the image reading unit to read the medium irradiated with the light whose irradiation position is changed from the light source unit, and changing the brightness. Image acquisition means for acquiring;
    3D information acquisition means for acquiring 3D information of the medium based on a plurality of different pattern images;
    Distortion correcting means for correcting distortion of the read image based on the three-dimensional information;
    An overhead image reading apparatus comprising:
  2.  前記光源部は、
     ライン光源および/またはエリア光源を含み、
     前記画像読取部は、
     ラインセンサおよび/またはエリアセンサを含む、請求項1に記載のオーバーヘッド型画像読取装置。
    The light source unit is
    Line light source and / or area light source,
    The image reading unit
    The overhead image reading apparatus according to claim 1, comprising a line sensor and / or an area sensor.
  3.  前記パターン画像は、
     明るさの位相パターンを変化させたものである、請求項1に記載のオーバーヘッド型画像読取装置。
    The pattern image is
    The overhead image reading apparatus according to claim 1, wherein the brightness phase pattern is changed.
  4.  前記光源部は、
     前記照射位置を変化させて、位相を変化させたパターン光を前記媒体に照射し、
     前記画像取得手段は、
     前記媒体を前記画像読取部にて読み取らせた前記読取画像、および、前記パターン光を前記光源部から照射された前記媒体を前記画像読取部にて読み取らせ、明るさの位相パターンを変化させた前記パターン画像を取得する、請求項1に記載のオーバーヘッド型画像読取装置。
    The light source unit is
    Changing the irradiation position, irradiating the medium with a pattern light whose phase has changed,
    The image acquisition means includes
    The read image obtained by reading the medium by the image reading unit and the medium irradiated with the pattern light from the light source unit are read by the image reading unit, and the phase pattern of brightness is changed. The overhead image reading apparatus according to claim 1, wherein the pattern image is acquired.
  5.  前記画像取得手段は、
     前記パターン画像の取得前後に、前記媒体を前記画像読取部にて読取らせ、二つの前記読取画像を前画像および後画像として取得し、
     前記前画像における媒体画像と、前記後画像における媒体画像と、の位置変化を判定する前後判定手段、
     を更に備え、
     前記3次元情報取得手段は、
     前記前後判定手段により前記位置変化が無いと判定された場合、複数の異なる前記パターン画像に基づいて、前記媒体の前記3次元情報を取得する、請求項1に記載のオーバーヘッド型画像読取装置。
    The image acquisition means includes
    Before and after acquisition of the pattern image, the medium is read by the image reading unit, and the two read images are acquired as a front image and a back image,
    Before and after determination means for determining a change in position between the medium image in the previous image and the medium image in the subsequent image;
    Further comprising
    The three-dimensional information acquisition means
    2. The overhead image reading apparatus according to claim 1, wherein the three-dimensional information of the medium is acquired based on a plurality of different pattern images when the front-rear determination unit determines that the position change does not occur.
  6.  前記前後判定手段により前記位置変化が有ると判定された場合、再度画像読取を促すためのアラームを通知するアラーム通知手段、
     を更に備えた、請求項5に記載のオーバーヘッド型画像読取装置。
    An alarm notification means for notifying an alarm for prompting image reading again when it is determined by the front-rear determination means that the position change is present;
    The overhead image reading apparatus according to claim 5, further comprising:
  7.  前記前後判定手段は、
     前記前画像における媒体画像のエッジ座標と、前記後画像における媒体画像のエッジ座標と、に基づいて、前記位置変化を判定する、請求項5に記載のオーバーヘッド型画像読取装置。
    The front-rear determining means is
    The overhead image reading apparatus according to claim 5, wherein the position change is determined based on an edge coordinate of the medium image in the previous image and an edge coordinate of the medium image in the subsequent image.
  8.  前記前後判定手段は、
     前記前画像における媒体画像のエッジ座標と、前記後画像における媒体画像のエッジ座標と、の間で差異を示す座標数に基づいて、前記位置変化を判定する、請求項5に記載のオーバーヘッド型画像読取装置。
    The front-rear determining means is
    The overhead image according to claim 5, wherein the position change is determined based on a coordinate number indicating a difference between an edge coordinate of the medium image in the previous image and an edge coordinate of the medium image in the subsequent image. Reader.
  9.  前記歪み補正手段は、
     前記3次元情報に基づいて、媒体の3次元形状の平坦化を行い、前記読取画像を用いて色情報をマッピングすることで、前記読取画像の歪みを補正する、請求項1に記載のオーバーヘッド型画像読取装置。
    The distortion correction means includes
    The overhead type according to claim 1, wherein a three-dimensional shape of a medium is flattened based on the three-dimensional information, and color information is mapped using the read image to correct distortion of the read image. Image reading device.
  10.  前記歪み補正手段は、
     前記3次元情報に基づいて、媒体の3次元形状の平坦化を行い、前記前画像および/または前記後画像を用いて色情報をマッピングすることで、前記読取画像の歪みを補正する、請求項5に記載のオーバーヘッド型画像読取装置。
    The distortion correction means includes
    The distortion of the read image is corrected by flattening a three-dimensional shape of a medium based on the three-dimensional information and mapping color information using the front image and / or the rear image. 5. An overhead image reading apparatus according to 5.
  11.  前記読取画像における媒体画像のクロップ処理を行うクロップ手段、
     を更に備え、
     前記歪み補正手段は、
     前記3次元情報に基づいて、前記媒体画像の歪みを補正する、請求項1に記載のオーバーヘッド型画像読取装置。
    Cropping means for performing crop processing of the medium image in the read image;
    Further comprising
    The distortion correction means includes
    The overhead image reading apparatus according to claim 1, wherein distortion of the medium image is corrected based on the three-dimensional information.
  12.  前記光源部は、
     更に、前記媒体に均一な前記光を照射し、
     前記画像取得手段は、
     前記均一な光を前記光源部から照射された前記媒体を前記画像読取部にて読み取らせた前記読取画像を取得する、請求項1に記載のオーバーヘッド型画像読取装置。
    The light source unit is
    Furthermore, the medium is irradiated with the uniform light,
    The image acquisition means includes
    The overhead image reading apparatus according to claim 1, wherein the read image obtained by causing the image reading unit to read the medium irradiated with the uniform light from the light source unit is acquired.
  13.  オーバーヘッド型画像読取装置で実行される、
     媒体を画像読取部にて読み取らせた読取画像、および、照射位置を変化させた光を光源部から照射された前記媒体を前記画像読取部にて読み取らせ、明るさを変化させたパターン画像を取得する画像取得ステップと、
     複数の異なる前記パターン画像に基づいて、前記媒体の3次元情報を取得する3次元情報取得ステップと、
     前記3次元情報に基づいて、前記読取画像の歪みを補正する歪み補正ステップと、
     を含むことを特徴とする画像処理方法。
    Executed by an overhead image reading apparatus;
    A read image obtained by causing the image reading unit to read the medium, and a pattern image obtained by causing the image reading unit to read the medium irradiated with the light whose irradiation position is changed from the light source unit, and changing the brightness. An image acquisition step to acquire;
    A three-dimensional information acquisition step of acquiring three-dimensional information of the medium based on a plurality of different pattern images;
    A distortion correction step of correcting distortion of the read image based on the three-dimensional information;
    An image processing method comprising:
  14.  オーバーヘッド型画像読取装置に実行させるための、
     媒体を画像読取部にて読み取らせた読取画像、および、照射位置を変化させた光を光源部から照射された前記媒体を前記画像読取部にて読み取らせ、明るさを変化させたパターン画像を取得する画像取得ステップと、
     複数の異なる前記パターン画像に基づいて、前記媒体の3次元情報を取得する3次元情報取得ステップと、
     前記3次元情報に基づいて、前記読取画像の歪みを補正する歪み補正ステップと、
     を含むことを特徴とするプログラム。
    To execute the overhead image reading apparatus,
    A read image obtained by causing the image reading unit to read the medium, and a pattern image obtained by causing the image reading unit to read the medium irradiated with the light whose irradiation position is changed from the light source unit, and changing the brightness. An image acquisition step to acquire;
    A three-dimensional information acquisition step of acquiring three-dimensional information of the medium based on a plurality of different pattern images;
    A distortion correction step of correcting distortion of the read image based on the three-dimensional information;
    The program characterized by including.
PCT/JP2014/057400 2014-03-18 2014-03-18 Overhead-type image reading apparatus, image processing method, and program WO2015140935A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2014/057400 WO2015140935A1 (en) 2014-03-18 2014-03-18 Overhead-type image reading apparatus, image processing method, and program
JP2016508376A JP6159017B2 (en) 2014-03-18 2014-03-18 Overhead image reading apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/057400 WO2015140935A1 (en) 2014-03-18 2014-03-18 Overhead-type image reading apparatus, image processing method, and program

Publications (1)

Publication Number Publication Date
WO2015140935A1 true WO2015140935A1 (en) 2015-09-24

Family

ID=54143945

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/057400 WO2015140935A1 (en) 2014-03-18 2014-03-18 Overhead-type image reading apparatus, image processing method, and program

Country Status (2)

Country Link
JP (1) JP6159017B2 (en)
WO (1) WO2015140935A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017129525A (en) * 2016-01-22 2017-07-27 キヤノン株式会社 Measurement device, control method thereof, and program
JP2017142635A (en) * 2016-02-10 2017-08-17 日立オムロンターミナルソリューションズ株式会社 Image reading device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002165083A (en) * 2000-11-24 2002-06-07 Hitachi Ltd Picture processing method and non-contact picture input device using the same
JP2009081630A (en) * 2007-09-26 2009-04-16 Fujifilm Corp Device for taking certificate photograph
JP2010164424A (en) * 2009-01-15 2010-07-29 Kurabo Ind Ltd Non-contact shape measuring apparatus and non-contact shape measuring method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09266528A (en) * 1996-03-27 1997-10-07 Minolta Co Ltd Image reader

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002165083A (en) * 2000-11-24 2002-06-07 Hitachi Ltd Picture processing method and non-contact picture input device using the same
JP2009081630A (en) * 2007-09-26 2009-04-16 Fujifilm Corp Device for taking certificate photograph
JP2010164424A (en) * 2009-01-15 2010-07-29 Kurabo Ind Ltd Non-contact shape measuring apparatus and non-contact shape measuring method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017129525A (en) * 2016-01-22 2017-07-27 キヤノン株式会社 Measurement device, control method thereof, and program
JP2017142635A (en) * 2016-02-10 2017-08-17 日立オムロンターミナルソリューションズ株式会社 Image reading device

Also Published As

Publication number Publication date
JPWO2015140935A1 (en) 2017-04-06
JP6159017B2 (en) 2017-07-05

Similar Documents

Publication Publication Date Title
JP3063099B2 (en) Document reading device
US6771396B1 (en) Document imaging system
JP2015017992A (en) Method and device for optically scanning and measuring environment
JP5723688B2 (en) Overhead image reading apparatus, image processing method, and program
EP3468163B1 (en) Intelligent internet high-definition scanner with laser correction
JP2007114071A (en) Three-dimensional shape measuring apparatus, program, computer-readable storage medium, and three-dimensional shape measuring method
JP5716222B2 (en) Image reading apparatus, image processing method, and program
JP5723687B2 (en) Image reading apparatus, image processing method, and program
JP2009524849A (en) System, method, and medium for capturing scene images and depth shapes to generate compensated images
JP6422362B2 (en) Image reading apparatus, image reading method, and program
JP5698612B2 (en) Overhead image reading apparatus, image processing method, and program
US9924066B2 (en) Image processing apparatus, information processing method, and program
JP6159017B2 (en) Overhead image reading apparatus, image processing method, and program
JPWO2020075768A1 (en) 3D scanning device, 3D model generation method, training data, and machine learning model
JP2009124674A (en) Image processing apparatus, image scanning apparatus, image processing method, and image processing program
US7773120B2 (en) Scan-assisted mobile telephone
JP2019016843A (en) Document reading device, control method of document reading device, and program
US8836999B2 (en) Image correction apparatus, overhead image reading apparatus, image correction method, and program
JP2019192949A (en) Image processing system and image processing method
KR20160136626A (en) 3D scan image generation device and method
JP2825344B2 (en) Image input device
JP2012211905A (en) Three-dimensional shape measuring apparatus, program, computer-readable storage medium, and three-dimensional shape measuring method
JP4871835B2 (en) Image creation method
JP4490540B2 (en) Image capture device
JP2020119158A (en) Image reader

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14886564

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016508376

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14886564

Country of ref document: EP

Kind code of ref document: A1