JP6535099B2 - Image reading apparatus, image reading method and image reading program - Google Patents

Image reading apparatus, image reading method and image reading program Download PDF

Info

Publication number
JP6535099B2
JP6535099B2 JP2017545071A JP2017545071A JP6535099B2 JP 6535099 B2 JP6535099 B2 JP 6535099B2 JP 2017545071 A JP2017545071 A JP 2017545071A JP 2017545071 A JP2017545071 A JP 2017545071A JP 6535099 B2 JP6535099 B2 JP 6535099B2
Authority
JP
Japan
Prior art keywords
reading
image
unit
height difference
spread
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017545071A
Other languages
Japanese (ja)
Other versions
JPWO2017064812A1 (en
Inventor
暁 岩山
暁 岩山
大和 河谷
大和 河谷
健 李
健 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PFU Ltd
Original Assignee
PFU Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PFU Ltd filed Critical PFU Ltd
Publication of JPWO2017064812A1 publication Critical patent/JPWO2017064812A1/en
Application granted granted Critical
Publication of JP6535099B2 publication Critical patent/JP6535099B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B27/00Photographic printing apparatus
    • G03B27/32Projection printing apparatus, e.g. enlarger, copying camera
    • G03B27/52Details
    • G03B27/62Holders for the original
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/10Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using flat picture-bearing surfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/10Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using flat picture-bearing surfaces
    • H04N1/107Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using flat picture-bearing surfaces with manual scanning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment

Description

本発明は、画像読取装置、画像読取方法及び画像読取プログラムに関する。   The present invention relates to an image reading apparatus, an image reading method, and an image reading program.

原稿等の読取媒体の画像を読み取る画像読取装置には、様々なタイプのものがある。例えば、鉛直方向上方から読取媒体を読み取る「オーバーヘッド型画像読取装置」が知られている。   There are various types of image reading devices that read an image of a reading medium such as a document. For example, an "overhead type image reader" which reads a reading medium from above in the vertical direction is known.

また、近年、書籍等の綴じ媒体の電子データ化の要望がある。例えば書籍を電子データ化するオーバーヘッド型画像読取装置は、書籍の見開きの各ページを、見開き面の鉛直方向上方から読み取る。以下では、見開き状態にある綴じ媒体を「見開き媒体」と呼ぶことがある。   Moreover, in recent years, there is a demand for electronic data conversion of a binding medium such as a book. For example, an overhead image reading apparatus that converts a book into electronic data reads each page of the spread of the book from above the spread surface in the vertical direction. In the following, a binding medium in a spread state may be referred to as a "spread medium".

特開平08−242347号公報Unexamined-Japanese-Patent No. 08-242347 gazette 特開平09−149207号公報JP 09-149207 A

オーバーヘッド型読取装置のユーザにとっては、一般に、設置スペースの都合等から、オーバーヘッド型読取装置ができるだけ小型であることが望ましい。このため、オーバーヘッド型読取装置では、通常、物像間距離が300〜400[mm]程度に抑えられており、大きな物像間距離を採ることが難しい。物像間距離が小さくなるほど、被写界深度は小さくなるため、一般に、オーバーヘッド型読取装置の被写界深度は小さいことが多い。   For overhead reader users, it is generally desirable for the overhead reader to be as small as possible for reasons of installation space and the like. For this reason, in an overhead reader, the object-image distance is usually suppressed to about 300 to 400 mm, and it is difficult to take a large object-image distance. Generally, the depth of field of an overhead reader is often smaller because the depth of field decreases as the object image distance decreases.

一方で、書籍を載置面に見開き状態で載置すると、書籍の厚さが大きい場合等には、載置面に対してページの中央付近が盛り上がった状態で書籍が載置されることがある。このため、書籍の見開き面において、載置面に対する「ノド」の高さと、載置面に対するページ中央付近の高さとの高低差が大きくなることがある。また、書籍の見開き面において、載置面に対する「小口」の高さと、載置面に対するページ中央付近の高さとの高低差が大きくなることがある。   On the other hand, when the book is placed in a spread state on the placement surface, the book may be placed in a state where the center of the page is raised relative to the placement surface when the thickness of the book is large, etc. is there. For this reason, in the spread surface of the book, the height difference between the height of the "node" with respect to the placement surface and the height near the center of the page with respect to the placement surface may be large. Further, in the spread surface of the book, the height difference between the height of the “small edge” with respect to the placement surface and the height near the center of the page with respect to the placement surface may be large.

上記のように、オーバーヘッド型読取装置の被写界深度は小さいことが多いため、厚さが大きい書籍の見開き面をオーバーヘッド型読取装置で読み取る場合には、見開き面の高低差が被写界深度を超えてしまうことがある。このため、オーバーヘッド型読取装置で読み取った画像において、被写界深度を超えた部分の画像がボケてしまって不鮮明になってしまうことがあり、文字等の判別が困難になることがある。   As described above, since the depth of field of the overhead reader is often small, when the overhead reader reads the facing surface of a book having a large thickness, the height difference between the facing surfaces indicates the depth of field. May be exceeded. For this reason, in the image read by the overhead reader, an image of a portion beyond the depth of field may be blurred and blurred, which may make it difficult to determine characters and the like.

開示の技術は、かかる点に鑑みてなされたものであって、鮮明な画像を取得することを目的とする。   The disclosed technology has been made in view of the above point, and aims to acquire a clear image.

開示の態様では、画像読取装置は、検出部と、判定部と、読取部と、合成部とを有する。前記検出部は、載置面に載置された綴じ媒体の見開き面における高低差を検出する。前記判定部は、前記高低差が所定の被写界深度以内にあるか否かを判定する。前記読取部は、前記判定部での判定結果に基づいて、前記高低差が前記所定の被写界深度以内にあるときは、前記見開き面の全面を合焦領域にした画像を1回読み取る単数読取を行う一方で、前記高低差が前記所定の被写界深度を超えるときは、前記見開き面において互いに合焦領域が異なる複数の画像を読み取る複数読取を行う。前記合成部は、前記複数読取により得られた前記複数の画像において互いの前記合焦領域を合成する。   In an aspect of the disclosure, the image reading apparatus includes a detection unit, a determination unit, a reading unit, and a combining unit. The detection unit detects an elevation difference in the spread surface of the binding medium placed on the placement surface. The determination unit determines whether the height difference is within a predetermined depth of field. When the height difference is within the predetermined depth of field based on the determination result of the determination unit, the reading unit reads the image with the entire area of the spread area as the in-focus area once. While reading is performed, when the height difference exceeds the predetermined depth of field, multiple reading is performed to read a plurality of images having different in-focus areas on the spread surface. The combining unit combines the in-focus areas with each other in the plurality of images obtained by the plurality of readings.

開示の態様によれば、鮮明な画像を取得することができる。   According to the aspect of the disclosure, a clear image can be obtained.

図1は、実施例1の画像読取装置の概略図(斜視図)である。FIG. 1 is a schematic view (perspective view) of the image reading apparatus of the first embodiment. 図2は、実施例1の画像読取装置の概略図(正面図)である。FIG. 2 is a schematic view (front view) of the image reading apparatus of the first embodiment. 図3は、実施例1の画像読取装置の概略図(側面図)である。FIG. 3 is a schematic view (side view) of the image reading apparatus of the first embodiment. 図4は、実施例1の画像読取装置の概略図(平面図)である。FIG. 4 is a schematic view (plan view) of the image reading apparatus of the first embodiment. 図5は、実施例1の画像読取装置の概略図(側面図)である。FIG. 5 is a schematic view (side view) of the image reading apparatus of the first embodiment. 図6は、実施例1の画像読取装置の概略図(平面図)である。FIG. 6 is a schematic view (plan view) of the image reading apparatus of the first embodiment. 図7は、実施例1の画像読取装置の読取領域の一例を示す図である。FIG. 7 is a diagram illustrating an example of a reading area of the image reading apparatus according to the first embodiment. 図8は、実施例1の画像読取装置の読取領域の一例を示す図である。FIG. 8 is a diagram illustrating an example of a reading area of the image reading apparatus according to the first embodiment. 図9は、実施例1の読取ラインと線状レーザ光との位置関係の一例を示す図である。FIG. 9 is a view showing an example of the positional relationship between the reading line and the linear laser light in the first embodiment. 図10は、実施例1の読取ラインと線状レーザ光との位置関係の一例を示す図である。FIG. 10 is a diagram showing an example of the positional relationship between the reading line and the linear laser light in the first embodiment. 図11は、実施例1の画像読取装置の構成を示すブロック図である。FIG. 11 is a block diagram showing the configuration of the image reading apparatus of the first embodiment. 図12は、実施例1のキャリブレーション動作の一例を示す図である。FIG. 12 is a diagram illustrating an example of the calibration operation of the first embodiment. 図13は、実施例1の基準位置に対応するパラメータの一例を示す図である。FIG. 13 is a diagram illustrating an example of parameters corresponding to the reference position according to the first embodiment. 図14は、実施例1の高低差検出処理の一例を示すフローチャートである。FIG. 14 is a flowchart illustrating an example of the height difference detection process according to the first embodiment. 図15は、実施例1の高低差検出処理の一例を示すフローチャートである。FIG. 15 is a flowchart illustrating an example of the height difference detection process according to the first embodiment. 図16は、実施例1の3次元データの算出方法の概要を示す図である。FIG. 16 is a diagram showing an outline of a method of calculating three-dimensional data according to the first embodiment. 図17は、実施例1の画像読取装置の動作の説明に供する図である。FIG. 17 is a diagram for explaining the operation of the image reading apparatus according to the first embodiment. 図18は、実施例1の画像読取装置の動作の説明に供する図である。FIG. 18 is a diagram for explaining the operation of the image reading apparatus according to the first embodiment. 図19は、実施例1の画像読取装置の動作の説明に供する図である。FIG. 19 is a diagram for explaining the operation of the image reading apparatus according to the first embodiment. 図20は、実施例1の画像読取装置の動作の説明に供する図である。FIG. 20 is a diagram for explaining the operation of the image reading apparatus according to the first embodiment. 図21は、実施例1の画像読取装置の動作の説明に供する図である。FIG. 21 is a diagram for explaining the operation of the image reading apparatus according to the first embodiment. 図22は、実施例1の画像読取装置の動作の説明に供する図である。FIG. 22 is a diagram for explaining the operation of the image reading apparatus according to the first embodiment. 図23は、実施例1の画像読取装置の動作の説明に供する図である。FIG. 23 is a diagram for explaining the operation of the image reading apparatus according to the first embodiment. 図24は、実施例1の画像読取装置の処理の一例を示すフローチャートである。FIG. 24 is a flowchart illustrating an example of processing of the image reading apparatus according to the first embodiment. 図25は、実施例2の画像読取装置の動作の説明に供する図である。FIG. 25 is a diagram for explaining the operation of the image reading apparatus according to the second embodiment. 図26は、実施例3の画像読取装置の概略図(斜視図)である。FIG. 26 is a schematic view (perspective view) of the image reading apparatus of the third embodiment. 図27は、実施例3の画像読取装置の動作の説明に供する図である。FIG. 27 is a diagram for explaining the operation of the image reading apparatus according to the third embodiment. 図28は、実施例3の画像読取装置の動作の説明に供する図である。FIG. 28 is a diagram for explaining the operation of the image reading apparatus of the third embodiment. 図29は、実施例4の画像読取装置の概略図(斜視図)である。FIG. 29 is a schematic view (perspective view) of the image reading apparatus of the fourth embodiment. 図30は、実施例4の画像読取装置の動作の説明に供する図である。FIG. 30 is a diagram for explaining the operation of the image reading apparatus according to the fourth embodiment. 図31は、実施例4の画像読取装置の動作の説明に供する図である。FIG. 31 is a diagram for explaining the operation of the image reading apparatus according to the fourth embodiment.

以下、本願が開示する画像読取装置、画像読取方法及び画像読取プログラムの実施例について、図面を参照して説明する。なお、以下の実施例により本発明が限定されるものではない。また、各実施例において同一の構造部材、同一の機能を有する構成及び同一の処理を行うステップには同一の符号を付し、重複する説明を省略する。   Hereinafter, embodiments of an image reading apparatus, an image reading method, and an image reading program disclosed in the present application will be described with reference to the drawings. The present invention is not limited by the following examples. Further, in the respective embodiments, the same structural members, the configurations having the same functions, and the steps for performing the same processing are denoted by the same reference numerals, and overlapping descriptions will be omitted.

[実施例1]
<画像読取装置の構造>
図1〜図6は、実施例1の画像読取装置の概略図である。図1は斜視図であり、図2は正面図であり、図3及び図5は側面図であり、図4及び図6は平面図である。図3と図4とが対応し、図5と図6とが対応する。また、図7及び図8は、実施例1の画像読取装置の読取領域の一例を示す図である。以下では、各図において、画像読取装置1の幅方向を「X方向」、幅方向と水平面で直交する奥行き方向を「Y方向」、幅方向及び奥行き方向と直交する鉛直方向を「Z方向」と図示する。
Example 1
<Structure of Image Reading Device>
1 to 6 are schematic views of the image reading apparatus of the first embodiment. 1 is a perspective view, FIG. 2 is a front view, FIGS. 3 and 5 are side views, and FIGS. 4 and 6 are plan views. FIG. 3 and FIG. 4 correspond, and FIG. 5 and FIG. 6 correspond. 7 and 8 are diagrams showing an example of a reading area of the image reading apparatus of the first embodiment. Hereinafter, in each drawing, the width direction of the image reading apparatus 1 is “X direction”, the depth direction orthogonal to the width direction with the horizontal direction is “Y direction”, and the vertical direction orthogonal to the width direction and the depth direction is “Z direction” And illustrated.

実施例1の画像読取装置1は、例えば、複数枚の紙媒体が綴じ部において綴じられることで形成された見開き媒体SMの画像の読取に使用される。画像読取装置1は、見開き媒体SMの画像の読取に使用される場合、図7及び図8に示すように、見開き媒体SMの第1の見開き面P1と、第2の見開き面P2とを個別に読み取り、見開き面P1,P2にそれぞれ対応する各読取データを合成することで、見開き面P1,P2全面の画像データを取得する。以下では、一例として、画像読取装置1が見開き媒体SMの画像の読取に使用される場合を説明する。また、以下では、見開き媒体SMにおいて、開き方向を幅方向(X方向)、開き方向と水平面視において直交する綴じ部の延在方向を奥行き方向(Y方向)、幅方向及び奥行き方向と直交する厚さ方向を鉛直方向(Z方向)とする。   The image reading apparatus 1 of the first embodiment is used, for example, to read an image of a spread medium SM formed by binding a plurality of paper media at a binding unit. When the image reading device 1 is used to read an image of the spread medium SM, as shown in FIGS. 7 and 8, the first spread surface P1 of the spread medium SM and the second spread surface P2 are individually separated. The image data of the entire facing surfaces P1 and P2 is acquired by combining the respective read data corresponding to the facing surfaces P1 and P2. Hereinafter, as an example, a case where the image reading apparatus 1 is used to read an image of the spread medium SM will be described. In the following, in the spread medium SM, the opening direction is the width direction (X direction), and the extending direction of the binding portion orthogonal to the opening direction in the opening direction is orthogonal to the depth direction (Y direction), width direction, and depth direction Let the thickness direction be the vertical direction (Z direction).

画像読取装置1は、図1〜図6に示すように、載置台2と、アーム3と、第1支持部4と、第2支持部5と、第1読取ユニット6と、第2読取ユニット7と、照明8とを有する。   As shown in FIGS. 1 to 6, the image reading apparatus 1 includes a mounting table 2, an arm 3, a first support 4, a second support 5, a first reading unit 6, and a second reading unit. 7 and illumination 8.

載置台2は、載置台本体部21と、第1載置部22と、第2載置部23とを有し、載置台2には見開き媒体SMが載置される。   The mounting table 2 has a mounting table main body portion 21, a first mounting portion 22, and a second mounting portion 23, and the spread medium SM is mounted on the mounting table 2.

載置台本体部21は、画像読取装置1の設置面に接触する部分であり、第1載置部22と第2載置部23とは、載置台本体部21に対して、幅方向において互いに隣接して配置される。第1載置部22及び第2載置部23は平板状の形状を為し、第1載置部22の上面は、鉛直方向において第1読取ユニット6と対向する第1載置面24を形成し、第2載置部23の上面は、鉛直方向において第2読取ユニット7と対向する第2載置面25を形成する。第1載置面24及び第2載置面25は平面であり、第1載置面24には、鉛直方向において見開き面P1と対向する見開き媒体SMの一部が載置され、第2載置面25には、鉛直方向において見開き面P2と対向する見開き媒体SMの一部が載置される。つまり、第1載置面24と第2載置面25とは、幅方向において互いに隣接して設けられる。   The mounting table main body portion 21 is a portion in contact with the installation surface of the image reading apparatus 1, and the first mounting portion 22 and the second mounting portion 23 are mutually different in the width direction with respect to the mounting table main body portion 21. Be placed adjacent to each other. The first placement portion 22 and the second placement portion 23 have a flat plate shape, and the upper surface of the first placement portion 22 has a first placement surface 24 facing the first reading unit 6 in the vertical direction. The upper surface of the second placement unit 23 forms a second placement surface 25 facing the second reading unit 7 in the vertical direction. The first placement surface 24 and the second placement surface 25 are flat, and a part of the spread medium SM facing the spread surface P1 in the vertical direction is placed on the first placement surface 24, and the second placement surface 24 is placed on the second placement surface 24. In the placement surface 25, a part of the spread medium SM facing the spread surface P <b> 2 in the vertical direction is placed. That is, the first placement surface 24 and the second placement surface 25 are provided adjacent to each other in the width direction.

また、載置台2において、第1載置部22と第2載置部23とは、両者の間に隙間を有して隣接配置される。よって、見開き媒体SMを載置台2に載置する際には、見開き媒体SMの綴じ部をこの隙間に挿入することができる。よって、載置台2において、見開き媒体SMの綴じ部は、見開き媒体SMの開き方向における両端部よりも低い位置(つまり、鉛直方向の下側)に位置する。これにより、見開き媒体SMの綴じ部の近傍が鉛直方向の上側に盛り上がることを抑制することができるとともに、載置台2に対する見開き媒体SMの位置ずれを抑制することができる。   Further, in the mounting table 2, the first mounting portion 22 and the second mounting portion 23 are arranged adjacent to each other with a gap therebetween. Therefore, when placing the spread medium SM on the mounting table 2, the binding portion of the spread medium SM can be inserted into the gap. Therefore, in the mounting table 2, the binding portion of the spread medium SM is located at a lower position (that is, the lower side in the vertical direction) than the both ends in the opening direction of the spread medium SM. Thus, the vicinity of the binding portion of the spread medium SM can be suppressed from rising in the upper side in the vertical direction, and positional deviation of the spread medium SM relative to the mounting table 2 can be suppressed.

第1載置面24及び第2載置面25はそれぞれ、見開き媒体SMの鉛直方向における高さを検出する際に用いられる識別領域DA1,DA2を有する。識別領域DA1,DA2は、見開き媒体SMが載置される領域(つまり、載置面24,25のうち識別領域DA1,DA2以外の領域、以下では「載置領域」と呼ぶことがある)と幅方向において隣接している。第1載置面24上に設定された識別領域DA1は、第1載置面24の左側端部に沿って奥行き方向に延在する帯状の領域であり、第2載置面25上に設定された識別領域DA2は、第2載置面25の右側端部に沿って奥行き方向に延在する帯状の領域である。識別領域DA1,DA2に対しては、後述するように、見開き媒体SMが載置領域に載置された状態において、線状レーザ光の一部が照射される。   Each of the first placement surface 24 and the second placement surface 25 has identification areas DA1 and DA2 used when detecting the height of the spread medium SM in the vertical direction. The identification areas DA1 and DA2 are areas where the spread medium SM is placed (that is, areas other than the identification areas DA1 and DA2 of the placement surfaces 24 and 25 and hereinafter may be referred to as "placement areas"). Adjacent in the width direction. The identification area DA1 set on the first mounting surface 24 is a band-shaped area extending in the depth direction along the left end of the first mounting surface 24 and is set on the second mounting surface 25. The identified identification area DA2 is a band-like area extending in the depth direction along the right end of the second placement surface 25. With respect to the identification areas DA1 and DA2, as described later, a part of the linear laser light is irradiated in a state in which the spread medium SM is placed on the placement area.

アーム3は、読取ユニット6,7を支持することで、読取ユニット6,7を鉛直方向において載置台2に対して対向させる。アーム3は、平板状の形状を為し、載置台本体部21において載置面24,25よりも奥行き方向の奥側の部分から鉛直方向の上方へ延在して形成される。   The arm 3 supports the reading units 6 and 7 to make the reading units 6 and 7 face the mounting table 2 in the vertical direction. The arm 3 has a flat plate shape, and is formed extending in the vertical direction from a portion on the back side in the depth direction of the mounting surface 24 or 25 in the mounting table main body 21.

第1支持部4は、アーム3の鉛直方向の上側の部分から、幅方向の左方へ張り出して形成され、第1読取ユニット6を支持する。第2支持部5は、アーム3の鉛直方向の上側の部分から、幅方向の右方へ張り出して形成され、第2読取ユニット7を支持する。   The first support portion 4 is formed to project leftward in the width direction from a portion on the upper side in the vertical direction of the arm 3 and supports the first reading unit 6. The second support portion 5 is formed to project from the upper portion in the vertical direction of the arm 3 to the right in the width direction, and supports the second reading unit 7.

第1読取ユニット6は、鉛直方向において第1載置面24と対向して配置され、第1支持部4から奥行き方向の手前側へ延在して形成される。第1読取ユニット6は、第1画像読取部61及びレンズ66を収容する第1キャリア62と、第1キャリア移動機構63と、第1ミラー64と、第1ミラー回転機構65とを有する。   The first reading unit 6 is disposed to face the first placement surface 24 in the vertical direction, and is formed to extend from the first support portion 4 to the near side in the depth direction. The first reading unit 6 includes a first carrier 62 accommodating the first image reading unit 61 and the lens 66, a first carrier moving mechanism 63, a first mirror 64, and a first mirror rotation mechanism 65.

第1画像読取部61は、載置台2に載置された見開き媒体SMの一部の領域を読み取る。第1画像読取部61は、例えば、幅方向(X方向)に沿って直線状に配列された複数の受光素子で形成されるラインセンサであり、幅方向と平行な読取ラインIL1を載置面24上に形成する。つまり、読取ラインIL1を形成するラインセンサの主走査方向は、幅方向(X方向)となる。また、第1画像読取部61は、光軸L1を有する。   The first image reading unit 61 reads a partial area of the spread medium SM placed on the placement table 2. The first image reading unit 61 is, for example, a line sensor formed of a plurality of light receiving elements linearly arranged along the width direction (X direction), and the surface on which the reading line IL1 parallel to the width direction is placed Form on 24. That is, the main scanning direction of the line sensor forming the reading line IL1 is the width direction (X direction). The first image reading unit 61 also has an optical axis L1.

第1キャリア62は、奥行き方向に移動自在に支持され、第1キャリア62が奥行き方向で移動することで、第1画像読取部61の位置が奥行き方向で変化し、第1画像読取部61と第1ミラー64との間の光路長が変化する。   The first carrier 62 is supported movably in the depth direction, and the position of the first image reading unit 61 changes in the depth direction by moving the first carrier 62 in the depth direction. The optical path length to the first mirror 64 changes.

第1キャリア移動機構63は、第1キャリア62を奥行き方向で往復移動させる。例えば、第1キャリア移動機構63は、アクチュエータ(図示省略)を有しており、アクチュエータからの駆動力により第1キャリア62を往復移動させる。   The first carrier moving mechanism 63 reciprocates the first carrier 62 in the depth direction. For example, the first carrier moving mechanism 63 has an actuator (not shown), and reciprocates the first carrier 62 by the driving force from the actuator.

第1ミラー64は、第1読取ユニット6に対して回転自在に支持され、第1画像読取部61の光軸L1の向きを変更する。第1ミラー64は、幅方向に平行な回転軸O1周りに回転自在に支持される。第1ミラー64は、奥行き方向において、第1キャリア62よりも奥側に配置され、かつ、載置面24よりも奥側に配置される。第1ミラー64は、奥行き方向の光軸L1を、鉛直方向の下方、かつ、奥行き方向の手前側へ折り返す。第1ミラー64が回転軸O1周りに回転することで、光軸L1は、奥行き方向で移動する。   The first mirror 64 is rotatably supported by the first reading unit 6 and changes the direction of the optical axis L1 of the first image reading unit 61. The first mirror 64 is rotatably supported around a rotation axis O1 parallel to the width direction. The first mirror 64 is disposed further to the back than the first carrier 62 in the depth direction, and is disposed further to the back than the mounting surface 24. The first mirror 64 turns the optical axis L1 in the depth direction back to the lower side in the vertical direction and to the near side in the depth direction. As the first mirror 64 rotates around the rotation axis O1, the optical axis L1 moves in the depth direction.

第1ミラー回転機構65は、奥行き方向での第1キャリア62の往復移動と同期して、第1ミラー64を回転させる。例えば、第1ミラー回転機構65は、アクチュエータ(図示省略)を有しており、アクチュエータからの駆動力により第1ミラー64を回転させる。   The first mirror rotation mechanism 65 rotates the first mirror 64 in synchronization with the reciprocating movement of the first carrier 62 in the depth direction. For example, the first mirror rotation mechanism 65 has an actuator (not shown), and rotates the first mirror 64 by the driving force from the actuator.

第1キャリア62の移動及び第1ミラー64の回転により、第1画像読取部61の読取ラインIL1は、載置面24上において、奥行き方向に移動する。つまり、読取ラインIL1を形成するラインセンサの副走査方向は、奥行き方向(Y方向)となる。幅方向と平行な読取ラインIL1が奥行き方向に移動することで、第1載置面24における2次元の画像を読み取ることができる。   The movement of the first carrier 62 and the rotation of the first mirror 64 move the reading line IL1 of the first image reading unit 61 in the depth direction on the placement surface 24. That is, the sub-scanning direction of the line sensor forming the reading line IL1 is the depth direction (Y direction). By moving the reading line IL1 parallel to the width direction in the depth direction, a two-dimensional image on the first placement surface 24 can be read.

第2読取ユニット7は、鉛直方向において第2載置面25と対向して配置され、第2支持部5から奥行き方向の手前側へ延在して形成される。第2読取ユニット7は、第2画像読取部71及びレンズ76を収容する第2キャリア72と、第2キャリア移動機構73と、第2ミラー74と、第2ミラー回転機構75とを有する。   The second reading unit 7 is disposed to face the second placement surface 25 in the vertical direction, and is formed to extend from the second support portion 5 to the near side in the depth direction. The second reading unit 7 includes a second carrier 72 accommodating the second image reading unit 71 and the lens 76, a second carrier moving mechanism 73, a second mirror 74, and a second mirror rotation mechanism 75.

第2画像読取部71は、載置台2に載置された見開き媒体SMの一部の領域を読み取る。第2画像読取部71は、例えば、幅方向(X方向)に沿って直線状に配列された複数の受光素子で形成されるラインセンサであり、幅方向に平行な読取ラインIL2を載置面25上に形成する。つまり、読取ラインIL2を形成するラインセンサの主走査方向は、幅方向(X方向)となる。また、第2画像読取部71は、光軸L2を有する。   The second image reading unit 71 reads a partial area of the spread medium SM placed on the placement table 2. The second image reading unit 71 is, for example, a line sensor formed of a plurality of light receiving elements arrayed in a straight line along the width direction (X direction), and the surface on which the reading line IL2 parallel to the width direction is placed Form on 25. That is, the main scanning direction of the line sensor forming the reading line IL2 is the width direction (X direction). The second image reading unit 71 also has an optical axis L2.

第2キャリア72は、奥行き方向に移動自在に支持され、第2キャリア72が奥行き方向で移動することで、第2画像読取部71の位置が奥行き方向で変化し、第2画像読取部71と第2ミラー74との間の光路長が変化する。   The second carrier 72 is supported movably in the depth direction, and the position of the second image reading unit 71 changes in the depth direction by moving the second carrier 72 in the depth direction. The optical path length to the second mirror 74 changes.

第2キャリア移動機構73は、第2キャリア72を奥行き方向で往復移動させる。例えば、第2キャリア移動機構73は、アクチュエータ(図示省略)を有しており、アクチュエータからの駆動力により第2キャリア72を往復移動させる。   The second carrier moving mechanism 73 reciprocates the second carrier 72 in the depth direction. For example, the second carrier moving mechanism 73 has an actuator (not shown), and reciprocates the second carrier 72 by the driving force from the actuator.

第2ミラー74は、第2読取ユニット7に対して回転自在に支持され、第2画像読取部71の光軸L2の向きを変更する。第2ミラー74は、幅方向に平行な回転軸O2周りに回転自在に支持される。第2ミラー74は、奥行き方向において、第2キャリア72よりも奥側に配置され、かつ、載置面25よりも奥側に配置される。第2ミラー74は、奥行き方向の光軸L2を、鉛直方向の下方、かつ、奥行き方向の手前側へ折り返す。第2ミラー74が回転軸O2周りに回転することで、光軸L2は、奥行き方向で移動する。   The second mirror 74 is rotatably supported by the second reading unit 7 and changes the direction of the optical axis L2 of the second image reading unit 71. The second mirror 74 is rotatably supported around a rotation axis O2 parallel to the width direction. The second mirror 74 is disposed further to the back than the second carrier 72 in the depth direction, and is disposed further to the back than the mounting surface 25. The second mirror 74 turns the optical axis L2 in the depth direction back to the lower side in the vertical direction and to the near side in the depth direction. The optical axis L2 moves in the depth direction as the second mirror 74 rotates around the rotation axis O2.

第2ミラー回転機構75は、奥行き方向での第2キャリア72の往復移動と同期して、第2ミラー74を回転させる。例えば、第2ミラー回転機構75は、アクチュエータ(図示省略)を有しており、アクチュエータからの駆動力により第2ミラー74を回転させる。   The second mirror rotation mechanism 75 rotates the second mirror 74 in synchronization with the reciprocating movement of the second carrier 72 in the depth direction. For example, the second mirror rotation mechanism 75 has an actuator (not shown), and rotates the second mirror 74 by the driving force from the actuator.

第2キャリア72の移動及び第2ミラー74の回転により、第2画像読取部71の読取ラインIL2は、載置面25上において、奥行き方向に移動する。つまり、読取ラインIL2を形成するラインセンサの副走査方向は、奥行き方向(Y方向)となる。幅方向と平行な読取ラインIL2が奥行き方向に移動することで、第2載置面25における2次元の画像を読み取ることができる。   The movement of the second carrier 72 and the rotation of the second mirror 74 move the reading line IL2 of the second image reading unit 71 in the depth direction on the placement surface 25. That is, the sub-scanning direction of the line sensor forming the reading line IL2 is the depth direction (Y direction). By moving the reading line IL2 parallel to the width direction in the depth direction, a two-dimensional image on the second placement surface 25 can be read.

照明8は、載置台2に載置された見開き媒体SMに対して光を照射する。照明8は、第1読取ユニット6側に設けられる第1照明81と、第2読取ユニット7側に設けられる第2照明82と、第1照明回転機構83と、第2照明回転機構84とを有する。   The illumination 8 applies light to the spread medium SM placed on the mounting table 2. The illumination 8 includes a first illumination 81 provided on the first reading unit 6 side, a second illumination 82 provided on the second reading unit 7 side, a first illumination rotation mechanism 83, and a second illumination rotation mechanism 84. Have.

第1照明81は、回転軸O1周りに回転自在に支持される。また、第1照明81は、幅方向において、第1読取ユニット6の両端に設けられる。一対の第1照明81の照射範囲は、幅方向に延在する帯状となり、幅方向において、第1画像読取部61の読取領域S1Fよりも大きい。第1照明回転機構83は、一対の第1照明81を回転させる。例えば、第1照明回転機構83は、アクチュエータ(図示省略)を有しており、アクチュエータからの駆動力により、一対の第1照明81を回転させる。第1照明回転機構83は、ミラー64の回転により奥行き方向で移動する光軸L1が第1照明81の照射領域LA1に常に含まれるように、第1照明81を回転させる。   The first illumination 81 is rotatably supported around the rotation axis O1. The first illumination 81 is provided at both ends of the first reading unit 6 in the width direction. The irradiation range of the pair of first illuminations 81 is a strip extending in the width direction, and is larger than the reading area S1F of the first image reading unit 61 in the width direction. The first illumination rotation mechanism 83 rotates the pair of first illuminations 81. For example, the first illumination rotation mechanism 83 has an actuator (not shown), and rotates the pair of first illuminations 81 by the driving force from the actuator. The first illumination rotation mechanism 83 rotates the first illumination 81 such that the optical axis L1 moving in the depth direction by the rotation of the mirror 64 is always included in the illumination area LA1 of the first illumination 81.

第2照明82は、回転軸O2周りに回転自在に支持される。また、第2照明82は、幅方向において、第2読取ユニット7の両端に設けられる。一対の第2照明82の照射範囲は、幅方向に延在する帯状となり、幅方向において、第2画像読取部71の読取領域S2Fより大きい。第2照明回転機構84は、一対の第2照明82を回転させる。例えば、第2照明回転機構84は、アクチュエータ(図示省略)を有しており、アクチュエータからの駆動力により、一対の第2照明82を回転させる。第2照明回転機構84は、ミラー74の回転により奥行き方向で移動する光軸L2が、第2照明82の照射領域LA2に常に含まれるように、第2照明82を回転させる。   The second illumination 82 is rotatably supported around the rotation axis O2. In addition, the second illumination 82 is provided at both ends of the second reading unit 7 in the width direction. The irradiation range of the pair of second illuminations 82 is a strip extending in the width direction, and is larger than the reading area S2F of the second image reading unit 71 in the width direction. The second illumination rotation mechanism 84 rotates the pair of second illuminations 82. For example, the second illumination rotation mechanism 84 has an actuator (not shown), and rotates the pair of second illuminations 82 by the driving force from the actuator. The second illumination rotating mechanism 84 rotates the second illumination 82 such that the optical axis L2 moving in the depth direction by the rotation of the mirror 74 is always included in the illumination area LA2 of the second illumination 82.

つまり、見開き媒体SMに対する照明8の照射位置は、見開き媒体SMに対する光軸L1,L2の位置変化に同期して変化する。   That is, the irradiation position of the illumination 8 with respect to the spread medium SM changes in synchronization with the positional change of the optical axes L1 and L2 with respect to the spread medium SM.

ここで、図7に示すように、第1画像読取部61の読取領域S1Fには、第2画像読取部71の読取領域S2Fの一部が含まれ、読取領域S2Fには読取領域S1Fの一部が含まれる。また、図8に示すように、読取領域S1Fにより第1載置面24上に形成される読取領域S1FAは幅方向において第1載置面24より大きく、読取領域S2Fにより第2載置面25上に形成される読取領域S2FAは幅方向において第2載置面25より大きい。読取領域S1FAは、第1載置面24上での矩形の水平面となり、読取領域S2FAは、第2載置面25上での矩形の水平面となる。さらに、幅方向において、読取領域S1FAの第2載置面25側の端部は、載置台2の中央よりも第2載置面25側に位置し、読取領域S2FAの第1載置面24側の端部は、載置台2の中央よりも第1載置面24側に位置する。つまり、幅方向において、載置台2の中央付近に、読取領域S1FAの一部と読取領域S2FAの一部とが互いに重なる領域である重複領域S0FAが形成される。よって、第1画像読取部61により読み取られた画像と、第2画像読取部71により読み取られた画像とには、互いに重複した画像が含まれることになる。   Here, as shown in FIG. 7, the reading area S1F of the first image reading unit 61 includes a part of the reading area S2F of the second image reading unit 71, and one reading area S1F is included in the reading area S2F. Department is included. Further, as shown in FIG. 8, the reading area S1FA formed on the first placement surface 24 by the reading area S1F is larger than the first placement surface 24 in the width direction, and the second placement surface 25 is obtained by the reading area S2F. The reading area S2FA formed on the upper side is larger than the second mounting surface 25 in the width direction. The reading area S1FA is a rectangular horizontal surface on the first placement surface 24, and the reading area S2FA is a rectangular horizontal surface on the second placement surface 25. Furthermore, in the width direction, the end on the second mounting surface 25 side of the reading area S1FA is located closer to the second mounting surface 25 than the center of the mounting table 2, and the first mounting surface 24 of the reading area S2FA. The end on the side is positioned closer to the first mounting surface 24 than the center of the mounting table 2. That is, in the width direction, an overlapping area S0FA in which a part of the reading area S1FA and a part of the reading area S2FA overlap with each other is formed in the vicinity of the center of the mounting table 2. Therefore, the image read by the first image reading unit 61 and the image read by the second image reading unit 71 include mutually overlapping images.

第1読取ユニット6は、さらに、第1線状光照射部211と、第1照射部回転機構221と、第1線状光用撮像カメラ231とを有する。   The first reading unit 6 further includes a first linear light irradiation unit 211, a first irradiation unit rotation mechanism 221, and a first linear light imaging camera 231.

第1線状光照射部211は、幅方向に平行な線状レーザ光BF1を第1載置面24に対して照射するため、第1載置面24に載置された見開き媒体SMの見開き面P1に線状レーザ光BF1を照射することになる。第1線状光照射部211は、第1読取ユニット6に対して、幅方向に平行な回転軸O3周りに回転自在に支持される。第1線状光照射部211は、奥行き方向において、載置面24より奥側に配置され、かつ、第1ミラー64より奥側に配置される。また、第1線状光照射部211は、回転軸O3周りに回転することで、線状レーザ光BF1を奥行き方向で移動させる。   The first linear light irradiation unit 211 spreads the spread medium SM placed on the first placement surface 24 in order to irradiate the first placement surface 24 with the linear laser light BF1 parallel to the width direction. The surface P1 is irradiated with the linear laser light BF1. The first linear light emitting unit 211 is rotatably supported around the rotation axis O3 parallel to the width direction with respect to the first reading unit 6. The first linear light emitting unit 211 is disposed on the back side of the mounting surface 24 in the depth direction, and is disposed on the back side of the first mirror 64. The first linear light irradiation unit 211 moves the linear laser beam BF1 in the depth direction by rotating around the rotation axis O3.

第1照射部回転機構221は、第1線状光照射部211を回転させる。例えば、第1照射部回転機構221は、アクチュエータ(図示省略)を有しており、アクチュエータからの駆動力により、第1線状光照射部211を回転させる。   The first irradiating unit rotating mechanism 221 rotates the first linear light irradiating unit 211. For example, the first irradiation unit rotation mechanism 221 has an actuator (not shown), and rotates the first linear light irradiation unit 211 by the driving force from the actuator.

第1線状光用撮像カメラ231は、線状レーザ光BF1の移動と非同期に、線状レーザ光BF1を含んだ状態の読取領域SF1Aを連続して撮像する。第1線状光用撮像カメラ231は、幅方向(X方向)及び奥行き方向(Y方向)の双方に2次元に配列された複数の撮像素子で形成されるエリアセンサを有する。第1線状光用撮像カメラ231は、奥行き方向において、第1読取ユニット6の手前側の端部付近に配置され、第1載置面24上の見開き媒体SMの見開き面P1の全面を撮像可能なように第1読取ユニット6の下面側に配置される。   The first linear light imaging camera 231 continuously images the reading area SF1A including the linear laser light BF1 asynchronously with the movement of the linear laser light BF1. The first linear light imaging camera 231 has an area sensor formed of a plurality of imaging elements arranged two-dimensionally in both the width direction (X direction) and the depth direction (Y direction). The first linear light imaging camera 231 is disposed near the end on the front side of the first reading unit 6 in the depth direction, and captures the entire surface of the spread surface P1 of the spread medium SM on the first placement surface 24 It is disposed on the lower surface side of the first reading unit 6 as much as possible.

第2読取ユニット7は、さらに、第2線状光照射部212と、第2照射部回転機構222と、第2線状光用撮像カメラ232とを有する。   The second reading unit 7 further includes a second linear light irradiation unit 212, a second irradiation unit rotation mechanism 222, and a second linear light imaging camera 232.

第2線状光照射部212は、幅方向に平行な線状レーザ光BF2を第2載置面25に対して照射するため、第2載置面25に載置された見開き媒体SMの見開き面P2に線状レーザ光BF2を照射することになる。第2線状光照射部212は、第2読取ユニット7に対して、幅方向に平行な回転軸O4周りに回転自在に支持される。第2線状光照射部212は、奥行き方向において、載置面25より奥側に配置され、かつ、第2ミラー74より奥側に配置される。また、第2線状光照射部212は、回転軸O4周りに回転することで、線状レーザ光BF2を奥行き方向で移動させる。   The second linear light irradiation unit 212 spreads the spread medium SM placed on the second placement surface 25 in order to irradiate the second placement surface 25 with the linear laser light BF2 parallel to the width direction. The surface P2 is to be irradiated with the linear laser beam BF2. The second linear light emitting unit 212 is rotatably supported by the second reading unit 7 around a rotation axis O4 parallel to the width direction. The second linear light emitting unit 212 is disposed on the back side of the mounting surface 25 in the depth direction, and is disposed on the rear side of the second mirror 74. The second linear light irradiation unit 212 moves the linear laser beam BF2 in the depth direction by rotating around the rotation axis O4.

第2照射部回転機構222は、第2線状光照射部212を回転させる。例えば、第2照射部回転機構222は、アクチュエータ(図示省略)を有しており、アクチュエータからの駆動力により、第2線状光照射部212を回転させる。   The second irradiation unit rotation mechanism 222 rotates the second linear light irradiation unit 212. For example, the second irradiation unit rotation mechanism 222 has an actuator (not shown), and rotates the second linear light irradiation unit 212 by the driving force from the actuator.

第2線状光用撮像カメラ232は、線状レーザ光BF2の移動と非同期に、線状レーザ光BF2を含んだ状態の読取領域SF2Aを連続して撮像する。第2線状光用撮像カメラ232は、幅方向(X方向)及び奥行き方向(Y方向)の双方に2次元に配列された複数の撮像素子で形成されるエリアセンサを有する。第2線状光用撮像カメラ232は、奥行き方向において、第2読取ユニット7の手前側の端部付近に配置され、第2載置面25上の見開き媒体SMの見開き面P2の全面を撮像可能なように第2読取ユニット7の下面側に配置される。   The second linear light imaging camera 232 continuously images the reading area SF2A in a state including the linear laser light BF2 asynchronously with the movement of the linear laser light BF2. The second linear light imaging camera 232 has an area sensor formed of a plurality of imaging elements arranged two-dimensionally in both the width direction (X direction) and the depth direction (Y direction). The second linear light imaging camera 232 is disposed near the end on the front side of the second reading unit 7 in the depth direction, and captures the entire surface of the spread surface P2 of the spread medium SM on the second placement surface 25 It is disposed on the lower surface side of the second reading unit 7 as much as possible.

ここで、読取ラインIL1,IL2と、線状レーザ光BF1,BF2との位置関係は、例えば、以下のようになる。図9及び図10は、実施例1の読取ラインと線状レーザ光との位置関係の一例を示す図である。   Here, the positional relationship between the reading lines IL1 and IL2 and the linear laser beams BF1 and BF2 is, for example, as follows. FIGS. 9 and 10 are diagrams showing an example of the positional relationship between the reading line and the linear laser light in the first embodiment.

図9及び図10に示すように、読取ラインIL1,IL2と、線状レーザ光BF1,BF2とは、奥行き方向において、互いに重なり合わないようにずれた状態で移動する。また、幅方向において、線状レーザ光BF1と、線状レーザ光BF2とは、重ならない。   As shown in FIGS. 9 and 10, the reading lines IL1 and IL2 and the linear laser beams BF1 and BF2 move in the depth direction so as not to overlap with each other. Further, in the width direction, the linear laser beam BF1 and the linear laser beam BF2 do not overlap.

例えば、図9に示すように、奥行き方向において、線状レーザ光BF1は常に読取ラインIL1の奥側に位置し、線状レーザ光BF2は常に読取ラインIL2の奥側に位置する。また例えば、図10に示すように、奥行き方向において、線状レーザ光BF1は常に読取ラインIL1の手前側に位置し、線状レーザ光BF2は常に読取ラインIL2の手前側に位置する。図9及び図10の何れの位置関係でも、奥行き方向において、線状レーザ光BF1と読取ラインIL1との距離は一定に保たれ、線状レーザ光BF2と読取ラインIL2との距離は一定に保たれる。   For example, as shown in FIG. 9, in the depth direction, the linear laser beam BF1 is always located at the back side of the reading line IL1, and the linear laser beam BF2 is always located at the back side of the reading line IL2. For example, as shown in FIG. 10, in the depth direction, the linear laser beam BF1 is always located on the front side of the reading line IL1, and the linear laser beam BF2 is always located on the front side of the reading line IL2. 9 and 10, the distance between the linear laser beam BF1 and the reading line IL1 is kept constant in the depth direction, and the distance between the linear laser beam BF2 and the reading line IL2 is kept constant. Get down.

<画像読取装置の構成>
図11は、実施例1の画像読取装置の構成を示すブロック図である。図11において、画像読取装置1は、第1読取ユニット6と、第2読取ユニット7と、制御ユニット10とを有する。制御ユニット10内の各部は、制御ユニット10の各機能を示す。制御ユニット10は、ハードウェアの構成要素として、例えば、プロセッサと、メモリとを有する。プロセッサとメモリとにより、制御ユニット10の各機能が実現される。プロセッサの一例として、CPU(Central Processing Unit),DSP(Digital Signal Processor),FPGA(Field Programmable Gate Array)等が挙げられる。また、制御ユニット10は、プロセッサと周辺回路とを含むLSI(Large Scale Integrated circuit)を有してもよい。メモリの一例として、SDRAM等のRAM,ROM,フラッシュメモリ等が挙げられる。制御ユニット10は、例えば、載置台本体部21の内部に備えられる。
<Configuration of Image Reading Device>
FIG. 11 is a block diagram showing the configuration of the image reading apparatus of the first embodiment. In FIG. 11, the image reading apparatus 1 includes a first reading unit 6, a second reading unit 7, and a control unit 10. Each part in control unit 10 shows each function of control unit 10. The control unit 10 has, for example, a processor and a memory as hardware components. Each function of the control unit 10 is realized by the processor and the memory. Examples of the processor include a central processing unit (CPU), a digital signal processor (DSP), and a field programmable gate array (FPGA). The control unit 10 may also have a large scale integrated circuit (LSI) that includes a processor and peripheral circuits. Examples of the memory include RAM such as SDRAM, ROM, flash memory and the like. The control unit 10 is provided, for example, inside the mounting table main body 21.

制御ユニット10は、画像読取制御部101と、照明制御部102と、第1機構制御部103と、画像処理部105と、記憶部106と、通信部107とを有する。画像処理部105は、合成部170を有する。通信部107は、画像読取装置1の外部の外部機器300と接続される。外部機器300は、例えば、パーソナルコンピュータである。また、制御ユニット10は、線状光照射制御部108と、線状光撮像制御部109と、第2機構制御部110と、キャリブレーション部120とを有する。また、制御ユニット10は、高低差検出部130と、高低差判定部140と、被写界深度設定部150と、読取回数決定部160とを有する。   The control unit 10 includes an image reading control unit 101, a lighting control unit 102, a first mechanism control unit 103, an image processing unit 105, a storage unit 106, and a communication unit 107. The image processing unit 105 includes a combining unit 170. The communication unit 107 is connected to an external device 300 external to the image reading apparatus 1. The external device 300 is, for example, a personal computer. The control unit 10 further includes a linear light irradiation control unit 108, a linear light imaging control unit 109, a second mechanism control unit 110, and a calibration unit 120. Further, the control unit 10 includes an elevation difference detection unit 130, an elevation difference determination unit 140, a depth of field setting unit 150, and a reading number determination unit 160.

画像読取制御部101は、第1画像読取部61及び第2画像読取部71の読取開始タイミング、読取終了タイミング、露光時間、及び、露光タイミング等を制御する。   The image reading control unit 101 controls reading start timing, reading end timing, exposure time, exposure timing, and the like of the first image reading unit 61 and the second image reading unit 71.

照明制御部102は、第1照明81及び第2照明82の点灯タイミング、消灯タイミング、及び、光量等を制御する。   The illumination control unit 102 controls the lighting timing, the lighting-off timing, the light amount and the like of the first lighting 81 and the second lighting 82.

第1機構制御部103は、第1キャリア移動機構63と、第2キャリア移動機構73と、第1ミラー回転機構65と、第2ミラー回転機構75と、第1照明回転機構83と、第2照明回転機構84とを制御する。第1機構制御部103は、各機構のアクチュエータを動作させ、第1キャリア62及び第2キャリア72の移動動作、第1ミラー64及び第2ミラー74の回転動作、及び、第1照明81及び第2照明82の回転動作を互いに同期させて制御する。   The first mechanism control unit 103 includes a first carrier moving mechanism 63, a second carrier moving mechanism 73, a first mirror rotation mechanism 65, a second mirror rotation mechanism 75, a first illumination rotation mechanism 83, and a second mechanism. The illumination rotation mechanism 84 is controlled. The first mechanism control unit 103 operates actuators of each mechanism to move the first carrier 62 and the second carrier 72, rotate the first mirror 64 and the second mirror 74, and operate the first illumination 81 and the first The rotational operations of the two lights 82 are controlled in synchronization with each other.

画像処理部105は、第1画像読取部61によって読み取られた画像を表す信号から、読取領域S1FAの全領域の画像のデータ(以下では「第1読取データ」と呼ぶことがある)を生成する。また、画像処理部105は、第2画像読取部71によって読み取られた画像を表す信号から、読取領域S2FAの全領域の画像のデータ(以下では「第2読取データ」と呼ぶことがある)を生成する。合成部170は、第1読取データと第2読取データとを合成して見開き媒体SMの見開き面P1,P2の全面に対応する画像データ(以下では「見開き面画像データ」と呼ぶことがある)を生成する。第1読取データと第2読取データとには、互いに重複したデータ(つまり、重複領域S0FAでの画像のデータ)が含まれる。そこで、合成部170は、重複領域S0FAに基づいて、第1読取データまたは第2読取データの一方のデータと、他方のデータから重複データを除いた後の残りのデータとを合成することにより、見開き面画像データを生成する。   The image processing unit 105 generates data of an image of the entire area of the reading area S1FA (hereinafter may be referred to as “first read data”) from the signal representing the image read by the first image reading unit 61. . Further, from the signal representing the image read by the second image reading unit 71, the image processing unit 105 may use data of an image of the entire reading area S2FA (hereinafter may be referred to as “second read data”). Generate The combining unit 170 combines the first read data and the second read data, and image data corresponding to the entire area of the spread faces P1 and P2 of the spread medium SM (hereinafter may be referred to as “spread face image data”) Generate The first read data and the second read data include mutually overlapping data (that is, data of an image in the overlapping area S0FA). Therefore, the combining unit 170 combines one data of the first read data or the second read data with the remaining data after removing the duplicate data from the other data, based on the overlapping area S0FA. Generate facing surface image data.

記憶部106は、第1読取データ、第2読取データ、及び、見開き面画像データを記憶する。また、記憶部106は、キャリブレーション部120により得られるパラメータを記憶する。   The storage unit 106 stores first read data, second read data, and spread plane image data. Further, the storage unit 106 stores parameters obtained by the calibration unit 120.

通信部107は、記憶部106に記憶された第1読取データ、第2読取データ、及び、見開き面画像データを外部機器300へ出力することができる。   The communication unit 107 can output the first read data, the second read data, and the spread area image data stored in the storage unit 106 to the external device 300.

線状光照射制御部108は、第1線状光照射部211及び第2線状光照射部212の点灯タイミング、消灯タイミング、及び、光量等を制御する。   The linear light irradiation control unit 108 controls the lighting timing, the extinguishing timing, the light amount, and the like of the first linear light irradiation unit 211 and the second linear light irradiation unit 212.

線状光撮像制御部109は、第1線状光用撮像カメラ231及び第2線状光用撮像カメラ232の撮像開始タイミング、撮像タイミング、露光時間、及び、露光タイミング等を制御する。   The linear light imaging control unit 109 controls imaging start timing, imaging timing, exposure time, exposure timing, and the like of the first linear light imaging camera 231 and the second linear light imaging camera 232.

第2機構制御部110は、第1照射部回転機構221及び第2照射部回転機構222のアクチュエータを動作させ、第1照射部回転機構221及び第2照射部回転機構222の回転動作を制御する。   The second mechanism control unit 110 operates the actuators of the first irradiating unit rotating mechanism 221 and the second irradiating unit rotating mechanism 222 to control the rotating operation of the first irradiating unit rotating mechanism 221 and the second irradiating unit rotating mechanism 222. .

キャリブレーション部120は、識別領域DA1,DA2内に設定された複数の基準位置1〜n(図12及び図13参照)に対して、第1線状光照射部211と第1線状光用撮像カメラ231との位置関係に基づくパラメータ、及び、第2線状光照射部212と第2線状光用撮像カメラ232との位置関係に基づくパラメータを設定して記憶部106に格納する。   The calibration unit 120 is for the first linear light irradiation unit 211 and the first linear light with respect to the plurality of reference positions 1 to n (see FIGS. 12 and 13) set in the identification areas DA1 and DA2. A parameter based on the positional relationship with the imaging camera 231 and a parameter based on the positional relationship between the second linear light irradiation unit 212 and the second linear light imaging camera 232 are set and stored in the storage unit 106.

図12は、実施例1のキャリブレーション動作の一例を示す図であり、図13は、実施例1の基準位置に対応するパラメータの一例を示す図である。図12には、一例として、第2読取ユニット7でのキャリブレーション動作を示すが、第1読取ユニット6でのキャリブレーション動作も、第2読取ユニット7でのキャリブレーション動作と同様である。   FIG. 12 is a diagram showing an example of the calibration operation of the first embodiment, and FIG. 13 is a diagram showing an example of parameters corresponding to the reference position of the first embodiment. Although FIG. 12 shows the calibration operation in the second reading unit 7 as an example, the calibration operation in the first reading unit 6 is also similar to the calibration operation in the second reading unit 7.

図12において、第2線状光照射部212は、識別領域DA2を含む第2載置面25に対して、線状レーザ光B1,B2,B3〜Bnを、奥行き方向の奥側から手前側へ移動させながら順に照射する。第2線状光用撮像カメラ232は、線状レーザ光B1,B2,B3〜Bnが順に照射される第2載置面25を順次撮像して、線状レーザ光B1,B2,B3〜Bnの撮像画像を含む画像データを生成する。以下では、線状レーザ光Bの撮像画像を含む画像データを「線状レーザ光画像データ」と呼ぶことがある。   In FIG. 12, the second linear light irradiation unit 212 generates linear laser beams B1, B2, and B3 to Bn with respect to the second placement surface 25 including the identification area DA2 from the far side to the near side in the depth direction. Irradiate sequentially while moving to. The second linear light imaging camera 232 sequentially images the second mounting surface 25 to which the linear laser beams B1, B2, B3 to Bn are sequentially irradiated, and the linear laser beams B1, B2, B3 to Bn Image data including a captured image of Below, the image data containing the captured image of linear laser beam B may be called "linear laser beam image data."

キャリブレーション部120は、図13に示すように、識別領域DA2に照射された線状レーザ光B1が示す基準位置1に対して、3次元座標計算用のパラメータ1を設定する。同様に、キャリブレーション部120は、線状レーザ光B2,B3〜Bnの各々が示す基準位置2,3〜nに対して、3次元座標計算用のパラメータ2,3〜nをそれぞれ設定する。なお、3次元座標計算用のパラメータの設定には、第2線状光照射部212と第2線状光用撮像カメラ232との位置関係に基づいて、周知の三角測距法を利用する。キャリブレーション部120は、パラメータ1,2,3〜nの各々を、基準位置1,2,3〜nの各々に対応付けて記憶部106に格納する。記憶部106に格納されたパラメータは、高低差検出部130が用いる平面方程式の係数(a,b,c,d)として利用される。   As illustrated in FIG. 13, the calibration unit 120 sets a parameter 1 for three-dimensional coordinate calculation with respect to a reference position 1 indicated by the linear laser beam B1 irradiated to the identification area DA2. Similarly, the calibration unit 120 sets parameters 2 and 3 to 3 for three-dimensional coordinate calculation to the reference positions 2 and 3 to n indicated by each of the linear laser beams B2 and B3 to Bn. A well-known triangular distance measurement method is used to set parameters for three-dimensional coordinate calculation based on the positional relationship between the second linear light irradiation unit 212 and the second linear light imaging camera 232. The calibration unit 120 stores each of the parameters 1, 2, 3 to n in the storage unit 106 in association with each of the reference positions 1, 2, 3 to n. The parameters stored in the storage unit 106 are used as coefficients (a, b, c, d) of the plane equation used by the height difference detection unit 130.

高低差検出部130は、線状レーザ光画像データに基づいて、第1載置面24に載置された見開き媒体SMの見開き面P1における鉛直方向での高低差DOE1を検出する。また、高低差検出部130は、線状レーザ光画像データに基づいて、第2載置面25に載置された見開き媒体SMの見開き面P2における鉛直方向での高低差DOE2を検出する。   The height difference detection unit 130 detects the height difference DOE1 in the vertical direction on the spread surface P1 of the spread medium SM placed on the first placement surface 24 based on the linear laser light image data. Further, the height difference detection unit 130 detects the height difference DOE2 in the vertical direction on the spread surface P2 of the spread medium SM placed on the second placement surface 25 based on the linear laser light image data.

高低差判定部140は、高低差検出部130によって検出された高低差DOE1が第1読取ユニット6の所定の被写界深度DOF1以内にあるか否かを判定し、判定結果を画像読取制御部101、合成部170及び読取回数決定部160へ出力する。また、高低差判定部140は、高低差検出部130によって検出された高低差DOE2が第2読取ユニット7の所定の被写界深度DOF2以内にあるか否かを判定し、判定結果を画像読取制御部101、合成部170及び読取回数決定部160へ出力する。なお、通常は、被写界深度DOF1の大きさと、被写界深度DOF2の大きさとは同一である。   The height difference determination unit 140 determines whether the height difference DOE1 detected by the height difference detection unit 130 is within the predetermined depth of field DOF1 of the first reading unit 6, and the determination result is an image reading control unit. 101, and output to the combining unit 170 and the reading number determining unit 160. Further, the height difference determination unit 140 determines whether the height difference DOE2 detected by the height difference detection unit 130 is within the predetermined depth of field DOF 2 of the second reading unit 7 and reads the determination result as an image. The information is output to the control unit 101, the combining unit 170, and the reading number determination unit 160. Generally, the size of the depth of field DOF1 is the same as the size of the depth of field DOF2.

画像読取制御部101は、高低差DOE1が被写界深度DOF1以内にあるときは、副走査方向での1回の走査で見開き面P1の全面の画像を1回読み取る「単数読取」を第1読取ユニット6に行わせる。よって、合成部170は、高低差DOE1が被写界深度DOF1以内にあるときは、第1読取データを1回取得する。一方で、画像読取制御部101は、高低差DOE1が被写界深度DOF1を超えるときは、副走査方向での複数回の走査で見開き面P1の全面の画像を複数回読み取る「複数読取」を第1読取ユニット6に行わせる。よって、合成部170は、高低差DOE1が被写界深度DOF1を超えるときは、第1読取データを複数回取得する。   When the height difference DOE1 is within the depth of field DOF1, the image reading control unit 101 performs “single reading” that reads once the image on the entire surface of the spread plane P1 in one scan in the sub scanning direction. The reading unit 6 is made to perform. Therefore, when the height difference DOE1 is within the depth of field DOF1, the combining unit 170 acquires the first read data once. On the other hand, when the height difference DOE1 exceeds the depth of field DOF1, the image reading control unit 101 reads "multiple reading" reading the image on the entire surface of the spread plane P1 multiple times by multiple scans in the sub scanning direction. The first reading unit 6 is made to perform. Therefore, when the height difference DOE1 exceeds the depth of field DOF1, the combining unit 170 acquires the first read data a plurality of times.

また、画像読取制御部101は、高低差DOE2が被写界深度DOF2以内にあるときは、副走査方向での1回の走査で見開き面P2の全面の画像を1回読み取る「単数読取」を第2読取ユニット7に行わせる。よって、合成部170は、高低差DOE2が被写界深度DOF2以内にあるときは、第2読取データを1回取得する。一方で、画像読取制御部101は、高低差DOE2が被写界深度DOF2を超えるときは、副走査方向での複数回の走査で見開き面P2の全面の画像を複数回読み取る「複数読取」を第2読取ユニット7に行わせる。よって、合成部170は、高低差DOE2が被写界深度DOF2を超えるときは、第2読取データを複数回取得する。   Further, when the height difference DOE 2 is within the depth of field DOF 2, the image reading control unit 101 reads “single reading” that reads the image on the entire surface of the spread plane P 2 once in one scan in the sub scanning direction. The second reading unit 7 is made to perform. Therefore, when the height difference DOE2 is within the depth of field DOF2, the combining unit 170 acquires the second read data once. On the other hand, when the height difference DOE 2 exceeds the depth of field DOF 2, the image reading control unit 101 reads “multiple reading” reading the image on the entire surface of the spread plane P 2 multiple times by multiple scans in the sub scanning direction. The second reading unit 7 is made to perform. Therefore, when the height difference DOE2 exceeds the depth of field DOF2, the combining unit 170 acquires the second read data a plurality of times.

そして、合成部170は、高低差DOE1が被写界深度DOF1を超えるときは、複数回取得した第1読取データを合成することで、最終的な第1読取データを生成する。また、合成部170は、高低差DOE2が被写界深度DOF2を超えるときは、複数回取得した第2読取データを合成することで、最終的な第2読取データを生成する。合成部170での合成の詳細は後述する。   Then, when the height difference DOE1 exceeds the depth of field DOF1, the combining unit 170 combines the first read data acquired a plurality of times to generate final first read data. Further, when the height difference DOE2 exceeds the depth of field DOF2, the combining unit 170 combines the second read data acquired a plurality of times to generate the final second read data. Details of the synthesis in the synthesis unit 170 will be described later.

被写界深度設定部150は、画像読取装置1のユーザの所望の解像度に応じて、被写界深度DOF1,DOF2を高低差判定部140に設定する。ユーザは、画像読取装置1が有する入力インタフェース(図示省略)を用いて、所望の解像度を画像読取装置1に設定することが可能である。   The depth of field setting unit 150 sets the depth of field DOF 1 and DOF 2 in the height difference determination unit 140 according to the resolution desired by the user of the image reading device 1. A user can set a desired resolution in the image reading apparatus 1 using an input interface (not shown) of the image reading apparatus 1.

読取回数決定部160は、高低差DOE1が被写界深度DOF1を超えるときは、第1読取ユニット6での複数読取における読取回数を決定し、決定した読取回数を画像読取制御部101へ出力する。また、読取回数決定部160は、高低差DOE2が被写界深度DOF2を超えるときは、第2読取ユニット7での複数読取における読取回数を決定し、決定した読取回数を画像読取制御部101へ出力する。画像読取制御部101は、読取回数決定部160により決定された読取回数で、第1読取ユニット6及び第2読取ユニット7に複数読取を行わせる。例えば、読取回数決定部160は、「DOF1×M≧DOE1(Mは2以上の整数)」の条件を満たす最小のMを第1読取ユニット6での複数読取における読取回数に決定する。また例えば、読取回数決定部160は、「DOF2×K≧DOE2(Kは2以上の整数)」の条件を満たす最小のKを第2読取ユニット7での複数読取における読取回数に決定する。   When the height difference DOE1 exceeds the depth of field DOF1, the number-of-readings determining unit 160 determines the number of readings in multiple readings by the first reading unit 6, and outputs the determined number of readings to the image reading control unit 101. . Further, when the height difference DOE 2 exceeds the depth of field DOF 2, the reading number determination unit 160 determines the number of readings in the multiple reading by the second reading unit 7 and sends the determined reading number to the image reading control unit 101. Output. The image reading control unit 101 causes the first reading unit 6 and the second reading unit 7 to perform a plurality of readings with the number of readings determined by the number-of-readings determining unit 160. For example, the reading number determination unit 160 determines the minimum M that satisfies the condition of “DOF1 × MDODOE1 (M is an integer of 2 or more)” as the number of readings in the multiple reading in the first reading unit 6. Further, for example, the reading number determination unit 160 determines the minimum K that satisfies the condition of “DOF2 × K ≧ DOE2 (K is an integer of 2 or more)” as the number of readings in the multiple reading by the second reading unit 7.

<高低差検出処理>
図14及び図15は、実施例1の高低差検出処理の一例を示すフローチャートである。図14には、高低差検出処理における画像取得処理のフローチャートを示し、図15には、高低差検出処理における3次元データ算出処理のフローチャートを示す。
<High / low difference detection processing>
14 and 15 are flowcharts illustrating an example of the height difference detection process according to the first embodiment. FIG. 14 shows a flowchart of image acquisition processing in height difference detection processing, and FIG. 15 shows a flowchart of three-dimensional data calculation processing in height difference detection processing.

図14のステップST20では、線状光照射制御部108が第1線状光照射部211及び第2線状光照射部212を制御して線状レーザ光をOFFにした状態で、線状光撮像制御部109が第1線状光用撮像カメラ231及び第2線状光用撮像カメラ232を制御して見開き媒体SMの画像を取得する。つまり「レーザ光無し画像」を取得する。   In step ST20 in FIG. 14, the linear light irradiation control unit 108 controls the first linear light irradiation unit 211 and the second linear light irradiation unit 212 to turn off the linear laser light, and the linear light is controlled. The imaging control unit 109 controls the first linear light imaging camera 231 and the second linear light imaging camera 232 to acquire an image of the spread medium SM. That is, the "image without laser beam" is acquired.

次いで、ステップST21では、線状光照射制御部108が第1線状光照射部211及び第2線状光照射部212を制御して線状レーザ光をONにする。   Next, in step ST21, the linear light irradiation control unit 108 controls the first linear light irradiation unit 211 and the second linear light irradiation unit 212 to turn on the linear laser light.

次いで、ステップST22では、第2機構制御部110が第1照射部回転機構221及び第2照射部回転機構222を制御して第1線状光照射部211及び第2線状光照射部212の回転動作を開始することで、線状レーザ光の移動を開始する。   Next, in step ST22, the second mechanism control unit 110 controls the first irradiating unit rotating mechanism 221 and the second irradiating unit rotating mechanism 222 to control the first linear light irradiating unit 211 and the second linear light irradiating unit 212. By starting the rotation operation, the movement of the linear laser light is started.

次いで、ステップST23では、線状レーザ光がONになった状態で、線状光撮像制御部109が第1線状光用撮像カメラ231及び第2線状光用撮像カメラ232を制御して見開き媒体SMの画像の読取を開始する。つまり「レーザ光有り画像」の読取を開始する。   Next, in step ST23, the linear light imaging control unit 109 controls the first linear light imaging camera 231 and the second linear light imaging camera 232 in a state in which the linear laser light is turned on to open the spread. Start reading an image of the medium SM. That is, reading of the “image with laser beam” is started.

次いで、ステップST24では、線状光撮像制御部109は、現在のフレームが新フレームであるか否かを判定する。現在のフレームが新フレームでないときは(ステップST24:No)、線状光撮像制御部109は、ステップST24の判定を繰り返す。一方で、現在のフレームが新フレームであるときは(ステップST24:Yes)、処理はステップST25へ進む。   Next, in step ST24, the linear light imaging control unit 109 determines whether the current frame is a new frame. When the current frame is not a new frame (step ST24: No), the linear light imaging control unit 109 repeats the determination of step ST24. On the other hand, when the current frame is a new frame (step ST24: Yes), the process proceeds to step ST25.

ステップST25では、線状光撮像制御部109が第1線状光用撮像カメラ231及び第2線状光用撮像カメラ232を制御してレーザ光有り画像を読み取る。   In step ST25, the linear light imaging control unit 109 controls the first linear light imaging camera 231 and the second linear light imaging camera 232 to read an image with a laser beam.

次いで、ステップST26では、線状光照射制御部108は、照射開始位置から照射終了位置まで線状レーザ光を移動させたか否かを判定する。つまり、線状光照射制御部108は、線状レーザ光の移動が終了したか否かを判定する。線状レーザ光の移動が終了していないときは(ステップST26:No)、処理はステップST24へ戻る。一方で、線状レーザ光の移動が終了したときは(ステップST26:Yes)、処理はステップST27へ進む。   Next, in step ST26, the linear light irradiation control unit 108 determines whether the linear laser light has been moved from the irradiation start position to the irradiation end position. That is, the linear light irradiation control unit 108 determines whether or not the movement of the linear laser light has ended. When the movement of the linear laser light has not ended (step ST26: No), the process returns to step ST24. On the other hand, when the movement of the linear laser light ends (step ST26: Yes), the process proceeds to step ST27.

次いで、ステップST27では、線状光撮像制御部109は、第1線状光用撮像カメラ231及び第2線状光用撮像カメラ232を制御してレーザ光有り画像の読取を終了する。   Next, in step ST27, the linear light imaging control unit 109 controls the first linear light imaging camera 231 and the second linear light imaging camera 232 to end the reading of the image with laser light.

次いで、ステップST28では、線状光照射制御部108が第1線状光照射部211及び第2線状光照射部212を制御して線状レーザ光をOFFにする。   Next, in step ST28, the linear light irradiation control unit 108 controls the first linear light irradiation unit 211 and the second linear light irradiation unit 212 to turn off the linear laser light.

このようにして、画像読取装置1は、レーザ光無し画像と、レーザ光有り画像とを取得する。ステップST20で取得された1つのレーザ光無し画像、及び、ステップST25で取得された複数のレーザ光有り画像は、記憶部106に格納される。   Thus, the image reading device 1 obtains an image without laser light and an image with laser light. The one laser light absent image acquired in step ST20 and the plurality of laser light present images acquired in step ST25 are stored in the storage unit 106.

次いで、図15のステップST30では、高低差検出部130は、図14に示す画像取得処理が終了したか否かを判定する。図14に示す画像取得処理が終了していないときは(ステップST30:No)、高低差検出部130は、ステップST30の判定を繰り返す。一方で、図14に示す画像取得処理が終了したときは(ステップST30:Yes)、処理はステップST31へ進む。   Next, in step ST30 of FIG. 15, the height difference detection unit 130 determines whether the image acquisition process illustrated in FIG. 14 has ended. When the image acquisition process shown in FIG. 14 is not completed (step ST30: No), the height difference detection unit 130 repeats the determination of step ST30. On the other hand, when the image acquisition process shown in FIG. 14 is completed (step ST30: Yes), the process proceeds to step ST31.

ステップST31では、高低差検出部130は、レーザ光無し画像とレーザ光有り画像との差分から線状レーザ光の画像を検出する。   In step ST31, the height difference detection unit 130 detects an image of linear laser light from the difference between the image without laser light and the image with laser light.

次いで、ステップST32では、高低差検出部130は、ステップST31で検出した線状レーザ光の画像から、識別領域DA1,DA2における線状レーザ光の現在位置を特定する。   Next, in step ST32, the height difference detection unit 130 specifies the current position of the linear laser light in the identification areas DA1 and DA2 from the image of the linear laser light detected in step ST31.

次いで、ステップST33では、高低差検出部130は、ステップST32で特定した線状レーザ光の現在位置と、キャリブレーション部120により記憶部106に格納されたパラメータ1,2,3〜nとを用いて3次元データ(3次元座標)を算出することにより、線状レーザ光の現在位置における見開き面P1,P2の高さを推定する。   Next, in step ST33, the height difference detection unit 130 uses the current position of the linear laser light specified in step ST32 and the parameters 1, 2, 3 to n stored in the storage unit 106 by the calibration unit 120. By calculating three-dimensional data (three-dimensional coordinates), the heights of the spread planes P1 and P2 at the current position of the linear laser light are estimated.

図16は、実施例1の3次元データの算出方法の概要を示す図である。図16において、高低差検出部130は、線状レーザ光の画像を検出すると、線状レーザ光の実空間形状を取得できる。また、高低差検出部130は、識別領域DA1,DA2における線状レーザ光の現在位置を示すレーザ座標(u,v)を取得できる。高低差検出部130は、レーザ座標(u,v)に対応する基準位置を、記憶部106に格納された基準位置1〜nの中から検索し、線状レーザ光の現在位置に一致する基準位置に対応付けられたパラメータ(a,b,c,d)を記憶部106から取得する。そして、高低差検出部130は、取得したパラメータ(a,b,c,d)を周知の平面方程式に適用して図16に示すようなカメラモデルを構築することで、レーザ座標(u,v)に対応する3次元座標(X,Y,Z)を算出する。3次元座標(X,Y,Z)において、Zは、見開き面P1内の複数位置での第1載置面24に対する鉛直方向での高さ、及び、見開き面P2内の複数位置での第2載置面25に対する鉛直方向の高さに相当する。高低差検出部130は、順次算出した3次元座標(X,Y,Z)を記憶部106に格納する。FIG. 16 is a diagram showing an outline of a method of calculating three-dimensional data according to the first embodiment. In FIG. 16, the elevation difference detection unit 130 can acquire the real space shape of the linear laser beam when detecting the image of the linear laser beam. Further, the height difference detection unit 130 can acquire laser coordinates (u i , v i ) indicating the current position of the linear laser light in the identification areas DA1 and DA2. The height difference detection unit 130 searches the reference position corresponding to the laser coordinates (u i , v i ) from the reference positions 1 to n stored in the storage unit 106, and matches the current position of the linear laser light The parameters (a, b, c, d) associated with the reference position to be acquired are acquired from the storage unit 106. The height difference detecting unit 130, to construct the obtained parameters (a, b, c, d ) by applying the well known plane equation the camera model as shown in FIG. 16, the laser coordinate (u i, Three-dimensional coordinates (X i , Y i , Z i ) corresponding to v i ) are calculated. In three-dimensional coordinates (X i , Y i , Z i ), Z i is the height in the vertical direction with respect to the first placement surface 24 at a plurality of positions in the spread plane P1, and This corresponds to the height in the vertical direction with respect to the second mounting surface 25 at the position. The height difference detection unit 130 stores the sequentially calculated three-dimensional coordinates (X i , Y i , Z i ) in the storage unit 106.

このようにして、高低差検出部130は、識別領域DA1,DA2における基準位置に対応付けられたパラメータに基づいて、見開き面P1,P2上での線状レーザ光Bの照射位置の高さを推定することにより、見開き面P1内の複数位置での第1載置面24に対する鉛直方向での高さ、及び、見開き面P2内の複数位置での第2載置面25に対する鉛直方向での高さを推定する。そして、高低差検出部130は、見開き面P1に対して推定した複数位置での高さのうち、最大の高さと、最小の高さとの差を、見開き面P1における高低差DOE1として検出する。また、高低差検出部130は、見開き面P2に対して推定した複数位置での高さのうち、最大の高さと、最小の高さとの差を、見開き面P2における高低差DOE2として検出する。高低差検出部130は、検出した高低差DOE1,DOE2を記憶部106に格納する。   In this manner, the height difference detection unit 130 determines the height of the irradiation position of the linear laser beam B on the spread surfaces P1 and P2 based on the parameters associated with the reference positions in the identification areas DA1 and DA2. By estimating, the height in the vertical direction with respect to the first mounting surface 24 at a plurality of positions in the spread surface P1, and in the vertical direction with respect to the second mounting surface 25 in a plurality of positions in the spread surface P2. Estimate the height. Then, the height difference detection unit 130 detects the difference between the maximum height and the minimum height among heights at a plurality of positions estimated with respect to the spread surface P1 as the height difference DOE1 in the spread surface P1. Further, the height difference detection unit 130 detects a difference between the maximum height and the minimum height among heights at a plurality of positions estimated with respect to the spread plane P2 as the height difference DOE2 in the spread plane P2. The height difference detection unit 130 stores the detected height differences DOE1 and DOE2 in the storage unit 106.

<画像読取装置の動作>
図17〜図23は、実施例1の画像読取装置の動作の説明に供する図である。ここで、第1載置面24に対する動作と、第2載置面25に対する動作とは同一になるため、以下では、第2載置面25に対する動作について説明し、第1載置面24に対する動作の説明は省略する。
<Operation of Image Reading Device>
17 to 23 are diagrams for explaining the operation of the image reading apparatus according to the first embodiment. Here, since the operation on the first mounting surface 24 and the operation on the second mounting surface 25 are the same, the operation on the second mounting surface 25 will be described below. The description of the operation is omitted.

図17及び図18に示すように、高低差判定部140は、第2載置面25に載置された見開き媒体SMの見開き面P2における高低差DOE2が被写界深度DOF2以内にあるか否かを判定する。図17には、高低差DOE2が被写界深度DOF2以内にある場合を示し、図18には、高低差DOE2が被写界深度DOF2を超える場合を示す。   As shown in FIGS. 17 and 18, the height difference determination unit 140 determines whether the height difference DOE2 in the facing surface P2 of the facing medium SM placed on the second placement surface 25 is within the depth of field DOF2. Determine if FIG. 17 shows the case where the height difference DOE2 is within the depth of field DOF2, and FIG. 18 shows the case where the height difference DOE2 exceeds the depth of field DOF2.

高低差DOE2が被写界深度DOF2を超える場合は、読取回数決定部160は、第2読取ユニット7での複数読取における読取回数を決定する。読取回数決定部160は、例えば、「DOF2×K≧DOE2(Kは2以上の整数)」の条件を満たす最小のKを第2読取ユニット7での複数読取における読取回数に決定し、決定した読取回数Kを画像読取制御部101へ出力する。ここでは、一例として、読取回数は2回(K=2)に決定されたものとする。また、読取回数決定部160は、読取回数を2回に決定したときは、図19(a1),(b1),(c1)に示すように、高低差DOE2の2分の1の高さを「分割境界DB」に決定する。また、読取回数決定部160は、記憶部106に格納されている3次元座標(X,Y,Z)に基づいて、見開き面P2内で分割境界DBの高さに対応する位置(つまり、見開き面P2内で最小の高さから分割境界DBだけ高い位置)B1,B2を「分割境界位置」として求め、求めた分割境界位置B1,B2を画像読取制御部101へ出力する。If the height difference DOE 2 exceeds the depth of field DOF 2, the reading number determination unit 160 determines the number of readings in multiple readings by the second reading unit 7. The number-of-reads determining unit 160 determines, for example, the minimum number of K satisfying the condition of “DOF 2 × KDODOE 2 (K is an integer of 2 or more)” as the number of times of reading in multiple readings by the second reading unit 7. The reading number K is output to the image reading control unit 101. Here, as an example, the number of times of reading is assumed to be determined twice (K = 2). When the number of readings determination unit 160 determines that the number of readings is two, as shown in FIGS. 19 (a1), (b1), and (c1), the height of half the height difference DOE2 is set. Determined as "division boundary DB". Further, based on the three-dimensional coordinates (X i , Y i , Z i ) stored in storage unit 106, reading number determination unit 160 determines the position corresponding to the height of division boundary DB within spread surface P2 ( That is, positions B1 and B2 higher than the minimum height in the spread surface P2 from the minimum height by the division boundary DB are determined as "division boundary positions", and the calculated division boundary positions B1 and B2 are output to the image reading control unit 101.

よって、図19(a1)に示すように、見開き面P2において、分割境界DBから鉛直方向上方へ被写界深度DOF2までが合焦領域(つまり、ピントが合う領域)FA1となる。また、図19(b1)に示すように、見開き面P2において、分割境界DBから鉛直方向下方へ被写界深度DOF2までが合焦領域FA2となる。合焦領域FA1と合焦領域FA2とは、見開き面P2内において互いに異なる合焦領域である。   Therefore, as shown in FIG. 19A1, in the spread plane P2, the region from the division boundary DB to the depth of field DOF2 in the vertical direction is the in-focus region (that is, the region in focus) FA1. Further, as shown in FIG. 19 (b1), in the spread plane P2, the area from the division boundary DB to the depth of field DOF2 in the vertical direction is the focusing area FA2. The in-focus area FA1 and the in-focus area FA2 are in-focus areas different from each other in the spread plane P2.

そこで、画像読取制御部101は、1回目の読取にあたり、読取ラインIL2が初期位置PSにある状態で、合焦領域FA1内に存在する位置SP1(図19(a1)参照)での光路長が「L」になるように第2キャリア72を移動させる。位置SP1で光路長が「L」になる第2キャリア72の位置は、1回目の読取における第2キャリア72の読取開始位置となる。画像読取制御部101は、記憶部106に格納されている3次元座標(X,Y,Z)に基づいて、例えば図19(a1)に示すように、「分割境界DB+(被写界深度DOF2の2分の1)」の高さh1に対応する位置を位置SP1に設定する。1回目の読取における第2キャリア72の読取開始位置の一例を図20に示す。つまり、1回目の読取における第2キャリア72の読取開始位置での光路長は「L=l1+l2」である。Therefore, the image reading control unit 101 determines that the optical path length at the position SP1 (see FIG. 19A1) existing in the focusing area FA1 is in the state where the reading line IL2 is at the initial position PS at the first reading. The second carrier 72 is moved to be "L". The position of the second carrier 72 whose optical path length is “L” at the position SP1 is the reading start position of the second carrier 72 in the first reading. Based on the three-dimensional coordinates (X i , Y i , Z i ) stored in the storage unit 106, the image reading control unit 101, for example, as shown in FIG. A position corresponding to the height h1 of "one half of the depth of field DOF2" is set as the position SP1. An example of the reading start position of the second carrier 72 in the first reading is shown in FIG. That is, the optical path length at the reading start position of the second carrier 72 in the first reading is “L = 11 + 12”.

画像読取制御部101は、光路長を「L」で一定に保ったまま、図20及び図21に示すように、第2キャリア72を副走査方向で移動させながら第2画像読取部71に見開き面P2の画像を読み取らせる。1回目の読取における副走査方向は、例えば図20及び図21に示すように、奥行き方向で奥側から手前側へ向かう方向である。1回目の読取における第2キャリア72の読取終了位置の一例を図21に示す。つまり、1回目の読取における第2キャリア72の読取終了位置での光路長は「L=l3+l4」である。第2キャリア72が図21に示す読取終了位置に到達した時点で、読取ラインIL2が最終位置PEに到達して1回目の読取は終了し、見開き面P2の全面の1つ目の画像が得られる。   As shown in FIGS. 20 and 21, while the optical path length is kept constant at "L", the image reading control unit 101 opens the second image reading unit 71 while moving the second carrier 72 in the sub scanning direction. The image of plane P2 is read. For example, as shown in FIGS. 20 and 21, the sub-scanning direction in the first reading is the direction from the back side to the front side in the depth direction. An example of the reading end position of the second carrier 72 in the first reading is shown in FIG. That is, the optical path length at the reading end position of the second carrier 72 in the first reading is “L = 13 + 14”. When the second carrier 72 reaches the reading end position shown in FIG. 21, the reading line IL2 reaches the final position PE and the first reading is finished, and the first image of the entire spread surface P2 is obtained. Be

次いで、画像読取制御部101は、2回目の読取にあたり、読取ラインIL2が最終位置PEにある状態で、合焦領域FA2内に存在する位置SP2(図19(b1)参照)での光路長が「L」になるように第2キャリア72を移動させる。位置SP2で光路長が「L」になる第2キャリア72の位置は、2回目の読取における第2キャリア72の読取開始位置となる。画像読取制御部101は、記憶部106に格納されている3次元座標(X,Y,Z)に基づいて、例えば図19(b1)に示すように、「分割境界DB−(被写界深度DOF2の2分の1)」の高さh2に対応する位置を位置SP2に設定する。2回目の読取における第2キャリア72の読取開始位置の一例を図22に示す。つまり、2回目の読取における第2キャリア72の読取開始位置での光路長は「L=15+l6」である。ここで、l5<l3,l6>l4,l3−l5=l6−l4である。Next, the image reading control unit 101 determines that the optical path length at the position SP2 (see FIG. 19B1) existing in the focusing area FA2 is in a state where the reading line IL2 is at the final position PE at the second reading. The second carrier 72 is moved to be "L". The position of the second carrier 72 whose optical path length is “L” at the position SP2 is the reading start position of the second carrier 72 in the second reading. Based on the three-dimensional coordinates (X i , Y i , Z i ) stored in the storage unit 106, the image reading control unit 101, for example, as shown in FIG. A position corresponding to the height h2 of "one half of the depth of field DOF2" is set as the position SP2. An example of the reading start position of the second carrier 72 in the second reading is shown in FIG. That is, the optical path length at the reading start position of the second carrier 72 in the second reading is “L = 15 + 16”. Here, l5 <l3, l6> l4, l3-l5 = l6-l4.

画像読取制御部101は、光路長を「L」で一定に保ったまま、図22及び図23に示すように、第2キャリア72を副走査方向で移動させながら第2画像読取部71に見開き面P2の画像を読み取らせる。2回目の読取における副走査方向は、例えば図22及び図23に示すように、奥行き方向で手前側から奥側へ向かう方向である。つまり、画像読取制御部101は、2回目の読取では、第2キャリア72を、1回目の読取での移動方向と反対方向に移動させる。2回目の読取における第2キャリア72の読取終了位置の一例を図23に示す。つまり、2回目の読取における第2キャリア72の読取終了位置での光路長は「L=l7+l8」である。第2キャリア72が図23に示す読取終了位置に到達した時点で、読取ラインIL2が初期位置PSに戻って2回目の読取は終了し、見開き面P2の全面の2つ目の画像が得られる。   As shown in FIGS. 22 and 23, while the optical path length is kept constant at “L”, the image reading control unit 101 spreads the second image reading unit 71 while moving the second carrier 72 in the sub scanning direction. The image of plane P2 is read. For example, as shown in FIGS. 22 and 23, the sub-scanning direction in the second reading is the direction from the near side to the far side in the depth direction. That is, in the second reading, the image reading control unit 101 moves the second carrier 72 in the direction opposite to the moving direction in the first reading. An example of the reading end position of the second carrier 72 in the second reading is shown in FIG. That is, the optical path length at the reading end position of the second carrier 72 in the second reading is “L = 17 + 18”. When the second carrier 72 reaches the reading end position shown in FIG. 23, the reading line IL2 returns to the initial position PS and the second reading is finished, and a second image of the entire surface of the facing surface P2 is obtained. .

ここで、1回目の読取での合焦範囲FA1は図19(a1)に示すようになり、2回目の読取での合焦範囲FA2は図19(b1)に示すようになる。よって、1回目の読取では、図19(a2)に示すように、見開き面P2内において、分割境界DB以上の高さにある位置でピントが合った画像が得られる。図19(a2)には、一例として、見開き面P2の右半分が合焦領域FA1である場合を示す。一方で、2回目の読取では、図19(b2)に示すように、見開き面P2内において、分割境界DB未満の高さにある位置でピントが合った画像が得られる。図19(b2)には、一例として、見開き面P2の左半分が合焦領域FA2である場合を示す。よって、1回目の読取で得られた画像の右半分と、2回目の読取で得られた画像の左半分とを合成することで、見開き面P2の全面でピントがあった画像を得ることができる。以下では、見開き面P2の右半分の画像を「右半分画像」と呼び、見開き面P2の左半分の画像を「左半分画像」と呼ぶことがある。   Here, the focusing range FA1 in the first reading is as shown in FIG. 19A1, and the focusing range FA2 in the second reading is as shown in FIG. 19B1. Therefore, in the first reading, as shown in FIG. 19A2, an image in focus at a position at a height higher than the division boundary DB can be obtained in the spread plane P2. FIG. 19A2 illustrates, as an example, a case where the right half of the spread plane P2 is the focusing area FA1. On the other hand, in the second reading, as shown in FIG. 19B, an image in focus at a position below the dividing boundary DB in the spread plane P2 is obtained. FIG. 19 (b 2) shows, as an example, the case where the left half of the spread plane P 2 is the focusing area FA 2. Therefore, by combining the right half of the image obtained in the first reading and the left half of the image obtained in the second reading, it is possible to obtain an image in focus on the entire spread surface P2. it can. Hereinafter, the image of the right half of the spread plane P2 may be referred to as the “right half image”, and the image of the left half of the spread plane P2 may be referred to as the “left half image”.

但し、1回目の読取では位置SP1(図19(a1)参照)を基準にして光路長を「L」に設定する一方で、2回目の読取では位置SP2(図19(b1)参照)を基準にして光路長を「L」に設定している。よって、分割境界位置B2付近(つまり、右半分画像と左半分画像との結合部付近)での倍率については、図19(a2),(b2)に示すように、1回目の読取時の倍率MXは、2回目の読取時の倍率MYより小さくなる。よって、1回目の読取でピントが合う右半分画像と、2回目の読取でピントが合う左半分画像とを単に合成したのでは、互いに倍率が異なる画像同士を合成してしまうことになる。   However, while the light path length is set to “L” based on the position SP1 (see FIG. 19 (a1)) in the first reading, the position SP2 (see FIG. 19 (b1)) is referred to in the second reading. And the optical path length is set to “L”. Therefore, with regard to the magnification near the division boundary position B2 (that is, near the junction of the right half image and the left half image), as shown in FIGS. 19 (a2) and (b2), the magnification during the first reading MX is smaller than the magnification MY at the time of the second reading. Therefore, if the right half image in focus in the first reading and the left half image in focus in the second reading are simply combined, images having different magnifications will be combined.

そこで、合成部170は、右半分画像と左半分画像とに対して倍率調節を行う。つまり、右半分画像及び左半分画像をそれぞれ変倍する。例えば、基準倍率を「Std」と表記すると、合成部170は、図19(a2),(c2)に示すように、右半分画像を「Std/MX」倍して、右半分画像の倍率をMXからStdに変更する。また、合成部170は、図19(b2),(c2)に示すように、左半分画像を「Std/MY」倍して、左半分画像の倍率をMYからStdに変更する。このような倍率調節により、右半分画像及び左半分画像の双方の倍率はStdで同一になる。よって、合成部170は、図19(c2)に示すように、倍率Stdの右半分画像と倍率Stdの左半分画像とを合成することで、見開き面P2の全面にピントが合い、かつ、見開き面P2の全面で同倍率の画像を取得する。   Therefore, the combining unit 170 performs magnification adjustment on the right half image and the left half image. That is, the right half image and the left half image are respectively scaled. For example, if the standard magnification is described as “Std”, the synthesizing unit 170 multiplies the right half image by “Std / MX” and multiplies the magnification of the right half image, as shown in FIGS. 19 (a2) and (c2). Change from MX to Std. Further, as illustrated in (b2) and (c2) of FIG. 19, the combining unit 170 multiplies the left half image by “Std / MY” and changes the magnification of the left half image from MY to Std. By such magnification adjustment, the magnifications of both the right half image and the left half image become the same at Std. Therefore, the combining unit 170 combines the right half image of the magnification Std and the left half image of the magnification Std, as shown in FIG. 19C, so that the entire surface of the spread plane P2 is in focus and spread Images of the same magnification are acquired on the entire surface P2.

なお、倍率MXは、以下のようにして、光路長Lの設定の基準となる位置SP1と、分割境界位置B2との高低差から算出可能である。同様に、倍率MYは、以下のようにして、光路長Lの設定の基準となる位置SP2と、分割境界位置B2との高低差から算出可能である。   The magnification ratio MX can be calculated from the height difference between the position SP1 as a reference for setting the optical path length L and the division boundary position B2 as follows. Similarly, the magnification ratio MY can be calculated from the height difference between the position SP2 serving as a reference for setting the optical path length L and the division boundary position B2 as follows.

すなわち、光路長Lの設定の基準となる位置SP1では、倍率が「1.0」となる。そこで、位置SP1と分割境界位置B2との高低差を「d1」と表記すると、以下の式(1)が成り立ち、式(1)を変形した式(2)によって、倍率MXを算出することができる。
1.0:L=MX:(L+d1) …(1)
MX=(L+d1)/L …(2)
That is, at the position SP1 which is a reference of setting of the optical path length L, the magnification is "1.0". Therefore, if the height difference between the position SP1 and the division boundary position B2 is expressed as "d1", the following equation (1) holds, and the magnification MX can be calculated by the equation (2) obtained by modifying the equation (1) it can.
1.0: L = MX: (L + d1) (1)
MX = (L + d1) / L (2)

同様に、光路長Lの設定の基準となる位置SP2では、倍率が「1.0」となる。そこで、位置SP2と分割境界位置B2との高低差を「d2」と表記すると、以下の式(3)が成り立ち、式(3)を変形した式(4)によって、倍率MYを算出することができる。
1.0:L=MY:(L+d2) …(3)
MY=(L+d2)/L …(4)
Similarly, at the position SP2 serving as a reference for setting the optical path length L, the magnification is "1.0". Therefore, if the height difference between the position SP2 and the division boundary position B2 is expressed as "d2", the following equation (3) holds, and the magnification MY can be calculated by the equation (4) obtained by modifying the equation (3) it can.
1.0: L = MY: (L + d2) (3)
MY = (L + d2) / L (4)

<画像読取装置の処理>
図24は、実施例1の画像読取装置の処理の一例を示すフローチャートである。ここで、第1載置面24に対する処理と、第2載置面25に対する処理とは同一になるため、以下では、第2載置面25に対する処理について説明し、第1載置面24に対する処理の説明は省略する。
<Processing of Image Reading Device>
FIG. 24 is a flowchart illustrating an example of processing of the image reading apparatus according to the first embodiment. Here, since the processing for the first mounting surface 24 and the processing for the second mounting surface 25 are the same, the processing for the second mounting surface 25 will be described below, and the processing for the first mounting surface 24 will be described below. The description of the process is omitted.

図24のステップST101では、高低差検出部130が、第2載置面25に載置された見開き媒体SMの見開き面P2における鉛直方向での高低差DOE2を検出する。   In step ST101 of FIG. 24, the height difference detection unit 130 detects the height difference DOE2 in the vertical direction on the spread surface P2 of the spread medium SM placed on the second placement surface 25.

次いで、ステップST103では、高低差判定部140が、高低差DOE2が被写界深度DOF2以内であるか否かを判定する。被写界深度DOF2は、画像読取装置1のユーザの所望の解像度に応じて、被写界深度設定部150により設定される。高低差DOE2が被写界深度DOF2以内であるときは(ステップS103:Yes)、処理はステップST105へ進む。一方で、高低差DOE2が被写界深度DOF2を超えるときは(ステップS103:No)、処理はステップST111へ進む。   Next, in step ST103, the height difference determination unit 140 determines whether the height difference DOE2 is within the depth of field DOF2. The depth of field DOF 2 is set by the depth of field setting unit 150 according to the resolution desired by the user of the image reading device 1. When the height difference DOE2 is within the depth of field DOF2 (step S103: Yes), the process proceeds to step ST105. On the other hand, when the height difference DOE2 exceeds the depth of field DOF 2 (step S103: No), the process proceeds to step ST111.

ステップST105では、読取回数決定部160は、高低差DOE2が被写界深度DOF2以内であるため、読取回数Kを1回(K=1)に決定し、決定した読取回数Kを画像読取制御部101へ出力する。   In step ST105, the reading number determining unit 160 determines the reading number K to be 1 (K = 1) since the elevation difference DOE2 is within the depth of field DOF2, and the determined reading number K is the image reading control unit Output to 101.

ここで、処理がステップST107へ進むときは、高低差DOE2が被写界深度DOF2以内にあるため、見開き面P2の全面が合焦領域になる。そこで、ステップST107では、画像読取制御部101は、読取ラインIL2が初期位置PSにある状態で、見開き面P2内の何れかの位置での光路長が「L」になるように第2キャリア72を移動させる。つまり、画像読取制御部101は、光路長の調節を行う。   Here, when the process proceeds to step ST107, since the height difference DOE2 is within the depth of field DOF2, the entire area of the facing surface P2 is the in-focus area. Therefore, in step ST107, the image reading control unit 101 causes the second carrier 72 so that the optical path length at any position in the spread plane P2 becomes “L” in a state where the reading line IL2 is at the initial position PS. Move That is, the image reading control unit 101 adjusts the optical path length.

次いで、ステップST109では、画像読取制御部101は、光路長を「L」で一定に保ったまま、第2キャリア72を副走査方向で移動させながら第2画像読取部71に見開き面P2の画像を読み取らせる。ここでの副走査方向は、例えば、奥行き方向で奥側から手前側へ向かう方向である。そして、画像読取制御部101は、読取ラインIL2が最終位置PEに達した時点で、見開き面P2の画像の読取を終了する。   Next, in step ST109, the image reading control unit 101 causes the second image reading unit 71 to move the second carrier 72 in the sub-scanning direction while keeping the optical path length constant at "L", and displays an image of the spread plane P2. Make it read. The sub-scanning direction here is, for example, a direction from the back side to the front side in the depth direction. Then, when the reading line IL2 reaches the final position PE, the image reading control unit 101 ends the reading of the image on the facing surface P2.

よって、高低差DOE2が被写界深度DOF2以内にあるときは、読取ラインIL2が初期位置PSから最終位置PEに達した時点、つまり、1回の副走査が終了した時点で、見開き面P2の全面にピントが合った画像が得られる。よって、第2画像読取部71は、ステップST105〜ST109のように、高低差DOE2が被写界深度DOF2以内にあるときは、見開き面P2の全面を合焦領域にした画像を1回読み取る単数読取を行う。   Therefore, when the height difference DOE2 is within the depth of field DOF2, when the reading line IL2 reaches the final position PE from the initial position PS, that is, when one sub-scan is completed, An image in which the entire surface is in focus can be obtained. Therefore, when the height difference DOE2 is within the depth of field DOF2 as in steps ST105 to ST109, the second image reading unit 71 reads the image with the entire area of the spread plane P2 as the in-focus area once. Read.

一方で、処理がステップST111へ進むときは、高低差DOE2が被写界深度DOF2を超えるため、見開き面P2の一部だけが合焦領域になる。そこで、ステップST111では、読取回数決定部160は、高低差DOE2に基づいて、読取回数Kを決定し、決定した読取回数Kを画像読取制御部101へ出力する。ステップST111で決定される読取回数Kは2回以上である。   On the other hand, when the process proceeds to step ST111, since the height difference DOE2 exceeds the depth of field DOF2, only a part of the spread plane P2 is in the in-focus area. Therefore, in step ST111, the reading number determining unit 160 determines the reading number K based on the height difference DOE2, and outputs the determined reading number K to the image reading control unit 101. The number of times of reading K determined in step ST111 is two or more.

次いで、ステップST113では、読取回数決定部160は、ステップST111で決定した読取回数Kに基づいて、複数読取における各読取の分割境界DBを決定する。   Next, in step ST113, the reading number determination unit 160 determines the division boundary DB of each reading in multiple reading based on the reading number K determined in step ST111.

次いで、ステップST115では、画像読取制御部101は、カウンタkの値を初期値「0」にリセットする。   Next, in step ST115, the image reading control unit 101 resets the value of the counter k to an initial value "0".

次いで、ステップST117では、画像読取制御部101は、カウンタkの値を「1」だけインクリメントする。   Next, in step ST117, the image reading control unit 101 increments the value of the counter k by "1".

次いで、ステップST119では、画像読取制御部101は、見開き面P2内で、カウンタkの値に対応する一部の合焦領域内に存在するある位置での光路長が「L」になるように第2キャリア72を移動させる。つまり、画像読取制御部101は、光路長の調節を行う。   Next, in step ST119, the image reading control unit 101 causes the optical path length at a certain position in the in-focus area corresponding to the value of the counter k to be "L" in the spread plane P2. The second carrier 72 is moved. That is, the image reading control unit 101 adjusts the optical path length.

次いで、ステップST121では、画像読取制御部101は、光路長を「L」で一定に保ったまま、第2キャリア72を副走査方向で移動させながら第2画像読取部71に見開き面P2の画像を読み取らせる。   Next, in step ST121, the image reading control unit 101 causes the second image reading unit 71 to move the second carrier 72 in the sub-scanning direction while keeping the optical path length constant at "L", and displays an image of the spread plane P2. Make it read.

次いで、ステップST123では、画像読取制御部101は、カウンタkの値が読取回数Kに達したか否かを判定する。カウンタkの値が読取回数Kに達していない場合は(ステップST123:No)、処理はステップST117に戻る。一方で、カウンタkの値が読取回数Kに達した場合は(ステップST123:Yes)、処理はステップST125へ進む。   Next, in step ST123, the image reading control unit 101 determines whether the value of the counter k has reached the number of times of reading K or not. If the value of the counter k has not reached the number of times of reading K (step ST123: No), the process returns to step ST117. On the other hand, when the value of the counter k has reached the reading number K (step ST123: Yes), the process proceeds to step ST125.

ステップST125では、合成部170は、複数読取によって複数回読み取られた見開き面P2の全面の画像を上記のようにして合成する。   In step ST125, the combining unit 170 combines the image of the entire surface of the spread plane P2 read a plurality of times by the multiple reading as described above.

以上のように、実施例1では、画像読取装置1は、高低差検出部130と、高低差判定部140と、第2画像読取部71と、合成部170とを有する。高低差検出部130は、載置面25に載置された見開き媒体SMの見開き面P2における高低差DOE2を検出する。高低差判定部140は、高低差DOE2が被写界深度DOF2以内にあるか否かを判定する。第2画像読取部71は、高低差DOE2が被写界深度DOF2以内にあるときは、見開き面P2の全面を合焦領域にした画像を1回読み取る単数読取を行う。一方で、第2画像読取部71は、高低差DOE2が被写界深度DOF2を超えるときは、見開き面P2において互いに合焦領域が異なる複数の画像を読み取る複数読取を行う。合成部170は、第2画像読取部71での複数読取により得られた複数の画像において互いの合焦領域を合成する。   As described above, in the first embodiment, the image reading device 1 includes the height difference detection unit 130, the height difference determination unit 140, the second image reading unit 71, and the combining unit 170. The height difference detection unit 130 detects the height difference DOE2 on the spread surface P2 of the spread medium SM placed on the placement surface 25. The height difference determination unit 140 determines whether the height difference DOE2 is within the depth of field DOF2. When the height difference DOE2 is within the depth of field DOF2, the second image reading unit 71 performs a single reading of reading an image in which the entire area of the facing surface P2 is the in-focus area. On the other hand, when the height difference DOE2 exceeds the depth of field DOF2, the second image reading unit 71 performs a plurality of readings for reading a plurality of images having different in-focus areas on the spread surface P2. The combining unit 170 combines the in-focus areas of the plurality of images obtained by the plurality of readings by the second image reading unit 71.

こうすることで、見開き媒体の見開き面における高低差が被写界深度を超える場合でも、見開き面全面の画像の複数読取と、ピントが合った複数の画像の合成とにより、見開き面の全面にピントがあった鮮明な画像を取得することができる。また、見開き面における高低差が被写界深度以内にあるときは単数読取を行うため、見開き面の全面にピントがあった鮮明な画像を取得するにあたって、複数読取を行う場合に比べて、画像の読取時間を短縮することができる。   By doing this, even if the height difference in the spread surface of the spread medium exceeds the depth of field, multiple reading of the image on the entire spread surface and composition of a plurality of focused images on the entire spread surface It is possible to obtain a clear image that was in focus. In addition, since the single reading is performed when the height difference in the spread surface is within the depth of field, an image is obtained as compared to the case where multiple reading is performed to obtain a clear image in which the entire spread surface is in focus. Reading time can be shortened.

また、実施例1では、画像読取装置1は、被写界深度設定部150を有する。被写界深度設定部150は、所望の解像度に応じて被写界深度DOF2を設定する。高低差判定部140は、被写界深度設定部150により設定された被写界深度DOF2に基づいて、高低差DOE2が被写界深度DOF2以内にあるか否かを判定する。   Further, in the first embodiment, the image reading device 1 includes the depth of field setting unit 150. The depth of field setting unit 150 sets the depth of field DOF 2 in accordance with the desired resolution. Based on the depth of field DOF2 set by the depth of field setting unit 150, the height difference determination unit 140 determines whether the height difference DOE2 is within the depth of field DOF2.

ここで、解像度が高いほど、高い空間周波数を再現することができる一方で、被写界深度は小さくなる。よって、所望の解像度が低ければ、被写界深度を大きくすることが可能である。よって、所望の解像度に応じて被写界深度を設定することで、所望の解像度の画像を得ることができる。   Here, the higher the resolution, the higher the spatial frequency can be reproduced, but the smaller the depth of field. Therefore, if the desired resolution is low, it is possible to increase the depth of field. Therefore, by setting the depth of field according to the desired resolution, it is possible to obtain an image of the desired resolution.

また、実施例1では、画像読取装置1は、読取回数決定部160を有する。読取回数決定部160は、複数読取における読取回数を高低差DOE2に基づいて決定する。第2画像読取部71は、読取回数決定部160により決定された読取回数に基づいて複数読取を行う。   Further, in the first embodiment, the image reading apparatus 1 includes the number of times of reading determination unit 160. The reading number determination unit 160 determines the number of readings in multiple reading based on the height difference DOE2. The second image reading unit 71 performs a plurality of readings based on the number of readings determined by the number-of-readings determining unit 160.

こうすることで、見開き面の全面にピントがあった鮮明な画像を、最低限の読取回数で取得することができる。   By doing this, it is possible to acquire a clear image in which the entire spread surface is in focus with the minimum number of readings.

また、実施例1では、第2画像読取部71は、複数読取における読取回数が2回のときは、奥行き方向の奥側から手前側への走査により1回目の読取を行い、1回目の読取の終了位置を起点として、奥行き方向の手前側から奥側への走査により2回目の読取を行う。   In the first embodiment, when the number of times of reading in the multiple reading is two, the second image reading unit 71 performs the first reading by scanning from the far side to the near side in the depth direction, and the first reading The second reading is performed by scanning from the near side to the far side in the depth direction, starting from the end position of f.

こうすることで、1回目の読取と2回目の読取との間の空き時間を短縮することができるため、最低限の読取時間で、見開き面の全面の画像を2回取得することができる。   By doing this, it is possible to shorten the idle time between the first reading and the second reading, so it is possible to acquire an image of the entire surface of the spread surface twice with the minimum reading time.

また、実施例1では、第2画像読取部71は、互いに倍率が異なる複数の画像を取得する。合成部170は、取得された複数の画像を同倍率に調節する倍率調節を行い、倍率調節後の複数の画像において互いの合焦領域を合成する。   Further, in the first embodiment, the second image reading unit 71 obtains a plurality of images having different magnifications. The synthesizing unit 170 performs magnification adjustment to adjust the acquired plurality of images to the same magnification, and synthesizes the in-focus areas of the plurality of images after the magnification adjustment.

こうすることで、複数読取によって互いに倍率が異なる複数の画像が取得される場合でも、見開き面の全面で同一倍率となる鮮明な画像を取得することができる。   By doing this, even when a plurality of images having different magnifications are acquired by performing a plurality of readings, it is possible to acquire a clear image having the same magnification over the entire spread surface.

[実施例2]
<画像読取装置の構成>
実施例1では、第1画像読取部61及び第2画像読取部71がラインセンサである場合について説明した。これに対し、実施例2では、第1画像読取部61及び第2画像読取部71がエリアセンサである場合について説明する。すなわち、実施例2では、第1画像読取部61及び第2画像読取部71は、例えば、幅方向(X方向)に沿って直線状に配列された複数の受光素子が奥行き方向(Y方向)に2列以上配列されることにより形成される矩形のセンサである。第1画像読取部61は、読取領域S1Fを形成するエリアセンサであるため、見開き媒体SMの見開き面P1の全面の画像を1回の撮像で読み取ることができる。また、第2画像読取部71は、読取領域S2Fを形成するエリアセンサであるため、見開き媒体SMの見開き面P2の全面の画像を1回の撮像で読み取ることができる。
Example 2
<Configuration of Image Reading Device>
In the first embodiment, the case where the first image reading unit 61 and the second image reading unit 71 are line sensors has been described. On the other hand, in the second embodiment, the case where the first image reading unit 61 and the second image reading unit 71 are area sensors will be described. That is, in the second embodiment, the first image reading unit 61 and the second image reading unit 71 have, for example, a plurality of light receiving elements linearly arranged along the width direction (X direction) in the depth direction (Y direction) It is a rectangular sensor formed by being arranged in two or more rows. Since the first image reading unit 61 is an area sensor that forms the reading area S1F, it is possible to read an image of the entire surface of the facing surface P1 of the facing medium SM by one imaging. Further, since the second image reading unit 71 is an area sensor that forms the reading area S2F, it is possible to read an image of the entire surface of the spread surface P2 of the spread medium SM by one imaging.

また、実施例2では、第1画像読取部61がエリアセンサであるため、第1照明81の照射範囲は、水平面において矩形状であり、幅方向及び奥行き方向の双方において、読取領域S1FAよりも大きい。また、第2画像読取部71がエリアセンサであるため、第2照明82の照射範囲は、水平面において矩形状であり、幅方向及び奥行き方向の双方において、読取領域S2FAよりも大きい。   Further, in the second embodiment, since the first image reading unit 61 is an area sensor, the irradiation range of the first illumination 81 is rectangular in the horizontal plane, and is larger than the reading area S1FA in both the width direction and the depth direction. large. Further, since the second image reading unit 71 is an area sensor, the irradiation range of the second illumination 82 is rectangular in the horizontal plane, and is larger than the reading area S2FA in both the width direction and the depth direction.

また、実施例2では、第1画像読取部61及び第2画像読取部71は移動せず、第1照明81及び第2照明82は回転しない。このため、実施例2の画像読取装置1は、第1キャリア移動機構63、第1ミラー回転機構65、第1照明回転機構83、及び、第1機構制御部103を有しない。また、実施例2の画像読取装置1は、第2キャリア移動機構73、第2ミラー回転機構75、第2照明回転機構84、及び、第2機構制御部110を有しない。   In the second embodiment, the first image reading unit 61 and the second image reading unit 71 do not move, and the first illumination 81 and the second illumination 82 do not rotate. Therefore, the image reading device 1 of the second embodiment does not have the first carrier moving mechanism 63, the first mirror rotation mechanism 65, the first illumination rotation mechanism 83, and the first mechanism control unit 103. Further, the image reading apparatus 1 of the second embodiment does not have the second carrier moving mechanism 73, the second mirror rotation mechanism 75, the second illumination rotation mechanism 84, and the second mechanism control unit 110.

<画像読取装置の動作>
図25は、実施例2の画像読取装置の動作の説明に供する図である。ここで、第1載置面24に対する動作と、第2載置面25に対する動作とは同一になるため、以下では、第2載置面25に対する動作について説明し、第1載置面24に対する動作の説明は省略する。また、読取回数決定部160が、見開き面P2内で分割境界DBの高さに対応する位置B1,B2を分割境界位置として求め、求めた分割境界位置B1,B2を画像読取制御部101へ出力するまでの動作は、実施例1での動作と同様であるため、説明を省略する。また、以下では、一例として、読取回数Kが2回(K=2)に決定された場合について説明する。
<Operation of Image Reading Device>
FIG. 25 is a diagram for explaining the operation of the image reading apparatus according to the second embodiment. Here, since the operation on the first mounting surface 24 and the operation on the second mounting surface 25 are the same, the operation on the second mounting surface 25 will be described below. The description of the operation is omitted. Further, the reading number determining unit 160 obtains positions B1 and B2 corresponding to the height of the division boundary DB in the spread plane P2 as division boundary positions, and outputs the calculated division boundary positions B1 and B2 to the image reading control unit 101. The operation up to this point is the same as the operation in the first embodiment, so the description will be omitted. In the following, as an example, the case where the number of times of reading K is determined to be twice (K = 2) will be described.

画像読取制御部101は、以下のようにして、1回目の読取と2回目の読取との間で、レンズ76の焦点距離を調節することにより合焦領域を変化させる。   The image reading control unit 101 changes the in-focus area by adjusting the focal length of the lens 76 between the first reading and the second reading as follows.

画像読取制御部101は、1回目の読取にあたり、図25(a1)に示すように、合焦領域FA1内に存在する位置SP1(図19(a1)参照)が焦点位置FP1になるようにレンズ76の焦点距離を「L1」に調節する。よって、1回目の読取では、図25(a2)に示すように、見開き面P2内において、分割境界DB以上の高さにある位置でピントが合った画像が得られる。図25(a2)には、一例として、見開き面P2の左半分が合焦領域FA1である場合を示す。   As shown in FIG. 25 (a1), the image reading control unit 101 sets the lens so that the position SP1 (see FIG. 19 (a1)) existing in the focusing area FA1 becomes the focus position FP1 at the first reading. Adjust the focal length of 76 to “L1”. Therefore, in the first reading, as shown in FIG. 25A2, an image in focus at a position at a height higher than the division boundary DB can be obtained in the spread plane P2. FIG. 25 (a2) shows, as an example, the case where the left half of the spread plane P2 is the focusing area FA1.

一方で、画像読取制御部101は、2回目の読取にあたり、図25(b1)に示すように、合焦領域FA2内に存在する位置SP2(図19(b1)参照)が焦点位置FP2になるようにレンズ76の焦点距離を「L2」に調節する。L2>L1である。よって、2回目の読取では、図25(b2)に示すように、見開き面P2内において、分割境界DB未満の高さにある位置でピントが合った画像が得られる。図25(b2)には、一例として、見開き面P2の右半分が合焦領域FA2である場合を示す。   On the other hand, as shown in FIG. 25 (b1), the image reading control unit 101 causes the position SP2 (see FIG. 19 (b1)) existing in the focusing area FA2 to be the focus position FP2 at the second reading. Thus, the focal length of the lens 76 is adjusted to “L2”. L2> L1. Therefore, in the second reading, as shown in FIG. 25 (b 2), in the spread plane P 2, an image in focus at a position at a height less than the division boundary DB is obtained. FIG. 25 (b 2) shows, as an example, the case where the right half of the spread plane P 2 is the focusing area FA 2.

よって、1回目の読取で得られた画像の左半分画像と、2回目の読取で得られた右半分画像とを合成することで、見開き面P2の全面でピントがあった画像を得ることができる。   Therefore, by combining the left half image of the image obtained in the first reading and the right half image obtained in the second reading, it is possible to obtain an image in focus on the entire spread surface P2. it can.

そこで、合成部170は、図25(a2),(a3)に示すように、1回目の読取で得られた見開き面P2全面の画像から、コントラストが閾値TH以上である領域(以下では「高コントラスト領域」と呼ぶことがある)の画像を抽出する。高コントラスト領域は、ピントが合っている領域であると判断可能だからである。よって、ここでは、見開き面P2全面の画像から合焦領域FA1の画像(つまり、左半分画像)が抽出される。   Therefore, as shown in FIGS. 25 (a2) and 25 (a3), the combining unit 170 sets the region where the contrast is greater than or equal to the threshold TH from the image of the entire spread surface P2 obtained in the first reading. Extract an image of the contrast region). This is because it is possible to determine that the high contrast area is an area in focus. Therefore, here, the image of the in-focus area FA1 (that is, the left half image) is extracted from the image of the entire facing plane P2.

また、合成部170は、図25(b2),(b3)に示すように、2回目の読取で得られた見開き面P2全面の画像から高コントラスト領域の画像を抽出する。よって、ここでは、見開き面P2全面の画像から合焦領域FA2の画像(つまり、右半分画像)が抽出される。   Further, as shown in FIGS. 25 (b2) and 25 (b3), the combining unit 170 extracts the image of the high contrast area from the image of the entire facing surface P2 obtained by the second reading. Therefore, here, the image of the in-focus area FA2 (that is, the right half image) is extracted from the image of the entire surface of the spread plane P2.

そして、合成部170は、図25(c)のように、左半分画像と右半分画像とを合成することで、見開き面P2の全面でピントがあった画像を得ることができる。   Then, as illustrated in FIG. 25C, the combining unit 170 can obtain an image in focus on the entire facing plane P2 by combining the left half image and the right half image.

以上のように、実施例2では、実施例1と同様に、第2画像読取部71は、高低差DOE2が被写界深度DOF2以内にあるときは、見開き面P2の全面を合焦領域にした画像を1回読み取る単数読取を行う。一方で、第2画像読取部71は、高低差DOE2が被写界深度DOF2を超えるときは、見開き面P2において互いに合焦領域が異なる複数の画像を読み取る複数読取を行う。合成部170は、第2画像読取部71での複数読取により得られた複数の画像において互いの合焦領域を合成する。   As described above, in the second embodiment, as in the first embodiment, when the height difference DOE 2 is within the depth of field DOF 2, the second image reading unit 71 sets the entire area of the facing surface P 2 as the in-focus region. A single scan is performed to read the scanned image once. On the other hand, when the height difference DOE2 exceeds the depth of field DOF2, the second image reading unit 71 performs a plurality of readings for reading a plurality of images having different in-focus areas on the spread surface P2. The combining unit 170 combines the in-focus areas of the plurality of images obtained by the plurality of readings by the second image reading unit 71.

また、実施例2では、合成部170は、取得された複数の画像のコントラストに基づいて、複数の画像において互いの合焦領域を合成する。   Further, in the second embodiment, the combining unit 170 combines the in-focus areas of the plurality of images based on the contrasts of the plurality of acquired images.

こうすることで、レンズの焦点距離を変えて複数の画像を取得した場合でも、見開き面の全面にピントがあった鮮明な画像を取得することができる。   In this way, even when a plurality of images are acquired by changing the focal length of the lens, it is possible to acquire a clear image in which the entire surface of the spread surface is in focus.

[実施例3]
実施例3では、見開き面P1,P2の高さの推定方法が実施例1と相違する。以下では、実施例1と相違する点について説明する。
[Example 3]
The third embodiment is different from the first embodiment in the method of estimating the heights of the facing surfaces P1 and P2. The differences from the first embodiment will be described below.

<画像読取装置の構造>
図26は、実施例3の画像読取装置の概略図(斜視図)である。図26において、画像読取装置400は、実施例1の第1線状光用撮像カメラ231及び第2線状光用撮像カメラ232に代えて、カメラCA1,CA2を有する。また、画像読取装置400は、実施例1の第1線状光照射部211、第1照射部回転機構221、第2線状光照射部212、及び、第2照射部回転機構222を有しない。
<Structure of Image Reading Device>
FIG. 26 is a schematic view (perspective view) of the image reading apparatus of the third embodiment. 26, the image reading apparatus 400 has cameras CA1 and CA2 in place of the first linear light imaging camera 231 and the second linear light imaging camera 232 of the first embodiment. Further, the image reading apparatus 400 does not have the first linear light irradiation unit 211, the first irradiation unit rotation mechanism 221, the second linear light irradiation unit 212, and the second irradiation unit rotation mechanism 222 according to the first embodiment. .

図26に示すように、カメラCA1は第1読取ユニット6の側面に配置され、カメラCA2は第2読取ユニット7の側面に配置される。カメラCA1,CA2の各々は、載置面24,25の全面を撮影範囲とする。   As shown in FIG. 26, the camera CA1 is disposed on the side of the first reading unit 6, and the camera CA2 is disposed on the side of the second reading unit 7. Each of the cameras CA1 and CA2 sets the entire surface of the mounting surfaces 24 and 25 as a shooting range.

<画像読取装置の動作>
図27及び図28は、実施例3の画像読取装置の動作の説明に供する図である。
<Operation of Image Reading Device>
27 and 28 are diagrams for explaining the operation of the image reading apparatus of the third embodiment.

カメラCA1,CA2の各々は、載置面24,25の全面を撮影範囲とするため、見開き媒体SMの見開き面P1,P2の全面を撮影可能である。   Each of the cameras CA1 and CA2 can capture the entire surface of the facing surfaces P1 and P2 of the facing medium SM because the entire surface of the mounting surfaces 24 and 25 is the imaging range.

図28において、まず、高低差検出部130は、カメラCA1により撮影された画像PC1と、カメラCA2により撮影された画像PC2とを取得する。   In FIG. 28, first, the height difference detection unit 130 acquires an image PC1 captured by the camera CA1 and an image PC2 captured by the camera CA2.

次いで、高低差検出部130は、画像PC1の特徴点と画像PC2の特徴点とに基づいて、対応点CPを検出する。なお、高低差検出部130は、特徴点の代わりに、明暗変化に基づいて対応点CPを検出しても良い。   Next, the height difference detection unit 130 detects the corresponding points CP based on the feature points of the image PC1 and the feature points of the image PC2. Note that the height difference detection unit 130 may detect the corresponding point CP based on the change in brightness instead of the feature point.

そして、高低差検出部130は、カメラCA1と、カメラCA2と、対応点CPとの位置関係に基づいて、周知の三角測距法を利用して、対応点CPにおける見開き面P1,P2の高さを推定する。高低差検出部130は、複数の対応点CPを検出し、それら複数の対応点CPの各々において、見開き面P1,P2の高さを推定する。   The height difference detection unit 130 then uses the well-known triangular distance measurement method based on the positional relationship between the camera CA1, the camera CA2, and the corresponding point CP to set the heights of the spread planes P1 and P2 at the corresponding point CP. Estimate the The height difference detection unit 130 detects a plurality of corresponding points CP, and estimates the heights of the spread planes P1 and P2 at each of the plurality of corresponding points CP.

[実施例4]
実施例4では、見開き面P1,P2の高さの推定方法が実施例1,3と相違する。以下では、実施例1,3と相違する点について説明する。
Example 4
The fourth embodiment is different from the first and third embodiments in the method of estimating the height of the facing surfaces P1 and P2. The differences from the first and third embodiments will be described below.

<画像読取装置の構造>
図29は、実施例4の画像読取装置の概略図(斜視図)である。図29において、画像読取装置500は、実施例1の第1線状光用撮像カメラ231及び第2線状光用撮像カメラ232に代えて、カメラCAを有する。また、画像読取装置500は、プロジェクタPJを有する。また、画像読取装置500は、実施例1の第1線状光照射部211、第1照射部回転機構221、第2線状光照射部212、及び、第2照射部回転機構222を有しない。
<Structure of Image Reading Device>
FIG. 29 is a schematic view (perspective view) of the image reading apparatus of the fourth embodiment. In FIG. 29, the image reading apparatus 500 has a camera CA instead of the first linear light imaging camera 231 and the second linear light imaging camera 232 of the first embodiment. The image reading device 500 also has a projector PJ. Further, the image reading apparatus 500 does not have the first linear light irradiation unit 211, the first irradiation unit rotation mechanism 221, the second linear light irradiation unit 212, and the second irradiation unit rotation mechanism 222 according to the first embodiment. .

図29に示すように、カメラCAは、アーム3の前面に配置される。また、プロジェクタPJは、アーム3の上面に配置される。カメラCAは、載置面24,25の全面を撮影範囲とする。また、プロジェクタPJの投影範囲は、載置面24,25の面積よりも大きい。   As shown in FIG. 29, the camera CA is disposed on the front of the arm 3. The projector PJ is disposed on the upper surface of the arm 3. The camera CA takes the entire surface of the mounting surfaces 24 and 25 as the imaging range. Further, the projection range of the projector PJ is larger than the area of the mounting surfaces 24 and 25.

<画像読取装置の動作>
図30及び図31は、実施例4の画像読取装置の動作の説明に供する図である。図30には動作例1を示し、図31には動作例2を示す。
<Operation of Image Reading Device>
FIGS. 30 and 31 are diagrams for explaining the operation of the image reading apparatus of the fourth embodiment. FIG. 30 shows an operation example 1 and FIG. 31 shows an operation example 2.

<動作例1:図30>
図30において、カメラCAは、載置面24,25の全面を撮影範囲とするため、見開き媒体SMの見開き面P1,P2の全面を撮影可能である。プロジェクタPJは、見開き面P1,P2の全面にメッシュ光を投影する。
<Operation Example 1: FIG. 30>
In FIG. 30, since the camera CA takes the entire surface of the mounting surfaces 24 and 25 as the imaging range, it can capture the entire surface of the facing surfaces P1 and P2 of the facing medium SM. The projector PJ projects the mesh light on the entire surfaces of the facing surfaces P1 and P2.

まず、カメラCAは、見開き面P1,P2の全面に投影されたメッシュ光を含む見開き面P1,P2全面の画像を撮影する。   First, the camera CA captures an image of the entire surface of the spread planes P1, P2 including the mesh light projected onto the entire surfaces of the spread planes P1, P2.

次いで、高低差検出部130は、カメラCAで撮影された画像の階調データに基づいて、その画像からメッシュ光を抽出する。   Next, the height difference detection unit 130 extracts mesh light from the image based on the gradation data of the image captured by the camera CA.

次いで、高低差検出部130は、抽出したメッシュ光をライン光に分離する。   Next, the height difference detection unit 130 separates the extracted mesh light into line light.

そして、高低差検出部130は、分離した各ライン光に基づいて、周知の平面方程式を計算することにより、見開き面P1,P2上の各点の高さを推定する。   Then, the height difference detection unit 130 estimates the height of each point on the spread planes P1 and P2 by calculating a known plane equation based on the separated line lights.

<動作例2:図31>
図31において、カメラCAは、載置面24,25の全面を撮影範囲とするため、見開き媒体SMの見開き面P1,P2の全面を撮影可能である。プロジェクタPJは、見開き面P1,P2の全面に縞パターンを投影する。
<Operation Example 2: FIG. 31>
In FIG. 31, since the camera CA takes the entire surface of the mounting surfaces 24 and 25 as the imaging range, the camera CA can capture the entire surface of the facing surfaces P1 and P2 of the facing medium SM. The projector PJ projects a fringe pattern on the entire surface of the facing surfaces P1 and P2.

まず、カメラCAは、見開き面P1,P2の全面に投影された縞パターンを撮影する。   First, the camera CA captures a stripe pattern projected on the entire surfaces of the facing surfaces P1 and P2.

次いで、高低差検出部130は、撮影された縞パターンの各ピクセルの位相を計算する。   Next, the height difference detection unit 130 calculates the phase of each pixel of the captured fringe pattern.

そして、高低差検出部130は、計算した位相に基づいて、見開き面P1,P2上の各点の高さを推定する。   Then, the height difference detection unit 130 estimates the height of each point on the spread planes P1 and P2 based on the calculated phase.

[他の実施例]
[1]実施例1では、合焦領域FA1を分割境界DBから鉛直方向上方へ被写界深度DOF2までの領域とし、合焦領域FA2を分割境界DBから鉛直方向下方へ被写界深度DOF2までの領域とした。
[Other embodiments]
[1] In the first embodiment, the in-focus area FA1 is an area from the division boundary DB upward to the depth of field DOF2, and the in-focus area FA2 from the division boundary DB to the depth of field DOF2 in the vertical direction Region.

しかし、合焦領域の起点を分割境界DBではなくて、「分割境界DB±α」としても良い。つまり、合焦領域FA1を「分割境界DB−α」から鉛直方向上方へ被写界深度DOF2までの領域とし、合焦領域FA2を「分割境界DB+α」から鉛直方向下方へ被写界深度DOF2までの領域としても良い。こうすることで、合焦領域FA1の一部と合焦領域FA2の一部とが互いに重なる領域である重複領域FA0が形成される。合成部170は、図19において、倍率調節後の右半分画像に含まれる重複領域FA0の画像と、倍率調節後の左半分画像に含まれる重複領域FA0の画像とを重ねるようにして、右半分画像と左半分画像とを合成すると良い。   However, the starting point of the in-focus area may be “division boundary DB ± α” instead of the division boundary DB. That is, the in-focus area FA1 is an area from the “division boundary DB-α” to the upper side in the vertical direction to the depth of field DOF2, and the in-focus area FA2 from the “division boundary DB + α” to the depth of field DOF2 in the vertical direction It is good as the area of By doing this, an overlapping area FA0 is formed in which a part of the focusing area FA1 and a part of the focusing area FA2 overlap with each other. The combining unit 170 is configured such that the image of the overlap area FA0 included in the right half image after magnification adjustment and the image of the overlap area FA0 included in the left half image after magnification adjustment in FIG. It is good to combine the image and the left half image.

また、合焦領域の起点を「分割境界DB±α」とする場合には、読取回数決定部160は、「DOF1×M≧DOE1+α(Mは2以上の整数)」の条件を満たす最小のMを第1読取ユニット6での複数読取における読取回数に決定し、「DOF2×K≧DOE2+α(Kは2以上の整数)」の条件を満たす最小のKを第2読取ユニット7での複数読取における読取回数に決定すると良い。   When the start point of the in-focus area is set as “division boundary DB ± α”, the reading number determination unit 160 determines the minimum M of the conditions satisfying “DOF1 × M ≧ DOE1 + α (M is an integer of 2 or more)”. Is determined as the number of times of reading in the multiple reading by the first reading unit 6, and the smallest K satisfying the condition of "DOF2.times.K.gtoreq.DOE2 + .alpha. (K is an integer of 2 or more)" in the multiple reading in the second reading unit 7 It is good to decide on the number of readings.

[2]実施例2においても、合焦領域の起点を分割境界DBではなくて、「分割境界DB±α」としても良い。実施例2において、合焦領域の起点を「分割境界DB±α」とする場合には、合成部170は、図25において、左半分画像に含まれる重複領域FA0の画像と、右半分画像に含まれる重複領域FA0の画像とを重ねるようにして、高コントラスト領域の画像同士を合成すると良い。   [2] Also in the second embodiment, the starting point of the in-focus area may be “division boundary DB ± α” instead of the division boundary DB. In the second embodiment, in the case where the start point of the in-focus area is “division boundary DB ± α”, the combining unit 170 generates the image of the overlapping area FA0 included in the left half image and the right half image in FIG. It is preferable to combine the images in the high contrast area by overlapping the images in the included overlapping area FA0.

[3]読取回数決定部160が決定する読取回数に上限値を設けても良い。読取回数決定部160は、決定した読取回数が上限値を超えるときは、例えば、通信部107を介して外部機器300にエラーを通知しても良い。   [3] The upper limit may be set to the number of readings determined by the number of readings determining unit 160. When the determined number of times of reading exceeds the upper limit value, for example, the number of times of reading determination unit 160 may notify the external device 300 of an error via the communication unit 107.

[4]制御ユニット10での上記説明における各処理は、各処理に対応するプログラムを画像読取装置1,400,500が有するプロセッサに実行させることによって実現しても良い。例えば、上記説明における各処理に対応するプログラムが画像読取装置1,400,500が有するメモリに記憶され、各プログラムがプロセッサによってメモリから読み出されて実行されても良い。また、各プログラムは、必ずしも予めメモリに記憶されていなくても良い。すなわち、例えば、画像読取装置1,400,500に接続可能な磁気ディスク、光ディスク、ICカード、メモリカード等の可搬の記録媒体に各プログラムが予め記録され、各プログラムが画像読取装置1,400,500が有するプロセッサにより記録媒体から読み出されて実行されても良い。また例えば、インターネット、LAN、無線LAN等を介して無線または有線により画像読取装置1,400,500に接続されるコンピュータまたはサーバ等に各プログラムが記憶され、各プログラムが画像読取装置1,400,500が有するプロセッサへ読み出されて実行されても良い。   [4] Each process in the above description of the control unit 10 may be realized by causing a processor included in the image reading device 1, 400, 500 to execute a program corresponding to each process. For example, a program corresponding to each process in the above description may be stored in a memory included in the image reading apparatus 1, 400, 500, and each program may be read from the memory and executed by a processor. Each program may not necessarily be stored in advance in the memory. That is, for example, each program is recorded in advance on a portable recording medium such as a magnetic disk, an optical disk, an IC card, a memory card, etc. connectable to the image reading device 1, 400, 500, and each program is read from the image reading device 1, 400 , 500 may be read from the recording medium and executed. Further, for example, each program is stored in a computer or a server connected to the image reading device 1, 400, 500 wirelessly or by wire via the Internet, LAN, wireless LAN or the like, and each program is stored in the image reading device 1, 400, It may be read out to a processor of 500 and executed.

1,400,500 画像読取装置
10 制御ユニット
101 画像読取制御部
130 高低差検出部
140 高低差判定部
150 被写界深度設定部
160 読取回数決定部
170 合成部
1,400,500 image reader 10 control unit
101 image reading control unit 130 height difference detection unit 140 height difference determination unit 150 depth of field setting unit 160 reading number determination unit 170 combining unit

Claims (8)

載置面に載置された綴じ媒体の見開き面における高低差を検出する検出部と、
前記高低差が所定の被写界深度以内にあるか否かを判定する判定部と、
前記判定部での判定結果に基づいて、前記高低差が前記所定の被写界深度以内にあるときは、前記見開き面の全面を合焦領域にした画像を1回読み取る単数読取を行う一方で、前記高低差が前記所定の被写界深度を超えるときは、前記見開き面において互いに合焦領域が異なる複数の画像であって、各々が前記見開き面の全面の画像である前記複数の画像を読み取る複数読取を行う読取部と、
前記複数読取により得られた前記複数の画像の各々の一部である複数の前記合焦領域を合成する合成部と、
を具備する画像読取装置。
A detection unit that detects a height difference in the spread surface of the binding medium placed on the placement surface;
A determination unit that determines whether the height difference is within a predetermined depth of field;
When the height difference is within the predetermined depth of field based on the determination result of the determination unit, a single reading is performed to read an image in which the entire area of the spread surface is in the in-focus area. And when the height difference exceeds the predetermined depth of field, the plurality of images having different in-focus areas in the spread plane, the plurality of images each being an image of the entire spread plane Reading unit for performing multiple readings,
A combining unit that combines a plurality of in- focus areas that are a part of each of the plurality of images obtained by the plurality of readings;
An image reading apparatus comprising:
所望の解像度に応じて前記所定の被写界深度を設定する設定部をさらに具備し、
前記判定部は、前記設定部により設定された前記所定の被写界深度に基づいて、前記高低差が前記所定の被写界深度以内にあるか否かを判定する、
請求項1に記載の画像読取装置。
And a setting unit configured to set the predetermined depth of field in accordance with a desired resolution.
The determination unit determines whether the height difference is within the predetermined depth of field based on the predetermined depth of field set by the setting unit.
The image reading apparatus according to claim 1.
前記複数読取における読取回数を前記高低差に基づいて決定する決定部をさらに具備し、
前記読取部は、前記決定部により決定された前記読取回数に基づいて、前記複数読取を行う、
請求項1または2に記載の画像読取装置。
The information processing apparatus further comprises a determination unit that determines the number of readings in the plurality of readings based on the height difference,
The reading unit performs the plurality of readings based on the number of readings determined by the determining unit.
The image reading apparatus according to claim 1.
前記読取部は、前記複数読取における読取回数が2回のときは、第一の方向への走査により1回目の読取を行い、前記1回目の読取の終了位置を起点として、前記第一の方向と反対の第二の方向への走査により2回目の読取を行う、
請求項1から3の何れか一つに記載の画像読取装置。
When the number of times of reading in the multiple reading is two, the reading unit performs a first reading by scanning in a first direction, and the first direction starts from an end position of the first reading. Make a second reading by scanning in the second direction opposite to
The image reading apparatus according to any one of claims 1 to 3.
前記読取部は、互いに倍率が異なる前記複数の画像を取得し、
前記合成部は、前記複数の画像を同倍率に調節する倍率調節を行い、前記倍率調節後の前記複数の画像において互いの前記合焦領域を合成する、
請求項1から4の何れか一つに記載の画像読取装置。
The reading unit obtains the plurality of images different in magnification from one another.
The combining unit performs magnification adjustment to adjust the plurality of images to the same magnification, and combines the focusing regions with each other in the plurality of images after the magnification adjustment.
The image reading apparatus according to any one of claims 1 to 4.
前記合成部は、前記複数の画像のコントラストに基づいて、前記複数の画像において互いの前記合焦領域を合成する、
請求項1から4の何れか一つに記載の画像読取装置。
The combining unit combines the in-focus areas with each other in the plurality of images based on the contrast of the plurality of images.
The image reading apparatus according to any one of claims 1 to 4.
載置面に載置された綴じ媒体の見開き面における高低差を検出し、
前記高低差が所定の被写界深度以内にあるか否かを判定し、
前記判定の結果に基づいて、前記高低差が前記所定の被写界深度以内にあるときは、前記見開き面の全面を合焦領域にした画像を1回読み取る単数読取を行う一方で、前記高低差が前記所定の被写界深度を超えるときは、前記見開き面において互いに合焦領域が異なる複数の画像であって、各々が前記見開き面の全面の画像である前記複数の画像を読み取る複数読取を行い、
前記複数読取により得られた前記複数の画像の各々の一部である複数の前記合焦領域を合成する、
画像読取方法。
Detecting the height difference in the spread surface of the binding medium placed on the placement surface;
Determining whether the height difference is within a predetermined depth of field;
When the height difference is within the predetermined depth of field based on the result of the determination, the single reading is performed while reading the image with the entire area of the spread surface as the in-focus area while the height is low. When the difference exceeds the predetermined depth of field , a plurality of readings are performed to read a plurality of images in which focusing regions are different from each other on the spread surface , each being an image of the entire surface of the spread surface Do,
Combining the plurality of in-focus areas that are a part of each of the plurality of images obtained by the plurality of readings;
Image reading method.
載置面に載置された綴じ媒体の見開き面における高低差が所定の被写界深度以内にあるか否かを判定し、
前記判定の結果に基づいて、前記高低差が前記所定の被写界深度以内にあるときは、前記見開き面の全面を合焦領域にした画像を1回読み取る単数読取を読取部に行わせる一方で、前記高低差が前記所定の被写界深度を超えるときは、前記見開き面において互いに合焦領域が異なる複数の画像であって、各々が前記見開き面の全面の画像である前記複数の画像を読み取る複数読取を前記読取部に行わせ、
前記複数読取により得られた前記複数の画像の各々の一部である複数の前記合焦領域を合成する、
処理をプロセッサに実行させるための画像読取プログラム。
It is determined whether or not the height difference in the spread surface of the binding medium placed on the placement surface is within a predetermined depth of field,
Based on the result of the determination, when the height difference is within the predetermined depth of field, the reading unit is caused to perform a single reading of an image in which the entire area of the spread surface is the in-focus area. In the case where the height difference exceeds the predetermined depth of field, the plurality of images having different in-focus areas in the spread surface, and each of which is an image of the entire surface of the spread surface Make the reading unit perform multiple readings,
Combining the plurality of in-focus areas that are a part of each of the plurality of images obtained by the plurality of readings;
An image reading program for causing a processor to execute a process.
JP2017545071A 2015-10-16 2015-10-16 Image reading apparatus, image reading method and image reading program Active JP6535099B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/079344 WO2017064812A1 (en) 2015-10-16 2015-10-16 Image reading device, image reading method and image reading program

Publications (2)

Publication Number Publication Date
JPWO2017064812A1 JPWO2017064812A1 (en) 2018-02-15
JP6535099B2 true JP6535099B2 (en) 2019-06-26

Family

ID=58517140

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017545071A Active JP6535099B2 (en) 2015-10-16 2015-10-16 Image reading apparatus, image reading method and image reading program

Country Status (2)

Country Link
JP (1) JP6535099B2 (en)
WO (1) WO2017064812A1 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10178521A (en) * 1996-12-18 1998-06-30 Minolta Co Ltd Image reader
JP2003018369A (en) * 2001-06-29 2003-01-17 Nikon Corp Camera for paintings and calligraphy
JP2003101733A (en) * 2001-09-20 2003-04-04 Ricoh Co Ltd Image-reading apparatus
JP2011197163A (en) * 2010-03-18 2011-10-06 Tamron Co Ltd Optical element driving device and imaging apparatus
JP5768504B2 (en) * 2011-05-31 2015-08-26 ブラザー工業株式会社 Copy machine
JP5800611B2 (en) * 2011-07-07 2015-10-28 オリンパス株式会社 Imaging device

Also Published As

Publication number Publication date
JPWO2017064812A1 (en) 2018-02-15
WO2017064812A1 (en) 2017-04-20

Similar Documents

Publication Publication Date Title
JP5395507B2 (en) Three-dimensional shape measuring apparatus, three-dimensional shape measuring method, and computer program
EP3468163B1 (en) Intelligent internet high-definition scanner with laser correction
JP2009031150A (en) Three-dimensional shape measuring device, three-dimensional shape measurement method, three-dimensional shape measurement program, and record medium
JP5799863B2 (en) Image processing apparatus, image processing method, and program
JP2002325199A (en) Electronic imaging device
US20230199324A1 (en) Projection unit and photographing apparatus comprising same projection unit, processor, and imaging device
JP2013124941A (en) Distance measuring apparatus and distance measuring method
JP2010256530A (en) Microscope device
JP3507865B2 (en) Method and apparatus for real-time shape measurement by CCD camera using DMD
JP5799473B2 (en) Image capturing apparatus and image capturing method
CN115390087A (en) Laser line scanning three-dimensional imaging system and method
JP2013083925A (en) Imaging apparatus and control method therefor
JP6535099B2 (en) Image reading apparatus, image reading method and image reading program
JP2017037017A (en) Distance measurement device and distance measurement method
JP2008287648A (en) Mobile body detection method and device, and monitoring device
CN113366821B (en) Device with multi-aperture imaging device for generating depth maps
JP6618819B2 (en) 3D shape measuring device
CN113330730B (en) Device comprising a multi-aperture imaging device for accumulating image information of a first full field of view and a second full field of view
KR20230036950A (en) Apparatus for measuring three-dimensional shape of target object which acquires multiple information of image through a single scan
JP6328317B2 (en) Object height estimation apparatus and image reading apparatus
JP6306494B2 (en) Shape estimation device, shape estimation method, and shape estimation program
JP2020067511A (en) Camera system, control method and program of the same
JP2005216191A (en) Stereo image processing apparatus and method
JP2019186631A (en) Imaging apparatus and imaging method
JP6459745B2 (en) Self-position calculation device and self-position calculation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171020

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190530

R150 Certificate of patent or registration of utility model

Ref document number: 6535099

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150