JP6535099B2 - Image reading apparatus, image reading method and image reading program - Google Patents
Image reading apparatus, image reading method and image reading program Download PDFInfo
- Publication number
- JP6535099B2 JP6535099B2 JP2017545071A JP2017545071A JP6535099B2 JP 6535099 B2 JP6535099 B2 JP 6535099B2 JP 2017545071 A JP2017545071 A JP 2017545071A JP 2017545071 A JP2017545071 A JP 2017545071A JP 6535099 B2 JP6535099 B2 JP 6535099B2
- Authority
- JP
- Japan
- Prior art keywords
- reading
- image
- unit
- height difference
- spread
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B27/00—Photographic printing apparatus
- G03B27/32—Projection printing apparatus, e.g. enlarger, copying camera
- G03B27/52—Details
- G03B27/62—Holders for the original
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
- H04N23/673—Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/04—Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
- H04N1/10—Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using flat picture-bearing surfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/04—Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
- H04N1/10—Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using flat picture-bearing surfaces
- H04N1/107—Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using flat picture-bearing surfaces with manual scanning
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
Description
本発明は、画像読取装置、画像読取方法及び画像読取プログラムに関する。 The present invention relates to an image reading apparatus, an image reading method, and an image reading program.
原稿等の読取媒体の画像を読み取る画像読取装置には、様々なタイプのものがある。例えば、鉛直方向上方から読取媒体を読み取る「オーバーヘッド型画像読取装置」が知られている。 There are various types of image reading devices that read an image of a reading medium such as a document. For example, an "overhead type image reader" which reads a reading medium from above in the vertical direction is known.
また、近年、書籍等の綴じ媒体の電子データ化の要望がある。例えば書籍を電子データ化するオーバーヘッド型画像読取装置は、書籍の見開きの各ページを、見開き面の鉛直方向上方から読み取る。以下では、見開き状態にある綴じ媒体を「見開き媒体」と呼ぶことがある。 Moreover, in recent years, there is a demand for electronic data conversion of a binding medium such as a book. For example, an overhead image reading apparatus that converts a book into electronic data reads each page of the spread of the book from above the spread surface in the vertical direction. In the following, a binding medium in a spread state may be referred to as a "spread medium".
オーバーヘッド型読取装置のユーザにとっては、一般に、設置スペースの都合等から、オーバーヘッド型読取装置ができるだけ小型であることが望ましい。このため、オーバーヘッド型読取装置では、通常、物像間距離が300〜400[mm]程度に抑えられており、大きな物像間距離を採ることが難しい。物像間距離が小さくなるほど、被写界深度は小さくなるため、一般に、オーバーヘッド型読取装置の被写界深度は小さいことが多い。 For overhead reader users, it is generally desirable for the overhead reader to be as small as possible for reasons of installation space and the like. For this reason, in an overhead reader, the object-image distance is usually suppressed to about 300 to 400 mm, and it is difficult to take a large object-image distance. Generally, the depth of field of an overhead reader is often smaller because the depth of field decreases as the object image distance decreases.
一方で、書籍を載置面に見開き状態で載置すると、書籍の厚さが大きい場合等には、載置面に対してページの中央付近が盛り上がった状態で書籍が載置されることがある。このため、書籍の見開き面において、載置面に対する「ノド」の高さと、載置面に対するページ中央付近の高さとの高低差が大きくなることがある。また、書籍の見開き面において、載置面に対する「小口」の高さと、載置面に対するページ中央付近の高さとの高低差が大きくなることがある。 On the other hand, when the book is placed in a spread state on the placement surface, the book may be placed in a state where the center of the page is raised relative to the placement surface when the thickness of the book is large, etc. is there. For this reason, in the spread surface of the book, the height difference between the height of the "node" with respect to the placement surface and the height near the center of the page with respect to the placement surface may be large. Further, in the spread surface of the book, the height difference between the height of the “small edge” with respect to the placement surface and the height near the center of the page with respect to the placement surface may be large.
上記のように、オーバーヘッド型読取装置の被写界深度は小さいことが多いため、厚さが大きい書籍の見開き面をオーバーヘッド型読取装置で読み取る場合には、見開き面の高低差が被写界深度を超えてしまうことがある。このため、オーバーヘッド型読取装置で読み取った画像において、被写界深度を超えた部分の画像がボケてしまって不鮮明になってしまうことがあり、文字等の判別が困難になることがある。 As described above, since the depth of field of the overhead reader is often small, when the overhead reader reads the facing surface of a book having a large thickness, the height difference between the facing surfaces indicates the depth of field. May be exceeded. For this reason, in the image read by the overhead reader, an image of a portion beyond the depth of field may be blurred and blurred, which may make it difficult to determine characters and the like.
開示の技術は、かかる点に鑑みてなされたものであって、鮮明な画像を取得することを目的とする。 The disclosed technology has been made in view of the above point, and aims to acquire a clear image.
開示の態様では、画像読取装置は、検出部と、判定部と、読取部と、合成部とを有する。前記検出部は、載置面に載置された綴じ媒体の見開き面における高低差を検出する。前記判定部は、前記高低差が所定の被写界深度以内にあるか否かを判定する。前記読取部は、前記判定部での判定結果に基づいて、前記高低差が前記所定の被写界深度以内にあるときは、前記見開き面の全面を合焦領域にした画像を1回読み取る単数読取を行う一方で、前記高低差が前記所定の被写界深度を超えるときは、前記見開き面において互いに合焦領域が異なる複数の画像を読み取る複数読取を行う。前記合成部は、前記複数読取により得られた前記複数の画像において互いの前記合焦領域を合成する。 In an aspect of the disclosure, the image reading apparatus includes a detection unit, a determination unit, a reading unit, and a combining unit. The detection unit detects an elevation difference in the spread surface of the binding medium placed on the placement surface. The determination unit determines whether the height difference is within a predetermined depth of field. When the height difference is within the predetermined depth of field based on the determination result of the determination unit, the reading unit reads the image with the entire area of the spread area as the in-focus area once. While reading is performed, when the height difference exceeds the predetermined depth of field, multiple reading is performed to read a plurality of images having different in-focus areas on the spread surface. The combining unit combines the in-focus areas with each other in the plurality of images obtained by the plurality of readings.
開示の態様によれば、鮮明な画像を取得することができる。 According to the aspect of the disclosure, a clear image can be obtained.
以下、本願が開示する画像読取装置、画像読取方法及び画像読取プログラムの実施例について、図面を参照して説明する。なお、以下の実施例により本発明が限定されるものではない。また、各実施例において同一の構造部材、同一の機能を有する構成及び同一の処理を行うステップには同一の符号を付し、重複する説明を省略する。 Hereinafter, embodiments of an image reading apparatus, an image reading method, and an image reading program disclosed in the present application will be described with reference to the drawings. The present invention is not limited by the following examples. Further, in the respective embodiments, the same structural members, the configurations having the same functions, and the steps for performing the same processing are denoted by the same reference numerals, and overlapping descriptions will be omitted.
[実施例1]
<画像読取装置の構造>
図1〜図6は、実施例1の画像読取装置の概略図である。図1は斜視図であり、図2は正面図であり、図3及び図5は側面図であり、図4及び図6は平面図である。図3と図4とが対応し、図5と図6とが対応する。また、図7及び図8は、実施例1の画像読取装置の読取領域の一例を示す図である。以下では、各図において、画像読取装置1の幅方向を「X方向」、幅方向と水平面で直交する奥行き方向を「Y方向」、幅方向及び奥行き方向と直交する鉛直方向を「Z方向」と図示する。Example 1
<Structure of Image Reading Device>
1 to 6 are schematic views of the image reading apparatus of the first embodiment. 1 is a perspective view, FIG. 2 is a front view, FIGS. 3 and 5 are side views, and FIGS. 4 and 6 are plan views. FIG. 3 and FIG. 4 correspond, and FIG. 5 and FIG. 6 correspond. 7 and 8 are diagrams showing an example of a reading area of the image reading apparatus of the first embodiment. Hereinafter, in each drawing, the width direction of the
実施例1の画像読取装置1は、例えば、複数枚の紙媒体が綴じ部において綴じられることで形成された見開き媒体SMの画像の読取に使用される。画像読取装置1は、見開き媒体SMの画像の読取に使用される場合、図7及び図8に示すように、見開き媒体SMの第1の見開き面P1と、第2の見開き面P2とを個別に読み取り、見開き面P1,P2にそれぞれ対応する各読取データを合成することで、見開き面P1,P2全面の画像データを取得する。以下では、一例として、画像読取装置1が見開き媒体SMの画像の読取に使用される場合を説明する。また、以下では、見開き媒体SMにおいて、開き方向を幅方向(X方向)、開き方向と水平面視において直交する綴じ部の延在方向を奥行き方向(Y方向)、幅方向及び奥行き方向と直交する厚さ方向を鉛直方向(Z方向)とする。
The
画像読取装置1は、図1〜図6に示すように、載置台2と、アーム3と、第1支持部4と、第2支持部5と、第1読取ユニット6と、第2読取ユニット7と、照明8とを有する。
As shown in FIGS. 1 to 6, the
載置台2は、載置台本体部21と、第1載置部22と、第2載置部23とを有し、載置台2には見開き媒体SMが載置される。
The mounting table 2 has a mounting table
載置台本体部21は、画像読取装置1の設置面に接触する部分であり、第1載置部22と第2載置部23とは、載置台本体部21に対して、幅方向において互いに隣接して配置される。第1載置部22及び第2載置部23は平板状の形状を為し、第1載置部22の上面は、鉛直方向において第1読取ユニット6と対向する第1載置面24を形成し、第2載置部23の上面は、鉛直方向において第2読取ユニット7と対向する第2載置面25を形成する。第1載置面24及び第2載置面25は平面であり、第1載置面24には、鉛直方向において見開き面P1と対向する見開き媒体SMの一部が載置され、第2載置面25には、鉛直方向において見開き面P2と対向する見開き媒体SMの一部が載置される。つまり、第1載置面24と第2載置面25とは、幅方向において互いに隣接して設けられる。
The mounting table
また、載置台2において、第1載置部22と第2載置部23とは、両者の間に隙間を有して隣接配置される。よって、見開き媒体SMを載置台2に載置する際には、見開き媒体SMの綴じ部をこの隙間に挿入することができる。よって、載置台2において、見開き媒体SMの綴じ部は、見開き媒体SMの開き方向における両端部よりも低い位置(つまり、鉛直方向の下側)に位置する。これにより、見開き媒体SMの綴じ部の近傍が鉛直方向の上側に盛り上がることを抑制することができるとともに、載置台2に対する見開き媒体SMの位置ずれを抑制することができる。
Further, in the mounting table 2, the first mounting
第1載置面24及び第2載置面25はそれぞれ、見開き媒体SMの鉛直方向における高さを検出する際に用いられる識別領域DA1,DA2を有する。識別領域DA1,DA2は、見開き媒体SMが載置される領域(つまり、載置面24,25のうち識別領域DA1,DA2以外の領域、以下では「載置領域」と呼ぶことがある)と幅方向において隣接している。第1載置面24上に設定された識別領域DA1は、第1載置面24の左側端部に沿って奥行き方向に延在する帯状の領域であり、第2載置面25上に設定された識別領域DA2は、第2載置面25の右側端部に沿って奥行き方向に延在する帯状の領域である。識別領域DA1,DA2に対しては、後述するように、見開き媒体SMが載置領域に載置された状態において、線状レーザ光の一部が照射される。
Each of the
アーム3は、読取ユニット6,7を支持することで、読取ユニット6,7を鉛直方向において載置台2に対して対向させる。アーム3は、平板状の形状を為し、載置台本体部21において載置面24,25よりも奥行き方向の奥側の部分から鉛直方向の上方へ延在して形成される。
The
第1支持部4は、アーム3の鉛直方向の上側の部分から、幅方向の左方へ張り出して形成され、第1読取ユニット6を支持する。第2支持部5は、アーム3の鉛直方向の上側の部分から、幅方向の右方へ張り出して形成され、第2読取ユニット7を支持する。
The
第1読取ユニット6は、鉛直方向において第1載置面24と対向して配置され、第1支持部4から奥行き方向の手前側へ延在して形成される。第1読取ユニット6は、第1画像読取部61及びレンズ66を収容する第1キャリア62と、第1キャリア移動機構63と、第1ミラー64と、第1ミラー回転機構65とを有する。
The
第1画像読取部61は、載置台2に載置された見開き媒体SMの一部の領域を読み取る。第1画像読取部61は、例えば、幅方向(X方向)に沿って直線状に配列された複数の受光素子で形成されるラインセンサであり、幅方向と平行な読取ラインIL1を載置面24上に形成する。つまり、読取ラインIL1を形成するラインセンサの主走査方向は、幅方向(X方向)となる。また、第1画像読取部61は、光軸L1を有する。
The first
第1キャリア62は、奥行き方向に移動自在に支持され、第1キャリア62が奥行き方向で移動することで、第1画像読取部61の位置が奥行き方向で変化し、第1画像読取部61と第1ミラー64との間の光路長が変化する。
The
第1キャリア移動機構63は、第1キャリア62を奥行き方向で往復移動させる。例えば、第1キャリア移動機構63は、アクチュエータ(図示省略)を有しており、アクチュエータからの駆動力により第1キャリア62を往復移動させる。
The first
第1ミラー64は、第1読取ユニット6に対して回転自在に支持され、第1画像読取部61の光軸L1の向きを変更する。第1ミラー64は、幅方向に平行な回転軸O1周りに回転自在に支持される。第1ミラー64は、奥行き方向において、第1キャリア62よりも奥側に配置され、かつ、載置面24よりも奥側に配置される。第1ミラー64は、奥行き方向の光軸L1を、鉛直方向の下方、かつ、奥行き方向の手前側へ折り返す。第1ミラー64が回転軸O1周りに回転することで、光軸L1は、奥行き方向で移動する。
The
第1ミラー回転機構65は、奥行き方向での第1キャリア62の往復移動と同期して、第1ミラー64を回転させる。例えば、第1ミラー回転機構65は、アクチュエータ(図示省略)を有しており、アクチュエータからの駆動力により第1ミラー64を回転させる。
The first
第1キャリア62の移動及び第1ミラー64の回転により、第1画像読取部61の読取ラインIL1は、載置面24上において、奥行き方向に移動する。つまり、読取ラインIL1を形成するラインセンサの副走査方向は、奥行き方向(Y方向)となる。幅方向と平行な読取ラインIL1が奥行き方向に移動することで、第1載置面24における2次元の画像を読み取ることができる。
The movement of the
第2読取ユニット7は、鉛直方向において第2載置面25と対向して配置され、第2支持部5から奥行き方向の手前側へ延在して形成される。第2読取ユニット7は、第2画像読取部71及びレンズ76を収容する第2キャリア72と、第2キャリア移動機構73と、第2ミラー74と、第2ミラー回転機構75とを有する。
The
第2画像読取部71は、載置台2に載置された見開き媒体SMの一部の領域を読み取る。第2画像読取部71は、例えば、幅方向(X方向)に沿って直線状に配列された複数の受光素子で形成されるラインセンサであり、幅方向に平行な読取ラインIL2を載置面25上に形成する。つまり、読取ラインIL2を形成するラインセンサの主走査方向は、幅方向(X方向)となる。また、第2画像読取部71は、光軸L2を有する。
The second
第2キャリア72は、奥行き方向に移動自在に支持され、第2キャリア72が奥行き方向で移動することで、第2画像読取部71の位置が奥行き方向で変化し、第2画像読取部71と第2ミラー74との間の光路長が変化する。
The
第2キャリア移動機構73は、第2キャリア72を奥行き方向で往復移動させる。例えば、第2キャリア移動機構73は、アクチュエータ(図示省略)を有しており、アクチュエータからの駆動力により第2キャリア72を往復移動させる。
The second
第2ミラー74は、第2読取ユニット7に対して回転自在に支持され、第2画像読取部71の光軸L2の向きを変更する。第2ミラー74は、幅方向に平行な回転軸O2周りに回転自在に支持される。第2ミラー74は、奥行き方向において、第2キャリア72よりも奥側に配置され、かつ、載置面25よりも奥側に配置される。第2ミラー74は、奥行き方向の光軸L2を、鉛直方向の下方、かつ、奥行き方向の手前側へ折り返す。第2ミラー74が回転軸O2周りに回転することで、光軸L2は、奥行き方向で移動する。
The
第2ミラー回転機構75は、奥行き方向での第2キャリア72の往復移動と同期して、第2ミラー74を回転させる。例えば、第2ミラー回転機構75は、アクチュエータ(図示省略)を有しており、アクチュエータからの駆動力により第2ミラー74を回転させる。
The second
第2キャリア72の移動及び第2ミラー74の回転により、第2画像読取部71の読取ラインIL2は、載置面25上において、奥行き方向に移動する。つまり、読取ラインIL2を形成するラインセンサの副走査方向は、奥行き方向(Y方向)となる。幅方向と平行な読取ラインIL2が奥行き方向に移動することで、第2載置面25における2次元の画像を読み取ることができる。
The movement of the
照明8は、載置台2に載置された見開き媒体SMに対して光を照射する。照明8は、第1読取ユニット6側に設けられる第1照明81と、第2読取ユニット7側に設けられる第2照明82と、第1照明回転機構83と、第2照明回転機構84とを有する。
The
第1照明81は、回転軸O1周りに回転自在に支持される。また、第1照明81は、幅方向において、第1読取ユニット6の両端に設けられる。一対の第1照明81の照射範囲は、幅方向に延在する帯状となり、幅方向において、第1画像読取部61の読取領域S1Fよりも大きい。第1照明回転機構83は、一対の第1照明81を回転させる。例えば、第1照明回転機構83は、アクチュエータ(図示省略)を有しており、アクチュエータからの駆動力により、一対の第1照明81を回転させる。第1照明回転機構83は、ミラー64の回転により奥行き方向で移動する光軸L1が第1照明81の照射領域LA1に常に含まれるように、第1照明81を回転させる。
The
第2照明82は、回転軸O2周りに回転自在に支持される。また、第2照明82は、幅方向において、第2読取ユニット7の両端に設けられる。一対の第2照明82の照射範囲は、幅方向に延在する帯状となり、幅方向において、第2画像読取部71の読取領域S2Fより大きい。第2照明回転機構84は、一対の第2照明82を回転させる。例えば、第2照明回転機構84は、アクチュエータ(図示省略)を有しており、アクチュエータからの駆動力により、一対の第2照明82を回転させる。第2照明回転機構84は、ミラー74の回転により奥行き方向で移動する光軸L2が、第2照明82の照射領域LA2に常に含まれるように、第2照明82を回転させる。
The
つまり、見開き媒体SMに対する照明8の照射位置は、見開き媒体SMに対する光軸L1,L2の位置変化に同期して変化する。
That is, the irradiation position of the
ここで、図7に示すように、第1画像読取部61の読取領域S1Fには、第2画像読取部71の読取領域S2Fの一部が含まれ、読取領域S2Fには読取領域S1Fの一部が含まれる。また、図8に示すように、読取領域S1Fにより第1載置面24上に形成される読取領域S1FAは幅方向において第1載置面24より大きく、読取領域S2Fにより第2載置面25上に形成される読取領域S2FAは幅方向において第2載置面25より大きい。読取領域S1FAは、第1載置面24上での矩形の水平面となり、読取領域S2FAは、第2載置面25上での矩形の水平面となる。さらに、幅方向において、読取領域S1FAの第2載置面25側の端部は、載置台2の中央よりも第2載置面25側に位置し、読取領域S2FAの第1載置面24側の端部は、載置台2の中央よりも第1載置面24側に位置する。つまり、幅方向において、載置台2の中央付近に、読取領域S1FAの一部と読取領域S2FAの一部とが互いに重なる領域である重複領域S0FAが形成される。よって、第1画像読取部61により読み取られた画像と、第2画像読取部71により読み取られた画像とには、互いに重複した画像が含まれることになる。
Here, as shown in FIG. 7, the reading area S1F of the first
第1読取ユニット6は、さらに、第1線状光照射部211と、第1照射部回転機構221と、第1線状光用撮像カメラ231とを有する。
The
第1線状光照射部211は、幅方向に平行な線状レーザ光BF1を第1載置面24に対して照射するため、第1載置面24に載置された見開き媒体SMの見開き面P1に線状レーザ光BF1を照射することになる。第1線状光照射部211は、第1読取ユニット6に対して、幅方向に平行な回転軸O3周りに回転自在に支持される。第1線状光照射部211は、奥行き方向において、載置面24より奥側に配置され、かつ、第1ミラー64より奥側に配置される。また、第1線状光照射部211は、回転軸O3周りに回転することで、線状レーザ光BF1を奥行き方向で移動させる。
The first linear
第1照射部回転機構221は、第1線状光照射部211を回転させる。例えば、第1照射部回転機構221は、アクチュエータ(図示省略)を有しており、アクチュエータからの駆動力により、第1線状光照射部211を回転させる。
The first irradiating
第1線状光用撮像カメラ231は、線状レーザ光BF1の移動と非同期に、線状レーザ光BF1を含んだ状態の読取領域SF1Aを連続して撮像する。第1線状光用撮像カメラ231は、幅方向(X方向)及び奥行き方向(Y方向)の双方に2次元に配列された複数の撮像素子で形成されるエリアセンサを有する。第1線状光用撮像カメラ231は、奥行き方向において、第1読取ユニット6の手前側の端部付近に配置され、第1載置面24上の見開き媒体SMの見開き面P1の全面を撮像可能なように第1読取ユニット6の下面側に配置される。
The first linear
第2読取ユニット7は、さらに、第2線状光照射部212と、第2照射部回転機構222と、第2線状光用撮像カメラ232とを有する。
The
第2線状光照射部212は、幅方向に平行な線状レーザ光BF2を第2載置面25に対して照射するため、第2載置面25に載置された見開き媒体SMの見開き面P2に線状レーザ光BF2を照射することになる。第2線状光照射部212は、第2読取ユニット7に対して、幅方向に平行な回転軸O4周りに回転自在に支持される。第2線状光照射部212は、奥行き方向において、載置面25より奥側に配置され、かつ、第2ミラー74より奥側に配置される。また、第2線状光照射部212は、回転軸O4周りに回転することで、線状レーザ光BF2を奥行き方向で移動させる。
The second linear
第2照射部回転機構222は、第2線状光照射部212を回転させる。例えば、第2照射部回転機構222は、アクチュエータ(図示省略)を有しており、アクチュエータからの駆動力により、第2線状光照射部212を回転させる。
The second irradiation
第2線状光用撮像カメラ232は、線状レーザ光BF2の移動と非同期に、線状レーザ光BF2を含んだ状態の読取領域SF2Aを連続して撮像する。第2線状光用撮像カメラ232は、幅方向(X方向)及び奥行き方向(Y方向)の双方に2次元に配列された複数の撮像素子で形成されるエリアセンサを有する。第2線状光用撮像カメラ232は、奥行き方向において、第2読取ユニット7の手前側の端部付近に配置され、第2載置面25上の見開き媒体SMの見開き面P2の全面を撮像可能なように第2読取ユニット7の下面側に配置される。
The second linear
ここで、読取ラインIL1,IL2と、線状レーザ光BF1,BF2との位置関係は、例えば、以下のようになる。図9及び図10は、実施例1の読取ラインと線状レーザ光との位置関係の一例を示す図である。 Here, the positional relationship between the reading lines IL1 and IL2 and the linear laser beams BF1 and BF2 is, for example, as follows. FIGS. 9 and 10 are diagrams showing an example of the positional relationship between the reading line and the linear laser light in the first embodiment.
図9及び図10に示すように、読取ラインIL1,IL2と、線状レーザ光BF1,BF2とは、奥行き方向において、互いに重なり合わないようにずれた状態で移動する。また、幅方向において、線状レーザ光BF1と、線状レーザ光BF2とは、重ならない。 As shown in FIGS. 9 and 10, the reading lines IL1 and IL2 and the linear laser beams BF1 and BF2 move in the depth direction so as not to overlap with each other. Further, in the width direction, the linear laser beam BF1 and the linear laser beam BF2 do not overlap.
例えば、図9に示すように、奥行き方向において、線状レーザ光BF1は常に読取ラインIL1の奥側に位置し、線状レーザ光BF2は常に読取ラインIL2の奥側に位置する。また例えば、図10に示すように、奥行き方向において、線状レーザ光BF1は常に読取ラインIL1の手前側に位置し、線状レーザ光BF2は常に読取ラインIL2の手前側に位置する。図9及び図10の何れの位置関係でも、奥行き方向において、線状レーザ光BF1と読取ラインIL1との距離は一定に保たれ、線状レーザ光BF2と読取ラインIL2との距離は一定に保たれる。 For example, as shown in FIG. 9, in the depth direction, the linear laser beam BF1 is always located at the back side of the reading line IL1, and the linear laser beam BF2 is always located at the back side of the reading line IL2. For example, as shown in FIG. 10, in the depth direction, the linear laser beam BF1 is always located on the front side of the reading line IL1, and the linear laser beam BF2 is always located on the front side of the reading line IL2. 9 and 10, the distance between the linear laser beam BF1 and the reading line IL1 is kept constant in the depth direction, and the distance between the linear laser beam BF2 and the reading line IL2 is kept constant. Get down.
<画像読取装置の構成>
図11は、実施例1の画像読取装置の構成を示すブロック図である。図11において、画像読取装置1は、第1読取ユニット6と、第2読取ユニット7と、制御ユニット10とを有する。制御ユニット10内の各部は、制御ユニット10の各機能を示す。制御ユニット10は、ハードウェアの構成要素として、例えば、プロセッサと、メモリとを有する。プロセッサとメモリとにより、制御ユニット10の各機能が実現される。プロセッサの一例として、CPU(Central Processing Unit),DSP(Digital Signal Processor),FPGA(Field Programmable Gate Array)等が挙げられる。また、制御ユニット10は、プロセッサと周辺回路とを含むLSI(Large Scale Integrated circuit)を有してもよい。メモリの一例として、SDRAM等のRAM,ROM,フラッシュメモリ等が挙げられる。制御ユニット10は、例えば、載置台本体部21の内部に備えられる。<Configuration of Image Reading Device>
FIG. 11 is a block diagram showing the configuration of the image reading apparatus of the first embodiment. In FIG. 11, the
制御ユニット10は、画像読取制御部101と、照明制御部102と、第1機構制御部103と、画像処理部105と、記憶部106と、通信部107とを有する。画像処理部105は、合成部170を有する。通信部107は、画像読取装置1の外部の外部機器300と接続される。外部機器300は、例えば、パーソナルコンピュータである。また、制御ユニット10は、線状光照射制御部108と、線状光撮像制御部109と、第2機構制御部110と、キャリブレーション部120とを有する。また、制御ユニット10は、高低差検出部130と、高低差判定部140と、被写界深度設定部150と、読取回数決定部160とを有する。
The
画像読取制御部101は、第1画像読取部61及び第2画像読取部71の読取開始タイミング、読取終了タイミング、露光時間、及び、露光タイミング等を制御する。
The image
照明制御部102は、第1照明81及び第2照明82の点灯タイミング、消灯タイミング、及び、光量等を制御する。
The
第1機構制御部103は、第1キャリア移動機構63と、第2キャリア移動機構73と、第1ミラー回転機構65と、第2ミラー回転機構75と、第1照明回転機構83と、第2照明回転機構84とを制御する。第1機構制御部103は、各機構のアクチュエータを動作させ、第1キャリア62及び第2キャリア72の移動動作、第1ミラー64及び第2ミラー74の回転動作、及び、第1照明81及び第2照明82の回転動作を互いに同期させて制御する。
The first
画像処理部105は、第1画像読取部61によって読み取られた画像を表す信号から、読取領域S1FAの全領域の画像のデータ(以下では「第1読取データ」と呼ぶことがある)を生成する。また、画像処理部105は、第2画像読取部71によって読み取られた画像を表す信号から、読取領域S2FAの全領域の画像のデータ(以下では「第2読取データ」と呼ぶことがある)を生成する。合成部170は、第1読取データと第2読取データとを合成して見開き媒体SMの見開き面P1,P2の全面に対応する画像データ(以下では「見開き面画像データ」と呼ぶことがある)を生成する。第1読取データと第2読取データとには、互いに重複したデータ(つまり、重複領域S0FAでの画像のデータ)が含まれる。そこで、合成部170は、重複領域S0FAに基づいて、第1読取データまたは第2読取データの一方のデータと、他方のデータから重複データを除いた後の残りのデータとを合成することにより、見開き面画像データを生成する。
The
記憶部106は、第1読取データ、第2読取データ、及び、見開き面画像データを記憶する。また、記憶部106は、キャリブレーション部120により得られるパラメータを記憶する。
The
通信部107は、記憶部106に記憶された第1読取データ、第2読取データ、及び、見開き面画像データを外部機器300へ出力することができる。
The
線状光照射制御部108は、第1線状光照射部211及び第2線状光照射部212の点灯タイミング、消灯タイミング、及び、光量等を制御する。
The linear light
線状光撮像制御部109は、第1線状光用撮像カメラ231及び第2線状光用撮像カメラ232の撮像開始タイミング、撮像タイミング、露光時間、及び、露光タイミング等を制御する。
The linear light
第2機構制御部110は、第1照射部回転機構221及び第2照射部回転機構222のアクチュエータを動作させ、第1照射部回転機構221及び第2照射部回転機構222の回転動作を制御する。
The second
キャリブレーション部120は、識別領域DA1,DA2内に設定された複数の基準位置1〜n(図12及び図13参照)に対して、第1線状光照射部211と第1線状光用撮像カメラ231との位置関係に基づくパラメータ、及び、第2線状光照射部212と第2線状光用撮像カメラ232との位置関係に基づくパラメータを設定して記憶部106に格納する。
The
図12は、実施例1のキャリブレーション動作の一例を示す図であり、図13は、実施例1の基準位置に対応するパラメータの一例を示す図である。図12には、一例として、第2読取ユニット7でのキャリブレーション動作を示すが、第1読取ユニット6でのキャリブレーション動作も、第2読取ユニット7でのキャリブレーション動作と同様である。
FIG. 12 is a diagram showing an example of the calibration operation of the first embodiment, and FIG. 13 is a diagram showing an example of parameters corresponding to the reference position of the first embodiment. Although FIG. 12 shows the calibration operation in the
図12において、第2線状光照射部212は、識別領域DA2を含む第2載置面25に対して、線状レーザ光B1,B2,B3〜Bnを、奥行き方向の奥側から手前側へ移動させながら順に照射する。第2線状光用撮像カメラ232は、線状レーザ光B1,B2,B3〜Bnが順に照射される第2載置面25を順次撮像して、線状レーザ光B1,B2,B3〜Bnの撮像画像を含む画像データを生成する。以下では、線状レーザ光Bの撮像画像を含む画像データを「線状レーザ光画像データ」と呼ぶことがある。
In FIG. 12, the second linear
キャリブレーション部120は、図13に示すように、識別領域DA2に照射された線状レーザ光B1が示す基準位置1に対して、3次元座標計算用のパラメータ1を設定する。同様に、キャリブレーション部120は、線状レーザ光B2,B3〜Bnの各々が示す基準位置2,3〜nに対して、3次元座標計算用のパラメータ2,3〜nをそれぞれ設定する。なお、3次元座標計算用のパラメータの設定には、第2線状光照射部212と第2線状光用撮像カメラ232との位置関係に基づいて、周知の三角測距法を利用する。キャリブレーション部120は、パラメータ1,2,3〜nの各々を、基準位置1,2,3〜nの各々に対応付けて記憶部106に格納する。記憶部106に格納されたパラメータは、高低差検出部130が用いる平面方程式の係数(a,b,c,d)として利用される。
As illustrated in FIG. 13, the
高低差検出部130は、線状レーザ光画像データに基づいて、第1載置面24に載置された見開き媒体SMの見開き面P1における鉛直方向での高低差DOE1を検出する。また、高低差検出部130は、線状レーザ光画像データに基づいて、第2載置面25に載置された見開き媒体SMの見開き面P2における鉛直方向での高低差DOE2を検出する。
The height
高低差判定部140は、高低差検出部130によって検出された高低差DOE1が第1読取ユニット6の所定の被写界深度DOF1以内にあるか否かを判定し、判定結果を画像読取制御部101、合成部170及び読取回数決定部160へ出力する。また、高低差判定部140は、高低差検出部130によって検出された高低差DOE2が第2読取ユニット7の所定の被写界深度DOF2以内にあるか否かを判定し、判定結果を画像読取制御部101、合成部170及び読取回数決定部160へ出力する。なお、通常は、被写界深度DOF1の大きさと、被写界深度DOF2の大きさとは同一である。
The height
画像読取制御部101は、高低差DOE1が被写界深度DOF1以内にあるときは、副走査方向での1回の走査で見開き面P1の全面の画像を1回読み取る「単数読取」を第1読取ユニット6に行わせる。よって、合成部170は、高低差DOE1が被写界深度DOF1以内にあるときは、第1読取データを1回取得する。一方で、画像読取制御部101は、高低差DOE1が被写界深度DOF1を超えるときは、副走査方向での複数回の走査で見開き面P1の全面の画像を複数回読み取る「複数読取」を第1読取ユニット6に行わせる。よって、合成部170は、高低差DOE1が被写界深度DOF1を超えるときは、第1読取データを複数回取得する。
When the height difference DOE1 is within the depth of field DOF1, the image
また、画像読取制御部101は、高低差DOE2が被写界深度DOF2以内にあるときは、副走査方向での1回の走査で見開き面P2の全面の画像を1回読み取る「単数読取」を第2読取ユニット7に行わせる。よって、合成部170は、高低差DOE2が被写界深度DOF2以内にあるときは、第2読取データを1回取得する。一方で、画像読取制御部101は、高低差DOE2が被写界深度DOF2を超えるときは、副走査方向での複数回の走査で見開き面P2の全面の画像を複数回読み取る「複数読取」を第2読取ユニット7に行わせる。よって、合成部170は、高低差DOE2が被写界深度DOF2を超えるときは、第2読取データを複数回取得する。
Further, when the
そして、合成部170は、高低差DOE1が被写界深度DOF1を超えるときは、複数回取得した第1読取データを合成することで、最終的な第1読取データを生成する。また、合成部170は、高低差DOE2が被写界深度DOF2を超えるときは、複数回取得した第2読取データを合成することで、最終的な第2読取データを生成する。合成部170での合成の詳細は後述する。
Then, when the height difference DOE1 exceeds the depth of field DOF1, the combining
被写界深度設定部150は、画像読取装置1のユーザの所望の解像度に応じて、被写界深度DOF1,DOF2を高低差判定部140に設定する。ユーザは、画像読取装置1が有する入力インタフェース(図示省略)を用いて、所望の解像度を画像読取装置1に設定することが可能である。
The depth of field setting unit 150 sets the depth of
読取回数決定部160は、高低差DOE1が被写界深度DOF1を超えるときは、第1読取ユニット6での複数読取における読取回数を決定し、決定した読取回数を画像読取制御部101へ出力する。また、読取回数決定部160は、高低差DOE2が被写界深度DOF2を超えるときは、第2読取ユニット7での複数読取における読取回数を決定し、決定した読取回数を画像読取制御部101へ出力する。画像読取制御部101は、読取回数決定部160により決定された読取回数で、第1読取ユニット6及び第2読取ユニット7に複数読取を行わせる。例えば、読取回数決定部160は、「DOF1×M≧DOE1(Mは2以上の整数)」の条件を満たす最小のMを第1読取ユニット6での複数読取における読取回数に決定する。また例えば、読取回数決定部160は、「DOF2×K≧DOE2(Kは2以上の整数)」の条件を満たす最小のKを第2読取ユニット7での複数読取における読取回数に決定する。
When the height difference DOE1 exceeds the depth of field DOF1, the number-of-
<高低差検出処理>
図14及び図15は、実施例1の高低差検出処理の一例を示すフローチャートである。図14には、高低差検出処理における画像取得処理のフローチャートを示し、図15には、高低差検出処理における3次元データ算出処理のフローチャートを示す。<High / low difference detection processing>
14 and 15 are flowcharts illustrating an example of the height difference detection process according to the first embodiment. FIG. 14 shows a flowchart of image acquisition processing in height difference detection processing, and FIG. 15 shows a flowchart of three-dimensional data calculation processing in height difference detection processing.
図14のステップST20では、線状光照射制御部108が第1線状光照射部211及び第2線状光照射部212を制御して線状レーザ光をOFFにした状態で、線状光撮像制御部109が第1線状光用撮像カメラ231及び第2線状光用撮像カメラ232を制御して見開き媒体SMの画像を取得する。つまり「レーザ光無し画像」を取得する。
In step ST20 in FIG. 14, the linear light
次いで、ステップST21では、線状光照射制御部108が第1線状光照射部211及び第2線状光照射部212を制御して線状レーザ光をONにする。
Next, in step ST21, the linear light
次いで、ステップST22では、第2機構制御部110が第1照射部回転機構221及び第2照射部回転機構222を制御して第1線状光照射部211及び第2線状光照射部212の回転動作を開始することで、線状レーザ光の移動を開始する。
Next, in step ST22, the second
次いで、ステップST23では、線状レーザ光がONになった状態で、線状光撮像制御部109が第1線状光用撮像カメラ231及び第2線状光用撮像カメラ232を制御して見開き媒体SMの画像の読取を開始する。つまり「レーザ光有り画像」の読取を開始する。
Next, in step ST23, the linear light
次いで、ステップST24では、線状光撮像制御部109は、現在のフレームが新フレームであるか否かを判定する。現在のフレームが新フレームでないときは(ステップST24:No)、線状光撮像制御部109は、ステップST24の判定を繰り返す。一方で、現在のフレームが新フレームであるときは(ステップST24:Yes)、処理はステップST25へ進む。
Next, in step ST24, the linear light
ステップST25では、線状光撮像制御部109が第1線状光用撮像カメラ231及び第2線状光用撮像カメラ232を制御してレーザ光有り画像を読み取る。
In step ST25, the linear light
次いで、ステップST26では、線状光照射制御部108は、照射開始位置から照射終了位置まで線状レーザ光を移動させたか否かを判定する。つまり、線状光照射制御部108は、線状レーザ光の移動が終了したか否かを判定する。線状レーザ光の移動が終了していないときは(ステップST26:No)、処理はステップST24へ戻る。一方で、線状レーザ光の移動が終了したときは(ステップST26:Yes)、処理はステップST27へ進む。
Next, in step ST26, the linear light
次いで、ステップST27では、線状光撮像制御部109は、第1線状光用撮像カメラ231及び第2線状光用撮像カメラ232を制御してレーザ光有り画像の読取を終了する。
Next, in step ST27, the linear light
次いで、ステップST28では、線状光照射制御部108が第1線状光照射部211及び第2線状光照射部212を制御して線状レーザ光をOFFにする。
Next, in step ST28, the linear light
このようにして、画像読取装置1は、レーザ光無し画像と、レーザ光有り画像とを取得する。ステップST20で取得された1つのレーザ光無し画像、及び、ステップST25で取得された複数のレーザ光有り画像は、記憶部106に格納される。
Thus, the
次いで、図15のステップST30では、高低差検出部130は、図14に示す画像取得処理が終了したか否かを判定する。図14に示す画像取得処理が終了していないときは(ステップST30:No)、高低差検出部130は、ステップST30の判定を繰り返す。一方で、図14に示す画像取得処理が終了したときは(ステップST30:Yes)、処理はステップST31へ進む。
Next, in step ST30 of FIG. 15, the height
ステップST31では、高低差検出部130は、レーザ光無し画像とレーザ光有り画像との差分から線状レーザ光の画像を検出する。
In step ST31, the height
次いで、ステップST32では、高低差検出部130は、ステップST31で検出した線状レーザ光の画像から、識別領域DA1,DA2における線状レーザ光の現在位置を特定する。
Next, in step ST32, the height
次いで、ステップST33では、高低差検出部130は、ステップST32で特定した線状レーザ光の現在位置と、キャリブレーション部120により記憶部106に格納されたパラメータ1,2,3〜nとを用いて3次元データ(3次元座標)を算出することにより、線状レーザ光の現在位置における見開き面P1,P2の高さを推定する。
Next, in step ST33, the height
図16は、実施例1の3次元データの算出方法の概要を示す図である。図16において、高低差検出部130は、線状レーザ光の画像を検出すると、線状レーザ光の実空間形状を取得できる。また、高低差検出部130は、識別領域DA1,DA2における線状レーザ光の現在位置を示すレーザ座標(ui,vi)を取得できる。高低差検出部130は、レーザ座標(ui,vi)に対応する基準位置を、記憶部106に格納された基準位置1〜nの中から検索し、線状レーザ光の現在位置に一致する基準位置に対応付けられたパラメータ(a,b,c,d)を記憶部106から取得する。そして、高低差検出部130は、取得したパラメータ(a,b,c,d)を周知の平面方程式に適用して図16に示すようなカメラモデルを構築することで、レーザ座標(ui,vi)に対応する3次元座標(Xi,Yi,Zi)を算出する。3次元座標(Xi,Yi,Zi)において、Ziは、見開き面P1内の複数位置での第1載置面24に対する鉛直方向での高さ、及び、見開き面P2内の複数位置での第2載置面25に対する鉛直方向の高さに相当する。高低差検出部130は、順次算出した3次元座標(Xi,Yi,Zi)を記憶部106に格納する。FIG. 16 is a diagram showing an outline of a method of calculating three-dimensional data according to the first embodiment. In FIG. 16, the elevation
このようにして、高低差検出部130は、識別領域DA1,DA2における基準位置に対応付けられたパラメータに基づいて、見開き面P1,P2上での線状レーザ光Bの照射位置の高さを推定することにより、見開き面P1内の複数位置での第1載置面24に対する鉛直方向での高さ、及び、見開き面P2内の複数位置での第2載置面25に対する鉛直方向での高さを推定する。そして、高低差検出部130は、見開き面P1に対して推定した複数位置での高さのうち、最大の高さと、最小の高さとの差を、見開き面P1における高低差DOE1として検出する。また、高低差検出部130は、見開き面P2に対して推定した複数位置での高さのうち、最大の高さと、最小の高さとの差を、見開き面P2における高低差DOE2として検出する。高低差検出部130は、検出した高低差DOE1,DOE2を記憶部106に格納する。
In this manner, the height
<画像読取装置の動作>
図17〜図23は、実施例1の画像読取装置の動作の説明に供する図である。ここで、第1載置面24に対する動作と、第2載置面25に対する動作とは同一になるため、以下では、第2載置面25に対する動作について説明し、第1載置面24に対する動作の説明は省略する。<Operation of Image Reading Device>
17 to 23 are diagrams for explaining the operation of the image reading apparatus according to the first embodiment. Here, since the operation on the first mounting
図17及び図18に示すように、高低差判定部140は、第2載置面25に載置された見開き媒体SMの見開き面P2における高低差DOE2が被写界深度DOF2以内にあるか否かを判定する。図17には、高低差DOE2が被写界深度DOF2以内にある場合を示し、図18には、高低差DOE2が被写界深度DOF2を超える場合を示す。
As shown in FIGS. 17 and 18, the height
高低差DOE2が被写界深度DOF2を超える場合は、読取回数決定部160は、第2読取ユニット7での複数読取における読取回数を決定する。読取回数決定部160は、例えば、「DOF2×K≧DOE2(Kは2以上の整数)」の条件を満たす最小のKを第2読取ユニット7での複数読取における読取回数に決定し、決定した読取回数Kを画像読取制御部101へ出力する。ここでは、一例として、読取回数は2回(K=2)に決定されたものとする。また、読取回数決定部160は、読取回数を2回に決定したときは、図19(a1),(b1),(c1)に示すように、高低差DOE2の2分の1の高さを「分割境界DB」に決定する。また、読取回数決定部160は、記憶部106に格納されている3次元座標(Xi,Yi,Zi)に基づいて、見開き面P2内で分割境界DBの高さに対応する位置(つまり、見開き面P2内で最小の高さから分割境界DBだけ高い位置)B1,B2を「分割境界位置」として求め、求めた分割境界位置B1,B2を画像読取制御部101へ出力する。If the
よって、図19(a1)に示すように、見開き面P2において、分割境界DBから鉛直方向上方へ被写界深度DOF2までが合焦領域(つまり、ピントが合う領域)FA1となる。また、図19(b1)に示すように、見開き面P2において、分割境界DBから鉛直方向下方へ被写界深度DOF2までが合焦領域FA2となる。合焦領域FA1と合焦領域FA2とは、見開き面P2内において互いに異なる合焦領域である。 Therefore, as shown in FIG. 19A1, in the spread plane P2, the region from the division boundary DB to the depth of field DOF2 in the vertical direction is the in-focus region (that is, the region in focus) FA1. Further, as shown in FIG. 19 (b1), in the spread plane P2, the area from the division boundary DB to the depth of field DOF2 in the vertical direction is the focusing area FA2. The in-focus area FA1 and the in-focus area FA2 are in-focus areas different from each other in the spread plane P2.
そこで、画像読取制御部101は、1回目の読取にあたり、読取ラインIL2が初期位置PSにある状態で、合焦領域FA1内に存在する位置SP1(図19(a1)参照)での光路長が「L」になるように第2キャリア72を移動させる。位置SP1で光路長が「L」になる第2キャリア72の位置は、1回目の読取における第2キャリア72の読取開始位置となる。画像読取制御部101は、記憶部106に格納されている3次元座標(Xi,Yi,Zi)に基づいて、例えば図19(a1)に示すように、「分割境界DB+(被写界深度DOF2の2分の1)」の高さh1に対応する位置を位置SP1に設定する。1回目の読取における第2キャリア72の読取開始位置の一例を図20に示す。つまり、1回目の読取における第2キャリア72の読取開始位置での光路長は「L=l1+l2」である。Therefore, the image
画像読取制御部101は、光路長を「L」で一定に保ったまま、図20及び図21に示すように、第2キャリア72を副走査方向で移動させながら第2画像読取部71に見開き面P2の画像を読み取らせる。1回目の読取における副走査方向は、例えば図20及び図21に示すように、奥行き方向で奥側から手前側へ向かう方向である。1回目の読取における第2キャリア72の読取終了位置の一例を図21に示す。つまり、1回目の読取における第2キャリア72の読取終了位置での光路長は「L=l3+l4」である。第2キャリア72が図21に示す読取終了位置に到達した時点で、読取ラインIL2が最終位置PEに到達して1回目の読取は終了し、見開き面P2の全面の1つ目の画像が得られる。
As shown in FIGS. 20 and 21, while the optical path length is kept constant at "L", the image
次いで、画像読取制御部101は、2回目の読取にあたり、読取ラインIL2が最終位置PEにある状態で、合焦領域FA2内に存在する位置SP2(図19(b1)参照)での光路長が「L」になるように第2キャリア72を移動させる。位置SP2で光路長が「L」になる第2キャリア72の位置は、2回目の読取における第2キャリア72の読取開始位置となる。画像読取制御部101は、記憶部106に格納されている3次元座標(Xi,Yi,Zi)に基づいて、例えば図19(b1)に示すように、「分割境界DB−(被写界深度DOF2の2分の1)」の高さh2に対応する位置を位置SP2に設定する。2回目の読取における第2キャリア72の読取開始位置の一例を図22に示す。つまり、2回目の読取における第2キャリア72の読取開始位置での光路長は「L=15+l6」である。ここで、l5<l3,l6>l4,l3−l5=l6−l4である。Next, the image
画像読取制御部101は、光路長を「L」で一定に保ったまま、図22及び図23に示すように、第2キャリア72を副走査方向で移動させながら第2画像読取部71に見開き面P2の画像を読み取らせる。2回目の読取における副走査方向は、例えば図22及び図23に示すように、奥行き方向で手前側から奥側へ向かう方向である。つまり、画像読取制御部101は、2回目の読取では、第2キャリア72を、1回目の読取での移動方向と反対方向に移動させる。2回目の読取における第2キャリア72の読取終了位置の一例を図23に示す。つまり、2回目の読取における第2キャリア72の読取終了位置での光路長は「L=l7+l8」である。第2キャリア72が図23に示す読取終了位置に到達した時点で、読取ラインIL2が初期位置PSに戻って2回目の読取は終了し、見開き面P2の全面の2つ目の画像が得られる。
As shown in FIGS. 22 and 23, while the optical path length is kept constant at “L”, the image
ここで、1回目の読取での合焦範囲FA1は図19(a1)に示すようになり、2回目の読取での合焦範囲FA2は図19(b1)に示すようになる。よって、1回目の読取では、図19(a2)に示すように、見開き面P2内において、分割境界DB以上の高さにある位置でピントが合った画像が得られる。図19(a2)には、一例として、見開き面P2の右半分が合焦領域FA1である場合を示す。一方で、2回目の読取では、図19(b2)に示すように、見開き面P2内において、分割境界DB未満の高さにある位置でピントが合った画像が得られる。図19(b2)には、一例として、見開き面P2の左半分が合焦領域FA2である場合を示す。よって、1回目の読取で得られた画像の右半分と、2回目の読取で得られた画像の左半分とを合成することで、見開き面P2の全面でピントがあった画像を得ることができる。以下では、見開き面P2の右半分の画像を「右半分画像」と呼び、見開き面P2の左半分の画像を「左半分画像」と呼ぶことがある。
Here, the focusing range FA1 in the first reading is as shown in FIG. 19A1, and the focusing range FA2 in the second reading is as shown in FIG. 19B1. Therefore, in the first reading, as shown in FIG. 19A2, an image in focus at a position at a height higher than the division boundary DB can be obtained in the spread plane P2. FIG. 19A2 illustrates, as an example, a case where the right half of the spread plane P2 is the focusing area FA1. On the other hand, in the second reading, as shown in FIG. 19B, an image in focus at a position below the dividing boundary DB in the spread plane P2 is obtained. FIG. 19 (b 2) shows, as an example, the case where the left half of the
但し、1回目の読取では位置SP1(図19(a1)参照)を基準にして光路長を「L」に設定する一方で、2回目の読取では位置SP2(図19(b1)参照)を基準にして光路長を「L」に設定している。よって、分割境界位置B2付近(つまり、右半分画像と左半分画像との結合部付近)での倍率については、図19(a2),(b2)に示すように、1回目の読取時の倍率MXは、2回目の読取時の倍率MYより小さくなる。よって、1回目の読取でピントが合う右半分画像と、2回目の読取でピントが合う左半分画像とを単に合成したのでは、互いに倍率が異なる画像同士を合成してしまうことになる。 However, while the light path length is set to “L” based on the position SP1 (see FIG. 19 (a1)) in the first reading, the position SP2 (see FIG. 19 (b1)) is referred to in the second reading. And the optical path length is set to “L”. Therefore, with regard to the magnification near the division boundary position B2 (that is, near the junction of the right half image and the left half image), as shown in FIGS. 19 (a2) and (b2), the magnification during the first reading MX is smaller than the magnification MY at the time of the second reading. Therefore, if the right half image in focus in the first reading and the left half image in focus in the second reading are simply combined, images having different magnifications will be combined.
そこで、合成部170は、右半分画像と左半分画像とに対して倍率調節を行う。つまり、右半分画像及び左半分画像をそれぞれ変倍する。例えば、基準倍率を「Std」と表記すると、合成部170は、図19(a2),(c2)に示すように、右半分画像を「Std/MX」倍して、右半分画像の倍率をMXからStdに変更する。また、合成部170は、図19(b2),(c2)に示すように、左半分画像を「Std/MY」倍して、左半分画像の倍率をMYからStdに変更する。このような倍率調節により、右半分画像及び左半分画像の双方の倍率はStdで同一になる。よって、合成部170は、図19(c2)に示すように、倍率Stdの右半分画像と倍率Stdの左半分画像とを合成することで、見開き面P2の全面にピントが合い、かつ、見開き面P2の全面で同倍率の画像を取得する。
Therefore, the combining
なお、倍率MXは、以下のようにして、光路長Lの設定の基準となる位置SP1と、分割境界位置B2との高低差から算出可能である。同様に、倍率MYは、以下のようにして、光路長Lの設定の基準となる位置SP2と、分割境界位置B2との高低差から算出可能である。 The magnification ratio MX can be calculated from the height difference between the position SP1 as a reference for setting the optical path length L and the division boundary position B2 as follows. Similarly, the magnification ratio MY can be calculated from the height difference between the position SP2 serving as a reference for setting the optical path length L and the division boundary position B2 as follows.
すなわち、光路長Lの設定の基準となる位置SP1では、倍率が「1.0」となる。そこで、位置SP1と分割境界位置B2との高低差を「d1」と表記すると、以下の式(1)が成り立ち、式(1)を変形した式(2)によって、倍率MXを算出することができる。
1.0:L=MX:(L+d1) …(1)
MX=(L+d1)/L …(2)That is, at the position SP1 which is a reference of setting of the optical path length L, the magnification is "1.0". Therefore, if the height difference between the position SP1 and the division boundary position B2 is expressed as "d1", the following equation (1) holds, and the magnification MX can be calculated by the equation (2) obtained by modifying the equation (1) it can.
1.0: L = MX: (L + d1) (1)
MX = (L + d1) / L (2)
同様に、光路長Lの設定の基準となる位置SP2では、倍率が「1.0」となる。そこで、位置SP2と分割境界位置B2との高低差を「d2」と表記すると、以下の式(3)が成り立ち、式(3)を変形した式(4)によって、倍率MYを算出することができる。
1.0:L=MY:(L+d2) …(3)
MY=(L+d2)/L …(4)Similarly, at the position SP2 serving as a reference for setting the optical path length L, the magnification is "1.0". Therefore, if the height difference between the position SP2 and the division boundary position B2 is expressed as "d2", the following equation (3) holds, and the magnification MY can be calculated by the equation (4) obtained by modifying the equation (3) it can.
1.0: L = MY: (L + d2) (3)
MY = (L + d2) / L (4)
<画像読取装置の処理>
図24は、実施例1の画像読取装置の処理の一例を示すフローチャートである。ここで、第1載置面24に対する処理と、第2載置面25に対する処理とは同一になるため、以下では、第2載置面25に対する処理について説明し、第1載置面24に対する処理の説明は省略する。<Processing of Image Reading Device>
FIG. 24 is a flowchart illustrating an example of processing of the image reading apparatus according to the first embodiment. Here, since the processing for the first mounting
図24のステップST101では、高低差検出部130が、第2載置面25に載置された見開き媒体SMの見開き面P2における鉛直方向での高低差DOE2を検出する。
In step ST101 of FIG. 24, the height
次いで、ステップST103では、高低差判定部140が、高低差DOE2が被写界深度DOF2以内であるか否かを判定する。被写界深度DOF2は、画像読取装置1のユーザの所望の解像度に応じて、被写界深度設定部150により設定される。高低差DOE2が被写界深度DOF2以内であるときは(ステップS103:Yes)、処理はステップST105へ進む。一方で、高低差DOE2が被写界深度DOF2を超えるときは(ステップS103:No)、処理はステップST111へ進む。
Next, in step ST103, the height
ステップST105では、読取回数決定部160は、高低差DOE2が被写界深度DOF2以内であるため、読取回数Kを1回(K=1)に決定し、決定した読取回数Kを画像読取制御部101へ出力する。
In step ST105, the reading
ここで、処理がステップST107へ進むときは、高低差DOE2が被写界深度DOF2以内にあるため、見開き面P2の全面が合焦領域になる。そこで、ステップST107では、画像読取制御部101は、読取ラインIL2が初期位置PSにある状態で、見開き面P2内の何れかの位置での光路長が「L」になるように第2キャリア72を移動させる。つまり、画像読取制御部101は、光路長の調節を行う。
Here, when the process proceeds to step ST107, since the height difference DOE2 is within the depth of field DOF2, the entire area of the facing surface P2 is the in-focus area. Therefore, in step ST107, the image
次いで、ステップST109では、画像読取制御部101は、光路長を「L」で一定に保ったまま、第2キャリア72を副走査方向で移動させながら第2画像読取部71に見開き面P2の画像を読み取らせる。ここでの副走査方向は、例えば、奥行き方向で奥側から手前側へ向かう方向である。そして、画像読取制御部101は、読取ラインIL2が最終位置PEに達した時点で、見開き面P2の画像の読取を終了する。
Next, in step ST109, the image
よって、高低差DOE2が被写界深度DOF2以内にあるときは、読取ラインIL2が初期位置PSから最終位置PEに達した時点、つまり、1回の副走査が終了した時点で、見開き面P2の全面にピントが合った画像が得られる。よって、第2画像読取部71は、ステップST105〜ST109のように、高低差DOE2が被写界深度DOF2以内にあるときは、見開き面P2の全面を合焦領域にした画像を1回読み取る単数読取を行う。
Therefore, when the height difference DOE2 is within the depth of field DOF2, when the reading line IL2 reaches the final position PE from the initial position PS, that is, when one sub-scan is completed, An image in which the entire surface is in focus can be obtained. Therefore, when the height difference DOE2 is within the depth of field DOF2 as in steps ST105 to ST109, the second
一方で、処理がステップST111へ進むときは、高低差DOE2が被写界深度DOF2を超えるため、見開き面P2の一部だけが合焦領域になる。そこで、ステップST111では、読取回数決定部160は、高低差DOE2に基づいて、読取回数Kを決定し、決定した読取回数Kを画像読取制御部101へ出力する。ステップST111で決定される読取回数Kは2回以上である。
On the other hand, when the process proceeds to step ST111, since the height difference DOE2 exceeds the depth of field DOF2, only a part of the spread plane P2 is in the in-focus area. Therefore, in step ST111, the reading
次いで、ステップST113では、読取回数決定部160は、ステップST111で決定した読取回数Kに基づいて、複数読取における各読取の分割境界DBを決定する。
Next, in step ST113, the reading
次いで、ステップST115では、画像読取制御部101は、カウンタkの値を初期値「0」にリセットする。
Next, in step ST115, the image
次いで、ステップST117では、画像読取制御部101は、カウンタkの値を「1」だけインクリメントする。
Next, in step ST117, the image
次いで、ステップST119では、画像読取制御部101は、見開き面P2内で、カウンタkの値に対応する一部の合焦領域内に存在するある位置での光路長が「L」になるように第2キャリア72を移動させる。つまり、画像読取制御部101は、光路長の調節を行う。
Next, in step ST119, the image
次いで、ステップST121では、画像読取制御部101は、光路長を「L」で一定に保ったまま、第2キャリア72を副走査方向で移動させながら第2画像読取部71に見開き面P2の画像を読み取らせる。
Next, in step ST121, the image
次いで、ステップST123では、画像読取制御部101は、カウンタkの値が読取回数Kに達したか否かを判定する。カウンタkの値が読取回数Kに達していない場合は(ステップST123:No)、処理はステップST117に戻る。一方で、カウンタkの値が読取回数Kに達した場合は(ステップST123:Yes)、処理はステップST125へ進む。
Next, in step ST123, the image
ステップST125では、合成部170は、複数読取によって複数回読み取られた見開き面P2の全面の画像を上記のようにして合成する。
In step ST125, the combining
以上のように、実施例1では、画像読取装置1は、高低差検出部130と、高低差判定部140と、第2画像読取部71と、合成部170とを有する。高低差検出部130は、載置面25に載置された見開き媒体SMの見開き面P2における高低差DOE2を検出する。高低差判定部140は、高低差DOE2が被写界深度DOF2以内にあるか否かを判定する。第2画像読取部71は、高低差DOE2が被写界深度DOF2以内にあるときは、見開き面P2の全面を合焦領域にした画像を1回読み取る単数読取を行う。一方で、第2画像読取部71は、高低差DOE2が被写界深度DOF2を超えるときは、見開き面P2において互いに合焦領域が異なる複数の画像を読み取る複数読取を行う。合成部170は、第2画像読取部71での複数読取により得られた複数の画像において互いの合焦領域を合成する。
As described above, in the first embodiment, the
こうすることで、見開き媒体の見開き面における高低差が被写界深度を超える場合でも、見開き面全面の画像の複数読取と、ピントが合った複数の画像の合成とにより、見開き面の全面にピントがあった鮮明な画像を取得することができる。また、見開き面における高低差が被写界深度以内にあるときは単数読取を行うため、見開き面の全面にピントがあった鮮明な画像を取得するにあたって、複数読取を行う場合に比べて、画像の読取時間を短縮することができる。 By doing this, even if the height difference in the spread surface of the spread medium exceeds the depth of field, multiple reading of the image on the entire spread surface and composition of a plurality of focused images on the entire spread surface It is possible to obtain a clear image that was in focus. In addition, since the single reading is performed when the height difference in the spread surface is within the depth of field, an image is obtained as compared to the case where multiple reading is performed to obtain a clear image in which the entire spread surface is in focus. Reading time can be shortened.
また、実施例1では、画像読取装置1は、被写界深度設定部150を有する。被写界深度設定部150は、所望の解像度に応じて被写界深度DOF2を設定する。高低差判定部140は、被写界深度設定部150により設定された被写界深度DOF2に基づいて、高低差DOE2が被写界深度DOF2以内にあるか否かを判定する。
Further, in the first embodiment, the
ここで、解像度が高いほど、高い空間周波数を再現することができる一方で、被写界深度は小さくなる。よって、所望の解像度が低ければ、被写界深度を大きくすることが可能である。よって、所望の解像度に応じて被写界深度を設定することで、所望の解像度の画像を得ることができる。 Here, the higher the resolution, the higher the spatial frequency can be reproduced, but the smaller the depth of field. Therefore, if the desired resolution is low, it is possible to increase the depth of field. Therefore, by setting the depth of field according to the desired resolution, it is possible to obtain an image of the desired resolution.
また、実施例1では、画像読取装置1は、読取回数決定部160を有する。読取回数決定部160は、複数読取における読取回数を高低差DOE2に基づいて決定する。第2画像読取部71は、読取回数決定部160により決定された読取回数に基づいて複数読取を行う。
Further, in the first embodiment, the
こうすることで、見開き面の全面にピントがあった鮮明な画像を、最低限の読取回数で取得することができる。 By doing this, it is possible to acquire a clear image in which the entire spread surface is in focus with the minimum number of readings.
また、実施例1では、第2画像読取部71は、複数読取における読取回数が2回のときは、奥行き方向の奥側から手前側への走査により1回目の読取を行い、1回目の読取の終了位置を起点として、奥行き方向の手前側から奥側への走査により2回目の読取を行う。
In the first embodiment, when the number of times of reading in the multiple reading is two, the second
こうすることで、1回目の読取と2回目の読取との間の空き時間を短縮することができるため、最低限の読取時間で、見開き面の全面の画像を2回取得することができる。 By doing this, it is possible to shorten the idle time between the first reading and the second reading, so it is possible to acquire an image of the entire surface of the spread surface twice with the minimum reading time.
また、実施例1では、第2画像読取部71は、互いに倍率が異なる複数の画像を取得する。合成部170は、取得された複数の画像を同倍率に調節する倍率調節を行い、倍率調節後の複数の画像において互いの合焦領域を合成する。
Further, in the first embodiment, the second
こうすることで、複数読取によって互いに倍率が異なる複数の画像が取得される場合でも、見開き面の全面で同一倍率となる鮮明な画像を取得することができる。 By doing this, even when a plurality of images having different magnifications are acquired by performing a plurality of readings, it is possible to acquire a clear image having the same magnification over the entire spread surface.
[実施例2]
<画像読取装置の構成>
実施例1では、第1画像読取部61及び第2画像読取部71がラインセンサである場合について説明した。これに対し、実施例2では、第1画像読取部61及び第2画像読取部71がエリアセンサである場合について説明する。すなわち、実施例2では、第1画像読取部61及び第2画像読取部71は、例えば、幅方向(X方向)に沿って直線状に配列された複数の受光素子が奥行き方向(Y方向)に2列以上配列されることにより形成される矩形のセンサである。第1画像読取部61は、読取領域S1Fを形成するエリアセンサであるため、見開き媒体SMの見開き面P1の全面の画像を1回の撮像で読み取ることができる。また、第2画像読取部71は、読取領域S2Fを形成するエリアセンサであるため、見開き媒体SMの見開き面P2の全面の画像を1回の撮像で読み取ることができる。Example 2
<Configuration of Image Reading Device>
In the first embodiment, the case where the first
また、実施例2では、第1画像読取部61がエリアセンサであるため、第1照明81の照射範囲は、水平面において矩形状であり、幅方向及び奥行き方向の双方において、読取領域S1FAよりも大きい。また、第2画像読取部71がエリアセンサであるため、第2照明82の照射範囲は、水平面において矩形状であり、幅方向及び奥行き方向の双方において、読取領域S2FAよりも大きい。
Further, in the second embodiment, since the first
また、実施例2では、第1画像読取部61及び第2画像読取部71は移動せず、第1照明81及び第2照明82は回転しない。このため、実施例2の画像読取装置1は、第1キャリア移動機構63、第1ミラー回転機構65、第1照明回転機構83、及び、第1機構制御部103を有しない。また、実施例2の画像読取装置1は、第2キャリア移動機構73、第2ミラー回転機構75、第2照明回転機構84、及び、第2機構制御部110を有しない。
In the second embodiment, the first
<画像読取装置の動作>
図25は、実施例2の画像読取装置の動作の説明に供する図である。ここで、第1載置面24に対する動作と、第2載置面25に対する動作とは同一になるため、以下では、第2載置面25に対する動作について説明し、第1載置面24に対する動作の説明は省略する。また、読取回数決定部160が、見開き面P2内で分割境界DBの高さに対応する位置B1,B2を分割境界位置として求め、求めた分割境界位置B1,B2を画像読取制御部101へ出力するまでの動作は、実施例1での動作と同様であるため、説明を省略する。また、以下では、一例として、読取回数Kが2回(K=2)に決定された場合について説明する。<Operation of Image Reading Device>
FIG. 25 is a diagram for explaining the operation of the image reading apparatus according to the second embodiment. Here, since the operation on the first mounting
画像読取制御部101は、以下のようにして、1回目の読取と2回目の読取との間で、レンズ76の焦点距離を調節することにより合焦領域を変化させる。
The image
画像読取制御部101は、1回目の読取にあたり、図25(a1)に示すように、合焦領域FA1内に存在する位置SP1(図19(a1)参照)が焦点位置FP1になるようにレンズ76の焦点距離を「L1」に調節する。よって、1回目の読取では、図25(a2)に示すように、見開き面P2内において、分割境界DB以上の高さにある位置でピントが合った画像が得られる。図25(a2)には、一例として、見開き面P2の左半分が合焦領域FA1である場合を示す。
As shown in FIG. 25 (a1), the image
一方で、画像読取制御部101は、2回目の読取にあたり、図25(b1)に示すように、合焦領域FA2内に存在する位置SP2(図19(b1)参照)が焦点位置FP2になるようにレンズ76の焦点距離を「L2」に調節する。L2>L1である。よって、2回目の読取では、図25(b2)に示すように、見開き面P2内において、分割境界DB未満の高さにある位置でピントが合った画像が得られる。図25(b2)には、一例として、見開き面P2の右半分が合焦領域FA2である場合を示す。
On the other hand, as shown in FIG. 25 (b1), the image
よって、1回目の読取で得られた画像の左半分画像と、2回目の読取で得られた右半分画像とを合成することで、見開き面P2の全面でピントがあった画像を得ることができる。 Therefore, by combining the left half image of the image obtained in the first reading and the right half image obtained in the second reading, it is possible to obtain an image in focus on the entire spread surface P2. it can.
そこで、合成部170は、図25(a2),(a3)に示すように、1回目の読取で得られた見開き面P2全面の画像から、コントラストが閾値TH以上である領域(以下では「高コントラスト領域」と呼ぶことがある)の画像を抽出する。高コントラスト領域は、ピントが合っている領域であると判断可能だからである。よって、ここでは、見開き面P2全面の画像から合焦領域FA1の画像(つまり、左半分画像)が抽出される。
Therefore, as shown in FIGS. 25 (a2) and 25 (a3), the combining
また、合成部170は、図25(b2),(b3)に示すように、2回目の読取で得られた見開き面P2全面の画像から高コントラスト領域の画像を抽出する。よって、ここでは、見開き面P2全面の画像から合焦領域FA2の画像(つまり、右半分画像)が抽出される。
Further, as shown in FIGS. 25 (b2) and 25 (b3), the combining
そして、合成部170は、図25(c)のように、左半分画像と右半分画像とを合成することで、見開き面P2の全面でピントがあった画像を得ることができる。
Then, as illustrated in FIG. 25C, the combining
以上のように、実施例2では、実施例1と同様に、第2画像読取部71は、高低差DOE2が被写界深度DOF2以内にあるときは、見開き面P2の全面を合焦領域にした画像を1回読み取る単数読取を行う。一方で、第2画像読取部71は、高低差DOE2が被写界深度DOF2を超えるときは、見開き面P2において互いに合焦領域が異なる複数の画像を読み取る複数読取を行う。合成部170は、第2画像読取部71での複数読取により得られた複数の画像において互いの合焦領域を合成する。
As described above, in the second embodiment, as in the first embodiment, when the
また、実施例2では、合成部170は、取得された複数の画像のコントラストに基づいて、複数の画像において互いの合焦領域を合成する。
Further, in the second embodiment, the combining
こうすることで、レンズの焦点距離を変えて複数の画像を取得した場合でも、見開き面の全面にピントがあった鮮明な画像を取得することができる。 In this way, even when a plurality of images are acquired by changing the focal length of the lens, it is possible to acquire a clear image in which the entire surface of the spread surface is in focus.
[実施例3]
実施例3では、見開き面P1,P2の高さの推定方法が実施例1と相違する。以下では、実施例1と相違する点について説明する。[Example 3]
The third embodiment is different from the first embodiment in the method of estimating the heights of the facing surfaces P1 and P2. The differences from the first embodiment will be described below.
<画像読取装置の構造>
図26は、実施例3の画像読取装置の概略図(斜視図)である。図26において、画像読取装置400は、実施例1の第1線状光用撮像カメラ231及び第2線状光用撮像カメラ232に代えて、カメラCA1,CA2を有する。また、画像読取装置400は、実施例1の第1線状光照射部211、第1照射部回転機構221、第2線状光照射部212、及び、第2照射部回転機構222を有しない。<Structure of Image Reading Device>
FIG. 26 is a schematic view (perspective view) of the image reading apparatus of the third embodiment. 26, the
図26に示すように、カメラCA1は第1読取ユニット6の側面に配置され、カメラCA2は第2読取ユニット7の側面に配置される。カメラCA1,CA2の各々は、載置面24,25の全面を撮影範囲とする。
As shown in FIG. 26, the camera CA1 is disposed on the side of the
<画像読取装置の動作>
図27及び図28は、実施例3の画像読取装置の動作の説明に供する図である。<Operation of Image Reading Device>
27 and 28 are diagrams for explaining the operation of the image reading apparatus of the third embodiment.
カメラCA1,CA2の各々は、載置面24,25の全面を撮影範囲とするため、見開き媒体SMの見開き面P1,P2の全面を撮影可能である。
Each of the cameras CA1 and CA2 can capture the entire surface of the facing surfaces P1 and P2 of the facing medium SM because the entire surface of the mounting
図28において、まず、高低差検出部130は、カメラCA1により撮影された画像PC1と、カメラCA2により撮影された画像PC2とを取得する。
In FIG. 28, first, the height
次いで、高低差検出部130は、画像PC1の特徴点と画像PC2の特徴点とに基づいて、対応点CPを検出する。なお、高低差検出部130は、特徴点の代わりに、明暗変化に基づいて対応点CPを検出しても良い。
Next, the height
そして、高低差検出部130は、カメラCA1と、カメラCA2と、対応点CPとの位置関係に基づいて、周知の三角測距法を利用して、対応点CPにおける見開き面P1,P2の高さを推定する。高低差検出部130は、複数の対応点CPを検出し、それら複数の対応点CPの各々において、見開き面P1,P2の高さを推定する。
The height
[実施例4]
実施例4では、見開き面P1,P2の高さの推定方法が実施例1,3と相違する。以下では、実施例1,3と相違する点について説明する。Example 4
The fourth embodiment is different from the first and third embodiments in the method of estimating the height of the facing surfaces P1 and P2. The differences from the first and third embodiments will be described below.
<画像読取装置の構造>
図29は、実施例4の画像読取装置の概略図(斜視図)である。図29において、画像読取装置500は、実施例1の第1線状光用撮像カメラ231及び第2線状光用撮像カメラ232に代えて、カメラCAを有する。また、画像読取装置500は、プロジェクタPJを有する。また、画像読取装置500は、実施例1の第1線状光照射部211、第1照射部回転機構221、第2線状光照射部212、及び、第2照射部回転機構222を有しない。<Structure of Image Reading Device>
FIG. 29 is a schematic view (perspective view) of the image reading apparatus of the fourth embodiment. In FIG. 29, the
図29に示すように、カメラCAは、アーム3の前面に配置される。また、プロジェクタPJは、アーム3の上面に配置される。カメラCAは、載置面24,25の全面を撮影範囲とする。また、プロジェクタPJの投影範囲は、載置面24,25の面積よりも大きい。
As shown in FIG. 29, the camera CA is disposed on the front of the
<画像読取装置の動作>
図30及び図31は、実施例4の画像読取装置の動作の説明に供する図である。図30には動作例1を示し、図31には動作例2を示す。<Operation of Image Reading Device>
FIGS. 30 and 31 are diagrams for explaining the operation of the image reading apparatus of the fourth embodiment. FIG. 30 shows an operation example 1 and FIG. 31 shows an operation example 2.
<動作例1:図30>
図30において、カメラCAは、載置面24,25の全面を撮影範囲とするため、見開き媒体SMの見開き面P1,P2の全面を撮影可能である。プロジェクタPJは、見開き面P1,P2の全面にメッシュ光を投影する。<Operation Example 1: FIG. 30>
In FIG. 30, since the camera CA takes the entire surface of the mounting
まず、カメラCAは、見開き面P1,P2の全面に投影されたメッシュ光を含む見開き面P1,P2全面の画像を撮影する。 First, the camera CA captures an image of the entire surface of the spread planes P1, P2 including the mesh light projected onto the entire surfaces of the spread planes P1, P2.
次いで、高低差検出部130は、カメラCAで撮影された画像の階調データに基づいて、その画像からメッシュ光を抽出する。
Next, the height
次いで、高低差検出部130は、抽出したメッシュ光をライン光に分離する。
Next, the height
そして、高低差検出部130は、分離した各ライン光に基づいて、周知の平面方程式を計算することにより、見開き面P1,P2上の各点の高さを推定する。
Then, the height
<動作例2:図31>
図31において、カメラCAは、載置面24,25の全面を撮影範囲とするため、見開き媒体SMの見開き面P1,P2の全面を撮影可能である。プロジェクタPJは、見開き面P1,P2の全面に縞パターンを投影する。<Operation Example 2: FIG. 31>
In FIG. 31, since the camera CA takes the entire surface of the mounting
まず、カメラCAは、見開き面P1,P2の全面に投影された縞パターンを撮影する。 First, the camera CA captures a stripe pattern projected on the entire surfaces of the facing surfaces P1 and P2.
次いで、高低差検出部130は、撮影された縞パターンの各ピクセルの位相を計算する。
Next, the height
そして、高低差検出部130は、計算した位相に基づいて、見開き面P1,P2上の各点の高さを推定する。
Then, the height
[他の実施例]
[1]実施例1では、合焦領域FA1を分割境界DBから鉛直方向上方へ被写界深度DOF2までの領域とし、合焦領域FA2を分割境界DBから鉛直方向下方へ被写界深度DOF2までの領域とした。[Other embodiments]
[1] In the first embodiment, the in-focus area FA1 is an area from the division boundary DB upward to the depth of field DOF2, and the in-focus area FA2 from the division boundary DB to the depth of field DOF2 in the vertical direction Region.
しかし、合焦領域の起点を分割境界DBではなくて、「分割境界DB±α」としても良い。つまり、合焦領域FA1を「分割境界DB−α」から鉛直方向上方へ被写界深度DOF2までの領域とし、合焦領域FA2を「分割境界DB+α」から鉛直方向下方へ被写界深度DOF2までの領域としても良い。こうすることで、合焦領域FA1の一部と合焦領域FA2の一部とが互いに重なる領域である重複領域FA0が形成される。合成部170は、図19において、倍率調節後の右半分画像に含まれる重複領域FA0の画像と、倍率調節後の左半分画像に含まれる重複領域FA0の画像とを重ねるようにして、右半分画像と左半分画像とを合成すると良い。
However, the starting point of the in-focus area may be “division boundary DB ± α” instead of the division boundary DB. That is, the in-focus area FA1 is an area from the “division boundary DB-α” to the upper side in the vertical direction to the depth of field DOF2, and the in-focus area FA2 from the “division boundary DB + α” to the depth of field DOF2 in the vertical direction It is good as the area of By doing this, an overlapping area FA0 is formed in which a part of the focusing area FA1 and a part of the focusing area FA2 overlap with each other. The combining
また、合焦領域の起点を「分割境界DB±α」とする場合には、読取回数決定部160は、「DOF1×M≧DOE1+α(Mは2以上の整数)」の条件を満たす最小のMを第1読取ユニット6での複数読取における読取回数に決定し、「DOF2×K≧DOE2+α(Kは2以上の整数)」の条件を満たす最小のKを第2読取ユニット7での複数読取における読取回数に決定すると良い。
When the start point of the in-focus area is set as “division boundary DB ± α”, the reading
[2]実施例2においても、合焦領域の起点を分割境界DBではなくて、「分割境界DB±α」としても良い。実施例2において、合焦領域の起点を「分割境界DB±α」とする場合には、合成部170は、図25において、左半分画像に含まれる重複領域FA0の画像と、右半分画像に含まれる重複領域FA0の画像とを重ねるようにして、高コントラスト領域の画像同士を合成すると良い。
[2] Also in the second embodiment, the starting point of the in-focus area may be “division boundary DB ± α” instead of the division boundary DB. In the second embodiment, in the case where the start point of the in-focus area is “division boundary DB ± α”, the combining
[3]読取回数決定部160が決定する読取回数に上限値を設けても良い。読取回数決定部160は、決定した読取回数が上限値を超えるときは、例えば、通信部107を介して外部機器300にエラーを通知しても良い。
[3] The upper limit may be set to the number of readings determined by the number of
[4]制御ユニット10での上記説明における各処理は、各処理に対応するプログラムを画像読取装置1,400,500が有するプロセッサに実行させることによって実現しても良い。例えば、上記説明における各処理に対応するプログラムが画像読取装置1,400,500が有するメモリに記憶され、各プログラムがプロセッサによってメモリから読み出されて実行されても良い。また、各プログラムは、必ずしも予めメモリに記憶されていなくても良い。すなわち、例えば、画像読取装置1,400,500に接続可能な磁気ディスク、光ディスク、ICカード、メモリカード等の可搬の記録媒体に各プログラムが予め記録され、各プログラムが画像読取装置1,400,500が有するプロセッサにより記録媒体から読み出されて実行されても良い。また例えば、インターネット、LAN、無線LAN等を介して無線または有線により画像読取装置1,400,500に接続されるコンピュータまたはサーバ等に各プログラムが記憶され、各プログラムが画像読取装置1,400,500が有するプロセッサへ読み出されて実行されても良い。
[4] Each process in the above description of the
1,400,500 画像読取装置
10 制御ユニット
101 画像読取制御部
130 高低差検出部
140 高低差判定部
150 被写界深度設定部
160 読取回数決定部
170 合成部1,400,500
101 image reading
Claims (8)
前記高低差が所定の被写界深度以内にあるか否かを判定する判定部と、
前記判定部での判定結果に基づいて、前記高低差が前記所定の被写界深度以内にあるときは、前記見開き面の全面を合焦領域にした画像を1回読み取る単数読取を行う一方で、前記高低差が前記所定の被写界深度を超えるときは、前記見開き面において互いに合焦領域が異なる複数の画像であって、各々が前記見開き面の全面の画像である前記複数の画像を読み取る複数読取を行う読取部と、
前記複数読取により得られた前記複数の画像の各々の一部である複数の前記合焦領域を合成する合成部と、
を具備する画像読取装置。 A detection unit that detects a height difference in the spread surface of the binding medium placed on the placement surface;
A determination unit that determines whether the height difference is within a predetermined depth of field;
When the height difference is within the predetermined depth of field based on the determination result of the determination unit, a single reading is performed to read an image in which the entire area of the spread surface is in the in-focus area. And when the height difference exceeds the predetermined depth of field, the plurality of images having different in-focus areas in the spread plane, the plurality of images each being an image of the entire spread plane Reading unit for performing multiple readings,
A combining unit that combines a plurality of in- focus areas that are a part of each of the plurality of images obtained by the plurality of readings;
An image reading apparatus comprising:
前記判定部は、前記設定部により設定された前記所定の被写界深度に基づいて、前記高低差が前記所定の被写界深度以内にあるか否かを判定する、
請求項1に記載の画像読取装置。 And a setting unit configured to set the predetermined depth of field in accordance with a desired resolution.
The determination unit determines whether the height difference is within the predetermined depth of field based on the predetermined depth of field set by the setting unit.
The image reading apparatus according to claim 1.
前記読取部は、前記決定部により決定された前記読取回数に基づいて、前記複数読取を行う、
請求項1または2に記載の画像読取装置。 The information processing apparatus further comprises a determination unit that determines the number of readings in the plurality of readings based on the height difference,
The reading unit performs the plurality of readings based on the number of readings determined by the determining unit.
The image reading apparatus according to claim 1.
請求項1から3の何れか一つに記載の画像読取装置。 When the number of times of reading in the multiple reading is two, the reading unit performs a first reading by scanning in a first direction, and the first direction starts from an end position of the first reading. Make a second reading by scanning in the second direction opposite to
The image reading apparatus according to any one of claims 1 to 3.
前記合成部は、前記複数の画像を同倍率に調節する倍率調節を行い、前記倍率調節後の前記複数の画像において互いの前記合焦領域を合成する、
請求項1から4の何れか一つに記載の画像読取装置。 The reading unit obtains the plurality of images different in magnification from one another.
The combining unit performs magnification adjustment to adjust the plurality of images to the same magnification, and combines the focusing regions with each other in the plurality of images after the magnification adjustment.
The image reading apparatus according to any one of claims 1 to 4.
請求項1から4の何れか一つに記載の画像読取装置。 The combining unit combines the in-focus areas with each other in the plurality of images based on the contrast of the plurality of images.
The image reading apparatus according to any one of claims 1 to 4.
前記高低差が所定の被写界深度以内にあるか否かを判定し、
前記判定の結果に基づいて、前記高低差が前記所定の被写界深度以内にあるときは、前記見開き面の全面を合焦領域にした画像を1回読み取る単数読取を行う一方で、前記高低差が前記所定の被写界深度を超えるときは、前記見開き面において互いに合焦領域が異なる複数の画像であって、各々が前記見開き面の全面の画像である前記複数の画像を読み取る複数読取を行い、
前記複数読取により得られた前記複数の画像の各々の一部である複数の前記合焦領域を合成する、
画像読取方法。 Detecting the height difference in the spread surface of the binding medium placed on the placement surface;
Determining whether the height difference is within a predetermined depth of field;
When the height difference is within the predetermined depth of field based on the result of the determination, the single reading is performed while reading the image with the entire area of the spread surface as the in-focus area while the height is low. When the difference exceeds the predetermined depth of field , a plurality of readings are performed to read a plurality of images in which focusing regions are different from each other on the spread surface , each being an image of the entire surface of the spread surface Do,
Combining the plurality of in-focus areas that are a part of each of the plurality of images obtained by the plurality of readings;
Image reading method.
前記判定の結果に基づいて、前記高低差が前記所定の被写界深度以内にあるときは、前記見開き面の全面を合焦領域にした画像を1回読み取る単数読取を読取部に行わせる一方で、前記高低差が前記所定の被写界深度を超えるときは、前記見開き面において互いに合焦領域が異なる複数の画像であって、各々が前記見開き面の全面の画像である前記複数の画像を読み取る複数読取を前記読取部に行わせ、
前記複数読取により得られた前記複数の画像の各々の一部である複数の前記合焦領域を合成する、
処理をプロセッサに実行させるための画像読取プログラム。 It is determined whether or not the height difference in the spread surface of the binding medium placed on the placement surface is within a predetermined depth of field,
Based on the result of the determination, when the height difference is within the predetermined depth of field, the reading unit is caused to perform a single reading of an image in which the entire area of the spread surface is the in-focus area. In the case where the height difference exceeds the predetermined depth of field, the plurality of images having different in-focus areas in the spread surface, and each of which is an image of the entire surface of the spread surface Make the reading unit perform multiple readings,
Combining the plurality of in-focus areas that are a part of each of the plurality of images obtained by the plurality of readings;
An image reading program for causing a processor to execute a process.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2015/079344 WO2017064812A1 (en) | 2015-10-16 | 2015-10-16 | Image reading device, image reading method and image reading program |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2017064812A1 JPWO2017064812A1 (en) | 2018-02-15 |
JP6535099B2 true JP6535099B2 (en) | 2019-06-26 |
Family
ID=58517140
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017545071A Active JP6535099B2 (en) | 2015-10-16 | 2015-10-16 | Image reading apparatus, image reading method and image reading program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6535099B2 (en) |
WO (1) | WO2017064812A1 (en) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10178521A (en) * | 1996-12-18 | 1998-06-30 | Minolta Co Ltd | Image reader |
JP2003018369A (en) * | 2001-06-29 | 2003-01-17 | Nikon Corp | Camera for paintings and calligraphy |
JP2003101733A (en) * | 2001-09-20 | 2003-04-04 | Ricoh Co Ltd | Image-reading apparatus |
JP2011197163A (en) * | 2010-03-18 | 2011-10-06 | Tamron Co Ltd | Optical element driving device and imaging apparatus |
JP5768504B2 (en) * | 2011-05-31 | 2015-08-26 | ブラザー工業株式会社 | Copy machine |
JP5800611B2 (en) * | 2011-07-07 | 2015-10-28 | オリンパス株式会社 | Imaging device |
-
2015
- 2015-10-16 JP JP2017545071A patent/JP6535099B2/en active Active
- 2015-10-16 WO PCT/JP2015/079344 patent/WO2017064812A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
JPWO2017064812A1 (en) | 2018-02-15 |
WO2017064812A1 (en) | 2017-04-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5395507B2 (en) | Three-dimensional shape measuring apparatus, three-dimensional shape measuring method, and computer program | |
EP3468163B1 (en) | Intelligent internet high-definition scanner with laser correction | |
JP2009031150A (en) | Three-dimensional shape measuring device, three-dimensional shape measurement method, three-dimensional shape measurement program, and record medium | |
JP5799863B2 (en) | Image processing apparatus, image processing method, and program | |
JP2002325199A (en) | Electronic imaging device | |
US20230199324A1 (en) | Projection unit and photographing apparatus comprising same projection unit, processor, and imaging device | |
JP2013124941A (en) | Distance measuring apparatus and distance measuring method | |
JP2010256530A (en) | Microscope device | |
JP3507865B2 (en) | Method and apparatus for real-time shape measurement by CCD camera using DMD | |
JP5799473B2 (en) | Image capturing apparatus and image capturing method | |
CN115390087A (en) | Laser line scanning three-dimensional imaging system and method | |
JP2013083925A (en) | Imaging apparatus and control method therefor | |
JP6535099B2 (en) | Image reading apparatus, image reading method and image reading program | |
JP2017037017A (en) | Distance measurement device and distance measurement method | |
JP2008287648A (en) | Mobile body detection method and device, and monitoring device | |
CN113366821B (en) | Device with multi-aperture imaging device for generating depth maps | |
JP6618819B2 (en) | 3D shape measuring device | |
CN113330730B (en) | Device comprising a multi-aperture imaging device for accumulating image information of a first full field of view and a second full field of view | |
KR20230036950A (en) | Apparatus for measuring three-dimensional shape of target object which acquires multiple information of image through a single scan | |
JP6328317B2 (en) | Object height estimation apparatus and image reading apparatus | |
JP6306494B2 (en) | Shape estimation device, shape estimation method, and shape estimation program | |
JP2020067511A (en) | Camera system, control method and program of the same | |
JP2005216191A (en) | Stereo image processing apparatus and method | |
JP2019186631A (en) | Imaging apparatus and imaging method | |
JP6459745B2 (en) | Self-position calculation device and self-position calculation method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171020 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181127 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190125 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190521 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190530 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6535099 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |