JP2000136913A - Image reader - Google Patents

Image reader

Info

Publication number
JP2000136913A
JP2000136913A JP10312422A JP31242298A JP2000136913A JP 2000136913 A JP2000136913 A JP 2000136913A JP 10312422 A JP10312422 A JP 10312422A JP 31242298 A JP31242298 A JP 31242298A JP 2000136913 A JP2000136913 A JP 2000136913A
Authority
JP
Japan
Prior art keywords
imaging
image
unit
subject
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP10312422A
Other languages
Japanese (ja)
Inventor
Shinya Matsuda
伸也 松田
Kimiharu Akaboshi
公治 赤星
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP10312422A priority Critical patent/JP2000136913A/en
Publication of JP2000136913A publication Critical patent/JP2000136913A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To obtain an image reader which can detect the three-dimensional shape of an original with a simple constitution by installing a drive part which makes the imaging direction of an imaging part variable, picking up a plurality of images in different imaging directions and detecting the three-dimensional shape of a part in which imaging parts are overlapped. SOLUTION: In this image reader 1, a lens 4 image-forms the optical image of an subject on an imaging sensor 3 in which CCD elements are arranged in a matrix shape. A drive part 6 turns a rotor 5, and it scans (makes variable) a line-of-sight direction (an imaging direction) via the lens 4 from the imaging sensor 3. A control part 7 images at least two images in different line-of-sight directions, and it detects the three-dimensional shape of the original in a part in which imaging ranges are overlapped. Thereby, a depth detecting effect which is the same as a multieye view is obtained in a signal image pickup part 10, and an apparatus does not become large-scaled as a single image pickup apparatus. In addition, a shutter button 8 which instructs for photographing start and a display part such as a liquid crystal panel or the like which displays a photographed image are provided at the image reader 1.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、例えば湾曲した原
稿や立体物などの3次元形状を検出可能な画像読取装置
に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image reading apparatus capable of detecting a three-dimensional shape such as a curved document or a three-dimensional object.

【0002】[0002]

【従来の技術】従来の3次元形状の検出分野では、以下
のような技術が知られている。即ち、光切断法は、被写
体の上方から、被写体面に向けてライン状の光線を照射
すると共に、このライン方向と直交する方向に移動させ
つつ順次その反射光を受光することで、その被写体表面
の形状を検出するものである。
2. Description of the Related Art In the field of conventional three-dimensional shape detection, the following techniques are known. That is, the light-section method irradiates a linear light beam from above the subject toward the subject surface, and sequentially receives the reflected light while moving in a direction orthogonal to the line direction, thereby obtaining the subject surface. Is to detect the shape of.

【0003】また、ブックスキャナーなどに適応される
側面撮影法は、被写体の側面にミラーを配置して、その
ミラーを介して撮像される被写体の側面画像も利用して
被写体の立体形状を検出するものである。
Further, according to a side photographing method applied to a book scanner or the like, a mirror is arranged on a side surface of a subject, and a three-dimensional shape of the subject is detected by using a side image of the subject imaged through the mirror. Things.

【0004】さらに、多眼視による方法は、被写体を複
数の視点から撮影し、各視点からの視線の視差から立体
形状の奥行きを検出するものである。
Further, the multi-view method involves photographing a subject from a plurality of viewpoints and detecting the depth of a three-dimensional shape from the parallax of the line of sight from each viewpoint.

【0005】[0005]

【発明が解決しようとする課題】ところが、上記従来の
光切断法では、ライン状の光線を、被写体全体に亘って
撮像部を移動させる機構が必要となることから装置が大
掛かりとなり、その構成にコストがかかると共に大きな
スペースが必要であった。また、ライン光線を走査する
度に撮影を繰り返す必要があって時間がかかり、さら
に、人の髪の毛など被写体の反射率が低いと、その反射
光線の受光検出が困難となるという問題を有していた。
However, in the above-mentioned conventional light-section method, a mechanism for moving an image pickup section over a whole object by a linear light beam is required, so that the apparatus becomes large-scale. It was costly and required large space. In addition, it is necessary to repeat photographing every time a line light beam is scanned, which takes time, and furthermore, if the reflectance of a subject such as human hair is low, it is difficult to detect the light reception of the reflected light beam. Was.

【0006】また、上記側面撮影法では、被写体を所定
の決められた位置に設置する必要があるなど撮影条件が
限定されており、また、被写体の奥行き寸法と略同じ高
さ寸法のミラーを必要とするため装置が大型化し、さら
には、ミラーを介して側面画像は得られるものの、内部
構造など複雑な形状部分は検出できないという問題を有
していた。
Further, in the above-described side photographing method, photographing conditions are limited such that the subject must be set at a predetermined position, and a mirror having a height substantially equal to the depth of the subject is required. Therefore, there is a problem in that the apparatus becomes large and a side image can be obtained through a mirror, but a complicated shape portion such as an internal structure cannot be detected.

【0007】さらに、上記多眼視では、撮像部が複数必
要でその分だけコストおよびスペースが必要で装置が大
掛かりになるという問題を有していた。
In addition, the above-mentioned multiview has a problem that a plurality of image pickup units are required, cost and space are required correspondingly, and the apparatus becomes large.

【0008】本発明は、上記従来の問題を解決するもの
で、簡単な構成で被写体の立体形状を検出することがで
きる画像読取装置を提供することを目的とする。
An object of the present invention is to solve the above-mentioned conventional problem and to provide an image reading apparatus capable of detecting a three-dimensional shape of a subject with a simple configuration.

【0009】[0009]

【課題を解決するための手段】本発明の画像読取装置
は、被写体を撮像可能な撮像センサおよび、この撮像セ
ンサに被写体の光学像を結像させるレンズとからなる撮
像部を備えた画像読取装置において、撮像部の撮像方向
を可変する駆動部と、異なる撮像方向の少なくとも2枚
の画像を撮像して撮像部による撮影範囲の重なり部分の
被写体の3次元形状を検出する制御部とを有したことを
特徴とするものである。
According to the present invention, there is provided an image reading apparatus comprising: an image pickup sensor capable of picking up an image of a subject; and an image pickup section comprising a lens for forming an optical image of the subject on the image pickup sensor. , A driving unit that changes an imaging direction of the imaging unit, and a control unit that captures at least two images in different imaging directions and detects a three-dimensional shape of a subject in an overlapping part of an imaging range of the imaging unit. It is characterized by the following.

【0010】この構成により、単一の撮像部の撮像方向
を駆動部で可変させて異なる撮像方向で被写体の立体形
状を撮影するので、単一の撮像部で多眼視と同様の奥行
き検出効果を得ると共に、単一の撮像装置で装置が大掛
かりにならない。したがって、単一の撮像装置で被写体
の立体形状が容易に検出され、かつ立体視のための構成
に装置のコストおよびスペースが大幅に削減可能であ
る。また、本発明では、従来の光切断法のように、被写
体に照射したライン光線毎の反射光を受光していないの
で、上述したように髪の毛など被写体の反射率が低い場
合にも問題になることもなく撮影時間もかからない。ま
た、本発明では、従来の側面撮影法のようにミラーを介
して側面画像を得ていないので、正面から立体視可能な
内部形状部分は正確に検出可能である。
With this configuration, the imaging direction of the single imaging unit is changed by the driving unit, and the three-dimensional shape of the subject is photographed in different imaging directions. And a single imaging device does not require a large-scale device. Therefore, the three-dimensional shape of the subject can be easily detected with a single imaging device, and the cost and space of the device can be significantly reduced to a configuration for stereoscopic vision. Further, according to the present invention, unlike the conventional light sectioning method, since the reflected light for each line beam irradiated on the subject is not received, a problem arises even when the reflectance of the subject such as hair is low as described above. It takes no time to shoot. Further, according to the present invention, since a side image is not obtained via a mirror unlike the conventional side photographing method, an internal shape portion that can be stereoscopically viewed from the front can be accurately detected.

【0011】また、好ましくは、本発明の画像読取装置
における駆動部は、撮像部を回動させる撮像部回動手段
から構成されている。
Preferably, the driving section in the image reading apparatus according to the present invention comprises an image pickup section turning means for turning the image pickup section.

【0012】この構成により、撮像部を撮像部回動手段
で回動させて撮像部の撮像方向を可変するので、撮像部
が移動するのに必要なスペースを必要とせず小型化可能
であると共に、回動駆動であるので撮像部の撮像方向が
容易に大きく変更可能で、より迅速で容易に、異なる撮
像方向の少なくとも2枚の画像を得ることが可能であ
る。
With this configuration, the imaging unit is rotated by the imaging unit rotating means to change the imaging direction of the imaging unit, so that the imaging unit does not require a space required for movement and can be downsized. Since the rotation is driven, the imaging direction of the imaging unit can be easily changed largely, and at least two images in different imaging directions can be obtained more quickly and easily.

【0013】さらに、好ましくは、本発明の画像読取装
置における制御部は、撮像部からの少なくとも2枚の画
像データの一つから特徴点を抽出する特徴点抽出手段
と、特徴点の周辺小領域の画像データと他の画像データ
との相関をとる相関演算手段と、特徴点および、この特
徴点と相関のある相関点に基づいて、被写体までの距離
を演算する距離演算手段とを有している。
Preferably, the control unit in the image reading apparatus according to the present invention further includes a feature point extracting means for extracting a feature point from one of at least two pieces of image data from the imaging unit, and a small area around the feature point. And a distance calculating means for calculating the distance to the subject based on the characteristic points and the correlation points correlated with the characteristic points. I have.

【0014】この構成により、2枚の画像データの一方
から抽出した特徴点と、この特徴点と相関のある、他方
の画像データから抽出した相関点とに基づいて、被写体
までの距離を演算するようにしたので、異なる撮像方向
の少なくとも2枚の画像から被写体の3次元形状が容易
かつ正確に検出され得る。
With this configuration, the distance to the subject is calculated based on a feature point extracted from one of the two pieces of image data and a correlation point correlated with the feature point and extracted from the other image data. With this configuration, the three-dimensional shape of the subject can be easily and accurately detected from at least two images in different imaging directions.

【0015】さらに、好ましくは、本発明の画像読取装
置における制御部は、特徴点および相関点に対する被写
体までの距離データに基づいて、撮影画像データを平面
座標データに座標変換する座標変換手段を有している。
Further, preferably, the control unit in the image reading apparatus of the present invention has a coordinate conversion means for performing coordinate conversion of the photographed image data into plane coordinate data based on distance data of the feature point and the correlation point to the subject. are doing.

【0016】この構成により、撮影画像が例えば湾曲し
たり傾いたりしていても、その撮影画像データを座標変
換手段で平面座標に座標変換するので、単一の撮像部で
大掛かりにならず被写体の立体形状を歪むことなく正確
に検出することが可能となる。
With this configuration, even if the photographed image is curved or inclined, for example, the photographed image data is subjected to coordinate transformation into plane coordinates by the coordinate transformation means. It is possible to accurately detect a three-dimensional shape without distortion.

【0017】[0017]

【発明の実施の形態】以下、本発明に係る画像読取装置
の実施形態について図面を参照して説明するが、本発明
は以下に示す実施形態に限定されるものではない。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of an image reading apparatus according to the present invention will be described with reference to the drawings, but the present invention is not limited to the embodiments described below.

【0018】図1は本発明の一実施形態の画像読取装置
における要部透視構成を模式的に示す斜視図であり、図
2は図1に示す要部を模式的に示す平面図である。図1
および図2において、デジタルカメラなどの画像読取装
置1は、装置本体2内に設けられ被写体の光学像を撮像
して電気信号に変換するCCD素子(電荷転送素子)が
マトリクス状に配列された撮像センサ3と、装置本体2
の正面外郭部に設けられ撮像センサ3に被写体の光学像
を結像させるレンズ4と、これらの撮像センサ3および
レンズ4を一体的に保持すると共に回転自在なロータ5
と、装置本体2内に設けられロータ5を回動(本実施形
態では左右方向)させて撮像センサ3からレンズ4を介
した視線方向(撮象方向)Vを走査(可変)させる駆動
部6と、異なる視線方向の少なくとも2枚の画像を撮像
して、この駆動部6により走査された撮像センサ3およ
びレンズ4による撮影範囲の重なり部分における被写体
の立体形状(3次元形状)を検出する制御部7とを有し
ている。
FIG. 1 is a perspective view schematically showing a main part see-through configuration of an image reading apparatus according to an embodiment of the present invention, and FIG. 2 is a plan view schematically showing a main part shown in FIG. FIG.
In FIG. 2 and FIG. 2, an image reading apparatus 1 such as a digital camera has an image pickup apparatus in which a CCD element (charge transfer element) provided in the apparatus main body 2 for taking an optical image of a subject and converting the image into an electric signal is arranged in a matrix. Sensor 3 and device body 2
A lens 4 which is provided at an outer peripheral portion of the front surface and forms an optical image of a subject on an image sensor 3, and a rotor 5 which holds the image sensor 3 and the lens 4 integrally and is rotatable.
And a drive unit 6 provided in the apparatus main body 2 to rotate (rotate in the left-right direction in this embodiment) the rotor 5 to scan (variable) the line-of-sight direction (imaging direction) V from the imaging sensor 3 via the lens 4. Control for capturing at least two images in different line-of-sight directions and detecting the three-dimensional shape (three-dimensional shape) of the subject in the overlapping portion of the imaging range scanned by the imaging sensor 3 and the lens 4 scanned by the driving unit 6. Part 7.

【0019】また、画像読取装置1は、装置本体2の上
部に配設され撮影開始を指示するシャッターボタン8
と、装置本体2の背面側に配設され撮影画像を表示する
液晶パネルなどの表示部9とを有している。
The image reading apparatus 1 has a shutter button 8 arranged on the upper part of the apparatus main body 2 and instructing start of photographing.
And a display unit 9 such as a liquid crystal panel disposed on the back side of the apparatus main body 2 to display a captured image.

【0020】このロータ5に撮像センサ3およびレンズ
4が一体的に配設されて撮像部10が構成されており、
レンズ4の光軸C上でそのレンズ4の主点11を除いた
位置であるロータ5の中心点12を回動中心として回動
自在に、例えば対向する球凹面を有する支持部材(図示
せず)などで支持されている。
An image pickup unit 10 is constituted by integrally disposing the image pickup sensor 3 and the lens 4 on the rotor 5.
A support member (not shown) having, for example, an opposing spherical concave surface so as to be rotatable about a center point 12 of the rotor 5 on the optical axis C of the lens 4 excluding the principal point 11 of the lens 4. ) Etc. are supported.

【0021】駆動部6は撮像部回動手段で構成されてお
り、図3に示すように、各先端側が交叉、例えば直角を
成すように各基端側がベース13にそれぞれ固定された
2本の圧電素子14,15と、圧電素子14,15の先
端部に取り付けられ圧電素子14,15の伸縮によりロ
ータ5を摩擦力で回動させるチップ部材16と、ベース
13の背面側に設けられチップ部材16をロータ5側に
付勢して押圧するばね部材17とを有している。このば
ね部材17は、圧縮ばねや、ゴム体などの弾性部材で構
成することができる。
The drive section 6 is constituted by an image pickup section rotating means, and as shown in FIG. 3, two distal ends are fixed to the base 13 so that their distal ends cross each other, for example, form a right angle. Piezoelectric elements 14 and 15, a tip member 16 attached to the tip of piezoelectric elements 14 and 15 to rotate rotor 5 by frictional force due to expansion and contraction of piezoelectric elements 14 and 15, and a tip member provided on the back side of base 13 And a spring member 17 for urging the member 16 toward the rotor 5 to press it. The spring member 17 can be configured by an elastic member such as a compression spring or a rubber body.

【0022】また、この圧電素子14,15は、電圧が
印加されるとそのレベルに比例した伸縮方向の変位量を
示す性質を持っている。これを利用して、図4に示すよ
うな位相をずらした正弦波電圧信号ea,ebを制御部
7から出力し、2本の圧電素子14,15の伸縮を交互
に行わせ、両者の合成変位量として、チップ部材16が
楕円運動Xを行うようにする。この楕円運動Xを行うチ
ップ部材16をロータ5の表面にばね部材17による所
要の付勢力で押し付けて置くことによって、チップ部材
16の楕円運動Xが摩擦力によりロータ5側に伝達され
ロータ5に週方向、即ち回動運動Yを行わせることがで
きるようになっている。信号位相を逆にすると逆方向に
移動する。この結果、撮像部10を異なる視線方向Vに
走査することができる。
The piezoelectric elements 14 and 15 have a property that when a voltage is applied, the amount of displacement in the expansion and contraction direction is proportional to the level of the voltage. Utilizing this, sine wave voltage signals ea and eb whose phases are shifted as shown in FIG. 4 are output from the control unit 7, and the two piezoelectric elements 14 and 15 are alternately expanded and contracted to combine the two. The tip member 16 performs the elliptical motion X as the displacement amount. The tip member 16 performing the elliptical motion X is pressed against the surface of the rotor 5 with a required urging force of the spring member 17 so that the elliptical motion X of the tip member 16 is transmitted to the rotor 5 by frictional force and is transmitted to the rotor 5. The weekly direction, that is, the rotation movement Y can be performed. If the signal phase is reversed, it moves in the opposite direction. As a result, the imaging unit 10 can scan in different viewing directions V.

【0023】ここで、被写体までの距離演算処理につい
て説明する。まず、撮影光路について説明する。視線方
向を左右に走査して2回の撮影を行ったときの光路を図
6に示しており、図6では、鉛直方向から時計回り方向
に走査した位置の撮影項目に添字a1またはb1を、ま
た、鉛直方向から反時計回り方向に走査した位置の撮影
項目に添字a2またはb2を付して示している。
Here, the processing for calculating the distance to the subject will be described. First, the photographing optical path will be described. FIG. 6 shows the optical path when the photographing is performed twice by scanning the line of sight right and left. In FIG. 6, the subscript a 1 or b 1 is added to the photographing item at the position scanned in the clockwise direction from the vertical direction. and also denoted by the subscript a 2 or b 2 in captured items of positions scanned in the counterclockwise direction from the vertical direction.

【0024】図5において、駆動部6による撮像部10
の回動走査により、各撮影光路は中心点12を回動中心
として走査されて撮像センサ3はそのセンサ位置3a1
からセンサ位置3a2に移動して視線方向Vも視線方向
Va1から視線方向Va2に変更され、撮像センサ3から
レンズ4を介した撮影範囲も撮影範囲Ea1から撮影範
囲Ea2に変更されるようになっている。このとき、レ
ンズ位置4a1の主点11a1もレンズ位置4a2の主点
11a2に移動している。このような左右の撮影範囲E
1,Ea2の重なり部分に存在する被写体18は、左右
双方の撮像部10a1,10a2で撮影されるが、レンズ
位置4a1,4a2や、撮像センサ3のセンサ位置3
1,3a2が異なっていることからそれぞれの撮影角度
が異なるため、視差を持った状態で撮像されている。例
えば被写体18上の左方の点Aを撮像している光路は、
レンズ位置4a1を介して撮像センサ3のセンサ位置3
1の中心部付近の結像位置Pa1に結像しているが、レ
ンズ位置4a2を介して撮像センサ3のセンサ位置3a2
の右端部の結像位置P2に結像している。また、例えば
被写体18上の右方の点Bを撮像している光路について
も点Aの場合と同様に、結像位置Pb1,Pb2にそれぞ
れ結像している。
In FIG. 5, the image pickup unit 10 by the drive unit 6
, Each imaging optical path is scanned about the center point 12 as the center of rotation, and the image sensor 3 moves to the sensor position 3a 1.
Go to the sensor position 3a 2 also viewing direction V is changed from the line-of-sight direction Va 1 the viewing direction Va 2 from the shooting range through the lens 4 from the image sensor 3 is also changed from the shooting range Ea 1 to the imaging range Ea 2 It has become so. In this case, the main point 11a 1 of the lens position 4a 1 is also moving in the main point 11a 2 of the lens position 4a 2. Such left and right shooting ranges E
The subject 18 existing in the overlapping portion of a 1 and Ea 2 is photographed by the left and right imaging units 10 a 1 and 10 a 2 , but the lens positions 4 a 1 and 4 a 2 and the sensor position 3 of the imaging sensor 3 are set.
Since a 1 and 3a 2 are different from each other, the respective photographing angles are different, so that the image is captured with parallax. For example, an optical path imaging the left point A on the subject 18 is as follows:
Sensor position of the image sensor 3 through the lens position 4a 1 3
Although it imaged at an imaging position Pa 1 near the center of a 1, the sensor position of the image sensor 3 through the lens position 4a 2 3a 2
It is imaged in an imaging position P 2 of the right end. Also, for example, an optical path for imaging the right point B on the subject 18 is also formed at the image forming positions Pb 1 and Pb 2 , similarly to the case of the point A.

【0025】次に、距離情報の演算について説明する。
まず、図6で被写体18上の左方の点Aを撮像している
光路についてその詳細を図7および図8に示している。
まず、図7において、左右のレンズ位置4a1,4a2
主点11a1,11a2の間隔が視差を発生させる基線長
sとなっており、この基線長sの線分の両端と点Aを結
ぶことにより形成される三角形D(エプポーラ面)を求
めることにより、被写体18の点Aまでの距離を求める
ことができる。
Next, the calculation of the distance information will be described.
First, FIG. 7 and FIG. 8 show details of an optical path for imaging the left point A on the subject 18 in FIG.
First, in FIG. 7, the interval between the principal points 11a 1 and 11a 2 of the left and right lens positions 4a 1 and 4a 2 is the base length s for generating parallax. The distance to the point A of the subject 18 can be obtained by obtaining the triangle D (eppolar surface) formed by connecting.

【0026】次に、図8において、撮像部10の走査角
度を2θ(垂線Hと各視線Va1,Va2とのなす角度
θ)、レンズ主点11a1,11a2からセンサ位置3a
1,3a2の中心位置(中心光軸C)までの距離をb、レ
ンズ主点11a1,11a2から回動中心12までの距離
をh、センサ位置3a1,3a2上での点Aの結像位置P
1,Pa2から中心光軸Cまでの距離をd1,d2とし
て撮像系の設計定数を定める。また、左右2枚の撮影に
おける点Aの撮影光路と中心光軸Cとのなす撮影角度φ
1,φ2はそれぞれ、次の(数1)式で表される。
Next, in FIG. 8, the scanning angle of the image pickup unit 10 is 2θ (the angle θ between the perpendicular H and each of the lines of sight Va 1 , Va 2 ), and the sensor position 3a is determined from the lens principal points 11a 1 , 11a 2.
1, 3a the distance to the center position of the two (central optical axis C) b, the lens principal point 11a 1, the distance from 11a 2 to the rotation center 12 h, sensor position 3a 1, 3a 2 points on A Imaging position P
The design constants of the imaging system are determined by defining the distances from a 1 and Pa 2 to the central optical axis C as d 1 and d 2. In addition, a photographing angle φ between the photographing optical path of the point A and the central optical axis C in photographing two left and right images.
1 and φ2 are respectively expressed by the following (Equation 1).

【0027】[0027]

【数1】 (Equation 1)

【0028】また、左右のレンズ位置4a1,4a2の主
点11a1,11a2の間隔である基線長sは、次の(数
2)式で表される。
The base length s, which is the distance between the principal points 11a 1 and 11a 2 of the left and right lens positions 4a 1 and 4a 2 , is expressed by the following equation (2).

【0029】[0029]

【数2】 (Equation 2)

【0030】以上の内容を図7を用いて、三角形Dにお
ける主点11a1,11a2から点Aまでの距離D1,D
2を求める。即ち、図7は、基線長sの線分の延長線上
に点Aから垂線を引き、その交点をGとするときの、点
Aへの撮影光路からなる各三角形(△AG11a1,△
AG11a2)を示しており、各三角形(△AG11
1,△AG11a2)の下側の点Aの内角はそれぞれ、
φ1+θ,φ2+θとなる。また、両辺の各距離D1,
D2の線分を2辺とする三角形D(△A11a111
2)の下側の点Aの内角はφ2−φ1となる。さら
に、直角三角形(△AG11a2)の右上の点11a2
内角は、π/2−(φ2+θ)となり、これにより三角
形Dの2つの内角と一辺(基線長s)が定まることか
ら、三角形Dが特定される。この三角形Dの左辺長D1
は、正弦定理より次の(数3)式で表される。なお、三
角形Dの右辺長D2についても左辺長D1と同様に求め
ることができる。
Referring to FIG. 7, distances D1, D from principal points 11a 1 , 11a 2 in triangle D to point A are described.
Ask for 2. That is, FIG. 7 shows each triangle ({AG11a 1 , △ AG11a 1 , △}) formed by taking a photographing optical path to point A when a perpendicular line is drawn from point A on the extension of the line segment having the base line length s and the intersection point is G.
AG11a 2 ) and each triangle (△ AG11a2).
a 1 , ΔAG11a 2 ), the inner angles of point A below are
φ1 + θ, φ2 + θ. In addition, each distance D1,
Triangle D (△ A11a 1 11 to two sides of a line segment of D2
The inner angle of point A on the lower side of a 2 ) is φ2−φ1. Further, the interior angle of the point 11a 2 at the top right of the right-angled triangle (△ AG11a 2) is, π / 2- (φ2 + θ ) becomes, since the two internal angles and one side of the triangle D (base line length s) is determined by this triangle D Is specified. Left side length D1 of this triangle D
Is expressed by the following (Equation 3) from the sine theorem. The right side length D2 of the triangle D can be obtained in the same manner as the left side length D1.

【0031】[0031]

【数3】 (Equation 3)

【0032】これにより、レンズ主点11a1から被写
体18の点Aまでの垂直距離Fは、上記三角形(△AG
11a1)の左側斜辺長であるから、次の(数4)式で
表される。
[0032] Thus, the vertical distance F to the point A from the lens principal point 11a 1 object 18, the triangle (△ AG
11a 1 ), the length of the left oblique side is represented by the following (Equation 4).

【0033】[0033]

【数4】 (Equation 4)

【0034】続いて、対応点の抽出について説明する。
上述した撮像センサ3上での点Aの結像位置Pa1,P
2から中心光軸Cまでの距離をd1,d2を求めるに
は、センサ位置3a1,3a2における撮像センサ3のど
の位置に点Aが結像しているのかを検出する必要があ
る。その検出方法として、多眼立体視における対応検索
方法を用いることができ、その代表的な方法の一つに、
2枚の撮影画像の明るさの相関を用いる探索手法(文献
「ロボットビジョン」昭晃堂など)がある。この方法で
は、まず、一方の画面で目印となるような特徴的な点を
見つけ出し、この特徴点の回りに窓と呼ばれる小領域
(本実施形態では例えば7×7画素)を設定する。この
特徴的な点には、被写体18の画像の輝度が急激に変化
するエッジ点などを用いることが多い。次に、他方の画
面でその小領域と同じ明るさの分布を持つ領域を探す。
その探し方としては、双方の画素値の差分の総和が最小
となるような手法を用いる。
Next, extraction of corresponding points will be described.
The imaging positions Pa 1 and P of the point A on the image sensor 3 described above.
the distance from a 2 to the central optical axis C to obtain the d1, d2, it is necessary to point A to the position of the image sensor 3 throat at the sensor position 3a 1, 3a 2 detects whether being imaged. As the detection method, a correspondence search method in multi-view stereoscopic vision can be used. One of the representative methods is
There is a search method using the correlation between the brightness of two captured images (such as the document “Robot Vision” Shokodo). In this method, first, a characteristic point serving as a mark on one screen is found, and a small area called a window (for example, 7 × 7 pixels in this embodiment) is set around the characteristic point. As the characteristic point, an edge point at which the luminance of the image of the subject 18 rapidly changes is often used. Next, the other screen is searched for an area having the same brightness distribution as the small area.
As a search method, a method that minimizes the sum of the differences between the two pixel values is used.

【0035】さらに、制御部7は、図5に示すように、
撮像センサ3から得られた2枚分の画素信号をデジタル
データ変換するデジタル変換手段71と、デジタル変換
された各画素データを記憶する画像メモリ72と、この
画像メモリ72に記憶された1枚目の画像データからエ
ッジ部分を特徴点として抽出する特徴点抽出手段として
のフィルタ手段73と、このフィルタ手段73で抽出さ
れた特徴点を含むその周辺部分にある小領域の画像デー
タと画像メモリ72に記憶された2枚目の画像データと
の相関を演算する相関演算手段としての差分器74とを
有している。
Further, as shown in FIG. 5, the control unit 7
Digital conversion means 71 for converting two pixel signals obtained from the image sensor 3 into digital data, an image memory 72 for storing the digitally converted pixel data, and a first image signal stored in the image memory 72. Filter means 73 for extracting an edge portion from the image data as a feature point, and image data of a small area in a peripheral portion including the feature point extracted by the filter means 73 and the image memory 72. It has a differentiator 74 as a correlation calculating means for calculating a correlation with the stored second image data.

【0036】また、制御部7は、差分器74による演算
結果が最小となる点を対応点(相関点)として判断し、
その特徴点および対応点の位置から被写体までの距離を
演算する距離演算手段としてのCPUなどを含む演算処
理部75と、この演算処理部75で求めた距離データを
記憶する距離メモリ76とを有している。
The control unit 7 determines the point at which the result of calculation by the differentiator 74 is minimum as a corresponding point (correlation point).
An arithmetic processing unit 75 including a CPU or the like as a distance calculating means for calculating the distance from the positions of the feature points and the corresponding points to the subject, and a distance memory 76 for storing distance data obtained by the arithmetic processing unit 75 are provided. are doing.

【0037】この演算処理部75には制御プログラムを
記憶したROMなどの記憶部が設けられており、この制
御プログラムに基づいて、特徴点および対応点から被写
体までの距離演算処理、求めた距離データの距離メモリ
76への蓄積処理、駆動部6に対する走査制御処理、お
よび、表示部9に対する表示制御処理が実行されるよう
になっている。
The arithmetic processing unit 75 is provided with a storage unit such as a ROM storing a control program. Based on the control program, a distance calculation process from a feature point and a corresponding point to a subject is performed. , A storage process in the distance memory 76, a scan control process for the drive unit 6, and a display control process for the display unit 9 are executed.

【0038】上記構成により、以下、その動作を説明す
る。図9の制御フローチャートに示すように、まず、電
源が入れられると、演算処理部75は、ステップS1で
駆動部6を制御して撮像部10の視線方向Vが中央を向
くように走査を行う。さらに、演算処理部75は、ステ
ップS2で撮像部10による被写体18の撮像と表示部
9による表示とを行うように制御し、操作者に撮影状況
を知らせる。このとき、演算処理部75は撮像部10を
走査して得られる画像の重なった部分のみを選択して表
示部9に対して表示制御するようにしている。
The operation of the above configuration will be described below. As shown in the control flowchart of FIG. 9, first, when the power is turned on, the arithmetic processing unit 75 controls the driving unit 6 in step S <b> 1 to perform scanning so that the line-of-sight direction V of the imaging unit 10 faces the center. . Further, the arithmetic processing unit 75 controls the imaging unit 10 to perform imaging of the subject 18 and display by the display unit 9 in step S2, and notifies the operator of the imaging situation. At this time, the arithmetic processing unit 75 selects only overlapping portions of images obtained by scanning the imaging unit 10 and controls the display on the display unit 9.

【0039】次に、ステップS3で演算処理部75は撮
影開始かどうかを判断し、撮影開始と判断されるまで表
示部9による表示動作を繰り返す。操作者によってシャ
ッターボタン8が押されると、ステップS3で演算処理
部75は撮影開始であると判断し、ステップS4で撮像
部6を制御して撮像部10の視線方向Vを第1の視線方
向Va1の方向に向け、ステップS5で撮像部10によ
る第1枚目の撮影と画像メモリ72に第1枚目の画像デ
ータを記憶する。さらに、ステップS6で撮像部6を制
御して撮像部10の視線方向Vを第2の視線方向Va2
の方向に向け、ステップS7で同様の撮像部10による
第2枚目の撮影と画像メモリ72に第2枚目の画像デー
タを記憶する。
Next, in step S3, the arithmetic processing unit 75 determines whether or not shooting has started, and repeats the display operation by the display unit 9 until it is determined that shooting has started. When the shutter button 8 is pressed by the operator, the arithmetic processing unit 75 determines that the photographing has started in step S3, controls the imaging unit 6 in step S4, and changes the visual line direction V of the image capturing unit 10 to the first visual line direction. directed toward the va 1, stores the image data of the first sheet to the first shot and the image memory 72 by the imaging unit 10 in step S5. Further, in step S6, the image capturing unit 6 is controlled to change the line-of-sight direction V of the image capturing unit 10 to the second line-of-sight direction Va 2.
, The second image is captured by the similar imaging unit 10 and the second image data is stored in the image memory 72 in step S7.

【0040】さらに、このような第1枚目および第2枚
目の左右双方の画像が得られると、制御部7は、ステッ
プS8,S9で画像メモリ72から第1枚目の画像デー
タを読み出してフィルタ手段73にかけて特徴点を抽出
する。さらに、ステップS9で抽出された特徴点の周囲
に、差分器74は、ステップS10で小領域を設定し、
ステップS11で画像メモリ72から第2枚目の画像デ
ータを読み出して両者の相関を調べる。ステップS11
の対応点探索は全ての対応点が探索されるまで行われ
る。全ての対応点探索が為されると、ステップS12で
特徴点および対応点に基づいて被写体18までの各距離
を演算処理部75がそれぞれ演算処理して距離メモリ7
6内に記憶する。ステップS12で全ての特徴点および
対応点に基づいて被写体18までの距離演算処理が終了
すると、制御部7はその動作を終了する。
When such first and second left and right images are obtained, the control section 7 reads out the first image data from the image memory 72 in steps S8 and S9. To extract a feature point. Further, the differentiator 74 sets a small area in step S10 around the feature point extracted in step S9,
In step S11, the second image data is read from the image memory 72, and the correlation between them is checked. Step S11
Is performed until all the corresponding points are searched. When all the corresponding points have been searched, in step S12, the arithmetic processing unit 75 calculates respective distances to the subject 18 based on the feature points and the corresponding points, and the distance memory 7
Stored in 6. When the distance calculation processing to the subject 18 is completed based on all feature points and corresponding points in step S12, the control unit 7 ends the operation.

【0041】以上のように、単一の撮像部10の撮像方
向(視線方向V)を駆動部6で回動させて、異なる撮像
方向(本実施形態では2つの視線方向Va1,Va2)で
被写体18の立体形状を撮影するようにしたため、単一
の撮像部10で多眼視と同様の奥行き検出効果を得るこ
とで、被写体18の立体形状を容易に検出することがで
き、かつ、単一の撮像部10で装置が大掛かりになら
ず、立体視するのに画像読取装置1のコストおよびスペ
ースを大幅に削減することができる。
As described above, the image pickup direction (the line of sight direction V) of the single image pickup unit 10 is rotated by the drive unit 6 to change the image pickup direction (in the present embodiment, the two line of sight directions Va 1 and Va 2 ). Since the three-dimensional shape of the subject 18 is photographed by using the same imaging unit 10, a three-dimensional shape of the subject 18 can be easily detected by obtaining a depth detection effect similar to that of multi-viewing, and The apparatus does not become large-scale with a single imaging unit 10, and the cost and space of the image reading apparatus 1 can be significantly reduced for stereoscopic viewing.

【0042】また、撮像部10を駆動部6で回動させて
撮像部10の撮像方向を変えるようにしたため、撮像部
10を移動させるスペースを必要とせず小型化でき、か
つ、撮像部10の回動駆動で撮像方向が容易に大きく変
化するため、よりスピーディに、異なる撮像方向の少な
くとも2枚の画像を撮影することができる。
Further, since the image pickup unit 10 is rotated by the drive unit 6 to change the image pickup direction of the image pickup unit 10, it is possible to reduce the size without requiring a space for moving the image pickup unit 10, and to reduce the size of the image pickup unit 10. Since the imaging direction is easily greatly changed by the rotation drive, it is possible to more quickly capture at least two images in different imaging directions.

【0043】さらに、2枚の画像データの一方から抽出
した特徴点と、この特徴点と相関のある、他方の画像デ
ータから抽出した対応点とに基づいて、被写体18まで
の距離を演算するようにしたため、異なる撮像方向の少
なくとも2枚の画像から被写体18の3次元形状を自動
的に容易かつ正確に検出することができる。
Further, the distance to the subject 18 is calculated based on a feature point extracted from one of the two pieces of image data and a corresponding point which is correlated with the feature point and extracted from the other image data. Therefore, the three-dimensional shape of the subject 18 can be easily and accurately detected from at least two images in different imaging directions.

【0044】なお、本実施形態の演算処理部75には制
御プログラムを記憶したROMなどの記憶部が設けられ
ており、この制御プログラムおよび、上記特徴点および
対応点に対する被写体18までの距離データに基づい
て、撮影画像データを平面座標などの各種座標系に変換
する座標変換処理を実行させて、座標変換した平面座標
などの各種座標系で表示部9に対する表示制御処理を行
うように構成することもできる。
The arithmetic processing unit 75 of this embodiment is provided with a storage unit such as a ROM storing a control program. The control program and the distance data from the feature points and the corresponding points to the subject 18 are stored in the ROM. And performing a coordinate conversion process for converting the captured image data into various coordinate systems such as plane coordinates based on the image data, and performing a display control process on the display unit 9 in the various coordinate systems such as the converted plane coordinates. Can also.

【0045】この場合について説明すると、従来より、
図10に示した撮像装置51を用いて、傾いた被写体の
書籍原稿52や、湾曲した被写体の書籍原稿53を複数
に分割(図10では4つに分割)して撮影し、後で分割
画像を貼り合わせることにより合成画像を高精細に読み
取る装置が提案されている。ところが、このような分割
画像を合成する撮像装置51では、投影光軸の傾きや書
籍原稿などの紙面の湾曲により撮影画像が歪むという問
題があった。
This case will be described.
Using the imaging device 51 shown in FIG. 10, a book original 52 of a tilted subject or a book original 53 of a curved subject is divided into a plurality of parts (in FIG. 10, divided into four parts) and photographed. A device has been proposed in which a composite image is read with high definition by pasting together. However, the imaging device 51 that synthesizes such divided images has a problem in that the captured image is distorted due to the inclination of the projection optical axis or the curvature of the paper surface of a book document or the like.

【0046】これを解決するために、本実施形態の演算
処理部75に、特徴点および対応点に対する被写体18
までの距離データに基づいて、撮影画像データを平面座
標に座標変換する座標変換手段を設けることで、撮影画
像が例えば湾曲したり傾いたりしていても、その撮影画
像データを座標変換手段で平面座標に座標変換するた
め、単一の撮像部10で大掛かりにならず被写体の立体
形状を歪むことなく正確に検出することができる。この
座標変換手段は演算処理部75と制御プログラム用の記
憶部から構成されている。
In order to solve this, the arithmetic processing unit 75 of the present embodiment is provided with an object 18 corresponding to a feature point and a corresponding point.
By providing coordinate transformation means for transforming the photographed image data into plane coordinates based on the distance data up to, even if the photographed image is curved or inclined, for example, the photographed image data is converted into a plane by the coordinate transformation means. Since the coordinates are converted into coordinates, the single imaging unit 10 can accurately detect the three-dimensional shape of the subject without distorting the scale. This coordinate conversion means comprises an arithmetic processing unit 75 and a storage unit for a control program.

【0047】このように、本発明の画像読取装置1は、
図10に示すような撮像装置51にも容易に適応でき、
投影光軸の傾きや書籍原稿などの紙面の湾曲による撮影
画像の歪を解消することができる。つまり、画像読取装
置1と同様に、被写体18の各分割撮影範囲に所定幅の
重なり範囲(交差範囲)Zを持たせて、この領域の距離
情報を求めることにより、これらの傾きや湾曲の量など
を検出することができる。このような傾斜角度や湾曲分
布が求められると、これに基づいて座標変換手段にて撮
影画像データの座標変換を行うことにより、画像の歪み
を補正して平面画像とすることができる。
As described above, the image reading device 1 of the present invention
It can be easily adapted to an imaging device 51 as shown in FIG.
It is possible to eliminate the distortion of the captured image due to the inclination of the projection optical axis or the curvature of the paper surface of a book document or the like. That is, similarly to the image reading apparatus 1, each divided photographing range of the subject 18 is provided with an overlapping range (intersection range) Z having a predetermined width, and distance information of this region is obtained. Etc. can be detected. When such an inclination angle and a curvature distribution are obtained, coordinate transformation of the photographed image data is performed by the coordinate transformation means based on the inclination angle and the curvature distribution, so that the image distortion can be corrected to be a planar image.

【0048】なお、本実施形態では、左右の撮影画像の
重なる範囲内でしか距離情報を得ることができないが、
走査および撮影を3回以上繰り返し、交差して重なる範
囲を広げることにより、距離情報が得られる範囲を広げ
ることができる。また、左右方向ばかりではなく上下方
向にも撮象部10を駆動部6で走査することによって、
より広い範囲を撮影することができる。
In this embodiment, the distance information can be obtained only within the range where the left and right shot images overlap.
The range in which distance information can be obtained can be expanded by repeating scanning and photographing three times or more and expanding the range of intersection and overlap. In addition, by scanning the imaging unit 10 with the driving unit 6 not only in the horizontal direction but also in the vertical direction,
A wider area can be photographed.

【0049】なお、本実施形態では、撮像部10を駆動
部6で回動させるように構成したが、これに限らず、撮
像部10を駆動部でスライド移動させるように構成する
こともできる。
In the present embodiment, the imaging unit 10 is configured to be rotated by the driving unit 6, but the invention is not limited to this, and the imaging unit 10 may be configured to be slid by the driving unit.

【0050】[0050]

【発明の効果】以上のように本発明の請求項1によれ
ば、単一の撮像部の撮像方向を駆動部で可変させて異な
る撮像方向で被写体の立体形状を撮影するため、単一の
撮像部で多眼視と同様の奥行き検出効果を得ることで、
被写体の立体形状を容易に検出することができ、かつ、
単一の撮像装置で装置が大掛かりにならず、立体視する
のに装置のコストおよびスペースを大幅に削減すること
ができる。
As described above, according to the first aspect of the present invention, since the imaging direction of a single imaging unit is changed by a driving unit to capture a three-dimensional shape of a subject in different imaging directions, a single imaging unit is used. By obtaining the same depth detection effect as multi-view with the imaging unit,
The three-dimensional shape of the subject can be easily detected, and
The apparatus does not become large-scale with a single imaging apparatus, and the cost and space of the apparatus can be significantly reduced for stereoscopic viewing.

【0051】また、本発明の請求項2によれば、撮像部
を撮像部回動手段で回動させて撮像部の撮像方向を移動
させるため、撮像部を移動させるスペースを必要とせず
小型化でき、かつ、回動駆動で撮像部の撮像方向が容易
に大きく変化するため、よりスピーディに、異なる撮像
方向の少なくとも2枚の画像を撮影することができる。
According to the second aspect of the present invention, since the imaging section is rotated by the imaging section rotating means to move the imaging direction of the imaging section, no space is required for moving the imaging section, and the size is reduced. Since the imaging direction of the imaging unit can be easily changed greatly by the rotation drive, at least two images in different imaging directions can be more quickly captured.

【0052】さらに、本発明の請求項3によれば、2枚
の画像データの一方から抽出した特徴点と、この特徴点
と相関のある、他方の画像データから抽出した対応点と
に基づいて、被写体までの距離を演算するようにしたた
め、異なる撮像方向の少なくとも2枚の画像から被写体
の3次元形状を自動的に容易かつ正確に検出することが
できる。
Further, according to the third aspect of the present invention, based on a feature point extracted from one of the two pieces of image data and a corresponding point extracted from the other image data having a correlation with the feature point. Since the distance to the subject is calculated, the three-dimensional shape of the subject can be automatically and easily detected from at least two images in different imaging directions.

【0053】さらに、本発明の請求項4によれば、撮影
画像が例えば湾曲したり傾いたりしていても、その撮影
画像データを座標変換手段で平面座標に座標変換するた
め、単一の撮像部で大掛かりにならず被写体の立体形状
を歪むことなく正確に検出することができる。
Further, according to the fourth aspect of the present invention, even if the photographed image is curved or inclined, for example, the photographed image data is coordinate-transformed into plane coordinates by the coordinate transformation means, so that a single image pickup is performed. It is possible to accurately detect the three-dimensional shape of the subject without distorting the three-dimensional shape.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態の画像読取装置における要
部透視構成を模式的に示す斜視図である。
FIG. 1 is a perspective view schematically showing a perspective configuration of a main part of an image reading apparatus according to an embodiment of the present invention.

【図2】図1に示す要部を模式的に示す平面図である。FIG. 2 is a plan view schematically showing a main part shown in FIG.

【図3】図1の駆動部およびロータの構成を示す模式図
である。
FIG. 3 is a schematic diagram showing a configuration of a driving unit and a rotor of FIG. 1;

【図4】図3の駆動部を駆動制御するための信号波形図
である。
FIG. 4 is a signal waveform diagram for controlling driving of the driving unit of FIG. 3;

【図5】図1の画像読取装置の概略制御構成を模式的に
示すブロック図である。
FIG. 5 is a block diagram schematically illustrating a schematic control configuration of the image reading apparatus of FIG. 1;

【図6】図1の画像読取装置で視線方向を左右に走査し
て2回の撮影を行ったときの光路を示す模式図である。
FIG. 6 is a schematic diagram illustrating an optical path when the image reading apparatus of FIG. 1 scans a line of sight right and left and performs two shootings.

【図7】被写体上の左方の点Aを撮像している一部光路
の説明図である。
FIG. 7 is an explanatory diagram of a partial optical path capturing an image of a left point A on a subject.

【図8】被写体上の左方の点Aを撮像している全光路の
説明図である。
FIG. 8 is an explanatory diagram of all optical paths capturing an image of a left point A on a subject.

【図9】図1の画像読取装置の概略要部の動作を示すフ
ローチャートである。
FIG. 9 is a flowchart showing an operation of a main part of the image reading apparatus of FIG. 1;

【図10】従来の文書画像の読取装置による使用状態を
示す模式図である。
FIG. 10 is a schematic diagram showing a state of use of a conventional document image reading apparatus.

【符号の説明】[Explanation of symbols]

1 画像読取装置 2 装置本体 3 撮像センサ 4 レンズ 5 ロータ 6 駆動部 7 制御部 10 撮像部 11 レンズ主点 12 回動中心点 14,15 圧電素子 16 チップ部材 17 ばね部材 18 被写体 71 デジタル変換手段 72 画像メモリ 73 フィルタ手段 74 差分器 75 演算処理部(CPU) 76 距離メモリ 3a1,3a2 センサ位置 4a1,4a2 レンズ位置 10a1,10a2 撮像部位置 11a1,11a2 レンズ主点位置 V,Va1,Va2 視線方向 Ea1,Ea2 撮影範囲 Pa1,Pa2,Pb1,Pb2 結像位置 2θ 走査角度 b レンズ主点から撮像センサ間距離 h レンズ主点から回動中心間距離 d1,d2 結像位置から中心光軸間距離 φ1,φ2 撮影角度 s 基線長REFERENCE SIGNS LIST 1 image reading device 2 device main body 3 imaging sensor 4 lens 5 rotor 6 driving unit 7 control unit 10 imaging unit 11 lens principal point 12 rotation center point 14, 15 piezoelectric element 16 chip member 17 spring member 18 subject 71 digital conversion means 72 The image memory 73 filter unit 74 the difference unit 75 computation processing unit (CPU) 76 distance memory 3a 1, 3a 2 sensor position 4a 1, 4a 2 lens position 10a 1, 10a 2 imaging unit position 11a 1, 11a 2 lens principal point position V , Va 1 , Va 2 Line-of-sight directions Ea 1 , Ea 2 Imaging range Pa 1 , Pa 2 , Pb 1 , Pb 2 Imaging position 2θ Scan angle b Distance between lens principal point and imaging sensor h Between lens principal point and rotation center Distance d1, d2 Distance from the imaging position to the center optical axis φ1, φ2 Shooting angle s Baseline length

フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 1/04 106 G06F 15/64 325F Fターム(参考) 2F065 AA04 AA53 BB05 DD02 DD06 FF01 FF05 JJ03 JJ26 LL10 PP05 QQ13 QQ24 QQ31 QQ33 QQ36 QQ41 2F112 AC06 BA10 CA08 DA04 DA15 FA27 FA35 FA36 FA41 5B047 AA01 AA07 AA27 AB01 BA02 BB02 BC05 CA13 CB08 CB09 CB23 5C062 AA01 AB33 AB41 AB44 AC58 AC66 AD01 BA00 BB05 5C072 AA01 BA02 BA17 BA20 DA02 EA04 LA12 MB01 RA04 RA11 UA11 UA13 VA06 Continued on the front page (51) Int.Cl. 7 Identification code FI Theme coat II (Reference) H04N 1/04 106 G06F 15/64 325F F-term (Reference) 2F065 AA04 AA53 BB05 DD02 DD06 FF01 FF05 JJ03 JJ26 LL10 PP05 QQ13 QQ24 QQ31 QQ33 QQ36 QQ41 2F112 AC06 BA10 CA08 DA04 DA15 FA27 FA35 FA36 FA41 5B047 AA01 AA07 AA27 AB01 BA02 BB02 BC05 CA13 CB08 CB09 CB23 5C062 AA01 AB33 AB41 AB44 AC58 AC66 AD01 BA00 BB05 5C072 AA02BA01 BA02 BA01 BA02 BA01 BA02

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 被写体を撮像可能な撮像センサおよび、
この撮像センサに前記被写体の光学像を結像させるレン
ズとからなる撮像部を備えた画像読取装置において、前
記撮像部の撮像方向を可変する駆動部と、異なる撮像方
向の少なくとも2枚の画像を撮像して前記撮像部による
撮影範囲の重なり部分の前記被写体の3次元形状を検出
する制御部とを有したことを特徴とする画像読取装置。
An imaging sensor capable of imaging a subject;
In an image reading apparatus including an imaging unit including a lens that forms an optical image of the subject on the imaging sensor, a driving unit that changes an imaging direction of the imaging unit, and at least two images in different imaging directions. An image reading device, comprising: a control unit configured to capture an image and detect a three-dimensional shape of the subject in an overlapping portion of a shooting range of the imaging unit.
【請求項2】 前記駆動部は、前記撮像部を回動させる
撮像部回動手段から構成されていることを特徴とする請
求項1に記載の画像読取装置。
2. The image reading apparatus according to claim 1, wherein the driving unit includes an imaging unit rotating unit that rotates the imaging unit.
【請求項3】 前記制御部は、前記撮像部からの少なく
とも2枚の画像データの一つから特徴点を抽出する特徴
点抽出手段と、前記特徴点の周辺小領域の画像データと
他の画像データとの相関をとる相関演算手段と、前記特
徴点および、この特徴点と相関のある相関点に基づいて
前記被写体までの距離を演算する距離演算手段とを有し
たことを特徴とする請求項1または2に記載の画像読取
装置。
3. The control unit includes: a feature point extracting unit configured to extract a feature point from one of at least two pieces of image data from the imaging unit; and an image data of a small area around the feature point and another image. 2. The apparatus according to claim 1, further comprising: a correlation calculating unit that calculates a correlation with data; and a distance calculating unit that calculates a distance to the subject based on the characteristic point and a correlation point correlated with the characteristic point. 3. The image reading device according to 1 or 2.
【請求項4】 前記制御部は、前記特徴点および対応点
に対する被写体までの距離データに基づいて、撮影画像
データを平面座標データに座標変換する座標変換手段を
有したことを特徴とする請求項3に記載の画像読取装
置。
4. The apparatus according to claim 1, wherein the control unit includes a coordinate conversion unit configured to convert the captured image data into plane coordinate data based on distance data from the feature point and the corresponding point to a subject. 4. The image reading device according to 3.
JP10312422A 1998-11-02 1998-11-02 Image reader Withdrawn JP2000136913A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10312422A JP2000136913A (en) 1998-11-02 1998-11-02 Image reader

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10312422A JP2000136913A (en) 1998-11-02 1998-11-02 Image reader

Publications (1)

Publication Number Publication Date
JP2000136913A true JP2000136913A (en) 2000-05-16

Family

ID=18029037

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10312422A Withdrawn JP2000136913A (en) 1998-11-02 1998-11-02 Image reader

Country Status (1)

Country Link
JP (1) JP2000136913A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005080915A1 (en) * 2004-02-19 2005-09-01 Brother Kogyo Kabushiki Kaisha Three-dimensional shape detection device and image pick up device
WO2016006451A1 (en) * 2014-07-10 2016-01-14 オリンパス株式会社 Observation system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005080915A1 (en) * 2004-02-19 2005-09-01 Brother Kogyo Kabushiki Kaisha Three-dimensional shape detection device and image pick up device
WO2016006451A1 (en) * 2014-07-10 2016-01-14 オリンパス株式会社 Observation system
US10485402B2 (en) 2014-07-10 2019-11-26 Olympus Corporation Observation system

Similar Documents

Publication Publication Date Title
US11629955B2 (en) Dual-resolution 3D scanner and method of using
EP0782100B1 (en) Three-dimensional shape extraction apparatus and method
US6304284B1 (en) Method of and apparatus for creating panoramic or surround images using a motion sensor equipped camera
JP4010754B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium
JP2004198732A (en) Photographic aid, method and apparatus for image processing, computer program, and recording medium with recorded program
US20040061774A1 (en) Digital imaging system using overlapping images to formulate a seamless composite image and implemented using either a digital imaging sensor array
JP2001503514A (en) Three-dimensional color scanning method and apparatus
KR100481399B1 (en) Imaging system, program used for controlling image data in same system, method for correcting distortion of captured image in same system, and recording medium storing procedures for same method
JP3109580B2 (en) IMAGE INPUT DEVICE AND COMPUTER-READABLE RECORDING MEDIUM RECORDING IMAGE PROCESSING PROGRAM FOR IMAGE INPUT DEVICE
JPH09145318A (en) Three-dimensional measuring equipment
JP2000136913A (en) Image reader
JP2020071854A (en) Image processing apparatus, image processing method, and program
JP3704932B2 (en) Image reading device
JP3601272B2 (en) Imaging device
JP3424444B2 (en) Image reading device
WO2015140935A1 (en) Overhead-type image reading apparatus, image processing method, and program
JP3598704B2 (en) Image reading device
JP2000307947A (en) Image processor and image processing method
JP2000236434A (en) Image forming device
JPS63284978A (en) Solid-state image pickup device
JP3338861B2 (en) 3D environment measurement camera
KR20110072429A (en) Omnidirectional camera
JP2000172846A (en) Image processor
JP2005099572A (en) Wide range photographing method and display method
JPH11177878A (en) Image reader

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050613

A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060110