JP3282332B2 - Image input system - Google Patents

Image input system

Info

Publication number
JP3282332B2
JP3282332B2 JP32024693A JP32024693A JP3282332B2 JP 3282332 B2 JP3282332 B2 JP 3282332B2 JP 32024693 A JP32024693 A JP 32024693A JP 32024693 A JP32024693 A JP 32024693A JP 3282332 B2 JP3282332 B2 JP 3282332B2
Authority
JP
Japan
Prior art keywords
image
input
data
image data
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP32024693A
Other languages
Japanese (ja)
Other versions
JPH07174537A (en
Inventor
英郎 藤井
重晃 今井
寿夫 糊田
Original Assignee
ミノルタ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ミノルタ株式会社 filed Critical ミノルタ株式会社
Priority to JP32024693A priority Critical patent/JP3282332B2/en
Priority to US08/358,306 priority patent/US5668631A/en
Publication of JPH07174537A publication Critical patent/JPH07174537A/en
Priority to US08/841,560 priority patent/US6243165B1/en
Priority to US09/387,498 priority patent/US6407817B1/en
Priority to US09/879,896 priority patent/US6522412B2/en
Priority to US10/075,230 priority patent/US6775010B2/en
Priority to US10/118,054 priority patent/US6480288B1/en
Application granted granted Critical
Publication of JP3282332B2 publication Critical patent/JP3282332B2/en
Priority to US10/330,111 priority patent/US6674534B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は比較的複雑な形状の対象
物から、その対象物の形状を示す画像データを生成し、
その画像データにより画像貼り合わせを行う画像入力シ
ステムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention generates image data showing the shape of an object from an object having a relatively complicated shape,
The present invention relates to an image input system that performs image bonding based on the image data.

【0002】[0002]

【従来の技術】従来、例えば、物体の3次元形状の認識
を行う手段のうち、最も実用的な手段として光切断法が
よく利用されている。光切断法は図1に示すように対象
物体にスリット状のレーザ光Sを照射し、スリット光S
に対応する対象物体1のスリット像をカメラの撮像面上
に捕える。すると、スリット上のある1点p'に対応す
る対象物体上の点pの空間座標は、スリット光のなす平
面Sと、点p'と撮像装置のレンズの中心点Oとを結ぶ
直線Lとの交点の座標として求められる。このように、
1枚の画像からスリット像上の各点に対応した物体表面
の点群の空間座標が求められ、スリット光の水平方向の
移動と画像入力を繰り返すことで対象物体全体の3次元
情報を獲得することができる。
2. Description of the Related Art Conventionally, for example, among the means for recognizing a three-dimensional shape of an object, a light cutting method is often used as the most practical means. The light cutting method irradiates a slit-shaped laser beam S to a target object as shown in FIG.
Is captured on the imaging surface of the camera. Then, the spatial coordinates of the point p on the target object corresponding to a certain point p ′ on the slit are represented by a plane S formed by the slit light and a straight line L connecting the point p ′ and the center point O of the lens of the imaging device. Is obtained as the coordinates of the intersection of in this way,
The spatial coordinates of a point group on the object surface corresponding to each point on the slit image are obtained from one image, and three-dimensional information of the entire target object is obtained by repeating horizontal movement of the slit light and image input. be able to.

【0003】[0003]

【発明が解決しようとする課題】従来方法では、計測精
度を向上させるには基線長を長くするか、レンズの焦点
距離を長くするか、高精度のCCDを使用する必要があ
った。しかし、それぞれ装置が大きくなりすぎる、大き
い被写体がとれない、データ量が大きくなりすぎるなど
の欠点があった。
In the conventional method, in order to improve the measurement accuracy, it is necessary to increase the base line length, increase the focal length of the lens, or use a high-precision CCD. However, there are drawbacks such as the apparatuses becoming too large, a large subject being unable to be taken, and an excessively large data amount.

【0004】本発明は従来技術の欠点を除去し、対象物
の形状を判断することで対象物の形状に適応した精度で
複数の画像データを入力し、その後に複数の画像データ
を合成することで一体となる画像を生成することを目的
とする。
[0004] The present invention eliminates the drawbacks of the prior art, inputs a plurality of image data with an accuracy adapted to the shape of the object by judging the shape of the object, and then synthesizes the plurality of image data. The purpose of this is to generate an integrated image.

【0005】[0005]

【課題を解決するための手段】上記目的を達成するた
め、本発明の画像入力システムは、第1の焦点距離に設
定された光学系を介して対象物の形状を示す画像データ
を入力する第1の入力手段と、前記第1の焦点距離より
も短い第2の焦点距離に設定された光学系を介して前記
対象物の形状を示す画像データを入力する第2の入力手
段と、前記第1及び第2の入力手段により入力された複
数の画像データを貼り合わせる貼り合わせ手段とを備え
たことを特徴とする。また、本発明の画像入力システム
は、第1の倍率で対象物の形状を示す画像データを入力
する第1の入力手段と、前記第1の倍率よりも低い第2
の倍率で前記対象物の形状を示す画像データを入力する
第2の入力手段と、前記第1及び第2の入力手段により
入力された複数の画像データを貼り合わせる貼り合わせ
手段とを備えたことを特徴とする。
In order to achieve the above object, an image input system according to the present invention comprises: an image input system for inputting image data indicating a shape of an object through an optical system set to a first focal length; First input means, second input means for inputting image data indicating a shape of the object via an optical system set to a second focal length shorter than the first focal length, and A combining unit for combining a plurality of pieces of image data input by the first and second input units. Further, the image input system of the present invention comprises a first input means for inputting image data indicating the shape of the object at a first magnification, and a second input means which is lower than the first magnification.
A second input means for inputting image data indicating the shape of the object at a magnification of; and a bonding means for bonding a plurality of image data input by the first and second input means. It is characterized by.

【0006】[0006]

【作用】本発明による構成により、対象物の形状の複雑
な部分のみを選択的に高精度で画像データ入力し、精度
の低い画像データと貼り合わせる。
According to the structure of the present invention, image data is selectively input with high precision only to a complicated portion of the shape of an object, and is bonded to image data with low precision.

【0007】[0007]

【実施例】以下に本発明に係る実施例を図面を参照しな
がら説明する。まず、図2に示すのは本発明に係る装置
全体の概略ブロック図である。本装置を大きく分ける
と、半導体レーザ5から出力されたレーザ光をスリット
状の光線として対象物体1に照射する投光光学系2、照
射されたレーザ光を画像用センサ24、12へ導く受光
光学系3があり、これら投光光学系、受光光学系は同じ
回転架台4上に配置されている。光学系以外にはセンサ
から出力される信号を処理してピッチズレ画像とカラー
画像を生成する信号処理系と、生成された画像を記録す
る記録装置から構成されている。図2に示す実線矢印は
画像信号、制御信号の電気的信号の流れを示し、破線矢
印は投光される光の流れを示している。なお、これら光
学系についての詳細な説明は後述する。
Embodiments of the present invention will be described below with reference to the drawings. First, FIG. 2 is a schematic block diagram of the entire apparatus according to the present invention. This apparatus can be roughly divided into a light projecting optical system 2 for irradiating a laser beam output from a semiconductor laser 5 as a slit-shaped light beam to a target object 1, and a light receiving optical system for guiding the irradiated laser beam to image sensors 24 and 12. There is a system 3, and the light projecting optical system and the light receiving optical system are arranged on the same rotating base 4. In addition to the optical system, the optical system includes a signal processing system that processes a signal output from the sensor to generate a pitch shift image and a color image, and a recording device that records the generated image. The solid arrows shown in FIG. 2 indicate the flow of electrical signals of the image signal and the control signal, and the broken arrows indicate the flow of projected light. A detailed description of these optical systems will be described later.

【0008】信号処理系の概略について説明すると、距
離画像用センサ12により得られた画像はスリット光投
光時画像18aとスリット光非投光時画像18bとの減
算を行い、その画像に対して入射光重心位置算出処理1
9、ピッチズレ情報算出処理20、ピッチズレ画像生成
処理21が行われる。得られたピッチズレ画像はNTS
C変換処理27により出力端子50へ出力したり、或い
は、ディジタルのままSCSI端子49や内蔵の記録装
置22へ転送したりして利用される。また、カラー画像
用センサ24により得られた画像は、アナログ処理25
を介してカラー画像生成処理26が行われる。得られた
カラー画像はNTSC変換処理28されて出力端子51
へ出力したり、或いは、ディジタルのままSCSI端子
49や記録装置22へ転送したりして利用される。
The outline of the signal processing system will be described. The image obtained by the distance image sensor 12 is obtained by subtracting the image 18a when the slit light is projected and the image 18b when the slit light is not projected, and subtracts the image. Incident light centroid position calculation processing 1
9. Pitch shift information calculation processing 20 and pitch shift image generation processing 21 are performed. The pitch shift image obtained is NTS
The data is output to the output terminal 50 by the C conversion process 27 or transferred to the SCSI terminal 49 or the built-in recording device 22 as digital data for use. The image obtained by the color image sensor 24 is converted into an analog
, A color image generation process 26 is performed. The obtained color image is subjected to NTSC conversion processing 28 and output terminal 51
To the SCSI terminal 49 or the recording device 22 as digital.

【0009】次に、装置全体の概略構成を示す斜視図を
図3に示す。本実施例では、スリット光の長さ方向に2
56点、スリットの走査方向に324点の距離情報を持
つ256×324の距離画像生成システムを一例として
説明する。LCDモニタ41はカラー画像センサ24に
より撮像されたカラー画像、或は本装置内外の記録装置
に記録されている3次元データ、或は各種の情報や選択
メニュー等の表示を行う。カーソルキー42、セレクト
キー43、キャンセルキー44は画像の選択やメニュー
から各種モードの設定等を行うための操作部材である。
45は投光・受光光学系の焦点距離を変化させるズーム
ボタンで、46はマニュアルで焦点合わせを行うMFボ
タンである。47は後述のシャッタモードでONするこ
とにより距離画像を取り込むシャッタボタンである。撮
像した画像の記録装置としては本装置内蔵の光磁気ディ
スク(以下、MOと称す)やミニディスク(以下、MD
と称す)等のドライブ装置48を装備している。端子4
9は画像等の信号をディジタルで入出力する端子でSC
SI等である。ピッチズレ画像出力端子50、カラー画
像出力端子51は画像をアナログ信号として出力する端
子で、例えばNTSC等のビデオ信号で出力する。
FIG. 3 is a perspective view showing a schematic configuration of the entire apparatus. In this embodiment, the length of the slit light is 2 in the length direction.
A 256 × 324 distance image generation system having distance information of 56 points and 324 points in the slit scanning direction will be described as an example. The LCD monitor 41 displays a color image picked up by the color image sensor 24, three-dimensional data recorded in a recording device inside or outside the apparatus, various kinds of information, a selection menu, and the like. The cursor key 42, the select key 43, and the cancel key 44 are operation members for selecting an image, setting various modes from a menu, and the like.
A zoom button 45 changes the focal length of the light projecting / receiving optical system, and an MF button 46 performs manual focusing. A shutter button 47 captures a distance image when turned on in a shutter mode described later. As a recording device of the captured image, a magneto-optical disk (hereinafter, referred to as MO) or a mini disk (hereinafter, referred to as MD) built in the device.
). Terminal 4
9 is a terminal for digitally inputting / outputting a signal such as an image.
SI or the like. A pitch shift image output terminal 50 and a color image output terminal 51 are terminals for outputting an image as an analog signal, and output a video signal such as NTSC.

【0010】投光光学系は、水平方向に長いスリット光
を上下方向に走査するもので、半導体レーザ5からの光
は回転するポリゴンミラー7、コンデンサレンズ10、
投光用ズームレンズ11等を経て対象物体へ投影され
る。受光光学系は受光用ズームレンズ14、ビームスプ
リッタ15等を経て受光撮像面に配置された距離画像用
センサ12、カラー画像用センサ24で撮像を行う。な
お、これら光学系、撮像系の詳細な説明は後述する。
The light projecting optical system scans slit light long in the horizontal direction in the vertical direction. Light from the semiconductor laser 5 is rotated by a polygon mirror 7, a condenser lens 10, and the like.
The light is projected onto the target object via the light projecting zoom lens 11 and the like. The light receiving optical system picks up an image with a distance image sensor 12 and a color image sensor 24 arranged on a light receiving and imaging surface via a light receiving zoom lens 14, a beam splitter 15, and the like. The optical system and the imaging system will be described later in detail.

【0011】投光系からのスリット光は、距離画像用セ
ンサ12が1枚の画像蓄積を行う間に、定常回転してい
るポリゴンミラー7により距離画像用センサ12の1画
素ピッチ分ずつ下方に走査される。距離画像用センサは
この蓄積された画像情報を走査、出力を行うと共に次の
画像蓄積を行う。この1度の出力による画像からスリッ
ト光の長さ方向の256点の距離情報が算出可能とな
る。更にミラー走査、画像取り込みを324回繰り返し
行うことで256×324点の距離画像生成が行われ
る。
While the distance image sensor 12 accumulates one image, the slit light from the light projecting system is shifted downward by one pixel pitch of the distance image sensor 12 by the polygon mirror 7 which is rotating normally. Scanned. The range image sensor scans and outputs the stored image information and stores the next image. The distance information of 256 points in the length direction of the slit light can be calculated from the image output by this one output. Further, by repeating mirror scanning and image capturing 324 times, a distance image of 256 × 324 points is generated.

【0012】一本のスリット光に対して測定される対象
物体までの距離範囲は、測定最近距離、測定最遠距離に
制限があるため、そのスリット光が物体で反射して撮像
素子に入射する範囲はある範囲内に制限される。これ
は、投光系と受光系が基線長(長さl)だけ離れて設置
されているためである。これを図に示したものが図4で
あり、距離画像用の撮像素子面に垂直な方向をZ軸とし
ている。dで示す破線の位置は測定基準面であり、素子
面からの距離がdである。
The range of the distance to a target object measured with respect to one slit light is limited to the closest distance to be measured and the longest distance to be measured. Therefore, the slit light is reflected by the object and enters the image pickup device. The range is limited to a certain range. This is because the light projecting system and the light receiving system are set apart from each other by the base line length (length 1). This is shown in FIG. 4, in which the direction perpendicular to the image sensor surface for the distance image is the Z axis. The position of the broken line indicated by d is the measurement reference plane, and the distance from the element surface is d.

【0013】測定最遠距離をDf、測定最短距離をDnと
する。今、投光系から照射されるスリット光による切断
平面が、スリットA(SA)の場合、物体面で反射した
スリット光を受光する撮像素子面の範囲は、測定最近距
離DnとスリットAとの交点PAnの3次元的位置が撮像
素子上に投影される点を図中最下点とし、測定最遠距離
DfとスリットAとの交点PAfの3次元的位置が撮像系
レンズ主点位置を中心として撮像素子上に投影される点
を図中最上点とする撮像素子上の閉区間Arに限定され
る。投光系、受光系の位置関係をそのままとして、同様
にスリット光B(SB)の場合も、測定最近距離Dnとス
リットBとの交点PBnの投影される点を図中最下点と
し、測定最遠距離DfとスリットBとの交点PBfの投影
される点を図中最上点とする撮像素子上の閉区間Brに
限定される。
The shortest distance measured is Df, and the shortest distance measured is Dn. Now, when the cutting plane by the slit light emitted from the light projecting system is the slit A (SA), the range of the imaging element surface that receives the slit light reflected on the object surface is the distance between the nearest distance Dn measured and the slit A. The point at which the three-dimensional position of the intersection point Pan is projected on the image sensor is defined as the lowest point in the figure, and the three-dimensional position of the intersection point PAf between the measured farthest distance Df and the slit A is centered on the principal point of the imaging system lens. Is limited to a closed section Ar on the image sensor having a point projected on the image sensor as the uppermost point in the drawing. Similarly, in the case of the slit light B (SB), with the positional relationship between the light projecting system and the light receiving system unchanged, the projected point of the intersection PBn between the measured closest distance Dn and the slit B is defined as the lowest point in the figure. The point where the intersection point PBf of the farthest distance Df and the slit B is projected is limited to a closed section Br on the image sensor whose uppermost point is shown in the drawing.

【0014】このため、まず測定装置においてはこの入
力された画像から256ラインでの受光されたレーザ光
の重心位置をオートフォーカスユニットからの物体距離
出力と投光するスリット光の方位、すなわち走査開始か
らの時間とに基づき決定される測定基準面からのズレ量
として演算を行う。このピッチズレ量の算出について図
5を参照して説明すると、まず、図5は対象物体面へ投
光されるスリット光により生成される光量分布を示して
いる。図の下方に示されている升目は距離画像用センサ
のそれぞれの素子が睨む領域を示していて、升目に手前
から1,2,3,4,・・・と番号を付す。極めて細い
スリット幅を持つスリット光がポリゴンミラー7の回転
により1画像蓄積間に距離画像用センサの1ピッチ分だ
け走査されるので、1画像入力時の光量分布は距離画像
用センサの1ピッチ分の幅を持つ矩形状の光量分布とな
る。
For this reason, first, in the measuring device, the position of the center of gravity of the laser light received in 256 lines from the input image is determined by the object distance output from the autofocus unit and the azimuth of the slit light to be projected, ie, the scanning start. The calculation is performed as the amount of deviation from the measurement reference plane determined based on the time from the measurement reference plane. The calculation of the pitch shift amount will be described with reference to FIG. 5. First, FIG. 5 shows a light amount distribution generated by slit light projected on the target object surface. The squares shown in the lower part of the figure indicate the area that each element of the range image sensor looks at, and the squares are numbered from 1, 2, 3, 4,... Since the slit light having an extremely narrow slit width is scanned by the rotation of the polygon mirror 7 by one pitch of the distance image sensor during one image accumulation, the light quantity distribution upon input of one image is equivalent to one pitch of the distance image sensor. Is a rectangular light quantity distribution having a width of

【0015】距離画像用センサの各画素について、それ
ぞれZ軸方向の距離情報を算出するためには、このよう
な1ピッチ幅の矩形光量分布であることが望ましい。光
量分布の幅が1ピッチ以上となった場合には計測される
距離情報は隣接する領域にまたがっている受光強度の荷
重平均として求められてしまい正確な距離情報は得られ
ない。
In order to calculate the distance information in the Z-axis direction for each pixel of the range image sensor, it is desirable that the rectangular light amount distribution has such a one-pitch width. When the width of the light quantity distribution is equal to or more than one pitch, the measured distance information is obtained as a load average of the received light intensity over the adjacent area, and accurate distance information cannot be obtained.

【0016】このような光量分布の下、図5で網点で示
している階段状の物体面が存在したとして、物体面に垂
直な方向からスリット光を投光したとする。細長い直方
体で示されているのはスリット光量分布で、斜線で示し
た領域は投光スリット像を表している。そして、投光系
光軸Oxaより左側に傾いた方向に受光系光軸Oxpを設け
た位置関係とすると、受光面での受光スリット光量分布
は後述のフィルタにより図6に示されるような分布とな
る。この受光光量には定常光成分が含まれないように、
レーザ光成分以外の定常光成分を除去するのが望まし
く、そのために、レーザ光が照射されていない状態と照
射状態の画像を入力し両者の差を用いる。下方に示され
た升目は距離画像用センサのそれぞれの素子領域を示し
ている。
It is assumed that a stepped object surface indicated by a halftone dot in FIG. 5 exists under such a light amount distribution, and slit light is projected from a direction perpendicular to the object surface. An elongated rectangular parallelepiped indicates a slit light amount distribution, and a hatched area indicates a light projection slit image. Then, assuming that the light receiving system optical axis Oxp is provided in a direction inclined to the left from the light projecting system optical axis Oxa, the light receiving slit light amount distribution on the light receiving surface is the distribution shown in FIG. Become. This received light quantity does not include the steady light component,
It is desirable to remove the stationary light component other than the laser light component. For that purpose, images in a state where the laser light is not irradiated and an image in the irradiated state are input, and the difference between the two is used. The cells shown below indicate the respective element regions of the range image sensor.

【0017】距離画像用センサの前面には、受光される
スリット光の長さ方向には分解能を低下させることな
く、スリット光の幅方向には分解能を低下させる異方性
を持つ光学フィルタが配置されており、このフィルタに
より図6に示すようなガウス分布の光量分布が生じる。
この光量分布に対して、各列1,2,3,4,・・・内
の各センサからの光量分布の重心を求めることで画素ピ
ッチより細かな分解能で受光位置の算出を行うことがで
きる。このように、スリット光入射位置を検出するのに
センサに入射するスリット光の幅を細くせずにフィルタ
を用いて5〜6画素程度の幅のある分布としているの
は、入射するスリット光の幅が1画素の幅より細くなっ
てしまうと画素ピッチと同じ程度の位置検出分解能しか
得られないためである。
On the front surface of the range image sensor, there is provided an optical filter having anisotropy for reducing the resolution in the width direction of the slit light without decreasing the resolution in the length direction of the received slit light. This filter produces a Gaussian light quantity distribution as shown in FIG.
The light receiving position can be calculated at a resolution finer than the pixel pitch by obtaining the center of the light amount distribution from each sensor in each of the columns 1, 2, 3, 4,. . As described above, when detecting the slit light incident position, the width of the slit light incident on the sensor is not narrowed but a distribution having a width of about 5 to 6 pixels is obtained by using a filter. This is because if the width is smaller than the width of one pixel, only a position detection resolution equivalent to the pixel pitch can be obtained.

【0018】第1列に入射した光量分布D1から第1列
重心位置G1が求められ、同様に第2,3,4,・・・
の各列の重心位置G2,G3,G4,・・・を求めること
で各列毎に重心が算出される。図に示すように、投光系
光軸は物体面に垂直な方向であるが、受光系光軸は左に
傾いた方向であるので、図5の様な段差を有する対象物
体の場合、低い部分(第1、2列)の重心に対して高い
部分(第3、4列)は右側にずれた位置に重心が位置す
ることになる。なお、図6には、第1列の分布D1と第
4列の分布D4の2種類の分布しか示していないが、第
2列の分布D2は第1列の分布D1と同じで、第3列の分
布D3は第4列の分布D4と同じ分布となる。これらの光
量分布と重心位置の関係を平面的に示すと図7のように
なる。第1列と第2列の分布は同じであるため求まる重
心G1、G2は同じ位置として、第3列と第4列は同じ分
布であるため重心G3、G4は同じ位置として検出され
る。
The first column center of gravity G1 is determined from the light quantity distribution D1 incident on the first column, and similarly the second, third, fourth,.
, The center of gravity is calculated for each column by calculating the center of gravity position G2, G3, G4,. As shown in the figure, the optical axis of the light projecting system is a direction perpendicular to the object plane, but the optical axis of the light receiving system is a direction inclined to the left. Therefore, in the case of a target object having a step as shown in FIG. In the portion (third and fourth rows) higher than the center of gravity of the portion (first and second rows), the center of gravity is located at a position shifted to the right. FIG. 6 shows only two types of distributions, a distribution D1 in the first column and a distribution D4 in the fourth column. However, the distribution D2 in the second column is the same as the distribution D1 in the first column. The distribution D3 in the column is the same as the distribution D4 in the fourth column. FIG. 7 is a plan view showing the relationship between the light amount distribution and the position of the center of gravity. Since the distributions of the first and second columns are the same, the centroids G1 and G2 obtained are detected as the same position, and the third and fourth columns have the same distribution, so that the centroids G3 and G4 are detected as the same position.

【0019】このように1つのスリットに対する帯状画
像から256点の入射光位置が求められ、更に、324
の方位に投光されるスリットに対して同様の計算を行う
ことで324枚の画像が得られ、256×324点から
なるピッチズレ画像が得られる。得られたピッチズレ画
像はスリット光の位置情報のみの画像であり、これから
正確な距離画像を得るにはレンズ収差の補正等の詳細な
データのテーブルからのキャリブレーション(補正)が
必要となる。これは撮影レンズの焦点距離f、ピント位
置dから推測されるレンズ収差を算出し補正を行い、カ
メラに対する縦、横方向の歪みの補正を行う。これはカ
ラー画像についても同様の処理が行われる。このときに
必要なデータは各種測定レンズの情報、すなわち、焦点
距離f、ピント位置dである。本実施例のシステムで
は、キャリブレーションはコンピュータシステム上で行
い、本計測装置(図3に図示)とはSCSI等の端子を
介して接続する、或はMO等の記録メディアでデータを
共有できるようにする。
As described above, 256 incident light positions are obtained from the strip image for one slit, and 324
324 images are obtained by performing the same calculation for the slit projected in the azimuth direction, and a pitch shift image composed of 256 × 324 points is obtained. The obtained pitch shift image is an image of only the position information of the slit light, and calibration (correction) from a table of detailed data such as correction of lens aberration is required to obtain an accurate distance image from the image. In this method, the lens aberration estimated from the focal length f and the focus position d of the photographing lens is calculated and corrected, and the vertical and horizontal distortions of the camera are corrected. The same processing is performed for a color image. The data required at this time is information on various measurement lenses, that is, the focal length f and the focus position d. In the system of the present embodiment, calibration is performed on a computer system, and the measurement apparatus (shown in FIG. 3) can be connected via a terminal such as SCSI or shared with a recording medium such as MO. To

【0020】このように計測装置本体からはカラー画
像、ピッチズレ画像をSCSI等の端子からディジタル
信号として、或はNTSC等の出力端子からアナログビ
デオ信号として出力し、キャリブレーションに必要なデ
ータはSCSI等からディジタル信号としてコンピュー
タへ出力する。また、本体に内蔵しているMOやMD等
のドライブ装置48を使って記録媒体に記録する場合も
画像と各種のデータを記録する。
As described above, a color image and a pitch shift image are output as digital signals from a terminal such as SCSI or an analog video signal from an output terminal such as NTSC from the main body of the measuring apparatus. Output to the computer as a digital signal. Also, when recording on a recording medium using a drive device 48 such as an MO or MD built in the main body, an image and various data are recorded.

【0021】取り込まれたピッチズレ画像とカラー画像
は各種の撮影レンズ情報と共に計測装置と接続されたコ
ンピュータへ転送され、コンピュータでは転送されたピ
ッチズレ画像と撮影レンズ情報とから対象物体までの距
離の情報を持った距離画像にキャリブレーション、変換
を行う。キャリブレーションを行った後、ピッチズレ画
像については、焦点距離fとピント位置d、画面内の各
縦横位置、XY位置毎に記憶されたズレ量と計測距離と
の変換曲線を導きだし、その変換曲線に基づいてピッチ
ズレ画像を距離画像に変換する。
The captured pitch shift image and color image are transferred to a computer connected to a measuring device together with various types of photographing lens information, and the computer calculates information on the distance to the target object from the transferred pitch shift image and photographing lens information. Calibration and conversion are performed on the held distance image. After the calibration, for the pitch shift image, a conversion curve between the shift distance and the measurement distance stored for each of the focal length f and the focus position d, the vertical and horizontal positions in the screen, and the XY positions is derived, and the conversion curve is obtained. The pitch shift image is converted into a distance image on the basis of.

【0022】距離画像への変換については周知であり、
詳細には、電子情報通信学会研究会資料PRU91-113
[カメラの位置決めのいらない画像の幾何学的補正]小
野寺・金谷や、電子情報通信学会論文誌D-II vol. J74
-D-II No.9 pp.1227-1235,'91/9 [光学系の3次元モデ
ルに基づくレンジファインダの高精度キャリブレーショ
ン法]植芝・吉見・大島、などに開示されている。
Conversion to a distance image is well known,
For details, see the IEICE Technical Meeting, PRU91-113.
[Geometric correction of images that do not require camera positioning] Onodera and Kanaya, IEICE Transactions D-II vol. J74
-D-II No.9 pp.1227-1235, '91 / 9 [High-precision calibration method of range finder based on three-dimensional model of optical system] is disclosed in Ueshiba, Yoshimi, Oshima and others.

【0023】以下、本発明における撮影方法及びデータ
処理の詳しい説明を行う。初めに、この3次元形状測定
装置におけるカメラ雲台を用いた分割取り込みによる高
精度入力について説明を行う。投光系、受光系間の距
離、すなわち基線長lと焦点距離f、計測対象までの距
離dが決ると、3次元的分解能、精度は決定される。そ
こで、高精度で計測するためには、焦点距離fを大きく
設定し、測定することで達成される。つまり、望遠にす
るほど測定精度は高くなる。しかし、測定精度の高い3
次元画像を得ることは出来るが、視野領域は焦点距離f
が延びるに従い狭められる。
Hereinafter, the photographing method and data processing according to the present invention will be described in detail. First, a description will be given of high-accuracy input by divisional capture using a camera platform in the three-dimensional shape measuring apparatus. When the distance between the light projecting system and the light receiving system, that is, the base line length l and the focal length f, and the distance d to the measurement object are determined, the three-dimensional resolution and accuracy are determined. Therefore, high-precision measurement is achieved by setting the focal length f large and measuring. In other words, the measurement accuracy increases as the distance increases. However, 3
Although a two-dimensional image can be obtained, the visual field region has a focal length f
As it extends.

【0024】そこで、焦点距離fを測定したい分解能、
精度に応じた値に設定し、電動雲台等の回転架台4を操
作し視野領域を複数の領域に分割して、分割した領域毎
に測定し、その結果得られた画像を貼り合わせ、1枚の
画像に再構築するものである。このような機能を持つこ
とで分解能を可変とする3次元形状測定装置が実現でき
る。また、この機能を生かすことにより、全周囲的空間
について3次元測定を行うことで、環境の測定も可能と
なる。以下に具体的例を示し、その動作の説明を行う。
なお、図8に示す例は簡略化した説明図であって、投光
系2と受光系3は水平方向の位置関係に配置されてお
り、図3に示した例とは異なっている。この配置ではス
リット光は縦方向に長さを有し左右方向に走査する必要
がある。
Therefore, the resolution at which the focal length f is desired to be measured,
The value is set to a value corresponding to the accuracy, and the rotary gantry 4 such as an electric camera platform is operated to divide the field of view into a plurality of regions, and each of the divided regions is measured. This is to reconstruct a single image. With such a function, it is possible to realize a three-dimensional shape measuring apparatus with variable resolution. By making use of this function, the environment can be measured by performing three-dimensional measurement on the entire surrounding space. A specific example will be described below, and the operation will be described.
The example shown in FIG. 8 is a simplified explanatory diagram, and the light projecting system 2 and the light receiving system 3 are arranged in a horizontal positional relationship, which is different from the example shown in FIG. In this arrangement, the slit light has a length in the vertical direction and needs to scan in the left-right direction.

【0025】画像貼り合わせ機能利用時の様子を図8に
示し、図9に画像貼り合わせ機能における動作を表わす
フローチャートを示す。図10には本機能使用時の表示
状態を示しており、画像表示部の下部に測定精度を表す
表示部がある。
FIG. 8 shows a state when the image combining function is used, and FIG. 9 is a flowchart showing an operation in the image combining function. FIG. 10 shows a display state when this function is used, and there is a display section indicating measurement accuracy below the image display section.

【0026】まず、図8(a)に示すようにユーザによ
る操作で対象物体1を視野範囲内に撮像可能な広角、ワ
イド状態(焦点距離f0)になるようにズーム駆動系1
6を駆動し視野範囲を設定する(ステップ#101)。
このときに想定されるZ軸方向(図4参照、物体の凹凸
方向)分解能は図10(a)で示すように画像の下のバ
ー表示で表現される。このZ軸方向分解能ΔZは本シス
テムのように基線長が固定の場合、簡単には測定対象ま
での距離dと測定時の焦点距離fで以下のような関係が
ある。 ΔZ = K×d×(d−f)/f (1) ここでKはZ軸方向分解能見積りのための係数であり、
センサピッチ等により決まるものである。また、上記の
ズーミング操作は、システムコンピュータからSCSI
端子を介してコマンドを送信し、遠隔操作によるズーム
操作、レリーズ操作等の動作設定も可能である。
First, as shown in FIG. 8A, the zoom drive system 1 is set to a wide angle and wide state (focal length f0) in which the target object 1 can be imaged within the field of view by an operation by the user.
6 is set to set the field of view (step # 101).
At this time, the assumed resolution in the Z-axis direction (see FIG. 4, the uneven direction of the object) is represented by a bar display below the image as shown in FIG. When the base line length is fixed as in the present system, the Z-axis direction resolution ΔZ simply has the following relationship between the distance d to the measurement target and the focal length f at the time of measurement. ΔZ = K × d × (df) / f (1) where K is a coefficient for estimating the resolution in the Z-axis direction,
It is determined by the sensor pitch and the like. In addition, the above zooming operation is performed by the system computer from the SCSI.
A command can be transmitted via a terminal, and operation settings such as a zoom operation and a release operation by remote control can be performed.

【0027】ユーザは、以上の設定操作で満足する精
度、分解能で測定が行われると判断した場合(ステップ
#102の判定でNO)には、ユーザのレリーズ操作に
より測定が開始され(ステップ#103)、その結果が
ディスプレイに表示される(ステップ#104)。この
表示は図10(a)に示すように、入力されたピッチズ
レ画像、あるいはカラー画像と、その取り込みで得られ
たZ軸方向測定分解能が画像の下のバーで表示される。
その結果、更に測定精度の高い計測を必要としない場合
(ステップ#105の判定でNO)は、この計測で完了
し記憶メディアへの書き込みを行うか否かの判定をユー
ザに求め、それに応じた処理を行い動作を完了する。
If the user determines that the measurement is performed with the accuracy and resolution that are satisfied by the above setting operation (NO in step # 102), the measurement is started by the user's release operation (step # 103). ), And the result is displayed on the display (step # 104). In this display, as shown in FIG. 10A, the input pitch shift image or color image and the measurement resolution in the Z-axis direction obtained by capturing the image are displayed as bars below the image.
As a result, when measurement with higher measurement accuracy is not required (NO in step # 105), the user is asked to determine whether or not to complete the measurement and write data to the storage medium. Perform the processing and complete the operation.

【0028】ユーザは、満足する精度で測定が行われな
いと判断した場合(ステップ#102の判定でYE
S)、あるいは一度目のレリーズ操作により取り込まれ
たピッチズレ画像、あるいはZ軸方向測定分解能表示に
より、ユーザは所望のZ軸方向分解能、精度の設定をキ
ー操作により精度を変更して再測定の指示を行うことが
できる(ステップ#105の判定でYES)。
When the user determines that the measurement is not performed with satisfactory accuracy (YE in the determination in step # 102)
S), or the pitch shift image captured by the first release operation, or the display of the Z-axis direction measurement resolution, allows the user to change the accuracy by key operation to set the desired Z-axis direction resolution and accuracy, and instruct re-measurement. Can be performed (YES in step # 105).

【0029】この精度設定キー入力が行われると、シス
テムはそのときの状態、すなわち測定対象の全景が捕え
られた状態の焦点距離f0と、AFセンサから得られる
測定対象までの概略距離dとをメモリし視野範囲の記憶
を行う(ステップ#106)。さらに入力された所望の
Z軸方向測定分解能と概略距離dから上式(1)を用いて
設定すべき焦点距離f1の算出を行う(ステップ#10
7)。
When the accuracy setting key is input, the system determines the current state, that is, the focal length f0 in a state where the entire view of the measurement target is captured, and the approximate distance d to the measurement target obtained from the AF sensor. The memory is stored to store the field of view (step # 106). Further, the focal length f1 to be set is calculated from the input desired resolution in the Z-axis direction and the approximate distance d using the above equation (1) (step # 10).
7).

【0030】焦点距離f1が算出されると、その焦点距
離f1に自動的にズーミングを行い(ステップ#10
8)、記憶された測定すべき視野範囲、概略距離d、焦
点距離f1より分割入力すべきフレーム数、それに応じ
たパン、チルト角度の算出、パン、チルト回転架台のパ
ン、チルトにより視野位置の設定を行い(ステップ#1
09)、各分割入力フレームでの計測を行う(ステップ
#110)。画像貼り合わせ機能時の分割入力する画像
は、後で貼り合わせて1枚の画像に再構築するために、
のりしろとなるべき重複部分を含むよう設定される。
When the focal length f1 is calculated, zooming is automatically performed on the focal length f1 (step # 10).
8) The number of frames to be divided and input based on the stored visual field range to be measured, the approximate distance d, and the focal length f1, the calculation of the pan and tilt angles corresponding thereto, and the pan and tilt of the pan / tilt rotation base to determine the visual field position Make settings (Step # 1)
09), measurement is performed for each divided input frame (step # 110). The image to be divided and input at the time of the image stitching function is to be stitched later and reconstructed into one image.
It is set to include the overlap that should be the margin.

【0031】得られたピッチズレ画像、カラー画像、取
り込まれたX、Y方向の視野方向を示す情報(例えば、
パン、チルトのデコード角度値、あるいは、X、Y方向
の取り込み順番など)、レンズ焦点距離、測定距離情報
は内部のMO記憶装置に記憶される(ステップ#11
1)。この際、メモリへファイル名、ファイルサイズ等
のディレクトリ情報の書き込みは行わず、最後にユーザ
の確認の後にディレクトリ情報の書き込みを行うことで
一時的な格納にすることも可能である。
Information indicating the obtained pitch shift image, color image, and captured view directions in the X and Y directions (for example,
The pan / tilt decode angle values or the order of capture in the X and Y directions, the lens focal length, and the measured distance information are stored in an internal MO storage device (step # 11).
1). At this time, the directory information such as the file name and the file size is not written into the memory, and the directory information can be written after the user's confirmation at the end to temporarily store the information.

【0032】次に、上記の視野位置とわずかに重複され
た視野位置に、算出されたパン、チルト角度に従いパ
ン、チルト操作で視野を制御し隣接する領域の画像の入
力を行い、この動作を繰り返すことで全領域の入力を行
う(ステップ#112の判定でNO、図8(b)参
照)。
Next, in the field of view slightly overlapped with the above field of view, the field of view is controlled by the pan and tilt operations according to the calculated pan and tilt angles, and an image of an adjacent area is input. By repeating the above, the input of the entire area is performed (NO in the determination in step # 112, see FIG. 8B).

【0033】全領域の入力が終了した時点(ステップ#
112の判定でYES)で、測定精度を高くする前の初
期のカメラ姿勢、焦点距離に戻して(ステップ#11
3)動作を完了し、ユーザの書き込みの判断を待ち、書
き込み指示の場合にはディレクトリ情報の書き込みを行
い、書き込まないという指示の時は、ディレクトリ情報
の書き込みを行わずに終了することで、それまでの連続
してメモリに格納しておいた情報を消去する。
When the input of all areas is completed (step #
In the case of YES in the determination of 112), the camera is returned to the initial camera posture and the focal length before the measurement accuracy is increased (step # 11).
3) Complete the operation, wait for the user to judge the writing, write the directory information in the case of the write instruction, and terminate without writing the directory information in the case of the instruction not to write. The information stored in the memory up to the next is erased.

【0034】また、上記の操作のように、事前に測定を
行い再度測定を行う場合には、1度目の測定により対象
物体までの距離測定、また測定画角内での距離分布の測
定が完了している。そこで、この対象物体との距離に大
きな差を持つ領域、すなわち測定対象とは違う周辺領域
(背景)のみとなる分割入力フレームについては貼り合
わせのため再測定は行わず、対象物体を含む分割入力フ
レームのみの再測定を行うことも可能である。図10
(b)に示す例では、対象物体が含まれる網点領域が再
測定を行う領域で、他の領域は対象物体が無い領域で再
測定は行われない領域であることを示している。
When the measurement is performed in advance and the measurement is performed again as in the above operation, the distance measurement to the target object and the measurement of the distance distribution within the measurement angle of view are completed by the first measurement. are doing. Therefore, re-measurement is not performed for a region having a large difference in the distance from the target object, that is, a divided input frame including only a peripheral region (background) different from the measurement target because of the bonding. It is also possible to perform re-measurement of only the frame. FIG.
In the example shown in (b), the halftone dot region including the target object is a region where the re-measurement is performed, and the other region is a region where the target object is not included and the re-measurement is not performed.

【0035】以上説明したように、高速な3次元計測が
可能となり、この3次元計測をもとに部分的入力を繰り
返し、貼り合わせ作業を行うことで分解能を自由に設定
可能な3次元形状計測が可能となる。
As described above, high-speed three-dimensional measurement can be performed, and three-dimensional shape measurement in which the resolution can be freely set by repeating a partial input based on the three-dimensional measurement and performing a bonding operation. Becomes possible.

【0036】このような貼り合わせ計測においては、全
画面の分解能が均一の分解能で測定が行われるが、人間
の顔のように目、口、鼻の部分であれば形状、色彩情報
が複雑で分解能の高いデータが必要となるが、頬、額な
ど低い分解能で十分測定の要を足す測定対象も考えられ
る。このような測定対象については、部分的なズーミン
グ動作によりデータ貼り合わせを行うことで効率の良い
データ入力が実現しうる。この部分ズーミング貼り合わ
せ機能は以下の動作で実現する。
In such a bonding measurement, the resolution of the entire screen is measured at a uniform resolution, but the shape, color information is complicated for the eyes, mouth, and nose like a human face. Although high-resolution data is required, a measurement target such as a cheek or a forehead, which needs sufficient measurement at a low resolution, may be used. For such a measurement target, efficient data input can be realized by performing data bonding by a partial zooming operation. This partial zooming bonding function is realized by the following operation.

【0037】図11にこの部分ズーミング貼り合わせ機
能の動作を示すフローチャートを示す。まず、ステップ
#201で均一分解能貼り合わせの場合と同様に、測定
対象の全体域を捕える視野設定を行い、ステップ#20
2で部分ズーミング入力モードの選択を行う。選択が行
われると、現在設定されている焦点距離f0、パン・チ
ルトのデコード角度値をメモリし(ステップ#20
3)、焦点距離f0の状態で測定を開始し概略画像デー
タとして画像入力を行う(ステップ#204)。その結
果得られたピッチズレ画像、カラー画像、その画像の取
り込まれたX、Y方向の視野方向を示す情報(例えば、
パン、チルトのデコード角度値)、レンズ焦点距離、測
定距離情報は内部の記憶装置に記憶される(ステップ#
205)。続いてステップ#206で最大焦点距離fma
xになるようにズーミングを行った後、上記の概略画像
データの解析を行い、ズーミング後入力される分割入力
フレーム毎に再計測を実施するか否かを決定する。
FIG. 11 is a flowchart showing the operation of the partial zooming and bonding function. First, as in the case of the uniform resolution bonding in step # 201, a visual field setting for capturing the entire area of the measurement target is performed, and step # 20 is performed.
In step 2, a partial zooming input mode is selected. When the selection is made, the currently set focal length f0 and pan / tilt decode angle values are stored in memory (step # 20).
3), measurement is started in the state of the focal length f0, and image input is performed as general image data (step # 204). The resulting pitch shift image, color image, and information indicating the view direction of the captured X and Y directions of the image (for example,
Pan and tilt decode angle values), lens focal length, and measured distance information are stored in an internal storage device (step #).
205). Subsequently, in step # 206, the maximum focal length fma
After zooming to x, the above-described schematic image data is analyzed, and it is determined whether or not to perform re-measurement for each divided input frame input after zooming.

【0038】ズーミングを行い最大焦点距離fmaxで測
定を行った場合、入力しうるフレームサイズにこの概略
データを分割する。ステップ#207でパン・チルト位
置X,Yをスタート初期位置Xs、Ysにセットする。ス
テップ#208でセットされたX,Y位置にパン・チル
トを制御する。次に、ステップ#209で、X±ΔX、
Y±ΔYの領域の初期入力カラー画像のカラー情報R、
G、B値について統計処理を行い各領域についての標準
偏差σR、σG、σB の算出を行う。ステップ#210で
これらの算出されたすべての標準偏差σR、σG、σB の
値ががそれぞれ設定された所定値未満であるかを判別
し、所定値未満であれば、その小領域は明暗色情報は一
様な領域であるとしてズーミング測定は実施せずにステ
ップ#211へ進む。逆に所定値以上となる標準偏差σ
R、σG、σB がある場合には複雑な色彩情報を有する領
域であると判断してズーミング測定を行う(ステップ#
213)。
When the zooming is performed and the measurement is performed at the maximum focal length fmax, the rough data is divided into inputtable frame sizes. In step # 207, the pan / tilt positions X and Y are set to the initial start positions Xs and Ys. The pan / tilt is controlled to the X and Y positions set in step # 208. Next, in step # 209, X ± ΔX,
The color information R of the initial input color image in the area of Y ± ΔY,
Statistical processing is performed on the G and B values to calculate standard deviations σR, σG, and σB for each area. In step # 210, it is determined whether all the calculated standard deviations σR, σG, and σB are less than the set predetermined values. Is a uniform area, and the process proceeds to step # 211 without performing the zooming measurement. Conversely, standard deviation σ that is equal to or greater than a predetermined value
If there is R, σG, σB, it is determined that the area has complex color information, and zooming measurement is performed (step #).
213).

【0039】ステップ#211ではX±ΔX、Y±ΔY
の領域の初期入力距離値dの情報から標準偏差σdを算
出し、ステップ#212では算出された標準偏差σdの
値が設定された所定値未満であるかを判別し、所定値未
満であればその小領域は形状変化の少ない平坦な領域で
あるとしてズーミング測定は行わず、ステップ#215
へ進む。逆に所定値以上であれば複雑な形状(距離情
報)を有する領域であるとしてズーミング測定を行う
(ステップ#213)。
At step # 211 X ± ΔX, Y ± ΔY
The standard deviation σd is calculated from the information of the initial input distance value d in the area of, and in step # 212, it is determined whether the calculated value of the standard deviation σd is smaller than a predetermined value. Since the small area is a flat area with little change in shape, zooming measurement is not performed, and step # 215 is performed.
Proceed to. Conversely, if the value is equal to or more than the predetermined value, it is determined that the region has a complicated shape (distance information) and zooming measurement is performed (step # 213).

【0040】ステップ#213でのズーミング測定の
後、得られたピッチズレ画像、カラー画像、その画像が
取り込まれたX、Y方向の視野方向を示す情報(例え
ば、パン、チルトのデコード角度値)、レンズ焦点距
離、測定距離情報等の情報が内部のMO等の記憶装置に
記憶される(ステップ#214)。その後は、ステップ
#215へ進む。
After the zooming measurement in step # 213, the obtained pitch shift image, color image, information indicating the viewing direction in the X and Y directions from which the image has been captured (eg, pan and tilt decode angle values), Information such as lens focal length and measured distance information is stored in a storage device such as an internal MO (step # 214). Thereafter, the process proceeds to step # 215.

【0041】次にステップ#215では、パン・チルト
位置Xを2ΔXだけ変化させる。ステップ#216でX
方向走査が完了しているかを判別し、完了していなけれ
ばステップ#208へ戻る。完了していればステップ#
217でパン・チルト位置Yを2ΔYだけ変化させる。
ステップ#218で全走査が完了しているかを判別し、
完了していなければステップ#208へ戻り、完了して
いればステップ#219へ進み本ルーチンを終了する。
Next, in step # 215, the pan / tilt position X is changed by 2ΔX. X in step # 216
It is determined whether the directional scanning has been completed, and if not, the process returns to step # 208. Step # if completed
At 217, the pan / tilt position Y is changed by 2ΔY.
In step # 218, it is determined whether or not all the scans have been completed.
If not completed, the process returns to step # 208. If completed, the process proceeds to step # 219, and this routine ends.

【0042】このように、概略画像データと、位置の判
別が可能な部分詳細画像情報の入力ができ、概略画像デ
ータにその位置にあった部分詳細画像データを貼り合わ
せることで形状や色彩情報の複雑さに応じた効率の良い
3次元入力が実現できる。
As described above, the general image data and the partial detailed image information whose position can be determined can be input, and the partial detailed image data at the position can be attached to the general image data to obtain the shape and color information. Efficient three-dimensional input according to complexity can be realized.

【0043】以上説明した実施例では、ズーミングを行
なうことでレンズの焦点距離を変化させ対象物の形状及
び色に適応した精度で撮影しているが、焦点距離の異な
る2つのレンズ(長焦点レンズと短焦点レンズ)を用
い、対象物の形状及び色が複雑であると判断された領域
は長焦点レンズを介して、その他の領域は短焦点レンズ
を介して撮影することも可能である。
In the embodiment described above, the focal length of the lens is changed by performing zooming, and photographing is performed with an accuracy suitable for the shape and color of the object. However, two lenses having different focal lengths (long focal length lens) are used. And a short focal length lens), it is also possible to take an image of a region where the shape and color of the object are determined to be complicated through a long focal length lens, and to photograph other regions through a short focal length lens.

【0044】次に、貼り合わせのためのデータ処理につ
いて説明する。これは、前述したカメラ装置を用いて入
力された複数の画像データを1つの座標系に座標変換す
ることで、複数の画像データを1枚の画像データにする
ものである。
Next, data processing for bonding will be described. This is to convert a plurality of pieces of image data into one piece of image data by performing coordinate transformation of a plurality of pieces of image data input using the above-described camera device into one coordinate system.

【0045】まず、カメラを雲台に乗せて撮影した場合
の貼り合わせについて説明する。これは、パン、チルト
できる雲台に載せたカメラで、パン、チルトさせなが
ら、固定された対象物を複数回撮影し、撮影された複数
の画像データを1つの座標系に座標変換させ貼り合わせ
画像を得るものである。
First, a description will be given of the bonding in the case where the camera is mounted on the camera platform for photographing. This is a camera mounted on a pan / tilt pan head that shoots a fixed object multiple times while panning and tilting, transforms the captured image data into one coordinate system, and pastes them together. It is for obtaining an image.

【0046】カメラをパン、チルトさせる場合、回転角
が高精度に制御できる場合は問題無く高精度の貼り合わ
せが可能である。しかし、一般に高精度の雲台は非常に
高価であるため回転角の制御に多くの誤差を含んだ安価
な雲台での撮影が望まれる。
When the camera is panned or tilted, if the rotation angle can be controlled with high precision, high-precision bonding can be performed without any problem. However, since a high-precision camera platform is generally very expensive, it is desired to take an image with an inexpensive camera platform that includes many errors in controlling the rotation angle.

【0047】この場合、図12に示すようなカメラモデ
ルを用意する。これは、パン、チルトするカメラを3次
元座標上に表わしたものである。尚、図12中、Cはカ
メラ、Θはカメラ回転軸(パン)、Φはカメラ回転軸
(チルト)である。
In this case, a camera model as shown in FIG. 12 is prepared. This represents a panning / tilting camera on three-dimensional coordinates. In FIG. 12, C is a camera, Θ is a camera rotation axis (pan), and Φ is a camera rotation axis (tilt).

【0048】モデルのパラメータ(パン回転軸の方向と
位置、チルト回転軸の方向と位置)についてはあらかじ
めキャリブレーションを行い求めておく。そして、以下
で行う接合点(2枚の画像データが接合する点)の探索
はモデルのパラメータΘ(パン角)、Φ(チルト角)を
変更することで行う。
The model parameters (the direction and position of the pan rotation axis and the direction and position of the tilt rotation axis) are determined in advance by performing calibration. The search for a junction point (a point where two pieces of image data are joined) performed below is performed by changing the model parameters Θ (pan angle) and Φ (tilt angle).

【0049】この動作について図13のフローチャート
で説明する。まず撮影されたデータ(前述したように、
カメラ装置内部の記憶装置に記憶されている)から、2
次元カラー画像、3次元データ、焦点距離、基準面距離
を取り込む(ステップ#301)。次に、2次元カラー
画像から接合点の探索を行う(ステップ#302、詳し
くは後述する)。
This operation will be described with reference to the flowchart of FIG. First, the photographed data (as mentioned above,
Stored in a storage device inside the camera device)
A three-dimensional color image, three-dimensional data, a focal length, and a reference plane distance are captured (step # 301). Next, a search for a joining point is performed from the two-dimensional color image (step # 302, which will be described in detail later).

【0050】ところが、パン、チルトして撮影した2枚
の画像の計測点は必ずしも一致するものではない(同じ
撮影距離、焦点距離で撮影した場合でも最大半画素分ず
れている)。したがって、カラー画像(2次元データ)
により1画素以内まで接合点の探索ができたとみなし、
それ以下の探索を3次元データを用いて行う。
However, the measurement points of the two images shot by panning and tilting do not always coincide (even when shot at the same shooting distance and focal length, they are shifted by a maximum of half a pixel). Therefore, a color image (two-dimensional data)
It is assumed that the search for the junction point has been completed up to one pixel.
The following search is performed using the three-dimensional data.

【0051】まず、2次元画像接合点と焦点距離、基準
面距離からカメラ回転角(パン角Θ、チルト角Φ)を算
出する(ステップ#303、詳しくは後述する)。次
に、この算出されたカメラ回転角により、3次元空間の
座標変換パラメータを算出する(ステップ#304、詳
しくは後述する)。
First, the camera rotation angle (pan angle Θ, tilt angle Φ) is calculated from the two-dimensional image joining point, the focal length, and the reference plane distance (step # 303, details will be described later). Next, a coordinate conversion parameter in a three-dimensional space is calculated based on the calculated camera rotation angle (step # 304, details of which will be described later).

【0052】次に、接続箇所を通る2つの平面の法線が
なす角度の自乗和を評価値としてこれを最小にする探索
を行う(ステップ#305)。この評価値の算出方法に
ついては後で詳しく説明する。
Next, a search is made to minimize the sum of the squares of the angles formed by the normals of the two planes passing through the connection point (step # 305). The method of calculating the evaluation value will be described later in detail.

【0053】2次元画像での粗い探索を行っているため
3次元データに対しては非常に狭い範囲での探索で終え
ることができる。トータルとして、3次元データのみで
探索を行うよりも計算量は少なくてすみ高速の貼り合わ
せが可能となる。
Since a rough search is performed in a two-dimensional image, a search in a very narrow range can be completed for three-dimensional data. As a whole, the amount of calculation is smaller than when searching only with three-dimensional data, and high-speed bonding can be performed.

【0054】次に、この算出された評価値が一定値以下
であるかを判断し(ステップ#306)、一定値以下な
ら最後に求めた座標変換パラメータを用いて、2つの3
次元画像を同一座標系に変換し貼り合わせを行ない(ス
テップ#307)、動作を終了する(ステップ#31
0)。尚、座標変換の方法については後述する。
Next, it is determined whether or not the calculated evaluation value is equal to or smaller than a predetermined value (step # 306). If the calculated evaluation value is equal to or smaller than the predetermined value, two 3
The two-dimensional images are converted into the same coordinate system and are bonded (Step # 307), and the operation is terminated (Step # 31).
0). The method of coordinate conversion will be described later.

【0055】ステップ#306の判断で評価値が一定値
以下でなければ、次に、この連続性評価の繰り返し回数
が一定以上かを判断し(ステップ#308)、一定以上
ならステップ#307の貼り合わせ処理を行う。これ
は、繰り返し回数が一定以上になれば評価値が収束し
て、それ以上の繰り返しが必要なくなるためである。
If it is determined in step # 306 that the evaluation value is not equal to or smaller than the predetermined value, it is next determined whether the number of repetitions of the continuity evaluation is equal to or greater than a predetermined value (step # 308). Perform alignment processing. This is because the evaluation value converges when the number of repetitions exceeds a certain value, and it is not necessary to perform any more repetitions.

【0056】ステップ#308の判断で、繰り返し回数
が一定以上でなければ、次に、ステップ#305で求め
た評価値が小さくなる方向にカメラの回転角を微小変動
させ(ステップ#309)、ステップ#304へ行き、
接続部分のパッチの連続性評価を繰り返す。
If it is determined in step # 308 that the number of repetitions is not equal to or greater than the predetermined value, then the rotation angle of the camera is slightly changed in a direction in which the evaluation value obtained in step # 305 becomes smaller (step # 309). Go to # 304,
Repeat the continuity evaluation of the patch at the connection.

【0057】次に、各ステップの詳しい説明をする。ま
ず、ステップ#302の2次元カラー画像からの接合点
の探索方法を図14〜16を参照しながら説明する。図
14のように、貼り合わせを行う2つの画像はのりしろ
部(幅T画素)を持っていることを前提とする。図15
(a)のように、一方の画像ののりしろ部の中央部に基
準ウィンドウを設定する(図15(a)中の点線はのり
しろ部の中心線である)。図15(a)の基準ウィンド
ウ部を拡大したものが図15(b)であり、この基準ウ
ィンドウを更に8×8(画素)程度の小ウィンドウに分
割する。この小ウィンドウの中で複雑な形状や模様を持
っているもの(分散値の大きいもの)を比較用ウィンド
ウとする。これは、エッジのはっきりした部分や複雑な
模様や形状を持つ箇所を用いた方が信頼性の高い評価が
可能になるためである。
Next, each step will be described in detail. First, a method of searching for a joint point from a two-dimensional color image in step # 302 will be described with reference to FIGS. As shown in FIG. 14, it is assumed that the two images to be combined have a marginal portion (width T pixels). FIG.
As shown in FIG. 15A, a reference window is set at the center of the margin of one image (the dotted line in FIG. 15A is the center line of the margin). FIG. 15B is an enlarged view of the reference window portion of FIG. 15A. The reference window is further divided into small windows of about 8 × 8 (pixels). A window having a complicated shape or pattern (large variance) among the small windows is set as a comparison window. This is because the use of a portion having a clear edge or a portion having a complicated pattern or shape enables highly reliable evaluation.

【0058】他方の画像には、基準ウィンドウと同じサ
イズで、のりしろ部を全て網羅できるように移動する探
索ウィンドウを設定する(図16)。
In the other image, a search window is set which has the same size as the reference window and moves so as to cover all the margins (FIG. 16).

【0059】この探索ウィンドウにおいても、基準ウィ
ンドウ内の比較用ウィンドウと相対的に同じ位置に小ウ
ィンドウを設定し、この小ウィンドウと比較用ウィンド
ウとの輝度差の自乗和を評価値とし、接合点を探索す
る。
Also in this search window, a small window is set at the same position as the comparison window in the reference window, and the sum of squares of the luminance difference between this small window and the comparison window is used as an evaluation value. To explore.

【0060】次に、ステップ#303の2次元画像接合
点と焦点距離、基準面距離からカメラ回転角を算出する
方法を説明する。
Next, a method of calculating the camera rotation angle from the two-dimensional image joining point, the focal length, and the reference plane distance in step # 303 will be described.

【0061】画素サイズをPS、カメラプレーンサイズ
を2×S、焦点距離をf、ずれ画素数をtとすると、回
転軸とカメラ位置が一致している(回転軸とカメラの光
軸が交わっている)場合は、カメラ回転角θは次の式で
求められる(図17)。 θ=π−arctan(S/f)−arctan((S−PS×t)/f) また、回転軸とカメラ位置が一致していない(回転軸と
カメラの光軸がずれている)場合は、回転半径(回転軸
とカメラの光軸間の距離)をr、基準面距離をDとする
と次の式になる。 t×PS×D/f=2S×D/f−(D+r×sinθ)/t
an(π−arctan(f/S)−θ)−S×D/f−r×cosθ 回転軸とカメラ位置が一致していない場合、計算は複雑
になり回転角は単純には求められない。したがって、探
索的な方法であらかじめずれ画素数(t)に対応する角
度を求めテーブルを作成しておけば容易に回転角を求め
られる。
Assuming that the pixel size is PS, the camera plane size is 2 × S, the focal length is f, and the number of shifted pixels is t, the rotation axis coincides with the camera position (the rotation axis intersects with the optical axis of the camera). ), The camera rotation angle θ is obtained by the following equation (FIG. 17). θ = π−arctan (S / f) −arctan ((S−PS × t) / f) When the rotation axis and the camera position do not match (the rotation axis and the optical axis of the camera are displaced), When the radius of rotation (distance between the rotation axis and the optical axis of the camera) is r and the reference plane distance is D, the following equation is obtained. t × PS × D / f = 2S × D / f− (D + r × sin θ) / t
an (π-arctan (f / S) −θ) −S × D / fr × cos θ When the rotation axis does not match the camera position, the calculation becomes complicated and the rotation angle cannot be simply obtained. Therefore, if an angle corresponding to the number of shifted pixels (t) is obtained in advance by a search method and a table is created, the rotation angle can be easily obtained.

【0062】次に、ステップ#304のカメラの座標変
換パラメータの算出方法と、ステップ#307の座標変
換の方法について説明する。2つのカメラの座標系をそ
れぞれC1(X1,Y1,Z1)、C2(X2,Y2,
Z2)、カメラ回転軸の位置をT(t1,t2,t
3)、カメラの回転方向を(1,0,0)(C1の座標
系においてX軸回りの回転)とすると、回転軸回りにθ
回転した場合のC2をC1の座標系に変換するには以下
のようになる。 C2−T=R(θ)・(C1−T) ただし、R(θ)はカメラ回転角θから、次の式で求めら
れる
Next, the method of calculating the coordinate conversion parameters of the camera in step # 304 and the method of coordinate conversion in step # 307 will be described. Let the coordinate systems of the two cameras be C1 (X1, Y1, Z1) and C2 (X2, Y2,
Z2), the position of the camera rotation axis is T (t1, t2, t
3) If the rotation direction of the camera is (1, 0, 0) (rotation about the X axis in the coordinate system of C1), θ around the rotation axis
To convert C2 when rotated to the coordinate system of C1, it is as follows. C2−T = R (θ) · (C1−T) where R (θ) is obtained from the camera rotation angle θ by the following equation.

【0063】[0063]

【数1】 (Equation 1)

【0064】である。したがって、C2座標系のC1座
標系への変換は、パラメータR(θ)、Tにより次式のよ
うになる。 C1=R(θ)~1・(C2−T)+T つまり、点C1(C1座標系)を回転軸上まで平行移動
させ、回転軸上でC2座標系に座標変換し(θ回転させ
る)、回転軸上から点C2まで平行移動させることで行
う。
Is as follows. Therefore, the conversion from the C2 coordinate system to the C1 coordinate system is represented by the following equation using the parameters R (θ) and T. C1 = R (θ) ~ 1 · (C2−T) + T That is, the point C1 (C1 coordinate system) is translated to the rotation axis, and the coordinate is converted to the C2 coordinate system on the rotation axis (θ rotation), This is performed by performing parallel movement from the rotation axis to the point C2.

【0065】以上はパン角に対してであるが、チルト角
に対しても回転軸をY軸とするだけで同様に座標変換が
行える。
Although the above description is for the pan angle, the coordinate conversion can be similarly performed for the tilt angle only by setting the rotation axis to the Y axis.

【0066】次に、ステップ#305の、接続部分のパ
ッチの連続性評価値の算出方法について図18のフロー
チャート及び図19で詳しく説明する。
Next, the method of calculating the continuity evaluation value of the patch at the connection portion in step # 305 will be described in detail with reference to the flowchart of FIG. 18 and FIG.

【0067】まず、2次元カラー画像から探索した接合
点を含む2つの画像の3次元データを取り込み(ステッ
プ#401)、第一の画像(図19中、白丸で表わされ
る画像)と、第二の画像(図19中、黒丸で表わされる
画像)の接続箇所における面1〜12に対して面の中央
における法線を計算する(ステップ#402)。
First, three-dimensional data of two images including the junction point searched from the two-dimensional color image is fetched (step # 401), and the first image (the image represented by a white circle in FIG. 19) and the second image 19 (the image represented by a black circle in FIG. 19), the normal at the center of the plane is calculated for the planes 1 to 12 at the connection point (step # 402).

【0068】次に、第一の画像について、 e1(1)=(1と2−1の法線のなす角度)−(1と2−12
の法線のなす角度) を計算し、同様にして4以降n個の面の組についても計
算を行いその2乗和(E1)を求める(ステップ#40
3)。
Next, for the first image, e1 (1) = (angle between normals of 1 and 2-1) − (1 and 2-12
(The angle formed by the normals of the planes), and similarly, a set of 4 and subsequent n faces is calculated to obtain the sum of squares (E1) (step # 40).
3).

【0069】また、第二の画像についても同様に、 e2(1)=(3と2−2の法線のなす角度)−(3と2−12
の法線のなす角度) を計算し、同様にして6以降n個の面の組についても計
算を行いその2乗和(E2)を求める(ステップ#40
4)。
Similarly, for the second image, e2 (1) = (the angle between the normals of 3 and 2-2)-(3 and 2-12
(The angle formed by the normal line of), and similarly, a set of n and subsequent n faces is calculated to obtain the sum of squares (E2) (step # 40).
4).

【0070】そして、 (E1+E2)/n を用いてスムースな接合ができているかを評価し(ステ
ップ#405)、その評価値をメインルーチンに返す
(ステップ#406)。
Then, it is evaluated whether or not a smooth joint is made by using (E1 + E2) / n (step # 405), and the evaluation value is returned to the main routine (step # 406).

【0071】次に、複数のカメラで撮影したデータの貼
り合わせについて説明する。複数台のカメラで撮影する
場合はお互いのカメラを撮影することで相対的な位置、
向きが測定できるので、そのデータに基づいて対象物の
位置(回転軸の位置に相当)と対象物から見たカメラ間
の角度(回転角に相当)を求め、それに基づいて座標変
換パラメータ求め、2つの3次元画像を同一座標系に変
換し貼り合わせを行う。尚、貼り合わせ動作の詳細は、
前述したカメラ雲台を用いた撮影と同様なので、ここで
は説明を省略する。
Next, a description will be given of the bonding of data shot by a plurality of cameras. When shooting with multiple cameras, shoot each other's cameras to determine their relative position,
Since the orientation can be measured, the position of the object (corresponding to the position of the rotation axis) and the angle between the cameras viewed from the object (corresponding to the rotation angle) are determined based on the data, and the coordinate conversion parameters are determined based on the angle. The two three-dimensional images are converted into the same coordinate system and are bonded. For details of the bonding operation,
Since this is the same as the above-described shooting using the camera platform, the description is omitted here.

【0072】また、カメラ同士を撮影する際に、被写体
を撮影するよりも長焦点のレンズを使用すればカメラ位
置が被写体データよりも高精度に求められ貼り合わせる
際に被写体データに悪影響を与えずにすむ。
Also, if a long focal length lens is used for photographing between the cameras when photographing the objects, the camera position is obtained with higher precision than the object data, and the object data is not adversely affected when the images are bonded. I'm sorry.

【0073】次に、被写体を回転ステージに乗せて撮影
した場合のデータの貼り合わせについて図20及び図2
1のフローチャートで説明する。図20は被写体を乗せ
る回転ステージである。回転ステージは、周囲が多面体
で構成されており、各平面の法線は回転軸に直行し回転
軸から等距離に配置されている。従って各平面が測定で
きればこの回転ステージの回転軸の方向と位置が求めら
れる。
Next, a description will be given of the bonding of data in the case where an object is photographed while mounted on a rotating stage.
1 will be described. FIG. 20 shows a rotary stage on which a subject is placed. The periphery of the rotary stage is composed of a polyhedron, and the normal of each plane is perpendicular to the rotation axis and is arranged at an equal distance from the rotation axis. Therefore, if each plane can be measured, the direction and position of the rotation axis of the rotary stage can be obtained.

【0074】例えば、図22(回転ステージによる撮影
をモデル化したもの)のように、この回転ステージが測
定範囲内にはいるよう回転ステージを90°ずつ回転さ
せ4枚の3次元、2次元データを撮影する(ステップ#
502)。次に、撮影された4枚の各撮影データに対し
て被写体と回転ステージ部のデータを分離し、下部にあ
る回転ステージの一部である平面群を抽出する(ステッ
プ#503)。またこの時、回転ステージの平面部に特
定の色をつけておけばカラー画像により一層簡単に抽出
が可能となる。
For example, as shown in FIG. 22 (a model obtained by taking a picture of the rotating stage), the rotating stage is rotated by 90 ° so that the rotating stage is within the measurement range, and four pieces of three-dimensional and two-dimensional data are obtained. Shooting (step #
502). Next, the data of the subject and the rotary stage section are separated from each of the four pieces of captured data, and a plane group that is a part of the lower rotary stage is extracted (step # 503). At this time, if a specific color is given to the plane portion of the rotary stage, it is possible to more easily extract the color image.

【0075】次に、ステップ#503で分離したデータ
のうち、回転ステージ部のデータを用い回転ステージの
位置及び姿勢を算出する(ステップ#504)。尚、こ
の方法については後で詳しく説明する。
Next, among the data separated in step # 503, the position and orientation of the rotary stage are calculated using the data of the rotary stage (step # 504). This method will be described later in detail.

【0076】ステップ#504のサブルーチンで求めた
回転ステージの位置姿勢及び回転角より各撮影データに
対する座標変換(回転軸回り)パラメータを算出する
(ステップ#505)、そして、このパラメータに基づ
いて座標変換を行い各撮影データを1つの座標系に統一
する(ステップ#506)。尚この回転角からのパラメ
ータ算出方法及び座標変換の方法は、カメラの回転角を
回転ステージの回転角に置き換えれば、前述したカメラ
雲台を用いるときのパラメータ算出方法及び座標変換の
方法と同じである。
From the position and orientation of the rotary stage and the rotation angle obtained in the subroutine of step # 504, a coordinate conversion (around the rotation axis) parameter for each photographing data is calculated (step # 505). Is performed to unify each photographing data into one coordinate system (step # 506). Note that the method of calculating parameters from the rotation angle and the method of coordinate conversion are the same as the above-described parameter calculation method and coordinate conversion method when using the camera platform, if the rotation angle of the camera is replaced with the rotation angle of the rotation stage. is there.

【0077】次に、接続部を設定し(方法は後述す
る)、各撮影データにおいて境界外のデータを削除し、
接合部にて面を再構成し(ステップ#507)、3次元
データの貼り合わせを終了する(ステップ#508)。
Next, a connection section is set (the method will be described later), and data outside the boundary is deleted from each photographed data.
The surface is reconstructed at the joint (Step # 507), and the bonding of the three-dimensional data is completed (Step # 508).

【0078】この結果、図23のように第1の画像(黒
い点)と第2の画像(白い点)が境界面を介して貼り合
わされ1つの画像になる。
As a result, as shown in FIG. 23, the first image (black point) and the second image (white point) are pasted together via the boundary to form one image.

【0079】ステップ#504の回転ステージの位置及
び姿勢の算出方法を図24のフローチャートを使って説
明する。まず、回転ステージ3次元データと回転ステー
ジカラー画像を取り込み(ステップ#601)、そのデ
ータを各平面ごとにデータ分離する(ステップ#60
2)。次に、各平面ごとに平面の法線ベクトルを算出し
(ステップ#603)、この法線ベクトルに垂直で、各
平面から等距離にある直線を回転軸とし(ステップ#6
04)、この回転軸を回転ステージの位置・姿勢として
メインルーチンに返す(ステップ#605)。
The method of calculating the position and orientation of the rotary stage in step # 504 will be described with reference to the flowchart of FIG. First, the rotation stage three-dimensional data and the rotation stage color image are captured (step # 601), and the data is separated for each plane (step # 60).
2). Next, a normal vector of the plane is calculated for each plane (step # 603), and a straight line perpendicular to the normal vector and equidistant from each plane is set as a rotation axis (step # 6).
04), this rotation axis is returned to the main routine as the position and orientation of the rotation stage (step # 605).

【0080】次に、接合部の設定方法を詳しく説明す
る。まず、撮影した実データを変更しない場合について
図25のフローチャートで説明する。まず画像境界(回
転ステージの軸を含み直交する4つの平面)で切り分け
られるデータのうち2つの画像境界に挟まれているデー
タのみを有効としてその他のデータを削除し(ステップ
#701)、それぞれの撮影データの端点同士の対応を
決定し(2点間の距離の近いものを対応づける)順次面
を貼り(ステップ#702)、メインルーチンへ戻る
(ステップ#703)。
Next, a method for setting the joint will be described in detail. First, the case where the actual data that has been shot is not changed will be described with reference to the flowchart in FIG. First, only data sandwiched between two image boundaries out of the data cut at the image boundary (four orthogonal planes including the axis of the rotary stage) is deleted, and other data is deleted (step # 701). The correspondence between the end points of the photographing data is determined (corresponding to those having a short distance between the two points), and the surfaces are sequentially pasted (step # 702), and the process returns to the main routine (step # 703).

【0081】またこの場合、データを削除する時、貼り
合わせを行う2つの面にのりしろ部を取っておけば、カ
メラ雲台を使った貼り合わせで説明したように、接合点
探索をすることで一層スムースな貼り合わせができる。
In this case, when data is deleted, if a margin is provided on the two surfaces to be joined, a joint point search can be performed as described in the attachment using the camera platform. More smooth bonding is possible.

【0082】次に、撮影したデータを変更しスムースな
貼り合わせを行う場合について図26のフローチャート
及び図27で説明する。2つの撮影データに対し画像境
界(回転ステージの軸を含み直交する4つの平面)から
ほぼ同距離にある点を対応点として決定し(図27の1
−1と2−1、1−2と2−2、・・・、1−nと2−
n)(ステップ#801)、境界面から一定距離までの
データに対して対応する2点から新たな1点(図27中
×印の点)を生成する(ステップ#802)。この新た
な1点を生成するポイントは、境界面からの距離に応じ
て次の通り決定する。
Next, a case where the photographed data is changed to perform smooth bonding will be described with reference to the flowchart of FIG. 26 and FIG. A point that is approximately the same distance from the image boundary (four orthogonal planes including the axis of the rotating stage) for the two pieces of photographing data is determined as a corresponding point (1 in FIG.
-1, 2-1, 1-2 and 2-2, ..., 1-n and 2-
n) (Step # 801), a new one point (the point marked X in FIG. 27) is generated from two points corresponding to the data up to a certain distance from the boundary surface (Step # 802). The point for generating this new point is determined as follows according to the distance from the boundary surface.

【0083】境界面から一定範囲(新たな点を生成する
範囲)をD、一方の撮影データの点をX1、もう一方の
撮影データの点をX2、境界面から2点(X1、X2)
までの平均距離をd、新たに生成する点をX3とすると X3=((D+d)×X1+(D−d)×X2)/(2×D) となる。
A predetermined range (a range for generating a new point) from the boundary surface is D, a point of one photographing data is X1, a point of the other photographing data is X2, and two points (X1, X2) from the boundary surface.
X3 = ((D + d) × X1 + (D−d) × X2) / (2 × D) where d is the average distance to X, and X3 is the newly generated point.

【0084】境界付近(境界面からの距離がDまでの範
囲)は新たに生成したデータを、それ以外(境界面から
の距離がDを越える範囲)は実データを用いて面を再構
成し(ステップ#803)、メインルーチンに戻る(ス
テップ#804)。
The surface is reconstructed by using newly generated data in the vicinity of the boundary (the range from the boundary surface up to D), and by using actual data in the other regions (the range in which the distance from the boundary surface exceeds D). (Step # 803), the process returns to the main routine (Step # 804).

【0085】また、図20(b)のように、回転ステー
ジに90°ごとに凹/凸を備え付けておけば非常に安価
に回転角度の高精度化ができ、回転させて撮影した4枚
の画像を先に求めた回転軸をもとに座標変換を施すこと
で全周データが得られる。この様な回転ステージを用い
ると、被写体を測定範囲内の任意の位置に設定でき撮影
が容易になる。
Further, as shown in FIG. 20 (b), if the rotary stage is provided with a concave / convex at every 90 °, the rotation angle can be made highly accurate at a very low cost. By performing coordinate transformation on the image based on the rotation axis obtained in advance, the entire circumference data can be obtained. When such a rotary stage is used, the subject can be set at an arbitrary position within the measurement range, and photographing becomes easy.

【0086】次に、前述したズーミング入力を行った場
合のズーム貼り合わせ方法について図28のフローチャ
ートで説明する。
Next, a description will be given, with reference to the flowchart of FIG. 28, of a method of zooming together when the above-mentioned zooming input is performed.

【0087】まずズーミング入力のところで説明した方
法で倍率の異なる撮影データを取り込む(ステップ#9
01)。次に前述した図13のフローチャートと同じ方
法(最後の貼り合わせは行わない)でカメラ雲台を用い
た貼り合わせを行い、座標変換パラメータの計算と境界
部分のデータ抽出を行う(ステップ#902)。但し、
2次元カラー画像から接合点を探索する(図13のステ
ップ#302)前に、2次元画像と3次元画像に対して
それぞれリサンプリングを行う(方法は後述する)。
First, photographic data having different magnifications are fetched by the method described for the zooming input (step # 9).
01). Next, by using the same method as the flowchart of FIG. 13 described above (the last bonding is not performed), bonding is performed using a camera platform, calculation of coordinate conversion parameters and data extraction of a boundary portion are performed (step # 902). . However,
Before searching for a junction from the two-dimensional color image (step # 302 in FIG. 13), resampling is performed on each of the two-dimensional image and the three-dimensional image (the method will be described later).

【0088】次に、倍率の高いデータに対して座標変換
を行い、高倍率のデータを低倍率のデータの座標系に合
わせ(ステップ#903)、境界部分に対して面を再構
成し(ステップ#904)、貼り合わせを終了する(ス
テップ#905)。
Next, coordinate conversion is performed on the high-magnification data, the high-magnification data is adjusted to the coordinate system of the low-magnification data (step # 903), and the surface is reconstructed at the boundary (step # 903). # 904), the bonding is completed (step # 905).

【0089】図29は、このズーム貼り合わせをモデル
化したものである。図29(b)のデータ(倍率N2)
が図29(c)のように倍率N1になるようにリサンプ
リングした後、図29(a)のデータ(倍率N1)と貼
り合わされ、倍率がN2であった部分を元の倍率(N
2)に戻し、結果として図29(d)のような貼り合わ
せ画像ができる。
FIG. 29 shows a model of this zoom bonding. Data of FIG. 29B (magnification N2)
After resampling is performed so that the magnification becomes N1 as shown in FIG. 29C, the data (magnification N1) in FIG. 29A is pasted together, and the portion where the magnification is N2 is replaced with the original magnification (N
Returning to 2), as a result, a bonded image as shown in FIG.

【0090】次に、2次元画像と3次元画像のリサンプ
リング方法を詳しく説明する。まず2次元画像について
図30を参照しながら説明する。図30中、実線で示さ
れるのが倍率N1の画像で、点線で示されるのが倍率N
2の画像である(共に最小四角形が1画素、N1<N
2)。
Next, a method of resampling a two-dimensional image and a three-dimensional image will be described in detail. First, a two-dimensional image will be described with reference to FIG. In FIG. 30, the solid line shows an image at the magnification N1, and the dotted line shows an image at the magnification N1.
2 (the minimum square is one pixel, N1 <N
2).

【0091】リサンプリングは倍率N2の画像に対して
行い、倍率N2の画像の左上端の画素が、ちょうど倍率
N1の画像のサンプリング点と一致するように位相を合
わせる。
The resampling is performed on the image of the magnification N2, and the phase is adjusted so that the upper left pixel of the image of the magnification N2 exactly matches the sampling point of the image of the magnification N1.

【0092】リサンプリング値(平均輝度)の算出は倍
率N1の画像の画素に含まれる倍率N2の画像の画素の
面積による重み付け平均値を用いる。これは、倍率N1
の画像1画素に含まれる倍率N2の画像の面積と輝度の
積を全て加えたものを倍率N1の画像の1画素の面積で
割ったものである。
The resampling value (average luminance) is calculated by using a weighted average value based on the area of the pixels of the image of the magnification N2 included in the pixels of the image of the magnification N1. This is the magnification N1
Is obtained by dividing the sum of the product of the area of the image of the magnification N2 and the luminance included in one pixel of the image of the image by the area of one pixel of the image of the magnification N1.

【0093】次に、3次元画像について図31を参照し
ながら説明する。尚、図31はカメラ視線での表現であ
る。図31中、実線と白丸で示されるのが倍率N1の画
像で、点線と黒丸で示されるのが倍率N2の画像である
(共に最小四角形が1画素、N1<N2)。
Next, a three-dimensional image will be described with reference to FIG. FIG. 31 shows an expression in a camera line of sight. In FIG. 31, a solid line and a white circle represent an image at the magnification N1, and a dotted line and a black circle represent an image at the magnification N2 (both are minimum pixels of one pixel and N1 <N2).

【0094】リサンプリングは倍率N2の画像に対して
行い、倍率N2の画像の左上端の画素が、ちょうど倍率
N1の画像のサンプリング点と一致するように位相を合
わせる。
The resampling is performed on the image of the magnification N2, and the phase is adjusted so that the upper left pixel of the image of the magnification N2 exactly matches the sampling point of the image of the magnification N1.

【0095】リサンプリング値の算出は倍率N1の画像
の点を通るカメラ視線とその点を囲む倍率N2の画像の
4点からなる2次曲面との交点を用いる。
The resampling value is calculated by using the intersection of the camera's line of sight passing through a point of the image of magnification N1 and a quadratic surface consisting of four points of the image of magnification N2 surrounding the point.

【0096】以上説明した実施例では、座標変換パラメ
ータの算出を2次元カラー画像と3次元データの両方を
用いて行なうが、2次元カラー画像からの接合点探索を
行なわず、3次元データだけで座標変換パラメータを求
めることも可能である。また、本実施例では、3次元入
力について説明したが、2次元画像入力にも本発明と同
様の原理で適応が可能であることは言うまでもない。
In the embodiment described above, the calculation of the coordinate conversion parameters is performed using both the two-dimensional color image and the three-dimensional data. However, the joint point search from the two-dimensional color image is not performed and only the three-dimensional data is used. It is also possible to determine coordinate transformation parameters. Further, in the present embodiment, a description has been given of a three-dimensional input. However, it is needless to say that the present invention can be applied to a two-dimensional image input based on the same principle as the present invention.

【0097】[0097]

【発明の効果】以上説明したように、本発明の画像入力
カメラは、対象物の形状に適応した無駄の無い画像デー
タを取得し、高速な表示及び画像認識を行なうことがで
きる。
As described above, the image input camera according to the present invention can acquire lean image data adapted to the shape of an object, and perform high-speed display and image recognition.

【図面の簡単な説明】[Brief description of the drawings]

【図1】光切断法の原理を示す説明図FIG. 1 is an explanatory diagram showing the principle of the light section method.

【図2】本発明に係る装置全体の概略ブロック図FIG. 2 is a schematic block diagram of the entire apparatus according to the present invention.

【図3】本発明に係る装置全体の概略構成を示す斜視図FIG. 3 is a perspective view showing a schematic configuration of the entire apparatus according to the present invention.

【図4】撮像素子に入射する反射光の入射範囲と走査範
囲の説明図
FIG. 4 is an explanatory diagram of an incident range and a scanning range of reflected light incident on an image sensor.

【図5】対象物体面に生成する光量分布についての説明
FIG. 5 is an explanatory diagram of a light amount distribution generated on a target object plane.

【図6】撮像素子受光面に生成する光量分布についての
説明図
FIG. 6 is an explanatory diagram of a light amount distribution generated on a light receiving surface of an image sensor.

【図7】撮像素子受光面に生成する光量分布についての
説明図
FIG. 7 is an explanatory diagram of a light amount distribution generated on a light receiving surface of an image sensor.

【図8】画像貼り合わせ機能の説明図FIG. 8 is an explanatory diagram of an image pasting function.

【図9】画像貼り合わせ機能の動作を示すフローチャー
FIG. 9 is a flowchart showing the operation of an image combining function.

【図10】画像貼り合わせ機能表示状態の説明図FIG. 10 is an explanatory diagram of a display state of an image pasting function.

【図11】部分ズーミング貼り合わせ機能の動作を示す
フローチャート
FIG. 11 is a flowchart showing an operation of a partial zooming and bonding function;

【図12】カメラ雲台を用いて撮影する場合のカメラモ
デルを示す説明図
FIG. 12 is an explanatory diagram showing a camera model when shooting using a camera platform.

【図13】カメラ雲台を用いて撮影した3次元データの
貼り合わせの動作を示すフローチャート
FIG. 13 is a flowchart showing an operation of pasting three-dimensional data photographed using a camera platform;

【図14】2次元画像貼り合わせにおけるのりしろの説
明図
FIG. 14 is an explanatory diagram of a margin in two-dimensional image bonding.

【図15】2次元画像貼り合わせにおける基準ウィンド
ウの説明図
FIG. 15 is an explanatory diagram of a reference window in pasting two-dimensional images.

【図16】2次元画像貼り合わせにおける探索ウィンド
ウの説明図
FIG. 16 is an explanatory diagram of a search window in pasting two-dimensional images.

【図17】カメラ回転角の算出方法の説明図FIG. 17 is an explanatory diagram of a method of calculating a camera rotation angle.

【図18】接合部分のパッチの連続性評価の動作を示す
フローチャート
FIG. 18 is a flowchart illustrating an operation of evaluating the continuity of patches at a joint portion;

【図19】カメラ雲台による撮影データの貼り合わせの
説明図
FIG. 19 is an explanatory diagram of pasting of photographing data by a camera head.

【図20】回転ステージの外観を示す斜視図FIG. 20 is a perspective view showing the appearance of a rotary stage.

【図21】回転ステージを用いて撮影した3次元データ
の貼り合わせの動作を示すフローチャート
FIG. 21 is a flowchart illustrating an operation of attaching three-dimensional data captured using a rotating stage.

【図22】回転ステージによる撮影および画像貼り合わ
せの説明図
FIG. 22 is an explanatory diagram of photographing and image pasting using a rotating stage.

【図23】回転ステージによる撮影データの貼り合わせ
の説明図
FIG. 23 is an explanatory view of pasting of photographing data by a rotating stage.

【図24】回転ステージの位置及び姿勢の算出方法の動
作を示すフローチャート
FIG. 24 is a flowchart showing the operation of a method for calculating the position and orientation of the rotary stage.

【図25】接続部の設定方法(実データを変更しない場
合)の動作を示すフローチャート
FIG. 25 is a flowchart showing an operation of a connection section setting method (when actual data is not changed);

【図26】接続部の設定方法(実データを変更する場
合)の動作を示すフローチャート
FIG. 26 is a flowchart showing an operation of a connection section setting method (when actual data is changed);

【図27】接続部の設定方法(実データを変更する場
合)におけるデータ生成ポイントの説明図
FIG. 27 is an explanatory diagram of a data generation point in a connection section setting method (when actual data is changed).

【図28】カメラ雲台を用いてズーム撮影した3次元デ
ータの貼り合わせの動作を示すフローチャート
FIG. 28 is a flowchart showing an operation of combining three-dimensional data obtained by zooming using a camera platform;

【図29】ズーム撮影による撮影データの貼り合わせの
説明図
FIG. 29 is an explanatory diagram of combining photographing data by zoom photographing;

【図30】2次元画像のリサンプリングの説明図FIG. 30 is an explanatory diagram of resampling of a two-dimensional image.

【図31】3次元画像のリサンプリングの説明図FIG. 31 is an explanatory diagram of resampling of a three-dimensional image.

【符号の説明】[Explanation of symbols]

♯210:判断手段 ♯212:判断手段 ♯213:入力手段 ♯902:貼り合わせ手段 ♯903:貼り合わせ手段 ♯904:貼り合わせ手段 $ 210: Judgment unit # 212: Judgment unit # 213: Input unit $ 902: Bonding unit $ 903: Bonding unit $ 904: Bonding unit

フロントページの続き (51)Int.Cl.7 識別記号 FI G06F 15/62 415 (56)参考文献 特開 平4−57173(JP,A) 特開 平5−199404(JP,A) (58)調査した分野(Int.Cl.7,DB名) G01B 11/00 - 11/30 102 G06T 1/00 G06T 7/00 G06T 7/60 H04N 5/265 Continuation of the front page (51) Int.Cl. 7 identification code FIG06F 15/62 415 (56) References JP-A-4-57173 (JP, A) JP-A-5-199404 (JP, A) (58) Surveyed field (Int.Cl. 7 , DB name) G01B 11/00-11/30 102 G06T 1/00 G06T 7/00 G06T 7/60 H04N 5/265

Claims (5)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 第1の焦点距離に設定された光学系を介
して対象物の形状を示す画像データを入力する第1の入
力手段と、前記第1の焦点距離よりも短い第2の焦点距
離に設定された光学系を介して前記対象物の形状を示す
画像データを入力する第2の入力手段と、前記第1及び
第2の入力手段により入力された複数の画像データを貼
り合わせる貼り合わせ手段とを備えたことを特徴とする
画像入力システム。
1. A first input means for inputting image data indicating a shape of an object via an optical system set to a first focal length, and a second focal point shorter than the first focal length. A second input unit for inputting image data indicating the shape of the object through an optical system set to a distance, and a plurality of image data input by the first and second input units; An image input system comprising a matching unit.
【請求項2】 前記画像入力システムは、対象物の形状
を判断する判断手段を有し、該判断手段により複雑な形
状と判断された部分は前記第1の入力手段により画像デ
ータを入力し、その他の部分は前記第2の入力手段によ
り画像データを入力することを特徴とする請求項1記載
の画像入力システム。
2. The image input system according to claim 1, further comprising a determination unit configured to determine a shape of the target object, wherein a portion determined to have a complicated shape by the determination unit inputs image data using the first input unit, 2. The image input system according to claim 1, wherein the other part inputs image data by said second input means.
【請求項3】 前記判断手段は、対象物の形状のエッジ
により対象物の形状を判断するものである請求項2記載
の画像入力システム。
3. The image input system according to claim 2, wherein said judging means judges the shape of the object based on an edge of the shape of the object.
【請求項4】 前記貼り合わせ手段は、前記第1の入力
手段により得られた画像データを、前記第2の入力手段
により得られた画像データと同じ倍率になるようにサン
プリングした後、画像データの貼り合わせを行うもので
ある請求項1乃至3に記載の画像入力システム。
4. The bonding means samples the image data obtained by the first input means so as to have the same magnification as the image data obtained by the second input means, and then outputs the image data. The image input system according to claim 1, wherein the image input system is configured to perform bonding.
【請求項5】 第1の倍率で対象物の形状を示す画像デ
ータを入力する第1の入力手段と、前記第1の倍率より
も低い第2の倍率で前記対象物の形状を示す画像データ
を入力する第2の入力手段と、前記第1及び第2の入力
手段により入力された複数の画像データを貼り合わせる
貼り合わせ手段とを備えたことを特徴とする画像入力シ
ステム。
5. A first input means for inputting image data indicating a shape of an object at a first magnification, and image data indicating a shape of the object at a second magnification lower than the first magnification. An image input system comprising: a second input unit for inputting a plurality of image data; and a bonding unit for bonding a plurality of pieces of image data input by the first and second input units.
JP32024693A 1993-12-20 1993-12-20 Image input system Expired - Lifetime JP3282332B2 (en)

Priority Applications (8)

Application Number Priority Date Filing Date Title
JP32024693A JP3282332B2 (en) 1993-12-20 1993-12-20 Image input system
US08/358,306 US5668631A (en) 1993-12-20 1994-12-19 Measuring system with improved method of reading image data of an object
US08/841,560 US6243165B1 (en) 1993-12-20 1997-04-30 Measuring system with improved method of reading image data of an object
US09/387,498 US6407817B1 (en) 1993-12-20 1999-09-01 Measuring system with improved method of reading image data of an object
US09/879,896 US6522412B2 (en) 1993-12-20 2001-06-14 Measuring system with improved method of reading image data of an object
US10/075,230 US6775010B2 (en) 1993-12-20 2002-02-15 Measuring system with improved method of reading image data of an object
US10/118,054 US6480288B1 (en) 1993-12-20 2002-04-09 Measuring system with improved method of reading image data of an object
US10/330,111 US6674534B2 (en) 1993-12-20 2002-12-30 Measuring system with improved method of reading image data of an object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP32024693A JP3282332B2 (en) 1993-12-20 1993-12-20 Image input system

Publications (2)

Publication Number Publication Date
JPH07174537A JPH07174537A (en) 1995-07-14
JP3282332B2 true JP3282332B2 (en) 2002-05-13

Family

ID=18119360

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32024693A Expired - Lifetime JP3282332B2 (en) 1993-12-20 1993-12-20 Image input system

Country Status (1)

Country Link
JP (1) JP3282332B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2292605B (en) * 1994-08-24 1998-04-08 Guy Richard John Fowler Scanning arrangement and method
US6141105A (en) 1995-11-17 2000-10-31 Minolta Co., Ltd. Three-dimensional measuring device and three-dimensional measuring method
US6049385A (en) * 1996-06-05 2000-04-11 Minolta Co., Ltd. Three dimensional measurement system and pickup apparatus
JP2002131016A (en) 2000-10-27 2002-05-09 Honda Motor Co Ltd Apparatus and method of distance measurement
JP4298155B2 (en) 2000-11-17 2009-07-15 本田技研工業株式会社 Distance measuring device and distance measuring method
JP2005189204A (en) * 2003-12-26 2005-07-14 Fuji Xerox Co Ltd Three-dimensional shape measuring instrument and method
JP4111166B2 (en) 2004-05-07 2008-07-02 コニカミノルタセンシング株式会社 3D shape input device
EP2865988B1 (en) * 2013-10-22 2018-09-19 Baumer Electric Ag Shape measuring light sensor
CN110044293B (en) * 2018-01-17 2020-11-17 深圳中科飞测科技有限公司 Three-dimensional reconstruction system and three-dimensional reconstruction method

Also Published As

Publication number Publication date
JPH07174537A (en) 1995-07-14

Similar Documents

Publication Publication Date Title
US6519359B1 (en) Range camera controller for acquiring 3D models
US7046838B1 (en) Three-dimensional data input method and apparatus
US6211911B1 (en) Image processing apparatus
JP4307934B2 (en) Imaging apparatus and method with image correction function, and imaging apparatus and method
JP3869876B2 (en) Image measuring method and image measuring apparatus
US6522412B2 (en) Measuring system with improved method of reading image data of an object
JP3873401B2 (en) 3D measurement system
WO2012053521A1 (en) Optical information processing device, optical information processing method, optical information processing system, and optical information processing program
JP4306006B2 (en) Three-dimensional data input method and apparatus
US20030004694A1 (en) Camera model and calibration procedure for omnidirectional paraboloidal catadioptric cameras
JP2003078725A (en) Image input apparatus
JP3282331B2 (en) 3D shape measuring device
US7409152B2 (en) Three-dimensional image processing apparatus, optical axis adjusting method, and optical axis adjustment supporting method
JP3178205B2 (en) Image input system
JP3282332B2 (en) Image input system
JP3317093B2 (en) 3D shape data processing device
JP4221808B2 (en) Three-dimensional data input method and apparatus
JPH10320558A (en) Calibration method, corresponding point search method and device therefor, focus distance detection method and device therefor, three-dimensional position information detection method and device therefor, and recording medium
US7657055B2 (en) Image processing method and image generating apparatus
JP3993672B2 (en) Coordinate conversion method, image composition method, and information recording medium
JP5231331B2 (en) Video composition method, video composition system
JP3861475B2 (en) 3D input device
JP2001221621A (en) Three-dimensional shape-measuring device
JP3740848B2 (en) 3D input device
JP2000307947A (en) Image processor and image processing method

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080301

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090301

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100301

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110301

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130301

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140301

Year of fee payment: 12

EXPY Cancellation because of completion of term