JP2000074643A - Method and device for converting three-dimensional distance data and storing medium storing program for data conversion - Google Patents
Method and device for converting three-dimensional distance data and storing medium storing program for data conversionInfo
- Publication number
- JP2000074643A JP2000074643A JP10257563A JP25756398A JP2000074643A JP 2000074643 A JP2000074643 A JP 2000074643A JP 10257563 A JP10257563 A JP 10257563A JP 25756398 A JP25756398 A JP 25756398A JP 2000074643 A JP2000074643 A JP 2000074643A
- Authority
- JP
- Japan
- Prior art keywords
- dimensional distance
- distance data
- data
- image
- captured image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、三次元距離データ
を変換する方法および装置に係り、特に、距離データを
面データに変換する方法および装置に関する。本発明は
さらに、このようなデータ変換を行うためのソフトウエ
ア製品に関する。The present invention relates to a method and an apparatus for converting three-dimensional distance data, and more particularly, to a method and an apparatus for converting distance data into plane data. The invention further relates to a software product for performing such a data conversion.
【0002】[0002]
【従来の技術】従来より、非接触の三次元測定機が開発
され、広く使われ始めている。非接触の三次元測定機
は、レーザ光源とCCDカメラとを備え、視点との直線
距離や、焦点面との垂直距離などを求める。この非接触
の三次元測定機は、ほぼ自動的に短時間で測定対象物ま
での距離を測定することができ、また、測定の点数も多
く接触式の測定機に比べて高解像度で三次元計測を行う
ことができる。2. Description of the Related Art Conventionally, a non-contact three-dimensional measuring machine has been developed and widely used. The non-contact coordinate measuring machine includes a laser light source and a CCD camera, and obtains a linear distance from a viewpoint, a vertical distance from a focal plane, and the like. This non-contact CMM can almost automatically measure the distance to the object in a short period of time, and has many points to measure. Measurement can be performed.
【0003】[0003]
【発明が解決しようとする課題】しかしながら、物体面
までの距離の配列である三次元距離データから、CAD
の曲面データを作成するが難しい、という不都合があっ
た。また、FEM解析を行うには、CADデータをメッ
シュに分割する必要があり、このため、まずCADデー
タの作成を行わなければならない。しかし、すでに試作
品が実物として存在している場合には、これをCADソ
フトウエアにてデータ入力するよりは、三次元的なスキ
ャナを用いて形状データを得ることが望ましい。しかし
ながら、三次元測定機を使用して測定対象物のCADデ
ータを得ることが難しい。However, CAD data is obtained from three-dimensional distance data which is an array of distances to an object plane.
There is an inconvenience that it is difficult to create curved surface data. Further, in order to perform the FEM analysis, it is necessary to divide the CAD data into meshes. Therefore, the CAD data must be created first. However, if a prototype already exists as a real product, it is preferable to obtain shape data using a three-dimensional scanner rather than inputting the data using CAD software. However, it is difficult to obtain CAD data of an object to be measured using a coordinate measuring machine.
【0004】[0004]
【発明の目的】本発明は、係る従来例の有する不都合を
改善し、特に、測定対象物までの距離の配列からなる測
定点データを曲面で定義される曲面データに変換するこ
とのできる三次元距離データを変換する方法および装置
を提供することを、その目的とする。An object of the present invention is to improve the disadvantages of the prior art and, in particular, to convert three-dimensional measurement point data consisting of an array of distances to a measuring object into curved surface data defined by a curved surface. It is an object of the present invention to provide a method and apparatus for converting distance data.
【0005】[0005]
【課題を解決するための手段】そこで、本発明では、画
像の各画素に対応する位置の測定対象物までの距離情報
を各画素に蓄えられた三次元距離データが入力される第
1の入力工程と、この第1の入力工程に前後して当該三
次元距離データと同一視点の関係で測定対象物を撮像し
た撮像画像とが入力される第2の入力工程とを備えてい
る。しかも、この第2の入力工程にて入力された撮像画
像を当該撮像画像の画素内の情報の特徴に応じて各特徴
毎の領域に分割する分割工程と、この分割工程によって
分割された撮像画像の画素に対応する三次元距離データ
の画素を各特徴毎の領域に割り当てる割当工程と、この
割当工程によって割り当てられた三次元距離データの距
離情報に基づいて当該特徴領域毎に面データを生成する
生成工程とを備えた、という構成を採っている。これに
より前述した目的を達成しようとするものである。Therefore, according to the present invention, a first input to which three-dimensional distance data in which the distance information to the object to be measured at a position corresponding to each pixel of an image is stored in each pixel is input. A second input step of inputting, before and after the first input step, the three-dimensional distance data and a captured image of an object to be measured with the same viewpoint. Moreover, a division step of dividing the captured image input in the second input step into regions for each characteristic according to the characteristics of information in the pixels of the captured image, and a captured image divided by the division step Allocating pixels of three-dimensional distance data corresponding to the pixels to regions of each feature, and generating surface data for each of the characteristic regions based on the distance information of the three-dimensional distance data allocated by the allocating process And a generation step. This aims to achieve the above-mentioned object.
【0006】本発明では、まず、分割工程にて撮像画像
の各画素を特徴領域毎にグループ分けする。撮像画像
は、モノクロCCDカメラで撮像した濃淡画像でもよい
し、また、カラーCCDカメラで撮像したカラー画像で
も良い。濃淡画像の場合、ある濃度の幅ごとに特徴領域
を定義し、カラー画像の場合には、色別に特徴領域を生
成し、それぞれの領域に画素を分割するとよい。また、
この濃淡や色については、予め測定対象物の切り分けた
い面ごとに別々の着色などを行うようにするとよい。In the present invention, first, in a dividing step, each pixel of a captured image is grouped for each characteristic region. The captured image may be a grayscale image captured by a monochrome CCD camera or a color image captured by a color CCD camera. In the case of a grayscale image, a characteristic region is defined for each density width. In the case of a color image, a characteristic region is generated for each color, and pixels are preferably divided into the respective regions. Also,
The shading and the color may be separately colored in advance for each surface of the object to be separated.
【0007】濃淡画像の分割が終了すると、この濃淡画
像の各画素の位置と所属先となる特徴領域の関係に従
い、同様の分割を三次元距離データに対して行う。すな
わち、割当工程では、三次元距離データの各画素を対応
する濃淡画像の各画素の所属先である特徴領域へと割り
当てる。すると、測定対象物の濃淡や色彩などのなんら
かの特徴を各面ごとに異ならせておくことで、三次元形
状データの各画素の距離情報を測定対象物の各面毎に分
割し、割り当てることができる。そして、生成工程は、
この各面ごとにグループ化された距離情報を1つの面と
して出力する。When the division of the gray-scale image is completed, the same division is performed on the three-dimensional distance data according to the relationship between the position of each pixel of the gray-scale image and the characteristic region to which it belongs. That is, in the assigning step, each pixel of the three-dimensional distance data is assigned to the characteristic region to which each pixel of the corresponding grayscale image belongs. Then, by making certain characteristics such as shading and color of the measurement object different for each surface, the distance information of each pixel of the three-dimensional shape data can be divided and assigned to each surface of the measurement object. it can. And the generation process is
The distance information grouped for each surface is output as one surface.
【0008】[0008]
【発明の実施の形態】以下、本発明の実施の形態を図面
を参照して説明する。Embodiments of the present invention will be described below with reference to the drawings.
【0009】図1は、本発明による三次元距離データ変
換装置(画像処理コンピュータ)の構成を示すブロック
図である。三次元距離データ変換装置は、図1に示すよ
うに、画像の各画素に対応する位置の測定対象物までの
距離情報を各画素に蓄えられた三次元距離データとこの
三次元距離データ18と同一視点の関係で測定対象物を
撮像した撮像画像19とが入力される画像入力部11
と、この画像入力手段に入力された撮像画像に基づいて
三次元距離データを複数の面データに変換する画像処理
部12,14,16とを備えている。FIG. 1 is a block diagram showing the configuration of a three-dimensional distance data converter (image processing computer) according to the present invention. As shown in FIG. 1, the three-dimensional distance data conversion device includes, as shown in FIG. 1, three-dimensional distance data stored in each pixel and distance information to a measurement target at a position corresponding to each pixel of the image, An image input unit 11 to which a captured image 19 obtained by capturing an object to be measured with the same viewpoint is input.
And image processing units 12, 14, and 16 for converting three-dimensional distance data into a plurality of plane data based on a captured image input to the image input means.
【0010】そして、画像処理部は、撮像画像19を画
素内の情報の特徴に応じて各特徴毎の領域に分割する分
割手段12と、この分割手段12によって分割された撮
像画像の画素に対応する三次元距離データの画素を各特
徴毎の領域に割り当てる割当手段14と、この割当手段
14によって割り当てられた三次元距離データの距離情
報に基づいて当該特徴領域毎に面データを生成する生成
手段16とを備えている。The image processing unit includes a dividing unit 12 for dividing the captured image 19 into regions for each feature in accordance with the characteristics of information in the pixels, and corresponding to the pixels of the captured image divided by the dividing unit 12. Allocating means 14 for allocating the pixels of the three-dimensional distance data to the area for each feature, and generating means for generating surface data for each of the characteristic areas based on the distance information of the three-dimensional distance data allocated by the allocating means 14 16 are provided.
【0011】これを詳細に説明する。画像処理コンピュ
ータ10の前段には、撮像画像と距離画像とを画像処理
コンピュータ10に入力するための構成が設けられてい
る。図1に示す実施形態では、測定対象物にレーザ光を
照射する光源6と、測定対象物1を撮像するCCDカメ
ラ5と、このCCDカメラ5によって撮像された画像に
基づいて各画素での測定対象物までの距離を算出する距
離演算コンピュータ9と、CCDカメラ5および光源6
とを制御する制御コンピュータ7とを備えている。This will be described in detail. A configuration for inputting the captured image and the distance image to the image processing computer 10 is provided at a stage preceding the image processing computer 10. In the embodiment shown in FIG. 1, a light source 6 that irradiates a laser beam to a measurement target, a CCD camera 5 that captures an image of the measurement target 1, and measurement at each pixel based on an image captured by the CCD camera 5 A distance calculation computer 9 for calculating a distance to an object, a CCD camera 5 and a light source 6
And a control computer 7 for controlling
【0012】距離画像を得るために、例えば測定対象物
にスリット光を照射した画像に基づいて測定対象物まで
の距離を算出する手法がすでに実現されている。制御コ
ンピュータ7は、例えば光源6の点滅やレーザ光の走査
を制御する。距離演算コンピュータ9は、CCDカメラ
によって撮像された測定対象物の画像、例えば複数のス
リット画像から測定対象物までの距離を各各画素毎に算
出する。In order to obtain a distance image, for example, a method of calculating a distance to a measurement object based on an image obtained by irradiating the measurement object with slit light has already been realized. The control computer 7 controls, for example, blinking of the light source 6 and scanning of the laser beam. The distance calculation computer 9 calculates the distance from the image of the measurement target imaged by the CCD camera, for example, a plurality of slit images to the measurement target, for each pixel.
【0013】図1に示す例では、測定対象物の表面をそ
れぞれの面毎に色分けしてある。これは、CADデータ
としたときに面データを構成する各面毎に塗り分けを行
う。すると、図1に示す画像処理コンピュータに入力さ
れる撮像画像と距離画像とは図2に示す如くとなる。図
2(B)に示すように、ここでは、撮像画像は、RGB
のそれぞれの濃淡情報を各画素毎に有する。このため、
撮像画像はカラー画像19である。In the example shown in FIG. 1, the surface of the object to be measured is color-coded for each surface. In this method, when the CAD data is used, each face constituting the face data is painted separately. Then, the captured image and the distance image input to the image processing computer shown in FIG. 1 are as shown in FIG. As shown in FIG. 2B, here, the captured image is an RGB image.
Is provided for each pixel. For this reason,
The captured image is a color image 19.
【0014】図3に示すように、距離画像18は、測定
対象物からCCDカメラの各画素までの距離データr11
〜rnmを格納している。この距離データr11〜rnmは、
各画素(ピクセル)を通る光線(直線)の焦点Cから物
体までの距離を表す。従って、カメラの画角と世界座標
系でのカメラの位置と向きが分かっていれば、距離デー
タから物体の世界座標系での三次元座標値を算出するこ
とができる。世界座標系でのカメラの位置ベクトルをC
として、指定ピクセルrijを通る光線の向きをベクトル
V、距離をrとすると、世界座標系での測定点データの
座標値Pは、次式で表される。As shown in FIG. 3, the distance image 18 includes distance data r 11 from the object to be measured to each pixel of the CCD camera.
~ R nm is stored. This distance data r 11 ~r nm is,
The distance from the focal point C of the light beam (straight line) passing through each pixel (pixel) to the object. Therefore, if the angle of view of the camera and the position and orientation of the camera in the world coordinate system are known, the three-dimensional coordinate value of the object in the world coordinate system can be calculated from the distance data. Let the position vector of the camera in the world coordinate system be C
Assuming that the direction of the light beam passing through the designated pixel r ij is vector V and the distance is r, the coordinate value P of the measurement point data in the world coordinate system is expressed by the following equation.
【0015】P=C+V・rP = C + V · r
【0016】このため、距離座標から物体の表面の世界
座標系での位置を算出することができる。この座標系で
連続する面を切り出すと、CADデータとすることがで
きるが、どこまでを一面とするかの判定が難しい。図1
に示す例では、CADデータにて面として分けたい部分
を予め異なる色で着色しておき、通常の撮像画像でまず
各面に属する画素をグループ分けする。すなわち、図1
に示す分割手段12は、撮像画像の色別に当該撮像画像
の画素をグループ分けする機能を備えるとよい。Therefore, the position of the surface of the object in the world coordinate system can be calculated from the distance coordinates. If a continuous surface is cut out in this coordinate system, the data can be used as CAD data, but it is difficult to determine how far the surface should be. FIG.
In the example shown in (1), portions to be divided as planes in the CAD data are colored in different colors in advance, and pixels belonging to each plane are first grouped in a normal captured image. That is, FIG.
May be provided with a function of grouping pixels of a captured image by color of the captured image.
【0017】このように色別に画素を分割することで、
一面一面の区分が明確となり、各画素の所属先となる面
が一義的に定まる。そして、本実施形態では、三次元距
離画像とカラー画像とを同一の視点でかつ同一の大きさ
で撮像しているため、各画素と測定対象物の表面の位置
との対応関係が三次元距離画像とカラー画像との間で一
致している。従って、カラー画像を用いて各画素の所属
先となる面を定めておき、この関係を利用して三次元距
離画像の各画素をグループ分けすると、三次元距離画像
のデータを予め指定した面で分割することができる。こ
のように分割した画素の世界座標での座標をつなげる面
を生成すると、測定対象物の三次元距離画像をCADデ
ータに変換することができる。By dividing pixels according to colors in this way,
The division of each surface becomes clear, and the surface to which each pixel belongs is uniquely determined. In the present embodiment, since the three-dimensional distance image and the color image are captured from the same viewpoint and at the same size, the correspondence between each pixel and the position of the surface of the measurement target is determined by the three-dimensional distance image. Match between image and color image. Therefore, the surface to which each pixel belongs is determined using a color image, and each pixel of the three-dimensional distance image is grouped using this relationship. Can be split. When a surface that connects the coordinates of the divided pixels in the world coordinates is generated, the three-dimensional range image of the measurement target can be converted into CAD data.
【0018】また、カラー画像を色ごとにグループ分け
するときに、照明ムラなどの影響で、非測定物の同じ色
で塗られた領域がカラー画像上で同じRGB値を持つと
は限らない。このため、カラー画像に対して色度の変換
を行うようにするとよい。この場合、分割手段12は、
撮像画像の明るさを正規化して一定明度の色合いだけの
画像に変換する機能と、この機能によって変換された画
像を色の特徴空間へ写像する機能と、この特徴空間での
位置を特徴領域に設定する機能とを備える。これらの機
能により、明るさを正規化して一定明度の色合いだけの
画像とすると、グループ分けをより精度良く行うことが
できる。When a color image is grouped for each color, the area of the non-measured object painted with the same color does not always have the same RGB value on the color image due to the influence of illumination unevenness or the like. Therefore, it is preferable to perform chromaticity conversion on a color image. In this case, the dividing means 12
The function of normalizing the brightness of the captured image and converting it to an image with only a constant shade of light, the function of mapping the image converted by this function to the color feature space, and the position in this feature space as the feature area And a setting function. With these functions, if the brightness is normalized to make the image only a hue of a constant brightness, the grouping can be performed more accurately.
【0019】カラー画像のグループ分けは、図5に示す
ように、カラー画像の各画素を図5(B)に示す色の特
徴空間へ写像することで行う。特徴空間にてある幅を持
たせてグループ分けすることで、撮像の環境の変化によ
る色ムラを吸収し、精度良く画素のグループ分けを行う
ことができる。As shown in FIG. 5, the grouping of the color image is performed by mapping each pixel of the color image to the color feature space shown in FIG. 5B. By performing grouping with a certain width in the feature space, color unevenness due to a change in the imaging environment can be absorbed, and pixel grouping can be performed with high accuracy.
【0020】図5に示すほか、カラー画像をグループ分
けする手法は多々あり、色彩距離変換と二値化や、多次
元スライスや、最尤度法や、クラスタリング(K平均ア
ルゴリズム)などがある。これらの色の抽出手法を利用
して撮像画像をグループ分けするようにしても良い。In addition to the method shown in FIG. 5, there are various methods for grouping color images, such as color distance conversion and binarization, multidimensional slicing, maximum likelihood method, and clustering (K-means algorithm). The captured images may be grouped by using these color extraction techniques.
【0021】また、図1に示す例では予め測定対象物に
着色することとしたが、図1に示す測定対象物よりも形
状の比較的単純な測定対象物であればカラー画像ではな
く、測定対象物の表面に現れる濃度を区分して、画素を
グループ分けするようにしてもよい。In the example shown in FIG. 1, the measurement object is colored in advance. However, if the measurement object is relatively simple in shape than the measurement object shown in FIG. Pixels appearing on the surface of the target object may be classified to group the pixels.
【0022】撮像画像の各画素を特徴空間へ写像させた
後、この写像と同一の写像を三次元距離画像についても
行う。これにより、三次元距離画像を測定対象物の各面
にグループ分けする。三次元距離画像と撮像画像とは、
撮像の焦点と大きさの関係が定まるものであれば、解像
度が異なっても、撮像の範囲が異なっても良い。この撮
像画像での画素のグループ分けと同一内容となるグルー
プ分けができるのであれば、撮像画像と三次元距離画像
との関係はどのようなものでもよい。After each pixel of the captured image is mapped to the feature space, the same mapping as this mapping is performed for the three-dimensional range image. Thus, the three-dimensional range image is grouped into each surface of the measurement target. The three-dimensional distance image and the captured image
As long as the relationship between the focus and the size of imaging is determined, the resolution may be different or the imaging range may be different. The relationship between the captured image and the three-dimensional distance image may be any as long as the grouping having the same contents as the pixel grouping in the captured image can be performed.
【0023】図6は測定対象物の境界線の抽出により測
定対象物の各面をグループ分けする例を示す説明図であ
る。この実施形態では、分割手段12は、撮像画像の境
界線を抽出する機能と、この機能によって抽出された境
界線で囲まれる領域を特徴領域に設定する機能とを備え
ている。撮像画像の境界線は例えば図6(B)に示す実
線21である。この境界線は、測定対象物の面と面とが
接する線である。このような境界線の抽出手法は種々の
ものがあるが、図6に示す例では、測定対象物を面毎に
異なる色で着色しておき、これをカラーCCDカメラで
撮像し、その色の差がある画素を抽出することで測定対
象物の境界線を抽出する。図6(A)に示す図中の色と
ハッチングとの関係は、図1に示すものと同様である。FIG. 6 is an explanatory diagram showing an example in which each surface of the object to be measured is grouped by extracting a boundary line of the object to be measured. In this embodiment, the dividing means 12 has a function of extracting a boundary line of a captured image and a function of setting a region surrounded by the boundary line extracted by this function as a characteristic region. The boundary of the captured image is, for example, a solid line 21 shown in FIG. This boundary line is a line where the surfaces of the object to be measured are in contact with each other. Although there are various methods for extracting such a boundary line, in the example shown in FIG. 6, the object to be measured is colored with a different color for each surface, and this is imaged with a color CCD camera, and the color CCD camera is used. A boundary line of the measurement object is extracted by extracting pixels having a difference. The relationship between colors and hatching in the diagram shown in FIG. 6A is the same as that shown in FIG.
【0024】カラー画像から境界線を抽出するには、カ
ラー画像のグループ分けを全画素について行い、グルー
プ毎に二値化して境界線を抽出してもよい。この場合、
赤のグループに含まれる画素を1、それ以外を0と二値
化して輪郭線を抽出し、これを境界線とする。また、ソ
ーベルのオペレータと呼ぶエッジ検出処理を行って境界
線を抽出するようにしてもよい。これは、ある画素に着
目して近傍との微分を行い、色が急激に変化している箇
所であるエッジを抽出するものである。さらに、カラー
画像に対して微分を行う方法以外にも、明度が像の微分
と、彩度・色相画像の微分を組み合わせた方法を採用し
ても良い。In order to extract a boundary line from a color image, the color image may be grouped for all pixels and binarized for each group to extract the boundary line. in this case,
The pixels included in the red group are binarized as 1 and the others are binarized as 0, and an outline is extracted, and this is defined as a boundary line. Alternatively, a boundary line may be extracted by performing an edge detection process called a Sobel operator. This is to focus on a certain pixel, differentiate it from its neighborhood, and extract the edge where the color changes rapidly. Further, in addition to the method of differentiating a color image, a method combining the differentiation of an image with lightness and the differentiation of a saturation / hue image may be employed.
【0025】図7は距離画像が撮像画像よりも粗い場合
には、撮像画像の境界線の精度で距離画像を修正するこ
とができる。このプロフィールの抽出を図7に示す。一
般に、非接触三次元測定機では、離散的な位置での三次
元座標を測定する。ただし、全くランダムに測定点が存
在する訳ではなく、例えばスリット光を光源に用いる場
合には、スリット光の方向、すなわち投影方向から見て
ほぼ直線上に測定点が存在する。そこで、このような投
影方向から見てほぼ直線上に存在する測定点データを用
いて、二次元の境界線から三次元の境界線を生成するこ
とができる。FIG. 7 shows that when the distance image is coarser than the captured image, the distance image can be corrected with the accuracy of the boundary of the captured image. The extraction of this profile is shown in FIG. Generally, a non-contact three-dimensional measuring machine measures three-dimensional coordinates at discrete positions. However, the measurement points do not exist at all at random. For example, when slit light is used as a light source, the measurement points exist substantially on a straight line when viewed from the direction of the slit light, that is, the projection direction. Therefore, a three-dimensional boundary line can be generated from a two-dimensional boundary line using measurement point data that is substantially on a straight line when viewed from such a projection direction.
【0026】図7に示すように、まず、二次元の境界線
上に投影点を定義する。この投影点に対応する距離デー
タを抽出し、これを測定点とする。続いて、この測定点
を結ぶ外挿曲線を生成する。そして、投影点と境界線の
交点を外挿曲線に投影した点を、三次元での境界線上の
点とする。この処理を繰り返すことで、二次元の境界線
の解像度で粗い距離情報を補正し、解像度の高いCAD
データを生成することができる。As shown in FIG. 7, first, a projection point is defined on a two-dimensional boundary line. The distance data corresponding to this projection point is extracted, and this is set as a measurement point. Subsequently, an extrapolation curve connecting the measurement points is generated. The point at which the intersection of the projection point and the boundary line is projected onto the extrapolation curve is defined as a point on the three-dimensional boundary line. By repeating this processing, coarse distance information is corrected at the resolution of the two-dimensional boundary line, and CAD with high resolution is used.
Data can be generated.
【0027】次に、図8又は図9のフローチャートを参
照して本実施形態による三次元距離データの画像処理方
法を説明する。三次元距離データの変換方法は、図8に
示す例では、画像の各画素に対応する位置の測定対象物
までの距離情報を各画素に蓄えられた三次元距離データ
が入力される第1の入力工程S1と、この第1の入力工
程S1に前後して当該三次元距離データと同一視点の関
係で測定対象物を撮像した撮像画像とが入力される第2
の入力工程S2とを備えている。「同一視点の関係」と
いうのは、測定対象物の位置と画像の画素の位置との関
係がなんらかの変換または変換を要せずに対応づけられ
ている関係をいう。撮影の焦点位置と範囲とが同一であ
ると、この関係となるが、これに限らず、一方が他方の
画像を拡大した場合などであっもよい。Next, an image processing method for three-dimensional distance data according to the present embodiment will be described with reference to the flowchart of FIG. 8 or FIG. In the example shown in FIG. 8, the three-dimensional distance data conversion method is a first method in which three-dimensional distance data in which distance information to a measurement target at a position corresponding to each pixel of an image is stored in each pixel is input. A second input step in which an input step S1 and a captured image of the object to be measured in the same viewpoint as the three-dimensional distance data before and after the first input step S1 are input;
And an input step S2. The term “same viewpoint relationship” refers to a relationship in which the relationship between the position of the measurement object and the position of the pixel of the image is associated without any conversion or conversion. This relationship is established when the focus position and the range of photographing are the same. However, the relationship is not limited to this, and a case where one of the images enlarges the other image may be used.
【0028】本実施形態による方法はさらに、第2の入
力工程S2にて入力された撮像画像を当該撮像画像の画
素内の情報の特徴に応じて各特徴毎の領域に分割する分
割工程S3と、この分割工程S3によって分割された撮
像画像の画素に対応する三次元距離データの画素を各特
徴毎の領域に割り当てる割当工程S4と、この割当工程
S4によって割り当てられた三次元距離データの距離情
報に基づいて当該特徴領域毎に面データを生成する生成
工程S5とを備えている。The method according to the present embodiment further includes a dividing step S3 of dividing the captured image input in the second input step S2 into regions for each characteristic according to characteristics of information in pixels of the captured image. An allocating step S4 of allocating pixels of the three-dimensional distance data corresponding to the pixels of the captured image divided in the dividing step S3 to an area for each feature, and distance information of the three-dimensional distance data allocated in the allocating step S4 And a generation step S5 of generating plane data for each of the characteristic regions based on the
【0029】図8に示す例では、撮像画像を分割すると
き、各画素についてその画素内の画像情報である濃淡情
報又はRGB別の濃淡情報から、特徴領域を定義する。
そして、各画素の画像情報の所属先を定める。一方、図
9に示す例では、撮像画像の各面を仕分ける境界線をま
ず抽出する。そして、この境界線に基づいて特徴領域を
定義する。In the example shown in FIG. 8, when a captured image is divided, a characteristic region is defined for each pixel from the grayscale information as image information in the pixel or grayscale information for each RGB.
Then, the destination of the image information of each pixel is determined. On the other hand, in the example shown in FIG. 9, a boundary line that sorts each surface of the captured image is first extracted. Then, a characteristic region is defined based on this boundary line.
【0030】この図9に示す例では、第1および第2の
入力工程S1,S2を備えると共に、第2の入力工程に
て入力された撮像画像中での色が変化する画素のつなが
りを境界線として抽出する境界線抽出工程S13と、こ
の境界線抽出工程S13にて抽出された境界線で区分け
される特徴領域にそれぞれ対応する三次元距離データの
各画素を当該境界線の区分けに従ってそれぞれの特徴領
域に割り当てる割当工程S14,S15と、この割当工
程S15によって割り当てられた三次元距離データの距
離情報に基づいて当該特徴領域毎に面データを生成する
生成工程S16とを備えている。The example shown in FIG. 9 includes first and second input steps S1 and S2, and a boundary between pixels whose colors change in the captured image input in the second input step is defined as a boundary. A boundary line extraction step S13 for extracting as a line, and respective pixels of the three-dimensional distance data respectively corresponding to the characteristic regions divided by the boundary line extracted in the boundary line extraction step S13, are respectively classified according to the division of the boundary line. The method includes allocation steps S14 and S15 for allocating to a characteristic region, and a generation step S16 for generating plane data for each of the characteristic regions based on the distance information of the three-dimensional distance data allocated in the allocation step S15.
【0031】これら図8又は図9に示す方法により三次
元距離データを測定対象物の各面毎の面データに変換す
ることで、距離データのCADデータへの変換処理を自
動化することができる。また、この図8および図9に示
す処理は、図1に示した画像処理コンピュータにより実
現することができる。この場合、画像処理コンピュータ
は、中央処理装置と、主記憶装置と、補助記憶装置と、
入出力手段とを備え、補助記憶装置に、図8および図9
に示す処理を実行させるためのデータ変換用プログラム
を格納する。By converting the three-dimensional distance data into surface data for each surface of the object to be measured by the method shown in FIG. 8 or FIG. 9, the conversion process of the distance data into CAD data can be automated. The processing shown in FIGS. 8 and 9 can be realized by the image processing computer shown in FIG. In this case, the image processing computer includes a central processing unit, a main storage device, an auxiliary storage device,
8 and 9 in the auxiliary storage device.
And a data conversion program for executing the processing shown in FIG.
【0032】画像処理用コンピュータは、エンジニアリ
ングワークステーションや、パーソナルコンピュータで
ある。このようなコンピュータでは、入出力やプログラ
ムのジョブの制御などを行うオペレーティングシステム
が動作する。データ変換用プログラムは、このオペレー
ティングシステムの諸機能に依存して図8又は図9に示
す各処理を実行するためのプログラムである。従って、
データ変換用プログラムの有する各指令は、単独で中央
処理装置を動作させるものと、オペレーティングシステ
ムなどの他のソフトウエアに依存して中央処理装置を動
作させるものとを含む。The image processing computer is an engineering workstation or a personal computer. In such a computer, an operating system that controls input / output and job of a program operates. The data conversion program is a program for executing each processing shown in FIG. 8 or FIG. 9 depending on various functions of the operating system. Therefore,
Each command included in the data conversion program includes an instruction for operating the central processing unit independently and an instruction for operating the central processing unit depending on other software such as an operating system.
【0033】このようなデータ変換用プログラムは、C
D−ROMなどの可搬性のある記憶媒体に格納して供給
することができる。また、ネットワーク網などの通信回
線を介しデータ変換用プログラムを補助記憶装置に格納
するようにしてもよい。Such a data conversion program is C
It can be supplied by being stored in a portable storage medium such as a D-ROM. Further, the data conversion program may be stored in the auxiliary storage device via a communication line such as a network.
【0034】[0034]
【発明の効果】本発明は以上のように構成され機能する
ので、これによると、割当工程では、三次元距離データ
の各画素を対応する撮像画像の各画素の所属先である特
徴領域へと割り当てるため、測定対象物の濃淡や色彩な
どのなんらかの特徴を各面ごとに異ならせておくこと
で、三次距離データの各画素の距離情報を測定対象物の
各面毎にグループ分けすることができ、そして、生成工
程が、この各面ごとにグループ化された距離情報を1つ
の面として出力するため、撮像画像を利用して三次元距
離データから面データを生成することができ、これによ
り、数秒で得られる三次元距離データを自動的に面デー
タからなるCADデータに変換することができ、する
と、CADデータを作成する作業が不要となり、また測
定対象物が複雑な形状である場合でも良い近似のCAD
データを生成することができ、すると、このCADデー
タに基づく種々の応用、例えば有限要素法による強度の
解析や、工作ロボット等の制御や、光硬化樹脂を用いた
製造などを従来と比較してより簡易にかつ高速で行うこ
とができ、また、複雑な形状の測定対象物であっても形
状の特徴をそのままにCADデータとして入力すること
ができるという従来にない優れた三次元距離データを変
換する方法および装置を提供することができる。Since the present invention is constructed and functions as described above, according to this, in the allocating step, each pixel of the three-dimensional distance data is converted to a characteristic region to which each pixel of the corresponding captured image belongs. By assigning some characteristics such as shading and color of the measurement object to each surface, the distance information of each pixel of the tertiary distance data can be grouped for each surface of the measurement object. And the generating step outputs the distance information grouped for each surface as one surface, so that the surface data can be generated from the three-dimensional distance data using the captured image, 3D distance data obtained in a few seconds can be automatically converted to CAD data consisting of surface data, which eliminates the need to create CAD data and makes the measurement target complex CAD of good approximation even in some cases
Data can be generated, and then various applications based on the CAD data, such as analysis of strength by the finite element method, control of machine robots, manufacturing using light-cured resin, etc., are compared with those in the past. Converts unprecedented three-dimensional distance data that can be performed more easily and at high speed, and even if the measurement target has a complicated shape, the characteristics of the shape can be directly input as CAD data. A method and apparatus can be provided.
【図1】本発明の一実施形態の構成を示すブロック図で
ある。FIG. 1 is a block diagram showing a configuration of an embodiment of the present invention.
【図2】図1に示した画像処理コンピュータに入力され
る画像の一例を示す説明図であり、図2(A)は三次元
距離画像の例を示す図で、図2(B)は撮像画像(カラ
ー画像)の例を示す図である。FIG. 2 is an explanatory diagram showing an example of an image input to the image processing computer shown in FIG. 1; FIG. 2 (A) is a diagram showing an example of a three-dimensional distance image; FIG. FIG. 3 is a diagram illustrating an example of an image (color image).
【図3】図2に示した距離画像の内容を示す説明図であ
り、図3(A)は焦点から測定対象物までの距離rijを
例示する図で、図3(B)は距離情報のマトリックスで
ある距離画像を例示する図である。3A and 3B are explanatory diagrams showing the contents of the distance image shown in FIG. 2; FIG. 3A is a diagram exemplifying a distance r ij from a focal point to a measurement object; FIG. 3B is distance information; FIG. 6 is a diagram illustrating a distance image which is a matrix of FIG.
【図4】図3に示した距離画像と世界座標系での座標と
の関係を示す説明図である。4 is an explanatory diagram showing a relationship between the distance image shown in FIG. 3 and coordinates in a world coordinate system.
【図5】測定対象物の撮像画像を特徴空間にてグループ
分けする例を示す説明図であり、図5(A)は測定対象
物の各画素を示す図で、図5(B)はRGBの特徴空間
を例示する図である。5A and 5B are explanatory diagrams illustrating an example in which captured images of a measurement target are grouped in a feature space. FIG. 5A is a diagram illustrating each pixel of the measurement target, and FIG. 5B is a diagram illustrating RGB. FIG. 5 is a diagram illustrating a feature space of FIG.
【図6】撮像画像から境界線を抽出する場合の画像の例
を示す説明図であり、図6(A)は各面毎に異なる色で
予め着色した撮像画像の例を示す図であり、図6(B)
は図6(A)に示す画像から境界線を抽出した例を示す
図である。FIG. 6 is an explanatory diagram illustrating an example of an image when a boundary line is extracted from a captured image, and FIG. 6A is a diagram illustrating an example of a captured image that is colored in a different color for each surface in advance. FIG. 6 (B)
FIG. 7 is a diagram showing an example of extracting a boundary line from the image shown in FIG.
【図7】距離画像が撮像画像よりも粗い場合に撮像画像
から得た境界線に基づいて距離画像を修正する例を示す
図であり、図7(A)は二次元の境界線上の投影点に対
応する距離データによる測定点を例示する図であり、図
7(B)はこの測定点を結ぶ曲線を外挿して境界線と投
影点との交点から投影される三次元での境界線上の点
(Z値)を例示する図である。7A and 7B are diagrams illustrating an example in which a distance image is corrected based on a boundary line obtained from a captured image when the distance image is coarser than the captured image, and FIG. 7A illustrates a projection point on a two-dimensional boundary line; FIG. 7B is a diagram exemplifying a measurement point based on distance data corresponding to the three-dimensional boundary line projected from the intersection of the boundary line and the projection point by extrapolating a curve connecting the measurement points. It is a figure which illustrates a point (Z value).
【図8】図1に示す構成の第1の動作例を示すフローチ
ャートである。FIG. 8 is a flowchart showing a first operation example of the configuration shown in FIG. 1;
【図9】図1に示す構成の第2の動作例を示すフローチ
ャートである。FIG. 9 is a flowchart showing a second operation example of the configuration shown in FIG. 1;
1 測定対象物 3 測定台 5 CCDカメラ 6 光源 7 制御コンピュータ 9 距離演算コンピュータ 10 画像処理コンピュータ(三次元距離データ変換装
置) 11 入力部 12 分割手段 14 割当手段 16 生成手段DESCRIPTION OF SYMBOLS 1 Measurement object 3 Measurement table 5 CCD camera 6 Light source 7 Control computer 9 Distance calculation computer 10 Image processing computer (three-dimensional distance data conversion device) 11 Input unit 12 Division means 14 Assignment means 16 Generation means
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2F065 AA04 AA06 AA11 AA53 BB05 EE05 FF01 FF02 FF09 GG04 HH05 HH12 JJ03 JJ09 JJ26 NN02 QQ00 QQ03 QQ04 QQ13 QQ23 QQ24 QQ42 5B046 EA09 EA10 FA18 5B057 BA01 BA15 CA01 CA08 CA16 CB12 CC02 CF10 DA08 DB06 DB09 DC16 ──────────────────────────────────────────────────続 き Continued on the front page F-term (reference) 2F065 AA04 AA06 AA11 AA53 BB05 EE05 FF01 FF02 FF09 GG04 HH05 HH12 JJ03 JJ09 JJ26 NN02 QQ00 QQ03 QQ04 QQ13 QQ23 QQ24 QQ42 5B046 EA09 CB10 CA18 DB06 DB09 DC16
Claims (9)
物までの距離情報を各画素に蓄えられた三次元距離デー
タが入力される第1の入力工程と、この第1の入力工程
に前後して当該三次元距離データと同一視点の関係で前
記測定対象物を撮像した撮像画像とが入力される第2の
入力工程とを備えると共に、 この第2の入力工程にて入力された撮像画像を当該撮像
画像の画素内の情報の特徴に応じて各特徴毎の領域に分
割する分割工程と、この分割工程によって分割された撮
像画像の画素に対応する前記三次元距離データの画素を
各特徴毎の領域に割り当てる割当工程と、この割当工程
によって割り当てられた前記三次元距離データの距離情
報に基づいて当該特徴領域毎に面データを生成する生成
工程とを備えたことを特徴とする三次元距離データ変換
方法。1. A first input step in which three-dimensional distance data in which distance information to a measurement target at a position corresponding to each pixel of an image is stored in each pixel is input, and the first input step includes: A second input step of inputting before and after the three-dimensional distance data and a captured image of the object to be measured in the same viewpoint, and the imaging input in the second input step. A dividing step of dividing the image into regions for each characteristic in accordance with the characteristics of information in the pixels of the captured image, and a pixel of the three-dimensional distance data corresponding to a pixel of the captured image divided by the dividing step. Tertiary characterized by comprising: an allocating step of allocating to an area for each feature; and a generating step of generating plane data for each of the characteristic areas based on distance information of the three-dimensional distance data allocated by the allocating step. Former distance Over data conversion method.
物までの距離情報を各画素に蓄えられた三次元距離デー
タが入力される第1の入力工程と、この第1の入力工程
に前後して当該三次元距離データと同一視点の関係で前
記測定対象物を撮像した撮像画像とが入力される第2の
入力工程とを備えると共に、 この第2の入力工程にて入力された撮像画像中での色が
変化する画素のつながりを境界線として抽出する境界線
抽出工程と、この境界線抽出工程にて抽出された境界線
で区分けされる特徴領域にそれぞれ対応する前記三次元
距離データの各画素を当該境界線の区分けに従ってそれ
ぞれの特徴領域に割り当てる割当工程と、この割当工程
によって割り当てられた前記三次元距離データの距離情
報に基づいて当該特徴領域毎に面データを生成する生成
工程とを備えたことを特徴とする三次元距離データ変換
方法。2. A first input step in which three-dimensional distance data in which distance information to a measurement target at a position corresponding to each pixel of an image is stored in each pixel is input, and the first input step includes: A second input step of inputting before and after the three-dimensional distance data and a captured image of the object to be measured in the same viewpoint, and the imaging input in the second input step. A boundary line extraction step of extracting a connection of pixels whose colors in the image change as a boundary line, and the three-dimensional distance data respectively corresponding to the characteristic regions divided by the boundary line extracted in the boundary line extraction step Allocating each pixel to each characteristic region according to the division of the boundary line, and generating surface data for each of the characteristic regions based on the distance information of the three-dimensional distance data allocated in the allocating step. Three-dimensional distance data conversion method characterized by comprising a generation step of.
物までの距離情報を各画素に蓄えられた三次元距離デー
タとこの三次元距離データと同一視点の関係で前記測定
対象物を撮像した撮像画像とが入力される画像入力部
と、この画像入力手段に入力された撮像画像に基づいて
前記三次元距離データを複数の面データに変換する画像
処理部とを備え、 前記画像処理部は、前記撮像画像を画素内の情報の特徴
に応じて各特徴毎の領域に分割する分割手段と、この分
割手段によって分割された撮像画像の画素に対応する前
記三次元距離データの画素を各特徴毎の領域に割り当て
る割当手段と、この割当手段によって割り当てられた前
記三次元距離データの距離情報に基づいて当該特徴領域
毎に面データを生成する生成手段とを備えたことを特徴
とする三次元距離データ変換装置。3. The three-dimensional distance data stored in each pixel with distance information to a measurement target at a position corresponding to each pixel of an image, and the measurement target is imaged in the same viewpoint as the three-dimensional distance data. An image input unit to which the captured image is input, and an image processing unit that converts the three-dimensional distance data into a plurality of plane data based on the captured image input to the image input unit. Dividing means for dividing the captured image into regions for each characteristic according to the characteristics of information in the pixels, and dividing the pixels of the three-dimensional distance data corresponding to the pixels of the captured image divided by the dividing means into Allocating means for allocating to an area for each feature, and generating means for generating plane data for each of the characteristic areas based on distance information of the three-dimensional distance data allocated by the allocating means. That the three-dimensional distance data conversion apparatus.
当該撮像画像の画素をグループ分けする機能を備えたこ
とを特徴とする請求項3記載の三次元距離データ変換装
置。4. The three-dimensional distance data conversion device according to claim 3, wherein said dividing means has a function of grouping pixels of the captured image according to colors of the captured image.
を正規化して一定明度の色合いだけの画像に変換する機
能と、この機能によって変換された画像を色の特徴空間
へ写像する機能と、この特徴空間での位置を前記特徴領
域に設定する機能とを備えたことを特徴とする請求項4
記載の三次元距離データ変換装置。5. A function for normalizing the brightness of the captured image to convert the captured image into an image having only a constant lightness, and a function for mapping the image converted by this function to a color feature space. And a function of setting a position in the feature space to the feature region.
The three-dimensional distance data conversion device as described in the above.
を抽出する機能と、この機能によって抽出された境界線
で囲まれる領域を前記特徴領域に設定する機能とを備え
たことを特徴とする請求項3記載の三次元距離データ変
換装置。6. The dividing means has a function of extracting a boundary line of the captured image and a function of setting a region surrounded by the boundary line extracted by this function as the characteristic region. The three-dimensional distance data conversion device according to claim 3.
差がある画素のつながりを前記境界線として抽出するこ
とを特徴とする請求項6記載の三次元距離データ変換装
置。7. The three-dimensional distance data conversion device according to claim 6, wherein the dividing unit extracts a connection of pixels having a color difference in the captured image as the boundary line.
変換するためのデータ変換用プログラムを記憶した記憶
媒体であって、 前記データ変換用プログラムは前記演算装置を動作させ
る指令として、 画像の各画素に対応する位置の測定対象物までの距離情
報を各画素に蓄えられた三次元距離データを受信させる
第1の受信指令と、この指令に前後して当該三次元距離
データと同一視点の関係で前記測定対象物を撮像した撮
像画像とを受信させる第2の受信指令とを備えると共
に、 この第2の受信指令にて入力された撮像画像を画素内の
情報の特徴に応じて各特徴毎の領域に分割させる分割指
令と、この分割指令によって分割された撮像画像の画素
に対応する前記三次元距離データの画素を各特徴毎の領
域に割り当てさせる割指令と、この割当指令によって割
り当てられた前記三次元距離データの距離情報に基づい
て当該特徴領域毎に面データを生成させる生成指令とを
備えたことを特徴とするデータ変換用プログラムを記憶
した記憶媒体。8. A storage medium storing a data conversion program for converting three-dimensional distance data using an arithmetic device, the data conversion program comprising: a command for operating the arithmetic device; A first reception command for receiving the three-dimensional distance data stored in each pixel with the distance information to the measurement target at the position corresponding to each pixel, and before and after this command, the same viewpoint as the three-dimensional distance data And a second reception command for receiving a captured image of the measurement object in relation to the image. The captured image input in response to the second reception command is provided with each characteristic according to the characteristic of information in a pixel. A division command for dividing the three-dimensional distance data corresponding to the pixels of the captured image divided by the division command into a region for each feature; A storage medium storing a data conversion program, comprising: a generation command for generating plane data for each characteristic region based on distance information of the three-dimensional distance data assigned by the command.
変換するためのデータ変換用プログラムを記憶した記憶
媒体であって、 前記データ変換用プログラムは前記演算装置を動作させ
る指令として、 画像の各画素に対応する位置の測定対象物までの距離情
報を各画素に蓄えられた三次元距離データを受信させる
第1の受信指令と、この指令に前後して当該三次元距離
データと同一視点の関係で前記測定対象物を撮像した撮
像画像とを受信させる第2の受信指令とを備えると共
に、 この第2の受信指令にて入力された撮像画像中の色が変
化する画素のつながりを境界線として抽出させる境界線
抽出指令と、この境界線抽出指令にて抽出された境界線
で区分けされる特徴領域にそれぞれ対応する前記三次元
距離データの各画素を当該境界線の区分けに従ってそれ
ぞれの特徴領域に割り当てさせる割当指令と、この割当
指令によって割り当てられた前記三次元距離データの距
離情報に基づいて当該特徴領域毎に面データを生成させ
る生成指令とを備えたことを特徴とするデータ変換用プ
ログラムを記憶した記憶媒体。9. A storage medium storing a data conversion program for converting three-dimensional distance data using an arithmetic device, the data conversion program comprising: a command for operating the arithmetic device; A first reception command for receiving the three-dimensional distance data stored in each pixel with the distance information to the measurement target at the position corresponding to each pixel, and before and after this command, the same viewpoint as the three-dimensional distance data And a second reception command for receiving a captured image of the object to be measured in the relation, and a boundary line indicating a connection of pixels whose color changes in the captured image input by the second reception command. And extracting each pixel of the three-dimensional distance data respectively corresponding to the feature region divided by the boundary line extracted by the boundary line extraction command. And a generation command for generating surface data for each of the characteristic regions based on the distance information of the three-dimensional distance data allocated by the allocation command. A storage medium storing a data conversion program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP25756398A JP3823559B2 (en) | 1998-08-27 | 1998-08-27 | How to convert 3D distance data |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP25756398A JP3823559B2 (en) | 1998-08-27 | 1998-08-27 | How to convert 3D distance data |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2000074643A true JP2000074643A (en) | 2000-03-14 |
JP3823559B2 JP3823559B2 (en) | 2006-09-20 |
Family
ID=17308016
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP25756398A Expired - Lifetime JP3823559B2 (en) | 1998-08-27 | 1998-08-27 | How to convert 3D distance data |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3823559B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004509346A (en) * | 2000-09-22 | 2004-03-25 | ベルス・メステヒニーク・ゲーエムベーハー | A method for measuring a geometric shape of a measurement object by a coordinate measuring device. |
JP2008286756A (en) * | 2007-05-21 | 2008-11-27 | Canon Inc | Position attitude measuring device and control method for it |
JP2010071976A (en) * | 2008-08-19 | 2010-04-02 | Panasonic Corp | Distance estimation device, distance estimation method, program, integrated circuit, and camera |
JP2010214258A (en) * | 2009-03-13 | 2010-09-30 | Toyota Motor Corp | Masking jig |
EP2413096A1 (en) * | 2009-03-27 | 2012-02-01 | Yu, Qifeng | Ground-based videometrics guiding method for aircraft landing or unmanned aerial vehicles recovery |
JP2014074615A (en) * | 2012-10-03 | 2014-04-24 | Stanley Electric Co Ltd | Three-dimensional information generation device and three-dimensional information generation method |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6356763A (en) * | 1986-08-28 | 1988-03-11 | Hitachi Ltd | Image data area dividing method |
JPH04218709A (en) * | 1990-09-10 | 1992-08-10 | Nippon Telegr & Teleph Corp <Ntt> | Object surface measurement processing system |
JPH0634323A (en) * | 1992-05-07 | 1994-02-08 | Sony Corp | Distance measuring apparatus |
JPH0644346A (en) * | 1992-07-24 | 1994-02-18 | Canon Inc | Method and device for processing distance image |
-
1998
- 1998-08-27 JP JP25756398A patent/JP3823559B2/en not_active Expired - Lifetime
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6356763A (en) * | 1986-08-28 | 1988-03-11 | Hitachi Ltd | Image data area dividing method |
JPH04218709A (en) * | 1990-09-10 | 1992-08-10 | Nippon Telegr & Teleph Corp <Ntt> | Object surface measurement processing system |
JPH0634323A (en) * | 1992-05-07 | 1994-02-08 | Sony Corp | Distance measuring apparatus |
JPH0644346A (en) * | 1992-07-24 | 1994-02-18 | Canon Inc | Method and device for processing distance image |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004509346A (en) * | 2000-09-22 | 2004-03-25 | ベルス・メステヒニーク・ゲーエムベーハー | A method for measuring a geometric shape of a measurement object by a coordinate measuring device. |
JP2008286756A (en) * | 2007-05-21 | 2008-11-27 | Canon Inc | Position attitude measuring device and control method for it |
JP2010071976A (en) * | 2008-08-19 | 2010-04-02 | Panasonic Corp | Distance estimation device, distance estimation method, program, integrated circuit, and camera |
JP2010214258A (en) * | 2009-03-13 | 2010-09-30 | Toyota Motor Corp | Masking jig |
EP2413096A1 (en) * | 2009-03-27 | 2012-02-01 | Yu, Qifeng | Ground-based videometrics guiding method for aircraft landing or unmanned aerial vehicles recovery |
EP2413096A4 (en) * | 2009-03-27 | 2013-12-11 | Yu Qifeng | Ground-based videometrics guiding method for aircraft landing or unmanned aerial vehicles recovery |
JP2014074615A (en) * | 2012-10-03 | 2014-04-24 | Stanley Electric Co Ltd | Three-dimensional information generation device and three-dimensional information generation method |
Also Published As
Publication number | Publication date |
---|---|
JP3823559B2 (en) | 2006-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1761738B1 (en) | Measuring apparatus and method for range inspection | |
US7747080B2 (en) | System and method for scanning edges of a workpiece | |
TW201724026A (en) | Generating a merged, fused three-dimensional point cloud based on captured images of a scene | |
JP7344289B2 (en) | Point cloud data processing device, point cloud data processing method, and program | |
JP2004334819A (en) | Stereo calibration device and stereo image monitoring device using same | |
JP2007206797A (en) | Image processing method and image processor | |
KR102073468B1 (en) | System and method for scoring color candidate poses against a color image in a vision system | |
KR20050022306A (en) | Method and Apparatus for image-based photorealistic 3D face modeling | |
JP2012215394A (en) | Three-dimensional measuring apparatus and three-dimensional measuring method | |
JP2006066478A (en) | Pattern matching device and scanning electron microscope employing it | |
JP3819662B2 (en) | Three-dimensional modeling apparatus, method and medium, and tertiary shape data recording apparatus, method and medium | |
CN111833392B (en) | Multi-angle scanning method, system and device for mark points | |
CN115082538A (en) | System and method for three-dimensional reconstruction of surface of multi-view vision balance ring part based on line structure light projection | |
US20230401698A1 (en) | Image processing method and image processing apparatus using same | |
JP3823559B2 (en) | How to convert 3D distance data | |
US12094227B2 (en) | Object recognition device and object recognition method | |
JP3919722B2 (en) | Skin shape measuring method and skin shape measuring apparatus | |
US20240265616A1 (en) | Texture mapping to polygonal models for industrial inspections | |
JP2020154486A (en) | Change point detection device, change point detection method and change point detection program | |
JP6867766B2 (en) | Information processing device and its control method, program | |
JPH0273471A (en) | Estimating method for three-dimensional form | |
JPH09231371A (en) | Picture information input device and its method | |
JP7365986B2 (en) | Camera calibration equipment, methods and programs | |
JPH0534117A (en) | Image processing method | |
WO2019188315A1 (en) | Image processing device, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20041217 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20041228 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060322 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060512 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060606 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060619 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313532 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090707 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100707 Year of fee payment: 4 |