JPH10320553A - Shape recognition device, shape recognition method, and recording medium recording computer program - Google Patents

Shape recognition device, shape recognition method, and recording medium recording computer program

Info

Publication number
JPH10320553A
JPH10320553A JP9127312A JP12731297A JPH10320553A JP H10320553 A JPH10320553 A JP H10320553A JP 9127312 A JP9127312 A JP 9127312A JP 12731297 A JP12731297 A JP 12731297A JP H10320553 A JPH10320553 A JP H10320553A
Authority
JP
Japan
Prior art keywords
data
dimensional
image data
dimensional image
distance measurement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9127312A
Other languages
Japanese (ja)
Other versions
JP3380709B2 (en
Inventor
Michimoto Sakai
道元 酒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsubasa System Co Ltd
Original Assignee
Tsubasa System Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsubasa System Co Ltd filed Critical Tsubasa System Co Ltd
Priority to JP12731297A priority Critical patent/JP3380709B2/en
Publication of JPH10320553A publication Critical patent/JPH10320553A/en
Application granted granted Critical
Publication of JP3380709B2 publication Critical patent/JP3380709B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a shape recognition device capable of being miniaturized by eliminating especially the need of constitution for rotating an object to be a three-dimensional shape recognition object and obtaining the three- dimensional shape data on the object more easily than before. SOLUTION: In this shape recognition device, a CPU 10 measures the distances of respective distance measuring points set on the image pickup surface of an image pickup device 21 and an object, and obtains the respective ones as distance measurement data. Also, the CPU 10 obtains the two-dimensional image data of the object by making the image pickup device 21 pick up the image of the object. Then, the CPU 10 calculates the two-dimensional contour line vector data and two-dimensional boundary vector data of the object based on the two-dimensional image data on the object. Then, the CPU 10 converts the vector data into three-dimensional vector data based on the respective distance measurement data. Thus, the three-dimensional, modeling data on the object are prepared.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、物体の立体形状を
認識する形状認識装置に関する。
The present invention relates to a shape recognition device for recognizing a three-dimensional shape of an object.

【0002】[0002]

【従来の技術】従来、物体の3次元形状(立体形状)の認
識を行う一つの方法として、光切断法が利用されてい
る。図13は、光切断法による立体の形状認識装置の例
を示す図である。図13において、形状認識装置は、回
転台33に載置された形状認識対象となる物体Aと、こ
の物体Aの表面上にスリット状のレーザ光Sを投光する
投光装置と、撮像面を物体Aに向けて配置された撮像装
置(撮像CCD)34(図13には撮像面のみ図示)と、撮
像装置34に接続された図示せぬプロセッサ装置(コン
ピュータ)とからなる。
2. Description of the Related Art Conventionally, as one method for recognizing a three-dimensional shape (three-dimensional shape) of an object, a light cutting method has been used. FIG. 13 is a diagram illustrating an example of a three-dimensional shape recognition device using a light-section method. In FIG. 13, a shape recognition device includes an object A that is a shape recognition target placed on a turntable 33, a light projection device that emits a slit-shaped laser beam S on the surface of the object A, and an imaging surface. An imaging device (imaging CCD) 34 (only an imaging surface is shown in FIG. 13) and an unillustrated processor device (computer) connected to the imaging device 34 are disposed.

【0003】そして、この形状認識装置は、物体Aの形
状認識を行う場合には、以下の一連の動作を行う。即
ち、投光装置32からスリット状のレーザ光Sが発せら
れると、物体の表面には、その表面形状に沿った高輝度
線Lが生じる。ここで、図13に示される例では、物体
Aが球体であるので、円弧状の高輝度線Lが生じる。こ
の高輝度線Lが撮像装置34に撮像されると、プロセッ
サ装置が、高輝度線L上の各点の空間座標データを物体
Aの表面形状データとして算出し、図示せぬ記憶装置に
格納する。
[0005] When performing shape recognition of the object A, the shape recognition device performs the following series of operations. That is, when the slit-shaped laser light S is emitted from the light projecting device 32, a high-luminance line L is generated on the surface of the object along the surface shape. Here, in the example shown in FIG. 13, since the object A is a sphere, an arc-shaped high luminance line L is generated. When the high-luminance line L is imaged by the imaging device 34, the processor calculates the spatial coordinate data of each point on the high-luminance line L as surface shape data of the object A and stores the data in a storage device (not shown). .

【0004】以上の一連の動作は、回転台33を回転さ
せることによって物体Aの表面上における高輝度線Lの
位置を変えて複数回行われ、夫々の場合における各物体
Aの表面形状データが図示せぬ記憶装置に記憶される。
そして、図示せぬプロセッサ装置が各表面形状データ同
士を物体Aに対する高輝度線Lの位置を参照しつつ組み
合わせる処理や各表面形状データ間を補間する処理を行
うことによって、物体Aの立体形状データが作成され
る。このようにして、物体Aの立体形状が認識されてい
る。
The above-described series of operations are performed a plurality of times by rotating the turntable 33 to change the position of the high-intensity line L on the surface of the object A, and the surface shape data of each object A in each case is obtained. It is stored in a storage device (not shown).
Then, a processor device (not shown) combines the respective surface shape data with each other while referring to the position of the high-luminance line L with respect to the object A, and performs a process of interpolating between the respective surface shape data, thereby obtaining three-dimensional shape data of the object A. Is created. Thus, the three-dimensional shape of the object A is recognized.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、従来に
おける形状認識装置には以下の問題があった。すなわ
ち、光切断法を用いた形状認識装置では、上述したよう
に物体Aの表面に生じる高輝度線Lの位置を変える必要
があるので、形状認識装置には、上述した回転台33等
の物体Aを回転させる構成,或いは、物体Aを中心とし
て投光装置32と撮像装置34とを円軌跡を描いて周回
させる構成が必要であった。
However, the conventional shape recognition apparatus has the following problems. That is, in the shape recognition device using the light cutting method, the position of the high luminance line L generated on the surface of the object A needs to be changed as described above. A configuration for rotating A, or a configuration for rotating the light projecting device 32 and the imaging device 34 around the object A in a circular locus is required.

【0006】ところが、形状認識装置に回転台33を設
けた場合には、その回転台33の形状や回転台33を回
転させるモータの性能によって回転台33に載置できる
物体Aの制限が生じるので、形状認識装置を使用可能な
物体Aが制限される場合があった。一方、形状認識装置
に投光装置32と撮像装置34とを周回させる構成を設
けた場合には、形状認識装置が大型化するとともに、投
光装置32と撮像装置34とが周回する円の直径よりも
大きい物体Aについては使用できない場合が生じてい
た。
However, when the turntable 33 is provided in the shape recognition device, the shape of the turntable 33 and the performance of the motor for rotating the turntable 33 limit the object A that can be placed on the turntable 33. In some cases, the object A that can use the shape recognition device is limited. On the other hand, when the shape recognizing device is provided with a configuration in which the light projecting device 32 and the image capturing device 34 circulate, the size of the shape recognizing device increases and the diameter of the circle around which the light projecting device 32 and the image capturing device 34 circulate. In some cases, the larger object A cannot be used.

【0007】また、上述した形状認識装置の一連の動作
により得られる表面形状データは、高輝度線L上の各点
の空間座標データであるので、物体Aの立体形状データ
を得るには、多数の表面形状データを組み合わせること
を必要としていた。特に、物体Aの形状が複雑である場
合には、表面形状データ間の補間処理によっては適正な
立体形状データを得られない場合があるので、さらに多
数の表面形状データを取得する必要があった。このた
め、光切断法を用いた形状認識装置によって立体形状デ
ータを作成するには多くの処理や時間を要していた。
The surface shape data obtained by the above-described series of operations of the shape recognition device is spatial coordinate data of each point on the high-intensity line L. It was necessary to combine the surface shape data. In particular, when the shape of the object A is complicated, it may not be possible to obtain proper three-dimensional shape data by interpolation processing between the surface shape data, and thus it is necessary to obtain more surface shape data. . Therefore, it takes a lot of processing and time to create three-dimensional shape data by a shape recognition device using the light section method.

【0008】本発明は、上記した問題に鑑みなされたも
のであり、立体形状認識対象となる物体を回転させる構
成,或いは物体を中心として形状認識装置を周回させる
構成を特に不要として小型化を図ることができ、且つ従
来に比し容易に物体の立体形状データを得ることのでき
る形状認識装置を提供することを課題とする。
SUMMARY OF THE INVENTION The present invention has been made in view of the above-described problems, and achieves downsizing by not particularly requiring a configuration for rotating an object to be recognized as a three-dimensional shape or a configuration for rotating a shape recognition device around the object. It is another object of the present invention to provide a shape recognition device that can obtain three-dimensional shape data of an object more easily than conventional ones.

【0009】[0009]

【課題を解決するための手段】本発明は、上述した問題
を解決するために以下の構成を採用する。すなわち、請
求項1の発明は、物体の立体形状を認識する装置であっ
て、前記物体の2次元の画像データを取得する撮像手段
と、前記物体と前記撮像手段との間の距離を測距データ
として取得する測距手段と、前記物体の2次元の画像デ
ータを前記測距データに基づいて物体の3次元の画像デ
ータに変換する変換手段とを備えたことを特徴とする。
The present invention adopts the following constitution in order to solve the above-mentioned problems. That is, the invention according to claim 1 is an apparatus for recognizing a three-dimensional shape of an object, wherein an image pickup means for acquiring two-dimensional image data of the object, and a distance between the object and the image pickup means is measured. It is characterized by comprising distance measuring means for acquiring as data, and converting means for converting two-dimensional image data of the object into three-dimensional image data of the object based on the distance measuring data.

【0010】請求項1の発明によれば、撮像手段が物体
の2次元の画像データを取得する。また、測距手段が物
体と撮像手段との間の距離を測距データとして取得す
る。そして、変換手段が物体の2次元の画像データを測
距データに基づいて3次元の画像データに変換する。こ
れによって、物体の3次元形状が認識される。
According to the first aspect of the present invention, the imaging means acquires two-dimensional image data of the object. Further, the distance measuring means acquires the distance between the object and the imaging means as distance measurement data. Then, the conversion means converts the two-dimensional image data of the object into three-dimensional image data based on the distance measurement data. Thereby, the three-dimensional shape of the object is recognized.

【0011】ここに、撮像手段には、CCDカメラやデ
ジタルカメラ等を挙げることができる。また、測距手段
は、例えば、認識対象たる物体に対して光源と撮像手段
とを所定の距離をおいて配置し三角測量の原理を用いて
物体と撮像手段との距離を測定する構成が好ましいが、
光源から投光された光が戻ってくるまでの時間を測定し
その時間に対応する距離を求める方法や、光源から物体
に対する投射光と物体の反射光との位相差を測定してそ
の位相差に対応する距離を求める方法によって物体と撮
像手段との距離を測定する構成であっても良い。
Here, examples of the image pickup means include a CCD camera and a digital camera. In addition, the distance measuring unit preferably has a configuration in which, for example, a light source and an imaging unit are arranged at a predetermined distance to an object to be recognized, and the distance between the object and the imaging unit is measured using the principle of triangulation. But,
A method to measure the time until the light projected from the light source returns and find the distance corresponding to that time, or to measure the phase difference between the light projected from the light source to the object and the reflected light from the object and calculate the phase difference The distance between the object and the image pickup means may be measured by a method for calculating the distance corresponding to the distance.

【0012】変換手段は、例えば、CPUが所定の制御
プログラムを実行することによって実現される機能とし
て構成できる。変換手段は、例えば、前記物体の2次元
の画像データに基づいてこの物体の2次元の輪郭線ベク
トルデータ,及び,物体の表面をなす面の2次元の境界
ベクトルデータを算出するとともに、これらの輪郭線ベ
クトルデータ及び境界ベクトルデータを前記測距データ
に基づいて3次元ベクトル化することによって前記物体
の3次元の画像データを得るように構成するのが好まし
い(請求項3)。
The conversion means can be configured as a function realized by executing a predetermined control program by the CPU, for example. The conversion means calculates, for example, two-dimensional contour vector data of the object and two-dimensional boundary vector data of a surface forming the surface of the object based on the two-dimensional image data of the object. It is preferable that the contour line data and the boundary vector data are converted into a three-dimensional vector based on the distance measurement data to obtain three-dimensional image data of the object (claim 3).

【0013】請求項2の発明は、物体の立体形状を認識
する装置であって、複数の画素からなる撮像面を有し各
画素毎に前記物体の2次元の画像データを夫々取得する
撮像手段と、前記各画素に対応づけて前記撮像面に設定
された複数の物体の測距ポイントと前記物体との距離を
測距データとして夫々取得する測距手段と、前記各物体
の2次元の画像データを各測距データに基づいて物体の
3次元の画像データに夫々変換する変換手段とを備えた
ことを特徴とする。
According to a second aspect of the present invention, there is provided an apparatus for recognizing a three-dimensional shape of an object, wherein the imaging means has an imaging surface composed of a plurality of pixels and acquires two-dimensional image data of the object for each pixel. And distance measuring means for acquiring distances between the object and a plurality of distance measuring points set on the imaging surface in association with the respective pixels as distance measurement data; and a two-dimensional image of each of the objects. Conversion means for converting the data into three-dimensional image data of the object based on each distance measurement data.

【0014】また、本発明による形状認識装置は、変換
手段によって変換された物体の3次元の画像データを編
集させる編集手段を有していても良く、物体の3次元の
画像データに基づいて、テクスチャデータやカラーパレ
ットデータを作成する手段を有していても良い。
Further, the shape recognition device according to the present invention may have editing means for editing the three-dimensional image data of the object converted by the conversion means, and based on the three-dimensional image data of the object, A means for creating texture data and color palette data may be provided.

【0015】請求項4の発明は、物体の立体形状を認識
する形状認識方法であって、前記物体を撮像することに
よって前記物体の2次元の画像データを取得するステッ
プと、前記物体と前記撮像位置との間の距離を測距デー
タとして取得するステップと、前記物体の2次元の画像
データを前記測距データに基づいて物体の3次元の画像
データに変換するステップとを含むことを特徴とする。
According to a fourth aspect of the present invention, there is provided a shape recognition method for recognizing a three-dimensional shape of an object, the method comprising: obtaining two-dimensional image data of the object by imaging the object; Acquiring a distance from the position as distance measurement data, and converting the two-dimensional image data of the object into three-dimensional image data of the object based on the distance measurement data. I do.

【0016】請求項5の発明は、物体の立体形状を認識
する形状認識方法であって、複数の画素からなる撮像面
を有する撮像手段によって各画素毎の前記物体の2次元
の画像データを夫々取得するステップと、前記各画素に
対応づけて前記撮像面に設定された複数の物体の測距ポ
イントと前記物体との距離を測距データとして夫々取得
するステップと、前記各物体の2次元の画像データを各
測距データに基づいて物体の3次元の画像データに夫々
変換するステップとを含むことを特徴とする。
A fifth aspect of the present invention is a shape recognizing method for recognizing a three-dimensional shape of an object, wherein two-dimensional image data of the object for each pixel is obtained by an image pickup means having an image pickup surface comprising a plurality of pixels. Acquiring, as a distance measurement data, the distance between the object and the distance measurement points of the plurality of objects set on the imaging surface in association with each of the pixels, respectively; and Converting the image data into three-dimensional image data of the object based on each distance measurement data.

【0017】請求項6の発明は、請求項4又は5記載の
物体の3次元の画像データが、前記物体の2次元の画像
データに基づいてこの物体の2次元の輪郭線ベクトルデ
ータ,及び,物体の表面をなす面の2次元の境界ベクト
ルデータを算出するとともに、これらの輪郭線ベクトル
データ及び境界ベクトルデータを前記測距データに基づ
いて3次元ベクトル化することによって得られること
で、特定したものである。
According to a sixth aspect of the present invention, the three-dimensional image data of the object according to the fourth or fifth aspect is obtained by converting the two-dimensional contour vector data of the object based on the two-dimensional image data of the object, The two-dimensional boundary vector data of the surface forming the surface of the object is calculated, and the contour line vector data and the boundary vector data are obtained by three-dimensional vectorization based on the distance measurement data. Things.

【0018】請求項7の発明は、物体の立体形状を認識
する処理を実行させるコンピュータプログラムを記録し
た記録媒体であって、コンピュータに、前記物体を撮像
することによって得られた前記物体の2次元の画像デー
タを読み出すステップと、前記物体と前記撮像位置との
間の距離を測定して得られた測距データを読み出すステ
ップと、前記物体の2次元の画像データを前記測距デー
タに基づいて物体の3次元の画像データに変換するステ
ップとを実行させるコンピュータプログラムを記録した
記録媒体である。
According to a seventh aspect of the present invention, there is provided a recording medium storing a computer program for executing a process of recognizing a three-dimensional shape of an object, wherein the computer is provided with a two-dimensional image of the object obtained by imaging the object. Reading the image data, reading the distance measurement data obtained by measuring the distance between the object and the imaging position, and converting the two-dimensional image data of the object based on the distance measurement data. And a step of converting the data into three-dimensional image data of the object.

【0019】ここに、記録媒体には、例えば、ROM,
RAM,CD−ROM,光磁気ディスク,フロッピーデ
ィスク,ハードディスク,PD,磁気テープ等の各種の
記憶装置が含まれる。
Here, the recording medium includes, for example, a ROM,
Various storage devices such as RAM, CD-ROM, magneto-optical disk, floppy disk, hard disk, PD, and magnetic tape are included.

【0020】請求項8の発明は、物体の立体形状を認識
する処理を実行させるコンピュータプログラムを記録し
た記録媒体であって、コンピュータに、複数の画素から
なる撮像面を有する撮像手段によって得られた各画素毎
の物体の2次元の画像データを夫々読み出すステップ
と、前記各画素に対応づけて前記撮像面に設定された複
数の物体の測距ポイントと前記物体との距離を測定して
得られた測距データを夫々読み出すステップと、前記各
物体の2次元の画像データを各測距データに基づいて物
体の3次元の画像データに夫々変換するステップとを実
行させるコンピュータプログラムを記録した記録媒体で
ある。
The invention according to claim 8 is a recording medium on which a computer program for executing a process of recognizing a three-dimensional shape of an object is recorded. The recording medium is obtained by an image pickup means having an image pickup surface comprising a plurality of pixels. Reading the two-dimensional image data of the object for each pixel, and measuring the distance between the object and the distance measurement points of the plurality of objects set on the imaging surface in association with the pixels. A computer-readable recording medium storing a computer program for executing the steps of reading the distance measurement data and converting the two-dimensional image data of each object into three-dimensional image data of the object based on each distance measurement data. It is.

【0021】請求項9の発明は、請求項7又は8記載の
物体の2次元の画像データを物体の3次元の画像データ
に変換するステップが、前記物体の2次元の画像データ
に基づいてこの物体の2次元の輪郭線ベクトルデータ,
及び,物体の表面をなす面の2次元の境界ベクトルデー
タを算出するステップと、これらの輪郭線ベクトルデー
タ及び境界ベクトルデータを前記測距データに基づいて
3次元ベクトル化するステップとを含むことで、特定し
たものである。
According to a ninth aspect of the present invention, the step of converting the two-dimensional image data of the object according to the seventh or eighth aspect into three-dimensional image data of the object is performed based on the two-dimensional image data of the object. Two-dimensional contour vector data of the object,
And calculating two-dimensional boundary vector data of a plane forming the surface of the object, and converting these contour line data and boundary vector data into three-dimensional vectors based on the distance measurement data. , Specified.

【0022】[0022]

【発明の実施の形態】以下、図面を参照して、本発明の
実施形態を説明する。 〈形状認識装置の構成〉最初に、本実施形態による形状
認識装置の構成を説明する。図1は、形状認識装置の構
成例を示す図である。図1において、形状認識装置は、
制御装置1と、この制御装置1に接続された撮像装置
(撮像CCD)21,赤外光投光装置22,回転台装置2
3,照明装置24,ディスプレイ25,アクチュエータ
26,キーボード27,及びマウス28とからなる。
Embodiments of the present invention will be described below with reference to the drawings. <Configuration of Shape Recognition Apparatus> First, the configuration of the shape recognition apparatus according to the present embodiment will be described. FIG. 1 is a diagram illustrating a configuration example of a shape recognition device. In FIG. 1, the shape recognition device includes:
Control device 1 and imaging device connected to control device 1
(Imaging CCD) 21, infrared light projector 22, turntable 2
3, a lighting device 24, a display 25, an actuator 26, a keyboard 27, and a mouse 28.

【0023】ここに、制御装置1は、CPU10と、こ
のCPU10にバス(コントロールバス,アドレスバス,
及びデータバス)Bを介して相互に接続された撮像装置
ドライバ11a,A/D変換回路11b,赤外光投光装
置ドライバ12,回転台装置ドライバ13,照明装置ド
ライバ14,表示回路15,アクチュエータドライバ1
6,ROM17,及びRAM18とからなる。
Here, the control device 1 includes a CPU 10 and a bus (control bus, address bus,
And an imaging device driver 11a, an A / D conversion circuit 11b, an infrared light projecting device driver 12, a turntable device driver 13, a lighting device driver 14, a display circuit 15, an actuator connected to each other via a data bus B. Driver 1
6, a ROM 17, and a RAM 18.

【0024】撮像CCD装置21は、撮像CCD装置ド
ライバ11aとA/D変換回路11bとに接続され、赤
外光投光装置22は、赤外光投光装置ドライバ12に接
続されている。また、回転台装置23は、回転台装置ド
ライバ13に接続され、照明装置24は、照明装置ドラ
イバ14に接続されている。また、ディスプレイ25
は、表示回路15に接続され、アクチュエータ26は、
アクチュエータドライバ16に接続されている。そし
て、キーボード27とマウス28とは、夫々バスBに直
接接続されている。
The imaging CCD device 21 is connected to the imaging CCD device driver 11a and the A / D conversion circuit 11b, and the infrared light projecting device 22 is connected to the infrared light projecting device driver 12. Further, the turntable device 23 is connected to the turntable device driver 13, and the lighting device 24 is connected to the lighting device driver 14. The display 25
Is connected to the display circuit 15, and the actuator 26 is
It is connected to the actuator driver 16. The keyboard 27 and the mouse 28 are each directly connected to the bus B.

【0025】ROM17には、制御装置1のオペレーシ
ョンシステム等の基本プログラムや形状認識装置の制御
プログラム等の各種のコンピュータプログラム,及び各
種プログラムの実行に際して使用されるデータが格納さ
れている。また、RAM18は、CPU10の作業領域
であり、ROM17に記憶された各種プログラムやデー
タが適宜ロードされる。また、RAM18は、CPU1
0によって処理されたデータを記憶する。また、表示回
路15は、CPU10からの命令に基づいて、A/D変
換回路11aによって変換された画像データや、RAM
18に記憶された画像データをRGB信号に変換する。
また、ディスプレイ25は、表示回路15から転送され
たRGB信号に基づいてその画面に映像(画像)を表示す
るCRTである。さらに、キーボード27,及びマウス
28は、形状認識装置の使用者が指示やデータ等を入力
するための入力装置である。
The ROM 17 stores various computer programs such as a basic program such as an operation system of the control device 1 and a control program of the shape recognition device, and data used when executing the various programs. The RAM 18 is a work area of the CPU 10, and various programs and data stored in the ROM 17 are loaded as appropriate. Further, the RAM 18 stores the CPU 1
The data processed by 0 is stored. The display circuit 15 also stores image data converted by the A / D conversion circuit 11a based on a command from the CPU 10 and RAM.
The image data stored in 18 is converted into an RGB signal.
The display 25 is a CRT that displays a video (image) on its screen based on the RGB signals transferred from the display circuit 15. Furthermore, the keyboard 27 and the mouse 28 are input devices for the user of the shape recognition device to input instructions, data, and the like.

【0026】図2は、撮像装置21から形状認識対象で
ある物体(オブジェクト)Bまでの距離を測定するための
構成を示す図である。図2には、形状認識装置と物体B
とを上方から平面的に見た図が示されている。
FIG. 2 is a diagram showing a configuration for measuring a distance from the image pickup device 21 to an object (object) B whose shape is to be recognized. FIG. 2 shows the shape recognition device and the object B
Are shown in plan view from above.

【0027】図2において、回転台装置23は、撮像装
置21及び赤外光投光装置22の夫々と所定距離をおい
て配置されている。この回転台装置23は、紙面に対し
て垂直に配置された回転軸(図示せず),この回転軸に取
り付けられた回転台23a,図示せぬ回転軸を駆動させ
る駆動装置(図示せず)からなる。回転台23aの上面に
は、立体の形状認識対象たる物体Bが載置されている。
本実施形態に係る物体Bは、直方体からその直方体より
体積の小さい直方体が除かれた形状を有している(図6
参照)。
In FIG. 2, the turntable 23 is disposed at a predetermined distance from each of the image pickup device 21 and the infrared light projecting device 22. The rotary table device 23 includes a rotary shaft (not shown) arranged perpendicular to the paper surface, a rotary table 23a attached to the rotary shaft, and a driving device (not shown) for driving a rotary shaft (not shown). Consists of On the upper surface of the turntable 23a, an object B to be recognized as a three-dimensional shape is placed.
The object B according to the present embodiment has a shape obtained by removing a rectangular solid having a smaller volume than the rectangular solid from the rectangular solid (FIG. 6).
reference).

【0028】図1に示された回転台ドライバ13は、C
PU10からの指示データに従って回転台装置23の図
示せぬ駆動装置に制御信号を与え、図示せぬ回転軸を回
転させる。これによって、回転台23aが所定の回転角
度(例えば、180゜)回転し、これに伴って物体Bが回
転台23aの回転角度と同じ角度だけ回転する。
The turntable driver 13 shown in FIG.
A control signal is supplied to a drive device (not shown) of the turntable 23 according to the instruction data from the PU 10 to rotate a rotation shaft (not shown). Accordingly, the turntable 23a rotates by a predetermined rotation angle (for example, 180 °), and accordingly, the object B rotates by the same angle as the rotation angle of the turntable 23a.

【0029】また、図2に示されるように、赤外光投光
装置22は、LED22a,X−Yテーブル22b,及
び投光レンズ22cからなる。X−Yテーブル22b
は、物体Bに対向して配置される平面40を有してお
り、この平面40は、図2の紙面の左右方向(図2のY
方向)と紙面に対して垂直な方向(図2のX方向)とに沿
って移動可能となっている。
As shown in FIG. 2, the infrared light projector 22 includes an LED 22a, an XY table 22b, and a light projecting lens 22c. XY table 22b
Has a plane 40 that is arranged to face the object B, and this plane 40 is in the left-right direction on the paper surface of FIG. 2 (Y in FIG. 2).
Direction) and a direction perpendicular to the paper surface (X direction in FIG. 2).

【0030】LED22aは、上述した平面40上に固
定した状態で設けられており、X−Yテーブル22bの
X方向またはY方向への移動に伴って移動する。このL
ED22aは、その発光によって、物体Bに対して物体
Bと撮像CCD21aの撮像面41との距離を測定する
ための赤外線を照射する。
The LED 22a is provided in a fixed state on the above-described plane 40, and moves as the XY table 22b moves in the X or Y direction. This L
The ED 22a irradiates the object B with infrared rays for measuring the distance between the object B and the imaging surface 41 of the imaging CCD 21a.

【0031】投光レンズ22cは、LED22aと物体
Bとの間の光路上に配置されており、LED22aから
発せられた赤外光を集光し物体Bに対して射出する。こ
の投光レンズ22cとLED22aとは、所定の距離を
おいて夫々配置されており、投光レンズ22cの射出端
面から射出される赤外光の焦点は、物体Bの近傍に位置
する。
The light projecting lens 22c is disposed on an optical path between the LED 22a and the object B, and collects infrared light emitted from the LED 22a and emits the infrared light to the object B. The light projecting lens 22c and the LED 22a are arranged at a predetermined distance from each other, and the focal point of the infrared light emitted from the light emitting end face of the light projecting lens 22c is located near the object B.

【0032】図1に示された赤外光投光装置ドライバ1
2は、CPU10からの指示データに従って、X−Yテ
ーブル22bをX方向又はY方向に移動させる。これに
伴って赤外光LED22aがX方向又はY方向に移動す
る。すると、図2に示されたLED22aから発せられ
た赤外光の光軸と投光レンズ22cの中心軸とがなす角
度θ1が変化する。
The infrared light projector driver 1 shown in FIG.
2 moves the XY table 22b in the X direction or the Y direction according to the instruction data from the CPU 10. Accordingly, the infrared LED 22a moves in the X direction or the Y direction. Then, the angle theta 1 formed by the center axis and the optical axis of the projection lens 22c of the emitted infrared light from LED22a shown in FIG. 2 is changed.

【0033】また、図2に示されるように、LED22
aと物体Bとの光路上には、照明装置24が、図示せぬ
アクチュエータによって進退自在に配置されている。照
明装置24は、形状認識装置が赤外光を照射する間は、
LED22aと物体Bとの光路外に退避する。一方、撮
像装置21によって物体Bの撮像を行う間は、照明装置
24は、LED22aと物体Bとの光路上に進出すると
ともに、撮像CCD21aが物体Bを撮像するための白
色光を物体Bに対して照射する。
Further, as shown in FIG.
On the optical path between the object a and the object B, an illuminating device 24 is disposed so as to be able to advance and retreat by an actuator (not shown). The illumination device 24 is configured to emit infrared light while the shape recognition device irradiates infrared light.
Retreat outside the optical path between the LED 22a and the object B. On the other hand, while the imaging device 21 performs imaging of the object B, the illumination device 24 advances on the optical path between the LED 22a and the object B, and emits white light to the object B for the imaging CCD 21a to image the object B. And irradiate.

【0034】また、図2に示されるように、撮像装置2
1は、X−Yテーブル22bのX方向に沿って赤外光投
光装置22と所定間隔をおいて配置されている。この撮
像装置21は、撮像CCD21a,撮像レンズ21b,
及び可視光カットフィルタ26aからなる。
Further, as shown in FIG.
1 is arranged at a predetermined distance from the infrared light projector 22 along the X direction of the XY table 22b. The imaging device 21 includes an imaging CCD 21a, an imaging lens 21b,
And a visible light cut filter 26a.

【0035】ここに、撮像CCD21aは、矩形の撮像
面41を有する平板状に形成されており、撮像面41が
物体Bに向けて配置されている。図3は、撮像面41の
構成図である。図3において、撮像面41は、マトリッ
クス状に配置された複数のCCD素子(画素)31からな
り、図3における撮像面41の左上コーナー(図2の撮
像面41の右上コーナー)をなすCCD素子31が原点
(0,0)をなすCCD素子31として設定されている。
また、撮像面41は、図3の紙面の左右方向が撮像面4
1のX方向として設定され、紙面の上下方向が撮像面4
1のY方向として設定されている。
Here, the imaging CCD 21a is formed in a flat plate shape having a rectangular imaging surface 41, and the imaging surface 41 is arranged facing the object B. FIG. 3 is a configuration diagram of the imaging surface 41. 3, an imaging surface 41 is composed of a plurality of CCD elements (pixels) 31 arranged in a matrix, and forms a CCD element forming an upper left corner of the imaging surface 41 in FIG. 3 (an upper right corner of the imaging surface 41 in FIG. 2). 31 is the origin
It is set as a CCD element 31 forming (0,0).
In addition, the imaging surface 41 is the imaging surface 4 in the horizontal direction of the paper surface of FIG.
1 is set as the X direction, and the vertical direction of the paper is
1 is set as the Y direction.

【0036】また、図3に示されるように、撮像面41
には、各CCD素子31の配列に従って、隣合う4つの
CCD素子31(矩形をなす4つのCCD素子31)毎
に、物体Bと撮像CCD21aとの距離を測定するため
の測距ポイント32が設定されている。この各CCD素
子31と測距ポイント32との対応は、CPU10が制
御プログラムを実行する際に、測距ポイントデータとし
てRAM18に格納される。
Further, as shown in FIG.
According to the arrangement of the CCD elements 31, a distance measuring point 32 for measuring the distance between the object B and the imaging CCD 21a is set for each of the four adjacent CCD elements 31 (four rectangular CCD elements 31). Have been. The correspondence between the CCD elements 31 and the distance measuring points 32 is stored in the RAM 18 as distance measuring point data when the CPU 10 executes the control program.

【0037】また、本実施形態では、CCD素子31と
同じ数の記憶領域からなる画像データ記憶用の表示バッ
ファ領域がRAM18に形成されている。各CCD素子
31の出力に対応する画像データは、夫々表示バッファ
領域の各記憶領域に記憶される。なお、本実施形態によ
る撮像CCD21aには、カラーCCDが用いられてい
るが、モノクロのCCDが用いられていても良い。ま
た、一つの測距ポイント32に対応するCCD素子31
の数は適宜設定可能である。
In this embodiment, a display buffer area for storing image data is formed in the RAM 18 and has the same number of storage areas as the CCD elements 31. Image data corresponding to the output of each CCD element 31 is stored in each storage area of the display buffer area. Although a color CCD is used as the imaging CCD 21a according to the present embodiment, a monochrome CCD may be used. Also, the CCD element 31 corresponding to one distance measuring point 32
Can be set as appropriate.

【0038】撮像レンズ21bは、図2に示されるよう
に、物体Bと撮像CCD21aとの光路上に配置されて
いる。また、この撮像レンズ21bと上述した投光レン
ズ22cとは、撮像レンズ21bの中心軸と投光レンズ
22cの中心軸とに夫々直交する同一平面上に所定距離
をおいて夫々配置されている。
The imaging lens 21b is arranged on the optical path between the object B and the imaging CCD 21a, as shown in FIG. The imaging lens 21b and the above-described light projecting lens 22c are arranged at a predetermined distance on the same plane orthogonal to the center axis of the imaging lens 21b and the center axis of the light projecting lens 22c, respectively.

【0039】この撮像レンズ21bの入射端面には、物
体Bの反射光が入射される。また、撮像レンズ21bの
射出端面からの焦点位置は、撮像CCD21aの撮像面
41上に設定されている。また、この撮像レンズ21b
から射出される光の光軸と撮像レンズ21bの中心軸と
の間の角度θ2は、上述したLED22aの移動に伴う
角度θ1の変動に応じて変動する。このような撮像CC
D21aは、撮像面41に入射する像をCCD素子31
毎に光電変換し、図1に示されるA/D変換回路11b
に転送する。A/D変換回路11bは、撮像CCD21
aからの出力をアナログ−デジタル変換することによっ
て物体Bの2次元の画像データを取得する。
The light reflected from the object B is incident on the incident end face of the imaging lens 21b. The focal position of the imaging lens 21b from the exit end face is set on the imaging surface 41 of the imaging CCD 21a. Also, this imaging lens 21b
The angle θ 2 between the optical axis of the light emitted from and the center axis of the imaging lens 21b changes according to the change of the angle θ 1 accompanying the movement of the LED 22a described above. Such an imaging CC
D21a converts the image incident on the imaging surface 41 into the CCD element 31
A / D conversion circuit 11b shown in FIG.
Transfer to The A / D conversion circuit 11b includes the imaging CCD 21
The two-dimensional image data of the object B is obtained by performing an analog-to-digital conversion of the output from a.

【0040】可視光カットフィルタ26aは、CPU1
0からの命令を受けたアクチュエータ26の駆動によっ
て、撮像CCD21aと撮像レンズ21bとの間の光路
上に進退自在となっている。即ち、可視光カットフィル
タ26aは、赤外光が物体Bに照射される際に、撮像レ
ンズ21bと撮像CCD21aとの間の光路上に進出
し、撮像レンズ21bから射出される物体Bの反射光か
ら可視光成分を除去し、赤外光成分のみを撮像CCD2
1aに入射させる。
The visible light cut filter 26a is connected to the CPU 1
By driving the actuator 26 receiving a command from 0, the actuator 26 can move forward and backward on the optical path between the imaging CCD 21a and the imaging lens 21b. That is, when the object B is irradiated with the infrared light, the visible light cut filter 26a advances on the optical path between the imaging lens 21b and the imaging CCD 21a, and reflects the reflected light of the object B emitted from the imaging lens 21b. CCD2 removes visible light components from infrared light and captures only infrared light components
1a.

【0041】CPU10は、形状認識装置の電源投入に
よって起動し、ROM17に記憶された制御プログラム
を実行することによって、形状認識装置全体の制御を行
う。具体的には、CPU10は、アクチュエータ装置ド
ライバ16に可視光カットフィルタ26aを進退させる
ための指示データを入力する処理,撮像装置ドライバ1
1aに物体Bの像を撮像する指示データを入力する処
理,A/D変換回路11bから出力された画像データに
対する処理,照明装置ドライバ14を介して照明装置2
4を制御する処理,アクチュエータドライバ16を介し
て可視光カットフィルタ26aを進退させる処理,RA
M18に対して各種のデータを読み書きする処理,表示
回路15に画像データを転送する処理,及びキーボード
27やマウス28からの入力信号を受け付ける処理等を
行う。 〈形状認識装置の動作〉次に、上述した形状認識装置の
動作を説明する。図4及び図5は、形状認識装置の動作
時におけるCPU10の処理が示された流れ図である。
形状認識装置は、その図示せぬ電源が投入されることに
よって動作を開始する。
The CPU 10 is started when the power of the shape recognition device is turned on, and controls the entire shape recognition device by executing a control program stored in the ROM 17. More specifically, the CPU 10 performs a process of inputting instruction data for moving the visible light cut filter 26 a back and forth to the actuator device driver 16.
A process of inputting instruction data for capturing an image of the object B into the device 1a, a process for image data output from the A / D conversion circuit 11b, and the illumination device 2 via the illumination device driver 14.
4, the process of moving the visible light cut filter 26a through the actuator driver 16,
A process of reading and writing various data to and from M18, a process of transferring image data to the display circuit 15, a process of receiving input signals from the keyboard 27 and the mouse 28, and the like are performed. <Operation of Shape Recognition Apparatus> Next, the operation of the above-described shape recognition apparatus will be described. 4 and 5 are flowcharts showing the processing of the CPU 10 when the shape recognition device operates.
The shape recognition device starts operation when a power source (not shown) is turned on.

【0042】最初に、形状認識装置のCPU10が起動
する。CPU10は、ROM17に記憶されたオペレー
ティングシステムに基づいて、制御装置1の各部(RA
M18,各ドライバ,A/D変換回路11a等)の初期
設定を行う。この初期設定が終了すると、CPU10
は、ROM17に記憶された制御プログラムをRAM1
8にロードし、その制御プログラムを実行する。これに
よって、ディスプレイ25の表示画面に、例えば、「物
体Bの認識処理を開始しますか?[Y/N]」の文字が
表示される。
First, the CPU 10 of the shape recognition device is activated. The CPU 10 controls each part (RA) of the control device 1 based on the operating system stored in the ROM 17.
M18, each driver, the A / D conversion circuit 11a, etc.) are initialized. When this initialization is completed, the CPU 10
Stores the control program stored in the ROM 17 in the RAM 1
8 and execute the control program. As a result, for example, the characters “Start recognition processing of object B? [Y / N]” are displayed on the display screen of the display 25.

【0043】このとき、形状認識装置の使用者が、物体
Bを回転台23a上に載置し、例えば、キーボード27
の「Y」のキーを押すと、物体Bの形状認識処理命令
が、キーボード27,バスBを介してCPU10に入力
される。これによって、CPU10が、図4に示される
処理をスタートする。但し、このスタート時において
は、照明装置24は、投光レンズ22cと物体Bとの光
路上から退避した状態にあり、且つ、可視光カットフィ
ルタ26aは、撮像CCD21aと撮像レンズ21bと
の間の光路上から退避した状態にあるものとする。
At this time, the user of the shape recognition device places the object B on the turntable 23a and, for example,
When the "Y" key is pressed, a shape recognition processing command for the object B is input to the CPU 10 via the keyboard 27 and the bus B. Thereby, the CPU 10 starts the processing shown in FIG. However, at the time of this start, the illumination device 24 is retracted from the optical path between the light projecting lens 22c and the object B, and the visible light cut filter 26a is located between the imaging CCD 21a and the imaging lens 21b. It is assumed that the robot has been retracted from the optical path.

【0044】図4において、S001では、CPU40
が、アクチュエータ装置ドライバ16に対して所定の指
示データを入力する。このS001の処理によって、ア
クチュエータ26が駆動し、可視光カットフィルタ26
aを、撮像CCD21aと撮像レンズ21bとの間の光
路上に挿入させる。
In FIG. 4, in S001, the CPU 40
Input predetermined instruction data to the actuator device driver 16. By the process of S001, the actuator 26 is driven and the visible light cut filter 26
a is inserted into the optical path between the imaging CCD 21a and the imaging lens 21b.

【0045】次のS002では、CPU10は、撮像装
置21に撮像開始の指示データを入力する。このS00
2の処理によって、赤外光投光装置22のLED22a
から赤外線が発せられる。この赤外線は、投光レンズ2
2cを介して物体Bの表面に照射される。そして、物体
Bによって反射された赤外光の反射光が、撮像レンズ2
1b,及び可視光カットフィルタ26aを介して撮像C
CD21aに入射する。これによって、撮像CCD21
aが物体Bの像を撮像する。この撮像CCD21aの出
力(各CCD素子31の出力)は、A/D変換回路21a
によって物体Bの画像データ(各CCD素子31の輝度
データ)に変換される。そして、CPU10は、各画像
データを第1画像データとしてRAM18の表示用バッ
ファ領域に格納する。
In the next step S 002, the CPU 10 inputs the image capturing start instruction data to the image capturing device 21. This S00
By the processing of 2, the LED 22a of the infrared light projector 22
Emits infrared light. This infrared light is transmitted through the projection lens 2
The surface of the object B is irradiated via 2c. Then, the reflected light of the infrared light reflected by the object B is
1b and imaging C through the visible light cut filter 26a.
The light enters the CD 21a. Thereby, the imaging CCD 21
a captures an image of the object B. The output of the imaging CCD 21a (the output of each CCD element 31) is supplied to the A / D conversion circuit 21a.
Is converted into image data of the object B (luminance data of each CCD element 31). Then, the CPU 10 stores each image data as the first image data in the display buffer area of the RAM 18.

【0046】次のS003では、CPU10は、RAM
18に格納された第1画像データに基づいて、測距ポイ
ント32の特定を行う。即ち、CPU10は、第1画像
データから各CCD素子31(画素)の輝度分布を算出す
るとともに、各CCD素子31の輝度データの平均値を
とることによって、各CCD素子31の輝度のしきい値
を算出する。
In the next S003, the CPU 10
The distance measuring point 32 is specified based on the first image data stored in 18. That is, the CPU 10 calculates the luminance distribution of each CCD element 31 (pixel) from the first image data, and takes the average value of the luminance data of each CCD element 31 to obtain the threshold value of the luminance of each CCD element 31. Is calculated.

【0047】続いて、CPU10は、第1画像データを
なす各CCD素子31の輝度データと算出したしきい値
とを比較し、しきい値以上の輝度データを出力したCC
D素子31を検出する。このとき、物体Bの反射光が入
射されたCCD素子31の輝度データは、しきい値以上
の値となるため、撮像CCD21aの撮像面41に投影
される物体Bのおおよその輪郭が取得されることとな
る。
Subsequently, the CPU 10 compares the luminance data of each CCD element 31 constituting the first image data with the calculated threshold value, and outputs the luminance data equal to or higher than the threshold value.
The D element 31 is detected. At this time, since the brightness data of the CCD element 31 on which the reflected light of the object B is incident has a value equal to or greater than the threshold value, an approximate contour of the object B projected on the imaging surface 41 of the imaging CCD 21a is obtained. It will be.

【0048】続いて、CPU10は、RAM18から測
距ポイントデータを読み出すとともに、この測距ポイン
トデータに基づいて、検出した画素に対応する単数又は
複数の測距ポイント32を取得する。そして、CPU1
0は、取得した各測距ポイント32(の位置情報)と、各
測距ポイント32に囲まれた各CCD素子31の位置情
報(画素の位置情報)とを対応づけて測距ポイントデータ
とし、各測距ポイントデータに番号をつけてRAM18
に夫々格納する。このとき、CPU10は、測距ポイン
トデータのうち、最も若い番号のデータにおける測距ポ
イント32を特定する。
Subsequently, the CPU 10 reads out the distance measurement point data from the RAM 18 and acquires one or more distance measurement points 32 corresponding to the detected pixel based on the distance measurement point data. And CPU1
0 is the distance measurement point data by associating the acquired position information of each distance measurement point 32 with the position information of each CCD element 31 surrounded by each distance measurement point 32 (the position information of a pixel); Number each ranging point data to RAM18
Respectively. At this time, the CPU 10 specifies the ranging point 32 in the data with the smallest number among the ranging point data.

【0049】次のS004では、CPU10は、S00
3にて特定した測距ポイント32に赤外光が当たるよう
にLED22aを移動させる。即ち、CPU10は、R
AM18から特定した測距ポイント32の測距ポイント
データを読み出し、この測距ポイントデータに対応する
指示データを赤外光投光装置ドライバ12に与える。す
ると、赤外光投光装置ドライバ12が、X−Yテーブル
22bを移動させてLED22aを適宜の位置に配置す
る。これによって、LED22aから発せられる赤外光
の反射光が、特定した測距ポイント32に対応する各C
CD素子31に入射する。
In the next S004, the CPU 10
The LED 22a is moved so that the infrared light impinges on the distance measuring point 32 specified in Step 3. That is, the CPU 10
The distance measuring point data of the specified distance measuring point 32 is read from the AM 18, and instruction data corresponding to the distance measuring point data is given to the infrared light projector driver 12. Then, the infrared light projector driver 12 moves the XY table 22b to arrange the LEDs 22a at appropriate positions. As a result, the reflected light of the infrared light emitted from the LED 22 a
The light enters the CD element 31.

【0050】次のS005では、CPU10は、赤外光
LED22aの位置及びS003にて特定した測距ポイ
ント32の位置に基づいて、物体Bから撮像面41(各
測距ポイント32)までの距離を測定する。即ち、CP
U10は、S004の処理によって移動したLED22
aの位置を取得し、このLED22aの位置情報に基づ
いて、LED22aから物体Bの表面に照射される赤外
光の光軸と投光レンズ22cの中心軸との間の角度(図
2中のθ1)を算出する。また、CPU10は、赤外線の
反射光が入射する測距ポイント32のCCD素子31
(画素)の位置データに基づいて、当該CCD素子31に
入射する反射光の光軸と撮像レンズ21bの中心軸との
間の角度(θ2)を算出する。
In the next step S005, the CPU 10 determines the distance from the object B to the imaging plane 41 (each distance measuring point 32) based on the position of the infrared light LED 22a and the position of the distance measuring point 32 specified in S003. Measure. That is, CP
U10 is the LED 22 moved by the processing of S004.
a, and based on the position information of the LED 22a, the angle between the optical axis of the infrared light emitted from the LED 22a to the surface of the object B and the central axis of the light projecting lens 22c (see FIG. 2). θ 1 ) is calculated. The CPU 10 also controls the CCD element 31 at the distance measuring point 32 where the infrared reflected light is incident.
An angle (θ 2 ) between the optical axis of the reflected light incident on the CCD element 31 and the central axis of the imaging lens 21b is calculated based on the (pixel) position data.

【0051】続いて、CPU10は、角度θ1と,角度
θ2と,投光レンズ22cから撮像レンズ21bまでの
水平方向(図2の紙面の左右方向(Y方向))における距
離データとに基づいて、物体Bの表面から該当する測距
ポイント32までの距離を算出する。即ち、CPU10
は、三角測量の原理を用いて物体Bと測距ポイント32
との間の距離を測定する。そして、CPU10は、算出
した各距離に測距ポイントデータの番号を対応付けて測
距データとし、これらの測距データをRAM18に格納
する。
Subsequently, the CPU 10 determines the angle θ 1 , the angle θ 2, and distance data in the horizontal direction (the left-right direction (Y direction) on the plane of FIG. 2) from the light projecting lens 22 c to the imaging lens 21 b. Then, the distance from the surface of the object B to the corresponding ranging point 32 is calculated. That is, the CPU 10
Is the distance between the object B and the distance measuring point 32 using the principle of triangulation.
Measure the distance between Then, the CPU 10 associates each of the calculated distances with the number of the distance measurement point data to obtain distance measurement data, and stores the distance measurement data in the RAM 18.

【0052】次のS006では、CPU10は、全ての
測距ポイント32について測距をおこなったかの判断を
行う。即ち、CPU10は、S005にて測距した測距
ポイントデータ番号より大きな番号の測距ポイントデー
タがあるか否かを判定する。このとき、CPU10は、
大きな番号の測距ポイントデータがあると判定した場合
(S006;YES)には、処理をS007へ進める。
In the next step S006, the CPU 10 determines whether or not distance measurement has been performed for all the distance measurement points 32. That is, the CPU 10 determines whether or not there is distance measurement point data having a number larger than the distance measurement point data number measured in S005. At this time, the CPU 10
When it is determined that there is distance measurement point data with a large number
In (S006; YES), the process proceeds to S007.

【0053】これに対し、CPU10は、大きな番号の
測距ポイントデータがないと判定した場合(S006;
NO)には、処理をS003へ戻し、このS006にて
YESの判定がなされるまでS003〜S006の処理
を繰り返し行う。但し、2巡目以降のS003〜S00
6の処理は、S003にて取得された複数の測距ポイン
トデータのうち、前回のS003〜S006の処理対象
となった測距ポイントデータの番号の次に大きい番号の
測距ポイントデータに対して行われる。
On the other hand, when the CPU 10 determines that there is no ranging point data with a large number (S006;
(NO), the process returns to S003, and the processes of S003 to S006 are repeated until the determination of YES is made in S006. However, S003 to S00 after the second round
The processing of No. 6 is performed on the ranging point data having the next largest number to the number of the ranging point data subjected to the previous processing of S003 to S006 among the plurality of ranging point data acquired in S003. Done.

【0054】S007へ処理が進んだ場合には、CPU
10は、アクチュエータドライバ16に可視光カットフ
ィルタ26aを撮像装置21から取り出す指示データを
入力する。これによって、可視光カットフィルタ26a
が、アクチュエータ26の駆動によって、撮像CCD2
1aと撮像レンズ21bとの間の光路上から退避する。
このとき、CPU10は、赤外光投光装置ドライバ12
と照明装置ドライバ14とにそれぞれ命令を発する。こ
れによって、LED22aの発光が停止する。
If the processing has proceeded to S007, the CPU
10 inputs to the actuator driver 16 instruction data for taking out the visible light cut filter 26 a from the imaging device 21. Thereby, the visible light cut filter 26a
Is driven by the actuator 26, the imaging CCD 2
Retreat from the optical path between 1a and the imaging lens 21b.
At this time, the CPU 10 controls the infrared light projector driver 12
And the illumination device driver 14. Thereby, the light emission of the LED 22a is stopped.

【0055】次のS008では、CPU10は、撮像装
置ドライバ11bと照明装置ドライバ14とにレリーズ
命令を入力する。すると、照明装置24が投光レンズ2
2cと物体Bとの光路上に進出し、物体Bに対して白色
光を照射する。これによって、物体Bによる白色光のの
反射光が、撮像レンズ21bを介して撮像CCD21a
の撮像面41に入射する。この撮像CCD21aからの
出力(各CCD素子31(画素)の出力)は、A/D変換回
路11aにおいてアナログ−デジタル変換され、1画面
分の物体Bの2次元の画像データとなる。CPU10
は、この画像データを第2画像データとしてRAM18
の表示用バッファ領域に格納する。
In the next step S008, the CPU 10 inputs a release command to the imaging device driver 11b and the illumination device driver 14. Then, the illumination device 24 is turned on
The laser beam advances on the optical path between 2c and the object B, and irradiates the object B with white light. Thereby, the reflected light of the white light by the object B is transmitted through the imaging lens 21b to the imaging CCD 21a.
Incident on the image pickup surface 41. The output from the imaging CCD 21a (the output of each CCD element 31 (pixel)) is converted from analog to digital in the A / D conversion circuit 11a, and becomes two-dimensional image data of the object B for one screen. CPU10
Uses this image data as the second image data in the RAM 18
In the display buffer area.

【0056】次のS009では、CPU10は、S00
5にて得た各測距データと画素の位置データとを関連付
ける。即ち、CPU10は、各測距ポイントデータに含
まれる測距ポイント32の位置情報に基づいて、第2画
像データ中から該当する画素を検出する。続いて、CP
U10は、検出した各画素に各測距ポイント32の測距
データを対応付ける。
In the next S009, the CPU 10 sets
The respective distance measurement data obtained in step 5 is associated with pixel position data. That is, the CPU 10 detects a corresponding pixel from the second image data based on the position information of the ranging point 32 included in each ranging point data. Then, CP
U10 associates the distance measurement data of each distance measurement point 32 with each detected pixel.

【0057】次のS010では、CPU10は、物体B
の輪郭をトレースする。即ち、CPU10は、第2画像
データから輝度分布を算出しその平均値をとることによ
って、その輝度分布からしきい値を算出する。続いて、
CPU10は、画像データの原点(0,0)を起点とし、
(0,1)・・・(0,n)の順で各画素の輝度値としきい
値とを比較する(図3参照)。このとき、CPU10は、
第0行において、最初に検出された画素,及び最後に検
出された画素を検出し(この処理にて検出された画素を
「輪郭画素」という。)、輪郭データとしてRAM18
に格納する。CPU10は、上述した処理を第1行〜第
n行についても同様に行う。
In the next S010, the CPU 10 sets the object B
Trace the outline of. That is, the CPU 10 calculates a threshold from the luminance distribution by calculating a luminance distribution from the second image data and taking an average value. continue,
The CPU 10 starts from the origin (0, 0) of the image data,
The luminance value of each pixel is compared with the threshold value in the order of (0, 1) (0, n) (see FIG. 3). At this time, the CPU 10
In the 0th row, the first detected pixel and the last detected pixel are detected (pixels detected in this processing are referred to as “contour pixels”), and RAM 18 is used as contour data.
To be stored. The CPU 10 similarly performs the above-described processing for the first to n-th rows.

【0058】続いて、CPU10は、画像データの原点
(0,0)を起点とし、(1,0),(2,0)・・・(n,
0)の順で各画素の輝度値としきい値とを比較する。こ
の場合においても、CPU10は、第0列において、最
初に検出された画素,及び最後に検出された画素を検出
し(この処理にて検出された画素を「輪郭画素」とい
う。)、輪郭データとしてRAM18に格納する。CP
U10は、上述した処理を第1列〜第n列についても同
様に行う。
Subsequently, the CPU 10 determines the origin of the image data.
Starting from (0,0), (1,0), (2,0) ... (n,
The luminance value of each pixel is compared with the threshold value in the order of 0). Also in this case, the CPU 10 detects the first detected pixel and the last detected pixel in the 0th column (the pixel detected in this processing is referred to as “outline pixel”), and the outline data is obtained. And stored in the RAM 18. CP
U10 similarly performs the above-described processing for the first to n-th columns.

【0059】次のS011では、CPU10は、S01
0にて得た輪郭データに基づいて、物体Bの2次元の輪
郭線ベクトルデータを算出する。即ち、CPU10は、
各輪郭データに含まれる各輪郭画素の位置情報を、いわ
ゆるHOUGH方程式に代入する(HOUGH変換を行
う)。続いて、CPU10は、各輪郭画素についてのH
OUGH方程式の計算結果を夫々比較する。そして、C
PU10は、比較結果と輪郭データとに基づいて、ベク
トルの始点画素及びベクトルの終点画素をそれぞれ有す
る物体Bの2次元の輪郭線ベクトルデータをそれぞれ算
出する。
In the next S011, the CPU 10 executes
Based on the contour data obtained at 0, two-dimensional contour vector data of the object B is calculated. That is, the CPU 10
The position information of each contour pixel included in each contour data is substituted into a so-called HOUGH equation (HOUGH conversion is performed). Subsequently, the CPU 10 sets H for each contour pixel.
The calculation results of the OUGH equation are compared respectively. And C
The PU 10 calculates two-dimensional outline vector data of the object B having the start pixel of the vector and the end pixel of the vector, respectively, based on the comparison result and the outline data.

【0060】次のS012では、CPU10は、S01
1にて算出した各輪郭線ベクトルデータをRAM18に
格納する。図5に示されるように、次のS013では、
CPU10は、S010にて検出された各輪郭画素の内
部の方向に向かって、輝度の境界(物体Bの表面をなす
面の境界)をトレースする。即ち、各輪郭画素に囲まれ
た画素とS010にて検出したしきい値とを比較して、
しきい値以上の輝度値をもつ画素を検出する(この処理
によって検出された画素を「境界画素」という。)。続
いて、CPU10は、検出した各画素を境界データとし
てRAM18に格納する。
In the next S012, the CPU 10 executes
Each contour line vector data calculated in 1 is stored in the RAM 18. As shown in FIG. 5, in the next S013,
The CPU 10 traces the boundary of the luminance (the boundary of the surface forming the surface of the object B) toward the inside of each contour pixel detected in S010. That is, the pixel surrounded by each contour pixel is compared with the threshold value detected in S010,
A pixel having a luminance value equal to or higher than the threshold value is detected (a pixel detected by this processing is referred to as a “boundary pixel”). Subsequently, the CPU 10 stores the detected pixels in the RAM 18 as boundary data.

【0061】次のS014では、CPU10は、S01
3にて得た境界データに基づいて、S011と同様の手
法によって、物体Bの2次元の境界ベクトルデータを算
出する。即ち、CPU10は、各境界データに含まれる
境界画素の位置情報を、HOUGH方程式に代入する
(HOUGH変換を行う)。続いて、CPU10は、各境
界画素についてのHOUGH方程式の計算結果を夫々比
較する。続いて、CPU10は、この比較結果と境界デ
ータとに基づいて、ベクトルの始点画素及びベクトルの
終点画素をそれぞれ有する物体Bの2次元の境界ベクト
ルデータを算出する。
In the next S014, the CPU 10 executes
Based on the boundary data obtained in step 3, two-dimensional boundary vector data of the object B is calculated in the same manner as in S011. That is, the CPU 10 substitutes the position information of the boundary pixel included in each boundary data into the HOUGH equation.
(Perform HOGHH conversion). Subsequently, the CPU 10 compares the calculation results of the HOUGH equation for each boundary pixel. Subsequently, the CPU 10 calculates two-dimensional boundary vector data of the object B having the start pixel of the vector and the end pixel of the vector based on the comparison result and the boundary data.

【0062】次のS015では、CPU10は、S01
4にて算出された各境界ベクトルデータをRAM18に
格納する。次のS016では、CPU10は、S005
にて得た測距データに基づいて、S014にて得た2次
元の境界ベクトルデータを3次元ベクトル化する。即
ち、CPU10は、各2次元の境界ベクトルデータの始
点画素又は終点画素に対応する測距ポイント32をそれ
ぞれ算出する。続いて、CPU10は、算出した各測距
ポイント32に対応する各測距データを、当該測距ポイ
ント32に対応する始点画素又は終点画素の位置とする
ことによって、3次元の境界ベクトルデータにそれぞれ
変換する。
In the next S015, the CPU 10 executes
Each boundary vector data calculated in step 4 is stored in the RAM 18. In the next S016, the CPU 10 executes S005
The two-dimensional boundary vector data obtained in S014 is converted into a three-dimensional vector based on the distance measurement data obtained in. That is, the CPU 10 calculates the distance measurement points 32 corresponding to the start pixel or the end pixel of each two-dimensional boundary vector data. Subsequently, the CPU 10 sets each of the distance measurement data corresponding to each of the calculated distance measurement points 32 as the position of the start point pixel or the end point pixel corresponding to the distance measurement point 32, thereby obtaining three-dimensional boundary vector data. Convert.

【0063】このように、CPU10は、2次元の境界
ベクトルデータ(2次元座標)を対応する測距データに基
づいて、3次元の境界ベクトルデータ(3次元座標)に変
換する。そして、CPU10は、各変換結果を該当する
表示バッファ領域の各記憶領域に格納する。
As described above, the CPU 10 converts the two-dimensional boundary vector data (two-dimensional coordinates) into three-dimensional boundary vector data (three-dimensional coordinates) based on the corresponding distance measurement data. Then, the CPU 10 stores each conversion result in each storage area of the corresponding display buffer area.

【0064】S017では、CPU10は、S011に
て得た物体Bの2次元の輪郭線ベクトルデータを用いて
物体Bのモデリングデータを作成する。即ち、CPU1
0は、2次元の輪郭線ベクトルデータに基づいて、輪郭
線ベクトルで囲まれた画素のうち、2次元の輪郭線ベク
トルに沿って位置する画素を一定間隔毎に検出する。続
いて、CPU10は、検出した各画素と輪郭線ベクトル
とを、測距データに基づいて3次元ベクトルデータに変
換する。
In S017, the CPU 10 creates modeling data of the object B using the two-dimensional contour vector data of the object B obtained in S011. That is, CPU1
0 detects, at regular intervals, pixels located along the two-dimensional contour vector among the pixels surrounded by the contour vector, based on the two-dimensional contour vector data. Subsequently, the CPU 10 converts each of the detected pixels and the contour line vector into three-dimensional vector data based on the distance measurement data.

【0065】即ち、CPU10は、S016と同様の手
法を用いて、2次元の輪郭線ベクトルデータ(2次元座
標)を、対応する測距データに基づいて3次元の輪郭線
ベクトルデータ(3次元座標)に変換する。そして、CP
U10は、変換された3次元の輪郭線ベクトルデータ
を、該当する表示バッファ領域の各記憶領域にそれぞれ
格納する。これによって、RAM18の表示用バッファ
領域には、モデリングデータをなす物体Bの3次元のベ
クトルデータが格納されることとなる。
That is, the CPU 10 converts the two-dimensional contour vector data (two-dimensional coordinates) into three-dimensional contour vector data (three-dimensional coordinates) based on the corresponding distance measurement data using the same method as in S016. ). And CP
U10 stores the converted three-dimensional contour line vector data in each storage area of the corresponding display buffer area. Thus, the display buffer area of the RAM 18 stores the three-dimensional vector data of the object B forming the modeling data.

【0066】次のS018では、CPU10は、S01
7にて得られたモデリングデータをディスプレイ25に
表示する旨の命令を表示回路15に与える。これによっ
て、物体Bの3次元画像が、ディスプレイ25に表示さ
れる。
In the next S018, the CPU 10 executes
An instruction to display the modeling data obtained in step 7 on the display 25 is given to the display circuit 15. Thus, a three-dimensional image of the object B is displayed on the display 25.

【0067】次のS019では、CPU10は、形状認
識装置の使用者の操作指示をディスプレイ25に表示さ
せる。即ち、CPU10は、ディスプレイ25に、例え
ば、「モデリングデータの編集を行う場合には“M”の
キーを、細分化処理を行う場合には“S”のキーを、何
れも行わない場合には“E”のキーを押して下さい」の
テキスト文字をディスプレイ25に表示させる。
In the next S019, the CPU 10 causes the display 25 to display an operation instruction of the user of the shape recognition device. That is, the CPU 10 displays, for example, a “M” key to edit the modeling data, an “S” key to perform the segmentation processing, and Press the "E" key. "

【0068】次のS020では、CPU10は、キーボ
ード27の“M”,“S”,又は“E”のキーの何れか
が押されるのを受け付ける。そして、これらのキーの何
れかが押された場合には、CPU10は処理をS021
へ進める。次のS021では、CPU10は、“M”の
キーが押されたか否かを判定する。このとき、“M”の
キーが押されたと判定した場合には、CPU10は、処
理をS022へ進め、モデリングデータの編集処理を行
う。例えば、使用者からキーボード27又はマウス28
から入力される指示に従って、モデリングデータの補正
を行う処理等を行う。そして、S022の処理が終了す
ると、CPU10は、処理をS019へ戻す。これに対
し、“M”以外のキーが押されたと判定した場合(S0
21;NO)には、CPU10は、処理をS023へ進
める。
In the next step S020, the CPU 10 accepts that any one of the "M", "S" or "E" keys on the keyboard 27 is pressed. If any one of these keys is pressed, the CPU 10 proceeds to S021.
Proceed to. In the next step S021, the CPU 10 determines whether or not the “M” key has been pressed. At this time, if it is determined that the "M" key has been pressed, the CPU 10 advances the process to S022, and performs a modeling data editing process. For example, the keyboard 27 or mouse 28
In accordance with an instruction input from, processing for correcting the modeling data is performed. Then, when the process of S022 ends, the CPU 10 returns the process to S019. On the other hand, when it is determined that a key other than “M” has been pressed (S0
21; NO), the CPU 10 advances the processing to S023.

【0069】S023へ処理が進んだ場合には、CPU
10は、“S”のキーが押されたか否かを判定する。こ
のとき、“S”のキーが押されたと判定した場合(S0
23;YES)には、CPU10は、処理をS024へ
進める。これに対し、“S”のキー以外のキーが押され
たと判定した場合(S023;NO)には、CPU10
は、処理をS026へ進める。
If the processing has proceeded to S023, the CPU
Step 10 determines whether the "S" key has been pressed. At this time, when it is determined that the “S” key has been pressed (S0
23; YES), the CPU 10 advances the processing to S024. On the other hand, if it is determined that a key other than the “S” key has been pressed (S023; NO), the CPU 10
Advances the process to S026.

【0070】S024へ処理が進んだ場合には、CPU
10は、輪郭線ベクトルと境界ベクトルとに囲まれた各
面について細分化を行う。CPU10は、輪郭線ベクト
ルと境界ベクトルとに囲まれた部分を、画像データの列
方向,行方向に一定間隔毎に画素を取り出す。CPU1
0は、取り出した画素にこれと対応する測距データを加
える。
When the processing has proceeded to S024, the CPU
Numeral 10 subdivides each surface surrounded by the contour line vector and the boundary vector. The CPU 10 extracts pixels from the portion surrounded by the contour line vector and the boundary vector at regular intervals in the column direction and the row direction of the image data. CPU1
0 adds the corresponding distance measurement data to the extracted pixel.

【0071】S025では、CPU10は、S024の
処理によって細分化された物体Bの画像データをテクス
チャデータ,カラーパレットデータとしてRAM18に
格納する。
At S025, the CPU 10 stores the image data of the object B subdivided by the processing at S024 into the RAM 18 as texture data and color pallet data.

【0072】S024では、CPU10は、ディスプレ
イ25に、例えば「処理を終了しますか[Y/N]」の
テキスト文字を表示させるとともに、キーボード27か
ら“Y”又は“N”のキーが押されるのを待つ。そし
て、“Y”のキーが押された場合には、CPU10の処
理が終了するとともに、形状認識装置の動作が終了す
る。これに対し、“N”のキーが押された場合には、C
PU10は、処理をS027へ進める。
In S024, the CPU 10 causes the display 25 to display, for example, a text character of “Do you want to end the process [Y / N]” and presses the “Y” or “N” key from the keyboard 27? Wait for When the “Y” key is pressed, the processing of the CPU 10 ends and the operation of the shape recognition device ends. On the other hand, when the “N” key is pressed, C
The PU 10 advances the process to S027.

【0073】S027では、CPU10は、ディスプレ
イ25に、例えば「回転台を回転させますか?[180
〜359/N]」のテキスト文字を表示させるととも
に、使用者から180〜359の数字及びリターンキ
ー,又は“N”のキーが押されるのを待つ。そして、
“N”のキーが押された場合(S027;NO)には、C
PU10は、処理をS019へ戻す。これに対し、18
0〜359の何れかの数字とリターンキーとが押された
場合には、CPU10は、処理をS028へ進める。
In S027, the CPU 10 displays, for example, “Do you want to rotate the turntable? [180
-359 / N] ", and waits for the user to press the numbers 180-359 and the return key or the" N "key. And
If the “N” key is pressed (S027; NO), C
The PU 10 returns the process to S019. In contrast, 18
If any of the numbers 0 to 359 and the return key are pressed, the CPU 10 advances the processing to S028.

【0074】S028へ処理が進んだ場合には、CPU
10は、回転台装置ドライバ23へ命令を入力し、入力
された数字に相当する回転角度だけ回転台23を回転さ
せる。そして、CPU10は、処理をS001へ戻す。
このとき、例えば、180の数字がキーボード27から
入力された場合には、回転台23が180゜回転し、物
体Bを180゜回転させる。この後、S001〜S02
6の処理が行われ、前回のS001〜026の処理によ
って得られたデータと組み合わせれば、RAM28に
は、物体Bの完全な3次元形状のモデリングデータが格
納される状態となる。 〈実施形態による作用〉次に、本実施形態による形状認
識装置によって、物体Bのモデリングデータ,及びテク
スチャデータ等が作成されるまでの過程を説明する。
If the processing has proceeded to S028, the CPU
Numeral 10 inputs a command to the turntable device driver 23 to rotate the turntable 23 by a rotation angle corresponding to the input number. Then, the CPU 10 returns the processing to S001.
At this time, for example, when a numeral 180 is input from the keyboard 27, the turntable 23 rotates 180 ° and the object B rotates 180 °. Thereafter, S001 to S02
When the processing in step S6 is performed and the data is combined with the data obtained in the previous processing in steps S001 to 026, the RAM 28 stores a complete three-dimensional modeling data of the object B. <Operation of Embodiment> Next, a process until modeling data, texture data, and the like of the object B are created by the shape recognition device according to the present embodiment will be described.

【0075】上述したように、物体Bの形状認識に先だ
って、使用者は物体Bを形状認識装置の回転台23aに
載置し、キーボート27又はマウス28を介して立体形
状認識を開始する旨の指示データを入力する。すると、
CPU10は、図のS001,S002の処理を経て、
S003〜S006までのループを繰り返す。ここで、
CPU10は、物体Bと各測距ポイント32との間の測
距データを取得する。
As described above, prior to the shape recognition of the object B, the user places the object B on the turntable 23a of the shape recognition device and starts the three-dimensional shape recognition via the keyboard 27 or the mouse 28. Enter the instruction data. Then
The CPU 10 goes through the processes of S001 and S002 in the drawing,
The loop from S003 to S006 is repeated. here,
The CPU 10 acquires distance measurement data between the object B and each distance measurement point 32.

【0076】物体Bに設定された全ての測距ポイント3
2に対する測距データの取得が完了したら、CPU10
は、S007,S008の処理を行い、物体Bの画像デ
ータを取得する。図6は、S008の処理終了後にディ
スプレイ25に表示される画像データの表示例である。
All distance measuring points 3 set on object B
When the acquisition of the distance measurement data for the
Performs the processing of S007 and S008, and acquires image data of the object B. FIG. 6 is a display example of image data displayed on the display 25 after the processing of S008 is completed.

【0077】次に、CPU10は、S009〜S012
までの処理を行い、取得した画像データに基づいて物体
Bの輪郭線ベクトルデータを算出する。図7は、ディス
プレイ装置25に表示される輪郭線ベクトルデータであ
る。続いてCPU10は、S013〜S015までの処
理を行い、境界ベクトルデータを算出する。図7は、S
015の処理終了後にディスプレイ25に表示される輪
郭線ベクトルデータと境界ベクトルデータの画面表示例
である。
Next, the CPU 10 executes S009 to S012.
Are performed, and the contour vector data of the object B is calculated based on the acquired image data. FIG. 7 shows outline vector data displayed on the display device 25. Subsequently, the CPU 10 performs the processing from S013 to S015 to calculate the boundary vector data. FIG.
It is a screen display example of the outline vector data and the boundary vector data displayed on the display 25 after the processing of 015 is completed.

【0078】続いて、CPU10は、S016〜S01
8までの処理を行い、輪郭線ベクトルデータに基づいて
モデリングデータを作成する。図8は、S018の処理
終了後にディスプレイ25に表示されるモデリングデー
タの画面表示例である。
Subsequently, the CPU 10 determines in steps S016 to S01
8 to create modeling data based on the contour vector data. FIG. 8 is a screen display example of the modeling data displayed on the display 25 after the processing of S018 is completed.

【0079】更に、CPU10は、S020にて“M”
のキーが押された場合には、モデリングデータについて
編集を行う(S022)。また、CPU10は、S02
4,S025の処理を行い、輪郭線ベクトルと境界ベク
トルとに囲まれた各面を細分化して、テクスチャデータ
を作成する。図9は、S022及びS025の処理終了
後にディスプレイ25に表示されるモデリングデータと
テクスチャデータとを示す画面表示例である。
Further, the CPU 10 sets "M" in S020.
If the key is pressed, the modeling data is edited (S022). Further, the CPU 10 executes S02
4, the processing of S025 is performed, and each surface surrounded by the contour line vector and the boundary vector is subdivided to create texture data. FIG. 9 is a screen display example showing the modeling data and the texture data displayed on the display 25 after the processing of S022 and S025 is completed.

【0080】このように、本実施形態によれば、物体B
の1画面分の各CCD素子31(画素)毎の画像データ
(2次元画像データ)を取得するとともに、各画素に対応
する測距ポイント32の測距データを取得し、各2次元
の画像データを各測距データに基づいて3次元変換する
することによって、物体Bのモデリングデータを作成す
る。即ち、物体Bの立体形状を認識する。
As described above, according to the present embodiment, the object B
Image data for each CCD element 31 (pixel) for one screen
By acquiring (two-dimensional image data), acquiring the distance measurement data of the distance measurement point 32 corresponding to each pixel, and performing three-dimensional conversion on each two-dimensional image data based on each distance measurement data, The modeling data of the object B is created. That is, the three-dimensional shape of the object B is recognized.

【0081】このため、従来のように物体Bを回転,又
は撮像装置21等を回転させなくても物体Bの立体形状
を認識することができる。また、本実施形態では、回転
台装置23が設けてあるので、例えば物体を180゜回
転させることによって、完全な物体Bの立体形状を認識
することができる。従って、光切断法を用いた形状認識
装置に比し、物体Bを回転させる回数を著しく減少させ
ることができるとともに、形状認識装置の処理(動作)数
を簡略化でき、処理時間の短縮化を図ることができる。
Therefore, it is possible to recognize the three-dimensional shape of the object B without rotating the object B or rotating the imaging device 21 or the like as in the related art. Further, in the present embodiment, since the turntable device 23 is provided, the complete three-dimensional shape of the object B can be recognized by, for example, rotating the object by 180 °. Therefore, the number of times the object B is rotated can be significantly reduced, and the number of processes (operations) of the shape recognition device can be simplified as compared with the shape recognition device using the light section method. Can be planned.

【0082】ところで、本発明による形状認識装置は、
上述したように、物体Bを回転させる構成(回転台装置
23)等を特に必要としないので、図11に示されるよ
うに、例えば、デジタルカメラK1とこのデジタルカメ
ラK1にケーブルC及びインターフェイス(図示せず)を
介して接続されたノート型パーソナルコンピュータ(パ
ソコン)K2とから構成することもできる。この場合に
は、図12に示されるように、例えば、撮像装置21,
赤外光投光装置22,照明装置24,及びアクチュエー
タ26をデジタルカメラK1が備えるとともに、制御装
置1,液晶ディスプレイ25,キーボード27,及びマ
ウス28をパソコンK2が備えるように構成する。
By the way, the shape recognition device according to the present invention
As described above, since a configuration for rotating the object B (the turntable device 23) and the like are not particularly required, as shown in FIG. 11, for example, a digital camera K1 and a cable C and an interface (see FIG. (Not shown) and a notebook personal computer (personal computer) K2 connected thereto. In this case, for example, as shown in FIG.
The digital camera K1 includes an infrared light projecting device 22, a lighting device 24, and an actuator 26, and the personal computer K2 includes a control device 1, a liquid crystal display 25, a keyboard 27, and a mouse 28.

【0083】そして、デジタルカメラK1によって、上
述した物体Bの2次元の画像データ(撮像CCD21a
の出力)及び物体Bと測距ポイント32との距離(測距デ
ータ)とが取得され、これらのデータがパソコンK2に
転送され、パソコンK2の制御装置1(CPU10)によ
って、デジタルカメラK1から転送された各データに基
づいて物体Bの3次元の画像データ(モデリングデータ)
が作成されるように構成する。このような構成とすれ
ば、形状認識装置の小型化が図られるので、その携帯性
が向上するとともに、容易に物体Bのモデリングデータ
を作成することが可能となる。なお、図11に示される
形状認識装置において、デジタルカメラK1とパソコン
K2との間のデータ転送は、無線によるものであっても
良い。
The two-dimensional image data of the object B (the imaging CCD 21a)
Output) and the distance (distance measurement data) between the object B and the distance measurement point 32, and these data are transferred to the personal computer K2, and transferred from the digital camera K1 by the control device 1 (CPU 10) of the personal computer K2. 3D image data of the object B (modeling data) based on the obtained data
Is configured to be created. With such a configuration, the size of the shape recognition device can be reduced, so that its portability can be improved and modeling data of the object B can be easily created. Note that in the shape recognition device shown in FIG. 11, data transfer between the digital camera K1 and the personal computer K2 may be wireless.

【0084】また、本発明による形状認識装置は、例え
ば、CCDカメラを搭載したモバイルコンピュータ(例
えば、電子手帳)の記憶装置に上述した制御プログラム
を記憶させることで構成することもできる。この場合に
は、例えば、上述したモデリングデータが作成されるま
での処理をモバイルコンピュータ上で行うように構成す
るのが好ましい。そして、モバイルコンピュータで作成
されたモデリングデータを、パソコンやワークステーシ
ョン等の上位コンピュータに転送し、これらの上位コン
ピュータによって実行されるモデリングソフトやCAD
ソフト上で、モデリングデータの編集や細分化等が行わ
れるようにしても良い。このようにすれば、形状認識装
置の携帯性をさらに高めることができる。
The shape recognizing device according to the present invention can also be configured by, for example, storing the above-described control program in a storage device of a mobile computer (for example, an electronic organizer) equipped with a CCD camera. In this case, for example, it is preferable that the processing until the above-described modeling data is created is performed on a mobile computer. Then, the modeling data created by the mobile computer is transferred to a host computer such as a personal computer or a workstation, and modeling software or CAD executed by the host computer is transferred.
Editing or subdivision of the modeling data may be performed on software. In this way, the portability of the shape recognition device can be further improved.

【0085】[0085]

【発明の効果】本発明の形状認識装置,形状認識方法,
及びコンピュータプログラムを記録した記録媒体によれ
ば、立体形状認識対象となる物体を回転させる構成,或
いは物体を中心として形状認識装置を周回させる構成を
特に不要として小型化を図ることができ、且つ従来に比
し容易に物体の立体形状データを得ることができる。
According to the present invention, a shape recognition apparatus, a shape recognition method,
According to the recording medium on which the computer program is recorded, the configuration for rotating the object to be recognized as the three-dimensional shape or the configuration for rotating the shape recognition device around the object is not particularly required, and the size can be reduced. 3D shape data of an object can be easily obtained.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施形態による形状認識装置の構成例
を示す図
FIG. 1 is a diagram showing a configuration example of a shape recognition device according to an embodiment of the present invention.

【図2】形状認識装置の測距を行う構成の説明図FIG. 2 is an explanatory diagram of a configuration for performing distance measurement of a shape recognition device.

【図3】撮像CCDの撮像面を示す図FIG. 3 is a diagram showing an imaging surface of an imaging CCD.

【図4】形状認識装置のCPUの処理を示す流れ図FIG. 4 is a flowchart showing processing of a CPU of the shape recognition device.

【図5】形状認識装置のCPUの処理を示す流れ図FIG. 5 is a flowchart showing processing of a CPU of the shape recognition device.

【図6】ディスプレイの画面表示例FIG. 6 is a display screen example of a display.

【図7】ディスプレイの画面表示例FIG. 7 is a screen display example of a display.

【図8】ディスプレイの画面表示例FIG. 8 is a display example of a display screen.

【図9】ディスプレイの画面表示例FIG. 9 is a display screen example of a display.

【図10】ディスプレイの画面表示例FIG. 10 is a display screen example of a display.

【図11】形状認識装置の変形例を示す図FIG. 11 is a diagram showing a modification of the shape recognition device.

【図12】形状認識装置の変形例を示す図FIG. 12 is a diagram showing a modification of the shape recognition device.

【図13】従来の形状認識装置の説明図FIG. 13 is an explanatory diagram of a conventional shape recognition device.

【符号の説明】[Explanation of symbols]

B 物体 K1 デジタルカメラ K2 パーソナルコンピュータ 1 制御装置 10 CPU(変換手段) 17 ROM 18 RAM 21 撮像装置(撮像手段) 22 赤外光投光装置(測距手段) B Object K1 Digital Camera K2 Personal Computer 1 Controller 10 CPU (Conversion Unit) 17 ROM 18 RAM 21 Imaging Device (Imaging Unit) 22 Infrared Light Projector (Ranging Unit)

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】物体の立体形状を認識する装置であって、 前記物体の2次元の画像データを取得する撮像手段と、 前記物体と前記撮像手段との間の距離を測距データとし
て取得する測距手段と、 前記物体の2次元の画像データを前記測距データに基づ
いて物体の3次元の画像データに変換する変換手段とを
備えたことを特徴とする形状認識装置。
1. An apparatus for recognizing a three-dimensional shape of an object, comprising: imaging means for acquiring two-dimensional image data of the object; and acquiring a distance between the object and the imaging means as distance measurement data. A shape recognition apparatus comprising: a distance measuring unit; and a converting unit that converts two-dimensional image data of the object into three-dimensional image data of the object based on the distance measurement data.
【請求項2】物体の立体形状を認識する装置であって、 複数の画素からなる撮像面を有し各画素毎に前記物体の
2次元の画像データを夫々取得する撮像手段と、 前記各画素に対応づけて前記撮像面に設定された複数の
物体の測距ポイントと前記物体との距離を測距データと
して夫々取得する測距手段と、 前記各物体の2次元の画像データを各測距データに基づ
いて物体の3次元の画像データに夫々変換する変換手段
とを備えたことを特徴とする形状認識装置。
2. An apparatus for recognizing a three-dimensional shape of an object, comprising: an image pickup means having an image pickup surface composed of a plurality of pixels and acquiring two-dimensional image data of the object for each pixel; Distance measuring means for acquiring distances between a plurality of distance measuring points of the objects set on the imaging surface and the object as distance measuring data; and measuring two-dimensional image data of each of the objects by distance measuring. Conversion means for converting each of the data into three-dimensional image data of the object based on the data.
【請求項3】前記変換手段が、前記物体の2次元の画像
データに基づいてこの物体の2次元の輪郭線ベクトルデ
ータ,及び,物体の表面をなす面の2次元の境界ベクト
ルデータを算出するとともに、これらの輪郭線ベクトル
データ及び境界ベクトルデータを前記測距データに基づ
いて3次元ベクトル化することによって前記物体の3次
元の画像データを得ることを含むことを特徴とする請求
項1又は2記載の形状認識装置。
3. The conversion means calculates two-dimensional contour vector data of the object and two-dimensional boundary vector data of a surface forming the surface of the object based on the two-dimensional image data of the object. 3. The method according to claim 1, further comprising obtaining three-dimensional image data of the object by converting these contour vector data and boundary vector data into three-dimensional vectors based on the distance measurement data. The shape recognition device described in the above.
【請求項4】物体の立体形状を認識する方法であって、 前記物体を撮像することによって前記物体の2次元の画
像データを取得するステップと、 前記物体と前記撮像位置との間の距離を測距データとし
て取得するステップと、 前記物体の2次元の画像データを前記測距データに基づ
いて物体の3次元の画像データに変換するステップとを
含むことを特徴とする形状認識方法。
4. A method for recognizing a three-dimensional shape of an object, comprising: acquiring two-dimensional image data of the object by imaging the object; and determining a distance between the object and the imaging position. A shape recognition method, comprising: acquiring as distance measurement data; and converting two-dimensional image data of the object into three-dimensional image data of the object based on the distance measurement data.
【請求項5】物体の立体形状を認識する方法であって、 複数の画素からなる撮像面を有する撮像手段によって各
画素毎の前記物体の2次元の画像データを夫々取得する
ステップと、 前記各画素に対応づけて前記撮像面に設定された複数の
物体の測距ポイントと前記物体との距離を測距データと
して夫々取得するステップと、 前記各物体の2次元の画像データを各測距データに基づ
いて物体の3次元の画像データに夫々変換するステップ
とを含むことを特徴とする形状認識方法。
5. A method for recognizing a three-dimensional shape of an object, comprising: acquiring two-dimensional image data of the object for each pixel by an imaging unit having an imaging surface including a plurality of pixels; Obtaining distance measurement points of the plurality of objects set on the imaging surface in association with pixels as distance measurement data, respectively; and obtaining two-dimensional image data of the respective objects as distance measurement data. Respectively converting the three-dimensional image data into three-dimensional image data of the object on the basis of
【請求項6】前記物体の3次元の画像データが、前記物
体の2次元の画像データに基づいてこの物体の2次元の
輪郭線ベクトルデータ,及び,物体の表面をなす面の2
次元の境界ベクトルデータを算出するとともに、これら
の輪郭線ベクトルデータ及び境界ベクトルデータを前記
測距データに基づいて3次元ベクトル化することによっ
て得られることを特徴とする請求項4又は5記載の形状
認識方法。
6. The three-dimensional image data of the object is based on the two-dimensional image data of the object, the two-dimensional contour vector data of the object, and the two-dimensional surface data of the object.
The shape according to claim 4 or 5, wherein the shape is obtained by calculating three-dimensional boundary vector data and converting these outline vector data and boundary vector data into three-dimensional vectors based on the distance measurement data. Recognition method.
【請求項7】物体の立体形状を認識する処理を実行させ
るコンピュータプログラムを記録した記録媒体であっ
て、 コンピュータに、 前記物体を撮像することによって得られた前記物体の2
次元の画像データを読み出すステップと、 前記物体と前記撮像位置との間の距離を測定して得られ
た測距データを読み出すステップと、 前記物体の2次元の画像データを前記測距データに基づ
いて物体の3次元の画像データに変換するステップとを
実行させるコンピュータプログラムを記録した記録媒
体。
7. A recording medium on which a computer program for executing a process of recognizing a three-dimensional shape of an object is recorded.
Reading two-dimensional image data; reading distance measurement data obtained by measuring a distance between the object and the imaging position; and obtaining two-dimensional image data of the object based on the distance measurement data. Converting the image data into three-dimensional image data of the object.
【請求項8】物体の立体形状を認識する処理を実行させ
るコンピュータプログラムを記録した記録媒体であっ
て、 コンピュータに、 複数の画素からなる撮像面を有する撮像手段によって得
られた各画素毎の物体の2次元の画像データを夫々読み
出すステップと、 前記各画素に対応づけて前記撮像面に設定された複数の
物体の測距ポイントと前記物体との距離を測定して得ら
れた測距データを夫々読み出すステップと、 前記各物体の2次元の画像データを各測距データに基づ
いて物体の3次元の画像データに夫々変換するステップ
とを実行させるコンピュータプログラムを記録した記録
媒体。
8. A recording medium on which a computer program for executing a process of recognizing a three-dimensional shape of an object is recorded. The computer stores, for each pixel, an object obtained by an image pickup means having an image pickup surface including a plurality of pixels. Reading the two-dimensional image data respectively, and measuring the distance between the object and the distance measurement points of a plurality of objects set on the imaging surface in association with each of the pixels. A recording medium storing a computer program for executing a reading step and a step of converting the two-dimensional image data of each object into three-dimensional image data of the object based on each distance measurement data.
【請求項9】前記物体の2次元の画像データを物体の3
次元の画像データに変換するステップが、前記物体の2
次元の画像データに基づいてこの物体の2次元の輪郭線
ベクトルデータ,及び,物体の表面をなす面の2次元の
境界ベクトルデータを算出するステップと、これらの輪
郭線ベクトルデータ及び境界ベクトルデータを前記測距
データに基づいて3次元ベクトル化するステップとを含
むことを特徴とする請求項7又は8記載のコンピュータ
プログラムを記録した記録媒体。
9. The method according to claim 9, wherein the two-dimensional image data of the object is
Converting the image data into two-dimensional image data;
Calculating two-dimensional contour vector data of the object and two-dimensional boundary vector data of a surface forming the surface of the object based on the two-dimensional image data; 9. A recording medium storing a computer program according to claim 7, further comprising a step of performing three-dimensional vectorization based on the distance measurement data.
JP12731297A 1997-05-16 1997-05-16 Shape recognition device, shape recognition method, and recording medium recording computer program Expired - Lifetime JP3380709B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP12731297A JP3380709B2 (en) 1997-05-16 1997-05-16 Shape recognition device, shape recognition method, and recording medium recording computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP12731297A JP3380709B2 (en) 1997-05-16 1997-05-16 Shape recognition device, shape recognition method, and recording medium recording computer program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2002265214A Division JP3860525B2 (en) 2002-09-11 2002-09-11 Shape recognition apparatus, shape recognition method, and recording medium recording computer program

Publications (2)

Publication Number Publication Date
JPH10320553A true JPH10320553A (en) 1998-12-04
JP3380709B2 JP3380709B2 (en) 2003-02-24

Family

ID=14956836

Family Applications (1)

Application Number Title Priority Date Filing Date
JP12731297A Expired - Lifetime JP3380709B2 (en) 1997-05-16 1997-05-16 Shape recognition device, shape recognition method, and recording medium recording computer program

Country Status (1)

Country Link
JP (1) JP3380709B2 (en)

Also Published As

Publication number Publication date
JP3380709B2 (en) 2003-02-24

Similar Documents

Publication Publication Date Title
KR102461093B1 (en) Depth image providing apparatus and method
JP5453000B2 (en) Method and apparatus for 3D digitizing an object
Moreno et al. Simple, accurate, and robust projector-camera calibration
US20120176478A1 (en) Forming range maps using periodic illumination patterns
KR101783379B1 (en) Depth camera compatibility
US20120176380A1 (en) Forming 3d models using periodic illumination patterns
US20150298395A1 (en) 3d scanning-printing device
US20150098636A1 (en) Integrated tracking with fiducial-based modeling
CN109618108B (en) Electronic equipment and mobile platform
WO2009120073A2 (en) A dynamically calibrated self referenced three dimensional structured light scanner
Pagliari et al. Kinect fusion improvement using depth camera calibration
JP2000346638A (en) Method for generating measuring procedure file, measuring apparatus and storage medium
WO2015054265A1 (en) Integrated tracking with world modeling
JP2003202216A (en) Method, device, system and program for three-dimensional image processing
JP2001243468A (en) Device, method, and metdium for three-dimensional modeling, and device, method, and medium for three- dimensional shape data recording
Wilm et al. Accurate and simple calibration of DLP projector systems
JP2021128658A (en) Position detection method, position detection device, and position detection system
CN114173105A (en) Information generating method, information generating system, and recording medium
JP2007508557A (en) Device for scanning three-dimensional objects
JP2001148025A (en) Device and method for detecting position, and device and method for detecting plane posture
JP2006098256A (en) Three-dimensional surface model preparing system, image processing system, program, and information recording medium
JP7331527B2 (en) Apparatus, method and program for determining robot motion
US20040095484A1 (en) Object segmentation from images acquired by handheld cameras
JP2002031513A (en) Three-dimensional measuring device
JP2021128660A (en) Operation detection method, operation detection device, and display system

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D03

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313114

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081213

Year of fee payment: 6

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081213

Year of fee payment: 6

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081213

Year of fee payment: 6

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081213

Year of fee payment: 6

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091213

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091213

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101213

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101213

Year of fee payment: 8

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101213

Year of fee payment: 8

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101213

Year of fee payment: 8

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101213

Year of fee payment: 8

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101213

Year of fee payment: 8

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101213

Year of fee payment: 8

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111213

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121213

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131213

Year of fee payment: 11

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term