JP2003157427A - Shape recognition device, shape recognition method, and recording medium recording computer program - Google Patents

Shape recognition device, shape recognition method, and recording medium recording computer program

Info

Publication number
JP2003157427A
JP2003157427A JP2002265214A JP2002265214A JP2003157427A JP 2003157427 A JP2003157427 A JP 2003157427A JP 2002265214 A JP2002265214 A JP 2002265214A JP 2002265214 A JP2002265214 A JP 2002265214A JP 2003157427 A JP2003157427 A JP 2003157427A
Authority
JP
Japan
Prior art keywords
data
dimensional
image data
dimensional image
distance measurement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002265214A
Other languages
Japanese (ja)
Other versions
JP3860525B2 (en
Inventor
Michimoto Sakai
道元 酒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsubasa System Co Ltd
Original Assignee
Tsubasa System Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsubasa System Co Ltd filed Critical Tsubasa System Co Ltd
Priority to JP2002265214A priority Critical patent/JP3860525B2/en
Publication of JP2003157427A publication Critical patent/JP2003157427A/en
Application granted granted Critical
Publication of JP3860525B2 publication Critical patent/JP3860525B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a shape recognition device capable of being miniaturized by eliminating especially the need of constitution for rotating an object to be a three-dimensional shape recognition object and obtaining the three- dimensional shape data on the object more easily than before. SOLUTION: In this shape recognition device, a CPU 10 measures the distances of each distance measuring point 32 set on an image pickup surface 41 of an imaging device 21 and an object B, and obtains the respective distances as distance measurement data. Also, the CPU 10 obtains the two-dimensional image data of the object by making the imaging device 21 pick up the image of the object B, and calculates the two-dimensional contour line vector data and two-dimensional boundary vector data of the object B based on the two-dimensional image data on the object B. Then, the CPU 10 converts the vector data into three-dimensional vector data based on each distance measurement datum. Thus, the three-dimensional modeling data on the object B are prepared.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、物体の立体形状を
認識する形状認識装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a shape recognition device for recognizing a three-dimensional shape of an object.

【0002】[0002]

【従来の技術】従来、物体の3次元形状(立体形状)の認
識を行う一つの方法として、光切断法が利用されてい
る。図11は、光切断法による立体の形状認識装置の例
を示す図である。図11において、形状認識装置は、回
転台33に載置された形状認識対象となる物体Aと、こ
の物体Aの表面上にスリット状のレーザ光Sを投光する
投光装置32と、撮像面を物体Aに向けて配置された撮
像装置(撮像CCD)34(図11には撮像面のみ図示)
と、撮像装置34に接続された図示せぬプロセッサ装置
(コンピュータ)とからなる。
2. Description of the Related Art Conventionally, a light cutting method has been used as one method for recognizing a three-dimensional shape (three-dimensional shape) of an object. FIG. 11 is a diagram showing an example of a three-dimensional shape recognition device by the light section method. In FIG. 11, the shape recognition device includes an object A, which is a shape recognition target, placed on a turntable 33, a light projecting device 32 which projects a slit-shaped laser beam S on the surface of the object A, and an image pickup device. Imaging device (imaging CCD) 34 arranged with its surface facing the object A (only the imaging surface is shown in FIG. 11)
And a processor device (not shown) connected to the imaging device 34
(Computer) and.

【0003】そして、この形状認識装置は、物体Aの形
状認識を行う場合には、以下の一連の動作を行う。即
ち、投光装置32からスリット状のレーザ光Sが発せら
れると、物体の表面には、その表面形状に沿った高輝度
線Lが生じる。ここで、図11に示される例では、物体
Aが球体であるので、円弧状の高輝度線Lが生じる。こ
の高輝度線Lが撮像装置34に撮像されると、プロセッ
サ装置が、高輝度線L上の各点の空間座標データを物体
Aの表面形状データとして算出し、図示せぬ記憶装置に
格納する。
When the shape of the object A is recognized, the shape recognition apparatus carries out the following series of operations. That is, when the slit-shaped laser light S is emitted from the light projecting device 32, a high-intensity line L along the surface shape is generated on the surface of the object. Here, in the example shown in FIG. 11, since the object A is a sphere, the arc-shaped high-intensity line L is generated. When the high-intensity line L is imaged by the imaging device 34, the processor device calculates the spatial coordinate data of each point on the high-intensity line L as the surface shape data of the object A and stores it in a storage device (not shown). .

【0004】以上の一連の動作は、回転台33を回転さ
せることによって物体Aの表面上における高輝度線Lの
位置を変えて複数回行われ、夫々の場合における各物体
Aの表面形状データが図示せぬ記憶装置に記憶される。
そして、図示せぬプロセッサ装置が各表面形状データ同
士を物体Aに対する高輝度線Lの位置を参照しつつ組み
合わせる処理や各表面形状データ間を補間する処理を行
うことによって、物体Aの立体形状データが作成され
る。このようにして、物体Aの立体形状が認識されてい
る。
The above series of operations are performed a plurality of times by changing the position of the high-intensity line L on the surface of the object A by rotating the rotary table 33, and the surface shape data of each object A in each case is obtained. It is stored in a storage device (not shown).
Then, a processor device (not shown) performs a process of combining the surface shape data with each other while referring to the position of the high-intensity line L with respect to the object A, and a process of interpolating between the surface shape data, so that the three-dimensional shape data of the object A is obtained. Is created. In this way, the three-dimensional shape of the object A is recognized.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、従来に
おける形状認識装置には以下の問題があった。すなわ
ち、光切断法を用いた形状認識装置では、上述したよう
に物体Aの表面に生じる高輝度線Lの位置を変える必要
があるので、形状認識装置には、上述した回転台33等
の物体Aを回転させる構成,或いは、物体Aを中心とし
て投光装置32と撮像装置34とを円軌跡を描いて周回
させる構成が必要であった。
However, the conventional shape recognition device has the following problems. That is, in the shape recognition device using the optical cutting method, since it is necessary to change the position of the high-intensity line L generated on the surface of the object A as described above, the shape recognition device includes an object such as the rotating table 33 described above. A configuration for rotating A or a configuration for orbiting the light projecting device 32 and the imaging device 34 around the object A in a circular locus is required.

【0006】ところが、形状認識装置に回転台33を設
けた場合には、その回転台33の形状や回転台33を回
転させるモータの性能によって回転台33に載置できる
物体Aの制限が生じるので、形状認識装置を使用可能な
物体Aが制限される場合があった。一方、形状認識装置
に投光装置32と撮像装置34とを周回させる構成を設
けた場合には、形状認識装置が大型化するとともに、投
光装置32と撮像装置34とが周回する円の直径よりも
大きい物体Aについては使用できない場合が生じてい
た。
However, when the shape recognition device is provided with the turntable 33, the shape of the turntable 33 and the performance of the motor for rotating the turntable 33 limit the objects A that can be placed on the turntable 33. In some cases, the object A that can use the shape recognition device is limited. On the other hand, when the shape recognition device is provided with a configuration in which the light projecting device 32 and the image pickup device 34 circulate, the size of the shape recognition device increases and the diameter of the circle around which the light projecting device 32 and the image pickup device 34 circulate. In some cases, the larger object A cannot be used.

【0007】また、上述した形状認識装置の一連の動作
により得られる表面形状データは、高輝度線L上の各点
の空間座標データであるので、物体Aの立体形状データ
を得るには、多数の表面形状データを組み合わせること
を必要としていた。特に、物体Aの形状が複雑である場
合には、表面形状データ間の補間処理によっては適正な
立体形状データを得られない場合があるので、さらに多
数の表面形状データを取得する必要があった。このた
め、光切断法を用いた形状認識装置によって立体形状デ
ータを作成するには多くの処理や時間を要していた。
Further, since the surface shape data obtained by the series of operations of the shape recognition apparatus described above is the spatial coordinate data of each point on the high-intensity line L, a large number of three-dimensional shape data of the object A can be obtained. It was necessary to combine the surface shape data of In particular, when the shape of the object A is complicated, it may be impossible to obtain proper three-dimensional shape data by the interpolation processing between the surface shape data, so that it is necessary to acquire more surface shape data. . For this reason, it takes a lot of processing and time to create three-dimensional shape data by the shape recognition device using the optical cutting method.

【0008】本発明は、上記した問題に鑑みなされたも
のであり、立体形状認識対象となる物体を回転させる構
成,或いは物体を中心として形状認識装置を周回させる
構成を特に不要として小型化を図ることができ、且つ従
来に比し容易に物体の立体形状データを得ることのでき
る形状認識装置を提供することを課題とする。
The present invention has been made in view of the above-mentioned problems, and it is possible to reduce the size by eliminating the need for a structure for rotating an object to be recognized as a three-dimensional shape or a structure for orbiting a shape recognition device around the object. An object of the present invention is to provide a shape recognition device that can obtain the three-dimensional shape data of an object more easily than before.

【0009】[0009]

【課題を解決するための手段】本発明は、上述した問題
を解決するために以下の構成を採用する。すなわち、本
発明は、物体の立体形状を認識する装置であって、前記
物体の2次元の画像データを取得する撮像手段と、前記
物体と前記撮像手段との間の距離を測距データとして取
得する測距手段と、前記物体の2次元の画像データを前
記測距データに基づいて物体の3次元の画像データに変
換する変換手段とを備える。
The present invention adopts the following constitution in order to solve the above-mentioned problems. That is, the present invention is a device for recognizing a three-dimensional shape of an object, wherein an image pickup means for obtaining two-dimensional image data of the object and a distance between the object and the image pickup means are obtained as distance measurement data. Distance measuring means for converting the two-dimensional image data of the object into three-dimensional image data of the object based on the distance measuring data.

【0010】本発明によれば、撮像手段が物体の2次元
の画像データを取得する。また、測距手段が物体と撮像
手段との間の距離を測距データとして取得する。そし
て、変換手段が物体の2次元の画像データを測距データ
に基づいて3次元の画像データに変換する。これによっ
て、物体の3次元形状が認識される。
According to the present invention, the image pickup means acquires two-dimensional image data of the object. Further, the distance measuring means acquires the distance between the object and the image pickup means as distance measuring data. Then, the conversion means converts the two-dimensional image data of the object into three-dimensional image data based on the distance measurement data. Thereby, the three-dimensional shape of the object is recognized.

【0011】ここに、撮像手段には、CCDカメラやデ
ジタルカメラ等を挙げることができる。また、測距手段
は、例えば、認識対象たる物体に対して光源と撮像手段
とを所定の距離をおいて配置し三角測量の原理を用いて
物体と撮像手段との距離を測定する構成が好ましいが、
光源から投光された光が戻ってくるまでの時間を測定し
その時間に対応する距離を求める方法や、光源から物体
に対する投射光と物体の反射光との位相差を測定してそ
の位相差に対応する距離を求める方法によって物体と撮
像手段との距離を測定する構成であっても良い。
The image pickup means may be a CCD camera, a digital camera or the like. Further, the distance measuring means preferably has a configuration in which the light source and the image pickup means are arranged at a predetermined distance from the object to be recognized and the distance between the object and the image pickup means is measured using the principle of triangulation. But,
A method of measuring the time until the light emitted from the light source returns and finding the distance corresponding to that time, or measuring the phase difference between the projected light from the light source to the object and the reflected light of the object The distance between the object and the image pickup means may be measured by a method of obtaining the distance corresponding to.

【0012】変換手段は、例えば、CPUが所定の制御
プログラムを実行することによって実現される機能とし
て構成できる。変換手段は、例えば、前記物体の2次元
の画像データに基づいてこの物体の2次元の輪郭線ベク
トルデータを算出し、前記輪郭線ベクトルで囲まれた領
域内の境界ベクトルデータを算出するとともに、これら
の輪郭線ベクトルデータ及び境界ベクトルデータを前記
測距データに基づいて3次元ベクトル化することによっ
て前記物体の3次元の画像データを得るように構成す
る。
The conversion means can be configured as a function realized by the CPU executing a predetermined control program, for example. The converting means calculates, for example, two-dimensional contour line vector data of the object based on the two-dimensional image data of the object, and calculates boundary vector data in an area surrounded by the contour line vector. The contour line vector data and the boundary vector data are three-dimensionally vectorized based on the distance measurement data to obtain three-dimensional image data of the object.

【0013】本発明は、物体の立体形状を認識する装置
であって、複数の画素からなる撮像面を有し各画素毎に
前記物体の2次元の画像データを夫々取得する撮像手段
と、前記各画素に対応づけて前記撮像面に設定された複
数の物体の測距ポイントと前記物体との距離を測距デー
タとして夫々取得する測距手段と、前記各物体の2次元
の画像データを各測距データに基づいて物体の3次元の
画像データに夫々変換する変換手段とを備える。
The present invention is a device for recognizing a three-dimensional shape of an object, which has an imaging surface composed of a plurality of pixels, and imaging means for acquiring two-dimensional image data of the object for each pixel. Distance-measuring means for respectively obtaining distance-measuring points of distance-measuring points of a plurality of objects set on the image pickup surface in association with each pixel and distance-measuring data, and two-dimensional image data of each object. And conversion means for respectively converting into three-dimensional image data of the object based on the distance measurement data.

【0014】また、本発明による形状認識装置は、変換
手段によって変換された物体の3次元の画像データを編
集させる編集手段を有していても良く、物体の3次元の
画像データに基づいて、テクスチャデータやカラーパレ
ットデータを作成する手段を有していても良い。
Further, the shape recognition apparatus according to the present invention may have an editing means for editing the three-dimensional image data of the object converted by the converting means, and based on the three-dimensional image data of the object, It may have a means for creating texture data and color palette data.

【0015】本発明は、物体の立体形状を認識する形状
認識方法であって、前記物体を撮像することによって前
記物体の2次元の画像データを取得するステップと、前
記物体と前記撮像位置との間の距離を測距データとして
取得するステップと、前記物体の2次元の画像データを
前記測距データに基づいて物体の3次元の画像データに
変換するステップとを含む。
The present invention is a shape recognition method for recognizing a three-dimensional shape of an object, comprising a step of acquiring two-dimensional image data of the object by imaging the object, and a step of acquiring the object and the imaging position. The method includes a step of obtaining a distance between them as distance measurement data, and a step of converting two-dimensional image data of the object into three-dimensional image data of the object based on the distance measurement data.

【0016】本発明は、物体の立体形状を認識する形状
認識方法であって、複数の画素からなる撮像面を有する
撮像手段によって各画素毎の前記物体の2次元の画像デ
ータを夫々取得するステップと、前記各画素に対応づけ
て前記撮像面に設定された複数の物体の測距ポイントと
前記物体との距離を測距データとして夫々取得するステ
ップと、前記各物体の2次元の画像データを各測距デー
タに基づいて物体の3次元の画像データに夫々変換する
ステップとを含む。
The present invention is a shape recognition method for recognizing a three-dimensional shape of an object, wherein two-dimensional image data of the object is obtained for each pixel by an image pickup means having an image pickup surface composed of a plurality of pixels. And a step of acquiring distances between the objects and distance measurement points of a plurality of objects set on the imaging surface in association with the respective pixels as distance measurement data, and two-dimensional image data of the respective objects. Converting each of the distance measurement data into three-dimensional image data of the object.

【0017】本発明による形状認識方法は、物体の3次
元の画像データが、前記物体の2次元の画像データに基
づいてこの物体の2次元の輪郭線ベクトルデータを算出
し、前記輪郭線ベクトルで囲まれた領域内の境界ベクト
ルデータを算出するとともに、これらの輪郭線ベクトル
データ及び境界ベクトルデータを前記測距データに基づ
いて3次元ベクトル化することによって得られることを
含む。
In the shape recognition method according to the present invention, three-dimensional image data of an object is calculated based on the two-dimensional image data of the object, and two-dimensional contour line vector data of the object is calculated. It is obtained by calculating boundary vector data in the enclosed area and converting these contour vector data and boundary vector data into a three-dimensional vector based on the distance measurement data.

【0018】本発明は、物体の立体形状を認識する処理
を実行させるコンピュータプログラムを記録した記録媒
体であって、コンピュータに、前記物体を撮像すること
によって得られた前記物体の2次元の画像データを読み
出すステップと、前記物体と前記撮像位置との間の距離
を測定して得られた測距データを読み出すステップと、
前記物体の2次元の画像データを前記測距データに基づ
いて物体の3次元の画像データに変換するステップとを
実行させるコンピュータプログラムを記録している。
The present invention is a recording medium in which a computer program for executing processing for recognizing a three-dimensional shape of an object is recorded, wherein two-dimensional image data of the object obtained by imaging the object on a computer. And a step of reading distance measurement data obtained by measuring a distance between the object and the imaging position,
And a step of converting the two-dimensional image data of the object into three-dimensional image data of the object based on the distance measurement data.

【0019】ここに、記録媒体には、例えば、ROM,
RAM,CD−ROM,光磁気ディスク,フロッピー
(登録商標)ディスク,ハードディスク,PD,磁気テ
ープ等の各種の記憶装置が含まれる。
Here, the recording medium is, for example, a ROM,
It includes various storage devices such as RAM, CD-ROM, magneto-optical disk, floppy (registered trademark) disk, hard disk, PD, and magnetic tape.

【0020】本発明は、物体の立体形状を認識する処理
を実行させるコンピュータプログラムを記録した記録媒
体であって、コンピュータに、複数の画素からなる撮像
面を有する撮像手段によって得られた各画素毎の物体の
2次元の画像データを夫々読み出すステップと、前記各
画素に対応づけて前記撮像面に設定された複数の物体の
測距ポイントと前記物体との距離を測定して得られた測
距データを夫々読み出すステップと、前記各物体の2次
元の画像データを各測距データに基づいて物体の3次元
の画像データに夫々変換するステップとを実行させるコ
ンピュータプログラムを記録している。
The present invention is a recording medium in which a computer program for executing a process of recognizing a three-dimensional shape of an object is recorded, wherein each pixel is obtained by an image pickup means having an image pickup surface composed of a plurality of pixels. Each of the two-dimensional image data of the object, and the distance measurement obtained by measuring the distance between the object and the distance measurement points of the plurality of objects set on the imaging surface in association with each pixel. A computer program is recorded to execute a step of reading out the data and a step of converting the two-dimensional image data of each object into three-dimensional image data of the object based on each distance measurement data.

【0021】本発明の記録媒体に記録されたコンピュー
タプログラムは、物体の2次元の画像データを物体の3
次元の画像データに変換するステップとして、前記物体
の2次元の画像データに基づいてこの物体の2次元の輪
郭線ベクトルデータを算出し、前記輪郭線ベクトルで囲
まれた領域内の境界ベクトルデータを算出するステップ
と、これらの輪郭線ベクトルデータ及び境界ベクトルデ
ータを前記測距データに基づいて3次元ベクトル化する
ステップとをコンピュータに実行させる。
The computer program recorded on the recording medium of the present invention converts two-dimensional image data of an object into three-dimensional image of the object.
As a step of converting into two-dimensional image data, two-dimensional contour line vector data of the object is calculated based on the two-dimensional image data of the object, and boundary vector data in a region surrounded by the contour line vector is calculated. The computer is made to execute the step of calculating and the step of three-dimensionally vectorizing these contour line vector data and boundary vector data based on the distance measurement data.

【0022】[0022]

【発明の実施の形態】以下、図面を参照して、本発明の
実施形態を説明する。 〈形状認識装置の構成〉最初に、本実施形態による形状
認識装置の構成を説明する。図1は、形状認識装置の構
成例を示す図である。図1において、形状認識装置は、
制御装置1と、この制御装置1に接続された撮像装置
(撮像CCD)21,赤外光投光装置22,回転台装置2
3,照明装置24,ディスプレイ25,アクチュエータ
26,キーボード27,及びマウス28とからなる。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings. <Structure of Shape Recognition Device> First, the structure of the shape recognition device according to the present embodiment will be described. FIG. 1 is a diagram showing a configuration example of a shape recognition device. In FIG. 1, the shape recognition device is
Control device 1 and imaging device connected to the control device 1
(Imaging CCD) 21, infrared light projecting device 22, turntable device 2
3, a lighting device 24, a display 25, an actuator 26, a keyboard 27, and a mouse 28.

【0023】ここに、制御装置1は、CPU10と、こ
のCPU10にバス(コントロールバス,アドレスバス,
及びデータバス)Bを介して相互に接続された撮像装置
ドライバ11a,A/D変換回路11b,赤外光投光装
置ドライバ12,回転台装置ドライバ13,照明装置ド
ライバ14,表示回路15,アクチュエータドライバ1
6,ROM17,及びRAM18とからなる。
Here, the control device 1 has a CPU 10 and a bus (control bus, address bus,
And an image pickup device driver 11a, an A / D conversion circuit 11b, an infrared light projecting device driver 12, a rotary base device driver 13, a lighting device driver 14, a display circuit 15, and an actuator which are mutually connected via a data bus) B. Driver 1
6, ROM 17, and RAM 18.

【0024】撮像CCD装置21は、撮像CCD装置ド
ライバ11aとA/D変換回路11bとに接続され、赤
外光投光装置22は、赤外光投光装置ドライバ12に接
続されている。また、回転台装置23は、回転台装置ド
ライバ13に接続され、照明装置24は、照明装置ドラ
イバ14に接続されている。また、ディスプレイ25
は、表示回路15に接続され、アクチュエータ26は、
アクチュエータドライバ16に接続されている。そし
て、キーボード27とマウス28とは、夫々バスBに直
接接続されている。
The image pickup CCD device 21 is connected to the image pickup CCD device driver 11a and the A / D conversion circuit 11b, and the infrared light projecting device 22 is connected to the infrared light projecting device driver 12. The turntable device 23 is connected to the turntable device driver 13, and the lighting device 24 is connected to the lighting device driver 14. Also, the display 25
Is connected to the display circuit 15, and the actuator 26 is
It is connected to the actuator driver 16. The keyboard 27 and the mouse 28 are directly connected to the bus B, respectively.

【0025】ROM17には、制御装置1のオペレーシ
ョンシステム等の基本プログラムや形状認識装置の制御
プログラム等の各種のコンピュータプログラム,及び各
種プログラムの実行に際して使用されるデータが格納さ
れている。また、RAM18は、CPU10の作業領域
であり、ROM17に記憶された各種プログラムやデー
タが適宜ロードされる。また、RAM18は、CPU1
0によって処理されたデータを記憶する。また、表示回
路15は、CPU10からの命令に基づいて、A/D変
換回路11aによって変換された画像データや、RAM
18に記憶された画像データをRGB信号に変換する。
また、ディスプレイ25は、表示回路15から転送され
たRGB信号に基づいてその画面に映像(画像)を表示す
るCRTである。さらに、キーボード27,及びマウス
28は、形状認識装置の使用者が指示やデータ等を入力
するための入力装置である。
The ROM 17 stores various computer programs such as a basic program for the operation system of the control device 1 and a control program for the shape recognition device, and data used for executing the various programs. Further, the RAM 18 is a work area of the CPU 10, and various programs and data stored in the ROM 17 are appropriately loaded. The RAM 18 is the CPU 1
Store the data processed by 0. Further, the display circuit 15 is based on an instruction from the CPU 10 and includes image data converted by the A / D conversion circuit 11a and a RAM.
The image data stored in 18 is converted into RGB signals.
The display 25 is a CRT that displays a video (image) on its screen based on the RGB signals transferred from the display circuit 15. Further, the keyboard 27 and the mouse 28 are input devices for the user of the shape recognition device to input instructions, data and the like.

【0026】図2は、撮像装置21から形状認識対象で
ある物体(オブジェクト)Bまでの距離を測定するための
構成を示す図である。図2には、形状認識装置と物体B
とを上方から平面的に見た図が示されている。
FIG. 2 is a diagram showing a configuration for measuring a distance from the image pickup device 21 to an object (object) B which is a shape recognition target. In FIG. 2, the shape recognition device and the object B are shown.
A plan view of and is shown from above.

【0027】図2において、回転台装置23は、撮像装
置21及び赤外光投光装置22の夫々と所定距離をおい
て配置されている。この回転台装置23は、紙面に対し
て垂直に配置された回転軸(図示せず),この回転軸に取
り付けられた回転台23a,図示せぬ回転軸を駆動させ
る駆動装置(図示せず)からなる。回転台23aの上面に
は、立体の形状認識対象たる物体Bが載置されている。
本実施形態に係る物体Bは、直方体からその直方体より
体積の小さい直方体が除かれた形状を有している(図6
参照)。
In FIG. 2, the turntable device 23 is arranged at a predetermined distance from each of the image pickup device 21 and the infrared light projecting device 22. The rotary base device 23 includes a rotary shaft (not shown) arranged perpendicularly to the paper surface, a rotary base 23a attached to the rotary shaft, and a drive device (not shown) for driving the rotary shaft (not shown). Consists of. An object B that is a three-dimensional shape recognition target is placed on the upper surface of the turntable 23a.
The object B according to the present embodiment has a shape in which a rectangular parallelepiped having a smaller volume than the rectangular parallelepiped is removed from the rectangular parallelepiped (FIG. 6).
reference).

【0028】図1に示された回転台ドライバ13は、C
PU10からの指示データに従って回転台装置23の図
示せぬ駆動装置に制御信号を与え、図示せぬ回転軸を回
転させる。これによって、回転台23aが所定の回転角
度(例えば、180゜)回転し、これに伴って物体Bが回
転台23aの回転角度と同じ角度だけ回転する。
The rotary base driver 13 shown in FIG.
According to the instruction data from the PU 10, a control signal is given to a drive device (not shown) of the rotary base device 23 to rotate a rotary shaft (not shown). As a result, the rotary table 23a rotates by a predetermined rotation angle (for example, 180 °), and the object B rotates by the same angle as the rotary table 23a.

【0029】また、図2に示されるように、赤外光投光
装置22は、LED22a,X−Yテーブル22b,及
び投光レンズ22cからなる。X−Yテーブル22b
は、物体Bに対向して配置される平面40を有してお
り、この平面40は、図2の紙面の左右方向(図2のY
方向)と紙面に対して垂直な方向(図2のX方向)とに沿
って移動可能となっている。
Further, as shown in FIG. 2, the infrared light projecting device 22 comprises an LED 22a, an XY table 22b, and a projecting lens 22c. XY table 22b
Has a flat surface 40 that is arranged so as to face the object B, and this flat surface 40 is in the left-right direction (Y in FIG. 2) on the paper surface of FIG.
Direction) and a direction perpendicular to the paper surface (X direction in FIG. 2).

【0030】LED22aは、上述した平面40上に固
定した状態で設けられており、X−Yテーブル22bの
X方向またはY方向への移動に伴って移動する。このL
ED22aは、その発光によって、物体Bに対して物体
Bと撮像CCD21aの撮像面41との距離を測定する
ための赤外線を照射する。
The LED 22a is provided in a fixed state on the above-mentioned plane 40, and moves along with the movement of the XY table 22b in the X direction or the Y direction. This L
The ED 22a irradiates the object B with infrared rays for measuring the distance between the object B and the imaging surface 41 of the imaging CCD 21a by the light emission.

【0031】投光レンズ22cは、LED22aと物体
Bとの間の光路上に配置されており、LED22aから
発せられた赤外光を集光し物体Bに対して射出する。こ
の投光レンズ22cとLED22aとは、所定の距離を
おいて夫々配置されており、投光レンズ22cの射出端
面から射出される赤外光の焦点は、物体Bの近傍に位置
する。
The light projecting lens 22c is arranged on the optical path between the LED 22a and the object B, collects the infrared light emitted from the LED 22a and emits it to the object B. The light projecting lens 22c and the LED 22a are respectively arranged at a predetermined distance, and the focus of infrared light emitted from the exit end face of the light projecting lens 22c is located near the object B.

【0032】図1に示された赤外光投光装置ドライバ1
2は、CPU10からの指示データに従って、X−Yテ
ーブル22bをX方向又はY方向に移動させる。これに
伴って赤外光LED22aがX方向又はY方向に移動す
る。すると、図2に示されたLED22aから発せられ
た赤外光の光軸と投光レンズ22cの中心軸とがなす角
度θ1が変化する。
Infrared light projector driver 1 shown in FIG.
2 moves the XY table 22b in the X direction or the Y direction according to the instruction data from the CPU 10. In association with this, the infrared light LED 22a moves in the X direction or the Y direction. Then, the angle θ1 formed by the optical axis of the infrared light emitted from the LED 22a shown in FIG. 2 and the central axis of the light projecting lens 22c changes.

【0033】また、図2に示されるように、LED22
aと物体Bとの光路上には、照明装置24が、図示せぬ
アクチュエータによって進退自在に配置されている。照
明装置24は、形状認識装置が赤外光を照射する間は、
LED22aと物体Bとの光路外に退避する。一方、撮
像装置21によって物体Bの撮像を行う間は、照明装置
24は、LED22aと物体Bとの光路上に進出すると
ともに、撮像CCD21aが物体Bを撮像するための白
色光を物体Bに対して照射する。
Also, as shown in FIG.
An illuminating device 24 is arranged on the optical path between a and the object B so as to be movable back and forth by an actuator (not shown). The illuminating device 24, while the shape recognition device irradiates infrared light,
It retracts outside the optical path between the LED 22a and the object B. On the other hand, while the image pickup device 21 is picking up an image of the object B, the illuminating device 24 advances into the optical path between the LED 22a and the object B, and at the same time, the image pickup CCD 21a outputs white light for picking up the object B to the object B. And irradiate.

【0034】また、図2に示されるように、撮像装置2
1は、X−Yテーブル22bのX方向に沿って赤外光投
光装置22と所定間隔をおいて配置されている。この撮
像装置21は、撮像CCD21a,撮像レンズ21b,
及び可視光カットフィルタ26aからなる。
In addition, as shown in FIG.
1 is arranged along the X direction of the XY table 22b at a predetermined distance from the infrared light projector 22. The image pickup device 21 includes an image pickup CCD 21a, an image pickup lens 21b,
And a visible light cut filter 26a.

【0035】ここに、撮像CCD21aは、矩形の撮像
面41を有する平板状に形成されており、撮像面41が
物体Bに向けて配置されている。図3は、撮像面41の
構成図である。図3において、撮像面41は、マトリッ
クス状に配置された複数のCCD素子(画素)31からな
り、図3における撮像面41の左上コーナー(図2の撮
像面41の右上コーナー)をなすCCD素子31が原点
(0,0)をなすCCD素子31として設定されている。
また、撮像面41は、図3の紙面の左右方向が撮像面4
1のX方向として設定され、紙面の上下方向が撮像面4
1のY方向として設定されている。
The image pickup CCD 21a is formed in a flat plate shape having a rectangular image pickup surface 41, and the image pickup surface 41 is arranged toward the object B. FIG. 3 is a configuration diagram of the imaging surface 41. In FIG. 3, the image pickup surface 41 is composed of a plurality of CCD elements (pixels) 31 arranged in a matrix, and forms the upper left corner of the image pickup surface 41 in FIG. 3 (the upper right corner of the image pickup surface 41 in FIG. 2). 31 is the origin
It is set as the CCD element 31 forming (0, 0).
The image pickup surface 41 is located in the left-right direction of the paper surface of FIG.
1 is set as the X direction, and the up and down direction of the paper surface is the imaging surface
1 is set as the Y direction.

【0036】また、図3に示されるように、撮像面41
には、各CCD素子31の配列に従って、隣合う4つの
CCD素子31(矩形をなす4つのCCD素子31)毎
に、物体Bと撮像CCD21aとの距離を測定するため
の測距ポイント32が設定されている。この各CCD素
子31と測距ポイント32との対応は、CPU10が制
御プログラムを実行する際に、測距ポイントデータとし
てRAM18に格納される。
Further, as shown in FIG.
A distance measuring point 32 for measuring the distance between the object B and the image pickup CCD 21a is set for each of the four adjacent CCD elements 31 (four rectangular CCD elements 31) according to the arrangement of the CCD elements 31. Has been done. The correspondence between the CCD elements 31 and the distance measuring points 32 is stored in the RAM 18 as distance measuring point data when the CPU 10 executes the control program.

【0037】また、本実施形態では、CCD素子31と
同じ数の記憶領域からなる画像データ記憶用の表示バッ
ファ領域がRAM18に形成されている。各CCD素子
31の出力に対応する画像データは、夫々表示バッファ
領域の各記憶領域に記憶される。なお、本実施形態によ
る撮像CCD21aには、カラーCCDが用いられてい
るが、モノクロのCCDが用いられていても良い。ま
た、一つの測距ポイント32に対応するCCD素子31
の数は適宜設定可能である。
Further, in this embodiment, the RAM 18 has a display buffer area for storing image data, the display buffer area having the same number of storage areas as the CCD elements 31. The image data corresponding to the output of each CCD element 31 is stored in each storage area of the display buffer area. A color CCD is used as the imaging CCD 21a according to the present embodiment, but a monochrome CCD may be used. In addition, the CCD element 31 corresponding to one distance measuring point 32
The number of can be set appropriately.

【0038】撮像レンズ21bは、図2に示されるよう
に、物体Bと撮像CCD21aとの光路上に配置されて
いる。また、この撮像レンズ21bと上述した投光レン
ズ22cとは、撮像レンズ21bの中心軸と投光レンズ
22cの中心軸とに夫々直交する同一平面上に所定距離
をおいて夫々配置されている。
As shown in FIG. 2, the image pickup lens 21b is arranged on the optical path between the object B and the image pickup CCD 21a. Further, the image pickup lens 21b and the above-mentioned light projecting lens 22c are respectively arranged on the same plane orthogonal to the central axis of the image pickup lens 21b and the central axis of the light projecting lens 22c with a predetermined distance.

【0039】この撮像レンズ21bの入射端面には、物
体Bの反射光が入射される。また、撮像レンズ21bの
射出端面からの焦点位置は、撮像CCD21aの撮像面
41上に設定されている。また、この撮像レンズ21b
から射出される光の光軸と撮像レンズ21bの中心軸と
の間の角度θ2は、上述したLED22aの移動に伴う
角度θ1の変動に応じて変動する。このような撮像CC
D21aは、撮像面41に入射する像をCCD素子31
毎に光電変換し、図1に示されるA/D変換回路11b
に転送する。A/D変換回路11bは、撮像CCD21
aからの出力をアナログ−デジタル変換することによっ
て物体Bの2次元の画像データを取得する。
The reflected light of the object B is incident on the incident end surface of the image pickup lens 21b. The focus position from the exit end surface of the image pickup lens 21b is set on the image pickup surface 41 of the image pickup CCD 21a. In addition, this imaging lens 21b
The angle θ2 between the optical axis of the light emitted from the camera and the central axis of the imaging lens 21b changes according to the change in the angle θ1 accompanying the movement of the LED 22a described above. Such imaging CC
D21a is a CCD element 31 for converting an image incident on the imaging surface 41.
A / D conversion circuit 11b shown in FIG.
Transfer to. The A / D conversion circuit 11b includes an imaging CCD 21
Two-dimensional image data of the object B is obtained by analog-digital converting the output from a.

【0040】可視光カットフィルタ26aは、CPU1
0からの命令を受けたアクチュエータ26の駆動によっ
て、撮像CCD21aと撮像レンズ21bとの間の光路
上に進退自在となっている。即ち、可視光カットフィル
タ26aは、赤外光が物体Bに照射される際に、撮像レ
ンズ21bと撮像CCD21aとの間の光路上に進出
し、撮像レンズ21bから射出される物体Bの反射光か
ら可視光成分を除去し、赤外光成分のみを撮像CCD2
1aに入射させる。
The visible light cut filter 26a is the CPU 1
When the actuator 26 receives a command from 0, the actuator 26 can be moved back and forth on the optical path between the image pickup CCD 21a and the image pickup lens 21b. That is, the visible light cut filter 26a advances to the optical path between the imaging lens 21b and the imaging CCD 21a when the infrared light is applied to the object B, and the reflected light of the object B emitted from the imaging lens 21b. The visible light component is removed from the image and only the infrared light component is imaged CCD2
It is incident on 1a.

【0041】CPU10は、形状認識装置の電源投入に
よって起動し、ROM17に記憶された制御プログラム
を実行することによって、形状認識装置全体の制御を行
う。具体的には、CPU10は、アクチュエータ装置ド
ライバ16に可視光カットフィルタ26aを進退させる
ための指示データを入力する処理,撮像装置ドライバ1
1aに物体Bの像を撮像する指示データを入力する処
理,A/D変換回路11bから出力された画像データに
対する処理,照明装置ドライバ14を介して照明装置2
4を制御する処理,アクチュエータドライバ16を介し
て可視光カットフィルタ26aを進退させる処理,RA
M18に対して各種のデータを読み書きする処理,表示
回路15に画像データを転送する処理,及びキーボード
27やマウス28からの入力信号を受け付ける処理等を
行う。 〈形状認識装置の動作〉次に、上述した形状認識装置の
動作を説明する。図4及び図5は、形状認識装置の動作
時におけるCPU10の処理が示された流れ図である。
形状認識装置は、その図示せぬ電源が投入されることに
よって動作を開始する。
The CPU 10 is activated by turning on the power of the shape recognition apparatus, and executes the control program stored in the ROM 17 to control the entire shape recognition apparatus. Specifically, the CPU 10 inputs the instruction data for advancing / retreating the visible light cut filter 26a to the actuator device driver 16, the imaging device driver 1
1a processing for inputting instruction data for capturing an image of the object B, processing for image data output from the A / D conversion circuit 11b, lighting device 2 via the lighting device driver 14
4, a process for moving the visible light cut filter 26a back and forth through the actuator driver 16, RA
A process of reading / writing various data from / to M18, a process of transferring image data to the display circuit 15, a process of receiving an input signal from the keyboard 27 or the mouse 28, and the like are performed. <Operation of Shape Recognition Device> Next, the operation of the shape recognition device described above will be described. 4 and 5 are flow charts showing the processing of the CPU 10 during the operation of the shape recognition device.
The shape recognition device starts its operation when a power source (not shown) is turned on.

【0042】最初に、形状認識装置のCPU10が起動
する。CPU10は、ROM17に記憶されたオペレー
ティングシステムに基づいて、制御装置1の各部(RA
M18,各ドライバ,A/D変換回路11a等)の初期
設定を行う。この初期設定が終了すると、CPU10
は、ROM17に記憶された制御プログラムをRAM1
8にロードし、その制御プログラムを実行する。これに
よって、ディスプレイ25の表示画面に、例えば、「物
体Bの認識処理を開始しますか?[Y/N]」の文字が
表示される。
First, the CPU 10 of the shape recognition device is activated. Based on the operating system stored in the ROM 17, the CPU 10 controls each unit (RA of the control device 1).
M18, each driver, A / D conversion circuit 11a, etc.) are initialized. When this initial setting is completed, the CPU 10
Is the control program stored in the ROM 17 in the RAM 1
8 and executes the control program. As a result, on the display screen of the display 25, for example, the characters "Do you want to start the recognition processing of the object B? [Y / N]" are displayed.

【0043】このとき、形状認識装置の使用者が、物体
Bを回転台23a上に載置し、例えば、キーボード27
の「Y」のキーを押すと、物体Bの形状認識処理命令
が、キーボード27,バスBを介してCPU10に入力
される。これによって、CPU10が、図4に示される
処理をスタートする。但し、このスタート時において
は、照明装置24は、投光レンズ22cと物体Bとの光
路上から退避した状態にあり、且つ、可視光カットフィ
ルタ26aは、撮像CCD21aと撮像レンズ21bと
の間の光路上から退避した状態にあるものとする。
At this time, the user of the shape recognition apparatus places the object B on the turntable 23a and, for example, the keyboard 27.
When the “Y” key is pressed, the shape recognition processing command of the object B is input to the CPU 10 via the keyboard 27 and the bus B. As a result, the CPU 10 starts the processing shown in FIG. However, at this start, the illumination device 24 is in a state of being retracted from the optical path between the light projecting lens 22c and the object B, and the visible light cut filter 26a is provided between the image pickup CCD 21a and the image pickup lens 21b. It is assumed to be in a state of being retracted from the optical path.

【0044】図4において、S001では、CPU40
が、アクチュエータ装置ドライバ16に対して所定の指
示データを入力する。このS001の処理によって、ア
クチュエータ26が駆動し、可視光カットフィルタ26
aを、撮像CCD21aと撮像レンズ21bとの間の光
路上に挿入させる。
In FIG. 4, in S001, the CPU 40
Inputs predetermined instruction data to the actuator device driver 16. By the processing of S001, the actuator 26 is driven and the visible light cut filter 26
a is inserted in the optical path between the imaging CCD 21a and the imaging lens 21b.

【0045】次のS002では、CPU10は、撮像装
置21に撮像開始の指示データを入力する。このS00
2の処理によって、赤外光投光装置22のLED22a
から赤外線が発せられる。この赤外線は、投光レンズ2
2cを介して物体Bの表面に照射される。そして、物体
Bによって反射された赤外光の反射光が、撮像レンズ2
1b,及び可視光カットフィルタ26aを介して撮像C
CD21aに入射する。これによって、撮像CCD21
aが物体Bの像を撮像する。この撮像CCD21aの出
力(各CCD素子31の出力)は、A/D変換回路21a
によって物体Bの画像データ(各CCD素子31の輝度
データ)に変換される。そして、CPU10は、各画像
データを第1画像データとしてRAM18の表示用バッ
ファ領域に格納する。
At the next step S002, the CPU 10 inputs the image pickup start instruction data to the image pickup device 21. This S00
By the processing of 2, the LED 22a of the infrared light projector 22
Infrared rays are emitted from. This infrared ray is emitted by the projection lens 2
The surface of the object B is irradiated via 2c. The infrared light reflected by the object B is reflected by the imaging lens 2
1b, and the imaging C through the visible light cut filter 26a
It is incident on the CD 21a. As a result, the imaging CCD 21
a captures an image of the object B. The output of the image pickup CCD 21a (the output of each CCD element 31) is the A / D conversion circuit 21a.
Is converted into image data of the object B (luminance data of each CCD element 31). Then, the CPU 10 stores each image data in the display buffer area of the RAM 18 as the first image data.

【0046】次のS003では、CPU10は、RAM
18に格納された第1画像データに基づいて、測距ポイ
ント32の特定を行う。即ち、CPU10は、第1画像
データから各CCD素子31(画素)の輝度分布を算出す
るとともに、各CCD素子31の輝度データの平均値を
とることによって、各CCD素子31の輝度のしきい値
を算出する。
At the next step S003, the CPU 10 causes the RAM to
The distance measuring point 32 is specified based on the first image data stored in 18. That is, the CPU 10 calculates the luminance distribution of each CCD element 31 (pixel) from the first image data and takes the average value of the luminance data of each CCD element 31 to obtain the threshold value of the luminance of each CCD element 31. To calculate.

【0047】続いて、CPU10は、第1画像データを
なす各CCD素子31の輝度データと算出したしきい値
とを比較し、しきい値以上の輝度データを出力したCC
D素子31を検出する。このとき、物体Bの反射光が入
射されたCCD素子31の輝度データは、しきい値以上
の値となるため、撮像CCD21aの撮像面41に投影
される物体Bのおおよその輪郭が取得されることとな
る。
Subsequently, the CPU 10 compares the brightness data of each CCD element 31 forming the first image data with the calculated threshold value, and outputs the brightness data above the threshold value CC.
The D element 31 is detected. At this time, since the brightness data of the CCD element 31 on which the reflected light of the object B is incident becomes a value equal to or more than the threshold value, an approximate outline of the object B projected on the imaging surface 41 of the imaging CCD 21a is acquired. It will be.

【0048】続いて、CPU10は、RAM18から測
距ポイントデータを読み出すとともに、この測距ポイン
トデータに基づいて、検出した画素に対応する単数又は
複数の測距ポイント32を取得する。そして、CPU1
0は、取得した各測距ポイント32(の位置情報)と、各
測距ポイント32に囲まれた各CCD素子31の位置情
報(画素の位置情報)とを対応づけて測距ポイントデータ
とし、各測距ポイントデータに番号をつけてRAM18
に夫々格納する。このとき、CPU10は、測距ポイン
トデータのうち、最も若い番号のデータにおける測距ポ
イント32を特定する。
Subsequently, the CPU 10 reads out the distance measuring point data from the RAM 18 and acquires one or a plurality of distance measuring points 32 corresponding to the detected pixel based on the distance measuring point data. And CPU1
0 is the distance measurement point data by associating the acquired distance measurement points 32 (position information thereof) with the position information (pixel position information) of each CCD element 31 surrounded by the distance measurement points 32, RAM18 by numbering each distance measuring point data
Store in each. At this time, the CPU 10 specifies the distance measuring point 32 in the data of the smallest number among the distance measuring point data.

【0049】次のS004では、CPU10は、S00
3にて特定した測距ポイント32に赤外光が当たるよう
にLED22aを移動させる。即ち、CPU10は、R
AM18から特定した測距ポイント32の測距ポイント
データを読み出し、この測距ポイントデータに対応する
指示データを赤外光投光装置ドライバ12に与える。す
ると、赤外光投光装置ドライバ12が、X−Yテーブル
22bを移動させてLED22aを適宜の位置に配置す
る。これによって、LED22aから発せられる赤外光
の反射光が、特定した測距ポイント32に対応する各C
CD素子31に入射する。
At the next step S004, the CPU 10 causes the step S00.
The LED 22a is moved so that the infrared light strikes the distance measuring point 32 specified in 3. That is, the CPU 10
The distance measuring point data of the specified distance measuring point 32 is read from the AM 18, and the instruction data corresponding to the distance measuring point data is given to the infrared light projector driver 12. Then, the infrared light projector driver 12 moves the XY table 22b to place the LED 22a at an appropriate position. Thereby, the reflected light of the infrared light emitted from the LED 22a corresponds to each C corresponding to the specified distance measuring point 32.
It is incident on the CD element 31.

【0050】次のS005では、CPU10は、赤外光
LED22aの位置及びS003にて特定した測距ポイ
ント32の位置に基づいて、物体Bから撮像面41(各
測距ポイント32)までの距離を測定する。即ち、CP
U10は、S004の処理によって移動したLED22
aの位置を取得し、このLED22aの位置情報に基づ
いて、LED22aから物体Bの表面に照射される赤外
光の光軸と投光レンズ22cの中心軸との間の角度(図
2中のθ1)を算出する。また、CPU10は、赤外線の
反射光が入射する測距ポイント32のCCD素子31
(画素)の位置データに基づいて、当該CCD素子31に
入射する反射光の光軸と撮像レンズ21bの中心軸との
間の角度(θ2)を算出する。
In next step S005, the CPU 10 determines the distance from the object B to the image pickup surface 41 (each distance measuring point 32) based on the position of the infrared light LED 22a and the position of the distance measuring point 32 specified in S003. taking measurement. That is, CP
U10 is the LED 22 moved by the processing of S004.
The position of a is acquired, and based on the position information of the LED 22a, the angle between the optical axis of the infrared light emitted from the LED 22a to the surface of the object B and the central axis of the projection lens 22c (in FIG. 2, Calculate θ1). Further, the CPU 10 controls the CCD element 31 of the distance measuring point 32 on which the reflected light of infrared rays is incident.
The angle (θ2) between the optical axis of the reflected light incident on the CCD element 31 and the central axis of the imaging lens 21b is calculated based on the position data of the (pixel).

【0051】続いて、CPU10は、角度θ1と,角度
θ2と,投光レンズ22cから撮像レンズ21bまでの
水平方向(図2の紙面の左右方向(Y方向))における距
離データとに基づいて、物体Bの表面から該当する測距
ポイント32までの距離を算出する。即ち、CPU10
は、三角測量の原理を用いて物体Bと測距ポイント32
との間の距離を測定する。そして、CPU10は、算出
した各距離に測距ポイントデータの番号を対応付けて測
距データとし、これらの測距データをRAM18に格納
する。
Subsequently, the CPU 10 determines, based on the angle θ1, the angle θ2, and the distance data from the light projecting lens 22c to the image pickup lens 21b in the horizontal direction (the horizontal direction (Y direction) of the paper surface of FIG. 2). The distance from the surface of the object B to the corresponding distance measuring point 32 is calculated. That is, the CPU 10
Is the object B and the distance measuring point 32 using the principle of triangulation.
Measure the distance between. Then, the CPU 10 associates the calculated distances with the numbers of the distance measurement point data to obtain distance measurement data, and stores these distance measurement data in the RAM 18.

【0052】次のS006では、CPU10は、全ての
測距ポイント32について測距をおこなったかの判断を
行う。即ち、CPU10は、S005にて測距した測距
ポイントデータ番号より大きな番号の測距ポイントデー
タがあるか否かを判定する。このとき、CPU10は、
大きな番号の測距ポイントデータがあると判定した場合
(S006;YES)には、処理をS007へ進める。
At the next step S006, the CPU 10 determines whether or not distance measurement has been performed for all distance measurement points 32. That is, the CPU 10 determines whether or not there is distance measuring point data having a number larger than the distance measuring point data number measured in S005. At this time, the CPU 10
When it is determined that there is a large number of distance measuring point data
For (S006; YES), the process proceeds to S007.

【0053】これに対し、CPU10は、大きな番号の
測距ポイントデータがないと判定した場合(S006;
NO)には、処理をS003へ戻し、このS006にて
YESの判定がなされるまでS003〜S006の処理
を繰り返し行う。但し、2巡目以降のS003〜S00
6の処理は、S003にて取得された複数の測距ポイン
トデータのうち、前回のS003〜S006の処理対象
となった測距ポイントデータの番号の次に大きい番号の
測距ポイントデータに対して行われる。
On the other hand, when the CPU 10 determines that there is no distance measurement point data with a large number (S006;
If NO, the process is returned to S003, and the processes of S003 to S006 are repeated until the determination of YES is made in S006. However, S003 to S00 after the second round
The process of 6 is performed on the distance measurement point data having the next largest number after the number of the distance measurement point data that was the processing target of the previous S003 to S006 among the plurality of distance measurement point data acquired in S003. Done.

【0054】S007へ処理が進んだ場合には、CPU
10は、アクチュエータドライバ16に可視光カットフ
ィルタ26aを撮像装置21から取り出す指示データを
入力する。これによって、可視光カットフィルタ26a
が、アクチュエータ26の駆動によって、撮像CCD2
1aと撮像レンズ21bとの間の光路上から退避する。
このとき、CPU10は、赤外光投光装置ドライバ12
と照明装置ドライバ14とにそれぞれ命令を発する。こ
れによって、LED22aの発光が停止する。
If the process proceeds to S007, the CPU
10 inputs the instruction data for taking out the visible light cut filter 26 a from the image pickup device 21 to the actuator driver 16. Thereby, the visible light cut filter 26a
However, by driving the actuator 26, the image pickup CCD 2
The optical path between 1a and the imaging lens 21b is retracted.
At this time, the CPU 10 causes the infrared light projector driver 12 to
And the lighting device driver 14, respectively. As a result, the light emission of the LED 22a is stopped.

【0055】次のS008では、CPU10は、撮像装
置ドライバ11bと照明装置ドライバ14とにレリーズ
命令を入力する。すると、照明装置24が投光レンズ2
2cと物体Bとの光路上に進出し、物体Bに対して白色
光を照射する。これによって、物体Bによる白色光のの
反射光が、撮像レンズ21bを介して撮像CCD21a
の撮像面41に入射する。この撮像CCD21aからの
出力(各CCD素子31(画素)の出力)は、A/D変換回
路11aにおいてアナログ−デジタル変換され、1画面
分の物体Bの2次元の画像データとなる。CPU10
は、この画像データを第2画像データとしてRAM18
の表示用バッファ領域に格納する。
At the next step S008, the CPU 10 inputs a release command to the image pickup device driver 11b and the lighting device driver 14. Then, the illumination device 24 causes the projection lens 2 to
2c and the object B are advanced on the optical path, and the object B is irradiated with white light. As a result, the reflected light of white light from the object B passes through the imaging lens 21b and the imaging CCD 21a.
Is incident on the imaging surface 41 of. The output from the image pickup CCD 21a (output of each CCD element 31 (pixel)) is subjected to analog-digital conversion in the A / D conversion circuit 11a and becomes two-dimensional image data of the object B for one screen. CPU10
Uses the image data as the second image data in the RAM 18
Stored in the display buffer area of.

【0056】次のS009では、CPU10は、S00
5にて得た各測距データと画素の位置データとを関連付
ける。即ち、CPU10は、各測距ポイントデータに含
まれる測距ポイント32の位置情報に基づいて、第2画
像データ中から該当する画素を検出する。続いて、CP
U10は、検出した各画素に各測距ポイント32の測距
データを対応付ける。
At the next step S009, the CPU 10 causes the step S00.
Each distance measurement data obtained in 5 is associated with the pixel position data. That is, the CPU 10 detects the corresponding pixel from the second image data based on the position information of the distance measuring points 32 included in each distance measuring point data. Next, CP
U10 associates the distance measurement data of each distance measurement point 32 with each detected pixel.

【0057】次のS010では、CPU10は、物体B
の輪郭をトレースする。即ち、CPU10は、第2画像
データから輝度分布を算出しその平均値をとることによ
って、その輝度分布からしきい値を算出する。続いて、
CPU10は、画像データの原点(0,0)を起点とし、
(0,1)・・・(0,n)の順で各画素の輝度値としきい
値とを比較する(図3参照)。このとき、CPU10は、
第0行において、最初に検出された画素,及び最後に検
出された画素を検出し(この処理にて検出された画素を
「輪郭画素」という。)、輪郭データとしてRAM18
に格納する。CPU10は、上述した処理を第1行〜第
n行についても同様に行う。
At the next step S010, the CPU 10 causes the object B
Trace the contour of. That is, the CPU 10 calculates the threshold value from the brightness distribution by calculating the brightness distribution from the second image data and taking the average value thereof. continue,
The CPU 10 uses the origin (0,0) of the image data as a starting point,
The luminance value and the threshold value of each pixel are compared in the order of (0, 1) ... (0, n) (see FIG. 3). At this time, the CPU 10
In the 0th row, the first detected pixel and the last detected pixel are detected (the pixels detected by this processing are referred to as “contour pixels”), and the RAM 18 is used as the contour data.
To store. The CPU 10 similarly performs the above-described processing for the first row to the nth row.

【0058】続いて、CPU10は、画像データの原点
(0,0)を起点とし、(1,0),(2,0)・・・(n,
0)の順で各画素の輝度値としきい値とを比較する。こ
の場合においても、CPU10は、第0列において、最
初に検出された画素,及び最後に検出された画素を検出
し(この処理にて検出された画素を「輪郭画素」とい
う。)、輪郭データとしてRAM18に格納する。CP
U10は、上述した処理を第1列〜第n列についても同
様に行う。
Subsequently, the CPU 10 determines the origin of the image data.
Starting from (0,0), (1,0), (2,0) ... (n,
The brightness value of each pixel and the threshold value are compared in the order of 0). Also in this case, the CPU 10 detects the first detected pixel and the last detected pixel in the 0th column (the pixels detected by this processing are referred to as “contour pixels”), and the contour data. Is stored in the RAM 18. CP
U10 similarly performs the above-described processing for the first column to the n-th column.

【0059】次のS011では、CPU10は、S01
0にて得た輪郭データに基づいて、物体Bの2次元の輪
郭線ベクトルデータを算出する。即ち、CPU10は、
各輪郭データに含まれる各輪郭画素の位置情報を、いわ
ゆるHOUGH方程式に代入する(HOUGH変換を行
う)。続いて、CPU10は、各輪郭画素についてのH
OUGH方程式の計算結果を夫々比較する。そして、C
PU10は、比較結果と輪郭データとに基づいて、ベク
トルの始点画素及びベクトルの終点画素をそれぞれ有す
る物体Bの2次元の輪郭線ベクトルデータをそれぞれ算
出する。
At the next step S011, the CPU 10 causes the step S01.
Based on the contour data obtained in 0, the two-dimensional contour line vector data of the object B is calculated. That is, the CPU 10
The position information of each contour pixel included in each contour data is substituted into a so-called HOUGH equation (HOUGH conversion is performed). Subsequently, the CPU 10 sets H for each contour pixel.
The calculation results of the OUGH equation are compared with each other. And C
The PU 10 respectively calculates two-dimensional contour line vector data of the object B having a vector start point pixel and a vector end point pixel based on the comparison result and the contour data.

【0060】次のS012では、CPU10は、S01
1にて算出した各輪郭線ベクトルデータをRAM18に
格納する。図5に示されるように、次のS013では、
CPU10は、S010にて検出された各輪郭画素の内
部の方向に向かって、輝度の境界(物体Bの表面をなす
面の境界)をトレースする。即ち、各輪郭画素に囲まれ
た画素とS010にて検出したしきい値とを比較して、
しきい値以上の輝度値をもつ画素を検出する(この処理
によって検出された画素を「境界画素」という。)。続
いて、CPU10は、検出した各画素を境界データとし
てRAM18に格納する。
At the next step S012, the CPU 10 causes the step S01.
Each contour vector data calculated in 1 is stored in the RAM 18. As shown in FIG. 5, in the next S013,
The CPU 10 traces the boundary of brightness (boundary of the surface forming the surface of the object B) toward the inside of each contour pixel detected in S010. That is, the pixels surrounded by the respective contour pixels are compared with the threshold value detected in S010,
A pixel having a luminance value equal to or higher than a threshold value is detected (a pixel detected by this processing is referred to as a "boundary pixel"). Then, the CPU 10 stores each detected pixel in the RAM 18 as boundary data.

【0061】次のS014では、CPU10は、S01
3にて得た境界データに基づいて、S011と同様の手
法によって、物体Bの2次元の境界ベクトルデータを算
出する。即ち、CPU10は、各境界データに含まれる
境界画素の位置情報を、HOUGH方程式に代入する
(HOUGH変換を行う)。続いて、CPU10は、各境
界画素についてのHOUGH方程式の計算結果を夫々比
較する。続いて、CPU10は、この比較結果と境界デ
ータとに基づいて、ベクトルの始点画素及びベクトルの
終点画素をそれぞれ有する物体Bの2次元の境界ベクト
ルデータを算出する。
At the next step S014, the CPU 10 causes the step S01.
Based on the boundary data obtained in 3, the two-dimensional boundary vector data of the object B is calculated by the same method as S011. That is, the CPU 10 substitutes the position information of the boundary pixel included in each boundary data into the HOUGH equation.
(Perform HOUGH conversion). Subsequently, the CPU 10 compares the calculation results of the HOUGH equation for each boundary pixel. Subsequently, the CPU 10 calculates the two-dimensional boundary vector data of the object B having the start point pixel of the vector and the end point pixel of the vector based on the comparison result and the boundary data.

【0062】次のS015では、CPU10は、S01
4にて算出された各境界ベクトルデータをRAM18に
格納する。次のS016では、CPU10は、S005
にて得た測距データに基づいて、S014にて得た2次
元の境界ベクトルデータを3次元ベクトル化する。即
ち、CPU10は、各2次元の境界ベクトルデータの始
点画素又は終点画素に対応する測距ポイント32をそれ
ぞれ算出する。続いて、CPU10は、算出した各測距
ポイント32に対応する各測距データを、当該測距ポイ
ント32に対応する始点画素又は終点画素の位置とする
ことによって、3次元の境界ベクトルデータにそれぞれ
変換する。
At the next step S015, the CPU 10 causes the step S01.
The respective boundary vector data calculated in 4 are stored in the RAM 18. At the next step S016, the CPU 10 causes the step S005.
The two-dimensional boundary vector data obtained in S014 is converted into a three-dimensional vector based on the distance measurement data obtained in S014. That is, the CPU 10 calculates the distance measurement points 32 corresponding to the start point pixel or the end point pixel of each two-dimensional boundary vector data. Subsequently, the CPU 10 sets each calculated distance measurement data corresponding to each calculated distance measurement point 32 as the position of the start point pixel or the end point pixel corresponding to the distance measurement point 32, thereby converting the distance measurement data into three-dimensional boundary vector data. Convert.

【0063】このように、CPU10は、2次元の境界
ベクトルデータ(2次元座標)を対応する測距データに基
づいて、3次元の境界ベクトルデータ(3次元座標)に変
換する。そして、CPU10は、各変換結果を該当する
表示バッファ領域の各記憶領域に格納する。
As described above, the CPU 10 converts the two-dimensional boundary vector data (two-dimensional coordinates) into the three-dimensional boundary vector data (three-dimensional coordinates) based on the corresponding distance measurement data. Then, the CPU 10 stores each conversion result in each storage area of the corresponding display buffer area.

【0064】S017では、CPU10は、S011に
て得た物体Bの2次元の輪郭線ベクトルデータを用いて
物体Bのモデリングデータを作成する。即ち、CPU1
0は、2次元の輪郭線ベクトルデータに基づいて、輪郭
線ベクトルで囲まれた画素のうち、2次元の輪郭線ベク
トルに沿って位置する画素を一定間隔毎に検出する。続
いて、CPU10は、検出した各画素と輪郭線ベクトル
とを、測距データに基づいて3次元ベクトルデータに変
換する。
In S017, the CPU 10 creates modeling data of the object B using the two-dimensional contour line vector data of the object B obtained in S011. That is, CPU1
0 detects the pixels located along the two-dimensional contour line vector at regular intervals among the pixels surrounded by the contour line vector based on the two-dimensional contour line vector data. Subsequently, the CPU 10 converts each detected pixel and contour line vector into three-dimensional vector data based on the distance measurement data.

【0065】即ち、CPU10は、S016と同様の手
法を用いて、2次元の輪郭線ベクトルデータ(2次元座
標)を、対応する測距データに基づいて3次元の輪郭線
ベクトルデータ(3次元座標)に変換する。そして、CP
U10は、変換された3次元の輪郭線ベクトルデータ
を、該当する表示バッファ領域の各記憶領域にそれぞれ
格納する。これによって、RAM18の表示用バッファ
領域には、モデリングデータをなす物体Bの3次元のベ
クトルデータが格納されることとなる。
That is, the CPU 10 uses the same method as S016 to convert the two-dimensional contour vector data (two-dimensional coordinates) into the three-dimensional contour vector data (three-dimensional coordinates) based on the corresponding distance measurement data. ). And CP
U10 stores the converted three-dimensional contour line vector data in each storage area of the corresponding display buffer area. As a result, the three-dimensional vector data of the object B forming the modeling data is stored in the display buffer area of the RAM 18.

【0066】次のS018では、CPU10は、S01
7にて得られたモデリングデータをディスプレイ25に
表示する旨の命令を表示回路15に与える。これによっ
て、物体Bの3次元画像が、ディスプレイ25に表示さ
れる。
At the next step S018, the CPU 10 causes the step S01.
An instruction to display the modeling data obtained in 7 on the display 25 is given to the display circuit 15. As a result, the three-dimensional image of the object B is displayed on the display 25.

【0067】次のS019では、CPU10は、形状認
識装置の使用者の操作指示をディスプレイ25に表示さ
せる。即ち、CPU10は、ディスプレイ25に、例え
ば、「モデリングデータの編集を行う場合には“M”の
キーを、細分化処理を行う場合には“S”のキーを、何
れも行わない場合には“E”のキーを押して下さい」の
テキスト文字をディスプレイ25に表示させる。
At the next step S019, the CPU 10 causes the display 25 to display the operation instruction of the user of the shape recognition apparatus. That is, the CPU 10 displays, for example, on the display 25, “If the modeling data is edited, the“ M ”key is used; if the subdivision processing is performed, the“ S ”key is not used. The text character "Please press the key of E" is displayed on the display 25.

【0068】次のS020では、CPU10は、キーボ
ード27の“M”,“S”,又は“E”のキーの何れか
が押されるのを受け付ける。そして、これらのキーの何
れかが押された場合には、CPU10は処理をS021
へ進める。次のS021では、CPU10は、“M”の
キーが押されたか否かを判定する。このとき、“M”の
キーが押されたと判定した場合には、CPU10は、処
理をS022へ進め、モデリングデータの編集処理を行
う。例えば、使用者からキーボード27又はマウス28
から入力される指示に従って、モデリングデータの補正
を行う処理等を行う。そして、S022の処理が終了す
ると、CPU10は、処理をS019へ戻す。これに対
し、“M”以外のキーが押されたと判定した場合(S0
21;NO)には、CPU10は、処理をS023へ進
める。
At the next step S020, the CPU 10 accepts that any one of the "M", "S", and "E" keys of the keyboard 27 is pressed. Then, if any of these keys is pressed, the CPU 10 performs the process in S021.
Proceed to. In the next step S021, the CPU 10 determines whether or not the "M" key has been pressed. At this time, when it is determined that the "M" key is pressed, the CPU 10 advances the process to S022, and performs a modeling data editing process. For example, from the user a keyboard 27 or a mouse 28
Processing for correcting modeling data is performed in accordance with an instruction input from Then, when the processing of S022 ends, the CPU 10 returns the processing to S019. On the other hand, when it is determined that a key other than "M" is pressed (S0
21; NO), the CPU 10 advances the process to S023.

【0069】S023へ処理が進んだ場合には、CPU
10は、“S”のキーが押されたか否かを判定する。こ
のとき、“S”のキーが押されたと判定した場合(S0
23;YES)には、CPU10は、処理をS024へ
進める。これに対し、“S”のキー以外のキーが押され
たと判定した場合(S023;NO)には、CPU10
は、処理をS026へ進める。
If the process proceeds to S023, the CPU
10 determines whether or not the "S" key has been pressed. At this time, if it is determined that the "S" key has been pressed (S0
23; YES), the CPU 10 advances the process to S024. On the other hand, when it is determined that a key other than the “S” key is pressed (S023; NO), the CPU 10
Advances the process to S026.

【0070】S024へ処理が進んだ場合には、CPU
10は、輪郭線ベクトルと境界ベクトルとに囲まれた各
面について細分化を行う。CPU10は、輪郭線ベクト
ルと境界ベクトルとに囲まれた部分を、画像データの列
方向,行方向に一定間隔毎に画素を取り出す。CPU1
0は、取り出した画素にこれと対応する測距データを加
える。
If the process proceeds to S024, the CPU
10 subdivides each surface surrounded by the contour line vector and the boundary vector. The CPU 10 extracts pixels in a portion surrounded by the contour line vector and the boundary vector at regular intervals in the column direction and the row direction of the image data. CPU1
In 0, the ranging data corresponding to this is added to the taken-out pixel.

【0071】S025では、CPU10は、S024の
処理によって細分化された物体Bの画像データをテクス
チャデータ,カラーパレットデータとしてRAM18に
格納する。
In S025, the CPU 10 stores the image data of the object B subdivided by the processing of S024 in the RAM 18 as texture data and color palette data.

【0072】S024では、CPU10は、ディスプレ
イ25に、例えば「処理を終了しますか[Y/N]」の
テキスト文字を表示させるとともに、キーボード27か
ら“Y”又は“N”のキーが押されるのを待つ。そし
て、“Y”のキーが押された場合には、CPU10の処
理が終了するとともに、形状認識装置の動作が終了す
る。これに対し、“N”のキーが押された場合には、C
PU10は、処理をS027へ進める。
In S024, the CPU 10 causes the display 25 to display, for example, a text character "Do you want to finish the processing [Y / N]" and press the "Y" or "N" key from the keyboard 27. Wait for Then, when the "Y" key is pressed, the process of the CPU 10 ends and the operation of the shape recognition device ends. On the other hand, when the "N" key is pressed, C
The PU 10 advances the process to S027.

【0073】S027では、CPU10は、ディスプレ
イ25に、例えば「回転台を回転させますか?[180
〜359/N]」のテキスト文字を表示させるととも
に、使用者から180〜359の数字及びリターンキ
ー,又は“N”のキーが押されるのを待つ。そして、
“N”のキーが押された場合(S027;NO)には、C
PU10は、処理をS019へ戻す。これに対し、18
0〜359の何れかの数字とリターンキーとが押された
場合には、CPU10は、処理をS028へ進める。
In S027, the CPU 10 causes the display 25 to ask, for example, "Do you want to rotate the turntable? [180
~ 359 / N] "is displayed, and the user waits for the user to press the numbers 180 to 359 and the return key or the key" N ". And
When the "N" key is pressed (S027; NO), C
The PU 10 returns the process to S019. In contrast, 18
When any of the numbers 0 to 359 and the return key are pressed, the CPU 10 advances the process to S028.

【0074】S028へ処理が進んだ場合には、CPU
10は、回転台装置ドライバ23へ命令を入力し、入力
された数字に相当する回転角度だけ回転台23を回転さ
せる。そして、CPU10は、処理をS001へ戻す。
このとき、例えば、180の数字がキーボード27から
入力された場合には、回転台23が180゜回転し、物
体Bを180゜回転させる。この後、S001〜S02
6の処理が行われ、前回のS001〜026の処理によ
って得られたデータと組み合わせれば、RAM28に
は、物体Bの完全な3次元形状のモデリングデータが格
納される状態となる。 〈実施形態による作用〉次に、本実施形態による形状認
識装置によって、物体Bのモデリングデータ,及びテク
スチャデータ等が作成されるまでの過程を説明する。
When the process proceeds to S028, the CPU
10 inputs a command to the rotary base device driver 23, and rotates the rotary base 23 by a rotation angle corresponding to the input number. Then, the CPU 10 returns the process to S001.
At this time, for example, when the number 180 is input from the keyboard 27, the rotary table 23 is rotated 180 ° and the object B is rotated 180 °. After this, S001 to S02
When the process of 6 is performed and combined with the data obtained by the previous processes of S001 to 026, the RAM 28 is in a state in which the modeling data of the complete three-dimensional shape of the object B is stored. <Operation according to the embodiment> Next, a process until the modeling data, the texture data and the like of the object B are created by the shape recognition apparatus according to the present embodiment will be described.

【0075】上述したように、物体Bの形状認識に先だ
って、使用者は物体Bを形状認識装置の回転台23aに
載置し、キーボート27又はマウス28を介して立体形
状認識を開始する旨の指示データを入力する。すると、
CPU10は、図のS001,S002の処理を経て、
S003〜S006までのループを繰り返す。ここで、
CPU10は、物体Bと各測距ポイント32との間の測
距データを取得する。
As described above, prior to the shape recognition of the object B, the user places the object B on the rotary table 23a of the shape recognition device and starts the stereoscopic shape recognition via the keyboard 27 or the mouse 28. Enter the instruction data. Then,
The CPU 10 goes through the processing of S001 and S002 in the figure,
The loop from S003 to S006 is repeated. here,
The CPU 10 acquires distance measurement data between the object B and each distance measurement point 32.

【0076】物体Bに設定された全ての測距ポイント3
2に対する測距データの取得が完了したら、CPU10
は、S007,S008の処理を行い、物体Bの画像デ
ータを取得する。図6は、S008の処理終了後にディ
スプレイ25に表示される画像データの表示例である。
All distance measuring points 3 set on the object B
When the acquisition of the distance measurement data for 2 is completed, the CPU 10
Performs the processing of S007 and S008 to acquire the image data of the object B. FIG. 6 is a display example of the image data displayed on the display 25 after the processing of S008 is completed.

【0077】次に、CPU10は、S009〜S012
までの処理を行い、取得した画像データに基づいて物体
Bの輪郭線ベクトルデータを算出する。図7は、ディス
プレイ装置25に表示される輪郭線ベクトルデータであ
る。続いてCPU10は、S013〜S015までの処
理を行い、境界ベクトルデータを算出する。
Next, the CPU 10 causes S009 to S012.
Are performed, and the contour line vector data of the object B is calculated based on the acquired image data. FIG. 7 shows contour line vector data displayed on the display device 25. Subsequently, the CPU 10 performs the processing from S013 to S015 to calculate the boundary vector data.

【0078】続いて、CPU10は、S016〜S01
8までの処理を行い、輪郭線ベクトルデータに基づいて
モデリングデータを作成する。図8は、S018の処理
終了後にディスプレイ25に表示されるモデリングデー
タの画面表示例である。
Subsequently, the CPU 10 causes S016 to S01.
The processes up to 8 are performed to create modeling data based on the contour line vector data. FIG. 8 is a screen display example of modeling data displayed on the display 25 after the processing of S018 is completed.

【0079】更に、CPU10は、S020にて“M”
のキーが押された場合には、モデリングデータについて
編集を行う(S022)。また、CPU10は、S02
4,S025の処理を行い、輪郭線ベクトルと境界ベク
トルとに囲まれた各面を細分化して、テクスチャデータ
を作成する。
Further, the CPU 10 makes an "M" at S020.
If the key is pressed, the modeling data is edited (S022). Further, the CPU 10 causes S02
4, the process of S025 is performed, and each surface surrounded by the contour line vector and the boundary vector is subdivided to create texture data.

【0080】このように、本実施形態によれば、物体B
の1画面分の各CCD素子31(画素)毎の画像データ
(2次元画像データ)を取得するとともに、各画素に対応
する測距ポイント32の測距データを取得し、各2次元
の画像データを各測距データに基づいて3次元変換する
することによって、物体Bのモデリングデータを作成す
る。即ち、物体Bの立体形状を認識する。
Thus, according to this embodiment, the object B
Image data for each CCD element 31 (pixel) for one screen
(2D image data) is acquired, distance measurement data of the distance measurement point 32 corresponding to each pixel is acquired, and each 2D image data is three-dimensionally converted based on each distance measurement data. Create modeling data for object B. That is, the three-dimensional shape of the object B is recognized.

【0081】このため、従来のように物体Bを回転,又
は撮像装置21等を回転させなくても物体Bの立体形状
を認識することができる。また、本実施形態では、回転
台装置23が設けてあるので、例えば物体を180゜回
転させることによって、完全な物体Bの立体形状を認識
することができる。従って、光切断法を用いた形状認識
装置に比し、物体Bを回転させる回数を著しく減少させ
ることができるとともに、形状認識装置の処理(動作)数
を簡略化でき、処理時間の短縮化を図ることができる。
Therefore, it is possible to recognize the three-dimensional shape of the object B without rotating the object B or rotating the image pickup device 21 as in the conventional case. Further, in the present embodiment, since the turntable device 23 is provided, it is possible to recognize the complete three-dimensional shape of the object B by rotating the object 180 °, for example. Therefore, the number of times the object B is rotated can be significantly reduced and the number of processes (operations) of the shape recognition device can be simplified, and the processing time can be shortened, as compared with the shape recognition device using the optical cutting method. Can be planned.

【0082】ところで、本発明による形状認識装置は、
上述したように、物体Bを回転させる構成(回転台装置
23)等を特に必要としないので、図9に示されるよう
に、例えば、デジタルカメラK1とこのデジタルカメラ
K1にケーブルC及びインターフェイス(図示せず)を介
して接続されたノート型パーソナルコンピュータ(パソ
コン)K2とから構成することもできる。この場合に
は、図10に示されるように、例えば、撮像装置21,
赤外光投光装置22,照明装置24,及びアクチュエー
タ26をデジタルカメラK1が備えるとともに、制御装
置1,液晶ディスプレイ25,キーボード27,及びマ
ウス28をパソコンK2が備えるように構成する。
By the way, the shape recognition apparatus according to the present invention is
As described above, since the configuration for rotating the object B (turntable 23) is not particularly required, as shown in FIG. 9, for example, the digital camera K1 and the cable C and the interface (FIG. It can also be configured with a notebook personal computer (personal computer) K2 connected via a not-shown). In this case, as shown in FIG. 10, for example, the imaging device 21,
The digital camera K1 is provided with the infrared light projecting device 22, the lighting device 24, and the actuator 26, and the personal computer K2 is provided with the control device 1, the liquid crystal display 25, the keyboard 27, and the mouse 28.

【0083】そして、デジタルカメラK1によって、上
述した物体Bの2次元の画像データ(撮像CCD21a
の出力)及び物体Bと測距ポイント32との距離(測距デ
ータ)とが取得され、これらのデータがパソコンK2に
転送され、パソコンK2の制御装置1(CPU10)によ
って、デジタルカメラK1から転送された各データに基
づいて物体Bの3次元の画像データ(モデリングデータ)
が作成されるように構成する。このような構成とすれ
ば、形状認識装置の小型化が図られるので、その携帯性
が向上するとともに、容易に物体Bのモデリングデータ
を作成することが可能となる。なお、図9に示される形
状認識装置において、デジタルカメラK1とパソコンK
2との間のデータ転送は、無線によるものであっても良
い。
Then, the two-dimensional image data (image pickup CCD 21a) of the above-mentioned object B is taken by the digital camera K1.
Output) and the distance (distance measurement data) between the object B and the distance measurement point 32, and these data are transferred to the personal computer K2 and transferred from the digital camera K1 by the control device 1 (CPU 10) of the personal computer K2. Three-dimensional image data of the object B (modeling data) based on each data obtained
To be created. With such a configuration, the shape recognition device can be downsized, so that the portability is improved and the modeling data of the object B can be easily created. In the shape recognition device shown in FIG. 9, the digital camera K1 and the personal computer K are used.
The data transfer between the two may be wireless.

【0084】また、本発明による形状認識装置は、例え
ば、CCDカメラを搭載したモバイルコンピュータ(例
えば、電子手帳)の記憶装置に上述した制御プログラム
を記憶させることで構成することもできる。この場合に
は、例えば、上述したモデリングデータが作成されるま
での処理をモバイルコンピュータ上で行うように構成す
るのが好ましい。そして、モバイルコンピュータで作成
されたモデリングデータを、パソコンやワークステーシ
ョン等の上位コンピュータに転送し、これらの上位コン
ピュータによって実行されるモデリングソフトやCAD
ソフト上で、モデリングデータの編集や細分化等が行わ
れるようにしても良い。このようにすれば、形状認識装
置の携帯性をさらに高めることができる。
The shape recognition apparatus according to the present invention can also be configured by storing the above-mentioned control program in a storage device of a mobile computer (for example, an electronic notebook) equipped with a CCD camera. In this case, for example, it is preferable that the processing until the modeling data is created is performed on the mobile computer. Then, the modeling data created by the mobile computer is transferred to a host computer such as a personal computer or a workstation, and modeling software or CAD executed by these host computers is executed.
The modeling data may be edited or subdivided on the software. With this configuration, the portability of the shape recognition device can be further enhanced.

【0085】[0085]

【発明の効果】本発明の形状認識装置,形状認識方法,
及びコンピュータプログラムを記録した記録媒体によれ
ば、立体形状認識対象となる物体を回転させる構成,或
いは物体を中心として形状認識装置を周回させる構成を
特に不要として小型化を図ることができ、且つ従来に比
し容易に物体の立体形状データを得ることができる。
The shape recognition device, shape recognition method, and
According to the recording medium having the computer program recorded therein, it is possible to achieve miniaturization by not particularly requiring a configuration for rotating an object to be a solid shape recognition target or a configuration for orbiting the shape recognition device around the object. It is possible to easily obtain the three-dimensional shape data of the object in comparison with.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施形態による形状認識装置の構成例
を示す図
FIG. 1 is a diagram showing a configuration example of a shape recognition device according to an embodiment of the present invention.

【図2】形状認識装置の測距を行う構成の説明図FIG. 2 is an explanatory diagram of a configuration for performing distance measurement of a shape recognition device.

【図3】撮像CCDの撮像面を示す図FIG. 3 is a diagram showing an image pickup surface of an image pickup CCD.

【図4】形状認識装置のCPUの処理を示す流れ図FIG. 4 is a flowchart showing the processing of the CPU of the shape recognition device.

【図5】形状認識装置のCPUの処理を示す流れ図FIG. 5 is a flowchart showing the processing of the CPU of the shape recognition device.

【図6】ディスプレイの画面表示例[Fig. 6] Example of screen display on display

【図7】ディスプレイの画面表示例[Figure 7] Display screen example

【図8】ディスプレイの画面表示例[Figure 8] Display screen example

【図9】形状認識装置の変形例を示す図FIG. 9 is a diagram showing a modification of the shape recognition device.

【図10】形状認識装置の変形例を示す図FIG. 10 is a diagram showing a modification of the shape recognition device.

【図11】従来の形状認識装置の説明図FIG. 11 is an explanatory diagram of a conventional shape recognition device.

【符号の説明】[Explanation of symbols]

B 物体 K1 デジタルカメラ K2 パーソナルコンピュータ 1 制御装置 10 CPU(変換手段) 17 ROM 18 RAM 21 撮像装置(撮像手段) 22 赤外光投光装置(測距手段) B object K1 digital camera K2 personal computer 1 control device 10 CPU (conversion means) 17 ROM 18 RAM 21 Imaging device (imaging means) 22 Infrared light projector (distance measuring means)

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2F065 AA06 AA53 BB05 DD02 DD06 FF09 GG21 JJ03 JJ26 LL26 PP03 PP13 QQ03 QQ23 QQ24 QQ25 QQ28 QQ32 5B057 BA02 BA15 BA19 CA12 CA16 CB13 CB17 CD14 CE15 DA11 DB02 DB09 DC03 DC13 DC17   ─────────────────────────────────────────────────── ─── Continued front page    F term (reference) 2F065 AA06 AA53 BB05 DD02 DD06                       FF09 GG21 JJ03 JJ26 LL26                       PP03 PP13 QQ03 QQ23 QQ24                       QQ25 QQ28 QQ32                 5B057 BA02 BA15 BA19 CA12 CA16                       CB13 CB17 CD14 CE15 DA11                       DB02 DB09 DC03 DC13 DC17

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 物体の立体形状を認識する装置であっ
て、 前記物体の2次元の画像データを取得する撮像手段と、 前記物体と前記撮像手段との間の距離を測距データとし
て取得する測距手段と、 前記物体の2次元の画像デー
タを前記測距データに基づいて物体の3次元の画像デー
タに変換する変換手段とを備え、 前記変換手段が、前記物体の2次元の画像データに基づ
いてこの物体の2次元の輪郭線ベクトルデータを算出
し、前記輪郭線ベクトルで囲まれた領域内の境界ベクト
ルデータを算出するとともに、これらの輪郭線ベクトル
データ及び境界ベクトルデータを前記測距データに基づ
いて3次元ベクトル化することによって前記物体の3次
元の画像データを得ることを特徴とする形状認識装置。
1. An apparatus for recognizing a three-dimensional shape of an object, comprising: an image pickup means for obtaining two-dimensional image data of the object; and a distance between the object and the image pickup means as distance measurement data. A distance measuring means and a converting means for converting the two-dimensional image data of the object into three-dimensional image data of the object based on the distance measuring data, wherein the converting means includes the two-dimensional image data of the object. The two-dimensional contour line vector data of this object is calculated based on the above, and the boundary vector data in the area surrounded by the contour line vector is calculated, and the contour line vector data and the boundary vector data are also subjected to the distance measurement. A shape recognition device, characterized in that three-dimensional vector data is obtained based on the data to obtain three-dimensional image data of the object.
【請求項2】 物体の立体形状を認識する装置であっ
て、 複数の画素からなる撮像面を有し各画素毎に前記物体の
2次元の画像データを夫々取得する撮像手段と、 前記各画素に対応づけて前記撮像面に設定された複数の
物体の測距ポイントと前記物体との距離を測距データと
して夫々取得する測距手段と、 前記各物体の2次元の画像データを各測距データに基づ
いて物体の3次元の画像データに夫々変換する変換手段
とを備え、 前記変換手段が、前記物体の2次元の画像データに基づ
いてこの物体の2次元の輪郭線ベクトルデータを算出
し、前記輪郭線ベクトルで囲まれた領域内の境界ベクト
ルデータを算出するとともに、これらの輪郭線ベクトル
データ及び境界ベクトルデータを前記測距データに基づ
いて3次元ベクトル化することによって前記物体の3次
元の画像データを得ることを特徴とする形状認識装置。
2. An apparatus for recognizing a three-dimensional shape of an object, comprising: an image pickup unit having an image pickup surface made up of a plurality of pixels; each of which obtains two-dimensional image data of the object; And distance measuring means for respectively acquiring distances between the objects and distance measuring points of a plurality of objects set on the imaging surface in association with each other, and two-dimensional image data of each object for each distance measuring. Conversion means for respectively converting into three-dimensional image data of the object based on the data, the conversion means calculating two-dimensional contour line vector data of the object based on the two-dimensional image data of the object. By calculating boundary vector data within the area surrounded by the contour line vector and converting these contour line vector data and boundary vector data into a three-dimensional vector based on the distance measurement data. Shape recognition apparatus characterized by obtaining image data of a three-dimensional of the object Te.
【請求項3】 物体の立体形状を認識する方法であっ
て、 撮像手段により前記物体を撮像することによって前記物
体の2次元の画像データを取得するステップと、 前記物体と前記撮像手段との間の距離を測距データとし
て取得するステップと、 前記物体の2次元の画像デー
タを前記測距データに基づいて物体の3次元の画像デー
タに変換するステップとを含み、 前記物体の3次元の画像データが、前記物体の2次元の
画像データに基づいてこの物体の2次元の輪郭線ベクト
ルデータを算出し、前記輪郭線ベクトルで囲まれた領域
内の境界ベクトルデータを算出するとともに、これらの
輪郭線ベクトルデータ及び境界ベクトルデータを前記測
距データに基づいて3次元ベクトル化することによって
得られることを特徴とする形状認識方法。
3. A method of recognizing a three-dimensional shape of an object, comprising: acquiring two-dimensional image data of the object by imaging the object by an imaging means; and between the object and the imaging means. And a step of converting the two-dimensional image data of the object into three-dimensional image data of the object based on the distance measurement data, the three-dimensional image of the object being obtained. Based on the two-dimensional image data of the object, the data calculates the two-dimensional contour line vector data of this object, calculates the boundary vector data in the area surrounded by the contour line vector, and calculates these contours. A shape recognition method, which is obtained by converting line vector data and boundary vector data into a three-dimensional vector based on the distance measurement data.
【請求項4】 物体の立体形状を認識する方法であっ
て、 複数の画素からなる撮像面を有する撮像手段によって画
素毎の前記物体の2次元の画像データを夫々取得するス
テップと、 前記各画素に対応づけて前記撮像面に設定された複数の
物体の測距ポイントと前記物体との距離を測距データと
して夫々取得するステップと、 前記物体の2次元の画像データを測距データに基づいて
物体の3次元の画像データに夫々変換するステップとを
含み、 前記物体の3次元の画像データが、前記物体の2次元の
画像データに基づいてこの物体の2次元の輪郭線ベクト
ルデータを算出し、前記輪郭線ベクトルで囲まれた領域
内の境界ベクトルデータを算出するとともに、これらの
輪郭線ベクトルデータ及び境界ベクトルデータを前記測
距データに基づいて3次元ベクトル化することによって
得られることを特徴とする形状認識方法。
4. A method for recognizing a three-dimensional shape of an object, comprising the steps of respectively acquiring two-dimensional image data of the object for each pixel by an imaging means having an imaging surface composed of a plurality of pixels; Each of the distance measurement points of a plurality of objects set on the imaging surface in association with the object and the distances between the objects as distance measurement data, and two-dimensional image data of the object based on the distance measurement data. Converting each of the three-dimensional image data of the object into three-dimensional image data of the object, the three-dimensional image data of the object calculating two-dimensional contour line vector data of the object based on the two-dimensional image data of the object. , Calculating boundary vector data in the area surrounded by the contour vector, and calculating these boundary vector data and boundary vector data based on the distance measurement data. Shape recognition method characterized in that it is obtained by dimensional vectorization.
【請求項5】 物体の立体形状を認識する処理を実行さ
せるコンピュータプログラムを記録した記録媒体であっ
て、 コンピュータに、 前記物体を撮像することによって得られた前記物体の2
次元の画像データを読み出すステップと、 前記物体と前記撮像位置との間の距離を測定して得られ
た測距データを読み出すステップと、 前記物体の2次元の画像データに基づいてこの物体の2
次元の輪郭線ベクトルデータを算出し、前記輪郭線ベク
トルで囲まれた領域内の境界ベクトルデータを算出し、
これらの輪郭線ベクトルデータ及び境界ベクトルデータ
を前記測距データに基づいて3次元ベクトル化すること
により、前記物体の2次元の画像データを前記測距デー
タに基づいて物体の3次元の画像データに変換するステ
ップとを実行させるコンピュータプログラムを記録した
記録媒体。
5. A recording medium in which a computer program for executing a process of recognizing a three-dimensional shape of an object is recorded, wherein the recording medium is a computer-readable recording medium which is obtained by capturing an image of the object on a computer.
Dimensional image data is read, distance measurement data obtained by measuring the distance between the object and the imaging position is read, and the object 2 is measured based on the two-dimensional image data of the object.
Dimensional contour vector data is calculated, and boundary vector data in the area surrounded by the contour vector is calculated.
By converting these contour line vector data and boundary vector data into three-dimensional vector data based on the distance measurement data, the two-dimensional image data of the object is converted into three-dimensional image data of the object based on the distance measurement data. A recording medium recording a computer program for executing the converting step.
【請求項6】 物体の立体形状を認識する処理を実行さ
せるコンピュータプログラムを記録した記録媒体であっ
て、 コンピュータに、 複数の画素からなる撮像面を有する撮像手段によって得
られた各画素毎の物体の2次元の画像データを夫々読み
出すステップと、 前記各画素に対応づけて前記撮像面に設定された複数の
物体の測距ポイントと前記物体との距離を測定して得ら
れた測距データを夫々読み出すステップと、 前記物体の2次元の画像データに基づいてこの物体の2
次元の輪郭線ベクトルデータを算出し、前記輪郭線ベク
トルで囲まれた領域内の境界ベクトルデータを算出し、
これらの輪郭線ベクトルデータ及び境界ベクトルデータ
を前記測距データに基づいて3次元ベクトル化すること
により、前記物体の2次元の画像データを測距データに
基づいて物体の3次元の画像データに夫々変換するステ
ップとを実行させるコンピュータプログラムを記録した
記録媒体。
6. A recording medium in which a computer program for executing a process of recognizing a three-dimensional shape of an object is recorded, the object for each pixel obtained by an image pickup means having an image pickup surface including a plurality of pixels in a computer. And the distance measurement data obtained by measuring the distances between the objects and the distance measurement points of a plurality of objects set on the imaging surface in association with each pixel. And a step of reading the object based on the two-dimensional image data of the object.
Dimensional contour vector data is calculated, and boundary vector data in the area surrounded by the contour vector is calculated.
By converting these contour line vector data and boundary vector data into three-dimensional vector data based on the distance measurement data, the two-dimensional image data of the object is converted into the three-dimensional image data of the object based on the distance measurement data. A recording medium recording a computer program for executing the converting step.
JP2002265214A 2002-09-11 2002-09-11 Shape recognition apparatus, shape recognition method, and recording medium recording computer program Expired - Lifetime JP3860525B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002265214A JP3860525B2 (en) 2002-09-11 2002-09-11 Shape recognition apparatus, shape recognition method, and recording medium recording computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002265214A JP3860525B2 (en) 2002-09-11 2002-09-11 Shape recognition apparatus, shape recognition method, and recording medium recording computer program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP12731297A Division JP3380709B2 (en) 1997-05-16 1997-05-16 Shape recognition device, shape recognition method, and recording medium recording computer program

Publications (2)

Publication Number Publication Date
JP2003157427A true JP2003157427A (en) 2003-05-30
JP3860525B2 JP3860525B2 (en) 2006-12-20

Family

ID=19196819

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002265214A Expired - Lifetime JP3860525B2 (en) 2002-09-11 2002-09-11 Shape recognition apparatus, shape recognition method, and recording medium recording computer program

Country Status (1)

Country Link
JP (1) JP3860525B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101288971B1 (en) 2007-02-16 2013-07-24 삼성전자주식회사 Method and apparatus for 3 dimensional modeling using 2 dimensional images
US20150278589A1 (en) * 2014-03-27 2015-10-01 Avago Technologies General Ip (Singapore) Pte. Ltd. Image Processor with Static Hand Pose Recognition Utilizing Contour Triangulation and Flattening
CN105279293A (en) * 2014-06-30 2016-01-27 上海神机软件有限公司 Three-dimensional checking system and method as well as template layout system and method of construction engineering model

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101288971B1 (en) 2007-02-16 2013-07-24 삼성전자주식회사 Method and apparatus for 3 dimensional modeling using 2 dimensional images
US20150278589A1 (en) * 2014-03-27 2015-10-01 Avago Technologies General Ip (Singapore) Pte. Ltd. Image Processor with Static Hand Pose Recognition Utilizing Contour Triangulation and Flattening
CN105279293A (en) * 2014-06-30 2016-01-27 上海神机软件有限公司 Three-dimensional checking system and method as well as template layout system and method of construction engineering model
CN105279293B (en) * 2014-06-30 2019-02-22 上海神机软件有限公司 Construction project model three-dimensional checks system and method, row's modular system and method

Also Published As

Publication number Publication date
JP3860525B2 (en) 2006-12-20

Similar Documents

Publication Publication Date Title
KR102461093B1 (en) Depth image providing apparatus and method
US9432655B2 (en) Three-dimensional scanner based on contours from shadow images
JP5453000B2 (en) Method and apparatus for 3D digitizing an object
US20120176478A1 (en) Forming range maps using periodic illumination patterns
US20120176380A1 (en) Forming 3d models using periodic illumination patterns
CN110446906A (en) Three-dimensional scanning device and method
US20150298395A1 (en) 3d scanning-printing device
Pagliari et al. Kinect fusion improvement using depth camera calibration
CN109618108B (en) Electronic equipment and mobile platform
JP2007024647A (en) Distance calculating apparatus, distance calculating method, structure analyzing apparatus and structure analyzing method
WO2009120073A2 (en) A dynamically calibrated self referenced three dimensional structured light scanner
Wilm et al. Accurate and simple calibration of DLP projector systems
CN107690303A (en) Generate threedimensional model
Resch et al. On-site semi-automatic calibration and registration of a projector-camera system using arbitrary objects with known geometry
JP6541920B1 (en) INFORMATION PROCESSING APPARATUS, PROGRAM, AND INFORMATION PROCESSING METHOD
JP2001243468A (en) Device, method, and metdium for three-dimensional modeling, and device, method, and medium for three- dimensional shape data recording
JP2003202216A (en) Method, device, system and program for three-dimensional image processing
JP2001148025A (en) Device and method for detecting position, and device and method for detecting plane posture
JP2007508557A (en) Device for scanning three-dimensional objects
JP2022548608A (en) Method and Related Apparatus for Acquiring Textures of 3D Models
JP2006098256A (en) Three-dimensional surface model preparing system, image processing system, program, and information recording medium
CN114549660A (en) Multi-camera calibration method, device and equipment based on cylindrical self-identification marker
JP5059503B2 (en) Image composition apparatus, image composition method, and image composition program
JP2008204196A (en) Information input system
JP2003157427A (en) Shape recognition device, shape recognition method, and recording medium recording computer program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050304

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050308

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050509

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050705

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050905

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20051020

A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20051126

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20060118

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20060412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060921

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313114

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090929

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090929

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100929

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100929

Year of fee payment: 4

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100929

Year of fee payment: 4

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100929

Year of fee payment: 4

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100929

Year of fee payment: 4

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100929

Year of fee payment: 4

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100929

Year of fee payment: 4

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100929

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110929

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120929

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120929

Year of fee payment: 6

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120929

Year of fee payment: 6

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130929

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term