JP3281946B2 - 3D object recognition method - Google Patents

3D object recognition method

Info

Publication number
JP3281946B2
JP3281946B2 JP13390894A JP13390894A JP3281946B2 JP 3281946 B2 JP3281946 B2 JP 3281946B2 JP 13390894 A JP13390894 A JP 13390894A JP 13390894 A JP13390894 A JP 13390894A JP 3281946 B2 JP3281946 B2 JP 3281946B2
Authority
JP
Japan
Prior art keywords
shape
recognition
information
neural network
recognized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP13390894A
Other languages
Japanese (ja)
Other versions
JPH07318331A (en
Inventor
信幸 吉澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP13390894A priority Critical patent/JP3281946B2/en
Publication of JPH07318331A publication Critical patent/JPH07318331A/en
Application granted granted Critical
Publication of JP3281946B2 publication Critical patent/JP3281946B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】この発明は、立体形状を認識する
3次元物体の認識方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional object recognition method for recognizing a three-dimensional shape.

【0002】[0002]

【従来の技術】3次元物体認識のため、2次元状に配列
した超音波センサとニューラルネットワークを用いる方
法がある(特開平5−19052号公報)。この方法に
よって、明るさが変化したり影が生じる屋外環境におい
ても、観察位置より前後左右上下の自由な方向に位置し
ている3次元物体を認識することができる。この方法で
は、超音波撮像法を用いて物体表面および背景までの距
離分布を求め、その距離情報に基づいて基準面となる背
景から物体形状を抽出し、それら物体の奥行き情報を誤
差逆伝搬法を用いた層型ニューラルネットワークに入力
して3次元物体を認識している。
2. Description of the Related Art There is a method for recognizing a three-dimensional object using a two-dimensionally arranged ultrasonic sensor and a neural network (JP-A-5-19052). According to this method, even in an outdoor environment where brightness changes or a shadow occurs, it is possible to recognize a three-dimensional object located in a free direction in front, rear, left, right, up and down from an observation position. In this method, the distance distribution to the object surface and the background is obtained using an ultrasonic imaging method, the object shape is extracted from the background serving as a reference plane based on the distance information, and the depth information of those objects is transmitted by the error back propagation method. Is input to a layered neural network using, and a three-dimensional object is recognized.

【0003】図6は、上述した形状認識装置の構成の1
例を示す構成図である。同図において、10は認識対象
の物体、11はレンジセンサとしてのセンサアレイ、1
1,112,〜,11nはセンサアレイ11に配置され
た超音波センサ、13はパーセプトロン型のニューラル
ネットワーク、14はニューラルネットワーク13の入
力層、15はニューラルネットワーク13の中間層、1
6はニューラルネットワーク13の出力層、19はセン
サアレイ11より得られた測定データである。またaは
センサアレイ11から物体10までの距離情報、bはセ
ンサアレイ11から背景までの距離情報である。
FIG. 6 shows one of the configurations of the shape recognition apparatus described above.
It is a block diagram showing an example. In the figure, 10 is an object to be recognized, 11 is a sensor array as a range sensor, 1
1 1, 11 2, ~, 11 n ultrasonic sensors disposed in the sensor array 11, the perceptron type neural network 13, 14 the input layer of the neural network 13, 15 is an intermediate layer of the neural network 13, 1
6 is an output layer of the neural network 13, and 19 is measurement data obtained from the sensor array 11. A is distance information from the sensor array 11 to the object 10, and b is distance information from the sensor array 11 to the background.

【0004】この方法では、ニューラルネットワークを
用いているので、様々な物体毎に異なる形状の特徴量を
抽出する煩雑な手続を用いることなく、物体を認識でき
る利点がある。ところで、測定データ19は、センサア
レイ11と物体10の相対位置やセンサアレイ11面の
法線を軸とする物体10の回転状態によって異なって観
測される。
In this method, since a neural network is used, there is an advantage that an object can be recognized without using a complicated procedure for extracting feature values of different shapes for various objects. Incidentally, the measurement data 19 is observed differently depending on the relative position of the sensor array 11 and the object 10 and the rotation state of the object 10 about the normal line of the surface of the sensor array 11 as an axis.

【0005】このため、位置や回転状態にかかわらず物
体を認識するために、物体の重心位置が測定データの配
列の中心になるように平行移動したり重心を中心に回転
させて、学習してある形状と一致するかどうかを判断す
る回転対照法を用いるようにしている。このように、3
次元物体を認識するには、形状の計測を行い、次いで計
測した情報に基づく形状の認識を行うことにより、対象
物の認識を行う。以下、この認識について詳細に説明す
る。
Therefore, in order to recognize the object regardless of the position or the rotation state, the object is learned by moving in parallel so that the position of the center of gravity of the object is at the center of the array of the measurement data or by rotating the center of gravity. A rotation contrast method is used to determine whether or not the shape matches a certain shape. Thus, 3
In order to recognize a three-dimensional object, the shape is measured, and then the shape is recognized based on the measured information, whereby the object is recognized. Hereinafter, this recognition will be described in detail.

【0006】「形状の計測」超音波を物体10の表面に
照射し、物体10表面からの超音波の反射に要する時間
を測定することで、物体10表面までの距離を直接測定
することができる。したがって、超音波センサを図6に
示したように2次元状に配列することによって、各セン
サに対向する物体10表面までの距離情報を得ることが
できる。また、物体10の置かれた基準面までの距離と
物体10表面までの距離の差から、物体の奥行き情報を
得ることができる。そして、これらのことにより物体1
0の3次元像が得られる。これらの測定をパルス遅延時
間法といい、認識対象の奥行き方向に対して、用いる超
音波の波長程度の距離分解能が得られ、精密な測定を行
うことができる。
[Measurement of Shape] The distance to the surface of the object 10 can be directly measured by irradiating the surface of the object 10 with ultrasonic waves and measuring the time required for reflection of the ultrasonic wave from the surface of the object 10. . Therefore, by arranging the ultrasonic sensors two-dimensionally as shown in FIG. 6, distance information to the surface of the object 10 facing each sensor can be obtained. Also, depth information of the object can be obtained from the difference between the distance to the reference plane on which the object 10 is placed and the distance to the surface of the object 10. Then, the object 1
A three-dimensional image of 0 is obtained. These measurements are called a pulse delay time method, and a distance resolution about the wavelength of the ultrasonic wave to be used is obtained in the depth direction of the recognition target, and precise measurement can be performed.

【0007】なお、この方法では、用いる超音波センサ
の指向角が±5度以下でも、前述した法線に直交する横
方向分解能はセンサ直径程度が限界である。この欠点を
補う意味で、かつ、図6に示したのと同じく超音波によ
るセンサアレイ11を用いる方法として、開口合成法を
用いるようにしても良い。この開口合成法を用いる場合
には、焦点距離に対応した平面像を得ることができる。
また、この場合、横方向分解能は焦点距離に依存する
が、開口長とほぼ等しい距離にある場合には、波長程度
の分解能を得ることができる。なお、上述したような超
音波を用いたレンジセンサに加えて、レーザ光源を用い
た光線スリット法によるレンジセンサを用いても良い。
In this method, even if the directivity angle of the ultrasonic sensor used is ± 5 degrees or less, the lateral resolution perpendicular to the above-mentioned normal line is limited to about the sensor diameter. An aperture synthesis method may be used to compensate for this disadvantage and to use the sensor array 11 by ultrasonic waves as shown in FIG. When this aperture synthesis method is used, a plane image corresponding to the focal length can be obtained.
Further, in this case, the lateral resolution depends on the focal length, but when the distance is substantially equal to the aperture length, a resolution of about the wavelength can be obtained. Note that, in addition to the above-described range sensor using ultrasonic waves, a range sensor based on a light beam slit method using a laser light source may be used.

【0008】ここで、レンジセンサではないが、横方向
の分解能のみを向上する意味では、ビデオカメラを併用
する方法も実用的である。この方法には、色情報を活用
できるメリットもある。ビデオカメラにより得られる形
状情報では横方向の分解能が非常に高い。しかし、ビデ
オカメラ単独では距離情報を得ることはできない。しか
も、ビデオカメラでは、明度の違いに基づいて形状情報
の抽出を行うので、明るさが変化したり影が生じる環境
では正確なデータを得ることが困難である。しかし、超
音波法による方法と併用するようにすれば、カメラ画像
単独では困難な形状抽出を可能にできる。
Here, although not a range sensor, a method using a video camera is also practical in terms of improving only the resolution in the horizontal direction. This method also has the advantage that color information can be used. The shape information obtained by the video camera has a very high resolution in the horizontal direction. However, distance information cannot be obtained with a video camera alone. Moreover, since a video camera extracts shape information based on a difference in brightness, it is difficult to obtain accurate data in an environment where brightness changes or a shadow occurs. However, if the method is used together with the method based on the ultrasonic method, it is possible to extract a shape that is difficult with a camera image alone.

【0009】この併用するメカニズムについては、特願
平4−351457号に記載されている。物体のビデオ
画像を抽出することができれば、超音波像に比べてはる
かに横方向分解能に優れた形状情報を得ることができ
る。この情報と、先に述べた奥行き方向分解能に優れた
距離情報を併用することによって、高精度な3次元物体
像を得ることができる。以上述べた様々な方法によれ
ば、得られた3次元物体像に基づいて、認識対象物の断
面積や高さ,体積,外形などの大きさ情報も含めた形状
情報を求めることができる。
The mechanism used in combination is described in Japanese Patent Application No. 4-351457. If a video image of an object can be extracted, it is possible to obtain shape information with much better lateral resolution than an ultrasonic image. By using this information and the above-described distance information having excellent depth direction resolution, a highly accurate three-dimensional object image can be obtained. According to the various methods described above, based on the obtained three-dimensional object image, shape information including size information such as a cross-sectional area, a height, a volume, and an outer shape of the recognition target object can be obtained.

【0010】「形状の認識」次に、得られた認識対象物
の形状情報をもとに、認識対象物の認識を行う方法につ
いて説明する。認識の方法としては、基本的に特開平5
−19052号公報に記載されたものと同じ誤差逆伝搬
法を用いた層状のニューラルネットワーク、つまりパー
セプトロン型のニューラルネットワークを用いればよ
い。これは、図6に示したニューラルネットワーク13
と同様の構造であり、入力層14,中間層15,および
出力層16で構成される。なお、中間層15は2層以上
あっても良い。
[Shape Recognition] Next, a method of recognizing a recognition target based on the obtained shape information of the recognition target will be described. As a method of recognition, basically,
A layered neural network using the same backpropagation method as described in JP-A-19052 may be used, that is, a perceptron-type neural network. This corresponds to the neural network 13 shown in FIG.
It has the same structure as that of the first embodiment, and is composed of an input layer 14, an intermediate layer 15, and an output layer 16. The intermediate layer 15 may have two or more layers.

【0011】このニューラルネットワーク13では、入
力層14に入力される信号に対して、出力層16が一定
の信号を出力できるように学習させることができる。一
度学習を行えば、学習した入力信号とほぼ同様の入力信
号に対して、ニューラルネットワーク13は学習した信
号を出力する。したがって、形状情報から特徴量を抽出
する煩雑な手続きが不要にもかかわらず、形状に対応し
た固有の認識結果を得ることができる。
In the neural network 13, a signal input to the input layer 14 can be learned so that the output layer 16 can output a constant signal. Once learning is performed, the neural network 13 outputs a learned signal to an input signal substantially similar to the learned input signal. Therefore, it is possible to obtain a unique recognition result corresponding to the shape, even though a complicated procedure for extracting the feature amount from the shape information is unnecessary.

【0012】そして、このニューラルネットワーク13
では、認識は学習データとの対応で行われる。入力層1
4の各シナップスには、図6で示したように、センサア
レイ11で測定した距離情報の平面分布を示す測定デー
タ19が入力される。このため同一の物体でも、観察位
置,向き,距離などの異なる場合には、異なったデータ
となるので同一物体と認識できない。
Then, the neural network 13
Then, the recognition is performed in correspondence with the learning data. Input layer 1
As shown in FIG. 6, measurement data 19 indicating a planar distribution of distance information measured by the sensor array 11 is input to each synapse 4. Therefore, the same object cannot be recognized as the same object when the observation position, the orientation, the distance, and the like are different because the data becomes different.

【0013】この欠点を補うために、測定データの重心
が学習データの重心と一致するように、測定データを平
行移動することによって、認識対象の舞台の位置を正規
化する。たとえば、前述した回転対照法を用いること
で、認識対象の物体を認識させる。これらの方法によっ
て、物体の距離,位置,向きによらず、その物体の認識
をすることができる。そして、加えて、学習段階のと
き、得られた形状情報より、大きさを正規化したものを
ニューラルネットワークに与える。
To compensate for this drawback, the position of the stage to be recognized is normalized by translating the measurement data so that the center of gravity of the measurement data matches the center of gravity of the learning data. For example, the object to be recognized is recognized by using the rotation contrast method described above. With these methods, the object can be recognized regardless of the distance, position, and orientation of the object. In addition, at the learning stage, the normalized size is given to the neural network from the obtained shape information.

【0014】この正規化により、ニューラルネットワー
クに与える全ての学習データの差異は、形状の差異のみ
を表すことになる。そして、実際の認識段階では、上述
と同様にして、認識対象の物体の測定データの高さ情報
を正規化し、さらに断面積を拡大縮小させ、規格値に整
合させた上でニューラルネットワークに入力する。この
ことにより、認識対象の物体までの距離やその位置,ま
た、その物体の向きや大きさにかかわらず、物体の形状
を認識することができる。
By this normalization, the difference between all the learning data given to the neural network represents only the difference between the shapes. Then, in the actual recognition stage, in the same manner as described above, the height information of the measurement data of the object to be recognized is normalized, the cross-sectional area is further enlarged and reduced, and input to the neural network after matching with the standard value. . Thus, the shape of the object can be recognized irrespective of the distance to the object to be recognized and its position, and the orientation and size of the object.

【0015】[0015]

【発明が解決しようとする課題】従来は以上のようにな
されていたので、形状が同じでも大きさが異なる物体
を、その形状を認識することはできても、それらが異な
るものであるという物体認識ができないという問題があ
った。そして従来の方法で、同様の形状で異なる大きさ
の物体を認識する場合は、大きさの異なる物体全てにつ
いての学習をしなくてはならないため、認識をするため
の学習量が多くなり、物体種類が増加すると学習時間が
指数的に増加してしまう。
Conventionally, as described above, objects having the same shape but different sizes are recognized as having the same shape but different shapes. There was a problem that it could not be recognized. In the case of recognizing objects of the same shape and different sizes by the conventional method, it is necessary to learn all the objects having different sizes. As the number of types increases, the learning time increases exponentially.

【0016】たとえば、ある2つの物体が相似形であっ
ても、大きさが異なると別の物体として学習が必要にな
る。このため、たとえば、球を認識させるだけのために
も、様々な大きさの球の学習が必要となり、言い換える
と、膨大な量の学習をしなければ、いろいろな大きさの
球を認識することができない。すなわち、高速かつ大容
量のコンピュータを用いても、学習が困難になるという
実用上の大問題があった。
For example, even if two objects have similar shapes, if they are different in size, learning is required as different objects. For this reason, for example, it is necessary to learn spheres of various sizes just to recognize spheres. In other words, unless a huge amount of learning is performed, it is necessary to recognize spheres of various sizes. Can not. That is, there is a large practical problem that learning becomes difficult even when a high-speed and large-capacity computer is used.

【0017】この発明は、以上のような問題点を解消す
るためになされたものであり、形状や大きさが異なる様
々な3次元物体の認識を実用的に可能とすることを目的
とする。
The present invention has been made to solve the above problems, and has as its object to enable practical recognition of various three-dimensional objects having different shapes and sizes.

【0018】[0018]

【課題を解決するための手段】この発明の3次元物体の
認識方法は、基準面上に配置された物体を一方から観察
して物体の形状情報を求め、その形状情報を奥行き方向
および平面方向に正規化した正規化形状情報を用いて物
体の形状認識を行い、この形状認識の結果および形状情
報による物体の断面積,体積,もしくは直径などの大き
さ情報のうち2成分以上に基づいて物体認識をすること
を特徴とする。
According to a three-dimensional object recognition method of the present invention, an object placed on a reference plane is observed from one side to obtain shape information of the object, and the shape information is obtained in a depth direction and a plane direction. Recognizes the shape of the object using the normalized shape information normalized to the shape of the object. Based on the shape recognition result and the size information such as the cross-sectional area, volume, or diameter of the object based on the shape information, the object is recognized based on two or more components. It is characterized by recognizing.

【0019】[0019]

【作用】1つの代表形状の学習で、類似しているが大き
さが異なる物体を異なるものとして認識する。
By learning one representative shape, objects that are similar but different in size are recognized as being different.

【0020】[0020]

【実施例】以下この発明の1実施例を図を参照して説明
する。図1は、この発明の3次元物体の認識方法の1実
施例を説明するためのフローチャートであり、図1のフ
ローチャートを用いてこの実施例を説明する。この3次
元物体の認識では、まず、ニューラルネットワークにお
ける学習を行う。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a flowchart for explaining one embodiment of the method for recognizing a three-dimensional object according to the present invention. This embodiment will be described with reference to the flowchart of FIG. In the recognition of the three-dimensional object, first, learning in a neural network is performed.

【0021】この学習では、始めに、学習対象(認識対
象)の物体の測定を行う。この物体の測定では、複数の
超音波センサが配列された超音波センサアレイにより、
従来と同様に、学習対象の物体の超音波センサアレイか
らの距離情報を得る(ステップS1)。そして、得られ
た距離情報よりノイズを取り除き(ステップS2)、こ
れらより物体の奥行き方向の形状情報の抽出を行う(ス
テップS3)。
In this learning, first, an object to be learned (recognition target) is measured. In the measurement of this object, the ultrasonic sensor array in which a plurality of ultrasonic sensors are arranged,
As in the conventional case, distance information of the object to be learned from the ultrasonic sensor array is obtained (step S1). Then, noise is removed from the obtained distance information (step S2), and the shape information in the depth direction of the object is extracted therefrom (step S3).

【0022】一方で、ビデオカメラなどにより、学習対
象の物体の画像データを取込み、物体の横方向の形状情
報の抽出を行う(ステップS4)。そして、これらの抽
出した形状情報より、物体の重心を求める(ステップS
5)。以上、ステップS1〜S5が測定になる。そし
て、以下に示すように、大きさと位置の規格処理を行
う。
On the other hand, image data of the object to be learned is captured by a video camera or the like, and information on the shape of the object in the horizontal direction is extracted (step S4). Then, the center of gravity of the object is obtained from the extracted shape information (step S).
5). As described above, steps S1 to S5 are measurement. Then, as described below, a size and position standardization process is performed.

【0023】まず、この学習段階のときは、得られた形
状情報より、学習データとして大きさと位置を正規化し
たものを形状認識ニューラルネットワークに与える(ス
テップS6)。たとえば、得られた形状情報の中で、物
体の各部分の高さ情報を、その中の最大高さ情報で割っ
て正規化し、また、物体の重心が得られた形状情報にお
けるデータ列の中央に来るように位置を正規化し、これ
を形状認識ニューラルネットワークに与える。
First, at the learning stage, the data obtained by normalizing the size and position as learning data from the obtained shape information is given to the shape recognition neural network (step S6). For example, in the obtained shape information, the height information of each part of the object is divided by the maximum height information therein to normalize, and the center of the data sequence in the shape information from which the center of gravity of the object is obtained is obtained. , And provide this to the shape recognition neural network.

【0024】次に、学習データの情報量を正規化して形
状認識ニューラルネットワークに与える(ステップS
7)。たとえば、得られた形状情報のなかで、物体部分
を1,基準面となる背景部分を0に2値化して総和を計
算することにより断面積を求める。そして、あらかじめ
定めてある断面積の規格値に一致するように測定データ
を拡大もしくは縮小する処理をさせ、規格値に整合させ
る。つまり、この場合は、物体平面像の断面積を計算
し、この面積が規格値と一致するように形状情報を拡大
縮小して正規化し、これを形状認識ニューラルネットワ
ークに与える。
Next, the information amount of the learning data is normalized and given to the shape recognition neural network (step S).
7). For example, in the obtained shape information, the cross-sectional area is obtained by binarizing the object portion into 1 and the background portion serving as the reference plane into 0 and calculating the sum. Then, a process of enlarging or reducing the measurement data so as to match a predetermined standard value of the cross-sectional area is performed so as to match the standard value. That is, in this case, the cross-sectional area of the plane image of the object is calculated, and the shape information is scaled and normalized so that this area matches the standard value, and this is provided to the shape recognition neural network.

【0025】この正規化の結果、形状認識ニューラルネ
ットワークに与える全ての学習データの差異は、形状の
差異のみを表すことになる。そして、実際の認識段階で
は、上述と同様にして、認識対象の物体の測定データの
高さ情報を正規化し、さらに断面積を拡大縮小させ、規
格値に整合させた上で形状認識ニューラルネットワーク
に入力する。認識には回転対照法を用いる。以上、ステ
ップS6,S7が正規化を行う部分である。
As a result of this normalization, the difference between all the learning data given to the shape recognition neural network represents only the shape difference. Then, in the actual recognition stage, in the same manner as described above, the height information of the measurement data of the object to be recognized is normalized, the cross-sectional area is further scaled up and adjusted to the standard value, and the shape recognition neural network is used. input. The rotation control method is used for recognition. As described above, steps S6 and S7 are portions for performing normalization.

【0026】以上の処理により、認識対象の物体までの
距離やその位置,また、その物体の向きや大きさにかか
わらず、形状認識ニューラルネットワークでは物体を認
識することができる(ステップS8)。なお、上述した
ニューラルネットワークにおいては、パーセプトロンと
同様にパターン認識機能を有するニューラルネットワー
ク用いても、同様であることはいうまでもない。
Through the above processing, the object can be recognized by the shape recognition neural network regardless of the distance to the object to be recognized and its position, and the orientation and size of the object (step S8). In the above-described neural network, it goes without saying that the same applies even if a neural network having a pattern recognition function is used similarly to the perceptron.

【0027】本発明の特徴は、以上のことにより認識し
た物体の形状情報と大きさ情報とを用いることにより、
その物体の大小などを含めた相違点を認識する点にある
(物体認識)。物体の大きさ情報とは、断面積,体積,
高さ,直径などである。図2に、形状情報が同様のもの
となる物体の代表例を示す。同図において、(a)は学
習によって得られた正規化形状、(b)は高さは正規化
形状と同一であるが断面積や体積が異なる物体、(c)
は断面積は正規化形状と同一であるが高さや体積が異な
る物体、(d)は体積は正規化形状と同一であるが高さ
や断面積が異なる物体である。
The feature of the present invention is that by using the shape information and the size information of the object recognized as described above,
The point is to recognize differences including the size of the object (object recognition). Object size information includes cross-sectional area, volume,
Height, diameter, etc. FIG. 2 shows a representative example of an object having the same shape information. In the figure, (a) is a normalized shape obtained by learning, (b) is an object having the same height as the normalized shape but different in cross-sectional area and volume, (c)
Is an object having the same cross-sectional area as the normalized shape but different in height and volume, and (d) is an object having the same volume as the normalized shape but different in height and cross-sectional area.

【0028】図2(b),(c),(d)に示す物体
は、正規化形状と断面積、高さ、もしくは体積がそれぞ
れに等しいが、全て異なる物体である。従来では、これ
らの物体の形状を認識することはできた。たとえば、こ
れらの物体を円柱と認識することはなく、正規化形状と
同様の形状であることは認識する。しかし、これらの物
体がそれぞれ異なる物体であるという物体認識はできな
かった。
The objects shown in FIGS. 2 (b), (c) and (d) are the same as the normalized shape and the same sectional area, height or volume, but are all different objects. Conventionally, the shapes of these objects could be recognized. For example, these objects are not recognized as cylinders, but are recognized as having the same shape as the normalized shape. However, object recognition that these objects are different objects could not be performed.

【0029】物体を認識するには、正規化した形状情報
に加えて断面積と高さ,または断面積と体積,または体
積と高さなどの、物体の大きさ情報の中で最低2情報が
必要である。すなわち、この発明では、上述した正規化
に加え、それらの少なくとも2情報を物体認識ニューラ
ルネットワークに与えることによって(ステップS
9)、物体認識ニューラルネットワークが物体を認識す
ることを特徴とする(ステップS10)。
In order to recognize an object, at least two pieces of information on the size of the object, such as the cross-sectional area and height, or the cross-sectional area and volume, or the volume and height, are added to the normalized shape information. is necessary. That is, in the present invention, in addition to the above-described normalization, by giving at least two pieces of information to the object recognition neural network (step S
9) The feature is that the object recognition neural network recognizes the object (step S10).

【0030】以下、上述した方法に基づいて評価試験を
行った結果を説明する。図3は、この発明の1実施例に
よる形状認識装置の構成を示す構成図である。同図にお
いて、31は周波数200KHzの送受信兼用の超音波
センサ(株式会社村田製作所製MA200A1)を30
mm間隔で平板上に縦横に8個ずつ、計64個配列した
超音波センサアレイ、32は超音波センサアレイ31中
央部の孔31aより認識対象を撮影するCCDイメージ
センサからなるビデオカメラ、33は認識対象の物体、
34は認識対象が置かれている基準面となる測定面であ
る。
Hereinafter, the results of the evaluation test performed based on the above-described method will be described. FIG. 3 is a configuration diagram showing the configuration of the shape recognition device according to one embodiment of the present invention. In the figure, reference numeral 31 denotes a transmission / reception ultrasonic sensor (MA200A1 manufactured by Murata Manufacturing Co., Ltd.) having a frequency of 200 kHz.
A total of 64 ultrasonic sensor arrays, 8 in length and width on a flat plate at mm intervals, 32 is a video camera composed of a CCD image sensor for photographing a recognition target from a hole 31a in the center of the ultrasonic sensor array 31, and 33 is Object to be recognized,
Reference numeral 34 denotes a measurement surface serving as a reference surface on which the recognition target is placed.

【0031】また、35は超音波センサアレイ31やビ
デオカメラ32から得られた形状情報を正規化する正規
化部、36は、入力層36aと中間層36bと出力層3
6cから構成され、正規化部35で正規化された形状情
報より形状認識を行う形状認識ニューラルネットワーク
である。なお、超音波センサとビデオカメラ32は相対
位置が変化しないようにセンサアレイ31に固定してあ
る。また、形状認識部のニューラルネットワーク36の
入力層36の入力シナップス数は2704、学習段階に
おける学習モデルの断面積規格値は800である。
Reference numeral 35 denotes a normalizing unit for normalizing shape information obtained from the ultrasonic sensor array 31 and the video camera 32, and 36 denotes an input layer 36a, an intermediate layer 36b, and an output layer 3.
6c, which is a shape recognition neural network that performs shape recognition based on the shape information normalized by the normalization unit 35. The ultrasonic sensor and the video camera 32 are fixed to the sensor array 31 so that the relative positions do not change. The input synapse number of the input layer 36 of the neural network 36 of the shape recognition unit is 2704, and the standard value of the cross-sectional area of the learning model in the learning stage is 800.

【0032】ここで、上述したように、200KHzの
指向性の高い超音波センサを用いた場合でも、センサの
外形に等しい10ミリ程度が超音波センサ単独の横方向
分解の限界である。超音波センサは全てが送受信兼用で
あり、発振したセンサが反射波を受信するだけでなく、
隣のセンサが発振した信号も受信することによって、8
×8個のセンサで15×15個の点の測定が可能であ
る。また、ビデオカメラ32より得られる画像は、これ
を構成するCCDイメージセンサの特性に依存するが、
たとえば、得られる画素は縦512横485個で構成さ
れ、1つの画素は8ビットつまり256階調の明るさ情
報を有している。
Here, as described above, even when an ultrasonic sensor having a high directivity of 200 KHz is used, about 10 mm, which is equal to the outer shape of the sensor, is the limit of the lateral decomposition of the ultrasonic sensor alone. All ultrasonic sensors are used for both transmission and reception. Not only does the oscillating sensor receive reflected waves,
By receiving the signal oscillated by the next sensor, 8
Measurement of 15 × 15 points is possible with × 8 sensors. The image obtained from the video camera 32 depends on the characteristics of the CCD image sensor constituting the image.
For example, the obtained pixels are composed of 512 rows and 485 pixels, and one pixel has brightness information of 8 bits, that is, 256 gradations.

【0033】以下、この評価試験における形状認識装置
の動作について説明する。まず、ビデオカメラ32で物
体33を撮影することで測定した濃淡画像データから、
明るさの違いに基づいて3次元物体像を抽出する。次
に、測定した3次元物体像の画素数に基づいてこの断面
積を計算し、これが規格値と整合するよう画像の抽出幅
を適応させ、再度平面像を抽出することによって、物体
33より得られる形状情報の大きさ(情報量)を正規化
する。さらに、超音波センサで求めた物体像の最大高さ
で物体33より得られる形状情報による像の大きさを正
規化する。そして、これら正規化した情報を形状認識ニ
ューラルネットワーク36に入力して形状認識を行う。
The operation of the shape recognition device in this evaluation test will be described below. First, from the grayscale image data measured by photographing the object 33 with the video camera 32,
A three-dimensional object image is extracted based on a difference in brightness. Next, the cross-sectional area is calculated based on the measured number of pixels of the three-dimensional object image, the extraction width of the image is adjusted so that the cross-sectional area matches the standard value, and the plane image is extracted again to obtain the cross-sectional area. The size (information amount) of the shape information to be obtained is normalized. Further, the size of the image based on the shape information obtained from the object 33 is normalized by the maximum height of the object image obtained by the ultrasonic sensor. Then, the normalized information is input to the shape recognition neural network 36 to perform shape recognition.

【0034】この形状認識装置を用いて、図3に示した
ように、以下に示すサンプルを1つずつ超音波センサア
レイ31の測定エリア(約21cm2 )内の任意の位
置に任意の向きで設置し、形状認識を試みた。実験は2
回ずつ行った。サンプルとしては、断面積が20cm
2 ,50cm2 ,70cm2 の3種、形状が円柱,
断面が正方形の直方体A,どの断面も正方形でない直方
体B,および三角柱の4種類、計12個の物体を用い
た。なお全ての物体において高さは4cmとした。ま
た、この評価試験においては、形状認識ニューラルネッ
トワーク36が、円柱,直方体A,直方体B,および三
角柱の4種類の物体について、前述したように学習を行
ってある。
Using this shape recognition device, as shown in FIG. 3, samples shown below are placed one by one at arbitrary positions in the measurement area (about 21 cm 2 ) of the ultrasonic sensor array 31 in arbitrary directions. We installed and tried shape recognition. Experiment 2
I went each time. As a sample, the cross-sectional area is 20cm
2 , 50 cm 2 , 70 cm 2 , three cylindrical,
A total of 12 objects were used, including a rectangular parallelepiped A having a square cross section, a rectangular parallelepiped B having no square cross section, and a triangular prism. The height of all objects was 4 cm. In this evaluation test, the shape recognition neural network 36 learns four types of objects, ie, a cylinder, a rectangular parallelepiped A, a rectangular parallelepiped B, and a triangular prism, as described above.

【0035】図4は回転対照法を用いた場合の形状認識
ニューラルネットワーク36の出力の一例であり、
(a)は断面積20cm2 ,(b)は断面積50cm
2 ,(c)は断面積70cm2 の直方体Bを観察した
結果得られた出力層36c(図3)の出力を示す波形図
である。同図において、41は出力層36cの直方体A
を示すシナップス出力、42は出力層36cの円柱を示
すシナップス出力、43は出力層36cの直方体Bを示
すシナップス出力、44は出力層36cの三角柱を示す
シナップス出力である。
FIG. 4 is an example of the output of the shape recognition neural network 36 when the rotation contrast method is used.
(A) is a cross-sectional area of 20 cm 2 , (b) is a cross-sectional area of 50 cm
2 and (c) are waveform diagrams showing the output of the output layer 36c (FIG. 3) obtained as a result of observing the rectangular parallelepiped B having a cross-sectional area of 70 cm 2 . In the figure, reference numeral 41 denotes a rectangular parallelepiped A of the output layer 36c.
Is a synapse output indicating a cylinder of the output layer 36c, 43 is a synapse output indicating the rectangular parallelepiped B of the output layer 36c, and 44 is a synapse output indicating a triangular prism of the output layer 36c.

【0036】また、縦軸はシナップス出力を示し、横軸
は入力する測定データの重心まわりの回転角を示す。こ
こで、直方体Aを示すシナップス出力41は、認識対象
が学習した直方体Aと完全に一致する場合に出力1(最
大)となり、他のシナップス出力42〜44は0とな
る。同様に、認識対象が学習した円柱と完全に一致する
場合は、円柱を示すシナップス出力42が出力1(最
大)となり、直方体Aを示すシナップス出力41を含め
他のシナプス出力43,44は0となる。言い換える
と、直方体Aを示すシナップス出力41とは、学習段階
で断面が正方形の直方体を認識させて出力1となるよう
にした(学習した)ものである。このとき、当然、他の
シナップス出力42〜44は0とする。
The vertical axis indicates the synapse output, and the horizontal axis indicates the rotation angle of the input measurement data around the center of gravity. Here, the synapse output 41 indicating the rectangular parallelepiped A becomes the output 1 (maximum) when the recognition target completely matches the learned rectangular parallelepiped A, and the other synapse outputs 42 to 44 become 0. Similarly, when the recognition target completely matches the learned cylinder, the synapse output 42 indicating the cylinder becomes output 1 (maximum), and the other synapse outputs 43 and 44 including the synapse output 41 indicating the rectangular parallelepiped A become 0. Become. In other words, the synapse output 41 indicating the rectangular parallelepiped A is such that a rectangular parallelepiped having a square cross section is recognized at the learning stage so that the output becomes 1 (learned). At this time, naturally, the other synapse outputs 42 to 44 are set to 0.

【0037】図4に示すように、認識結果は、学習した
各物体の対称軸に応じた回転角においてピークを生じて
いる。これは、特定の回転角において学習データと入力
データが一致したことを表している。各シナップス出力
は、認識対象が学習したときと同様の形状のとき大きな
ものとなる。そして、シナップス出力43は、認識対象
の回転角が学習したときと異なれば、この認識対象が直
方体Bであっても、小さいものとなる。
As shown in FIG. 4, the recognition result has a peak at a rotation angle corresponding to the symmetry axis of each learned object. This indicates that the learning data and the input data match at a specific rotation angle. Each synapse output becomes large when the recognition target has the same shape as when learning. Then, the synapse output 43 is small even if the recognition target is the rectangular parallelepiped B, if the rotation angle of the recognition target is different from that at the time of learning.

【0038】出力層36cの直方体Bを示すシナップス
出力43は、観察対象の断面が正方形ではないので、1
80度毎に最も高いピークを示している。180度毎に
高いピークを示しているのは、直方体Bには対称軸が1
本しかないためである。また、たとえば、出力層36c
の円柱を示すシナップス出力42が90度と270度に
ピークを示しているが、これは、誤認識部分である。全
体としては、シナップス出力43が180度毎に最も高
いピークとなり、このとき他のシナップス出力41,4
2,44は0となっているので、観察対象は直方体Bで
あると認識される。
The synapse output 43 indicating the rectangular parallelepiped B of the output layer 36c is 1
The highest peak is shown every 80 degrees. High peaks are shown every 180 degrees because the rectangular parallelepiped B has one axis of symmetry.
Because there is only a book. Further, for example, the output layer 36c
Although the synapse output 42 indicating the cylinder of No. shows peaks at 90 degrees and 270 degrees, this is an erroneously recognized portion. As a whole, the synapse output 43 becomes the highest peak every 180 degrees, and at this time, the other synapse outputs 41, 4
Since 2 and 44 are 0, the observation target is recognized as the rectangular parallelepiped B.

【0039】以下の表1に、前述した物体の形状認識結
果を示す。これは、前述した12個の物体の形状認識に
おける、出力層36cの各対象物体形状に対応する4つ
のシナップスの出力より得られた結果である。すなわ
ち、表1中の確定率は、各対象物体形状に対応するシナ
ップス出力41〜44の中の最大値を、4つのシナップ
ス出力41〜44の総和で正規化したものである。した
がって、確定率100%とは、誤認識の出力が全く無い
状態を示す。
Table 1 below shows the results of the above-described object shape recognition. This is a result obtained from the output of four synapses corresponding to each target object shape in the output layer 36c in the shape recognition of the 12 objects described above. That is, the determination rate in Table 1 is obtained by normalizing the maximum value of the synapse outputs 41 to 44 corresponding to each target object shape by the sum of the four synapse outputs 41 to 44. Therefore, a confirmation rate of 100% indicates a state in which there is no output of erroneous recognition.

【0040】 [0040]

【0041】実験結果は、大きさにかかわらず共通の結
果を得ている。たとえば、物体33が円柱の場合は、そ
の断面積が20,50,70cm2のどれでも円柱と認
識している。そして、円柱および直方体Bと三角柱につ
いては全て正解を得た。一方、直方体Aの場合は、円柱
と誤認識をする場合があった。
The experimental results obtain common results regardless of the size. For example, when the object 33 is a cylinder, any of the cross-sectional areas of 20, 50 and 70 cm 2 is recognized as a cylinder. Then, correct answers were obtained for the cylinder, the rectangular parallelepiped B, and the triangular prism. On the other hand, in the case of the rectangular parallelepiped A, there was a case where it was erroneously recognized as a cylinder.

【0042】以上は、測定した情報を正規化することに
より、たとえば、大きさの異なる円柱でも、1つの円柱
を学習することで、それらを円柱と判断できるようにな
ったことを示した。しかし、まだこれでは、異なる大き
さの円柱でも同じものとして認識してしまう。ここで、
前述したように、この発明の特徴である、大きさを示す
2つの情報を用いることで、これらを区別する物体認識
が可能となるが、この物体認識について以下に説明す
る。
As described above, it has been shown that by normalizing the measured information, for example, even if the cylinders have different sizes, they can be determined to be cylinders by learning one cylinder. However, this still recognizes cylinders of different sizes as the same. here,
As described above, by using two pieces of information indicating the size, which is a feature of the present invention, it is possible to perform object recognition for distinguishing between them. This object recognition will be described below.

【0043】この物体認識においては、前述したよう
に、図3に示した形状認識ニューラルネットワーク36
に加えて、物体認識ニューラルネットワークも用いる。
この物体認識ニューラルネットワークは、4種類の物体
にそれぞれ対応した図3に示した形状認識ニューラルネ
ットワーク36の出力層36cのシナップスの出力が接
続される4つのシナップスと、たとえば断面積の大小を
3段階,高さの大小を3段階に分けて入力する6つのシ
ナップスとからなる入力層を有する。そして、図5に示
すように、物体認識ニューラルネットワークの出力層で
は、4×3×3=36のシナプスから出力が得られる。
In this object recognition, as described above, the shape recognition neural network 36 shown in FIG.
In addition, an object recognition neural network is used.
This object recognition neural network has four synapses to which the synapse outputs of the output layer 36c of the shape recognition neural network 36 shown in FIG. , And an input layer including six synapses for inputting the height in three stages. Then, as shown in FIG. 5, in the output layer of the object recognition neural network, an output is obtained from 4 × 3 × 3 = 36 synapses.

【0044】この物体認識の評価試験では、上述の評価
試験と同様にそれぞれに、断面積が20、50,70c
2 の3種類、そして、高さ4cmの直方体A、高さ
7cmの円柱と直方体B、高さ4cm,7cm,10c
mの三角柱の合計18のサンプルを用いた。評価試験の
結果は、18サンプル全ての物体認識に成功した。これ
は、物体認識ニューラルネットワークが、形状と大き
さ、つまり高さと断面積を総合的に判断した結果と考え
られる。
In this evaluation test for object recognition, the cross-sectional areas are 20, 50, 70c, respectively, as in the above-described evaluation test.
3 types of m 2 , and a rectangular parallelepiped A with a height of 4 cm, a column and a rectangular parallelepiped B with a height of 7 cm, heights of 4 cm, 7 cm and 10 c
A total of 18 samples of m triangular prisms were used. As a result of the evaluation test, all 18 samples were successfully recognized. This is considered to be the result of the object recognition neural network comprehensively determining the shape and size, that is, the height and the cross-sectional area.

【0045】表1に示した結果が示すとおり、形状認識
ニューラルネットワークのみでは円柱と立方体の場合の
ように誤認識も生じる。しかし、物体認識ニューラルネ
ットワークでは、形状認識の結果に加えて、断面積情報
や高さ情報も加わって判断される。すなわち、形状認識
においては断面積20,50cm2 の直方体Aの形状
認識に誤認識があったが、今度の物体認識の試験におい
ては、直方体Aと円柱では高さが異なり、このために誤
認識することなく物体判断がされたものである。
As the results shown in Table 1 show, erroneous recognition also occurs with only the shape recognition neural network as in the case of a cylinder and a cube. However, in the object recognition neural network, the judgment is made in addition to the cross-sectional area information and the height information in addition to the result of the shape recognition. That is, in the shape recognition, there was an erroneous recognition in the shape recognition of the rectangular parallelepiped A having a cross-sectional area of 20, 50 cm 2, but in the next object recognition test, the height was different between the rectangular parallelepiped A and the cylinder. The object is determined without performing.

【0046】ところで、ニューラルネットワークの認識
における機能は、判別回路の縦列接続とは異なる。判別
回路とは、たとえば、形状判断,断面積判断,高さ判断
において、それぞれに設定されているしきい値との比較
により、得られた測定データを逐次判別していくもので
ある。このような判別回路では、判別回路の全ての判断
部分で正解を得られなければ、総合的な正解を得ること
はできない。これに対して、ニューラルネットワーク
は、各々の情報から確からしさも判定して、総合的に正
解を推定する機能を有する。
By the way, the function in the recognition of the neural network is different from the cascade connection of the discriminating circuits. The discriminating circuit is for sequentially discriminating the obtained measurement data by comparing with a threshold value set for each of, for example, shape judgment, cross-sectional area judgment, and height judgment. In such a discriminating circuit, a comprehensive correct answer cannot be obtained unless a correct answer can be obtained in all judgment portions of the discriminating circuit. On the other hand, the neural network has a function of judging the likelihood from each piece of information and comprehensively estimating the correct answer.

【0047】なお、本発明では、実施例として形状測定
に超音波センサとビデオカメラを併用したが、特にこれ
に限定するものではなく、光切断法や光位相法を用いた
レーザレンジセンサでも実施可能なのはいうまでもな
い。
In the present invention, an ultrasonic sensor and a video camera are used together for shape measurement as an embodiment. However, the present invention is not particularly limited to this, and a laser range sensor using a light cutting method or an optical phase method may be used. Needless to say, this is possible.

【0048】[0048]

【発明の効果】以上説明したように、この発明によれ
ば、測定によって得られた形状情報を正規化してから、
これを認識を行うニューラルネットワークに入力し、加
えて、認識対象の物体の大きさの情報の中で、2つ以上
をニューラルネットワークによる認識のために用いるよ
うにした。このため、ある1つの大きさの代表形状を学
習するだけで、大きさの異なる相似形の関係にある物体
を区別して認識することができるという効果を有する。
As described above, according to the present invention, after normalizing the shape information obtained by the measurement,
This is input to the neural network for recognition, and in addition, two or more of the information on the size of the object to be recognized are used for recognition by the neural network. Therefore, there is an effect that objects having similar shapes having different sizes can be distinguished and recognized only by learning a representative shape having a certain size.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 この発明の3次元物体の認識方法の1実施例
を説明するためのフローチャートである。
FIG. 1 is a flowchart for explaining one embodiment of a three-dimensional object recognition method according to the present invention.

【図2】 形状情報が同様となる物体の代表例を示す斜
視図である。
FIG. 2 is a perspective view illustrating a representative example of an object having similar shape information.

【図3】 この発明の1実施例による形状認識装置の構
成を示す構成図である。
FIG. 3 is a configuration diagram showing a configuration of a shape recognition device according to an embodiment of the present invention.

【図4】 直方体Bを観察した場合の形状認識ニューラ
ルネットワークの出力の一例を示す波形図である。
FIG. 4 is a waveform diagram showing an example of an output of a shape recognition neural network when observing a rectangular parallelepiped B;

【図5】 この発明における物体認識ニューラルネット
ワークを示す構成図である。
FIG. 5 is a configuration diagram showing an object recognition neural network according to the present invention.

【図6】 従来の形状認識装置の構成の1例を示す構成
図である。
FIG. 6 is a configuration diagram illustrating an example of a configuration of a conventional shape recognition device.

【符号の説明】[Explanation of symbols]

31…超音波センサアレイ、32…ビデオカメラ、33
…物体、34…測定面、35…正規化部、36…形状認
識ニューラルネットワーク、36a…入力層、36b…
中間層、36c…出力層。
31 ... Ultrasonic sensor array, 32 ... Video camera, 33
... Object, 34 ... Measurement plane, 35 ... Normalization unit, 36 ... Shape recognition neural network, 36a ... Input layer, 36b ...
Intermediate layer, 36c ... Output layer.

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G01B 11/00 - 11/30 102 G01B 17/00 - 21/32 G06G 7/60 G06T 1/00 G06T 7/00 G06T 7/60 ──────────────────────────────────────────────────続 き Continued on the front page (58) Fields investigated (Int. Cl. 7 , DB name) G01B 11/00-11/30 102 G01B 17/00-21/32 G06G 7/60 G06T 1/00 G06T 7 / 00 G06T 7/60

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 物体の形状認識と、前記物体の形状に加
え大きさも含めた前記物体そのものを認識する物体認識
とをニューラルネットワークを用いて行う3次元物体の
認識方法であって、 基準面上に配置された物体を一方から観察して前記物体
の形状情報を求め、 前記形状情報を奥行き方向および平面方向に正規化した
正規化形状情報を用いて前記物体の形状を識別すること
で形状認識を行い、 前記物体の形状を識別した結果と、前記形状情報による
前記物体の断面積,体積,もしくは直径などの大きさ情
報のうち2成分以上とに基づいて前記物体を識別するこ
とで物体認識をすることを特徴とする3次元物体の認識
方法。
1. A three-dimensional object recognition method for performing shape recognition of an object and object recognition for recognizing the object itself including the size in addition to the shape of the object using a neural network. Observing the object arranged at one side from one side to obtain shape information of the object, and shape recognition by identifying the shape of the object using normalized shape information obtained by normalizing the shape information in the depth direction and the plane direction. Object recognition by identifying the object based on a result of identifying the shape of the object and two or more components of size information such as a cross-sectional area, a volume, or a diameter of the object based on the shape information. A three-dimensional object recognition method.
JP13390894A 1994-05-25 1994-05-25 3D object recognition method Expired - Fee Related JP3281946B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP13390894A JP3281946B2 (en) 1994-05-25 1994-05-25 3D object recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP13390894A JP3281946B2 (en) 1994-05-25 1994-05-25 3D object recognition method

Publications (2)

Publication Number Publication Date
JPH07318331A JPH07318331A (en) 1995-12-08
JP3281946B2 true JP3281946B2 (en) 2002-05-13

Family

ID=15115916

Family Applications (1)

Application Number Title Priority Date Filing Date
JP13390894A Expired - Fee Related JP3281946B2 (en) 1994-05-25 1994-05-25 3D object recognition method

Country Status (1)

Country Link
JP (1) JP3281946B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006138672A (en) * 2004-11-10 2006-06-01 Hitachi Ltd Method of and device for ultrasonic inspection

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009532702A (en) * 2006-04-05 2009-09-10 カリフォルニア インスティテュート オブ テクノロジー Stereoscopic image processing by acoustic distortion change and acoustic defocusing
FR2929421B1 (en) * 2008-03-25 2012-04-27 Thales Sa METHOD FOR THREE-DIMENSIONALLY SYNTHETIC RECONSTRUCTION OF OBJECTS EXPOSED TO AN ELECTROMAGNETIC AND / OR ELASTIC WAVE
CN105917380B (en) * 2014-03-20 2018-09-11 富士胶片株式会社 Image processing apparatus and method
KR101779782B1 (en) * 2017-05-26 2017-10-11 수퍼빈 주식회사 Complex object recognition system based on artificial neural network analysis, and method thereof
KR102129069B1 (en) * 2019-06-05 2020-07-01 세종대학교산학협력단 Method and apparatus of automatic optical inspection using scanning holography
US11809134B2 (en) 2019-06-05 2023-11-07 Cubixel Co., Ltd. Method and apparatus of automatic optical inspection using scanning holography

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0573663A (en) * 1991-09-17 1993-03-26 Nippon Telegr & Teleph Corp <Ntt> Recognition method for picture of three-dimensional object
JPH05280960A (en) * 1992-03-30 1993-10-29 Fuji Photo Film Co Ltd Defect inspection device
JPH06147895A (en) * 1992-11-10 1994-05-27 Fujitsu Ltd Position measuring equipment for object

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006138672A (en) * 2004-11-10 2006-06-01 Hitachi Ltd Method of and device for ultrasonic inspection

Also Published As

Publication number Publication date
JPH07318331A (en) 1995-12-08

Similar Documents

Publication Publication Date Title
US5081689A (en) Apparatus and method for extracting edges and lines
EP0145725B1 (en) Method of and apparatus for real-time high-speed inspection of objects for identifying or recognizing known and unknown portions thereof, including defects and the like
US5442716A (en) Method and apparatus for adaptive learning type general purpose image measurement and recognition
KR100361385B1 (en) Two-dimensional code recognition apparatus and method
US6042050A (en) Synthetic discriminant function automatic target recognition system augmented by LADAR
JP2001524228A (en) Machine vision calibration target and method for determining position and orientation of target in image
EP0523152A4 (en) Real time three dimensional sensing system
CN102928435A (en) Aircraft skin damage identification method and device based on image and ultrasound information fusion
CN108564621B (en) Structured light strip center extraction method and device for track detection
JPH06333054A (en) System for detecting target pattern within image
CN110910382A (en) Container detection system
JP3281946B2 (en) 3D object recognition method
CN110992337A (en) Container damage detection method and system
CN114879217B (en) Target pose judgment method and system
CN115077414B (en) Device and method for measuring bottom contour of sea surface target by underwater vehicle
CN110136186A (en) A kind of detection target matching method for mobile robot object ranging
RU2363018C1 (en) Method of selecting objects on remote background
US6762427B1 (en) Object surface characterization using optical triangulaton and a single camera
CN114092411A (en) Efficient and rapid binocular 3D point cloud welding spot defect detection method
JP3301031B2 (en) Automatic object recognition method and automatic recognition device
Lee et al. Machine vision system for curved surface inspection
JP2969202B2 (en) 3D object recognition method using neural network
WO2021118386A1 (en) Method for obtaining a set of objects of a three-dimensional scene
CN116310837A (en) SAR ship target rotation detection method and system
Liang et al. MVCNN: A Deep Learning-Based Ocean–Land Waveform Classification Network for Single-Wavelength LiDAR Bathymetry

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090301

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees