JPH03251713A - Ultrasonic imaging system for three-dimensional object - Google Patents

Ultrasonic imaging system for three-dimensional object

Info

Publication number
JPH03251713A
JPH03251713A JP2191035A JP19103590A JPH03251713A JP H03251713 A JPH03251713 A JP H03251713A JP 2191035 A JP2191035 A JP 2191035A JP 19103590 A JP19103590 A JP 19103590A JP H03251713 A JPH03251713 A JP H03251713A
Authority
JP
Japan
Prior art keywords
image
target object
ultrasonic
waves
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2191035A
Other languages
Japanese (ja)
Other versions
JP2882861B2 (en
Inventor
Sumio Watanabe
渡辺 澄夫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2191035A priority Critical patent/JP2882861B2/en
Publication of JPH03251713A publication Critical patent/JPH03251713A/en
Application granted granted Critical
Publication of JP2882861B2 publication Critical patent/JP2882861B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices Characterised By Use Of Acoustic Means (AREA)
  • Holo Graphy (AREA)

Abstract

PURPOSE:To achieve a high precision in the reproduction of even an image of an unknown object by allowing a neural network to learn a general rule of the reproduction of images when an object with a three-dimensional shape is irradiated with an ultrasonic wave to perform an identification of the object, an estimation of a position and an angle of rotation and further, a reproduction of an image from scattered waves thereof. CONSTITUTION:An object recognition equipment is made up of an object 1, an ultrasonic transmitter 2, an A/D converter 3, an ultrasonic receiver 4 comprising a receiver array of nXn and an amplification/noise removing filter and a computer 5 and the object 1 is irradiated with a burst wave from the transmitter 2. Then, a sound pressure of an ultrasonic wave measured with the receiver 4 is brought into the computer 5 through the converter 3 and a waveform thereof is cut in a time phase to obtain information pertaining to the depth of the object 1 while XY direction information is determined by an ordinary acoustic hologram method. Thereafter, a neural network is made to learn the information to obtain an outline of the object of (n)X(n) or (n)X(n)X(m).

Description

【発明の詳細な説明】 葺先分亙 本発明は、超音波3次元物体撮像方式に関し、例えば、
3次元物体の自動認識装置、ロボットの目、FA(ファ
クトリ−オートメーション)、3次元コピア、3次元フ
ァクシミリ等に適用されるものである。
[Detailed Description of the Invention] The present invention relates to an ultrasonic three-dimensional object imaging method, for example,
It is applied to automatic recognition devices for three-dimensional objects, robot eyes, FA (factory automation), three-dimensional copiers, three-dimensional facsimiles, and the like.

載】1創権 FA(ファクトリ−オートメーション)に於ける利用を
目的として、3次元形状を有する物体の自動認識技術が
TVカメラを用いる方式を中心として数多く研究されて
いる。しかしながら、物体の3次元情報を取扱うものに
ついては十分実用化されるに至ってなく、上記TVカメ
ラを用いる方式では、入力データが膨大な量である上に
、金属の様に光を鏡面反射する物体や透明な物体は取扱
うことができないという欠点がある。また、知能ロボッ
ト実現のための必須条件の一つとして、対象物体の識別
や計測を行い、外界を認識することのできるロボットの
目の実現が望まれている。これまでの外界認識方法とし
ては、光波、X線、電磁波、音波等の波動媒体を用いる
各種の方式が提案されているが、未だに決定的なものは
現れていない。
1. Many studies have been conducted on automatic recognition technology for objects having three-dimensional shapes, mainly using TV cameras, for the purpose of use in FA (factory automation). However, methods that handle three-dimensional information about objects have not yet been fully put into practical use, and the method using the TV camera described above requires a huge amount of input data, and objects that specularly reflect light, such as metals, cannot be used. The disadvantage is that it cannot handle transparent objects. Furthermore, as one of the essential conditions for realizing intelligent robots, it is desired to have robot eyes that can identify and measure target objects and recognize the external world. As methods for recognizing the external world, various methods using wave media such as light waves, X-rays, electromagnetic waves, and sound waves have been proposed, but no definitive method has yet emerged.

一方、超音波を用いる方式では対象物体の概形は測定で
きても、その情報から対象物体の識別を行ったり1位置
、回転角度を推定したり、対象物体の高精細な像を構成
することはできなかった。
On the other hand, with methods that use ultrasound, although the outline of the target object can be measured, it is difficult to identify the target object, estimate its position and rotation angle, or construct a high-definition image of the target object from that information. I couldn't.

例えば、平面物体を対象としたものはあるが、対象物体
が3次元形状を有する場合には、従来技術では対象物体
の識別を行ったり、位置、回転角度を推定したり、対象
物体の高精細な像を構成することはできなかった。
For example, there are methods that target flat objects, but when the target object has a three-dimensional shape, conventional technology can identify the target object, estimate the position and rotation angle, and perform high-definition processing of the target object. It was not possible to construct a perfect image.

また、3次元物体の認識に超音波を用いる利点として、
以下の3点を挙げることができる。まず第一に、音波は
伝搬速度が遅いので、物体からの散乱波の位相や音圧の
時間的な変化を測定することができ、その結果、対象物
体の3次元的な情報を直接得ることができる。テレビカ
メラを利用する方式等の光波を媒体とする方式では、対
象物体の2次元的な像は比較的簡単に得られるが、奥行
方向の情報を正確に推定することは画像理解の技術が必
要となるために難しい。この理由から、テレビカメラを
主たるセンサーとして作られたロボットでさえも、対象
物体の有無および対象物体までの距離を測るための目的
で超音波センサーを塔載していることが多い。超音波の
持つこの長所を応用した研究として、盲人誘導用システ
ムの研究がある。
In addition, the advantages of using ultrasound for recognizing three-dimensional objects include:
The following three points can be mentioned. First of all, since the propagation speed of sound waves is slow, it is possible to measure temporal changes in the phase and sound pressure of scattered waves from an object, and as a result, it is possible to directly obtain three-dimensional information about the target object. I can do it. With methods that use light waves as a medium, such as methods that use television cameras, it is relatively easy to obtain a two-dimensional image of the target object, but accurate estimation of depth information requires image understanding skills. It is difficult to do so. For this reason, even robots made with a television camera as their main sensor are often equipped with ultrasonic sensors to measure the presence or absence of a target object and the distance to the target object. One example of research that applies this advantage of ultrasound is research into a system for guiding blind people.

第二に、超音波を用いると、金属、透明物。Second, using ultrasound, you can clean metals and transparent objects.

黒色物、および流体等の認識が可能になる。これらの物
体は、光に対する反射の強さ、弱さ、および透明性等の
ために、テレビカメラを用いて認識することは不可能に
近い。FA等への応用においては、製品の部品が金属製
の場合もあり、そのような時に部品を認識するためには
超音波による方法が役立つ、上記の利点を応用したもの
として。
It becomes possible to recognize black objects, fluids, etc. It is almost impossible to recognize these objects using a television camera due to the strength and weakness of light reflection, transparency, etc. In applications such as FA, there are cases where product parts are made of metal, and in such cases, ultrasonic methods are useful for recognizing parts.This is an application of the above-mentioned advantages.

非破壊検査に超音波映像を利用する研究があり。There is research on using ultrasound images for non-destructive testing.

また、スーパーマーケット等において空きビン150種
類を識別するシステムや、ビンの中の清涼飲料水の水位
や紙パツク側面のストロ−の有無等の自動チエツク・シ
ステムなどが実用化されている。
In addition, a system for identifying 150 types of empty bottles in supermarkets and the like, and an automatic system for checking the water level of soft drinks in bottles, the presence of straws on the side of paper cartons, etc., have been put into practical use.

第三に、超音波による方式では、濁水中や暗室。Third, ultrasonic methods can be used in turbid water or in a dark room.

煙の充満している状況等でも物体認識が可能になる。こ
の点を利用した物としては、海底での極限作業や火災現
場での人命救助等を行なうロボットの目に超音波を用い
ようとする研究がある。
Object recognition becomes possible even in situations filled with smoke. There is research that takes advantage of this point by using ultrasonic waves in the eyes of robots that perform extreme work on the ocean floor or rescue lives at fire scenes.

一方、超音波を用いる物体認識法は、超音波の波長が長
いこと、受波アレイの大きさと受波器の個数とに制限が
あることから、解像度の点ではテレビカメラを用いる方
式に及ばず、このことが原因で生体計測および水中使用
を目的とするもの以外は十分実用化されるには至ってい
ない。
On the other hand, object recognition methods using ultrasonic waves are not as good as methods using television cameras in terms of resolution due to the long wavelength of the ultrasonic waves and limitations on the size of the receiving array and the number of receivers. Because of this, it has not been fully put into practical use except for purposes such as bioinstrumentation and underwater use.

3次元物体の認識のために、対象物体に超音波を照射し
、その散乱波を測定することにより、対象物体の3次元
的な形状を計測する方式としては5例えば、「^N U
LTRASONICROBOT EYE FOROBJ
ECT IDENTIFICATION USING 
NEURAL NETIIIORKJ(S、 Wata
nabe、M、 Yoneyama、 1989 UL
TRASONIC5SYMPOO5IUM P、108
3〜1086 )に記載されているように、得られた音
圧データをそのままXY方向ついては音響ホログラフィ
法で分離し、Z方向については時間的に分離した後にニ
ューラルネットワークに学習させる方式がある。しかし
ながら、この方式では、学習した形状の物体は正確に撮
像できるが、未学習データの物体像の撮像が困難である
という欠点があった。
In order to recognize a three-dimensional object, there are five methods for measuring the three-dimensional shape of the object by irradiating the object with ultrasound and measuring the scattered waves.
LTRASONICROBOT EYE FOROBJ
ECT IDENTIFICATION USING
NEURAL NETIIIORKJ (S, Wata
nabe, M., Yoneyama, 1989 UL
TRASONIC5SYMPOO5IUM P, 108
3 to 1086), there is a method in which the obtained sound pressure data is separated in the X and Y directions using an acoustic holography method, and the Z direction is separated in time and then learned by a neural network. However, in this method, although it is possible to accurately image an object having a learned shape, it is difficult to image an object image based on unlearned data.

且−一枚 本発明は、上述のごとき欠点を解決するためになされた
もので、3次元形状を有する対象物体に超音波を照射し
、その散乱波から対象物体の識別。
The present invention was made to solve the above-mentioned drawbacks, and involves irradiating an object having a three-dimensional shape with ultrasonic waves and identifying the object from the scattered waves.

及び位置、回転角度の推定、さらに像再生を行うための
超音波3次元物体撮像方式を提供すること、また、ニュ
ーラルネットワークの入力として、対象物体の形状その
ものだけではなく、対象物体の局所的な特徴量も用いる
ことによって、ニューラルネットワークに画像再生の一
般法則を学習させ。
To provide an ultrasonic three-dimensional object imaging method for estimating the position, rotation angle, and image reconstruction, and to provide not only the shape of the target object itself but also the local By also using features, the neural network learns general rules for image reproduction.

未知の物体の像も高精細に再生するようにした超音波3
欣元物体撮像方式を提供することを目的としてなされた
ものである。
Ultrasound 3 that reproduces images of unknown objects in high definition
This method was developed with the aim of providing an original object imaging method.

豊−一威 本発明は、上記目的を達成するために、(1)超音波を
対象物体に照射し、その散乱波を測定することにより対
象物体の識別、及び位置、回転角度の推定、さらに像再
生を行う超音波3次元物体詔識方式において、1個以上
の送波器からバースト波を対象物体に照射し、その散乱
波を複数個の受渡器で測定し、XY力方向ついては音響
ホログラフィ法を用いて像を再生し、Z方向については
時間的な分離を行うことにより像を再生すること、或い
は、(2)超音波を対象物体に照射し、その散乱波を測
定することにより対象物体の識別、及び位置1回転角度
の推定、さらに像再生を行う超音波3次元物体認識方式
において、1個以上の送波器からバースト波を対象物体
に照射し、その散乱波を複数個の受波器で測定し、XY
力方向ついては音響ホログラフィ法を用いて像を再生し
、2方向については時間的な分離を行うことにより像を
再生し、こうして得られた物体の概形をニューラルネッ
トワークに学習させることにより、対象物体の識別、及
び位置、回転角度の推定、さらに像再生を行うこと、或
いは(3)超音波を対象物体に照射し、その散乱波をア
レイ状の複数の受波器で測定し、XY力方向ついては音
響ホログラフィ法によって分離し、2方向については時
間的に分離して対象物体の超音波による3次元像を求め
、その後に、複数の画像処理フィルター(畳み込み処理
)を用いて、局所的な画像の特徴量を複数個求め、該画
像の特徴量を入力として物体の正確な形状再構成するこ
とをニューラルネットワークに学習させることによって
行うことを特徴としたものであ葛、以下、本発明の実施
例に基づいて説明する。
Toyo-Kazui In order to achieve the above-mentioned object, the present invention provides (1) identification of a target object and estimation of its position and rotation angle by irradiating the target object with ultrasonic waves and measuring its scattered waves; In the ultrasonic three-dimensional object detection method that performs image reconstruction, burst waves are irradiated onto the target object from one or more transmitters, and the scattered waves are measured by multiple delivery devices, and acoustic holography is used to determine the XY force direction. (2) Reproducing the image by using the method and temporal separation in the Z direction, or (2) reproducing the image by irradiating the target object with ultrasound and measuring the scattered waves. In an ultrasonic three-dimensional object recognition method that identifies objects, estimates the position and rotation angle, and performs image reconstruction, one or more transmitters irradiate a target object with burst waves, and the scattered waves are transmitted to multiple Measured with a receiver, XY
The image of the force direction is reproduced using the acoustic holography method, and the image of the two directions is reproduced by temporal separation.By having a neural network learn the outline of the object obtained in this way, the target object can be reconstructed. (3) irradiate the target object with ultrasonic waves, measure the scattered waves with multiple receivers in an array, and calculate the The two directions are separated using acoustic holography, and the two directions are temporally separated to obtain a three-dimensional image of the target object using ultrasound, and then multiple image processing filters (convolution processing) are used to create a local image. The present invention is characterized in that a neural network is trained to calculate a plurality of feature quantities of the image and reconstruct the accurate shape of the object using the feature quantities of the image as input. Let's explain based on an example.

まず、本発明の詳細な説明する。First, the present invention will be explained in detail.

対象物体に第2図のような波形の超音波(バースト波)
を照射し、その散乱波の測定値から3次元的な形状を持
つ対象物体の識別、位置、回転角度の推定、対象物体の
高精細な像の構成等を行う場合において、まず、対象物
体の概形を再構成する。その方法は、XY力方向ついて
は以下で述べるような音響ホログラフィ法を用い、Z方
向については時間的に分離する方法を用いる1次に、こ
うして得られた物体の概形をニューラルネットに学習さ
せることにより、3次元的な形状を持つ対象物体の識別
、位置、回転角度の推定、対象物体の高精細な像の構成
等を行う。これを図示したのが第3図である。
Ultrasonic wave (burst wave) with a waveform as shown in Figure 2 is applied to the target object.
When identifying a target object with a three-dimensional shape, estimating its position and rotation angle, and constructing a high-definition image of the target object from the measured values of the scattered waves, first, the target object is identified. Reconstruct the outline. The method is to use the acoustic holography method described below for the XY force directions, and to use a temporal separation method for the Z direction, and then to have a neural network learn the outline of the object obtained in this way. This enables identification of a target object having a three-dimensional shape, estimation of the position and rotation angle, construction of a high-definition image of the target object, etc. FIG. 3 illustrates this.

次に、本発明による超音波3次元物体撮像方式の一実施
例(請求項1)を第1図に基づいて説明する。1は対象
物体、2は超音波送波器、3はA/D変換器、4は超音
波受波器(nXnのレシーバ−アレイと増幅・ノイズ除
去フィルター)、5は計算機である。超音波送波器2か
ら第2図に示す様なバースト波を対象物体1に向けて照
射する。第2図において波の存在する領域ではその波形
は正弦波(たとえば40 KHz)である。この時、超
音波受波器4で測定された超音波の音圧をA/D変換器
3を通すことにより計算機5の内に取込み1表示すると
第4図のようになる。計算機5の中で、この波形を第5
図のように時間方向に切断する。切断間隔は1周期の整
数倍毎にすれば良い、この時、時間方向について伝搬速
度をがけることによって(往復距離の時間であるから、
距離情報を取りだす時は1/2倍する)対象物体の奥行
に関する情報が得られる。次にXY力方向関する像再生
法であるが、切断された各区間のなかでは、測定された
音圧は連続正弦波とみなすことができるから、通常の音
響ホログラフィ法を用いることができる。超音波レシー
バ−アレイがnXnで、奥行方向の分割数がm個のとき
は得られる情報は第6図に示すようにnXnXmに成る
Next, an embodiment (claim 1) of the ultrasonic three-dimensional object imaging method according to the present invention will be described based on FIG. 1 is a target object, 2 is an ultrasonic transmitter, 3 is an A/D converter, 4 is an ultrasonic receiver (nXn receiver array and amplification/noise removal filter), and 5 is a computer. A burst wave as shown in FIG. 2 is irradiated from the ultrasonic transmitter 2 toward the target object 1. In the area where waves exist in FIG. 2, the waveform is a sine wave (for example, 40 KHz). At this time, the sound pressure of the ultrasonic waves measured by the ultrasonic receiver 4 is passed through the A/D converter 3 to be input into the computer 5 and displayed as shown in FIG. 4. In calculator 5, this waveform is
Cut in the time direction as shown. The cutting interval can be set to every integer multiple of one cycle. At this time, by multiplying the propagation speed in the time direction (since it is the time of the round trip distance,
(When extracting distance information, multiply by 1/2) Information regarding the depth of the target object can be obtained. Next, regarding the image reconstruction method regarding the XY force directions, since the measured sound pressure can be regarded as a continuous sine wave in each cut section, a normal acoustic holography method can be used. When the ultrasonic receiver array is nXn and the number of divisions in the depth direction is m, the information obtained is nXnXm as shown in FIG.

次に、本発明の請求項2の1番目の実施例を第7図に基
づいて説明する。21は上記の様にして得られた対象物
体の概形(nXnXm) 、22は3層フィードフォー
ワード型のニューラルネット、23はニューラルネット
の出力結果をそれぞれ表わす。
Next, a first embodiment of claim 2 of the present invention will be described based on FIG. Reference numeral 21 represents the outline (nXnXm) of the target object obtained as described above, 22 represents a three-layer feedforward type neural network, and 23 represents the output results of the neural network.

K種類の対象物体を識別するニューラルネットは次の様
に構成する。対象物体の概形21はnXnXmの情報か
らなるので、ニューラルネット22の入カニニットもH
XHXm個にする。中間層のユニット数は適宜に決める
ことができる。出力層のユニット数はに個にする。入力
データとしては上記の対象物体の概形(HX n Xm
の情報)を用い、教師データとしては、対象物体が1番
目の範鴫に属するときは、(1,0,0、・・・O)、
2番目の範鴫に属する時は、(0,1,0,0、、,0
)、1.のようにすれば良い、こうして、入力データと
それに対する出力データの組が与えられると、周知の方
式バック・プロパゲーション法によって、望ましい出力
をするようなニューラルネットワークを構成することが
できる。
A neural network for identifying K types of target objects is configured as follows. Since the outline 21 of the target object consists of nXnXm information, the input of the neural network 22 is also H.
Make it XHXm pieces. The number of units in the intermediate layer can be determined as appropriate. The number of units in the output layer is set to . The input data is the outline of the target object (HX n Xm
When the target object belongs to the first category, the training data is (1, 0, 0, ... O),
When it belongs to the second category, (0, 1, 0, 0, , 0
), 1. In this way, given a set of input data and corresponding output data, it is possible to construct a neural network that produces the desired output using the well-known back propagation method.

次に1本発明の請求項2の2番目の実施例について説明
する。上記では、に種類の対象物体を識別するニューラ
ルネットを構成したが、対象物体の置かれた位置を推定
するニューラルネットは次の様に構成すれば良い。すな
わち、ニューラルネットの入力及び、入力層、中間層は
上記と同様であるが、出力層としては、X方向にP段階
、Y方向にQ段階、Z方向にR段階で推定するものとす
ると、出力層のユニット数を(P+Q+R)個とする。
Next, a second embodiment of claim 2 of the present invention will be described. In the above, a neural network for identifying different types of target objects has been configured, but a neural network for estimating the position of a target object may be configured as follows. That is, the input, input layer, and middle layer of the neural network are the same as above, but the output layer is estimated in P stages in the X direction, Q stages in the Y direction, and R stages in the Z direction. Let the number of units in the output layer be (P+Q+R).

学習データは次の様に構成する。すなわち、対象物体の
置かれている位置が上記の段階の(S、t、u)に属す
る時、S番目、(s+t)番目、(s + t 十u 
)番目のユニットだけを1とし残りを0とすればよい。
The learning data is configured as follows. That is, when the position of the target object belongs to the above stage (S, t, u), the Sth, (s+t)th, (s + t 10u)
) It is sufficient to set only the th unit to 1 and the rest to 0.

学習方式は上記と同様である。The learning method is the same as above.

次に、本発明の請求項2の3番目の実施例について説明
する。対象物体の置かれた角度を推定するニューラルネ
ットは次の様に構成すれば良い。
Next, a third embodiment of claim 2 of the present invention will be described. A neural network for estimating the angle at which a target object is placed may be configured as follows.

すなわち、ニューラルネットの入力及び、入力層、中間
層は上記と同様であるが、出力層としては、角度方向に
R段階で推定するものとすると、出力層のユニット数を
R個とする。学習データは次の様に構成する。すなわち
、対象物体の置かれている位置が上記の段階のSに属す
る時、S番目のユニットだけを1とし残りをOとすれば
よい、学習方式は上記と同様である。
That is, the input, input layer, and intermediate layer of the neural network are the same as above, but the output layer is assumed to be estimated in R stages in the angular direction, and the number of units in the output layer is R. The learning data is configured as follows. That is, when the position where the target object is placed belongs to the above-mentioned stage S, it is sufficient to set only the S-th unit to 1 and the rest to O, and the learning method is the same as above.

欣に1本発明の請求項2の4番目の実施例を第8図に基
づいて説明する。31は上記の様にして得られた対象物
体の概形(nXnXm)、32は3層フィードフォーワ
ード型のニューラルネットを、33はニューラルネット
の出力結果をそれぞれ表わす、ニューラルネットの入力
層のユニット数はbXbXm(ただしb < = n 
)で、中間層のユニット数は適宜に選ぶことができる。
A fourth embodiment of claim 2 of the present invention will now be described with reference to FIG. 31 is the outline of the target object obtained as described above (nXnXm), 32 is a three-layer feed forward type neural network, and 33 is an input layer unit of the neural network, which represents the output result of the neural network. The number is bXbXm (where b < = n
), the number of units in the middle layer can be selected as appropriate.

出力層のユニット数は表示したい大きさに選ぶことがで
きるが、たとえば、cXcXdとする。学習データは(
cX (n−b) ) X (cX (n−b) ) 
Xdの大きさに構成する(対象物体の精密な形状を用い
る)。本発明の実施例のニューラルネットは入力と出力
をそれぞれ走査しながら、学習、出力することにその特
徴が在る。
The number of units in the output layer can be selected to the desired display size, for example cXcXd. The learning data is (
cX (n-b) ) X (cX (n-b) )
Configure to a size of Xd (using the precise shape of the target object). The neural network according to the embodiment of the present invention is characterized in that it learns and outputs while scanning input and output, respectively.

第9図は1本発明による3次元物体撮像方式の他の実施
例を説明するための構成図で1図中、11は超音波照射
器、12は対象物体、13は受波器(レシーバ−アレイ
)である。
FIG. 9 is a block diagram for explaining another embodiment of the three-dimensional object imaging method according to the present invention. array).

ここで、受波器の座標を(x+y+u)で、対象物体の
座標を(xl 、yl 、zl )で表すことにする。
Here, the coordinates of the receiver are represented by (x+y+u), and the coordinates of the target object are represented by (xl, yl, zl).

対象物体の反射係数をξ(x’ *y’ )とし、表面
の方程式をz′=ζ(x’ +y’ ) と仮定する0位置r0に置かれた超音波照射器11から
、対象物体12に向けて波数ベクトルk in= (k
 sinθ、 0.−kcosθ)の超音波を時刻t=
0から照射する(θは照射角度)にの時、入射超音波の
音圧Pin(r、t)は Pin(r、t)”θ(ωt−kin(r−r、)ex
p(jkin・(r−rO)−jωt)で与えられる。
Assuming that the reflection coefficient of the target object is ξ(x' * y') and the surface equation is z'=ζ(x' + y'), the target object 12 is The wave number vector k in= (k
sinθ, 0. −k cos θ) at time t=
When irradiating from zero (θ is the irradiation angle), the sound pressure Pin(r, t) of the incident ultrasound is Pin(r, t)”θ(ωt-kin(r-r,) ex
It is given by p(jkin·(r−rO)−jωt).

ここで、ωは角周波数を、θ(x)はx<0のときO,
x≧0のとき1となる関数を表す。
Here, ω is the angular frequency, θ(x) is O when x<0,
Represents a function that becomes 1 when x≧0.

以上の設定の基で、位置rに置かれた受波器13による
時刻tでの測定音圧の理論値P(r、t)はP(r、t
)=jexp (jkr)F (r)/ (4πr) 
/ / dx’ dy’ exp(jV−r’ )・ξ
(X’ty’)e(Ir’−r61÷lr’−rl)・
・・(1)となる。ここで、簡単のため、表記 r = r V =(Vx、Vy、Vz) Vx=−k (x/r−sinθ) Vy=−k (y/r) Vz=−k(z/r+cosθ) rl=(xl +y’、ζ(x’ 、y’ ))F(r
)=IVI”/Vz を用いた。この式から数学的な変形を行うことで、次の
式を導くことができる。
Based on the above settings, the theoretical value P(r, t) of the sound pressure measured at time t by the receiver 13 placed at position r is P(r, t
)=jexp (jkr)F (r)/ (4πr)
/ / dx'dy'exp(jV-r')・ξ
(X'ty')e(Ir'-r61÷lr'-rl)・
...(1). Here, for simplicity, the notation r = r V = (Vx, Vy, Vz) Vx = -k (x/r - sin θ) Vy = -k (y/r) Vz = -k (z/r + cos θ) rl = (xl +y', ζ(x', y'))F(r
)=IVI”/Vz. By performing mathematical transformation from this equation, the following equation can be derived.

ξ(x’+y’)θ(cT+ (1+cos O)ζ(
x’ ty’ ))exp(−jk(1+cos O)
ζ(X’tyつ)=(kz)2/ πexp(−jkx
’sinθ) f fdxdyP(r、T+(r+r、
)/c)exp(jk(xx’+yy’)/r)   
           −・・(2)ここで、Cは音速
を、Tは時間のパラメータをそれぞれ表す。この式を利
用すると、レシーバ−アレイ13によって測定された音
圧から対象物体の形状を計算することができる。
ξ(x'+y')θ(cT+ (1+cos O)ζ(
x'ty' ))exp(-jk(1+cos O)
ζ (X'ty) = (kz)2/ πexp (-jkx
'sinθ) f fdxdyP(r, T+(r+r,
)/c)exp(jk(xx'+yy')/r)
- (2) Here, C represents the speed of sound, and T represents the time parameter. Using this equation, the shape of the target object can be calculated from the sound pressure measured by the receiver array 13.

この方式によって得られる対象物体の3次元像(上式の
左辺の値)は、座標(xl 、 yl 、 zl)にお
ける対象物体の界在の可能性を表す値A (X’ + 
Y’ + Z″)となり、理論的には、 となる。
The three-dimensional image of the target object obtained by this method (the value on the left side of the above equation) is a value A (X' +
Y' + Z''), and theoretically, it becomes.

簡単のため、A(x’ ey’ +Z’ )の絶対値を
取ることによって得られる画像を再びA (X’ my
’ #Z″)と表す事にする。
For simplicity, the image obtained by taking the absolute value of A(x'ey' + Z') is again expressed as A(X' my
'#Z'').

上記の様な超音波撮像方式によって得られた像A(x’
*y″、2″)から、正確な物体像を撮像する方法とし
では、例えば次のような方法が考えられる。
Image A(x'
*y'', 2''), for example, the following method can be considered as a method for capturing an accurate object image.

まず得られた画像に画像処理を施して、局所的な画像の
特徴量からなる画像を複数個(n個)計算する。(Bl
(X’ +y’ +Z’) s 1=Q、l、2.−・
、 n )。
First, image processing is performed on the obtained image to calculate a plurality of images (n images) consisting of local image feature amounts. (Bl
(X'+y'+Z') s 1=Q, l, 2. −・
, n).

画像B+(X’+yZZ’)の計算法は、畳み込み処理
、Bt(x’ty’+z’)=ΣΣΣ h、(x’ −
x、  y″−y+Z’   Z)  A(x+y+z
) y z で表わされる。ここで、hl (xlytz)としては
、例えば、恒等フィルタ (この場合、得られる画像は入力画像と一致する。)や
、平滑化フィルタ や、ラプラシアン また、2=一定の平面だけを取り出すフィルタ同様にし
て、特定の方角だけを向く平面だけを取り出すフィルタ
なども利用することができる。
The calculation method for image B+(X'+yZZ') is convolution processing, Bt(x'ty'+z')=ΣΣΣ h, (x' −
x, y″−y+Z’ Z) A(x+y+z
) y z . Here, hl (xlytz) can be, for example, an identity filter (in this case, the obtained image matches the input image), a smoothing filter, a Laplacian, or a filter that extracts only 2 = constant planes. It is also possible to use a filter that extracts only planes facing in a specific direction.

次にこうして得られたn個の特徴画像から、対象物体の
精密な形状を再構成する方式について説明する。3次元
画像の再構成には第10図に示すような多層構造のニュ
ーラルネットワークが利用される。入力層の個数はn個
、出力数の個数は1個、中間層の個数は可変である。ニ
ューラルネットワークによって得られる画像をC(x’
 ty’ tz’ )と置く、ニューラルネットワーク
の学習には、入力データとして、(at(x’+y’t
z’) ;x=0. ”’y n−1)が用いられる。
Next, a method for reconstructing the precise shape of the target object from the n feature images obtained in this way will be described. A multilayered neural network as shown in FIG. 10 is used to reconstruct a three-dimensional image. The number of input layers is n, the number of outputs is 1, and the number of intermediate layers is variable. The image obtained by the neural network is C(x'
(at(x'+y't
z') ;x=0. ”'y n-1) is used.

教師データはC(x’ ty’ tz’ )である。The training data is C(x' ty' tz').

入力データとそれに対する望ましい教師データが与えら
れると、第1O図の様な型のニューラルネットワークは
周知の方法、すなわちパックプロパゲーションによって
学習することができる。なお、ひとつのネットワークは
得られる像のなかの一点だけを推定することになるので
、ニューラルネットワークは、各点を推定するために、
x′、y′、Z′について移動走査しながら用いられる
事になる。こうして、得られたニューラルネットワーク
は、もともとの像A (X’*y’tZ’)  (=B
a (X’tY’tZ’) )だけでなく、その画像の
局所的な特徴量から対象物体を正確に再構成する方法を
学習しているので、未知の物体が入力として与えられた
時にも、高精細な像を構成することができる。なお、前
述した第7図、第8図のニューラルネットワークについ
ても適用されることはもちろんである。
Given input data and desired training data for it, a neural network of the type shown in Figure 1O can be trained by a well-known method, ie, pack propagation. Note that one network estimates only one point in the obtained image, so the neural network estimates each point by
It will be used while moving and scanning x', y', and Z'. In this way, the obtained neural network is based on the original image A (X'*y'tZ') (=B
a (X'tY'tZ')), but also learns how to accurately reconstruct the target object from the local features of the image, so even when an unknown object is given as input, , it is possible to construct a high-definition image. It goes without saying that the present invention is also applicable to the neural networks shown in FIGS. 7 and 8 described above.

第11図は、第9図に示した3次元物体撮像方式を説明
するためのフローチャートである。以下、各ステップに
従って順に説明する。
FIG. 11 is a flowchart for explaining the three-dimensional object imaging method shown in FIG. Below, each step will be explained in order.

畦呼↓:まず、音圧P (r、t)を測定する。Furrow ↓: First, measure the sound pressure P (r, t).

ste上lユニ次に、音響映像法を用いて3次元像A 
(x’ my’ tz’ )を求める。
Next, we used the audiovisual method to create a three-dimensional image A.
Find (x'my'tz' ).

畦吐主:次に複数の画像処理フィルターを用いて畳み込
み計算を行い、複数個の特徴量 B+ (X’+Y″+z’)  (j”oe1+”・n
)を求める。
Furrow master: Next, convolution calculation is performed using multiple image processing filters, and multiple feature quantities B+ (X'+Y''+z') (j"oe1+"・n
).

射fPA−:次に、ニューラルネットワークを適用して
再構成像C(X’*y’tZ’)を求める。
Morphism fPA-: Next, a neural network is applied to obtain a reconstructed image C(X'*y'tZ').

このようにして、対象物体の局所的な特徴量を用いるこ
とにより高精細な像の再構成をすることができる。
In this way, a high-definition image can be reconstructed by using local feature amounts of the target object.

効   果 以上の説明から明らかなように、本発明によると、3次
元形状を有する物体の識別、および、位置、回転角度の
推定、像再生が可能になる。特に、これまではTVカメ
ラでは認識できなかった、金属及び透明物体等の認識が
可能になる。その結果、FAにおいて著しい貢献が期待
できる。
Effects As is clear from the above explanation, according to the present invention, it is possible to identify an object having a three-dimensional shape, estimate the position and rotation angle, and reproduce the image. In particular, it becomes possible to recognize metals, transparent objects, etc., which were previously impossible to recognize with a TV camera. As a result, significant contributions can be expected in FA.

また、超音波によって学習したことのない3次元物体に
ついても高精細な像を撮像することができ、その結果、
超音波を用いた3次元物体認識において、著しい能力向
上を実現することができる。
In addition, it is possible to capture high-definition images of three-dimensional objects that have never been studied using ultrasound, and as a result,
Significant improvements in performance can be achieved in three-dimensional object recognition using ultrasound.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は、本発明による超音波3次元物体撮像方式の一
実施例(請求項1)を説明するための図、第2図及び第
3図は、本発明の詳細な説明するための図、第4図は、
測定された超音波の音圧を示す図、第5図は、第4図に
示す波形を時間方向に切断した図、第6図は、超音波レ
シーバ−アレイがnXnで奥行方向の分割数がm個の時
に得られる情報を示す図、第7図は、本発明の請求項2
の第1実施例を説明するための図、第8図は、本発明の
請求項2の第4実施例を説明するための図、第9図は、
本発明の他の実施例を説明するための図、第10図は、
ニューラルネットワークを示す図、第11図は、第9図
における3次元物体撮像方式を説明するためのフローチ
ャートである。 1・・・対象物体、2・・・超音波送波器、3・・・A
/D変換器、4・・・超音波受波器(レシーバ−アレイ
と増幅・ノイズ除去フィルター)、5・・・計算機。 第1図 第2図 第4図
FIG. 1 is a diagram for explaining an embodiment of the ultrasonic three-dimensional object imaging method according to the present invention (Claim 1), and FIGS. 2 and 3 are diagrams for explaining the present invention in detail. , Figure 4 is
Figure 5 shows the measured ultrasound sound pressure. Figure 5 is a diagram obtained by cutting the waveform shown in Figure 4 in the time direction. Figure 6 shows an example in which the ultrasound receiver array is nXn and the number of divisions in the depth direction is FIG. 7, which is a diagram showing information obtained when m pieces of information, is a diagram showing information obtained when
FIG. 8 is a diagram for explaining the fourth embodiment of claim 2 of the present invention, and FIG. 9 is a diagram for explaining the first embodiment of the present invention.
A diagram for explaining another embodiment of the present invention, FIG.
FIG. 11, which is a diagram showing the neural network, is a flowchart for explaining the three-dimensional object imaging method in FIG. 9. 1...Target object, 2...Ultrasonic transmitter, 3...A
/D converter, 4... Ultrasonic wave receiver (receiver array and amplification/noise removal filter), 5... Computer. Figure 1 Figure 2 Figure 4

Claims (1)

【特許請求の範囲】 1、超音波を対象物体に照射し、その散乱波を測定する
ことにより対象物体の識別、及び位置、回転角度の推定
、さらに像再生を行う超音波3次元物体認識方式におい
て、1個以上の送波器からバースト波を対象物体に照射
し、その散乱波を複数個の受波器で測定し、XY方向に
ついては音響ホログラフィ法を用いて像を再生し、Z方
向については時間的な分離を行うことにより像を再生す
ることを特徴とする超音波3次元物体撮像方式。 2、超音波を対象物体に照射し、その散乱波を測定する
ことにより対象物体の識別、及び位置、回転角度の推定
、さらに像再生を行う超音波3次元物体認識方式におい
て、1個以上の送波器からバースト波を対象物体に照射
し、その散乱波を複数個の受波器で測定し、XY方向に
ついては音響ホログラフィ法を用いて像を再生し、Z方
向については時間的な分離を行うことにより像を再生し
、こうして得られた物体の概形をニューラルネットワー
クに学習させることにより、対象物体の識別、及び位置
、回転角度の推定、さらに像再生を行うことを特徴とす
る超音波3次元物体撮像方式。 3、超音波を対象物体に照射し、その散乱波をアレイ状
の複数の受波器で測定し、XY方向については音響ホロ
グラフィ法によって分離し、Z方向については時間的に
分離して対象物体の超音波による3次元像を求め、その
後に、複数の画像処理フィルター(畳み込み処理)を用
いて、局所的な画像の特徴量を複数個求め、該画像の特
徴量を入力として物体の正確な形状再構成することをニ
ューラルネットワークに学習させることによって行うこ
とを特徴とする超音波3次元物体撮像方式。
[Claims] 1. Ultrasonic three-dimensional object recognition method that identifies the target object, estimates its position and rotation angle, and reproduces the image by irradiating the target object with ultrasonic waves and measuring its scattered waves. , a burst wave is irradiated onto the target object from one or more transmitters, the scattered waves are measured by multiple receivers, images are reconstructed using acoustic holography in the X and Y directions, and images are reconstructed in the Z direction. This is an ultrasonic three-dimensional object imaging method characterized by reproducing images by temporal separation. 2. In the ultrasonic three-dimensional object recognition method, which identifies the target object, estimates its position and rotation angle, and reproduces the image by irradiating the target object with ultrasonic waves and measuring the scattered waves, one or more A burst wave is irradiated from a transmitter to the target object, and the scattered waves are measured by multiple receivers. Images are reproduced using acoustic holography in the X and Y directions, and temporal separation is performed in the Z direction. The image is reconstructed by performing the following steps, and by having a neural network learn the outline of the object obtained in this way, the object is identified, its position and rotation angle are estimated, and the image is reconstructed. Sonic three-dimensional object imaging method. 3. The target object is irradiated with ultrasonic waves, the scattered waves are measured by multiple receivers in an array, and the X and Y directions are separated by acoustic holography, and the Z direction is separated in time and the target object is detected. Obtain a three-dimensional image using ultrasonic waves, then use multiple image processing filters (convolution processing) to obtain multiple local image features, and use the image features as input to obtain an accurate image of the object. An ultrasonic three-dimensional object imaging method characterized in that shape reconstruction is performed by learning a neural network.
JP2191035A 1989-09-07 1990-07-19 Ultrasound 3D object imaging method Expired - Fee Related JP2882861B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2191035A JP2882861B2 (en) 1989-09-07 1990-07-19 Ultrasound 3D object imaging method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP1-232320 1989-09-07
JP23232089 1989-09-07
JP2191035A JP2882861B2 (en) 1989-09-07 1990-07-19 Ultrasound 3D object imaging method

Publications (2)

Publication Number Publication Date
JPH03251713A true JPH03251713A (en) 1991-11-11
JP2882861B2 JP2882861B2 (en) 1999-04-12

Family

ID=26506445

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2191035A Expired - Fee Related JP2882861B2 (en) 1989-09-07 1990-07-19 Ultrasound 3D object imaging method

Country Status (1)

Country Link
JP (1) JP2882861B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009532702A (en) * 2006-04-05 2009-09-10 カリフォルニア インスティテュート オブ テクノロジー Stereoscopic image processing by acoustic distortion change and acoustic defocusing
CN105911554A (en) * 2016-06-06 2016-08-31 清华大学 Target identification method based on ultrasonic sensor array
JP2021012043A (en) * 2019-07-03 2021-02-04 株式会社日立製作所 Information processing device for machine learning, information processing method for machine learning, and information processing program for machine learning

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009532702A (en) * 2006-04-05 2009-09-10 カリフォルニア インスティテュート オブ テクノロジー Stereoscopic image processing by acoustic distortion change and acoustic defocusing
CN105911554A (en) * 2016-06-06 2016-08-31 清华大学 Target identification method based on ultrasonic sensor array
JP2021012043A (en) * 2019-07-03 2021-02-04 株式会社日立製作所 Information processing device for machine learning, information processing method for machine learning, and information processing program for machine learning

Also Published As

Publication number Publication date
JP2882861B2 (en) 1999-04-12

Similar Documents

Publication Publication Date Title
JPH04127009A (en) Three-dimensional object photographying method
CN111563446B (en) Human-machine interaction safety early warning and control method based on digital twin
Moustakas et al. Haptic rendering of visual data for the visually impaired
CN115272271A (en) Pipeline defect detecting and positioning ranging system based on binocular stereo vision
Watanabe et al. Ultrasonic robot eyes using neural networks
Lopez et al. Human validation of computer vs human generated design sketches
Negahdaripour et al. Recovering shape and motion from undersea images
JPH03251713A (en) Ultrasonic imaging system for three-dimensional object
Mostafa et al. Integrating shape from shading and range data using neural networks
Negahdaripour et al. Opti-acoustic stereo imaging, system calibration and 3-d reconstruction
CN116740290A (en) Three-dimensional interaction double-hand reconstruction method and system based on deformable attention
CN117716257A (en) Acoustic depth map
JPH03251712A (en) Ultrasonic system for recognizing three-dimensional object
JPH04112290A (en) Three-dimensional object number counting system
JP2878414B2 (en) 3D object recognition method
Song et al. 3D reconstruction of underwater scene for marine bioprospecting using remotely operated underwater vehicle (ROV)
JPH04330578A (en) Three-dimensional material recognizing system
US20230154041A1 (en) Metric lifting of 3d human pose using sound
JPH04276785A (en) Ultrasonic three-dimensional object recognizing system
Yim et al. Shape modeling of soft real objects using force-feedback haptic interface
Huynh et al. Enhancing the recognition of medication intake using a stereo camera
Wu et al. Acoustic camera pose refinement using differentiable rendering
Heng et al. Material Recognition for Immersive Interactions in Virtual/Augmented Reality
JPH04318682A (en) Three dimensional body identification system
EP1095358B1 (en) Method for modelling three-dimensional objects or scenes

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees