JPH02280078A - Object image pickup system - Google Patents

Object image pickup system

Info

Publication number
JPH02280078A
JPH02280078A JP1101368A JP10136889A JPH02280078A JP H02280078 A JPH02280078 A JP H02280078A JP 1101368 A JP1101368 A JP 1101368A JP 10136889 A JP10136889 A JP 10136889A JP H02280078 A JPH02280078 A JP H02280078A
Authority
JP
Japan
Prior art keywords
target object
shape
stage
sound pressure
scattered
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP1101368A
Other languages
Japanese (ja)
Other versions
JP2843356B2 (en
Inventor
Sumio Watanabe
渡辺 澄夫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP1101368A priority Critical patent/JP2843356B2/en
Publication of JPH02280078A publication Critical patent/JPH02280078A/en
Application granted granted Critical
Publication of JP2843356B2 publication Critical patent/JP2843356B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices Characterised By Use Of Acoustic Means (AREA)
  • Image Processing (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To bring a fine three-dimentional form of an object body to image pickup by irradiating the object body with an ultrasonic wave and measuring and analyzing its scattered wave by using an array type receiver. CONSTITUTION:A signal is sent from a pulse generator 4 and a burst wave is sent to an object body 1 from an ultrasonic irradiater 2 and a scattered wave is measured by M pieces by changing the time by a receiver array 3 and processed by a computer 5. In this case, by utilizing a fact that the scattered wave and a surface existence function of an object are in a linear function, the existence function is calculated and a rough image is obtained on an indicator 6. Subsequently, when information passes through inter-unit coupling (full line) through a neural network by an input layer unit of NXNXM pieces, an output layer unit of LXLXK pieces, and an intermediate layer unit whose number of pieces is variable, it is set to weight multiple of its coupling, the information is outputted based on a bias value of each unit and the network is allowed to learn the inter-coupling weight for realizing a desirable input/ output corresponding function and the bias value. Since data for learning can be constituted artificially, a desired network is constituted at a high speed and a fine object image is obtained.

Description

【発明の詳細な説明】 坦釘l夏 本発明は、物体撮像方式に関し、例えば、超音波を用い
た3次元カメラ、3次元コピア、3次元ファクシミリ、
およびロボットの目等に応用できるものである。
DETAILED DESCRIPTION OF THE INVENTION The present invention relates to an object imaging method, such as a three-dimensional camera using ultrasound, a three-dimensional copier, a three-dimensional facsimile,
It can also be applied to robot eyes, etc.

従JJL尊 超音波を対象物体に照射し、その散乱波を複数個の受波
器で受け、その測定値から対象物体の形状を撮像する方
法は、例えば、音響ホログラフィ等で知られる方法がこ
れまでにも考えられていたが、超音波の波長の長さ、受
波アレイの大きさが有限であることなどの理由により実
用的な撮像を行えるには至っていない。
For example, a method known as acoustic holography is a method in which a target object is irradiated with ultrasonic waves, the scattered waves are received by multiple receivers, and the shape of the target object is imaged from the measured values. Although this has been considered in the past, practical imaging has not yet been achieved due to the length of the ultrasonic wavelength and the limited size of the receiving array.

また、ニューラルネットワークを用いて超音波映像を構
成する方法は、[ニューラルネットワークを用いた超音
波によるロボット・アイ・システム」(電子情報通信学
会1989年2月22日)により提案されているが、未
学習な形の物体については高精細な再生像が得られなか
った。
In addition, a method of constructing ultrasound images using neural networks has been proposed in "Robot Eye System Using Ultrasound Using Neural Networks" (IEICE, February 22, 1989). High-definition reconstructed images could not be obtained for objects with unlearned shapes.

且−一煎 本発明は、上述のごとき欠点を解決するためになされた
もので、超音波を対象体に照射し、その散乱波をアレイ
型レシーバ−を用いて測定し解析することにより、対型
体の高精細な3次元形状を撮像する物体撮像方式を提供
することを目的としてなされたものである。
The present invention was made in order to solve the above-mentioned drawbacks, and it can be solved by irradiating an object with ultrasonic waves and measuring and analyzing the scattered waves using an array receiver. The purpose of this invention is to provide an object imaging method that images a high-definition three-dimensional shape of a mold.

娼−一域− 本発明は、上記目的を達成するために、(1)対象物体
に超音波を放射し、その散乱波の音圧をN個(N>0)
のアレイ型レシーバ−で測定し、対象物体の形状を再構
成する場合において、操作を2段に分け、第1段では、
散乱波の音圧から対象物体のおおよその形状を再構成し
、第2段では、対象物体のおおよその形状から対物体の
精密な形状を再構成すること、更には、(2)対象物体
に超音波を放射し、その散乱波の音圧をN個(N>0)
のアレイ型レシーバ−で泪1定し、対象物体の形状を再
構成するために、操作を2段に分け、第1段では、散乱
波の音圧から対象物体のおおよその形状を再構成し、第
2段では、対象物体のおおよその形状から対物体の精密
な形状を再構成する場合において、第1段、第2段とも
、与えられたデータとそれに対する望ましい出力データ
からその対応関係を学習させる事によって構成すること
、或いは、(3)対象物体に超音波を放射し、その散乱
波の音圧をN個(N>0)のアレイ型レシーバ−で測定
し、対象物体の形状を再構成するために、対象物体とし
てN個の異なる位置形状のものを用意し、それからの散
乱波を21I11定し、対象物体と散乱波の音圧とが線
形な関係を持つことを利用することにより、?ll!l
定された音圧から対象物体の形状を再構成する関係式を
構成すること、更には、(4)対象物体に超音波を放射
し、その散乱波の音圧をN個(N>0)のアレイ型レシ
ーバ−で測定し、対象物体の形状を再構成するために、
操作を2段に分け、第1段では、散乱波の音圧から対象
物体のおおよその形状を再構成し、第2段では、対象物
体のおおよその形状から対物体の精密な形状を再構成す
る場合において、第1段では、請求項3記載の方式を用
い、第2段では、ニューラルネットワークを用いること
、或いは、(5)対象物体に超音波を放射し、その散乱
波の音圧をN個(N>0)のアレイ型レシーバ−で測定
し、対象物体の形状を再構成するために、操作を2段に
分け、第1段では、散乱波の音圧から対象物体のおおよ
その形状を再構成し、第2段では、対象物体のおおよそ
の形状から対物体の精密な形状を再構成するために第1
段では、請求項3記載の方式を用い、第2段では、ニュ
ーラルネットワークを用いる場合において、そのニュー
ラルネットワークに学習させる時に用いる入力データと
教師出力データを人工的に作られた出力データとそれを
変換することで得られる入力データで代用することを特
徴としたものである。以下、本発明の実施例に基づいて
説明する。
In order to achieve the above object, the present invention (1) emits ultrasonic waves to a target object, and reduces the sound pressure of the scattered waves to N (N>0)
When reconstructing the shape of a target object by measuring it with an array type receiver, the operation is divided into two stages.In the first stage,
The approximate shape of the target object is reconstructed from the sound pressure of the scattered waves, and in the second stage, the precise shape of the target object is reconstructed from the approximate shape of the target object. Emit ultrasonic waves and reduce the sound pressure of the scattered waves to N (N>0)
In order to reconstruct the shape of the target object using the array type receiver, the operation is divided into two stages.In the first stage, the approximate shape of the target object is reconstructed from the sound pressure of the scattered waves. In the second stage, when reconstructing the precise shape of the target object from the approximate shape of the target object, both the first stage and the second stage calculate the correspondence from the given data and the desired output data. (3) Emit ultrasonic waves to a target object, measure the sound pressure of the scattered waves with N array receivers (N > 0), and determine the shape of the target object. In order to reconstruct, prepare N objects with different positions and shapes as target objects, define the scattered waves from them, and utilize the fact that the target objects and the sound pressure of the scattered waves have a linear relationship. By? ll! l
Construct a relational expression that reconstructs the shape of the target object from the determined sound pressure, and (4) radiate ultrasonic waves to the target object and calculate the sound pressure of the scattered waves by N pieces (N>0) In order to reconstruct the shape of the target object by measuring it with an array type receiver,
The operation is divided into two stages: in the first stage, the approximate shape of the target object is reconstructed from the sound pressure of the scattered waves, and in the second stage, the precise shape of the target object is reconstructed from the approximate shape of the target object. In the case where the method according to claim 3 is used in the first stage and the neural network is used in the second stage, or (5) the ultrasonic wave is emitted to the target object and the sound pressure of the scattered wave is In order to reconstruct the shape of the target object by measuring with N (N>0) array type receivers, the operation is divided into two stages.In the first stage, the approximate shape of the target object is calculated from the sound pressure of the scattered waves. In the second stage, the first stage reconstructs the precise shape of the target object from the approximate shape of the target object.
In the second stage, when a neural network is used, input data and teacher output data used for learning the neural network are combined with artificially created output data. The feature is that input data obtained by conversion is used instead. Hereinafter, the present invention will be explained based on examples.

本発明の物体撮像方式は大きく分けて次の2段に分れて
いる。
The object imaging method of the present invention is roughly divided into the following two stages.

第1段:対象物体に超音波を照射し、その散乱波から対
象物体のおおよその形状を構成する方式。
First stage: A method in which the target object is irradiated with ultrasonic waves and the approximate shape of the target object is constructed from the scattered waves.

第2段二対象物体のおおよその形状から対象物体の精密
な形状を構成する方式。
Step 2: A method for constructing the precise shape of a target object from the approximate shape of the two target objects.

第1段では、対象物体に超音波を照射し、その散乱波の
音圧をN個(N>0)の受波器で測定し。
In the first stage, the target object is irradiated with ultrasonic waves, and the sound pressure of the scattered waves is measured by N receivers (N>0).

その測定値から対象物体の形状を構成する。測定された
音圧と対象物体の形状は線形な関係にあるので、両者を
結ぶ一次変換を表わす行列を、N個の異なる対象物体の
形状とそのときの散乱波の音圧とを具体的に測定するこ
とにより決定することができる。
The shape of the target object is constructed from the measured values. Since there is a linear relationship between the measured sound pressure and the shape of the target object, a matrix representing a linear transformation connecting the two can be created by specifically expressing the shapes of N different target objects and the sound pressure of the scattered waves at that time. It can be determined by measurement.

第2段では、第1段で得られた対象物体のおおよその形
状をニューラルネットを用いることにより高精細化する
In the second stage, the approximate shape of the target object obtained in the first stage is refined using a neural network.

まず、第1段の実施例について説明する。第1図は、本
発明の詳細な説明するための散乱波測定装置で、図中、
1は対象物体、2は超音波の照射器、3はNXN個の受
波器からなるレシーバ−アレイ、4はパルスジェネレー
タ、5はコンピュータ、6はデイスプレィである。パル
スジェネレータ4から送られた信号 を超音波照射器2から超音波バースト波として対象物体
に向けて照射する(roは照射器の位置を表わす)。こ
のとき対象物体からの散乱波をレシーバ−アレイ3の受
波器(p、q)により時刻を変えてM測測定し、その値
を (g(p、q+r)) r= 11213”””Mとし
、コンピュータ5に送る。コンピュータ5での計算は次
の様に行う。
First, the first embodiment will be described. FIG. 1 shows a scattered wave measuring device for explaining the present invention in detail, and in the figure,
1 is a target object, 2 is an ultrasonic irradiator, 3 is a receiver array consisting of NXN receivers, 4 is a pulse generator, 5 is a computer, and 6 is a display. The signal sent from the pulse generator 4 is irradiated from the ultrasonic irradiator 2 toward the target object as an ultrasonic burst wave (ro represents the position of the irradiator). At this time, the scattered waves from the target object are measured by the receivers (p, q) of the receiver array 3 at different times, and the value is (g (p, q + r)) r = 11213"""M and sends it to the computer 5.The calculation in the computer 5 is performed as follows.

第2図は、本発明の詳細な説明するための図で、対象物
体の再生領域をデジタル化したものを表わしている。こ
のとき関数ξ(itj+k)を次の様に定義する。
FIG. 2 is a diagram for explaining the present invention in detail, and shows a digitalized reproduction area of a target object. At this time, the function ξ(itj+k) is defined as follows.

このとき、散乱波g (p+q+r)と対象物体の表面
存在関数ξ(i、j、k)とは線形な関係があるので、
ある定数a(P+Q+r+l+j、k)を用いて1=O
j=Ok=O と表わすことができる。a(P+Q+rtltJ+k)
を求めるためには、各ボクセル(i、、+、k)にだけ
表面が存在する小さな対象物体をおいて、そのときの散
乱波を測定すれはよい。
At this time, there is a linear relationship between the scattered wave g (p+q+r) and the surface existence function ξ(i, j, k) of the target object, so
Using a certain constant a(P+Q+r+l+j,k), 1=O
It can be expressed as j=Ok=O. a(P+Q+rtltJ+k)
To find this, it is best to place a small object whose surface exists only in each voxel (i, , +, k) and measure the scattered waves at that time.

P=(ppq+r) I=(1+j+k) と書くことにすると、両式は。P=(ppq+r) I=(1+j+k) If we write it as , both expressions are.

g(P)=Σa(P、I)ξ(I) IEボクセル となるから、行列(a([’、I)) P、Iの逆行列
を(a ’(1,P)) r、pとすると(行列が与え
られた時。
g(P)=Σa(P,I)ξ(I) Since it is an IE voxel, the inverse matrix of matrix (a([',I)) P, I is (a'(1,P)) r,p (Given a matrix.

その逆行列を計算する方法は周知である。)。Methods for calculating the inverse of the matrix are well known. ).

ξ(■)=Σa−” (I、P)g(P)PEilll
J定時刻、場所 番こよって、ξ(i)を求めることかできる。ξ(1)
は対象物体の表面が存在するかどうかを表わす関数であ
ったから、このξをコンピュータ5で計算し、デイスプ
レィ6に表示すれば対象物体のおおよその形が得られる
ξ(■)=Σa-” (I,P)g(P)PEill
ξ(i) can be found from J fixed time and place number. ξ(1)
Since ξ is a function representing whether or not the surface of the target object exists, if this ξ is calculated by the computer 5 and displayed on the display 6, the approximate shape of the target object can be obtained.

次に第2段の実施例について説明する。第1段で得られ
た再生像はM、Nか小さいときには劣化が著しく実用に
向ない。また、M、Nを大きく取ることは、装置の制約
上できないことが多い。そこで、第2段では、第1段で
得られた像から、より解像度の高い像を構成する方式に
ついて述べる。
Next, a second stage embodiment will be described. When M and N are small, the reconstructed image obtained in the first stage deteriorates significantly and is not suitable for practical use. Furthermore, it is often impossible to increase M and N due to device limitations. Therefore, in the second stage, a method for constructing an image with higher resolution from the image obtained in the first stage will be described.

第3図は、第1段で得られたNXNXMの再生領域上の
再構成像から、LXLXK上の像を構成するニューラル
ネットワークを説明するための図で、丸はネットワーク
の各ユニットを、実線は各ユニット間の結合をそれぞれ
表わしている。入力)t!Jに属するユニットはNXN
XM個、出力層に属するユニットはLXLXK個、中間
層に属するユニットの個数は可変である(中間層の個数
はネットワークの望ましい性能によって選ぶことができ
る)。各情報は実線で示されるユニット間結合を通る際
にその結合の重み倍になり、また各ユニットから出力さ
れる情報は、そのユニットに集る情報の和をXとすると
き、 1/(1+exp(−x+ 0 )) で与えられる。ここで、0はそのユニットのバイアス値
である。この様な構造のネットワークに対して、入カバ
ターンとそれに対する望ましい出カバターンが与えられ
ると、周知の方式パックプロパゲーション法によって、
それらの対応関係を実現するための結合間の重みとバイ
アス値とをニューラルネットワークに学習させることが
できる。
FIG. 3 is a diagram for explaining a neural network that constructs an image on LXLXK from the reconstructed image on the NXNXM reproduction area obtained in the first stage, where circles indicate each unit of the network and solid lines indicate Each represents the connection between each unit. Input) t! Units belonging to J are NXN
The number of units belonging to the output layer is LXLXK, and the number of units belonging to the intermediate layer is variable (the number of intermediate layers can be selected depending on the desired performance of the network). When each piece of information passes through the inter-unit connections shown by the solid line, the weight of that connection is multiplied, and the information output from each unit is calculated as follows: 1/(1+exp (-x+0)). Here, 0 is the bias value of that unit. For a network with such a structure, when an input cover pattern and a desired output pattern are given, the well-known pack propagation method is used to calculate
A neural network can be made to learn weights and bias values between connections to realize these correspondences.

そこで、第2段では、このネットワークに学習させるた
めの入力データと出力データとの構成法を示す。
Therefore, in the second stage, a method of configuring input data and output data for making this network learn is shown.

入力データと出力データの構成法としては、多様な形の
表面をもつ実際の物体を数多く用いて実測により構成す
る方法が考えられるが、立体の場合十分多様な形の物体
を構成することは実用上得策でない。そこで、入力デー
タと出力データを人工的に構成する方式を以下に述べる
One possible method for composing input data and output data is to construct them through actual measurements using a large number of actual objects with surfaces of various shapes, but in the case of three-dimensional objects, it is not practical to construct objects with sufficiently diverse shapes. It's not a good idea. Therefore, a method for artificially configuring input data and output data will be described below.

第4図(a)、(b)はニューラルネットワークに学習
させるための入力データと出力データとを構成する方式
を説明するための図で、(、)は望ましい出力データを
、(b)はその出力データが期待される時のデータをそ
れぞれ表わしている。ここで、実際のデータは3次元上
に表わされるが、見やすくするため2次元上に表示した
Figures 4(a) and 4(b) are diagrams for explaining the method of configuring input data and output data for learning by a neural network, where (,) indicates desired output data, and (b) indicates the desired output data. Each represents data when output data is expected. Although the actual data is expressed three-dimensionally, it is displayed two-dimensionally for ease of viewing.

以下、L=sN、に=tMとする。ここで、S。Hereinafter, it is assumed that L=sN and tM. Here, S.

tはある整数である。第4図では、5=T=3で表示し
である。まず、第4図(a)の様な物体の表面を表わす
図形をLXLXKの領域上に十分多く作っておく。第4
図(a)で、斜線を引いたボクセルは物体の表面が存在
することを示しており。
t is an integer. In FIG. 4, 5=T=3 is shown. First, a sufficient number of figures representing the surface of an object as shown in FIG. 4(a) are created on the LXLXK area. Fourth
In figure (a), the voxels with diagonal lines indicate the presence of the surface of the object.

ここでの値を1とする。また、斜線のないボクセルは物
体の表面がないことを示しており、ここでの値はOであ
る。これらをニューラルネットの望ましい出力データと
する。次に、LXLXKの領域をNXNXMの領域に分
ける(すなわち、5XsXt、のボクセルをまとめてひ
とつのボクセルとする。)。こうして得られるNXNX
Mの領域上の値を次のように決める。すなわち、新しく
できたボクセルが含む旧ボクセルのうち、値が1である
ものの個数を5XsXtで割った値を新しいボクセル上
の値とする。第4図では、5XsXtの値を9で表示し
である。
The value here is set to 1. Further, voxels without diagonal lines indicate that there is no surface of the object, and the value here is O. Let these be the desired output data of the neural network. Next, the LXLXK region is divided into NXNXM regions (that is, 5XsXt voxels are combined into one voxel). NXNX obtained in this way
The value of M on the area is determined as follows. That is, among the old voxels included in the newly created voxel, the number of old voxels with a value of 1 is divided by 5XsXt, and the value on the new voxel is set as the value on the new voxel. In FIG. 4, the value of 5XsXt is shown as 9.

以上の様にして入力データと出力データが構成できたの
で、このデータを用いて得られるNXNXMのデータは
第4図(a)の様なものになるので、こうしてできたネ
ットワークを用いれば、対象物体の精密な形を撮像する
ことができる。
Since the input data and output data have been configured as described above, the NXNXM data obtained using this data will be as shown in Figure 4 (a), so if the network created in this way is used, the target It is possible to image the precise shape of an object.

例−一米 以上の説明から明らかなように、本発明によると、少数
個の受波器からなるレシーバ−アレイによって超音波反
射波を測定することにより高精細な物体撮像が可能にな
る。
Example - As is clear from the above description, according to the present invention, high-definition object imaging is possible by measuring reflected ultrasonic waves using a receiver array consisting of a small number of receivers.

また、ニューラルネットの構成の際に学習に用いなかっ
た形についても高精細な像が得られる。
Furthermore, high-definition images can be obtained even for shapes that were not used for learning when constructing the neural network.

さらに、ニューラルネットワークに学習させるときに用
いるデータを実d1すでなく、人工的に構成することが
できるので、これまでよりも高速に所望のネットワーク
を構成することができる。
Furthermore, since the data used for training the neural network can be constructed artificially rather than actually d1, a desired network can be constructed faster than ever before.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は、本発明による物体撮像方式を説明するた・め
のもので、散乱波測定装置の構成図、第2図は、対象物
体の再生領域をディジタル化した図、第3図は、ニュー
ラルネットワークを示す図、第4図(a)、(b)は、
ニューラルネットワークに学習させるための入力データ
と出力データとの構成法を示す図である。 1・・対象物体、2・・・超音波照射、3・・・レシー
バ−アレイ、4・・・パルスジェネレータ、5・・°コ
ンピュータ、6・・・デイスプレィ。
FIG. 1 is a diagram for explaining the object imaging method according to the present invention, and is a block diagram of a scattered wave measuring device. FIG. 2 is a diagram digitizing the reproduction area of the target object. Diagrams showing the neural network, Figures 4(a) and (b),
FIG. 3 is a diagram showing a method of configuring input data and output data for learning by a neural network. 1...Target object, 2...Ultrasonic irradiation, 3...Receiver array, 4...Pulse generator, 5...°computer, 6...Display.

Claims (1)

【特許請求の範囲】 1、対象物体に超音波を放射し、その散乱波の音圧をN
個(N>0)のアレイ型レシーバーで測定し、対象物体
の形状を再構成する場合において、操作を2段に分け、
第1段では、散乱波の音圧から対象物体のおおよその形
状を再構成し、第2段では、対象物体のおおよその形状
から対物体の精密な形状を再構成することを特徴とする
物体撮像方式。 2、対象物体に超音波を放射し、その散乱波の音圧をN
個(N>0)のアレイ型レシーバーで測定し、対象物体
の形状を再構成するために、操作を2段に分け、第1段
では、散乱波の音圧から対象物体のおおよその形状を再
構成し、第2段では、対象物体のおおよその形状から対
物体の精密な形状を再構成する場合において、第1段、
第2段とも、与えられたデータとそれに対する望ましい
出力データからその対応関係を学習させる事によって構
成することを特徴とする請求項1記載の物体撮像方式。 3、対象物体に超音波を放射し、その散乱波の音圧をN
個(N>0)のアレイ型レシーバーで測定し、対象物体
の形状を再構成するために、対象物体としてN個の異な
る位置形状のものを用意し、それからの散乱波を測定し
、対象物体と散乱波の音圧とが線形な関係を持つことを
利用することにより、測定された音圧から対象物体の形
状を再構成する関係式を構成することを特徴とする物体
撮像方式。 4、対象物体に超音波を放射し、その散乱波の音圧をN
個(N>0)のアレイ型レシーバーで測定し、対象物体
の形状を再構成するために、操作を2段に分け、第1段
では、散乱波の音圧から対象物体のおおよその形状を再
構成し、第2段では、対象物体のおおよその形状から対
物体の精密な形状を再構成する場合において、第1段で
は、前記請求項3記載の方式を用い、第2段では、ニュ
ーラルネットワークを用いることを特徴とする請求項1
記載の物体撮像方式。 5、対象物体に超音波を放射し、その散乱波の音圧をN
個(N>0)のアレイ型レシーバーで測定し、対象物体
の形状を再構成するために、操作を2段に分け、第1段
では、散乱波の音圧から対象物体のおおよその形状を再
構成し、第2段では、対象物体のおおよその形状から対
物体の精密な形状を再構成するために第1段では、前記
請求項3記載の方式を用い、第2段では、ニューラルネ
ットワークを用いる場合において、そのニューラルネッ
トワークに学習させる時に用いる入力データと教師出力
データを人工的に作られた出力データとそれを変換する
ことで得られる入力データで代用することを特徴とする
請求項4記載の物体撮像方式。
[Claims] 1. Emit ultrasonic waves to a target object, and set the sound pressure of the scattered waves to N
When reconstructing the shape of a target object by measuring with multiple (N>0) array type receivers, the operation is divided into two stages.
In the first stage, the approximate shape of the target object is reconstructed from the sound pressure of the scattered waves, and in the second stage, the precise shape of the target object is reconstructed from the approximate shape of the target object. Imaging method. 2. Emit ultrasonic waves to the target object, and reduce the sound pressure of the scattered waves to N
In order to reconstruct the shape of the target object by measuring with N > 0 array type receivers, the operation is divided into two stages.In the first stage, the approximate shape of the target object is determined from the sound pressure of the scattered waves. In the second stage, when reconstructing the precise shape of the objective object from the approximate shape of the target object, the first stage,
2. The object imaging method according to claim 1, wherein both of the second stages are constructed by learning a correspondence relationship between given data and desired output data for the given data. 3. Emit ultrasonic waves to the target object, and reduce the sound pressure of the scattered waves to N
In order to reconstruct the shape of the target object by measuring with N > 0 array type receivers, prepare N objects with different positions and shapes as the target objects, measure the scattered waves from them, and reconstruct the shape of the target object. An object imaging method characterized by constructing a relational expression for reconstructing the shape of a target object from the measured sound pressure by utilizing the fact that there is a linear relationship between the sound pressure and the sound pressure of a scattered wave. 4. Emit ultrasonic waves to the target object, and reduce the sound pressure of the scattered waves to N
In order to reconstruct the shape of the target object by measuring with N > 0 array type receivers, the operation is divided into two stages.In the first stage, the approximate shape of the target object is determined from the sound pressure of the scattered waves. In the second stage, when reconstructing the precise shape of the target object from the approximate shape of the target object, the first stage uses the method according to claim 3, and the second stage uses the neural Claim 1 characterized in that a network is used.
Object imaging method described. 5. Emit ultrasonic waves to the target object, and reduce the sound pressure of the scattered waves to N
In order to reconstruct the shape of the target object by measuring with N > 0 array type receivers, the operation is divided into two stages.In the first stage, the approximate shape of the target object is determined from the sound pressure of the scattered waves. In the second stage, the method according to claim 3 is used in order to reconstruct the precise shape of the object from the approximate shape of the target object, and in the second stage, a neural network is used. Claim 4 characterized in that when using the neural network, the input data and teacher output data used when making the neural network learn are substituted with artificially created output data and input data obtained by converting the same. Object imaging method described.
JP1101368A 1989-04-20 1989-04-20 Object imaging method Expired - Fee Related JP2843356B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1101368A JP2843356B2 (en) 1989-04-20 1989-04-20 Object imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1101368A JP2843356B2 (en) 1989-04-20 1989-04-20 Object imaging method

Publications (2)

Publication Number Publication Date
JPH02280078A true JPH02280078A (en) 1990-11-16
JP2843356B2 JP2843356B2 (en) 1999-01-06

Family

ID=14298882

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1101368A Expired - Fee Related JP2843356B2 (en) 1989-04-20 1989-04-20 Object imaging method

Country Status (1)

Country Link
JP (1) JP2843356B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002365373A (en) * 2001-06-06 2002-12-18 Mitsubishi Heavy Ind Ltd Object-probing method and object-probing device
JP2008309533A (en) * 2007-06-13 2008-12-25 Ihi Corp Method and apparatus for measuring vehicle shape
JP2012078347A (en) * 2010-09-30 2012-04-19 Mitsubishi Electric Research Laboratories Inc Method and system for detecting scene

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2879828B2 (en) 1989-09-07 1999-04-05 株式会社リコー Ultrasonic 3D object recognition method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002365373A (en) * 2001-06-06 2002-12-18 Mitsubishi Heavy Ind Ltd Object-probing method and object-probing device
JP2008309533A (en) * 2007-06-13 2008-12-25 Ihi Corp Method and apparatus for measuring vehicle shape
JP2012078347A (en) * 2010-09-30 2012-04-19 Mitsubishi Electric Research Laboratories Inc Method and system for detecting scene

Also Published As

Publication number Publication date
JP2843356B2 (en) 1999-01-06

Similar Documents

Publication Publication Date Title
CN110074813B (en) Ultrasonic image reconstruction method and system
EP3637099B1 (en) Image reconstruction method based on a trained non-linear mapping
CN102137619B (en) Received data processing apparatus of photoacoustic tomography
CN106054183A (en) Three-dimensional image reconstruction method and device based on synthetic aperture radar imaging
CN106794007A (en) Network ultrasonic image-forming system
JPH04127009A (en) Three-dimensional object photographying method
CN104739448A (en) Ultrasonic imaging method and device
JP2022505511A (en) Adaptive beamforming methods and systems for ultrasonic signals
JP2022537274A (en) Method and system for generating synthetic elastography images
CN106780329A (en) A kind of plane of ultrasound wave imaging method based on the conversion of anti-perspective plane
JP2021186313A (en) Failure determining device for ultrasonic diagnostic apparatus, failure determining method and program
Nair et al. One-step deep learning approach to ultrasound image formation and image segmentation with a fully convolutional neural network
Noda et al. Ultrasound imaging with a flexible probe based on element array geometry estimation using deep neural network
CN103251430B (en) Visualization method and the equipment of the relevant information in the imaging of ultrasonic wave shear wave
Huntzicker et al. Quantitative sparse array vascular elastography: the impact of tissue attenuation and modulus contrast on performance
CN107204021B (en) Ultrasonic imaging method based on Gaussian function probe response model and compressed sensing
JPH02280078A (en) Object image pickup system
CN102496320A (en) Real-time ultrasonic image simulating method based on CT volume data
CN112001998B (en) Real-time simulation ultrasonic imaging method based on OptiX and Unity3D virtual reality platforms
JP2023067357A (en) Inference device, medical image diagnostic apparatus, inference method, and trained neural network generation method
JP2901048B2 (en) Image signal processing method and apparatus
Redman et al. Holographic display of data from ultrasonic scanning
CN112716519A (en) Medical image reverse time migration imaging method and device
JPWO2021099449A5 (en)
Dianis et al. Harmonic source wavefront aberration correction for ultrasound imaging

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees