JPH0435718B2 - - Google Patents

Info

Publication number
JPH0435718B2
JPH0435718B2 JP21798286A JP21798286A JPH0435718B2 JP H0435718 B2 JPH0435718 B2 JP H0435718B2 JP 21798286 A JP21798286 A JP 21798286A JP 21798286 A JP21798286 A JP 21798286A JP H0435718 B2 JPH0435718 B2 JP H0435718B2
Authority
JP
Japan
Prior art keywords
image
cross
sectional
mode
comparison
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired
Application number
JP21798286A
Other languages
Japanese (ja)
Other versions
JPS6375582A (en
Inventor
Yoshio Okita
Shunji Ozaki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
Agency of Industrial Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Agency of Industrial Science and Technology filed Critical Agency of Industrial Science and Technology
Priority to JP21798286A priority Critical patent/JPS6375582A/en
Publication of JPS6375582A publication Critical patent/JPS6375582A/en
Publication of JPH0435718B2 publication Critical patent/JPH0435718B2/ja
Granted legal-status Critical Current

Links

Description

【発明の詳細な説明】 (産業上の利用分野) この発明は、超音波映像処理方法、特に超音波
映像が低画質の映像であつても、この超音波映像
と対象物体のモデルとの照合を確実に行い得るよ
うにした比較照方法に関する。
[Detailed Description of the Invention] (Industrial Application Field) This invention relates to an ultrasonic image processing method, in particular, a method for collating an ultrasonic image with a model of a target object even if the ultrasonic image is of low quality. The present invention relates to a comparison method that enables reliable comparison.

(従来の技術) 光学映像、X線CT映像及び超音波映像を得る
ための技術分野において、従来より種々の比較照
合の技術が提案され又開発されてきている。
(Prior Art) In the technical field for obtaining optical images, X-ray CT images, and ultrasound images, various comparison and verification techniques have been proposed and developed.

従来通常行われている比較照合方法は、例え
ば、参照映像(モデルとしての映像)から、映像
の特徴を良く表現している部分を切り出して(こ
の切り出された部分映像をテンプレート映像と称
している)、入力映像との相関関数(又は何等か
の類似尺度等)を計算し、その値が最大となる点
を照合する方法である。
The comparison and matching method that is commonly used in the past is, for example, by cutting out a portion that best expresses the characteristics of the video from a reference video (video serving as a model) (this clipped partial video is called a template video). ), a correlation function (or some similarity measure, etc.) with the input video is calculated, and the point where the value is maximum is matched.

第6図は従来の比較照合方法を説明するための
公知の装置の概略を示すブロツク図である。同図
において、10は超音波映像センサで対象物体か
らの超音波散乱信号(入力信号)を受波して電気
信号に変換して超音波映像データ形成手段12に
送る。この超音波映像データ形成手段12におい
て信号のデイジタル処理を行つた後、得られた超
音波映像データを前処理手段14に送り、ここで
雑音の除去、スペツクルの平滑化等の画質改善処
理を行う。然る後、その画質改善処理済みの超音
波映像データを二値化処理回路16に送り、ここ
で例えば輪郭像(線画像)或いは白黒パターンに
抽出して比較照合手段18に供給する。この比較
照合手段18には超音波映像データとの比較照合
が行われるべき他方の情報すなわち対象物体に関
するモデル情報例えば断面線画像の情報が供給さ
れる。
FIG. 6 is a block diagram schematically showing a known device for explaining the conventional comparison and verification method. In the figure, reference numeral 10 denotes an ultrasonic image sensor that receives an ultrasonic scattering signal (input signal) from a target object, converts it into an electric signal, and sends it to an ultrasonic image data forming means 12. After the signal is digitally processed in the ultrasonic image data forming means 12, the obtained ultrasonic image data is sent to the preprocessing means 14, where image quality improvement processing such as noise removal and speckle smoothing is performed. . Thereafter, the ultrasound image data that has been subjected to image quality improvement processing is sent to the binarization processing circuit 16, where it is extracted into, for example, a contour image (line image) or a black and white pattern, and is supplied to the comparison and verification means 18. The comparison and verification means 18 is supplied with the other information to be compared and verified with the ultrasound image data, that is, model information regarding the target object, such as information on a cross-sectional line image.

この断面線画像は次のようにして形成してい
る。先ず、対象物体が何であるか、どんな位置、
姿勢、その他の状態にある等の所要の情報を、例
えばキーボード、カメラ或いはその他の適当な外
部情報入力手段20を用いて断面像データ発生手
段22に入力させる。断面像データ発生手段22
においては、これらの所要な情報に基づいて、超
音波映像データに対応した断面像データを形成
し、これを断面線画像形成手段24に送る。この
断面像データとしては、例えば、断面線画像の
形、位置、傾き、描画範囲、その他のデータを利
用出来る。この断面線画像形成手段24より断面
線画像例えば断面の輪郭の全部又は一部分の情報
を対象物体の線画像情報として発生させて比較照
合手段18に供給する。
This cross-sectional line image is formed as follows. First, what is the target object, what is its position,
Necessary information such as the posture and other conditions is input to the cross-sectional image data generating means 22 using, for example, a keyboard, a camera, or other suitable external information inputting means 20. Cross-sectional image data generation means 22
Based on these necessary information, cross-sectional image data corresponding to the ultrasound image data is formed and sent to the cross-sectional line image forming means 24. As this cross-sectional image data, for example, the shape, position, inclination, drawing range, and other data of the cross-sectional line image can be used. The cross-sectional line image forming means 24 generates a cross-sectional line image, for example, information on all or part of the outline of the cross-section, as line image information of the target object, and supplies it to the comparison and verification means 18.

この比較照合手段18において前述したよう
に、線画像映像と、超音波映像の例えば線画像等
として単純化されたパターンとのマツチングを行
つて比較照合を行い、その結果を適当な表示手段
26例えばCRTその他のデイスプレイ手段、プ
リントアウト手段等で表示させるか、或いはこの
ような表示を行わずに後段の所要の処理手段(図
示していない)へと送出させている。そして、こ
れら超音波映像データ形成手段12、前処理手段
14、二値化処理回路16、比較照合手段18、
断面像データ発生手段22及び断面線画像形成手
段24の各処理の実行を、コンピユータ処理、専
用シグナルプロセツサ、或いはその他の任意好適
な処理手段で、行つている。
As described above, this comparison and verification means 18 performs comparison and verification by matching the line image image with a simplified pattern of the ultrasound image, for example, as a line image, and displays the results on an appropriate display means 26, for example. The information is displayed on a CRT or other display means, a printout means, or the like, or it is sent to a required subsequent processing means (not shown) without such display. These ultrasonic image data forming means 12, preprocessing means 14, binarization processing circuit 16, comparison and verification means 18,
The respective processes of the cross-sectional image data generating means 22 and the cross-sectional line image forming means 24 are executed by computer processing, a dedicated signal processor, or any other suitable processing means.

ところで、このような比較照合を行う場合の超
音波映像データは基本的には以下簡単に説明する
原理に基づいて形成されている。
Incidentally, the ultrasound image data used for such comparison and verification is basically formed based on the principle that will be briefly explained below.

これらの映像データは、測定の対象物体と、超
音波映像センサ10のビーム特性とのたたみ込み
によつて形成される。今、測定の対象物体の位置
を円筒座標系表示(r,θ)でu(r,θ)と表
わし、この座標の原点に超音波映像センサ10を
配設するとする。超音波映像センサ10の受波特
性であるビーム特性(一般には、パワー感度特
性)をw(r,θ)とするとき、観測される映像
データである二次元映像v(r,θ)は次式(1)で
与えられることが知られている。
These image data are formed by convolving the object to be measured with the beam characteristics of the ultrasonic image sensor 10. Now, suppose that the position of the object to be measured is expressed as u(r, θ) in a cylindrical coordinate system (r, θ), and the ultrasonic image sensor 10 is disposed at the origin of this coordinate. When the beam characteristic (generally power sensitivity characteristic) which is the receiving characteristic of the ultrasonic image sensor 10 is w (r, θ), the two-dimensional image v (r, θ) which is the image data to be observed is It is known that it is given by the following equation (1).

v(r,θ)=∫+∞ -∞+∞ -∞w(r−s,θ−ψ
)・ u(s,ψ)dsdψ (1) ここでw(r,θ)は一種の点広がり関数と考
えられる。
v(r, θ)=∫ +∞ -∞+∞ -∞ w(rs, θ−ψ
)・u(s, ψ)dsdψ (1) Here, w(r, θ) can be considered a kind of point spread function.

レーザレンジフアインダ等の光学手段によつて
この(1)式で与えられる映像を得る場合には、広が
り関数w(r,θ)はほとんどデルタ関数とみな
すことが出来るので、(1)式の積分の結果は、v
(r,θ)u(r,θ)となつて対象物体のモデ
ルu(r,θ)に比較的近い映像が得られる。従
つて得られた映像v(r,θ)と、対象物体のモ
デルu(r,θ)との比較照合は比較的容易であ
る。
When obtaining the image given by equation (1) using optical means such as a laser range finder, the spread function w(r, θ) can be almost regarded as a delta function, so equation (1) is The result of the integration is v
(r, θ) u(r, θ), and an image relatively close to the model u(r, θ) of the target object is obtained. Therefore, it is relatively easy to compare and match the obtained image v(r, θ) with the model u(r, θ) of the target object.

(発明が解決しようとする問題点) しかしながら、超音波の波長が光の波長よりも
104倍程度長く、又、通常は受波領域における超
音波のビーム幅が光のビーム幅よりも広いため
に、超音波を用いて上述した(1)式に従つて対象物
体の映像を得ようとする場合には、ビーム特性は
r及びθに関してデルタ関数とはならず広がりを
持つた関数となり、これがため、一般的に二次元
映像v(r,θ)はボケ像となつていて、モデル
u(r,θ)とは異なつた映像となる。従つて、
超音波映像では得られた映像v(r,θ)と、対
象物体モデルu(r,θ)との比較照合を行うこ
とは困難であるという問題点があつた。
(Problem to be solved by the invention) However, the wavelength of ultrasonic waves is greater than the wavelength of light.
10 It is about 4 times longer and the beam width of ultrasound in the receiving area is usually wider than the beam width of light, so it is necessary to use ultrasound to obtain an image of the target object according to equation (1) above. When attempting to do so, the beam characteristics do not become a delta function with respect to r and θ, but become a spread function, and as a result, the two-dimensional image v(r, θ) generally becomes a blurred image. The resulting image is different from model u(r, θ). Therefore,
A problem with ultrasonic images is that it is difficult to compare and match the obtained image v(r, θ) with the target object model u(r, θ).

さらに、上述したように超音波は波長が長く、
超音波信号の周波数帯域が狭いため、 解像度が悪く、鮮明な像が得られにくいこ
と、 スペツクル雑音が現われること、 対象物体の滑らかな部分が鏡面のように映る
こと という特色を有している。これがため、音響映像
と光学映像とでは、かなり映像の見え方に違いが
生じ、従つて、光学映像に対する比較照合技術を
そのまま超音波映像に対して適用しても、照合の
ための相関処理のおける相関値のピーク値が低い
ために、照合位置が十分な精度で得られず、誤つ
た位置に照合してしまうという問題点があつた。
Furthermore, as mentioned above, ultrasound has a long wavelength;
Because the frequency band of the ultrasound signal is narrow, the resolution is poor, making it difficult to obtain a clear image, speckle noise appears, and smooth parts of the target object appear mirror-like. For this reason, there is a considerable difference in how the images appear between audio and optical images, and even if the comparison and matching technology for optical images is applied directly to ultrasound images, the correlation processing for matching will be difficult. Since the peak value of the correlation value is low, the matching position cannot be obtained with sufficient accuracy, resulting in a problem in that the incorrect position is matched.

この発明は、このような従来の問題点の解決を
図るためになされたものであり、従つて、この発
明の目的は、音響映像のように低解像度で不鮮明
な映像、スペツクル雑音や鏡面効果によつて画質
が劣化している映像の場合でも、この映像と対象
物体モデルとの比較照合を確実かつ精度高く行え
る比較照合方法を提供することにある。
This invention was made to solve these conventional problems, and therefore, the purpose of this invention is to solve problems such as low-resolution and unclear images such as audio images, speckle noise, and mirror effects. Therefore, it is an object of the present invention to provide a comparison and matching method that can reliably and accurately compare and match this video with a target object model even in the case of a video whose image quality has deteriorated.

(問題点を解決するための手段) この目的の達成を図るため、この発明によれ
ば、断面線画像を入力映像に近づけて比較照合を
行おうとするものであり、次のような手段を講じ
る。すなわち、 断面線画像に対し、この像に適切な参照映像生
成用の音響映像化フイルタを用いて、空間フイル
タリング処理を行つて参照映像を生成する。
(Means for Solving the Problem) In order to achieve this objective, according to the present invention, the cross-sectional line image is brought closer to the input image to perform comparison and verification, and the following measures are taken. . That is, a reference image is generated by performing spatial filtering processing on the cross-sectional line image using an audio visualization filter for reference image generation appropriate for this image.

この参照映像を比較照合用のテンプレート映像
として用いて、超音波映像との比較照合又は超音
波映像を画像処理して得た映像との比較照合を行
う。この音響映像化フイルタは超音波映像生成過
程を模擬する空間フイルタであつて、物体を超音
波で見た場合に、どのように見えるかを近似的に
断面線画像から作り出す役割を持つている。
Using this reference image as a template image for comparison and verification, comparison and verification are performed with an ultrasound image or with an image obtained by image processing the ultrasound image. This acoustic imaging filter is a spatial filter that simulates the ultrasonic image generation process, and has the role of creating an approximate image of what an object will look like when viewed using ultrasound from a cross-sectional line image.

この発明の実施に当り、このフイルタは、好ま
しくは一例として、断面線画像に対し超音波映像
センサのビーム方位特性による広がり効果及び距
離方向の微分特性効果を近似して与えるようなフ
イルタ特性をもたせるのが好適である。そして、
このフイルタは予め多数形成して読み出し可能な
メモリ内に格納しておいても良いし、或いはその
都度形成して用意しても良い。
In carrying out the present invention, the filter preferably has filter characteristics that approximate the spreading effect due to the beam direction characteristics of the ultrasonic image sensor and the differential characteristic effect in the distance direction to the cross-sectional line image. is preferable. and,
A large number of these filters may be formed in advance and stored in a readable memory, or they may be formed and prepared each time.

さらに、この発明の一実施例において、好まし
くは、前述した超音波映像としてBモード距離断
面像を用い及び前述した参照映像をBモード距離
断面像から生成するのが好適である。
Furthermore, in one embodiment of the present invention, it is preferable to use a B-mode distance cross-sectional image as the ultrasound image described above, and to generate the reference image described above from the B-mode distance cross-sectional image.

さらに、この発明の他の実施例においては、超
音波映像としてCモード正断面像を用い、Bモー
ド距離断面像の参照映像を複数枚使用してこのC
モード正断面像に対応した参照映像を生成するの
が好適である。
Furthermore, in another embodiment of the present invention, a C-mode normal cross-sectional image is used as the ultrasound image, and a plurality of reference images of B-mode distance cross-sectional images are used to obtain the C-mode normal cross-sectional image.
It is preferable to generate a reference image corresponding to a mode normal cross-sectional image.

さらに、この発明の他の実施例においては、超
音波映像としてBモード距離断面像及びCモード
正断面像を用い、これらB及びCモードの断面像
に対応する参照映像を組み合せて比較照合を行う
のが好適である。
Furthermore, in another embodiment of the present invention, a B-mode distance cross-sectional image and a C-mode normal cross-sectional image are used as ultrasound images, and reference images corresponding to these B and C-mode cross-sectional images are combined for comparison and verification. is preferable.

(作用) このように、この発明の比較照合方法によれ
ば、音響映像生成過程を模擬する音響映像化フイ
ルタを用いて対象物体の輪郭情報を表わしている
断面線画像に対し空間フイルタリング処理を行つ
て、音響映像としての参照映像を生成し、この参
照映像を超音波映像と比較照合する。
(Operation) As described above, according to the comparison and matching method of the present invention, a spatial filtering process is performed on a cross-sectional line image representing contour information of a target object using an audio-visualization filter that simulates the audio-visual generation process. A reference image is generated as an audio image, and this reference image is compared with an ultrasound image.

従つて、照合の際、類似度のピーク値が高くな
つて、不鮮明な映像或いは画質の劣化した映像で
あつても、参照映像と超音波映像とを安定かつ正
確に位置照合することが出来る。
Therefore, during matching, even if the peak value of similarity is high and the image is unclear or has degraded quality, it is possible to stably and accurately match the positions of the reference image and the ultrasound image.

(実施例) 以下、図面を参照してこの発明の比較照合方法
の実施例につき説明する。
(Example) Hereinafter, an example of the comparison and verification method of the present invention will be described with reference to the drawings.

尚、以下に説明する実施例は単なる好適実施例
であり、この発明は以下説明する実施例にのみ限
定されるものではないことを理解されたい。
It should be noted that the embodiments described below are merely preferred embodiments, and it should be understood that the present invention is not limited only to the embodiments described below.

第1図はこの発明の比較照合方法の一実施例の
説明に供する超音波映像比較照合装置の一構成例
を示すブロツク図である。尚、この図において、
第6図に示した従来装置の構成成分と同一の機能
を有する構成成分については同一の符号を付して
示し、その詳細な説明は省略する。第1図におい
て、30は断面線画像形成手段24と比較照合手
段18との間に設けられた参照映像形成手段であ
り、この参照映像形成手段30には一例として空
間フイルタ作成手段32、空間フイルタリング手
段34、図示はしていないがメモリ等の所要な手
段を設け、これら手段の各処理もコンピユータ、
専用シグナルプロセツサ或いはその他の任意好適
な処理手段によつて実行することが出来る。
FIG. 1 is a block diagram showing an example of the configuration of an ultrasonic image comparison and verification apparatus for explaining an embodiment of the comparison and verification method of the present invention. Furthermore, in this figure,
Components having the same functions as those of the conventional device shown in FIG. 6 are denoted by the same reference numerals, and detailed explanation thereof will be omitted. In FIG. 1, 30 is a reference image forming means provided between the cross-sectional line image forming means 24 and the comparing and matching means 18, and this reference image forming means 30 includes, for example, a spatial filter creating means 32, a spatial filter The ring means 34 is provided with necessary means such as a memory (not shown), and each processing of these means is also carried out by a computer,
It can be implemented by a dedicated signal processor or any other suitable processing means.

一方、この発明の実施例においては、超音波映
像データ形成手段12において得られた超音波映
像データを前処理手段14に送り、画質改善処理
済みの超音波映像データを比較照合手段18に供
給するか、或いは図示していないが、超音波映像
データ形成手段12から超音波映像データを比較
照合手段18に直接供給するように構成してあ
る。
On the other hand, in the embodiment of the present invention, the ultrasound image data obtained by the ultrasound image data forming means 12 is sent to the preprocessing means 14, and the ultrasound image data subjected to image quality improvement processing is supplied to the comparing means 18. Alternatively, although not shown, the ultrasonic image data is directly supplied from the ultrasonic image data forming means 12 to the comparison and verification means 18.

先ず、この発明の一実施例の動作につき説明す
る。
First, the operation of an embodiment of the present invention will be explained.

この発明によれば、断面線画像形成手段24か
ら参照映像形成手段30に断面線画像の情報を供
給する。この情報は、従来と同様な、例えば断面
の輪郭の全部又は一部分の情報に関する輪郭情報
である。
According to this invention, information on the cross-sectional line image is supplied from the cross-sectional line image forming means 24 to the reference image forming means 30. This information is, for example, contour information regarding all or part of the cross-sectional contour, as in the conventional case.

この参照映像形成手段30において、この輪郭
情報に対し、この情報の適切な音響映像生成過程
を模擬する音響映像化フイルタすなわち空間フイ
ルタを用いて、空間フイルタリング処理を行う。
この空間フイルタリング処理によつて参照映像を
生成し、この参照映像を比較照合手段18へと出
力させる。
This reference image forming means 30 performs spatial filtering processing on this contour information using an audio visualizing filter, that is, a spatial filter that simulates an appropriate audio image generation process of this information.
A reference video is generated by this spatial filtering process, and this reference video is output to the comparison/verification means 18.

次に、この参照映像形成手段の動作の一例につ
き第2図〜第4図を参照して説明する。
Next, an example of the operation of this reference image forming means will be explained with reference to FIGS. 2 to 4.

先ず、この音響映像化フイルタの形成の一実施
例につき説明する。
First, one embodiment of the formation of this audiovisual filter will be described.

この音響映像化フイルタを形成するに当つて、
超音波映像センサ10のビーム特性による広がり
効果及び距離方向に関する微分効果を実現するこ
とを考える。今、受波センサの素子数nをn=64
とし、素子間のピツチ間隔dをd=5.4mmとし、
超音波の送波周波数fをf=384KHzと仮定する。
音速cをc=1500m/sとすると、シエーデイン
グが無い場合、この超音波映像センサ10のビー
ムのパワー感度分布(パワー感度方位特性)w
(r,θ)は周知のように次式(2)で与えられる。
尚、この式(2)のパワー感度分布w(r,θ)は円
筒座標系の距離rに関してパワー感度分布が一定
と仮定した近似式w(θ)で与えられる。
In forming this audiovisual filter,
Consider realizing a spreading effect and a differential effect in the distance direction based on the beam characteristics of the ultrasonic image sensor 10. Now, the number of elements of the wave receiving sensor is n = 64.
and the pitch interval d between elements is d = 5.4 mm,
Assume that the ultrasonic transmission frequency f is 384 KHz.
Assuming that the sound speed c is c=1500 m/s, if there is no shedding, the power sensitivity distribution (power sensitivity azimuth characteristic) of the beam of this ultrasonic image sensor 10 w
As is well known, (r, θ) is given by the following equation (2).
Note that the power sensitivity distribution w(r, θ) in equation (2) is given by an approximate expression w(θ) assuming that the power sensitivity distribution is constant with respect to the distance r in the cylindrical coordinate system.

w(θ)= |sin{nπd・sinθ/(c/f)}/n・sin{πd・si
nθ/(c/f)}|2(2) この式(2)から、超音波映像センサ10から例え
ば距離7.68mだけ離れた位置において、この式(2)
で与えられるパワー感度分布において、パワー感
度が半減している(ピーク値の二分の一の値とな
る)位置での全幅を長さに換算すると約9.4cmで
ある。従つて、例えば、一画素3cmの映像とする
と、画素の広がり効果を3×3の空間フイルタで
模擬すれば、断面線画像に広がり効果及び距離方
向の微分特性を近似的に取り込むことが出来る。
w(θ)= |sin{nπd・sinθ/(c/f)}/n・sin{πd・si
nθ/(c/f)} | 2 (2) From this equation (2), at a position distant from the ultrasonic image sensor 10 by, for example, a distance of 7.68 m, this equation (2)
In the power sensitivity distribution given by , the total width at the position where the power sensitivity is halved (half the peak value) is approximately 9.4 cm when converted to length. Therefore, for example, in the case of an image with one pixel of 3 cm, by simulating the pixel spread effect with a 3×3 spatial filter, it is possible to approximately incorporate the spread effect and the differential characteristics in the distance direction into the cross-sectional line image.

次に、パワー感度分布が式(2)で与えられるよう
な場合に、この音響映像化(空間)フイルタを構
成する手順の一般例につき説明する。
Next, a general example of the procedure for configuring this audio-visualization (spatial) filter when the power sensitivity distribution is given by equation (2) will be explained.

第2図はこの発明の実施例の説明に供する動作
の流れ図である。尚、第2図において処理ステツ
プをSで示す。第3図A及びBはこの発明の実施
例の空間フイルタ作成の説明に供する説明図で、
横軸にθの換算距離を及び縦軸にパワー感度分布
w(θ)をそれぞれプロツトしたパワー感度分布
を示してある。
FIG. 2 is a flowchart of operations for explaining an embodiment of the present invention. Incidentally, in FIG. 2, a processing step is indicated by S. FIGS. 3A and 3B are explanatory diagrams for explaining the creation of a spatial filter according to the embodiment of this invention,
The power sensitivity distribution is shown by plotting the converted distance of θ on the horizontal axis and the power sensitivity distribution w(θ) on the vertical axis.

まず、超音波映像センサのパワー感度分布を求
める(S1)。このパワー感度分敷はこの実施例で
は第1図に示す外部情報入力手段20からの超音
波映像センサ10に関する前述した情報n,d,
c,f,θから求める。
First, find the power sensitivity distribution of the ultrasonic image sensor (S1). In this embodiment, this power sensitivity distribution is based on the above-mentioned information n, d,
Determine from c, f, and θ.

次に、パワー感度ピーク値Hの1/Kまでが映
像の広がりとして影響を与えるとすれば、パワー
感度ピーク値Hの1/K以上の値をとる全幅をと
る全幅を求める(S2)。
Next, assuming that up to 1/K of the power sensitivity peak value H affects the spread of the image, the total width that takes a value of 1/K or more of the power sensitivity peak value H is determined (S2).

次に、この全幅をN個のセグメントに等分割す
る(S3)。
Next, this total width is equally divided into N segments (S3).

次に、各セグメント毎に、零レベルからの平均
高さすなわちN個のセグメントパワー感度P1
PNをそれぞれ求める(S4)。これらのセグメント
パワー感度P1〜PNは互いに全部又は一部分が離
散値となつている。
Next, for each segment, the average height from the zero level, that is, the N segment power sensitivity P 1 ~
Find P N for each (S4). All or part of these segment power sensitivities P 1 to P N are discrete values.

これらセグメントパワー感度P1〜PNの値から
これらの適当なパワー感度比を演算し、広がり効
果及び微分効果の重み係数W1〜WNを求める
(S5)。この場合、この重み係数を前述の比の値
に適当な係数を乗算して求めても良いし或いは比
の値そのものを重み係数としても良い。
Appropriate power sensitivity ratios are calculated from the values of these segment power sensitivities P 1 to P N to determine weighting coefficients W 1 to W N for the spread effect and differential effect (S5). In this case, the weighting coefficient may be obtained by multiplying the aforementioned ratio value by an appropriate coefficient, or the ratio value itself may be used as the weighting coefficient.

次に、これら得られた重み係数W1〜WNをマト
リツクス配列処理を行つて音響映像化フイルタを
形成する(S6)。
Next, the obtained weighting coefficients W 1 to W N are subjected to matrix arrangement processing to form an audiovisual filter (S6).

次に、例えば、上述したように画素の広がり効
果を3×3の空間フイルタで模擬する場合には、
上述したステツプS1でパワー感度分布(第3図
B)を求めた後、ステツプS2において半減全幅
を求める。このため、例えばパワー感度ピーク値
H及びその二分の一の値(1/2)Hを演算し、続
いてこの値(1/2)H以上の値をとる全幅を演算
する。
Next, for example, when simulating the pixel spread effect with a 3×3 spatial filter as described above,
After determining the power sensitivity distribution (FIG. 3B) in step S1 described above, the full width at half reduction is determined in step S2. For this purpose, for example, the power sensitivity peak value H and its half value (1/2)H are calculated, and then the full width that takes a value equal to or greater than this value (1/2)H is calculated.

次に、ステツプS3において、この全幅を3個
のセグメントに等分し、次に、ステツプS4にお
いて、各セグメント毎に、セグメントパワー感度
P1、P2、P3をそれぞれ演算する。
Next, in step S3, this total width is equally divided into three segments, and then, in step S4, the segment power sensitivity is calculated for each segment.
Calculate P 1 , P 2 and P 3 respectively.

次に、ステツプS5でこれらセグメンテパワー
感度P1、P2、P3のパワー比の値を演算し、これ
らの値から、超音波映像センサ10のビーム特性
の広がり効果を表わす重み係数、すなわち、空間
フイルタの横方向の重み係数W1、W2、W3を演
算し、続いて、距離方向の微分効果を表わすフイ
ルタ縦方向の重み係数R1、R2、R3を演算して求
める。この実施例ではW1:W2:W3=1:2:
1とし、また、R1:R2:R3=−1:2:−1と
するが、何等これらの値に限定されるものではな
い。
Next, in step S5, the power ratio values of these segment power sensitivities P 1 , P 2 , and P 3 are calculated, and from these values, a weighting coefficient representing the spread effect of the beam characteristics of the ultrasonic image sensor 10, i.e. , calculate the horizontal weighting coefficients W 1 , W 2 , W 3 of the spatial filter, and then calculate the vertical weighting coefficients R 1 , R 2 , R 3 of the filter representing the differential effect in the distance direction. . In this example, W 1 :W 2 :W 3 =1:2:
1, and R 1 :R 2 :R 3 =-1:2:-1, but they are not limited to these values in any way.

そして、ステツプS6において、この重み係数
を3×3マトリツクス配列して空間フイルタを構
成する。
Then, in step S6, the weighting coefficients are arranged in a 3.times.3 matrix to form a spatial filter.

このようにして構成された音響映像化フイルタ
の構成例を第4図に示す。第4図において、フイ
ルタの列(横)方向は方位方向で広がりを示し、
行(縦)方向は距離方向で微分特性を示してい
る。この空間フイルタの作成手段32には、上述
したような各演算処理手段及び、例えばメモリの
ような、その他の所要な手段を具えている。ま
た、このような空間フイルタ作成手段32を組み
込んでその都度空間フイルタを作成する構成の代
わりに、予め多数形成して読み出し可能なメモリ
内に格納しておき、このメモリを用い、外部情報
に応じて適切な空間フイルタを呼び出し出来るよ
うに構成しても良い。
FIG. 4 shows an example of the configuration of the audio-visualization filter configured in this manner. In Figure 4, the row (horizontal) direction of the filters shows spread in the azimuth direction,
The row (vertical) direction shows differential characteristics in the distance direction. The spatial filter creation means 32 includes the above-mentioned arithmetic processing means and other necessary means, such as a memory. Moreover, instead of incorporating such a spatial filter creation means 32 and creating a spatial filter each time, a large number of spatial filters can be created in advance and stored in a readable memory, and this memory can be used to create a spatial filter according to external information. The configuration may be such that an appropriate spatial filter can be called.

次に、空間フイルタリング手段34において、
このようにして得られた音響映像化フイルタを、
断面線画像形成手段24から送られてくる断面線
画像に対し画像領域でたたみ込みを行つて、参照
映像を形成し出力させる。尚、このたたみ込み処
理は従来技術を用いて実施することが出来る。
Next, in the spatial filtering means 34,
The audiovisual filter obtained in this way is
The cross-sectional line image sent from the cross-sectional line image forming means 24 is convolved in the image area to form and output a reference image. Note that this convolution process can be performed using conventional techniques.

次に、比較照合手段18においては、この参照
映像を用いて、超音波映像との位置の比較照合を
行う。この比較照合は、参照映像から対象物体の
特徴を十分表現している部分を切り出してテンプ
レートとし、このテンプレート映像と超音波映像
との相互相関を求め、この値を最大とする位置を
照合位置とする方法、或いはその他の任意好適な
従来の方法で照合することが出来る。
Next, the comparison/verification means 18 uses this reference image to compare and verify the position with the ultrasonic image. In this comparison and matching, a portion that sufficiently expresses the characteristics of the target object is cut out from the reference image and used as a template, the cross-correlation between this template image and the ultrasound image is determined, and the position where this value is maximized is set as the matching position. or any other suitable conventional method.

上述した実施例において、超音波映像のモード
について特に説明しなかつたが、周知のように、
Bモード及びCモード断面像がある。
In the above-mentioned embodiments, the ultrasonic image mode was not particularly explained, but as is well known,
There are B-mode and C-mode cross-sectional images.

このBモードは、第5図Aに概略的に示すよう
に、超音波映像センサから対象物体40に対し水
平面内で扇状に超音波ビームを送波して得られる
距離断面像(水平断面像)44であり、この扇状
ビームを送波フアンビームという。尚、図示例で
は、対象物体を円柱状として示してあるが、この
形状は、他の任意好適な形状であつても良い。
As schematically shown in FIG. 5A, this B mode is a distance cross-sectional image (horizontal cross-sectional image) obtained by transmitting an ultrasonic beam in a fan shape in a horizontal plane from an ultrasonic image sensor to a target object 40. 44, and this fan-shaped beam is called a transmission fan beam. In the illustrated example, the target object is shown as having a cylindrical shape, but this shape may be any other suitable shape.

Cモードは、第5図Bに示すように、この送波
フアンビームを上下に多数分割して振らせたとき
得られる中心から等距離△c(△は時間、cは音
速)だけ離れた等距離面Eでの断面像である。従
つて、この発明の一実施例では、超音波映像をB
モード距離断面像とし、前述した参照映像をこの
Bモード距離断面像から形成するのが好適であ
る。Bモードでの比較照合によれば、距離断面上
での物体の方向と位置(例えば水平面内での2次
元位置)が分る。
As shown in Figure 5B, the C mode is an equal distance △c (△ is time, c is the speed of sound) from the center obtained by dividing this transmitting fan beam vertically into many parts and swinging it. This is a cross-sectional image on the distance plane E. Therefore, in one embodiment of the present invention, the ultrasound image is
It is preferable to use the B-mode distance cross-sectional image as a B-mode distance cross-sectional image, and to form the reference image described above from this B-mode distance cross-sectional image. By comparing and matching in B mode, the direction and position of the object on the distance cross section (for example, the two-dimensional position in the horizontal plane) can be determined.

或いは又、超音波映像をCモード正断面像と
し、Bモード距離断面像の参照映像を複数枚使用
して、このCモード正断面像に対応した参照映像
を形成するのが好適である。このCモード映像に
対する参照映像を生成するためには、例えば送波
フアンビームの振りの角度δ(第5図B)毎に対
応したBモード断面線画像に対応して生成された
(Bモードの)参照映像(第5図Cに46で代表し
て示す)を適当なメモリにストアしておき、これ
ら(Bモードの)参照映像46を3次元的に配置
し、等距離面で切断した断面像をCモードの参照
映像とする。このCモードでの比較照合によれ
ば、距離を固定した面内での位置(例えば、左右
どの方向に上下どれだけの位置にあるか)が分
る。
Alternatively, it is preferable to use a C-mode normal cross-sectional image as the ultrasound image and use a plurality of reference images of B-mode distance cross-sectional images to form a reference image corresponding to this C-mode normal cross-sectional image. In order to generate a reference image for this C-mode image, for example, it is necessary to generate a reference image corresponding to a B-mode cross-sectional line image (B-mode ) Reference images (representatively shown as 46 in FIG. 5C) are stored in an appropriate memory, and these (B-mode) reference images 46 are arranged three-dimensionally and a cross section is cut along an equidistant plane. The image is used as a C-mode reference image. According to this comparison and verification in the C mode, the position within a plane with a fixed distance (for example, in which direction, left or right, and how far up or down) can be determined.

或いは又、超音波映像としてBモード距離断面
像及びCモード正断面像を用い、これらB及びC
モードの断面像に対応する参照映像を組み合せて
比較照合に用いるのが好適である。前述したよう
に、BモードとCモードの断面像に対応する参照
映像が求められているとき(すなわち、照合のた
めのモデル映像が得られているとき)、Bモード
のみや、Cモードのみの映像だけを用いて照合を
行うよりも両方のモードの参照映像を同時に用い
て、或いは時間順次に交互に用いて比較照合する
ことによつて精度の高い照合が期待出来る。同時
に用いる場合には、例えば、比較照合の際にBモ
ードとCモードの場合の類似度をRb及びRcとす
るとき、αを0<α<1となる実数とし、 R=αRb+(1−α)Rc なる新たな類似度を定義する。この値が最大とな
るBモード映像及びCモード映像の位置が対処物
体の位置を示すこととなる。既に説明したよう
に、Bモードはビームの上下を固定したときの2
次元映像、及びCモードは距離を固定したときの
2次元映像であるので、両者を用いることによつ
て、対象物体の種々の特徴を組み合せた安定度の
高い照合を行い得る。又、物体の3次元位置も照
合可能である。
Alternatively, using a B-mode distance cross-sectional image and a C-mode normal cross-sectional image as ultrasound images, these B and C
It is preferable to use a combination of a reference image corresponding to a cross-sectional image of the mode for comparison and verification. As mentioned above, when a reference image corresponding to B-mode and C-mode cross-sectional images is required (that is, when a model image for comparison has been obtained), only B-mode or C-mode only cross-sectional images are required. Highly accurate matching can be expected by comparing and matching by using reference videos of both modes simultaneously or time-sequentially and alternately, rather than performing matching using only videos. When used simultaneously, for example, when the similarity between B mode and C mode is R b and R c during comparison and matching, α is a real number such that 0<α<1, and R=αR b + A new degree of similarity called (1-α)R c is defined. The position of the B-mode image and C-mode image where this value is maximum indicates the position of the object to be dealt with. As already explained, B mode is 2 when the top and bottom of the beam are fixed.
Since the dimensional image and the C mode are two-dimensional images when the distance is fixed, by using both, it is possible to perform highly stable matching that combines various features of the target object. Furthermore, the three-dimensional position of the object can also be verified.

これら参照映像作成のためのモードは外部情報
入力手段20によつて設定し、断面像データ発生
手段22から対応するBモード距離断面像を発生
させる。Cモードを用いる場合、又はBモード及
びCモードを用いる場合には、断面像データ発生
手段22においてBモードの断面像を同時に多数
枚処理することが出来るようにすると共に、参照
映像形成手段30で並列処理出来るように構成す
ることも出来る。この場合、勿論、断面像データ
発生手段22及び参照映像形成手段30において
B及びCモードの断面像を一枚ずつ処理し、処理
されて得られたそれぞれの参照映像をメモリに一
旦格納し、その後同時にメモリから読み出して比
較照合手段18へ送るように構成することも出来
る。
The mode for creating these reference images is set by the external information input means 20, and the corresponding B-mode distance cross-sectional image is generated from the cross-sectional image data generating means 22. When using C mode, or when using B mode and C mode, the cross sectional image data generating means 22 should be able to process a large number of B mode cross sectional images at the same time, and the reference image forming means 30 should be able to process a large number of B mode cross sectional images at the same time. It can also be configured to allow parallel processing. In this case, of course, the cross-sectional image data generating means 22 and the reference image forming means 30 process the B and C mode cross-sectional images one by one, and each reference image obtained through processing is temporarily stored in the memory, and then It is also possible to configure the data to be simultaneously read from the memory and sent to the comparison/verification means 18.

この発明は上述した実施例にのみ限定されるも
のではなく、多くの変形及び変更を成し得ること
明らかである。例えば、空間フイルタ作成手段を
上述した方法以外の任意好適な手順でも作成する
ことが出来る。また、空間フイルタとして3×3
マトリツクスフイルタを説明したが、これに限定
されるものではなく、必要ならば一般にN行M列
(N=Mを含む)のマトリツクスフイルタとして
も形成することが出来る。
It is clear that the invention is not limited only to the embodiments described above, but can be subjected to many variations and modifications. For example, the spatial filter creation means can be created using any suitable procedure other than the method described above. Also, as a spatial filter, 3×3
Although a matrix filter has been described, the invention is not limited to this, and if necessary, it can generally be formed as a matrix filter with N rows and M columns (N=M included).

(発明の効果) 上述した説明からも明らかなように、この発明
の比較照合方法によれば、音響映像モデルとして
音響映像化フイルタを用いて得た参照映像を用い
て、超音波映像との比較照合を行うのであるか
ら、光学映像と見え方の異なる超音波映像、不鮮
明な超音波映像、画質の劣化している超音波映像
に対しても正確に比較照合を行うことが出来る。
(Effects of the Invention) As is clear from the above description, according to the comparison method of the present invention, a reference image obtained using an audio-visualization filter is used as an audio-visual model, and a comparison with an ultrasound image is performed. Since this method performs matching, it is possible to accurately compare and match ultrasound images that look different from optical images, are unclear, or have degraded image quality.

従つて、この発明は超音波映像を用いた位置同
定システム、認識システム或いはその他の任意好
適な超音波画像処理装置に適用して好適である。
Therefore, the present invention is suitable for application to a position identification system, a recognition system, or any other suitable ultrasound image processing device using ultrasound images.

【図面の簡単な説明】[Brief explanation of drawings]

第1図はこの発明の比較照合方法の一実施例の
説明に供する超音波映像比較照合装置の一構成例
を示すブロツク図、第2図はこの発明の実施例の
説明に供する動作の流れ図、第3図はこの発明の
実施例の空間フイルタ作成の説明に供する説明
図、第4図はこの発明の比較照合方法に用いる音
響映像化フイルタの一例を示す図、第5図はこの
発明の説明に供する超音波映像モードの説明図、
第6図は従来の比較照合方法の説明に供する装置
の構成例を示すブロツク図である。 10…超音波映像センサ、12…超音波映像デ
ータ形成手段、14…前処理手段、16…二値化
処理回路、18…比較照合手段、20…外部情報
入力手段、22…断面像データ発生手段、24…
断面線画像形成手段、26…表示手段、30…参
照映像形成手段、32…空間フイルタ作成手段、
34…空間フイルタリング手段、40…対象物
体、42…送波フアンビーム、44…水平断面
像、46…(Bモードの)参照映像。
FIG. 1 is a block diagram showing an example of the configuration of an ultrasonic image comparison and verification device to explain an embodiment of the comparison and verification method of the present invention, and FIG. 2 is a flowchart of an operation to explain the embodiment of the invention. FIG. 3 is an explanatory diagram for explaining the creation of a spatial filter according to an embodiment of the present invention, FIG. 4 is a diagram showing an example of an audiovisual filter used in the comparison and matching method of the present invention, and FIG. 5 is an explanatory diagram for explaining the present invention. An explanatory diagram of the ultrasound image mode used for
FIG. 6 is a block diagram showing an example of the configuration of an apparatus for explaining a conventional comparison and verification method. 10... Ultrasonic image sensor, 12... Ultrasonic image data forming means, 14... Pre-processing means, 16... Binarization processing circuit, 18... Comparison/verification means, 20... External information input means, 22... Cross-sectional image data generation means , 24...
Cross-sectional line image forming means, 26... Display means, 30... Reference image forming means, 32... Spatial filter creating means,
34...Spatial filtering means, 40...Target object, 42...Transmission fan beam, 44...Horizontal sectional image, 46...(B mode) reference image.

Claims (1)

【特許請求の範囲】 1 対象物体からの超音波散乱信号を超音波映像
センサで受波して得られた超音波映像データと、
この対象物体に関する位置、姿勢データ等から得
られた断面線画像とに基づいて、超音波映像と対
象物体との位置の比較照合を行うに当り、 前記断面線画像に対し、超音波映像生成過程を
模擬する音響映像化フイルタによつて、空間フイ
ルタリング処理を行つて参照映像を生成し、前記
超音波映像と前記参照映像との比較照合又は前記
超音波映像を画像処理して得た映像と前記参照映
像との比較照合を行うこと を特徴とする比較照合方法。 2 前記音響映像化フイルタは、前記断面線画像
に対し前記超音波映像センサのビーム方位特性に
よる広がり効果及び距離方向の微分特性効果を近
似して与えるようなフイルタ特性を有することを
特徴とする特許請求の範囲第1項記載の比較照合
方法。 3 前記超音波映像としてBモード距離断面像を
用い及び前記参照映像を前記Bモード距離断面線
画像から生成することを特徴とする特許請求の範
囲第1項又は第2項に記載の比較照合方法。 4 前記超音波映像としてCモード正断面像を用
い、Bモード距離断面像の参照映像を複数枚使用
して前記Cモード正断面像に対応した参照映像を
生成することを特徴とする特許請求の範囲第1項
又は第2項に記載の比較照合方法。 5 前記超音波映像としてBモード距離断面像及
びCモード正断面像を用い、これらB及びCモー
ドの断面像に対応する参照映像を組み合せて比較
照合を行うことを特徴とする特許請求の範囲第1
項又は第2項に記載の比較照合方法。
[Claims] 1. Ultrasonic image data obtained by receiving an ultrasonic scattering signal from a target object with an ultrasonic image sensor;
In order to compare and match the position of the ultrasound image and the target object based on the cross-sectional line image obtained from the position, posture data, etc. regarding the target object, an ultrasound image generation process is performed on the cross-sectional line image. A reference image is generated by performing spatial filtering processing using an audio imaging filter that simulates A comparison and verification method characterized by performing comparison and verification with the reference video. 2. A patent characterized in that the acoustic imaging filter has filter characteristics that approximate the spread effect due to the beam azimuth characteristics of the ultrasonic image sensor and the differential characteristic effect in the distance direction to the cross-sectional line image. A comparative verification method according to claim 1. 3. The comparison and verification method according to claim 1 or 2, characterized in that a B-mode distance cross-sectional image is used as the ultrasound image, and the reference image is generated from the B-mode distance cross-sectional line image. . 4. A C-mode normal cross-sectional image is used as the ultrasound image, and a plurality of reference images of B-mode distance cross-sectional images are used to generate a reference image corresponding to the C-mode normal cross-sectional image. Comparison and verification method described in scope 1 or 2. 5. Claim 5, characterized in that a B-mode range cross-sectional image and a C-mode normal cross-sectional image are used as the ultrasound images, and reference images corresponding to these B and C-mode cross-sectional images are combined to perform comparison and verification. 1
or the comparative verification method described in paragraph 2.
JP21798286A 1986-09-18 1986-09-18 Comparing and matching method Granted JPS6375582A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP21798286A JPS6375582A (en) 1986-09-18 1986-09-18 Comparing and matching method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP21798286A JPS6375582A (en) 1986-09-18 1986-09-18 Comparing and matching method

Publications (2)

Publication Number Publication Date
JPS6375582A JPS6375582A (en) 1988-04-05
JPH0435718B2 true JPH0435718B2 (en) 1992-06-11

Family

ID=16712768

Family Applications (1)

Application Number Title Priority Date Filing Date
JP21798286A Granted JPS6375582A (en) 1986-09-18 1986-09-18 Comparing and matching method

Country Status (1)

Country Link
JP (1) JPS6375582A (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7051625B2 (en) * 2018-07-12 2022-04-11 古野電気株式会社 Underwater detector and underwater detection method

Also Published As

Publication number Publication date
JPS6375582A (en) 1988-04-05

Similar Documents

Publication Publication Date Title
US7887485B2 (en) Ultrasonic image boundary extracting method, ultrasonic image boundary extracting apparatus, and ultrasonic imaging apparatus
US7864998B2 (en) Apparatus and method for processing an ultrasound spectrum image
US6463176B1 (en) Image recognition/reproduction method and apparatus
JP6689253B2 (en) Ultrasonic imaging device
US20050267366A1 (en) Ultrasonic diagnostic apparatus and image processing method
EP1882450B1 (en) Ultrasonographic device and image processing method thereof
US6494837B2 (en) System and method for three-dimensional ultrasound imaging using a steerable probe
US6824517B2 (en) Ultrasound quantification in real-time using acoustic data in more than two dimensions
JP2003220060A (en) Method and system for ultrasonic blood flow photographing and volumetric flow rate calculation
JPS61501615A (en) three dimensional image system
WO2019127621A1 (en) Ultrasonic imaging method, system and device
US11523737B2 (en) System and method for determining audio characteristics from within a body
JP3558300B2 (en) 3D display device
EP1083443B1 (en) Ultrasonic image apparatus for separating object
JP2006055266A (en) Ultrasonic diagnostic device
JPH0435718B2 (en)
CN111789635A (en) Ultrasonic imaging apparatus and image processing apparatus
JP2013165922A (en) Ultrasonic diagnostic apparatus
JP2001324313A (en) Three-dimensional shape measuring instrument
US20090005681A1 (en) Ultrasound System And Method Of Forming Ultrasound Image
JP2768627B2 (en) Ultrasound image processing device
JP3328165B2 (en) Ultrasound image 3D display
CN110634139A (en) Image comparison method and system
JP3413095B2 (en) Tomographic image processing method and apparatus
WO2022114131A1 (en) Diagnostic imaging device, diagnostic imaging method, program, and method for creating training data for machine learning

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term