JPWO2013061664A1 - Ultrasonic imaging apparatus, ultrasonic imaging method, and ultrasonic imaging program - Google Patents

Ultrasonic imaging apparatus, ultrasonic imaging method, and ultrasonic imaging program Download PDF

Info

Publication number
JPWO2013061664A1
JPWO2013061664A1 JP2013540685A JP2013540685A JPWO2013061664A1 JP WO2013061664 A1 JPWO2013061664 A1 JP WO2013061664A1 JP 2013540685 A JP2013540685 A JP 2013540685A JP 2013540685 A JP2013540685 A JP 2013540685A JP WO2013061664 A1 JPWO2013061664 A1 JP WO2013061664A1
Authority
JP
Japan
Prior art keywords
norm
region
value
interest
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013540685A
Other languages
Japanese (ja)
Other versions
JP5813779B2 (en
Inventor
裕也 増井
裕也 増井
東 隆
隆 東
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Aloka Medical Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Aloka Medical Ltd filed Critical Hitachi Aloka Medical Ltd
Priority to JP2013540685A priority Critical patent/JP5813779B2/en
Publication of JPWO2013061664A1 publication Critical patent/JPWO2013061664A1/en
Application granted granted Critical
Publication of JP5813779B2 publication Critical patent/JP5813779B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5207Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0858Detecting organic movements or changes, e.g. tumours, cysts, swellings involving measuring tissue layers, e.g. skin, interfaces
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • A61B8/14Echo-tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B8/469Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means for selection of a region of interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5246Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from the same or different imaging techniques, e.g. color Doppler and B-mode
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52023Details of receivers
    • G01S7/52036Details of receivers using analysis of echo signal for target characterisation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52053Display arrangements
    • G01S7/52057Cathode ray tube displays
    • G01S7/52071Multicolour displays; using colour coding; Optimising colour or information content in displays, e.g. parametric imaging
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/485Diagnostic techniques involving measuring strain or elastic properties

Abstract

動きベクトルを求めることなく、直接スカラー場画像を作成して組織の境界が把握可能な超音波イメージング装置を提供する。受信信号を処理して2フレーム以上の画像を生成し、画像から2フレームを選択し、1のフレームに複数の関心領域、別の1のフレームに関心領域よりも広い探索領域を複数の関心領域ごとに設定する。探索領域内には関心領域と対応する大きさの候補領域を複数設定する。関心領域の画素値と候補領域内の画素値との間のノルムを、複数の候補領域ごとに求めることにより、探索領域内のノルムの分布を求める。ノルムの分布状態を表す値を、探索領域に対応する関心領域の画素値として画像を生成する。Provided is an ultrasonic imaging apparatus capable of directly creating a scalar field image and grasping a tissue boundary without obtaining a motion vector. The received signal is processed to generate an image of two or more frames, two frames are selected from the images, a plurality of regions of interest in one frame, and a plurality of regions of interest that are wider than the region of interest in another frame Set for each. A plurality of candidate regions having a size corresponding to the region of interest are set in the search region. The norm between the pixel value in the region of interest and the pixel value in the candidate region is obtained for each of the plurality of candidate regions, thereby obtaining the norm distribution in the search region. An image is generated using a value representing the norm distribution state as a pixel value of a region of interest corresponding to the search region.

Description

本発明は、超音波により生体のイメージングを行う際に組織境界を明瞭に識別することが可能な超音波イメージング方法および超音波イメージング装置に関する技術である。   The present invention relates to an ultrasonic imaging method and an ultrasonic imaging apparatus that can clearly identify a tissue boundary when imaging a living body using ultrasonic waves.

医療画像診断に用いられる超音波撮像装置においては、診断動画像(Bモード画像)の小領域の変化量に基づいて組織の弾性係数分布を推定して、硬さをカラーマップに変換して表示する方法が知られている。しかしながら、例えば腫瘍の辺縁部の場合、周囲の組織に対して、音響インピーダンスも弾性率も大きく異ならないことがあり、このような場合には、診断動画像においても弾性画像においても腫瘍と周囲の組織との境界を把握できない。   In an ultrasound imaging device used for medical image diagnosis, the elasticity coefficient distribution of a tissue is estimated based on the amount of change in a small area of a diagnostic moving image (B-mode image), and the hardness is converted into a color map for display. How to do is known. However, for example, in the case of the peripheral part of a tumor, the acoustic impedance and the elastic modulus may not differ greatly with respect to the surrounding tissue. I cannot grasp the boundary with other organizations.

そこで、時系列で異なる2つの診断画像データについてブロックマッチング処理により診断画像の各領域の動きベクトルを求め、動きベクトルからスカラー場画像を作成する手法がある。これにより、音響インピーダンスも弾性率も周囲と大きく異ならない組織の境界を識別することができる。   Therefore, there is a method of obtaining a motion vector of each region of a diagnostic image by block matching processing for two different diagnostic image data in time series and creating a scalar field image from the motion vector. As a result, it is possible to identify a boundary between tissues whose acoustic impedance and elastic modulus are not significantly different from those of the surroundings.

しかしながら、エコー信号が微弱になるペネトレーション限界領域等のように画像データにノイズの多い領域では、動きベクトルを求める際にノイズの影響により誤りベクトルが発生し、境界の識別度が劣化する。そこで、特許文献1では、動きベクトルを求める際に、関心領域の移動先の候補である複数領域と、関心領域との画像データの類似度を求め、類似度分布からその関心領域について求めた動きベクトルの信頼度を判定している。動きベクトルの信頼度が低い場合には、その動きベクトルを除去等することができるため、境界の識別度を向上させることができる。   However, in areas where there is a lot of noise in the image data, such as a penetration limit area where the echo signal is weak, an error vector is generated due to the influence of noise when obtaining a motion vector, and the boundary discrimination is degraded. Therefore, in Patent Document 1, when obtaining a motion vector, the similarity of image data between a plurality of regions that are candidates for the destination of the region of interest and the region of interest is obtained, and the motion obtained for the region of interest from the similarity distribution The reliability of the vector is judged. When the reliability of the motion vector is low, the motion vector can be removed and the boundary identification can be improved.

国際公開WO2011/052602号International Publication WO2011 / 052602

従来の特許文献1等に記載の動きベクトルを求めて組織の境界を識別する方法は、ブロックマッチング処理により画像上の各領域の動きベクトルを求め、この動きベクトルをスカラーに変換してスカラー場画像を作成するという二つの工程が必要である。   A conventional method of identifying a tissue boundary by obtaining a motion vector described in Patent Document 1 or the like obtains a motion vector of each region on an image by block matching processing, converts the motion vector into a scalar, and generates a scalar field image. Two steps are required:

本発明の目的は、動きベクトルを求めることなく、直接スカラー場画像を作成して被検体の境界が把握可能な超音波イメージング装置を提供することにある。   An object of the present invention is to provide an ultrasonic imaging apparatus that can directly create a scalar field image and grasp the boundary of an object without obtaining a motion vector.

上記目的を達成するために、本発明の第1の態様によれば、以下のような超音波イメージング装置が提供される。すなわち、対象に向かって超音波を送信する送信部と、対象から到来する超音波を受信する受信部と、受信部の受信信号を処理して2フレーム以上の画像を生成する処理部とを有する。処理部は、生成した2フレーム以上の画像のうち、1のフレームに複数の関心領域を設定し、別の1のフレームに前記関心領域よりも広い探索領域を前記複数の関心領域ごとに設定し、探索領域内に関心領域と対応する大きさの候補領域を複数設定し、関心領域の画素値と前記候補領域内の画素値との間のノルムを、複数の候補領域ごとに求めることにより、探索領域内のノルムの分布を求め、ノルムの分布状態を表す値(スカラー値)を、探索領域に対応する関心領域の画素値として画像を生成する。   In order to achieve the above object, according to the first aspect of the present invention, the following ultrasonic imaging apparatus is provided. That is, a transmission unit that transmits ultrasonic waves toward a target, a reception unit that receives ultrasonic waves coming from the target, and a processing unit that processes a reception signal of the reception unit to generate an image of two or more frames. . The processing unit sets a plurality of regions of interest in one frame among the generated images of two or more frames, and sets a search region wider than the region of interest for each of the plurality of regions of interest in another one frame. , By setting a plurality of candidate regions of a size corresponding to the region of interest in the search region, and obtaining a norm between the pixel value of the region of interest and the pixel value in the candidate region for each of the plurality of candidate regions, A norm distribution in the search region is obtained, and an image is generated using a value (scalar value) representing the norm distribution state as a pixel value of the region of interest corresponding to the search region.

本発明によれば、探索領域のノルムの分布状態を表す値を求める。ノルムは、境界があれば、境界に沿って低い値を示す。よって、ノルムの分布状態を表す値(スカラー値)を、探索領域に対応する関心領域の画素値として画像を生成するため、ベクトル場を生成することなく、被検体の境界を表わす画像を生成することができる。   According to the present invention, a value representing the norm distribution state of the search area is obtained. The norm indicates a low value along the boundary if there is a boundary. Therefore, since an image is generated using a value representing the norm distribution state (scalar value) as a pixel value of the region of interest corresponding to the search region, an image representing the boundary of the subject is generated without generating a vector field. be able to.

第1の実施形態の超音波イメージング装置のシステム構成例を示すブロック図。1 is a block diagram showing a system configuration example of an ultrasonic imaging apparatus according to a first embodiment. 第1の実施形態の超音波イメージング装置による画像生成の処理手順を示すフローチャート。5 is a flowchart showing a processing procedure for image generation by the ultrasonic imaging apparatus according to the first embodiment. 図2のステップ24の詳細を示すフローチャート。The flowchart which shows the detail of step 24 of FIG. 図2のステップ24の処理を2層構造の被検体(ファントム)で説明する図。The figure explaining the process of step 24 of FIG. 2 with the test object (phantom) of 2 layer structure. (a)は、関心領域が静止部にある場合の、探索領域のpノルム分布を示す分布図、(b)は、(a)のpノルム分布のヒストグラム、(c)は、第1の実施形態の関心領域が境界部にある場合の、探索領域のpノルム分布を示す分布図、(d)は、(c)のpノルム分布のヒストグラム。(A) is a distribution diagram showing the p-norm distribution of the search region when the region of interest is in the stationary part, (b) is a histogram of the p-norm distribution of (a), and (c) is the first implementation. FIG. 7D is a distribution diagram showing the p-norm distribution of the search area when the region of interest is at the boundary, and FIG. 6D is a histogram of the p-norm distribution of FIG. (a)第1の実施形態のBモード像、(b)第1の実施形態のスカラー場画像、(c)従来のベクトル場画像、(d)従来のベクトル場画像の歪テンソル画像。(A) B-mode image of the first embodiment, (b) Scalar field image of the first embodiment, (c) conventional vector field image, (d) distortion tensor image of the conventional vector field image. (a)第1の実施形態のスカラー場画像と、Bモード画像との重畳画像を示す説明図、(b)第1の実施形態のスカラー場画像と、Bモード画像と、ベクトル場画像との重畳画像を示す説明図。(A) Explanatory drawing which shows the superimposed image of the scalar field image and B mode image of 1st Embodiment, (b) The scalar field image of 1st Embodiment, B mode image, and a vector field image Explanatory drawing which shows a superimposed image. 第1の実施形態の超音波イメージング装置による画像生成の処理手順を示すフローチャート。5 is a flowchart showing a processing procedure for image generation by the ultrasonic imaging apparatus according to the first embodiment. (a)スカラー場画像に虚像が生じた例を示す画像、(b)第2の実施形態のpノルム値の平均値と頻度のヒストグラム、(c)第2の実施形態で低信頼部を暗色表示に置き換えたスカラー場画像。(A) Image showing an example in which a virtual image is generated in a scalar field image, (b) Histogram of average value and frequency of p-norm value of second embodiment, (c) Dark color of low-reliability part in second embodiment Scalar field image replaced with display. 第2の実施形態の画像の処理手順を示すフローチャート。9 is a flowchart illustrating an image processing procedure according to the second embodiment. 第3の実施形態の画像の生成手順を示すフローチャート。10 is a flowchart illustrating an image generation procedure according to the third embodiment. (a)〜(h)第3の実施形態の探索領域に設定する8つの方向のモデルを示す説明図。(A)-(h) Explanatory drawing which shows the model of eight directions set to the search area | region of 3rd Embodiment. (a)〜(c)第6の実施形態の境界の向きとベクトル場のパターン例を示す説明図。(A)-(c) Explanatory drawing which shows the direction of the boundary of 6th Embodiment, and the example of a pattern of a vector field. 第6の実施形態の境界ノルムを求める手順を示すフローチャート。The flowchart which shows the procedure which calculates | requires the boundary norm of 6th Embodiment. 第7の実施形態で一部重複して設定されたROIを示す説明図。Explanatory drawing which shows ROI set partially overlapping in 7th Embodiment. 第7の実施形態のルックアップテーブルを用いた演算量低減のための処理手順を示すフローチャート。The flowchart which shows the process sequence for the amount of calculations reduction using the look-up table of 7th Embodiment. 第8の実施形態で連続フレームについて求めた情報エントロピーを示すグラフ。The graph which shows the information entropy calculated | required about the continuous frame in 8th Embodiment. 第8の実施形態の情報エントロピーを用いる画像表示の処理手順を示すフローチャート。The flowchart which shows the process sequence of the image display using the information entropy of 8th Embodiment. (a)第9の実施形態の抽出されたスカラー場画像と、ベクトル場画像と、Bモード画像の重畳画像を示す説明図、(b)スカラー場画像のスカラー値と頻度のヒストグラム。(A) Explanatory drawing which shows the superimposed image of the extracted scalar field image of 9th Embodiment, a vector field image, and a B-mode image, (b) The histogram of the scalar value and frequency of a scalar field image. 第9の実施形態の抽出したスカラー場画像を生成する処理手順を示すフローチャート。The flowchart which shows the process sequence which produces | generates the extracted scalar field image of 9th Embodiment.

本発明の超音波イメージング装置は、対象に向かって超音波を送信する送信部と、対象から到来する超音波を受信する受信部と、受信部の受信信号を処理して2フレーム以上の画像を生成する処理部とを有する。処理部は、生成した2フレーム以上の画像のうち、1のフレームに複数の関心領域を設定し、別の1のフレームに関心領域よりも広い探索領域を複数の関心領域ごとに設定する。探索領域内には、関心領域と対応する大きさの候補領域を複数設定する。処理部は、関心領域の画素値と候補領域内の画素値との間のノルムを、複数の候補領域ごとに求めることにより、探索領域内のノルムの分布を求め、ノルムの分布状態を表す値(スカラー値)を、探索領域に対応する関心領域の画素値として画像を生成する。ここで、関心領域において画素値の代わりに受信信号の振幅値あるいは位相値を直接用いてノルムを算出することも可能である。画素値は対数圧縮処理を施されているため、元の受信信号の方が線形な変化が正確に反映されて高分解能化が図られる。   An ultrasonic imaging apparatus according to the present invention includes a transmission unit that transmits ultrasonic waves toward a target, a reception unit that receives ultrasonic waves coming from the target, and processes a reception signal of the reception unit to generate an image of two or more frames. And a processing unit to be generated. The processing unit sets a plurality of regions of interest in one frame among the generated two or more frames, and sets a search region wider than the region of interest in another frame for each of the plurality of regions of interest. A plurality of candidate regions having a size corresponding to the region of interest are set in the search region. The processing unit obtains a norm between the pixel value in the region of interest and the pixel value in the candidate region for each of the plurality of candidate regions, thereby obtaining a norm distribution in the search region, and representing the norm distribution state An image is generated using (scalar value) as the pixel value of the region of interest corresponding to the search region. Here, in the region of interest, it is also possible to calculate the norm by directly using the amplitude value or phase value of the received signal instead of the pixel value. Since the pixel value is logarithmically compressed, a linear change is more accurately reflected in the original received signal, and high resolution is achieved.

ノルムは、境界があれば、境界に沿って低い値を示すため、ノルムの分布状態を表す値(スカラー値)を、探索領域に対応する関心領域の画素値として画像を生成することにより、本発明の超音波イメージング装置は、ベクトル場を生成することなく、被検体の境界を表わす画像を生成することができる。   Since the norm indicates a low value along the boundary if there is a boundary, a value representing the distribution state of the norm (scalar value) is generated as a pixel value of the region of interest corresponding to the search region. The ultrasonic imaging apparatus of the invention can generate an image representing the boundary of the subject without generating a vector field.

ノルムは、下記式(1)で表わされるpノルム(べき乗ノルムともいう)を用いることができる。   As the norm, a p-norm (also referred to as a power norm) represented by the following formula (1) can be used.

Figure 2013061664
ただし、Pm(i、j)は、前記関心領域内の所定の位置(i、j)(例えば中心位置)にある画素の画素値、Pm+Δ(i、j)は、前記候補領域内の位置(i、j)にある画素の画素値、pは予め定めた実数である。
Figure 2013061664
However, P m (i 0 , j 0 ) is a pixel value of a pixel at a predetermined position (i 0 , j 0 ) (for example, the center position) in the region of interest, and P m + Δ (i, j) is The pixel value of the pixel at position (i, j) in the candidate area, p is a predetermined real number.

上記pは、1よりも大きい実数であることが望ましい。   The p is preferably a real number larger than 1.

ノルムの分布状態を表す値(スカラー値)としては、例えば、ノルム分布の統計量を用いる。例えば、統計量として、探索領域内のノルム分布のノルム値の最小値と、ノルム値の平均値との差で定義される乖離度を用いることができる。また、例えば、探索領域内のノルム分布のノルム値の標準偏差を平均値で除算した変動係数を統計量として用いることができる。   As a value (scalar value) representing the norm distribution state, for example, a norm distribution statistic is used. For example, as the statistic, a divergence degree defined by the difference between the minimum value of the norm value of the norm distribution in the search region and the average value of the norm values can be used. Further, for example, a variation coefficient obtained by dividing the standard deviation of the norm value of the norm distribution in the search region by the average value can be used as the statistic.

ノルムの分布状態を表す値(スカラー値)としては、統計量以外の値を用いることも可能である。例えば、探索領域内に設定した着目領域を中心とした複数の方向のうち、その方向に沿った位置にある候補領域のノルム値の平均が最小になる第1方向と、着目領域を通って第1方向と直交する第2方向とをそれぞれ求め、第1方向に沿った候補領域のノルム値の平均と、第2の方向に沿った候補領域のノルム値の平均との比率値または差分値を、探索領域に対応する関心領域についてのノルムの分布状態を表す値として用いることが可能である。このとき、探索領域内のノルムの分布に予めラプラシアンフィルタにより強調処理し、強調処理後の分布について比率値または差分値を求めてもよい。   As a value (scalar value) representing the norm distribution state, a value other than a statistic can be used. For example, out of a plurality of directions centered on the region of interest set in the search region, the first direction in which the average norm value of candidate regions at positions along the direction is minimized, and the first direction through the region of interest A second direction orthogonal to one direction is obtained, and a ratio value or a difference value between an average norm value of candidate areas along the first direction and an average norm value of candidate areas along the second direction is obtained. It can be used as a value representing the norm distribution state for the region of interest corresponding to the search region. At this time, the norm distribution in the search region may be enhanced by a Laplacian filter in advance, and a ratio value or a difference value may be obtained for the distribution after the enhancement process.

また、探索領域内のノルムの分布を表わす行列を生成し、行列に固有値分解処理を施して固有値を求め、この固有値を、探索領域に対応する関心領域についてのノルムの分布状態を表す値(スカラー値)として用いることも可能である。   In addition, a matrix representing the norm distribution in the search area is generated, eigenvalue decomposition processing is performed on the matrix to obtain an eigenvalue, and this eigenvalue is a value (scalar) representing the norm distribution state for the region of interest corresponding to the search area. Value).

また、処理部は、動きベクトルをさらに求める構成とすることも可能である。例えば、処理部は、探索領域の中でノルム値が最小になる候補領域を関心領域の移動先として選択して、関心領域の位置と選択した候補領域の位置とを結ぶ動きベクトルを求める。複数の関心領域についてそれぞれ、動きベクトルを生成することにより、動きベクトル場を生成する。さらに処理部は、動きベクトル場に設定した複数の着目領域についてそれぞれ、x成分に関してのy方向微分の2乗値と、y成分に関してのx方向微分の2乗値との総和を境界ノルム値として求め、この境界ノルム値を着目領域の画素値として画像を生成することも可能である。   Further, the processing unit may be configured to further obtain a motion vector. For example, the processing unit selects a candidate region having a minimum norm value in the search region as a destination of the region of interest, and obtains a motion vector that connects the position of the region of interest and the position of the selected candidate region. A motion vector field is generated by generating a motion vector for each of a plurality of regions of interest. Further, the processing unit sets the sum of the square value of the y-direction derivative with respect to the x component and the square value of the x-direction derivative with respect to the y component as a boundary norm value for each of the plurality of regions of interest set in the motion vector field. It is also possible to generate an image using this boundary norm value as the pixel value of the region of interest.

また、処理部は、複数の関心領域を一部重複するように設定した場合には、1の関心領域についてノルムを計算する際に重複する領域について求めた値を、記憶領域のルックアップテーブルに格納し、他の関心領域についてノルムを計算する際にルックアップテーブルから読み出して用いる構成とすることも可能である。同様に、複数の候補領域を一部重複するように設定した場合には、重複する領域について求めた値を、記憶領域のルックアップテーブルに格納し、他の候補領域についてノルムを計算する際にルックアップテーブルから読み出して用いることも可能である。これらにより、演算量を低減できる。   In addition, when the processing unit is set to partially overlap a plurality of regions of interest, the value obtained for the overlapping region when calculating the norm for one region of interest is stored in the lookup table of the storage region. It is also possible to store and read out from the look-up table when calculating the norm for other regions of interest. Similarly, when a plurality of candidate areas are set to partially overlap, when the values obtained for the overlapping areas are stored in the lookup table of the storage area and the norm is calculated for the other candidate areas It is also possible to read out from the lookup table and use it. As a result, the amount of calculation can be reduced.

また、処理部は、ノルムの分布状態を表す値を画素値として生成した画像を、時系列に複数フレーム生成し、フレームごとに情報エントロピー量を算出し、情報エントロピー量が予め設定した閾値よりも小さければ、フレームを表示する画像として使用しないようにすることも可能である。これにより、情報エントロピー量の小さな異常画像を排除することができるので、視認性の良好な連続画像を表示可能になる。   In addition, the processing unit generates a plurality of frames in a time series of images generated by using values representing the norm distribution state as pixel values, calculates an information entropy amount for each frame, and the information entropy amount is greater than a preset threshold value. If it is small, it is possible not to use it as an image for displaying a frame. Thereby, since an abnormal image with a small information entropy amount can be eliminated, a continuous image with good visibility can be displayed.

また、ノルムの分布状態を表す値が所定値以上の画素を抽出した抽出画像を生成し、Bモード画像と重畳して表示することも可能である。ノルムの分布状態を表す値が所定値以上の画素は、境界部を示す画素であるので、Bモード像の境界部のみに抽出画像を表示できる。上記所定値を定めるために、ノルムの分布状態を表す値を画素値として生成した画像について、ノルムの分布状態を表す値とその頻度のヒストグラムを生成し、ヒストグラムの山型状分布を探索し、山型状分布の最小値を上述の所定値として用いることも可能である。   It is also possible to generate an extracted image obtained by extracting pixels having a norm distribution value equal to or greater than a predetermined value and display the extracted image superimposed on the B-mode image. A pixel whose value representing the norm distribution state is equal to or greater than a predetermined value is a pixel indicating a boundary portion, so that an extracted image can be displayed only at the boundary portion of the B-mode image. In order to determine the predetermined value, for an image generated with a pixel value representing a norm distribution state, a value representing the norm distribution state and a histogram of the frequency thereof are generated, and a histogram-like distribution of the histogram is searched. It is also possible to use the minimum value of the mountain-shaped distribution as the predetermined value.

また、本発明の別の態様の超音波イメージング装置は、対象に向かって超音波を送信する送信部と、前記対象から到来する超音波を受信する受信部と、前記受信部の受信信号を処理して2フレーム以上の画像を生成する処理部とを有する。処理部は、受信した2フレーム以上の画像に対応する受信信号のうち、1のフレームに該当する受信信号分布に複数の関心領域を設定し、別の1のフレームに該当する受信信号分布に関心領域よりも広い探索領域を複数の関心領域ごとに設定し、探索領域内に関心領域と対応する大きさの候補領域を複数設定し、関心領域の振幅分布あるいは位相分布と、候補領域内の振幅分布あるいは位相分布との間のノルムを、複数の候補領域ごとに求めることにより、探索領域内のノルムの分布を求め、当該ノルムの分布状態を表す値を、探索領域に対応する関心領域の画素値として画像を生成する。   In addition, an ultrasonic imaging apparatus according to another aspect of the present invention includes a transmission unit that transmits ultrasonic waves toward a target, a reception unit that receives ultrasonic waves coming from the target, and a reception signal of the reception unit And a processing unit that generates an image of two or more frames. The processing unit sets a plurality of regions of interest in the received signal distribution corresponding to one frame among the received signals corresponding to the received images of two or more frames, and is interested in the received signal distribution corresponding to another one frame. A search area wider than the area is set for each of the plurality of regions of interest, a plurality of candidate regions corresponding to the region of interest are set in the search region, the amplitude distribution or phase distribution of the region of interest, and the amplitude in the candidate region By calculating the norm between the distribution and the phase distribution for each of the plurality of candidate regions, the norm distribution in the search region is obtained, and the value representing the distribution state of the norm is set as the pixel of the region of interest corresponding to the search region. Generate an image as a value.

また、本発明によれば、超音波イメージング方法が提供される。すなわち、対象に向かって超音波を送信し、前記対象から到来する超音波を受信して得た受信信号を処理して2フレーム以上の画像を生成する。画像から2フレームを選択し、1のフレームに複数の関心領域を設定し、別の1のフレームに関心領域よりも広い探索領域を複数の関心領域ごとに設定する。探索領域内には関心領域と対応する大きさの候補領域を複数設定する。関心領域の画素値と候補領域内の画素値との間のノルムを、複数の候補領域ごとに求めることにより、探索領域内のノルムの分布を求める。ノルムの分布状態を表す値を、探索領域に対応する前記関心領域の画素値として画像を生成する。   In addition, according to the present invention, an ultrasonic imaging method is provided. That is, an ultrasonic wave is transmitted toward the target, and a reception signal obtained by receiving the ultrasonic wave coming from the target is processed to generate an image of two frames or more. Two frames are selected from the image, a plurality of regions of interest are set in one frame, and a search region wider than the region of interest is set in another frame for each region of interest. A plurality of candidate regions having a size corresponding to the region of interest are set in the search region. The norm between the pixel value in the region of interest and the pixel value in the candidate region is obtained for each of the plurality of candidate regions, thereby obtaining the norm distribution in the search region. An image is generated using a value representing the norm distribution state as a pixel value of the region of interest corresponding to the search region.

また、本発明によれば、超音波用イメージングプログラムが提供される。すなわち、コンピュータに、2フレーム以上の超音波画像から2のフレームを選択する第1のステップ、1のフレームに複数の関心領域を設定する第2のステップ、別の1のフレームに前記関心領域よりも広い探索領域を複数の関心領域ごとに設定し、探索領域内に前記関心領域と対応する大きさの候補領域を複数設定する第3のステップ、関心領域の画素値と前記候補領域内の画素値との間のノルムを、前記複数の候補領域ごとに求めることにより、探索領域内のノルムの分布を求める第4のステップ、ノルムの分布状態を表す値を、探索領域に対応する関心領域の画素値として画像を生成する第5のステップ、を実行させるための超音波イメージング用プログラムである。   According to the present invention, an ultrasound imaging program is provided. That is, a first step of selecting two frames from an ultrasonic image of two or more frames in a computer, a second step of setting a plurality of regions of interest in one frame, and the region of interest in another one frame A third step of setting a wide search area for each of a plurality of regions of interest, and setting a plurality of candidate regions of a size corresponding to the region of interest in the search region, a pixel value of the region of interest and the pixels in the candidate region A fourth step for obtaining a norm distribution in the search region by obtaining a norm between the values for each of the plurality of candidate regions, and a value representing the distribution state of the norm in the region of interest corresponding to the search region It is the program for ultrasonic imaging for performing the 5th step which produces | generates an image as a pixel value.

本発明の一実施形態の超音波イメージング装置について具体的に以下説明する。   An ultrasonic imaging apparatus according to an embodiment of the present invention will be specifically described below.

(第1の実施形態)
図1に本実施形態の超音波イメージング装置のシステム構成を示す。本装置は、超音波境界検出機能を備えている。図1のように、本装置は、超音波探触子(プローブ)1、ユーザインタフェース2、送波ビームフォーマ3、制御系4、送受切り替えスイッチ5、受波ビームフォーマ6、包絡線検波部7、スキャンコンバータ8、処理部10、パラメータ設定部11、合成部12および表示部13を備えて構成される。
(First embodiment)
FIG. 1 shows a system configuration of the ultrasonic imaging apparatus of the present embodiment. This apparatus has an ultrasonic boundary detection function. As shown in FIG. 1, this apparatus includes an ultrasonic probe (probe) 1, a user interface 2, a transmission beam former 3, a control system 4, a transmission / reception changeover switch 5, a reception beam former 6, and an envelope detection unit 7. , A scan converter 8, a processing unit 10, a parameter setting unit 11, a combining unit 12, and a display unit 13.

超音波素子が一次元に配列された超音波探触子1は、生体に超音波ビーム(超音波パルス)を送信する送信部であり、かつ、生体から反射されたエコー信号(受波信号)を受信する受信部である。制御系4の制御下で、送波焦点に合わせた遅延時間をもつ送波信号が送波ビームフォーマ3により出力され、送受切り替えスイッチ5を介して超音波探触子1に送られる。生体内で反射又は散乱されて超音波探触子1に戻った超音波ビームは、超音波探触子1によって電気信号に変換され、送受切り替えスイッチ5を介し受波ビームフォーマ6に受波信号として送られる。   An ultrasonic probe 1 in which ultrasonic elements are arranged one-dimensionally is a transmitter that transmits an ultrasonic beam (ultrasonic pulse) to a living body, and an echo signal (received signal) reflected from the living body. Is a receiving unit. Under the control of the control system 4, a transmission signal having a delay time adjusted to the transmission focus is output by the transmission beamformer 3 and sent to the ultrasonic probe 1 via the transmission / reception changeover switch 5. The ultrasonic beam reflected or scattered in the living body and returned to the ultrasonic probe 1 is converted into an electric signal by the ultrasonic probe 1 and received by the receiving beam former 6 via the transmission / reception switch 5. Sent as.

受波ビームフォーマ6は、90度位相がずれた2つの受波信号をミキシングする複素ビームフォーマであり、制御系4の制御下で受信タイミングに応じて遅延時間を調整するダイナミックフォーカスを行って、実部と虚部のRF信号を出力する。このRF信号は包絡線検波部7によって検波されてからビデオ信号に変換され、スキャンコンバータ8に入力されて画像データ(Bモード画像データ)に変換される。以上説明した構成は、周知の超音波イメージング装置の構成と同じである。さらに本発明では、RF信号を直接処理する構成により、超音波境界検出を実施する事も可能である。   The receive beamformer 6 is a complex beamformer that mixes two received signals that are 90 degrees out of phase, and performs dynamic focus that adjusts the delay time according to the reception timing under the control of the control system 4. Outputs real and imaginary RF signals. The RF signal is detected by the envelope detector 7 and then converted into a video signal, which is input to the scan converter 8 and converted into image data (B-mode image data). The configuration described above is the same as the configuration of a known ultrasonic imaging apparatus. Furthermore, in the present invention, it is also possible to perform ultrasonic boundary detection by a configuration that directly processes the RF signal.

本発明の装置では、超音波境界検出処理を処理部10により実現する。処理部10は、CPU10aとメモリ10bとを有し、あらかじめメモリ10bに格納しておいたプログラムをCPU10aが実行することにより、被検体組織の境界を検出可能なスカラー場画像を生成する。スカラー場画像の生成処理について、図2等を用いて後で詳しく説明する。合成部12は、スカラー場画像とBモード画像とを合成処理した後、表示部13にて表示する。   In the apparatus of the present invention, the ultrasonic boundary detection process is realized by the processing unit 10. The processing unit 10 includes a CPU 10a and a memory 10b. The CPU 10a executes a program stored in the memory 10b in advance, thereby generating a scalar field image capable of detecting the boundary of the subject tissue. The scalar field image generation processing will be described in detail later with reference to FIG. The combining unit 12 combines the scalar field image and the B-mode image and then displays them on the display unit 13.

パラメータ設定部11では、処理部10での信号処理のためのパラメータや合成部12での表示画像の選択設定等を行う。これらのパラメータは、オペレータ(装置操作者)によりユーザインタフェース2から入力される。信号処理のためのパラメータとしては、例えば、所望のフレームm上の関心領域の設定や、フレームmとは異なるフレームm+Δ上の探索領域の設定をオペレータから受け付けることが可能である。表示画像の選択設定としては、例えば、元画像とベクトル場画像(またはスカラー画像)とを1画像に合成してディスプレイに表示するか、あるいは2画像以上の動画像を並べて表示するかの選択設定を操作者から受け付けることが可能である。   In the parameter setting unit 11, parameters for signal processing in the processing unit 10, selection setting of a display image in the synthesis unit 12, and the like are performed. These parameters are input from the user interface 2 by an operator (device operator). As parameters for signal processing, for example, setting of a region of interest on a desired frame m and setting of a search region on a frame m + Δ different from the frame m can be received from an operator. As the selection setting of the display image, for example, the selection setting of whether the original image and the vector field image (or scalar image) are combined into one image and displayed on the display, or two or more moving images are displayed side by side. Can be received from the operator.

図2は、本発明の処理部10及び合成部12における画像の生成および合成処理の動作を示すフローチャートである。処理部10は、まず、スキャンコンバータ8から計測信号を取得し、通常の信号処理を施してBモード動画像を作成する(ステップ21、22)。次にBモード動画像から所望のフレームmとそれとは異なる時間のフレームm+Δの2フレームを抽出する(ステップ23)。例えばΔ=1フレームとし、所望フレームmと次のフレームm+1の2フレームを抽出する。この2フレームの抽出は、パラメータ設定部11を介してオペレータから受け付けることも可能であるし、処理部10が自動で選択する構成にすることも可能である。   FIG. 2 is a flowchart showing the operation of image generation and composition processing in the processing unit 10 and the composition unit 12 of the present invention. The processing unit 10 first acquires a measurement signal from the scan converter 8 and performs normal signal processing to create a B-mode moving image (steps 21 and 22). Next, a desired frame m and two frames m + Δ at different times are extracted from the B-mode moving image (step 23). For example, Δ = 1 frame, and the desired frame m and the next frame m + 1 are extracted. The extraction of the two frames can be received from the operator via the parameter setting unit 11 or can be configured to be automatically selected by the processing unit 10.

処理部10は、抽出した2つのフレームからpノルム分布を算出し、スカラー場画像を生成する(ステップ24)。求めたスカラー場画像をBモード画像に重畳した合成画像を生成し、表示部13に表示させる(ステップ27)。ステップ23において所望フレームとして、時系列で順次異なるフレームを選択して上記ステップ21〜27の処理を繰り返し、合成画像を連続表示することにより、合成画像の動画を表示することも可能である。   The processing unit 10 calculates a p-norm distribution from the two extracted frames and generates a scalar field image (step 24). A composite image in which the obtained scalar field image is superimposed on the B-mode image is generated and displayed on the display unit 13 (step 27). In step 23, it is also possible to display a moving image of the synthesized image by selecting different frames sequentially in time series as the desired frame, repeating the above steps 21 to 27, and continuously displaying the synthesized image.

図3は、上記ステップ24のスカラー場画像の生成動作の詳細な処理を示すフローチャートである。まず、処理部10は、ステップ23で抽出されたフレームmに所定のピクセル数Nの関心領域ROI(region of interest:関心領域)31を図4のように設定する(ステップ51)。ROI31に含まれるピクセルの画素値、例えば輝度の分布をPm(i、j)と表す。i、jは、ROI31内の当該ピクセルの位置を示す。FIG. 3 is a flowchart showing detailed processing of the scalar field image generation operation in step 24 described above. First, the processing unit 10 sets a region of interest (ROI) 31 having a predetermined number of pixels N in the frame m extracted in step 23 as shown in FIG. 4 (step 51). A pixel value of a pixel included in the ROI 31, for example, a luminance distribution is represented as P m (i 0 , j 0 ). i 0 and j 0 indicate the position of the pixel in the ROI 31.

次に処理部10は、ステップ23で抽出されたフレームm+Δに所定の大きさの探索領域32を図4のように設定する(ステップ52)。探索領域32は、フレームmのROI31の位置を含む。例えば、探索領域32は、ROI31の中心位置と一致するように設定する。探索領域32の大きさは、ROI31よりも大きい所定のサイズとする。ここでは、フレームmの画像全体に渡って順次ROI31を設定し、それを中心とした所定の大きさの探索領域32を設定する構成について説明するが、パラメータ設定部11においてオペレータから受け付けたフレームmの所定の範囲のみにROI31を順次設定することも可能である。   Next, the processing unit 10 sets a search area 32 of a predetermined size in the frame m + Δ extracted in step 23 as shown in FIG. 4 (step 52). The search area 32 includes the position of the ROI 31 of the frame m. For example, the search area 32 is set to coincide with the center position of the ROI 31. The size of the search area 32 is a predetermined size larger than the ROI 31. Here, a configuration in which the ROI 31 is sequentially set over the entire image of the frame m and the search area 32 having a predetermined size is set centered on the ROI 31 will be described, but the frame m received from the operator in the parameter setting unit 11 will be described. It is also possible to sequentially set the ROI 31 only in the predetermined range.

処理部10は、探索領域32内に図4のようにROI31と等しい大きさの複数の候補領域33を設定する。図4では、探索領域32をROI31と等しい大きさにマトリクス状に区切り、候補領域33を設定しているが、隣り合う候補領域33が一部重なり合うように設定することも可能である。候補領域33に含まれるピクセルの画素値、例えば輝度の分布をPm+Δ(i、j)と表す。i、jは、候補領域33内の当該ピクセルの位置を示す。The processing unit 10 sets a plurality of candidate areas 33 having the same size as the ROI 31 as shown in FIG. In FIG. 4, the search area 32 is divided into a matrix having the same size as the ROI 31 and the candidate area 33 is set. However, the adjacent candidate areas 33 may be set so as to partially overlap each other. A pixel value of a pixel included in the candidate area 33, for example, a luminance distribution is represented as P m + Δ (i, j). i and j indicate the positions of the pixels in the candidate area 33.

処理部10は、候補領域33のピクセルの輝度分布Pm+Δ(i、j)と、ROI31の輝度分布Pm(i、j)とを用いて、上述した式(1)によりpノルムを計算し、これを当該候補領域33のpノルム値とする。上述した式(1)のpノルムは、ROI31の位置(i、j)のピクセルの輝度Pm(i、j)と、候補領域33内の位置i、jと対応する位置(i、j)にあるピクセルの輝度Pm+Δ(i、j)との差の絶対値のp乗を求め、候補領域33のすべてのピクセルについて加算し、1/p乗した値である。p値は、予め定めた実数、もしくは、パラメータ設定部11を介してオペレータから受け付けた値を用いる。p値は、整数に限らず、小数であっても構わない。The processing unit 10 uses the luminance distribution P m + Δ (i, j) of the pixels in the candidate region 33 and the luminance distribution P m (i 0 , j 0 ) of the ROI 31 to calculate the p-norm by the above-described equation (1). This is calculated and used as the p-norm value of the candidate area 33. P-norm of the above-mentioned equation (1) is the position of ROI31 (i 0, j 0) luminance P m (i 0, j 0 ) of pixels, corresponding to the position i 0, j 0 in the candidate area 33 The absolute value of the difference from the luminance P m + Δ (i, j) of the pixel at the position (i, j) is obtained to the p-th power, added for all the pixels in the candidate region 33, and the 1 / p-th power. As the p value, a predetermined real number or a value received from the operator via the parameter setting unit 11 is used. The p value is not limited to an integer, and may be a decimal number.

上述の式(1)のようにべき数をpとするpノルムは、距離の概念に相当する値であり、ROI31の輝度分布Pm(i、j)と、候補領域33の輝度分布Pm+Δ(i、j)の類似度を示す。すなわち、ROI31の輝度分布Pm(i、j)と、候補領域33の輝度分布Pm+Δ(i、j)が同一であれば、pノルムはゼロとなる。また、両者の輝度分布が異なれば異なるほど大きな値を示す。The p-norm where p is a power number as in the above formula (1) is a value corresponding to the concept of distance, and the luminance distribution P m (i 0 , j 0 ) of the ROI 31 and the luminance distribution of the candidate region 33. The similarity of P m + Δ (i, j) is shown. That is, if the luminance distribution P m (i 0 , j 0 ) of the ROI 31 and the luminance distribution P m + Δ (i, j) of the candidate region 33 are the same, the p-norm is zero. Moreover, the larger the brightness distribution of the two, the larger the value.

処理部10は、探索領域32のすべての候補領域33について、pノルム値を求める(ステップ53)。これにより、ROI31に対応する探索領域32内のpノルム分布を求めることができる。求めたpノルム値は、処理部10内のメモリ10bに格納する。   The processing unit 10 obtains a p-norm value for all candidate regions 33 of the search region 32 (step 53). Thereby, the p-norm distribution in the search region 32 corresponding to the ROI 31 can be obtained. The obtained p-norm value is stored in the memory 10b in the processing unit 10.

図5(a)、(c)に本発明のpノルム分布の例を示す。図5(a)は、ROI31およびその探索領域32がいずれも被検体の静止部に位置する場合の探索領域32のノルム分布である。図5(c)は、被検体として、ゲル基材のファントム41とファントム42を上下に重ね、上側ファントム41に対して、下側ファントムが水平方向に相対的に滑っている境界に、ROI31を配置した場合の探索領域32のノルム分布である。なお、図5(a)、(c)において探索領域32は、21×21個の候補領域33に区分けされている。候補領域33のブロックサイズは30×30ピクセル、探索領域32は50×50ピクセルであり、候補領域33を探索領域32内で1ピクセルずつ移動させている。すなわち、隣り合う候補領域33は、29ピクセル重なり合っている。探索領域32の中心は、ROI31の位置に対応している。   5A and 5C show examples of the p-norm distribution of the present invention. FIG. 5A shows the norm distribution of the search region 32 when the ROI 31 and its search region 32 are both located in the stationary part of the subject. FIG. 5C shows an object in which the phantom 41 and the phantom 42, which are gel base materials, are vertically stacked, and the ROI 31 is placed on the boundary where the lower phantom slides relative to the upper phantom 41 in the horizontal direction. This is the norm distribution of the search region 32 when arranged. 5A and 5C, the search area 32 is divided into 21 × 21 candidate areas 33. The block size of the candidate area 33 is 30 × 30 pixels, the search area 32 is 50 × 50 pixels, and the candidate area 33 is moved pixel by pixel within the search area 32. That is, the candidate areas 33 adjacent to each other overlap 29 pixels. The center of the search area 32 corresponds to the position of the ROI 31.

図5(a)のように、ROI31が静止部に位置する場合、pノルム分布は、ROI31の位置に対応する中心位置が最小ノルム値となっている。一方、図5(c)のように、滑っている被検体の境界にROI31を配置した場合、ノルム分布は、探索領域32の中心位置が最小ノルム値となるだけでなく、探索領域32内の被検体の境界に沿った方向にpノルム値の小さい領域(pノルムの谷)が形成される。   As shown in FIG. 5A, when the ROI 31 is located in the stationary part, the center position corresponding to the position of the ROI 31 has a minimum norm value in the p-norm distribution. On the other hand, as shown in FIG. 5C, when the ROI 31 is arranged at the boundary of the sliding subject, the norm distribution is not only the center position of the search region 32 becomes the minimum norm value, but also within the search region 32. A region having a small p-norm value (valley of p-norm) is formed in a direction along the boundary of the subject.

このようにROI31が被検体の静止部に位置するか、滑っている境界に位置するかで、探索領域32のpノルムの分布が異なることを本発明では利用し画像化する。具体的には、探索領域32のpノルムの分布を示す統計量を求め、その探索領域32に対応するROI31のスカラー値とする(ステップ54)。統計量としては、静止部と境界部のpノルム分布の差を表わすことができるものであればよい。ここでは、統計量として式(2)で求められる乖離度を用いる。   In this way, the present invention uses and images the fact that the distribution of the p-norm of the search region 32 differs depending on whether the ROI 31 is located at the stationary part of the subject or at the sliding boundary. Specifically, a statistic indicating the p-norm distribution of the search area 32 is obtained and set as a scalar value of the ROI 31 corresponding to the search area 32 (step 54). Any statistics can be used as long as it can represent the difference in the p-norm distribution between the stationary part and the boundary part. Here, the divergence degree calculated | required by Formula (2) is used as a statistic.

Figure 2013061664
すなわち、処理部10は、探索領域32の全pノルム値から、最小値と平均値を求め、式(2)により乖離度を演算する。
Figure 2013061664
That is, the processing unit 10 obtains a minimum value and an average value from all the p-norm values in the search region 32, and calculates the divergence degree using Expression (2).

式(2)の乖離度を、図5(b)、(d)のヒストグラムを用いて示す。図5(b)、(d)は、それぞれ図5(a)、(c)の探索領域32内のpノルム値のヒストグラムである。図5(a)のようにROI31が静止部に位置する場合、探索領域32のpノルム分布は、ROI31の位置に対応する中心位置が最小ノルム値となり、その周辺のpノルム値は高いため、pノルム値の最小値と分布の平均とが充分にかけ離れている特徴が見られる。よって、乖離度は大きくなる。一方、図5(c)のようにROI31が境界部に位置する場合、ROI31に対応する中心位置のpノルム値が最小値となるが、その周辺の境界に沿う領域もpノルム値が小さくなる誤差が存在するため、ヒストグラム全体の分布が広がる様相を呈する。このため、pノルムの最小値と分布の平均との差が小さくなり、乖離度も小さくなる。   The divergence degree of Expression (2) is shown using the histograms of FIGS. 5 (b) and 5 (d). FIGS. 5B and 5D are histograms of p-norm values in the search region 32 in FIGS. 5A and 5C, respectively. When the ROI 31 is located in a stationary part as shown in FIG. 5A, the p-norm distribution of the search region 32 has a minimum norm value at the center position corresponding to the position of the ROI 31, and the p-norm value around it is high. It can be seen that the minimum value of the p-norm value is sufficiently different from the average of the distribution. Therefore, the degree of divergence increases. On the other hand, when the ROI 31 is located at the boundary as shown in FIG. 5C, the p-norm value at the center position corresponding to the ROI 31 becomes the minimum value, but the p-norm value also decreases in the region along the surrounding boundary. Since there is an error, the distribution of the entire histogram is widened. For this reason, the difference between the minimum value of the p-norm and the average of the distribution is reduced, and the degree of deviation is also reduced.

このように、ステップ54において、pノルム分布の乖離度(スカラー値)を求めることにより、当該ROI31が被検体の静止部に位置するか、滑っている境界に位置するかをスカラー値で示すことができる。   In this way, in step 54, by obtaining the divergence degree (scalar value) of the p-norm distribution, it is indicated by the scalar value whether the ROI 31 is located at the stationary part of the subject or at the sliding boundary. Can do.

上記ステップ51〜54を全ROI31について計算するまで繰り返す(ステップ55)。全ROI31について求めた乖離度(スカラー値)を、画像の画素値(例えば輝度値)に変換した画像(スカラー場画像)を生成する(ステップ56)。以上のステップ51〜56により、ステップ24のスカラー場画像が生成される。   The above steps 51 to 54 are repeated until all ROIs 31 are calculated (step 55). An image (scalar field image) is generated by converting the degree of divergence (scalar value) obtained for all ROIs 31 into pixel values (for example, luminance values) of the image (step 56). Through the above steps 51 to 56, the scalar field image of step 24 is generated.

図6(a)に上記ステップ22で求めたBモード画像、図6(b)に上記ステップ24で求めたスカラー場画像の具体例を示す。図6(a)のBモード画像は、ゲル基材ファントム41、42を2層に重ね、上側のファントム41に超音波プローブを固定して横方向に移動させながら撮像したものである。超音波プローブを固定した上側は相対的に静止状態、一方下側のファントム42は横移動を示すベクトル場となっている。なお、図6(b)はp=2として計算している。   FIG. 6A shows a specific example of the B-mode image obtained at step 22 and FIG. 6B shows a specific example of the scalar field image obtained at step 24. The B-mode image in FIG. 6A is obtained by superposing the gel base material phantoms 41 and 42 in two layers and fixing the ultrasonic probe to the upper phantom 41 and moving it laterally. The upper side where the ultrasonic probe is fixed is relatively stationary, while the lower phantom 42 is a vector field indicating lateral movement. In FIG. 6B, the calculation is performed with p = 2.

図6(b)のように、本発明のpノルム分布の乖離度(スカラー値)を画素値としたスカラー場画像は、ファントム41、42の滑り境界部における乖離度が大きく、滑り境界部を明確に画像化できていることが分かる。したがって、ステップ26において、スカラー場画像を単独もしくは、Bモード画像と重畳して表示することにより、Bモード画像に境界が表れにくい境界、例えば音響インピーダンスも弾性率も周囲と大きく異ならない組織の境界、をスカラー場画像で明確に表示することができる。   As shown in FIG. 6 (b), the scalar field image with the divergence degree (scalar value) of the p-norm distribution of the present invention as the pixel value has a large divergence degree at the sliding boundary part of the phantoms 41 and 42, and the sliding boundary part is It can be seen that it is clearly imaged. Therefore, in step 26, by displaying the scalar field image alone or superimposed on the B-mode image, the boundary where the boundary is difficult to appear in the B-mode image, for example, the boundary of the tissue whose acoustic impedance and elastic modulus are not significantly different from the surroundings. , Can be clearly displayed in a scalar field image.

また、図6(b)のスカラー場画像は、ペネトレーション限界付近の深部領域においても虚像が発生しておらず、虚像が抑制されることが分かる。   Further, in the scalar field image of FIG. 6B, it can be seen that a virtual image is not generated even in a deep region near the penetration limit, and the virtual image is suppressed.

比較例として、図6(c)に従来のブロックマッチング処理により求めたベクトル場画像を示す。この画像は、図6(a)のBモード画像をフレームmとし、次フレーム(フレームm+Δ、Δ=1フレーム)とのブロックマッチング処理(ステップ24)により、ROIの移動位置を求め、移動の方向および大きさをベクトル(矢印)として示したベクトル場画像である。図6(c)において下部(深部)の領域には、動きベクトルが乱れている現象が見られる。これは上部に設置したプローブからの距離が遠くなる程、検出感度のSN比が低下して電気ノイズ等の影響が増大する事に起因しており、ペネトレーション限界を示している。図6(d)には、図6(c)のベクトル場の歪テンソルを求め、歪テンソルを画素値(例えば輝度値)として画像化したものを示す。図6(c)においても誤ベクトルの影響で、深部において虚像が発生している現象が見られる。   As a comparative example, FIG. 6C shows a vector field image obtained by a conventional block matching process. In this image, the B-mode image in FIG. 6A is set as the frame m, the ROI moving position is obtained by block matching processing (step 24) with the next frame (frame m + Δ, Δ = 1 frame), and the moving direction is determined. It is the vector field image which showed the magnitude | size as a vector (arrow). In FIG. 6C, a phenomenon in which the motion vector is disturbed is seen in the lower (deep) region. This is because the SN ratio of the detection sensitivity decreases and the influence of electric noise and the like increases as the distance from the probe installed at the upper portion increases, indicating the penetration limit. FIG. 6D shows a distortion tensor of the vector field shown in FIG. 6C, which is imaged as a pixel value (for example, a luminance value). In FIG. 6C as well, a phenomenon in which a virtual image is generated in the deep part due to the influence of an erroneous vector can be seen.

このように、本実施形態のpノルムから求めたテンソル場画像(図6(b))は、従来の図6(c)、(d)のベクトル場やベクトル場に基づく歪テンソル場画像と比較して、虚像を抑制でき、滑り境界部を明確に示すことができる。   Thus, the tensor field image (FIG. 6B) obtained from the p-norm of the present embodiment is compared with the conventional vector field of FIG. 6C and FIG. 6D and the distortion tensor field image based on the vector field. Thus, the virtual image can be suppressed and the slip boundary portion can be clearly shown.

本発明で求めたスカラー場画像とBモード画像は、図7(a)のように重ね合わせて表示する。これにより、Bモード像の境界が不鮮明である場合にも、スカラー場画像により境界を把握することができる。   The scalar field image and the B-mode image obtained in the present invention are displayed in a superimposed manner as shown in FIG. Thereby, even when the boundary of the B-mode image is unclear, the boundary can be grasped by the scalar field image.

また、本実施形態において、ベクトル場画像をさらに生成し、これをスカラー場画像およびBモード画像と重畳して表示することも可能である。この場合、図8のようにステップ24の後にステップ25を行う。ステップ25では、ステップ24で算出した探索領域32内のすべての候補領域33のpノルム値の中で最小値を探索し、最小値の候補領域33をROI31の移動先領域と判定し、ROI31の位置(i,j)と移動先の候補領域の位置(imin,jmin)とを結ぶ動きベクトルを決定する。これをすべてのROI31について実行することにより、ベクトル場を得る。各ベクトルを矢印で示す画像を生成し、ベクトル場画像を得ることができる。In the present embodiment, it is also possible to further generate a vector field image and display the vector field image superimposed on the scalar field image and the B-mode image. In this case, step 25 is performed after step 24 as shown in FIG. In step 25, the minimum value is searched for among the p-norm values of all candidate areas 33 in the search area 32 calculated in step 24, and the candidate area 33 having the minimum value is determined as the destination area of the ROI 31. A motion vector that connects the position (i 0 , j 0 ) and the position (i min , j min ) of the candidate area to be moved is determined. By executing this for all the ROIs 31, a vector field is obtained. An image in which each vector is indicated by an arrow can be generated to obtain a vector field image.

得られたベクトル場画像を、スカラー場画像およびBモード画像と重畳して表示する(ステップ26)。重畳画像の例を図7(b)に示す。ベクトル場画像を重畳表示することにより、スカラー場画像で確認される境界を挟んで被検体がどの方向に移動しているかを明確に把握することができる。   The obtained vector field image is displayed superimposed on the scalar field image and the B-mode image (step 26). An example of the superimposed image is shown in FIG. By superimposing and displaying the vector field image, it is possible to clearly grasp in which direction the subject is moving across the boundary confirmed in the scalar field image.

本実施形態において式(1)のpノルムのp値は実数であればよいが、最適なpの値は、例えば評価対象の典型サンプルに対して適切な変化幅でp値のパラメータサーベイを行い、最も虚像の少ない明瞭な画像が得られる値に設定することが可能である。また、p値は、1よりも大きい実数であることがより望ましい。p=1に設定し、図6(a)の2層滑りファントムのBモード像について、図2および図3のフローによりスカラー場画像を得た場合の画像例を図9(a)に示す。図9(a)において画像下部(深部)では、図6(b)のp=2の場合と同様に虚像が抑制されていることが分かる。しかしながら境界線より上部の静止領域において、新たな虚像が見られる。これはp=1のノルムはスパース性の影響を受けやすいためと推察される。このように、静止部の虚像を抑制するため、pは1よりも大きい値に設定することが望ましい。なお、虚像を排除するための画像処理を行うことも可能である。これについては、第2の実施形態で説明する。   In the present embodiment, the p-value of the p-norm of Equation (1) may be a real number, but the optimal p value is obtained by conducting a parameter survey of the p-value with an appropriate change width, for example, for a typical sample to be evaluated. It is possible to set the value to obtain a clear image with the fewest virtual images. The p value is more preferably a real number larger than 1. FIG. 9A shows an image example when a scalar field image is obtained by the flow of FIGS. 2 and 3 for the B-mode image of the two-layer sliding phantom of FIG. In FIG. 9A, it can be seen that the virtual image is suppressed at the lower part (deep part) of the image as in the case of p = 2 in FIG. 6B. However, a new virtual image is seen in the static region above the boundary line. This is presumed that the norm of p = 1 is susceptible to sparsity. Thus, in order to suppress the virtual image of the stationary part, it is desirable to set p to a value larger than 1. It is also possible to perform image processing for eliminating the virtual image. This will be described in the second embodiment.

また、上記説明では、探索領域32のpノルムの分布状態を表わす統計量として乖離度を求め、この値からスカラー場画像を生成したが、乖離度以外の他のパラメータを用いることも可能である。例えば、変動係数を使用することが可能である。変動係数は次式で定義され、標準偏差を平均で規格化した統計量であり、分布のばらつきの大きさ(すなわち最小値の分離し難さ)を表す。   In the above description, the divergence degree is obtained as a statistic indicating the distribution state of the p-norm in the search region 32, and the scalar field image is generated from this value. However, other parameters other than the divergence degree can be used. . For example, a coefficient of variation can be used. The coefficient of variation is defined by the following equation, and is a statistic obtained by standardizing standard deviations on the average, and indicates the magnitude of distribution variation (that is, difficulty in separating minimum values).

Figure 2013061664
Figure 2013061664

(第2の実施形態)
第2の実施形態では、第1の実施形態で求めたスカラー場画像に虚像が発生する場合に、虚像を除去等する。すなわち、画像領域の信頼度を識別し、低信頼度の領域を除去等することにより、虚像を除去し、画像全体の信頼度を向上させる。これを図9および図10を用いて説明する。
(Second Embodiment)
In the second embodiment, when a virtual image is generated in the scalar field image obtained in the first embodiment, the virtual image is removed. That is, by identifying the reliability of the image area and removing the low reliability area, the virtual image is removed and the reliability of the entire image is improved. This will be described with reference to FIG. 9 and FIG.

図9(a)は、第1の実施形態で述べたように式(1)においてp=1として求めたスカラー場画像であり、境界部に虚像が発生している。図9(b)は、画像領域の信頼度の識別に用いるヒストグラムであり、図9(c)は、低信頼度の画像領域の輝度を暗色に置き換えたスカラー場画像である。図10は、虚像を除去するための処理部10の動作を示すフローチャートである。   FIG. 9A is a scalar field image obtained by setting p = 1 in equation (1) as described in the first embodiment, and a virtual image is generated at the boundary. FIG. 9B is a histogram used for identifying the reliability of the image area, and FIG. 9C is a scalar field image in which the luminance of the image area with low reliability is replaced with a dark color. FIG. 10 is a flowchart showing the operation of the processing unit 10 for removing a virtual image.

まず処理部10は、オペレータから虚像の除去の指示を受けたならば、虚像除去のためのプログラムを読み込んで実行することにより、図10のフローのように動作する。まず、図3のフローのステップ51で設定した複数のROI31の一つを選択し(ステップ102)、このROI31に対応する探索領域32内の複数の候補領域33について求めたpノルム値を処理部10内のメモリ10bから読み出し、その平均を算出し、当該ROI31に対応するpノルム値の平均値とする(ステップ103)。このステップ102、103を、すべてのROI31について繰り返す(ステップ101)。   First, when receiving an instruction to remove a virtual image from the operator, the processing unit 10 operates as shown in the flow of FIG. 10 by reading and executing a program for removing a virtual image. First, one of the plurality of ROIs 31 set in step 51 of the flow of FIG. 3 is selected (step 102), and the p-norm value obtained for the plurality of candidate regions 33 in the search region 32 corresponding to this ROI 31 is processed. 10 is read from the memory 10b in the memory 10, the average is calculated, and the average value of the p-norm values corresponding to the ROI 31 is set (step 103). These steps 102 and 103 are repeated for all ROIs 31 (step 101).

すべてのROI31について求めたpノルム値の平均値とその頻度から図9(b)のようなヒストグラムを生成する(ステップ104)。pノルム値の平均値が大きい程、信頼度の低いROIと評価し、ヒストグラムにおいてpノルム値の平均値が大きい領域に、低いピークの山状の分布が生じていれば、この部分を低信頼度領域91と判定する。すなわち、pノルム値の平均値の小さい領域に位置するピークの大きな山状の分布を高信頼部90と判定し、それよりもpノルム値の平均値が大きい領域に位置する低いピークの山状の分布を低信頼部91と判定する。そして、低信頼部91と高信頼部90との間の谷(頻度最小値)93の位置を求める(ステップ105)。谷93よりもpノルム値の平均値が大きい範囲(低信頼度領域91)のROI31を低信頼度領域と設定する(ステップ106)。当該ROI31について図3のステップ54で求めたスカラー値(乖離度や変動係数)を除去してスカラー場画像を生成する(ステップ107)。例えば、図9(c)のように低信頼度領域のROI31については、輝度を予め定めた所定の暗色に置き換えて表示する。また、低信頼度領域のROI31の輝度を、所定の明色に置き換えたり、周辺の輝度と同じ輝度に置き換えて表示することも可能である。   A histogram as shown in FIG. 9B is generated from the average value and the frequency of the p-norm values obtained for all the ROIs 31 (step 104). As the average value of the p-norm value is larger, the ROI is evaluated as having a lower reliability. If a low peak mountain distribution is generated in a region where the average value of the p-norm value is large in the histogram, this portion is less reliable. It is determined as the degree area 91. That is, the peak-like distribution having a large peak located in the region where the average value of the p-norm value is small is determined as the high-reliability portion 90, and the peak shape of the low peak located in the region where the average value of the p-norm value is larger than that Is determined to be the low reliability portion 91. Then, the position of the valley (frequency minimum value) 93 between the low reliability unit 91 and the high reliability unit 90 is obtained (step 105). The ROI 31 in the range where the average value of the p-norm value is larger than the valley 93 (low reliability region 91) is set as the low reliability region (step 106). A scalar field image is generated by removing the scalar values (deviation and variation coefficient) obtained in step 54 of FIG. 3 for the ROI 31 (step 107). For example, as shown in FIG. 9C, the ROI 31 in the low reliability region is displayed by replacing the luminance with a predetermined dark color. Further, the brightness of the ROI 31 in the low reliability area can be replaced with a predetermined bright color or displayed with the same brightness as the surrounding brightness.

第2の実施形態により、虚像を除去することができるため、より明瞭に被検体の境界を認識可能なスカラー場画像を提供できる。   According to the second embodiment, since the virtual image can be removed, it is possible to provide a scalar field image in which the boundary of the subject can be recognized more clearly.

(第3の実施形態)
第1の実施形態では、pノルム分布の統計量(乖離度や変動係数)を求めて画像を生成したが、第3の実施形態では、別の手法を用いてpノルム分布から組織の境界を認識可能な画像を生成する。この処理方法を図11および図12を用いて説明する。
(Third embodiment)
In the first embodiment, the statistic of the p-norm distribution (deviation and variation coefficient) is obtained and an image is generated. However, in the third embodiment, the tissue boundary is determined from the p-norm distribution using another method. Generate a recognizable image. This processing method will be described with reference to FIGS.

探索領域32のpノルム値の分布において、被検体の境界に沿った候補領域33は、第1の実施形態で述べたように、境界に沿ってpノルム値の小さい領域(pノルム値の谷)が形成される。このため、pノルム値の分布は、境界に沿った候補領域33の値の方が、境界に対して直交する方向に沿った候補領域33よりも小さい値を示す特徴がある。これを利用して、本実施形態では画像を生成する。   In the distribution of the p-norm value in the search area 32, the candidate area 33 along the boundary of the subject is an area having a small p-norm value (valley of p-norm value) along the boundary as described in the first embodiment. ) Is formed. For this reason, the distribution of the p-norm value is characterized in that the value of the candidate region 33 along the boundary shows a smaller value than the candidate region 33 along the direction orthogonal to the boundary. By utilizing this, an image is generated in the present embodiment.

図11に本実施形態の処理部10の処理フローを示す。また、図12(a)〜(h)には、探索領域32のpノルム値の分布上で選択される候補領域33の8つのパターンを示す。なお、図12(a)〜(h)には、図示を容易にするため探索領域32内に候補領域33が5×5でマトリクス状に配置された例を図示しているが、候補領域33の実際の配置は、ステップ52で設定された配置である。   FIG. 11 shows a processing flow of the processing unit 10 of the present embodiment. 12A to 12H show eight patterns of candidate regions 33 selected on the p-norm distribution of the search region 32. FIG. FIGS. 12A to 12H show an example in which the candidate areas 33 are arranged in a 5 × 5 matrix in the search area 32 for easy illustration. The actual arrangement is the arrangement set in step 52.

まず、処理部10は、第1の実施形態の図2のステップ21〜23および図3のステップ51〜53を実行し、複数のROI31に対応する探索領域32についてpノルム値の分布を求める。次に、ROI31を選択し(ステップ111)、当該ROI31に対応する探索領域32のノルム値分布において、図12(a)のように探索領域32の中心を通る所定の方向151を設定する。例えば、図12(a)の場合、所定の方向151は水平方向である。設定した方向151に沿って位置する複数の候補領域33を選択し、これらの候補領域33のノルム値の平均を求める(ステップ114)。   First, the processing unit 10 executes Steps 21 to 23 of FIG. 2 and Steps 51 to 53 of FIG. 3 of the first embodiment, and obtains a distribution of p-norm values for the search region 32 corresponding to a plurality of ROIs 31. Next, the ROI 31 is selected (step 111), and a predetermined direction 151 passing through the center of the search region 32 is set in the norm value distribution of the search region 32 corresponding to the ROI 31 as shown in FIG. For example, in the case of FIG. 12A, the predetermined direction 151 is a horizontal direction. A plurality of candidate areas 33 positioned along the set direction 151 are selected, and an average of norm values of these candidate areas 33 is obtained (step 114).

このステップ113、114の処理を、図12(a)〜(h)の8つのパターンに示した8つの方向151についてすべて行う(ステップ112)。図12(b)のパターンでは、所定の方向151は、水平方向に対して反時計回りに約30°傾斜した方向である。図12(c)〜(h)のパターンでは、所定の方向151は、それぞれ、水平方向に対して反時計回りに、約45°、約60°、90°、約120°、約135°、約150°に傾斜した方向である。   The processes in steps 113 and 114 are all performed in the eight directions 151 shown in the eight patterns in FIGS. 12A to 12H (step 112). In the pattern of FIG. 12B, the predetermined direction 151 is a direction inclined about 30 ° counterclockwise with respect to the horizontal direction. In the patterns of FIGS. 12C to 12H, the predetermined directions 151 are about 45 °, about 60 °, 90 °, about 120 °, about 135 °, respectively, counterclockwise with respect to the horizontal direction. The direction is inclined at about 150 °.

8つの所定の方向151のうち、pノルム値の平均が最小値となる方向151を選択する(ステップ115)。次に、選択した方向151に直交する方向152を設定し、当該方向152に沿って位置する候補領域33のpノルム値の平均を求める(ステップ116)。8つの方向151に直交する方向152は、図12(a)〜(h)に示した通りである。ステップ115で選択したpノルム値の平均値が最小となる方向151のpノルム値の平均と、ステップ116で求めた選択した方向151と直交する方向152のpノルム値の平均との比率(=直交方向152のpノルム値の平均/最小方向151のpノルム値の平均)を算出する。この比率を対象ROI31の画素値(例えば輝度値)とする。この処理をすべてのROI31について実行することにより画像を生成する(ステップ117)。   Among the eight predetermined directions 151, the direction 151 in which the average p-norm value is the minimum value is selected (step 115). Next, a direction 152 orthogonal to the selected direction 151 is set, and an average of the p-norm values of the candidate regions 33 located along the direction 152 is obtained (step 116). The direction 152 orthogonal to the eight directions 151 is as shown in FIGS. Ratio of the average of the p-norm values in the direction 151 where the average value of the p-norm values selected in step 115 is the minimum to the average of the p-norm values in the direction 152 orthogonal to the selected direction 151 determined in step 116 (= (Average of p-norm values in orthogonal direction 152 / average of p-norm values in minimum direction 151). This ratio is set as a pixel value (for example, luminance value) of the target ROI 31. An image is generated by executing this process for all the ROIs 31 (step 117).

探索領域32の被検体の境界に沿った候補領域は、pノルム値が小さい(谷)ため、ステップ117で求める比率は、境界上に位置するROI31では、境界上に位置しないROI31と比較して大きい値となる。よって、比率を画素値とすることにより、境界を明確に認識できる画像を生成できる。   Since the candidate region along the subject boundary of the search region 32 has a small p-norm value (valley), the ratio obtained in step 117 is compared with the ROI 31 not located on the boundary in the ROI 31 located on the boundary. Larger value. Therefore, by setting the ratio as the pixel value, an image that can clearly recognize the boundary can be generated.

なお、本実施形態では、pノルム値の平均の比率を用いたが、これに限らず、最小方向151のpノルム値の平均と直交方向152のpノルム値の平均の差分値等他の関数値を用いることも可能である。   In the present embodiment, the average ratio of the p-norm values is used. However, the present invention is not limited to this. Other functions such as the difference value between the average of the p-norm values in the minimum direction 151 and the average of the p-norm values in the orthogonal direction 152 are used. It is also possible to use a value.

上記説明では、図12(a)〜(h)のように、探索領域32内に配列された候補領域33のpノルム値の分布の谷から被検体の境界を求める構成であったが、本発明にこれに限られるものではなく、同様の手法を用いて一つの候補領域33内の画素値の分布から被検体の境界を求めることも可能である。具体的には、図12(a)〜(h)において探索領域32を候補領域33に置き換え、探索領域32内の候補領域33を画素に置き換えて考える。この場合、図12(a)〜(h)の例では、一つの候補領域33は5×5画素で構成されている。候補領域33内には、候補領域33の中心画素を通る8つの方向151と、それに直交する方向152を設定する。8つの方向151およびそれに直交する8つの方向152は、それぞれ5画素で構成される。各方向の5画素の画素値をPm+Δ(i、j)とし、5画素の中心画素の画素値をPm(i、j)とし、第1の実施形態の式(1)によりその方向の5画素のpノルムを計算する。求めたpノルムの値を画素数(5画素の場合5)で除したpノルム平均値を求める。このpノルム平均値を図12(a)、(b)の8つの方向151についてそれぞれ求め、pノルム平均値が最小値となる方向151を選定する。最小値となる方向151とそれに直交する方向152のpノルム平均値の比率を算出する。In the above description, as shown in FIGS. 12A to 12H, the boundary of the subject is obtained from the valley of the distribution of the p-norm values of the candidate area 33 arranged in the search area 32. The present invention is not limited to this, and it is also possible to obtain the boundary of the subject from the distribution of pixel values in one candidate region 33 using the same method. Specifically, in FIGS. 12A to 12H, the search area 32 is replaced with a candidate area 33, and the candidate area 33 in the search area 32 is replaced with a pixel. In this case, in the example of FIGS. 12A to 12H, one candidate region 33 is composed of 5 × 5 pixels. In the candidate area 33, eight directions 151 passing through the central pixel of the candidate area 33 and directions 152 orthogonal to the directions 151 are set. The eight directions 151 and the eight directions 152 orthogonal thereto are each composed of five pixels. The pixel value of 5 pixels in each direction is P m + Δ (i, j), the pixel value of the center pixel of 5 pixels is P m (i 0 , j 0 ), and the equation (1) of the first embodiment Calculate the p-norm of 5 pixels in the direction. A p-norm average value obtained by dividing the obtained p-norm value by the number of pixels (5 in the case of 5 pixels) is obtained. The p-norm average value is obtained for each of the eight directions 151 in FIGS. 12A and 12B, and the direction 151 in which the p-norm average value is the minimum value is selected. The ratio of the p-norm average value in the direction 151 that is the minimum value and the direction 152 that is orthogonal to the direction 151 is calculated.

被検体の境界部分に位置する候補領域33では、境界に沿った方向(pノルム平均値が最小となる方向151)の画素のpノルム平均値が小さく、その直交方向152のpノルム平均値は大きくなるので、両者の比率は大きな値となる。一方、被検体の境界以外の一様な領域に位置する候補領域33では、方向151のpノルム平均値と、その直交方向152のpノルム平均値は、同等になるため、両者の比率は1に近くなる。よって、対象フレームの画像全体の候補領域33について、前記比率を算出すれば、比率が大きい候補領域33の画素は境界部分に該当するので、前記比率を候補領域33の中心画素の画素値として画像を生成することにより、画素単位で境界線を推定可能な画像を生成することができる。比率に代えて、最小値となる方向151のpノルム平均値とその直交方向152のpノルム平均値の差分値等他の関数値を用いることも可能である。   In the candidate region 33 located at the boundary portion of the subject, the p-norm average value of the pixels in the direction along the boundary (the direction 151 in which the p-norm average value is minimum) is small, and the p-norm average value in the orthogonal direction 152 is Since it becomes large, the ratio of both becomes a large value. On the other hand, in the candidate region 33 located in a uniform region other than the boundary of the subject, the p-norm average value in the direction 151 and the p-norm average value in the orthogonal direction 152 are equal, so the ratio between them is 1 Close to. Therefore, if the ratio is calculated for the candidate area 33 of the entire image of the target frame, the pixel of the candidate area 33 with a large ratio corresponds to the boundary portion. By generating the image, it is possible to generate an image in which the boundary line can be estimated in units of pixels. Instead of the ratio, it is also possible to use other function values such as a difference value between the p-norm average value in the minimum direction 151 and the p-norm average value in the orthogonal direction 152.

(第4の実施形態)
第4の実施形態について説明する。
(Fourth embodiment)
A fourth embodiment will be described.

第4の実施形態では、第3の実施形態において処理部10が、探索領域32のpノルム分布に図11の処理を施す前に、pノルム分布にラプラシアンフィルタを適用し、pノルム分布に強調処理を施す。pノルム分布に強調処理を施すことにより、境界方向に沿ったpノルム値の谷が強調されるため、その後第3の実施形態の図11の処理を行うことにより、得られる比率値等も境界部とそうでない領域とでコントラストの大きい画像を得ることができる。   In the fourth embodiment, the processing unit 10 applies the Laplacian filter to the p-norm distribution and emphasizes the p-norm distribution before performing the processing of FIG. 11 on the p-norm distribution of the search area 32 in the third embodiment. Apply processing. Since the valley of the p-norm value along the boundary direction is emphasized by performing the enhancement process on the p-norm distribution, the ratio value obtained by performing the process of FIG. It is possible to obtain an image with a large contrast between the portion and the region that is not.

具体的には、第1の実施形態の図2のステップ21〜23および図3のステップ51〜53を実行し、複数のROI31に対応する探索領域32についてpノルム値の分布を求める。求めたpノルム値の分布に対して空間2次微分処理(ラプラシアンフィルタ)を施し、境界方向に沿ったpノルム値の谷の輪郭が強調されたpノルム値分布を生成する。ラプラシアンフィルタ適用後のpノルム値分布に対して、第3の実施形態の図11の処理を施し、画像を生成する。   Specifically, Steps 21 to 23 in FIG. 2 and Steps 51 to 53 in FIG. 3 of the first embodiment are executed to obtain a distribution of p-norm values for the search region 32 corresponding to a plurality of ROIs 31. A spatial second-order differential process (Laplacian filter) is applied to the obtained distribution of p-norm values to generate a p-norm value distribution in which the contours of the valleys of the p-norm values along the boundary direction are emphasized. The p-norm distribution after applying the Laplacian filter is subjected to the process of FIG. 11 of the third embodiment to generate an image.

同様に、第3の実施形態の後半で説明した候補領域33内の画素値の分布から被検体の境界を求める際に、画素値の分布にラプラシアンフィルタを適用し、強調処理を施してから、pノルム平均値や比率を求めることも可能である。   Similarly, when obtaining the boundary of the subject from the distribution of pixel values in the candidate area 33 described in the second half of the third embodiment, after applying a Laplacian filter to the distribution of pixel values and applying enhancement processing, It is also possible to obtain the p-norm average value and ratio.

(第5の実施形態)
第5の実施形態として、固有値分解処理を用いてpノルム分布から組織の境界を認識可能な画像を生成する処理方法を説明する。
(Fifth embodiment)
As a fifth embodiment, a processing method for generating an image capable of recognizing a tissue boundary from a p-norm distribution using eigenvalue decomposition processing will be described.

まず、処理部10は、第1の実施形態の図2のステップ21〜23および図3のステップ51〜53を実行し、複数のROI31に対応する探索領域32についてpノルム値の分布を求める。求めた探索領域32内の候補領域33のpノルム値(Nmn)を用いて行列Aを生成する。行列Aを下記式(4)の固有方程式に代入し、固有値λ、λn−1、・・・λを求める。固有値のうち最大固有値、あるいは固有値の線形結合を当該探索領域32に対応するROI31のスカラー値とする。ここで、固有値の線形結合とは例えば、最大固有値λnと、2番目の固有値λn−1の二つを用いて、その関数、例えばλ−λn−1をスカラー値とすることである。First, the processing unit 10 executes Steps 21 to 23 of FIG. 2 and Steps 51 to 53 of FIG. 3 of the first embodiment, and obtains a distribution of p-norm values for the search region 32 corresponding to a plurality of ROIs 31. A matrix A is generated using the p-norm value (N mn ) of the candidate area 33 in the obtained search area 32. The matrix A is substituted to a unique equation of the following formula (4), the eigenvalues λ n, λ n-1, obtaining a · · · lambda 1. Among the eigenvalues, a maximum eigenvalue or a linear combination of eigenvalues is set as a scalar value of the ROI 31 corresponding to the search region 32. Here, the linear combination of eigenvalues means, for example, using two of the maximum eigenvalue λn and the second eigenvalue λ n−1 and using the function, for example, λ n −λ n−1 as a scalar value. .

Figure 2013061664
ただし、Nmnは、探索領域32内の候補領域33について式(1)により求めたpノルム値であり、mおよびnは、探索領域32内の候補領域33の位置を示す。
Figure 2013061664
Here, N mn is the p-norm value obtained by the equation (1) for the candidate area 33 in the search area 32, and m and n indicate the position of the candidate area 33 in the search area 32.

すべてのROI31について、最大固有値、あるいは固有値の線形結合をスカラー値として求め、図3のステップ56と同様にスカラー値を画素値(輝度値等)とするスカラー場画像を生成する。   For all ROIs 31, the maximum eigenvalue or a linear combination of eigenvalues is obtained as a scalar value, and a scalar field image having a scalar value as a pixel value (such as a luminance value) is generated in the same manner as in step 56 of FIG.

このように本発明では、固有値を用いてスカラー場画像を生成することができる。   Thus, in the present invention, a scalar field image can be generated using eigenvalues.

本実施形態では、固有値のうち最大固有値、あるいは固有値の線形結合を用いたが、これに限らず、他の1以上の固有値を用いることも可能である。   In the present embodiment, the maximum eigenvalue among eigenvalues or a linear combination of eigenvalues is used. However, the present invention is not limited to this, and one or more other eigenvalues can be used.

(第6の実施形態)
第6の実施形態として、第1の実施形態において図8のステップ25を行い動きベクトル場画像を生成した場合に、ベクトル場に基づいて、境界を抽出可能なスカラー場画像を生成する処理方法について説明する。
(Sixth embodiment)
As a sixth embodiment, a processing method for generating a scalar field image from which a boundary can be extracted based on a vector field when step 25 of FIG. 8 is performed to generate a motion vector field image in the first embodiment. explain.

図8のステップ25により求めた動きベクトル場が、図13(a)、(b)、(c)のようなモデルであると仮定する。図13(a)のモデルは、被検体の境界の方向が中心のROI(注目画素)131を通って水平方向の例であり、図13(b)のモデルは、境界の方向が垂直方向の例であり、図13(c)のモデルは、境界の方向が斜め45度方向の例である。被検体は、境界を挟んだ領域が、それぞれ反対方向に大きさcの動きベクトルで移動していると仮定している。   It is assumed that the motion vector field obtained in step 25 of FIG. 8 is a model as shown in FIGS. 13 (a), (b), and (c). The model of FIG. 13A is an example of the horizontal direction through the ROI (target pixel) 131 whose center is the boundary direction of the subject, and the model of FIG. For example, the model in FIG. 13C is an example in which the direction of the boundary is an oblique 45 degree direction. The subject assumes that the region across the boundary is moving with a motion vector of size c in the opposite direction.

このようなモデルのベクトル場について、従来の歪テンソルを求めてスカラー場に変換する場合についてまず説明する。歪テンソルを求める数式は、特許文献2に記載された公知の式であり、次式で定義される。   First, a case where the vector field of such a model is converted to a scalar field by obtaining a conventional distortion tensor will be described. The mathematical formula for obtaining the strain tensor is a well-known formula described in Patent Document 2, and is defined by the following formula.

Figure 2013061664
式(5)において、動きベクトルのx成分をX、y成分をYとしている。
Figure 2013061664
In equation (5), the x component of the motion vector is X and the y component is Y.

式(5)に表される偏微分値は、例えばROI131の両側の各ベクトル成分の差分平均として計算できる。具体的には、図13(a)、(b)、(c)の各モデルにおいて、式(6)求める。   The partial differential value represented by Expression (5) can be calculated, for example, as a difference average of vector components on both sides of the ROI 131. Specifically, equation (6) is obtained for each model in FIGS. 13 (a), (b), and (c).

Figure 2013061664
Figure 2013061664

例えば、図13(a)のベクトル場では(0,C)、図13(b)のベクトル場では(−C,0)、図13(c)のベクトル場では、(−C/√2,C/√2)となる。このため、境界を挟んで両側のベクトル場が大きさがCで向きが反対であるという同じ条件であっても、図13(c)のように、境界が斜め方向である場合には、歪みテンソルが、図13(a)、(b)のように水平や垂直な境界の場合の歪テンソルのC/2になってしまうため、歪テンソルによりベクトル場をスカラー場に変換して、歪テンソルをROI131の画素値として画像化すると、斜め方向の境界が水平や垂直な画像と比較して不明瞭になる。このため、斜め方向の境界の検出能が低下する。   For example, (0, C) in the vector field of FIG. 13 (a), (−C, 0) in the vector field of FIG. 13 (b), (−C / √2, in the vector field of FIG. 13 (c). C / √2). For this reason, even if the vector field on both sides across the boundary has the same condition that the magnitude is C and the direction is opposite, if the boundary is oblique as shown in FIG. Since the tensor becomes C / 2 of the distortion tensor in the case of a horizontal or vertical boundary as shown in FIGS. 13A and 13B, the vector field is converted into a scalar field by the distortion tensor, and the distortion tensor is converted. Is imaged as a pixel value of the ROI 131, the boundary in the oblique direction becomes unclear compared to a horizontal or vertical image. For this reason, the detection ability of the boundary of an oblique direction falls.

そこで本発明では、次式(7)で定義されるスカラー値を用いて、動きベクトル場をスカラー場に変換する。式(7)は、式(1)と同様のべき乗およびべき乗根を含む形式であるので、ここでは境界ノルムと称する。   Therefore, in the present invention, a motion vector field is converted into a scalar field using a scalar value defined by the following equation (7). Since Expression (7) is a form including a power and a power root similar to Expression (1), it is referred to as a boundary norm here.

Figure 2013061664
Figure 2013061664

図13(a)、(b)、(c)の各モデルにおいて、上記境界ノルムを求めると、いずれのモデルも境界ノルム値は、Cとなる。よって、ベクトルの方向に関わらず、ベクトル場をスカラー場に等しく変換できる。したがって本発明の境界ノルムにより、ベクトル場をスカラー場に変換し、スカラー値(境界ノルム値)をROI131の画素値とする画像を生成することによって、方向に対してロバスト性の高い境界検出が可能となる。   In each model of FIGS. 13A, 13B, and 13C, when the boundary norm is obtained, the boundary norm value is C in any model. Thus, the vector field can be converted equally to a scalar field regardless of the direction of the vector. Therefore, by using the boundary norm of the present invention, a vector field is converted into a scalar field, and an image having a scalar value (boundary norm value) as a pixel value of the ROI 131 can be generated to detect a boundary having high robustness with respect to the direction. It becomes.

図14に本実施形態の境界ノルムを用いたスカラー場画像の生成手順を示す。まず、第1の実施形態の図8のステップ21〜25を実行し、ベクトル場画像を生成する。生成したベクトル場画像に対して、図14の処理を実行する。まず、ベクトル場画像上に、複数のROI131を設定する(ステップ142)。次に一つのROI131についてx方向およびy方向についてベクトルの偏微分を行い、これを用いて式(7)の境界ノルムを計算する(ステップ143)。得られた境界ノルム値を当該ROI131のスカラー値とする。これらの処理を全ROI131に繰り返す(ステップ141)。そして境界ノルム値をROI131の画素値(例えば輝度値)に変換してスカラー値画像を生成する。   FIG. 14 shows a procedure for generating a scalar field image using the boundary norm of this embodiment. First, steps 21 to 25 in FIG. 8 of the first embodiment are executed to generate a vector field image. The process of FIG. 14 is performed with respect to the generated vector field image. First, a plurality of ROIs 131 are set on the vector field image (step 142). Next, partial differentiation of vectors is performed for one ROI 131 in the x direction and y direction, and the boundary norm of Expression (7) is calculated using this (step 143). The obtained boundary norm value is set as the scalar value of the ROI 131. These processes are repeated for all ROIs 131 (step 141). Then, the boundary norm value is converted into a pixel value (for example, luminance value) of the ROI 131 to generate a scalar value image.

(第7の実施形態)
第7の実施形態について説明する。
(Seventh embodiment)
A seventh embodiment will be described.

第7の実施形態では、第1の実施形態の図3のステップ51で複数のROI31を設定する際に、図15のように分解能向上のためにROI31の一部が重なり合うように配置した場合に、ステップ53において、重複領域151の演算結果を、処理部10のメモリ10b内に設けたルックアップテーブルに格納し、演算量を削減する。他の構成は、第1の実施形態と同様である。   In the seventh embodiment, when a plurality of ROIs 31 are set in step 51 of FIG. 3 of the first embodiment, when the ROIs 31 are arranged so as to overlap each other for improving resolution as shown in FIG. In step 53, the calculation result of the overlapping area 151 is stored in a lookup table provided in the memory 10b of the processing unit 10 to reduce the calculation amount. Other configurations are the same as those of the first embodiment.

図16に、本実施形態におけるステップ53の処理手順を示す。なお、図16のフローにおいて図3のフローと同じステップには、同じ符号を付している。   FIG. 16 shows the processing procedure of step 53 in the present embodiment. In the flow of FIG. 16, the same steps as those in the flow of FIG. 3 are denoted by the same reference numerals.

最初に、図2のステップ51で設定された複数ROI31に図15のように重複領域151−1、151−2がある場合、この重複領域のピクセルについての後述の式(8)のpノルム和をステップ52の候補領域33ごとに記録するためのメモリ領域を処理部10のメモリ10b内に登録し、ルックアップテーブルを生成する(ステップ161)。   First, when there are overlapping areas 151-1 and 151-2 in the plurality of ROIs 31 set in step 51 of FIG. 2 as shown in FIG. 15, the p-norm sum of Expression (8) described later for the pixels in the overlapping area Is registered in the memory 10b of the processing unit 10 to generate a lookup table (step 161).

つぎに、対象ROI31−1を選択し(ステップ163)、さらに対象ROI31−1に対応する探索領域32内の候補領域33を選択する。ROI31−1のピクセルのうちルックアップテーブルにpノルム和が格納されていないピクセル(すなわち重複領域151−1ではないピクセル)について、式(1)のpべき乗根の中の式である下式(8)により、pノルム和を計算する(ステップ165)。なお、ステップ165において、ルックアップテーブルに重複領域151−1のpノルム和データが未記録である場合には、重複領域151−1のピクセルについてもpノルム和を計算する。   Next, the target ROI 31-1 is selected (step 163), and the candidate area 33 in the search area 32 corresponding to the target ROI 31-1 is selected. Of the pixels of ROI 31-1, for which the p-norm sum is not stored in the lookup table (that is, pixels that are not the overlapping region 151-1), the following equation (1) is an equation in the p-power root of (1): According to 8), the p-norm sum is calculated (step 165). In step 165, if the p-norm sum data of the overlapping area 151-1 is not recorded in the lookup table, the p-norm sum is also calculated for the pixels of the overlapping area 151-1.

Figure 2013061664
Figure 2013061664

次にルックアップテーブルを参照し、当該ROI31−1の重複領域151−1のピクセルのpノルム和データが格納されている場合には、それを読み出し、ステップ165で求めたpノルム和と加算し、加算結果のpべき乗根を算出することにより式(1)のpノルムを求める(ステップ166)。これにより、当該ROI31−1の当該候補領域についてのpノルム値を求めることができる。求めたpノルム値は、メモリ10bに格納する。   Next, referring to the look-up table, if the p-norm sum data of the pixel in the overlap region 151-1 of the ROI 31-1 is stored, it is read out and added to the p-norm sum obtained in step 165. Then, the p-norm of the equation (1) is obtained by calculating the p-th power root of the addition result (step 166). Thereby, the p-norm value for the candidate region of the ROI 31-1 can be obtained. The obtained p-norm value is stored in the memory 10b.

ステップ166で算出したpノルム和に、ルックアップテーブルに未記録の重複領域151−1のデータが含まれる場合には、その重複領域151−1のpノルム和をルックアップテーブルに記録する(ステップ167)。ROI31−1に対応する探索領域32内のすべて候補領域について繰り返す。これにより、ROI31−1のpノルム値分布を求めることができる(ステップ168)。当該ROI31−1についてのpノルム値分布を求めたならば、ステップ54により乖離度を求め、対象ROI31−1のスカラー値とする。   If the p-norm sum calculated in step 166 includes the data of the unrecorded overlapping area 151-1 in the lookup table, the p-norm sum of the overlapping area 151-1 is recorded in the lookup table (step 167). It repeats about all the candidate area | regions in the search area | region 32 corresponding to ROI31-1. Thereby, the p-norm value distribution of ROI 31-1 can be obtained (step 168). If the p-norm value distribution for the ROI 31-1 is obtained, the degree of divergence is obtained in step 54 and set as the scalar value of the target ROI 31-1.

つぎに、次のROI31−2を選択し(ステップ162、163)、候補領域を選択する(ステップ164)。ROI31−2のピクセルのうちルックアップテーブルにpノルム和が格納されていないピクセル(すなわち重複領域151−1ではないピクセル)について、式(1)のpべき乗根の中の式である下式(8)により、pノルム和を計算する(ステップ165)。当該ROI31−2の重複領域151−1のピクセルのpノルム和データは、ルックアップテーブルにすでに格納されているので、これを読み出し、ステップ165で求めたpノルム和と加算し、加算結果のpべき乗根を算出することにより式(1)のpノルムを求める(ステップ166)。これにより、重複領域151−1のpノルム和の演算をすることなく、少ない演算量で、当該ROI31−2の当該候補領域についてのpノルム値を求めることができる。   Next, the next ROI 31-2 is selected (steps 162 and 163), and a candidate area is selected (step 164). Among the pixels of ROI 31-2, for the pixels in which the p-norm sum is not stored in the lookup table (that is, pixels that are not the overlapping region 151-1), the following equation (1) is an equation in the p-power root of (1): According to 8), the p-norm sum is calculated (step 165). Since the p-norm sum data of the pixels in the overlap region 151-1 of the ROI 31-2 is already stored in the lookup table, it is read out and added to the p-norm sum obtained in step 165, and the addition result p The p-norm of equation (1) is obtained by calculating the power root (step 166). Thus, the p-norm value for the candidate region of the ROI 31-2 can be obtained with a small amount of calculation without calculating the p-norm sum of the overlapping region 151-1.

求めたpノルム値は、メモリ10bに格納する。また、ステップ165で計算する際に求めた重複領域151−2のpノルム和をルックアップテーブルに記録する(ステップ167)。   The obtained p-norm value is stored in the memory 10b. In addition, the p-norm sum of the overlapping area 151-2 obtained in the calculation in step 165 is recorded in the lookup table (step 167).

上記ステップ163〜168を全ROIについて繰り返すことにより、pノルム値分布を求めることができる(ステップ55)。これにより、重複領域151での再計算が不要となり、演算量削減が可能となる。   The p-norm value distribution can be obtained by repeating the above steps 163 to 168 for all ROIs (step 55). This eliminates the need for recalculation in the overlapping area 151, and reduces the amount of calculation.

なお、本実施形態では、隣り合うROI31が一部重なりあっている場合について、重複領域を設定し、pノルム和をルックアップテーブルに格納する構成について説明したが、探索領域32内で隣り合う候補領域33が一部重なっている場合についても、重複領域を設定し、その領域のpノルム和をルックアップテーブルに格納する構成にすることにより、演算量を削減することができる。   In the present embodiment, the configuration in which the overlapping region is set and the p-norm sum is stored in the lookup table when the adjacent ROIs 31 partially overlap has been described. Even when the region 33 partially overlaps, the amount of calculation can be reduced by setting an overlapping region and storing the p-norm sum of the region in the lookup table.

(第8の実施形態)
第8の実施形態について説明する。
(Eighth embodiment)
An eighth embodiment will be described.

上述してきた第1〜第7の実施形態のいずれかを連続するフレームについて実行することにより、ノルム分布から生成したスカラー場の連続画像やベクトル場の連続画像を生成することができ、これを時系列に表示することができる。このとき、何らかの理由で、適切に画像生成がされなかった異常フレームが発生する場合がある。第8の実施形態では、異常フレームを除去し、適切な連続画像を表示可能にする。   By executing any one of the first to seventh embodiments described above for a continuous frame, a continuous image of a scalar field or a continuous image of a vector field generated from a norm distribution can be generated. Can be displayed in series. At this time, an abnormal frame that has not been properly generated for some reason may occur. In the eighth embodiment, abnormal frames are removed and an appropriate continuous image can be displayed.

異常フレームは、描出領域が極端に少なくなる特徴が有るため、それを判別することにより、異常フレームか正常フレームかを判別する。本実施形態では、描出領域が多いか少ないかを情報エントロピーの大小により判別する。ベクトル場画像の情報エントロピーは次式(9)で定義される。

Figure 2013061664
ここで、Pxは、ベクトルのx成分の発生確率、Pyは、ベクトルのy成分の発生確率である。この式により求められる情報エントロピーHは、x成分とy成分の結合エントロピーであり、フレーム全体の平均情報量を表している。The abnormal frame has a feature that the drawing area is extremely small. Therefore, the abnormal frame is determined to determine whether it is an abnormal frame or a normal frame. In the present embodiment, whether the rendering area is large or small is determined based on the magnitude of information entropy. The information entropy of the vector field image is defined by the following equation (9).
Figure 2013061664
Here, Px is the occurrence probability of the x component of the vector, and Py is the occurrence probability of the y component of the vector. The information entropy H obtained by this equation is the combined entropy of the x component and the y component, and represents the average information amount of the entire frame.

第1〜第7の実施形態によりpノルム分布等から求めたスカラー場画像について情報エントロピーを求める場合、式(9)の右辺で変数は1項目のみとなる。   When the information entropy is obtained for the scalar field image obtained from the p-norm distribution or the like according to the first to seventh embodiments, the variable is only one item on the right side of Expression (9).

図17に、時系列の連続フレームの一例について、上記式(9)により情報エントロピーを求めた結果を示す。図18では、連続する10フレームについて情報エントロピーの経時変化を示している。図17に、本実施形態の画像フレームの表示処理手順を示す。情報エントロピーが小さいフレームは、情報量が少ない異常フレームであるので、情報エントロピーが所定の閾値未満のフレームは表示せず、前のフレームをホールド表示する処理にする。   FIG. 17 shows a result of obtaining information entropy by the above equation (9) for an example of time-series continuous frames. FIG. 18 shows the change in information entropy over time for 10 consecutive frames. FIG. 17 shows an image frame display processing procedure of the present embodiment. Since a frame with a small information entropy is an abnormal frame with a small amount of information, a frame in which the information entropy is less than a predetermined threshold is not displayed, and a process of holding and displaying the previous frame is performed.

具体的には、図18のステップ181により閾値を設定し、最初のフレームを選択し、情報エントロピーを計算して、それが設定した閾値未満の場合、情報エントロピーを計算した現フレーム(当該フレーム)に代えて前のフレームを表示し、閾値以上の場合、そのまま現フレームを表示する。これを全フレームについて繰り返す。この処理により、異常フレームを除去して視認性の良好な連続画像を表示可能となる。なお、閾値としては、例えば、予め定めた値とすることも可能であるし、所定数のフレームの平均値を用いることも可能である。   Specifically, a threshold is set in step 181 in FIG. 18, the first frame is selected, information entropy is calculated, and if it is less than the set threshold, the current frame (the current frame) in which information entropy is calculated Instead, the previous frame is displayed, and if it is equal to or greater than the threshold, the current frame is displayed as it is. This is repeated for all frames. With this process, it is possible to remove abnormal frames and display a continuous image with good visibility. As the threshold value, for example, a predetermined value can be used, or an average value of a predetermined number of frames can be used.

(第9の実施形態)
第9の実施形態について説明する。
(Ninth embodiment)
A ninth embodiment will be described.

第1の実施形態では、図7(a)のようにpノルム分布から求めたスカラー値画像とBモード画像とを重畳して表示し、図7(b)では、これの画像にさらにベクトル場画像を重畳して表示している。第9の実施形態では、重畳するスカラー場画像を図19(a)のように境界部分のみ抽出し、Bモード画像等に重畳することにより、視認性を向上させる。   In the first embodiment, a scalar value image obtained from a p-norm distribution and a B-mode image are superimposed and displayed as shown in FIG. 7A, and in FIG. 7B, a vector field is further added to this image. The image is superimposed and displayed. In the ninth embodiment, visibility is improved by extracting only the boundary portion of the scalar field image to be superimposed as shown in FIG. 19A and superimposing it on the B-mode image or the like.

図20に本実施形態の画像合成の処理手順を示す。まず、第1の実施形態等で生成したスカラー場画像のスカラー値のヒストグラムを図19(b)のように作成する(ステップ201)。スカラー値の大きい領域の山型状分布を探索し、その最小値(分布の谷)191を探索する(ステップ202)。そして最小値191を閾値に設定して、スカラー場画像でそれよりも大きいスカラー値の画素を抽出し、抽出したスカラー場画像を生成する(ステップ203)。抽出したスカラー場画像は、スカラー値の大きい境界部分を描出している。この抽出したスカラー場画像をBモード画像(及びベクトル場画像)に重畳して表示することにより、境界部を明確に認識でき、境界部以外は、Bモード画像やベクトル場画像で容易に確認できる視認性の高い画像を表示できる(ステップ204)。   FIG. 20 shows an image composition processing procedure according to this embodiment. First, a histogram of scalar values of a scalar field image generated in the first embodiment or the like is created as shown in FIG. 19B (step 201). A mountain-shaped distribution in a region having a large scalar value is searched, and its minimum value (distribution trough) 191 is searched (step 202). Then, the minimum value 191 is set as a threshold, pixels having a scalar value larger than that are extracted from the scalar field image, and an extracted scalar field image is generated (step 203). The extracted scalar field image depicts a boundary portion having a large scalar value. By displaying the extracted scalar field image superimposed on the B-mode image (and the vector field image), the boundary can be clearly recognized, and the area other than the boundary can be easily confirmed with the B-mode image and the vector field image. An image with high visibility can be displayed (step 204).

本発明は、医用超音波診断・治療装置、ならびに、超音波を含めた電磁波一般を用いて歪みやずれを計測する装置全般に適用可能である。   INDUSTRIAL APPLICABILITY The present invention can be applied to medical ultrasonic diagnostic / treatment apparatuses and general apparatuses that measure distortion and deviation using general electromagnetic waves including ultrasonic waves.

1:超音波探触子(プローブ)、2:ユーザインタフェース、3:送波ビームフォーマ、4:制御系、5:送受切り替えスイッチ、6:受波ビームフォーマ、7:包絡線検波部、8:スキャンコンバータ、10:処理部、10a:CPU、10b:メモリ、11:パラメータ設定部、12:合成部、13:表示部   1: Ultrasonic probe (probe) 2: User interface 3: Transmission beamformer 4: Control system 5: Transmission / reception changeover switch 6: Reception beamformer 7: Envelope detector 8: Scan converter, 10: processing unit, 10a: CPU, 10b: memory, 11: parameter setting unit, 12: synthesis unit, 13: display unit

受波ビームフォーマ6は、制御系4の制御下で受信タイミングに応じて遅延時間を調整するダイナミックフォーカスを行って、実部と虚部のRF信号を出力する。このRF信号は包絡線検波部7によって検波されてからビデオ信号に変換され、スキャンコンバータ8に入力されて画像データ(Bモード画像データ)に変換される。以上説明した構成は、周知の超音波イメージング装置の構成と同じである。さらに本発明では、RF信号を直接処理する構成により、超音波境界検出を実施する事も可能である。 Reception beam former 6 performs dynamic focus adjusting delay time according to reception timing under the control of the control system 4 and outputs the RF signal of a real part and an imaginary part. The RF signal is detected by the envelope detector 7 and then converted into a video signal, which is input to the scan converter 8 and converted into image data (B-mode image data). The configuration described above is the same as the configuration of a known ultrasonic imaging apparatus. Furthermore, in the present invention, it is also possible to perform ultrasonic boundary detection by a configuration that directly processes the RF signal.

比較例として、図6(c)に従来のブロックマッチング処理により求めたベクトル場画像を示す。この画像は、図6(a)のBモード画像をフレームmとし、次フレーム(フレームm+Δ、Δ=1フレーム)とのブロックマッチング処理(ステップ24)により、ROIの移動位置を求め、移動の方向および大きさをベクトル(矢印)として示したベクトル場画像である。図6(c)において下部(深部)の領域には、動きベクトルが乱れている現象が見られる。これは上部に設置したプローブからの距離が遠くなる程、検出感度のSN比が低下して電気ノイズ等の影響が増大する事に起因しており、ペネトレーション限界を示している。図6(d)には、図6(c)のベクトル場の歪テンソルを求め、歪テンソルを画素値(例えば輝度値)として画像化したものを示す。図6()においても誤ベクトルの影響で、深部において虚像が発生している現象が見られる。 As a comparative example, FIG. 6C shows a vector field image obtained by a conventional block matching process. In this image, the B-mode image in FIG. 6A is set as the frame m, the ROI moving position is obtained by block matching processing (step 24) with the next frame (frame m + Δ, Δ = 1 frame), and the moving direction is determined. It is the vector field image which showed the magnitude | size as a vector (arrow). In FIG. 6C, a phenomenon in which the motion vector is disturbed is seen in the lower (deep) region. This is because the SN ratio of the detection sensitivity decreases and the influence of electric noise and the like increases as the distance from the probe installed at the upper portion increases, indicating the penetration limit. FIG. 6D shows a distortion tensor of the vector field shown in FIG. 6C, which is imaged as a pixel value (for example, a luminance value). In FIG. 6 ( d ), a phenomenon in which a virtual image is generated in the deep part due to the influence of the erroneous vector can be seen.

このように、本実施形態のpノルムから求めたスカラー場画像(図6(b))は、従来の図6(c)、(d)のベクトル場やベクトル場に基づく歪テンソル場画像と比較して、虚像を抑制でき、滑り境界部を明確に示すことができる。 As described above, the scalar field image (FIG. 6B) obtained from the p-norm of the present embodiment is compared with the conventional vector field of FIG. 6C and FIG. 6D and the distortion tensor field image based on the vector field. Thus, the virtual image can be suppressed and the slip boundary portion can be clearly shown.

最初に、図のステップ51で設定された複数ROI31に図15のように重複領域151−1、151−2がある場合、この重複領域のピクセルについての後述の式(8)のpノルム和をステップ52の候補領域33ごとに記録するためのメモリ領域を処理部10のメモリ10b内に登録し、ルックアップテーブルを生成する(ステップ161)。 First, when there are overlapping areas 151-1 and 151-2 as shown in FIG. 15 in the plurality of ROIs 31 set in step 51 of FIG. 3 , the p-norm sum of the later-described equation (8) for the pixels in the overlapping area Is registered in the memory 10b of the processing unit 10 to generate a lookup table (step 161).

つぎに、次のROI31−2を選択し(ステップ163)、候補領域を選択する(ステップ164)。ROI31−2のピクセルのうちルックアップテーブルにpノルム和が格納されていないピクセル(すなわち重複領域151−1ではないピクセル)について、式(1)のpべき乗根の中の式である下式(8)により、pノルム和を計算する(ステップ165)。当該ROI31−2の重複領域151−1のピクセルのpノルム和データは、ルックアップテーブルにすでに格納されているので、これを読み出し、ステップ165で求めたpノルム和と加算し、加算結果のpべき乗根を算出することにより式(1)のpノルムを求める(ステップ166)。これにより、重複領域151−1のpノルム和の演算をすることなく、少ない演算量で、当該ROI31−2の当該候補領域についてのpノルム値を求めることができる。 Next, select the following ROI31-2 (Step 163), selects the candidate area (step 164). Among the pixels of ROI 31-2, for the pixels in which the p-norm sum is not stored in the lookup table (that is, pixels that are not the overlapping region 151-1), the following equation (1) is an equation in the p-power root of (1): According to 8), the p-norm sum is calculated (step 165). Since the p-norm sum data of the pixels in the overlap region 151-1 of the ROI 31-2 is already stored in the lookup table, it is read out and added to the p-norm sum obtained in step 165, and the addition result p The p-norm of equation (1) is obtained by calculating the power root (step 166). Thus, the p-norm value for the candidate region of the ROI 31-2 can be obtained with a small amount of calculation without calculating the p-norm sum of the overlapping region 151-1.

図17に、時系列の連続フレームの一例について、上記式(9)により情報エントロピーを求めた結果を示す。図17では、連続する10フレームについて情報エントロピーの経時変化を示している。図18に、本実施形態の画像フレームの表示処理手順を示す。情報エントロピーが小さいフレームは、情報量が少ない異常フレームであるので、情報エントロピーが所定の閾値未満のフレームは表示せず、前のフレームをホールド表示する処理にする。 FIG. 17 shows a result of obtaining information entropy by the above equation (9) for an example of time-series continuous frames. FIG. 17 shows the change over time in information entropy for 10 consecutive frames. FIG. 18 shows an image frame display processing procedure of the present embodiment. Since a frame with a small information entropy is an abnormal frame with a small amount of information, a frame in which the information entropy is less than a predetermined threshold is not displayed, and a process of holding and displaying the previous frame is performed.

Claims (20)

対象に向かって超音波を送信する送信部と、前記対象から到来する超音波を受信する受信部と、前記受信部の受信信号を処理して2フレーム以上の画像を生成する処理部とを有し、
前記処理部は、前記生成した2フレーム以上の画像のうち、1のフレームに複数の関心領域を設定し、別の1のフレームに前記関心領域よりも広い探索領域を前記複数の関心領域ごとに設定し、前記探索領域内に前記関心領域と対応する大きさの候補領域を複数設定し、前記関心領域の画素値と前記候補領域内の画素値との間のノルムを、前記複数の候補領域ごとに求めることにより、前記探索領域内のノルムの分布を求め、当該ノルムの分布状態を表す値を、前記探索領域に対応する前記関心領域の画素値として画像を生成することを特徴とする超音波イメージング装置。
A transmission unit that transmits ultrasonic waves toward the target; a reception unit that receives ultrasonic waves coming from the target; and a processing unit that generates an image of two or more frames by processing a reception signal of the reception unit. And
The processing unit sets a plurality of regions of interest in one frame among the generated images of two or more frames, and sets a search region wider than the region of interest in another frame for each of the plurality of regions of interest. And setting a plurality of candidate regions having a size corresponding to the region of interest in the search region, and setting a norm between the pixel value of the region of interest and the pixel value in the candidate region. And calculating a norm distribution in the search region and generating a value representing a distribution state of the norm as a pixel value of the region of interest corresponding to the search region. Acoustic imaging device.
請求項1に記載の超音波イメージング装置において、前記ノルムは、下記式(1)で表わされるpノルムであることを特徴とする超音波イメージング装置。
Figure 2013061664
ただし、Pm(i、j)は、前記関心領域内の位置(i、j)にある画素の画素値、Pm+Δ(i、j)は、前記候補領域内の位置(i、j)にある画素の画素値、pは予め定めた実数
2. The ultrasonic imaging apparatus according to claim 1, wherein the norm is a p-norm represented by the following formula (1).
Figure 2013061664
However, P m (i 0 , j 0 ) is the pixel value of the pixel at the position (i 0 , j 0 ) in the region of interest, and P m + Δ (i, j) is the position (i , J) The pixel value of the pixel in p), p is a predetermined real number
請求項2に記載の超音波イメージング装置において、前記pは、1よりも大きい実数であることを特徴とする超音波イメージング装置。   The ultrasonic imaging apparatus according to claim 2, wherein the p is a real number larger than one. 請求項1に記載の超音波イメージング装置において、前記ノルムの分布状態を表す値は、当該分布の統計量であることを特徴とする超音波イメージング装置。   The ultrasound imaging apparatus according to claim 1, wherein the value representing the norm distribution state is a statistic of the distribution. 請求項4に記載の超音波イメージング装置において、前記統計量は、前記探索領域内のノルム分布のノルム値の最小値と、ノルム値の平均値との差で定義される乖離度であることを特徴とする超音波イメージング装置。   5. The ultrasonic imaging apparatus according to claim 4, wherein the statistic is a divergence defined by a difference between a minimum value of a norm value of a norm distribution in the search region and an average value of the norm values. A featured ultrasonic imaging apparatus. 請求項4に記載の超音波イメージング装置において、前記統計量は、前記探索領域内のノルム分布のノルム値の標準偏差を平均値で除算した変動係数であることを特徴とする超音波イメージング装置。   5. The ultrasonic imaging apparatus according to claim 4, wherein the statistic is a coefficient of variation obtained by dividing a standard deviation of a norm value of a norm distribution in the search region by an average value. 請求項1に記載の超音波イメージング装置において、前記処理部は、前記探索領域内に設定した着目領域を中心とした複数の方向のうち、その方向に沿った位置にある前記候補領域のノルム値の平均が最小になる第1方向と、前記着目領域を通って前記第1方向と直交する第2方向とをそれぞれ求め、前記第1方向に沿った前記候補領域の前記ノルム値の平均と、前記第2の方向に沿った前記候補領域の前記ノルム値の平均との比率値または差分値を、前記探索領域に対応する前記関心領域についての前記ノルムの分布状態を表す値として用いることを特徴とする超音波イメージング装置。   The ultrasound imaging apparatus according to claim 1, wherein the processing unit is a norm value of the candidate region at a position along the direction among a plurality of directions centered on the region of interest set in the search region. A first direction that minimizes an average of the second direction and a second direction that is orthogonal to the first direction through the region of interest, and an average of the norm values of the candidate regions along the first direction; A ratio value or a difference value with respect to an average of the norm values of the candidate regions along the second direction is used as a value representing a distribution state of the norm for the region of interest corresponding to the search region. An ultrasonic imaging apparatus. 請求項1に記載の超音波イメージング装置において、前記処理部は、前記候補領域内の中心に中心画素を設定し、前記中心画素を中心とした複数の方向を設定し、前記中心画素の画素値と前記方向の位置にある複数画素の画素値との間のノルム値を求め、求めたノルム値を前記方向の画素数で除したノルム値の平均を求め、ノルム値の平均が最小になる第1方向と、前記中心画素を通って前記第1方向と直交する第2方向の位置にある複数画素と前記中心画素とについて求めたノルム値の平均との比率値または差分値を、前記候補領域の中心画素の値として用いることを特徴とする超音波イメージング装置。   2. The ultrasound imaging apparatus according to claim 1, wherein the processing unit sets a central pixel at a center in the candidate region, sets a plurality of directions around the central pixel, and sets a pixel value of the central pixel. And a norm value between the pixel values of the plurality of pixels at the position in the direction, an average of norm values obtained by dividing the obtained norm value by the number of pixels in the direction is obtained, and the average of the norm values is minimized. A ratio value or a difference value between an average of norm values obtained for one center and a plurality of pixels located in a second direction orthogonal to the first direction through the center pixel and the center pixel is calculated as the candidate area. An ultrasonic imaging apparatus characterized by being used as a value of the center pixel of the image. 請求項7に記載の超音波イメージング装置において、前記処理部は、前記探索領域内のノルムの分布に予めラプラシアンフィルタにより強調処理し、強調処理後の分布について前記比率値または差分値を求めることを特徴とする超音波イメージング装置。   The ultrasound imaging apparatus according to claim 7, wherein the processing unit performs an enhancement process on a norm distribution in the search region in advance by a Laplacian filter, and obtains the ratio value or the difference value for the distribution after the enhancement process. A featured ultrasonic imaging apparatus. 請求項8に記載の超音波イメージング装置において、前記処理部は、前記候補領域内の画素値を予めラプラシアンフィルタにより強調処理し、強調処理後の画素値について前記比率値または差分値を求めることを特徴とする超音波イメージング装置。   9. The ultrasonic imaging apparatus according to claim 8, wherein the processing unit performs an enhancement process on a pixel value in the candidate area in advance by a Laplacian filter, and obtains the ratio value or the difference value for the pixel value after the enhancement process. A featured ultrasonic imaging apparatus. 請求項1に記載の超音波イメージング装置において、前記処理部は、前記探索領域内のノルムの分布を表わす行列を生成し、当該行列に固有値分解処理を施して固有値を求め、当該固有値を、前記探索領域に対応する前記関心領域についての前記ノルムの分布状態を表す値として用いることを特徴とする超音波イメージング装置。   The ultrasound imaging apparatus according to claim 1, wherein the processing unit generates a matrix representing a norm distribution in the search region, performs eigenvalue decomposition processing on the matrix to obtain an eigenvalue, An ultrasound imaging apparatus, characterized in that it is used as a value representing a distribution state of the norm for the region of interest corresponding to a search region. 請求項1に記載の超音波イメージング装置において、
前記処理部は、
前記探索領域の中で前記ノルム値が最小になる候補領域を前記関心領域の移動先として選択して、前記関心領域の位置と前記選択した候補領域の位置とを結ぶ動きベクトルを求め、複数の前記関心領域についてそれぞれ前記動きベクトルを生成することにより、動きベクトル場を生成し、
前記動きベクトル場に設定した複数の着目領域についてそれぞれ、x成分に関してのy方向微分の2乗値と、y成分に関してのx方向微分の2乗値との総和を境界ノルム値として求め、当該境界ノルム値を前記着目領域の画素値として画像を生成する
ことを特徴とする超音波イメージング装置。
The ultrasound imaging apparatus according to claim 1,
The processor is
Selecting a candidate region having the smallest norm value in the search region as a destination of the region of interest, obtaining a motion vector connecting the position of the region of interest and the position of the selected candidate region, Generating a motion vector field by generating the motion vector for each region of interest;
For each of the plurality of regions of interest set in the motion vector field, the sum of the square value of the y-direction derivative with respect to the x component and the square value of the x-direction derivative with respect to the y component is obtained as a boundary norm value. An ultrasonic imaging apparatus that generates an image using a norm value as a pixel value of the region of interest.
請求項1に記載の超音波イメージング装置において、
前記処理部は、前記複数の関心領域を一部重複するように設定し、1の関心領域についてノルムを計算する際に前記重複する領域について求めた値を、記憶領域のルックアップテーブルに格納し、他の関心領域についてノルムを計算する際に前記ルックアップテーブルから読み出して用いることを特徴とする超音波イメージング装置。
The ultrasound imaging apparatus according to claim 1,
The processing unit sets the plurality of regions of interest to partially overlap each other, and stores a value obtained for the overlapping regions when calculating a norm for one region of interest in a lookup table of a storage region. An ultrasonic imaging apparatus that is used by reading from the lookup table when calculating a norm for another region of interest.
請求項1に記載の超音波イメージング装置において、
前記処理部は、前記複数の候補領域を一部重複するように設定し、1の候補領域についてノルムを計算する際に前記重複する領域について求めた値を、記憶領域のルックアップテーブルに格納し、他の候補領域についてノルムを計算する際に前記ルックアップテーブルから読み出して用いることを特徴とする超音波イメージング装置。
The ultrasound imaging apparatus according to claim 1,
The processing unit sets the plurality of candidate areas so as to partially overlap, and stores a value obtained for the overlapping areas when calculating a norm for one candidate area in a lookup table of a storage area. An ultrasonic imaging apparatus that is read from the lookup table and used when calculating norms for other candidate regions.
請求項1に記載の超音波イメージング装置において、
前記処理部は、
前記ノルムの分布状態を表す値を画素値として生成した画像を、時系列に複数フレーム生成し、当該フレームごとに情報エントロピー量を算出し、
前記情報エントロピー量が予め設定した閾値以上の場合、当該フレームを表示する
ことを特徴とする超音波イメージング装置。
The ultrasound imaging apparatus according to claim 1,
The processor is
An image generated by using a value representing the norm distribution state as a pixel value is generated in a plurality of frames in time series, and an information entropy amount is calculated for each frame,
When the information entropy amount is equal to or greater than a preset threshold value, the frame is displayed.
請求項1に記載の超音波イメージング装置において、
前記処理部は、
前記ノルムの分布状態を表す値が所定値以上の画素を抽出した抽出画像を生成し、Bモード画像と重畳して表示させることを特徴とする超音波イメージング装置。
The ultrasound imaging apparatus according to claim 1,
The processor is
An ultrasonic imaging apparatus, wherein an extracted image obtained by extracting pixels having a value representing a norm distribution state equal to or greater than a predetermined value is generated and superimposed on a B-mode image.
請求項16に記載の超音波イメージング装置において、
前記処理部は、
前記ノルムの分布状態を表す値を画素値として生成した画像について、前記ノルムの分布状態を表す値とその頻度のヒストグラムを生成し、
前記ヒストグラムの山型状分布を探索し、山型状分布の最小値を前記所定値として用いることを特徴とする超音波イメージング装置。
The ultrasonic imaging apparatus according to claim 16, wherein
The processor is
For an image generated using a value representing the norm distribution state as a pixel value, a histogram representing the norm distribution state and its frequency is generated.
An ultrasonic imaging apparatus characterized by searching for a mountain-shaped distribution of the histogram and using a minimum value of the mountain-shaped distribution as the predetermined value.
対象に向かって超音波を送信し、前記対象から到来する超音波を受信して得た受信信号を処理して2フレーム以上の画像を生成し、
前記画像から2フレームを選択し、
1のフレームに複数の関心領域を設定し、
別の1のフレームに前記関心領域よりも広い探索領域を前記複数の関心領域ごとに設定し、前記探索領域内に前記関心領域と対応する大きさの候補領域を複数設定し、
前記関心領域の画素値と前記候補領域内の画素値との間のノルムを、前記複数の候補領域ごとに求めることにより、前記探索領域内のノルムの分布を求め、
当該ノルムの分布状態を表す値を、前記探索領域に対応する前記関心領域の画素値として画像を生成する
ことを特徴とする超音波イメージング方法。
Transmitting an ultrasonic wave toward the object, processing the reception signal obtained by receiving the ultrasonic wave coming from the object, and generating an image of two or more frames,
Select 2 frames from the image,
Set multiple regions of interest in one frame,
A search area wider than the region of interest is set for each of the plurality of regions of interest in another frame, and a plurality of candidate regions having a size corresponding to the region of interest are set in the search region,
By obtaining a norm between the pixel value of the region of interest and the pixel value in the candidate region for each of the plurality of candidate regions, a distribution of norms in the search region is obtained,
An ultrasonic imaging method, wherein an image is generated using a value representing a distribution state of the norm as a pixel value of the region of interest corresponding to the search region.
コンピュータに、
2フレーム以上の超音波画像から2のフレームを選択する第1のステップ、
1のフレームに複数の関心領域を設定する第2のステップ、
別の1のフレームに前記関心領域よりも広い探索領域を前記複数の関心領域ごとに設定し、前記探索領域内に前記関心領域と対応する大きさの候補領域を複数設定する第3のステップ、
前記関心領域の画素値と前記候補領域内の画素値との間のノルムを、前記複数の候補領域ごとに求めることにより、前記探索領域内のノルムの分布を求める第4のステップ、
当該ノルムの分布状態を表す値を、前記探索領域に対応する前記関心領域の画素値として画像を生成する第5のステップ、
を実行させるための超音波イメージング用プログラム。
On the computer,
A first step of selecting two frames from two or more ultrasound images;
A second step of setting a plurality of regions of interest in one frame;
A third step of setting a search region wider than the region of interest in another frame for each of the plurality of regions of interest, and setting a plurality of candidate regions of a size corresponding to the region of interest in the search region;
A fourth step of determining a norm distribution in the search region by determining a norm between the pixel value of the region of interest and the pixel value in the candidate region for each of the plurality of candidate regions;
A fifth step of generating an image using a value representing the distribution state of the norm as a pixel value of the region of interest corresponding to the search region;
Ultrasound imaging program for running
対象に向かって超音波を送信する送信部と、前記対象から到来する超音波を受信する受信部と、前記受信部の受信信号を処理して2フレーム以上の画像を生成する処理部とを有し、
前記処理部は、前記受信した2フレーム以上の画像に対応する受信信号のうち、1のフレームに該当する受信信号分布に複数の関心領域を設定し、別の1のフレームに該当する受信信号分布に前記関心領域よりも広い探索領域を前記複数の関心領域ごとに設定し、前記探索領域内に前記関心領域と対応する大きさの候補領域を複数設定し、前記関心領域の振幅分布あるいは位相分布と、前記候補領域内の振幅分布あるいは位相分布との間のノルムを、前記複数の候補領域ごとに求めることにより、前記探索領域内のノルムの分布を求め、当該ノルムの分布状態を表す値を、前記探索領域に対応する前記関心領域の画素値として画像を生成することを特徴とする超音波イメージング装置。
A transmission unit that transmits ultrasonic waves toward the target; a reception unit that receives ultrasonic waves coming from the target; and a processing unit that generates an image of two or more frames by processing a reception signal of the reception unit. And
The processing unit sets a plurality of regions of interest in a received signal distribution corresponding to one frame among received signals corresponding to the received image of two or more frames, and a received signal distribution corresponding to another one frame A search area wider than the region of interest is set for each of the plurality of regions of interest, a plurality of candidate regions having a size corresponding to the region of interest are set in the search region, and the amplitude distribution or phase distribution of the region of interest And the norm between the amplitude distribution or the phase distribution in the candidate region for each of the plurality of candidate regions, the norm distribution in the search region is obtained, and a value representing the distribution state of the norm is obtained. An ultrasonic imaging apparatus that generates an image as a pixel value of the region of interest corresponding to the search region.
JP2013540685A 2011-10-28 2012-07-27 Ultrasonic imaging apparatus, ultrasonic imaging method, and ultrasonic imaging program Expired - Fee Related JP5813779B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013540685A JP5813779B2 (en) 2011-10-28 2012-07-27 Ultrasonic imaging apparatus, ultrasonic imaging method, and ultrasonic imaging program

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2011237670 2011-10-28
JP2011237670 2011-10-28
JP2013540685A JP5813779B2 (en) 2011-10-28 2012-07-27 Ultrasonic imaging apparatus, ultrasonic imaging method, and ultrasonic imaging program
PCT/JP2012/069244 WO2013061664A1 (en) 2011-10-28 2012-07-27 Ultrasound imaging apparatus, ultrasound imaging method and ultrasound imaging program

Publications (2)

Publication Number Publication Date
JPWO2013061664A1 true JPWO2013061664A1 (en) 2015-04-02
JP5813779B2 JP5813779B2 (en) 2015-11-17

Family

ID=48167507

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013540685A Expired - Fee Related JP5813779B2 (en) 2011-10-28 2012-07-27 Ultrasonic imaging apparatus, ultrasonic imaging method, and ultrasonic imaging program

Country Status (4)

Country Link
US (1) US20160213353A1 (en)
JP (1) JP5813779B2 (en)
CN (1) CN103906473B (en)
WO (1) WO2013061664A1 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102014104B1 (en) * 2014-12-01 2019-08-26 고쿠리츠켄큐카이하츠호진 상교기쥬츠 소고켄큐쇼 Ultrasound examination system and ultrasound examination method
WO2016165076A1 (en) * 2015-04-14 2016-10-20 Chongqing University Of Posts And Telecommunications Method and system for image enhancement
CN106295337B (en) * 2015-06-30 2018-05-22 安一恒通(北京)科技有限公司 For detecting the method, apparatus and terminal of malice loophole file
JP6625446B2 (en) * 2016-03-02 2019-12-25 株式会社神戸製鋼所 Disturbance removal device
JP6579727B1 (en) * 2019-02-04 2019-09-25 株式会社Qoncept Moving object detection device, moving object detection method, and moving object detection program
WO2022071280A1 (en) * 2020-09-29 2022-04-07 テルモ株式会社 Program, information processing device, and information processing method
CN114219792B (en) * 2021-12-17 2022-08-16 深圳市铱硙医疗科技有限公司 Method and system for processing images before craniocerebral puncture
CN115153622A (en) * 2022-06-08 2022-10-11 东北大学 Virtual source-based baseband delay multiply-accumulate ultrasonic beam forming method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08164139A (en) * 1994-12-16 1996-06-25 Toshiba Corp Ultrasonic diagnostic system
JP2009106548A (en) * 2007-10-30 2009-05-21 Toshiba Corp Ultrasonic diagnostic apparatus and image data generating apparatus
WO2010098054A1 (en) * 2009-02-25 2010-09-02 パナソニック株式会社 Image correction device and image correction method
WO2011052602A1 (en) * 2009-10-27 2011-05-05 株式会社 日立メディコ Ultrasonic imaging device, ultrasonic imaging method and program for ultrasonic imaging
JP2011191528A (en) * 2010-03-15 2011-09-29 Mitsubishi Electric Corp Rhythm creation device and rhythm creation method

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3510929B2 (en) 1994-12-28 2004-03-29 小糸工業株式会社 Mass culture system for microalgae
US6159152A (en) * 1998-10-26 2000-12-12 Acuson Corporation Medical diagnostic ultrasound system and method for multiple image registration
JP4565796B2 (en) * 2002-07-25 2010-10-20 株式会社日立メディコ Diagnostic imaging equipment
EP1543773B1 (en) * 2002-09-12 2013-12-04 Hitachi Medical Corporation Biological tissue motion trace method and image diagnosis device using the trace method
FR2899336B1 (en) * 2006-03-29 2008-07-04 Super Sonic Imagine METHOD AND DEVICE FOR IMAGING A VISCOELASTIC MEDIUM
JP4751282B2 (en) * 2006-09-27 2011-08-17 株式会社日立製作所 Ultrasonic diagnostic equipment
WO2009076218A2 (en) * 2007-12-07 2009-06-18 University Of Maryland Composite images for medical procedures

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08164139A (en) * 1994-12-16 1996-06-25 Toshiba Corp Ultrasonic diagnostic system
JP2009106548A (en) * 2007-10-30 2009-05-21 Toshiba Corp Ultrasonic diagnostic apparatus and image data generating apparatus
WO2010098054A1 (en) * 2009-02-25 2010-09-02 パナソニック株式会社 Image correction device and image correction method
WO2011052602A1 (en) * 2009-10-27 2011-05-05 株式会社 日立メディコ Ultrasonic imaging device, ultrasonic imaging method and program for ultrasonic imaging
JP2011191528A (en) * 2010-03-15 2011-09-29 Mitsubishi Electric Corp Rhythm creation device and rhythm creation method

Also Published As

Publication number Publication date
CN103906473B (en) 2016-01-06
JP5813779B2 (en) 2015-11-17
US20160213353A1 (en) 2016-07-28
CN103906473A (en) 2014-07-02
WO2013061664A1 (en) 2013-05-02

Similar Documents

Publication Publication Date Title
JP5813779B2 (en) Ultrasonic imaging apparatus, ultrasonic imaging method, and ultrasonic imaging program
JP5587332B2 (en) Ultrasonic imaging apparatus and program for ultrasonic imaging
EP2961324B1 (en) Systems and methods for ultrasound imaging
JP5063515B2 (en) Ultrasonic diagnostic equipment
US20080077011A1 (en) Ultrasonic apparatus
US10130340B2 (en) Method and apparatus for needle visualization enhancement in ultrasound images
US20150065859A1 (en) Method and apparatus for registering medical images
US10548564B2 (en) System and method for ultrasound imaging of regions containing bone structure
CN113712594B (en) Medical image processing apparatus and medical imaging apparatus
US20240050062A1 (en) Analyzing apparatus and analyzing method
JP5756812B2 (en) Ultrasonic moving image processing method, apparatus, and program
TWI446897B (en) Ultrasound image registration apparatus and method thereof
JP2016112285A (en) Ultrasonic diagnostic device
Trucco et al. Processing and analysis of underwater acoustic images generated by mechanically scanned sonar systems
JP5409719B2 (en) Ultrasonic image processing device
JP6356528B2 (en) Ultrasonic diagnostic equipment
CN111260606B (en) Diagnostic device and diagnostic method
CN110811674B (en) Ultrasonic diagnostic apparatus and storage medium
JP2020054815A (en) Analyzer and analysis program
CN104023644A (en) Method and apparatus for needle visualization enhancement in ultrasound imaging
JP2016112033A (en) Ultrasonic diagnostic device
JP6609173B2 (en) Ultrasonic diagnostic apparatus and control program therefor
JP2016220765A (en) Ultrasonic diagnostic equipment and program

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150415

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150818

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150916

R150 Certificate of patent or registration of utility model

Ref document number: 5813779

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees