JP5756812B2 - Ultrasonic moving image processing method, apparatus, and program - Google Patents

Ultrasonic moving image processing method, apparatus, and program Download PDF

Info

Publication number
JP5756812B2
JP5756812B2 JP2012545771A JP2012545771A JP5756812B2 JP 5756812 B2 JP5756812 B2 JP 5756812B2 JP 2012545771 A JP2012545771 A JP 2012545771A JP 2012545771 A JP2012545771 A JP 2012545771A JP 5756812 B2 JP5756812 B2 JP 5756812B2
Authority
JP
Japan
Prior art keywords
motion vector
image
distribution image
ultrasonic
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012545771A
Other languages
Japanese (ja)
Other versions
JPWO2012070588A1 (en
Inventor
裕也 増井
裕也 増井
東 隆
隆 東
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Healthcare Manufacturing Ltd
Original Assignee
Hitachi Medical Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Medical Corp filed Critical Hitachi Medical Corp
Priority to JP2012545771A priority Critical patent/JP5756812B2/en
Publication of JPWO2012070588A1 publication Critical patent/JPWO2012070588A1/en
Application granted granted Critical
Publication of JP5756812B2 publication Critical patent/JP5756812B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5269Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving detection or reduction of artifacts
    • A61B8/5276Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving detection or reduction of artifacts due to motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Medical Informatics (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Multimedia (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Analysis (AREA)

Description

本発明は、超音波を被検体に照射して観察画像を得る技術に関するものである。   The present invention relates to a technique for obtaining an observation image by irradiating a subject with ultrasonic waves.

従来、画像を用いた医療診断において、超音波を被検体に照射して観察画像を得る技術が用いられている。観察画像を明瞭化する手法として、下記特許文献1〜2に記載されているものがある。   Conventionally, in medical diagnosis using an image, a technique for obtaining an observation image by irradiating a subject with ultrasonic waves has been used. As a technique for clarifying an observation image, there are those described in Patent Documents 1 and 2 below.

下記特許文献1では、医療画像診断に用いられる超音波画像処理装置において、診断動画像の小領域の変化量に基づいて組織の弾性係数分布を推定し、硬さをカラーマップに変換して表示する手法が開示されている。本手法では、弾性係数処理を行うために組織境界に着目したとき、画像の鮮鋭度が劣化する場合があった。   In the following Patent Document 1, in an ultrasonic image processing apparatus used for medical image diagnosis, an elastic modulus distribution of a tissue is estimated based on a change amount of a small area of a diagnostic moving image, and hardness is converted into a color map for display. A technique is disclosed. In this method, when attention is paid to the tissue boundary in order to perform the elastic modulus processing, the sharpness of the image may be deteriorated.

下記特許文献2では、上記のような課題を解決するため、診断動画像の動きベクトルに基づいてスカラー分布画像を作成し、組織境界の識別度を向上させる手法が開示されている。また、動きベクトル場に固有値分解を適用して、腫瘍と正常組織との間の境界を抽出する手法も開示されている。   Patent Document 2 below discloses a technique for creating a scalar distribution image based on a motion vector of a diagnostic moving image to improve the degree of tissue boundary discrimination in order to solve the above-described problems. In addition, a technique for extracting a boundary between a tumor and a normal tissue by applying eigenvalue decomposition to a motion vector field is also disclosed.

特開2004−135929号公報JP 2004-135929 A 特開2009−246734号公報JP 2009-246734 A

医療画像を用いて、病変などの変質部位(例えば腫瘍)の進行程度を診断することを考える。一般に、生体部位や症例により、腫瘍部と健常部の境界部分における浸潤度等の特性は異なる。そのため、腫瘍の浸潤性を観察することが目的である場合と、腫瘍の全体形状を把握したい場合とでは、腫瘍の境界を抽出する際に適した画像処理手法が異なる。従来の技術では、これらの差異を考慮していないため、診断目的に適した画像処理手法を用いることは困難であった。   Consider using a medical image to diagnose the degree of progression of a degenerated site such as a lesion (for example, a tumor). In general, characteristics such as the degree of infiltration at the boundary between a tumor part and a healthy part differ depending on a living body part and a case. Therefore, the image processing method suitable for extracting the boundary of the tumor differs depending on whether the objective is to observe the invasiveness of the tumor or to determine the overall shape of the tumor. In the prior art, since these differences are not taken into consideration, it is difficult to use an image processing method suitable for the purpose of diagnosis.

本発明は、上記のような課題を解決するためになされたものであり、生体部位や症例に適した超音波動画像処理技術を提供することを目的とする。   The present invention has been made to solve the above-described problems, and an object thereof is to provide an ultrasonic moving image processing technique suitable for a body part or a case.

本発明に係る超音波動画像処理方法では、観察画像の動きベクトル分布像を用いてスカラー分布画像の画素の輝度値を決定する。またその際に、スカラー分布画像内の境界部分前後にわたる輝度変化がスカラー分布画像内の方向に対して依存する程度を緩和する処理を実施する。   In the ultrasonic moving image processing method according to the present invention, the luminance value of the pixel of the scalar distribution image is determined using the motion vector distribution image of the observation image. At that time, a process is performed to alleviate the degree to which the luminance change over the boundary portion in the scalar distribution image depends on the direction in the scalar distribution image.

本発明に係る超音波動画像処理方法によれば、観察画像の境界部分の輝度値が、境界線の向きによらず近接した値となる。これにより、境界部分を安定的に識別することができるので、腫瘍などの病変の全体形状を把握したい場合に適した超音波動画像処理手法を提供することができる。   According to the ultrasonic moving image processing method of the present invention, the luminance value of the boundary portion of the observation image becomes a close value regardless of the direction of the boundary line. As a result, the boundary portion can be stably identified, so that it is possible to provide an ultrasonic moving image processing method suitable for grasping the entire shape of a lesion such as a tumor.

実施形態1に係る超音波動画像処理装置100の機能ブロック図である。1 is a functional block diagram of an ultrasonic moving image processing apparatus 100 according to Embodiment 1. FIG. 処理部10と合成部12の動作フローを示す図である。It is a figure which shows the operation | movement flow of the process part and the synthetic | combination part. 一様な組織構造の上端部の境界に右向きのせん断応力がかかっている様子を示すモデル図である。It is a model figure which shows a mode that the shearing stress rightward is applied to the boundary of the upper end part of a uniform structure | tissue structure. 上下の深さ方向の変位量の差異を示す図である。It is a figure which shows the difference of the displacement amount of an up-down depth direction. 図3の3×3画素のベクトル場モデルを用いて、Hの値を0から1まで変化させたときのスカラー値の変化を比較する図である。It is a figure which compares the change of a scalar value when changing the value of H from 0 to 1 using the vector field model of 3x3 pixels of FIG. 6×6の動きベクトル場において、動きベクトル場の方向が2方向に向いてずれている例を示す図である。It is a figure which shows the example from which the direction of the motion vector field has shifted | deviated to 2 directions in a 6x6 motion vector field. 図6と同じ動きベクトル場について、共分散化処理を施した後に最大固有値処理によってスカラー化した例を示す。An example is shown in which the same motion vector field as in FIG. 6 is scalarized by the maximum eigenvalue processing after performing the covariance processing. 実際の腫瘍に対して本実施形態1に係る手法を適用した結果を示す図である。It is a figure which shows the result of applying the method which concerns on this Embodiment 1 with respect to an actual tumor. 動きベクトルを求める際に実施するブロックマッチングについて説明する図である。It is a figure explaining the block matching implemented when calculating | requiring a motion vector. 画像が1ピクセル分変位するときの変位モデルを示す図である。It is a figure which shows a displacement model when an image displaces 1 pixel. ブロックマッチング処理における探索範囲を決定する処理フローを示す図である。It is a figure which shows the processing flow which determines the search range in a block matching process. 実際の腫瘍に対して本実施形態2に係る手法を適用した結果を示す図である。It is a figure which shows the result of applying the method which concerns on this Embodiment 2 with respect to an actual tumor. 動きベクトルを複素行列に変換する過程を示す図である。It is a figure which shows the process of converting a motion vector into a complex matrix. 図3で説明した3×3画素のベクトル場モデルを深さ方向(図面の縦方向)にフーリエ解析して得たパワースペクトルを示す図である。It is a figure which shows the power spectrum obtained by carrying out the Fourier analysis of the vector field model of 3x3 pixel demonstrated in FIG. 3 to the depth direction (vertical direction of drawing). Bモード画像上に表れるスペックルサイズと超音波ビームの分解能の関係を示す図である。It is a figure which shows the relationship between the speckle size which appears on a B mode image, and the resolution | decomposability of an ultrasonic beam.

<実施の形態1>
本発明の実施形態1では、診断目的に応じて、観察画像を生成する手法を切り替える動作例を説明する。
<Embodiment 1>
In the first embodiment of the present invention, an operation example in which a method for generating an observation image is switched according to the purpose of diagnosis will be described.

本実施形態1において、変質部分の形状を優先して観察する際には、観察画像のうち変質部分とそれ以外の部分との間の境界前後の輝度変化が、観察画像のいずれの方向から見ても同程度となるようにする。これにより、変質部分の境界がいずれの方向から見ても明瞭になるようにし、観察画像上で変質部分の形状を識別し易くすることを図る。   In the first embodiment, when observing with priority given to the shape of the altered portion, the luminance change before and after the boundary between the altered portion and the other portion of the observed image is viewed from any direction of the observed image. However, try to be the same level. Thus, the boundary of the altered portion is made clear from any direction, and the shape of the altered portion is easily identified on the observation image.

また、本実施形態1において、変質部分の浸潤度を優先して観察する際には、浸潤度と組織の動きの大きさが相関していることに着目し、組織の動きの大きさと画像輝度を対応させた観察画像を生成する。   Further, in the first embodiment, when observing with priority given to the infiltration degree of the altered portion, it is noted that the infiltration degree correlates with the magnitude of the tissue movement, and the magnitude of the tissue movement and the image luminance are correlated. An observation image corresponding to is generated.

図1は、本実施形態1に係る超音波動画像処理装置100の機能ブロック図である。以下、超音波動画像処理装置100の各構成部について説明する。   FIG. 1 is a functional block diagram of the ultrasonic moving image processing apparatus 100 according to the first embodiment. Hereinafter, each component of the ultrasonic moving image processing apparatus 100 will be described.

超音波素子が一次元に配列された超音波探触子(プローブ)1は、生体に超音波ビーム(超音波パルス)を送信し、生体から反射されたエコー信号(受波信号)を受信する。   An ultrasonic probe (probe) 1 in which ultrasonic elements are arranged one-dimensionally transmits an ultrasonic beam (ultrasonic pulse) to a living body and receives an echo signal (received signal) reflected from the living body. .

制御系4は、送波ビームフォーマ3を用いて、送波焦点に合わせた遅延時間をもつ送波信号を出力する。送波信号は、送受切り替えスイッチ5を介して超音波探触子1に送信される。超音波探触子1は、送波信号にしたがって被検体(例えば診断対象の生体)に超音波を照射する。   The control system 4 uses the transmission beamformer 3 to output a transmission signal having a delay time matched to the transmission focus. The transmission signal is transmitted to the ultrasonic probe 1 through the transmission / reception changeover switch 5. The ultrasonic probe 1 irradiates a subject (for example, a living body to be diagnosed) with ultrasonic waves according to a transmission signal.

超音波探触子1は、生体内で反射または散乱して戻ってきた超音波ビームを受信し、電気信号に変換する。この電気信号は、送受切り替えスイッチ5を介して受波ビームフォーマ6に受波信号として送信される。   The ultrasonic probe 1 receives an ultrasonic beam reflected or scattered in the living body and converts it into an electrical signal. This electrical signal is transmitted as a reception signal to the reception beam former 6 via the transmission / reception selector switch 5.

受波ビームフォーマ6は、90度位相がずれた2つの受波信号をミキシングする複素ビームフォーマであり、制御系4の制御指示にしたがって、受信タイミングに応じて遅延時間を調整するダイナミックフォーカスを実施し、実部と虚部のRF信号を出力する。   The receive beamformer 6 is a complex beamformer that mixes two received signals that are 90 degrees out of phase, and performs dynamic focus that adjusts the delay time according to the reception timing according to the control instructions of the control system 4. The RF signal of the real part and the imaginary part is output.

包絡線検波部7は、受波ビームフォーマ6が出力したRF信号を検波してビデオ信号に変換し、スキャンコンバータ8に出力する。スキャンコンバータ8は、包絡線検波部7が出力したビデオ信号を画像データ(Bモード画像データ)に変換する。   The envelope detector 7 detects the RF signal output from the receiving beam former 6, converts it to a video signal, and outputs it to the scan converter 8. The scan converter 8 converts the video signal output from the envelope detector 7 into image data (B-mode image data).

処理部10は、スキャンコンバータ8から出力される2フレーム以上の画像データに基づいて、まず動きベクトル分布を作成する。次に、作成された動きベクトル分布をスカラー分布に変換処理する。合成部12は、元の画像データと対応する動きベクトル分布またはスカラー分布とを合成処理する。表示部13は、その合成結果を画面表示する。   The processing unit 10 first creates a motion vector distribution based on image data of two or more frames output from the scan converter 8. Next, the created motion vector distribution is converted into a scalar distribution. The synthesizer 12 synthesizes the original image data and the corresponding motion vector distribution or scalar distribution. The display unit 13 displays the synthesis result on the screen.

パラメータ設定部11は、処理部10が信号処理を実施するためのパラメータ、合成部12が表示する画像の選択設定、などの処理を実施する。これらのパラメータは、超音波動画像処理装置100のオペレータ(診断機操作者)がユーザインターフェース2を用いて入力する。動画像の表示方法として、例えば元画像とベクトル分布画像(またはスカラー画像)とを1画像に合成してディスプレイに表示する、2画像以上の動画像を並べて表示する、などが考えられる。   The parameter setting unit 11 performs processing such as parameters for the processing unit 10 to perform signal processing, selection and setting of images to be displayed by the synthesis unit 12, and the like. These parameters are input by the operator (diagnostic machine operator) of the ultrasonic moving image processing apparatus 100 using the user interface 2. As a moving image display method, for example, an original image and a vector distribution image (or scalar image) are combined into one image and displayed on a display, and two or more moving images are displayed side by side.

制御系4、包絡線検波部7、処理部10、パラメータ設定部11、合成部12は、これらの機能を実現する回路デバイスなどのハードウェアを用いて構成することもできるし、マイコンやCPU(Central Processing Unit)などの演算装置とその動作を規定するソフトウェアを用いて構成することもできる。これら機能部のうちいずれか2以上を一体的に構成することもできる。   The control system 4, the envelope detection unit 7, the processing unit 10, the parameter setting unit 11, and the synthesis unit 12 can be configured using hardware such as a circuit device that realizes these functions, or can be configured with a microcomputer or CPU ( It is also possible to configure using a computing device such as a Central Processing Unit) and software that defines the operation thereof. Any two or more of these functional units can be configured integrally.

以上、超音波動画像処理装置100の構成について説明した。次に、超音波動画像処理装置100の動作について説明する。   The configuration of the ultrasonic moving image processing apparatus 100 has been described above. Next, the operation of the ultrasonic moving image processing apparatus 100 will be described.

被検体に超音波を照射し、被検体から検出タイミングの異なる少なくとも2フレーム分の超音波信号を検出して画像データを作成する。それらのフレームに動きベクトル解析を実施し、動きベクトル分布像を作成する。そして、作成した動きベクトル分布像に基づき、スカラー分布画像の画素の輝度値を決定する。輝度値を決定する方法としては、組織境界の方向の違いに対してロバストな処理か、あるいは組織の動きに線形に応答して大きい程輝度値を高くする処理のいずれかを適用する。更に、具体的な動作フローを説明する。   Image data is generated by irradiating the subject with ultrasonic waves and detecting ultrasonic signals for at least two frames having different detection timings from the subject. A motion vector analysis is performed on these frames to create a motion vector distribution image. Then, based on the created motion vector distribution image, the luminance value of the pixel of the scalar distribution image is determined. As a method for determining the brightness value, either a process that is robust with respect to a difference in the direction of the tissue boundary or a process that increases the brightness value in response to linear movement of the tissue is applied. Furthermore, a specific operation flow will be described.

図2は、処理部10と合成部12の動作フローを示す図である。以下、図2の各ステップについて説明する。   FIG. 2 is a diagram illustrating an operation flow of the processing unit 10 and the combining unit 12. Hereinafter, each step of FIG. 2 will be described.

(図2:ステップS201)
処理部10は、スキャンコンバータ8からBモード動画像データを受け取る。
(FIG. 2: Step S201)
The processing unit 10 receives B-mode moving image data from the scan converter 8.

(図2:ステップS202)
処理部10は、所望のフレームとそれ以外の時間のフレームの2フレームを抽出し、2つのフレームから動きベクトル場を算出する。動きベクトル場の算出は、例えば特許文献2に記載されているようなブロックマッチング方法に基づいて実施する。
(FIG. 2: Step S202)
The processing unit 10 extracts two frames, a desired frame and a frame at a time other than that, and calculates a motion vector field from the two frames. The motion vector field is calculated based on a block matching method as described in Patent Document 2, for example.

(図2:ステップS203)
オペレータは、ユーザインターフェース2を介して、病変部(例えば腫瘍)の浸潤度を優先的に明確化した画像を生成するか、形状(大きさ)を優先的に明確化した画像を生成するかを、診断対象となる部位や症例に応じて選択する。例えば、腫瘍の進行度などを浸潤度によって診断したい場合には浸潤度優先方式、動脈瘤の大きさなどを正確に把握したい場合には形状優先方式を選択する。浸潤度優先方式を選択した場合はステップS204へ進み、形状優先方式を選択した場合はステップS205へ進む。
(FIG. 2: Step S203)
Whether the operator generates an image preferentially clarifying the degree of invasion of a lesion (for example, a tumor) or an image preferentially clarifying the shape (size) via the user interface 2. Select according to the part or case to be diagnosed. For example, when it is desired to diagnose the degree of progression of the tumor based on the degree of infiltration, the invasion degree priority method is selected, and when it is desired to accurately grasp the size of the aneurysm, the shape priority method is selected. If the infiltration degree priority method is selected, the process proceeds to step S204. If the shape priority method is selected, the process proceeds to step S205.

(図2:ステップS204)
処理部10は、ステップS202で求めた動きベクトル場に対し、空間ベクトル微分処理を実施する。空間ベクトル微分処理は、下記(式1)で表すことができる。処理部10は、微分処理後の動きベクトル場に対して所定の小領域を設定し(例えば3×3画素)、その小領域内のベクトル場を複素行列に変換する。微分ベクトルを求める演算は、規定の1次微分フィルタなどを用いれば、簡易に実施することができる。

Figure 0005756812
(FIG. 2: Step S204)
The processing unit 10 performs a space vector differentiation process on the motion vector field obtained in step S202. The space vector differentiation process can be expressed by the following (formula 1). The processing unit 10 sets a predetermined small area for the motion vector field after the differentiation process (for example, 3 × 3 pixels), and converts the vector field in the small area into a complex matrix. The calculation for obtaining the differential vector can be easily performed by using a prescribed primary differential filter or the like.
Figure 0005756812

(図2:ステップS205)
処理部10は、ステップS202で求めた動きベクトル場に対し、共分散化処理を実施する。共分散化処理は、下記(式2)で表すことができる。

Figure 0005756812
(FIG. 2: Step S205)
The processing unit 10 performs a covariance process on the motion vector field obtained in step S202. The co-dispersion process can be expressed by the following (formula 2).
Figure 0005756812

(図2:ステップS206)
処理部10は、ステップS204またはステップS205で生成した複素数行列を固有値展開処理し、絶対値が最も大きい固有値(スカラー値)を求める。最大固有値に代えて、固有値の絶対値のうち値が2番目に大きいもの、または各固有値の絶対値の総和を用いることもできる。
(FIG. 2: Step S206)
The processing unit 10 performs eigenvalue expansion processing on the complex number matrix generated in step S204 or step S205 to obtain an eigenvalue (scalar value) having the largest absolute value. Instead of the maximum eigenvalue, the absolute value of the eigenvalue having the second largest value or the sum of the absolute values of the eigenvalues can be used.

(図2:ステップS207)
処理部10は、ステップS206の結果を、中心ベクトル位置の画像輝度に割り当てることにより、スカラー化する。処理部10は、このスカラー化処理を、動きベクトル場全体に渡って実施する。これにより、複素行列を画像化することができる。合成部12は、その画像を画面表示する。
(FIG. 2: Step S207)
The processing unit 10 converts the result of step S206 to a scalar by assigning it to the image brightness at the center vector position. The processing unit 10 performs this scalarization process over the entire motion vector field. Thereby, a complex matrix can be imaged. The composition unit 12 displays the image on the screen.

(図2:ステップS206〜207:補足)
本実施形態1では、複素行列の固有値を用いてスカラー化画像を得る手法を説明したが、動きベクトル分布像を画像化する手法はこれに限らない。
(FIG. 2: Steps S206 to S207: Supplement)
In the first embodiment, the method for obtaining a scalarized image using eigenvalues of a complex matrix has been described. However, the method for imaging a motion vector distribution image is not limited to this.

以上、超音波動画像処理装置100の動作について説明した。次に、ベクトル微分処理が浸潤度優先方式に適している理由について説明する。   The operation of the ultrasonic moving image processing apparatus 100 has been described above. Next, the reason why the vector differentiation process is suitable for the infiltration degree priority method will be described.

<実施の形態1:ベクトル微分処理の評価>
図3は、一様な組織構造の上端部の境界に右向きのせん断応力がかかっている様子を示すモデル図である。腫瘍組織等の浸潤度が低ければ、上部がせん断応力で変位しても下部は変位しない(図3(a))。一方、浸潤度が高くなると、下部も引っ張られてある程度変位するようになる(図3(b)(c))。
<Embodiment 1: Evaluation of vector differentiation process>
FIG. 3 is a model diagram showing a state in which a rightward shearing stress is applied to the boundary of the upper end portion of the uniform tissue structure. If the degree of infiltration of tumor tissue or the like is low, the lower part is not displaced even if the upper part is displaced by shear stress (FIG. 3 (a)). On the other hand, when the degree of infiltration increases, the lower part is also pulled and displaced to some extent (FIGS. 3B and 3C).

図4は、上下の深さ方向の変位量の差異を示す図である。図4に示す上下の深さ方向の変位量の差異を、変位勾配パラメータD=tanθで表すと、せん断応力Sと変位勾配Dの関係は、浸潤パラメータHを導入して、下記(式3)で表すことができる。図3では、(a)H=0、(b)H=0.5、(c)H=0.9の場合を例示した。

Figure 0005756812
FIG. 4 is a diagram showing the difference in the amount of displacement in the upper and lower depth directions. When the difference in the amount of displacement in the upper and lower depth directions shown in FIG. 4 is expressed by the displacement gradient parameter D = tan θ, the relationship between the shear stress S and the displacement gradient D is determined by introducing the infiltration parameter H and (Equation 3) Can be expressed as In FIG. 3, the case of (a) H = 0, (b) H = 0.5, (c) H = 0.9 was illustrated.
Figure 0005756812

Hが一定値であれば線形関係が成立するが、一般に組織浸潤は非線形と考えられる。そのため、図2のステップS207において動きベクトル場を画像化する際にHの値がスカラー化されるときの値変化も、非線形であると想定される。しかしながら,微小領域に着目した場合には、Hの値が線形にスカラー化される必要がある。Hの値が線形にスカラー化されていない場合、動きベクトル場をスカラー化することによって得た画像が、組織浸潤度を正確に反映できていない可能性がある。そこで、図3の3×3画素のベクトル場モデルを用いて、Hの値変化を評価することにした。   If H is a constant value, a linear relationship is established, but generally tissue infiltration is considered to be nonlinear. Therefore, it is assumed that the value change when the value of H is scalarized when the motion vector field is imaged in step S207 of FIG. 2 is also nonlinear. However, when paying attention to a minute region, the value of H needs to be linearly scalarized. If the value of H is not linearly scalarized, the image obtained by scalarizing the motion vector field may not accurately reflect the degree of tissue infiltration. Therefore, the change in the value of H was evaluated using the 3 × 3 pixel vector field model shown in FIG.

図5は、図3の3×3画素のベクトル場モデルを用いて、Hの値を0から1まで変化させたときのスカラー値の変化を比較する図である。図5(a)は、ベクトル場の最大固有値をスカラー化する従来手法におけるHの変化を示す。図5(b)は、ベクトル微分処理を施した場合におけるHの変化を示す。   FIG. 5 is a diagram for comparing the change in scalar value when the value of H is changed from 0 to 1 using the 3 × 3 pixel vector field model of FIG. FIG. 5A shows the change in H in the conventional method for scalarizing the maximum eigenvalue of the vector field. FIG. 5B shows a change in H when the vector differentiation process is performed.

図5(a)に示す最大固有値方式では、Hの値が上昇するにつれて緩やかに線形から外れ、非線形に値が上昇する傾向が見られる。図5(b)に示す微分型最大固有値方式では、Hの値が上昇しても線形性が成立している。したがって、浸潤度に着目する場合には、動きベクトル場をスカラー化する前処理として、ベクトル微分処理を実施することが有効であることが分かる。ベクトル微分処理が上記のような効果を発揮するのは、微分処理によって画像特徴量の非線形性が除去されることによるものと思われる。   In the maximum eigenvalue method shown in FIG. 5A, as the value of H increases, the value gradually deviates from linearity, and the value tends to increase nonlinearly. In the differential maximum eigenvalue method shown in FIG. 5B, linearity is established even if the value of H increases. Therefore, when paying attention to the degree of infiltration, it can be seen that it is effective to perform vector differentiation as pre-processing for scalarizing the motion vector field. The reason why the vector differentiation process exhibits the above-described effect is considered to be due to the removal of the nonlinearity of the image feature amount by the differentiation process.

すなわち、図3に示すように、観察画像上で変質部分の組織が動く大きさと、浸潤度とは非線形関係にあるところ、空間ベクトル微分処理を実施することによりその非線形性が除去され、両者の対応関係が線形となる。したがって、浸潤度を画像輝度で表すことができるようになると考えられる。   That is, as shown in FIG. 3, there is a non-linear relationship between the magnitude of movement of the altered portion of the tissue on the observed image and the degree of infiltration. However, the non-linearity is removed by performing the space vector differentiation process, The correspondence is linear. Therefore, it is considered that the degree of infiltration can be expressed by image luminance.

以上、ベクトル微分処理の有効性について説明した。次に、共分散化処理が形状優先方式に適している理由について説明する。   The effectiveness of the vector differentiation process has been described above. Next, the reason why the covariance process is suitable for the shape priority method will be described.

<実施の形態1:共分散化処理の評価>
図6は、6×6の動きベクトル場において、動きベクトル場の方向が2方向に向いてずれている例を示す図である。図6(a)は動きベクトル場が横方向を向いている場合、図6(b)は動きベクトル場が縦方向を向いている場合、図6(c)は動きベクトル場が斜め方向を向いている場合の例を示す。図6左図は動きベクトルが向いている方向を矢印で示した図、図6右図は行列サイズ3×3の最大固有値処理によって左図をそれぞれスカラー化した画像を示す。
<Embodiment 1: Evaluation of co-dispersion processing>
FIG. 6 is a diagram illustrating an example in which the direction of the motion vector field is shifted in two directions in the 6 × 6 motion vector field. 6A shows a case where the motion vector field is directed in the horizontal direction, FIG. 6B shows a case where the motion vector field faces in the vertical direction, and FIG. 6C shows a case where the motion vector field faces in the oblique direction. An example is shown. The left figure in FIG. 6 shows the direction in which the motion vector is directed by an arrow, and the right figure in FIG. 6 shows an image obtained by scalarizing the left figure by the maximum eigenvalue processing with a matrix size of 3 × 3.

動きベクトル場をスカラー化することによって画像化すると、動きベクトルの方向が異なっている境界部分で輝度差が大きく表れる。この輝度差は、画像上では境界線のように見えるので、境界線によって診断対象(例えば腫瘍)の形状や大きさを把握することができる。図6に示した例では、境界部分が低輝度となるので、黒色の境界線によって診断対象形状を把握することになる。   When imaging is performed by scalarizing the motion vector field, a large luminance difference appears at the boundary portion where the directions of the motion vectors are different. Since this luminance difference looks like a boundary line on the image, the shape and size of the diagnosis target (for example, a tumor) can be grasped by the boundary line. In the example shown in FIG. 6, since the boundary portion has low luminance, the shape to be diagnosed is grasped by the black boundary line.

図6(a)(b)に示す例では、縦横方向の境界部分の画像輝度はともに0.015となった。これに対し図6(c)に示す例では、斜め方向の境界部分の画像輝度は0.022となった。すなわち、縦横方向の境界部分と斜め方向の境界部分では、画像輝度が約47%異なることになる。同じ腫瘍の境界部分を表しているにも関わらず、方向毎に画像輝度が大きく異なると、方向によっては画像上で境界部分を識別することが難しくなり、画像診断の上では好ましくない。   In the example shown in FIGS. 6A and 6B, the image luminance at the boundary portion in the vertical and horizontal directions is both 0.015. On the other hand, in the example shown in FIG. 6C, the image brightness of the boundary portion in the oblique direction is 0.022. That is, the image brightness differs by about 47% between the vertical and horizontal boundary portions and the diagonal boundary portions. If the image brightness is greatly different for each direction even though the same tumor boundary portion is represented, it is difficult to identify the boundary portion on the image depending on the direction, which is not preferable for image diagnosis.

図7は、図6と同じ動きベクトル場について、共分散化処理を施した後に最大固有値処理によってスカラー化した例を示す。処理方式の違いに起因して画像濃淡は逆転しているが、図6と同じ境界部分を画像化したものである。   FIG. 7 shows an example in which the same motion vector field as in FIG. 6 is scalarized by the maximum eigenvalue process after the covariance process. Although the image density is reversed due to the difference in processing method, the same boundary portion as that in FIG. 6 is imaged.

図7(a)(b)に示す例では、縦横方向の境界部分の画像輝度はともに8となった。これに対し図7(c)に示す例では、斜め方向の境界部分の画像輝度は10となった。すなわち、縦横方向の境界部分と斜め方向の境界部分では、画像輝度の差異が25%に抑えられていることになる。   In the example shown in FIGS. 7A and 7B, the image luminance at the boundary portion in the vertical and horizontal directions is 8. On the other hand, in the example shown in FIG. 7C, the image brightness of the boundary portion in the oblique direction is 10. That is, the difference in image luminance is suppressed to 25% between the vertical and horizontal boundary portions and the diagonal boundary portions.

図7に示す処理例によれば、共分散化処理を施すことにより、境界部分の画像輝度が方向によらず均一な値(近接した値)となるので、診断画像上で腫瘍等の形状や大きさを識別するのに適しているといえる。   According to the processing example shown in FIG. 7, by performing the covariance processing, the image luminance of the boundary portion becomes a uniform value (close value) regardless of the direction. It can be said that it is suitable for identifying the size.

共分散化処理は、行列を対称化して要素を均一化する作用がある。この作用により、境界部分のスカラー画像が境界前後の特定の方向において大きく変化することがなくなり、方向に対する依存度を緩和する効果を発揮すると考えられる。   The covariance process has the effect of making the matrix symmetric by making the matrix symmetric. By this action, it is considered that the scalar image at the boundary portion does not change greatly in a specific direction before and after the boundary, and the effect of relaxing the dependence on the direction is exhibited.

なお、共分散化処理と同様に行列要素を均一化する効果を発揮する手法、例えば相関行列化処理を用いることもできる。   Note that a technique that exhibits an effect of uniformizing matrix elements, for example, a correlation matrixing process, can be used as in the covariance process.

<実施の形態1:臨床データを用いた評価>
図8は、実際の腫瘍に対して本実施形態1に係る手法を適用した結果を示す図である。図8(a)は、比較のため特許文献1に記載されたエラストグラフィ技術による処理を実施した結果を示す。図8(b)は、ベクトル微分処理を実施した後に最大固有値を用いてスカラー化した画像を示す。図8(c)は、共分散化処理を実施した後に最大固有値を用いてスカラー化した画像を示す。
<Embodiment 1: Evaluation using clinical data>
FIG. 8 is a diagram illustrating a result of applying the method according to the first embodiment to an actual tumor. FIG. 8A shows the result of performing the processing by the elastography technique described in Patent Document 1 for comparison. FIG. 8B shows an image that has been scalarized using the maximum eigenvalue after performing vector differentiation. FIG. 8C shows an image that has been scalarized using the maximum eigenvalue after covariance processing has been performed.

図8(a)(b)を比較すると、図8(b)では腫瘍の境界部分の浸潤度が境界線の太さによって表されていることが分かる。図8(a)(c)を比較すると、図8(c)では腫瘍の境界部分が細線によって明確に抽出されていることが分かる。   Comparing FIGS. 8 (a) and 8 (b), it can be seen that in FIG. 8 (b), the degree of infiltration at the border of the tumor is represented by the thickness of the border. Comparing FIGS. 8 (a) and 8 (c), it can be seen that the boundary portion of the tumor is clearly extracted by a thin line in FIG. 8 (c).

<実施の形態1:まとめ>
以上のように、本実施形態1に係る超音波動画像処理装置100は、動きベクトル場に共分散化処理を施した上で、最大固有値などを用いてスカラー化して画像に変換する。これにより、腫瘍などの境界部分を、画像上の方向によらず均一な輝度で抽出することができるので、腫瘍などの形状や大きさを画像上で判断する際に好適である。
<Embodiment 1: Summary>
As described above, the ultrasonic moving image processing apparatus 100 according to the first embodiment performs covariance processing on the motion vector field, and then converts the image into an image using a maximum eigenvalue or the like. Thereby, a boundary portion such as a tumor can be extracted with uniform brightness regardless of the direction on the image, which is suitable for determining the shape and size of the tumor on the image.

また、本実施形態1に係る超音波動画像処理装置100は、動きベクトル場にベクトル微分処理を施した上で、最大固有値などを用いてスカラー化して画像に変換する。これにより、腫瘍などの組織浸潤が深さ方向に非線形である場合でも、浸潤度を正確に反映した画像輝度を得ることができるので、浸潤度を画像上で判断する際に好適である。   In addition, the ultrasonic moving image processing apparatus 100 according to the first embodiment performs vector differentiation on the motion vector field, and then converts the image into an image using a maximum eigenvalue or the like. Thereby, even when tissue infiltration such as a tumor is nonlinear in the depth direction, it is possible to obtain image brightness that accurately reflects the infiltration degree, which is suitable for determining the infiltration degree on the image.

また、本実施形態1に係る超音波動画像処理装置100は、腫瘍の形状を優先して観察するか、それとも腫瘍の浸潤度を優先して観察するかを指定する指示を受け取り、前者については共分散化処理を実施し、後者についてはベクトル微分処理を実施する。これにより、生体部位や症例に応じて適切な画像処理手法を選択することができるので、画像診断の精度を向上させる効果を期待できる。   In addition, the ultrasonic moving image processing apparatus 100 according to the first embodiment receives an instruction specifying whether to observe the shape of the tumor preferentially or to observe the invasion degree of the tumor preferentially. Covariance processing is performed, and vector differentiation processing is performed for the latter. Thereby, since an appropriate image processing method can be selected according to a living body part or a case, an effect of improving the accuracy of image diagnosis can be expected.

なお、本実施形態1において、共分散化処理とベクトル微分処理のうち、いずれか1つのみを採用することもできる。例えば、腫瘍などの形状や大きさを判断する処理に特化したい場合は、超音波動画像処理装置100に共分散化処理のみを実装することもできる。ベクトル微分処理についても同様である。   In the first embodiment, only one of the covariance process and the vector differentiation process can be employed. For example, when it is desired to specialize in the process of determining the shape and size of a tumor or the like, only the covariance process can be implemented in the ultrasonic moving image processing apparatus 100. The same applies to vector differentiation processing.

<実施の形態2>
実施形態1において、動きベクトル場を求めるため2フレーム間でブロックマッチング処理を実施することを説明した。このブロックマッチング処理において、探索範囲の大きさなどのパラメータは、一般には経験的に設定されている。しかし実際には、症例毎に適切な探索範囲などは異なる。そこで本発明の実施形態2では、ブロックマッチング処理における適切な探索範囲を決定する手法について説明する。超音波動画像処理装置100の構成は、実施形態1と同様である。
<Embodiment 2>
In the first embodiment, it has been described that the block matching process is performed between two frames in order to obtain the motion vector field. In this block matching process, parameters such as the size of the search range are generally set empirically. However, in practice, an appropriate search range is different for each case. In the second embodiment of the present invention, a method for determining an appropriate search range in the block matching process will be described. The configuration of the ultrasonic moving image processing apparatus 100 is the same as that of the first embodiment.

図9は、動きベクトルを求める際に実施するブロックマッチングについて説明する図である。あるフレームm番目において関心領域(ROI:Region of Interest)の輝度分布をP(i,j)と表す。処理部10は、フレームm+Δ番目(典型的にはΔ=1)においてP(i,j)の位置を含めた近傍周囲に探索領域を設定し、探索領域内の移動候補Pm+Δ(i,j)とP(i,j)との差分絶対値和SAD(Sum of Absolute Difference)を計算する。SADは下記(式4)で定義される。

Figure 0005756812
FIG. 9 is a diagram illustrating block matching performed when obtaining a motion vector. The luminance distribution of a region of interest (ROI: Region of Interest) at a certain m-th frame is represented as P m (i 0 , j 0 ). The processing unit 10 sets a search area around the vicinity including the position of P m (i 0 , j 0 ) in the frame m + Δth (typically Δ = 1), and moves to the movement candidate P m + Δ ( The sum of absolute differences SAD (Sum of Absolute Difference) between i, j) and P m (i 0 , j 0 ) is calculated. SAD is defined by the following (formula 4).
Figure 0005756812

次に処理部10は、探索領域内にわたってSAD値を求め、そのSAD分布の中でSAD値が最小となるPm+Δ(imin,jmin)を移動先であると判定する。処理部10は、P(i,j)とPm+Δ(imin,jmin)とを結ぶベクトルを、動きベクトルとして決定する。Next, the processing unit 10 obtains the SAD value over the search area, and determines that P m + Δ (i min , j min ) that minimizes the SAD value in the SAD distribution is the movement destination. The processing unit 10 determines a vector connecting P m (i 0 , j 0 ) and P m + Δ (i min , j min ) as a motion vector.

処理部10は、P(i,j)をBモード画像全体にわたって変化させ、上記処理にしたがって各動きベクトルを決定する。これにより、Bモード画像全体にわたる動きベクトル分布を得ることができる。The processing unit 10 changes P m (i 0 , j 0 ) over the entire B-mode image, and determines each motion vector according to the above processing. Thereby, a motion vector distribution over the entire B-mode image can be obtained.

以上、動きベクトルを求める際に実施するブロックマッチングについて説明した。次に、ブロックマッチング処理における適切な探索範囲を決定する手法について説明する。   The block matching performed when obtaining the motion vector has been described above. Next, a method for determining an appropriate search range in the block matching process will be described.

図10は、画像が1ピクセル分変位するときの変位モデルを示す図である。ここでは、輝度mの画素が距離d移動したと仮定する。図10(b)は、そのときの差分強度分布の形状を示す。図10(b)において、画素が移動する前の位置では輝度mがなくなったことにより−mの値を示す。距離d離れた位置では新たに輝度mが生じて+mとなる。   FIG. 10 is a diagram illustrating a displacement model when the image is displaced by one pixel. Here, it is assumed that a pixel having luminance m has moved a distance d. FIG. 10B shows the shape of the difference intensity distribution at that time. In FIG. 10B, the value of −m is indicated by the absence of the luminance m at the position before the pixel moves. At a position away from the distance d, a new luminance m is generated and becomes + m.

変位距離を求めるためには、正値側の輝度mと負値側の輝度−mの位置との差を求めればよいことになる。実際の臨床等でのデータは、複数の画素が移動しているので統計的な扱いが必要となる。ある関心領域内の画素の平均変位位置は、基準位置からの1次モーメントを用いて推定することができる。基準位置からの1次モーメントは、下記(式5)で表すことができる。

Figure 0005756812
In order to obtain the displacement distance, the difference between the positive value side luminance m and the negative value side luminance -m position may be obtained. Actual clinical data requires statistical treatment because a plurality of pixels are moved. The average displacement position of the pixels in a certain region of interest can be estimated using the first moment from the reference position. The first moment from the reference position can be expressed by the following (formula 5).
Figure 0005756812

pは正規化のための係数であり、下記(式6)で表される。

Figure 0005756812
p is a coefficient for normalization and is expressed by the following (formula 6).
Figure 0005756812

すなわち、正値側と負値側とで同じ基準位置に対する平均変位位置を求め、それらの差の絶対値として統計的に変位距離を推察することができる。   That is, the average displacement position with respect to the same reference position is obtained on the positive value side and the negative value side, and the displacement distance can be statistically estimated as the absolute value of the difference between them.

図11は、ブロックマッチング処理における探索範囲を決定する処理フローを示す図である。以下、図11の各ステップについて説明する。   FIG. 11 is a diagram illustrating a processing flow for determining a search range in the block matching processing. Hereinafter, each step of FIG. 11 will be described.

(図11:ステップS1101〜S1102)
処理部10は、フレーム間でブロックマッチング処理を実施するための2フレーム、すなわち基準フレームと比較フレームを選択する(S1101)。処理部10は、ステップS1101で選択した2フレーム間の差分強度分布を算出する(S1102)。
(FIG. 11: Steps S1101 to S1102)
The processing unit 10 selects two frames for performing a block matching process between frames, that is, a reference frame and a comparison frame (S1101). The processing unit 10 calculates the difference intensity distribution between the two frames selected in step S1101 (S1102).

(図11:ステップS1103)
処理部10は、ステップS1102で求めた差分強度分布を、正値強度分布と負値強度分布とに分ける。
(FIG. 11: Step S1103)
The processing unit 10 divides the difference intensity distribution obtained in step S1102 into a positive intensity distribution and a negative intensity distribution.

(図11:ステップS1104)
処理部10は、ステップS1103で得た正値差分強度分布における平均変位位置と、負値差分強度分布における平均変位位置とを算出する。
(FIG. 11: Step S1104)
The processing unit 10 calculates the average displacement position in the positive value difference intensity distribution obtained in step S1103 and the average displacement position in the negative value difference intensity distribution.

(図11:ステップS1105〜S1106)
処理部10は、ステップS1104で求めた正値差分強度分布における平均変位位置と、負値差分強度分布における平均変位位置との差分絶対値を算出し、これを平均変位距離とする(S1105)。処理部10は、ブロックマッチング処理を実施するサーチ範囲として、ステップS1105で求めた平均変位距離以上の値を採用する(S1106)。
(FIG. 11: Steps S1105 to S1106)
The processing unit 10 calculates the absolute difference between the average displacement position in the positive difference intensity distribution and the average displacement position in the negative difference intensity distribution obtained in step S1104, and sets this as the average displacement distance (S1105). The processing unit 10 employs a value equal to or larger than the average displacement distance obtained in step S1105 as a search range for performing the block matching process (S1106).

(図11:ステップS1106:補足)
動きがある2フレーム間でパターンマッチングを実施する場合、合致するパターンを探索する範囲には、少なくとも移動元位置と移動先位置が含有されていなければならない。そこで、探索範囲を画素の平均変位距離以上に設定しておくこととした。平均変位距離以上の範囲を探索すれば、大半の画素の移動元位置と移動先位置は探索範囲内に含まれると考えられるからである。
(FIG. 11: Step S1106: Supplement)
When pattern matching is performed between two frames in which there is a motion, at least a movement source position and a movement destination position must be included in a range in which a matching pattern is searched. Therefore, the search range is set to be greater than the average displacement distance of the pixels. This is because, if a range that is equal to or greater than the average displacement distance is searched, it is considered that the movement source position and the movement destination position of most pixels are included in the search range.

図12は、実際の腫瘍に対して本実施形態2に係る手法を適用した結果を示す図である。以下、図12の各図について説明する。   FIG. 12 is a diagram illustrating a result of applying the method according to the second embodiment to an actual tumor. Hereinafter, each diagram of FIG. 12 will be described.

図12(a)はステップS1101における基準フレームを示す。図12(b)(c)は、図12(a)に示す基準フレームと比較フレーム(図示せず)を用いて算出した、正値強度分布と負値強度分布を示す。関心領域(ROI)は30×30画素とし、図12(a)の点線方向にROIを移動させて探索範囲を評価した。   FIG. 12A shows the reference frame in step S1101. FIGS. 12B and 12C show the positive value intensity distribution and the negative value intensity distribution calculated using the reference frame and the comparison frame (not shown) shown in FIG. The region of interest (ROI) was 30 × 30 pixels, and the search range was evaluated by moving the ROI in the direction of the dotted line in FIG.

図12(d)は、ROI位置毎の平均変位距離を示す。縦軸は平均変位距離(画素)を示す。同図によれば、ROI位置によって平均変位距離にばらつきはあるものの、いずれのROI位置においても概ね10画素以下に収まっていることが分かる。この場合、パターンマッチングの探索範囲は10画素以上にすればよいことが分かる。より確実に動きを網羅するためには、パターンマッチングの探索範囲を、図12(d)の縦軸最大値以上に設定すればよい。   FIG. 12D shows the average displacement distance for each ROI position. The vertical axis represents the average displacement distance (pixel). According to the figure, it can be seen that although the average displacement distance varies depending on the ROI position, it is generally within 10 pixels or less at any ROI position. In this case, it can be seen that the pattern matching search range may be 10 pixels or more. In order to cover movements more reliably, the pattern matching search range may be set to be equal to or greater than the maximum value of the vertical axis in FIG.

<実施の形態2:まとめ>
以上のように、本実施形態2に係る超音波動画像処理装置100は、2フレーム間の関心領域(ROI)内の差分強度分布を用いて当該ROI内の平均変位距離を求め、動きベクトルを求める際に実施するブロックマッチングの探索範囲を、その平均変位距離以上に設定する。これにより、動きをカバーすることのできる妥当な探索範囲を確保しつつ、探索範囲をできる限り少なくし、演算負荷を低減することができる。
<Embodiment 2: Summary>
As described above, the ultrasonic moving image processing apparatus 100 according to the second embodiment obtains the average displacement distance in the ROI using the difference intensity distribution in the region of interest (ROI) between the two frames, and calculates the motion vector. The search range of block matching to be performed when obtaining is set to be equal to or greater than the average displacement distance. Thus, while ensuring a reasonable search range that can cover the movement, the search range can be reduced as much as possible, and the calculation load can be reduced.

<実施の形態3>
実施の形態2において、動きベクトルを求める際に実施するブロックマッチングの探索範囲を、ROI内画素の平均変位距離以上に設定することを説明した。これにより、各ROIの平均変位距離以上の探索範囲を確保することができる。
<Embodiment 3>
In the second embodiment, it has been described that the search range for block matching performed when obtaining a motion vector is set to be equal to or greater than the average displacement distance of pixels in the ROI. Thereby, the search range beyond the average displacement distance of each ROI can be ensured.

ただし、平均変位距離を算出する過程で、極端に大きく変位する画素の変位距離やほとんど変位しない画素の変位距離は対象から除外されることになる。また、実施形態2では平均変位距離が10より大きい部分を画一的に除外したが、その決定基準は必ずしも確立されていない。そこで本発明の実施形態3では、探索範囲を定める際に統計的観点を導入し、探索範囲を適切に設定する手法を説明する。超音波動画像処理装置100の構成は、実施形態1〜2と同様である。   However, in the process of calculating the average displacement distance, the displacement distance of pixels that are extremely displaced or the displacement distance of pixels that are hardly displaced is excluded from the target. In the second embodiment, the portion where the average displacement distance is larger than 10 is uniformly excluded, but the determination criterion is not necessarily established. Therefore, in Embodiment 3 of the present invention, a method of introducing a statistical viewpoint when determining the search range and appropriately setting the search range will be described. The configuration of the ultrasonic moving image processing apparatus 100 is the same as in the first and second embodiments.

図12(d)において、各ROI位置における平均変位距離が得られる。この平均変位距離は、概ね10画素以内の範囲で、ROI位置毎に異なる値をとる。このばらつきの分布が正規分布にしたがうと仮定すると、図12(d)に示す分布の平均値と標準偏差σを求め、どの程度のばらつき範囲までをブロックマッチングの探索範囲内に含めるかを統計的に定めることができる。   In FIG. 12D, the average displacement distance at each ROI position is obtained. This average displacement distance takes a different value for each ROI position within a range of approximately 10 pixels or less. Assuming that this variation distribution follows a normal distribution, the average value and the standard deviation σ of the distribution shown in FIG. 12D are obtained, and the extent to which the variation range is included in the block matching search range is statistically determined. Can be determined.

例えば、平均値に2σを加えた範囲をブロックマッチングの探索範囲内に含める場合、図12(d)に示す分布の95%をカバーすることができる。平均値に3σを加えた範囲をブロックマッチングの探索範囲内に含める場合、図12(d)に示す分布の99.7%をカバーすることができる。つまり、関心領域において平均変位距離とその標準偏差とを算出し、平均変位距離に標準偏差を所望の定数倍した値を加えた値を探索範囲として設定する手法が有効である。   For example, when a range obtained by adding 2σ to the average value is included in the search range for block matching, 95% of the distribution shown in FIG. 12D can be covered. When the range obtained by adding 3σ to the average value is included in the search range for block matching, 99.7% of the distribution shown in FIG. 12D can be covered. That is, it is effective to calculate an average displacement distance and its standard deviation in the region of interest, and set a value obtained by adding a value obtained by multiplying the average displacement distance by the standard deviation to a desired constant as a search range.

なお、実施形態2〜3では図12(a)の点線に示す1次元方向について評価したが、より精度を高めるためには、画像全体にわたって2次元で評価することが望ましい。   In the second to third embodiments, the one-dimensional direction indicated by the dotted line in FIG. 12A is evaluated. However, in order to increase the accuracy, it is desirable to evaluate the entire image in two dimensions.

<実施の形態4>
実施の形態2〜3では、動きベクトルを求める際に実施するブロックマッチングの探索範囲を最適に設定する手法を説明した。これにより、観察画像の実際の動きに合わせて適切な探索範囲を設定し、演算負荷などを最適化することができる。
<Embodiment 4>
In the second to third embodiments, the method for optimally setting the search range for block matching performed when obtaining a motion vector has been described. Thereby, it is possible to set an appropriate search range in accordance with the actual movement of the observation image and optimize the calculation load.

一方、動きベクトルはBモード画像の全域にわたって求めるので、ある画素の動きベクトルを求めた後、次の画素についての動きベクトルを求める、という処理を繰り返すことになる。このとき、動きベクトル間の間隔を小さく設定すれば観察画像の分解能が高くなり、大きくすれば観察画像の分解能は低くなる。しかし、生体部位や症例によって、ベクトル間隔をどの程度に設定すれば最適であるかは異なる。そこで本発明の実施形態4では、動きベクトル間隔を最適に設定する手法について説明する。超音波動画像処理装置100の構成は、実施形態1〜3と同様である。   On the other hand, since the motion vector is obtained over the entire area of the B-mode image, the process of obtaining the motion vector of the next pixel after obtaining the motion vector of a certain pixel is repeated. At this time, if the interval between the motion vectors is set to be small, the resolution of the observation image is increased, and if it is increased, the resolution of the observation image is decreased. However, the optimum vector interval is different depending on the body part and the case. In the fourth embodiment of the present invention, a method for optimally setting the motion vector interval will be described. The configuration of the ultrasonic moving image processing apparatus 100 is the same as in the first to third embodiments.

図13は、動きベクトルを複素行列に変換する過程を示す図である。処理部10は、Bモード画像内に、複数の画素からなるマッチング領域(例えば30画素×30画素)を設定する。処理部10は、基準フレームにおけるマッチング領域内の画像と合致する画像領域を、比較フレーム内で探索する。ただし、Bモード画像全体を探索対象とするのは非効率的であるため、当該マッチング領域が移動したであろうと思われる範囲内で探索を実施する。この範囲のことを、ブロックマッチングの探索範囲と呼ぶ。   FIG. 13 is a diagram illustrating a process of converting a motion vector into a complex matrix. The processing unit 10 sets a matching region (for example, 30 pixels × 30 pixels) including a plurality of pixels in the B-mode image. The processing unit 10 searches the comparison frame for an image area that matches the image in the matching area in the reference frame. However, since it is inefficient to search the entire B-mode image as a search target, the search is performed within the range where the matching region is likely to have moved. This range is referred to as a block matching search range.

処理部10は、比較フレーム内でブロックマッチングを実施してマッチング領域に合致する画像領域を見つけると、基準フレームにおけるマッチング領域と比較フレームにおける移動後のマッチング領域との間の差分に基づき、1つの動きベクトルを決定する。   When the processing unit 10 performs block matching in the comparison frame and finds an image region that matches the matching region, the processing unit 10 determines one image based on the difference between the matching region in the reference frame and the moved matching region in the comparison frame. A motion vector is determined.

処理部10は、マッチング領域を所定のベクトル間隔分(最小1画素)ずつずらしながら以上の処理をBモード画像全体にわたって繰り返し実施し、Bモード画像全体の動きベクトル場を求める。次に処理部10は、動きベクトルのx成分とy成分とを各々実数部と虚数部に割り当てて複素数化し、所定行列長の複素行列を設定する。   The processing unit 10 repeatedly performs the above process over the entire B-mode image while shifting the matching region by a predetermined vector interval (minimum 1 pixel) to obtain a motion vector field of the entire B-mode image. Next, the processing unit 10 assigns the x component and y component of the motion vector to the real part and the imaginary part, respectively, to convert them into complex numbers, and sets a complex matrix having a predetermined matrix length.

ベクトル間隔を小さく設定すれば、動きベクトル場を画像化したときの画像分解能が高くなる。しかしこの場合、浸潤度が高くて境界の変化が緩やかな対象については、複素行列内の変化が小さくなるため、画像全体として境界部分が判別し難くなってしまう。そこで、浸潤度を優先して識別したい場合には、ベクトル間隔を粗く設定(粗視化)するとよい。これにより、複素行列内の変化が大きくなるので、浸潤部の境界部分を明瞭化することができる。つまり高分解能の動きベクトル場と低分解能の動きベクトル場とを併せて作成することが有効である。   If the vector interval is set small, the image resolution when the motion vector field is imaged becomes high. However, in this case, for an object having a high degree of infiltration and a gentle change in the boundary, the change in the complex matrix is small, and therefore it becomes difficult to distinguish the boundary portion of the entire image. Therefore, when it is desired to identify the infiltration degree with priority, the vector interval may be set coarsely (coarse viewing). Thereby, since the change in a complex matrix becomes large, the boundary part of an infiltrating part can be clarified. That is, it is effective to create a high-resolution motion vector field and a low-resolution motion vector field together.

より具体的には、処理部10は、動きベクトル間隔を何段階かに変化させて複数のスカラー化画像を生成する。すなわち、浸潤度が低く鋭く変化する境界部ではベクトル間隔を細分して画像上の差異が少ないスカラー化画像を生成し、浸潤度が高くて緩やかに変化する境界部では粗視化したスカラー化画像を生成する。これにより、浸潤度に応じて適切な動きベクトル間隔を用いた複数のスカラー化画像を得ることができる。   More specifically, the processing unit 10 generates a plurality of scalar images by changing the motion vector interval in several stages. That is, at the boundary where the degree of infiltration is low and sharply changed, the vector interval is subdivided to generate a scalarized image with little difference on the image, and at the boundary where the degree of infiltration is high and changes slowly, the coarsened scalarized image Is generated. Thereby, a plurality of scalar images using appropriate motion vector intervals according to the degree of infiltration can be obtained.

ベクトル間隔を調整する処理は、オペレータが手作業で指示してもよいし、処理部10が自動的に設定してもよい。自動設定する場合は、画像上から得られる情報に基づき浸潤の度合いを何らかの数値で指標化し、その指標に合わせてベクトル間隔を設定することになる。   The processing for adjusting the vector interval may be instructed manually by the operator, or may be automatically set by the processing unit 10. In the case of automatic setting, the degree of infiltration is indexed by some numerical value based on information obtained from the image, and the vector interval is set according to the index.

例えば、スカラー化した画像の浸潤領域と正常領域の境界部分を上記実施形態で説明した手法によって識別し、その境界部分を横切るように走査したときの輝度変化の半値幅を、浸潤度の指標とすることができる。ここでいう半値幅とは、輝度変化がピークの半分となるときの横軸幅をいう。   For example, the boundary portion between the infiltrated region and the normal region of the scalarized image is identified by the method described in the above embodiment, and the half-value width of the luminance change when scanning across the boundary portion is used as an index of the infiltration degree. can do. The half width here refers to the horizontal axis width when the luminance change is half of the peak.

<実施の形態4:まとめ>
以上のように、本実施形態4に係る超音波動画像処理装置100は、動きベクトルの間隔が異なる複数のブロックマッチング処理を実施し、高分解能の動きベクトル場から作成したスカラー化画像と、低分解能の動きベクトル場から作成したスカラー化画像とを作成する。これにより、浸潤度に適した分解能を有する観察画像を得ることができるので、画像診断の精度を向上させる効果が期待できる。
<Embodiment 4: Summary>
As described above, the ultrasonic moving image processing apparatus 100 according to the fourth embodiment performs a plurality of block matching processes with different motion vector intervals, generates a scalarized image created from a high-resolution motion vector field, A scalarized image created from a resolution motion vector field is created. Thereby, since an observation image having a resolution suitable for the degree of infiltration can be obtained, an effect of improving the accuracy of image diagnosis can be expected.

<実施の形態5>
本発明の実施形態5では、動きベクトル間隔をスペクトル解析に基づいて決定する例を説明する。超音波動画像処理装置100の構成は、実施形態1〜4と同様である。
<Embodiment 5>
In the fifth embodiment of the present invention, an example in which the motion vector interval is determined based on spectrum analysis will be described. The configuration of the ultrasonic moving image processing apparatus 100 is the same as in the first to fourth embodiments.

図14は、図3で説明した3×3画素のベクトル場モデルを深さ方向(図面の縦方向)にフーリエ解析して得たパワースペクトルを示す図である。図3に示すモデルでは横方向の変化はないため、縦方向のみ解析することとした。図14(a)はH=0.1、図14(b)はH=0.5、図14(c)はH=1.0の解析結果を示す。   FIG. 14 is a diagram showing a power spectrum obtained by performing Fourier analysis on the vector field model of 3 × 3 pixels described in FIG. 3 in the depth direction (vertical direction in the drawing). Since there is no change in the horizontal direction in the model shown in FIG. 3, only the vertical direction is analyzed. 14A shows the analysis results when H = 0.1, FIG. 14B shows the analysis results when H = 0.5, and FIG. 14C shows the analysis results when H = 1.0.

図14によれば、浸潤度が小さい場合、境界部分が明確であるため、縦方向にパワースペクトル解析するとパワースペクトルのメインロブが広がり、半値幅が大きくなる傾向が見られる。境界部分が明確である場合は、動きベクトルから生成した複素行列内の変化が大きくなるので、ベクトル間隔を小さく設定して画像分解能を高めるとよい。   According to FIG. 14, when the degree of infiltration is small, the boundary portion is clear. Therefore, when the power spectrum is analyzed in the vertical direction, the main lobe of the power spectrum spreads and the half width tends to increase. When the boundary portion is clear, the change in the complex matrix generated from the motion vector becomes large. Therefore, it is preferable to increase the image resolution by setting the vector interval small.

これに対し浸潤度が大きい場合は、浸潤が広がって境界部分が不明確になるため、縦方向にパワースペクトル解析するとパワースペクトルのメインロブが狭まり、半値幅が小さくなる傾向が見られる。この場合は、実施形態4で説明したようにベクトル間隔を粗く設定するとよい。   On the other hand, when the degree of infiltration is large, the infiltration spreads and the boundary portion becomes unclear. Therefore, when the power spectrum is analyzed in the vertical direction, the main lobe of the power spectrum is narrowed and the half-value width tends to be reduced. In this case, the vector interval may be set coarsely as described in the fourth embodiment.

以上に鑑みると、ベクトル間隔は、ベクトル場モデルを深さ方向にフーリエ解析して得たパワースペクトルの半値幅と逆の関係になっていることが分かる。すなわち、処理部10は、ベクトル間隔を半値幅の逆数またはその定数倍に設定すればよいといえる。これにより、浸潤度が大きくなるほどベクトル間隔を粗く設定することができる。また、オペレータが手動でベクトル間隔を設定する必要もない。   In view of the above, it can be seen that the vector interval has an inverse relationship with the half-value width of the power spectrum obtained by Fourier analysis of the vector field model in the depth direction. That is, it can be said that the processing unit 10 should set the vector interval to the reciprocal of the half width or a constant multiple thereof. Thereby, the vector interval can be set coarsely as the degree of infiltration increases. Further, it is not necessary for the operator to manually set the vector interval.

なお、実際の臨床データではメインロブは2次元分布として広がるので、半値幅が最大となる方向が境界と直交する方向であるとみなし、最大半値幅を使用するとよい。   In the actual clinical data, the main lobe spreads as a two-dimensional distribution. Therefore, the direction in which the half width is maximum is considered to be a direction orthogonal to the boundary, and the maximum half width may be used.

具体的な処理手順は、まず動きベクトル場を1つの走査方向についてフーリエ解析して2次元パワースペクトルを算出し、次にその2次元パワースペクトルの半値幅を求める。そして半値幅が最大となる走査方向を決定し、その最大値の逆数の定数倍を動きベクトルのベクトル間隔として設定する。   Specifically, the motion vector field is first subjected to Fourier analysis in one scanning direction to calculate a two-dimensional power spectrum, and then the half width of the two-dimensional power spectrum is obtained. Then, the scanning direction in which the half width is maximum is determined, and a constant multiple of the reciprocal of the maximum value is set as the vector interval of the motion vectors.

<実施の形態6>
本発明の実施形態6では、Bモード画像のうち動きベクトル場を作成する範囲をオペレータが指定し、その範囲に基づきベクトル間隔を自動的に決定する手法を説明する。超音波動画像処理装置100の構成は、実施形態1〜5と同様である。
<Embodiment 6>
In the sixth embodiment of the present invention, a method will be described in which an operator designates a range in which a motion vector field is created in a B-mode image, and a vector interval is automatically determined based on the range. The configuration of the ultrasonic moving image processing apparatus 100 is the same as in the first to fifth embodiments.

処理部10が動きベクトル場を作成する範囲は、図13で説明したように動きベクトルを繰り返し求める処理手順を仮定すると、下記式で表すことができる。   The range in which the processing unit 10 creates a motion vector field can be expressed by the following equation assuming a processing procedure for repeatedly obtaining a motion vector as described with reference to FIG.

作成範囲=マッチング領域+ベクトル間隔×(ROI行列長−1)
本実施形態6では、処理部10が動きベクトル場を作成する範囲はオペレータが指示することとする。すると上記式における作成範囲は既知となるので、その他のパラメータが求められれば、残りのパラメータを計算により求めることができる。
Creation range = matching region + vector interval × (ROI matrix length−1)
In the sixth embodiment, the operator instructs the range in which the processing unit 10 creates a motion vector field. Then, since the creation range in the above equation is known, if other parameters are obtained, the remaining parameters can be obtained by calculation.

図15は、Bモード画像上に表れるスペックルサイズと超音波ビームの分解能の関係を示す図である。スペックルとは、画像上に表れる粒状のノイズのことである。スペックルサイズは、被検体の特徴に基づき、概ね予測することができる。   FIG. 15 is a diagram showing the relationship between the speckle size appearing on the B-mode image and the resolution of the ultrasonic beam. Speckle is granular noise appearing on an image. The speckle size can be roughly predicted based on the characteristics of the subject.

スペックルのパターンを識別するためには、マッチング領域サイズは、超音波ビームで分離できる2つ以上のスペックルが含まれる範囲である必要がある。すなわち、マッチング領域サイズは、スペックルサイズとビーム半値幅との和以上であることが求められる。この対応関係は、下記(式7)で表される。

Figure 0005756812
In order to identify a speckle pattern, the matching area size needs to be in a range including two or more speckles that can be separated by an ultrasonic beam. That is, the matching area size is required to be equal to or larger than the sum of the speckle size and the beam half width. This correspondence is expressed by the following (formula 7).
Figure 0005756812

式7の第1項はスペックルサイズ、第2項はビーム半値幅に該当する。スペックルサイズは、生体組織の微小散乱体密度に依存して、Point Spread Function(PSFと略す)よりも大きくなるので、その拡大率をk倍(≧1)として表す。   The first term in Equation 7 corresponds to the speckle size, and the second term corresponds to the beam half width. Since the speckle size is larger than the point spread function (abbreviated as PSF) depending on the density of the minute scatterers of the living tissue, the enlargement ratio is expressed as k times (≧ 1).

撮像条件として、超音波プローブの曲率半径、開口半径、測定波長を上記(式7)に代入し、マッチング領域の下限値を決定することができる。マッチング領域が小さいほど処理部10の演算量を節約することができ、高速に処理することができる。   As imaging conditions, the lower limit of the matching region can be determined by substituting the curvature radius, aperture radius, and measurement wavelength of the ultrasonic probe into the above (Equation 7). As the matching area is smaller, the calculation amount of the processing unit 10 can be saved, and the processing can be performed at high speed.

上記手法により作成範囲とマッチング領域を確定し、さらにROI行列長をあらかじめ処理部10に与えておく。処理部10は、先述の計算式を変形し、下記式によりベクトル間隔を求めることができる。   The creation range and the matching region are determined by the above method, and the ROI matrix length is given to the processing unit 10 in advance. The processing unit 10 can obtain the vector interval by modifying the above calculation formula and using the following formula.

ベクトル間隔=(作成範囲−マッチング領域)/(ROI行列長−1)
具体的な処理手順は、ます画像データの観察範囲サイズを指定し、また超音波の探触子プローブの機器仕様パラメータを用いてパターンマッチング領域のサイズを求める。そして、観察範囲サイズからパターンマッチング領域のサイズを減算し、その値を、画像データの関心領域に対応する行列長から1減算した値で除算して、その値をベクトル間隔として設定する。
Vector interval = (creation range-matching region) / (ROI matrix length-1)
The specific processing procedure first specifies the observation range size of the image data, and obtains the size of the pattern matching region using the device specification parameters of the ultrasonic probe probe. Then, the size of the pattern matching region is subtracted from the observation range size, and the value is divided by a value obtained by subtracting 1 from the matrix length corresponding to the region of interest of the image data, and the value is set as a vector interval.

同様の手順により、ベクトル間隔をあらかじめ処理部10に与えておけば、ROI行列長を計算によって求めることもできる。 If the vector interval is given to the processing unit 10 in advance by the same procedure, the ROI matrix length can be obtained by calculation.

<実施の形態7>
以上の実施形態1〜6を、任意に組み合わせて用いることもできる。例えば、実施形態2〜3で説明した探索範囲を求める手法と、実施形態4〜5で説明したベクトル間隔を求める手法を、組み合わせて用いることができる。
<Embodiment 7>
Embodiments 1 to 6 above can be used in any combination. For example, the method for obtaining the search range described in the second to third embodiments and the method for obtaining the vector interval described in the fourth to fifth embodiments can be used in combination.

以上、本発明者によってなされた発明を実施形態に基づき具体的に説明したが、本発明は前記実施の形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能であることは言うまでもない。   As mentioned above, the invention made by the present inventor has been specifically described based on the embodiment. However, the present invention is not limited to the embodiment, and various modifications can be made without departing from the scope of the invention. Needless to say.

また、上記各構成、機能、処理部などは、それらの全部または一部を、例えば集積回路で設計することによりハードウェアとして実現することもできるし、プロセッサがそれぞれの機能を実現するプログラムを実行することによりソフトウェアとして実現することもできる。各機能を実現するプログラム、テーブルなどの情報は、メモリやハードディスクなどの記憶装置、ICカード、DVDなどの記憶媒体に格納することができる。   In addition, each of the above-described configurations, functions, processing units, etc. can be realized as hardware by designing all or a part thereof, for example, with an integrated circuit, or the processor executes a program for realizing each function. By doing so, it can also be realized as software. Information such as programs and tables for realizing each function can be stored in a storage device such as a memory or a hard disk, or a storage medium such as an IC card or a DVD.

1:超音波探触子、2:ユーザインターフェース、3:送波ビームフォーマ、4:制御系、5:送受切り替えスイッチ、6:受波ビームフォーマ、7:包絡線検波部、8:スキャンコンバータ、10:処理部、11:パラメータ設定部、12:合成部、13:表示部、100:超音波動画像処理装置。   1: ultrasonic probe, 2: user interface, 3: transmission beamformer, 4: control system, 5: transmission / reception changeover switch, 6: reception beamformer, 7: envelope detector, 8: scan converter, 10: processing unit, 11: parameter setting unit, 12: synthesis unit, 13: display unit, 100: ultrasonic moving image processing apparatus.

Claims (16)

超音波動画像を処理する方法であって、
被検体に超音波を照射し、前記被検体からの超音波信号を検出した検出結果を記憶装置に格納し、格納された検出結果より検出タイミングの異なる少なくとも2フレームの画像データを作成する画像データ作成ステップと、
前記画像データを複数フレーム用いて動きベクトル解析を実施し、動きベクトル分布像を作成する動きベクトル分布像作成ステップと、
前記動きベクトル分布像を用いてスカラー分布画像の画素の輝度値を決定する輝度決定ステップと、
を有し、
前記輝度決定ステップでは、
前記スカラー分布画像内の境界部分前後にわたる輝度変化が前記スカラー分布画像内の方向に対して依存する程度を緩和する境界明瞭化ステップを実施し、
前記境界明瞭化ステップでは、
前記動きベクトル分布像を所定の関心領域毎に複素行列に変換し、前記複素行列を共分散行列に変換する共分散化ステップを実施する
ことを特徴とする超音波動画像処理方法。
A method for processing an ultrasonic moving image, comprising:
Image data that irradiates a subject with ultrasonic waves, stores a detection result obtained by detecting an ultrasonic signal from the subject in a storage device, and creates image data of at least two frames having different detection timings from the stored detection result Creation steps,
A motion vector distribution image creating step of creating a motion vector distribution image by performing motion vector analysis using a plurality of frames of the image data;
A luminance determining step of determining a luminance value of a pixel of the scalar distribution image using the motion vector distribution image;
Have
In the luminance determination step,
Performing a boundary clarifying step to mitigate the extent to which the luminance change across the boundary portion in the scalar distribution image depends on the direction in the scalar distribution image;
In the boundary clarifying step,
An ultrasonic moving image processing method comprising: performing a covariance step of converting the motion vector distribution image into a complex matrix for each predetermined region of interest and converting the complex matrix into a covariance matrix.
前記輝度決定ステップでは、
前記被検体の組織の動きが大きい部分ほど前記スカラー分布画像の輝度値を高くする浸潤度明瞭化ステップを実施する
ことを特徴とする請求項1記載の超音波動画像処理方法。
In the luminance determination step,
The ultrasonic moving image processing method according to claim 1, wherein an infiltration degree clarification step is performed in which a luminance value of the scalar distribution image is increased in a portion where the movement of the tissue of the subject is large.
前記浸潤度明瞭化ステップでは、
前記動きベクトル分布像に対して空間ベクトル微分処理を実施し、得られた微分ベクトル分布を複素行列に変換するベクトル微分ステップを実施する
ことを特徴とする請求項2記載の超音波動画像処理方法。
In the infiltration degree clarification step,
The ultrasonic moving image processing method according to claim 2, wherein a space vector differentiation process is performed on the motion vector distribution image, and a vector differentiation step of converting the obtained differential vector distribution into a complex matrix is performed. .
超音波動画像を処理する方法であって、A method for processing an ultrasonic moving image, comprising:
被検体に超音波を照射し、前記被検体からの超音波信号を検出した検出結果を記憶装置に格納し、格納された検出結果より検出タイミングの異なる少なくとも2フレームの画像データを作成する画像データ作成ステップと、Image data that irradiates a subject with ultrasonic waves, stores a detection result obtained by detecting an ultrasonic signal from the subject in a storage device, and creates image data of at least two frames having different detection timings from the stored detection result Creation steps,
前記画像データを複数フレーム用いて動きベクトル解析を実施し、動きベクトル分布像を作成する動きベクトル分布像作成ステップと、A motion vector distribution image creating step of creating a motion vector distribution image by performing motion vector analysis using a plurality of frames of the image data;
前記動きベクトル分布像を用いてスカラー分布画像の画素の輝度値を決定する輝度決定ステップと、A luminance determining step of determining a luminance value of a pixel of the scalar distribution image using the motion vector distribution image;
を有し、Have
前記輝度決定ステップでは、In the luminance determination step,
前記被検体に生じている変質部位の形状を優先して観察するか、それとも前記変質部位の浸潤度を優先して観察するかを指定する指示を受け取り、Receiving an instruction designating whether to prioritize the shape of the altered site occurring in the subject or to prioritize the degree of infiltration of the altered site;
前記変質部位の形状を優先する場合は、前記スカラー分布画像内の境界部分前後にわたる輝度変化が前記スカラー分布画像内の方向に対して依存する程度を緩和する境界明瞭化ステップを実施し、If priority is given to the shape of the altered portion, a boundary clarifying step is performed to mitigate the degree to which the luminance change over the boundary portion in the scalar distribution image depends on the direction in the scalar distribution image,
前記変質部位の浸潤度を優先する場合は、前記被検体の組織の動きが大きい部分ほど前記スカラー分布画像の輝度値を高くする浸潤度明瞭化ステップを実施し、If priority is given to the degree of infiltration of the altered site, an infiltration degree clarification step is performed to increase the brightness value of the scalar distribution image in a portion where the movement of the tissue of the subject is large.
前記境界明瞭化ステップでは、In the boundary clarifying step,
前記動きベクトル分布像を所定の関心領域毎に複素行列に変換し、前記複素行列を共分散行列に変換する共分散化ステップを実施し、Performing a covariance step of converting the motion vector distribution image into a complex matrix for each predetermined region of interest, and converting the complex matrix into a covariance matrix;
前記浸潤度明瞭化ステップでは、In the infiltration degree clarification step,
前記動きベクトル分布像に対して空間ベクトル微分処理を実施し、得られた微分ベクトル分布を複素行列に変換するベクトル微分ステップを実施するA space vector differentiation process is performed on the motion vector distribution image, and a vector differentiation step of converting the obtained differential vector distribution into a complex matrix is performed.
ことを特徴とする超音波動画像処理方法。An ultrasonic moving image processing method.
前記ベクトル微分ステップは、
前記動きベクトル分布内の各ベクトルに対して、ビーム軸に沿ったビーム方向とそれに直交する方位方向の各々に対して微分処理を施して微分値を算出し、微分ベクトル分布を形成するステップと、
前記微分ベクトルのビーム方向微分値と方位方向微分値とを実数成分と虚数成分に各々置換して複素行列に変換するステップと、
を有することを特徴とする請求項3または4記載の超音波動画像処理方法。
The vector differentiation step includes:
For each vector in the motion vector distribution, differentiating the beam direction along the beam axis and the azimuth direction orthogonal to the beam direction to calculate a differential value, and forming a differential vector distribution;
Substituting the beam direction differential value and the azimuth direction differential value of the differential vector with a real component and an imaginary component, respectively, and converting the complex vector into a complex matrix;
5. The ultrasonic moving image processing method according to claim 3, wherein:
前記輝度決定ステップでは、
前記動きベクトル分布像から変換した共分散行列、あるいは微分ベクトルである複素行列に対して固有値解析を行い、
前記複素行列の固有値の絶対値のうち値が最大であるもの、前記固有値の絶対値のうち値が2番目に大きいもの、または各固有値の絶対値の総和、のいずれかを、1つのスカラー値として前記画素の輝度値に対応させる
ことを特徴とする請求項1記載の超音波動画像処理方法。
In the luminance determination step,
Eigenvalue analysis is performed on a covariance matrix converted from the motion vector distribution image, or a complex matrix that is a differential vector,
One of the absolute values of the eigenvalues of the complex matrix, the one of the absolute values of the eigenvalues having the second largest value, or the sum of the absolute values of the eigenvalues is one scalar value. The ultrasonic moving image processing method according to claim 1, wherein the method corresponds to a luminance value of the pixel.
前記動きベクトル分布像作成ステップは、
前記2フレームの画像データ間の差分強度分布を算出するステップと、
前記差分強度分布内に設定した関心領域の内部を正値強度分布と負値強度分布とに分けるステップと、
前記正値強度分布において所定の基準位置からの1次モーメント平均変位位置を算出するステップと、
前記負値強度分布において所定の基準位置からの1次モーメント平均変位位置を算出するステップと、
前記正値強度分布における平均変位位置と前記負値強度分布における平均変位位置との差分絶対値を平均変位距離として求めるステップと、
前記動きベクトル分布像を作成する際のブロックマッチング処理の探索範囲を、前記平均変位距離以上に設定するステップと、
を有することを特徴とする請求項1記載の超音波動画像処理方法。
The motion vector distribution image creating step includes
Calculating a difference intensity distribution between the image data of the two frames;
Dividing the inside of the region of interest set in the differential intensity distribution into a positive intensity distribution and a negative intensity distribution;
Calculating a first moment average displacement position from a predetermined reference position in the positive intensity distribution;
Calculating a first moment average displacement position from a predetermined reference position in the negative intensity distribution;
Obtaining a difference absolute value between an average displacement position in the positive intensity distribution and an average displacement position in the negative intensity distribution as an average displacement distance;
Setting a search range of block matching processing when creating the motion vector distribution image to be equal to or greater than the average displacement distance;
The ultrasonic moving image processing method according to claim 1, wherein:
前記動きベクトル分布像作成ステップは、
前記2フレームの画像データ間の差分強度分布を算出するステップと、
前記差分強度分布内に設定した関心領域の内部を正値強度分布と負値強度分布とに分けるステップと、
各前記強度分布内に複数の関心領域を設定して前記関心領域毎の平均変位距離を算出するステップと、
各前記関心領域についての前記平均変位距離の平均値と標準偏差を算出するステップと、
前記平均値に前記標準偏差の定数倍を加えた値を、前記動きベクトル分布像を作成する際のブロックマッチング処理の探索範囲として設定するステップと、
を有することを特徴とする請求項1記載の超音波動画像処理方法。
The motion vector distribution image creating step includes
Calculating a difference intensity distribution between the image data of the two frames;
Dividing the inside of the region of interest set in the differential intensity distribution into a positive intensity distribution and a negative intensity distribution;
Setting a plurality of regions of interest in each of the intensity distributions and calculating an average displacement distance for each region of interest;
Calculating an average value and standard deviation of the average displacement distance for each region of interest;
A value obtained by adding a constant multiple of the standard deviation to the average value is set as a search range for block matching processing when creating the motion vector distribution image;
The ultrasonic moving image processing method according to claim 1, wherein:
前記動きベクトル分布像作成ステップでは、
前記動きベクトル分布像を作成する際のブロックマッチング処理を、前記フレーム内で一定のベクトル間隔分だけずらしながら実施し、
前記動きベクトル分布像作成ステップは、
前記ベクトル間隔を所定の細分間隔に設定して高分解能の前記動きベクトル分布像を作成するステップと、
前記ベクトル間隔を前記細分間隔よりも粗く設定して低分解能の前記動きベクトル分布像を作成するステップと、
前記高分解能の動きベクトル分布像と、前記低分解能の動きベクトル分布像とから各々スカラー分布の画像を作成するステップと、
を有することを特徴とする請求項1記載の超音波動画像処理方法。
In the motion vector distribution image creation step,
Block matching processing when creating the motion vector distribution image is performed while shifting by a certain vector interval within the frame,
The motion vector distribution image creating step includes
Creating the high-resolution motion vector distribution image by setting the vector interval to a predetermined subdivision interval;
Creating the motion vector distribution image with low resolution by setting the vector interval to be coarser than the subdivision interval;
Creating a scalar distribution image from each of the high resolution motion vector distribution image and the low resolution motion vector distribution image;
The ultrasonic moving image processing method according to claim 1, wherein:
前記動きベクトル分布像作成ステップは、
前記動きベクトル分布像を1つの走査方向についてフーリエ解析して2次元パワースペクトルを求めるステップと、
前記2次元パワースペクトルの半値幅を求めるステップと、
前記半値幅が最大となる前記走査方向を求めるステップと、
前記半値幅の最大値の逆数の定数倍を、前記動きベクトルのベクトル間隔として設定するステップと、
を有することを特徴とする請求項1記載の超音波動画像処理方法。
The motion vector distribution image creating step includes
A Fourier analysis of the motion vector distribution image in one scanning direction to obtain a two-dimensional power spectrum;
Obtaining a half width of the two-dimensional power spectrum;
Obtaining the scanning direction in which the full width at half maximum is maximized;
Setting a constant multiple of the reciprocal of the maximum half-value width as the vector interval of the motion vectors;
The ultrasonic moving image processing method according to claim 1, wherein:
前記動きベクトル分布像作成ステップは、
前記画像データの観察範囲サイズを指定する指示を受け取るステップと、
前記超音波の探触子プローブの機器仕様パラメータを用いて、前記動きベクトルを求める際に実施するパターンマッチング領域のサイズを求めるステップと、
前記観察範囲サイズから前記パターンマッチング領域のサイズを減算し、その値を、前記画像データの関心領域に対応する行列長から1減算した値で除算するステップと、
前記除算の結果を前記ベクトル間隔として設定するステップと、
を有することを特徴とする請求項1記載の超音波動画像処理方法。
The motion vector distribution image creating step includes
Receiving an instruction to specify an observation range size of the image data;
Using the device specification parameters of the ultrasonic probe probe, obtaining a size of a pattern matching area to be performed when obtaining the motion vector;
Subtracting the size of the pattern matching region from the observation range size, and dividing the value by a value obtained by subtracting 1 from the matrix length corresponding to the region of interest of the image data;
Setting the result of the division as the vector interval;
The ultrasonic moving image processing method according to claim 1, wherein:
前記動きベクトル分布像作成ステップでは、
前記動きベクトルを求める際に実施するパターンマッチング領域のサイズを、前記画像データのスペックルサイズと前記超音波ビームの半値幅との和以上に設定する
ことを特徴とする請求項1記載の超音波動画像処理方法。
In the motion vector distribution image creation step,
The supersonic wave according to claim 1, wherein a size of a pattern matching region to be performed when obtaining the motion vector is set to be equal to or larger than a sum of a speckle size of the image data and a half width of the ultrasonic beam. Wave image processing method.
被検体に超音波を照射する照射部と、
前記被検体からの超音波信号を検出する検出部と、
前記検出部が検出した検出結果を格納する記憶部と、
前記照射部と前記検出部の動作を制御し、前記検出結果に基づき前記被検体の超音波動画像を生成する演算部と、
を備え、
前記演算部は、
格納された検出結果より検出タイミングの異なる少なくとも2フレームの画像データを作成する画像データ作成ステップと、
前記画像データを複数フレーム用いて動きベクトル解析を実施し、動きベクトル分布像を作成する動きベクトル分布像作成ステップと、
前記動きベクトル分布像を用いてスカラー分布画像の画素の輝度値を決定する輝度決定ステップと、
を実行し、
前記輝度決定ステップでは、
前記スカラー分布画像内の境界部分前後にわたる輝度変化が前記スカラー分布画像内の方向に対して依存する程度を緩和する境界明瞭化ステップを実施し、
前記境界明瞭化ステップでは、
前記動きベクトル分布像を所定の関心領域毎に複素行列に変換し、前記複素行列を共分散行列に変換する共分散化ステップを実施する
ことを特徴とする超音波動画像処理装置。
An irradiation unit for irradiating the subject with ultrasonic waves;
A detection unit for detecting an ultrasonic signal from the subject;
A storage unit for storing a detection result detected by the detection unit;
A calculation unit that controls operations of the irradiation unit and the detection unit, and generates an ultrasonic moving image of the subject based on the detection result;
With
The computing unit is
An image data creation step for creating image data of at least two frames having different detection timings from the stored detection results;
A motion vector distribution image creating step of creating a motion vector distribution image by performing motion vector analysis using a plurality of frames of the image data;
A luminance determining step of determining a luminance value of a pixel of the scalar distribution image using the motion vector distribution image;
Run
In the luminance determination step,
Performing a boundary clarifying step to mitigate the extent to which the luminance change across the boundary portion in the scalar distribution image depends on the direction in the scalar distribution image;
In the boundary clarifying step,
An ultrasonic moving image processing apparatus comprising: performing a covariance step of converting the motion vector distribution image into a complex matrix for each predetermined region of interest, and converting the complex matrix into a covariance matrix.
前記演算部は、前記輝度決定ステップにおいて、
前記被検体の組織の動きが大きい部分ほど前記スカラー分布画像の輝度値を高くする浸潤度明瞭化ステップを実施する
ことを特徴とする請求項13記載の超音波動画像処理装置。
In the luminance determination step, the calculation unit includes:
The ultrasonic moving image processing apparatus according to claim 13, wherein an infiltration degree clarification step is performed in which a luminance value of the scalar distribution image is increased in a portion where the movement of the tissue of the subject is large.
超音波動画像を処理するステップをコンピュータに実行させるプログラムであって、前記コンピュータに、
被検体に超音波を照射し、前記被検体からの超音波信号を検出した検出結果を記憶装置に格納し、格納された検出結果より検出タイミングの異なる少なくとも2フレームの画像データを作成する画像データ作成ステップと、
前記画像データを複数フレーム用いて動きベクトル解析を実施し、動きベクトル分布像を作成する動きベクトル分布像作成ステップと、
前記動きベクトル分布像を用いてスカラー分布画像の画素の輝度値を決定する輝度決定ステップと、
を実行させ、
前記輝度決定ステップでは、前記コンピュータに、
前記スカラー分布画像内の境界部分前後にわたる輝度変化が前記スカラー分布画像内の方向に対して依存する程度を緩和する境界明瞭化ステップを実施させ、
前記境界明瞭化ステップでは、前記コンピュータに、
前記動きベクトル分布像を所定の関心領域毎に複素行列に変換し、前記複素行列を共分散行列に変換する共分散化ステップを実施させる
ことを特徴とする超音波動画像処理プログラム。
A program for causing a computer to execute a step of processing an ultrasonic moving image, wherein the computer
Image data that irradiates a subject with ultrasonic waves, stores a detection result obtained by detecting an ultrasonic signal from the subject in a storage device, and creates image data of at least two frames having different detection timings from the stored detection result Creation steps,
A motion vector distribution image creating step of creating a motion vector distribution image by performing motion vector analysis using a plurality of frames of the image data;
A luminance determining step of determining a luminance value of a pixel of the scalar distribution image using the motion vector distribution image;
And execute
In the luminance determination step, the computer
Performing a boundary clarification step to mitigate the extent to which the luminance change across the boundary portion in the scalar distribution image depends on the direction in the scalar distribution image;
In the boundary clarifying step, the computer
An ultrasonic moving image processing program characterized by performing a covariance step of converting the motion vector distribution image into a complex matrix for each predetermined region of interest and converting the complex matrix into a covariance matrix.
前記輝度決定ステップでは、前記コンピュータに、
前記被検体の組織の動きが大きい部分ほど前記スカラー分布画像の輝度値を高くする浸潤度明瞭化ステップを実施させる
ことを特徴とする請求項15記載の超音波動画像処理プログラム。
In the luminance determination step, the computer
The ultrasonic moving image processing program according to claim 15, wherein an infiltration degree clarification step is performed to increase a luminance value of the scalar distribution image in a portion where the movement of the tissue of the subject is large.
JP2012545771A 2010-11-25 2011-11-22 Ultrasonic moving image processing method, apparatus, and program Expired - Fee Related JP5756812B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012545771A JP5756812B2 (en) 2010-11-25 2011-11-22 Ultrasonic moving image processing method, apparatus, and program

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2010262512 2010-11-25
JP2010262512 2010-11-25
PCT/JP2011/076954 WO2012070588A1 (en) 2010-11-25 2011-11-22 Ultrasound moving image processing method, device and program
JP2012545771A JP5756812B2 (en) 2010-11-25 2011-11-22 Ultrasonic moving image processing method, apparatus, and program

Publications (2)

Publication Number Publication Date
JPWO2012070588A1 JPWO2012070588A1 (en) 2014-05-19
JP5756812B2 true JP5756812B2 (en) 2015-07-29

Family

ID=46145929

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012545771A Expired - Fee Related JP5756812B2 (en) 2010-11-25 2011-11-22 Ultrasonic moving image processing method, apparatus, and program

Country Status (2)

Country Link
JP (1) JP5756812B2 (en)
WO (1) WO2012070588A1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101496198B1 (en) * 2013-06-21 2015-02-26 한국디지털병원수출사업협동조합 A three-dimensional ultrasound imaging apparatus and its method of operation
US11369337B2 (en) 2015-12-11 2022-06-28 Acist Medical Systems, Inc. Detection of disturbed blood flow
CN109478332B (en) * 2016-05-16 2023-04-25 阿西斯特医药系统公司 Motion-based image segmentation system and method
JP7166870B2 (en) * 2017-10-17 2022-11-08 キヤノンメディカルシステムズ株式会社 Image processing device and medical imaging device
JP6931888B2 (en) * 2017-11-15 2021-09-08 キヤノンメディカルシステムズ株式会社 Analytical equipment and analysis program
US11024034B2 (en) 2019-07-02 2021-06-01 Acist Medical Systems, Inc. Image segmentation confidence determination

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002506666A (en) * 1998-03-20 2002-03-05 バーバラ・アン・カーマノス・キャンサー・インスティテュート Multidimensional detection and characterization of pathological tissues
JP2006524534A (en) * 2003-03-07 2006-11-02 シーメンス コーポレイト リサーチ インコーポレイテツド System and method for tracking the global shape of a moving object
JP2007509642A (en) * 2003-10-02 2007-04-19 シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッド Apparatus and method for analyzing locally deformable motion
JP2007513649A (en) * 2003-11-19 2007-05-31 シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッド Anatomical structure detection and matching system and method using appearance and shape
JP2008068086A (en) * 2006-09-15 2008-03-27 General Electric Co <Ge> Real-time tracking method to cardiac structure in 3d echocardiogram
JP2008079792A (en) * 2006-09-27 2008-04-10 Hitachi Ltd Ultrasonic diagnostic apparatus
JP2008511415A (en) * 2004-08-31 2008-04-17 ユニヴァーシティ オブ ワシントン An ultrasonic technique for evaluating wall vibration in stenotic vessels
WO2010052868A1 (en) * 2008-11-10 2010-05-14 株式会社日立メディコ Ultrasonic image processing method and device, and ultrasonic image processing program
JP2011054062A (en) * 2009-09-03 2011-03-17 Canon Inc Apparatus and method for processing image, and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3932482B2 (en) * 2002-10-18 2007-06-20 株式会社日立メディコ Ultrasonic diagnostic equipment

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002506666A (en) * 1998-03-20 2002-03-05 バーバラ・アン・カーマノス・キャンサー・インスティテュート Multidimensional detection and characterization of pathological tissues
JP2006524534A (en) * 2003-03-07 2006-11-02 シーメンス コーポレイト リサーチ インコーポレイテツド System and method for tracking the global shape of a moving object
JP2007509642A (en) * 2003-10-02 2007-04-19 シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッド Apparatus and method for analyzing locally deformable motion
JP2007513649A (en) * 2003-11-19 2007-05-31 シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッド Anatomical structure detection and matching system and method using appearance and shape
JP2008511415A (en) * 2004-08-31 2008-04-17 ユニヴァーシティ オブ ワシントン An ultrasonic technique for evaluating wall vibration in stenotic vessels
JP2008068086A (en) * 2006-09-15 2008-03-27 General Electric Co <Ge> Real-time tracking method to cardiac structure in 3d echocardiogram
JP2008079792A (en) * 2006-09-27 2008-04-10 Hitachi Ltd Ultrasonic diagnostic apparatus
WO2010052868A1 (en) * 2008-11-10 2010-05-14 株式会社日立メディコ Ultrasonic image processing method and device, and ultrasonic image processing program
JP2011054062A (en) * 2009-09-03 2011-03-17 Canon Inc Apparatus and method for processing image, and program

Also Published As

Publication number Publication date
JPWO2012070588A1 (en) 2014-05-19
WO2012070588A1 (en) 2012-05-31

Similar Documents

Publication Publication Date Title
JP7230255B2 (en) Analysis device and analysis program
JP5756812B2 (en) Ultrasonic moving image processing method, apparatus, and program
EP1982654B1 (en) Ultrasound diagnostic device and control method for ultrasound diagnostic device
US9585636B2 (en) Ultrasonic diagnostic apparatus, medical image processing apparatus, and medical image processing method
EP2423872A1 (en) Ultrasonic image processing apparatus
US10101450B2 (en) Medical image processing apparatus, a medical image processing method and a medical diagnosis apparatus
JP7490840B2 (en) Analysis device and analysis program
JP4575737B2 (en) Ultrasonic imaging device
JP2023158119A (en) Analysis device and analysis program
US20230355213A1 (en) Ultrasound image processing
US20200315588A1 (en) Ultrasonic diagnostic device, signal processing device, and program
CN111434311B (en) Ultrasonic imaging apparatus and image processing method
US20170000463A1 (en) Ultrasonic diagnostic apparatus
WO2021241634A1 (en) Ultrasonic diagnostic apparatus and image processing apparatus
JP7346212B2 (en) Analysis device and analysis program
US10255661B2 (en) Object information acquiring apparatus and image processing method
JP2019013736A (en) Image processing apparatus and ultrasound diagnosis apparatus
JP5085144B2 (en) Ultrasonic diagnostic equipment
JP2021186676A (en) Ultrasonic diagnostic apparatus and image processing device
CN112672696A (en) System and method for tracking tools in ultrasound images

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140401

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141028

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150601

R150 Certificate of patent or registration of utility model

Ref document number: 5756812

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees