JP2006217939A - Image display device - Google Patents

Image display device Download PDF

Info

Publication number
JP2006217939A
JP2006217939A JP2005031417A JP2005031417A JP2006217939A JP 2006217939 A JP2006217939 A JP 2006217939A JP 2005031417 A JP2005031417 A JP 2005031417A JP 2005031417 A JP2005031417 A JP 2005031417A JP 2006217939 A JP2006217939 A JP 2006217939A
Authority
JP
Japan
Prior art keywords
image
ultrasonic
display device
image display
body motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005031417A
Other languages
Japanese (ja)
Other versions
JP4750429B2 (en
JP2006217939A5 (en
Inventor
Hideki Yoshikawa
秀樹 吉川
Takashi Azuma
隆 東
Kenichi Kawabata
健一 川畑
Shinichiro Umemura
晋一郎 梅村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Healthcare Manufacturing Ltd
Original Assignee
Hitachi Medical Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Medical Corp filed Critical Hitachi Medical Corp
Priority to JP2005031417A priority Critical patent/JP4750429B2/en
Publication of JP2006217939A publication Critical patent/JP2006217939A/en
Publication of JP2006217939A5 publication Critical patent/JP2006217939A5/ja
Application granted granted Critical
Publication of JP4750429B2 publication Critical patent/JP4750429B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a body movement and deformation image display device which evaluates a three-dimensional body movement and deformation of an object of examination, and fuses images from different imaging means and displays in real time. <P>SOLUTION: The image display device has first and second ultrasonic probes 2 which send an ultrasonic wave to the object of examination 1 and acquires reflection signal from the object of examination, and in which piezoelectric elements are arranged in the form of an array, a body movement detection section 12 forming a two-dimensional ultrasonic image by using the reflection signal acquired by the first and second ultrasonic probes, sets a plurality of evaluation areas used for the evaluation of the body movements of the object of examination in the image and detects the amount of three-dimensional body movement and deformation in the evaluation area, a means to acquire an MRI including the same area as the two-dimensional ultrasonic image and sets an area corresponding to the evaluation area in the image for coordination and an image deformation section to move or deform the MRI by using the body movement evaluated in the body movement detection section and displays a deformed MRI image in real time. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、超音波を用いて検査対象の体動や変形を画像表示する画像表示装置に関する。   The present invention relates to an image display apparatus that displays an image of body movement and deformation of an inspection object using ultrasonic waves.

超音波、MRI(Magnetic Resonance Imaging)、X線に代表される撮像手段は、検査対象を視覚的に観察する手段として不可欠なものである。また、腫瘍への糖分集積性を可視化する陽電子放射断層撮影装置画像(PET画像)や血流を可視化する超音波ドップラー画像などの生体の機能を可視化した機能画像も、診断および治療の際の重要な支援画像として用いられている。   Imaging means represented by ultrasonic waves, MRI (Magnetic Resonance Imaging), and X-rays are indispensable as means for visually observing an inspection object. Functional images that visualize biological functions such as positron emission tomography (PET images) that visualize the accumulation of sugar in tumors and ultrasonic Doppler images that visualize blood flow are also important for diagnosis and treatment. It is used as a support image.

これらの医用画像は、撮像対象の部位や組成によって各々異なる優劣をもっている。例えば、超音波画像は実時間での画像表示が可能であり、可搬性に優れている反面、コントラスト分解能が充分ではない。また、MRI画像はコントラスト分解能が高く血管造影等に優れているが、撮像時間が長いことや外部磁場を遮断するシェルタ内で作業することから生じる多くの制約が問題となりうる。そのため、医者は患者の状態や診断箇所によって、最適な撮像手段を適宜選択する必要がある。また、機能画像に関しては、その単独の画像だけでは部位の特定が困難であり、形態画像を用いて部位を特定することができて初めてその有用性を発揮することができる。   These medical images have different merits and demerits depending on the region and composition of the imaging target. For example, an ultrasonic image can be displayed in real time and is excellent in portability, but contrast resolution is not sufficient. In addition, the MRI image has high contrast resolution and excellent angiography. However, many limitations caused by working in a shelter that cuts off an external magnetic field can be problematic because of a long imaging time. Therefore, it is necessary for the doctor to appropriately select the optimum imaging means depending on the patient's condition and diagnosis location. In addition, regarding a functional image, it is difficult to specify a part only with the single image, and the usefulness can be exhibited only after the part can be specified using a morphological image.

画像を組み合わせるためには、検査対象の動きを評価し、画像間の整合を取る必要がある。   In order to combine images, it is necessary to evaluate the movement of the inspection object and to match the images.

以下に、従来の超音波撮像装置による体動検出法について説明する。   A body motion detection method using a conventional ultrasonic imaging apparatus will be described below.

直交に配置した二つの超音波探触子によってバイプレーン画像を取得し、その交線上に位置する検査対象の3次元的な動きを評価する技術が報告されている(例えば、非特許文献1参照)。その手法の原理は、検査対象の動きを各方向(x、y、z方向)への成分ベクトルとして画像上に投影し、時間的に連続した二枚の画像間での相互相関演算によって成分ベクトルを求め、検査対象の3次元的な動きベクトルを再構築する手法である。   A technique has been reported in which a biplane image is acquired by two ultrasonic probes arranged orthogonally and the three-dimensional motion of an inspection object located on the intersection line is evaluated (for example, see Non-Patent Document 1). ). The principle of the method is that the motion of the inspection object is projected onto the image as a component vector in each direction (x, y, z direction), and the component vector is calculated by cross-correlation between two temporally continuous images. And reconstructing a three-dimensional motion vector to be inspected.

体動を評価することで組織の輪郭を抽出することも可能である。組織の輪郭抽出に関する従来技術はこれまで多く報告されており、フィルタ処理などを施した高輝度信号の強調、または、低輝度信号の除去が一般的である。しかし、輝度情報のみを用いた輪郭抽出では、同一組織が折り重なっている境界での音響インピーダンスの差が小さいため、境界の描出が難しく、逆に、境界ではない部分でも音響インピーダンスに差があれば境界として描出されてしまう。したがって、正確な組織の境界描出は難しく、特に肝臓組織のローブの境界のような同一組織の折り重なる境界の描出は困難であった。   It is also possible to extract the outline of the tissue by evaluating the body movement. Many conventional techniques related to tissue contour extraction have been reported so far, and enhancement of high-intensity signals subjected to filtering or the like, or removal of low-intensity signals is common. However, in contour extraction using only luminance information, the difference in acoustic impedance at the boundary where the same tissue is folded is small, so it is difficult to depict the boundary. On the contrary, if there is a difference in acoustic impedance even at the non-boundary part It is drawn as a boundary. Therefore, it is difficult to accurately depict the boundary of the tissue, and in particular, it is difficult to depict the overlapping boundary of the same tissue such as the lobe boundary of the liver tissue.

日超医基礎技術研究会資料 Vol. 103, No. 4, p. 29 (2003)Japan Super Medical Basic Research Materials Vol. 103, No. 4, p. 29 (2003)

超音波画像は、実時間で画像を表示できるため、腹腔鏡術や強力超音波を治療患部に集束させて加熱凝固させるHIFU(High Intensity Focused Ultrasound)治療などの侵襲性が低い治療における画像ガイドしても、有効な手段となっている。その一方で、治療の経過観察や効果判定として用いるには充分なコントラストを持つ画像が得られず、超音波画像によるガイドと共に、MRIによる静止画像を照らし合わせなければならない状況も多く考えられる。   Since ultrasound images can be displayed in real time, image guidance in less invasive treatments such as HIFU (High Intensity Focused Ultrasound) treatment, in which laparoscopic surgery or intense ultrasound is focused on the affected area and heated and solidified. However, it is an effective means. On the other hand, there are many situations in which an image with sufficient contrast cannot be obtained for use in the follow-up of treatment and effect determination, and still images by MRI must be collated with guides by ultrasonic images.

そのため、異なる撮像手段による形態画像および機能画像を組み合わせ、患者に最適な画像を実時間で表示する技術が求められている。特に、体動や呼吸運動から生じる組織の変形を含めて表示する技術が必要である。   Therefore, there is a demand for a technique for combining a morphological image and a functional image obtained by different imaging means and displaying an optimal image for a patient in real time. In particular, there is a need for a technique for displaying including the deformation of tissues caused by body movements and respiratory movements.

そこで、本発明の目的は、超音波撮像装置のリアルタイム性と他の撮像手段の優位性を組み合わせた高解像度、高機能の画像の表示が可能な画像表示装置を提供することにある。   Accordingly, an object of the present invention is to provide an image display device capable of displaying a high-resolution, high-function image that combines the real-time property of an ultrasonic imaging device and the superiority of other imaging means.

上記目的を達成するために、本発明の画像表示装置では、超音波画像によって検査対象の体動および変形を3次元的に評価し、その評価結果に基づいてMRI画像やX線等の他の撮像手段による画像を変形させ、2次元画像または3次元画像として表示する。   In order to achieve the above object, the image display apparatus of the present invention three-dimensionally evaluates the body movement and deformation of an inspection object using an ultrasonic image, and based on the evaluation result, other MRI images, X-rays, and the like. The image by the imaging means is deformed and displayed as a two-dimensional image or a three-dimensional image.

以下、本発明の画像表示装置の代表的な構成例について列挙する。   Hereinafter, typical configuration examples of the image display apparatus of the present invention will be listed.

(1)検査対象に対して超音波を送信し、前記検査対象からの反射信号を取得するための第1及び第2の超音波探触子と、前記第1及び第2の超音波探触子によって取得した反射信号を用いて超音波画像を構成し、前記超音波画像情報から3次元体動および変形量を検出する体動検出部と、前記体動検出部で評価した体動又は変形量及び前記超音波画像を表示する画像表示部とを有し、前記体動検出部は、交線を持つ複数枚の超音波画像を用いて前記体動検出を行なうことを特徴とする。   (1) First and second ultrasonic probes for transmitting ultrasonic waves to an inspection object and acquiring a reflection signal from the inspection object, and the first and second ultrasonic probes A body motion detector configured to construct an ultrasound image using a reflection signal acquired by the child and detect a three-dimensional body motion and a deformation amount from the ultrasound image information, and a body motion or deformation evaluated by the body motion detector An image display unit for displaying the quantity and the ultrasonic image, wherein the body motion detection unit performs the body motion detection using a plurality of ultrasonic images having intersecting lines.

(2)前記(1)の画像表示装置において、前記3次元での体動を直交座標系の速度成分ベクトルに分解し、複数の超音波画像上に射影された前記速度成分ベクトルを求めて3次元での体動および変形を推測することを特徴とする。   (2) In the image display device according to (1), the three-dimensional body motion is decomposed into velocity component vectors of an orthogonal coordinate system, and the velocity component vectors projected on a plurality of ultrasonic images are obtained to obtain 3 It is characterized by inferring body movement and deformation in a dimension.

(3)前記(1)の画像表示装置において、前記体動検出部は、構成された前記超音波画像の画像面内に、前記検査対象の体動評価に用いる評価領域を複数設定し、前記評価領域内の前記超音波画像の情報から3次元体動および変形量を検出することを特徴とする。   (3) In the image display device according to (1), the body motion detection unit sets a plurality of evaluation regions used for body motion evaluation of the inspection target in the image plane of the configured ultrasonic image, A three-dimensional body movement and a deformation amount are detected from information of the ultrasonic image in the evaluation region.

(4)前記(1)乃至(3)のいずれかの画像表示装置において、前記第1及び第2の超音波探触子は、それぞれ、複数の圧電素子が1次元もしくは2次元のアレイ状に配列された超音波探触子であることを特徴とする。   (4) In the image display device according to any one of (1) to (3), each of the first and second ultrasonic probes includes a plurality of piezoelectric elements in a one-dimensional or two-dimensional array. It is an arrayed ultrasonic probe.

(5)前記(1)の画像表示装置において、さらに、他の撮像手段により取得された前記超音波画像と同一領域を含む画像の画像面内に、前記評価領域に対応する領域を設定して整合をとる手段と、前記体動検出部で評価した体動又は変形量を、前記他の撮像手段による画像に反映させ、画像を移動又は変形させる手段とを有し、前記画像表示部は、前記他の撮像手段による画像の変形画像をさらに表示することを特徴とする。   (5) In the image display device according to (1), an area corresponding to the evaluation area is set in an image plane of an image including the same area as the ultrasonic image acquired by another imaging unit. Means for matching, and means for reflecting the body motion or deformation amount evaluated by the body motion detection unit in an image by the other imaging unit and moving or deforming the image, the image display unit, A modified image of the image obtained by the other imaging means is further displayed.

(6)前記(5)の画像表示装置において、前記他の撮像手段による画像は、MRI画像もしくはX線画像の形態画像、または、PET画像もしくは超音波ドップラー画像の機能画像であることを特徴とする。   (6) In the image display device according to (5), the image obtained by the other imaging unit is a morphological image of an MRI image or an X-ray image, or a functional image of a PET image or an ultrasonic Doppler image. To do.

(7)検査対象に対して超音波を送受信し、前記検査対象の2次元断層像を得る二つの超音波探触子と、前記二つの超音波探触子によって取得したバイプレーン画像から、前記検査対象の体動の速度成分ベクトルを検出するための手段と、他の撮像手段により前記バイプレーン画像のうち少なくとも片方の画像と同一部分を含む画像を取得するための手段と、前記他の撮像手段による画像を前記速度成分ベクトルに基づいて変形させるための手段と、前記変形させた画像を表示する画像表示部とを具備してなることを特徴とする。   (7) Two ultrasonic probes that transmit and receive ultrasonic waves to and from the inspection target and obtain a two-dimensional tomographic image of the inspection target, and biplane images acquired by the two ultrasonic probes, Means for detecting a velocity component vector of body motion to be examined; means for obtaining an image including at least one of the biplane images by the other imaging means; and the other imaging The image processing apparatus includes: means for deforming an image by the means based on the velocity component vector; and an image display unit for displaying the deformed image.

本発明によれば、超音波撮像装置のリアルタイム性と他の撮像手段の優位性を組み合わせた高解像度、高機能の画像の表示が可能であり、診断および治療に最適な画像を表示できる。   According to the present invention, it is possible to display a high-resolution, high-function image combining the real-time property of an ultrasonic imaging apparatus and the superiority of other imaging means, and an image optimal for diagnosis and treatment can be displayed.

以下、本発明の実施例について、図面を参照して詳述する。     Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

(実施例1)
図1は、本発明の一実施例になる画像表示装置の構成を示すブロック図である。図2は、超音波による体動および変形量の評価結果を用いて超音波以外の撮像手段による画像を実際の動きに合わせて変形させ、表示するまでのフローチャートである。
Example 1
FIG. 1 is a block diagram showing a configuration of an image display apparatus according to an embodiment of the present invention. FIG. 2 is a flowchart of processing until an image obtained by an imaging unit other than ultrasonic waves is deformed in accordance with an actual movement using the evaluation results of body movement and deformation amount by ultrasonic waves and displayed.

本実施例の画像表示装置では、検査対象に対して超音波を送受信し、検査対象の二次元断層像(Bモード)を得る二つの超音波探触子によるバイプレーン画像を取得し、バイプレーン画像から体動の三次元速度成分ベクトルを検出し、他の撮像手段(例えば、MRIやX線撮像装置)によりバイプレーン画像のうち少なくても片方の画像と同一部分を含む画像を取得し、取得したMRI画像やX線画像を速度成分ベクトルに基づいて変形させ、変形させた画像を随時表示する。   In the image display apparatus according to the present embodiment, ultrasonic waves are transmitted / received to / from the inspection target, biplane images are acquired by two ultrasonic probes that obtain a two-dimensional tomographic image (B mode) of the inspection target, and the biplane A three-dimensional velocity component vector of body motion is detected from the image, and an image including the same part as at least one of the biplane images is obtained by other imaging means (for example, MRI or X-ray imaging device). The acquired MRI image or X-ray image is deformed based on the velocity component vector, and the deformed image is displayed as needed.

まず、検査対象の超音波画像の取得から、超音波以外の撮像手段による画像を用いた変形画像表示に至るまでの装置構成について、図1のブロック図を用いて説明する。   First, an apparatus configuration from acquisition of an ultrasonic image to be inspected to display of a deformed image using an image by imaging means other than ultrasonic waves will be described with reference to the block diagram of FIG.

超音波探触子(以下、探触子)2は複数の圧電素子が平行に並べられた構造をもつ。送信ビームフォーマー3からD/A変換器4を経由して、各圧電素子にアナログ送波信号が送られ、検査対象1に向けて超音波を照射する。各圧電素子から送信される超音波は、送信ビームフォーマー3によって電子的に遅延が掛けられており、所定の深度で集束する。送波信号は、検査対象1内で反射され、再び探触子の各圧電素子で受信される。各圧電素子で受信した反射エコーは、TGC(Time Gain Control)部5で、送波の到達深度によって変わる減衰分を補正された後、A/D変換器6でデジタル信号に変換され、受信ビームフォーマー7に送られる。   The ultrasonic probe (hereinafter referred to as a probe) 2 has a structure in which a plurality of piezoelectric elements are arranged in parallel. An analog transmission signal is sent to each piezoelectric element from the transmission beam former 3 via the D / A converter 4 and irradiates ultrasonic waves toward the inspection object 1. The ultrasonic wave transmitted from each piezoelectric element is electronically delayed by the transmission beam former 3 and is focused at a predetermined depth. The transmission signal is reflected in the inspection object 1 and received again by each piezoelectric element of the probe. The reflected echo received by each piezoelectric element is corrected by the TGC (Time Gain Control) unit 5 for the attenuation that varies depending on the arrival depth of the transmission wave, and then converted into a digital signal by the A / D converter 6, and the received beam Sent to former 7.

受信ビームフォーマー7では、焦点位置から各圧電素子までの距離に応じた遅延時間を掛けて加算結果が出力される。この集束超音波を2次元走査させることで、検査対象1の2次元的な反射エコー分布が得られる。受信ビームフォーマー7からは実部と虚部に分けられたRF信号が出力され、包絡線検波部8と初期位置設定部11に送られる。包絡線検波部8に送られた信号は、ビデオ信号に変換された後、スキャンコンバーター9で走査線間の補間が加えられ、2次元画像データに再構成された後、画像表示部10に表示される。初期位置設定部11では、検査対象の体動および変形をトラックする初期フレームの撮像断面位置を設定する。初期位置が設定された後のRFデータは、体動検出部12に送られる。体動検出部12では、体動や変形を評価する領域(評価領域)を設定し、フレーム間で相互相関演算を行なうことにより、3次元での体動や変形量を評価することができる。   The reception beam former 7 outputs the addition result by multiplying a delay time corresponding to the distance from the focal position to each piezoelectric element. A two-dimensional reflected echo distribution of the inspection object 1 is obtained by two-dimensionally scanning the focused ultrasonic wave. An RF signal divided into a real part and an imaginary part is output from the reception beam former 7 and sent to the envelope detection unit 8 and the initial position setting unit 11. The signal sent to the envelope detection unit 8 is converted into a video signal, interpolated between the scan lines by the scan converter 9 and reconstructed into two-dimensional image data, and then displayed on the image display unit 10. Is done. The initial position setting unit 11 sets the imaging cross-sectional position of the initial frame that tracks the body movement and deformation of the inspection target. The RF data after the initial position is set is sent to the body motion detection unit 12. The body motion detection unit 12 can evaluate a three-dimensional body motion and deformation amount by setting a region (evaluation region) for evaluating body motion and deformation and performing cross-correlation between frames.

変形画像記憶部15には、術前または術中に取得した超音波以外の撮像手段(MRIやX線装置、等)による検査対象の3次元画像が保管されている。抽出断面初期位置設定部16では、変形画像記憶部に保管されている3次元画像から、初期位置設定部11で設定された超音波画像の初期フレームに対応するスライス画像を抽出する。初期フレームに対応する前記スライス画像および、保管されている3次元画像を用いて、体動検出部12で評価した体動や変形量に応じた画像処理を抽出断面相対移動部13で行なう。体動検出部12で設定する評価領域が複数個の場合には、抽出画像相対移動部で処理した後の画像上の評価領域は不連続に位置することがある。抽出断面再構成部14では、このような評価領域の不連続性を連続的に補正して一枚の2次元画像に再構成し、表示部10に表示する。   The deformed image storage unit 15 stores a three-dimensional image to be inspected by an imaging means (MRI, X-ray apparatus, etc.) other than ultrasound acquired before or during surgery. The extracted slice initial position setting unit 16 extracts a slice image corresponding to the initial frame of the ultrasonic image set by the initial position setting unit 11 from the three-dimensional image stored in the deformed image storage unit. Using the slice image corresponding to the initial frame and the stored three-dimensional image, the extracted cross-section relative movement unit 13 performs image processing according to the body movement and the deformation amount evaluated by the body movement detection unit 12. When there are a plurality of evaluation regions set by the body motion detection unit 12, the evaluation regions on the image after processing by the extracted image relative movement unit may be located discontinuously. The extracted section reconstruction unit 14 continuously corrects such discontinuity in the evaluation region, reconstructs it into one two-dimensional image, and displays it on the display unit 10.

次に、図2のフローチャートに従って、各撮像手段による画像の取得から表示に至るまでの工程の詳細を説明する。以下説明の簡単のため、超音波以外の撮像手段による画像として、MRI画像を例にして説明する。   Next, according to the flowchart of FIG. 2, details of steps from acquisition of an image by each imaging unit to display will be described. For the sake of simplicity, an MRI image will be described as an example of an image obtained by imaging means other than ultrasound.

まず、工程11で互いに交わる最低二枚の超音波RFデータを取得する。画像を取得するための超音波探触子は、1次元アレイ型と2次元アレイ型がある。1次元アレイ型を用いてバイプレーン画像を得るには、複数の探触子を用いるか、回転または走査するための機械的な駆動器具または装置が必要である。また、図3に示すような、N字型、H型または#型に圧電素子を配した構造の探触子を用いれば、回転または走査の必要が無いため機械的な駆動部を必要としない。また、2次元アレイ型の探触子を用いれば電子的に2次元オブリークが可能であるため、検査対象の形状に合わせた任意断面の撮像が可能となる。   First, at least two pieces of ultrasonic RF data that intersect with each other in step 11 are acquired. Ultrasonic probes for acquiring images include a one-dimensional array type and a two-dimensional array type. To obtain a biplane image using a one-dimensional array type requires a plurality of probes, or a mechanical drive or device to rotate or scan. Further, when a probe having a structure in which a piezoelectric element is arranged in an N-shape, H-shape or # -shape as shown in FIG. 3 is used, there is no need for rotation or scanning, so that no mechanical drive is required. . Further, if a two-dimensional array type probe is used, two-dimensional oblique can be electronically performed, so that an arbitrary cross section can be imaged according to the shape of the inspection object.

次に、工程12から工程13までの検査対象の体動および変形量を評価する手法について説明するのに先立ち、本発明の手法の基本原理について、図4、図5、図6を用いて説明する。   Next, the basic principle of the method of the present invention will be described with reference to FIGS. 4, 5, and 6 prior to describing the method for evaluating the body movement and deformation amount of the inspection object from step 12 to step 13. To do.

図4は、バイプレーン画像を取得するための探触子の構成例およびその撮像面と、バイプレーン画像の交線上から移動する検査対象の軌道を示す図である。   FIG. 4 is a diagram illustrating a configuration example of a probe for acquiring a biplane image, an imaging surface thereof, and a trajectory of an inspection target moving from the intersection line of the biplane image.

図5は、一撮像面を通過する検査対象の軌跡を表す図である。図5の(A)はx軸方向から見た図であり、図5の(B)はz方向から見た図である。   FIG. 5 is a diagram illustrating a trajectory of an inspection object that passes through one imaging surface. 5A is a diagram viewed from the x-axis direction, and FIG. 5B is a diagram viewed from the z-direction.

図6は、図5に示す検査対象の各位置における超音波画像を示す。   FIG. 6 shows an ultrasound image at each position of the inspection object shown in FIG.

図4に示すように、探触子20、21をT字型に配置し、交互に超音波を走査させて2次元断層像22(xz面)、23(yz面)で構成されるバイプレーン画像を取得する。ここでは、T字型の配置例を挙げたが、交線を持つ複数枚の画像が得られる構成であれば、例えば十字型の配置も可能である。   As shown in FIG. 4, the probes 20 and 21 are arranged in a T shape, and ultrasonic waves are alternately scanned to form a biplane composed of two-dimensional tomographic images 22 (xz plane) and 23 (yz plane). Get an image. Here, an example of a T-shaped arrangement has been described, but a cross-shaped arrangement, for example, is also possible as long as a plurality of images having intersecting lines can be obtained.

バイプレーン画像の交線上に位置する検査対象24が速度ベクトルVで移動した場合、撮像面22および撮像面23には速度成分ベクトルVa、Vbが射影される。そして、各撮像面内で変化する速度成分ベクトルは、時間的に連続するフレーム間での相互相関演算によって評価できる。しかし、検査対象の動きが撮像面内から外れる場合、輝度情報が失われてフレーム間で相関が取れなくなる。したがって、RFデータの取得は高速フレームレートの条件で行ない、検査対象の微小な動きを各フレームで捉えるようにし、輝度情報を可能な限り消失しないようにすることが必要である。以下に、図を用いて説明する。   When the inspection object 24 located on the intersection line of the biplane image moves with the velocity vector V, the velocity component vectors Va and Vb are projected onto the imaging surface 22 and the imaging surface 23. The velocity component vector that changes in each imaging plane can be evaluated by a cross-correlation calculation between temporally consecutive frames. However, when the movement of the inspection target deviates from the imaging plane, the luminance information is lost and the correlation between frames cannot be obtained. Therefore, it is necessary to acquire RF data under the condition of a high-speed frame rate so that minute movements to be inspected are captured in each frame so that luminance information is not lost as much as possible. This will be described below with reference to the drawings.

図5の(A)、(B)のyz平面に着目し、撮像面31を通過する検査対象を考える。30a、30b、30c、30dは、時間的に連続する各フレームでの検査対象の位置を表し、30a→30b→30c→30dの順に移動していく。各位置での画像は、図6のようになる。33a、33b、33c、33dは、それぞれフレーム30a、30b、30c、30dに対応し、34a、34b、34c、34dは、各フレームにおける検査対象の断層画像である。連続するフレーム33aとフレーム33bを重ね合わせた画像35には、検査対象の断層画像が34aから34bへ移動する様子が示されている。検査対象が探触子の撮像面外へ移動する場合には、断層画像は、画像35に示された34a、34bのように、相似的な並進移動ではなく輪郭の変形を伴った移動になるが、両者で相互相関演算を行なえば、検査対象の重心移動に関する速度成分ベクトルを求めることができる。この手法をバイプレーン画像に適用し、各速度成分ベクトルを求めれば、検査対象の3次元での体動ベクトルを再構成することができる。   Paying attention to the yz plane in FIGS. 5A and 5B, consider an inspection object that passes through the imaging surface 31. Reference numerals 30a, 30b, 30c, and 30d represent the positions of inspection targets in the temporally continuous frames, and move in the order of 30a → 30b → 30c → 30d. Images at each position are as shown in FIG. Reference numerals 33a, 33b, 33c, and 33d correspond to the frames 30a, 30b, 30c, and 30d, respectively, and reference numerals 34a, 34b, 34c, and 34d denote tomographic images to be inspected in the respective frames. The image 35 obtained by superimposing the continuous frames 33a and 33b shows a state in which the tomographic image to be inspected moves from 34a to 34b. When the inspection object moves out of the imaging plane of the probe, the tomographic image is not a similar translational movement but a movement with a contour deformation, like 34a and 34b shown in the image 35. However, if cross-correlation calculation is performed between the two, a velocity component vector related to the movement of the center of gravity of the inspection object can be obtained. If this method is applied to a biplane image and each velocity component vector is obtained, a three-dimensional body motion vector to be examined can be reconstructed.

続いて、工程12の評価領域の設定について説明する。   Subsequently, the setting of the evaluation area in step 12 will be described.

本発明では、図7に示すように、バイプレーン画像70a、70b上に複数の評価領域71を設定し、時間的に連続するフレーム間で、同一箇所の評価領域同士による相互相関演算によって移動量を求める。一つ一つの評価領域内での動きは変形を伴わない剛体運動と見なされるが、各評価領域で求めた個々の移動量を組み合わせることで、検査対象の変形を評価できる。また、連続するフレーム間での注目する特定信号の移動量が評価領域の大きさを越えると特定信号の追随ができなくなる。したがって、検査対象の動き、または変形の大きさや、評価に要する計算時間を踏まえて、評価領域の大きさや数を設定する必要がある。   In the present invention, as shown in FIG. 7, a plurality of evaluation areas 71 are set on the biplane images 70a and 70b, and the amount of movement is calculated by cross-correlation between evaluation areas at the same place between temporally consecutive frames. Ask for. Although the movement in each evaluation region is regarded as a rigid body motion without deformation, the deformation of the inspection object can be evaluated by combining individual movement amounts obtained in each evaluation region. Further, if the amount of movement of the specific signal of interest between consecutive frames exceeds the size of the evaluation area, the specific signal cannot be followed. Therefore, it is necessary to set the size and number of evaluation areas based on the movement or deformation size of the inspection target and the calculation time required for the evaluation.

相関演算に用いる信号成分として、検査対象の輪郭や組織間の境界などの輪郭成分と、検査対象の内外部の組織に散在する微小散乱体によって散乱した超音波が互いに干渉して形成されるスペックル成分が考えられる。本発明では、両者を区別せず、画像全体に評価領域を設定して移動量を計算する。これにより、輪郭成分のような特徴的な輝度情報が得られない領域の体動を評価することが可能となる。前述した特定信号をスペックル成分と考えた場合、その大きさは探触子の口径と使用する中心周波数にもよるが、方位方向で1mm、時間方向で0.5mmである。したがって、評価領域の大きさは、最小でもこのスペックル成分の大きさ以上である必要がある。スペックル成分の動きを求めることで、輪郭情報のない組織内部の変形の可視化が可能になる。また、熱や外的効力による検査対象の変性を可視化することも可能である。さらに、設定した各評価領域の動きをもとにして組織間の体動に伴う滑りを評価することができ、組織の内部構造に依存しない、組織の輪郭や境界の判別が可能である。   Specs formed by interference between contour components such as the contour of the object to be inspected and the boundary between tissues, and ultrasonic waves scattered by minute scatterers scattered inside and outside the tissue to be inspected as signal components used for correlation calculation Component is considered. In the present invention, the amount of movement is calculated by setting an evaluation area for the entire image without distinguishing between the two. As a result, it is possible to evaluate body movements in areas where characteristic luminance information such as contour components cannot be obtained. When the above-mentioned specific signal is considered as a speckle component, its magnitude is 1 mm in the azimuth direction and 0.5 mm in the time direction, although it depends on the aperture of the probe and the center frequency used. Therefore, the size of the evaluation area needs to be at least equal to the size of the speckle component. By obtaining the movement of the speckle component, it becomes possible to visualize the deformation inside the tissue without contour information. It is also possible to visualize the denaturation of the test object due to heat and external efficacy. Furthermore, it is possible to evaluate slippage associated with body movement between tissues based on the movement of each set evaluation area, and it is possible to discriminate tissue contours and boundaries independent of the internal structure of the tissues.

次に、工程13の体動および変形量の評価について説明する。各評価領域での速度成分ベクトルを求めるためのフローチャートを、図8に示す。   Next, the evaluation of the body movement and deformation amount in step 13 will be described. FIG. 8 shows a flowchart for obtaining the velocity component vector in each evaluation region.

最初に、バイプレーン画像上に任意個数の評価領域を設定する(工程1)。次に体動評価を始めるフレームを基準フレーム(n)として設定する(工程2)。次に、時間的に連続する次のフレーム(n+1)を取得し、両フレーム上の同一の評価領域同士で相互相関演算を行なう(工程3)。次に、相関演算によって求めた移動量が0か否かの判断をする(工程4)。移動量が0でない場合は、工程2に戻り、その時点でのフレームが基準フレームとして再設定される。移動量が0の場合には、更に次のフレーム(n+2)を取得し、基準フレームと相互相関演算を計算する(工程5)。そして、移動量が0でなくなるまで工程4と工程5を繰り返し、時間的に連続するフレーム間での速度成分ベクトルを随時求めていく。   First, an arbitrary number of evaluation areas are set on the biplane image (step 1). Next, a frame for starting body motion evaluation is set as a reference frame (n) (step 2). Next, the next frame (n + 1) continuous in time is acquired, and cross-correlation calculation is performed between the same evaluation areas on both frames (step 3). Next, it is determined whether or not the movement amount obtained by the correlation calculation is 0 (step 4). If the amount of movement is not 0, the process returns to step 2 and the frame at that time is reset as the reference frame. When the movement amount is 0, the next frame (n + 2) is further acquired, and the cross-correlation calculation with the reference frame is calculated (step 5). Then, Step 4 and Step 5 are repeated until the movement amount becomes zero, and a velocity component vector between temporally continuous frames is obtained as needed.

各評価領域は離散的に設定するため、評価領域以外の動きを、求めた速度成分ベクトルを用いて推定し、検査対象の動きが連続的にするための補間処理を施す必要がある。   Since each evaluation region is set discretely, it is necessary to estimate the motion other than the evaluation region using the obtained velocity component vector and perform an interpolation process for making the motion of the inspection object continuous.

補間の方法としては、補間する領域近傍の速度成分ベクトルを元に、距離に応じた重み付けを加えた平均値を求める方法がある。この方法について、図9を用いて説明する。画像上の隣接する評価領域a(40a)とb(40b)を仮定し、この評価領域間にn個の評価領域を補間する。補間する評価領域、aj(j=1,2,・・・n)の速度成分ベクトルは、評価領域aと評価領域bへの距離に応じた重み付けをして、以下に示す(式1)のように計算する。
aj=[(n+1−j)/(n+1)]a+[j/(n+1)]b ・・・(式1)
(j=1,2,・・・n)
以上の計算を、縦横方向さらに斜め方向にも行なえば、線形的な輝度変化を持つ評価領域の補間ができる。
As an interpolation method, there is a method of obtaining an average value obtained by adding a weight according to a distance based on a velocity component vector in the vicinity of an interpolation area. This method will be described with reference to FIG. Assume adjacent evaluation areas a (40a) and b (40b) on the image, and n evaluation areas are interpolated between the evaluation areas. The velocity component vector of the evaluation region to be interpolated, aj (j = 1, 2,... N) is weighted according to the distance between the evaluation region a and the evaluation region b, and is expressed by (Equation 1) shown below. Calculate as follows.
aj = [(n + 1−j) / (n + 1)] a + [j / (n + 1)] b (Expression 1)
(J = 1, 2,... N)
If the above calculation is performed in the vertical and horizontal directions as well as in the diagonal direction, the evaluation area having a linear luminance change can be interpolated.

次に、工程14の超音波以外の撮像手段による画像(MRI画像)の取得について説明する。   Next, acquisition of an image (MRI image) by imaging means other than ultrasonic waves in step 14 will be described.

超音波画像と同一断層面のMRI画像を取得する第一の方法は、MRIで造影できるマーカを用いる方法である。超音波の撮像面上に三つ以上のMRIマーカを固定すれば、傾きを含めて撮像面を空間内に確定でき、超音波と同一断面のMRI画像を撮像することができる。   The first method for acquiring an MRI image of the same tomographic plane as the ultrasonic image is a method using a marker that can be contrasted by MRI. If three or more MRI markers are fixed on the ultrasonic imaging surface, the imaging surface including the inclination can be determined in the space, and an MRI image having the same cross section as the ultrasonic wave can be captured.

第二の方法は、体内でランドマークとなる複数の特徴部位を予め決めておき、その特徴部位を基準にして、検査体内での撮像面を相対的に決める方法である。特徴部位としては、呼吸や蠕動運動による影響が少ない骨格や臓器の輪郭を用いることができる。   The second method is a method in which a plurality of characteristic parts to be landmarks in the body are determined in advance, and an imaging surface in the inspection body is relatively determined based on the characteristic parts. As a characteristic part, the outline of a skeleton or an organ that is less affected by breathing or peristaltic movement can be used.

次に、工程15の超音波画像とMRI画像との整合について説明する。   Next, the matching between the ultrasonic image and the MRI image in step 15 will be described.

MRI画像は,一般的に超音波画像と比較して視野が広い。そのため、体動を検出できる領域が、工程14で取得するMRI画像のどの部分に相当するかを調べ、両画像の整合を取らなくてはならない。工程14でMRIマーカを使用する場合には、予め探触子の位置が確定できる位置、例えば,探触子の両端にマーカを設置することで整合が容易に取れる。また、生体内部の特徴的な形状または輝度を持った組織をマーカとして代用し、画像間の整合をとることも可能である。その際、組織形状を強調させるためのフィルタ処理を施すことも有効な手段である。   MRI images generally have a wider field of view than ultrasound images. Therefore, it is necessary to check which part of the MRI image acquired in step 14 corresponds to the region where the body motion can be detected, and to match both images. In the case where an MRI marker is used in step 14, alignment can be easily achieved by placing markers at positions where the position of the probe can be determined in advance, for example, at both ends of the probe. It is also possible to take a matching between images by substituting a tissue having a characteristic shape or brightness inside the living body as a marker. At that time, it is also an effective means to perform filter processing for enhancing the tissue shape.

次に、工程16の超音波画像以外の撮像手段による画像の変形および表示について説明する。   Next, the deformation and display of the image by the imaging means other than the ultrasonic image in step 16 will be described.

一般的に、超音波画像とMRI画像では画素サイズが異なるため、最初に何れかの画像において画素の補間または間引きを行なう。補間方法は,図9を用いて既に説明した速度成分ベクトルの補間方法と同じである。評価領域40aと40bを隣接するMRI画像上の画素と仮定し、この画素間にn個の画素を補間する。補完する画素aj(j=1,2,・・・n)の輝度は、(式1)によって計算される。また、補間する画素の輝度を、その周辺の輝度に応じた重み付けをして計算する方法も考えられる。   In general, since the pixel size is different between an ultrasonic image and an MRI image, pixel interpolation or thinning is first performed in any image. The interpolation method is the same as the velocity component vector interpolation method already described with reference to FIG. Assume that the evaluation areas 40a and 40b are pixels on adjacent MRI images, and n pixels are interpolated between the pixels. The luminance of the pixel aj (j = 1, 2,... N) to be complemented is calculated by (Equation 1). Another possible method is to calculate the luminance of the pixel to be interpolated by weighting according to the luminance of the surrounding area.

続いて、工程13で求めた各評価領域での速度成分ベクトルに従って、MRI画像上の対応する評価領域を移動させる。画像の表示は、3次元、2次元が考えられる。3次元画像の場合には、変形画像の表示に要する時間的な損失があるが、検査領域の体動や変形および位置情報を視覚的に捉えることができる。   Subsequently, the corresponding evaluation region on the MRI image is moved according to the velocity component vector in each evaluation region obtained in step 13. Three-dimensional and two-dimensional images can be displayed. In the case of a three-dimensional image, there is a time loss required to display the deformed image, but the body movement, deformation, and position information of the examination region can be visually grasped.

しかし、図4の構成で得られるバイプレーン画像からは、バイプレーン画像の交線上の評価領域でのみ3次元での体動の速度ベクトルを求めることができ、それ以外の画像上の評価領域からは、各画像上での速度成分ベクトルしか得られない。そのため、検査対象の連続性を体積弾性率や密度から推定し、部分的に評価した体動を3次元に拡張しなければならない。2次元アレイ探触子などを用いて検査対象の任意断面を撮像できる場合には、検査対象の空間上の分散する複数点での速度成分ベクトルを求めることができるので、3次元体動を正確に評価することができる。   However, from the biplane image obtained with the configuration of FIG. 4, a three-dimensional body motion velocity vector can be obtained only in the evaluation area on the intersection line of the biplane image, and from other evaluation areas on the image. Can only obtain velocity component vectors on each image. Therefore, it is necessary to estimate the continuity of the inspection object from the bulk modulus and density and to extend the partially evaluated body motion to three dimensions. When an arbitrary cross section of an inspection object can be imaged using a two-dimensional array probe or the like, velocity component vectors at a plurality of dispersed points in the inspection object space can be obtained, so that three-dimensional body movement can be accurately performed. Can be evaluated.

検査対象の体動が呼吸運動等の周期的な動きの場合には、運動周期の複数の時相での3次元MRI画像を予め保持しておき、評価した体動および変形状態から検査対象がどの時相にあるかを判定して、対応する時相での3次元MRI画像を表示することもできる。また、検査対象の体動が主に呼吸運動に起因し、2次元運動として近似できる場合には、表示画像は必ずしも3次元である必要はない。2次元画像表示の場合には、高いフレームレートでMRI変形画像が表示でき、実時間での表示を必要とするバイオプシや術中の画像ガイドとして有効である。   When the body motion to be examined is a periodic motion such as respiratory motion, a three-dimensional MRI image at a plurality of time phases of the motion cycle is stored in advance, and the subject to be examined is determined from the evaluated body motion and deformation state. It is also possible to determine in which time phase and display a three-dimensional MRI image in the corresponding time phase. In addition, when the body motion to be examined is mainly caused by respiratory motion and can be approximated as a two-dimensional motion, the display image is not necessarily three-dimensional. In the case of two-dimensional image display, an MRI deformed image can be displayed at a high frame rate, and it is effective as a biopsy that requires real-time display or an intraoperative image guide.

次に、表示する画像について説明する。超音波画像を用いて求めた体動の速度ベクトルを用いて、2次元または3次元のMRI画像がリアルタイムで変形する画像を表示する。また、本技術はX線画像を含むどの形態画像でも可能である。   Next, an image to be displayed will be described. An image in which a two-dimensional or three-dimensional MRI image is deformed in real time is displayed using a velocity vector of body motion obtained using an ultrasonic image. Further, the present technology can be any morphological image including an X-ray image.

さらに、MRI画像やX線画像にPET画像や超音波ドップラー画像を重ね合わせることにより、高いコントラストを持つ2次元または3次元の変形画像に血流や癌組織の位置情報を含んだ画像を表示することができる。図10は、その一例で、MRI画像100に血流の超音波ドップラー画像101を重ね合わせた画像である。   Furthermore, by superimposing a PET image or an ultrasonic Doppler image on an MRI image or an X-ray image, an image including blood flow or cancer tissue position information is displayed on a two-dimensional or three-dimensional deformed image having a high contrast. be able to. FIG. 10 shows an example in which an MRI image 100 is superimposed with a blood flow ultrasonic Doppler image 101.

本発明を、治療、特に侵襲性の低いHIFU治療や重粒子線治療に適用し、術中の支援画像として用いることもできる。表示される画像によって、体動だけではなく変形も含めた治療部位の経時変化を把握することが可能であるため、正常な部位への侵襲が少なく、また、強力超音波または重粒子線の過剰照射が少ない正確な治療が可能となる。
また、脳腫瘍等の頭蓋内手術の際には、頭蓋骨開口前後で脳の内圧変化が起こり、治療部位の位置が変化する。そのため、術前にMRIで治療部位を確認して頭蓋を開口した後は、治療部位の位置確認は開口前の画像から推測しなければならず、必要に応じて再度MRI撮像しなければならない。そこで、本発明による手法を適用し、開口前後で治療部位の位置変化や変形をモニタリングすることで、再撮像することなく正確かつ術時間の短縮を図ることができる。
The present invention can be applied to treatment, particularly low-invasive HIFU treatment or heavy particle beam treatment, and used as an intraoperative support image. The displayed image can grasp changes in the treatment site over time, including not only body movements but also deformations, so there is little invasion of normal sites, and there is an excess of intense ultrasound or heavy particle beams Accurate treatment with less irradiation becomes possible.
Also, during intracranial surgery such as brain tumors, changes in the internal pressure of the brain occur before and after the skull opening, and the position of the treatment site changes. For this reason, after confirming the treatment site by MRI and opening the skull before surgery, the position of the treatment site must be estimated from the image before opening, and MRI imaging must be performed again as necessary. Therefore, by applying the method according to the present invention and monitoring the change in position and deformation of the treatment site before and after opening, it is possible to accurately and shorten the operation time without re-imaging.

(実施例2)
以下、実施例1に記載の画像表示装置を用いた、組織輪郭抽出技術について、図11、図12、図13、図14を用いて説明する。
(Example 2)
Hereinafter, a tissue contour extraction technique using the image display device described in the first embodiment will be described with reference to FIGS. 11, 12, 13, and 14.

図11は、実施例2に関するフローチャートである。着目部位の超音波直交二断面画像の撮像から、体動および変形量の評価に至るまでの工程(工程11から工程13)は、実施例1に記載の通りに行なう。   FIG. 11 is a flowchart relating to the second embodiment. The steps (step 11 to step 13) from the imaging of the ultrasonic orthogonal two-section image of the region of interest to the evaluation of body movement and deformation amount are performed as described in the first embodiment.

評価した体動評価結果を、Bモード画像上に表示する(工程114)。表示形態は設定したマーカが動く動画像でも、体動の動きベクトルが表示された画像でもよく、設定した評価領域の体動が認識できれば形式を限定しない。しかし、組織のローブに生じるずり境界や、組織の周期的な動きの緩急を把握するためにはベクトル表示が有効である。   The evaluated body movement evaluation result is displayed on the B-mode image (step 114). The display form may be a moving image in which the set marker moves or an image in which a motion vector of body movement is displayed, and the form is not limited as long as the body movement in the set evaluation area can be recognized. However, the vector display is effective for grasping the shear boundary generated in the tissue lobe and the slowness of the periodic movement of the tissue.

次に、表示された組織の動きから、連続体と見なせる領域を抽出する。説明のため、図12に示す肝臓組織60に着目する。肝臓組織60はローブ部分が折り重なり、体動によって互いに逆方向にずれる境界64を持っている。しかし、この肝臓組織60を超音波Bモードで撮像すると、ローブの境界は音響インピーダンスに大差がないため、画像63の肝臓組織63aのように、明確に描出されない。しかし、境界が消失したBモード画像61上に、求めた体動ベクトルを表示すると画像61aのようになり、ずりが生じている境界64を描出できる。描出したずりの境界64と、超音波Bモード画像62で得られる組織の輪郭情報を総合して輪郭抽出すると、画像62aのようになり、連続体領域が判別できる輪郭抽出画像を表示できる(工程115)。   Next, a region that can be regarded as a continuum is extracted from the displayed tissue movement. For explanation, attention is paid to the liver tissue 60 shown in FIG. The liver tissue 60 has a boundary 64 in which lobes are folded and deviated in opposite directions by body movement. However, when the liver tissue 60 is imaged in the ultrasonic B mode, the boundary between the lobes is not clearly depicted like the liver tissue 63a of the image 63 because there is no great difference in acoustic impedance. However, when the calculated body motion vector is displayed on the B-mode image 61 in which the boundary has disappeared, the boundary 64 where the shear is generated can be depicted as an image 61a. If the contour extraction of the tissue boundary information obtained from the drawn shear boundary 64 and the ultrasound B-mode image 62 is combined, an contour extraction image can be displayed as shown in an image 62a (step). 115).

輪郭抽出画像の表示形態は、図13に示すように、複数考えられる。画像81は体動をベクトルで表示し、変形の大きさや向きを観察できるベクトル型表示形態である。画像82は体動および体動の速さによって色分けした色分け型表示形態である。画像83a、83bは着目領域をメッシュで切り分け、変形をメッシュの変形の仕方で判別する、メッシュ型の表示形態である。また、実施例1に記載した異なる撮像手段からの画像同士を組み合わせる技術を用いることにより、MRIやX線画像を用いた図13の表示形態を実現することができる。   As shown in FIG. 13, a plurality of contour extraction image display forms are conceivable. The image 81 is a vector type display form in which body motion is displayed as a vector and the size and direction of deformation can be observed. The image 82 is a color-coded display form that is color-coded according to body movement and the speed of body movement. The images 83a and 83b are mesh-type display forms in which the region of interest is cut by a mesh and the deformation is discriminated based on how the mesh is deformed. Further, by using the technique for combining images from different imaging means described in the first embodiment, the display form of FIG. 13 using MRI or X-ray images can be realized.

なお、以上の輪郭抽出を複数断面で行なうことで、連続体領域を3次元で抽出できる。   In addition, the continuum area | region can be extracted in three dimensions by performing the above outline extraction by several cross sections.

また、本技術を、HIFU治療や重粒子線治療などの侵襲性の低い治療に適用して治療部位の位置を特定し、正常部位を侵襲しない正確な治療技術に用いることもできる。肝臓組織のローブ近傍腫瘍へのHIFU治療を例にして説明する。   Further, the present technology can be applied to a less invasive treatment such as a HIFU treatment or a heavy particle beam treatment to identify the position of a treatment site and can be used for an accurate treatment technology that does not invade a normal site. An example of HIFU treatment for a tumor near a lobe of liver tissue will be described.

図14に、肝臓組織90と強力超音波による焼勺領域91、および体動評価によって抽出したローブの境界92を示す。治療の際に、境界周辺を非焼勺領域93として設定しておく。治療開始後、ローブの境界92が92aのように変形し、焼勺領域91aが非焼勺領域93aに接触した場合、治療用の強力超音波の照射を停止し、接触が無くなった時点で再照射を行なう。これを繰り返すことで、正常組織への誤照射を避け正常部位を傷つけない治療が可能になる。更に、実施例1で説明した体動評価技術を用いて治療領域の三次元空間での位置情報を常に把握することにより、自動でかつ正確に治療部位を焼勺することができる。   FIG. 14 shows a liver tissue 90, an ablation area 91 by high-intensity ultrasound, and a lobe boundary 92 extracted by body motion evaluation. During treatment, the periphery of the boundary is set as a non-cauterized region 93. If the lobe boundary 92 is deformed as 92a after the treatment is started and the ablation area 91a comes into contact with the non-cauterization area 93a, the irradiation of the high intensity ultrasonic wave for treatment is stopped. Irradiate. By repeating this, it is possible to perform treatment that avoids erroneous irradiation of normal tissue and does not damage normal sites. Furthermore, the treatment site can be cauterized automatically and accurately by always grasping the positional information of the treatment area in the three-dimensional space using the body motion evaluation technique described in the first embodiment.

以上詳述したように、本発明によれば、超音波撮像装置のリアルタイム性と他の撮像手段の優位性を組み合わせた高解像度、高機能の画像の表示が可能であり、診断および治療に最適な画像を表示できる。   As described above in detail, according to the present invention, it is possible to display a high-resolution, high-function image that combines the real-time property of an ultrasonic imaging apparatus and the superiority of other imaging means, and is optimal for diagnosis and treatment. Simple images can be displayed.

本発明の実施例1になる画像表示装置の構成を示すブロック図。1 is a block diagram illustrating a configuration of an image display device according to a first embodiment of the present invention. 実施例1の画像表示装置において、RFデータの取得から画像表示に至る動作を説明するフローチャート図。FIG. 3 is a flowchart for explaining operations from acquisition of RF data to image display in the image display apparatus according to the first embodiment. 実施例1の画像表示装置において、RFデータ取得のための超音波探触子の構成例を示す図。3 is a diagram illustrating a configuration example of an ultrasonic probe for obtaining RF data in the image display apparatus according to Embodiment 1. FIG. 実施例1の画像表示装置において、超音波探触子の構成例とバイプレーン画像、および検査対象の体動ベクトルを示す図。In the image display apparatus of Example 1, the figure which shows the structural example and biplane image of an ultrasound probe, and the body motion vector of test object. 実施例1の画像表示装置において、撮像面を通過する検査対象の動きを表す図。FIG. 3 is a diagram illustrating a movement of an inspection target that passes through an imaging surface in the image display apparatus according to the first embodiment. 実施例1の画像表示装置において、図5の検査対象の動きに対応して得られる超音波画像を示す図。FIG. 6 is a diagram illustrating an ultrasonic image obtained in response to the movement of the inspection target in FIG. 5 in the image display apparatus according to the first embodiment. 実施例1の画像表示装置において、バイプレーン画像上に設定された複数個の評価領域を表す図。FIG. 3 is a diagram illustrating a plurality of evaluation areas set on a biplane image in the image display apparatus according to the first embodiment. 実施例1の画像表示装置において、評価領域の設定から体動ベクトルの評価までを説明するフローチャート図。FIG. 3 is a flowchart for explaining from evaluation area setting to body motion vector evaluation in the image display apparatus according to the first embodiment. 実施例1の画像表示装置において、補間処理を説明する図。FIG. 4 is a diagram for explaining interpolation processing in the image display apparatus according to the first embodiment. 実施例1の画像表示装置において、形態画像と機能画像との組み合わせ例を示す図。FIG. 3 is a diagram illustrating a combination example of a form image and a function image in the image display apparatus according to the first embodiment. 本発明の実施例2の組織輪郭抽出技術において、RFデータの取得から輪郭抽出画像表示に至る動作を説明するフローチャート図。The flowchart figure explaining the operation | movement from acquisition of RF data to an outline extraction image display in the structure | tissue outline extraction technique of Example 2 of this invention. 実施例2の組織輪郭抽出技術において、肝臓の境界抽出を表す図。FIG. 10 is a diagram illustrating extraction of a liver boundary in the tissue contour extraction technique according to the second embodiment. 実施例2の組織輪郭抽出技術において、画像の表示形態例を示す図。FIG. 10 is a diagram illustrating an example of an image display form in the tissue contour extraction technique according to the second embodiment. 実施例2の組織輪郭抽出技術において、治療部位のモニタリングを示す図。The figure which shows the monitoring of a treatment site | part in the tissue outline extraction technique of Example 2. FIG.

符号の説明Explanation of symbols

1…検査対象、2…超音波探触子、3…送信ビームフォーマー、4…D/A変換器、5…TGC、6…A/D変換器、7…受信ビームフォーマー、8…包絡線検波部、9…スキャンコンバーター、10…表示部、11…初期位置設定部、12…体動検出部、13…抽出断面相対移動部、14…抽出断面構成部、15…変形画像記憶部、16…抽出断面初期位置設定部、20、21…探触子、22…2次元断面像(xz面)、23…2次元断面像(yz面)、24…検査対象、31…撮像面、35…画像、71…評価領域、100…MRI画像、101…超音波ドップラー画像。   DESCRIPTION OF SYMBOLS 1 ... Inspection object, 2 ... Ultrasonic probe, 3 ... Transmission beam former, 4 ... D / A converter, 5 ... TGC, 6 ... A / D converter, 7 ... Reception beam former, 8 ... Envelope Line detection unit, 9 ... scan converter, 10 ... display unit, 11 ... initial position setting unit, 12 ... body motion detection unit, 13 ... extraction section relative movement unit, 14 ... extraction section configuration unit, 15 ... deformed image storage unit, 16 ... Extracted section initial position setting unit 20, 21 ... Probe, 22 ... Two-dimensional sectional image (xz plane), 23 ... Two-dimensional sectional image (yz plane), 24 ... Inspection object, 31 ... Imaging plane, 35 ... Image, 71 ... Evaluation region, 100 ... MRI image, 101 ... Ultrasonic Doppler image.

Claims (7)

検査対象に対して超音波を送信し、前記検査対象からの反射信号を取得するための第1及び第2の超音波探触子と、前記第1及び第2の超音波探触子によって取得した反射信号を用いて超音波画像を構成し、前記超音波画像情報から3次元体動および変形量を検出する体動検出部と、前記体動検出部で評価した体動又は変形量及び前記超音波画像を表示する画像表示部とを有し、前記体動検出部は、交線を持つ複数枚の超音波画像を用いて前記体動検出を行なうことを特徴とする画像表示装置。   Acquired by the first and second ultrasonic probes for transmitting ultrasonic waves to the inspection object and acquiring reflected signals from the inspection object, and the first and second ultrasonic probes. An ultrasonic image is constructed using the reflected signal, a body motion detection unit that detects a three-dimensional body motion and a deformation amount from the ultrasound image information, a body motion or deformation amount evaluated by the body motion detection unit, and the And an image display unit for displaying an ultrasonic image, wherein the body motion detection unit performs the body motion detection using a plurality of ultrasonic images having intersecting lines. 請求項1に記載の画像表示装置において、前記3次元体動を直交座標系の速度成分ベクトルに分解し、複数の超音波画像上に射影された前記速度成分ベクトルを求めて3次元での体動および変形を推測することを特徴とする画像表示装置。   The image display device according to claim 1, wherein the three-dimensional body motion is decomposed into velocity component vectors of an orthogonal coordinate system, and the velocity component vectors projected on a plurality of ultrasonic images are obtained to obtain a three-dimensional body. An image display device that estimates movement and deformation. 請求項1に記載の画像表示装置において、前記体動検出部は、構成された前記超音波画像の画像面内に、前記検査対象の体動評価に用いる評価領域を複数設定し、前記評価領域内の前記超音波画像の情報から3次元体動および変形量を検出することを特徴とする画像表示装置。   2. The image display device according to claim 1, wherein the body motion detection unit sets a plurality of evaluation regions used for body motion evaluation of the inspection target in an image plane of the configured ultrasonic image, and the evaluation region A three-dimensional body movement and a deformation amount are detected from information of the ultrasonic image in the image display device. 請求項1乃至3の何れか一項に記載の画像表示装置において、前記第1及び第2の超音波探触子は、それぞれ、複数の圧電素子が1次元もしくは2次元のアレイ状に配列された超音波探触子であることを特徴とする画像表示装置。   4. The image display device according to claim 1, wherein each of the first and second ultrasonic probes has a plurality of piezoelectric elements arranged in a one-dimensional or two-dimensional array. 5. An image display device characterized by being an ultrasonic probe. 請求項1に記載の画像表示装置において、さらに、他の撮像手段により取得された前記超音波画像と同一領域を含む画像の画像面内に、前記評価領域に対応する領域を設定して整合をとる手段と、前記体動検出部で評価した体動又は変形量を、前記他の撮像手段による画像に反映させ、画像を移動又は変形させる手段とを有し、前記画像表示部は、前記他の撮像手段による画像の変形画像をさらに表示することを特徴とすることを特徴とする画像表示装置。   The image display device according to claim 1, further comprising: setting an area corresponding to the evaluation area in an image plane of an image including the same area as the ultrasonic image acquired by another imaging unit to perform matching. And means for reflecting the body motion or deformation amount evaluated by the body motion detection unit in an image by the other imaging unit and moving or deforming the image, and the image display unit An image display device characterized by further displaying a deformed image of the image by the imaging means. 請求項5に記載の画像表示装置において、前記他の撮像手段による画像は、MRI画像もしくはX線画像の形態画像、または、PET画像もしくは超音波ドップラー画像の機能画像であることを特徴とする画像表示装置。   6. The image display device according to claim 5, wherein the image obtained by the other imaging unit is a morphological image of an MRI image or an X-ray image, or a functional image of a PET image or an ultrasonic Doppler image. Display device. 検査対象に対して超音波を送受信し、前記検査対象の2次元断層像を得る二つの超音波探触子と、前記二つの超音波探触子によって取得したバイプレーン画像から、前記検査対象の体動の速度成分ベクトルを検出するための手段と、他の撮像手段により前記バイプレーン画像のうち少なくとも片方の画像と同一部分を含む画像を取得するための手段と、前記他の撮像手段による画像を前記速度成分ベクトルに基づいて変形させるための手段と、前記変形させた画像を表示する画像表示手段とを具備してなることを特徴とする画像表示装置。
Two ultrasonic probes that transmit and receive ultrasonic waves to and from the inspection target to obtain a two-dimensional tomographic image of the inspection target, and biplane images acquired by the two ultrasonic probes, Means for detecting a velocity component vector of body movement; means for obtaining an image including at least one of the biplane images by the other imaging means; and an image by the other imaging means. An image display device comprising: means for deforming the image based on the velocity component vector; and image display means for displaying the deformed image.
JP2005031417A 2005-02-08 2005-02-08 Image display device Expired - Fee Related JP4750429B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005031417A JP4750429B2 (en) 2005-02-08 2005-02-08 Image display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005031417A JP4750429B2 (en) 2005-02-08 2005-02-08 Image display device

Publications (3)

Publication Number Publication Date
JP2006217939A true JP2006217939A (en) 2006-08-24
JP2006217939A5 JP2006217939A5 (en) 2007-07-19
JP4750429B2 JP4750429B2 (en) 2011-08-17

Family

ID=36980644

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005031417A Expired - Fee Related JP4750429B2 (en) 2005-02-08 2005-02-08 Image display device

Country Status (1)

Country Link
JP (1) JP4750429B2 (en)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008079792A (en) * 2006-09-27 2008-04-10 Hitachi Ltd Ultrasonic diagnostic apparatus
JP2008302072A (en) * 2007-06-08 2008-12-18 Hitachi Medical Corp Ultrasonic imaging apparatus
JP2009077780A (en) * 2007-09-25 2009-04-16 Toshiba Corp Breast examination system
JP2011110431A (en) * 2009-11-25 2011-06-09 Medison Co Ltd Ultrasound system and method for processing ultrasound images
JP2011125570A (en) * 2009-12-18 2011-06-30 Canon Inc Image processor, image processing method and program
JP2011161104A (en) * 2010-02-12 2011-08-25 Fujifilm Corp Image generator, image generation method, and program thereof
KR101110750B1 (en) 2010-04-26 2012-02-24 한국생산기술연구원 Method for Predicting Real Information for Medical Image Based On Shape Deformation
KR101121286B1 (en) 2009-07-31 2012-03-23 한국과학기술원 Ultrasound system and method for performing calibration of sensor
JP2012081037A (en) * 2010-10-12 2012-04-26 Fujifilm Corp Diagnosis assisting apparatus, diagnosis assisting program, and diagnosis assisting method
JP2012509691A (en) * 2008-10-14 2012-04-26 セラクリオン System and method for ultrasonic treatment of thyroid and parathyroid glands
JP2013504394A (en) * 2009-09-16 2013-02-07 モナシュ ユニバーシティ Imaging method
WO2013153968A1 (en) * 2012-04-11 2013-10-17 株式会社日立製作所 Ultrasonic diagnosis device
WO2014136641A1 (en) * 2013-03-06 2014-09-12 富士フイルム株式会社 Body motion display device and body motion display method
US9545242B2 (en) 2009-07-31 2017-01-17 Samsung Medison Co., Ltd. Sensor coordinate calibration in an ultrasound system
US10127655B2 (en) 2015-07-09 2018-11-13 Samsung Medison Co., Ltd. Medical imaging apparatus and method of operating same
JP2019503748A (en) * 2015-12-21 2019-02-14 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Ultrasonic imaging apparatus and ultrasonic imaging method for examining subject's volume
US11227399B2 (en) 2018-09-21 2022-01-18 Canon Medical Systems Corporation Analysis apparatus, ultrasound diagnostic apparatus, and analysis method
US11335014B2 (en) 2018-09-13 2022-05-17 Canon Medical Systems Corporation Medical image diagnostic apparatus, medical image diagnostic method, and ultrasonic diagnostic apparatus
JP2022543918A (en) * 2019-10-29 2022-10-14 コーニンクレッカ フィリップス エヌ ヴェ Systems and methods for placing ultrasound patches

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4056124A4 (en) 2019-11-08 2023-12-13 Samsung Medison Co., Ltd. Medical image output apparatus and medical image output method using same

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5103129A (en) * 1990-07-26 1992-04-07 Acoustic Imaging Technologies Corporation Fixed origin biplane ultrasonic transducer
JPH07303642A (en) * 1994-05-12 1995-11-21 Aloka Co Ltd Ultrasonic diagnostic apparatus
JPH1176242A (en) * 1997-09-11 1999-03-23 Matsushita Electric Ind Co Ltd Ultrasonic probe in body cavity
JP2000093429A (en) * 1998-09-25 2000-04-04 Hitachi Medical Corp Ultrasonic therapy applicator
JP2001128979A (en) * 1999-11-02 2001-05-15 Matsushita Electric Ind Co Ltd Intra-celom ultrasonic probe
JP2002177279A (en) * 2000-11-02 2002-06-25 Ge Medical Systems Global Technology Co Llc Trans-oesophagus ultrasonic probe furnished with motor for scanning surface rotation on head end
JP2003000595A (en) * 2001-06-25 2003-01-07 Hitachi Medical Corp Ultrasonic diagnostic device
JP2003144412A (en) * 2001-11-14 2003-05-20 Ge Medical Systems Global Technology Co Llc Image diagnosis support system and image processing method
JP2003153877A (en) * 2001-11-22 2003-05-27 Ge Medical Systems Global Technology Co Llc Image diagnosis support system and image processing method
JP2003325510A (en) * 2002-05-15 2003-11-18 Hitachi Medical Corp Ultrasonic-magnetic resonance composite medical apparatus
WO2004000124A1 (en) * 2002-06-25 2003-12-31 Koninklijke Philips Electronics N.V. Ultrasound quantification in real-time using acoustic data in more than two dimensions
JP2004229958A (en) * 2003-01-31 2004-08-19 Aloka Co Ltd Ultrasonic image processing device
WO2004098414A1 (en) * 2003-05-08 2004-11-18 Hitachi Medical Corporation Reference image display method for ultrasonography and ultrasonograph

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5103129A (en) * 1990-07-26 1992-04-07 Acoustic Imaging Technologies Corporation Fixed origin biplane ultrasonic transducer
JPH07303642A (en) * 1994-05-12 1995-11-21 Aloka Co Ltd Ultrasonic diagnostic apparatus
JPH1176242A (en) * 1997-09-11 1999-03-23 Matsushita Electric Ind Co Ltd Ultrasonic probe in body cavity
JP2000093429A (en) * 1998-09-25 2000-04-04 Hitachi Medical Corp Ultrasonic therapy applicator
JP2001128979A (en) * 1999-11-02 2001-05-15 Matsushita Electric Ind Co Ltd Intra-celom ultrasonic probe
JP2002177279A (en) * 2000-11-02 2002-06-25 Ge Medical Systems Global Technology Co Llc Trans-oesophagus ultrasonic probe furnished with motor for scanning surface rotation on head end
JP2003000595A (en) * 2001-06-25 2003-01-07 Hitachi Medical Corp Ultrasonic diagnostic device
JP2003144412A (en) * 2001-11-14 2003-05-20 Ge Medical Systems Global Technology Co Llc Image diagnosis support system and image processing method
JP2003153877A (en) * 2001-11-22 2003-05-27 Ge Medical Systems Global Technology Co Llc Image diagnosis support system and image processing method
JP2003325510A (en) * 2002-05-15 2003-11-18 Hitachi Medical Corp Ultrasonic-magnetic resonance composite medical apparatus
WO2004000124A1 (en) * 2002-06-25 2003-12-31 Koninklijke Philips Electronics N.V. Ultrasound quantification in real-time using acoustic data in more than two dimensions
JP2004229958A (en) * 2003-01-31 2004-08-19 Aloka Co Ltd Ultrasonic image processing device
WO2004098414A1 (en) * 2003-05-08 2004-11-18 Hitachi Medical Corporation Reference image display method for ultrasonography and ultrasonograph

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008079792A (en) * 2006-09-27 2008-04-10 Hitachi Ltd Ultrasonic diagnostic apparatus
JP2008302072A (en) * 2007-06-08 2008-12-18 Hitachi Medical Corp Ultrasonic imaging apparatus
JP2009077780A (en) * 2007-09-25 2009-04-16 Toshiba Corp Breast examination system
JP2012509691A (en) * 2008-10-14 2012-04-26 セラクリオン System and method for ultrasonic treatment of thyroid and parathyroid glands
US9082178B2 (en) 2009-07-31 2015-07-14 Samsung Medison Co., Ltd. Sensor coordinate calibration in an ultrasound system
US10271822B2 (en) 2009-07-31 2019-04-30 Samsung Medison Co., Ltd. Sensor coordinate calibration in an ultrasound system
US10561403B2 (en) 2009-07-31 2020-02-18 Samsung Medison Co., Ltd. Sensor coordinate calibration in an ultrasound system
KR101121286B1 (en) 2009-07-31 2012-03-23 한국과학기술원 Ultrasound system and method for performing calibration of sensor
US10278663B2 (en) 2009-07-31 2019-05-07 Samsung Medison Co., Ltd. Sensor coordinate calibration in an ultrasound system
US9955951B2 (en) 2009-07-31 2018-05-01 Samsung Medison Co., Ltd. Sensor coordinate calibration in an ultrasound system
US9782151B2 (en) 2009-07-31 2017-10-10 Samsung Medison Co., Ltd. Sensor coordinate calibration in an ultrasound system
US9545242B2 (en) 2009-07-31 2017-01-17 Samsung Medison Co., Ltd. Sensor coordinate calibration in an ultrasound system
US9468422B2 (en) 2009-07-31 2016-10-18 Samsung Medison Co., Ltd. Sensor coordinate calibration in an ultrasound system
JP2013504394A (en) * 2009-09-16 2013-02-07 モナシュ ユニバーシティ Imaging method
JP2011110431A (en) * 2009-11-25 2011-06-09 Medison Co Ltd Ultrasound system and method for processing ultrasound images
JP2011125570A (en) * 2009-12-18 2011-06-30 Canon Inc Image processor, image processing method and program
JP2011161104A (en) * 2010-02-12 2011-08-25 Fujifilm Corp Image generator, image generation method, and program thereof
KR101110750B1 (en) 2010-04-26 2012-02-24 한국생산기술연구원 Method for Predicting Real Information for Medical Image Based On Shape Deformation
JP2012081037A (en) * 2010-10-12 2012-04-26 Fujifilm Corp Diagnosis assisting apparatus, diagnosis assisting program, and diagnosis assisting method
WO2013153968A1 (en) * 2012-04-11 2013-10-17 株式会社日立製作所 Ultrasonic diagnosis device
JP5793239B2 (en) * 2012-04-11 2015-10-14 株式会社日立製作所 Ultrasonic diagnostic equipment
US10194880B2 (en) 2013-03-06 2019-02-05 Fujifilm Corporation Body motion display device and body motion display method
JP2014171487A (en) * 2013-03-06 2014-09-22 Fujifilm Corp Body motion display device and method
WO2014136641A1 (en) * 2013-03-06 2014-09-12 富士フイルム株式会社 Body motion display device and body motion display method
US10127655B2 (en) 2015-07-09 2018-11-13 Samsung Medison Co., Ltd. Medical imaging apparatus and method of operating same
US10789707B2 (en) 2015-07-09 2020-09-29 Samsung Medison Co., Ltd. Medical imaging apparatus and method of operating same
JP2019503748A (en) * 2015-12-21 2019-02-14 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Ultrasonic imaging apparatus and ultrasonic imaging method for examining subject's volume
US11335014B2 (en) 2018-09-13 2022-05-17 Canon Medical Systems Corporation Medical image diagnostic apparatus, medical image diagnostic method, and ultrasonic diagnostic apparatus
US11227399B2 (en) 2018-09-21 2022-01-18 Canon Medical Systems Corporation Analysis apparatus, ultrasound diagnostic apparatus, and analysis method
JP2022543918A (en) * 2019-10-29 2022-10-14 コーニンクレッカ フィリップス エヌ ヴェ Systems and methods for placing ultrasound patches
JP7334345B2 (en) 2019-10-29 2023-08-28 コーニンクレッカ フィリップス エヌ ヴェ Systems and methods for placing ultrasound patches

Also Published As

Publication number Publication date
JP4750429B2 (en) 2011-08-17

Similar Documents

Publication Publication Date Title
JP4750429B2 (en) Image display device
JP6994494B2 (en) Elastography measurement system and its method
JP5284123B2 (en) Ultrasonic diagnostic apparatus and position information acquisition program
JP5846411B2 (en) Imaging method, displacement measuring method and apparatus, and ultrasonic diagnostic imaging apparatus
US8565504B2 (en) Ultrasonic image processing apparatus and ultrasonic image processing method
JP6430498B2 (en) System and method for mapping of ultrasonic shear wave elastography measurements
JP4730125B2 (en) Blood flow image display device
WO2006123742A1 (en) Image diagnosing device
JP4413909B2 (en) 3D ultrasonic diagnostic equipment
EP2656790A1 (en) Ultrasound image-generating apparatus and image-generating method
JP2000135217A (en) Three-dimensional ultrasonograph
CN109310399B (en) Medical ultrasonic image processing apparatus
JP2010068904A (en) Ultrasonic diagnosing apparatus and image display program
JP2022508412A (en) Ultrasound-based intravascular 3D trauma verification
KR20180013956A (en) Method, system and computer program product for single tracking position shear wave elastic imaging
JP4373400B2 (en) Ultrasonic body motion detection device, and image presentation device and ultrasonic therapy device using the same
JP4468432B2 (en) Ultrasonic diagnostic equipment
US11364012B2 (en) 3-D imaging via free-hand scanning with a multiplane US transducer
JP3936450B2 (en) Projection image generation apparatus and medical image apparatus
US10856851B2 (en) Motion artifact suppression for three-dimensional parametric ultrasound imaging
US20230320700A1 (en) Apparatus and method for automatic ultrasound segmentation for visualization and measurement
JP2018143416A (en) In-vivo motion tracking device
JP5606025B2 (en) Ultrasonic diagnostic apparatus, ultrasonic image processing apparatus, and ultrasonic image processing program
Suhm et al. Limitations for three-dimensional ultrasound imaging through a bore-hole trepanation
Yoshikawa et al. Dynamic and precise visualization of contrast agent in blood vessels with motion correction

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070531

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070531

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20070531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100309

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110125

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110510

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110519

R150 Certificate of patent or registration of utility model

Ref document number: 4750429

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140527

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees