JP2017153953A - Ultrasonic diagnostic apparatus and image processing program - Google Patents

Ultrasonic diagnostic apparatus and image processing program Download PDF

Info

Publication number
JP2017153953A
JP2017153953A JP2017032564A JP2017032564A JP2017153953A JP 2017153953 A JP2017153953 A JP 2017153953A JP 2017032564 A JP2017032564 A JP 2017032564A JP 2017032564 A JP2017032564 A JP 2017032564A JP 2017153953 A JP2017153953 A JP 2017153953A
Authority
JP
Japan
Prior art keywords
image
catheter
diagnostic apparatus
ultrasonic diagnostic
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017032564A
Other languages
Japanese (ja)
Other versions
JP7014517B2 (en
Inventor
智也 岡崎
Tomoya Okazaki
智也 岡崎
阿部 康彦
Yasuhiko Abe
康彦 阿部
広治 安藤
Koji Ando
広治 安藤
省吾 福田
Shogo Fukuda
省吾 福田
百合香 小川
Yurika Ogawa
百合香 小川
幸辰 坂田
Koshin Sakata
幸辰 坂田
安則 田口
Yasunori Taguchi
安則 田口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Toshiba Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Medical Systems Corp filed Critical Toshiba Medical Systems Corp
Priority to US15/442,000 priority Critical patent/US10292684B2/en
Publication of JP2017153953A publication Critical patent/JP2017153953A/en
Application granted granted Critical
Publication of JP7014517B2 publication Critical patent/JP7014517B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To generate a display image on which a position and a travelling direction of an instrument based on a heart valve is visible.SOLUTION: An ultrasonic diagnostic apparatus includes an acquisition unit, a determination unit, a generation unit and a display control unit. The acquisition unit acquires three-dimensional medical image data of a region imaged using an ultrasonic probe and including the heart valve of a subject and a catheter inserted into the heart cavity of the subject. The determination part determines a travelling direction of a tip end part of the catheter by acquiring information on the position and the posture of the tip end part included in the three dimensional medical image data using at least one of shape information showing the shape of the tip end part of the catheter and reflection characteristic information showing ultrasonic reflection characteristics of the tip end part. The generation part generates a display image from the three-dimensional medical image data on the basis of the position and the travelling direction of the tip end part. The display control part displays the display image.SELECTED DRAWING: Figure 1

Description

本発明の実施形態は、超音波診断装置及び画像処理プログラムに関する。   Embodiments described herein relate generally to an ultrasonic diagnostic apparatus and an image processing program.

従来、心臓手術治療において、被検体内の画像を撮像することで治療を支援する技術が種々提案されている。例えば、僧帽弁閉鎖不全症の治療では、大腿部(大腿静脈)の血管から心臓の僧帽弁へカテーテルを挿入し、僧帽弁をクリップ形状の器具で留めることにより、逆流量を減らす治療が行われている。この治療においては、例えば、手術中に撮影されるX線透視像と経食道心エコー(TEE:Transesophageal Echocardiography)図とを用いて、僧帽弁に向かって挿入される器具(カテーテル)の位置を正確に表示する技術が提案されている。また、例えば、手術前に撮影されたCT(Computed Tomography)画像と手術中の画像とを位置合わせすることで、カテーテルの進路を誘導するための画像を表示する技術も提案されている。   2. Description of the Related Art Conventionally, various techniques for supporting treatment by taking an image of a subject in cardiac surgery treatment have been proposed. For example, in the treatment of mitral regurgitation, a catheter is inserted from the femoral (femoral vein) vessel into the heart mitral valve, and the mitral valve is clamped with a clip-shaped device to reduce back flow. Treatment is taking place. In this treatment, for example, the position of an instrument (catheter) inserted toward the mitral valve is determined using a fluoroscopic image taken during surgery and a transesophageal echocardiogram (TEE) diagram. Techniques for displaying correctly have been proposed. In addition, for example, a technique for displaying an image for guiding the course of a catheter by aligning a CT (Computed Tomography) image taken before surgery and an image during surgery has been proposed.

また、穿刺針の移動に追従して視野を変える技術が提案されている。   In addition, a technique for changing the visual field following the movement of the puncture needle has been proposed.

特開2004−215701号公報JP 2004-215701 A

本発明が解決しようとする課題は、心臓弁に対する器具の位置と進行方向とを視認可能な表示画像を生成することができる超音波診断装置及び画像処理プログラムを提供することである。   The problem to be solved by the present invention is to provide an ultrasonic diagnostic apparatus and an image processing program capable of generating a display image in which the position and the traveling direction of an instrument with respect to a heart valve can be visually recognized.

実施形態の超音波診断装置は、取得部と、決定部と、生成部と、表示制御部とを備える。取得部は、超音波プローブを用いて撮像された、被検体の心臓弁と前記被検体の心腔内に挿入されたカテーテルとを含む領域の3次元医用画像データを取得する。決定部は、前記カテーテルの先端部の形状を表す形状情報、及び、前記先端部の超音波の反射特性を表す反射特性情報のうち少なくとも一方を用いて、前記3次元医用画像データに含まれる前記先端部の位置及び姿勢情報を得ることにより、前記先端部の進行方向を決定する。生成部は、前記先端部の位置及び進行方向に基づいて、前記3次元医用画像データから表示画像を生成する。表示制御部は、前記表示画像を表示させる。   The ultrasonic diagnostic apparatus according to the embodiment includes an acquisition unit, a determination unit, a generation unit, and a display control unit. The acquisition unit acquires three-dimensional medical image data of a region including a heart valve of the subject and a catheter inserted into the heart chamber of the subject, which is imaged using an ultrasonic probe. The determination unit includes at least one of shape information representing a shape of the distal end portion of the catheter and reflection characteristic information representing an ultrasonic reflection characteristic of the distal end portion, and is included in the three-dimensional medical image data. The traveling direction of the tip is determined by obtaining the position and orientation information of the tip. The generation unit generates a display image from the three-dimensional medical image data based on the position and the traveling direction of the tip. The display control unit displays the display image.

図1は、第1の実施形態に係る超音波診断装置の例を示す図である。FIG. 1 is a diagram illustrating an example of an ultrasonic diagnostic apparatus according to the first embodiment. 図2は、第1の実施形態に係る記憶回路に記憶される情報の一例を説明するための図である。FIG. 2 is a diagram for explaining an example of information stored in the memory circuit according to the first embodiment. 図3は、第1の実施形態に係る推定機能の処理を説明するための図である。FIG. 3 is a diagram for explaining processing of the estimation function according to the first embodiment. 図4は、第1の実施形態に係る生成機能により生成される表示画像の一例を示す図である。FIG. 4 is a diagram illustrating an example of a display image generated by the generation function according to the first embodiment. 図5は、第1の実施形態に係る超音波診断装置の処理手順を示すフローチャートである。FIG. 5 is a flowchart showing a processing procedure of the ultrasonic diagnostic apparatus according to the first embodiment. 図6は、第1の実施形態の変形例1に係る生成機能により生成される表示画像の一例を示す図である。FIG. 6 is a diagram illustrating an example of a display image generated by the generation function according to Modification 1 of the first embodiment. 図7は、第1の実施形態の変形例3に係る生成機能により生成される表示画像の一例を示す図である。FIG. 7 is a diagram illustrating an example of a display image generated by the generation function according to the third modification of the first embodiment. 図8は、第2の実施形態に係る超音波診断装置の例を示すブロック図である。FIG. 8 is a block diagram illustrating an example of an ultrasonic diagnostic apparatus according to the second embodiment. 図9は、第2の実施形態に係る表示制御機能により表示される表示画像の一例を示す図である。FIG. 9 is a diagram illustrating an example of a display image displayed by the display control function according to the second embodiment. 図10は、第2の実施形態の変形例に係る超音波診断装置の例を示すブロック図である。FIG. 10 is a block diagram illustrating an example of an ultrasonic diagnostic apparatus according to a modification of the second embodiment. 図11は、第3の実施形態の変形例に係る超音波診断装置の例を示すブロック図である。FIG. 11 is a block diagram illustrating an example of an ultrasonic diagnostic apparatus according to a modification of the third embodiment. 図12は、第4の実施形態に係る超音波診断装置の例を示すブロック図である。FIG. 12 is a block diagram illustrating an example of an ultrasonic diagnostic apparatus according to the fourth embodiment.

以下、図面を参照して、実施形態に係る超音波診断装置及び画像処理プログラムを説明する。   Hereinafter, an ultrasonic diagnostic apparatus and an image processing program according to embodiments will be described with reference to the drawings.

(第1の実施形態)
図1は、第1の実施形態に係る超音波診断装置1の例を示す図である。図1に示すように、第1の実施形態に係る超音波診断装置1は、超音波プローブ101と、入力装置102と、ディスプレイ103と、装置本体100とを有する。超音波プローブ101、入力装置102、及びディスプレイ103は、装置本体100と通信可能に接続される。なお、被検体Pは、超音波診断装置1の構成に含まれない。
(First embodiment)
FIG. 1 is a diagram illustrating an example of an ultrasonic diagnostic apparatus 1 according to the first embodiment. As shown in FIG. 1, the ultrasonic diagnostic apparatus 1 according to the first embodiment includes an ultrasonic probe 101, an input apparatus 102, a display 103, and an apparatus main body 100. The ultrasonic probe 101, the input device 102, and the display 103 are connected to the apparatus main body 100 so as to communicate with each other. The subject P is not included in the configuration of the ultrasonic diagnostic apparatus 1.

超音波プローブ101は、超音波の送受信を行う。例えば、超音波プローブ101は、複数の圧電振動子(図示せず)を有する。これら複数の圧電振動子は、後述する装置本体100が有する送受信回路110から供給される駆動信号に基づき超音波を発生する。また、超音波プローブ101が有する複数の圧電振動子は、被検体Pからの反射波を受信して電気信号に変換する。また、超音波プローブ101は、圧電振動子に設けられる整合層(図示せず)と、圧電振動子から後方への超音波の伝播を防止するバッキング材(図示せず)等を有する。なお、超音波プローブ101は、装置本体100と着脱自在に接続される。   The ultrasonic probe 101 transmits and receives ultrasonic waves. For example, the ultrasonic probe 101 has a plurality of piezoelectric vibrators (not shown). The plurality of piezoelectric vibrators generate ultrasonic waves based on a drive signal supplied from a transmission / reception circuit 110 included in the apparatus main body 100 described later. In addition, the plurality of piezoelectric vibrators included in the ultrasonic probe 101 receives reflected waves from the subject P and converts them into electrical signals. Further, the ultrasonic probe 101 includes a matching layer (not shown) provided on the piezoelectric vibrator, a backing material (not shown) for preventing propagation of ultrasonic waves from the piezoelectric vibrator to the rear, and the like. The ultrasonic probe 101 is detachably connected to the apparatus main body 100.

超音波プローブ101から被検体Pに超音波が送信されると、送信された超音波は、被検体Pの体内組織における音響インピーダンスの不連続面で次々と反射される。反射波は、超音波プローブ101が有する複数の圧電振動子に反射波信号として受信される。受信される反射波信号の振幅は、超音波が反射される不連続面における音響インピーダンスの差に依存する。なお、送信された超音波パルスが、移動している血流や心臓壁等の表面で反射された場合の反射波信号は、ドプラ効果により、移動体の超音波送信方向に対する速度成分に依存して、周波数偏移を受ける。   When ultrasonic waves are transmitted from the ultrasonic probe 101 to the subject P, the transmitted ultrasonic waves are successively reflected on the discontinuous surface of the acoustic impedance in the body tissue of the subject P. The reflected wave is received as a reflected wave signal by a plurality of piezoelectric vibrators included in the ultrasonic probe 101. The amplitude of the received reflected wave signal depends on the difference in acoustic impedance at the discontinuous surface where the ultrasonic wave is reflected. Note that the reflected wave signal when the transmitted ultrasonic pulse is reflected by the moving blood flow or the surface of the heart wall depends on the velocity component of the moving object in the ultrasonic transmission direction due to the Doppler effect. And undergoes a frequency shift.

例えば、第1の実施形態に係る超音波プローブ101は、経食道心エコー用超音波(TEE:Transesophageal Echocardiography)プローブである。TEEプローブである超音波プローブ101は、被検体Pの体内に経口で挿入され、食道や胃等の上部消化管に当接される。そして、超音波プローブ101は、複数の圧電振動子を機械的に回転させることにより、任意の断面を撮像したり、3次元超音波画像データ(ボリュームデータ)を撮像したりする。あるいは超音波プローブ101は、複数の超音波振動子がマトリックス状に配置されることで、被検体Pを3次元で超音波走査することが可能な2次元アレイ超音波プローブである場合であってもよい。2次元アレイ超音波プローブは、超音波を電子的に集束して送受信することで、被検体Pを電子的に3次元で走査することが可能である。なお、3次元超音波画像データは、3次元医用画像データの一例である。   For example, the ultrasonic probe 101 according to the first embodiment is a transesophageal echocardiography (TEE) probe. An ultrasonic probe 101 that is a TEE probe is orally inserted into the body of the subject P and is brought into contact with an upper digestive tract such as an esophagus or stomach. The ultrasonic probe 101 picks up an arbitrary cross section or picks up three-dimensional ultrasonic image data (volume data) by mechanically rotating a plurality of piezoelectric vibrators. Alternatively, the ultrasonic probe 101 is a two-dimensional array ultrasonic probe that can ultrasonically scan the subject P in three dimensions by arranging a plurality of ultrasonic transducers in a matrix. Also good. The two-dimensional array ultrasonic probe is capable of electronically scanning the subject P in three dimensions by electronically focusing and transmitting / receiving ultrasonic waves. The three-dimensional ultrasonic image data is an example of three-dimensional medical image data.

入力装置102は、マウス、キーボード、ボタン、パネルスイッチ、タッチコマンドスクリーン、フットスイッチ、トラックボール、ジョイスティック等の装置に対応する。入力装置102は、超音波診断装置1の操作者からの各種設定要求を受け付け、受け付けた各種設定要求を装置本体100に対して送信する。   The input device 102 corresponds to a device such as a mouse, a keyboard, a button, a panel switch, a touch command screen, a foot switch, a trackball, and a joystick. The input device 102 receives various setting requests from an operator of the ultrasonic diagnostic apparatus 1 and transmits the received various setting requests to the apparatus main body 100.

ディスプレイ103は、超音波診断装置1の操作者が入力装置102を用いて各種設定要求を入力するためのGUI(Graphical User Interface)や、装置本体100において生成された超音波画像データ等を表示する。   The display 103 displays a GUI (Graphical User Interface) for the operator of the ultrasonic diagnostic apparatus 1 to input various setting requests using the input device 102, ultrasonic image data generated in the apparatus main body 100, and the like. .

装置本体100は、超音波プローブ101が受信した反射波信号に基づいて超音波画像データを生成する。装置本体100により生成される超音波画像データは、2次元の反射波信号に基づいて生成される2次元の超音波画像データであっても、3次元の反射波信号に基づいて生成される3次元の超音波画像データであってもよい。   The apparatus main body 100 generates ultrasonic image data based on the reflected wave signal received by the ultrasonic probe 101. Even if the ultrasonic image data generated by the apparatus main body 100 is two-dimensional ultrasonic image data generated based on a two-dimensional reflected wave signal, it is generated based on a three-dimensional reflected wave signal. It may be dimensional ultrasonic image data.

装置本体100は、図1に例示するように、送受信回路110と、信号処理回路120と、画像処理回路130と、画像メモリ140と、記憶回路150と、処理回路160とを備える。送受信回路110、信号処理回路120、画像処理回路130、画像メモリ140、記憶回路150、及び処理回路160は、互いに通信可能に接続される。   As illustrated in FIG. 1, the apparatus body 100 includes a transmission / reception circuit 110, a signal processing circuit 120, an image processing circuit 130, an image memory 140, a storage circuit 150, and a processing circuit 160. The transmission / reception circuit 110, the signal processing circuit 120, the image processing circuit 130, the image memory 140, the storage circuit 150, and the processing circuit 160 are connected to be communicable with each other.

送受信回路110は、後述する処理回路160の指示に基づいて、超音波プローブ101が行う超音波送受信を制御する。送受信回路110は、パルス発生器(図示せず)、送信遅延回路(図示せず)、パルサ(図示せず)等を有し、超音波プローブ101に駆動信号を供給する。パルス発生器は、所定の繰り返し周波数(PRF:Pulse Repetition Frequency)で送信超音波を形成するためのレートパルスを繰り返し発生する。また、送信遅延回路は、超音波プローブ101から発生される超音波をビーム状に集束し、かつ送信指向性を決定するために必要な圧電振動子ごとの遅延時間を、パルス発生器が発生する各レートパルスに対し与える。また、パルサは、レートパルスに基づくタイミングで、超音波プローブ101に駆動信号(駆動パルス)を印加する。すなわち、送信遅延回路は、各レートパルスに対し与える遅延時間を変化させることで、圧電振動子面から送信される超音波の送信方向を任意に調整する。   The transmission / reception circuit 110 controls ultrasonic transmission / reception performed by the ultrasonic probe 101 based on an instruction from the processing circuit 160 described later. The transmission / reception circuit 110 includes a pulse generator (not shown), a transmission delay circuit (not shown), a pulser (not shown), and the like, and supplies a drive signal to the ultrasonic probe 101. The pulse generator repeatedly generates a rate pulse for forming a transmission ultrasonic wave at a predetermined repetition frequency (PRF: Pulse Repetition Frequency). Further, the transmission delay circuit generates a delay time for each piezoelectric vibrator necessary for focusing the ultrasonic wave generated from the ultrasonic probe 101 into a beam and determining transmission directivity. Give for each rate pulse. The pulser applies a drive signal (drive pulse) to the ultrasonic probe 101 at a timing based on the rate pulse. That is, the transmission delay circuit arbitrarily adjusts the transmission direction of the ultrasonic wave transmitted from the piezoelectric vibrator surface by changing the delay time given to each rate pulse.

なお、送受信回路110は、後述する処理回路160の指示に基づいて、所定のスキャンシーケンスを実行するために、送信周波数、送信駆動電圧等を瞬時に変更することが可能である。特に、送信駆動電圧の変更は、瞬時にその値を切り替え可能なリニアアンプ型の発信回路(図示せず)、又は、複数の電源ユニット(図示せず)を電気的に切り替える機構によって実現される。   The transmission / reception circuit 110 can instantaneously change the transmission frequency, the transmission drive voltage, and the like in order to execute a predetermined scan sequence based on an instruction from the processing circuit 160 described later. Particularly, the change of the transmission drive voltage is realized by a linear amplifier type transmission circuit (not shown) capable of instantaneously switching the value or a mechanism for electrically switching a plurality of power supply units (not shown). .

また、例えば、送受信回路110は、アンプ回路(図示せず)、A/D(Analog/Digital)変換器(図示せず)、加算器(図示せず)、位相検波回路(図示せず)を有し、超音波プローブ101が受信した反射波信号に対して各種処理を行なって反射波データを生成する。アンプ回路は、反射波信号をチャンネルごとに増幅してゲイン補正処理を行う。A/D変換器は、ゲイン補正された反射波信号をA/D変換し、デジタルデータに受信指向性を決定するのに必要な遅延時間を与える。加算器は、A/D変換器によって処理された反射波信号の加算処理を行う。加算器の加算処理により、反射波信号の受信指向性に応じた方向からの反射成分が強調される。位相検波回路は、加算器の出力信号をベースバンド帯域の同相信号(I信号、I:In-phase)と直交信号(Q信号、Q:Quadrature-phase)とに変換する。そして、位相検波回路は、I信号及びQ信号(IQ信号)を後段の信号処理回路120に送る。なお、位相検波回路による処理前のデータは、RF信号とも呼ばれる。以下では、超音波の反射波に基づいて生成された「IQ信号、RF信号」をまとめて、「反射波データ」と記載する。   For example, the transmission / reception circuit 110 includes an amplifier circuit (not shown), an A / D (Analog / Digital) converter (not shown), an adder (not shown), and a phase detection circuit (not shown). And the reflected wave signal received by the ultrasonic probe 101 is subjected to various processes to generate reflected wave data. The amplifier circuit amplifies the reflected wave signal for each channel and performs gain correction processing. The A / D converter performs A / D conversion on the gain-corrected reflected wave signal and gives a delay time necessary for determining reception directivity to the digital data. The adder performs addition processing of the reflected wave signal processed by the A / D converter. By the addition processing of the adder, the reflection component from the direction corresponding to the reception directivity of the reflected wave signal is emphasized. The phase detection circuit converts the output signal of the adder into a baseband in-phase signal (I signal, I: In-phase) and a quadrature signal (Q signal, Q: Quadrature-phase). Then, the phase detection circuit sends the I signal and the Q signal (IQ signal) to the signal processing circuit 120 at the subsequent stage. Note that the data before processing by the phase detection circuit is also called an RF signal. Hereinafter, “IQ signal and RF signal” generated based on the reflected wave of the ultrasonic wave are collectively referred to as “reflected wave data”.

信号処理回路120は、送受信回路110が反射波信号から生成した反射波データに対して、各種の信号処理を行う。信号処理回路120は、バッファから読み出した反射波データ(IQ信号)に対して、対数増幅、包絡線検波処理、対数圧縮などを行って、多点の信号強度が輝度の明るさで表現されるデータ(Bモードデータ)を生成する。   The signal processing circuit 120 performs various types of signal processing on the reflected wave data generated from the reflected wave signal by the transmission / reception circuit 110. The signal processing circuit 120 performs logarithmic amplification, envelope detection processing, logarithmic compression, and the like on the reflected wave data (IQ signal) read from the buffer, and multipoint signal strength is expressed by brightness. Data (B-mode data) is generated.

また、信号処理回路120は、反射波データを周波数解析することで、走査範囲内にある移動体のドプラ効果に基づく運動情報を抽出したデータ(ドプラデータ)を生成する。具体的には、信号処理回路120は、移動体の運動情報として、平均速度、平均分散値、平均パワー値等を、複数のサンプル点それぞれで推定したドプラデータを生成する。ここで、移動体とは、例えば、血流や、心壁等の組織、造影剤である。本実施形態に係る信号処理回路120は、血流の運動情報(血流情報)として、血流の平均速度、血流の平均分散値、血流の平均パワー値等を、複数のサンプル点それぞれで推定したドプラデータを生成する。   Further, the signal processing circuit 120 generates data (Doppler data) obtained by extracting motion information based on the Doppler effect of the moving body within the scanning range by performing frequency analysis on the reflected wave data. Specifically, the signal processing circuit 120 generates Doppler data in which an average speed, an average variance value, an average power value, and the like are estimated at each of a plurality of sample points as movement information of the moving body. Here, the moving body is, for example, a blood flow, a tissue such as a heart wall, or a contrast agent. The signal processing circuit 120 according to the present embodiment uses, as the blood flow motion information (blood flow information), an average blood flow velocity, an average blood flow dispersion value, an average blood flow power value, and the like for each of a plurality of sample points. Generate Doppler data estimated in.

画像処理回路130は、信号処理回路120が生成した各種データから超音波画像データを生成する。画像処理回路130は、信号処理回路120が生成した2次元のBモードデータから反射波の強度を輝度で表した2次元のBモード画像データを生成する。また、画像処理回路130は、信号処理回路120が生成した2次元のドプラデータから血流情報が映像化された2次元のドプラ画像データを生成する。2次元のドプラ画像データは、速度画像データ、分散画像データ、パワー画像データ、又は、これらを組み合わせた画像データである。画像処理回路130は、ドプラ画像データとして、血流情報がカラーで表示されるカラードプラ画像データを生成したり、1つの血流情報がグレースケールで表示されるドプラ画像データを生成したりする。なお、画像処理回路130は、画像生成部の一例である。   The image processing circuit 130 generates ultrasonic image data from various data generated by the signal processing circuit 120. The image processing circuit 130 generates two-dimensional B-mode image data in which the intensity of the reflected wave is represented by luminance from the two-dimensional B-mode data generated by the signal processing circuit 120. Further, the image processing circuit 130 generates two-dimensional Doppler image data in which blood flow information is visualized from the two-dimensional Doppler data generated by the signal processing circuit 120. The two-dimensional Doppler image data is velocity image data, distributed image data, power image data, or image data obtained by combining these. The image processing circuit 130 generates color Doppler image data in which blood flow information is displayed in color as Doppler image data, or generates Doppler image data in which one blood flow information is displayed in gray scale. The image processing circuit 130 is an example of an image generation unit.

ここで、画像処理回路130は、一般的には、超音波走査の走査線信号列を、テレビに代表されるビデオフォーマットの走査線信号列に変換(スキャンコンバート)し、超音波画像データを生成する。具体的には、画像処理回路130は、超音波プローブ101による超音波の走査形態に応じて座標変換を行うことで、超音波画像データを生成する。また、画像処理回路130は、スキャンコンバート以外に、種々の画像処理を行ってもよい。例えば、画像処理回路130は、スキャンコンバート後の複数の画像フレームを用いて、輝度の平均値画像を再生成する画像処理(平滑化処理)や、画像内で微分フィルタを用いる画像処理(エッジ強調処理)を行う。また、画像処理回路130は、超音波画像データに、種々のパラメータの文字情報、目盛り、ボディーマーク等を合成する。   Here, the image processing circuit 130 generally converts (scan converts) a scanning line signal sequence of ultrasonic scanning into a scanning line signal sequence of a video format typified by a television to generate ultrasonic image data. To do. Specifically, the image processing circuit 130 generates ultrasonic image data by performing coordinate conversion in accordance with the ultrasonic scanning mode by the ultrasonic probe 101. Further, the image processing circuit 130 may perform various image processes in addition to the scan conversion. For example, the image processing circuit 130 uses a plurality of image frames after scan conversion to perform image processing (smoothing processing) for regenerating an average brightness image, or image processing (edge enhancement) using a differential filter in the image. Process). The image processing circuit 130 synthesizes character information, scales, body marks, and the like of various parameters with the ultrasonic image data.

すなわち、Bモードデータ及びドプラデータは、スキャンコンバート処理前の超音波画像データであり、画像処理回路130が生成するデータは、スキャンコンバート処理後の超音波画像データである。なお、Bモードデータ及びドプラデータは、生データ(Raw Data)とも呼ばれる。画像処理回路130は、スキャンコンバート処理前の2次元の超音波画像データから、2次元の超音波画像データを生成する。   That is, the B-mode data and Doppler data are ultrasonic image data before the scan conversion process, and the data generated by the image processing circuit 130 is ultrasonic image data after the scan conversion process. The B-mode data and the Doppler data are also called raw data (Raw Data). The image processing circuit 130 generates two-dimensional ultrasonic image data from the two-dimensional ultrasonic image data before the scan conversion process.

更に、画像処理回路130は、信号処理回路120が生成した3次元のBモードデータに対して座標変換を行うことで、3次元のBモード画像データを生成する。また、画像処理回路130は、信号処理回路120が生成した3次元のドプラデータに対して座標変換を行うことで、3次元のドプラ画像データを生成する。   Further, the image processing circuit 130 generates three-dimensional B-mode image data by performing coordinate conversion on the three-dimensional B-mode data generated by the signal processing circuit 120. In addition, the image processing circuit 130 generates three-dimensional Doppler image data by performing coordinate conversion on the three-dimensional Doppler data generated by the signal processing circuit 120.

更に、画像処理回路130は、ボリュームデータをディスプレイ103にて表示するための各種の2次元画像データを生成するために、ボリュームデータに対してレンダリング処理を行う。画像処理回路130が行うレンダリング処理としては、例えば、断面再構成法(MPR:Multi Planer Reconstruction)を行ってボリュームデータからMPR画像データを生成する処理がある。また、画像処理回路130が行うレンダリング処理としては、例えば、3次元の情報を反映した2次元画像データを生成するボリュームレンダリング(VR:Volume Rendering)処理がある。   Further, the image processing circuit 130 performs rendering processing on the volume data in order to generate various two-dimensional image data for displaying the volume data on the display 103. The rendering process performed by the image processing circuit 130 includes, for example, a process of generating MPR image data from volume data by performing a cross-section reconstruction method (MPR: Multi Planer Reconstruction). The rendering processing performed by the image processing circuit 130 includes, for example, volume rendering (VR) processing that generates two-dimensional image data reflecting three-dimensional information.

画像メモリ140は、画像処理回路130が生成した超音波画像データを記憶するメモリである。また、画像メモリ140は、信号処理回路120や信号処理回路120が生成したデータを記憶することも可能である。画像メモリ140が記憶するBモードデータやドプラデータは、例えば、診断の後に操作者が呼び出すことが可能となっており、画像処理回路130を経由して超音波画像データとなる。また、画像メモリ140は、送受信回路110が出力した反射波データを記憶することも可能である。   The image memory 140 is a memory that stores ultrasonic image data generated by the image processing circuit 130. The image memory 140 can also store the signal processing circuit 120 and data generated by the signal processing circuit 120. The B mode data and Doppler data stored in the image memory 140 can be called by an operator after diagnosis, for example, and become ultrasonic image data via the image processing circuit 130. The image memory 140 can also store the reflected wave data output from the transmission / reception circuit 110.

記憶回路150は、超音波送受信、画像処理及び表示処理を行うための制御プログラムや、診断情報(例えば、患者ID、医師の所見等)や、診断プロトコルや各種ボディーマーク等の各種データを記憶する。また、記憶回路150は、必要に応じて、画像メモリ140が記憶する画像データの保管等にも使用される。また、記憶回路150が記憶するデータは、図示しないインターフェースを経由して、外部装置へ送信することができる。また、記憶回路150は、外部装置から図示しないインターフェースを経由して送信されたデータを記憶することも可能である。   The storage circuit 150 stores a control program for performing ultrasonic transmission / reception, image processing, and display processing, diagnostic information (for example, patient ID, doctor's findings, etc.), various data such as a diagnostic protocol and various body marks. . The storage circuit 150 is also used for storing image data stored in the image memory 140 as necessary. The data stored in the storage circuit 150 can be transmitted to an external device via an interface (not shown). The storage circuit 150 can also store data transmitted from an external device via an interface (not shown).

処理回路160は、超音波診断装置1の処理全体を制御する。具体的には、処理回路160は、入力装置102を介して操作者から入力された各種設定要求や、記憶回路150から読み込んだ各種制御プログラム及び各種データに基づき、送受信回路110、信号処理回路120、及び画像処理回路130の処理を制御する。   The processing circuit 160 controls the entire processing of the ultrasonic diagnostic apparatus 1. Specifically, the processing circuit 160 is based on various setting requests input from the operator via the input device 102, various control programs and various data read from the storage circuit 150, and the transmission / reception circuit 110 and the signal processing circuit 120. , And the processing of the image processing circuit 130 is controlled.

また、処理回路160は、画像メモリ140や記憶回路150が記憶する超音波画像データを、表示用の超音波画像としてディスプレイ103にて表示するよう制御する。例えば、処理回路160は、画像処理回路130によって生成されたカラードプラ画像データを、表示用のカラードプラ画像としてディスプレイ103に表示させる。また、例えば、処理回路160は、画像処理回路130によって生成されたBモードデータを、表示用のBモード画像としてディスプレイ103に表示させる。   Further, the processing circuit 160 controls the display 103 to display the ultrasonic image data stored in the image memory 140 and the storage circuit 150 as an ultrasonic image for display. For example, the processing circuit 160 displays the color Doppler image data generated by the image processing circuit 130 on the display 103 as a color Doppler image for display. Further, for example, the processing circuit 160 displays the B mode data generated by the image processing circuit 130 on the display 103 as a B mode image for display.

処理回路160は、取得機能161と、推定機能162と、決定機能163と、生成機能164と、表示制御機能165とを実行する。取得機能161、推定機能162、決定機能163、生成機能164、及び表示制御機能165が実行する各処理機能は、例えば、コンピュータによって実行可能なプログラムの形態で記憶回路150に記録されている。処理回路160は、各プログラムを記憶回路150から読み出し、実行することで各プログラムに対応する機能を実現するプロセッサである。各プログラムを記憶回路150から読み出した状態の処理回路160は、図1の処理回路160内に示された各機能を有することとなる。取得機能161、推定機能162、決定機能163、生成機能164、及び表示制御機能165が実行する処理については、後述する。   The processing circuit 160 executes an acquisition function 161, an estimation function 162, a determination function 163, a generation function 164, and a display control function 165. The processing functions executed by the acquisition function 161, the estimation function 162, the determination function 163, the generation function 164, and the display control function 165 are recorded in the storage circuit 150 in the form of a program that can be executed by a computer, for example. The processing circuit 160 is a processor that realizes a function corresponding to each program by reading each program from the storage circuit 150 and executing the program. The processing circuit 160 in a state where each program is read from the storage circuit 150 has each function shown in the processing circuit 160 of FIG. Processing executed by the acquisition function 161, the estimation function 162, the determination function 163, the generation function 164, and the display control function 165 will be described later.

また、本実施形態においては、単一の処理回路160にて、上述した各処理機能が実現されるものとして説明するが、複数の独立したプロセッサを組み合わせて処理回路を構成し、各プロセッサがプログラムを実行することにより機能を実現するものとしても構わない。   In the present embodiment, the processing functions described above are described as being realized by a single processing circuit 160, but a processing circuit is configured by combining a plurality of independent processors, and each processor is programmed. The function may be realized by executing.

上記説明において用いた「プロセッサ」という文言は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、或いは、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。プロセッサは記憶回路に保存されたプログラムを読み出し実行することで機能を実現する。なお、記憶回路150にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むよう構成しても構わない。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。なお、本実施形態の各プロセッサは、プロセッサごとに単一の回路として構成される場合に限らず、複数の独立した回路を組み合わせて1つのプロセッサとして構成し、その機能を実現するようにしてもよい。更に、各図における複数の構成要素を1つのプロセッサへ統合してその機能を実現するようにしてもよい。   The term “processor” used in the above description is, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an application specific integrated circuit (ASIC), a programmable logic device (for example, It means circuits such as a simple programmable logic device (SPLD), a complex programmable logic device (CPLD), and a field programmable gate array (FPGA). The processor implements a function by reading and executing a program stored in the storage circuit. Instead of storing the program in the storage circuit 150, the program may be directly incorporated into the processor circuit. In this case, the processor realizes the function by reading and executing the program incorporated in the circuit. Note that each processor of the present embodiment is not limited to being configured as a single circuit for each processor, but may be configured as a single processor by combining a plurality of independent circuits to realize the function. Good. Furthermore, a plurality of components in each figure may be integrated into one processor to realize the function.

なお、以下の説明では、一例として、本実施形態に係る超音波診断装置1が僧帽弁閉鎖不全症のカテーテル治療で利用される場合を説明する。具体的には、心臓の左心房と左心室とを隔てる僧帽弁を、カテーテルにより挿入されるクリップ形状の器具で留めることにより、逆流量を減らすための治療に適用される場合を説明する。しかしながら、実施形態はこれに限定されるものではなく、例えば、左心室と大動脈とを隔てる大動脈弁、右心房と右心室とを隔てる三尖弁、右心室と肺動脈とを隔てる肺動脈弁等、任意の心臓弁の治療についても適用可能である。   In addition, in the following description, the case where the ultrasonic diagnostic apparatus 1 which concerns on this embodiment is utilized by the catheter treatment of mitral regurgitation as an example is demonstrated. Specifically, a case will be described in which the mitral valve that separates the left atrium and the left ventricle of the heart is applied to a treatment for reducing the back flow rate by fastening with a clip-shaped instrument inserted by a catheter. However, the embodiment is not limited to this, for example, an aortic valve that separates the left ventricle and the aorta, a tricuspid valve that separates the right atrium and the right ventricle, a pulmonary valve that separates the right ventricle and the pulmonary artery, etc. It is also applicable to the treatment of other heart valves.

記憶回路150は、カテーテルに関する情報を記憶する。例えば、記憶回路150は、カテーテルの先端の形状を表す形状情報、及び、カテーテルの先端の超音波の反射特性を表す反射特性情報を記憶する。つまり、記憶回路150は、超音波画像データであるボリュームデータにおいて、カテーテルがどのように描出されるかの要因となる要因情報を記憶する。なお、記憶回路150は、記憶部の一例である。また、カテーテルは、器具の一例である。   The storage circuit 150 stores information related to the catheter. For example, the storage circuit 150 stores shape information representing the shape of the distal end of the catheter and reflection characteristic information representing the reflection characteristic of the ultrasonic wave at the distal end of the catheter. That is, the storage circuit 150 stores factor information that is a factor of how the catheter is rendered in volume data that is ultrasonic image data. Note that the storage circuit 150 is an example of a storage unit. A catheter is an example of an instrument.

図2は、記憶回路150に記憶される情報の一例を説明するための図である。例えば、記憶回路150は、カテーテルの先端部10に関する情報を記憶する。ここで、カテーテルの先端部10は、例えば、クリップ部11と、管状部12とを含む。クリップ部11は、僧帽弁を留めるための部分である。具体的には、クリップ部11は、僧帽弁を構成する2つの弁を引き合わせることで、僧帽弁の閉鎖不全を改善する。また、管状部12は、先端部10に取り付けられたクリップ部11を僧帽弁まで挿入させるために、カテーテルの操作者(術者)により操作される部分である。僧帽弁を留める場合、クリップ部11は、管状部12から分離され、被検体Pの体内に留置される。   FIG. 2 is a diagram for explaining an example of information stored in the storage circuit 150. For example, the storage circuit 150 stores information related to the distal end portion 10 of the catheter. Here, the distal end portion 10 of the catheter includes, for example, a clip portion 11 and a tubular portion 12. The clip part 11 is a part for fastening the mitral valve. Specifically, the clip part 11 improves the insufficiency of the mitral valve by bringing together two valves constituting the mitral valve. The tubular portion 12 is a portion operated by a catheter operator (operator) in order to insert the clip portion 11 attached to the distal end portion 10 up to the mitral valve. When the mitral valve is fastened, the clip part 11 is separated from the tubular part 12 and placed in the body of the subject P.

例えば、記憶回路150は、カテーテルの先端部10の形状情報と、反射特性情報とを記憶する。形状情報は、カテーテルの先端部10の形状を表す情報である。例えば、形状情報は、カテーテルの先端部10に含まれるクリップ部11及び管状部12の3次元的な形状の情報であり、細長さや球形度等に関する特徴量が含まれる。また、反射特性情報は、カテーテルの先端部10の超音波の反射特性を表す情報である。例えば、反射特性情報は、超音波プローブ101からの送信超音波がクリップ部11によって反射された場合の反射波信号の強度と、送信超音波が管状部12によって反射された場合の反射波信号の強度とを含む。反射波信号の強度は、クリップ部11及び管状部12の組成(材質)によって異なる。   For example, the storage circuit 150 stores shape information of the distal end portion 10 of the catheter and reflection characteristic information. The shape information is information representing the shape of the distal end portion 10 of the catheter. For example, the shape information is information on the three-dimensional shape of the clip portion 11 and the tubular portion 12 included in the distal end portion 10 of the catheter, and includes feature amounts relating to the slenderness and the sphericity. The reflection characteristic information is information representing the reflection characteristic of the ultrasonic wave at the distal end portion 10 of the catheter. For example, the reflection characteristic information includes the intensity of the reflected wave signal when the transmission ultrasonic wave from the ultrasonic probe 101 is reflected by the clip part 11 and the reflected wave signal when the transmission ultrasonic wave is reflected by the tubular part 12. Including strength. The intensity of the reflected wave signal varies depending on the composition (material) of the clip portion 11 and the tubular portion 12.

なお、上記の説明は一例に過ぎない。例えば、記憶回路150は、必ずしも形状情報及び反射特性の双方を記憶していなくてもよく、いずれか一方のみを記憶する場合であってもよい。また、図2では、クリップを用いたカテーテル治療への適用例を示したが、実施形態はこれに限定されるものではない。例えば、人工弁を用いたカテーテル治療に対しても適用可能である。この場合には、記憶回路150は、例えば、人工弁が先端に取り付けられたカテーテルの形状情報及び反射特性情報を記憶する。言い換えると、カテーテルの先端部は、僧帽弁に留置されるクリップ部又は人工弁を含む。   The above description is merely an example. For example, the storage circuit 150 does not necessarily store both shape information and reflection characteristics, and may store only one of them. Moreover, although the application example to the catheter treatment using a clip was shown in FIG. 2, the embodiment is not limited to this. For example, it can be applied to catheter treatment using an artificial valve. In this case, the storage circuit 150 stores, for example, the shape information and reflection characteristic information of the catheter with the artificial valve attached to the tip. In other words, the tip of the catheter includes a clip or prosthetic valve that is placed in the mitral valve.

また、本実施形態は、クリップや人工弁に限らず、人工弁輪や人工腱索など、他の器具が用いられる場合にも適用可能である。人工弁輪は、例えば、弁輪が拡大することにより閉鎖不全となった場合に、弁輪の周囲に埋め込んで拡大した弁輪を収縮させるための器具である。また、人工腱索は、例えば、腱索の延長や切断により閉鎖不全となった場合に、弁尖と乳頭筋(若しくは心尖部付近)とを結びつけるための器具である。   Moreover, this embodiment is applicable not only to a clip and an artificial valve but when other instruments, such as an artificial annulus and an artificial chord, are used. An artificial annulus is an instrument for contracting an enlarged annulus embedded in the periphery of an annulus, for example, when the valve annulus becomes incomplete due to expansion. The artificial chord is a device for connecting the leaflet and the papillary muscle (or the vicinity of the apex) in the case where the insufficiency is caused by extension or cutting of the chordae.

取得機能161は、被検体Pの心臓弁と被検体Pの体内に挿入された器具とが超音波プローブ101を用いて撮像された3次元医用画像データを取得する。例えば、取得機能161は、僧帽弁とカテーテルの先端部10とが撮像された時刻のボリュームデータを、画像メモリ140から取得する。なお、取得機能161は、取得部の一例である。言い換えると、取得機能161は、超音波プローブを用いて撮像された、被検体の心臓弁と前記被検体の心腔内に挿入されたカテーテルとを含む領域の3次元医用画像データを取得する。   The acquisition function 161 acquires three-dimensional medical image data obtained by imaging the heart valve of the subject P and the instrument inserted into the body of the subject P using the ultrasonic probe 101. For example, the acquisition function 161 acquires volume data at the time when the mitral valve and the distal end portion 10 of the catheter are imaged from the image memory 140. The acquisition function 161 is an example of an acquisition unit. In other words, the acquisition function 161 acquires three-dimensional medical image data of a region including a heart valve of a subject and a catheter inserted into the heart chamber of the subject, which is imaged using an ultrasonic probe.

例えば、僧帽弁閉鎖不全症のカテーテル治療において、操作者は、TEEプローブを被検体Pの体内に経口で挿入し、僧帽弁を含む領域の3次元走査を行う。3次元走査により収集された反射波データは、画像処理回路130によりボリュームデータとして生成され、画像メモリ140に格納される。取得機能161は、画像メモリ140に格納されたボリュームデータを取得する。   For example, in catheter treatment of mitral regurgitation, the operator orally inserts a TEE probe into the body of the subject P and performs a three-dimensional scan of the region including the mitral valve. The reflected wave data collected by the three-dimensional scanning is generated as volume data by the image processing circuit 130 and stored in the image memory 140. The acquisition function 161 acquires volume data stored in the image memory 140.

なお、上記の取得機能161の説明は一例に過ぎない。例えば、取得機能161は、他の心臓弁が撮像されたボリュームデータを取得しても良い。また、例えば、取得機能161は、TEEプローブ以外の任意の超音波プローブで心臓弁が撮像されたボリュームデータを取得しても良い。また、取得機能161は、動画像として生成されるボリュームデータを、フレームごとに取得してもよいし、静止画像として生成される1つのボリュームデータを取得してもよい。   The above description of the acquisition function 161 is merely an example. For example, the acquisition function 161 may acquire volume data obtained by imaging other heart valves. For example, the acquisition function 161 may acquire volume data obtained by imaging the heart valve with an arbitrary ultrasonic probe other than the TEE probe. Further, the acquisition function 161 may acquire volume data generated as a moving image for each frame, or may acquire one volume data generated as a still image.

推定機能162は、形状情報及び反射特性情報を用いて、3次元医用画像データに含まれる器具の位置及び姿勢を推定する。例えば、推定機能162は、記憶回路150に記憶された形状情報及び反射特性情報を用いて、ボリュームデータに含まれるカテーテルの位置及び姿勢を推定する。なお、推定機能162は、推定部の一例である。また、以下の説明において、位置及び姿勢を包含して「位置姿勢」と表記する場合がある。   The estimation function 162 estimates the position and orientation of the instrument included in the three-dimensional medical image data using the shape information and the reflection characteristic information. For example, the estimation function 162 estimates the position and posture of the catheter included in the volume data using the shape information and reflection characteristic information stored in the storage circuit 150. The estimation function 162 is an example of an estimation unit. In the following description, the position and orientation may be described as “position and orientation”.

例えば、推定機能162は、取得機能161により取得されたボリュームデータの座標系において、ボリュームデータに含まれる器具(カテーテル)の位置及び姿勢を推定する。ここで、器具の位置は、例えば、ボリュームデータの座標系における「器具の先端の3次元座標」である。また、器具の姿勢は、例えば、「器具の長手方向を示す方向ベクトル」である。   For example, the estimation function 162 estimates the position and posture of the instrument (catheter) included in the volume data in the coordinate system of the volume data acquired by the acquisition function 161. Here, the position of the instrument is, for example, “three-dimensional coordinates of the tip of the instrument” in the coordinate system of the volume data. The posture of the instrument is, for example, “a direction vector indicating the longitudinal direction of the instrument”.

図3は、第1の実施形態に係る推定機能162の処理を説明するための図である。図3には、カテーテルが撮像されたボリュームデータが二値化された二値化画像20を例示する。   FIG. 3 is a diagram for explaining processing of the estimation function 162 according to the first embodiment. FIG. 3 illustrates a binarized image 20 in which volume data obtained by imaging a catheter is binarized.

図3に示すように、推定機能162は、カテーテルの位置及び姿勢を、画像処理により推定する。例えば、推定機能162は、記憶回路150に記憶されたカテーテルの反射特性情報を用いて、ボリュームデータを二値化する。ここで、超音波画像データから生成された画像上において、心臓付近に挿入されたカテーテルは、心臓領域の輝度に対して比較的高輝度で描出される。つまり、推定機能162は、カテーテルの先端部10によって反射される反射波信号の強度に基づいて、心臓領域とカテーテル領域とを識別可能な輝度の閾値を設定する。そして、推定機能162は、設定した閾値を用いてボリュームデータを二値化して、図3に示す二値化画像20を生成する。なお、二値化画像20の座標系は、ボリュームデータの座標系と同一、若しくは対応付けられている。   As shown in FIG. 3, the estimation function 162 estimates the position and posture of the catheter by image processing. For example, the estimation function 162 binarizes the volume data using the catheter reflection characteristic information stored in the storage circuit 150. Here, on the image generated from the ultrasound image data, the catheter inserted in the vicinity of the heart is rendered with a relatively high luminance with respect to the luminance of the heart region. That is, the estimation function 162 sets a luminance threshold value that can distinguish between the heart region and the catheter region based on the intensity of the reflected wave signal reflected by the distal end portion 10 of the catheter. Then, the estimation function 162 binarizes the volume data using the set threshold value, and generates the binarized image 20 shown in FIG. Note that the coordinate system of the binarized image 20 is the same as or associated with the coordinate system of the volume data.

続いて、推定機能162は、記憶回路150に記憶されたカテーテルの形状情報を用いて、二値化画像20からカテーテルの位置及び姿勢を推定する。具体的には、推定機能162は、二値化画像20に含まれる高輝度領域について、細長さや球形度等に関する特徴量を算出する。そして、推定機能162は、算出した特徴量をクリップ部11の形状情報及び管状部12の形状情報のそれぞれと比較することで、二値化画像20におけるクリップ部11の領域及び管状部12の領域をそれぞれ抽出する。そして、推定機能162は、例えば、クリップ部11の領域の重心21の3次元座標を算出し、算出した3次元座標をカテーテルの位置として推定する。また、推定機能162は、例えば、クリップ部11の領域及び管状部12の領域の長軸方向を算出し、算出した長軸方向に対応するベクトルをカテーテルの姿勢として推定する。   Subsequently, the estimation function 162 estimates the position and posture of the catheter from the binarized image 20 using the catheter shape information stored in the storage circuit 150. Specifically, the estimation function 162 calculates a feature amount related to a slenderness, a sphericity, and the like for a high luminance region included in the binarized image 20. Then, the estimation function 162 compares the calculated feature amount with each of the shape information of the clip portion 11 and the shape information of the tubular portion 12, whereby the region of the clip portion 11 and the region of the tubular portion 12 in the binarized image 20. Are extracted respectively. Then, the estimation function 162 calculates, for example, the three-dimensional coordinates of the center of gravity 21 of the region of the clip unit 11, and estimates the calculated three-dimensional coordinates as the position of the catheter. Further, the estimation function 162 calculates, for example, the major axis direction of the region of the clip portion 11 and the region of the tubular portion 12, and estimates a vector corresponding to the calculated major axis direction as the posture of the catheter.

このように、推定機能162は、カテーテルの位置及び姿勢を推定する。すなわち、推定機能162は、超音波画像データにおいてカテーテルがどのように描出されるかの要因情報を用いて、カテーテルの位置及び姿勢を推定する。   Thus, the estimation function 162 estimates the position and posture of the catheter. That is, the estimation function 162 estimates the position and posture of the catheter using factor information on how the catheter is drawn in the ultrasound image data.

なお、上記の推定機能162の説明は一例に過ぎない。例えば、器具の位置は、クリップ部11の先端の3次元座標であってもよい。また、器具の姿勢は、クリップ部11の領域の方向ベクトルであってもよい。また、例えば、推定機能162は、必ずしも形状情報及び反射特性の双方を利用しなくても良い。例えば、推定機能162は、カテーテルの形状情報のみを用いて、ボリュームデータからカテーテルの位置及び姿勢を推定しても良い。すなわち、推定機能162は、形状情報及び反射特性情報のうち少なくとも一方を用いて、カテーテルの位置及び姿勢を推定しても良い。   Note that the above description of the estimation function 162 is merely an example. For example, the position of the instrument may be a three-dimensional coordinate of the tip of the clip part 11. Further, the posture of the instrument may be a direction vector of the area of the clip portion 11. For example, the estimation function 162 does not necessarily need to use both shape information and reflection characteristics. For example, the estimation function 162 may estimate the position and posture of the catheter from the volume data using only the shape information of the catheter. That is, the estimation function 162 may estimate the position and posture of the catheter using at least one of shape information and reflection characteristic information.

また、例えば、推定機能162は、長軸方向に離れた2箇所における異なる特徴(組成)を利用して、カテーテルの位置及び姿勢を推定しても良い。例えば、推定機能162は、クリップ部11及び管状部12のそれぞれの形状情報を用いて、二値化画像20からクリップ部11及び管状部12の領域をそれぞれ抽出する。そして、推定機能162は、抽出したクリップ部11及び管状部12の領域のそれぞれについて、重心を算出する。そして、推定機能162は、管状部12の重心からクリップ部11の重心へ向かう方向ベクトルを、カテーテルの姿勢として推定してもよい。また、例えば、推定機能162は、カテーテルの短軸方向(カテーテルの長軸方向に直行する方向)に離れた2箇所における異なる特徴を利用して、カテーテルの位置及び姿勢を推定しても良い。例えば、管状部12の短軸方向の互いに非対称な位置に、特徴的な反射特性を有する組成(材質)を配置することで、管状部12の外周方向(円周方向)を踏まえた位置及び姿勢を推定可能となる。   In addition, for example, the estimation function 162 may estimate the position and posture of the catheter using different features (compositions) at two locations separated in the long axis direction. For example, the estimation function 162 extracts the regions of the clip part 11 and the tubular part 12 from the binarized image 20 using the shape information of the clip part 11 and the tubular part 12, respectively. Then, the estimation function 162 calculates the center of gravity for each of the extracted regions of the clip part 11 and the tubular part 12. Then, the estimation function 162 may estimate a direction vector from the center of gravity of the tubular portion 12 toward the center of gravity of the clip portion 11 as the posture of the catheter. In addition, for example, the estimation function 162 may estimate the position and posture of the catheter by using different features at two locations separated in the short axis direction of the catheter (the direction orthogonal to the long axis direction of the catheter). For example, by disposing a composition (material) having characteristic reflection characteristics at positions that are asymmetric with respect to the short axis direction of the tubular portion 12, the position and posture based on the outer peripheral direction (circumferential direction) of the tubular portion 12. Can be estimated.

決定機能163は、器具の位置及び姿勢に基づいて、器具の進行方向を決定する。例えば、決定機能163は、カテーテルの位置及び姿勢に基づいて、カテーテルの進行方向を決定する。例えば、決定機能163は、カテーテルの位置を原点とし、カテーテルの姿勢に対応するベクトルの方向を、カテーテルの進行方向として決定する。例えば、カテーテルの姿勢に対応するベクトルは、カテーテルの長手方向を示す方向ベクトルである。なお、決定機能163は、決定部の一例である。言い換えると、決定機能163は、カテーテルの先端部の形状を表す形状情報、及び、先端部の超音波の反射特性を表す反射特性情報のうち少なくとも一方を用いて、3次元医用画像データに含まれる先端部の位置及び姿勢情報を得ることにより、先端部の進行方向を決定する。   The determination function 163 determines the traveling direction of the instrument based on the position and posture of the instrument. For example, the determination function 163 determines the traveling direction of the catheter based on the position and posture of the catheter. For example, the determination function 163 determines the direction of the vector corresponding to the posture of the catheter as the traveling direction of the catheter with the position of the catheter as the origin. For example, the vector corresponding to the posture of the catheter is a direction vector indicating the longitudinal direction of the catheter. The determination function 163 is an example of a determination unit. In other words, the determination function 163 is included in the three-dimensional medical image data using at least one of shape information representing the shape of the distal end portion of the catheter and reflection characteristic information representing the reflection characteristic of the ultrasound at the distal end portion. By obtaining the position and orientation information of the tip, the traveling direction of the tip is determined.

図3の例では、決定機能163は、クリップ部11の重心21の3次元座標を原点として決定する。そして、決定機能163は、決定した原点からカテーテルの姿勢に対応するベクトルの方向を、カテーテルの進行方向として決定する。   In the example of FIG. 3, the determination function 163 determines the three-dimensional coordinates of the center of gravity 21 of the clip unit 11 as the origin. Then, the determination function 163 determines the direction of the vector corresponding to the posture of the catheter from the determined origin as the catheter traveling direction.

なお、上記の決定機能163の説明は一例に過ぎない。例えば、決定機能163は、クリップ部11及び管状部12の領域の重心をカテーテルの位置として算出する。そして、決定機能163は、算出したクリップ部11及び管状部12の領域の重心を原点としてカテーテルの進行方向を決定してもよい。また、例えば、決定機能163は、管状部12の重心を原点とし、原点からクリップ部11の重心へ向かう方向ベクトルをカテーテルの姿勢として算出する。そして、決定機能163は、算出した方向ベクトルを進行方向として決定してもよい。なお、カテーテル全体としては体内を湾曲しながら進行するため、進行方向はカテーテルの先端領域の位置・姿勢に基づいて求められることが好ましい。   Note that the above description of the determination function 163 is merely an example. For example, the determination function 163 calculates the center of gravity of the region of the clip portion 11 and the tubular portion 12 as the position of the catheter. And the determination function 163 may determine the advancing direction of a catheter by making the gravity center of the area | region of the calculated clip part 11 and the tubular part 12 into an origin. Further, for example, the determination function 163 calculates the direction vector from the origin to the center of gravity of the clip portion 11 as the posture of the catheter with the center of gravity of the tubular portion 12 as the origin. Then, the determination function 163 may determine the calculated direction vector as the traveling direction. In addition, since the catheter as a whole progresses while curving in the body, the traveling direction is preferably determined based on the position / posture of the distal end region of the catheter.

生成機能164は、器具の位置及び進行方向に基づいて、3次元医用画像データから表示画像を生成する。例えば、生成機能164は、器具の位置に基づく位置を視点とし、器具の進行方向を視線とするボリュームレンダリング(VR:Volume Rendering)画像を、表示画像として生成する。なお、生成機能164は、生成部の一例である。言い換えると、生成機能164は、先端部の位置及び進行方向に基づいて、3次元医用画像データから表示画像を生成する。また、表示画像は、3次元医用画像データを3次元的に表現する画像である。   The generation function 164 generates a display image from the three-dimensional medical image data based on the position and the traveling direction of the instrument. For example, the generation function 164 generates, as a display image, a volume rendering (VR) image having a position based on the position of the instrument as a viewpoint and a moving direction of the instrument as a line of sight. The generation function 164 is an example of a generation unit. In other words, the generation function 164 generates a display image from the three-dimensional medical image data based on the position of the tip and the traveling direction. The display image is an image that three-dimensionally represents the three-dimensional medical image data.

図4は、第1の実施形態に係る生成機能164により生成される表示画像の一例を示す図である。図4には、カテーテルの先端部10の位置を視点とし、カテーテルの進行方向を視線とするVR画像30を例示する。なお、被検体Pの血管内に挿入されたカテーテルの先端部10が視点となるので、VR画像30は、血管内から血管内腔や心臓弁を見たかのように描出される。   FIG. 4 is a diagram illustrating an example of a display image generated by the generation function 164 according to the first embodiment. FIG. 4 illustrates a VR image 30 with the position of the distal end portion 10 of the catheter as a viewpoint and the direction of travel of the catheter as a line of sight. Since the distal end portion 10 of the catheter inserted into the blood vessel of the subject P is the viewpoint, the VR image 30 is rendered as if the blood vessel lumen or heart valve was seen from inside the blood vessel.

図4に示すように、生成機能164は、例えば、取得機能161により取得されたボリュームデータに対してVR処理を行って、VR画像30を生成する。ここで、生成機能164は、VR処理の視点及び視線を、カテーテルの位置及び進行方向に基づいて設定する。例えば、生成機能164は、推定機能162によりカテーテルの先端部10の位置として推定されたクリップ部11の重心21を、VR処理の視点として設定する。また、生成機能164は、決定機能163によりカテーテルの進行方向として決定された方向ベクトルを、VR処理の視線として設定する。そして、生成機能164は、設定したVR処理の視点及び視線を用いて、ボリュームデータに対するVR処理を実行することで、表示画像であるVR画像30を生成する。   As illustrated in FIG. 4, for example, the generation function 164 performs VR processing on the volume data acquired by the acquisition function 161 to generate a VR image 30. Here, the generation function 164 sets the viewpoint and line of sight of the VR processing based on the position and traveling direction of the catheter. For example, the generation function 164 sets the center of gravity 21 of the clip portion 11 estimated by the estimation function 162 as the position of the distal end portion 10 of the catheter as a viewpoint of VR processing. In addition, the generation function 164 sets the direction vector determined as the catheter traveling direction by the determination function 163 as a line of sight for VR processing. Then, the generation function 164 generates the VR image 30 that is a display image by executing the VR processing on the volume data using the set viewpoint and line of sight of the VR processing.

ここで、VR画像30は、カテーテルの先端部10の位置を視点とし、カテーテルの進行方向を視線とする画像であるので、カテーテルの先端部10から進行方向の血管内腔を覗き込んだかのような画像となる。進行方向に僧帽弁が位置している場合には、図4の領域31に示すように、VR画像30に僧帽弁が描出される。なお、カテーテルの進行方向から僧帽弁がずれている場合には、僧帽弁の位置もずれた位置に描出されるか、或いは全く描出されないこととなる。   Here, the VR image 30 is an image in which the position of the distal end portion 10 of the catheter is a viewpoint and the traveling direction of the catheter is a line of sight, so that it looks as if the blood vessel lumen in the traveling direction is viewed from the distal end portion 10 of the catheter. Image. When the mitral valve is positioned in the traveling direction, the mitral valve is depicted in the VR image 30 as shown in a region 31 of FIG. When the mitral valve is deviated from the advancing direction of the catheter, the position of the mitral valve is also drawn at a shifted position or not drawn at all.

このように、生成機能164は、カテーテルの位置及び進行方向に基づいて、ボリュームデータから表示画像を生成する。なお、上記の生成機能164の説明は一例に過ぎない。例えば、生成機能164は、必ずしもカテーテルの位置そのものをVR処理の視点として設定しなくてもよい。例えば、生成機能164は、カテーテルの位置に基づく任意の位置を、VR処理の視点として設定可能である。例えば、生成機能164は、カテーテルの先端から進行方向に向かって所定距離離れた位置を、VR処理の視点として設定してよい。これにより、カテーテルの進行方向に対して斜め後方の位置を視点とすることで、カテーテル自体がVR画像内に描出されるため、カテーテル先端部と進行方向の心臓の構造との位置関係が把握しやすくなる。また、例えば、カテーテルの位置そのものを視点とすると、カテーテルの動きが激しい場合にVR像の動きも激しくなり、VR像の視認性が著しく低下する可能性があるが、カテーテルの位置そのものを視点としないことで、カテーテルの動きが激しい場合においても、安定したVR像を提供できる。なお、生成機能164により生成される表示画像は、VR画像に限らず、例えば、二値化された画像から検出された僧帽弁などの生体組織の表面位置に関するサーフェスレンダリング画像であってもよい。つまり、表示画像は、ボリュームレンダリング画像又はサーフェスレンダリング画像である。また、これらの表示画像は、先端部の位置に基づく視点と、先端部の進行方向に基づく視線とを用いて生成されたボリュームレンダリング画像又はサーフェスレンダリング画像である。   As described above, the generation function 164 generates a display image from the volume data based on the position and the traveling direction of the catheter. Note that the above description of the generation function 164 is merely an example. For example, the generation function 164 does not necessarily need to set the catheter position itself as the VR processing viewpoint. For example, the generation function 164 can set an arbitrary position based on the position of the catheter as a viewpoint of VR processing. For example, the generation function 164 may set a position away from the distal end of the catheter by a predetermined distance in the traveling direction as the viewpoint of VR processing. As a result, since the catheter itself is depicted in the VR image by using the position obliquely backward with respect to the moving direction of the catheter as a viewpoint, the positional relationship between the distal end of the catheter and the structure of the heart in the moving direction can be grasped. It becomes easy. Further, for example, if the catheter position itself is the viewpoint, the movement of the VR image may become severe when the catheter moves rapidly, and the visibility of the VR image may be significantly reduced. As a result, a stable VR image can be provided even when the movement of the catheter is severe. The display image generated by the generation function 164 is not limited to a VR image, and may be a surface rendering image related to the surface position of a biological tissue such as a mitral valve detected from a binarized image, for example. . That is, the display image is a volume rendering image or a surface rendering image. Further, these display images are volume rendering images or surface rendering images generated using a viewpoint based on the position of the tip and a line of sight based on the traveling direction of the tip.

表示制御機能165は、表示画像を表示させる。例えば、表示制御機能165は、生成機能164により生成されたVR画像30を、ディスプレイ103に表示させる。なお、表示制御機能165は、表示制御部の一例である。ここで、近年ではVR画像に設定された光源が構造物に当たった後方の影を表示することで立体感を高める手法が知られている。本実施形態においては、カテーテルの影が弁や心筋に写るように光源を設定することで、位置関係の把握に付加的な情報を与えることが期待されるので、このような公知技術を併用したVR画像を用いても構わない。   The display control function 165 displays a display image. For example, the display control function 165 causes the display 103 to display the VR image 30 generated by the generation function 164. The display control function 165 is an example of a display control unit. Here, in recent years, a technique is known in which a stereoscopic effect is enhanced by displaying a shadow behind a light source set in a VR image hitting a structure. In this embodiment, it is expected that additional information will be given to grasp the positional relationship by setting the light source so that the shadow of the catheter is reflected on the valve or myocardium. A VR image may be used.

なお、上記の表示制御機能165の説明は一例に過ぎない。例えば、表示制御機能165は、VR画像30の他に、ボリュームデータの任意断面における断面像や手術中に撮像されるX線透視像等と同時に表示されてもよい。なお、表示形態の他の例については、他の実施形態若しくは変形例にて後述する。   Note that the above description of the display control function 165 is merely an example. For example, in addition to the VR image 30, the display control function 165 may be displayed simultaneously with a cross-sectional image of an arbitrary cross-section of volume data, an X-ray fluoroscopic image captured during surgery, or the like. Note that other examples of display modes will be described later in other embodiments or modifications.

図5は、超音波診断装置1の処理手順を示すフローチャートである。図5に示す処理手順は、例えば、撮像を開始する旨の指示を操作者から受け付けた場合に開始される。   FIG. 5 is a flowchart showing a processing procedure of the ultrasonic diagnostic apparatus 1. The processing procedure illustrated in FIG. 5 is started when, for example, an instruction to start imaging is received from the operator.

ステップS101において、撮像が開始したか否かを判定する。例えば、入力装置102は、撮像を開始する旨の指示を操作者から受け付け、受け付けた指示を装置本体100の処理回路160へ送信する。処理回路160は、入力装置102により送信された指示を受け付けると、撮像が開始したものと判定し(ステップS101肯定)、ステップS102以降の処理を開始する。なお、撮像が開始されない場合には(ステップS101否定)、ステップS102以降の処理は開始されず、処理回路160の各処理機能は待機状態である。   In step S101, it is determined whether imaging has started. For example, the input device 102 receives an instruction to start imaging from the operator, and transmits the received instruction to the processing circuit 160 of the apparatus main body 100. When receiving the instruction transmitted from the input device 102, the processing circuit 160 determines that imaging has started (Yes at Step S101), and starts processing after Step S102. If imaging is not started (No at Step S101), the processing after Step S102 is not started, and each processing function of the processing circuit 160 is in a standby state.

ステップS101が肯定されると、ステップS102において、取得機能161は、3次元医用画像データ(ボリュームデータ)を取得する。例えば、取得機能161は、僧帽弁とカテーテルの先端部10とが撮像されたボリュームデータを、画像メモリ140から取得する。   If step S101 is affirmed, in step S102, the acquisition function 161 acquires three-dimensional medical image data (volume data). For example, the acquisition function 161 acquires volume data obtained by imaging the mitral valve and the distal end portion 10 of the catheter from the image memory 140.

ステップS103において、推定機能162は、カテーテルの位置及び姿勢を推定する。例えば、推定機能162は、記憶回路150に記憶されたカテーテルの形状情報及び反射特性情報を用いて、ボリュームデータに含まれるカテーテルの位置及び姿勢を推定する。具体的には、推定機能162は、カテーテルの反射特性情報を用いてボリュームデータを二値化して、二値化画像20を生成する。そして、推定機能162は、二値化画像20に含まれる高輝度領域について、細長さや球形度等に関する特徴量を算出し、カテーテルの形状情報と比較することで、二値化画像20におけるカテーテルの領域を抽出する。そして、推定機能162は、抽出したカテーテルの領域の3次元座標に基づいて、カテーテルの位置及び姿勢を推定する。   In step S103, the estimation function 162 estimates the position and posture of the catheter. For example, the estimation function 162 estimates the position and posture of the catheter included in the volume data using the catheter shape information and reflection characteristic information stored in the storage circuit 150. Specifically, the estimation function 162 binarizes the volume data using the catheter reflection characteristic information, and generates the binarized image 20. And the estimation function 162 calculates the feature-value regarding slenderness, a sphericity, etc. about the high-intensity area | region contained in the binarized image 20, and compares with the shape information of a catheter, The catheter of the binarized image 20 Extract regions. Then, the estimation function 162 estimates the position and posture of the catheter based on the extracted three-dimensional coordinates of the catheter region.

ステップS104において、決定機能163は、カテーテルの進行方向を決定する。例えば、決定機能163は、推定機能162により推定されたカテーテルの位置及び姿勢に基づいて、カテーテルの姿勢の進行方向を決定する。具体的には、決定機能163は、カテーテルの位置を原点とし、カテーテルの姿勢に対応するベクトルの方向を、カテーテルの進行方向として決定する。   In step S104, the determination function 163 determines the traveling direction of the catheter. For example, the determination function 163 determines the advancing direction of the posture of the catheter based on the position and posture of the catheter estimated by the estimation function 162. Specifically, the determination function 163 determines the direction of the vector corresponding to the posture of the catheter as the traveling direction of the catheter with the position of the catheter as the origin.

ステップS105において、生成機能164は、カテーテルの位置及び進行方向に基づいて、表示画像を生成する。例えば、生成機能164は、カテーテルの位置を視点とし、カテーテルの進行方向を視線とするVR処理をボリュームデータに対して実行し、表示画像としてのVR画像30を生成する。   In step S105, the generation function 164 generates a display image based on the position and the traveling direction of the catheter. For example, the generation function 164 performs VR processing on the volume data with the position of the catheter as a viewpoint and the direction of movement of the catheter as a line of sight, and generates a VR image 30 as a display image.

ステップS106において、表示制御機能165は、表示画像を表示させる。例えば、表示制御機能165は、生成機能164により生成されたVR画像30を、ディスプレイ103に表示させる。   In step S106, the display control function 165 displays a display image. For example, the display control function 165 causes the display 103 to display the VR image 30 generated by the generation function 164.

このように、超音波診断装置1は、ボリュームデータからカテーテルの位置を視点とし、カテーテルの進行方向とするVR画像30を生成し、表示する。なお、図5では、静止画像としてのVR画像30を表示する場合の処理手順を例示したが、動画像として表示する場合にも適用可能である。動画像として表示する場合には、処理回路160は、撮像を終了する旨の指示を受け付けるまで、ステップS102〜ステップS106の処理を繰り返し実行する。   As described above, the ultrasonic diagnostic apparatus 1 generates and displays the VR image 30 with the catheter position as the viewpoint from the volume data and the catheter traveling direction. In FIG. 5, the processing procedure in the case of displaying the VR image 30 as a still image is illustrated, but it can also be applied to the case of displaying as a moving image. When displaying as a moving image, the processing circuit 160 repeatedly executes the processing of step S102 to step S106 until receiving an instruction to end imaging.

上述したように、超音波診断装置1において、取得機能161は、僧帽弁(心臓弁)及び器具(カテーテル)が撮像されたボリュームデータを取得する。そして、推定機能162は、器具の形状情報及び反射特性情報を用いて、ボリュームデータに含まれる器具の位置及び姿勢を推定する。そして、決定機能163は、器具の位置及び姿勢に基づいて、器具の姿勢の進行方向を決定する。そして、生成機能164は、器具の位置及び進行方向に基づいて、表示画像を生成する。そして、表示制御機能165は、表示画像を表示させる。これによれば、第1の実施形態に係る超音波診断装置1は、心臓弁に対する器具の位置と進行方向とを視認可能な表示画像を生成することができる。   As described above, in the ultrasound diagnostic apparatus 1, the acquisition function 161 acquires volume data obtained by imaging the mitral valve (heart valve) and the instrument (catheter). Then, the estimation function 162 estimates the position and orientation of the instrument included in the volume data using the instrument shape information and reflection characteristic information. And the determination function 163 determines the advancing direction of the attitude | position of an instrument based on the position and attitude | position of an instrument. And the production | generation function 164 produces | generates a display image based on the position and the advancing direction of an instrument. Then, the display control function 165 displays a display image. According to this, the ultrasonic diagnostic apparatus 1 according to the first embodiment can generate a display image in which the position of the instrument and the traveling direction with respect to the heart valve can be visually recognized.

すなわち、第1の実施形態に係る超音波診断装置1は、カテーテルの先端部10の位置を視点とし、カテーテルの進行方向を視線とするVR処理によりVR画像30を生成する。これにより、超音波診断装置1は、カテーテルの先端部10から進行方向の血管内腔を覗き込んだかのようなVR画像30を表示することができる。一例としては、超音波診断装置1は、操作者がカテーテルを僧帽弁に向かって移動させる様子をリアルタイムで画像化すると、僧帽弁に向かって血管内腔を進んでいるかのような画像を表示することが可能となる。また、操作者がカテーテルを進めたり戻したりする操作に応じて、血管内腔を描出する視点や視線が変化するので、操作者は、血管内腔におけるカテーテルの動きを直感的に把握することが可能となる。このため、僧帽弁に向かってカテーテルを移動させる場合に、操作者は、あたかも裁縫針の穴に糸を通すかのような感覚でカテーテルを操作することができる。この結果として、操作者は、カテーテルの先端部10に取り付けられたクリップ部11を僧帽弁に留置(留める)することが容易になるので、カテーテル治療に要する時間を削減しつつ治療精度を向上させることができる。   That is, the ultrasonic diagnostic apparatus 1 according to the first embodiment generates the VR image 30 by VR processing using the position of the distal end portion 10 of the catheter as a viewpoint and the line of sight of the traveling direction of the catheter. As a result, the ultrasonic diagnostic apparatus 1 can display the VR image 30 as if looking into the blood vessel lumen in the traveling direction from the distal end portion 10 of the catheter. As an example, when the ultrasound diagnostic apparatus 1 images in real time how the operator moves the catheter toward the mitral valve, an image as if traveling through the blood vessel lumen toward the mitral valve is obtained. It is possible to display. In addition, since the viewpoint and line of sight depicting the blood vessel lumen change according to the operation of the operator advancing and returning the catheter, the operator can intuitively grasp the movement of the catheter in the blood vessel lumen. It becomes possible. For this reason, when moving the catheter toward the mitral valve, the operator can operate the catheter as if the thread is passed through the hole of the sewing needle. As a result, the operator can easily place (clamp) the clip portion 11 attached to the distal end portion 10 of the catheter on the mitral valve, thereby improving the treatment accuracy while reducing the time required for the catheter treatment. Can be made.

また、例えば、第1の実施形態に係る超音波診断装置1は、超音波画像データにおいて器具がどのように描出されるかの要因となる要因情報(形状情報及び反射特性情報)を用いて、画像中の器具の位置姿勢を推定する。このため、超音波診断装置1は、例えば、カテーテルのように器具自体が被検体内で湾曲する性質を有していても、その器具の位置姿勢を正確に推定することができる。具体的には、超音波診断装置1は、先端部10に含まれるクリップ部11及び管状部12のように、器具の長軸方向に離れた2箇所における異なる特徴を利用して、器具の位置姿勢を推定する。このため、超音波診断装置1は、VR処理の視線となる器具の進行方向を正確に決定することができる。   In addition, for example, the ultrasound diagnostic apparatus 1 according to the first embodiment uses factor information (shape information and reflection characteristic information) that is a factor of how an instrument is depicted in ultrasound image data. Estimate the position and orientation of the device in the image. Therefore, the ultrasonic diagnostic apparatus 1 can accurately estimate the position and orientation of the instrument even if the instrument itself has a property of bending in the subject, such as a catheter. Specifically, the ultrasonic diagnostic apparatus 1 uses the different features at two locations separated in the longitudinal direction of the instrument, such as the clip part 11 and the tubular part 12 included in the distal end part 10, to position the instrument. Estimate posture. For this reason, the ultrasonic diagnostic apparatus 1 can accurately determine the traveling direction of the instrument that is the line of sight of the VR process.

(第1の実施形態の変形例1)
第1の実施形態では、超音波診断装置1が表示画像としてVR画像30を表示する場合を説明したが、実施形態はこれに限定されるものではない。例えば、超音波診断装置1は、断面像(MPR画像)を生成してもよい。
(Modification 1 of the first embodiment)
In the first embodiment, the case where the ultrasound diagnostic apparatus 1 displays the VR image 30 as a display image has been described, but the embodiment is not limited to this. For example, the ultrasonic diagnostic apparatus 1 may generate a cross-sectional image (MPR image).

生成機能164は、器具の進行方向に沿った断面像を表示画像として生成する。例えば、生成機能164は、決定機能163により決定されたカテーテルの進行方向を通る直行2断面の断面像を生成する。   The generation function 164 generates a cross-sectional image along the traveling direction of the instrument as a display image. For example, the generation function 164 generates a cross-sectional image of two orthogonal cross sections that pass through the catheter traveling direction determined by the determination function 163.

図6は、第1の実施形態の変形例1に係る生成機能164により生成される表示画像の一例を示す図である。図6には、カテーテルの進行方向を通る所定方向の断面像40と、進行方向を通り断面像40に直行する断面像41とを例示する。   FIG. 6 is a diagram illustrating an example of a display image generated by the generation function 164 according to the first modification of the first embodiment. FIG. 6 illustrates a cross-sectional image 40 in a predetermined direction passing through the advancing direction of the catheter and a cross-sectional image 41 passing through the advancing direction and orthogonal to the cross-sectional image 40.

図6に示すように、生成機能164は、断面像40及び断面像41を生成する。ここで、断面像40及び断面像41は、いずれもカテーテルの進行方向を通るので、カテーテル42が描出される。   As shown in FIG. 6, the generation function 164 generates a cross-sectional image 40 and a cross-sectional image 41. Here, since both the cross-sectional image 40 and the cross-sectional image 41 pass through the advancing direction of the catheter, the catheter 42 is depicted.

そして、表示制御機能165は、生成機能164により生成された断面像40及び断面像41を、表示画像としてディスプレイ103に表示させる。この場合、表示制御機能165は、VR画像30、断面像40、及び断面像41を同時にディスプレイ103に表示してもよいし、VR画像30を表示させずに、断面像40及び断面像41を表示してもよい。   Then, the display control function 165 causes the display 103 to display the cross-sectional image 40 and the cross-sectional image 41 generated by the generation function 164 as display images. In this case, the display control function 165 may simultaneously display the VR image 30, the cross-sectional image 40, and the cross-sectional image 41 on the display 103, or display the cross-sectional image 40 and the cross-sectional image 41 without displaying the VR image 30. It may be displayed.

このように、超音波診断装置1は、器具の進行方向に沿った断面像を生成し、表示する。これによれば、断面像には器具が描出されることとなるので、超音波診断装置1は、器具と、心臓弁等の構造物との位置関係をわかりやすく表示することができる。   As described above, the ultrasonic diagnostic apparatus 1 generates and displays a cross-sectional image along the traveling direction of the instrument. According to this, since the instrument is depicted in the cross-sectional image, the ultrasonic diagnostic apparatus 1 can display the positional relationship between the instrument and a structure such as a heart valve in an easily understandable manner.

なお、上記の生成機能164及び表示制御機能165の説明は一例に過ぎない。例えば、生成機能164は、必ずしもカテーテルの進行方向を通る直行2断面を生成しなくてもよい。具体的には、生成機能164により生成される断面像40及び断面像41は、直行断面に限らず、任意の角度で交わる断面であってもよい。また、生成機能164により生成される断面像は、2断面に限らず、任意数の断面であってもよい。また、例えば、生成機能164は、器具の進行方向に沿った断面像に限らず、例えば、心尖四腔(A4C:apical four-chamber)像、心尖二腔(A2C:apical two-chamber )像等であってもよい。   Note that the descriptions of the generation function 164 and the display control function 165 are merely examples. For example, the generation function 164 does not necessarily generate an orthogonal two cross-section passing through the catheter traveling direction. Specifically, the cross-sectional image 40 and the cross-sectional image 41 generated by the generation function 164 are not limited to an orthogonal cross section, and may be a cross section that intersects at an arbitrary angle. Further, the cross-sectional image generated by the generation function 164 is not limited to two cross sections, and may be an arbitrary number of cross sections. In addition, for example, the generation function 164 is not limited to a cross-sectional image along the direction of travel of the instrument, and for example, an apical four-chamber (A4C) image, an apical two-chamber (A2C) image, and the like. It may be.

(第1の実施形態の変形例2)
また、例えば、超音波診断装置1は、カテーテル治療において撮影されるX線画像を、表示画像とともに表示してもよい。
(Modification 2 of the first embodiment)
Further, for example, the ultrasonic diagnostic apparatus 1 may display an X-ray image captured in catheter treatment together with a display image.

例えば、カテーテル治療においては、TEEプローブによる超音波画像データとともに、X線診断装置を用いて被検体Pの透視が行われる場合が多い。この場合、超音波診断装置1において、表示制御機能165は、被検体Pを透過したX線に基づいて生成されたX線画像を、表示画像と同時に表示させる。具体的には、表示制御機能165は、X線診断装置によって撮影された透視画像(X線画像)を取得し、取得した透視画像をVR画像30や断面像40,41と同時にディスプレイ103に表示させる。   For example, in catheter treatment, the subject P is often seen through an X-ray diagnostic apparatus together with ultrasonic image data from a TEE probe. In this case, in the ultrasonic diagnostic apparatus 1, the display control function 165 displays an X-ray image generated based on the X-ray transmitted through the subject P at the same time as the display image. Specifically, the display control function 165 acquires a fluoroscopic image (X-ray image) photographed by the X-ray diagnostic apparatus, and displays the acquired fluoroscopic image on the display 103 simultaneously with the VR image 30 and the cross-sectional images 40 and 41. Let

このように、超音波診断装置1は、X線画像を表示画像とともに表示する。カテーテル治療を行う医師は、X線画像を見慣れている場合が多いので、医師による読影効率の向上が期待される。   Thus, the ultrasonic diagnostic apparatus 1 displays an X-ray image together with a display image. Since doctors who perform catheter treatment are often accustomed to X-ray images, improvement of interpretation efficiency by doctors is expected.

(第1の実施形態の変形例3)
また、第1の実施形態では、超音波診断装置1が一人称視点のVR画像30を生成する場合を説明したが、これに限定されるものではなく、三人称視点のVR画像を生成可能な構成や、一人称視点のVR画像と三人称視点のVR画像とを切り替え可能な構成を備えていてもよい。なお、ここで言う一人称視点とは、器具の位置から見た場合の見え方であり、一般的には器具自体は描出されない。一方、三人称視点とは、器具とは異なる位置から見た場合の見え方であり、器具自体も描出される。この三人称視点は、器具よりも後方の位置を視点とすることで実現される。
(Modification 3 of the first embodiment)
In the first embodiment, the case where the ultrasound diagnostic apparatus 1 generates the first-person viewpoint VR image 30 has been described. However, the present invention is not limited to this, and the third-person viewpoint VR image can be generated. The first person viewpoint VR image and the third person viewpoint VR image may be switched. Note that the first-person viewpoint referred to here is a view from the position of the instrument, and generally the instrument itself is not drawn. On the other hand, the third person viewpoint is a view when viewed from a position different from the instrument, and the instrument itself is also depicted. This third person viewpoint is realized by taking a position behind the instrument as the viewpoint.

生成機能164は、器具の先端より後方の位置を視点とするVR処理を実行し、VR画像を生成する。例えば、生成機能164は、カテーテルの先端部10から後方に所定距離離れた位置をVR処理の視点として、VR処理を実行する。   The generation function 164 executes a VR process with a position behind the tip of the instrument as a viewpoint, and generates a VR image. For example, the generation function 164 executes the VR process using a position that is a predetermined distance rearward from the distal end portion 10 of the catheter as a viewpoint of the VR process.

図7は、第1の実施形態の変形例3に係る生成機能164により生成される表示画像の一例を示す図である。図7には、カテーテルの進行方向を視線とし、カテーテルの先端部10から後方に所定距離離れた位置を視点とするVR画像50を例示する。   FIG. 7 is a diagram illustrating an example of a display image generated by the generation function 164 according to the third modification of the first embodiment. FIG. 7 illustrates a VR image 50 in which the direction of travel of the catheter is a line of sight and the position at a predetermined distance rearward from the distal end portion 10 of the catheter is the viewpoint.

図7に示すように、生成機能164は、カテーテルの進行方向を視線とし、カテーテルの先端部10から後方に所定距離離れた位置を視点とするVR処理を実行して、VR画像50を生成する。この結果、生成機能164は、例えば、カテーテルの先端の画像51が描出されたVR画像50を生成する。   As shown in FIG. 7, the generation function 164 generates a VR image 50 by executing a VR process with the direction of travel of the catheter as a line of sight and a position at a predetermined distance rearward from the distal end portion 10 of the catheter. . As a result, the generation function 164 generates, for example, a VR image 50 in which the image 51 of the catheter tip is depicted.

また、生成機能164は、一人称視点のVR画像を生成する場合と、三人称視点のVR画像を生成する場合とを、操作者による指示に応じて切り替える。すなわち、生成機能164は、操作者の指示に応じて、器具の先端を視点とするVR画像、若しくは器具の先端より後方の位置を視点とするVR画像を生成する。   The generation function 164 switches between generating a first-person viewpoint VR image and generating a third-person viewpoint VR image in accordance with an instruction from the operator. In other words, the generation function 164 generates a VR image with the tip of the instrument as a viewpoint or a VR image with a position behind the tip of the instrument as a viewpoint according to an instruction from the operator.

このように、超音波診断装置1は、三人称視点のVR画像を生成可能な構成、及び、一人称視点のVR画像と三人称視点のVR画像とを切り替え可能な構成を備えていてもよい。これによれば、例えば、操作者は、見やすいと思う視点を選択して、VR画像を表示することができる。   As described above, the ultrasonic diagnostic apparatus 1 may include a configuration capable of generating a third-person viewpoint VR image and a configuration capable of switching between a first-person viewpoint VR image and a third-person viewpoint VR image. According to this, for example, the operator can select a viewpoint that is easy to see and display a VR image.

(第2の実施形態)
例えば、超音波診断装置1は、更に、器具が設置されるべき位置及び姿勢に、器具を誘導するための画像を表示可能である。
(Second Embodiment)
For example, the ultrasonic diagnostic apparatus 1 can further display an image for guiding the instrument at a position and posture where the instrument is to be installed.

図8は、第2の実施形態に係る超音波診断装置1の例を示すブロック図である。第2の実施形態に係る超音波診断装置1は、図1に例示した超音波診断装置1と同様の構成を備え、処理回路160が弁位置姿勢推定機能166を更に備える点が相違する。そこで、第2の実施形態では、第1の実施形態と相違する点を中心に説明することとし、第1の実施形態において説明した構成と同様の機能を有する点については、図1と同一の符号を付し、説明を省略する。   FIG. 8 is a block diagram illustrating an example of the ultrasonic diagnostic apparatus 1 according to the second embodiment. The ultrasonic diagnostic apparatus 1 according to the second embodiment is different from the ultrasonic diagnostic apparatus 1 illustrated in FIG. 1 in that the processing circuit 160 further includes a valve position / posture estimation function 166. Therefore, in the second embodiment, the description will focus on the differences from the first embodiment, and the same functions as those in the configuration described in the first embodiment are the same as those in FIG. Reference numerals are assigned and description is omitted.

弁位置姿勢推定機能166は、心臓弁の位置及び姿勢に対して器具が設置されるべき位置及び姿勢を推定する。なお、心臓弁の位置及び姿勢に対して器具が設置されるべき位置及び姿勢を、「弁の位置姿勢」とも表記する。   The valve position / posture estimation function 166 estimates the position and posture where the device should be installed with respect to the position and posture of the heart valve. Note that the position and posture at which the device should be installed with respect to the position and posture of the heart valve are also referred to as “valve position and posture”.

まず、推定機能162は、3次元医用画像データにおける被検体Pの心臓弁の位置及び姿勢を推定する。例えば、推定機能162は、教師あり機械学習アルゴリズムを用いて、ボリュームデータに含まれる特徴点を抽出する。ここで、教師あり機械学習アルゴリズムは、心臓弁に含まれる複数の特徴点が正しく配置された複数の教師画像を用いて構築されたものである。そして、推定機能162は、心臓弁に含まれる複数の特徴点の3次元的な位置関係を示すモデルと、抽出した特徴点とを比較することで、心臓弁の位置及び姿勢を推定する。   First, the estimation function 162 estimates the position and posture of the heart valve of the subject P in the three-dimensional medical image data. For example, the estimation function 162 extracts feature points included in the volume data using a supervised machine learning algorithm. Here, the supervised machine learning algorithm is constructed using a plurality of teacher images in which a plurality of feature points included in the heart valve are correctly arranged. Then, the estimation function 162 estimates the position and posture of the heart valve by comparing a model indicating a three-dimensional positional relationship among a plurality of feature points included in the heart valve with the extracted feature points.

そして、弁位置姿勢推定機能166は、心臓弁の位置及び姿勢に対して器具が設置されるべき位置及び姿勢(弁の位置姿勢)を推定する。例えば、弁位置姿勢推定機能166は、心臓弁に対して器具が正しく設置された場合の3次元的な位置関係のモデルを用いて、弁の位置姿勢を推定する。具体的には、弁位置姿勢推定機能166は、推定機能162により推定された心臓弁の位置及び姿勢に対して、心臓弁に対して器具が正しく設置された場合の3次元的な位置関係のモデルを当てはめることで、器具が設置されるべき位置及び姿勢を推定する。   Then, the valve position / posture estimation function 166 estimates the position and posture (valve position / posture) at which the device should be installed with respect to the position and posture of the heart valve. For example, the valve position / posture estimation function 166 estimates the position / posture of the valve using a model of a three-dimensional positional relationship when the instrument is correctly installed on the heart valve. Specifically, the valve position / posture estimation function 166 has a three-dimensional positional relationship when the instrument is correctly installed on the heart valve with respect to the position and posture of the heart valve estimated by the estimation function 162. By fitting the model, the position and posture where the instrument should be installed is estimated.

そして、表示制御機能165は、推定機能162により推定された器具の位置及び姿勢が、弁位置姿勢推定機能166により推定された器具が設置されるべき位置及び姿勢に近づく方向ないし離れる方向を表す画像を表示画像と同時に表示させる。   The display control function 165 is an image representing the direction in which the position and posture of the appliance estimated by the estimation function 162 approaches or moves away from the position and posture where the appliance estimated by the valve position / posture estimation function 166 is to be installed. Is displayed simultaneously with the display image.

図9は、第2の実施形態に係る表示制御機能165により表示される表示画像の一例を示す図である。図9には、現在のカテーテルの位置姿勢が、カテーテルが設置されるべき位置姿勢に近づく方向を表す矢印画像60を例示する。   FIG. 9 is a diagram illustrating an example of a display image displayed by the display control function 165 according to the second embodiment. FIG. 9 illustrates an arrow image 60 indicating the direction in which the current position and orientation of the catheter approaches the position and orientation where the catheter is to be installed.

図9に示すように、表示制御機能165は、現在のカテーテルの位置姿勢の3次元座標と、器具が設置されるべき位置姿勢の3次元座標とを用いて、現在のカテーテルの位置姿勢が、カテーテルが設置されるべき位置姿勢に近づく方向を決定する。そして、表示制御機能165は、決定した方向を表す矢印画像60を生成し、現在のVR画像30とともに表示する。   As shown in FIG. 9, the display control function 165 uses the three-dimensional coordinates of the current catheter position and orientation and the three-dimensional coordinates of the position and orientation where the instrument is to be installed, A direction approaching the position and posture where the catheter is to be placed is determined. Then, the display control function 165 generates an arrow image 60 indicating the determined direction, and displays it together with the current VR image 30.

このように、超音波診断装置1は、器具(カテーテル)が設置されるべき位置姿勢に近づく方向を表す画像を表示することができる。このため、操作者は、例えば、カテーテルをポジショニングすべき方向を直感的に把握することができる。なお、図9の例では、矢印画像60が、カテーテルが設置されるべき位置姿勢に近づく方向を表す場合を説明したが、これに限らず、離れる方向を表す場合であってもよい。第1の実施形態及び変形例にて説明した内容は、第2の実施形態においても適用可能である。   As described above, the ultrasonic diagnostic apparatus 1 can display an image representing a direction approaching the position and orientation where the instrument (catheter) is to be installed. For this reason, the operator can grasp | ascertain intuitively the direction which should position a catheter, for example. In the example of FIG. 9, the case where the arrow image 60 represents the direction approaching the position and orientation where the catheter is to be installed has been described. The contents described in the first embodiment and the modifications can be applied to the second embodiment.

(第2の実施形態の変形例)
また、例えば、超音波診断装置1は、実際に器具が移動した方向(移動方向)を、表示画像とともに表示してもよい。
(Modification of the second embodiment)
Further, for example, the ultrasound diagnostic apparatus 1 may display the direction (movement direction) in which the instrument has actually moved together with the display image.

図10は、第2の実施形態の変形例に係る超音波診断装置1の例を示すブロック図である。第2の実施形態の変形例に係る超音波診断装置1は、図1に例示した超音波診断装置1と同様の構成を備え、処理回路160が移動方向決定機能167を更に備える点が相違する。そこで、第2の実施形態の変形例では、第1の実施形態と相違する点を中心に説明することとし、第1の実施形態において説明した構成と同様の機能を有する点については、図1と同一の符号を付し、説明を省略する。   FIG. 10 is a block diagram illustrating an example of the ultrasonic diagnostic apparatus 1 according to a modification of the second embodiment. The ultrasonic diagnostic apparatus 1 according to the modification of the second embodiment is different from the ultrasonic diagnostic apparatus 1 illustrated in FIG. 1 in that the processing circuit 160 further includes a moving direction determination function 167. . Therefore, in the modification of the second embodiment, the description will focus on the points that differ from the first embodiment, and the points having the same functions as the configuration described in the first embodiment will be described with reference to FIG. The same reference numerals are used and the description thereof is omitted.

移動方向決定機能167は、異なる時刻における器具の位置に基づいて、器具の移動方向を決定する。そして、表示制御機能165は、移動方向決定機能167により決定された器具の移動方向を表す画像を、表示画像と同時に表示させる。   The movement direction determination function 167 determines the movement direction of the instrument based on the position of the instrument at different times. Then, the display control function 165 displays an image representing the movement direction of the instrument determined by the movement direction determination function 167 simultaneously with the display image.

例えば、移動方向決定機能167は、時系列のボリュームデータのそれぞれにおける器具の位置を用いて、ボリュームデータの座標系における器具の移動方向を決定する。具体的には、移動方向決定機能167は、現在のフレームのボリュームデータにおけるカテーテルの先端部10の3次元座標と、1フレーム前のボリュームデータにおけるカテーテルの先端部10の3次元座標とに基づいて、1フレーム前からのカテーテルの先端部10の移動方向を決定する。そして、表示制御機能165は、移動方向決定機能167により決定された器具の移動方向を表す画像を、表示画像と同時に表示させる。なお、移動方向を表す画像は、例えば、図9に例示した矢印画像60と同様であるので、図示を省略する。   For example, the movement direction determination function 167 determines the movement direction of the instrument in the coordinate system of the volume data using the position of the instrument in each of the time-series volume data. Specifically, the moving direction determination function 167 is based on the three-dimensional coordinates of the catheter tip 10 in the volume data of the current frame and the three-dimensional coordinates of the catheter tip 10 in the volume data of the previous frame. The moving direction of the distal end portion 10 of the catheter from one frame before is determined. Then, the display control function 165 displays an image representing the movement direction of the instrument determined by the movement direction determination function 167 simultaneously with the display image. Note that an image representing the moving direction is the same as the arrow image 60 illustrated in FIG.

このように、超音波診断装置1は、実際に器具が移動した方向を表示画像とともに表示する。このため、例えば、操作者は、自分が動かしたカテーテルが表示画像内で実際にどのように移動したかを直感的に把握することができる。   Thus, the ultrasonic diagnostic apparatus 1 displays the direction in which the instrument has actually moved together with the display image. Therefore, for example, the operator can intuitively understand how the catheter that he / she moved actually moved in the display image.

なお、上記の説明は一例に過ぎない。例えば、表示制御機能165は、カテーテルの実際の移動方向を表す画像とともに、カテーテルが設置されるべき位置姿勢に近づく方向を表す画像(図9の矢印画像60)を表示してもよい。これによれば、操作者は、器具をポジショニングすべき方向と、実際の器具の移動方向とが一致しているか否かを、速やかに把握することができる。   The above description is merely an example. For example, the display control function 165 may display an image (an arrow image 60 in FIG. 9) representing a direction approaching a position and orientation where the catheter is to be installed, together with an image representing the actual moving direction of the catheter. According to this, the operator can quickly grasp whether or not the direction in which the instrument is to be positioned matches the actual movement direction of the instrument.

(第3の実施形態)
例えば、超音波診断装置1は、更に、器具が設置されるべき位置及び姿勢にポジショニングされるまでの移動の軌跡を、術前シミュレーションの結果に基づいて表示可能である。
(Third embodiment)
For example, the ultrasonic diagnostic apparatus 1 can further display the movement trajectory until the instrument is positioned at the position and posture where the instrument is to be installed based on the result of the preoperative simulation.

第3の実施形態に係る超音波診断装置1は、図1に例示した超音波診断装置1と同様の構成を備え、処理回路160の処理内容が一部相違する。そこで、第3の実施形態では、第1の実施形態と相違する点を中心に説明することとし、第1の実施形態において説明した構成と同様の機能を有する点については、図示を省略する。   The ultrasonic diagnostic apparatus 1 according to the third embodiment has the same configuration as the ultrasonic diagnostic apparatus 1 illustrated in FIG. 1, and the processing contents of the processing circuit 160 are partially different. Therefore, in the third embodiment, the description will focus on the points that differ from the first embodiment, and the illustration of the points having the same functions as the configuration described in the first embodiment is omitted.

取得機能161は、被検体Pに対する術前シミュレーションの結果から、器具が被検体Pの心臓弁に設置されるまでの移動の軌跡を取得する。ここで、術前シミュレーションとは、カテーテル治療に先んじて実行されるシミュレーションであり、例えば、事前に撮影されたCT(Computed Tomography)画像を用いて行われる。術前シミュレーションの結果、例えば、カテーテルが被検体Pの僧帽弁に設置されるまでの移動の軌跡が出力される。取得機能161は、術前シミュレーションの結果から、カテーテルが被検体Pの僧帽弁に設置されるまでの移動の軌跡を取得する。なお、この移動の軌跡は、術前シミュレーションで用いられたCT画像の座標系で示される情報である。   The acquisition function 161 acquires a trajectory of movement from the result of the preoperative simulation for the subject P until the instrument is placed on the heart valve of the subject P. Here, the preoperative simulation is a simulation executed prior to catheter treatment, and is performed using, for example, a CT (Computed Tomography) image taken in advance. As a result of the preoperative simulation, for example, a movement trajectory until the catheter is placed on the mitral valve of the subject P is output. The acquisition function 161 acquires the trajectory of movement until the catheter is placed on the mitral valve of the subject P from the result of the preoperative simulation. Note that this movement trajectory is information indicated by the coordinate system of the CT image used in the preoperative simulation.

表示制御機能165は、3次元医用画像データに対する移動の軌跡の位置合わせを行って、器具の進路誘導を行うための画像を表示させる。例えば、表示制御機能165は、術前シミュレーションで用いられたCT画像と、TEEプローブにより撮像されたボリュームデータとの位置合わせを行って、移動の軌跡の座標系をボリュームデータの座標系に変換する。そして、表示制御機能165は、座標変換後の移動の軌跡を用いて、器具の進路誘導を行うための画像を生成する。一例としては、表示制御機能165は、器具の進路誘導を行うための画像として、移動の軌跡を表す線の画像(若しくは破線の画像)を、図4に示したVR画像30上に重畳表示する。また、他の例としては、表示制御機能165は、器具の進路誘導を行うための画像として、移動の軌跡を表す線の画像を、図6に示した断面像40,41上に重畳表示する。   The display control function 165 aligns the movement trajectory with respect to the three-dimensional medical image data, and displays an image for guiding the path of the instrument. For example, the display control function 165 aligns the CT image used in the preoperative simulation and the volume data captured by the TEE probe, and converts the coordinate system of the movement trajectory into the coordinate system of the volume data. . Then, the display control function 165 generates an image for guiding the path of the instrument using the movement trajectory after the coordinate conversion. As an example, the display control function 165 superimposes and displays a line image (or a broken line image) representing a trajectory of movement on the VR image 30 shown in FIG. 4 as an image for guiding the path of the instrument. . As another example, the display control function 165 superimposes and displays a line image representing a trajectory of movement on the cross-sectional images 40 and 41 shown in FIG. 6 as an image for guiding the path of the instrument. .

このように、超音波診断装置1は、器具の進路誘導を行うための画像を表示する。これに依れば、操作者は、器具が設置されるべき位置及び姿勢にポジショニングされるまでの移動の軌跡を閲覧することが可能となる。   As described above, the ultrasound diagnostic apparatus 1 displays an image for guiding the path of the instrument. According to this, the operator can view the trajectory of movement until the instrument is positioned at the position and posture where the instrument is to be installed.

(第3の実施形態の変形例)
例えば、超音波診断装置1は、更に、器具の留置に適切な度合いを判定し、報知可能である。
(Modification of the third embodiment)
For example, the ultrasonic diagnostic apparatus 1 can further determine and notify a degree appropriate for the placement of the instrument.

図11は、第3の実施形態の変形例に係る超音波診断装置1の例を示すブロック図である。第3の実施形態の変形例に係る超音波診断装置1は、図1に例示した超音波診断装置1と同様の構成を備え、処理回路160が判定機能168及び報知機能169を更に備える点が相違する。そこで、第3の実施形態の変形例では、第1の実施形態と相違する点を中心に説明することとし、第1の実施形態において説明した構成と同様の機能を有する点については、図1と同一の符号を付し、説明を省略する。   FIG. 11 is a block diagram illustrating an example of an ultrasonic diagnostic apparatus 1 according to a modification of the third embodiment. The ultrasonic diagnostic apparatus 1 according to the modification of the third embodiment has the same configuration as the ultrasonic diagnostic apparatus 1 illustrated in FIG. 1, and the processing circuit 160 further includes a determination function 168 and a notification function 169. Is different. Therefore, in the modified example of the third embodiment, points different from the first embodiment will be mainly described, and the points having the same function as the configuration described in the first embodiment will be described with reference to FIG. The same reference numerals are used and the description thereof is omitted.

判定機能168は、被検体に対する術前シミュレーションにより得られる心臓弁の動きのモデルに基づいて、器具の留置位置がどの程度適切であるかの度合いを判定する。ここで、術前シミュレーションでは、例えば、心臓弁の動きの軌跡を動きモデルとして事前に算出される場合がある。この心臓弁の動きモデルは、心拍に伴って動く被検体Pの心臓弁の動きのモデルであり、例えば、心臓弁が閉じた状態や開いた状態等、心臓の動きに伴う様々な状態のパターンが含まれる。   The determination function 168 determines the degree of appropriateness of the indwelling position of the instrument based on a heart valve movement model obtained by preoperative simulation on the subject. Here, in the pre-operative simulation, for example, the motion locus of the heart valve may be calculated in advance as a motion model. This heart valve motion model is a model of the heart valve motion of the subject P that moves with the heartbeat. For example, the pattern of various states accompanying the heart motion, such as the heart valve being closed or opened. Is included.

例えば、判定機能168は、TEEプローブにより撮像されたボリュームデータと、心臓弁の動きモデルとをパターン認識処理によって比較する。そして、判定機能168は、心臓弁が閉じた状態のパターンに対する尤度(類似度)を算出する。   For example, the determination function 168 compares the volume data imaged by the TEE probe with the motion model of the heart valve by pattern recognition processing. Then, the determination function 168 calculates the likelihood (similarity) for the pattern in which the heart valve is closed.

報知機能169は、判定機能168による判定結果を報知する。例えば、報知機能169は、判定機能168によって算出された心臓弁が閉じた状態のパターンに対する尤度に基づいて、器具の留置に適切な度合いを報知する。例えば、報知機能169は、算出された尤度を器具の留置に適切な度合いとしてディスプレイ103に表示させる。また、例えば、報知機能169は、算出された尤度の大きさに応じたスコア(評価)をディスプレイ103に表示させる。また、例えば、報知機能169は、尤度が閾値を超えた場合に、所定の音を報知する。   The notification function 169 notifies the determination result by the determination function 168. For example, the notification function 169 notifies the degree appropriate for placement of the instrument based on the likelihood for the pattern of the closed heart valve calculated by the determination function 168. For example, the notification function 169 causes the display 103 to display the calculated likelihood as a degree appropriate for the placement of the appliance. For example, the notification function 169 causes the display 103 to display a score (evaluation) corresponding to the calculated likelihood size. For example, the notification function 169 notifies a predetermined sound when the likelihood exceeds a threshold value.

このように、超音波診断装置1は、器具(カテーテル)の留置に適切な度合いを判定し、報知することができる。これによれば、操作者は、例えば、器具の留置に適切なタイミングを掴むことができる。   In this way, the ultrasonic diagnostic apparatus 1 can determine and notify a degree appropriate for placement of the instrument (catheter). According to this, the operator can grasp | ascertain a suitable timing for placement of an instrument, for example.

(第4の実施形態)
例えば、超音波診断装置1は、更に、操作者にとってわかりやすい座標系で器具の操作方向を表示可能である。
(Fourth embodiment)
For example, the ultrasonic diagnostic apparatus 1 can further display the operation direction of the instrument in a coordinate system that is easy for the operator to understand.

図12は、第4の実施形態に係る超音波診断装置1の例を示すブロック図である。第4の実施形態に係る超音波診断装置1は、図1に例示した超音波診断装置1と同様の構成を備え、処理回路160が検知機能170を更に備える点が相違する。そこで、第4の実施形態では、第1の実施形態と相違する点を中心に説明することとし、第1の実施形態において説明した構成と同様の機能を有する点については、図1と同一の符号を付し、説明を省略する。   FIG. 12 is a block diagram illustrating an example of the ultrasonic diagnostic apparatus 1 according to the fourth embodiment. The ultrasonic diagnostic apparatus 1 according to the fourth embodiment is different from the ultrasonic diagnostic apparatus 1 illustrated in FIG. 1 in that the processing circuit 160 further includes a detection function 170. Therefore, the fourth embodiment will be described with a focus on differences from the first embodiment, and the same functions as those in the first embodiment are the same as those in FIG. Reference numerals are assigned and description is omitted.

検知機能170は、3次元医用画像データの3次元空間における位置を検知する。例えば、第4の実施形態において、TEEプローブである超音波プローブ101には、ジャイロセンサ等の加速度センサが取り付けられる。超音波プローブ101に取り付けられた加速度センサは、被検体Pの体内に挿入する前に、3次元空間(例えば、グローバル座標系)における3次元座標が登録される。例えば、加速度センサは、被検体Pの食道に挿入される直前、つまり被検体Pの口の位置の3次元座標が登録される。そして、加速度センサは、超音波プローブ101が被検体Pの食道に挿入されると、挿入による位置の変化を検知する。例えば、検知機能170は、超音波プローブ101が被検体Pの体内に挿入される前に登録された3次元座標と、加速度センサによって検知された位置の変化とに基づいて、超音波プローブ101の現在の位置の3次元座標を検知する。   The detection function 170 detects the position of the three-dimensional medical image data in the three-dimensional space. For example, in the fourth embodiment, an acceleration sensor such as a gyro sensor is attached to the ultrasonic probe 101 that is a TEE probe. Before the acceleration sensor attached to the ultrasonic probe 101 is inserted into the body of the subject P, three-dimensional coordinates in a three-dimensional space (for example, a global coordinate system) are registered. For example, the acceleration sensor registers the three-dimensional coordinates of the position of the mouth of the subject P immediately before being inserted into the esophagus of the subject P. Then, when the ultrasonic probe 101 is inserted into the esophagus of the subject P, the acceleration sensor detects a change in position due to the insertion. For example, the detection function 170 is based on the three-dimensional coordinates registered before the ultrasonic probe 101 is inserted into the body of the subject P and the change in the position detected by the acceleration sensor. Detect the three-dimensional coordinates of the current position.

また、例えば、検知機能170は、被検体Pが撮影されたX線画像に超音波プローブ101が描出される場合には、このX線画像に基づいて、3次元空間における超音波プローブ101の位置の3次元座標を検知する。具体的には、検知機能170は、X線画像における超音波プローブ101の位置と、このX線画像の撮影に用いられたX線発生器及びX線検出器の3次元空間における位置とに基づいて、超音波プローブ101の位置の3次元座標を検知する。   Further, for example, when the ultrasound probe 101 is depicted in an X-ray image obtained by imaging the subject P, the detection function 170 determines the position of the ultrasound probe 101 in the three-dimensional space based on the X-ray image. 3D coordinates are detected. Specifically, the detection function 170 is based on the position of the ultrasonic probe 101 in the X-ray image and the positions of the X-ray generator and the X-ray detector used for imaging the X-ray image in the three-dimensional space. Thus, the three-dimensional coordinates of the position of the ultrasonic probe 101 are detected.

このように、検知機能170は、加速度センサ及びX線画像のうち少なくとも一方の情報を用いて、3次元空間における超音波プローブ101の位置の3次元座標を検知する。   As described above, the detection function 170 detects the three-dimensional coordinates of the position of the ultrasonic probe 101 in the three-dimensional space using at least one of the information from the acceleration sensor and the X-ray image.

そして、表示制御機能165は、検知機能170により検知された3次元空間における位置と、3次元空間に対する被検体Pの位置とに基づいて、被検体Pの座標系における器具の操作方向を表示させる。ここで、3次元空間に対する被検体Pの位置は、被検体Pが横臥する寝台の位置等から取得される。   The display control function 165 displays the operation direction of the instrument in the coordinate system of the subject P based on the position in the three-dimensional space detected by the detection function 170 and the position of the subject P with respect to the three-dimensional space. . Here, the position of the subject P with respect to the three-dimensional space is acquired from the position of the bed on which the subject P lies.

これにより、表示制御機能165は、カテーテルの操作方向を、被検体Pの座標系で表示させる。例えば、表示制御機能165は、カテーテルの操作方向を、被検体の頭部側、脚部側、腹部側、背中側、左腕側、右腕側等、被検体Pの身体の部位を基準とした表現で表示することができる。   Thereby, the display control function 165 displays the operation direction of the catheter in the coordinate system of the subject P. For example, the display control function 165 represents the operation direction of the catheter on the basis of the body part of the subject P such as the head side, the leg side, the abdomen side, the back side, the left arm side, and the right arm side of the subject. Can be displayed.

(第4の実施形態の変形例1)
また、例えば、第4の実施形態に係る超音波診断装置1は、操作者の座標系における器具の操作方向を表示してもよい。
(Modification 1 of 4th Embodiment)
Further, for example, the ultrasonic diagnostic apparatus 1 according to the fourth embodiment may display the operation direction of the instrument in the operator's coordinate system.

例えば、表示制御機能165は、検知機能170により検知された3次元空間における位置と、3次元空間に対する操作者の位置とに基づいて、操作者の座標系における器具の操作方向を表示させる。ここで、3次元空間に対する操作者の位置は、操作者が存在する室内(手術室内)をカメラで撮影することにより取得される。   For example, the display control function 165 displays the operation direction of the instrument in the operator's coordinate system based on the position in the three-dimensional space detected by the detection function 170 and the position of the operator with respect to the three-dimensional space. Here, the position of the operator with respect to the three-dimensional space is acquired by photographing the room (operating room) in which the operator exists with a camera.

これにより、表示制御機能165は、カテーテルの操作方向を、操作者の座標系で表示させる。例えば、表示制御機能165は、カテーテルの操作方向を、操作者から見た上方向、下方向、右方向、左方向等の表現で表示することができる。   As a result, the display control function 165 displays the operation direction of the catheter in the coordinate system of the operator. For example, the display control function 165 can display the operation direction of the catheter in expressions such as an upward direction, a downward direction, a right direction, and a left direction as viewed from the operator.

(第4の実施形態の変形例2)
また、例えば、第4の実施形態に係る超音波診断装置1は、X線画像の座標系における器具の操作方向を表示してもよい。
(Modification 2 of the fourth embodiment)
For example, the ultrasonic diagnostic apparatus 1 according to the fourth embodiment may display the operation direction of the instrument in the coordinate system of the X-ray image.

例えば、表示制御機能165は、検知機能170により検知された3次元空間における位置と、3次元空間に対するX線画像の位置とに基づいて、X線画像の座標系における器具の操作方向を表示させる。ここで、3次元空間に対するX線画像の位置は、X線画像の撮影に用いられたX線発生器及びX線検出器の3次元空間における位置に基づいて取得される。   For example, the display control function 165 displays the operation direction of the instrument in the coordinate system of the X-ray image based on the position in the three-dimensional space detected by the detection function 170 and the position of the X-ray image with respect to the three-dimensional space. . Here, the position of the X-ray image with respect to the three-dimensional space is acquired based on the positions of the X-ray generator and the X-ray detector used for photographing the X-ray image in the three-dimensional space.

これにより、表示制御機能165は、カテーテルの操作方向を、X線画像の座標系で表示させる。例えば、表示制御機能165は、カテーテルの操作方向を、X線画像上で上方向、下方向、右方向、左方向等の表現で表示することができる。   Thereby, the display control function 165 displays the operation direction of the catheter in the coordinate system of the X-ray image. For example, the display control function 165 can display the operation direction of the catheter in an expression such as upward, downward, rightward, leftward on the X-ray image.

(その他の実施形態)
上述した実施形態以外にも、種々の異なる形態にて実施されてもよい。
(Other embodiments)
In addition to the above-described embodiment, various other forms may be implemented.

(留置後の表示)
例えば、上記の実施形態では、カテーテルのクリップ部11を僧帽弁に留置させるまでの表示について説明したが、留置後の表示を制御することも可能である。
(Display after placement)
For example, in the above embodiment, the display until the clip portion 11 of the catheter is placed in the mitral valve has been described. However, the display after placement can be controlled.

例えば、表示制御機能165は、器具が留置された場合に、器具を含む断面像を表示させる。例えば、表示制御機能165は、器具が留置されたことを検知する。具体的には、表示制御機能165は、上記の二値化画像20において、カテーテルのクリップ部11と管状部12とが離れた場合に、クリップ部11が留置されたことを検知する。そして、表示制御機能165は、クリップ部11が留置されたことを検知すると、留置直前のカテーテルの進行方向に沿った断面像40,41を生成し、表示する。   For example, the display control function 165 displays a cross-sectional image including the instrument when the instrument is indwelled. For example, the display control function 165 detects that the instrument has been placed. Specifically, the display control function 165 detects that the clip portion 11 has been placed in the binarized image 20 when the clip portion 11 and the tubular portion 12 of the catheter are separated from each other. When the display control function 165 detects that the clip portion 11 has been placed, the display control function 165 generates and displays cross-sectional images 40 and 41 along the traveling direction of the catheter immediately before placement.

このように、超音波診断装置1は、器具が留置された場合においても、器具を含む断面像を表示させることができる。   Thus, the ultrasonic diagnostic apparatus 1 can display a cross-sectional image including the instrument even when the instrument is indwelled.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。更に、各装置にて行なわれる各処理機能は、その全部又は任意の一部が、CPU及び当該CPUにて解析実行されるプログラムにて実現され、或いは、ワイヤードロジックによるハードウェアとして実現され得る。   Further, each component of each illustrated apparatus is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or a part of the distribution / integration is functionally or physically distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured. Further, all or a part of each processing function performed in each device may be realized by a CPU and a program analyzed and executed by the CPU, or may be realized as hardware by wired logic.

また、上記の実施形態及び変形例において説明した各処理のうち、自動的に行なわれるものとして説明した処理の全部又は一部を手動的に行なうこともでき、或いは、手動的に行なわれるものとして説明した処理の全部又は一部を公知の方法で自動的に行なうこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。   In addition, among the processes described in the above embodiments and modifications, all or a part of the processes described as being automatically performed can be manually performed, or can be manually performed. All or part of the described processing can be automatically performed by a known method. In addition, the processing procedure, control procedure, specific name, and information including various data and parameters shown in the above-described document and drawings can be arbitrarily changed unless otherwise specified.

また、上記の実施形態及び変形例で説明した超音波イメージング方法は、予め用意された超音波イメージングプログラムをパーソナルコンピュータやワークステーション等のコンピュータで実行することによって実現することができる。この超音波イメージング方法は、インターネット等のネットワークを介して配布することができる。また、この超音波イメージング方法は、ハードディスク、フレキシブルディスク(FD)、CD−ROM、MO、DVD等のコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することもできる。   In addition, the ultrasonic imaging method described in the above-described embodiments and modifications can be realized by executing a prepared ultrasonic imaging program on a computer such as a personal computer or a workstation. This ultrasonic imaging method can be distributed via a network such as the Internet. The ultrasonic imaging method may be executed by being recorded on a computer-readable recording medium such as a hard disk, a flexible disk (FD), a CD-ROM, an MO, or a DVD, and being read from the recording medium by the computer. it can.

以上説明した少なくともひとつの実施形態によれば、心臓弁に対する器具の位置と進行方向とを視認可能な表示画像を生成することができる。   According to at least one embodiment described above, it is possible to generate a display image in which the position of the instrument relative to the heart valve and the traveling direction can be visually recognized.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the equivalents thereof.

1 超音波診断装置
160 処理回路
161 取得機能
162 推定機能
163 決定機能
164 生成機能
165 表示制御機能
DESCRIPTION OF SYMBOLS 1 Ultrasonic diagnostic apparatus 160 Processing circuit 161 Acquisition function 162 Estimation function 163 Determination function 164 Generation function 165 Display control function

Claims (19)

超音波プローブを用いて撮像された、被検体の心臓弁と前記被検体の心腔内に挿入されたカテーテルとを含む領域の3次元医用画像データを取得する取得部と、
前記カテーテルの先端部の形状を表す形状情報、及び、前記先端部の超音波の反射特性を表す反射特性情報のうち少なくとも一方を用いて、前記3次元医用画像データに含まれる前記先端部の位置及び姿勢情報を得ることにより、前記先端部の進行方向を決定する決定部と、
前記先端部の位置及び進行方向に基づいて、前記3次元医用画像データから表示画像を生成する生成部と、
前記表示画像を表示させる表示制御部と、
を備える、超音波診断装置。
An acquisition unit for acquiring three-dimensional medical image data of a region including a heart valve of a subject and a catheter inserted into the heart chamber of the subject, imaged using an ultrasonic probe;
The position of the distal end portion included in the three-dimensional medical image data using at least one of shape information representing the shape of the distal end portion of the catheter and reflection characteristic information representing an ultrasonic reflection characteristic of the distal end portion And a determination unit that determines a traveling direction of the tip by obtaining posture information;
A generating unit that generates a display image from the three-dimensional medical image data based on the position and the traveling direction of the tip;
A display control unit for displaying the display image;
An ultrasonic diagnostic apparatus comprising:
前記先端部は、僧帽弁に留置されるクリップ部又は人工弁を含む、
請求項1に記載の超音波診断装置。
The tip includes a clip or an artificial valve that is placed in the mitral valve,
The ultrasonic diagnostic apparatus according to claim 1.
前記表示画像は、前記3次元医用画像データを3次元的に表現する画像である、請求項1に記載の超音波診断装置。   The ultrasonic diagnostic apparatus according to claim 1, wherein the display image is an image that three-dimensionally represents the three-dimensional medical image data. 前記表示画像は、ボリュームレンダリング画像又はサーフェスレンダリング画像である、請求項3に記載の超音波診断装置。   The ultrasonic diagnostic apparatus according to claim 3, wherein the display image is a volume rendering image or a surface rendering image. 前記表示画像は、前記先端部の位置に基づく視点と、前記先端部の進行方向に基づく視線とを用いて生成されたボリュームレンダリング画像又はサーフェスレンダリング画像である、請求項4に記載の超音波診断装置。   The ultrasonic diagnosis according to claim 4, wherein the display image is a volume rendering image or a surface rendering image generated using a viewpoint based on a position of the tip and a line of sight based on a traveling direction of the tip. apparatus. 前記生成部は、前記先端部の進行方向に沿った断面像を、前記表示画像として生成する、
請求項1〜5のいずれか一つに記載の超音波診断装置。
The generation unit generates a cross-sectional image along the traveling direction of the tip as the display image.
The ultrasonic diagnostic apparatus as described in any one of Claims 1-5.
前記心臓弁の位置及び姿勢に対して前記カテーテルが設置されるべき位置及び姿勢を推定する弁位置姿勢推定部を更に備える、
請求項1〜6のいずれか一つに記載の超音波診断装置。
A valve position / posture estimation unit that estimates a position and posture where the catheter is to be installed with respect to the position and posture of the heart valve;
The ultrasonic diagnostic apparatus as described in any one of Claims 1-6.
前記表示制御部は、前記推定部により推定された前記カテーテルの位置及び姿勢が、前記弁位置姿勢推定部により推定された前記カテーテルが設置されるべき位置及び姿勢に近づく方向ないし離れる方向を表す画像を前記表示画像と同時に表示させる、
請求項7に記載の超音波診断装置。
The display control unit is an image representing a direction in which the position and posture of the catheter estimated by the estimation unit approaches or moves away from a position and posture where the catheter should be installed estimated by the valve position and posture estimation unit. Is displayed simultaneously with the display image,
The ultrasonic diagnostic apparatus according to claim 7.
異なる時刻における前記カテーテルの位置に基づいて、前記カテーテルの移動方向を決定する移動方向決定部を更に備え、
前記表示制御部は、前記移動方向決定部により決定された前記カテーテルの移動方向を表す画像を前記表示画像と同時に表示させる、
請求項1〜8のいずれか一つに記載の超音波診断装置。
A moving direction determining unit that determines the moving direction of the catheter based on the position of the catheter at different times;
The display control unit displays an image representing the movement direction of the catheter determined by the movement direction determination unit simultaneously with the display image;
The ultrasonic diagnostic apparatus as described in any one of Claims 1-8.
前記表示制御部は、前記被検体を透過したX線に基づいて生成されたX線画像を、前記表示画像と同時に表示させる、
請求項1〜9のいずれか一つに記載の超音波診断装置。
The display control unit displays an X-ray image generated based on X-rays transmitted through the subject simultaneously with the display image;
The ultrasonic diagnostic apparatus as described in any one of Claims 1-9.
前記取得部は、前記被検体に対する術前シミュレーションの結果から、前記カテーテルが前記被検体の心臓弁に設置されるまでの移動の軌跡を取得し、
前記表示制御部は、前記3次元医用画像データに対する前記移動の軌跡の位置合わせを行って、前記カテーテルの進路誘導を行うための画像を表示させる、
請求項1〜10のいずれか一つに記載の超音波診断装置。
The acquisition unit acquires a trajectory of movement until the catheter is installed on a heart valve of the subject from a result of preoperative simulation on the subject,
The display control unit performs alignment of the trajectory of the movement with respect to the three-dimensional medical image data, and displays an image for guiding the course of the catheter.
The ultrasonic diagnostic apparatus as described in any one of Claims 1-10.
前記被検体に対する術前シミュレーションにより得られる前記心臓弁の動きのモデルに基づいて、前記先端部の留置位置がどの程度適切であるかの度合いを判定する判定部と、
前記判定部による判定結果を報知する報知部と、
を更に備える、
請求項1〜11のいずれか一つに記載の超音波診断装置。
A determination unit that determines how appropriate the indwelling position of the distal end portion is based on a model of the movement of the heart valve obtained by preoperative simulation on the subject; and
An informing unit for informing a determination result by the determining unit;
Further comprising
The ultrasonic diagnostic apparatus as described in any one of Claims 1-11.
前記3次元医用画像データの3次元空間における位置を検知する検知部を更に備え、
前記表示制御部は、前記検知部により検知された前記3次元空間における位置と、前記3次元空間に対する被検体の位置とに基づいて、前記被検体の座標系における前記カテーテルの操作方向を表示させる、
請求項1〜12のいずれか一つに記載の超音波診断装置。
A detector that detects a position of the three-dimensional medical image data in a three-dimensional space;
The display control unit displays an operation direction of the catheter in the coordinate system of the subject based on the position in the three-dimensional space detected by the detection unit and the position of the subject with respect to the three-dimensional space. ,
The ultrasonic diagnostic apparatus as described in any one of Claims 1-12.
前記3次元医用画像データの3次元空間における位置を検知する検知部を更に備え、
前記表示制御部は、前記検知部により検知された前記3次元空間における位置と、前記3次元空間に対する操作者の位置とに基づいて、前記操作者の座標系における前記カテーテルの操作方向を表示させる、
請求項1〜12のいずれか一つに記載の超音波診断装置。
A detector that detects a position of the three-dimensional medical image data in a three-dimensional space;
The display control unit displays an operation direction of the catheter in the coordinate system of the operator based on the position in the three-dimensional space detected by the detection unit and the position of the operator with respect to the three-dimensional space. ,
The ultrasonic diagnostic apparatus as described in any one of Claims 1-12.
前記3次元医用画像データの3次元空間における位置を検知する検知部を更に備え、
前記表示制御部は、前記検知部により検知された前記3次元空間における位置と、前記3次元空間に対する前記X線画像の位置とに基づいて、前記X線画像の座標系における前記カテーテルの操作方向を表示させる、
請求項10に記載の超音波診断装置。
A detector that detects a position of the three-dimensional medical image data in a three-dimensional space;
The display control unit is configured to operate the catheter in the X-ray image coordinate system based on the position in the three-dimensional space detected by the detection unit and the position of the X-ray image with respect to the three-dimensional space. To display,
The ultrasonic diagnostic apparatus according to claim 10.
前記生成部は、操作者の指示に応じて、前記先端部を視点とするボリュームレンダリング画像、若しくは前記先端部より後方の位置を視点とするボリュームレンダリング画像を生成する、
請求項1〜15のいずれか一つに記載の超音波診断装置。
The generation unit generates a volume rendering image with the tip portion as a viewpoint or a volume rendering image with a position behind the tip portion as a viewpoint according to an instruction from an operator.
The ultrasonic diagnostic apparatus as described in any one of Claims 1-15.
前記3次元医用画像データは、前記超音波プローブである経食道心エコーにより撮像されたデータである、
請求項1〜16のいずれか一つに記載の超音波診断装置。
The three-dimensional medical image data is data imaged by transesophageal echocardiography, which is the ultrasonic probe.
The ultrasonic diagnostic apparatus as described in any one of Claims 1-16.
前記表示制御部は、前記先端部が留置された場合に、前記先端部を含む断面像を表示させる、
請求項1〜17のいずれか一つに記載の超音波診断装置。
The display control unit displays a cross-sectional image including the tip when the tip is placed.
The ultrasonic diagnostic apparatus as described in any one of Claims 1-17.
超音波プローブを用いて撮像された、被検体の心臓弁と前記被検体の心腔内に挿入されたカテーテルとを含む領域の3次元医用画像データを取得し、
前記カテーテルの先端部の形状を表す形状情報、及び、前記先端部の超音波の反射特性を表す反射特性情報のうち少なくとも一方を用いて、前記3次元医用画像データに含まれる前記先端部の位置及び姿勢情報を得ることにより、前記先端部の進行方向を決定し、
前記先端部の位置及び進行方向に基づいて、前記3次元医用画像データから表示画像を生成し、
前記表示画像を表示させる、
各処理をコンピュータに実行させる、画像処理プログラム。
Acquiring three-dimensional medical image data of a region including a heart valve of a subject and a catheter inserted into the heart chamber of the subject, imaged using an ultrasonic probe;
The position of the distal end portion included in the three-dimensional medical image data using at least one of shape information representing the shape of the distal end portion of the catheter and reflection characteristic information representing an ultrasonic reflection characteristic of the distal end portion And determining the traveling direction of the tip by obtaining posture information,
Generating a display image from the three-dimensional medical image data based on the position of the tip and the traveling direction;
Displaying the display image;
An image processing program that causes a computer to execute each process.
JP2017032564A 2016-02-26 2017-02-23 Ultrasound diagnostic equipment and image processing program Active JP7014517B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/442,000 US10292684B2 (en) 2016-02-26 2017-02-24 Ultrasound diagnosis apparatus and image processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016036354 2016-02-26
JP2016036354 2016-02-26

Publications (2)

Publication Number Publication Date
JP2017153953A true JP2017153953A (en) 2017-09-07
JP7014517B2 JP7014517B2 (en) 2022-02-01

Family

ID=59807779

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017032564A Active JP7014517B2 (en) 2016-02-26 2017-02-23 Ultrasound diagnostic equipment and image processing program

Country Status (1)

Country Link
JP (1) JP7014517B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018212248A1 (en) * 2017-05-16 2018-11-22 テルモ株式会社 Image processing device and image processing method
WO2020044523A1 (en) * 2018-08-30 2020-03-05 オリンパス株式会社 Recording device, image observation device, observation system, observation system control method, and observation system operating program
CN111317508A (en) * 2018-12-14 2020-06-23 佳能医疗系统株式会社 Ultrasonic diagnostic apparatus, medical information processing apparatus, and computer program product
JP2021514266A (en) * 2018-02-22 2021-06-10 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Intervention medical device tracking
CN113661544A (en) * 2019-04-02 2021-11-16 美国西门子医疗系统股份有限公司 Image-based probe positioning

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000185041A (en) * 1998-10-14 2000-07-04 Toshiba Corp Ultrasonic diagnostic apparatus
JP2001340336A (en) * 2000-06-01 2001-12-11 Toshiba Medical System Co Ltd Ultrasonic diagnosing device and ultrasonic diagnosing method
JP2013521971A (en) * 2010-03-24 2013-06-13 シンバイオニクス リミテッド System and method for computerized simulation of medical procedures
JP2014510608A (en) * 2011-04-11 2014-05-01 イマコー・インコーポレーテッド Positioning of heart replacement valve by ultrasonic guidance
JP2015515910A (en) * 2012-05-07 2015-06-04 バソノバ・インコーポレイテッドVasonova, Inc. Right atrial indicator
US20150313620A1 (en) * 2012-12-14 2015-11-05 Mayo Foundation For Medical Education And Research Mitral valve repair devices
JP2015536785A (en) * 2012-12-17 2015-12-24 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Micromanipulator control local view with static whole view

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000185041A (en) * 1998-10-14 2000-07-04 Toshiba Corp Ultrasonic diagnostic apparatus
JP2001340336A (en) * 2000-06-01 2001-12-11 Toshiba Medical System Co Ltd Ultrasonic diagnosing device and ultrasonic diagnosing method
JP2013521971A (en) * 2010-03-24 2013-06-13 シンバイオニクス リミテッド System and method for computerized simulation of medical procedures
JP2014510608A (en) * 2011-04-11 2014-05-01 イマコー・インコーポレーテッド Positioning of heart replacement valve by ultrasonic guidance
JP2015515910A (en) * 2012-05-07 2015-06-04 バソノバ・インコーポレイテッドVasonova, Inc. Right atrial indicator
US20150313620A1 (en) * 2012-12-14 2015-11-05 Mayo Foundation For Medical Education And Research Mitral valve repair devices
JP2015536785A (en) * 2012-12-17 2015-12-24 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Micromanipulator control local view with static whole view

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018212248A1 (en) * 2017-05-16 2018-11-22 テルモ株式会社 Image processing device and image processing method
JP2021514266A (en) * 2018-02-22 2021-06-10 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Intervention medical device tracking
JP7299228B2 (en) 2018-02-22 2023-06-27 コーニンクレッカ フィリップス エヌ ヴェ Tracking interventional medical devices
WO2020044523A1 (en) * 2018-08-30 2020-03-05 オリンパス株式会社 Recording device, image observation device, observation system, observation system control method, and observation system operating program
CN112584738A (en) * 2018-08-30 2021-03-30 奥林巴斯株式会社 Recording device, image observation device, observation system, method for controlling observation system, and program for operating observation system
JPWO2020044523A1 (en) * 2018-08-30 2021-08-12 オリンパス株式会社 Recording device, image observation device, observation system, control method of observation system, and operation program of observation system.
US11653815B2 (en) 2018-08-30 2023-05-23 Olympus Corporation Recording device, image observation device, observation system, control method of observation system, and computer-readable recording medium
CN112584738B (en) * 2018-08-30 2024-04-23 奥林巴斯株式会社 Recording device, image observation device, observation system, control method for observation system, and storage medium
CN111317508A (en) * 2018-12-14 2020-06-23 佳能医疗系统株式会社 Ultrasonic diagnostic apparatus, medical information processing apparatus, and computer program product
CN111317508B (en) * 2018-12-14 2023-09-22 佳能医疗系统株式会社 Ultrasonic diagnostic apparatus, medical information processing apparatus, and computer program product
CN113661544A (en) * 2019-04-02 2021-11-16 美国西门子医疗系统股份有限公司 Image-based probe positioning

Also Published As

Publication number Publication date
JP7014517B2 (en) 2022-02-01

Similar Documents

Publication Publication Date Title
US10292684B2 (en) Ultrasound diagnosis apparatus and image processing method
JP7014517B2 (en) Ultrasound diagnostic equipment and image processing program
US9855024B2 (en) Medical diagnostic imaging apparatus, medical image processing apparatus, and control method for processing motion information
CN108283505B (en) Ultrasonic diagnostic apparatus, image processing apparatus, and image processing method
JP5586203B2 (en) Ultrasonic diagnostic apparatus, ultrasonic image processing apparatus, and ultrasonic image processing program
US9468418B2 (en) Ultrasonic diagnostic apparatus, ultrasonic image display apparatus, and ultrasonic image display method
US20170095226A1 (en) Ultrasonic diagnostic apparatus and medical image diagnostic apparatus
JP5897674B2 (en) Ultrasonic diagnostic apparatus, image processing apparatus, and image processing program
JP7375140B2 (en) Ultrasonic diagnostic equipment, medical image diagnostic equipment, medical image processing equipment, and medical image processing programs
WO2014038703A1 (en) Diagnostic ultrasound apparatus, medical image-processing device and image processing program
JP6925824B2 (en) Ultrasound diagnostic equipment, image processing equipment, and image processing programs
JP6815259B2 (en) Ultrasound diagnostic equipment, medical image processing equipment and medical image processing programs
JP7258483B2 (en) Medical information processing system, medical information processing device and ultrasonic diagnostic device
US11331147B2 (en) Medical image processing apparatus, medical image diagnostic apparatus, and medical image processing method for image-guided endocardial navigation
JP7204424B2 (en) Medical image diagnosis device and medical image processing device
US11399801B2 (en) Medical diagnostic-imaging apparatus and medical-image processing apparatus
JP2012245092A (en) Ultrasonic diagnostic apparatus
JP6849420B2 (en) Ultrasound diagnostic equipment and medical image processing equipment
JP7023704B2 (en) Ultrasound diagnostic equipment, image processing equipment and image processing program
EP4059439A1 (en) Medical image processing apparatus and method of medical image processing
JP2008113699A (en) Ultrasonic diagnostic apparatus and catheter navigation system
JP6502070B2 (en) Ultrasonic diagnostic apparatus, medical image processing apparatus and medical image processing method
JP2022012486A (en) Medical image processing apparatus and medical image processing system
JP2008220662A (en) Ultrasonic diagnostic equipment and its control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210730

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220120