JP6352013B2 - Ultrasonic diagnostic apparatus, image processing apparatus, and image processing program - Google Patents

Ultrasonic diagnostic apparatus, image processing apparatus, and image processing program Download PDF

Info

Publication number
JP6352013B2
JP6352013B2 JP2014053873A JP2014053873A JP6352013B2 JP 6352013 B2 JP6352013 B2 JP 6352013B2 JP 2014053873 A JP2014053873 A JP 2014053873A JP 2014053873 A JP2014053873 A JP 2014053873A JP 6352013 B2 JP6352013 B2 JP 6352013B2
Authority
JP
Japan
Prior art keywords
image data
region
area
specific
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014053873A
Other languages
Japanese (ja)
Other versions
JP2015173899A (en
Inventor
淙 姚
淙 姚
哲也 川岸
哲也 川岸
嶺 喜隆
喜隆 嶺
慎太朗 丹羽
慎太朗 丹羽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Priority to JP2014053873A priority Critical patent/JP6352013B2/en
Publication of JP2015173899A publication Critical patent/JP2015173899A/en
Application granted granted Critical
Publication of JP6352013B2 publication Critical patent/JP6352013B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明の実施形態は、超音波診断装置、画像処理装置及び画像処理プログラムに関する。   Embodiments described herein relate generally to an ultrasonic diagnostic apparatus, an image processing apparatus, and an image processing program.

従来、画像診断の支援を目的として、位置合わせを行なった複数の医用画像を合成した合成画像を表示することが行われている。例えば、かかる合成画像は、各医用画像を、所定の重みにより重み付け加算することで生成される。或いは、例えば、かかる合成画像は、ベースとなる医用画像に、他の医用画像で操作者が指定した領域を重畳合成することで生成される。かかる合成画像を参照することで、例えば、医師は、被検体の撮影部位における様々な情報を1つの画像から得ることができる。   Conventionally, for the purpose of assisting image diagnosis, a composite image obtained by combining a plurality of medical images subjected to alignment has been displayed. For example, such a composite image is generated by weighting and adding each medical image with a predetermined weight. Alternatively, for example, such a composite image is generated by superimposing a region designated by an operator on another medical image on a base medical image. By referring to such a composite image, for example, a doctor can obtain various information on the imaging region of the subject from one image.

しかし、重み付け加算で生成された合成画像では、例えば、ある医用画像で医師が参照したい情報が描出されている領域が、他の医用画像の同一領域と融合されるので、当該領域の視認性が悪くなる場合がある。かかる場合、例えば、医師は、各医用画像に対する重みを変更する必要がある。また、操作者が指定した領域を用いて合成画像を生成する方法では、例えば、医師は、各医用画像で領域指定を行なう必要がある。   However, in the composite image generated by weighted addition, for example, an area in which information that a doctor wants to refer to in a certain medical image is merged with the same area of another medical image, so that the visibility of the area is improved. It may get worse. In such a case, for example, the doctor needs to change the weight for each medical image. Further, in the method of generating a composite image using an area designated by the operator, for example, a doctor needs to designate an area for each medical image.

特開2006−53102号公報JP 2006-53102 A 特開2008−284287号公報JP 2008-284287 A

本発明が解決しようとする課題は、撮影部位の様々な情報が得られる画像を簡易に得ることができる超音波診断装置、画像処理装置及び画像処理プログラムを提供することである。   The problem to be solved by the present invention is to provide an ultrasonic diagnostic apparatus, an image processing apparatus, and an image processing program capable of easily obtaining an image from which various pieces of information of an imaging region can be obtained.

実施形態の超音波診断装置は、抽出部と、同定部と、合成部と、制御部とを備える。前記抽出部は、画像データ間の空間的な位置を対応付ける位置合わせ情報に基づいて位置合わせされた超音波画像データ及び他種医用画像データの一方の画像データである第1画像データの特定領域を抽し、他方の画像データである第2画像データから前記特定領域に対応する第2対応領域の位置を、第1の画像処理により抽出する。前記同定部は、他方の画像データである第2画像データにおける前記特定領域に対応する対応領域の位置を、前記位置合わせ情報を用いて前記第1の画像処理とは異なる第2の画像処理により求める。前記合成部は、前記対応領域の位置と前記第2対応領域の位置とが一致する場合、前記第2画像データの前記対応領域を、前記特定領域における前記第1画像データに基づいて変更した合成画像データを生成し、前記対応領域の位置と前記第2対応領域の位置とが一致しない場合、前記第2画像データの前記第2対応領域を、前記特定領域における前記第1画像データに基づいて変更した合成画像データを生成する。前記制御部は、前記合成画像データを表示部に表示させる。 The ultrasonic diagnostic apparatus according to the embodiment includes an extraction unit, an identification unit, a synthesis unit, and a control unit. The extraction unit extracts a specific region of the first image data that is one of the image data of the ultrasonic image data and the other types of medical image data that are aligned based on the alignment information that associates the spatial positions between the image data. and exits extracted, the position of the second corresponding region corresponding to the specific area from the second image data which is the other of the image data is extracted by the first image processing. The identification unit uses a second image process different from the first image process to position the corresponding area corresponding to the specific area in the second image data, which is the other image data, using the alignment information. Ask. The combining unit configured to change the corresponding area of the second image data based on the first image data in the specific area when the position of the corresponding area matches the position of the second corresponding area; When image data is generated and the position of the corresponding area does not match the position of the second corresponding area, the second corresponding area of the second image data is determined based on the first image data in the specific area. The modified composite image data is generated . The control unit causes the display unit to display the composite image data.

図1は、本実施形態に係る超音波診断装置の構成例を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration example of an ultrasonic diagnostic apparatus according to the present embodiment. 図2は、本実施形態に係る位置合わせ処理の一例を示す図である。FIG. 2 is a diagram illustrating an example of the alignment process according to the present embodiment. 図3は、本実施形態に係る画像処理部が行なう画像処理の概要を示す図である。FIG. 3 is a diagram showing an outline of image processing performed by the image processing unit according to the present embodiment. 図4は、本実施形態に係る画像処理の具体例を示す図(1)である。FIG. 4 is a diagram (1) illustrating a specific example of image processing according to the present embodiment. 図5は、本実施形態に係る画像処理の具体例を示す図(2)である。FIG. 5 is a diagram (2) illustrating a specific example of the image processing according to the present embodiment. 図6は、本実施形態に係る画像処理の具体例を示す図(3)である。FIG. 6 is a diagram (3) illustrating a specific example of the image processing according to the present embodiment. 図7は、本実施形態に係る画像処理の具体例を示す図(4)である。FIG. 7 is a diagram (4) illustrating a specific example of image processing according to the present embodiment. 図8は、本実施形態に係る制御部による表示形態の一例を説明するための図(1)である。FIG. 8 is a diagram (1) for explaining an example of a display form by the control unit according to the present embodiment. 図9は、本実施形態に係る制御部による表示形態の一例を説明するための図(2)である。FIG. 9 is a diagram (2) for explaining an example of a display form by the control unit according to the present embodiment. 図10は、本実施形態に係る超音波診断装置が行なう画像処理を説明するためのフローチャートである。FIG. 10 is a flowchart for explaining image processing performed by the ultrasonic diagnostic apparatus according to the present embodiment. 図11は、本実施形態に係る変形例を説明するための図である。FIG. 11 is a diagram for explaining a modification according to the present embodiment.

以下、添付図面を参照して、超音波診断装置の実施形態を詳細に説明する。   Hereinafter, embodiments of an ultrasonic diagnostic apparatus will be described in detail with reference to the accompanying drawings.

(実施形態)
まず、本実施形態に係る超音波診断装置の構成について説明する。図1は、本実施形態に係る超音波診断装置の構成例を示すブロック図である。図1に例示するように、本実施形態に係る超音波診断装置は、超音波プローブ1と、モニタ2と、入力装置3と、位置センサ4と、トランスミッター5と、装置本体10とを有する。また、装置本体10は、ネットワーク100を介して外部装置6と接続される。
(Embodiment)
First, the configuration of the ultrasonic diagnostic apparatus according to the present embodiment will be described. FIG. 1 is a block diagram illustrating a configuration example of an ultrasonic diagnostic apparatus according to the present embodiment. As illustrated in FIG. 1, the ultrasonic diagnostic apparatus according to the present embodiment includes an ultrasonic probe 1, a monitor 2, an input device 3, a position sensor 4, a transmitter 5, and an apparatus main body 10. The apparatus main body 10 is connected to the external apparatus 6 via the network 100.

超音波プローブ1は、複数の振動子を有し、これら複数の振動子は、後述する装置本体10が有する送受信部11から供給される駆動信号に基づき超音波を発生する。超音波プローブ1が有する振動子は、例えば、圧電振動子である。超音波プローブ1は、被検体Pからの反射波信号を受信して電気信号に変換する。また、超音波プローブ1は、圧電振動子に設けられる整合層と、圧電振動子から後方への超音波の伝播を防止するバッキング材等を有する。なお、超音波プローブ1は、装置本体10と着脱自在に接続される。   The ultrasonic probe 1 has a plurality of transducers, and the plurality of transducers generate ultrasonic waves based on a drive signal supplied from a transmission / reception unit 11 included in the apparatus main body 10 to be described later. The vibrator included in the ultrasonic probe 1 is, for example, a piezoelectric vibrator. The ultrasonic probe 1 receives a reflected wave signal from the subject P and converts it into an electrical signal. The ultrasonic probe 1 includes a matching layer provided in the piezoelectric vibrator, a backing material that prevents propagation of ultrasonic waves from the piezoelectric vibrator to the rear, and the like. The ultrasonic probe 1 is detachably connected to the apparatus main body 10.

超音波プローブ1から被検体Pに超音波が送信されると、送信された超音波は、被検体Pの体内組織における音響インピーダンスの不連続面で次々と反射され、反射波信号として超音波プローブ1が有する複数の圧電振動子にて受信される。受信される反射波信号の振幅は、超音波が反射される不連続面における音響インピーダンスの差に依存する。なお、送信された超音波パルスが、移動している血流や心臓壁等の表面で反射された場合の反射波信号は、ドプラ効果により、移動体の超音波送信方向に対する速度成分に依存して、周波数偏移を受ける。   When ultrasonic waves are transmitted from the ultrasonic probe 1 to the subject P, the transmitted ultrasonic waves are reflected one after another at the discontinuous surface of the acoustic impedance in the body tissue of the subject P, and the ultrasonic probe is used as a reflected wave signal. 1 is received by a plurality of piezoelectric vibrators. The amplitude of the received reflected wave signal depends on the difference in acoustic impedance at the discontinuous surface where the ultrasonic wave is reflected. Note that the reflected wave signal when the transmitted ultrasonic pulse is reflected by the moving blood flow or the surface of the heart wall depends on the velocity component of the moving object in the ultrasonic transmission direction due to the Doppler effect. And undergoes a frequency shift.

例えば、本実施形態では、被検体Pの2次元走査用に、複数の圧電振動子が一列で配置された1Dアレイプローブが超音波プローブ1として装置本体10と接続される。例えば、超音波プローブ1としての1Dアレイプローブは、セクタ走査を行なうセクタプローブや、オフセットセクタ走査を行なうコンベックスプローブ、リニア走査を行なうリニアプローブ等である。   For example, in the present embodiment, a 1D array probe in which a plurality of piezoelectric vibrators are arranged in a row is connected to the apparatus main body 10 as an ultrasonic probe 1 for two-dimensional scanning of the subject P. For example, the 1D array probe as the ultrasonic probe 1 is a sector probe that performs sector scanning, a convex probe that performs offset sector scanning, a linear probe that performs linear scanning, or the like.

或いは、例えば、本実施形態では、被検体Pの3次元走査用に、メカニカル4Dプローブや2Dアレイプローブが超音波プローブ1として装置本体10と接続されても良い。メカニカル4Dプローブは、1Dアレイプローブのように一列で配列された複数の圧電振動子を用いて2次元走査が可能であるとともに、複数の圧電振動子を所定の角度(揺動角度)で揺動させることで3次元走査が可能である。また、2Dアレイプローブは、マトリックス状に配置された複数の圧電振動子により3次元走査が可能であるとともに、超音波を集束して送信することで2次元走査が可能である。   Alternatively, for example, in this embodiment, a mechanical 4D probe or a 2D array probe may be connected to the apparatus main body 10 as the ultrasonic probe 1 for three-dimensional scanning of the subject P. The mechanical 4D probe is capable of two-dimensional scanning using a plurality of piezoelectric vibrators arranged in a line like a 1D array probe, and swings the plurality of piezoelectric vibrators at a predetermined angle (swing angle). By doing so, three-dimensional scanning is possible. The 2D array probe can be three-dimensionally scanned by a plurality of piezoelectric vibrators arranged in a matrix and can be two-dimensionally scanned by focusing and transmitting ultrasonic waves.

位置センサ4及びトランスミッター5は、超音波プローブ1の位置情報を取得するための装置である。例えば、位置センサ4は、超音波プローブ1に取り付けられる磁気センサである。また、例えば、トランスミッター5は、任意の位置に配置され、自装置を中心として外側に向かって磁場を形成する装置である。   The position sensor 4 and the transmitter 5 are devices for acquiring position information of the ultrasonic probe 1. For example, the position sensor 4 is a magnetic sensor attached to the ultrasonic probe 1. Further, for example, the transmitter 5 is a device that is arranged at an arbitrary position and that forms a magnetic field outward from the device itself.

位置センサ4は、トランスミッター5によって形成された3次元の磁場を検出する。そして、位置センサ4は、検出した磁場の情報に基づいて、トランスミッター5を原点とする空間における自装置の位置(座標及び角度)を算出し、算出した位置を装置本体10に送信する。ここで、位置センサ4は、自装置が位置する3次元の座標及び角度を、超音波プローブ1の3次元位置情報として、装置本体10に送信する。   The position sensor 4 detects a three-dimensional magnetic field formed by the transmitter 5. Then, the position sensor 4 calculates the position (coordinates and angle) of the device itself in the space with the transmitter 5 as the origin, based on the detected magnetic field information, and transmits the calculated position to the device body 10. Here, the position sensor 4 transmits the three-dimensional coordinates and angle at which the device itself is located to the apparatus body 10 as the three-dimensional position information of the ultrasonic probe 1.

なお、本実施形態は、位置センサ4及びトランスミッター5を用いた位置検出システム以外のシステムにより、超音波プローブ1の位置情報を取得する場合であっても適用可能である。例えば、本実施形態は、ジャイロセンサや加速度センサ等を用いて、超音波プローブ1の位置情報を取得する場合であっても良い。   Note that the present embodiment is applicable even when the position information of the ultrasonic probe 1 is acquired by a system other than the position detection system using the position sensor 4 and the transmitter 5. For example, this embodiment may be a case where the position information of the ultrasonic probe 1 is acquired using a gyro sensor, an acceleration sensor, or the like.

入力装置3は、後述するインターフェース部19を介して装置本体10と接続される。入力装置3は、マウス、キーボード、ボタン、パネルスイッチ、タッチコマンドスクリーン、フットスイッチ、トラックボール等を有する。かかる入力装置3は、超音波診断装置の操作者からの各種設定要求を受け付け、受け付けた各種設定要求を装置本体10に転送する。   The input device 3 is connected to the device main body 10 via an interface unit 19 described later. The input device 3 includes a mouse, a keyboard, a button, a panel switch, a touch command screen, a foot switch, a trackball, and the like. The input device 3 accepts various setting requests from the operator of the ultrasonic diagnostic apparatus and transfers the accepted various setting requests to the apparatus main body 10.

モニタ2は、超音波診断装置の操作者が入力装置3を用いて各種設定要求を入力するためのGUI(Graphical User Interface)を表示したり、装置本体10において生成された超音波画像データ等を表示したりする。   The monitor 2 displays a GUI (Graphical User Interface) for an operator of the ultrasonic diagnostic apparatus to input various setting requests using the input device 3, and displays ultrasonic image data generated in the apparatus main body 10. Or display.

外部装置6は、後述するインターフェース部19を介して装置本体10と接続される装置である。例えば、外部装置6は、各種の医用画像のデータを管理するシステムであるPACS(Picture Archiving and Communication System)のデータベースや、医用画像が添付された電子カルテを管理する電子カルテシステムのデータベース等である。或いは、外部装置6は、例えば、X線CT(Computed Tomography)装置、MRI(Magnetic Resonance Imaging)装置等、図1に示す超音波診断装置以外の各種医用画像診断装置である。   The external device 6 is a device connected to the device main body 10 via an interface unit 19 described later. For example, the external device 6 is a database of a PACS (Picture Archiving and Communication System) that is a system that manages data of various medical images, a database of an electronic medical record system that manages an electronic medical record to which medical images are attached, and the like. . Alternatively, the external apparatus 6 is various medical image diagnostic apparatuses other than the ultrasonic diagnostic apparatus shown in FIG. 1, such as an X-ray CT (Computed Tomography) apparatus and an MRI (Magnetic Resonance Imaging) apparatus.

例えば、図1に示す装置本体10は、DICOM(Digital Imaging and Communications in Medicine)に則った画像フォーマットに統一された各種医用画像のデータを、インターフェース部19を介して外部装置6から取得することができる。例えば、装置本体10は、後述するインターフェース部19を介して、自装置で生成した超音波画像データとの合成対象となる各種医用画像データ(例えば、2次元や3次元のX線CT画像データ、2次元や3次元のMRI画像データ等)を、外部装置6から取得する。   For example, the apparatus main body 10 shown in FIG. 1 can acquire various medical image data unified in an image format conforming to DICOM (Digital Imaging and Communications in Medicine) from the external apparatus 6 via the interface unit 19. it can. For example, the apparatus main body 10 receives various types of medical image data (for example, two-dimensional or three-dimensional X-ray CT image data, to be combined with ultrasonic image data generated by the own apparatus via an interface unit 19 described later. 2D or 3D MRI image data) is acquired from the external device 6.

装置本体10は、超音波プローブ1が受信した反射波信号に基づいて超音波画像データを生成する装置である。図1に示す装置本体10は、2次元の反射波信号に基づいて2次元の超音波画像データを生成可能であり、3次元の反射波信号に基づいて3次元の超音波画像データを生成可能な装置である。ただし、本実施形態は、装置本体10が、2次元データ専用の装置である場合であっても適用可能である。   The apparatus main body 10 is an apparatus that generates ultrasonic image data based on a reflected wave signal received by the ultrasonic probe 1. The apparatus main body 10 shown in FIG. 1 can generate two-dimensional ultrasound image data based on a two-dimensional reflected wave signal, and can generate three-dimensional ultrasound image data based on a three-dimensional reflected wave signal. Device. However, this embodiment is applicable even when the apparatus main body 10 is an apparatus dedicated to two-dimensional data.

装置本体10は、図1に示すように、送受信部11と、Bモード処理部12と、ドプラ処理部13と、画像生成部14と、画像メモリ15と、内部記憶部16と、画像処理部17と、制御部18と、インターフェース部19とを有する。   As shown in FIG. 1, the apparatus body 10 includes a transmission / reception unit 11, a B-mode processing unit 12, a Doppler processing unit 13, an image generation unit 14, an image memory 15, an internal storage unit 16, and an image processing unit. 17, a control unit 18, and an interface unit 19.

送受信部11は、後述する制御部18の指示に基づいて、超音波プローブ1が行なう超音波送受信を制御する。送受信部11は、パルス発生器、送信遅延部、パルサ等を有し、超音波プローブ1に駆動信号を供給する。パルス発生器は、所定のレート周波数で、送信超音波を形成するためのレートパルスを繰り返し発生する。また、送信遅延部は、超音波プローブ1から発生される超音波をビーム状に集束し、かつ送信指向性を決定するために必要な圧電振動子ごとの遅延時間を、パルス発生器が発生する各レートパルスに対し与える。また、パルサは、レートパルスに基づくタイミングで、超音波プローブ1に駆動信号(駆動パルス)を印加する。送信遅延部は、各レートパルスに対し与える遅延時間を変化させることで、圧電振動子面から送信される超音波の送信方向を任意に調整する。   The transmission / reception unit 11 controls ultrasonic transmission / reception performed by the ultrasonic probe 1 based on an instruction from the control unit 18 described later. The transmission / reception unit 11 includes a pulse generator, a transmission delay unit, a pulser, and the like, and supplies a drive signal to the ultrasonic probe 1. The pulse generator repeatedly generates rate pulses for forming transmission ultrasonic waves at a predetermined rate frequency. The transmission delay unit generates a delay time for each piezoelectric vibrator necessary for focusing the ultrasonic wave generated from the ultrasonic probe 1 into a beam and determining transmission directivity. Give for each rate pulse. The pulser applies a drive signal (drive pulse) to the ultrasonic probe 1 at a timing based on the rate pulse. The transmission delay unit arbitrarily adjusts the transmission direction of the ultrasonic wave transmitted from the piezoelectric vibrator surface by changing the delay time given to each rate pulse.

なお、送受信部11は、後述する制御部18の指示に基づいて、所定のスキャンシーケンスを実行するために、送信周波数、送信駆動電圧等を瞬時に変更可能な機能を有している。特に、送信駆動電圧の変更は、瞬間にその値を切り替え可能なリニアアンプ型の発信回路、又は、複数の電源ユニットを電気的に切り替える機構によって実現される。   The transmission / reception unit 11 has a function capable of instantaneously changing a transmission frequency, a transmission drive voltage, and the like in order to execute a predetermined scan sequence based on an instruction from the control unit 18 described later. In particular, the change of the transmission drive voltage is realized by a linear amplifier type transmission circuit capable of instantaneously switching the value or a mechanism for electrically switching a plurality of power supply units.

また、送受信部11は、プリアンプ、A/D(Analog/Digital)変換器、受信遅延部、加算器等を有し、超音波プローブ1が受信した反射波信号に対して各種処理を行なって反射波データを生成する。プリアンプは、反射波信号をチャネル毎に増幅する。A/D変換器は、増幅された反射波信号をA/D変換する。受信遅延部は、受信指向性を決定するために必要な遅延時間を与える。加算器は、受信遅延部によって処理された反射波信号の加算処理を行なって反射波データを生成する。加算器の加算処理により、反射波信号の受信指向性に応じた方向からの反射成分が強調され、受信指向性と送信指向性とにより超音波送受信の総合的なビームが形成される。   The transmission / reception unit 11 includes a preamplifier, an A / D (Analog / Digital) converter, a reception delay unit, an adder, and the like. The transmission / reception unit 11 performs various processing on the reflected wave signal received by the ultrasonic probe 1 and reflects it. Generate wave data. The preamplifier amplifies the reflected wave signal for each channel. The A / D converter A / D converts the amplified reflected wave signal. The reception delay unit gives a delay time necessary for determining the reception directivity. The adder performs an addition process on the reflected wave signal processed by the reception delay unit to generate reflected wave data. By the addition processing of the adder, the reflection component from the direction corresponding to the reception directivity of the reflected wave signal is emphasized, and a comprehensive beam for ultrasonic transmission / reception is formed by the reception directivity and the transmission directivity.

送受信部11は、被検体Pを2次元走査する場合、超音波プローブ1から2次元の超音波ビームを送信させる。そして、送受信部11は、超音波プローブ1が受信した2次元の反射波信号から2次元の反射波データを生成する。また、送受信部11は、被検体Pを3次元走査する場合、超音波プローブ1から3次元の超音波ビームを送信させる。そして、送受信部11は、超音波プローブ1が受信した3次元の反射波信号から3次元の反射波データを生成する。   The transmitter / receiver 11 transmits a two-dimensional ultrasonic beam from the ultrasonic probe 1 when the subject P is two-dimensionally scanned. Then, the transmission / reception unit 11 generates two-dimensional reflected wave data from the two-dimensional reflected wave signal received by the ultrasonic probe 1. Further, when the subject P is three-dimensionally scanned, the transmission / reception unit 11 transmits a three-dimensional ultrasonic beam from the ultrasonic probe 1. Then, the transmission / reception unit 11 generates three-dimensional reflected wave data from the three-dimensional reflected wave signal received by the ultrasonic probe 1.

なお、送受信部11からの出力信号の形態は、RF(Radio Frequency)信号と呼ばれる位相情報が含まれる信号である場合や、包絡線検波処理後の振幅情報である場合等、種々の形態が選択可能である。   The form of the output signal from the transmission / reception unit 11 can be selected from various forms such as a signal including phase information called an RF (Radio Frequency) signal or amplitude information after envelope detection processing. Is possible.

Bモード処理部12及びドプラ処理部13は、送受信部11が反射波信号から生成した反射波データに対して、各種の信号処理を行なう信号処理部である。Bモード処理部12は、送受信部11から反射波データを受信し、対数増幅、包絡線検波処理等を行なって、信号強度が輝度の明るさで表現されるデータ(Bモードデータ)を生成する。また、ドプラ処理部13は、送受信部11から受信した反射波データから速度情報を周波数解析し、ドプラ効果による速度、分散、パワー等の移動体情報を多点について抽出したデータ(ドプラデータ)を生成する。ここで、移動体とは、例えば、血流や、心壁等の組織、造影剤である。移動体として血流を対象とする場合、移動体情報は、血流が存在する領域の各サンプル点における速度、分散、パワー等の情報を示す血流情報となる。   The B-mode processing unit 12 and the Doppler processing unit 13 are signal processing units that perform various types of signal processing on the reflected wave data generated from the reflected wave signal by the transmission / reception unit 11. The B-mode processing unit 12 receives the reflected wave data from the transmission / reception unit 11, performs logarithmic amplification, envelope detection processing, and the like, and generates data (B-mode data) in which the signal intensity is expressed by brightness. . Further, the Doppler processing unit 13 performs frequency analysis on velocity information from the reflected wave data received from the transmission / reception unit 11 and extracts data (Doppler data) obtained by extracting moving body information such as velocity, dispersion, and power due to the Doppler effect at multiple points. Generate. Here, the moving body is, for example, a blood flow, a tissue such as a heart wall, or a contrast agent. When blood flow is targeted as a moving body, the moving body information becomes blood flow information indicating information such as speed, dispersion, and power at each sample point in a region where blood flow exists.

なお、図1に例示するBモード処理部12及びドプラ処理部13は、2次元の反射波データ及び3次元の反射波データの両方について処理可能である。すなわち、Bモード処理部12は、2次元の反射波データから2次元のBモードデータを生成し、3次元の反射波データから3次元のBモードデータを生成する。また、ドプラ処理部13は、2次元の反射波データから2次元のドプラデータを生成し、3次元の反射波データから3次元のドプラデータを生成する。   Note that the B-mode processing unit 12 and the Doppler processing unit 13 illustrated in FIG. 1 can process both two-dimensional reflected wave data and three-dimensional reflected wave data. That is, the B-mode processing unit 12 generates two-dimensional B-mode data from the two-dimensional reflected wave data, and generates three-dimensional B-mode data from the three-dimensional reflected wave data. The Doppler processing unit 13 generates two-dimensional Doppler data from the two-dimensional reflected wave data, and generates three-dimensional Doppler data from the three-dimensional reflected wave data.

画像生成部14は、Bモード処理部12及びドプラ処理部13が生成したデータから超音波画像データを生成する。すなわち、画像生成部14は、Bモード処理部12が生成した2次元のBモードデータから反射波の強度を輝度で表した2次元Bモード画像データを生成する。また、画像生成部14は、ドプラ処理部13が生成した2次元のドプラデータから移動体情報を表す2次元ドプラ画像データを生成する。2次元ドプラ画像データは、速度画像データ、分散画像データ、パワー画像データ、又は、これらを組み合わせた画像データである。   The image generation unit 14 generates ultrasonic image data from the data generated by the B mode processing unit 12 and the Doppler processing unit 13. That is, the image generation unit 14 generates two-dimensional B-mode image data in which the intensity of the reflected wave is expressed by luminance from the two-dimensional B-mode data generated by the B-mode processing unit 12. Further, the image generation unit 14 generates two-dimensional Doppler image data representing moving body information from the two-dimensional Doppler data generated by the Doppler processing unit 13. The two-dimensional Doppler image data is velocity image data, distributed image data, power image data, or image data obtained by combining these.

ここで、画像生成部14は、一般的には、超音波走査の走査線信号列を、テレビ等に代表されるビデオフォーマットの走査線信号列に変換(スキャンコンバート)し、表示用の超音波画像データを生成する。具体的には、画像生成部14は、超音波プローブ1による超音波の走査形態に応じて座標変換を行なうことで、表示用の超音波画像データを生成する。また、画像生成部14は、スキャンコンバート以外に種々の画像処理として、例えば、スキャンコンバート後の複数の画像フレームを用いて、輝度の平均値画像を再生成する画像処理(平滑化処理)や、画像内で微分フィルタを用いる画像処理(エッジ強調処理)等を行なう。また、画像生成部14は、超音波画像データに、付帯情報(種々のパラメータの文字情報、目盛り、ボディマーク等)を合成する。   Here, the image generation unit 14 generally converts (scan converts) a scanning line signal sequence of ultrasonic scanning into a scanning line signal sequence of a video format represented by a television or the like, and displays ultrasonic waves for display. Generate image data. Specifically, the image generation unit 14 generates ultrasonic image data for display by performing coordinate conversion in accordance with the ultrasonic scanning mode of the ultrasonic probe 1. In addition to the scan conversion, the image generation unit 14 performs various image processing, such as image processing (smoothing processing) for regenerating an average luminance image using a plurality of image frames after scan conversion, Image processing (edge enhancement processing) using a differential filter is performed in the image. Further, the image generation unit 14 synthesizes incidental information (character information of various parameters, scales, body marks, etc.) with the ultrasonic image data.

すなわち、Bモードデータ及びドプラデータは、スキャンコンバート処理前の超音波画像データであり、画像生成部14が生成するデータは、スキャンコンバート処理後の表示用の超音波画像データである。なお、Bモードデータ及びドプラデータは、生データ(Raw Data)とも呼ばれる。画像生成部14は、スキャンコンバート処理前の2次元超音波画像データである「2次元Bモードデータや2次元ドプラデータ」から、表示用の2次元超音波画像データである「2次元のBモード画像データや2次元ドプラ画像データ」を生成する。   That is, the B-mode data and Doppler data are ultrasonic image data before the scan conversion process, and the data generated by the image generation unit 14 is display ultrasonic image data after the scan conversion process. The B-mode data and the Doppler data are also called raw data (Raw Data). The image generation unit 14 generates “two-dimensional B-mode” that is two-dimensional ultrasonic image data for display from “two-dimensional B-mode data or two-dimensional Doppler data” that is two-dimensional ultrasonic image data before scan conversion processing. Image data and 2D Doppler image data "are generated.

更に、画像生成部14は、Bモード処理部12が生成した3次元のBモードデータに対して座標変換を行なうことで、3次元Bモード画像データを生成する。また、画像生成部14は、ドプラ処理部13が生成した3次元のドプラデータに対して座標変換を行なうことで、3次元ドプラ画像データを生成する。画像生成部14は、「3次元のBモード画像データや3次元ドプラ画像データ」を「3次元超音波画像データ(超音波ボリュームデータ)」として生成する。   Further, the image generation unit 14 generates three-dimensional B-mode image data by performing coordinate conversion on the three-dimensional B-mode data generated by the B-mode processing unit 12. Further, the image generation unit 14 generates three-dimensional Doppler image data by performing coordinate conversion on the three-dimensional Doppler data generated by the Doppler processing unit 13. The image generation unit 14 generates “3D B-mode image data or 3D Doppler image data” as “3D ultrasound image data (ultrasound volume data)”.

更に、画像生成部14は、ボリュームデータをモニタ2にて表示するための各種2次元画像データを生成するために、ボリュームデータに対してレンダリング処理を行なう。画像生成部14が行なうレンダリング処理としては、例えば、断面再構成法(MPR:Multi Planer Reconstruction)を行なってボリュームデータからMPR画像データを生成する処理がある。また、画像生成部14が行なうレンダリング処理としては、例えば、3次元の情報を反映した2次元画像データを生成するボリュームレンダリング(VR:Volume Rendering)処理がある。   Further, the image generation unit 14 performs a rendering process on the volume data in order to generate various two-dimensional image data for displaying the volume data on the monitor 2. The rendering process performed by the image generation unit 14 includes, for example, a process of generating MPR image data from volume data by performing a multi-planar reconstruction (MPR). The rendering processing performed by the image generation unit 14 includes, for example, volume rendering (VR) processing that generates two-dimensional image data reflecting three-dimensional information.

更に、画像生成部14は、他の医用画像診断装置が撮像したボリュームデータに対して、上記のレンダリング処理を行なうことができる。かかるボリュームデータは、X線CT装置により撮像された3次元のX線CT画像データ(以下、X線CTボリュームデータ)や、MRI装置により撮像された3次元のMRI画像データ(以下、MRIボリュームデータ)である。   Further, the image generation unit 14 can perform the above-described rendering processing on volume data captured by another medical image diagnostic apparatus. Such volume data includes three-dimensional X-ray CT image data (hereinafter referred to as X-ray CT volume data) captured by an X-ray CT apparatus, and three-dimensional MRI image data (hereinafter referred to as MRI volume data) captured by an MRI apparatus. ).

なお、本実施形態に係る超音波診断装置は、上述したBモード及びドプラモード以外にも、様々なモードで、様々な情報を提供可能な超音波画像データを生成表示することができる。例えば、本実施形態に係る超音波診断装置は、エラストグラフィーイメージングを行なう。エラストモードでは、画像生成部14は、ドプラ処理部13が信号処理を行なった反射波データ(反射波信号)から、組織の硬さを示す指標(弾性率)を画像化した画像データ(弾性画像データ)を生成する。例えば、エラストモードでは、操作者は、超音波送受信を行なっている超音波プローブ1の振動子面で生体組織を圧迫して開放する。これにより、組織が変形し、組織に動きが発生する。組織の動きに関する情報は、反射波信号(反射波データ)の位相のずれとして現われる。   Note that the ultrasound diagnostic apparatus according to the present embodiment can generate and display ultrasound image data that can provide various information in various modes other than the B mode and the Doppler mode described above. For example, the ultrasonic diagnostic apparatus according to the present embodiment performs elastography imaging. In the elast mode, the image generating unit 14 images image data (elastic image) obtained by imaging an index (elastic modulus) indicating tissue hardness from reflected wave data (reflected wave signal) subjected to signal processing by the Doppler processing unit 13. Data). For example, in the elast mode, the operator presses and releases the living tissue with the transducer surface of the ultrasonic probe 1 performing ultrasonic transmission / reception. Thereby, the tissue is deformed and movement occurs in the tissue. Information regarding the movement of the tissue appears as a phase shift of the reflected wave signal (reflected wave data).

エラストモードでは、例えば、ドプラ処理部13は、反射波データの位相のずれから、速度情報を算出し、速度情報の時間積分である変位を計測する。そして、ドプラ処理部13は、変位を空間的に微分することで、歪み(ストレイン)を算出する。なお、変位を計測する方法としては、「自己相関法」や、「相互相関法」、「複合自己相関法」、「ゼロ位相法」等がある。硬い生体組織ほど変形しにくいので、硬い生体組織のストレイン値は小さくなり、軟らかい生体組織のストレイン値は大きくなる。すなわち、ストレインの値は、組織の硬さ(弾性率)を示す指標値となる。画像生成部14は、ドプラ処理部13が算出した多点のストレインの値の大きさに応じて、色調を変化させた弾性画像データを生成する。なお、画像生成部14は、ストレインの値の大きさに応じて、色調を変化させた画素を、Bモード画像データに重畳した画像データを、弾性画像データとして生成しても良い。   In the elast mode, for example, the Doppler processing unit 13 calculates speed information from the phase shift of the reflected wave data, and measures a displacement that is a time integration of the speed information. Then, the Doppler processing unit 13 calculates strain (strain) by spatially differentiating the displacement. As a method for measuring the displacement, there are “autocorrelation method”, “cross-correlation method”, “composite autocorrelation method”, “zero phase method” and the like. Since a hard biological tissue is less likely to be deformed, the strain value of the hard biological tissue becomes smaller and the strain value of the soft biological tissue becomes larger. That is, the strain value is an index value indicating the hardness (elastic modulus) of the tissue. The image generation unit 14 generates elastic image data whose color tone is changed according to the magnitude of the multi-point strain value calculated by the Doppler processing unit 13. Note that the image generation unit 14 may generate, as elastic image data, image data in which pixels whose color tone is changed are superimposed on B-mode image data according to the magnitude of the strain value.

なお、エラストモードでは、超音波プローブ1による圧迫及び開放で組織を変形させる方法の他に、超音波プローブ1から送信した高音圧の「Push Pulse」により組織を変形させ、組織を伝搬する横波であるせん断波(Shear Wave)を形成し、更に、せん断波の伝搬速度等に基づいて、組織弾性を評価する方法もある。また、エラストモードでは、せん断波を形成する方法や、用手的に組織を圧迫解放する方法の他に、例えば、拍動や横隔膜の移動によって引き起こされる組織変形を検出して弾性率を算出する方法もある。また、弾性画像データは、Bモード処理部12が信号処理を行なった反射波データ(反射波信号)から生成される場合もある。例えば、弾性画像データは、時系列に沿って生成された複数のBモード画像データ(又は、Bモードデータ)を用いたスペックルトラッキング処理により、複数の追跡点を追跡した結果から多点の変位及び歪みを算出することで、生成することもできる。   In the elast mode, in addition to the method of deforming the tissue by compression and release by the ultrasonic probe 1, the tissue is deformed by “Push Pulse” of high sound pressure transmitted from the ultrasonic probe 1, and a transverse wave propagating through the tissue is used. There is also a method for forming a certain shear wave and evaluating tissue elasticity based on the propagation speed of the shear wave. In the elast mode, in addition to a method of forming a shear wave and a method of manually compressing and releasing the tissue, for example, the elastic modulus is calculated by detecting tissue deformation caused by pulsation or movement of the diaphragm. There is also a method. The elastic image data may be generated from reflected wave data (reflected wave signal) that has been subjected to signal processing by the B-mode processing unit 12. For example, the elasticity image data is a multi-point displacement from the result of tracking a plurality of tracking points by speckle tracking processing using a plurality of B-mode image data (or B-mode data) generated along a time series. It can also be generated by calculating the distortion.

また、例えば、本実施形態に係る超音波診断装置は、コントラストハーモニックイメージング(CHI:Contrast Harmonic Imaging)や、ティッシュハーモニックイメージング(THI:Tissue Harmonic Imaging)等のハーモニックイメージングを行なう。例えば、図1に示すBモード処理部12は、フィルタ処理により、検波周波数を変化させることで、映像化する周波数帯域を変えることができる。Bモード処理部12は、造影剤が注入された被検体Pの反射波データから、造影剤(微小気泡、バブル)を反射源とするハーモニック成分の反射波データ(高調波データ)と、被検体P内の組織を反射源とする基本波成分の反射波データ(基本波データ)とを分離することができる。CHIモードでは、Bモード処理部12は、ハーモニック成分の反射波データから、造影超音波画像データを生成するためのBモードデータを生成することができる。また、このBモード処理部12のフィルタ処理機能を用いることにより、THIモードにおいて、被検体Pの反射波データから、ハーモニック成分の反射波データである高調波データを分離することができる。そして、Bモード処理部12は、ハーモニック成分の反射波データから、サイドローブ成分等のノイズ成分を除去した超音波画像データを生成するためのBモードデータを生成することができる。   In addition, for example, the ultrasonic diagnostic apparatus according to the present embodiment performs harmonic imaging such as contrast harmonic imaging (CHI) and tissue harmonic imaging (THI). For example, the B-mode processing unit 12 shown in FIG. 1 can change the frequency band to be visualized by changing the detection frequency by filtering. The B-mode processing unit 12 generates reflected wave data (harmonic data) of harmonic components using a contrast agent (microbubbles, bubbles) as a reflection source from the reflected wave data of the subject P into which the contrast agent has been injected, and the subject. The reflected wave data (fundamental wave data) of the fundamental wave component using the tissue in P as a reflection source can be separated. In the CHI mode, the B-mode processing unit 12 can generate B-mode data for generating contrast ultrasound image data from the reflected wave data of the harmonic component. In addition, by using the filter processing function of the B-mode processing unit 12, harmonic data that is reflected wave data of harmonic components can be separated from reflected wave data of the subject P in the THI mode. The B-mode processing unit 12 can generate B-mode data for generating ultrasonic image data in which noise components such as side lobe components are removed from the reflected wave data of harmonic components.

また、CHIモードやTHIモードを行なう際、Bモード処理部12は、上述したフィルタ処理を用いた方法とは異なる方法により、ハーモニック成分を抽出することができる。ハーモニックイメージングでは、振幅変調(AM:Amplitude Modulation)法や位相変調(PM:Phase Modulation)法、AM法及びPM法を組み合わせたAMPM法と呼ばれる映像法が行なわれる。AM法、PM法及びAMPM法では、同一の走査線に対して振幅や位相が異なる超音波送信を複数回行なう。これにより、送受信部11は、各走査線で複数の反射波データを生成し出力する。そして、Bモード処理部12は、各走査線の複数の反射波データを、変調法に応じた加減算処理することで、ハーモニック成分を抽出する。そして、Bモード処理部12は、ハーモニック成分の反射波データに対して包絡線検波処理等を行なって、Bモードデータを生成する。   Further, when performing the CHI mode or the THI mode, the B-mode processing unit 12 can extract the harmonic component by a method different from the method using the filter processing described above. In harmonic imaging, an imaging method called an AMPM method combining an amplitude modulation (AM) method, a phase modulation (PM) method, an AM method, and a PM method is performed. In the AM method, PM method, and AMPM method, ultrasonic transmission with different amplitudes and phases is performed a plurality of times for the same scanning line. Thereby, the transmission / reception unit 11 generates and outputs a plurality of reflected wave data in each scanning line. Then, the B-mode processing unit 12 extracts a harmonic component by performing addition / subtraction processing on the plurality of reflected wave data of each scanning line according to the modulation method. Then, the B-mode processing unit 12 performs envelope detection processing or the like on the reflected wave data of the harmonic component, and generates B-mode data.

例えば、PM法が行なわれる場合、送受信部11は、制御部18が設定したスキャンシーケンスにより、例えば(−1,1)のように、位相極性を反転させた同一振幅の超音波を、各走査線で2回送信させる。そして、送受信部11は、「−1」の送信による受信信号と、「1」の送信による受信信号とを生成し、Bモード処理部12は、これら2つの受信信号を加算する。これにより、基本波成分が除去され、2次高調波成分が主に残存した信号が生成される。そして、Bモード処理部12は、この信号に対して包絡線検波処理等を行なって、THIのBモードデータやCHIのBモードデータを生成する。上述した様々なCHIモードで生成されたBモードデータは、画像生成部14の処理により、被検体Pの撮影部位で流動する造影剤(すなわち、血流)が存在する領域を映像化した超音波造影画像データとなる。   For example, when the PM method is performed, the transmission / reception unit 11 scans each scan with ultrasonic waves having the same amplitude with the phase polarity reversed, for example (−1, 1), according to the scan sequence set by the control unit 18. Send twice on the line. Then, the transmission / reception unit 11 generates a reception signal by transmission of “−1” and a reception signal by transmission of “1”, and the B-mode processing unit 12 adds these two reception signals. Thereby, the fundamental wave component is removed, and a signal in which the second harmonic component mainly remains is generated. The B-mode processing unit 12 performs envelope detection processing or the like on the signal to generate THI B-mode data or CHI B-mode data. The B-mode data generated in the various CHI modes described above is an ultrasonic image obtained by imaging the region where the contrast agent (that is, blood flow) flowing in the imaging region of the subject P exists by the processing of the image generation unit 14. It becomes contrast image data.

なお、上述した各種モードはあくまでも一例であり、本実施形態に係る超音波診断装置は、その他、公知の様々なモードでの2次元イメージング、又は、3次元イメージング処を、実行可能である。   The various modes described above are merely examples, and the ultrasonic diagnostic apparatus according to the present embodiment can execute other two-dimensional imaging or three-dimensional imaging processes in various known modes.

画像メモリ15は、画像生成部14が生成した表示用の画像データを記憶するメモリである。また、画像メモリ15は、Bモード処理部12やドプラ処理部13が生成したデータを記憶することも可能である。画像メモリ15が記憶するBモードデータやドプラデータは、例えば、診断の後に操作者が呼び出すことが可能となっており、画像生成部14を経由して表示用の超音波画像データとなる。なお、画像メモリ15は、後述する画像処理部17が生成した画像データも記憶する。   The image memory 15 is a memory for storing image data for display generated by the image generation unit 14. The image memory 15 can also store data generated by the B-mode processing unit 12 and the Doppler processing unit 13. The B-mode data and Doppler data stored in the image memory 15 can be called by an operator after diagnosis, for example, and become ultrasonic image data for display via the image generation unit 14. The image memory 15 also stores image data generated by an image processing unit 17 described later.

内部記憶部16は、超音波送受信、画像処理及び表示処理を行なうための制御プログラムや、診断情報(例えば、患者ID、医師の所見等)や、診断プロトコルや各種ボディマーク等の各種データを記憶する。また、内部記憶部16は、必要に応じて、画像メモリ15が記憶する画像データの保管等にも使用される。また、内部記憶部16が記憶するデータは、後述するインターフェース部19を経由して、外部装置6へ転送することができる。   The internal storage unit 16 stores a control program for performing ultrasonic transmission / reception, image processing and display processing, diagnostic information (for example, patient ID, doctor's findings, etc.), various data such as a diagnostic protocol and various body marks. To do. The internal storage unit 16 is also used for storing image data stored in the image memory 15 as necessary. In addition, data stored in the internal storage unit 16 can be transferred to the external device 6 via an interface unit 19 described later.

画像処理部17は、画像診断支援のために設置される。本実施形態に係る画像処理部17は、図1に示すように、抽出部171、同定部172及び合成部173を有し、画像生成部14が生成した超音波画像データと、外部装置6から取得した他種医用画像データとを用いた画像処理を行なう。具体的には、本実施形態に係る画像処理部17は、画像データ間の空間的な位置を対応付ける位置合わせ情報に基づいて位置合わせされた超音波画像データ及び他種医用画像データを用いた画像合成処理を行なう。なお、画像処理部17が実行する処理については、後に詳述する。   The image processing unit 17 is installed for image diagnosis support. As illustrated in FIG. 1, the image processing unit 17 according to the present embodiment includes an extraction unit 171, an identification unit 172, and a synthesis unit 173, and includes ultrasonic image data generated by the image generation unit 14 and an external device 6. Image processing using the acquired other kinds of medical image data is performed. Specifically, the image processing unit 17 according to the present embodiment uses ultrasonic image data and other types of medical image data that are aligned based on alignment information that associates spatial positions between image data. Perform synthesis processing. The processing executed by the image processing unit 17 will be described in detail later.

制御部18は、超音波診断装置の処理全体を制御する。具体的には、制御部18は、入力装置3を介して操作者から入力された各種設定情報や、内部記憶部16から読込んだ各種制御プログラム及び各種データに基づき、送受信部11、Bモード処理部12、ドプラ処理部13、画像生成部14及び画像処理部17の処理を制御する。また、制御部18は、画像メモリ15や内部記憶部16が記憶する表示用の画像データをモニタ2にて表示するように制御する。また、制御部18は、操作者から入力装置3を介して受け付けた医用画像データが外部装置6からネットワーク100及びインターフェース部19を介して内部記憶部16や画像メモリ15、或いは、画像処理部17に転送されるように制御する。   The control unit 18 controls the entire processing of the ultrasonic diagnostic apparatus. Specifically, the control unit 18 is based on various setting information input from the operator via the input device 3, various control programs and various data read from the internal storage unit 16, and the transmission / reception unit 11, B mode Controls the processing of the processing unit 12, Doppler processing unit 13, image generation unit 14, and image processing unit 17. Further, the control unit 18 controls the monitor 2 to display the display image data stored in the image memory 15 or the internal storage unit 16. Further, the control unit 18 receives medical image data received from the operator via the input device 3 from the external device 6 via the network 100 and the interface unit 19, the internal storage unit 16, the image memory 15, or the image processing unit 17. To be transferred to.

インターフェース部19は、入力装置3、ネットワーク100及び外部装置6に対するインターフェースである。入力装置3が受け付けた操作者からの各種設定情報及び各種指示は、インターフェース部19により、制御部18に転送される。例えば、入力装置3が操作者から受け付けた画像データの転送要求は、インターフェース部19により、ネットワーク100を介して外部装置6に通知される。また、外部装置6が転送した画像データは、インターフェース部19により、内部記憶部16や画像メモリ15、或いは、画像処理部17に格納される。   The interface unit 19 is an interface for the input device 3, the network 100, and the external device 6. Various setting information and various instructions from the operator received by the input device 3 are transferred to the control unit 18 by the interface unit 19. For example, a transfer request for image data received by the input device 3 from the operator is notified to the external device 6 via the network 100 by the interface unit 19. The image data transferred by the external device 6 is stored in the internal storage unit 16, the image memory 15, or the image processing unit 17 by the interface unit 19.

以上、本実施形態に係る超音波診断装置の全体構成について説明した。かかる構成において、本実施形態に係る超音波診断装置は、以下に説明する画像処理部17により、撮影部位の様々な情報が得られる画像を簡易に得るための処理を行なう。   The overall configuration of the ultrasonic diagnostic apparatus according to this embodiment has been described above. In such a configuration, the ultrasonic diagnostic apparatus according to the present embodiment performs processing for easily obtaining an image from which various pieces of information on the imaging region can be obtained by the image processing unit 17 described below.

ここで、上述したように、本実施形態に係る画像処理部17は、画像データ間の空間的な位置を対応付ける位置合わせ情報に基づいて位置合わせされた超音波画像データ及び他種医用画像データを用いた画像合成処理を行なう。以下、画像データ間の空間的な位置を対応付ける位置合わせ処理の一例を、図2を用いて説明した後に、画像処理部17が行なう処理について説明する。図2は、本実施形態に係る位置合わせ処理の一例を示す図である。本実施形態では、一例として、図1及び図2に示す位置センサ4及びトランスミッター5で構成される位置検出システムを用いた制御部18の処理により、画像データ間の空間的な位置を対応付ける位置合わせが行われる。   Here, as described above, the image processing unit 17 according to the present embodiment receives the ultrasonic image data and other types of medical image data that are aligned based on the alignment information that associates the spatial positions between the image data. The used image composition processing is performed. Hereinafter, an example of the alignment process for associating the spatial positions between the image data will be described with reference to FIG. FIG. 2 is a diagram illustrating an example of the alignment process according to the present embodiment. In the present embodiment, as an example, alignment by which a spatial position between image data is associated by the processing of the control unit 18 using the position detection system including the position sensor 4 and the transmitter 5 illustrated in FIGS. 1 and 2. Is done.

例えば、操作者は、超音波プローブ1を用いて被検体Pの超音波検査を行なう前に、被検体Pの撮影部位(検査部位)を撮影したX線CTボリュームデータ101(図2を参照)の転送要求を行なう。図2に示すX線CTボリュームデータ101は、例えば、被検体Pの撮像部位を含む3次元領域を撮影したデータであり、例えば、500枚のアキシャル面のX線CT画像データで構成される。制御部18の制御により、モニタ2は、これら複数のアキシャル面のX線CT画像データの1つを表示する。そして、操作者は、被検体Pの撮影部位におけるアキシャル面を走査するように、超音波プローブ1を被検体Pの体表に垂直方向に当接し、入力装置3が有するセットボタンを押下する。制御部18は、ボタンが押下された時点で位置センサ4から取得した超音波プローブ1の3次元位置情報を初期位置情報として、取得する。また、モニタ2は、図2に示すように、セットボタンが押下された時点で、画像生成部14が生成した超音波画像データ200を表示する。   For example, the operator obtains X-ray CT volume data 101 (see FIG. 2) obtained by imaging an imaging region (examination region) of the subject P before performing an ultrasound examination of the subject P using the ultrasound probe 1. A transfer request is made. The X-ray CT volume data 101 shown in FIG. 2 is, for example, data obtained by imaging a three-dimensional region including the imaging region of the subject P, and is composed of, for example, 500 axial X-ray CT image data. Under the control of the control unit 18, the monitor 2 displays one of the X-ray CT image data of the plurality of axial surfaces. Then, the operator presses the set button of the input device 3 by bringing the ultrasonic probe 1 into contact with the body surface of the subject P in the vertical direction so as to scan the axial surface of the imaging region of the subject P. The control unit 18 acquires, as initial position information, the three-dimensional position information of the ultrasonic probe 1 acquired from the position sensor 4 when the button is pressed. As shown in FIG. 2, the monitor 2 displays the ultrasonic image data 200 generated by the image generation unit 14 when the set button is pressed.

そして、操作者は、超音波画像データ200と略同一断面のX線CT画像データがモニタ2に表示されるように、例えば、入力装置3のマウス等を操作する。そして、操作者は、超音波画像データ200と、略同一断面(同一アキシャル面)のX線CT画像データ102が表示された時点で、再度、セットボタンを押下する。これにより、制御部18は、X線CTボリュームデータ101において、初期位置情報で示される超音波プローブ1の走査断面と略同一断面の位置を取得する。この段階で、超音波プローブ1の位置が操作者により移動された場合でも、位置センサ4から取得した超音波プローブ1の3次元位置情報から、制御部18は、超音波プローブ1の走査断面と同一断面をX線CTボリュームデータ101において特定することが可能になる。   Then, the operator operates, for example, the mouse of the input device 3 so that X-ray CT image data having substantially the same cross section as the ultrasound image data 200 is displayed on the monitor 2. Then, when the ultrasound image data 200 and the X-ray CT image data 102 having substantially the same cross section (same axial plane) are displayed, the operator presses the set button again. Thereby, the control unit 18 acquires the position of the substantially same cross section as the scanning cross section of the ultrasonic probe 1 indicated by the initial position information in the X-ray CT volume data 101. At this stage, even when the position of the ultrasonic probe 1 is moved by the operator, the control unit 18 determines the scanning cross section of the ultrasonic probe 1 from the three-dimensional position information of the ultrasonic probe 1 acquired from the position sensor 4. The same cross section can be specified in the X-ray CT volume data 101.

更に、操作者は、X線CT画像データ102及び超音波画像データ200それぞれで対応する特徴点を、少なくとも1組指定する。制御部18は、X線CT画像データ102で指定された特徴点の位置と、超音波画像データ200で指定された特徴点の位置とを用いて、超音波画像データ200の各点の座標を、X線CT画像データ102(X線CTボリュームデータ101)で対応する各点の座標に変換するための変換行列を算出する。これにより、制御部18は、超音波プローブ1の位置が操作者により移動された場合でも、位置センサ4から取得した超音波プローブ1の3次元位置情報から、超音波プローブ1の走査断面と同一断面をX線CTボリュームデータ101で特定し、更に、特定した断面内で、超音波プローブ1の走査により生成された超音波画像データの各座標に対応する座標を、変換行列を用いて算出することができる。   Further, the operator designates at least one set of feature points corresponding to each of the X-ray CT image data 102 and the ultrasonic image data 200. The control unit 18 uses the position of the feature point specified by the X-ray CT image data 102 and the position of the feature point specified by the ultrasound image data 200 to determine the coordinates of each point of the ultrasound image data 200. Then, a conversion matrix for converting into the coordinates of each corresponding point in the X-ray CT image data 102 (X-ray CT volume data 101) is calculated. Thereby, even when the position of the ultrasonic probe 1 is moved by the operator, the control unit 18 uses the same three-dimensional position information of the ultrasonic probe 1 acquired from the position sensor 4 as the scanning section of the ultrasonic probe 1. A cross section is specified by the X-ray CT volume data 101, and further, coordinates corresponding to each coordinate of ultrasonic image data generated by scanning the ultrasonic probe 1 within the specified cross section are calculated using a transformation matrix. be able to.

制御部18は、変換行列を用いて取得した位置合わせ情報を画像生成部14に通知する。画像生成部14は、かかる位置合わせ情報を用いて、現時点で走査され生成された超音波画像データと位置合わせされたX線CT画像データ(MPR画像データ)を、X線CTボリュームデータ101から生成する。なお、上記の位置合わせ処理は、超音波プローブ1により3次元走査が行われる場合でも適用可能である、かかる場合、制御部18は、現時点で走査され生成された超音波ボリュームデータとほぼ一致する3次元領域をX線CTボリュームデータ101から特定し、特定した3次元領域内の各位置が、超音波ボリュームデータでどの位置に対応するかを示す位置合わせ情報を取得する。また、上記の位置合わせ処理は、他種医用画像データが、MRI画像データ(MRIボリュームデータ)であっても適用可能である。   The control unit 18 notifies the image generation unit 14 of the alignment information acquired using the transformation matrix. The image generation unit 14 generates, from the X-ray CT volume data 101, X-ray CT image data (MPR image data) aligned with the ultrasonic image data scanned and generated at this time using the alignment information. To do. Note that the above alignment process can be applied even when three-dimensional scanning is performed by the ultrasonic probe 1. In such a case, the control unit 18 substantially matches the ultrasonic volume data scanned and generated at the present time. A three-dimensional region is specified from the X-ray CT volume data 101, and alignment information indicating which position in the specified three-dimensional region corresponds to which position in the ultrasonic volume data is acquired. Further, the above alignment processing can be applied even if the other type of medical image data is MRI image data (MRI volume data).

ただし、本実施形態は、異なるモダリティにより生成された医用画像データ間の空間的な位置を対応付ける位置合わせ情報に基づく位置合わせ処理が、相互相関や自己相関、相互情報量、標準化相互情報量、相関比等を用いた公知の技術により行われる場合であっても良い。   However, in the present embodiment, the alignment processing based on the alignment information that associates the spatial positions between the medical image data generated by different modalities includes cross-correlation, autocorrelation, mutual information amount, standardized mutual information amount, correlation It may be performed by a known technique using a ratio or the like.

上記の処理により空間的な位置を対応付ける位置合わせ情報に基づいて位置合わせされた超音波画像データ及び他種医用画像データは、画像処理部17に転送され、画像処理部17が有する各部は、以下の処理を行なう。以下、図3を用いて、本実施形態に係る画像処理部17が行なう画像処理の概要について説明する。図3は、本実施形態に係る画像処理部が行なう画像処理の概要を示す図である。   The ultrasonic image data and other types of medical image data that are aligned based on the alignment information that associates the spatial position with the above processing are transferred to the image processing unit 17. Perform the following process. Hereinafter, the outline of the image processing performed by the image processing unit 17 according to the present embodiment will be described with reference to FIG. FIG. 3 is a diagram showing an outline of image processing performed by the image processing unit according to the present embodiment.

抽出部171は、図3の左上図に示すように、画像データ間の空間的な位置を対応付ける位置合わせ情報に基づいて位置合わせされた超音波画像データ及び他種医用画像データの一方の画像データである第1画像データの特定領域を、画像処理により抽出する。具体的には、抽出部171は、他方の画像データである第2画像データから得られない情報が得られる領域を特定領域として、第1画像データから抽出する。より具体的には、抽出部171は、操作者が設定した情報に基づく画像処理により、第1画像データから特定領域を抽出する。例えば、抽出部171は、操作者が設定した被検体部位の情報に基づくセグメンテーション処理により、第1画像データから特定領域を抽出する。   As shown in the upper left diagram of FIG. 3, the extraction unit 171 is one of image data of ultrasonic image data and other types of medical image data that are aligned based on alignment information that associates spatial positions between image data. The specific area of the first image data is extracted by image processing. Specifically, the extraction unit 171 extracts, from the first image data, an area where information that cannot be obtained from the second image data, which is the other image data, is obtained as a specific area. More specifically, the extraction unit 171 extracts a specific region from the first image data by image processing based on information set by the operator. For example, the extraction unit 171 extracts a specific region from the first image data by a segmentation process based on information on the subject region set by the operator.

そして、同定部172は、図3の左下図に示すように、第2画像データにて特定領域に対応する対応領域を、位置合わせ情報(変換行列)を用いて同定する。すなわち、同定部172は、第2画像データにおける特定領域に対応する対応領域の位置を、位置合わせ情報(変換行列)を用いて求める。第1画像データの特定領域は、第2画像データの対応領域からは得られない情報が得られる領域、又は、第2画像データの対応領域から得られる情報を補う情報が得られる領域である。   And the identification part 172 identifies the corresponding area | region corresponding to a specific area | region in 2nd image data using position alignment information (conversion matrix), as shown in the lower left figure of FIG. That is, the identification unit 172 obtains the position of the corresponding area corresponding to the specific area in the second image data using the alignment information (conversion matrix). The specific area of the first image data is an area where information that cannot be obtained from the corresponding area of the second image data is obtained, or an area where information supplementing information obtained from the corresponding area of the second image data is obtained.

そして、合成部173は、第2画像データの対応領域を、特定領域における第1画像データに基づいて変更した合成画像データを生成する。例えば、合成部173は、図3の右図に示すように、第2画像データの対応領域を、特定領域に入れ替えた合成画像データを生成する。合成画像データは、図3の右図に示すように、第2画像データをベースとし、対応領域が特定領域に入れ替わった画像データとなる。なお、合成部173は、位置合わせ情報(変換行列)に基づいて、特定領域を全体的に拡大、或いは、縮小して、対応領域のサイズにして、合成処理を行なう。或いは、合成部173は、位置合わせ情報(変換行列)に基づいて、特定領域を部分的に拡大、或いは、縮小して、対応領域のサイズにして、合成処理を行なう。   Then, the composition unit 173 generates composite image data in which the corresponding area of the second image data is changed based on the first image data in the specific area. For example, the composition unit 173 generates composite image data in which the corresponding region of the second image data is replaced with a specific region as illustrated in the right diagram of FIG. As shown in the right diagram of FIG. 3, the composite image data is image data in which the corresponding area is replaced with a specific area based on the second image data. The synthesizing unit 173 performs the synthesizing process based on the alignment information (conversion matrix) to enlarge or reduce the specific area as a whole to make the size of the corresponding area. Alternatively, the synthesizing unit 173 performs the synthesizing process based on the alignment information (conversion matrix) by partially enlarging or reducing the specific area to the size of the corresponding area.

そして、制御部18は、合成画像データをモニタ2に表示させる。医師等の操作者は、1枚の合成画像データを参照することで、第2画像データの対応領域以外の領域の情報とともに、対応領域では得られない情報を、位置合わせされた特定領域から得ることができる。   Then, the control unit 18 causes the monitor 2 to display the composite image data. An operator such as a doctor obtains information that cannot be obtained in the corresponding area from the specified specific area together with information on the area other than the corresponding area of the second image data by referring to the single composite image data. be able to.

上記の概要で示した画像処理の様々な具体例について、図4〜図7等を用いて説明する。図4〜図7は、本実施形態に係る画像処理の具体例を示す図である。なお、以下では、超音波画像データとの空間的な位置を対応付けて位置合わせされた他種医用画像データが、X線CT画像データである場合について説明する。ただし、以下で説明する具体例は、他種医用画像データが、例えば、超音波画像データと位置合わせされたMRI画像データである場合であっても適用可能である。以下で説明する具体例は、抽出部171が特定領域を抽出する画像処理として、操作者が設定した被検体部位の情報に基づくセグメンテーション処理を行なうものである。   Various specific examples of the image processing shown in the above outline will be described with reference to FIGS. 4 to 7 are diagrams illustrating specific examples of image processing according to the present embodiment. In the following, a case will be described in which the other-type medical image data that is aligned in association with the spatial position of the ultrasound image data is X-ray CT image data. However, the specific examples described below are applicable even when the other types of medical image data are, for example, MRI image data aligned with the ultrasound image data. In a specific example described below, segmentation processing based on information on a subject part set by an operator is performed as image processing in which the extraction unit 171 extracts a specific region.

図4に示す一例(以下、第1パターン)では、抽出部171は、超音波を伝搬しない物質により超音波画像データで映像化されていない領域に該当する領域を特定領域として、他種医用画像データから抽出する。ここで、超音波を伝搬しない物質とは、生体内の骨や、腸内ガス等の空気である。通常の撮影条件で送信される超音波は、骨や空気により略全反射されるため、骨や空気より深い位置には伝搬しない。その結果、超音波画像データ(Bモード画像データ)では、図4の右上図に示すように、例えば、骨より深い位置の領域は、超音波ビームの送信方向に応じた形状で暗くなる。一方、例えば、被検体Pの全周囲でX線を照射することで、複数ビューの投影データを収集して再構成されたX線CT画像データには、骨及び骨の周囲の組織が明瞭に描出されている(図4の左上図を参照)。   In the example shown in FIG. 4 (hereinafter, referred to as a first pattern), the extraction unit 171 uses other regions of the medical image as a specific region that corresponds to a region that is not visualized by ultrasound image data due to a substance that does not propagate ultrasound. Extract from the data. Here, the substance that does not propagate ultrasonic waves is bone in the living body or air such as intestinal gas. Since the ultrasonic wave transmitted under normal imaging conditions is substantially totally reflected by the bone and air, it does not propagate to a position deeper than the bone or air. As a result, in the ultrasonic image data (B-mode image data), as shown in the upper right diagram of FIG. 4, for example, the region at a position deeper than the bone becomes dark with a shape corresponding to the transmission direction of the ultrasonic beam. On the other hand, for example, by irradiating X-rays around the entire subject P, X-ray CT image data reconstructed by collecting projection data of a plurality of views clearly shows bones and tissues around the bones. It is depicted (see the upper left figure in Fig. 4).

操作者は、位置合わせされた超音波画像データ(Bモード画像データ)及びX線CT画像データを参照して、「超音波画像データ:骨」といった設定情報を入力する。そして、操作者が、合成処理開始を指示すると、制御部18は、図4に示すように、第1画像データがX線CT画像データであると決定し、合成のベースとなる第2画像データが超音波画像データであると決定する。そして、抽出部171は、制御部18の指示により、骨のCT値に相当する骨領域の抽出を、例えば、領域拡張法によるセグメンテーション処理により行なう。そして、抽出部171は、骨領域で、画像の最上部に位置する線(曲線)を特定する。そして、抽出部171特定した曲線と、超音波の送信方向から、図4の左上図に示すように、白い線で囲まれた特定領域を、第1画像データであるX線CT画像データから抽出する。すなわち、抽出部171は、骨領域から深い位置にある領域を特定領域として、他種医用画像データとしてのX線CT画像データから抽出する。   The operator inputs setting information such as “ultrasonic image data: bone” with reference to the aligned ultrasonic image data (B-mode image data) and X-ray CT image data. Then, when the operator instructs the start of the synthesis process, the control unit 18 determines that the first image data is X-ray CT image data as shown in FIG. Is ultrasonic image data. Then, the extraction unit 171 performs extraction of a bone region corresponding to the CT value of the bone, for example, by segmentation processing by a region expansion method in accordance with an instruction from the control unit 18. Then, the extraction unit 171 identifies a line (curve) located at the top of the image in the bone region. Then, the specific area surrounded by the white line is extracted from the X-ray CT image data, which is the first image data, as shown in the upper left diagram of FIG. 4 from the specified curve and the ultrasonic transmission direction. To do. That is, the extraction unit 171 extracts a region located deep from the bone region as a specific region from the X-ray CT image data as the other types of medical image data.

そして、同定部172は、抽出部171が抽出した特定領域の位置から位置合わせ情報(変換行列)を用いて、第2画像データである超音波画像データにおける対応領域の位置を求めることで、図4の右上図に示すように、対応領域を同定する。そして、合成部173は、図4の下図に示すように、超音波画像データをベースとし、対応領域をX線CT画像データの特定領域に入れ替えた合成画像データを生成する。かかる合成画像データを参照することで、医師は、超音波画像データで描出されていない領域を、特定領域により視認することができる。なお、「超音波画像データ:空気」が設定された場合、抽出部171は、空気領域から深い位置にある領域を特定領域として、他種医用画像データとしてのX線CT画像データから抽出する。   Then, the identification unit 172 obtains the position of the corresponding region in the ultrasonic image data that is the second image data by using the alignment information (conversion matrix) from the position of the specific region extracted by the extraction unit 171. As shown in the upper right diagram of FIG. Then, as illustrated in the lower diagram of FIG. 4, the synthesis unit 173 generates synthesized image data in which the corresponding area is replaced with a specific area of the X-ray CT image data based on the ultrasound image data. By referring to such composite image data, a doctor can visually recognize a region that is not depicted by the ultrasound image data by the specific region. When “ultrasonic image data: air” is set, the extraction unit 171 extracts a region at a deep position from the air region as a specific region from X-ray CT image data as other types of medical image data.

次に、図5に示す一例(以下、第2パターン)では、超音波画像データは、ドプラ画像データ、すなわち、ドプラ効果に基づく血流情報が描出された超音波画像データである。また、図5に示すように、第2パターンでは、他種医用画像データとしてのX線CT画像データは、非造影撮影で得られた非造影X線CT画像データである。第2パターンでは、抽出部171は、血流情報が存在する領域の中で他種医用画像データの管腔領域に該当する領域を特定領域として、超音波画像データ(ドプラ画像データ)から抽出する。すなわち、非造影X線CT画像データでは、組織構造が明瞭に描出されているが、血流が存在する血管内(管腔領域)は、図5の右図に示すように、暗く描出されている。操作者は、かかる暗い領域が、血流が存在する領域であるのか否かを、簡単に判断することが困難である。一方、ドプラ画像データには、図5の左図に示すように、ドプラ周波数偏移が生じる血流が存在する範囲に、上述した血流情報が付与されている。かかる血流情報は、血流が存在していることを示すだけでなく、血流の速度、分散、パワー等の情報を含んでいる。   Next, in the example shown in FIG. 5 (hereinafter, the second pattern), the ultrasound image data is Doppler image data, that is, ultrasound image data in which blood flow information based on the Doppler effect is depicted. Further, as shown in FIG. 5, in the second pattern, the X-ray CT image data as the other-type medical image data is non-contrast X-ray CT image data obtained by non-contrast imaging. In the second pattern, the extraction unit 171 extracts, from the ultrasound image data (Doppler image data), a region corresponding to the luminal region of other types of medical image data in the region where blood flow information exists as a specific region. . That is, in the non-contrast X-ray CT image data, the tissue structure is clearly depicted, but the inside of the blood vessel (lumen region) where the blood flow exists is depicted darkly as shown in the right diagram of FIG. Yes. It is difficult for the operator to easily determine whether such a dark region is a region where blood flow exists. On the other hand, as shown in the left diagram of FIG. 5, the blood flow information described above is given to the Doppler image data in a range where there is a blood flow in which a Doppler frequency shift occurs. Such blood flow information not only indicates that blood flow exists, but also includes information such as blood flow velocity, dispersion, and power.

操作者は、位置合わせされた超音波画像データ(ドプラ画像データ)及び非造影X線CT画像データを参照して、「非造影X線CT画像データ:管腔」といった設定情報を入力する。そして、操作者が、合成処理開始を指示すると、制御部18は、図5に示すように、第1画像データがドプラ画像データであると決定し、合成のベースとなる第2画像データが非造影X線CT画像データであると決定する。そして、抽出部171は、制御部18の指示により、ドプラ画像データで血流情報が得られている全画素を特定する。そして、抽出部171は、例えば、特定した全画素が占める領域の中で、管状の領域となる領域を2値化処理により求め、求めた領域を特定領域として抽出する(図5の左図を参照)。   The operator inputs setting information such as “non-contrast X-ray CT image data: lumen” with reference to the aligned ultrasonic image data (Doppler image data) and non-contrast X-ray CT image data. When the operator instructs the start of the synthesis process, the control unit 18 determines that the first image data is Doppler image data as shown in FIG. The contrast X-ray CT image data is determined. Then, the extraction unit 171 specifies all pixels for which blood flow information is obtained from the Doppler image data according to an instruction from the control unit 18. Then, for example, the extraction unit 171 obtains, by binarization processing, a region that becomes a tubular region among the regions occupied by all the specified pixels, and extracts the obtained region as the specific region (see the left diagram in FIG. 5). reference).

そして、同定部172は、抽出部171が抽出した特定領域の位置から位置合わせ情報(変換行列)を用いて、第2画像データである非造影X線CT画像データから、図5の右図に示すように、対応領域を同定する。これにより、合成部173は、非造影X線CT画像データをベースとし、対応領域をドプラ画像データの特定領域に入れ替えた合成画像データを生成する。   Then, the identification unit 172 uses the alignment information (conversion matrix) from the position of the specific region extracted by the extraction unit 171 to generate the second image data from the non-contrast X-ray CT image data in the right diagram of FIG. As shown, the corresponding region is identified. Thereby, the composition unit 173 generates composite image data in which the corresponding region is replaced with the specific region of the Doppler image data based on the non-contrast X-ray CT image data.

なお、第2パターンでは、抽出部171が、血流情報が存在する領域(例えば、血流情報が得られている全画素が占める領域を、孤立点除去等で平滑化処理した領域)を特定領域とする場合であっても良い。かかる合成画像データを参照することで、医師は、非造影X線CT画像データで描出されていない血流情報を、特定領域により視認することができる。また、上記の一例では、医師は、ドプラモードの超音波検査を行なうだけで、X線CT検査において造影検査を行なうことなく、血流情報を得ることができる。なお、上記の一例では、抽出部171が非造影X線CT画像データの管腔領域(対応領域)を抽出し、同定部172が位置合わせ情報を用いてドプラ画像データの特定領域を同定しても良い。   In the second pattern, the extraction unit 171 identifies a region where blood flow information exists (for example, a region obtained by smoothing the region occupied by all pixels from which blood flow information is obtained by isolated point removal or the like). The area may be used. By referring to such composite image data, a doctor can visually recognize blood flow information that is not depicted by non-contrast X-ray CT image data in a specific region. In the above example, the doctor can obtain blood flow information only by performing Doppler mode ultrasound examination without performing contrast examination in X-ray CT examination. In the above example, the extraction unit 171 extracts the lumen region (corresponding region) of the non-contrast X-ray CT image data, and the identification unit 172 identifies the specific region of the Doppler image data using the alignment information. Also good.

次に、図6に示す一例では、3種類のパターンを示している。すなわち、図6に示す一例では、「第1画像データ:超音波画像データ(造影)、第2画像データ:X線CT画像データ(非造影)」である第3パターンと、「第1画像データ:X線CT画像データ(造影)、第2画像データ:超音波画像データ(非造影)」である第4パターンと、「第1画像データ:超音波画像データ(エラストグラフィ)、第2画像データ:X線CT画像データ」である第5パターンを示している。   Next, in the example shown in FIG. 6, three types of patterns are shown. That is, in the example shown in FIG. 6, the third pattern “first image data: ultrasound image data (contrast), second image data: X-ray CT image data (non-contrast)”, and “first image data : X-ray CT image data (contrast), second image data: ultrasonic image data (non-contrast) "," first image data: ultrasonic image data (elastography), second image data : X-ray CT image data ”.

図6に示す第3パターンは、造影検査回数を減らすことが可能となるパターンである。すなわち、第3パターンでは、超音波画像データが造影撮影で得られた造影超音波画像データであり、他種医用画像データ(X線CT画像データ)が非造影撮影で得られた医用画像データ(非造影X線CT画像データ)である。かかる場合、例えば、操作者は、「非造影X線CT画像データ:管腔」、又は、「非造影X線CT画像データ:血流」といった設定情報を入力する。そして、操作者が、合成処理開始を指示すると、制御部18は、第1画像データが造影超音波画像データであると決定し、合成のベースとなる第2画像データが非造影X線CT画像データであると決定する。そして、抽出部171は、造影剤が存在する領域、又は、造影剤が存在する領域の中で他種医用画像データ(非造影X線CT画像データ)の管腔領域に該当する領域を特定領域として、造影超音波画像データから抽出する。   The third pattern shown in FIG. 6 is a pattern that can reduce the number of contrast examinations. That is, in the third pattern, the ultrasound image data is contrast-enhanced ultrasound image data obtained by contrast imaging, and medical image data (X-ray CT image data) obtained by non-contrast imaging is obtained. Non-contrast X-ray CT image data). In such a case, for example, the operator inputs setting information such as “non-contrast X-ray CT image data: lumen” or “non-contrast X-ray CT image data: blood flow”. When the operator instructs the start of the synthesis process, the control unit 18 determines that the first image data is contrast ultrasound image data, and the second image data serving as a synthesis base is a non-contrast X-ray CT image. Determine that the data. Then, the extraction unit 171 specifies a region corresponding to the lumen region of other types of medical image data (non-contrast X-ray CT image data) in the region where the contrast agent exists or in the region where the contrast agent exists. As extracted from contrast-enhanced ultrasound image data.

「非造影X線CT画像データ:管腔」が設定情報の場合、例えば、抽出部171は、造影超音波画像データで、所定の閾値以上の輝度の全画素を特定する。そして、抽出部171は、例えば、特定した全画素が占める領域の中で、管状の領域となる領域を2値化処理により求め、求めた領域を特定領域として抽出する。或いは、「非造影X線CT画像データ:血流」が設定情報の場合、例えば、抽出部171は、造影超音波画像データで、所定の閾値以上の輝度の全画素が占める領域を平滑化処理した領域を、特定領域として抽出する。   When “non-contrast X-ray CT image data: lumen” is the setting information, for example, the extraction unit 171 specifies all pixels having a luminance equal to or higher than a predetermined threshold value in the contrast ultrasound image data. Then, the extraction unit 171 obtains, for example, a region that becomes a tubular region from among the regions occupied by all the specified pixels, and extracts the obtained region as the specific region. Alternatively, in the case where “non-contrast X-ray CT image data: blood flow” is the setting information, for example, the extraction unit 171 performs smoothing processing on the region occupied by all pixels having luminance equal to or higher than a predetermined threshold in the contrast ultrasound image data. The selected area is extracted as a specific area.

図6に示す第4パターンも、造影検査回数を減らすことが可能となるパターンである。ただし、第4パターンでは、超音波画像データが非造影撮影で得られた超音波画像データ(通常のBモード画像データ)であり、他種医用画像データ(X線CT画像データ)が造影撮影で得られた医用画像データ(造影X線CT画像データ)である。かかる場合、例えば、操作者は、「非造影Bモード画像データ:管腔」、又は、「非造影Bモード画像データ:血流」といった設定情報を入力する。そして、操作者が、合成処理開始を指示すると、制御部18は、第1画像データが造影X線CT画像データであると決定し、合成のベースとなる第2画像データが非造影Bモード画像データであると決定する。そして、抽出部171は、造影剤が存在する領域、又は、造影剤が存在する領域の中で超音波画像データ(非造影Bモード画像データ)の管腔領域に該当する領域を特定領域として、他種医用画像データ(造影X線CT画像データ)から抽出する。   The fourth pattern shown in FIG. 6 is also a pattern that can reduce the number of contrast examinations. However, in the fourth pattern, ultrasound image data is ultrasound image data (normal B-mode image data) obtained by non-contrast imaging, and other types of medical image data (X-ray CT image data) are obtained by contrast imaging. It is the obtained medical image data (contrast X-ray CT image data). In this case, for example, the operator inputs setting information such as “non-contrast B-mode image data: lumen” or “non-contrast B-mode image data: blood flow”. When the operator instructs the start of the synthesis process, the control unit 18 determines that the first image data is contrast X-ray CT image data, and the second image data serving as a base for the synthesis is a non-contrast B-mode image. Determine that the data. And the extraction part 171 sets the area | region applicable to the luminal area | region of ultrasonic image data (non-contrast B mode image data) in the area | region where a contrast agent exists, or the area | region where a contrast agent exists as a specific area | region. Extracted from other types of medical image data (contrast X-ray CT image data).

「非造影Bモード画像データ:管腔」が設定情報の場合、例えば、抽出部171は、造影X線CT画像データで、所定の閾値以上の輝度の全画素を特定する。そして、抽出部171は、例えば、特定した全画素が占める領域の中で、管状の領域となる領域を2値化処理により求め、求めた領域を特定領域として抽出する。或いは、「非造影Bモード画像データ:血流」が設定情報の場合、例えば、抽出部171は、造影X線CT画像データで、所定の閾値以上の輝度の全画素が占める領域を平滑化処理した領域を特定領域として抽出する。なお、上記の第2パターン〜第4パターンにおいて、血管内を流動する血液だけでなく、組織内を灌流する血液の情報を得たい場合、操作者は、孤立点除去等の平滑化処理を実行しないように、指定することができる。   When “non-contrast B-mode image data: lumen” is the setting information, for example, the extraction unit 171 specifies all pixels having luminance equal to or higher than a predetermined threshold in the contrast X-ray CT image data. Then, the extraction unit 171 obtains, for example, a region that becomes a tubular region from among the regions occupied by all the specified pixels, and extracts the obtained region as the specific region. Alternatively, in the case where “non-contrast B-mode image data: blood flow” is the setting information, for example, the extraction unit 171 performs smoothing processing on the region occupied by all pixels having luminance equal to or higher than a predetermined threshold in the contrast X-ray CT image data. The selected area is extracted as a specific area. In addition, in the above second pattern to fourth pattern, when it is desired to obtain information on not only blood flowing in the blood vessel but also blood perfused in the tissue, the operator executes a smoothing process such as isolated point removal. You can specify not to.

図6に示す第5パターンでは、超音波画像データは、撮影部位の硬さを示す指標(弾性率)を、エラストグラフィによりマッピングした超音波画像データ、すなわち、弾性画像データである。なお、第5パターンでは、他種医用画像データとしてのX線CT画像データは、造影撮影で得られた画像データであっても、非造影撮影で得られた画像データであっても良い。エラストグラフィで得られる客観的な指標に基づく硬さ情報は、X線CT画像データから得ることができない。第5パターンは、組織の空間分解能が高いX線CT画像データで、医師が着目する領域をエラストグラフィで得られる情報に入れ替えた合成画像データを目的とする場合に、選択される。   In the fifth pattern shown in FIG. 6, the ultrasonic image data is ultrasonic image data in which an index (elastic modulus) indicating the hardness of the imaging region is mapped by elastography, that is, elastic image data. In the fifth pattern, the X-ray CT image data as the other type of medical image data may be image data obtained by contrast imaging or image data obtained by non-contrast imaging. Hardness information based on objective indices obtained by elastography cannot be obtained from X-ray CT image data. The fifth pattern is selected when X-ray CT image data with a high spatial resolution of the tissue is intended for composite image data in which a region focused on by a doctor is replaced with information obtained by elastography.

第5パターンの一例では、抽出部171は、指標(弾性率)が所定の範囲にある領域を特定領域として、超音波画像データ(弾性画像データ)から抽出する。例えば、エラストモードの撮影後や、エラストモードの超音波画像データを指定した後、操作者は、「X線CT画像データ:弾性率:腫瘍相当」を設定情報として入力する。かかる場合、例えば、抽出部171は、弾性画像データで、一般的な腫瘍組織で認められている硬さ以上の弾性率を有する画素が占める全領域を平滑化処理した領域を、特定領域として抽出する。或いは、「X線CT画像データ:弾性率:正常相当」と設定情報が入力された場合、抽出部171は、弾性画像データで、一般的な正常組織で認められている柔らかさを示す弾性率を有する画素が占める全領域を平滑化処理した領域を、特定領域として抽出する。或いは、「X線CT画像データ:弾性率:腫瘍相当及び正常相当」と設定情報が入力された場合、抽出部171は、上述した双方の弾性率を有する画素が占める全領域を平滑化処理した領域を、特定領域として抽出する。   In an example of the fifth pattern, the extraction unit 171 extracts, from the ultrasound image data (elastic image data), a region having an index (elastic modulus) within a predetermined range as a specific region. For example, after imaging in the elast mode or after designating ultrasonic image data in the elast mode, the operator inputs “X-ray CT image data: elastic modulus: equivalent to tumor” as setting information. In such a case, for example, the extraction unit 171 extracts, as the specific region, a region obtained by smoothing all regions occupied by pixels having an elastic modulus equal to or higher than the hardness recognized in general tumor tissue in the elastic image data. To do. Alternatively, when the setting information “X-ray CT image data: elastic modulus: normal equivalent” is input, the extraction unit 171 is elastic image data and indicates the elastic modulus indicating the softness recognized in general normal tissue. A region obtained by smoothing the entire region occupied by pixels having a pixel is extracted as a specific region. Alternatively, when the setting information “X-ray CT image data: elastic modulus: equivalent to tumor and normal” is input, the extraction unit 171 smoothes the entire area occupied by the above-described pixels having both elastic moduli. A region is extracted as a specific region.

第5パターンの別の一例では、抽出部171は、他種医用画像データ(X線CT画像データ)で撮影部位内の所定部位を含む領域を特定領域として、超音波画像データ(弾性画像データ)から抽出する。ここで、上記の所定部位とは、例えば、X線CT画像データで認められた腫瘍部位であり、上記の所定部位を含む領域とは、例えば、腫瘍部位及び腫瘍組織の周辺部位を合わせた領域である。例えば、X線CT画像データを参照した操作者が、入力装置3を用いて腫瘍部位にROI(Region-Of-Interest)を指定すると、抽出部171は、ROIに対応する弾性画像データの領域を、変換行列を用いて特定し、特定した領域を、予め設定されたマージン情報(例えば、「全方位:30mm」)を用いて拡げ、この拡げた領域を、特定領域として抽出する。この一例では、操作者は、ROI指定を行なった後、例えば、「X線CT画像データ:腫瘍+マージン」といった設定情報を入力する。   In another example of the fifth pattern, the extraction unit 171 uses the medical image data (X-ray CT image data) as a specific region, and includes ultrasonic image data (elastic image data). Extract from Here, the predetermined site is, for example, a tumor site recognized in X-ray CT image data, and the region including the predetermined site is, for example, a region in which a tumor site and a peripheral site of a tumor tissue are combined. It is. For example, when an operator who refers to X-ray CT image data designates a region-of-interest (ROI) as a tumor site using the input device 3, the extraction unit 171 extracts an area of elastic image data corresponding to the ROI. , Using the transformation matrix, expand the specified area using preset margin information (for example, “omnidirectional: 30 mm”), and extract the expanded area as the specific area. In this example, the operator inputs setting information such as “X-ray CT image data: tumor + margin” after specifying the ROI.

第5パターンでは、操作者が、上記の設定情報が入力した後に、合成処理開始を指示すると、制御部18は、第1画像データが弾性画像データであると決定し、合成のベースとなる第2画像データがX線CT画像データであると決定する。そして、抽出部171は、上述した方法で、弾性画像データから特定領域を抽出し、同定部172は、X線CT画像データの対応部位を同定する。そして、合成部173は、X線CT画像データベースとし、X線CT画像データベースの対応部位が、医師が着目する部位に弾性率の情報が描出された特定領域に置き換わった合成画像データを生成する。   In the fifth pattern, when the operator gives an instruction to start the synthesis process after the setting information has been input, the control unit 18 determines that the first image data is elastic image data, and is the first base for synthesis. It is determined that the two-image data is X-ray CT image data. Then, the extraction unit 171 extracts a specific region from the elasticity image data by the method described above, and the identification unit 172 identifies a corresponding part of the X-ray CT image data. Then, the synthesizing unit 173 generates an X-ray CT image database, and generates synthetic image data in which a corresponding part of the X-ray CT image database is replaced with a specific region in which elastic modulus information is drawn in a part focused on by the doctor.

次に、第6パターンについて、図7を用いて説明する。第6パターンは、本実施形態に係る画像処理を、ラジオ波焼灼術(RFA:Radio Frequency Ablation)に適用する場合の一例を示している。RFA治療は、体表からRFA針(電極針)を病変部(腫瘍部)に向かって挿入し、ラジオ波により発生する高温により病変部を凝固死させる治療法である。RFAは、通常、超音波ガイド下で行なわれる。そして、RFA治療を行なう領域(治療計画領域、焼灼領域)は、再発防止のために、腫瘍境界に対して全方位的に、例えば、5mm程度のマージンをとって設定される。   Next, the sixth pattern will be described with reference to FIG. The sixth pattern shows an example in which the image processing according to the present embodiment is applied to radio frequency ablation (RFA). RFA treatment is a treatment method in which an RFA needle (electrode needle) is inserted from the body surface toward a lesioned part (tumor part), and the lesioned part is coagulated and killed by a high temperature generated by radio waves. RFA is usually performed under an ultrasonic guide. And the area | region (treatment plan area | region, ablation area | region) which performs RFA treatment is set omnidirectionally with respect to a tumor boundary, for example, with a margin of about 5 mm, for prevention of recurrence.

図7の(A)の左図は、穿刺針による焼灼治療前のBモード画像データ(又は、超音波造影画像データ)を示している。また、図7の(A)の左図では、Bモード画像データ(又は、超音波造影画像データ)に描出された腫瘍領域を「T」で示し、腫瘍領域Tの境界に対して全方位的に設定された5mm程度のマージンにより定まる焼灼領域を「M」で示している。また、図7の(A)の左図では、例えば、超音波プローブ1に装着された穿刺ガイドから挿入されたRFA治療用の穿刺針を、線分で示している。   The left diagram in FIG. 7A shows B-mode image data (or ultrasound contrast image data) before cauterization treatment with a puncture needle. 7A, the tumor region depicted in the B-mode image data (or ultrasound contrast image data) is indicated by “T” and is omnidirectional with respect to the boundary of the tumor region T. An ablation area determined by a margin of about 5 mm set to “M” is indicated by “M”. Further, in the left diagram of FIG. 7A, for example, a puncture needle for RFA treatment inserted from a puncture guide attached to the ultrasonic probe 1 is indicated by a line segment.

ここで、焼灼治療中では、腫瘍領域Tの中心まで先端が挿入された穿刺針から発生したラジオ波により、ガスが発生する。かかる場合、図7の(A)の右図に示すように、焼灼中の超音波画像データを参照しても、ガスにより、焼灼領域Mの視認性が低下する。そこで、第6パターンでは、超音波画像データがラジオ波による焼灼中の被検体Pの超音波画像データとされ、他種医用画像データが焼灼前の被検体Pの医用画像データとされる。例えば、第6パターンでは、図7の(B)に示すように、他種医用画像データが焼灼前の被検体PのX線CT画像データとなる。   Here, during the cauterization treatment, gas is generated by radio waves generated from the puncture needle having the tip inserted to the center of the tumor region T. In such a case, as shown in the right diagram of FIG. 7A, the visibility of the ablation region M is lowered by the gas even if the ultrasonic image data during the ablation is referred to. Therefore, in the sixth pattern, the ultrasound image data is the ultrasound image data of the subject P being cauterized by radio waves, and the other type of medical image data is the medical image data of the subject P before the ablation. For example, in the sixth pattern, as shown in FIG. 7B, the other type of medical image data becomes the X-ray CT image data of the subject P before cauterization.

そして、第6パターンでは、抽出部171は、治療対象部位(腫瘍部位)を含む焼灼領域を特定領域として、他種医用画像データ(焼灼前のX線CT画像データ)から抽出する。例えば、焼灼治療前の超音波画像データを参照して腫瘍領域TをROI指定した後、操作者は、「超音波画像データ(焼灼開始後):腫瘍+マージン」を設定情報として入力する。かかる場合、抽出部171は、焼灼前のX線CT画像データにおいて、ROIとして指定された腫瘍領域Tに該当する領域を、変換行列を用いて特定する(図7の(B)に示す領域T’を参照)する。そして、抽出部171は、領域T’を予め設定されたマージン情報(例えば、「全方位:5mm」)を用いて拡げ、この拡げた領域M’を、特定領域として抽出する。   In the sixth pattern, the extraction unit 171 extracts the ablation area including the treatment target part (tumor part) from the other types of medical image data (X-ray CT image data before the ablation) as the specific area. For example, after specifying the ROI of the tumor region T with reference to the ultrasound image data before cauterization treatment, the operator inputs “ultrasound image data (after start of cauterization): tumor + margin” as setting information. In such a case, the extraction unit 171 specifies a region corresponding to the tumor region T designated as the ROI in the X-ray CT image data before cauterization using the transformation matrix (region T shown in FIG. 7B). '). Then, the extraction unit 171 expands the region T ′ using preset margin information (for example, “omnidirectional: 5 mm”), and extracts the expanded region M ′ as a specific region.

そして、同定部172は、焼灼中に、時系列に沿って生成されるBモード画像データそれぞれで、領域M’に対応する対応領域(すなわち、領域M)を同定する。これにより、合成部173は、合成画像データを時系列に沿って生成する。その結果、モニタ2は、焼灼治療中でも、ガスで視認性が低下する領域Mが、ガスがない領域M’に置き換わった合成画像データの動画表示を行なう。医師は、かかる動画を参照して、例えば、腫瘍部位を視認しつつ、ガスが領域M’の外部に均等に発生していることを確認して、RFA治療を容易に行なうことができる。   Then, the identifying unit 172 identifies the corresponding region (that is, the region M) corresponding to the region M ′ for each B-mode image data generated along the time series during cauterization. Thereby, the composition unit 173 generates composite image data in time series. As a result, during the cauterization treatment, the monitor 2 displays a moving image of the composite image data in which the region M in which the visibility is reduced by the gas is replaced with the region M ′ without the gas. The doctor can easily perform the RFA treatment by referring to the moving image and confirming that the gas is uniformly generated outside the region M ′ while visually recognizing the tumor site.

なお、第6パターンは、変形例として、第1画像データが、例えば、図7の(A)の左図に示す焼灼前の超音波画像データであっても良い。かかる場合の位置合わせ処理は、位置センサ4及びトランスミッター5で構成される位置検出システム、超音波送受信条件及び画像生成条件を用いて実行可能である。この第6パターンの変形例では、画像処理部17が行なう処理は、以下となる。   In the sixth pattern, as a modification, the first image data may be ultrasonic image data before cauterization shown in the left diagram of FIG. The alignment process in such a case can be executed using a position detection system including the position sensor 4 and the transmitter 5, ultrasonic transmission / reception conditions, and image generation conditions. In the modified example of the sixth pattern, the processing performed by the image processing unit 17 is as follows.

すなわち、抽出部171は、ラジオ波による焼灼中の被検体Pの超音波画像データと空間的な位置を対応付ける位置合わせ情報に基づいて位置合わせされた被検体Pの焼灼前の超音波画像データにおいて、治療対象部位を含む焼灼領域を特定領域として、画像処理により抽出する。そして、同定部172は、焼灼中の超音波画像データにおける特定領域に対応する対応領域の位置を、位置合わせ情報を用いて求める。そして、合成部173は、焼灼中の超音波画像データの対応領域を、特定領域における焼灼前の超音波画像データに基づいて変更した合成画像データを生成する。具体的には、合成部173は、焼灼中の超音波画像データの対応領域を、特定領域に入れ替えた合成画像データを生成する。かかる合成画像データの動画表示をすることでも、RFA治療の支援を行なうことができる。   That is, the extraction unit 171 performs the ultrasonic image data before the cauterization of the subject P that is aligned based on the alignment information that associates the ultrasonic image data of the subject P being cauterized by radio waves with the spatial position. Then, the ablation area including the treatment target part is extracted as a specific area by image processing. And the identification part 172 calculates | requires the position of the corresponding | compatible area | region corresponding to the specific area | region in the ultrasonic image data in cauterization using alignment information. And the synthetic | combination part 173 produces | generates the synthetic image data which changed the corresponding area | region of the ultrasonic image data in cauterization based on the ultrasonic image data before cauterization in a specific area | region. Specifically, the composition unit 173 generates composite image data in which the corresponding region of the ultrasonic image data being cauterized is replaced with a specific region. The RFA treatment can also be supported by displaying a moving image of the composite image data.

なお、上述した第1パターン〜第6パターンの画像処理は、超音波画像データ及び他種医用画像データがボリュームデータである場合でも、適用可能である。   Note that the above-described image processing of the first to sixth patterns can be applied even when the ultrasound image data and the other types of medical image data are volume data.

次に、制御部18が実行させる合成画像データの表示形態について、図8及び図9等を用いて説明する。図8及び図9は、本実施形態に係る制御部による表示形態の一例を説明するための図である。   Next, the display form of the composite image data executed by the control unit 18 will be described with reference to FIGS. 8 and 9 are diagrams for explaining an example of a display form by the control unit according to the present embodiment.

制御部18は、合成画像データとともに第1画像データ及び第2画像データの少なくとも一方を表示させる第1表示形態を、モニタ2に行わせる。例えば、制御部18は、合成画像データと、ベースとした第2画像データとを並列表示させる。或いは、制御部18は、合成画像データと、第1画像データと、第2画像データとを並列表示させる。   The control unit 18 causes the monitor 2 to perform the first display form in which at least one of the first image data and the second image data is displayed together with the composite image data. For example, the control unit 18 displays the composite image data and the base second image data in parallel. Alternatively, the control unit 18 displays the composite image data, the first image data, and the second image data in parallel.

或いは、制御部18は、図8に示すように、合成画像データ及び第2画像データを切り替え表示させる第2表示形態を、モニタ2に行わせる。例えば、図8に示す第2表示形態は、操作者が、入力装置3が有する切り替えボタンを押下することで、実行される。   Alternatively, as shown in FIG. 8, the control unit 18 causes the monitor 2 to perform the second display form in which the composite image data and the second image data are switched and displayed. For example, the second display form shown in FIG. 8 is executed when the operator presses a switching button of the input device 3.

或いは、制御部18は、合成画像データで変更された領域を明示させる第3表示形態を、モニタ2に行わせる。上記の合成画像データを表示用画像データとする場合、制御部18は、合成画像データで入れ替えられた領域を明示させる第3表示形態を、モニタ2に行わせる。例えば、合成部173は、制御部18の指示により、特定領域に着色したり、特定領域の境界に点線を描画したりした合成画像データを生成し、モニタ2に出力する。或いは、制御部18は、合成画像データ及び第2画像データの間の差分値を合成画像データに表示させる第4表示形態を、モニタ2に行わせる。例えば、合成部173は、合成画像データ及び第2画像データの間の差分値を全画素で算出し、算出した値に応じた色調を合成画像データに重畳し、モニタ2は、合成部173が出力した画像データを表示する。また、制御部18は、操作者の指定により、上記の第1表示形態、第2表示形態、第3表示形態及び第4表示形態の1つ、2つ、又は、全ての表示形態を行なうことが可能である。   Or the control part 18 makes the monitor 2 perform the 3rd display form which makes the area | region changed by synthetic | combination image data clear. When the above-described composite image data is used as display image data, the control unit 18 causes the monitor 2 to perform the third display mode in which the region replaced with the composite image data is clearly indicated. For example, the compositing unit 173 generates composite image data in which a specific area is colored or a dotted line is drawn on the boundary of the specific area according to an instruction from the control unit 18 and is output to the monitor 2. Alternatively, the control unit 18 causes the monitor 2 to perform the fourth display form in which the difference value between the composite image data and the second image data is displayed on the composite image data. For example, the synthesizing unit 173 calculates a difference value between the synthesized image data and the second image data for all the pixels, and superimposes a color tone according to the calculated value on the synthesized image data. Display the output image data. Moreover, the control part 18 performs one, two, or all the display forms of said 1st display form, 2nd display form, 3rd display form, and 4th display form by an operator's designation | designated. Is possible.

更に、制御部18は、以下に説明する第5表示形態で、上述した「対応領域を特定領域に入れ替えた合成画像データ」とは異なる合成画像データの生成表示を行なわせることも可能である。例えば、第5表示形態では、合成部173は、対応領域を特定領域に入れ替えた上記の合成画像データとともに、混合率を変更して特定領域及び対応領域を重畳合成した合成画像データを表示用画像データとして生成する。すなわち、合成部173は、第2画像データの対応領域を、特定領域における第1画像データに基づいて変更した合成画像データとして、対応領域を特定領域に入れ替えた合成画像データ、及び、混合率を変更して特定領域及び対応領域を重畳合成した合成画像データの少なくとも一方を、表示用画像データとして生成することが可能である。   Further, the control unit 18 can generate and display composite image data different from the above-described “composite image data in which the corresponding region is replaced with the specific region” in the fifth display mode described below. For example, in the fifth display mode, the composition unit 173 displays the composite image data obtained by superimposing the specific region and the corresponding region by changing the mixing ratio together with the composite image data in which the corresponding region is replaced with the specific region. Generate as data. That is, the combining unit 173 sets the corresponding area of the second image data as the combined image data changed based on the first image data in the specific area, the combined image data in which the corresponding area is replaced with the specific area, and the mixing ratio. It is possible to generate at least one of the combined image data obtained by superimposing and combining the specific area and the corresponding area as display image data.

例えば、操作者は、図9に示すスライドバーを操作して、混合率を調整する。ベースである第2画像データそのものを、合成画像データとともに参照したい場合、操作者は、「特定領域:0%」の位置まで、スライドバーを移動する。或いは、「特定領域:80%、対応領域:20%」の混合率で第2画像データを参照したい場合、操作者は、「特定領域:80%」の位置まで、スライドバーを移動する。これにより、合成部173は、「特定領域:80%、対応領域:20%」の混合率で重畳合成した画像データを生成し、モニタ2は、かかる画像データを表示する。なお、第5表示形態は、入れ替え型の合成画像データと混合型の合成画像データとは、一方のみ生成表示される場合でも、双方生成表示される場合であっても良い。また、混合型の合成画像データの第5表示形態を行なう場合でも、上記の第1表示形態〜第4表示形態の少なくとも1つを併用することができる。   For example, the operator operates the slide bar shown in FIG. 9 to adjust the mixing rate. When it is desired to refer to the second image data itself that is the base together with the composite image data, the operator moves the slide bar to the position of “specific area: 0%”. Alternatively, when it is desired to refer to the second image data with the mixing ratio of “specific area: 80%, corresponding area: 20%”, the operator moves the slide bar to the position of “specific area: 80%”. As a result, the combining unit 173 generates image data superimposed and combined at a mixing ratio of “specific area: 80%, corresponding area: 20%”, and the monitor 2 displays the image data. Note that the fifth display form may be a case where only one of the replacement-type composite image data and the mixed-type composite image data is generated and displayed, or a case where both are generated and displayed. Even in the case of performing the fifth display form of the mixed type composite image data, at least one of the first display form to the fourth display form can be used in combination.

上記の第1表示形態〜第5表示形態を行なうことで、医師等の操作者は、合成画像データの合成元の画像データを参照したり、特定領域及び対応領域が様々な混合率で重畳合成された画像データを合成画像データとともに参照したりすることができる。これにより、例えば、医師は、合成画像データで行った診断結果が、原画像データからも同様に得られるかを判断することができ、画像診断の精度を保証することができる。   By performing the first display mode to the fifth display mode described above, an operator such as a doctor can refer to the image data that is the combination source of the combined image data, and the specific region and the corresponding region are superimposed and combined at various mixing ratios. The obtained image data can be referred to together with the composite image data. Thereby, for example, the doctor can determine whether the diagnosis result performed on the composite image data can be obtained from the original image data in the same manner, and can guarantee the accuracy of the image diagnosis.

次に、図10を用いて、本実施形態に係る超音波診断装置が処理の一例について説明する。図10は、本実施形態に係る超音波診断装置が行なう画像処理を説明するためのフローチャートである。なお、図10に示す一例では、制御部18が位置合わせ情報を取得した後の処理について説明する。また、図10に示す一例では、合成画像データとして、入れ替え型の合成画像データが設定された場合の処理について説明する。   Next, an example of processing performed by the ultrasonic diagnostic apparatus according to the present embodiment will be described with reference to FIG. FIG. 10 is a flowchart for explaining image processing performed by the ultrasonic diagnostic apparatus according to the present embodiment. In the example illustrated in FIG. 10, processing after the control unit 18 acquires the alignment information will be described. Further, in the example illustrated in FIG. 10, processing when replacement-type composite image data is set as composite image data will be described.

図10に例示するように、本実施形態に係る超音波診断装置の制御部18は、操作者から、合成処理の関する設定情報を受け付けたか否かを判定する(ステップS101)。ここで、設定情報を受け付けない場合(ステップS101否定)、制御部18は、設定情報を受け付けるまで待機する。   As illustrated in FIG. 10, the control unit 18 of the ultrasonic diagnostic apparatus according to the present embodiment determines whether setting information related to the synthesis process has been received from the operator (step S <b> 101). Here, when setting information is not received (No at Step S101), the control unit 18 waits until setting information is received.

一方、設定情報を受け付けた場合(ステップS101肯定)、制御部18は、設定情報を抽出部171に通知し、更に、操作者から、合成処理開始要求を受け付けたか否かを判定する(ステップS102)。ここで、合成処理開始要求を受け付けない場合(ステップS102否定)、制御部18は、合成処理開始要求を受け付けるまで待機する。   On the other hand, when the setting information is received (Yes at Step S101), the control unit 18 notifies the setting unit 171 of the setting information, and further determines whether a synthesis process start request is received from the operator (Step S102). ). Here, when a synthesis process start request is not accepted (No at Step S102), the control unit 18 waits until a synthesis process start request is accepted.

一方、合成処理開始要求を受け付けた場合(ステップS102肯定)、制御部18の指示により、画像処理部17の処理が開始する。まず、抽出部171は、設定情報に基づいて、第1画像データ及び第2画像データを決定する(ステップS103)。すなわち、抽出部171は、設定情報に基づいて、情報が不足している領域(対応領域)がある第1画像データが、超音波画像データ及び他種医用画像データのどちらであるかを判定する。   On the other hand, when the composition processing start request is received (Yes at Step S102), the processing of the image processing unit 17 is started by an instruction from the control unit 18. First, the extraction unit 171 determines first image data and second image data based on the setting information (step S103). That is, based on the setting information, the extraction unit 171 determines whether the first image data having a region (corresponding region) for which information is insufficient is ultrasonic image data or other types of medical image data. .

そして、抽出部171は、第1画像データから特定領域を抽出し(ステップS104)、同定部172は、第2画像データから対応領域を同定する(ステップS105)。すなわち、同定部172は、第2画像データにおいて、位置合わせ情報を用いて、対応領域の位置を求める。そして、合成部173は、第2画像データの対応領域を特定領域に入れ替えて、合成画像データを生成する(ステップS106)。   Then, the extraction unit 171 extracts a specific region from the first image data (step S104), and the identification unit 172 identifies a corresponding region from the second image data (step S105). That is, the identification unit 172 obtains the position of the corresponding region using the alignment information in the second image data. Then, the synthesizing unit 173 replaces the corresponding area of the second image data with the specific area, and generates synthesized image data (step S106).

そして、モニタ2は、制御部18の制御により、合成画像データを表示し(ステップS107)、処理を終了する。なお、ステップS107において、又は、ステップS107の後、操作者の指示により、上述した第1表示形態〜第5表示形態の少なくとも1つが行われても良い。   Then, the monitor 2 displays the composite image data under the control of the control unit 18 (step S107), and ends the process. In step S107 or after step S107, at least one of the first display mode to the fifth display mode described above may be performed according to an instruction from the operator.

上述したように、本実施形態では、第2画像データで情報が不足している領域では得られない情報を特定領域から得ることができる1枚の合成画像データを生成表示する。本実施形態では、操作者は、第1パターン〜第6パターンで説明したように、簡単な情報を設定するたけで、上記の合成画像データを生成表示させることができる。従って、本実施形態では、撮影部位の様々な情報が得られる画像を簡易に得ることができる。また、本実施形態では、上記の合成画像データを画像診断用の画像として提供することで、画像診断の効率(検査効率)を向上させることができる。また、本実施形態では、上述した第1表示形態〜第5表示形態を行なうことで、画像診断の精度を向上させることができる。   As described above, in the present embodiment, one piece of composite image data that can obtain information from a specific area that cannot be obtained in an area where the information is insufficient in the second image data is generated and displayed. In the present embodiment, as described in the first pattern to the sixth pattern, the operator can generate and display the composite image data just by setting simple information. Therefore, in this embodiment, it is possible to easily obtain an image from which various information on the imaging region can be obtained. In this embodiment, the efficiency of image diagnosis (inspection efficiency) can be improved by providing the above-described composite image data as an image for image diagnosis. In the present embodiment, the accuracy of image diagnosis can be improved by performing the first to fifth display modes described above.

なお、本実施形態では、以下に説明する変形例が行われても良い。位置合わせ情報で同定される対応領域は、例えば、位置センサ4の検出精度や、画像中のノイズ等によっては、特定領域に対応する領域と一致しない場合がある。そこで、本変形例に係る画像処理部17は、図11に例示する調整処理を行なう。図11は、本実施形態に係る変形例を説明するための図である。   In the present embodiment, the modifications described below may be performed. The corresponding region identified by the alignment information may not match the region corresponding to the specific region depending on, for example, the detection accuracy of the position sensor 4 and noise in the image. Therefore, the image processing unit 17 according to this modification performs the adjustment process illustrated in FIG. FIG. 11 is a diagram for explaining a modification according to the present embodiment.

本変形例では、同定部172による対応領域の同定処理とともに、抽出部171は、画像処理により、第2画像データから特定領域に対応する第2対応領域を抽出する。図11では、上述した第1パターンで本変形例が行われる場合を例示している。同定部172は、図11の左上図に示すように、位置合わせ情報から、第2画像データである超音波画像データの対応領域を同定する。更に、抽出部171は、例えば、エッジ検出処理等の画像処理により、超音波画像データに描出された骨の境界を抽出し、抽出した骨の境界と超音波の送信方向とを用いて、図11の左下図に示すように、第2対応領域を抽出する。   In the present modification, together with the corresponding region identification processing by the identification unit 172, the extraction unit 171 extracts a second corresponding region corresponding to the specific region from the second image data by image processing. In FIG. 11, the case where this modification is performed by the 1st pattern mentioned above is illustrated. As shown in the upper left diagram of FIG. 11, the identification unit 172 identifies the corresponding region of the ultrasonic image data that is the second image data from the alignment information. Further, the extraction unit 171 extracts a bone boundary drawn in the ultrasonic image data by image processing such as edge detection processing, for example, and uses the extracted bone boundary and the transmission direction of the ultrasonic wave to 11, the second corresponding area is extracted.

そして、同定部172は、対応領域の位置を、第2対応領域により調整する。図11の左図に示す一例では、対応領域と第2対応領域との位置は一致していないことから、同定部172は、図11の右図に示すように、第2対応領域により対応領域の位置を調整した「調整済み対応領域」を同定する。そして、本変形例では、合成部173は、第2画像データの調整済み対応領域を、特定領域に入れ替えたり、特定領域と調整済み対応領域とを任意の混合率で混合したりすることで、合成画像データを生成する。本変形例では、位置合わせ精度が低い場合でも、調整済み対応領域を用いることで、画像診断を確実に支援することができる合成画像データを生成表示することができる。   Then, the identification unit 172 adjusts the position of the corresponding area using the second corresponding area. In the example shown in the left diagram of FIG. 11, since the positions of the corresponding region and the second corresponding region do not match, the identification unit 172 uses the second corresponding region as the corresponding region as shown in the right diagram of FIG. 11. The “adjusted corresponding region” is adjusted by adjusting the position of. And in this modification, the composition unit 173 replaces the adjusted corresponding area of the second image data with the specific area, or mixes the specific area and the adjusted corresponding area at an arbitrary mixing ratio. Composite image data is generated. In this modification, even when the alignment accuracy is low, by using the adjusted corresponding region, it is possible to generate and display composite image data that can reliably support image diagnosis.

なお、上述した実施形態及び変形例で説明した画像処理方法は、超音波診断装置以外の医用画像診断装置で行われても良い。また、上述した実施形態及び変形例で説明した画像処理方法は、医用画像診断装置とは独立に設置され、上述した画像処理部17の機能が搭載された画像処理装置で行われても良い。   Note that the image processing methods described in the above-described embodiments and modifications may be performed by a medical image diagnostic apparatus other than the ultrasonic diagnostic apparatus. Further, the image processing method described in the above-described embodiments and modifications may be performed by an image processing apparatus that is installed independently of the medical image diagnostic apparatus and in which the function of the image processing unit 17 described above is mounted.

また、かかる画像処理装置が上述した画像処理を行なう第1画像データ及び第2画像データには、超音波画像データが含まれる場合であっても、超音波画像データが含まれない場合であっても良い。すなわち、画像処理装置は、画像データ間の空間的な位置を対応付けて位置合わせされた種類の異なる2つの医用画像データを、各種医用画像診断装置、又は、医用画像のデータベースから取得する。そして、画像処理装置は、これら2つの医用画像データの一方の画像データである第1画像データの特定領域を、画像処理により抽出し、他方の画像データである第2画像データにおける特定領域に対応する対応領域域の位置を、位置合わせ情報を用いて求める。そして、画像処理装置は、第2画像データの前記対応領域を、前記特定領域における第1画像データに基づいて変更した合成画像データを生成する。これにより、画像処理装置は、合成画像データの表示を行なうことができる。   In addition, the first image data and the second image data on which the image processing apparatus performs the above-described image processing is a case where the ultrasonic image data is not included even when the ultrasonic image data is included. Also good. That is, the image processing apparatus acquires two different types of medical image data, which are registered in association with the spatial position between the image data, from various medical image diagnostic apparatuses or a medical image database. Then, the image processing apparatus extracts the specific area of the first image data, which is one of the two pieces of medical image data, by image processing, and corresponds to the specific area in the second image data, which is the other image data. The position of the corresponding area is determined using the alignment information. Then, the image processing device generates composite image data in which the corresponding area of the second image data is changed based on the first image data in the specific area. Thereby, the image processing apparatus can display the composite image data.

また、本実施形態及び変形例で説明した画像処理方法は、予め用意された画像処理プログラムをパーソナルコンピュータやワークステーション等のコンピュータで実行することによって実現することができる。この画像処理プログラムは、インターネット等のネットワークを介して配布することができる。また、この画像処理プログラムは、ハードディスク、フレキシブルディスク(FD)、CD−ROM、MO、DVD、USBメモリ及びSDカードメモリ等のFlashメモリ等のコンピュータで読み取り可能な非一時的な記録媒体に記録され、コンピュータによって非一時的な記録媒体から読み出されることによって実行することもできる。   The image processing method described in this embodiment and the modification can be realized by executing an image processing program prepared in advance on a computer such as a personal computer or a workstation. This image processing program can be distributed via a network such as the Internet. The image processing program is recorded on a computer-readable non-transitory recording medium such as a hard disk, a flexible disk (FD), a CD-ROM, an MO, a DVD, a flash memory such as a USB memory and an SD card memory. It can also be executed by being read from a non-transitory recording medium by a computer.

以上、説明したとおり、本実施形態及び変形例によれば、撮影部位の様々な情報が得られる画像を簡易に得ることができる。   As described above, according to the present embodiment and the modification, it is possible to easily obtain an image from which various information on the imaging region can be obtained.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the equivalents thereof.

17 画像処理部
171 抽出部
172 同定部
173 合成部
18 制御部
17 Image processing unit 171 Extraction unit 172 Identification unit 173 Composition unit 18 Control unit

Claims (15)

画像データ間の空間的な位置を対応付ける位置合わせ情報に基づいて位置合わせされた超音波画像データ及び他種医用画像データの一方の画像データである第1画像データの特定領域を抽し、他方の画像データである第2画像データから前記特定領域に対応する第2対応領域の位置を、第1の画像処理により抽出する抽出部と、
第2画像データにおける前記特定領域に対応する対応領域の位置を、前記位置合わせ情報を用いて前記第1の画像処理とは異なる第2の画像処理により求める同定部と、
前記対応領域の位置と前記第2対応領域の位置とが一致する場合、前記第2画像データの前記対応領域を、前記特定領域における前記第1画像データに基づいて変更した合成画像データを生成し、前記対応領域の位置と前記第2対応領域の位置とが一致しない場合、前記第2画像データの前記第2対応領域を、前記特定領域における前記第1画像データに基づいて変更した合成画像データを生成する合成部と、
前記合成画像データを表示部に表示させる制御部と、
を備えたことを特徴とする超音波診断装置。
The specific area of the first image data which is one image data of the ultrasonic image data and other types medical image data that is aligned on the basis of the alignment information for associating the spatial position between the image data and output extraction, other An extraction unit that extracts the position of the second corresponding region corresponding to the specific region from the second image data that is the image data of the first image processing ;
An identification unit for obtaining a position of a corresponding area corresponding to the specific area in the second image data by a second image process different from the first image process using the alignment information;
If the the position of the corresponding area and the position of the second corresponding region coincide, the corresponding region of the second image data to generate synthesized image data has been changed based on the first image data in the specific region When the position of the corresponding area does not match the position of the second corresponding area, the composite image data obtained by changing the second corresponding area of the second image data based on the first image data in the specific area A synthesis unit for generating
A control unit for displaying the composite image data on a display unit;
Ultrasonic diagnostic apparatus characterized in that e Bei a.
前記抽出部は、前記第2画像データから得られない情報が得られる領域を前記特定領域として、前記第1画像データから抽出することを特徴とする請求項1に記載の超音波診断装置。   The ultrasonic diagnostic apparatus according to claim 1, wherein the extraction unit extracts, from the first image data, an area where information that cannot be obtained from the second image data is obtained as the specific area. 前記抽出部は、操作者が設定した情報に基づく画像処理により、前記第1画像データから前記特定領域を抽出することを特徴とする請求項1又は2に記載の超音波診断装置。   The ultrasonic diagnostic apparatus according to claim 1, wherein the extraction unit extracts the specific region from the first image data by image processing based on information set by an operator. 前記抽出部は、前記操作者が設定した被検体部位の情報に基づくセグメンテーション処理により、前記第1画像データから前記特定領域を抽出することを特徴とする請求項3に記載の超音波診断装置。   The ultrasonic diagnostic apparatus according to claim 3, wherein the extraction unit extracts the specific region from the first image data by a segmentation process based on information on a subject region set by the operator. 前記制御部は、前記合成画像データとともに前記第1画像データ及び前記第2画像データの少なくとも一方を表示させる表示形態、前記合成画像データ及び前記第2画像データを切り替え表示させる表示形態、前記合成画像データで変更された領域を明示させる表示形態、及び、前記合成画像データ及び前記第2画像データの間の差分値を前記合成画像データに表示させる表示形態の少なくとも1つの表示形態を、前記表示部に行わせることを特徴とする請求項1〜4のいずれか1つに記載の超音波診断装置。   The control unit displays a display form for displaying at least one of the first image data and the second image data together with the composite image data, a display form for switching and displaying the composite image data and the second image data, and the composite image The display unit includes at least one display mode for displaying a region changed with data and a display mode for displaying a difference value between the composite image data and the second image data on the composite image data. The ultrasonic diagnostic apparatus according to claim 1, wherein the ultrasonic diagnostic apparatus is performed. 前記合成部は、前記合成画像データとして、前記対応領域を前記特定領域に入れ替えた合成画像データ、及び、混合率を変更して前記特定領域及び前記対応領域を重畳合成した合成画像データの少なくとも一方を、表示用画像データとして生成することを特徴とする請求項1〜5のいずれか1つに記載の超音波診断装置。   The composition unit is at least one of composite image data in which the corresponding region is replaced with the specific region, and composite image data in which the specific region and the corresponding region are superimposed and synthesized by changing a mixing ratio as the composite image data. Is generated as display image data. The ultrasonic diagnostic apparatus according to any one of claims 1 to 5. 前記抽出部は、超音波を伝搬しない物質により前記超音波画像データで映像化されていない領域に該当する領域を前記特定領域として、前記他種医用画像データから抽出することを特徴とする請求項1〜6のいずれか1つに記載の超音波診断装置。   The extraction unit extracts an area corresponding to an area that is not visualized in the ultrasound image data by a substance that does not propagate ultrasound as the specific area from the other medical image data. The ultrasonic diagnostic apparatus according to any one of 1 to 6. 前記抽出部は、骨領域から深い位置にある領域を前記特定領域として、前記他種医用画像データから抽出することを特徴とする請求項7に記載の超音波診断装置。   The ultrasonic diagnostic apparatus according to claim 7, wherein the extraction unit extracts a region located deep from a bone region as the specific region from the other-type medical image data. 前記超音波画像データがドプラ効果に基づく血流情報が描出された超音波画像データであって、
前記抽出部は、前記血流情報が存在する領域、又は、当該領域の中で前記他種医用画像データの管腔領域に該当する領域を前記特定領域として、前記超音波画像データから抽出することを特徴とする請求項1〜6のいずれか1つに記載の超音波診断装置。
The ultrasound image data is ultrasound image data depicting blood flow information based on the Doppler effect,
The extraction unit extracts, from the ultrasound image data, an area where the blood flow information exists or an area corresponding to a lumen area of the other-type medical image data in the area as the specific area. The ultrasonic diagnostic apparatus according to any one of claims 1 to 6.
前記超音波画像データが造影撮影で得られた超音波画像データであり、前記他種医用画像データが非造影撮影で得られた医用画像データであって、
前記抽出部は、造影剤が存在する領域、又は、当該領域の中で前記他種医用画像データの管腔領域に該当する領域を前記特定領域として、前記超音波画像データから抽出することを特徴とする請求項1〜6のいずれか1つに記載の超音波診断装置。
The ultrasound image data is ultrasound image data obtained by contrast imaging, and the other medical image data is medical image data obtained by non-contrast imaging,
The extraction unit extracts, from the ultrasound image data, a region where a contrast agent exists or a region corresponding to a lumen region of the other medical image data in the region as the specific region. The ultrasonic diagnostic apparatus according to any one of claims 1 to 6.
前記超音波画像データが非造影撮影で得られた超音波画像データであり、前記他種医用画像データが造影撮影で得られた医用画像データであって、
前記抽出部は、造影剤が存在する領域、又は、当該領域の中で前記超音波画像データの管腔領域に該当する領域を前記特定領域として、前記他種医用画像データから抽出することを特徴とする請求項1〜6のいずれか1つに記載の超音波診断装置。
The ultrasound image data is ultrasound image data obtained by non-contrast imaging, and the other medical image data is medical image data obtained by contrast imaging,
The extraction unit extracts, from the other types of medical image data, a region in which a contrast medium exists or a region corresponding to a lumen region of the ultrasound image data in the region as the specific region. The ultrasonic diagnostic apparatus according to any one of claims 1 to 6.
前記超音波画像データが撮影部位の硬さを示す指標をマッピングした超音波画像データであって、
前記抽出部は、前記指標が所定の範囲にある領域、又は、前記他種医用画像データで前記撮影部位内の所定部位を含む領域を前記特定領域として、前記超音波画像データから抽出することを特徴とする請求項1〜6のいずれか1つに記載の超音波診断装置。
The ultrasound image data is ultrasound image data in which an index indicating the hardness of the imaging region is mapped,
The extraction unit extracts, from the ultrasound image data, an area where the index is in a predetermined range or an area including a predetermined part in the imaging part in the other type of medical image data as the specific area. The ultrasonic diagnostic apparatus according to claim 1, wherein the ultrasonic diagnostic apparatus is characterized in that
前記超音波画像データがラジオ波による焼灼中の被検体の超音波画像データであり、前記他種医用画像データが焼灼前の前記被検体の医用画像データであって、
前記抽出部は、治療対象部位を含む焼灼領域を特定領域として、前記他種医用画像データから抽出することを特徴とする請求項1〜6のいずれか1つに記載の超音波診断装置。
The ultrasound image data is ultrasound image data of a subject undergoing radiofrequency ablation, and the other medical image data is medical image data of the subject before ablation,
The ultrasonic diagnostic apparatus according to claim 1, wherein the extraction unit extracts the ablation area including the treatment target part as a specific area from the other-type medical image data.
画像データ間の空間的な位置を対応付ける位置合わせ情報に基づいて位置合わせされた種類の異なる2つの医用画像データの一方の画像データである第1画像データの特定領域を抽し、他方の画像データである第2画像データから前記特定領域に対応する第2対応領域の位置を、第1の画像処理により抽出する抽出部と、
他方の画像データである第2画像データにおける前記特定領域に対応する対応領域の位置を、前記位置合わせ情報を用いて前記第1の画像処理とは異なる第2の画像処理により求める同定部と、
前記対応領域の位置と前記第2対応領域の位置とが一致する場合、前記第2画像データの前記対応領域を、前記特定領域における前記第1画像データに基づいて変更した合成画像データを生成し、前記対応領域の位置と前記第2対応領域の位置とが一致しない場合、前記第2画像データの前記第2対応領域を、前記特定領域における前記第1画像データに基づいて変更した合成画像データを生成する合成部と、
前記合成画像データを表示部に表示させる制御部と、
を備えたことを特徴とする画像処理装置。
The specific area of the first image data which is one image data of the two medical image data of different types that are aligned based on the alignment information for associating the spatial position between the image data and output extraction, other image An extraction unit that extracts the position of the second corresponding region corresponding to the specific region from the second image data that is data by the first image processing ;
An identification unit that obtains the position of the corresponding region corresponding to the specific region in the second image data that is the other image data by using a second image process different from the first image process using the alignment information;
If the the position of the corresponding area and the position of the second corresponding region coincide, the corresponding region of the second image data to generate synthesized image data has been changed based on the first image data in the specific region When the position of the corresponding area does not match the position of the second corresponding area, the composite image data obtained by changing the second corresponding area of the second image data based on the first image data in the specific area A synthesis unit for generating
A control unit for displaying the composite image data on a display unit;
The image processing apparatus being characterized in that example Bei a.
画像データ間の空間的な位置を対応付ける位置合わせ情報に基づいて位置合わせされた種類の異なる2つの医用画像データの一方の画像データである第1画像データの特定領域を抽し、他方の画像データである第2画像データから前記特定領域に対応する第2対応領域の位置を、第1の画像処理により抽出する抽出手順と、
他方の画像データである第2画像データにおける前記特定領域に対応する対応領域の位置を、前記位置合わせ情報を用いて前記第1の画像処理とは異なる第2の画像処理により求める同定手順と、
前記対応領域の位置と前記第2対応領域の位置とが一致する場合、前記第2画像データの前記対応領域を、前記特定領域における前記第1画像データに基づいて変更した合成画像データを生成し、前記対応領域の位置と前記第2対応領域の位置とが一致しない場合、前記第2画像データの前記第2対応領域を、前記特定領域における前記第1画像データに基づいて変更した合成画像データを生成する合成手順と、
前記合成画像データを表示部に表示させる制御手順と、
をコンピュータに実行させることを特徴とする画像処理プログラム。
The specific area of the first image data which is one image data of the two medical image data of different types that are aligned based on the alignment information for associating the spatial position between the image data and output extraction, other image An extraction procedure for extracting the position of the second corresponding area corresponding to the specific area from the second image data as data by the first image processing ;
An identification procedure for obtaining a position of a corresponding area corresponding to the specific area in the second image data, which is the other image data, by a second image process different from the first image process using the alignment information;
If the the position of the corresponding area and the position of the second corresponding region coincide, the corresponding region of the second image data to generate synthesized image data has been changed based on the first image data in the specific region When the position of the corresponding area does not match the position of the second corresponding area, the composite image data obtained by changing the second corresponding area of the second image data based on the first image data in the specific area A synthesis procedure to generate
A control procedure for displaying the composite image data on a display unit;
An image processing program for causing a computer to execute.
JP2014053873A 2014-03-17 2014-03-17 Ultrasonic diagnostic apparatus, image processing apparatus, and image processing program Active JP6352013B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014053873A JP6352013B2 (en) 2014-03-17 2014-03-17 Ultrasonic diagnostic apparatus, image processing apparatus, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014053873A JP6352013B2 (en) 2014-03-17 2014-03-17 Ultrasonic diagnostic apparatus, image processing apparatus, and image processing program

Publications (2)

Publication Number Publication Date
JP2015173899A JP2015173899A (en) 2015-10-05
JP6352013B2 true JP6352013B2 (en) 2018-07-04

Family

ID=54253655

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014053873A Active JP6352013B2 (en) 2014-03-17 2014-03-17 Ultrasonic diagnostic apparatus, image processing apparatus, and image processing program

Country Status (1)

Country Link
JP (1) JP6352013B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6822806B2 (en) * 2016-01-29 2021-01-27 キヤノンメディカルシステムズ株式会社 Ultrasound diagnostic equipment and medical image processing equipment
US10417778B2 (en) 2016-01-29 2019-09-17 Canon Medical Systems Corporation Ultrasonic diagnostic apparatus and medical image processing apparatus
JP2019013753A (en) * 2017-07-05 2019-01-31 キヤノンメディカルシステムズ株式会社 Medical image diagnostic apparatus, medical image processing apparatus, and medical image processing program
WO2019208804A1 (en) * 2018-04-27 2019-10-31 キヤノンメディカルシステムズ株式会社 Medical information processing system and medical information processing program
JP7258640B2 (en) * 2018-04-27 2023-04-17 キヤノンメディカルシステムズ株式会社 Medical information processing system and medical information processing program
JP7198034B2 (en) * 2018-10-05 2022-12-28 キヤノンメディカルシステムズ株式会社 Image diagnosis device and image diagnosis support method
KR102084598B1 (en) * 2019-08-16 2020-03-05 주식회사 딥노이드 Ai based surgery assistant system for operating lesion of bone

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3878462B2 (en) * 2001-11-22 2007-02-07 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー Diagnostic imaging support system
JP5244319B2 (en) * 2004-02-20 2013-07-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Apparatus and method for multimodal registration of images
JP5074097B2 (en) * 2007-05-21 2012-11-14 株式会社日立メディコ Ultrasonic diagnostic equipment
JP5631453B2 (en) * 2013-07-05 2014-11-26 キヤノン株式会社 Image processing apparatus and image processing method

Also Published As

Publication number Publication date
JP2015173899A (en) 2015-10-05

Similar Documents

Publication Publication Date Title
JP6352013B2 (en) Ultrasonic diagnostic apparatus, image processing apparatus, and image processing program
JP6222811B2 (en) Ultrasonic diagnostic apparatus and image processing apparatus
JP5586203B2 (en) Ultrasonic diagnostic apparatus, ultrasonic image processing apparatus, and ultrasonic image processing program
WO2014077396A1 (en) Ultrasound diagnostic device and image processing method
US20150178921A1 (en) Ultrasound diagnosis apparatus and image processing method
US10368841B2 (en) Ultrasound diagnostic apparatus
JP6125380B2 (en) Ultrasonic diagnostic apparatus, medical image processing apparatus, and image processing program
JP5897674B2 (en) Ultrasonic diagnostic apparatus, image processing apparatus, and image processing program
JP6222829B2 (en) Ultrasonic diagnostic apparatus, image processing apparatus, and image processing method
JP5984243B2 (en) Ultrasonic diagnostic apparatus, medical image processing apparatus, and program
JP6139186B2 (en) Ultrasonic diagnostic apparatus, image processing apparatus, and image processing program
JP6382050B2 (en) Medical image diagnostic apparatus, image processing apparatus, image processing method, and image processing program
JP5689591B2 (en) Ultrasonic diagnostic apparatus and ultrasonic image processing program
JP2017113312A (en) Medical image diagnostic apparatus and medical image diagnostic program
JP6305773B2 (en) Ultrasonic diagnostic apparatus, image processing apparatus, and program
JP2012075794A (en) Ultrasonic diagnostic apparatus, medical image processor, and medical image processing program
JP2009077780A (en) Breast examination system
JP7204424B2 (en) Medical image diagnosis device and medical image processing device
JP2012245092A (en) Ultrasonic diagnostic apparatus
JP2013143978A (en) Ultrasonic diagnostic apparatus
JP5597497B2 (en) Ultrasonic diagnostic apparatus, medical image processing apparatus, and medical image processing program
JP2013099386A (en) Ultrasonic diagnostic apparatus and medical image processing apparatus
JP7171228B2 (en) Ultrasound diagnostic equipment and medical information processing program
JP2018094020A (en) Ultrasonic diagnosis device and medical image processing device
JP2023108765A (en) Ultrasonic diagnostic apparatus and determination method

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20151102

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20160513

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20160929

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20161021

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171128

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180206

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180508

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180606

R150 Certificate of patent or registration of utility model

Ref document number: 6352013

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150