JP2018000775A - Ultrasonic diagnostic apparatus and medical image processor - Google Patents

Ultrasonic diagnostic apparatus and medical image processor Download PDF

Info

Publication number
JP2018000775A
JP2018000775A JP2016135062A JP2016135062A JP2018000775A JP 2018000775 A JP2018000775 A JP 2018000775A JP 2016135062 A JP2016135062 A JP 2016135062A JP 2016135062 A JP2016135062 A JP 2016135062A JP 2018000775 A JP2018000775 A JP 2018000775A
Authority
JP
Japan
Prior art keywords
ultrasonic
image
image data
diagnostic apparatus
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016135062A
Other languages
Japanese (ja)
Other versions
JP6720001B2 (en
Inventor
嶺 喜隆
Yoshitaka Mine
喜隆 嶺
小林 豊
Yutaka Kobayashi
豊 小林
治郎 樋口
Jiro Higuchi
治郎 樋口
淳 中井
Atsushi Nakai
淳 中井
智 手塚
Satoshi Tezuka
智 手塚
和男 手塚
Kazuo Tezuka
和男 手塚
淙 姚
Cong Yao
淙 姚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Toshiba Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Medical Systems Corp filed Critical Toshiba Medical Systems Corp
Priority to JP2016135062A priority Critical patent/JP6720001B2/en
Priority to US15/644,260 priority patent/US11653897B2/en
Publication of JP2018000775A publication Critical patent/JP2018000775A/en
Application granted granted Critical
Publication of JP6720001B2 publication Critical patent/JP6720001B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an ultrasonic diagnostic apparatus capable of improving objectivity of an ultrasonic diagnosis.SOLUTION: An ultrasonic diagnostic apparatus 1 has an image operation part 16. The image operation part acquires ultrasonic image data, first position information concerning a position of an ultrasonic probe when acquiring the ultrasonic image data which is attached to the ultrasonic image data and second position information concerning a position of a biological reference section, and generates map display image data in which the ultrasonic image data is arranged at a position based on the first position information in a three-dimensional space of a biological coordination system defined on the basis of the second position information.SELECTED DRAWING: Figure 1

Description

本発明の実施形態は、超音波診断装置、及び医用画像処理装置に関する。   Embodiments described herein relate generally to an ultrasonic diagnostic apparatus and a medical image processing apparatus.

従来技術として、一列に配列された複数の振動子を揺動するメカニカル4次元プローブ、又は、複数の振動子が格子状に配置された2次元アレイプローブを備え、リアルタイムで3次元の超音波画像を取得する超音波診断装置がある。また、位置センサが装着された超音波プローブを用い、位置センサにより検出される超音波プローブの位置と、超音波プローブにより受信される反射データとに基づき、3次元の超音波画像を取得する超音波診断装置がある。これらの超音波診断装置では、3次元空間にMPR(Multi-Planar Reconstruction/ Reformation)像、及び/又はVR(Volume Rendering)像が表示される。   As a conventional technique, a mechanical four-dimensional probe that swings a plurality of transducers arranged in a row or a two-dimensional array probe in which a plurality of transducers are arranged in a lattice shape is provided, and a three-dimensional ultrasound image is real-time. There is an ultrasound diagnostic device that acquires In addition, using an ultrasonic probe equipped with a position sensor, an ultrasonic probe that acquires a three-dimensional ultrasonic image based on the position of the ultrasonic probe detected by the position sensor and the reflection data received by the ultrasonic probe. There is an ultrasound diagnostic device. In these ultrasonic diagnostic apparatuses, an MPR (Multi-Planar Reconstruction / Reformation) image and / or a VR (Volume Rendering) image are displayed in a three-dimensional space.

超音波の走査は状況に応じて様々な方向より行われる。そのため、表示される画像が、超音波プローブを生体表面のどの位置に当接させ、超音波プローブを体内のどの方向に向けた際に取得された画像なのかを、表示される画像から理解することは走査者以外できない。超音波画像を取得した取得位置を推定して理解できるようにするため、表示される画像にアノテーションを付すようにもしている。しかしながら、アノテーションに記述されるのは、大雑把な臓器名、臓器内の位置、又は血管名等である。そのため、アノテーションにより超音波画像の取得位置を特定することはできない。走査領域が走査者の主観によって設定され、かつ、超音波画像の取得位置が走査者しか理解できないことは、超音波診断の客観性を欠如させる大きな要因となっている。   Ultrasonic scanning is performed from various directions depending on the situation. Therefore, it is understood from the displayed image that the displayed image is an image acquired when the ultrasonic probe is brought into contact with the living body surface and in which direction the ultrasonic probe is directed in the body. This can only be done by the scanner. In order to make it possible to estimate and understand the acquisition position from which the ultrasonic image was acquired, an annotation is added to the displayed image. However, what is described in the annotation is a rough organ name, a position in the organ, or a blood vessel name. Therefore, the acquisition position of the ultrasonic image cannot be specified by the annotation. The fact that the scanning area is set by the subjectivity of the scanner and that only the scanner can understand the acquisition position of the ultrasound image is a major factor that makes the objectivity of ultrasound diagnosis lacking.

なお、最新の超音波診断装置では、CT(Computed Tomography)装置により取得された3次元のCT画像、又はMRI(Magnetic Resonance Imaging)装置により取得された3次元のMR画像を読み込み、超音波断層像と、CT画像又はMR画像から取得され、超音波断層像と対応するMPR像とを表示するFusionモードがある。Fusionモードは、位置センサにより検出される超音波プローブの位置情報を利用し、超音波画像と、CT画像又はMR画像とを位置合わせすることで実現される。超音波断層像を、CT画像又はMR画像と対比させることで、超音波断層像の体内での位置を、走査者以外の医師及び技師へ伝えることが可能となる。しかしながら、超音波診断装置を用いる診断は最初であることが多く、同一症例でCT画像又はMR画像が既に存在し、Fusionモードを使うことができるケースは限られる。   The latest ultrasonic diagnostic apparatus reads a three-dimensional CT image acquired by a CT (Computed Tomography) apparatus or a three-dimensional MR image acquired by an MRI (Magnetic Resonance Imaging) apparatus, and obtains an ultrasonic tomogram. And a Fusion mode for displaying an ultrasonic tomogram and a corresponding MPR image acquired from a CT image or an MR image. The Fusion mode is realized by using the positional information of the ultrasonic probe detected by the position sensor and aligning the ultrasonic image and the CT image or MR image. By comparing the ultrasonic tomographic image with the CT image or the MR image, the position of the ultrasonic tomographic image in the body can be transmitted to doctors and engineers other than the scanner. However, diagnosis using an ultrasonic diagnostic apparatus is often the first, and there are limited cases in which a CT image or MR image already exists in the same case and the Fusion mode can be used.

特開2013−59610号公報JP2013-59610A 特開2003−319939号公報JP 2003-319939 A

目的は、超音波診断の客観性を向上させることが可能な超音波診断装置、及び医用画像処理装置を提供することにある。   An object is to provide an ultrasonic diagnostic apparatus and a medical image processing apparatus capable of improving the objectivity of ultrasonic diagnosis.

実施形態によれば、超音波診断装置は、画像演算部を具備する。画像演算部は、超音波画像データと、前記超音波画像データに付加され、前記超音波画像データが取得されたときの超音波プローブの位置に関する第1の位置情報と、生体参照部位の位置についての第2の位置情報とを取得し、前記第2の位置情報に基づいて規定される生体座標系の3次元空間において、前記超音波画像データを、前記第1の位置情報に基づく位置に配置したマップ表示画像データを発生する。   According to the embodiment, the ultrasonic diagnostic apparatus includes an image calculation unit. The image calculation unit adds the ultrasonic image data, the first position information added to the ultrasonic image data, and the position of the ultrasonic probe when the ultrasonic image data is acquired, and the position of the biological reference site And the ultrasonic image data is arranged at a position based on the first position information in a three-dimensional space of a living body coordinate system defined based on the second position information. Generated map display image data is generated.

図1は、実施形態に係る超音波診断装置の構成を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration of an ultrasonic diagnostic apparatus according to the embodiment. 図2は、図1に示される超音波診断装置が超音波画像データを取得する処理の流れの例を示す図である。FIG. 2 is a diagram illustrating an example of a flow of processing in which the ultrasonic diagnostic apparatus illustrated in FIG. 1 acquires ultrasonic image data. 図3は、図1に示される超音波プローブを被検体の体表に垂直方向に当接させた際の図である。FIG. 3 is a view when the ultrasonic probe shown in FIG. 1 is brought into contact with the body surface of the subject in the vertical direction. 図4は、図1に示される表示機器に表示される超音波断層画像において生体参照部位を指定する際の図である。FIG. 4 is a diagram when a biological reference site is designated in the ultrasonic tomographic image displayed on the display device shown in FIG. 図5は、図1に示される超音波診断装置がマップ表示画像データを表示機器に表示させる処理の流れを示す図である。FIG. 5 is a diagram illustrating a flow of processing in which the ultrasonic diagnostic apparatus illustrated in FIG. 1 displays map display image data on a display device. 図6は、剣状突起を生体参照部位とし、生体参照部位の位置情報を図3に示されるように取得した際の生体座標系を示す図である。FIG. 6 is a diagram showing a living body coordinate system when a xiphoid process is used as a living body reference site and position information of the living body reference site is acquired as shown in FIG. 図7は、生体参照部位が体内に存在し、生体参照部位の位置情報を図4に示されるように取得した際の生体座標系を示す図である。FIG. 7 is a diagram showing a living body coordinate system when a living body reference site exists in the body and position information of the living body reference site is acquired as shown in FIG. 図8は、図1に示される表示機器に表示されるマップ表示画像データを示す図である。FIG. 8 is a diagram showing map display image data displayed on the display device shown in FIG. 図9は、図8に示されるマップ表示画像をy軸方向から表示した際の図である。FIG. 9 is a diagram when the map display image shown in FIG. 8 is displayed from the y-axis direction. 図10は、図8に示されるマップ表示画像の最手前に表示される2次元画像を変化させた場合のマップ表示画像を示す図である。FIG. 10 is a diagram showing a map display image when the two-dimensional image displayed in front of the map display image shown in FIG. 8 is changed. 図11は、所定の2次元画像のみを表示するマップ表示画像を示す図である。FIG. 11 is a diagram illustrating a map display image that displays only a predetermined two-dimensional image. 図12は、マップ表示画像と、このマップ表示画像のいずれかの2次元画像が表示される画面を示す図である。FIG. 12 is a diagram illustrating a screen on which a map display image and any two-dimensional image of the map display image are displayed. 図13は、図12に示される画面のその他の例を示す図である。FIG. 13 is a diagram showing another example of the screen shown in FIG. 図14は、マップ表示画像と、このマップ表示画像のいずれかの2次元画像が表示される画面を示す図である。FIG. 14 is a diagram illustrating a screen on which a map display image and any two-dimensional image of the map display image are displayed. 図15は、マップ表示画像と、このマップ表示画像の2次元画像が表示される画面を示す図である。FIG. 15 is a diagram illustrating a screen on which a map display image and a two-dimensional image of the map display image are displayed. 図16は、アトラス画像上に重畳されたマップ表示画像と、このマップ表示画像のいずれかの2次元画像が表示される画面を示す図である。FIG. 16 is a diagram showing a screen on which a map display image superimposed on an atlas image and any two-dimensional image of the map display image are displayed. 図17は、図16に示される画面のその他の例を示す図である。FIG. 17 is a diagram showing another example of the screen shown in FIG. 図18は、アトラス画像上に重畳されたマップ表示画像と、このマップ表示画像のいずれかの2次元画像が表示される画面を示す図である。FIG. 18 is a diagram illustrating a screen on which a map display image superimposed on an atlas image and any two-dimensional image of the map display image are displayed. 図19は、アトラス画像上に重畳されたマップ表示画像と、このマップ表示画像の2次元画像が表示される画面を示す図である。FIG. 19 is a diagram illustrating a screen on which a map display image superimposed on an atlas image and a two-dimensional image of the map display image are displayed. 図20は、被検体の複数の位置座標を取得する際の図を示す図である。FIG. 20 is a diagram illustrating a diagram when acquiring a plurality of position coordinates of the subject. 図21は、図1に示される位置センサシステムのその他の構成を示す図である。FIG. 21 is a diagram showing another configuration of the position sensor system shown in FIG. 図22は、図1に示される位置センサシステムのその他の構成を示す図である。FIG. 22 is a diagram showing another configuration of the position sensor system shown in FIG. 図23は、図1に示される位置センサシステムのその他の構成を示す図である。FIG. 23 is a diagram showing another configuration of the position sensor system shown in FIG.

以下、実施の形態について、図面を参照して説明する。   Hereinafter, embodiments will be described with reference to the drawings.

図1は、本実施形態に係る超音波診断装置1の構成例を示すブロック図である。図1に示されるように、超音波診断装置1は、本体装置10、超音波プローブ20、及び位置センサシステム30を具備する。本体装置10は、ネットワーク100を介して外部装置40と接続される。また、本体装置10は、表示機器50と接続される。   FIG. 1 is a block diagram illustrating a configuration example of an ultrasonic diagnostic apparatus 1 according to the present embodiment. As shown in FIG. 1, the ultrasonic diagnostic apparatus 1 includes a main body device 10, an ultrasonic probe 20, and a position sensor system 30. The main device 10 is connected to the external device 40 via the network 100. Further, the main device 10 is connected to the display device 50.

超音波プローブ20は、複数の圧電振動子、圧電振動子に設けられる整合層、及び圧電振動子から後方への超音波の伝播を防止するバッキング材等を有する。超音波プローブ20は、本体装置10と着脱自在に接続される。複数の圧電振動子は、本体装置10が有する超音波送信回路11から供給される駆動信号に基づき超音波を発生する。   The ultrasonic probe 20 includes a plurality of piezoelectric vibrators, a matching layer provided in the piezoelectric vibrator, a backing material that prevents propagation of ultrasonic waves from the piezoelectric vibrator to the rear, and the like. The ultrasonic probe 20 is detachably connected to the main body device 10. The plurality of piezoelectric vibrators generate ultrasonic waves based on a drive signal supplied from the ultrasonic transmission circuit 11 included in the main body device 10.

超音波プローブ20から被検体Pに超音波が送信されると、送信された超音波は、被検体Pの体内組織における音響インピーダンスの不連続面で次々と反射され、反射波信号として超音波プローブ20が有する複数の圧電振動子にて受信される。受信される反射波信号の振幅は、超音波が反射される不連続面における音響インピーダンスの差に依存する。なお、送信された超音波パルスが、移動している血流や心臓壁などの表面で反射された場合の反射波信号は、ドプラ効果により、移動体の超音波送信方向に対する速度成分に依存して、周波数偏移を受ける。超音波プローブ20は、被検体Pからの反射波信号を受信して電気信号に変換する。   When ultrasonic waves are transmitted from the ultrasonic probe 20 to the subject P, the transmitted ultrasonic waves are reflected one after another on the discontinuous surface of the acoustic impedance in the body tissue of the subject P, and the ultrasonic probe is reflected as a reflected wave signal. Received by a plurality of piezoelectric vibrators 20. The amplitude of the received reflected wave signal depends on the difference in acoustic impedance at the discontinuous surface where the ultrasonic wave is reflected. Note that the reflected wave signal when the transmitted ultrasonic pulse is reflected on the moving blood flow or the surface of the heart wall depends on the velocity component of the moving body in the ultrasonic transmission direction due to the Doppler effect. And undergoes a frequency shift. The ultrasonic probe 20 receives a reflected wave signal from the subject P and converts it into an electrical signal.

本体装置の操作パネル61は、後述する生体参照部位を指定する指示を操作者から受け付ける、例えばボタン等から成る入力手段を有する。操作パネル61は、操作者によりボタンが押下されると、超音波プローブ20の現在の位置情報を生体参照部位として指定する旨の指定指示を本体装置10へ出力する。なお、入力手段は、位置センサシステム30に設けられる位置センサ32、又は超音波プローブ20に設けられても構わない。   The operation panel 61 of the main body device has an input unit configured by, for example, a button or the like that receives an instruction for designating a later-described biological reference site from an operator. When the button is pressed by the operator, the operation panel 61 outputs a designation instruction for designating the current position information of the ultrasonic probe 20 as a biological reference site to the main body device 10. The input means may be provided in the position sensor 32 provided in the position sensor system 30 or the ultrasonic probe 20.

本実施形態に係る超音波プローブ20は、超音波により被検体Pを2次元で走査すると共に、図1に示される通り、位置センサ32が装着されている。超音波プローブ20は、被検体Pを3次元で走査したときの位置情報を検出することが可能である。具体的には、本実施形態に係る超音波プローブ20は、被検体Pを2次元で走査する複数の超音波振動子を有する1次元アレイプローブである。なお、位置センサ32が装着される超音波プローブ20は、超音波振動子を所定の角度(揺動角度)で揺動させることで、被検体Pを3次元で走査するメカニカル4次元プローブ(機械揺動方式の3次元プローブ)、複数の超音波振動子がマトリックス状に配置される2次元アレイプローブ、又は1次元に配列された複数の振動子が複数に分割される1.5次元アレイプローブであってもよい。   The ultrasonic probe 20 according to the present embodiment scans the subject P two-dimensionally with ultrasonic waves, and a position sensor 32 is mounted as shown in FIG. The ultrasonic probe 20 can detect position information when the subject P is scanned in three dimensions. Specifically, the ultrasonic probe 20 according to the present embodiment is a one-dimensional array probe having a plurality of ultrasonic transducers that scan the subject P in two dimensions. The ultrasonic probe 20 to which the position sensor 32 is attached is a mechanical four-dimensional probe (machine) that scans the subject P in three dimensions by oscillating the ultrasonic transducer at a predetermined angle (oscillation angle). (Oscillating three-dimensional probe), two-dimensional array probe in which a plurality of ultrasonic transducers are arranged in a matrix, or 1.5-dimensional array probe in which a plurality of transducers arranged in one dimension are divided into a plurality of It may be.

図1に示される位置センサシステム30は、超音波プローブ20の3次元の位置情報を取得するためのシステムである。位置センサシステム30は、例えば、磁気センサ、又は赤外線カメラ用のターゲット等を位置センサ32として超音波プローブ20に装着させることで、超音波プローブ20の3次元の位置情報を取得する。なお、超音波プローブ20にジャイロセンサ(角速度センサ)を内蔵させ、このジャイロセンサにより超音波プローブ20の3次元の位置情報を取得しても構わない。また、位置センサシステム30は、超音波プローブ20をカメラで撮影し、画像認識で超音波プローブ20の3次元空間での位置を検出するシステムでもよい。また、位置センサシステム30は、超音波プローブ20をロボットアームで保持し、ロボットアームの3次元空間の位置を超音波プローブ20の位置として検出するシステムでもよい。本実施形態では、位置センサシステム30が磁気センサを用いて超音波プローブ20の位置情報を取得する場合を例に説明する。   A position sensor system 30 shown in FIG. 1 is a system for acquiring three-dimensional position information of the ultrasonic probe 20. The position sensor system 30 acquires, for example, three-dimensional position information of the ultrasonic probe 20 by attaching a magnetic sensor, a target for an infrared camera, or the like to the ultrasonic probe 20 as the position sensor 32. Note that a gyro sensor (angular velocity sensor) may be incorporated in the ultrasonic probe 20, and the three-dimensional position information of the ultrasonic probe 20 may be acquired by the gyro sensor. Further, the position sensor system 30 may be a system that images the ultrasonic probe 20 with a camera and detects the position of the ultrasonic probe 20 in a three-dimensional space by image recognition. The position sensor system 30 may be a system that holds the ultrasonic probe 20 with a robot arm and detects the position of the robot arm in the three-dimensional space as the position of the ultrasonic probe 20. In the present embodiment, a case where the position sensor system 30 acquires position information of the ultrasonic probe 20 using a magnetic sensor will be described as an example.

位置センサシステム30は、磁気発生器31、位置センサ32、及び位置検出装置33を備える。   The position sensor system 30 includes a magnetic generator 31, a position sensor 32, and a position detection device 33.

磁気発生器31は、例えば磁気発生コイル等を有する。磁気発生器31は、任意の位置に配置され、自器を中心として外側に向かって磁場を形成する。位置センサ32は、超音波プローブ20に装着される。位置センサ32は、磁気発生器31によって形成される3次元の磁場の強度及び傾きを検出する。位置センサ32は、検出した磁場の強度及び傾きを位置検出装置33へ出力する。   The magnetic generator 31 has a magnetic generating coil etc., for example. The magnetic generator 31 is disposed at an arbitrary position, and forms a magnetic field toward the outside centering on the magnetic generator 31. The position sensor 32 is attached to the ultrasonic probe 20. The position sensor 32 detects the strength and inclination of the three-dimensional magnetic field formed by the magnetic generator 31. The position sensor 32 outputs the detected intensity and inclination of the magnetic field to the position detection device 33.

位置検出装置33は、位置センサ32で検出された磁場の強度及び傾きに基づき、所定の位置を原点とした3次元空間における超音波プローブ20の位置(スキャン面の位置(x,y,z)及び回転角度(θx,θy,θz))を算出する。このとき、所定の位置は、例えば、磁気発生器31が配置される位置とする。位置検出装置33は、算出した位置(x,y,z,θx,θy,θz)に関する位置情報を本体装置10へ送信する。   The position detection device 33 is based on the position and position (x, y, z) of the ultrasonic probe 20 in a three-dimensional space with a predetermined position as the origin based on the strength and inclination of the magnetic field detected by the position sensor 32. And a rotation angle (θx, θy, θz)) is calculated. At this time, the predetermined position is, for example, a position where the magnetic generator 31 is disposed. The position detection device 33 transmits position information regarding the calculated position (x, y, z, θx, θy, θz) to the main body device 10.

図1に示される本体装置10は、超音波プローブ20が受信した反射波信号に基づいて超音波画像を生成する装置である。本体装置10は、図1に示すように、超音波送信回路11、超音波受信回路12、Bモード処理回路13、ドプラ処理回路14、操作パネル61、入力装置62、3次元データ発生回路15、画像演算回路16、表示処理回路17、内部記憶回路18、画像メモリ19(シネメモリ)、入力インタフェース回路110、通信インタフェース回路111、及び制御回路112を備える。   The main body apparatus 10 shown in FIG. 1 is an apparatus that generates an ultrasonic image based on a reflected wave signal received by the ultrasonic probe 20. As shown in FIG. 1, the main body device 10 includes an ultrasonic transmission circuit 11, an ultrasonic reception circuit 12, a B-mode processing circuit 13, a Doppler processing circuit 14, an operation panel 61, an input device 62, a three-dimensional data generation circuit 15, The image processing circuit 16 includes a display processing circuit 17, an internal storage circuit 18, an image memory 19 (cine memory), an input interface circuit 110, a communication interface circuit 111, and a control circuit 112.

超音波送信回路11は、超音波プローブ20に駆動信号を供給するプロセッサである。超音波送信回路11は、例えば、トリガ発生回路、遅延回路、及びパルサ回路等により実現される。トリガ発生回路は、所定のレート周波数で、送信超音波を形成するためのレートパルスを繰り返し発生する。遅延回路は、超音波プローブ20から発生される超音波をビーム状に集束して送信指向性を決定するために必要な圧電振動子毎の遅延時間を、トリガ発生回路が発生する各レートパルスに対し与える。パルサ回路は、レートパルスに基づくタイミングで、超音波プローブ20に駆動信号(駆動パルス)を印加する。遅延回路により各レートパルスに対し与える遅延時間を変化させることで、圧電振動子面からの送信方向が任意に調整可能となる。   The ultrasonic transmission circuit 11 is a processor that supplies a drive signal to the ultrasonic probe 20. The ultrasonic transmission circuit 11 is realized by, for example, a trigger generation circuit, a delay circuit, and a pulser circuit. The trigger generation circuit repeatedly generates rate pulses for forming transmission ultrasonic waves at a predetermined rate frequency. The delay circuit sets the delay time for each piezoelectric vibrator necessary for determining the transmission directivity by focusing the ultrasonic wave generated from the ultrasonic probe 20 into a beam shape for each rate pulse generated by the trigger generation circuit. Give to. The pulser circuit applies a drive signal (drive pulse) to the ultrasonic probe 20 at a timing based on the rate pulse. By changing the delay time given to each rate pulse by the delay circuit, the transmission direction from the surface of the piezoelectric vibrator can be arbitrarily adjusted.

超音波受信回路12は、超音波プローブ20が受信した反射波信号に対して各種処理を施し、受信信号を生成するプロセッサである。超音波受信回路12は、例えば、アンプ回路、A/D変換器、受信遅延回路、及び加算器等により実現される。アンプ回路は、超音波プローブ20が受信した反射波信号をチャンネル毎に増幅してゲイン補正処理を行なう。A/D変換器は、ゲイン補正された反射波信号をデジタル信号に変換する。受信遅延回路は、デジタル信号に受信指向性を決定するのに必要な遅延時間を与える。加算器は、遅延時間が与えられた複数のデジタル信号を加算する。加算器の加算処理により、受信指向性に応じた方向からの反射成分が強調された受信信号が発生する。   The ultrasonic reception circuit 12 is a processor that performs various processes on the reflected wave signal received by the ultrasonic probe 20 and generates a reception signal. The ultrasonic reception circuit 12 is realized by, for example, an amplifier circuit, an A / D converter, a reception delay circuit, and an adder. The amplifier circuit amplifies the reflected wave signal received by the ultrasonic probe 20 for each channel and performs gain correction processing. The A / D converter converts the gain-corrected reflected wave signal into a digital signal. The reception delay circuit gives a delay time necessary for determining the reception directivity to the digital signal. The adder adds a plurality of digital signals given delay times. By the addition processing of the adder, a reception signal in which the reflection component from the direction corresponding to the reception directivity is emphasized is generated.

Bモード処理回路13は、超音波受信回路12から受け取った受信信号に基づき、Bモードデータを生成するプロセッサである。Bモード処理回路13は、超音波受信回路12から受け取った受信信号に対して包絡線検波処理、及び対数増幅処理等を施し、信号強度が輝度の明るさで表現されるデータ(Bモードデータ)を生成する。生成されたBモードデータは、2次元的な超音波走査線上のBモードRAWデータとして不図示のRAWデータメモリに記憶される。   The B-mode processing circuit 13 is a processor that generates B-mode data based on the reception signal received from the ultrasonic reception circuit 12. The B-mode processing circuit 13 performs envelope detection processing, logarithmic amplification processing, and the like on the reception signal received from the ultrasonic reception circuit 12, and data in which the signal intensity is expressed by brightness (B-mode data). Is generated. The generated B mode data is stored in a RAW data memory (not shown) as B mode RAW data on a two-dimensional ultrasonic scanning line.

ドプラ処理回路14は、超音波受信回路12から受け取った受信信号に基づき、ドプラ波形、及びドプラデータを生成するプロセッサである。ドプラ処理回路14は、受信信号から血流信号を抽出し、抽出した血流信号からドプラ波形を生成すると共に、血流信号から平均速度、分散、及びパワー等の情報を多点について抽出したデータ(ドプラデータ)を生成する。   The Doppler processing circuit 14 is a processor that generates a Doppler waveform and Doppler data based on the received signal received from the ultrasonic receiving circuit 12. The Doppler processing circuit 14 extracts a blood flow signal from the received signal, generates a Doppler waveform from the extracted blood flow signal, and data obtained by extracting information such as average velocity, variance, and power from the blood flow signal at multiple points. (Doppler data) is generated.

3次元データ発生回路15は、Bモード処理回路13、及びドプラ処理回路14により生成されたデータに基づき、位置情報付きの3次元画像データを発生するプロセッサである。位置センサ32が装着されている超音波プローブ20が1次元アレイプローブ、又は1.5次元アレイプローブである場合、3次元データ発生回路15は、RAWデータメモリに記憶されたBモードRAWデータに対し、位置検出装置33で算出された超音波プローブ20の位置情報を付加する。また、3次元データ発生回路15は、RAW−ピクセル変換を実行することで、ピクセルから構成される2次元画像データを発生し、発生した2次元画像データに対し、位置検出装置33で算出された超音波プローブ20の位置情報を付加する。   The three-dimensional data generation circuit 15 is a processor that generates three-dimensional image data with position information based on the data generated by the B-mode processing circuit 13 and the Doppler processing circuit 14. When the ultrasonic probe 20 to which the position sensor 32 is attached is a one-dimensional array probe or a 1.5-dimensional array probe, the three-dimensional data generation circuit 15 applies the B-mode RAW data stored in the RAW data memory. The position information of the ultrasonic probe 20 calculated by the position detection device 33 is added. The three-dimensional data generation circuit 15 generates RAW image data composed of pixels by executing RAW-pixel conversion, and the position detection device 33 calculates the generated dimensional image data. The position information of the ultrasonic probe 20 is added.

また、3次元データ発生回路15は、RAWデータメモリに記憶されたBモードRAWデータに対し、空間的な位置情報を加味した補間処理を含むRAW−ボクセル変換を実行することで、所望の範囲のボクセルから構成される3次元の画像データ(以下、ボリュームデータと称する。)を発生する。ボリュームデータには、位置検出装置33で算出された超音波プローブ20の位置情報が付加される。位置センサ32が装着されている超音波プローブ20がメカニカル4次元プローブ(機械揺動方式の3次元プローブ)、又は2次元アレイプローブの場合も同様に、2次元のRAWデータ、2次元画像データ、及び3次元画像データに位置情報が付加される。   In addition, the three-dimensional data generation circuit 15 performs RAW-voxel conversion including interpolation processing with spatial position information on the B-mode RAW data stored in the RAW data memory, so that a desired range of data can be obtained. Three-dimensional image data composed of voxels (hereinafter referred to as volume data) is generated. The position information of the ultrasonic probe 20 calculated by the position detection device 33 is added to the volume data. Similarly, when the ultrasonic probe 20 to which the position sensor 32 is mounted is a mechanical four-dimensional probe (mechanical oscillation type three-dimensional probe) or a two-dimensional array probe, two-dimensional RAW data, two-dimensional image data, And position information is added to the three-dimensional image data.

また、3次元データ発生回路15は、発生したボリュームデータに対してレンダリング処理を施し、レンダリング画像データを発生する。レンダリング処理は、例えば、ボリュームレンダリング(VR:Volume Rendering)、多断面変換表示(MPR:Multi Planar Reconstruction)、及び最大値投影表示(MIP:Maximum Intensity Projection)等の処理である。   The three-dimensional data generation circuit 15 performs rendering processing on the generated volume data and generates rendering image data. The rendering processing is, for example, processing such as volume rendering (VR), multi-section conversion display (MPR: Multi Planar Reconstruction), and maximum value projection display (MIP: Maximum Intensity Projection).

また、3次元データ発生回路15は、所望の走査位置で収集されるMモード画像、及びスペクトラムドプラ画像に、位置検出装置33で算出された超音波プローブ20の位置情報を付加する。また、3次元データ発生回路15は、走査時の画質条件(画角、視野深度、視野角、preset、周波数、及び画憎悪処理条件等)及び走査モード情報、計測画像及び計測結果、並びに、アプリケーション情報及び画像に、位置検出装置33で算出された超音波プローブ20の位置情報を付加する。   In addition, the three-dimensional data generation circuit 15 adds the position information of the ultrasonic probe 20 calculated by the position detection device 33 to the M mode image and the spectrum Doppler image collected at a desired scanning position. The three-dimensional data generation circuit 15 includes image quality conditions at the time of scanning (view angle, depth of field, view angle, preset, frequency, image hate processing conditions, etc.), scan mode information, measurement images and measurement results, and applications. The position information of the ultrasonic probe 20 calculated by the position detection device 33 is added to the information and the image.

画像演算回路16は、3次元データ発生回路15で発生された各種画像データに基づき、生体座標系の3次元空間において各種画像データを俯瞰的に表示するマップ表示画像データを発生するプロセッサである。画像演算回路16は、内部記憶回路18に記憶されている画像処理プログラムを実行することで、当該プログラムに対応する機能を実現する。   The image calculation circuit 16 is a processor that generates map display image data for displaying various image data in a bird's-eye view in the three-dimensional space of the biological coordinate system based on the various image data generated by the three-dimensional data generation circuit 15. The image arithmetic circuit 16 implements a function corresponding to the program by executing the image processing program stored in the internal storage circuit 18.

具体的には、画像演算回路16は、3次元データ発生回路15で発生された2次元画像データに基づき、生体座標系の3次元空間において2次元画像データを俯瞰的に表示するマップ表示画像データを発生する。また、画像演算回路16は、3次元データ発生回路15で発生されたレンダリング画像データ(MPR像、及びVR像)に基づき、生体座標系の3次元空間においてレンダリング画像データを俯瞰的に表示するマップ表示画像データを発生する。   Specifically, the image calculation circuit 16 is based on the two-dimensional image data generated by the three-dimensional data generation circuit 15 and displays map display image data that displays the two-dimensional image data in a three-dimensional space of the biological coordinate system. Is generated. Further, the image calculation circuit 16 is a map that displays the rendering image data in a three-dimensional space of the biological coordinate system based on the rendering image data (MPR image and VR image) generated by the three-dimensional data generation circuit 15. Display image data is generated.

また、画像演算回路16は、3次元データ発生回路15で位置情報が付加されたMモード画像データに基づき、生体座標系の3次元空間においてMモード画像データを俯瞰的に表示するマップ表示画像データを発生する。また、画像演算回路16は、3次元データ発生回路15で位置情報が付加されたスペクトラムドプラ画像データに基づき、生体座標系の3次元空間においてスペクトラムドプラ画像データを俯瞰的に表示するマップ表示画像データを発生する。また、画像演算回路16は、3次元データ発生回路15で位置情報が付加された、走査時の画質条件及び走査モード情報、計測画像及び計測結果、並びに、アプリケーション情報及び画像を、俯瞰的に表示するマップ表示画像データを発生する。   Further, the image calculation circuit 16 is a map display image data for displaying the M mode image data in a bird's eye view in the three-dimensional space of the biological coordinate system based on the M mode image data to which the position information is added by the three-dimensional data generation circuit 15. Is generated. The image calculation circuit 16 is a map display image data for displaying the spectrum Doppler image data in a bird's-eye view in the three-dimensional space of the biological coordinate system based on the spectrum Doppler image data to which the position information is added by the three-dimensional data generation circuit 15. Is generated. Further, the image calculation circuit 16 displays a bird's-eye view of the image quality condition and scanning mode information at the time of scanning, the measurement image and the measurement result, and the application information and the image to which the position information is added by the three-dimensional data generation circuit 15. Map display image data to be generated.

表示処理回路17は、3次元データ発生回路15、及び画像演算回路16において発生された各種画像データに対し、ダイナミックレンジ、輝度(ブライトネス)、コントラスト、γカーブ補正、及びRGB変換等の各種処理を実行することで、画像データをビデオ信号に変換する。表示処理回路17は、ビデオ信号を表示機器50に表示させる。なお、表示処理回路17は、操作者が入力インタフェース回路110により各種指示を入力するためのGUI(Graphical User Interface)を表示機器50に表示させてもよい。表示機器としては、例えば、CRTディスプレイや液晶ディスプレイ、有機ELディスプレイ、LEDディスプレイ、プラズマディスプレイ、又は当技術分野で知られている他の任意のディスプレイが適宜利用可能である。   The display processing circuit 17 performs various processes such as dynamic range, brightness (brightness), contrast, γ curve correction, and RGB conversion on various image data generated in the three-dimensional data generation circuit 15 and the image calculation circuit 16. By executing this, the image data is converted into a video signal. The display processing circuit 17 displays the video signal on the display device 50. Note that the display processing circuit 17 may cause the display device 50 to display a GUI (Graphical User Interface) for an operator to input various instructions using the input interface circuit 110. As the display device, for example, a CRT display, a liquid crystal display, an organic EL display, an LED display, a plasma display, or any other display known in the art can be used as appropriate.

画像メモリ19は、例えば、磁気的若しくは光学的記録媒体、又は半導体メモリ等のプロセッサにより読み取り可能な記録媒体等を有する。画像メモリ19は、入力インタフェース回路110を介して入力されるフリーズ操作直前の複数フレームに対応する画像データを保存する。画像メモリ19に記憶されている画像データは、例えば、連続表示(シネ表示)される。   The image memory 19 includes, for example, a magnetic or optical recording medium, or a recording medium that can be read by a processor such as a semiconductor memory. The image memory 19 stores image data corresponding to a plurality of frames immediately before the freeze operation input via the input interface circuit 110. The image data stored in the image memory 19 is continuously displayed (cine display), for example.

内部記憶回路18は、例えば、磁気的若しくは光学的記録媒体、又は半導体メモリ等のプロセッサにより読み取り可能な記録媒体等を有する。内部記憶回路18は、超音波送受信を実現するための制御プログラム、画像処理を行うための制御プログラム、及び表示処理を行なうための制御プログラム等を記憶している。また、内部記憶回路18は、診断情報(例えば、患者ID、医師の所見等)、診断プロトコル、ボディマーク生成プログラム、及び映像化に用いるカラーデータの範囲を診断部位毎に予め設定する変換テーブル等のデータ群を記憶している。また、内部記憶回路18は、生体内の臓器の構造に関する解剖学図譜、例えば、アトラスを記憶している。   The internal storage circuit 18 includes, for example, a magnetic or optical recording medium, or a recording medium that can be read by a processor such as a semiconductor memory. The internal storage circuit 18 stores a control program for realizing ultrasonic transmission / reception, a control program for performing image processing, a control program for performing display processing, and the like. The internal storage circuit 18 also includes diagnostic information (for example, patient ID, doctor's findings, etc.), diagnostic protocol, body mark generation program, and conversion table that presets the range of color data used for imaging for each diagnostic site. The data group is memorized. The internal storage circuit 18 stores an anatomical chart related to the structure of the organ in the living body, for example, an atlas.

また、内部記憶回路18は、入力インタフェース回路110を介して入力される記憶操作に従い、3次元データ発生回路15で発生された2次元画像データ、ボリュームデータ、レンダリング画像データ、位置情報付きMモード画像データ、及び位置情報付きスペクトラムドプラ画像データを記憶する。なお、内部記憶回路18は、入力インタフェース回路110を介して入力される記憶操作に従い、3次元データ発生回路15で発生された位置情報付きの2次元画像データ、位置情報付きのボリュームデータ、位置情報付きのレンダリング画像データ、位置情報付きのドプラ波形、及び位置情報付きのスペクトラムドプラデータを、操作順番及び操作時間を含めて記憶してもよい。また、内部記憶回路18は、入力インタフェース回路110を介して入力される記憶操作に従い、画像演算回路16で発生されるマップ表示画像データを記憶する。内部記憶回路18は、これらのデータと対応付けて、超音波診断装置1の操作情報、画像条件情報、及び超音波検査に関する超音波データ等を記憶する。操作情報は、モードの変更、画質プリセットの変更、表示レイアウトの変更、画像の保存、計測の起動、アプリケーションの起動、及びプローブの変更等を含む。画質条件情報は、周波数、視野深度、視野角、ビーム密度、フレームレート、MI(Mechanical Index)値等の超音波送信条件、画像処理設定、及び3次元画質パラメータ等を含む。超音波データは、例えば、計測情報、アノテーション情報、心電(ECG:Electro Cardiogram)波形等の生体参照情報、MI(Mechanical Index)値等の超音波送信条件情報、及び取得時刻情報等を含む。また、内部記憶回路18は、生体参照部位の位置情報を記憶する。内部記憶回路18は、記憶しているデータを、通信インタフェース回路111を介して外部の周辺装置へ転送することも可能である。   The internal storage circuit 18 also receives the 2D image data, volume data, rendering image data, and M mode image with position information generated by the 3D data generation circuit 15 in accordance with the storage operation input via the input interface circuit 110. Data and spectrum Doppler image data with position information are stored. Note that the internal storage circuit 18 has two-dimensional image data with position information, volume data with position information, and position information generated by the three-dimensional data generation circuit 15 in accordance with a storage operation input via the input interface circuit 110. The attached rendering image data, the Doppler waveform with position information, and the spectrum Doppler data with position information may be stored including the operation order and operation time. Further, the internal storage circuit 18 stores map display image data generated by the image calculation circuit 16 in accordance with a storage operation input via the input interface circuit 110. The internal storage circuit 18 stores operation information, image condition information, ultrasonic data related to ultrasonic examination, and the like of the ultrasonic diagnostic apparatus 1 in association with these data. The operation information includes a mode change, an image quality preset change, a display layout change, an image storage, a measurement start, an application start, a probe change, and the like. The image quality condition information includes an ultrasonic transmission condition such as a frequency, a depth of field, a viewing angle, a beam density, a frame rate, an MI (Mechanical Index) value, an image processing setting, a three-dimensional image quality parameter, and the like. The ultrasonic data includes, for example, measurement information, annotation information, biological reference information such as an electrocardiogram (ECG) waveform, ultrasonic transmission condition information such as an MI (Mechanical Index) value, acquisition time information, and the like. Further, the internal storage circuit 18 stores position information of the biological reference site. The internal storage circuit 18 can also transfer the stored data to an external peripheral device via the communication interface circuit 111.

また、内部記憶回路18は、外部装置40から転送される画像データを記憶する。例えば、内部記憶回路18は、過去の診察において取得された同一患者に関する過去画像データを、外部装置40から取得して記憶する。過去画像データには、超音波画像データ、CT(Computed Tomography)画像データ、MR画像データ、PET(Positron Emission Tomography)画像データ、及びX線画像データが含まれる。   The internal storage circuit 18 stores image data transferred from the external device 40. For example, the internal storage circuit 18 acquires and stores past image data regarding the same patient acquired in the past examination from the external device 40. The past image data includes ultrasound image data, CT (Computed Tomography) image data, MR image data, PET (Positron Emission Tomography) image data, and X-ray image data.

入力インタフェース回路110は、例えば、マウス、キーボード、パネルスイッチ、スライダースイッチ、トラックボール、及びロータリーエンコーダ等の入力装置62から、操作パネル、及びタッチコマンドスクリーン(TCS)61等を介し、操作者からの各種指示を受け付ける。入力インタフェース回路110は、例えばバスを介して制御回路112に接続され、操作者から入力される操作指示を電気信号へ変換し、電気信号を制御回路112へ出力する。なお、本明細書において入力インタフェース回路110は、マウス及びキーボード等の物理的な操作部品と接続するものだけに限られない。例えば、超音波診断装置1とは別体に設けられた外部の入力機器から入力される操作指示に対応する電気信号を受け取り、この電気信号を制御回路112へ出力する電気信号の処理回路も入力インタフェース回路110の例に含まれる。   The input interface circuit 110 is, for example, input from an input device 62 such as a mouse, a keyboard, a panel switch, a slider switch, a trackball, and a rotary encoder, via an operation panel, a touch command screen (TCS) 61, and the like. Accepts various instructions. The input interface circuit 110 is connected to the control circuit 112 via, for example, a bus, converts an operation instruction input from the operator into an electric signal, and outputs the electric signal to the control circuit 112. In the present specification, the input interface circuit 110 is not limited to one that is connected to physical operation components such as a mouse and a keyboard. For example, an electrical signal processing circuit that receives an electrical signal corresponding to an operation instruction input from an external input device provided separately from the ultrasound diagnostic apparatus 1 and outputs the electrical signal to the control circuit 112 is also input. An example of the interface circuit 110 is included.

通信インタフェース回路111は、位置センサシステム30と例えば無線により接続し、位置検出装置33から送信される位置情報を受信する。また、通信インタフェース回路111は、ネットワーク100等を介して外部装置40と接続され、外部装置40との間でデータ通信を行う。外部装置40は、例えば、各種の医用画像のデータを管理するシステムであるPACS(Picture Archiving and Communication System)のデータベース、医用画像が添付された電子カルテを管理する電子カルテシステムのデータベース等である。また、外部装置40は、例えば、X線CT装置、及びMRI(Magnetic Resonance Imaging)装置、核医学診断装置、及びX線診断装置等、本実施形態に係る超音波診断装置1以外の各種医用画像診断装置である。なお、外部装置40との通信の規格は、如何なる規格であっても良いが、例えば、DICOM(digital imaging and communication in medicine)が挙げられる。   The communication interface circuit 111 is connected to the position sensor system 30 by radio, for example, and receives position information transmitted from the position detection device 33. The communication interface circuit 111 is connected to the external device 40 via the network 100 or the like, and performs data communication with the external device 40. The external device 40 is, for example, a PACS (Picture Archiving and Communication System) database that is a system that manages data of various medical images, a database of an electronic medical record system that manages an electronic medical record to which medical images are attached, and the like. The external device 40 includes various medical images other than the ultrasonic diagnostic apparatus 1 according to the present embodiment, such as an X-ray CT apparatus, an MRI (Magnetic Resonance Imaging) apparatus, a nuclear medicine diagnostic apparatus, and an X-ray diagnostic apparatus. It is a diagnostic device. The standard for communication with the external device 40 may be any standard, for example, DICOM (digital imaging and communication in medicine).

制御回路112は、超音波診断装置1の中枢として機能するプロセッサである。制御回路112は、内部記憶回路18に記憶されている制御プログラムを実行することで、当該プログラムに対応する機能を実現する。例えば、制御回路112は、生体参照部位の位置情報を内部記憶回路18に記憶させる機能、すなわち、生体参照部位の位置情報を登録する登録機能を有する。   The control circuit 112 is a processor that functions as the center of the ultrasonic diagnostic apparatus 1. The control circuit 112 implements a function corresponding to the program by executing the control program stored in the internal storage circuit 18. For example, the control circuit 112 has a function of storing the position information of the biological reference site in the internal storage circuit 18, that is, a registration function of registering the position information of the biological reference site.

図1に示される画像演算回路16は、本実施形態に係る画像処理プログラムを実行することで、3次元データ発生回路15で発生される各種画像データを生体座標系の3次元空間において俯瞰的に表示するマップ表示画像データを発生する処理を実現する。具体的には、画像演算回路16は、画像処理プログラムを実行することで、参照部位制御機能161、座標変換機能162、及び画像発生機能163を有する。   The image calculation circuit 16 shown in FIG. 1 executes an image processing program according to the present embodiment, and thus, various image data generated by the three-dimensional data generation circuit 15 is viewed in a three-dimensional space of a biological coordinate system. A process for generating map display image data to be displayed is realized. Specifically, the image calculation circuit 16 has a reference site control function 161, a coordinate conversion function 162, and an image generation function 163 by executing an image processing program.

参照部位制御機能161の実行により画像演算回路16は、表示機器50に表示される超音波断層画像に対して操作者から生体参照部位の指定を受けると、超音波断層画像を取得した際の超音波プローブ20の位置と、超音波断層画像内において指定された位置とに基づき、位置センサシステム30により規定される3次元空間における生体参照部位の位置を算出する。   When the reference operation control function 161 is executed, the image calculation circuit 16 receives the designation of the living body reference region from the operator for the ultrasonic tomographic image displayed on the display device 50, and the image calculation circuit 16 obtains the ultrasonic image when the ultrasonic tomographic image is acquired. Based on the position of the acoustic probe 20 and the position specified in the ultrasonic tomographic image, the position of the biological reference site in the three-dimensional space defined by the position sensor system 30 is calculated.

座標変換機能162の実行により画像演算回路16は、3次元データ発生回路15で発生された各種画像データに付加されている位置座標を、生体参照部位の位置に基づいて定義される生体座標系へ変換する。具体的には、画像演算回路16は、3次元データ発生回路15で、2次元画像データ、レンダリング画像データ、Mモード画像データ、又はスペクトラムドプラ画像データに付加された位置座標を、生体座標系へ変換する。画像演算回路16は、生体座標系を、生体参照部位の位置(x,y,z,θx,θy,θz)に基づいて定義する。例えば、生体座標系は、位置(x,y,z)が原点となり、回転角度(θx,θy,θz)に基づき、スキャン方向であるアジマス方向にx軸が設定され、深さ方向にy軸が設定され、かつ、揺動方向であるエレベーション方向にz軸が設定されるように定義される。   By executing the coordinate conversion function 162, the image calculation circuit 16 converts the position coordinates added to the various image data generated by the three-dimensional data generation circuit 15 into a biological coordinate system defined based on the position of the biological reference site. Convert. Specifically, the image calculation circuit 16 uses the three-dimensional data generation circuit 15 to transfer the position coordinates added to the two-dimensional image data, rendering image data, M-mode image data, or spectrum Doppler image data to the living body coordinate system. Convert. The image calculation circuit 16 defines the biological coordinate system based on the position (x, y, z, θx, θy, θz) of the biological reference site. For example, in the biological coordinate system, the position (x, y, z) is the origin, the x-axis is set in the azimuth direction that is the scan direction, and the y-axis is in the depth direction based on the rotation angle (θx, θy, θz). And the z-axis is defined to be set in the elevation direction that is the swinging direction.

画像発生機能163の実行により画像演算回路16は、3次元データ発生回路15で発生された各種画像データを、座標変換後の位置座標、すなわち、生体座標系の3次元空間における対応位置に配置したマップ表示画像データを発生する。   By executing the image generation function 163, the image calculation circuit 16 arranges various image data generated by the three-dimensional data generation circuit 15 at corresponding positions in the three-dimensional space of the coordinate system after the coordinate conversion, that is, the biological coordinate system. Generate map display image data.

具体的には、画像演算回路16は、2次元画像データ、レンダリング画像データ、Mモード画像データ、又はスペクトラムドプラ画像データを、座標変換後の位置座標に配置したマップ表示画像データを発生する。これにより、マップ表示画像データでは、各種画像データは、生体座標系の3次元空間において俯瞰的に表示されることになる。   Specifically, the image calculation circuit 16 generates map display image data in which two-dimensional image data, rendering image data, M-mode image data, or spectrum Doppler image data is arranged at position coordinates after coordinate conversion. Thereby, in the map display image data, various image data are displayed in a bird's-eye view in the three-dimensional space of the biological coordinate system.

なお、参照部位制御機能161、座標変換機能162、及び画像発生機能163は、本実施形態に係る画像処理プログラムを構成するモジュールであるとした。しかしながら、これに限定されない。例えば、画像演算回路16は、参照部位制御機能161を実現する専用のハードウェア回路、座標変換機能162を実現する専用のハードウェア回路、及び画像発生機能163を実現する専用のハードウェア回路を有しても良い。また、画像演算回路16は、これら専用のハードウェア回路を組み込んだ特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、フィールド・プログラマブル・ゲート・アレイ(Field Programmable Logic Device:FPGA)、他の複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、又は単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)により実現されても良い。   The reference part control function 161, the coordinate conversion function 162, and the image generation function 163 are assumed to be modules constituting the image processing program according to the present embodiment. However, it is not limited to this. For example, the image calculation circuit 16 has a dedicated hardware circuit that realizes the reference site control function 161, a dedicated hardware circuit that realizes the coordinate conversion function 162, and a dedicated hardware circuit that realizes the image generation function 163. You may do it. The image arithmetic circuit 16 includes an application specific integrated circuit (ASIC), a field programmable gate device (FPGA), and other composites that incorporate these dedicated hardware circuits. You may implement | achieve by a programmable logic device (Complex Programmable Logic Device: CPLD) or a simple programmable logic device (Simple Programmable Logic Device: SPLD).

図2は、本実施形態に係る超音波診断装置1が2次元画像データを取得する処理の流れの例を示す図である。以下では、生体参照部位を剣状突起とする場合を例に説明する。なお、剣状突起を生体参照部位とすることは、体表に生体参照部位を設定することに対応する。また、以下では、3次元データ発生回路15により2次元画像データが発生される場合を例に説明する。   FIG. 2 is a diagram illustrating an example of a processing flow in which the ultrasound diagnostic apparatus 1 according to the present embodiment acquires two-dimensional image data. In the following, a case where the living body reference site is a xiphoid process will be described as an example. Note that setting the xiphoid process as the living body reference site corresponds to setting the living body reference site on the body surface. In the following, a case where two-dimensional image data is generated by the three-dimensional data generation circuit 15 will be described as an example.

被検体Pに対する超音波検査の実施に先立ち、入力インタフェース回路110を介した操作者の指示により、診断情報の入力、送受信条件の設定、及び種々の超音波データの収集条件の設定等が実行される。これらの情報は、内部記憶回路18に記憶される。   Prior to performing an ultrasonic examination on the subject P, input of diagnostic information, setting of transmission / reception conditions, setting of collection conditions of various ultrasonic data, and the like are executed in accordance with an operator instruction via the input interface circuit 110. The These pieces of information are stored in the internal storage circuit 18.

また、操作者は、被検体Pに対する超音波検査の実施に先立ち、生体参照部位Rの位置情報を登録する。具体的には、例えば、操作者は、生体参照部位Rとして設定した剣状突起を含むアキシャル面を走査するように、超音波プローブ20を被検体Pの体表に垂直方向に当接させる。図3は、超音波プローブ20を被検体Pの体表に垂直方向に当接させた際の模式図を示す図である。操作者は、超音波プローブ20を被検体Pに当接させると、操作パネル61、又は超音波プローブ20に設けられるボタンを押下する。これにより指定指示が制御回路112に入力される。制御回路112は、指定指示が入力された時点で位置検出装置33により算出された超音波プローブ20の位置を取得する(ステップS21)。   Further, the operator registers the position information of the biological reference site R prior to performing the ultrasonic examination on the subject P. Specifically, for example, the operator brings the ultrasonic probe 20 into contact with the body surface of the subject P in the vertical direction so as to scan the axial surface including the sword-like projection set as the living body reference region R. FIG. 3 is a diagram showing a schematic diagram when the ultrasonic probe 20 is brought into contact with the body surface of the subject P in the vertical direction. When the operator brings the ultrasonic probe 20 into contact with the subject P, the operator presses a button provided on the operation panel 61 or the ultrasonic probe 20. As a result, a designation instruction is input to the control circuit 112. The control circuit 112 acquires the position of the ultrasonic probe 20 calculated by the position detection device 33 at the time when the designation instruction is input (step S21).

超音波プローブ20が被検体Pに当接されると、超音波プローブ20から超音波が被検体Pに送信され、超音波プローブ20を当接させた位置における被検体Pの超音波断層画像が表示機器50に表示される。制御回路112は、ボタンの押下に続き、表示機器50に表示される超音波断層画像における任意の部位への指定があるか否かを判断する(ステップS22)。表示機器50の表面には、例えば、入力インタフェース回路110としてのタッチコマンドスクリーンが設けられる。操作者が表示機器50に表示される超音波断層画像における所定の部位に接触すると、タッチコマンドスクリーンにより、当該部位への接触が感知され、操作者が当該部位を指定したと認識される。なお、トラックボール等により表示機器50内のカーソルを操作し、表示機器50に表示される超音波断層画像における所定の部位を操作者が指定するようにしてもよい。   When the ultrasonic probe 20 is brought into contact with the subject P, ultrasonic waves are transmitted from the ultrasonic probe 20 to the subject P, and an ultrasonic tomographic image of the subject P at a position where the ultrasonic probe 20 is brought into contact is obtained. It is displayed on the display device 50. Following the pressing of the button, the control circuit 112 determines whether or not there is designation for an arbitrary part in the ultrasonic tomographic image displayed on the display device 50 (step S22). On the surface of the display device 50, for example, a touch command screen as the input interface circuit 110 is provided. When the operator touches a predetermined part in the ultrasonic tomographic image displayed on the display device 50, the touch command screen senses contact with the part and recognizes that the operator has designated the part. It should be noted that the cursor in the display device 50 may be operated with a trackball or the like so that the operator designates a predetermined part in the ultrasonic tomographic image displayed on the display device 50.

剣状突起が生体参照部位Rに設定されている場合には、ボタンの押下に続く、表示機器50に表示される超音波断層画像における任意の部位への指定はない(ステップS22のNo)。制御回路112は、ステップS21で取得した超音波プローブ20の位置を、参照部位の位置として登録する(ステップS23)。   When the xiphoid process is set as the living body reference region R, there is no designation to an arbitrary region in the ultrasonic tomographic image displayed on the display device 50 following the pressing of the button (No in step S22). The control circuit 112 registers the position of the ultrasonic probe 20 acquired in step S21 as the position of the reference site (step S23).

一方で、生体参照部位は、体表に存在するとは限らない。生体参照部位が、例えば、僧帽弁、及び網脈分岐部等、体内に存在する場合もある。このような場合、ボタンの押下に続き、表示機器50に表示される超音波断層画像における任意の部位が指定される(ステップS22のYes)。ボタンの押下に続き、表示機器50に表示される超音波断層画像における任意の部位が指定されると、制御回路112は、指定指示が入力された時点で位置検出装置33により算出された超音波プローブ20の位置(x,y,z,θx,θy,θz)と、超音波断層画像において指定された部位の超音波断層画像内の位置(x’,y’)とを取得する。図4は、表示機器50に表示される超音波断層画像において生体参照部位Rを指定する際の模式図を示す図である。   On the other hand, the biological reference site does not necessarily exist on the body surface. The biological reference site may exist in the body, for example, a mitral valve and a network branch. In such a case, after pressing the button, an arbitrary part in the ultrasonic tomographic image displayed on the display device 50 is specified (Yes in step S22). When an arbitrary part in the ultrasonic tomographic image displayed on the display device 50 is specified following the pressing of the button, the control circuit 112 detects the ultrasonic wave calculated by the position detection device 33 when the specification instruction is input. The position (x, y, z, θx, θy, θz) of the probe 20 and the position (x ′, y ′) in the ultrasonic tomographic image of the site specified in the ultrasonic tomographic image are acquired. FIG. 4 is a diagram illustrating a schematic diagram when the living body reference region R is designated in the ultrasonic tomographic image displayed on the display device 50.

画像演算回路16は、超音波プローブ20の位置(x,y,z,θx,θy,θz)と、超音波断層画像内の位置(x’,y’)とが取得されると、参照部位制御機能161を実行する。参照部位制御機能161の実行により画像演算回路16は、超音波プローブ20の位置(x,y,z,θx,θy,θz)と、超音波断層画像内の位置(x’,y’)とから、位置センサシステム30により規定される3次元空間における、超音波断層画像において指定された部位の位置を算出する(ステップS24)。制御回路112は、算出された位置を、体内における生体参照部位Rの位置として登録する(ステップS23)。   When the position (x, y, z, θx, θy, θz) of the ultrasonic probe 20 and the position (x ′, y ′) in the ultrasonic tomographic image are acquired, the image calculation circuit 16 acquires the reference region. The control function 161 is executed. By executing the reference site control function 161, the image calculation circuit 16 determines the position (x, y, z, θx, θy, θz) of the ultrasonic probe 20 and the position (x ′, y ′) in the ultrasonic tomographic image. Then, the position of the part designated in the ultrasonic tomographic image in the three-dimensional space defined by the position sensor system 30 is calculated (step S24). The control circuit 112 registers the calculated position as the position of the biological reference site R in the body (step S23).

なお、操作者は、生体参照部位を設定する際に、過去の診察において取得された同一患者に関する過去画像データを参照してもよい。過去画像データには、超音波画像データ、CT画像データ、MR画像データ、PET画像データ、及びX線画像データが含まれる。制御回路112は、参照した過去画像データを取得する画像データと対応させて内部記憶回路18に記憶してもよい。   Note that the operator may refer to the past image data regarding the same patient acquired in the past examination when setting the living body reference site. The past image data includes ultrasonic image data, CT image data, MR image data, PET image data, and X-ray image data. The control circuit 112 may store the referenced past image data in the internal storage circuit 18 in association with the acquired image data.

また、ステップS22〜S24では、表示機器50に表示される超音波断層画像における任意の部位への指定に基づき、体内に存在する生体参照部位の位置を取得する場合を例に説明した。しかしながら、本実施形態はこれに限定されない。超音波診断装置1は、表示機器50に、過去の診察において同一の被検体から取得され、リアルタイムに取得される超音波断層画像と同等の位置に相当する領域を含む3次元超音波画像、3次元CT画像、3次元MR画像、又は3次元X線画像を参照画像として表示させ、超音波検査時に操作者に参照させる画像参照機能を備えていてもよい。なお、このような画像参照機能を実現するには、超音波検査の実施に先立ち、超音波プローブ20の位置と、3次元画像内の位置とを関連付けておく必要がある。以下に、表示機器50に過去の3次元CT画像を参照画像として表示させた場合の処理を具体的に説明する。   Moreover, in steps S22 to S24, the case where the position of the living body reference part existing in the body is acquired based on the designation to an arbitrary part in the ultrasonic tomographic image displayed on the display device 50 has been described as an example. However, this embodiment is not limited to this. The ultrasonic diagnostic apparatus 1 includes a three-dimensional ultrasonic image including a region corresponding to a position equivalent to an ultrasonic tomographic image acquired in real time on the display device 50 from the same subject in a past examination. An image reference function may be provided in which a three-dimensional CT image, a three-dimensional MR image, or a three-dimensional X-ray image is displayed as a reference image and is referred to by an operator at the time of ultrasonic examination. In order to realize such an image reference function, it is necessary to associate the position of the ultrasonic probe 20 with the position in the three-dimensional image prior to performing the ultrasonic examination. Hereinafter, a process in the case where a past three-dimensional CT image is displayed as a reference image on the display device 50 will be specifically described.

位置センサシステム30の座標系と、3次元CTデータの座標系とは、所望の方法で、事前に位置合わせが行われる。   The coordinate system of the position sensor system 30 and the coordinate system of the three-dimensional CT data are aligned in advance by a desired method.

制御回路112は、操作パネル61、又は超音波プローブ20に設けられるボタンの押下に続き、表示機器50に表示される、3次元CT画像における任意の部位への指定があるか否かを判断する。ボタンの押下に続き、表示機器50に表示される3次元CT画像における任意の部位への指定がある場合、制御回路112は、指定された時点で位置検出装置33により算出された超音波プローブ20の位置と、3次元CT画像において指定された部位の3次元CT画像内の位置とを取得する。画像演算回路16は、超音波プローブ20の位置と、3次元CT画像内の位置とが取得されると、これらの位置に基づき、位置センサシステム30により規定される3次元空間における、3次元CT画像において指定された部位の位置を算出する。制御回路112は、算出された位置を、生体内における生体参照部位Rの位置として登録する。   The control circuit 112 determines whether or not there is designation for an arbitrary part in the three-dimensional CT image displayed on the display device 50 following the pressing of the button provided on the operation panel 61 or the ultrasonic probe 20. . When there is designation of an arbitrary part in the three-dimensional CT image displayed on the display device 50 following the pressing of the button, the control circuit 112 causes the ultrasonic probe 20 calculated by the position detection device 33 at the designated time. And the position in the 3D CT image of the part designated in the 3D CT image. When the position of the ultrasonic probe 20 and the position in the three-dimensional CT image are acquired, the image calculation circuit 16 acquires the three-dimensional CT in the three-dimensional space defined by the position sensor system 30 based on these positions. The position of the designated part in the image is calculated. The control circuit 112 registers the calculated position as the position of the living body reference site R in the living body.

また、ステップS22では、表示機器50に表示される超音波断層画像における任意の部位が操作者により指定される場合を例に説明した。しかしながら、これに限定されない。表示機器50に表示される超音波断層画像、又は参照画像における任意の部位は、画像解析機能により所望の部位を自動認識することで指定されてもよい。   Moreover, in step S22, the case where the arbitrary part in the ultrasonic tomographic image displayed on the display apparatus 50 is designated by the operator was described as an example. However, it is not limited to this. An arbitrary part in the ultrasonic tomographic image or the reference image displayed on the display device 50 may be specified by automatically recognizing a desired part by the image analysis function.

生体参照部位Rが登録されると、操作者は、超音波プローブ20を用いて被検体Pの超音波検査を実施する。超音波プローブ20の位置は、位置センサシステム30により検出され、位置情報として本体装置10へ出力される(ステップS25)。超音波プローブ20は、被検体Pを2次元で走査する複数の超音波振動子により、例えば用手的に被検体Pを3次元で走査する。超音波プローブ20から被検体Pへ送信された超音波は、被検体Pの体内組織における音響インピーダンスの不連続面で次々と反射され、反射波信号として超音波プローブ20で受信される。超音波受信回路12は、超音波プローブ20が受信した反射波信号に対して各種処理を施し、受信信号を生成する(ステップS26)。   When the biological reference site R is registered, the operator performs an ultrasonic examination of the subject P using the ultrasonic probe 20. The position of the ultrasonic probe 20 is detected by the position sensor system 30, and is output to the main body apparatus 10 as position information (step S25). The ultrasonic probe 20 manually scans the subject P three-dimensionally, for example, manually using a plurality of ultrasonic transducers that scan the subject P two-dimensionally. The ultrasonic waves transmitted from the ultrasonic probe 20 to the subject P are successively reflected by the discontinuous surface of the acoustic impedance in the body tissue of the subject P, and are received by the ultrasonic probe 20 as a reflected wave signal. The ultrasonic reception circuit 12 performs various processes on the reflected wave signal received by the ultrasonic probe 20 to generate a reception signal (step S26).

Bモード処理回路13は、超音波受信回路12から受け取った受信信号に基づき、2次元的な超音波走査線上のBモードRAWデータを生成する。3次元データ発生回路15は、Bモード処理回路13により生成された2次元的なBモードRAWデータに対してRAW−ピクセル変換を実行することで、位置情報が付加された複数の2次元画像データを発生する(ステップS27)。複数の2次元画像データは、用手的に移動しながら収集された複断層画像を表す。表示処理回路17は、発生された複数の2次元画像データのうち1つの2次元画像データをビデオ信号に変換し、表示機器50に表示させる(ステップS28)。   The B-mode processing circuit 13 generates B-mode RAW data on a two-dimensional ultrasonic scanning line based on the reception signal received from the ultrasonic receiving circuit 12. The three-dimensional data generation circuit 15 performs a RAW-pixel conversion on the two-dimensional B-mode RAW data generated by the B-mode processing circuit 13, thereby a plurality of two-dimensional image data to which position information is added. Is generated (step S27). The plurality of two-dimensional image data represents a multiple tomographic image acquired while moving manually. The display processing circuit 17 converts one two-dimensional image data out of the plurality of generated two-dimensional image data into a video signal and displays it on the display device 50 (step S28).

操作者は、超音波プローブ20を移動させながら、表示機器50に表示される2次元画像を注視し、表示される2次元画像に所望の構造等が含まれると判断した場合、入力インタフェース回路110を介してフリーズ操作を実施する。フリーズ操作直前の複数フレームに対応する2次元画像データは、画像メモリ19に保存される。操作者は、画像メモリ19に保存される2次元画像を確認し、保存される2次元画像が内部記憶回路18に記憶するべき2次元画像であると判断する場合、入力インタフェース回路110を介してこの位置情報が付加された2次元画像に対する記憶操作を実施する。このとき、所定のスイッチ操作を開始点として、所定の時間の経過時、又は次のスイッチ操作まで、位置情報が付加された2次元画像に対する記憶操作が実施されるようにしてもよい。   When the operator watches the two-dimensional image displayed on the display device 50 while moving the ultrasonic probe 20 and determines that the displayed two-dimensional image includes a desired structure or the like, the input interface circuit 110 Perform freeze operation via Two-dimensional image data corresponding to a plurality of frames immediately before the freeze operation is stored in the image memory 19. When the operator confirms the two-dimensional image stored in the image memory 19 and determines that the stored two-dimensional image is a two-dimensional image to be stored in the internal storage circuit 18, the operator inputs via the input interface circuit 110. A storage operation is performed on the two-dimensional image to which the position information is added. At this time, the storage operation for the two-dimensional image to which the position information is added may be performed when a predetermined switch operation is started and when a predetermined time elapses or until the next switch operation.

制御回路112は、記憶操作が実施されたか否かを判断する(ステップS29)。記憶操作が実施された場合(ステップS29のYes)、制御回路112は、記憶操作の対象となった2次元画像データに位置情報を付加して内部記憶回路18に記憶する(ステップS210)。2次元画像データには、座標変換後の生体座標系に関する位置情報が付加されて記憶されても構わない。位置センサ32が装着されている超音波プローブ20がメカニカル4次元プローブ(機械揺動方式の3次元プローブ)、又は2次元アレイプローブの場合、制御回路112は、記憶操作の対象となった2次元画像データと同時に、超音波プローブ20の揺動、又は電子的なスライス方向への走査により生成された複数の2次元画像データF1〜Fnに、超音波プローブ20の位置と、3次元操作情報とに基づいて算出される位置情報を付加して内部記憶回路18に記憶する(ステップS210)。なお、2次元画像データF1〜Fnは、座標変換後の生体座標系に関する位置情報が付加されて記憶されても構わない。F1〜Fnは、2次元画像データを取得した順序を表す。記憶操作が実施されなかった場合(ステップS29のNo)、制御回路112は、フリーズ操作を解除し、処理をステップS25へ移行する。なお、ステップS29がなく、常時、画像に位置情報がリアルタイムに付加されることも考えられる。   The control circuit 112 determines whether a storage operation has been performed (step S29). When the storage operation is performed (Yes in step S29), the control circuit 112 adds the position information to the two-dimensional image data that is the target of the storage operation and stores it in the internal storage circuit 18 (step S210). The two-dimensional image data may be stored with position information related to the biological coordinate system after coordinate conversion. When the ultrasonic probe 20 to which the position sensor 32 is attached is a mechanical four-dimensional probe (a mechanical swing type three-dimensional probe) or a two-dimensional array probe, the control circuit 112 performs the two-dimensional operation target of the storage operation. Simultaneously with the image data, the position of the ultrasonic probe 20, the three-dimensional operation information, and the like are added to a plurality of two-dimensional image data F1 to Fn generated by swinging the ultrasonic probe 20 or scanning in the electronic slice direction. Is added and stored in the internal storage circuit 18 (step S210). Note that the two-dimensional image data F1 to Fn may be stored with position information related to the biometric coordinate system after the coordinate conversion. F1 to Fn represent the order in which the two-dimensional image data is acquired. If the storage operation has not been performed (No in step S29), the control circuit 112 cancels the freeze operation, and the process proceeds to step S25. Note that there is no step S29, and it is conceivable that position information is always added to the image in real time.

図5は、本実施形態に係る超音波診断装置1がマップ表示画像データを表示機器50に表示させる処理の流れの例を示す図である。図5の説明において、2次元画像データF1〜Fnは、図2に示される処理により内部記憶回路18に記憶されているものとする。   FIG. 5 is a diagram illustrating an example of a flow of processing in which the ultrasound diagnostic apparatus 1 according to the present embodiment displays map display image data on the display device 50. In the description of FIG. 5, it is assumed that the two-dimensional image data F1 to Fn are stored in the internal storage circuit 18 by the processing shown in FIG.

操作者は、過去の超音波検査をレビューする際、又は実施した超音波検査についてのレポートを作成する際、過去の検査で取得された2次元超音波画像を表示機器50に表示させる表示指示を入力インタフェース回路110を介して入力する。表示指示が入力されると、制御回路112は、過去の検査で取得された複数の2次元画像データから、所望する2次元画像データを効率的に選択可能なように、表示機器50に複数の2次元画像データを表示させる。例えば、過去の検査で取得された複数の2次元画像データは、表示画面上に各2次元画像データを表すサムネイル画像で表示されてもよい。また、過去の検査で取得された複数の2次元画像データは、診断情報、操作情報、画像条件情報、超音波データ、及び取得位置等を利用して、グルーピング、又はソートされて表示されてもよい。   When the operator reviews past ultrasonic examinations or creates a report on the ultrasonic examinations performed, the operator gives a display instruction to display the two-dimensional ultrasonic images acquired in the past examinations on the display device 50. Input is performed via the input interface circuit 110. When the display instruction is input, the control circuit 112 causes the display device 50 to display a plurality of desired two-dimensional image data from a plurality of two-dimensional image data acquired in the past examination. Two-dimensional image data is displayed. For example, a plurality of two-dimensional image data acquired in past examinations may be displayed as thumbnail images representing each two-dimensional image data on the display screen. In addition, a plurality of two-dimensional image data acquired in the past examination may be displayed by being grouped or sorted using diagnosis information, operation information, image condition information, ultrasonic data, acquisition position, and the like. Good.

なお、操作者からの表示指示に応じた表示は、以下のようにされてもよい。表示指示が入力されると、画像演算回路16は画像発生機能163を実行し、登録されている生体参照部位の位置を読み出す。画像発生機能163の実行により画像演算回路16は、読み出した生体参照部位の位置に基づき、生体座標系の座標軸のみを表す画像データを発生させる。生体座標系の座標軸のみを表す画像データは、表示処理回路17での処理を介して表示機器50に表示される。そして、表示機器50に表示されている生体座標系の座標軸における所定の部位を、操作者が入力インタフェース回路110からの入力により指定可能なようにしてもよい。生体座標系の座標軸における所定部位を指定すると、指定された部位、又は指定された部位近傍で取得された2次元画像データが選択されたと認識される。   The display according to the display instruction from the operator may be as follows. When a display instruction is input, the image calculation circuit 16 executes the image generation function 163 and reads the position of the registered biological reference site. By executing the image generation function 163, the image calculation circuit 16 generates image data representing only the coordinate axes of the living body coordinate system based on the read position of the living body reference portion. Image data representing only the coordinate axes of the living body coordinate system is displayed on the display device 50 through processing in the display processing circuit 17. Then, the operator may designate a predetermined part on the coordinate axis of the biological coordinate system displayed on the display device 50 by an input from the input interface circuit 110. When a predetermined part on the coordinate axis of the living body coordinate system is designated, it is recognized that the designated part or two-dimensional image data acquired in the vicinity of the designated part is selected.

制御回路112は、操作者により2次元画像データF1〜Fnが選択されると、内部記憶回路18から2次元画像データF1〜Fnを読み出す(ステップS51)。2次元画像データF1〜Fnが発生されると、画像演算回路16は、座標変換機能162を実行する。2次元画像データF1〜Fnには、位置情報が付加されている。座標変換機能162の実行により画像演算回路16は、2次元画像データF1〜Fnに付加されている位置座標を、生体参照部位Rの位置に基づいて定義される生体座標系へ変換する(ステップS52)。図6は、剣状突起を生体参照部位Rとし、生体参照部位Rの位置情報を図3に示されるように取得した際の生体座標系を示す図である。また、図7は、生体参照部位Rが体内に存在し、生体参照部位Rの位置情報を図4に示されるように取得した際の生体座標系を示す図である。   When the operator selects the two-dimensional image data F1 to Fn, the control circuit 112 reads the two-dimensional image data F1 to Fn from the internal storage circuit 18 (step S51). When the two-dimensional image data F1 to Fn are generated, the image calculation circuit 16 executes the coordinate conversion function 162. Position information is added to the two-dimensional image data F1 to Fn. By executing the coordinate conversion function 162, the image calculation circuit 16 converts the position coordinates added to the two-dimensional image data F1 to Fn into a living body coordinate system defined based on the position of the living body reference site R (step S52). ). FIG. 6 is a diagram illustrating a living body coordinate system when a xiphoid process is used as the living body reference portion R and position information of the living body reference portion R is acquired as shown in FIG. FIG. 7 is a diagram showing a living body coordinate system when the living body reference site R exists in the body and position information of the living body reference site R is acquired as shown in FIG.

続いて、画像演算回路16は、画像発生機能163を実行する。画像発生機能163の実行により画像演算回路16は、2次元画像データF1〜Fnを、生体座標系の3次元空間における対応位置に配列したマップ表示画像データを発生する(ステップS53)。発生されたマップ表示画像データは、表示処理回路17での各種処理を経て表示機器50に表示される(ステップS54)。   Subsequently, the image calculation circuit 16 executes an image generation function 163. By executing the image generation function 163, the image calculation circuit 16 generates map display image data in which the two-dimensional image data F1 to Fn are arranged at corresponding positions in the three-dimensional space of the living body coordinate system (step S53). The generated map display image data is displayed on the display device 50 through various processes in the display processing circuit 17 (step S54).

図8は、表示機器50に表示されるマップ表示画像データの例を示す図である。図8に示されるマップ表示画像は、剣状突起を生体参照部位Rとし、この生体参照部位Rに超音波プローブ20を当接させた際に取得されるマップ表示画像データを表示機器50に表示させたものである。剣状突起に超音波プローブ20を当接させて取得される2次元画像データF1〜Fnには、例えば、肝臓等の臓器の画像が含まれる。図8に示される座標軸は、図6に示される座標軸と一致する。図8によれば、2次元画像データF1に基づく2次元画像F1は、2次元画像F1における超音波の送信位置が生体座標系における原点と一致するように配置される。2次元画像データF2〜Fnに基づく2次元画像F2〜Fnは、2次元画像F1からz軸方向に揺動角度に応じた距離だけ隔てた位置に配置される。   FIG. 8 is a diagram illustrating an example of map display image data displayed on the display device 50. The map display image shown in FIG. 8 displays on the display device 50 map display image data acquired when the xiphoid process is a biological reference region R and the ultrasonic probe 20 is brought into contact with the biological reference region R. It has been made. The two-dimensional image data F1 to Fn acquired by bringing the ultrasonic probe 20 into contact with the xiphoid process includes, for example, an image of an organ such as the liver. The coordinate axes shown in FIG. 8 coincide with the coordinate axes shown in FIG. According to FIG. 8, the two-dimensional image F1 based on the two-dimensional image data F1 is arranged so that the transmission position of the ultrasonic wave in the two-dimensional image F1 coincides with the origin in the living body coordinate system. The two-dimensional images F2 to Fn based on the two-dimensional image data F2 to Fn are arranged at positions separated from the two-dimensional image F1 by a distance corresponding to the swing angle in the z-axis direction.

操作者は、マップ表示画像の表示方向を、入力インタフェース回路110を介した入力により変化させることが可能である。図9は、図8に示されるマップ表示画像をy軸方向から表示した際の表示例を示す図である。また、操作者は、マップ表示画像において、最手前に表示される2次元画像を、入力インタフェース回路110を介した入力により選択することが可能である。図10は、例えば、スライダースイッチの操作により、2次元画像Fmを最手前に表示させた場合のマップ表示画像の例を示す図である。なお、操作者は、最手前に表示される2次元画像を、マウス、又はタッチコマンドスクリーンを用い、マップ表示画像に含まれる2次元画像群から直感的に選択してもよい。また、操作者は、マップ表示画像において、表示される2次元画像を、入力インタフェース回路110を介した入力により選択することが可能である。図11は、例えば、スライダースイッチの操作により、2次元画像Fmのみを表示させた場合のマップ表示画像の例を示す図である。なお、操作者は、表示される2次元画像を、マウス、又はタッチコマンドスクリーンを用い、マップ表示画像に含まれる2次元画像群から直感的に選択してもよい。   The operator can change the display direction of the map display image by input via the input interface circuit 110. FIG. 9 is a diagram showing a display example when the map display image shown in FIG. 8 is displayed from the y-axis direction. Further, the operator can select the two-dimensional image displayed in the foreground in the map display image by inputting via the input interface circuit 110. FIG. 10 is a diagram illustrating an example of a map display image when the two-dimensional image Fm is displayed on the foremost side by, for example, operating a slider switch. Note that the operator may intuitively select the two-dimensional image displayed at the forefront from a group of two-dimensional images included in the map display image using a mouse or a touch command screen. Further, the operator can select a two-dimensional image to be displayed in the map display image by inputting via the input interface circuit 110. FIG. 11 is a diagram illustrating an example of a map display image when only the two-dimensional image Fm is displayed by operating a slider switch, for example. Note that the operator may intuitively select the displayed two-dimensional image from the two-dimensional image group included in the map display image using a mouse or a touch command screen.

なお、画像演算回路16の画像発生機能163により発生される画像データは、マップ表示画像データに限られない。画像発生機能の実行により画像演算回路16は、マップ表示画像データと、マップ表示画像データで示される2次元画像データ群の中から選択される2次元画像データとを含む画像データを発生してもよい。図12乃至図15は、マップ表示画像データと、2次元画像データとを含む画像データの表示例を示す図である。図12乃至図15に示される画像は、2次元画像を表示する第1の表示領域G10、及びマップ表示画像を表示する第2の表示領域G20を有する。   The image data generated by the image generation function 163 of the image arithmetic circuit 16 is not limited to map display image data. By executing the image generation function, the image calculation circuit 16 generates image data including map display image data and two-dimensional image data selected from the two-dimensional image data group indicated by the map display image data. Good. 12 to 15 are diagrams showing display examples of image data including map display image data and two-dimensional image data. The images shown in FIGS. 12 to 15 include a first display area G10 that displays a two-dimensional image and a second display area G20 that displays a map display image.

第1の表示領域G10には、第1の表示領域G10で表示される2次元画像を、マップ表示画像データに含まれる2次元画像群から選択するための表示バーG30が含まれる。表示バーG30において、操作者は入力インタフェース回路110からの入力により、指示子G31を左右に移動させることが可能である。指示子G31の移動に応じて表示される2次元画像が切り替わる。このとき、表示バーG30において2次元画像が並べられる順番は、位置に関連した順番でもよいし、収集時刻の順番であっても構わない。本実施形態では、表示バーG30において2次元画像が位置に関連した順番で並べられる場合を例に説明する。また、第1の表示領域G10には、アノテーション情報D1、MI値等の超音波送信条件情報D2、及び取得時刻情報D3等の超音波データが内部記憶回路18から読み出されて表示される。   The first display area G10 includes a display bar G30 for selecting the two-dimensional image displayed in the first display area G10 from the two-dimensional image group included in the map display image data. In the display bar G <b> 30, the operator can move the indicator G <b> 31 left and right by input from the input interface circuit 110. The displayed two-dimensional image is switched according to the movement of the indicator G31. At this time, the order in which the two-dimensional images are arranged on the display bar G30 may be the order related to the position or the order of the collection time. In the present embodiment, a case where two-dimensional images are arranged in the order related to the position on the display bar G30 will be described as an example. In the first display area G10, ultrasonic data such as annotation information D1, ultrasonic transmission condition information D2 such as MI value, and acquisition time information D3 is read from the internal storage circuit 18 and displayed.

図12及び図13は、第2の表示領域G20に表示されるマップ表示画像において選択される2次元画像F1が第1の表示領域G10に表示される場合を示している。このとき、表示バーG30における指示子G31は左端に位置する。操作者は、例えば、スライダースイッチを操作することで、マップ表示画像に含まれる2次元画像群から所望の2次元画像を選択することが可能である。なお、操作者は、マウス又はタッチコマンドスクリーンによりマップ表示画像に接触することで、マップ表示画像に含まれる2次元画像群から所望の2次元画像を直感的に選択してもよい。また、操作者は、マウス又はタッチコマンドスクリーンにより表示バーG30における指示子G31を操作することで、マップ表示画像に含まれる2次元画像群から所望の2次元画像を選択してもよい。   12 and 13 illustrate a case where the two-dimensional image F1 selected in the map display image displayed in the second display area G20 is displayed in the first display area G10. At this time, the indicator G31 in the display bar G30 is located at the left end. For example, the operator can select a desired two-dimensional image from a group of two-dimensional images included in the map display image by operating a slider switch. Note that the operator may intuitively select a desired two-dimensional image from a group of two-dimensional images included in the map display image by touching the map display image with a mouse or a touch command screen. The operator may select a desired two-dimensional image from the two-dimensional image group included in the map display image by operating the indicator G31 on the display bar G30 with a mouse or a touch command screen.

図14及び図15は、第2の表示領域G20に表示されるマップ表示画像において選択される2次元画像Fmが第1の表示領域G10に表示される場合を示している。このとき、表示バーG30における指示子G31は例えば、中央近傍に位置する。   14 and 15 show a case where the two-dimensional image Fm selected in the map display image displayed in the second display area G20 is displayed in the first display area G10. At this time, the indicator G31 in the display bar G30 is located near the center, for example.

また、画像演算回路16の画像発生機能163により発生される画像データは、上記画像データに限られない。画像発生機能163の実行により画像演算回路16は、生体内の臓器等の構造物を模式的に表した画像(以下、アトラス画像と称する。)にマップ表示画像データを重畳させた画像データを発生してもよい。図16乃至図19は、アトラス画像にマップ表示画像データを重畳させた画像データの表示例を示す図である。図16乃至図19に示される画像は、2次元画像を表示する第1の表示領域G10、及びアトラス画像G41にマップ表示画像を重畳表示させる第3の表示領域G40を有する。   Further, the image data generated by the image generation function 163 of the image calculation circuit 16 is not limited to the image data. By executing the image generation function 163, the image calculation circuit 16 generates image data in which map display image data is superimposed on an image schematically representing a structure such as an organ in a living body (hereinafter referred to as an atlas image). May be. 16 to 19 are diagrams showing display examples of image data in which map display image data is superimposed on an atlas image. The image shown in FIGS. 16 to 19 includes a first display area G10 that displays a two-dimensional image, and a third display area G40 that displays a map display image superimposed on the atlas image G41.

このとき、アトラス画像G41上におけるマップ表示画像の表示位置を、2次元画像データの取得位置に対応する位置とすると、2次元画像データの取得位置をより効果的に理解することが可能である。例えば、図16乃至図19によれば、マップ表示画像は、2次元画像データが取得された剣状突起の位置、すなわち、生体座標系の原点が、アトラス画像G41上の剣状突起に位置するように、アトラス画像G41に重畳されている。このため、図16乃至図19によれば、2次元画像データF1,Fmが剣状突起状で取得されたことを容易に理解することが可能となる。2次元画像データが取得された位置と、アトラス画像G41上の表示位置とを対応付ける方法は、例えば、生成した2次元画像データに、このデータを取得した臓器等の構造物に関する参照情報を付加する方法、生体座標系についての座標情報をアトラス画像G41に予め割り当てておく方法等、種々の方法がある。また、図16乃至図19では、2次元のアトラス画像G41にマップ表示画像データを重畳させる場合を例に示したが、アトラス画像は2次元に限定されず、3次元であっても構わない。   At this time, if the display position of the map display image on the atlas image G41 is a position corresponding to the acquisition position of the two-dimensional image data, the acquisition position of the two-dimensional image data can be understood more effectively. For example, according to FIGS. 16 to 19, in the map display image, the position of the xiphoid process from which the two-dimensional image data is acquired, that is, the origin of the biological coordinate system is positioned at the xiphoid process on the atlas image G41. Thus, it is superimposed on the atlas image G41. For this reason, according to FIGS. 16 to 19, it is possible to easily understand that the two-dimensional image data F1 and Fm are acquired in the shape of a sword projection. The method of associating the position where the two-dimensional image data is acquired with the display position on the atlas image G41, for example, adds reference information regarding a structure such as an organ that acquired the data to the generated two-dimensional image data. There are various methods such as a method, a method of pre-assigning coordinate information about the living body coordinate system to the atlas image G41. 16 to 19 show an example in which map display image data is superimposed on the two-dimensional atlas image G41. However, the atlas image is not limited to two dimensions, and may be three dimensions.

なお、アトラス画像を表示する際、アトラス画像に描かれる臓器等の構造物の大きさ、形状、及び位置等を、被検体Pの体格等に合わせて調整すると、2次元画像データの取得位置をさらに効果的に理解することが可能である。被検体Pの体格等に関する情報、すなわち、体格情報は、例えば、被検体Pの3次元的な位置情報を複数点登録することで取得可能である。例えば、図20に示されるように、生体参照部位の位置を登録する際に、左右の身体側の位置も体格情報として登録しておく。画像発生機能163の実行により画像演算回路16は、登録した体格情報に基づき、アトラス画像に描かれる臓器等の構造物の大きさ、形状、及び位置等を補正する。体格情報に基づくアトラス画像の補正処理は、乳房等、被検体間の個体差が比較的大きな構造物について取得された超音波画像をアトラス画像に重畳させる際に効果的である。また、このような補正処理は、脚、及び腕について取得された超音波画像をアトラス画像に重畳させる際においても効果的である。   In addition, when displaying the atlas image, if the size, shape, position, etc. of a structure such as an organ drawn in the atlas image is adjusted according to the physique of the subject P, the acquisition position of the two-dimensional image data is changed. It is possible to understand more effectively. Information relating to the physique and the like of the subject P, that is, physique information can be acquired by, for example, registering a plurality of three-dimensional position information of the subject P. For example, as shown in FIG. 20, when registering the position of the biological reference site, the positions of the left and right body sides are also registered as physique information. By executing the image generation function 163, the image calculation circuit 16 corrects the size, shape, position, and the like of a structure such as an organ drawn in the atlas image based on the registered physique information. Atlas image correction processing based on physique information is effective when superimposing ultrasonic images acquired on structures such as breasts that have relatively large individual differences between subjects on the atlas image. Such correction processing is also effective when superimposing ultrasonic images acquired for the legs and arms on the atlas image.

また、表示機器50に表示されているアトラス画像における所定の部位を、操作者が入力インタフェース回路110からの入力により指定可能なようにしてもよい。図5におけるステップS51では、表示機器50に表示される複数の2次元画像データから所望の2次元画像データを選択する場合を例に説明した。アトラス画像の所定部位を操作者が入力インタフェース回路110を介して指定すると、指定された部位、又は指定された部位近傍で取得された2次元画像データが配置されたマップ表示画像データがアトラス画像上に表示されるようにしてもよい。なお、アトラス画像上の指定部位と、2次元画像データが取得された部位とを対応付ける方法は、例えば、生成した2次元画像データに、このデータを取得した臓器等の構造物に関する参照情報を付加する方法、生体座標系についての座標情報をアトラス画像に予め割り当てておく方法等、種々の方法がある。また、アトラス画像の所定部位を指定するカーソルを、超音波プローブ20の形状を模した形状としてもよい。画像演算回路16は、超音波プローブ形状のカーソルによりアトラス画像の所定部位が指定されると、同様の姿勢の超音波プローブ20により実際に取得された2次元画像データが配置されたマップ表示画像データをアトラス画像上に表示する。これにより、操作者は、2次元画像データが取得された位置をより直感的に理解することが可能となる。   Further, a predetermined part in the atlas image displayed on the display device 50 may be specified by the operator by input from the input interface circuit 110. In step S51 in FIG. 5, the case where desired two-dimensional image data is selected from a plurality of two-dimensional image data displayed on the display device 50 has been described as an example. When the operator designates a predetermined part of the atlas image via the input interface circuit 110, map display image data in which two-dimensional image data acquired in the vicinity of the designated part or the designated part is arranged on the atlas image. May be displayed. The method for associating the designated part on the atlas image with the part from which the two-dimensional image data has been acquired is, for example, adding reference information regarding a structure such as an organ from which this data has been acquired to the generated two-dimensional image data. There are various methods, for example, a method of assigning coordinate information about a biological coordinate system to an atlas image in advance. In addition, a cursor that designates a predetermined part of the atlas image may have a shape imitating the shape of the ultrasonic probe 20. When a predetermined part of the atlas image is designated by the ultrasonic probe-shaped cursor, the image calculation circuit 16 displays the map display image data in which the two-dimensional image data actually acquired by the ultrasonic probe 20 in the same posture is arranged. Is displayed on the atlas image. Thereby, the operator can more intuitively understand the position where the two-dimensional image data is acquired.

また、画像演算回路16の画像発生機能163により発生される画像データは、上記画像データに限られない。画像発生機能163の実行により画像演算回路16は、過去の診察において取得された同一患者に関するCT画像データ、又はMR画像データにマップ表示画像データを重畳させた画像データを発生してもよい。なお、このときのCT画像データ、及びMR画像データは、2次元画像データであっても3次元画像データであっても構わない。このとき、CT画像上、又はMR画像上における2次元画像の表示位置を、2次元画像データの取得位置に対応する位置とすると、2次元画像データの取得位置をより効果的に理解することが可能である。2次元画像データの取得位置と、CT画像上、又はMR画像上の表示位置とを対応付ける方法は、例えば、生成した2次元画像データに、このデータを取得した臓器等の構造物に関する参照情報を付加する方法、生体座標系についての座標情報をCT画像上、又はMR画像上に予め割り当てておく方法等、種々の方法がある。   Further, the image data generated by the image generation function 163 of the image calculation circuit 16 is not limited to the image data. By executing the image generation function 163, the image calculation circuit 16 may generate CT image data related to the same patient acquired in a past examination, or image data obtained by superimposing map display image data on MR image data. The CT image data and MR image data at this time may be two-dimensional image data or three-dimensional image data. At this time, if the display position of the two-dimensional image on the CT image or the MR image is a position corresponding to the acquisition position of the two-dimensional image data, the acquisition position of the two-dimensional image data can be understood more effectively. Is possible. The method of associating the acquisition position of the two-dimensional image data with the display position on the CT image or the MR image is obtained by, for example, referring to the generated two-dimensional image data with reference information regarding a structure such as an organ that has acquired the data. There are various methods such as a method of adding, a method of pre-assigning coordinate information about the biological coordinate system on the CT image or the MR image.

また、表示機器50に表示されているCT画像、又はMR画像における所定の部位を、操作者が入力インタフェース回路110からの入力により指定可能なようにしてもよい。図5におけるステップS51では、表示機器50に表示される複数の2次元画像データから所望の2次元画像データを選択する場合を例に説明した。CT画像、又はMR画像の所定部位を操作者が入力インタフェース回路110を介して指定すると、指定された部位、又は指定された部位近傍で取得された2次元画像データが配置されたマップ表示画像データがCT画像上、又はMR画像上に表示されるようにしてもよい。CT画像上、又はMR画像上の指定部位と、2次元画像データが取得された部位とを対応付ける方法は、例えば、生成した2次元画像データに、このデータを取得した臓器等の構造物に関する参照情報を付加する方法、生体座標系についての座標情報をアトラス画像に予め割り当てておく方法等、種々の方法がある。また、CT画像、又はMR画像の所定部位を指定するカーソルを、超音波プローブ20の形状を模した形状としてもよい。画像演算回路16は、超音波プローブ形状のカーソルによりCT画像、又はMR画像の所定部位が指定されると、同様の姿勢の超音波プローブ20により実際に取得された2次元画像データが配置されたマップ表示画像データをCT画像上、又はMR画像上に表示する。これにより、操作者は、2次元画像データが取得された位置をより直感的に理解することが可能となる。   In addition, a predetermined part in the CT image or MR image displayed on the display device 50 may be specified by the operator through input from the input interface circuit 110. In step S51 in FIG. 5, the case where desired two-dimensional image data is selected from a plurality of two-dimensional image data displayed on the display device 50 has been described as an example. When the operator designates a predetermined part of the CT image or MR image via the input interface circuit 110, map display image data in which two-dimensional image data acquired in the designated part or in the vicinity of the designated part is arranged. May be displayed on the CT image or the MR image. A method for associating a designated part on a CT image or MR image with a part from which two-dimensional image data has been acquired is, for example, reference to a structure such as an organ from which this data has been acquired and the generated two-dimensional image data. There are various methods such as a method of adding information and a method of pre-assigning coordinate information about the biological coordinate system to the atlas image. In addition, a cursor that designates a predetermined part of the CT image or MR image may have a shape imitating the shape of the ultrasonic probe 20. When a predetermined part of the CT image or MR image is designated by the ultrasonic probe shape cursor, the image calculation circuit 16 arranges the two-dimensional image data actually acquired by the ultrasonic probe 20 in the same posture. Map display image data is displayed on a CT image or an MR image. Thereby, the operator can more intuitively understand the position where the two-dimensional image data is acquired.

また、図5では、過去の超音波検査をレビューする際、又は実施した超音波検査についてのレポートを作成する際にマップ表示画像データが表示される場合の処理を説明した。しかしながら、これに限定されない。画像演算回路16の画像発生機能163は、超音波検査において2次元画像データを取得している最中に実行されてもよい。このとき、表示機器50には、図8乃至図19のうちいずれかに示される画像に加え、リアルタイムで取得されている2次元画像データに基づく2次元画像が表示される。   In addition, FIG. 5 illustrates the processing in the case where map display image data is displayed when reviewing past ultrasonic examinations or creating a report on the implemented ultrasonic examinations. However, it is not limited to this. The image generation function 163 of the image calculation circuit 16 may be executed while acquiring two-dimensional image data in the ultrasonic examination. At this time, in addition to the image shown in any of FIGS. 8 to 19, the display device 50 displays a two-dimensional image based on the two-dimensional image data acquired in real time.

なお、リアルタイムで取得されている2次元画像と共に表示するマップ表示画像データに配置される2次元画像データ群は、表示されている2次元画像と同一の検査で取得されたものが更新されながら表示されてもよいし、同一の被検体に対して過去に実施された検査で取得されたものが表示されてもよい。このとき、過去の検査で登録された生体参照部位の位置と、現在の検査で登録されている生体参照部位の位置とを一致させる必要がある。リアルタイムで取得される2次元画像と共に、同一の検査で取得されるマップ表示画像を更新しながら表示することにより、操作者は、別の方向から確認するべき部位を正確に把握することが可能となる。また、リアルタイムで取得される2次元画像と共に、過去の検査で取得されたマップ表示画像を表示することにより、操作者は、関心領域の経過を認識しながら検査を進めることが可能となる。   The two-dimensional image data group arranged in the map display image data to be displayed together with the two-dimensional image acquired in real time is displayed while the one acquired in the same examination as the displayed two-dimensional image is updated. It may also be possible to display what has been acquired in the past for the same subject. At this time, it is necessary to match the position of the biological reference site registered in the past examination with the position of the biological reference site registered in the current examination. By updating and displaying the map display image acquired in the same examination together with the two-dimensional image acquired in real time, the operator can accurately grasp the part to be confirmed from another direction. Become. Further, by displaying the map display image acquired in the past inspection together with the two-dimensional image acquired in real time, the operator can proceed with the inspection while recognizing the progress of the region of interest.

以上のように、本実施形態では、画像演算回路16は、記憶されている画像データに付加されている、所定の3次元座標系の位置情報を、生体参照部位についての位置情報に基づき、生体座標系の位置へ変換する。そして、画像演算回路16は、変換した位置情報に基づき、画像データを生体座標系の3次元空間において俯瞰的に表示するマップ表示画像データを発生するようにしている。これにより、マップ表示画像データを見れば、画像データが超音波プローブを生体表面のどの位置に当接させ、超音波プローブを体内のどの方向に向けた際に取得された画像なのかを、走査者でなくても容易に理解することが可能となる。   As described above, in this embodiment, the image calculation circuit 16 uses the position information of the predetermined three-dimensional coordinate system added to the stored image data based on the position information about the living body reference site. Convert to coordinate system position. Then, the image calculation circuit 16 generates map display image data for displaying the image data in a bird's-eye view in the three-dimensional space of the biological coordinate system based on the converted position information. As a result, if the map display image data is viewed, the image data is scanned to determine which position on the surface of the living body the ultrasonic probe is in contact with, and in which direction in the body the ultrasonic probe is directed. Even if it is not a person, it becomes possible to understand easily.

したがって、本実施形態に係る超音波診断装置1によれば、超音波診断の客観性を向上させることができる。   Therefore, according to the ultrasonic diagnostic apparatus 1 according to the present embodiment, the objectivity of the ultrasonic diagnosis can be improved.

なお、上記実施形態では、位置センサシステム30が位置センサ32を備える場合を説明した。しかしながら、位置センサシステム30に備えられる位置センサは、1台に限定されない。位置センサシステム30は、第2の位置センサ34を備えてもよい。図21に示されるように、第2の位置センサ34は、例えば、被検体Pの体表における生体参照部位である剣状突起に貼り付けられる。位置検出装置33は、第2の位置センサ34の位置情報を本体装置10へ送信する。制御回路112は、第2の位置センサ34の位置を生体参照部位の位置であると認識する。なお、生体参照部位が体内に存在する場合には、第2の位置センサ34の位置と、超音波断層画像内の指定部位の位置とから、生体参照部位の位置を算出する。これにより、被検体Pが検査中に動いた場合、及び検査中に被検体Pの体位を変更する必要が生じた場合においても、継続して生体参照部位を認識し続けることが可能となる。また、経過観察において、同じ場所の生体参照部位に第2の位置センサ34を設置することにより、共通の生体座標系が生成され、簡便に同じ場所の臓器を観察し、比較することができる。   In the above embodiment, the case where the position sensor system 30 includes the position sensor 32 has been described. However, the position sensor provided in the position sensor system 30 is not limited to one. The position sensor system 30 may include a second position sensor 34. As shown in FIG. 21, the second position sensor 34 is attached to, for example, a sword-like projection that is a living body reference site on the body surface of the subject P. The position detection device 33 transmits the position information of the second position sensor 34 to the main body device 10. The control circuit 112 recognizes the position of the second position sensor 34 as the position of the biological reference site. When the biological reference site exists in the body, the position of the biological reference site is calculated from the position of the second position sensor 34 and the position of the designated site in the ultrasonic tomographic image. Thereby, even when the subject P moves during the examination and when it is necessary to change the posture of the subject P during the examination, it is possible to continuously recognize the biological reference site. Further, in the follow-up observation, by installing the second position sensor 34 at the living body reference site at the same place, a common living body coordinate system is generated, and the organs at the same place can be easily observed and compared.

また、上記実施形態では、位置センサを利用した位置センサシステム30を利用して生体参照部位の位置を取得する場合を例に説明した。しかしながら、位置センサシステム30は、位置センサを利用するものに限定されない。例えば、図22に示されるように、ロボットアーム140を利用した位置センサシステムであっても構わない。   Moreover, in the said embodiment, the case where the position of the biological reference site | part was acquired using the position sensor system 30 using a position sensor was demonstrated to the example. However, the position sensor system 30 is not limited to the one using the position sensor. For example, as shown in FIG. 22, a position sensor system using a robot arm 140 may be used.

ロボットアーム140のロボットアーム制御部141は、ロボットアーム140を駆動させる。ロボットアーム140のプローブホルダ142で支持される超音波プローブ20の位置は、ロボットアーム140に取り付けられるロボットアームセンサ143からの出力に基づいて取得される。ロボットアームセンサ143には、位置センサ、速度センサ、加速度センサ、及び圧力センサ等が用いられる。ロボットアーム140の操作者は、超音波プローブ20が生体参照部位に当接すると、ロボットアーム制御部141に設けられる、例えばボタン等から成る入力手段から指定指示を入力する。制御回路112は、指定指示が入力された時点で把握されているロボットアーム140の位置を、生体参照部位の位置として登録する。   The robot arm control unit 141 of the robot arm 140 drives the robot arm 140. The position of the ultrasonic probe 20 supported by the probe holder 142 of the robot arm 140 is acquired based on the output from the robot arm sensor 143 attached to the robot arm 140. As the robot arm sensor 143, a position sensor, a speed sensor, an acceleration sensor, a pressure sensor, or the like is used. When the ultrasonic probe 20 comes into contact with the living body reference site, the operator of the robot arm 140 inputs a designation instruction from an input means such as a button provided in the robot arm control unit 141. The control circuit 112 registers the position of the robot arm 140 that is grasped when the designation instruction is input as the position of the biological reference site.

なお、位置センサシステムに備えられるロボットアームは、1台に限定されない。位置センサシステムは、第2のロボットアームを備えてもよい。第2のロボットアームは、例えば、被検体Pの体表における生体参照部位を追従するように制御される。ロボットアーム制御部141は、第2のロボットアームの位置を把握しながら、第2のロボットアームの移動を制御する。制御回路112は、第2のロボットアームが追従する位置を生体参照部位の位置であると認識する。なお、生体参照部位が体内に存在する場合には、第2のロボットアームが追従する位置と、超音波断層画像内の指定部位の位置とから、生体参照部位の位置を算出する。これにより、被検体Pが検査中に動いた場合、及び検査中に被検体Pの体位を変更する必要が生じた場合においても、継続して生体参照部位を認識し続けることが可能となる。   Note that the number of robot arms provided in the position sensor system is not limited to one. The position sensor system may include a second robot arm. For example, the second robot arm is controlled to follow a living body reference site on the body surface of the subject P. The robot arm control unit 141 controls the movement of the second robot arm while grasping the position of the second robot arm. The control circuit 112 recognizes the position followed by the second robot arm as the position of the biological reference site. When the biological reference site exists in the body, the position of the biological reference site is calculated from the position followed by the second robot arm and the position of the designated site in the ultrasonic tomographic image. Thereby, even when the subject P moves during the examination and when it is necessary to change the posture of the subject P during the examination, it is possible to continuously recognize the biological reference site.

また、上記実施形態では、位置センサを利用した位置センサシステム30を利用して生体参照部位の位置を取得する場合を例に説明した。しかしながら、位置センサシステム30は、位置センサを利用するものに限定されない。例えば、図23に示されるように、カメラ等の撮像装置150を利用した位置センサシステムであっても構わない。   Moreover, in the said embodiment, the case where the position of the biological reference site | part was acquired using the position sensor system 30 using a position sensor was demonstrated to the example. However, the position sensor system 30 is not limited to the one using the position sensor. For example, as shown in FIG. 23, a position sensor system using an imaging device 150 such as a camera may be used.

撮像装置150を、例えば、被検体Pの全身が撮影可能な位置に設置する。画像解析装置は、撮像装置により撮影された画像を解析することで、超音波プローブ20の3次元座標系における位置を認識する。超音波診断装置1の操作者は、超音波プローブ20を生体参照部位に当接させると、超音波プローブ20に設けられる入力手段から指定指示を入力する。制御回路112は、指定指示が入力された時点で認識している超音波プローブ20の位置を、生体参照部位の位置として登録する。   For example, the imaging device 150 is installed at a position where the whole body of the subject P can be imaged. The image analysis device recognizes the position of the ultrasonic probe 20 in the three-dimensional coordinate system by analyzing the image taken by the imaging device. When the operator of the ultrasonic diagnostic apparatus 1 brings the ultrasonic probe 20 into contact with the living body reference site, the operator inputs a designation instruction from an input unit provided in the ultrasonic probe 20. The control circuit 112 registers the position of the ultrasonic probe 20 recognized at the time when the designation instruction is input as the position of the biological reference site.

また、上記実施形態では、画像演算回路16が、図1に示されるよう超音波診断装置1に設けられる場合を例に説明した。しかしながら、画像演算回路16が設けられる装置は、超音波診断装置1に限定される訳ではない。画像演算回路16は、例えば、ワークステーションのような医用画像処理装置に設けられてもよい。   In the above-described embodiment, the case where the image calculation circuit 16 is provided in the ultrasonic diagnostic apparatus 1 as illustrated in FIG. 1 has been described as an example. However, the apparatus provided with the image arithmetic circuit 16 is not limited to the ultrasonic diagnostic apparatus 1. The image calculation circuit 16 may be provided in a medical image processing apparatus such as a workstation, for example.

上記説明において用いた「プロセッサ」という文言は、例えば、CPU(central processing unit)、GPU(Graphics Processing Unit)、或いは、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC))、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。プロセッサは記憶回路に保存されたプログラムを読み出し実行することで機能を実現する。なお、本実施形態の各プロセッサは、プロセッサ毎に単一の回路として構成される場合に限らず、複数の独立した回路を組み合わせて1つのプロセッサとして構成し、その機能を実現するようにしてもよい。さらに、図1における複数の構成要素を1つのプロセッサへ統合してその機能を実現するようにしてもよい。   The term “processor” used in the above description is, for example, a central processing unit (CPU), a graphics processing unit (GPU), or an application specific integrated circuit (ASIC)), a programmable logic device (for example, It means a circuit such as a simple programmable logic device (SPLD), a complex programmable logic device (CPLD), and a field programmable gate array (FPGA). The processor implements a function by reading and executing a program stored in the storage circuit. Note that each processor of the present embodiment is not limited to being configured as a single circuit for each processor, but may be configured as a single processor by combining a plurality of independent circuits to realize the function. Good. Furthermore, a plurality of components in FIG. 1 may be integrated into one processor to realize the function.

本発明の実施形態を説明したが、この実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。この実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。   Although the embodiment of the present invention has been described, this embodiment is presented as an example and is not intended to limit the scope of the invention. This embodiment can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the equivalents thereof.

1…超音波診断装置、10…本体装置、11…超音波送信回路、12…超音波受信回路、13…Bモード処理回路、14…ドプラ処理回路、15…3次元データ発生回路、16…画像演算回路、161…参照部位制御機能、162…座標変換機能、163…画像発生機能、17…表示処理回路、18…内部記憶回路、19…画像メモリ、110…入力インタフェース回路、111…通信インタフェース回路、112…制御回路、20…超音波プローブ、30…位置センサシステム、31…磁気発生器、32…位置センサ、33…位置検出装置、34…第2の位置センサ、40…外部装置、50…表示機器、61…操作パネル、62…入力装置、100…ネットワーク、140…ロボットアーム、141…ロボットアーム制御部、142…プローブホルダ、143…ロボットアームセンサ、150…撮像装置。   DESCRIPTION OF SYMBOLS 1 ... Ultrasonic diagnostic apparatus, 10 ... Main body apparatus, 11 ... Ultrasonic transmission circuit, 12 ... Ultrasonic reception circuit, 13 ... B mode processing circuit, 14 ... Doppler processing circuit, 15 ... Three-dimensional data generation circuit, 16 ... Image Arithmetic circuit 161 ... reference part control function 162 ... coordinate conversion function 163 ... image generation function 17 ... display processing circuit 18 ... internal storage circuit 19 ... image memory 110 ... input interface circuit 111 ... communication interface circuit , 112 ... control circuit, 20 ... ultrasonic probe, 30 ... position sensor system, 31 ... magnetic generator, 32 ... position sensor, 33 ... position detection device, 34 ... second position sensor, 40 ... external device, 50 ... Display device 61 ... Operation panel 62 ... Input device 100 ... Network 140 ... Robot arm 141 ... Robot arm control unit 142 ... Professional Buhoruda, 143 ... robot arm sensors 150 ... imaging device.

Claims (39)

超音波画像データと、前記超音波画像データに付加され、前記超音波画像データが取得されたときの超音波プローブの位置に関する第1の位置情報と、生体参照部位の位置についての第2の位置情報とを取得し、前記第2の位置情報に基づいて規定される生体座標系の3次元空間において、前記超音波画像データを、前記第1の位置情報に基づく位置に配置したマップ表示画像データを発生する画像演算部を具備する超音波診断装置。   Ultrasound image data, first position information added to the ultrasound image data and related to the position of the ultrasound probe when the ultrasound image data is acquired, and a second position regarding the position of the biological reference site Map display image data obtained by arranging the ultrasonic image data at a position based on the first position information in a three-dimensional space of a biological coordinate system defined based on the second position information An ultrasonic diagnostic apparatus comprising an image calculation unit that generates a noise. 前記第1の位置情報が付加された前記超音波画像データ、及び前記第2の位置情報を記憶する記憶部と
をさらに具備する請求項1記載の超音波診断装置。
The ultrasonic diagnostic apparatus according to claim 1, further comprising a storage unit that stores the ultrasonic image data to which the first position information is added and the second position information.
超音波を送信し、前記超音波が被検体内で反射された反射波信号を受信する超音波プローブと、
前記反射波信号に基づいて生成される前記超音波画像データを表示する表示部と、
前記表示部に表示される超音波画像を利用して前記被検体に関する前記第2の位置情報を登録する登録部と
をさらに具備する請求項1記載の超音波診断装置。
An ultrasonic probe for transmitting an ultrasonic wave and receiving a reflected wave signal in which the ultrasonic wave is reflected in a subject;
A display unit for displaying the ultrasonic image data generated based on the reflected wave signal;
The ultrasonic diagnostic apparatus according to claim 1, further comprising a registration unit that registers the second position information regarding the subject using an ultrasonic image displayed on the display unit.
前記超音波プローブの位置を検出する位置センサシステムと、
超音波が被検体内で反射され、前記超音波プローブにより受信される反射波信号に基づいて生成される超音波画像データを、前記位置センサシステムで検出された位置情報を前記第1の位置情報として付加して記憶する記憶部と、
前記記憶部に前記第2の位置情報を登録する登録部と
をさらに具備する請求項1記載の超音波診断装置。
A position sensor system for detecting the position of the ultrasonic probe;
Ultrasound is reflected within the subject and ultrasonic image data generated based on the reflected wave signal received by the ultrasonic probe is used as the position information detected by the position sensor system as the first position information. A storage unit for adding and storing as,
The ultrasonic diagnostic apparatus according to claim 1, further comprising a registration unit that registers the second position information in the storage unit.
前記生体参照部位は、前記被検体の体表に存在し、
前記登録部は、前記超音波プローブが前記生体参照部位に当接されている際の前記超音波プローブの位置を前記第2の位置情報として登録する請求項3又は4記載の超音波診断装置。
The biological reference site is present on the body surface of the subject,
The ultrasound diagnostic apparatus according to claim 3 or 4, wherein the registration unit registers the position of the ultrasound probe when the ultrasound probe is in contact with the living body reference site as the second position information.
前記生体参照部位は、前記被検体の体内に存在し、
前記登録部は、前記超音波プローブが前記被検体に当接されている際の前記超音波プローブの位置と、当該位置において取得される画像の画像内で指定される部位の位置とに基づいて算出される位置を前記第2の位置情報として登録する請求項3又は4記載の超音波診断装置。
The biological reference site is present in the subject,
The registration unit is based on a position of the ultrasonic probe when the ultrasonic probe is in contact with the subject and a position of a part designated in an image of an image acquired at the position. The ultrasonic diagnostic apparatus according to claim 3 or 4, wherein the calculated position is registered as the second position information.
前記位置において取得される画像は、前記超音波プローブにより取得される超音波画像である請求項6記載の超音波診断装置。   The ultrasonic diagnostic apparatus according to claim 6, wherein the image acquired at the position is an ultrasonic image acquired by the ultrasonic probe. 前記位置において取得される画像は、過去の診察において同一の被検体から取得され、前記超音波プローブにより取得される超音波画像と同等の位置に相当する領域を含む参照画像である請求項6記載の超音波診断装置。   The image acquired at the position is a reference image including a region corresponding to the position equivalent to the ultrasonic image acquired from the same subject in the past examination and acquired by the ultrasonic probe. Ultrasound diagnostic equipment. 前記位置において取得される画像内での指定は、操作者の入力に基づく請求項6乃至8のいずれかに記載の超音波診断装置。   The ultrasonic diagnostic apparatus according to claim 6, wherein the designation in the image acquired at the position is based on an input from an operator. 前記位置において取得される画像内での指定は、画像解析技術を用いた自動認識に基づく請求項6乃至8のいずれかに記載の超音波診断装置。   The ultrasonic diagnostic apparatus according to claim 6, wherein designation in an image acquired at the position is based on automatic recognition using an image analysis technique. 前記画像演算部は、前記第1の位置情報を、前記生体座標系の3次元空間上の位置へ変換する請求項1記載の超音波診断装置。   The ultrasonic diagnostic apparatus according to claim 1, wherein the image calculation unit converts the first position information into a position in a three-dimensional space of the biological coordinate system. 前記画像演算部は、前記生体座標系に配置され、生体内の構造物を表す模式図の対応する位置へ前記マップ表示画像データを重畳する請求項1記載の超音波診断装置。   The ultrasonic diagnostic apparatus according to claim 1, wherein the image calculation unit is arranged in the living body coordinate system and superimposes the map display image data on a corresponding position in a schematic diagram representing a structure in the living body. 前記画像演算部は、被検体に関する複数の位置情報を取得し、前記取得した複数の位置情報に基づき、前記模式図を補正する請求項12記載の超音波診断装置。   The ultrasonic diagnostic apparatus according to claim 12, wherein the image calculation unit acquires a plurality of pieces of position information related to a subject and corrects the schematic diagram based on the acquired pieces of position information. 前記画像演算部は、前記生体座標系に前記模式図を配置し、前記配置した前記模式図における所定部位の指定に応じ、指定された部位、又は指定された部位近傍で取得された超音波画像データが配置されたマップ表示画像データを前記模式図に重畳する請求項12又は13に記載の超音波診断装置。   The image calculation unit arranges the schematic diagram in the living body coordinate system, and an ultrasonic image acquired at a designated part or in the vicinity of a designated part according to designation of a predetermined part in the arranged schematic diagram The ultrasonic diagnostic apparatus according to claim 12 or 13, wherein map display image data in which data is arranged is superimposed on the schematic diagram. 前記画像演算部は、前記模式図において、前記部位を指定するカーソルを超音波プローブの形状とする請求項14記載の超音波診断装置。   The ultrasonic diagnostic apparatus according to claim 14, wherein in the schematic diagram, the image calculation unit sets a cursor for designating the part to the shape of an ultrasonic probe. 前記画像演算部は、前記生体座標系に配置され、過去の診察において同一の被検体から取得されたCT(Computed Tomography)画像、又はMR(Magnetic Resonance)画像の対応する位置へ前記マップ表示画像データを重畳する請求項1記載の超音波診断装置。   The image calculation unit is arranged in the living body coordinate system, and displays the map display image data to a corresponding position in a CT (Computed Tomography) image or MR (Magnetic Resonance) image acquired from the same subject in a past examination. The ultrasonic diagnostic apparatus according to claim 1, wherein: 前記画像演算部は、前記生体座標系に前記CT画像、又はMR画像を配置し、前記配置した画像における所定部位の指定に応じ、指定された部位、又は指定された部位近傍で取得された超音波画像データが配置されたマップ表示画像データを前記画像に重畳する請求項16記載の超音波診断装置。   The image calculation unit arranges the CT image or the MR image in the living body coordinate system, and is obtained at a designated part or in the vicinity of a designated part according to a designation of a predetermined part in the arranged image. The ultrasonic diagnostic apparatus according to claim 16, wherein map display image data on which acoustic image data is arranged is superimposed on the image. 前記画像演算部は、前記CT画像、又はMR画像において、前記部位を指定するカーソルを超音波プローブの形状とする請求項17記載の超音波診断装置。   The ultrasonic diagnostic apparatus according to claim 17, wherein the image calculation unit sets a cursor for designating the region in the CT image or the MR image to have an ultrasonic probe shape. 前記画像演算部は、前記生体座標系の座標軸を発生し、前記発生した座標軸における所定部位の指定に応じ、指定された部位、又は指定された部位近傍で取得された超音波画像データが配置されたマップ表示画像データを発生する請求項1記載の超音波診断装置。   The image calculation unit generates coordinate axes of the living body coordinate system, and ultrasonic image data acquired at or near a designated part is arranged according to designation of a predetermined part on the generated coordinate axis. The ultrasonic diagnostic apparatus according to claim 1, wherein the map display image data is generated. 前記超音波画像データは、2次元画像データ、レンダリング画像データ、Mモード画像データ、又はスペクトラムドプラ画像データである請求項1記載の超音波診断装置。   The ultrasonic diagnostic apparatus according to claim 1, wherein the ultrasonic image data is two-dimensional image data, rendering image data, M-mode image data, or spectrum Doppler image data. 前記記憶部は、前記第1の位置情報が付加された前記超音波画像データと対応付けて、操作情報、画像条件情報、及び超音波検査に関する超音波データの少なくともいずれかを記憶する請求項2記載の超音波診断装置。   The storage unit stores at least one of operation information, image condition information, and ultrasonic data related to ultrasonic examination in association with the ultrasonic image data to which the first position information is added. The ultrasonic diagnostic apparatus as described. 超音波データは、計測情報、アノテーション情報、心電(ECG:Electro Cardiogram)波形を含む生体参照情報、MI(Mechanical Index)値を含む超音波送信条件情報、及び取得時刻情報を含む請求項21記載の超音波診断装置。   The ultrasonic data includes measurement information, annotation information, biological reference information including an electrocardiogram (ECG) waveform, ultrasonic transmission condition information including an MI (Mechanical Index) value, and acquisition time information. Ultrasound diagnostic equipment. 前記記憶部は、被検体について過去の診察で取得された過去画像データをさらに記憶する請求項2記載の超音波診断装置。   The ultrasonic diagnostic apparatus according to claim 2, wherein the storage unit further stores past image data acquired in a past examination for the subject. 前記画像演算部は、生体座標系の3次元空間において、前記超音波画像データを前記第1の位置情報に基づく位置に配置したマップ表示画像データを発生し、前記マップ表示画像データに配置された前記超音波画像データに対する指定に応じ、前記指定された超音波画像データに対応する2次元画像データを発生する請求項1記載の超音波診断装置。   The image calculation unit generates map display image data in which the ultrasonic image data is arranged at a position based on the first position information in a three-dimensional space of a living body coordinate system, and is arranged in the map display image data The ultrasonic diagnostic apparatus according to claim 1, wherein two-dimensional image data corresponding to the designated ultrasonic image data is generated in accordance with designation for the ultrasonic image data. 前記画像演算部は、生体座標系の3次元空間において、リアルタイムで取得される2次元画像データを前記第1の位置情報に基づく位置に配置したマップ表示画像データを発生する請求項1記載の超音波診断装置。   The super image according to claim 1, wherein the image calculation unit generates map display image data in which two-dimensional image data acquired in real time is arranged at a position based on the first position information in a three-dimensional space of a living body coordinate system. Ultrasonic diagnostic equipment. 前記超音波画像データは、複数の2次元画像データであり、
前記画像演算部は、前記マップ表示画像データにおいて、前記複数の2次元画像データをそれぞれの取得時刻の順番に配置する請求項24記載の超音波診断装置。
The ultrasonic image data is a plurality of two-dimensional image data,
The ultrasonic diagnostic apparatus according to claim 24, wherein the image calculation unit arranges the plurality of two-dimensional image data in order of acquisition time in the map display image data.
前記超音波画像データは、複数の2次元画像データであり、
前記画像演算部は、前記マップ表示画像データにおいて、前記複数の2次元画像データをそれぞれの取得位置の順番に配置する請求項24記載の超音波診断装置。
The ultrasonic image data is a plurality of two-dimensional image data,
The ultrasonic diagnostic apparatus according to claim 24, wherein the image calculation unit arranges the plurality of two-dimensional image data in order of acquisition positions in the map display image data.
前記超音波プローブは、1次元アレイプローブ、1.25次元アレイプローブ、又は1.5次元アレイプローブであり、
前記超音波画像データは、2次元画像データである請求項3記載の超音波診断装置。
The ultrasonic probe is a one-dimensional array probe, a 1.25-dimensional array probe, or a 1.5-dimensional array probe,
The ultrasonic diagnostic apparatus according to claim 3, wherein the ultrasonic image data is two-dimensional image data.
前記超音波プローブは、2次元アレイプローブ、1.75次元アレイプローブ、又は機械揺動方式の3次元プローブであり、
前記超音波画像データは、2次元画像データ、又はレンダリング画像データである請求項3記載の超音波診断装置。
The ultrasonic probe is a two-dimensional array probe, a 1.75-dimensional array probe, or a mechanical swing type three-dimensional probe,
The ultrasonic diagnostic apparatus according to claim 3, wherein the ultrasonic image data is two-dimensional image data or rendering image data.
前記位置センサシステムは、
磁気を利用した位置センサ、又は赤外線を利用した位置センサと、
前記位置センサにより取得される情報から、前記超音波プローブの位置を検出する位置検出装置と
を備える請求項4記載の超音波診断装置。
The position sensor system includes:
A position sensor using magnetism or a position sensor using infrared;
The ultrasonic diagnostic apparatus according to claim 4, further comprising: a position detection device that detects a position of the ultrasonic probe from information acquired by the position sensor.
前記位置センサシステムは、前記生体参照部位に配置する、第2の位置センサをさらに備える請求項30記載の超音波診断装置。   The ultrasonic diagnostic apparatus according to claim 30, wherein the position sensor system further includes a second position sensor disposed at the biological reference site. 前記生体参照部位は、前記被検体の体表に存在し、
前記登録部は、前記第2の位置センサの位置を前記第2の位置情報として登録する請求項31記載の超音波診断装置。
The biological reference site is present on the body surface of the subject,
32. The ultrasonic diagnostic apparatus according to claim 31, wherein the registration unit registers the position of the second position sensor as the second position information.
前記超音波プローブは、ジャイロセンサを有し、
前記位置センサシステムは、前記ジャイロセンサにより取得される情報から、前記超音波プローブの位置を検出する位置検出装置を備える請求項4記載の超音波診断装置。
The ultrasonic probe has a gyro sensor,
The ultrasonic diagnostic apparatus according to claim 4, wherein the position sensor system includes a position detection device that detects a position of the ultrasonic probe from information acquired by the gyro sensor.
前記位置センサシステムは、
前記超音波プローブを支持するロボットアームと、
前記ロボットアームの位置から、前記超音波プローブの位置を取得する制御装置と
を備える請求項4記載の超音波診断装置。
The position sensor system includes:
A robot arm that supports the ultrasonic probe;
The ultrasonic diagnostic apparatus according to claim 4, further comprising a control device that acquires a position of the ultrasonic probe from a position of the robot arm.
前記位置センサシステムは、前記生体参照部位を追従する第2のロボットアームをさらに備える請求項34記載の超音波診断装置。   35. The ultrasonic diagnostic apparatus according to claim 34, wherein the position sensor system further includes a second robot arm that follows the biological reference site. 前記登録部は、前記第2のロボットアームの位置を前記第2の位置情報として登録する請求項35記載の超音波診断装置。   36. The ultrasonic diagnostic apparatus according to claim 35, wherein the registration unit registers the position of the second robot arm as the second position information. 前記位置センサシステムは、
前記被検体を撮像する撮像装置と、
前記撮像装置により撮影された画像を解析することで、前記超音波プローブの位置を認識する画像解析装置と
を備える請求項4記載の超音波診断装置。
The position sensor system includes:
An imaging device for imaging the subject;
The ultrasonic diagnostic apparatus according to claim 4, further comprising: an image analysis apparatus that recognizes a position of the ultrasonic probe by analyzing an image captured by the imaging apparatus.
前記画像解析装置は、前記撮像装置により撮影された画像を解析することで、前記生体参照部位の位置を認識し、
前記登録部は、前記認識される前記生体参照部位の位置を前記第2の位置情報として登録する請求項37記載の超音波診断装置。
The image analysis device recognizes a position of the biological reference site by analyzing an image captured by the imaging device,
38. The ultrasonic diagnostic apparatus according to claim 37, wherein the registration unit registers the recognized position of the living body reference site as the second position information.
超音波画像データと、前記超音波画像データに付加され、前記超音波画像データが取得されたときの超音波プローブの位置に関する第1の位置情報と、生体参照部位の位置についての第2の位置情報とを取得し、前記第2の位置情報に基づいて規定される生体座標系の3次元空間において、前記超音波画像データを、前記第1の位置情報に基づく位置に配置したマップ表示画像データを発生する画像演算部を具備する医用画像処理装置。   Ultrasound image data, first position information added to the ultrasound image data and related to the position of the ultrasound probe when the ultrasound image data is acquired, and a second position regarding the position of the biological reference site Map display image data obtained by arranging the ultrasonic image data at a position based on the first position information in a three-dimensional space of a biological coordinate system defined based on the second position information A medical image processing apparatus comprising an image computing unit that generates
JP2016135062A 2016-07-07 2016-07-07 Ultrasonic diagnostic device and medical image processing device Active JP6720001B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016135062A JP6720001B2 (en) 2016-07-07 2016-07-07 Ultrasonic diagnostic device and medical image processing device
US15/644,260 US11653897B2 (en) 2016-07-07 2017-07-07 Ultrasonic diagnostic apparatus, scan support method, and medical image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016135062A JP6720001B2 (en) 2016-07-07 2016-07-07 Ultrasonic diagnostic device and medical image processing device

Publications (2)

Publication Number Publication Date
JP2018000775A true JP2018000775A (en) 2018-01-11
JP6720001B2 JP6720001B2 (en) 2020-07-08

Family

ID=60945459

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016135062A Active JP6720001B2 (en) 2016-07-07 2016-07-07 Ultrasonic diagnostic device and medical image processing device

Country Status (1)

Country Link
JP (1) JP6720001B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111489608A (en) * 2020-06-04 2020-08-04 赵连蒙 Panoramic VR interactive medical ultrasonic digital phantom system teaching method
KR20200114841A (en) * 2019-03-29 2020-10-07 전남대학교산학협력단 Method of angiography based on electromagnetism mapping of microrobot and apparatus using the same
CN111973228A (en) * 2020-06-17 2020-11-24 谈斯聪 B-ultrasonic data acquisition, analysis and diagnosis integrated robot and platform
CN114271856A (en) * 2021-12-27 2022-04-05 开普云信息科技股份有限公司 Three-dimensional ultrasonic image generation method and device, storage medium and equipment
WO2023048239A1 (en) * 2021-09-27 2023-03-30 キヤノン株式会社 Ultrasonic diagnostic device

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004098414A1 (en) * 2003-05-08 2004-11-18 Hitachi Medical Corporation Reference image display method for ultrasonography and ultrasonograph
JP2005296436A (en) * 2004-04-14 2005-10-27 Hitachi Medical Corp Ultrasonic diagnostic apparatus
JP2008178500A (en) * 2007-01-24 2008-08-07 Hitachi Medical Corp Ultrasonic diagnostic system
JP2009034225A (en) * 2007-07-31 2009-02-19 Olympus Medical Systems Corp Medical guiding system
WO2010010782A1 (en) * 2008-07-22 2010-01-28 株式会社 日立メディコ Ultrasonograph and method for calculating coordinates of scanned surface thereof
JP2010088699A (en) * 2008-10-09 2010-04-22 National Center For Child Health & Development Medical image processing system
WO2012086152A1 (en) * 2010-12-24 2012-06-28 パナソニック株式会社 Ultrasound image-generating apparatus and image-generating method
JP2015061659A (en) * 2009-05-11 2015-04-02 株式会社東芝 Ultrasonic diagnostic apparatus, ultrasonic image processing apparatus and ultrasonic image processing program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004098414A1 (en) * 2003-05-08 2004-11-18 Hitachi Medical Corporation Reference image display method for ultrasonography and ultrasonograph
JP2005296436A (en) * 2004-04-14 2005-10-27 Hitachi Medical Corp Ultrasonic diagnostic apparatus
JP2008178500A (en) * 2007-01-24 2008-08-07 Hitachi Medical Corp Ultrasonic diagnostic system
JP2009034225A (en) * 2007-07-31 2009-02-19 Olympus Medical Systems Corp Medical guiding system
WO2010010782A1 (en) * 2008-07-22 2010-01-28 株式会社 日立メディコ Ultrasonograph and method for calculating coordinates of scanned surface thereof
JP2010088699A (en) * 2008-10-09 2010-04-22 National Center For Child Health & Development Medical image processing system
JP2015061659A (en) * 2009-05-11 2015-04-02 株式会社東芝 Ultrasonic diagnostic apparatus, ultrasonic image processing apparatus and ultrasonic image processing program
WO2012086152A1 (en) * 2010-12-24 2012-06-28 パナソニック株式会社 Ultrasound image-generating apparatus and image-generating method

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200114841A (en) * 2019-03-29 2020-10-07 전남대학교산학협력단 Method of angiography based on electromagnetism mapping of microrobot and apparatus using the same
KR102239108B1 (en) 2019-03-29 2021-04-13 전남대학교산학협력단 Method of angiography based on electromagnetism mapping of microrobot and apparatus using the same
CN111489608A (en) * 2020-06-04 2020-08-04 赵连蒙 Panoramic VR interactive medical ultrasonic digital phantom system teaching method
CN111973228A (en) * 2020-06-17 2020-11-24 谈斯聪 B-ultrasonic data acquisition, analysis and diagnosis integrated robot and platform
WO2023048239A1 (en) * 2021-09-27 2023-03-30 キヤノン株式会社 Ultrasonic diagnostic device
CN114271856A (en) * 2021-12-27 2022-04-05 开普云信息科技股份有限公司 Three-dimensional ultrasonic image generation method and device, storage medium and equipment
CN114271856B (en) * 2021-12-27 2022-10-11 开普云信息科技股份有限公司 Three-dimensional ultrasonic image generation method and device, storage medium and equipment

Also Published As

Publication number Publication date
JP6720001B2 (en) 2020-07-08

Similar Documents

Publication Publication Date Title
JP5230589B2 (en) Ultrasonic device, ultrasonic imaging program, and ultrasonic imaging method
US11653897B2 (en) Ultrasonic diagnostic apparatus, scan support method, and medical image processing apparatus
US20190046153A1 (en) Ultrasonic diagnostic apparatus
US20230414201A1 (en) Ultrasonic diagnostic apparatus
JP5284123B2 (en) Ultrasonic diagnostic apparatus and position information acquisition program
JP6615603B2 (en) Medical image diagnostic apparatus and medical image diagnostic program
EP3463098B1 (en) Medical ultrasound image processing device
JP6720001B2 (en) Ultrasonic diagnostic device and medical image processing device
JP5897674B2 (en) Ultrasonic diagnostic apparatus, image processing apparatus, and image processing program
JP7392093B2 (en) Ultrasonic diagnostic equipment and control program
JP6956483B2 (en) Ultrasonic diagnostic equipment and scanning support program
US20140378837A1 (en) Ultrasound diagnostic apparatus
JP6125380B2 (en) Ultrasonic diagnostic apparatus, medical image processing apparatus, and image processing program
JP2018121841A (en) Ultrasonic diagnosis apparatus and ultrasonic diagnosis support program
US11850101B2 (en) Medical image diagnostic apparatus, medical image processing apparatus, and medical image processing method
JP2013143978A (en) Ultrasonic diagnostic apparatus
JP6334013B2 (en) Ultrasonic diagnostic equipment
JP2019195447A (en) Ultrasound diagnosis apparatus and medical information processing program
US11883241B2 (en) Medical image diagnostic apparatus, ultrasonic diagnostic apparatus, medical imaging system, and imaging control method
JP7188954B2 (en) Ultrasound diagnostic equipment and control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190606

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200519

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200617

R150 Certificate of patent or registration of utility model

Ref document number: 6720001

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150