JP2013111434A - Image processor, ultrasonic diagnostic apparatus and image processing program - Google Patents

Image processor, ultrasonic diagnostic apparatus and image processing program Download PDF

Info

Publication number
JP2013111434A
JP2013111434A JP2011263258A JP2011263258A JP2013111434A JP 2013111434 A JP2013111434 A JP 2013111434A JP 2011263258 A JP2011263258 A JP 2011263258A JP 2011263258 A JP2011263258 A JP 2011263258A JP 2013111434 A JP2013111434 A JP 2013111434A
Authority
JP
Japan
Prior art keywords
point
correction
image
designated
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011263258A
Other languages
Japanese (ja)
Inventor
Naohisa Kamiyama
直久 神山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Canon Medical Systems Corp
Original Assignee
Toshiba Corp
Toshiba Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Medical Systems Corp filed Critical Toshiba Corp
Priority to JP2011263258A priority Critical patent/JP2013111434A/en
Publication of JP2013111434A publication Critical patent/JP2013111434A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To facilitate an input operation to a medical image.SOLUTION: An ultrasonic diagnostic apparatus of an embodiment includes an input device 20, an acquisition part 171, an information storage part 183, a determination part 172, and a measurement part 173. The input device 20 receives specification of a measurement item using the medical image. The acquisition part 171 acquires a position in the medical image of a specified point specified on the medical image by an operator. The information storage part 183 stores a plurality of correction modes for correcting the position of the specified point on the basis of image information of a vicinity area in a prescribed range from the position of the specified point including the specified point in the medical image. The determination part 172 corrects the position of the specified point according to the prescribed correction mode determined on the basis of the measurement item, and determines the point of the corrected position as a correction point. The measurement part 173 performs measurement on the basis of the position of the correction point and the measurement item.

Description

本発明の実施形態は、画像処理装置、超音波診断装置及び画像処理プログラムに関する。   Embodiments described herein relate generally to an image processing apparatus, an ultrasonic diagnostic apparatus, and an image processing program.

超音波診断装置は、X線診断装置、X線CT(Computed Tomography)装置等の他の医用画像診断装置に比べ安価で被曝が無く、また、生体内の情報を示す超音波画像を非侵襲的に生成して略リアルタイムで表示可能な装置であることから、今日の医療において重要な役割を果たしている。超音波診断装置は、心臓等の循環器の診断や、肝臓や腎臓等の腹部臓器の診断、抹消血管の診断、産婦人科における診断、乳癌の診断等、幅広い分野で用いられている。   The ultrasonic diagnostic apparatus is less expensive and less exposed than other medical image diagnostic apparatuses such as an X-ray diagnostic apparatus and an X-ray CT (Computed Tomography) apparatus, and non-invasively displays an ultrasonic image indicating in-vivo information. Therefore, it plays an important role in today's medical care. Ultrasound diagnostic apparatuses are used in a wide range of fields such as diagnosis of circulatory organs such as the heart, diagnosis of abdominal organs such as the liver and kidney, diagnosis of peripheral blood vessels, diagnosis in obstetrics and gynecology, and diagnosis of breast cancer.

また、超音波診断装置の別の特徴として、可搬性が挙げられる。X線CT装置やMRI(Magnetic Resonance Imaging)装置等の医用画像診断装置の多くが据置型であるのに対し、超音波診断装置の殆んどが、搬送可能となるように稼働車輪等を具備している。これにより、超音波診断装置は、病院内で病棟のベッドサイドまで搬送可能となっている。更に、近年では、超音波診断装置の小型化が進められている。かかる超音波診断装置としては、例えば、片手で持ち運びが可能なハンドキャリー型超音波診断装置(HCU:Hand Carry Ultrasound)がある。   Another feature of the ultrasonic diagnostic apparatus is portability. While most medical diagnostic imaging devices such as X-ray CT and MRI (Magnetic Resonance Imaging) devices are stationary, most ultrasonic diagnostic devices are equipped with operating wheels so that they can be transported. doing. Thereby, the ultrasonic diagnostic apparatus can be transported to the bedside of the ward in the hospital. Furthermore, in recent years, miniaturization of ultrasonic diagnostic apparatuses has been promoted. As such an ultrasonic diagnostic apparatus, for example, there is a hand carry type ultrasonic diagnostic apparatus (HCU: Hand Carry Ultrasound) that can be carried with one hand.

また、超音波診断装置の小型化とともに、ユーザインターフェースの形態も変化している。例えば、従来の超音波診断装置の入力装置では、専用のボタンが複数個設置されていた。しかし、現在では、携帯型のOA機器に代表されるノート型パーソナルコンピュータ(ノートPC)や電話機能付き情報端末(スマートフォン)等と同様に、入力ボタンを液晶モニタ等に仮想的に描画し、かかる入力ボタン(仮想的ボタン)をマウスやタッチパッドによって操作者がクリックする入力形態を採用した超音波診断装置が実用化されている。更には、タッチセンサー付きのモニタの実用化に伴い、操作者が仮想的ボタンを直接触れることによって入力操作を行なう、所謂タッチ入力が可能な超音波診断装置も実用化されている。なお、超音波診断装置以外の他の医用画像診断装置でもマウス入力やタッチ入力が可能な装置が実用化されている。   Moreover, the form of the user interface is changing with the miniaturization of the ultrasonic diagnostic apparatus. For example, in an input device of a conventional ultrasonic diagnostic apparatus, a plurality of dedicated buttons are installed. However, at present, as with notebook personal computers (notebook PCs) typified by portable OA devices and information terminals with smartphone functions (smartphones), input buttons are virtually drawn on a liquid crystal monitor or the like. An ultrasonic diagnostic apparatus that employs an input form in which an operator clicks an input button (virtual button) with a mouse or a touchpad has been put into practical use. Furthermore, along with the practical use of monitors with touch sensors, so-called ultrasonic diagnostic apparatuses capable of so-called touch input, in which an operator performs an input operation by directly touching virtual buttons, have also been put into practical use. Note that devices capable of mouse input and touch input have been put to practical use in medical image diagnostic devices other than ultrasonic diagnostic devices.

マウス入力やタッチ入力は、操作性の解釈が容易であることから、操作者にとって受け入れやすい入力形態である。このため、マウス入力やタッチ入力を医用画像診断装置に採用することは、医用画像診断装置の操作性を向上させるという利点がある。一方、マウス入力やタッチ入力を医用画像診断装置に採用すると、以下のような場合が生じる。   Mouse input and touch input are easy to accept for the operator because the operability is easy to interpret. For this reason, adopting mouse input or touch input in the medical image diagnostic apparatus has an advantage of improving the operability of the medical image diagnostic apparatus. On the other hand, when mouse input or touch input is employed in a medical image diagnostic apparatus, the following cases occur.

例えば、超音波検査では、超音波画像を用いた種々の計測が行われる。計測の目的は多岐にわたるが、計測の要素としては、操作者が2点の位置を指定して行なう距離計測や、操作者が閉じた曲線を描画して行なう面積計測等が挙げられる。これらの計測は、非常に細かい精度が要求されるものが少なくない。何故なら、例えば、これらの計測の結果によって、診断部位の腫瘍が悪性であるか良性であるかの鑑別が行われたり、鑑別結果に応じて、治療方針や投薬方針の決定が行われたりするからである。   For example, in the ultrasonic inspection, various measurements using an ultrasonic image are performed. The purpose of the measurement is various, but the elements of measurement include distance measurement performed by the operator specifying the position of two points, area measurement performed by drawing a closed curve by the operator, and the like. Many of these measurements require very fine accuracy. This is because, for example, the results of these measurements can be used to identify whether the tumor at the diagnostic site is malignant or benign, and the treatment policy and medication policy can be determined according to the results of the discrimination. Because.

しかし、ノートPC等で経験することと同様に、例えば、医用画像に操作者がマウスを使用して輪郭を正確にトレースすることは、困難である。更に、タッチ入力の場合、医用画像に操作者が指先で正確に点を指定することは、困難である。   However, as experienced with a notebook PC or the like, for example, it is difficult for an operator to accurately trace an outline on a medical image using a mouse. Furthermore, in the case of touch input, it is difficult for an operator to accurately specify a point with a fingertip on a medical image.

特開2009−153917号公報JP 2009-153917 A

本発明が解決しようとする課題は、医用画像に対する入力操作を容易にすることができる画像処理装置、超音波診断装置及び画像処理プログラムを提供することである。   The problem to be solved by the present invention is to provide an image processing apparatus, an ultrasonic diagnostic apparatus, and an image processing program that can facilitate an input operation on a medical image.

実施形態の画像処理装置は、入力部と、取得部と、記憶部と、決定部と、計測部と、を備える。入力部は、医用画像を用いた計測項目の指定を受け付ける。取得部は、操作者が前記医用画像上に指定した指定点の、当該医用画像における位置を取得する。記憶部は、前記医用画像において前記指定点を含んで前記指定点の位置から所定の範囲にある近傍領域の画像情報に基づいて、前記指定点の位置を修正する、複数の修正モードを記憶する。決定部は、前記計測項目に基づいて定まる所定の修正モードに応じて、前記指定点の位置を修正し、修正した位置の点を修正点として決定する。計測部は、前記修正点の位置と、前記計測項目とに基づいて計測を行なう。   The image processing apparatus according to the embodiment includes an input unit, an acquisition unit, a storage unit, a determination unit, and a measurement unit. The input unit accepts designation of measurement items using medical images. The acquisition unit acquires the position in the medical image of the designated point specified by the operator on the medical image. The storage unit stores a plurality of correction modes for correcting the position of the designated point based on image information of a neighboring region that includes the designated point in the medical image and is within a predetermined range from the position of the designated point. . The determination unit corrects the position of the designated point in accordance with a predetermined correction mode determined based on the measurement item, and determines the point of the corrected position as a correction point. The measurement unit performs measurement based on the position of the correction point and the measurement item.

図1は、第1の実施形態に係る超音波診断装置の構成例を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration example of the ultrasonic diagnostic apparatus according to the first embodiment. 図2は、第1の実施形態に係る制御部の構成例を示す図である。FIG. 2 is a diagram illustrating a configuration example of a control unit according to the first embodiment. 図3は、第1の実施形態に係る取得部の処理を説明するための図(1)である。FIG. 3 is a diagram (1) for explaining the process of the acquisition unit according to the first embodiment. 図4は、第1の実施形態に係る取得部の処理を説明するための図(2)である。FIG. 4 is a diagram (2) for explaining the process of the acquisition unit according to the first embodiment. 図5は、第1の実施形態に係る取得部が設定する入力近傍エリアの一例を示す図である。FIG. 5 is a diagram illustrating an example of the input vicinity area set by the acquisition unit according to the first embodiment. 図6は、第1の実施形態に係る決定部が実行する第1の決定方法を説明するための図である。FIG. 6 is a diagram for explaining a first determination method executed by the determination unit according to the first embodiment. 図7は、第1の実施形態に係る決定部が実行する第2の決定方法を説明するための図である。FIG. 7 is a diagram for explaining a second determination method executed by the determination unit according to the first embodiment. 図8は、第1の実施形態の変形例を説明するための図(1)である。FIG. 8 is a diagram (1) for explaining a modification of the first embodiment. 図9は、第1の実施形態の変形例を説明するための図(2)である。FIG. 9 is a diagram (2) for explaining a modification of the first embodiment. 図10は、第1の実施形態に係る超音波診断装置による処理手順を示すフローチャートである。FIG. 10 is a flowchart illustrating a processing procedure performed by the ultrasonic diagnostic apparatus according to the first embodiment. 図11は、第2の実施形態に係る制御部の構成例を示す図である。FIG. 11 is a diagram illustrating a configuration example of a control unit according to the second embodiment. 図12は、第2の実施形態で用いられる事前情報の一例を示す図である。FIG. 12 is a diagram illustrating an example of prior information used in the second embodiment. 図13は、第2の実施形態に係る推定部及び決定部の処理の一例を示す図(1)である。FIG. 13 is a diagram (1) illustrating an example of processing of the estimation unit and the determination unit according to the second embodiment. 図14は、第2の実施形態に係る推定部及び決定部の処理の一例を示す図(2)である。FIG. 14 is a diagram (2) illustrating an example of processing of the estimation unit and the determination unit according to the second embodiment. 図15は、第2の実施形態に係る超音波診断装置による処理手順を示すフローチャートである。FIG. 15 is a flowchart illustrating a processing procedure performed by the ultrasonic diagnostic apparatus according to the second embodiment. 図16は、第3の実施形態を説明するための図である。FIG. 16 is a diagram for explaining the third embodiment. 図17は、入力近傍エリアの変形例を説明するための図である。FIG. 17 is a diagram for explaining a modification of the input vicinity area.

以下、添付図面を参照して、画像処理装置としての超音波診断装置の実施形態を詳細に説明する。   Hereinafter, an embodiment of an ultrasonic diagnostic apparatus as an image processing apparatus will be described in detail with reference to the accompanying drawings.

(第1の実施形態)
まず、第1の実施形態に係る超音波診断装置の構成について説明する。図1は、第1の実施形態に係る超音波診断装置の構成例を示すブロック図である。図1に例示するように、第1の実施形態に係る超音波診断装置1は、超音波プローブ10と、入力装置20と、モニタ30と、装置本体100とを有する。
(First embodiment)
First, the configuration of the ultrasonic diagnostic apparatus according to the first embodiment will be described. FIG. 1 is a block diagram illustrating a configuration example of the ultrasonic diagnostic apparatus according to the first embodiment. As illustrated in FIG. 1, the ultrasonic diagnostic apparatus 1 according to the first embodiment includes an ultrasonic probe 10, an input apparatus 20, a monitor 30, and an apparatus main body 100.

超音波プローブ10は、複数の圧電振動子を有し、これら複数の圧電振動子は、後述する装置本体100が有する送信部110から供給される駆動信号に基づき超音波を発生する。また、超音波プローブ10は、被検体Pからの反射波信号を受信して電気信号に変換する。また、超音波プローブ10は、圧電振動子に設けられる整合層と、圧電振動子から後方への超音波の伝播を防止するバッキング材などを有する。なお、超音波プローブ10は、装置本体100と着脱自在に接続される。   The ultrasonic probe 10 includes a plurality of piezoelectric vibrators, and the plurality of piezoelectric vibrators generate ultrasonic waves based on a drive signal supplied from a transmission unit 110 included in the apparatus main body 100 described later. The ultrasonic probe 10 receives a reflected wave signal from the subject P and converts it into an electrical signal. The ultrasonic probe 10 includes a matching layer provided in the piezoelectric vibrator, a backing material that prevents propagation of ultrasonic waves from the piezoelectric vibrator to the rear, and the like. The ultrasonic probe 10 is detachably connected to the apparatus main body 100.

超音波プローブ10から被検体Pに超音波が送信されると、送信された超音波は、被検体Pの体内組織における音響インピーダンスの不連続面で次々と反射され、反射波信号として超音波プローブ10が有する複数の圧電振動子にて受信される。受信される反射波信号の振幅は、超音波が反射される不連続面における音響インピーダンスの差に依存する。なお、送信された超音波パルスが、移動している血流や心臓壁などの表面で反射された場合の反射波信号は、ドプラ効果により、移動体の超音波送信方向に対する速度成分に依存して、周波数偏移を受ける。   When ultrasonic waves are transmitted from the ultrasonic probe 10 to the subject P, the transmitted ultrasonic waves are reflected one after another at the discontinuous surface of the acoustic impedance in the body tissue of the subject P, and the ultrasonic probe as a reflected wave signal Received by a plurality of piezoelectric vibrators 10. The amplitude of the received reflected wave signal depends on the difference in acoustic impedance at the discontinuous surface where the ultrasonic wave is reflected. Note that the reflected wave signal when the transmitted ultrasonic pulse is reflected on the moving blood flow or the surface of the heart wall depends on the velocity component of the moving body in the ultrasonic transmission direction due to the Doppler effect. And undergoes a frequency shift.

なお、第1の実施形態は、複数の圧電振動子が一列で配置された1次元超音波プローブである超音波プローブ10により、被検体Pを2次元でスキャンする場合であっても、1次元超音波プローブの複数の圧電振動子を機械的に揺動する超音波プローブ10や複数の圧電振動子が格子状に2次元で配置された2次元超音波プローブである超音波プローブ10により、被検体Pを3次元でスキャンする場合であっても、適用可能である。   In the first embodiment, even when the subject P is scanned two-dimensionally by the ultrasonic probe 10 which is a one-dimensional ultrasonic probe in which a plurality of piezoelectric vibrators are arranged in a row, the one-dimensional The ultrasonic probe 10 that mechanically swings a plurality of piezoelectric vibrators of the ultrasonic probe or the ultrasonic probe 10 that is a two-dimensional ultrasonic probe in which a plurality of piezoelectric vibrators are arranged two-dimensionally in a lattice shape is used. This is applicable even when the specimen P is scanned three-dimensionally.

入力装置20は、装置本体100と接続され、マウス、キーボード、ボタン、パネルスイッチ、タッチコマンドスクリーン、フットスイッチ、トラックボールなどを有する。かかる入力装置20は、超音波診断装置1の操作者からの各種設定要求を受け付け、受け付けた各種設定要求を装置本体100に転送する。   The input device 20 is connected to the device main body 100 and includes a mouse, a keyboard, a button, a panel switch, a touch command screen, a foot switch, a trackball, and the like. The input device 20 receives various setting requests from the operator of the ultrasonic diagnostic apparatus 1 and transfers the received various setting requests to the apparatus main body 100.

例えば、入力装置20であるタッチコマンドスクリーン(接触型スクリーン)には、仮想的な操作ボタンが描画されている。操作者は、仮想的な操作ボタンをタッチペンや指等で指定するタッチ入力方式により操作ボタンを押下することで、指示を入力する。   For example, virtual operation buttons are drawn on the touch command screen (contact type screen) that is the input device 20. The operator inputs an instruction by pressing the operation button using a touch input method in which a virtual operation button is designated with a touch pen, a finger, or the like.

モニタ30は、超音波診断装置1の操作者が入力装置20を用いて各種設定要求を入力するためのGUI(Graphical User Interface)を表示したり、装置本体100において生成された超音波画像などを表示したりする。具体的には、モニタ30は、後述する画像合成部160から入力されるビデオ信号に基づいて、生体内の形態学的情報や血流情報を画像として表示する。   The monitor 30 displays a GUI (Graphical User Interface) for an operator of the ultrasonic diagnostic apparatus 1 to input various setting requests using the input device 20, and displays an ultrasonic image generated in the apparatus main body 100. Or display. Specifically, the monitor 30 displays in-vivo morphological information and blood flow information as an image based on a video signal input from an image composition unit 160 described later.

なお、第1の実施形態では、モニタ30にも入力装置としての機能が搭載される。例えば、第1の実施形態では、モニタ30を接触型スクリーンとすることで、モニタ30を入力装置として機能させる。操作者は、タッチペンや指等を用いたタッチ入力方式により、例えば、モニタ30に表示されている超音波画像上に、距離計測用の点を指定したり、面積計測用の曲線を描画したりすることができる。また、操作者は、タッチペンや指等により、例えば、モニタ30に表示されている超音波画像上に、診断レポート用のコメントや矢印を挿入する位置を指定することができる。   In the first embodiment, the monitor 30 also has a function as an input device. For example, in the first embodiment, the monitor 30 is made to be a contact type screen so that the monitor 30 functions as an input device. The operator can specify a point for distance measurement or draw a curve for area measurement on the ultrasonic image displayed on the monitor 30 by a touch input method using a touch pen or a finger, for example. can do. Further, the operator can specify a position for inserting a diagnostic report comment or an arrow on the ultrasonic image displayed on the monitor 30, for example, with a touch pen or a finger.

装置本体100は、超音波プローブ10が受信した反射波信号に基づいて超音波画像を生成する。かかる装置本体100は、図1に例示するように、送信部110と、受信部120と、Bモード処理部131と、ドプラ処理部132と、画像生成部140と、画像メモリ150と、画像合成部160と、制御部170と、記憶部180と、インタフェース部190とを有する。   The apparatus main body 100 generates an ultrasonic image based on the reflected wave signal received by the ultrasonic probe 10. As illustrated in FIG. 1, the apparatus main body 100 includes a transmission unit 110, a reception unit 120, a B-mode processing unit 131, a Doppler processing unit 132, an image generation unit 140, an image memory 150, an image composition, and the like. Unit 160, control unit 170, storage unit 180, and interface unit 190.

送信部110は、パルス発生器111、送信遅延部112、パルサ113を有し、超音波プローブ10に駆動信号を供給する。パルス発生器111は、所定のレート周波数で、送信超音波を形成するためのレートパルスを繰り返し発生する。また、送信遅延部112は、超音波プローブ10から発生される超音波をビーム状に集束し、かつ送信指向性を決定するために必要な圧電振動子ごとの遅延時間を、パルス発生器111が発生する各レートパルスに対し与える。また、パルサ113は、レートパルスに基づくタイミングで、超音波プローブ10に駆動信号(駆動パルス)を印加する。すなわち、送信遅延部112は、各レートパルスに対し与える遅延時間を変化させることで、圧電振動子面から送信される超音波の送信方向を任意に調整する。   The transmission unit 110 includes a pulse generator 111, a transmission delay unit 112, and a pulsar 113, and supplies a drive signal to the ultrasonic probe 10. The pulse generator 111 repeatedly generates rate pulses for forming transmission ultrasonic waves at a predetermined rate frequency. In addition, the transmission delay unit 112 focuses the ultrasonic wave generated from the ultrasonic probe 10 into a beam shape, and the pulse generator 111 determines the delay time for each piezoelectric vibrator necessary for determining the transmission directivity. For each rate pulse that occurs. The pulser 113 applies a drive signal (drive pulse) to the ultrasonic probe 10 at a timing based on the rate pulse. That is, the transmission delay unit 112 arbitrarily adjusts the transmission direction of the ultrasonic wave transmitted from the piezoelectric vibrator surface by changing the delay time given to each rate pulse.

受信部120は、プリアンプ121、図示しないA/D(Analog/Digital)変換器、受信遅延部122、加算器123を有し、超音波プローブ10が受信した反射波信号に対して各種処理を行って反射波データを生成する。プリアンプ121は、反射波信号をチャネル毎に増幅する。図示しないA/D変換器は、増幅された反射波信号をA/D変換する。受信遅延部122は、受信指向性を決定するために必要な遅延時間を与える。加算器123は、受信遅延部122によって処理された反射波信号の加算処理を行なって反射波データを生成する。加算器123の加算処理により、反射波信号の受信指向性に応じた方向からの反射成分が強調され、受信指向性と送信指向性とにより超音波送受信の総合的なビームが形成される。   The receiving unit 120 includes a preamplifier 121, an A / D (Analog / Digital) converter (not shown), a reception delay unit 122, and an adder 123, and performs various processes on the reflected wave signal received by the ultrasonic probe 10. To generate reflected wave data. The preamplifier 121 amplifies the reflected wave signal for each channel. An A / D converter (not shown) A / D converts the amplified reflected wave signal. The reception delay unit 122 gives a delay time necessary for determining the reception directivity. The adder 123 performs an addition process on the reflected wave signal processed by the reception delay unit 122 to generate reflected wave data. By the addition process of the adder 123, the reflection component from the direction corresponding to the reception directivity of the reflected wave signal is emphasized, and a comprehensive beam for ultrasonic transmission / reception is formed by the reception directivity and the transmission directivity.

なお、受信部120からの出力信号の形態は、RF(Radio Frequency)信号と呼ばれる位相情報が含まれる信号である場合や、包絡線検波処理後の振幅情報である場合等、種々の形態が選択可能である。   The form of the output signal from the receiving unit 120 can be selected from various forms such as a signal including phase information called an RF (Radio Frequency) signal or amplitude information after envelope detection processing. Is possible.

Bモード処理部131は、受信部120から反射波データを受け取り、対数増幅、包絡線検波処理などを行って、各走査線の信号強度が輝度の明るさで表現されるデータ(Bモードデータ)を生成する。   The B-mode processing unit 131 receives the reflected wave data from the receiving unit 120, performs logarithmic amplification, envelope detection processing, and the like, and data in which the signal intensity of each scanning line is expressed by brightness (B-mode data) Is generated.

ドプラ処理部132は、受信部120から受け取った反射波データから速度情報を周波数解析し、ドプラ効果による血流や組織、造影剤エコー成分を抽出し、平均速度、分散、パワー等の血流情報を各走査線の多点について抽出したデータ(ドプラデータ)を生成する。   The Doppler processing unit 132 performs frequency analysis on velocity information from the reflected wave data received from the receiving unit 120, extracts blood flow, tissue, and contrast agent echo components due to the Doppler effect, and blood flow information such as average velocity, dispersion, and power. Are extracted for multiple points of each scanning line (Doppler data).

画像生成部140は、Bモード処理部131が生成したBモードデータや、ドプラ処理部132が生成したドプラデータから、超音波画像を生成し、生成した超音波画像を後述する画像メモリ150又は記憶部180に格納する。   The image generation unit 140 generates an ultrasonic image from the B-mode data generated by the B-mode processing unit 131 and the Doppler data generated by the Doppler processing unit 132, and the generated ultrasonic image is stored in the image memory 150 or the storage described later. Stored in the unit 180.

具体的には、画像生成部140は、Bモードデータから、反射波データの強度が輝度にて表現されるBモード画像を生成する。また、画像生成部140は、ドプラデータから、血流の平均速度、分散、血流量、これらの組合せを色によって識別可能に表示するカラードプラ画像を生成する。   Specifically, the image generation unit 140 generates a B-mode image in which the intensity of the reflected wave data is expressed by luminance from the B-mode data. Further, the image generation unit 140 generates a color Doppler image that displays the average blood flow velocity, the variance, the blood flow volume, and a combination thereof from the Doppler data so as to be identifiable by color.

また、画像生成部140は、超音波スキャンの複数の走査線信号列を、テレビなどに代表されるビデオフォーマットの走査線信号列に変換(スキャンコンバート)し、表示画像としての超音波画像(Bモード画像やカラードプラ画像)を生成する。また、画像生成部140は、画像データを格納する図示しない記憶メモリを搭載しており、例えば診断の後に操作者が検査中に記録された画像を呼び出すことが可能となっている。   The image generation unit 140 converts (scan converts) a plurality of scanning line signal sequences for ultrasonic scanning into a scanning line signal sequence in a video format typified by a television or the like, and an ultrasonic image (B Mode image or color Doppler image). In addition, the image generation unit 140 is equipped with a storage memory (not shown) that stores image data. For example, after diagnosis, an operator can call up an image recorded during an examination.

画像メモリ150は、Bモード処理部131やドプラ処理部132から受信したデータを記憶するメモリである。画像メモリ150が記憶するデータは、例えば、診断の後に操作者が呼び出すことが可能となっており、画像生成部140を経由して表示用の超音波画像となる。この超音波画像は、静止画像的に、或いは、複数枚を使って動画的に再生することが可能である。   The image memory 150 is a memory that stores data received from the B-mode processing unit 131 and the Doppler processing unit 132. The data stored in the image memory 150 can be called by an operator after diagnosis, for example, and becomes an ultrasonic image for display via the image generation unit 140. This ultrasonic image can be reproduced as a still image or as a moving image using a plurality of images.

また、画像メモリ150は、画像生成部140が生成した超音波画像や、超音波画像を画像処理することで生成した画像データを記憶することもできる。かかる画像データも、例えば、診断の後に、操作者が画像メモリ150から呼び出すことで、静止画像的に、或いは、複数枚を使って動画的に再生することが可能である。   The image memory 150 can also store an ultrasonic image generated by the image generation unit 140 and image data generated by performing image processing on the ultrasonic image. Such image data can also be reproduced as a still image or as a moving image using a plurality of images, for example, by an operator calling from the image memory 150 after diagnosis.

画像合成部160は、画像生成部140が生成した超音波画像に、種々のパラメータの文字情報、目盛り、ボディーマークなどを合成した合成画像を生成する。画像合成部160によって生成された合成画像は、モニタ30で表示される。   The image composition unit 160 generates a composite image in which character information, scales, body marks, and the like of various parameters are combined with the ultrasonic image generated by the image generation unit 140. The composite image generated by the image composition unit 160 is displayed on the monitor 30.

制御部170は、情報処理装置(計算機)としての機能を実現する制御プロセッサ(CPU:Central Processing Unit)であり、超音波診断装置1における処理全体を制御する。具体的には、制御部170は、入力装置20を介して操作者から入力された各種指示や設定要求、後述する記憶部180から読み込んだプログラム及び各種設定情報に基づき、送信部110、受信部120、Bモード処理部131、ドプラ処理部132、画像生成部140及び画像合成部160の処理を制御する。また、制御部170は、後述する記憶部180や画像メモリ150が記憶する超音波画像等をモニタ30にて表示するように制御する。   The control unit 170 is a control processor (CPU: Central Processing Unit) that realizes a function as an information processing apparatus (computer), and controls the entire processing in the ultrasonic diagnostic apparatus 1. Specifically, the control unit 170 is based on various instructions and setting requests input from the operator via the input device 20, a program read from the storage unit 180, which will be described later, and various setting information. 120, the B mode processing unit 131, the Doppler processing unit 132, the image generation unit 140, and the image synthesis unit 160 are controlled. In addition, the control unit 170 controls the monitor 30 to display an ultrasonic image or the like stored in the storage unit 180 or the image memory 150 described later.

記憶部180は、超音波送受信、画像処理及び表示処理を行うための各種プログラムを記憶する各種プログラム181や、画像生成部140によって生成された超音波画像を記憶する画像記憶部182や、診断情報(例えば、患者ID、医師の所見等)、診断プロトコルや各種設定情報等の各種データを記憶する情報記憶部183等を有する。   The storage unit 180 includes various programs 181 that store various programs for performing ultrasonic transmission / reception, image processing, and display processing, an image storage unit 182 that stores ultrasonic images generated by the image generation unit 140, and diagnostic information. (For example, patient ID, doctor's findings, etc.), an information storage unit 183 that stores various data such as a diagnostic protocol and various setting information.

例えば、各種プログラム181は、超音波画像を用いた計測処理を行なうための手順が記述された計測用プログラムを記憶する。また、各種プログラム181は、後に説明する制御部170が実行する手順が記述された画像処理プログラムを記憶する。なお、記憶部180が記憶する各種データは、インタフェース部190を経由して、外部の周辺装置へ転送することができる。   For example, the various programs 181 store a measurement program in which a procedure for performing measurement processing using an ultrasound image is described. Further, the various programs 181 store an image processing program in which a procedure executed by the control unit 170 described later is described. Various data stored in the storage unit 180 can be transferred to an external peripheral device via the interface unit 190.

インタフェース部190は、操作パネル(入力装置20や入力デバイスとしてのモニタ30)、外部記憶装置、ネットワークに関するインタフェースである。入力装置20、入力デバイスとしてのモニタ30が受け付けた情報は、制御部170に転送される。また、超音波診断装置1によって得られた超音波画像などのデータは、インタフェース部190によって、ネットワークを介して他の装置へ転送することができる。   The interface unit 190 is an interface related to an operation panel (the input device 20 or the monitor 30 as an input device), an external storage device, and a network. Information received by the input device 20 and the monitor 30 as an input device is transferred to the control unit 170. Further, data such as an ultrasound image obtained by the ultrasound diagnostic apparatus 1 can be transferred to another apparatus via the network by the interface unit 190.

なお、装置本体100に内蔵される送信部110及び超音波受信部120等は、集積回路等のハードウェアで構成されることもあるが、ソフトウェア的にモジュール化されたプログラムにより実現される場合もある。   The transmitter 110 and the ultrasonic receiver 120 built in the apparatus main body 100 may be configured by hardware such as an integrated circuit, but may be realized by a software modularized program. is there.

以上、第1の実施形態に係る超音波診断装置1の全体構成について説明した。ここで、超音波検査では、超音波画像を用いた種々の計測が行われる。かかる計測としては、操作者が2点の位置を指定して行なう距離計測や、操作者が閉じた曲線を描画して行なう面積計測等が挙げられる。計測の結果によって、診断部位の腫瘍が悪性であるか良性であるかの鑑別が行われたり、鑑別結果に応じて、治療方針や投薬方針の決定が行われたりするため、画像診断では、高い計測精度が要求される。   The overall configuration of the ultrasonic diagnostic apparatus 1 according to the first embodiment has been described above. Here, in the ultrasonic inspection, various measurements using an ultrasonic image are performed. Examples of such measurement include distance measurement performed by the operator specifying two positions, area measurement performed by drawing a closed curve by the operator, and the like. Depending on the result of the measurement, whether the tumor at the diagnosis site is malignant or benign is differentiated, and the treatment policy and medication policy are determined according to the discrimination result. Measurement accuracy is required.

しかし、入力装置20のマウスや、タッチペンや指を用いてモニタ30に表示された超音波画像に、複雑な腫瘍部位の輪郭を正確にトレースすることや、確実に正確な計測点を指定することは、困難である。   However, it is possible to accurately trace the contour of a complex tumor site on an ultrasonic image displayed on the monitor 30 using the mouse of the input device 20, a touch pen, or a finger, or to specify an accurate measurement point reliably. It is difficult.

このようなことから、第1の実施形態に係る超音波診断装置1は、超音波画像に対する入力操作を容易にするため、以下に説明する制御部170の処理が行なわれる。すなわち、第1の実施形態に係る制御部170は、操作者が超音波画像上に指定した指定点の当該超音波画像における位置を取得する。そして、制御部170は、超音波画像において指定点を含んで指定点の位置から所定の範囲にある近傍領域の画像情報に基づいて、指定点の位置を修正する。そして、制御部170は、修正した位置の点を修正点として決定する。   For this reason, the ultrasonic diagnostic apparatus 1 according to the first embodiment performs the processing of the control unit 170 described below in order to facilitate the input operation on the ultrasonic image. That is, the control unit 170 according to the first embodiment acquires the position in the ultrasound image of the designated point designated on the ultrasound image by the operator. Then, the control unit 170 corrects the position of the designated point on the basis of the image information of the neighboring area including the designated point in the ultrasonic image and within the predetermined range from the position of the designated point. And the control part 170 determines the point of the corrected position as a correction point.

以下、図2等を用いて、第1の実施形態に係る制御部170について詳細に説明する。図2は、第1の実施形態に係る制御部の構成例を示す図である。   Hereinafter, the control unit 170 according to the first embodiment will be described in detail with reference to FIG. FIG. 2 is a diagram illustrating a configuration example of a control unit according to the first embodiment.

図2に例示するように、第1の実施形態に係る制御部170は、取得部171と決定部172と計測部173とを有する。なお、以下に説明する取得部171と決定部172との処理は、画像記憶部182から、操作者が入力装置20を介して指定した超音波画像がモニタ30に表示された後に行なわれる。   As illustrated in FIG. 2, the control unit 170 according to the first embodiment includes an acquisition unit 171, a determination unit 172, and a measurement unit 173. The processing of the acquisition unit 171 and the determination unit 172 described below is performed after an ultrasonic image designated by the operator via the input device 20 is displayed on the monitor 30 from the image storage unit 182.

取得部171は、上述したように、操作者が超音波画像上に指定した指定点の位置を取得する。図3及び図4は、第1の実施形態に係る取得部の処理を説明するための図である。例えば、図3の(A)に示すように、モニタ30は、組織の輪郭が低輝度の黒い曲線で描出されている超音波画像40を表示している。操作者は、モニタ30に表示された超音波画像40を参照して、距離計測用の点や、診断レポート用に矢印を挿入するための点を、輪郭上に指定する。かかる点は、例えば、操作者が入力装置20のマウスを用いて指定される。或いは、例えば、操作者がモニタ30の接触型スクリーンを指で押下することで、指定される。超音波画像40では、組織の輪郭が低輝度の黒い曲線で描出されている。   As described above, the acquisition unit 171 acquires the position of the designated point designated on the ultrasonic image by the operator. 3 and 4 are diagrams for explaining processing of the acquisition unit according to the first embodiment. For example, as shown in FIG. 3A, the monitor 30 displays an ultrasonic image 40 in which the outline of the tissue is drawn with a low-brightness black curve. The operator refers to the ultrasonic image 40 displayed on the monitor 30 and designates a point for distance measurement and a point for inserting an arrow for a diagnostic report on the contour. Such a point is designated by the operator using the mouse of the input device 20, for example. Alternatively, for example, it is specified by the operator pressing the contact type screen of the monitor 30 with a finger. In the ultrasonic image 40, the outline of the tissue is depicted with a low-brightness black curve.

図3の(B)は、図3の(A)に示す超音波画像40において、操作者が着目する点を含む領域を模式的に画素(ピクセル)レベルまで拡大した拡大図である。図3の(B)では、画素ごとの輝度値を、ドットの密度で示している。図3の(B)では、輝度値が低いほど、ドットの密度を高くして示している。ここで、画素51や画素52は、図3の(A)に示す超音波画像40において輪郭として描出された画素である。ここで、最も輝度値が低く、輪郭において最も左に位置する画素52を、操作者が指定したかった正解の点(正解点)とする。   FIG. 3B is an enlarged view in which, in the ultrasonic image 40 shown in FIG. 3A, a region including a point of interest by the operator is schematically enlarged to a pixel (pixel) level. In FIG. 3B, the luminance value for each pixel is indicated by the dot density. In FIG. 3B, the lower the luminance value, the higher the dot density. Here, the pixel 51 and the pixel 52 are pixels depicted as an outline in the ultrasonic image 40 illustrated in FIG. Here, the pixel 52 having the lowest luminance value and located on the leftmost in the contour is set as a correct point (correct point) that the operator wanted to designate.

例えば、正解点である画素52をマウスで指定する場合、通常、マウスカーソルの先端は、1画素を指示することができる。マウス入力の場合、取得部171は、マウスで指定された点の位置を指定点の位置として取得する。しかし、マウス入力の場合、操作者がマウスカーソルを画素52に移動することは可能であるが、画素52を正確に指定するためには、操作者は、慎重に時間をかけてマウスを操作する必要がある。このため、マウス入力で指定された指定点は、必ずしも正解点である画素52にはならない場合がある。   For example, when the pixel 52 that is the correct answer point is designated with the mouse, the tip of the mouse cursor can usually indicate one pixel. In the case of mouse input, the acquisition unit 171 acquires the position of the point designated by the mouse as the position of the designated point. However, in the case of mouse input, the operator can move the mouse cursor to the pixel 52, but in order to specify the pixel 52 accurately, the operator carefully operates the mouse over time. There is a need. For this reason, the designated point designated by the mouse input may not necessarily be the pixel 52 which is the correct answer point.

更に、例えば、指先によるタッチ入力の場合、指先が接触型スクリーンに触れる面積は、広くなるため、操作者がいくら慎重に操作しても、正解点である画素51を指定するのは困難である。   Furthermore, for example, in the case of touch input with a fingertip, the area where the fingertip touches the contact-type screen is widened, so that it is difficult to specify the pixel 51 that is the correct answer no matter how careful the operator operates. .

指先によるタッチ入力の場合、モニタ30の接触型スクリーンにおいて操作者の指先が触れる領域は、1画素ではなく、例えば、図4の(A)にて実線で囲まれた複数の画素からなる領域531となる。タッチ入力の場合、取得部171は、接触型スクリーンにおいて最初に指先が触れられた位置に対応する画素の位置を指定点の位置として取得する。或いは、取得部171は、領域531の重心位置に対応する画素の位置を指定点の位置として取得する。例えば、取得部171は、図4の(B)に示すように、画素52ではなく、画素52の右に位置する画素53を指定点とし、画素53の位置を指定点の位置として取得する。   In the case of touch input by a fingertip, the area touched by the operator's fingertip on the contact-type screen of the monitor 30 is not a single pixel, for example, an area 531 composed of a plurality of pixels surrounded by a solid line in FIG. It becomes. In the case of touch input, the acquisition unit 171 acquires the position of the pixel corresponding to the position where the fingertip is first touched on the contact type screen as the position of the designated point. Alternatively, the acquisition unit 171 acquires the position of the pixel corresponding to the barycentric position of the region 531 as the position of the designated point. For example, as illustrated in FIG. 4B, the acquisition unit 171 acquires not the pixel 52 but the pixel 53 positioned to the right of the pixel 52 as the designated point, and obtains the position of the pixel 53 as the designated point position.

図2に示す決定部172は、指定点を含んで指定点の位置から所定の範囲にある近傍領域の画像情報を設定する。具体的には、図2に示す情報記憶部183は、超音波画像において指定点を含んで指定点の位置から所定の範囲にある近傍領域の画像情報に基づいて指定点の位置を修正する、複数の修正モードを記憶する。そして、決定部172は、複数の修正モードの内から1つの修正モードを選択して指定点の位置を修正し、修正した位置の点を修正点として決定する。以下では、上記の近傍領域を「入力近傍エリア」と記載する。例えば、指定点である画素53の超音波画像40における位置を(x,y)とする。決定部172は、情報記憶部183に格納されている係数「a」を用いて入力近傍エリアを設定する。係数「a」は、所定の範囲を設定する値として予め設定される設定値である。或いは、係数「a」は、超音波画像40を読み込む際に、操作者により設定されても良い。図5は、第1の実施形態に係る取得部が設定する入力近傍エリアの一例を示す図である。   The determination unit 172 illustrated in FIG. 2 sets image information of a neighboring area that includes the designated point and is within a predetermined range from the position of the designated point. Specifically, the information storage unit 183 shown in FIG. 2 corrects the position of the designated point based on the image information of a neighboring region that includes the designated point in the ultrasonic image and is within a predetermined range from the position of the designated point. Multiple correction modes are stored. Then, the determination unit 172 selects one correction mode from among a plurality of correction modes, corrects the position of the designated point, and determines the point at the corrected position as the correction point. Hereinafter, the above-described neighboring area is referred to as “input neighboring area”. For example, the position in the ultrasonic image 40 of the pixel 53 that is the designated point is (x, y). The determination unit 172 sets the input neighborhood area using the coefficient “a” stored in the information storage unit 183. The coefficient “a” is a set value set in advance as a value for setting a predetermined range. Alternatively, the coefficient “a” may be set by the operator when the ultrasound image 40 is read. FIG. 5 is a diagram illustrating an example of the input vicinity area set by the acquisition unit according to the first embodiment.

例えば、設定値「4(単位:画素)」が情報記憶部183に格納されているとする。かかる場合、決定部172は、図5に示すように、「(x−4,y−4)、(x+4,y−4)、(x−4,y+4)、(x+4,y+4)」を頂点とする四角形内の画素群で構成される領域54を入力近傍エリアとして設定する。指定点である画素53や、正解点である画素52は、入力近傍エリアとして設定された正方形の領域54内に含まれる。なお、「a」の値は、任意の値を設定可能であり、「a」の単位も、例えば、長さのように、任意に設定可能である。また、入力近傍エリアの形状は、例えば、長方形や、円、楕円、リング状のように、任意の形状を設定可能である。   For example, it is assumed that the setting value “4 (unit: pixel)” is stored in the information storage unit 183. In such a case, as illustrated in FIG. 5, the determination unit 172 has “(x−4, y−4), (x + 4, y−4), (x−4, y + 4), (x + 4, y + 4)” as a vertex. Is set as an input vicinity area. The pixel 53 that is the designated point and the pixel 52 that is the correct answer point are included in the square area 54 set as the input vicinity area. Note that an arbitrary value can be set as the value of “a”, and the unit of “a” can be arbitrarily set, for example, a length. Further, the shape of the input vicinity area can be set to an arbitrary shape such as a rectangle, a circle, an ellipse, or a ring.

そして、決定部172は、入力近傍エリアの画像情報に基づいて、指定点の位置を修正し、修正した位置の画素を修正点として決定する。具体的には、決定部172は、複数の修正モードの内から1つの修正モードを選択して指定点の位置を修正し、修正した位置の点を修正点として決定する。より具体的には、決定部172は、入力近傍エリアの画像情報に基づいて、複数の修正モードの内から1つの修正モードを選択する。決定部172が決定する修正点は、入力近傍エリアの画像情報に基づいて、正解点を推定した点となる。以下、決定部172が行なう2つの決定方法について説明する。以下の2つの決定方法は、決定部172が選択する修正モードに基づく決定方法である。   Then, the determination unit 172 corrects the position of the designated point based on the image information of the input vicinity area, and determines the pixel at the corrected position as the correction point. Specifically, the determination unit 172 selects one correction mode from among a plurality of correction modes, corrects the position of the designated point, and determines the point at the corrected position as the correction point. More specifically, the determination unit 172 selects one correction mode from among a plurality of correction modes based on the image information in the input vicinity area. The correction point determined by the determination unit 172 is a point where the correct point is estimated based on the image information in the input vicinity area. Hereinafter, two determination methods performed by the determination unit 172 will be described. The following two determination methods are determination methods based on the correction mode selected by the determination unit 172.

まず、第1の決定方法について説明する。決定部172は、第1の決定方法として、入力近傍エリアを構成する画素の輝度値の分布に基づいて、修正点を決定する。すなわち、決定部172は、情報記憶部183に記憶される複数の修正モードの少なくとも1つである「入力近傍エリアを構成する画素の輝度値の分布に基づいて、修正点を決定する修正モード」を選択する。図6は、第1の実施形態に係る決定部が実行する第1の決定方法を説明するための図である。   First, the first determination method will be described. As a first determination method, the determination unit 172 determines a correction point based on the distribution of luminance values of pixels that constitute the input vicinity area. In other words, the determination unit 172 is “at least one of a plurality of correction modes stored in the information storage unit 183,“ a correction mode for determining a correction point based on the distribution of luminance values of pixels constituting the input neighborhood area ”. Select. FIG. 6 is a diagram for explaining a first determination method executed by the determination unit according to the first embodiment.

第1の決定方法は、輝度値の分布が偏っている領域54のように、輪郭部の輝度値が、通常、輪郭部の周囲と異なっていることに基づいた方法であり、入力近傍エリアにおいて、輝度値が最大となる点、又は、輝度値が最小となる点を修正点とする方法である。   The first determination method is a method based on the fact that the brightness value of the contour part is usually different from the periphery of the contour part as in the region 54 where the distribution of the brightness value is biased. In this method, the point at which the luminance value is maximized or the point at which the luminance value is minimized is used as the correction point.

まず、第1の決定方法を実行する場合、決定部172は、入力近傍エリアの輝度値の分布から輝度値が最大となる点を修正点として採用するか、輝度値が最小となる点を修正点として採用するかを判定する。   First, when the first determination method is executed, the determination unit 172 adopts a point where the luminance value is maximum from the distribution of luminance values in the input vicinity area as a correction point, or corrects a point where the luminance value is minimum. Determine whether to adopt as a point.

例えば、決定部172は、入力近傍エリアを構成する画素の輝度値の所定方向におけるプロファイルを生成する。例えば、所定方向が横方向(超音波画像の方位方向)である場合、決定部172は、図6の(A)に示すように、領域54を用いて、9個の横方向の輝度プロファイルを生成する。決定部172は、図6の(A)に示すように、9個の輝度プロファイルそれぞれの形状が下に凸となる谷型である、すなわち、9個の輝度プロファイルそれぞれで低輝度値が低頻度であることから、輝度値が最小となる点を修正点として採用すると判定する。   For example, the determination unit 172 generates a profile in a predetermined direction of the luminance value of the pixels constituting the input vicinity area. For example, when the predetermined direction is the horizontal direction (the azimuth direction of the ultrasonic image), the determination unit 172 uses the region 54 to obtain nine horizontal luminance profiles as illustrated in FIG. Generate. As shown in FIG. 6A, the determination unit 172 has a valley shape in which the shape of each of the nine luminance profiles protrudes downward, that is, the low luminance value is low in each of the nine luminance profiles. Therefore, it is determined that the point having the minimum luminance value is adopted as the correction point.

なお、決定部172は、横方向だけでなく、縦方向(超音波画像の深さ方向)や、斜め方向のプロファイルを生成して、複数所定方向のプロファイルの形状から、上記の判定処理を行なっても良い。   Note that the determination unit 172 generates not only the horizontal direction but also the profile in the vertical direction (depth direction of the ultrasonic image) and the oblique direction, and performs the above-described determination processing from the profile shapes in a plurality of predetermined directions. May be.

そして、決定部172は、図6の(B)に示すように、9個の輝度プロファイルの中で輝度値が最小となる点である画素52を修正点と決定する。すなわち、決定部172は、指定点「画素53」の正解点を、修正点「画素52」として推定する。なお、輝度値が最大となる点を修正点として採用すると判定した場合、決定部172は、輝度値が最大となる画素を修正点と決定する。   Then, as illustrated in FIG. 6B, the determination unit 172 determines the pixel 52 that is the point at which the luminance value is minimum in the nine luminance profiles as the correction point. That is, the determination unit 172 estimates the correct point of the designated point “pixel 53” as the correction point “pixel 52”. If it is determined that the point with the maximum luminance value is adopted as the correction point, the determination unit 172 determines the pixel with the maximum luminance value as the correction point.

制御部170は、操作者が指定した「画素53」を「画素52」に変更してモニタ30に表示する。また、図3に示す計測部173は、修正点の位置と、操作者が指定した計測項目とに基づいて計測を行なう。   The control unit 170 changes “pixel 53” designated by the operator to “pixel 52” and displays it on the monitor 30. 3 performs measurement based on the position of the correction point and the measurement item specified by the operator.

なお、採用を判定する方法は、以下の方法で行なわれても良い。例えば、決定部172は、入力近傍エリアの輝度値のヒストグラムを生成する。そして、決定部172は、高輝度とされる輝度値の閾値と、低輝度とされる輝度値の閾値とから、高輝度画素数と、低輝度画素数とを算出する。そして、決定部172は、高輝度画素数と低輝度画素数との比率又は差分値を算出し、比率又は差分値を予め設定された判定用の閾値と比較する。決定部172は、比較処理の結果、高輝度の画素が高頻度である場合、輝度値が最小となる点を修正点として採用すると判定する。また、決定部172は、比較処理の結果、ヒストグラムにおいて低輝度の画素が高頻度である場合、輝度値が最大となる点を修正点として採用すると判定する。   In addition, the method of determining adoption may be performed by the following method. For example, the determination unit 172 generates a histogram of luminance values in the input neighborhood area. Then, the determination unit 172 calculates the number of high-brightness pixels and the number of low-brightness pixels from the threshold value of the luminance value set to high luminance and the threshold value of the luminance value set to low luminance. Then, the determination unit 172 calculates a ratio or difference value between the number of high luminance pixels and the number of low luminance pixels, and compares the ratio or difference value with a predetermined threshold for determination. As a result of the comparison processing, the determination unit 172 determines that the point having the minimum luminance value is adopted as the correction point when the high-luminance pixels are frequent. Further, as a result of the comparison processing, the determination unit 172 determines that the point having the maximum luminance value is adopted as the correction point when the low-luminance pixels are frequently used in the histogram.

例えば、決定部172は、領域54の輝度値のヒストグラムから、高輝度画素(図5に示す領域54の白い画素)の画素数「68」が、低輝度画素(図5に示す領域54の白い画素以外の画素)の画素数「13」より多く、差分値「55」が判定用閾値「50」より大きいことから、輝度値が最小となる点を修正点として採用すると判定する。   For example, the determination unit 172 determines that the number of pixels “68” of the high luminance pixels (white pixels in the region 54 illustrated in FIG. 5) is the low luminance pixels (white in the region 54 illustrated in FIG. 5) from the luminance value histogram of the region 54. Since the number of pixels other than pixels) is greater than “13” and the difference value “55” is greater than the determination threshold value “50”, it is determined that the point having the minimum luminance value is adopted as the correction point.

なお、輝度値が極値となる点が複数であり、複数の修正点の候補点がある場合、決定部172は、例えば、入力近傍エリアの中心である指定点に最も近い点を修正点として決定する。或いは、決定部172は、例えば、操作者が指定した計測モードの情報を用いて、複数の候補点から修正点を決定しても良い。すなわち、入力装置20は、超音波画像の計測項目の指定を受け付ける。そして、取得部171は、指定点の位置を取得し、決定部172は、計測項目に基づいて定まる所定の修正モードに応じて、指定点の位置を修正し、修正した位置の点を修正点として決定する。例えば、操作者が指定した計測項目が距離計測であり、2つの指定点が取得されているとする。決定部172は、第1の決定方法により、複数の候補点を決定する。そして、決定部172は、第1の決定方法の修正モードであって、第1の決定方法における距離計測モード指定時の修正モードに応じて、2つの指定点を結ぶ線分の方向を取得し、取得した方向において、指定点に最も近い候補点を修正点として決定する。   When there are a plurality of points where the luminance value is an extreme value and there are a plurality of candidate points for correction points, the determination unit 172 uses, for example, the point closest to the specified point that is the center of the input vicinity area as the correction point. decide. Or the determination part 172 may determine a correction point from several candidate points using the information of the measurement mode which the operator designated, for example. That is, the input device 20 accepts designation of measurement items for ultrasonic images. Then, the acquisition unit 171 acquires the position of the specified point, and the determination unit 172 corrects the position of the specified point according to a predetermined correction mode determined based on the measurement item, and the corrected position point is corrected. Determine as. For example, it is assumed that the measurement item designated by the operator is distance measurement and two designated points are acquired. The determination unit 172 determines a plurality of candidate points by the first determination method. Then, the determination unit 172 acquires the direction of the line segment connecting the two specified points according to the correction mode when the distance measurement mode is specified in the first determination method in the correction mode of the first determination method. The candidate point closest to the specified point in the acquired direction is determined as the correction point.

次に、第2の決定方法について説明する。決定部172は、第2の決定方法として、入力近傍エリアを構成する画素の輝度値の空間微分に基づいて、修正点を決定する。すなわち、決定部172は、情報記憶部183に記憶される複数の修正モードの少なくとも1つである「入力近傍エリアを構成する画素の輝度値の空間微分に基づいて、修正点を決定する修正モード」を選択する。第2の決定方法は、輝度値が変化する境界部分が指定される場合に有用な方法である。図7は、第1の実施形態に係る決定部が実行する第2の決定方法を説明するための図である。   Next, the second determination method will be described. As a second determination method, the determination unit 172 determines a correction point based on the spatial differentiation of the luminance values of the pixels constituting the input vicinity area. That is, the determination unit 172 is at least one of a plurality of correction modes stored in the information storage unit 183. “A correction mode in which a correction point is determined based on a spatial differentiation of luminance values of pixels constituting an input neighborhood area. ”Is selected. The second determination method is useful when a boundary portion where the luminance value changes is designated. FIG. 7 is a diagram for explaining a second determination method executed by the determination unit according to the first embodiment.

まず、第2の決定方法を実行する場合でも、決定部172は、入力近傍エリアを設定する。例えば、図7の(A)に示すように、取得部171から指定点である画素55の位置が出力されたとする。かかる場合、決定部172は、図7の(A)に示すように、指定点である画素55の位置から、入力近傍エリアとして領域56を設定する。領域56は、図7の(A)に示すように、異なる輝度値を有する2つの領域により境界が形成されている。   First, even when the second determination method is executed, the determination unit 172 sets an input vicinity area. For example, it is assumed that the position of the pixel 55 that is the designated point is output from the acquisition unit 171 as illustrated in FIG. In such a case, as shown in FIG. 7A, the determination unit 172 sets a region 56 as an input neighborhood area from the position of the pixel 55 that is the designated point. As shown in FIG. 7A, the region 56 has a boundary formed by two regions having different luminance values.

決定部172は、領域56に対して空間微分を演算する。そして、決定部172は、例えば、図7の(B)に示すように、空間微分値(の絶対値)を画素値とする画像を生成する。図7の(B)に示す画像には、白い線で境界部分が描出される。   The determination unit 172 calculates a spatial differential for the region 56. Then, for example, as illustrated in FIG. 7B, the determination unit 172 generates an image having a spatial differential value (absolute value thereof) as a pixel value. In the image shown in FIG. 7B, the boundary portion is drawn with a white line.

決定部172は、例えば、図7の(C)に示すように、指定点である画素55に近接する境界部分が左側に凸の形状であることから、指定点である画素55の左側に位置して境界部分を形成する画素を探索する。これにより、決定部172は、図7の(C)に示すように、横方向の位置が同じであり、縦方向の位置が異なる4つの画素A〜Dを、修正点の候補点とする。   For example, as illustrated in FIG. 7C, the determination unit 172 has a convex shape on the left side that is close to the pixel 55 that is the designated point, and thus is positioned on the left side of the pixel 55 that is the designated point. Thus, the pixels forming the boundary portion are searched. Accordingly, as illustrated in FIG. 7C, the determination unit 172 sets four pixels A to D having the same horizontal position and different vertical positions as correction point candidate points.

ここで、決定部172は、指定点である画素55に最も近い画素Cを修正点として決定する。或いは、決定部172は、上述したように、操作者が指定した計測項目の情報を用いて、複数の候補点から修正点を決定しても良い。すなわち、入力装置20は、超音波画像の計測項目の指定を受け付ける。そして、取得部171は、指定点の位置を取得し、決定部172は、計測項目に基づいて定まる所定の修正モードに応じて、指定点の位置を修正し、修正した位置の点を修正点として決定する。例えば、操作者が指定した計測モードが距離計測であり、2つの指定点が取得されているとする。決定部172は、第2の決定方法により、複数の候補点を決定する。そして、例えば、決定部172は、第2の決定方法の修正モードであって、第2の決定方法における距離計測モード指定時の修正モードに応じて、距離計測で指定された2つの指定点を結ぶ線分の方向において、指定点である画素55に最も近い画素Bを修正点として決定する。制御部170は、操作者が指定した「画素55」を「画素B」に変更してモニタ30に表示する。また、図3に示す計測部173は、修正点の位置と、操作者が指定した計測項目とに基づいて計測を行なう。   Here, the determination unit 172 determines the pixel C closest to the pixel 55 that is the designated point as a correction point. Alternatively, as described above, the determination unit 172 may determine correction points from a plurality of candidate points using information on measurement items specified by the operator. That is, the input device 20 accepts designation of measurement items for ultrasonic images. Then, the acquisition unit 171 acquires the position of the specified point, and the determination unit 172 corrects the position of the specified point according to a predetermined correction mode determined based on the measurement item, and the corrected position point is corrected. Determine as. For example, it is assumed that the measurement mode designated by the operator is distance measurement and two designated points are acquired. The determination unit 172 determines a plurality of candidate points by the second determination method. For example, the determination unit 172 is a correction mode of the second determination method, and determines two specified points specified in the distance measurement according to the correction mode when the distance measurement mode is specified in the second determination method. In the direction of the connecting line segment, the pixel B closest to the pixel 55 as the designated point is determined as a correction point. The control unit 170 changes “pixel 55” designated by the operator to “pixel B” and displays it on the monitor 30. 3 performs measurement based on the position of the correction point and the measurement item specified by the operator.

このように、第1の実施形態に係る制御部170は、操作者が大まかに点を指定するだけで、指定した位置を自動的に修正する。なお、上記では、操作者により点が指定される場合について説明したが、第1の実施形態は、例えば、操作者により面積計測のための曲線が描画された場合であっても適用可能である。図8及び図9は、第1の実施形態の変形例を説明するための図である。   As described above, the control unit 170 according to the first embodiment automatically corrects the designated position only when the operator designates a point roughly. In the above description, the case where a point is designated by the operator has been described. However, the first embodiment is applicable even when, for example, a curve for area measurement is drawn by the operator. . 8 and 9 are diagrams for explaining a modification of the first embodiment.

例えば、操作者は、図8の左図に示すように、瓢箪形の腫瘍部位において、小さい楕円形の部位の面積計測を行なうために、モニタ30のスクリーンの表面において、楕円形の曲線57を指で適当に描画する。かかる場合、取得部171は、操作者が指定した曲線57を、複数の指定点の集合とし、かかる複数の指定点の位置を取得する。決定部172は、複数の指定点それぞれを中心とする入力近傍エリアを設定することで、図8の中図に示すように、入力近傍エリアの集合である領域58を設定する。   For example, as shown in the left diagram of FIG. 8, the operator sets an elliptical curve 57 on the surface of the screen of the monitor 30 in order to measure the area of a small elliptical part in the saddle-shaped tumor part. Draw appropriately with your finger. In such a case, the acquisition unit 171 uses the curve 57 specified by the operator as a set of a plurality of specified points, and acquires the positions of the plurality of specified points. The determination unit 172 sets an input neighborhood area centered on each of a plurality of designated points, thereby setting a region 58 that is a set of input neighborhood areas as shown in the middle diagram of FIG.

そして、決定部172は、領域58において、第1の決定方法や第2の決定方法を実行することで、図8の右図に示すように、修正点の集合である修正曲線59を決定する。なお、領域58では、一部境界が存在しない箇所がある。このため、実線で示す修正曲線59は、図8の右図に示すように、端点を有する開曲線となる。一方、操作者が指定した曲線57は、図8の左図に示すように、閉曲線である。   Then, the determination unit 172 executes the first determination method and the second determination method in the region 58 to determine a correction curve 59 that is a set of correction points as shown in the right diagram of FIG. . In the region 58, there is a part where no boundary exists. Therefore, the correction curve 59 indicated by a solid line is an open curve having end points as shown in the right diagram of FIG. On the other hand, the curve 57 designated by the operator is a closed curve as shown in the left diagram of FIG.

そこで、決定部172は、修正曲線59の2つの端点を滑らかに結ぶ補間曲線591を形成する修正点の集合を決定する。そして、決定部172は、修正曲線59及び補間曲線591を最終的に出力し、制御部170は、修正曲線59及び補間曲線591をモニタ30に表示させる。   Therefore, the determination unit 172 determines a set of correction points that form an interpolation curve 591 that smoothly connects the two end points of the correction curve 59. Then, the determination unit 172 finally outputs the correction curve 59 and the interpolation curve 591, and the control unit 170 causes the monitor 30 to display the correction curve 59 and the interpolation curve 591.

また、第1の実施形態は、取得部171が以下の補間処理を行なう場合であっても良い。図9に示す一例では、操作者は、閉じた境界部分に対して、大まかに指で太い開曲線571を描画している。かかる場合、取得部171は、開曲線571を形成する複数の指定点の位置を取得するとともに、開曲線571の2つの端点に対応する2つの指定点を結ぶ補間曲線を形成する指定点を設定する。そして、取得部171は、閉曲線となる複数の指定点の位置を決定部172に出力する。決定部172は、閉曲線となる複数の指定点の位置から入力近傍エリアを設定する。そして、決定部172は、図9に示すように、修正点の集合である修正曲線592を決定する。図8や図9を用いて説明した決定方法を行なうための修正モードも、情報記憶部183に記憶されている。   Further, the first embodiment may be a case where the acquisition unit 171 performs the following interpolation processing. In the example shown in FIG. 9, the operator draws a thick open curve 571 roughly with a finger on the closed boundary portion. In such a case, the acquisition unit 171 acquires the positions of a plurality of designated points that form the open curve 571, and sets designated points that form an interpolation curve that connects two designated points corresponding to the two end points of the open curve 571. To do. Then, the acquisition unit 171 outputs the positions of a plurality of designated points that form a closed curve to the determination unit 172. The determination unit 172 sets an input neighborhood area from the positions of a plurality of designated points that are closed curves. Then, the determination unit 172 determines a correction curve 592 that is a set of correction points, as shown in FIG. The correction mode for performing the determination method described with reference to FIGS. 8 and 9 is also stored in the information storage unit 183.

次に、図10を用いて、第1の実施形態に係る超音波診断装置1による処理の手順について説明する。図10は、第1の実施形態に係る超音波診断装置による処理手順を示すフローチャートである。なお、図10では、超音波画像がモニタ30に表示された後の処理について説明する。   Next, a procedure of processing performed by the ultrasonic diagnostic apparatus 1 according to the first embodiment will be described with reference to FIG. FIG. 10 is a flowchart illustrating a processing procedure performed by the ultrasonic diagnostic apparatus according to the first embodiment. In FIG. 10, processing after the ultrasonic image is displayed on the monitor 30 will be described.

図10に示すように、超音波診断装置1の制御部170は、操作者から指定点の入力を受け付けたか否かを判定する(ステップS101)。ここで、指定点の入力を受け付けない場合(ステップS101否定)、制御部170は、指定点の入力を受け付けるまで待機する。   As illustrated in FIG. 10, the control unit 170 of the ultrasonic diagnostic apparatus 1 determines whether or not an input of a designated point has been received from the operator (step S <b> 101). Here, when the input of the designated point is not accepted (No at Step S101), the control unit 170 waits until the designated point is accepted.

一方、指定点の入力を受け付けた場合(ステップS101肯定)、取得部171は、指定点の位置を取得する(ステップS102)。そして、決定部172は、指定点の位置から入力近傍エリアを設定する(ステップS103)。   On the other hand, when the input of the designated point is received (Yes at Step S101), the acquisition unit 171 obtains the position of the designated point (Step S102). And the determination part 172 sets an input vicinity area from the position of a designated point (step S103).

そして、決定部172は、入力近傍エリアの画像情報に基づいて、指定点の位置を修正し、修正点を決定する(ステップS104)。そして、モニタ30は、修正点を表示し(ステップS105)、処理を終了する。なお、図示しないが、ステップS104の後、計測部173の計測処理が行なわれる。なお、モニタ30は、制御部170の制御により、指定点と修正点との位置が異なる場合、指定点及び修正点を、例えば、色を変えたうえで、同時に表示する場合であっても良い。   Then, the determination unit 172 corrects the position of the designated point based on the image information in the input vicinity area, and determines the correction point (step S104). And the monitor 30 displays a correction point (step S105), and complete | finishes a process. Although not shown, measurement processing of the measurement unit 173 is performed after step S104. Note that the monitor 30 may be configured to display the designated point and the correction point at the same time after changing the color, for example, when the positions of the designated point and the correction point are different under the control of the control unit 170. .

上述したように、第1の実施形態では、操作者が指定した点が複数点から構成される領域であっても、当該領域で代表的な1点を指定点とし、指定点の位置を取得する。そして、第1の実施形態では、取得した指定点の位置から、超音波画像上に、指定点を含む入力近傍エリアを設定する。そして、第1の実施形態では、入力近傍エリアに限定して、輝度値や微分値の分布を用いたエッジ処理を行なうことで修正点を決定する。   As described above, in the first embodiment, even if the point designated by the operator is an area composed of a plurality of points, a representative point is designated as the designated point in the area, and the position of the designated point is acquired. To do. In the first embodiment, an input vicinity area including the designated point is set on the ultrasonic image from the position of the obtained designated point. In the first embodiment, the correction point is determined by performing edge processing using the distribution of luminance values and differential values only in the input vicinity area.

すなわち、第1の実施形態では、正解点近傍に位置することが推定される指定点を中心とする入力近傍エリアで局所的なエッジ処理を行なうことで、処理に要する負荷を軽減して正解点を推定した修正点の決定を精度よく行なうことができる。   In other words, in the first embodiment, by performing local edge processing in an input vicinity area centering on a designated point that is estimated to be located in the vicinity of the correct answer point, the load required for the processing is reduced and the correct answer point is reduced. It is possible to accurately determine a correction point that estimates.

このように、第1の実施形態では、指定点の指定が操作者のタッチパネルへの指入力により行なわれる場合のように、点や曲線を大まかに指定するという適当な操作者の入力操作のみで、自動的に指定点や指定点の集合である指定曲線が精度よく修正されるので、超音波画像に対する入力操作を容易にすることができる。   As described above, in the first embodiment, only when the designated point is specified by roughly inputting a point or a curve, as in the case where the designated point is designated by finger input on the touch panel of the operator. Since the designated point and the designated curve which is a set of designated points are automatically corrected with high accuracy, the input operation for the ultrasonic image can be facilitated.

(第2の実施形態)
第2の実施形態では、決定部172が、操作者が指定点を入力した目的に応じて、修正点の決定に用いる方法、すなわち、修正モードを変更する場合について説明する。
(Second Embodiment)
In the second embodiment, a method will be described in which the determination unit 172 changes a correction mode, that is, a method used for determining a correction point in accordance with the purpose for which the operator inputs a designated point.

第2の実施形態に係る超音波診断装置2について説明する。第2の実施形態に係る超音波診断装置2の構成は、図1に例示した超音波診断装置1の構成と略同一であるので、図示することを省略する。ただし、第2の実施形態に係る制御部170の構成は、図2に示す第1の実施形態に係る制御部170と異なる。図11は、第2の実施形態に係る制御部の構成例を示す図である。   An ultrasonic diagnostic apparatus 2 according to the second embodiment will be described. Since the configuration of the ultrasonic diagnostic apparatus 2 according to the second embodiment is substantially the same as the configuration of the ultrasonic diagnostic apparatus 1 illustrated in FIG. 1, illustration thereof is omitted. However, the configuration of the control unit 170 according to the second embodiment is different from the control unit 170 according to the first embodiment shown in FIG. FIG. 11 is a diagram illustrating a configuration example of a control unit according to the second embodiment.

第2の実施形態に係る制御部170は、図11に示すように、取得部171及び決定部172に加え、推定部174を有する。なお、第2の実施形態に係る取得部171は、第1の実施形態と同様に、指定点の位置を取得する。   As illustrated in FIG. 11, the control unit 170 according to the second embodiment includes an estimation unit 174 in addition to the acquisition unit 171 and the determination unit 172. Note that the acquisition unit 171 according to the second embodiment acquires the position of the designated point, as in the first embodiment.

図11に示す推定部174は、指定点が入力される前に入力された超音波画像に関する事前情報に基づいて、操作者が指定点を入力した目的を推定する。すなわち、推定部174は、指定点を入力するためにモニタ30に表示されている超音波画像に関する事前情報を情報記憶部183から取得して、指定点の入力目的を推定する。   The estimation unit 174 shown in FIG. 11 estimates the purpose for which the operator has input the designated point based on the prior information regarding the ultrasound image input before the designated point is input. That is, the estimation unit 174 obtains prior information regarding the ultrasonic image displayed on the monitor 30 in order to input the designated point from the information storage unit 183, and estimates the input purpose of the designated point.

すなわち、第2の実施形態では、推定部174が、操作者から直接的に入力目的を示す情報である「直接情報」でない「事前情報」を用いて、入力目的を推定し、決定部172が、推定された入力目的から修正点の決定アルゴリズムを変更する。   That is, in the second embodiment, the estimation unit 174 estimates the input purpose using “prior information” which is not “direct information” which is information directly indicating the input purpose from the operator, and the determination unit 172 Then, the correction point determination algorithm is changed from the estimated input purpose.

以下、「事前情報」について説明する。上記の「直接情報」は、計測の具体的な項目の宣言等のことである。例えば、操作者が「ドプラ自動トレース」ボタンを押下した場合、入力目的は、「ドプラ波形の輪郭をトレースすること」である。また、例えば、操作者が「卵胞面積計測」ボタンを押下した場合、入力目的は、「卵胞の境界を自動認識して面積を算出すること」である。これら各種の目的に特化した自動化のアルゴリズムに関しては各々研究成果が報告されており、実用化されているアルゴリズムもある。   Hereinafter, the “preliminary information” will be described. The above "direct information" is a declaration of specific items of measurement. For example, when the operator presses a “Doppler automatic trace” button, the input purpose is “to trace the contour of the Doppler waveform”. For example, when the operator presses the “measure follicle area” button, the input purpose is “automatically recognize the follicular boundary to calculate the area”. Research results have been reported for automation algorithms specialized for these various purposes, and some algorithms have been put into practical use.

一方、本実施形態で用いられる「事前情報」は、臨床検査の情報として超音波診断装置2に事前に入力される情報であり、例えば、図12に示す情報である。図12は、第2の実施形態で用いられる事前情報の一例を示す図である。例えば、「事前情報」の項目は、図12に示すように、被検体Pが受診する「診断領域、疾患領域」である。「診断領域、疾患領域」に入力される具体的な情報としては、例えば、図12に示すように、「乳がん検診」や「肝腫瘍精査」等が挙げられる。   On the other hand, the “preliminary information” used in the present embodiment is information input in advance to the ultrasonic diagnostic apparatus 2 as clinical examination information, for example, information illustrated in FIG. FIG. 12 is a diagram illustrating an example of prior information used in the second embodiment. For example, as shown in FIG. 12, the item “prior information” is “diagnosis region, disease region” where the subject P consults. Specific information input to “diagnosis area, disease area” includes, for example, “breast cancer screening”, “hepatic tumor screening”, and the like, as shown in FIG.

また、例えば、「事前情報」の項目は、図12に示すように、超音波診断装置2が設置されている「設置環境」である。「設置環境」に入力される具体的な情報としては、例えば、図12に示すように、「血管系診断専用装置」や「乳がん検診専用装置」等が挙げられる。また、例えば、「事前情報」の項目は、図12に示すように、操作者が撮影時に超音波画像のアノテーションとして初期設定したデータである「プリセット」である。「プリセット」に入力される具体的な情報としては、例えば、図12に示すように、「心臓」や「肝臓」、「甲状腺」等が挙げられる。   Further, for example, the item “prior information” is “installation environment” in which the ultrasonic diagnostic apparatus 2 is installed as shown in FIG. Specific information input to the “installation environment” includes, for example, “dedicated apparatus for vascular system diagnosis” and “dedicated apparatus for breast cancer screening” as shown in FIG. Further, for example, as shown in FIG. 12, the item “prior information” is “preset” which is data initially set by the operator as an annotation of an ultrasonic image at the time of photographing. Specific information input to “preset” includes, for example, “heart”, “liver”, “thyroid”, etc., as shown in FIG.

また、例えば、「事前情報」の項目は、図12に示すように、撮影に使用される超音波プローブ10の種類の情報である「プローブ種類」である。「プローブ種類」に入力される具体的な情報としては、例えば、図12に示すように、「腹部用3MHzプローブ」や「乳腺用12MHzプローブ」等が挙げられる。   Further, for example, the item “prior information” is “probe type” which is information on the type of the ultrasonic probe 10 used for imaging as shown in FIG. Specific information input to “probe type” includes, for example, “3 MHz probe for abdomen” and “12 MHz probe for mammary gland” as shown in FIG.

推定部174は、図12に例示した事前情報から、入力目的を推定する。例えば、「設置環境」が「血管系診断専用装置」である場合、推定部174は、血管に関する計測を行なうために、操作者が指定点を入力すると事前に推定する。或いは、例えば、「プローブ種類」が「乳腺用12MHzプローブ」である場合、推定部174は、乳腺に関する計測を行なうために、操作者が指定点を入力すると事前に推定する。或いは、例えば、「プリセット」が「肝臓」である場合、推定部174は、肝臓に関する計測を行なうために、操作者が指定点を入力すると事前に推定する。なお、本実施形態は、「事前情報」とともに、計測前に操作者が入力装置20を用いて入力する「計測項目」である「距離計測」や「面積計測」を用いて、入力目的を推定する場合であっても良い。すなわち、本実施形態は、「計測項目」を「事前情報」として用いる場合であっても良い。   The estimation unit 174 estimates the input purpose from the prior information illustrated in FIG. For example, when the “installation environment” is “a device dedicated to vascular system diagnosis”, the estimation unit 174 estimates in advance that the operator inputs a designated point in order to perform measurement related to the blood vessel. Alternatively, for example, when the “probe type” is “12 MHz probe for mammary gland”, the estimation unit 174 presumes that the operator inputs a designated point in order to perform measurement related to the mammary gland. Alternatively, for example, when “preset” is “liver”, the estimation unit 174 estimates in advance that an operator inputs a designated point in order to perform measurement related to the liver. In this embodiment, the input purpose is estimated by using “distance measurement” and “area measurement” which are “measurement items” input by the operator using the input device 20 before measurement together with “preliminary information”. It may be the case. That is, this embodiment may be a case where “measurement item” is used as “preliminary information”.

そして、決定部172は、推定された入力目的に応じた修正点の決定アルゴリズムである修正モードを選択する。図13及び図14は、第2の実施形態に係る推定部及び決定部の処理の一例を示す図である。   Then, the determination unit 172 selects a correction mode that is an algorithm for determining a correction point according to the estimated input purpose. 13 and 14 are diagrams illustrating an example of processing of the estimation unit and the determination unit according to the second embodiment.

例えば、図13の(A)に示すように、管腔の壁に領域60及び領域61が操作者の指により指定されたとする。取得部171は、例えば、領域60の重心の位置を指定点の位置として取得し、領域61の重心の位置を指定点の位置として取得する。   For example, as shown in FIG. 13A, it is assumed that the region 60 and the region 61 are designated by the operator's finger on the wall of the lumen. For example, the acquisition unit 171 acquires the position of the center of gravity of the area 60 as the position of the designated point, and acquires the position of the center of gravity of the area 61 as the position of the designated point.

図13の(B)は、2つの指定点を結ぶ線における管腔の輝度値のプロファイルを示す。図13の(B)に示すプロファイルにおいて、点62を頂点とする山及び点63を頂点とする山それぞれは、管腔の壁に相当し、点62を頂点とする山と点63を頂点とする山とで挟まれる部分が管腔内に相当する。すなわち、図13の(B)に示す点64と点65とで挟まれる部分が管腔内に相当する。ここで、点64は、点62を頂点とする山の裾野に位置する点であり、点65は、点63を頂点とする山の裾野に位置する点となる。   FIG. 13B shows a profile of the luminance value of the lumen in a line connecting two specified points. In the profile shown in FIG. 13B, each of the peak having the point 62 as a vertex and the peak having the point 63 as a vertex corresponds to the wall of the lumen, and the peak having the point 62 as a vertex and the point 63 as the vertex. The portion sandwiched between the ridges corresponds to the lumen. That is, the portion sandwiched between the points 64 and 65 shown in FIG. 13B corresponds to the inside of the lumen. Here, the point 64 is a point located at the foot of the mountain having the point 62 as a vertex, and the point 65 is a point located at the foot of the mountain having the point 63 as a vertex.

ここで、管腔である血管の距離計測が行なわれる場合、通常、IMT(Intima Media Thickness)の計測が行なわれる。かかる場合、領域60の正解点は、点64であり、領域61の正解点は、点65である。一方、一般的に、乳管や肝管等の管腔で距離計測が行なわれる場合、領域60の正解点は、点62であり、領域61の正解点は、点63である。   Here, when measuring the distance of a blood vessel that is a lumen, IMT (Intima Media Thickness) is usually measured. In such a case, the correct answer point of the region 60 is the point 64, and the correct answer point of the region 61 is the point 65. On the other hand, generally, when distance measurement is performed in a lumen such as a breast duct or a hepatic duct, the correct point of the region 60 is the point 62 and the correct point of the region 61 is the point 63.

しかし、領域60には、点62及び点64双方が含まれる場合があり、また、領域61には、点63及び点65双方が含まれる場合がある。そこで、決定部172は、入力近傍エリアを構成する画素の輝度値の所定方向(例えば、2つの指定点を結ぶ線分の方向)におけるプロファイルにおいて、輝度値が極値となる点を修正点として用いるか、輝度値が極値となる点の近傍にて輝度値が略一定となる点を修正点として用いるかを、入力目的に応じて選択する。以下では、前者の決定アルゴリズムを、第1アルゴリズムとし、後者の決定アルゴリズムを、第2アルゴリズムと記載する。輝度値の分布を用いる第1アルゴリズム及び第2アルゴリズムは、第1の実施形態で説明した第1の決定方法のアルゴリズムを、入力目的に応じて変更したアルゴリズムとなる。すなわち、第1アルゴリズム及び第2アルゴリズムそれぞれは、情報記憶部183が記憶する複数の修正モードの内の1つであり、決定部172は、入力目的に応じた修正モードとして、第1アルゴリズム又は第2アルゴリズムを選択する。   However, the region 60 may include both the points 62 and 64, and the region 61 may include both the points 63 and 65. Therefore, the determination unit 172 uses, as a correction point, a point at which the luminance value is an extreme value in a profile in a predetermined direction (for example, the direction of a line segment connecting two specified points) of the luminance value of the pixels constituting the input vicinity area. It is selected according to the input purpose whether to use or a point where the luminance value is substantially constant in the vicinity of the point where the luminance value is an extreme value. Hereinafter, the former determination algorithm is referred to as a first algorithm, and the latter determination algorithm is referred to as a second algorithm. The first algorithm and the second algorithm using the luminance value distribution are algorithms obtained by changing the algorithm of the first determination method described in the first embodiment in accordance with the input purpose. That is, each of the first algorithm and the second algorithm is one of a plurality of correction modes stored in the information storage unit 183, and the determination unit 172 sets the first algorithm or the second algorithm as the correction mode according to the input purpose. 2 Select an algorithm.

仮に、推定部174の推定結果が「乳腺に関する計測」である場合、決定部172は、距離計測が行なわれる場合の決定アルゴリズムを第1アルゴリズムとする。そして、決定部172は、2つの指定点の位置が出力された場合、或いは、「距離計測」ボタンが押下された場合、図14の(A)に示すように、領域60の指定点を含む入力近傍エリアの輝度プロファイルから修正点を点62と決定し、領域61の指定点を含む入力近傍エリアの輝度プロファイルから修正点を点63と決定する。   If the estimation result of the estimation unit 174 is “measurement relating to the mammary gland”, the determination unit 172 sets the determination algorithm when distance measurement is performed as the first algorithm. Then, when the positions of the two designated points are output or when the “distance measurement” button is pressed, the determination unit 172 includes the designated points of the region 60 as illustrated in FIG. The correction point is determined as a point 62 from the luminance profile of the input vicinity area, and the correction point is determined as a point 63 from the luminance profile of the input vicinity area including the designated point of the region 61.

一方、推定部174の推定結果が「血管に関する計測」である場合、決定部172は、距離計測が行なわれる場合の決定アルゴリズムを第2アルゴリズムとする。そして、決定部172は、2つの指定点の位置が出力された場合、或いは、「距離計測」ボタンが押下された場合、図14の(B)に示すように、領域60の指定点を含む入力近傍エリアの輝度プロファイルから修正点を点64と決定し、領域61の指定点を含む入力近傍エリアの輝度プロファイルから修正点を点65と決定する。   On the other hand, when the estimation result of the estimation unit 174 is “measurement related to blood vessels”, the determination unit 172 sets the determination algorithm when distance measurement is performed as the second algorithm. Then, when the positions of the two designated points are output, or when the “distance measurement” button is pressed, the determination unit 172 includes the designated points of the region 60 as shown in FIG. The correction point is determined as a point 64 from the luminance profile of the input vicinity area, and the correction point is determined as a point 65 from the luminance profile of the input vicinity area including the designated point of the region 61.

なお、決定部172は、第1の実施形態で説明した第2の決定方法のアルゴリズムを、入力目的に応じて変更したアルゴリズムを用いる場合であっても良い。図13の(C)は、2つの指定点を結ぶ線における管腔の輝度値の微分値のプロファイルを示す。図13の(C)に示すプロファイルにおいても、点62を頂点とする山及び点63を頂点とする山それぞれは、管腔の壁に相当し、点64と点65とで挟まれる部分が管腔内に相当する。ここで、点62及び点63は、図13の(C)に示すように、入力近傍エリアを構成する画素の輝度値の微分値の所定方向における微分値プロファイルにおいて、微分値が極値となる点である。また、点64及び点65は、図13の(C)に示すように、入力近傍エリアを構成する画素の輝度値の微分値の所定方向における微分値プロファイルにおいて、微分値が極値となる点の近傍にて微分値が略一定となる点である。   The determination unit 172 may be a case where an algorithm obtained by changing the algorithm of the second determination method described in the first embodiment according to the input purpose is used. FIG. 13C shows a profile of the differential value of the luminance value of the lumen along the line connecting the two designated points. Also in the profile shown in FIG. 13C, each of the peak having the point 62 as the apex and the peak having the point 63 as the apex corresponds to the wall of the lumen, and the portion sandwiched between the points 64 and 65 is the tube. Corresponds to the cavity. Here, as shown in FIG. 13C, the point 62 and the point 63 are extreme values in the differential value profile in the predetermined direction of the differential value of the luminance value of the pixels constituting the input vicinity area. Is a point. Further, as shown in FIG. 13C, the points 64 and 65 are points where the differential values are extreme values in the differential value profile in the predetermined direction of the differential values of the luminance values of the pixels constituting the input vicinity area. The differential value is substantially constant in the vicinity of.

そこで、決定部172は、微分値プロファイルにおいて、微分値が極値となる点を修正点として用いるか、微分値が極値となる極値となる点の近傍にて微分値が略一定となる点を修正点として用いるかを、目的に応じて選択する。前者を第3アルゴリズム、後者を第4アルゴリズムとすると、推定部174の推定結果が「乳腺に関する計測」である場合、決定部172は、第3アルゴリズムを選択する。また、推定部174の推定結果が「血管に関する計測」である場合、決定部172は、第4アルゴリズムを選択する。すなわち、第3アルゴリズム及び第4アルゴリズムそれぞれは、情報記憶部183が記憶する複数の修正モードの内の1つであり、決定部172は、入力目的に応じた修正モードとして、第3アルゴリズム又は第4アルゴリズムを選択する。   Therefore, the determination unit 172 uses, as a correction point, a point where the differential value becomes an extreme value in the differential value profile, or the differential value becomes substantially constant in the vicinity of the point where the differential value becomes the extreme value. Whether to use a point as a correction point is selected according to the purpose. When the former is the third algorithm and the latter is the fourth algorithm, when the estimation result of the estimation unit 174 is “measurement relating to the mammary gland”, the determination unit 172 selects the third algorithm. When the estimation result of the estimation unit 174 is “measurement related to blood vessels”, the determination unit 172 selects the fourth algorithm. That is, each of the third algorithm and the fourth algorithm is one of a plurality of correction modes stored in the information storage unit 183, and the determination unit 172 sets the third algorithm or the second algorithm as the correction mode according to the input purpose. Select 4 algorithms.

なお、決定部172の決定アルゴリズム選択処理は、面積計測においても実行される。例えば、「プリセット」が「心臓」である場合、推定部174は、心臓に関する計測を行なうために、操作者が指定点を入力すると事前に推定する。そして、操作者が、超音波画像に描出された左心室を大まかに指でなぞったうえで、「駆出率計測」ボタンを押下した場合、決定部172は、心筋外膜や、心壁でなく、心筋内膜に相当する点である修正点の集合を修正曲線として決定する。或いは、操作者が、超音波画像に描出された左心室を大まかに指でなぞったうえで、「心筋容積計測」ボタンを押下した場合、心筋外膜に相当する修正点の集合である修正曲線と、心筋内膜に相当する修正点の集合である修正曲線とを決定する。かかる修正モードも、情報記憶部183に記憶されている。   Note that the determination algorithm selection processing of the determination unit 172 is also executed in area measurement. For example, when “preset” is “heart”, the estimation unit 174 estimates in advance that the operator inputs a designated point in order to perform measurement related to the heart. Then, when the operator roughly traces the left ventricle depicted in the ultrasound image with a finger and presses the “measure ejection rate” button, the determination unit 172 determines the outer myocardium or the heart wall. Instead, a set of correction points that are points corresponding to the myocardium is determined as a correction curve. Alternatively, if the operator roughly traces the left ventricle depicted in the ultrasound image with a finger and then presses the “measure myocardial volume” button, a correction curve that is a set of correction points corresponding to the epicardium And a correction curve that is a set of correction points corresponding to the myocardium. Such a correction mode is also stored in the information storage unit 183.

次に、図15を用いて、第2の実施形態に係る超音波診断装置1による処理の手順について説明する。図15は、第2の実施形態に係る超音波診断装置による処理手順を示すフローチャートである。   Next, a procedure of processing performed by the ultrasonic diagnostic apparatus 1 according to the second embodiment will be described with reference to FIG. FIG. 15 is a flowchart illustrating a processing procedure performed by the ultrasonic diagnostic apparatus according to the second embodiment.

図15に示すように、超音波診断装置1の制御部170は、事前情報が入力されたか否かを判定する(ステップS201)。ここで、事前情報が入力されない場合(ステップS201否定)、制御部170は、事前情報が入力されるまで待機する。   As illustrated in FIG. 15, the control unit 170 of the ultrasonic diagnostic apparatus 1 determines whether or not prior information has been input (step S <b> 201). Here, when prior information is not input (No at Step S201), the control unit 170 waits until prior information is input.

一方、事前情報が入力された場合(ステップS201肯定)、推定部174は、事前情報から目的(入力目的)を推定する(ステップS202)。そして、制御部170は、超音波画像が表示されて、計測開始指示が入力されたか否かを判定する(ステップS203)。ここで、計測開始指示が入力されない場合(ステップS203否定)、制御部170は、計測開始指示が入力されるまで待機する。   On the other hand, when prior information is input (Yes at Step S201), the estimation unit 174 estimates a purpose (input purpose) from the prior information (Step S202). And the control part 170 determines whether the ultrasonic image was displayed and the measurement start instruction | indication was input (step S203). Here, when a measurement start instruction is not input (No at Step S203), the control unit 170 stands by until a measurement start instruction is input.

一方、計測開始指示が入力された場合(ステップS203肯定)、決定部172は、入力目的に応じた決定アルゴリズムを選択し(ステップS204)、取得部171は、操作者から指定点の入力を受け付けたか否かを判定する(ステップS205)。ここで、指定点の入力を受け付けない場合(ステップS205否定)、制御部170は、指定点の入力を受け付けるまで待機する。   On the other hand, when a measurement start instruction is input (Yes at Step S203), the determination unit 172 selects a determination algorithm according to the input purpose (Step S204), and the acquisition unit 171 receives an input of a specified point from the operator. It is determined whether or not (step S205). Here, when the input of the designated point is not accepted (No at Step S205), the control unit 170 waits until the designated point is accepted.

一方、指定点の入力を受け付けた場合(ステップS205肯定)、取得部171は、指定点の位置を取得する(ステップS206)。そして、決定部172は、指定点の位置から入力近傍エリアを設定する(ステップS207)。   On the other hand, when the input of the designated point is received (Yes at Step S205), the acquisition unit 171 obtains the position of the designated point (Step S206). Then, the determination unit 172 sets an input neighborhood area from the position of the designated point (step S207).

そして、決定部172は、入力近傍エリアの画像情報及び選択した決定アルゴリズムに基づいて、指定点の位置を修正し、修正点を決定する(ステップS208)。そして、モニタ30は、修正点を表示し(ステップS209)、処理を終了する。なお、図示しないが、ステップS209の後、計測部173の計測処理が行なわれる。なお、モニタ30は、制御部170の制御により、指定点と修正点との位置が異なる場合、指定点及び修正点を、例えば、色を変えたうえで、同時に表示する場合であっても良い。   Then, the determination unit 172 corrects the position of the designated point based on the image information of the input vicinity area and the selected determination algorithm, and determines the correction point (step S208). Then, the monitor 30 displays the correction point (step S209) and ends the process. Although not shown, measurement processing of the measurement unit 173 is performed after step S209. Note that the monitor 30 may be configured to display the designated point and the correction point at the same time after changing the color, for example, when the positions of the designated point and the correction point are different under the control of the control unit 170. .

上述したように、第2の実施形態では、計測目的に応じて最適なアルゴリズムが変化することに対応するために、超音波検査のワークフローで通常入力される事前情報を用いて診断部位等の入力目的を推定する。そして、第2の実施形態では、推定した目的から、最適なアルゴリズムを選択する。これにより、第2の実施形態では、操作者が特別な情報を入力することなく、操作者の要望に合致した修正点を決定することができる。   As described above, in the second embodiment, in order to cope with the change of the optimal algorithm according to the measurement purpose, input of a diagnosis region or the like is performed using prior information normally input in an ultrasonic examination workflow. Estimate the purpose. In the second embodiment, an optimal algorithm is selected based on the estimated purpose. Thereby, in the second embodiment, it is possible to determine a correction point that matches the operator's request without the operator inputting special information.

(第3の実施形態)
第3の実施形態では、入力目的の推定対象となる情報を超音波画像から取得する場合について、図16を用いて説明する。図16は、第3の実施形態を説明するための図である。
(Third embodiment)
In the third embodiment, a case where information to be input target estimation target is acquired from an ultrasound image will be described with reference to FIG. FIG. 16 is a diagram for explaining the third embodiment.

第3の実施形態に係る超音波診断装置3について説明する。第3の実施形態に係る超音波診断装置3の構成は、図1に例示した超音波診断装置1の構成と略同一であるので、図示することを省略する。また、第3の実施形態に係る制御部170の構成は、図11に例示した第2の実施形態に係る制御部170の構成と略同一であるので、図示することを省略する。ただし、第3の実施形態に係る制御部170の推定部174は、以下の推定処理を行なう。すなわち、第3の実施形態に係る推定部174は、超音波画像の特徴量に基づいて、当該超音波画像に描出される診断部位を入力目的の1つとして推定する。   An ultrasonic diagnostic apparatus 3 according to the third embodiment will be described. Since the configuration of the ultrasonic diagnostic apparatus 3 according to the third embodiment is substantially the same as the configuration of the ultrasonic diagnostic apparatus 1 illustrated in FIG. 1, illustration thereof is omitted. The configuration of the control unit 170 according to the third embodiment is substantially the same as the configuration of the control unit 170 according to the second embodiment illustrated in FIG. However, the estimation unit 174 of the control unit 170 according to the third embodiment performs the following estimation process. That is, the estimation unit 174 according to the third embodiment estimates a diagnostic site depicted in the ultrasound image as one of input purposes based on the feature amount of the ultrasound image.

すなわち、第3の実施形態に係る推定部174は、現在表示されている超音波画像を用いた「シーン認識」により入力目的の推定を行なう。各々の診断領域で描出される臓器には、臓器特有のパターンがある。そこで、例えば、記憶部180に「各臓器の特徴的なパターンが描出された超音波画像」を格納しておく。推定部174は、現在表示されている超音波画像を、記憶部180に格納されている各種臓器の超音波画像と比較することで、表示画像に描出されている臓器を推定することで、診断部位の推定を行なう。   That is, the estimation unit 174 according to the third embodiment estimates the input purpose by “scene recognition” using the currently displayed ultrasonic image. There are organ-specific patterns in the organs depicted in each diagnosis region. Therefore, for example, “an ultrasonic image in which a characteristic pattern of each organ is depicted” is stored in the storage unit 180. The estimation unit 174 compares the currently displayed ultrasound image with the ultrasound images of various organs stored in the storage unit 180, thereby estimating the organ depicted in the display image, thereby making a diagnosis. The part is estimated.

或いは、例えば、記憶部180に「各臓器の特徴的なパターンが描出された超音波画像の特徴量」を格納しておく。推定部174は、現在表示されている超音波画像の特徴量を抽出する。そして、推定部174は、抽出した特徴量と、記憶部180に格納されている各種臓器の特徴量と比較することで、表示画像に描出されている臓器を推定することで、診断部位の推定を行なう。例えば、推定部174は、図16に示すように、表示画像に描出されている臓器が肝臓であると推定し、「診断部位:肝臓」を出力する。   Alternatively, for example, “a feature amount of an ultrasonic image in which a characteristic pattern of each organ is depicted” is stored in the storage unit 180. The estimation unit 174 extracts the feature amount of the currently displayed ultrasonic image. Then, the estimation unit 174 compares the extracted feature quantity with the feature quantities of various organs stored in the storage unit 180, thereby estimating the organ depicted in the display image, thereby estimating the diagnosis part. To do. For example, as illustrated in FIG. 16, the estimation unit 174 estimates that the organ depicted in the display image is the liver, and outputs “diagnosis site: liver”.

かかる処理により推定された診断部位は、第2の実施形態で説明した事前情報と同様に、決定部172に通知され、決定部172は、決定アルゴリズムの選択を行なう。例えば、決定部172は、「診断部位:肝臓」であることから、距離計測が行なわれる場合は、第1アルゴリズム、又は、第2アルゴリズムを選択する。   The diagnosis part estimated by such processing is notified to the determination unit 172, as in the prior information described in the second embodiment, and the determination unit 172 selects a determination algorithm. For example, since the determination unit 172 is “diagnosis site: liver”, when distance measurement is performed, the determination unit 172 selects the first algorithm or the second algorithm.

上述したように、第3の実施形態では、超音波画像から診断部位を推定するので、入力目的の推定精度を向上させることができる。   As described above, in the third embodiment, since the diagnosis site is estimated from the ultrasound image, it is possible to improve the estimation accuracy of the input purpose.

なお、上述した第1〜第3の実施形態では、入力近傍エリアのサイズが固定である場合について説明した。しかし、上述した第1〜第3の実施形態は、入力目的に応じて、入力近傍エリアのサイズが変更される場合であっても良い。図17は、入力近傍エリアの変形例を説明するための図である。   In the first to third embodiments described above, the case where the size of the input vicinity area is fixed has been described. However, in the first to third embodiments described above, the size of the input vicinity area may be changed according to the input purpose. FIG. 17 is a diagram for explaining a modification of the input vicinity area.

すなわち、決定部172は、入力目的に応じて、入力近傍エリアのサイズを設定するための「所定の範囲」を変更する。例えば、図17に示すように、指定点として1点の点66の位置しか取得されていないにも関わらず、操作者が「面積計測」ボタンが押下されたとする。かかる場合、決定部172は、点66を中心とする「9ピクセル×9ピクセル」の入力近傍エリアを変更する。例えば、決定部172は、図17に示すように、点66を中心とする楕円67に変更する。ここで、決定部172は、楕円のサイズが画像サイズの500分の1となるように長軸及び短軸の長さを設定して、楕円67を入力近傍エリアとして設定する。そして、決定部172は、例えば、図8を用いて説明した処理により、修正曲線を決定する。なお、図17を用いて説明した決定方法を規定した修正モードも、情報記憶部183に記憶されている。   That is, the determination unit 172 changes the “predetermined range” for setting the size of the input vicinity area according to the input purpose. For example, as shown in FIG. 17, it is assumed that the operator presses the “Area measurement” button even though only the position of one point 66 is acquired as the designated point. In such a case, the determination unit 172 changes the input vicinity area of “9 pixels × 9 pixels” with the point 66 as the center. For example, the determination unit 172 changes to an ellipse 67 centered on the point 66 as shown in FIG. Here, the determination unit 172 sets the lengths of the long axis and the short axis so that the size of the ellipse is 1/500 of the image size, and sets the ellipse 67 as the input neighborhood area. And the determination part 172 determines a correction curve by the process demonstrated using FIG. 8, for example. The correction mode that defines the determination method described using FIG. 17 is also stored in the information storage unit 183.

かかる変形例では、操作者は、例えば、1点を指定する入力操作と、「面積計測」ボタンを押下する入力操作とを行なうだけで、面積計測のための曲線のトレース結果を自動的に得ることができる。本変形例によれば、超音波画像に対する入力操作を更に容易にすることができる。   In such a modification, the operator automatically obtains a trace result of a curve for area measurement only by performing an input operation for specifying one point and an input operation for pressing an “area measurement” button, for example. be able to. According to this modification, it is possible to further facilitate an input operation on the ultrasonic image.

なお、上述した第1の実施形態〜第3の実施形態及び変形例では、Bモード画像の画素の値(輝度値)を用いて修正点を決定する場合について説明した。しかし、上述した第1の実施形態〜第3の実施形態及び変形例では、超音波診断装置が生成するBモード画像以外の超音波画像の各ピクセルに割り当てられた値(計測値)を用いて修正点を決定する場合であっても良い。例えば、決定部172は、カラードプラ像において各ピクセルに割り当てられた「速度値」、「パワー値」、「分散値」の分布、又は、「速度値」や「パワー値」、「分散値」の空間微分に基づいて修正点を決定する場合であっても良い。或いは、例えば、決定部172は、ストレイン画像において各ピクセルに割り当てられた「ストレイン値」の分布、又は、「ストレイン値」の空間微分に基づいて修正点を決定する場合であっても良い。或いは、例えば、決定部172は、エラストグラフィ画像において各ピクセルに割り当てられた「歪み値」の分布、又は、「歪み値」の空間微分に基づいて修正点を決定する場合であっても良い。   In the first to third embodiments and the modifications described above, the case where the correction point is determined using the pixel value (luminance value) of the B-mode image has been described. However, in the above-described first to third embodiments and modifications, the values (measurement values) assigned to the pixels of the ultrasound image other than the B-mode image generated by the ultrasound diagnostic apparatus are used. The correction point may be determined. For example, the determination unit 172 distributes “velocity value”, “power value”, “dispersion value” assigned to each pixel in the color Doppler image, or “velocity value”, “power value”, “dispersion value”. Alternatively, the correction point may be determined based on the spatial differentiation. Alternatively, for example, the determination unit 172 may determine a correction point based on the distribution of the “strain value” assigned to each pixel in the strain image or the spatial differentiation of the “strain value”. Alternatively, for example, the determination unit 172 may determine a correction point based on a distribution of “distortion values” assigned to each pixel in an elastography image or a spatial differentiation of “distortion values”.

また、上述した第1の実施形態〜第3の実施形態及び変形例では、医用画像診断装置である超音波診断装置において、超音波画像に対する入力操作を容易にするための画像処理が行なわれる場合について説明した。しかし、上述した画像処理は、X線CT装置やMRI装置等の医用画像診断装置において、医用画像を対象として実行される場合であっても良い。   In the first to third embodiments and the modifications described above, image processing for facilitating an input operation on an ultrasound image is performed in the ultrasound diagnostic apparatus that is a medical image diagnostic apparatus. Explained. However, the above-described image processing may be performed on a medical image in a medical image diagnostic apparatus such as an X-ray CT apparatus or an MRI apparatus.

また、上述した画像処理は、医用画像診断装置とは独立に設置された画像処理装置により実行される場合であっても良い。具体的には、図2や図11に示す制御部170等の機能を有する画像処理装置が、各種の医用画像のデータを管理するシステムであるPACS(Picture Archiving and Communication Systems)のデータベースや、医用画像が添付された電子カルテを管理する電子カルテシステムのデータベース等から医用画像データを受信して、上述した画像処理を行なう場合であってもよい。   Further, the image processing described above may be executed by an image processing apparatus installed independently of the medical image diagnostic apparatus. Specifically, an image processing apparatus having a function such as the control unit 170 shown in FIG. 2 or FIG. 11 uses a PACS (Picture Archiving and Communication Systems) database, which is a system for managing various types of medical image data, There may be a case where medical image data is received from a database or the like of an electronic medical chart system that manages an electronic medical chart to which an image is attached, and the above-described image processing is performed.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。   Further, each component of each illustrated apparatus is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured. Further, all or any part of each processing function performed in each device may be realized by a CPU and a program analyzed and executed by the CPU, or may be realized as hardware by wired logic.

また、本実施形態で説明した画像処理方法は、あらかじめ用意された画像処理プログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。このプログラムは、インターネットなどのネットワークを介して配布することができる。また、この画像処理プログラムは、ハードディスク、フレキシブルディスク(FD)、CD−ROM、MO、DVDなどのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することもできる。   The image processing method described in the present embodiment can be realized by executing an image processing program prepared in advance on a computer such as a personal computer or a workstation. This program can be distributed via a network such as the Internet. The image processing program can also be executed by being recorded on a computer-readable recording medium such as a hard disk, a flexible disk (FD), a CD-ROM, an MO, or a DVD, and being read from the recording medium by the computer. .

以上、説明したとおり、第1の実施形態〜第3の実施形態及び変形例によれば、医用画像に対する入力操作を容易にすることができる。   As described above, according to the first to third embodiments and the modification examples, it is possible to facilitate an input operation on a medical image.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the equivalents thereof.

1 超音波診断装置
10 超音波プローブ
20 入力装置
30 モニタ
100 装置本体
110 送信部
120 受信部
131 Bモード処理部
132 ドプラ処理部
140 画像生成部
150 画像メモリ
160 画像合成部
170 制御部
171 取得部
172 決定部
173 計測部
180 記憶部
190 インタフェース部
DESCRIPTION OF SYMBOLS 1 Ultrasonic diagnostic apparatus 10 Ultrasonic probe 20 Input apparatus 30 Monitor 100 Apparatus main body 110 Transmission part 120 Reception part 131 B mode processing part 132 Doppler processing part 140 Image generation part 150 Image memory 160 Image composition part 170 Control part 171 Acquisition part 172 Determination unit 173 Measurement unit 180 Storage unit 190 Interface unit

Claims (13)

医用画像を用いた計測項目の指定を受け付ける入力部と、
操作者が前記医用画像上に指定した指定点の、当該医用画像における位置を取得する取得部と、
前記医用画像において前記指定点を含んで前記指定点の位置から所定の範囲にある近傍領域の画像情報に基づいて前記指定点の位置を修正する、複数の修正モードを記憶する記憶部と、
前記計測項目に基づいて定まる所定の修正モードに応じて、前記指定点の位置を修正し、修正した位置の点を修正点として決定する決定部と、
前記修正点の位置と、前記計測項目とに基づいて計測を行なう計測部と、
を備えたことを特徴とする画像処理装置。
An input unit that accepts designation of measurement items using medical images;
An acquisition unit for acquiring a position of the designated point designated on the medical image by the operator in the medical image;
A storage unit for storing a plurality of correction modes for correcting the position of the designated point based on image information of a neighboring region within a predetermined range from the position of the designated point including the designated point in the medical image;
A determination unit that corrects the position of the designated point according to a predetermined correction mode determined based on the measurement item, and determines the point of the corrected position as a correction point;
A measurement unit that performs measurement based on the position of the correction point and the measurement item;
An image processing apparatus comprising:
操作者が医用画像上に指定した指定点の、当該医用画像における位置を取得する取得部と、
前記医用画像において前記指定点を含んで前記指定点の位置から所定の範囲にある近傍領域の画像情報に基づいて前記指定点の位置を修正する、複数の修正モードを記憶する記憶部と、
前記複数の修正モードの内から1つの修正モードを選択して前記指定点の位置を修正し、修正した位置の点を修正点として決定する決定部と、
を備えたことを特徴とする画像処理装置。
An acquisition unit for acquiring a position of the designated point designated on the medical image by the operator in the medical image;
A storage unit for storing a plurality of correction modes for correcting the position of the designated point based on image information of a neighboring region within a predetermined range from the position of the designated point including the designated point in the medical image;
A determination unit that selects one correction mode from among the plurality of correction modes, corrects the position of the designated point, and determines the point of the corrected position as a correction point;
An image processing apparatus comprising:
前記記憶部に記憶される前記複数の修正モードの少なくとも1つは、前記近傍領域を構成する画素の輝度値の分布に基づいて、前記修正点を決定する修正モードであることを特徴とする請求項1又は2に記載の画像処理装置。   At least one of the plurality of correction modes stored in the storage unit is a correction mode in which the correction point is determined based on a distribution of luminance values of pixels constituting the neighboring area. Item 3. The image processing apparatus according to Item 1 or 2. 前記記憶部に記憶される前記複数の修正モードの少なくとも1つは、前記近傍領域を構成する画素の輝度値の空間微分に基づいて、前記修正点を決定する修正モードであることを特徴とする請求項1又は2に記載の画像処理装置。   At least one of the plurality of correction modes stored in the storage unit is a correction mode in which the correction point is determined based on a spatial differentiation of luminance values of pixels constituting the neighboring area. The image processing apparatus according to claim 1. 前記決定部は、更に、前記操作者が前記指定点を入力した目的に応じて、前記修正点の決定に用いる修正モードを変更することを特徴とする請求項1〜4のいずれか1つに記載の画像処理装置。   The said determination part further changes the correction mode used for determination of the said correction point according to the objective in which the said operator input the said designated point, The change to any one of Claims 1-4 characterized by the above-mentioned. The image processing apparatus described. 前記記憶部に記憶される前記複数の修正モードの少なくとも1つは、
前記近傍領域を構成する画素の輝度値の所定方向におけるプロファイルにおいて、輝度値が極値となる点を前記修正点として用いる修正モードであり、
前記記憶部に記憶される前記複数の修正モードの少なくとも1つは、
前記近傍領域を構成する画素の輝度値の所定方向におけるプロファイルにおいて、輝度値が極値となる点の近傍にて輝度値が略一定となる点を前記修正点として用いる修正モードであることを特徴とする請求項5に記載の画像処理装置。
At least one of the plurality of correction modes stored in the storage unit is:
In the profile in the predetermined direction of the luminance value of the pixels constituting the neighboring region, the correction mode using a point where the luminance value becomes an extreme value as the correction point,
At least one of the plurality of correction modes stored in the storage unit is:
The correction mode uses a point at which the luminance value is substantially constant in the vicinity of a point where the luminance value is an extreme value in the profile in a predetermined direction of the luminance value of the pixels constituting the neighboring region as the correction point. The image processing apparatus according to claim 5.
前記記憶部に記憶される前記複数の修正モードの少なくとも1つは、
前記近傍領域を構成する画素の輝度値の微分値の所定方向におけるプロファイルにおいて、微分値が極値となる点を前記修正点として用いる修正モードであり、
前記記憶部に記憶される前記複数の修正モードの少なくとも1つは、
前記近傍領域を構成する画素の輝度値の所定方向におけるプロファイルにおいて、微分値が極値となる極値となる点の近傍にて微分値が略一定となる点を前記修正点として用いる修正モードであることを特徴とする請求項5に記載の画像処理装置。
At least one of the plurality of correction modes stored in the storage unit is:
In the profile in the predetermined direction of the differential value of the luminance value of the pixels constituting the neighboring region, the correction mode using the point where the differential value becomes an extreme value as the correction point,
At least one of the plurality of correction modes stored in the storage unit is:
In a correction mode in which a point at which the differential value is substantially constant in the vicinity of a point where the differential value is an extreme value in the profile in a predetermined direction of the luminance value of the pixels constituting the vicinity region is used as the correction point. The image processing apparatus according to claim 5, wherein the image processing apparatus is provided.
前記指定点が入力される前に入力された前記医用画像に関する事前情報に基づいて、前記操作者が前記指定点を入力した目的を推定する推定部、
を更に備え、
前記決定部は、更に、前記推定部により推定された目的に応じて、前記修正点の決定に用いる修正モードを変更することを特徴とする請求項5に記載の画像処理装置。
An estimation unit that estimates the purpose of the operator inputting the designated point based on prior information regarding the medical image that is input before the designated point is input;
Further comprising
The image processing apparatus according to claim 5, wherein the determination unit further changes a correction mode used for determination of the correction point in accordance with the purpose estimated by the estimation unit.
前記推定部は、前記医用画像の特徴量に基づいて、当該医用画像に描出される診断部位を前記目的の1つとして推定することを特徴とする請求項8に記載の画像処理装置。   The image processing apparatus according to claim 8, wherein the estimation unit estimates, as one of the purposes, a diagnostic part drawn on the medical image based on a feature amount of the medical image. 前記決定部は、前記目的に応じて、前記所定の範囲を変更することを特徴とする請求項5〜9のいずれか1つに記載の画像処理装置。   The image processing apparatus according to claim 5, wherein the determination unit changes the predetermined range according to the purpose. 前記指定点の指定は、前記操作者のタッチパネルへの指入力により行なわれることを特徴とする請求項1〜10のいずれか1つに記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the designated point is designated by a finger input on the touch panel of the operator. 超音波を送信し、当該送信した超音波の反射波を受信する超音波プローブと、
前記反射波から超音波画像を生成する画像生成部と、
前記超音波画像を用いた計測項目の指定を受け付ける入力部と、
操作者が前記超音波画像上に指定した指定点の、当該超音波画像における位置を取得する取得部と、
前記超音波画像において前記指定点を含んで前記指定点の位置から所定の範囲にある近傍領域の画像情報に基づいて前記指定点の位置を修正する、複数の修正モードを記憶する記憶部と、
前記計測項目に基づいて定まる所定の修正モードに応じて、前記指定点の位置を修正し、修正した位置の点を修正点として決定する決定部と、
前記修正点の位置と、前記計測項目とに基づいて計測を行なう計測部と、
を備えたことを特徴とする超音波診断装置。
An ultrasonic probe that transmits ultrasonic waves and receives reflected waves of the transmitted ultrasonic waves; and
An image generator for generating an ultrasonic image from the reflected wave;
An input unit that accepts designation of a measurement item using the ultrasonic image;
An acquisition unit for acquiring a position of the designated point designated on the ultrasonic image by the operator in the ultrasonic image;
A storage unit that stores a plurality of correction modes for correcting the position of the designated point based on image information of a neighboring region that is within a predetermined range from the position of the designated point, including the designated point in the ultrasonic image;
A determination unit that corrects the position of the designated point according to a predetermined correction mode determined based on the measurement item, and determines the point of the corrected position as a correction point;
A measurement unit that performs measurement based on the position of the correction point and the measurement item;
An ultrasonic diagnostic apparatus comprising:
医用画像を用いた計測項目の指定を受け付ける入力手順と、
操作者が前記医用画像上に指定した指定点の、当該医用画像における位置を取得する取得手順と、
前記医用画像において前記指定点を含んで前記指定点の位置から所定の範囲にある近傍領域の画像情報に基づいて前記指定点の位置を修正する、複数の修正モードを記憶する記憶部を参照し、前記計測項目に基づいて定まる所定の修正モードに応じて、前記指定点の位置を修正し、修正した位置の点を修正点として決定する決定手順と、
前記修正点の位置と、前記計測項目とに基づいて計測を行なう計測手順と、
をコンピュータに実行させることを特徴とする画像処理プログラム。
An input procedure for accepting specification of measurement items using medical images;
An acquisition procedure for acquiring a position of the designated point designated on the medical image by the operator in the medical image;
Refer to a storage unit that stores a plurality of correction modes for correcting the position of the designated point based on image information of a neighboring region that is within a predetermined range from the position of the designated point including the designated point in the medical image. A determination procedure for correcting the position of the designated point according to a predetermined correction mode determined based on the measurement item, and determining the point of the corrected position as a correction point;
A measurement procedure for performing measurement based on the position of the correction point and the measurement item;
An image processing program for causing a computer to execute.
JP2011263258A 2011-12-01 2011-12-01 Image processor, ultrasonic diagnostic apparatus and image processing program Pending JP2013111434A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011263258A JP2013111434A (en) 2011-12-01 2011-12-01 Image processor, ultrasonic diagnostic apparatus and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011263258A JP2013111434A (en) 2011-12-01 2011-12-01 Image processor, ultrasonic diagnostic apparatus and image processing program

Publications (1)

Publication Number Publication Date
JP2013111434A true JP2013111434A (en) 2013-06-10

Family

ID=48707581

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011263258A Pending JP2013111434A (en) 2011-12-01 2011-12-01 Image processor, ultrasonic diagnostic apparatus and image processing program

Country Status (1)

Country Link
JP (1) JP2013111434A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104921753A (en) * 2014-03-18 2015-09-23 三星麦迪森株式会社 Ultrasound apparatus and method of measuring ultrasound image
US9483823B2 (en) 2014-07-10 2016-11-01 Fujifilm Corporation Medical image measurement device and method, and non-transitory computer-readable recording medium
JP2017064183A (en) * 2015-09-30 2017-04-06 東芝メディカルシステムズ株式会社 Medical image diagnostic apparatus, medical image processing apparatus, and medical information display control method
KR20170099222A (en) * 2016-02-23 2017-08-31 삼성전자주식회사 Method and ultrasound apparatus for displaying an object
WO2019039050A1 (en) 2017-08-25 2019-02-28 富士フイルム株式会社 Acoustic wave diagnostic apparatus and method for controlling acoustic wave diagnostic apparatus
WO2020008743A1 (en) 2018-07-02 2020-01-09 富士フイルム株式会社 Acoustic diagnostic apparatus and method for controlling acoustic diagnostic apparatus
WO2020008746A1 (en) 2018-07-02 2020-01-09 富士フイルム株式会社 Acoustic wave diagnostic device and method for controlling acoustic wave diagnostic device
CN111194185A (en) * 2017-10-02 2020-05-22 百合医疗科技株式会社 Medical imaging device
US20210007709A1 (en) * 2019-07-10 2021-01-14 Fujifilm Corporation Measurement apparatus, ultrasound diagnostic apparatus, measurement method, and measurement program
JP2021130035A (en) * 2017-08-24 2021-09-09 富士フイルム株式会社 Acoustic wave measuring device and operation method of acoustic wave measuring device
US11766246B2 (en) 2018-03-01 2023-09-26 Fujifilm Corporation Acoustic wave diagnostic apparatus and control method of acoustic wave diagnostic apparatus

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10426438B2 (en) 2014-03-18 2019-10-01 Samsung Medison Co., Ltd. Ultrasound apparatus and method of measuring ultrasound image
EP2921115A1 (en) * 2014-03-18 2015-09-23 Samsung Medison Co., Ltd. Ultrasound apparatus and method of measuring ultrasound image
CN104921753A (en) * 2014-03-18 2015-09-23 三星麦迪森株式会社 Ultrasound apparatus and method of measuring ultrasound image
US9483823B2 (en) 2014-07-10 2016-11-01 Fujifilm Corporation Medical image measurement device and method, and non-transitory computer-readable recording medium
JP2017064183A (en) * 2015-09-30 2017-04-06 東芝メディカルシステムズ株式会社 Medical image diagnostic apparatus, medical image processing apparatus, and medical information display control method
US10772608B2 (en) 2015-09-30 2020-09-15 Canon Medical Systems Corporation Medical image diagnostic apparatus and medical information display control method
KR20170099222A (en) * 2016-02-23 2017-08-31 삼성전자주식회사 Method and ultrasound apparatus for displaying an object
KR102605152B1 (en) * 2016-02-23 2023-11-24 삼성전자주식회사 Method and ultrasound apparatus for displaying an object
US11864883B2 (en) 2017-08-24 2024-01-09 Fujifilm Corporation Acoustic wave measurement apparatus and operation method of acoustic wave measurement apparatus
JP2021130035A (en) * 2017-08-24 2021-09-09 富士フイルム株式会社 Acoustic wave measuring device and operation method of acoustic wave measuring device
JP7195374B2 (en) 2017-08-24 2022-12-23 富士フイルム株式会社 Acoustic wave measuring device and method of operating acoustic wave measuring device
WO2019039050A1 (en) 2017-08-25 2019-02-28 富士フイルム株式会社 Acoustic wave diagnostic apparatus and method for controlling acoustic wave diagnostic apparatus
CN111194185A (en) * 2017-10-02 2020-05-22 百合医疗科技株式会社 Medical imaging device
US11766246B2 (en) 2018-03-01 2023-09-26 Fujifilm Corporation Acoustic wave diagnostic apparatus and control method of acoustic wave diagnostic apparatus
WO2020008746A1 (en) 2018-07-02 2020-01-09 富士フイルム株式会社 Acoustic wave diagnostic device and method for controlling acoustic wave diagnostic device
JPWO2020008743A1 (en) * 2018-07-02 2021-07-01 富士フイルム株式会社 Control method of acoustic wave diagnostic device and acoustic wave diagnostic device
CN112367921A (en) * 2018-07-02 2021-02-12 富士胶片株式会社 Acoustic wave diagnostic apparatus and method for controlling acoustic wave diagnostic apparatus
WO2020008743A1 (en) 2018-07-02 2020-01-09 富士フイルム株式会社 Acoustic diagnostic apparatus and method for controlling acoustic diagnostic apparatus
US20210007709A1 (en) * 2019-07-10 2021-01-14 Fujifilm Corporation Measurement apparatus, ultrasound diagnostic apparatus, measurement method, and measurement program

Similar Documents

Publication Publication Date Title
JP2013111434A (en) Image processor, ultrasonic diagnostic apparatus and image processing program
JP6309376B2 (en) Medical information processing system, medical information processing program, and ultrasonic diagnostic apparatus
US9524551B2 (en) Ultrasound diagnosis apparatus and image processing method
JP6081301B2 (en) Ultrasonic diagnostic apparatus and image data correction method
US20190046153A1 (en) Ultrasonic diagnostic apparatus
EP2372392A1 (en) Ultrasound diagnosis apparatus, image processing apparatus, and image processing method
US10335118B2 (en) Ultrasonic diagnostic apparatus, medical image processing apparatus, and medical image parallel display method
JP2017136451A (en) Ultrasonic diagnostic device
JP6316995B2 (en) Ultrasonic diagnostic apparatus and image data correction method
JP2013005876A (en) Ultrasonic diagnostic apparatus
JP6109556B2 (en) Ultrasonic diagnostic apparatus and image processing program
JP2023060101A (en) Ultrasonic diagnostic apparatus and paracentesis support program
JP2017086896A (en) Medical image processing device and ultrasonic diagnostic apparatus
JP6125380B2 (en) Ultrasonic diagnostic apparatus, medical image processing apparatus, and image processing program
JP5542454B2 (en) Ultrasonic diagnostic apparatus, ultrasonic image processing apparatus, and ultrasonic image processing program
JP2015173899A (en) Ultrasonic diagnostic device, image processor and image processing program
JP2012030053A (en) Ultrasound diagnosis apparatus, image processing apparatus and image processing method
US20130144168A1 (en) Ultrasound diagnostic apparatus and computer program product
JP2012075794A (en) Ultrasonic diagnostic apparatus, medical image processor, and medical image processing program
JP2013143978A (en) Ultrasonic diagnostic apparatus
JP6334013B2 (en) Ultrasonic diagnostic equipment
US20210369247A1 (en) Medical image diagnosis apparatus, medical image processing apparatus and medical image processing method
JP2019195447A (en) Ultrasound diagnosis apparatus and medical information processing program
US10426444B2 (en) Ultrasonic diagnosis apparatus, medical image processing apparatus and medical image processing method
JP2023108765A (en) Ultrasonic diagnostic apparatus and determination method