JP2013111434A - Image processor, ultrasonic diagnostic apparatus and image processing program - Google Patents
Image processor, ultrasonic diagnostic apparatus and image processing program Download PDFInfo
- Publication number
- JP2013111434A JP2013111434A JP2011263258A JP2011263258A JP2013111434A JP 2013111434 A JP2013111434 A JP 2013111434A JP 2011263258 A JP2011263258 A JP 2011263258A JP 2011263258 A JP2011263258 A JP 2011263258A JP 2013111434 A JP2013111434 A JP 2013111434A
- Authority
- JP
- Japan
- Prior art keywords
- point
- correction
- image
- designated
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012937 correction Methods 0.000 claims abstract description 144
- 238000005259 measurement Methods 0.000 claims abstract description 99
- 238000012545 processing Methods 0.000 claims description 67
- 238000000034 method Methods 0.000 claims description 56
- 239000000523 sample Substances 0.000 claims description 27
- 230000004069 differentiation Effects 0.000 claims description 6
- 230000008859 change Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 32
- 238000003745 diagnosis Methods 0.000 description 21
- 238000002604 ultrasonography Methods 0.000 description 21
- 230000005540 biological transmission Effects 0.000 description 14
- 238000012986 modification Methods 0.000 description 12
- 230000004048 modification Effects 0.000 description 12
- 210000000056 organ Anatomy 0.000 description 11
- 230000008569 process Effects 0.000 description 9
- 210000004185 liver Anatomy 0.000 description 7
- 230000017531 blood circulation Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 206010028980 Neoplasm Diseases 0.000 description 5
- 210000005075 mammary gland Anatomy 0.000 description 5
- 239000000203 mixture Substances 0.000 description 5
- 210000004204 blood vessel Anatomy 0.000 description 4
- 238000002591 computed tomography Methods 0.000 description 4
- 210000001519 tissue Anatomy 0.000 description 4
- 206010006187 Breast cancer Diseases 0.000 description 3
- 208000026310 Breast neoplasm Diseases 0.000 description 3
- 239000006185 dispersion Substances 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 238000002595 magnetic resonance imaging Methods 0.000 description 3
- 210000004165 myocardium Anatomy 0.000 description 3
- 238000003825 pressing Methods 0.000 description 3
- 238000012216 screening Methods 0.000 description 3
- 108010076504 Protein Sorting Signals Proteins 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 201000010099 disease Diseases 0.000 description 2
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 2
- 229940079593 drug Drugs 0.000 description 2
- 239000003814 drug Substances 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000001727 in vivo Methods 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 210000005240 left ventricle Anatomy 0.000 description 2
- 230000003211 malignant effect Effects 0.000 description 2
- 230000002792 vascular Effects 0.000 description 2
- 210000001015 abdomen Anatomy 0.000 description 1
- 230000003187 abdominal effect Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000000481 breast Anatomy 0.000 description 1
- 210000003459 common hepatic duct Anatomy 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000002872 contrast media Substances 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 238000002091 elastography Methods 0.000 description 1
- 230000003325 follicular Effects 0.000 description 1
- 230000002440 hepatic effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 210000003734 kidney Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000002107 myocardial effect Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 210000005259 peripheral blood Anatomy 0.000 description 1
- 239000011886 peripheral blood Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 210000001685 thyroid gland Anatomy 0.000 description 1
Images
Abstract
Description
本発明の実施形態は、画像処理装置、超音波診断装置及び画像処理プログラムに関する。 Embodiments described herein relate generally to an image processing apparatus, an ultrasonic diagnostic apparatus, and an image processing program.
超音波診断装置は、X線診断装置、X線CT(Computed Tomography)装置等の他の医用画像診断装置に比べ安価で被曝が無く、また、生体内の情報を示す超音波画像を非侵襲的に生成して略リアルタイムで表示可能な装置であることから、今日の医療において重要な役割を果たしている。超音波診断装置は、心臓等の循環器の診断や、肝臓や腎臓等の腹部臓器の診断、抹消血管の診断、産婦人科における診断、乳癌の診断等、幅広い分野で用いられている。 The ultrasonic diagnostic apparatus is less expensive and less exposed than other medical image diagnostic apparatuses such as an X-ray diagnostic apparatus and an X-ray CT (Computed Tomography) apparatus, and non-invasively displays an ultrasonic image indicating in-vivo information. Therefore, it plays an important role in today's medical care. Ultrasound diagnostic apparatuses are used in a wide range of fields such as diagnosis of circulatory organs such as the heart, diagnosis of abdominal organs such as the liver and kidney, diagnosis of peripheral blood vessels, diagnosis in obstetrics and gynecology, and diagnosis of breast cancer.
また、超音波診断装置の別の特徴として、可搬性が挙げられる。X線CT装置やMRI(Magnetic Resonance Imaging)装置等の医用画像診断装置の多くが据置型であるのに対し、超音波診断装置の殆んどが、搬送可能となるように稼働車輪等を具備している。これにより、超音波診断装置は、病院内で病棟のベッドサイドまで搬送可能となっている。更に、近年では、超音波診断装置の小型化が進められている。かかる超音波診断装置としては、例えば、片手で持ち運びが可能なハンドキャリー型超音波診断装置(HCU:Hand Carry Ultrasound)がある。 Another feature of the ultrasonic diagnostic apparatus is portability. While most medical diagnostic imaging devices such as X-ray CT and MRI (Magnetic Resonance Imaging) devices are stationary, most ultrasonic diagnostic devices are equipped with operating wheels so that they can be transported. doing. Thereby, the ultrasonic diagnostic apparatus can be transported to the bedside of the ward in the hospital. Furthermore, in recent years, miniaturization of ultrasonic diagnostic apparatuses has been promoted. As such an ultrasonic diagnostic apparatus, for example, there is a hand carry type ultrasonic diagnostic apparatus (HCU: Hand Carry Ultrasound) that can be carried with one hand.
また、超音波診断装置の小型化とともに、ユーザインターフェースの形態も変化している。例えば、従来の超音波診断装置の入力装置では、専用のボタンが複数個設置されていた。しかし、現在では、携帯型のOA機器に代表されるノート型パーソナルコンピュータ(ノートPC)や電話機能付き情報端末(スマートフォン)等と同様に、入力ボタンを液晶モニタ等に仮想的に描画し、かかる入力ボタン(仮想的ボタン)をマウスやタッチパッドによって操作者がクリックする入力形態を採用した超音波診断装置が実用化されている。更には、タッチセンサー付きのモニタの実用化に伴い、操作者が仮想的ボタンを直接触れることによって入力操作を行なう、所謂タッチ入力が可能な超音波診断装置も実用化されている。なお、超音波診断装置以外の他の医用画像診断装置でもマウス入力やタッチ入力が可能な装置が実用化されている。 Moreover, the form of the user interface is changing with the miniaturization of the ultrasonic diagnostic apparatus. For example, in an input device of a conventional ultrasonic diagnostic apparatus, a plurality of dedicated buttons are installed. However, at present, as with notebook personal computers (notebook PCs) typified by portable OA devices and information terminals with smartphone functions (smartphones), input buttons are virtually drawn on a liquid crystal monitor or the like. An ultrasonic diagnostic apparatus that employs an input form in which an operator clicks an input button (virtual button) with a mouse or a touchpad has been put into practical use. Furthermore, along with the practical use of monitors with touch sensors, so-called ultrasonic diagnostic apparatuses capable of so-called touch input, in which an operator performs an input operation by directly touching virtual buttons, have also been put into practical use. Note that devices capable of mouse input and touch input have been put to practical use in medical image diagnostic devices other than ultrasonic diagnostic devices.
マウス入力やタッチ入力は、操作性の解釈が容易であることから、操作者にとって受け入れやすい入力形態である。このため、マウス入力やタッチ入力を医用画像診断装置に採用することは、医用画像診断装置の操作性を向上させるという利点がある。一方、マウス入力やタッチ入力を医用画像診断装置に採用すると、以下のような場合が生じる。 Mouse input and touch input are easy to accept for the operator because the operability is easy to interpret. For this reason, adopting mouse input or touch input in the medical image diagnostic apparatus has an advantage of improving the operability of the medical image diagnostic apparatus. On the other hand, when mouse input or touch input is employed in a medical image diagnostic apparatus, the following cases occur.
例えば、超音波検査では、超音波画像を用いた種々の計測が行われる。計測の目的は多岐にわたるが、計測の要素としては、操作者が2点の位置を指定して行なう距離計測や、操作者が閉じた曲線を描画して行なう面積計測等が挙げられる。これらの計測は、非常に細かい精度が要求されるものが少なくない。何故なら、例えば、これらの計測の結果によって、診断部位の腫瘍が悪性であるか良性であるかの鑑別が行われたり、鑑別結果に応じて、治療方針や投薬方針の決定が行われたりするからである。 For example, in the ultrasonic inspection, various measurements using an ultrasonic image are performed. The purpose of the measurement is various, but the elements of measurement include distance measurement performed by the operator specifying the position of two points, area measurement performed by drawing a closed curve by the operator, and the like. Many of these measurements require very fine accuracy. This is because, for example, the results of these measurements can be used to identify whether the tumor at the diagnostic site is malignant or benign, and the treatment policy and medication policy can be determined according to the results of the discrimination. Because.
しかし、ノートPC等で経験することと同様に、例えば、医用画像に操作者がマウスを使用して輪郭を正確にトレースすることは、困難である。更に、タッチ入力の場合、医用画像に操作者が指先で正確に点を指定することは、困難である。 However, as experienced with a notebook PC or the like, for example, it is difficult for an operator to accurately trace an outline on a medical image using a mouse. Furthermore, in the case of touch input, it is difficult for an operator to accurately specify a point with a fingertip on a medical image.
本発明が解決しようとする課題は、医用画像に対する入力操作を容易にすることができる画像処理装置、超音波診断装置及び画像処理プログラムを提供することである。 The problem to be solved by the present invention is to provide an image processing apparatus, an ultrasonic diagnostic apparatus, and an image processing program that can facilitate an input operation on a medical image.
実施形態の画像処理装置は、入力部と、取得部と、記憶部と、決定部と、計測部と、を備える。入力部は、医用画像を用いた計測項目の指定を受け付ける。取得部は、操作者が前記医用画像上に指定した指定点の、当該医用画像における位置を取得する。記憶部は、前記医用画像において前記指定点を含んで前記指定点の位置から所定の範囲にある近傍領域の画像情報に基づいて、前記指定点の位置を修正する、複数の修正モードを記憶する。決定部は、前記計測項目に基づいて定まる所定の修正モードに応じて、前記指定点の位置を修正し、修正した位置の点を修正点として決定する。計測部は、前記修正点の位置と、前記計測項目とに基づいて計測を行なう。 The image processing apparatus according to the embodiment includes an input unit, an acquisition unit, a storage unit, a determination unit, and a measurement unit. The input unit accepts designation of measurement items using medical images. The acquisition unit acquires the position in the medical image of the designated point specified by the operator on the medical image. The storage unit stores a plurality of correction modes for correcting the position of the designated point based on image information of a neighboring region that includes the designated point in the medical image and is within a predetermined range from the position of the designated point. . The determination unit corrects the position of the designated point in accordance with a predetermined correction mode determined based on the measurement item, and determines the point of the corrected position as a correction point. The measurement unit performs measurement based on the position of the correction point and the measurement item.
以下、添付図面を参照して、画像処理装置としての超音波診断装置の実施形態を詳細に説明する。 Hereinafter, an embodiment of an ultrasonic diagnostic apparatus as an image processing apparatus will be described in detail with reference to the accompanying drawings.
(第1の実施形態)
まず、第1の実施形態に係る超音波診断装置の構成について説明する。図1は、第1の実施形態に係る超音波診断装置の構成例を示すブロック図である。図1に例示するように、第1の実施形態に係る超音波診断装置1は、超音波プローブ10と、入力装置20と、モニタ30と、装置本体100とを有する。
(First embodiment)
First, the configuration of the ultrasonic diagnostic apparatus according to the first embodiment will be described. FIG. 1 is a block diagram illustrating a configuration example of the ultrasonic diagnostic apparatus according to the first embodiment. As illustrated in FIG. 1, the ultrasonic diagnostic apparatus 1 according to the first embodiment includes an
超音波プローブ10は、複数の圧電振動子を有し、これら複数の圧電振動子は、後述する装置本体100が有する送信部110から供給される駆動信号に基づき超音波を発生する。また、超音波プローブ10は、被検体Pからの反射波信号を受信して電気信号に変換する。また、超音波プローブ10は、圧電振動子に設けられる整合層と、圧電振動子から後方への超音波の伝播を防止するバッキング材などを有する。なお、超音波プローブ10は、装置本体100と着脱自在に接続される。
The
超音波プローブ10から被検体Pに超音波が送信されると、送信された超音波は、被検体Pの体内組織における音響インピーダンスの不連続面で次々と反射され、反射波信号として超音波プローブ10が有する複数の圧電振動子にて受信される。受信される反射波信号の振幅は、超音波が反射される不連続面における音響インピーダンスの差に依存する。なお、送信された超音波パルスが、移動している血流や心臓壁などの表面で反射された場合の反射波信号は、ドプラ効果により、移動体の超音波送信方向に対する速度成分に依存して、周波数偏移を受ける。
When ultrasonic waves are transmitted from the
なお、第1の実施形態は、複数の圧電振動子が一列で配置された1次元超音波プローブである超音波プローブ10により、被検体Pを2次元でスキャンする場合であっても、1次元超音波プローブの複数の圧電振動子を機械的に揺動する超音波プローブ10や複数の圧電振動子が格子状に2次元で配置された2次元超音波プローブである超音波プローブ10により、被検体Pを3次元でスキャンする場合であっても、適用可能である。
In the first embodiment, even when the subject P is scanned two-dimensionally by the
入力装置20は、装置本体100と接続され、マウス、キーボード、ボタン、パネルスイッチ、タッチコマンドスクリーン、フットスイッチ、トラックボールなどを有する。かかる入力装置20は、超音波診断装置1の操作者からの各種設定要求を受け付け、受け付けた各種設定要求を装置本体100に転送する。
The
例えば、入力装置20であるタッチコマンドスクリーン(接触型スクリーン)には、仮想的な操作ボタンが描画されている。操作者は、仮想的な操作ボタンをタッチペンや指等で指定するタッチ入力方式により操作ボタンを押下することで、指示を入力する。
For example, virtual operation buttons are drawn on the touch command screen (contact type screen) that is the
モニタ30は、超音波診断装置1の操作者が入力装置20を用いて各種設定要求を入力するためのGUI(Graphical User Interface)を表示したり、装置本体100において生成された超音波画像などを表示したりする。具体的には、モニタ30は、後述する画像合成部160から入力されるビデオ信号に基づいて、生体内の形態学的情報や血流情報を画像として表示する。
The
なお、第1の実施形態では、モニタ30にも入力装置としての機能が搭載される。例えば、第1の実施形態では、モニタ30を接触型スクリーンとすることで、モニタ30を入力装置として機能させる。操作者は、タッチペンや指等を用いたタッチ入力方式により、例えば、モニタ30に表示されている超音波画像上に、距離計測用の点を指定したり、面積計測用の曲線を描画したりすることができる。また、操作者は、タッチペンや指等により、例えば、モニタ30に表示されている超音波画像上に、診断レポート用のコメントや矢印を挿入する位置を指定することができる。
In the first embodiment, the
装置本体100は、超音波プローブ10が受信した反射波信号に基づいて超音波画像を生成する。かかる装置本体100は、図1に例示するように、送信部110と、受信部120と、Bモード処理部131と、ドプラ処理部132と、画像生成部140と、画像メモリ150と、画像合成部160と、制御部170と、記憶部180と、インタフェース部190とを有する。
The apparatus
送信部110は、パルス発生器111、送信遅延部112、パルサ113を有し、超音波プローブ10に駆動信号を供給する。パルス発生器111は、所定のレート周波数で、送信超音波を形成するためのレートパルスを繰り返し発生する。また、送信遅延部112は、超音波プローブ10から発生される超音波をビーム状に集束し、かつ送信指向性を決定するために必要な圧電振動子ごとの遅延時間を、パルス発生器111が発生する各レートパルスに対し与える。また、パルサ113は、レートパルスに基づくタイミングで、超音波プローブ10に駆動信号(駆動パルス)を印加する。すなわち、送信遅延部112は、各レートパルスに対し与える遅延時間を変化させることで、圧電振動子面から送信される超音波の送信方向を任意に調整する。
The
受信部120は、プリアンプ121、図示しないA/D(Analog/Digital)変換器、受信遅延部122、加算器123を有し、超音波プローブ10が受信した反射波信号に対して各種処理を行って反射波データを生成する。プリアンプ121は、反射波信号をチャネル毎に増幅する。図示しないA/D変換器は、増幅された反射波信号をA/D変換する。受信遅延部122は、受信指向性を決定するために必要な遅延時間を与える。加算器123は、受信遅延部122によって処理された反射波信号の加算処理を行なって反射波データを生成する。加算器123の加算処理により、反射波信号の受信指向性に応じた方向からの反射成分が強調され、受信指向性と送信指向性とにより超音波送受信の総合的なビームが形成される。
The receiving
なお、受信部120からの出力信号の形態は、RF(Radio Frequency)信号と呼ばれる位相情報が含まれる信号である場合や、包絡線検波処理後の振幅情報である場合等、種々の形態が選択可能である。
The form of the output signal from the receiving
Bモード処理部131は、受信部120から反射波データを受け取り、対数増幅、包絡線検波処理などを行って、各走査線の信号強度が輝度の明るさで表現されるデータ(Bモードデータ)を生成する。
The B-
ドプラ処理部132は、受信部120から受け取った反射波データから速度情報を周波数解析し、ドプラ効果による血流や組織、造影剤エコー成分を抽出し、平均速度、分散、パワー等の血流情報を各走査線の多点について抽出したデータ(ドプラデータ)を生成する。
The Doppler processing unit 132 performs frequency analysis on velocity information from the reflected wave data received from the receiving
画像生成部140は、Bモード処理部131が生成したBモードデータや、ドプラ処理部132が生成したドプラデータから、超音波画像を生成し、生成した超音波画像を後述する画像メモリ150又は記憶部180に格納する。
The
具体的には、画像生成部140は、Bモードデータから、反射波データの強度が輝度にて表現されるBモード画像を生成する。また、画像生成部140は、ドプラデータから、血流の平均速度、分散、血流量、これらの組合せを色によって識別可能に表示するカラードプラ画像を生成する。
Specifically, the
また、画像生成部140は、超音波スキャンの複数の走査線信号列を、テレビなどに代表されるビデオフォーマットの走査線信号列に変換(スキャンコンバート)し、表示画像としての超音波画像(Bモード画像やカラードプラ画像)を生成する。また、画像生成部140は、画像データを格納する図示しない記憶メモリを搭載しており、例えば診断の後に操作者が検査中に記録された画像を呼び出すことが可能となっている。
The
画像メモリ150は、Bモード処理部131やドプラ処理部132から受信したデータを記憶するメモリである。画像メモリ150が記憶するデータは、例えば、診断の後に操作者が呼び出すことが可能となっており、画像生成部140を経由して表示用の超音波画像となる。この超音波画像は、静止画像的に、或いは、複数枚を使って動画的に再生することが可能である。
The
また、画像メモリ150は、画像生成部140が生成した超音波画像や、超音波画像を画像処理することで生成した画像データを記憶することもできる。かかる画像データも、例えば、診断の後に、操作者が画像メモリ150から呼び出すことで、静止画像的に、或いは、複数枚を使って動画的に再生することが可能である。
The
画像合成部160は、画像生成部140が生成した超音波画像に、種々のパラメータの文字情報、目盛り、ボディーマークなどを合成した合成画像を生成する。画像合成部160によって生成された合成画像は、モニタ30で表示される。
The
制御部170は、情報処理装置(計算機)としての機能を実現する制御プロセッサ(CPU:Central Processing Unit)であり、超音波診断装置1における処理全体を制御する。具体的には、制御部170は、入力装置20を介して操作者から入力された各種指示や設定要求、後述する記憶部180から読み込んだプログラム及び各種設定情報に基づき、送信部110、受信部120、Bモード処理部131、ドプラ処理部132、画像生成部140及び画像合成部160の処理を制御する。また、制御部170は、後述する記憶部180や画像メモリ150が記憶する超音波画像等をモニタ30にて表示するように制御する。
The
記憶部180は、超音波送受信、画像処理及び表示処理を行うための各種プログラムを記憶する各種プログラム181や、画像生成部140によって生成された超音波画像を記憶する画像記憶部182や、診断情報(例えば、患者ID、医師の所見等)、診断プロトコルや各種設定情報等の各種データを記憶する情報記憶部183等を有する。
The
例えば、各種プログラム181は、超音波画像を用いた計測処理を行なうための手順が記述された計測用プログラムを記憶する。また、各種プログラム181は、後に説明する制御部170が実行する手順が記述された画像処理プログラムを記憶する。なお、記憶部180が記憶する各種データは、インタフェース部190を経由して、外部の周辺装置へ転送することができる。
For example, the
インタフェース部190は、操作パネル(入力装置20や入力デバイスとしてのモニタ30)、外部記憶装置、ネットワークに関するインタフェースである。入力装置20、入力デバイスとしてのモニタ30が受け付けた情報は、制御部170に転送される。また、超音波診断装置1によって得られた超音波画像などのデータは、インタフェース部190によって、ネットワークを介して他の装置へ転送することができる。
The
なお、装置本体100に内蔵される送信部110及び超音波受信部120等は、集積回路等のハードウェアで構成されることもあるが、ソフトウェア的にモジュール化されたプログラムにより実現される場合もある。
The
以上、第1の実施形態に係る超音波診断装置1の全体構成について説明した。ここで、超音波検査では、超音波画像を用いた種々の計測が行われる。かかる計測としては、操作者が2点の位置を指定して行なう距離計測や、操作者が閉じた曲線を描画して行なう面積計測等が挙げられる。計測の結果によって、診断部位の腫瘍が悪性であるか良性であるかの鑑別が行われたり、鑑別結果に応じて、治療方針や投薬方針の決定が行われたりするため、画像診断では、高い計測精度が要求される。 The overall configuration of the ultrasonic diagnostic apparatus 1 according to the first embodiment has been described above. Here, in the ultrasonic inspection, various measurements using an ultrasonic image are performed. Examples of such measurement include distance measurement performed by the operator specifying two positions, area measurement performed by drawing a closed curve by the operator, and the like. Depending on the result of the measurement, whether the tumor at the diagnosis site is malignant or benign is differentiated, and the treatment policy and medication policy are determined according to the discrimination result. Measurement accuracy is required.
しかし、入力装置20のマウスや、タッチペンや指を用いてモニタ30に表示された超音波画像に、複雑な腫瘍部位の輪郭を正確にトレースすることや、確実に正確な計測点を指定することは、困難である。
However, it is possible to accurately trace the contour of a complex tumor site on an ultrasonic image displayed on the
このようなことから、第1の実施形態に係る超音波診断装置1は、超音波画像に対する入力操作を容易にするため、以下に説明する制御部170の処理が行なわれる。すなわち、第1の実施形態に係る制御部170は、操作者が超音波画像上に指定した指定点の当該超音波画像における位置を取得する。そして、制御部170は、超音波画像において指定点を含んで指定点の位置から所定の範囲にある近傍領域の画像情報に基づいて、指定点の位置を修正する。そして、制御部170は、修正した位置の点を修正点として決定する。
For this reason, the ultrasonic diagnostic apparatus 1 according to the first embodiment performs the processing of the
以下、図2等を用いて、第1の実施形態に係る制御部170について詳細に説明する。図2は、第1の実施形態に係る制御部の構成例を示す図である。
Hereinafter, the
図2に例示するように、第1の実施形態に係る制御部170は、取得部171と決定部172と計測部173とを有する。なお、以下に説明する取得部171と決定部172との処理は、画像記憶部182から、操作者が入力装置20を介して指定した超音波画像がモニタ30に表示された後に行なわれる。
As illustrated in FIG. 2, the
取得部171は、上述したように、操作者が超音波画像上に指定した指定点の位置を取得する。図3及び図4は、第1の実施形態に係る取得部の処理を説明するための図である。例えば、図3の(A)に示すように、モニタ30は、組織の輪郭が低輝度の黒い曲線で描出されている超音波画像40を表示している。操作者は、モニタ30に表示された超音波画像40を参照して、距離計測用の点や、診断レポート用に矢印を挿入するための点を、輪郭上に指定する。かかる点は、例えば、操作者が入力装置20のマウスを用いて指定される。或いは、例えば、操作者がモニタ30の接触型スクリーンを指で押下することで、指定される。超音波画像40では、組織の輪郭が低輝度の黒い曲線で描出されている。
As described above, the
図3の(B)は、図3の(A)に示す超音波画像40において、操作者が着目する点を含む領域を模式的に画素(ピクセル)レベルまで拡大した拡大図である。図3の(B)では、画素ごとの輝度値を、ドットの密度で示している。図3の(B)では、輝度値が低いほど、ドットの密度を高くして示している。ここで、画素51や画素52は、図3の(A)に示す超音波画像40において輪郭として描出された画素である。ここで、最も輝度値が低く、輪郭において最も左に位置する画素52を、操作者が指定したかった正解の点(正解点)とする。
FIG. 3B is an enlarged view in which, in the
例えば、正解点である画素52をマウスで指定する場合、通常、マウスカーソルの先端は、1画素を指示することができる。マウス入力の場合、取得部171は、マウスで指定された点の位置を指定点の位置として取得する。しかし、マウス入力の場合、操作者がマウスカーソルを画素52に移動することは可能であるが、画素52を正確に指定するためには、操作者は、慎重に時間をかけてマウスを操作する必要がある。このため、マウス入力で指定された指定点は、必ずしも正解点である画素52にはならない場合がある。
For example, when the
更に、例えば、指先によるタッチ入力の場合、指先が接触型スクリーンに触れる面積は、広くなるため、操作者がいくら慎重に操作しても、正解点である画素51を指定するのは困難である。
Furthermore, for example, in the case of touch input with a fingertip, the area where the fingertip touches the contact-type screen is widened, so that it is difficult to specify the
指先によるタッチ入力の場合、モニタ30の接触型スクリーンにおいて操作者の指先が触れる領域は、1画素ではなく、例えば、図4の(A)にて実線で囲まれた複数の画素からなる領域531となる。タッチ入力の場合、取得部171は、接触型スクリーンにおいて最初に指先が触れられた位置に対応する画素の位置を指定点の位置として取得する。或いは、取得部171は、領域531の重心位置に対応する画素の位置を指定点の位置として取得する。例えば、取得部171は、図4の(B)に示すように、画素52ではなく、画素52の右に位置する画素53を指定点とし、画素53の位置を指定点の位置として取得する。
In the case of touch input by a fingertip, the area touched by the operator's fingertip on the contact-type screen of the
図2に示す決定部172は、指定点を含んで指定点の位置から所定の範囲にある近傍領域の画像情報を設定する。具体的には、図2に示す情報記憶部183は、超音波画像において指定点を含んで指定点の位置から所定の範囲にある近傍領域の画像情報に基づいて指定点の位置を修正する、複数の修正モードを記憶する。そして、決定部172は、複数の修正モードの内から1つの修正モードを選択して指定点の位置を修正し、修正した位置の点を修正点として決定する。以下では、上記の近傍領域を「入力近傍エリア」と記載する。例えば、指定点である画素53の超音波画像40における位置を(x,y)とする。決定部172は、情報記憶部183に格納されている係数「a」を用いて入力近傍エリアを設定する。係数「a」は、所定の範囲を設定する値として予め設定される設定値である。或いは、係数「a」は、超音波画像40を読み込む際に、操作者により設定されても良い。図5は、第1の実施形態に係る取得部が設定する入力近傍エリアの一例を示す図である。
The
例えば、設定値「4(単位:画素)」が情報記憶部183に格納されているとする。かかる場合、決定部172は、図5に示すように、「(x−4,y−4)、(x+4,y−4)、(x−4,y+4)、(x+4,y+4)」を頂点とする四角形内の画素群で構成される領域54を入力近傍エリアとして設定する。指定点である画素53や、正解点である画素52は、入力近傍エリアとして設定された正方形の領域54内に含まれる。なお、「a」の値は、任意の値を設定可能であり、「a」の単位も、例えば、長さのように、任意に設定可能である。また、入力近傍エリアの形状は、例えば、長方形や、円、楕円、リング状のように、任意の形状を設定可能である。
For example, it is assumed that the setting value “4 (unit: pixel)” is stored in the
そして、決定部172は、入力近傍エリアの画像情報に基づいて、指定点の位置を修正し、修正した位置の画素を修正点として決定する。具体的には、決定部172は、複数の修正モードの内から1つの修正モードを選択して指定点の位置を修正し、修正した位置の点を修正点として決定する。より具体的には、決定部172は、入力近傍エリアの画像情報に基づいて、複数の修正モードの内から1つの修正モードを選択する。決定部172が決定する修正点は、入力近傍エリアの画像情報に基づいて、正解点を推定した点となる。以下、決定部172が行なう2つの決定方法について説明する。以下の2つの決定方法は、決定部172が選択する修正モードに基づく決定方法である。
Then, the
まず、第1の決定方法について説明する。決定部172は、第1の決定方法として、入力近傍エリアを構成する画素の輝度値の分布に基づいて、修正点を決定する。すなわち、決定部172は、情報記憶部183に記憶される複数の修正モードの少なくとも1つである「入力近傍エリアを構成する画素の輝度値の分布に基づいて、修正点を決定する修正モード」を選択する。図6は、第1の実施形態に係る決定部が実行する第1の決定方法を説明するための図である。
First, the first determination method will be described. As a first determination method, the
第1の決定方法は、輝度値の分布が偏っている領域54のように、輪郭部の輝度値が、通常、輪郭部の周囲と異なっていることに基づいた方法であり、入力近傍エリアにおいて、輝度値が最大となる点、又は、輝度値が最小となる点を修正点とする方法である。
The first determination method is a method based on the fact that the brightness value of the contour part is usually different from the periphery of the contour part as in the
まず、第1の決定方法を実行する場合、決定部172は、入力近傍エリアの輝度値の分布から輝度値が最大となる点を修正点として採用するか、輝度値が最小となる点を修正点として採用するかを判定する。
First, when the first determination method is executed, the
例えば、決定部172は、入力近傍エリアを構成する画素の輝度値の所定方向におけるプロファイルを生成する。例えば、所定方向が横方向(超音波画像の方位方向)である場合、決定部172は、図6の(A)に示すように、領域54を用いて、9個の横方向の輝度プロファイルを生成する。決定部172は、図6の(A)に示すように、9個の輝度プロファイルそれぞれの形状が下に凸となる谷型である、すなわち、9個の輝度プロファイルそれぞれで低輝度値が低頻度であることから、輝度値が最小となる点を修正点として採用すると判定する。
For example, the
なお、決定部172は、横方向だけでなく、縦方向(超音波画像の深さ方向)や、斜め方向のプロファイルを生成して、複数所定方向のプロファイルの形状から、上記の判定処理を行なっても良い。
Note that the
そして、決定部172は、図6の(B)に示すように、9個の輝度プロファイルの中で輝度値が最小となる点である画素52を修正点と決定する。すなわち、決定部172は、指定点「画素53」の正解点を、修正点「画素52」として推定する。なお、輝度値が最大となる点を修正点として採用すると判定した場合、決定部172は、輝度値が最大となる画素を修正点と決定する。
Then, as illustrated in FIG. 6B, the
制御部170は、操作者が指定した「画素53」を「画素52」に変更してモニタ30に表示する。また、図3に示す計測部173は、修正点の位置と、操作者が指定した計測項目とに基づいて計測を行なう。
The
なお、採用を判定する方法は、以下の方法で行なわれても良い。例えば、決定部172は、入力近傍エリアの輝度値のヒストグラムを生成する。そして、決定部172は、高輝度とされる輝度値の閾値と、低輝度とされる輝度値の閾値とから、高輝度画素数と、低輝度画素数とを算出する。そして、決定部172は、高輝度画素数と低輝度画素数との比率又は差分値を算出し、比率又は差分値を予め設定された判定用の閾値と比較する。決定部172は、比較処理の結果、高輝度の画素が高頻度である場合、輝度値が最小となる点を修正点として採用すると判定する。また、決定部172は、比較処理の結果、ヒストグラムにおいて低輝度の画素が高頻度である場合、輝度値が最大となる点を修正点として採用すると判定する。
In addition, the method of determining adoption may be performed by the following method. For example, the
例えば、決定部172は、領域54の輝度値のヒストグラムから、高輝度画素(図5に示す領域54の白い画素)の画素数「68」が、低輝度画素(図5に示す領域54の白い画素以外の画素)の画素数「13」より多く、差分値「55」が判定用閾値「50」より大きいことから、輝度値が最小となる点を修正点として採用すると判定する。
For example, the
なお、輝度値が極値となる点が複数であり、複数の修正点の候補点がある場合、決定部172は、例えば、入力近傍エリアの中心である指定点に最も近い点を修正点として決定する。或いは、決定部172は、例えば、操作者が指定した計測モードの情報を用いて、複数の候補点から修正点を決定しても良い。すなわち、入力装置20は、超音波画像の計測項目の指定を受け付ける。そして、取得部171は、指定点の位置を取得し、決定部172は、計測項目に基づいて定まる所定の修正モードに応じて、指定点の位置を修正し、修正した位置の点を修正点として決定する。例えば、操作者が指定した計測項目が距離計測であり、2つの指定点が取得されているとする。決定部172は、第1の決定方法により、複数の候補点を決定する。そして、決定部172は、第1の決定方法の修正モードであって、第1の決定方法における距離計測モード指定時の修正モードに応じて、2つの指定点を結ぶ線分の方向を取得し、取得した方向において、指定点に最も近い候補点を修正点として決定する。
When there are a plurality of points where the luminance value is an extreme value and there are a plurality of candidate points for correction points, the
次に、第2の決定方法について説明する。決定部172は、第2の決定方法として、入力近傍エリアを構成する画素の輝度値の空間微分に基づいて、修正点を決定する。すなわち、決定部172は、情報記憶部183に記憶される複数の修正モードの少なくとも1つである「入力近傍エリアを構成する画素の輝度値の空間微分に基づいて、修正点を決定する修正モード」を選択する。第2の決定方法は、輝度値が変化する境界部分が指定される場合に有用な方法である。図7は、第1の実施形態に係る決定部が実行する第2の決定方法を説明するための図である。
Next, the second determination method will be described. As a second determination method, the
まず、第2の決定方法を実行する場合でも、決定部172は、入力近傍エリアを設定する。例えば、図7の(A)に示すように、取得部171から指定点である画素55の位置が出力されたとする。かかる場合、決定部172は、図7の(A)に示すように、指定点である画素55の位置から、入力近傍エリアとして領域56を設定する。領域56は、図7の(A)に示すように、異なる輝度値を有する2つの領域により境界が形成されている。
First, even when the second determination method is executed, the
決定部172は、領域56に対して空間微分を演算する。そして、決定部172は、例えば、図7の(B)に示すように、空間微分値(の絶対値)を画素値とする画像を生成する。図7の(B)に示す画像には、白い線で境界部分が描出される。
The
決定部172は、例えば、図7の(C)に示すように、指定点である画素55に近接する境界部分が左側に凸の形状であることから、指定点である画素55の左側に位置して境界部分を形成する画素を探索する。これにより、決定部172は、図7の(C)に示すように、横方向の位置が同じであり、縦方向の位置が異なる4つの画素A〜Dを、修正点の候補点とする。
For example, as illustrated in FIG. 7C, the
ここで、決定部172は、指定点である画素55に最も近い画素Cを修正点として決定する。或いは、決定部172は、上述したように、操作者が指定した計測項目の情報を用いて、複数の候補点から修正点を決定しても良い。すなわち、入力装置20は、超音波画像の計測項目の指定を受け付ける。そして、取得部171は、指定点の位置を取得し、決定部172は、計測項目に基づいて定まる所定の修正モードに応じて、指定点の位置を修正し、修正した位置の点を修正点として決定する。例えば、操作者が指定した計測モードが距離計測であり、2つの指定点が取得されているとする。決定部172は、第2の決定方法により、複数の候補点を決定する。そして、例えば、決定部172は、第2の決定方法の修正モードであって、第2の決定方法における距離計測モード指定時の修正モードに応じて、距離計測で指定された2つの指定点を結ぶ線分の方向において、指定点である画素55に最も近い画素Bを修正点として決定する。制御部170は、操作者が指定した「画素55」を「画素B」に変更してモニタ30に表示する。また、図3に示す計測部173は、修正点の位置と、操作者が指定した計測項目とに基づいて計測を行なう。
Here, the
このように、第1の実施形態に係る制御部170は、操作者が大まかに点を指定するだけで、指定した位置を自動的に修正する。なお、上記では、操作者により点が指定される場合について説明したが、第1の実施形態は、例えば、操作者により面積計測のための曲線が描画された場合であっても適用可能である。図8及び図9は、第1の実施形態の変形例を説明するための図である。
As described above, the
例えば、操作者は、図8の左図に示すように、瓢箪形の腫瘍部位において、小さい楕円形の部位の面積計測を行なうために、モニタ30のスクリーンの表面において、楕円形の曲線57を指で適当に描画する。かかる場合、取得部171は、操作者が指定した曲線57を、複数の指定点の集合とし、かかる複数の指定点の位置を取得する。決定部172は、複数の指定点それぞれを中心とする入力近傍エリアを設定することで、図8の中図に示すように、入力近傍エリアの集合である領域58を設定する。
For example, as shown in the left diagram of FIG. 8, the operator sets an
そして、決定部172は、領域58において、第1の決定方法や第2の決定方法を実行することで、図8の右図に示すように、修正点の集合である修正曲線59を決定する。なお、領域58では、一部境界が存在しない箇所がある。このため、実線で示す修正曲線59は、図8の右図に示すように、端点を有する開曲線となる。一方、操作者が指定した曲線57は、図8の左図に示すように、閉曲線である。
Then, the
そこで、決定部172は、修正曲線59の2つの端点を滑らかに結ぶ補間曲線591を形成する修正点の集合を決定する。そして、決定部172は、修正曲線59及び補間曲線591を最終的に出力し、制御部170は、修正曲線59及び補間曲線591をモニタ30に表示させる。
Therefore, the
また、第1の実施形態は、取得部171が以下の補間処理を行なう場合であっても良い。図9に示す一例では、操作者は、閉じた境界部分に対して、大まかに指で太い開曲線571を描画している。かかる場合、取得部171は、開曲線571を形成する複数の指定点の位置を取得するとともに、開曲線571の2つの端点に対応する2つの指定点を結ぶ補間曲線を形成する指定点を設定する。そして、取得部171は、閉曲線となる複数の指定点の位置を決定部172に出力する。決定部172は、閉曲線となる複数の指定点の位置から入力近傍エリアを設定する。そして、決定部172は、図9に示すように、修正点の集合である修正曲線592を決定する。図8や図9を用いて説明した決定方法を行なうための修正モードも、情報記憶部183に記憶されている。
Further, the first embodiment may be a case where the
次に、図10を用いて、第1の実施形態に係る超音波診断装置1による処理の手順について説明する。図10は、第1の実施形態に係る超音波診断装置による処理手順を示すフローチャートである。なお、図10では、超音波画像がモニタ30に表示された後の処理について説明する。
Next, a procedure of processing performed by the ultrasonic diagnostic apparatus 1 according to the first embodiment will be described with reference to FIG. FIG. 10 is a flowchart illustrating a processing procedure performed by the ultrasonic diagnostic apparatus according to the first embodiment. In FIG. 10, processing after the ultrasonic image is displayed on the
図10に示すように、超音波診断装置1の制御部170は、操作者から指定点の入力を受け付けたか否かを判定する(ステップS101)。ここで、指定点の入力を受け付けない場合(ステップS101否定)、制御部170は、指定点の入力を受け付けるまで待機する。
As illustrated in FIG. 10, the
一方、指定点の入力を受け付けた場合(ステップS101肯定)、取得部171は、指定点の位置を取得する(ステップS102)。そして、決定部172は、指定点の位置から入力近傍エリアを設定する(ステップS103)。
On the other hand, when the input of the designated point is received (Yes at Step S101), the
そして、決定部172は、入力近傍エリアの画像情報に基づいて、指定点の位置を修正し、修正点を決定する(ステップS104)。そして、モニタ30は、修正点を表示し(ステップS105)、処理を終了する。なお、図示しないが、ステップS104の後、計測部173の計測処理が行なわれる。なお、モニタ30は、制御部170の制御により、指定点と修正点との位置が異なる場合、指定点及び修正点を、例えば、色を変えたうえで、同時に表示する場合であっても良い。
Then, the
上述したように、第1の実施形態では、操作者が指定した点が複数点から構成される領域であっても、当該領域で代表的な1点を指定点とし、指定点の位置を取得する。そして、第1の実施形態では、取得した指定点の位置から、超音波画像上に、指定点を含む入力近傍エリアを設定する。そして、第1の実施形態では、入力近傍エリアに限定して、輝度値や微分値の分布を用いたエッジ処理を行なうことで修正点を決定する。 As described above, in the first embodiment, even if the point designated by the operator is an area composed of a plurality of points, a representative point is designated as the designated point in the area, and the position of the designated point is acquired. To do. In the first embodiment, an input vicinity area including the designated point is set on the ultrasonic image from the position of the obtained designated point. In the first embodiment, the correction point is determined by performing edge processing using the distribution of luminance values and differential values only in the input vicinity area.
すなわち、第1の実施形態では、正解点近傍に位置することが推定される指定点を中心とする入力近傍エリアで局所的なエッジ処理を行なうことで、処理に要する負荷を軽減して正解点を推定した修正点の決定を精度よく行なうことができる。 In other words, in the first embodiment, by performing local edge processing in an input vicinity area centering on a designated point that is estimated to be located in the vicinity of the correct answer point, the load required for the processing is reduced and the correct answer point is reduced. It is possible to accurately determine a correction point that estimates.
このように、第1の実施形態では、指定点の指定が操作者のタッチパネルへの指入力により行なわれる場合のように、点や曲線を大まかに指定するという適当な操作者の入力操作のみで、自動的に指定点や指定点の集合である指定曲線が精度よく修正されるので、超音波画像に対する入力操作を容易にすることができる。 As described above, in the first embodiment, only when the designated point is specified by roughly inputting a point or a curve, as in the case where the designated point is designated by finger input on the touch panel of the operator. Since the designated point and the designated curve which is a set of designated points are automatically corrected with high accuracy, the input operation for the ultrasonic image can be facilitated.
(第2の実施形態)
第2の実施形態では、決定部172が、操作者が指定点を入力した目的に応じて、修正点の決定に用いる方法、すなわち、修正モードを変更する場合について説明する。
(Second Embodiment)
In the second embodiment, a method will be described in which the
第2の実施形態に係る超音波診断装置2について説明する。第2の実施形態に係る超音波診断装置2の構成は、図1に例示した超音波診断装置1の構成と略同一であるので、図示することを省略する。ただし、第2の実施形態に係る制御部170の構成は、図2に示す第1の実施形態に係る制御部170と異なる。図11は、第2の実施形態に係る制御部の構成例を示す図である。
An ultrasonic diagnostic apparatus 2 according to the second embodiment will be described. Since the configuration of the ultrasonic diagnostic apparatus 2 according to the second embodiment is substantially the same as the configuration of the ultrasonic diagnostic apparatus 1 illustrated in FIG. 1, illustration thereof is omitted. However, the configuration of the
第2の実施形態に係る制御部170は、図11に示すように、取得部171及び決定部172に加え、推定部174を有する。なお、第2の実施形態に係る取得部171は、第1の実施形態と同様に、指定点の位置を取得する。
As illustrated in FIG. 11, the
図11に示す推定部174は、指定点が入力される前に入力された超音波画像に関する事前情報に基づいて、操作者が指定点を入力した目的を推定する。すなわち、推定部174は、指定点を入力するためにモニタ30に表示されている超音波画像に関する事前情報を情報記憶部183から取得して、指定点の入力目的を推定する。
The
すなわち、第2の実施形態では、推定部174が、操作者から直接的に入力目的を示す情報である「直接情報」でない「事前情報」を用いて、入力目的を推定し、決定部172が、推定された入力目的から修正点の決定アルゴリズムを変更する。
That is, in the second embodiment, the
以下、「事前情報」について説明する。上記の「直接情報」は、計測の具体的な項目の宣言等のことである。例えば、操作者が「ドプラ自動トレース」ボタンを押下した場合、入力目的は、「ドプラ波形の輪郭をトレースすること」である。また、例えば、操作者が「卵胞面積計測」ボタンを押下した場合、入力目的は、「卵胞の境界を自動認識して面積を算出すること」である。これら各種の目的に特化した自動化のアルゴリズムに関しては各々研究成果が報告されており、実用化されているアルゴリズムもある。 Hereinafter, the “preliminary information” will be described. The above "direct information" is a declaration of specific items of measurement. For example, when the operator presses a “Doppler automatic trace” button, the input purpose is “to trace the contour of the Doppler waveform”. For example, when the operator presses the “measure follicle area” button, the input purpose is “automatically recognize the follicular boundary to calculate the area”. Research results have been reported for automation algorithms specialized for these various purposes, and some algorithms have been put into practical use.
一方、本実施形態で用いられる「事前情報」は、臨床検査の情報として超音波診断装置2に事前に入力される情報であり、例えば、図12に示す情報である。図12は、第2の実施形態で用いられる事前情報の一例を示す図である。例えば、「事前情報」の項目は、図12に示すように、被検体Pが受診する「診断領域、疾患領域」である。「診断領域、疾患領域」に入力される具体的な情報としては、例えば、図12に示すように、「乳がん検診」や「肝腫瘍精査」等が挙げられる。 On the other hand, the “preliminary information” used in the present embodiment is information input in advance to the ultrasonic diagnostic apparatus 2 as clinical examination information, for example, information illustrated in FIG. FIG. 12 is a diagram illustrating an example of prior information used in the second embodiment. For example, as shown in FIG. 12, the item “prior information” is “diagnosis region, disease region” where the subject P consults. Specific information input to “diagnosis area, disease area” includes, for example, “breast cancer screening”, “hepatic tumor screening”, and the like, as shown in FIG.
また、例えば、「事前情報」の項目は、図12に示すように、超音波診断装置2が設置されている「設置環境」である。「設置環境」に入力される具体的な情報としては、例えば、図12に示すように、「血管系診断専用装置」や「乳がん検診専用装置」等が挙げられる。また、例えば、「事前情報」の項目は、図12に示すように、操作者が撮影時に超音波画像のアノテーションとして初期設定したデータである「プリセット」である。「プリセット」に入力される具体的な情報としては、例えば、図12に示すように、「心臓」や「肝臓」、「甲状腺」等が挙げられる。 Further, for example, the item “prior information” is “installation environment” in which the ultrasonic diagnostic apparatus 2 is installed as shown in FIG. Specific information input to the “installation environment” includes, for example, “dedicated apparatus for vascular system diagnosis” and “dedicated apparatus for breast cancer screening” as shown in FIG. Further, for example, as shown in FIG. 12, the item “prior information” is “preset” which is data initially set by the operator as an annotation of an ultrasonic image at the time of photographing. Specific information input to “preset” includes, for example, “heart”, “liver”, “thyroid”, etc., as shown in FIG.
また、例えば、「事前情報」の項目は、図12に示すように、撮影に使用される超音波プローブ10の種類の情報である「プローブ種類」である。「プローブ種類」に入力される具体的な情報としては、例えば、図12に示すように、「腹部用3MHzプローブ」や「乳腺用12MHzプローブ」等が挙げられる。
Further, for example, the item “prior information” is “probe type” which is information on the type of the
推定部174は、図12に例示した事前情報から、入力目的を推定する。例えば、「設置環境」が「血管系診断専用装置」である場合、推定部174は、血管に関する計測を行なうために、操作者が指定点を入力すると事前に推定する。或いは、例えば、「プローブ種類」が「乳腺用12MHzプローブ」である場合、推定部174は、乳腺に関する計測を行なうために、操作者が指定点を入力すると事前に推定する。或いは、例えば、「プリセット」が「肝臓」である場合、推定部174は、肝臓に関する計測を行なうために、操作者が指定点を入力すると事前に推定する。なお、本実施形態は、「事前情報」とともに、計測前に操作者が入力装置20を用いて入力する「計測項目」である「距離計測」や「面積計測」を用いて、入力目的を推定する場合であっても良い。すなわち、本実施形態は、「計測項目」を「事前情報」として用いる場合であっても良い。
The
そして、決定部172は、推定された入力目的に応じた修正点の決定アルゴリズムである修正モードを選択する。図13及び図14は、第2の実施形態に係る推定部及び決定部の処理の一例を示す図である。
Then, the
例えば、図13の(A)に示すように、管腔の壁に領域60及び領域61が操作者の指により指定されたとする。取得部171は、例えば、領域60の重心の位置を指定点の位置として取得し、領域61の重心の位置を指定点の位置として取得する。
For example, as shown in FIG. 13A, it is assumed that the
図13の(B)は、2つの指定点を結ぶ線における管腔の輝度値のプロファイルを示す。図13の(B)に示すプロファイルにおいて、点62を頂点とする山及び点63を頂点とする山それぞれは、管腔の壁に相当し、点62を頂点とする山と点63を頂点とする山とで挟まれる部分が管腔内に相当する。すなわち、図13の(B)に示す点64と点65とで挟まれる部分が管腔内に相当する。ここで、点64は、点62を頂点とする山の裾野に位置する点であり、点65は、点63を頂点とする山の裾野に位置する点となる。
FIG. 13B shows a profile of the luminance value of the lumen in a line connecting two specified points. In the profile shown in FIG. 13B, each of the peak having the
ここで、管腔である血管の距離計測が行なわれる場合、通常、IMT(Intima Media Thickness)の計測が行なわれる。かかる場合、領域60の正解点は、点64であり、領域61の正解点は、点65である。一方、一般的に、乳管や肝管等の管腔で距離計測が行なわれる場合、領域60の正解点は、点62であり、領域61の正解点は、点63である。
Here, when measuring the distance of a blood vessel that is a lumen, IMT (Intima Media Thickness) is usually measured. In such a case, the correct answer point of the
しかし、領域60には、点62及び点64双方が含まれる場合があり、また、領域61には、点63及び点65双方が含まれる場合がある。そこで、決定部172は、入力近傍エリアを構成する画素の輝度値の所定方向(例えば、2つの指定点を結ぶ線分の方向)におけるプロファイルにおいて、輝度値が極値となる点を修正点として用いるか、輝度値が極値となる点の近傍にて輝度値が略一定となる点を修正点として用いるかを、入力目的に応じて選択する。以下では、前者の決定アルゴリズムを、第1アルゴリズムとし、後者の決定アルゴリズムを、第2アルゴリズムと記載する。輝度値の分布を用いる第1アルゴリズム及び第2アルゴリズムは、第1の実施形態で説明した第1の決定方法のアルゴリズムを、入力目的に応じて変更したアルゴリズムとなる。すなわち、第1アルゴリズム及び第2アルゴリズムそれぞれは、情報記憶部183が記憶する複数の修正モードの内の1つであり、決定部172は、入力目的に応じた修正モードとして、第1アルゴリズム又は第2アルゴリズムを選択する。
However, the
仮に、推定部174の推定結果が「乳腺に関する計測」である場合、決定部172は、距離計測が行なわれる場合の決定アルゴリズムを第1アルゴリズムとする。そして、決定部172は、2つの指定点の位置が出力された場合、或いは、「距離計測」ボタンが押下された場合、図14の(A)に示すように、領域60の指定点を含む入力近傍エリアの輝度プロファイルから修正点を点62と決定し、領域61の指定点を含む入力近傍エリアの輝度プロファイルから修正点を点63と決定する。
If the estimation result of the
一方、推定部174の推定結果が「血管に関する計測」である場合、決定部172は、距離計測が行なわれる場合の決定アルゴリズムを第2アルゴリズムとする。そして、決定部172は、2つの指定点の位置が出力された場合、或いは、「距離計測」ボタンが押下された場合、図14の(B)に示すように、領域60の指定点を含む入力近傍エリアの輝度プロファイルから修正点を点64と決定し、領域61の指定点を含む入力近傍エリアの輝度プロファイルから修正点を点65と決定する。
On the other hand, when the estimation result of the
なお、決定部172は、第1の実施形態で説明した第2の決定方法のアルゴリズムを、入力目的に応じて変更したアルゴリズムを用いる場合であっても良い。図13の(C)は、2つの指定点を結ぶ線における管腔の輝度値の微分値のプロファイルを示す。図13の(C)に示すプロファイルにおいても、点62を頂点とする山及び点63を頂点とする山それぞれは、管腔の壁に相当し、点64と点65とで挟まれる部分が管腔内に相当する。ここで、点62及び点63は、図13の(C)に示すように、入力近傍エリアを構成する画素の輝度値の微分値の所定方向における微分値プロファイルにおいて、微分値が極値となる点である。また、点64及び点65は、図13の(C)に示すように、入力近傍エリアを構成する画素の輝度値の微分値の所定方向における微分値プロファイルにおいて、微分値が極値となる点の近傍にて微分値が略一定となる点である。
The
そこで、決定部172は、微分値プロファイルにおいて、微分値が極値となる点を修正点として用いるか、微分値が極値となる極値となる点の近傍にて微分値が略一定となる点を修正点として用いるかを、目的に応じて選択する。前者を第3アルゴリズム、後者を第4アルゴリズムとすると、推定部174の推定結果が「乳腺に関する計測」である場合、決定部172は、第3アルゴリズムを選択する。また、推定部174の推定結果が「血管に関する計測」である場合、決定部172は、第4アルゴリズムを選択する。すなわち、第3アルゴリズム及び第4アルゴリズムそれぞれは、情報記憶部183が記憶する複数の修正モードの内の1つであり、決定部172は、入力目的に応じた修正モードとして、第3アルゴリズム又は第4アルゴリズムを選択する。
Therefore, the
なお、決定部172の決定アルゴリズム選択処理は、面積計測においても実行される。例えば、「プリセット」が「心臓」である場合、推定部174は、心臓に関する計測を行なうために、操作者が指定点を入力すると事前に推定する。そして、操作者が、超音波画像に描出された左心室を大まかに指でなぞったうえで、「駆出率計測」ボタンを押下した場合、決定部172は、心筋外膜や、心壁でなく、心筋内膜に相当する点である修正点の集合を修正曲線として決定する。或いは、操作者が、超音波画像に描出された左心室を大まかに指でなぞったうえで、「心筋容積計測」ボタンを押下した場合、心筋外膜に相当する修正点の集合である修正曲線と、心筋内膜に相当する修正点の集合である修正曲線とを決定する。かかる修正モードも、情報記憶部183に記憶されている。
Note that the determination algorithm selection processing of the
次に、図15を用いて、第2の実施形態に係る超音波診断装置1による処理の手順について説明する。図15は、第2の実施形態に係る超音波診断装置による処理手順を示すフローチャートである。 Next, a procedure of processing performed by the ultrasonic diagnostic apparatus 1 according to the second embodiment will be described with reference to FIG. FIG. 15 is a flowchart illustrating a processing procedure performed by the ultrasonic diagnostic apparatus according to the second embodiment.
図15に示すように、超音波診断装置1の制御部170は、事前情報が入力されたか否かを判定する(ステップS201)。ここで、事前情報が入力されない場合(ステップS201否定)、制御部170は、事前情報が入力されるまで待機する。
As illustrated in FIG. 15, the
一方、事前情報が入力された場合(ステップS201肯定)、推定部174は、事前情報から目的(入力目的)を推定する(ステップS202)。そして、制御部170は、超音波画像が表示されて、計測開始指示が入力されたか否かを判定する(ステップS203)。ここで、計測開始指示が入力されない場合(ステップS203否定)、制御部170は、計測開始指示が入力されるまで待機する。
On the other hand, when prior information is input (Yes at Step S201), the
一方、計測開始指示が入力された場合(ステップS203肯定)、決定部172は、入力目的に応じた決定アルゴリズムを選択し(ステップS204)、取得部171は、操作者から指定点の入力を受け付けたか否かを判定する(ステップS205)。ここで、指定点の入力を受け付けない場合(ステップS205否定)、制御部170は、指定点の入力を受け付けるまで待機する。
On the other hand, when a measurement start instruction is input (Yes at Step S203), the
一方、指定点の入力を受け付けた場合(ステップS205肯定)、取得部171は、指定点の位置を取得する(ステップS206)。そして、決定部172は、指定点の位置から入力近傍エリアを設定する(ステップS207)。
On the other hand, when the input of the designated point is received (Yes at Step S205), the
そして、決定部172は、入力近傍エリアの画像情報及び選択した決定アルゴリズムに基づいて、指定点の位置を修正し、修正点を決定する(ステップS208)。そして、モニタ30は、修正点を表示し(ステップS209)、処理を終了する。なお、図示しないが、ステップS209の後、計測部173の計測処理が行なわれる。なお、モニタ30は、制御部170の制御により、指定点と修正点との位置が異なる場合、指定点及び修正点を、例えば、色を変えたうえで、同時に表示する場合であっても良い。
Then, the
上述したように、第2の実施形態では、計測目的に応じて最適なアルゴリズムが変化することに対応するために、超音波検査のワークフローで通常入力される事前情報を用いて診断部位等の入力目的を推定する。そして、第2の実施形態では、推定した目的から、最適なアルゴリズムを選択する。これにより、第2の実施形態では、操作者が特別な情報を入力することなく、操作者の要望に合致した修正点を決定することができる。 As described above, in the second embodiment, in order to cope with the change of the optimal algorithm according to the measurement purpose, input of a diagnosis region or the like is performed using prior information normally input in an ultrasonic examination workflow. Estimate the purpose. In the second embodiment, an optimal algorithm is selected based on the estimated purpose. Thereby, in the second embodiment, it is possible to determine a correction point that matches the operator's request without the operator inputting special information.
(第3の実施形態)
第3の実施形態では、入力目的の推定対象となる情報を超音波画像から取得する場合について、図16を用いて説明する。図16は、第3の実施形態を説明するための図である。
(Third embodiment)
In the third embodiment, a case where information to be input target estimation target is acquired from an ultrasound image will be described with reference to FIG. FIG. 16 is a diagram for explaining the third embodiment.
第3の実施形態に係る超音波診断装置3について説明する。第3の実施形態に係る超音波診断装置3の構成は、図1に例示した超音波診断装置1の構成と略同一であるので、図示することを省略する。また、第3の実施形態に係る制御部170の構成は、図11に例示した第2の実施形態に係る制御部170の構成と略同一であるので、図示することを省略する。ただし、第3の実施形態に係る制御部170の推定部174は、以下の推定処理を行なう。すなわち、第3の実施形態に係る推定部174は、超音波画像の特徴量に基づいて、当該超音波画像に描出される診断部位を入力目的の1つとして推定する。
An ultrasonic diagnostic apparatus 3 according to the third embodiment will be described. Since the configuration of the ultrasonic diagnostic apparatus 3 according to the third embodiment is substantially the same as the configuration of the ultrasonic diagnostic apparatus 1 illustrated in FIG. 1, illustration thereof is omitted. The configuration of the
すなわち、第3の実施形態に係る推定部174は、現在表示されている超音波画像を用いた「シーン認識」により入力目的の推定を行なう。各々の診断領域で描出される臓器には、臓器特有のパターンがある。そこで、例えば、記憶部180に「各臓器の特徴的なパターンが描出された超音波画像」を格納しておく。推定部174は、現在表示されている超音波画像を、記憶部180に格納されている各種臓器の超音波画像と比較することで、表示画像に描出されている臓器を推定することで、診断部位の推定を行なう。
That is, the
或いは、例えば、記憶部180に「各臓器の特徴的なパターンが描出された超音波画像の特徴量」を格納しておく。推定部174は、現在表示されている超音波画像の特徴量を抽出する。そして、推定部174は、抽出した特徴量と、記憶部180に格納されている各種臓器の特徴量と比較することで、表示画像に描出されている臓器を推定することで、診断部位の推定を行なう。例えば、推定部174は、図16に示すように、表示画像に描出されている臓器が肝臓であると推定し、「診断部位:肝臓」を出力する。
Alternatively, for example, “a feature amount of an ultrasonic image in which a characteristic pattern of each organ is depicted” is stored in the
かかる処理により推定された診断部位は、第2の実施形態で説明した事前情報と同様に、決定部172に通知され、決定部172は、決定アルゴリズムの選択を行なう。例えば、決定部172は、「診断部位:肝臓」であることから、距離計測が行なわれる場合は、第1アルゴリズム、又は、第2アルゴリズムを選択する。
The diagnosis part estimated by such processing is notified to the
上述したように、第3の実施形態では、超音波画像から診断部位を推定するので、入力目的の推定精度を向上させることができる。 As described above, in the third embodiment, since the diagnosis site is estimated from the ultrasound image, it is possible to improve the estimation accuracy of the input purpose.
なお、上述した第1〜第3の実施形態では、入力近傍エリアのサイズが固定である場合について説明した。しかし、上述した第1〜第3の実施形態は、入力目的に応じて、入力近傍エリアのサイズが変更される場合であっても良い。図17は、入力近傍エリアの変形例を説明するための図である。 In the first to third embodiments described above, the case where the size of the input vicinity area is fixed has been described. However, in the first to third embodiments described above, the size of the input vicinity area may be changed according to the input purpose. FIG. 17 is a diagram for explaining a modification of the input vicinity area.
すなわち、決定部172は、入力目的に応じて、入力近傍エリアのサイズを設定するための「所定の範囲」を変更する。例えば、図17に示すように、指定点として1点の点66の位置しか取得されていないにも関わらず、操作者が「面積計測」ボタンが押下されたとする。かかる場合、決定部172は、点66を中心とする「9ピクセル×9ピクセル」の入力近傍エリアを変更する。例えば、決定部172は、図17に示すように、点66を中心とする楕円67に変更する。ここで、決定部172は、楕円のサイズが画像サイズの500分の1となるように長軸及び短軸の長さを設定して、楕円67を入力近傍エリアとして設定する。そして、決定部172は、例えば、図8を用いて説明した処理により、修正曲線を決定する。なお、図17を用いて説明した決定方法を規定した修正モードも、情報記憶部183に記憶されている。
That is, the
かかる変形例では、操作者は、例えば、1点を指定する入力操作と、「面積計測」ボタンを押下する入力操作とを行なうだけで、面積計測のための曲線のトレース結果を自動的に得ることができる。本変形例によれば、超音波画像に対する入力操作を更に容易にすることができる。 In such a modification, the operator automatically obtains a trace result of a curve for area measurement only by performing an input operation for specifying one point and an input operation for pressing an “area measurement” button, for example. be able to. According to this modification, it is possible to further facilitate an input operation on the ultrasonic image.
なお、上述した第1の実施形態〜第3の実施形態及び変形例では、Bモード画像の画素の値(輝度値)を用いて修正点を決定する場合について説明した。しかし、上述した第1の実施形態〜第3の実施形態及び変形例では、超音波診断装置が生成するBモード画像以外の超音波画像の各ピクセルに割り当てられた値(計測値)を用いて修正点を決定する場合であっても良い。例えば、決定部172は、カラードプラ像において各ピクセルに割り当てられた「速度値」、「パワー値」、「分散値」の分布、又は、「速度値」や「パワー値」、「分散値」の空間微分に基づいて修正点を決定する場合であっても良い。或いは、例えば、決定部172は、ストレイン画像において各ピクセルに割り当てられた「ストレイン値」の分布、又は、「ストレイン値」の空間微分に基づいて修正点を決定する場合であっても良い。或いは、例えば、決定部172は、エラストグラフィ画像において各ピクセルに割り当てられた「歪み値」の分布、又は、「歪み値」の空間微分に基づいて修正点を決定する場合であっても良い。
In the first to third embodiments and the modifications described above, the case where the correction point is determined using the pixel value (luminance value) of the B-mode image has been described. However, in the above-described first to third embodiments and modifications, the values (measurement values) assigned to the pixels of the ultrasound image other than the B-mode image generated by the ultrasound diagnostic apparatus are used. The correction point may be determined. For example, the
また、上述した第1の実施形態〜第3の実施形態及び変形例では、医用画像診断装置である超音波診断装置において、超音波画像に対する入力操作を容易にするための画像処理が行なわれる場合について説明した。しかし、上述した画像処理は、X線CT装置やMRI装置等の医用画像診断装置において、医用画像を対象として実行される場合であっても良い。 In the first to third embodiments and the modifications described above, image processing for facilitating an input operation on an ultrasound image is performed in the ultrasound diagnostic apparatus that is a medical image diagnostic apparatus. Explained. However, the above-described image processing may be performed on a medical image in a medical image diagnostic apparatus such as an X-ray CT apparatus or an MRI apparatus.
また、上述した画像処理は、医用画像診断装置とは独立に設置された画像処理装置により実行される場合であっても良い。具体的には、図2や図11に示す制御部170等の機能を有する画像処理装置が、各種の医用画像のデータを管理するシステムであるPACS(Picture Archiving and Communication Systems)のデータベースや、医用画像が添付された電子カルテを管理する電子カルテシステムのデータベース等から医用画像データを受信して、上述した画像処理を行なう場合であってもよい。
Further, the image processing described above may be executed by an image processing apparatus installed independently of the medical image diagnostic apparatus. Specifically, an image processing apparatus having a function such as the
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。 Further, each component of each illustrated apparatus is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured. Further, all or any part of each processing function performed in each device may be realized by a CPU and a program analyzed and executed by the CPU, or may be realized as hardware by wired logic.
また、本実施形態で説明した画像処理方法は、あらかじめ用意された画像処理プログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。このプログラムは、インターネットなどのネットワークを介して配布することができる。また、この画像処理プログラムは、ハードディスク、フレキシブルディスク(FD)、CD−ROM、MO、DVDなどのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することもできる。 The image processing method described in the present embodiment can be realized by executing an image processing program prepared in advance on a computer such as a personal computer or a workstation. This program can be distributed via a network such as the Internet. The image processing program can also be executed by being recorded on a computer-readable recording medium such as a hard disk, a flexible disk (FD), a CD-ROM, an MO, or a DVD, and being read from the recording medium by the computer. .
以上、説明したとおり、第1の実施形態〜第3の実施形態及び変形例によれば、医用画像に対する入力操作を容易にすることができる。 As described above, according to the first to third embodiments and the modification examples, it is possible to facilitate an input operation on a medical image.
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the equivalents thereof.
1 超音波診断装置
10 超音波プローブ
20 入力装置
30 モニタ
100 装置本体
110 送信部
120 受信部
131 Bモード処理部
132 ドプラ処理部
140 画像生成部
150 画像メモリ
160 画像合成部
170 制御部
171 取得部
172 決定部
173 計測部
180 記憶部
190 インタフェース部
DESCRIPTION OF SYMBOLS 1 Ultrasonic
Claims (13)
操作者が前記医用画像上に指定した指定点の、当該医用画像における位置を取得する取得部と、
前記医用画像において前記指定点を含んで前記指定点の位置から所定の範囲にある近傍領域の画像情報に基づいて前記指定点の位置を修正する、複数の修正モードを記憶する記憶部と、
前記計測項目に基づいて定まる所定の修正モードに応じて、前記指定点の位置を修正し、修正した位置の点を修正点として決定する決定部と、
前記修正点の位置と、前記計測項目とに基づいて計測を行なう計測部と、
を備えたことを特徴とする画像処理装置。 An input unit that accepts designation of measurement items using medical images;
An acquisition unit for acquiring a position of the designated point designated on the medical image by the operator in the medical image;
A storage unit for storing a plurality of correction modes for correcting the position of the designated point based on image information of a neighboring region within a predetermined range from the position of the designated point including the designated point in the medical image;
A determination unit that corrects the position of the designated point according to a predetermined correction mode determined based on the measurement item, and determines the point of the corrected position as a correction point;
A measurement unit that performs measurement based on the position of the correction point and the measurement item;
An image processing apparatus comprising:
前記医用画像において前記指定点を含んで前記指定点の位置から所定の範囲にある近傍領域の画像情報に基づいて前記指定点の位置を修正する、複数の修正モードを記憶する記憶部と、
前記複数の修正モードの内から1つの修正モードを選択して前記指定点の位置を修正し、修正した位置の点を修正点として決定する決定部と、
を備えたことを特徴とする画像処理装置。 An acquisition unit for acquiring a position of the designated point designated on the medical image by the operator in the medical image;
A storage unit for storing a plurality of correction modes for correcting the position of the designated point based on image information of a neighboring region within a predetermined range from the position of the designated point including the designated point in the medical image;
A determination unit that selects one correction mode from among the plurality of correction modes, corrects the position of the designated point, and determines the point of the corrected position as a correction point;
An image processing apparatus comprising:
前記近傍領域を構成する画素の輝度値の所定方向におけるプロファイルにおいて、輝度値が極値となる点を前記修正点として用いる修正モードであり、
前記記憶部に記憶される前記複数の修正モードの少なくとも1つは、
前記近傍領域を構成する画素の輝度値の所定方向におけるプロファイルにおいて、輝度値が極値となる点の近傍にて輝度値が略一定となる点を前記修正点として用いる修正モードであることを特徴とする請求項5に記載の画像処理装置。 At least one of the plurality of correction modes stored in the storage unit is:
In the profile in the predetermined direction of the luminance value of the pixels constituting the neighboring region, the correction mode using a point where the luminance value becomes an extreme value as the correction point,
At least one of the plurality of correction modes stored in the storage unit is:
The correction mode uses a point at which the luminance value is substantially constant in the vicinity of a point where the luminance value is an extreme value in the profile in a predetermined direction of the luminance value of the pixels constituting the neighboring region as the correction point. The image processing apparatus according to claim 5.
前記近傍領域を構成する画素の輝度値の微分値の所定方向におけるプロファイルにおいて、微分値が極値となる点を前記修正点として用いる修正モードであり、
前記記憶部に記憶される前記複数の修正モードの少なくとも1つは、
前記近傍領域を構成する画素の輝度値の所定方向におけるプロファイルにおいて、微分値が極値となる極値となる点の近傍にて微分値が略一定となる点を前記修正点として用いる修正モードであることを特徴とする請求項5に記載の画像処理装置。 At least one of the plurality of correction modes stored in the storage unit is:
In the profile in the predetermined direction of the differential value of the luminance value of the pixels constituting the neighboring region, the correction mode using the point where the differential value becomes an extreme value as the correction point,
At least one of the plurality of correction modes stored in the storage unit is:
In a correction mode in which a point at which the differential value is substantially constant in the vicinity of a point where the differential value is an extreme value in the profile in a predetermined direction of the luminance value of the pixels constituting the vicinity region is used as the correction point. The image processing apparatus according to claim 5, wherein the image processing apparatus is provided.
を更に備え、
前記決定部は、更に、前記推定部により推定された目的に応じて、前記修正点の決定に用いる修正モードを変更することを特徴とする請求項5に記載の画像処理装置。 An estimation unit that estimates the purpose of the operator inputting the designated point based on prior information regarding the medical image that is input before the designated point is input;
Further comprising
The image processing apparatus according to claim 5, wherein the determination unit further changes a correction mode used for determination of the correction point in accordance with the purpose estimated by the estimation unit.
前記反射波から超音波画像を生成する画像生成部と、
前記超音波画像を用いた計測項目の指定を受け付ける入力部と、
操作者が前記超音波画像上に指定した指定点の、当該超音波画像における位置を取得する取得部と、
前記超音波画像において前記指定点を含んで前記指定点の位置から所定の範囲にある近傍領域の画像情報に基づいて前記指定点の位置を修正する、複数の修正モードを記憶する記憶部と、
前記計測項目に基づいて定まる所定の修正モードに応じて、前記指定点の位置を修正し、修正した位置の点を修正点として決定する決定部と、
前記修正点の位置と、前記計測項目とに基づいて計測を行なう計測部と、
を備えたことを特徴とする超音波診断装置。 An ultrasonic probe that transmits ultrasonic waves and receives reflected waves of the transmitted ultrasonic waves; and
An image generator for generating an ultrasonic image from the reflected wave;
An input unit that accepts designation of a measurement item using the ultrasonic image;
An acquisition unit for acquiring a position of the designated point designated on the ultrasonic image by the operator in the ultrasonic image;
A storage unit that stores a plurality of correction modes for correcting the position of the designated point based on image information of a neighboring region that is within a predetermined range from the position of the designated point, including the designated point in the ultrasonic image;
A determination unit that corrects the position of the designated point according to a predetermined correction mode determined based on the measurement item, and determines the point of the corrected position as a correction point;
A measurement unit that performs measurement based on the position of the correction point and the measurement item;
An ultrasonic diagnostic apparatus comprising:
操作者が前記医用画像上に指定した指定点の、当該医用画像における位置を取得する取得手順と、
前記医用画像において前記指定点を含んで前記指定点の位置から所定の範囲にある近傍領域の画像情報に基づいて前記指定点の位置を修正する、複数の修正モードを記憶する記憶部を参照し、前記計測項目に基づいて定まる所定の修正モードに応じて、前記指定点の位置を修正し、修正した位置の点を修正点として決定する決定手順と、
前記修正点の位置と、前記計測項目とに基づいて計測を行なう計測手順と、
をコンピュータに実行させることを特徴とする画像処理プログラム。 An input procedure for accepting specification of measurement items using medical images;
An acquisition procedure for acquiring a position of the designated point designated on the medical image by the operator in the medical image;
Refer to a storage unit that stores a plurality of correction modes for correcting the position of the designated point based on image information of a neighboring region that is within a predetermined range from the position of the designated point including the designated point in the medical image. A determination procedure for correcting the position of the designated point according to a predetermined correction mode determined based on the measurement item, and determining the point of the corrected position as a correction point;
A measurement procedure for performing measurement based on the position of the correction point and the measurement item;
An image processing program for causing a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011263258A JP2013111434A (en) | 2011-12-01 | 2011-12-01 | Image processor, ultrasonic diagnostic apparatus and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011263258A JP2013111434A (en) | 2011-12-01 | 2011-12-01 | Image processor, ultrasonic diagnostic apparatus and image processing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013111434A true JP2013111434A (en) | 2013-06-10 |
Family
ID=48707581
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011263258A Pending JP2013111434A (en) | 2011-12-01 | 2011-12-01 | Image processor, ultrasonic diagnostic apparatus and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013111434A (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104921753A (en) * | 2014-03-18 | 2015-09-23 | 三星麦迪森株式会社 | Ultrasound apparatus and method of measuring ultrasound image |
US9483823B2 (en) | 2014-07-10 | 2016-11-01 | Fujifilm Corporation | Medical image measurement device and method, and non-transitory computer-readable recording medium |
JP2017064183A (en) * | 2015-09-30 | 2017-04-06 | 東芝メディカルシステムズ株式会社 | Medical image diagnostic apparatus, medical image processing apparatus, and medical information display control method |
KR20170099222A (en) * | 2016-02-23 | 2017-08-31 | 삼성전자주식회사 | Method and ultrasound apparatus for displaying an object |
WO2019039050A1 (en) | 2017-08-25 | 2019-02-28 | 富士フイルム株式会社 | Acoustic wave diagnostic apparatus and method for controlling acoustic wave diagnostic apparatus |
WO2020008743A1 (en) | 2018-07-02 | 2020-01-09 | 富士フイルム株式会社 | Acoustic diagnostic apparatus and method for controlling acoustic diagnostic apparatus |
WO2020008746A1 (en) | 2018-07-02 | 2020-01-09 | 富士フイルム株式会社 | Acoustic wave diagnostic device and method for controlling acoustic wave diagnostic device |
CN111194185A (en) * | 2017-10-02 | 2020-05-22 | 百合医疗科技株式会社 | Medical imaging device |
US20210007709A1 (en) * | 2019-07-10 | 2021-01-14 | Fujifilm Corporation | Measurement apparatus, ultrasound diagnostic apparatus, measurement method, and measurement program |
JP2021130035A (en) * | 2017-08-24 | 2021-09-09 | 富士フイルム株式会社 | Acoustic wave measuring device and operation method of acoustic wave measuring device |
US11766246B2 (en) | 2018-03-01 | 2023-09-26 | Fujifilm Corporation | Acoustic wave diagnostic apparatus and control method of acoustic wave diagnostic apparatus |
-
2011
- 2011-12-01 JP JP2011263258A patent/JP2013111434A/en active Pending
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10426438B2 (en) | 2014-03-18 | 2019-10-01 | Samsung Medison Co., Ltd. | Ultrasound apparatus and method of measuring ultrasound image |
EP2921115A1 (en) * | 2014-03-18 | 2015-09-23 | Samsung Medison Co., Ltd. | Ultrasound apparatus and method of measuring ultrasound image |
CN104921753A (en) * | 2014-03-18 | 2015-09-23 | 三星麦迪森株式会社 | Ultrasound apparatus and method of measuring ultrasound image |
US9483823B2 (en) | 2014-07-10 | 2016-11-01 | Fujifilm Corporation | Medical image measurement device and method, and non-transitory computer-readable recording medium |
JP2017064183A (en) * | 2015-09-30 | 2017-04-06 | 東芝メディカルシステムズ株式会社 | Medical image diagnostic apparatus, medical image processing apparatus, and medical information display control method |
US10772608B2 (en) | 2015-09-30 | 2020-09-15 | Canon Medical Systems Corporation | Medical image diagnostic apparatus and medical information display control method |
KR20170099222A (en) * | 2016-02-23 | 2017-08-31 | 삼성전자주식회사 | Method and ultrasound apparatus for displaying an object |
KR102605152B1 (en) * | 2016-02-23 | 2023-11-24 | 삼성전자주식회사 | Method and ultrasound apparatus for displaying an object |
US11864883B2 (en) | 2017-08-24 | 2024-01-09 | Fujifilm Corporation | Acoustic wave measurement apparatus and operation method of acoustic wave measurement apparatus |
JP2021130035A (en) * | 2017-08-24 | 2021-09-09 | 富士フイルム株式会社 | Acoustic wave measuring device and operation method of acoustic wave measuring device |
JP7195374B2 (en) | 2017-08-24 | 2022-12-23 | 富士フイルム株式会社 | Acoustic wave measuring device and method of operating acoustic wave measuring device |
WO2019039050A1 (en) | 2017-08-25 | 2019-02-28 | 富士フイルム株式会社 | Acoustic wave diagnostic apparatus and method for controlling acoustic wave diagnostic apparatus |
CN111194185A (en) * | 2017-10-02 | 2020-05-22 | 百合医疗科技株式会社 | Medical imaging device |
US11766246B2 (en) | 2018-03-01 | 2023-09-26 | Fujifilm Corporation | Acoustic wave diagnostic apparatus and control method of acoustic wave diagnostic apparatus |
WO2020008746A1 (en) | 2018-07-02 | 2020-01-09 | 富士フイルム株式会社 | Acoustic wave diagnostic device and method for controlling acoustic wave diagnostic device |
JPWO2020008743A1 (en) * | 2018-07-02 | 2021-07-01 | 富士フイルム株式会社 | Control method of acoustic wave diagnostic device and acoustic wave diagnostic device |
CN112367921A (en) * | 2018-07-02 | 2021-02-12 | 富士胶片株式会社 | Acoustic wave diagnostic apparatus and method for controlling acoustic wave diagnostic apparatus |
WO2020008743A1 (en) | 2018-07-02 | 2020-01-09 | 富士フイルム株式会社 | Acoustic diagnostic apparatus and method for controlling acoustic diagnostic apparatus |
US20210007709A1 (en) * | 2019-07-10 | 2021-01-14 | Fujifilm Corporation | Measurement apparatus, ultrasound diagnostic apparatus, measurement method, and measurement program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2013111434A (en) | Image processor, ultrasonic diagnostic apparatus and image processing program | |
JP6309376B2 (en) | Medical information processing system, medical information processing program, and ultrasonic diagnostic apparatus | |
US9524551B2 (en) | Ultrasound diagnosis apparatus and image processing method | |
JP6081301B2 (en) | Ultrasonic diagnostic apparatus and image data correction method | |
US20190046153A1 (en) | Ultrasonic diagnostic apparatus | |
EP2372392A1 (en) | Ultrasound diagnosis apparatus, image processing apparatus, and image processing method | |
US10335118B2 (en) | Ultrasonic diagnostic apparatus, medical image processing apparatus, and medical image parallel display method | |
JP2017136451A (en) | Ultrasonic diagnostic device | |
JP6316995B2 (en) | Ultrasonic diagnostic apparatus and image data correction method | |
JP2013005876A (en) | Ultrasonic diagnostic apparatus | |
JP6109556B2 (en) | Ultrasonic diagnostic apparatus and image processing program | |
JP2023060101A (en) | Ultrasonic diagnostic apparatus and paracentesis support program | |
JP2017086896A (en) | Medical image processing device and ultrasonic diagnostic apparatus | |
JP6125380B2 (en) | Ultrasonic diagnostic apparatus, medical image processing apparatus, and image processing program | |
JP5542454B2 (en) | Ultrasonic diagnostic apparatus, ultrasonic image processing apparatus, and ultrasonic image processing program | |
JP2015173899A (en) | Ultrasonic diagnostic device, image processor and image processing program | |
JP2012030053A (en) | Ultrasound diagnosis apparatus, image processing apparatus and image processing method | |
US20130144168A1 (en) | Ultrasound diagnostic apparatus and computer program product | |
JP2012075794A (en) | Ultrasonic diagnostic apparatus, medical image processor, and medical image processing program | |
JP2013143978A (en) | Ultrasonic diagnostic apparatus | |
JP6334013B2 (en) | Ultrasonic diagnostic equipment | |
US20210369247A1 (en) | Medical image diagnosis apparatus, medical image processing apparatus and medical image processing method | |
JP2019195447A (en) | Ultrasound diagnosis apparatus and medical information processing program | |
US10426444B2 (en) | Ultrasonic diagnosis apparatus, medical image processing apparatus and medical image processing method | |
JP2023108765A (en) | Ultrasonic diagnostic apparatus and determination method |