JP7309355B2 - Medical image generation device and medical image generation program - Google Patents

Medical image generation device and medical image generation program Download PDF

Info

Publication number
JP7309355B2
JP7309355B2 JP2018231061A JP2018231061A JP7309355B2 JP 7309355 B2 JP7309355 B2 JP 7309355B2 JP 2018231061 A JP2018231061 A JP 2018231061A JP 2018231061 A JP2018231061 A JP 2018231061A JP 7309355 B2 JP7309355 B2 JP 7309355B2
Authority
JP
Japan
Prior art keywords
image data
function
interest
processing
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018231061A
Other languages
Japanese (ja)
Other versions
JP2020092739A (en
Inventor
啓介 宮木
正毅 渡辺
悠 五十嵐
泰徳 本庄
優子 高田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Priority to JP2018231061A priority Critical patent/JP7309355B2/en
Publication of JP2020092739A publication Critical patent/JP2020092739A/en
Application granted granted Critical
Publication of JP7309355B2 publication Critical patent/JP7309355B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明の実施形態は、医用画像生成装置、及び医用画像生成プログラムに関する。 TECHNICAL FIELD Embodiments of the present invention relate to a medical image generation apparatus and a medical image generation program.

従来、超音波診断装置は、血流を色彩で表現するカラーモードを有している。操作者は、カラーモードで正確な血流を示した画像データを生成させるためには、適切なパラメータを設定する必要がある。 Conventionally, an ultrasonic diagnostic apparatus has a color mode that expresses blood flow in colors. The operator must set appropriate parameters in order to generate image data showing accurate blood flow in color mode.

しかしながら、適切なパラメータは、被検体の体格や、検査したい被検体の領域の深さや、検査したい臓器等の様々な要因に応じて異なるため、適切なパラメータで画像データを生成することは困難であった。 However, appropriate parameters vary depending on various factors such as the physique of the subject, the depth of the region of the subject to be inspected, the organ to be inspected, etc. Therefore, it is difficult to generate image data with appropriate parameters. there were.

米国特許出願公開第2016/0174943号明細書U.S. Patent Application Publication No. 2016/0174943 米国特許出願公開第2018/0028079号明細書U.S. Patent Application Publication No. 2018/0028079 米国特許出願公開第2007/0014452号明細書U.S. Patent Application Publication No. 2007/0014452

本発明が解決しようとする課題は、適切なパラメータで画像データを生成することである。 The problem to be solved by the present invention is to generate image data with appropriate parameters.

実施形態の医用画像生成装置は、取得部と、設定部と、処理部と、決定部とを備える。前記取得部は、被検体が含まれる画像である被検体画像データを取得する。前記設定部は、前記被検体画像データに対して前記被検体の深度が異なる少なくとも2以上の関心領域を設定する。前記処理部は、像データと当該画像データの深度ごとの評価値との相関関係を学習した学習済みモデルに前記被検体画像データを入力し、当該被検体画像データの評価値を前記関心領域ごとに示す出力情報を得る。前記決定部は、前記処理部が得た前記出力情報の前記関心領域ごとに示される前記評価値が基準値を満たすよう前記被検体画像データの取得に関するパラメータを決定する。 A medical image generating apparatus according to an embodiment includes an acquisition unit, a setting unit, a processing unit , and a determination unit. The acquisition unit acquires subject image data, which is an image including the subject. The setting unit sets at least two regions of interest having different depths of the subject with respect to the subject image data . The processing unit inputs the object image data to a trained model that has learned the correlation between the image data and the evaluation value for each depth of the image data, and calculates the evaluation value of the object image data . Output information is obtained for each of the regions of interest . The determination unit determines a parameter relating to acquisition of the subject image data so that the evaluation value indicated for each region of interest in the output information obtained by the processing unit satisfies a reference value .

図1は、第1の実施形態に係る医用情報処理システムの構成の一例を示す図である。FIG. 1 is a diagram showing an example of the configuration of a medical information processing system according to the first embodiment. 図2は、第1の実施形態に係る医用画像生成装置の構成の一例を示すブロック図である。FIG. 2 is a block diagram showing an example of the configuration of the medical image generating apparatus according to the first embodiment; 図3は、超音波画像データに設定された関心領域を説明する説明図である。FIG. 3 is an explanatory diagram for explaining a region of interest set in ultrasound image data. 図4は、第1学習機能による学習処理を示す図である。FIG. 4 is a diagram showing learning processing by the first learning function. 図5は、評価処理機能による運用処理を示す図である。FIG. 5 is a diagram showing operation processing by the evaluation processing function. 図6は、第1の実施形態に係る画像生成処理の処理手順を示すフローチャートである。FIG. 6 is a flow chart showing a processing procedure of image generation processing according to the first embodiment. 図7は、第1の実施形態の第1の変形例にかかる医用画像生成装置の構成の一例を示すブロック図である。FIG. 7 is a block diagram showing an example of a configuration of a medical image generating apparatus according to a first modification of the first embodiment; 図8は、第2の実施形態に係る医用画像生成装置の構成の一例を示すブロック図である。FIG. 8 is a block diagram showing an example configuration of a medical image generating apparatus according to the second embodiment. 図9は、第2学習機能による学習処理を示す図である。FIG. 9 is a diagram showing learning processing by the second learning function. 図10は、推定処理機能による運用処理を示す図である。FIG. 10 is a diagram showing operation processing by the estimation processing function. 図11は、第2の実施形態に係る画像生成処理の処理手順を示すフローチャートである。FIG. 11 is a flow chart showing a processing procedure of image generation processing according to the second embodiment. 図12は、第2の実施形態の第1の変形例にかかる医用画像生成装置の構成の一例を示すブロック図である。FIG. 12 is a block diagram showing an example of the configuration of a medical image generating apparatus according to the first modified example of the second embodiment;

以下、図面を参照して、医用画像生成装置、及び医用画像生成プログラムの実施形態を説明する。なお、一つの実施形態又は変形例に記載した内容は、他の実施形態又は他の変形例にも同様に適用されてもよい。 Hereinafter, embodiments of a medical image generation apparatus and a medical image generation program will be described with reference to the drawings. Note that the contents described in one embodiment or modified example may be similarly applied to other embodiments or other modified examples.

(第1の実施形態)
第1の実施形態について説明する。図1は、第1の実施形態に係る医用情報処理システム1の構成の一例を示す図である。図1に示すように、医用情報処理システム1は、医用画像生成装置10と、電子カルテシステム20と、PACS(Picture Archiving and Communication System)30と、医用情報処理装置40とを備えている。そして、各システム及び各装置は、ネットワーク50を介して通信可能に接続されている。なお、図1に示す構成はあくまでも一例であり、図示する医用画像生成装置10と、電子カルテシステム20と、PACS30と、医用情報処理装置40と以外の装置がネットワーク50に接続されてもよい。
(First embodiment)
A first embodiment will be described. FIG. 1 is a diagram showing an example of the configuration of a medical information processing system 1 according to the first embodiment. As shown in FIG. 1 , the medical information processing system 1 includes a medical image generation device 10 , an electronic chart system 20 , a PACS (Picture Archiving and Communication System) 30 , and a medical information processing device 40 . Each system and each device are communicably connected via a network 50 . The configuration shown in FIG. 1 is merely an example, and devices other than the illustrated medical image generating apparatus 10, electronic medical record system 20, PACS 30, and medical information processing apparatus 40 may be connected to the network 50.

医用画像生成装置10は、被検体を撮像して医用画像を生成する。更に詳しくは、医用画像生成装置10は、電子カルテシステム20から送信されるオーダ情報に従って被検体を撮像して、医用画像を生成する。そして、医用画像生成装置10は、医用画像を生成するごとに、生成した医用画像をPACS30に送信する。例えば、医用画像生成装置10は、X線診断装置、X線CT(Computed Tomography)装置、MRI(Magnetic Resonance Imaging)装置、超音波診断装置、SPECT(Single Photon Emission Computed Tomography)装置、PET(Positron Emission computed Tomography)装置等である。 The medical image generating apparatus 10 images a subject and generates a medical image. More specifically, the medical image generating apparatus 10 images the subject according to the order information transmitted from the electronic medical record system 20 and generates a medical image. Then, the medical image generating apparatus 10 transmits the generated medical image to the PACS 30 each time it generates a medical image. For example, the medical image generating apparatus 10 includes an X-ray diagnostic apparatus, an X-ray CT (Computed Tomography) apparatus, an MRI (Magnetic Resonance Imaging) apparatus, an ultrasonic diagnostic apparatus, a SPECT (Single Photon Emission Computed Tomography) apparatus, a PET (Positron Emission computed tomography) equipment, etc.

電子カルテシステム20は、被検体に関する各種の情報を管理する。更に詳しくは、電子カルテシステム20は、オーダリングシステムとして、被検体に関する各種のオーダの入力を医師や技師等の操作者から受け付ける。電子カルテシステム20は、受け付けたオーダの内容を示すオーダ情報を検査室や薬局、放射線科等に設けられた各部門システムに送信する。そして、電子カルテシステム20は、オーダ情報に従って実施された診療行為の結果として各部門システムから送信される診療データを取得する。例えば、電子カルテシステム20は、医用画像の撮像を指示するオーダ情報を医用画像生成装置10に送信する。電子カルテシステム20は、指示に応じて医用画像生成装置10が撮像した医用画像を取得する。例えば、電子カルテシステム20は、サーバやワークステーション等のコンピュータ機器によって実現される。 The electronic medical record system 20 manages various types of information about subjects. More specifically, the electronic medical record system 20 serves as an ordering system, and receives input of various orders regarding subjects from operators such as doctors and technicians. The electronic medical record system 20 transmits order information indicating the details of the received order to department systems provided in examination rooms, pharmacies, radiology departments, and the like. Then, the electronic medical record system 20 acquires medical care data transmitted from each department system as a result of medical care performed according to the order information. For example, the electronic medical record system 20 transmits order information instructing imaging of medical images to the medical image generating apparatus 10 . The electronic medical record system 20 acquires medical images captured by the medical image generating apparatus 10 according to instructions. For example, the electronic medical record system 20 is implemented by computer equipment such as servers and workstations.

PACS30は、医用画像生成装置10によって生成された医用画像を保管する。更に詳しくは、PACS30は、医用画像生成装置10から医用画像を受信する。そして、PACS30は、受信した医用画像を自装置の記憶回路等に保存して管理する。例えば、PACS30は、サーバやワークステーション等のコンピュータ機器によって実現される。 The PACS 30 stores medical images generated by the medical image generating apparatus 10 . More specifically, PACS 30 receives medical images from medical image generation device 10 . The PACS 30 stores and manages the received medical images in its own memory circuit or the like. For example, the PACS 30 is realized by computer equipment such as servers and workstations.

医用情報処理装置40は、電子カルテシステム20、医用画像生成装置10及びPACS30から各種の情報を取得する。そして、医用情報処理装置40は、取得した情報を用いて各種の情報処理を行う。例えば、医用情報処理装置40は、サーバやワークステーション、パーソナルコンピュータ、タブレット端末等のコンピュータ機器によって実現される。 The medical information processing apparatus 40 acquires various kinds of information from the electronic medical record system 20 , the medical image generating apparatus 10 and the PACS 30 . Then, the medical information processing apparatus 40 performs various information processing using the acquired information. For example, the medical information processing apparatus 40 is implemented by computer equipment such as a server, workstation, personal computer, tablet terminal, or the like.

このような、医用情報処理システム1は、医用画像生成装置10等の装置が生成した画像データと、画像データの取得に関するパラメータとの相関関係を機械学習により学習する。そして、医用画像生成装置10は、機械学習により構築された学習済みモデルに基づいて、パラメータを調整することにより適切なパラメータで画像データを生成する。 Such a medical information processing system 1 learns the correlation between image data generated by a device such as the medical image generating device 10 and parameters relating to acquisition of the image data by machine learning. Then, the medical image generating apparatus 10 generates image data with appropriate parameters by adjusting the parameters based on the learned model constructed by machine learning.

ここで、パラメータとは、医用画像生成装置10による画像データの取得に関する設定である。例えば、パラメータとは、超音波診断において血流を色彩で表現した超音波画像データを表示させるカラーモードで、超音波画像データの取得に関する設定である。さらに詳しく、パラメータには、超音波診断において各種データの収集が行われる前に収集条件として設定される収集パラメータと、各種データの収集後に画像に施される後処理で用いられる後処理パラメータとの両方が含まれていてもよい。例えば、パラメータは、超音波の出力条件、ゲインの大きさ、造影条件、表示させる血流速度の範囲を指定する設定、被検体の微小な動きを血流として誤検出してしまうことを抑制するフィルタ等である。 Here, the parameters are settings related to image data acquisition by the medical image generating apparatus 10 . For example, the parameters are settings related to acquisition of ultrasound image data in a color mode for displaying ultrasound image data expressing blood flow in colors in ultrasound diagnosis. More specifically, the parameters include acquisition parameters set as acquisition conditions before various data are acquired in ultrasonic diagnosis, and post-processing parameters used in post-processing applied to images after various data are acquired. Both may be included. For example, parameters include ultrasound output conditions, gain magnitude, imaging conditions, settings for specifying the range of blood flow velocities to be displayed, and suppression of erroneous detection of small movements of the subject as blood flow. filters and the like.

機械学習とは、ディープラーニング(Deep Learning)や、ニューラルネットワーク(Neural Network)、ロジスティック(Logistic)回帰分析、非線形判別分析、サポートベクターマシン(Support Vector Machine:SVM)、ランダムフォレスト(Random Forest)、ナイーブベイズ(Naive Bayes)等である。 Machine learning includes deep learning, neural network, logistic regression analysis, nonlinear discriminant analysis, support vector machine (SVM), random forest, naive Naive Bayes et al.

第1の実施形態に係る医用画像生成装置10は、画像データと、画像データの評価を示す評価値とを学習用データとして機械学習エンジンに入力することで構築された学習済みモデルを用いて、生成した画像データの評価値を出力する。また、医用画像生成装置10は、生成した画像データの評価値が閾値未満の場合に、パラメータを変更して画像データを生成する。そして、医用画像生成装置10は、生成した画像データの評価値が閾値以上になるまで、もしくは予め決められた回数まで繰り返し実行することにより適切な画像データを生成する。医用画像生成装置10は、パラメータを変更した画像データの生成を予め決められた回数までに制限することで、パラメータを変更して画像データを生成する処理が終了しなくなってしまうことを防止する。 The medical image generating apparatus 10 according to the first embodiment uses a trained model constructed by inputting image data and an evaluation value indicating evaluation of the image data as learning data into a machine learning engine, Output the evaluation value of the generated image data. Further, when the evaluation value of the generated image data is less than the threshold value, the medical image generating apparatus 10 changes the parameters and generates the image data. Then, the medical image generating apparatus 10 generates appropriate image data by repeating the process until the evaluation value of the generated image data becomes equal to or greater than the threshold value, or by repeating the process up to a predetermined number of times. The medical image generating apparatus 10 limits the generation of image data with changed parameters to a predetermined number of times, thereby preventing the processing of generating image data by changing parameters from never ending.

本実施形態では、医用画像生成装置10が超音波診断装置である場合を例に説明する。 In this embodiment, a case where the medical image generating apparatus 10 is an ultrasonic diagnostic apparatus will be described as an example.

図2は、第1の実施形態に係る医用画像生成装置10の構成の一例を示すブロック図である。図2に示すように、第1の実施形態に係る医用画像生成装置10は、装置本体100と、超音波プローブ101と、入力インターフェース102と、ディスプレイ103とを有する。超音波プローブ101、入力インターフェース102、及びディスプレイ103は、装置本体100と通信可能に接続される。 FIG. 2 is a block diagram showing an example of the configuration of the medical image generating apparatus 10 according to the first embodiment. As shown in FIG. 2, the medical image generating apparatus 10 according to the first embodiment has an apparatus main body 100, an ultrasonic probe 101, an input interface 102, and a display 103. The ultrasonic probe 101, the input interface 102, and the display 103 are communicably connected to the apparatus body 100. FIG.

超音波プローブ101は、複数の圧電振動子を有する。これら複数の圧電振動子は、装置本体100が有する送受信回路110から供給される駆動信号に基づき超音波を発生する。また、超音波プローブ101は、被検体Pからの反射波を受信して電気信号に変換する。すなわち、超音波プローブ101は、被検体Pに対して超音波走査を行って、被検体Pから反射波を受信する。また、超音波プローブ101は、圧電振動子に設けられる整合層と、圧電振動子から後方への超音波の伝播を防止するバッキング材等を有する。なお、超音波プローブ101は、装置本体100と着脱自在に接続される。 The ultrasonic probe 101 has multiple piezoelectric transducers. These piezoelectric vibrators generate ultrasonic waves based on drive signals supplied from the transmission/reception circuit 110 of the device body 100 . Also, the ultrasonic probe 101 receives reflected waves from the subject P and converts them into electrical signals. That is, the ultrasonic probe 101 scans the subject P with ultrasonic waves and receives reflected waves from the subject P. FIG. Further, the ultrasonic probe 101 has a matching layer provided on the piezoelectric transducers, a backing material, etc. for preventing the ultrasonic waves from propagating backward from the piezoelectric transducers. Note that the ultrasonic probe 101 is detachably connected to the device main body 100 .

超音波プローブ101から被検体Pに超音波が送信されると、送信された超音波は、被検体Pの体内組織における音響インピーダンスの不連続面で次々と反射され、反射波信号として超音波プローブ101が有する複数の圧電振動子にて受信される。受信される反射波信号の振幅は、超音波が反射される不連続面における音響インピーダンスの差に依存する。なお、送信された超音波パルスが、移動している血流や心臓壁等の表面で反射された場合の反射波信号は、ドプラ効果により、移動体の超音波送信方向に対する速度成分に依存して、周波数偏移を受ける。 When ultrasonic waves are transmitted from the ultrasonic probe 101 to the subject P, the transmitted ultrasonic waves are successively reflected by discontinuous surfaces of acoustic impedance in the body tissue of the subject P, and are reflected as reflected wave signals from the ultrasonic probe. The signal is received by a plurality of piezoelectric vibrators 101 has. The amplitude of the received reflected wave signal depends on the difference in acoustic impedance at the discontinuity from which the ultrasonic waves are reflected. When the transmitted ultrasonic pulse is reflected by the moving blood flow or the surface of the heart wall, the reflected wave signal depends on the velocity component of the moving object in the ultrasonic transmission direction due to the Doppler effect. subject to frequency shifts.

本実施形態では、超音波プローブ101は、被検体Pを2次元で走査する1Dアレイプローブであっても、被検体Pを3次元で走査する3次元プローブすなわちメカニカル4Dプローブや2Dアレイプローブであっても適用可能である。 In this embodiment, the ultrasonic probe 101 may be a 1D array probe that scans the subject P two-dimensionally, or a three-dimensional probe that scans the subject P three-dimensionally, that is, a mechanical 4D probe or a 2D array probe. is also applicable.

入力インターフェース102は、所定の位置(例えば、組織形状の位置や、関心領域、関心領域以外の領域等)の設定等を行うためのトラックボール、スイッチボタン、マウス、キーボード、操作面へ触れることで入力操作を行うタッチパッド、表示画面とタッチパッドとが一体化されたタッチモニタ、光学センサを用いた非接触入力回路、及び音声入力回路等によって実現される。入力インターフェース102は、後述する処理回路160に接続されており、操作者(ユーザ)から受け付けた入力操作を電気信号へ変換し処理回路160へと出力する。なお、本明細書において入力インターフェース102は、マウス、キーボード等の物理的な操作部品を備えるものだけに限られない。例えば、装置とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を制御回路へ出力する電気信号の処理回路も入力インターフェースの例に含まれる。 The input interface 102 is a trackball, switch button, mouse, keyboard, and touch panel for setting predetermined positions (for example, tissue shape position, region of interest, regions other than the region of interest, etc.). It is realized by a touch pad for performing input operations, a touch monitor in which a display screen and a touch pad are integrated, a non-contact input circuit using an optical sensor, a voice input circuit, and the like. The input interface 102 is connected to a processing circuit 160 to be described later, converts an input operation received from an operator (user) into an electric signal, and outputs the electric signal to the processing circuit 160 . It should be noted that the input interface 102 in this specification is not limited to having physical operation parts such as a mouse and a keyboard. For example, the input interface includes an electrical signal processing circuit that receives an electrical signal corresponding to an input operation from an external input device provided separately from the device and outputs the electrical signal to the control circuit.

ディスプレイ103は、医用画像生成装置10の操作者(ユーザ)が入力インターフェース102を用いて各種設定要求を入力するためのGUI(Graphical User Interface)を表示したり、装置本体100において生成された超音波画像データ等を表示したりする。また、ディスプレイ103は、装置本体100の処理状況や処理結果を操作者に通知するために、各種のメッセージや表示情報を表示する。また、ディスプレイ103は、スピーカーを有し、音声を出力することもできる。 The display 103 displays a GUI (Graphical User Interface) for an operator (user) of the medical image generating apparatus 10 to input various setting requests using the input interface 102 , and displays ultrasonic waves generated in the apparatus main body 100 . It displays image data, etc. Further, the display 103 displays various messages and display information in order to notify the operator of the processing status and processing results of the apparatus main body 100 . The display 103 also has a speaker and can output sound.

装置本体100は、超音波プローブ101が受信した反射波信号に基づいて超音波画像データを生成する装置である。図2に示す装置本体100は、超音波プローブ101が受信した2次元の反射波データ(エコーデータ)に基づいて2次元の超音波画像データを生成可能な装置である。また、図2に示す装置本体100は、超音波プローブ101が受信した3次元の反射波データに基づいて3次元の超音波画像データ(ボリュームデータ)を生成可能な装置である。 The device main body 100 is a device that generates ultrasonic image data based on reflected wave signals received by the ultrasonic probe 101 . The device main body 100 shown in FIG. 2 is a device capable of generating two-dimensional ultrasonic image data based on two-dimensional reflected wave data (echo data) received by the ultrasonic probe 101 . Further, the apparatus main body 100 shown in FIG. 2 is an apparatus capable of generating three-dimensional ultrasonic image data (volume data) based on three-dimensional reflected wave data received by the ultrasonic probe 101 .

装置本体100は、図2に示すように、送受信回路110と、Bモード処理回路120と、ドプラ処理回路130と、記憶回路140と、通信インターフェース150と、処理回路160と、を有する。送受信回路110、Bモード処理回路120、ドプラ処理回路130、記憶回路140、通信インターフェース150、及び処理回路160は、互いに通信可能に接続される。また、装置本体100は、ネットワーク50に接続される。 The device body 100 has a transmission/reception circuit 110, a B-mode processing circuit 120, a Doppler processing circuit 130, a storage circuit 140, a communication interface 150, and a processing circuit 160, as shown in FIG. The transmission/reception circuit 110, the B-mode processing circuit 120, the Doppler processing circuit 130, the storage circuit 140, the communication interface 150, and the processing circuit 160 are communicably connected to each other. Further, the device body 100 is connected to the network 50 .

送受信回路110は、パルス発生器、送信遅延部、パルサ等を有し、超音波プローブ101に駆動信号を供給する。パルス発生器は、所定のレート周波数で、送信超音波を形成するためのレートパルスを繰り返し発生する。また、送信遅延部は、超音波プローブ101から発生される超音波をビーム状に集束し、かつ送信指向性を決定するために必要な圧電振動子ごとの遅延時間を、パルス発生器が発生する各レートパルスに対し与える。また、パルサは、レートパルスに基づくタイミングで、超音波プローブ101に駆動信号(駆動パルス)を印加する。すなわち、送信遅延部は、各レートパルスに対し与える遅延時間を変化させることで、圧電振動子面から送信される超音波の送信方向を任意に調整する。 The transmission/reception circuit 110 has a pulse generator, a transmission delay section, a pulser, etc., and supplies a drive signal to the ultrasonic probe 101 . A pulse generator repeatedly generates rate pulses at a predetermined rate frequency to form a transmitted ultrasound wave. In the transmission delay unit, the ultrasonic waves generated from the ultrasonic probe 101 are focused into a beam, and the pulse generator generates a delay time for each piezoelectric transducer necessary for determining the transmission directivity. given for each rate pulse. Also, the pulsar applies a driving signal (driving pulse) to the ultrasonic probe 101 at a timing based on the rate pulse. That is, the transmission delay unit arbitrarily adjusts the transmission direction of the ultrasonic waves transmitted from the piezoelectric transducer surface by changing the delay time given to each rate pulse.

なお、送受信回路110は、後述する処理回路160の指示に基づいて、所定のスキャンシーケンスを実行するために、送信周波数、送信駆動電圧等を瞬時に変更可能な機能を有している。特に、送信駆動電圧の変更は、瞬間にその値を切り替え可能なリニアアンプ型の発信回路、又は、複数の電源ユニットを電気的に切り替える機構によって実現される。 The transmitting/receiving circuit 110 has a function capable of instantaneously changing the transmission frequency, the transmission drive voltage, etc. in order to execute a predetermined scan sequence based on instructions from the processing circuit 160, which will be described later. In particular, the change of the transmission drive voltage is realized by a linear amplifier type oscillator circuit capable of instantaneously switching the value or by a mechanism for electrically switching between a plurality of power supply units.

また、送受信回路110は、プリアンプ、A/D(Analog/Digital)変換器、受信遅延部、加算器等を有し、超音波プローブ101が受信した反射波信号に対して各種処理を行って反射波データを生成する。プリアンプは、反射波信号をチャネルごとに増幅する。A/D変換器は、増幅された反射波信号をA/D変換する。受信遅延部は、受信指向性を決定するために必要な遅延時間を与える。加算器は、受信遅延部によって処理された反射波信号の加算処理を行って反射波データを生成する。加算器の加算処理により、反射波信号の受信指向性に応じた方向からの反射成分が強調され、受信指向性と送信指向性とにより超音波送受信の総合的なビームが形成される。 Further, the transmission/reception circuit 110 has a preamplifier, an A/D (Analog/Digital) converter, a reception delay unit, an adder, etc., and performs various processing on the reflected wave signal received by the ultrasonic probe 101 to Generate wave data. A preamplifier amplifies the reflected wave signal for each channel. The A/D converter A/D converts the amplified reflected wave signal. The reception delay section provides a delay time necessary for determining reception directivity. The adder adds the reflected wave signals processed by the reception delay unit to generate reflected wave data. The addition processing of the adder emphasizes the reflection component from the direction corresponding to the reception directivity of the reflected wave signal, and the reception directivity and the transmission directivity form a comprehensive beam for ultrasonic wave transmission/reception.

送受信回路110は、被検体Pを2次元走査する場合、超音波プローブ101から2次元の超音波ビームを送信させる。そして、送受信回路110は、超音波プローブ101が受信した2次元の反射波信号から2次元の反射波データを生成する。また、本実施形態に係る送受信回路110は、被検体Pを3次元走査する場合、超音波プローブ101から3次元の超音波ビームを送信させる。そして、送受信回路110は、超音波プローブ101が受信した3次元の反射波信号から3次元の反射波データを生成する。 When the subject P is two-dimensionally scanned, the transmission/reception circuit 110 causes the ultrasonic probe 101 to transmit two-dimensional ultrasonic beams. Then, the transmission/reception circuit 110 generates two-dimensional reflected wave data from the two-dimensional reflected wave signal received by the ultrasonic probe 101 . Further, the transmission/reception circuit 110 according to the present embodiment causes the ultrasonic probe 101 to transmit a three-dimensional ultrasonic beam when three-dimensionally scanning the subject P. FIG. Then, the transmission/reception circuit 110 generates three-dimensional reflected wave data from the three-dimensional reflected wave signal received by the ultrasonic probe 101 .

ここで、送受信回路110からの出力信号の形態は、RF(Radio Frequency)信号と呼ばれる位相情報が含まれる信号である場合や、包絡線検波処理後の振幅情報である場合等、種々の形態が選択可能である。 Here, the form of the output signal from the transmitting/receiving circuit 110 can be various forms such as a signal containing phase information called an RF (Radio Frequency) signal, or amplitude information after envelope detection processing. It is selectable.

Bモード処理回路120は、送受信回路110から反射波データを受信し、対数増幅、包絡線検波処理等を行って、信号強度が輝度の明るさで表現されるデータ(Bモードデータ)を生成する。 The B-mode processing circuit 120 receives the reflected wave data from the transmitting/receiving circuit 110, performs logarithmic amplification, envelope detection processing, etc., and generates data (B-mode data) in which the signal strength is represented by the brightness of luminance. .

ドプラ処理回路130は、送受信回路110から受信した反射波データから速度情報を周波数解析し、ドプラ効果による血流や組織、造影剤エコー成分を抽出し、速度、分散、パワー等の移動体情報を多点について抽出したデータ(ドプラデータ)を生成する。具体的には、ドプラ処理回路130は、移動体の運動情報として、平均速度、平均分散値、平均パワー値等を、複数のサンプル点それぞれでドプラデータを生成する。ここで、移動体とは、例えば、血流や、心壁等の組織、造影剤である。ドプラ処理回路130は、血流の運動情報(血流情報)として、血流の平均速度、血流の平均分散値、血流の平均パワー値等を、複数のサンプル点それぞれで推定した情報を生成する。 The Doppler processing circuit 130 frequency-analyzes the velocity information from the reflected wave data received from the transmission/reception circuit 110, extracts blood flow, tissue, and contrast agent echo components due to the Doppler effect, and obtains moving body information such as velocity, dispersion, and power. Data extracted from multiple points (Doppler data) is generated. Specifically, the Doppler processing circuit 130 generates Doppler data at each of a plurality of sample points, such as average velocity, average dispersion value, average power value, etc., as motion information of the moving object. Here, the moving body is, for example, blood flow, tissue such as a heart wall, and a contrast agent. The Doppler processing circuit 130 uses information obtained by estimating the average velocity of blood flow, the average variance value of blood flow, the average power value of blood flow, etc. at each of a plurality of sample points as blood flow motion information (blood flow information). Generate.

ドプラ処理回路130は、MTI(Moving Target Indicator)フィルタ及び血流情報生成部を有する。ドプラ処理回路130は、例えば、カラードプラ法を実行し、血流情報を算出する。カラードプラ法では、超音波の送受信が同一の走査線上で複数回行なわれ、同一位置のデータ列に対してMTIフィルタを掛けることで、静止している組織、或いは、動きの遅い組織に由来する信号(クラッタ信号)を抑制して、血流に由来する信号を抽出する。そしてカラードプラ法では、この血流信号から血流の速度、血流の分散、血流のパワー等の血流情報を推定する。 The Doppler processing circuit 130 has an MTI (Moving Target Indicator) filter and a blood flow information generator. The Doppler processing circuit 130 performs, for example, a color Doppler method to calculate blood flow information. In the color Doppler method, ultrasonic waves are transmitted and received multiple times on the same scanning line, and by applying an MTI filter to the data train at the same position, the image is derived from stationary or slow-moving tissues. Signals (clutter signals) are suppressed to extract signals derived from blood flow. In the color Doppler method, blood flow information such as blood flow velocity, blood flow dispersion, and blood flow power is estimated from this blood flow signal.

MTIフィルタは、フィルタ行列を用いて、同一位置(同一サンプル点)の連続した反射波データのデータ列から、クラッタ成分が抑制され、血流に由来する血流信号が抽出されたデータ列を出力する。血流情報生成部は、MTIフィルタが出力したデータを用いた自己相関演算等の演算を行なって、血流情報を推定し、推定した血流情報をドプラデータとして出力する。MTIフィルタとしては、例えば、バタワース型のIIR(Infinite Impulse Response)フィルタ、多項式回帰フィルタ(Polynomial Regression Filter)等の係数が固定されたフィルタ、または固有ベクトル(eigenvector)等を用いて入力信号に応じて係数を変化させる適応型のフィルタが適用可能である。 The MTI filter uses a filter matrix to output a data string in which clutter components are suppressed and a blood flow signal derived from blood flow is extracted from a data string of continuous reflected wave data at the same position (same sample point). do. The blood flow information generator performs calculations such as autocorrelation using the data output from the MTI filter to estimate blood flow information, and outputs the estimated blood flow information as Doppler data. Examples of the MTI filter include a Butterworth IIR (Infinite Impulse Response) filter, a filter with fixed coefficients such as a polynomial regression filter, or a filter whose coefficients are fixed according to the input signal using an eigenvector or the like. An adaptive filter can be applied that changes .

なお、図2に例示するBモード処理回路120及びドプラ処理回路130は、2次元の反射波データ及び3次元の反射波データの両方について処理可能である。すなわち、Bモード処理回路120は、2次元の反射波データから2次元のBモードデータを生成し、3次元の反射波データから3次元のBモードデータを生成する。また、ドプラ処理回路130は、2次元の反射波データから2次元のドプラデータを生成し、3次元の反射波データから3次元のドプラデータを生成する。 The B-mode processing circuit 120 and the Doppler processing circuit 130 illustrated in FIG. 2 can process both two-dimensional reflected wave data and three-dimensional reflected wave data. That is, the B-mode processing circuit 120 generates two-dimensional B-mode data from the two-dimensional reflected wave data, and generates three-dimensional B-mode data from the three-dimensional reflected wave data. The Doppler processing circuit 130 also generates two-dimensional Doppler data from the two-dimensional reflected wave data, and generates three-dimensional Doppler data from the three-dimensional reflected wave data.

記憶回路140は、処理回路160が生成した表示用の画像データを記憶するメモリである。また、記憶回路140は、Bモード処理回路120やドプラ処理回路130が生成したデータを記憶することも可能である。記憶回路140が記憶するBモードデータやドプラデータは、例えば、診断の後に操作者が呼び出すことが可能となっており、処理回路160を経由して表示用の超音波画像データとなる。 The storage circuit 140 is a memory that stores image data for display generated by the processing circuit 160 . The storage circuit 140 can also store data generated by the B-mode processing circuit 120 and the Doppler processing circuit 130 . The B-mode data and Doppler data stored in the storage circuit 140 can be called up by the operator after diagnosis, for example, and become ultrasonic image data for display via the processing circuit 160 .

また、記憶回路140は、超音波送受信、画像処理及び表示処理を行うための制御プログラムや、診断情報(例えば、患者ID、医師の所見等)や、診断プロトコルや各種ボディーマーク等の各種データを記憶する。また、記憶回路140が記憶するデータは、図示しないインターフェースを経由して、外部装置へ転送することができる。なお、外部装置は、例えば、画像診断を行う医師が使用するPC(Personal Computer)や、CDやDVD等の記憶媒体、プリンター等である。 In addition, the storage circuit 140 stores control programs for transmitting and receiving ultrasonic waves, image processing, and display processing, diagnostic information (for example, patient ID, doctor's findings, etc.), various data such as diagnostic protocols and various body marks. Remember. Data stored in the storage circuit 140 can be transferred to an external device via an interface (not shown). Note that the external device is, for example, a PC (Personal Computer) used by a doctor who performs image diagnosis, a storage medium such as a CD or DVD, a printer, or the like.

通信インターフェース150は、ネットワーク50を経由して外部の各種の装置と通信を行うためのインターフェースである。通信インターフェース150により、処理回路160は、外部装置と通信を行う。例えば、処理回路160は、通信インターフェース150によって、医用画像生成装置10以外の外部装置との間で各種データのやり取りを行うことができる。 The communication interface 150 is an interface for communicating with various external devices via the network 50 . Communication interface 150 allows processing circuitry 160 to communicate with external devices. For example, the processing circuit 160 can exchange various data with an external device other than the medical image generating apparatus 10 via the communication interface 150 .

処理回路160は、医用画像生成装置10の処理全体を制御する。例えば、処理回路160は、プロセッサによって実現される。第1の実施形態に係る処理回路160は、制御機能161、画像生成機能162、設定機能163、第1学習機能164、評価処理機能165、及び第1変更機能166を実行する。 The processing circuitry 160 controls the overall processing of the medical image generating apparatus 10 . For example, processing circuitry 160 is implemented by a processor. A processing circuit 160 according to the first embodiment executes a control function 161 , an image generation function 162 , a setting function 163 , a first learning function 164 , an evaluation processing function 165 and a first change function 166 .

ここで、例えば、図2に示す処理回路160の構成要素である制御機能161、画像生成機能162、設定機能163、第1学習機能164、評価処理機能165、及び第1変更機能166が実行する各処理機能は、コンピュータによって実行可能なプログラムの形態で記憶回路140に記憶されている。処理回路160は、各プログラムを記憶回路140から読み出し、実行することで各プログラムに対応する機能を実現するプロセッサである。換言すると、各プログラムを読み出した状態の処理回路160は、図2の処理回路160内に示された各機能を有することとなる。 Here, for example, the control function 161, the image generation function 162, the setting function 163, the first learning function 164, the evaluation processing function 165, and the first change function 166, which are the components of the processing circuit 160 shown in FIG. Each processing function is stored in the memory circuit 140 in the form of a computer-executable program. The processing circuit 160 is a processor that reads each program from the storage circuit 140 and executes it, thereby implementing functions corresponding to each program. In other words, the processing circuit 160 with each program read has each function shown in the processing circuit 160 of FIG.

なお、制御機能161、画像生成機能162、設定機能163、第1学習機能164、評価処理機能165、及び第1変更機能166の全ての処理機能がコンピュータによって実行可能な1つのプログラムの形態で、記憶回路140に記録されていてもよい。例えば、このようなプログラムは、医用画像生成プログラムとも称される。この場合、処理回路160は、医用画像生成プログラムを記憶回路140から読み出し、読み出した医用画像生成プログラムを実行することで医用画像生成プログラムに対応する制御機能161、画像生成機能162、設定機能163、第1学習機能164、評価処理機能165、及び第1変更機能166を実現する。 All the processing functions of the control function 161, the image generation function 162, the setting function 163, the first learning function 164, the evaluation processing function 165, and the first change function 166 are in the form of one program that can be executed by a computer, It may be recorded in the memory circuit 140 . For example, such programs are also referred to as medical image generation programs. In this case, the processing circuit 160 reads the medical image generation program from the storage circuit 140 and executes the read medical image generation program to perform control function 161, image generation function 162, setting function 163, and control function 161 corresponding to the medical image generation program. A first learning function 164, an evaluation processing function 165, and a first changing function 166 are realized.

画像生成機能162は、取得部の一例である。評価処理機能165及び推定処理機能169は、処理部の一例である。第1変更機能166及び第2変更機能170は、決定部の一例である。設定機能163は、設定部の一例である。第1学習機能164及び第2学習機能168は、学習部の一例である。第1入力機能167及び第2入力機能171は、入力部の一例である。 The image generation function 162 is an example of an acquisition unit. The evaluation processing function 165 and the estimation processing function 169 are examples of processing units. The first change function 166 and the second change function 170 are examples of decision units. The setting function 163 is an example of a setting unit. First learning function 164 and second learning function 168 are examples of a learning unit. The first input function 167 and the second input function 171 are examples of input units.

制御機能161は、医用画像生成装置10の全体制御を実行する。例えば、制御機能161は、通信インターフェース150を制御して、医用画像生成装置10又はPACS30から画像データを取得する。そして、制御機能161は、取得した画像データを記憶回路140に記憶させる。また、制御機能161は、入力インターフェース102を制御して、各種操作を受け付ける。 The control function 161 executes overall control of the medical image generating apparatus 10 . For example, the control function 161 controls the communication interface 150 to acquire image data from the medical image generating apparatus 10 or PACS 30 . Then, the control function 161 causes the storage circuit 140 to store the acquired image data. Also, the control function 161 controls the input interface 102 and receives various operations.

画像生成機能162は、被検体Pが含まれている画像である画像データを取得する。更に詳しくは、画像生成機能162は、設定されているパラメータに基づいて、Bモード処理回路120及びドプラ処理回路130が生成したデータから超音波画像データを生成等により取得する。すなわち、画像生成機能162は、Bモード処理回路120が生成したBモードデータから反射波の強度を輝度にて表したBモード画像データを生成する。また、画像生成機能162は、ドプラ処理回路130が生成したドプラデータから移動体情報を表す平均速度画像、分散画像、パワー画像、又は、これらの組み合わせ画像としてのカラードプラ画像データを生成する。すなわち、画像生成機能162は、設定されているパラメータに基づいて、被検体Pの体内の血流を色彩で表現した超音波画像データを生成する。 The image generation function 162 acquires image data, which is an image including the subject P. FIG. More specifically, the image generating function 162 acquires ultrasound image data by generating or the like from the data generated by the B-mode processing circuit 120 and the Doppler processing circuit 130 based on the set parameters. That is, the image generation function 162 generates B-mode image data representing the intensity of the reflected wave in luminance from the B-mode data generated by the B-mode processing circuit 120 . Also, the image generation function 162 generates color Doppler image data as an average velocity image, a variance image, a power image, or a combination of these images representing moving body information from the Doppler data generated by the Doppler processing circuit 130 . That is, the image generation function 162 generates ultrasound image data that expresses the blood flow in the body of the subject P in colors based on the set parameters.

ここで、画像生成機能162は、一般的には、超音波走査の走査線信号列を、テレビ等に代表されるビデオフォーマットの走査線信号列に変換(スキャンコンバート)し、表示用の超音波画像データを生成する。具体的には、画像生成機能162は、超音波プローブ101による超音波の走査形態に応じて座標変換を行うことで、表示用の超音波画像データを生成する。また、画像生成機能162は、超音波画像データに、種々のパラメータの文字情報、目盛り、ボディーマーク、種々のマーカ等を合成する。 Here, the image generating function 162 generally converts (scan-converts) a scanning line signal train of ultrasonic scanning into a scanning line signal train of a video format typified by television and the like, and converts the ultrasonic waves for display. Generate image data. Specifically, the image generating function 162 generates ultrasonic image data for display by performing coordinate transformation according to the scanning mode of ultrasonic waves by the ultrasonic probe 101 . Also, the image generation function 162 synthesizes character information of various parameters, scales, body marks, various markers, etc. with the ultrasound image data.

設定機能163は、画像データに対して1以上の関心領域R1を設定する。更に詳しくは、設定機能163は、超音波画像データのうち学習済みモデルが評価対象にする領域である関心領域R1を設定する。ここで、図3は、超音波画像データに設定された関心領域R1を説明する説明図である。超音波診断では被検体Pの臓器等の体表の内部を診断する場合が多いため、体表を評価対象から除外したい場合がある。また、診断対象の部位、つまり被検体Pの体表からの深さを示す深度に応じて、描画させたい内容が異なっているため、調整すべきパラメータは、被検体Pの深度に応じて異なっている。例えば、体表から深度が浅い領域については、末梢部の細かい血管を描画させたい場合が多い。この場合には、低速な血流を描画させるようにパラメータを調整する。一方、体表から深度が深い領域については、太い血管を描画させたい場合が多い。この場合、低速な血流を描画させるようにパラメータを調整すると、様々な動きを血流と誤検知してノイズの多い画像となってしまう。 The setting function 163 sets one or more regions of interest R1 for image data. More specifically, the setting function 163 sets the region of interest R1, which is the region to be evaluated by the trained model in the ultrasound image data. Here, FIG. 3 is an explanatory diagram for explaining the region of interest R1 set in the ultrasound image data. Since the inside of a body surface such as an organ of a subject P is often diagnosed in ultrasonic diagnosis, there are cases where it is desired to exclude the body surface from evaluation targets. In addition, since the contents to be drawn differ depending on the part to be diagnosed, that is, the depth indicating the depth from the body surface of the subject P, the parameters to be adjusted differ depending on the depth of the subject P. ing. For example, there are many cases where it is desired to draw fine blood vessels in the periphery of an area that is shallow from the body surface. In this case, the parameters are adjusted so as to draw a slow blood flow. On the other hand, in many cases, it is desired to draw thick blood vessels in areas deep from the body surface. In this case, if the parameters are adjusted so as to render slow blood flow, various movements are erroneously detected as blood flow, resulting in a noisy image.

このような理由により、設定機能163は、深度ごとに関心領域R1を設定する。図3は、例えば被検体Pの深度に応じて、3つの領域に分けて関心領域R1を設定した状態を示している。例えば、設定機能163は、体表の下端から任意の深度までを第1関心領域R11と、第1関心領域R11から任意の深度までを第2関心領域R12と、第2関心領域R12から任意の深度までを第3関心領域R13と設定する。なお、関心領域R1を3分割するのは一例であって、2分割以下であってもよいし、4分割以上であってもよい。また、関心領域R1は、矩形形状に限らず、任意の形状であってもよい。 For this reason, the setting function 163 sets the region of interest R1 for each depth. FIG. 3 shows a state in which the region of interest R1 is divided into three regions according to the depth of the subject P, for example. For example, the setting function 163 sets a first region of interest R11 from the lower end of the body surface to an arbitrary depth, a second region of interest R12 from the first region of interest R11 to an arbitrary depth, and an arbitrary depth from the second region of interest R12. A third region of interest R13 is set up to the depth. It should be noted that dividing the region of interest R1 into three is an example, and it may be divided into two or less, or may be divided into four or more. Also, the region of interest R1 is not limited to a rectangular shape, and may be of any shape.

さらに、診断対象となる臓器はそれぞれ大きさが異なっている。また、超音波プローブ101の角度に応じて、表示される臓器の大きさも異なっている。そのため、関心領域R1は、診断対象の部位や、超音波プローブ101の角度に応じて異なっていることが好ましい。ここで、臓器等の診断対象の部位が表示される深度や、表示される診断対象の大きさは、診断対象の部位や、超音波プローブ101が当てられている被検体Pの位置や、超音波プローブ101の角度により推定することができる。 Furthermore, the organs to be diagnosed are different in size. Also, the size of the displayed organ differs according to the angle of the ultrasonic probe 101 . Therefore, it is preferable that the region of interest R<b>1 differs according to the site to be diagnosed and the angle of the ultrasonic probe 101 . Here, the depth at which a diagnostic target site such as an organ is displayed and the size of the diagnostic target to be displayed may vary depending on the diagnostic target site, the position of the subject P to which the ultrasonic probe 101 is applied, and the ultrasonic wave. It can be estimated from the angle of the acoustic probe 101 .

そこで、設定機能163は、超音波プローブ101が当てられる前に設定された診断対象の部位や、超音波プローブ101が当てられている被検体Pの位置や、超音波プローブ101の角度等のこれらの条件の組み合わせごとに、1以上の関心領域R1を設定する。すなわち、設定機能163は、診断対象の部位や、超音波プローブ101が当てられている被検体Pの位置や、超音波プローブ101の角度の組み合わせに基づいて決定される深度に、これら条件の組み合わせに基づいて決定される大きさの関心領域R1を設定する。この時、関心領域R1は、矩形形状に限らず、他の形状であってもよい。また、超音波プローブ101の角度は、超音波プローブ101に傾斜センサを付加することで検出してもよいし、他の方法により検出してもよい。そして、設定機能163は、体表の下端から関心領域R1を設定する。 Therefore, the setting function 163 is used to set the site to be diagnosed set before the ultrasonic probe 101 is applied, the position of the subject P to which the ultrasonic probe 101 is applied, the angle of the ultrasonic probe 101, and the like. One or more regions of interest R1 are set for each combination of conditions. That is, the setting function 163 sets the combination of these conditions to the depth determined based on the combination of the part to be diagnosed, the position of the subject P to which the ultrasonic probe 101 is applied, and the angle of the ultrasonic probe 101. A region of interest R1 having a size determined based on is set. At this time, the region of interest R1 is not limited to a rectangular shape, and may have another shape. Also, the angle of the ultrasonic probe 101 may be detected by adding a tilt sensor to the ultrasonic probe 101, or may be detected by another method. Then, the setting function 163 sets the region of interest R1 from the lower end of the body surface.

第1学習機能164は、画像データと、評価値との相関関係を学習して学習済みモデルを構築する。ここで、図4は、第1学習機能164による学習処理を示す図である。第1学習機能164は、任意のパラメータで生成した超音波画像データと、超音波画像データの評価値とを組み合わせた学習用データを入力する。そして、第1学習機能164は、機械学習により超音波画像データと、超音波画像データの評価値との相関関係を学習することで、関心領域R1ごとに学習済みモデルを構築する。すなわち、第1学習機能164は、被検体Pの深度ごとに設定された関心領域R1ごとに学習済みモデルを構築する。例えば、第1学習機能164は、第1関心領域R11と、第2関心領域R12と、第3関心領域R13との其々の学習済みモデルを構築する。このようにして構築された学習済みモデルは、超音波画像データが入力されると、超音波画像データの評価値を出力する。 The first learning function 164 builds a learned model by learning the correlation between image data and evaluation values. Here, FIG. 4 is a diagram showing learning processing by the first learning function 164. As shown in FIG. The first learning function 164 inputs learning data obtained by combining ultrasonic image data generated with arbitrary parameters and evaluation values of the ultrasonic image data. Then, the first learning function 164 constructs a learned model for each region of interest R1 by learning the correlation between the ultrasound image data and the evaluation value of the ultrasound image data by machine learning. That is, the first learning function 164 constructs a learned model for each region of interest R1 set for each depth of the subject P. FIG. For example, the first learning function 164 builds trained models for each of a first region of interest R11, a second region of interest R12, and a third region of interest R13. The learned model constructed in this way outputs an evaluation value of the ultrasonic image data when the ultrasonic image data is input.

ここで、超音波画像データと、超音波画像データの評価値とが組み合わされた学習用データは、医用情報処理装置40等の他の装置から受信してもよいし、医用画像生成装置10で生成してもよい。医用画像生成装置10で生成する場合、第1学習機能164は、例えば、超音波画像データごとに超音波画像データの評価値を入力する操作を受け付けることにより生成する。 Here, the learning data in which the ultrasound image data and the evaluation value of the ultrasound image data are combined may be received from another device such as the medical information processing device 40, or may be received by the medical image generation device 10. may be generated. When generated by the medical image generating apparatus 10, the first learning function 164 generates, for example, by receiving an operation of inputting an evaluation value of ultrasonic image data for each ultrasonic image data.

また、第1学習機能164は、関心領域R1ごとに評価項目が定められている場合には、評価項目ごとの評価値を入力する。例えば、評価項目とは、末梢部の細かい血管を描出できているか、深部の血流を捉えられているか、血管のつながり具合を描出できているか等である。また、評価項目は、関心領域R1ごとに異なっていてもよいし、同じであってもよい。 Moreover, the first learning function 164 inputs an evaluation value for each evaluation item when an evaluation item is defined for each region of interest R1. For example, evaluation items include whether or not fine blood vessels in peripheral parts can be visualized, whether blood flow in deep parts can be captured, and how blood vessels can be connected. Moreover, the evaluation items may be different for each region of interest R1, or may be the same.

さらに、第1学習機能164は、診断対象の部位や、超音波プローブ101が当てられている被検体Pの位置や、超音波プローブ101の角度等のこれらの条件の組み合わせごとに関心領域R1が設定されている場合、これら条件の組み合わせごとに設定された1以上の関心領域R1ごとに、学習済みモデルを構築する。 Furthermore, the first learning function 164 determines the region of interest R1 for each combination of conditions such as the site to be diagnosed, the position of the subject P to which the ultrasonic probe 101 is applied, and the angle of the ultrasonic probe 101. If set, a learned model is constructed for each of the one or more regions of interest R1 set for each combination of these conditions.

評価処理機能165は、学習済みモデルを用いて、画像生成機能162が取得した画像データに応じた出力情報を得る。すなわち、評価処理機能165は、画像データと、評価値との相関関係を学習した学習済みモデルを用いて、画像生成機能162が取得した学習データに対応する評価値を出力情報として得る。ここで、図5は、評価処理機能165による運用処理を示す図である。画像生成機能162が任意のパラメータで生成した超音波画像データを評価対象の関心領域R1に応じた学習済みモデルに入力すると、学習済みモデルは、入力された超音波画像データの評価値が含まれる出力情報を出力する。すなわち、学習済みモデルは、入力された超音波画像データにおける評価対象の関心領域R1の評価値を出力する。例えば、第1関心領域R11を対象とする学習済みモデルは、第1関心領域R11の評価値を出力する。第2関心領域R12を対象とする学習済みモデルは、第2関心領域R12の評価値を出力する。第3関心領域R13を対象とする学習済みモデルは、第3関心領域R13の評価値を出力する。さらに、学習済みモデルは、関心領域R1ごとに評価項目が定められている場合には、評価項目ごとに評価値を出力する。 The evaluation processing function 165 obtains output information according to the image data acquired by the image generation function 162 using the learned model. That is, the evaluation processing function 165 obtains the evaluation value corresponding to the learning data acquired by the image generation function 162 as output information using a trained model that has learned the correlation between the image data and the evaluation value. Here, FIG. 5 is a diagram showing operation processing by the evaluation processing function 165. As shown in FIG. When the ultrasonic image data generated by the image generation function 162 with arbitrary parameters is input to the trained model corresponding to the region of interest R1 to be evaluated, the trained model includes the evaluation value of the input ultrasonic image data. Output output information. That is, the trained model outputs the evaluation value of the region of interest R1 to be evaluated in the input ultrasound image data. For example, a trained model targeting the first region of interest R11 outputs an evaluation value of the first region of interest R11. A trained model targeting the second region of interest R12 outputs an evaluation value of the second region of interest R12. A trained model targeting the third region of interest R13 outputs an evaluation value of the third region of interest R13. Furthermore, the learned model outputs an evaluation value for each evaluation item when an evaluation item is defined for each region of interest R1.

そして、評価処理機能165は、評価値をパラメータにフィードバックする。すなわち、評価処理機能165は、評価値が閾値未満の場合には、第1変更機能166にパラメータの変更を要求する。ここで、診断対象の部位や、超音波プローブ101が当てられている被検体Pの位置や、超音波プローブ101の角度に基づいて関心領域R1が設定されている場合には、評価処理機能165は、これら条件に適合した学習済みモデルを特定する。そして、評価処理機能165は、特定した学習済みモデルに対して、画像生成機能162が生成した超音波画像データを入力することで、入力した超音波画像データの評価値が含まれる出力情報を出力させる。 Then, the evaluation processing function 165 feeds back the evaluation value to the parameter. That is, the evaluation processing function 165 requests the first change function 166 to change the parameter when the evaluation value is less than the threshold. Here, when the region of interest R1 is set based on the site to be diagnosed, the position of the subject P to which the ultrasonic probe 101 is applied, and the angle of the ultrasonic probe 101, the evaluation processing function 165 identifies trained models that meet these conditions. Then, the evaluation processing function 165 inputs the ultrasound image data generated by the image generation function 162 to the identified trained model, and outputs output information including the evaluation value of the input ultrasound image data. Let

第1変更機能166は、評価処理機能165が得た出力情報に基づいて、画像データの取得に関するパラメータを決定する。第1の実施形態では、第1変更機能166は、学習済みモデルが出力した出力情報に含まれる評価値が閾値未満の場合に、パラメータを変更する。第1変更機能166は、関心領域R1ごとに評価項目が定められている場合には、最も評価値が低い評価項目の評価値を上げるために、パラメータを変更する。例えば、第1変更機能166は、末梢部の細かい血管など低流速の血管を描出できていない場合、MTIフィルタやWallフィルタを低流速側にシフトさせたり、表示する流速範囲を調節したりすることで、より低流速まで捉えられるようにする。逆にROI内にノイズが多く発生している場合には、第1変更機能166は、フィルタを高流速側にシフトさせることで、ノイズを取り除くよう調節する。また、第1変更機能166は、深部の血管など高流速の血管を描出できていない場合、送信周波数を下げることで最大検出可能速度を上げるよう調節する。 The first change function 166 determines parameters related to image data acquisition based on the output information obtained by the evaluation processing function 165 . In the first embodiment, the first change function 166 changes the parameter when the evaluation value included in the output information output by the trained model is less than the threshold. The first change function 166 changes the parameter in order to increase the evaluation value of the evaluation item with the lowest evaluation value when evaluation items are defined for each region of interest R1. For example, the first change function 166 shifts the MTI filter or Wall filter to the low-flow side or adjusts the flow-velocity range to be displayed when low-flow-velocity blood vessels such as peripheral fine blood vessels cannot be visualized. , so that even lower flow velocities can be captured. Conversely, if a lot of noise occurs in the ROI, the first change function 166 shifts the filter to the high flow velocity side to adjust the noise. In addition, the first change function 166 adjusts to increase the maximum detectable speed by lowering the transmission frequency when a high-flow blood vessel such as a deep blood vessel cannot be visualized.

次に、第1の実施形態において、学習済みマスタの運用時における画像生成処理について説明する。図6は、第1の実施形態に係る画像生成処理の処理手順を示すフローチャートである。 Next, in the first embodiment, image generation processing when using a learned master will be described. FIG. 6 is a flow chart showing a processing procedure of image generation processing according to the first embodiment.

制御機能161は、診断対象の部位や深度を設定する操作を受け付ける(ステップS11)。 The control function 161 receives an operation for setting the part and depth to be diagnosed (step S11).

画像生成機能162は、パラメータに基づいて、超音波画像データを生成する(ステップS12)。 The image generation function 162 generates ultrasound image data based on the parameters (step S12).

評価処理機能165は、生成した超音波画像データを、設定された深度の学習済みモデルに入力して、出力情報を出力させる(ステップS13)。すなわち、評価処理機能165は、評価項目ごとに超音波画像データの評価値を得る。 The evaluation processing function 165 inputs the generated ultrasound image data to the trained model of the set depth, and outputs output information (step S13). That is, the evaluation processing function 165 obtains an evaluation value of ultrasonic image data for each evaluation item.

第1変更機能166は、各評価項目の評価値が閾値未満であるか否かを判定する(ステップS14)。 The first change function 166 determines whether the evaluation value of each evaluation item is less than the threshold (step S14).

閾値未満の評価値がある場合に(ステップS14;Yes)、第1変更機能166は、最も評価値が低い評価項目の評価値を上げるパラメータを変更する(ステップS15)。そして、医用画像生成装置10は、ステップS12に移行して、再度超音波画像データを生成する。 If there is an evaluation value less than the threshold (step S14; Yes), the first change function 166 changes the parameter for increasing the evaluation value of the evaluation item with the lowest evaluation value (step S15). Then, the medical image generating apparatus 10 proceeds to step S12 and generates ultrasonic image data again.

一方、閾値未満の評価値がない場合に(ステップS14;No)、画像生成機能162は、パラメータに基づいて、超音波画像データを生成する(ステップS16)。 On the other hand, if there is no evaluation value less than the threshold (step S14; No), the image generation function 162 generates ultrasound image data based on the parameters (step S16).

制御機能161は、超音波画像データの取得を終了する操作を受け付けたか否かを判定する(ステップS17)。超音波画像データの取得を終了する操作を受け付けていない場合に(ステップS17;No)、医用画像生成装置10は、ステップS16に移行して、再度超音波画像データを生成する。 The control function 161 determines whether or not an operation to terminate acquisition of ultrasound image data has been received (step S17). If an operation to terminate acquisition of ultrasound image data has not been received (step S17; No), the medical image generating apparatus 10 proceeds to step S16 and generates ultrasound image data again.

超音波画像データの取得を終了する操作を受け付けた場合に(ステップS17;Yes)、医用画像生成装置10は、画像生成処理を終了する。 If an operation to terminate the acquisition of ultrasound image data has been received (step S17; Yes), the medical image generating apparatus 10 terminates the image generation processing.

以上のように、第1の実施形態に係る医用画像生成装置10は、超音波画像データを学習済みモデルに入力することで、入力した超音波画像データの評価値を取得する。そして、医用画像生成装置10は、評価値が閾値未満の場合に、パラメータを変更して再度超音波画像データを生成する。医用画像生成装置10は、この処理を繰り返し実行することで、適切なパラメータが設定されて、閾値以上の評価値の超音波画像データを生成することができる。すなわち、医用画像生成装置10は、生成する超音波画像データの画像の品質を向上させることができる。 As described above, the medical image generating apparatus 10 according to the first embodiment acquires the evaluation value of the input ultrasound image data by inputting the ultrasound image data into the trained model. Then, when the evaluation value is less than the threshold, the medical image generating apparatus 10 changes the parameters and generates ultrasound image data again. By repeatedly executing this process, the medical image generating apparatus 10 can set appropriate parameters and generate ultrasound image data with an evaluation value equal to or greater than the threshold. That is, the medical image generating apparatus 10 can improve the image quality of the generated ultrasound image data.

(第1の実施形態の第1の変形例)
第1の実施形態の第1の変形例について説明する。ここで、図7は、第1の実施形態の第1の変形例にかかる医用画像生成装置10aの構成の一例を示すブロック図である。第1の実施形態の第1の変形例に係る医用画像生成装置10aの処理回路160aは、第1学習機能164に代えて、第1入力機能167を備えている。
(First Modification of First Embodiment)
A first modification of the first embodiment will be described. Here, FIG. 7 is a block diagram showing an example of the configuration of the medical image generating apparatus 10a according to the first modification of the first embodiment. The processing circuit 160a of the medical image generating apparatus 10a according to the first modification of the first embodiment has a first input function 167 instead of the first learning function 164. FIG.

第1入力機能167は、医用情報処理装置40等の他の装置から学習済みモデルを、受信等により入力を受け付ける。さらに詳しくは、第1入力機能167は、超音波画像データと、評価値との相関関係を学習することで構築された学習済みモデルの入力を受け付ける。なお、第1入力機能167は、受信に限らず、学習済みモデルを記憶した記憶媒体から接続インターフェースを介して入力を受け付けてもよい。 The first input function 167 accepts an input such as by receiving a trained model from another device such as the medical information processing device 40 . More specifically, the first input function 167 receives an input of a trained model constructed by learning the correlation between ultrasound image data and evaluation values. Note that the first input function 167 is not limited to receiving, and may receive input from a storage medium storing a learned model via a connection interface.

以上のように、第1の実施形態の第1の変形例に係る医用画像生成装置10aは、学習済みモデルの入力を受け付ける。よって、医用画像生成装置10aは、第1学習機能164を備えていなくても学習済みモデルを取得することが可能である。従って、医用画像生成装置10aは、第1学習機能164を備えていなくても適切なパラメータで画像データを生成することができる。すなわち、医用画像生成装置10aは、第1学習機能164を備えていなくても、生成する超音波画像データの画像の品質を向上させることができる。 As described above, the medical image generating apparatus 10a according to the first modification of the first embodiment accepts inputs of trained models. Therefore, the medical image generating apparatus 10a can acquire a trained model without having the first learning function 164. FIG. Therefore, the medical image generating apparatus 10a can generate image data with appropriate parameters without the first learning function 164. FIG. That is, the medical image generating apparatus 10a can improve the image quality of the generated ultrasound image data even without the first learning function 164 .

(第2の実施形態)
第2の実施形態について説明する。ここで、図8は、第2の実施形態に係る医用画像生成装置10bの構成の一例を示すブロック図である。第2の実施形態に係る医用情報処理装置40の処理回路160bは、第1学習機能164に代えて、第2学習機能168を備えている。また、医用情報処理装置40は、評価処理機能165に代えて、推定処理機能169を備えている。また、医用情報処理装置40は、第1変更機能166に代えて、第2変更機能170を備えている。
(Second embodiment)
A second embodiment will be described. Here, FIG. 8 is a block diagram showing an example of the configuration of the medical image generating apparatus 10b according to the second embodiment. The processing circuit 160 b of the medical information processing apparatus 40 according to the second embodiment has a second learning function 168 instead of the first learning function 164 . The medical information processing apparatus 40 also has an estimation processing function 169 instead of the evaluation processing function 165 . The medical information processing apparatus 40 also has a second change function 170 instead of the first change function 166 .

第2学習機能168は、画像データと、パラメータとの相関関係を学習して学習済みモデルを構築する。ここで、図9は、第2学習機能168による学習処理を示す図である。第2学習機能168は、超音波画像データと、設定することで超音波画像データの評価値が閾値以上になる適切なパラメータとを用いて、機械学習により学習済みモデルを構築する。更に詳しくは、第2学習機能168は、画像生成機能162が初期設定のパラメータで生成した超音波画像データと、適切なパラメータとを組み合わせた学習用データを入力する。そして、第2学習機能168は、機械学習により超音波画像データと、適切なパラメータとの相関関係を学習することで、関心領域R1ごとに学習済みモデルを構築する。すなわち、第2学習機能168は、被検体Pの深度ごとに設定された関心領域R1ごとに学習済みモデルを構築する。例えば、第2学習機能168は、第1関心領域R11と、第2関心領域R12と、第3関心領域R13との其々の学習済みモデルを構築する。さらに、第2学習機能168は、診断対象の部位や、超音波プローブ101が当てられている被検体Pの位置や、超音波プローブ101の角度に基づいて関心領域R1が設定されている場合には、これら条件の組み合わせごとに設定された1以上の関心領域R1ごとに、学習済みモデルを構築する。このようにして生成された学習済みモデルは、超音波画像データが入力されると、再設定して超音波画像データを生成することで評価値が閾値以上の超音波画像データを生成することができる適切なパラメータを出力する。 A second learning function 168 builds a trained model by learning correlations between image data and parameters. Here, FIG. 9 is a diagram showing learning processing by the second learning function 168. As shown in FIG. The second learning function 168 constructs a learned model by machine learning using ultrasonic image data and appropriate parameters that, when set, make the evaluation value of the ultrasonic image data equal to or higher than the threshold. More specifically, the second learning function 168 inputs learning data obtained by combining ultrasound image data generated by the image generating function 162 with default parameters and appropriate parameters. Then, the second learning function 168 builds a learned model for each region of interest R1 by learning the correlation between the ultrasound image data and appropriate parameters through machine learning. That is, the second learning function 168 constructs a learned model for each region of interest R1 set for each depth of the subject P. FIG. For example, the second learning function 168 builds trained models for each of a first region of interest R11, a second region of interest R12, and a third region of interest R13. Furthermore, the second learning function 168 is used when the region of interest R1 is set based on the site to be diagnosed, the position of the subject P to which the ultrasonic probe 101 is applied, and the angle of the ultrasonic probe 101. constructs a trained model for each of one or more regions of interest R1 set for each combination of these conditions. When ultrasonic image data is input, the trained model generated in this way can be reset to generate ultrasonic image data, thereby generating ultrasonic image data with an evaluation value equal to or greater than the threshold. Output the appropriate parameters that can be

ここで、超音波画像データと、適切なパラメータとが組み合わされた学習用データは、医用情報処理装置40等の他の装置から受信してもよいし、医用画像生成装置10bで生成してもよい。医用画像生成装置10bで生成する場合、第2学習機能168は、超音波画像データごとに、適切なパラメータを入力する操作を受け付けることにより生成する。 Here, the learning data in which the ultrasound image data and appropriate parameters are combined may be received from another device such as the medical information processing device 40, or may be generated by the medical image generation device 10b. good. When generated by the medical image generating apparatus 10b, the second learning function 168 generates by accepting an operation of inputting appropriate parameters for each ultrasonic image data.

推定処理機能169は、画像データと、画像データの評価値を閾値以上にするパラメータとの相関関係を学習した学習済みモデルを用いて、画像生成機能162が取得した学習データに対応するパラメータを出力情報として得る。すなわち、推定処理機能169は、画像データと、画像データの評価値を閾値以上にするパラメータとの相関関係を学習した学習済みモデルを用いて、画像生成機能162が取得した画像データに対応するパラメータを出力情報として得る。ここで、図10は、推定処理機能169による運用処理を示す図である。推定処理機能169は、学習済みモデルに対して、画像生成機能162が生成した超音波画像データを入力することで、評価値が閾値以上となる超音波画像データを生成することができる適切なパラメータが含まれる出力情報を出力させる。すなわち、学習済みモデルは、入力された超音波画像データに対する適切なパラメータを出力する。この時、推定処理機能169は、画像生成機能162が初期設定のパラメータで生成した超音波像データを評価対象の関心領域R1に応じた学習済みモデルに入力する。例えば、第1関心領域R11を評価対象とする場合には、推定処理機能169は、第1関心領域R11の学習済みモデルに超音波像データを入力する。第2関心領域R12を評価対象とする場合には、推定処理機能169は、第2関心領域R12の学習済みモデルに超音波像データを入力する。第3関心領域R13を評価対象とする場合には、推定処理機能169は、第3関心領域R13の学習済みモデルに超音波像データを入力する。そして、各学習済みモデルは、それぞれパラメータを出力する。 The estimation processing function 169 outputs the parameter corresponding to the learning data acquired by the image generation function 162 using a trained model that has learned the correlation between the image data and the parameter that makes the evaluation value of the image data equal to or higher than the threshold. get information. That is, the estimation processing function 169 uses a trained model that has learned the correlation between the image data and the parameter that makes the evaluation value of the image data equal to or higher than the threshold, and uses the parameter corresponding to the image data acquired by the image generation function 162. is obtained as output information. Here, FIG. 10 is a diagram showing operation processing by the estimation processing function 169. As shown in FIG. The estimation processing function 169 inputs the ultrasound image data generated by the image generation function 162 to the trained model, thereby generating ultrasound image data whose evaluation value is equal to or greater than a threshold. output information that includes . That is, the trained model outputs appropriate parameters for the input ultrasound image data. At this time, the estimation processing function 169 inputs the ultrasound image data generated by the image generation function 162 with the default parameters to the trained model corresponding to the region of interest R1 to be evaluated. For example, when the first region of interest R11 is to be evaluated, the estimation processing function 169 inputs ultrasound image data to the trained model of the first region of interest R11. When the second region of interest R12 is to be evaluated, the estimation processing function 169 inputs ultrasound image data to the trained model of the second region of interest R12. When the third region of interest R13 is to be evaluated, the estimation processing function 169 inputs ultrasound image data to the trained model of the third region of interest R13. Then, each trained model outputs its parameters.

ここで、診断対象の部位や、超音波プローブ101が当てられている被検体Pの位置や、超音波プローブ101の角度に基づいて関心領域R1が設定されている場合には、推定処理機能169は、これら条件に適合した学習済みモデルを特定する。そして、推定処理機能169は、特定した学習済みモデルに対して、画像生成機能162が生成した超音波画像データを入力することで、入力した超音波画像データの評価値を閾値以上にする適切なパラメータが含まれる出力情報を出力させる。 Here, if the region of interest R1 is set based on the site to be diagnosed, the position of the subject P to which the ultrasonic probe 101 is applied, or the angle of the ultrasonic probe 101, the estimation processing function 169 identifies trained models that meet these conditions. Then, the estimation processing function 169 inputs the ultrasonic image data generated by the image generating function 162 to the identified trained model, thereby making the evaluation value of the input ultrasonic image data equal to or higher than the threshold. Causes output information containing parameters to be output.

第2変更機能170は、推定処理機能169が学習済みモデルに出力させた出力情報に基づいて、画像生成機能162が超音波画像データを生成するパラメータを決定する。第2実施形態では、第2変更機能170は、学習済みモデルが出力した出力情報に含まれるパラメータに変更する。そして、画像生成機能162が出力されたパラメータで超音波画像データを生成することで適切な超音波画像データが生成される。ここで、適切な超音波画像データとは、評価値が閾値以上の超音波画像データである。 The second change function 170 determines parameters for the image generation function 162 to generate ultrasound image data based on the output information that the estimation processing function 169 causes the trained model to output. In the second embodiment, the second change function 170 changes the parameter to be included in the output information output by the learned model. Appropriate ultrasonic image data is generated by generating ultrasonic image data using the parameters output by the image generating function 162 . Here, appropriate ultrasound image data is ultrasound image data whose evaluation value is equal to or greater than a threshold.

次に、第2の実施形態において、学習済みマスタの運用時における画像生成処理について説明する。図11は、第2の実施形態に係る画像生成処理の処理手順を示すフローチャートである。 Next, in the second embodiment, image generation processing when using a learned master will be described. FIG. 11 is a flow chart showing a processing procedure of image generation processing according to the second embodiment.

制御機能161は、診断対象の部位や深度を設定する操作を受け付ける(ステップS21)。 The control function 161 receives an operation for setting the part and depth to be diagnosed (step S21).

画像生成機能162は、パラメータに基づいて、超音波画像データを生成する(ステップS22)。 The image generation function 162 generates ultrasound image data based on the parameters (step S22).

推定処理機能169は、生成した超音波画像データを、設定された深度の学習済みモデルに入力して、出力情報を出力させる(ステップS23)。すなわち、推定処理機能169は、入力された超音波画像データの生成において設定すべき適切なパラメータを出力させる。 The estimation processing function 169 inputs the generated ultrasound image data to the trained model of the set depth and outputs output information (step S23). That is, the estimation processing function 169 outputs appropriate parameters to be set in generating the input ultrasound image data.

第2変更機能170は、出力されたパラメータに設定を変更する(ステップS24)。 The second change function 170 changes the setting to the output parameter (step S24).

画像生成機能162は、パラメータに基づいて、超音波画像データを生成する(ステップS25)。すなわち、画像生成機能162は、適切なパラメータに基づいて、適切な超音波画像データを生成する。 The image generation function 162 generates ultrasound image data based on the parameters (step S25). That is, the image generation function 162 generates appropriate ultrasound image data based on appropriate parameters.

制御機能161は、超音波画像データの取得を終了する操作を受け付けたか否かを判定する(ステップS26)。超音波画像データの取得を終了する操作を受け付けていない場合に(ステップS26;No)、医用画像生成装置10bは、ステップS25に移行して、再度超音波画像データを生成する。 The control function 161 determines whether or not an operation to terminate acquisition of ultrasound image data has been received (step S26). If an operation to terminate acquisition of ultrasound image data has not been received (step S26; No), the medical image generating apparatus 10b proceeds to step S25 and generates ultrasound image data again.

超音波画像データの取得を終了する操作を受け付けた場合に(ステップS26;Yes)、医用画像生成装置10bは、画像生成処理を終了する。 When receiving an operation to terminate the acquisition of ultrasound image data (step S26; Yes), the medical image generating apparatus 10b terminates the image generation processing.

以上のように、第2の実施形態に係る医用画像生成装置10bは、超音波画像データを学習済みモデルに入力することで、入力した超音波画像データの生成において設定すべき適切なパラメータを取得する。よって、医用画像生成装置10bは、適切なパラメータで画像データを生成することができる。すなわち、医用画像生成装置10bは、生成する超音波画像データの画像の品質を向上させることができる。 As described above, the medical image generation apparatus 10b according to the second embodiment acquires appropriate parameters to be set in generating the input ultrasound image data by inputting the ultrasound image data into the trained model. do. Therefore, the medical image generating apparatus 10b can generate image data with appropriate parameters. That is, the medical image generating apparatus 10b can improve the image quality of the generated ultrasound image data.

(第2の実施形態の第1の変形例)
第2の実施形態の第1の変形例について説明する。ここで、図12は、第2の実施形態の第1の変形例にかかる医用画像生成装置10cの構成の一例を示すブロック図である。第2の実施形態の第1の変形例に係る医用画像生成装置10cの処理回路160cは、第2学習機能168に代えて、第2入力機能171を備えている。
(First Modification of Second Embodiment)
A first modification of the second embodiment will be described. Here, FIG. 12 is a block diagram showing an example of the configuration of a medical image generating apparatus 10c according to the first modified example of the second embodiment. The processing circuit 160c of the medical image generating apparatus 10c according to the first modification of the second embodiment has a second input function 171 instead of the second learning function 168. FIG.

第2入力機能171は、医用情報処理装置40等の他の装置から学習済みモデルを、受信等により入力を受け付ける。さらに詳しくは、第2入力機能171は、超音波画像データと、超音波画像データの評価値を閾値以上にするパラメータとの入力を受け付けて、超音波画像データと、パラメータとの相関関係を学習することで構築された学習済みモデルの入力を受け付ける。なお、第2入力機能171は、受信に限らず、学習済みモデルを記憶した記憶媒体から接続インターフェースを介して入力を受け付けてもよい。 The second input function 171 accepts input such as by receiving a trained model from another device such as the medical information processing device 40 . More specifically, the second input function 171 receives input of ultrasound image data and parameters that make the evaluation value of the ultrasound image data equal to or higher than a threshold, and learns the correlation between the ultrasound image data and the parameters. Accepts the input of a trained model built by In addition, the second input function 171 may receive input from a storage medium storing a learned model via a connection interface instead of receiving.

以上のように、第2の実施形態の第1の変形例に係る医用画像生成装置10cは、学習済みモデルの入力を受け付ける。よって、医用画像生成装置10cは、第2学習機能168を備えていなくても学習済みモデルを取得することが可能である。従って、医用画像生成装置10cは、第2学習機能168を備えていなくても適切なパラメータで画像データを生成することができる。すなわち、医用画像生成装置10cは、第2学習機能168を備えていなくても、生成する超音波画像データの画像の品質を向上させることができる。 As described above, the medical image generating apparatus 10c according to the first modification of the second embodiment accepts inputs of trained models. Therefore, the medical image generating apparatus 10c can acquire a trained model without the second learning function 168. FIG. Therefore, the medical image generating apparatus 10c can generate image data with appropriate parameters without the second learning function 168. FIG. That is, the medical image generating apparatus 10c can improve the image quality of the generated ultrasound image data even without the second learning function 168 .

また、上述した実施形態では、単一の処理回路(処理回路160、160a、160b、160c)によって各処理機能が実現される場合の例を説明したが、実施形態はこれに限られない。例えば、処理回路160、160a、160b、160cは、複数の独立したプロセッサを組み合わせて構成され、各プロセッサが各プログラムを実行することにより各処理機能を実現するものとしても構わない。また、処理回路160、160a、160b、160cが有する各処理機能は、単一又は複数の処理回路に適宜に分散又は統合されて実現されてもよい。 Further, in the above-described embodiment, an example in which each processing function is realized by a single processing circuit (processing circuits 160, 160a, 160b, 160c) has been described, but the embodiment is not limited to this. For example, the processing circuits 160, 160a, 160b, and 160c may be configured by combining a plurality of independent processors, and each processor may implement each processing function by executing each program. Moreover, each processing function of the processing circuits 160, 160a, 160b, and 160c may be appropriately distributed or integrated in a single or a plurality of processing circuits and implemented.

上述した各実施形態の説明で用いた「プロセッサ」という文言は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、或いは、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。ここで、メモリにプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むように構成しても構わない。この場合には、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。また、本実施形態の各プロセッサは、プロセッサごとに単一の回路として構成される場合に限らず、複数の独立した回路を組み合わせて一つのプロセッサとして構成され、その機能を実現するようにしてもよい。 The word "processor" used in the description of each embodiment described above is, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), or an application specific integrated circuit (ASIC), a programmable Means circuits such as logic devices (for example, Simple Programmable Logic Device (SPLD), Complex Programmable Logic Device (CPLD), and Field Programmable Gate Array (FPGA)) do. Here, instead of storing the program in the memory, the program may be configured to be directly embedded in the circuit of the processor. In this case, the processor implements its functions by reading and executing the program embedded in the circuit. Further, each processor of the present embodiment is not limited to being configured as a single circuit for each processor, and may be configured as one processor by combining a plurality of independent circuits to realize its function. good.

ここで、プロセッサによって実行されるプログラムは、ROM(Read Only Memory)や記憶部等に予め組み込まれて提供される。なお、このプログラムは、これらの装置にインストール可能な形式又は実行可能な形式のファイルでCD(Compact Disk)-ROM、FD(Flexible Disk)、CD-R(Recordable)、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記憶媒体に記録されて提供されてもよい。また、このプログラムは、インターネット等のネットワークに接続されたコンピュータ上に格納され、ネットワーク経由でダウンロードされることにより提供又は配布されてもよい。例えば、このプログラムは、各機能部を含むモジュールで構成される。実際のハードウェアとしては、CPUが、ROM等の記憶媒体からプログラムを読み出して実行することにより、各モジュールが主記憶装置上にロードされて、主記憶装置上に生成される。 Here, the program executed by the processor is preinstalled in a ROM (Read Only Memory), storage unit, or the like and provided. This program is a file in a format that can be installed in these devices or in a format that can be executed, such as CD (Compact Disk)-ROM, FD (Flexible Disk), CD-R (Recordable), DVD (Digital Versatile Disk), etc. may be provided on a computer readable storage medium. Also, this program may be provided or distributed by being stored on a computer connected to a network such as the Internet and downloaded via the network. For example, this program is composed of modules containing each functional unit. As actual hardware, the CPU reads out a program from a storage medium such as a ROM and executes it, so that each module is loaded onto the main storage device and generated on the main storage device.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。更に、各装置にて行なわれる各処理機能は、その全部又は任意の一部が、CPU及び当該CPUにて解析実行されるプログラムにて実現され、或いは、ワイヤードロジックによるハードウェアとして実現され得る。 Also, each component of each device illustrated is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution and integration of each device is not limited to the illustrated one, and all or part of them can be functionally or physically distributed and integrated in arbitrary units according to various loads and usage conditions. Can be integrated and configured. Furthermore, each processing function performed by each device may be implemented in whole or in part by a CPU and a program analyzed and executed by the CPU, or implemented as hardware based on wired logic.

また、上述した実施形態で説明した医用画像処理方法は、予め用意されたプログラムをパーソナルコンピュータやワークステーション等のコンピュータで実行することによって実現することができる。このプログラムは、インターネット等のネットワークを介して配布することができる。また、このプログラムは、ハードディスク、フレキシブルディスク(FD)、CD-ROM、MO、DVD等のコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することもできる。 Further, the medical image processing method described in the above embodiments can be realized by executing a prepared program on a computer such as a personal computer or a workstation. This program can be distributed via a network such as the Internet. The program can also be recorded on a computer-readable recording medium such as a hard disk, flexible disk (FD), CD-ROM, MO, DVD, etc., and executed by being read from the recording medium by a computer.

以上説明した少なくとも一つの実施形態によれば、適切なパラメータで画像データを生成することができる。 According to at least one embodiment described above, image data can be generated with appropriate parameters.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 While several embodiments of the invention have been described, these embodiments have been presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. These embodiments and their modifications are included in the scope and spirit of the invention, as well as the scope of the invention described in the claims and equivalents thereof.

1 医用情報処理システム
10、10a、10b、10c 医用画像生成装置
20 電子カルテシステム
30 PACS
40 医用情報処理装置
50 ネットワーク
160、160a、160b、160c 処理回路
161 制御機能
162 画像生成機能
163 設定機能
164 第1学習機能
165 評価処理機能
166 第1変更機能
167 第1入力機能
168 第2学習機能
169 推定処理機能
170 第2変更機能
171 第2入力機能
1 medical information processing system 10, 10a, 10b, 10c medical image generation device 20 electronic chart system 30 PACS
40 medical information processing apparatus 50 network 160, 160a, 160b, 160c processing circuit 161 control function 162 image generation function 163 setting function 164 first learning function 165 evaluation processing function 166 first changing function 167 first input function 168 second learning function 169 estimation processing function 170 second change function 171 second input function

Claims (5)

被検体が含まれる画像である被検体画像データを取得する取得部と、
前記被検体画像データに対して前記被検体の深度が異なる少なくとも2以上の関心領域を設定する設定部と、
像データと当該画像データの深度ごとの評価値との相関関係を学習した学習済みモデルに前記被検体画像データを入力し、当該被検体画像データの評価値を前記関心領域ごとに示す出力情報を得る処理部と、
前記処理部が得た前記出力情報の前記関心領域ごとに示される前記評価値が基準値を満たすよう前記被検体画像データの取得に関するパラメータを決定する決定部と、
を備える医用画像生成装置。
an acquisition unit that acquires subject image data, which is an image including the subject;
a setting unit that sets at least two regions of interest having different depths of the subject for the subject image data;
The subject image data is input to a trained model that has learned the correlation between the image data and the evaluation value for each depth of the image data, and the evaluation value of the subject image data is indicated for each region of interest . a processing unit that obtains output information;
a determination unit that determines parameters related to acquisition of the subject image data so that the evaluation value indicated for each region of interest in the output information obtained by the processing unit satisfies a reference value ;
A medical image generation device comprising:
前記設定部は、診断対象の部位及びプローブの角度の組み合わせごとに、以上の前記関心領域を設定する、
請求項1に記載の医用画像生成装置。
The setting unit sets two or more regions of interest for each combination of a site to be diagnosed and an angle of the probe .
The medical image generating apparatus according to claim 1 .
前記被検体画像データと、前記評価値との相関関係を学習して構築された前記学習済みモデルの入力を受け付ける第1入力部を更に備える、
請求項1または2に記載の医用画像生成装置。
further comprising a first input unit that receives an input of the trained model constructed by learning the correlation between the subject image data and the evaluation value;
The medical image generating apparatus according to claim 1 or 2 .
前記決定部は、前記処理部が得た前記出力情報に基づいて、前記深度に応じた血管を描画した前記被検体画像データに関するパラメータを決定する、
請求項1から請求項の何れか一項に記載の医用画像生成装置。
The determination unit determines parameters related to the subject image data in which blood vessels are drawn according to the depth, based on the output information obtained by the processing unit.
The medical image generation apparatus according to any one of claims 1 to 3 .
被検体が含まれる画像である被検体画像データを取得し、
前記被検体画像データに対して前記被検体の深度が異なる少なくとも2以上の関心領域を設定し
像データと当該画像データの深度ごとの評価値との相関関係を学習した学習済みモデルに前記被検体画像データを入力し、当該被検体画像データの評価値を前記関心領域ごとに示す出力情報を得て、
得られた前記出力情報の前記関心領域ごとに示される前記評価値が基準値を満たすよう前記被検体画像データの取得に関するパラメータを決定する、
処理をコンピュータに実行させる医用画像生成プログラム。
acquiring subject image data, which is an image including the subject;
setting at least two regions of interest having different depths of the subject for the subject image data;
The subject image data is input to a trained model that has learned the correlation between the image data and the evaluation value for each depth of the image data, and the evaluation value of the subject image data is indicated for each region of interest . get the output information,
Determining a parameter related to acquisition of the subject image data so that the evaluation value indicated for each region of interest of the obtained output information satisfies a reference value ;
A medical image generation program that causes a computer to execute processing.
JP2018231061A 2018-12-10 2018-12-10 Medical image generation device and medical image generation program Active JP7309355B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018231061A JP7309355B2 (en) 2018-12-10 2018-12-10 Medical image generation device and medical image generation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018231061A JP7309355B2 (en) 2018-12-10 2018-12-10 Medical image generation device and medical image generation program

Publications (2)

Publication Number Publication Date
JP2020092739A JP2020092739A (en) 2020-06-18
JP7309355B2 true JP7309355B2 (en) 2023-07-18

Family

ID=71084202

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018231061A Active JP7309355B2 (en) 2018-12-10 2018-12-10 Medical image generation device and medical image generation program

Country Status (1)

Country Link
JP (1) JP7309355B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7159361B2 (en) * 2021-01-06 2022-10-24 ジーイー・プレシジョン・ヘルスケア・エルエルシー Ultrasound image display system and its control program
WO2023283402A1 (en) * 2021-07-09 2023-01-12 Carl Zeiss X-ray Microscopy, Inc. Accessible neural network image processing workflow

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005040301A (en) 2003-07-28 2005-02-17 Toshiba Corp Ultrasonic diagnostic equipment and its diagnostic parameter setting method
WO2013115194A1 (en) 2012-02-02 2013-08-08 日立アロカメディカル株式会社 Medical image diagnostic device and method for setting region of interest therefor
WO2014061258A1 (en) 2012-10-19 2014-04-24 コニカミノルタ株式会社 Ultrasonic diagnostic device and ultrasonic diagnostic method
US20170143312A1 (en) 2014-09-03 2017-05-25 Contextvision Ab Methods and systems for automatic control of subjective image quality in imaging of objects
JP2017525518A (en) 2014-09-03 2017-09-07 コンテクストビジョン、アクチボラグContextvision Ab Method and system for automatic control of subjective image quality in object imaging
JP2017527355A (en) 2014-12-18 2017-09-21 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Ultrasound imaging system and method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005040301A (en) 2003-07-28 2005-02-17 Toshiba Corp Ultrasonic diagnostic equipment and its diagnostic parameter setting method
WO2013115194A1 (en) 2012-02-02 2013-08-08 日立アロカメディカル株式会社 Medical image diagnostic device and method for setting region of interest therefor
WO2014061258A1 (en) 2012-10-19 2014-04-24 コニカミノルタ株式会社 Ultrasonic diagnostic device and ultrasonic diagnostic method
US20150297172A1 (en) 2012-10-19 2015-10-22 Konica Minolta, Inc. Ultrasonic diagnostic apparatus and ultrasonic diagnostic method
US20170143312A1 (en) 2014-09-03 2017-05-25 Contextvision Ab Methods and systems for automatic control of subjective image quality in imaging of objects
JP2017525518A (en) 2014-09-03 2017-09-07 コンテクストビジョン、アクチボラグContextvision Ab Method and system for automatic control of subjective image quality in object imaging
JP2017527355A (en) 2014-12-18 2017-09-21 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Ultrasound imaging system and method

Also Published As

Publication number Publication date
JP2020092739A (en) 2020-06-18

Similar Documents

Publication Publication Date Title
JP6734079B2 (en) Medical diagnostic device and medical analysis program
JP5925438B2 (en) Ultrasonic diagnostic equipment
US11672506B2 (en) Ultrasound diagnosis apparatus and image processing apparatus
CN106963419B (en) Analysis device
JP2017064183A (en) Medical image diagnostic apparatus, medical image processing apparatus, and medical information display control method
EP2782068A2 (en) Apparatus and method for providing elasticity information
US11337674B2 (en) Ultrasonography apparatus and control method
KR20170021558A (en) Ultrasonic diagnostic apparatus and operating method for the same
JP2012030053A (en) Ultrasound diagnosis apparatus, image processing apparatus and image processing method
JP2023160986A (en) Ultrasonic diagnostic device and analysis device
KR20150014315A (en) Method and apparatus for ultrasound diagnosis using shear waves
KR20180070990A (en) Ultrasound probe and manufacturing method for the same
JP2017509387A (en) Motion-adaptive visualization in medical 4D imaging
JP7309355B2 (en) Medical image generation device and medical image generation program
US20210161510A1 (en) Ultrasonic diagnostic apparatus, medical imaging apparatus, training device, ultrasonic image display method, and storage medium
CN106794000A (en) Ultrasonoscopy processing method and its supersonic imaging device
JP5747377B2 (en) Ultrasonic diagnostic apparatus and ultrasonic diagnostic program
JP7305438B2 (en) Analysis device and program
CN111481234A (en) Ultrasonic diagnostic apparatus and method of operating the same
JP6651405B2 (en) Ultrasound diagnostic apparatus and program
JP7343342B2 (en) Ultrasonic diagnostic equipment and image processing equipment
US11850101B2 (en) Medical image diagnostic apparatus, medical image processing apparatus, and medical image processing method
JP2021090724A (en) Method and system for automatically providing artifact warnings in pulsed-wave doppler imaging
Soler López et al. Application of ultrasound in medicine part ii: the ultrasonic transducer and its associated electronics
JP2020114282A (en) Image analysis apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211013

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220909

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230501

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230705

R150 Certificate of patent or registration of utility model

Ref document number: 7309355

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150