JP2021133123A - Ultrasonic diagnostic device, learning device, image processing method and program - Google Patents
Ultrasonic diagnostic device, learning device, image processing method and program Download PDFInfo
- Publication number
- JP2021133123A JP2021133123A JP2020033394A JP2020033394A JP2021133123A JP 2021133123 A JP2021133123 A JP 2021133123A JP 2020033394 A JP2020033394 A JP 2020033394A JP 2020033394 A JP2020033394 A JP 2020033394A JP 2021133123 A JP2021133123 A JP 2021133123A
- Authority
- JP
- Japan
- Prior art keywords
- sound velocity
- ultrasonic
- image data
- image
- velocity information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は超音波診断装置、学習装置、画像処理方法およびプログラムに関し、特に超音波画像の画質を向上させるための技術に関する。 The present invention relates to an ultrasonic diagnostic apparatus, a learning apparatus, an image processing method and a program, and particularly to a technique for improving the image quality of an ultrasonic image.
超音波診断装置はその簡便性、高解像度性、リアルタイム性などにより画像診断装置として臨床現場で広く使用されている。その画像生成の手法としては、送信ビームの形成処理と受信信号の整相加算処理とによって画像を生成する手法が一般的である。送信ビームの形成は、複数の変換素子に対して時間遅延を与えた電圧波形を入力し、生体内で超音波を収束させることで達成される。また、受信信号の整相加算は、生体内の構造により反射された超音波を複数の変換素子で受信し、得られた受信電圧信号に対して、注目点に対する経路長を考慮した時間遅延を与え、さらに加算することで達成される。この送信ビームの形成処理と整相加算処理とにより、注目点からの反射信号を選択的に抽出して画像化を行う。そして、送信ビームが画像化領域の中を走査するように、送信ビームを制御することで観察したい領域の画像を得ることができる。 Ultrasound diagnostic devices are widely used in clinical practice as diagnostic imaging devices due to their simplicity, high resolution, and real-time performance. As the image generation method, a method of generating an image by forming a transmission beam and phasing addition processing of a received signal is common. The formation of the transmission beam is achieved by inputting voltage waveforms in which a time delay is given to a plurality of conversion elements and converging ultrasonic waves in the living body. Further, in the phase-aligned addition of the received signal, the ultrasonic waves reflected by the structure in the living body are received by a plurality of conversion elements, and the obtained received voltage signal is delayed in consideration of the path length with respect to the point of interest. It is achieved by giving and adding. The reflected signal from the point of interest is selectively extracted and imaged by the transmission beam formation process and the phasing addition process. Then, by controlling the transmission beam so that the transmission beam scans in the imaging region, an image of the region to be observed can be obtained.
特許文献1には、ニューラルネットワークで構成された復元器を用いた医用撮像装置が開示されている。
しかしながら、超音波診断装置の診断対象となる生体においては、組織ごとや使用条件ごとに画像生成に最適な超音波の音速が異なる、すなわち生体内には超音波の伝搬に関する音響的なパラメータの分布が存在する。このため、上述の時間遅延(一般的には、音速と想定される距離とから算出される)と実際の生体内における時間遅延とが異なる結果、画質が低下するという課題がある。 However, in the living body to be diagnosed by the ultrasonic diagnostic apparatus, the optimum sound velocity of ultrasonic waves for image generation differs depending on the tissue and usage conditions, that is, the distribution of acoustic parameters related to the propagation of ultrasonic waves in the living body. Exists. Therefore, there is a problem that the image quality is deteriorated as a result of the difference between the above-mentioned time delay (generally calculated from the speed of sound and the assumed distance) and the time delay in the actual living body.
本発明は上述した課題に鑑みてなされたものであり、生体内の超音波伝搬に係る音速調整を行って画質の良い画像を得ることのできる超音波診断装置を提供することを目的とする。 The present invention has been made in view of the above-mentioned problems, and an object of the present invention is to provide an ultrasonic diagnostic apparatus capable of obtaining an image with good image quality by adjusting the sound velocity related to ultrasonic propagation in a living body.
本開示は、被検体の観察領域に対して超音波を送受信する超音波探触子と、超音波の送受信により得られる画像データと超音波の音速情報とを含む学習データを用いて機械学習された学習済みモデルを用いて、超音波の送受信により得られた画像データから、前記観察領域における超音波の音速情報を取得する音速情報取得部と、を有することを特徴とする超音波診断装置を含む。 The present disclosure is machine-learned using an ultrasonic probe that transmits and receives ultrasonic waves to the observation region of a subject, and learning data including image data obtained by transmitting and receiving ultrasonic waves and ultrasonic sound velocity information. An ultrasonic diagnostic apparatus characterized by having a sound velocity information acquisition unit that acquires sound velocity information of ultrasonic waves in the observation region from image data obtained by transmitting and receiving ultrasonic waves using the trained model. include.
本開示は、超音波の送受信により得られる観察領域の画像データを入力データ、超音波の音速情報を正解データ、として含む学習データを用いて、学習済みモデルの機械学習を行う学習部を有することを特徴とする学習装置を含む。 The present disclosure has a learning unit that performs machine learning of a trained model using learning data including image data of an observation area obtained by transmitting and receiving ultrasonic waves as input data and sound velocity information of ultrasonic waves as correct answer data. Includes a learning device characterized by.
本開示は、超音波探触子によって被検体の観察領域に対して超音波を送受信する送受信
ステップと、超音波の送受信により得られる画像データと超音波の音速情報とを用いて機械学習された学習済みモデルを用いて、超音波の送受信により得られた画像データから、前記観察領域における超音波の音速情報を取得する音速情報取得ステップと、を有することを特徴とする画像処理方法を含む。
The present disclosure has been machine-learned using a transmission / reception step of transmitting / receiving ultrasonic waves to the observation region of a subject by an ultrasonic probe, image data obtained by transmitting / receiving ultrasonic waves, and sound velocity information of ultrasonic waves. The image processing method includes a sound velocity information acquisition step of acquiring ultrasonic sound velocity information in the observation region from image data obtained by transmitting and receiving ultrasonic waves using the trained model.
本開示は、上記画像処理方法の各ステップをプロセッサに実行させるためのプログラムを含む。 The present disclosure includes a program for causing a processor to execute each step of the image processing method.
本発明によれば、生体内の超音波伝搬に係る音速分布に応じた音速調整を行うことができる超音波診断装置を提供することができる。 According to the present invention, it is possible to provide an ultrasonic diagnostic apparatus capable of adjusting the sound velocity according to the sound velocity distribution related to ultrasonic wave propagation in a living body.
<第1実施形態>
(超音波診断装置の構成)
本発明の第1実施形態について説明する。図1は超音波診断装置のハードウエア構成の一例を示すブロック図である。超音波診断装置1は、超音波プローブ102、プローブ接続部103、送信電気回路104、受信電気回路105、受信信号処理ブロック106、画像処理ブロック107、表示装置108、システム制御ブロック109、音速サジェストブロック110を有する。超音波診断装置1は、超音波プローブ102(超音波探触子)から超音波パルスを被検体100内の観察領域に送信し、被検体100の内部で反射された反射超音波を受信して、被検体100の内部の画像情報(超音波画像)を生成するためのシステムである。超音波診断装置1で得られる超音波画像は各種の臨床検査で利用される。
<First Embodiment>
(Configuration of ultrasonic diagnostic equipment)
The first embodiment of the present invention will be described. FIG. 1 is a block diagram showing an example of the hardware configuration of the ultrasonic diagnostic apparatus. The ultrasonic
超音波プローブ102は、電子スキャン方式のプローブであり、その先端に1次元または2次元に配列された複数の振動子101を有する。振動子101は、電気信号(電圧パルス信号)と超音波(音響波)のあいだの相互変換を行う電気機械変換素子である。超音波プローブ102は、複数の振動子101から超音波を被検体100に送信し、被検体100内の音響インピーダンスの差を反映した反射超音波を複数の振動子101により受信する。
The
送信電気回路104は、複数の振動子101に対してパルス信号(駆動信号)を出力する送信部である。複数の振動子101に対して時間差をつけてパルス信号を印加することで、複数の振動子101から遅延時間の異なる超音波が送信されることで送信超音波ビームが形成される。パルス信号を印加する振動子101(つまり駆動する振動子101)を選択的に変えたり、パルス信号の遅延時間(印加タイミング)を変えたりすることで、送信超音波ビームの方向やフォーカスを制御できる。この送信超音波ビームの方向およびフォーカスを順次変更することで、被検体100内部の観察領域が走査(スキャン)される。
The transmission
受信電気回路105は、反射超音波を受信した振動子101から出力される電気信号を、受信信号として入力する受信部である。受信信号は受信信号処理ブロック106に入力される。送信電気回路104および受信電気回路105の動作、すなわち、超音波の送受信は、システム制御ブロック109によって制御される。なお、本明細書では、振動子101から出力されるアナログ信号も、それをサンプリング(デジタル変換)したデジタルデータも、特に区別することなく受信信号と呼ぶ。ただし、文脈によってデジタルデータであることを明示する目的で、受信信号を受信データと記す場合もある。
The receiving
受信信号処理ブロック106は、受信電気回路105から得られた受信信号から、システム制御ブロック109によって与えられる素子配置や画像生成の各種条件(音速、開口制御、信号フィルタ)に基づいて整相加算処理を行う。なお、後述する音速サジェストブロック110からシステム制御ブロック109に入力される適正音速を示す信号も、システム制御ブロック109から受信信号処理ブロック106に入力される。さらに、受信信号処理ブロック106は、整相加算処理を行った信号に対して、包絡線検波処理、対数圧縮処理などを行い、観察領域内の各点における信号強度が輝度で表された画像データを生成する。
The reception
画像処理ブロック107は、受信信号処理ブロック106で生成された画像データに対し、輝度調整、補間、フィルタ処理などの画像処理を施す。表示装置108は、画像データおよび各種情報を表示するための表示部であり、例えば液晶ディスプレイや有機ELディスプレイなどで構成される。システム制御ブロック109は、送信電気回路104、受信電気回路105、受信信号処理ブロック106、画像処理ブロック107、表示装置108、音速サジェストブロック110などを統括制御する制御部である。
The
(音速サジェストブロック)
音速サジェストブロック110について説明する。音速サジェストブロック110は、1つ以上のプロセッサとメモリにより構成しても良い。その場合、音速サジェストブロック110の機能はコンピュータプログラムによって実現される。例えば、メモリに記憶されているプログラムをCPUが読み込み実行することにより、音速サジェストブロック110の機能を提供することができる。音速サジェストブロック110は、CPUの他に、音速サジェストブロック110の演算を担当するプロセッサ(GPU、FPGAなど)を備えていても良い。音速サジェストブロック110を構成する種々の処理ブロックのうち、特に同時に多くのデータが入力されるブロックにはFPGAを、演算を効率良く実行するブロックにはGPUを用いることが有効である。メモリは、プログラムを非一時的に記憶するためのメモリ、受信信号などのデータを一時保存しておくためのメモリ、CPUが利用するワーキングメモリなどを含むと良い。
(Sonic speed suggestion block)
The sound
音速サジェストブロック110は、学習済みの学習済みモデルを用いて超音波プローブ102から送信される超音波の適正な音速(適正音速値)を生成(推定)する処理を行う。音速サジェストブロック110は、超音波の送受信により得られる画像データと、画像データを生成する際に使用する超音波の音速の調整量データとを用いて機械学習された学習済みモデルを用いる。そして、音速サジェストブロック110は、学習済みモデルを用いて、超音波の送受信により得られた画像データから、画像データを生成する際に使用する超音波の音速の調整量を取得する。音速サジェストブロック110は、本発明の音速情報取得部に対応する。また、超音波の適正音速値や音速の調整量、これらの値や量を示すデータは、本発明の音速情報に対応する。
The sound
モデルの学習には、機械学習が用いられると良い。機械学習の具体的なアルゴリズムとしては、最近傍法、ナイーブベイズ法、サポートベクターマシンなどが挙げられる。また
、ニューラルネットワークを利用して、学習するための特徴量、結合重み付け係数を自ら生成する深層学習(ディープラーニング)も挙げられる。適宜、上記アルゴリズムのうち利用できるものを用いて本実施形態に適用することができる。
Machine learning should be used for model learning. Specific algorithms for machine learning include the nearest neighbor method, the naive Bayes method, and support vector machines. In addition, deep learning (deep learning) in which features and coupling weighting coefficients for learning are generated by themselves using a neural network can also be mentioned. As appropriate, any of the above algorithms that can be used can be applied to this embodiment.
図2は、モデルの機械学習を行う学習装置20の一例を示している。学習装置32は、複数の学習データ201を用いてモデルの機械学習を実施する学習部(学習器)204を有している。学習部204は先に例示した機械学習アルゴリズムのうちいずれを利用しても良いし、他の機械学習アルゴリズムを利用しても良い。学習データ201は、入力データと正解データ(教師データ)の組で構成されており、本実施形態では、入力データとして、観察画像と当該観察画像における観察深さとが組となったデータを用いる。観察深さとは、超音波が送信される観察領域の深さであり、観察画像中で画像化されている対象と超音波プローブ102の表面との距離とも言える。また、正解データとして、音速情報、ここでは観察画像における適正音速までの差分をラベルとしたデータを用いる。適正音速は、観察画像において、さらにどの程度音速を調整するとより望ましい画像が得られるかを示す音速であり、適正音速までの差分が音速の調整量となる。また、観察画像の画像データは、RF(Radio Frequency)データ(生データ)を含んでも良い。
FIG. 2 shows an example of a
学習部204は、与えられた複数の学習データ201を基に、観察画像202と適正音速までの差分203のあいだの相関を学習して、学習済みモデル205を作成する。これにより、学習済みモデル205は、観察画像を入力データとして与えると適正音速までの差分(音速の調整量)を出力データとして生成する機能(能力)を獲得することができる。学習済みモデル205は、超音波診断装置1の音速サジェストブロック110で実行されるプログラムに実装される。モデルの学習(学習済みモデル205の生成処理)は、超音波診断装置1に組み込まれる前に実施されるのが望ましい。ただし、超音波診断装置1が学習機能を有する場合には超音波診断装置1で得られた画像データを用いて学習(新規の学習または追加学習)を行っても良い。
The
図3は、音速サジェストブロック110の学習について説明した図である。学習においては、観察対象の組織を送信超音波ビームで撮像して得られる観察画像と観察画像を撮像したときの観察深さを含むデータを入力データとして用いる。さらに、音速サジェストブロック110は、当該観察画像の撮像に用いた送信超音波ビームの音速から適正音速までの差分を示すラベルを含むデータを正解データとして用いる。
FIG. 3 is a diagram illustrating learning of the sound
ここで、適正音速とは、最適な撮像画像が得られる、受信信号処理ブロック106で整相加算を行う際に用いる超音波の音速である。撮像画像を最適な画像であるとみなす基準は、例えば画質など適宜決めることができる。また、例えば、撮像画像をシミュレーションによって作成した画像である場合は、シミュレーションにおいてモデルの音速に対して遅延時間計算に用いた音速から適正音速までの差分をラベルとして、上記の正解データに含めることができる。
Here, the appropriate sound velocity is the sound velocity of the ultrasonic wave used when performing phase adjustment addition in the received
本実施形態における音速サジェストブロック110の学習についてさらに詳細に説明する。図3に示すように、学習用データの入力データには、観察画像と観察深さなどが含まれる。また、学習用データの正解データには、撮像に用いた送信超音波ビームの音速から適正音速までの差分を示すラベルが含まれる。図3の例では、学習用データID1の観察画像を取得したときの送信超音波ビームの音速から適正音速までの差分を示すラベルは、+10である。一例として、送信超音波ビームの音速から適正音速までの差分を示すラベルの単位はm/sであるが、任意の単位の指標がラベルに用いられて良い。図3の例では、「+10」は、観察画像を取得したときの送信超音波ビームの音速を10m/s大きくすると適正音速となることを意味する。
The learning of the sound velocity suggestion block 110 in the present embodiment will be described in more detail. As shown in FIG. 3, the input data of the learning data includes an observation image, an observation depth, and the like. In addition, the correct answer data of the learning data includes a label indicating the difference from the sound velocity of the transmitted ultrasonic beam used for imaging to the appropriate sound velocity. In the example of FIG. 3, the label indicating the difference from the sound velocity of the transmitted ultrasonic beam to the appropriate sound velocity when the observation image of the learning
同様に、学習用データID2〜4の入力データとして、それぞれ観察画像と観察深さなどをセットとしたものを用いる。また、学習用データID2〜4の正解データとして、撮像に用いた送信超音波ビームの音速から適正音速までの差分を示すラベルなどを用いる。
Similarly, as the input data of the learning
また、音速サジェストブロック110は、送信超音波ビームの送信条件が異なる学習データや、観察対象の組織が異なる学習データなど、様々な学習データを用いて学習を行うと良い。より多くの学習データを用いて学習することで、様々なパターンの入力データに対する学習が行われ、実際に使用された時も安定して画質の良い画像を推定することが期待できる。なお、被検体としては、超音波の送受信シミュレーションによって画像化可能なデジタルファントムを用いても良く、さらには実際のファントム、またさらに実際の生体を用いても構わない。 Further, the sound velocity suggestion block 110 may perform learning using various learning data such as learning data having different transmission conditions of the transmitted ultrasonic beam and learning data having different tissues to be observed. By learning using more learning data, learning for input data of various patterns is performed, and it can be expected that an image with good image quality can be stably estimated even when it is actually used. As the subject, a digital phantom that can be imaged by ultrasonic transmission / reception simulation may be used, and an actual phantom or an actual living body may be used.
また学習データの前処理を行っても良い。例えば、超音波の減衰による輝度値のムラを補正することにより、学習効率の改善を図っても良い。これにより、推定画像の解像度向上を期待できる。被検体撮像時の超音波プローブの浮きなどによる影を入力データから除去する処理を行っても良い。これにより推定精度の安定性を向上することができる。あるいは、プローブの浮きなどによる影を入力データと正解データがともに含んでいる学習データを用いれば、実際のプローブの浮きが発生した時に推定画像においてもプローブが浮いていることを認識できる画像を推定する効果なども期待できる。 Further, the training data may be preprocessed. For example, the learning efficiency may be improved by correcting the unevenness of the brightness value due to the attenuation of ultrasonic waves. This can be expected to improve the resolution of the estimated image. A process of removing shadows due to floating of the ultrasonic probe at the time of imaging the subject from the input data may be performed. This makes it possible to improve the stability of the estimation accuracy. Alternatively, by using learning data in which both the input data and the correct answer data include shadows due to the float of the probe, an image that can recognize that the probe is floating is estimated even in the estimated image when the actual probe float occurs. You can also expect the effect of doing so.
また、学習においては図4Aおよび図4Bに示すようなGUIを用いて正解データの前処理をさらに行っても良い。GUIは、システム制御ブロック109の指示によって表示装置108に表示される。システム制御ブロック109が、画像データを生成する際に使用する超音波の音速の調整量を受け付ける受付部に対応する。図4Aに示すGUI41では、観察画像全体を示す全体画像411と全体画像411の一部を切り出した抽出領域の画像412とが表示されている。抽出領域は、使用者が指定した任意の領域であっても良いし、あらかじめ設定された領域であっても良いし、画像の特徴値を演算するなどの画像処理を基に決定される領域であっても良い。また、抽出領域は全体画像411内の1つの領域でも良いし複数の領域でも良い。また、GUI41には抽出領域の画像412における観察深さが表示される。システム制御ブロック109が、この観察深さの情報を出力する。GUI41には、受信信号処理ブロック106で画像データを生成する際に使用する音速を調整する音速調整部413が表示される。
Further, in the learning, the correct answer data may be further preprocessed by using the GUI as shown in FIGS. 4A and 4B. The GUI is displayed on the
音速調整部413には、音速の調整量を示す目盛り413aとスライドバー413bとが表示される。使用者は、超音波診断装置1に接続されている図示しない入力装置を操作することで、スライドバー413bを目盛り413aの所望の調整量に移動する。これにより、スライドバー413bによって指定された調整量に応じて音速が変更された場合の抽出領域の画像412が変更される。したがって、使用者は、スライドバー413bを移動しながら最適な抽出領域の画像412を判断することができる。使用者は、最適と判断した抽出領域の画像412が表示されているときに、入力装置を操作してOKボタン414を押す。OKボタン414が押されたときにスライドバー413bによって指定されている音速の調整量が、適正音速までの差分として決定される。決定された適正音速は、抽出領域の画像412および観察深さと対応付けられて正解データとして作成される。使用者は、同じ全体画像の別の抽出領域の画像または別の全体画像の抽出領域の画像に対して上記操作を繰り返すことで、複数の抽出領域の画像に対する正解データを作成することができる。使用者は、GUI41において、表示されている抽出領域の画像のSN比が良くないなど、学習データとしてふさわしくない画像であると判断した場合は、入力装置を操作してSKIPボタン415を押す。これにより、現在表示されている抽出領域の画像412を学習データに含めないようにすることもできる。
The sound velocity adjusting unit 413 displays a
また、GUI41の代わりに、図4Bに示すGUI42が用いられても良い。GUI42では、スライドバー413bによって抽出領域の画像412を変更する代わりに、同一の抽出領域の画像412に対して、所定の調整量によって音速が変更された場合の画像422、423、424が並べて表示される。図4Bの場合は、所定の調整量は「+10」、「0」、「−10」(いずれも単位はm/s)であるが、調整量の値や数は適宜決定されて良い。GUI42では、所定の調整量によって音速が変更された場合の各画像422、423、424に対応するラジオボタン425、426、427が表示されている。使用者は、入力装置を操作して、各画像422、423、424のうち最適と判断した画像に対応するラジオボタンを有効にし、OKボタン428を押す。OKボタン428が押されたときにラジオボタン425、426、427のうち有効にされているラジオボタンに対応する音速の調整量が、適正音速までの差分として決定される。決定された適正音速は、抽出領域の画像422、423、424のうちラジオボタンが有効にされている画像および観察深さと対応付けられて正解データとして作成される。使用者は、GUI42において、表示されている抽出領域の画像のSN比が良くないなど、学習データとしてふさわしくない画像であると判断した場合は、入力装置を操作してSKIPボタン429を押す。これにより、現在表示されている抽出領域の画像422、423、424を学習データに含めないようにすることもできる。
Further, the
以上のように、スライドバー413bやラジオボタン425、426、427によって、画像データを生成する際に使用する超音波の音速の調整量を受け付けることができる。なお、表示装置108が、画像データを生成する際に使用する超音波の音速の複数の調整量を選択可能に表示する表示部に対応する。
As described above, the slide bar 413b and the
本実施形態では、観察画像と観察深さ以外の関連情報を入力データに加えても良い。例えば、入力データの他の候補の例としては、送信超音波ビームを出射するレンズのNA(開口数)、開口サイズ、周波数、診断領域などが挙げられる。NA、開口サイズ、周波数は、実際の観察対象と受信信号処理ブロック106で画像データを生成する際に使用する音速の違いによる画像の変化と関係がある。また、診断領域は、一般的に音速が遅い脂肪層の厚みによって適正音速までの量が変化する可能性がある点で画像の変化と関係がある。またさらに、診療科や性別、BMI、年齢、病態などの情報を入力データに付加することで、先ほどの観察対象の部位ごとの特徴にさらに詳細に対応した学習済みモデルが得られる可能性があり、より推定精度が高まることが期待できる。
In the present embodiment, related information other than the observation image and the observation depth may be added to the input data. For example, other candidates for input data include NA (numerical aperture), aperture size, frequency, diagnostic area, etc. of a lens that emits a transmitted ultrasonic beam. The NA, aperture size, and frequency are related to changes in the image due to differences in the speed of sound used when generating image data between the actual observation target and the received
また、超音波診断装置1に搭載される音速サジェストブロック110の学習済みモデルは、全診療科の画像データを学習させたモデルでも良いし、診療科ごとの画像データを学習させたモデルでも良い。診療科ごとの画像データを学習させたモデルが搭載されている場合は、システム制御ブロック109が、超音波診断装置1の使用者に診療科情報を入力ないし選択させ、診療科に合わせて用いる学習済みモデルを変更すると良い。撮像部位がある程度限定される診療科ごとにモデルを使い分けることで、より推定精度が高まることが期待できる。
Further, the trained model of the sound velocity suggestion block 110 mounted on the ultrasonic
このような画像と観察深さとを入力データとし、その正解データに撮像時の音速から適正音速までの差分のラベルを用いた学習を行うことで得られた学習済みモデルが音速サジェストブロック110上で動作する。結果として音速サジェストブロック110は、受信信号処理ブロック106から入力される画像に対して適正音速までの差分(調整量)を推定し、推定した音速の調整量を推定結果として出力する。
The trained model obtained by learning using such an image and the observation depth as input data and using the label of the difference from the sound velocity at the time of imaging to the appropriate sound velocity as the correct answer data is obtained on the sound
(画像生成方法)
次に、本実施形態における画像生成のための処理の詳細について、図1を用いて述べる。図示していないGUIを利用して使用者から撮像の指示が入力される。GUIからの指
示を受けたシステム制御ブロック109が送信電気回路104に超音波の送信指示を入力する。送信指示は、遅延時間を計算するためのパラメータや音速情報を含むと良い。送信電気回路104はシステム制御ブロック109からの送信指示に基づいて、複数のパルス信号(電圧波形)をプローブ接続部103を通じて超音波プローブ102の複数の振動子101へと出力する。このとき送信電気回路104は、超音波ビームの送信方向(偏向角)およびフォーカス位置にしたがって、各振動子101に印加するパルス信号の遅延時間を設定する。なお、偏向角は、複数の振動子101が配列されている面の法線方向と、超音波ビームの軸方向とがなす角度である。
(Image generation method)
Next, the details of the process for image generation in the present embodiment will be described with reference to FIG. An imaging instruction is input from the user using a GUI (not shown). The system control block 109 that receives the instruction from the GUI inputs the ultrasonic transmission instruction to the transmission
複数の振動子101から送信された超音波は被検体100内を伝播し、被検体100内の音響インピーダンスの境界で反射される。音響インピーダンスの差を反映した反射超音波を複数の振動子101が受信し、電圧波形へと変換する。この電圧波形はプローブ接続部103を通して受信電気回路105へと入力される。受信電気回路105は必要に応じて電圧波形を増幅、デジタルサンプリングし、受信信号処理ブロック106へ受信信号として出力する。
The ultrasonic waves transmitted from the plurality of
図5は、本実施形態において、超音波診断装置1の各ブロックが実行する画像生成・表示処理のフローを示す。ステップS50において、受信信号処理ブロック106が観察画像を生成する。具体的には、受信信号処理ブロック106は、入力された受信信号を内部メモリに保存する。また、受信信号処理ブロック106は、システム制御ブロック109から入力される遅延時間を計算するためのパラメータや音速情報に従って遅延処理および加算処理を実施する。さらに、受信信号処理ブロック106は、包絡線検波処理によって包絡線を求め、求めた包絡線のデータを内部メモリに保存する。受信信号処理ブロック106は、入力される受信信号に対して上記の処理を繰り返すことで観察画像を生成する。
FIG. 5 shows a flow of image generation / display processing executed by each block of the ultrasonic
次に、ステップS51において、音速サジェストブロック110が、観察画像に対する適正音速までの差分を算出する。具体的には、ステップ50において生成された画像が、画像処理ブロック107と音速サジェストブロック110とに出力される。音速サジェストブロック110は、入力される画像とシステム制御ブロック109から入力される観察深さの情報を使用して、適正音速までの差分をシステム制御ブロック109に出力する。なお、適正音速までの差分は、観察画像全体での当該差分の平均値や観察画像内に設定される領域ごとの当該差分の分布を用いて算出されても良い。
Next, in step S51, the sound velocity suggestion block 110 calculates the difference to the appropriate sound velocity with respect to the observed image. Specifically, the image generated in step 50 is output to the
次に、ステップS52において、表示装置108によって、適正音速までの差分を基に修正された修正画像と適正音速までの差分が表示される。具体的には、システム制御ブロック109は、音速サジェストブロック110から入力される適正音速までの差分の情報を用いて適正音速の情報を受信信号処理ブロック106に入力する。受信信号処理ブロック106は、上記の処理で内部メモリに保存した受信信号を内部メモリから取得する。そして、受信信号処理ブロック106は、取得した受信信号に対して、システム制御ブロック109から入力される適正音速の音速情報を用いて遅延処理および加算処理を再度実施する。さらに、受信信号処理ブロック106は、包絡線検波処理によって包絡線を求め、求めた包絡線を基に生成した画像データを修正画像データとして画像処理ブロック107に出力する。受信信号処理ブロック106は、音速の調整量を用いて超音波の送受信により得られた画像データを修正した修正画像データを生成する画像生成部に対応する。これにより、画像処理ブロック107は、ステップS50において生成された修正前の観察画像とステップS52において生成された修正後の観察画像の2種類の観察画像を取得する。画像処理ブロック107は、受信信号処理ブロック106から入力される画像に対して輝度調整や補間などの処理や、その他のフィルタを適用するなどの処理を行った画像を表示装置に出力する。そして、超音波診断装置1は本フローの処理を終了する。
Next, in step S52, the
図6A〜図6Cは、表示装置108における画像の表示画面の例を模式的に示したものである。表示画面610、620、630には、上記の処理によって生成される画像611、621、631がそれぞれ表示されている。
6A to 6C schematically show an example of an image display screen in the
図6Aの例では、表示画面610に表示される画像611は、上記の処理によって生成される修正画像である。また、表示画面610には、画像610の基となる観察画像の撮像に用いた音速および適正音速までの差分(図中「1500+15」)が表示される。図6Aの例の場合は、図中「1500+15」のうち、「1500」は、システム制御ブロック109から送信電気回路104に入力された音速、すなわち送信ビームを形成するための各振動子の遅延時間を算出した際の音速を表す。また、図中「1500+15」のうち、「+15」は、音速サジェストブロック110からシステム制御ブロック109に出力された適正音速までの差分を表す。また、表示画面610には、画像の表示モードが、適正音速までの差分によって調整された後の修正画像を表示するモードであることを示す指標(図6Aの例では「音速サジェストON」)が表示される。
In the example of FIG. 6A, the
図6Bの例では、表示画面620に表示される画像621は、上記の処理によって生成される修正画像の基となる観察画像、すなわち適正音速に基づく修正前の画像である。また、表示画面620には、修正候補(修正画像)があることが「1500+0」の「+0」によって示されている。図中「1500+0」のうち、「1500」は、システム制御ブロック109から送信電気回路104に入力された音速、すなわち送信ビームを形成するための各振動子の遅延時間を算出した際の音速を表す。また、表示画面620には、画像の表示モードが、適正音速までの差分によって調整された後の画像を表示するモードではないことを示す指標(図6Bの例では「音速サジェストOFF」)が表示される。
In the example of FIG. 6B, the
使用者は、入力装置を操作して、画像の表示モードを修正画像を表示するモードに切り替える。これにより、表示画面620の指標「音速サジェストOFF」の表示が「音速サジェストON」に変更され、表示画面620の表示内容が表示画面610の例で説明したような修正画像の表示に切り替わる。なお、送信ビームを形成するための各振動子の遅延時間を算出した際の音速から適正音速までの差分がない場合など、修正候補がない場合は、表示画面620において「1500+0」の「+0」を非表示とするなどにより修正候補がないことが示される。
The user operates the input device to switch the image display mode to the mode for displaying the modified image. As a result, the display of the index "sound velocity suggestion OFF" on the
図6Cの例では、表示画面630に表示される画像631は、上記の処理によって生成される修正画像である。また、表示画面630には、画像631における観察深さに応じた適正音速までの差分の分布を示す分布図632が観察深さ(図中「f1」、「f2」)とともに表示されている。分布図632によって示される適正音速までの差分の分布は、全体の平均値などの代表値やばらつきなどを数字で示しても良く、ばらつき自体の分布を表示しても良く、選択領域における音速平均値とばらつきを示すものでも良い。また、表示画面630には、分布図632における適正音速までの差分(調整量)を示す凡例であるスケール633が表示されている。使用者は、スケール633を基に分布図632を参照することで、観察深さに対応する音速情報である適正音速までの差分(調整量)を確認することができる。また、使用者は、分布図632から、使用者が注目する領域の適正音速を確認することができるため、音速調整に要する時間を短縮することができる。
In the example of FIG. 6C, the
なお、表示装置108における観察画像および修正画像の表示形態は上記に限られず、例えば、修正前の観察画像と修正画像とを1つの表示画面に並列して表示されても良い。また、表示装置108において算出された適正音速までの差分が表示されるだけの簡易な表示形態でも良い。この場合でも、使用者は、どの程度音速を変化させるのが好ましいかを把握しつつ、音速調整に要する時間を短縮することができる。また、表示されている画像が修正前または修正後であるかの表示は、文字(上記の例では「音速サジェストON」
「音速サジェストOFF」)による表示でなくても良い。例えば、表示画像や表示領域の外縁の色を変える、点滅させる、背景の色、彩度、模様を変化させるなどの手法が採用されても良い。
The display form of the observed image and the modified image on the
It does not have to be displayed by "sound velocity suggestion OFF"). For example, a method of changing the color of the outer edge of the display image or the display area, blinking, changing the background color, saturation, pattern, or the like may be adopted.
<第2実施形態>
次に、第2実施形態に係る超音波診断装置について説明する。超音波診断装置1の全体構成は第1実施形態(図1)と同じであるため、以下の説明では、第1実施形態と同様の構成については同一の符号を付し、詳細な説明は省略する。
<Second Embodiment>
Next, the ultrasonic diagnostic apparatus according to the second embodiment will be described. Since the overall configuration of the ultrasonic
第2実施形態では、受信信号処理ブロック106から画像処理ブロック107と音速サジェストブロック110へ画像データが出力される処理は、第1実施形態と同様である。さらに、音速サジェストブロック110からシステム制御ブロック109へ適正音速までの差分が出力されるまでの処理も第1実施形態と同様である。第2実施形態では、適正音速までの差分を用いて送信遅延が計算し直されて再度超音波が被検体に送信され、観察対象から反射した超音波が受信電気回路105を用いて受信される。そして、受信信号処理ブロック106での整相加算においても、この適正音速までの差分を用いて遅延時間の計算が行われる。
In the second embodiment, the process of outputting the image data from the received
また、第2実施形態では、2回目の超音波の送受信時に、1回目の送受信時に設定された音速に対して適正音速までの差分をそのまま用いて修正するのではなく、当該差分の一定の割合を調整量として設定する。例えば、1回目の送受信時に設定された音速が1500m/sである場合に、適正音速までの差分が+10m/sと算出されても、2回目の送受信時には当該差分の50%を調整量とした1505m/s(=1500+0.5×10)を音速として設定する。このように調整量が設定されることで、修正前後における画像の変化が緩やかになり、使用者が画像観察において表示画像の変更時に受ける違和感を軽減することができる。 Further, in the second embodiment, when the second ultrasonic wave is transmitted and received, the difference up to the appropriate sound velocity is not used as it is for the sound velocity set at the time of the first transmission and reception, but a fixed ratio of the difference is corrected. Is set as the adjustment amount. For example, when the sound velocity set at the time of the first transmission / reception is 1500 m / s, even if the difference to the appropriate sound velocity is calculated as + 10 m / s, 50% of the difference is set as the adjustment amount at the time of the second transmission / reception. 1505 m / s (= 1500 + 0.5 × 10) is set as the speed of sound. By setting the adjustment amount in this way, the change in the image before and after the correction becomes gentle, and it is possible to reduce the discomfort that the user receives when changing the displayed image in image observation.
さらに、第2実施形態では、超音波の送信において特定の位置に収束するように超音波が送信されるため、適正音速までの差分の分布が分かったとしても、修正した遅延時間を用いた送信をあらゆる位置に行うことは現実的には送信回数が増加するために難しい。そのため、同じ送信方向で収束深さを段階的に変化させて超音波送信を行う、多段フォーカス技術と呼ばれる技術が採用される。第2実施形態では、適正音速までの差分の分布において被検体の深さ方向に大きく変化する観察深さ(図6Cの例では観察深さf1とf2)に多段フォーカス技術における超音波送信の収束深さが設定される。これにより、適正音速までの差分を反映した送信を効率良く行うことができる。 Further, in the second embodiment, since the ultrasonic wave is transmitted so as to converge to a specific position in the transmission of the ultrasonic wave, even if the distribution of the difference up to the appropriate sound velocity is known, the transmission using the corrected delay time is used. It is difficult to do this everywhere because the number of transmissions increases in reality. Therefore, a technique called a multi-stage focus technique is adopted in which ultrasonic transmission is performed by gradually changing the convergence depth in the same transmission direction. In the second embodiment, the convergence of ultrasonic transmission in the multi-stage focus technique is performed on the observation depths (observation depths f1 and f2 in the example of FIG. 6C) that greatly change in the depth direction of the subject in the distribution of the difference up to the appropriate sound velocity. The depth is set. As a result, transmission that reflects the difference up to the appropriate sound velocity can be performed efficiently.
<その他の実施形態>
上記の実施形態は本発明の具体例を示すものにすぎない。本発明の範囲は上述した実施形態の構成に限られることはなく、その要旨を変更しない範囲のさまざまな実施形態を採ることができる。
<Other Embodiments>
The above embodiments are merely specific examples of the present invention. The scope of the present invention is not limited to the configuration of the above-described embodiment, and various embodiments can be adopted without changing the gist thereof.
上記の実施形態では、音速サジェストブロック110への入力は画像データとしたが、遅延処理後の受信データを入力としても良く、これにより適正音速までの差分が算出されて良い。また、図4に例示するGUI41、42を用いて適正音速までの差分をラベルとした正解データを作成する過程では、音速調整量を変更しつつ抽出領域の画像データを変更して適正音速を決定することで、適正音速までの差分を正解データとする。しかし、抽出領域の画像データの基となる遅延処理後の受信データと適正音速までの差分を正解データとして、遅延処理後の受信データを入力として適正音速までの差分を出力する学習済みモデルが作成されても良い。また、デジタルファントムを用いる場合は、モデルの設定した音速値と遅延時間の計算に使用した音速値とを変更することで、遅延処理後の受信デー
タと適正音速までの差分の正解データを作成することができる。
In the above embodiment, the input to the sound velocity suggestion block 110 is image data, but the received data after the delay processing may be input, whereby the difference up to the appropriate sound velocity may be calculated. Further, in the process of creating correct answer data using the
図7は、一変形例に係る超音波診断装置のハードウエア構成の一例を示すブロック図である。本変形例に係る超音波診断装置7において、上記の実施形態と同様の構成については同一の符号を付し、詳細な説明は省略する。また、図8は、超音波診断装置7の受信信号処理ブロックの詳細を示すブロック図である。図8に示すように、受信信号処理ブロック706は、遅延処理ブロック7061、加算処理ブロック7062、包絡線検波処理ブロック7063、音速サジェストブロック7064を有する。
FIG. 7 is a block diagram showing an example of the hardware configuration of the ultrasonic diagnostic apparatus according to the modified example. In the ultrasonic diagnostic apparatus 7 according to this modification, the same reference numerals are given to the same configurations as those in the above embodiment, and detailed description thereof will be omitted. Further, FIG. 8 is a block diagram showing details of a received signal processing block of the ultrasonic diagnostic apparatus 7. As shown in FIG. 8, the received
遅延処理ブロック7061は、受信電気回路105から出力される受信信号に対して遅延処理を行う。本変形例を第1実施形態に適用する場合は、この遅延処理に用いる音速は、システム制御ブロック109から送信電気回路104に入力される音速すなわち送信ビームを形成するための各振動子の遅延時間を算出した際の音速である。また、本変形例を第2実施形態に適用する場合は、この遅延処理に用いる音速は、1回目の送受信時に設定される音速である。遅延処理後の受信データは音速サジェストブロック7064に入力され、音速サジェストブロック7064は適正音速までの差分を出力する。
The
そして、本変形例を第1実施形態に適用する場合は、適正音速までの差分が遅延処理ブロック7061に出力されて再度遅延処理が行われる。そして、加算処理ブロック7062による加算処理と包絡線検波処理ブロック7063による包絡線検波処理が行われて、画像データが生成される。生成された画像データは、画像処理ブロック107に出力される。
Then, when this modification is applied to the first embodiment, the difference up to the appropriate sound velocity is output to the
また、本変形例を第2実施形態に適用する場合は、適正音速までの差分がシステム制御ブロック109に出力された後に送信電気回路104に入力される。そして、送信でき回路104によって送信遅延が計算し直され、超音波プローブ102から再度超音波が観察対象に送信されて受信電気回路105によって受信信号が取得される。そして、遅延処理ブロック7061による適正音速までの差分を用いた遅延時間の計算処理と、加算処理ブロック7062による加算処理と、包絡線検波処理ブロック7063による包絡線検波処理が行われて、画像データが生成される。生成された画像データは、画像処理ブロック107に出力される。
Further, when this modification is applied to the second embodiment, the difference up to the proper sound velocity is output to the
また、上記の実施形態や変形例において、学習済みモデルの作成に用いる入力データには、画像データを生成する際に使用する超音波の音速(上記の例では1500m/sなど)が含まれても良い。また、学習済みモデルを用いた出力として、適正音速までの差分に加えてあるいは代わりに調整後の音速(上記の例では1510m/sなど)が出力されても良い。 Further, in the above embodiment and the modified example, the input data used for creating the trained model includes the sound velocity of the ultrasonic wave used when generating the image data (1500 m / s in the above example). Is also good. Further, as an output using the trained model, the adjusted sound velocity (1510 m / s in the above example) may be output in addition to or instead of the difference up to the appropriate sound velocity.
また、開示の技術は例えば、システム、装置、方法、プログラム若しくは記録媒体(記憶媒体)等としての実施態様をとることが可能である。具体的には、複数の機器(例えば、ホストコンピュータ、インターフェイス機器、撮像装置、webアプリケーション等)から構成されるシステムに適用しても良いし、また、1つの機器からなる装置に適用しても良い。 Further, the disclosed technology can take an embodiment as a system, an apparatus, a method, a program, a recording medium (storage medium), or the like. Specifically, it may be applied to a system composed of a plurality of devices (for example, a host computer, an interface device, an imaging device, a web application, etc.), or it may be applied to a device composed of one device. good.
また、本発明の目的は、以下のようにすることによって達成されることはいうまでもない。すなわち、前述した実施形態の機能を実現するソフトウェアのプログラムコード(コンピュータプログラム)を記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。かかる記憶媒体は言うまでもなく、コンピュータ読み取り可能な記憶媒体である。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読
み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
Needless to say, the object of the present invention is achieved by doing the following. That is, a recording medium (or storage medium) on which the program code (computer program) of the software that realizes the functions of the above-described embodiment is recorded is supplied to the system or device. Needless to say, such a storage medium is a computer-readable storage medium. Then, the computer (or CPU or MPU) of the system or device reads and executes the program code stored in the recording medium. In this case, the program code itself read from the recording medium realizes the function of the above-described embodiment, and the recording medium on which the program code is recorded constitutes the present invention.
1:超音波診断装置
100:被検体
102:超音波プローブ
110:音速サジェストブロック
201:学習データ
202:観察画像
203:適正音速までの差分
205:学習済みモデル
1: Ultrasonic diagnostic device 100: Subject 102: Ultrasonic probe 110: Sound velocity suggestion block 201: Learning data 202: Observation image 203: Difference to appropriate sound velocity 205: Trained model
Claims (19)
超音波の送受信により得られる画像データと超音波の音速情報とを含む学習データを用いて機械学習された学習済みモデルを用いて、超音波の送受信により得られた画像データから、前記観察領域における超音波の音速情報を取得する音速情報取得部と、
を有することを特徴とする超音波診断装置。 An ultrasonic probe that sends and receives ultrasonic waves to the observation area of the subject,
Using a trained model machine-learned using training data including image data obtained by transmitting and receiving ultrasonic waves and sound velocity information of ultrasonic waves, image data obtained by transmitting and receiving ultrasonic waves is used in the observation region. A sound velocity information acquisition unit that acquires ultrasonic sound velocity information,
An ultrasonic diagnostic apparatus characterized by having.
タを含むことを特徴とする請求項1または2に記載の超音波診断装置。 The ultrasonic diagnostic apparatus according to claim 1 or 2, wherein the image data obtained by transmitting and receiving the ultrasonic wave includes RF (Radio Frequency) data.
前記学習済みモデルは、前記受け付けられた前記調整量を用いて機械学習される
ことを特徴とする請求項1〜4のうちいずれか1項に記載の超音波診断装置。 It also has a reception unit that receives the adjustment amount of the sound wave of the ultrasonic wave used when generating the image data.
The ultrasonic diagnostic apparatus according to any one of claims 1 to 4, wherein the trained model is machine-learned using the received adjustment amount.
前記複数の調整量のうち選択された調整量を受け付ける受付部と、
をさらに有することを特徴とする請求項1に記載の超音波診断装置。 A display unit that can selectably display a plurality of adjustment amounts of ultrasonic sound waves in the observation region, and
A reception unit that accepts the adjustment amount selected from the plurality of adjustment amounts, and
The ultrasonic diagnostic apparatus according to claim 1, further comprising.
ことを特徴とする請求項1〜6のうちいずれか1項に記載の超音波診断装置。 The image data used for machine learning of the trained model is the data of the received signal of the ultrasonic wave by the ultrasonic probe or the data obtained by phasing-adding the received signal. The ultrasonic diagnostic apparatus according to any one of 6.
ことを特徴とする請求項1〜7のうちいずれか1項に記載の超音波診断装置。 The ultrasonic diagnostic apparatus according to any one of claims 1 to 7, wherein the trained model is a neural network.
前記生成された前記修正画像データを表示する表示部と、
をさらに有することを特徴とする請求項1〜8のうちいずれか1項に記載の超音波診断装置。 An image generation unit that uses the sound velocity information acquired by the sound velocity information acquisition unit to generate modified image data obtained by modifying the image data obtained by transmitting and receiving ultrasonic waves.
A display unit that displays the generated modified image data, and
The ultrasonic diagnostic apparatus according to any one of claims 1 to 8, further comprising.
る請求項1〜8のうちいずれか1項に記載の超音波診断装置。 Claims 1 to 8 further include an image generation unit that generates an ultrasonic image by using the image data obtained by transmitting and receiving ultrasonic waves and the sound velocity information acquired by the sound velocity information acquisition unit. The ultrasonic diagnostic apparatus according to any one of the above.
超音波の送受信により得られる観察領域の画像データを入力データ、超音波の音速情報を正解データ、として含む学習データを用いて、学習済みモデルの機械学習を行う
ことを特徴とする学習装置。 A learning device that performs machine learning of a trained model used in a sound velocity information acquisition unit that acquires ultrasonic sound velocity information of the ultrasonic diagnostic apparatus according to any one of claims 1 to 14.
A learning device characterized by performing machine learning of a trained model using learning data including image data of an observation area obtained by transmitting and receiving ultrasonic waves as input data and sound velocity information of ultrasonic waves as correct answer data.
前記学習済みモデルは、前記受け付けた前記音速情報を用いて機械学習される
ことを特徴とする請求項16に記載の学習装置。 A reception unit that receives ultrasonic sound velocity information used when generating image data,
The learning device according to claim 16, wherein the trained model is machine-learned using the received sound velocity information.
超音波の送受信により得られる画像データと超音波の音速情報とを用いて機械学習された学習済みモデルを用いて、超音波の送受信により得られた画像データから、前記観察領域における超音波の音速情報を取得する音速情報取得ステップと、
を有することを特徴とする画像処理方法。 A transmission / reception step of transmitting and receiving ultrasonic waves to the observation area of the subject using an ultrasonic probe,
Using a trained model machine-learned using the image data obtained by transmitting and receiving ultrasonic waves and the sound velocity information of ultrasonic waves, the sound velocity of ultrasonic waves in the observation region from the image data obtained by transmitting and receiving ultrasonic waves. Sound speed information acquisition step to acquire information,
An image processing method characterized by having.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020033394A JP7370903B2 (en) | 2020-02-28 | 2020-02-28 | Ultrasonic diagnostic equipment, learning equipment, image processing methods and programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020033394A JP7370903B2 (en) | 2020-02-28 | 2020-02-28 | Ultrasonic diagnostic equipment, learning equipment, image processing methods and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021133123A true JP2021133123A (en) | 2021-09-13 |
JP7370903B2 JP7370903B2 (en) | 2023-10-30 |
Family
ID=77662351
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020033394A Active JP7370903B2 (en) | 2020-02-28 | 2020-02-28 | Ultrasonic diagnostic equipment, learning equipment, image processing methods and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7370903B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210075832A (en) * | 2019-12-13 | 2021-06-23 | 한국과학기술원 | Method and apparatus for quantitative imaging using ultrasound data |
KR20210075831A (en) * | 2019-12-13 | 2021-06-23 | 한국과학기술원 | Method and apparatus for quantitative ultrasound imaging using single-ultrasound probe |
KR20220107912A (en) * | 2021-01-25 | 2022-08-02 | 한국과학기술원 | Method and apparatus for multi-variable quantitative imaging using ultrasound data |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4632517B2 (en) | 2000-11-08 | 2011-02-16 | 株式会社日立メディコ | Transmission / reception wave phasing method and ultrasonic diagnostic apparatus |
EP1974672B9 (en) | 2007-03-28 | 2014-04-16 | Kabushiki Kaisha Toshiba | Ultrasonic imaging apparatus and ultrasonic velocity optimization method |
JP5132620B2 (en) | 2009-03-26 | 2013-01-30 | 株式会社日立メディコ | Ultrasonic diagnostic equipment |
KR102322776B1 (en) | 2010-02-18 | 2021-11-04 | 마우이 이미징, 인코포레이티드 | Method of constructing an ultrasound image and multi-aperture ultrasound imaging system therefor |
CN103765239B (en) | 2011-07-01 | 2017-04-19 | 皇家飞利浦有限公司 | Intra-operative image correction for image-guided interventions |
US20180161015A1 (en) | 2016-12-09 | 2018-06-14 | General Electric Company | Variable speed of sound beamforming based on automatic detection of tissue type in ultrasound imaging |
EP3559903B1 (en) | 2016-12-23 | 2023-03-22 | HeartFlow, Inc. | Machine learning of anatomical model parameters |
-
2020
- 2020-02-28 JP JP2020033394A patent/JP7370903B2/en active Active
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210075832A (en) * | 2019-12-13 | 2021-06-23 | 한국과학기술원 | Method and apparatus for quantitative imaging using ultrasound data |
KR20210075831A (en) * | 2019-12-13 | 2021-06-23 | 한국과학기술원 | Method and apparatus for quantitative ultrasound imaging using single-ultrasound probe |
KR102380167B1 (en) | 2019-12-13 | 2022-03-29 | 한국과학기술원 | Method and apparatus for quantitative ultrasound imaging using single-ultrasound probe |
KR102490019B1 (en) | 2019-12-13 | 2023-01-18 | 한국과학기술원 | Method and apparatus for quantitative imaging using ultrasound data |
KR20220107912A (en) * | 2021-01-25 | 2022-08-02 | 한국과학기술원 | Method and apparatus for multi-variable quantitative imaging using ultrasound data |
KR102655333B1 (en) | 2021-01-25 | 2024-04-05 | 한국과학기술원 | Method and apparatus for multi-variable quantitative imaging using ultrasound data |
Also Published As
Publication number | Publication date |
---|---|
JP7370903B2 (en) | 2023-10-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10335118B2 (en) | Ultrasonic diagnostic apparatus, medical image processing apparatus, and medical image parallel display method | |
US9743910B2 (en) | Ultrasonic diagnostic apparatus, ultrasonic image processing apparatus, medical image diagnostic apparatus, and medical image processing apparatus | |
JP7370903B2 (en) | Ultrasonic diagnostic equipment, learning equipment, image processing methods and programs | |
US11432806B2 (en) | Information processing apparatus, information processing method, and storage medium | |
JP6109498B2 (en) | Ultrasonic diagnostic apparatus and ultrasonic diagnostic apparatus control program | |
CN106691502B (en) | Ultrasound system and method for generating elastic images | |
WO2013176112A1 (en) | Ultrasonic image generating method and ultrasonic image diagnostic device | |
JP2019213859A (en) | Analyzer and program | |
JP2022173154A (en) | Medical image processing apparatus and method | |
US11051789B2 (en) | Ultrasound image diagnostic apparatus | |
JP7395367B2 (en) | Ultrasonic diagnostic equipment, image processing methods, learning devices and programs | |
JP2013009832A (en) | Ultrasonic diagnostic device, medical image processing device, and medical image processing program | |
US11733382B2 (en) | Ultrasonic diagnostic apparatus, learning apparatus, and image processing method | |
US20210228177A1 (en) | Ultrasonic diagnostic apparatus, learning apparatus, and image processing method | |
JP6008814B2 (en) | Image analysis system, image analysis method, image analysis program, and ultrasonic diagnostic apparatus | |
JP2005205198A (en) | Ultrasonic image processing apparatus, method and program | |
US20210228188A1 (en) | Ultrasonic diagnostic apparatus, learning apparatus, and image processing method | |
JP7455696B2 (en) | Ultrasonic diagnostic equipment, learning equipment, image processing methods and programs | |
JP5701210B2 (en) | Ultrasonic diagnostic apparatus and sound speed correction processing method | |
JP7346314B2 (en) | Ultrasonic diagnostic equipment, learning equipment, image processing methods and programs | |
US20230301632A1 (en) | Ultrasonic imaging method, ultrasonic imaging apparatus and storage medium | |
JP2023104734A (en) | Ultrasonic diagnostic device and image processing device | |
JP5389515B2 (en) | Ultrasonic diagnostic apparatus and control program therefor | |
JP2020185122A (en) | Analyzing apparatus and ultrasonic diagnostic apparatus | |
JPWO2018016337A1 (en) | Ultrasonic observation apparatus, operation method of ultrasonic observation apparatus, and operation program of ultrasonic observation apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230116 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230824 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230926 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231018 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7370903 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |