JP7112492B2 - Ultrasonic imaging device, ultrasonic imaging system, ultrasonic imaging method and ultrasonic imaging program - Google Patents
Ultrasonic imaging device, ultrasonic imaging system, ultrasonic imaging method and ultrasonic imaging program Download PDFInfo
- Publication number
- JP7112492B2 JP7112492B2 JP2020530059A JP2020530059A JP7112492B2 JP 7112492 B2 JP7112492 B2 JP 7112492B2 JP 2020530059 A JP2020530059 A JP 2020530059A JP 2020530059 A JP2020530059 A JP 2020530059A JP 7112492 B2 JP7112492 B2 JP 7112492B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- ultrasonic
- region
- subject
- symmetry
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003384 imaging method Methods 0.000 title claims description 49
- 239000002131 composite material Substances 0.000 claims description 59
- 239000000523 sample Substances 0.000 claims description 45
- 238000000034 method Methods 0.000 claims description 37
- 238000002604 ultrasonography Methods 0.000 claims description 35
- 230000005540 biological transmission Effects 0.000 claims description 24
- 238000011156 evaluation Methods 0.000 claims description 21
- 230000002194 synthesizing effect Effects 0.000 claims description 15
- 210000001015 abdomen Anatomy 0.000 claims description 14
- 238000012285 ultrasound imaging Methods 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 8
- 210000001113 umbilicus Anatomy 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 24
- 238000010586 diagram Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 12
- 210000003205 muscle Anatomy 0.000 description 10
- 210000001139 rectus abdominis Anatomy 0.000 description 10
- 230000008569 process Effects 0.000 description 8
- 230000009466 transformation Effects 0.000 description 6
- 210000001519 tissue Anatomy 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 4
- 230000003187 abdominal effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000002591 computed tomography Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 238000002595 magnetic resonance imaging Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 206010073306 Exposure to radiation Diseases 0.000 description 1
- 208000001145 Metabolic Syndrome Diseases 0.000 description 1
- 201000000690 abdominal obesity-metabolic syndrome Diseases 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000002146 bilateral effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012854 evaluation process Methods 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 239000003607 modifier Substances 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/68—Analysis of geometric attributes of symmetry
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/46—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
- A61B8/461—Displaying means of special interest
- A61B8/463—Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/52—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/5207—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/52—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/5215—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
- A61B8/5238—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
- A61B8/5246—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from the same or different imaging techniques, e.g. color Doppler and B-mode
- A61B8/5253—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from the same or different imaging techniques, e.g. color Doppler and B-mode combining overlapping images, e.g. spatial compounding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/60—Rotation of whole images or parts thereof
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/08—Detecting organic movements or changes, e.g. tumours, cysts, swellings
- A61B8/0833—Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
- A61B8/085—Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating body or organic structures, e.g. tumours, calculi, blood vessels, nodules
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/08—Detecting organic movements or changes, e.g. tumours, cysts, swellings
- A61B8/0858—Detecting organic movements or changes, e.g. tumours, cysts, swellings involving measuring tissue layers, e.g. skin, interfaces
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/13—Tomography
- A61B8/14—Echo-tomography
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/52—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/5269—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving detection or reduction of artifacts
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/52—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/5292—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves using additional data, e.g. patient information, image labeling, acquisition parameters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10132—Ultrasound image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Molecular Biology (AREA)
- Heart & Thoracic Surgery (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Biophysics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Pathology (AREA)
- Radiology & Medical Imaging (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Animal Behavior & Ethology (AREA)
- Surgery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Geometry (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
Description
本発明は、超音波によって被検体の内部を撮像する超音波撮像装置、超音波撮像システム、超音波撮像方法および超音波撮像プログラムに関する。 The present invention relates to an ultrasonic imaging apparatus, an ultrasonic imaging system, an ultrasonic imaging method, and an ultrasonic imaging program for imaging the inside of a subject using ultrasonic waves.
例えば、メタボリックシンドロームの健診では、腹部の断層画像を取得するために、CT(Computed Tomography)装置やMRI(Magnetic Resonance Imaging)装置が用いられることが多い。これらの装置は、大がかりで高額であり、被爆の問題もあるため、近年では、超音波を用いて断層画像を取得する技術が開発されている。例えば、特許文献1には、プローブを被検体の表面に沿って移動させながら、プローブから超音波を断続的に送信することにより得られた複数の超音波画像を合成して、合成画像(パノラマ画像)を生成する技術が開示されている。この技術では、被検者自身がプローブを腹部に当接させながら移動させるだけで、腹部の断面を示す合成画像を得ることができる。 For example, in health checkups for metabolic syndrome, a CT (Computed Tomography) device or an MRI (Magnetic Resonance Imaging) device is often used to acquire a tomographic image of the abdomen. These devices are large-scale and expensive, and there is also the problem of exposure to radiation. Therefore, in recent years, techniques for acquiring tomographic images using ultrasound have been developed. For example, in Patent Document 1, a plurality of ultrasonic images obtained by intermittently transmitting ultrasonic waves from the probe while moving the probe along the surface of the subject are synthesized to form a synthesized image (panoramic image). A technique for generating an image) is disclosed. With this technique, a composite image showing a cross-section of the abdomen can be obtained only by the subject moving the probe while it is in contact with the abdomen.
例えば腹部の断層画像を取得する場合、まず脇腹付近にプローブを当て、その後、臍部を経て反対側の脇腹付近まで移動させる。このとき、現行の合成画像では、図20に示すように、プローブの初期位置に対応する脇腹付近が上向きになる。このような合成画像では、臍部が上向きになっていないため、被検者等が腹部の状態を把握し難いという問題がある。 For example, when acquiring a tomographic image of the abdomen, the probe is applied to the vicinity of the flank first, and then moved to the vicinity of the flank on the opposite side via the navel. At this time, in the current composite image, as shown in FIG. 20, the vicinity of the flank corresponding to the initial position of the probe faces upward. In such a composite image, since the umbilicus is not facing upward, there is a problem that it is difficult for the subject or the like to grasp the state of the abdomen.
本発明は、上記問題を解決するためになされたものであって、被検者等が被検体の状態を把握しやすい超音波合成画像を表示できる超音波撮像装置を提供することを課題とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide an ultrasonic imaging apparatus capable of displaying an ultrasonic composite image that allows a subject to easily grasp the state of the subject. .
本発明に係る超音波撮像装置は、被検体の表面上の互いに異なる複数の位置から該被検体の内部に向けて送信されて内部で反射された超音波を受信して、前記各位置に対応した超音波画像をそれぞれ生成する超音波画像生成部と、前記各位置における超音波画像を合成して前記被検体の断面の合成画像を生成する画像合成部と、前記合成画像を角度調整し、前記合成画像に含まれる特定部位を所定の方向に指向させる方向調整部とを備えたことを特徴とする。 An ultrasonic imaging apparatus according to the present invention receives ultrasonic waves transmitted from a plurality of mutually different positions on the surface of a subject toward the inside of the subject and reflected inside the subject, and corresponds to each of the positions. an ultrasonic image generator for generating each of the ultrasonic images, an image synthesizing unit for synthesizing the ultrasonic images at each position to generate a composite image of the cross section of the subject, and adjusting the angle of the composite image, and a direction adjusting unit that orients the specific part included in the synthesized image in a predetermined direction.
本発明に係る超音波撮像システムは、超音波を前記被検体の表面上の互いに異なる複数の位置から該被検体の内部に向けて送信し、前記被検体の内部で反射された超音波を受信するプローブと、本発明に係る超音波画像装置とを備えることを特徴とする。 An ultrasonic imaging system according to the present invention transmits ultrasonic waves from a plurality of mutually different positions on the surface of the subject toward the inside of the subject, and receives the ultrasonic waves reflected inside the subject. and an ultrasonic imaging apparatus according to the present invention.
本発明に係る超音波撮像方法は、被検体の表面上の互いに異なる複数の位置から該被検体の内部に向けて送信されて内部で反射された超音波を受信して、前記各位置に対応した超音波画像をそれぞれ生成する超音波画像生成ステップと、前記各位置における超音波画像を合成して前記被検体の断面の合成画像を生成する画像合成ステップと、前記合成画像を角度調整し、前記合成画像に含まれる特定部位を所定の方向に指向させる方向調整ステップとを備えることを特徴とする。 An ultrasonic imaging method according to the present invention receives ultrasonic waves transmitted from a plurality of mutually different positions on the surface of a subject toward the inside of the subject and reflected inside the subject, and corresponds to each of the positions. an ultrasonic image generating step of generating each of the ultrasonic images obtained from the above; an image synthesizing step of synthesizing the ultrasound images at the respective positions to generate a synthetic image of the cross section of the subject; adjusting the angle of the synthetic image; and a direction adjusting step of orienting the specific part included in the synthesized image in a predetermined direction.
本発明に係る超音波撮像プログラムは、被検体の表面上の互いに異なる複数の位置から該被検体の内部に向けて送信されて内部で反射された超音波を受信して、前記各位置に対応した超音波画像をそれぞれ生成する超音波画像生成部、前記各位置における超音波画像を合成して前記被検体の断面の合成画像を生成する画像合成部、および、前記合成画像を角度調整し、前記合成画像に含まれる特定部位を所定の方向に指向させる方向調整部、としてコンピュータを動作させる。 An ultrasonic imaging program according to the present invention receives ultrasonic waves transmitted toward the interior of the subject from a plurality of positions different from each other on the surface of the subject and reflected inside the subject, and corresponds to each position an ultrasonic image generator for generating each of the ultrasonic images, an image synthesizing unit for synthesizing the ultrasound images at each position to generate a composite image of the cross section of the subject, and adjusting the angle of the composite image, A computer is operated as a direction adjusting unit that orients a specific portion included in the composite image in a predetermined direction.
本発明によれば、被検者等が被検体の状態を把握しやすい超音波合成画像を表示することができる。 Advantageous Effects of Invention According to the present invention, it is possible to display an ultrasonic composite image that allows a subject or the like to easily grasp the state of the subject.
以下、本発明の実施形態を、添付の図面を参照して詳細に説明する。なお、以下の説明および図面において、同じ符号は同じまたは類似の構成要素を示すこととし、よって、同じまたは類似の構成要素に関する重複した説明を省略する。 Embodiments of the present invention will now be described in detail with reference to the accompanying drawings. In the following description and drawings, the same reference numerals denote the same or similar components, and redundant description of the same or similar components will be omitted.
(全体構成)
図1は、第1の実施形態に係る超音波撮像システム1の構成を示す模式図である。超音波撮像システム1は、プローブ2と、超音波撮像装置3とを含んでいる。(overall structure)
FIG. 1 is a schematic diagram showing the configuration of an ultrasonic imaging system 1 according to the first embodiment. An ultrasound imaging system 1 includes a
プローブ2は、超音波を被検体9の表面上の互いに異なる複数の位置から被検体9の内部に向けて送信し、被検体9の内部で反射された超音波を受信する装置であり、本実施形態では、被検者が把持して動かすことができるように構成されている。プローブ2の下端には、複数の超音波振動子が一列に配列された超音波送受面が設けられている。被検体9の断層画像(あるいは断面画像)を取得する場合、被検者は、被検体9にプローブ2の超音波送受面を当接させて、プローブ2を被検体9の表面に沿って移動させる(プローブ2によりスキャンする)。その間に、プローブ2は、超音波送受面から被検体9の内部に向けて超音波を断続的に送信し、被検体9の内部で反射された超音波を超音波送受面において受信する。これにより、プローブ2は、受信した超音波を示す電気信号(エコー信号)を出力する。
The
なお、プローブ2は、リニアスキャン画像を取得するリニアスキャンモードで動作するが、セクタスキャン画像を取得するセクタスキャンモードで動作可能であってもよいし、リニアスキャンモードとセクタスキャンモードの両方で動作可能であってもよいし、他のモードあるいは他のモードとの組み合わせで動作可能であってもよい。また本実施形態では、被検体9は主に腹部であるが、被検体9に含まれる生体部位は特に限定されない。
The
超音波撮像装置3は、WiFi(登録商標)などの無線によってプローブ2に接続されている。本実施形態では、超音波撮像装置3は例えばタブレット端末で構成されており、プローブ2から受信したエコー信号に基づき、複数の超音波画像を生成し、さらに、それらの超音波画像を合成した合成画像を表示する機能を有している。
The
なお、超音波撮像装置3は画像を表示可能な装置であれば特に限定されず、汎用のパーソナルコンピュータや、スマートフォン等で構成することができる。また、プローブ2と超音波撮像装置3との接続方法は特に限定されず、有線接続であってもよい。
Note that the
(超音波撮像装置の機能)
図2は、超音波撮像装置3の構成を示すブロック図である。超音波撮像装置3は、ハードウェアの構成として、ディスプレイ31と、入力装置32と、補助記憶装置33と、通信インタフェース部(I/F部)34と、表示インタフェース部(I/F部)36とを備えている。(Functions of Ultrasound Imaging Device)
FIG. 2 is a block diagram showing the configuration of the
ディスプレイ31は、例えば液晶ディスプレイ、プラズマディスプレイおよび有機ELディスプレイ等で構成することができる。なお、ディスプレイ31を超音波撮像装置3とは別個の装置として構成してもよい。
The
入力装置32は、ディスプレイ31の表面に設けられたタッチパネルである。被検者は、入力装置32を介してディスプレイ31に表示された画像に対する入力操作を行うことができる。
The
補助記憶装置33は、オペレーティングシステム(OS)、各種制御プログラム、および、プログラムによって生成されたデータなどを記憶する不揮発性の記憶装置であり、例えば、eMMC(embedded Multi Media Card)やSSD(Solid State Drive)等によって構成される。補助記憶装置33には、超音波撮像プログラムPが記憶されている。超音波撮像プログラムPは、インターネットなどのネットワークを介して超音波撮像装置3にインストールしてもよい。あるいは、超音波撮像プログラムPを記録したSDカード等のコンピュータ読み取り可能な非一時的な有体の記録媒体を超音波撮像装置3に読み取らせることにより、超音波撮像プログラムPを超音波撮像装置3にインストールしてもよい。
The
通信インタフェース部34は、外部機器とのデータの送受信を行うものであり、本実施形態では、プローブ2から受信した信号の復調や、プローブ2に送信するための制御信号の変調などを行う。
The
表示インタフェース部36は、超音波撮像装置3の演算処理によって生成された各種画像データをVRAMに展開することにより、当該画像をディスプレイ31に表示するものであり、例えば後述する信号処理部35によって生成された合成画像等をディスプレイ31に表示する。
The
図示していないが、超音波撮像装置3は、他のハードウェアの構成として、データ処理を行うCPU等のプロセッサ、および、プロセッサがデータ処理の作業領域に使用するメモリ(主記憶装置)などをさらに備えている。
Although not shown, the
また、超音波撮像装置3は、ソフトウェアの構成として、信号処理部35を備えている。信号処理部35は、プロセッサが超音波撮像プログラムPを実行することにより実現される機能ブロックであり、プローブ2から受信されたエコー信号を処理して、被検体9の超音波合成画像を、被検者、医師、撮像従事者などが被検体9の状態を把握しやすいようにディスプレイ31に表示する機能を有している。この機能を実現するために信号処理部35は、超音波画像生成部351と、画像合成部352と、方向調整部353とを備えている。なお、信号処理部35を、集積回路上に形成された論理回路によってハードウェア的に実現してもよい。
The
超音波画像生成部351は、プローブ2から受信されたエコー信号から、被検体9の内部の超音波画像を生成する。プローブ2は、被検体9の表面を移動しながら、超音波撮像装置3から送信される制御信号にしたがって、被検体9の表面上の互いに異なる複数の位置から被検体9の内部に向けて超音波を送信し、被検体9の内部で反射された超音波を受信して、超音波撮像装置3にエコー信号を出力する。これにより、プローブ2が超音波を受信するたびに、超音波画像生成部351にエコー信号が入力され、超音波画像生成部351は、エコー信号から、被検体9の表面上の互いに異なる複数の位置に対応した超音波画像を生成する。超音波画像の生成数は、プローブ2による超音波の送受信時間、および、送受信の周期によって変動するが、本実施形態では、n枚の超音波画像が生成されるとする。
The
なお、超音波画像生成部351の機能を、プローブ2を制御する制御装置に設けてもよい。その場合、制御装置を超音波撮像装置3に接続してもよいし、制御装置に超音波画像を記憶させておき、記録媒体を介して超音波画像を超音波撮像装置3に送信してもよい。
Note that the function of the ultrasonic
画像合成部352は、超音波画像生成部351によって生成された、被検体9の表面上の前記各位置における超音波画像を合成して被検体9の断面の合成画像を生成する機能ブロックである。超音波画像の合成は、周知の技術を適用することができ、本実施形態では、例えば各超音波画像間の特徴点マッチングを用いて超音波画像を合成する。なお、本実施形態において、「断面」とは、輪切りの断面だけでなく、部分的な断面も含む概念である。
The
この方法では、1番目の超音波画像および2番目の超音波画像から特徴点を検出する。そして、1番目の超音波画像と2番目の超音波画像の特徴点をマッチングして、1番目の超音波画像と2番目の超音波画像の同次変換行列を計算する。具体的には、2番目の超音波画像が1番目の超音波画像に対して、時計周りにθだけ回転し、x軸方向にtx、y軸方向にtyだけ平行移動させると1番目の超音波画像と2番目の超音波画像の特徴点が一致する場合、2番目の超音波画像の座標系を動かして1番目の超音波画像に合わせる同次変換行列Rは、
同次変換行列Rの計算を、生成順が隣り合う2枚の超音波画像について順次行い、n-1番目の超音波画像およびn番目の超音波画像まで行う。k+1(1≦k≦n-1)番目の超音波画像からk番目の超音波画像への同次変換行列をRkとすると、k+1番目の超音波画像から1番目の超音波画像への同次変換行列は、R1R2…Rkとなる。1番目の超音波画像の座標系はワールド座標系と呼ばれ、全ての超音波画像について、ワールド座標系への同次変換行列を計算することで、全ての超音波画像の座標が計算できる。その後、全ての超音波画像の画素をブレンドすることにより、1枚の合成画像が生成される。Calculation of the homogeneous transformation matrix R is sequentially performed for two adjacent ultrasound images in the generation order, and is performed up to the (n−1)th ultrasound image and the nth ultrasound image. Let Rk be a homogeneous transformation matrix from the k +1 (1≦k≦n−1)-th ultrasonic image to the k-th ultrasonic image. The following transform matrices are R 1 R 2 . . . R k . The coordinate system of the first ultrasonic image is called the world coordinate system, and the coordinates of all ultrasonic images can be calculated by calculating homogeneous transformation matrices to the world coordinate system for all ultrasonic images. A single composite image is then generated by blending the pixels of all the ultrasound images.
本実施形態においては、まず、図20に示す腹部断面を含む合成画像が生成されたとする。 In the present embodiment, it is assumed that first, a composite image including the cross section of the abdomen shown in FIG. 20 is generated.
方向調整部353は、合成画像を角度調整し、前記合成画像に含まれる特定部位を所定の方向に指向させる機能を有している。本実施形態では、方向調整部353は、図20に示す合成画像の向きを、臍部が例えば上方向になるように調整する。調整の具体的な方法については、後述する。
The
方向調整部353によって方向調整された合成画像は、表示インタフェース部36に入力される。表示インタフェース部36は、合成画像のデータをVRAMに展開することにより、合成画像をディスプレイ31に表示する。なお、表示インタフェース部36は、下記の方向調整をする前の合成画像をいったんディスプレイ31に表示してもよいし、方向調整を行った後に、合成画像をディスプレイ31に表示してもよい。
The composite image whose direction has been adjusted by the
(方向調整)
以下、方向調整部353が合成画像の向きを調整する一形態について、具体的に説明する。本実施形態では、図3において破線で示すように、腹直筋の断面形状が概ね左右対称であることを利用して、臍部が上方向になるように合成画像の向きを調整する。(direction adjustment)
Hereinafter, one form in which the
図4に示すように、方向調整部353は、領域設定部353aと、対称度評価部353bと、領域選択部353cと、角度算出部353dと、を備えている。
As shown in FIG. 4, the
領域設定部353aは、中心軸に対して線対称の形状の領域rを任意の位置と任意の角度で1または複数設定する機能ブロックである。本実施形態において、領域rの形状は、図5の白線枠に示すように中心軸Axに対して線対称な長方形である。領域rが左右の腹直筋を均等に含む場合、領域rの中心軸Axが腹部の臍部を通る中心軸とみなせる。領域設定部353aは、左右対称性の高い領域rを探索するため、領域rを移動可能に設定する。
The
より具体的には、領域設定部353aは、合成画像の生成に用いられた複数の超音波画像から一つの超音波画像を選択し、被検体9の表面上の位置の超音波の送信方向を示す軸に領域rの中心軸Axを合わせて領域rの設定をする。すなわち、領域設定部353aは、被検体9の表面上の互いに異なる複数の位置における超音波の送信方向を示す各軸にそれぞれ各領域rの中心軸Axを合わせて当該各領域rの設定をする。各超音波画像における超音波の送信方向は、1番目の超音波画像の座標系(ワールド座標系)への同次変換行列に基づいて特定できる。また、超音波画像取得時におけるプローブ2の軌跡は、各超音波画像の上辺に対応する。そのため、図6に示すように、プローブ2の軌跡、および、超音波の送信方向の情報は、合成画像に含まれている。
More specifically, the
領域設定部353aは、1番目の超音波画像からn番目(nは正の整数)の超音波画像までを順に選択してもよいが、本実施形態では、超音波画像の生成された順の略中央に対応する略中央超音波画像の中心軸、および、前記略中央超音波画像の前後の所定数の生成順の超音波画像の前記中心軸を、それぞれ順次選択する。nが偶数の場合、略中央超音波画像は、n/2番の超音波画像に対応する。nが奇数の場合、略中央超音波画像は、(n-1)/2番あるいは(n+1)/2番のいずれかの超音波画像に対応する。また、略中央超音波画像における超音波の送信方向を示す軸をDcとする。領域設定部353aは、n枚の超音波画像から略中央超音波画像を最初に選択し、略中央超音波画像における軸Dcと、図5において一点鎖線で示す領域rの中心軸Axとを合わせて、領域rを設定する。すなわち、略中央超音波画像における超音波の送信方向と中心軸が一致する領域rを探索開始領域とする。なお、以下の説明では、超音波画像における超音波の送信方向と、領域の中心軸とが一致する場合、当該超音波画像と当該領域とが対応しているものとする。
The
その後、領域rを移動させる場合、領域設定部353aは、他の超音波画像を選択し、選択した超音波画像における超音波の送信方向と、領域rの中心軸Axが一致するように、再度、領域rを設定する。本実施形態では、領域設定部353aは、略中央超音波画像を選択した後、略中央超音波画像の生成順における前後の所定数mの超音波画像(mが偶数の場合、(n/2)-(m/2)番から(n/2)+(m/2)-1番までの超音波画像)を順次選択することにより、領域rを移動させる。
After that, when the region r is to be moved, the
ここで、被検者が腹部の超音波画像を取得する場合、通常は、一方の脇腹付近から臍部を経て他方の脇腹付近へプローブ2を移動させる。そのため、略中央超音波画像の取得時におけるプローブ2の位置は、臍部付近である可能性が高い。そのため、左右対称性の高い領域rの探索は、全ての超音波画像に対応する領域について行う必要は無く、m<nとすることができる。これにより、領域rの移動回数を抑えて、演算量を減らすことができる。
Here, when the subject acquires an ultrasound image of the abdomen, the
図4に示す対称度評価部353bは、領域rの中心軸Axに対して領域r内の左右にそれぞれある画像の対称度を評価する機能ブロックである。例えば図5に示す領域rが設定された場合、対称度評価部353bは、中心軸Axに対して左側の領域と右側の領域との相関値を計算することにより、領域rの対称度を評価する。相関値の計算手法としては、例えばSum of Abusolute Difference(SAD)、Sum of Squared Difference(SSD)、Normalized Cross-Correlation(NCC)、およびZero-means Normalized Cross-Correlation(ZNCC)等を用いることができるが、明るさの変化に対して頑健なZNCCが特に好ましい。なお、相関値については、例えばhttp://isl.sist.chukyo-u.ac.jp/Archives/tm.html を参照されたい。
The
また、合成画像では、腹直筋などの筋肉とその他の組織との境界が高輝度になるため、線状の模様が形成されている。対称度評価部353bは、特に、領域r中の模様について、相関値を計算することが好ましい。
In addition, in the composite image, a linear pattern is formed because the boundary between muscles such as the rectus abdominis muscle and other tissues has high brightness. It is preferable that the degree-of-
なお、相関値の代わりに、相互情報量を用いて対称度を評価してもよい。相互情報量については、例えばhttps://lp-tech.net/articles/9pF3Zを参照されたい。 The degree of symmetry may be evaluated using mutual information instead of the correlation value. See, for example, https://lp-tech.net/articles/9pF3Z for mutual information.
対称度評価部353bは、領域設定部353aが設定した全ての領域rについて、対称度を評価し、領域rが移動するたびに対称度をメモリに記録しておく。図7は、領域に対応する超音波画像の番号(画像No.)と、相関値との関係の一例を示すグラフである。
The degree-of-
領域選択部353cは、対称度に基づいて領域rを選択する機能ブロックである。本実施形態では、領域選択部353cは、対称度が評価された領域rの中から、最大の対称度を有する領域r(図7に示す例では、p番目の超音波画像に対応する領域)を選択する。これにより、図8に示すように、中心軸Axが左右の腹直筋のほぼ真中に位置する領域rが選択される。
The
なお、領域選択部353cによって選択される領域は、必ずしも最大の対称度を有する領域である必要はなく、所定閾値以上の対称度を有する領域のいずれかであってもよい。例えば左右対称度の2番目に高い領域等、対称度の比較的高い領域が選択されてもよい。
Note that the area selected by the
角度算出部353dは、合成画像を通る所定の軸と選択された領域rの中心軸Axとの角度差を算出する機能ブロックであり、方向調整部353は、角度算出部353dが算出した角度差に基づいて、合成画像の角度調整をする。本実施形態では、合成画像を通る所定の軸は、合成画像の左右対称軸である。これにより、図8に示す中心軸Axが上方向に指向するように合成画像が回転する。方向調整部353によって調整された合成画像のデータは表示インタフェース部36に出力され、図9に示すような、臍部が上方向になった合成画像がディスプレイ31に表示される。これにより、被検者は、腹部の状態を容易に把握することができる。なお、図9においては合成画像の一部のみが表示されているが、合成画像の全体が表示されてもよいことはいうまでもない。
The
なお、領域rの形状は、中心軸に対して線対称であれば特に限定されず、例えば、等脚台形、菱形、六角形、楕円形などであってもよい。また、領域rの大きさも特に限定されないが、左右の各腹直筋が概ね左右対称の形状を有しているため、領域rの幅を各腹直筋の幅と異ならせることが好ましい。 The shape of the region r is not particularly limited as long as it is linearly symmetrical with respect to the central axis. Also, the size of the region r is not particularly limited, but since the left and right rectus abdominis muscles have generally symmetrical shapes, it is preferable to make the width of the region r different from the width of each rectus abdominis muscle.
また、被検者がプローブ2を被検体9に当接させる場合、超音波の送信方向が被検体9の表面に垂直になるとは限らない。特に、プローブ2が臍部付近を通過したときの超音波の送信方向が被検体9の表面に垂直でなかった場合、臍部付近に設定された領域が、腹直筋が連なる方向に対して傾き、対称度が高くならない可能性がある。
Also, when the subject brings the
そこで領域設定部353aは、図10に示すように、選択した超音波画像における超音波の送信方向を示す軸Dと、領域rの中心軸Axとの角度θが所定値以下になるように、領域rを設定してもよい。所定値は特に限定されないが、通常のプローブ2の移動における、超音波の送信方向と被検体9の表面の法線とがなす角度の想定される最大値(例えば±5°)に設定する。この場合、領域設定部353aは、1つの超音波画像を選択して、領域rを設定した後、角度θを例えば1°ずつ変化させることにより、領域rを移動させる。対称度評価部353bは、角度θが変化するたびに、領域rの対称度を評価し、領域選択部353cは、対称度が最も高い領域rを選択する。これにより、超音波の送信方向が被検体9の表面に垂直でなかったとしても、臍部付近に設定された領域rはいずれかの角度において対称度が最も高くなるため、適切な領域を選択することができる。
Therefore, as shown in FIG. 10, the
(処理手順)
図11は、本実施形態に係る超音波撮像方法の処理手順を示すフローチャートである。(Processing procedure)
FIG. 11 is a flow chart showing the processing procedure of the ultrasonic imaging method according to this embodiment.
ステップS1において、プローブ2が超音波を被検体9の表面上の互いに異なる複数の位置から被検体9の内部に向けて送信する。これにより、プローブ2は、被検体9の内部で反射された超音波を受信し、プローブ2からエコー信号が出力される。
In step S<b>1 , the
ステップS2において、超音波画像生成部351が被検体9の表面上の互いに異なる複数の位置に対応した超音波画像をそれぞれ生成する。本実施形態では、プローブ2からエコー信号が出力されるたびに、超音波画像生成部351が超音波画像を生成する。ステップS1およびS2は、プローブ2のスキャンが終了するまで(ステップS3においてYes)、繰り返される。
In step S<b>2 , the
プローブ2のスキャンが終了すると、ステップS4(画像合成ステップ)において、画像合成部352が、前記各位置における超音波画像を合成して被検体9の断面の合成画像を生成する。
When the scanning of the
続いて、ステップS5(方向調整ステップ)において、方向調整部353が、合成画像に含まれる特定部位を所定の方向に指向させる。方向調整部353による調整は、合成画像の生成後、自動で行ってもよいし、入力装置32等を介した所定の操作を受け付けた場合に行ってもよい。ステップS5のさらに詳細な処理手順は後述する。
Subsequently, in step S5 (direction adjustment step), the
その後、ステップS6(表示ステップ)において、向きが調整された合成画像がディスプレイ31に表示される。
Thereafter, in step S<b>6 (display step), the synthesized image whose orientation has been adjusted is displayed on the
図12は、本実施形態におけるステップS5の詳細な処理手順を示すフローチャートである。ステップS5は、ステップS5-1~S5-7を有している。 FIG. 12 is a flow chart showing the detailed processing procedure of step S5 in this embodiment. Step S5 has steps S5-1 to S5-7.
まず、ステップS5-1において、領域設定部353aが、合成画像の生成に用いられた複数の超音波画像から一つの超音波画像を選択する。本実施形態では、例えば、超音波画像の生成順の中央に対応する略中央超音波画像を選択する。
First, in step S5-1, the
続いて、ステップS5-2において、領域設定部353aが、選択した超音波画像における超音波の送信方向を示す軸に領域rの中心軸Axを合わせて、合成画像に領域rを設定する。
Subsequently, in step S5-2, the
続いて、ステップS5-3において、対称度評価部353bが、設定された領域rの対称度を評価する。
Subsequently, in step S5-3, the degree-of-
探索対象となる全ての領域について対称度が評価されていない場合(ステップS5-4においてNo)、ステップS5-5に移行し、領域設定部353aが、これまでに選択されていない他の超音波画像を選択する。そして、当該選択した他の超音波画像について、ステップS5-2およびS5-3を実施する。ステップS5-2、S5-3およびS5-5は、探索対象となる全ての領域について対称度が評価されるまで(ステップS5-4においてYes)、繰り返される。
If the degree of symmetry has not been evaluated for all regions to be searched (No in step S5-4), the process proceeds to step S5-5, and the
その後、ステップS5-6において、領域選択部353cが、例えば最大の対称度を有する領域rを選択する。なお、領域選択部353cが、左右対称度の2番目に高い領域等、対称度の比較的高い領域rを選択してもよい。
After that, in step S5-6, the
続いて、ステップS5-7において、角度算出部353dが、合成画像の左右対称軸と領域選択部353cによって選択された領域rの中心軸Axとの角度差を算出し、方向調整部353が、該角度差に基づいて前記合成画像の角度調整をすることにより、合成画像を回転させる。
Subsequently, in step S5-7, the
(総括)
以上のように、本実施形態では、腹直筋の断面形状が概ね左右対称であることを利用して、臍部が上方向になるように合成画像の向きを調整する。これにより、被検者等には、腹部の状態が把握しやすい合成画像を表示することができる。(Summary)
As described above, in the present embodiment, the orientation of the synthesized image is adjusted so that the umbilical region is directed upward, utilizing the fact that the cross-sectional shape of the rectus abdominis muscle is generally bilaterally symmetrical. As a result, the subject or the like can be displayed with a synthesized image that facilitates understanding of the state of the abdomen.
なお、本実施形態の技術は、概ね左右対称な組織を含む部位であれば、腹直筋以外にも適用可能である。そのような部位として、背中、腰、首などが挙げられる。 It should be noted that the technique of the present embodiment can be applied to regions other than the rectus abdominis muscle as long as the region includes approximately bilaterally symmetrical tissues. Such sites include the back, waist, neck, and the like.
〔実施形態2〕
第2の実施形態では、合成画像を回転させながらテンプレート画像と比較することにより、合成画像の向きを調整する形態について説明する。図13は、第2の実施形態に係る超音波撮像装置3'の構成を示すブロック図である。超音波撮像装置3'は、図2に示す超音波撮像装置3において、方向調整部353を方向調整部353'に置き換えた構成である。また、補助記憶装置33には、テンプレート画像Tが記憶されている。[Embodiment 2]
In the second embodiment, a configuration will be described in which the orientation of the composite image is adjusted by comparing the composite image with the template image while rotating the composite image. FIG. 13 is a block diagram showing the configuration of an ultrasonic imaging apparatus 3' according to the second embodiment. The ultrasonic imaging apparatus 3' has a configuration in which the
図14は、方向調整部353'の機能等を示すブロック図である。方向調整部353'は、仮想回転部353eと、相関度評価部353fと、角度決定部353gと、回転部353hと、を備えている。
FIG. 14 is a block diagram showing functions and the like of the direction adjusting section 353'. The direction adjustment unit 353' includes a
仮想回転部353eは、超音波合成画像のテンプレート画像T、および、画像合成部352によって生成された合成画像の少なくともいずれかを仮想的に回転させる機能ブロックである。本実施形態におけるテンプレート画像Tは、臍部(特定部位)を含み、かつ、臍部が上方向(所定の方向)に指向している腹部断面を示す超音波合成画像である。テンプレート画像Tは、複数の個人の腹部超音波合成画像を平均化することによって作成することができる。あるいは、過去に同じ被検者の超音波合成画像が生成されていた場合は、方向が調整された過去の被検者の合成画像をテンプレート画像Tとしてもよい。本実施形態では、方向が調整された合成画像をテンプレート画像Tとし、図15に示す合成画像Fが新たに生成されたものとする。
The
なお、仮想回転部353eは、テンプレート画像Tを回転させてもよいが、本実施形態では、合成画像Fのみを回転させる。また、仮想回転部353eは、合成画像Fを360°回転させてもよいが、本実施形態では、テンプレート画像Tにおける断面の外形が上方向に指向した略円弧状であり、合成画像Fにおける断面の外形が右斜め方向に傾斜した略円弧状であることに基づき、合成画像Fを反時計回りに例えば45°の範囲で回転させる。合成画像Fにおける断面の外形は、例えば、プローブ2のスキャン開始時の当接位置に対応する左端部、スキャン終了時の当接位置に対応する右端部、および、スキャン開始時と終了時との真中の時点における当接位置に対応する中央部の各部の座標から判別することができる。
The
また、仮想回転部353eが合成画像Fを一度に回転させる角度は特に限定されないが、本実施形態では、合成画像Fを例えば所定角度として1°ずつ回転させる。回転された合成画像Fの一例を図16に示す。
Also, the angle by which the
相関度評価部353fは、テンプレート画像Tと合成画像との相関度を評価する機能ブロックである。具体的には、仮想回転部353eが合成画像Fを回転させるたびに、相関度評価部353fは、図17に示すように、回転された合成画像Fを仮想的に移動させながら合成画像Fとテンプレート画像Tとをマッチングさせ、合成画像Fとテンプレート画像Tとの相関値が最大になる相対位置を特定する。そして、相関度評価部353fは、特定された相対位置における相関値を、相関度として、合成画像Fの初期位置からの回転角度ごとにメモリに記録しておく。
The
なお、相関値の計算手法は、第1の実施形態と同様の手法を用いることができ、相関値の代わりに相互情報量を用いてもよい。また、仮想回転部353eによる合成画像Fの回転、および、相関度評価部353fによる合成画像Fとテンプレート画像Tとのマッチングは仮想的なものであり、ディスプレイ31に表示しなくてもよい。また、相関度評価部353fは、仮想回転部353eが合成画像Fを1回回転させたときに、前記相関度が所定閾値以上であった場合、相関度評価処理を終了してもよい。
Note that the same method as in the first embodiment can be used for calculating the correlation value, and mutual information may be used instead of the correlation value. Further, the rotation of the synthetic image F by the
図14に示す角度決定部353gは、相関度評価部353fが評価した相関度に基づいて、合成画像Fの回転角度を決定する機能ブロックである。ここでの回転角度は、後述する回転部353hによって合成画像Fが実際に回転する角度を意味する。本実施形態では、相関度が評価された合成画像Fの中から、相関度が最も高い合成画像Fmaxを選択し、合成画像Fmaxの初期位置に対する角度を、合成画像Fの回転角度として決定する。
An
なお、相関度評価部353fによって選択される合成画像は、必ずしも相関度が最も高い合成画像である必要はなく、相関値が所定閾値以上の合成画像のいずれかであってもよい。例えば、相関度の2番目に高い合成画像等、相関度の比較的高い合成画像が選択されてもよい。
Note that the synthesized image selected by the
回転部353hは、角度決定部353gによって決定された回転角度に従って、合成画像Fを回転させる機能ブロックである。回転部353hによって回転された合成画像Fは、テンプレート画像Tとの相関度が最も高いと評価された合成画像であるため、臍部がほぼ上方向になるように調整されている。回転部353hは、回転させた合成画像のデータを表示インタフェース部36に出力し、これに応じて、表示インタフェース部36は、臍部が所望の方向(例えば上方向)になった合成画像をディスプレイ31に表示する。
The
(処理手順)
図18は、本実施形態に超音波撮像方法の処理手順を示すフローチャートである。図18に示すフローチャートでは、全体的な処理手順は図11に示すフローチャートと同一であるが、合成画像の向きを調整するステップS5がステップS5'に置き換わっている。(Processing procedure)
FIG. 18 is a flowchart showing the processing procedure of the ultrasonic imaging method according to this embodiment. In the flowchart shown in FIG. 18, the overall processing procedure is the same as the flowchart shown in FIG. 11, but step S5 for adjusting the orientation of the synthesized image is replaced with step S5'.
図19は、本実施形態におけるステップS5'の詳細な処理手順を示すフローチャートである。ステップS5'は、ステップS5-8~S5-12を有している。 FIG. 19 is a flow chart showing the detailed processing procedure of step S5' in this embodiment. Step S5' has steps S5-8 to S5-12.
まず、ステップS5-8において、図14に示す仮想回転部353eが、合成画像Fを例えば1°ずつ回転させる。
First, in step S5-8, the
続いて、ステップS5-9において、相関度評価部353fが、回転された合成画像Fを仮想的に移動させながら、テンプレート画像Tと合成画像Fとの相関度を評価する。
Subsequently, in step S5-9, the
合成画像Fの初期位置からの回転角度が所定値(例えば45°)に達していない場合(ステップS5-10においてNo)、ステップS5-8に戻る。そして、ステップS5-8およびS5-9が、合成画像Fの初期位置からの回転角度が所定値に達するまで(ステップS5-10においてYes)、繰り返される。 If the rotation angle of the synthesized image F from the initial position has not reached a predetermined value (for example, 45°) (No in step S5-10), the process returns to step S5-8. Then, steps S5-8 and S5-9 are repeated until the rotation angle of synthesized image F from the initial position reaches a predetermined value (Yes in step S5-10).
その後、ステップS5-11において、角度決定部353gが、相関度が評価された合成画像Fの中から、相関度が最も高い合成画像Fmaxの初期位置からの回転角度を、合成画像Fの回転角度として決定する。
After that, in step S5-11, the
続いて、ステップS5-12において、回転部353hが、角度決定部353gによって決定された回転角度に従って、合成画像Fを回転させる。
Subsequently, in step S5-12, the
(総括)
以上のように、本実施形態では、合成画像を回転させながらテンプレート画像と比較することにより、合成画像の向きを調整する。生体組織の左右対称性を利用する第1の実施形態とは異なり、本実施形態では、左右対称な組織を含まないあらゆる部位の合成画像について、向きの調整が可能である。(Summary)
As described above, in the present embodiment, the orientation of the synthesized image is adjusted by rotating the synthesized image and comparing it with the template image. Unlike the first embodiment, which utilizes bilateral symmetry of living tissue, in this embodiment, it is possible to adjust the orientation of a composite image of any part that does not include bilaterally symmetrical tissue.
(付記事項)
本発明は上記実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、各実施形態に開示された技術的手段を適宜組み合わせて得られる形態も本発明の技術的範囲に含まれる。(Additional notes)
The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope of the claims, and forms obtained by appropriately combining the technical means disclosed in each embodiment are also within the scope of the present invention. Included in the technical scope.
上記実施形態では、腹部断面の合成画像の向きを、臍部が上方向になるように調整する場合について説明したが、合成画像の向きは、適宜変更することができる。例えば、臍部が下方向や横方向になるように合成画像の向きを調整してもよい。 In the above embodiment, the case where the orientation of the synthesized image of the cross section of the abdomen is adjusted so that the umbilical region faces upward has been described, but the orientation of the synthesized image can be changed as appropriate. For example, the orientation of the composite image may be adjusted so that the umbilical region faces downward or laterally.
また、上記実施形態では、生体組織の左右対称性を利用する、または、合成画像をテンプレート画像と比較することにより、合成画像の向きを調整しているが、合成画像の向きを調整する方法は、これらに限定されない。例えば、腹部断面の合成画像の場合、プローブ2のスキャン開始時および終了時の当接位置に対応する左右端部の高さを等しくすることによっても、臍部が上方向になるように調整してもよい。
Further, in the above embodiment, the orientation of the composite image is adjusted by utilizing the left-right symmetry of the living tissue or by comparing the composite image with the template image. , but not limited to. For example, in the case of a composite image of a cross section of the abdomen, the umbilical region can be adjusted upward by equalizing the heights of the left and right ends corresponding to the contact positions at the start and end of scanning of the
また、上記実施形態では、被検体9の表面上の互いに異なる複数の位置に対応した超音波画像を得るために、プローブ2を被検体9の表面に沿って移動させながら、プローブ2から超音波を断続的に送信していたが、超音波画像を得る態様はこれに限定されない。例えば、被検体9に超音波送受信装置を複数配置し、各超音波送受信装置から同時に超音波を送信してもよい。
Further, in the above embodiment, in order to obtain ultrasonic images corresponding to a plurality of mutually different positions on the surface of the subject 9, the
本発明は、医療用途および非医療用途のいずれにも適用可能であるが、特に、医療従事者ではない被検者が自身の健康状態を日常的に確認する用途に好適である。 INDUSTRIAL APPLICABILITY The present invention can be applied to both medical and non-medical applications, and is particularly suitable for applications in which subjects who are not medical professionals check their own health conditions on a daily basis.
1 超音波撮像システム
2 プローブ
3 超音波撮像装置
31 ディスプレイ
32 入力装置
33 補助記憶装置
34 通信インタフェース部
35 信号処理部
351 超音波画像生成部
352 画像合成部
353 方向調整部
353' 方向調整部
353a 領域設定部
353b 対称度評価部
353c 領域選択部
353d 角度算出部
353e 仮想回転部
353f 相関度評価部
353g 角度決定部
353h 回転部
36 表示インタフェース部
9 被検体
Ax 中心軸
D 送信方向を示す軸
Dc 送信方向を示す軸
F 合成画像
Fmax 合成画像
P 超音波撮像プログラム
r 領域
T テンプレート画像
Tc 略中央超音波画像1
必ずしも全ての目的または効果・利点が、本明細書中に記載される任意の特定の実施形態に則って達成され得るわけではない。従って、例えば当業者であれば、特定の実施形態は、本明細書中で教示または示唆されるような他の目的または効果・利点を必ずしも達成することなく、本明細書中で教示されるような1つまたは複数の効果・利点を達成または最適化するように動作するように構成され得ることを想到するであろう。 Not necessarily all objectives or advantages can be achieved in accordance with any particular embodiment described herein. Thus, for example, it will be appreciated by those skilled in the art that a particular embodiment may be as taught herein without necessarily achieving other objectives or advantages as taught or suggested herein. may be configured to operate to achieve or optimize one or more effects/benefits.
本明細書中に記載される全ての処理は、1つまたは複数のコンピュータまたはプロセッサを含むコンピューティングシステムによって実行されるソフトウェアコードモジュールにより具現化され、完全に自動化され得る。コードモジュールは、任意のタイプの非一時的なコンピュータ可読媒体または他のコンピュータ記憶装置に記憶することができる。一部または全ての方法は、専用のコンピュータハードウェアで具現化され得る。 All processes described herein can be embodied and fully automated by software code modules executed by a computing system including one or more computers or processors. Code modules may be stored in any type of non-transitory computer readable medium or other computer storage device. Some or all methods may be embodied in dedicated computer hardware.
本明細書中に記載されるもの以外でも、多くの他の変形例があることは、本開示から明らかである。例えば、実施形態に応じて、本明細書中に記載されるアルゴリズムのいずれかの特定の動作、イベント、または機能は、異なるシーケンスで実行することができ、追加、併合、または完全に除外することができる (例えば、記述された全ての行為または事象がアルゴリズムの実行に必要というわけではない)。さらに、特定の実施形態では、動作またはイベントは、例えば、マルチスレッド処理、割り込み処理、または複数のプロセッサまたはプロセッサコアを介して、または他の並列アーキテクチャ上で、逐次ではなく、並列に実行することができる。さらに、異なるタスクまたはプロセスは、一緒に機能し得る異なるマシンおよび/またはコンピューティングシステムによっても実行され得る。 It will be apparent from this disclosure that there are many other variations besides those described herein. For example, depending on the embodiment, specific acts, events, or functions of any of the algorithms described herein may be performed in different sequences, added, merged, or omitted entirely. (eg, not all acts or events described are required for execution of the algorithm). Moreover, in certain embodiments, operations or events may be performed in parallel rather than serially, e.g., across multithreaded processing, interrupt processing, or multiple processors or processor cores, or on other parallel architectures. can be done. Moreover, different tasks or processes may be performed by different machines and/or computing systems that may work together.
本明細書中に開示された実施形態に関連して説明された様々な例示的論理ブロックおよびモジュールは、プロセッサなどのマシンによって実施または実行することができる。プロセッサは、マイクロプロセッサであってもよいが、代替的に、プロセッサは、コントローラ、マイクロコントローラ、またはステートマシン、またはそれらの組み合わせなどであってもよい。プロセッサは、コンピュータ実行可能命令を処理するように構成された電気回路を含むことができる。別の実施形態では、プロセッサは、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、またはコンピュータ実行可能命令を処理することなく論理演算を実行する他のプログラマブルデバイスを含む。プロセッサはまた、コンピューティングデバイスの組み合わせ、例えば、デジタル信号プロセッサ(デジタル信号処理装置)とマイクロプロセッサの組み合わせ、複数のマイクロプロセッサ、DSPコアと組み合わせた1つ以上のマイクロプロセッサ、または任意の他のそのような構成として実装することができる。本明細書中では、主にデジタル技術に関して説明するが、プロセッサは、主にアナログ素子を含むこともできる。例えば、本明細書中に記載される信号処理アルゴリズムの一部または全部は、アナログ回路またはアナログとデジタルの混合回路により実装することができる。コンピューティング環境は、マイクロプロセッサ、メインフレームコンピュータ、デジタル信号プロセッサ、ポータブルコンピューティングデバイス、デバイスコントローラ、または装置内の計算エンジンに基づくコンピュータシステムを含むが、これらに限定されない任意のタイプのコンピュータシステムを含むことができる。 Various example logical blocks and modules described in connection with the embodiments disclosed herein can be implemented or executed by a machine such as a processor. The processor may be a microprocessor, but in the alternative, the processor may be a controller, microcontroller, or state machine, or combinations thereof, or the like. A processor may include electrical circuitry configured to process computer-executable instructions. In another embodiment, the processor includes an application specific integrated circuit (ASIC), field programmable gate array (FPGA), or other programmable device that performs logical operations without processing computer-executable instructions. A processor may also be a combination of computing devices, such as a combination of a digital signal processor (digital signal processor) and a microprocessor, multiple microprocessors, one or more microprocessors in combination with a DSP core, or any other It can be implemented as a configuration like Although described herein primarily in terms of digital technology, the processor may also include primarily analog components. For example, some or all of the signal processing algorithms described herein may be implemented with analog circuitry or mixed analog and digital circuitry. A computing environment includes any type of computer system including, but not limited to, a computer system based on a microprocessor, mainframe computer, digital signal processor, portable computing device, device controller, or computational engine within the apparatus. be able to.
特に明記しない限り、「できる」「できた」「だろう」または「可能性がある」などの条件付き言語は、特定の実施形態が特定の特徴、要素および/またはステップを含むが、他の実施形態は含まないことを伝達するために一般に使用される文脈内での意味で理解される。従って、このような条件付き言語は、一般に、特徴、要素および/またはステップが1つ以上の実施形態に必要とされる任意の方法であること、または1つ以上の実施形態が、これらの特徴、要素および/またはステップが任意の特定の実施形態に含まれるか、または実行されるかどうかを決定するための論理を必然的に含むことを意味するという訳ではない。 Unless otherwise specified, conditional language such as "could," "could," "would," or "could," implies that although a particular embodiment includes certain features, elements and/or steps, other Embodiments are to be understood in a sense within the context commonly used to convey that they do not include. Thus, such conditional language generally states that any method in which features, elements and/or steps are required in one or more embodiments or that one or more embodiments impose these features. , elements and/or steps are not necessarily meant to include logic to determine whether they are included or performed in any particular embodiment.
語句「X、Y、Zの少なくとも1つ」のような選言的言語は、特に別段の記載がない限り、項目、用語等が X, Y, Z、のいずれか、又はそれらの任意の組み合わせであり得ることを示すために一般的に使用されている文脈で理解される(例: X、Y、Z)。従って、このような選言的言語は、一般的には、特定の実施形態がそれぞれ存在するXの少なくとも1つ、Yの少なくとも1つ、またはZの少なくとも1つ、の各々を必要とすることを意味するものではない。 Disjunctive language such as the phrase "at least one of X, Y and Z" means that items, terms, etc. are any of X, Y, Z, or any combination thereof, unless otherwise stated. (e.g. X, Y, Z). Thus, such disjunctive languages generally require each of at least one of X, at least one of Y, or at least one of Z, for each specific embodiment to be present. does not mean
本明細書中に記載されかつ/または添付の図面に示されたフロー図における任意のプロセス記述、要素またはブロックは、プロセスにおける特定の論理機能または要素を実装するための1つ以上の実行可能命令を含む、潜在的にモジュール、セグメント、またはコードの一部を表すものとして理解されるべきである。代替の実施形態は、本明細書中に記載された実施形態の範囲内に含まれ、ここでは、要素または機能は、当業者に理解されるように、関連する機能性に応じて、実質的に同時にまたは逆の順序で、図示または説明されたものから削除、順不同で実行され得る。 Any process description, element or block in the flow diagrams described herein and/or illustrated in the accompanying drawings represents one or more executable instructions for implementing a particular logical function or element in the process. to potentially represent a module, segment, or portion of code, including Alternate embodiments are included within the scope of the embodiments described herein, where an element or function can be substantially modified, depending on the functionality involved, as understood by one skilled in the art. may be performed simultaneously or in reverse order, removed from those shown or described, and out of order.
特に明示されていない限り、「一つ」のような数詞は、一般的に、1つ以上の記述された項目を含むと解釈されるべきである。従って、「~するように設定された一つのデバイス」などの語句は、1つ以上の列挙されたデバイスを含むことを意図している。このような1つまたは複数の列挙されたデバイスは、記載された引用を実行するように集合的に構成することもできる。例えば、「以下のA、BおよびCを実行するように構成されたプロセッサ」は、Aを実行するように構成された第1のプロセッサと、BおよびCを実行するように構成された第2のプロセッサとを含むことができる。加えて、導入された実施例の具体的な数の列挙が明示的に列挙されたとしても、当業者は、このような列挙が典型的には少なくとも列挙された数(例えば、他の修飾語を用いない「2つの列挙と」の単なる列挙は、通常、少なくとも2つの列挙、または2つ以上の列挙を意味する)を意味すると解釈されるべきである。 Unless otherwise specified, numbers such as "a" should generally be construed to include one or more of the item being described. Thus, phrases such as "a device configured to" are intended to include one or more of the listed devices. One or more such listed devices may also be collectively configured to carry out the recited references. For example, "a processor configured to run A, B and C below" means a first processor configured to run A and a second processor configured to run B and C. and a processor of In addition, even if a specific number of recitations of the introduced examples is explicitly recited, one skilled in the art will appreciate that such recitations are typically at least the number recited (e.g., other modifiers A mere recitation of "two recitations" without using should be taken to mean generally at least two recitations, or more than two recitations.
一般に、本明細書中で使用される用語は、一般に、「非限定」用語(例えば、「~を含む」という用語は「それだけでなく、少なくとも~を含む」と解釈すべきであり、「~を持つ」という用語は「少なくとも~を持っている」と解釈すべきであり、「含む」という用語は「以下を含むが、これらに限定されない。」などと解釈すべきである。) を意図していると、当業者には判断される。 In general, terms used herein should generally be interpreted as "non-limiting" terms (e.g., the term "comprising" should be interpreted as "including at least as well as", "including The term "having" shall be construed as "having at least" and the term "including" shall be construed as "including but not limited to", etc.). will be determined by those skilled in the art.
説明の目的のために、本明細書中で使用される「水平」という用語は、その方向に関係なく、説明されるシステムが使用される領域の床の平面または表面に平行な平面、または説明される方法が実施される平面として定義される。「床」という用語は、「地面」または「水面」という用語と置き換えることができる。「垂直/鉛直」という用語は、定義された水平線に垂直/鉛直な方向を指します。「上側」「下側」「下」「上」「側面」「より高く」「より低く」「上の方に」「~を越えて」「下の」などの用語は水平面に対して定義されている。 For purposes of description, the term "horizontal" as used herein, regardless of its orientation, refers to a plane parallel to the plane or surface of the floor of the area in which the system described is used, or defined as the plane in which the method is performed. The term "floor" can be replaced with the terms "ground" or "water surface". The term "vertical/plumb" refers to the direction perpendicular/perpendicular to the defined horizontal line. Terms such as "above", "below", "below", "above", "side", "higher", "lower", "above", "over", "below", etc. are defined relative to the horizontal plane. ing.
本明細書中で使用される用語の「付着する」、「接続する」、「対になる」及び他の関連用語は、別段の注記がない限り、取り外し可能、移動可能、固定、調節可能、及び/または、取り外し可能な接続または連結を含むと解釈されるべきである。接続/連結は、直接接続及び/または説明した2つの構成要素間の中間構造を有する接続を含む。 The terms “attach,” “connect,” “pair,” and other related terms used herein, unless otherwise noted, include removable, movable, fixed, adjustable, and/or should be construed to include a removable connection or coupling. A connection/coupling includes a direct connection and/or a connection with an intermediate structure between two components described.
特に明示されていない限り、本明細書中で使用される、「およそ」、「約」、および「実質的に」のような用語が先行する数は、列挙された数を含み、また、さらに所望の機能を実行するか、または所望の結果を達成する、記載された量に近い量を表す。例えば、「およそ」、「約」及び「実質的に」とは、特に明示されていない限り、記載された数値の10%未満の値をいう。本明細書中で使用されているように、「およそ」、「約」、および「実質的に」などの用語が先行して開示されている実施形態の特徴は、さらに所望の機能を実行するか、またはその特徴について所望の結果を達成するいくつかの可変性を有する特徴を表す。 As used herein, unless otherwise specified, numbers preceded by terms such as "approximately," "about," and "substantially" include the recited number and also It represents an amount approximating the stated amount that will perform a desired function or achieve a desired result. For example, "about," "about," and "substantially" refer to less than 10% of the stated numerical value, unless otherwise specified. As used herein, terms such as "approximately," "about," and "substantially" predisclose features of the embodiments that also perform the desired function. or represents a feature with some variability to achieve the desired result for that feature.
上述した実施形態には、多くの変形例および修正例を加えることができ、それらの要素は、他の許容可能な例の中にあるものとして理解されるべきである。そのような全ての修正および変形は、本開示の範囲内に含まれることを意図し、以下の特許請求の範囲によって保護される。 Many variations and modifications may be made to the embodiments described above, and these elements are to be understood as being among other permissible examples. All such modifications and variations are intended to be included within the scope of this disclosure and protected by the following claims.
Claims (13)
前記各位置における超音波画像を合成して前記被検体の断面の合成画像を生成する画像合成部と、
前記合成画像を角度調整し、前記合成画像に含まれる特定部位を所定の方向に指向させる方向調整部とを備え、
前記方向調整部は、
前記合成画像において、中心軸に対して線対称の形状の領域を任意の位置と任意の角度で1または複数設定する領域設定部と、
前記中心軸に対して前記領域内の左右にそれぞれある画像の対称度を評価する対称度評価部と、
前記対称度に基づいて前記領域を選択する領域選択部と、
前記合成画像を通る所定の軸と選択された前記領域の前記中心軸との角度差を算出する角度算出部とを備え、
該角度差に基づいて前記合成画像の角度調整をする、
超音波撮像装置。 An ultrasonic wave that receives ultrasonic waves that are transmitted toward the interior of the subject from a plurality of positions different from each other on the surface of the subject and that are reflected inside the subject, thereby generating ultrasound images corresponding to the respective positions. an image generator;
an image synthesizing unit that synthesizes the ultrasonic images at the respective positions to generate a synthetic image of the cross section of the subject;
A direction adjustment unit that adjusts the angle of the synthesized image and orients a specific part included in the synthesized image in a predetermined direction ,
The direction adjustment unit
A region setting unit that sets one or a plurality of regions having a line-symmetrical shape with respect to the central axis at arbitrary positions and at arbitrary angles in the synthesized image;
a symmetry evaluation unit that evaluates the degree of symmetry of images on the left and right sides of the region with respect to the central axis;
a region selection unit that selects the region based on the degree of symmetry;
an angle calculation unit that calculates an angle difference between a predetermined axis passing through the synthesized image and the central axis of the selected region;
adjusting the angle of the composite image based on the angle difference;
Ultrasound imaging device.
前記方向調整部は、前記合成画像を画面表示する際に該臍部を該画面表示の所望の方向に一致させる、請求項1に記載の超音波撮像装置。 The specific part includes the umbilical region of the abdomen,
2. The ultrasonic imaging apparatus according to claim 1, wherein said direction adjusting unit aligns said umbilicus with a desired direction of said screen display when said composite image is displayed on said screen.
前記対称度評価部は、前記領域の移動の毎に前記対称度を評価する、請求項1乃至4のいずれかに記載の超音波撮像装置。 The area setting unit sets the area so as to be movable to the synthesized image,
5. The ultrasonic imaging apparatus according to claim 1 , wherein said symmetry evaluation unit evaluates said symmetry each time said region moves.
請求項1乃至10のいずれかに記載の超音波画像装置とを備える、超音波撮像システム。 a probe that transmits ultrasonic waves toward the inside of the subject from a plurality of positions different from each other on the surface of the subject and receives the ultrasonic waves reflected inside the subject;
An ultrasound imaging system comprising an ultrasound imaging device according to any one of claims 1 to 10 .
前記各位置における超音波画像を合成して前記被検体の断面の合成画像を生成する画像合成ステップと、
前記合成画像を角度調整し、前記合成画像に含まれる特定部位を所定の方向に指向させる方向調整ステップとを備え、
前記方向調整ステップは、
前記合成画像において、中心軸に対して線対称の形状の領域を任意の位置と任意の角度で1または複数設定する領域設定ステップと、
前記中心軸に対して前記領域内の左右にそれぞれある画像の対称度を評価する対称度評価ステップと、
前記対称度に基づいて前記領域を選択する領域選択ステップと、
前記合成画像を通る所定の軸と選択された前記領域の前記中心軸との角度差を算出する角度算出ステップとを備え、
該角度差に基づいて前記合成画像の角度調整をする、
超音波撮像方法。 An ultrasonic wave that receives ultrasonic waves that are transmitted toward the interior of the subject from a plurality of positions different from each other on the surface of the subject and that are reflected inside the subject, thereby generating ultrasound images corresponding to the respective positions. an image generating step;
an image synthesizing step of synthesizing the ultrasonic images at each position to generate a synthetic image of the cross section of the subject;
A direction adjustment step of adjusting the angle of the synthesized image and orienting a specific part included in the synthesized image in a predetermined direction ;
The direction adjustment step includes:
A region setting step of setting one or a plurality of regions having a line-symmetrical shape with respect to the central axis in the synthesized image at arbitrary positions and at arbitrary angles;
a symmetry evaluation step of evaluating the symmetry of the images on the left and right sides of the region with respect to the central axis;
a region selection step of selecting the region based on the degree of symmetry;
an angle calculation step of calculating an angle difference between a predetermined axis passing through the synthesized image and the central axis of the selected region;
adjusting the angle of the composite image based on the angle difference;
Ultrasound imaging method.
前記各位置における超音波画像を合成して前記被検体の断面の合成画像を生成し、および、
前記合成画像を角度調整し、前記合成画像に含まれる特定部位を所定の方向に指向し、
前記角度調整は、
前記合成画像において、中心軸に対して線対称の形状の領域を任意の位置と任意の角度で1または複数設定し、
前記中心軸に対して前記領域内の左右にそれぞれある画像の対称度を評価し、
前記対称度に基づいて前記領域を選択し、
前記合成画像を通る所定の軸と選択された前記領域の前記中心軸との角度差を算出し、
該角度差に基づいて前記合成画像の角度調整をする、
動作をコンピュータに実行させる、超音波撮像プログラム。
receiving ultrasonic waves transmitted toward the interior of the subject from a plurality of positions different from each other on the surface of the subject and reflected inside the subject, and generating ultrasound images corresponding to the respective positions;
synthesizing the ultrasound images at each of the positions to generate a synthetic image of the cross section of the subject; and
Adjusting the angle of the synthesized image, orienting a specific part included in the synthesized image in a predetermined direction ,
The angle adjustment is
In the synthesized image, one or more areas having a line-symmetrical shape with respect to the central axis are set at arbitrary positions and at arbitrary angles,
Evaluating the degree of symmetry of the images on the left and right sides of the region with respect to the central axis,
selecting the region based on the degree of symmetry;
calculating an angular difference between a predetermined axis passing through the composite image and the central axis of the selected region;
adjusting the angle of the composite image based on the angle difference;
An ultrasound imaging program that causes a computer to perform operations .
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018133146 | 2018-07-13 | ||
JP2018133146 | 2018-07-13 | ||
PCT/JP2019/024012 WO2020012883A1 (en) | 2018-07-13 | 2019-06-18 | Ultrasound imaging device, ultrasound imaging system, ultrasound imaging method, and ultrasound imaging program |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020012883A1 JPWO2020012883A1 (en) | 2021-07-15 |
JP7112492B2 true JP7112492B2 (en) | 2022-08-03 |
Family
ID=69142999
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020530059A Active JP7112492B2 (en) | 2018-07-13 | 2019-06-18 | Ultrasonic imaging device, ultrasonic imaging system, ultrasonic imaging method and ultrasonic imaging program |
Country Status (5)
Country | Link |
---|---|
US (1) | US11948324B2 (en) |
EP (1) | EP3821814A4 (en) |
JP (1) | JP7112492B2 (en) |
CN (1) | CN112367923A (en) |
WO (1) | WO2020012883A1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000217815A (en) | 1999-01-28 | 2000-08-08 | Hitachi Ltd | Method and apparatus for synthesizing panoramic image by synthesizing ultrasonic image |
JP2003038487A (en) | 2001-08-03 | 2003-02-12 | Hitachi Medical Corp | Ultrasonic image processor |
JP2018068494A (en) | 2016-10-26 | 2018-05-10 | 株式会社日立製作所 | Ultrasonic image processing system and program |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0338976A (en) * | 1989-07-05 | 1991-02-20 | Olympus Optical Co Ltd | Display device for image pickup |
JP3349308B2 (en) | 1995-10-26 | 2002-11-25 | 三洋電機株式会社 | Photovoltaic element |
US5795296A (en) * | 1996-03-29 | 1998-08-18 | University Of Washington | Pipeline process for automatically measuring object boundary from ultrasound image samples |
JPH114398A (en) * | 1997-06-11 | 1999-01-06 | Hitachi Ltd | Digital wide camera |
JPH11267121A (en) * | 1998-03-20 | 1999-10-05 | Ge Yokogawa Medical Systems Ltd | Method and device for ultrasonic photographing |
AU2001267813A1 (en) * | 2000-06-29 | 2002-01-21 | Technion Research And Development Foundation Ltd. | Classifier for image processing |
JP2004018375A (en) * | 2002-06-12 | 2004-01-22 | Shiseido Co Ltd | Oily cosmetics |
JP2006247039A (en) * | 2005-03-09 | 2006-09-21 | Ge Medical Systems Global Technology Co Llc | Ultrasonic diagnostic equipment |
WO2009117419A2 (en) * | 2008-03-17 | 2009-09-24 | Worcester Polytechnic Institute | Virtual interactive system for ultrasound training |
WO2010001634A1 (en) * | 2008-07-03 | 2010-01-07 | コニカミノルタエムジー株式会社 | Organic piezoelectric material, ultrasonic vibrator, and ultrasonic image diagnosis apparatus for medical application |
WO2011150316A1 (en) * | 2010-05-28 | 2011-12-01 | Sridharan Rajagopalan | Obtaining analytes from a tissue specimen |
JP5935344B2 (en) | 2011-05-13 | 2016-06-15 | ソニー株式会社 | Image processing apparatus, image processing method, program, recording medium, and image processing system |
US9268915B2 (en) * | 2011-09-25 | 2016-02-23 | Theranos, Inc. | Systems and methods for diagnosis or treatment |
US8475739B2 (en) * | 2011-09-25 | 2013-07-02 | Theranos, Inc. | Systems and methods for fluid handling |
US9632102B2 (en) * | 2011-09-25 | 2017-04-25 | Theranos, Inc. | Systems and methods for multi-purpose analysis |
US8435738B2 (en) * | 2011-09-25 | 2013-05-07 | Theranos, Inc. | Systems and methods for multi-analysis |
WO2013043203A2 (en) * | 2011-09-25 | 2013-03-28 | Theranos, Inc. | Systems and methods for multi-purpose analysis |
US20140170735A1 (en) * | 2011-09-25 | 2014-06-19 | Elizabeth A. Holmes | Systems and methods for multi-analysis |
US20160084863A1 (en) * | 2011-09-25 | 2016-03-24 | Theranos, Inc. | Systems and methods for multi-analysis |
US20160320381A1 (en) * | 2011-09-25 | 2016-11-03 | Theranos, Inc. | Systems and methods for multi-analysis |
CA3121358C (en) * | 2012-03-26 | 2024-01-16 | Xcellcure, Llc | Device and method for detection of analytes |
CN103784165A (en) * | 2012-10-31 | 2014-05-14 | 株式会社东芝 | Ultrasonic diagnosis device |
US10978284B2 (en) * | 2015-03-06 | 2021-04-13 | Micromass Uk Limited | Imaging guided ambient ionisation mass spectrometry |
EP3314020A1 (en) * | 2015-06-29 | 2018-05-02 | The Broad Institute Inc. | Tumor and microenvironment gene expression, compositions of matter and methods of use thereof |
EP3323352B1 (en) * | 2015-07-13 | 2022-03-30 | Furuno Electric Co., Ltd. | Probe adapter, ultrasonic imaging device, ultrasonic imaging method, and ultrasonic imaging program |
JP6574531B2 (en) * | 2016-04-19 | 2019-09-11 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | Acoustic alignment of internal and external ultrasound probes |
CN109069119B (en) * | 2016-04-26 | 2021-10-22 | 皇家飞利浦有限公司 | 3D image synthesis for ultrasound fetal imaging |
US20180153509A1 (en) * | 2016-12-06 | 2018-06-07 | General Electric Company | Ultrasound imaging with small-angle adjustment |
-
2019
- 2019-06-18 JP JP2020530059A patent/JP7112492B2/en active Active
- 2019-06-18 CN CN201980045503.1A patent/CN112367923A/en active Pending
- 2019-06-18 WO PCT/JP2019/024012 patent/WO2020012883A1/en unknown
- 2019-06-18 EP EP19835100.9A patent/EP3821814A4/en active Pending
-
2021
- 2021-01-12 US US17/147,028 patent/US11948324B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000217815A (en) | 1999-01-28 | 2000-08-08 | Hitachi Ltd | Method and apparatus for synthesizing panoramic image by synthesizing ultrasonic image |
JP2003038487A (en) | 2001-08-03 | 2003-02-12 | Hitachi Medical Corp | Ultrasonic image processor |
JP2018068494A (en) | 2016-10-26 | 2018-05-10 | 株式会社日立製作所 | Ultrasonic image processing system and program |
Also Published As
Publication number | Publication date |
---|---|
CN112367923A (en) | 2021-02-12 |
EP3821814A1 (en) | 2021-05-19 |
JPWO2020012883A1 (en) | 2021-07-15 |
US20210174533A1 (en) | 2021-06-10 |
US11948324B2 (en) | 2024-04-02 |
WO2020012883A1 (en) | 2020-01-16 |
EP3821814A4 (en) | 2022-04-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20110262015A1 (en) | Image processing apparatus, image processing method, and storage medium | |
KR101713859B1 (en) | Apparatus for processing magnetic resonance image and method for processing magnetic resonance image thereof | |
Wen et al. | An accurate and effective FMM-based approach for freehand 3D ultrasound reconstruction | |
JP6711715B2 (en) | Image processing apparatus and image processing method | |
JP7216140B2 (en) | Ultrasound imaging device | |
JP2018110615A (en) | Image processing apparatus and image processing method | |
US9098927B2 (en) | Image processing apparatus for diagnostic imaging and method thereof | |
JP7112492B2 (en) | Ultrasonic imaging device, ultrasonic imaging system, ultrasonic imaging method and ultrasonic imaging program | |
US11589841B2 (en) | Ultrasound imaging device, ultrasound imaging system, ultrasound imaging method and ultrasound imaging program | |
US20110170758A1 (en) | Tomographic image generating apparatus, tomographic image generating method, and program for generating tomographic images | |
CN113780519A (en) | Method and device for generating confrontation network training, computer equipment and storage medium | |
JP7373045B2 (en) | Ultrasonic imaging method, ultrasound imaging device, ultrasound imaging system and ultrasound imaging program | |
JP2012147939A (en) | Image processing apparatus | |
KR101634045B1 (en) | A method to detect helical direction and angular velocity of blood flow with signal intensity gradient vector analysis at arterial wall in MR angiography and medical imaging system applying them | |
JP6293452B2 (en) | Ultrasonic diagnostic apparatus and image analysis apparatus | |
EP4338684A1 (en) | Ultrasonic imaging device, ultrasonic imaging method, ultrasonic imaging system, and ultrasonic imaging program | |
JP5911234B2 (en) | Volume data processing apparatus and method | |
JP2014083204A5 (en) | ||
CN116830159A (en) | Method and system for improving visualization of three-dimensional (3D) medical images using histogram views | |
JP6598565B2 (en) | Image processing apparatus, image processing method, and program | |
JP6389084B2 (en) | Ultrasonic diagnostic apparatus and control program therefor | |
JP6588694B2 (en) | Ultrasonic diagnostic equipment | |
CN114693841A (en) | Image scanning method, image scanning device, computer equipment and storage medium | |
JP2018019789A (en) | Image encoding device and control method thereof | |
JP2005211671A (en) | Radiotherapy planning device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210122 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220215 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220303 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220719 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220722 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7112492 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |