JP7112492B2 - Ultrasonic imaging device, ultrasonic imaging system, ultrasonic imaging method and ultrasonic imaging program - Google Patents

Ultrasonic imaging device, ultrasonic imaging system, ultrasonic imaging method and ultrasonic imaging program Download PDF

Info

Publication number
JP7112492B2
JP7112492B2 JP2020530059A JP2020530059A JP7112492B2 JP 7112492 B2 JP7112492 B2 JP 7112492B2 JP 2020530059 A JP2020530059 A JP 2020530059A JP 2020530059 A JP2020530059 A JP 2020530059A JP 7112492 B2 JP7112492 B2 JP 7112492B2
Authority
JP
Japan
Prior art keywords
image
ultrasonic
region
subject
symmetry
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020530059A
Other languages
Japanese (ja)
Other versions
JPWO2020012883A1 (en
Inventor
健介 井芹
拓生 嶋田
竜雄 新井
悟史 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Furuno Electric Co Ltd
Original Assignee
Furuno Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Furuno Electric Co Ltd filed Critical Furuno Electric Co Ltd
Publication of JPWO2020012883A1 publication Critical patent/JPWO2020012883A1/en
Application granted granted Critical
Publication of JP7112492B2 publication Critical patent/JP7112492B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/68Analysis of geometric attributes of symmetry
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5207Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5246Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from the same or different imaging techniques, e.g. color Doppler and B-mode
    • A61B8/5253Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from the same or different imaging techniques, e.g. color Doppler and B-mode combining overlapping images, e.g. spatial compounding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/60Rotation of whole images or parts thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/085Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating body or organic structures, e.g. tumours, calculi, blood vessels, nodules
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0858Detecting organic movements or changes, e.g. tumours, cysts, swellings involving measuring tissue layers, e.g. skin, interfaces
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • A61B8/14Echo-tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5269Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving detection or reduction of artifacts
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5292Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves using additional data, e.g. patient information, image labeling, acquisition parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Description

本発明は、超音波によって被検体の内部を撮像する超音波撮像装置、超音波撮像システム、超音波撮像方法および超音波撮像プログラムに関する。 The present invention relates to an ultrasonic imaging apparatus, an ultrasonic imaging system, an ultrasonic imaging method, and an ultrasonic imaging program for imaging the inside of a subject using ultrasonic waves.

例えば、メタボリックシンドロームの健診では、腹部の断層画像を取得するために、CT(Computed Tomography)装置やMRI(Magnetic Resonance Imaging)装置が用いられることが多い。これらの装置は、大がかりで高額であり、被爆の問題もあるため、近年では、超音波を用いて断層画像を取得する技術が開発されている。例えば、特許文献1には、プローブを被検体の表面に沿って移動させながら、プローブから超音波を断続的に送信することにより得られた複数の超音波画像を合成して、合成画像(パノラマ画像)を生成する技術が開示されている。この技術では、被検者自身がプローブを腹部に当接させながら移動させるだけで、腹部の断面を示す合成画像を得ることができる。 For example, in health checkups for metabolic syndrome, a CT (Computed Tomography) device or an MRI (Magnetic Resonance Imaging) device is often used to acquire a tomographic image of the abdomen. These devices are large-scale and expensive, and there is also the problem of exposure to radiation. Therefore, in recent years, techniques for acquiring tomographic images using ultrasound have been developed. For example, in Patent Document 1, a plurality of ultrasonic images obtained by intermittently transmitting ultrasonic waves from the probe while moving the probe along the surface of the subject are synthesized to form a synthesized image (panoramic image). A technique for generating an image) is disclosed. With this technique, a composite image showing a cross-section of the abdomen can be obtained only by the subject moving the probe while it is in contact with the abdomen.

特許第5935344号Patent No. 5935344

例えば腹部の断層画像を取得する場合、まず脇腹付近にプローブを当て、その後、臍部を経て反対側の脇腹付近まで移動させる。このとき、現行の合成画像では、図20に示すように、プローブの初期位置に対応する脇腹付近が上向きになる。このような合成画像では、臍部が上向きになっていないため、被検者等が腹部の状態を把握し難いという問題がある。 For example, when acquiring a tomographic image of the abdomen, the probe is applied to the vicinity of the flank first, and then moved to the vicinity of the flank on the opposite side via the navel. At this time, in the current composite image, as shown in FIG. 20, the vicinity of the flank corresponding to the initial position of the probe faces upward. In such a composite image, since the umbilicus is not facing upward, there is a problem that it is difficult for the subject or the like to grasp the state of the abdomen.

本発明は、上記問題を解決するためになされたものであって、被検者等が被検体の状態を把握しやすい超音波合成画像を表示できる超音波撮像装置を提供することを課題とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide an ultrasonic imaging apparatus capable of displaying an ultrasonic composite image that allows a subject to easily grasp the state of the subject. .

本発明に係る超音波撮像装置は、被検体の表面上の互いに異なる複数の位置から該被検体の内部に向けて送信されて内部で反射された超音波を受信して、前記各位置に対応した超音波画像をそれぞれ生成する超音波画像生成部と、前記各位置における超音波画像を合成して前記被検体の断面の合成画像を生成する画像合成部と、前記合成画像を角度調整し、前記合成画像に含まれる特定部位を所定の方向に指向させる方向調整部とを備えたことを特徴とする。 An ultrasonic imaging apparatus according to the present invention receives ultrasonic waves transmitted from a plurality of mutually different positions on the surface of a subject toward the inside of the subject and reflected inside the subject, and corresponds to each of the positions. an ultrasonic image generator for generating each of the ultrasonic images, an image synthesizing unit for synthesizing the ultrasonic images at each position to generate a composite image of the cross section of the subject, and adjusting the angle of the composite image, and a direction adjusting unit that orients the specific part included in the synthesized image in a predetermined direction.

本発明に係る超音波撮像システムは、超音波を前記被検体の表面上の互いに異なる複数の位置から該被検体の内部に向けて送信し、前記被検体の内部で反射された超音波を受信するプローブと、本発明に係る超音波画像装置とを備えることを特徴とする。 An ultrasonic imaging system according to the present invention transmits ultrasonic waves from a plurality of mutually different positions on the surface of the subject toward the inside of the subject, and receives the ultrasonic waves reflected inside the subject. and an ultrasonic imaging apparatus according to the present invention.

本発明に係る超音波撮像方法は、被検体の表面上の互いに異なる複数の位置から該被検体の内部に向けて送信されて内部で反射された超音波を受信して、前記各位置に対応した超音波画像をそれぞれ生成する超音波画像生成ステップと、前記各位置における超音波画像を合成して前記被検体の断面の合成画像を生成する画像合成ステップと、前記合成画像を角度調整し、前記合成画像に含まれる特定部位を所定の方向に指向させる方向調整ステップとを備えることを特徴とする。 An ultrasonic imaging method according to the present invention receives ultrasonic waves transmitted from a plurality of mutually different positions on the surface of a subject toward the inside of the subject and reflected inside the subject, and corresponds to each of the positions. an ultrasonic image generating step of generating each of the ultrasonic images obtained from the above; an image synthesizing step of synthesizing the ultrasound images at the respective positions to generate a synthetic image of the cross section of the subject; adjusting the angle of the synthetic image; and a direction adjusting step of orienting the specific part included in the synthesized image in a predetermined direction.

本発明に係る超音波撮像プログラムは、被検体の表面上の互いに異なる複数の位置から該被検体の内部に向けて送信されて内部で反射された超音波を受信して、前記各位置に対応した超音波画像をそれぞれ生成する超音波画像生成部、前記各位置における超音波画像を合成して前記被検体の断面の合成画像を生成する画像合成部、および、前記合成画像を角度調整し、前記合成画像に含まれる特定部位を所定の方向に指向させる方向調整部、としてコンピュータを動作させる。 An ultrasonic imaging program according to the present invention receives ultrasonic waves transmitted toward the interior of the subject from a plurality of positions different from each other on the surface of the subject and reflected inside the subject, and corresponds to each position an ultrasonic image generator for generating each of the ultrasonic images, an image synthesizing unit for synthesizing the ultrasound images at each position to generate a composite image of the cross section of the subject, and adjusting the angle of the composite image, A computer is operated as a direction adjusting unit that orients a specific portion included in the composite image in a predetermined direction.

本発明によれば、被検者等が被検体の状態を把握しやすい超音波合成画像を表示することができる。 Advantageous Effects of Invention According to the present invention, it is possible to display an ultrasonic composite image that allows a subject or the like to easily grasp the state of the subject.

第1の実施形態に係る超音波撮像システムの構成を示す模式図である。1 is a schematic diagram showing the configuration of an ultrasound imaging system according to a first embodiment; FIG. 第1の実施形態に係る超音波撮像装置の構成を示すブロック図である。1 is a block diagram showing the configuration of an ultrasonic imaging apparatus according to a first embodiment; FIG. 腹部断面の合成画像の一例である。It is an example of the synthesized image of an abdominal cross section. 方向調整部の機能ブロック図である。4 is a functional block diagram of a direction adjusting section; FIG. 領域が設定された合成画像の一例である。It is an example of a composite image in which a region is set. プローブの軌跡、および、超音波の送信方向の説明図である。FIG. 4 is an explanatory diagram of a trajectory of a probe and a transmission direction of ultrasonic waves; 領域に対応する超音波画像の番号と、相関値との関係の一例を示すグラフである。7 is a graph showing an example of the relationship between the number of ultrasound images corresponding to a region and the correlation value; 腹直筋のほぼ真中に領域が設定された合成画像の一例である。It is an example of a composite image in which a region is set approximately in the middle of the rectus abdominis muscle. 向きが調整された合成画像の一例である。It is an example of a composite image whose orientation has been adjusted. 領域の他の設定例を説明するための図である。FIG. 11 is a diagram for explaining another setting example of areas; 第1の実施形態に係る超音波撮像方法の処理手順を示すフローチャートである。4 is a flow chart showing a processing procedure of an ultrasonic imaging method according to the first embodiment; 第1の実施形態における方向調整ステップの詳細な処理手順を示すフローチャートである。4 is a flow chart showing a detailed processing procedure of a direction adjustment step in the first embodiment; 第2の実施形態に係る超音波撮像装置の構成を示すブロック図である。2 is a block diagram showing the configuration of an ultrasonic imaging apparatus according to a second embodiment; FIG. 第2の実施形態における方向調整部の機能ブロック図である。FIG. 8 is a functional block diagram of a direction adjusting section in the second embodiment; 調整対象となる合成画像の一例である。It is an example of a synthetic image to be adjusted. 回転された合成画像の一例である。1 is an example of a rotated composite image; 合成画像とテンプレート画像とのマッチングを説明するための図である。FIG. 4 is a diagram for explaining matching between a composite image and a template image; 第2の実施形態に係る超音波撮像方法の処理手順を示すフローチャートである。9 is a flow chart showing a processing procedure of an ultrasonic imaging method according to the second embodiment; 第2の実施形態における方向調整ステップの詳細な処理手順を示すフローチャートである。9 is a flowchart showing detailed processing procedures of a direction adjustment step in the second embodiment; 向きが調整されていない合成画像の一例である。It is an example of a composite image whose orientation has not been adjusted.

以下、本発明の実施形態を、添付の図面を参照して詳細に説明する。なお、以下の説明および図面において、同じ符号は同じまたは類似の構成要素を示すこととし、よって、同じまたは類似の構成要素に関する重複した説明を省略する。 Embodiments of the present invention will now be described in detail with reference to the accompanying drawings. In the following description and drawings, the same reference numerals denote the same or similar components, and redundant description of the same or similar components will be omitted.

(全体構成)
図1は、第1の実施形態に係る超音波撮像システム1の構成を示す模式図である。超音波撮像システム1は、プローブ2と、超音波撮像装置3とを含んでいる。
(overall structure)
FIG. 1 is a schematic diagram showing the configuration of an ultrasonic imaging system 1 according to the first embodiment. An ultrasound imaging system 1 includes a probe 2 and an ultrasound imaging device 3 .

プローブ2は、超音波を被検体9の表面上の互いに異なる複数の位置から被検体9の内部に向けて送信し、被検体9の内部で反射された超音波を受信する装置であり、本実施形態では、被検者が把持して動かすことができるように構成されている。プローブ2の下端には、複数の超音波振動子が一列に配列された超音波送受面が設けられている。被検体9の断層画像(あるいは断面画像)を取得する場合、被検者は、被検体9にプローブ2の超音波送受面を当接させて、プローブ2を被検体9の表面に沿って移動させる(プローブ2によりスキャンする)。その間に、プローブ2は、超音波送受面から被検体9の内部に向けて超音波を断続的に送信し、被検体9の内部で反射された超音波を超音波送受面において受信する。これにより、プローブ2は、受信した超音波を示す電気信号(エコー信号)を出力する。 The probe 2 is a device that transmits ultrasonic waves from a plurality of mutually different positions on the surface of the subject 9 toward the inside of the subject 9 and receives the ultrasonic waves reflected inside the subject 9. In the embodiment, it is configured so that it can be held and moved by the subject. The lower end of the probe 2 is provided with an ultrasonic transmission/reception surface on which a plurality of ultrasonic transducers are arranged in a row. When acquiring a tomographic image (or a cross-sectional image) of the subject 9, the subject brings the ultrasonic wave transmitting/receiving surface of the probe 2 into contact with the subject 9 and moves the probe 2 along the surface of the subject 9. (scanning with probe 2). During this time, the probe 2 intermittently transmits ultrasonic waves from the ultrasonic wave transmitting/receiving surface toward the inside of the subject 9, and receives ultrasonic waves reflected inside the subject 9 at the ultrasonic wave transmitting/receiving surface. As a result, the probe 2 outputs an electrical signal (echo signal) representing the received ultrasonic waves.

なお、プローブ2は、リニアスキャン画像を取得するリニアスキャンモードで動作するが、セクタスキャン画像を取得するセクタスキャンモードで動作可能であってもよいし、リニアスキャンモードとセクタスキャンモードの両方で動作可能であってもよいし、他のモードあるいは他のモードとの組み合わせで動作可能であってもよい。また本実施形態では、被検体9は主に腹部であるが、被検体9に含まれる生体部位は特に限定されない。 The probe 2 operates in a linear scan mode for acquiring a linear scan image, but may operate in a sector scan mode for acquiring a sector scan image, or may operate in both the linear scan mode and the sector scan mode. It may be possible, or it may be operable in other modes or in combination with other modes. Moreover, in the present embodiment, the subject 9 is mainly the abdomen, but the body part included in the subject 9 is not particularly limited.

超音波撮像装置3は、WiFi(登録商標)などの無線によってプローブ2に接続されている。本実施形態では、超音波撮像装置3は例えばタブレット端末で構成されており、プローブ2から受信したエコー信号に基づき、複数の超音波画像を生成し、さらに、それらの超音波画像を合成した合成画像を表示する機能を有している。 The ultrasonic imaging device 3 is connected to the probe 2 by wireless such as WiFi (registered trademark). In this embodiment, the ultrasonic imaging device 3 is configured by, for example, a tablet terminal, generates a plurality of ultrasonic images based on the echo signals received from the probe 2, and further combines these ultrasonic images. It has the function of displaying images.

なお、超音波撮像装置3は画像を表示可能な装置であれば特に限定されず、汎用のパーソナルコンピュータや、スマートフォン等で構成することができる。また、プローブ2と超音波撮像装置3との接続方法は特に限定されず、有線接続であってもよい。 Note that the ultrasonic imaging device 3 is not particularly limited as long as it can display an image, and can be configured with a general-purpose personal computer, a smart phone, or the like. Also, the method of connecting the probe 2 and the ultrasonic imaging apparatus 3 is not particularly limited, and a wired connection may be used.

(超音波撮像装置の機能)
図2は、超音波撮像装置3の構成を示すブロック図である。超音波撮像装置3は、ハードウェアの構成として、ディスプレイ31と、入力装置32と、補助記憶装置33と、通信インタフェース部(I/F部)34と、表示インタフェース部(I/F部)36とを備えている。
(Functions of Ultrasound Imaging Device)
FIG. 2 is a block diagram showing the configuration of the ultrasonic imaging apparatus 3. As shown in FIG. The ultrasound imaging apparatus 3 has a hardware configuration including a display 31, an input device 32, an auxiliary storage device 33, a communication interface section (I/F section) 34, and a display interface section (I/F section) 36. and

ディスプレイ31は、例えば液晶ディスプレイ、プラズマディスプレイおよび有機ELディスプレイ等で構成することができる。なお、ディスプレイ31を超音波撮像装置3とは別個の装置として構成してもよい。 The display 31 can be composed of, for example, a liquid crystal display, a plasma display, an organic EL display, or the like. Note that the display 31 may be configured as a device separate from the ultrasonic imaging device 3 .

入力装置32は、ディスプレイ31の表面に設けられたタッチパネルである。被検者は、入力装置32を介してディスプレイ31に表示された画像に対する入力操作を行うことができる。 The input device 32 is a touch panel provided on the surface of the display 31 . The subject can perform an input operation on the image displayed on the display 31 via the input device 32 .

補助記憶装置33は、オペレーティングシステム(OS)、各種制御プログラム、および、プログラムによって生成されたデータなどを記憶する不揮発性の記憶装置であり、例えば、eMMC(embedded Multi Media Card)やSSD(Solid State Drive)等によって構成される。補助記憶装置33には、超音波撮像プログラムPが記憶されている。超音波撮像プログラムPは、インターネットなどのネットワークを介して超音波撮像装置3にインストールしてもよい。あるいは、超音波撮像プログラムPを記録したSDカード等のコンピュータ読み取り可能な非一時的な有体の記録媒体を超音波撮像装置3に読み取らせることにより、超音波撮像プログラムPを超音波撮像装置3にインストールしてもよい。 The auxiliary storage device 33 is a non-volatile storage device that stores an operating system (OS), various control programs, and data generated by the programs. Drive), etc. An ultrasonic imaging program P is stored in the auxiliary storage device 33 . The ultrasonic imaging program P may be installed in the ultrasonic imaging apparatus 3 via a network such as the Internet. Alternatively, the ultrasonic imaging program P can be transferred to the ultrasonic imaging apparatus 3 by causing the ultrasonic imaging apparatus 3 to read a computer-readable non-temporary tangible recording medium such as an SD card in which the ultrasonic imaging program P is recorded. can be installed on

通信インタフェース部34は、外部機器とのデータの送受信を行うものであり、本実施形態では、プローブ2から受信した信号の復調や、プローブ2に送信するための制御信号の変調などを行う。 The communication interface unit 34 transmits and receives data to and from an external device, and in this embodiment, demodulates a signal received from the probe 2, modulates a control signal to be transmitted to the probe 2, and the like.

表示インタフェース部36は、超音波撮像装置3の演算処理によって生成された各種画像データをVRAMに展開することにより、当該画像をディスプレイ31に表示するものであり、例えば後述する信号処理部35によって生成された合成画像等をディスプレイ31に表示する。 The display interface unit 36 displays various image data generated by the arithmetic processing of the ultrasonic imaging apparatus 3 on the display 31 by developing the image data in the VRAM. The combined image and the like thus obtained are displayed on the display 31 .

図示していないが、超音波撮像装置3は、他のハードウェアの構成として、データ処理を行うCPU等のプロセッサ、および、プロセッサがデータ処理の作業領域に使用するメモリ(主記憶装置)などをさらに備えている。 Although not shown, the ultrasonic imaging apparatus 3 includes, as other hardware configurations, a processor such as a CPU that performs data processing, and a memory (main storage device) that the processor uses as a work area for data processing. I have more.

また、超音波撮像装置3は、ソフトウェアの構成として、信号処理部35を備えている。信号処理部35は、プロセッサが超音波撮像プログラムPを実行することにより実現される機能ブロックであり、プローブ2から受信されたエコー信号を処理して、被検体9の超音波合成画像を、被検者、医師、撮像従事者などが被検体9の状態を把握しやすいようにディスプレイ31に表示する機能を有している。この機能を実現するために信号処理部35は、超音波画像生成部351と、画像合成部352と、方向調整部353とを備えている。なお、信号処理部35を、集積回路上に形成された論理回路によってハードウェア的に実現してもよい。 The ultrasonic imaging apparatus 3 also includes a signal processing unit 35 as a software configuration. The signal processing unit 35 is a functional block realized by the processor executing the ultrasonic imaging program P, and processes echo signals received from the probe 2 to generate an ultrasonic composite image of the subject 9. It has a function of displaying on the display 31 so that an examiner, a doctor, a person engaged in imaging, and the like can easily grasp the state of the subject 9 . In order to realize this function, the signal processing section 35 includes an ultrasonic image generating section 351 , an image synthesizing section 352 and a direction adjusting section 353 . Note that the signal processing unit 35 may be implemented in hardware by a logic circuit formed on an integrated circuit.

超音波画像生成部351は、プローブ2から受信されたエコー信号から、被検体9の内部の超音波画像を生成する。プローブ2は、被検体9の表面を移動しながら、超音波撮像装置3から送信される制御信号にしたがって、被検体9の表面上の互いに異なる複数の位置から被検体9の内部に向けて超音波を送信し、被検体9の内部で反射された超音波を受信して、超音波撮像装置3にエコー信号を出力する。これにより、プローブ2が超音波を受信するたびに、超音波画像生成部351にエコー信号が入力され、超音波画像生成部351は、エコー信号から、被検体9の表面上の互いに異なる複数の位置に対応した超音波画像を生成する。超音波画像の生成数は、プローブ2による超音波の送受信時間、および、送受信の周期によって変動するが、本実施形態では、n枚の超音波画像が生成されるとする。 The ultrasonic image generator 351 generates an ultrasonic image of the interior of the subject 9 from the echo signal received from the probe 2 . While moving on the surface of the subject 9 , the probe 2 performs ultrasound toward the inside of the subject 9 from a plurality of mutually different positions on the surface of the subject 9 in accordance with control signals transmitted from the ultrasonic imaging device 3 . It transmits sound waves, receives ultrasonic waves reflected inside the object 9 , and outputs echo signals to the ultrasonic imaging device 3 . As a result, each time the probe 2 receives ultrasonic waves, an echo signal is input to the ultrasonic image generation unit 351, and the ultrasonic image generation unit 351 generates a plurality of different images on the surface of the subject 9 from the echo signals. Generating an ultrasound image corresponding to the position. The number of ultrasonic images to be generated varies depending on the transmission/reception time of ultrasonic waves by the probe 2 and the transmission/reception cycle. In this embodiment, n ultrasonic images are generated.

なお、超音波画像生成部351の機能を、プローブ2を制御する制御装置に設けてもよい。その場合、制御装置を超音波撮像装置3に接続してもよいし、制御装置に超音波画像を記憶させておき、記録媒体を介して超音波画像を超音波撮像装置3に送信してもよい。 Note that the function of the ultrasonic image generation unit 351 may be provided in a control device that controls the probe 2 . In that case, the control device may be connected to the ultrasonic imaging device 3, or an ultrasonic image may be stored in the control device and transmitted to the ultrasonic imaging device 3 via a recording medium. good.

画像合成部352は、超音波画像生成部351によって生成された、被検体9の表面上の前記各位置における超音波画像を合成して被検体9の断面の合成画像を生成する機能ブロックである。超音波画像の合成は、周知の技術を適用することができ、本実施形態では、例えば各超音波画像間の特徴点マッチングを用いて超音波画像を合成する。なお、本実施形態において、「断面」とは、輪切りの断面だけでなく、部分的な断面も含む概念である。 The image synthesizing unit 352 is a functional block that synthesizes the ultrasound images at the respective positions on the surface of the subject 9 generated by the ultrasound image generating unit 351 to generate a composite image of the cross section of the subject 9. . A well-known technique can be applied to synthesize ultrasound images, and in this embodiment, ultrasound images are synthesized using, for example, feature point matching between ultrasound images. In the present embodiment, the term “cross section” is a concept that includes not only a round cross section but also a partial cross section.

この方法では、1番目の超音波画像および2番目の超音波画像から特徴点を検出する。そして、1番目の超音波画像と2番目の超音波画像の特徴点をマッチングして、1番目の超音波画像と2番目の超音波画像の同次変換行列を計算する。具体的には、2番目の超音波画像が1番目の超音波画像に対して、時計周りにθだけ回転し、x軸方向にt、y軸方向にtだけ平行移動させると1番目の超音波画像と2番目の超音波画像の特徴点が一致する場合、2番目の超音波画像の座標系を動かして1番目の超音波画像に合わせる同次変換行列Rは、

Figure 0007112492000001
となる。すなわち、1番目の超音波画像上の特徴点(x、y)が、2番目の超音波画像上の特徴点(x'、y')に移動するとき、
Figure 0007112492000002
の関係が成り立つ。なお、特徴点の座標には誤差が含まれており、また、ノイズの影響により決定された対応関係自体に誤りが含まれているため、計算に悪影響を及ぼす外れ値をRANSACアルゴリズムにより除外する。また、位置関係の計算には、ガウス・ニュートン法、レーベンバーグ・マーカート法等の非線形最小二乗法を利用できる。In this method, feature points are detected from the first ultrasonic image and the second ultrasonic image. Then, the feature points of the first ultrasonic image and the second ultrasonic image are matched to calculate homogeneous transformation matrices of the first ultrasonic image and the second ultrasonic image. Specifically, the second ultrasonic image is rotated clockwise by θ with respect to the first ultrasonic image, and is translated by t x in the x-axis direction and t y in the y-axis direction. When the feature points of the second ultrasonic image and the second ultrasonic image match, the homogeneous transformation matrix R for moving the coordinate system of the second ultrasonic image to match the first ultrasonic image is
Figure 0007112492000001
becomes. That is, when the feature point (x, y) on the first ultrasound image moves to the feature point (x', y') on the second ultrasound image,
Figure 0007112492000002
relationship is established. Note that the coordinates of the feature points contain errors, and the determined correspondence relationships themselves contain errors due to the influence of noise, so outliers that adversely affect the calculation are excluded by the RANSAC algorithm. Also, non-linear least-squares methods such as the Gauss-Newton method and the Levenberg-Marquardt method can be used to calculate the positional relationship.

同次変換行列Rの計算を、生成順が隣り合う2枚の超音波画像について順次行い、n-1番目の超音波画像およびn番目の超音波画像まで行う。k+1(1≦k≦n-1)番目の超音波画像からk番目の超音波画像への同次変換行列をRとすると、k+1番目の超音波画像から1番目の超音波画像への同次変換行列は、R…Rとなる。1番目の超音波画像の座標系はワールド座標系と呼ばれ、全ての超音波画像について、ワールド座標系への同次変換行列を計算することで、全ての超音波画像の座標が計算できる。その後、全ての超音波画像の画素をブレンドすることにより、1枚の合成画像が生成される。Calculation of the homogeneous transformation matrix R is sequentially performed for two adjacent ultrasound images in the generation order, and is performed up to the (n−1)th ultrasound image and the nth ultrasound image. Let Rk be a homogeneous transformation matrix from the k +1 (1≦k≦n−1)-th ultrasonic image to the k-th ultrasonic image. The following transform matrices are R 1 R 2 . . . R k . The coordinate system of the first ultrasonic image is called the world coordinate system, and the coordinates of all ultrasonic images can be calculated by calculating homogeneous transformation matrices to the world coordinate system for all ultrasonic images. A single composite image is then generated by blending the pixels of all the ultrasound images.

本実施形態においては、まず、図20に示す腹部断面を含む合成画像が生成されたとする。 In the present embodiment, it is assumed that first, a composite image including the cross section of the abdomen shown in FIG. 20 is generated.

方向調整部353は、合成画像を角度調整し、前記合成画像に含まれる特定部位を所定の方向に指向させる機能を有している。本実施形態では、方向調整部353は、図20に示す合成画像の向きを、臍部が例えば上方向になるように調整する。調整の具体的な方法については、後述する。 The direction adjustment unit 353 has a function of adjusting the angle of the synthesized image and orienting the specific part included in the synthesized image in a predetermined direction. In the present embodiment, the orientation adjustment unit 353 adjusts the orientation of the composite image shown in FIG. 20 so that the navel is upward, for example. A specific method of adjustment will be described later.

方向調整部353によって方向調整された合成画像は、表示インタフェース部36に入力される。表示インタフェース部36は、合成画像のデータをVRAMに展開することにより、合成画像をディスプレイ31に表示する。なお、表示インタフェース部36は、下記の方向調整をする前の合成画像をいったんディスプレイ31に表示してもよいし、方向調整を行った後に、合成画像をディスプレイ31に表示してもよい。 The composite image whose direction has been adjusted by the direction adjustment section 353 is input to the display interface section 36 . The display interface unit 36 displays the synthesized image on the display 31 by developing the synthesized image data in the VRAM. Note that the display interface unit 36 may temporarily display the synthesized image on the display 31 before performing the direction adjustment described below, or may display the synthesized image on the display 31 after performing the direction adjustment.

(方向調整)
以下、方向調整部353が合成画像の向きを調整する一形態について、具体的に説明する。本実施形態では、図3において破線で示すように、腹直筋の断面形状が概ね左右対称であることを利用して、臍部が上方向になるように合成画像の向きを調整する。
(direction adjustment)
Hereinafter, one form in which the direction adjusting unit 353 adjusts the direction of the synthesized image will be specifically described. In the present embodiment, as indicated by the dashed line in FIG. 3, the orientation of the synthesized image is adjusted so that the umbilical region faces upward, utilizing the fact that the cross-sectional shape of the rectus abdominis muscle is generally bilaterally symmetrical.

図4に示すように、方向調整部353は、領域設定部353aと、対称度評価部353bと、領域選択部353cと、角度算出部353dと、を備えている。 As shown in FIG. 4, the direction adjustment section 353 includes an area setting section 353a, a symmetry evaluation section 353b, an area selection section 353c, and an angle calculation section 353d.

領域設定部353aは、中心軸に対して線対称の形状の領域rを任意の位置と任意の角度で1または複数設定する機能ブロックである。本実施形態において、領域rの形状は、図5の白線枠に示すように中心軸Axに対して線対称な長方形である。領域rが左右の腹直筋を均等に含む場合、領域rの中心軸Axが腹部の臍部を通る中心軸とみなせる。領域設定部353aは、左右対称性の高い領域rを探索するため、領域rを移動可能に設定する。 The region setting unit 353a is a functional block that sets one or a plurality of regions r having a line-symmetrical shape with respect to the central axis at arbitrary positions and at arbitrary angles. In the present embodiment, the shape of the region r is a rectangle that is symmetrical with respect to the central axis Ax, as indicated by the white line frame in FIG. When the region r equally includes the right and left rectus abdominis muscles, the central axis Ax of the region r can be regarded as the central axis passing through the navel of the abdomen. The region setting unit 353a sets the region r to be movable in order to search for the region r with high left-right symmetry.

より具体的には、領域設定部353aは、合成画像の生成に用いられた複数の超音波画像から一つの超音波画像を選択し、被検体9の表面上の位置の超音波の送信方向を示す軸に領域rの中心軸Axを合わせて領域rの設定をする。すなわち、領域設定部353aは、被検体9の表面上の互いに異なる複数の位置における超音波の送信方向を示す各軸にそれぞれ各領域rの中心軸Axを合わせて当該各領域rの設定をする。各超音波画像における超音波の送信方向は、1番目の超音波画像の座標系(ワールド座標系)への同次変換行列に基づいて特定できる。また、超音波画像取得時におけるプローブ2の軌跡は、各超音波画像の上辺に対応する。そのため、図6に示すように、プローブ2の軌跡、および、超音波の送信方向の情報は、合成画像に含まれている。 More specifically, the region setting unit 353a selects one ultrasonic image from the plurality of ultrasonic images used to generate the composite image, and sets the transmission direction of the ultrasonic waves at the position on the surface of the subject 9. The area r is set by aligning the center axis Ax of the area r with the indicated axis. That is, the region setting unit 353a sets each region r by aligning the central axis Ax of each region r with each axis indicating the transmission direction of the ultrasonic wave at a plurality of mutually different positions on the surface of the subject 9. . The transmission direction of ultrasonic waves in each ultrasonic image can be identified based on a homogeneous transformation matrix to the coordinate system (world coordinate system) of the first ultrasonic image. Also, the trajectory of the probe 2 at the time of ultrasonic image acquisition corresponds to the upper side of each ultrasonic image. Therefore, as shown in FIG. 6, the trajectory of the probe 2 and information on the transmission direction of the ultrasonic waves are included in the synthesized image.

領域設定部353aは、1番目の超音波画像からn番目(nは正の整数)の超音波画像までを順に選択してもよいが、本実施形態では、超音波画像の生成された順の略中央に対応する略中央超音波画像の中心軸、および、前記略中央超音波画像の前後の所定数の生成順の超音波画像の前記中心軸を、それぞれ順次選択する。nが偶数の場合、略中央超音波画像は、n/2番の超音波画像に対応する。nが奇数の場合、略中央超音波画像は、(n-1)/2番あるいは(n+1)/2番のいずれかの超音波画像に対応する。また、略中央超音波画像における超音波の送信方向を示す軸をDcとする。領域設定部353aは、n枚の超音波画像から略中央超音波画像を最初に選択し、略中央超音波画像における軸Dcと、図5において一点鎖線で示す領域rの中心軸Axとを合わせて、領域rを設定する。すなわち、略中央超音波画像における超音波の送信方向と中心軸が一致する領域rを探索開始領域とする。なお、以下の説明では、超音波画像における超音波の送信方向と、領域の中心軸とが一致する場合、当該超音波画像と当該領域とが対応しているものとする。 The region setting unit 353a may sequentially select from the first ultrasonic image to the n-th (n is a positive integer) ultrasonic image. A center axis of a substantially central ultrasonic image corresponding to the substantially center, and the center axes of a predetermined number of generated order ultrasonic images before and after the substantially central ultrasonic image are selected in sequence. When n is an even number, the substantially central ultrasound image corresponds to the n/2th ultrasound image. If n is an odd number, the approximately central ultrasound image corresponds to either the (n−1)/2th or (n+1)/2th ultrasound image. Also, let Dc be the axis indicating the transmission direction of the ultrasonic waves in the substantially central ultrasonic image. The region setting unit 353a first selects a substantially central ultrasonic image from the n ultrasonic images, and aligns the axis Dc of the substantially central ultrasonic image with the central axis Ax of the region r indicated by the dashed-dotted line in FIG. to set the region r. That is, the search start area is defined as an area r in which the transmission direction of the ultrasonic waves in the substantially central ultrasonic image coincides with the central axis. In the following description, when the transmission direction of ultrasonic waves in an ultrasonic image and the center axis of the area match, the ultrasonic image corresponds to the area.

その後、領域rを移動させる場合、領域設定部353aは、他の超音波画像を選択し、選択した超音波画像における超音波の送信方向と、領域rの中心軸Axが一致するように、再度、領域rを設定する。本実施形態では、領域設定部353aは、略中央超音波画像を選択した後、略中央超音波画像の生成順における前後の所定数mの超音波画像(mが偶数の場合、(n/2)-(m/2)番から(n/2)+(m/2)-1番までの超音波画像)を順次選択することにより、領域rを移動させる。 After that, when the region r is to be moved, the region setting unit 353a selects another ultrasonic image, and moves again so that the transmission direction of the ultrasonic waves in the selected ultrasonic image matches the central axis Ax of the region r. , set the region r. In this embodiment, after selecting the substantially central ultrasonic image, the region setting unit 353a selects a predetermined number m of ultrasonic images before and after the substantially central ultrasonic image in the order of generation (if m is an even number, (n/2 )-(m/2) to (n/2)+(m/2)-1), the region r is moved.

ここで、被検者が腹部の超音波画像を取得する場合、通常は、一方の脇腹付近から臍部を経て他方の脇腹付近へプローブ2を移動させる。そのため、略中央超音波画像の取得時におけるプローブ2の位置は、臍部付近である可能性が高い。そのため、左右対称性の高い領域rの探索は、全ての超音波画像に対応する領域について行う必要は無く、m<nとすることができる。これにより、領域rの移動回数を抑えて、演算量を減らすことができる。 Here, when the subject acquires an ultrasound image of the abdomen, the probe 2 is usually moved from the vicinity of one flank to the vicinity of the other flank via the umbilical region. Therefore, there is a high possibility that the position of the probe 2 is near the umbilicus when acquiring the substantially central ultrasound image. Therefore, it is not necessary to search for a highly symmetrical region r for regions corresponding to all ultrasound images, and m<n can be satisfied. As a result, the number of times the area r is moved can be suppressed, and the amount of calculation can be reduced.

図4に示す対称度評価部353bは、領域rの中心軸Axに対して領域r内の左右にそれぞれある画像の対称度を評価する機能ブロックである。例えば図5に示す領域rが設定された場合、対称度評価部353bは、中心軸Axに対して左側の領域と右側の領域との相関値を計算することにより、領域rの対称度を評価する。相関値の計算手法としては、例えばSum of Abusolute Difference(SAD)、Sum of Squared Difference(SSD)、Normalized Cross-Correlation(NCC)、およびZero-means Normalized Cross-Correlation(ZNCC)等を用いることができるが、明るさの変化に対して頑健なZNCCが特に好ましい。なお、相関値については、例えばhttp://isl.sist.chukyo-u.ac.jp/Archives/tm.html を参照されたい。 The symmetry evaluation unit 353b shown in FIG. 4 is a functional block that evaluates the symmetry of the images on the left and right sides of the region r with respect to the central axis Ax of the region r. For example, when the region r shown in FIG. 5 is set, the symmetry evaluation unit 353b evaluates the degree of symmetry of the region r by calculating the correlation value between the left region and the right region with respect to the central axis Ax. do. As a method for calculating the correlation value, for example, Sum of Absolute Difference (SAD), Sum of Squared Difference (SSD), Normalized Cross-Correlation (NCC), Zero-means Normalized Cross-Correlation (ZNCC), etc. can be used. However, ZNCCs that are robust to changes in brightness are particularly preferred. For correlation values, see http://isl.sist.chukyo-u.ac.jp/Archives/tm.html, for example.

また、合成画像では、腹直筋などの筋肉とその他の組織との境界が高輝度になるため、線状の模様が形成されている。対称度評価部353bは、特に、領域r中の模様について、相関値を計算することが好ましい。 In addition, in the composite image, a linear pattern is formed because the boundary between muscles such as the rectus abdominis muscle and other tissues has high brightness. It is preferable that the degree-of-symmetry evaluation unit 353b calculates the correlation value particularly for the pattern in the region r.

なお、相関値の代わりに、相互情報量を用いて対称度を評価してもよい。相互情報量については、例えばhttps://lp-tech.net/articles/9pF3Zを参照されたい。 The degree of symmetry may be evaluated using mutual information instead of the correlation value. See, for example, https://lp-tech.net/articles/9pF3Z for mutual information.

対称度評価部353bは、領域設定部353aが設定した全ての領域rについて、対称度を評価し、領域rが移動するたびに対称度をメモリに記録しておく。図7は、領域に対応する超音波画像の番号(画像No.)と、相関値との関係の一例を示すグラフである。 The degree-of-symmetry evaluation unit 353b evaluates the degrees of symmetry for all the regions r set by the region setting unit 353a, and records the degrees of symmetry in the memory each time the region r moves. FIG. 7 is a graph showing an example of the relationship between the ultrasound image number (image No.) corresponding to the region and the correlation value.

領域選択部353cは、対称度に基づいて領域rを選択する機能ブロックである。本実施形態では、領域選択部353cは、対称度が評価された領域rの中から、最大の対称度を有する領域r(図7に示す例では、p番目の超音波画像に対応する領域)を選択する。これにより、図8に示すように、中心軸Axが左右の腹直筋のほぼ真中に位置する領域rが選択される。 The region selection unit 353c is a functional block that selects the region r based on the degree of symmetry. In the present embodiment, the region selection unit 353c selects a region r having the highest degree of symmetry (region corresponding to the p-th ultrasonic image in the example shown in FIG. 7) from among the regions r evaluated for the degree of symmetry. to select. As a result, as shown in FIG. 8, a region r is selected in which the central axis Ax is located substantially in the middle of the left and right rectus abdominis muscles.

なお、領域選択部353cによって選択される領域は、必ずしも最大の対称度を有する領域である必要はなく、所定閾値以上の対称度を有する領域のいずれかであってもよい。例えば左右対称度の2番目に高い領域等、対称度の比較的高い領域が選択されてもよい。 Note that the area selected by the area selection unit 353c does not necessarily have to be the area having the maximum degree of symmetry, and may be any area having a degree of symmetry equal to or greater than a predetermined threshold. A region with a relatively high degree of symmetry may be selected, for example the region with the second highest degree of symmetry.

角度算出部353dは、合成画像を通る所定の軸と選択された領域rの中心軸Axとの角度差を算出する機能ブロックであり、方向調整部353は、角度算出部353dが算出した角度差に基づいて、合成画像の角度調整をする。本実施形態では、合成画像を通る所定の軸は、合成画像の左右対称軸である。これにより、図8に示す中心軸Axが上方向に指向するように合成画像が回転する。方向調整部353によって調整された合成画像のデータは表示インタフェース部36に出力され、図9に示すような、臍部が上方向になった合成画像がディスプレイ31に表示される。これにより、被検者は、腹部の状態を容易に把握することができる。なお、図9においては合成画像の一部のみが表示されているが、合成画像の全体が表示されてもよいことはいうまでもない。 The angle calculator 353d is a functional block that calculates the angle difference between a predetermined axis passing through the composite image and the central axis Ax of the selected region r. Adjust the angle of the composite image based on In this embodiment, the predetermined axis passing through the composite image is the symmetrical axis of the composite image. As a result, the composite image is rotated such that the central axis Ax shown in FIG. 8 is oriented upward. The data of the synthesized image adjusted by the direction adjustment unit 353 is output to the display interface unit 36, and the synthesized image with the navel directed upward is displayed on the display 31 as shown in FIG. This allows the subject to easily grasp the condition of the abdomen. Although only part of the composite image is displayed in FIG. 9, it goes without saying that the entire composite image may be displayed.

なお、領域rの形状は、中心軸に対して線対称であれば特に限定されず、例えば、等脚台形、菱形、六角形、楕円形などであってもよい。また、領域rの大きさも特に限定されないが、左右の各腹直筋が概ね左右対称の形状を有しているため、領域rの幅を各腹直筋の幅と異ならせることが好ましい。 The shape of the region r is not particularly limited as long as it is linearly symmetrical with respect to the central axis. Also, the size of the region r is not particularly limited, but since the left and right rectus abdominis muscles have generally symmetrical shapes, it is preferable to make the width of the region r different from the width of each rectus abdominis muscle.

また、被検者がプローブ2を被検体9に当接させる場合、超音波の送信方向が被検体9の表面に垂直になるとは限らない。特に、プローブ2が臍部付近を通過したときの超音波の送信方向が被検体9の表面に垂直でなかった場合、臍部付近に設定された領域が、腹直筋が連なる方向に対して傾き、対称度が高くならない可能性がある。 Also, when the subject brings the probe 2 into contact with the subject 9 , the transmission direction of ultrasonic waves is not always perpendicular to the surface of the subject 9 . In particular, when the transmission direction of the ultrasonic waves when the probe 2 passes near the navel is not perpendicular to the surface of the subject 9, the region set near the navel is aligned with the rectus abdominis. Tilt and degree of symmetry may not be high.

そこで領域設定部353aは、図10に示すように、選択した超音波画像における超音波の送信方向を示す軸Dと、領域rの中心軸Axとの角度θが所定値以下になるように、領域rを設定してもよい。所定値は特に限定されないが、通常のプローブ2の移動における、超音波の送信方向と被検体9の表面の法線とがなす角度の想定される最大値(例えば±5°)に設定する。この場合、領域設定部353aは、1つの超音波画像を選択して、領域rを設定した後、角度θを例えば1°ずつ変化させることにより、領域rを移動させる。対称度評価部353bは、角度θが変化するたびに、領域rの対称度を評価し、領域選択部353cは、対称度が最も高い領域rを選択する。これにより、超音波の送信方向が被検体9の表面に垂直でなかったとしても、臍部付近に設定された領域rはいずれかの角度において対称度が最も高くなるため、適切な領域を選択することができる。 Therefore, as shown in FIG. 10, the region setting unit 353a is configured so that the angle θ between the axis D indicating the transmission direction of the ultrasonic waves in the selected ultrasonic image and the central axis Ax of the region r is equal to or less than a predetermined value. A region r may be set. Although the predetermined value is not particularly limited, it is set to the assumed maximum value (for example, ±5°) of the angle between the transmission direction of the ultrasonic waves and the normal to the surface of the subject 9 in the normal movement of the probe 2 . In this case, the region setting unit 353a selects one ultrasonic image, sets the region r, and then moves the region r by changing the angle θ by 1°, for example. The symmetry evaluation unit 353b evaluates the symmetry of the region r each time the angle θ changes, and the region selection unit 353c selects the region r with the highest symmetry. Accordingly, even if the transmission direction of ultrasonic waves is not perpendicular to the surface of the subject 9, the region r set near the navel has the highest degree of symmetry at any angle, so an appropriate region is selected. can do.

(処理手順)
図11は、本実施形態に係る超音波撮像方法の処理手順を示すフローチャートである。
(Processing procedure)
FIG. 11 is a flow chart showing the processing procedure of the ultrasonic imaging method according to this embodiment.

ステップS1において、プローブ2が超音波を被検体9の表面上の互いに異なる複数の位置から被検体9の内部に向けて送信する。これにより、プローブ2は、被検体9の内部で反射された超音波を受信し、プローブ2からエコー信号が出力される。 In step S<b>1 , the probe 2 transmits ultrasonic waves toward the interior of the subject 9 from a plurality of mutually different positions on the surface of the subject 9 . As a result, the probe 2 receives the ultrasonic waves reflected inside the subject 9 and outputs an echo signal from the probe 2 .

ステップS2において、超音波画像生成部351が被検体9の表面上の互いに異なる複数の位置に対応した超音波画像をそれぞれ生成する。本実施形態では、プローブ2からエコー信号が出力されるたびに、超音波画像生成部351が超音波画像を生成する。ステップS1およびS2は、プローブ2のスキャンが終了するまで(ステップS3においてYes)、繰り返される。 In step S<b>2 , the ultrasonic image generator 351 generates ultrasonic images corresponding to a plurality of different positions on the surface of the subject 9 . In this embodiment, each time an echo signal is output from the probe 2, the ultrasonic image generator 351 generates an ultrasonic image. Steps S1 and S2 are repeated until scanning of the probe 2 is completed (Yes in step S3).

プローブ2のスキャンが終了すると、ステップS4(画像合成ステップ)において、画像合成部352が、前記各位置における超音波画像を合成して被検体9の断面の合成画像を生成する。 When the scanning of the probe 2 is finished, in step S4 (image synthesizing step), the image synthesizing unit 352 synthesizes the ultrasonic images at the respective positions to generate a synthetic image of the cross section of the subject 9 .

続いて、ステップS5(方向調整ステップ)において、方向調整部353が、合成画像に含まれる特定部位を所定の方向に指向させる。方向調整部353による調整は、合成画像の生成後、自動で行ってもよいし、入力装置32等を介した所定の操作を受け付けた場合に行ってもよい。ステップS5のさらに詳細な処理手順は後述する。 Subsequently, in step S5 (direction adjustment step), the direction adjustment unit 353 orients the specific part included in the synthesized image in a predetermined direction. The adjustment by the direction adjustment unit 353 may be performed automatically after the synthetic image is generated, or may be performed when a predetermined operation via the input device 32 or the like is received. A more detailed processing procedure of step S5 will be described later.

その後、ステップS6(表示ステップ)において、向きが調整された合成画像がディスプレイ31に表示される。 Thereafter, in step S<b>6 (display step), the synthesized image whose orientation has been adjusted is displayed on the display 31 .

図12は、本実施形態におけるステップS5の詳細な処理手順を示すフローチャートである。ステップS5は、ステップS5-1~S5-7を有している。 FIG. 12 is a flow chart showing the detailed processing procedure of step S5 in this embodiment. Step S5 has steps S5-1 to S5-7.

まず、ステップS5-1において、領域設定部353aが、合成画像の生成に用いられた複数の超音波画像から一つの超音波画像を選択する。本実施形態では、例えば、超音波画像の生成順の中央に対応する略中央超音波画像を選択する。 First, in step S5-1, the region setting unit 353a selects one ultrasonic image from a plurality of ultrasonic images used to generate the composite image. In this embodiment, for example, an approximately central ultrasound image corresponding to the center of the generation order of the ultrasound images is selected.

続いて、ステップS5-2において、領域設定部353aが、選択した超音波画像における超音波の送信方向を示す軸に領域rの中心軸Axを合わせて、合成画像に領域rを設定する。 Subsequently, in step S5-2, the region setting unit 353a aligns the center axis Ax of the region r with the axis indicating the transmission direction of the ultrasonic waves in the selected ultrasonic image, and sets the region r in the synthesized image.

続いて、ステップS5-3において、対称度評価部353bが、設定された領域rの対称度を評価する。 Subsequently, in step S5-3, the degree-of-symmetry evaluation unit 353b evaluates the degree of symmetry of the set region r.

探索対象となる全ての領域について対称度が評価されていない場合(ステップS5-4においてNo)、ステップS5-5に移行し、領域設定部353aが、これまでに選択されていない他の超音波画像を選択する。そして、当該選択した他の超音波画像について、ステップS5-2およびS5-3を実施する。ステップS5-2、S5-3およびS5-5は、探索対象となる全ての領域について対称度が評価されるまで(ステップS5-4においてYes)、繰り返される。 If the degree of symmetry has not been evaluated for all regions to be searched (No in step S5-4), the process proceeds to step S5-5, and the region setting unit 353a selects other ultrasonic waves that have not been selected so far. Select an image. Then, steps S5-2 and S5-3 are performed for the selected other ultrasound image. Steps S5-2, S5-3 and S5-5 are repeated until the degree of symmetry is evaluated for all regions to be searched (Yes in step S5-4).

その後、ステップS5-6において、領域選択部353cが、例えば最大の対称度を有する領域rを選択する。なお、領域選択部353cが、左右対称度の2番目に高い領域等、対称度の比較的高い領域rを選択してもよい。 After that, in step S5-6, the region selection unit 353c selects the region r having the maximum degree of symmetry, for example. Note that the region selection unit 353c may select a region r with a relatively high degree of symmetry, such as a region with the second highest degree of left-right symmetry.

続いて、ステップS5-7において、角度算出部353dが、合成画像の左右対称軸と領域選択部353cによって選択された領域rの中心軸Axとの角度差を算出し、方向調整部353が、該角度差に基づいて前記合成画像の角度調整をすることにより、合成画像を回転させる。 Subsequently, in step S5-7, the angle calculation unit 353d calculates the angle difference between the left-right symmetry axis of the synthesized image and the central axis Ax of the region r selected by the region selection unit 353c, and the direction adjustment unit 353 The synthesized image is rotated by adjusting the angle of the synthesized image based on the angle difference.

(総括)
以上のように、本実施形態では、腹直筋の断面形状が概ね左右対称であることを利用して、臍部が上方向になるように合成画像の向きを調整する。これにより、被検者等には、腹部の状態が把握しやすい合成画像を表示することができる。
(Summary)
As described above, in the present embodiment, the orientation of the synthesized image is adjusted so that the umbilical region is directed upward, utilizing the fact that the cross-sectional shape of the rectus abdominis muscle is generally bilaterally symmetrical. As a result, the subject or the like can be displayed with a synthesized image that facilitates understanding of the state of the abdomen.

なお、本実施形態の技術は、概ね左右対称な組織を含む部位であれば、腹直筋以外にも適用可能である。そのような部位として、背中、腰、首などが挙げられる。 It should be noted that the technique of the present embodiment can be applied to regions other than the rectus abdominis muscle as long as the region includes approximately bilaterally symmetrical tissues. Such sites include the back, waist, neck, and the like.

〔実施形態2〕
第2の実施形態では、合成画像を回転させながらテンプレート画像と比較することにより、合成画像の向きを調整する形態について説明する。図13は、第2の実施形態に係る超音波撮像装置3'の構成を示すブロック図である。超音波撮像装置3'は、図2に示す超音波撮像装置3において、方向調整部353を方向調整部353'に置き換えた構成である。また、補助記憶装置33には、テンプレート画像Tが記憶されている。
[Embodiment 2]
In the second embodiment, a configuration will be described in which the orientation of the composite image is adjusted by comparing the composite image with the template image while rotating the composite image. FIG. 13 is a block diagram showing the configuration of an ultrasonic imaging apparatus 3' according to the second embodiment. The ultrasonic imaging apparatus 3' has a configuration in which the direction adjusting section 353 in the ultrasonic imaging apparatus 3 shown in FIG. 2 is replaced with a direction adjusting section 353'. A template image T is stored in the auxiliary storage device 33 .

図14は、方向調整部353'の機能等を示すブロック図である。方向調整部353'は、仮想回転部353eと、相関度評価部353fと、角度決定部353gと、回転部353hと、を備えている。 FIG. 14 is a block diagram showing functions and the like of the direction adjusting section 353'. The direction adjustment unit 353' includes a virtual rotation unit 353e, a correlation evaluation unit 353f, an angle determination unit 353g, and a rotation unit 353h.

仮想回転部353eは、超音波合成画像のテンプレート画像T、および、画像合成部352によって生成された合成画像の少なくともいずれかを仮想的に回転させる機能ブロックである。本実施形態におけるテンプレート画像Tは、臍部(特定部位)を含み、かつ、臍部が上方向(所定の方向)に指向している腹部断面を示す超音波合成画像である。テンプレート画像Tは、複数の個人の腹部超音波合成画像を平均化することによって作成することができる。あるいは、過去に同じ被検者の超音波合成画像が生成されていた場合は、方向が調整された過去の被検者の合成画像をテンプレート画像Tとしてもよい。本実施形態では、方向が調整された合成画像をテンプレート画像Tとし、図15に示す合成画像Fが新たに生成されたものとする。 The virtual rotation unit 353 e is a functional block that virtually rotates at least one of the template image T of the synthesized ultrasound image and the synthesized image generated by the image synthesizing unit 352 . The template image T in the present embodiment is an ultrasonic composite image showing an abdominal cross-section including the umbilical region (specific part) and oriented upward (predetermined direction). A template image T can be created by averaging multiple individual abdominal ultrasound composite images. Alternatively, if an ultrasound composite image of the same subject has been generated in the past, the past composite image of the subject whose direction has been adjusted may be used as the template image T. FIG. In the present embodiment, it is assumed that the synthetic image whose direction has been adjusted is the template image T, and the synthetic image F shown in FIG. 15 is newly generated.

なお、仮想回転部353eは、テンプレート画像Tを回転させてもよいが、本実施形態では、合成画像Fのみを回転させる。また、仮想回転部353eは、合成画像Fを360°回転させてもよいが、本実施形態では、テンプレート画像Tにおける断面の外形が上方向に指向した略円弧状であり、合成画像Fにおける断面の外形が右斜め方向に傾斜した略円弧状であることに基づき、合成画像Fを反時計回りに例えば45°の範囲で回転させる。合成画像Fにおける断面の外形は、例えば、プローブ2のスキャン開始時の当接位置に対応する左端部、スキャン終了時の当接位置に対応する右端部、および、スキャン開始時と終了時との真中の時点における当接位置に対応する中央部の各部の座標から判別することができる。 The virtual rotation unit 353e may rotate the template image T, but rotates only the synthetic image F in this embodiment. The virtual rotation unit 353e may rotate the synthetic image F by 360°. is a substantially circular arc slanted to the right, the composite image F is rotated counterclockwise within a range of, for example, 45°. The outer shape of the cross section in the composite image F is, for example, the left end corresponding to the contact position at the start of scanning of the probe 2, the right end corresponding to the contact position at the end of scanning, and the start and end of scanning. It can be determined from the coordinates of each portion of the central portion corresponding to the contact position at the middle time point.

また、仮想回転部353eが合成画像Fを一度に回転させる角度は特に限定されないが、本実施形態では、合成画像Fを例えば所定角度として1°ずつ回転させる。回転された合成画像Fの一例を図16に示す。 Also, the angle by which the virtual rotation unit 353e rotates the composite image F at one time is not particularly limited, but in the present embodiment, the composite image F is rotated by a predetermined angle, for example, by 1°. An example of the rotated synthetic image F is shown in FIG.

相関度評価部353fは、テンプレート画像Tと合成画像との相関度を評価する機能ブロックである。具体的には、仮想回転部353eが合成画像Fを回転させるたびに、相関度評価部353fは、図17に示すように、回転された合成画像Fを仮想的に移動させながら合成画像Fとテンプレート画像Tとをマッチングさせ、合成画像Fとテンプレート画像Tとの相関値が最大になる相対位置を特定する。そして、相関度評価部353fは、特定された相対位置における相関値を、相関度として、合成画像Fの初期位置からの回転角度ごとにメモリに記録しておく。 The correlation evaluation unit 353f is a functional block that evaluates the correlation between the template image T and the synthesized image. Specifically, each time the virtual rotation unit 353e rotates the synthesized image F, the correlation degree evaluation unit 353f virtually moves the rotated synthesized image F and rotates the synthesized image F, as shown in FIG. The template image T is matched, and the relative position where the correlation value between the composite image F and the template image T is maximized is specified. Then, the correlation degree evaluation unit 353f records the correlation value at the specified relative position in the memory for each rotation angle from the initial position of the synthesized image F as the correlation degree.

なお、相関値の計算手法は、第1の実施形態と同様の手法を用いることができ、相関値の代わりに相互情報量を用いてもよい。また、仮想回転部353eによる合成画像Fの回転、および、相関度評価部353fによる合成画像Fとテンプレート画像Tとのマッチングは仮想的なものであり、ディスプレイ31に表示しなくてもよい。また、相関度評価部353fは、仮想回転部353eが合成画像Fを1回回転させたときに、前記相関度が所定閾値以上であった場合、相関度評価処理を終了してもよい。 Note that the same method as in the first embodiment can be used for calculating the correlation value, and mutual information may be used instead of the correlation value. Further, the rotation of the synthetic image F by the virtual rotation unit 353e and the matching of the synthetic image F and the template image T by the correlation evaluation unit 353f are virtual and do not have to be displayed on the display 31. FIG. Further, when the virtual rotation unit 353e rotates the synthetic image F once, the correlation degree evaluation unit 353f may terminate the correlation degree evaluation process if the correlation degree is equal to or greater than a predetermined threshold value.

図14に示す角度決定部353gは、相関度評価部353fが評価した相関度に基づいて、合成画像Fの回転角度を決定する機能ブロックである。ここでの回転角度は、後述する回転部353hによって合成画像Fが実際に回転する角度を意味する。本実施形態では、相関度が評価された合成画像Fの中から、相関度が最も高い合成画像Fmaxを選択し、合成画像Fmaxの初期位置に対する角度を、合成画像Fの回転角度として決定する。 An angle determination unit 353g illustrated in FIG. 14 is a functional block that determines the rotation angle of the synthetic image F based on the degree of correlation evaluated by the degree-of-correlation evaluation unit 353f. The rotation angle here means the angle by which the composite image F is actually rotated by the rotation unit 353h described later. In the present embodiment, a synthetic image Fmax having the highest degree of correlation is selected from the synthetic images F whose correlation degrees have been evaluated, and the angle of the synthetic image Fmax with respect to the initial position is determined as the rotation angle of the synthetic image F.

なお、相関度評価部353fによって選択される合成画像は、必ずしも相関度が最も高い合成画像である必要はなく、相関値が所定閾値以上の合成画像のいずれかであってもよい。例えば、相関度の2番目に高い合成画像等、相関度の比較的高い合成画像が選択されてもよい。 Note that the synthesized image selected by the correlation evaluation unit 353f does not necessarily have to be the synthesized image with the highest correlation, and may be any synthesized image with a correlation value equal to or greater than a predetermined threshold. For example, a synthetic image with a relatively high degree of correlation, such as a synthetic image with the second highest degree of correlation, may be selected.

回転部353hは、角度決定部353gによって決定された回転角度に従って、合成画像Fを回転させる機能ブロックである。回転部353hによって回転された合成画像Fは、テンプレート画像Tとの相関度が最も高いと評価された合成画像であるため、臍部がほぼ上方向になるように調整されている。回転部353hは、回転させた合成画像のデータを表示インタフェース部36に出力し、これに応じて、表示インタフェース部36は、臍部が所望の方向(例えば上方向)になった合成画像をディスプレイ31に表示する。 The rotation unit 353h is a functional block that rotates the composite image F according to the rotation angle determined by the angle determination unit 353g. Since the synthetic image F rotated by the rotating unit 353h is the synthetic image evaluated to have the highest degree of correlation with the template image T, it is adjusted so that the navel is substantially upward. The rotating unit 353h outputs data of the rotated synthesized image to the display interface unit 36, and in response, the display interface unit 36 displays the synthesized image in which the navel is directed in a desired direction (for example, upward). 31.

(処理手順)
図18は、本実施形態に超音波撮像方法の処理手順を示すフローチャートである。図18に示すフローチャートでは、全体的な処理手順は図11に示すフローチャートと同一であるが、合成画像の向きを調整するステップS5がステップS5'に置き換わっている。
(Processing procedure)
FIG. 18 is a flowchart showing the processing procedure of the ultrasonic imaging method according to this embodiment. In the flowchart shown in FIG. 18, the overall processing procedure is the same as the flowchart shown in FIG. 11, but step S5 for adjusting the orientation of the synthesized image is replaced with step S5'.

図19は、本実施形態におけるステップS5'の詳細な処理手順を示すフローチャートである。ステップS5'は、ステップS5-8~S5-12を有している。 FIG. 19 is a flow chart showing the detailed processing procedure of step S5' in this embodiment. Step S5' has steps S5-8 to S5-12.

まず、ステップS5-8において、図14に示す仮想回転部353eが、合成画像Fを例えば1°ずつ回転させる。 First, in step S5-8, the virtual rotation unit 353e shown in FIG. 14 rotates the composite image F by 1°, for example.

続いて、ステップS5-9において、相関度評価部353fが、回転された合成画像Fを仮想的に移動させながら、テンプレート画像Tと合成画像Fとの相関度を評価する。 Subsequently, in step S5-9, the correlation evaluation unit 353f evaluates the correlation between the template image T and the synthesized image F while virtually moving the rotated synthesized image F. FIG.

合成画像Fの初期位置からの回転角度が所定値(例えば45°)に達していない場合(ステップS5-10においてNo)、ステップS5-8に戻る。そして、ステップS5-8およびS5-9が、合成画像Fの初期位置からの回転角度が所定値に達するまで(ステップS5-10においてYes)、繰り返される。 If the rotation angle of the synthesized image F from the initial position has not reached a predetermined value (for example, 45°) (No in step S5-10), the process returns to step S5-8. Then, steps S5-8 and S5-9 are repeated until the rotation angle of synthesized image F from the initial position reaches a predetermined value (Yes in step S5-10).

その後、ステップS5-11において、角度決定部353gが、相関度が評価された合成画像Fの中から、相関度が最も高い合成画像Fmaxの初期位置からの回転角度を、合成画像Fの回転角度として決定する。 After that, in step S5-11, the angle determining unit 353g determines the rotation angle from the initial position of the synthesized image Fmax having the highest degree of correlation among the synthesized images F evaluated for the degrees of correlation, and determines the rotation angle of the synthesized image F Determined as

続いて、ステップS5-12において、回転部353hが、角度決定部353gによって決定された回転角度に従って、合成画像Fを回転させる。 Subsequently, in step S5-12, the rotation section 353h rotates the composite image F according to the rotation angle determined by the angle determination section 353g.

(総括)
以上のように、本実施形態では、合成画像を回転させながらテンプレート画像と比較することにより、合成画像の向きを調整する。生体組織の左右対称性を利用する第1の実施形態とは異なり、本実施形態では、左右対称な組織を含まないあらゆる部位の合成画像について、向きの調整が可能である。
(Summary)
As described above, in the present embodiment, the orientation of the synthesized image is adjusted by rotating the synthesized image and comparing it with the template image. Unlike the first embodiment, which utilizes bilateral symmetry of living tissue, in this embodiment, it is possible to adjust the orientation of a composite image of any part that does not include bilaterally symmetrical tissue.

(付記事項)
本発明は上記実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、各実施形態に開示された技術的手段を適宜組み合わせて得られる形態も本発明の技術的範囲に含まれる。
(Additional notes)
The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope of the claims, and forms obtained by appropriately combining the technical means disclosed in each embodiment are also within the scope of the present invention. Included in the technical scope.

上記実施形態では、腹部断面の合成画像の向きを、臍部が上方向になるように調整する場合について説明したが、合成画像の向きは、適宜変更することができる。例えば、臍部が下方向や横方向になるように合成画像の向きを調整してもよい。 In the above embodiment, the case where the orientation of the synthesized image of the cross section of the abdomen is adjusted so that the umbilical region faces upward has been described, but the orientation of the synthesized image can be changed as appropriate. For example, the orientation of the composite image may be adjusted so that the umbilical region faces downward or laterally.

また、上記実施形態では、生体組織の左右対称性を利用する、または、合成画像をテンプレート画像と比較することにより、合成画像の向きを調整しているが、合成画像の向きを調整する方法は、これらに限定されない。例えば、腹部断面の合成画像の場合、プローブ2のスキャン開始時および終了時の当接位置に対応する左右端部の高さを等しくすることによっても、臍部が上方向になるように調整してもよい。 Further, in the above embodiment, the orientation of the composite image is adjusted by utilizing the left-right symmetry of the living tissue or by comparing the composite image with the template image. , but not limited to. For example, in the case of a composite image of a cross section of the abdomen, the umbilical region can be adjusted upward by equalizing the heights of the left and right ends corresponding to the contact positions at the start and end of scanning of the probe 2. may

また、上記実施形態では、被検体9の表面上の互いに異なる複数の位置に対応した超音波画像を得るために、プローブ2を被検体9の表面に沿って移動させながら、プローブ2から超音波を断続的に送信していたが、超音波画像を得る態様はこれに限定されない。例えば、被検体9に超音波送受信装置を複数配置し、各超音波送受信装置から同時に超音波を送信してもよい。 Further, in the above embodiment, in order to obtain ultrasonic images corresponding to a plurality of mutually different positions on the surface of the subject 9, the probe 2 is moved along the surface of the subject 9, and ultrasonic waves are emitted from the probe 2. was intermittently transmitted, the mode of obtaining an ultrasonic image is not limited to this. For example, a plurality of ultrasonic transmission/reception devices may be arranged in the subject 9, and ultrasonic waves may be transmitted simultaneously from each ultrasonic transmission/reception device.

本発明は、医療用途および非医療用途のいずれにも適用可能であるが、特に、医療従事者ではない被検者が自身の健康状態を日常的に確認する用途に好適である。 INDUSTRIAL APPLICABILITY The present invention can be applied to both medical and non-medical applications, and is particularly suitable for applications in which subjects who are not medical professionals check their own health conditions on a daily basis.

1 超音波撮像システム
2 プローブ
3 超音波撮像装置
31 ディスプレイ
32 入力装置
33 補助記憶装置
34 通信インタフェース部
35 信号処理部
351 超音波画像生成部
352 画像合成部
353 方向調整部
353' 方向調整部
353a 領域設定部
353b 対称度評価部
353c 領域選択部
353d 角度算出部
353e 仮想回転部
353f 相関度評価部
353g 角度決定部
353h 回転部
36 表示インタフェース部
9 被検体
Ax 中心軸
D 送信方向を示す軸
Dc 送信方向を示す軸
F 合成画像
Fmax 合成画像
P 超音波撮像プログラム
r 領域
T テンプレート画像
Tc 略中央超音波画像
1 Ultrasonic Imaging System 2 Probe 3 Ultrasonic Imaging Device 31 Display 32 Input Device 33 Auxiliary Storage Device 34 Communication Interface Section 35 Signal Processing Section 351 Ultrasonic Image Generation Section 352 Image Synthesis Section 353 Direction Adjustment Section 353' Direction Adjustment Section 353a Area Setting unit 353b Symmetry evaluation unit 353c Region selection unit 353d Angle calculation unit 353e Virtual rotation unit 353f Correlation evaluation unit 353g Angle determination unit 353h Rotation unit 36 Display interface unit 9 Subject Ax Central axis D Axis Dc indicating transmission direction Transmission direction Axis F Synthetic image Fmax Synthetic image P Ultrasonic imaging program r Region T Template image Tc Substantially central ultrasonic image

用語the term

必ずしも全ての目的または効果・利点が、本明細書中に記載される任意の特定の実施形態に則って達成され得るわけではない。従って、例えば当業者であれば、特定の実施形態は、本明細書中で教示または示唆されるような他の目的または効果・利点を必ずしも達成することなく、本明細書中で教示されるような1つまたは複数の効果・利点を達成または最適化するように動作するように構成され得ることを想到するであろう。 Not necessarily all objectives or advantages can be achieved in accordance with any particular embodiment described herein. Thus, for example, it will be appreciated by those skilled in the art that a particular embodiment may be as taught herein without necessarily achieving other objectives or advantages as taught or suggested herein. may be configured to operate to achieve or optimize one or more effects/benefits.

本明細書中に記載される全ての処理は、1つまたは複数のコンピュータまたはプロセッサを含むコンピューティングシステムによって実行されるソフトウェアコードモジュールにより具現化され、完全に自動化され得る。コードモジュールは、任意のタイプの非一時的なコンピュータ可読媒体または他のコンピュータ記憶装置に記憶することができる。一部または全ての方法は、専用のコンピュータハードウェアで具現化され得る。 All processes described herein can be embodied and fully automated by software code modules executed by a computing system including one or more computers or processors. Code modules may be stored in any type of non-transitory computer readable medium or other computer storage device. Some or all methods may be embodied in dedicated computer hardware.

本明細書中に記載されるもの以外でも、多くの他の変形例があることは、本開示から明らかである。例えば、実施形態に応じて、本明細書中に記載されるアルゴリズムのいずれかの特定の動作、イベント、または機能は、異なるシーケンスで実行することができ、追加、併合、または完全に除外することができる (例えば、記述された全ての行為または事象がアルゴリズムの実行に必要というわけではない)。さらに、特定の実施形態では、動作またはイベントは、例えば、マルチスレッド処理、割り込み処理、または複数のプロセッサまたはプロセッサコアを介して、または他の並列アーキテクチャ上で、逐次ではなく、並列に実行することができる。さらに、異なるタスクまたはプロセスは、一緒に機能し得る異なるマシンおよび/またはコンピューティングシステムによっても実行され得る。 It will be apparent from this disclosure that there are many other variations besides those described herein. For example, depending on the embodiment, specific acts, events, or functions of any of the algorithms described herein may be performed in different sequences, added, merged, or omitted entirely. (eg, not all acts or events described are required for execution of the algorithm). Moreover, in certain embodiments, operations or events may be performed in parallel rather than serially, e.g., across multithreaded processing, interrupt processing, or multiple processors or processor cores, or on other parallel architectures. can be done. Moreover, different tasks or processes may be performed by different machines and/or computing systems that may work together.

本明細書中に開示された実施形態に関連して説明された様々な例示的論理ブロックおよびモジュールは、プロセッサなどのマシンによって実施または実行することができる。プロセッサは、マイクロプロセッサであってもよいが、代替的に、プロセッサは、コントローラ、マイクロコントローラ、またはステートマシン、またはそれらの組み合わせなどであってもよい。プロセッサは、コンピュータ実行可能命令を処理するように構成された電気回路を含むことができる。別の実施形態では、プロセッサは、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、またはコンピュータ実行可能命令を処理することなく論理演算を実行する他のプログラマブルデバイスを含む。プロセッサはまた、コンピューティングデバイスの組み合わせ、例えば、デジタル信号プロセッサ(デジタル信号処理装置)とマイクロプロセッサの組み合わせ、複数のマイクロプロセッサ、DSPコアと組み合わせた1つ以上のマイクロプロセッサ、または任意の他のそのような構成として実装することができる。本明細書中では、主にデジタル技術に関して説明するが、プロセッサは、主にアナログ素子を含むこともできる。例えば、本明細書中に記載される信号処理アルゴリズムの一部または全部は、アナログ回路またはアナログとデジタルの混合回路により実装することができる。コンピューティング環境は、マイクロプロセッサ、メインフレームコンピュータ、デジタル信号プロセッサ、ポータブルコンピューティングデバイス、デバイスコントローラ、または装置内の計算エンジンに基づくコンピュータシステムを含むが、これらに限定されない任意のタイプのコンピュータシステムを含むことができる。 Various example logical blocks and modules described in connection with the embodiments disclosed herein can be implemented or executed by a machine such as a processor. The processor may be a microprocessor, but in the alternative, the processor may be a controller, microcontroller, or state machine, or combinations thereof, or the like. A processor may include electrical circuitry configured to process computer-executable instructions. In another embodiment, the processor includes an application specific integrated circuit (ASIC), field programmable gate array (FPGA), or other programmable device that performs logical operations without processing computer-executable instructions. A processor may also be a combination of computing devices, such as a combination of a digital signal processor (digital signal processor) and a microprocessor, multiple microprocessors, one or more microprocessors in combination with a DSP core, or any other It can be implemented as a configuration like Although described herein primarily in terms of digital technology, the processor may also include primarily analog components. For example, some or all of the signal processing algorithms described herein may be implemented with analog circuitry or mixed analog and digital circuitry. A computing environment includes any type of computer system including, but not limited to, a computer system based on a microprocessor, mainframe computer, digital signal processor, portable computing device, device controller, or computational engine within the apparatus. be able to.

特に明記しない限り、「できる」「できた」「だろう」または「可能性がある」などの条件付き言語は、特定の実施形態が特定の特徴、要素および/またはステップを含むが、他の実施形態は含まないことを伝達するために一般に使用される文脈内での意味で理解される。従って、このような条件付き言語は、一般に、特徴、要素および/またはステップが1つ以上の実施形態に必要とされる任意の方法であること、または1つ以上の実施形態が、これらの特徴、要素および/またはステップが任意の特定の実施形態に含まれるか、または実行されるかどうかを決定するための論理を必然的に含むことを意味するという訳ではない。 Unless otherwise specified, conditional language such as "could," "could," "would," or "could," implies that although a particular embodiment includes certain features, elements and/or steps, other Embodiments are to be understood in a sense within the context commonly used to convey that they do not include. Thus, such conditional language generally states that any method in which features, elements and/or steps are required in one or more embodiments or that one or more embodiments impose these features. , elements and/or steps are not necessarily meant to include logic to determine whether they are included or performed in any particular embodiment.

語句「X、Y、Zの少なくとも1つ」のような選言的言語は、特に別段の記載がない限り、項目、用語等が X, Y, Z、のいずれか、又はそれらの任意の組み合わせであり得ることを示すために一般的に使用されている文脈で理解される(例: X、Y、Z)。従って、このような選言的言語は、一般的には、特定の実施形態がそれぞれ存在するXの少なくとも1つ、Yの少なくとも1つ、またはZの少なくとも1つ、の各々を必要とすることを意味するものではない。 Disjunctive language such as the phrase "at least one of X, Y and Z" means that items, terms, etc. are any of X, Y, Z, or any combination thereof, unless otherwise stated. (e.g. X, Y, Z). Thus, such disjunctive languages generally require each of at least one of X, at least one of Y, or at least one of Z, for each specific embodiment to be present. does not mean

本明細書中に記載されかつ/または添付の図面に示されたフロー図における任意のプロセス記述、要素またはブロックは、プロセスにおける特定の論理機能または要素を実装するための1つ以上の実行可能命令を含む、潜在的にモジュール、セグメント、またはコードの一部を表すものとして理解されるべきである。代替の実施形態は、本明細書中に記載された実施形態の範囲内に含まれ、ここでは、要素または機能は、当業者に理解されるように、関連する機能性に応じて、実質的に同時にまたは逆の順序で、図示または説明されたものから削除、順不同で実行され得る。 Any process description, element or block in the flow diagrams described herein and/or illustrated in the accompanying drawings represents one or more executable instructions for implementing a particular logical function or element in the process. to potentially represent a module, segment, or portion of code, including Alternate embodiments are included within the scope of the embodiments described herein, where an element or function can be substantially modified, depending on the functionality involved, as understood by one skilled in the art. may be performed simultaneously or in reverse order, removed from those shown or described, and out of order.

特に明示されていない限り、「一つ」のような数詞は、一般的に、1つ以上の記述された項目を含むと解釈されるべきである。従って、「~するように設定された一つのデバイス」などの語句は、1つ以上の列挙されたデバイスを含むことを意図している。このような1つまたは複数の列挙されたデバイスは、記載された引用を実行するように集合的に構成することもできる。例えば、「以下のA、BおよびCを実行するように構成されたプロセッサ」は、Aを実行するように構成された第1のプロセッサと、BおよびCを実行するように構成された第2のプロセッサとを含むことができる。加えて、導入された実施例の具体的な数の列挙が明示的に列挙されたとしても、当業者は、このような列挙が典型的には少なくとも列挙された数(例えば、他の修飾語を用いない「2つの列挙と」の単なる列挙は、通常、少なくとも2つの列挙、または2つ以上の列挙を意味する)を意味すると解釈されるべきである。 Unless otherwise specified, numbers such as "a" should generally be construed to include one or more of the item being described. Thus, phrases such as "a device configured to" are intended to include one or more of the listed devices. One or more such listed devices may also be collectively configured to carry out the recited references. For example, "a processor configured to run A, B and C below" means a first processor configured to run A and a second processor configured to run B and C. and a processor of In addition, even if a specific number of recitations of the introduced examples is explicitly recited, one skilled in the art will appreciate that such recitations are typically at least the number recited (e.g., other modifiers A mere recitation of "two recitations" without using should be taken to mean generally at least two recitations, or more than two recitations.

一般に、本明細書中で使用される用語は、一般に、「非限定」用語(例えば、「~を含む」という用語は「それだけでなく、少なくとも~を含む」と解釈すべきであり、「~を持つ」という用語は「少なくとも~を持っている」と解釈すべきであり、「含む」という用語は「以下を含むが、これらに限定されない。」などと解釈すべきである。) を意図していると、当業者には判断される。 In general, terms used herein should generally be interpreted as "non-limiting" terms (e.g., the term "comprising" should be interpreted as "including at least as well as", "including The term "having" shall be construed as "having at least" and the term "including" shall be construed as "including but not limited to", etc.). will be determined by those skilled in the art.

説明の目的のために、本明細書中で使用される「水平」という用語は、その方向に関係なく、説明されるシステムが使用される領域の床の平面または表面に平行な平面、または説明される方法が実施される平面として定義される。「床」という用語は、「地面」または「水面」という用語と置き換えることができる。「垂直/鉛直」という用語は、定義された水平線に垂直/鉛直な方向を指します。「上側」「下側」「下」「上」「側面」「より高く」「より低く」「上の方に」「~を越えて」「下の」などの用語は水平面に対して定義されている。 For purposes of description, the term "horizontal" as used herein, regardless of its orientation, refers to a plane parallel to the plane or surface of the floor of the area in which the system described is used, or defined as the plane in which the method is performed. The term "floor" can be replaced with the terms "ground" or "water surface". The term "vertical/plumb" refers to the direction perpendicular/perpendicular to the defined horizontal line. Terms such as "above", "below", "below", "above", "side", "higher", "lower", "above", "over", "below", etc. are defined relative to the horizontal plane. ing.

本明細書中で使用される用語の「付着する」、「接続する」、「対になる」及び他の関連用語は、別段の注記がない限り、取り外し可能、移動可能、固定、調節可能、及び/または、取り外し可能な接続または連結を含むと解釈されるべきである。接続/連結は、直接接続及び/または説明した2つの構成要素間の中間構造を有する接続を含む。 The terms “attach,” “connect,” “pair,” and other related terms used herein, unless otherwise noted, include removable, movable, fixed, adjustable, and/or should be construed to include a removable connection or coupling. A connection/coupling includes a direct connection and/or a connection with an intermediate structure between two components described.

特に明示されていない限り、本明細書中で使用される、「およそ」、「約」、および「実質的に」のような用語が先行する数は、列挙された数を含み、また、さらに所望の機能を実行するか、または所望の結果を達成する、記載された量に近い量を表す。例えば、「およそ」、「約」及び「実質的に」とは、特に明示されていない限り、記載された数値の10%未満の値をいう。本明細書中で使用されているように、「およそ」、「約」、および「実質的に」などの用語が先行して開示されている実施形態の特徴は、さらに所望の機能を実行するか、またはその特徴について所望の結果を達成するいくつかの可変性を有する特徴を表す。 As used herein, unless otherwise specified, numbers preceded by terms such as "approximately," "about," and "substantially" include the recited number and also It represents an amount approximating the stated amount that will perform a desired function or achieve a desired result. For example, "about," "about," and "substantially" refer to less than 10% of the stated numerical value, unless otherwise specified. As used herein, terms such as "approximately," "about," and "substantially" predisclose features of the embodiments that also perform the desired function. or represents a feature with some variability to achieve the desired result for that feature.

上述した実施形態には、多くの変形例および修正例を加えることができ、それらの要素は、他の許容可能な例の中にあるものとして理解されるべきである。そのような全ての修正および変形は、本開示の範囲内に含まれることを意図し、以下の特許請求の範囲によって保護される。 Many variations and modifications may be made to the embodiments described above, and these elements are to be understood as being among other permissible examples. All such modifications and variations are intended to be included within the scope of this disclosure and protected by the following claims.

Claims (13)

被検体の表面上の互いに異なる複数の位置から該被検体の内部に向けて送信されて内部で反射された超音波を受信して、前記各位置に対応した超音波画像をそれぞれ生成する超音波画像生成部と、
前記各位置における超音波画像を合成して前記被検体の断面の合成画像を生成する画像合成部と、
前記合成画像を角度調整し、前記合成画像に含まれる特定部位を所定の方向に指向させる方向調整部とを備え、
前記方向調整部は、
前記合成画像において、中心軸に対して線対称の形状の領域を任意の位置と任意の角度で1または複数設定する領域設定部と、
前記中心軸に対して前記領域内の左右にそれぞれある画像の対称度を評価する対称度評価部と、
前記対称度に基づいて前記領域を選択する領域選択部と、
前記合成画像を通る所定の軸と選択された前記領域の前記中心軸との角度差を算出する角度算出部とを備え、
該角度差に基づいて前記合成画像の角度調整をする、
超音波撮像装置。
An ultrasonic wave that receives ultrasonic waves that are transmitted toward the interior of the subject from a plurality of positions different from each other on the surface of the subject and that are reflected inside the subject, thereby generating ultrasound images corresponding to the respective positions. an image generator;
an image synthesizing unit that synthesizes the ultrasonic images at the respective positions to generate a synthetic image of the cross section of the subject;
A direction adjustment unit that adjusts the angle of the synthesized image and orients a specific part included in the synthesized image in a predetermined direction ,
The direction adjustment unit
A region setting unit that sets one or a plurality of regions having a line-symmetrical shape with respect to the central axis at arbitrary positions and at arbitrary angles in the synthesized image;
a symmetry evaluation unit that evaluates the degree of symmetry of images on the left and right sides of the region with respect to the central axis;
a region selection unit that selects the region based on the degree of symmetry;
an angle calculation unit that calculates an angle difference between a predetermined axis passing through the synthesized image and the central axis of the selected region;
adjusting the angle of the composite image based on the angle difference;
Ultrasound imaging device.
前記特定部位に腹部の臍部を含み、
前記方向調整部は、前記合成画像を画面表示する際に該臍部を該画面表示の所望の方向に一致させる、請求項1に記載の超音波撮像装置。
The specific part includes the umbilical region of the abdomen,
2. The ultrasonic imaging apparatus according to claim 1, wherein said direction adjusting unit aligns said umbilicus with a desired direction of said screen display when said composite image is displayed on said screen.
前記領域設定部は、前記位置の前記超音波の送信方向を示す軸に前記領域の中心軸を合わせて当該領域の設定をする、請求項1または請求項2に記載の超音波撮像装置。 3. The ultrasonic imaging apparatus according to claim 1 , wherein the region setting unit sets the region by aligning a central axis of the region with an axis indicating the transmission direction of the ultrasonic wave at the position. 前記領域設定部は、前記複数の位置における前記超音波の送信方向を示す各軸にそれぞれ前記各領域の中心軸を合わせて当該各領域の設定をする、請求項1乃至3のいずれかに記載の超音波撮像装置。 4. The area setting unit according to any one of claims 1 to 3, wherein the area setting unit sets each area by aligning the central axis of each area with each axis indicating the transmission direction of the ultrasonic waves at the plurality of positions. of ultrasound imaging equipment. 前記領域設定部は、前記領域を前記合成画像に移動可能に設定し、
前記対称度評価部は、前記領域の移動の毎に前記対称度を評価する、請求項1乃至4のいずれかに記載の超音波撮像装置。
The area setting unit sets the area so as to be movable to the synthesized image,
5. The ultrasonic imaging apparatus according to claim 1 , wherein said symmetry evaluation unit evaluates said symmetry each time said region moves.
前記領域選択部は、前記各対称度のうちで所定閾値以上の対称度を有する前記領域のいずれかを選択する、請求項に記載の超音波撮像装置。 6. The ultrasonic imaging apparatus according to claim 5 , wherein said region selection unit selects one of said regions having a degree of symmetry equal to or greater than a predetermined threshold among said degrees of symmetry. 前記領域選択部は、前記各対称度のうちで最大の対称度を有する前記領域を選択する、請求項またはに記載の超音波撮像装置。 7. The ultrasonic imaging apparatus according to claim 5 , wherein said region selection unit selects said region having the highest degree of symmetry among said degrees of symmetry. 前記領域設定部は、前記複数の超音波画像のうち、生成された順の略中央に対応する略中央超音波画像を選択する、請求項に記載の超音波撮像装置。 The ultrasonic imaging apparatus according to claim 1 , wherein the region setting unit selects, from among the plurality of ultrasonic images, a substantially central ultrasonic image corresponding to substantially the center in order of generation. 前記領域設定部は、前記複数の超音波画像のうち、生成された順の略中央に対応する略中央超音波画像の中心軸、および、前記略中央超音波画像の前後の所定数の生成順の超音波画像の前記中心軸を、それぞれ順次選択し、前記選択した前記中心軸に前記領域の中心軸を合わせて当該領域の設定をする、請求項に記載の超音波撮像装置。 The region setting unit includes, among the plurality of ultrasonic images, a central axis of a substantially central ultrasonic image corresponding to substantially the center in order of generation, and a predetermined number of generation orders before and after the substantially central ultrasonic image. 2. The ultrasonic imaging apparatus according to claim 1 , wherein the central axes of the ultrasonic images are sequentially selected, and the central axis of the region is aligned with the selected central axis to set the region. 前記合成画像をディスプレイに表示する表示部をさらに備える、請求項1乃至のいずれかに記載の超音波撮像装置。 10. The ultrasonic imaging apparatus according to any one of claims 1 to 9 , further comprising a display section for displaying said composite image on a display. 超音波を前記被検体の表面上の互いに異なる複数の位置から該被検体の内部に向けて送信し、前記被検体の内部で反射された超音波を受信するプローブと、
請求項1乃至10のいずれかに記載の超音波画像装置とを備える、超音波撮像システム。
a probe that transmits ultrasonic waves toward the inside of the subject from a plurality of positions different from each other on the surface of the subject and receives the ultrasonic waves reflected inside the subject;
An ultrasound imaging system comprising an ultrasound imaging device according to any one of claims 1 to 10 .
被検体の表面上の互いに異なる複数の位置から該被検体の内部に向けて送信されて内部で反射された超音波を受信して、前記各位置に対応した超音波画像をそれぞれ生成する超音波画像生成ステップと、
前記各位置における超音波画像を合成して前記被検体の断面の合成画像を生成する画像合成ステップと、
前記合成画像を角度調整し、前記合成画像に含まれる特定部位を所定の方向に指向させる方向調整ステップとを備え、
前記方向調整ステップは、
前記合成画像において、中心軸に対して線対称の形状の領域を任意の位置と任意の角度で1または複数設定する領域設定ステップと、
前記中心軸に対して前記領域内の左右にそれぞれある画像の対称度を評価する対称度評価ステップと、
前記対称度に基づいて前記領域を選択する領域選択ステップと、
前記合成画像を通る所定の軸と選択された前記領域の前記中心軸との角度差を算出する角度算出ステップとを備え、
該角度差に基づいて前記合成画像の角度調整をする、
超音波撮像方法。
An ultrasonic wave that receives ultrasonic waves that are transmitted toward the interior of the subject from a plurality of positions different from each other on the surface of the subject and that are reflected inside the subject, thereby generating ultrasound images corresponding to the respective positions. an image generating step;
an image synthesizing step of synthesizing the ultrasonic images at each position to generate a synthetic image of the cross section of the subject;
A direction adjustment step of adjusting the angle of the synthesized image and orienting a specific part included in the synthesized image in a predetermined direction ;
The direction adjustment step includes:
A region setting step of setting one or a plurality of regions having a line-symmetrical shape with respect to the central axis in the synthesized image at arbitrary positions and at arbitrary angles;
a symmetry evaluation step of evaluating the symmetry of the images on the left and right sides of the region with respect to the central axis;
a region selection step of selecting the region based on the degree of symmetry;
an angle calculation step of calculating an angle difference between a predetermined axis passing through the synthesized image and the central axis of the selected region;
adjusting the angle of the composite image based on the angle difference;
Ultrasound imaging method.
被検体の表面上の互いに異なる複数の位置から該被検体の内部に向けて送信されて内部で反射された超音波を受信して、前記各位置に対応した超音波画像をそれぞれ生成し
前記各位置における超音波画像を合成して前記被検体の断面の合成画像を生成し、および、
前記合成画像を角度調整し、前記合成画像に含まれる特定部位を所定の方向に指向し、
前記角度調整は、
前記合成画像において、中心軸に対して線対称の形状の領域を任意の位置と任意の角度で1または複数設定し、
前記中心軸に対して前記領域内の左右にそれぞれある画像の対称度を評価し、
前記対称度に基づいて前記領域を選択し、
前記合成画像を通る所定の軸と選択された前記領域の前記中心軸との角度差を算出し、
該角度差に基づいて前記合成画像の角度調整をする、
動作をコンピュータに実行させる、超音波撮像プログラム。
receiving ultrasonic waves transmitted toward the interior of the subject from a plurality of positions different from each other on the surface of the subject and reflected inside the subject, and generating ultrasound images corresponding to the respective positions;
synthesizing the ultrasound images at each of the positions to generate a synthetic image of the cross section of the subject; and
Adjusting the angle of the synthesized image, orienting a specific part included in the synthesized image in a predetermined direction ,
The angle adjustment is
In the synthesized image, one or more areas having a line-symmetrical shape with respect to the central axis are set at arbitrary positions and at arbitrary angles,
Evaluating the degree of symmetry of the images on the left and right sides of the region with respect to the central axis,
selecting the region based on the degree of symmetry;
calculating an angular difference between a predetermined axis passing through the composite image and the central axis of the selected region;
adjusting the angle of the composite image based on the angle difference;
An ultrasound imaging program that causes a computer to perform operations .
JP2020530059A 2018-07-13 2019-06-18 Ultrasonic imaging device, ultrasonic imaging system, ultrasonic imaging method and ultrasonic imaging program Active JP7112492B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018133146 2018-07-13
JP2018133146 2018-07-13
PCT/JP2019/024012 WO2020012883A1 (en) 2018-07-13 2019-06-18 Ultrasound imaging device, ultrasound imaging system, ultrasound imaging method, and ultrasound imaging program

Publications (2)

Publication Number Publication Date
JPWO2020012883A1 JPWO2020012883A1 (en) 2021-07-15
JP7112492B2 true JP7112492B2 (en) 2022-08-03

Family

ID=69142999

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020530059A Active JP7112492B2 (en) 2018-07-13 2019-06-18 Ultrasonic imaging device, ultrasonic imaging system, ultrasonic imaging method and ultrasonic imaging program

Country Status (5)

Country Link
US (1) US11948324B2 (en)
EP (1) EP3821814A4 (en)
JP (1) JP7112492B2 (en)
CN (1) CN112367923A (en)
WO (1) WO2020012883A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000217815A (en) 1999-01-28 2000-08-08 Hitachi Ltd Method and apparatus for synthesizing panoramic image by synthesizing ultrasonic image
JP2003038487A (en) 2001-08-03 2003-02-12 Hitachi Medical Corp Ultrasonic image processor
JP2018068494A (en) 2016-10-26 2018-05-10 株式会社日立製作所 Ultrasonic image processing system and program

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0338976A (en) * 1989-07-05 1991-02-20 Olympus Optical Co Ltd Display device for image pickup
JP3349308B2 (en) 1995-10-26 2002-11-25 三洋電機株式会社 Photovoltaic element
US5795296A (en) * 1996-03-29 1998-08-18 University Of Washington Pipeline process for automatically measuring object boundary from ultrasound image samples
JPH114398A (en) * 1997-06-11 1999-01-06 Hitachi Ltd Digital wide camera
JPH11267121A (en) * 1998-03-20 1999-10-05 Ge Yokogawa Medical Systems Ltd Method and device for ultrasonic photographing
AU2001267813A1 (en) * 2000-06-29 2002-01-21 Technion Research And Development Foundation Ltd. Classifier for image processing
JP2004018375A (en) * 2002-06-12 2004-01-22 Shiseido Co Ltd Oily cosmetics
JP2006247039A (en) * 2005-03-09 2006-09-21 Ge Medical Systems Global Technology Co Llc Ultrasonic diagnostic equipment
WO2009117419A2 (en) * 2008-03-17 2009-09-24 Worcester Polytechnic Institute Virtual interactive system for ultrasound training
WO2010001634A1 (en) * 2008-07-03 2010-01-07 コニカミノルタエムジー株式会社 Organic piezoelectric material, ultrasonic vibrator, and ultrasonic image diagnosis apparatus for medical application
WO2011150316A1 (en) * 2010-05-28 2011-12-01 Sridharan Rajagopalan Obtaining analytes from a tissue specimen
JP5935344B2 (en) 2011-05-13 2016-06-15 ソニー株式会社 Image processing apparatus, image processing method, program, recording medium, and image processing system
US9268915B2 (en) * 2011-09-25 2016-02-23 Theranos, Inc. Systems and methods for diagnosis or treatment
US8475739B2 (en) * 2011-09-25 2013-07-02 Theranos, Inc. Systems and methods for fluid handling
US9632102B2 (en) * 2011-09-25 2017-04-25 Theranos, Inc. Systems and methods for multi-purpose analysis
US8435738B2 (en) * 2011-09-25 2013-05-07 Theranos, Inc. Systems and methods for multi-analysis
WO2013043203A2 (en) * 2011-09-25 2013-03-28 Theranos, Inc. Systems and methods for multi-purpose analysis
US20140170735A1 (en) * 2011-09-25 2014-06-19 Elizabeth A. Holmes Systems and methods for multi-analysis
US20160084863A1 (en) * 2011-09-25 2016-03-24 Theranos, Inc. Systems and methods for multi-analysis
US20160320381A1 (en) * 2011-09-25 2016-11-03 Theranos, Inc. Systems and methods for multi-analysis
CA3121358C (en) * 2012-03-26 2024-01-16 Xcellcure, Llc Device and method for detection of analytes
CN103784165A (en) * 2012-10-31 2014-05-14 株式会社东芝 Ultrasonic diagnosis device
US10978284B2 (en) * 2015-03-06 2021-04-13 Micromass Uk Limited Imaging guided ambient ionisation mass spectrometry
EP3314020A1 (en) * 2015-06-29 2018-05-02 The Broad Institute Inc. Tumor and microenvironment gene expression, compositions of matter and methods of use thereof
EP3323352B1 (en) * 2015-07-13 2022-03-30 Furuno Electric Co., Ltd. Probe adapter, ultrasonic imaging device, ultrasonic imaging method, and ultrasonic imaging program
JP6574531B2 (en) * 2016-04-19 2019-09-11 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Acoustic alignment of internal and external ultrasound probes
CN109069119B (en) * 2016-04-26 2021-10-22 皇家飞利浦有限公司 3D image synthesis for ultrasound fetal imaging
US20180153509A1 (en) * 2016-12-06 2018-06-07 General Electric Company Ultrasound imaging with small-angle adjustment

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000217815A (en) 1999-01-28 2000-08-08 Hitachi Ltd Method and apparatus for synthesizing panoramic image by synthesizing ultrasonic image
JP2003038487A (en) 2001-08-03 2003-02-12 Hitachi Medical Corp Ultrasonic image processor
JP2018068494A (en) 2016-10-26 2018-05-10 株式会社日立製作所 Ultrasonic image processing system and program

Also Published As

Publication number Publication date
CN112367923A (en) 2021-02-12
EP3821814A1 (en) 2021-05-19
JPWO2020012883A1 (en) 2021-07-15
US20210174533A1 (en) 2021-06-10
US11948324B2 (en) 2024-04-02
WO2020012883A1 (en) 2020-01-16
EP3821814A4 (en) 2022-04-06

Similar Documents

Publication Publication Date Title
US20110262015A1 (en) Image processing apparatus, image processing method, and storage medium
KR101713859B1 (en) Apparatus for processing magnetic resonance image and method for processing magnetic resonance image thereof
Wen et al. An accurate and effective FMM-based approach for freehand 3D ultrasound reconstruction
JP6711715B2 (en) Image processing apparatus and image processing method
JP7216140B2 (en) Ultrasound imaging device
JP2018110615A (en) Image processing apparatus and image processing method
US9098927B2 (en) Image processing apparatus for diagnostic imaging and method thereof
JP7112492B2 (en) Ultrasonic imaging device, ultrasonic imaging system, ultrasonic imaging method and ultrasonic imaging program
US11589841B2 (en) Ultrasound imaging device, ultrasound imaging system, ultrasound imaging method and ultrasound imaging program
US20110170758A1 (en) Tomographic image generating apparatus, tomographic image generating method, and program for generating tomographic images
CN113780519A (en) Method and device for generating confrontation network training, computer equipment and storage medium
JP7373045B2 (en) Ultrasonic imaging method, ultrasound imaging device, ultrasound imaging system and ultrasound imaging program
JP2012147939A (en) Image processing apparatus
KR101634045B1 (en) A method to detect helical direction and angular velocity of blood flow with signal intensity gradient vector analysis at arterial wall in MR angiography and medical imaging system applying them
JP6293452B2 (en) Ultrasonic diagnostic apparatus and image analysis apparatus
EP4338684A1 (en) Ultrasonic imaging device, ultrasonic imaging method, ultrasonic imaging system, and ultrasonic imaging program
JP5911234B2 (en) Volume data processing apparatus and method
JP2014083204A5 (en)
CN116830159A (en) Method and system for improving visualization of three-dimensional (3D) medical images using histogram views
JP6598565B2 (en) Image processing apparatus, image processing method, and program
JP6389084B2 (en) Ultrasonic diagnostic apparatus and control program therefor
JP6588694B2 (en) Ultrasonic diagnostic equipment
CN114693841A (en) Image scanning method, image scanning device, computer equipment and storage medium
JP2018019789A (en) Image encoding device and control method thereof
JP2005211671A (en) Radiotherapy planning device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220303

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220719

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220722

R150 Certificate of patent or registration of utility model

Ref document number: 7112492

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150