JP6449457B2 - Image processing method and apparatus - Google Patents

Image processing method and apparatus Download PDF

Info

Publication number
JP6449457B2
JP6449457B2 JP2017522298A JP2017522298A JP6449457B2 JP 6449457 B2 JP6449457 B2 JP 6449457B2 JP 2017522298 A JP2017522298 A JP 2017522298A JP 2017522298 A JP2017522298 A JP 2017522298A JP 6449457 B2 JP6449457 B2 JP 6449457B2
Authority
JP
Japan
Prior art keywords
section
cross
image processing
candidate cross
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017522298A
Other languages
Japanese (ja)
Other versions
JPWO2016195110A1 (en
Inventor
秋山 靖浩
靖浩 秋山
容弓 柿下
容弓 柿下
子盛 黎
子盛 黎
佩菲 朱
佩菲 朱
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Publication of JPWO2016195110A1 publication Critical patent/JPWO2016195110A1/en
Application granted granted Critical
Publication of JP6449457B2 publication Critical patent/JP6449457B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • A61B8/14Echo-tomography

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Description

本発明は、超音波装置に係り、特に超音波データから標準断面情報を検出して、提供する画像処理技術に関する。   The present invention relates to an ultrasonic apparatus, and more particularly to an image processing technique for detecting and providing standard cross-section information from ultrasonic data.

超音波診断装置を代表とする超音波装置は、人体や構造物などの対象体を破壊せずに、対象体内部を観測できる特性がある。特に、人体に対しては、開腹等の外科手術の必要がなく、内部組織を安全に観測できる手段として医療分野で広く用いられている。   An ultrasonic apparatus typified by an ultrasonic diagnostic apparatus has a characteristic that the inside of an object can be observed without destroying the object such as a human body or a structure. In particular, the human body does not require a surgical operation such as laparotomy, and is widely used in the medical field as a means for safely observing internal tissues.

そのなかで、心臓は超音波診断装置における対象体の一つである。観測対象の心臓断面は、誰が観測しても統一的な考察ができるように幾つかの標準断面(standard view)取得に関するガイドラインが定義されており、このガイドラインに基づいた標準断面画像を超音波システムで提供することが行われている。この心臓の標準断面は、傍胸骨断面(parasternal view)、心尖断面(apical view)、肋骨下断面(subcostal view)、胸骨上窩断面(suprasternal view)等を含む。   Among them, the heart is one of the objects in the ultrasonic diagnostic apparatus. For the heart cross section to be observed, several standard view guidelines have been defined so that anyone can observe it in a unified manner, and standard cross-sectional images based on these guidelines are defined by the ultrasound system. Is being made available at. The standard cross section of the heart includes a parasternal cross section, an apical view, a subcostal view, a suprasternal view, and the like.

従来、検者が超音波探触子を操作しながら、これらの標準断面に対応する心臓断面を一つ一つ撮影する方法が用いられていた。近年は、例えば特許文献1に見るように、特殊な超音波探触子を用いて立体的な三次元超音波心臓画像(以後、3Dボリュームデータ)を取得し、この3Dボリュームデータの中から複数の標準断面を自動的に取得する超音波装置が提案されている。   Conventionally, a method has been used in which an examiner operates an ultrasonic probe and images a heart section corresponding to these standard sections one by one. In recent years, for example, as shown in Patent Document 1, a three-dimensional three-dimensional ultrasonic heart image (hereinafter referred to as 3D volume data) is acquired using a special ultrasonic probe, and a plurality of 3D volume data are obtained from the 3D volume data. An ultrasonic apparatus that automatically obtains a standard cross-section of the above has been proposed.

特開2009-72593公報JP2009-72593

特許文献1によれば、目的の標準断面を得るために予め心臓部位の特徴を学習した注目座標を基点とする平行移動量、回転量、拡大率を得る3種類の識別器を備え、3Dボリュームデータの一部分を切り出して入力すると、識別器から平行移動量、回転量、拡大率を得て、入力データ座標を基点に算出した標準断面を取得するための処理方法が記載されている。   According to Patent Document 1, a 3D volume is provided with three types of discriminators that obtain a translation amount, a rotation amount, and an enlargement rate based on a target coordinate from which the features of the heart region have been learned in advance in order to obtain a target standard cross section. When a part of data is cut out and input, a translation method, a rotation amount, and an enlargement rate are obtained from a discriminator, and a processing method for obtaining a standard cross section calculated based on input data coordinates is described.

しかしながら、3Dボリュームデータは、3軸(水平、垂直、奥行き)の情報を持つデータであり、この3Dボリュームデータに対し、注目座標を基点にして平行移動量、回転量、拡大率を与えることは、3軸の3乗、即ち9軸の自由度を持つことと等価であり、直接目的断面を得ることは事実上困難である。   However, 3D volume data is data with information on three axes (horizontal, vertical, and depth), and it is not possible to give this 3D volume data a translation amount, rotation amount, and enlargement ratio based on the coordinates of interest. This is equivalent to having the cube of 3 axes, that is, having 9 degrees of freedom, and it is practically difficult to obtain the target cross section directly.

また、上述した標準断面取得に関するガイドラインでは、例えば、弁輪径が最大となる位置を捉えていること、または心室長が最長となる位置を捉えていること等、幾つかの推奨事項が定義されている。しかし、特許文献1の方法では、対象体の観測部位、すなわち探索部位の座標を検出できたとしても、その大きさや部位間の長さを検出する手段を考慮していないため、弁輪径が最大となる位置等を検出することができない。即ち、特許文献1の方法は、標準断面取得に関するガイドラインで定義された推奨断面を抽出することはできなかった。   In addition, the above guidelines for obtaining a standard cross section define some recommendations such as capturing the position where the annulus diameter is maximum or capturing the position where the ventricular length is the longest. ing. However, in the method of Patent Document 1, even if the observation part of the target object, that is, the coordinates of the search part can be detected, the means for detecting the size and the length between the parts is not taken into consideration, so the annulus diameter is The maximum position or the like cannot be detected. That is, the method of Patent Document 1 cannot extract the recommended cross section defined by the guideline for obtaining the standard cross section.

本発明の目的は、上記の課題を解決し、探索部位の大きさや部位間の長さを検出することが可能な画像処理方法、装置、及び超音波装置を提供することにある。   An object of the present invention is to solve the above-described problems and provide an image processing method, apparatus, and ultrasonic apparatus that can detect the size of a search part and the length between parts.

上記の目的を達成するため、本発明においては、処理部を用いた画像処理方法であって、処理部は、対象体の3次元情報を用いて対象体の第1候補断面を生成し、第1候補断面を変形させた第2候補断面及び第1候補断面から、対象体の探索部位である特徴点を複数検出し、複数の特徴点を所定の特徴点群に分類し、分類された特徴点群毎に中心点を求め、複数の中心点を通る断面を、対象体の観測用断面とする構成の画像処理方法を提供する。   In order to achieve the above object, in the present invention, an image processing method using a processing unit, the processing unit generates a first candidate cross section of an object using three-dimensional information of the object, From the second candidate cross-section and the first candidate cross-section obtained by transforming one candidate cross-section, a plurality of feature points that are search parts of the target object are detected, the plurality of feature points are classified into a predetermined feature point group, and the classified features Provided is an image processing method having a configuration in which a center point is obtained for each point group and cross sections passing through a plurality of center points are used as observation cross sections of an object.

また、上記の目的を達成するため、本発明においては、処理部を備えた画像処理装置であって、処理部は、対象体の3次元情報を用いて、対象体の第1候補断面を生成し、第1候補断面を変形させた第2候補断面及び第1候補断面から、対象体の探索部位である特徴点を複数検出し、複数の特徴点を所定の特徴点群に分類し、特徴点群毎に中心点を求め、求めた複数の中心点を通る断面を、対象体の観測用断面とする構成の画像処理装置を提供する。   In order to achieve the above object, according to the present invention, an image processing apparatus including a processing unit generates a first candidate cross section of a target object using three-dimensional information of the target object. Then, from the second candidate cross section obtained by deforming the first candidate cross section and the first candidate cross section, a plurality of feature points that are search parts of the object are detected, and the plurality of feature points are classified into a predetermined feature point group, Provided is an image processing apparatus having a configuration in which a center point is obtained for each point group, and cross sections passing through the obtained plurality of center points are used as observation cross sections of an object.

更に、上記の目的を達成するため、本発明においては、超音波装置であって、対象体に対し、超音波を送受信する超音波探触子からの受信信号に基づく、対象体の3次元情報を処理する処理部と、処理部で生成される対象体の断面画像を表示する表示部と、を備え、処理部は、3次元情報を用いて、対象体の第1候補断面を生成し、第1候補断面を変形させた第2候補断面及び第1候補断面から、対象体の探索部位である特徴点を複数検出し、複数の特徴点を所定の特徴点群に分類し、特徴点群毎に中心点を求め、求めた複数の中心点を通る断面を、対象体の観測用断面とし、観測用断面の画像を表示部に表示するよう制御する構成の超音波装置を提供する。   Furthermore, in order to achieve the above object, in the present invention, the ultrasonic device is a three-dimensional information of a target object based on a received signal from an ultrasonic probe that transmits / receives ultrasonic waves to / from the target object. And a display unit that displays a cross-sectional image of the target object generated by the processing unit, the processing unit generates a first candidate cross-section of the target object using the three-dimensional information, From the second candidate cross section and the first candidate cross section obtained by deforming the first candidate cross section, a plurality of feature points that are search parts of the target object are detected, the plurality of feature points are classified into a predetermined feature point group, and the feature point group Provided is an ultrasonic device configured to obtain a center point every time, and to control a cross section passing through the obtained plurality of center points as an observation cross section of an object and display an image of the cross section for observation on a display unit.

本発明によれば、探索部位の大きさや部位間の長さを検出することで、最も適切な位置の断面画像を取得することができる。   According to the present invention, it is possible to acquire a cross-sectional image at the most appropriate position by detecting the size of the search part and the length between parts.

実施例1に係る、標準断面画像を取得する超音波装置のブロック図。1 is a block diagram of an ultrasonic apparatus that acquires a standard cross-sectional image according to Embodiment 1. FIG. 実施例1に係る、3D探索部の内部処理を示すブロック図。FIG. 3 is a block diagram showing internal processing of a 3D search unit according to the first embodiment. 実施例1に係る、3D探索部の特徴分類器の一例を示す図。FIG. 3 is a diagram illustrating an example of a feature classifier of the 3D search unit according to the first embodiment. 実施例1に係る、3D探索部の2D断面切り出しの一例を示す図。The figure which shows an example of 2D cross-section cut-out of the 3D search part based on Example 1. FIG. 実施例1に係る、探索部位の立体形状を再構成する一例を示す図。The figure which shows an example which reconfigure | reconstructs the three-dimensional shape of the search part based on Example 1. FIG. 実施例1に係る、標準断面A4C、A2C、PLXの一例を示す図。The figure which shows an example of the standard cross sections A4C, A2C, and PLX based on Example 1. FIG. 実施例1に係る、標準断面PSX MVレベル、PMレベル、Apexレベルの一例を示す図。The figure which shows an example of the standard cross section PSX MV level, PM level, and Apex level based on Example 1. FIG. 実施例1に係る、2D識別処理の一例を示すフローチャート図。FIG. 3 is a flowchart illustrating an example of 2D identification processing according to the first embodiment. 実施例1に係る、特徴点群生成の一例を示す図。FIG. 6 is a diagram illustrating an example of feature point group generation according to the first embodiment. 実施例1に係る、特徴点中心検出の一例を示す図。FIG. 3 is a diagram illustrating an example of feature point center detection according to the first embodiment. 実施例1に係る、標準断面抽出の一例を示す図。FIG. 3 is a diagram illustrating an example of standard section extraction according to the first embodiment. 実施例2に係る、心尖中心検出処理の一例を示す図。FIG. 10 is a diagram illustrating an example of apex center detection processing according to the second embodiment. 各実施例に係る、標準断面抽出の全体フローを示すフローチャート図。The flowchart figure which shows the whole flow of standard cross-section extraction based on each Example.

以下、図面に従い、本発明の各種の実施の形態を説明する。なお、本発明は人体、特に心臓に限定されるものでなく、他の構造物などにも適用できるが、以下の実施例の説明は、人体、特に心臓を例示して説明する。なお、上述した心臓の標準断面取得に関するガイドラインの推奨事項は、心尖部4腔像(A4C:Apical 4 Chamber)断面を取得する場合の例である。その他、心尖部2腔像(A2C: Apical 2 Chamber)、胸骨左縁長軸像(PLX: Parasternal Long Axis)、胸骨左縁短軸像(PSX: Parasternal Short Axis)の標準断面についても、それぞれ観測に際しての推奨事項が定義されている。A4C、A2C、PSXおよびPLXの各標準断面の相互の位置関係については、以下の実施例の記載の中で順次説明する。   Hereinafter, various embodiments of the present invention will be described with reference to the drawings. The present invention is not limited to the human body, particularly the heart, but can be applied to other structures and the like. However, in the following description of the embodiments, the human body, particularly the heart will be described as an example. Note that the above-mentioned guidelines recommended for obtaining the standard cross-section of the heart are examples in the case of acquiring a 4 apical chamber (A4C) cross-section. In addition, the standard cross sections of the apical 2 chamber (A2C: Apical 2 Chamber), the left sternal long axis (PLX: Parasternal Long Axis), and the left sternal short axis (PSX) are also observed. Recommendations are defined. The mutual positional relationship between the standard cross sections of A4C, A2C, PSX and PLX will be sequentially described in the description of the following examples.

実施例1は、処理部を用いた画像処理方法、及びその装置であって、処理部は、対象体の3次元情報を用いて対象体の第1候補断面を生成し、第1候補断面を変形させた第2候補断面及び第1候補断面から、対象体の探索部位である特徴点を複数検出し、複数の特徴点を所定の特徴点群に分類し、分類された特徴点群毎に中心点を求め、複数の中心点を通る断面を、対象体の観測用断面とする構成の画像処理方法、及びその装置の実施例である。   Example 1 is an image processing method and apparatus using a processing unit, and the processing unit generates a first candidate cross section of the target object using the three-dimensional information of the target object, and the first candidate cross section is generated. From the deformed second candidate cross section and the first candidate cross section, a plurality of feature points that are search parts of the target object are detected, and the plurality of feature points are classified into a predetermined feature point group, and for each classified feature point group It is the Example of the image processing method of the structure which calculates | requires a center point, and makes the cross section which passes through several center points into the cross section for observation of a target object, and its apparatus.

また、実施例1は、超音波装置であって、対象体に対し、超音波を送受信する超音波探触子からの受信信号に基づく、対象体の3次元情報を処理する処理部と、処理部で生成される対象体の断面画像を表示する表示部と、を備え、処理部は、3次元情報を用いて、対象体の第1候補断面を生成し、第1候補断面を変形させた第2候補断面及び第1候補断面から、対象体の探索部位である特徴点を複数検出し、複数の特徴点を所定の特徴点群に分類し、特徴点群毎に中心点を求め、求めた複数の中心点を通る断面を、対象体の観測用断面とし、観測用断面の画像を表示部に表示するよう制御する構成の超音波装置の実施例である。   In addition, the first embodiment is an ultrasonic apparatus, and a processing unit that processes three-dimensional information of a target object based on a reception signal from an ultrasonic probe that transmits and receives ultrasonic waves to the target object, and a processing A display unit that displays a cross-sectional image of the target object generated by the unit, and the processing unit generates a first candidate cross-section of the target object using the three-dimensional information, and deforms the first candidate cross-section From the second candidate cross section and the first candidate cross section, a plurality of feature points that are search parts of the target object are detected, the plurality of feature points are classified into a predetermined feature point group, and a center point is obtained and obtained for each feature point group. This is an embodiment of an ultrasonic apparatus configured to control a cross section passing through a plurality of center points as an observation cross section of an object and display an image of the observation cross section on a display unit.

図1は、実施例1に係る、対象体の標準断面画像を取得する超音波装置の一構成例のブロック図である。なお、この超音波装置の基本構成は他の実施例においても、共通に利用される構成である。   FIG. 1 is a block diagram of a configuration example of an ultrasonic apparatus according to the first embodiment that acquires a standard cross-sectional image of an object. The basic configuration of this ultrasonic apparatus is a configuration that is commonly used in other embodiments.

同図において、超音波装置100は、超音波探触子110を対象体に接触させて、対象体内部の様子を画像として取得、表示する装置である。超音波探触子とは、超音波を発生又は受信する振動子を組み込んだセンサーデバイスのことである。超音波の発生原理は、圧電素子材料に高周波のパルス電圧を加え,素子のひずみ(振動)によって超音波を発生する。超音波は、伝搬方向に存在する物体によって通過したり、反射したりする特性を持つ。また、物体の種類により物体中の伝播速度も異なる。この超音波の反射信号を超音波探触子110で再び受信し、受信信号強度を画像に変換して表示することで対象体内部を可視化する。本実施例の超音波装置100で用いる超音波探触子110は、振動子、超音波の送受信回路、受信エコー信号を整相加算する整相加算回路、アナログデジタル(A/D)変換器等を内蔵し、対象体を超音波による3Dボリュームデータ、すなわち、3次元情報として取得可能なデバイスであり、超音波装置100には、取得された3次元情報としての3Dボリュームデータが入力される。   In the figure, an ultrasonic device 100 is a device that acquires and displays an image of the inside of a target object by bringing an ultrasonic probe 110 into contact with the target object. An ultrasonic probe is a sensor device incorporating a transducer that generates or receives ultrasonic waves. The principle of ultrasonic generation is that a high-frequency pulse voltage is applied to the piezoelectric element material, and ultrasonic waves are generated by the distortion (vibration) of the element. Ultrasonic waves have the property of passing or reflecting by objects existing in the propagation direction. Also, the propagation speed in the object varies depending on the type of the object. The ultrasonic reflected signal is received again by the ultrasonic probe 110, and the inside of the object is visualized by converting the received signal intensity into an image and displaying it. The ultrasonic probe 110 used in the ultrasonic apparatus 100 of this embodiment includes a transducer, an ultrasonic transmission / reception circuit, a phasing addition circuit for phasing and adding received echo signals, an analog digital (A / D) converter, and the like. Is a device that can acquire 3D volume data by ultrasonic waves, that is, 3D information, and the ultrasonic apparatus 100 receives 3D volume data as acquired 3D information.

データ入力部101は、3Dボリュームデータを超音波探触子110から受信する入力インタフェースである。データ入力部101が受信した3次元情報である3Dボリュームデータは、一旦、メモリ102に格納する。メモリ102に格納された3次元情報は、以下順次説明する3D探索部103、2D画像生成部104、2D識別部105、断面位置調整部106、標準断面抽出部107等で処理を受ける。なお、3D探索部103〜標準断面抽出部107の各機能は、後で説明する処理部である中央演算処理部(CPU)109のプログラム実行等で実現することができる。超音波装置100にはその他、断面画像データを出力する断面出力部108、ユーザ操作が入力される入力インタフェース(I/F)112を備えており、入力I/F112は、ユーザ操作113により取得および表示対象とする標準断面設定や表示方法を装置にインプットする。   The data input unit 101 is an input interface that receives 3D volume data from the ultrasound probe 110. The 3D volume data that is the three-dimensional information received by the data input unit 101 is temporarily stored in the memory 102. The three-dimensional information stored in the memory 102 is processed by a 3D search unit 103, a 2D image generation unit 104, a 2D identification unit 105, a cross-section position adjustment unit 106, a standard cross-section extraction unit 107, and the like, which will be sequentially described below. Each function of the 3D search unit 103 to the standard cross section extraction unit 107 can be realized by executing a program of a central processing unit (CPU) 109 which is a processing unit described later. In addition, the ultrasonic apparatus 100 includes a cross-section output unit 108 that outputs cross-sectional image data, and an input interface (I / F) 112 for inputting a user operation. The input I / F 112 is acquired and acquired by a user operation 113. Standard section setting and display method to be displayed are input to the device.

さて、3D探索部103は、メモリ102に格納された3次元情報である3Dボリュームデータを読み出し、3D探索部103が備える複数の特徴分類器によって、観測位置を基準とする特徴点である探索部位へのベクトル情報を出力する。   Now, the 3D search unit 103 reads 3D volume data that is three-dimensional information stored in the memory 102, and a search part that is a feature point based on the observation position by a plurality of feature classifiers provided in the 3D search unit 103 Output vector information to.

2D画像生成部104は、3D探索部103が出力した2個以上の複数のベクトル情報を参照して、格納された3Dボリュームデータ中の2D断面座標を決定し、その断面上の画素データから成る2D画像を生成する。この2D画像生成では、目的の探索部位を立体的に包含するように観測位置を変えながら、複数枚の2D画像を得る。2D画像の生成枚数は、探索部位の形状を立体的に観測可能な範囲で任意に設定して良い。   The 2D image generation unit 104 refers to two or more pieces of vector information output by the 3D search unit 103, determines 2D cross-sectional coordinates in the stored 3D volume data, and includes pixel data on the cross-section. Generate a 2D image. In this 2D image generation, a plurality of 2D images are obtained while changing the observation position so as to three-dimensionally include the target search portion. The number of 2D images to be generated may be arbitrarily set within a range in which the shape of the search site can be observed three-dimensionally.

2D識別部105は、2D画像生成部104が生成した2D画像が入力されて、所望数の特徴点群を抽出する。   The 2D identification unit 105 receives the 2D image generated by the 2D image generation unit 104 and extracts a desired number of feature point groups.

断面位置調整部106は、2D画像生成部104で出力された複数枚の2D画像から観察対象とする部位の中心座標を求める、すなわち探索部位の特徴点中心を検出する。   The cross-sectional position adjustment unit 106 obtains the center coordinates of the site to be observed from the plurality of 2D images output from the 2D image generation unit 104, that is, detects the feature point center of the search site.

標準断面抽出部107は、断面位置調整部106で求めた複箇所の探索部位の中心座標、すなわち特徴点中心を繋ぐ断面を標準断面として決定し、この断面の2D画像を抽出する。   The standard cross section extraction unit 107 determines the central coordinates of the plurality of search parts obtained by the cross section position adjustment unit 106, that is, a cross section connecting the feature point centers as a standard cross section, and extracts a 2D image of this cross section.

処理部であるCPU109は、予めプログラムされ且つ装置に記憶された手順に従い、上述した3D探索部103〜標準断面抽出部107の各機能処理を実行する。   The CPU 109 serving as a processing unit executes each functional process of the 3D search unit 103 to the standard cross section extraction unit 107 described above according to a procedure programmed in advance and stored in the apparatus.

画像表示装置・記録媒体111は、超音波装置100に接続されたモニタ或いは記録媒体であり、断面出力部108から出力される断面画像データを使って、超音波装置100が抽出した標準断面をユーザが指定した表示方法に従いモニタに表示、或いは記録媒体に格納する。   The image display device / recording medium 111 is a monitor or recording medium connected to the ultrasonic device 100, and the user uses the standard cross section extracted by the ultrasonic device 100 using the cross-sectional image data output from the cross-section output unit 108. Is displayed on a monitor or stored in a recording medium in accordance with the display method designated by.

図13は、以上説明した実施例1の超音波装置による、標準断面抽出の全体フローを示すフローチャート図である。まず、データ入力部101が超音波探触子110から対象体の3Dボリュームデータを入力し(1301)、3D探索部103が3D探索を実行し(1302)、2D画像生成部104が、第1候補断面としての探索部位の初期断面を抽出する(1303)。   FIG. 13 is a flowchart showing the entire flow of standard section extraction by the ultrasonic apparatus of the first embodiment described above. First, the data input unit 101 inputs 3D volume data of an object from the ultrasound probe 110 (1301), the 3D search unit 103 executes a 3D search (1302), and the 2D image generation unit 104 An initial cross section of the search site as a candidate cross section is extracted (1303).

続いて、2D識別部105が、第1候補断面である初期断面を基点に、左右、上下、前後、回転等の変形を与えて断面移動(1306)を行い複数の第2候補断面を得、第1、第2候補断面を用いて、探索部位を検出するための2D識別により複数の特徴点群を抽出する(1304)。所望の特徴点群、例えば、所定の個数の特徴点が取得できたか否かを判定(1305)し、取得が完了した時点で特徴点群生成を終了する。そして、断面位置調整部106が、2D識別部105で抽出した複数の特徴点群からそれぞれ特徴中心、即ち観測部位の中心を検出し(1307)、標準断面抽出部107が、各特徴中心を通る2D平面を標準断面として決定(1308)し、モニタや外部記録媒体等に出力して(1309)、標準断面抽出フローを完了する。   Subsequently, the 2D identification unit 105 performs a cross-sectional movement (1306) with deformations such as left and right, up and down, front and rear, and rotation from the initial cross section that is the first candidate cross section to obtain a plurality of second candidate cross sections, Using the first and second candidate sections, a plurality of feature point groups are extracted by 2D identification for detecting a search site (1304). It is determined whether or not a desired feature point group, for example, a predetermined number of feature points has been acquired (1305), and the generation of the feature point group is terminated when the acquisition is completed. Then, the cross-section position adjustment unit 106 detects the feature center, that is, the center of the observation site, from the plurality of feature point groups extracted by the 2D identification unit 105 (1307), and the standard cross-section extraction unit 107 passes through each feature center. The 2D plane is determined as a standard cross section (1308) and output to a monitor, an external recording medium or the like (1309), and the standard cross section extraction flow is completed.

以下、3D探索部103〜標準断面抽出部107の各機能を、具体例を使って順次説明する。図2は、3D探索部103の内部処理を示すブロック図である。3D探索部103は、メモリ102に保存された3Dボリュームデータ200内から探索部位の特徴点を検出し、複数個の特徴点座標に基づいて探索部位の2D断面画像を出力する。   Hereinafter, each function of the 3D search unit 103 to the standard cross-section extraction unit 107 will be sequentially described using specific examples. FIG. 2 is a block diagram showing internal processing of the 3D search unit 103. As shown in FIG. The 3D search unit 103 detects a feature point of the search site from the 3D volume data 200 stored in the memory 102, and outputs a 2D cross-sectional image of the search site based on a plurality of feature point coordinates.

探索部位の特徴点を検出する方法は、例えば、Random Forestを用いる方法がある。Random Forestとは、ランダムさが持つ利点を活用し、大量に作った決定木を効率よく学習させるという機械学習手法の一つである。例えば、既知の3Dボリュームデータ200に存在する様々な特徴点間の方向、距離に関する細かい判定を実行する決定木を用意し、これを複数個組み合わせることで、未知の3Dボリュームデータ200に対しても同様に任意の特徴点間の方向、距離を得ることが可能な特徴分類器201を生成することができる。これにより、未知の3Dボリュームデータ200から入力した注目部位データを基点とする探索部位への方向および距離を知ることができる。   As a method for detecting the feature point of the search site, for example, there is a method using Random Forest. Random Forest is one of the machine learning methods that uses the advantage of randomness to efficiently learn a large number of decision trees. For example, by preparing a decision tree that performs detailed judgments regarding the direction and distance between various feature points existing in the known 3D volume data 200, and combining them, the unknown 3D volume data 200 can be Similarly, a feature classifier 201 capable of obtaining the direction and distance between arbitrary feature points can be generated. Thereby, it is possible to know the direction and distance to the search site with the target site data input from the unknown 3D volume data 200 as a base point.

3D探索部103は、以下の処理手順をとる。まず、未知の3Dボリュームデータ200から選択した注目部位データを特徴分類器201に入力する。特徴分類器201では、複数の決定木により、注目部位を基点とする探索部位へ方向および距離に関する条件判定を繰り返し、適切なベクトル情報を算出する。   The 3D search unit 103 takes the following processing procedure. First, attention site data selected from unknown 3D volume data 200 is input to the feature classifier 201. The feature classifier 201 repeats the condition determination regarding the direction and the distance to the search site with the target site as a base point by using a plurality of decision trees, and calculates appropriate vector information.

ベクトル情報統合202は、3Dボリュームデータ200から選択した複数の注目部位に対して、それぞれ探索部位へのベクトル情報を得た後、これら複数のベクトル情報を集約して、ある1つの断面を選択するためのベクトル情報に統合する。2D断面座標算出203は、統合したベクトル情報から2D断面切り出しに必要な平面座標を算出する。2D断面切り出し204は、算出した平面座標に基づいて平面座標から2D断面画像205を抽出する。   The vector information integration 202 obtains vector information for each of the search parts for a plurality of target parts selected from the 3D volume data 200, and then aggregates the plurality of vector information and selects one cross section. To integrate vector information. The 2D cross-section coordinate calculation 203 calculates plane coordinates necessary for 2D cross-section extraction from the integrated vector information. In the 2D section cutout 204, a 2D section image 205 is extracted from the plane coordinates based on the calculated plane coordinates.

なお、3D探索部103において、探索部位の特徴点座標を求める方法として、Random Forestを用いる方法を記載したが、その他の手法を用いるようにしても良い。例えば、入力の3D画像と予め用意する基準となる3D画像を用いて、両者のパタンマッチングで探索部位の特徴点を検出するようにしても良い。   In the 3D search unit 103, a method using Random Forest has been described as a method for obtaining the feature point coordinates of the search site, but other methods may be used. For example, a feature point of a search part may be detected by pattern matching between an input 3D image and a reference 3D image prepared in advance.

図3は、本実施例の3D探索部103の特徴分類器201の一例を示す模式図である。前述の通り、Random Forestを用いた3D探索部103では、距離に関する細かい判定を実行する決定木を用意し、これを複数個組み合わせることで、未知のサンプリング3Dボリュームデータ(Vn)301に対しても任意の特徴点間の方向および距離を得ることができる。同図の丸印は決定木302、四角印は最終的に決定される探索特徴点へのベクトル情報303である。各決定木302は、学習サンプルの3Dボリュームデータ内の入力部位と所定の位置に存在する対象部位との方向および距離に関する学習から導き出した判定条件を保持している。未知のサンプリング3Dボリュームデータ301を入力すると、入力した部位画像と対象部位との方向および距離関係が一致する決定木302を順次通過することで、最終的に最も適切な探索部位の位置である探索特徴点へのベクトル情報303に辿りつくことができる。   FIG. 3 is a schematic diagram illustrating an example of the feature classifier 201 of the 3D search unit 103 of the present embodiment. As described above, the 3D search unit 103 using the Random Forest prepares a decision tree for performing a detailed determination regarding distance, and by combining a plurality of them, the unknown sampling 3D volume data (Vn) 301 is also obtained. The direction and distance between arbitrary feature points can be obtained. The circles in the figure are the decision tree 302, and the squares are the vector information 303 for the search feature points that are finally determined. Each decision tree 302 holds determination conditions derived from learning regarding the direction and distance between the input part in the 3D volume data of the learning sample and the target part existing at a predetermined position. When the unknown sampling 3D volume data 301 is input, the search is finally made to the position of the most appropriate search part by sequentially passing through a decision tree 302 having the same direction and distance relation between the input part image and the target part. Vector information 303 to the feature point can be reached.

図4は、本実施例の3D探索部の2D断面切り出しの一例を示す図である。同図に示すように、3D探索部103で求めた複数のベクトル情報に基づいて探索部位の位置を示す特徴点を含む2D断面を切り出すことができる。ベクトル情報は、3地点以上の情報があれば2Dの平面画像を切り出すことができる。   FIG. 4 is a diagram illustrating an example of 2D section cutout of the 3D search unit of the present embodiment. As shown in the figure, a 2D cross section including a feature point indicating the position of the search site can be cut out based on a plurality of vector information obtained by the 3D search unit 103. As for vector information, if there is information on three or more points, a 2D planar image can be cut out.

そこで、例えば注目部位がv1(401)、v2(402)およびv3(403)の3点があり、それぞれについて、探索部位としての特徴点t1(407)、t2(408)およびt3(409)の3点が得られたと仮定する。この時、注目部位v1(401)と特徴点t1(407)とを結ぶ線d1(404)と、注目部位v2(402)と特徴点t2(408)とを結ぶ線d2(405)と、注目部位v3(403)と特徴点t2(409)を結ぶ線d3(406)が、それぞれ法線ベクトルの関係となる平面410を導き出す。この法線ベクトルの関係を得られた平面410が、第1候補断面として切り出し対象となる2D断面画像となる。   Therefore, for example, there are three points of interest, v1 (401), v2 (402) and v3 (403), and for each of the feature points t1 (407), t2 (408) and t3 (409) as search parts Assume that 3 points have been obtained. At this time, a line d1 (404) connecting the attention site v1 (401) and the feature point t1 (407), a line d2 (405) connecting the attention site v2 (402) and the feature point t2 (408), and attention A line d3 (406) connecting the part v3 (403) and the feature point t2 (409) leads to a plane 410 that has a normal vector relationship. The plane 410 from which the normal vector relationship is obtained becomes a 2D cross-sectional image to be cut out as the first candidate cross-section.

図5は、本実施例の3D探索部で求めた第1候補断面である2D断面画像を使い、複数個の特徴点群を得、複数個の特徴点から探索部位の立体形状を再構成する一例を示す図である。3D探索部103で取得した1個の2D断面画像505(410)には、一つの探索部位の特徴点504は1点のみである。一方、心臓の三尖弁を例にすると、三尖弁の実際の形状は、多少の変形はあるが概ね円形(または楕円等)の閉じた形状である。1個の第1候補断面である2D断面画像505(410)には、注目部位v1(401)に対応する探索部位の特徴点504は1点しか存在しないため、その特徴点が三尖弁の中心である保障はない。   FIG. 5 uses a 2D cross-sectional image that is the first candidate cross-section obtained by the 3D search unit of the present embodiment, obtains a plurality of feature point groups, and reconstructs the three-dimensional shape of the search site from the plurality of feature points. It is a figure which shows an example. In one 2D cross-sectional image 505 (410) acquired by the 3D search unit 103, there is only one feature point 504 of one search site. On the other hand, taking the tricuspid valve of the heart as an example, the actual shape of the tricuspid valve is a substantially circular (or elliptical) closed shape with some deformation. Since there is only one feature point 504 of the search site corresponding to the target site v1 (401) in the 2D cross-section image 505 (410) that is one first candidate cross-section, the feature point is a tricuspid valve. There is no guarantee that it is central.

そこで、本実施例の装置においては、取得した第1候補断面である2D断面画像505(410)の二次元平面の水平軸508または垂直軸509を基準とし、2D断面画像505(410)に対してそれぞれ左右移動、上下移動、前後移動506、507および回転移動501、502等の変形を任意に与えながら、複数個の第2候補断面である2D断面画像を取得するようにする。そして、1個の第1候補断面と、複数個の第2候補断面から構成される複数個の2D断面画像それぞれから特徴点を検出することで、探索部位を立体的に観測可能な特徴点群503を取得できる。そして、得られた特徴点群503を用いて、探索部位の中心、例えば、三尖弁や僧房弁の円の中心を算出し、さらに、探索部位の中心を通る標準断面を取得することが可能になる。   Therefore, in the apparatus according to the present embodiment, the 2D cross-sectional image 505 (410) is obtained with reference to the horizontal axis 508 or the vertical axis 509 of the two-dimensional plane of the acquired 2D cross-sectional image 505 (410) as the first candidate cross section. Thus, a plurality of 2D cross-sectional images, which are second candidate cross-sections, are acquired while arbitrarily giving deformation such as left-right movement, vertical movement, back-and-forth movement 506, 507, and rotational movement 501, 502. A feature point group in which a search site can be observed in three dimensions by detecting feature points from each of a plurality of 2D cross-sectional images composed of one first candidate cross-section and a plurality of second candidate cross-sections. 503 can be acquired. Then, using the obtained feature point group 503, it is possible to calculate the center of the search site, for example, the center of the circle of the tricuspid valve or the mitral valve, and to obtain a standard cross section passing through the center of the search site become.

心尖部4腔像であるA4Cの特徴点群抽出においては、3D探索部103の最初の特徴点検出で求めた心尖の特徴点と、僧帽弁および三尖弁の特徴点を結ぶ線の中心点を通る1つの線を基軸に左右移動、上下移動、前後移動および回転移動等の変形を任意に与えながら複数個の2D断面画像を取得するようにして、特徴点群の抽出ステップを省略しても良い。心尖部4腔像であるA4Cではその形状特性から、心尖、僧帽弁、三尖弁が上述した基軸の移動のみによる特徴点抽出で、各部位の立体的な特徴点群を得られるためである。同様に、他の標準断面の特徴点群抽出についても、それぞれの形状特性に対応して基軸の移動を限定するようにしても良い。   In the A4C feature point group extraction, which is the four-chamber apex image, the center of the line connecting the feature points of the apex obtained by the first feature point detection of the 3D search unit 103 and the feature points of the mitral and tricuspid valves A feature line group extraction step is omitted by acquiring a plurality of 2D cross-sectional images while arbitrarily deforming such as horizontal movement, vertical movement, back-and-forth movement, and rotational movement with a single line passing through a point as a base axis. May be. In A4C, which is an image of the apex of four cavities, the shape characteristics of the apex, mitral valve, and tricuspid valve can be obtained by extracting the feature points by only moving the basic axis as described above, thereby obtaining a three-dimensional feature point group for each part. is there. Similarly, regarding the feature point group extraction of other standard sections, the movement of the base axis may be limited in accordance with each shape characteristic.

本実施例のこのような構成を備えることで、標準断面取得に関するガイドラインで定義されている弁輪径が最大となる位置を捉えていること、或いは心室長が最長となる位置を捉えていること等の推奨事項を保障することが可能になる。以下、その理由を図6〜図12を用いて説明する。   By having such a configuration of the present embodiment, the position where the annulus diameter defined in the guidelines for obtaining the standard cross section is maximized is captured, or the position where the ventricular length is the longest is captured. It is possible to guarantee such recommendations. Hereinafter, the reason will be described with reference to FIGS.

図6は、標準断面A4C、PLX、A2Cの一例を示す模式図である。図6上段に、心臓に対する各標準断面A4C601、PLX602、A2C603の位置を、図6下段に、各標準断面の一例を示した。図6下段の標準断面の各特徴点について説明する。心尖604は心臓の尖端部、僧帽弁605は左心室と左心房の間にある弁、三尖弁606は右心室と右心房の間にある弁、大動脈弁607は左心室と大動脈の間にある弁である。また、各弁と心筋の接続部は弁輪と呼ばれる。   FIG. 6 is a schematic diagram showing an example of standard cross sections A4C, PLX, and A2C. The upper part of FIG. 6 shows the positions of the standard sections A4C601, PLX602, and A2C603 with respect to the heart, and the lower part of FIG. 6 shows an example of each standard section. Each feature point of the standard section at the bottom of FIG. 6 will be described. The apex 604 is the apex of the heart, the mitral valve 605 is the valve between the left ventricle and the left atrium, the tricuspid valve 606 is the valve between the right ventricle and the right atrium, and the aortic valve 607 is between the left ventricle and the aorta There is a valve. The connection between each valve and the myocardium is called an annulus.

A4C601は僧帽弁と三尖弁および心尖を通る断面であること、PLX602は僧帽弁と大動脈弁および心尖を通る断面であること、A2C603は僧帽弁と心尖を通る断面で左心室と左心房のみが画像に含まれることを特徴とする。それぞれの特徴を満たした上で、弁は最大径、僧帽弁と心尖の距離が最長となる断面が推奨断面とされる。   A4C601 is a cross section through the mitral valve, tricuspid valve and apex, PLX602 is a cross section through the mitral valve, aortic valve and apex, A2C603 is a cross section through the mitral valve and the apex, left ventricle and left Only the atrium is included in the image. After satisfying each feature, the recommended cross section is the cross section with the maximum diameter of the valve and the longest distance between the mitral valve and the apex.

図7は、標準断面PSXのMVレベル、PMレベル、Apexレベルの一例を示す模式図である。図7上段に心臓に対する標準断面PSX MVレベル701、PMレベル702、Apexレベル703の位置を、図7下段に、標準断面レベル各々の断面画像の一例を示した。標準断面PSXは僧帽弁輪に対して平行な断面であり、位置によって3段階に分類される。PSX MVレベル701は僧帽弁付近、PSX PMレベル702は乳頭筋と心筋の接続部付近、PSX Apexレベル703は心尖付近が推奨断面とされる。   FIG. 7 is a schematic diagram showing an example of the MV level, PM level, and Apex level of the standard cross section PSX. 7 shows the positions of the standard cross-section PSX MV level 701, PM level 702, and Apex level 703 with respect to the heart, and the lower part of FIG. 7 shows an example of cross-sectional images of the standard cross-section levels. The standard cross section PSX is a cross section parallel to the mitral annulus and is classified into three stages according to the position. PSX MV level 701 is the recommended cross section near the mitral valve, PSX PM level 702 is the vicinity of the connection between the papillary muscle and myocardium, and PSX Apex level 703 is the recommended cross section near the apex.

図8は、本実施例における2D識別器による2D識別処理による特徴点群取得の一例を示すフローチャート図である。断面画像入力(801)にて、2D画像生成部104で生成された断面画像が入力される。標準断面識別(802)は、入力された断面画像を標準断面A4C、PLX、A2C、PSX、並びに判定不能に分類する(803)。この標準断面識別方法は、例えばニューラルネットワークやサポートベクターマシンを用いる。   FIG. 8 is a flowchart showing an example of feature point group acquisition by 2D identification processing by the 2D classifier in the present embodiment. In the cross-sectional image input (801), the cross-sectional image generated by the 2D image generation unit 104 is input. The standard cross section identification (802) classifies the input cross section image into standard cross sections A4C, PLX, A2C, PSX, and undecidable (803). This standard section identification method uses, for example, a neural network or a support vector machine.

特徴点抽出(804)は、分類された断面種別に応じて、断面画像内の特徴点を抽出する。このとき標準断面識別の結果に応じて抽出する特徴点の種類を選択する。A4Cならば心尖、僧帽弁輪、三尖弁輪、PLXならば心尖、僧帽弁輪、大動脈弁輪、A2Cならば心尖、僧帽弁輪を抽出する。特徴点抽出方法は、例えばRandom ForestやORB(Oriented FAST and Rotated BRIEF)、パタンマッチングなどを用いる。   The feature point extraction (804) extracts feature points in the cross-sectional image according to the classified cross-section type. At this time, the type of feature point to be extracted is selected according to the result of the standard cross section identification. For A4C, the apex, mitral annulus, tricuspid annulus, for PLX, extract the apex, mitral annulus, aortic annulus, for A2C, extract the apex and mitral annulus. As the feature point extraction method, for example, Random Forest, ORB (Oriented FAST and Rotated BRIEF), pattern matching, or the like is used.

特徴点座標記録(805)は得られた特徴点群の3D座標をメモリに記録する。断面画像上の2D座標から3D座標に変換する方法は、例えば2D画像生成部が断面画像を生成する際、各ピクセルの3D座標をメモリに記録しておき、断面画像上の2D座標から該当ピクセルの3D座標を得る方法を用いる。   The feature point coordinate recording (805) records the obtained 3D coordinates of the feature point group in the memory. For example, when the 2D image generation unit generates the cross-sectional image, the 3D coordinate of each pixel is recorded in the memory, and the corresponding pixel is converted from the 2D coordinate on the cross-sectional image. Use a method to obtain 3D coordinates.

図9は、2D識別部における特徴点群生成の一例を示す模式図である。図9は一例として僧帽弁輪の特徴点群生成を示しているが、心尖、三尖弁、大動脈弁についても同様に特徴点群の生成が可能である。図9上段は、心臓と平行移動した複数の断面画像の位置を示し、図9中段は、複数の断面画像、図9下段は、3D座標上の特徴点群を模式的に示す。   FIG. 9 is a schematic diagram illustrating an example of feature point group generation in the 2D identification unit. FIG. 9 shows generation of feature point groups of the mitral annulus as an example, but feature point groups can be similarly generated for the apex, tricuspid valve, and aortic valve. The upper part of FIG. 9 shows the positions of a plurality of cross-sectional images translated in parallel with the heart, the middle part of FIG. 9 schematically shows a plurality of cross-sectional images, and the lower part of FIG. 9 schematically shows a feature point group on 3D coordinates.

特徴点抽出(804)により図9中段に示すように、断面画像901から探索部位としての僧帽弁輪903を得る。また、断面画像902は断面画像901を法線方向に平行移動した断面画像の例である。断面画像902からも同様に僧帽弁輪904を抽出する。図9下段に示すように、特徴点群905は僧帽弁輪の座標を3D座標に変換し、3Dデータ上にプロットすることで生成する。   As shown in the middle part of FIG. 9 by extracting characteristic points (804), a mitral annulus 903 as a search site is obtained from the cross-sectional image 901. A cross-sectional image 902 is an example of a cross-sectional image obtained by translating the cross-sectional image 901 in the normal direction. Similarly, the mitral annulus 904 is extracted from the cross-sectional image 902. As shown in the lower part of FIG. 9, the feature point group 905 is generated by converting the coordinates of the mitral annulus into 3D coordinates and plotting them on 3D data.

先に、図13で説明したように、所望の特徴点群、例えば、所定の個数の特徴点の取得が完了した時点で特徴点群生成を終了する。すなわち、判定方法は例えば各特徴に対して必要な特徴点数を予め定めておき、各特徴点数がこれを超えたか否かと判定する方法や、特徴を抽出する断面画像の数を予め定めておき、特徴を抽出する断面数がこれを超えたか否かを判定する方法、あるいは両者の組合せにより判定する。   First, as described with reference to FIG. 13, generation of a feature point group ends when acquisition of a desired feature point group, for example, a predetermined number of feature points is completed. In other words, for example, the number of feature points required for each feature is determined in advance, and a method for determining whether the number of feature points exceeds this, or the number of cross-sectional images from which features are extracted, The determination is made by a method of determining whether or not the number of cross sections for extracting features exceeds this, or a combination of both.

図10は、本実施例における断面位置調整部による特徴点中心検出の一例を説明するための図である。同図上段に、探索部位としての3つの特徴点群と、A4Cと、PSX MVレベル1001を模式的に示し、同図中段、下段に特徴点群の特徴点中心検出を説明するための図を模式的に示した。   FIG. 10 is a diagram for explaining an example of feature point center detection by the cross-section position adjusting unit in the present embodiment. The upper part of the figure schematically shows the three feature point groups as search parts, A4C, and PSX MV level 1001, and the middle and lower parts of the figure are diagrams for explaining the feature point center detection of the feature point group. Shown schematically.

弁輪の特徴点中心として、例えば任意の軸に特徴点群を投影し、最も離れた2点の中間を用いる。これにより、標準断面取得に関するガイドラインで定義されている弁輪径が最大となる位置を捉えていることを保障する。同図中段左側に示すように、弁輪1次元特徴点群1002は、特徴点群をx軸に投影した例である。特徴点1003はxminとなる特徴点であり、3D座標を(x1,y1,z1)とする。特徴点1004はxmaxとなる特徴点であり、3D座標を(x2,y2,z2)とする。特徴点1003、1004は弁輪直径の両端となるため、3D座標((x2-x1)/2,(y2-y1)/2,(z2-z1)/2)である中間点1005は特徴点中心となる。三尖弁中心、大動脈弁中心についても同様である。As the feature point center of the annulus, for example, a feature point group is projected on an arbitrary axis, and the middle of the two most distant points is used. This ensures that the position where the annulus diameter defined in the guidelines for standard cross-section acquisition is maximized is captured. As shown on the left side of the middle part of the figure, the annulus one-dimensional feature point group 1002 is an example in which the feature point group is projected on the x-axis. The feature point 1003 is a feature point that is x min , and the 3D coordinates are (x 1 , y 1 , z 1 ). The feature point 1004 is a feature point that is x max , and the 3D coordinate is (x 2 , y 2 , z 2 ). Since feature points 1003 and 1004 are both ends of the annulus diameter, they are 3D coordinates ((x 2 -x 1 ) / 2, (y 2 -y 1 ) / 2, (z 2 -z 1 ) / 2) The midpoint 1005 is the feature point center. The same applies to the tricuspid valve center and the aortic valve center.

図10中段右側に示すように、心室長が最長となる心尖中心として、例えば僧帽弁中心からの距離を軸として、心尖の特徴点群を投影し、最も僧帽弁から離れた特徴点を用いる。心尖1次元特徴点群1006は特徴点群を僧帽弁中心からの距離軸に投影した例である。特徴点1007は僧帽弁から最も遠い特徴点であり、心尖中心として選択される。これにより、標準断面取得に関するガイドラインで定義されている心室長が最長となる位置を捉えていることを保障することができる。同様に、同図下段のPSX MVレベル1001の断面画像の場合においても、2つの特徴点群それぞれの最も離れた2点の中間を使って、特徴点中心1008、1009を得ることができる。   As shown in the middle right of FIG. 10, as the apex center where the ventricular length is the longest, for example, the feature point group of the apex is projected around the distance from the mitral valve center, and the feature point farthest from the mitral valve is projected. Use. The apex one-dimensional feature point group 1006 is an example in which the feature point group is projected onto the distance axis from the center of the mitral valve. The feature point 1007 is the feature point farthest from the mitral valve and is selected as the apex center. Thereby, it can be ensured that the position where the ventricular length defined in the guideline for obtaining the standard section is the longest is captured. Similarly, also in the case of the cross-sectional image of the PSX MV level 1001 in the lower part of the figure, the feature point centers 1008 and 1009 can be obtained using the middle of the two most distant points of each of the two feature point groups.

図11は、本実施例の標準断面抽出部による、標準断面抽出の一例を示す模式図である。上述した処理で、同図の上段、中段に示すように、断面画像1101、1102、1103で心尖中心1107、僧帽弁中心1108、三尖弁中心1109、大動脈弁中心1110がそれぞれ求められているとする。   FIG. 11 is a schematic diagram illustrating an example of standard section extraction by the standard section extraction unit of the present embodiment. In the above-described processing, as shown in the upper and middle stages of the figure, the apex center 1107, the mitral valve center 1108, the tricuspid valve center 1109, and the aortic valve center 1110 are obtained from the cross-sectional images 1101, 1102, and 1103, respectively. And

A4Cに相当する断面画像1101は、心尖中心1107、僧帽弁中心1108、三尖弁中心1109を、PLXに相当する断面画像1102は心尖中心1107、僧帽弁中心1108、大動脈弁中心1110を通る断面を抽出する。A2Cに相当する断面画像1103は、左心室と左心房のみを含む必要がある。そのため心尖中心1107と僧帽弁中心1108を通り、同図下段に示す、心尖と僧帽弁を結んだ心尖-僧帽弁軸1111と三尖弁が直交する断面をA2Cとして抽出する。   Cross-sectional image 1101 corresponding to A4C passes through apex center 1107, mitral valve center 1108, and tricuspid valve center 1109, and cross-sectional image 1102 corresponding to PLX passes through apex center 1107, mitral valve center 1108, and aortic valve center 1110 Extract the cross section. The cross-sectional image 1103 corresponding to A2C needs to include only the left ventricle and the left atrium. Therefore, a cross section passing through the apex center 1107 and the mitral valve center 1108 and the apex-mitral valve axis 1111 connecting the apex and the mitral valve and the tricuspid valve shown in the lower part of the figure is extracted as A2C.

同図下段に示すように、PSXは僧帽弁輪と平行な面を心尖-僧帽弁軸1111の方向に平行移動して抽出する。僧帽弁輪と平行な面は、例えば図10で説明した方法により弁輪径上の特徴点を3点求めて、これらを通る断面を用いる。平行移動量は、例えば僧帽弁中心を0、心尖中心を1として、MVレベルは1/6、PMレベルは3/6、Apexレベルは5/6のように予め比率を定めておくことで抽出し、断面1106、1105、1104を得ることができる。   As shown in the lower part of the figure, PSX extracts a plane parallel to the mitral valve annulus by translating it in the direction of the apex-mitral valve axis 1111. For the plane parallel to the mitral annulus, for example, three feature points on the annulus diameter are obtained by the method described in FIG. 10, and a cross section passing through these is used. The amount of translation can be determined by setting the ratio in advance, for example, mitral valve center is 0, apex center is 1, MV level is 1/6, PM level is 3/6, Apex level is 5/6. Extraction can obtain cross sections 1106, 1105, 1104.

以上詳述したように、本実施例の装置、及び方法により、観測部位の大きさや観測部位間の長さを検出することで、最も適切な位置の断面画像を取得でき、推奨基準に沿った標準断面の抽出が可能となる。   As described in detail above, by detecting the size of the observation region and the length between the observation regions by the apparatus and method of the present embodiment, a cross-sectional image at the most appropriate position can be acquired, and the recommended criteria are met. Standard section can be extracted.

実施例2は、実施例1と同様、画像処理方法、及びその装置、並びに超音波装置の実施例であり、実施例1の断面位置調整部の処理に変更を加えた実施例である。   Example 2 is an example of an image processing method, an apparatus thereof, and an ultrasonic apparatus, as in Example 1, and is an example in which the processing of the cross-sectional position adjustment unit of Example 1 is changed.

実施例2においては、実施例1の断面位置調整部106における特徴点中心検出処理において、心尖が不明瞭な場合、例えば心尖付近の心筋を特徴点群として抽出することによって、特徴点中心を検出するようにした実施例である。その余は、全て実施例1と同様の処理を行えば良いので、ここでは重複する説明を省略する。   In the second embodiment, in the feature point center detection process in the cross-section position adjustment unit 106 of the first embodiment, when the apex is unclear, the feature point center is detected by, for example, extracting the myocardium near the apex as a feature point group. This is an embodiment. Since all that is necessary is to perform the same processing as that in the first embodiment, a duplicate description is omitted here.

図12は、本実施例にかかる心尖中心検出処理の一例を示す模式図である。同図上段に示すように、心尖が不明瞭で、実施例1の場合と異なり、心尖の特徴点群を検出できないが、代わりに断面1201上に示すように、心尖付近の心筋が特徴点群として得られている場合、図10で説明した方法により心筋の特徴点群の中心を得て心尖中心1202として利用する。これにより、本実施例によれば、例え心尖が不明瞭な場合でも、実施例1同様、推奨基準に沿った標準断面抽出が可能となる。   FIG. 12 is a schematic diagram illustrating an example of apex center detection processing according to the present embodiment. As shown in the upper part of the figure, the apex is unclear, and unlike the case of Example 1, the feature points of the apex cannot be detected. Instead, as shown on the cross section 1201, the myocardium near the apex is the feature point group. , The center of the myocardial feature point group is obtained by the method described with reference to FIG. Thus, according to the present embodiment, even if the apex is unclear, the standard cross section can be extracted according to the recommended standard as in the first embodiment.

以上詳述した本発明によれば、3Dボリュームデータに対する3D探索で検出した探索部位の特徴点群から探索部位の立体形状を再構成して、探索部位の大きさや観測部位間の長さを検出することが可能となる。   According to the present invention described in detail above, the three-dimensional shape of the search part is reconstructed from the feature point group of the search part detected by the 3D search for the 3D volume data, and the size of the search part and the length between the observation parts are detected. It becomes possible to do.

また、本発明によれば、3Dボリュームデータから心臓の標準断面を取得する画像処理方法、装置において、探索部位の特徴点群から探索部位の立体形状を再構成して、探索部位の大きさや探索部位間の長さを検出する手段、機能を備えることで、標準断面取得に関するガイドラインの推奨事項に準拠した最も適切な位置の断面画像を取得することを可能とすることができる。   According to the present invention, in the image processing method and apparatus for acquiring a standard cross section of the heart from 3D volume data, the three-dimensional shape of the search part is reconstructed from the feature point group of the search part, and the size and search of the search part By providing the means and function for detecting the length between the parts, it is possible to acquire a cross-sectional image at the most appropriate position in accordance with the recommendations of the guideline regarding standard cross-section acquisition.

更に、本発明によれば、標準断面取得に関するガイドラインで定義されている弁輪径が最大となる位置を捉えていること、または心室長が最長となる位置を捉えていること等の推奨事項を満足する超音波装置を提供することが可能となる。   Furthermore, according to the present invention, recommendations such as capturing the position where the annulus diameter defined in the guidelines for obtaining a standard cross section is the maximum, or capturing the position where the ventricular length is the longest, are provided. It is possible to provide a satisfactory ultrasonic apparatus.

なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明のより良い理解のために詳細に説明したのであり、必ずしも説明の全ての構成を備えるものに限定されものではない。例えば、対象体を人体の心臓を例に説明したが、人体の他の臓器であっても良いし、人体以外の構造物を対象体とすること可能である。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることが可能である。   In addition, this invention is not limited to an above-described Example, Various modifications are included. For example, the above-described embodiments have been described in detail for better understanding of the present invention, and are not necessarily limited to those having all the configurations described. For example, the target body has been described by taking the heart of a human body as an example, but it may be another organ of the human body, or a structure other than the human body can be used as the target body. Further, a part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment.

また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。例えば、対象体が同一の場合は、上述した超音波装置は、第1候補断面の座標、第2候補断面を生成する際の第1候補断面の回転、前後移動、左右移動に関する制御パラメータを超音波装置のメモリ等に記憶しておき、再利用することで、第1候補断面抽出および第2候補断面抽出の処理ステップを省略し、観測用断面決定、抽出までの処理時間を短縮することができる。   Further, it is possible to add, delete, and replace other configurations for a part of the configuration of each embodiment. For example, when the target object is the same, the above-described ultrasonic apparatus superimposes the control parameters relating to the coordinates of the first candidate cross section, the rotation of the first candidate cross section when generating the second candidate cross section, the back and forth movement, and the left and right movement. By storing in the memory of the sonic device and reusing it, the processing steps of the first candidate cross-section extraction and the second candidate cross-section extraction can be omitted, and the processing time until the observation cross-section determination and extraction can be shortened. it can.

更に、上述した各構成、機能、処理部等は、それらの一部又は全部を実現するCPU用のプログラムを作成して実現する例を説明したが、それらの一部又は全部を例えば集積回路で設計する等によりハードウェアで実現しても良いことは言うまでもない。   Furthermore, although each of the above-described configurations, functions, processing units, and the like has been described as an example of creating and realizing a program for a CPU that realizes part or all of them, some or all of them are, for example, integrated circuits. It goes without saying that it may be realized by hardware by designing or the like.

100 超音波装置
101 データ入力部
102 メモリ
103 3D探索部
104 2D画像生成部
105 2D識別部
106 断面位置調整部
107 標準断面抽出部
108 断面出力部
109 CPU
112 入力I/F
201 特徴分類器
202 ベクトル情報統合
203 2D断面座標算出
204 2D断面切り出し
205、410、505 2D断面画像
301 サンプリング3Dボリュームデータ(Vn)
302 決定木
303 ベクトル情報
503、905 特徴点群
1107 心尖中心
1108僧房弁中心
1109 三尖弁中心
1110 大動脈弁中心
1111 心尖‐僧房弁軸
100 ultrasonic equipment
101 Data input section
102 memory
103 3D search unit
104 2D image generator
105 2D identification part
106 Section position adjustment section
107 Standard section extractor
108 Section output section
109 CPU
112 Input I / F
201 Feature classifier
202 Vector information integration
203 2D section coordinate calculation
204 2D cut out
205, 410, 505 2D cross-sectional image
301 Sampling 3D volume data (Vn)
302 decision tree
303 vector information
503, 905 feature points
1107 Center of apex
1108 Mitral valve center
1109 Tricuspid valve center
1110 Aortic valve center
1111 Apex-mitral valve stem

Claims (15)

処理部を用いた画像処理方法であって、
前記処理部は、
対象体の3次元情報を用いて、前記対象体の第1候補断面を生成し、
前記第1候補断面を変形させた第2候補断面及び前記第1候補断面から、前記対象体の探索部位である特徴点を複数検出し、
複数の前記特徴点を所定の特徴点群に分類し、
前記特徴点群毎に中心点を求め、
求めた複数の前記中心点を通る断面を、前記対象体の観測用断面とする、
ことを特徴とする画像処理方法。
An image processing method using a processing unit,
The processor is
Using the 3D information of the object, generating a first candidate cross section of the object;
From the second candidate cross section obtained by deforming the first candidate cross section and the first candidate cross section, a plurality of feature points that are search parts of the object are detected,
Classifying the plurality of feature points into a predetermined feature point group;
A center point is obtained for each feature point group,
A cross section that passes through the plurality of obtained center points is an observation cross section of the object.
An image processing method.
請求項1記載に画像処理方法であって、
前記処理部は、
前記3次元情報中の3点の注目部位それぞれと法線ベクトルの関係が成り立つ1つの二次元平面を求め、求めた二次元平面を前記第1候補断面として決定する、
ことを特徴とする画像処理方法。
An image processing method according to claim 1,
The processor is
Obtaining one two-dimensional plane in which a normal vector relationship is established with each of three points of interest in the three-dimensional information, and determining the obtained two-dimensional plane as the first candidate cross section;
An image processing method.
請求項1記載に画像処理方法であって、
前記処理部は、
前記第1候補断面を変形させた前記第2候補断面を、前記第1候補断面の中心座標を通る水平軸および垂直軸を基準に、前記第1候補断面の回転、上下移動、左右移動、前後移動を任意に実施して、生成する、
ことを特徴とする画像処理方法。
An image processing method according to claim 1,
The processor is
The second candidate cross section obtained by deforming the first candidate cross section is rotated, vertically moved, moved left and right, back and forth, with respect to a horizontal axis and a vertical axis passing through the center coordinates of the first candidate cross section. Generate and perform any movement
An image processing method.
請求項1記載に画像処理方法であって、
前記処理部は、
前記3次元情報上にマッピングされた前記特徴点群各々の形状の直径が最大となる位置を求め、求めた最大直径の中央位置を前記中心点に決定する、
ことを特徴とする画像処理方法。
An image processing method according to claim 1,
The processor is
Find the position where the diameter of each shape of the feature point group mapped on the three-dimensional information is maximum, determine the center position of the determined maximum diameter as the center point,
An image processing method.
請求項1記載に画像処理方法であって、
前記処理部は、
前記対象体毎に、前記第1候補断面の座標、及び前記第2候補断面を生成する際の前記変形に関する制御パラメータを記憶する、
ことを特徴とする画像処理方法。
An image processing method according to claim 1,
The processor is
For each object, the coordinates of the first candidate cross section and the control parameters related to the deformation when generating the second candidate cross section are stored.
An image processing method.
処理部を備えた画像処理装置であって、
前記処理部は、
対象体の3次元情報を用いて、前記対象体の第1候補断面を生成し、
前記第1候補断面を変形させた第2候補断面及び前記第1候補断面から、前記対象体の探索部位である特徴点を複数検出し、
複数の前記特徴点を所定の特徴点群に分類し、
前記特徴点群毎に中心点を求め、
求めた複数の前記中心点を通る断面を、前記対象体の観測用断面とする、
ことを特徴とする画像処理装置。
An image processing apparatus including a processing unit,
The processor is
Using the 3D information of the object, generating a first candidate cross section of the object;
From the second candidate cross section obtained by deforming the first candidate cross section and the first candidate cross section, a plurality of feature points that are search parts of the object are detected,
Classifying the plurality of feature points into a predetermined feature point group;
A center point is obtained for each feature point group,
A cross section that passes through the plurality of obtained center points is an observation cross section of the object.
An image processing apparatus.
請求項6記載に画像処理装置であって、
前記処理部は、
前記3次元情報中の3点の注目部位それぞれと法線ベクトルの関係が成り立つ1つの二次元平面を求め、求めた二次元平面を前記第1候補断面として決定する、
ことを特徴とする画像処理装置。
An image processing apparatus according to claim 6,
The processor is
Obtaining one two-dimensional plane in which a normal vector relationship is established with each of three points of interest in the three-dimensional information, and determining the obtained two-dimensional plane as the first candidate cross section;
An image processing apparatus.
請求項6記載に画像処理装置であって、
前記処理部は、
前記第1候補断面を変形させた前記第2候補断面を、前記第1候補断面の中心座標を通る水平軸および垂直軸を基準に、前記第1候補断面の回転、上下移動、左右移動、前後移動を任意に実施して、生成する、
ことを特徴とする画像処理装置。
An image processing apparatus according to claim 6,
The processor is
The second candidate cross section obtained by deforming the first candidate cross section is rotated, vertically moved, moved left and right, back and forth, with respect to a horizontal axis and a vertical axis passing through the center coordinates of the first candidate cross section. Generate and perform any movement
An image processing apparatus.
請求項6記載に画像処理装置であって、
前記処理部は、
前記3次元情報上にマッピングされた前記特徴点群各々の形状の直径が最大となる位置を求め、求めた最大直径の中央位置を前記中心点に決定する、
ことを特徴とする画像処理装置。
An image processing apparatus according to claim 6,
The processor is
Find the position where the diameter of each shape of the feature point group mapped on the three-dimensional information is maximum, determine the center position of the determined maximum diameter as the center point,
An image processing apparatus.
請求項6記載に画像処理装置であって、
記憶部を更に備え、
前記処理部は、
前記対象体毎に、前記第1候補断面の座標、及び前記第2候補断面を生成する際の前記変形に関する制御パラメータを前記記憶部に記憶する、
ことを特徴とする画像処理装置。
An image processing apparatus according to claim 6,
A storage unit;
The processor is
For each of the objects, the coordinates of the first candidate cross section and the control parameters related to the deformation when generating the second candidate cross section are stored in the storage unit.
An image processing apparatus.
超音波装置であって、
対象体に対し、超音波を送受信する超音波探触子からの受信信号に基づく、前記対象体の3次元情報を処理する処理部と、
前記処理部で生成される前記対象体の断面画像を表示する表示部と、を備え、
前記処理部は、
前記3次元情報を用いて、前記対象体の第1候補断面を生成し、
前記第1候補断面を変形させた第2候補断面及び前記第1候補断面から、前記対象体の探索部位である特徴点を複数検出し、
複数の前記特徴点を所定の特徴点群に分類し、
前記特徴点群毎に中心点を求め、
求めた複数の前記中心点を通る断面を、前記対象体の観測用断面とし、
前記観測用断面の画像を前記表示部に表示するよう制御する、
ことを特徴とする超音波装置。
An ultrasonic device,
A processing unit for processing the three-dimensional information of the target object based on a reception signal from an ultrasonic probe that transmits and receives ultrasonic waves to the target object,
A display unit that displays a cross-sectional image of the object generated by the processing unit,
The processor is
Generating a first candidate cross section of the object using the three-dimensional information;
From the second candidate cross section obtained by deforming the first candidate cross section and the first candidate cross section, a plurality of feature points that are search parts of the object are detected,
Classifying the plurality of feature points into a predetermined feature point group;
A center point is obtained for each feature point group,
A cross section that passes through the plurality of obtained center points is an observation cross section of the object,
Control to display an image of the observation cross section on the display unit;
An ultrasonic device characterized by that.
請求項11記載に超音波装置であって、
前記処理部は、
前記3次元情報中の3点の注目部位それぞれと法線ベクトルの関係が成り立つ1つの二次元平面を求め、求めた二次元平面を前記第1候補断面として決定する、
ことを特徴とする超音波装置。
An ultrasonic device according to claim 11,
The processor is
Obtaining one two-dimensional plane in which a normal vector relationship is established with each of three points of interest in the three-dimensional information, and determining the obtained two-dimensional plane as the first candidate cross section;
An ultrasonic device characterized by that.
請求項11記載に超音波装置であって、
前記処理部は、
前記第1候補断面を変形させた前記第2候補断面を、前記第1候補断面の中心座標を通る水平軸および垂直軸を基準に、前記第1候補断面の回転、上下移動、左右移動、前後移動を任意に実施して、生成する、
ことを特徴とする超音波装置。
An ultrasonic device according to claim 11,
The processor is
The second candidate cross section obtained by deforming the first candidate cross section is rotated, vertically moved, moved left and right, back and forth, with respect to a horizontal axis and a vertical axis passing through the center coordinates of the first candidate cross section. Generate and perform any movement
An ultrasonic device characterized by that.
請求項13記載に超音波装置であって、
前記対象体は、生体の心臓であり、
前記処理部は、
前記第1候補断面の心尖の中心点と、僧帽弁および三尖弁の中心点を結ぶ線の中心点の2点を通る線を基軸にして、前記第1候補断面の回転、上下移動、左右移動、前後移動を任意に実施して、前記特徴点を複数検出する、
ことを特徴とする超音波装置。
An ultrasonic device according to claim 13,
The object is a living heart,
The processor is
Rotation, vertical movement of the first candidate cross section, with a line passing through two points of the center point of the apex of the first candidate cross section and the center point of the line connecting the center points of the mitral and tricuspid valves as the base axis, Execute left and right movement, back and forth arbitrarily, and detect a plurality of the feature points,
An ultrasonic device characterized by that.
請求項11記載に超音波装置であって、
前記処理部は、
前記3次元情報上にマッピングされた前記特徴点群各々の形状の直径が最大となる位置を求め、求めた最大直径の中央位置を前記中心点に決定する、
ことを特徴とする超音波装置。
An ultrasonic device according to claim 11,
The processor is
Find the position where the diameter of each shape of the feature point group mapped on the three-dimensional information is maximum, determine the center position of the determined maximum diameter as the center point,
An ultrasonic device characterized by that.
JP2017522298A 2015-06-05 2016-06-06 Image processing method and apparatus Active JP6449457B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015115079 2015-06-05
JP2015115079 2015-06-05
PCT/JP2016/066766 WO2016195110A1 (en) 2015-06-05 2016-06-06 Image processing method and device

Publications (2)

Publication Number Publication Date
JPWO2016195110A1 JPWO2016195110A1 (en) 2018-03-01
JP6449457B2 true JP6449457B2 (en) 2019-01-09

Family

ID=57441292

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017522298A Active JP6449457B2 (en) 2015-06-05 2016-06-06 Image processing method and apparatus

Country Status (2)

Country Link
JP (1) JP6449457B2 (en)
WO (1) WO2016195110A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111666902B (en) * 2020-06-10 2022-11-01 重庆紫光华山智安科技有限公司 Training method of pedestrian feature extraction model, pedestrian recognition method and related device
CN112767530B (en) * 2020-12-17 2022-09-09 中南民族大学 Heart image three-dimensional reconstruction method, device, equipment and storage medium

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8083678B2 (en) * 2003-04-16 2011-12-27 Eastern Virginia Medical School System, method and medium for acquiring and generating standardized operator independent ultrasound images of fetal, neonatal and adult organs
US8073215B2 (en) * 2007-09-18 2011-12-06 Siemens Medical Solutions Usa, Inc. Automated detection of planes from three-dimensional echocardiographic data
JP2009153600A (en) * 2007-12-25 2009-07-16 Toshiba Corp Ultrasonic diagnostic equipment, image processor, and program

Also Published As

Publication number Publication date
WO2016195110A1 (en) 2016-12-08
JPWO2016195110A1 (en) 2018-03-01

Similar Documents

Publication Publication Date Title
JP6745861B2 (en) Automatic segmentation of triplane images for real-time ultrasound imaging
JP5469101B2 (en) Medical image processing apparatus, medical image processing method, medical image diagnostic apparatus, operating method of medical image diagnostic apparatus, and medical image display method
JP6839328B2 (en) Fetal ultrasound image processing
US6824517B2 (en) Ultrasound quantification in real-time using acoustic data in more than two dimensions
JP2021501656A (en) Intelligent ultrasound system to detect image artifacts
US11931201B2 (en) Device and method for obtaining anatomical measurements from an ultrasound image
JP7375140B2 (en) Ultrasonic diagnostic equipment, medical image diagnostic equipment, medical image processing equipment, and medical image processing programs
JP6407959B2 (en) Model initialization based on view classification
WO2018205274A1 (en) Ultrasonic device, and method and system for transforming display of three-dimensional ultrasonic image thereof
JPH06503483A (en) Automatic digital image quantification system
WO2020117486A1 (en) Implant assessment using ultrasound and optical imaging
JP6449457B2 (en) Image processing method and apparatus
EP1952359A1 (en) System and method for generating for display two-dimensional echocardiography views from a three-dimensional image
JP6498316B2 (en) Ultrasonic imaging apparatus and image processing method
CN108024789A (en) Lesion detection and image prepare between volume
JP2007275150A (en) Ultrasonic diagnosing system
KR101619802B1 (en) Method for generating cardiac left ventricular three dimensional image and apparatus thereof
US20220207743A1 (en) System and method for two dimensional acoustic image compounding via deep learning
JP5396054B2 (en) Ultrasonic diagnostic equipment
JP2020043881A (en) Volume data processing device, method and program
JP2018068688A (en) Ultrasonic diagnostic device and ultrasonic image processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181205

R150 Certificate of patent or registration of utility model

Ref document number: 6449457

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250