JP2018157961A - Ultrasonic image processing device and method - Google Patents

Ultrasonic image processing device and method Download PDF

Info

Publication number
JP2018157961A
JP2018157961A JP2017056865A JP2017056865A JP2018157961A JP 2018157961 A JP2018157961 A JP 2018157961A JP 2017056865 A JP2017056865 A JP 2017056865A JP 2017056865 A JP2017056865 A JP 2017056865A JP 2018157961 A JP2018157961 A JP 2018157961A
Authority
JP
Japan
Prior art keywords
image
partial image
partial
bone
axis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017056865A
Other languages
Japanese (ja)
Other versions
JP6767904B2 (en
Inventor
俊徳 前田
Toshinori Maeda
俊徳 前田
健太 井上
Kenta Inoue
健太 井上
信康 井上
Nobuyasu Inoue
信康 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2017056865A priority Critical patent/JP6767904B2/en
Publication of JP2018157961A publication Critical patent/JP2018157961A/en
Application granted granted Critical
Publication of JP6767904B2 publication Critical patent/JP6767904B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

PROBLEM TO BE SOLVED: To accurately measure the length of a thighbone of a fetus on a tomographic image.SOLUTION: A thighbone image is extracted by pre-processing (binarization, labelling, region expansion, etc.) to a tomographic image (S12-S16). The thighbone image is divided into two so as to form a first partial image and a second partial image (S18). A first main axis and a second main axis are specified by analyzing the first partial image and the second partial image, and a first end point and a second end point are detected on the first main axis and the second main axis (S20 and S22). A distance between the first end point and the second end point is measured as the length of the thighbone (FL) (S24).SELECTED DRAWING: Figure 4

Description

本発明は超音波画像処理装置に関し、特に、長骨像の処理に関する。   The present invention relates to an ultrasonic image processing apparatus, and more particularly to processing of a long bone image.

医療の分野において超音波画像処理装置が活用されている。超音波画像処理装置は、超音波診断装置、情報処理装置、等によって構成される。以下においては、超音波診断装置について説明する。   Ultrasonic image processing apparatuses are used in the medical field. The ultrasonic image processing apparatus includes an ultrasonic diagnostic apparatus, an information processing apparatus, and the like. In the following, an ultrasonic diagnostic apparatus will be described.

超音波診断装置は、被検者への超音波の送受波により得られた受信信号に基づいて超音波画像を形成する装置である。産科においては、胎児の発育状態や健康状態を検査するために、妊婦に対して定期的に超音波検査が実施される。超音波検査においては通常、複数の計測が実行される。それは大腿骨長(FL:Femur Length)の計測が含まれる。大腿骨長は、大腿骨における2つの端点の間の距離として定義されるものである(例えば特許文献1を参照)。   The ultrasonic diagnostic apparatus is an apparatus that forms an ultrasonic image based on a reception signal obtained by transmitting and receiving ultrasonic waves to a subject. In obstetrics, in order to examine the growth and health of the fetus, ultrasound is regularly performed on pregnant women. In ultrasonic inspection, a plurality of measurements are usually performed. It includes measurement of femur length (FL). The femur length is defined as the distance between two end points in the femur (see, for example, Patent Document 1).

特開2015−171476号公報JP, 2015-171476, A

断層画像上において大腿骨長をマニュアルで計測すると、客観性が低下し、また煩雑であることから、大腿骨長の自動計測の実現が望まれている。その自動計測において、大腿骨像の解析によって大腿骨それ全体から骨軸を求め、その骨軸上において2つの端点を探索し、それらの間の距離を大腿骨長として計測することが考えられる。しかし、そのような手法によると、今までマニュアルで指定された端点から離れたところに端点が設定され易くなる。また、大腿骨において湾曲や変形が認められる場合において、大腿骨長を正しく求めることができない。この問題は、胎児の大腿骨以外の長骨(長管骨)を計測する場合においても指摘され得る。   When the femoral length is manually measured on a tomographic image, the objectivity is reduced and complicated, and therefore, it is desired to realize an automatic measurement of the femoral length. In the automatic measurement, it is conceivable to obtain the bone axis from the entire femur by analyzing the femur image, search for two end points on the bone axis, and measure the distance between them as the femur length. However, according to such a method, it becomes easy to set the end point away from the end point that has been manually specified. Further, when the femur is curved or deformed, the femur length cannot be obtained correctly. This problem can also be pointed out when measuring a long bone (long bone) other than the femur of the fetus.

本発明の目的は、長骨像の計測において、長骨像に対して2つの端点が適切に設定されるようにすることにある。あるいは、本発明の目的は、湾曲あるいは変形が認められる長骨像に対して2つの端点を自動的にしかも適切に設定できるようにすることにある。   An object of the present invention is to appropriately set two end points for a long bone image in measurement of the long bone image. Alternatively, an object of the present invention is to enable two end points to be automatically and appropriately set for a long bone image in which bending or deformation is recognized.

(1)実施形態に係る超音波画像処理装置は、断層画像から、第1骨端部及び第2骨端部を有する長骨像を抽出する前処理手段と、前記長骨像から複数の部分像を生成する手段であって、少なくとも、前記第1骨端部を有する第1部分像と前記第2骨端部を有する第2部分像とを生成する生成手段と、前記第1部分像の解析により前記第1部分像についての第1主軸を特定し、前記第1主軸上において前記第1骨端部のエッジとして第1端点を検出する第1検出手段と、前記第2部分像の解析により前記第2部分像についての第2主軸を特定し、前記第2主軸上において前記第2骨端部のエッジとして第2端点を検出する第2検出手段と、を含み、前記長骨像の計測において前記第1端点及び前記第2端点が利用される。   (1) An ultrasonic image processing apparatus according to an embodiment includes preprocessing means for extracting a long bone image having a first bone end portion and a second bone end portion from a tomographic image, and a plurality of portions from the long bone image Means for generating an image, the generating means for generating at least a first partial image having the first bone end and a second partial image having the second bone end; and First analysis means for identifying a first principal axis for the first partial image by analysis and detecting a first end point as an edge of the first bone end portion on the first principal axis; and analysis of the second partial image And a second detecting means for identifying a second principal axis for the second partial image and detecting a second end point as an edge of the second bone end portion on the second principal axis. In the measurement, the first end point and the second end point are used.

湾曲又は変形が認められる長骨像それ全体に基づいて端点検出用の単一の主軸を特定し、主軸上で各端点を検出すると、各端点が不適切な位置に設定されてしまい易い。これに対して、上記構成によれば、長骨像から第1部分像及び第2部分像が生成され、それらが個別的に処理される。すなわち、第1部分像に基づいて第1端点検出用の第1主軸が特定され、第2部分像に基づいて第1端点検出用の第2主軸が特定される。これにより、第1端点及び第2端点の特定精度を高められる。   If a single principal axis for end point detection is specified based on the entire long bone image in which bending or deformation is recognized, and each end point is detected on the main axis, each end point is likely to be set at an inappropriate position. On the other hand, according to the said structure, a 1st partial image and a 2nd partial image are produced | generated from a long bone image, and they are processed separately. That is, the first main axis for detecting the first end point is specified based on the first partial image, and the second main axis for detecting the first end point is specified based on the second partial image. Thereby, the specific precision of a 1st endpoint and a 2nd endpoint can be raised.

実施形態において、前記生成手段は、前記長骨像を分割することにより前記第1部分像及び前記第2部分像を生成する分割手段を含む。この構成によれば、長骨像が概ね横倒し状態で表示されることを前提として、分割という非常に簡易な手法によって、複数の部分像を迅速かつ簡便に生成できる。一般に、長骨像の作出に際しては、長骨像が垂直に立った姿勢とならないように、検査者によって、プローブの位置及び姿勢が調整される。そのような場合に上記構成が効果的に機能する。長骨像を物理的に分割してもよいが、長骨像を論理的に分割してもよい。   In the embodiment, the generating unit includes a dividing unit that generates the first partial image and the second partial image by dividing the long bone image. According to this configuration, it is possible to generate a plurality of partial images quickly and easily by a very simple method of division on the assumption that the long bone image is displayed in a generally lying state. Generally, when creating a long bone image, the position and posture of the probe are adjusted by an inspector so that the long bone image does not stand vertically. In such a case, the above configuration functions effectively. Although the long bone image may be physically divided, the long bone image may be logically divided.

実施形態において、前記分割手段は、前記長骨像を二分割することにより前記第1部分像及び前記第2部分像を生成する。その場合において、長骨像の代表点(重心点、中間点、検査者指定の座標等)を通過するように分割線を定めてもよい。   In the embodiment, the dividing unit generates the first partial image and the second partial image by dividing the long bone image into two. In that case, the dividing line may be determined so as to pass through the representative points (centroid point, intermediate point, inspector-designated coordinates, etc.) of the long bone image.

実施形態において、前記分割手段は、表示座標系の垂直軸に平行に前記長骨像を切断する。この構成によれば、分割に際して演算量を削減でき、より簡易に2つの部分像を生成できる。   In an embodiment, the dividing means cuts the long bone image parallel to the vertical axis of the display coordinate system. According to this configuration, the amount of calculation can be reduced at the time of division, and two partial images can be generated more easily.

実施形態において、前記第1主軸は、前記第1部分像内の第1代表座標を通る軸であって前記第1部分像の長手方向を表す軸であり、前記第2主軸は、前記第2部分像内の第2代表座標を通る軸であって前記第2部分像の長手方向を表す軸である。代表座標は例えば重心座標である。オブジェクトの長手方向を解析する各種の手法を利用して主軸の方向を特定できる。   In the embodiment, the first main axis is an axis that passes through the first representative coordinates in the first partial image and represents the longitudinal direction of the first partial image, and the second main axis is the second main axis. It is an axis that passes through the second representative coordinates in the partial image and represents the longitudinal direction of the second partial image. The representative coordinates are, for example, barycentric coordinates. The direction of the main axis can be specified using various methods for analyzing the longitudinal direction of the object.

実施形態において、前記前処理手段は、初期閾値を利用して元断層画像を二値化処理することにより前記断層画像としての二値化画像を生成する二値化処理手段と、前記二値化画像から仮の長骨像を抽出する抽出手段と、前記仮の長骨像に対して、前記初期閾値よりも低い閾値を設定した上で領域拡張処理を適用し、これにより前記仮の長骨像から前記長骨像を生成する領域拡張処理手段と、を含む。   In the embodiment, the preprocessing unit binarizes the original tomographic image using an initial threshold value to generate a binarized image as the tomographic image, and the binarization Extracting means for extracting a temporary long bone image from an image, and applying a region expansion process to the temporary long bone image after setting a threshold value lower than the initial threshold value, whereby the temporary long bone image Region expansion processing means for generating the long bone image from the image.

上記構成によれば、相対的に高い初期閾値を利用した二値化処理によって仮の長軸像を得て、相対的に低い閾値を利用した閾値処理に基づく領域拡張処理により、処理対象となる長骨像を生成できる。最初から低い閾値を利用して閾値処理を行った場合、長骨像以外の部分まで抽出してしまう可能性が高まるが、上記構成によれば、長骨像である可能性の高い初期領域を出発点とし、その周囲に存在している比較的に低い輝度をもった長骨像構成画素を探索的に特定することが可能となる。 According to the above configuration, a temporary long-axis image is obtained by binarization processing using a relatively high initial threshold value, and becomes a processing target by region expansion processing based on threshold processing using a relatively low threshold value. A long bone image can be generated. When threshold processing is performed using a low threshold from the beginning, there is an increased possibility of extracting a portion other than the long bone image, but according to the above configuration, an initial region that is likely to be a long bone image is detected. As a starting point, it is possible to search for a long bone image constituent pixel having a relatively low luminance existing around the starting point.

実施形態において、前記領域拡張処理手段は、前記仮の長骨像に対して、前記初期閾値よりも低い範囲内において閾値を段階的に引き下げながら複数回の領域拡張処理を適用する。この構成によれば段階的に長骨像が成長する。結果として、長骨像を構成しない画素群が連結対象となってしまう可能性を低減できる。   In the embodiment, the region expansion processing unit applies a plurality of region expansion processing to the temporary long bone image while gradually reducing the threshold value within a range lower than the initial threshold value. According to this configuration, the long bone image grows step by step. As a result, it is possible to reduce the possibility that a pixel group that does not constitute a long bone image becomes a connection target.

(2)実施形態に係る超音波画像処理装置は、胎児を表した断層画像から、第1骨端部及び第2骨端部を有する大腿骨像を抽出する工程と、前記大腿骨像を分割し、これにより前記第1骨端部を有する第1部分像及び前記第2骨端部を有する第2部分像を生成する工程と、前記第1部分像の解析により前記第1部分像についての第1主軸を特定し、前記第1主軸上において前記第1骨端部のエッジとして第1端点を検出する工程と、前記第2部分像の解析により前記第2部分像についての第2主軸を特定し、前記第2主軸上において前記第2骨端部のエッジとして第2端点を検出する工程と、前記第1端点と前記第2端点との間の距離を大腿骨長として計測する工程と、を含む。   (2) The ultrasonic image processing apparatus according to the embodiment extracts a femur image having a first bone end portion and a second bone end portion from a tomographic image representing a fetus, and divides the femoral image. And generating a first partial image having the first bone end and a second partial image having the second bone end, and analyzing the first partial image with respect to the first partial image. Identifying a first principal axis, detecting a first end point as an edge of the first bone end on the first principal axis, and analyzing the second partial image to determine a second principal axis for the second partial image Identifying and detecting a second end point as an edge of the second bone end on the second main axis, and measuring a distance between the first end point and the second end point as a femoral length; ,including.

上記画像処理方法は、ハードウエアの機能として、あるいは、ソフトウエアの機能として実現され得る。後者の場合には、画像処理方法を実施するためのプログラムが、可搬型記憶媒体を介して、あるいは、ネットワークを介して、超音波画像処理装置(超音波診断装置、情報処理装置等)にインストールされる。全工程が自動的に実行されるのが望ましいが、それらの中に、検査者の指定、選択等に基づいて半自動的に実行される工程が含まれてもよい。また、自動的に演算された各結果を検査者によって適宜修正できるように構成してもよい。   The image processing method can be realized as a hardware function or a software function. In the latter case, a program for executing the image processing method is installed in an ultrasonic image processing apparatus (ultrasonic diagnostic apparatus, information processing apparatus, etc.) via a portable storage medium or via a network. Is done. Although it is desirable that all the processes are automatically executed, a process that is executed semi-automatically based on an inspector's designation, selection, or the like may be included therein. Moreover, you may comprise so that each result calculated automatically can be suitably corrected by the examiner.

本発明によれば、長骨像の計測において、長骨像に対して2つの端点を適切に設定できる。あるいは、本発明によれば、湾曲あるいは変形が認められる長骨像に対しても、2つの端点を自動的にしかも適切に設定できるから、計測の客観性を高められる、検査者の負担を軽減できる、計測精度を高められる、等の多面的な利点を得られる。   According to the present invention, in measuring a long bone image, two end points can be appropriately set for the long bone image. Alternatively, according to the present invention, two end points can be set automatically and appropriately even for a long bone image in which bending or deformation is recognized, so that the objectivity of measurement can be improved and the burden on the examiner is reduced. Multi-faceted advantages such as being able to improve measurement accuracy.

実施形態に係る超音波診断装置の構成を示すブロック図である。It is a block diagram which shows the structure of the ultrasonic diagnosing device which concerns on embodiment. 胎児の大腿骨像の計測を示す図である。It is a figure which shows the measurement of the femur image of a fetus. 胎児の大腿骨像を含む断層画像を示す図である。It is a figure which shows the tomographic image containing the femur image of a fetus. 実施形態に係る超音波画像処理方法を示すフローチャートである。It is a flowchart which shows the ultrasonic image processing method which concerns on embodiment. 大腿骨像に対して設定された分割線を示す図である。It is a figure which shows the dividing line set with respect to the femur image. 第1部分像及び第2部分像の処理を示す図である。It is a figure which shows the process of a 1st partial image and a 2nd partial image. 実施形態に係る計測及び比較例に係る計測を示す図である。It is a figure which shows the measurement which concerns on embodiment, and the measurement which concerns on a comparative example. 端点検出方法の変形例を示す図である。It is a figure which shows the modification of an endpoint detection method. 処理領域設定方法の第1例を示す図である。It is a figure which shows the 1st example of a processing area setting method. 図9に示した第1例における端点検出を示す図である。FIG. 10 is a diagram showing endpoint detection in the first example shown in FIG. 9. 処理領域設定方法の第2例を示す図である。It is a figure which shows the 2nd example of the processing area setting method. 処理領域設定方法の第3例を示す図である。It is a figure which shows the 3rd example of a process area setting method. 前処理の具体例を示すフローチャートである。It is a flowchart which shows the specific example of pre-processing. 領域拡張処理の一例を示す図である。It is a figure which shows an example of an area | region expansion process.

以下、本発明の実施形態を図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1には、実施形態に係る超音波診断装置の構成がブロック図として示されている。この超音波診断装置は、超音波画像処理装置として機能するものであり、具体的には、病院等の医療機関に設置され、被検者に対する超音波の送受波により超音波画像を形成する装置である。本実施形態では、妊婦に対して超音波が送受波され、これによって胎児の大腿骨像を含む断層画像が形成される。   FIG. 1 is a block diagram showing the configuration of the ultrasonic diagnostic apparatus according to the embodiment. This ultrasonic diagnostic apparatus functions as an ultrasonic image processing apparatus. Specifically, the ultrasonic diagnostic apparatus is installed in a medical institution such as a hospital and forms an ultrasonic image by transmitting and receiving ultrasonic waves to a subject. It is. In the present embodiment, ultrasonic waves are transmitted / received to a pregnant woman, thereby forming a tomographic image including a femur image of a fetus.

図1において、プローブ10は、プローブヘッド、ケーブル及びコネクタによって構成される。コネクタが超音波診断装置本体に対して着脱可能に装着される。プローブヘッドは、例えば、妊婦の腹部表面上に当接される。プローブヘッドは、一次元配列された複数の振動素子からなるアレイ振動子を有している。アレイ振動子によって超音波ビームBEが形成され、それが電子走査される。電子走査方式として、電子セクタ走査方式、電子リニア方式、等が知られている。電子走査によってビーム走査面Sが形成される。図1において、rは深さ方向を示しており、φは電子走査方向を示している。1Dアレイ振動子に代えて、2Dアレイ振動子を設け、生体内の三次元空間からボリュームデータを得るようにしてもよい。体腔内挿入型プローブを利用することも可能である。   In FIG. 1, a probe 10 is composed of a probe head, a cable, and a connector. The connector is detachably attached to the ultrasonic diagnostic apparatus main body. A probe head is contact | abutted on the abdominal surface of a pregnant woman, for example. The probe head has an array transducer composed of a plurality of vibration elements arranged one-dimensionally. An ultrasonic beam BE is formed by the array transducer and electronically scanned. As an electronic scanning method, an electronic sector scanning method, an electronic linear method, and the like are known. A beam scanning surface S is formed by electronic scanning. In FIG. 1, r indicates the depth direction, and φ indicates the electronic scanning direction. Instead of the 1D array transducer, a 2D array transducer may be provided to obtain volume data from a three-dimensional space in the living body. An intracorporeal probe can also be used.

送受信回路12は、送信ビームフォーマー及び受信ビームフォーマーとして機能する電子回路である。送信時において、送受信回路12からアレイ振動子へ複数の送信信号が並列的に供給される。これにより送信ビームが形成される。受信時において、生体内からの反射波がアレイ振動子で受波される。これによりアレイ振動子から送受信回路12へ複数の受信信号が並列的に出力される。送受信回路12は、複数のアンプ、複数のA/D変換器、複数の遅延回路、加算回路、等を有する。送受信回路12において、複数の受信信号が整相加算(遅延加算)されて、受信ビームに相当するビームデータが形成される。電子走査方向に並ぶ複数のビームデータにより受信フレームデータが構成される。各ビームデータは深さ方向に並ぶ複数のエコーデータにより構成される。   The transmission / reception circuit 12 is an electronic circuit that functions as a transmission beam former and a reception beam former. During transmission, a plurality of transmission signals are supplied in parallel from the transmission / reception circuit 12 to the array transducer. As a result, a transmission beam is formed. At the time of reception, the reflected wave from the living body is received by the array transducer. As a result, a plurality of reception signals are output in parallel from the array transducer to the transmission / reception circuit 12. The transmission / reception circuit 12 includes a plurality of amplifiers, a plurality of A / D converters, a plurality of delay circuits, an addition circuit, and the like. In the transmission / reception circuit 12, a plurality of reception signals are subjected to phasing addition (delay addition) to form beam data corresponding to the reception beam. Received frame data is composed of a plurality of beam data arranged in the electronic scanning direction. Each beam data is composed of a plurality of echo data arranged in the depth direction.

断層画像形成部14は、受信フレームデータに基づいて断層画像データを生成する電子回路である。その電子回路は1又は複数のプロセッサを含む。断層画像形成部14は、例えば、検波回路、対数変換回路、フレーム相関回路、デジタルスキャンコンバータ(DSC)等を有する。断層画像データが画像処理部20及び表示処理部30へ送られている。   The tomographic image forming unit 14 is an electronic circuit that generates tomographic image data based on received frame data. The electronic circuit includes one or more processors. The tomographic image forming unit 14 includes, for example, a detection circuit, a logarithmic conversion circuit, a frame correlation circuit, a digital scan converter (DSC), and the like. The tomographic image data is sent to the image processing unit 20 and the display processing unit 30.

画像処理部20は、画像処理手段として機能するものであり、超音波画像(実施形態において胎児の大腿骨像を含む断層画像)に対して画像処理を適用するモジュールである。画像処理部20は、1又は複数のプロセッサを備える電子回路により構成されている。図1においては、画像処理部20が有する複数の機能が複数のブロックにより表現されている。具体的には、画像処理部20は、前処理手段として機能する前処理部22、分割手段又は生成手段として機能する分割部(生成部)24、検出手段として機能する検出部26、及び、計測手段として機能する計測部28を有する。個々のブロックがそれぞれ専用プロセッサによって構成されてもよい。それらのブロックが後述する制御部(CPU、動作プログラム)の機能として実現されてもよい。   The image processing unit 20 functions as an image processing unit, and is a module that applies image processing to an ultrasonic image (a tomographic image including a femur image of a fetus in the embodiment). The image processing unit 20 is configured by an electronic circuit including one or a plurality of processors. In FIG. 1, a plurality of functions of the image processing unit 20 are expressed by a plurality of blocks. Specifically, the image processing unit 20 includes a preprocessing unit 22 that functions as a preprocessing unit, a dividing unit (generation unit) 24 that functions as a dividing unit or a generation unit, a detection unit 26 that functions as a detection unit, and measurement. It has a measuring unit 28 that functions as a means. Each individual block may be constituted by a dedicated processor. Those blocks may be realized as functions of a control unit (CPU, operation program) described later.

前処理部22は、抽出手段として機能し、あるいは、フィルタ処理手段、二値化処理手段、ラベリング処理手段、領域拡張処理手段、等として機能する。前処理部22によって、断層画像(元画像)が処理され、その断層画像から二値化像としての大腿骨像が抽出される。換言すれば、大腿骨像以外の部分が除去された二値化画像が得られる。大腿骨像は、分割部24へ送られ、必要に応じて、表示処理部30にも送られる。   The preprocessing unit 22 functions as an extraction unit, or functions as a filter processing unit, a binarization processing unit, a labeling processing unit, a region expansion processing unit, and the like. The preprocessing unit 22 processes the tomographic image (original image), and extracts a femur image as a binarized image from the tomographic image. In other words, a binarized image from which parts other than the femur image are removed is obtained. The femur image is sent to the dividing unit 24 and also sent to the display processing unit 30 as necessary.

分割部24は、大腿骨像から複数の部分像を生成するものであり、具体的には、大腿骨像を二分割することにより、第1部分像及び第2部分像を生成するものである。第1部分像及び第2部分像が検出部26へ送られる。必要に応じて、表示処理部30にも送られる。大腿骨像の分割方式として、物理的な分割及び論理的な分割があげられる。前者においては、例えば、大腿骨像の実体又はデータが分割され、後者においては、例えば、大腿骨像に対して複数の処理領域が定められる。個々の処理領域は独立しており、そこに含まれる部分像だけが処理対象となる。 The dividing unit 24 generates a plurality of partial images from the femur image. Specifically, the dividing unit 24 generates a first partial image and a second partial image by dividing the femoral image into two. . The first partial image and the second partial image are sent to the detection unit 26. It is also sent to the display processing unit 30 as necessary. Examples of the femoral image division method include physical division and logical division. In the former, for example, the substance or data of the femur image is divided, and in the latter, for example, a plurality of processing regions are defined for the femur image. Each processing area is independent, and only a partial image included therein is a processing target.

検出部26は、主軸特定手段、探索範囲設定手段、及び、エッジ検出手段として機能する。具体的には、個々の部分像ごとに、部分像に基づいて重心及びそれを通る主軸を演算する。続いて、主軸上においてエッジ検出を行うことにより端点を特定する。その場合、望ましくは、重心に近い側から遠い方へエッジが探索される。最初に検出されたエッジが端点(第1端点、第2端点)として特定される。2つの端点の座標情報が計測部28へ送られる。必要に応じて、その座標情報が表示処理部30にも送られる。計測部28は、第1端点と第2端点との間の距離を演算し、それを大腿骨長(FL)として表示処理部30へ出力する。2つの端点を基礎とする他の計測が実行されてもよい。   The detection unit 26 functions as a spindle specifying unit, a search range setting unit, and an edge detection unit. Specifically, for each individual partial image, the center of gravity and the principal axis passing therethrough are calculated based on the partial image. Subsequently, end points are specified by performing edge detection on the main axis. In that case, an edge is preferably searched for in the direction far from the side close to the center of gravity. The edge detected first is specified as an end point (first end point, second end point). The coordinate information of the two end points is sent to the measuring unit 28. The coordinate information is also sent to the display processing unit 30 as necessary. The measurement unit 28 calculates the distance between the first end point and the second end point, and outputs it to the display processing unit 30 as the femur length (FL). Other measurements based on the two end points may be performed.

表示処理部30は、画像合成機能、カラー演算機能等を有する電子回路である。その電子回路は1又は複数のプロセッサを有する。表示処理部30においてグラフィック画像が生成されてもよい。表示器32の表示画面には、大腿骨像を含む断層画像(元画像)が表示される。その断層画像上には、必要に応じて、マーカー、ライン等のグラフィク要素が重畳表示される。また、元画像上又はその近傍に大腿骨長が数値として表示される。処理途中の2つの部分像、又は、処理後の2つの部分像が、主軸や端点を示すグラフィック要素群と共に、表示されもよい。表示器32は、LCD又は有機ELデバイス等によって構成される。   The display processing unit 30 is an electronic circuit having an image composition function, a color calculation function, and the like. The electronic circuit has one or more processors. A graphic image may be generated in the display processing unit 30. On the display screen of the display 32, a tomographic image (original image) including a femur image is displayed. On the tomographic image, graphic elements such as markers and lines are superimposed and displayed as necessary. Further, the femur length is displayed as a numerical value on or near the original image. Two partial images in the middle of processing or two partial images after processing may be displayed together with a graphic element group indicating the principal axis and end points. The display 32 is configured by an LCD or an organic EL device.

制御部34は、図1に示されている各構成を制御する制御手段として機能し、それはCPU及び動作プログラムにより構成される。制御部34には操作パネル36が接続されている。操作パネル36は、トラックボール、スイッチ、キーボード等の入力デバイスを有する。   The control unit 34 functions as a control unit that controls each component illustrated in FIG. 1, and is configured by a CPU and an operation program. An operation panel 36 is connected to the control unit 34. The operation panel 36 has input devices such as a trackball, a switch, and a keyboard.

以下、図2以降の各図を参照しながら、実施形態に係る超音波画像処理方法を詳しく説明する。   Hereinafter, the ultrasonic image processing method according to the embodiment will be described in detail with reference to FIGS.

図2には、大腿骨長の計測が例示されている。マニュアルで大腿骨長の計測を行う場合、大腿骨像40における一方の端部の輪郭上に端点42が定められ、大腿骨像40における他方の端部の輪郭上に端点44が定められる。その後、2つの端点42,44を通過する経路46上において、2つの端点42,44間の距離48が自動演算される。その距離が大腿骨長とされる。端点42,44を定める位置によって、計測結果である大腿骨長が変動する。一般には、各端部の中間位置(あるいは各端部に含まれる窪みの底)に各端点が設定される。   FIG. 2 illustrates the measurement of the femur length. When manually measuring the femoral length, an end point 42 is defined on the contour of one end of the femur image 40 and an end point 44 is defined on the other end of the femur image 40. Thereafter, a distance 48 between the two end points 42 and 44 is automatically calculated on the path 46 passing through the two end points 42 and 44. The distance is taken as the femur length. Depending on the position where the end points 42 and 44 are defined, the femur length as a measurement result varies. In general, each end point is set at an intermediate position of each end (or the bottom of a depression included in each end).

図3には、胎児の断層画像50が示されている。その断層画像50には、比較的に高い輝度をもった大腿骨像52が含まれる。しかし、大腿骨像の周囲にも、比較的に高い輝度をもった幾つかの部分が存在している。そこで、大腿骨像52を選択的に抽出するために、断層画像に対して後述する前処理が適用される。なお、必要に応じて、画像処理範囲を画定するROI(関心領域)54が設定される。そのようなROI54によらずに、断層画像全部を画像処理対象としてもよい。   FIG. 3 shows a tomographic image 50 of the fetus. The tomographic image 50 includes a femur image 52 having a relatively high luminance. However, there are some portions with relatively high luminance around the femur image. Therefore, in order to selectively extract the femur image 52, preprocessing described later is applied to the tomographic image. Note that an ROI (region of interest) 54 that defines an image processing range is set as necessary. Instead of such an ROI 54, the entire tomographic image may be subject to image processing.

図4には本実施形態に係る超音波画像処理方法がフローチャートとして示されている。その超音波画像処理方法は、図1に示した画像処理部において実行されるものである。   FIG. 4 shows a flowchart of the ultrasonic image processing method according to the present embodiment. The ultrasonic image processing method is executed in the image processing unit shown in FIG.

S12では、入力された断層画像(元画像)が二値化処理される。それに先立って断層画像がフィルタ処理されてもよい。二値化処理に際しては、閾値(後述する領域拡張処理で設定される閾値との関係では初期閾値)が利用される。例えば、閾値以上の画素値が1に変換され、閾値未満の画素値が0に変換される。この段階の閾値として、相対的に見て高い値が設定される。元画像のヒストグラムを生成し、そのヒストグラムから閾値を定めるようにしてもよい。二値化処理後の画像に対してフィルタ処理が施されてもよい。その場合、メディアンフィルタが利用されてもよい。   In S12, the input tomographic image (original image) is binarized. Prior to that, the tomographic image may be filtered. In the binarization process, a threshold value (an initial threshold value in relation to a threshold value set in an area expansion process described later) is used. For example, pixel values greater than or equal to the threshold are converted to 1, and pixel values less than the threshold are converted to 0. A relatively high value is set as the threshold value at this stage. A histogram of the original image may be generated and a threshold value may be determined from the histogram. Filter processing may be applied to the image after binarization processing. In that case, a median filter may be used.

S14では、二値化画像に対してラベリング処理が適用され、つまり、それぞれ孤立した複数の領域が特定される。個々の領域は画素値1をもった画素の集合である。その中から、面積、形態、位置等に関する一定の条件を満たす領域として、仮の大腿骨像が抽出(仮抽出)される。例えば、最大の面積を有する領域、及び、2番目に大きな面積を有する領域を特定した上で、形態的な条件又は位置的な条件に従って、いずれかを選択するようにしてもよい。   In S14, a labeling process is applied to the binarized image, that is, a plurality of isolated regions are specified. Each area is a set of pixels having a pixel value of 1. Among them, a temporary femur image is extracted (temporary extraction) as a region that satisfies certain conditions regarding area, form, position, and the like. For example, after specifying a region having the largest area and a region having the second largest area, any one may be selected according to the morphological condition or the positional condition.

S16では、仮の大腿骨像に対して領域拡張処理が適用される。具体的には、リージョングローイング処理が適用される。これに関しては、後に図13及び図14を用いて詳述するが、この領域拡張処理では、通常、探索処理(連結処理)が複数回にわたって繰り返し実行される。その過程において、大腿骨像の長手方向(長軸方向、主軸方向)へ、探索範囲が段階的に拡大される。同時に、閾値が段階的に引き下げられる。各探索処理においては、既に求まっている領域(シード領域)に接する又は連なる1又は複数の大腿骨像構成画素が探索され、それらが大腿骨像の一部として組み込まれる。S16の処理結果として、質の高い大腿骨像が抽出又は生成される。その大腿骨像は二値化画像である。なお、検査者が断層画像上において指定した点から領域を探索する手法が利用されてもよい。   In S16, the region expansion process is applied to the temporary femur image. Specifically, region growing processing is applied. This will be described in detail later with reference to FIG. 13 and FIG. 14, but in this area expansion process, the search process (concatenation process) is usually repeatedly executed a plurality of times. In the process, the search range is expanded stepwise in the longitudinal direction (long axis direction, principal axis direction) of the femur image. At the same time, the threshold is lowered step by step. In each search process, one or a plurality of femur image constituent pixels that are in contact with or continuous with a previously obtained region (seed region) are searched, and these are incorporated as a part of the femur image. As a result of the processing in S16, a high-quality femur image is extracted or generated. The femur image is a binarized image. Note that a method of searching for an area from a point designated on the tomographic image by the examiner may be used.

S18では、大腿骨像から複数の部分像が生成される。本実施形態では、大腿骨像に対して分割の基準となる分割線が定められ、その分割線を境として、大腿骨像が二分割される。これにより、第1端部(例えば左端部)を有する第1部分像と、第2端部(例えば右端部)を有する第2部分像と、が生成される。これに関しては、後に図5を用いて具体例に説明する。   In S18, a plurality of partial images are generated from the femur image. In the present embodiment, a division line serving as a division reference is determined for the femur image, and the femur image is divided into two with the division line as a boundary. As a result, a first partial image having a first end (for example, the left end) and a second partial image having a second end (for example, the right end) are generated. This will be described in a specific example later with reference to FIG.

S20AとS20Bは、並列的に実行され得るものである。同じく、それらの後に実行されるS22AとS22Bも、並列的に実行され得るものである。S20AとS22Aを併せて、第1検出手段に相当する第1検出工程と称することができる。S20BとS22Bを併せて、第2検出手段に相当する第2検出工程と称することができる。   S20A and S20B can be executed in parallel. Similarly, S22A and S22B executed after them can also be executed in parallel. S20A and S22A can be collectively referred to as a first detection step corresponding to the first detection means. S20B and S22B can be collectively referred to as a second detection step corresponding to the second detection means.

S20Aでは、第1部分像が解析され、第1重心及びそれを通過する第1主軸が特定される。第1重心は第1部分像の重心であり、第1主軸は第1部分像の長手方向を向く軸であって、それは骨軸に相当する。第1部分像の解析に際して、本実施形態では、後に詳述するように、第1部分像についての重心回り二次モーメントが演算され、その演算結果から、第1主軸の角度が特定される。そのような手法に代えて、主成分分析法その他の手法を利用することが可能である。S22Aでは、第1主軸上において、第1部分像の重心側からエッジ探索が実行され、検出された最初のエッジが第1端点として特定される。後述するように、探索範囲を限定してもよい。   In S20A, the first partial image is analyzed, and the first centroid and the first principal axis passing through the first centroid are specified. The first center of gravity is the center of gravity of the first partial image, and the first principal axis is an axis facing the longitudinal direction of the first partial image, which corresponds to the bone axis. In the analysis of the first partial image, in the present embodiment, as described in detail later, a second moment around the center of gravity of the first partial image is calculated, and the angle of the first main axis is specified from the calculation result. Instead of such a method, a principal component analysis method or other methods can be used. In S22A, an edge search is executed from the center of gravity of the first partial image on the first principal axis, and the detected first edge is specified as the first end point. As will be described later, the search range may be limited.

S20Bでは、第2部分像が解析される。すなわち、上記S20Aと同様に、第2重心及びそれを通過する第2主軸が特定される。S22Aでは、第2主軸上において、第2部分像の重心側からエッジ探索が実行され、検出された最初のエッジが第2端点として特定される。S20A、S22A、S20B及びS22Bの具体的な内容については、後に図6を用いて説明する。S20A、S22Aで用いられる計算式についても後に説明する。S24では第1端点と第2端点との間の距離として大腿骨長が演算される。他の計測が実行されてもよい。   In S20B, the second partial image is analyzed. That is, as in S20A, the second center of gravity and the second main axis passing through the second center of gravity are specified. In S22A, an edge search is executed from the center of gravity of the second partial image on the second principal axis, and the detected first edge is specified as the second end point. Specific contents of S20A, S22A, S20B, and S22B will be described later with reference to FIG. The calculation formulas used in S20A and S22A will be described later. In S24, the femoral length is calculated as the distance between the first end point and the second end point. Other measurements may be performed.

図5には、画像分割方法が例示されている。図示の例では、大腿骨像56の重心58が演算される。一般に、X軸方向における重心座標と、Y軸方向における重心座標と、が別々に演算される。ここで、X軸及びY軸は表示座標系の水平軸及び垂直軸である。図示の例では、重心58を通過する垂直線として分割線60が定められている。分割線60を境として、大腿骨像56が二分割される。これにより、第1部分像62と第2部分像64とが生じる。分割線60の位置を規定する代表点として、重心58以外の点を利用してもよい。例えば、大腿骨像を構成する画素群が有する座標の中から、X方向の最小座標とX方向の最大座標とを特定し、それらの中間座標に分割線を設定してもよい。上記のROIが定められる場合、ROIを基準に分割線を定めてもよい。   FIG. 5 illustrates an image dividing method. In the illustrated example, the center of gravity 58 of the femur image 56 is calculated. In general, the barycentric coordinate in the X-axis direction and the barycentric coordinate in the Y-axis direction are calculated separately. Here, the X axis and the Y axis are the horizontal axis and the vertical axis of the display coordinate system. In the illustrated example, a dividing line 60 is defined as a vertical line passing through the center of gravity 58. The femur image 56 is divided into two with the dividing line 60 as a boundary. As a result, a first partial image 62 and a second partial image 64 are generated. A point other than the center of gravity 58 may be used as a representative point that defines the position of the dividing line 60. For example, the minimum coordinate in the X direction and the maximum coordinate in the X direction may be specified from the coordinates of the pixel group constituting the femur image, and a dividing line may be set as the intermediate coordinate between them. When the above ROI is determined, the dividing line may be determined based on the ROI.

Y軸に平行な分割線60を定めることにより、データ分割あるいは領域分割が容易となる。大腿骨像が水平姿勢あるいはそれに準ずる姿勢でない可能性があれば、例えば、大腿骨像56の重心58に加え、その重心58を通過する主軸を演算し、重心58を通り主軸に直交する方向として、分割線を定めるようにしてもよい。単に、重心58を通り、且つ、重心近傍に存在する辺縁に直交する方向として、分割線を定めてもよい。上述したように、大腿骨像56の分割は物理的に又は論理的に行うことが可能である。   By defining the dividing line 60 parallel to the Y axis, data division or region division is facilitated. If there is a possibility that the femur image is not in a horizontal posture or a posture equivalent thereto, for example, in addition to the center of gravity 58 of the femur image 56, the main axis passing through the center of gravity 58 is calculated, and the direction passing through the center of gravity 58 and perpendicular to the main axis A dividing line may be defined. The dividing line may be defined simply as a direction that passes through the center of gravity 58 and is orthogonal to the edge existing in the vicinity of the center of gravity. As described above, the femur image 56 can be divided physically or logically.

図6には、端点検出方法(端点特定方法)が例示されている。図6の上段には第1部分像62が示されており、図6の下段には第2部分像64が示されている。第1部分像62に対しては、重心66及びそれを通過する第1主軸68が演算される。その際には、例えば、以下の(1)式〜(3)式に示す画像の2次モーメントが計算される。   FIG. 6 illustrates an end point detection method (end point specifying method). A first partial image 62 is shown in the upper part of FIG. 6, and a second partial image 64 is shown in the lower part of FIG. 6. For the first partial image 62, the center of gravity 66 and the first main axis 68 passing therethrough are calculated. In that case, for example, the second moment of the image shown in the following formulas (1) to (3) is calculated.

(1)式に示すM2,0はx軸(図6においてX軸)についての二次モーメントであり、それはx軸方向の分散に相当する。(2)式に示すM0,2はy軸(図6においてY軸)についての二次モーメントであり、それはy軸方向の分散に相当する。(3)式に示すM1,1はx軸y軸についての二次モーメントであり、それはx軸y軸についての共分散に相当する。(1)式〜(3)式中の各要素は以下のように定義される。 M 2,0 shown in the equation (1) is a second moment about the x-axis (X-axis in FIG. 6), which corresponds to dispersion in the x-axis direction. M 0,2 shown in the equation (2) is a second moment about the y-axis (Y-axis in FIG. 6), which corresponds to dispersion in the y-axis direction. M 1,1 shown in the equation (3) is a second moment about the x-axis and the y-axis, which corresponds to the covariance about the x-axis and the y-axis. Each element in the formulas (1) to (3) is defined as follows.

(4)式は二値化画像(画素分布)を構成する各画素B(x,y)が1又は0の値を有することを示している。(5)式は重心のx座標を求める計算式である。(6)式は重心のy座標を求める計算式である。そして、以下の(7)式に従って、主軸の角度θが演算される。   Expression (4) indicates that each pixel B (x, y) constituting the binarized image (pixel distribution) has a value of 1 or 0. Formula (5) is a calculation formula for obtaining the x coordinate of the center of gravity. Equation (6) is a calculation equation for obtaining the y coordinate of the center of gravity. Then, the angle θ of the main shaft is calculated according to the following equation (7).

主軸の角度θ及び重心の座標から、主軸の位置及び方向が特定される。以上の計算式は一例である。他の計算式あるいは他の方法によって、主軸を特定するようにしてもよい。例えば、主成分分析法を用いてもよい。   The position and direction of the main axis are specified from the angle θ of the main axis and the coordinates of the center of gravity. The above calculation formula is an example. The main axis may be specified by another calculation formula or another method. For example, a principal component analysis method may be used.

図6に示した第1部分像62においては、以上の計算式に従って、第1主軸68が特定される。その上で、第1主軸68に沿ってエッジが探索され、最初に検出されたエッジとして、第1端点72が特定される。エッジ探索に際しては、重心を探索開始点としてもよい。処理対象となる部分像が分割後の左側像であれば、探索方向は左側となり、処理対象となる部分像が分割後の右側像であれば、探索方向は右側となる。   In the first partial image 62 shown in FIG. 6, the first main axis 68 is specified according to the above calculation formula. After that, an edge is searched along the first main axis 68, and the first end point 72 is specified as the first detected edge. In the edge search, the center of gravity may be used as the search start point. If the partial image to be processed is the left image after division, the search direction is the left side. If the partial image to be processed is the right image after division, the search direction is the right side.

図6に示した第2部分像64においても、まず、上記計算式に従って、第2重心74及びそれを通過する第2主軸76が特定される。続いて、第2主軸76に沿ってエッジが探索される。最初に検出されたエッジが第2端点80とされる。 Also in the second partial image 64 shown in FIG. 6, first, the second centroid 74 and the second main axis 76 passing through the second centroid 74 are specified according to the above calculation formula. Subsequently, an edge is searched along the second main axis 76. The first detected edge is set as the second end point 80.

本実施形態によれば、分割後の部分像62,64に基づいて、それぞれエッジ検出用の主軸68,76を特定できるので、大腿骨像に曲がりや変形が認められる場合であっても、比較的に正確に2つの端点72,80を特定できる。すなわち、大腿骨像それ全体における湾曲あるいは変形に比べて、個々の部分像62,64における湾曲あるいは変形は小さくなるので(例えば1/2の量になるので)、各主軸68,76が部分像62,64における骨端部の中間位置又はその付近を通過する可能性を高められる。本発明者らの研究によれば、多くの場合において、各端点をかなり正確に定められること、同時に、熟練した医師がマニュアルで各端点を定める位置と同じような位置に各端点を定められこと、が確認されている。   According to the present embodiment, since the edge detection main axes 68 and 76 can be specified based on the divided partial images 62 and 64, respectively, even if the femur image is bent or deformed, the comparison is performed. Therefore, the two end points 72 and 80 can be specified accurately. That is, since the curvature or deformation in each of the partial images 62 and 64 is smaller than the curvature or deformation in the entire femur image (for example, the amount is ½), each of the main axes 68 and 76 is a partial image. The possibility of passing through the intermediate position of the epiphysis at 62 and 64 or in the vicinity thereof is increased. According to our research, in many cases, each endpoint can be determined fairly accurately, and at the same time, each doctor can determine each endpoint at a position similar to the position where the skilled doctor manually defines each endpoint. , Has been confirmed.

図7には、大腿骨長の計測例が示されている。大腿骨像56においては、上記手法により第1端点72と第2端点80とが特定されている。それらを通過する直線82上において、2つの端点72,80の間の距離84が計測され、それが大腿骨長(FL)として出力される。ちなみに、図7に示した大腿骨像56それ全体から主軸を求めると、大腿骨像56の湾曲の影響をかなり受けて、直線82Aのように主軸が特定されてしまう。その直線82A上において2つの端点72A,80Aを特定し、それらの距離84Aを求めると、その距離84Aは、上記距離84とはかなり異なったものとなる。湾曲した大腿骨像56に対しては、上記分割方法が計測精度を担保する上で効果的であることを確認できる。   FIG. 7 shows an example of measuring the femur length. In the femur image 56, the first end point 72 and the second end point 80 are specified by the above method. On the straight line 82 passing through them, the distance 84 between the two end points 72, 80 is measured and output as the femur length (FL). Incidentally, when the main axis is obtained from the entire femur image 56 shown in FIG. 7, the main axis is specified as a straight line 82A due to the influence of the curvature of the femoral image 56. When the two end points 72A and 80A are specified on the straight line 82A and the distance 84A thereof is obtained, the distance 84A is considerably different from the distance 84. For the curved femur image 56, it can be confirmed that the above dividing method is effective in ensuring the measurement accuracy.

次に、図8乃至図12を用いて、幾つかのバリエーションについて説明する。図8に示すように、第1部分像62において、重心66を通過する主軸68が特定された段階で、例えば、妊娠週数等に基づいて、第1主軸68上に探索範囲を定めるようにしてもよい。2つのライン86,88が探索範囲の両端を示している。その探索範囲内においてエッジ検出が実行され、これにより第1端点72が求められる。これによれば、探索精度を向上でき、かつ、探索時間を短縮化できる。   Next, some variations will be described with reference to FIGS. As shown in FIG. 8, when the main axis 68 passing through the center of gravity 66 is specified in the first partial image 62, a search range is defined on the first main axis 68 based on, for example, the number of weeks of pregnancy. May be. Two lines 86 and 88 indicate both ends of the search range. Edge detection is performed within the search range, whereby the first end point 72 is obtained. According to this, search accuracy can be improved and search time can be shortened.

図9には、領域設定方法の第1例が示されている。分割線による画像の二分割ではなく、複数の処理領域を設定し、各処理領域の部分像に対して上記処理を適用するものである。図9に示す第1例では、大腿骨像90において、重心92を通過する主軸94が特定され、その主軸94を基準として、互いに離れた2つの処理領域96,98が設定されている。その場合、X軸方向の最小座標が含まれるように処理領域96が設定され、X軸方向の最大座標が含まれるように処理領域98が設定されてもよい。図示の例では、各処理領域96,98の中心線が主軸94に一致するように、各処理領域96,98が定められている。このような領域設定により、大腿骨像90の曲がりの影響をより受け難くなる。   FIG. 9 shows a first example of the region setting method. Instead of dividing the image by dividing lines, a plurality of processing areas are set, and the above processing is applied to partial images of the respective processing areas. In the first example shown in FIG. 9, the main axis 94 that passes through the center of gravity 92 is specified in the femur image 90, and two processing regions 96 and 98 that are separated from each other are set on the basis of the main axis 94. In this case, the processing area 96 may be set so as to include the minimum coordinate in the X-axis direction, and the processing area 98 may be set so as to include the maximum coordinate in the X-axis direction. In the illustrated example, the processing areas 96 and 98 are determined so that the center lines of the processing areas 96 and 98 coincide with the main axis 94. Such an area setting makes it less susceptible to the bending of the femur image 90.

図10には、上記のように設定された2つの処理領域96,98内の2つの部分像100、106についての処理が示されている。部分像100に基づいて主軸102が特定され、その主軸102上において端点104が特定される。同様に、部分像106に基づいて主軸108が特定され、その主軸108上において端点110が特定される。   FIG. 10 shows processing for two partial images 100 and 106 in the two processing regions 96 and 98 set as described above. A main axis 102 is specified based on the partial image 100, and an end point 104 is specified on the main axis 102. Similarly, the main axis 108 is specified based on the partial image 106, and the end point 110 is specified on the main axis 108.

図11には、領域設定方法の第2例が示されている。大腿骨像90に対して、部分的に重複した関係をもって2つの処理領域112,114が設定されている。符号115はそれらの重複部分を示している。2つの処理領域112,114を設定する際には、上記第1例で採用された設定方法を利用することが可能であり、他の方法を利用することも可能である。処理領域112内の部分像に基づいて主軸116が特定されており、処理領域114内の部分像に基づいて主軸118が特定されている。   FIG. 11 shows a second example of the region setting method. Two processing regions 112 and 114 are set to the femur image 90 with a partially overlapping relationship. Reference numeral 115 indicates the overlapping portion. When setting the two processing areas 112 and 114, the setting method employed in the first example can be used, and other methods can also be used. The main axis 116 is specified based on the partial image in the processing area 112, and the main axis 118 is specified based on the partial image in the processing area 114.

図12には、領域設定方法の第3例が示されている。図示されるように、大腿骨像90に対して、何等かの基準に基づいて、湾曲した骨軸に沿って並ぶ3つ以上の処理領域が設定されてもよい。図示の例では、4つの処理領域120,122,124,126が設定されている。   FIG. 12 shows a third example of the region setting method. As illustrated, three or more processing regions arranged along the curved bone axis may be set for the femur image 90 based on some criterion. In the illustrated example, four processing areas 120, 122, 124, and 126 are set.

次に、図13及び図14を用いて、図2に示した領域拡張処理の具体例について説明する。領域拡張処理では、リージョングローイング法が実行される。正確には、以下のように、リージョングローイング法を発展させた又は修正した方法が実行される。   Next, a specific example of the area expansion process shown in FIG. 2 will be described with reference to FIGS. In the region expansion process, a region growing method is executed. To be precise, a method developed or modified from the region growing method is executed as follows.

S30では、妊娠週数に応じて定まる平均長(大腿骨長の平均値)と標準偏差(大腿骨長のばらつき)とに基づいて、目標長が演算される。より詳しくは、標準偏差から、後述する探索範囲についての長軸方向の可変量(平均値を基準としてその前後に及ぶ範囲)が定められ、その可変量を見込んだ最大値として目標長が設定される。もっとも、そのような設定は例示に過ぎないものである。S32及びS34が探索領域設定工程に相当し、S35及びS36が閾値設定工程に相当する。 In S30, the target length is calculated based on the average length (average value of femur length) and standard deviation (variation of femur length) determined according to the number of gestational weeks. More specifically, from the standard deviation, a variable amount in the major axis direction (a range extending before and after the average value) is determined for the search range described later, and the target length is set as the maximum value that allows for the variable amount. The However, such a setting is merely an example. S32 and S34 correspond to the search area setting step, and S35 and S36 correspond to the threshold setting step.

具体的には、S32では、シード領域に基づいて、重心座標、長軸角度、長軸長、及び、短軸長が演算される。シード領域は、最初の段階では、二値化処理及びラベリング処理により抽出された仮の大腿骨像を構成する領域であり、後の段階では、直前の連結処理を経た大腿骨像を構成する領域である。長軸は上記主軸であり、短軸は主軸に直交する軸である。長軸の特定に際しては、上記のように画像の二次モーメントを計算するようにしてもよいし、主成分分析等の他の方法を利用してもよい。長軸長は、例えば、目標長に対して係数を乗算することにより定めることが可能である。その係数を連結処理の回数の増大に応じて変化(増大)させるのが望ましい。短軸長は、例えば、目標長に対して他の係数を乗算することにより定めることが可能である。短軸長については連結処理の回数によらずに一定値とされる。もちろん、短軸長を可変させてもよい。   Specifically, in S32, the barycentric coordinates, major axis angle, major axis length, and minor axis length are calculated based on the seed region. The seed region is a region constituting the temporary femur image extracted by the binarization process and the labeling process in the first stage, and the region constituting the femur image that has undergone the previous connection process in the later stage. It is. The major axis is the main axis, and the minor axis is an axis orthogonal to the main axis. When specifying the long axis, the second moment of the image may be calculated as described above, or another method such as principal component analysis may be used. The major axis length can be determined, for example, by multiplying the target length by a coefficient. It is desirable to change (increase) the coefficient in accordance with an increase in the number of times of connection processing. The short axis length can be determined, for example, by multiplying the target length by another coefficient. The short axis length is a constant value regardless of the number of connection processes. Of course, the short axis length may be varied.

S34では、以上のように求められた重心座標、長軸角度、長軸長及び短軸長に基づいて楕円の形状を有する探索範囲が設定される。探索範囲は、シード領域を超えて長軸方向に拡大されたサイズを有する。後に図14を用いてその具体例を説明する。探索範囲の形状が領域拡張方向を規定する。   In S34, a search range having an elliptical shape is set based on the barycentric coordinates, major axis angle, major axis length, and minor axis length obtained as described above. The search range has a size that extends beyond the seed region in the long axis direction. A specific example will be described later with reference to FIG. The shape of the search range defines the region expansion direction.

S35では、断層画像(元画像)に基づいて、シード領域内における全画素値が参照され、その中から最小値及び最大値が特定される。S36では、特定された最大値及び最小値に基づいて、また、連結回数に基づいて、輝度軸における探索輝度値範囲が決定される。本実施形態において、探索輝度範囲の上限は最高輝度とされており、その場合、S36の実体は、下限である閾値の適応的な決定にある。もちろん、平均輝度に基づいて探索輝度範囲が定められてもよい。本実施形態では、基本的に、連結処理回数に応じて閾値が段階的に引き下げられる。探索輝度値範囲の設定に関する上記方法は例示に過ぎず、他の手法を用いることが可能である。参照される断層画像に対して、事前にフィルタ処理を施しておくのが望ましい。その場合にはガウシアンフィルタ等を用いることができる。   In S35, based on the tomographic image (original image), all pixel values in the seed region are referred to, and the minimum value and the maximum value are specified from among them. In S36, a search luminance value range on the luminance axis is determined based on the specified maximum value and minimum value, and based on the number of connections. In the present embodiment, the upper limit of the search luminance range is set to the maximum luminance. In this case, the entity of S36 is in adaptive determination of a threshold value that is the lower limit. Of course, the search luminance range may be determined based on the average luminance. In the present embodiment, basically, the threshold value is lowered stepwise in accordance with the number of times of connection processing. The above method relating to the setting of the search luminance value range is merely an example, and other methods can be used. It is desirable to perform a filtering process on the tomographic image to be referred to in advance. In that case, a Gaussian filter or the like can be used.

S38では、連結処理が実行される。すなわち、断層画像(望ましくはフィルタ処理後の断層画像)に基づいて、現在設定されている探索範囲内において、現在設定されている閾値以上の画素値を有し、かつ、シード領域に接しているあるいは連なっている画素群が特定され、その画素群がシード領域に連結される。つまり、その画素群が大腿骨像の一部として追加的に組み込まれる。   In S38, a connection process is executed. That is, based on a tomographic image (preferably a tomographic image after filtering), within the currently set search range, the pixel value is equal to or greater than the currently set threshold and is in contact with the seed region. Alternatively, continuous pixel groups are specified, and the pixel groups are connected to the seed region. That is, the pixel group is additionally incorporated as a part of the femur image.

S40では、所定の終了条件を満たしたか否かが判断され、満たしていない場合には、S42において、連結処理後つまり拡張後の領域が新たなシード領域とされ、S32及びS35以降の各工程が繰り返し実行される。終了条件として、複数の条件を定めてもよい。例えば、予定されていた回数分の連結処理が完了した場合に本処理を終了させてもよい。また、領域が一定程度、長軸方向に広がった場合に本処理を終了させてもよい。更に、ある程度閾値を引き下げても領域が拡大しない場合に本処理を終了させてもよい。終了条件としては目的等に応じて適宜定めればよい。   In S40, it is determined whether or not a predetermined end condition is satisfied. If not, in S42, the region after the connection process, that is, the expanded region is set as a new seed region, and the steps after S32 and S35 are performed. Repeatedly executed. A plurality of conditions may be defined as the end conditions. For example, this process may be terminated when the connection process for the scheduled number of times is completed. In addition, this process may be terminated when the area is expanded to a certain extent in the long axis direction. Furthermore, this process may be terminated when the area does not expand even if the threshold value is lowered to some extent. The termination condition may be appropriately determined according to the purpose.

図14には、探索範囲の設定例が模式的に示されている。その内容も例示に過ぎないものである。符号134は目標長(長軸方向の最大探索領域)を示している。大腿骨像(最初のシード領域)130に基づいて、重心132が演算され、重心132を通過する方向として長軸136が定められ、重心132を通過する方向であって長軸136に直交する方向として短軸138が定められる。長軸長は、上記のように、目標長134と連結処理数とから段階的に定められる。短軸長は目標長134から固定的に定められる。それらのパラメータによって楕円としての探索範囲140が定義される。その探索範囲140内において、現在設定されている閾値以上の輝度値を有し且つ繋がり条件を満たす画素群が特定され、それが連結処理の対処となる。その連結処理の結果、典型的には、最初のシード領域130よりも長軸136の方向に少し伸びた領域142が生成され、その領域142が新たなシード領域となる。   FIG. 14 schematically shows an example of setting the search range. The contents are only examples. Reference numeral 134 denotes a target length (maximum search area in the long axis direction). Based on the femur image (first seed region) 130, the center of gravity 132 is calculated, and a long axis 136 is defined as a direction passing through the center of gravity 132, and is a direction passing through the center of gravity 132 and perpendicular to the long axis 136. A short axis 138 is defined as follows. As described above, the long axis length is determined in stages from the target length 134 and the number of connected processes. The short axis length is fixedly determined from the target length 134. The search range 140 as an ellipse is defined by these parameters. Within the search range 140, a pixel group having a luminance value equal to or higher than the currently set threshold value and satisfying the connection condition is specified, and this is a countermeasure for the connection process. As a result of the connection process, typically, a region 142 that slightly extends in the direction of the long axis 136 relative to the first seed region 130 is generated, and the region 142 becomes a new seed region.

すなわち、領域142に基づいて、重心座標、長軸角度、長軸長及び短軸長が再計算され、それらに基づいて楕円の探索範囲144が設定される。探索範囲144は、前回設定された探索範囲140よりも大腿骨像の長手方向に伸長したサイズ(長軸長)を有している。その探索範囲144内において、新しく設定された(更に引き下げられた)閾値を利用して所定の画素群が探索され、それらが連結処理対象となる。連結処理結果として領域146が得られる。終了条件が満たされるまで上記処理が繰り返される。   That is, based on the area 142, the barycentric coordinates, major axis angle, major axis length, and minor axis length are recalculated, and the ellipse search range 144 is set based on them. The search range 144 has a size (long axis length) that is longer in the longitudinal direction of the femur image than the previously set search range 140. Within the search range 144, a predetermined pixel group is searched using a newly set (further reduced) threshold value, and these are to be connected. A region 146 is obtained as a result of the concatenation process. The above process is repeated until the end condition is satisfied.

探索領域の形状としては楕円に限られず、矩形等であってもよい。シード領域のヒストグラムに基づいて閾値が設定されてもよい。シード領域の平均画素値に基づいて閾値が設定されてもよい。   The shape of the search area is not limited to an ellipse, but may be a rectangle or the like. A threshold may be set based on a histogram of the seed region. A threshold value may be set based on the average pixel value of the seed region.

以上の領域拡張方法によれば、大腿骨像の一部である可能性が高い領域を基礎として、その領域に繋がっている部分(特に二値化処理での閾値よりも低い画素値を有する部分)を段階的に探索することができる。逆に言えば、大腿骨像の一部ではないものが不用意に連結されてしまう可能性を低減できる。そのような処理を経た質の高い大腿骨像から複数の部分像を得て、それらに対して個別的に端点検出法を適用することにより、大腿骨像の各端部における適切な位置に各端点を定めることが可能となる。   According to the above region expansion method, on the basis of a region that is likely to be a part of a femur image, a portion connected to the region (particularly a portion having a pixel value lower than a threshold value in binarization processing) ) Can be searched in stages. In other words, it is possible to reduce the possibility that something that is not part of the femur image will be inadvertently connected. By obtaining a plurality of partial images from high-quality femur images that have undergone such processing and applying the end point detection method individually to them, each of the images is placed at an appropriate position at each end of the femur image. It becomes possible to determine an end point.

上記の領域拡張方法の適用に先立って、二値化された大腿骨像を分割して複数の部分像を生成し、各部分像に対して、上記の領域拡張方法が適用された上で、上記端点検出方法が適用されてもよい。上記領域拡張方法は方向性を有し、特定の方向への領域拡張を期待できるものである。当該方法を他の用途において利用することも考えられる。上記端点検出方法の前処理として上記方法以外の方法が適用されてもよい。   Prior to the application of the region expansion method, the binarized femur image is divided to generate a plurality of partial images, and after the region expansion method is applied to each partial image, The end point detection method may be applied. The region expansion method has directionality and can be expected to expand the region in a specific direction. It is conceivable to use the method in other applications. A method other than the above method may be applied as pre-processing of the end point detection method.

上記実施形態では胎児の大腿骨像が処理対象となっていたが、胎児中の他の長骨の像に対して上記処理を適用してもよく、胎児以外の被検者に含まれる長骨の像に対して上記処理を適用してもよい。超音波診断装置以外の装置において、上記画像処理方法を実行するようにしてもよい。   In the above embodiment, the femur image of the fetus is a processing target. However, the above processing may be applied to an image of another long bone in the fetus, and a long bone included in a subject other than the fetus. You may apply the said process with respect to this image. You may make it perform the said image processing method in apparatuses other than an ultrasonic diagnosing device.

20 画像処理部、22 前処理部、24 分割部(生成部)、26 検出部、28 計測部。
20 image processing unit, 22 preprocessing unit, 24 division unit (generation unit), 26 detection unit, 28 measurement unit.

Claims (8)

断層画像から、第1骨端部及び第2骨端部を有する長骨像を抽出する前処理手段と、
前記長骨像から複数の部分像を生成する手段であって、少なくとも、前記第1骨端部を有する第1部分像と前記第2骨端部を有する第2部分像とを生成する生成手段と、
前記第1部分像の解析により前記第1部分像についての第1主軸を特定し、前記第1主軸上において前記第1骨端部のエッジとして第1端点を検出する第1検出手段と、
前記第2部分像の解析により前記第2部分像についての第2主軸を特定し、前記第2主軸上において前記第2骨端部のエッジとして第2端点を検出する第2検出手段と、
を含み、
前記長骨像の計測において前記第1端点及び前記第2端点が利用される、ことを特徴とする超音波画像処理装置。
Preprocessing means for extracting a long bone image having a first bone end and a second bone tip from a tomographic image;
A means for generating a plurality of partial images from the long bone image, wherein the generating means generates at least a first partial image having the first bone end and a second partial image having the second bone end. When,
A first detection means for identifying a first principal axis for the first partial image by analysis of the first partial image, and detecting a first endpoint as an edge of the first bone end on the first principal axis;
Second detection means for identifying a second principal axis for the second partial image by analysis of the second partial image, and detecting a second end point as an edge of the second bone end on the second principal axis;
Including
The ultrasonic image processing apparatus, wherein the first end point and the second end point are used in the measurement of the long bone image.
請求項1記載の装置において、
前記生成手段は、前記長骨像を分割することにより前記第1部分像及び前記第2部分像を生成する分割手段を含む、
ことを特徴とする超音波画像処理装置。
The apparatus of claim 1.
The generating unit includes a dividing unit that generates the first partial image and the second partial image by dividing the long bone image.
An ultrasonic image processing apparatus.
請求項2記載の装置において、
前記分割手段は、前記長骨像を二分割することにより前記第1部分像及び前記第2部分像を生成する、
ことを特徴とする超音波画像処理装置。
The apparatus of claim 2.
The dividing unit generates the first partial image and the second partial image by dividing the long bone image into two parts.
An ultrasonic image processing apparatus.
請求項3記載の装置において、
前記分割手段は、表示座標系の垂直軸に平行に前記長骨像を切断する、
ことを特徴とする超音波画像処理装置。
The apparatus of claim 3.
The dividing means cuts the long bone image parallel to the vertical axis of the display coordinate system;
An ultrasonic image processing apparatus.
請求項1記載の装置において、
前記第1主軸は、前記第1部分像内の第1代表座標を通る軸であって前記第1部分像の長手方向を表す軸であり、
前記第2主軸は、前記第2部分像内の第2代表座標を通る軸であって前記第2部分像の長手方向を表す軸である、
ことを特徴とする超音波画像処理装置。
The apparatus of claim 1.
The first principal axis is an axis that passes through first representative coordinates in the first partial image and represents the longitudinal direction of the first partial image;
The second principal axis is an axis that passes through the second representative coordinates in the second partial image and represents the longitudinal direction of the second partial image.
An ultrasonic image processing apparatus.
請求項1記載の装置において、
前記前処理手段は、
初期閾値を利用して元断層画像を二値化処理することにより前記断層画像としての二値化画像を生成する二値化処理手段と、
前記二値化画像から仮の長骨像を抽出する抽出手段と、
前記仮の長骨像に対して、前記初期閾値よりも低い閾値を設定した上で領域拡張処理を適用し、これにより前記仮の長骨像から前記長骨像を生成する領域拡張処理手段と、
を含むことを特徴とする超音波画像処理装置。
The apparatus of claim 1.
The preprocessing means includes
Binarization processing means for generating a binarized image as the tomographic image by binarizing the original tomographic image using an initial threshold;
Extraction means for extracting a provisional long bone image from the binarized image;
A region expansion processing unit that applies a region expansion process to the temporary long bone image after setting a threshold value lower than the initial threshold value, thereby generating the long bone image from the temporary long bone image; ,
An ultrasonic image processing apparatus comprising:
請求項6記載の装置において、
前記領域拡張処理手段は、前記仮の長骨像に対して、前記初期閾値よりも低い範囲内において閾値を段階的に引き下げながら複数回の領域拡張処理を適用する、
ことを特徴とする超音波画像処理装置。
The apparatus of claim 6.
The region expansion processing means applies a plurality of region expansion processing to the temporary long bone image while gradually reducing the threshold within a range lower than the initial threshold.
An ultrasonic image processing apparatus.
胎児を表した断層画像から、第1骨端部及び第2骨端部を有する大腿骨像を抽出する工程と、
前記大腿骨像を分割し、これにより前記第1骨端部を有する第1部分像及び前記第2骨端部を有する第2部分像を生成する工程と、
前記第1部分像の解析により前記第1部分像についての第1主軸を特定し、前記第1主軸上において前記第1骨端部のエッジとして第1端点を検出する工程と、
前記第2部分像の解析により前記第2部分像についての第2主軸を特定し、前記第2主軸上において前記第2骨端部のエッジとして第2端点を検出する工程と、
前記第1端点と前記第2端点との間の距離を大腿骨長として計測する工程と、
を含む、ことを特徴とする超音波画像処理方法。
Extracting a femur image having a first epiphysis and a second epiphysis from a tomographic image representing a fetus;
Dividing the femur image, thereby generating a first partial image having the first bone end and a second partial image having the second bone end;
Identifying a first principal axis for the first partial image by analysis of the first partial image, and detecting a first endpoint as an edge of the first bone end on the first principal axis;
Identifying a second principal axis for the second partial image by analysis of the second partial image, and detecting a second endpoint as an edge of the second bone end on the second principal axis;
Measuring a distance between the first end point and the second end point as a femur length;
An ultrasonic image processing method comprising:
JP2017056865A 2017-03-23 2017-03-23 Ultrasonic image processing equipment and method Active JP6767904B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017056865A JP6767904B2 (en) 2017-03-23 2017-03-23 Ultrasonic image processing equipment and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017056865A JP6767904B2 (en) 2017-03-23 2017-03-23 Ultrasonic image processing equipment and method

Publications (2)

Publication Number Publication Date
JP2018157961A true JP2018157961A (en) 2018-10-11
JP6767904B2 JP6767904B2 (en) 2020-10-14

Family

ID=63795210

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017056865A Active JP6767904B2 (en) 2017-03-23 2017-03-23 Ultrasonic image processing equipment and method

Country Status (1)

Country Link
JP (1) JP6767904B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010512218A (en) * 2006-12-12 2010-04-22 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Medical imaging system
US20130173175A1 (en) * 2012-01-04 2013-07-04 Samsung Electronics Co., Ltd. Method and apparatus for measuring biometrics of object
JP2015114297A (en) * 2013-12-16 2015-06-22 グンゼ株式会社 Measuring method and measurement program of opening length, and inspection device
JP2015171476A (en) * 2014-03-12 2015-10-01 日立アロカメディカル株式会社 Ultrasonic diagnostic device and ultrasonic image processing method
JP2015226836A (en) * 2010-09-30 2015-12-17 コニカミノルタ株式会社 Ultrasonic diagnostic apparatus
US20160012585A1 (en) * 2012-02-06 2016-01-14 Samsung Medison Co., Ltd. Image processing apparatus and method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010512218A (en) * 2006-12-12 2010-04-22 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Medical imaging system
US20100322495A1 (en) * 2006-12-12 2010-12-23 Koninklijke Philips Electronics N.V. Medical imaging system
JP2015226836A (en) * 2010-09-30 2015-12-17 コニカミノルタ株式会社 Ultrasonic diagnostic apparatus
US20130173175A1 (en) * 2012-01-04 2013-07-04 Samsung Electronics Co., Ltd. Method and apparatus for measuring biometrics of object
JP2013138869A (en) * 2012-01-04 2013-07-18 Samsung Electronics Co Ltd Method for measuring biological information on object and device thereof
US20160012585A1 (en) * 2012-02-06 2016-01-14 Samsung Medison Co., Ltd. Image processing apparatus and method
JP2015114297A (en) * 2013-12-16 2015-06-22 グンゼ株式会社 Measuring method and measurement program of opening length, and inspection device
JP2015171476A (en) * 2014-03-12 2015-10-01 日立アロカメディカル株式会社 Ultrasonic diagnostic device and ultrasonic image processing method

Also Published As

Publication number Publication date
JP6767904B2 (en) 2020-10-14

Similar Documents

Publication Publication Date Title
JP6367425B2 (en) Ultrasonic diagnostic equipment
JP4550599B2 (en) Three-dimensional ultrasonic image forming apparatus and method
JP6547612B2 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND ULTRASONIC DIAGNOSTIC APPARATUS PROVIDED WITH IMAGE PROCESSING APPARATUS
EP2022404A1 (en) Ultrasonograph, medical image processing device, and medical image processing program
JP6839328B2 (en) Fetal ultrasound image processing
EP2433567A1 (en) Medical image diagnosis device and region-of-interest setting method therefor
EP1685799B1 (en) Ultrasonic diagnostic apparatus and ultrasonic image acquiring method
US10368841B2 (en) Ultrasound diagnostic apparatus
JP5386001B2 (en) Ultrasonic diagnostic equipment
JP2020531086A (en) An ultrasound system that extracts an image plane from volume data using touch interaction with an image
EP3820374B1 (en) Methods and systems for performing fetal weight estimations
JP5890358B2 (en) Ultrasonic image pickup apparatus and ultrasonic image display method
JP6486493B2 (en) Ultrasonic diagnostic apparatus and method
JP2016083192A (en) Ultrasonic diagnostic equipment
JP2017104248A (en) Ultrasonic diagnosis device
JP6767904B2 (en) Ultrasonic image processing equipment and method
JP6731369B2 (en) Ultrasonic diagnostic device and program
JP2018187131A (en) Ultrasonic image processing device
KR102617378B1 (en) Method for measuring medical indicator and ultrasound diagnosis apparatus for the same
EP4186437B1 (en) Ultrasound image analysis apparatus, ultrasound diagnostic apparatus, and control method for ultrasound image analysis apparatus
JP7299100B2 (en) ULTRASOUND DIAGNOSTIC DEVICE AND ULTRASOUND IMAGE PROCESSING METHOD
EP4186427A1 (en) Ultrasound image analysis apparatus, ultrasound diagnostic apparatus, and control method for ultrasound image analysis apparatus
JP6761365B2 (en) Ultrasound diagnostic equipment and programs
CN115886876A (en) Fetal posture evaluation method, ultrasonic imaging method and ultrasonic imaging system
KR20160086126A (en) Ultrasonic diagnosing method and apparatus therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190701

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200824

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200915

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200918

R150 Certificate of patent or registration of utility model

Ref document number: 6767904

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250