JP2021186208A - Ultrasonic diagnostic apparatus and image processing device - Google Patents

Ultrasonic diagnostic apparatus and image processing device Download PDF

Info

Publication number
JP2021186208A
JP2021186208A JP2020093551A JP2020093551A JP2021186208A JP 2021186208 A JP2021186208 A JP 2021186208A JP 2020093551 A JP2020093551 A JP 2020093551A JP 2020093551 A JP2020093551 A JP 2020093551A JP 2021186208 A JP2021186208 A JP 2021186208A
Authority
JP
Japan
Prior art keywords
ultrasonic
image
measurement
ultrasonic image
rectangle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020093551A
Other languages
Japanese (ja)
Inventor
星奈 天城
Seina Amagi
智久 今村
Tomohisa Imamura
正毅 渡辺
Masaki Watanabe
優子 高田
Yuko Takada
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Priority to JP2020093551A priority Critical patent/JP2021186208A/en
Priority to CN202110576727.4A priority patent/CN113729777A/en
Publication of JP2021186208A publication Critical patent/JP2021186208A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0866Detecting organic movements or changes, e.g. tumours, cysts, swellings involving foetal diagnosis; pre-natal or peri-natal diagnosis of the baby
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4444Constructional features of the ultrasonic, sonic or infrasonic diagnostic device related to the probe
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/488Diagnostic techniques involving Doppler signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Gynecology & Obstetrics (AREA)
  • Pregnancy & Childbirth (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

To improve accuracy in measurement using an ultrasonic image.SOLUTION: An ultrasonic diagnostic apparatus includes a detection unit, an estimation unit and an output unit. The detection unit detects a first rectangle including a measurement part from an ultrasonic image. The estimation unit estimates a measurement point for measuring the measurement part on the basis of positional information of the first rectangle. The output unit outputs information relating to the measurement point.SELECTED DRAWING: Figure 1

Description

本明細書及び図面に開示の実施形態は、超音波診断装置及び画像処理装置に関する。 The embodiments disclosed in the present specification and drawings relate to an ultrasonic diagnostic apparatus and an image processing apparatus.

超音波画像は、胎児の発育を確認するために用いられている。例えば、超音波診断装置は、超音波画像を用いることにより、胎児の児頭大横径(BPD:biparietal diameter)、児頭周囲長(HC:head circumference)、腹部周囲長(AC:abdominal circumference)、大腿骨長(FL:femur length)、上腕骨長(HL:humerus length)等のパラメータを計測することができる。 Ultrasound images are used to confirm fetal development. For example, an ultrasonic diagnostic apparatus uses an ultrasonic image to obtain a large lateral diameter of the fetal head (BPD: biparietal diameter), a head circumference (HC: head circumference), and an abdominal circumference (AC: abdominal circumference). , Femur length (FL: femur length), humerus length (HL: humerus length) and other parameters can be measured.

ここで、BPD、HC、AC、FL、HL等のパラメータを計測する際、輝度に基づく画像処理により、計測部位を計測するための計測点を推定する方法が知られている。しかし、かかる方法では、超音波画像において、実際の計測部位の輪郭よりも輝度が高い部分が存在する場合、当該輝度が高い部分につられて、計測点が推定される可能性がある。 Here, when measuring parameters such as BPD, HC, AC, FL, and HL, there is known a method of estimating a measurement point for measuring a measurement site by image processing based on luminance. However, in such a method, if there is a portion of the ultrasonic image whose brightness is higher than the contour of the actual measurement portion, there is a possibility that the measurement point is estimated by the portion having the higher brightness.

特開2019−115559号公報Japanese Unexamined Patent Publication No. 2019-115559

本明細書及び図面に開示の実施形態が解決しようとする課題の一つは、超音波画像を用いた計測の精度を向上させることである。ただし、本明細書及び図面に開示の実施形態により解決される課題は上記課題に限られない。後述する実施形態に示す各構成による各効果に対応する課題を他の課題として位置づけることもできる。 One of the problems to be solved by the embodiments disclosed in the present specification and the drawings is to improve the accuracy of measurement using ultrasonic images. However, the problems solved by the embodiments disclosed in the present specification and the drawings are not limited to the above problems. The problem corresponding to each effect by each configuration shown in the embodiment described later can be positioned as another problem.

本実施形態に係る超音波診断装置は、検出部と、推定部と、出力部とを備える。検出部は、超音波画像から、計測部位を内包する第1矩形を検出する。推定部は、前記第1矩形の位置情報に基づいて、前記計測部位を計測するための計測点を推定する。出力部は、前記計測点に関する情報を出力する。 The ultrasonic diagnostic apparatus according to the present embodiment includes a detection unit, an estimation unit, and an output unit. The detection unit detects the first rectangle including the measurement site from the ultrasonic image. The estimation unit estimates a measurement point for measuring the measurement site based on the position information of the first rectangle. The output unit outputs information about the measurement point.

図1は、本実施形態に係る超音波診断装置の構成の一例を示すブロック図である。FIG. 1 is a block diagram showing an example of the configuration of the ultrasonic diagnostic apparatus according to the present embodiment. 図2は、計測部位を計測するときの問題点を説明するための図である。FIG. 2 is a diagram for explaining a problem when measuring a measurement site. 図3は、本実施形態に係る超音波診断装置の画像処理回路による処理を説明するための図である。FIG. 3 is a diagram for explaining processing by the image processing circuit of the ultrasonic diagnostic apparatus according to the present embodiment. 図4は、本実施形態に係る超音波診断装置の画像処理回路による処理を説明するための図である。FIG. 4 is a diagram for explaining processing by the image processing circuit of the ultrasonic diagnostic apparatus according to the present embodiment. 図5は、本実施形態に係る超音波診断装置の画像処理回路による処理を説明するための図である。FIG. 5 is a diagram for explaining processing by the image processing circuit of the ultrasonic diagnostic apparatus according to the present embodiment. 図6は、本実施形態に係る超音波診断装置の画像処理回路による処理を説明するための図である。FIG. 6 is a diagram for explaining processing by the image processing circuit of the ultrasonic diagnostic apparatus according to the present embodiment. 図7は、本実施形態に係る超音波診断装置の画像処理回路による処理を説明するための図である。FIG. 7 is a diagram for explaining processing by the image processing circuit of the ultrasonic diagnostic apparatus according to the present embodiment. 図8は、本実施形態に係る超音波診断装置による処理の手順を示すフローチャートである。FIG. 8 is a flowchart showing a processing procedure by the ultrasonic diagnostic apparatus according to the present embodiment. 図9は、本実施形態に係る超音波診断装置の画像処理回路による処理を説明するための図である。FIG. 9 is a diagram for explaining processing by the image processing circuit of the ultrasonic diagnostic apparatus according to the present embodiment. 図10は、本実施形態に係る超音波診断装置の画像処理回路による処理を説明するための図である。FIG. 10 is a diagram for explaining processing by the image processing circuit of the ultrasonic diagnostic apparatus according to the present embodiment. 図11は、本実施形態に係る超音波診断装置の画像処理回路による処理を説明するための図である。FIG. 11 is a diagram for explaining processing by the image processing circuit of the ultrasonic diagnostic apparatus according to the present embodiment. 図12は、本実施形態に係る超音波診断装置の画像処理回路による処理を説明するための図である。FIG. 12 is a diagram for explaining processing by the image processing circuit of the ultrasonic diagnostic apparatus according to the present embodiment. 図13は、本実施形態における学習済モデル生成装置の構成例を示すブロック図である。FIG. 13 is a block diagram showing a configuration example of the trained model generator according to the present embodiment.

以下、添付図面を参照して、実施形態に係る超音波診断装置及び画像処理装置を説明する。なお、実施形態は、以下の実施形態に限られるものではない。また、一つの実施形態に記載した内容は、原則として他の実施形態にも同様に適用される。 Hereinafter, the ultrasonic diagnostic apparatus and the image processing apparatus according to the embodiment will be described with reference to the attached drawings. The embodiment is not limited to the following embodiments. Further, in principle, the contents described in one embodiment are similarly applied to other embodiments.

図1は、本実施形態に係る超音波診断装置1の構成例を示すブロック図である。図1に示すように、本実施形態に係る超音波診断装置1は、装置本体100と、超音波プローブ101と、入力装置102と、ディスプレイ103とを備える。超音波プローブ101、入力装置102、およびディスプレイ103は、それぞれ装置本体100に接続される。 FIG. 1 is a block diagram showing a configuration example of the ultrasonic diagnostic apparatus 1 according to the present embodiment. As shown in FIG. 1, the ultrasonic diagnostic apparatus 1 according to the present embodiment includes an apparatus main body 100, an ultrasonic probe 101, an input device 102, and a display 103. The ultrasonic probe 101, the input device 102, and the display 103 are each connected to the device main body 100.

超音波プローブ101は、超音波の送受信(超音波スキャン)を実行する。例えば、超音波プローブ101は、被検体Pの体表面(例えば、妊婦の腹部)に接触され、妊婦の子宮内の胎児の少なくとも一部を含む領域に対して、超音波の送受信を実行する。超音波プローブ101は、複数の圧電振動子を有する。複数の圧電振動子は、電気信号(パルス電圧)と機械振動(音による振動)とを相互に変換する圧電効果を有する圧電素子であり、装置本体100から供給される駆動信号(電気信号)に基づいて、超音波を発生させる。発生した超音波は、被検体P内の音響インピーダンスの不整合面で反射され、組織内の散乱体によって散乱された成分等を含む反射波信号(電気信号)として複数の圧電振動子にて受信される。超音波プローブ101は、複数の圧電振動子にて受信した反射波信号を装置本体100へ送る。 The ultrasonic probe 101 executes transmission / reception of ultrasonic waves (ultrasonic scan). For example, the ultrasonic probe 101 is in contact with the body surface of subject P (eg, the abdomen of a pregnant woman) and performs transmission and reception of ultrasonic waves to a region including at least a part of a foetation in the uterus of the pregnant woman. The ultrasonic probe 101 has a plurality of piezoelectric vibrators. The plurality of piezoelectric vibrators are piezoelectric elements having a piezoelectric effect of mutually converting an electric signal (pulse voltage) and mechanical vibration (vibration due to sound), and can be used as a drive signal (electric signal) supplied from the device main body 100. Based on this, an ultrasonic wave is generated. The generated ultrasonic waves are reflected by the mismatched surface of the acoustic impedance in the subject P, and are received by a plurality of piezoelectric vibrators as reflected wave signals (electrical signals) including components scattered by scatterers in the tissue. Will be done. The ultrasonic probe 101 sends the reflected wave signal received by the plurality of piezoelectric vibrators to the apparatus main body 100.

なお、本実施形態では、超音波プローブ101は、所定方向に1次元で配列された複数の圧電振動子を有する1Dアレイプローブや、複数の圧電振動子が格子状に2次元で配置された2Dアレイプローブや、1次元で配列された複数の圧電振動子が機械的に揺動することで3次元領域を走査するメカニカル4Dプローブなど、如何なる形態の超音波プローブが用いられてもよい。 In the present embodiment, the ultrasonic probe 101 is a 1D array probe having a plurality of piezoelectric vibrators arranged in a predetermined direction in one dimension, or a 2D in which a plurality of piezoelectric vibrators are arranged two-dimensionally in a grid pattern. Any form of ultrasonic probe may be used, such as an array probe or a mechanical 4D probe that scans a three-dimensional region by mechanically swinging a plurality of three-dimensionally arranged piezoelectric vibrators.

入力装置102は、マウス、キーボード、ボタン、パネルスイッチ、タッチコマンドスクリーン、フットスイッチ、ホイール、トラックボール、ジョイスティック等を有し、超音波診断装置1の操作者からの各種設定要求を受け付け、装置本体100に対して受け付けた各種設定要求を転送する。 The input device 102 has a mouse, a keyboard, a button, a panel switch, a touch command screen, a foot switch, a wheel, a trackball, a joystick, and the like, and receives various setting requests from the operator of the ultrasonic diagnostic device 1 and receives various setting requests from the device main body. The various setting requests received for 100 are transferred.

ディスプレイ103は、超音波診断装置1の操作者が入力装置102を用いて各種設定要求を入力するためのGUI(Graphical User Interface)を表示したり、装置本体100において生成された超音波画像データ等を表示したりする。また、ディスプレイ103は、装置本体100の処理状況を操作者に通知するために、各種のメッセージを表示する。なお、ディスプレイ103は、「表示部」の一例である。 The display 103 displays a GUI (Graphical User Interface) for the operator of the ultrasonic diagnostic apparatus 1 to input various setting requests using the input device 102, ultrasonic image data generated in the apparatus main body 100, and the like. Or display. Further, the display 103 displays various messages in order to notify the operator of the processing status of the apparatus main body 100. The display 103 is an example of a “display unit”.

装置本体100は、超音波プローブ101が受信した反射波信号に基づいて、超音波画像データを生成する装置である。装置本体100により生成される超音波画像データは、2次元の反射波信号に基づいて生成される2次元の超音波画像データであってもよいし、3次元の反射波信号に基づいて生成される3次元の超音波画像データであってもよい。 The device main body 100 is a device that generates ultrasonic image data based on the reflected wave signal received by the ultrasonic probe 101. The ultrasonic image data generated by the apparatus main body 100 may be two-dimensional ultrasonic image data generated based on a two-dimensional reflected wave signal, or may be generated based on a three-dimensional reflected wave signal. It may be three-dimensional ultrasonic image data.

図1に示すように、装置本体100は、例えば、送受信回路110と、Bモード処理回路120と、ドプラ処理回路130と、画像処理回路140と、画像メモリ150と、記憶回路160と、制御回路170とを有する。送受信回路110、Bモード処理回路120、ドプラ処理回路130、画像処理回路140、画像メモリ150、記憶回路160、および制御回路170は、通信可能に互いに接続される。また、装置本体100は、院内のネットワーク2に接続される。 As shown in FIG. 1, the apparatus main body 100 includes, for example, a transmission / reception circuit 110, a B mode processing circuit 120, a Doppler processing circuit 130, an image processing circuit 140, an image memory 150, a storage circuit 160, and a control circuit. It has 170 and. The transmission / reception circuit 110, the B-mode processing circuit 120, the Doppler processing circuit 130, the image processing circuit 140, the image memory 150, the storage circuit 160, and the control circuit 170 are communicably connected to each other. Further, the apparatus main body 100 is connected to the in-hospital network 2.

送受信回路110は、超音波プローブ101による超音波の送信を制御する。例えば、送受信回路110は、制御回路170の指示に基づいて、振動子ごとに所定の送信遅延時間が付与されたタイミングで超音波プローブ101に上述の駆動信号(駆動パルス)を印加する。これにより、送受信回路110は、超音波がビーム状に集束された超音波ビームを超音波プローブ101に送信させる。 The transmission / reception circuit 110 controls transmission of ultrasonic waves by the ultrasonic probe 101. For example, the transmission / reception circuit 110 applies the above-mentioned drive signal (drive pulse) to the ultrasonic probe 101 at a timing when a predetermined transmission delay time is given to each oscillator based on the instruction of the control circuit 170. As a result, the transmission / reception circuit 110 causes the ultrasonic probe 101 to transmit an ultrasonic beam in which ultrasonic waves are focused in a beam shape.

また、送受信回路110は、超音波プローブ101による反射波信号の受信を制御する。反射波信号は、上述のように、超音波プローブ101から送信された超音波が被検体Pの体内組織で反射された信号である。例えば、送受信回路110は、制御回路170の指示に基づいて、超音波プローブ101が受信した反射波信号に所定の遅延時間を与えて加算処理を行う。これにより、反射波信号の受信指向性に応じた方向からの反射成分が強調される。そして、送受信回路110は、加算処理後の反射波信号をベースバンド帯域の同相信号(I信号、I:In-phase)と直交信号(Q信号、Q:Quadrature-phase)とに変換する。そして、送受信回路110は、I信号及びQ信号(以下、IQ信号と記載する)を反射波データとして、Bモード処理回路120及びドプラ処理回路130へ送る。なお、送受信回路110は、加算処理後の反射波信号を、RF(Radio Frequency)信号に変換した上で、Bモード処理回路120及びドプラ処理回路130へ送ってもよい。IQ信号や、RF信号は、位相情報が含まれる信号(反射波データ)となる。 Further, the transmission / reception circuit 110 controls reception of the reflected wave signal by the ultrasonic probe 101. As described above, the reflected wave signal is a signal in which the ultrasonic wave transmitted from the ultrasonic probe 101 is reflected by the internal tissue of the subject P. For example, the transmission / reception circuit 110 performs addition processing by giving a predetermined delay time to the reflected wave signal received by the ultrasonic probe 101 based on the instruction of the control circuit 170. As a result, the reflected component from the direction corresponding to the reception directivity of the reflected wave signal is emphasized. Then, the transmission / reception circuit 110 converts the reflected wave signal after the addition processing into a baseband band in-phase signal (I signal, I: In-phase) and an orthogonal signal (Q signal, Q: Quadrature-phase). Then, the transmission / reception circuit 110 sends the I signal and the Q signal (hereinafter referred to as IQ signal) as reflected wave data to the B mode processing circuit 120 and the Doppler processing circuit 130. The transmission / reception circuit 110 may convert the reflected wave signal after the addition processing into an RF (Radio Frequency) signal and then send it to the B mode processing circuit 120 and the Doppler processing circuit 130. The IQ signal and the RF signal are signals (reflected wave data) including phase information.

Bモード処理回路120は、送受信回路110が反射波信号から生成した反射波データに対して各種の信号処理を行う。Bモード処理回路120は、送受信回路110から受信した反射波データに対して、対数増幅、包絡線検波処理等を行って、サンプル点(観測点)ごとの信号強度が輝度の明るさで表現されるデータ(Bモードデータ)を生成する。Bモード処理回路120は、生成したBモードデータを画像処理回路140へ送る。 The B-mode processing circuit 120 performs various signal processing on the reflected wave data generated by the transmission / reception circuit 110 from the reflected wave signal. The B-mode processing circuit 120 performs logarithmic amplification, envelope detection processing, etc. on the reflected wave data received from the transmission / reception circuit 110, and the signal strength at each sample point (observation point) is expressed by the brightness of the brightness. Data (B mode data) is generated. The B-mode processing circuit 120 sends the generated B-mode data to the image processing circuit 140.

また、Bモード処理回路120は、高調波成分を映像化するハーモニックイメージングを行うための信号処理を実行する。ハーモニックイメージングとしては、コントラストハーモニックイメージング(CHI:Contrast Harmonic Imaging)や組織ハーモニックイメージング(THI:Tissue Harmonic Imaging)が知られている。また、コントラストハーモニックイメージングや組織ハーモニックイメージングには、スキャン方式として、振幅変調(AM:Amplitude Modulation)、「Pulse Subtraction法」や「Pulse Inversion法」と呼ばれる位相変調(PM:Phase Modulation)、及び、AMとPMとを組み合わせることで、AMの効果及びPMの効果の双方が得られるAMPM等が知られている。 Further, the B mode processing circuit 120 executes signal processing for performing harmonic imaging for visualizing harmonic components. As harmonic imaging, contrast harmonic imaging (CHI: Contrast Harmonic Imaging) and tissue harmonic imaging (THI: Tissue Harmonic Imaging) are known. For contrast harmonic imaging and tissue harmonic imaging, the scan methods include amplitude modulation (AM), phase modulation (PM) called "Pulse Subtraction method" and "Pulse Inversion method", and AM. AMPM and the like are known in which both the effect of AM and the effect of PM can be obtained by combining and PM.

ドプラ処理回路130は、送受信回路110が反射波信号から生成した反射波データより、移動体のドプラ効果に基づく運動情報を走査領域内の各サンプル点で抽出したデータを、ドプラデータとして生成する。ここで、移動体の運動情報とは、移動体の平均速度、分散値、パワー値等の情報であり、移動体とは、例えば、血流や、心壁等の組織、造影剤である。ドプラ処理回路130は、生成したドプラデータを画像処理回路140へ送る。 The Doppler processing circuit 130 generates data as Doppler data obtained by extracting motion information based on the Doppler effect of a moving body at each sample point in the scanning region from the reflected wave data generated by the transmission / reception circuit 110 from the reflected wave signal. Here, the motion information of the moving body is information such as the average velocity, the dispersion value, and the power value of the moving body, and the moving body is, for example, blood flow, tissues such as the heart wall, and a contrast medium. The Doppler processing circuit 130 sends the generated Doppler data to the image processing circuit 140.

例えば、移動体が血流である場合、血流の運動情報は、血流の平均速度、分散値、パワー等の情報(血流情報)である。血流情報は、例えば、カラードプラ法により得られる。 For example, when the moving body is blood flow, the motion information of blood flow is information (blood flow information) such as average velocity, dispersion value, and power of blood flow. Blood flow information is obtained, for example, by the color Doppler method.

カラードプラ法では、まず、超音波の送受信が同一の走査線上で複数回行われ、次に、MTI(Moving Target Indicator)フィルタを用いて、同一位置(同一サンプル点)の反射波データのデータ列を表す信号に対して特定の周波数帯域の信号を通過させ、それ以外の周波数帯域の信号を減衰させる。すなわち、静止している組織、或いは、動きの遅い組織に由来する信号(クラッタ成分)を抑制させる。これにより、反射波データのデータ列を表す信号から、血流に関する血流信号が抽出される。そして、カラードプラ法では、抽出した血流信号から、血流の平均速度、分散値、パワー等の血流情報を推定し、推定した血流情報をドプラデータとして生成する。 In the color Doppler method, first, ultrasonic waves are transmitted and received multiple times on the same scanning line, and then a data string of reflected wave data at the same position (same sample point) is used using an MTI (Moving Target Indicator) filter. A signal in a specific frequency band is passed through the signal representing the above, and a signal in other frequency bands is attenuated. That is, it suppresses a signal (clutter component) derived from a stationary tissue or a slow-moving tissue. As a result, the blood flow signal related to the blood flow is extracted from the signal representing the data string of the reflected wave data. Then, in the color Doppler method, blood flow information such as average velocity, dispersion value, and power of blood flow is estimated from the extracted blood flow signal, and the estimated blood flow information is generated as Doppler data.

画像処理回路140は、画像データ(超音波画像データ)の生成処理や、画像データに対する各種の画像処理等を行う。例えば、画像処理回路140は、Bモード処理回路120が生成した2次元のBモードデータから、反射波の強度を輝度で表した2次元Bモード画像データを生成する。また、画像処理回路140は、ドプラ処理回路130が生成した2次元のドプラデータから、血流情報が映像化された2次元ドプラ画像データを生成する。2次元ドプラ画像データは、血流の平均速度を表す速度画像データ、血流の分散値を表す分散画像データ、血流のパワーを表すパワー画像データ、又は、これらを組み合わせた画像データである。画像処理回路140は、ドプラ画像データとして、血流の平均速度、分散値、パワー等の血流情報がカラーで表示されるカラードプラ画像データを生成したり、1つの血流情報がグレースケールで表示されるドプラ画像データを生成したりする。 The image processing circuit 140 performs image data (ultrasonic image data) generation processing, various image processing on the image data, and the like. For example, the image processing circuit 140 generates two-dimensional B-mode image data in which the intensity of the reflected wave is represented by luminance from the two-dimensional B-mode data generated by the B-mode processing circuit 120. Further, the image processing circuit 140 generates two-dimensional Doppler image data in which blood flow information is visualized from the two-dimensional Doppler data generated by the Doppler processing circuit 130. The two-dimensional Doppler image data is velocity image data representing the average velocity of blood flow, distributed image data representing the dispersion value of blood flow, power image data representing the power of blood flow, or image data obtained by combining these. The image processing circuit 140 generates color Doppler image data in which blood flow information such as average velocity, dispersion value, and power of blood flow is displayed in color as Doppler image data, and one blood flow information is in gray scale. Generate the displayed Doppler image data.

ここで、画像処理回路140は、一般的には、超音波走査の走査線信号列を、テレビ等に代表されるビデオフォーマットの走査線信号列に変換(スキャンコンバート)し、表示用の超音波画像データを生成する。具体的には、画像処理回路140は、超音波プローブ101による超音波の走査形態に応じて座標変換を行うことで、表示用の超音波画像データを生成する。また、画像処理回路140は、スキャンコンバート以外に、種々の画像処理として、例えば、スキャンコンバート後の複数の画像フレームを用いて、輝度の平均値画像を再生成する画像処理(平滑化処理)や、画像内で微分フィルタを用いる画像処理(エッジ強調処理)等を行う。また、画像処理回路140は、超音波画像データに、種々のパラメータの文字情報、目盛り、ボディーマーク等を合成する。 Here, the image processing circuit 140 generally converts (scan-converts) a scanning line signal string of ultrasonic scanning into a scanning line signal string of a video format typified by a television or the like, and ultrasonic waves for display. Generate image data. Specifically, the image processing circuit 140 generates ultrasonic image data for display by performing coordinate conversion according to the scanning form of ultrasonic waves by the ultrasonic probe 101. In addition to the scan conversion, the image processing circuit 140 also performs various image processing such as image processing (smoothing processing) for regenerating an average value image of brightness by using a plurality of image frames after scan conversion. , Image processing (edge enhancement processing) using a differential filter in the image is performed. Further, the image processing circuit 140 synthesizes character information, scales, body marks, etc. of various parameters with the ultrasonic image data.

すなわち、Bモードデータ及びドプラデータは、スキャンコンバート処理前の超音波画像データであり、画像処理回路140が生成するデータは、スキャンコンバート処理後の表示用の超音波画像データである。なお、Bモードデータ及びドプラデータは、生データ(Raw Data)とも呼ばれる。画像処理回路140は、スキャンコンバート処理前の2次元超音波画像データから、表示用の2次元超音波画像データを生成する。 That is, the B mode data and the Doppler data are ultrasonic image data before the scan conversion process, and the data generated by the image processing circuit 140 is the ultrasonic image data for display after the scan conversion process. The B-mode data and Doppler data are also referred to as raw data (Raw Data). The image processing circuit 140 generates two-dimensional ultrasonic image data for display from the two-dimensional ultrasonic image data before the scan conversion process.

更に、画像処理回路140は、Bモード処理回路120が生成した3次元のBモードデータに対して座標変換を行うことで、3次元Bモード画像データを生成する。また、画像処理回路140は、ドプラ処理回路130が生成した3次元のドプラデータに対して座標変換を行うことで、3次元ドプラ画像データを生成する。 Further, the image processing circuit 140 generates three-dimensional B-mode image data by performing coordinate conversion on the three-dimensional B-mode data generated by the B-mode processing circuit 120. Further, the image processing circuit 140 generates 3D Doppler image data by performing coordinate conversion on the 3D Doppler data generated by the Doppler processing circuit 130.

更に、画像処理回路140は、ボリューム画像データをディスプレイ103にて表示するための各種の2次元画像データを生成するために、ボリューム画像データに対してレンダリング処理を行う。画像処理回路140が行うレンダリング処理としては、例えば、多断面再構成法(MPR:Multi Planer Reconstruction)を行ってボリューム画像データからMPR画像データを生成する処理がある。また、画像処理回路140が行うレンダリング処理としては、例えば、3次元画像の情報を反映した2次元画像データを生成するボリュームレンダリング(VR:Volume Rendering)処理がある。また、画像処理回路140が行うレンダリング処理としては、例えば、3次元画像の表面情報のみを抽出した2次元画像データを生成するサーフェスレンダリング(SR:Surface Rendering)処理がある。 Further, the image processing circuit 140 performs rendering processing on the volume image data in order to generate various two-dimensional image data for displaying the volume image data on the display 103. The rendering process performed by the image processing circuit 140 includes, for example, a process of performing a multi-section reconstruction method (MPR: Multi Planer Reconstruction) to generate MPR image data from volume image data. Further, as the rendering process performed by the image processing circuit 140, for example, there is a volume rendering (VR) process for generating two-dimensional image data reflecting the information of the three-dimensional image. Further, as the rendering process performed by the image processing circuit 140, for example, there is a surface rendering (SR: Surface Rendering) process for generating two-dimensional image data by extracting only the surface information of the three-dimensional image.

画像処理回路140は、生成した画像データや、各種の画像処理を行った画像データを、画像メモリ150に格納する。なお、画像処理回路140は、各画像データの表示位置を示す情報、超音波診断装置1の操作を補助するための各種情報、患者情報等の診断に関する付帯情報についても画像データとともに生成し、画像メモリ150に格納してもよい。 The image processing circuit 140 stores the generated image data and the image data subjected to various image processing in the image memory 150. The image processing circuit 140 also generates information indicating the display position of each image data, various information for assisting the operation of the ultrasonic diagnostic apparatus 1, and incidental information related to diagnosis such as patient information, together with the image data. It may be stored in the memory 150.

また、本実施形態に係る画像処理回路140は、画像生成機能141と、検出機能142と、推定機能143と、表示制御機能144とを実行する。なお、検出機能142は、検出部の一例である。推定機能143は、推定部の一例である。表示制御機能144は、出力部の一例である。 Further, the image processing circuit 140 according to the present embodiment executes the image generation function 141, the detection function 142, the estimation function 143, and the display control function 144. The detection function 142 is an example of a detection unit. The estimation function 143 is an example of an estimation unit. The display control function 144 is an example of an output unit.

ここで、図1に示す画像処理回路140の構成要素である画像生成機能141、検出機能142、推定機能143、表示制御機能144が実行する各処理機能は、例えば、コンピュータによって実行可能なプログラムの形態で記憶回路160に記録されている。画像処理回路140は、各プログラムを記憶回路160から読み出し、実行することで各プログラムに対応する機能を実現するプロセッサである。換言すると、各プログラムを読み出した状態の画像処理回路140は、図1の画像処理回路140内に示された各機能を有することとなる。画像処理回路140が実行する画像生成機能141、検出機能142、推定機能143、表示制御機能144の処理内容については、後述する。 Here, each processing function executed by the image generation function 141, the detection function 142, the estimation function 143, and the display control function 144, which are the components of the image processing circuit 140 shown in FIG. 1, is, for example, a program that can be executed by a computer. It is recorded in the storage circuit 160 in the form. The image processing circuit 140 is a processor that realizes a function corresponding to each program by reading each program from the storage circuit 160 and executing the program. In other words, the image processing circuit 140 in the state where each program is read out has each function shown in the image processing circuit 140 of FIG. The processing contents of the image generation function 141, the detection function 142, the estimation function 143, and the display control function 144 executed by the image processing circuit 140 will be described later.

なお、図1においては、単一の画像処理回路140において、画像生成機能141、検出機能142、推定機能143、表示制御機能144にて行われる各処理機能が実現されるものとして説明するが、複数の独立したプロセッサを組み合わせて処理回路を構成し、各プロセッサがプログラムを実行することにより機能を実現するものとしても構わない。 In FIG. 1, it is assumed that each processing function performed by the image generation function 141, the detection function 142, the estimation function 143, and the display control function 144 is realized in the single image processing circuit 140. A processing circuit may be configured by combining a plurality of independent processors, and the function may be realized by each processor executing a program.

上記説明において用いた「プロセッサ」という文言は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC))、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。プロセッサが例えばCPUである場合、プロセッサは記憶回路60に保存されたプログラムを読み出し実行することで機能を実現する。一方、プロセッサが例えばASICである場合、記憶回路60にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込まれる。なお、本実施形態の各プロセッサは、プロセッサごとに単一の回路として構成される場合に限らず、複数の独立した回路を組み合わせて1つのプロセッサとして構成し、その機能を実現するようにしてもよい。さらに、図1における複数の構成要素を1つのプロセッサへ統合してその機能を実現するようにしてもよい。 The word "processor" used in the above description is, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an integrated circuit for a specific application (Application Specific Integrated Circuit (ASIC)), or a programmable logic device (for example, a simple one). It means a circuit such as a programmable logic device (Simple Programmable Logic Device: SPLD), a complex programmable logic device (CPLD), and a field programmable gate array (FPGA). When the processor is, for example, a CPU, the processor realizes the function by reading and executing the program stored in the storage circuit 60. On the other hand, when the processor is, for example, an ASIC, the program is directly incorporated in the circuit of the processor instead of storing the program in the storage circuit 60. It should be noted that each processor of the present embodiment is not limited to the case where each processor is configured as a single circuit, and a plurality of independent circuits may be combined to form one processor to realize its function. good. Further, a plurality of components in FIG. 1 may be integrated into one processor to realize the function.

画像メモリ150及び記憶回路160は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、又は、ハードディスク、光ディスク等の記憶装置などである。 The image memory 150 and the storage circuit 160 are, for example, semiconductor memory elements such as RAM (Random Access Memory) and flash memory (Flash Memory), or storage devices such as hard disk and optical disk.

画像メモリ150は、超音波画像データとして、画像処理回路140が生成したBモード画像データやドプラ画像データ等の画像データを記憶するメモリである。また、画像メモリ150は、超音波画像データとして、Bモード処理回路120が生成したBモードデータやドプラ処理回路130が生成したドプラデータ等の画像データを記憶することも可能である。画像メモリ150が記憶する超音波画像データは、例えば、診断の後に操作者が呼び出すことが可能となっており、画像処理回路140を経由して表示用の超音波画像データとなる。 The image memory 150 is a memory that stores image data such as B-mode image data and Doppler image data generated by the image processing circuit 140 as ultrasonic image data. Further, the image memory 150 can also store image data such as B mode data generated by the B mode processing circuit 120 and Doppler data generated by the Doppler processing circuit 130 as ultrasonic image data. The ultrasonic image data stored in the image memory 150 can be called by an operator after diagnosis, for example, and becomes the ultrasonic image data for display via the image processing circuit 140.

記憶回路160は、超音波送受信、画像処理および表示処理を行うための制御プログラムや、診断情報(例えば、患者ID、医師の所見等)や、診断プロトコルや各種ボディーマーク等の各種データを記憶する。また、記憶回路160が記憶するデータは、図示しないインタフェース部を介して、外部装置へ転送することができる。なお、外部装置は、例えば、画像診断を行なう医師が使用するPC(Personal Computer)や、CDやDVD等の記憶媒体、プリンター等である。また、記憶回路160は、超音波診断装置1がネットワーク2上でアクセス可能であれば、超音波診断装置1に内蔵されていなくてもよい。 The storage circuit 160 stores control programs for ultrasonic transmission / reception, image processing, and display processing, diagnostic information (for example, patient ID, doctor's findings, etc.), and various data such as diagnostic protocols and various body marks. .. Further, the data stored in the storage circuit 160 can be transferred to an external device via an interface unit (not shown). The external device is, for example, a PC (Personal Computer) used by a doctor who performs image diagnosis, a storage medium such as a CD or a DVD, a printer, or the like. Further, the storage circuit 160 may not be built in the ultrasonic diagnostic device 1 as long as the ultrasonic diagnostic device 1 is accessible on the network 2.

また、記憶回路160は、学習済モデル400を記憶する。学習済モデル400は、超音波スキャンを過去に実施したときの超音波画像データと、当該超音波画像データにおける計測部位を含む領域を表す学習用データとを用いた学習により生成されたモデルである。当該学習としては、例えば、ニューラルネットワークを基にしたAI(Artificial Intelligence)を用いた学習や機械学習等が挙げられる。当該学習により、学習済モデル400は、入力データである超音波画像データの入力を受けて、当該超音波画像データにおける計測部位を含む領域を検出した結果を示す出力データを出力するように機能付けられている。ここで、計測部位としては、胎児の頭部、腹部、大腿部、上腕部などが挙げられる。学習済モデル400の使用や生成については後述する。 Further, the storage circuit 160 stores the trained model 400. The trained model 400 is a model generated by training using ultrasonic image data when an ultrasonic scan was performed in the past and training data representing a region including a measurement site in the ultrasonic image data. .. Examples of the learning include learning using AI (Artificial Intelligence) based on a neural network, machine learning, and the like. By the training, the trained model 400 receives the input of the ultrasonic image data which is the input data, and has a function to output the output data showing the result of detecting the region including the measurement site in the ultrasonic image data. Has been done. Here, examples of the measurement site include the head, abdomen, thigh, and upper arm of the foetation. The use and generation of the trained model 400 will be described later.

制御回路170は、超音波診断装置1の処理全体を制御する。具体的には、制御回路170は、入力装置102を介して操作者から入力された各種設定要求や、記憶回路160から読み込んだ各種制御プログラムおよび各種データに基づき、送受信回路110、Bモード処理回路120、ドプラ処理回路130、画像処理回路140等の処理を制御する。 The control circuit 170 controls the entire processing of the ultrasonic diagnostic apparatus 1. Specifically, the control circuit 170 is a transmission / reception circuit 110 and a B mode processing circuit based on various setting requests input from the operator via the input device 102, various control programs read from the storage circuit 160, and various data. It controls the processing of 120, the Doppler processing circuit 130, the image processing circuit 140, and the like.

なお、装置本体100に内蔵される送受信回路110、Bモード処理回路120、ドプラ処理回路130、画像処理回路140、および制御回路170等は、プロセッサ(CPU(Central Processing Unit)、MPU(Micro-Processing Unit)、集積回路等)のハードウェアにより構成されることもあるが、ソフトウェア的にモジュール化されたプログラムにより構成される場合もある。 The transmission / reception circuit 110, the B mode processing circuit 120, the Doppler processing circuit 130, the image processing circuit 140, the control circuit 170, and the like built in the apparatus main body 100 include a processor (CPU (Central Processing Unit)) and an MPU (Micro-Processing). It may be composed of hardware such as Unit), integrated circuit, etc., but it may also be composed of software-modularized programs.

このように構成される超音波診断装置1は、例えば、妊婦の子宮内の胎児の発育を確認する用途として、超音波プローブ101が、妊婦の子宮内の胎児の一部(計測部位)を含む領域に対して超音波の送受信(超音波スキャン)を実行し、画像処理回路140が、そのスキャン結果に基づいて、計測部位を含む領域が画像化された超音波画像を生成する。例えば、超音波診断装置1では、キャリパ(caliper)を用いたマニュアル計測ではなく、超音波画像から胎児の頭部や腹部等の計測部位を自動検出して、胎児の児頭大横径(BPD)、児頭周囲長(HC)、腹部周囲長(AC)、大腿骨長(FL)、上腕骨長(HL)等のパラメータを計測するための計測点を推定する。また、超音波診断装置1では、上記計測点を用いて計測されたパラメータを用いることにより、推定胎児体重(EFW)を算出することができる。 In the ultrasonic diagnostic apparatus 1 configured as described above, for example, the ultrasonic probe 101 includes a part (measurement site) of the fetus in the womb of the pregnant woman for the purpose of confirming the growth of the fetal in the womb of the pregnant woman. Transmission and reception of ultrasonic waves (ultrasonic scan) is executed for the region, and the image processing circuit 140 generates an ultrasonic image in which the region including the measurement site is imaged based on the scan result. For example, in the ultrasonic diagnostic apparatus 1, instead of manual measurement using a caliper, measurement sites such as the head and abdomen of the fetal are automatically detected from ultrasonic images, and the large lateral diameter of the fetal head (BPD). ), Peripheral length of the baby's head (HC), Peripheral abdomen (AC), Femoral bone length (FL), humeral bone length (HL), and other parameters are estimated. Further, in the ultrasonic diagnostic apparatus 1, the estimated fetal weight (EFW) can be calculated by using the parameters measured using the above measurement points.

以上、本実施形態に係る超音波診断装置1の全体構成について説明した。かかる構成のもと、本実施形態に係る超音波診断装置1では、超音波画像を用いた計測の精度を向上させることができる。 The overall configuration of the ultrasonic diagnostic apparatus 1 according to the present embodiment has been described above. Under such a configuration, the ultrasonic diagnostic apparatus 1 according to the present embodiment can improve the accuracy of measurement using an ultrasonic image.

例えば、BPD、HC、AC、FL、HL等のパラメータを計測する際、輝度に基づく画像処理により、計測部位を計測するための計測点を推定する方法が知られている。具体的には、超音波画像から、BPD、HC、AC等のパラメータを計測する場合では、頭部や腹部等の計測部位の輪郭を楕円で近似し、輝度値に基づいて超音波画像内で楕円形状の高輝度領域を検出することにより、当該計測部位を計測するための計測点を推定する。かかる場合、計測点は、楕円の長軸の端点や短軸の端点である。同様に、超音波画像から、FL、HL等のパラメータを計測する場合では、大腿骨や上腕骨等の計測部位に該当する棒状の領域を、輝度値に基づいて超音波画像内で検出し、当該計測部位を計測するための計測点を推定する。かかる場合、計測点は、棒状の領域の両端点である。しかし、この方法を適用する場合、以下のような問題点がある。 For example, when measuring parameters such as BPD, HC, AC, FL, and HL, there is known a method of estimating a measurement point for measuring a measurement site by image processing based on luminance. Specifically, when measuring parameters such as BPD, HC, and AC from an ultrasonic image, the contour of the measured part such as the head and abdomen is approximated by an ellipse, and the ultrasonic image is based on the brightness value. By detecting the elliptical high-luminance region, the measurement point for measuring the measurement site is estimated. In such a case, the measurement point is the end point of the long axis of the ellipse or the end point of the short axis. Similarly, when measuring parameters such as FL and HL from an ultrasonic image, a rod-shaped region corresponding to a measurement site such as a femur or a humerus is detected in the ultrasonic image based on a brightness value. Estimate the measurement point for measuring the measurement site. In such a case, the measurement points are the points at both ends of the rod-shaped region. However, when this method is applied, there are the following problems.

図2は、計測部位を計測するときの問題点を説明するための図である。例えば、超音波画像からHCを計測する場合、図2に示すように、輝度を用いて、計測部位の輪郭を近似した楕円HC100を検出することにより、当該計測部位を計測するための計測点P101〜P103を推定する。しかし、超音波画像において、楕円HC100で表す実際の計測部位の輪郭よりも輝度が高い部分が存在する場合、当該輝度が高い部分につられて、計測点が推定される可能性がある。例えば、図2に示すように、楕円HC100で表す輪郭よりも輝度が高い部分が存在し、当該部分を含むように楕円HC200が検出された場合、計測部位の外側に位置する点P201が計測点として推定される。このように、輝度に基づいて計測部位を検出する場合、計測部位以外の高輝度な部分により、正しい計測点が推定されない可能性があるため、BPD、HC、AC、FL、HL等のパラメータを精度よく計測することができない場合があった。 FIG. 2 is a diagram for explaining a problem when measuring a measurement site. For example, when measuring HC from an ultrasonic image, as shown in FIG. 2, a measurement point P101 for measuring the measurement site by detecting an elliptical HC100 that approximates the contour of the measurement site using luminance. ~ P103 is estimated. However, if there is a portion of the ultrasonic image whose brightness is higher than the contour of the actual measurement portion represented by the ellipse HC100, the measurement point may be estimated by the portion having the higher brightness. For example, as shown in FIG. 2, when there is a portion having a brightness higher than the contour represented by the ellipse HC100 and the ellipse HC200 is detected so as to include the portion, the point P201 located outside the measurement portion is the measurement point. Estimated as. In this way, when the measurement part is detected based on the brightness, the correct measurement point may not be estimated due to the high brightness part other than the measurement part. Therefore, parameters such as BPD, HC, AC, FL, and HL may be used. In some cases, it was not possible to measure accurately.

そこで、本実施形態に係る超音波診断装置1では、検出機能142は、超音波画像から、計測部位を内包する第1矩形を検出する。推定機能143は、第1矩形の位置情報に基づいて、計測部位を計測するための計測点を推定する。表示制御機能144は、計測点に関する情報を出力する。 Therefore, in the ultrasonic diagnostic apparatus 1 according to the present embodiment, the detection function 142 detects the first rectangle including the measurement site from the ultrasonic image. The estimation function 143 estimates a measurement point for measuring a measurement site based on the position information of the first rectangle. The display control function 144 outputs information about the measurement point.

以下では、図3〜図8を用いて、画像生成機能141、検出機能142、推定機能143、表示制御機能144の各機能について説明する。 Hereinafter, each function of the image generation function 141, the detection function 142, the estimation function 143, and the display control function 144 will be described with reference to FIGS. 3 to 8.

図3〜図7は、本実施形態に係る超音波診断装置1の画像処理回路140による処理を説明するための図である。図3〜図7では、例えば、超音波診断装置1が超音波画像を用いることにより、胎児の腹部周囲長(AC)を計測する場合の説明図である。この場合、計測部位は、胎児の腹部である。図8は、本実施形態に係る超音波診断装置1による処理の手順を示すフローチャートである。図8では、超音波診断装置1全体の動作(画像処理方法)を説明するフローチャートを示し、各構成要素がフローチャートのどのステップに対応するかを説明する。 3 to 7 are diagrams for explaining the processing by the image processing circuit 140 of the ultrasonic diagnostic apparatus 1 according to the present embodiment. 3 to 7 are explanatory views when, for example, the ultrasonic diagnostic apparatus 1 measures the abdominal circumference (AC) of a foetation by using an ultrasonic image. In this case, the measurement site is the abdomen of the foetation. FIG. 8 is a flowchart showing a processing procedure by the ultrasonic diagnostic apparatus 1 according to the present embodiment. FIG. 8 shows a flowchart explaining the operation (image processing method) of the entire ultrasonic diagnostic apparatus 1, and describes which step of the flowchart each component corresponds to.

図8のステップS101は、超音波プローブ101により実施されるステップである。ステップS101では、超音波プローブ101は、超音波スキャンを実施する。具体的には、超音波プローブ101は、被検体Pの体表面(妊婦の腹部)に接触され、妊婦の子宮内の胎児の一部(計測部位)を含む領域に対して超音波スキャンを実行し、超音波スキャンの結果として、上記領域の反射波信号を収集する。 Step S101 in FIG. 8 is a step performed by the ultrasonic probe 101. In step S101, the ultrasonic probe 101 performs an ultrasonic scan. Specifically, the ultrasonic probe 101 is in contact with the body surface of the subject P (the abdomen of the pregnant woman), and an ultrasonic scan is performed on the region including a part (measurement site) of the foetation in the womb of the pregnant woman. Then, as a result of the ultrasonic scan, the reflected wave signal in the above region is collected.

図8のステップS102は、画像処理回路140が記憶回路160から画像生成機能141に対応するプログラムを呼び出して実行されるステップである。ステップS102では、画像生成機能141は、超音波画像を生成する。 Step S102 of FIG. 8 is a step in which the image processing circuit 140 calls a program corresponding to the image generation function 141 from the storage circuit 160 and is executed. In step S102, the image generation function 141 generates an ultrasonic image.

具体的には、画像生成機能141は、超音波プローブ101により得られた反射波信号に基づいて、図3に示すような超音波画像200を生成する。超音波画像200は、計測部位を含む領域が画像化された超音波画像データである。ここで、画像生成機能141は、Bモード処理回路120により生成されたBモードデータを用いてBモード画像データを生成することで、上記超音波画像200を生成してもよいし、画像メモリ150が記憶する超音波画像データを用いて、上記超音波画像200を生成してもよい。 Specifically, the image generation function 141 generates an ultrasonic image 200 as shown in FIG. 3 based on the reflected wave signal obtained by the ultrasonic probe 101. The ultrasonic image 200 is ultrasonic image data in which a region including a measurement site is imaged. Here, the image generation function 141 may generate the ultrasonic image 200 by generating B-mode image data using the B-mode data generated by the B-mode processing circuit 120, or the image memory 150. The ultrasonic image 200 may be generated by using the ultrasonic image data stored in.

図8のステップS103は、画像処理回路140が記憶回路160から検出機能142に対応するプログラムを呼び出して実行されるステップである。ステップS103では、検出機能142は、超音波画像200から、計測部位を内包する第1バウンディングボックスを検出する。 Step S103 of FIG. 8 is a step in which the image processing circuit 140 calls a program corresponding to the detection function 142 from the storage circuit 160 and is executed. In step S103, the detection function 142 detects the first bounding box including the measurement site from the ultrasonic image 200.

具体的には、まず、検出機能142は、記憶回路160から読み出した学習済モデル400を用いて、超音波画像200から、計測部位を検出する。学習済モデル400は、入力データである超音波画像データの入力を受けて、当該超音波画像データにおける計測部位を検出した結果である出力データを出力する。例えば、学習済モデル400は、計測部位である腹部の輪郭を近似した楕円を内包する矩形を、出力データとして出力する。かかる矩形は、バウンディングボックス(外接矩形)とも呼ばれる。検出機能142は、学習済モデル400に超音波画像200を入力することで、楕円で輪郭が近似された胎児の腹部の位置および大きさを示し、胎児の腹部を内包するバウンディングボックスとして、図4に示すような第1バウンディングボックス210を検出する。第1バウンディングボックス210は、「第1矩形」の一例である。 Specifically, first, the detection function 142 detects the measurement site from the ultrasonic image 200 by using the learned model 400 read from the storage circuit 160. The trained model 400 receives the input of the ultrasonic image data which is the input data, and outputs the output data which is the result of detecting the measurement site in the ultrasonic image data. For example, the trained model 400 outputs a rectangle including an ellipse that approximates the contour of the abdomen, which is a measurement site, as output data. Such a rectangle is also called a bounding box (boundary rectangle). The detection function 142 indicates the position and size of the abdomen of the foetation whose contour is approximated by an ellipse by inputting the ultrasonic image 200 into the trained model 400, and as a bounding box containing the abdomen of the fetal, FIG. The first bounding box 210 as shown in is detected. The first bounding box 210 is an example of a "first rectangle".

また、検出機能142は、学習済モデル400を用いて、超音波画像200から、所定の構造物を検出する。学習済モデル400は、入力データである超音波画像データの入力を受けて、当該超音波画像データにおける所定の構造を検出した結果である出力データを出力する。計測部位が胎児の腹部である場合、所定の構造物は、胎児の脊椎である。例えば、図4に示すように、検出機能142は、学習済モデル400に超音波画像200を入力することで、脊椎202を検出し、出力データとして出力する。 Further, the detection function 142 detects a predetermined structure from the ultrasonic image 200 by using the trained model 400. The trained model 400 receives the input of the ultrasonic image data which is the input data, and outputs the output data which is the result of detecting the predetermined structure in the ultrasonic image data. If the measurement site is the abdomen of the foetation, the predetermined structure is the spine of the foetation. For example, as shown in FIG. 4, the detection function 142 detects the spine 202 by inputting the ultrasonic image 200 into the trained model 400, and outputs the spine 202 as output data.

ここで、推定機能143は、第1バウンディングボックス210の位置情報に基づいて、胎児の腹部を計測するための仮の計測点を推定する。例えば、図4に示すように、推定機能143は、胎児の腹部の輪郭を近似した楕円が第1バウンディングボックス210に内接する点211〜213を、仮の計測点として推定する。計測点211〜213は、第1バウンディングボックス210に内接する楕円の長軸の端点や短軸の端点となり、第1バウンディングボックス210の長辺の中点や、短辺の中点となる。 Here, the estimation function 143 estimates a temporary measurement point for measuring the abdomen of the foetation based on the position information of the first bounding box 210. For example, as shown in FIG. 4, the estimation function 143 estimates points 211 to 213 inscribed in the first bounding box 210 by an ellipse that approximates the contour of the abdomen of the foetation as temporary measurement points. The measurement points 211 to 213 are the end points of the long axis and the short axis of the ellipse inscribed in the first bounding box 210, and are the midpoints of the long side and the short side of the first bounding box 210.

図8のステップS104は、画像処理回路140が記憶回路160から検出機能142に対応するプログラムを呼び出して実行されるステップである。ステップS104では、検出機能142は、第1バウンディングボックス210の位置情報と、所定の構造物の位置情報とに基づいて、計測部位の向きを検出する。 Step S104 of FIG. 8 is a step in which the image processing circuit 140 calls a program corresponding to the detection function 142 from the storage circuit 160 and is executed. In step S104, the detection function 142 detects the orientation of the measurement site based on the position information of the first bounding box 210 and the position information of a predetermined structure.

具体的には、まず、検出機能142は、図4に示すように、超音波画像200において、第1バウンディングボックス210の中心C210と、所定の構造物である胎児の脊椎202の中心とを結ぶ線分L210を検出する。次に、検出機能142は、線分L210の方向を、計測部位である胎児の腹部の向きとして検出する。図4に示す一例では、線分L210の方向は、超音波画像200が表示される画面の縦方向または横方向を基準とした場合に、時計回りまたは反時計回りに角度θだけ傾いていることを表している。超音波画像200が表示される画面の縦方向、横方向とは、それぞれ、超音波画像200の画素の列方向、行方向に相当する。例えば、図4に示すように、線分L210の方向は、超音波画像200が表示される画面の縦方向を基準とした場合に、反時計回りに角度θだけ傾いている。 Specifically, first, as shown in FIG. 4, the detection function 142 connects the center C210 of the first bounding box 210 and the center of the fetal spine 202, which is a predetermined structure, in the ultrasonic image 200. The line segment L210 is detected. Next, the detection function 142 detects the direction of the line segment L210 as the direction of the abdomen of the foetation, which is the measurement site. In the example shown in FIG. 4, the direction of the line segment L210 is tilted clockwise or counterclockwise by an angle θ with respect to the vertical direction or the horizontal direction of the screen on which the ultrasonic image 200 is displayed. Represents. The vertical direction and the horizontal direction of the screen on which the ultrasonic image 200 is displayed correspond to the column direction and the row direction of the pixels of the ultrasonic image 200, respectively. For example, as shown in FIG. 4, the direction of the line segment L210 is tilted counterclockwise by an angle θ with respect to the vertical direction of the screen on which the ultrasonic image 200 is displayed.

図8のステップS105は、画像処理回路140が記憶回路160から検出機能142に対応するプログラムを呼び出して実行されるステップである。ステップS105では、検出機能142は、ステップS104で検出した計測部位が傾いているか否かを判定する処理を行う。 Step S105 in FIG. 8 is a step in which the image processing circuit 140 calls a program corresponding to the detection function 142 from the storage circuit 160 and is executed. In step S105, the detection function 142 performs a process of determining whether or not the measurement portion detected in step S104 is tilted.

上述したように、検出機能142が検出した線分L210の方向は、計測部位である胎児の腹部の向きとして見なすことができる。例えば、超音波画像200に描出されている腹部は、超音波画像200が表示される画面の縦方向を基準とした場合に、反時計回りに角度θだけ傾いていると見なすことができる。この場合、ステップS105の判定処理において、検出機能142は、ステップS104で検出した計測部位が傾いていると判定する(ステップS105;Yes)。 As described above, the direction of the line segment L210 detected by the detection function 142 can be regarded as the direction of the abdomen of the foetation, which is the measurement site. For example, the abdomen depicted in the ultrasonic image 200 can be considered to be tilted counterclockwise by an angle θ with respect to the vertical direction of the screen on which the ultrasonic image 200 is displayed. In this case, in the determination process of step S105, the detection function 142 determines that the measurement site detected in step S104 is tilted (step S105; Yes).

図8のステップS106は、画像処理回路140が記憶回路160から検出機能142に対応するプログラムを呼び出して実行されるステップである。ステップS106では、検出機能142は、ステップS104で検出した計測部位の向きに基づいて、超音波画像200に対して回転処理を行う。具体的には、検出機能142は、線分L210の方向が、超音波画像200が表示される画面の縦方向または横方向となるように、回転処理を行う。 Step S106 of FIG. 8 is a step in which the image processing circuit 140 calls a program corresponding to the detection function 142 from the storage circuit 160 and is executed. In step S106, the detection function 142 performs rotation processing on the ultrasonic image 200 based on the orientation of the measurement site detected in step S104. Specifically, the detection function 142 performs rotation processing so that the direction of the line segment L210 is the vertical direction or the horizontal direction of the screen on which the ultrasonic image 200 is displayed.

回転処理を行うことで、計測部位である胎児の腹部の前後方向が、画面の縦方向または横方向となり、左右方向が、画面の横方向または縦方向となる可能性が高くなる。すなわち、回転処理を行うことで、腹部の輪郭として検出される楕円の長軸または短軸が、超音波画像200が表示される画面の縦方向または横方向となる可能性が高くなる。更に、かかる回転処理を行うことで、バウンディングボックスの一辺が、超音波画像200が表示される画面の縦方向または横方向となる可能性が高くなる。 By performing the rotation process, there is a high possibility that the anterior-posterior direction of the abdomen of the foetation, which is the measurement site, becomes the vertical direction or the horizontal direction of the screen, and the left-right direction becomes the horizontal direction or the vertical direction of the screen. That is, by performing the rotation process, there is a high possibility that the long axis or the short axis of the ellipse detected as the contour of the abdomen becomes the vertical direction or the horizontal direction of the screen on which the ultrasonic image 200 is displayed. Further, by performing such rotation processing, there is a high possibility that one side of the bounding box will be in the vertical direction or the horizontal direction of the screen on which the ultrasonic image 200 is displayed.

例えば、図5に示すように、検出機能142は、線分L210の方向が、超音波画像200が表示される画面の縦方向となるように、回転処理を行う。すなわち、線分L210の方向は、超音波画像200が表示される画面の縦方向を基準とした場合に、反時計回りに角度θだけ傾いているため、検出機能142は、超音波画像200を時計回りに角度θだけ回転させる。 For example, as shown in FIG. 5, the detection function 142 performs rotation processing so that the direction of the line segment L210 is the vertical direction of the screen on which the ultrasonic image 200 is displayed. That is, since the direction of the line segment L210 is tilted counterclockwise by an angle θ with respect to the vertical direction of the screen on which the ultrasonic image 200 is displayed, the detection function 142 displays the ultrasonic image 200. Rotate clockwise by an angle θ.

図8のステップS107は、画像処理回路140が記憶回路160から検出機能142に対応するプログラムを呼び出して実行されるステップである。ステップS107では、検出機能142は、ステップS106で実行した回転処理後の超音波画像200から、計測部位を内包する第2バウンディングボックスを検出する。 Step S107 of FIG. 8 is a step in which the image processing circuit 140 calls a program corresponding to the detection function 142 from the storage circuit 160 and is executed. In step S107, the detection function 142 detects the second bounding box including the measurement site from the ultrasonic image 200 after the rotation process executed in step S106.

具体的には、検出機能142は、学習済モデル400に回転処理後の超音波画像200を入力することで、楕円で輪郭が近似された胎児の腹部の位置および大きさを示し、胎児の腹部を内包するバウンディングボックスとして、図5に示すような第2バウンディングボックス220を検出する。この場合、バウンディングボックスが、第1バウンディングボックス210から、第2バウンディングボックス220に変更される。例えば、第2バウンディングボックス220は、「第2矩形」の一例である。 Specifically, the detection function 142 indicates the position and size of the fetal abdomen whose contour is approximated by an ellipse by inputting the ultrasonic image 200 after the rotation processing into the trained model 400, and indicates the position and size of the fetal abdomen. A second bounding box 220 as shown in FIG. 5 is detected as a bounding box containing the above. In this case, the bounding box is changed from the first bounding box 210 to the second bounding box 220. For example, the second bounding box 220 is an example of a "second rectangle".

図8のステップS108は、画像処理回路140が記憶回路160から推定機能143に対応するプログラムを呼び出して実行されるステップである。ステップS108では、推定機能143は、第2バウンディングボックス220の位置情報に基づいて、胎児の腹部を計測するための計測点を推定する。 Step S108 of FIG. 8 is a step in which the image processing circuit 140 calls a program corresponding to the estimation function 143 from the storage circuit 160 and is executed. In step S108, the estimation function 143 estimates a measurement point for measuring the abdomen of the foetation based on the position information of the second bounding box 220.

具体的には、図5に示すように、推定機能143は、胎児の腹部の輪郭を近似した楕円224が第2バウンディングボックス220に内接する点221〜223を、計測点として推定する。点221〜223は、楕円224の長軸の端点や短軸の端点となり、第2バウンディングボックス220の長辺の中点や、短辺の中点となる。この場合、推定機能143は、胎児の腹部を計測するための計測点として、第1バウンディングボックス210の位置情報に基づく計測点211〜213を、第2バウンディングボックス220の位置情報に基づく計測点221〜223に更新する。 Specifically, as shown in FIG. 5, the estimation function 143 estimates points 221 to 223 inscribed in the second bounding box 220 by the ellipse 224 that approximates the contour of the abdomen of the foetation as measurement points. The points 221 to 223 are the end points of the long axis and the end points of the short axis of the ellipse 224, and are the midpoints of the long side and the short side of the second bounding box 220. In this case, the estimation function 143 uses measurement points 211 to 213 based on the position information of the first bounding box 210 as measurement points for measuring the abdomen of the foetation, and measurement points 221 based on the position information of the second bounding box 220. Update to ~ 223.

なお、ステップS105の判定処理において、超音波画像200が表示される画面の縦方向または横方向を基準としたときに、検出機能142が検出した線分L210の方向が、超音波画像200が表示される画面の縦方向または横方向となる場合、超音波画像200に描出されている腹部は、傾いていないと見なすことができる。この場合、検出機能142は、ステップS104で検出した計測部位が傾いていないと判定し(ステップS105;No)、ステップS106、S107が実行されずに、ステップS108が実行される。すなわち、検出機能142は超音波画像200に対して回転処理を行わず、ステップS108において、推定機能143は、第1バウンディングボックス210の位置情報に基づく計測点211〜213を、胎児の腹部を計測するための計測点とする。 In the determination process of step S105, the ultrasonic image 200 displays the direction of the line segment L210 detected by the detection function 142 when the vertical direction or the horizontal direction of the screen on which the ultrasonic image 200 is displayed is used as a reference. When the screen is in the vertical or horizontal direction, the abdomen depicted in the ultrasonic image 200 can be regarded as not tilted. In this case, the detection function 142 determines that the measurement site detected in step S104 is not tilted (step S105; No), and step S108 is executed without executing steps S106 and S107. That is, the detection function 142 does not rotate the ultrasonic image 200, and in step S108, the estimation function 143 measures the measurement points 211 to 213 based on the position information of the first bounding box 210 and the abdomen of the foetation. It is a measurement point for this.

図8のステップS109は、画像処理回路140が記憶回路160から表示制御機能144に対応するプログラムを呼び出して実行されるステップである。ステップS109では、表示制御機能144は、計測点221〜223に関する情報を画面により出力させる。 Step S109 of FIG. 8 is a step in which the image processing circuit 140 calls a program corresponding to the display control function 144 from the storage circuit 160 and is executed. In step S109, the display control function 144 outputs information on the measurement points 221 to 223 on the screen.

例えば、表示制御機能144は、計測点221〜223に関する情報として、計測点221〜223の位置を示すマークが、回転処理が行われる前の超音波画像200に描出された画像をディスプレイ103に表示させる。具体的には、まず、表示制御機能144は、図5に示すように、計測点221〜223の位置を示すマークを、回転処理後の超音波画像200に描画する。ここで、計測点221〜223の位置を示すマークが描画された超音波画像200は、図4に示す超音波画像200を、時計回りに角度θだけ回転させた画像である。このため、図6に示すように、表示制御機能144は、計測点221〜223の位置を示すマークが描画された超音波画像200を、反時計回りに角度θだけ回転させる。このとき、図7に示すように、ディスプレイ103には、計測点221〜223の位置を示すマークが、回転処理が行われる前の超音波画像200に描出された画像が表示される。また、ディスプレイ103には、計測点221〜223が長軸の端点や短軸の端点となる楕円224が、当該画像に重ねて表示される。 For example, the display control function 144 displays, as information on the measurement points 221 to 223, an image on the display 103 in which the mark indicating the position of the measurement points 221 to 223 is drawn on the ultrasonic image 200 before the rotation processing is performed. Let me. Specifically, first, as shown in FIG. 5, the display control function 144 draws a mark indicating the position of the measurement points 221 to 223 on the ultrasonic image 200 after the rotation process. Here, the ultrasonic image 200 on which the mark indicating the position of the measurement points 221 to 223 is drawn is an image obtained by rotating the ultrasonic image 200 shown in FIG. 4 clockwise by an angle θ. Therefore, as shown in FIG. 6, the display control function 144 rotates the ultrasonic image 200 on which the mark indicating the position of the measurement points 221 to 223 is drawn by an angle θ counterclockwise. At this time, as shown in FIG. 7, the display 103 displays an image in which the marks indicating the positions of the measurement points 221 to 223 are drawn on the ultrasonic image 200 before the rotation processing is performed. Further, on the display 103, an ellipse 224 in which the measurement points 221 to 223 serve as the end points of the long axis and the end points of the short axis is displayed superimposed on the image.

ここで、表示制御機能144は、計測点221〜223に関する情報として、図7に示す画像をディスプレイ103に表示するときに、計測点221〜223が推定された旨を操作者に通知してもよい。例えば、入力装置102またはディスプレイ103には、LED(Light Emitting Diode)等のランプが設けられ、表示制御機能144が、ランプを点灯することにより、計測点221〜223が推定された旨を操作者に通知してから、図7に示す画像をディスプレイ103に表示してもよい。例えば、表示制御機能144が、計測点221〜223が推定された旨をメッセージによりディスプレイ103に表示してから、図7に示す画像をディスプレイ103に表示してもよい。例えば、ディスプレイ103は、スピーカー(図示しない)を有し、表示制御機能144が、ビープ音などの所定の音声を出力してから、図7に示す画像をディスプレイ103に表示してもよい。 Here, the display control function 144 may notify the operator that the measurement points 221 to 223 have been estimated when the image shown in FIG. 7 is displayed on the display 103 as information regarding the measurement points 221 to 223. good. For example, the input device 102 or the display 103 is provided with a lamp such as an LED (Light Emitting Diode), and the display control function 144 indicates that the measurement points 221 to 223 are estimated by turning on the lamp. Then, the image shown in FIG. 7 may be displayed on the display 103. For example, the display control function 144 may display on the display 103 that the measurement points 221 to 223 have been estimated by a message, and then display the image shown in FIG. 7 on the display 103. For example, the display 103 may have a speaker (not shown), and the display control function 144 may output a predetermined sound such as a beep sound, and then display the image shown in FIG. 7 on the display 103.

なお、図7に示す画像上に表示されたマークは、操作者により変更可能である。例えば、操作者は、入力装置102を操作することより、画像上に表示されたマークを移動させることができる。 The mark displayed on the image shown in FIG. 7 can be changed by the operator. For example, the operator can move the mark displayed on the image by operating the input device 102.

これにより、推定機能143は、超音波画像200と計測点221〜223とを用いることにより、胎児の腹部周囲長(AC)を計測することができる。例えば、推定機能143は、超音波画像200において、計測点221〜223により形成される楕円224の周りの長さをACとして計測する。 Thereby, the estimation function 143 can measure the abdominal circumference (AC) of the foetation by using the ultrasonic image 200 and the measurement points 221 to 223. For example, the estimation function 143 measures the length around the ellipse 224 formed by the measurement points 221 to 223 as AC in the ultrasonic image 200.

このように、本実施形態に係る超音波診断装置1では、検出機能142は、超音波画像200から、計測部位を内包する第1バウンディングボックス210を検出し、推定機能143は、第1バウンディングボックス210の位置情報に基づいて、計測部位を計測するための計測点を推定する。具体的には、検出機能142は、超音波画像200から、第1バウンディングボックス210とともに、所定の構造物を検出する。次に、検出機能142は、所定の構造物の位置情報と、第1バウンディングボックス210の位置情報とに基づいて、超音波画像200に対して回転処理を行い、回転処理が行われた超音波画像200から、計測部位を内包する第2バウンディングボックス220を検出する。次に、推定機能143は、計測部位を計測するための計測点として、第1バウンディングボックス210の位置情報に基づく計測点211〜213を、第2バウンディングボックス220の位置情報に基づく計測点221〜223に更新する。そして、表示制御機能144は、計測点221〜223に関する情報を出力させる。 As described above, in the ultrasonic diagnostic apparatus 1 according to the present embodiment, the detection function 142 detects the first bounding box 210 including the measurement site from the ultrasonic image 200, and the estimation function 143 is the first bounding box. Based on the position information of 210, the measurement point for measuring the measurement site is estimated. Specifically, the detection function 142 detects a predetermined structure from the ultrasonic image 200 together with the first bounding box 210. Next, the detection function 142 performs rotation processing on the ultrasonic image 200 based on the position information of the predetermined structure and the position information of the first bounding box 210, and the rotation processing of the ultrasonic waves is performed. From the image 200, the second bounding box 220 including the measurement site is detected. Next, the estimation function 143 uses measurement points 211 to 213 based on the position information of the first bounding box 210 as measurement points for measuring the measurement site, and measurement points 221 to 221 based on the position information of the second bounding box 220. Update to 223. Then, the display control function 144 outputs information regarding the measurement points 221 to 223.

これにより、本実施形態に係る超音波診断装置1では、計測部位の輪郭に当てはまる楕円を高輝度領域に基づいて検出して、計測点を推定するのではなく、計測部位全体を内包するバウンディングボックスを検出して、計測点を推定するため、超音波画像200を用いた計測の精度が向上する。また、本実施形態に係る超音波診断装置1では、バウンディングボックスを用いることにより計測部位全体から計測点を推定するため、特徴が出にくい計測点を1点ずつ推定するよりも、効率よく計測点を推定することができる。 As a result, in the ultrasonic diagnostic apparatus 1 according to the present embodiment, the ellipse that fits the contour of the measurement site is detected based on the high-intensity region, and the measurement point is not estimated, but the bounding box that includes the entire measurement site is included. Is detected and the measurement point is estimated, so that the accuracy of measurement using the ultrasonic image 200 is improved. Further, in the ultrasonic diagnostic apparatus 1 according to the present embodiment, since the measurement points are estimated from the entire measurement site by using the bounding box, the measurement points are more efficiently estimated than the measurement points whose features are difficult to appear one by one. Can be estimated.

また、学習済モデル400を用いた検出に限らないが、部位検出では、検出対象となる部位の姿勢が、傾いていない方が、より正確な位置で部位を検出することができる。本実施形態では、計測部位をバウンディングボックスにより検出するとともに、計測部位の姿勢を推定できる所定の構造物を検出し、計測部位を内包するバウンディングボックスの一辺が縦方向または横方向となるように、検出対象の画像を回転させる。そして、本実施形態では、回転処理後の画像から、再度、バウンディングボックスの検出処理を行うことで、より正確な位置で部位を検出することができ、その結果、計測点の推定精度も向上させることができる。 Further, although not limited to the detection using the trained model 400, in the site detection, the site can be detected at a more accurate position when the posture of the site to be detected is not tilted. In the present embodiment, the measurement site is detected by the bounding box, a predetermined structure capable of estimating the posture of the measurement site is detected, and one side of the bounding box containing the measurement site is in the vertical or horizontal direction. Rotate the image to be detected. Then, in the present embodiment, by performing the bounding box detection process again from the image after the rotation process, the site can be detected at a more accurate position, and as a result, the estimation accuracy of the measurement point is also improved. be able to.

上述した実施形態では、胎児の腹部周囲長(AC)を計測する場合について説明したが、これに限定されず、胎児の児頭大横径(BPD)、児頭周囲長(HC)、大腿骨長(FL)や上腕骨長(HL)等のパラメータを計測する場合でも、本実施形態を適用できる。 In the above-described embodiment, the case of measuring the abdominal circumference (AC) of the foetation has been described, but the present invention is not limited to this, and the fetal head circumference (BPD), fetal head circumference (HC), and femur are not limited thereto. This embodiment can also be applied when measuring parameters such as length (FL) and humerus length (HL).

まず、BPD、HC等のパラメータを計測する場合について説明する。図9は、本実施形態に係る超音波診断装置の画像処理回路による処理を説明するための図であり、BPD、HC等のパラメータを計測する場合の説明図である。 First, a case of measuring parameters such as BPD and HC will be described. FIG. 9 is a diagram for explaining processing by the image processing circuit of the ultrasonic diagnostic apparatus according to the present embodiment, and is an explanatory diagram when measuring parameters such as BPD and HC.

例えば、ステップS101、S102が実行された後、ステップS103において、検出機能142は、超音波画像から、計測部位を内包する第1バウンディングボックスを検出する。具体的には、検出機能142は、学習済モデル400に超音波画像500を入力することで、楕円で輪郭が近似された胎児の頭部の位置および大きさを示し、胎児の頭部を内包するバウンディングボックスとして、図9に示すような第1バウンディングボックス510を検出する。また、検出機能142は、学習済モデル400に超音波画像500を入力することで、所定の構造物を検出する。例えば、計測部位が胎児の頭部である場合、所定の構造物は、胎児の透明中隔腔502である。ここで、推定機能143は、第1バウンディングボックス510の位置情報に基づいて、胎児の頭部を計測するための仮の計測点を推定する。例えば、図9に示すように、推定機能143は、胎児の頭部の輪郭を近似した楕円が第1バウンディングボックス510に内接する点511〜514を、仮の計測点として推定する。 For example, after steps S101 and S102 are executed, in step S103, the detection function 142 detects the first bounding box including the measurement site from the ultrasonic image. Specifically, the detection function 142 indicates the position and size of the fetal head whose contour is approximated by an ellipse by inputting the ultrasonic image 500 into the trained model 400, and includes the fetal head. As the bounding box to be used, the first bounding box 510 as shown in FIG. 9 is detected. Further, the detection function 142 detects a predetermined structure by inputting the ultrasonic image 500 into the trained model 400. For example, if the measurement site is the head of the foetation, the predetermined structure is the septum pellucidum 502 of the foetation. Here, the estimation function 143 estimates a temporary measurement point for measuring the head of the foetation based on the position information of the first bounding box 510. For example, as shown in FIG. 9, the estimation function 143 estimates points 511 to 514 inscribed in the first bounding box 510 by an ellipse that approximates the contour of the head of the foetation as temporary measurement points.

ステップS104において、検出機能142は、第1バウンディングボックス510の位置情報と、所定の構造物の位置情報とに基づいて、計測部位の向きを検出する。具体的には、まず、検出機能142は、図9に示すように、超音波画像500において、第1バウンディングボックス510の中心C510と、所定の構造物である胎児の透明中隔腔502の中央部とを結ぶ線分L510を検出する。次に、検出機能142は、線分L510の方向を、計測部位である胎児の頭部の向きとして検出する。例えば、超音波画像500が表示される画面の縦方向または横方向を基準とした場合に、線分L510の方向は、超音波画像500が表示される画面の横方向となっている。 In step S104, the detection function 142 detects the orientation of the measurement site based on the position information of the first bounding box 510 and the position information of the predetermined structure. Specifically, first, as shown in FIG. 9, the detection function 142 performs the center C510 of the first bounding box 510 and the center of the transparent septum 502 of the foetation, which is a predetermined structure, in the ultrasonic image 500. The line segment L510 connecting the portions is detected. Next, the detection function 142 detects the direction of the line segment L510 as the direction of the head of the foetation, which is the measurement site. For example, when the vertical direction or the horizontal direction of the screen on which the ultrasonic image 500 is displayed is used as a reference, the direction of the line segment L510 is the horizontal direction of the screen on which the ultrasonic image 500 is displayed.

ステップS105において、検出機能142は、ステップS104で検出した計測部位が傾いているか否かを判定する処理を行う。 In step S105, the detection function 142 performs a process of determining whether or not the measurement portion detected in step S104 is tilted.

ステップS105の判定処理において、超音波画像500が表示される画面の縦方向または横方向を基準としたとき、検出機能142が検出した線分L510の方向が、超音波画像500が表示される画面の縦方向または横方向となる場合、超音波画像500に描出されている頭部は、傾いていないと見なすことができる。この場合、検出機能142は、ステップS104で検出した計測部位が傾いていないと判定し(ステップS105;No)、ステップS106、S107の処理が実行されずに、ステップS108の処理が実行される。すなわち、検出機能142は超音波画像500に対して回転処理を行わず、ステップS108において、推定機能143は、第1バウンディングボックス310の位置情報に基づく計測点511〜514を、胎児の頭部を計測するための計測点とする。 In the determination process of step S105, when the vertical direction or the horizontal direction of the screen on which the ultrasonic image 500 is displayed is used as a reference, the direction of the line segment L510 detected by the detection function 142 is the screen on which the ultrasonic image 500 is displayed. When it is in the vertical or horizontal direction, the head depicted in the ultrasonic image 500 can be regarded as not tilted. In this case, the detection function 142 determines that the measurement site detected in step S104 is not tilted (step S105; No), and the process of step S108 is executed without the process of steps S106 and S107 being executed. That is, the detection function 142 does not rotate the ultrasonic image 500, and in step S108, the estimation function 143 sets the measurement points 511 to 514 based on the position information of the first bounding box 310 to the head of the foetation. It is a measurement point for measurement.

ステップS109において、表示制御機能144は、計測点511〜514に関する情報として、計測点511〜514の位置を示すマークが、超音波画像500に描出された画像をディスプレイ103に表示させる。 In step S109, the display control function 144 causes the display 103 to display an image drawn on the ultrasonic image 500 by a mark indicating the position of the measurement points 511 to 514 as information regarding the measurement points 511 to 514.

これにより、推定機能143は、超音波画像500と計測点511〜514とを用いることにより、HCを計測することができる。例えば、推定機能143は、超音波画像500において、計測点511〜514により形成される楕円の周りの長さをHCとして計測する。 As a result, the estimation function 143 can measure HC by using the ultrasonic image 500 and the measurement points 511 to 514. For example, the estimation function 143 measures the length around the ellipse formed by the measurement points 511 to 514 as HC in the ultrasonic image 500.

これにより、推定機能143は、超音波画像500と計測点511〜514とを用いることにより、HCを計測することができる。例えば、推定機能143は、超音波画像500において、計測点511〜514により形成される楕円の周りの長さをHCとして計測する。 As a result, the estimation function 143 can measure HC by using the ultrasonic image 500 and the measurement points 511 to 514. For example, the estimation function 143 measures the length around the ellipse formed by the measurement points 511 to 514 as HC in the ultrasonic image 500.

また、推定機能143は、超音波画像500と計測点513、514とを用いることにより、BPDを計測することができる。例えば、推定機能143は、超音波画像500において、計測点513と計測点514とを結ぶ線分の長さをBPDとして計測する。 Further, the estimation function 143 can measure the BPD by using the ultrasonic image 500 and the measurement points 513 and 514. For example, the estimation function 143 measures the length of the line segment connecting the measurement points 513 and the measurement points 514 as the BPD in the ultrasonic image 500.

なお、ステップS105の判定処理において、検出機能142が、ステップS104で検出した計測部位が傾いていると判定した場合(ステップS105;Yes)、以下のステップS106〜S109の処理が実行される。 When the detection function 142 determines in the determination process of step S105 that the measurement site detected in step S104 is tilted (step S105; Yes), the following processes of steps S106 to S109 are executed.

まず、ステップS106において、検出機能142は、ステップS104で検出した計測部位の向きに基づいて、超音波画像500に対して回転処理を行う。具体的には、検出機能142は、線分L510の方向が、超音波画像500が表示される画面の縦方向または横方向となるように、回転処理を行う。次に、ステップS107において、検出機能142は、ステップS106で実行した回転処理後の超音波画像500から、計測部位を内包する第2バウンディングボックスを検出する。具体的には、検出機能142は、学習済モデル400に回転処理後の超音波画像500を入力することで、楕円で輪郭が近似された胎児の頭部の位置および大きさを示し、胎児の頭部を内包するバウンディングボックスとして、第2バウンディングボックスを検出する。 First, in step S106, the detection function 142 performs rotation processing on the ultrasonic image 500 based on the orientation of the measurement site detected in step S104. Specifically, the detection function 142 performs rotation processing so that the direction of the line segment L510 is the vertical direction or the horizontal direction of the screen on which the ultrasonic image 500 is displayed. Next, in step S107, the detection function 142 detects the second bounding box including the measurement site from the ultrasonic image 500 after the rotation process executed in step S106. Specifically, the detection function 142 indicates the position and size of the head of the foetation whose contour is approximated by an ellipse by inputting the ultrasonic image 500 after the rotation processing into the trained model 400. The second bounding box is detected as a bounding box containing the head.

次に、ステップS108において、推定機能143は、第2バウンディングボックスの位置情報に基づいて、胎児の頭部を計測するための計測点を推定する。具体的には、推定機能143は、胎児の頭部の輪郭を近似した楕円が第2バウンディングボックスに内接する点を、計測点として推定する。この場合、推定機能143は、胎児の頭部を計測するための計測点として、第1バウンディングボックス510の位置情報に基づく計測点511〜514を、第2バウンディングボックスの位置情報に基づく計測点に更新する。そして、ステップS109において、表示制御機能144は、計測点に関する情報として、更新した計測点の位置を示すマークが、超音波画像500に描出された画像をディスプレイ103に表示させる。 Next, in step S108, the estimation function 143 estimates a measurement point for measuring the head of the foetation based on the position information of the second bounding box. Specifically, the estimation function 143 estimates a point inscribed in the second bounding box by an ellipse that approximates the contour of the head of the foetation as a measurement point. In this case, the estimation function 143 changes the measurement points 511 to 514 based on the position information of the first bounding box 510 to the measurement points based on the position information of the second bounding box as measurement points for measuring the head of the foetation. Update. Then, in step S109, the display control function 144 causes the display 103 to display the image drawn on the ultrasonic image 500 by the mark indicating the position of the updated measurement point as the information regarding the measurement point.

なお、ステップS103において、例えば、計測部位が胎児の頭部である場合に、所定の構造物が、胎児の透明中隔腔502である場合を例にしているが、これに限定されない。 In step S103, for example, when the measurement site is the head of the foetation, the predetermined structure is the transparent septum 502 of the foetation, but the present invention is not limited to this.

例えば、図10に示すように、計測部位が胎児の頭部である場合、所定の構造物は、胎児の四丘体槽503であってもよい。この場合、ステップS104において、まず、検出機能142は、図10に示すように、超音波画像500において、第1バウンディングボックス510の中心C510と、所定の構造物である胎児の四丘体槽503の中央部とを結ぶ線分L510を検出する。次に、検出機能142は、線分L510の方向を、計測部位である胎児の頭部の向きとして検出する。その後、ステップS105以降の処理が行われる。例えば、計測部位が傾いていない場合(ステップS105;No)、超音波画像500に対して回転処理が行われずに、第1バウンディングボックス310の位置情報から計測点511〜514が推定され(ステップS108)、計測点511〜514に関する情報がディスプレイ103に表示される(ステップS109)。一方、計測部位が傾いている(ステップS105;Yes)、超音波画像500に対して回転処理が行われ(ステップS106)、回転処理後の超音波画像500から、計測部位を内包する第2バウンディングボックスが検出される(ステップS107)。そして、第2バウンディングボックスの位置情報から計測点が推定され(ステップS108)、計測点に関する情報がディスプレイ103に表示される(ステップS109)。図10に示す例では、所定の構造物が胎児の四丘体槽503である場合でも、所定の構造物が透明中隔腔502である場合と同様に、胎児の頭部の向きを検出することができる。 For example, as shown in FIG. 10, when the measurement site is the head of a foetation, the predetermined structure may be the corpora quadrigem 503 of the foetation. In this case, in step S104, first, as shown in FIG. 10, the detection function 142 has the center C510 of the first bounding box 510 and the fetal quadrigem tank 503, which is a predetermined structure, in the ultrasonic image 500. The line segment L510 connecting to the central portion of the above is detected. Next, the detection function 142 detects the direction of the line segment L510 as the direction of the head of the foetation, which is the measurement site. After that, the processing after step S105 is performed. For example, when the measurement site is not tilted (step S105; No), the measurement points 511 to 514 are estimated from the position information of the first bounding box 310 without performing the rotation processing on the ultrasonic image 500 (step S108). ), Information about the measurement points 511 to 514 is displayed on the display 103 (step S109). On the other hand, the measurement site is tilted (step S105; Yes), rotation processing is performed on the ultrasonic image 500 (step S106), and the second bounding including the measurement site is taken from the ultrasonic image 500 after the rotation processing. The box is detected (step S107). Then, the measurement point is estimated from the position information of the second bounding box (step S108), and the information about the measurement point is displayed on the display 103 (step S109). In the example shown in FIG. 10, even when the predetermined structure is the corpora quadrigem 503 of the foetation, the orientation of the head of the foetation is detected as in the case where the predetermined structure is the septum pellucidum 502. be able to.

また、例えば、図11に示すように、計測部位が胎児の頭部である場合、所定の構造物は、胎児の透明中隔腔502および四丘体槽503であってもよい。この場合、ステップS104において、まず、検出機能142は、図11に示すように、超音波画像500において、第1バウンディングボックス510の中心C510と、所定の構造物である胎児の透明中隔腔502および四丘体槽503の中央部とを結ぶ線分L510を検出する。次に、検出機能142は、線分L510の方向を、計測部位である胎児の頭部の向きとして検出する。その後、ステップS105以降の処理が行われる。例えば、計測部位が傾いていない場合(ステップS105;No)、超音波画像500に対して回転処理が行われずに、第1バウンディングボックス310の位置情報から計測点511〜514が推定され(ステップS108)、計測点511〜514に関する情報がディスプレイ103に表示される(ステップS109)。一方、計測部位が傾いている(ステップS105;Yes)、超音波画像500に対して回転処理が行われ(ステップS106)、回転処理後の超音波画像500から、計測部位を内包する第2バウンディングボックスが検出される(ステップS107)。そして、第2バウンディングボックスの位置情報から計測点が推定され(ステップS108)、計測点に関する情報がディスプレイ103に表示される(ステップS109)。図11に示す例では、所定の構造物が胎児の透明中隔腔502および四丘体槽503であるため、所定の構造物が透明中隔腔502および四丘体槽503のいずれかである場合と比べて、胎児の頭部の向きを、より正確に検出することができる。 Further, for example, as shown in FIG. 11, when the measurement site is the head of the foetation, the predetermined structures may be the fetal septum pellucidum 502 and the quadrigemular cistern 503. In this case, in step S104, first, as shown in FIG. 11, in the ultrasonic image 500, the detection function 142 has the center C510 of the first bounding box 510 and the transparent septum 502 of the foetation which is a predetermined structure. And the line segment L510 connecting the central part of the four hill body tank 503 is detected. Next, the detection function 142 detects the direction of the line segment L510 as the direction of the head of the foetation, which is the measurement site. After that, the processing after step S105 is performed. For example, when the measurement site is not tilted (step S105; No), the measurement points 511 to 514 are estimated from the position information of the first bounding box 310 without performing the rotation processing on the ultrasonic image 500 (step S108). ), Information about the measurement points 511 to 514 is displayed on the display 103 (step S109). On the other hand, the measurement site is tilted (step S105; Yes), rotation processing is performed on the ultrasonic image 500 (step S106), and the second bounding including the measurement site is taken from the ultrasonic image 500 after the rotation processing. The box is detected (step S107). Then, the measurement point is estimated from the position information of the second bounding box (step S108), and the information about the measurement point is displayed on the display 103 (step S109). In the example shown in FIG. 11, since the predetermined structure is the fetal transparent septum 502 and the quadrigemular cistern 503, the predetermined structure is either the transparent septum 502 or the quadrigemular cistern 503. The orientation of the fetal head can be detected more accurately than in the case.

次に、FLを計測する場合について説明する。図12は、本実施形態に係る超音波診断装置の画像処理回路による処理を説明するための図であり、FLを計測する場合の説明図である。 Next, the case of measuring FL will be described. FIG. 12 is a diagram for explaining processing by the image processing circuit of the ultrasonic diagnostic apparatus according to the present embodiment, and is an explanatory diagram in the case of measuring FL.

例えば、ステップS101、S102が実行された後、ステップS103において、検出機能142は、超音波画像から、計測部位を内包する第1バウンディングボックスを検出する。具体的には、学習済モデル400は、超音波画像データが入力されると、計測部位である大腿骨に該当する棒状の領域に外接するバウンディングボックスを、出力データとして出力する。検出機能142は、学習済モデル400に超音波画像600を入力することで、棒状の領域に近似された胎児の大腿部の位置および大きさを示し、胎児の大腿部を内包するバウンディングボックスとして、図12に示すような第1バウンディングボックス610を検出する。ここで、検出機能142は、計測部位が大腿骨や上腕骨の場合、ステップS104〜S107は実行されない。 For example, after steps S101 and S102 are executed, in step S103, the detection function 142 detects the first bounding box including the measurement site from the ultrasonic image. Specifically, when the ultrasonic image data is input, the trained model 400 outputs a bounding box circumscribing to the rod-shaped region corresponding to the femur, which is the measurement site, as output data. The detection function 142 indicates the position and size of the fetal thigh approximated to a rod-shaped region by inputting an ultrasonic image 600 into the trained model 400, and a bounding box containing the fetal thigh. As shown in FIG. 12, the first bounding box 610 is detected. Here, the detection function 142 does not execute steps S104 to S107 when the measurement site is the femur or the humerus.

ステップS108において、推定機能143は、第1バウンディングボックス610の位置情報に基づいて、胎児の大腿部を計測するための計測点を推定する。例えば、図12に示すように、推定機能143は、胎児の大腿部に該当する棒状の領域が第1バウンディングボックス610に内接する点611、612を、計測点として推定する。計測点611、612は、大腿骨の両端部に相当する。 In step S108, the estimation function 143 estimates a measurement point for measuring the thigh of the foetation based on the position information of the first bounding box 610. For example, as shown in FIG. 12, the estimation function 143 estimates points 611 and 612 inscribed in the first bounding box 610 as measurement points by the rod-shaped region corresponding to the thigh of the foetation. The measurement points 611 and 612 correspond to both ends of the femur.

ステップS109において、表示制御機能144は、計測点611、612に関する情報として、計測点611、612の位置を示すマークが、超音波画像600に描出された画像をディスプレイ103に表示させる。 In step S109, the display control function 144 causes the display 103 to display an image drawn on the ultrasonic image 600 by a mark indicating the position of the measurement points 611 and 612 as information regarding the measurement points 611 and 612.

これにより、推定機能143は、超音波画像600と計測点611、612とを用いることにより、FLを計測することができる。例えば、推定機能143は、超音波画像600おいて、計測点611と計測点612とを結ぶ線分の長さをFLとして計測する。 As a result, the estimation function 143 can measure FL by using the ultrasonic image 600 and the measurement points 611 and 612. For example, the estimation function 143 measures the length of the line segment connecting the measurement points 611 and the measurement points 612 as FL in the ultrasonic image 600.

HLを計測する場合においても同様に、例えば、ステップS101〜S103、S108、S109が実行されることにより、推定機能143は、超音波画像おいて、2つの計測点を結ぶ線分の長さをHLとして計測する。 Similarly, in the case of measuring HL, for example, by executing steps S101 to S103, S108, and S109, the estimation function 143 determines the length of the line segment connecting the two measurement points in the ultrasonic image. Measure as HL.

ここで、機械学習により、学習済モデル400を生成する処理について説明する。 Here, a process of generating a trained model 400 by machine learning will be described.

学習済モデル400は、例えば、超音波診断装置1とは別の装置(以下、学習済モデル生成装置と記載する)で生成されて、超音波診断装置1内に保管される(例えば、記憶回路160に記憶される)。ここで、学習済モデル生成装置は、超音波診断装置1により実現してもよく、例えば、学習済モデル400は、超音波診断装置1(例えば、推定機能143)により生成されて、その記憶回路160に保管されてもよい。以下、学習済モデル400が、学習済モデル生成装置で生成されて、超音波診断装置1内に保管される場合を例にして説明する。 The trained model 400 is generated by, for example, a device different from the ultrasonic diagnostic device 1 (hereinafter, referred to as a trained model generator) and stored in the ultrasonic diagnostic device 1 (for example, a storage circuit). Stored in 160). Here, the trained model generator may be realized by the ultrasonic diagnostic apparatus 1, for example, the trained model 400 is generated by the ultrasonic diagnostic apparatus 1 (for example, the estimation function 143) and its storage circuit. It may be stored in 160. Hereinafter, a case where the trained model 400 is generated by the trained model generator and stored in the ultrasonic diagnostic apparatus 1 will be described as an example.

図13は、本実施形態における学習済モデル生成装置300の構成例を示すブロック図である。図13に示すように、学習済モデル生成装置300は、入力装置302と、ディスプレイ303と、画像処理回路340と、記憶回路360とを有する。学習済モデル生成装置300は、学習済モデル400を生成するビューアとして用いられる。 FIG. 13 is a block diagram showing a configuration example of the trained model generation device 300 in the present embodiment. As shown in FIG. 13, the trained model generation device 300 includes an input device 302, a display 303, an image processing circuit 340, and a storage circuit 360. The trained model generator 300 is used as a viewer for generating the trained model 400.

入力装置302は、マウス、キーボード、ボタン、パネルスイッチ、タッチコマンドスクリーン、フットスイッチ、ホイール、トラックボール、ジョイスティック等を有し、学習済モデル生成装置300の操作者からの各種設定要求を受け付け、画像処理回路340に対して受け付けた各種設定要求を転送する。ディスプレイ303は、学習済モデル生成装置300の操作者によって参照されるモニタである。 The input device 302 has a mouse, a keyboard, a button, a panel switch, a touch command screen, a foot switch, a wheel, a trackball, a joystick, and the like, and receives various setting requests from the operator of the trained model generation device 300 and receives an image. The various setting requests received are transferred to the processing circuit 340. The display 303 is a monitor referenced by the operator of the trained model generator 300.

画像処理回路340は、学習済モデル生成装置300の処理全体を制御する。例えば、画像処理回路340は、図13に示すように、学習用データ取得機能341、学習済モデル生成機能342を実行する。 The image processing circuit 340 controls the entire processing of the trained model generation device 300. For example, the image processing circuit 340 executes the learning data acquisition function 341 and the trained model generation function 342 as shown in FIG.

記憶回路360は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、又は、ハードディスク、光ディスク等の記憶装置などである。ここで、画像処理回路340の構成要素である学習用データ取得機能341、学習済モデル生成機能342が実行する各処理機能は、例えば、コンピュータによって実行可能なプログラムの形態で記憶回路360に記録されている。画像処理回路340は、各プログラムを記憶回路360から読み出し、実行することで各プログラムに対応する機能を実現するプロセッサである。また、記憶回路360は、ニューラルネットワークのアルゴリズムとして学習用プログラムを記憶する。 The storage circuit 360 is, for example, a semiconductor memory element such as a RAM or a flash memory, or a storage device such as a hard disk or an optical disk. Here, each processing function executed by the learning data acquisition function 341 and the trained model generation function 342, which are the components of the image processing circuit 340, is recorded in the storage circuit 360 in the form of a program that can be executed by a computer, for example. ing. The image processing circuit 340 is a processor that realizes a function corresponding to each program by reading each program from the storage circuit 360 and executing the program. Further, the storage circuit 360 stores a learning program as an algorithm of the neural network.

学習済モデル400を生成する処理では、まず、学習済モデル生成装置300の学習用データ取得機能341は、超音波スキャンを過去に実施したときに得られた複数のデータセットを取得する。複数のデータセットの各々は、計測部位に対する超音波スキャンを過去に実施したときに収集された超音波画像データと、当該超音波画像データにおける計測部位を含む領域を表す学習用データとを含む。なお、ニューラルネットワークのアルゴリズムは経験から学習していくものであるため、学習に用いられるデータセットは、同一の被検体でなくてもよい。 In the process of generating the trained model 400, first, the training data acquisition function 341 of the trained model generation device 300 acquires a plurality of data sets obtained when the ultrasonic scan is performed in the past. Each of the plurality of data sets includes ultrasonic image data collected when an ultrasonic scan was performed on the measurement site in the past, and training data representing a region including the measurement site in the ultrasonic image data. Since the neural network algorithm is learned from experience, the data set used for learning does not have to be the same subject.

学習済モデル生成装置300の学習済モデル生成機能342は、記憶回路160から読み出した学習用プログラム502を用いて、複数のデータセットから学習用データのパターンを学習する。このとき、学習済モデル生成機能342は、入力データ(超音波画像データ)の入力を受けて当該超音波画像データにおける計測部位を含む領域を検出した結果を示す出力データを出力するように機能付けられた学習済モデル400を生成する。例えば、生成した学習済モデル400は、超音波診断装置1内に保管される(記憶回路160に記憶される)。記憶回路160内の学習済モデル400は、例えば、超音波診断装置1の検出機能142により読み出し可能である。 The trained model generation function 342 of the trained model generation device 300 learns a pattern of training data from a plurality of data sets by using the learning program 502 read from the storage circuit 160. At this time, the trained model generation function 342 is equipped with a function to receive the input of the input data (ultrasonic image data) and output the output data indicating the result of detecting the region including the measurement site in the ultrasonic image data. Generate the trained model 400. For example, the generated trained model 400 is stored in the ultrasonic diagnostic apparatus 1 (stored in the storage circuit 160). The trained model 400 in the storage circuit 160 can be read out by, for example, the detection function 142 of the ultrasonic diagnostic apparatus 1.

学習済モデル400を利用する処理では、超音波診断装置1の検出機能142は、超音波画像データを入力データとして入力する。そして、検出機能142は、記憶回路160から読み出した学習済モデル400を用いて、超音波画像データである超音波画像200から、計測部位を含む領域を検出し、検出した結果である出力データを出力する。 In the process using the trained model 400, the detection function 142 of the ultrasonic diagnostic apparatus 1 inputs ultrasonic image data as input data. Then, the detection function 142 detects the region including the measurement site from the ultrasonic image 200, which is the ultrasonic image data, using the trained model 400 read from the storage circuit 160, and outputs the output data as a result of the detection. Output.

なお、本実施形態では、学習済モデル400を利用する場合について説明したが、学習済モデル400を利用しなくてもよい。例えば、本実施形態は、腹部等の計測部位を、輝度を用いた画像処理により検出した後に、計測部位を内包するバウンディングボックスを検出してもよい。かかる場合、本実施形態は、計測部位を、楕円等の計測部位に当てはまる図形として検出せずに、任意の曲線で囲まれる部位として検出してもよい。また、本実施形態は、所定の構造物も、学習済モデル400を利用せずに、輝度を用いた画像処理により検出してもよい。 In the present embodiment, the case where the trained model 400 is used has been described, but the trained model 400 may not be used. For example, in the present embodiment, a measurement portion such as the abdomen may be detected by image processing using luminance, and then a bounding box including the measurement portion may be detected. In such a case, the present embodiment may detect the measurement part as a part surrounded by an arbitrary curve without detecting the measurement part as a figure applicable to the measurement part such as an ellipse. Further, in the present embodiment, a predetermined structure may also be detected by image processing using luminance without using the trained model 400.

(その他の実施形態)
実施形態は、上述した実施形態に限られるものではない。例えば、画像処理回路140は、超音波診断装置1とは別に設置されたワークステーションでもよい。この場合、ワークステーションが、画像処理回路140と同様の処理回路を有し、上述した処理を実行する。
(Other embodiments)
The embodiment is not limited to the above-described embodiment. For example, the image processing circuit 140 may be a workstation installed separately from the ultrasonic diagnostic apparatus 1. In this case, the workstation has a processing circuit similar to the image processing circuit 140 and performs the above-mentioned processing.

また、実施形態で図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行われる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、或いは、ワイヤードロジックによるハードウェアとして実現され得る。 Further, each component of each device shown in the embodiment is functionally conceptual, and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or part of them may be functionally or physically distributed / physically in arbitrary units according to various loads and usage conditions. Can be integrated and configured. Further, each processing function performed by each device may be realized by a CPU and a program analyzed and executed by the CPU, or may be realized as hardware by wired logic.

また、上記実施形態で説明した表示方法は、予め用意された画像処理プログラムをパーソナルコンピュータやワークステーション等のコンピュータで実行することによって実現することができる。この画像処理プログラムは、インターネット等のネットワークを介して配布することができる。また、この画像処理プログラムは、ハードディスク、フレキシブルディスク(FD)、CD−ROM、MO、DVD等のコンピュータで読み取り可能な非一時的な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することもできる。 Further, the display method described in the above embodiment can be realized by executing an image processing program prepared in advance on a computer such as a personal computer or a workstation. This image processing program can be distributed via a network such as the Internet. Further, this image processing program is recorded on a non-temporary recording medium such as a hard disk, flexible disk (FD), CD-ROM, MO, or DVD that can be read by a computer, and is executed by being read from the recording medium by the computer. You can also do it.

以上説明した少なくとも1つの実施形態によれば、超音波画像を用いた計測の精度を向上させることができる。 According to at least one embodiment described above, the accuracy of measurement using an ultrasonic image can be improved.

なお、いくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更、実施形態同士の組み合わせを行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although some embodiments have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These embodiments can be implemented in various other embodiments, and various omissions, replacements, changes, and combinations of embodiments can be made without departing from the gist of the invention. These embodiments and variations thereof are included in the scope of the invention described in the claims and the equivalent scope thereof, as are included in the scope and gist of the invention.

以上の実施形態に関し、発明の一側面および選択的な特徴として以下の付記を開示する。
(付記1)
超音波画像から、計測部位を内包する第1矩形を検出する検出部と、
前記第1矩形の位置情報に基づいて、前記計測部位を計測するための計測点を推定する推定部と、
前記計測点に関する情報を出力する出力部と、
を備える超音波診断装置。
(付記2)
前記検出部は、
前記超音波画像から、前記第1矩形とともに、所定の構造物を検出し、
前記所定の構造物の位置情報と、前記第1矩形の位置情報とに基づいて、前記超音波画像に対して回転処理を行い、
前記回転処理が行われた超音波画像から、前記計測部位を内包する第2矩形を検出し、
前記推定部は、前記計測点として、前記第1矩形の位置情報に基づく計測点を、前記第2矩形の位置情報に基づく計測点に更新し、
前記出力部は、前記第2矩形の位置情報に基づく計測点に関する情報を出力してもよい。
(付記3)
前記検出部は、前記所定の構造物と前記第1矩形の中心とを結ぶ線分の方向が、前記超音波画像が表示される画面の縦方向または横方向となるように、前記回転処理を行ってもよい。
(付記4)
前記検出部は、前記線分の方向が、前記超音波画像が表示される画面の縦方向または横方向となる場合は、前記回転処理を行わなくてもよい。
(付記5)
前記検出部は、前記計測部位の輪郭を楕円で近似している場合、当該楕円の長軸または短軸が、前記超音波画像が表示される画面の縦方向または横方向となるように、前記回転処理を行ってもよい。
(付記6)
前記検出部は、前記計測部位の輪郭を矩形で近似している場合、当該矩形の一辺が、前記超音波画像が表示される画面の縦方向または横方向となるように、前記回転処理を行ってもよい。
(付記7)
前記出力部は、前記計測点の位置を示すマークが、前記超音波画像に描出された画像を表示部に表示させてもよい。
(付記8)
前記出力部は、前記計測点の位置を示すマークが、前記回転処理が行われる前の超音波画像に前記マークが描出された画像を表示部に表示させてもよい。
(付記9)
前記計測部位が胎児の腹部である場合、前記所定の構造物は、前記胎児の脊椎であってもよい。
(付記10)
前記計測部位が胎児の頭部である場合、前記所定の構造物は、前記胎児の透明中隔腔および四丘体槽の少なくとも1つであってもよい。
(付記11)
超音波画像から、計測部位を内包する第1矩形を検出する検出部と、
前記第1矩形の位置情報に基づいて、前記計測部位を計測するための計測点を推定する推定部と、
前記計測点に関する情報を出力する出力部と、
を備える画像処理装置。
Regarding the above embodiments, the following appendices are disclosed as one aspect and selective features of the invention.
(Appendix 1)
A detector that detects the first rectangle containing the measurement site from the ultrasonic image,
An estimation unit that estimates a measurement point for measuring the measurement site based on the position information of the first rectangle, and an estimation unit.
An output unit that outputs information about the measurement point and
An ultrasonic diagnostic device equipped with.
(Appendix 2)
The detector is
A predetermined structure is detected from the ultrasonic image together with the first rectangle.
Based on the position information of the predetermined structure and the position information of the first rectangle, the ultrasonic image is rotated.
A second rectangle containing the measurement site is detected from the ultrasonic image subjected to the rotation processing, and the second rectangle is detected.
As the measurement point, the estimation unit updates the measurement point based on the position information of the first rectangle to the measurement point based on the position information of the second rectangle.
The output unit may output information about a measurement point based on the position information of the second rectangle.
(Appendix 3)
The detection unit performs the rotation process so that the direction of the line segment connecting the predetermined structure and the center of the first rectangle is the vertical direction or the horizontal direction of the screen on which the ultrasonic image is displayed. You may go.
(Appendix 4)
The detection unit may not perform the rotation process when the direction of the line segment is the vertical direction or the horizontal direction of the screen on which the ultrasonic image is displayed.
(Appendix 5)
When the contour of the measurement site is approximated by an ellipse, the detection unit may make the major axis or the minor axis of the ellipse the vertical or horizontal direction of the screen on which the ultrasonic image is displayed. Rotation processing may be performed.
(Appendix 6)
When the contour of the measurement site is approximated by a rectangle, the detection unit performs the rotation process so that one side of the rectangle is in the vertical or horizontal direction of the screen on which the ultrasonic image is displayed. You may.
(Appendix 7)
The output unit may display an image drawn on the ultrasonic image by a mark indicating the position of the measurement point on the display unit.
(Appendix 8)
The output unit may display an image in which the mark indicating the position of the measurement point is drawn on the ultrasonic image before the rotation process is performed on the display unit.
(Appendix 9)
When the measurement site is the abdomen of the foetation, the predetermined structure may be the spine of the foetation.
(Appendix 10)
When the measurement site is the head of a foetation, the predetermined structure may be at least one of the fetal septum pellucidum and the corpora quadrigem.
(Appendix 11)
A detector that detects the first rectangle containing the measurement site from the ultrasonic image,
An estimation unit that estimates a measurement point for measuring the measurement site based on the position information of the first rectangle, and an estimation unit.
An output unit that outputs information about the measurement point and
An image processing device comprising.

142 検出機能
143 推定機能
144 表示制御機能
210 第1バウンディングボックス
221〜223 計測点
510 第1バウンディングボックス
511〜513 計測点
610 第1バウンディングボックス
611〜613 計測点
142 Detection function 143 Estimation function 144 Display control function 210 1st bounding box 221 to 223 Measurement point 510 1st bounding box 511 to 513 Measurement point 610 1st bounding box 611 to 613 Measurement point

Claims (11)

超音波画像から、計測部位を内包する第1矩形を検出する検出部と、
前記第1矩形の位置情報に基づいて、前記計測部位を計測するための計測点を推定する推定部と、
前記計測点に関する情報を出力させる出力部と、
を備える超音波診断装置。
A detector that detects the first rectangle containing the measurement site from the ultrasonic image,
An estimation unit that estimates a measurement point for measuring the measurement site based on the position information of the first rectangle, and an estimation unit.
An output unit that outputs information about the measurement point and
An ultrasonic diagnostic device equipped with.
前記検出部は、
前記超音波画像から、前記第1矩形とともに、所定の構造物を検出し、
前記所定の構造物の位置情報と、前記第1矩形の位置情報とに基づいて、前記超音波画像に対して回転処理を行い、
前記回転処理が行われた超音波画像から、前記計測部位を内包する第2矩形を検出し、
前記推定部は、前記計測点として、前記第1矩形の位置情報に基づく計測点を、前記第2矩形の位置情報に基づく計測点に更新し、
前記出力部は、前記第2矩形の位置情報に基づく計測点に関する情報を出力させる、
請求項1に記載の超音波診断装置。
The detector is
A predetermined structure is detected from the ultrasonic image together with the first rectangle.
Based on the position information of the predetermined structure and the position information of the first rectangle, the ultrasonic image is rotated.
A second rectangle containing the measurement site is detected from the ultrasonic image subjected to the rotation process.
The estimation unit updates the measurement point based on the position information of the first rectangle to the measurement point based on the position information of the second rectangle as the measurement point.
The output unit outputs information about a measurement point based on the position information of the second rectangle.
The ultrasonic diagnostic apparatus according to claim 1.
前記検出部は、前記所定の構造物と前記第1矩形の中心とを結ぶ線分の方向が、前記超音波画像が表示される画面の縦方向または横方向となるように、前記回転処理を行う、
請求項2に記載の超音波診断装置。
The detection unit performs the rotation process so that the direction of the line segment connecting the predetermined structure and the center of the first rectangle is the vertical direction or the horizontal direction of the screen on which the ultrasonic image is displayed. conduct,
The ultrasonic diagnostic apparatus according to claim 2.
前記検出部は、前記線分の方向が、前記超音波画像が表示される画面の縦方向または横方向となる場合は、前記回転処理を行わない、
請求項3に記載の超音波診断装置。
The detection unit does not perform the rotation process when the direction of the line segment is the vertical direction or the horizontal direction of the screen on which the ultrasonic image is displayed.
The ultrasonic diagnostic apparatus according to claim 3.
前記検出部は、前記計測部位の輪郭を楕円で近似している場合、当該楕円の長軸または短軸が、前記超音波画像が表示される画面の縦方向または横方向となるように、前記回転処理を行う、
請求項2〜4のいずれか一項に記載の超音波診断装置。
When the contour of the measurement site is approximated by an ellipse, the detection unit may make the major axis or the minor axis of the ellipse the vertical or horizontal direction of the screen on which the ultrasonic image is displayed. Perform rotation processing,
The ultrasonic diagnostic apparatus according to any one of claims 2 to 4.
前記検出部は、前記計測部位の輪郭を矩形で近似している場合、当該矩形の一辺が、前記超音波画像が表示される画面の縦方向または横方向となるように、前記回転処理を行う、
請求項2〜4のいずれか一項に記載の超音波診断装置。
When the contour of the measurement portion is approximated by a rectangle, the detection unit performs the rotation process so that one side of the rectangle is in the vertical or horizontal direction of the screen on which the ultrasonic image is displayed. ,
The ultrasonic diagnostic apparatus according to any one of claims 2 to 4.
前記出力部は、前記計測点の位置を示すマークが、前記超音波画像に描出された画像を表示部に表示させる、
請求項1〜6のいずれか一項に記載の超音波診断装置。
In the output unit, the mark indicating the position of the measurement point causes the display unit to display the image drawn on the ultrasonic image.
The ultrasonic diagnostic apparatus according to any one of claims 1 to 6.
前記出力部は、前記計測点の位置を示すマークが、前記回転処理が行われる前の超音波画像に描出された画像を表示部に表示させる、
請求項2〜6のいずれか一項に記載の超音波診断装置。
In the output unit, the mark indicating the position of the measurement point causes the display unit to display an image drawn on the ultrasonic image before the rotation process is performed.
The ultrasonic diagnostic apparatus according to any one of claims 2 to 6.
前記計測部位が胎児の腹部である場合、前記所定の構造物は、前記胎児の脊椎である、
請求項2〜6、8のいずれか一項に記載の超音波診断装置。
When the measurement site is the abdomen of the foetation, the predetermined structure is the spine of the foetation.
The ultrasonic diagnostic apparatus according to any one of claims 2 to 6 and 8.
前記計測部位が胎児の頭部である場合、前記所定の構造物は、前記胎児の透明中隔腔および四丘体槽の少なくとも1つである、
請求項2〜6、8のいずれか一項に記載の超音波診断装置。
When the measurement site is the head of the foetation, the predetermined structure is at least one of the fetal septum pellucidum and the corporora quadrigem.
The ultrasonic diagnostic apparatus according to any one of claims 2 to 6 and 8.
超音波画像から、計測部位を内包する第1矩形を検出する検出部と、
前記第1矩形の位置情報に基づいて、前記計測部位を計測するための計測点を推定する推定部と、
前記計測点に関する情報を出力する出力部と、
を備える画像処理装置。
A detector that detects the first rectangle containing the measurement site from the ultrasonic image,
An estimation unit that estimates a measurement point for measuring the measurement site based on the position information of the first rectangle, and an estimation unit.
An output unit that outputs information about the measurement point and
An image processing device comprising.
JP2020093551A 2020-05-28 2020-05-28 Ultrasonic diagnostic apparatus and image processing device Pending JP2021186208A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020093551A JP2021186208A (en) 2020-05-28 2020-05-28 Ultrasonic diagnostic apparatus and image processing device
CN202110576727.4A CN113729777A (en) 2020-05-28 2021-05-26 Ultrasonic diagnostic apparatus and image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020093551A JP2021186208A (en) 2020-05-28 2020-05-28 Ultrasonic diagnostic apparatus and image processing device

Publications (1)

Publication Number Publication Date
JP2021186208A true JP2021186208A (en) 2021-12-13

Family

ID=78728336

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020093551A Pending JP2021186208A (en) 2020-05-28 2020-05-28 Ultrasonic diagnostic apparatus and image processing device

Country Status (2)

Country Link
JP (1) JP2021186208A (en)
CN (1) CN113729777A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020039645A (en) * 2018-09-11 2020-03-19 株式会社日立製作所 Ultrasonic diagnostic apparatus and display method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002008008A (en) * 2000-06-27 2002-01-11 Fuji Photo Film Co Ltd Medical image output method and device therefor
JP4493402B2 (en) * 2004-05-24 2010-06-30 オリンパス株式会社 Ultrasound diagnostic imaging equipment
CN101534717B (en) * 2006-12-28 2011-02-02 株式会社东芝 Ultrasound image acquiring device and ultrasound image acquiring method
JP5661267B2 (en) * 2009-09-25 2015-01-28 キヤノン株式会社 Radiation imaging apparatus, control apparatus, control method, and storage medium
JP5567963B2 (en) * 2010-09-29 2014-08-06 富士フイルム株式会社 Image processing apparatus, radiation image system, image processing method, and program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020039645A (en) * 2018-09-11 2020-03-19 株式会社日立製作所 Ultrasonic diagnostic apparatus and display method

Also Published As

Publication number Publication date
CN113729777A (en) 2021-12-03

Similar Documents

Publication Publication Date Title
JP5620666B2 (en) Ultrasonic diagnostic equipment, ultrasonic image processing equipment
JP5624258B2 (en) Ultrasonic diagnostic apparatus, ultrasonic image processing apparatus, and ultrasonic image processing program
US6290648B1 (en) Ultrasonic diagnostic apparatus
JP5002181B2 (en) Ultrasonic diagnostic apparatus and ultrasonic diagnostic apparatus control method
JP7258568B2 (en) ULTRASOUND DIAGNOSTIC DEVICE, IMAGE PROCESSING DEVICE, AND IMAGE PROCESSING PROGRAM
JP5897674B2 (en) Ultrasonic diagnostic apparatus, image processing apparatus, and image processing program
JP2011172918A (en) Ultrasonic diagnostic apparatus, medical image diagnostic apparatus, ultrasonic image processing apparatus, medical image processing apparatus, ultrasonic diagnostic system, and medical image diagnostic system
JP5689591B2 (en) Ultrasonic diagnostic apparatus and ultrasonic image processing program
JP2010178905A (en) Ultrasonic diagnostic apparatus and control program of ultrasonic diagnostic apparatus
JP2010284516A (en) Ultrasonic diagnostic apparatus, ultrasonic image processor, and ultrasonic image processing program
JP2012075794A (en) Ultrasonic diagnostic apparatus, medical image processor, and medical image processing program
JP7432296B2 (en) Medical information processing system
JP7171228B2 (en) Ultrasound diagnostic equipment and medical information processing program
JP7233874B2 (en) Medical information processing device, X-ray diagnostic device and medical information processing program
JP5202916B2 (en) Ultrasound image diagnostic apparatus and control program thereof
JP7171291B2 (en) Ultrasound diagnostic equipment and image processing program
JP2021186208A (en) Ultrasonic diagnostic apparatus and image processing device
JP2011045659A (en) Ultrasonic diagnostic apparatus, ultrasonic image processor and ultrasonic image processing program
JP7237512B2 (en) ultrasound diagnostic equipment
JP7383400B2 (en) Ultrasonic diagnostic equipment, scan control method and scan control program
JP6976869B2 (en) Ultrasonic diagnostic equipment and its control program
JP2024018636A (en) Medical image processing device, medical image processing method, and medical image processing program
JP2024053759A (en) Ultrasonic image processing device, ultrasonic diagnostic device, ultrasonic image processing method, and program
JP2008220415A (en) Ultrasonic diagnostic system
JP2023148356A (en) Medical information processing device, ultrasound diagnostic device, and learning data generation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230330

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231215

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240322

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20240329

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20240419