JP6887942B2 - Ultrasound imaging equipment, image processing equipment, and methods - Google Patents

Ultrasound imaging equipment, image processing equipment, and methods Download PDF

Info

Publication number
JP6887942B2
JP6887942B2 JP2017251107A JP2017251107A JP6887942B2 JP 6887942 B2 JP6887942 B2 JP 6887942B2 JP 2017251107 A JP2017251107 A JP 2017251107A JP 2017251107 A JP2017251107 A JP 2017251107A JP 6887942 B2 JP6887942 B2 JP 6887942B2
Authority
JP
Japan
Prior art keywords
organ
ultrasonic
image
image processing
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017251107A
Other languages
Japanese (ja)
Other versions
JP2019115487A (en
Inventor
子盛 黎
子盛 黎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2017251107A priority Critical patent/JP6887942B2/en
Priority to PCT/JP2018/028698 priority patent/WO2019130636A1/en
Publication of JP2019115487A publication Critical patent/JP2019115487A/en
Application granted granted Critical
Publication of JP6887942B2 publication Critical patent/JP6887942B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • A61B8/14Echo-tomography

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Description

本発明は、超音波撮像装置に係り、特に、撮像した超音波画像と他の撮像装置で撮像された同じ断面の画像で、被検体内の特徴部位を同時に表示する撮像技術に関する。 The present invention relates to an ultrasonic imaging device, and more particularly to an imaging technique for simultaneously displaying a featured portion in a subject with an image of the same cross section captured by an captured ultrasonic image and another imaging device.

超音波撮像装置は、超音波を被検体に照射し、その反射信号により被検体内部の構造を画像化するため、無侵襲かつリアルタイムに患者を観察することが可能である。一方、X線CT(Computed Tomography)装置あるいはMRI(Magnetic Resonance Imaging)装置などの他の医用画像撮像装置は、広範囲かつ高分解能で撮像することができるため、細かな病変や臓器の位置関係の把握が容易に行える。例えば肝臓癌などの腫瘍を、早期の段階でMRI画像やX線CT画像から見つけ出すことができる。 Since the ultrasonic imaging device irradiates the subject with ultrasonic waves and images the internal structure of the subject by the reflected signal, it is possible to observe the patient in real time without invasiveness. On the other hand, other medical image imaging devices such as an X-ray CT (Computed Tomography) device or an MRI (Magnetic Resolution Imaging) device can image a wide range and with high resolution, so that the positional relationship of detailed lesions and organs can be grasped. Can be easily done. For example, tumors such as liver cancer can be found from MRI images and X-ray CT images at an early stage.

また、超音波探触子に位置センサを貼り付けてスキャン面の位置関係を算出し、医用画像診断装置で撮像した3次元診断用ボリュームデータから、超音波スキャン面の画像と対応する2次元(2D)画像を構築し、表示する画像診断システムも普及し始めている。 In addition, a position sensor is attached to the ultrasonic probe to calculate the positional relationship of the scan surface, and from the three-dimensional diagnostic volume data captured by the medical image diagnostic device, the two-dimensional image corresponding to the image of the ultrasonic scan surface ( 2D) Diagnostic imaging systems that build and display images are also beginning to spread.

特許文献1には、血管情報を用いて、超音波3次元画像(ボリューム)とMRI3次元画像との位置合わせを行い、超音波スキャン面の画像と対応するMRI断面画像を構築する方法が記載されている。この技術では、超音波画像及びMRI画像を取得し、血管分岐の分岐点の周辺に複数の画像領域を設定し、画像領域ごとに画像の特徴を表す指標を算出し、比較対象となる組み合わせを変えながら分岐点類似度の算出を繰り返すことで同一の血管分岐であるとの判定を行い、位置合わせ用の幾何変換行列を推定する。その位置合わせの結果を用いて、MRI画像を超音波画像に合わせて、対応した断面画像を生成して表示する。 Patent Document 1 describes a method of aligning an ultrasonic three-dimensional image (volume) and an MRI three-dimensional image using blood vessel information and constructing an MRI cross-sectional image corresponding to an image of an ultrasonic scan surface. ing. In this technique, ultrasonic images and MRI images are acquired, a plurality of image areas are set around the branch point of the blood vessel branch, an index showing the characteristics of the image is calculated for each image area, and combinations to be compared are selected. By repeating the calculation of the branch point similarity while changing, it is determined that the blood vessel branches are the same, and the geometric transformation matrix for alignment is estimated. Using the alignment result, the MRI image is matched with the ultrasonic image to generate and display a corresponding cross-sectional image.

特開2017−012341号公報Japanese Unexamined Patent Publication No. 2017-012341

近年、被検体の手術中に腫瘍等の手術(熱的治療、あるいは外科的切除など)すべき領域を、術中超音波画像と、それに対応する高解像度のMRI画像やCT画像とで確認すること、すなわち、術中超音波画像と高解像度モダリティ画像との位置合わせが望まれている。ただし、術中超音波と他のモダリティ画像の撮影方向が大きく異なるため、位置合わせの初期値推定が困難であり、適切な超音波探触子走査が位置合わせの成功に大きく影響する。しかし、位置合わせ用の超音波ボリュームの取得するための超音波探触子走査は、術者手技や患者状況に依存し、走査される範囲や部位は術者/患者によってばらつきが大きい。取得される術中超音波ボリュームが位置合わせに不適切な場合、位置合わせが失敗となり、超音波ボリュームを再撮影、位置合わせを再実行することとなるため、術者にとって手間がかかり、患者への負担も大きくなる。そこで、取得された超音波ボリューム、もしくは超音波探触子の走査が、位置合わせに適切かどうかを事前に判定し、超音波探触子走査を正確にガイドする機能が望ましい。 In recent years, it is necessary to confirm the area to be operated on (thermal treatment, surgical excision, etc.) such as a tumor during the operation of the subject by the intraoperative ultrasonic image and the corresponding high-resolution MRI image or CT image. That is, it is desired to align the intraoperative ultrasonic image with the high-resolution modality image. However, since the imaging directions of intraoperative ultrasound and other modality images are significantly different, it is difficult to estimate the initial value of alignment, and appropriate ultrasound probe scanning greatly affects the success of alignment. However, the ultrasonic probe scanning for acquiring the ultrasonic volume for alignment depends on the operator's technique and the patient's condition, and the range and site to be scanned vary greatly depending on the operator / patient. If the acquired intraoperative ultrasound volume is inappropriate for alignment, the alignment will fail, and the ultrasound volume will be re-photographed and the alignment will be re-executed. The burden also increases. Therefore, it is desirable to have a function of determining in advance whether the acquired ultrasonic volume or scanning of the ultrasonic probe is appropriate for alignment and accurately guiding the scanning of the ultrasonic probe.

しかしながら、特許文献1の技術では、取得された超音波ボリュームとMRIボリュームから、対応する血管分岐点を総当たりで探索するため、超音波探触子の走査領域や走査部位の識別ができない。また、血管が豊富に存在しない部位や血管が明瞭に撮像できない場合には、血管分岐の抽出、そして位置合わせが困難である。 However, in the technique of Patent Document 1, since the corresponding blood vessel bifurcation point is brute-forced from the acquired ultrasonic volume and MRI volume, the scanning region and scanning site of the ultrasonic probe cannot be identified. In addition, it is difficult to extract and align blood vessel branches when a site where blood vessels are not abundant or blood vessels cannot be clearly imaged.

本発明の目的は、超音波探触子の走査が、位置合わせに適切かどうかを判定し、超音波探触子走査を正確にガイドすることが可能な超音波撮像装置、画像処理装置、及び方法を提供することにある。 An object of the present invention is an ultrasonic image pickup device, an image processing device, and an image processing device capable of determining whether or not the scanning of the ultrasonic probe is appropriate for alignment and accurately guiding the scanning of the ultrasonic probe. To provide a method.

上記の目的を達成するため、本発明においては、被検体に超音波を送信し、被検体からの超音波を受信する超音波探触子と、超音波探触子の受信信号から超音波画像を生成する画像生成部と、超音波画像と、被検体についての第2ボリュームデータを処理する画像処理装置と、を備え、画像処理装置は、超音波画像の臓器注目領域を識別抽出する注目領域識別・抽出部と、抽出した臓器注目領域を用いて、超音波探触子の走査範囲と部位が、超音波画像あるいは超音波画像から生成された第1ボリュームデータと、第2ボリュームデータとの位置合わせに適切かどうかを判定する位置合わせ判定部とを含む超音波撮像装置を提供する。 In order to achieve the above object, in the present invention, an ultrasonic probe that transmits ultrasonic waves to a subject and receives ultrasonic waves from the subject, and an ultrasonic image from the received signal of the ultrasonic probe. An image generation unit for generating an ultrasonic image, an ultrasonic image, and an image processing device for processing a second volume data about a subject, and the image processing device identifies and extracts an organ attention area of an ultrasonic image. Using the identification / extraction unit and the extracted organ attention area, the scanning range and site of the ultrasonic probe are the first volume data generated from the ultrasonic image or the ultrasonic image, and the second volume data. Provided is an ultrasonic imaging apparatus including an alignment determination unit for determining whether or not it is appropriate for alignment.

また、上記の目的を達成するため、本発明においては、画像処理装置であって、超音波探触子から被検体に超音波を送信し、その受信信号から生成した超音波画像の臓器注目領域を識別抽出する注目領域識別・抽出部と、抽出した臓器注目領域を用いて、超音波探触子の走査範囲と部位が、超音波画像あるいは超音波画像から生成された第1ボリュームデータと、被検体についての第2ボリュームデータとの位置合わせに適切かどうかを判定する位置合わせ判定部とを含む画像処理装置を提供する。 Further, in order to achieve the above object, in the present invention, in the image processing apparatus, an ultrasonic probe transmits ultrasonic waves to a subject, and an organ attention region of an ultrasonic image generated from the received signal is used. Using the region of interest identification / extraction unit that identifies and extracts the region of interest and the region of interest of the extracted organ, the scanning range and site of the ultrasonic probe are the first volume data generated from the ultrasonic image or the ultrasonic image, and Provided is an image processing apparatus including an alignment determination unit for determining whether or not it is appropriate for alignment with a second volume data of a subject.

さらに、上記の目的を達成するため、本発明においては、画像処理装置における画像処理方法であって、画像処理装置は、超音波探触子から被検体に超音波を送信し、その受信信号から生成した超音波画像の臓器注目領域を識別抽出し、抽出した臓器注目領域を用いて、超音波探触子の走査範囲と部位が、超音波画像あるいは超音波画像から生成された第1ボリュームデータと、被検体についての第2ボリュームデータとの位置合わせに適切かどうかを判定する画像処理方法を提供する。 Further, in order to achieve the above object, in the present invention, it is an image processing method in an image processing device, in which the image processing device transmits ultrasonic waves from an ultrasonic probe to a subject and uses the received signal. The organ attention area of the generated ultrasonic image is identified and extracted, and using the extracted organ attention area, the scanning range and site of the ultrasonic probe are the first volume data generated from the ultrasonic image or the ultrasonic image. And an image processing method for determining whether or not it is appropriate for alignment with the second volume data of the subject.

本発明によれば、超音波探触子の走査範囲と部位を識別抽出でき、位置合わせ対象となる臓器注目領域の位置や場所を特定できるため、超音波探触子の走査が、他の画像撮像装置のボリュームデータとの位置合わせに適切かどうかを判定できる。 According to the present invention, the scanning range and site of the ultrasonic probe can be identified and extracted, and the position and location of the region of interest of the organ to be aligned can be specified. Therefore, the scanning of the ultrasonic probe can be performed on other images. It is possible to determine whether or not it is appropriate for alignment with the volume data of the image pickup device.

実施例1に係る、超音波撮像装置の全体構成の一例を示すブロック図。The block diagram which shows an example of the whole structure of the ultrasonic imaging apparatus which concerns on Example 1. FIG. 実施例1に係る、超音波撮像装置のハードウェア構成の一例を示すブロック図。The block diagram which shows an example of the hardware composition of the ultrasonic imaging apparatus which concerns on Example 1. FIG. 実施例1に係る、超音波撮像装置の画像処理装置の機能ブロック図。The functional block diagram of the image processing apparatus of the ultrasonic imaging apparatus which concerns on Example 1. FIG. 実施例1に係る、超音波撮像装置の画像処理装置の処理流れを示すフローチャート図。The flowchart which shows the processing flow of the image processing apparatus of the ultrasonic imaging apparatus which concerns on Example 1. FIG. 実施例1に係る、画像処理装置の注目領域の識別・抽出処理の流れを示すフローチャート図。The flowchart which shows the flow of the identification / extraction process of the region of interest of an image processing apparatus which concerns on Example 1. FIG. 実施例1に係る、注目領域における部位名称・臓器区域情報の一例を示す図。The figure which shows an example of the part name / organ area information in the region of interest which concerns on Example 1. FIG. 実施例1に係る、注目領域の識別・抽出する学習モデルを学習する処理の流れを示すフローチャート図。FIG. 5 is a flowchart showing a flow of a process of learning a learning model for identifying / extracting a region of interest according to the first embodiment. 実施例1に係る、注目領域の領域候補の一例を示す図。The figure which shows an example of the area candidate of the area of interest which concerns on Example 1. FIG. 実施例1に係る、注目領域の臓器区域情報の一例を示す図。The figure which shows an example of the organ area information of the region of interest which concerns on Example 1. FIG. 実施例1に係る、注目領域の識別・抽出する学習モデルを学習する流れを示す説明図。An explanatory diagram showing a flow of learning a learning model for identifying / extracting a region of interest according to the first embodiment. 実施例1に係る、超音波探触子走査が位置合わせに適切かどうかを判定する処理の流れを示すフローチャート図。FIG. 5 is a flowchart showing a flow of a process for determining whether or not ultrasonic probe scanning is appropriate for alignment according to the first embodiment. 実施例1に係る、各注目領域の臓器区域、部位名称、体積重み付けの一例を示すテーブル図。The table figure which shows an example of the organ area, the part name, and the volume weighting of each attention area which concerns on Example 1. FIG. 実施例2に係る、超音波撮像装置の全体構成の一例を示すブロック図。The block diagram which shows an example of the whole structure of the ultrasonic imaging apparatus which concerns on Example 2. FIG. 実施例2に係る、超音波撮像装置のハードウェア構成の一例を示すブロック図。The block diagram which shows an example of the hardware composition of the ultrasonic imaging apparatus which concerns on Example 2. FIG. 実施例2に係る、超音波撮像装置の画像処理装置の機能ブロック図。The functional block diagram of the image processing apparatus of the ultrasonic imaging apparatus which concerns on Example 2. FIG. 実施例2に係る、超音波撮像装置の画像処理装置の処理流れを示すフローチャート図。The flowchart which shows the processing flow of the image processing apparatus of the ultrasonic imaging apparatus which concerns on Example 2. FIG. 実施例2に係る、画像処理装置の位置合わせ結果と注目領域抽出結果の表示の一例を示す説明図。The explanatory view which shows an example of the display of the alignment result of the image processing apparatus and the attention area extraction result which concerns on Example 2. FIG. 実施例2に係る、画像処理装置の位置合わせ処理の流れを示すフローチャート図。The flowchart which shows the flow of the alignment process of the image processing apparatus which concerns on Example 2. FIG. 実施例1に係る、超音波振動子の現在の走査区域と推奨する追加走査区域・方向の表示の一例を示す説明図。The explanatory view which shows an example of the display of the present scanning area and the recommended additional scanning area / direction of the ultrasonic vibrator which concerns on Example 1. FIG.

以下、本発明の実施の形態を図面に基づいて詳細に説明する。なお、実施の形態を説明するための全図において、同一部分には原則として同一の符号を付し、その繰り返しの説明は省略する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In addition, in all the drawings for explaining the embodiment, in principle, the same reference numerals are given to the same parts, and the repeated description thereof will be omitted.

実施例1は、被検体に超音波を送信し、被検体からの超音波を受信する超音波探触子と、超音波探触子の受信信号から超音波画像を生成する画像生成部と、超音波画像と、被検体についての第2ボリュームデータを処理する画像処理装置と、を備え、画像処理装置は、超音波画像の臓器注目領域を識別抽出する注目領域識別・抽出部と、抽出した臓器注目領域を用いて、超音波探触子の走査範囲と部位が、超音波画像あるいは超音波画像から生成された第1ボリュームデータと、第2ボリュームデータとの位置合わせに適切かどうかを判定する位置合わせ判定部とを含む超音波撮像装置、その画像処理装置、及びその画像処理方法の実施例である。 In the first embodiment, an ultrasonic probe that transmits ultrasonic waves to a subject and receives ultrasonic waves from the subject, an image generation unit that generates an ultrasonic image from a reception signal of the ultrasonic probe, and an image generation unit. An ultrasonic image and an image processing device for processing a second volume data about a subject are provided, and the image processing device has an attention area identification / extraction unit for identifying and extracting an organ attention area of an ultrasonic image, and an extraction unit. Using the region of interest of the organ, it is determined whether the scanning range and site of the ultrasonic probe are appropriate for the alignment of the first volume data generated from the ultrasonic image or the ultrasonic image and the second volume data. This is an example of an ultrasonic imaging apparatus including an alignment determination unit, an image processing apparatus thereof, and an image processing method thereof.

<構成及び動作>
以下、実施例1の超音波撮像装置の具体的な構成例について詳述する。図1は、実施例1に係る超音波撮像装置の全体構成の一例を示す。本実施例の超音波撮像装置は、超音波探触子7と、画像生成部107と、画像処理装置108とを備え、さらに、送信部102、送受切替部101、受信部105、ユーザインタフェース(UI)121、及び制御部106を備えて構成される。外付けのディスプレイ16は、ユーザインタフェース(UI)121の一部としても良い。
<Configuration and operation>
Hereinafter, a specific configuration example of the ultrasonic imaging device of the first embodiment will be described in detail. FIG. 1 shows an example of the overall configuration of the ultrasonic imaging apparatus according to the first embodiment. The ultrasonic imaging device of this embodiment includes an ultrasonic probe 7, an image generation unit 107, and an image processing device 108, and further includes a transmission unit 102, a transmission / reception switching unit 101, a reception unit 105, and a user interface ( It is configured to include a UI) 121 and a control unit 106. The external display 16 may be part of the user interface (UI) 121.

送信部102は、制御部106の制御下で、送信信号を生成し、超音波プローブと呼ばれる超音波探触子7を構成する複数の超音波素子ごとに受け渡す。これにより、超音波探触子7の複数の超音波素子は、それぞれ超音波を被検体120に向かって送信する。被検体120で反射等された超音波は、再び超音波探触子7の複数の超音波素子に到達して受信され、電気信号に変換される。超音波素子が受信した信号は、受信部105によって、受信焦点の位置に応じた所定の遅延量で遅延され、整相加算される。これを複数の受信焦点ごとについて繰り返す。整相加算後の信号は、画像生成部107に受け渡される。送受切替部101は、送信部102または受信部105を選択的に超音波探触子7に接続する。 Under the control of the control unit 106, the transmission unit 102 generates a transmission signal and delivers it to each of a plurality of ultrasonic elements constituting the ultrasonic probe 7 called an ultrasonic probe. As a result, the plurality of ultrasonic elements of the ultrasonic probe 7 transmit ultrasonic waves toward the subject 120, respectively. The ultrasonic waves reflected by the subject 120 reach the plurality of ultrasonic elements of the ultrasonic probe 7 again, are received, and are converted into electric signals. The signal received by the ultrasonic element is delayed by the receiving unit 105 by a predetermined delay amount according to the position of the receiving focal point, and phase-aligned addition is performed. This is repeated for each of a plurality of receiving focal points. The signal after phasing addition is passed to the image generation unit 107. The transmission / reception switching unit 101 selectively connects the transmission unit 102 or the reception unit 105 to the ultrasonic probe 7.

画像生成部107は、受信部105から受け取った整相加算信号を受信焦点に対応する位置に並べる等の処理を行い、2D超音波画像を生成し、画像処理装置108に出力する。画像処理装置108は、受け取った超音波画像を用いて3次元超音波画像の第1ボリュームデータを生成する。 The image generation unit 107 performs processing such as arranging the phase adjustment addition signal received from the reception unit 105 at a position corresponding to the reception focus, generates a 2D ultrasonic image, and outputs the 2D ultrasonic image to the image processing device 108. The image processing device 108 generates the first volume data of the three-dimensional ultrasonic image using the received ultrasonic image.

画像処理装置108は、これら2D超音波画像と第1ボリュームデータに加え、他の画像撮像装置が被検体120について得た第2ボリュームデータをユーザインタフェース(UI)121を介して受け取って、超音波画像の臓器注目領域をピクセル単位で識別抽出し、超音波探触子の走査領域と部位を識別し、位置合わせに適切かどうかを判定する。言い換えると、画像処理装置108は、超音波探触子から被検体に超音波を送信し、その受信信号から生成した超音波画像の臓器注目領域を識別抽出する注目領域識別・抽出部と、抽出した臓器注目領域を用いて、超音波探触子の走査範囲と部位が、超音波画像あるいは超音波画像から生成された第1ボリュームデータと、第2ボリュームデータとの位置合わせに適切かどうかを判定する位置合わせ判定部と、を含む構成を有する。 In addition to these 2D ultrasonic images and the first volume data, the image processing device 108 receives the second volume data obtained for the subject 120 by another image imaging device via the user interface (UI) 121, and receives ultrasonic waves. The region of interest to the organ in the image is identified and extracted on a pixel-by-pixel basis, the scanning region and the region of the ultrasonic probe are identified, and whether or not it is appropriate for alignment is determined. In other words, the image processing device 108 transmits an ultrasonic wave from the ultrasonic probe to the subject, and identifies and extracts the organ attention area of the ultrasonic image generated from the received signal, and an extraction unit. Whether or not the scanning range and site of the ultrasonic probe are appropriate for the alignment of the first volume data generated from the ultrasonic image or the ultrasonic image and the second volume data using the region of interest of the organ. It has a configuration including a positioning determination unit for determination.

以下の説明において、MRI装置やX線CT装置や他の超音波診断装置等の他の画像撮像装置を、医用モダリティと呼ぶ。本実施例では、医用モダリティの一例として、X線CT装置を用い、X線CT装置のボリュームデータを、上記の第2ボリュームデータとしてのCTボリュームデータと呼ぶ。 In the following description, other image imaging devices such as MRI devices, X-ray CT devices, and other ultrasonic diagnostic devices will be referred to as medical modality. In this embodiment, an X-ray CT apparatus is used as an example of the medical modality, and the volume data of the X-ray CT apparatus is referred to as CT volume data as the second volume data described above.

以下、図2〜図6を用いて、画像処理装置108とユーザインタフェース(UI)121の構成と動作について詳しく説明する。図2は、画像処理装置108とユーザインタフェース121のハードウェア構成の一例を示している。図2に示すハードウェア構成例は、後述する他の実施例においても、共通に用いられる。 Hereinafter, the configuration and operation of the image processing device 108 and the user interface (UI) 121 will be described in detail with reference to FIGS. 2 to 6. FIG. 2 shows an example of the hardware configuration of the image processing device 108 and the user interface 121. The hardware configuration example shown in FIG. 2 is also commonly used in other examples described later.

画像処理装置108は、CPU(プロセッサ)1、ROM(不揮発性メモリ:読出専用の記憶媒体)2、RAM(揮発性メモリ:データの読み書きが可能な記憶媒体)3、記憶装置4および表示制御部15を備えて構成される。ユーザインタフェース(UI)121は、画像入力部9、媒体入力部11、入力制御部13および入力装置14を備えて構成される。これらと画像生成部107は、バス5によって相互に接続されている。また、画像処理装置108の表示制御部15には、ディスプレイ16が接続されている。このディスプレイ16は、ユーザインタフェースの出力部と考えることができる。 The image processing device 108 includes a CPU (processor) 1, a ROM (nonvolatile memory: a read-only storage medium) 2, a RAM (volatile memory: a storage medium capable of reading and writing data) 3, a storage device 4, and a display control unit. It is configured with 15. The user interface (UI) 121 includes an image input unit 9, a medium input unit 11, an input control unit 13, and an input device 14. These and the image generation unit 107 are connected to each other by a bus 5. A display 16 is connected to the display control unit 15 of the image processing device 108. The display 16 can be considered as an output unit of the user interface.

ROM2およびRAM3の少なくとも一方には、CPU1の演算処理で画像処理装置108の動作を実現するために必要とされるプログラムとデータが予め格納されている。CPU1が、このROM2およびRAM3の少なくとも一方に予め格納されたプログラムを実行することによって、後で詳述する画像処理装置108の各種処理が実現される。なお、CPU1が実行するプログラムは、例えば、光ディスクなどの記憶媒体12に格納しておき、光ディスクドライブなどの媒体入力部11がそのプログラムを読み込んでRAM3に格納する様にしてもよい。また、記憶装置4に当該プログラムを格納しておき、記憶装置4からそのプログラムをRAM3にロードしてもよい。また、ROM2にあらかじめ当該プログラムを記憶させておいてもよい。 At least one of the ROM 2 and the RAM 3 stores in advance a program and data required to realize the operation of the image processing device 108 in the arithmetic processing of the CPU 1. When the CPU 1 executes a program stored in at least one of the ROM 2 and the RAM 3, various processes of the image processing device 108, which will be described in detail later, are realized. The program executed by the CPU 1 may be stored in a storage medium 12 such as an optical disk, and the medium input unit 11 such as an optical disk drive may read the program and store it in the RAM 3. Further, the program may be stored in the storage device 4 and the program may be loaded into the RAM 3 from the storage device 4. Further, the program may be stored in ROM 2 in advance.

画像入力部9は、X線CT装置などの医用モダリティである画像撮像装置10が撮影したCTボリュームデータを取り込むためのインターフェースである。記憶装置4は、画像入力部9を介して入力されたCTボリュームデータ等を格納する磁気記憶装置である。記憶装置4は、例えば、フラッシュメモリなどの不揮発性半導体記憶媒体を備えてもよい。また、ネットワークなどを介して接続された外部記憶装置を利用してもよい。 The image input unit 9 is an interface for capturing CT volume data captured by an image imaging device 10 which is a medical modality such as an X-ray CT device. The storage device 4 is a magnetic storage device that stores CT volume data and the like input via the image input unit 9. The storage device 4 may include, for example, a non-volatile semiconductor storage medium such as a flash memory. Further, an external storage device connected via a network or the like may be used.

入力装置14は、ユーザの操作を受け付ける装置であり、例えば、キーボード、トラックボール、操作パネル、フットスイッチなどを含む。入力制御部13は、ユーザによって入力された操作入力を受け付けるインターフェースである。入力制御部13が受けた操作入力は、CPU1によって処理される。表示制御部15は、例えば、CPU1の処理で得られた画像データをディスプレイ16に表示させる制御を行う。ディスプレイ16は、表示制御部15の制御下で画像を表示する。 The input device 14 is a device that accepts user operations, and includes, for example, a keyboard, a trackball, an operation panel, a foot switch, and the like. The input control unit 13 is an interface that receives an operation input input by the user. The operation input received by the input control unit 13 is processed by the CPU 1. The display control unit 15 controls, for example, to display the image data obtained by the processing of the CPU 1 on the display 16. The display 16 displays an image under the control of the display control unit 15.

図3は、本実施例の画像処理装置108の機能を示すブロック図である。図3のように、画像処理装置108は、送信部102、受信部105および画像生成部107で構成される超音波画像取得部28で取得された超音波走査画像である2D超音波画像を用いて、第1のボリュームデータを生成す超音波ボリュームデータ生成部23と、超音波画像の注目領域識別・抽出部21と、第2のボリュームデータとしてのCTボリュームデータ受け付け部22と、CTボリュームの注目領域識別・抽出部24と、超音波・CT注目領域情報25と、位置合わせ判定部32と、画像表示部31とを含む。 FIG. 3 is a block diagram showing the functions of the image processing device 108 of this embodiment. As shown in FIG. 3, the image processing device 108 uses a 2D ultrasonic image which is an ultrasonic scanning image acquired by an ultrasonic image acquisition unit 28 including a transmission unit 102, a reception unit 105, and an image generation unit 107. The ultrasonic volume data generation unit 23 that generates the first volume data, the attention area identification / extraction unit 21 of the ultrasonic image, the CT volume data reception unit 22 as the second volume data, and the CT volume. It includes an attention area identification / extraction unit 24, an ultrasonic / CT attention area information 25, an alignment determination unit 32, and an image display unit 31.

つぎに、図4に示すフローチャートを用いて、図3に示した画像処理装置108の各機能ブロックの動作処理を説明する。まず、ステップS201において、CTボリュームデータ受付部22は、画像入力部9を介して、画像撮像装置10からCTボリュームデータを受け付ける。 Next, the operation processing of each functional block of the image processing apparatus 108 shown in FIG. 3 will be described with reference to the flowchart shown in FIG. First, in step S201, the CT volume data receiving unit 22 receives CT volume data from the image imaging device 10 via the image input unit 9.

ステップS202において、超音波探触子7を当てて、移動やスキャンを行うように促す表示をディスプレイ16に表示する。ユーザが表示に従い超音波探触子7をその臓器の区域で移動させると、超音波画像取得部28により、超音波走査画像である2D超音波画像が生成、取得される。超音波ボリュームデータ生成部23は、超音波画像取得部28の画像生成部107から連続的に生成された2D超音波画像を受け付ける。 In step S202, the ultrasonic probe 7 is applied to display a display on the display 16 prompting the user to move or scan. When the user moves the ultrasonic probe 7 in the area of the organ according to the display, the ultrasonic image acquisition unit 28 generates and acquires a 2D ultrasonic image which is an ultrasonic scanning image. The ultrasonic volume data generation unit 23 receives 2D ultrasonic images continuously generated from the image generation unit 107 of the ultrasonic image acquisition unit 28.

ステップS203において、超音波画像の注目領域識別・抽出部21は、連続的に生成された2D超音波画像から、所定の臓器注目領域をピクセル単位で識別抽出し、超音波探触子7の走査部位と位置を識別・推定する。結果として、その走査部位と位置の情報を付与した臓器注目領域のマスクを生成する。 In step S203, the attention area identification / extraction unit 21 of the ultrasonic image identifies and extracts a predetermined organ attention area in pixel units from the continuously generated 2D ultrasonic image, and scans the ultrasonic probe 7. Identify and estimate the site and position. As a result, a mask of the organ attention region to which the scanning site and position information is given is generated.

ステップS204において、超音波ボリュームデータ生成部23は、連続的に生成された2D超音波画像に基づいて、第1ボリュームデータとしての超音波ボリュームデータを生成する。 In step S204, the ultrasonic volume data generation unit 23 generates ultrasonic volume data as the first volume data based on the continuously generated 2D ultrasonic images.

ステップS205において、CTボリュームの注目領域識別・抽出部24は、CTボリュームデータから、所定の臓器注目領域をピクセル単位で識別抽出し、結果として、各領域の走査部位と位置の情報が付与された臓器注目領域のマスクを生成する。そのCTボリュームの注目領域情報と、超音波画像の注目領域識別・抽出部21から生成された超音波画像の注目領域情報が、超音波・CT注目領域情報25として、位置合わせ判定部32に出力される。 In step S205, the attention area identification / extraction unit 24 of the CT volume identifies and extracts a predetermined organ attention area in pixel units from the CT volume data, and as a result, information on the scanning portion and the position of each area is added. Generate a mask for the area of interest to the organ. The attention area information of the CT volume and the attention area information of the ultrasonic image generated from the attention area identification / extraction unit 21 of the ultrasonic image are output to the alignment determination unit 32 as the ultrasonic / CT attention area information 25. Will be done.

ステップS206において、得られた超音波画像が位置合わせに適切かどうかを判定する。まず、位置合わせ判定部32は、CTボリュームの注目領域情報から、所定の各臓器注目領域の体積を算出する。さらに、位置合わせ判定部32は、超音波画像の注目領域情報から、超音波探触子走査範囲内での各臓器注目領域の体積を算出する。位置合わせ判定部32は、超音波探触子走査とCTボリュームの対応領域の体積の比例の重み付け加算平均を算出し、予め設定した所定の閾値と比較し、超音波走査が位置合わせに適切かどうかを判定する。不適切と判定された場合、さらなる閾値処理により、追加走査をするかどうかを判定する。 In step S206, it is determined whether the obtained ultrasonic image is suitable for alignment. First, the alignment determination unit 32 calculates the volume of each predetermined organ attention region from the attention region information of the CT volume. Further, the alignment determination unit 32 calculates the volume of each organ attention region within the scanning range of the ultrasonic probe from the attention region information of the ultrasonic image. The alignment determination unit 32 calculates a weighted addition average proportional to the volume of the region corresponding to the ultrasonic probe scanning and the CT volume, compares it with a predetermined threshold value set in advance, and determines whether the ultrasonic scanning is appropriate for alignment. Judge whether or not. If it is determined to be inappropriate, it is determined whether or not to perform additional scanning by further threshold processing.

ステップS207において、追加走査をすると判定された場合、超音波探触子7の走査方向や走査部位を、ディスプレイ16などの画像表示部31を用いてユーザに提示する。具体的な表示例は後で説明する。 When it is determined in step S207 that additional scanning is to be performed, the scanning direction and scanning portion of the ultrasonic probe 7 are presented to the user using an image display unit 31 such as a display 16. A specific display example will be described later.

ステップS208において、追加走査しないと判定された場合、超音波探触子7の走査が、位置合わせに不適切であるとの結果を判定結果として画像表示部31に表示する。また、ステップS208において、位置合わせに適切と判定された場合、その判定結果と、超音波画像の注目領域情報を、画像表示部31を用いてユーザに表示する。 When it is determined in step S208 that additional scanning is not performed, the result that the scanning of the ultrasonic probe 7 is inappropriate for alignment is displayed on the image display unit 31 as a determination result. Further, in step S208, when it is determined that the alignment is appropriate, the determination result and the attention area information of the ultrasonic image are displayed to the user by using the image display unit 31.

引続き、注目領域の識別抽出する処理と位置合わせ判定処理について詳しく述べる。図5に示すフローチャートを用いて、図3の超音波画像の注目領域識別・抽出部21の動作処理を説明する。CTボリュームの注目領域識別・抽出部24も類似する処理を実行するため、説明は省略する。 Subsequently, the process of identifying and extracting the region of interest and the process of determining the alignment will be described in detail. The operation processing of the region of interest identification / extraction unit 21 of the ultrasonic image of FIG. 3 will be described with reference to the flowchart shown in FIG. Since the region of interest identification / extraction unit 24 of the CT volume also executes similar processing, the description thereof will be omitted.

注目領域識別・抽出部21は、臓器注目領域の注目領域候補を識別抽出する第1学習モデルの学習を行い、生成された第1学習モデルのパラメータを、臓器注目領域の解剖学的区域情報、すなわち、臓器内の解剖学的位置を示す臓器区域情報が付与された領域を識別・抽出する第2学習モデルの初期パラメータとして用いて、第2学習モデルの学習を行う。更に、注目領域識別・抽出部21は、生成された第2学習モデルのパラメータを、臓器注目領域の部位名称情報と臓器区域情報が付与された領域を識別・抽出する第3学習モデルの初期パラメータとして用いて、第3学習モデルの学習を行い、その結果を最終学習モデルとして生成する。 The attention area identification / extraction unit 21 learns the first learning model for identifying and extracting the attention area candidates of the organ attention area, and uses the generated parameters of the first learning model as the anatomical area information of the organ attention area. That is, the second learning model is trained by using it as an initial parameter of the second learning model for identifying and extracting the region to which the organ area information indicating the anatomical position in the organ is given. Further, the attention area identification / extraction unit 21 identifies and extracts the generated second learning model parameter to the area to which the part name information and the organ area information of the organ attention area are given, and the initial parameter of the third learning model. The third training model is trained, and the result is generated as the final training model.

ステップS301において、超音波画像の注目領域識別・抽出部21は、画像生成部107から超音波走査画像である2D超音波画像を受け付ける。ステップS302において、ノイズ除去やコントラスト強調などの画像前処理を行う。ステップS303において、識別・抽出用の学習モデルを読み込む。ステップS304において、学習モデルに基づいて部位とその位置の情報を含めた臓器注目領域を識別抽出する。ステップS305において、識別抽出した臓器注目領域のマスク画像を生成する。 In step S301, the region of interest identification / extraction unit 21 of the ultrasonic image receives a 2D ultrasonic image which is an ultrasonic scanned image from the image generation unit 107. In step S302, image preprocessing such as noise removal and contrast enhancement is performed. In step S303, the learning model for identification / extraction is read. In step S304, an organ attention region including information on a site and its position is identified and extracted based on a learning model. In step S305, a mask image of the organ attention region identified and extracted is generated.

ここで、公知であるFCN法(Fully Convolutional Network)あるいはその改良版のU−Net法を用いる。FCN法は、深層学習(Deep Learning)のCNN法(Convolution Nueral Network)の全結合層をConvolution層に置き換えることで画像をピクセル単位で推定する(Semantic Segmentationする)手法である。 Here, a known FCN method (Full Convolutional Network) or an improved version thereof, the U-Net method, is used. The FCN method is a method of estimating an image in pixel units (Semantic Segmentation) by replacing the fully connected layer of the CNN method (Convolution Natural Network) of deep learning with a Convolution layer.

識別抽出の対象(クラス)として、臓器注目領域だけではなく、その領域が所属する臓器の解剖学的区域情報である臓器区域情報も含まれる。図6は、肝臓を例として、その超音波走査画像である2D超音波画像と、臓器注目領域の部位名称と、臓器区域情報としての所定の注目領域(識別抽出対象)を表示する画像例を示している。図6の(A)は、肝臓の2D超音波画像122を示す図である。図6の(B)は、学習時に用いる教師ラベル付けのマスク画像123、すなわち学習の正解データを示す図である。図6の(B)では、識別抽出対象として、4種類の臓器注目領域の部位名称と臓器区域情報として、静脈領域-右葉前上区域、静脈領域-右葉前下区域、門脈領域-右葉前上区域、胆嚢領域-右葉前下区域が示されている。ただし、このような細分化される識別抽出対象に対応できるCNNネットワークを学習させるのに、大量の教師ラベル付けの超音波画像データが必要になり、学習データ不足や学習効率、識別抽出精度などの課題がある。この課題を解決するため、本実施例の画像処理装置108の注目領域識別・抽出部21、24では、3段階の学習処理を実行する。 The target (class) of the identification extraction includes not only the organ area of interest but also the organ area information which is the anatomical area information of the organ to which the area belongs. FIG. 6 shows an example of an image displaying a 2D ultrasonic image which is an ultrasonic scanning image of the liver, a site name of an organ attention region, and a predetermined region of interest (identification extraction target) as organ area information. Shown. FIG. 6A is a diagram showing a 2D ultrasonic image 122 of the liver. FIG. 6B is a diagram showing a teacher-labeled mask image 123 used at the time of learning, that is, correct answer data for learning. In FIG. 6B, as the identification and extraction targets, the site names and organ area information of four types of organs of interest are venous area-right lobe anterior superior area, venous area-right lobe anterior inferior area, portal vein area-. Right anterior superior area, gallbladder area-right lobe anterior inferior area is shown. However, in order to train a CNN network that can handle such subdivided identification and extraction targets, a large amount of teacher-labeled ultrasonic image data is required, resulting in lack of learning data, learning efficiency, identification and extraction accuracy, and the like. There are challenges. In order to solve this problem, the attention area identification / extraction units 21 and 24 of the image processing device 108 of this embodiment execute three-step learning processing.

本実施例の学習処理を、図7に示すフローチャートと図8〜10に示す画像例を用いて説明する。ここで、注目領域識別・抽出部21の超音波画像を例として説明するが、同じ処理がCT画像にも適用可能である。 The learning process of this embodiment will be described with reference to the flowchart shown in FIG. 7 and the image example shown in FIGS. 8 to 10. Here, the ultrasonic image of the region of interest identification / extraction unit 21 will be described as an example, but the same processing can be applied to the CT image.

ステップS401において、学習用画像を入力する。ステップS402において、予め用意した注目領域候補のマスク画像を入力する。図8の(A)、(B)に、学習用画像とそれに対応する注目領域候補マスク画像の例を示している。ステップS403において、学習用画像と生成した注目領域候補マスク画像を用いて、第1学習モデルの学習を行う。この学習処理では、臓器注目領域の注目領域候補を識別抽出できるような学習モデルを生成することを目的とする。ステップS404において、生成された第1学習モデルのパラメータを第2学習モデルの初期パラメータとして用いる。ステップS405において、予め用意した学習用注目領域の臓器区域情報正解マスク画像を入力する。 In step S401, a learning image is input. In step S402, the mask image of the region of interest candidate prepared in advance is input. 8 (A) and 8 (B) show examples of a learning image and a corresponding region candidate mask image of interest. In step S403, the first learning model is trained using the training image and the generated region candidate mask image of interest. The purpose of this learning process is to generate a learning model that can identify and extract attention region candidates of the organ attention region. In step S404, the generated parameters of the first training model are used as the initial parameters of the second training model. In step S405, the organ area information correct answer mask image of the region of interest for learning prepared in advance is input.

図9の(A)、(B)には、学習用画像124とそれに対応する臓器区域情報正解マスク画像125の一例を示している。ここでは、臓器の解剖学的区域情報である臓器区域情報の例として、肝臓の右葉前下区域と右葉前上区域を示している。ステップS406において、学習用画像と臓器区域情報正解マスク画像を用いて、初期化された第2学習モデルをさらに学習させる。この学習処理の目的は、臓器注目領域の臓器区域情報が付与された領域を識別抽出することである。 9 (A) and 9 (B) show an example of the learning image 124 and the corresponding organ area information correct mask image 125. Here, as an example of the organ area information which is the anatomical area information of the organ, the right anterior inferior area and the right lobe anterior superior area of the liver are shown. In step S406, the initialized second learning model is further trained by using the learning image and the organ area information correct answer mask image. The purpose of this learning process is to identify and extract the region to which the organ area information of the organ attention region is given.

更に、ステップS407において、生成された第2学習モデルのパラメータを第3学習モデルの初期パラメータとして用いる。すなわち、第2学習モデルのパラメータを、臓器注目領域の部位名称情報と臓器区域情報が付与された領域を識別・抽出する第3学習モデルの初期パラメータとして用いる。ステップS408において、学習用画像とそれに対応する、予め用意した、部位名称情報と臓器区域情報が付与された臓器注目領域の正解マスク画像を入力する。ステップS409において、ステップS408で入力された画像データを用いて、ステップS407で初期化された第3学習モデルをさらに学習させ、その結果を最終学習モデルとして生成する。図10は、上述した3段階の学習処理を模式的に示した図である。 Further, in step S407, the generated parameters of the second learning model are used as the initial parameters of the third learning model. That is, the parameters of the second learning model are used as the initial parameters of the third learning model for identifying and extracting the region to which the part name information and the organ area information of the organ attention region are given. In step S408, the learning image and the corresponding correct mask image of the organ attention region to which the site name information and the organ area information are added, which are prepared in advance, are input. In step S409, the image data input in step S408 is used to further train the third learning model initialized in step S407, and the result is generated as the final learning model. FIG. 10 is a diagram schematically showing the above-mentioned three-step learning process.

なお以上の説明にあっては、3段階の学習処理を例示して説明したが、3段階に限定されず、必要に応じて2段階、4段階等の3段階以外の段階で学習処理を実行することができる。 In the above explanation, the learning process of three stages has been illustrated as an example, but the learning process is not limited to the three stages, and the learning process is executed at a stage other than the three stages such as two stages and four stages as necessary. can do.

つぎに、図11に示すフローチャートを用いて、本実施例の画像処理装置108の位置合わせ判定部32の位置合わせ判定処理を説明する。ステップS501において、超音波とCTの臓器注目領域の情報を受け付ける。ステップS502において、超音波注目領域情報の臓器区域情報から走査部位を推定する。ステップS503において、超音波注目領域情報から各臓器注目領域の体積を推定する。ステップS504において、CTボリュームの中から、超音波注目領域に対応する各臓器注目領域の体積を推定する。ステップS505において、両者の体積の比などを用いて、超音波探触子7の走査が位置合わせに適切かどうかを判定する。 Next, the alignment determination process of the alignment determination unit 32 of the image processing device 108 of this embodiment will be described with reference to the flowchart shown in FIG. In step S501, information on the region of interest of the organ of ultrasonic waves and CT is received. In step S502, the scanning site is estimated from the organ area information of the ultrasonic attention area information. In step S503, the volume of each organ attention region is estimated from the ultrasonic attention region information. In step S504, the volume of each organ attention region corresponding to the ultrasonic attention region is estimated from the CT volume. In step S505, it is determined whether or not the scanning of the ultrasonic probe 7 is appropriate for the alignment by using the volume ratio of the two.

上述の臓器注目領域の識別抽出方法であるU−Net法は2D画像に適用可能であり、連続2D超音波画像から臓器注目領域を識別抽出し、その体積を推定することができる。超音波探触子7が超音波ボリュームデータを直接取得することが可能な場合、超音波ボリュームやCTボリュームに対し、U−Net法の3次元拡張版である3D−Net法やV−Net法を用いることが可能である。 The U-Net method, which is the above-mentioned method for identifying and extracting an organ of interest region, is applicable to a 2D image, and can identify and extract an organ of interest region from a continuous 2D ultrasonic image and estimate its volume. When the ultrasonic probe 7 can directly acquire the ultrasonic volume data, the 3D-Net method and the V-Net method, which are three-dimensional extended versions of the U-Net method, are applied to the ultrasonic volume and the CT volume. Can be used.

ここからは、図12に示す、各臓器注目領域の臓器区域、部位名称、体積重み付けの一例を示す計算テーブル126を用いて、位置合わせに適切かどうかの判定処理を説明する。ここで、臓器の例として肝臓、解剖学的区域の例として右葉、左葉それぞれの4区域、部位名称の例として門脈、静脈、胆嚢、合わせて24の識別抽出対象(クラス)を用いて説明する。各対象領域に対し、解剖学的な体積や位置合わせ対象としての重要度などを考慮し、24の識別抽出対象(クラス)に対して計算テーブル126に一例を示した所定の重み(w)を設定する。他の臓器、人体領域も類似する識別抽出対象の定義や重み付けの設定が可能である。 From here, the determination process of whether or not it is appropriate for alignment will be described using the calculation table 126 showing an example of the organ area, the site name, and the volume weighting of each organ attention region shown in FIG. Here, the liver is used as an example of the organ, the right lobe and the left lobe are used as examples of the anatomical area, and the portal vein, vein, and gallbladder are used as the example of the site name, and a total of 24 identification extraction targets (classes) are used. I will explain. For each target area, considering the anatomical volume and importance as an alignment target, a predetermined weight (w) shown as an example in the calculation table 126 is given to 24 identification extraction targets (classes). Set. It is possible to define similar identification and extraction targets and set weights for other organs and human body regions.

位置合わせ判定部32は、超音波画像とCTボリュームのそれぞれから抽出された各臓器注目領域の体積に対し、それぞれの体積の重みづけ加算値(VUS、VCT)を算出する。ここで、上述した閾値処理の所定の判定閾値として、T1=0.5、T2=0.2を設定できる。
VUS / VCT > T1の場合は、超音波探触子7の走査が位置合わせに適切と判定する。
T1 > VUS / VCT > T2の場合は、超音波探触子7の走査が位置合わせに適切ではないと判定するが、追加走査により適切の走査が可能になると判定し、画像表示部31にてユーザに走査方向や部位を提示する。例えば、図19に一例を示す画像表示部31の表示画面128のように、ユーザに現在の走査範囲と推奨する追加走査範囲をメッセージ129で提示し、さらに表示画面128の左側領域に表示したように、被検体の画像内に超音波探触子の走査位置と推奨走査方向を矢印などで表示して、ユーザを誘導することができる。
VUS / VCT < T2の場合は超音波探触子7の走査が位置合わせに適切ではない、走査をやり直しと判定する。
The alignment determination unit 32 calculates a weighted addition value (V US , V CT ) of each volume with respect to the volume of each organ attention region extracted from each of the ultrasonic image and the CT volume. Here, T 1 = 0.5 and T 2 = 0.2 can be set as predetermined determination threshold values for the above-mentioned threshold processing.
When V US / V CT > T 1 , the scanning of the ultrasonic probe 7 is judged to be appropriate for alignment.
In the case of T 1 > V US / V CT > T 2 , it is judged that the scanning of the ultrasonic probe 7 is not suitable for alignment, but it is judged that proper scanning is possible by the additional scanning, and the image is displayed. The section 31 presents the scanning direction and the portion to the user. For example, as shown in the display screen 128 of the image display unit 31 showing an example in FIG. 19, the current scanning range and the recommended additional scanning range are presented to the user in the message 129, and further displayed in the left area of the display screen 128. In addition, the scanning position of the ultrasonic probe and the recommended scanning direction can be displayed by arrows or the like in the image of the subject to guide the user.
If V US / V CT <T 2 , the scanning of the ultrasonic probe 7 is not appropriate for alignment, and it is determined that the scanning should be redone.

このように、位置合わせ判定部32は、識別抽出された超音波画像の臓器注目領域各々に対し重み付け加算を行って第1重み付け体積を算出し、第2ボリュームデータの、超音波画像の臓器注目領域各々に対応する臓器注目領域に対して重み付け加算を行って第2重み付け体積を算出し、第1重み付け体積と第2重み付け体積の比を所定の閾値と比較することにより、超音波探触子の走査範囲と部位が、第2ボリュームデータとの位置合わせに適切かどうかを判定することができる。更に、位置合わせ判定部32は、超音波探触子の走査範囲と部位が、第2ボリュームデータとの位置合わせに不適切と判定した場合、推奨する超音波探触子の追加走査範囲と部位にユーザを誘導するためのメッセージなどを画像表示部31に行う。 In this way, the alignment determination unit 32 calculates the first weighted volume by performing weighting addition to each of the organ attention regions of the identified and extracted ultrasonic image, and the organ attention of the ultrasonic image of the second volume data. The ultrasonic probe is calculated by weighting and adding to the organ attention region corresponding to each region to calculate the second weighted volume, and comparing the ratio of the first weighted volume to the second weighted volume with a predetermined threshold value. It is possible to determine whether or not the scanning range and the portion of the above are appropriate for the alignment with the second volume data. Further, when the alignment determination unit 32 determines that the scanning range and the portion of the ultrasonic probe are inappropriate for the alignment with the second volume data, the alignment determination unit 32 recommends the additional scanning range and the portion of the ultrasonic probe. A message or the like for guiding the user to the image display unit 31 is sent to the image display unit 31.

画像表示部31は、上述した各種の表示に加え、識別抽出された各注目領域のセグメンテーション結果や体積計算数値を表示することができる。また、ユーザインタフェース(UI)121を介して、上述の位置合わせ判定用閾値T1、T2 の調整をすることができる。 In addition to the various displays described above, the image display unit 31 can display the segmentation results and volume calculation values of the identified and extracted regions of interest. Further, the above-mentioned alignment determination threshold values T 1 and T 2 can be adjusted via the user interface (UI) 121.

以上説明したように、本実施例の超音波撮像装置、画像処理装置、及び方法によれば、超音波画像の臓器注目領域をピクセル単位で識別抽出し、超音波探触子の走査領域と部位を識別し、位置合わせに適切かどうかを判定することが可能となる。 As described above, according to the ultrasonic imaging apparatus, image processing apparatus, and method of the present embodiment, the organ-focused region of the ultrasonic image is identified and extracted on a pixel-by-pixel basis, and the scanning region and region of the ultrasonic probe are detected. It becomes possible to identify and determine whether or not it is appropriate for alignment.

実施例2は、実施例1の構成に加えて更に、超音波探触子走査が位置合わせに適切と判定された場合、超音波-CT画像の位置合わせを行い、その後、リアルタイムに走査して取得した術中の超音波画像と、それに対応する高解像度のCT画像を同時に表示し、手術を正確にガイドすることができる超音波撮像装置、画像処理装置、及び方法の実施例である。なお、実施例2の説明において、実施例1と同じ構成及び処理については、同じ符号を付して説明を省略する。 In the second embodiment, in addition to the configuration of the first embodiment, when the ultrasonic probe scanning is determined to be appropriate for the alignment, the ultrasonic-CT image is aligned and then scanned in real time. This is an example of an ultrasonic imaging device, an image processing device, and a method capable of simultaneously displaying an acquired intraoperative ultrasonic image and a corresponding high-resolution CT image to accurately guide the operation. In the description of the second embodiment, the same components and processes as those of the first embodiment are designated by the same reference numerals and the description thereof will be omitted.

<構成及び動作>
図13は、実施例2における超音波撮像装置の一構成例を示している。図14は、実施例2における画像処理装置108とユーザインタフェース(UI)121のハードウェア構成例を示すブロック図である。図13、図14から明らかなように、実施例1の構成例に加えて、位置センサ8と、位置検出ユニット6とを備えて構成される。位置検出ユニット6は、位置センサ8の出力から超音波探触子7の位置を検出する。例えば、位置検出ユニット6として、磁気センサユニットを用いることができる。位置検出ユニット6は、磁場空間を形成し、位置センサ8が磁場を検出することにより、基準点となる位置からの座標を検出することができる。
<Configuration and operation>
FIG. 13 shows a configuration example of the ultrasonic imaging device according to the second embodiment. FIG. 14 is a block diagram showing a hardware configuration example of the image processing device 108 and the user interface (UI) 121 in the second embodiment. As is clear from FIGS. 13 and 14, in addition to the configuration example of the first embodiment, the position sensor 8 and the position detection unit 6 are provided. The position detection unit 6 detects the position of the ultrasonic probe 7 from the output of the position sensor 8. For example, a magnetic sensor unit can be used as the position detection unit 6. The position detection unit 6 forms a magnetic field space, and the position sensor 8 detects the magnetic field, so that the coordinates from the position serving as the reference point can be detected.

画像生成部107は、超音波探触子7のその時の位置情報を位置検出ユニット6から受け取って、生成する超音波画像に位置情報を付与する。ユーザが超音波探触子7を移動させ、画像生成部107がその時の超音波探触子7の位置情報が付与された超音波画像を生成して、画像処理装置108に出力することにより、画像処理装置108は3次元超音波画像の第1ボリュームデータを生成することができる。 The image generation unit 107 receives the position information of the ultrasonic probe 7 at that time from the position detection unit 6, and adds the position information to the generated ultrasonic image. The user moves the ultrasonic probe 7, and the image generation unit 107 generates an ultrasonic image to which the position information of the ultrasonic probe 7 at that time is added, and outputs the ultrasonic image to the image processing device 108. The image processing device 108 can generate first volume data of a three-dimensional ultrasonic image.

図15は、本実施例の画像処理装置108の機能例を示すブロック図である。図15のように、画像処理装置108は、実施例1における構成に加えて、超音波探触子位置情報取得部29と、位置合わせを実行するCTボリューム座標変換算出(位置合わせ)部26と、リアルタイム2D−CT画像算出部27と、リアルタイム2D超音波画像取得部30とを含む。 FIG. 15 is a block diagram showing a functional example of the image processing device 108 of this embodiment. As shown in FIG. 15, in addition to the configuration in the first embodiment, the image processing apparatus 108 includes an ultrasonic probe position information acquisition unit 29 and a CT volume coordinate conversion calculation (position alignment) unit 26 that executes alignment. , A real-time 2D-CT image calculation unit 27 and a real-time 2D ultrasonic image acquisition unit 30 are included.

つぎに、図16に示すフローチャートを用いて、図15に示した実施例2の画像処理装置108の動作処理を説明する。ここでは、実施例1における画像処理装置108の動作処理と異なる部分のみを述べる。ステップS501、S502、S504、S506、S507、S508のそれぞれは、図4に示している、ステップS201、S202、S203、S205、S206、S207の処理と同様である。 Next, the operation processing of the image processing apparatus 108 of the second embodiment shown in FIG. 15 will be described with reference to the flowchart shown in FIG. Here, only the part different from the operation processing of the image processing apparatus 108 in the first embodiment will be described. Each of steps S501, S502, S504, S506, S507, and S508 is the same as the processing of steps S201, S202, S203, S205, S206, and S207 shown in FIG.

ステップS503において、位置検出ユニット6は、位置センサ8の出力から、超音波探触子7の位置を検出する。超音波ボリュームデータ生成部23は、その超音波探触子のリアルタイムの位置情報を受け付ける。ステップS505において、超音波ボリュームデータ生成部23は、連続的に生成された2D超音波画像と、それに付与した超音波探触子の位置情報に基づいて、第1ボリュームデータとしての超音波ボリュームデータを生成する。 In step S503, the position detection unit 6 detects the position of the ultrasonic probe 7 from the output of the position sensor 8. The ultrasonic volume data generation unit 23 receives real-time position information of the ultrasonic probe. In step S505, the ultrasonic volume data generation unit 23 receives the ultrasonic volume data as the first volume data based on the continuously generated 2D ultrasonic image and the position information of the ultrasonic probe added to the 2D ultrasonic image. To generate.

ステップS509において、CTボリューム座標変換算出(位置合わせ)部26は、超音波・CT注目領域情報25を受け付け、CTボリュームを超音波ボリュームに位置合わせを行うための位置合わせ変換行列を算出する。位置合わせ変換行列算出の詳細は後で述べる。ステップS510において、リアルタイム2D超音波画像取得部30は、超音波画像取得部28からリアルタイムに取得した超音波走査画像である2D超音波画像を受け付ける。ステップS511において、CT断面であるリアルタイム2D-CT画像算出部27は、ステップS505と同様に、2D超音波画像に対応する超音波探触子のリアルタイムの位置情報を受け付ける。 In step S509, the CT volume coordinate conversion calculation (alignment) unit 26 receives the ultrasonic / CT attention region information 25 and calculates an alignment conversion matrix for aligning the CT volume with the ultrasonic volume. Details of the alignment transformation matrix calculation will be described later. In step S510, the real-time 2D ultrasonic image acquisition unit 30 receives a 2D ultrasonic image which is an ultrasonic scanning image acquired in real time from the ultrasonic image acquisition unit 28. In step S511, the real-time 2D-CT image calculation unit 27, which is a CT cross section, receives real-time position information of the ultrasonic probe corresponding to the 2D ultrasonic image, as in step S505.

次に、ステップS512においては、リアルタイム2D-CT画像算出部27は、超音波探触子7の位置情報と、CTボリュームの座標変換行列とを用いて、リアルタイムに取得した2D超音波画像に対応する2D-CTの断面画像をCTボリュームからリアルタイムに算出する。ステップS513においては、画像表示部31は、2D超音波画像と、2D-CTの断面画像と超音波・CT注目領域情報25を受け付ける。画像表示部31は、2D-CT、2D超音波画像の断面画像(CT、US)のそれぞれを、図17に一例を示すように、画像表示部31の表示領域127の異なる画面領域に表示する。そして、注目領域の部位と区域情報、および超音波走査の推定体積を、それぞれ表示領域127に表示する。 Next, in step S512, the real-time 2D-CT image calculation unit 27 corresponds to the 2D ultrasonic image acquired in real time by using the position information of the ultrasonic probe 7 and the coordinate conversion matrix of the CT volume. The cross-sectional image of the 2D-CT to be used is calculated in real time from the CT volume. In step S513, the image display unit 31 receives a 2D ultrasonic image, a cross-sectional image of 2D-CT, and ultrasonic / CT attention area information 25. The image display unit 31 displays each of the cross-sectional images (CT, US) of the 2D-CT and 2D ultrasonic images in different screen areas of the display area 127 of the image display unit 31 as shown in FIG. 17 as an example. .. Then, the site and area information of the region of interest and the estimated volume of the ultrasonic scanning are displayed in the display region 127, respectively.

ここからは、図18に示したフローチャートを用いて、CTボリューム座標変換算出(位置合わせ)部26における、位置合わせ変換行列算出の処理について説明する。ステップS601において、CTボリューム座標変換算出(位置合わせ)部26は、超音波ボリューム(第1ボリューム)とCTボリューム(第2ボリューム)を受け付ける。ステップS602において、超音波・CT注目領域情報25を受け付ける。 From here, the process of calculating the alignment transformation matrix in the CT volume coordinate transformation calculation (alignment) unit 26 will be described with reference to the flowchart shown in FIG. In step S601, the CT volume coordinate conversion calculation (alignment) unit 26 receives the ultrasonic volume (first volume) and the CT volume (second volume). In step S602, the ultrasonic / CT attention region information 25 is received.

ステップS603において、CTボリューム座標変換算出(位置合わせ)部26は、超音波・CT注目領域の点群同士の位置合わせを実行する。自動位置合わせ手法としては、公知のICP(Iterative Closest Point)法を用いることができる。ICP法では、CT注目領域の点群を幾何変換、すなわち平行移動と回転を行って、超音波注目領域の点群との対応点間の距離を求めて、その距離が最小となるように反復的に計算を行う。これにより、両者を位置合わせすることができる。 In step S603, the CT volume coordinate conversion calculation (alignment) unit 26 executes the alignment between the point clouds in the ultrasonic / CT attention region. As the automatic alignment method, a known ICP (Iterative Closest Point) method can be used. In the ICP method, the point group in the CT area of interest is geometrically transformed, that is, translated and rotated to obtain the distance between the points corresponding to the point group in the ultrasonic area of interest, and repeated so that the distance is minimized. Perform the calculation. As a result, both can be aligned.

つぎに、ステップS604において、CTボリューム座標変換算出(位置合わせ)部26は、超音波ボリュームとCTボリュームの画像ベースの位置合わせを行う。前記注目領域の点群同士の位置合わせ結果を用いて、画像ベースの位置合わせのパラメータを初期化する。CTボリューム座標変換算出(位置合わせ)部26は、超音波ボリュームとCTボリュームのそれぞれから、位置合わせ対象であるサンプル点データを取得する。サンプル点データは、画像領域のすべての画素をサンプリング点として抽出してもよい、ランダムもしくはグリッド上にてサンプリングした画素値を用いてもよい。さらに、対応する注目領域からサンプリングしてもよい。 Next, in step S604, the CT volume coordinate conversion calculation (alignment) unit 26 performs image-based alignment between the ultrasonic volume and the CT volume. Image-based alignment parameters are initialized using the alignment results of the point clouds in the region of interest. The CT volume coordinate conversion calculation (alignment) unit 26 acquires sample point data to be aligned from each of the ultrasonic volume and the CT volume. As the sample point data, all the pixels in the image area may be extracted as sampling points, or pixel values sampled at random or on a grid may be used. Further, sampling may be performed from the corresponding region of interest.

CTボリューム座標変換算出(位置合わせ)部26は、超音波ボリュームから抽出されたサンプリング点の座標を、CTボリュームにおいて対応する点の座標へ、幾何変換し、これらのサンプリング点における輝度データに対して、所定の評価関数を適用して、超音波ボリュームとCTボリュームとの間の画像類似度を演算する。画像類似度としては、公知の相互情報量を使用することができる。CTボリューム座標変換算出(位置合わせ)部26は、超音波ボリュームとCTボリュームの間の画像類似度が最大あるいは極大となるような幾何変換情報を求めて、その幾何変換情報を更新する。最後のステップS605においては、CTボリューム座標変換算出(位置合わせ)部26は、位置合わせの結果を出力する。 The CT volume coordinate transformation calculation (alignment) unit 26 geometrically transforms the coordinates of the sampling points extracted from the ultrasonic volume into the coordinates of the corresponding points in the CT volume, and with respect to the brightness data at these sampling points. , A predetermined evaluation function is applied to calculate the image similarity between the ultrasonic volume and the CT volume. As the image similarity, a known mutual information amount can be used. The CT volume coordinate transformation calculation (alignment) unit 26 obtains geometric transformation information such that the image similarity between the ultrasonic volume and the CT volume is maximum or maximum, and updates the geometric transformation information. In the final step S605, the CT volume coordinate conversion calculation (alignment) unit 26 outputs the alignment result.

以上説明したように、本実施例によれば、超音波画像の臓器注目領域をピクセル単位で識別抽出し、超音波探触子の走査領域と部位を識別し、位置合わせに適切かどうかを判定した後に、超音波ボリュームとCTボリュームの位置合わせを行い、リアルタイムに走査して取得した術中超音波画像と、それに対応する高解像度のCT画像を同時に表示し、手術を正確にガイドすることができる。 As described above, according to the present embodiment, the region of interest of the organ in the ultrasonic image is identified and extracted on a pixel-by-pixel basis, the scanning region and the portion of the ultrasonic probe are identified, and whether or not it is appropriate for alignment is determined. After that, the ultrasound volume and CT volume are aligned, and the intraoperative ultrasound image acquired by scanning in real time and the corresponding high-resolution CT image can be displayed at the same time to accurately guide the operation. ..

なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明のより良い理解のために詳細に説明したのであり、必ずしも説明の全ての構成を備えるものに限定されものではない。上述した通り、本発明は、超音波撮像装置と、その画像処理装置、及び方法に限定されるものでなく、ネットワークを介して超音波撮像装置と接続された画像処理装置、及びその画像処理方法として実現することができることは言うまでもない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることが可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 The present invention is not limited to the above-described examples, and includes various modifications. For example, the above-mentioned examples have been described in detail for a better understanding of the present invention, and are not necessarily limited to those having all the configurations of the description. As described above, the present invention is not limited to the ultrasonic imaging apparatus, its image processing apparatus, and the method, but is not limited to the ultrasonic imaging apparatus, the image processing apparatus connected to the ultrasonic imaging apparatus via a network, and the image processing method thereof. Needless to say, it can be realized as. Further, it is possible to replace a part of the configuration of one embodiment with the configuration of another embodiment, and it is possible to add the configuration of another embodiment to the configuration of one embodiment. Further, it is possible to add / delete / replace a part of the configuration of each embodiment with another configuration.

更に、上述した各構成、機能、処理部等は、それらの一部又は全部を実現するプログラムを作成する例を説明したが、それらの一部又は全部を例えば集積回路で設計する等によりハードウェアで実現しても良い。 Further, although each of the above-mentioned configurations, functions, processing units, etc. has described an example of creating a program that realizes a part or all of them, hardware is used by designing a part or all of them, for example, with an integrated circuit. It may be realized by.

1 CPU
2 ROM
3 RAM
4 記憶装置
5 バス
6 位置検出ユニット
7 超音波探触子
8 位置センサ
9 画像入力部
10 画像撮像装置
11 媒体入力部
12 記憶媒体
13 入力制御部
14 入力装置
15 表示制御部
16 ディスプレイ
21 超音波画像の注目領域識別・抽出部
22 CTボリュームデータ受付部
23 超音波ボリュームデータ生成部
24 CTボリュームの注目領域識別・抽出部
25 超音波・CT注目領域情報
26 CTボリューム座標変換算出部
27 リアルタイム2D-CT画像算出部
28 超音波画像取得部
29 超音波探触子位置情報取得部
30 リアルタイム2D超音波画像取得部
31 画像表示部
32 位置合わせ判定部
100 超音波撮像装置
101 送受切替部
102 送信部
105 受信部
106 制御部
107 画像生成部
108 画像処理装置
120 ユーザ
121 ユーザインタフェース(UI)
122 超音波画像
123 マスク画像
124 学習用画像
125 正解マスク画像
126 計算テーブル
127 表示領域
1 CPU
2 ROM
3 RAM
4 Storage device 5 Bus 6 Position detection unit 7 Ultrasonic probe 8 Position sensor 9 Image input unit 10 Image imaging device 11 Media input unit 12 Storage medium 13 Input control unit 14 Input device 15 Display control unit 16 Display 21 Ultrasonic image Attention area identification / extraction unit 22 CT volume data reception unit 23 Ultrasonic volume data generation unit 24 CT volume attention area identification / extraction unit 25 Ultrasonic / CT attention area information 26 CT volume coordinate conversion calculation unit 27 Real-time 2D-CT Image calculation unit 28 Ultrasonic image acquisition unit 29 Ultrasonic probe position information acquisition unit 30 Real-time 2D ultrasonic image acquisition unit 31 Image display unit 32 Alignment judgment unit 100 Ultrasonic image pickup device 101 Transmission / reception switching unit 102 Transmission unit 105 Reception Unit 106 Control unit 107 Image generation unit 108 Image processing device 120 User 121 User interface (UI)
122 Ultrasound image 123 Mask image 124 Learning image 125 Correct mask image 126 Calculation table 127 Display area

Claims (15)

被検体に超音波を送信し、前記被検体からの超音波を受信する超音波探触子と、
前記超音波探触子の受信信号から超音波画像を生成する画像生成部と、
前記超音波画像と、前記被検体についての第2ボリュームデータを処理する画像処理装置と、を備え、
前記画像処理装置は、
前記超音波画像の臓器注目領域を識別抽出する注目領域識別・抽出部と、
抽出した前記臓器注目領域を用いて、前記超音波探触子の走査範囲と部位が、前記超音波画像あるいは前記超音波画像から生成された第1ボリュームデータと、前記第2ボリュームデータとの位置合わせに適切かどうかを判定する位置合わせ判定部と、を含む、
ことを特徴とする超音波撮像装置。
An ultrasonic probe that transmits ultrasonic waves to a subject and receives ultrasonic waves from the subject,
An image generator that generates an ultrasonic image from the received signal of the ultrasonic probe,
An image processing apparatus for processing the ultrasonic image and the second volume data for the subject is provided.
The image processing device is
An area of interest identification / extraction unit that identifies and extracts an organ of interest in the ultrasonic image,
Using the extracted region of interest of the organ, the scanning range and site of the ultrasonic probe are the positions of the ultrasonic image or the first volume data generated from the ultrasonic image and the second volume data. Includes an alignment determination unit that determines whether or not it is appropriate for alignment.
An ultrasonic imaging device characterized by this.
請求項1に記載の超音波撮像装置であって、
前記注目領域識別・抽出部は、
前記臓器注目領域の部位名称と、所属する臓器内の臓器区域情報が付与された領域をピクセル単位で識別抽出する、
ことを特徴とする超音波撮像装置。
The ultrasonic imaging apparatus according to claim 1.
The area of interest identification / extraction unit
The part name of the organ attention area and the area to which the organ area information in the organ to which the organ is assigned are identified and extracted in pixel units.
An ultrasonic imaging device characterized by this.
請求項2に記載の超音波撮像装置であって、
前記注目領域識別・抽出部は、
前記臓器注目領域の注目領域候補を識別抽出する第1学習モデルを学習し、
生成された前記第1学習モデルのパラメータを、前記臓器注目領域の前記臓器区域情報が付与された領域を識別・抽出する第2学習モデルの初期パラメータとして用いて、第2学習モデルを学習する、
ことを特徴とする超音波撮像装置。
The ultrasonic imaging apparatus according to claim 2.
The area of interest identification / extraction unit
A first learning model for identifying and extracting attention region candidates of the organ attention region is learned, and
The second learning model is learned by using the generated parameters of the first learning model as the initial parameters of the second learning model for identifying and extracting the region to which the organ area information of the organ attention region is given.
An ultrasonic imaging device characterized by this.
請求項3に記載の超音波撮像装置であって、
前記注目領域識別・抽出部は、
生成された前記第2学習モデルのパラメータを、前記臓器注目領域の部位名称情報と前記臓器区域情報が付与された領域を識別・抽出する第3学習モデルの初期パラメータとして用いて、第3学習モデルを学習する、
ことを特徴とする超音波撮像装置。
The ultrasonic imaging apparatus according to claim 3.
The area of interest identification / extraction unit
The generated parameter of the second learning model is used as the initial parameter of the third learning model for identifying and extracting the region to which the site name information of the organ attention region and the organ area information are given, and the third learning model. To learn,
An ultrasonic imaging device characterized by this.
請求項1に記載の超音波撮像装置であって、
前記位置合わせ判定部は、
識別抽出された前記超音波画像の前記臓器注目領域各々に対し重み付け加算を行い、第1重み付け体積を算出し、前記第2ボリュームデータの、前記超音波画像の前記臓器注目領域各々に対応する臓器注目領域に対して重み付け加算を行い、第2重み付け体積を算出し、
前記第1重み付け体積と前記第2重み付け体積の比を所定の閾値と比較することにより、前記超音波探触子の走査範囲と部位が、前記第2ボリュームデータとの位置合わせに適切かどうかを判定する、
ことを特徴とする超音波撮像装置。
The ultrasonic imaging apparatus according to claim 1.
The alignment determination unit
Weighting is added to each of the organ-focused regions of the identified and extracted ultrasonic image, the first weighted volume is calculated, and the organ corresponding to each of the organ-focused regions of the ultrasonic image of the second volume data. Weighting is performed on the region of interest, and the second weighted volume is calculated.
By comparing the ratio of the first weighted volume to the second weighted volume with a predetermined threshold value, it can be determined whether the scanning range and the portion of the ultrasonic probe are appropriate for the alignment with the second volume data. judge,
An ultrasonic imaging device characterized by this.
請求項5に記載の超音波撮像装置であって、
前記位置合わせ判定部は、
前記超音波探触子の走査範囲と部位が、前記第2ボリュームデータとの位置合わせに不適切と判定した場合、推奨する前記超音波探触子の追加走査範囲と部位を出力する、
ことを特徴とする超音波撮像装置。
The ultrasonic imaging apparatus according to claim 5.
The alignment determination unit
When it is determined that the scanning range and the portion of the ultrasonic probe are inappropriate for the alignment with the second volume data, the recommended additional scanning range and the portion of the ultrasonic probe are output.
An ultrasonic imaging device characterized by this.
画像処理装置であって、
超音波探触子から被検体に超音波を送信し、その受信信号から生成した超音波画像の臓器注目領域を識別抽出する注目領域識別・抽出部と、
抽出した前記臓器注目領域を用いて、前記超音波探触子の走査範囲と部位が、前記超音波画像あるいは前記超音波画像から生成された第1ボリュームデータと、前記被検体についての第2ボリュームデータとの位置合わせに適切かどうかを判定する位置合わせ判定部と、を含む、
ことを特徴とする画像処理装置。
It is an image processing device
An attention area identification / extraction unit that transmits ultrasonic waves from an ultrasonic probe to a subject and identifies and extracts an organ attention area of an ultrasonic image generated from the received signal.
Using the extracted region of interest of the organ, the scanning range and site of the ultrasonic probe are the first volume data generated from the ultrasonic image or the ultrasonic image, and the second volume for the subject. Includes an alignment determination unit that determines whether or not it is appropriate for alignment with data.
An image processing device characterized by this.
請求項7に記載の画像処理装置であって、
前記注目領域識別・抽出部は、
前記臓器注目領域の部位名称と、所属する臓器内の臓器区域情報が付与された領域をピクセル単位で識別抽出する、
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 7.
The area of interest identification / extraction unit
The part name of the organ attention area and the area to which the organ area information in the organ to which the organ is assigned are identified and extracted in pixel units.
An image processing device characterized by this.
請求項8に記載の画像処理装置であって、
前記注目領域識別・抽出部は、
前記臓器注目領域の注目領域候補を識別抽出する第1学習モデルを学習し、
生成された前記第1学習モデルのパラメータを、前記臓器注目領域の前記臓器区域情報が付与された領域を識別・抽出する第2学習モデルの初期パラメータとして用いて、第2学習モデルを学習し、
生成された前記第2学習モデルのパラメータを、前記臓器注目領域の部位名称情報と前記臓器区域情報が付与された領域を識別・抽出する第3学習モデルの初期パラメータとして用いて、第3学習モデルを学習する、
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 8.
The area of interest identification / extraction unit
A first learning model for identifying and extracting attention region candidates of the organ attention region is learned, and
The second learning model is trained by using the generated parameters of the first learning model as the initial parameters of the second learning model for identifying and extracting the region to which the organ area information of the organ attention region is given.
The generated parameter of the second learning model is used as the initial parameter of the third learning model for identifying and extracting the region to which the site name information of the organ attention region and the organ area information are given, and the third learning model. To learn,
An image processing device characterized by this.
請求項7に記載の画像処理装置であって、
前記位置合わせ判定部は、
識別抽出された前記超音波画像の前記臓器注目領域各々に対し重み付け加算を行い、第1重み付け体積を算出し、前記第2ボリュームデータの、前記超音波画像の前記臓器注目領域各々に対応する臓器注目領域に対して重み付け加算を行い、第2重み付け体積を算出し、
前記第1重み付け体積と前記第2重み付け体積の比を所定の閾値と比較することにより、前記超音波探触子の走査範囲と部位が、前記第2ボリュームデータとの位置合わせに適切かどうかを判定する、
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 7.
The alignment determination unit
Weighting is added to each of the organ-focused regions of the identified and extracted ultrasonic image, the first weighted volume is calculated, and the organ corresponding to each of the organ-focused regions of the ultrasonic image of the second volume data. Weighting is performed on the region of interest, and the second weighted volume is calculated.
By comparing the ratio of the first weighted volume to the second weighted volume with a predetermined threshold value, it can be determined whether the scanning range and the portion of the ultrasonic probe are appropriate for the alignment with the second volume data. judge,
An image processing device characterized by this.
請求項10に記載の画像処理装置であって、
前記位置合わせ判定部は、
前記超音波探触子の走査範囲と部位が、前記第2ボリュームデータとの位置合わせに不適切と判定した場合、推奨する前記超音波探触子の追加走査範囲と部位を出力する、
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 10.
The alignment determination unit
When it is determined that the scanning range and the portion of the ultrasonic probe are inappropriate for the alignment with the second volume data, the recommended additional scanning range and the portion of the ultrasonic probe are output.
An image processing device characterized by this.
画像処理装置における画像処理方法であって、
前記画像処理装置は、
超音波探触子から被検体に超音波を送信し、その受信信号から生成した超音波画像の臓器注目領域を識別抽出し、
抽出した前記臓器注目領域を用いて、前記超音波探触子の走査範囲と部位が、前記超音波画像あるいは前記超音波画像から生成された第1ボリュームデータと、前記被検体についての第2ボリュームデータとの位置合わせに適切かどうかを判定する、
ことを特徴とする画像処理方法。
This is an image processing method in an image processing device.
The image processing device is
Ultrasound is transmitted from the ultrasonic probe to the subject, and the organ-focused area of the ultrasonic image generated from the received signal is identified and extracted.
Using the extracted region of interest of the organ, the scanning range and site of the ultrasonic probe are the first volume data generated from the ultrasonic image or the ultrasonic image, and the second volume for the subject. Determine if it is appropriate for alignment with the data,
An image processing method characterized by that.
請求項12に記載の画像処理方法であって、
前記画像処理装置は、
前記臓器注目領域の部位名称と、所属する臓器内の臓器区域情報が付与された領域をピクセル単位で識別抽出する、
ことを特徴とする画像処理方法。
The image processing method according to claim 12.
The image processing device is
The part name of the organ attention area and the area to which the organ area information in the organ to which the organ is assigned are identified and extracted in pixel units.
An image processing method characterized by that.
請求項13に記載の画像処理方法であって、
前記画像処理装置は、
前記臓器注目領域の注目領域候補を識別抽出する第1学習モデルを学習し、
生成された前記第1学習モデルのパラメータを、前記臓器注目領域の前記臓器区域情報が付与された領域を識別・抽出する第2学習モデルの初期パラメータとして用いて、第2学習モデルを学習し、
生成された前記第2学習モデルのパラメータを、前記臓器注目領域の部位名称情報と前記臓器区域情報が付与された領域を識別・抽出する第3学習モデルの初期パラメータとして用いて、第3学習モデルを学習する、
ことを特徴とする画像処理方法。
The image processing method according to claim 13.
The image processing device is
A first learning model for identifying and extracting attention region candidates of the organ attention region is learned, and
The second learning model is trained by using the generated parameters of the first learning model as the initial parameters of the second learning model for identifying and extracting the region to which the organ area information of the organ attention region is given.
The generated parameter of the second learning model is used as the initial parameter of the third learning model for identifying and extracting the region to which the site name information of the organ attention region and the organ area information are given, and the third learning model. To learn,
An image processing method characterized by that.
請求項12に記載の画像処理方法であって、
前記画像処理装置は、
識別抽出された前記超音波画像の前記臓器注目領域各々に対し重み付け加算を行い、第1重み付け体積を算出し、前記第2ボリュームデータの、前記超音波画像の前記臓器注目領域各々に対応する臓器注目領域に対して重み付け加算を行い、第2重み付け体積を算出し、
前記第1重み付け体積と前記第2重み付け体積の比を所定の閾値と比較することにより、前記超音波探触子の走査範囲と部位が、前記第2ボリュームデータとの位置合わせに適切かどうかを判定する、
ことを特徴とする画像処理方法。
The image processing method according to claim 12.
The image processing device is
Weighting is added to each of the organ-focused regions of the identified and extracted ultrasonic image, the first weighted volume is calculated, and the organ corresponding to each of the organ-focused regions of the ultrasonic image of the second volume data. Weighting is performed on the region of interest, and the second weighted volume is calculated.
By comparing the ratio of the first weighted volume to the second weighted volume with a predetermined threshold value, it can be determined whether the scanning range and the portion of the ultrasonic probe are appropriate for the alignment with the second volume data. judge,
An image processing method characterized by that.
JP2017251107A 2017-12-27 2017-12-27 Ultrasound imaging equipment, image processing equipment, and methods Active JP6887942B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017251107A JP6887942B2 (en) 2017-12-27 2017-12-27 Ultrasound imaging equipment, image processing equipment, and methods
PCT/JP2018/028698 WO2019130636A1 (en) 2017-12-27 2018-07-31 Ultrasound imaging device, image processing device, and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017251107A JP6887942B2 (en) 2017-12-27 2017-12-27 Ultrasound imaging equipment, image processing equipment, and methods

Publications (2)

Publication Number Publication Date
JP2019115487A JP2019115487A (en) 2019-07-18
JP6887942B2 true JP6887942B2 (en) 2021-06-16

Family

ID=67063449

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017251107A Active JP6887942B2 (en) 2017-12-27 2017-12-27 Ultrasound imaging equipment, image processing equipment, and methods

Country Status (2)

Country Link
JP (1) JP6887942B2 (en)
WO (1) WO2019130636A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6991519B2 (en) * 2020-04-08 2022-01-12 Arithmer株式会社 Vehicle damage estimation device, its estimation program and its estimation method
JP2021178175A (en) * 2020-05-13 2021-11-18 キヤノンメディカルシステムズ株式会社 Ultrasonic diagnostic device, medical image processing device, medical image processing method, and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6073369B2 (en) * 2011-12-27 2017-02-01 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Intraoperative quality monitoring of tracking systems
EP2979642A4 (en) * 2013-03-29 2016-11-30 Hitachi Ltd Image alignment display method and ultrasonic diagnostic device
WO2017038300A1 (en) * 2015-09-02 2017-03-09 株式会社日立製作所 Ultrasonic imaging device, and image processing device and method

Also Published As

Publication number Publication date
WO2019130636A1 (en) 2019-07-04
JP2019115487A (en) 2019-07-18

Similar Documents

Publication Publication Date Title
US11986355B2 (en) 3D ultrasound imaging system
US10242450B2 (en) Coupled segmentation in 3D conventional ultrasound and contrast-enhanced ultrasound images
RU2663649C2 (en) Segmentation of large objects from multiple three-dimensional views
KR101121396B1 (en) System and method for providing 2-dimensional ct image corresponding to 2-dimensional ultrasound image
JP6490820B2 (en) Ultrasonic imaging apparatus, image processing apparatus, and method
JP4677199B2 (en) Ultrasonic diagnostic equipment
JP6383483B2 (en) Ultrasonic imaging apparatus and image processing apparatus
US11712224B2 (en) Method and systems for context awareness enabled ultrasound scanning
CN107106128B (en) Ultrasound imaging apparatus and method for segmenting an anatomical target
CN108697410B (en) Ultrasonic imaging apparatus, image processing apparatus, and method thereof
JP6887942B2 (en) Ultrasound imaging equipment, image processing equipment, and methods
CN113662579A (en) Ultrasonic diagnostic apparatus, medical image processing apparatus and method, and storage medium
JP7299100B2 (en) ULTRASOUND DIAGNOSTIC DEVICE AND ULTRASOUND IMAGE PROCESSING METHOD
WO2021230230A1 (en) Ultrasonic diagnosis device, medical image processing device, and medical image processing method
JP2019051060A (en) Image processing apparatus
CN115886876A (en) Fetal posture evaluation method, ultrasonic imaging method and ultrasonic imaging system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210420

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210519

R150 Certificate of patent or registration of utility model

Ref document number: 6887942

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250