JP6887942B2 - Ultrasound imaging equipment, image processing equipment, and methods - Google Patents
Ultrasound imaging equipment, image processing equipment, and methods Download PDFInfo
- Publication number
- JP6887942B2 JP6887942B2 JP2017251107A JP2017251107A JP6887942B2 JP 6887942 B2 JP6887942 B2 JP 6887942B2 JP 2017251107 A JP2017251107 A JP 2017251107A JP 2017251107 A JP2017251107 A JP 2017251107A JP 6887942 B2 JP6887942 B2 JP 6887942B2
- Authority
- JP
- Japan
- Prior art keywords
- organ
- ultrasonic
- image
- image processing
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 83
- 238000000034 method Methods 0.000 title description 39
- 238000012285 ultrasound imaging Methods 0.000 title 1
- 210000000056 organ Anatomy 0.000 claims description 100
- 239000000523 sample Substances 0.000 claims description 77
- 238000003384 imaging method Methods 0.000 claims description 42
- 238000000605 extraction Methods 0.000 claims description 37
- 238000003672 processing method Methods 0.000 claims description 12
- 239000000284 extract Substances 0.000 claims description 11
- 238000002604 ultrasonography Methods 0.000 claims description 8
- 238000002591 computed tomography Methods 0.000 description 65
- 238000004364 calculation method Methods 0.000 description 22
- 238000010586 diagram Methods 0.000 description 13
- 238000006243 chemical reaction Methods 0.000 description 10
- 230000005540 biological transmission Effects 0.000 description 9
- 230000009466 transformation Effects 0.000 description 8
- 210000004204 blood vessel Anatomy 0.000 description 7
- 238000001514 detection method Methods 0.000 description 7
- 239000011159 matrix material Substances 0.000 description 5
- 238000012549 training Methods 0.000 description 5
- 210000003484 anatomy Anatomy 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 210000004185 liver Anatomy 0.000 description 4
- 238000005070 sampling Methods 0.000 description 4
- 206010028980 Neoplasm Diseases 0.000 description 2
- 210000000232 gallbladder Anatomy 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 210000003240 portal vein Anatomy 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 101100328887 Caenorhabditis elegans col-34 gene Proteins 0.000 description 1
- 210000000746 body region Anatomy 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 201000007270 liver cancer Diseases 0.000 description 1
- 208000014018 liver neoplasm Diseases 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000007669 thermal treatment Methods 0.000 description 1
- 210000003462 vein Anatomy 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/13—Tomography
- A61B8/14—Echo-tomography
Landscapes
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Pathology (AREA)
- Radiology & Medical Imaging (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
Description
本発明は、超音波撮像装置に係り、特に、撮像した超音波画像と他の撮像装置で撮像された同じ断面の画像で、被検体内の特徴部位を同時に表示する撮像技術に関する。 The present invention relates to an ultrasonic imaging device, and more particularly to an imaging technique for simultaneously displaying a featured portion in a subject with an image of the same cross section captured by an captured ultrasonic image and another imaging device.
超音波撮像装置は、超音波を被検体に照射し、その反射信号により被検体内部の構造を画像化するため、無侵襲かつリアルタイムに患者を観察することが可能である。一方、X線CT(Computed Tomography)装置あるいはMRI(Magnetic Resonance Imaging)装置などの他の医用画像撮像装置は、広範囲かつ高分解能で撮像することができるため、細かな病変や臓器の位置関係の把握が容易に行える。例えば肝臓癌などの腫瘍を、早期の段階でMRI画像やX線CT画像から見つけ出すことができる。 Since the ultrasonic imaging device irradiates the subject with ultrasonic waves and images the internal structure of the subject by the reflected signal, it is possible to observe the patient in real time without invasiveness. On the other hand, other medical image imaging devices such as an X-ray CT (Computed Tomography) device or an MRI (Magnetic Resolution Imaging) device can image a wide range and with high resolution, so that the positional relationship of detailed lesions and organs can be grasped. Can be easily done. For example, tumors such as liver cancer can be found from MRI images and X-ray CT images at an early stage.
また、超音波探触子に位置センサを貼り付けてスキャン面の位置関係を算出し、医用画像診断装置で撮像した3次元診断用ボリュームデータから、超音波スキャン面の画像と対応する2次元(2D)画像を構築し、表示する画像診断システムも普及し始めている。 In addition, a position sensor is attached to the ultrasonic probe to calculate the positional relationship of the scan surface, and from the three-dimensional diagnostic volume data captured by the medical image diagnostic device, the two-dimensional image corresponding to the image of the ultrasonic scan surface ( 2D) Diagnostic imaging systems that build and display images are also beginning to spread.
特許文献1には、血管情報を用いて、超音波3次元画像(ボリューム)とMRI3次元画像との位置合わせを行い、超音波スキャン面の画像と対応するMRI断面画像を構築する方法が記載されている。この技術では、超音波画像及びMRI画像を取得し、血管分岐の分岐点の周辺に複数の画像領域を設定し、画像領域ごとに画像の特徴を表す指標を算出し、比較対象となる組み合わせを変えながら分岐点類似度の算出を繰り返すことで同一の血管分岐であるとの判定を行い、位置合わせ用の幾何変換行列を推定する。その位置合わせの結果を用いて、MRI画像を超音波画像に合わせて、対応した断面画像を生成して表示する。
近年、被検体の手術中に腫瘍等の手術(熱的治療、あるいは外科的切除など)すべき領域を、術中超音波画像と、それに対応する高解像度のMRI画像やCT画像とで確認すること、すなわち、術中超音波画像と高解像度モダリティ画像との位置合わせが望まれている。ただし、術中超音波と他のモダリティ画像の撮影方向が大きく異なるため、位置合わせの初期値推定が困難であり、適切な超音波探触子走査が位置合わせの成功に大きく影響する。しかし、位置合わせ用の超音波ボリュームの取得するための超音波探触子走査は、術者手技や患者状況に依存し、走査される範囲や部位は術者/患者によってばらつきが大きい。取得される術中超音波ボリュームが位置合わせに不適切な場合、位置合わせが失敗となり、超音波ボリュームを再撮影、位置合わせを再実行することとなるため、術者にとって手間がかかり、患者への負担も大きくなる。そこで、取得された超音波ボリューム、もしくは超音波探触子の走査が、位置合わせに適切かどうかを事前に判定し、超音波探触子走査を正確にガイドする機能が望ましい。 In recent years, it is necessary to confirm the area to be operated on (thermal treatment, surgical excision, etc.) such as a tumor during the operation of the subject by the intraoperative ultrasonic image and the corresponding high-resolution MRI image or CT image. That is, it is desired to align the intraoperative ultrasonic image with the high-resolution modality image. However, since the imaging directions of intraoperative ultrasound and other modality images are significantly different, it is difficult to estimate the initial value of alignment, and appropriate ultrasound probe scanning greatly affects the success of alignment. However, the ultrasonic probe scanning for acquiring the ultrasonic volume for alignment depends on the operator's technique and the patient's condition, and the range and site to be scanned vary greatly depending on the operator / patient. If the acquired intraoperative ultrasound volume is inappropriate for alignment, the alignment will fail, and the ultrasound volume will be re-photographed and the alignment will be re-executed. The burden also increases. Therefore, it is desirable to have a function of determining in advance whether the acquired ultrasonic volume or scanning of the ultrasonic probe is appropriate for alignment and accurately guiding the scanning of the ultrasonic probe.
しかしながら、特許文献1の技術では、取得された超音波ボリュームとMRIボリュームから、対応する血管分岐点を総当たりで探索するため、超音波探触子の走査領域や走査部位の識別ができない。また、血管が豊富に存在しない部位や血管が明瞭に撮像できない場合には、血管分岐の抽出、そして位置合わせが困難である。
However, in the technique of
本発明の目的は、超音波探触子の走査が、位置合わせに適切かどうかを判定し、超音波探触子走査を正確にガイドすることが可能な超音波撮像装置、画像処理装置、及び方法を提供することにある。 An object of the present invention is an ultrasonic image pickup device, an image processing device, and an image processing device capable of determining whether or not the scanning of the ultrasonic probe is appropriate for alignment and accurately guiding the scanning of the ultrasonic probe. To provide a method.
上記の目的を達成するため、本発明においては、被検体に超音波を送信し、被検体からの超音波を受信する超音波探触子と、超音波探触子の受信信号から超音波画像を生成する画像生成部と、超音波画像と、被検体についての第2ボリュームデータを処理する画像処理装置と、を備え、画像処理装置は、超音波画像の臓器注目領域を識別抽出する注目領域識別・抽出部と、抽出した臓器注目領域を用いて、超音波探触子の走査範囲と部位が、超音波画像あるいは超音波画像から生成された第1ボリュームデータと、第2ボリュームデータとの位置合わせに適切かどうかを判定する位置合わせ判定部とを含む超音波撮像装置を提供する。 In order to achieve the above object, in the present invention, an ultrasonic probe that transmits ultrasonic waves to a subject and receives ultrasonic waves from the subject, and an ultrasonic image from the received signal of the ultrasonic probe. An image generation unit for generating an ultrasonic image, an ultrasonic image, and an image processing device for processing a second volume data about a subject, and the image processing device identifies and extracts an organ attention area of an ultrasonic image. Using the identification / extraction unit and the extracted organ attention area, the scanning range and site of the ultrasonic probe are the first volume data generated from the ultrasonic image or the ultrasonic image, and the second volume data. Provided is an ultrasonic imaging apparatus including an alignment determination unit for determining whether or not it is appropriate for alignment.
また、上記の目的を達成するため、本発明においては、画像処理装置であって、超音波探触子から被検体に超音波を送信し、その受信信号から生成した超音波画像の臓器注目領域を識別抽出する注目領域識別・抽出部と、抽出した臓器注目領域を用いて、超音波探触子の走査範囲と部位が、超音波画像あるいは超音波画像から生成された第1ボリュームデータと、被検体についての第2ボリュームデータとの位置合わせに適切かどうかを判定する位置合わせ判定部とを含む画像処理装置を提供する。 Further, in order to achieve the above object, in the present invention, in the image processing apparatus, an ultrasonic probe transmits ultrasonic waves to a subject, and an organ attention region of an ultrasonic image generated from the received signal is used. Using the region of interest identification / extraction unit that identifies and extracts the region of interest and the region of interest of the extracted organ, the scanning range and site of the ultrasonic probe are the first volume data generated from the ultrasonic image or the ultrasonic image, and Provided is an image processing apparatus including an alignment determination unit for determining whether or not it is appropriate for alignment with a second volume data of a subject.
さらに、上記の目的を達成するため、本発明においては、画像処理装置における画像処理方法であって、画像処理装置は、超音波探触子から被検体に超音波を送信し、その受信信号から生成した超音波画像の臓器注目領域を識別抽出し、抽出した臓器注目領域を用いて、超音波探触子の走査範囲と部位が、超音波画像あるいは超音波画像から生成された第1ボリュームデータと、被検体についての第2ボリュームデータとの位置合わせに適切かどうかを判定する画像処理方法を提供する。 Further, in order to achieve the above object, in the present invention, it is an image processing method in an image processing device, in which the image processing device transmits ultrasonic waves from an ultrasonic probe to a subject and uses the received signal. The organ attention area of the generated ultrasonic image is identified and extracted, and using the extracted organ attention area, the scanning range and site of the ultrasonic probe are the first volume data generated from the ultrasonic image or the ultrasonic image. And an image processing method for determining whether or not it is appropriate for alignment with the second volume data of the subject.
本発明によれば、超音波探触子の走査範囲と部位を識別抽出でき、位置合わせ対象となる臓器注目領域の位置や場所を特定できるため、超音波探触子の走査が、他の画像撮像装置のボリュームデータとの位置合わせに適切かどうかを判定できる。 According to the present invention, the scanning range and site of the ultrasonic probe can be identified and extracted, and the position and location of the region of interest of the organ to be aligned can be specified. Therefore, the scanning of the ultrasonic probe can be performed on other images. It is possible to determine whether or not it is appropriate for alignment with the volume data of the image pickup device.
以下、本発明の実施の形態を図面に基づいて詳細に説明する。なお、実施の形態を説明するための全図において、同一部分には原則として同一の符号を付し、その繰り返しの説明は省略する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In addition, in all the drawings for explaining the embodiment, in principle, the same reference numerals are given to the same parts, and the repeated description thereof will be omitted.
実施例1は、被検体に超音波を送信し、被検体からの超音波を受信する超音波探触子と、超音波探触子の受信信号から超音波画像を生成する画像生成部と、超音波画像と、被検体についての第2ボリュームデータを処理する画像処理装置と、を備え、画像処理装置は、超音波画像の臓器注目領域を識別抽出する注目領域識別・抽出部と、抽出した臓器注目領域を用いて、超音波探触子の走査範囲と部位が、超音波画像あるいは超音波画像から生成された第1ボリュームデータと、第2ボリュームデータとの位置合わせに適切かどうかを判定する位置合わせ判定部とを含む超音波撮像装置、その画像処理装置、及びその画像処理方法の実施例である。 In the first embodiment, an ultrasonic probe that transmits ultrasonic waves to a subject and receives ultrasonic waves from the subject, an image generation unit that generates an ultrasonic image from a reception signal of the ultrasonic probe, and an image generation unit. An ultrasonic image and an image processing device for processing a second volume data about a subject are provided, and the image processing device has an attention area identification / extraction unit for identifying and extracting an organ attention area of an ultrasonic image, and an extraction unit. Using the region of interest of the organ, it is determined whether the scanning range and site of the ultrasonic probe are appropriate for the alignment of the first volume data generated from the ultrasonic image or the ultrasonic image and the second volume data. This is an example of an ultrasonic imaging apparatus including an alignment determination unit, an image processing apparatus thereof, and an image processing method thereof.
<構成及び動作>
以下、実施例1の超音波撮像装置の具体的な構成例について詳述する。図1は、実施例1に係る超音波撮像装置の全体構成の一例を示す。本実施例の超音波撮像装置は、超音波探触子7と、画像生成部107と、画像処理装置108とを備え、さらに、送信部102、送受切替部101、受信部105、ユーザインタフェース(UI)121、及び制御部106を備えて構成される。外付けのディスプレイ16は、ユーザインタフェース(UI)121の一部としても良い。
<Configuration and operation>
Hereinafter, a specific configuration example of the ultrasonic imaging device of the first embodiment will be described in detail. FIG. 1 shows an example of the overall configuration of the ultrasonic imaging apparatus according to the first embodiment. The ultrasonic imaging device of this embodiment includes an
送信部102は、制御部106の制御下で、送信信号を生成し、超音波プローブと呼ばれる超音波探触子7を構成する複数の超音波素子ごとに受け渡す。これにより、超音波探触子7の複数の超音波素子は、それぞれ超音波を被検体120に向かって送信する。被検体120で反射等された超音波は、再び超音波探触子7の複数の超音波素子に到達して受信され、電気信号に変換される。超音波素子が受信した信号は、受信部105によって、受信焦点の位置に応じた所定の遅延量で遅延され、整相加算される。これを複数の受信焦点ごとについて繰り返す。整相加算後の信号は、画像生成部107に受け渡される。送受切替部101は、送信部102または受信部105を選択的に超音波探触子7に接続する。
Under the control of the
画像生成部107は、受信部105から受け取った整相加算信号を受信焦点に対応する位置に並べる等の処理を行い、2D超音波画像を生成し、画像処理装置108に出力する。画像処理装置108は、受け取った超音波画像を用いて3次元超音波画像の第1ボリュームデータを生成する。
The
画像処理装置108は、これら2D超音波画像と第1ボリュームデータに加え、他の画像撮像装置が被検体120について得た第2ボリュームデータをユーザインタフェース(UI)121を介して受け取って、超音波画像の臓器注目領域をピクセル単位で識別抽出し、超音波探触子の走査領域と部位を識別し、位置合わせに適切かどうかを判定する。言い換えると、画像処理装置108は、超音波探触子から被検体に超音波を送信し、その受信信号から生成した超音波画像の臓器注目領域を識別抽出する注目領域識別・抽出部と、抽出した臓器注目領域を用いて、超音波探触子の走査範囲と部位が、超音波画像あるいは超音波画像から生成された第1ボリュームデータと、第2ボリュームデータとの位置合わせに適切かどうかを判定する位置合わせ判定部と、を含む構成を有する。
In addition to these 2D ultrasonic images and the first volume data, the
以下の説明において、MRI装置やX線CT装置や他の超音波診断装置等の他の画像撮像装置を、医用モダリティと呼ぶ。本実施例では、医用モダリティの一例として、X線CT装置を用い、X線CT装置のボリュームデータを、上記の第2ボリュームデータとしてのCTボリュームデータと呼ぶ。 In the following description, other image imaging devices such as MRI devices, X-ray CT devices, and other ultrasonic diagnostic devices will be referred to as medical modality. In this embodiment, an X-ray CT apparatus is used as an example of the medical modality, and the volume data of the X-ray CT apparatus is referred to as CT volume data as the second volume data described above.
以下、図2〜図6を用いて、画像処理装置108とユーザインタフェース(UI)121の構成と動作について詳しく説明する。図2は、画像処理装置108とユーザインタフェース121のハードウェア構成の一例を示している。図2に示すハードウェア構成例は、後述する他の実施例においても、共通に用いられる。
Hereinafter, the configuration and operation of the
画像処理装置108は、CPU(プロセッサ)1、ROM(不揮発性メモリ:読出専用の記憶媒体)2、RAM(揮発性メモリ:データの読み書きが可能な記憶媒体)3、記憶装置4および表示制御部15を備えて構成される。ユーザインタフェース(UI)121は、画像入力部9、媒体入力部11、入力制御部13および入力装置14を備えて構成される。これらと画像生成部107は、バス5によって相互に接続されている。また、画像処理装置108の表示制御部15には、ディスプレイ16が接続されている。このディスプレイ16は、ユーザインタフェースの出力部と考えることができる。
The
ROM2およびRAM3の少なくとも一方には、CPU1の演算処理で画像処理装置108の動作を実現するために必要とされるプログラムとデータが予め格納されている。CPU1が、このROM2およびRAM3の少なくとも一方に予め格納されたプログラムを実行することによって、後で詳述する画像処理装置108の各種処理が実現される。なお、CPU1が実行するプログラムは、例えば、光ディスクなどの記憶媒体12に格納しておき、光ディスクドライブなどの媒体入力部11がそのプログラムを読み込んでRAM3に格納する様にしてもよい。また、記憶装置4に当該プログラムを格納しておき、記憶装置4からそのプログラムをRAM3にロードしてもよい。また、ROM2にあらかじめ当該プログラムを記憶させておいてもよい。
At least one of the
画像入力部9は、X線CT装置などの医用モダリティである画像撮像装置10が撮影したCTボリュームデータを取り込むためのインターフェースである。記憶装置4は、画像入力部9を介して入力されたCTボリュームデータ等を格納する磁気記憶装置である。記憶装置4は、例えば、フラッシュメモリなどの不揮発性半導体記憶媒体を備えてもよい。また、ネットワークなどを介して接続された外部記憶装置を利用してもよい。
The image input unit 9 is an interface for capturing CT volume data captured by an
入力装置14は、ユーザの操作を受け付ける装置であり、例えば、キーボード、トラックボール、操作パネル、フットスイッチなどを含む。入力制御部13は、ユーザによって入力された操作入力を受け付けるインターフェースである。入力制御部13が受けた操作入力は、CPU1によって処理される。表示制御部15は、例えば、CPU1の処理で得られた画像データをディスプレイ16に表示させる制御を行う。ディスプレイ16は、表示制御部15の制御下で画像を表示する。
The
図3は、本実施例の画像処理装置108の機能を示すブロック図である。図3のように、画像処理装置108は、送信部102、受信部105および画像生成部107で構成される超音波画像取得部28で取得された超音波走査画像である2D超音波画像を用いて、第1のボリュームデータを生成す超音波ボリュームデータ生成部23と、超音波画像の注目領域識別・抽出部21と、第2のボリュームデータとしてのCTボリュームデータ受け付け部22と、CTボリュームの注目領域識別・抽出部24と、超音波・CT注目領域情報25と、位置合わせ判定部32と、画像表示部31とを含む。
FIG. 3 is a block diagram showing the functions of the
つぎに、図4に示すフローチャートを用いて、図3に示した画像処理装置108の各機能ブロックの動作処理を説明する。まず、ステップS201において、CTボリュームデータ受付部22は、画像入力部9を介して、画像撮像装置10からCTボリュームデータを受け付ける。
Next, the operation processing of each functional block of the
ステップS202において、超音波探触子7を当てて、移動やスキャンを行うように促す表示をディスプレイ16に表示する。ユーザが表示に従い超音波探触子7をその臓器の区域で移動させると、超音波画像取得部28により、超音波走査画像である2D超音波画像が生成、取得される。超音波ボリュームデータ生成部23は、超音波画像取得部28の画像生成部107から連続的に生成された2D超音波画像を受け付ける。
In step S202, the
ステップS203において、超音波画像の注目領域識別・抽出部21は、連続的に生成された2D超音波画像から、所定の臓器注目領域をピクセル単位で識別抽出し、超音波探触子7の走査部位と位置を識別・推定する。結果として、その走査部位と位置の情報を付与した臓器注目領域のマスクを生成する。
In step S203, the attention area identification /
ステップS204において、超音波ボリュームデータ生成部23は、連続的に生成された2D超音波画像に基づいて、第1ボリュームデータとしての超音波ボリュームデータを生成する。
In step S204, the ultrasonic volume
ステップS205において、CTボリュームの注目領域識別・抽出部24は、CTボリュームデータから、所定の臓器注目領域をピクセル単位で識別抽出し、結果として、各領域の走査部位と位置の情報が付与された臓器注目領域のマスクを生成する。そのCTボリュームの注目領域情報と、超音波画像の注目領域識別・抽出部21から生成された超音波画像の注目領域情報が、超音波・CT注目領域情報25として、位置合わせ判定部32に出力される。
In step S205, the attention area identification /
ステップS206において、得られた超音波画像が位置合わせに適切かどうかを判定する。まず、位置合わせ判定部32は、CTボリュームの注目領域情報から、所定の各臓器注目領域の体積を算出する。さらに、位置合わせ判定部32は、超音波画像の注目領域情報から、超音波探触子走査範囲内での各臓器注目領域の体積を算出する。位置合わせ判定部32は、超音波探触子走査とCTボリュームの対応領域の体積の比例の重み付け加算平均を算出し、予め設定した所定の閾値と比較し、超音波走査が位置合わせに適切かどうかを判定する。不適切と判定された場合、さらなる閾値処理により、追加走査をするかどうかを判定する。
In step S206, it is determined whether the obtained ultrasonic image is suitable for alignment. First, the
ステップS207において、追加走査をすると判定された場合、超音波探触子7の走査方向や走査部位を、ディスプレイ16などの画像表示部31を用いてユーザに提示する。具体的な表示例は後で説明する。
When it is determined in step S207 that additional scanning is to be performed, the scanning direction and scanning portion of the
ステップS208において、追加走査しないと判定された場合、超音波探触子7の走査が、位置合わせに不適切であるとの結果を判定結果として画像表示部31に表示する。また、ステップS208において、位置合わせに適切と判定された場合、その判定結果と、超音波画像の注目領域情報を、画像表示部31を用いてユーザに表示する。
When it is determined in step S208 that additional scanning is not performed, the result that the scanning of the
引続き、注目領域の識別抽出する処理と位置合わせ判定処理について詳しく述べる。図5に示すフローチャートを用いて、図3の超音波画像の注目領域識別・抽出部21の動作処理を説明する。CTボリュームの注目領域識別・抽出部24も類似する処理を実行するため、説明は省略する。
Subsequently, the process of identifying and extracting the region of interest and the process of determining the alignment will be described in detail. The operation processing of the region of interest identification /
注目領域識別・抽出部21は、臓器注目領域の注目領域候補を識別抽出する第1学習モデルの学習を行い、生成された第1学習モデルのパラメータを、臓器注目領域の解剖学的区域情報、すなわち、臓器内の解剖学的位置を示す臓器区域情報が付与された領域を識別・抽出する第2学習モデルの初期パラメータとして用いて、第2学習モデルの学習を行う。更に、注目領域識別・抽出部21は、生成された第2学習モデルのパラメータを、臓器注目領域の部位名称情報と臓器区域情報が付与された領域を識別・抽出する第3学習モデルの初期パラメータとして用いて、第3学習モデルの学習を行い、その結果を最終学習モデルとして生成する。
The attention area identification /
ステップS301において、超音波画像の注目領域識別・抽出部21は、画像生成部107から超音波走査画像である2D超音波画像を受け付ける。ステップS302において、ノイズ除去やコントラスト強調などの画像前処理を行う。ステップS303において、識別・抽出用の学習モデルを読み込む。ステップS304において、学習モデルに基づいて部位とその位置の情報を含めた臓器注目領域を識別抽出する。ステップS305において、識別抽出した臓器注目領域のマスク画像を生成する。
In step S301, the region of interest identification /
ここで、公知であるFCN法(Fully Convolutional Network)あるいはその改良版のU−Net法を用いる。FCN法は、深層学習(Deep Learning)のCNN法(Convolution Nueral Network)の全結合層をConvolution層に置き換えることで画像をピクセル単位で推定する(Semantic Segmentationする)手法である。 Here, a known FCN method (Full Convolutional Network) or an improved version thereof, the U-Net method, is used. The FCN method is a method of estimating an image in pixel units (Semantic Segmentation) by replacing the fully connected layer of the CNN method (Convolution Natural Network) of deep learning with a Convolution layer.
識別抽出の対象(クラス)として、臓器注目領域だけではなく、その領域が所属する臓器の解剖学的区域情報である臓器区域情報も含まれる。図6は、肝臓を例として、その超音波走査画像である2D超音波画像と、臓器注目領域の部位名称と、臓器区域情報としての所定の注目領域(識別抽出対象)を表示する画像例を示している。図6の(A)は、肝臓の2D超音波画像122を示す図である。図6の(B)は、学習時に用いる教師ラベル付けのマスク画像123、すなわち学習の正解データを示す図である。図6の(B)では、識別抽出対象として、4種類の臓器注目領域の部位名称と臓器区域情報として、静脈領域-右葉前上区域、静脈領域-右葉前下区域、門脈領域-右葉前上区域、胆嚢領域-右葉前下区域が示されている。ただし、このような細分化される識別抽出対象に対応できるCNNネットワークを学習させるのに、大量の教師ラベル付けの超音波画像データが必要になり、学習データ不足や学習効率、識別抽出精度などの課題がある。この課題を解決するため、本実施例の画像処理装置108の注目領域識別・抽出部21、24では、3段階の学習処理を実行する。
The target (class) of the identification extraction includes not only the organ area of interest but also the organ area information which is the anatomical area information of the organ to which the area belongs. FIG. 6 shows an example of an image displaying a 2D ultrasonic image which is an ultrasonic scanning image of the liver, a site name of an organ attention region, and a predetermined region of interest (identification extraction target) as organ area information. Shown. FIG. 6A is a diagram showing a 2D
本実施例の学習処理を、図7に示すフローチャートと図8〜10に示す画像例を用いて説明する。ここで、注目領域識別・抽出部21の超音波画像を例として説明するが、同じ処理がCT画像にも適用可能である。
The learning process of this embodiment will be described with reference to the flowchart shown in FIG. 7 and the image example shown in FIGS. 8 to 10. Here, the ultrasonic image of the region of interest identification /
ステップS401において、学習用画像を入力する。ステップS402において、予め用意した注目領域候補のマスク画像を入力する。図8の(A)、(B)に、学習用画像とそれに対応する注目領域候補マスク画像の例を示している。ステップS403において、学習用画像と生成した注目領域候補マスク画像を用いて、第1学習モデルの学習を行う。この学習処理では、臓器注目領域の注目領域候補を識別抽出できるような学習モデルを生成することを目的とする。ステップS404において、生成された第1学習モデルのパラメータを第2学習モデルの初期パラメータとして用いる。ステップS405において、予め用意した学習用注目領域の臓器区域情報正解マスク画像を入力する。 In step S401, a learning image is input. In step S402, the mask image of the region of interest candidate prepared in advance is input. 8 (A) and 8 (B) show examples of a learning image and a corresponding region candidate mask image of interest. In step S403, the first learning model is trained using the training image and the generated region candidate mask image of interest. The purpose of this learning process is to generate a learning model that can identify and extract attention region candidates of the organ attention region. In step S404, the generated parameters of the first training model are used as the initial parameters of the second training model. In step S405, the organ area information correct answer mask image of the region of interest for learning prepared in advance is input.
図9の(A)、(B)には、学習用画像124とそれに対応する臓器区域情報正解マスク画像125の一例を示している。ここでは、臓器の解剖学的区域情報である臓器区域情報の例として、肝臓の右葉前下区域と右葉前上区域を示している。ステップS406において、学習用画像と臓器区域情報正解マスク画像を用いて、初期化された第2学習モデルをさらに学習させる。この学習処理の目的は、臓器注目領域の臓器区域情報が付与された領域を識別抽出することである。
9 (A) and 9 (B) show an example of the
更に、ステップS407において、生成された第2学習モデルのパラメータを第3学習モデルの初期パラメータとして用いる。すなわち、第2学習モデルのパラメータを、臓器注目領域の部位名称情報と臓器区域情報が付与された領域を識別・抽出する第3学習モデルの初期パラメータとして用いる。ステップS408において、学習用画像とそれに対応する、予め用意した、部位名称情報と臓器区域情報が付与された臓器注目領域の正解マスク画像を入力する。ステップS409において、ステップS408で入力された画像データを用いて、ステップS407で初期化された第3学習モデルをさらに学習させ、その結果を最終学習モデルとして生成する。図10は、上述した3段階の学習処理を模式的に示した図である。 Further, in step S407, the generated parameters of the second learning model are used as the initial parameters of the third learning model. That is, the parameters of the second learning model are used as the initial parameters of the third learning model for identifying and extracting the region to which the part name information and the organ area information of the organ attention region are given. In step S408, the learning image and the corresponding correct mask image of the organ attention region to which the site name information and the organ area information are added, which are prepared in advance, are input. In step S409, the image data input in step S408 is used to further train the third learning model initialized in step S407, and the result is generated as the final learning model. FIG. 10 is a diagram schematically showing the above-mentioned three-step learning process.
なお以上の説明にあっては、3段階の学習処理を例示して説明したが、3段階に限定されず、必要に応じて2段階、4段階等の3段階以外の段階で学習処理を実行することができる。 In the above explanation, the learning process of three stages has been illustrated as an example, but the learning process is not limited to the three stages, and the learning process is executed at a stage other than the three stages such as two stages and four stages as necessary. can do.
つぎに、図11に示すフローチャートを用いて、本実施例の画像処理装置108の位置合わせ判定部32の位置合わせ判定処理を説明する。ステップS501において、超音波とCTの臓器注目領域の情報を受け付ける。ステップS502において、超音波注目領域情報の臓器区域情報から走査部位を推定する。ステップS503において、超音波注目領域情報から各臓器注目領域の体積を推定する。ステップS504において、CTボリュームの中から、超音波注目領域に対応する各臓器注目領域の体積を推定する。ステップS505において、両者の体積の比などを用いて、超音波探触子7の走査が位置合わせに適切かどうかを判定する。
Next, the alignment determination process of the
上述の臓器注目領域の識別抽出方法であるU−Net法は2D画像に適用可能であり、連続2D超音波画像から臓器注目領域を識別抽出し、その体積を推定することができる。超音波探触子7が超音波ボリュームデータを直接取得することが可能な場合、超音波ボリュームやCTボリュームに対し、U−Net法の3次元拡張版である3D−Net法やV−Net法を用いることが可能である。
The U-Net method, which is the above-mentioned method for identifying and extracting an organ of interest region, is applicable to a 2D image, and can identify and extract an organ of interest region from a continuous 2D ultrasonic image and estimate its volume. When the
ここからは、図12に示す、各臓器注目領域の臓器区域、部位名称、体積重み付けの一例を示す計算テーブル126を用いて、位置合わせに適切かどうかの判定処理を説明する。ここで、臓器の例として肝臓、解剖学的区域の例として右葉、左葉それぞれの4区域、部位名称の例として門脈、静脈、胆嚢、合わせて24の識別抽出対象(クラス)を用いて説明する。各対象領域に対し、解剖学的な体積や位置合わせ対象としての重要度などを考慮し、24の識別抽出対象(クラス)に対して計算テーブル126に一例を示した所定の重み(w)を設定する。他の臓器、人体領域も類似する識別抽出対象の定義や重み付けの設定が可能である。 From here, the determination process of whether or not it is appropriate for alignment will be described using the calculation table 126 showing an example of the organ area, the site name, and the volume weighting of each organ attention region shown in FIG. Here, the liver is used as an example of the organ, the right lobe and the left lobe are used as examples of the anatomical area, and the portal vein, vein, and gallbladder are used as the example of the site name, and a total of 24 identification extraction targets (classes) are used. I will explain. For each target area, considering the anatomical volume and importance as an alignment target, a predetermined weight (w) shown as an example in the calculation table 126 is given to 24 identification extraction targets (classes). Set. It is possible to define similar identification and extraction targets and set weights for other organs and human body regions.
位置合わせ判定部32は、超音波画像とCTボリュームのそれぞれから抽出された各臓器注目領域の体積に対し、それぞれの体積の重みづけ加算値(VUS、VCT)を算出する。ここで、上述した閾値処理の所定の判定閾値として、T1=0.5、T2=0.2を設定できる。
VUS / VCT > T1の場合は、超音波探触子7の走査が位置合わせに適切と判定する。
T1 > VUS / VCT > T2の場合は、超音波探触子7の走査が位置合わせに適切ではないと判定するが、追加走査により適切の走査が可能になると判定し、画像表示部31にてユーザに走査方向や部位を提示する。例えば、図19に一例を示す画像表示部31の表示画面128のように、ユーザに現在の走査範囲と推奨する追加走査範囲をメッセージ129で提示し、さらに表示画面128の左側領域に表示したように、被検体の画像内に超音波探触子の走査位置と推奨走査方向を矢印などで表示して、ユーザを誘導することができる。
VUS / VCT < T2の場合は超音波探触子7の走査が位置合わせに適切ではない、走査をやり直しと判定する。
The alignment determination unit 32 calculates a weighted addition value (V US , V CT ) of each volume with respect to the volume of each organ attention region extracted from each of the ultrasonic image and the CT volume. Here, T 1 = 0.5 and T 2 = 0.2 can be set as predetermined determination threshold values for the above-mentioned threshold processing.
When V US / V CT > T 1 , the scanning of the
In the case of T 1 > V US / V CT > T 2 , it is judged that the scanning of the
If V US / V CT <T 2 , the scanning of the
このように、位置合わせ判定部32は、識別抽出された超音波画像の臓器注目領域各々に対し重み付け加算を行って第1重み付け体積を算出し、第2ボリュームデータの、超音波画像の臓器注目領域各々に対応する臓器注目領域に対して重み付け加算を行って第2重み付け体積を算出し、第1重み付け体積と第2重み付け体積の比を所定の閾値と比較することにより、超音波探触子の走査範囲と部位が、第2ボリュームデータとの位置合わせに適切かどうかを判定することができる。更に、位置合わせ判定部32は、超音波探触子の走査範囲と部位が、第2ボリュームデータとの位置合わせに不適切と判定した場合、推奨する超音波探触子の追加走査範囲と部位にユーザを誘導するためのメッセージなどを画像表示部31に行う。
In this way, the
画像表示部31は、上述した各種の表示に加え、識別抽出された各注目領域のセグメンテーション結果や体積計算数値を表示することができる。また、ユーザインタフェース(UI)121を介して、上述の位置合わせ判定用閾値T1、T2 の調整をすることができる。
In addition to the various displays described above, the
以上説明したように、本実施例の超音波撮像装置、画像処理装置、及び方法によれば、超音波画像の臓器注目領域をピクセル単位で識別抽出し、超音波探触子の走査領域と部位を識別し、位置合わせに適切かどうかを判定することが可能となる。 As described above, according to the ultrasonic imaging apparatus, image processing apparatus, and method of the present embodiment, the organ-focused region of the ultrasonic image is identified and extracted on a pixel-by-pixel basis, and the scanning region and region of the ultrasonic probe are detected. It becomes possible to identify and determine whether or not it is appropriate for alignment.
実施例2は、実施例1の構成に加えて更に、超音波探触子走査が位置合わせに適切と判定された場合、超音波-CT画像の位置合わせを行い、その後、リアルタイムに走査して取得した術中の超音波画像と、それに対応する高解像度のCT画像を同時に表示し、手術を正確にガイドすることができる超音波撮像装置、画像処理装置、及び方法の実施例である。なお、実施例2の説明において、実施例1と同じ構成及び処理については、同じ符号を付して説明を省略する。 In the second embodiment, in addition to the configuration of the first embodiment, when the ultrasonic probe scanning is determined to be appropriate for the alignment, the ultrasonic-CT image is aligned and then scanned in real time. This is an example of an ultrasonic imaging device, an image processing device, and a method capable of simultaneously displaying an acquired intraoperative ultrasonic image and a corresponding high-resolution CT image to accurately guide the operation. In the description of the second embodiment, the same components and processes as those of the first embodiment are designated by the same reference numerals and the description thereof will be omitted.
<構成及び動作>
図13は、実施例2における超音波撮像装置の一構成例を示している。図14は、実施例2における画像処理装置108とユーザインタフェース(UI)121のハードウェア構成例を示すブロック図である。図13、図14から明らかなように、実施例1の構成例に加えて、位置センサ8と、位置検出ユニット6とを備えて構成される。位置検出ユニット6は、位置センサ8の出力から超音波探触子7の位置を検出する。例えば、位置検出ユニット6として、磁気センサユニットを用いることができる。位置検出ユニット6は、磁場空間を形成し、位置センサ8が磁場を検出することにより、基準点となる位置からの座標を検出することができる。
<Configuration and operation>
FIG. 13 shows a configuration example of the ultrasonic imaging device according to the second embodiment. FIG. 14 is a block diagram showing a hardware configuration example of the
画像生成部107は、超音波探触子7のその時の位置情報を位置検出ユニット6から受け取って、生成する超音波画像に位置情報を付与する。ユーザが超音波探触子7を移動させ、画像生成部107がその時の超音波探触子7の位置情報が付与された超音波画像を生成して、画像処理装置108に出力することにより、画像処理装置108は3次元超音波画像の第1ボリュームデータを生成することができる。
The
図15は、本実施例の画像処理装置108の機能例を示すブロック図である。図15のように、画像処理装置108は、実施例1における構成に加えて、超音波探触子位置情報取得部29と、位置合わせを実行するCTボリューム座標変換算出(位置合わせ)部26と、リアルタイム2D−CT画像算出部27と、リアルタイム2D超音波画像取得部30とを含む。
FIG. 15 is a block diagram showing a functional example of the
つぎに、図16に示すフローチャートを用いて、図15に示した実施例2の画像処理装置108の動作処理を説明する。ここでは、実施例1における画像処理装置108の動作処理と異なる部分のみを述べる。ステップS501、S502、S504、S506、S507、S508のそれぞれは、図4に示している、ステップS201、S202、S203、S205、S206、S207の処理と同様である。
Next, the operation processing of the
ステップS503において、位置検出ユニット6は、位置センサ8の出力から、超音波探触子7の位置を検出する。超音波ボリュームデータ生成部23は、その超音波探触子のリアルタイムの位置情報を受け付ける。ステップS505において、超音波ボリュームデータ生成部23は、連続的に生成された2D超音波画像と、それに付与した超音波探触子の位置情報に基づいて、第1ボリュームデータとしての超音波ボリュームデータを生成する。
In step S503, the position detection unit 6 detects the position of the
ステップS509において、CTボリューム座標変換算出(位置合わせ)部26は、超音波・CT注目領域情報25を受け付け、CTボリュームを超音波ボリュームに位置合わせを行うための位置合わせ変換行列を算出する。位置合わせ変換行列算出の詳細は後で述べる。ステップS510において、リアルタイム2D超音波画像取得部30は、超音波画像取得部28からリアルタイムに取得した超音波走査画像である2D超音波画像を受け付ける。ステップS511において、CT断面であるリアルタイム2D-CT画像算出部27は、ステップS505と同様に、2D超音波画像に対応する超音波探触子のリアルタイムの位置情報を受け付ける。
In step S509, the CT volume coordinate conversion calculation (alignment)
次に、ステップS512においては、リアルタイム2D-CT画像算出部27は、超音波探触子7の位置情報と、CTボリュームの座標変換行列とを用いて、リアルタイムに取得した2D超音波画像に対応する2D-CTの断面画像をCTボリュームからリアルタイムに算出する。ステップS513においては、画像表示部31は、2D超音波画像と、2D-CTの断面画像と超音波・CT注目領域情報25を受け付ける。画像表示部31は、2D-CT、2D超音波画像の断面画像(CT、US)のそれぞれを、図17に一例を示すように、画像表示部31の表示領域127の異なる画面領域に表示する。そして、注目領域の部位と区域情報、および超音波走査の推定体積を、それぞれ表示領域127に表示する。
Next, in step S512, the real-time 2D-CT
ここからは、図18に示したフローチャートを用いて、CTボリューム座標変換算出(位置合わせ)部26における、位置合わせ変換行列算出の処理について説明する。ステップS601において、CTボリューム座標変換算出(位置合わせ)部26は、超音波ボリューム(第1ボリューム)とCTボリューム(第2ボリューム)を受け付ける。ステップS602において、超音波・CT注目領域情報25を受け付ける。
From here, the process of calculating the alignment transformation matrix in the CT volume coordinate transformation calculation (alignment)
ステップS603において、CTボリューム座標変換算出(位置合わせ)部26は、超音波・CT注目領域の点群同士の位置合わせを実行する。自動位置合わせ手法としては、公知のICP(Iterative Closest Point)法を用いることができる。ICP法では、CT注目領域の点群を幾何変換、すなわち平行移動と回転を行って、超音波注目領域の点群との対応点間の距離を求めて、その距離が最小となるように反復的に計算を行う。これにより、両者を位置合わせすることができる。
In step S603, the CT volume coordinate conversion calculation (alignment)
つぎに、ステップS604において、CTボリューム座標変換算出(位置合わせ)部26は、超音波ボリュームとCTボリュームの画像ベースの位置合わせを行う。前記注目領域の点群同士の位置合わせ結果を用いて、画像ベースの位置合わせのパラメータを初期化する。CTボリューム座標変換算出(位置合わせ)部26は、超音波ボリュームとCTボリュームのそれぞれから、位置合わせ対象であるサンプル点データを取得する。サンプル点データは、画像領域のすべての画素をサンプリング点として抽出してもよい、ランダムもしくはグリッド上にてサンプリングした画素値を用いてもよい。さらに、対応する注目領域からサンプリングしてもよい。
Next, in step S604, the CT volume coordinate conversion calculation (alignment)
CTボリューム座標変換算出(位置合わせ)部26は、超音波ボリュームから抽出されたサンプリング点の座標を、CTボリュームにおいて対応する点の座標へ、幾何変換し、これらのサンプリング点における輝度データに対して、所定の評価関数を適用して、超音波ボリュームとCTボリュームとの間の画像類似度を演算する。画像類似度としては、公知の相互情報量を使用することができる。CTボリューム座標変換算出(位置合わせ)部26は、超音波ボリュームとCTボリュームの間の画像類似度が最大あるいは極大となるような幾何変換情報を求めて、その幾何変換情報を更新する。最後のステップS605においては、CTボリューム座標変換算出(位置合わせ)部26は、位置合わせの結果を出力する。
The CT volume coordinate transformation calculation (alignment)
以上説明したように、本実施例によれば、超音波画像の臓器注目領域をピクセル単位で識別抽出し、超音波探触子の走査領域と部位を識別し、位置合わせに適切かどうかを判定した後に、超音波ボリュームとCTボリュームの位置合わせを行い、リアルタイムに走査して取得した術中超音波画像と、それに対応する高解像度のCT画像を同時に表示し、手術を正確にガイドすることができる。 As described above, according to the present embodiment, the region of interest of the organ in the ultrasonic image is identified and extracted on a pixel-by-pixel basis, the scanning region and the portion of the ultrasonic probe are identified, and whether or not it is appropriate for alignment is determined. After that, the ultrasound volume and CT volume are aligned, and the intraoperative ultrasound image acquired by scanning in real time and the corresponding high-resolution CT image can be displayed at the same time to accurately guide the operation. ..
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明のより良い理解のために詳細に説明したのであり、必ずしも説明の全ての構成を備えるものに限定されものではない。上述した通り、本発明は、超音波撮像装置と、その画像処理装置、及び方法に限定されるものでなく、ネットワークを介して超音波撮像装置と接続された画像処理装置、及びその画像処理方法として実現することができることは言うまでもない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることが可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 The present invention is not limited to the above-described examples, and includes various modifications. For example, the above-mentioned examples have been described in detail for a better understanding of the present invention, and are not necessarily limited to those having all the configurations of the description. As described above, the present invention is not limited to the ultrasonic imaging apparatus, its image processing apparatus, and the method, but is not limited to the ultrasonic imaging apparatus, the image processing apparatus connected to the ultrasonic imaging apparatus via a network, and the image processing method thereof. Needless to say, it can be realized as. Further, it is possible to replace a part of the configuration of one embodiment with the configuration of another embodiment, and it is possible to add the configuration of another embodiment to the configuration of one embodiment. Further, it is possible to add / delete / replace a part of the configuration of each embodiment with another configuration.
更に、上述した各構成、機能、処理部等は、それらの一部又は全部を実現するプログラムを作成する例を説明したが、それらの一部又は全部を例えば集積回路で設計する等によりハードウェアで実現しても良い。 Further, although each of the above-mentioned configurations, functions, processing units, etc. has described an example of creating a program that realizes a part or all of them, hardware is used by designing a part or all of them, for example, with an integrated circuit. It may be realized by.
1 CPU
2 ROM
3 RAM
4 記憶装置
5 バス
6 位置検出ユニット
7 超音波探触子
8 位置センサ
9 画像入力部
10 画像撮像装置
11 媒体入力部
12 記憶媒体
13 入力制御部
14 入力装置
15 表示制御部
16 ディスプレイ
21 超音波画像の注目領域識別・抽出部
22 CTボリュームデータ受付部
23 超音波ボリュームデータ生成部
24 CTボリュームの注目領域識別・抽出部
25 超音波・CT注目領域情報
26 CTボリューム座標変換算出部
27 リアルタイム2D-CT画像算出部
28 超音波画像取得部
29 超音波探触子位置情報取得部
30 リアルタイム2D超音波画像取得部
31 画像表示部
32 位置合わせ判定部
100 超音波撮像装置
101 送受切替部
102 送信部
105 受信部
106 制御部
107 画像生成部
108 画像処理装置
120 ユーザ
121 ユーザインタフェース(UI)
122 超音波画像
123 マスク画像
124 学習用画像
125 正解マスク画像
126 計算テーブル
127 表示領域
1 CPU
2 ROM
3 RAM
4 Storage device 5 Bus 6
Claims (15)
前記超音波探触子の受信信号から超音波画像を生成する画像生成部と、
前記超音波画像と、前記被検体についての第2ボリュームデータを処理する画像処理装置と、を備え、
前記画像処理装置は、
前記超音波画像の臓器注目領域を識別抽出する注目領域識別・抽出部と、
抽出した前記臓器注目領域を用いて、前記超音波探触子の走査範囲と部位が、前記超音波画像あるいは前記超音波画像から生成された第1ボリュームデータと、前記第2ボリュームデータとの位置合わせに適切かどうかを判定する位置合わせ判定部と、を含む、
ことを特徴とする超音波撮像装置。 An ultrasonic probe that transmits ultrasonic waves to a subject and receives ultrasonic waves from the subject,
An image generator that generates an ultrasonic image from the received signal of the ultrasonic probe,
An image processing apparatus for processing the ultrasonic image and the second volume data for the subject is provided.
The image processing device is
An area of interest identification / extraction unit that identifies and extracts an organ of interest in the ultrasonic image,
Using the extracted region of interest of the organ, the scanning range and site of the ultrasonic probe are the positions of the ultrasonic image or the first volume data generated from the ultrasonic image and the second volume data. Includes an alignment determination unit that determines whether or not it is appropriate for alignment.
An ultrasonic imaging device characterized by this.
前記注目領域識別・抽出部は、
前記臓器注目領域の部位名称と、所属する臓器内の臓器区域情報が付与された領域をピクセル単位で識別抽出する、
ことを特徴とする超音波撮像装置。 The ultrasonic imaging apparatus according to claim 1.
The area of interest identification / extraction unit
The part name of the organ attention area and the area to which the organ area information in the organ to which the organ is assigned are identified and extracted in pixel units.
An ultrasonic imaging device characterized by this.
前記注目領域識別・抽出部は、
前記臓器注目領域の注目領域候補を識別抽出する第1学習モデルを学習し、
生成された前記第1学習モデルのパラメータを、前記臓器注目領域の前記臓器区域情報が付与された領域を識別・抽出する第2学習モデルの初期パラメータとして用いて、第2学習モデルを学習する、
ことを特徴とする超音波撮像装置。 The ultrasonic imaging apparatus according to claim 2.
The area of interest identification / extraction unit
A first learning model for identifying and extracting attention region candidates of the organ attention region is learned, and
The second learning model is learned by using the generated parameters of the first learning model as the initial parameters of the second learning model for identifying and extracting the region to which the organ area information of the organ attention region is given.
An ultrasonic imaging device characterized by this.
前記注目領域識別・抽出部は、
生成された前記第2学習モデルのパラメータを、前記臓器注目領域の部位名称情報と前記臓器区域情報が付与された領域を識別・抽出する第3学習モデルの初期パラメータとして用いて、第3学習モデルを学習する、
ことを特徴とする超音波撮像装置。 The ultrasonic imaging apparatus according to claim 3.
The area of interest identification / extraction unit
The generated parameter of the second learning model is used as the initial parameter of the third learning model for identifying and extracting the region to which the site name information of the organ attention region and the organ area information are given, and the third learning model. To learn,
An ultrasonic imaging device characterized by this.
前記位置合わせ判定部は、
識別抽出された前記超音波画像の前記臓器注目領域各々に対し重み付け加算を行い、第1重み付け体積を算出し、前記第2ボリュームデータの、前記超音波画像の前記臓器注目領域各々に対応する臓器注目領域に対して重み付け加算を行い、第2重み付け体積を算出し、
前記第1重み付け体積と前記第2重み付け体積の比を所定の閾値と比較することにより、前記超音波探触子の走査範囲と部位が、前記第2ボリュームデータとの位置合わせに適切かどうかを判定する、
ことを特徴とする超音波撮像装置。 The ultrasonic imaging apparatus according to claim 1.
The alignment determination unit
Weighting is added to each of the organ-focused regions of the identified and extracted ultrasonic image, the first weighted volume is calculated, and the organ corresponding to each of the organ-focused regions of the ultrasonic image of the second volume data. Weighting is performed on the region of interest, and the second weighted volume is calculated.
By comparing the ratio of the first weighted volume to the second weighted volume with a predetermined threshold value, it can be determined whether the scanning range and the portion of the ultrasonic probe are appropriate for the alignment with the second volume data. judge,
An ultrasonic imaging device characterized by this.
前記位置合わせ判定部は、
前記超音波探触子の走査範囲と部位が、前記第2ボリュームデータとの位置合わせに不適切と判定した場合、推奨する前記超音波探触子の追加走査範囲と部位を出力する、
ことを特徴とする超音波撮像装置。 The ultrasonic imaging apparatus according to claim 5.
The alignment determination unit
When it is determined that the scanning range and the portion of the ultrasonic probe are inappropriate for the alignment with the second volume data, the recommended additional scanning range and the portion of the ultrasonic probe are output.
An ultrasonic imaging device characterized by this.
超音波探触子から被検体に超音波を送信し、その受信信号から生成した超音波画像の臓器注目領域を識別抽出する注目領域識別・抽出部と、
抽出した前記臓器注目領域を用いて、前記超音波探触子の走査範囲と部位が、前記超音波画像あるいは前記超音波画像から生成された第1ボリュームデータと、前記被検体についての第2ボリュームデータとの位置合わせに適切かどうかを判定する位置合わせ判定部と、を含む、
ことを特徴とする画像処理装置。 It is an image processing device
An attention area identification / extraction unit that transmits ultrasonic waves from an ultrasonic probe to a subject and identifies and extracts an organ attention area of an ultrasonic image generated from the received signal.
Using the extracted region of interest of the organ, the scanning range and site of the ultrasonic probe are the first volume data generated from the ultrasonic image or the ultrasonic image, and the second volume for the subject. Includes an alignment determination unit that determines whether or not it is appropriate for alignment with data.
An image processing device characterized by this.
前記注目領域識別・抽出部は、
前記臓器注目領域の部位名称と、所属する臓器内の臓器区域情報が付与された領域をピクセル単位で識別抽出する、
ことを特徴とする画像処理装置。 The image processing apparatus according to claim 7.
The area of interest identification / extraction unit
The part name of the organ attention area and the area to which the organ area information in the organ to which the organ is assigned are identified and extracted in pixel units.
An image processing device characterized by this.
前記注目領域識別・抽出部は、
前記臓器注目領域の注目領域候補を識別抽出する第1学習モデルを学習し、
生成された前記第1学習モデルのパラメータを、前記臓器注目領域の前記臓器区域情報が付与された領域を識別・抽出する第2学習モデルの初期パラメータとして用いて、第2学習モデルを学習し、
生成された前記第2学習モデルのパラメータを、前記臓器注目領域の部位名称情報と前記臓器区域情報が付与された領域を識別・抽出する第3学習モデルの初期パラメータとして用いて、第3学習モデルを学習する、
ことを特徴とする画像処理装置。 The image processing apparatus according to claim 8.
The area of interest identification / extraction unit
A first learning model for identifying and extracting attention region candidates of the organ attention region is learned, and
The second learning model is trained by using the generated parameters of the first learning model as the initial parameters of the second learning model for identifying and extracting the region to which the organ area information of the organ attention region is given.
The generated parameter of the second learning model is used as the initial parameter of the third learning model for identifying and extracting the region to which the site name information of the organ attention region and the organ area information are given, and the third learning model. To learn,
An image processing device characterized by this.
前記位置合わせ判定部は、
識別抽出された前記超音波画像の前記臓器注目領域各々に対し重み付け加算を行い、第1重み付け体積を算出し、前記第2ボリュームデータの、前記超音波画像の前記臓器注目領域各々に対応する臓器注目領域に対して重み付け加算を行い、第2重み付け体積を算出し、
前記第1重み付け体積と前記第2重み付け体積の比を所定の閾値と比較することにより、前記超音波探触子の走査範囲と部位が、前記第2ボリュームデータとの位置合わせに適切かどうかを判定する、
ことを特徴とする画像処理装置。 The image processing apparatus according to claim 7.
The alignment determination unit
Weighting is added to each of the organ-focused regions of the identified and extracted ultrasonic image, the first weighted volume is calculated, and the organ corresponding to each of the organ-focused regions of the ultrasonic image of the second volume data. Weighting is performed on the region of interest, and the second weighted volume is calculated.
By comparing the ratio of the first weighted volume to the second weighted volume with a predetermined threshold value, it can be determined whether the scanning range and the portion of the ultrasonic probe are appropriate for the alignment with the second volume data. judge,
An image processing device characterized by this.
前記位置合わせ判定部は、
前記超音波探触子の走査範囲と部位が、前記第2ボリュームデータとの位置合わせに不適切と判定した場合、推奨する前記超音波探触子の追加走査範囲と部位を出力する、
ことを特徴とする画像処理装置。 The image processing apparatus according to claim 10.
The alignment determination unit
When it is determined that the scanning range and the portion of the ultrasonic probe are inappropriate for the alignment with the second volume data, the recommended additional scanning range and the portion of the ultrasonic probe are output.
An image processing device characterized by this.
前記画像処理装置は、
超音波探触子から被検体に超音波を送信し、その受信信号から生成した超音波画像の臓器注目領域を識別抽出し、
抽出した前記臓器注目領域を用いて、前記超音波探触子の走査範囲と部位が、前記超音波画像あるいは前記超音波画像から生成された第1ボリュームデータと、前記被検体についての第2ボリュームデータとの位置合わせに適切かどうかを判定する、
ことを特徴とする画像処理方法。 This is an image processing method in an image processing device.
The image processing device is
Ultrasound is transmitted from the ultrasonic probe to the subject, and the organ-focused area of the ultrasonic image generated from the received signal is identified and extracted.
Using the extracted region of interest of the organ, the scanning range and site of the ultrasonic probe are the first volume data generated from the ultrasonic image or the ultrasonic image, and the second volume for the subject. Determine if it is appropriate for alignment with the data,
An image processing method characterized by that.
前記画像処理装置は、
前記臓器注目領域の部位名称と、所属する臓器内の臓器区域情報が付与された領域をピクセル単位で識別抽出する、
ことを特徴とする画像処理方法。 The image processing method according to claim 12.
The image processing device is
The part name of the organ attention area and the area to which the organ area information in the organ to which the organ is assigned are identified and extracted in pixel units.
An image processing method characterized by that.
前記画像処理装置は、
前記臓器注目領域の注目領域候補を識別抽出する第1学習モデルを学習し、
生成された前記第1学習モデルのパラメータを、前記臓器注目領域の前記臓器区域情報が付与された領域を識別・抽出する第2学習モデルの初期パラメータとして用いて、第2学習モデルを学習し、
生成された前記第2学習モデルのパラメータを、前記臓器注目領域の部位名称情報と前記臓器区域情報が付与された領域を識別・抽出する第3学習モデルの初期パラメータとして用いて、第3学習モデルを学習する、
ことを特徴とする画像処理方法。 The image processing method according to claim 13.
The image processing device is
A first learning model for identifying and extracting attention region candidates of the organ attention region is learned, and
The second learning model is trained by using the generated parameters of the first learning model as the initial parameters of the second learning model for identifying and extracting the region to which the organ area information of the organ attention region is given.
The generated parameter of the second learning model is used as the initial parameter of the third learning model for identifying and extracting the region to which the site name information of the organ attention region and the organ area information are given, and the third learning model. To learn,
An image processing method characterized by that.
前記画像処理装置は、
識別抽出された前記超音波画像の前記臓器注目領域各々に対し重み付け加算を行い、第1重み付け体積を算出し、前記第2ボリュームデータの、前記超音波画像の前記臓器注目領域各々に対応する臓器注目領域に対して重み付け加算を行い、第2重み付け体積を算出し、
前記第1重み付け体積と前記第2重み付け体積の比を所定の閾値と比較することにより、前記超音波探触子の走査範囲と部位が、前記第2ボリュームデータとの位置合わせに適切かどうかを判定する、
ことを特徴とする画像処理方法。 The image processing method according to claim 12.
The image processing device is
Weighting is added to each of the organ-focused regions of the identified and extracted ultrasonic image, the first weighted volume is calculated, and the organ corresponding to each of the organ-focused regions of the ultrasonic image of the second volume data. Weighting is performed on the region of interest, and the second weighted volume is calculated.
By comparing the ratio of the first weighted volume to the second weighted volume with a predetermined threshold value, it can be determined whether the scanning range and the portion of the ultrasonic probe are appropriate for the alignment with the second volume data. judge,
An image processing method characterized by that.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017251107A JP6887942B2 (en) | 2017-12-27 | 2017-12-27 | Ultrasound imaging equipment, image processing equipment, and methods |
PCT/JP2018/028698 WO2019130636A1 (en) | 2017-12-27 | 2018-07-31 | Ultrasound imaging device, image processing device, and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017251107A JP6887942B2 (en) | 2017-12-27 | 2017-12-27 | Ultrasound imaging equipment, image processing equipment, and methods |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019115487A JP2019115487A (en) | 2019-07-18 |
JP6887942B2 true JP6887942B2 (en) | 2021-06-16 |
Family
ID=67063449
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017251107A Active JP6887942B2 (en) | 2017-12-27 | 2017-12-27 | Ultrasound imaging equipment, image processing equipment, and methods |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6887942B2 (en) |
WO (1) | WO2019130636A1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6991519B2 (en) * | 2020-04-08 | 2022-01-12 | Arithmer株式会社 | Vehicle damage estimation device, its estimation program and its estimation method |
JP2021178175A (en) * | 2020-05-13 | 2021-11-18 | キヤノンメディカルシステムズ株式会社 | Ultrasonic diagnostic device, medical image processing device, medical image processing method, and program |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6073369B2 (en) * | 2011-12-27 | 2017-02-01 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | Intraoperative quality monitoring of tracking systems |
EP2979642A4 (en) * | 2013-03-29 | 2016-11-30 | Hitachi Ltd | Image alignment display method and ultrasonic diagnostic device |
WO2017038300A1 (en) * | 2015-09-02 | 2017-03-09 | 株式会社日立製作所 | Ultrasonic imaging device, and image processing device and method |
-
2017
- 2017-12-27 JP JP2017251107A patent/JP6887942B2/en active Active
-
2018
- 2018-07-31 WO PCT/JP2018/028698 patent/WO2019130636A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2019130636A1 (en) | 2019-07-04 |
JP2019115487A (en) | 2019-07-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11986355B2 (en) | 3D ultrasound imaging system | |
US10242450B2 (en) | Coupled segmentation in 3D conventional ultrasound and contrast-enhanced ultrasound images | |
RU2663649C2 (en) | Segmentation of large objects from multiple three-dimensional views | |
KR101121396B1 (en) | System and method for providing 2-dimensional ct image corresponding to 2-dimensional ultrasound image | |
JP6490820B2 (en) | Ultrasonic imaging apparatus, image processing apparatus, and method | |
JP4677199B2 (en) | Ultrasonic diagnostic equipment | |
JP6383483B2 (en) | Ultrasonic imaging apparatus and image processing apparatus | |
US11712224B2 (en) | Method and systems for context awareness enabled ultrasound scanning | |
CN107106128B (en) | Ultrasound imaging apparatus and method for segmenting an anatomical target | |
CN108697410B (en) | Ultrasonic imaging apparatus, image processing apparatus, and method thereof | |
JP6887942B2 (en) | Ultrasound imaging equipment, image processing equipment, and methods | |
CN113662579A (en) | Ultrasonic diagnostic apparatus, medical image processing apparatus and method, and storage medium | |
JP7299100B2 (en) | ULTRASOUND DIAGNOSTIC DEVICE AND ULTRASOUND IMAGE PROCESSING METHOD | |
WO2021230230A1 (en) | Ultrasonic diagnosis device, medical image processing device, and medical image processing method | |
JP2019051060A (en) | Image processing apparatus | |
CN115886876A (en) | Fetal posture evaluation method, ultrasonic imaging method and ultrasonic imaging system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200421 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210420 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210519 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6887942 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |