JPWO2020054019A1 - Image processing equipment, image processing methods, and programs - Google Patents

Image processing equipment, image processing methods, and programs Download PDF

Info

Publication number
JPWO2020054019A1
JPWO2020054019A1 JP2020546624A JP2020546624A JPWO2020054019A1 JP WO2020054019 A1 JPWO2020054019 A1 JP WO2020054019A1 JP 2020546624 A JP2020546624 A JP 2020546624A JP 2020546624 A JP2020546624 A JP 2020546624A JP WO2020054019 A1 JPWO2020054019 A1 JP WO2020054019A1
Authority
JP
Japan
Prior art keywords
image
guide line
region
area
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020546624A
Other languages
Japanese (ja)
Inventor
和成 宮村
和成 宮村
荒木 悟
悟 荒木
阪本 剛
剛 阪本
徳朗 三宅
徳朗 三宅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PFU Ltd
Original Assignee
PFU Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PFU Ltd filed Critical PFU Ltd
Publication of JPWO2020054019A1 publication Critical patent/JPWO2020054019A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging

Abstract

画像処理装置3は、臓器の撮影画像から、人工知能によって対象組織の領域を推定する領域推定部304と、該領域推定部304により推定された対象組織の領域に基づいて、対象組織の領域に含まれるガイド線を決定するガイド線決定部306と、ガイド線決定部306により決定されたガイド線に基づいて、撮影画像から、対象組織に相当する画像領域を抽出する画像抽出部とを有する。また、対象組織は、管状組織であり、領域推定部304は、管状組織の領域を推定し、ガイド線決定部306は、管状組織が広がる方向及び範囲の少なくとも一方を示すガイド線を決定し、画像抽出部は、管状組織に相当する画像領域を抽出する。The image processing device 3 sets the target tissue region based on the region estimation unit 304 that estimates the target tissue region by artificial intelligence from the captured image of the organ and the target tissue region estimated by the region estimation unit 304. It has a guide line determination unit 306 that determines the included guide lines, and an image extraction unit that extracts an image region corresponding to the target tissue from the captured image based on the guide lines determined by the guide line determination unit 306. Further, the target tissue is a tubular tissue, the region estimation unit 304 estimates the region of the tubular tissue, and the guide line determination unit 306 determines a guide line indicating at least one of the direction and range in which the tubular tissue spreads. The image extraction unit extracts an image region corresponding to the tubular tissue.

Description

本発明は、画像処理装置、画像処理方法、及びプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and a program.

例えば、非特許文献1には、診断画像データからAuto-Seedingとして冠動脈の始点(上行大動脈から冠動脈末端に伸びる始点)を検索し、その始点からVirtual Contrast Injection法にて冠動脈をたどって抽出(分離、骨格化)する方法が開示されている。 For example, in Non-Patent Document 1, the start point of the coronary artery (the start point extending from the ascending aorta to the end of the coronary artery) is searched for as Auto-Seeding from the diagnostic image data, and the coronary artery is extracted (separated) from the start point by the virtual control injection method. , Skeletalization) is disclosed.

また、特許文献2には、現在診断画像をセグメント化するシステムであって、複数の患者から生成された、選択された関心ボリュームの以前に生成された診断画像において、関心ボリュームをセグメント化する1又は複数のワークステーションと、前記以前に生成されセグメント化された画像を位置合わせし、前記以前に生成されセグメント化された画像をマージして、(1)各ボクセルが前記関心ボリュームを表す確率、(2)各ボクセルがバックグラウンドを表す確率、及び(3)平均セグメント化境界、を示す確率マップを与えるようにプログラムされる1又は複数のプロセッサと、前記確率マップを現在患者の関心ボリュームの現在診断画像と位置合わせして、変換された確率マップを生成するセグメント化プロセッサとを有するシステムが開示されている。 Further, Patent Document 2 describes a system for segmenting a diagnostic image at present, in which a volume of interest is segmented in a previously generated diagnostic image of a selected volume of interest generated from a plurality of patients1. Alternatively, aligning the previously generated and segmented images with multiple workstations and merging the previously generated and segmented images (1) the probability that each voxel represents the volume of interest. One or more processors programmed to provide a probability map showing (2) the probability that each voxel represents the background, and (3) the mean segmentation boundary, and the probability map is the current volume of interest of the patient. A system is disclosed having a segmentation processor that aligns with a diagnostic image and produces a transformed probability map.

また、特許文献3には、生体内部を示す3次元ボリュームデータを用いて医用画像を生成する医用画像処理装置であって、前記3次元ボリュームデータで示される所定の管状組織の断面を含む領域を複数指定する断面領域指定部と、前記断面領域指定部が指定した各断面領域に含まれる前記3次元ボリュームデータを用いて、当該断面領域に含まれる前記管状組織の断面を画像化する画像化部と、前記管状組織の断面を示す画像の中心位置を示す3次元ボリュームデータを特定する中心特定部と、前記中心特定部が特定した各断面領域における管断面の中心位置を示す3次元ボリュームデータに基づいて、前記管状組織の長尺方向中心線を示す前記3次元ボリュームデータを特定する中心線特定部とを備えることを特徴とする医用画像処理装置が開示されている。 Further, Patent Document 3 describes a medical image processing apparatus that generates a medical image using three-dimensional volume data indicating the inside of a living body, and includes a region including a cross section of a predetermined tubular tissue indicated by the three-dimensional volume data. An imaging unit that images the cross section of the tubular structure included in the cross-sectional area by using a plurality of designated cross-sectional area designating parts and the three-dimensional volume data included in each cross-sectional area designated by the cross-sectional area designating part. And the three-dimensional volume data indicating the three-dimensional volume data indicating the center position of the image showing the cross section of the tubular structure and the three-dimensional volume data indicating the center position of the tube cross section in each cross section region specified by the center specifying portion. Based on this, a medical image processing apparatus is disclosed, which comprises a center line specifying portion for specifying the three-dimensional volume data indicating the long direction center line of the tubular tissue.

An Automatic Seeding Method For Coronary Artery Segmentation and Skeletonization in CTAAn Automatic Seding Method For Coronary Artery Segmentation and Skeletonization in CTA 特表2013−521844号公報Special Table 2013-521844 特開2004‐313736号公報Japanese Unexamined Patent Publication No. 2004-313736

臓器の撮影画像において、対象組織の特定を容易にする画像処理装置を提供することを目的とする。 An object of the present invention is to provide an image processing device that facilitates identification of a target tissue in a photographed image of an organ.

本発明に係る画像処理装置は、臓器の撮影画像から、人工知能によって対象組織の領域を推定する領域推定部と、前記領域推定部により推定された対象組織の領域に基づいて、対象組織の領域に含まれるガイド線を決定するガイド線決定部と、前記ガイド線決定部により決定されたガイド線に基づいて、前記撮影画像から、対象組織に相当する画像領域を抽出する画像抽出部とを有する。 The image processing apparatus according to the present invention has a region estimation unit that estimates the region of the target tissue by artificial intelligence from a photographed image of an organ, and a region of the target tissue based on the region of the target tissue estimated by the region estimation unit. It has a guide line determination unit that determines the guide line included in the image, and an image extraction unit that extracts an image region corresponding to the target tissue from the captured image based on the guide line determined by the guide line determination unit. ..

本発明に係る画像処理装置は、臓器の撮影画像から、人工知能によって対象組織の領域を推定する領域推定部と、前記領域推定部により推定された対象組織の領域に基づいて、対象組織の領域に含まれるガイド線を決定するガイド線決定部と、前記ガイド線決定部により決定されたガイド線に沿ったガイド画像を、前記撮影画像に重ね合わせて表示する画像表示部とを有する。 The image processing apparatus according to the present invention has a region estimation unit that estimates the region of the target tissue by artificial intelligence from a photographed image of an organ, and a region of the target tissue based on the region of the target tissue estimated by the region estimation unit. It has a guide line determining unit for determining the guide line included in the above, and an image display unit for displaying a guide image along the guide line determined by the guide line determining unit on the captured image.

好適には、前記対象組織は、管状組織であり、前記領域推定部は、管状組織の領域を推定し、前記ガイド線決定部は、管状組織が広がる方向及び範囲の少なくとも一方を示すガイド線を決定し、前記画像抽出部は、管状組織に相当する画像領域を抽出する。 Preferably, the target tissue is a tubular tissue, the region estimation unit estimates the region of the tubular tissue, and the guide line determination unit provides a guide line indicating at least one of the direction and range in which the tubular tissue spreads. After determining, the image extraction unit extracts an image region corresponding to the tubular tissue.

好適には、前記撮影画像は、冠動脈が含まれた領域のMRI画像であり、前記領域推定部は、冠動脈の領域を推定し、前記ガイド線決定部は、冠動脈が広がる方向及び範囲の少なくとも一方を示すガイド線を決定し、前記画像抽出部は、MRI画像から、冠動脈に相当する画像領域を抽出する。 Preferably, the captured image is an MRI image of a region including the coronary arteries, the region estimation unit estimates the region of the coronary arteries, and the guide line determination unit is at least one of the direction and range in which the coronary arteries spread. The guide line indicating the above is determined, and the image extraction unit extracts an image region corresponding to the coronary artery from the MRI image.

好適には、前記ガイド線決定部は、管状組織の中央部をとおる中心線を前記ガイド線として決定し、前記画像抽出部は、前記中心線に相当する位置の輝度情報と、この周囲の輝度情報とを比較して、管状組織に相当する画像領域を抽出する。 Preferably, the guide line determination unit determines the center line passing through the central portion of the tubular tissue as the guide line, and the image extraction unit determines the brightness information of the position corresponding to the center line and the brightness around the center line. The image area corresponding to the tubular tissue is extracted by comparing with the information.

好適には、前記領域推定部は、冠動脈が含まれた領域の複数のMRI画像と、これらのMRI画像から抽出された冠動脈の画像領域とのセットを教師データとして構成された人工知能を用いて、冠動脈の領域を推定する。 Preferably, the region estimation unit uses artificial intelligence configured with a set of a plurality of MRI images of the region including the coronary arteries and an image region of the coronary arteries extracted from these MRI images as training data. , Estimate the area of the coronary arteries.

好適には、前記ガイド線決定部は、推定された対象組織の領域を、既定の補間法でつないで、曲線からなるガイド線を決定する。 Preferably, the guide line determination unit connects the regions of the estimated target tissue by a predetermined interpolation method to determine a guide line composed of a curved line.

本発明に係る画像処理方法は、臓器の撮影画像から、人工知能によって対象組織の領域を推定するステップと、推定された対象組織の領域に基づいて、対象組織の領域に含まれるガイド線を決定するステップと、決定されたガイド線に基づいて、前記撮影画像から、対象組織に相当する画像領域を抽出するステップとを有する。 In the image processing method according to the present invention, the step of estimating the region of the target tissue by artificial intelligence from the photographed image of the organ and the guide line included in the region of the target tissue are determined based on the estimated region of the target tissue. It has a step of extracting an image region corresponding to a target tissue from the captured image based on a determined guide line.

本発明に係るプログラムは、臓器の撮影画像から、人工知能によって対象組織の領域を推定するステップと、推定された対象組織の領域に基づいて、対象組織の領域に含まれるガイド線を決定するステップと、決定されたガイド線に沿ったガイド画像を、前記撮影画像に重ね合わせて表示するステップとをコンピュータに実行させる。 In the program according to the present invention, a step of estimating the region of the target tissue by artificial intelligence from a photographed image of the organ and a step of determining a guide line included in the region of the target tissue based on the estimated region of the target tissue. The computer is made to execute the step of superimposing the guide image along the determined guide line on the captured image and displaying the image.

臓器の撮影画像において、対象組織の特定を容易にすることができる。 It is possible to easily identify the target tissue in the photographed image of the organ.

画像処理システム1のシステム構成を例示する図である。It is a figure which illustrates the system structure of the image processing system 1. 画像処理装置3のハードウェア構成を例示する図である。It is a figure which illustrates the hardware composition of the image processing apparatus 3. 画像処理装置3の機能構成を例示する図である。It is a figure which illustrates the functional structure of the image processing apparatus 3. 冠動脈抽出処理(S10)を説明するフローチャートである。It is a flowchart explaining the coronary artery extraction process (S10). ガイド線決定処理(S20)を説明するフローチャートである。It is a flowchart explaining the guide line determination process (S20). (a)は、点在する中心線を例示する図であり、(b)は、点在する中心線のつなぎ方を例示する図である。(A) is a diagram illustrating the scattered center lines, and (b) is a diagram illustrating how to connect the scattered center lines. ガイド画像8とMRI画像9とを重ね合わせた画像を例示する図である。It is a figure which illustrates the image which superposed the guide image 8 and the MRI image 9.

[背景]
本発明がなされた背景を説明する。
循環器診断ではコンピュータ断層診断装置による診断を行う。診断の手順は、例えば、(1)コンピュータ断層診断装置で撮影、(2)撮影画像から関心領域(VOI)を抽出(トリミング)、(3)冠動脈を抽出、(4)心臓VR(立体三次元画像)データを抽出、(5)これらの情報をもとに数値化などを行い医師が見やすい形式で表示、という流れである。
撮影方法の主流は造影剤を用いた放射線CTであるが造影剤の副作用や放射線リスクが伴う。これらリスクのないMRI(核磁気共鳴画像)方式も今後導入が進むと考えられるが、解像度の荒さやアーチファクト(特有のノイズ)のため、従来の画像処理技術では冠動脈の抽出(分離、骨格化)を自動化することが難しく、熟練した読影医が半手動で抽出を行っている。そしてそのような読影医は不足気味である。そのため診療の現場では、熟練した読影医に頼らずMRI画像などから自動的に冠動脈を抽出し、更に、患者説明に有効な心臓VRデータを抽出して医師が見やすい適切な形式で表示する手段の実現が望まれている。
[background]
The background of the present invention will be described.
In cardiovascular diagnosis, a computer tomographic diagnostic device is used for diagnosis. The diagnostic procedure is, for example, (1) imaging with a computer tomographic diagnostic device, (2) extracting (trimming) the region of interest (VOI) from the captured image, (3) extracting the coronary artery, and (4) cardiac VR (three-dimensional three-dimensional). Image) Data is extracted, and (5) digitized based on this information and displayed in a format that is easy for doctors to see.
The mainstream imaging method is radiation CT using a contrast medium, but there are side effects of the contrast medium and radiation risk. These risk-free MRI (magnetic resonance imaging) methods are expected to be introduced in the future, but due to the roughness of the resolution and artifacts (specific noise), the conventional image processing technology extracts (separates, skeletalizes) coronary arteries. It is difficult to automate the extraction, and a skilled image interpreter performs the extraction semi-manually. And such an interpreter is in short supply. Therefore, in the field of medical care, coronary arteries are automatically extracted from MRI images without relying on a skilled interpreting doctor, and cardiac VR data effective for patient explanation is extracted and displayed in an appropriate format that is easy for the doctor to see. Realization is desired.

一般にMRI画像、とりわけ冠動脈始点が識別困難な画像では、コンピュータ処理による冠動脈の自動的な検出は成功率が低い。成功率が低い要因は、手法上の要因と画像特性の要因とがある。手法上の要因として、従来、画像全体の中で血管がどれであるかを認識する方法は、冠動脈の始点から探索する方法を取っているので、冠動脈の始点が見つからないと、冠動脈は検出できないこと、そして、同様の理由で、狭窄や他の原因で冠動脈の一部に画素情報が認識できないと、その先にある箇所の冠動脈が輝点として存在していても探索対象にならないこと、が挙げられる。
また、画像特性の要因として、冠動脈直径(約3mm)に対して、MRI画像の解像度(1.2mm)が十分でない(CTの解像度は0.6mmであり、比較的成功率は高い)こと、そして、アーチファクトの問題により冠動脈が脂肪細胞など他組織に埋没して見えてしまうことが多く、特に冠動脈の始点は他組織に埋没することが多いことが挙げられる。
In general, MRI images, especially those in which the origin of the coronary artery is difficult to identify, have a low success rate for automatic detection of the coronary artery by computer processing. Factors with a low success rate include method factors and image characteristics factors. As a method factor, conventionally, the method of recognizing which blood vessel is in the entire image is to search from the start point of the coronary artery, so that the coronary artery cannot be detected unless the start point of the coronary artery is found. And, for the same reason, if pixel information cannot be recognized in a part of the coronary artery due to stenosis or other causes, even if the coronary artery at the point beyond it exists as a bright spot, it will not be searched. Can be mentioned.
In addition, as a factor of image characteristics, the resolution (1.2 mm) of the MRI image is not sufficient for the coronary artery diameter (about 3 mm) (CT resolution is 0.6 mm, and the success rate is relatively high). Then, due to the problem of artifacts, the coronary arteries are often buried in other tissues such as adipocytes and appear, and in particular, the starting point of the coronary arteries is often buried in other tissues.

上記課題に対して、本発明は、読影医の介入無しに人工知能によって冠動脈の領域を推定し、推定した領域において冠動脈中心線を決定し、その中心線に沿ってもとの冠動脈の撮影画像(MRI画像)から輝度情報を基に血管の画素部分を抽出し、冠動脈画像を自動で抽出する方法である。 In response to the above problems, the present invention estimates the area of the coronary artery by artificial intelligence without the intervention of an image interpreter, determines the centerline of the coronary artery in the estimated area, and captures an image of the original coronary artery along the centerline. This is a method of extracting a pixel portion of a blood vessel from (MRI image) based on brightness information and automatically extracting a coronary artery image.

本発明の実施形態を、図面を参照して説明する。
図1は、画像処理システム1の全体構成を例示する図である。
図1に例示するように、画像処理システム1は、画像送信装置2a、画像送信装置2b、画像送信装置2c及び画像処理装置3を含み、ネットワーク7を介して互いに接続している。画像送信装置2a、画像送信装置2b、画像送信装置2cを合わせて画像送信装置2と称する
画像送信装置2は、コンピュータ端末であり、臓器の撮影画像を画像処理装置に送信する。具体的には、画像送信装置2は、MRI(磁気共鳴画像装置)により撮像された、患者の体の断層画像データ(以下、画像データとする。)を画像処理装置3に送信する。
画像処理装置3は、コンピュータ端末であり、画像送信装置2により受信した画像データに基づいて、対象組織の画像領域を抽出する。本例において、対象組織は管状組織であり、本例においては、冠動脈である。画像処理装置3は、抽出した画像領域を画像送信装置2に送信する。
Embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram illustrating the overall configuration of the image processing system 1.
As illustrated in FIG. 1, the image processing system 1 includes an image transmission device 2a, an image transmission device 2b, an image transmission device 2c, and an image processing device 3, and is connected to each other via a network 7. The image transmission device 2a, which is a combination of the image transmission device 2a, the image transmission device 2b, and the image transmission device 2c and is referred to as an image transmission device 2, is a computer terminal and transmits a photographed image of an organ to an image processing device. Specifically, the image transmission device 2 transmits tomographic image data (hereinafter referred to as image data) of the patient's body captured by an MRI (magnetic resonance imaging device) to the image processing device 3.
The image processing device 3 is a computer terminal, and extracts an image area of the target tissue based on the image data received by the image transmitting device 2. In this example, the target tissue is a tubular tissue, and in this example, a coronary artery. The image processing device 3 transmits the extracted image area to the image transmission device 2.

図2は、画像処理装置3のハードウェア構成を例示する図である。
図2に例示するように、画像処理装置3は、CPU200、メモリ202、HDD204、ネットワークインタフェース206(ネットワークIF206)、表示装置208、及び入力装置210を有し、これらの構成はバス212を介して互いに接続している。
CPU200は、例えば、中央演算装置である。
メモリ202は、例えば、揮発性メモリであり、主記憶装置として機能する。
HDD204は、例えば、ハードディスクドライブ装置であり、不揮発性の記録装置としてコンピュータプログラムやその他のデータファイルを格納する。
ネットワークIF206は、有線又は無線で通信するためのインタフェースである。
表示装置208は、例えば、液晶ディスプレイである。
入力装置210は、例えば、キーボード及びマウスである。
FIG. 2 is a diagram illustrating a hardware configuration of the image processing device 3.
As illustrated in FIG. 2, the image processing device 3 includes a CPU 200, a memory 202, an HDD 204, a network interface 206 (network IF206), a display device 208, and an input device 210, and these configurations are configured via the bus 212. Connected to each other.
The CPU 200 is, for example, a central arithmetic unit.
The memory 202 is, for example, a volatile memory and functions as a main storage device.
HDD 204 is, for example, a hard disk drive device, which stores computer programs and other data files as a non-volatile recording device.
The network IF206 is an interface for communicating by wire or wirelessly.
The display device 208 is, for example, a liquid crystal display.
The input device 210 is, for example, a keyboard and a mouse.

図3は、画像処理装置3の機能構成を例示する図である。
図3に例示するように、画像処理装置3には、画像処理プログラム30がインストールされ、画像処理プログラム30は、例えば、CD−ROM等の記録媒体に格納されており、この記録媒体を介して、画像処理装置3にインストールされると共に学習データデータベース600(学習データDB600)を構成する。
なお、画像処理プログラム30の一部又は全部は、ASICなどのハードウェアにより実現されてもよく、また、OS(Operating System)の機能を一部借用して実現されてもよい。また、このプログラム全体が一台のコンピュータ端末にインストールされてもよいし、クラウド上の仮想マシンにインストールされてもよい。
FIG. 3 is a diagram illustrating the functional configuration of the image processing device 3.
As illustrated in FIG. 3, an image processing program 30 is installed in the image processing device 3, and the image processing program 30 is stored in a recording medium such as a CD-ROM, and the image processing program 30 is stored in a recording medium such as a CD-ROM. , Is installed in the image processing device 3 and constitutes a learning data database 600 (learning data DB 600).
A part or all of the image processing program 30 may be realized by hardware such as an ASIC, or may be realized by borrowing a part of the functions of the OS (Operating System). In addition, the entire program may be installed on a single computer terminal or a virtual machine on the cloud.

画像処理プログラム30は、画像取得部300、領域切取部302、領域推定部304、ガイド線決定部306、画像抽出部308、及び画像表示部310を有する。 The image processing program 30 includes an image acquisition unit 300, an area cutting unit 302, an area estimation unit 304, a guide line determination unit 306, an image extraction unit 308, and an image display unit 310.

画像処理プログラム30において、画像取得部300は、画像送信装置2により送信されたMRIの画像データを取得する。
領域切取部302は、画像データから解析に必要な領域(VOI)のみを抽出する。
領域推定部304は、臓器の撮影画像から、人工知能によって対象組織の領域を推定する。具体的には、対象組織は管状組織であり、より具体的には、領域推定部304は、冠動脈の領域を推定する。領域推定部304は、冠動脈が含まれた領域の複数のMRI画像と、これらのMRI画像から抽出された冠動脈の画像領域とのセットを教師データとして構成された人工知能を用いて、冠動脈の領域を推定する。
なお、本発明における人工知能(AI:Artificial Intelligence)は、ニューラルネットワークにおいて、ディープラーニングにより教師データを学習する。教師データは、MRI画像データに関連付けられた、医師が抽出した冠動脈の3Dデータである。人工知能は、教師データを学習し、これに基づいて冠動脈の領域を推定する。学習データDB600は、教師データを保持し、新たな教師データが入力された場合に、人工知能は再学習してもよい。
In the image processing program 30, the image acquisition unit 300 acquires the MRI image data transmitted by the image transmission device 2.
The area cutting unit 302 extracts only the area (VOI) required for analysis from the image data.
The area estimation unit 304 estimates the area of the target tissue by artificial intelligence from the photographed image of the organ. Specifically, the target tissue is a tubular tissue, and more specifically, the region estimation unit 304 estimates the region of the coronary artery. The region estimation unit 304 uses artificial intelligence configured as teacher data as a set of a plurality of MRI images of the region including the coronary arteries and the image region of the coronary arteries extracted from these MRI images, and uses the region of the coronary arteries. To estimate.
In addition, artificial intelligence (AI: Artificial Intelligence) in the present invention learns teacher data by deep learning in a neural network. The teacher data is 3D data of coronary arteries extracted by a doctor associated with MRI image data. Artificial intelligence learns teacher data and estimates the area of the coronary arteries based on it. The learning data DB 600 holds the teacher data, and when new teacher data is input, the artificial intelligence may be relearned.

ガイド線決定部306は、領域推定部304により推定された冠動脈の領域に基づいて、冠動脈の領域に含まれるガイド線を決定する。具体的には、ガイド線決定部306は、冠動脈が広がる方向及び範囲の少なくとも一方を示すガイド線を決定する。より具体的には、ガイド線決定部306は、冠動脈の中央部を通る中心線をガイド線として決定する。ガイド線の決定方法として、ガイド線決定部306は、推定された冠動脈の領域を、既定の補間法でつないで、曲線からなるガイド線を決定する。ガイド線は、方向又は範囲を示すものであり、線幅やパターンは任意である。ガイド線は、点線や、破線、鎖線、矢印線、中抜き線等であってもよい。 The guide line determination unit 306 determines the guide line included in the region of the coronary artery based on the region of the coronary artery estimated by the region estimation unit 304. Specifically, the guide line determination unit 306 determines a guide line indicating at least one of the direction and range in which the coronary artery spreads. More specifically, the guide line determining unit 306 determines the center line passing through the central portion of the coronary artery as the guide line. As a method of determining the guide line, the guide line determination unit 306 connects the estimated coronary artery regions by a predetermined interpolation method to determine a guide line composed of a curved line. The guide line indicates a direction or a range, and the line width and the pattern are arbitrary. The guide line may be a dotted line, a broken line, a chain line, an arrow line, a hollow line, or the like.

画像抽出部308は、ガイド線決定部306により決定されたガイド線に基づいて、撮影画像から、冠動脈に相当する画像領域を抽出する。具体的には、画像抽出部308は、MRI画像から、冠動脈に相当する画像領域を抽出する。さらに、画像抽出部308は、中心線に相当する位置の輝度情報と、この周囲の輝度情報とを比較して、冠動脈に相当する画像領域を抽出する。より具体的には、画像抽出部308は、抽出した画像領域を抽出図として表す。 The image extraction unit 308 extracts an image region corresponding to the coronary artery from the captured image based on the guide line determined by the guide line determination unit 306. Specifically, the image extraction unit 308 extracts an image region corresponding to the coronary artery from the MRI image. Further, the image extraction unit 308 compares the luminance information at the position corresponding to the center line with the luminance information around the center line to extract the image region corresponding to the coronary artery. More specifically, the image extraction unit 308 represents the extracted image area as an extraction diagram.

画像表示部310は、ガイド線決定部306により決定されたガイド線に沿ったガイド画像を、MRI画像に重ね合わせて表示する。また、画像表示部310は、冠動脈抽出画像と共に、冠動脈の3D画像、または冠動脈直径値等をレポート出力する。 The image display unit 310 superimposes and displays a guide image along the guide line determined by the guide line determination unit 306 on the MRI image. Further, the image display unit 310 outputs a 3D image of the coronary artery, a coronary artery diameter value, or the like as a report together with the coronary artery extract image.

図4は、冠動脈抽出処理(S10)を説明するフローチャートである。
図4に例示するように、ステップ100(S100)において、画像取得部300は、MRIで撮影された、診断対象である画像データを取得する。
ステップ105(S105)において、領域切取部302は、画像データから解析に必要な領域(VOI)のみを抽出する。そして、領域切取部302は、抽出した領域をニューラルネットワークへ入力するために、データファイル形式変換等の前処理を実施する。
ステップ110(S110)において、領域推定部304は、ニューラルネットワークを用いて、抽出した領域において冠動脈を推定し、抽出する。
ステップ115(S115)において、ガイド線決定部306は、冠動脈の中央部を通る中心線をガイド線として決定する。
ステップ120(S120)において、画像抽出部308は、ガイド線決定部306により決定されたガイド線に基づいて、元の患者データ(診断対象のMRI画像データ)の輝度信号をつなぎ、冠動脈抽出図を作成する。
ステップ125(S125)において、画像表示部310は、医師の診断に有用な形状(例えば、3D画像)、または冠動脈直径値等をレポート出力する。
FIG. 4 is a flowchart illustrating the coronary artery extraction process (S10).
As illustrated in FIG. 4, in step 100 (S100), the image acquisition unit 300 acquires image data to be diagnosed, which is taken by MRI.
In step 105 (S105), the area cutting unit 302 extracts only the area (VOI) required for analysis from the image data. Then, the area cutting unit 302 performs preprocessing such as data file format conversion in order to input the extracted area to the neural network.
In step 110 (S110), the region estimation unit 304 estimates and extracts the coronary arteries in the extracted region using a neural network.
In step 115 (S115), the guide line determination unit 306 determines the center line passing through the central portion of the coronary artery as the guide line.
In step 120 (S120), the image extraction unit 308 connects the luminance signals of the original patient data (MRI image data to be diagnosed) based on the guide line determined by the guide line determination unit 306, and draws a coronary artery extraction diagram. create.
In step 125 (S125), the image display unit 310 reports and outputs a shape (for example, a 3D image) useful for a doctor's diagnosis, a coronary artery diameter value, and the like.

図5は、ガイド線決定処理(S20)を説明するフローチャートである。
図5に例示するように、ステップ200(S200)において、領域推定部304は、教師データ及び血管走行の学習に基づいて、冠動脈の画像のうち、AIにより対象組織の一部であると推定される期待値が、閾値以上のピクセルを特定する。
ステップ205(S205)において、ガイド線決定部306は、特定されたピクセルを含む領域を細線化し、冠動脈の中心線を得る。図6(a)に例示するように、プログラム上において線構造は、空間内での点の列であるから、中心線は冠動脈に沿って点在している状態である。
ステップ210(S210)において、点在する中心線の先端と後端とが近接している場合は、ガイド線決定部306は、S215へ移行し、近接していない場合は、S220へ移行する。
ステップ215(S215)において、ガイド線決定部306は、図6(b)に例示するように、点在している点群を一つの列と捉え、列の降端の点から近い別の列の先端の点を検索し、その間をつなぎ、ガイド線を決定する。
ステップ220(S220)において、ガイド線決定部306は、血管推定技術を用いて、点在する中心線をつなぎ、ガイド線を決定する。具体的には、ガイド線決定部306は、抽出点を通過する曲線回帰手法(例えば、n次スプライン補間)により中心線をつなぐ。
FIG. 5 is a flowchart illustrating the guide line determination process (S20).
As illustrated in FIG. 5, in step 200 (S200), the region estimation unit 304 is estimated to be a part of the target tissue by AI in the image of the coronary artery based on the teacher data and the learning of the blood vessel running. Identify pixels whose expected value is greater than or equal to the threshold.
In step 205 (S205), the guide line determination unit 306 thins the area containing the specified pixel to obtain the center line of the coronary artery. As illustrated in FIG. 6A, since the line structure is a sequence of points in space in the program, the center lines are scattered along the coronary arteries.
In step 210 (S210), when the front end and the rear end of the scattered center lines are close to each other, the guide line determination unit 306 shifts to S215, and when they are not close to each other, the guide line determination unit 306 shifts to S220.
In step 215 (S215), the guide line determination unit 306 regards the scattered point clouds as one row, as illustrated in FIG. 6 (b), and another row close to the point at the lower end of the row. Search for the point at the tip of, connect between them, and determine the guide line.
In step 220 (S220), the guide line determination unit 306 connects the scattered center lines and determines the guide line by using the blood vessel estimation technique. Specifically, the guide line determination unit 306 connects the center lines by a curve regression method (for example, nth-order spline interpolation) that passes through the extraction points.

以上説明したように、本実施形態の画像処理システム1によれば、MRI画像のような低解像度やノイズを持つ、とりわけ冠動脈始点の識別が難しい画像でも、AIによる冠動脈の推定とガイド線とに基づいて冠動脈の抽出処理が可能であるため、より高精度且つ高成功率で冠動脈抽出処理が可能である。また、医師の介在を必要とせずに自動で冠動脈抽出処理を行うことができるため、医師の技量への依存を低減することも可能である。また、AIによる出力は、冠動脈中心線を出力するためのみに用いるため、AIのみを用いた冠動脈抽出よりも学習データによるAIの精度によるばらつきを低減でき、かつ、最終的に輝度情報を基に冠動脈を抽出することから、従来と同等の信頼度で診断に利用可能な情報を得ることができる。 As described above, according to the image processing system 1 of the present embodiment, even in an image having low resolution and noise such as an MRI image in which it is difficult to identify the start point of the coronary artery, the estimation of the coronary artery by AI and the guide line can be performed. Since the coronary artery extraction process can be performed based on the above, the coronary artery extraction process can be performed with higher accuracy and a high success rate. In addition, since the coronary artery extraction process can be performed automatically without the intervention of a doctor, it is possible to reduce the dependence on the skill of the doctor. Further, since the output by AI is used only for outputting the coronary center line, it is possible to reduce the variation due to the accuracy of AI based on the training data as compared with the coronary artery extraction using only AI, and finally based on the brightness information. By extracting the coronary arteries, it is possible to obtain information that can be used for diagnosis with the same reliability as before.

上記実施形態では、画像抽出部308により、冠動脈の抽出図を作成しているが、これに限定されず、例えば、図7に例示するように、画像表示部310が、ガイド線決定部306により決定されたガイド線に沿ったガイド画像8を、MRI画像9に重ね合わせて表示し、表示された画像に基づいて、読影医により冠動脈の抽出図を作成してもよい。 In the above embodiment, the image extraction unit 308 creates an extraction diagram of the coronary artery, but the present invention is not limited to this, and for example, as illustrated in FIG. 7, the image display unit 310 uses the guide line determination unit 306. The guide image 8 along the determined guide line may be superimposed on the MRI image 9 and displayed, and an extraction map of the coronary artery may be created by an image interpreter based on the displayed image.

1…画像処理システム
2…画像送信装置
3…画像処理装置
30…画像処理プログラム
1 ... Image processing system 2 ... Image transmission device 3 ... Image processing device 30 ... Image processing program

Claims (9)

臓器の撮影画像から、人工知能によって対象組織の領域を推定する領域推定部と、
前記領域推定部により推定された対象組織の領域に基づいて、対象組織の領域に含まれるガイド線を決定するガイド線決定部と、
前記ガイド線決定部により決定されたガイド線に基づいて、前記撮影画像から、対象組織に相当する画像領域を抽出する画像抽出部と
を有する画像処理装置。
A region estimation unit that estimates the region of the target tissue by artificial intelligence from the captured image of the organ,
A guide line determination unit that determines a guide line included in the area of the target organization based on the area of the target organization estimated by the area estimation unit.
An image processing apparatus including an image extraction unit that extracts an image region corresponding to a target tissue from the captured image based on a guide line determined by the guide line determination unit.
臓器の撮影画像から、人工知能によって対象組織の領域を推定する領域推定部と、
前記領域推定部により推定された対象組織の領域に基づいて、対象組織の領域に含まれるガイド線を決定するガイド線決定部と、
前記ガイド線決定部により決定されたガイド線に沿ったガイド画像を、前記撮影画像に重ね合わせて表示する画像表示部と
を有する画像処理装置。
A region estimation unit that estimates the region of the target tissue by artificial intelligence from the captured image of the organ,
A guide line determination unit that determines a guide line included in the area of the target organization based on the area of the target organization estimated by the area estimation unit.
An image processing device including an image display unit that superimposes and displays a guide image along the guide line determined by the guide line determination unit on the captured image.
前記対象組織は、管状組織であり、
前記領域推定部は、管状組織の領域を推定し、
前記ガイド線決定部は、管状組織が広がる方向及び範囲の少なくとも一方を示すガイド線を決定し、
前記画像抽出部は、管状組織に相当する画像領域を抽出する
請求項1又は2に記載の画像処理装置。
The target tissue is a tubular tissue and
The region estimation unit estimates the region of the tubular tissue and
The guide line determination unit determines a guide line indicating at least one of the direction and range in which the tubular tissue spreads.
The image processing apparatus according to claim 1 or 2, wherein the image extraction unit extracts an image region corresponding to a tubular tissue.
前記撮影画像は、冠動脈が含まれた領域のMRI画像であり、
前記領域推定部は、冠動脈の領域を推定し、
前記ガイド線決定部は、冠動脈が広がる方向及び範囲の少なくとも一方を示すガイド線を決定し、
前記画像抽出部は、MRI画像から、冠動脈に相当する画像領域を抽出する
請求項3に記載の画像処理装置。
The captured image is an MRI image of a region including a coronary artery.
The region estimation unit estimates the region of the coronary artery and
The guide line determination unit determines a guide line indicating at least one of the direction and range in which the coronary artery spreads.
The image processing apparatus according to claim 3, wherein the image extraction unit extracts an image region corresponding to a coronary artery from an MRI image.
前記ガイド線決定部は、管状組織の中央部をとおる中心線を前記ガイド線として決定し、
前記画像抽出部は、前記中心線に相当する位置の輝度情報と、この周囲の輝度情報とを比較して、管状組織に相当する画像領域を抽出する
請求項3に記載の画像処理装置。
The guide line determining portion determines the center line passing through the central portion of the tubular tissue as the guide line.
The image processing apparatus according to claim 3, wherein the image extraction unit compares the brightness information at a position corresponding to the center line with the brightness information around the center line to extract an image area corresponding to a tubular tissue.
前記領域推定部は、冠動脈が含まれた領域の複数のMRI画像と、これらのMRI画像から抽出された冠動脈の画像領域とのセットを教師データとして構成された人工知能を用いて、冠動脈の領域を推定する
請求項4に記載の画像処理装置。
The region estimation unit uses artificial intelligence configured with a set of a plurality of MRI images of the region including the coronary arteries and an image region of the coronary arteries extracted from these MRI images as training data, and the region of the coronary arteries. The image processing apparatus according to claim 4.
前記ガイド線決定部は、推定された対象組織の領域を、既定の補間法でつないで、曲線からなるガイド線を決定する
請求項3に記載の画像処理装置。
The image processing apparatus according to claim 3, wherein the guide line determination unit connects the estimated target tissue regions by a predetermined interpolation method to determine a guide line composed of a curved line.
臓器の撮影画像から、人工知能によって対象組織の領域を推定するステップと、
推定された対象組織の領域に基づいて、対象組織の領域に含まれるガイド線を決定するステップと、
決定されたガイド線に基づいて、前記撮影画像から、対象組織に相当する画像領域を抽出するステップと
を有する画像処理方法。
The step of estimating the area of the target tissue by artificial intelligence from the photographed image of the organ,
Steps to determine the guidelines contained in the area of the target organization based on the estimated area of the target organization,
An image processing method including a step of extracting an image area corresponding to a target tissue from the captured image based on a determined guide line.
臓器の撮影画像から、人工知能によって対象組織の領域を推定するステップと、
推定された対象組織の領域に基づいて、対象組織の領域に含まれるガイド線を決定するステップと、
決定されたガイド線に沿ったガイド画像を、前記撮影画像に重ね合わせて表示するステップと
をコンピュータに実行させるプログラム。
The step of estimating the area of the target tissue by artificial intelligence from the photographed image of the organ,
Steps to determine the guidelines contained in the area of the target organization based on the estimated area of the target organization,
A program that causes a computer to perform a step of superimposing and displaying a guide image along a determined guide line on the captured image.
JP2020546624A 2018-09-13 2018-09-13 Image processing equipment, image processing methods, and programs Pending JPWO2020054019A1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/033980 WO2020054019A1 (en) 2018-09-13 2018-09-13 Image processing device, image processing method, and program

Publications (1)

Publication Number Publication Date
JPWO2020054019A1 true JPWO2020054019A1 (en) 2021-04-30

Family

ID=69776532

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020546624A Pending JPWO2020054019A1 (en) 2018-09-13 2018-09-13 Image processing equipment, image processing methods, and programs

Country Status (2)

Country Link
JP (1) JPWO2020054019A1 (en)
WO (1) WO2020054019A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023075462A (en) * 2021-11-19 2023-05-31 朝日インテック株式会社 medical device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009207886A (en) * 2008-02-07 2009-09-17 Fujifilm Corp Vertebral center detecting device, method, and program
JP2011025005A (en) * 2009-07-03 2011-02-10 Fujifilm Corp Diagnosis supporting device, diagnosis supporting program, and diagnosis supporting method
JP2014171908A (en) * 2013-03-11 2014-09-22 Toshiba Corp Medical image processor for preparing blood vessel tree diagram by using anatomical landmark and clinical ontology and method
WO2016159379A1 (en) * 2015-04-02 2016-10-06 イービーエム株式会社 Apparatus and method for constructing blood vessel configuration and computer software program
US20180000441A1 (en) * 2016-06-30 2018-01-04 Shanghai United Imaging Healthcare Co., Ltd. Methods and systems for extracting blood vessel

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5242235B2 (en) * 2008-05-08 2013-07-24 株式会社東芝 MRI diagnostic imaging apparatus and MR image forming method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009207886A (en) * 2008-02-07 2009-09-17 Fujifilm Corp Vertebral center detecting device, method, and program
JP2011025005A (en) * 2009-07-03 2011-02-10 Fujifilm Corp Diagnosis supporting device, diagnosis supporting program, and diagnosis supporting method
JP2014171908A (en) * 2013-03-11 2014-09-22 Toshiba Corp Medical image processor for preparing blood vessel tree diagram by using anatomical landmark and clinical ontology and method
WO2016159379A1 (en) * 2015-04-02 2016-10-06 イービーエム株式会社 Apparatus and method for constructing blood vessel configuration and computer software program
US20180000441A1 (en) * 2016-06-30 2018-01-04 Shanghai United Imaging Healthcare Co., Ltd. Methods and systems for extracting blood vessel

Also Published As

Publication number Publication date
WO2020054019A1 (en) 2020-03-19

Similar Documents

Publication Publication Date Title
EP3659114B1 (en) Evaluating cardiac motion using an angiography image
JP6894896B2 (en) X-ray image feature detection and alignment systems and methods
KR101478598B1 (en) Image processing apparatus, control method thereof, and computer program
EP2967480B1 (en) Vascular data processing and image registration methods
US7447344B2 (en) System and method for visualization of pulmonary emboli from high-resolution computed tomography images
JP5571654B2 (en) Pulmonary artery segmentation
US8923579B2 (en) Surgery-assistance apparatus, method and computer-readable recording medium storing a program for setting a margin during organ excision
JP2002282235A (en) Automatic segment dividing method for medical image
JP2008529641A (en) Method for automatic extraction of pulmonary artery tree from 3D medical images
US9198603B2 (en) Device, method and program for searching for the shortest path in a tubular structure
Beichel et al. Liver segment approximation in CT data for surgical resection planning
EP2157905A1 (en) A method for tracking 3d anatomical and pathological changes in tubular-shaped anatomical structures
KR20190084380A (en) Method for extracting vascular structure in 2d x-ray angiogram, computer readable medium and apparatus for performing the method
JP2018134393A (en) Method and apparatus for segmentation of blood vessels
JP5105997B2 (en) Medical image processing apparatus, medical image diagnostic apparatus, and program
US20220319004A1 (en) Automatic vessel analysis from 2d images
JP2022079550A (en) Method of operating processor device
WO2021191909A1 (en) Functional measurements of vessels using a temporal feature
JPWO2020054019A1 (en) Image processing equipment, image processing methods, and programs
US20230222668A1 (en) Image processing apparatus, image processing method, and recording medium
CN114708390B (en) Image processing method and device for physiological tubular structure and storage medium
CN112489051B (en) Liver cutting method and system based on blood vessels and lesion areas
US20240087132A1 (en) Segment shape determination
US20240127441A1 (en) Medical image processing device, medical image processing method, and storage medium
CN115760961A (en) Blood vessel image processing method, device, server and post-processing image generation system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210903

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220301