JP2022175787A - Image processing device, image processing method and program - Google Patents
Image processing device, image processing method and program Download PDFInfo
- Publication number
- JP2022175787A JP2022175787A JP2021082479A JP2021082479A JP2022175787A JP 2022175787 A JP2022175787 A JP 2022175787A JP 2021082479 A JP2021082479 A JP 2021082479A JP 2021082479 A JP2021082479 A JP 2021082479A JP 2022175787 A JP2022175787 A JP 2022175787A
- Authority
- JP
- Japan
- Prior art keywords
- cross
- section
- image
- group
- sections
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 182
- 238000003672 processing method Methods 0.000 title claims description 3
- 239000013598 vector Substances 0.000 claims description 96
- 238000000034 method Methods 0.000 claims description 91
- 230000006870 function Effects 0.000 claims description 29
- 238000011156 evaluation Methods 0.000 claims description 10
- 230000009467 reduction Effects 0.000 claims description 4
- 239000000523 sample Substances 0.000 description 90
- 230000008569 process Effects 0.000 description 46
- 238000000513 principal component analysis Methods 0.000 description 16
- 238000010276 construction Methods 0.000 description 10
- 210000004115 mitral valve Anatomy 0.000 description 9
- 238000012986 modification Methods 0.000 description 9
- 230000004048 modification Effects 0.000 description 9
- 230000008859 change Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 230000036544 posture Effects 0.000 description 4
- 238000004590 computer program Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000003745 diagnosis Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 238000002604 ultrasonography Methods 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 210000001765 aortic valve Anatomy 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 210000005246 left atrium Anatomy 0.000 description 2
- 210000005240 left ventricle Anatomy 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 206010002329 Aneurysm Diseases 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000002592 echocardiography Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000007429 general method Methods 0.000 description 1
- 239000012528 membrane Substances 0.000 description 1
- 238000013441 quality evaluation Methods 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000013175 transesophageal echocardiography Methods 0.000 description 1
Images
Landscapes
- Apparatus For Radiation Diagnosis (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、画像処理装置、画像処理方法、およびプログラムに関する。 The present invention relates to an image processing device, an image processing method, and a program.
医用の分野では、超音波画像診断装置など種々の画像診断装置(モダリティ)によって取得される3次元画像が診断に用いられている。3次元画像を用いた診断では、医師は、3次元画像に対して観察対象となる断面(以下、基準断面とも称される)を複数設定し、基準断面上で診断をしたり、計測または機能評価といった種々の画像処理を適用したりする。複数の基準断面(以下、基準断面群とも称する)は、互いに所定の位置関係および角度関係を持つ。例えば、3次元経食道心エコーの観察では、互いに凡そ直交する3つの基準断面が用いられる。 In the medical field, three-dimensional images acquired by various image diagnostic apparatuses (modalities) such as ultrasonic diagnostic imaging apparatuses are used for diagnosis. In diagnosis using a three-dimensional image, a doctor sets a plurality of cross-sections (hereinafter also referred to as reference cross-sections) to be observed in the three-dimensional image, and diagnoses, measures, or performs functions on the reference cross-sections. Various image processing such as evaluation is applied. A plurality of reference cross-sections (hereinafter also referred to as a group of reference cross-sections) have predetermined positional and angular relationships with each other. For example, three-dimensional transesophageal echocardiographic observation uses three reference planes that are approximately orthogonal to each other.
3次元画像の断面を取得する技術として、例えば、特許文献1は、候補断面から探索部位の特徴点を検出し、検出した複数の特徴点の情報を用いて観測用断面を取得する技術を開示する。また、特許文献2は、互いに非直交な2つの断面画像に、互いに異なる断面画像をそれぞれ重畳して表示し、瘤のネック面を調整する技術を開示する。 As a technique for acquiring a cross section of a three-dimensional image, for example, Patent Document 1 discloses a technique for detecting feature points of a search site from candidate cross sections and acquiring observation cross sections using information on a plurality of detected feature points. do. Further, Patent Literature 2 discloses a technique for adjusting the neck surface of an aneurysm by superimposing and displaying mutually different cross-sectional images on two non-orthogonal cross-sectional images.
3次元画像の観察および計測をするための基準断面群は、例えば、人手により設定することができる。即ち、医師などの作業者は、3次元画像上で、いずれの断面が基準断面であるかを特定する。人手による基準断面の設定は、作業者の作業負担を増加させる。また、人手により設定された基準断面は、一貫性および再現性に乏しい場合がある。さらに、探索部位の特徴点の情報を用いて観測用断面を取得しても、基準断面を効率的に探索できない場合がある。 A reference slice group for observing and measuring a three-dimensional image can be set manually, for example. That is, an operator such as a doctor specifies which cross section is the reference cross section on the three-dimensional image. Manually setting the reference cross section increases the workload of the operator. Also, manually set fiducial cross-sections may be inconsistent and reproducible. Furthermore, even if observation cross-sections are obtained using information on feature points of search regions, it may not be possible to efficiently search for reference cross-sections.
本発明は、3次元画像の観察および画像処理に用いる基準断面群を、より高速により高精度で取得する画像処理装置を提供することを目的とする。 SUMMARY OF THE INVENTION An object of the present invention is to provide an image processing apparatus that acquires a group of reference cross-sections used for observation and image processing of a three-dimensional image at a higher speed and with a higher degree of accuracy.
上記課題を解決するため、本発明に係る画像処理装置は、
対象物の3次元画像である入力画像を取得する画像取得部と、
前記入力画像で前記対象物を観察するために設定され、互いに所定の角度関係にある複数の第一の断面からなる第一の断面群と、前記所定の角度関係に基づく制約条件とに基づいて、複数の第二の断面からなる第二の断面群を取得する断面取得部と、
を備えることを特徴とする。
In order to solve the above problems, an image processing apparatus according to the present invention includes:
an image acquisition unit that acquires an input image that is a three-dimensional image of an object;
Based on a first cross-section group consisting of a plurality of first cross-sections set to observe the object in the input image and having a predetermined angular relationship with each other, and a constraint condition based on the predetermined angular relationship , a cross-section acquisition unit that acquires a second cross-section group consisting of a plurality of second cross-sections;
characterized by comprising
本発明によれば、3次元画像の観察および画像処理に用いる基準断面群を、より高速により高精度で取得することができる。 According to the present invention, it is possible to obtain a group of reference cross-sections used for observation and image processing of a three-dimensional image at a higher speed and with a higher degree of accuracy.
以下、図面を参照して、本発明の実施形態を例示的に詳しく説明する。ただし、以下の実施形態に記載されている構成要素はあくまで例示であり、本発明の技術的範囲は、個別の実施形態によって限定されるわけではない。 Embodiments of the present invention will be exemplarily described in detail below with reference to the drawings. However, the components described in the following embodiments are merely examples, and the technical scope of the present invention is not limited by individual embodiments.
実施形態に係る画像処理装置は、被検体(対象物)を撮像した3次元画像(3次元ボリューム)を入力し、2種類以上の基準断面を取得(推定)する機能を提供する。処理対象となる入力画像は、医用画像、すなわち、医学的な診断、検査、研究などの目的で撮影または生成された被検体(人体など)の画像であり、典型的には、モダリティと呼ばれる撮像システムによって取得された画像である。例えば、処理対象になり得る入力画像は、超音波診断装置によって得られる超音波画像、X線CT装置によって得られるX線CT画像、MRI装置によって得られるMRI画像などである。 The image processing apparatus according to the embodiment provides a function of inputting a three-dimensional image (three-dimensional volume) of a subject (object) and acquiring (estimating) two or more types of reference cross sections. The input image to be processed is a medical image, that is, an image of a subject (such as a human body) captured or generated for purposes such as medical diagnosis, examination, and research. 1 is an image acquired by the system; For example, input images that can be processed include ultrasonic images obtained by an ultrasonic diagnostic apparatus, X-ray CT images obtained by an X-ray CT apparatus, MRI images obtained by an MRI apparatus, and the like.
以下の実施形態は、3次元経食道超音波プローブで撮像された心臓領域の3次元画像(3次元経食道心エコー)を対象とする例を用いて、画像処理装置が基準断面群を取得する処理の具体例を詳しく説明する。 In the following embodiments, an image processing apparatus acquires a group of reference cross sections using an example of a three-dimensional image of a heart region (three-dimensional transesophageal echocardiography) captured by a three-dimensional transesophageal ultrasound probe. A specific example of processing will be described in detail.
<第1実施形態>
第1実施形態に係る画像処理装置は、3次元経食道プローブで撮像された3次元画像から、3次元画像に撮影された僧帽弁を観察するために好適な3つの基準断面を取得する。3つの基準断面は互いに凡そ直交であるものとする。
<First Embodiment>
The image processing apparatus according to the first embodiment acquires three reference cross-sections suitable for observing the mitral valve captured in the three-dimensional image from the three-dimensional image captured by the three-dimensional transesophageal probe. It is assumed that the three reference cross sections are approximately orthogonal to each other.
本実施形態は、基準断面が互いに凡そ直交であるという性質を利用する。すなわち、画像処理装置は、まず、3つの断面が互いに直交であるという制約のもとに、第一の断面(暫定基準断面)を取得する。次に、画像処理装置は、第一の断面群(暫定基準断面群)の各第一の断面が相互に直交性を有する状態から乖離しすぎないように各第一の断面を変動させることで、それぞれの第一の断面に対応する第二の断面(基準断面)を取得する。 This embodiment takes advantage of the property that the reference cross-sections are approximately orthogonal to each other. That is, the image processing apparatus first acquires the first cross section (temporary reference cross section) under the constraint that the three cross sections are orthogonal to each other. Next, the image processing apparatus changes the first cross-sections of the first cross-section group (provisional reference cross-section group) so as not to deviate too much from the state in which the first cross-sections are orthogonal to each other. , obtain a second cross-section (reference cross-section) corresponding to each first cross-section.
図1を用いて、3つの第二の断面の例を説明する。図1は、経食道プローブを用いて僧帽弁を撮像した3次元画像を、左心室と左心房の接続部で輪切りにした断面画像を模式的に表している。図1は、大動脈弁101および僧帽弁102を示す。僧帽弁102は、前尖103および後尖104という2つの膜からなる。
An example of three second cross sections will be described with reference to FIG. FIG. 1 schematically shows a cross-sectional image obtained by slicing a three-dimensional image of the mitral valve using a transesophageal probe at the junction of the left ventricle and the left atrium. FIG. 1 shows an
図1において直線で表される断面111は、大動脈弁101の中央と僧帽弁102の中央とを貫く第二の断面であり、A面(YZ平面)と呼ばれる。断面111を表す直線に垂直な直線で表される断面112は、前尖と後尖との接続位置の2か所を貫く第二の断面であり、B面(XZ平面)と呼ばれる。断面113は、左心室と左心房の接続部を輪切りにした第二の断面であり、C面(XY平面)と呼ばれる。A面、B面、C面は、互いに凡そ直交の関係にある第二の断面群である。
A
医師が手動で第二の断面を設定する場合、各第二の断面は、見え方を考慮して、直交関
係からある程度乖離した(角度がずれた)断面に設定される場合がある。本実施形態では、画像処理装置は、互いに直交関係にある複数の第一の断面を取得し、取得した第一の断面の角度を補正することにより、それぞれに対応する第二の断面を取得する。
When the doctor manually sets the second cross-sections, each second cross-section may be set to a cross-section that deviates from the orthogonal relationship to some extent (the angle is shifted) in consideration of the appearance. In the present embodiment, the image processing apparatus obtains a plurality of first cross sections that are orthogonal to each other, corrects the angles of the obtained first cross sections, and obtains corresponding second cross sections. .
[装置構成]
図2を用いて、本実施形態の画像処理装置の構成および処理を説明する。図2は、第1実施形態に係る画像処理システム(医用画像処理システムとも称する)の構成を例示するブロック図である。画像処理システムは、画像処理装置10およびデータベース22を備える。
[Device configuration]
The configuration and processing of the image processing apparatus according to this embodiment will be described with reference to FIG. FIG. 2 is a block diagram illustrating the configuration of an image processing system (also referred to as a medical image processing system) according to the first embodiment. The image processing system includes an
画像処理装置10は、ネットワーク21を介して、データベース22に通信可能な状態で接続されている。ネットワーク21は、例えば、LAN(Local Area Network)およびWAN(Wide Area Network)を含む。なお、画像処理装置10は、データベース22と一体に構成されてもよい。
The
データベース22は、複数の画像および情報を保持し、管理する。データベース22で管理される情報は、画像処理装置10の処理対象となる3次元画像、および学習モデル(学習済モデル)を生成するための学習データ(教師データとも称する)を含む。学習データは、学習用に用意された複数の症例(学習用症例)のデータで構成される。以下では、学習データに含まれる個々の症例のデータを学習用症例データと呼ぶ。夫々の学習用症例データは、各症例の3次元画像、および各画像における正解の第二の断面の情報を含む。データベース22で管理される情報は、学習データの代わりに、学習データから生成された学習モデルの情報を含んでもよい。
The
画像処理装置10は、ネットワーク21を介してデータベース22で保持されているデータを取得することが可能である。なお、データベース22に記憶される情報またはデータベース22に記憶される情報の一部は、画像処理装置10の内部記憶(ROM32または記憶部34)に記憶されてもよい。
The
画像処理装置10は、通信IF(Interface)31、ROM(Read Only Memory)32、RAM(Random Access Memory)33、記憶部34、操作部35、表示部36、および制御部37を備える。
The
通信IF31(通信部)は、例えば、LANカードである。通信IF31は、例えば、データベース22などの外部装置と画像処理装置10との間の通信を実現する。ROM32は、不揮発性のメモリであり、各種プログラムおよび各種データを記憶する。RAM33は、揮発性のメモリであり、実行中のプログラムおよびデータを一時的に記憶するワークメモリとして用いられる。
The communication IF 31 (communication unit) is, for example, a LAN card. The communication IF 31 realizes communication between an external device such as the
記憶部34は、例えば、HDD(Hard Disk Drive)であり、各種プログラムおよび各種データを記憶する。操作部35は、キーボード、マウス、タッチパネルなどであり、医師または検査技師といったユーザーから、画像処理装置10の各ブロックに対する指示の入力を受け付ける。
The
表示部36は、ディスプレイなどであって、各種情報をユーザーに表示する。制御部37は、例えば、CPU(Central Processing Unit)などの1以上のプロセッサを含み、画像処理装置10の処理を統括的に制御する。制御部37は、GPU(Graphics Processing Unit)、DSP(Digital
Signal Processor)、FPGA(Field-Programmable Gate Array)などを含んでもよい。制御部37は、機能的な構成として
、画像取得部41、学習モデル生成部42、第一の断面取得部43、第二の断面取得部44、および表示制御部45を備える。
The display unit 36 is a display or the like, and displays various information to the user. The
Signal Processor), FPGA (Field-Programmable Gate Array), and the like. The
画像取得部41は、処理対象となる入力画像(第二の断面が未設定の3次元画像)をデータベース22から取得する。処理対象となる入力画像は、各種モダリティ(撮像システム)により取得された被検体の画像である。本実施形態での入力画像は、心臓を撮像した3次元超音波画像であるものとする。画像取得部41は、入力画像をモダリティから直接取得してもよい。この場合、画像処理装置10は、モダリティのコンソールとして実装されてもよい。本実施形態では、入力画像が3次元超音波画像である例を説明するが、入力画像は他の種類の画像であってもよい。
The
学習モデル生成部42(第一生成部、第二生成部)は、データベース22から学習データを取得し、学習モデルを構築する。学習データを構成する学習用症例データは、それぞれ、各症例の3次元画像の画素値情報および正解の第二の断面の情報(以下、正解第二断面情報と称する)を含む。学習モデル生成部42は、データベース22から取得した学習データを用いて、第一の断面取得用の学習モデル(第一学習モデル)および第二の断面取得用の学習モデル(第二学習モデル)という2種類の学習モデルを構築する。
The learning model generation unit 42 (first generation unit, second generation unit) acquires learning data from the
第一の断面取得部43は、第一の断面取得用の学習モデルを用いて、第一の断面群を取得する。第一の断面群は、互いに直交する複数の第一の断面を含む。第一の断面取得用の学習モデルは、断面同士が直交するという制約条件の下で3次元画像から断面を取得する学習モデルである。詳しくは、ステップS303の説明で後述する。
The first
第二の断面取得部44は、第二の断面取得用の学習モデルを用いて、第一の断面群の各第一の断面に対応する第二の断面を含む第二の断面群を取得する。第二の断面取得部44は、第一の断面取得部43が取得した第一の断面群を初期値として第二の断面を取得する。第二の断面取得用の学習モデルは、各第一の断面を初期値として、第二の断面同士の位置関係が直交関係から乖離しすぎないという制約の下で、各第一の断面に対応する第二の断面を取得する学習モデルである。詳しくは、ステップS304の説明で後述する。
The second
表示制御部45は、第二の断面取得部44が取得した結果を、表示部36の画像表示領域内に表示する。表示制御部45は、入力画像および取得(推定)した第二の断面の情報を、ユーザーが容易に視認できるような表示形態で、表示部36の画像表示領域内に表示させる。
The
画像処理装置10の各構成要素は、コンピュータプログラムに従って機能する。例えば、制御部37(CPU)は、RAM33をワーク領域としてROM32または記憶部34などに記憶されたコンピュータプログラムを読み込み、実行することで、各構成要素の機能を実現する。
Each component of the
なお、画像処理装置10の構成要素の一部またはすべての機能が専用の回路を用いることで実現されてもよい。また、制御部37の構成要素の一部の機能が、クラウドコンピュータを用いることで実現されてもよい。例えば、画像処理装置10は、ネットワーク21を介して異なる場所にある演算装置に通信可能に接続され、画像処理装置10と演算装置とがデータの送受信を行うことで、画像処理装置10の各構成要素の機能が実現されてもよい。
Note that some or all of the functions of the components of the
[第二の断面取得処理]
図3を用いて、第二の断面取得処理について説明する。図3は、第1実施形態に係る第二の断面取得処理を例示するフローチャートである。
[Second Cross-Section Acquisition Processing]
The second cross-section acquisition process will be described with reference to FIG. FIG. 3 is a flowchart illustrating second cross-section acquisition processing according to the first embodiment.
(ステップS301:画像の取得/表示)
ステップS301において、ユーザーが操作部35を介して画像の取得を指示すると、画像取得部41は、ユーザーが指定した入力画像をデータベース22から取得し、RAM33に格納する。また、表示制御部45は、データベース22から取得した入力画像を表示部36の画像表示領域内に表示する。
(Step S301: Image Acquisition/Display)
In step S<b>301 , when the user instructs image acquisition via the
なお、入力画像の指定方法は、公知のいずれの方法を用いてもよい。例えば、入力画像は、ユーザーにより直接指定されてもよい。また、入力画像は、撮影日時といった所定の基準に基づいて自動で選択されてもよい。例えば、画像取得部41は、未観察の画像のうち直近の撮影日時の画像を、入力画像として選択することができる。
Any known method may be used to specify the input image. For example, the input image may be specified directly by the user. Also, the input image may be automatically selected based on a predetermined criterion such as the shooting date and time. For example, the
(ステップS302:学習モデルの生成)
ステップS302において、学習モデル生成部42は、学習データをデータベース22から取得し、取得した学習データを用いて学習処理を実行することにより、学習装置としての学習モデルを構築する。学習データは、学習用症例として、学習モデルのロバスト性を高めるために、異なる複数の患者を撮影した症例データを含むことが望ましい。また、学習データは、同一患者を撮像した一連の動画像データにおける各フレーム画像、および同一患者を異なる時期に撮影した画像を含んでもよい。
(Step S302: Generate Learning Model)
In step S302, the learning
図4を用いて、本ステップでの学習モデル生成部42の処理を詳述する。図4は、学習モデル取得処理を例示するフローチャートである。
The processing of the learning
(ステップS3021:学習データの画像および正解第二断面情報の取得)
ステップS3021において、学習モデル生成部42は、学習データを、データベース22から取得する。学習データは、各学習用症例の3次元画像および正解第二断面情報を含む。
(Step S3021: Acquisition of learning data image and correct second cross-sectional information)
In step S<b>3021 , the learning
学習データに含まれる各学習用症例の3次元画像は、各軸方向(幅、高さ、奥行)のボクセル数、1ボクセルあたりの物理サイズ、および各ボクセルの画素値を格納する配列という3種類の情報で構成される。 There are three types of 3D images of each learning case included in the learning data: the number of voxels in each axis direction (width, height, depth), the physical size per voxel, and the array that stores the pixel value of each voxel. information.
学習データに含まれる各学習用症例の正解第二断面情報は、当該学習用症例の各第二の断面を定義する情報である。図1で説明したように、学習データの各学習用症例では、A面、B面、C面の3種類の断面が第二の断面として定義されている。3種類の第二の断面は、例えば、以下の式(1)に示す通り、3つのパラメータを有する4本のベクトルで定義される。すなわち3種類の第二の断面は、合計12のパラメータにより定義される。
式(1)で、Cは、3つの第二の断面の交点、すなわち3つの第二の断面が互いに交わる空間中の1点の座標を表す位置ベクトルである。また、NA~NCは、それぞれA面、B面、C面の法線ベクトルを表す。 In equation (1), C is a position vector representing the coordinates of the intersection point of the three second cross-sections, that is, the coordinates of a point in space where the three second cross-sections intersect each other. Also, N A to N C represent the normal vectors of the A plane, B plane, and C plane, respectively.
(ステップS3022:正解第二断面情報の直交化)
ステップS3022において、学習モデル生成部42は、ステップS3021で取得した学習データの各学習用症例に対し、正解第二断面情報を直交化(補正)する。具体的には、学習モデル生成部42は、夫々の学習用症例の各第二の断面を定義する情報(正解第二断面情報)を、互いに直交する断面を表すパラメータに近似して変換する。断面同士が
互いに直交する場合、各第二の断面を定義する情報は、以下の式(2)に示す合計6のパラメータにより表現することができる。
In step S3022, the learning
式(2)で、Cは、式(1)のCと同じく、3つの第二の断面の交点の座標を表す位置ベクトルである。また、Rは、X軸、Y軸、Z軸から対応する各第二の断面の法線ベクトルへの各軸方向の回転角度を表す。S3021で取得した正解第二断面は、第二の断面(の法線ベクトル)同士が互いに直交するように近似することにより、式(1)の場合よりも少ないパラメータで、互いに直交する3つの第二の断面として式(2)のように表すことができる。 In equation (2), C is a position vector representing the coordinates of the intersection of the three second cross sections, like C in equation (1). Also, R represents the rotation angle in each axial direction from the X-axis, Y-axis, and Z-axis to the normal vector of each corresponding second cross section. The correct second cross section acquired in S3021 is obtained by approximating the second cross sections (normal vectors thereof) so that they are orthogonal to each other. It can be expressed as a formula (2) as two cross sections.
本ステップで正解第二断面情報を直交化するための変換処理について、具体的に説明する。学習モデル生成部42は、式(2)のパラメータRを求めることにより、正解第二断面情報を直交化することができる。
The conversion processing for orthogonalizing the correct second cross-sectional information in this step will be specifically described. The learning
ここでは、C面を優先し、変換の前後でC面の向きが変化しない例について説明する。まず、学習モデル生成部42は、C面の法線ベクトルNCとB面の法線ベクトルNBとの外積を計算し、ベクトルNA’を取得する。公知の定理である外積の直交性により、ベクトルNA’は、ベクトルNCおよびベクトルNBの両方と直交する。
Here, an example in which priority is given to the C-plane and the orientation of the C-plane does not change before and after conversion will be described. First, the learning
次に、学習モデル生成部42は、ベクトルNCとベクトルNA’との外積を計算し、ベクトルNB’を取得する。外積の直交性により、ベクトルNB’は、ベクトルNA’およびベクトルNCの両方と直交する。このように、学習モデル生成部42は、ベクトルNA’、ベクトルNB’、ベクトルNCという互いに直交する3本のベクトルを取得する。
Next, the learning
なお、学習モデル生成部42は、C面を優先する場合に限られず、A面またはB面を優先して、互いに直交する3本のベクトルを取得してもよい。A面を優先する場合、学習モデル生成部42は、まずNAおよびNCに直交するNB’を取得し、次にNAおよびNB’に直交するNC’を取得する。同様に、B面を優先する場合、学習モデル生成部42は、まずNBおよびNAに直交するNC’を取得し、次にNBおよびNC’に直交するNA’を取得する。
Note that the learning
学習モデル生成部42は、ベクトルNCがXZ平面上およびYZ平面上でZ軸となす角度をそれぞれrxおよびryとして取得する。また、学習モデル生成部42は、ベクトルNCで定義される平面においてベクトルNB’がX軸となす角度をrzとして取得する。学習モデル生成部42は、変換前の3つの第二の断面の交点の座標を位置ベクトルCとすることで、互いに直交する3つの断面を表す6個のパラメータを取得することができる。
The
なお、正解第二断面情報を直交化するためのパラメータは、ベクトルNA’、ベクトルNB’、ベクトルNCという互いに直交する3本のベクトルが空間中でなす姿勢を表現できればよく、上述したRに限られない。互いに直交する第二の断面群の向き(姿勢)は、R以外のパラメータによって表されてもよい。例えば、互いに直交する第二の断面群の向きは、回転軸および回転角による表現、四元数による表現など、一般的な手法を用いて表現することができる。 It should be noted that the parameters for orthogonalizing the correct second cross-sectional information should be able to express the postures formed in space by three mutually orthogonal vectors, vector N A ', vector N B ', and vector N C . Not limited to R. The orientation (orientation) of the second group of cross sections orthogonal to each other may be represented by a parameter other than R. For example, the orientation of the second group of cross sections that are orthogonal to each other can be expressed using a general method such as expression using a rotation axis and rotation angle, expression using a quaternion, or the like.
また、学習モデル生成部42は、C面を優先して正解第二断面情報を直交化する場合に限られず、他の断面を優先して直交化をしてもよい。さらに、学習モデル生成部42は、特定の断面を優先するのではなく、変換処理の前後で全体的な軸の向きの変化が最小とな
るようなパラメータを探索してもよい。例えば、学習モデル生成部42は、式(2)において適当な6パラメータを初期値とし、第二の断面群の各軸ベクトルとなす角度の誤差を求める。そして、学習モデル生成部42は、勾配法といった公知のパラメータ探索手法を用いて、各軸角度誤差の合計値が最小となるパラメータの組を探索する。
Further, the learning
(ステップS3023:第一の断面取得用学習モデルの構築)
ステップS3023において、学習モデル生成部42(第1生成部)は、ステップS3022で得られた、正解第二断面情報が直交化された学習データを用いて、学習モデルを構築する。第一の断面取得用の学習モデルは、処理対象となる3次元画像から一部を切り出した部分3次元画像(サンプル)を入力として、入力された前記サンプルが第一の断面群を特定するサンプルとして適切であるか否かを出力する学習装置である。
(Step S3023: Construction of learning model for acquiring first cross section)
In step S3023, the learning model generation unit 42 (first generation unit) constructs a learning model using the learning data obtained in step S3022 in which the correct second cross-sectional information is orthogonalized. The learning model for acquiring the first cross section is input with a partial three-dimensional image (sample) obtained by extracting a part from the three-dimensional image to be processed, and the input sample is a sample that specifies the first cross section group. It is a learning device that outputs whether or not it is appropriate as
学習モデル生成部42は、例えば、Random Forestのアルゴリズムから派生した公知の手法であるExtremely Randomized Tree(ERT)を用いて、学習モデルを構築する。ERTは、例えば、非特許文献:Geurts et al., “Extremely Randomized Trees”,Machine Learning, vol.36,number 1,pp.3-42,2006.に開示される手法である。
The learning
以下、学習モデルを構築する具体的な手順を示す。まず、学習モデル生成部42は、学習データに含まれる夫々の学習用症例データの3次元画像および直交化された第二の断面パラメータ(以下、正解位置と称する)の情報を用いて、学習用症例データの3次元画像から一部を切り出したサンプルを生成する。具体的には、学習モデル生成部42は、位置ベクトルCの位置を中心として、パラメータRが示す姿勢に従い、3次元画像から所定の大きさの領域(部分3次元画像)を切り出す。3次元画像から切り出す領域は、例えば50×50×50ボクセルである。
A specific procedure for constructing a learning model is shown below. First, the learning
切り出すサンプル(部分3次元画像)の大きさは、第二の断面を取得する際に観察対象となる被検体(図1の例では、僧帽弁領域)を充分に含む大きさであることが望ましい。切り出されたサンプルは、例えば10×10×10の大きさにリサイズされる。学習モデル生成部42は、10×10×10=1000ボクセル分の画素値を1列に並べたベクトルを求めて、求めたベクトルを正解サンプルとする。一方、非正解サンプルは、正解位置から大きくずれた位置または姿勢で切り出されたサンプルである。
The size of the sample (partial three-dimensional image) to be cut out should be large enough to include the subject (in the example of FIG. 1, the mitral valve region) to be observed when acquiring the second cross section. desirable. The extracted sample is resized to, for example, 10×10×10. The learning
学習モデル生成部42は、1つの学習用症例データから複数(例えば500個ずつ)の正解サンプルおよび非正解サンプルを切り出す。非正解サンプルはほぼ無限に生成可能であるのに対し、1つの学習用症例データから得られる真の正解サンプルは1つである。
The learning
複数の正解サンプルを取得するため、学習モデル生成部42は、正解位置(第二の断面パラメータ)に対して、多少の位置ずれ、姿勢のずれ、スケールの変更などを加えたサンプルも、正解サンプルとする。例えば、正解サンプルの許容範囲は、正解位置を基準として、位置は±5ピクセル、角度は±5度、スケールは0.95倍から1.05倍の間の範囲とする。すなわち、正解サンプルは、許容範囲内で正解位置の位置、姿勢、スケールをランダムに変更して切り出したサンプルとし、非正解サンプルは、許容範囲外で切り出されたサンプルとする。
In order to obtain a plurality of correct samples, the learning
学習モデル生成部42は、S3022で直交化されたそれぞれの学習データに対して、正解サンプルおよび非正解サンプルを切り出す。学習モデル生成部42は、学習データ1症例につき、例えば、500個ずつの正解サンプルおよび非正解サンプルを生成する。
The learning
学習モデル生成部42は、生成した正解サンプルおよび非正解サンプルを用いて、識別器(学習モデル)を構築する。学習モデル生成部42は、例えば、ERTを用いて、入力された未知のサンプルが、正解サンプルか非正解サンプルかを識別する識別器を構築することができる。
The learning
なお、識別器の構築は、ERTを用いる場合に限られず、学習データに基づいてパラメータを推定する手法であれば、任意の手法を適用可能である。例えば、識別器は、決定木、ニューラルネットワーク、深層学習、SVM(Support Vector Machine)を用いた機械学習により構築されてもよい。 Note that construction of the classifier is not limited to the case of using ERT, and any method can be applied as long as it is a method of estimating parameters based on learning data. For example, the discriminator may be constructed by machine learning using a decision tree, neural network, deep learning, or SVM (Support Vector Machine).
また、学習モデルは、学習用症例データの3次元画像の画素値を用いて構築する例で説明したが、3次元画像に所定の画像処理を適用したデータを用いて構築することも可能である。例えば、学習モデル生成部42は、所定の方向に画素値を微分した微分画像を生成し、該微分画像からサンプルを切り出してもよい。また、学習モデル生成部42は、ノイズ低減または先鋭化といった画質改善処理を適用した画像からサンプルを切り出してもよい。
In addition, although the learning model is constructed using the pixel values of the three-dimensional image of the case data for learning, it is also possible to construct the learning model using data obtained by applying predetermined image processing to the three-dimensional image. . For example, the learning
(ステップS3024:第二の断面取得用学習モデルの構築)
ステップ2024において、学習モデル生成部42(第2生成部)は、ステップS3021で得られた(直交化される前の)学習データを用いて、学習モデルを構築する。ステップS3023と同様に、学習モデル生成部42は、ERTにより学習モデルを構築することができる。基準断面取得用の学習モデルは、断面画像を入力として、入力された断面画像が基準断面として適切であるか否かを出力する学習装置であり、断面毎に生成される。
(Step S3024: Construction of second cross-section acquisition learning model)
In step 2024, the learning model generation unit 42 (second generation unit) constructs a learning model using the learning data (before being orthogonalized) obtained in step S3021. As in step S3023, the learning
ステップS3023で構築する第一の断面取得用学習モデルとステップ2024で構築する第二の断面取得用学習モデルとの違いについて説明する。第一の断面取得用学習モデルは、式(2)における位置ベクトルCおよびパラメータRに含まれる合計6個のパラメータを推定するための学習モデルである。 The difference between the first learning model for cross-section acquisition built in step S3023 and the second learning model for cross-section acquisition built in step S2024 will be described. The first cross-section acquisition learning model is a learning model for estimating a total of six parameters included in the position vector C and the parameter R in Equation (2).
一方、第二の断面取得用学習モデルでは、第一の断面の取得により、式(2)における位置ベクトルCおよびパラメータRは、分かっていると仮定される。第二の断面取得用学習モデルは、式(1)における位置ベクトルCおよび法線ベクトルNA~法線ベクトルNCという合計12個のパラメータを求めるための学習モデルである。 On the other hand, in the second cross-section acquisition learning model, it is assumed that the position vector C and the parameter R in equation (2) are known from acquisition of the first cross-section. The second cross-section acquisition learning model is a learning model for obtaining a total of 12 parameters of the position vector C and the normal vectors N A to N C in Equation (1).
学習モデル生成部42は、第二の断面取得用学習モデルの構築では、まず、交点座標の位置ベクトルCとして、第一の断面取得で得られる値をそのまま採用する。次に、学習モデル生成部42は、ベクトルNA~ベクトルNCという3つの法線ベクトルを推定(取得)するために、それぞれA面取得用、B面取得用、C面取得用の第二の断面毎の3つの学習モデルを用いる。第一の断面取得用のモデルは、3次元画像(部分3次元画像)をサンプルとして構築されるのに対して、A面、B面、C面の第二の断面取得用の3つの学習モデルは、2次元画像(断面画像)をサンプルとして用いる。
In constructing the learning model for acquiring the second cross section, the learning
以下、3つの第二の断面の学習モデル構築手順について説明する。まず、学習モデル生成部42は、学習データに含まれる夫々の学習用症例データの3次元画像および第二の断面パラメータ(正解位置)を用いて、学習用症例データの3次元画像からA面、B面、C面の断面画像を切り出したサンプルを生成する。
The procedure for constructing the learning model for the three second cross sections will be described below. First, the learning
具体的には、学習モデル生成部42は、A面の断面画像サンプルを生成する場合、位置ベクトルCの位置を中心として法線ベクトルNAの姿勢に従い、断面画像を所定の大きさ
(例えば50×50ピクセル)で切り出す。学習モデル生成部42は、切り出したサンプルを、例えば10×10ピクセルの大きさにリサイズする。学習モデル生成部42は、10×10=100ピクセル分の画素値を1列に並べたベクトルを、正解サンプルとして取得する。
Specifically, when generating a cross-sectional image sample of the plane A , the learning
学習モデル生成部42は、B面およびC面に対しても同様に、正解サンプルのベクトルを取得する。また、学習モデル生成部42は、ステップS3023と同様の手順を用いて、1つの学習用症例データから所定数(例えば500個ずつ)の正解サンプルおよび非正解サンプルを生成する。
The learning
識別器の構築方法は、ステップS3023と同様である。ただし、学習モデル生成部42は、ステップS3023では1つの学習モデルを生成するのに対し、ステップS3024では、A面、B面、C面の第二の断面取得用の3つの学習モデルを生成する。
The classifier construction method is the same as in step S3023. However, while the learning
なお、ステップS3023の場合と同様に、学習モデルの生成は、ERTを用いる場合に限られず、学習データに基づいてパラメータを推定する手法であれば、任意の方法を適用可能である。 As in the case of step S3023, generation of the learning model is not limited to the case of using ERT, and any method can be applied as long as it is a method of estimating parameters based on learning data.
また、学習モデル生成部42は、ステップS3023とステップS3024とで、異なる手法で学習モデルを構築してもよい。例えば、学習モデル生成部42は、ステップS3023ではERTに基づく学習モデルを構築し、ステップS3024では深層学習に基づく学習モデルを構築してもよい。
Also, the learning
また、ステップS3023の場合と同様、学習モデル生成部42は、学習用症例データの3次元画像の画素値ではなく、画素値を微分する微分処理、ノイズ低減、先鋭化といった任意の画像処理を適用した画像からサンプルを切り出してもよい。学習モデル生成部42は、ステップS3023とステップS3024とでは、異なる画像処理を適用した画像を用いてもよい。例えば、学習モデル生成部42は、ステップS3023では微分画像を用いて学習モデルを構築し、ステップS3024では、先鋭化を施した画像を用いて学習モデルを構築してもよい。
In addition, as in step S3023, the learning
学習モデル生成部42は、以上により、ステップS302の学習モデルの生成処理を実行する。なお、ステップS302の学習モデルの生成処理は、入力画像に対して画像処理装置10が実行する第二の断面取得処理とは独立した処理である。したがって、ステップS302の処理は、事前に実施しておくことができる。生成された学習モデルは、例えば、データベース22または記憶部34などの記憶装置に保存される。
The learning
あらかじめ学習モデルを生成しておいた場合、ステップS302において、学習モデル生成部42は、記憶装置から学習モデルを読み込んでRAM33に格納する。あらかじめ学習モデルを生成しておくことで、入力画像に対する第二の断面取得処理の処理時間は短縮される。なお、学習モデルの生成処理は、ステップS302に示した手順によって、画像処理装置10とは異なる他の装置で実行されてもよい。
When the learning model is generated in advance, the learning
(ステップS303:第一の断面群の取得)
ステップS303において、第一の断面取得部43は、ステップS301で取得される入力画像と、ステップS3023で生成される第一の断面取得用学習モデルを用いて、第一の断面群を取得する。第一の断面取得部43は、互いに直交する3つの第一の断面の位置および姿勢を算出する。すなわち、第一の断面取得部43は、入力画像に対して、式(2)で示す合計6個のパラメータを算出する。
(Step S303: Acquisition of first group of cross sections)
In step S303, the first
第一の断面取得部43は、公知の識別器であるERTを用いて第一の断面群を取得する。識別器は、入力画像から切り出した未知のサンプル(部分3次元画像)が入力されると、入力されたサンプルが第一の断面群として適切なサンプル(正解サンプル)か、第一の断面群として適切でないサンプル(非正解サンプル)かを識別する。第一の断面取得部43は、識別器により正解と判定されたサンプルに基づいて第一の断面群を取得する。
The first
図5を用いて、本ステップでの第一の断面取得部43の処理を詳述する。図5は、第一の断面取得処理を例示するフローチャートである。
The processing of the first
ステップS3031において、第一の断面取得部43は、学習モデル構築の際、画像処理が適用されたか否かを判定する。学習モデル構築の際、画像処理が適用された場合、処理はS3032に進む。学習モデル構築の際、画像処理が適用されなかった場合、処理はS3033に進む。
In step S3031, the first
ステップS3032において、第一の断面取得部43は、入力画像に、学習モデルを構築した際に適用した画像処理と同一の画像処理を適用する。例えば、学習モデルが微分画像を用いて構築されている場合、第一の断面取得部43は、入力画像に対しても微分処理を施す。学習モデルを構築した際に適用した画像処理と同一の画像処理を施した画像は、前処理済み画像と称する。
In step S3032, the first
ステップS3033において、第一の断面取得部43は、入力画像または前処理済み画像から事前に定められた範囲の中でランダムにパラメータを変動させてサンプル(部分3次元画像)を切り出す。事前に定められた範囲は、例えば、入力画像(前処理済み画像)の中心を基準として各軸方向±100ボクセル、および各軸方向±45度の範囲とすることができる。サンプルの切り出しは、具体的には、第一の断面取得用学習モデルの構築(ステップS3023)と同様で方法で行う。ここで切り出されるサンプルの一つ一つが、切り出しに用いたパラメータ(位置と姿勢)で定義される第一の断面群の候補(仮説)を表す。第一の断面取得部43は、切り出したサンプルを第一の断面取得用識別器に入力し、入力したサンプルが正解サンプルか不正解サンプルかを判定する。サンプルの切り出しと識別という一連のプロセスは、所定回数(例えば10,000回)実行される。
In step S3033, the first
ステップS3034において、第一の断面取得部43は、正解と判定されたサンプル(第一の断面群の候補)から第一の断面群を取得する。正解と判定されたサンプルが一つの場合、第一の断面取得部43は、当該サンプルの位置と姿勢を、第一の断面群のパラメータ(以下、第一の断面パラメータとも称する)として出力する。一方、正解と判定されたサンプルが複数存在する場合、第一の断面取得部43は、正解と判定されたサンプルの平均位置および平均角度を、第一の断面群のパラメータとして出力する。取得した第一の断面パラメータは、位置ベクトルCcおよびパラメータRcとする。
In step S3034, the first
なお、正解と判定されるサンプルが見つからなかった場合、第一の断面取得部43は、第一の断面群が見つからなかった旨をユーザーに通知するダイアログボックスを、表示部36に表示してもよい。
It should be noted that if no sample determined to be correct is found, the first
また、第一の断面取得部43は、正解と判定されたサンプルが複数存在する場合、平均位置および平均角度を本ステップの出力とすることができるが、これに限られない。例えば、第一の断面取得部43は、正解と判定されたサンプル群にK近傍法といった公知のクラスタリングを適用し、サンプル数が多いクラスタに含まれるサンプルを用いて平均位置および平均角度を算出してもよい。
In addition, when there are a plurality of samples determined to be correct, the first
また、第一の断面取得部43は、正解と判定されたサンプルのうち画素値のコントラス
トが閾値よりも高いサンプルを選択し、平均位置および平均角度を算出してもよい。このように、第一の断面取得部43は、正解と判定されたサンプルのうち所定の基準を満たすサンプルを選択して、平均位置および平均角度を算出することができる。
Further, the first
また、正解と判定されたサンプルが見つからなかった場合、第一の断面取得部43は、第一の断面が見つからなかった旨をユーザーに通知するのではなく、適切なパラメータを本ステップの出力(第一の断面)として、処理を続行してもよい。適切なパラメータは、例えば、第一の断面取得用学習モデルの構築で用いられた正解サンプルの学習データにおける平均位置および平均角度とすることができる。
Further, when no sample determined to be correct is found, the first
また、第一の断面取得部43は、例えば位置の3パラメータを算出し、算出済みの位置のパラメータを固定して、角度の3パラメータを算出してもよい。反対に、第一の断面取得部43は、角度の3パラメータを算出し、算出済みの角度のパラメータを固定して、位置の3パラメータを算出してもよい。
Alternatively, the first
さらに、本ステップの第一の断面群の取得処理は、観察対象である僧帽弁の位置と姿勢を定義する直交座標系を求める問題と捉えて、3次元画像中における対象物の位置および姿勢を推定する公知の手法により実行されてもよい。例えば、僧帽弁の3次元画像テンプレートを作成し、テンプレートマッチング手法により僧帽弁の位置と姿勢を推定してもよい。 Furthermore, the acquisition processing of the first slice group in this step is regarded as a problem of obtaining an orthogonal coordinate system that defines the position and orientation of the mitral valve to be observed. may be performed by a known method of estimating For example, a three-dimensional image template of the mitral valve may be created, and the position and orientation of the mitral valve may be estimated by template matching techniques.
(ステップS304:第二の断面群の取得)
ステップS304において、第二の断面取得部44は、各第二の断面を取得する。第二の断面取得部44は、ステップS301で取得される入力画像と、ステップS303で算出される第一の断面パラメータCcおよびRcと、ステップS3024で生成される第二の断面取得用学習モデルと、を用いて各第二の断面を取得する。
(Step S304: Acquisition of second group of cross sections)
In step S304, the second
例えば、第二の断面取得部44は、入力画像に対して、式(1)で示す合計12個のパラメータで表される各第二の断面の向きを算出(補正)することにより、第二の断面を取得することができる。第二の断面取得部44は、ステップS303と同様、ERT識別器を用いて第二の断面群を取得する。
For example, the second
図6を用いて、本ステップでの第二の断面取得部44の処理を詳述する。図6は、第二の断面取得処理を例示するフローチャートである。
The processing of the second
S3041において、第二の断面取得部44は、第一の断面パラメータのうち角度パラメータRcを、それぞれの第一の断面の法線ベクトルNAc、NBc、NCcへと変換する。第二の断面取得部44は、入力画像におけるX軸、Y軸、Z軸ベクトルを、角度パラメータRcの各パラメータに基づいて回転させることでそれぞれの第一の断面の法線ベクトルを取得することができる。
In S3041, the second
ステップS3042において、第二の断面取得部44は、学習モデル構築の際、画像処理が適用されたか否かを判定する。学習モデル構築の際、画像処理が適用された場合、処理はS3043に進む。学習モデル構築の際、画像処理が適用されなかった場合、処理はS3044に進む。
In step S3042, the second
ステップS3043において、第二の断面取得部44は、入力画像に対して、学習モデルを構築した際に適用した画像処理と同一の画像処理を適用する。例えば、学習モデルが微分画像を用いて構築されている場合、第二の断面取得部44は、入力画像に対しても微分処理を施す。学習モデルを構築した際に適用した画像処理と同一の画像処理を施した画
像は、前処理済み画像と称する。
In step S3043, the second
ステップS3044において第二の断面取得部44は、それぞれの第一の断面に基づいて、入力画像または前処理済み画像から各第二の断面のサンプルを切り出す。ステップS3033とは異なり、本ステップで切り出すサンプルは2次元断面画像である。第二の断面取得部44は、位置ベクトルCcを固定した状態で、A面、B面、C面のそれぞれのサンプルを切り出す。
In step S3044, the second
第二の断面取得部44は、法線ベクトルNAcを中心とした所定角度の範囲内で(すなわち、第一の断面である法線ベクトルNAcを初期値として)ランダムにサンプルを切り出し、A面のサンプルとする。同様に、第二の断面取得部44は、B面およびC面のサンプルを切り出す。ここで切り出されるサンプルの一つ一つが、切り出しに用いたパラメータ(姿勢)で定義される各第二の断面の候補(仮説)を表す。なお、A面のサンプルは、位置Cおよび法線ベクトルNAcに基づいて切り出されたものであれば、必ずしもNAcを中心として(すなわち、初期値として)切り出されたものでなくてもよい。例えば、あるA面のサンプルが与えられたときに、位置Cおよび法線ベクトルNAcに対する差異と画質評価指標(例えば輝度コントラスト)との重みづけ和によって計算されるコスト関数を定義する。そして、入力画像からランダムにA面のサンプルを切り出して、前記コスト関数値が一定以下となるA面のサンプルを採用するようにすることができる。
The second
第二の断面取得部44は、A面、B面、C面のサンプルを切り出す際、それぞれの2次元断面サンプルが、互いに直交する関係から乖離しすぎないように切り出す。例えば、第二の断面取得部44は、サンプルを切り出す所定角度の範囲を、各法線ベクトルを中心とした±5度とすることで、直交関係から乖離しすぎないように、サンプルを切り出すことができる。
The second
また、各面の2次元断面サンプルが、互いに直交する関係から乖離しすぎないように切り出す方法の他の具体例について説明する。まず、第二の断面取得部44は、A面のサンプルを切り出したあと、A面の各サンプルの法線ベクトルの平均値から所定の角度(例えば±10度)以上乖離しているサンプルを棄却する。なお、第二の断面取得部44は、A面の各サンプルの法線ベクトルの平均値ではなく、法線ベクトルNAから所定の角度以上乖離しているサンプルを棄却するようにしてもよい。
Another specific example of a method of cutting out two-dimensional cross-sectional samples of each surface so as not to deviate too much from the relationship of being perpendicular to each other will be described. First, the second
次に、第二の断面取得部44は、B面のサンプルを切り出し、A面の法線ベクトルの平均値と、切り出したB面のサンプルの法線ベクトルとの角度を算出する。第二の断面取得部44は、切り出したB面の法線ベクトルが、A面の法線ベクトルの平均値と、直交(90度)関係から所定の角度(例えば±10度)以上乖離している場合、当該B面のサンプルは棄却する。
Next, the second
同様に、第二の断面取得部44は、C面のサンプルを切り出し、A面の法線ベクトルの平均値およびB面の法線ベクトルの平均値と、切り出したC面のサンプルの法線ベクトルとの角度を算出する。第二の断面取得部44は、切り出したC面の法線ベクトルが、A面の法線ベクトルの平均値またはB面の法線ベクトルの平均値と、直交(90度)関係から所定角度(例えば±10度)以上乖離している場合、当該C面のサンプルは棄却する。
Similarly, the second
このように、第二の断面取得部44は、A面、B面、C面が、互いに直交関係からの乖離が、所定角度の範囲内となるサンプルの組を第二の断面群の候補として取得する。なお、上述の例では、第二の断面取得部44は、A面を基準としてB面およびC面が直交関係から乖離しているか否かを判定するが、B面またはC面を基準として他の2つの面が直交関係から乖離しているか否かを判定してもよい。
In this way, the second
第二の断面取得部44は、第二の断面群の候補として取得したサンプルの組を、第二の断面取得用識別器に入力する。入力されたサンプルの組は、第二の断面群として適切なサンプルの組(正解サンプル組)か、第二の断面群として適切でないサンプルの組(不正解サンプル組)かを判定される。そのために、第二の断面取得部44は、まず、A面、B面、C面のサンプルを、それぞれ、A面用、B面用、C面用の第二の断面識別器に入力し、正解サンプルか非正解サンプルかを判定する。そして、第二の断面取得部44は、A面、B面、C面の各サンプルが夫々の識別器でいずれも正解サンプルと判定されたサンプルの組(第二の断面群の候補)を、正解サンプル組として取得する。ステップS3033と同様、S3044の処理(正解サンプル組か不正解サンプル組かの判定処理)は、所定回数(例えば10,000回)実行される。
The second
ステップS3045において、第二の断面取得部44は、正解と判定されたサンプルの組(第二の断面群の候補)から、出力する第二の断面群を取得する。正解と判定されたサンプルの組が一つの場合、第二の断面取得部44は、当該サンプルの組が表す第二の断面のパラメータ(以下、第二の断面パラメータとも称する)を出力する。一方、正解と判定されたサンプルの組が複数存在する場合、第二の断面取得部44は、複数の正解サンプル組における各断面のサンプルの平均法線ベクトルを夫々の第二の断面パラメータとして出力する。
In step S3045, the second
なお、正解と判定されるサンプルが見つからなかった場合、第二の断面取得部44は、第二の断面が見つからなかった旨をユーザーに通知するダイアログボックスを、表示部36に表示してもよい。
Note that if no sample determined to be correct is found, the second
また、ステップS303と同様に、第二の断面取得部44は、クラスタリングの結果でサンプル数が多いクラスタに含まれるサンプルの平均法線ベクトルを用いてもよい。また、第二の断面取得部44は、画像の輝度コントラストなどの基準に基づいて選択されたサンプルを用いてもよい。さらに、正解と判定されたサンプルが見つからなかった場合、第二の断面取得部44は、第一の断面(すなわち、位置ベクトルCc、および法線ベクトルNAc、NBc、NCc)をそのまま出力してもよい。
Also, as in step S303, the second
(ステップS305:第二の断面取得結果の表示)
ステップS305において、表示制御部45は、入力画像をステップS304で得られる各第二の断面で切り出した断面画像を、表示部36の画像表示領域内に表示する。表示制御部45は、断面画像に加えて、入力画像である3次元画像をサーフェイスレンダリングまたはボリュームレンダリングといった公知の表示手法を用いて2次元画像とした画像を表示してもよい。
(Step S305: Display of Second Cross-Section Acquisition Result)
In step S<b>305 , the
表示制御部45は、図1に例示するように、ある第二の断面の断面画像を表示する際、当該第二の断面に交差する他の第二の断面を表す直線を、当該断面画像上に重畳して描画してもよい。図1は、C面(断面113)の画像上に、A面(断面111)およびB面(断面112)を表す直線が描画されている例を示す。
As illustrated in FIG. 1, when displaying a cross-sectional image of a certain second cross-section, the
また、表示制御部45は、直線で表された第二の断面が、表示されている断面と直交する角度から、どの程度乖離しているかを示す乖離の度合いの情報を、さらに表示してもよい。例えば、表示制御部45は、第二の断面を表す直線の近傍に「直交から10度乖離」といった文字情報を表示してもよく、乖離の度合いを直線の色または太さなどの表示態様によって表現してもよい。第二の断面の乖離の度合いが表示されることで、ユーザーは、第二の断面取得結果において、各第二の断面が相互にどの程度の直交性を保っているかを、容易に観察することが可能である。
In addition, the
なお、3次元画像の解析や計測を目的とする場合には、ステップS305の処理は省略することができる。この場合、画像処理装置10は、取得した第二の断面情報を記憶装置に保存し、図3に示す処理を終了する。
Note that if the purpose is to analyze or measure a three-dimensional image, the process of step S305 can be omitted. In this case, the
なお、第一の断面取得部43は、ステップS303において複数の正解サンプルが得られた場合に、平均をとることで1組の第一の断面群のパラメータに限定するが、これに限られない。第一の断面取得部43は、複数組の正解サンプル(第一の断面群)のパラメータをそのまま第二の断面取得部44に受け渡してもよい。第二の断面取得部44は、受け渡された第一の断面群の数だけステップS304の処理を実行する。第二の断面取得部44は、各第一の断面群に基づいて取得した複数の第二の断面の平均をとることで、1組の第二の断面群を取得することができる。複数組の第一の断面群に基づいて第二の断面群を取得することで、不適切な局所解に陥るリスクは軽減される。
Note that, when a plurality of correct samples are obtained in step S303, the first
第1実施形態では、第二の断面群は、第二の断面同士が直交であるという角度関係から乖離しすぎないように取得される。すなわち、画像処理装置10は、第二の断面同士の角度関係が、直交関係からの乖離が所定角度の範囲内となるように、解の探索範囲を制約する。これにより、画像処理装置10は、3次元画像の観察または画像処理に用いる第二の断面群を、高速でより高精度に取得することができる。
In the first embodiment, the second cross-section group is acquired so as not to deviate too much from the angular relationship that the second cross-sections are orthogonal to each other. That is, the
(変形例1)
第1実施形態は、第二の断面同士が凡そ直交の角度関係の状態である第二の断面群を取得する例を示す。これに対し、変形例1では、取得する第二の断面同士の角度関係は、直交関係でなくてもよい。変形例1では、第二の断面同士の角度関係は、あらかじめ設定された所定の角度関係とすることができる。以下では、図3の第二の断面取得処理および図3の学習モデル生成処理の各ステップの処理のうち、第1実施形態と異なる処理について説明する。
(Modification 1)
The first embodiment shows an example of acquiring a second group of cross-sections in which the second cross-sections are in an approximately orthogonal angular relationship. On the other hand, in Modification 1, the angular relationship between the acquired second cross sections does not have to be an orthogonal relationship. In Modification 1, the angular relationship between the second cross sections can be a predetermined angular relationship set in advance. In the following, among the processing of each step of the second cross-section acquisition processing in FIG. 3 and the learning model generation processing in FIG. 3, processing that differs from the first embodiment will be described.
第二の断面同士が直交以外の角度関係である例として、3次元経胸骨心エコーの3次元画像から、四腔像(A4C)、二腔像(A2C)、三腔像(A3C)の3種類の第二の断面を取得する例が挙げられる。四腔像(A4C)と二腔像(A2C)とは、凡そ直交の関係である。しかしながら、三腔像(A3C)は、四腔像(A4C)に対して約50度回転した断面であり、四腔像(A4C)との角度関係は直交ではない。 As an example in which the second slices have an angular relationship other than orthogonal, three-dimensional images of three-dimensional transsternal echocardiography, four-chamber image (A4C), two-chamber image (A2C), and three-chamber image (A3C), are obtained. An example is taking a second cross-section of a species. The four-chamber view (A4C) and the two-chamber view (A2C) are approximately orthogonal. However, the three-chamber view (A3C) is a cross-section rotated approximately 50 degrees with respect to the four-chamber view (A4C), and the angular relationship with the four-chamber view (A4C) is not orthogonal.
変形例1では、ステップS3022の正解第二断面情報の直交化において、三腔像(A3C)を定義する断面は、他の2断面と直交するのではなく、四腔像(A4C)の断面に対して50度の角度を保つように揃えられる。三腔像(A3C)の断面は、四腔像(A4C)の断面との角度関係が直交関係でない場合であっても、式(2)に示す6パラメータにより、一意に表すことができる。 In Modified Example 1, in the orthogonalization of the correct second cross-section information in step S3022, the cross-section defining the three-chamber view (A3C) is not orthogonal to the other two cross-sections, but to the cross-section of the four-chamber view (A4C). are aligned so as to maintain an angle of 50 degrees. The section of the three-chamber image (A3C) can be uniquely represented by the six parameters shown in Equation (2) even if the angular relationship with the section of the four-chamber image (A4C) is not orthogonal.
ステップS3023、S303で、パラメータをランダムに変動させてサンプルを生成する際、三腔像(A3C)の断面が四腔像(A4C)の断面に対して50度から所定の角度以上乖離しているサンプルは、正解サンプルからも非正解サンプルからも棄却する。 In steps S3023 and S303, when samples are generated by randomly varying the parameters, the section of the three-chamber image (A3C) deviates from the section of the four-chamber image (A4C) by a predetermined angle or more from 50 degrees. Samples are rejected from both correct and non-correct samples.
ステップS304で、各断面のサンプルを切り出す際、四腔像(A4C)の断面に対して直交から所定の角度以上乖離している二腔像(A2C)のサンプルは、第二の断面の候補から棄却する。また、四腔像(A4C)の断面に対して50度から所定の角度以上乖離している三腔像(A3C)のサンプルは、第二の断面の候補から棄却する。 In step S304, when cutting out a sample of each cross section, the sample of the two-chamber view (A2C) that deviates from the cross section of the four-chamber view (A4C) by a predetermined angle or more from the cross section of the four-chamber view (A4C) is selected from the candidates for the second cross section. reject. In addition, the sample of the three-chamber view (A3C), which deviates from the cross-section of the four-chamber view (A4C) by a predetermined angle or more from 50 degrees, is rejected from the candidates for the second cross-section.
変形例1では、第二の断面同士が凡そ直交する角度関係でない場合でも、画像処理装置
10は、3次元画像の観察または画像処理に用いる第二の断面群を、高速でより高精度に取得することができる。
In Modified Example 1, even if the second cross sections are not in a substantially orthogonal angular relationship, the
(変形例2)
第1実施形態は、第一の断面群および第二の断面群を画像処理装置10が自動で取得する例を示す。これに対し変形例2では、画像処理装置10は、医師などのユーザーから第一の断面群の入力を受け付け、入力された第一の断面群に基づいて、第二の断面群を取得する。以下では、図3の第二の断面取得処理および図3の学習モデル生成処理の各ステップの処理のうち、第1実施形態と異なる処理について説明する。
(Modification 2)
The first embodiment shows an example in which the
変形例2では、第一の断面群は、ユーザーにより手動で入力される。ステップS303の第一の断面群の取得処理では、表示制御部45は、表示部36に第一の断面を手動で入力するためのユーザーインタフェース(UI)を表示する。ユーザーは、第一の断面を入力するためのUIに対し、操作部35を介して第一の断面を入力する。
In Modified Example 2, the first cross-section group is manually input by the user. In the acquisition process of the first cross-section group in step S303, the
第一の断面を入力するためのUIは、互いに直交な3つの第一の断面を指定できるものであればよい。例えば、表示制御部45は、3次元画像をYZ平面、XZ平面、XY平面という3つの面で切断した断面画像をタイル状に並べて表示する。表示制御部45は、それぞれの断面画像上に、マウス操作で移動または回転可能な十字図形を表示する。
Any UI for inputting the first cross-section should be able to specify three mutually orthogonal first cross-sections. For example, the
例えば、図1において、YZ平面上に表示される十字図形は、B面およびC面がYZ平面と交差する交線を表す。同様に、XZ平面上に表示される十字図形は、A面およびC面がXZ平面と交差する交線を表し、XY平面上に表示される十字図形は、A面およびB面がXY平面と交差する交線を表す。 For example, in FIG. 1, the cross displayed on the YZ plane represents the line of intersection where the B plane and C plane cross the YZ plane. Similarly, the cross displayed on the XZ plane represents the line of intersection of the A plane and the C plane with the XZ plane, and the cross displayed on the XY plane represents the intersection of the A plane and the B plane with the XY plane. Represents intersecting intersection lines.
ユーザーは、それぞれの断面画像において、マウスによって十字図形を移動または回転させることで第一の断面を入力することができる。いずれかの断面画像の十字図形の位置および角度が変更されると、表示制御部45は、他の2つの断面画像に変更結果を反映する。表示制御部45が第一の断面の入力を受け付けることで、ユーザーは、直交性の制約を保ったまま、直感的に第一の断面群を手動で入力することができる。
The user can input the first cross section by moving or rotating the cross with the mouse in each cross section image. When the position and angle of the cross in one of the cross-sectional images are changed, the
(変形例3)
第1実施形態では、ステップS3024で第二の断面取得用の学習モデルを構築し、ステップS304で第二の断面群を取得する際、第二の断面取得部44は、入力画像から2次元断面画像を切り出して用いる。これに対し、変形例3では、第二の断面取得部44は、3次元画像(部分3次元画像)を切り出して用いてもよい。以下では、図3の第二の断面取得処理および図3の学習モデル生成処理の各ステップの処理のうち、第1実施形態と異なる処理について説明する。
(Modification 3)
In the first embodiment, the learning model for acquiring the second cross section is constructed in step S3024, and when acquiring the second group of cross sections in step S304, the second cross
ステップS3024およびステップS304で、第二の断面取得部44が切り出すサンプルは、2次元画像(例えば10×10ピクセル)ではなく、3次元画像(例えば10×10×10ピクセル)となる。また、ステップS304において、A面、B面、C面が互いに凡そ直交であることを判定する処理は、各3次元画像サンプルを切り出す際に用いる法線ベクトル同士の角度を算出して判定する処理となる。すなわち、第二の断面取得部44は、法線ベクトル同士の角度が互いに直交する関係から所定の角度以上乖離しているサンプルを棄却する。
In steps S3024 and S304, the sample cut out by the second
変形例3で、部分3次元画像のサンプルを用いて第二の断面群を取得する場合でも、画像処理装置10は、2次元画像のサンプルを用いた場合と同様に、第二の断面群を高速でより高精度に取得することができる。
In Modification 3, even when the second group of cross-sections is acquired using samples of partial three-dimensional images, the
<第2実施形態>
第2実施形態に係る画像処理装置10は、第1実施形態と同様に、処理対象である3次元画像(入力画像)から所定の第二の断面を取得(推定)する。第1実施形態は、第一の断面群を取得したあと、取得した第一の断面群を初期位置として第二の断面を取得する実施形態である。これに対し、第2実施形態は、第一の断面群の質を評価して、所定の条件を満たす場合には第二の断面取得処理を実行することなく、取得した第一の断面をそのまま第二の断面として出力する実施形態である。
<Second embodiment>
As in the first embodiment, the
[装置構成]
図7を用いて、本実施形態の画像処理装置の構成および処理を説明する。図7は、第2実施形態に係る画像処理システムの構成を例示するブロック図である。第1実施形態と同様の構成については、図2と同一の符号を付して説明は省略する。以下、第1実施形態との相違点について説明する。
[Device configuration]
The configuration and processing of the image processing apparatus of this embodiment will be described with reference to FIG. FIG. 7 is a block diagram illustrating the configuration of an image processing system according to the second embodiment. The same reference numerals as in FIG. 2 are assigned to the same configuration as in the first embodiment, and the description thereof is omitted. Differences from the first embodiment will be described below.
画像処理装置10は、図2に示す構成に加えて判定部51を備える。判定部51は、第一の断面取得部43によって取得された第一の断面群が、第二の断面群として妥当か否かを判定する。判定方法の詳細は、図8のステップS804の説明で後述する。
The
取得された第一の断面群が第二の断面群として妥当と判定された場合、第二の断面取得処理は実行されない。表示制御部45は、第一の断面群を第二の断面群であるとみなして、第1実施形態と同様に、表示部36の画像表示領域内に表示する。
If the acquired first cross-section group is determined to be appropriate as the second cross-section group, the second cross-section acquisition process is not executed. The
[第二の断面取得処理]
図8を用いて、第二の断面取得処理について説明する。図8は、第2実施形態に係る第二の断面取得処理を例示するフローチャートである。図8におけるステップS801からS803、およびS805の各処理は、図3におけるS301からS303、およびS304の処理と同一であるため説明を省略する。以下、第1実施形態との相違点について説明する。
[Second Cross-Section Acquisition Processing]
The second cross-section acquisition process will be described with reference to FIG. FIG. 8 is a flowchart illustrating second cross-section acquisition processing according to the second embodiment. Since each process of steps S801 to S803 and S805 in FIG. 8 is the same as the process of S301 to S303 and S304 in FIG. 3, description thereof is omitted. Differences from the first embodiment will be described below.
(ステップS804:第二の断面取得を実行するか否かを判定)
ステップS804において、判定部51は、ステップS803で算出された第一の断面群を評価し、第二の断面取得を実行するか否かを判定する。判定部51は、ステップS803で取得された第一の断面群が所定の条件を満たす場合に、第二の断面取得を実行すると判定し、第一の断面群が所定の条件を満たさない場合に、第二の断面取得を実行しないと判定することができる。第一の断面群が所定の条件を満たすのは、第一の断面群が第二の断面群として妥当である場合である。画像処理装置10は、第二の断面取得を実行する場合は、処理をステップS805に進め、第二の断面取得を実行しない場合は、処理をステップS806に進める。
(Step S804: Determine whether or not to execute second cross-section acquisition)
In step S804, the
基準断面取得を実行するか否か、すなわち第一の断面群が所定の条件を満たすか否かの判定方法について説明する。判定部51は、公知の統計的処理である主成分分析(PCA;Principal Component Analysis)を用いて、A面、B面、C面それぞれの断面画像の画素値の統計的傾向を獲得したモデル(部分空間)を構築する。当該モデルは、すべての学習用症例データに対して3次元画像を正解第二断面情報で切断した各断面画像を生成し、生成した断面画像の主成分分析により構築される。
A method of determining whether or not to acquire the reference cross section, that is, whether or not the first group of cross sections satisfies a predetermined condition will be described. The
判定部51は、ステップS803で得られる第一の断面を、対応するモデルを用いて再表現する。例えばA面の第一の断面は、A面のモデルを使って再表現される。判定部51は、第一の断面画像と再表現された画像との誤差(再構築誤差)を算出する。第一の断面
が対応する断面(たとえばA面)の平均的傾向に近い場合、モデルによる再構築誤差は小さくなる。反対に第一の断面が対応する断面の平均的傾向からかけ離れている場合、再構築誤差は大きくなる。判定部51は、再構築誤差を算出することで、第一の断面が「どの程度、対応する断面らしいか」を定量化することができる。
The
3つの各断面で、再構築誤差が所定の閾値よりも小さい場合は、「第二の断面取得を実行しない」と判定する。反対に、再構築誤差が所定の値以上である場合は、「第二の断面取得を実行する」と判定する。この場合、第一の断面群が所定の条件を満たすのは、再構築誤差が所定の閾値よりも小さくなる場合とすることができる。再構築誤差を評価するための所定の閾値は、例えば、学習データに対して同様の再構築誤差を算出したときの平均値+標準偏差値、とすることができる。 If the reconstruction error is smaller than a predetermined threshold for each of the three slices, it is determined that "the acquisition of the second slice is not performed". Conversely, if the reconstruction error is equal to or greater than the predetermined value, it is determined that 'second cross-section acquisition is to be performed'. In this case, the first slice group satisfies a predetermined condition when the reconstruction error is smaller than a predetermined threshold. The predetermined threshold value for evaluating the reconstruction error can be, for example, the average value+standard deviation value when similar reconstruction errors are calculated for the learning data.
なお、断面画像の画素値の統計的傾向を獲得したモデルを構築する手法は、PCAを用いる方法に限られない。判定部51は、「入力画像が所定の種類の画像である蓋然性」を定量化するモデルであれば、任意のモデルを用いることができる。例えば、判定部51は、深層学習によって、入力画像が所定のクラスに属する確率を判定するモデルを構築して用いてもよい。この場合、第一の断面群が所定の条件を満たすのは、第一の断面群が所定のクラスに属する確率が閾値よりも大きくなる場合とすることができる。
Note that the method of constructing a model that acquires the statistical tendency of pixel values of cross-sectional images is not limited to the method using PCA. The
また、判定部51は、断面画像の輝度コントラストが所定の閾値以上である場合に「第二の断面取得を実行しない」と判定するなど、モデルに基づかない簡便な方法で判定してもよい。所定の閾値は、例えば、学習データの断面画像における輝度コントラストの平均値とすることができる。この場合、第一の断面群が所定の条件を満たすのは、第一の断面群の輝度コントラストが所定の閾値以上である場合とすることができる。
In addition, the
また、第二の断面取得を実行するか否かを判定するためのモデルは、あらかじめ構築しておくことができる。当該モデルは、画像処理装置10以外の他の装置で構築されてもよい。構築されたモデルは、データベース22または記憶部34に格納される。ステップS804では、判定部51は、構築されたモデルをRAM33に読み込み、第二の断面取得を実行するか否かを判定する。
Also, a model for determining whether or not to execute the second cross-section acquisition can be constructed in advance. The model may be constructed by a device other than the
また、ステップS804の判定では、断面画像の画素値を用いる例で説明したが、判定部51は、断面画像に所定の画像処理を適用したデータを用いて判定してもよい。例えば、判定部51は、所定の方向に画素値を微分した微分画像、または、ノイズ低減および先鋭化といった画質改善処理を適用した画像からサンプルを切り出してもよい。
Also, in the determination in step S804, an example using the pixel values of the cross-sectional image has been described, but the
断面画像に所定の画像処理を適用することで、判定部51は、画素値を用いて判定する場合よりも精度の高い判定が可能となる。また、判定部51は、断面画像のみを用いる例に限られず、断面の前後の領域を含む3次元画像に対して同様の判定処理、すなわち蓋然性の定量化による判定処理を行ってもよい。
By applying predetermined image processing to the cross-sectional image, the
(ステップS806:第二の断面取得結果の表示)
ステップS806において、表示制御部45は、入力画像をステップS805で得られる第二の断面群で切り出した断面画像を、画像表示領域内に表示させる。第二の断面の取得が実行された場合(ステップS805を実行した場合)、表示制御部45は、第1実施形態と同様に、第二の断面の取得結果を用いて表示が行われる。
(Step S806: Display of Second Cross-Section Acquisition Result)
In step S806, the
ステップS804で「第二の断面取得を実行しない」と判定された場合、表示制御部45は、互いに直交する断面である第一の断面を、第二の断面とみなして表示する。表示処理については、第1実施形態のステップS305と同様である。
If it is determined in step S804 that "the acquisition of the second cross section is not executed", the
なお、ステップS803で取得した第一の断面群を第二の断面として表示する場合、表示制御部45は、第二の断面取得処理を実行しなかったことをユーザーに通知してもよい。例えば、表示制御部45は、第二の断面取得処理を実行していないという趣旨の文字情報を表示部に表示してもよい。また、表示制御部45は、表示領域上で、断面を表す直線同士が交わる交点付近に、直角を表す数学記号を表示することで、互いに直交する第一の断面が、第二の断面として表示されていることを示してもよい。
When displaying the first cross-section group acquired in step S803 as the second cross-section, the
上述の第2実施形態によれば、ステップS803で取得された第一の断面群が第二の断面として採用することができると判定された場合、第二の断面取得の実行が省略されるため、画像処理装置10は、処理時間を短縮することができる。
According to the above-described second embodiment, when it is determined that the first group of cross-sections acquired in step S803 can be used as the second cross-section, execution of acquisition of the second cross-section is omitted. , the
<第3実施形態>
第3実施形態に係る画像処理装置10は、第1および第2実施形態と同様に、3次元画像から所定の2つ以上の第二の断面を取得(推定)する。第2実施形態では、取得した第一の断面群に対して、第二の断面算出を実行するか否かを判定する実施形態である。これに対し、第3実施形態は、断面毎に、第二の断面取得を実行するか否かを判定する実施形態である。例えば、第3実施形態に係る画像処理装置10は、A面については第二の断面取得を実行せずに第一の断面を第二の断面として用いるが、B面およびC面については第二の断面取得を実行するといった判定をすることができる。
<Third Embodiment>
The
第3実施形態に係る画像処理装置10の構成は、図7に示す第2実施形態の構成と同様である。ただし、判定部51による処理は、断面毎に第二の断面取得を実行するか否かを判定する点で、第2実施形態と相違する。
The configuration of the
第3実施形態に係る第二の断面取得処理は、図8に示す第2実施形態のフローチャートと同様である。ただし、ステップS804およびS805の処理は、第2実施形態での処理と相違する。以下、相違点について説明する。 The second cross-section acquisition process according to the third embodiment is the same as the flowchart of the second embodiment shown in FIG. However, the processing of steps S804 and S805 is different from the processing in the second embodiment. Differences will be described below.
(ステップS804:第二の断面取得を実行するか否かを判定)
ステップS804において、判定部51は、ステップS803で算出された第一の断面群を評価する。判定部51は、A面、B面、C面の断面毎に、第二の断面取得を実行するか否かを判定する。
(Step S804: Determine whether or not to execute second cross-section acquisition)
In step S804, the
いずれの断面でも「第二の断面取得を実行しない」と判定された場合、画像処理装置10は、処理をステップS806に進める。いずれかの断面で「第二の断面取得を実行する」と判定された場合、画像処理装置10は、処理をステップS805に進める。
If it is determined that “the acquisition of the second cross section is not performed” for any cross section, the
断面毎の判定方法について説明する。判定部51は、ステップS804と同じ手順で、断面毎に再構築誤差を算出する。判定部51は、再構築誤差が所定の閾値を下回った断面については「第二の断面取得を実行しない」と判定する。反対に、判定部51は、再構築誤差が所定の閾値以上である断面については、第1実施形態と同様に、「第二の断面取得を実行する」と判定する。
A determination method for each cross section will be described. The
再構築誤差を評価するための所定の閾値は、例えば、学習データに対して同様の再構築誤差を算出したときの平均値+標準偏差値とすることができる。ステップS804での判定結果の情報は、ステップS805での処理に使用される。 The predetermined threshold value for evaluating the reconstruction error can be, for example, the average value+standard deviation value when similar reconstruction errors are calculated for the learning data. The information of the determination result in step S804 is used for the processing in step S805.
(ステップS805:第二の断面群の取得)
ステップS805において、第二の断面取得部44は、「第二の断面取得を実行する」
と判定された断面について、第二の断面を取得する。第二の断面取得部44は、入力画像と、第一の断面パラメータCcおよびRcと、第二の断面取得用学習モデルと、ステップS804で算出される判定情報と、を用いて、各第二の断面を取得する。
(Step S805: Acquisition of second cross-section group)
In step S805, the second
A second cross section is acquired for the cross section determined as The second
ステップS804の処理は、第1実施形態のステップS304と一部の処理が共通する。以下、ステップS804の処理について、ステップS304との共通点および相違点を明らかにしながら説明する。 The processing of step S804 is partially common to step S304 of the first embodiment. Hereinafter, the processing of step S804 will be described while clarifying common points and differences from step S304.
第1に、第二の断面取得部44は、第一の断面パラメータのうち角度パラメータRcを、それぞれの第一の断面の法線ベクトルNAc、NBc、NCcへと変換する。ステップS804の第1の処理は、ステップS304での第1の処理と同様である。
First, the second
第2に、第二の断面取得部44は、入力画像から各第二の断面のサンプルを切り出す。A面、B面、C面という3つの断面の中に、ステップS804で「第二の断面取得を実行しない」と判定された断面がある場合、第二の断面取得部44は、第二の断面取得を実行しない断面に対応する法線ベクトルは変動させない。それ以外の断面に対応する法線ベクトルは、ステップS304における第2の処理と同様に、各断面の法線ベクトルが互いに直交関係から所定の角度の範囲内の角度関係を保つように算出される。第二の断面取得部44は、各断面の法線ベクトルに基づいて切り出したサンプルを、第二の断面の候補として取得する。
Second, the second
第3に、第二の断面取得部44は、前段の処理によって第二の断面の候補として取得したサンプルを、第二の断面取得用識別器に入力し、入力したサンプルが正解サンプルか不正解サンプルかを判定する。ステップS804の第3の処理は、ステップS304における第3の処理と同様である。
Third, the second
ステップS304と同様に、第2の処理および第3の処理は所定回数(例えば10,000回)実行される。正解と判定されたサンプルが複数存在する場合、第二の断面取得部44は、平均位置および各断面の平均法線ベクトルを本ステップの出力とする。なお、正解と判定されるサンプルが見つからなかった場合、第二の断面取得部44は、第二の断面が見つからなかった旨をユーザーに通知するダイアログボックスを、表示部36に表示する。
Similar to step S304, the second process and the third process are executed a predetermined number of times (eg, 10,000 times). If there are a plurality of samples determined to be correct, the second
なお、再構築誤差が所定の閾値よりも小さく、第二の断面取得を実行しないと判定された断面については、第二の断面は、ステップS803で取得された第一の断面に固定されるが、これに限られない。第二の断面取得部44は、第一の断面を第二の断面としてそのまま用いるのではなく、ステップS805でサンプルを切り出す際に、微小な変動を与えることも可能である。すなわち、第二の断面取得部44は、ステップS805でサンプルを切り出す際、再構築誤差が所定の閾値以上の断面が取り得る範囲(例えば±10度)よりも小さい範囲(例えば±3度)で、第一の断面を変動させてもよい。第二の断面取得部44は、断面毎に異なる変動幅を設定することで、より柔軟な第二の断面の推定が可能となる。
It should be noted that the second cross section is fixed to the first cross section acquired in step S803 for the cross section for which the reconstruction error is smaller than the predetermined threshold and it is determined not to perform the acquisition of the second cross section. , but not limited to. Instead of using the first cross section as the second cross section as it is, the second cross
また、ステップS3024およびS805では、第二の断面取得部44は、ERTを用いて、すなわち、サンプルをランダムに切り出して正解または非正解を判定することで、第二の断面を取得するが、これに限られない。第二の断面取得部44は、所定の評価関数を最適化する方法で第二の断面を取得してもよい。
Also, in steps S3024 and S805, the second
所定の評価関数を最適化する方法では、第二の断面取得部44は、ステップS3024で、正解サンプルに主成分分析(PCA)を適用することで、A面、B面、C面の各断面
の画像特徴の統計的傾向を獲得したモデルを構築する。
In the method of optimizing the predetermined evaluation function, in step S3024, the second
ステップS804では、第二の断面取得部44は、それぞれのモデルで入力断面画像を再表現したときの誤差と、正則化項(第一の断面との角度差)という2つの項をコストとする評価関数を用いる。第二の断面取得部44は、ステップS804で「第二の断面取得を実行しない」と判定された症例の断面については、正則化項の重みを大きくし、第一の断面からなるべく乖離しないようにする。第二の断面取得部44は、コスト値が最小となるパラメータを勾配法やLevenburg-Marquardt法といった公知の最適化手法で探索する。
In step S804, the second
上述の第3実施形態によれば、断面毎に第二の断面取得を実行するか否かを判定するため、より高精度な第二の断面群を取得することができる。 According to the above-described third embodiment, it is possible to acquire the second group of cross-sections with higher accuracy because it is determined whether or not to acquire the second cross-section for each cross-section.
<第4実施形態>
第4実施形態に係る画像処理装置10は、第1乃至第3実施形態と同様に、3次元画像から所定の2つ以上の第二の断面を取得(推定)する。第1実施形態では、第二の断面を取得する際、第二の断面同士が凡そ直交であるという角度関係から乖離しすぎないようにするため、第二の断面取得部44は、断面同士の角度関係からの乖離が所定の範囲内になるように、解の探索範囲を制約する。
<Fourth Embodiment>
The
これに対し、第4実施形態では、第二の断面同士が直交という角度関係から乖離しすぎないようにするため、画像処理装置10は、第二の断面群を取得するための評価関数を用いて、少なくとも断面同士の直交関係からの乖離の度合いを評価する。すなわち、第二の断面取得部44は、直交関係からの乖離の度合いを定量化する項を含む評価関数を用いて、評価関数の値を最適化(最小化または最大化)することで、第一の断面および第二の断面を取得する。
On the other hand, in the fourth embodiment, the
第4実施形態に係る画像処理装置10の構成は、図2に示す第1実施形態の構成と同様である。また、第4実施形態に係る第二の断面取得処理は、図3および図3に示す第1実施形態のフローチャートと同様である。ただし、ステップS3023、S3024に示す各学習モデルの構築処理、およびステップS303、S304に示す各断面の取得処理の一部は、第1実施形態と相違する。以下、各処理について、第1実施形態との相違点を明らかにしながら説明する。
The configuration of the
(ステップS3023:第一の断面取得用学習モデルの構築)
ステップS3023において、学習モデル生成部42は、ステップS3022で得られた、第二の断面情報が直交化された学習データを用いて、学習モデルを構築する。学習モデル生成部42は、公知の統計的処理である主成分分析(PCA)を用いて、第一の断面画像の統計的傾向を獲得した学習モデルを構築する。
(Step S3023: Construction of learning model for acquiring first cross section)
In step S3023, the learning
以下、学習モデルを構築する具体的な手順を示す。まず、第1実施形態のステップS3023と同様に、学習モデル生成部42は、学習用症例データの3次元画像と直交化された第二の断面パラメータ(正解位置)を用いて3次元画像から1部を切り出したサンプルを生成する。学習モデル生成部42は、第1の実施形態と同様に、正解位置から多少の位置ずれ、姿勢のずれ、スケールの変更などを加えたサンプルも、正解サンプルとみなして、学習データを水増しする。
A specific procedure for constructing a learning model is shown below. First, as in step S3023 of the first embodiment, the learning
ただし、学習モデル生成部42は、第1実施形態のステップS3023とは異なり、非正解サンプルは生成しない。学習モデル生成部42は、すべての学習用症例データから正解サンプルを切り出すことで、学習サンプルを生成する。学習モデル生成部42は、生成
した学習サンプルを主成分分析することで、第一の断面画像が持つ統計的傾向が表現された学習モデルを構築する。
However, unlike step S3023 of the first embodiment, the learning
(ステップS3024:第二の断面取得用学習モデルの構築)
ステップS3024において、学習モデル生成部42は、ステップS3021で得られた(直交化される前の)学習データを用いて、学習モデルを構築する。学習モデル生成部42は、第4実施形態のステップS3023と同様に主成分分析(PCA)により学習モデルを構築する。
(Step S3024: Construction of second cross-section acquisition learning model)
In step S3024, the learning
入力画像からサンプル画像を切り出す処理は、第1実施形態におけるステップS3024と同様である。ただし、学習モデル生成部42は、非正解サンプルは生成せず、第4実施形態のステップS3023と同様に、正解サンプルのみを用いて学習モデルを構築する。学習モデル生成部42は、生成した学習サンプルを主成分分析することで、A面、B面、C面それぞれの第二の断面の統計的傾向が表現された学習モデルを構築する。
The process of cutting out the sample image from the input image is the same as step S3024 in the first embodiment. However, the learning
(ステップS303:第一の断面群の算出)
ステップS303において、第一の断面取得部43は、ステップS301で取得される入力画像と、ステップS3023で生成される第一の断面取得用学習モデルを用いて、第一の断面群を取得する。第1実施形態と同様に、第一の断面取得部43は、式(2)で示す合計6個のパラメータを算出する。
(Step S303: Calculation of first group of cross sections)
In step S303, the first
第一の断面取得部43は、生成された学習モデルを用いたコスト関数が最小となるパラメータ(式(2)で示す6個のパラメータ)を探索することにより第一の断面を取得する。コスト関数は、入力画像から切り出したサンプルを、モデルを使って再表現したときの差異(再構築誤差)である。すなわち、コスト関数は、「入力画像から切り出したサンプルが、学習モデルの統計的傾向に基づいてどの程度第一の断面らしいか」を定量化する指標である。以下に第一の断面を取得する処理手順を示す。
The first
まず、第一の断面取得部43は、学習モデルを構築した際に画像処理が適用された場合、入力画像に同一の画像処理を適用する。例えば、学習モデルが微分画像を用いて構築されている場合、第一の断面取得部43は、入力画像に対しても微分処理を施す。
First, the first
次に、第一の断面取得部43は、式(2)で示す6個のパラメータの初期値(以下、初期パラメータと称する)を定める。例えば、位置ベクトルCの初期値は画像の中心とし、姿勢を示すパラメータRの初期値は入力画像の各軸と平行な向きとする。第一の断面取得部43は、コスト値が最小となるパラメータを勾配法やLevenburg-Marquardt法といった公知の最適化手法を用いて探索する。探索された第一の断面のパラメータは、位置ベクトルCcおよびパラメータRcとする。
Next, the first
なお、第一の断面取得部43は、例えば、位置の3パラメータを算出し、算出済みの位置のパラメータを固定して、角度(姿勢)の3パラメータを算出するようにしてもよい。反対に、第一の断面取得部43は、角度の3パラメータを算出し、算出済みの角度のパラメータを固定して、位置の3パラメータを算出してもよい。
Note that the first
(ステップS304:第二の断面群の取得)
ステップS304において、第二の断面取得部44は、各第二の断面を取得する。第二の断面取得部44は、ステップS301で取得される入力画像と、ステップS303で算出された第一の断面パラメータCcおよびRcと、ステップS3024で生成される第二の断面取得用学習モデルと、を用いて、各第二の断面を取得する。
(Step S304: Acquisition of second group of cross sections)
In step S304, the second
例えば、第二の断面取得部44は、コスト関数を最小化し、第1実施形態における式(1)で示す合計12個のパラメータで表される各第二の断面の向きを算出(補正)することにより、第二の断面を取得することができる。コスト関数は、第4実施形態のステップS303で述べた再構築誤差、および断面同士の位置関係が直交関係から乖離した場合にペナルティを与える制約項の2種類の項を含む。
For example, the second
再構築誤差は、第4実施形態のステップS303で述べたものと同様である。制約項は、断面を表す法線ベクトル同士の内積の絶対値とすることができる。断面同士が直交する場合、法線ベクトルの内積は0となるため、直交関係からの乖離の度合いは、内積の絶対値をとることで定量化することが可能である。A面、B面、C面という3つの断面がある場合、制約項は、A面法線ベクトルとB面法線ベクトル、B面法線ベクトルとC面法線ベクトル、C面法線ベクトルとA面法線ベクトルという3つの組み合わせにおける内積の合計で表される。以下に処理手順を示す。 The reconstruction error is the same as described in step S303 of the fourth embodiment. The constraint term can be the absolute value of the inner product of the normal vectors representing the cross section. When the cross sections are orthogonal to each other, the inner product of the normal vectors is 0, so the degree of deviation from the orthogonal relationship can be quantified by taking the absolute value of the inner product. If there are three cross-sections A, B, and C, the constraint terms are the A-plane normal vector and B-plane normal vector, the B-plane normal vector and C-plane normal vector, and the C-plane normal vector and It is represented by the sum of the inner products of three combinations of normal vectors of the A plane. The processing procedure is shown below.
第1に、第二の断面取得部44は、第一の断面パラメータのうち角度パラメータRcを、それぞれの断面の法線ベクトルNAc、NBc、NCcへと変換する。この処理は、第1実施形態のステップS3041の処理と同様である。
First, the second
第2に、第二の断面取得部44は、学習モデルを構築した際に画像処理が適用された場合、入力画像に同一の画像処理を適用する。例えば、学習モデルが微分画像を用いて構築されている場合、第二の断面取得部44は、入力画像に対しても微分処理を施す。
Second, the second
次に、第二の断面取得部44は、A面、B面、C面それぞれを取得するための出発点となる初期パラメータを定める。第二の断面取得部44は、位置ベクトルCcを固定し、法線ベクトルNAcをA面の初期パラメータ、法線ベクトルNBcをB面の初期パラメータ、法線ベクトルNCcをC面の初期パラメータとする。
Next, the second
第3に、第二の断面取得部44は、A面、B面、C面それぞれのパラメータ(法線ベクトル)を、コスト関数を最小化することで探索する。コスト関数は、(A面の再構築誤差+B面の再構築誤差+C面の再構築誤差)+制約項で定義される。コスト関数において、再構築誤差の項と制約項とは、あらかじめ設定される重みパラメータによって調整される。第二の断面取得部44は、勾配法およびLevenburg-Marquardt法といった公知の最適化手法によって、A面、B面、C面それぞれのパラメータを探索する。
Third, the second
なお、ステップS304では、断面同士が直交関係から乖離するほどコストが大きくなる制約項を導入したが、断面同士が満たすべき角度関係が直交関係ではない場合、制約項は、断面同士が満たすべき角度関係に応じて定義される。例えば、A面とB面とが80度の角度関係を満たすべき場合、制約項の値は、A面とB面の間の角度差から80度を減じた値の絶対値とすることができる。 In step S304, a constraint term is introduced in which the cost increases as the cross sections deviate from the orthogonal relationship. Defined according to relationship. For example, if the A and B planes should satisfy an 80 degree angular relationship, the value of the constraint term can be the absolute value of the angular difference between the A and B planes minus 80 degrees. .
以上によって、画像処理装置10は、A面、B面、C面それぞれのパラメータを算出し、第二の断面群を取得することができる。
As described above, the
なお、第一の断面群および第二の断面群ともに、主成分分析(PCA)に基づく学習モデルを用いて取得したが、いずれか一方は、ERTに基づく手法で生成した学習モデルを用いてもよい。例えば、第二の断面群はPCAに基づく学習モデルを使用して取得し、第一の断面群はERTに基づく学習モデルを使用して取得してもよい。第一の断面の存在範囲がある程度絞られている場合には、PCAよりも少ない症例数で学習モデルを構築できるERTを用いることで、第一の断面をより高速に取得することが可能となる。 Both the first cross-section group and the second cross-section group were acquired using a learning model based on principal component analysis (PCA), but either one can be obtained using a learning model generated by a method based on ERT. good. For example, a second group of cross-sections may be acquired using a PCA-based learning model and a first group of cross-sections may be acquired using an ERT-based learning model. When the existence range of the first cross section is narrowed down to some extent, it is possible to acquire the first cross section at a higher speed by using ERT, which can build a learning model with a smaller number of cases than PCA. .
上述の第4実施形態によれば、第二の断面同士が直交という角度関係から乖離しすぎないようにするため、第二の断面群を算出する評価関数は、直交関係からの乖離の度合いを評価する制約項を含む。第二の断面の取得では、断面同士が直交から乖離するほどコスト(制約項)が大きくなるため、画像処理装置10は、学習モデルから得られる統計的な蓋然性と断面同士の直交性とをバランスさせた第二の断面を取得することができる。
According to the above-described fourth embodiment, in order to prevent the second cross-sections from deviating too much from the orthogonal relationship, the evaluation function for calculating the second cross-section group expresses the degree of deviation from the orthogonal relationship. Contains constraint terms to evaluate. In acquiring the second cross-sections, the cost (constraint term) increases as the cross-sections deviate from the orthogonality, so the
上述の各実施形態は、本発明の構成を例示的に説明するものに過ぎない。本発明は上述の具体的な形態に限定されることはなく、その技術的思想の範囲内で種々の組み合わせまたは変形が可能である。 Each of the above-described embodiments merely exemplifies the configuration of the present invention. The present invention is not limited to the specific forms described above, and various combinations or modifications are possible within the scope of its technical ideas.
<その他の実施形態>
また、開示の技術は、例えば、システム、装置、方法、プログラムまたは記録媒体(記憶媒体)等としての実施態様をとることが可能である。具体的には、開示の技術は、複数の機器(例えば、ホストコンピュータ、インターフェイス機器、撮像装置、webアプリケーション等)から構成されるシステムに適用してもよいし、また、1つの機器からなる装置に適用してもよい。
<Other embodiments>
In addition, the technology disclosed can be embodied as, for example, a system, device, method, program, recording medium (storage medium), or the like. Specifically, the technology disclosed herein may be applied to a system composed of a plurality of devices (for example, a host computer, an interface device, an imaging device, a web application, etc.), or may be applied to a device composed of a single device. may be applied to
また、本発明の目的は、以下のように達成される。すなわち、上述の各実施形態の機能を実現するソフトウェアのプログラムコード(コンピュータプログラム)を記録した記録媒体が、システムまたは装置に供給される。係る記録媒体は、コンピュータによって読み取り可能である。システムまたは装置のコンピュータ(またはCPUやMPU)は、記録媒体に格納されたプログラムコードを読み出して実行する。この場合、記録媒体から読み出されたプログラムコード自体は、上述の各実施形態の機能を実現する。当該プログラムコードを記録した記録媒体は、本発明を構成する。 Moreover, the object of the present invention is achieved as follows. That is, a recording medium recording software program code (computer program) for realizing the functions of the above-described embodiments is supplied to a system or apparatus. Such a recording medium is computer readable. A computer (or CPU or MPU) of the system or device reads and executes the program code stored in the recording medium. In this case, the program code itself read from the recording medium implements the functions of the above embodiments. A recording medium recording the program code constitutes the present invention.
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.
10 画像処理装置
32 ROM
33 RAM
37 制御部
41 画像取得部
43 第一の断面取得部
44 第二の断面取得部
10
33 RAM
37
Claims (27)
前記入力画像で前記対象物を観察するために設定され、互いに所定の角度関係にある複数の第一の断面からなる第一の断面群と、前記所定の角度関係に基づく制約条件とに基づいて、複数の第二の断面からなる第二の断面群を取得する断面取得部と、
を備えることを特徴とする画像処理装置。 an image acquisition unit that acquires an input image that is a three-dimensional image of an object;
Based on a first cross-section group consisting of a plurality of first cross-sections set to observe the object in the input image and having a predetermined angular relationship with each other, and a constraint condition based on the predetermined angular relationship , a cross-section acquisition unit that acquires a second cross-section group consisting of a plurality of second cross-sections;
An image processing device comprising:
ことを特徴とする請求項1に記載の画像処理装置。 2. The image processing apparatus according to claim 1, wherein said second cross section is a cross section obtained by varying said first cross section.
前記入力画像の一部を切り出した部分3次元画像を入力として、前記部分3次元画像が前記第一の断面群を特定する3次元画像として適切であるか否かを出力する第一学習モデルを有し、前記入力画像から切り出された前記部分3次元画像を前記第一学習モデルに入力することにより、前記第一の断面群を取得し、
断面画像を入力として、前記断面画像が前記第二の断面として適切であるか否かを出力する断面毎の第二学習モデルを有し、前記第一の断面群に基づいて前記入力画像から切り出された断面画像を前記第二学習モデルに入力することにより、前記第二の断面群を取得する、
ことを特徴とする請求項1または2に記載の画像処理装置。 The cross-section acquiring unit
a first learning model that receives as input a partial three-dimensional image obtained by cutting out a portion of the input image, and outputs whether or not the partial three-dimensional image is appropriate as a three-dimensional image for specifying the first cross-section group; and acquiring the first cross-section group by inputting the partial three-dimensional image cut out from the input image into the first learning model,
A second learning model for each cross section that receives a cross-sectional image as an input and outputs whether or not the cross-sectional image is appropriate as the second cross-section, and is extracted from the input image based on the first cross-sectional group. Obtaining the second group of cross-sections by inputting the cross-sectional images obtained into the second learning model,
3. The image processing apparatus according to claim 1, wherein:
ことを特徴とする請求項3に記載の画像処理装置。 When a plurality of first cross-section group candidates determined to be appropriate by the first learning model are obtained, the cross-section acquiring unit averages the plurality of first cross-section group candidates. 4. The image processing apparatus according to claim 3, wherein the first cross-section group is acquired.
ことを特徴とする請求項3または4に記載の画像処理装置。 When the second learning model for each cross section obtains a plurality of candidates for the second cross section determined to be appropriate, the cross section acquiring unit averages the plurality of candidates for the second cross section. 5. The image processing apparatus according to claim 3, wherein the second cross section corresponding to each cross section is acquired by:
ことを特徴とする請求項3乃至5のいずれか1項に記載の画像処理装置。 The cross-section acquiring unit inputs cross-sections cut out within a range of a predetermined angle around a normal vector of each first cross-section of the first cross-section group to the second learning model. The image processing apparatus according to any one of claims 3 to 5.
前記入力画像の一部を切り出した部分3次元画像を入力として、前記部分3次元画像が前記複数の第一の断面を特定する3次元画像として適切であるか否かを出力する第一学習モデルを有し、前記入力画像から切り出された部分3次元画像を前記第一学習モデルに入力することにより、前記第一の断面群を取得し、
前記入力画像の一部を切り出した部分3次元画像を入力として、前記部分3次元画像が前記第二の断面を特定する3次元画像として適切であるか否かを出力する第二学習モデルを有し、前記第一の断面群に基づき前記入力画像の一部を切り出した部分3次元画像を前記第二学習モデルに入力することにより、前記第二の断面群を取得する、
ことを特徴とする請求項1に記載の画像処理装置。 The cross-section acquiring unit
A first learning model that receives as an input a partial three-dimensional image obtained by cutting out a part of the input image and outputs whether or not the partial three-dimensional image is appropriate as a three-dimensional image for specifying the plurality of first cross sections. and obtaining the first cross-section group by inputting a partial three-dimensional image cut out from the input image into the first learning model,
a second learning model that receives as an input a partial three-dimensional image obtained by cutting out a part of the input image and outputs whether or not the partial three-dimensional image is appropriate as a three-dimensional image for specifying the second cross section; and obtaining the second cross-section group by inputting a partial three-dimensional image obtained by cutting out a part of the input image based on the first cross-section group into the second learning model.
2. The image processing apparatus according to claim 1, wherein:
ことを特徴とする請求項3乃至7のいずれか1項に記載の画像処理装置。 8. The method according to any one of claims 3 to 7, wherein the first learning model and the second learning model are generated using an image to which at least one of image processing of differential processing, noise reduction, and sharpening is applied. The image processing device according to any one of items 1 and 2.
前記入力画像に対し、前記第一学習モデルの生成に用いた画像に適用した前記画像処理を適用して、前記第一の断面群を取得し、
前記入力画像に対し、前記第二学習モデルの生成に用いた画像に適用した前記画像処理を適用して、前記第二の断面群を取得する
ことを特徴とする請求項8に記載の画像処理装置。 The cross-section acquiring unit
obtaining the first cross-section group by applying the image processing applied to the image used to generate the first learning model to the input image;
9. The image processing according to claim 8, wherein the image processing applied to the image used to generate the second learning model is applied to the input image to acquire the second cross-section group. Device.
ことを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。 The cross-section acquiring unit uses the plurality of first cross-sections as initial values of the respective second cross-sections, and obtains a plurality of 10. The image processing apparatus according to any one of claims 1 to 9, wherein a second cross-section group consisting of the second cross-sections of .
ことを特徴とする請求項1乃至10のいずれか1項に記載の画像処理装置。 The cross-section acquisition unit acquires the second cross-sections so that the angular relationship of the second cross-sections included in the second cross-section group deviates from the predetermined angular relationship within a range of a predetermined angle. 11. The image processing apparatus according to any one of claims 1 to 10, wherein a group is acquired.
ことを特徴とする請求項1乃至11のいずれか1項に記載の画像処理装置。 The evaluation function used by the cross-section acquisition unit to acquire the second cross-section group is the degree of divergence between the angular relationship of the second cross-sections included in the second cross-section group and the predetermined angle relationship. 12. The image processing apparatus according to any one of claims 1 to 11, wherein the image processing apparatus evaluates
ことを特徴とする請求項1乃至12のいずれか1項に記載の画像処理装置。 A cross-sectional image obtained by cutting the input image with the second cross section included in the second cross section group, and an angular relationship between the second cross section included in the second cross section group and the predetermined angular relationship 13. The image processing apparatus according to any one of claims 1 to 12, further comprising a display control unit that displays information indicating the degree of divergence on a display unit.
前記断面取得部は、前記第一の断面群が前記所定の条件を満たす場合は、前記第一の断面群を前記第二の断面群とする
ことを特徴とする請求項1乃至13のいずれか1項に記載の画像処理装置。 A determination unit that determines whether the first group of cross-sections satisfies a predetermined condition for being used as the second group of cross-sections,
14. The cross-section acquiring unit, if the first group of cross-sections satisfies the predetermined condition, sets the first group of cross-sections as the second group of cross-sections. 2. The image processing device according to item 1.
前記断面取得部は、前記所定の条件を満たす前記第一の断面を変動させずに前記第二の断面群を取得する
ことを特徴とする請求項1乃至14のいずれか1項に記載の画像処理装置。 A determination unit that determines whether each of the first cross-sections included in the first cross-section group satisfies a predetermined condition for being used as the second cross-section,
15. The image according to any one of claims 1 to 14, wherein the cross-section acquisition unit acquires the second cross-section group without changing the first cross-section that satisfies the predetermined condition. processing equipment.
ことを特徴とする請求項15に記載の画像処理装置。 The cross-section acquiring unit, in the evaluation function used to acquire the second cross-section group, assigns the weight of the regularization term to the first cross-section that satisfies the predetermined condition as the weight of the regularization term that does not satisfy the predetermined condition. By setting a weight greater than the regularization term for the first cross section, the second cross section does not deviate from the first cross section that satisfies the predetermined condition.
16. The image processing apparatus according to claim 15, characterized by:
ことを特徴とする請求項1乃至16のいずれか1項に記載の画像処理装置。 17. The image processing apparatus according to any one of claims 1 to 16, further comprising a display control unit that displays information on the second slice group acquired by the slice acquisition unit on a display unit.
ことを特徴とする請求項17に記載の画像処理装置。 The display control unit displays one second cross section included in the second cross section group on the display unit, and displays a straight line representing another second cross section that intersects with the one second cross section. 18. The image processing apparatus according to claim 17, wherein the second cross section is superimposed on the first cross section.
ことを特徴とする請求項17または18に記載の画像処理装置。 The display control unit displays one second cross section included in the second cross section group on the display unit, and another second cross section that intersects with the one second cross section is displayed on the first cross section group. 19. The method according to claim 17 or 18, wherein information on the degree of divergence, which indicates the degree of divergence from an angle perpendicular to the two cross sections, is displayed superimposed on the one second cross section. Image processing device.
ことを特徴とする請求項19に記載の画像処理装置。 20. The display control unit according to claim 19, wherein the display control unit displays the information on the degree of divergence in the form of character information or a display mode of a color or thickness of a straight line representing the other second cross section. Image processing device.
ことを特徴とする請求項1乃至20のいずれか1項に記載の画像処理装置。 21. The image processing apparatus according to any one of claims 1 to 20, wherein the cross-section acquiring unit acquires images input by a user's operation as the first group of cross-sections.
ことを特徴とする請求項1乃至21のいずれか1項に記載の画像処理装置。 22. The image acquisition unit according to any one of claims 1 to 21, wherein the image acquisition unit acquires, as the input image, an image designated by a user's operation or an image automatically selected based on a predetermined criterion. The image processing device according to .
断面画像を入力として、前記断面画像が、対象物を観察するための第二の断面として適切であるか否か、を出力する断面毎の第二の断面取得用の第二学習モデルを生成する第二生成部と、
を有することを特徴とする画像処理装置。 A three-dimensional image is used as an input, and a partial three-dimensional image obtained by cutting out a part of the three-dimensional image is a three-dimensional image specifying a first cross-sectional group including a plurality of first cross-sections having a predetermined angular relationship with each other. a first generation unit that generates a first learning model for acquiring a first cross section that outputs whether it is appropriate;
Generating a second learning model for acquiring a second cross section for each cross section, which outputs whether or not the cross section image is appropriate as a second cross section for observing the target object, using the cross section image as an input. a second generator;
An image processing device comprising:
ことを特徴とする請求項23に記載の画像処理装置。 The first generating unit inputs the information of the three-dimensional image and the second cross section of the correct answer, and based on the information of the correct position corrected so that the second cross section of the correct answer has the predetermined angular relationship, 24. The image processing apparatus according to claim 23, wherein the first learning model is generated by generating correct samples and incorrect samples, and learning the correct samples and the incorrect samples.
ことを特徴とする請求項23または24に記載の画像処理装置。 The second generating unit receives the three-dimensional image and second correct cross-sectional information as input, generates a correct sample and an incorrect sample of the two-dimensional image for each cross-section, and makes the correct sample and the incorrect sample learn. 25. The image processing apparatus according to claim 23 or 24, wherein the second learning model is generated for each cross section.
対象物の3次元画像である入力画像を取得し、
前記入力画像で前記対象物を観察するために設定され、互いに所定の角度関係にある複数の第一の断面からなる第一の断面群と、前記所定の角度関係に基づく制約条件とに基づいて、複数の第二の断面からなる第二の断面群を取得する
ことを特徴とする画像処理方法。 the computer
Acquiring an input image that is a three-dimensional image of an object,
Based on a first cross-section group consisting of a plurality of first cross-sections set to observe the object in the input image and having a predetermined angular relationship with each other, and a constraint condition based on the predetermined angular relationship and obtaining a second cross-section group consisting of a plurality of second cross-sections.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021082479A JP2022175787A (en) | 2021-05-14 | 2021-05-14 | Image processing device, image processing method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021082479A JP2022175787A (en) | 2021-05-14 | 2021-05-14 | Image processing device, image processing method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022175787A true JP2022175787A (en) | 2022-11-25 |
Family
ID=84145053
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021082479A Pending JP2022175787A (en) | 2021-05-14 | 2021-05-14 | Image processing device, image processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022175787A (en) |
-
2021
- 2021-05-14 JP JP2021082479A patent/JP2022175787A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Bernard et al. | Standardized evaluation system for left ventricular segmentation algorithms in 3D echocardiography | |
US10102622B2 (en) | Processing apparatus, processing method, and non-transitory computer-readable storage medium | |
US7804990B2 (en) | System and method for labeling and identifying lymph nodes in medical images | |
JP5334692B2 (en) | Method and system for detecting 3D anatomical objects using constrained marginal space learning | |
US20110262015A1 (en) | Image processing apparatus, image processing method, and storage medium | |
US20120065499A1 (en) | Medical image diagnosis device and region-of-interest setting method therefore | |
US20160081663A1 (en) | Method and system for automated detection and measurement of a target structure | |
CN109584350A (en) | Measurement point in diagnosis imaging determines | |
EP2846310A2 (en) | Method and apparatus for registering medical images | |
JP5982726B2 (en) | Volume data analysis system and method | |
US11229377B2 (en) | System and method for next-generation MRI spine evaluation | |
US9129392B2 (en) | Automatic quantification of mitral valve dynamics with real-time 3D ultrasound | |
JP6987131B2 (en) | Image-based diagnostic system | |
JP6238755B2 (en) | Information processing apparatus, information processing method, and program | |
EP2498222B1 (en) | Method and system for regression-based 4D mitral valve segmentation from 2D+T magnetic resonance imaging slices | |
JP5364009B2 (en) | Image generating apparatus, image generating method, and program thereof | |
US10318841B2 (en) | Medical-image processing apparatus, ultrasonic diagnostic apparatus, and medical-image processing method | |
US10674994B2 (en) | Ultrasonic imaging device and image processing method | |
JP2022175787A (en) | Image processing device, image processing method and program | |
JP2003265463A (en) | Image diagnosis support system and image diagnosis support program | |
EP2343687B1 (en) | Tomographic image generating apparatus, tomographic image generating method, and program for generating tomographic images | |
Medina et al. | Left ventricle myocardium segmentation in multi-slice computerized tomography | |
JP2022175748A (en) | Image processing device, image processing method and program | |
US20230298174A1 (en) | Image processing apparatus, image processing method, and non-transitory computer readable medium | |
CN112529919B (en) | System and method for generating bullseye chart generation of a subject's heart |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240510 |