JP2022175787A - Image processing device, image processing method and program - Google Patents

Image processing device, image processing method and program Download PDF

Info

Publication number
JP2022175787A
JP2022175787A JP2021082479A JP2021082479A JP2022175787A JP 2022175787 A JP2022175787 A JP 2022175787A JP 2021082479 A JP2021082479 A JP 2021082479A JP 2021082479 A JP2021082479 A JP 2021082479A JP 2022175787 A JP2022175787 A JP 2022175787A
Authority
JP
Japan
Prior art keywords
cross
section
image
group
sections
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021082479A
Other languages
Japanese (ja)
Inventor
格 音丸
Itaru Otomaru
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Canon Medical Systems Corp
Original Assignee
Canon Inc
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc, Canon Medical Systems Corp filed Critical Canon Inc
Priority to JP2021082479A priority Critical patent/JP2022175787A/en
Publication of JP2022175787A publication Critical patent/JP2022175787A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Analysis (AREA)

Abstract

To provide an image processing device which more quickly and highly accurately acquires a reference cross section group used for observation and image processing of a three-dimensional image.SOLUTION: An image processing device comprises: an image acquisition unit which acquires an input image being a three-dimensional image of an object; and a cross section acquisition unit which acquires a second cross section group formed of a plurality of second cross sections on the basis of a first cross section group formed from a plurality of first cross sections that are set for observing the object in the input image and are in a prescribed angle relation with each other, and a constraint condition based on the prescribed angle relation.SELECTED DRAWING: Figure 2

Description

本発明は、画像処理装置、画像処理方法、およびプログラムに関する。 The present invention relates to an image processing device, an image processing method, and a program.

医用の分野では、超音波画像診断装置など種々の画像診断装置(モダリティ)によって取得される3次元画像が診断に用いられている。3次元画像を用いた診断では、医師は、3次元画像に対して観察対象となる断面(以下、基準断面とも称される)を複数設定し、基準断面上で診断をしたり、計測または機能評価といった種々の画像処理を適用したりする。複数の基準断面(以下、基準断面群とも称する)は、互いに所定の位置関係および角度関係を持つ。例えば、3次元経食道心エコーの観察では、互いに凡そ直交する3つの基準断面が用いられる。 In the medical field, three-dimensional images acquired by various image diagnostic apparatuses (modalities) such as ultrasonic diagnostic imaging apparatuses are used for diagnosis. In diagnosis using a three-dimensional image, a doctor sets a plurality of cross-sections (hereinafter also referred to as reference cross-sections) to be observed in the three-dimensional image, and diagnoses, measures, or performs functions on the reference cross-sections. Various image processing such as evaluation is applied. A plurality of reference cross-sections (hereinafter also referred to as a group of reference cross-sections) have predetermined positional and angular relationships with each other. For example, three-dimensional transesophageal echocardiographic observation uses three reference planes that are approximately orthogonal to each other.

3次元画像の断面を取得する技術として、例えば、特許文献1は、候補断面から探索部位の特徴点を検出し、検出した複数の特徴点の情報を用いて観測用断面を取得する技術を開示する。また、特許文献2は、互いに非直交な2つの断面画像に、互いに異なる断面画像をそれぞれ重畳して表示し、瘤のネック面を調整する技術を開示する。 As a technique for acquiring a cross section of a three-dimensional image, for example, Patent Document 1 discloses a technique for detecting feature points of a search site from candidate cross sections and acquiring observation cross sections using information on a plurality of detected feature points. do. Further, Patent Literature 2 discloses a technique for adjusting the neck surface of an aneurysm by superimposing and displaying mutually different cross-sectional images on two non-orthogonal cross-sectional images.

国際公開第2016/195110号WO2016/195110 特開2017-35379号公報JP 2017-35379 A

3次元画像の観察および計測をするための基準断面群は、例えば、人手により設定することができる。即ち、医師などの作業者は、3次元画像上で、いずれの断面が基準断面であるかを特定する。人手による基準断面の設定は、作業者の作業負担を増加させる。また、人手により設定された基準断面は、一貫性および再現性に乏しい場合がある。さらに、探索部位の特徴点の情報を用いて観測用断面を取得しても、基準断面を効率的に探索できない場合がある。 A reference slice group for observing and measuring a three-dimensional image can be set manually, for example. That is, an operator such as a doctor specifies which cross section is the reference cross section on the three-dimensional image. Manually setting the reference cross section increases the workload of the operator. Also, manually set fiducial cross-sections may be inconsistent and reproducible. Furthermore, even if observation cross-sections are obtained using information on feature points of search regions, it may not be possible to efficiently search for reference cross-sections.

本発明は、3次元画像の観察および画像処理に用いる基準断面群を、より高速により高精度で取得する画像処理装置を提供することを目的とする。 SUMMARY OF THE INVENTION An object of the present invention is to provide an image processing apparatus that acquires a group of reference cross-sections used for observation and image processing of a three-dimensional image at a higher speed and with a higher degree of accuracy.

上記課題を解決するため、本発明に係る画像処理装置は、
対象物の3次元画像である入力画像を取得する画像取得部と、
前記入力画像で前記対象物を観察するために設定され、互いに所定の角度関係にある複数の第一の断面からなる第一の断面群と、前記所定の角度関係に基づく制約条件とに基づいて、複数の第二の断面からなる第二の断面群を取得する断面取得部と、
を備えることを特徴とする。
In order to solve the above problems, an image processing apparatus according to the present invention includes:
an image acquisition unit that acquires an input image that is a three-dimensional image of an object;
Based on a first cross-section group consisting of a plurality of first cross-sections set to observe the object in the input image and having a predetermined angular relationship with each other, and a constraint condition based on the predetermined angular relationship , a cross-section acquisition unit that acquires a second cross-section group consisting of a plurality of second cross-sections;
characterized by comprising

本発明によれば、3次元画像の観察および画像処理に用いる基準断面群を、より高速により高精度で取得することができる。 According to the present invention, it is possible to obtain a group of reference cross-sections used for observation and image processing of a three-dimensional image at a higher speed and with a higher degree of accuracy.

基準断面について説明する図である。It is a figure explaining a reference cross section. 第1実施形態に係る画像処理システムの構成を例示する図である。1 is a diagram illustrating the configuration of an image processing system according to a first embodiment; FIG. 第1実施形態に係る基準断面取得処理を例示するフローチャートである。9 is a flowchart illustrating reference cross-section acquisition processing according to the first embodiment; 学習モデル生成処理を例示するフローチャートである。9 is a flowchart illustrating learning model generation processing; 第一の断面取得処理を例示するフローチャートである。9 is a flowchart illustrating first cross-section acquisition processing; 第二の断面取得処理を例示するフローチャートである。9 is a flowchart illustrating second cross-section acquisition processing; 第2実施形態に係る画像処理システムの構成を例示する図である。FIG. 10 is a diagram illustrating the configuration of an image processing system according to a second embodiment; FIG. 第2実施形態に係る基準断面取得処理を例示するフローチャートである。10 is a flowchart illustrating reference cross-section acquisition processing according to the second embodiment;

以下、図面を参照して、本発明の実施形態を例示的に詳しく説明する。ただし、以下の実施形態に記載されている構成要素はあくまで例示であり、本発明の技術的範囲は、個別の実施形態によって限定されるわけではない。 Embodiments of the present invention will be exemplarily described in detail below with reference to the drawings. However, the components described in the following embodiments are merely examples, and the technical scope of the present invention is not limited by individual embodiments.

実施形態に係る画像処理装置は、被検体(対象物)を撮像した3次元画像(3次元ボリューム)を入力し、2種類以上の基準断面を取得(推定)する機能を提供する。処理対象となる入力画像は、医用画像、すなわち、医学的な診断、検査、研究などの目的で撮影または生成された被検体(人体など)の画像であり、典型的には、モダリティと呼ばれる撮像システムによって取得された画像である。例えば、処理対象になり得る入力画像は、超音波診断装置によって得られる超音波画像、X線CT装置によって得られるX線CT画像、MRI装置によって得られるMRI画像などである。 The image processing apparatus according to the embodiment provides a function of inputting a three-dimensional image (three-dimensional volume) of a subject (object) and acquiring (estimating) two or more types of reference cross sections. The input image to be processed is a medical image, that is, an image of a subject (such as a human body) captured or generated for purposes such as medical diagnosis, examination, and research. 1 is an image acquired by the system; For example, input images that can be processed include ultrasonic images obtained by an ultrasonic diagnostic apparatus, X-ray CT images obtained by an X-ray CT apparatus, MRI images obtained by an MRI apparatus, and the like.

以下の実施形態は、3次元経食道超音波プローブで撮像された心臓領域の3次元画像(3次元経食道心エコー)を対象とする例を用いて、画像処理装置が基準断面群を取得する処理の具体例を詳しく説明する。 In the following embodiments, an image processing apparatus acquires a group of reference cross sections using an example of a three-dimensional image of a heart region (three-dimensional transesophageal echocardiography) captured by a three-dimensional transesophageal ultrasound probe. A specific example of processing will be described in detail.

<第1実施形態>
第1実施形態に係る画像処理装置は、3次元経食道プローブで撮像された3次元画像から、3次元画像に撮影された僧帽弁を観察するために好適な3つの基準断面を取得する。3つの基準断面は互いに凡そ直交であるものとする。
<First Embodiment>
The image processing apparatus according to the first embodiment acquires three reference cross-sections suitable for observing the mitral valve captured in the three-dimensional image from the three-dimensional image captured by the three-dimensional transesophageal probe. It is assumed that the three reference cross sections are approximately orthogonal to each other.

本実施形態は、基準断面が互いに凡そ直交であるという性質を利用する。すなわち、画像処理装置は、まず、3つの断面が互いに直交であるという制約のもとに、第一の断面(暫定基準断面)を取得する。次に、画像処理装置は、第一の断面群(暫定基準断面群)の各第一の断面が相互に直交性を有する状態から乖離しすぎないように各第一の断面を変動させることで、それぞれの第一の断面に対応する第二の断面(基準断面)を取得する。 This embodiment takes advantage of the property that the reference cross-sections are approximately orthogonal to each other. That is, the image processing apparatus first acquires the first cross section (temporary reference cross section) under the constraint that the three cross sections are orthogonal to each other. Next, the image processing apparatus changes the first cross-sections of the first cross-section group (provisional reference cross-section group) so as not to deviate too much from the state in which the first cross-sections are orthogonal to each other. , obtain a second cross-section (reference cross-section) corresponding to each first cross-section.

図1を用いて、3つの第二の断面の例を説明する。図1は、経食道プローブを用いて僧帽弁を撮像した3次元画像を、左心室と左心房の接続部で輪切りにした断面画像を模式的に表している。図1は、大動脈弁101および僧帽弁102を示す。僧帽弁102は、前尖103および後尖104という2つの膜からなる。 An example of three second cross sections will be described with reference to FIG. FIG. 1 schematically shows a cross-sectional image obtained by slicing a three-dimensional image of the mitral valve using a transesophageal probe at the junction of the left ventricle and the left atrium. FIG. 1 shows an aortic valve 101 and a mitral valve 102 . The mitral valve 102 consists of two membranes, an anterior leaflet 103 and a posterior leaflet 104 .

図1において直線で表される断面111は、大動脈弁101の中央と僧帽弁102の中央とを貫く第二の断面であり、A面(YZ平面)と呼ばれる。断面111を表す直線に垂直な直線で表される断面112は、前尖と後尖との接続位置の2か所を貫く第二の断面であり、B面(XZ平面)と呼ばれる。断面113は、左心室と左心房の接続部を輪切りにした第二の断面であり、C面(XY平面)と呼ばれる。A面、B面、C面は、互いに凡そ直交の関係にある第二の断面群である。 A cross section 111 represented by a straight line in FIG. 1 is a second cross section passing through the center of the aortic valve 101 and the center of the mitral valve 102, and is called the A plane (YZ plane). A cross-section 112 represented by a straight line perpendicular to the straight line representing the cross-section 111 is a second cross-section passing through two connecting positions between the anterior leaflet and the posterior leaflet, and is called the B plane (XZ plane). A cross-section 113 is a second cross-section obtained by cutting the junction of the left ventricle and the left atrium, and is called the C-plane (XY plane). The A-plane, B-plane, and C-plane are a second group of cross sections that are substantially perpendicular to each other.

医師が手動で第二の断面を設定する場合、各第二の断面は、見え方を考慮して、直交関
係からある程度乖離した(角度がずれた)断面に設定される場合がある。本実施形態では、画像処理装置は、互いに直交関係にある複数の第一の断面を取得し、取得した第一の断面の角度を補正することにより、それぞれに対応する第二の断面を取得する。
When the doctor manually sets the second cross-sections, each second cross-section may be set to a cross-section that deviates from the orthogonal relationship to some extent (the angle is shifted) in consideration of the appearance. In the present embodiment, the image processing apparatus obtains a plurality of first cross sections that are orthogonal to each other, corrects the angles of the obtained first cross sections, and obtains corresponding second cross sections. .

[装置構成]
図2を用いて、本実施形態の画像処理装置の構成および処理を説明する。図2は、第1実施形態に係る画像処理システム(医用画像処理システムとも称する)の構成を例示するブロック図である。画像処理システムは、画像処理装置10およびデータベース22を備える。
[Device configuration]
The configuration and processing of the image processing apparatus according to this embodiment will be described with reference to FIG. FIG. 2 is a block diagram illustrating the configuration of an image processing system (also referred to as a medical image processing system) according to the first embodiment. The image processing system includes an image processing device 10 and a database 22 .

画像処理装置10は、ネットワーク21を介して、データベース22に通信可能な状態で接続されている。ネットワーク21は、例えば、LAN(Local Area Network)およびWAN(Wide Area Network)を含む。なお、画像処理装置10は、データベース22と一体に構成されてもよい。 The image processing apparatus 10 is communicably connected to a database 22 via a network 21 . The network 21 includes, for example, a LAN (Local Area Network) and a WAN (Wide Area Network). Note that the image processing apparatus 10 may be configured integrally with the database 22 .

データベース22は、複数の画像および情報を保持し、管理する。データベース22で管理される情報は、画像処理装置10の処理対象となる3次元画像、および学習モデル(学習済モデル)を生成するための学習データ(教師データとも称する)を含む。学習データは、学習用に用意された複数の症例(学習用症例)のデータで構成される。以下では、学習データに含まれる個々の症例のデータを学習用症例データと呼ぶ。夫々の学習用症例データは、各症例の3次元画像、および各画像における正解の第二の断面の情報を含む。データベース22で管理される情報は、学習データの代わりに、学習データから生成された学習モデルの情報を含んでもよい。 The database 22 holds and manages multiple images and information. Information managed by the database 22 includes three-dimensional images to be processed by the image processing apparatus 10 and learning data (also referred to as teacher data) for generating learning models (learned models). The learning data is composed of data of a plurality of cases prepared for learning (learning cases). Below, the data of individual cases included in the learning data will be referred to as learning case data. Each piece of learning case data includes a three-dimensional image of each case and correct second cross-sectional information in each image. The information managed by the database 22 may include information on learning models generated from learning data instead of learning data.

画像処理装置10は、ネットワーク21を介してデータベース22で保持されているデータを取得することが可能である。なお、データベース22に記憶される情報またはデータベース22に記憶される情報の一部は、画像処理装置10の内部記憶(ROM32または記憶部34)に記憶されてもよい。 The image processing apparatus 10 can acquire data held in the database 22 via the network 21 . Information stored in the database 22 or part of the information stored in the database 22 may be stored in the internal storage (ROM 32 or storage unit 34) of the image processing apparatus 10. FIG.

画像処理装置10は、通信IF(Interface)31、ROM(Read Only Memory)32、RAM(Random Access Memory)33、記憶部34、操作部35、表示部36、および制御部37を備える。 The image processing apparatus 10 includes a communication IF (Interface) 31 , a ROM (Read Only Memory) 32 , a RAM (Random Access Memory) 33 , a storage section 34 , an operation section 35 , a display section 36 and a control section 37 .

通信IF31(通信部)は、例えば、LANカードである。通信IF31は、例えば、データベース22などの外部装置と画像処理装置10との間の通信を実現する。ROM32は、不揮発性のメモリであり、各種プログラムおよび各種データを記憶する。RAM33は、揮発性のメモリであり、実行中のプログラムおよびデータを一時的に記憶するワークメモリとして用いられる。 The communication IF 31 (communication unit) is, for example, a LAN card. The communication IF 31 realizes communication between an external device such as the database 22 and the image processing apparatus 10, for example. The ROM 32 is a non-volatile memory and stores various programs and various data. The RAM 33 is a volatile memory and used as a work memory for temporarily storing programs and data being executed.

記憶部34は、例えば、HDD(Hard Disk Drive)であり、各種プログラムおよび各種データを記憶する。操作部35は、キーボード、マウス、タッチパネルなどであり、医師または検査技師といったユーザーから、画像処理装置10の各ブロックに対する指示の入力を受け付ける。 The storage unit 34 is, for example, an HDD (Hard Disk Drive), and stores various programs and various data. The operation unit 35 is a keyboard, a mouse, a touch panel, or the like, and receives input of instructions for each block of the image processing apparatus 10 from a user such as a doctor or a laboratory technician.

表示部36は、ディスプレイなどであって、各種情報をユーザーに表示する。制御部37は、例えば、CPU(Central Processing Unit)などの1以上のプロセッサを含み、画像処理装置10の処理を統括的に制御する。制御部37は、GPU(Graphics Processing Unit)、DSP(Digital
Signal Processor)、FPGA(Field-Programmable Gate Array)などを含んでもよい。制御部37は、機能的な構成として
、画像取得部41、学習モデル生成部42、第一の断面取得部43、第二の断面取得部44、および表示制御部45を備える。
The display unit 36 is a display or the like, and displays various information to the user. The control unit 37 includes one or more processors such as a CPU (Central Processing Unit), and controls the processing of the image processing apparatus 10 in an integrated manner. The control unit 37 includes a GPU (Graphics Processing Unit), a DSP (Digital
Signal Processor), FPGA (Field-Programmable Gate Array), and the like. The control unit 37 includes an image acquisition unit 41, a learning model generation unit 42, a first cross-section acquisition unit 43, a second cross-section acquisition unit 44, and a display control unit 45 as functional configurations.

画像取得部41は、処理対象となる入力画像(第二の断面が未設定の3次元画像)をデータベース22から取得する。処理対象となる入力画像は、各種モダリティ(撮像システム)により取得された被検体の画像である。本実施形態での入力画像は、心臓を撮像した3次元超音波画像であるものとする。画像取得部41は、入力画像をモダリティから直接取得してもよい。この場合、画像処理装置10は、モダリティのコンソールとして実装されてもよい。本実施形態では、入力画像が3次元超音波画像である例を説明するが、入力画像は他の種類の画像であってもよい。 The image acquisition unit 41 acquires from the database 22 an input image to be processed (a three-dimensional image in which the second cross section is not set). Input images to be processed are images of a subject acquired by various modalities (imaging systems). Assume that the input image in this embodiment is a three-dimensional ultrasound image of the heart. The image acquisition unit 41 may directly acquire the input image from the modality. In this case, the image processing apparatus 10 may be implemented as a modality console. In this embodiment, an example in which the input image is a three-dimensional ultrasound image will be described, but the input image may be another type of image.

学習モデル生成部42(第一生成部、第二生成部)は、データベース22から学習データを取得し、学習モデルを構築する。学習データを構成する学習用症例データは、それぞれ、各症例の3次元画像の画素値情報および正解の第二の断面の情報(以下、正解第二断面情報と称する)を含む。学習モデル生成部42は、データベース22から取得した学習データを用いて、第一の断面取得用の学習モデル(第一学習モデル)および第二の断面取得用の学習モデル(第二学習モデル)という2種類の学習モデルを構築する。 The learning model generation unit 42 (first generation unit, second generation unit) acquires learning data from the database 22 and builds a learning model. The learning case data constituting the learning data includes pixel value information of the three-dimensional image of each case and correct second cross-section information (hereinafter referred to as correct second cross-section information). The learning model generation unit 42 uses the learning data acquired from the database 22 to generate a learning model for acquiring a first cross section (first learning model) and a learning model for acquiring a second cross section (second learning model). We build two types of learning models.

第一の断面取得部43は、第一の断面取得用の学習モデルを用いて、第一の断面群を取得する。第一の断面群は、互いに直交する複数の第一の断面を含む。第一の断面取得用の学習モデルは、断面同士が直交するという制約条件の下で3次元画像から断面を取得する学習モデルである。詳しくは、ステップS303の説明で後述する。 The first cross-section acquiring unit 43 acquires the first cross-section group using the learning model for acquiring the first cross-section. The first group of cross-sections includes a plurality of first cross-sections orthogonal to each other. The first learning model for cross-section acquisition is a learning model for acquiring cross-sections from a three-dimensional image under the constraint that the cross-sections are orthogonal to each other. Details will be described later in the description of step S303.

第二の断面取得部44は、第二の断面取得用の学習モデルを用いて、第一の断面群の各第一の断面に対応する第二の断面を含む第二の断面群を取得する。第二の断面取得部44は、第一の断面取得部43が取得した第一の断面群を初期値として第二の断面を取得する。第二の断面取得用の学習モデルは、各第一の断面を初期値として、第二の断面同士の位置関係が直交関係から乖離しすぎないという制約の下で、各第一の断面に対応する第二の断面を取得する学習モデルである。詳しくは、ステップS304の説明で後述する。 The second cross-section acquisition unit 44 acquires a second cross-section group including second cross-sections corresponding to the first cross-sections of the first cross-section group using the second cross-section acquisition learning model. . The second cross-section acquisition unit 44 acquires a second cross-section using the first cross-section group acquired by the first cross-section acquisition unit 43 as an initial value. The learning model for acquiring the second cross-section corresponds to each first cross-section under the constraint that the positional relationship between the second cross-sections does not deviate too much from the orthogonal relationship, with each first cross-section as an initial value. It is a learning model that acquires the second cross section that Details will be described later in the description of step S304.

表示制御部45は、第二の断面取得部44が取得した結果を、表示部36の画像表示領域内に表示する。表示制御部45は、入力画像および取得(推定)した第二の断面の情報を、ユーザーが容易に視認できるような表示形態で、表示部36の画像表示領域内に表示させる。 The display control unit 45 displays the result obtained by the second cross-section obtaining unit 44 within the image display area of the display unit 36 . The display control unit 45 displays the input image and the acquired (estimated) information of the second cross section in the image display area of the display unit 36 in a display form that allows the user to easily visually recognize them.

画像処理装置10の各構成要素は、コンピュータプログラムに従って機能する。例えば、制御部37(CPU)は、RAM33をワーク領域としてROM32または記憶部34などに記憶されたコンピュータプログラムを読み込み、実行することで、各構成要素の機能を実現する。 Each component of the image processing apparatus 10 functions according to a computer program. For example, the control unit 37 (CPU) reads and executes a computer program stored in the ROM 32 or the storage unit 34 using the RAM 33 as a work area, thereby implementing the functions of each component.

なお、画像処理装置10の構成要素の一部またはすべての機能が専用の回路を用いることで実現されてもよい。また、制御部37の構成要素の一部の機能が、クラウドコンピュータを用いることで実現されてもよい。例えば、画像処理装置10は、ネットワーク21を介して異なる場所にある演算装置に通信可能に接続され、画像処理装置10と演算装置とがデータの送受信を行うことで、画像処理装置10の各構成要素の機能が実現されてもよい。 Note that some or all of the functions of the components of the image processing apparatus 10 may be realized by using a dedicated circuit. Moreover, some functions of the components of the control unit 37 may be realized by using a cloud computer. For example, the image processing apparatus 10 is communicably connected to a computing device located at a different location via the network 21, and data is transmitted and received between the image processing device 10 and the computing device. Element functionality may be implemented.

[第二の断面取得処理]
図3を用いて、第二の断面取得処理について説明する。図3は、第1実施形態に係る第二の断面取得処理を例示するフローチャートである。
[Second Cross-Section Acquisition Processing]
The second cross-section acquisition process will be described with reference to FIG. FIG. 3 is a flowchart illustrating second cross-section acquisition processing according to the first embodiment.

(ステップS301:画像の取得/表示)
ステップS301において、ユーザーが操作部35を介して画像の取得を指示すると、画像取得部41は、ユーザーが指定した入力画像をデータベース22から取得し、RAM33に格納する。また、表示制御部45は、データベース22から取得した入力画像を表示部36の画像表示領域内に表示する。
(Step S301: Image Acquisition/Display)
In step S<b>301 , when the user instructs image acquisition via the operation unit 35 , the image acquisition unit 41 acquires the input image specified by the user from the database 22 and stores it in the RAM 33 . The display control unit 45 also displays the input image acquired from the database 22 within the image display area of the display unit 36 .

なお、入力画像の指定方法は、公知のいずれの方法を用いてもよい。例えば、入力画像は、ユーザーにより直接指定されてもよい。また、入力画像は、撮影日時といった所定の基準に基づいて自動で選択されてもよい。例えば、画像取得部41は、未観察の画像のうち直近の撮影日時の画像を、入力画像として選択することができる。 Any known method may be used to specify the input image. For example, the input image may be specified directly by the user. Also, the input image may be automatically selected based on a predetermined criterion such as the shooting date and time. For example, the image acquisition unit 41 can select, as an input image, an image captured on the most recent date and time among unobserved images.

(ステップS302:学習モデルの生成)
ステップS302において、学習モデル生成部42は、学習データをデータベース22から取得し、取得した学習データを用いて学習処理を実行することにより、学習装置としての学習モデルを構築する。学習データは、学習用症例として、学習モデルのロバスト性を高めるために、異なる複数の患者を撮影した症例データを含むことが望ましい。また、学習データは、同一患者を撮像した一連の動画像データにおける各フレーム画像、および同一患者を異なる時期に撮影した画像を含んでもよい。
(Step S302: Generate Learning Model)
In step S302, the learning model generation unit 42 acquires learning data from the database 22 and executes learning processing using the acquired learning data to construct a learning model as a learning device. The learning data desirably includes case data obtained by photographing a plurality of different patients, as cases for learning, in order to increase the robustness of the learning model. The learning data may also include each frame image in a series of moving image data obtained by imaging the same patient, and images obtained by imaging the same patient at different times.

図4を用いて、本ステップでの学習モデル生成部42の処理を詳述する。図4は、学習モデル取得処理を例示するフローチャートである。 The processing of the learning model generation unit 42 in this step will be described in detail with reference to FIG. FIG. 4 is a flowchart illustrating learning model acquisition processing.

(ステップS3021:学習データの画像および正解第二断面情報の取得)
ステップS3021において、学習モデル生成部42は、学習データを、データベース22から取得する。学習データは、各学習用症例の3次元画像および正解第二断面情報を含む。
(Step S3021: Acquisition of learning data image and correct second cross-sectional information)
In step S<b>3021 , the learning model generation unit 42 acquires learning data from the database 22 . The learning data includes a three-dimensional image of each learning case and correct second cross-sectional information.

学習データに含まれる各学習用症例の3次元画像は、各軸方向(幅、高さ、奥行)のボクセル数、1ボクセルあたりの物理サイズ、および各ボクセルの画素値を格納する配列という3種類の情報で構成される。 There are three types of 3D images of each learning case included in the learning data: the number of voxels in each axis direction (width, height, depth), the physical size per voxel, and the array that stores the pixel value of each voxel. information.

学習データに含まれる各学習用症例の正解第二断面情報は、当該学習用症例の各第二の断面を定義する情報である。図1で説明したように、学習データの各学習用症例では、A面、B面、C面の3種類の断面が第二の断面として定義されている。3種類の第二の断面は、例えば、以下の式(1)に示す通り、3つのパラメータを有する4本のベクトルで定義される。すなわち3種類の第二の断面は、合計12のパラメータにより定義される。

Figure 2022175787000002
The correct second slice information of each learning case included in the learning data is information defining each second slice of the learning case. As described with reference to FIG. 1, in each learning case of learning data, three types of cross-sections of A plane, B plane, and C plane are defined as second cross-sections. The three types of second cross sections are defined by four vectors having three parameters, for example, as shown in Equation (1) below. That is, the three types of second cross sections are defined by a total of 12 parameters.
Figure 2022175787000002

式(1)で、Cは、3つの第二の断面の交点、すなわち3つの第二の断面が互いに交わる空間中の1点の座標を表す位置ベクトルである。また、N~Nは、それぞれA面、B面、C面の法線ベクトルを表す。 In equation (1), C is a position vector representing the coordinates of the intersection point of the three second cross-sections, that is, the coordinates of a point in space where the three second cross-sections intersect each other. Also, N A to N C represent the normal vectors of the A plane, B plane, and C plane, respectively.

(ステップS3022:正解第二断面情報の直交化)
ステップS3022において、学習モデル生成部42は、ステップS3021で取得した学習データの各学習用症例に対し、正解第二断面情報を直交化(補正)する。具体的には、学習モデル生成部42は、夫々の学習用症例の各第二の断面を定義する情報(正解第二断面情報)を、互いに直交する断面を表すパラメータに近似して変換する。断面同士が
互いに直交する場合、各第二の断面を定義する情報は、以下の式(2)に示す合計6のパラメータにより表現することができる。

Figure 2022175787000003
(Step S3022: Orthogonalization of correct second cross-sectional information)
In step S3022, the learning model generation unit 42 orthogonalizes (corrects) the correct second cross-sectional information for each learning case of the learning data acquired in step S3021. Specifically, the learning model generation unit 42 approximates and converts information defining each second cross section of each learning case (correct second cross section information) into parameters representing mutually orthogonal cross sections. If the cross-sections are orthogonal to each other, the information defining each second cross-section can be represented by a total of six parameters shown in equation (2) below.
Figure 2022175787000003

式(2)で、Cは、式(1)のCと同じく、3つの第二の断面の交点の座標を表す位置ベクトルである。また、Rは、X軸、Y軸、Z軸から対応する各第二の断面の法線ベクトルへの各軸方向の回転角度を表す。S3021で取得した正解第二断面は、第二の断面(の法線ベクトル)同士が互いに直交するように近似することにより、式(1)の場合よりも少ないパラメータで、互いに直交する3つの第二の断面として式(2)のように表すことができる。 In equation (2), C is a position vector representing the coordinates of the intersection of the three second cross sections, like C in equation (1). Also, R represents the rotation angle in each axial direction from the X-axis, Y-axis, and Z-axis to the normal vector of each corresponding second cross section. The correct second cross section acquired in S3021 is obtained by approximating the second cross sections (normal vectors thereof) so that they are orthogonal to each other. It can be expressed as a formula (2) as two cross sections.

本ステップで正解第二断面情報を直交化するための変換処理について、具体的に説明する。学習モデル生成部42は、式(2)のパラメータRを求めることにより、正解第二断面情報を直交化することができる。 The conversion processing for orthogonalizing the correct second cross-sectional information in this step will be specifically described. The learning model generation unit 42 can orthogonalize the correct second cross-sectional information by obtaining the parameter R in Equation (2).

ここでは、C面を優先し、変換の前後でC面の向きが変化しない例について説明する。まず、学習モデル生成部42は、C面の法線ベクトルNとB面の法線ベクトルNとの外積を計算し、ベクトルN’を取得する。公知の定理である外積の直交性により、ベクトルN’は、ベクトルNおよびベクトルNの両方と直交する。 Here, an example in which priority is given to the C-plane and the orientation of the C-plane does not change before and after conversion will be described. First, the learning model generation unit 42 calculates the outer product of the normal vector N C of the C plane and the normal vector N B of the B plane, and acquires the vector N A ′. Vector N A ' is orthogonal to both vector N C and vector N B by the well-known theorem orthogonality of outer products.

次に、学習モデル生成部42は、ベクトルNとベクトルN’との外積を計算し、ベクトルN’を取得する。外積の直交性により、ベクトルN’は、ベクトルN’およびベクトルNの両方と直交する。このように、学習モデル生成部42は、ベクトルN’、ベクトルN’、ベクトルNという互いに直交する3本のベクトルを取得する。 Next, the learning model generation unit 42 calculates the outer product of the vector N C and the vector N A ', and obtains the vector N B '. Vector N B ' is orthogonal to both vector N A ' and vector N C due to the orthogonality of the cross product. In this way, the learning model generation unit 42 acquires three mutually orthogonal vectors, vector N A ', vector N B ', and vector N C .

なお、学習モデル生成部42は、C面を優先する場合に限られず、A面またはB面を優先して、互いに直交する3本のベクトルを取得してもよい。A面を優先する場合、学習モデル生成部42は、まずNおよびNに直交するN’を取得し、次にNおよびN’に直交するN’を取得する。同様に、B面を優先する場合、学習モデル生成部42は、まずNおよびNに直交するN’を取得し、次にNおよびN’に直交するN’を取得する。 Note that the learning model generation unit 42 is not limited to giving priority to the C plane, and may give priority to the A plane or the B plane to obtain three mutually orthogonal vectors. When the A plane is prioritized, the learning model generation unit 42 first acquires NB ' that is orthogonal to NA and NC, and then acquires NC ' that is orthogonal to NA and NB '. Similarly, when priority is given to surface B, the learning model generator 42 first acquires N C ' orthogonal to N B and N A , and then acquires N A ' orthogonal to N B and N C '. .

学習モデル生成部42は、ベクトルNがXZ平面上およびYZ平面上でZ軸となす角度をそれぞれrおよびrとして取得する。また、学習モデル生成部42は、ベクトルNで定義される平面においてベクトルN’がX軸となす角度をrとして取得する。学習モデル生成部42は、変換前の3つの第二の断面の交点の座標を位置ベクトルCとすることで、互いに直交する3つの断面を表す6個のパラメータを取得することができる。 The learning model generator 42 acquires the angles that the vector N C forms with the Z axis on the XZ plane and the YZ plane as r x and r y , respectively. The learning model generation unit 42 also acquires, as r z , the angle formed by the vector N B ′ and the X axis on the plane defined by the vector N C . The learning model generation unit 42 can acquire six parameters representing three cross sections orthogonal to each other by using the coordinates of the intersection of the three second cross sections before conversion as the position vector C.

なお、正解第二断面情報を直交化するためのパラメータは、ベクトルN’、ベクトルN’、ベクトルNという互いに直交する3本のベクトルが空間中でなす姿勢を表現できればよく、上述したRに限られない。互いに直交する第二の断面群の向き(姿勢)は、R以外のパラメータによって表されてもよい。例えば、互いに直交する第二の断面群の向きは、回転軸および回転角による表現、四元数による表現など、一般的な手法を用いて表現することができる。 It should be noted that the parameters for orthogonalizing the correct second cross-sectional information should be able to express the postures formed in space by three mutually orthogonal vectors, vector N A ', vector N B ', and vector N C . Not limited to R. The orientation (orientation) of the second group of cross sections orthogonal to each other may be represented by a parameter other than R. For example, the orientation of the second group of cross sections that are orthogonal to each other can be expressed using a general method such as expression using a rotation axis and rotation angle, expression using a quaternion, or the like.

また、学習モデル生成部42は、C面を優先して正解第二断面情報を直交化する場合に限られず、他の断面を優先して直交化をしてもよい。さらに、学習モデル生成部42は、特定の断面を優先するのではなく、変換処理の前後で全体的な軸の向きの変化が最小とな
るようなパラメータを探索してもよい。例えば、学習モデル生成部42は、式(2)において適当な6パラメータを初期値とし、第二の断面群の各軸ベクトルとなす角度の誤差を求める。そして、学習モデル生成部42は、勾配法といった公知のパラメータ探索手法を用いて、各軸角度誤差の合計値が最小となるパラメータの組を探索する。
Further, the learning model generation unit 42 is not limited to orthogonalizing the correct second cross-section information with priority on the C plane, and may also orthogonalize other cross-sections with priority. Furthermore, instead of prioritizing a specific cross section, the learning model generation unit 42 may search for parameters that minimize the overall change in the direction of the axis before and after conversion processing. For example, the learning model generation unit 42 uses the appropriate six parameters in Equation (2) as initial values, and obtains the error of the angle formed with each axis vector of the second cross-section group. Then, the learning model generation unit 42 searches for a set of parameters that minimizes the total value of each axis angle error using a known parameter search method such as the gradient method.

(ステップS3023:第一の断面取得用学習モデルの構築)
ステップS3023において、学習モデル生成部42(第1生成部)は、ステップS3022で得られた、正解第二断面情報が直交化された学習データを用いて、学習モデルを構築する。第一の断面取得用の学習モデルは、処理対象となる3次元画像から一部を切り出した部分3次元画像(サンプル)を入力として、入力された前記サンプルが第一の断面群を特定するサンプルとして適切であるか否かを出力する学習装置である。
(Step S3023: Construction of learning model for acquiring first cross section)
In step S3023, the learning model generation unit 42 (first generation unit) constructs a learning model using the learning data obtained in step S3022 in which the correct second cross-sectional information is orthogonalized. The learning model for acquiring the first cross section is input with a partial three-dimensional image (sample) obtained by extracting a part from the three-dimensional image to be processed, and the input sample is a sample that specifies the first cross section group. It is a learning device that outputs whether or not it is appropriate as

学習モデル生成部42は、例えば、Random Forestのアルゴリズムから派生した公知の手法であるExtremely Randomized Tree(ERT)を用いて、学習モデルを構築する。ERTは、例えば、非特許文献:Geurts et al., “Extremely Randomized Trees”,Machine Learning, vol.36,number 1,pp.3-42,2006.に開示される手法である。 The learning model generation unit 42 builds a learning model using, for example, Extremely Randomized Tree (ERT), which is a known technique derived from the Random Forest algorithm. ERT is described, for example, in Geurts et al. , "Extremely Randomized Trees", Machine Learning, vol. 36, number 1, pp. 3-42, 2006. It is a method disclosed in.

以下、学習モデルを構築する具体的な手順を示す。まず、学習モデル生成部42は、学習データに含まれる夫々の学習用症例データの3次元画像および直交化された第二の断面パラメータ(以下、正解位置と称する)の情報を用いて、学習用症例データの3次元画像から一部を切り出したサンプルを生成する。具体的には、学習モデル生成部42は、位置ベクトルCの位置を中心として、パラメータRが示す姿勢に従い、3次元画像から所定の大きさの領域(部分3次元画像)を切り出す。3次元画像から切り出す領域は、例えば50×50×50ボクセルである。 A specific procedure for constructing a learning model is shown below. First, the learning model generation unit 42 uses the three-dimensional image of each learning case data included in the learning data and the information of the orthogonalized second cross-sectional parameter (hereinafter referred to as the correct position) to generate the learning A sample is generated by cutting out a part from the three-dimensional image of the case data. Specifically, the learning model generation unit 42 cuts out a region (partial three-dimensional image) of a predetermined size from the three-dimensional image according to the orientation indicated by the parameter R with the position of the position vector C as the center. A region cut out from the three-dimensional image is, for example, 50×50×50 voxels.

切り出すサンプル(部分3次元画像)の大きさは、第二の断面を取得する際に観察対象となる被検体(図1の例では、僧帽弁領域)を充分に含む大きさであることが望ましい。切り出されたサンプルは、例えば10×10×10の大きさにリサイズされる。学習モデル生成部42は、10×10×10=1000ボクセル分の画素値を1列に並べたベクトルを求めて、求めたベクトルを正解サンプルとする。一方、非正解サンプルは、正解位置から大きくずれた位置または姿勢で切り出されたサンプルである。 The size of the sample (partial three-dimensional image) to be cut out should be large enough to include the subject (in the example of FIG. 1, the mitral valve region) to be observed when acquiring the second cross section. desirable. The extracted sample is resized to, for example, 10×10×10. The learning model generation unit 42 obtains a vector in which pixel values of 10×10×10=1000 voxels are arranged in a line, and uses the obtained vector as a correct sample. On the other hand, a non-correct sample is a sample cut out at a position or orientation greatly deviated from the correct position.

学習モデル生成部42は、1つの学習用症例データから複数(例えば500個ずつ)の正解サンプルおよび非正解サンプルを切り出す。非正解サンプルはほぼ無限に生成可能であるのに対し、1つの学習用症例データから得られる真の正解サンプルは1つである。 The learning model generation unit 42 cuts out a plurality of (for example, 500 each) correct samples and non-correct samples from one piece of learning case data. While non-correct samples can be generated almost infinitely, only one true correct sample can be obtained from one set of learning case data.

複数の正解サンプルを取得するため、学習モデル生成部42は、正解位置(第二の断面パラメータ)に対して、多少の位置ずれ、姿勢のずれ、スケールの変更などを加えたサンプルも、正解サンプルとする。例えば、正解サンプルの許容範囲は、正解位置を基準として、位置は±5ピクセル、角度は±5度、スケールは0.95倍から1.05倍の間の範囲とする。すなわち、正解サンプルは、許容範囲内で正解位置の位置、姿勢、スケールをランダムに変更して切り出したサンプルとし、非正解サンプルは、許容範囲外で切り出されたサンプルとする。 In order to obtain a plurality of correct samples, the learning model generation unit 42 also generates samples obtained by adding some positional deviation, posture deviation, scale change, etc. to the correct position (second cross-sectional parameter). and For example, the allowable range of correct samples is ±5 pixels for position, ±5 degrees for angle, and 0.95 times to 1.05 times for scale, based on the correct position. That is, a correct sample is a sample extracted by randomly changing the position, posture, and scale of the correct position within the allowable range, and an incorrect sample is a sample extracted outside the allowable range.

学習モデル生成部42は、S3022で直交化されたそれぞれの学習データに対して、正解サンプルおよび非正解サンプルを切り出す。学習モデル生成部42は、学習データ1症例につき、例えば、500個ずつの正解サンプルおよび非正解サンプルを生成する。 The learning model generation unit 42 cuts out correct samples and non-correct samples from each of the learning data orthogonalized in S3022. The learning model generation unit 42 generates, for example, 500 correct samples and 500 non-correct samples for each case of learning data.

学習モデル生成部42は、生成した正解サンプルおよび非正解サンプルを用いて、識別器(学習モデル)を構築する。学習モデル生成部42は、例えば、ERTを用いて、入力された未知のサンプルが、正解サンプルか非正解サンプルかを識別する識別器を構築することができる。 The learning model generation unit 42 constructs a discriminator (learning model) using the generated correct and non-correct samples. The learning model generation unit 42 can use ERT, for example, to construct a discriminator that discriminates whether an input unknown sample is a correct sample or a non-correct sample.

なお、識別器の構築は、ERTを用いる場合に限られず、学習データに基づいてパラメータを推定する手法であれば、任意の手法を適用可能である。例えば、識別器は、決定木、ニューラルネットワーク、深層学習、SVM(Support Vector Machine)を用いた機械学習により構築されてもよい。 Note that construction of the classifier is not limited to the case of using ERT, and any method can be applied as long as it is a method of estimating parameters based on learning data. For example, the discriminator may be constructed by machine learning using a decision tree, neural network, deep learning, or SVM (Support Vector Machine).

また、学習モデルは、学習用症例データの3次元画像の画素値を用いて構築する例で説明したが、3次元画像に所定の画像処理を適用したデータを用いて構築することも可能である。例えば、学習モデル生成部42は、所定の方向に画素値を微分した微分画像を生成し、該微分画像からサンプルを切り出してもよい。また、学習モデル生成部42は、ノイズ低減または先鋭化といった画質改善処理を適用した画像からサンプルを切り出してもよい。 In addition, although the learning model is constructed using the pixel values of the three-dimensional image of the case data for learning, it is also possible to construct the learning model using data obtained by applying predetermined image processing to the three-dimensional image. . For example, the learning model generation unit 42 may generate a differential image by differentiating pixel values in a predetermined direction, and cut out samples from the differential image. The learning model generation unit 42 may also cut out samples from an image to which image quality improvement processing such as noise reduction or sharpening has been applied.

(ステップS3024:第二の断面取得用学習モデルの構築)
ステップ2024において、学習モデル生成部42(第2生成部)は、ステップS3021で得られた(直交化される前の)学習データを用いて、学習モデルを構築する。ステップS3023と同様に、学習モデル生成部42は、ERTにより学習モデルを構築することができる。基準断面取得用の学習モデルは、断面画像を入力として、入力された断面画像が基準断面として適切であるか否かを出力する学習装置であり、断面毎に生成される。
(Step S3024: Construction of second cross-section acquisition learning model)
In step 2024, the learning model generation unit 42 (second generation unit) constructs a learning model using the learning data (before being orthogonalized) obtained in step S3021. As in step S3023, the learning model generation unit 42 can construct a learning model by ERT. A learning model for acquiring a reference cross section is a learning device that receives a cross-sectional image as an input and outputs whether or not the input cross-sectional image is appropriate as a reference cross-section, and is generated for each cross-section.

ステップS3023で構築する第一の断面取得用学習モデルとステップ2024で構築する第二の断面取得用学習モデルとの違いについて説明する。第一の断面取得用学習モデルは、式(2)における位置ベクトルCおよびパラメータRに含まれる合計6個のパラメータを推定するための学習モデルである。 The difference between the first learning model for cross-section acquisition built in step S3023 and the second learning model for cross-section acquisition built in step S2024 will be described. The first cross-section acquisition learning model is a learning model for estimating a total of six parameters included in the position vector C and the parameter R in Equation (2).

一方、第二の断面取得用学習モデルでは、第一の断面の取得により、式(2)における位置ベクトルCおよびパラメータRは、分かっていると仮定される。第二の断面取得用学習モデルは、式(1)における位置ベクトルCおよび法線ベクトルN~法線ベクトルNという合計12個のパラメータを求めるための学習モデルである。 On the other hand, in the second cross-section acquisition learning model, it is assumed that the position vector C and the parameter R in equation (2) are known from acquisition of the first cross-section. The second cross-section acquisition learning model is a learning model for obtaining a total of 12 parameters of the position vector C and the normal vectors N A to N C in Equation (1).

学習モデル生成部42は、第二の断面取得用学習モデルの構築では、まず、交点座標の位置ベクトルCとして、第一の断面取得で得られる値をそのまま採用する。次に、学習モデル生成部42は、ベクトルN~ベクトルNという3つの法線ベクトルを推定(取得)するために、それぞれA面取得用、B面取得用、C面取得用の第二の断面毎の3つの学習モデルを用いる。第一の断面取得用のモデルは、3次元画像(部分3次元画像)をサンプルとして構築されるのに対して、A面、B面、C面の第二の断面取得用の3つの学習モデルは、2次元画像(断面画像)をサンプルとして用いる。 In constructing the learning model for acquiring the second cross section, the learning model generation unit 42 first adopts the value obtained by acquiring the first cross section as it is as the position vector C of the intersection coordinates. Next, the learning model generating unit 42, in order to estimate (obtain) three normal vectors of vector N A to vector N C , obtain second planes A, B, and C, respectively. We use three learning models for each cross-section of . The model for acquiring the first cross section is constructed using a three-dimensional image (partial three-dimensional image) as a sample, while the three learning models for acquiring the second cross section of planes A, B, and C are uses a two-dimensional image (cross-sectional image) as a sample.

以下、3つの第二の断面の学習モデル構築手順について説明する。まず、学習モデル生成部42は、学習データに含まれる夫々の学習用症例データの3次元画像および第二の断面パラメータ(正解位置)を用いて、学習用症例データの3次元画像からA面、B面、C面の断面画像を切り出したサンプルを生成する。 The procedure for constructing the learning model for the three second cross sections will be described below. First, the learning model generation unit 42 uses the 3D image and the second cross-sectional parameter (correct position) of each piece of learning case data included in the learning data to convert the 3D image of the learning case data into plane A, Samples are generated by cutting out cross-sectional images of the B plane and the C plane.

具体的には、学習モデル生成部42は、A面の断面画像サンプルを生成する場合、位置ベクトルCの位置を中心として法線ベクトルNの姿勢に従い、断面画像を所定の大きさ
(例えば50×50ピクセル)で切り出す。学習モデル生成部42は、切り出したサンプルを、例えば10×10ピクセルの大きさにリサイズする。学習モデル生成部42は、10×10=100ピクセル分の画素値を1列に並べたベクトルを、正解サンプルとして取得する。
Specifically, when generating a cross-sectional image sample of the plane A , the learning model generating unit 42 converts the cross-sectional image to a predetermined size (for example, 50 x 50 pixels). The learning model generation unit 42 resizes the extracted sample to a size of 10×10 pixels, for example. The learning model generating unit 42 acquires a vector in which pixel values of 10×10=100 pixels are arranged in a line as a correct sample.

学習モデル生成部42は、B面およびC面に対しても同様に、正解サンプルのベクトルを取得する。また、学習モデル生成部42は、ステップS3023と同様の手順を用いて、1つの学習用症例データから所定数(例えば500個ずつ)の正解サンプルおよび非正解サンプルを生成する。 The learning model generation unit 42 similarly acquires vectors of correct samples for the B plane and the C plane. In addition, the learning model generation unit 42 generates a predetermined number (for example, 500 each) of correct samples and non-correct samples from one piece of learning case data using the same procedure as in step S3023.

識別器の構築方法は、ステップS3023と同様である。ただし、学習モデル生成部42は、ステップS3023では1つの学習モデルを生成するのに対し、ステップS3024では、A面、B面、C面の第二の断面取得用の3つの学習モデルを生成する。 The classifier construction method is the same as in step S3023. However, while the learning model generating unit 42 generates one learning model in step S3023, in step S3024 it generates three learning models for obtaining the second cross-sections of planes A, B, and C. .

なお、ステップS3023の場合と同様に、学習モデルの生成は、ERTを用いる場合に限られず、学習データに基づいてパラメータを推定する手法であれば、任意の方法を適用可能である。 As in the case of step S3023, generation of the learning model is not limited to the case of using ERT, and any method can be applied as long as it is a method of estimating parameters based on learning data.

また、学習モデル生成部42は、ステップS3023とステップS3024とで、異なる手法で学習モデルを構築してもよい。例えば、学習モデル生成部42は、ステップS3023ではERTに基づく学習モデルを構築し、ステップS3024では深層学習に基づく学習モデルを構築してもよい。 Also, the learning model generating unit 42 may construct the learning model using different methods in steps S3023 and S3024. For example, the learning model generation unit 42 may build a learning model based on ERT in step S3023, and build a learning model based on deep learning in step S3024.

また、ステップS3023の場合と同様、学習モデル生成部42は、学習用症例データの3次元画像の画素値ではなく、画素値を微分する微分処理、ノイズ低減、先鋭化といった任意の画像処理を適用した画像からサンプルを切り出してもよい。学習モデル生成部42は、ステップS3023とステップS3024とでは、異なる画像処理を適用した画像を用いてもよい。例えば、学習モデル生成部42は、ステップS3023では微分画像を用いて学習モデルを構築し、ステップS3024では、先鋭化を施した画像を用いて学習モデルを構築してもよい。 In addition, as in step S3023, the learning model generation unit 42 applies arbitrary image processing such as differentiation processing for differentiating pixel values, noise reduction, and sharpening instead of pixel values of the three-dimensional image of the case data for learning. You may cut out a sample from the image. The learning model generation unit 42 may use images to which different image processing is applied in steps S3023 and S3024. For example, the learning model generation unit 42 may build the learning model using the differential image in step S3023, and build the learning model using the sharpened image in step S3024.

学習モデル生成部42は、以上により、ステップS302の学習モデルの生成処理を実行する。なお、ステップS302の学習モデルの生成処理は、入力画像に対して画像処理装置10が実行する第二の断面取得処理とは独立した処理である。したがって、ステップS302の処理は、事前に実施しておくことができる。生成された学習モデルは、例えば、データベース22または記憶部34などの記憶装置に保存される。 The learning model generation unit 42 executes the learning model generation processing in step S302 as described above. Note that the learning model generation processing in step S302 is processing independent of the second cross-section acquisition processing that the image processing apparatus 10 executes on the input image. Therefore, the process of step S302 can be performed in advance. The generated learning model is stored in a storage device such as the database 22 or the storage unit 34, for example.

あらかじめ学習モデルを生成しておいた場合、ステップS302において、学習モデル生成部42は、記憶装置から学習モデルを読み込んでRAM33に格納する。あらかじめ学習モデルを生成しておくことで、入力画像に対する第二の断面取得処理の処理時間は短縮される。なお、学習モデルの生成処理は、ステップS302に示した手順によって、画像処理装置10とは異なる他の装置で実行されてもよい。 When the learning model is generated in advance, the learning model generation unit 42 reads the learning model from the storage device and stores it in the RAM 33 in step S302. By generating a learning model in advance, the processing time of the second cross-section acquisition process for the input image can be shortened. Note that the learning model generation process may be executed by a device other than the image processing device 10 according to the procedure shown in step S302.

(ステップS303:第一の断面群の取得)
ステップS303において、第一の断面取得部43は、ステップS301で取得される入力画像と、ステップS3023で生成される第一の断面取得用学習モデルを用いて、第一の断面群を取得する。第一の断面取得部43は、互いに直交する3つの第一の断面の位置および姿勢を算出する。すなわち、第一の断面取得部43は、入力画像に対して、式(2)で示す合計6個のパラメータを算出する。
(Step S303: Acquisition of first group of cross sections)
In step S303, the first cross-section acquisition unit 43 acquires a first cross-section group using the input image acquired in step S301 and the first learning model for cross-section acquisition generated in step S3023. The first cross-section obtaining unit 43 calculates the positions and orientations of three first cross-sections that are orthogonal to each other. That is, the first cross-section acquiring unit 43 calculates a total of six parameters represented by Equation (2) for the input image.

第一の断面取得部43は、公知の識別器であるERTを用いて第一の断面群を取得する。識別器は、入力画像から切り出した未知のサンプル(部分3次元画像)が入力されると、入力されたサンプルが第一の断面群として適切なサンプル(正解サンプル)か、第一の断面群として適切でないサンプル(非正解サンプル)かを識別する。第一の断面取得部43は、識別器により正解と判定されたサンプルに基づいて第一の断面群を取得する。 The first cross-section acquiring unit 43 acquires a first group of cross-sections using an ERT, which is a known discriminator. When an unknown sample (partial three-dimensional image) cut out from the input image is input, the classifier determines whether the input sample is an appropriate sample (correct sample) for the first cross section group, or Inappropriate samples (non-correct samples) are identified. The first cross-section acquiring unit 43 acquires a first group of cross-sections based on samples determined to be correct by the discriminator.

図5を用いて、本ステップでの第一の断面取得部43の処理を詳述する。図5は、第一の断面取得処理を例示するフローチャートである。 The processing of the first cross-section acquisition unit 43 in this step will be described in detail with reference to FIG. FIG. 5 is a flowchart illustrating the first cross-section acquisition process.

ステップS3031において、第一の断面取得部43は、学習モデル構築の際、画像処理が適用されたか否かを判定する。学習モデル構築の際、画像処理が適用された場合、処理はS3032に進む。学習モデル構築の際、画像処理が適用されなかった場合、処理はS3033に進む。 In step S3031, the first cross-section acquisition unit 43 determines whether or not image processing has been applied when constructing the learning model. When image processing is applied during learning model construction, the process proceeds to S3032. If image processing was not applied when constructing the learning model, the process proceeds to S3033.

ステップS3032において、第一の断面取得部43は、入力画像に、学習モデルを構築した際に適用した画像処理と同一の画像処理を適用する。例えば、学習モデルが微分画像を用いて構築されている場合、第一の断面取得部43は、入力画像に対しても微分処理を施す。学習モデルを構築した際に適用した画像処理と同一の画像処理を施した画像は、前処理済み画像と称する。 In step S3032, the first cross-section acquisition unit 43 applies the same image processing as the image processing applied when constructing the learning model to the input image. For example, when the learning model is constructed using a differential image, the first cross-section acquiring unit 43 also performs differential processing on the input image. An image that has been subjected to the same image processing as the image processing applied when building the learning model is referred to as a preprocessed image.

ステップS3033において、第一の断面取得部43は、入力画像または前処理済み画像から事前に定められた範囲の中でランダムにパラメータを変動させてサンプル(部分3次元画像)を切り出す。事前に定められた範囲は、例えば、入力画像(前処理済み画像)の中心を基準として各軸方向±100ボクセル、および各軸方向±45度の範囲とすることができる。サンプルの切り出しは、具体的には、第一の断面取得用学習モデルの構築(ステップS3023)と同様で方法で行う。ここで切り出されるサンプルの一つ一つが、切り出しに用いたパラメータ(位置と姿勢)で定義される第一の断面群の候補(仮説)を表す。第一の断面取得部43は、切り出したサンプルを第一の断面取得用識別器に入力し、入力したサンプルが正解サンプルか不正解サンプルかを判定する。サンプルの切り出しと識別という一連のプロセスは、所定回数(例えば10,000回)実行される。 In step S3033, the first cross-section acquisition unit 43 cuts out a sample (partial three-dimensional image) by randomly varying parameters within a predetermined range from the input image or the preprocessed image. The predetermined range can be, for example, a range of ±100 voxels in each axis direction and ±45 degrees in each axis direction with respect to the center of the input image (preprocessed image). Specifically, the sample is cut out in the same manner as in the construction of the first learning model for cross-section acquisition (step S3023). Each sample extracted here represents a candidate (hypothesis) for the first cross-section group defined by the parameters (position and orientation) used for extraction. The first cross-section acquisition unit 43 inputs the extracted sample to the first discriminator for cross-section acquisition, and determines whether the input sample is a correct sample or an incorrect sample. A series of processes of sample extraction and identification are performed a predetermined number of times (eg, 10,000 times).

ステップS3034において、第一の断面取得部43は、正解と判定されたサンプル(第一の断面群の候補)から第一の断面群を取得する。正解と判定されたサンプルが一つの場合、第一の断面取得部43は、当該サンプルの位置と姿勢を、第一の断面群のパラメータ(以下、第一の断面パラメータとも称する)として出力する。一方、正解と判定されたサンプルが複数存在する場合、第一の断面取得部43は、正解と判定されたサンプルの平均位置および平均角度を、第一の断面群のパラメータとして出力する。取得した第一の断面パラメータは、位置ベクトルCcおよびパラメータRcとする。 In step S3034, the first cross-section acquiring unit 43 acquires a first group of cross-sections from samples determined to be correct (candidates for the first group of cross-sections). If only one sample is determined to be correct, the first cross-section acquisition unit 43 outputs the position and orientation of the sample as parameters of the first cross-section group (hereinafter also referred to as first cross-section parameters). On the other hand, if there are a plurality of samples determined to be correct, the first cross-section acquiring unit 43 outputs the average position and average angle of the samples determined to be correct as parameters of the first cross-section group. The acquired first cross-sectional parameters are the position vector Cc and the parameter Rc.

なお、正解と判定されるサンプルが見つからなかった場合、第一の断面取得部43は、第一の断面群が見つからなかった旨をユーザーに通知するダイアログボックスを、表示部36に表示してもよい。 It should be noted that if no sample determined to be correct is found, the first cross-section acquisition unit 43 may display a dialog box on the display unit 36 to notify the user that the first group of cross-sections has not been found. good.

また、第一の断面取得部43は、正解と判定されたサンプルが複数存在する場合、平均位置および平均角度を本ステップの出力とすることができるが、これに限られない。例えば、第一の断面取得部43は、正解と判定されたサンプル群にK近傍法といった公知のクラスタリングを適用し、サンプル数が多いクラスタに含まれるサンプルを用いて平均位置および平均角度を算出してもよい。 In addition, when there are a plurality of samples determined to be correct, the first cross-section acquisition unit 43 can output the average position and the average angle in this step, but the present invention is not limited to this. For example, the first cross-section acquiring unit 43 applies known clustering such as the K nearest neighbor method to the sample group determined to be correct, and calculates the average position and average angle using the samples included in the cluster with a large number of samples. may

また、第一の断面取得部43は、正解と判定されたサンプルのうち画素値のコントラス
トが閾値よりも高いサンプルを選択し、平均位置および平均角度を算出してもよい。このように、第一の断面取得部43は、正解と判定されたサンプルのうち所定の基準を満たすサンプルを選択して、平均位置および平均角度を算出することができる。
Further, the first cross-section acquiring unit 43 may select samples whose pixel value contrast is higher than the threshold value among the samples determined to be correct, and calculate the average position and average angle. In this way, the first cross-section acquisition unit 43 can select samples that satisfy a predetermined criterion among the samples determined to be correct, and calculate the average position and average angle.

また、正解と判定されたサンプルが見つからなかった場合、第一の断面取得部43は、第一の断面が見つからなかった旨をユーザーに通知するのではなく、適切なパラメータを本ステップの出力(第一の断面)として、処理を続行してもよい。適切なパラメータは、例えば、第一の断面取得用学習モデルの構築で用いられた正解サンプルの学習データにおける平均位置および平均角度とすることができる。 Further, when no sample determined to be correct is found, the first cross-section acquiring unit 43 does not notify the user that the first cross-section was not found, but outputs an appropriate parameter in this step ( The process may be continued as the first section). Appropriate parameters can be, for example, the average position and average angle in learning data of correct samples used in building the first learning model for cross-section acquisition.

また、第一の断面取得部43は、例えば位置の3パラメータを算出し、算出済みの位置のパラメータを固定して、角度の3パラメータを算出してもよい。反対に、第一の断面取得部43は、角度の3パラメータを算出し、算出済みの角度のパラメータを固定して、位置の3パラメータを算出してもよい。 Alternatively, the first cross-section acquiring unit 43 may calculate, for example, the three parameters of the position, fix the parameters of the position that have already been calculated, and calculate the three parameters of the angle. Conversely, the first cross-section acquisition unit 43 may calculate the three parameters of the angle, fix the calculated parameters of the angle, and calculate the three parameters of the position.

さらに、本ステップの第一の断面群の取得処理は、観察対象である僧帽弁の位置と姿勢を定義する直交座標系を求める問題と捉えて、3次元画像中における対象物の位置および姿勢を推定する公知の手法により実行されてもよい。例えば、僧帽弁の3次元画像テンプレートを作成し、テンプレートマッチング手法により僧帽弁の位置と姿勢を推定してもよい。 Furthermore, the acquisition processing of the first slice group in this step is regarded as a problem of obtaining an orthogonal coordinate system that defines the position and orientation of the mitral valve to be observed. may be performed by a known method of estimating For example, a three-dimensional image template of the mitral valve may be created, and the position and orientation of the mitral valve may be estimated by template matching techniques.

(ステップS304:第二の断面群の取得)
ステップS304において、第二の断面取得部44は、各第二の断面を取得する。第二の断面取得部44は、ステップS301で取得される入力画像と、ステップS303で算出される第一の断面パラメータCcおよびRcと、ステップS3024で生成される第二の断面取得用学習モデルと、を用いて各第二の断面を取得する。
(Step S304: Acquisition of second group of cross sections)
In step S304, the second cross-section obtaining unit 44 obtains each second cross-section. The second cross-section acquisition unit 44 acquires the input image acquired in step S301, the first cross-section parameters Cc and Rc calculated in step S303, and the second cross-section acquisition learning model generated in step S3024. , to obtain each second cross-section.

例えば、第二の断面取得部44は、入力画像に対して、式(1)で示す合計12個のパラメータで表される各第二の断面の向きを算出(補正)することにより、第二の断面を取得することができる。第二の断面取得部44は、ステップS303と同様、ERT識別器を用いて第二の断面群を取得する。 For example, the second cross-section acquiring unit 44 calculates (corrects) the orientation of each second cross-section represented by a total of 12 parameters shown in Equation (1) for the input image, thereby obtaining the second can be obtained. The second cross-section acquisition unit 44 acquires a second cross-section group using the ERT discriminator, as in step S303.

図6を用いて、本ステップでの第二の断面取得部44の処理を詳述する。図6は、第二の断面取得処理を例示するフローチャートである。 The processing of the second cross-section acquisition unit 44 in this step will be described in detail with reference to FIG. FIG. 6 is a flowchart illustrating the second cross-section acquisition process.

S3041において、第二の断面取得部44は、第一の断面パラメータのうち角度パラメータRcを、それぞれの第一の断面の法線ベクトルNc、Nc、Ncへと変換する。第二の断面取得部44は、入力画像におけるX軸、Y軸、Z軸ベクトルを、角度パラメータRcの各パラメータに基づいて回転させることでそれぞれの第一の断面の法線ベクトルを取得することができる。 In S3041, the second cross-section acquisition unit 44 converts the angle parameter Rc among the first cross-section parameters into normal vectors NAc , NBc , and NCc of the respective first cross-sections. The second cross-section acquiring unit 44 acquires the normal vector of each first cross-section by rotating the X-axis, Y-axis, and Z-axis vectors in the input image based on each parameter of the angle parameter Rc. can be done.

ステップS3042において、第二の断面取得部44は、学習モデル構築の際、画像処理が適用されたか否かを判定する。学習モデル構築の際、画像処理が適用された場合、処理はS3043に進む。学習モデル構築の際、画像処理が適用されなかった場合、処理はS3044に進む。 In step S3042, the second cross-section acquiring unit 44 determines whether or not image processing has been applied when constructing the learning model. When image processing is applied during learning model construction, the process proceeds to S3043. If image processing was not applied when constructing the learning model, the process proceeds to S3044.

ステップS3043において、第二の断面取得部44は、入力画像に対して、学習モデルを構築した際に適用した画像処理と同一の画像処理を適用する。例えば、学習モデルが微分画像を用いて構築されている場合、第二の断面取得部44は、入力画像に対しても微分処理を施す。学習モデルを構築した際に適用した画像処理と同一の画像処理を施した画
像は、前処理済み画像と称する。
In step S3043, the second cross-section acquisition unit 44 applies the same image processing as the image processing applied when constructing the learning model to the input image. For example, if the learning model is constructed using a differential image, the second cross-section acquiring unit 44 also performs differential processing on the input image. An image that has been subjected to the same image processing as the image processing applied when building the learning model is referred to as a preprocessed image.

ステップS3044において第二の断面取得部44は、それぞれの第一の断面に基づいて、入力画像または前処理済み画像から各第二の断面のサンプルを切り出す。ステップS3033とは異なり、本ステップで切り出すサンプルは2次元断面画像である。第二の断面取得部44は、位置ベクトルCcを固定した状態で、A面、B面、C面のそれぞれのサンプルを切り出す。 In step S3044, the second cross-section acquiring unit 44 cuts out samples of each second cross-section from the input image or the preprocessed image based on each first cross-section. Unlike step S3033, the sample cut out in this step is a two-dimensional cross-sectional image. The second cross-section acquiring unit 44 cuts out samples of each of the A plane, B plane, and C plane while the position vector Cc is fixed.

第二の断面取得部44は、法線ベクトルNcを中心とした所定角度の範囲内で(すなわち、第一の断面である法線ベクトルNcを初期値として)ランダムにサンプルを切り出し、A面のサンプルとする。同様に、第二の断面取得部44は、B面およびC面のサンプルを切り出す。ここで切り出されるサンプルの一つ一つが、切り出しに用いたパラメータ(姿勢)で定義される各第二の断面の候補(仮説)を表す。なお、A面のサンプルは、位置Cおよび法線ベクトルNcに基づいて切り出されたものであれば、必ずしもNcを中心として(すなわち、初期値として)切り出されたものでなくてもよい。例えば、あるA面のサンプルが与えられたときに、位置Cおよび法線ベクトルNcに対する差異と画質評価指標(例えば輝度コントラスト)との重みづけ和によって計算されるコスト関数を定義する。そして、入力画像からランダムにA面のサンプルを切り出して、前記コスト関数値が一定以下となるA面のサンプルを採用するようにすることができる。 The second cross-section acquiring unit 44 cuts out samples randomly within a predetermined angle range centered on the normal vector N A c (that is, with the normal vector N A c of the first cross section as an initial value). , A-side samples. Similarly, the second cross-section acquiring unit 44 cuts out B-plane and C-plane samples. Each sample extracted here represents a candidate (hypothesis) for each second cross section defined by the parameter (orientation) used for extraction. Note that the sample of the A plane does not necessarily have to be cut out centered on N A c (that is, as an initial value) as long as it is cut out based on the position C and the normal vector N A c. good. For example, a cost function is defined that is calculated by a weighted sum of differences for position C and normal vector N A c and an image quality evaluation index (eg, luminance contrast) given a sample of a certain A plane. Then, samples of the A plane can be randomly cut out from the input image, and samples of the A plane whose cost function value is equal to or less than a certain value can be adopted.

第二の断面取得部44は、A面、B面、C面のサンプルを切り出す際、それぞれの2次元断面サンプルが、互いに直交する関係から乖離しすぎないように切り出す。例えば、第二の断面取得部44は、サンプルを切り出す所定角度の範囲を、各法線ベクトルを中心とした±5度とすることで、直交関係から乖離しすぎないように、サンプルを切り出すことができる。 The second cross-section acquiring unit 44 cuts out the samples of the A plane, the B plane, and the C plane so that the respective two-dimensional cross-section samples do not deviate too much from the mutually orthogonal relationship. For example, the second cross-section acquisition unit 44 sets the range of the predetermined angle for cutting out the sample to ±5 degrees around each normal vector, thereby cutting out the sample so as not to deviate too much from the orthogonal relationship. can be done.

また、各面の2次元断面サンプルが、互いに直交する関係から乖離しすぎないように切り出す方法の他の具体例について説明する。まず、第二の断面取得部44は、A面のサンプルを切り出したあと、A面の各サンプルの法線ベクトルの平均値から所定の角度(例えば±10度)以上乖離しているサンプルを棄却する。なお、第二の断面取得部44は、A面の各サンプルの法線ベクトルの平均値ではなく、法線ベクトルNから所定の角度以上乖離しているサンプルを棄却するようにしてもよい。 Another specific example of a method of cutting out two-dimensional cross-sectional samples of each surface so as not to deviate too much from the relationship of being perpendicular to each other will be described. First, the second cross-section acquisition unit 44 cuts out samples of the A plane, and then rejects samples that deviate from the average value of the normal vector of each sample of the A plane by a predetermined angle (for example, ±10 degrees) or more. do. The second cross-section acquiring unit 44 may reject samples that deviate from the normal vector N A by a predetermined angle or more, instead of the average value of the normal vector of each sample of the A plane.

次に、第二の断面取得部44は、B面のサンプルを切り出し、A面の法線ベクトルの平均値と、切り出したB面のサンプルの法線ベクトルとの角度を算出する。第二の断面取得部44は、切り出したB面の法線ベクトルが、A面の法線ベクトルの平均値と、直交(90度)関係から所定の角度(例えば±10度)以上乖離している場合、当該B面のサンプルは棄却する。 Next, the second cross-section acquiring unit 44 cuts out samples of the B plane, and calculates the angle between the average value of the normal vectors of the A plane and the normal vectors of the cut out samples of the B plane. The second cross-section acquiring unit 44 deviates by a predetermined angle (eg ±10 degrees) from the orthogonality (90 degrees) relationship from the average value of the normal vectors of the cut-out B plane and the A plane. If so, reject the B-side sample.

同様に、第二の断面取得部44は、C面のサンプルを切り出し、A面の法線ベクトルの平均値およびB面の法線ベクトルの平均値と、切り出したC面のサンプルの法線ベクトルとの角度を算出する。第二の断面取得部44は、切り出したC面の法線ベクトルが、A面の法線ベクトルの平均値またはB面の法線ベクトルの平均値と、直交(90度)関係から所定角度(例えば±10度)以上乖離している場合、当該C面のサンプルは棄却する。 Similarly, the second cross-section acquisition unit 44 cuts out a sample of the C plane, the average value of the normal vectors of the A plane and the average value of the normal vectors of the B plane, and the normal vector of the cut out sample of the C plane Calculate the angle between The second cross-section acquisition unit 44 determines that the normal vector of the cut-out C plane is orthogonal (90 degrees) to the average value of the normal vectors of the A plane or the average value of the normal vectors of the B plane, and is at a predetermined angle ( For example, ±10 degrees) or more, the C-plane sample is rejected.

このように、第二の断面取得部44は、A面、B面、C面が、互いに直交関係からの乖離が、所定角度の範囲内となるサンプルの組を第二の断面群の候補として取得する。なお、上述の例では、第二の断面取得部44は、A面を基準としてB面およびC面が直交関係から乖離しているか否かを判定するが、B面またはC面を基準として他の2つの面が直交関係から乖離しているか否かを判定してもよい。 In this way, the second cross-section acquisition unit 44 selects a set of samples in which the A plane, the B plane, and the C plane deviate from the orthogonal relationship with each other within a predetermined angle range as candidates for the second cross-section group. get. In the above example, the second cross-section acquisition unit 44 determines whether or not the B plane and the C plane deviate from the orthogonal relationship with the A plane as the reference, but other planes are determined with the B plane or the C plane as the reference. It may be determined whether or not the two planes of are deviated from the orthogonal relationship.

第二の断面取得部44は、第二の断面群の候補として取得したサンプルの組を、第二の断面取得用識別器に入力する。入力されたサンプルの組は、第二の断面群として適切なサンプルの組(正解サンプル組)か、第二の断面群として適切でないサンプルの組(不正解サンプル組)かを判定される。そのために、第二の断面取得部44は、まず、A面、B面、C面のサンプルを、それぞれ、A面用、B面用、C面用の第二の断面識別器に入力し、正解サンプルか非正解サンプルかを判定する。そして、第二の断面取得部44は、A面、B面、C面の各サンプルが夫々の識別器でいずれも正解サンプルと判定されたサンプルの組(第二の断面群の候補)を、正解サンプル組として取得する。ステップS3033と同様、S3044の処理(正解サンプル組か不正解サンプル組かの判定処理)は、所定回数(例えば10,000回)実行される。 The second cross-section acquisition unit 44 inputs the set of samples acquired as candidates for the second cross-section group to the second cross-section acquisition discriminator. The input set of samples is determined as to whether it is a set of samples suitable for the second cross-section group (correct sample set) or a sample set unsuitable for the second cross-section group (incorrect sample set). For this purpose, the second cross-section acquisition unit 44 first inputs the samples of the A-plane, B-plane, and C-plane into the second cross-section identifiers for the A-plane, B-plane, and C-plane, respectively, Determine whether the sample is correct or non-correct. Then, the second cross-section acquisition unit 44 selects a set of samples (candidates for the second cross-section group) in which each sample of the A plane, B plane, and C plane is determined to be a correct sample by each classifier, Obtained as a correct sample set. As in step S3033, the process of S3044 (the process of determining whether a correct sample set or an incorrect sample set) is performed a predetermined number of times (for example, 10,000 times).

ステップS3045において、第二の断面取得部44は、正解と判定されたサンプルの組(第二の断面群の候補)から、出力する第二の断面群を取得する。正解と判定されたサンプルの組が一つの場合、第二の断面取得部44は、当該サンプルの組が表す第二の断面のパラメータ(以下、第二の断面パラメータとも称する)を出力する。一方、正解と判定されたサンプルの組が複数存在する場合、第二の断面取得部44は、複数の正解サンプル組における各断面のサンプルの平均法線ベクトルを夫々の第二の断面パラメータとして出力する。 In step S3045, the second cross-section acquisition unit 44 acquires the second cross-section group to be output from the set of samples determined to be correct (candidates for the second cross-section group). If there is only one set of samples determined to be correct, the second cross-section acquiring unit 44 outputs parameters of the second cross-section represented by the set of samples (hereinafter also referred to as second cross-section parameters). On the other hand, if there are a plurality of sets of samples determined to be correct, the second cross-section acquiring unit 44 outputs the average normal vector of each cross-section sample in the plurality of correct sample sets as the respective second cross-section parameters. do.

なお、正解と判定されるサンプルが見つからなかった場合、第二の断面取得部44は、第二の断面が見つからなかった旨をユーザーに通知するダイアログボックスを、表示部36に表示してもよい。 Note that if no sample determined to be correct is found, the second cross-section acquisition unit 44 may display a dialog box on the display unit 36 to notify the user that the second cross-section was not found. .

また、ステップS303と同様に、第二の断面取得部44は、クラスタリングの結果でサンプル数が多いクラスタに含まれるサンプルの平均法線ベクトルを用いてもよい。また、第二の断面取得部44は、画像の輝度コントラストなどの基準に基づいて選択されたサンプルを用いてもよい。さらに、正解と判定されたサンプルが見つからなかった場合、第二の断面取得部44は、第一の断面(すなわち、位置ベクトルCc、および法線ベクトルNc、Nc、Nc)をそのまま出力してもよい。 Also, as in step S303, the second cross-section acquisition unit 44 may use the average normal vector of the samples included in the cluster with the large number of samples as a result of clustering. Alternatively, the second cross-section acquiring unit 44 may use a sample selected based on a criterion such as brightness contrast of the image. Furthermore, if no sample determined to be correct is found, the second cross-section acquiring unit 44 acquires the first cross-section (that is, the position vector Cc and the normal vectors NA c, NB c , and NC c). can be output as is.

(ステップS305:第二の断面取得結果の表示)
ステップS305において、表示制御部45は、入力画像をステップS304で得られる各第二の断面で切り出した断面画像を、表示部36の画像表示領域内に表示する。表示制御部45は、断面画像に加えて、入力画像である3次元画像をサーフェイスレンダリングまたはボリュームレンダリングといった公知の表示手法を用いて2次元画像とした画像を表示してもよい。
(Step S305: Display of Second Cross-Section Acquisition Result)
In step S<b>305 , the display control unit 45 displays in the image display area of the display unit 36 cross-sectional images obtained by cutting out the input image in step S<b>304 at the respective second cross-sections. In addition to the cross-sectional image, the display control unit 45 may display an image obtained by converting a three-dimensional image, which is an input image, into a two-dimensional image using a known display method such as surface rendering or volume rendering.

表示制御部45は、図1に例示するように、ある第二の断面の断面画像を表示する際、当該第二の断面に交差する他の第二の断面を表す直線を、当該断面画像上に重畳して描画してもよい。図1は、C面(断面113)の画像上に、A面(断面111)およびB面(断面112)を表す直線が描画されている例を示す。 As illustrated in FIG. 1, when displaying a cross-sectional image of a certain second cross-section, the display control unit 45 displays a straight line representing another second cross-section that intersects the second cross-section on the cross-sectional image. may be drawn superimposed on the . FIG. 1 shows an example in which straight lines representing plane A (cross section 111) and plane B (cross section 112) are drawn on an image of plane C (cross section 113).

また、表示制御部45は、直線で表された第二の断面が、表示されている断面と直交する角度から、どの程度乖離しているかを示す乖離の度合いの情報を、さらに表示してもよい。例えば、表示制御部45は、第二の断面を表す直線の近傍に「直交から10度乖離」といった文字情報を表示してもよく、乖離の度合いを直線の色または太さなどの表示態様によって表現してもよい。第二の断面の乖離の度合いが表示されることで、ユーザーは、第二の断面取得結果において、各第二の断面が相互にどの程度の直交性を保っているかを、容易に観察することが可能である。 In addition, the display control unit 45 may further display information on the degree of divergence, which indicates how much the second cross section represented by the straight line deviates from the angle orthogonal to the displayed cross section. good. For example, the display control unit 45 may display text information such as "10 degrees deviation from orthogonal" near the straight line representing the second cross section, and the degree of deviation is indicated by a display mode such as the color or thickness of the straight line. can be expressed. By displaying the degree of divergence of the second cross-sections, the user can easily observe how the second cross-sections maintain their orthogonality with each other in the second cross-section acquisition results. is possible.

なお、3次元画像の解析や計測を目的とする場合には、ステップS305の処理は省略することができる。この場合、画像処理装置10は、取得した第二の断面情報を記憶装置に保存し、図3に示す処理を終了する。 Note that if the purpose is to analyze or measure a three-dimensional image, the process of step S305 can be omitted. In this case, the image processing apparatus 10 saves the acquired second cross-sectional information in the storage device, and ends the processing shown in FIG.

なお、第一の断面取得部43は、ステップS303において複数の正解サンプルが得られた場合に、平均をとることで1組の第一の断面群のパラメータに限定するが、これに限られない。第一の断面取得部43は、複数組の正解サンプル(第一の断面群)のパラメータをそのまま第二の断面取得部44に受け渡してもよい。第二の断面取得部44は、受け渡された第一の断面群の数だけステップS304の処理を実行する。第二の断面取得部44は、各第一の断面群に基づいて取得した複数の第二の断面の平均をとることで、1組の第二の断面群を取得することができる。複数組の第一の断面群に基づいて第二の断面群を取得することで、不適切な局所解に陥るリスクは軽減される。 Note that, when a plurality of correct samples are obtained in step S303, the first cross-section acquisition unit 43 limits the parameters to one set of first cross-section group by averaging, but is not limited to this. . The first cross-section acquisition unit 43 may pass the parameters of the multiple sets of correct samples (first cross-section group) to the second cross-section acquisition unit 44 as they are. The second cross-section acquiring unit 44 executes the process of step S304 for the number of transferred first cross-section groups. The second cross-section acquiring unit 44 can acquire a set of second cross-sections by averaging a plurality of second cross-sections acquired based on each first cross-section group. By obtaining the second set of cross-sections based on multiple sets of the first set of cross-sections, the risk of falling into inappropriate local minima is reduced.

第1実施形態では、第二の断面群は、第二の断面同士が直交であるという角度関係から乖離しすぎないように取得される。すなわち、画像処理装置10は、第二の断面同士の角度関係が、直交関係からの乖離が所定角度の範囲内となるように、解の探索範囲を制約する。これにより、画像処理装置10は、3次元画像の観察または画像処理に用いる第二の断面群を、高速でより高精度に取得することができる。 In the first embodiment, the second cross-section group is acquired so as not to deviate too much from the angular relationship that the second cross-sections are orthogonal to each other. That is, the image processing apparatus 10 restricts the search range of the solution so that the angular relationship between the second cross sections deviates from the orthogonal relationship within a predetermined angular range. As a result, the image processing apparatus 10 can acquire the second cross-section group used for observation or image processing of the three-dimensional image at high speed and with higher accuracy.

(変形例1)
第1実施形態は、第二の断面同士が凡そ直交の角度関係の状態である第二の断面群を取得する例を示す。これに対し、変形例1では、取得する第二の断面同士の角度関係は、直交関係でなくてもよい。変形例1では、第二の断面同士の角度関係は、あらかじめ設定された所定の角度関係とすることができる。以下では、図3の第二の断面取得処理および図3の学習モデル生成処理の各ステップの処理のうち、第1実施形態と異なる処理について説明する。
(Modification 1)
The first embodiment shows an example of acquiring a second group of cross-sections in which the second cross-sections are in an approximately orthogonal angular relationship. On the other hand, in Modification 1, the angular relationship between the acquired second cross sections does not have to be an orthogonal relationship. In Modification 1, the angular relationship between the second cross sections can be a predetermined angular relationship set in advance. In the following, among the processing of each step of the second cross-section acquisition processing in FIG. 3 and the learning model generation processing in FIG. 3, processing that differs from the first embodiment will be described.

第二の断面同士が直交以外の角度関係である例として、3次元経胸骨心エコーの3次元画像から、四腔像(A4C)、二腔像(A2C)、三腔像(A3C)の3種類の第二の断面を取得する例が挙げられる。四腔像(A4C)と二腔像(A2C)とは、凡そ直交の関係である。しかしながら、三腔像(A3C)は、四腔像(A4C)に対して約50度回転した断面であり、四腔像(A4C)との角度関係は直交ではない。 As an example in which the second slices have an angular relationship other than orthogonal, three-dimensional images of three-dimensional transsternal echocardiography, four-chamber image (A4C), two-chamber image (A2C), and three-chamber image (A3C), are obtained. An example is taking a second cross-section of a species. The four-chamber view (A4C) and the two-chamber view (A2C) are approximately orthogonal. However, the three-chamber view (A3C) is a cross-section rotated approximately 50 degrees with respect to the four-chamber view (A4C), and the angular relationship with the four-chamber view (A4C) is not orthogonal.

変形例1では、ステップS3022の正解第二断面情報の直交化において、三腔像(A3C)を定義する断面は、他の2断面と直交するのではなく、四腔像(A4C)の断面に対して50度の角度を保つように揃えられる。三腔像(A3C)の断面は、四腔像(A4C)の断面との角度関係が直交関係でない場合であっても、式(2)に示す6パラメータにより、一意に表すことができる。 In Modified Example 1, in the orthogonalization of the correct second cross-section information in step S3022, the cross-section defining the three-chamber view (A3C) is not orthogonal to the other two cross-sections, but to the cross-section of the four-chamber view (A4C). are aligned so as to maintain an angle of 50 degrees. The section of the three-chamber image (A3C) can be uniquely represented by the six parameters shown in Equation (2) even if the angular relationship with the section of the four-chamber image (A4C) is not orthogonal.

ステップS3023、S303で、パラメータをランダムに変動させてサンプルを生成する際、三腔像(A3C)の断面が四腔像(A4C)の断面に対して50度から所定の角度以上乖離しているサンプルは、正解サンプルからも非正解サンプルからも棄却する。 In steps S3023 and S303, when samples are generated by randomly varying the parameters, the section of the three-chamber image (A3C) deviates from the section of the four-chamber image (A4C) by a predetermined angle or more from 50 degrees. Samples are rejected from both correct and non-correct samples.

ステップS304で、各断面のサンプルを切り出す際、四腔像(A4C)の断面に対して直交から所定の角度以上乖離している二腔像(A2C)のサンプルは、第二の断面の候補から棄却する。また、四腔像(A4C)の断面に対して50度から所定の角度以上乖離している三腔像(A3C)のサンプルは、第二の断面の候補から棄却する。 In step S304, when cutting out a sample of each cross section, the sample of the two-chamber view (A2C) that deviates from the cross section of the four-chamber view (A4C) by a predetermined angle or more from the cross section of the four-chamber view (A4C) is selected from the candidates for the second cross section. reject. In addition, the sample of the three-chamber view (A3C), which deviates from the cross-section of the four-chamber view (A4C) by a predetermined angle or more from 50 degrees, is rejected from the candidates for the second cross-section.

変形例1では、第二の断面同士が凡そ直交する角度関係でない場合でも、画像処理装置
10は、3次元画像の観察または画像処理に用いる第二の断面群を、高速でより高精度に取得することができる。
In Modified Example 1, even if the second cross sections are not in a substantially orthogonal angular relationship, the image processing device 10 acquires the second cross section group used for observation or image processing of the three-dimensional image at high speed and with higher accuracy. can do.

(変形例2)
第1実施形態は、第一の断面群および第二の断面群を画像処理装置10が自動で取得する例を示す。これに対し変形例2では、画像処理装置10は、医師などのユーザーから第一の断面群の入力を受け付け、入力された第一の断面群に基づいて、第二の断面群を取得する。以下では、図3の第二の断面取得処理および図3の学習モデル生成処理の各ステップの処理のうち、第1実施形態と異なる処理について説明する。
(Modification 2)
The first embodiment shows an example in which the image processing apparatus 10 automatically acquires the first group of cross-sections and the second group of cross-sections. On the other hand, in Modification 2, the image processing apparatus 10 receives an input of a first group of cross-sections from a user such as a doctor, and acquires a second group of cross-sections based on the input first group of cross-sections. In the following, among the processing of each step of the second cross-section acquisition processing in FIG. 3 and the learning model generation processing in FIG. 3, processing that differs from the first embodiment will be described.

変形例2では、第一の断面群は、ユーザーにより手動で入力される。ステップS303の第一の断面群の取得処理では、表示制御部45は、表示部36に第一の断面を手動で入力するためのユーザーインタフェース(UI)を表示する。ユーザーは、第一の断面を入力するためのUIに対し、操作部35を介して第一の断面を入力する。 In Modified Example 2, the first cross-section group is manually input by the user. In the acquisition process of the first cross-section group in step S303, the display control unit 45 displays a user interface (UI) for manually inputting the first cross-section on the display unit . The user inputs the first cross section via the operation unit 35 to the UI for inputting the first cross section.

第一の断面を入力するためのUIは、互いに直交な3つの第一の断面を指定できるものであればよい。例えば、表示制御部45は、3次元画像をYZ平面、XZ平面、XY平面という3つの面で切断した断面画像をタイル状に並べて表示する。表示制御部45は、それぞれの断面画像上に、マウス操作で移動または回転可能な十字図形を表示する。 Any UI for inputting the first cross-section should be able to specify three mutually orthogonal first cross-sections. For example, the display control unit 45 arranges and displays cross-sectional images obtained by cutting a three-dimensional image along three planes, the YZ plane, the XZ plane, and the XY plane, in tiles. The display control unit 45 displays a cross that can be moved or rotated by mouse operation on each cross-sectional image.

例えば、図1において、YZ平面上に表示される十字図形は、B面およびC面がYZ平面と交差する交線を表す。同様に、XZ平面上に表示される十字図形は、A面およびC面がXZ平面と交差する交線を表し、XY平面上に表示される十字図形は、A面およびB面がXY平面と交差する交線を表す。 For example, in FIG. 1, the cross displayed on the YZ plane represents the line of intersection where the B plane and C plane cross the YZ plane. Similarly, the cross displayed on the XZ plane represents the line of intersection of the A plane and the C plane with the XZ plane, and the cross displayed on the XY plane represents the intersection of the A plane and the B plane with the XY plane. Represents intersecting intersection lines.

ユーザーは、それぞれの断面画像において、マウスによって十字図形を移動または回転させることで第一の断面を入力することができる。いずれかの断面画像の十字図形の位置および角度が変更されると、表示制御部45は、他の2つの断面画像に変更結果を反映する。表示制御部45が第一の断面の入力を受け付けることで、ユーザーは、直交性の制約を保ったまま、直感的に第一の断面群を手動で入力することができる。 The user can input the first cross section by moving or rotating the cross with the mouse in each cross section image. When the position and angle of the cross in one of the cross-sectional images are changed, the display control unit 45 reflects the change results in the other two cross-sectional images. The display control unit 45 accepts the input of the first cross section, so that the user can intuitively and manually input the first cross section group while maintaining the orthogonality constraint.

(変形例3)
第1実施形態では、ステップS3024で第二の断面取得用の学習モデルを構築し、ステップS304で第二の断面群を取得する際、第二の断面取得部44は、入力画像から2次元断面画像を切り出して用いる。これに対し、変形例3では、第二の断面取得部44は、3次元画像(部分3次元画像)を切り出して用いてもよい。以下では、図3の第二の断面取得処理および図3の学習モデル生成処理の各ステップの処理のうち、第1実施形態と異なる処理について説明する。
(Modification 3)
In the first embodiment, the learning model for acquiring the second cross section is constructed in step S3024, and when acquiring the second group of cross sections in step S304, the second cross section acquiring unit 44 acquires the two-dimensional cross section from the input image. Cut out the image and use it. On the other hand, in Modification 3, the second cross-section acquiring unit 44 may cut out and use a three-dimensional image (partial three-dimensional image). In the following, among the processing of each step of the second cross-section acquisition processing in FIG. 3 and the learning model generation processing in FIG. 3, processing that differs from the first embodiment will be described.

ステップS3024およびステップS304で、第二の断面取得部44が切り出すサンプルは、2次元画像(例えば10×10ピクセル)ではなく、3次元画像(例えば10×10×10ピクセル)となる。また、ステップS304において、A面、B面、C面が互いに凡そ直交であることを判定する処理は、各3次元画像サンプルを切り出す際に用いる法線ベクトル同士の角度を算出して判定する処理となる。すなわち、第二の断面取得部44は、法線ベクトル同士の角度が互いに直交する関係から所定の角度以上乖離しているサンプルを棄却する。 In steps S3024 and S304, the sample cut out by the second cross-section acquisition unit 44 is not a two-dimensional image (eg, 10×10 pixels) but a three-dimensional image (eg, 10×10×10 pixels). Further, in step S304, the process of determining that the planes A, B, and C are approximately orthogonal to each other is a process of determining by calculating the angle between the normal vectors used when extracting each three-dimensional image sample. becomes. That is, the second cross-section acquiring unit 44 rejects samples in which the angles of the normal vectors deviate from each other by a predetermined angle or more from the relationship of being orthogonal to each other.

変形例3で、部分3次元画像のサンプルを用いて第二の断面群を取得する場合でも、画像処理装置10は、2次元画像のサンプルを用いた場合と同様に、第二の断面群を高速でより高精度に取得することができる。 In Modification 3, even when the second group of cross-sections is acquired using samples of partial three-dimensional images, the image processing apparatus 10 acquires the second group of cross-sections in the same manner as when samples of two-dimensional images are used. It can be acquired at high speed and with higher accuracy.

<第2実施形態>
第2実施形態に係る画像処理装置10は、第1実施形態と同様に、処理対象である3次元画像(入力画像)から所定の第二の断面を取得(推定)する。第1実施形態は、第一の断面群を取得したあと、取得した第一の断面群を初期位置として第二の断面を取得する実施形態である。これに対し、第2実施形態は、第一の断面群の質を評価して、所定の条件を満たす場合には第二の断面取得処理を実行することなく、取得した第一の断面をそのまま第二の断面として出力する実施形態である。
<Second embodiment>
As in the first embodiment, the image processing apparatus 10 according to the second embodiment acquires (estimates) a predetermined second cross section from a three-dimensional image (input image) to be processed. The first embodiment is an embodiment in which after acquiring a first group of cross-sections, a second cross-section is acquired with the acquired first group of cross-sections as the initial position. In contrast, the second embodiment evaluates the quality of the first cross-section group, and if a predetermined condition is satisfied, the acquired first cross-section is used as is without executing the second cross-section acquisition process. This is an embodiment in which a cross section is output as a second cross section.

[装置構成]
図7を用いて、本実施形態の画像処理装置の構成および処理を説明する。図7は、第2実施形態に係る画像処理システムの構成を例示するブロック図である。第1実施形態と同様の構成については、図2と同一の符号を付して説明は省略する。以下、第1実施形態との相違点について説明する。
[Device configuration]
The configuration and processing of the image processing apparatus of this embodiment will be described with reference to FIG. FIG. 7 is a block diagram illustrating the configuration of an image processing system according to the second embodiment. The same reference numerals as in FIG. 2 are assigned to the same configuration as in the first embodiment, and the description thereof is omitted. Differences from the first embodiment will be described below.

画像処理装置10は、図2に示す構成に加えて判定部51を備える。判定部51は、第一の断面取得部43によって取得された第一の断面群が、第二の断面群として妥当か否かを判定する。判定方法の詳細は、図8のステップS804の説明で後述する。 The image processing apparatus 10 includes a determination unit 51 in addition to the configuration shown in FIG. The determination unit 51 determines whether or not the first cross-section group acquired by the first cross-section acquisition unit 43 is appropriate as the second cross-section group. Details of the determination method will be described later in the description of step S804 in FIG.

取得された第一の断面群が第二の断面群として妥当と判定された場合、第二の断面取得処理は実行されない。表示制御部45は、第一の断面群を第二の断面群であるとみなして、第1実施形態と同様に、表示部36の画像表示領域内に表示する。 If the acquired first cross-section group is determined to be appropriate as the second cross-section group, the second cross-section acquisition process is not executed. The display control unit 45 regards the first group of cross-sections as the second group of cross-sections, and displays them in the image display area of the display unit 36 as in the first embodiment.

[第二の断面取得処理]
図8を用いて、第二の断面取得処理について説明する。図8は、第2実施形態に係る第二の断面取得処理を例示するフローチャートである。図8におけるステップS801からS803、およびS805の各処理は、図3におけるS301からS303、およびS304の処理と同一であるため説明を省略する。以下、第1実施形態との相違点について説明する。
[Second Cross-Section Acquisition Processing]
The second cross-section acquisition process will be described with reference to FIG. FIG. 8 is a flowchart illustrating second cross-section acquisition processing according to the second embodiment. Since each process of steps S801 to S803 and S805 in FIG. 8 is the same as the process of S301 to S303 and S304 in FIG. 3, description thereof is omitted. Differences from the first embodiment will be described below.

(ステップS804:第二の断面取得を実行するか否かを判定)
ステップS804において、判定部51は、ステップS803で算出された第一の断面群を評価し、第二の断面取得を実行するか否かを判定する。判定部51は、ステップS803で取得された第一の断面群が所定の条件を満たす場合に、第二の断面取得を実行すると判定し、第一の断面群が所定の条件を満たさない場合に、第二の断面取得を実行しないと判定することができる。第一の断面群が所定の条件を満たすのは、第一の断面群が第二の断面群として妥当である場合である。画像処理装置10は、第二の断面取得を実行する場合は、処理をステップS805に進め、第二の断面取得を実行しない場合は、処理をステップS806に進める。
(Step S804: Determine whether or not to execute second cross-section acquisition)
In step S804, the determination unit 51 evaluates the first cross-section group calculated in step S803, and determines whether or not to execute the second cross-section acquisition. The determination unit 51 determines to execute the acquisition of the second cross section when the first group of cross sections acquired in step S803 satisfies the predetermined condition, and when the first group of cross sections does not satisfy the predetermined condition, , it can be determined not to perform the second cross-section acquisition. The first group of cross-sections satisfies the predetermined condition when the first group of cross-sections is appropriate as the second group of cross-sections. The image processing apparatus 10 advances the process to step S805 when executing the second cross-section acquisition, and advances the process to step S806 when not executing the second cross-section acquisition.

基準断面取得を実行するか否か、すなわち第一の断面群が所定の条件を満たすか否かの判定方法について説明する。判定部51は、公知の統計的処理である主成分分析(PCA;Principal Component Analysis)を用いて、A面、B面、C面それぞれの断面画像の画素値の統計的傾向を獲得したモデル(部分空間)を構築する。当該モデルは、すべての学習用症例データに対して3次元画像を正解第二断面情報で切断した各断面画像を生成し、生成した断面画像の主成分分析により構築される。 A method of determining whether or not to acquire the reference cross section, that is, whether or not the first group of cross sections satisfies a predetermined condition will be described. The determination unit 51 uses a known statistical process, Principal Component Analysis (PCA), to obtain a model ( subspace). The model is constructed by generating cross-sectional images obtained by cutting a three-dimensional image with correct second cross-sectional information for all learning case data, and performing principal component analysis of the generated cross-sectional images.

判定部51は、ステップS803で得られる第一の断面を、対応するモデルを用いて再表現する。例えばA面の第一の断面は、A面のモデルを使って再表現される。判定部51は、第一の断面画像と再表現された画像との誤差(再構築誤差)を算出する。第一の断面
が対応する断面(たとえばA面)の平均的傾向に近い場合、モデルによる再構築誤差は小さくなる。反対に第一の断面が対応する断面の平均的傾向からかけ離れている場合、再構築誤差は大きくなる。判定部51は、再構築誤差を算出することで、第一の断面が「どの程度、対応する断面らしいか」を定量化することができる。
The determination unit 51 re-expresses the first cross section obtained in step S803 using the corresponding model. For example, the first cross-section of the A plane is reproduced using the model of the A plane. The determination unit 51 calculates an error (reconstruction error) between the first cross-sectional image and the reconstructed image. If the first cross-section is close to the average trend of the corresponding cross-section (eg, plane A), the model will have a small reconstruction error. Conversely, if the first cross-section deviates far from the average trend of the corresponding cross-sections, the reconstruction error will be large. By calculating the reconstruction error, the determination unit 51 can quantify "how likely the first cross section is to be the corresponding cross section".

3つの各断面で、再構築誤差が所定の閾値よりも小さい場合は、「第二の断面取得を実行しない」と判定する。反対に、再構築誤差が所定の値以上である場合は、「第二の断面取得を実行する」と判定する。この場合、第一の断面群が所定の条件を満たすのは、再構築誤差が所定の閾値よりも小さくなる場合とすることができる。再構築誤差を評価するための所定の閾値は、例えば、学習データに対して同様の再構築誤差を算出したときの平均値+標準偏差値、とすることができる。 If the reconstruction error is smaller than a predetermined threshold for each of the three slices, it is determined that "the acquisition of the second slice is not performed". Conversely, if the reconstruction error is equal to or greater than the predetermined value, it is determined that 'second cross-section acquisition is to be performed'. In this case, the first slice group satisfies a predetermined condition when the reconstruction error is smaller than a predetermined threshold. The predetermined threshold value for evaluating the reconstruction error can be, for example, the average value+standard deviation value when similar reconstruction errors are calculated for the learning data.

なお、断面画像の画素値の統計的傾向を獲得したモデルを構築する手法は、PCAを用いる方法に限られない。判定部51は、「入力画像が所定の種類の画像である蓋然性」を定量化するモデルであれば、任意のモデルを用いることができる。例えば、判定部51は、深層学習によって、入力画像が所定のクラスに属する確率を判定するモデルを構築して用いてもよい。この場合、第一の断面群が所定の条件を満たすのは、第一の断面群が所定のクラスに属する確率が閾値よりも大きくなる場合とすることができる。 Note that the method of constructing a model that acquires the statistical tendency of pixel values of cross-sectional images is not limited to the method using PCA. The determination unit 51 can use any model as long as it is a model that quantifies the “probability that the input image is an image of a predetermined type”. For example, the determination unit 51 may construct and use a model for determining the probability that an input image belongs to a predetermined class by deep learning. In this case, the first cross-section group satisfies the predetermined condition when the probability that the first cross-section group belongs to the predetermined class is greater than the threshold.

また、判定部51は、断面画像の輝度コントラストが所定の閾値以上である場合に「第二の断面取得を実行しない」と判定するなど、モデルに基づかない簡便な方法で判定してもよい。所定の閾値は、例えば、学習データの断面画像における輝度コントラストの平均値とすることができる。この場合、第一の断面群が所定の条件を満たすのは、第一の断面群の輝度コントラストが所定の閾値以上である場合とすることができる。 In addition, the determination unit 51 may use a simple method that is not based on a model, such as determining that “the second cross-section acquisition is not performed” when the brightness contrast of the cross-section image is equal to or greater than a predetermined threshold. The predetermined threshold can be, for example, the average value of luminance contrasts in cross-sectional images of learning data. In this case, the first cross-section group satisfies the predetermined condition when the brightness contrast of the first cross-section group is equal to or greater than a predetermined threshold.

また、第二の断面取得を実行するか否かを判定するためのモデルは、あらかじめ構築しておくことができる。当該モデルは、画像処理装置10以外の他の装置で構築されてもよい。構築されたモデルは、データベース22または記憶部34に格納される。ステップS804では、判定部51は、構築されたモデルをRAM33に読み込み、第二の断面取得を実行するか否かを判定する。 Also, a model for determining whether or not to execute the second cross-section acquisition can be constructed in advance. The model may be constructed by a device other than the image processing device 10 . The constructed model is stored in the database 22 or the storage unit 34. FIG. In step S804, the determination unit 51 reads the constructed model into the RAM 33 and determines whether or not to execute the second cross-section acquisition.

また、ステップS804の判定では、断面画像の画素値を用いる例で説明したが、判定部51は、断面画像に所定の画像処理を適用したデータを用いて判定してもよい。例えば、判定部51は、所定の方向に画素値を微分した微分画像、または、ノイズ低減および先鋭化といった画質改善処理を適用した画像からサンプルを切り出してもよい。 Also, in the determination in step S804, an example using the pixel values of the cross-sectional image has been described, but the determination unit 51 may use data obtained by applying predetermined image processing to the cross-sectional image for determination. For example, the determination unit 51 may extract a sample from a differential image obtained by differentiating pixel values in a predetermined direction, or from an image subjected to image quality improvement processing such as noise reduction and sharpening.

断面画像に所定の画像処理を適用することで、判定部51は、画素値を用いて判定する場合よりも精度の高い判定が可能となる。また、判定部51は、断面画像のみを用いる例に限られず、断面の前後の領域を含む3次元画像に対して同様の判定処理、すなわち蓋然性の定量化による判定処理を行ってもよい。 By applying predetermined image processing to the cross-sectional image, the determination unit 51 can perform determination with higher accuracy than when determination is performed using pixel values. Further, the determination unit 51 is not limited to the example using only the cross-sectional image, and may perform similar determination processing, that is, determination processing based on probability quantification, on a three-dimensional image including regions before and after the cross section.

(ステップS806:第二の断面取得結果の表示)
ステップS806において、表示制御部45は、入力画像をステップS805で得られる第二の断面群で切り出した断面画像を、画像表示領域内に表示させる。第二の断面の取得が実行された場合(ステップS805を実行した場合)、表示制御部45は、第1実施形態と同様に、第二の断面の取得結果を用いて表示が行われる。
(Step S806: Display of Second Cross-Section Acquisition Result)
In step S806, the display control unit 45 displays cross-sectional images obtained by cutting out the input image in the second cross-sectional group obtained in step S805 in the image display area. When acquisition of the second cross section is performed (when step S805 is performed), the display control unit 45 performs display using the acquisition result of the second cross section, as in the first embodiment.

ステップS804で「第二の断面取得を実行しない」と判定された場合、表示制御部45は、互いに直交する断面である第一の断面を、第二の断面とみなして表示する。表示処理については、第1実施形態のステップS305と同様である。 If it is determined in step S804 that "the acquisition of the second cross section is not executed", the display control unit 45 regards the first cross section, which is a cross section perpendicular to each other, as the second cross section and displays it. The display processing is the same as step S305 of the first embodiment.

なお、ステップS803で取得した第一の断面群を第二の断面として表示する場合、表示制御部45は、第二の断面取得処理を実行しなかったことをユーザーに通知してもよい。例えば、表示制御部45は、第二の断面取得処理を実行していないという趣旨の文字情報を表示部に表示してもよい。また、表示制御部45は、表示領域上で、断面を表す直線同士が交わる交点付近に、直角を表す数学記号を表示することで、互いに直交する第一の断面が、第二の断面として表示されていることを示してもよい。 When displaying the first cross-section group acquired in step S803 as the second cross-section, the display control unit 45 may notify the user that the second cross-section acquisition process has not been executed. For example, the display control unit 45 may display text information to the effect that the second cross-section acquisition process is not being executed on the display unit. In addition, the display control unit 45 displays a mathematical symbol representing a right angle near the intersection of the straight lines representing cross sections on the display area, thereby displaying the first cross sections orthogonal to each other as the second cross section. You may indicate that

上述の第2実施形態によれば、ステップS803で取得された第一の断面群が第二の断面として採用することができると判定された場合、第二の断面取得の実行が省略されるため、画像処理装置10は、処理時間を短縮することができる。 According to the above-described second embodiment, when it is determined that the first group of cross-sections acquired in step S803 can be used as the second cross-section, execution of acquisition of the second cross-section is omitted. , the image processing apparatus 10 can shorten the processing time.

<第3実施形態>
第3実施形態に係る画像処理装置10は、第1および第2実施形態と同様に、3次元画像から所定の2つ以上の第二の断面を取得(推定)する。第2実施形態では、取得した第一の断面群に対して、第二の断面算出を実行するか否かを判定する実施形態である。これに対し、第3実施形態は、断面毎に、第二の断面取得を実行するか否かを判定する実施形態である。例えば、第3実施形態に係る画像処理装置10は、A面については第二の断面取得を実行せずに第一の断面を第二の断面として用いるが、B面およびC面については第二の断面取得を実行するといった判定をすることができる。
<Third Embodiment>
The image processing apparatus 10 according to the third embodiment acquires (estimates) two or more predetermined second cross-sections from the three-dimensional image, as in the first and second embodiments. The second embodiment is an embodiment in which it is determined whether or not to execute the second cross-section calculation for the acquired first cross-section group. In contrast, the third embodiment is an embodiment in which it is determined whether or not to execute the second cross-section acquisition for each cross-section. For example, the image processing apparatus 10 according to the third embodiment uses the first cross section as the second cross section without executing the second cross section acquisition for the A plane, but uses the second cross section for the B plane and the C plane. It is possible to determine whether to acquire the cross section of

第3実施形態に係る画像処理装置10の構成は、図7に示す第2実施形態の構成と同様である。ただし、判定部51による処理は、断面毎に第二の断面取得を実行するか否かを判定する点で、第2実施形態と相違する。 The configuration of the image processing apparatus 10 according to the third embodiment is the same as the configuration of the second embodiment shown in FIG. However, the processing by the determination unit 51 is different from that of the second embodiment in that it is determined whether or not to execute the second cross-section acquisition for each cross-section.

第3実施形態に係る第二の断面取得処理は、図8に示す第2実施形態のフローチャートと同様である。ただし、ステップS804およびS805の処理は、第2実施形態での処理と相違する。以下、相違点について説明する。 The second cross-section acquisition process according to the third embodiment is the same as the flowchart of the second embodiment shown in FIG. However, the processing of steps S804 and S805 is different from the processing in the second embodiment. Differences will be described below.

(ステップS804:第二の断面取得を実行するか否かを判定)
ステップS804において、判定部51は、ステップS803で算出された第一の断面群を評価する。判定部51は、A面、B面、C面の断面毎に、第二の断面取得を実行するか否かを判定する。
(Step S804: Determine whether or not to execute second cross-section acquisition)
In step S804, the determination unit 51 evaluates the first group of cross-sections calculated in step S803. The determination unit 51 determines whether or not to execute the second cross-section acquisition for each cross-section of the A-plane, B-plane, and C-plane.

いずれの断面でも「第二の断面取得を実行しない」と判定された場合、画像処理装置10は、処理をステップS806に進める。いずれかの断面で「第二の断面取得を実行する」と判定された場合、画像処理装置10は、処理をステップS805に進める。 If it is determined that “the acquisition of the second cross section is not performed” for any cross section, the image processing apparatus 10 advances the process to step S806. If it is determined to "perform acquisition of the second cross section" for any cross section, the image processing apparatus 10 advances the process to step S805.

断面毎の判定方法について説明する。判定部51は、ステップS804と同じ手順で、断面毎に再構築誤差を算出する。判定部51は、再構築誤差が所定の閾値を下回った断面については「第二の断面取得を実行しない」と判定する。反対に、判定部51は、再構築誤差が所定の閾値以上である断面については、第1実施形態と同様に、「第二の断面取得を実行する」と判定する。 A determination method for each cross section will be described. The determination unit 51 calculates the reconstruction error for each cross section in the same procedure as in step S804. The determination unit 51 determines that “the second cross-section acquisition is not performed” for cross-sections whose reconstruction error is less than a predetermined threshold. Conversely, the determination unit 51 determines to “perform second cross-section acquisition” for cross-sections whose reconstruction error is equal to or greater than the predetermined threshold value, as in the first embodiment.

再構築誤差を評価するための所定の閾値は、例えば、学習データに対して同様の再構築誤差を算出したときの平均値+標準偏差値とすることができる。ステップS804での判定結果の情報は、ステップS805での処理に使用される。 The predetermined threshold value for evaluating the reconstruction error can be, for example, the average value+standard deviation value when similar reconstruction errors are calculated for the learning data. The information of the determination result in step S804 is used for the processing in step S805.

(ステップS805:第二の断面群の取得)
ステップS805において、第二の断面取得部44は、「第二の断面取得を実行する」
と判定された断面について、第二の断面を取得する。第二の断面取得部44は、入力画像と、第一の断面パラメータCcおよびRcと、第二の断面取得用学習モデルと、ステップS804で算出される判定情報と、を用いて、各第二の断面を取得する。
(Step S805: Acquisition of second cross-section group)
In step S805, the second cross-section acquisition unit 44 "performs acquisition of the second cross-section".
A second cross section is acquired for the cross section determined as The second cross-section acquisition unit 44 uses the input image, the first cross-section parameters Cc and Rc, the second learning model for cross-section acquisition, and the determination information calculated in step S804 to obtain each second Get a cross section of

ステップS804の処理は、第1実施形態のステップS304と一部の処理が共通する。以下、ステップS804の処理について、ステップS304との共通点および相違点を明らかにしながら説明する。 The processing of step S804 is partially common to step S304 of the first embodiment. Hereinafter, the processing of step S804 will be described while clarifying common points and differences from step S304.

第1に、第二の断面取得部44は、第一の断面パラメータのうち角度パラメータRcを、それぞれの第一の断面の法線ベクトルNc、Nc、Ncへと変換する。ステップS804の第1の処理は、ステップS304での第1の処理と同様である。 First, the second cross-section acquisition unit 44 converts the angle parameter Rc among the first cross-section parameters into normal vectors NAc , NBc , and NCc of the respective first cross-sections. . The first process in step S804 is the same as the first process in step S304.

第2に、第二の断面取得部44は、入力画像から各第二の断面のサンプルを切り出す。A面、B面、C面という3つの断面の中に、ステップS804で「第二の断面取得を実行しない」と判定された断面がある場合、第二の断面取得部44は、第二の断面取得を実行しない断面に対応する法線ベクトルは変動させない。それ以外の断面に対応する法線ベクトルは、ステップS304における第2の処理と同様に、各断面の法線ベクトルが互いに直交関係から所定の角度の範囲内の角度関係を保つように算出される。第二の断面取得部44は、各断面の法線ベクトルに基づいて切り出したサンプルを、第二の断面の候補として取得する。 Second, the second cross-section acquisition unit 44 cuts out samples of each second cross-section from the input image. If there is a section among the three planes A, B, and C for which it is determined that "the second section acquisition is not to be performed" in step S804, the second section acquisition unit 44 performs the second section acquisition. A normal vector corresponding to a cross-section for which cross-section acquisition is not performed is not changed. Normal vectors corresponding to other cross sections are calculated so that the normal vectors of each cross section maintain an angular relationship within a predetermined angle range from a mutually orthogonal relationship, as in the second process in step S304. . The second cross-section acquiring unit 44 acquires a sample extracted based on the normal vector of each cross-section as a second cross-section candidate.

第3に、第二の断面取得部44は、前段の処理によって第二の断面の候補として取得したサンプルを、第二の断面取得用識別器に入力し、入力したサンプルが正解サンプルか不正解サンプルかを判定する。ステップS804の第3の処理は、ステップS304における第3の処理と同様である。 Third, the second cross-section acquiring unit 44 inputs the sample acquired as the candidate for the second cross-section in the preceding process into the second classifier for acquiring cross-section, and determines whether the input sample is a correct sample or an incorrect sample. Determine if it is a sample. The third process in step S804 is the same as the third process in step S304.

ステップS304と同様に、第2の処理および第3の処理は所定回数(例えば10,000回)実行される。正解と判定されたサンプルが複数存在する場合、第二の断面取得部44は、平均位置および各断面の平均法線ベクトルを本ステップの出力とする。なお、正解と判定されるサンプルが見つからなかった場合、第二の断面取得部44は、第二の断面が見つからなかった旨をユーザーに通知するダイアログボックスを、表示部36に表示する。 Similar to step S304, the second process and the third process are executed a predetermined number of times (eg, 10,000 times). If there are a plurality of samples determined to be correct, the second cross-section acquiring unit 44 outputs the average position and the average normal vector of each cross-section as the output of this step. It should be noted that if no sample determined to be correct is found, the second cross-section acquisition unit 44 displays a dialog box on the display unit 36 to notify the user that the second cross-section was not found.

なお、再構築誤差が所定の閾値よりも小さく、第二の断面取得を実行しないと判定された断面については、第二の断面は、ステップS803で取得された第一の断面に固定されるが、これに限られない。第二の断面取得部44は、第一の断面を第二の断面としてそのまま用いるのではなく、ステップS805でサンプルを切り出す際に、微小な変動を与えることも可能である。すなわち、第二の断面取得部44は、ステップS805でサンプルを切り出す際、再構築誤差が所定の閾値以上の断面が取り得る範囲(例えば±10度)よりも小さい範囲(例えば±3度)で、第一の断面を変動させてもよい。第二の断面取得部44は、断面毎に異なる変動幅を設定することで、より柔軟な第二の断面の推定が可能となる。 It should be noted that the second cross section is fixed to the first cross section acquired in step S803 for the cross section for which the reconstruction error is smaller than the predetermined threshold and it is determined not to perform the acquisition of the second cross section. , but not limited to. Instead of using the first cross section as the second cross section as it is, the second cross section acquiring unit 44 can also give minute variations when cutting out the sample in step S805. That is, when extracting the sample in step S805, the second cross-section acquiring unit 44 selects a range (eg, ±3 degrees) smaller than the range (eg, ±10 degrees) that a cross section having a reconstruction error equal to or greater than a predetermined threshold can take. , the first cross-section may vary. The second cross-section acquiring unit 44 can more flexibly estimate the second cross-section by setting a different variation range for each cross-section.

また、ステップS3024およびS805では、第二の断面取得部44は、ERTを用いて、すなわち、サンプルをランダムに切り出して正解または非正解を判定することで、第二の断面を取得するが、これに限られない。第二の断面取得部44は、所定の評価関数を最適化する方法で第二の断面を取得してもよい。 Also, in steps S3024 and S805, the second cross-section acquisition unit 44 acquires a second cross-section using ERT, that is, by randomly cutting out a sample and determining correct or incorrect answers. is not limited to The second cross-section acquiring unit 44 may acquire the second cross-section by optimizing a predetermined evaluation function.

所定の評価関数を最適化する方法では、第二の断面取得部44は、ステップS3024で、正解サンプルに主成分分析(PCA)を適用することで、A面、B面、C面の各断面
の画像特徴の統計的傾向を獲得したモデルを構築する。
In the method of optimizing the predetermined evaluation function, in step S3024, the second cross-section acquisition unit 44 applies principal component analysis (PCA) to the correct sample to obtain cross-sections of the A plane, the B plane, and the C plane. build a model that captures the statistical trends of the image features of

ステップS804では、第二の断面取得部44は、それぞれのモデルで入力断面画像を再表現したときの誤差と、正則化項(第一の断面との角度差)という2つの項をコストとする評価関数を用いる。第二の断面取得部44は、ステップS804で「第二の断面取得を実行しない」と判定された症例の断面については、正則化項の重みを大きくし、第一の断面からなるべく乖離しないようにする。第二の断面取得部44は、コスト値が最小となるパラメータを勾配法やLevenburg-Marquardt法といった公知の最適化手法で探索する。 In step S804, the second cross-section acquisition unit 44 uses two terms as costs: an error when the input cross-section image is re-expressed by each model, and a regularization term (angular difference from the first cross-section). Use an evaluation function. The second cross-section acquisition unit 44 increases the weight of the regularization term for the cross-section of the case for which it is determined that “the second cross-section acquisition is not performed” in step S804, so as not to deviate from the first cross-section as much as possible. to The second cross-section acquiring unit 44 searches for the parameter that minimizes the cost value by a known optimization method such as the gradient method or the Levenburg-Marquardt method.

上述の第3実施形態によれば、断面毎に第二の断面取得を実行するか否かを判定するため、より高精度な第二の断面群を取得することができる。 According to the above-described third embodiment, it is possible to acquire the second group of cross-sections with higher accuracy because it is determined whether or not to acquire the second cross-section for each cross-section.

<第4実施形態>
第4実施形態に係る画像処理装置10は、第1乃至第3実施形態と同様に、3次元画像から所定の2つ以上の第二の断面を取得(推定)する。第1実施形態では、第二の断面を取得する際、第二の断面同士が凡そ直交であるという角度関係から乖離しすぎないようにするため、第二の断面取得部44は、断面同士の角度関係からの乖離が所定の範囲内になるように、解の探索範囲を制約する。
<Fourth Embodiment>
The image processing apparatus 10 according to the fourth embodiment acquires (estimates) two or more predetermined second cross-sections from the three-dimensional image, as in the first to third embodiments. In the first embodiment, when acquiring the second cross-sections, the second cross-section acquiring unit 44 does not deviate too much from the angular relationship in which the second cross-sections are substantially perpendicular to each other. The search range of the solution is restricted so that the deviation from the angular relationship is within a predetermined range.

これに対し、第4実施形態では、第二の断面同士が直交という角度関係から乖離しすぎないようにするため、画像処理装置10は、第二の断面群を取得するための評価関数を用いて、少なくとも断面同士の直交関係からの乖離の度合いを評価する。すなわち、第二の断面取得部44は、直交関係からの乖離の度合いを定量化する項を含む評価関数を用いて、評価関数の値を最適化(最小化または最大化)することで、第一の断面および第二の断面を取得する。 On the other hand, in the fourth embodiment, the image processing apparatus 10 uses an evaluation function for acquiring the second group of cross-sections in order to prevent the second cross-sections from deviating too much from the angular relationship of being orthogonal to each other. to evaluate at least the degree of divergence from the orthogonal relationship between cross sections. That is, the second cross-section acquiring unit 44 uses an evaluation function that includes a term that quantifies the degree of deviation from the orthogonal relationship, and optimizes (minimizes or maximizes) the value of the evaluation function to obtain the first Get a first cross-section and a second cross-section.

第4実施形態に係る画像処理装置10の構成は、図2に示す第1実施形態の構成と同様である。また、第4実施形態に係る第二の断面取得処理は、図3および図3に示す第1実施形態のフローチャートと同様である。ただし、ステップS3023、S3024に示す各学習モデルの構築処理、およびステップS303、S304に示す各断面の取得処理の一部は、第1実施形態と相違する。以下、各処理について、第1実施形態との相違点を明らかにしながら説明する。 The configuration of the image processing apparatus 10 according to the fourth embodiment is the same as the configuration of the first embodiment shown in FIG. Also, the second cross-section acquisition process according to the fourth embodiment is the same as the flow charts of the first embodiment shown in FIGS. 3 and 3 . However, part of the learning model construction processing shown in steps S3023 and S3024 and the cross-section acquisition processing shown in steps S303 and S304 are different from those of the first embodiment. Hereinafter, each process will be described while clarifying the differences from the first embodiment.

(ステップS3023:第一の断面取得用学習モデルの構築)
ステップS3023において、学習モデル生成部42は、ステップS3022で得られた、第二の断面情報が直交化された学習データを用いて、学習モデルを構築する。学習モデル生成部42は、公知の統計的処理である主成分分析(PCA)を用いて、第一の断面画像の統計的傾向を獲得した学習モデルを構築する。
(Step S3023: Construction of learning model for acquiring first cross section)
In step S3023, the learning model generation unit 42 constructs a learning model using the learning data in which the second cross-sectional information is orthogonalized, which is obtained in step S3022. The learning model generation unit 42 uses principal component analysis (PCA), which is a known statistical process, to build a learning model that acquires the statistical tendency of the first cross-sectional image.

以下、学習モデルを構築する具体的な手順を示す。まず、第1実施形態のステップS3023と同様に、学習モデル生成部42は、学習用症例データの3次元画像と直交化された第二の断面パラメータ(正解位置)を用いて3次元画像から1部を切り出したサンプルを生成する。学習モデル生成部42は、第1の実施形態と同様に、正解位置から多少の位置ずれ、姿勢のずれ、スケールの変更などを加えたサンプルも、正解サンプルとみなして、学習データを水増しする。 A specific procedure for constructing a learning model is shown below. First, as in step S3023 of the first embodiment, the learning model generation unit 42 uses the 3D image of the learning case data and the second cross-sectional parameter (correct position) orthogonalized from the 3D image to 1 Generate a sample that cuts out the part. As in the first embodiment, the learning model generation unit 42 regards samples with slight positional deviation, posture deviation, scale change, etc. from the correct position as correct samples, and padded the learning data.

ただし、学習モデル生成部42は、第1実施形態のステップS3023とは異なり、非正解サンプルは生成しない。学習モデル生成部42は、すべての学習用症例データから正解サンプルを切り出すことで、学習サンプルを生成する。学習モデル生成部42は、生成
した学習サンプルを主成分分析することで、第一の断面画像が持つ統計的傾向が表現された学習モデルを構築する。
However, unlike step S3023 of the first embodiment, the learning model generation unit 42 does not generate non-correct samples. The learning model generation unit 42 generates learning samples by extracting correct samples from all learning case data. The learning model generation unit 42 constructs a learning model that expresses the statistical tendency of the first cross-sectional image by performing principal component analysis on the generated learning sample.

(ステップS3024:第二の断面取得用学習モデルの構築)
ステップS3024において、学習モデル生成部42は、ステップS3021で得られた(直交化される前の)学習データを用いて、学習モデルを構築する。学習モデル生成部42は、第4実施形態のステップS3023と同様に主成分分析(PCA)により学習モデルを構築する。
(Step S3024: Construction of second cross-section acquisition learning model)
In step S3024, the learning model generation unit 42 constructs a learning model using the learning data (before being orthogonalized) obtained in step S3021. The learning model generation unit 42 constructs a learning model by principal component analysis (PCA) as in step S3023 of the fourth embodiment.

入力画像からサンプル画像を切り出す処理は、第1実施形態におけるステップS3024と同様である。ただし、学習モデル生成部42は、非正解サンプルは生成せず、第4実施形態のステップS3023と同様に、正解サンプルのみを用いて学習モデルを構築する。学習モデル生成部42は、生成した学習サンプルを主成分分析することで、A面、B面、C面それぞれの第二の断面の統計的傾向が表現された学習モデルを構築する。 The process of cutting out the sample image from the input image is the same as step S3024 in the first embodiment. However, the learning model generation unit 42 does not generate non-correct samples, and builds a learning model using only correct samples, as in step S3023 of the fourth embodiment. The learning model generation unit 42 constructs a learning model that expresses the statistical tendency of the second cross-sections of the A plane, B plane, and C plane by performing principal component analysis on the generated learning samples.

(ステップS303:第一の断面群の算出)
ステップS303において、第一の断面取得部43は、ステップS301で取得される入力画像と、ステップS3023で生成される第一の断面取得用学習モデルを用いて、第一の断面群を取得する。第1実施形態と同様に、第一の断面取得部43は、式(2)で示す合計6個のパラメータを算出する。
(Step S303: Calculation of first group of cross sections)
In step S303, the first cross-section acquisition unit 43 acquires a first cross-section group using the input image acquired in step S301 and the first learning model for cross-section acquisition generated in step S3023. As in the first embodiment, the first cross-section acquiring unit 43 calculates a total of six parameters represented by Equation (2).

第一の断面取得部43は、生成された学習モデルを用いたコスト関数が最小となるパラメータ(式(2)で示す6個のパラメータ)を探索することにより第一の断面を取得する。コスト関数は、入力画像から切り出したサンプルを、モデルを使って再表現したときの差異(再構築誤差)である。すなわち、コスト関数は、「入力画像から切り出したサンプルが、学習モデルの統計的傾向に基づいてどの程度第一の断面らしいか」を定量化する指標である。以下に第一の断面を取得する処理手順を示す。 The first cross-section acquisition unit 43 acquires the first cross-section by searching for parameters (six parameters represented by Equation (2)) that minimize the cost function using the generated learning model. The cost function is the difference (reconstruction error) when samples extracted from the input image are re-expressed using the model. In other words, the cost function is an index that quantifies "how likely the sample extracted from the input image is the first section based on the statistical tendency of the learning model". The processing procedure for acquiring the first cross section is shown below.

まず、第一の断面取得部43は、学習モデルを構築した際に画像処理が適用された場合、入力画像に同一の画像処理を適用する。例えば、学習モデルが微分画像を用いて構築されている場合、第一の断面取得部43は、入力画像に対しても微分処理を施す。 First, the first cross-section acquisition unit 43 applies the same image processing to the input image when image processing was applied when constructing the learning model. For example, when the learning model is constructed using a differential image, the first cross-section acquiring unit 43 also performs differential processing on the input image.

次に、第一の断面取得部43は、式(2)で示す6個のパラメータの初期値(以下、初期パラメータと称する)を定める。例えば、位置ベクトルCの初期値は画像の中心とし、姿勢を示すパラメータRの初期値は入力画像の各軸と平行な向きとする。第一の断面取得部43は、コスト値が最小となるパラメータを勾配法やLevenburg-Marquardt法といった公知の最適化手法を用いて探索する。探索された第一の断面のパラメータは、位置ベクトルCcおよびパラメータRcとする。 Next, the first cross-section acquisition unit 43 determines initial values (hereinafter referred to as initial parameters) of the six parameters shown in Equation (2). For example, the initial value of the position vector C is assumed to be the center of the image, and the initial value of the parameter R indicating the orientation is assumed to be parallel to each axis of the input image. The first cross-section acquisition unit 43 searches for the parameter that minimizes the cost value using a known optimization method such as the gradient method or the Levenburg-Marquardt method. The parameters of the searched first cross section are the position vector Cc and the parameter Rc.

なお、第一の断面取得部43は、例えば、位置の3パラメータを算出し、算出済みの位置のパラメータを固定して、角度(姿勢)の3パラメータを算出するようにしてもよい。反対に、第一の断面取得部43は、角度の3パラメータを算出し、算出済みの角度のパラメータを固定して、位置の3パラメータを算出してもよい。 Note that the first cross-section acquiring unit 43 may, for example, calculate the three parameters of the position, fix the parameters of the calculated position, and calculate the three parameters of the angle (orientation). Conversely, the first cross-section acquisition unit 43 may calculate the three parameters of the angle, fix the calculated parameters of the angle, and calculate the three parameters of the position.

(ステップS304:第二の断面群の取得)
ステップS304において、第二の断面取得部44は、各第二の断面を取得する。第二の断面取得部44は、ステップS301で取得される入力画像と、ステップS303で算出された第一の断面パラメータCcおよびRcと、ステップS3024で生成される第二の断面取得用学習モデルと、を用いて、各第二の断面を取得する。
(Step S304: Acquisition of second group of cross sections)
In step S304, the second cross-section obtaining unit 44 obtains each second cross-section. The second cross-section acquisition unit 44 acquires the input image acquired in step S301, the first cross-section parameters Cc and Rc calculated in step S303, and the second cross-section acquisition learning model generated in step S3024. , to obtain each second cross-section.

例えば、第二の断面取得部44は、コスト関数を最小化し、第1実施形態における式(1)で示す合計12個のパラメータで表される各第二の断面の向きを算出(補正)することにより、第二の断面を取得することができる。コスト関数は、第4実施形態のステップS303で述べた再構築誤差、および断面同士の位置関係が直交関係から乖離した場合にペナルティを与える制約項の2種類の項を含む。 For example, the second cross-section acquisition unit 44 minimizes the cost function and calculates (corrects) the orientation of each second cross-section represented by a total of 12 parameters shown in Equation (1) in the first embodiment. Thus, a second cross section can be obtained. The cost function includes two types of terms: the reconstruction error described in step S303 of the fourth embodiment, and a constraint term that gives a penalty when the positional relationship between cross sections deviates from the orthogonal relationship.

再構築誤差は、第4実施形態のステップS303で述べたものと同様である。制約項は、断面を表す法線ベクトル同士の内積の絶対値とすることができる。断面同士が直交する場合、法線ベクトルの内積は0となるため、直交関係からの乖離の度合いは、内積の絶対値をとることで定量化することが可能である。A面、B面、C面という3つの断面がある場合、制約項は、A面法線ベクトルとB面法線ベクトル、B面法線ベクトルとC面法線ベクトル、C面法線ベクトルとA面法線ベクトルという3つの組み合わせにおける内積の合計で表される。以下に処理手順を示す。 The reconstruction error is the same as described in step S303 of the fourth embodiment. The constraint term can be the absolute value of the inner product of the normal vectors representing the cross section. When the cross sections are orthogonal to each other, the inner product of the normal vectors is 0, so the degree of deviation from the orthogonal relationship can be quantified by taking the absolute value of the inner product. If there are three cross-sections A, B, and C, the constraint terms are the A-plane normal vector and B-plane normal vector, the B-plane normal vector and C-plane normal vector, and the C-plane normal vector and It is represented by the sum of the inner products of three combinations of normal vectors of the A plane. The processing procedure is shown below.

第1に、第二の断面取得部44は、第一の断面パラメータのうち角度パラメータRcを、それぞれの断面の法線ベクトルNc、Nc、Ncへと変換する。この処理は、第1実施形態のステップS3041の処理と同様である。 First, the second cross-section obtaining unit 44 converts the angle parameter Rc among the first cross-section parameters into normal vectors NAc , NBc , and NCc of the respective cross-sections. This process is the same as the process of step S3041 of the first embodiment.

第2に、第二の断面取得部44は、学習モデルを構築した際に画像処理が適用された場合、入力画像に同一の画像処理を適用する。例えば、学習モデルが微分画像を用いて構築されている場合、第二の断面取得部44は、入力画像に対しても微分処理を施す。 Second, the second cross-section acquisition unit 44 applies the same image processing to the input image when image processing was applied when the learning model was constructed. For example, if the learning model is constructed using a differential image, the second cross-section acquiring unit 44 also performs differential processing on the input image.

次に、第二の断面取得部44は、A面、B面、C面それぞれを取得するための出発点となる初期パラメータを定める。第二の断面取得部44は、位置ベクトルCcを固定し、法線ベクトルNcをA面の初期パラメータ、法線ベクトルNcをB面の初期パラメータ、法線ベクトルNcをC面の初期パラメータとする。 Next, the second cross-section acquiring unit 44 determines initial parameters that serve as starting points for acquiring the A plane, B plane, and C plane. The second cross-section acquiring unit 44 fixes the position vector Cc, sets the normal vector N A c to the initial parameter of the A surface, sets the normal vector N B c to the initial parameter of the B surface, sets the normal vector N C c to C be the initial parameters of the surface.

第3に、第二の断面取得部44は、A面、B面、C面それぞれのパラメータ(法線ベクトル)を、コスト関数を最小化することで探索する。コスト関数は、(A面の再構築誤差+B面の再構築誤差+C面の再構築誤差)+制約項で定義される。コスト関数において、再構築誤差の項と制約項とは、あらかじめ設定される重みパラメータによって調整される。第二の断面取得部44は、勾配法およびLevenburg-Marquardt法といった公知の最適化手法によって、A面、B面、C面それぞれのパラメータを探索する。 Third, the second cross-section acquiring unit 44 searches for the parameters (normal vectors) of the A plane, B plane, and C plane by minimizing the cost function. The cost function is defined as (A-plane reconstruction error+B-plane reconstruction error+C-plane reconstruction error)+constraint term. In the cost function, the reconstruction error term and the constraint term are adjusted by preset weighting parameters. The second cross-section acquisition unit 44 searches for parameters of each of the A plane, B plane, and C plane by known optimization techniques such as the gradient method and the Levenburg-Marquardt method.

なお、ステップS304では、断面同士が直交関係から乖離するほどコストが大きくなる制約項を導入したが、断面同士が満たすべき角度関係が直交関係ではない場合、制約項は、断面同士が満たすべき角度関係に応じて定義される。例えば、A面とB面とが80度の角度関係を満たすべき場合、制約項の値は、A面とB面の間の角度差から80度を減じた値の絶対値とすることができる。 In step S304, a constraint term is introduced in which the cost increases as the cross sections deviate from the orthogonal relationship. Defined according to relationship. For example, if the A and B planes should satisfy an 80 degree angular relationship, the value of the constraint term can be the absolute value of the angular difference between the A and B planes minus 80 degrees. .

以上によって、画像処理装置10は、A面、B面、C面それぞれのパラメータを算出し、第二の断面群を取得することができる。 As described above, the image processing apparatus 10 can calculate the parameters of the A plane, the B plane, and the C plane, and acquire the second group of cross sections.

なお、第一の断面群および第二の断面群ともに、主成分分析(PCA)に基づく学習モデルを用いて取得したが、いずれか一方は、ERTに基づく手法で生成した学習モデルを用いてもよい。例えば、第二の断面群はPCAに基づく学習モデルを使用して取得し、第一の断面群はERTに基づく学習モデルを使用して取得してもよい。第一の断面の存在範囲がある程度絞られている場合には、PCAよりも少ない症例数で学習モデルを構築できるERTを用いることで、第一の断面をより高速に取得することが可能となる。 Both the first cross-section group and the second cross-section group were acquired using a learning model based on principal component analysis (PCA), but either one can be obtained using a learning model generated by a method based on ERT. good. For example, a second group of cross-sections may be acquired using a PCA-based learning model and a first group of cross-sections may be acquired using an ERT-based learning model. When the existence range of the first cross section is narrowed down to some extent, it is possible to acquire the first cross section at a higher speed by using ERT, which can build a learning model with a smaller number of cases than PCA. .

上述の第4実施形態によれば、第二の断面同士が直交という角度関係から乖離しすぎないようにするため、第二の断面群を算出する評価関数は、直交関係からの乖離の度合いを評価する制約項を含む。第二の断面の取得では、断面同士が直交から乖離するほどコスト(制約項)が大きくなるため、画像処理装置10は、学習モデルから得られる統計的な蓋然性と断面同士の直交性とをバランスさせた第二の断面を取得することができる。 According to the above-described fourth embodiment, in order to prevent the second cross-sections from deviating too much from the orthogonal relationship, the evaluation function for calculating the second cross-section group expresses the degree of deviation from the orthogonal relationship. Contains constraint terms to evaluate. In acquiring the second cross-sections, the cost (constraint term) increases as the cross-sections deviate from the orthogonality, so the image processing apparatus 10 balances the statistical probability obtained from the learning model and the orthogonality between the cross-sections. A second cross-section can be obtained.

上述の各実施形態は、本発明の構成を例示的に説明するものに過ぎない。本発明は上述の具体的な形態に限定されることはなく、その技術的思想の範囲内で種々の組み合わせまたは変形が可能である。 Each of the above-described embodiments merely exemplifies the configuration of the present invention. The present invention is not limited to the specific forms described above, and various combinations or modifications are possible within the scope of its technical ideas.

<その他の実施形態>
また、開示の技術は、例えば、システム、装置、方法、プログラムまたは記録媒体(記憶媒体)等としての実施態様をとることが可能である。具体的には、開示の技術は、複数の機器(例えば、ホストコンピュータ、インターフェイス機器、撮像装置、webアプリケーション等)から構成されるシステムに適用してもよいし、また、1つの機器からなる装置に適用してもよい。
<Other embodiments>
In addition, the technology disclosed can be embodied as, for example, a system, device, method, program, recording medium (storage medium), or the like. Specifically, the technology disclosed herein may be applied to a system composed of a plurality of devices (for example, a host computer, an interface device, an imaging device, a web application, etc.), or may be applied to a device composed of a single device. may be applied to

また、本発明の目的は、以下のように達成される。すなわち、上述の各実施形態の機能を実現するソフトウェアのプログラムコード(コンピュータプログラム)を記録した記録媒体が、システムまたは装置に供給される。係る記録媒体は、コンピュータによって読み取り可能である。システムまたは装置のコンピュータ(またはCPUやMPU)は、記録媒体に格納されたプログラムコードを読み出して実行する。この場合、記録媒体から読み出されたプログラムコード自体は、上述の各実施形態の機能を実現する。当該プログラムコードを記録した記録媒体は、本発明を構成する。 Moreover, the object of the present invention is achieved as follows. That is, a recording medium recording software program code (computer program) for realizing the functions of the above-described embodiments is supplied to a system or apparatus. Such a recording medium is computer readable. A computer (or CPU or MPU) of the system or device reads and executes the program code stored in the recording medium. In this case, the program code itself read from the recording medium implements the functions of the above embodiments. A recording medium recording the program code constitutes the present invention.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

10 画像処理装置
32 ROM
33 RAM
37 制御部
41 画像取得部
43 第一の断面取得部
44 第二の断面取得部
10 image processing device 32 ROM
33 RAM
37 control unit 41 image acquisition unit 43 first cross-section acquisition unit 44 second cross-section acquisition unit

Claims (27)

対象物の3次元画像である入力画像を取得する画像取得部と、
前記入力画像で前記対象物を観察するために設定され、互いに所定の角度関係にある複数の第一の断面からなる第一の断面群と、前記所定の角度関係に基づく制約条件とに基づいて、複数の第二の断面からなる第二の断面群を取得する断面取得部と、
を備えることを特徴とする画像処理装置。
an image acquisition unit that acquires an input image that is a three-dimensional image of an object;
Based on a first cross-section group consisting of a plurality of first cross-sections set to observe the object in the input image and having a predetermined angular relationship with each other, and a constraint condition based on the predetermined angular relationship , a cross-section acquisition unit that acquires a second cross-section group consisting of a plurality of second cross-sections;
An image processing device comprising:
前記第二の断面は、前記第一の断面を変動させることにより取得される断面である
ことを特徴とする請求項1に記載の画像処理装置。
2. The image processing apparatus according to claim 1, wherein said second cross section is a cross section obtained by varying said first cross section.
前記断面取得部は、
前記入力画像の一部を切り出した部分3次元画像を入力として、前記部分3次元画像が前記第一の断面群を特定する3次元画像として適切であるか否かを出力する第一学習モデルを有し、前記入力画像から切り出された前記部分3次元画像を前記第一学習モデルに入力することにより、前記第一の断面群を取得し、
断面画像を入力として、前記断面画像が前記第二の断面として適切であるか否かを出力する断面毎の第二学習モデルを有し、前記第一の断面群に基づいて前記入力画像から切り出された断面画像を前記第二学習モデルに入力することにより、前記第二の断面群を取得する、
ことを特徴とする請求項1または2に記載の画像処理装置。
The cross-section acquiring unit
a first learning model that receives as input a partial three-dimensional image obtained by cutting out a portion of the input image, and outputs whether or not the partial three-dimensional image is appropriate as a three-dimensional image for specifying the first cross-section group; and acquiring the first cross-section group by inputting the partial three-dimensional image cut out from the input image into the first learning model,
A second learning model for each cross section that receives a cross-sectional image as an input and outputs whether or not the cross-sectional image is appropriate as the second cross-section, and is extracted from the input image based on the first cross-sectional group. Obtaining the second group of cross-sections by inputting the cross-sectional images obtained into the second learning model,
3. The image processing apparatus according to claim 1, wherein:
前記断面取得部は、前記第一学習モデルにより適切であると判定された複数の第一の断面群の候補が得られた場合、前記複数の第一の断面群の候補の平均をとることにより、前記第一の断面群を取得する
ことを特徴とする請求項3に記載の画像処理装置。
When a plurality of first cross-section group candidates determined to be appropriate by the first learning model are obtained, the cross-section acquiring unit averages the plurality of first cross-section group candidates. 4. The image processing apparatus according to claim 3, wherein the first cross-section group is acquired.
前記断面取得部は、断面毎の前記第二学習モデルにおいて、適切であると判定された複数の第二の断面の候補が得られた場合、前記複数の第二の断面の候補の平均をとることにより、それぞれの断面に対応する前記第二の断面を取得する
ことを特徴とする請求項3または4に記載の画像処理装置。
When the second learning model for each cross section obtains a plurality of candidates for the second cross section determined to be appropriate, the cross section acquiring unit averages the plurality of candidates for the second cross section. 5. The image processing apparatus according to claim 3, wherein the second cross section corresponding to each cross section is acquired by:
前記断面取得部は、前記第一の断面群のそれぞれの第一の断面の法線ベクトルを中心とした所定角度の範囲内で切り出した断面を、前記第二学習モデルに入力する
ことを特徴とする請求項3乃至5のいずれか1項に記載の画像処理装置。
The cross-section acquiring unit inputs cross-sections cut out within a range of a predetermined angle around a normal vector of each first cross-section of the first cross-section group to the second learning model. The image processing apparatus according to any one of claims 3 to 5.
前記断面取得部は、
前記入力画像の一部を切り出した部分3次元画像を入力として、前記部分3次元画像が前記複数の第一の断面を特定する3次元画像として適切であるか否かを出力する第一学習モデルを有し、前記入力画像から切り出された部分3次元画像を前記第一学習モデルに入力することにより、前記第一の断面群を取得し、
前記入力画像の一部を切り出した部分3次元画像を入力として、前記部分3次元画像が前記第二の断面を特定する3次元画像として適切であるか否かを出力する第二学習モデルを有し、前記第一の断面群に基づき前記入力画像の一部を切り出した部分3次元画像を前記第二学習モデルに入力することにより、前記第二の断面群を取得する、
ことを特徴とする請求項1に記載の画像処理装置。
The cross-section acquiring unit
A first learning model that receives as an input a partial three-dimensional image obtained by cutting out a part of the input image and outputs whether or not the partial three-dimensional image is appropriate as a three-dimensional image for specifying the plurality of first cross sections. and obtaining the first cross-section group by inputting a partial three-dimensional image cut out from the input image into the first learning model,
a second learning model that receives as an input a partial three-dimensional image obtained by cutting out a part of the input image and outputs whether or not the partial three-dimensional image is appropriate as a three-dimensional image for specifying the second cross section; and obtaining the second cross-section group by inputting a partial three-dimensional image obtained by cutting out a part of the input image based on the first cross-section group into the second learning model.
2. The image processing apparatus according to claim 1, wherein:
前記第一学習モデルおよび前記第二学習モデルは、微分処理、ノイズ低減、先鋭化のうち少なくともいずれかの画像処理を適用した画像を用いて生成される
ことを特徴とする請求項3乃至7のいずれか1項に記載の画像処理装置。
8. The method according to any one of claims 3 to 7, wherein the first learning model and the second learning model are generated using an image to which at least one of image processing of differential processing, noise reduction, and sharpening is applied. The image processing device according to any one of items 1 and 2.
前記断面取得部は、
前記入力画像に対し、前記第一学習モデルの生成に用いた画像に適用した前記画像処理を適用して、前記第一の断面群を取得し、
前記入力画像に対し、前記第二学習モデルの生成に用いた画像に適用した前記画像処理を適用して、前記第二の断面群を取得する
ことを特徴とする請求項8に記載の画像処理装置。
The cross-section acquiring unit
obtaining the first cross-section group by applying the image processing applied to the image used to generate the first learning model to the input image;
9. The image processing according to claim 8, wherein the image processing applied to the image used to generate the second learning model is applied to the input image to acquire the second cross-section group. Device.
前記断面取得部は、前記複数の第一の断面を夫々の前記第二の断面の初期値として、前記第二の断面同士が前記所定の角度関係から乖離しすぎないという制約の下で、複数の前記第二の断面からなる第二の断面群を取得する
ことを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。
The cross-section acquiring unit uses the plurality of first cross-sections as initial values of the respective second cross-sections, and obtains a plurality of 10. The image processing apparatus according to any one of claims 1 to 9, wherein a second cross-section group consisting of the second cross-sections of .
前記断面取得部は、前記第二の断面群に含まれる前記第二の断面の角度関係の、前記所定の角度関係からの乖離が、所定角度の範囲内となるように、前記第二の断面群を取得する
ことを特徴とする請求項1乃至10のいずれか1項に記載の画像処理装置。
The cross-section acquisition unit acquires the second cross-sections so that the angular relationship of the second cross-sections included in the second cross-section group deviates from the predetermined angular relationship within a range of a predetermined angle. 11. The image processing apparatus according to any one of claims 1 to 10, wherein a group is acquired.
前記断面取得部が前記第二の断面群を取得するために用いられる評価関数は、前記第二の断面群に含まれる前記第二の断面の角度関係と前記所定の角度関係との乖離の度合いを評価する
ことを特徴とする請求項1乃至11のいずれか1項に記載の画像処理装置。
The evaluation function used by the cross-section acquisition unit to acquire the second cross-section group is the degree of divergence between the angular relationship of the second cross-sections included in the second cross-section group and the predetermined angle relationship. 12. The image processing apparatus according to any one of claims 1 to 11, wherein the image processing apparatus evaluates
前記入力画像を前記第二の断面群に含まれる前記第二の断面で切断した断面画像、および前記第二の断面群に含まれる前記第二の断面の角度関係と前記所定の角度関係との乖離の度合いを示す情報を、表示部に表示する表示制御部をさらに備える
ことを特徴とする請求項1乃至12のいずれか1項に記載の画像処理装置。
A cross-sectional image obtained by cutting the input image with the second cross section included in the second cross section group, and an angular relationship between the second cross section included in the second cross section group and the predetermined angular relationship 13. The image processing apparatus according to any one of claims 1 to 12, further comprising a display control unit that displays information indicating the degree of divergence on a display unit.
前記第一の断面群が前記第二の断面群として用いられるための所定の条件を満たすか否かを判定する判定部をさらに備え、
前記断面取得部は、前記第一の断面群が前記所定の条件を満たす場合は、前記第一の断面群を前記第二の断面群とする
ことを特徴とする請求項1乃至13のいずれか1項に記載の画像処理装置。
A determination unit that determines whether the first group of cross-sections satisfies a predetermined condition for being used as the second group of cross-sections,
14. The cross-section acquiring unit, if the first group of cross-sections satisfies the predetermined condition, sets the first group of cross-sections as the second group of cross-sections. 2. The image processing device according to item 1.
前記第一の断面群に含まれるそれぞれの前記第一の断面が前記第二の断面として用いられるための所定の条件を満たすか否かを判定する判定部をさらに備え、
前記断面取得部は、前記所定の条件を満たす前記第一の断面を変動させずに前記第二の断面群を取得する
ことを特徴とする請求項1乃至14のいずれか1項に記載の画像処理装置。
A determination unit that determines whether each of the first cross-sections included in the first cross-section group satisfies a predetermined condition for being used as the second cross-section,
15. The image according to any one of claims 1 to 14, wherein the cross-section acquisition unit acquires the second cross-section group without changing the first cross-section that satisfies the predetermined condition. processing equipment.
前記断面取得部は、前記第二の断面群を取得するために用いられる評価関数において、前記所定の条件を満たす前記第一の断面に対する正則化項の重みを、前記所定の条件を満たさない前記第一の断面に対する正則化項よりも大きい重みに設定することにより、前記第二の断面が前記所定の条件を満たす前記第一の断面から乖離しないようにする、
ことを特徴とする請求項15に記載の画像処理装置。
The cross-section acquiring unit, in the evaluation function used to acquire the second cross-section group, assigns the weight of the regularization term to the first cross-section that satisfies the predetermined condition as the weight of the regularization term that does not satisfy the predetermined condition. By setting a weight greater than the regularization term for the first cross section, the second cross section does not deviate from the first cross section that satisfies the predetermined condition.
16. The image processing apparatus according to claim 15, characterized by:
前記断面取得部が取得した前記第二の断面群の情報を表示部に表示する表示制御部を、さらに有する
ことを特徴とする請求項1乃至16のいずれか1項に記載の画像処理装置。
17. The image processing apparatus according to any one of claims 1 to 16, further comprising a display control unit that displays information on the second slice group acquired by the slice acquisition unit on a display unit.
前記表示制御部は、前記第二の断面群に含まれる1の第二の断面を表示部に表示し、前記1の第二の断面に交差する他の第二の断面を表す直線を、前記1の第二の断面に重畳して表示する
ことを特徴とする請求項17に記載の画像処理装置。
The display control unit displays one second cross section included in the second cross section group on the display unit, and displays a straight line representing another second cross section that intersects with the one second cross section. 18. The image processing apparatus according to claim 17, wherein the second cross section is superimposed on the first cross section.
前記表示制御部は、前記第二の断面群に含まれる1の第二の断面を表示部に表示し、前記1の第二の断面に交差する他の第二の断面が、前記1の第二の断面と直交する角度から、どの程度乖離しているかを示す乖離の度合いの情報を、前記1の第二の断面に重畳して表示する
ことを特徴とする請求項17または18に記載の画像処理装置。
The display control unit displays one second cross section included in the second cross section group on the display unit, and another second cross section that intersects with the one second cross section is displayed on the first cross section group. 19. The method according to claim 17 or 18, wherein information on the degree of divergence, which indicates the degree of divergence from an angle perpendicular to the two cross sections, is displayed superimposed on the one second cross section. Image processing device.
前記表示制御部は、前記乖離の度合いの情報を、文字情報、または前記他の第二の断面を表す直線の色もしくは太さの表示態様により表示する
ことを特徴とする請求項19に記載の画像処理装置。
20. The display control unit according to claim 19, wherein the display control unit displays the information on the degree of divergence in the form of character information or a display mode of a color or thickness of a straight line representing the other second cross section. Image processing device.
前記断面取得部は、ユーザーの操作により入力された画像を、前記第一の断面群として取得する
ことを特徴とする請求項1乃至20のいずれか1項に記載の画像処理装置。
21. The image processing apparatus according to any one of claims 1 to 20, wherein the cross-section acquiring unit acquires images input by a user's operation as the first group of cross-sections.
前記画像取得部は、ユーザーの操作により指定された画像または所定の基準に基づいて自動で選択された画像を、前記入力画像として取得する
ことを特徴とする請求項1乃至21のいずれか1項に記載の画像処理装置。
22. The image acquisition unit according to any one of claims 1 to 21, wherein the image acquisition unit acquires, as the input image, an image designated by a user's operation or an image automatically selected based on a predetermined criterion. The image processing device according to .
3次元画像を入力として、前記3次元画像の一部を切り出した部分3次元画像が、互いに所定の角度関係にある複数の第一の断面を含む第一の断面群を特定する3次元画像として適切であるか否か、を出力する第一の断面取得用の第一学習モデルを生成する第一生成部と、
断面画像を入力として、前記断面画像が、対象物を観察するための第二の断面として適切であるか否か、を出力する断面毎の第二の断面取得用の第二学習モデルを生成する第二生成部と、
を有することを特徴とする画像処理装置。
A three-dimensional image is used as an input, and a partial three-dimensional image obtained by cutting out a part of the three-dimensional image is a three-dimensional image specifying a first cross-sectional group including a plurality of first cross-sections having a predetermined angular relationship with each other. a first generation unit that generates a first learning model for acquiring a first cross section that outputs whether it is appropriate;
Generating a second learning model for acquiring a second cross section for each cross section, which outputs whether or not the cross section image is appropriate as a second cross section for observing the target object, using the cross section image as an input. a second generator;
An image processing device comprising:
前記第一生成部は、3次元画像および正解の第二の断面の情報を入力として、前記正解の第二の断面が前記所定の角度関係となるように補正した正解位置の情報に基づいて、正解サンプルおよび非正解サンプルを生成し、前記正解サンプルおよび前記非正解サンプルを学習させることにより、前記第一学習モデルを生成する
ことを特徴とする請求項23に記載の画像処理装置。
The first generating unit inputs the information of the three-dimensional image and the second cross section of the correct answer, and based on the information of the correct position corrected so that the second cross section of the correct answer has the predetermined angular relationship, 24. The image processing apparatus according to claim 23, wherein the first learning model is generated by generating correct samples and incorrect samples, and learning the correct samples and the incorrect samples.
前記第二生成部は、3次元画像および正解の第二の断面情報を入力として、断面毎に2次元画像の正解サンプルおよび非正解サンプルを生成し、前記正解サンプルおよび前記非正解サンプルを学習させることにより、断面毎の前記第二学習モデルを生成する
ことを特徴とする請求項23または24に記載の画像処理装置。
The second generating unit receives the three-dimensional image and second correct cross-sectional information as input, generates a correct sample and an incorrect sample of the two-dimensional image for each cross-section, and makes the correct sample and the incorrect sample learn. 25. The image processing apparatus according to claim 23 or 24, wherein the second learning model is generated for each cross section.
コンピュータが、
対象物の3次元画像である入力画像を取得し、
前記入力画像で前記対象物を観察するために設定され、互いに所定の角度関係にある複数の第一の断面からなる第一の断面群と、前記所定の角度関係に基づく制約条件とに基づいて、複数の第二の断面からなる第二の断面群を取得する
ことを特徴とする画像処理方法。
the computer
Acquiring an input image that is a three-dimensional image of an object,
Based on a first cross-section group consisting of a plurality of first cross-sections set to observe the object in the input image and having a predetermined angular relationship with each other, and a constraint condition based on the predetermined angular relationship and obtaining a second cross-section group consisting of a plurality of second cross-sections.
請求項26に記載の画像処理方法をコンピュータに実行させるためのプログラム。 A program for causing a computer to execute the image processing method according to claim 26.
JP2021082479A 2021-05-14 2021-05-14 Image processing device, image processing method and program Pending JP2022175787A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021082479A JP2022175787A (en) 2021-05-14 2021-05-14 Image processing device, image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021082479A JP2022175787A (en) 2021-05-14 2021-05-14 Image processing device, image processing method and program

Publications (1)

Publication Number Publication Date
JP2022175787A true JP2022175787A (en) 2022-11-25

Family

ID=84145053

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021082479A Pending JP2022175787A (en) 2021-05-14 2021-05-14 Image processing device, image processing method and program

Country Status (1)

Country Link
JP (1) JP2022175787A (en)

Similar Documents

Publication Publication Date Title
Bernard et al. Standardized evaluation system for left ventricular segmentation algorithms in 3D echocardiography
US10102622B2 (en) Processing apparatus, processing method, and non-transitory computer-readable storage medium
US7804990B2 (en) System and method for labeling and identifying lymph nodes in medical images
JP5334692B2 (en) Method and system for detecting 3D anatomical objects using constrained marginal space learning
US20110262015A1 (en) Image processing apparatus, image processing method, and storage medium
US20120065499A1 (en) Medical image diagnosis device and region-of-interest setting method therefore
US20160081663A1 (en) Method and system for automated detection and measurement of a target structure
CN109584350A (en) Measurement point in diagnosis imaging determines
EP2846310A2 (en) Method and apparatus for registering medical images
JP5982726B2 (en) Volume data analysis system and method
US11229377B2 (en) System and method for next-generation MRI spine evaluation
US9129392B2 (en) Automatic quantification of mitral valve dynamics with real-time 3D ultrasound
JP6987131B2 (en) Image-based diagnostic system
JP6238755B2 (en) Information processing apparatus, information processing method, and program
EP2498222B1 (en) Method and system for regression-based 4D mitral valve segmentation from 2D+T magnetic resonance imaging slices
JP5364009B2 (en) Image generating apparatus, image generating method, and program thereof
US10318841B2 (en) Medical-image processing apparatus, ultrasonic diagnostic apparatus, and medical-image processing method
US10674994B2 (en) Ultrasonic imaging device and image processing method
JP2022175787A (en) Image processing device, image processing method and program
JP2003265463A (en) Image diagnosis support system and image diagnosis support program
EP2343687B1 (en) Tomographic image generating apparatus, tomographic image generating method, and program for generating tomographic images
Medina et al. Left ventricle myocardium segmentation in multi-slice computerized tomography
JP2022175748A (en) Image processing device, image processing method and program
US20230298174A1 (en) Image processing apparatus, image processing method, and non-transitory computer readable medium
CN112529919B (en) System and method for generating bullseye chart generation of a subject&#39;s heart

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240510