JP2023154994A - Image processing device, method for operating image processing device, and program - Google Patents

Image processing device, method for operating image processing device, and program Download PDF

Info

Publication number
JP2023154994A
JP2023154994A JP2022064683A JP2022064683A JP2023154994A JP 2023154994 A JP2023154994 A JP 2023154994A JP 2022064683 A JP2022064683 A JP 2022064683A JP 2022064683 A JP2022064683 A JP 2022064683A JP 2023154994 A JP2023154994 A JP 2023154994A
Authority
JP
Japan
Prior art keywords
region
acquired
image
image processing
intervertebral
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022064683A
Other languages
Japanese (ja)
Inventor
一将 田中
Kazumasa Tanaka
剛 小林
Takeshi Kobayashi
律也 富田
Ritsuya Tomita
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022064683A priority Critical patent/JP2023154994A/en
Priority to PCT/JP2023/013801 priority patent/WO2023195443A1/en
Publication of JP2023154994A publication Critical patent/JP2023154994A/en
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Engineering & Computer Science (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

To acquire a bone density analysis area of a lumbar spine accurately.SOLUTION: An image processing device includes: first acquisition means for acquiring a spinal region and an intervertebral region in an input image; and second acquisition means for acquiring a bone density analysis area, which is an object region to measure bone density of a lumbar spine, using the acquired spinal region and the acquired intervertebral region.SELECTED DRAWING: Figure 3

Description

本明細書の開示は、画像処理装置、画像処理装置の作動方法、およびプログラムに関する。 The disclosure herein relates to an image processing device, an operating method for the image processing device, and a program.

骨粗鬆症の診断や治療薬の効果判定のために、骨密度の測定が行われる。骨密度は、1cmあたりの骨量である。骨密度を測定する技術として、DXA(Dual energy X-ray Absorptiometry)法で取得した画像を用いる方法が知られている。DXA法では、2種類の管電圧を用いてX線撮影を行い、吸収率の差に基づいて骨と軟組織等の物質の弁別を行う。このようにしてDXA法を用いて取得された画像を、エネサブ画像(エネルギーサブトラクション画像、物質弁別画像)と言う。 Bone density is measured for diagnosing osteoporosis and determining the effectiveness of therapeutic drugs. Bone density is the amount of bone per 1 cm2 . As a technique for measuring bone density, a method using images obtained by DXA (Dual energy X-ray Absorptiometric) method is known. In the DXA method, X-ray photography is performed using two types of tube voltages, and materials such as bone and soft tissue are discriminated based on the difference in absorption rate. The image acquired using the DXA method in this manner is called an energy subtraction image (energy subtraction image, material discrimination image).

骨密度測定のために、エネサブ画像の骨領域の中から、さらに骨密度測定の対象領域(以下、骨密度解析領域と呼ぶ)を取得する必要がある。腰椎の骨密度を測定する場合、一般的に、第1腰椎から第4腰椎まで、あるいは第2腰椎から第4腰椎までが骨密度解析領域となる。 In order to measure bone density, it is necessary to further acquire a target area for bone density measurement (hereinafter referred to as a bone density analysis area) from among the bone areas of the ENE sub-image. When measuring the bone density of the lumbar vertebrae, generally the bone density analysis area is from the first lumbar vertebrae to the fourth lumbar vertebrae, or from the second lumbar vertebrae to the fourth lumbar vertebrae.

特許文献1では、機械学習モデルを用いて自動的に骨密度解析領域を取得する技術が開示されている。 Patent Document 1 discloses a technique for automatically acquiring a bone density analysis region using a machine learning model.

特開2021-37164号公報JP2021-37164A

上記特許文献1では、機械学習によって大腿骨内の骨密度解析領域を取得している。しかしながら、脊椎は椎体および椎間の似た構造が連続して連なっているため、機械学習モデルを用いて腰椎のセグメンテーションを行った場合、取得すべき領域の抜け等が生じ、骨密度解析領域が上下にずれて取得されてしまう恐れがある。 In Patent Document 1, a bone density analysis region within the femur is obtained by machine learning. However, since the spine is a series of vertebral bodies and similar structures between vertebrae, when segmenting the lumbar vertebrae using a machine learning model, the area to be acquired may be omitted, and the bone density analysis area There is a risk that the images may be obtained with a vertical shift.

そこで、本明細書の開示の目的の一つは、高精度に腰椎の骨密度解析領域を取得することである。また、本明細書の開示の目的の他の一つは、似た構造が連続して連なる解析領域を高精度に取得することである。 Therefore, one of the purposes of the disclosure of this specification is to obtain a bone density analysis region of the lumbar vertebrae with high accuracy. Another objective of the disclosure of this specification is to obtain with high precision an analysis region in which similar structures are consecutively connected.

本明細書に開示の一実施態様に係る画像処理装置は、入力画像内の脊椎領域と椎間領域とをそれぞれ取得する第1の取得手段と、前記取得した脊椎領域と前記取得した椎間領域とを用いて腰椎の骨密度測定の対象領域である骨密度解析領域を取得する第2の取得手段と、を有する。 An image processing device according to an embodiment disclosed herein includes a first acquisition unit that acquires a spinal region and an intervertebral region in an input image, and the acquired spinal region and the acquired intervertebral region. and second acquisition means for acquiring a bone density analysis region that is a target region for bone density measurement of the lumbar vertebrae.

本明細書の開示の少なくとも一実施態様によれば、高精度に腰椎の骨密度解析領域を取得することができる。また、本明細書の開示の少なくとも他の実施態様によれば、似た構造が連続して連なる解析領域を高精度に取得するこができる。 According to at least one embodiment of the disclosure of this specification, it is possible to obtain a bone density analysis region of the lumbar vertebrae with high accuracy. Further, according to at least other embodiments disclosed in this specification, an analysis region in which similar structures are consecutively connected can be acquired with high accuracy.

実施例1に係るX線撮影システムの概略構成の一例を示す。1 shows an example of a schematic configuration of an X-ray imaging system according to a first embodiment. 実施例1に係る入力画像の一例を示す。An example of an input image according to Example 1 is shown. 実施例1に係る画像処理のフローチャートの一例を示す。An example of a flowchart of image processing according to the first embodiment is shown. 実施例1に係る第1の取得部による取得結果の一例を示す。An example of an acquisition result by the first acquisition unit according to Example 1 is shown. 実施例1に係る椎間領域の補正処理対象の一例を示す。4 shows an example of an intervertebral region correction processing target according to the first embodiment. 実施例1に係る椎間領域の補正処理対象の他の一例を示す。Another example of the intervertebral region correction processing target according to the first embodiment is shown. 実施例1に係る参照領域の一例を示す。An example of a reference area according to Example 1 is shown. 実施例1に係る回転補正方法の一例を示す。An example of a rotation correction method according to the first embodiment is shown. 実施例1に係る直線の生成方法の一例を示す。An example of a straight line generation method according to the first embodiment is shown. 実施例1に係る背景領域の一例を示す。An example of a background area according to Example 1 is shown. 実施例2に係る画像処理のフローチャートの一例を示す。An example of a flowchart of image processing according to the second embodiment is shown. 実施例2に係る脊椎画像の一例を示す。An example of a spine image according to Example 2 is shown. 実施例3に係る画像処理のフローチャートの一例を示す。An example of a flowchart of image processing according to the third embodiment is shown. 実施例3に係る第1の取得部による取得結果の一例を示す。An example of an acquisition result by the first acquisition unit according to Example 3 is shown. 実施例4に係る画像処理のフローチャートの一例を示す。An example of a flowchart of image processing according to Example 4 is shown. 実施例4に係る第1の取得部による取得結果の一例を示す。An example of an acquisition result by the first acquisition unit according to Example 4 is shown. 実施例5に係る放射線撮影システムの概略構成の一例を示す。An example of a schematic configuration of a radiation imaging system according to Example 5 is shown. 実施例5に係る放射線撮影処理の一例を説明するための図である。12 is a diagram for explaining an example of radiographic processing according to Example 5. FIG. 実施例5に係る放射線撮影処理の一例を説明するための図である。12 is a diagram for explaining an example of radiographic processing according to Example 5. FIG. 実施例5に係る取得対象および補正対象を説明するための図である。FIG. 7 is a diagram for explaining acquisition targets and correction targets according to Example 5;

以下、図面を参照して本発明を実施するための例示的な実施例を詳細に説明する。図面において、同一であるか又は機能的に類似している要素を示すために図面間で同じ参照符号を用いる。また、各図面において説明上重要ではない構成要素、部材、処理の一部は省略して表示する場合がある。 Hereinafter, exemplary embodiments for carrying out the present invention will be described in detail with reference to the drawings. In the drawings, the same reference numbers are used between the drawings to indicate identical or functionally similar elements. Further, in each drawing, some components, members, and processes that are not important for the explanation may be omitted from illustration.

なお、以下の実施例において、放射線の例としてX線を用いた撮影システムについて説明するが、本開示に係る撮影システムは他の放射線を用いてもよい。ここで、放射線という用語は、X線の他、例えば、α線、β線、γ線、粒子線、および宇宙線などを含むことができる。 Note that in the following embodiments, an imaging system using X-rays as an example of radiation will be described, but the imaging system according to the present disclosure may use other radiation. Here, the term radiation can include, in addition to X-rays, for example, alpha rays, beta rays, gamma rays, particle rays, cosmic rays, and the like.

なお、以下において、機械学習モデルとは、機械学習アルゴリズムによる学習モデルをいう。機械学習の具体的なアルゴリズムとしては、最近傍法、ナイーブベイズ法、決定木、サポートベクターマシンなどが挙げられる。また、ニューラルネットワークを利用して、学習するための特徴量、結合重み付け係数を自ら生成する深層学習(ディープラーニング)も挙げられる。また、決定木を用いたアルゴリズムとして、LightGBMやXGBoostのように勾配ブースティングを用いた手法も挙げられる。適宜、上記アルゴリズムのうち利用できるものを用いて以下の実施例および変形例に適用することができる。また、教師データとは、学習データのことをいい、入力データおよび出力データのペアで構成される。 Note that in the following, a machine learning model refers to a learning model using a machine learning algorithm. Specific algorithms for machine learning include the nearest neighbor method, the Naive Bayes method, decision trees, and support vector machines. Another example is deep learning, which uses neural networks to generate feature quantities and connection weighting coefficients for learning by itself. Further, as an algorithm using a decision tree, there are also methods using gradient boosting such as LightGBM and XGBoost. As appropriate, any of the above algorithms that can be used can be applied to the following embodiments and modifications. Further, the teaching data refers to learning data, and is composed of a pair of input data and output data.

なお、学習済モデルとは、ディープラーニング等の任意の機械学習アルゴリズムに従った機械学習モデルに対して、事前に適切な教師データ(学習データ)を用いてトレーニング(学習)を行ったモデルをいう。ただし、学習済モデルは、事前に適切な学習データを用いて得ているが、それ以上の学習を行わないものではなく、追加の学習を行うこともできるものとする。追加学習は、装置が使用先に設置された後も行われることができる。 Note that a trained model is a machine learning model that follows any machine learning algorithm such as deep learning, and has been trained (learning) in advance using appropriate teaching data (learning data). . However, although a trained model is obtained in advance using appropriate training data, it does not mean that no further training is performed, and additional training can be performed. Additional learning can also occur after the device is installed at the site of use.

(実施例1)
以下、図1乃至図10を参照して、本発明の実施例1に係る画像処理装置および画像処理装置の作動方法について説明する。図1は、本施例に係る放射線撮影システムの例であるX線撮影システム100の構成例を示す図である。X線撮影システム100は、X線発生装置制御部102、X線管103、FPD(Flat Panel Detector)106、および画像処理装置120を有する。なお、X線撮影システム100の構成を単にX線撮影装置ともいう。画像処理装置120は、撮影したX線画像に基づく情報を処理する。
(Example 1)
EMBODIMENT OF THE INVENTION Hereinafter, with reference to FIG. 1 thru|or FIG. 10, the image processing apparatus and the operating method of an image processing apparatus based on Example 1 of this invention are demonstrated. FIG. 1 is a diagram showing a configuration example of an X-ray imaging system 100, which is an example of a radiographic system according to the present embodiment. The X-ray imaging system 100 includes an X-ray generator control unit 102, an X-ray tube 103, an FPD (Flat Panel Detector) 106, and an image processing device 120. Note that the configuration of the X-ray imaging system 100 is also simply referred to as an X-ray imaging device. The image processing device 120 processes information based on captured X-ray images.

X線発生装置制御部102は、曝射スイッチの押下により、X線管103に高電圧パルスを与えX線を発生させ、X線管103は、X線を照射する。X線管103からX線が照射されると、X線は架台104上の被写体(不図示)およびグリッド105を通過して、FPD106に到達する。到達したX線は、FPD106によって可視光に変換され、X線画像として出力される。出力されたX線画像は制御部101を介して、画像処理装置120に転送される。 When the exposure switch is pressed, the X-ray generator control unit 102 applies a high voltage pulse to the X-ray tube 103 to generate X-rays, and the X-ray tube 103 emits X-rays. When X-rays are emitted from the X-ray tube 103, the X-rays pass through the subject (not shown) on the pedestal 104 and the grid 105, and reach the FPD 106. The arriving X-rays are converted into visible light by the FPD 106 and output as an X-ray image. The output X-ray image is transferred to the image processing device 120 via the control unit 101.

FPD106は、X線に応じた信号を生成するための画素アレイを備えたX線検出部(不図示)を有する。X線検出部は、グリッドを通過したX線を画像信号として検出する。X線検出部には、入射光に応じた信号を出力する画素がアレイ状(二次元の領域)に配置されている。各画素の光電変換素子は蛍光体により可視光に変換されたX線を電気信号に変換し、画像信号として出力する。このように、X線検出部はグリッドを通過したX線を検出して、画像信号(X線画像)を取得するように構成されている。FPD106は、制御部101からの指示に従って読み出した画像信号(X線画像)を制御部101に出力する。 The FPD 106 includes an X-ray detection section (not shown) including a pixel array for generating a signal according to X-rays. The X-ray detection section detects the X-rays that have passed through the grid as an image signal. In the X-ray detection section, pixels that output signals according to incident light are arranged in an array (two-dimensional area). The photoelectric conversion element of each pixel converts the X-rays converted into visible light by the phosphor into electrical signals and outputs them as image signals. In this way, the X-ray detection section is configured to detect X-rays that have passed through the grid and obtain an image signal (X-ray image). The FPD 106 outputs the read image signal (X-ray image) to the control unit 101 according to instructions from the control unit 101.

制御部101は、FPD106から取得したX線画像を、当該X線画像を処理する画像処理装置120と、画像処理の結果や各種プログラムを記憶する記憶部109に転送する。記憶部109は、たとえば、ROM(Read Only Memory)、又はRAM(Random Access Memory)等により構成される。記憶部109は制御部101から出力された画像や画像処理装置120で画像処理された画像、画像処理装置120で算出された計算結果を記憶することが可能である。 The control unit 101 transfers the X-ray image acquired from the FPD 106 to the image processing device 120 that processes the X-ray image and the storage unit 109 that stores the results of image processing and various programs. The storage unit 109 is configured of, for example, ROM (Read Only Memory) or RAM (Random Access Memory). The storage unit 109 can store images output from the control unit 101, images processed by the image processing device 120, and calculation results calculated by the image processing device 120.

画像処理装置120は、入力された画像を処理して算出結果や画像などを出力する。画像処理装置120には、第1の取得部121および第2の取得部122が設けられている。第1の取得部121は、後述する学習済モデルを用いて、入力画像から脊椎領域と椎間領域を抽出、取得する。第2の取得部122は、第1の取得部121によって取得された脊椎領域と椎間領域を用いて、腰椎の骨密度測定の対象領域である骨密度解析領域を取得する。第1の取得部121および第2の取得部122の処理の詳細については後述する。また、画像処理装置120は、取得した骨密度解析領域に関して骨密度解析を行い、骨密度を算出することができる。 The image processing device 120 processes the input image and outputs calculation results, images, and the like. The image processing device 120 is provided with a first acquisition section 121 and a second acquisition section 122. The first acquisition unit 121 extracts and acquires a spinal region and an intervertebral region from the input image using a learned model described later. The second acquisition unit 122 uses the vertebral region and intervertebral region acquired by the first acquisition unit 121 to acquire a bone density analysis region that is a target region for bone density measurement of the lumbar vertebrae. Details of the processing by the first acquisition unit 121 and the second acquisition unit 122 will be described later. Furthermore, the image processing device 120 can calculate the bone density by performing bone density analysis on the acquired bone density analysis region.

なお、制御部101および画像処理装置120は、プロセッサおよびメモリが設けられたコンピュータによって構成されることができる。なお、制御部101および画像処理装置120は、一般的なコンピュータによって構成されてもよいし、X線撮影システム専用のコンピュータによって構成されてもよい。 Note that the control unit 101 and the image processing device 120 can be configured by a computer equipped with a processor and a memory. Note that the control unit 101 and the image processing device 120 may be configured by a general computer, or may be configured by a computer dedicated to the X-ray imaging system.

制御部101の構成要素、および画像処理装置120に含まれる第1の取得部121等の各構成要素は、たとえば、一つ又は複数のCPU(Central Processing Unit)等のプロセッサ、および記憶部109から読み込んだプログラムを用いて機能構成される。なお、プロセッサは、例えば、MPU(Micro Processing Unit)やGPU(Graphical Processing Unit)、FPGA(Field-Programmable Gate Array)等であってもよい。また、制御部101の構成要素、および画像処理装置120に含まれる各構成要素は、ASIC等の特定の機能を果たす集積回路などで構成してもよい。また、制御部101および画像処理装置120の内部構成として、GPU等のグラフィック制御部、ネットワークカード等の通信部、およびキーボード、ディスプレイ又はタッチパネル等の入出力制御部等を含む構成も可能である。 Each component of the control unit 101 and the first acquisition unit 121 included in the image processing device 120 includes, for example, a processor such as one or more CPUs (Central Processing Units), and a storage unit 109. Functions are configured using the loaded program. Note that the processor may be, for example, an MPU (Micro Processing Unit), a GPU (Graphical Processing Unit), or an FPGA (Field-Programmable Gate Array). Furthermore, the components of the control unit 101 and each component included in the image processing device 120 may be configured with an integrated circuit such as an ASIC that performs a specific function. Furthermore, the internal configuration of the control unit 101 and the image processing device 120 may include a graphic control unit such as a GPU, a communication unit such as a network card, and an input/output control unit such as a keyboard, display, or touch panel.

表示部107(モニタ)は、制御部101がFPD106から受信したX線画像(デジタル画像)や画像処理装置120で画像処理された画像、患者情報、又はユーザー通知等を表示する。操作部108は、ユーザーインターフェイスを介して、画像処理装置120やFPD106に対する指示を入力することができる。操作部108は、例えばマウスやキーボード等の入力機器を用いて構成されてよい。制御部101は、操作部108からの指示等に応じて、表示部107を制御できる表示制御手段の一例として機能する。 The display unit 107 (monitor) displays an X-ray image (digital image) received by the control unit 101 from the FPD 106, an image processed by the image processing device 120, patient information, user notification, etc. The operation unit 108 can input instructions to the image processing device 120 and the FPD 106 via the user interface. The operation unit 108 may be configured using an input device such as a mouse or a keyboard, for example. The control unit 101 functions as an example of a display control unit that can control the display unit 107 in response to instructions from the operation unit 108 and the like.

なお、本実施例では、画像処理装置120および制御部101を別個の装置として記載するが、これらは同一の装置、例えば一つのコンピュータによって構成されることもできる。なお、表示部107はタッチパネル式のディスプレイにより構成されてもよく、この場合には表示部107は操作部108として兼用されることができる。 In this embodiment, the image processing device 120 and the control unit 101 are described as separate devices, but they can also be configured by the same device, for example, one computer. Note that the display section 107 may be configured with a touch panel display, and in this case, the display section 107 can also be used as the operation section 108.

図2は、X線撮影システム100により取得された腰椎近傍の画像の一例を示す。また、図2には、説明のために、骨密度の測定対象の一例である第1腰椎L1、第2腰椎L2、第3腰椎L3、および第4腰椎L4を示してある。本実施例における画像処理装置120は、図2に示すような腰椎近傍の画像を入力画像として、骨密度解析領域を抽出する。 FIG. 2 shows an example of an image near the lumbar vertebrae acquired by the X-ray imaging system 100. Furthermore, for the sake of explanation, FIG. 2 shows a first lumbar vertebra L1, a second lumbar vertebra L2, a third lumbar vertebra L3, and a fourth lumbar vertebra L4, which are examples of bone density measurement targets. The image processing device 120 in this embodiment extracts a bone density analysis region using an image near the lumbar vertebrae as shown in FIG. 2 as an input image.

入力画像は、DXA法で取得されたエネルギーサブトラクション画像(エネサブ画像)であってよい。このエネサブ画像は、kVスイッチング方式により2種類の管電圧でX線撮影された画像から生成されたものであってよい。また、このエネサブ画像は、FPD106としてX線吸収率の異なる2種類の素材(蛍光体)で形成された積層センサを用いて、一度の曝射で得られるそれぞれの層の画像から生成されたものであってもよい。また、一度の曝射(単純X線撮影)で取得された単純X線画像を、入力画像として用いてもよい。また、FPD106が積層センサである場合、上層側(被写体側)の画像を入力画像として用いてもよい。なお、DXA法で取得された異なるエネルギーに関する複数の画像を入力画像として用いてもよい。 The input image may be an energy subtraction image (energy sub-image) acquired by the DXA method. This energy sub-image may be generated from images taken by X-rays at two types of tube voltages using the kV switching method. In addition, this energy sub image is generated from images of each layer obtained by one exposure using a multilayer sensor made of two types of materials (phosphors) with different X-ray absorption rates as the FPD 106. It may be. Furthermore, a simple X-ray image obtained by one exposure (simple X-ray photography) may be used as the input image. Further, when the FPD 106 is a laminated sensor, an image on the upper layer side (on the subject side) may be used as the input image. Note that a plurality of images related to different energies obtained by the DXA method may be used as the input image.

以下、図3を参照して、本実施例における、骨密度解析領域を抽出するための画像処理装置120の画像処理について説明する。図3は、本実施例における、骨密度解析領域を抽出するための画像処理装置120の画像処理フローを示す。本実施例に係る画像処理フローが開始されると、処理はステップS11に移行する。 Hereinafter, with reference to FIG. 3, image processing by the image processing device 120 for extracting a bone density analysis region in this embodiment will be described. FIG. 3 shows an image processing flow of the image processing device 120 for extracting a bone density analysis region in this embodiment. When the image processing flow according to this embodiment is started, the process moves to step S11.

ステップS11において、画像処理装置120の第1の取得部121は学習済モデルを用いて、入力画像から脊椎領域と椎間領域を抽出(セグメンテーション)する。ここで言う脊椎領域とは、脊椎の輪郭およびその内部を含めた領域を指す。また、脊椎の輪郭(外枠)のみを、脊椎領域として扱ってもよい。また、ここで言う椎間領域とは、椎間の輪郭およびその内部を含めた領域を指す。また、椎間の輪郭(外枠)のみを、椎間領域として扱ってもよい。また、椎間領域は線であってもよい。このように、第1の取得部121は、学習済モデルを用いて入力画像内の脊椎領域と椎間領域とをそれぞれ取得する第1の取得手段の一例である。なお、以下において、脊椎領域や椎間領域、骨密度解析領域等の各種領域の取得処理には、これら領域を示す画像の取得やこれら領域の特定が含まれるものとする。 In step S11, the first acquisition unit 121 of the image processing device 120 uses the trained model to extract (segmentation) the spinal region and the intervertebral region from the input image. The spine region referred to here refers to a region including the outline and interior of the spine. Alternatively, only the outline (outer frame) of the spine may be treated as the spine region. Furthermore, the intervertebral region referred to herein refers to a region including the outline and interior of the intervertebral region. Alternatively, only the contour (outer frame) between the vertebrae may be treated as the intervertebral region. Additionally, the intervertebral region may be a line. In this way, the first acquisition unit 121 is an example of a first acquisition unit that acquires the spinal region and the intervertebral region in the input image using the trained model. In the following, it is assumed that the acquisition process of various regions such as the spinal region, the intervertebral region, and the bone density analysis region includes the acquisition of images showing these regions and the identification of these regions.

抽出(取得)した結果の一例を図4(a)および図4(b)に示す。図4(a)の白色領域が脊椎領域の抽出結果(取得結果)であり、図4(b)の白色領域が椎間領域の抽出結果である。図4(a)には、脊椎領域として棘突起を含めていない例を示しているが、棘突起を含めてもよい。 An example of the extracted (obtained) results is shown in FIGS. 4(a) and 4(b). The white region in FIG. 4(a) is the extraction result (obtained result) of the spinal region, and the white region in FIG. 4(b) is the extraction result of the intervertebral region. Although FIG. 4A shows an example in which the spinous process is not included as a spinal region, the spinous process may be included.

学習済モデルは、記憶部109に記憶しておき、第1の取得部121は記憶部109に記憶された学習済モデルを呼び出して使用してよい。脊椎領域を抽出する学習済モデルと、椎間領域を抽出する学習済モデルは、別々に備えていてよい。これらの学習済モデルは、同じ構造で、重みだけが異なっていてもよい。また、脊椎領域を抽出する学習済モデルと椎間領域を抽出する学習済モデルは、共通のモデルであって、各チャンネルから脊椎領域と椎間領域のそれぞれの抽出結果が出力されてもよい。 The trained model may be stored in the storage unit 109, and the first acquisition unit 121 may call and use the trained model stored in the storage unit 109. A trained model for extracting the spinal region and a trained model for extracting the intervertebral region may be provided separately. These trained models may have the same structure and differ only in weight. Further, the trained model for extracting the spinal region and the trained model for extracting the intervertebral region may be a common model, and the extraction results of the spinal region and the intervertebral region may be output from each channel.

ここでの学習済モデルは、たとえば、腰椎近傍の画像と、その画像内の脊椎領域および椎間領域をラベル付けした画像との組み合わせを教師データとして学習させることで、生成され得る。なお、脊椎領域を抽出する学習済モデルと、椎間領域を抽出する学習済モデルを別々に備える場合には、ラベル付けした画像をそれぞれ分けて学習させればよい。具体的には、腰椎近傍の画像と、その画像内の脊椎領域をラベル付けした画像との組み合わせ、および腰椎近傍の画像と、その画像内の椎間領域をラベル付けした画像との組み合わせをそれぞれ教師データとして学習させることで、各学習済モデルが生成され得る。 The trained model here can be generated by, for example, learning a combination of an image near the lumbar vertebrae and an image in which the spinal region and intervertebral region within the image are labeled as training data. Note that if a trained model for extracting the spinal region and a trained model for extracting the intervertebral region are separately provided, the labeled images may be trained separately. Specifically, a combination of an image near the lumbar vertebrae and an image labeled with the spinal region within that image, and a combination of an image near the lumbar vertebrae and an image labeled with the intervertebral region within that image, respectively. Each trained model can be generated by learning as teacher data.

また、画像処理装置120は、セグメンテーション処理の前に、入力画像に対して前処理を行ってもよい。処理の一例は、コントラストを向上させる処理であってよい。コントラストを向上させる処理として、たとえば画像内の輝度値の最大値を1、画像内の輝度値の最小値を0に線形で引き延ばす処理が挙げられる。また、ヒストグラム平坦化などの処理であってもよい。前処理の他の一例は、エッジを強調させる処理であってもよい。エッジを強調させる処理として、たとえばフィルター処理が挙げられる。前処理の他の一例は、画像の輝度値の平均値を0にし、分散を1にする標準化処理であってもよい。また、画像処理装置120は上記の前処理を組み合わせて行ってもよい。なお、これらの前処理は学習済モデルに学習させる教師データに対しても行われてよい。 Furthermore, the image processing device 120 may perform preprocessing on the input image before the segmentation process. An example of the processing may be processing to improve contrast. As a process for improving contrast, for example, a process of linearly extending the maximum brightness value in an image to 1 and the minimum brightness value in the image to 0 can be cited. Alternatively, processing such as histogram flattening may be used. Another example of pre-processing may be processing to emphasize edges. An example of processing for emphasizing edges is filter processing. Another example of pre-processing may be standardization processing in which the average value of the brightness values of the image is set to 0 and the variance is set to 1. Further, the image processing device 120 may perform a combination of the above pre-processing. Note that these pre-processings may also be performed on teacher data to be trained by a trained model.

入力画像は、X線撮影システム100により取得された画像を、操作者が表示部107に表示された画像を見ながら操作部108でトリミングした画像であってもよい。また、トリミングされた画像は、指定された画像サイズにリサイズされてもよい。ここで言う指定された画像サイズは、たとえば学習済モデルの入力画像サイズであってよい。また、入力画像は、操作者によって選択されたトリミング領域よりも広い領域をトリミングした画像であってもよい。たとえば、操作者が第2腰椎L2から第4腰椎L4までを含むようにトリミング領域を選択した場合、入力画像は、さらに第5腰椎L5が入力画像に含まれるようにトリミング領域を縦方向に引き伸ばした画像であってもよい。そのため一例として、画像処理装置120は、操作者がトリミングした領域を第5腰椎L5の方向へ1/4倍だけ縦に延長した領域を含むように入力画像を生成してもよい。また、入力画像は、撮影範囲に基づいて、画像処理装置120によって自動的に腰椎近傍を残すようにトリミングされた画像であってもよい。なお、これらの場合には、教師データの入力データにも同様にトリミングされた画像を用いることができる。 The input image may be an image obtained by trimming an image acquired by the X-ray imaging system 100 using the operation unit 108 while viewing the image displayed on the display unit 107 by the operator. Further, the trimmed image may be resized to a specified image size. The designated image size here may be, for example, the input image size of the trained model. Further, the input image may be an image obtained by trimming a wider area than the trimming area selected by the operator. For example, if the operator selects a trimming region to include the second lumbar vertebra L2 to the fourth lumbar vertebra L4, the input image is further expanded in the vertical direction so that the fifth lumbar vertebra L5 is included in the input image. It may also be an image. Therefore, as an example, the image processing device 120 may generate the input image so as to include a region obtained by vertically extending the region trimmed by the operator by 1/4 times in the direction of the fifth lumbar vertebra L5. Further, the input image may be an image that is automatically trimmed by the image processing device 120 based on the imaging range so as to leave the vicinity of the lumbar vertebrae. Note that in these cases, similarly cropped images can be used as input data for the teacher data.

また、第1の取得部121は、抽出された脊椎領域の外側で、椎間として抽出された領域があった場合、この領域はセグメンテーション誤差とみなして椎間領域の抽出結果から除去してよい。 Furthermore, if there is a region extracted as an intervertebral region outside the extracted spinal region, the first acquisition unit 121 may consider this region as a segmentation error and remove it from the intervertebral region extraction result. .

次に、ステップS12において、画像処理装置120の第2の取得部122は、ステップS11の抽出結果(図4(a)および図4(b))から骨密度解析領域を抽出する。ここでは、骨密度解析領域として第2腰椎L2~第4腰椎L4の領域を抽出する場合を説明する。なお、骨密度解析領域の組み合わせはこれに限らず、たとえば第1腰椎L1の領域も併せて抽出してもよい。 Next, in step S12, the second acquisition unit 122 of the image processing device 120 extracts a bone density analysis region from the extraction results of step S11 (FIGS. 4(a) and 4(b)). Here, a case will be described in which the region of the second to fourth lumbar vertebrae L2 to L4 is extracted as the bone density analysis region. Note that the combination of bone density analysis regions is not limited to this, and for example, the region of the first lumbar vertebra L1 may also be extracted.

ここで、上述したように、脊椎は椎体および椎間の似た構造が連続して連なっているため、学習の傾向に従った処理を行う学習済モデルを用いて腰椎のセグメンテーションを行った場合、取得すべき領域の抜けや余分な領域の取得が生じてしまう場合がある。図5(a)は、取得すべき椎間領域の抜けおよび余分な領域の取得が生じている場合の、椎間領域の抽出結果の一例を示す。図5(a)に示される椎間領域に基づいて骨密度解析領域が設定されると、椎間領域の抜けや余計に取得された領域に起因して、椎間領域の間で抽出される腰椎の領域(骨密度解析領域)が本来の位置からずれてしまう。 Here, as mentioned above, since the spine is a series of vertebral bodies and similar structures between the vertebrae, if the lumbar vertebrae are segmented using a trained model that performs processing according to the learning tendency. In some cases, an area to be acquired may be omitted or an extra area may be acquired. FIG. 5A shows an example of an extraction result of an intervertebral region when an intervertebral region to be acquired is missing and an extra region is acquired. When a bone density analysis region is set based on the intervertebral region shown in Fig. 5(a), some areas may be extracted between the intervertebral regions due to missing intervertebral regions or extra acquired regions. The lumbar vertebrae area (bone density analysis area) shifts from its original position.

これに対して、本実施例に係る第2の取得部122は、脊椎領域および脊椎領域に含まれる椎間領域の関係や椎間領域間の関係を用いて、学習済モデルを用いて抽出された椎間領域の補正処理を行う。第2の取得部122は、補正した椎間領域に基づいて骨密度解析領域を抽出することで、高精度に骨密度解析領域を抽出することができる。 On the other hand, the second acquisition unit 122 according to the present embodiment performs extraction using a trained model using the relationship between the spinal region and the intervertebral regions included in the spinal region and the relationship between the intervertebral regions. Performs correction processing for the intervertebral region. The second acquisition unit 122 can extract the bone density analysis region with high accuracy by extracting the bone density analysis region based on the corrected intervertebral region.

まず、第2の取得部122は、ステップS11で抽出されたそれぞれの椎間領域の重心位置を算出する。次に、第2の取得部122は、これらの重心位置の縦方向の位置(重心Y座標)を算出する。なお、以下において、画像における垂直方向の座標をY座標とし、水平方向の位置をX座標とする。また、重心の算出方法は公知の任意の方法を用いてよい。図5(a)では、上述した椎間領域の抽出結果の一例に対して、重心のY座標を点線で示している。これらの重心Y座標の間隔に基づいて、第2の取得部122は、必要に応じて以下に説明する補正処理を行う。 First, the second acquisition unit 122 calculates the center of gravity position of each intervertebral region extracted in step S11. Next, the second acquisition unit 122 calculates the vertical position (center of gravity Y coordinate) of these center of gravity positions. Note that in the following, the vertical coordinate in the image will be the Y coordinate, and the horizontal position will be the X coordinate. Furthermore, any known method may be used to calculate the center of gravity. In FIG. 5A, the Y coordinate of the center of gravity is shown by a dotted line for an example of the extraction result of the intervertebral region described above. Based on the interval between these Y coordinates of the center of gravity, the second acquisition unit 122 performs the correction process described below as necessary.

図5(a)の座標H1と座標H2で例示されるように、互いの椎間領域の重心Y座標の間隔が設定された閾値よりも小さかった場合、第2の取得部122は、対応する椎間領域のうち一方を外れ値(あるいは推論誤差)とみなして、椎間領域から除外してもよい。一例として、各椎間領域の重心Y座標の間隔の中央値をΔYmとしたとき、ここで設定される閾値はたとえばΔYm/4であってもよい。ただし、閾値の設定方法はこれに限らず、任意の方法で設定し得る。ここでの除外方法の一例として、対応する2つの椎間領域のうち、面積の大きい方の椎間領域(図5(a)のH1側)を残し、面積の小さい方の椎間領域(図5(a)の座標H2側)を除外してもよい。また、画像の下側の椎間領域を残して上側の椎間領域を除外してよい。また逆に、上側の椎間領域を残して下側の椎間領域を除外してもよい。 As exemplified by the coordinates H1 and H2 in FIG. One of the intervertebral regions may be regarded as an outlier (or an inference error) and excluded from the intervertebral regions. As an example, when the median value of the interval between the Y coordinates of the center of gravity of each intervertebral region is ΔYm, the threshold value set here may be, for example, ΔYm/4. However, the method for setting the threshold value is not limited to this, and may be set by any method. As an example of the exclusion method here, of the two corresponding intervertebral regions, the intervertebral region with the larger area (H1 side in Fig. 5(a)) is left, and the intervertebral region with the smaller area (the H1 side in Fig. 5(a)) is left. 5(a) on the coordinate H2 side) may be excluded. Alternatively, the upper intervertebral region may be excluded while leaving the lower intervertebral region in the image. Conversely, the upper intervertebral region may be left in place and the lower intervertebral region may be excluded.

また、第2の取得部122は、図5(a)の座標H3と座標H4で例示されるように互いの椎間領域の重心Y座標の間隔が設定された閾値よりも大きかった場合、外れ値(あるいは推論誤差)とみなして、それらの重心の中点となる位置へ新たに椎間領域を追加してもよい。一例として、各椎間領域の重心Y座標の間隔の中央値をΔYmとしたとき、ここで設定される閾値はたとえばΔYm×2であってもよい。ただし、閾値の設定方法はこれに限らず、任意の方法で設定し得る。 In addition, the second acquisition unit 122 detects an error when the interval between the Y-coordinates of the centroids of the intervertebral regions is larger than a set threshold, as exemplified by the coordinate H3 and the coordinate H4 in FIG. 5(a). A new intervertebral region may be added at a position that is the midpoint of their centers of gravity, considering the values (or inference errors). As an example, when the median value of the interval between the Y coordinates of the center of gravity of each intervertebral region is ΔYm, the threshold value set here may be, for example, ΔYm×2. However, the method for setting the threshold value is not limited to this, and may be set by any method.

このときに追加される椎間領域は、たとえば図5(b)の座標H3.5のY座標位置に示されるように、座標H3と座標H4の椎間領域の各重心の中点を重心位置とした、幅10mm、高さ1mmの線分であってよい。ただし、ここでの椎間領域の大きさ・形状はこれに限らず、任意のものを設定し得る。 For the intervertebral region added at this time, as shown in the Y coordinate position of coordinate H3.5 in FIG. It may be a line segment with a width of 10 mm and a height of 1 mm. However, the size and shape of the intervertebral region are not limited to this, and can be set to any size.

別の補正処理の一例を、図6(a)および図6(b)を用いて説明する。第2の取得部122は、抽出された脊椎領域の上端(図6(a)の座標H1)から、1つ内側の、言い換えると当該脊椎領域の上端から画像の内側へ数えて1つ目の椎間領域の重心Y座標(図6(b)の座標H2)までの、縦方向の距離を算出する。この距離が閾値よりも大きい場合、第2の取得部122は、脊椎領域の上端と当該脊椎領域の上端から画像の内側へ数えて1つ目の椎間領域の重心位置との中点の高さ位置(図6(b)の座標H1.5)に、椎間領域を追加してもよい。 Another example of correction processing will be explained using FIGS. 6(a) and 6(b). The second acquisition unit 122 acquires the second acquisition unit 122 from the upper end of the extracted spinal region (coordinate H1 in FIG. 6(a)), in other words, from the upper end of the spinal region to the inside of the image. The distance in the vertical direction to the Y coordinate of the center of gravity of the intervertebral region (coordinate H2 in FIG. 6(b)) is calculated. If this distance is larger than the threshold, the second acquisition unit 122 acquires the height of the midpoint between the upper end of the spinal region and the center of gravity of the first intervertebral region counting from the upper end of the spinal region to the inside of the image. An intervertebral region may be added at the position (coordinate H1.5 in FIG. 6(b)).

ここで設定される閾値は、一例として、各椎間領域の重心Y座標の間隔の中央値をΔYmとしたとき、ΔYm×2であってもよい。また、ここで追加する椎間領域は、たとえば図6(b)の座標H1.5のY座標位置に示されるように、座標H1の行における脊椎領域の中点と座標H2における椎間領域の重心との中点を重心位置とした、幅10mm、高さ1mmの線分であってよい。なお、行は画像の水平方向の並びをいい、列は画像の垂直方向の並びをいう。ただし、閾値や追加する椎間領域の設定方法はこれに限らず、任意の方法で設定し得る。また、第2の取得部122は、追加する椎間領域を線分として設定せずに、単に椎間領域の重心位置のみを設定してもよい。なお、ステップS12で抽出された脊椎領域や椎間領域が傾いている場合、第2の取得部122は、脊椎領域や椎間領域の傾きに合わせて、追加する椎間領域も傾けて設定してよい。 As an example, the threshold value set here may be ΔYm×2, where ΔYm is the median value of the interval between the Y coordinates of the center of gravity of each intervertebral region. In addition, the intervertebral region to be added here is, for example, as shown at the Y coordinate position of coordinate H1.5 in FIG. It may be a line segment with a width of 10 mm and a height of 1 mm, with the center of gravity positioned at the midpoint between the center of gravity and the center of gravity. Note that rows refer to the horizontal arrangement of images, and columns refer to the vertical arrangement of images. However, the method for setting the threshold value and the intervertebral region to be added is not limited to this, and may be set using any method. Furthermore, the second acquisition unit 122 may simply set only the center of gravity position of the intervertebral region, without setting the intervertebral region to be added as a line segment. Note that if the spinal region or intervertebral region extracted in step S12 is tilted, the second acquisition unit 122 tilts and sets the intervertebral region to be added in accordance with the tilt of the spinal region or intervertebral region. It's fine.

また同様に、抽出された脊椎領域の下端(図6(a)の座標H4)から、当該脊椎領域の下端から内側へ数えて1つ目の椎間領域の重心Y座標(図6(b)の座標H3)までの縦方向の距離を算出する。この距離が閾値よりも大きい場合、脊椎領域の下端と当該脊椎領域の下端から内側へ数えて1つ目の椎間領域の重心位置との中点に、図6(b)の座標H3.5のY座標位置に示されるように椎間領域を追加してもよい。 Similarly, from the lower end of the extracted spinal region (coordinate H4 in FIG. 6(a)), the center of gravity Y coordinate of the first intervertebral region counting inward from the lower end of the spinal region (FIG. 6(b)) The vertical distance to the coordinate H3) is calculated. If this distance is larger than the threshold, the center point of the lower end of the spinal region and the center of gravity of the first intervertebral region counting inward from the lower end of the spinal region is set at the coordinate H3.5 in FIG. 6(b). An intervertebral region may be added as shown at the Y coordinate location of .

第2の取得部122は、このように処理された椎間領域とその重心について、図7に示すように、画像の下から(骨盤側から)数えて4番目の椎間領域の重心G1を設定する。同様に、下から数えて3番目の椎間領域の重心G2、下から数えて2番目の椎間領域の重心G3、および下から数えて1番目の椎間領域の重心G4を、それぞれ設定する。 Regarding the intervertebral regions processed in this way and their centers of gravity, the second acquisition unit 122 obtains the center of gravity G1 of the fourth intervertebral region counting from the bottom (from the pelvis side) of the image, as shown in FIG. Set. Similarly, set the center of gravity G2 of the third intervertebral region counting from the bottom, the center of gravity G3 of the second intervertebral region counting from the bottom, and the center of gravity G4 of the first intervertebral region counting from the bottom, respectively. .

次に、第2の取得部122は、重心G1、G2、G3、G4を通る、水平な線LR1、LR2、LR3、LR4をそれぞれ設定する(図7の4本の点線)。 Next, the second acquisition unit 122 sets horizontal lines LR1, LR2, LR3, and LR4 passing through the centers of gravity G1, G2, G3, and G4 (four dotted lines in FIG. 7), respectively.

抽出された椎間領域の数が4個(所定の数)未満であった場合、第2の取得部122は、抽出された脊椎領域を縦方向に5等分する4本の線を引くことができる。第2の取得部122は、これらの4本の線を画像の左右両端まで延長させたものを、画像の上側から順に水平な線LR1、LR2、LR3、LR4として設定してよい。この処理により、第2の取得部122は、脊椎領域を4つ(所定の数)に区分することができる。また、この処理を行った場合は、以下の処理で骨密度解析領域を抽出した後などに、制御部101が、骨密度解析領域がずれている可能性や操作者へ手動修正を促すメッセージを表示部107へ表示させてもよい。 If the number of extracted intervertebral regions is less than four (predetermined number), the second acquisition unit 122 draws four lines that vertically divide the extracted spinal region into five equal parts. I can do it. The second acquisition unit 122 may extend these four lines to both the left and right ends of the image and set them as horizontal lines LR1, LR2, LR3, and LR4 in order from the top of the image. Through this process, the second acquisition unit 122 can divide the spinal region into four (predetermined number). In addition, when this process is performed, after the bone density analysis area is extracted in the following process, the control unit 101 displays a message indicating that the bone density analysis area may be out of alignment and prompting the operator to manually correct it. It may also be displayed on the display unit 107.

そして図7に示すように、第2の取得部122は、これらの水平な線に挟まれた、縦幅を持つ水平方向の参照領域SR1、SR2、SR3をそれぞれ設定する。 As shown in FIG. 7, the second acquisition unit 122 sets reference regions SR1, SR2, and SR3 in the horizontal direction that are sandwiched between these horizontal lines and have a vertical width.

この処理を行う前に、ステップS12の脊椎領域の抽出結果が図8(a)に示すように傾いていた場合、第2の取得部122は、画像全体の回転補正を行ってもよい。画像を回転補正する角度の設定方法の一例として、第2の取得部122は、図8(b)に示すように抽出された脊椎領域の各行あるいは間引いた行で横方向の重心位置(図8(b)内の黒点)を求める。その後、第2の取得部122は、求めた重心位置の近似直線(図8(b)内の点線)が図8(c)に示すように画像の垂直方向の線になるように画像を回転補正してもよい。なお、回転補正は、椎間領域の補正処理の前に行われてもよいし、重心G1~G4等の設定処理の前に行われてもよい。 Before performing this process, if the extraction result of the spinal region in step S12 is tilted as shown in FIG. 8(a), the second acquisition unit 122 may perform rotation correction on the entire image. As an example of a method for setting an angle for correcting the rotation of an image, the second acquisition unit 122 determines the horizontal center of gravity position (Fig. 8 Find the black dot in (b). Thereafter, the second acquisition unit 122 rotates the image so that the approximate straight line (dotted line in FIG. 8(b)) of the obtained center of gravity position becomes a line in the vertical direction of the image as shown in FIG. 8(c). It may be corrected. Note that the rotational correction may be performed before the intervertebral region correction processing, or may be performed before the setting processing of the centers of gravity G1 to G4, etc.

また、第2の取得部122は、画像の回転補正を行う代わりに、脊椎領域の検出された傾きに基づいて線LR1、LR2、LR3、LR4ならびに参照領域SR1、SR2、SR3を斜めに設定してもよい。 Furthermore, instead of performing image rotation correction, the second acquisition unit 122 sets lines LR1, LR2, LR3, LR4 and reference regions SR1, SR2, SR3 obliquely based on the detected inclination of the spinal region. It's okay.

また、ステップS12で抽出された椎間領域が傾いている場合、第2の取得部122は、線LR1、LR2、LR3、LR4を斜めに引いてもよい。このときの線を引く方法の一例を、図9を用いて説明する。図9は、抽出された椎間領域901の一例を示しており、傾いている。この椎間領域901に対して線を引く方法の一例は、椎間領域901の各列あるいは間引いた列で垂直方向に中点を取り(図9の黒点)、それらの近似直線(図9の点線)を引く方法である。 Furthermore, if the intervertebral region extracted in step S12 is inclined, the second acquisition unit 122 may draw the lines LR1, LR2, LR3, and LR4 diagonally. An example of how to draw a line at this time will be explained using FIG. 9. FIG. 9 shows an example of an extracted intervertebral region 901, which is tilted. An example of how to draw a line for this intervertebral region 901 is to take the vertical midpoint in each row or thinned out rows of the intervertebral region 901 (black dots in FIG. This is the method of drawing a dotted line).

また、このときの直線を引く方法の別の一例は、椎間領域近傍において図8(b)と同様に脊椎領域の近似直線を引き、この近似直線と垂直かつ椎間領域の重心を通る直線を引く方法であってもよい。さらに、第2の取得部122は、線LR1、LR2、LR3、LR4に挟まれた、縦幅を持つ、これら線と平行な参照領域SR1、SR2、SR3をそれぞれ設定してよい。また、第2の取得部122は、ここでの近似直線の傾きに基づいて、画像を回転補正してもよい。 Another example of how to draw a straight line at this time is to draw an approximate straight line of the spinal region in the vicinity of the intervertebral region as shown in FIG. It may also be a method of subtracting. Furthermore, the second acquisition unit 122 may set reference regions SR1, SR2, and SR3 that are sandwiched between the lines LR1, LR2, LR3, and LR4, have a vertical width, and are parallel to these lines. Further, the second acquisition unit 122 may perform rotation correction on the image based on the slope of the approximate straight line here.

第2の取得部122は、参照領域SR1の中で抽出された脊椎領域(椎体に相当する)を、骨密度解析領域である第2腰椎L2として抽出、取得する。また同様に、参照領域SR2内の脊椎領域を骨密度解析領域である第3腰椎L3として抽出し、参照領域SR3内の脊椎領域を骨密度解析領域である第4腰椎L4として抽出する。 The second acquisition unit 122 extracts and acquires a spinal region (corresponding to a vertebral body) extracted in the reference region SR1 as a second lumbar vertebra L2, which is a bone density analysis region. Similarly, the spinal region within the reference region SR2 is extracted as the third lumbar vertebra L3, which is the bone density analysis region, and the vertebrae region within the reference region SR3 is extracted as the fourth lumbar vertebra L4, which is the bone density analysis region.

このように、第2の取得部122は、脊椎領域の抽出結果と椎間領域の抽出結果とを組み合わせることで、高精度に腰椎の骨密度解析領域を抽出、取得することができる。つまり、第2の取得部122は、第1の取得部121の取得結果に基づいて腰椎の骨密度測定の対象領域である骨密度解析領域を取得する第2の取得手段の一例である。 In this way, the second acquisition unit 122 can extract and acquire the bone density analysis region of the lumbar vertebrae with high precision by combining the extraction results of the spinal region and the intervertebral region. That is, the second acquisition unit 122 is an example of a second acquisition unit that acquires a bone density analysis region that is a target region for bone density measurement of the lumbar vertebrae based on the acquisition result of the first acquisition unit 121.

次にステップS13において、画像処理装置120は、骨の透過率を算出するための背景領域を設定する。以下、背景領域の設定方法の一例を述べる。 Next, in step S13, the image processing device 120 sets a background area for calculating the bone transmittance. An example of a method for setting the background area will be described below.

背景領域は、たとえば図10の背景領域BG11、BG12、BG21、BG22、BG31、BG32として示されるように、ステップS12で設定された参照領域SR1、SR2、SR3内で、第2腰椎L2、第3腰椎L3、および第4腰椎L4の左右で設定される。これらの背景領域の探索方法の一例を以下に説明する。 The background region includes the second lumbar vertebrae L2, the third lumbar vertebrae, and the second lumbar vertebra L2, the third lumbar vertebrae within the reference regions SR1, SR2, and SR3 set in step S12, as shown as background regions BG11, BG12, BG21, BG22, BG31, and BG32 in FIG. 10, for example. It is set on the left and right sides of the lumbar vertebra L3 and the fourth lumbar vertebra L4. An example of a method for searching these background areas will be described below.

背景領域BG11、BG12、BG21、BG22、BG31、BG32の縦幅は、それぞれの参照領域SR1、SR2、SR3の縦幅と同じ値に設定できる。背景領域BG11、BG12、BG21、BG22、BG31、BG32の横幅は、事前に設定された指定値とすることができる。一例として、この横幅は20mmと指定することができる。横幅の指定値は、記憶部109で予め保持していてもよい。また、操作部108を用いて、操作者によって指定されてもよい。 The vertical widths of the background regions BG11, BG12, BG21, BG22, BG31, and BG32 can be set to the same value as the vertical widths of the respective reference regions SR1, SR2, and SR3. The widths of the background areas BG11, BG12, BG21, BG22, BG31, and BG32 can be specified values set in advance. As an example, this width may be specified as 20 mm. The designated value of the width may be stored in advance in the storage unit 109. Alternatively, it may be specified by the operator using the operation unit 108.

背景領域BG11の位置は、参照領域SR1内の第2腰椎L2の左側の領域において、背景領域内の輝度値の分散が最小となるような位置が自動で選択されてよい。同様に、背景領域BG12の位置は、参照領域SR1内の第2腰椎L2の右側の領域において、背景領域内の輝度値の分散が最小となるような位置が自動で選択されてよい。さらに同様に、背景領域BG21、BG22は第3腰椎L3の左右領域で、背景領域BG31、BG32は第4腰椎L4の左右領域で選択されてよい。 The position of the background region BG11 may be automatically selected in the region to the left of the second lumbar vertebra L2 in the reference region SR1 such that the variance of the luminance values within the background region is minimized. Similarly, the position of the background region BG12 may be automatically selected in the region to the right of the second lumbar vertebra L2 within the reference region SR1 such that the variance of the luminance values within the background region is minimized. Further, similarly, the background regions BG21 and BG22 may be selected in the left and right regions of the third lumbar vertebra L3, and the background regions BG31 and BG32 may be selected in the left and right regions of the fourth lumbar vertebra L4.

このとき、棘突起の領域は背景領域として選択されないよう除外してよい。たとえば、画像処理装置120は、背景領域BG11を探索するときに、第2腰椎L2として抽出された領域から左側へ棘突起領域として指定された範囲は探索範囲から除外してよい。棘突起領域として、たとえば15mmの範囲を指定してよい。背景領域BG12、BG21、BG22、BG31、BG32を探索する際も、同様に第2腰椎L2、第3腰椎L3、および第4腰椎L4の左右の棘突起領域を除外してよい。 At this time, the region of the spinous process may be excluded from being selected as the background region. For example, when searching for the background region BG11, the image processing device 120 may exclude from the search range the range designated as the spinous process region to the left from the region extracted as the second lumbar vertebra L2. For example, a range of 15 mm may be designated as the spinous process region. When searching the background regions BG12, BG21, BG22, BG31, and BG32, the left and right spinous process regions of the second lumbar vertebra L2, the third lumbar vertebra L3, and the fourth lumbar vertebra L4 may be similarly excluded.

背景領域の設定方法はこれに限らず、任意の方法で設定し得る。たとえば、操作者が操作部108を用いて背景領域を指定してもよい。 The method for setting the background area is not limited to this, and may be set using any method. For example, the operator may specify the background area using the operation unit 108.

制御部101は、以上のように抽出された骨密度解析領域と背景領域を、それぞれ表示部107に表示させてよい。また、表示部107に表示された骨密度解析領域と背景領域に基づいて、操作者が操作部108を用いて骨密度解析領域と背景領域の修正および決定を行ってもよい。また同様に、上記の計算過程で現れた重心や直線も操作者が操作部108を用いて修正および決定してもよい。また、背景領域は表示部107に表示されなくてもよい。 The control unit 101 may cause the display unit 107 to display each of the bone density analysis region and the background region extracted as described above. Further, based on the bone density analysis area and the background area displayed on the display unit 107, the operator may use the operation unit 108 to modify and determine the bone density analysis area and the background area. Similarly, the center of gravity and straight lines that appear in the above calculation process may be corrected and determined by the operator using the operation unit 108. Furthermore, the background area does not need to be displayed on the display unit 107.

骨密度解析領域と背景領域を参照して、画像処理装置120は、各骨密度解析領域における骨密度を算出する。骨密度は既知の方法で算出でき、たとえばDXA法で取得した、画像内の骨と軟組織の厚さの情報を用いて算出してもよい。また、DXA法で取得した原子番号と面密度の情報を用いて骨密度を算出してもよい。制御部101は、算出された骨密度を、表示部107に表示させてよい。 With reference to the bone density analysis region and the background region, the image processing device 120 calculates the bone density in each bone density analysis region. Bone density can be calculated using a known method, for example, using information on the thickness of bone and soft tissue in an image obtained by the DXA method. Alternatively, bone density may be calculated using information on the atomic number and areal density obtained by the DXA method. The control unit 101 may display the calculated bone density on the display unit 107.

また、制御部101は、算出した骨密度に基づいて、診断に有用な任意の値を表示部107に表示させてもよい。たとえば、制御部101は、同年代や他の年代の骨密度の平均値と比較した値が、表示部107に表示されてもよい。また、制御部101は、たとえば過去の測定結果と比較した時系列データが表示部107に表示されてもよい。また、制御部101は、たとえば第2腰椎L2、第3腰椎L3、および第4腰椎L4における骨密度の平均値を、最終的な骨密度の測定値として表示部107に表示させてもよい。 Further, the control unit 101 may cause the display unit 107 to display any value useful for diagnosis based on the calculated bone density. For example, the control unit 101 may display on the display unit 107 a value compared with the average value of bone density of the same age group or other age groups. Further, the control unit 101 may display, for example, time-series data compared with past measurement results on the display unit 107. Further, the control unit 101 may cause the display unit 107 to display, for example, the average value of the bone density at the second lumbar vertebra L2, the third lumbar vertebra L3, and the fourth lumbar vertebra L4 as the final bone density measurement value.

さらに、制御部101は、骨密度解析領域の取得結果あるいは取得過程を操作者へ表示するように表示部107を制御してもよい。ここで、取得過程とは、上記説明した第2の取得部122による各処理を含み、取得過程の表示では、各処理で取得、設定された領域や重心、線等が表示されてよい。例えば、取得された脊椎領域や椎間領域、骨密度解析領域を抽出する際の参照領域や背景領域等が表示されてよい。また、操作部108は、操作者が第2の取得部122による取得結果あるいは取得過程を見ながら操作するための操作手段の一例として機能することができる。 Further, the control unit 101 may control the display unit 107 to display the acquisition result or acquisition process of the bone density analysis region to the operator. Here, the acquisition process includes each process by the second acquisition unit 122 described above, and in the display of the acquisition process, the area, center of gravity, line, etc. acquired and set in each process may be displayed. For example, a reference region, a background region, etc. when extracting the acquired spinal region, intervertebral region, bone density analysis region, etc. may be displayed. Further, the operation unit 108 can function as an example of an operation unit for the operator to operate while viewing the acquisition result or acquisition process by the second acquisition unit 122.

(実施例2)
次に、本発明の実施例2について説明する。本実施例に係るX線撮影システムの構成例は、実施例1に係るX線撮影システム100の構成例と同様であり、図1に示される。なお、本実施例に係るX線撮影システムの構成例については、実施例1に係るX線撮影システム100の構成例と同じ参照符号を用いて説明を省略する。本実施例における画像処理装置120は、実施例1と同様に、図2に示すような画像を入力画像として、骨密度解析領域を抽出する。以下、実施例1との違いを中心に、本実施例について説明する。
(Example 2)
Next, Example 2 of the present invention will be described. The configuration example of the X-ray imaging system according to the present embodiment is the same as the configuration example of the X-ray imaging system 100 according to the first embodiment, and is shown in FIG. Note that the configuration example of the X-ray imaging system according to the present embodiment will be described using the same reference numerals as the configuration example of the X-ray imaging system 100 according to the first embodiment, and a description thereof will be omitted. Similar to the first embodiment, the image processing device 120 in this embodiment uses an image as shown in FIG. 2 as an input image and extracts a bone density analysis region. This example will be described below, focusing on the differences from Example 1.

図11は、本実施例における、骨密度解析領域を抽出するための画像処理装置120の画像処理フローを示す。本実施例に係る画像処理が開始されると、処理はステップS21に移行する。 FIG. 11 shows an image processing flow of the image processing device 120 for extracting a bone density analysis region in this embodiment. When the image processing according to this embodiment is started, the process moves to step S21.

ステップS21において、第1の取得部121は、学習済モデルを用いて、入力画像から脊椎領域を抽出(セグメンテーション)する。抽出した結果の一例は、実施例1と同様に図4(a)に示される。なお、ここでの学習済モデルは、たとえば、腰椎近傍の画像と、その画像内の脊椎領域をラベル付けした画像との組み合わせを教師データとして学習させることで、生成され得る。 In step S21, the first acquisition unit 121 uses the trained model to extract (segmentation) a spinal region from the input image. An example of the extracted results is shown in FIG. 4(a) similarly to Example 1. Note that the trained model here can be generated by, for example, learning a combination of an image near the lumbar vertebrae and an image in which the spinal region within the image is labeled as training data.

ステップS22において、画像処理装置120は、入力画像からステップS21での抽出結果の領域を抽出した脊椎画像を生成する。ここでの脊椎画像の例を図12に示す。この処理は、たとえばステップS21で抽出された領域を1,それ以外の領域を0としたマスクを、入力画像に掛けることによって生成され得る。 In step S22, the image processing device 120 generates a spine image in which the region resulting from the extraction in step S21 is extracted from the input image. An example of the spine image here is shown in FIG. This process can be generated, for example, by multiplying the input image with a mask in which the area extracted in step S21 is set to 1 and the other areas are set to 0.

ステップS23において、第1の取得部121は、学習済モデルを用いて、脊椎画像から椎間領域を抽出(セグメンテーション)する。抽出した結果の一例は、図4(b)と同様である。つまり本実施例に係る画像処理装置120は、椎間領域を、画像全体からではなく脊椎内部から抽出する。なお、ここでの学習済モデルは、たとえば、脊椎画像と、その画像内の椎間領域をラベル付けした画像との組み合わせを教師データとして学習させることで、生成され得る。 In step S23, the first acquisition unit 121 uses the trained model to extract (segmentation) an intervertebral region from the spinal image. An example of the extracted results is the same as that shown in FIG. 4(b). In other words, the image processing device 120 according to this embodiment extracts the intervertebral region not from the entire image but from inside the spine. Note that the trained model here can be generated by, for example, learning a combination of a spine image and an image in which an intervertebral region within the image is labeled as training data.

ステップS24において、第2の取得部122は、抽出された脊椎領域の抽出結果と椎間領域の抽出結果とを組み合わせることで、実施例1と同様にして腰椎の骨密度解析領域を抽出することができる。この場合であっても、脊椎領域の抽出結果と椎間領域の抽出結果とを組み合わせることで、高精度に、腰椎の骨密度解析領域を抽出、取得することができる。また、椎間領域を脊椎画像から取得することで、学習済モデルは画像特徴を用いた処理を行う領域が狭くなるため、演算量が少なくなり処理の高速化や処理負荷の低減等を行えることが期待できる。 In step S24, the second acquisition unit 122 extracts a bone density analysis region of the lumbar vertebrae in the same manner as in Example 1 by combining the extraction results of the extracted spinal region and the extraction result of the intervertebral region. I can do it. Even in this case, by combining the extraction results of the spinal region and the intervertebral region, it is possible to extract and obtain the bone density analysis region of the lumbar vertebrae with high precision. In addition, by acquiring the intervertebral region from spinal images, the trained model has a narrower area for processing using image features, which reduces the amount of calculations, speeding up processing and reducing processing load. can be expected.

ステップS25において、画像処理装置120は、背景領域を抽出する。背景領域の抽出方法は実施例1のステップS13と同様である。 In step S25, the image processing device 120 extracts a background area. The method for extracting the background area is the same as step S13 of the first embodiment.

以上のように抽出された骨密度解析領域と背景領域において、本実施例に係る画像処理装置120は実施例1と同様に各骨密度解析領域における骨密度を算出する。 In the bone density analysis regions and background regions extracted as described above, the image processing device 120 according to the present embodiment calculates the bone density in each bone density analysis region as in the first embodiment.

(実施例3)
次に、本発明の実施例3について説明する。本実施例に係るX線撮影システムの構成例は、実施例1に係るX線撮影システム100の構成例と同様であり、図1に示される。なお、本実施例に係るX線撮影システムの構成例については、実施例1に係るX線撮影システム100の構成例と同じ参照符号を用いて説明を省略する。本実施例における画像処理装置120は、実施例1と同様に、図2に示すような画像を入力画像として、骨密度解析領域を抽出する。以下、実施例1との違いを中心に、本実施例について説明する。
(Example 3)
Next, Example 3 of the present invention will be described. The configuration example of the X-ray imaging system according to the present embodiment is the same as the configuration example of the X-ray imaging system 100 according to the first embodiment, and is shown in FIG. Note that the configuration example of the X-ray imaging system according to the present embodiment will be described using the same reference numerals as the configuration example of the X-ray imaging system 100 according to the first embodiment, and a description thereof will be omitted. Similar to the first embodiment, the image processing device 120 in this embodiment uses an image as shown in FIG. 2 as an input image and extracts a bone density analysis region. This example will be described below, focusing on the differences from Example 1.

図13は、本実施例における、骨密度解析領域を抽出するための画像処理装置120の画像処理フローを示す。本実施例に係る画像処理が開始されると、処理はステップS31に移行する。 FIG. 13 shows an image processing flow of the image processing device 120 for extracting a bone density analysis region in this embodiment. When the image processing according to this embodiment is started, the process moves to step S31.

ステップS31において、第1の取得部121は、学習済モデルを用いて、入力画像から脊椎領域、椎間領域、および骨盤領域を抽出(セグメンテーション)する。抽出した結果の一例を図14(a)乃至図14(c)に示す。図14(a)は脊椎領域の抽出結果の一例、図14(b)は椎間領域の抽出結果の一例、図14(c)は骨盤領域の抽出結果の一例を示す。 In step S31, the first acquisition unit 121 uses the learned model to extract (segmentation) the spinal region, intervertebral region, and pelvis region from the input image. Examples of the extracted results are shown in FIGS. 14(a) to 14(c). FIG. 14(a) shows an example of the extraction result of the spinal region, FIG. 14(b) shows an example of the extraction result of the intervertebral region, and FIG. 14(c) shows an example of the extraction result of the pelvis region.

学習済モデルは、記憶部109に記憶しておき、それを呼び出して使用してよい。脊椎領域を抽出する学習済モデルと、椎間領域を抽出する学習済モデルと、骨盤領域を抽出する学習済モデルは、別々に備えていてよい。これらの学習済モデルは、同じ構造で、重みだけが異なっていてもよい。また、ここでの学習済モデルは共通のモデルであって、各チャンネルから脊椎領域、椎間領域、および骨盤領域のそれぞれの抽出結果が出力されてもよい。 The learned model may be stored in the storage unit 109 and then called and used. A trained model for extracting the spinal region, a trained model for extracting the intervertebral region, and a trained model for extracting the pelvic region may be provided separately. These trained models may have the same structure and differ only in weight. Further, the learned model here may be a common model, and the extraction results of the spinal region, intervertebral region, and pelvic region may be output from each channel.

ここでの学習済モデルは、たとえば、腰椎近傍の画像と、その画像内の脊椎領域、椎間領域および骨盤領域をラベル付けした画像との組み合わせを教師データとして学習させることで、生成され得る。なお、脊椎領域を抽出する学習済モデルと、椎間領域を抽出する学習済モデルと、骨盤領域を抽出する学習済モデルを別々に備える場合には、ラベル付けした画像をそれぞれ分けて学習させればよい。具体的には、腰椎近傍の画像と、その画像内の骨盤領域をラベル付けした画像との組み合わせを教師データとして学習させることで、骨盤領域を抽出する学習済モデルが生成され得る。なお、脊椎領域を抽出する学習済モデルと、椎間領域を抽出する学習済モデルについては、実施例1と同様に生成され得る。 The trained model here can be generated by, for example, learning a combination of an image near the lumbar vertebrae and an image in which the spinal region, intervertebral region, and pelvic region are labeled as training data. Note that if you have separate trained models for extracting the spinal region, intervertebral region, and pelvic region, the labeled images must be trained separately. Bye. Specifically, by learning a combination of an image near the lumbar vertebrae and an image in which the pelvic region is labeled as training data, a trained model for extracting the pelvic region can be generated. Note that the trained model for extracting the spinal region and the trained model for extracting the intervertebral region can be generated in the same manner as in the first embodiment.

第2の取得部122は、これらの抽出結果に基づいて、抽出結果の補正処理を行ってもよい。抽出結果の補正処理の一例は、抽出された脊椎領域と骨盤領域が、設定された所定の距離以上離れていた場合に、脊椎領域の下端を骨盤領域に届くよう延長させる処理であってよい。ここで設定される所定の距離の一例として、たとえば10mmと設定してよい。 The second acquisition unit 122 may perform correction processing on the extraction results based on these extraction results. An example of the extraction result correction process may be a process of extending the lower end of the vertebral region to reach the pelvic region when the extracted vertebral region and pelvic region are separated by a predetermined distance or more. As an example of the predetermined distance set here, it may be set to 10 mm, for example.

抽出結果の補正処理の一例は、抽出された脊椎領域の下端が骨盤領域の内側だった場合に、脊椎領域の下端を骨盤領域の上側の境界線まで短縮させる処理であってよい。 An example of the extraction result correction processing may be a process of shortening the lower end of the extracted spinal region to the upper boundary line of the pelvic region when the lower end of the extracted spinal region is inside the pelvic region.

抽出結果の補正処理の一例は、抽出された椎間領域と骨盤領域が、設定された所定の距離以上離れていた場合に、制御部101が注意を促すメッセージを表示部107に表示させる処理を含んでもよい。注意を促すメッセージは、たとえば骨密度解析領域がずれている可能性や、椎間領域の抽出漏れがある可能性や、操作者へ手動修正を促すメッセージ等であってよい。ここで設定される所定の距離の一例として、たとえば10mmと設定してよい。 An example of the extraction result correction process is a process in which the control unit 101 displays a warning message on the display unit 107 when the extracted intervertebral region and pelvic region are separated by a predetermined distance or more. May include. The message calling for attention may be, for example, a message informing the user that the bone density analysis region may be out of alignment, that the intervertebral region may not be extracted, or prompting the operator to make manual corrections. As an example of the predetermined distance set here, it may be set to 10 mm, for example.

また、第2の取得部122は、抽出された椎間領域と骨盤領域が設定された所定の距離以上離れており、椎間領域の抽出漏れの可能性があると判断することができる。この場合、第2の取得部122は、骨盤領域から上へ数えて1つ目の椎間領域と、骨盤領域の上側の境界線との中間位置に、新たに椎間領域を追加してよい。このときに追加する椎間領域は、図5(b)に示す例と同様に、幅10mm、高さ1mmの線分であってよい。また、このときに追加された椎間領域の重心位置の一例は、骨盤領域から上へ数えて1つ目の椎間領域の重心位置と、骨盤領域の上側の境界線のうち横方向の位置(X座標)が骨盤領域の重心位置のX座標となる点との、中点であってよい。 Further, the second acquisition unit 122 can determine that the extracted intervertebral region and the pelvic region are separated by a predetermined distance or more, and that there is a possibility that the intervertebral region is not extracted. In this case, the second acquisition unit 122 may add a new intervertebral region at an intermediate position between the first intervertebral region counting upward from the pelvic region and the upper boundary line of the pelvic region. . The intervertebral region added at this time may be a line segment with a width of 10 mm and a height of 1 mm, similar to the example shown in FIG. 5(b). Also, an example of the center of gravity position of the intervertebral region added at this time is the center of gravity position of the first intervertebral region counting upward from the pelvic region, and the horizontal position of the upper boundary line of the pelvic region. (X coordinate) may be the midpoint between the point that is the X coordinate of the center of gravity position of the pelvic region.

抽出結果の補正処理の一例は、抽出された椎間領域が骨盤領域の内側にあった場合に、その椎間領域を除去する処理であってよい。 An example of the extraction result correction processing may be a process of removing the extracted intervertebral region when the extracted intervertebral region is inside the pelvic region.

以上のように、骨盤領域の抽出結果を参照することで、脊椎領域および椎間領域のセグメンテーション誤差による影響を低減することができる。 As described above, by referring to the extraction results of the pelvic region, it is possible to reduce the influence of segmentation errors in the spinal region and the intervertebral region.

次に、ステップS32において、第2の取得部122は、抽出された脊椎領域の抽出結果と椎間領域の抽出結果とを組み合わせることで、実施例1と同様に腰椎の骨密度解析領域を抽出することができる。この場合であっても、脊椎領域の抽出結果と椎間領域の抽出結果とを組み合わせることで、高精度に腰椎の骨密度解析領域を抽出、取得することができる。 Next, in step S32, the second acquisition unit 122 extracts a bone density analysis region of the lumbar vertebrae in the same manner as in Example 1 by combining the extraction results of the extracted spinal region and the extraction result of the intervertebral region. can do. Even in this case, by combining the extraction results of the spinal region and the intervertebral region, it is possible to extract and obtain the bone density analysis region of the lumbar vertebrae with high precision.

ステップS33において、画像処理装置120は、背景領域を抽出する。背景領域の抽出方法は実施例1のステップS13と同様である。 In step S33, the image processing device 120 extracts a background area. The method for extracting the background area is the same as step S13 of the first embodiment.

以上のように抽出された骨密度解析領域と背景領域において、本実施例に係る画像処理装置120は実施例1と同様に各骨密度解析領域における骨密度を算出する。 In the bone density analysis regions and background regions extracted as described above, the image processing device 120 according to the present embodiment calculates the bone density in each bone density analysis region as in the first embodiment.

(実施例4)
次に、本発明の実施例4について説明する。本実施例に係るX線撮影システムの構成例は、実施例1に係るX線撮影システム100の構成例と同様であり、図1に示される。なお、本実施例に係るX線撮影システムの構成例については、実施例1に係るX線撮影システム100の構成例と同じ参照符号を用いて説明を省略する。本実施例における画像処理装置120は、実施例1と同様に、図2に示すような画像を入力画像として、骨密度解析領域を抽出する。以下、実施例1との違いを中心に、本実施例について説明する。
(Example 4)
Next, Example 4 of the present invention will be described. The configuration example of the X-ray imaging system according to the present embodiment is the same as the configuration example of the X-ray imaging system 100 according to the first embodiment, and is shown in FIG. Note that the configuration example of the X-ray imaging system according to the present embodiment will be described using the same reference numerals as the configuration example of the X-ray imaging system 100 according to the first embodiment, and a description thereof will be omitted. Similar to the first embodiment, the image processing device 120 in this embodiment uses an image as shown in FIG. 2 as an input image and extracts a bone density analysis region. This example will be described below, focusing on the differences from Example 1.

図15は、本実施例における、骨密度解析領域を抽出するための画像処理装置120の画像処理フローを示す。本実施例に係る画像処理が開始されると、処理はステップS41に移行する。 FIG. 15 shows an image processing flow of the image processing device 120 for extracting a bone density analysis region in this embodiment. When the image processing according to this embodiment is started, the process moves to step S41.

ステップS41において、第1の取得部121は、学習済モデルを用いて、入力画像から脊椎領域、椎間領域、および肋骨領域を抽出(セグメンテーション)する。抽出した結果の一例を図16(a)乃至図16(c)に示す。図16(a)は脊椎領域の抽出結果の一例、図16(b)は椎間領域の抽出結果の一例、図16(c)は肋骨領域の抽出結果の一例を示す。 In step S41, the first acquisition unit 121 uses the learned model to extract (segmentation) a spinal region, an intervertebral region, and a rib region from the input image. Examples of the extracted results are shown in FIGS. 16(a) to 16(c). FIG. 16(a) shows an example of the extraction result of the spinal region, FIG. 16(b) shows an example of the extraction result of the intervertebral region, and FIG. 16(c) shows an example of the extraction result of the rib region.

学習済モデルは、記憶部109に記憶しておき、それを呼び出して使用してよい。脊椎領域を抽出する学習済モデルと、椎間領域を抽出する学習済モデルと、肋骨領域を抽出する学習済モデルは、別々に備えていてよい。これらの学習済モデルは、同じ構造で、重みだけが異なっていてもよい。また、ここでの学習済モデルは共通のモデルであって、各チャンネルから脊椎領域、椎間領域、および肋骨領域のそれぞれの抽出結果が出力されてもよい。 The learned model may be stored in the storage unit 109 and then called and used. A trained model for extracting the spinal region, a trained model for extracting the intervertebral region, and a trained model for extracting the rib region may be provided separately. These trained models may have the same structure and differ only in weight. Further, the learned model here may be a common model, and the extraction results of the spinal region, intervertebral region, and rib region may be output from each channel.

ここでの学習済モデルは、たとえば、腰椎近傍の画像と、その画像内の脊椎領域、椎間領域、および肋骨領域をラベル付けした画像との組み合わせを教師データとして学習させることで、生成され得る。なお、脊椎領域を抽出する学習済モデルと、椎間領域を抽出する学習済モデルと、肋骨領域を抽出する学習済モデルを別々に備える場合には、ラベル付けした画像をそれぞれ分けて学習させればよい。具体的には、腰椎近傍の画像と、その画像内の肋骨領域をラベル付けした画像との組み合わせを教師データとして学習させることで、肋骨領域を抽出する学習済モデルが生成され得る。なお、脊椎領域を抽出する学習済モデルと、椎間領域を抽出する学習済モデルについては、実施例1と同様に生成され得る。 The trained model here can be generated by, for example, learning a combination of an image near the lumbar vertebrae and an image in which the spinal region, intervertebral region, and rib region are labeled as training data. . Note that if you have separate trained models for extracting the spinal region, intervertebral region, and rib region, train the labeled images separately. Bye. Specifically, by learning a combination of an image near the lumbar vertebrae and an image in which the rib region within the image is labeled as training data, a trained model for extracting the rib region can be generated. Note that the trained model for extracting the spinal region and the trained model for extracting the intervertebral region can be generated in the same manner as in the first embodiment.

また、胸骨領域を、肋骨領域の代わりに、あるいは追加して、抽出してもよい。この場合には、たとえば、教師データとして、骨盤領域についてラベル付けせずに胸骨領域をラベル付けした画像を用いたり、脊椎領域、椎間領域、骨盤領域および胸骨領域をラベル付けした画像を用いたりすればよい。 Furthermore, the sternum region may be extracted instead of or in addition to the rib region. In this case, for example, an image with the sternum region labeled without labeling the pelvic region may be used as training data, or an image with the spinal region, intervertebral region, pelvic region, and sternum region labeled. do it.

次に、ステップS42において、第2の取得部122は、ステップS41の抽出結果から骨密度解析領域を抽出する。ここでは、骨密度解析領域として第2腰椎L2~第4腰椎L4を抽出する場合を説明する。なお、骨密度解析領域の組み合わせはこれに限らず、たとえば第1腰椎L1も併せて抽出してもよい。 Next, in step S42, the second acquisition unit 122 extracts a bone density analysis region from the extraction result of step S41. Here, a case will be described in which the second to fourth lumbar vertebrae L2 to L4 are extracted as bone density analysis regions. Note that the combination of bone density analysis regions is not limited to this, and for example, the first lumbar vertebra L1 may also be extracted.

第2の取得部122は、抽出した脊椎領域の中で、椎間で区切られた領域(椎体)を抽出する。このとき、第2の取得部122は、肋骨領域と接している椎体を胸椎とみなす。そして、図2に示すように、胸椎の1つ下の椎体を第1腰椎L1として抽出する。さらに、第1腰椎L1の下の椎体を順に第2腰椎L2、第3腰椎L3、および第4腰椎L4として抽出する。 The second acquisition unit 122 extracts regions (vertebral bodies) separated by intervertebral spaces from the extracted spinal region. At this time, the second acquisition unit 122 regards the vertebral bodies in contact with the rib region as thoracic vertebrae. Then, as shown in FIG. 2, the vertebral body one below the thoracic vertebrae is extracted as the first lumbar vertebra L1. Furthermore, the vertebral bodies below the first lumbar vertebra L1 are sequentially extracted as the second lumbar vertebra L2, the third lumbar vertebra L3, and the fourth lumbar vertebra L4.

さらに実施例1と同様に、第2の取得部122は、第2腰椎L2、第3腰椎L3、および第4腰椎L4の上下の椎間領域から、対応する参照領域SR1、SR2、SR3を設定してもよい。さらに実施例1と同様に、第2の取得部122は、これらの参照領域内で脊椎領域を、最終的な骨密度解析領域(第2腰椎L2、第3腰椎L3、第4腰椎L4)として設定してもよい。 Further, as in Example 1, the second acquisition unit 122 sets corresponding reference regions SR1, SR2, and SR3 from the intervertebral regions above and below the second lumbar vertebra L2, the third lumbar vertebra L3, and the fourth lumbar vertebra L4. You may. Furthermore, as in Example 1, the second acquisition unit 122 selects the spinal region within these reference regions as the final bone density analysis region (second lumbar vertebra L2, third lumbar vertebra L3, fourth lumbar vertebra L4). May be set.

また、実施例1と同様に、第2の取得部122は、椎体を下から(骨盤側から)数えて2番目から4番目までのものを、第4腰椎L4、第3腰椎L3、および第2腰椎L2として抽出してもよい。このとき、第2の取得部122は、下から数えて5番目の椎体を第1腰椎L1として抽出し、これと肋骨として抽出された領域とを比較することによって補正処理を行ってもよい。 Further, as in the first embodiment, the second acquisition unit 122 acquires the second to fourth vertebral bodies counting from the bottom (from the pelvis side), the fourth lumbar vertebra L4, the third lumbar vertebra L3, and It may be extracted as the second lumbar vertebra L2. At this time, the second acquisition unit 122 may perform the correction process by extracting the fifth vertebral body counting from the bottom as the first lumbar vertebra L1 and comparing this with the region extracted as the ribs. .

ここでの補正処理の一例は、第1腰椎L1と肋骨領域が接している場合に、骨密度解析領域の抽出結果がずれている可能性や、操作者に手動修正を促すメッセージを制御部101が表示部107へ表示させる処理を含んでもよい。 An example of the correction processing here is that when the first lumbar vertebrae L1 and the rib region are in contact with each other, the control unit 101 detects the possibility that the extraction results of the bone density analysis region are deviated, and sends a message prompting the operator to make manual corrections. may include processing for displaying on the display unit 107.

また、ここでの補正処理の一例は、第1腰椎L1の一つ上の椎体と肋骨領域が接していない場合に、骨密度解析領域の抽出結果がずれている可能性や、操作者に手動修正を促すメッセージを制御部101が表示部107へ表示させる処理を含んでもよい。 In addition, an example of the correction processing here is that when the vertebral body one above the first lumbar vertebra L1 and the rib region are not in contact, the extraction results of the bone density analysis region may be deviated, and the operator The process may include a process in which the control unit 101 causes the display unit 107 to display a message prompting manual correction.

また、抽出された脊椎領域の上端の縦方向位置が、抽出された肋骨領域の下端から所定の距離だけ下側の縦方向位置よりも下だった場合に、画像処理装置120は、脊椎領域の上端を、この肋骨領域の下端から所定の距離だけ下側の縦方向位置まで延長させる補正処理を行ってもよい。ここでの所定の距離の一例として、たとえば5mmと設定してもよい。 Further, when the vertical position of the upper end of the extracted spinal region is lower than the lower vertical position by a predetermined distance from the lower end of the extracted rib region, the image processing device 120 A correction process may be performed to extend the upper end a predetermined distance from the lower end of this rib region to a lower vertical position. As an example of the predetermined distance here, it may be set to 5 mm, for example.

以上のように、肋骨の抽出結果を参照することで、脊椎領域および椎間領域のセグメンテーション誤差による腰椎抽出への影響を低減することができる。また、脊椎領域の抽出結果と椎間領域の抽出結果とを組み合わせることで、高精度に腰椎の骨密度解析領域を抽出、取得することができる。 As described above, by referring to the rib extraction results, it is possible to reduce the influence of segmentation errors in the spinal region and intervertebral region on lumbar vertebrae extraction. Furthermore, by combining the extraction results of the spinal region and the intervertebral region, it is possible to extract and obtain the bone density analysis region of the lumbar vertebrae with high precision.

ステップS43において、画像処理装置120は、背景領域を抽出する。背景領域の抽出方法は実施例1のステップS13と同様である。 In step S43, the image processing device 120 extracts a background area. The method for extracting the background area is the same as step S13 of the first embodiment.

以上のように抽出された骨密度解析領域と背景領域において、本実施例に係る画像処理装置120は、実施例1と同様に各骨密度解析領域における骨密度を算出する。 In the bone density analysis regions and background regions extracted as described above, the image processing device 120 according to the present embodiment calculates the bone density in each bone density analysis region as in the first embodiment.

(変形例)
以下では、本発明の実施例1、実施例2、実施例3および実施例4の少なくとも一つに係る変形例について説明する。画像処理装置120は、金属などの、骨でもなく軟組織でもない物体の領域を、インプラント領域として抽出してもよい。インプラント領域は、機械学習による学習済モデルを用いたセグメンテーションや、輝度値の分散などに基づくルールベースによるセグメンテーションで、抽出されてよい。抽出されたインプラント領域は骨密度解析の際に解析対象から除いてよい。なお、学習済モデルは、たとえば、腰椎近傍の画像と、その画像内の金属などの、骨でもなく軟組織でもない物体の領域をラベル付けした画像との組み合わせを教師データとして学習させることで、生成され得る。
(Modified example)
Below, a modification of at least one of Example 1, Example 2, Example 3, and Example 4 of the present invention will be described. The image processing device 120 may extract a region of an object that is neither bone nor soft tissue, such as metal, as an implant region. The implant region may be extracted by segmentation using a trained model by machine learning, or by rule-based segmentation based on the variance of brightness values. The extracted implant region may be excluded from the analysis target during bone density analysis. The trained model can be generated by training, for example, a combination of an image near the lumbar vertebrae and an image labeled with a region of an object that is neither bone nor soft tissue, such as metal, as training data. can be done.

また、実施例3と実施例4を組み合わせて、脊椎領域と椎間領域に加えて、骨盤領域と肋骨領域の両方を抽出し、これらの結果を組み合わせることで骨密度解析領域の抽出精度を上げてもよい。たとえば、第2の取得部122は、抽出された脊椎領域の下端の縦方向の位置が骨盤領域の上端よりも閾値以上に上側であった場合、脊椎領域の下端の縦方向の位置を骨盤領域の上端の縦方向の位置まで延長してもよい。また、第2の取得部122は、抽出された脊椎領域の上端の縦方向の位置が肋骨領域の下端よりも閾値以上に下側であった場合、脊椎領域の上端の縦方向の位置を肋骨領域の下端の縦方向の位置まで延長してもよい。ここで言う閾値の一例として10mmと設定することができる。ただし閾値の値はこれに限らず、任意の値を設定することができる。 In addition, by combining Example 3 and Example 4, in addition to the spinal region and intervertebral region, both the pelvic region and rib region were extracted, and by combining these results, the extraction accuracy of the bone density analysis region was improved. It's okay. For example, if the vertical position of the lower end of the extracted spinal region is higher than the upper end of the pelvic region by a threshold value or more, the second acquisition unit 122 determines the vertical position of the lower end of the spinal region from the pelvic region. It may extend to the vertical position of the upper edge of. Further, when the vertical position of the upper end of the extracted spinal region is lower than the lower end of the rib region by a threshold value or more, the second acquisition unit 122 determines the vertical position of the upper end of the spinal region from the rib region. It may extend to the vertical position of the bottom edge of the area. As an example of the threshold value mentioned here, it can be set to 10 mm. However, the value of the threshold value is not limited to this, and any value can be set.

さらに、第2の取得部122は、このように設定された腰椎領域を縦方向に6等分して、下から(骨盤側から)4番目の領域を第2腰椎L2、下から3番目の領域を第3腰椎L3、下から2番目の領域を第4腰椎L4と設定してもよい。 Further, the second acquisition unit 122 vertically divides the lumbar region set in this way into six equal parts, and divides the fourth region from the bottom (from the pelvis side) into the second lumbar vertebra L2, and the third region from the bottom into the second lumbar vertebrae L2. The region may be set as the third lumbar vertebra L3, and the second region from the bottom may be set as the fourth lumbar vertebra L4.

また、第1の取得部121は、脊椎領域に骨盤領域あるいは肋骨領域の少なくとも一方を融合したものを外枠領域として取得してもよい。さらに、第2の取得部122は、外枠領域を上記脊椎領域の代わりに用いて、上記と同様に椎間領域の抽出結果と組み合わせることで、骨密度解析領域を抽出してもよい。 Furthermore, the first acquisition unit 121 may acquire, as the outer frame region, a fusion of at least one of the pelvic region and the rib region to the spinal region. Furthermore, the second acquisition unit 122 may extract the bone density analysis region by using the outer frame region instead of the spinal region and combining it with the extraction result of the intervertebral region in the same manner as above.

また、画像処理装置120は、DXA法で取得した異なる放射線エネルギーに関する2枚の画像と、これらの画像から生成されるエネサブ画像との、計3枚の画像を用いて、骨密度解析領域を抽出してもよい。たとえば、第1の取得部121は、学習済モデルを用いて脊椎領域と椎間領域を抽出する際(実施例1のステップS11など)、3枚の画像に対して脊椎領域と椎間領域を抽出してもよい。この場合、第2の取得部122は、抽出結果が重複している領域のみを最終的な脊椎領域および椎間領域として用いてもよい。また、第2の取得部122は、3枚のうち2枚以上で脊椎領域および椎間領域として抽出された領域のみを、最終的な脊椎領域および椎間領域として用いてもよい。 In addition, the image processing device 120 extracts a bone density analysis region using a total of three images: two images related to different radiation energies acquired by the DXA method and an energy sub-image generated from these images. You may. For example, when extracting a spinal region and an intervertebral region using a trained model (such as step S11 in the first embodiment), the first acquisition unit 121 extracts a spinal region and an intervertebral region from three images. May be extracted. In this case, the second acquisition unit 122 may use only the regions in which the extraction results overlap as the final spinal region and intervertebral region. Further, the second acquisition unit 122 may use only the regions extracted as the spinal region and the intervertebral region from two or more of the three images as the final spinal region and the intervertebral region.

このとき、X線撮影システム100は、3枚の画像に対する学習済モデルを個別に備えていてもよい。この場合には、3枚の画像のそれぞれの種類に応じた画像(異なる放射線エネルギーに関する第1および第2の画像、並びにこれらから生成されるエネサブ画像)をそれぞれの教師データの入力データとして学習させることで、各学習済モデルが生成され得る。なお、教師データの出力データとしては、各種類の画像について脊椎領域や椎間領域にラベル付けした画像を用いればよい。また、1つの学習済モデルの各入力チャンネルが、これら3枚の画像に対応していてもよい。同様に、画像処理装置120は、これら3枚の画像のうち2枚の画像を用いて、脊椎領域および椎間領域を抽出してもよい。 At this time, the X-ray imaging system 100 may be individually equipped with trained models for the three images. In this case, images corresponding to the types of each of the three images (first and second images related to different radiation energies, and energy sub-images generated from these) are learned as input data for each teacher data. Thus, each trained model can be generated. Note that as the output data of the teacher data, images in which spinal regions and intervertebral regions are labeled for each type of image may be used. Furthermore, each input channel of one trained model may correspond to these three images. Similarly, the image processing device 120 may extract the spinal region and the intervertebral region using two of these three images.

上記のような補正処理を行うことで、セグメンテーション誤差の影響を低減することができる。 By performing the above-described correction processing, the influence of segmentation errors can be reduced.

なお、上述した実施例1乃至4では、画像処理装置120は、学習済モデルを用いて入力画像である腰椎近傍の画像から脊椎領域と椎間領域を取得し、取得した脊椎領域と椎間領域とを用いて骨密度解析領域を取得した。しかしながら、本開示に係る画像処理は、他の部位にも適用することができる。 Note that in Examples 1 to 4 described above, the image processing device 120 uses the learned model to acquire a spinal region and an intervertebral region from an image near the lumbar vertebrae, which is an input image, and The bone density analysis area was obtained using However, the image processing according to the present disclosure can also be applied to other parts.

上述した、学習済モデルを用いたセグメンテーションで生じる領域の抜けや余分な領域の取得は、取得すべき領域において似た構造が連続して連なっていることに起因するものと考えられる。そのため、たとえば、頚椎や胸椎、その他の似た構造が連続して連なっている部位について領域抽出を行う場合には、同様の状況が生じる可能性がある。このような場合に対しても、本開示に係る画像処理を適用することで、領域の抜けや取得された余分な領域の補正を行うことができ、最終的に解析領域を高精度に取得することができる。 The omission of regions and the acquisition of extra regions that occur in the segmentation using the trained model described above are considered to be due to the fact that similar structures are consecutively connected in the region to be acquired. Therefore, for example, a similar situation may occur when region extraction is performed on a region where cervical vertebrae, thoracic vertebrae, or other similar structures are connected in series. Even in such cases, by applying the image processing according to the present disclosure, it is possible to correct missing regions and acquired extra regions, and finally acquire the analysis region with high precision. be able to.

補正処理としては、上述した実施例1乃至4と同様に、取得した第1の領域と、第1の領域を含む、より広い第2の領域との関係や、第1の領域内の複数の領域同士の関係を用いて、第1の領域の補正を行えばよい。例えば、第1の領域同士の重心間の距離や第1の領域の重心と第2領域の端部との距離を用いて、学習済モデルを用いたセグメンテーション結果である、取得した第1の領域を補正すればよい。 As in Examples 1 to 4 described above, the correction process includes the relationship between the acquired first area and a wider second area that includes the first area, and the relationship between the acquired first area and the second area that includes the first area, and the relationship between the first area and the second area that includes the first area. The first region may be corrected using the relationship between the regions. For example, the obtained first region is a segmentation result using a trained model using the distance between the centroids of the first regions or the distance between the centroid of the first region and the edge of the second region. All you have to do is correct it.

また、上述した実施例1乃至4では、椎間領域の間にある腰椎領域を最終的に取得すべき領域(解析領域)とした。これに対し、最終的に取得すべき解析領域は、第1の取得部121による学習済モデルを用いたセグメンテーションで取得され、第2の取得部122で補正される領域であってもよい。 Furthermore, in Examples 1 to 4 described above, the lumbar region located between the intervertebral regions was set as the region (analysis region) to be finally acquired. On the other hand, the analysis region to be finally acquired may be a region acquired by segmentation using a trained model by the first acquisition unit 121 and corrected by the second acquisition unit 122.

(実施例5)
以下、図17乃至図19を参照して、本開示の実施例5について説明する。実施例1乃至4では、医用画像を撮影するX線撮影システムについて本開示の技術を適用した。これに対し、本実施例では、インラインでの自動検査で用いられる放射線撮影システムについて本開示の技術を適用する。
(Example 5)
Example 5 of the present disclosure will be described below with reference to FIGS. 17 to 19. In Examples 1 to 4, the technology of the present disclosure was applied to an X-ray imaging system that takes medical images. In contrast, in this embodiment, the technology of the present disclosure is applied to a radiation imaging system used in in-line automatic inspection.

インラインでの自動検査ではX線により撮影した複数の投影画像を再構成した断層画像を用いる技術が広く用いられている。例えば、インラインでの自動検査においては、拡大撮影のため、検査対象物(例えば、平板状の形状を有する基板)をX線源に近づけた状態で検査を行うことが望まれる。一方、基板の厚さ方向側にX線源を近づけた状態で、X線を照射した場合には、厚さに比べて長尺寸法を有する基板の幅方向へX線は透過しにくいため、所望の検査結果が得られない場合が生じ得る。これに関連して、検査対象物に対して斜め方向にX線を照射する技術(例えば、斜めCT、ラミノCT、又はプラナーCTと呼ばれる手法)が提案されている。検査対象物に対して斜め方向にX線を照射する技術ではX線源に検査対象物を近づけることができるため、撮影の拡大率の調整が容易になり、検査装置のサイズもコンパクトにすることが可能である。 In in-line automatic inspection, a technique that uses tomographic images reconstructed from a plurality of projection images taken with X-rays is widely used. For example, in in-line automatic inspection, it is desirable to carry out the inspection with the object to be inspected (for example, a board having a flat plate shape) brought close to the X-ray source for magnified imaging. On the other hand, when X-rays are irradiated with the X-ray source close to the thickness direction of the substrate, it is difficult for the X-rays to penetrate in the width direction of the substrate, which has long dimensions compared to the thickness. There may be cases where desired test results are not obtained. In connection with this, a technique (for example, a technique called oblique CT, lamino CT, or planar CT) has been proposed in which the object to be inspected is irradiated with X-rays in an oblique direction. With technology that irradiates the object with X-rays in an oblique direction, it is possible to bring the object closer to the X-ray source, making it easier to adjust the imaging magnification and making the size of the inspection device more compact. is possible.

ここで、このような検査対象物に対して斜め方向にX線を照射して撮影された複数の投影画像や該投影画像を再構成した断層画像を学習済モデルへの入力として用いて、はんだ等の物質の存在を解析、検出するための対象領域を取得することができる。しかしながら、このような場合であっても、はんだ等の似た構造が連続して連なっているため、機械学習モデルを用いてセグメンテーションを行った場合、取得すべき領域の抜け等が生じ、解析領域がずれて取得されてしまう恐れがある。 Here, a plurality of projection images taken by irradiating X-rays in an oblique direction on such an inspection object and a tomographic image reconstructed from the projection images are used as input to the trained model to calculate solder. It is possible to obtain a target area for analyzing and detecting the presence of substances such as substances. However, even in such cases, similar structures such as solder are connected continuously, so when segmentation is performed using a machine learning model, the area to be acquired may be omitted, resulting in the analysis area being There is a risk that the data may be acquired out of alignment.

そこで、本実施例では、似た構造が連続して連なる解析領域を高精度に取得することを目的の一つとする。これに関連して、本実施例では、検査対象物に対して斜め方向に放射線を照射して撮影された複数の投影画像や該投影画像を再構成した断層画像に対して、学習済モデルを用いてセグメンテーションを行う。また、セグメンテーションにより、はんだ領域(第1の領域)と、はんだ領域を含む、より広いチップ領域(第2の領域)を取得し、はんだ領域とチップ領域との関係や、はんだ領域内の領域同士の関係を用いて、セグメンテーションにより取得したはんだ領域の補正を行う。 Therefore, one of the purposes of this embodiment is to obtain with high precision an analysis region in which similar structures are consecutively connected. In relation to this, in this example, a trained model is applied to a plurality of projection images taken by irradiating the inspection object with radiation in an oblique direction and a tomographic image obtained by reconstructing the projection images. Perform segmentation using In addition, through segmentation, we can obtain a solder area (first area) and a wider chip area (second area) that includes the solder area, and examine the relationship between the solder area and the chip area and the relationships between areas within the solder area. Using the relationship, the solder area obtained by segmentation is corrected.

まず、図17を参照して、本実施例に係る放射線撮影システムの構成について説明する。図17は、本実施例に係る放射線撮影システムの全体な構成例を示す。放射線撮影システム1700には、制御部1710と、放射線発生装置1701と、ステージ1706と、放射線撮影装置1704と、ロボットアーム1705と、撮影装置支持部1703とが設けられている。なお、放射線発生装置1701および放射線撮影装置1704の構成は、実施例1に係るX線管103およびFPD106の構成と同様であってよく、説明を省略する。 First, with reference to FIG. 17, the configuration of the radiographic system according to this embodiment will be described. FIG. 17 shows an example of the overall configuration of the radiographic system according to this embodiment. The radiation imaging system 1700 is provided with a control unit 1710, a radiation generating device 1701, a stage 1706, a radiation imaging device 1704, a robot arm 1705, and an imaging device support portion 1703. Note that the configurations of the radiation generating device 1701 and the radiation imaging device 1704 may be the same as the configurations of the X-ray tube 103 and FPD 106 according to the first embodiment, and a description thereof will be omitted.

ここで、放射線撮影装置1704は、撮影装置支持部1703に支持されており、撮影装置支持部1703およびロボットアーム1705が移動することにより、放射線撮影装置1704も移動可能に構成されている。また、ステージ1706には、検査対象物(以下、「ワーク1702」ともいう)が配置される。ステージ1706は、制御部1710のステージ制御部1718の制御信号により、放射線撮影のために指定された位置に移動し、又は、放射線撮影のために指定された所定の位置に停止するように構成されている。 Here, the radiation imaging apparatus 1704 is supported by an imaging apparatus support part 1703, and is configured to be movable as the imaging apparatus support part 1703 and the robot arm 1705 move. Furthermore, an object to be inspected (hereinafter also referred to as "work 1702") is placed on stage 1706. The stage 1706 is configured to move to a position designated for radiography or to stop at a predetermined position designated for radiography according to a control signal from a stage control unit 1718 of a control unit 1710. ing.

検査対象物には、例えば、種々の物品や人体が含まれることができる。種々の物品(例えば、基板)を検査対象にする場合には、基板に電子部品が装着された状態の良否判定や検査対象物の内部における解析処理等に適用可能である。人体を検査対象にする場合、断層撮影による画像診断に適用可能である。 The object to be inspected can include, for example, various articles and human bodies. When various articles (for example, a board) are to be inspected, the present invention can be applied to determining the quality of electronic components mounted on the board, analysis processing inside the inspected object, and the like. When the human body is the subject of examination, it is applicable to image diagnosis using tomography.

制御部1710には、第1の取得部1711、生成部1712、第2の取得部1713、第3の取得部1714、表示制御部1715、記憶部1716、撮影装置制御部1717、ステージ制御部1718、および放射線制御部1719が設けられている。第1の取得部1711は、放射線撮影装置1704で撮影された画像や生成部1712で生成された画像を取得することができる。また、第1の取得部1711は、制御部1710にインターネット等のネットワークを介して接続される不図示の外部装置から各種画像を取得することもできる。 The control unit 1710 includes a first acquisition unit 1711, a generation unit 1712, a second acquisition unit 1713, a third acquisition unit 1714, a display control unit 1715, a storage unit 1716, an imaging device control unit 1717, and a stage control unit 1718. , and a radiation control section 1719 are provided. The first acquisition unit 1711 can acquire images captured by the radiation imaging apparatus 1704 and images generated by the generation unit 1712. Further, the first acquisition unit 1711 can also acquire various images from an external device (not shown) connected to the control unit 1710 via a network such as the Internet.

生成部1712は、取得部で取得された複数の放射線画像(投影画像)から三次元画像を再構成することができる。また、生成部1712は、生成した三次元画像から任意の断面の断層画像を再構成することができる。なお、生成部1712による処理の詳細については後述する。 The generation unit 1712 can reconstruct a three-dimensional image from the plurality of radiation images (projection images) acquired by the acquisition unit. Furthermore, the generation unit 1712 can reconstruct a tomographic image of an arbitrary cross section from the generated three-dimensional image. Note that details of the processing by the generation unit 1712 will be described later.

第2の取得部1713は、生成部1712において再構成された断層画像について、実施例1に係る画像処理装置120の第1の取得部121と同様に、学習済モデルを用いて、入力画像からチップ領域とはんだ領域を抽出、取得する。第3の取得部1714は、第2の取得部1713によって取得されたチップ領域とはんだ領域を用いて、はんだの存在の有無を解析する対象領域である解析領域を取得する。第2の取得部1713および第3の取得部1714の処理の詳細については後述する。なお、以下において、はんだ領域やチップ領域、解析領域の取得処理には、これら領域を示す画像の取得やこれら領域の特定が含まれるものとする。 The second acquisition unit 1713 uses the learned model to obtain the tomographic image reconstructed by the generation unit 1712 from the input image, similarly to the first acquisition unit 121 of the image processing device 120 according to the first embodiment. Extract and obtain the chip area and solder area. The third acquisition unit 1714 uses the chip area and the solder area acquired by the second acquisition unit 1713 to acquire an analysis area that is a target area for analyzing the presence or absence of solder. Details of the processing by the second acquisition unit 1713 and the third acquisition unit 1714 will be described later. In the following, it is assumed that the acquisition process of the solder area, chip area, and analysis area includes acquiring images showing these areas and specifying these areas.

なお、本実施例では、第2の取得部1713および第3の取得部1714を制御部1710内の機能構成として実現している。しかしながら、実施例1と同様に、制御部1710とは別個の装置(画像処理装置)を設け、当該別個の装置内に第2の取得部1713および第3の取得部1714を構成してもよい。 Note that in this embodiment, the second acquisition section 1713 and the third acquisition section 1714 are implemented as functional configurations within the control section 1710. However, as in the first embodiment, a device (image processing device) separate from the control section 1710 may be provided, and the second acquisition section 1713 and the third acquisition section 1714 may be configured in the separate device. .

なお、制御部1710は、取得した解析領域に関してはんだの存在の解析を行い、電子部品の装着の良否等を判定することができる。また、画像処理装置を別個に設ける場合には、画像処理装置が当該解析処理を行うこともできる。なお、はんだの存在の解析方法は、公知の任意の方法を用いてよい。 Note that the control unit 1710 can analyze the presence of solder in the acquired analysis region and determine whether the electronic component is properly mounted or not. Furthermore, when an image processing device is provided separately, the image processing device can also perform the analysis processing. Note that any known method may be used to analyze the presence of solder.

表示制御部1715は、表示部1720の表示を制御する。表示制御部1715は、例えば、生成部1712で生成された各種画像、第2の取得部1713で取得された各領域、第3の取得部1714で取得された解析領域の解析結果、および患者情報等を表示部1720に表示させることができる。記憶部1716は、実施例1に係る記憶部109と同様に機能することができる。 Display control section 1715 controls the display on display section 1720. The display control unit 1715, for example, displays various images generated by the generation unit 1712, each area acquired by the second acquisition unit 1713, analysis results of the analysis area acquired by the third acquisition unit 1714, and patient information. etc. can be displayed on the display section 1720. The storage unit 1716 can function similarly to the storage unit 109 according to the first embodiment.

ここで、制御部1710は、プロセッサおよびメモリが設けられたコンピュータによって構成されることができる。なお、制御部1710は、一般的なコンピュータによって構成されてもよいし、放射線制御システム専用のコンピュータによって構成されてもよい。また、制御部1710は、例えば、パーソナルコンピュータであってもよく、デスクトップPC、ノート型PC、又はタブレット型PC(携帯型の情報端末)等が用いられてもよい。さらに、制御部1710は、一部の構成要素が外部装置に配置されるようなクラウド型のコンピュータとして構成されてもよい。 Here, the control unit 1710 can be configured by a computer equipped with a processor and a memory. Note that the control unit 1710 may be configured by a general computer or a computer dedicated to the radiation control system. Further, the control unit 1710 may be, for example, a personal computer, such as a desktop PC, a notebook PC, a tablet PC (portable information terminal), or the like. Further, the control unit 1710 may be configured as a cloud-type computer in which some components are placed in an external device.

また、制御部1710の記憶部1716以外の各構成要素は、CPUやMPU等のプロセッサによって実行されるソフトウェアモジュールにより構成されてよい。なお、プロセッサは、例えば、GPUやFPGA等であってもよい。また、当該各構成要素は、ASIC等の特定の機能を果たす回路等によって構成されてもよい。記憶部1716は、例えば、ハードディスク等の光学ディスクやメモリ等の任意の記憶媒体によって構成されてよい。 Further, each component of the control unit 1710 other than the storage unit 1716 may be configured by a software module executed by a processor such as a CPU or an MPU. Note that the processor may be, for example, a GPU, an FPGA, or the like. Further, each component may be configured by a circuit that performs a specific function, such as an ASIC. The storage unit 1716 may be configured with any storage medium such as an optical disk such as a hard disk or a memory.

また、制御部1710には、表示部1720および操作部1750が接続されている。なお、表示部1720および操作部1750は、実施例1に係る表示部107および操作部108と同様のものであってよく、説明を省略する。 Further, a display section 1720 and an operation section 1750 are connected to the control section 1710. Note that the display section 1720 and the operation section 1750 may be the same as the display section 107 and the operation section 108 according to the first embodiment, and a description thereof will be omitted.

放射線制御部1719は、実施例1に係るX線発生装置制御部102と同様に機能することができる。放射線制御部1719は、操作部1750を介した操作者の操作等に基づいて、例えば、放射線発生装置1701による放射線の照射角、放射線焦点位置、管電圧、および管電流等の撮影条件を制御することができる。 The radiation control unit 1719 can function similarly to the X-ray generator control unit 102 according to the first embodiment. The radiation control unit 1719 controls, for example, imaging conditions such as the radiation irradiation angle, radiation focal position, tube voltage, and tube current by the radiation generating device 1701 based on an operator's operation via the operation unit 1750. be able to.

放射線発生装置1701は、放射線制御部1719の制御信号に基づいて、放射線焦点を通る軸を中心軸として放射線を出力する。なお、放射線発生装置1701は、例えば、XYZΦ方向に移動可能な放射線発生装置として構成されることができる。この場合、放射線発生装置1701は、例えば、モータ等の駆動部を備え、放射線制御部1719の制御信号に基づいて、回転軸(Z軸)に交差する面内(XY平面内)の任意の位置に移動したり、任意の位置(例えば、回転軸(Z軸)の位置)に停止したりすることができる。放射線発生装置1701は、回転軸に交差する面内を移動した状態、又は、回転軸の位置に停止した状態で、回転軸に対して傾斜した方向から放射線を照射する。 The radiation generating device 1701 outputs radiation based on a control signal from the radiation control unit 1719, with the axis passing through the radiation focal point as the central axis. Note that the radiation generating device 1701 can be configured as a radiation generating device that is movable in the XYZΦ directions, for example. In this case, the radiation generating device 1701 is equipped with a drive unit such as a motor, and based on a control signal from the radiation control unit 1719, the radiation generating device 1701 can move to any position within a plane (in the XY plane) intersecting the rotation axis (Z axis). The robot can move to any position or stop at any position (for example, the position of the rotation axis (Z-axis)). The radiation generating device 1701 irradiates radiation from a direction oblique to the rotation axis while moving in a plane intersecting the rotation axis or while stopping at the rotation axis position.

図17において、回転軸とは、紙面の上下方向の軸(Z軸)であり、角度θは回転軸(Z軸)に対する傾斜角を示す。角度Φは、Z軸回りの回転角度を示す。X方向は、例えば、紙面の左右方向に対応し、Y方向は紙面に対して垂直な方向に対応する。また、Z方向は、例えば、紙面の上下方向に対応するものとする。図17における座標系の設定は、図18Aおよび図18Bにおいても同様である。 In FIG. 17, the rotation axis is an axis (Z-axis) in the vertical direction of the page, and the angle θ indicates an inclination angle with respect to the rotation axis (Z-axis). Angle Φ indicates a rotation angle around the Z axis. For example, the X direction corresponds to the horizontal direction of the page, and the Y direction corresponds to the direction perpendicular to the page. Further, the Z direction corresponds to, for example, the vertical direction of the page. The setting of the coordinate system in FIG. 17 is the same in FIGS. 18A and 18B.

放射線発生装置1701が回転軸に交差する面内を移動した状態とは、例えば、図18Aに示すように、放射線発生装置1701が回転軸(Z軸)に交差する面内(XY平面内)を所定の軌道1840で移動した状態を示す。また、放射線発生装置1701が回転軸の位置に停止した状態とは、例えば、図18Bに示すように、放射線発生装置1701が回転軸(Z軸)の位置に停止した状態を示す。また、回転軸に対して傾斜した方向からの放射線照射とは、例えば、図18Aおよび図18Bに示すように、回転軸(Z軸)に対して角度θ傾斜した状態での放射線照射を示す。 For example, as shown in FIG. 18A, the state in which the radiation generating device 1701 moves within a plane intersecting the rotation axis (Z axis) means that the radiation generating device 1701 moves within a plane (XY plane) intersecting the rotation axis (Z axis). It shows a state of movement along a predetermined trajectory 1840. Further, the state in which the radiation generating device 1701 is stopped at the position of the rotation axis refers to a state in which the radiation generating device 1701 is stopped at the position of the rotation axis (Z-axis), for example, as shown in FIG. 18B. Further, radiation irradiation from a direction inclined with respect to the rotation axis refers to radiation irradiation in a state inclined at an angle θ with respect to the rotation axis (Z-axis), for example, as shown in FIGS. 18A and 18B.

図18Aに示す放射線撮影システムにおいて、放射線発生装置1701は、回転軸(Z軸)に交差する面内(XY平面内)を移動可能に構成され、回転軸に対して傾斜した方向から放射線を照射する。ワーク1702を保持するステージ1706(保持部)は、回転軸(Z軸)の位置に停止した状態で、ワーク1702を保持する。また、放射線撮影装置1704は、回転軸(Z軸)に交差する面内(XY平面内)を移動可能に構成され、検査対象物を透過した放射線を検出する。図18Aにおいて、放射線発生装置1701は、放射線制御部1719の制御信号に基づいて、放射線発生装置1701の放射線焦点の位置1820から、放射線焦点を通る軸1820Aを中心軸として放射線を出力する。同様に、放射線発生装置1701は、放射線制御部1719の制御信号に基づいて、放射線発生装置1701の放射線焦点の位置1821の位置から、放射線焦点を通る軸1821Aを中心軸として放射線を出力する。ここで、軸1820A(軸1821A)と回転軸(Z軸)とのなす角度が傾斜角(角度θ)となる。 In the radiography system shown in FIG. 18A, the radiation generating device 1701 is configured to be movable within a plane (in the XY plane) intersecting the rotation axis (Z axis), and irradiates radiation from a direction oblique to the rotation axis. do. A stage 1706 (holding section) that holds the work 1702 holds the work 1702 while being stopped at the rotation axis (Z-axis). Furthermore, the radiographic apparatus 1704 is configured to be movable within a plane (XY plane) intersecting the rotation axis (Z axis), and detects radiation that has passed through the inspection object. In FIG. 18A, the radiation generating device 1701 outputs radiation from a radiation focal point position 1820 of the radiation generating device 1701, with an axis 1820A passing through the radiation focal point as the central axis, based on a control signal from the radiation control unit 1719. Similarly, the radiation generating device 1701 outputs radiation from a radiation focal point position 1821 of the radiation generating device 1701, with an axis 1821A passing through the radiation focal point as the central axis, based on a control signal from the radiation control unit 1719. Here, the angle formed by the axis 1820A (axis 1821A) and the rotation axis (Z-axis) is the inclination angle (angle θ).

一方で、図18Bに示す放射線撮影システムでは、放射線発生装置1701は、回転軸(Z軸)の位置に停止した状態で、回転軸に対して傾斜した方向から放射線を照射する。ワーク1702を保持するステージ1706は、回転軸に交差する面内(XY平面内)を移動可能に構成され、ワーク1702を保持する。また、放射線撮影装置1704は、回転軸(Z軸)に交差する面内(XY平面内)を移動可能に構成され、検査対象物を透過した放射線を検出する。図18Bにおいて、放射線発生装置1701は、放射線制御部1719の制御信号に基づいて、放射線発生装置1701の放射線焦点の位置1820(回転軸(Z軸)の位置)から、放射線焦点を通る軸1820Bを中心軸として放射線を出力する。また、放射線発生装置1701は、放射線制御部1719の制御信号に基づいて放射線の照射角を変更し、放射線発生装置1701の放射線焦点の位置1820から、放射線焦点を通る軸1820Cを中心軸として放射線を出力する。ここで、軸1820B(軸1820C)と回転軸(Z軸)とのなす角度が傾斜角(角度θ)となる。 On the other hand, in the radiographic system shown in FIG. 18B, the radiation generating device 1701 irradiates radiation from a direction oblique to the rotation axis while being stopped at the rotation axis (Z-axis). A stage 1706 holding the work 1702 is configured to be movable within a plane intersecting the rotation axis (in the XY plane), and holds the work 1702. Furthermore, the radiographic apparatus 1704 is configured to be movable within a plane (XY plane) intersecting the rotation axis (Z axis), and detects radiation that has passed through the inspection object. In FIG. 18B, the radiation generating device 1701 moves from the radiation focal point position 1820 (rotation axis (Z-axis) position) of the radiation generating device 1701 to an axis 1820B passing through the radiation focal point based on a control signal from the radiation control unit 1719. Outputs radiation as the central axis. Furthermore, the radiation generating device 1701 changes the radiation irradiation angle based on the control signal of the radiation control unit 1719, and emits radiation from the radiation focal point position 1820 of the radiation generating device 1701 with an axis 1820C passing through the radiation focal point as the central axis. Output. Here, the angle formed by the axis 1820B (axis 1820C) and the rotation axis (Z-axis) is the inclination angle (angle θ).

ステージ制御部1718は、放射線撮影のために指定された位置までステージ1706を移動させたり、放射線撮影のために所定の位置に停止させたりするようにステージ1706の位置制御を行う。なお、ステージ制御部1718は、所定の撮影動作のためのプログラムや操作者の操作に基づいてステージ1706の位置制御を行うことができる。 The stage control unit 1718 controls the position of the stage 1706 so that the stage 1706 is moved to a specified position for radiography or stopped at a predetermined position for radiography. Note that the stage control unit 1718 can control the position of the stage 1706 based on a program for a predetermined photographing operation or an operation by an operator.

ステージ1706には、検査対象物であるワーク1702が保持される。ステージ1706は、例えば、XYZΦ方向に移動可能なステージとして構成される。ステージ1706は、例えば、モータ等の駆動部を備え、ステージ制御部1718の制御信号に基づいて、回転軸(Z軸)に交差する面内(XY平面内)の任意の位置に移動したり、任意の位置(例えば、回転軸(Z軸)の位置)に停止したりすることができる。ステージ1706はワーク1702を保持し、回転軸(Z軸)に交差する面内(XY平面内)を移動可能に構成された保持部として機能する。 A stage 1706 holds a workpiece 1702 that is an object to be inspected. The stage 1706 is configured, for example, as a stage movable in the XYZΦ directions. The stage 1706 includes a drive unit such as a motor, and based on a control signal from a stage control unit 1718, the stage 1706 can move to any position within a plane (within an XY plane) that intersects the rotation axis (Z axis). It is possible to stop at an arbitrary position (for example, the position of the rotation axis (Z-axis)). The stage 1706 functions as a holding unit that holds the workpiece 1702 and is configured to be movable within a plane (in the XY plane) intersecting the rotation axis (Z axis).

ステージ1706は、例えば、回転軸(Z軸)回りのΦ方向の軌道1860(図18B)やXY平面内における線形軌道に従って移動可能に構成されている。また、ステージ1706は、ステージ制御部1718の制御信号に基づいて、XY平面内における所定の位置に位置決めされ、停止可能である。また、他の場合において、ステージ1706は、ベルトコンベア等により一方向に移動することで検査のための位置にワーク1702を配置するように構成されることができる。 The stage 1706 is configured to be movable, for example, along a trajectory 1860 in the Φ direction around the rotation axis (Z axis) (FIG. 18B) or a linear trajectory in the XY plane. Further, the stage 1706 is positioned at a predetermined position within the XY plane and can be stopped based on a control signal from the stage control unit 1718. In other cases, the stage 1706 can be configured to move in one direction using a belt conveyor or the like to place the work 1702 at a position for inspection.

撮影装置制御部1717は、放射線撮影装置1704の位置および動作を制御する。また、撮影装置制御部1717は、ロボットアーム1705および撮影装置支持部1703の移動位置を制御する。ロボットアーム1705と撮影装置支持部1703は、撮影装置制御部1717からの制御信号に基づき所定の位置に移動することにより、放射線撮影装置1704を指定された位置に移動させることができる。例えば、ロボットアーム1705と撮影装置支持部1703とは、XY方向の自由度およびZ軸回りの回転方向(Φ)の自由度(XYΦ方向の自由度)で放射線撮影装置1704を移動させる動作機構として構成されることができる。 The imaging device control unit 1717 controls the position and operation of the radiation imaging device 1704. Further, the imaging device control unit 1717 controls the movement positions of the robot arm 1705 and the imaging device support unit 1703. The robot arm 1705 and the imaging device support section 1703 can move the radiation imaging device 1704 to a designated position by moving to a predetermined position based on a control signal from the imaging device control section 1717. For example, the robot arm 1705 and the imaging device support unit 1703 function as an operating mechanism that moves the radiographic imaging device 1704 with degrees of freedom in the XY directions and degrees of freedom in the rotational direction (Φ) around the Z axis (degrees of freedom in the XYΦ directions). Can be configured.

放射線撮影装置1704は、撮影装置支持部1703の所定の位置に保持されている。撮影装置制御部1717は、ロボットアーム1705および撮影装置支持部1703の移動位置に基づいて、撮影装置制御部1717の位置情報を取得する。撮影装置制御部1717は、ロボットアーム1705および撮影装置支持部1703の移動位置および回転角度に基づいて取得した放射線撮影装置1704の位置情報および回転角度情報を生成部1712に送信する。 The radiation imaging device 1704 is held at a predetermined position on the imaging device support portion 1703. The imaging device control section 1717 acquires position information of the imaging device control section 1717 based on the movement positions of the robot arm 1705 and the imaging device support section 1703. The imaging device control unit 1717 transmits to the generation unit 1712 position information and rotation angle information of the radiation imaging device 1704 acquired based on the movement positions and rotation angles of the robot arm 1705 and the imaging device support unit 1703.

放射線撮影装置1704は、放射線発生装置1701によって出力されてワーク1702を透過した放射線を検出して、ワーク1702の投影画像の画像情報を制御部1710に送る。XYΦ方向の自由度を有するロボットアーム1705および撮影装置支持部1703の動作により、放射線撮影装置1704は、回転軸(Z軸)に交差する面内を移動可能に構成され、検査対象物(ワーク1702)を透過した放射線を検出する。ここで、回転軸に交差する面内の移動とは、例えば、図18Aおよび図18Bに示すように、放射線撮影装置1704が回転軸(Z軸)に交差する面内(XY平面内)を所定の軌道1850で移動した状態を示す。 The radiation imaging device 1704 detects the radiation output by the radiation generating device 1701 and transmitted through the workpiece 1702, and sends image information of the projected image of the workpiece 1702 to the control unit 1710. The radiation imaging apparatus 1704 is configured to be movable in a plane intersecting the rotation axis (Z-axis) by the operation of the robot arm 1705 and the imaging apparatus support part 1703, which have degrees of freedom in the XYΦ directions, and ) is detected. Here, movement in a plane intersecting the rotation axis means, for example, as shown in FIG. 18A and FIG. This shows the state of movement on a trajectory 1850.

ここで、図18Aおよび図18Bを用いて、本実施例に係る放射線撮影処理について説明する。本実施例に係る放射線撮影処理では、検査対象物であるワーク1702の三次元画像を生成するため、ワーク1702の撮影位置を変更しながら、ワーク1702に対して斜めに放射線を照射して複数の投影画像を撮影する。 Here, the radiographic processing according to this embodiment will be described using FIGS. 18A and 18B. In the radiography process according to this embodiment, in order to generate a three-dimensional image of the workpiece 1702, which is the object to be inspected, radiation is irradiated diagonally to the workpiece 1702 while changing the imaging position of the workpiece 1702, and a plurality of Capture the projected image.

図18Aおよび図18Bは、本実施例に係る放射線撮影処理の例を説明するための図である。図18Aは、放射線発生装置1701が回転軸(Z軸)に交差する面内(XY平面内)を所定の軌道1840で移動した状態での放射線撮影処理の例を示す。一方で、図18Bは、放射線発生装置1701が回転軸(Z軸)の位置に停止した状態での放射線撮影処理の例を示す。なお、本実施例に係る放射線撮影処理は、図18Aおよび図18Bの構成に限られない。本実施例に係る放射線撮影処理は、放射線発生装置1701、検査対象物を保持するステージ1706、および放射線撮影装置1704のうち少なくとも2つが、回転軸に交差する面内を移動可能(例えば連動して回転可能)に構成されていればよい。なお、上記少なくとも2つは、放射線発生装置1701から照射された放射線が検査対象物を回転軸に対して傾斜した方向に透過して放射線撮影装置1704により検出可能な位置関係を満たすように、回転軸に交差する面内を移動可能に構成されていればよい。例えば、上記位置関係を満たすように、放射線発生装置1701と、ステージ1706と、放射線撮影装置1704とが、回転軸に交差する面内を移動可能に構成されていてもよい。また、例えば、上記位置関係を満たすように、放射線撮影装置1704が回転軸の位置に停止した状態で、放射線発生装置1701とステージ1706とが回転軸に交差する面内を移動可能に構成されてもよい。 FIGS. 18A and 18B are diagrams for explaining an example of radiographic processing according to this embodiment. FIG. 18A shows an example of radiographic processing in a state in which the radiation generating device 1701 moves on a predetermined trajectory 1840 in a plane (in the XY plane) intersecting the rotation axis (Z axis). On the other hand, FIG. 18B shows an example of radiographic processing in a state where the radiation generating device 1701 is stopped at the rotation axis (Z-axis) position. Note that the radiographic processing according to this embodiment is not limited to the configurations shown in FIGS. 18A and 18B. In the radiographic processing according to this embodiment, at least two of the radiation generating device 1701, the stage 1706 that holds the inspection object, and the radiographic device 1704 are movable within a plane intersecting the rotation axis (for example, in conjunction with each other). It is sufficient if the structure is rotatable). Note that at least two of the above are rotated so that the radiation irradiated from the radiation generating device 1701 passes through the inspection object in a direction oblique to the rotation axis and satisfies a positional relationship that can be detected by the radiation imaging device 1704. It suffices if it is configured to be movable within a plane intersecting the axis. For example, the radiation generating device 1701, the stage 1706, and the radiation imaging device 1704 may be configured to be movable within a plane intersecting the rotation axis so as to satisfy the above positional relationship. Further, for example, in order to satisfy the above positional relationship, the radiation generating device 1701 and the stage 1706 are configured to be movable within a plane intersecting the rotation axis while the radiation imaging device 1704 is stopped at the rotation axis position. Good too.

次に、本実施例に係る制御部1710での画像生成処理等について説明する。第1の取得部1711は、放射線撮影装置1704から送られた放射線画像(投影画像)を取得し、生成部1712に送る。なお、第1の取得部1711は、後述する生成された三次元画像や断層画像を取得することもできる。また、第1の取得部1711は制御部1710に接続された外部装置からこれらの画像情報や各種画像を取得してもよい。 Next, image generation processing and the like in the control unit 1710 according to this embodiment will be explained. The first acquisition unit 1711 acquires a radiation image (projection image) sent from the radiation imaging apparatus 1704 and sends it to the generation unit 1712. Note that the first acquisition unit 1711 can also acquire generated three-dimensional images and tomographic images, which will be described later. Further, the first acquisition unit 1711 may acquire these image information and various images from an external device connected to the control unit 1710.

本実施例に係る放射線撮影動作は、投影画像から三次元画像を再構成するために、上述のように、ワーク1702に対して斜めに放射線を照射して、ワーク1702の各撮影位置についてそれぞれ行われる。生成部1712は、このように撮影された複数の投影画像から三次元画像を再構成することができる。より具体的には、生成部1712は、撮影装置制御部1717から受け取った放射線撮影装置1704の位置情報および回転角度情報と、放射線撮影装置1704により撮影されたワーク1702の投影画像とを用いて再構成処理を行い、三次元画像を生成する。なお、生成部1712は、上述したkVスイッチング方式により2種類の管電圧でX線撮影された画像等の異なるエネルギーの放射線に基づいた投影画像を用いて、異なるエネルギーの三次元画像を再構成することもできる。 In the radiography operation according to this embodiment, in order to reconstruct a three-dimensional image from a projection image, as described above, radiation is irradiated obliquely to the workpiece 1702, and the radiography is performed for each imaging position of the workpiece 1702. be exposed. The generation unit 1712 can reconstruct a three-dimensional image from the plurality of projection images taken in this manner. More specifically, the generation unit 1712 uses the position information and rotation angle information of the radiation imaging device 1704 received from the imaging device control unit 1717 and the projected image of the workpiece 1702 photographed by the radiation imaging device 1704 to reproduce the image. Performs configuration processing and generates a three-dimensional image. Note that the generation unit 1712 reconstructs three-dimensional images of different energies using projection images based on radiation of different energies, such as images taken by X-rays with two types of tube voltages using the kV switching method described above. You can also do that.

また、生成部1712は、生成した三次元画像から任意の断面の断層画像を再構成することができる。なお、三次元画像および断層画像を再構成する方法としては、公知の任意の方法を用いてよい。ここで、三次元画像から断層画像を切り出す断面については、予め定められた初期設定に基づいて設定されてもよいし、操作者の指示に応じて設定されてもよい。また、当該断面については、制御部1710によって、投影画像や不図示の各種センサからの情報等に基づいて検出された検査対象物の状態の検出結果に基づいて自動的に設定されてもよいし、操作者の操作等に基づく検査目的の選択に応じて自動的に設定されてもよい。なお、本実施例では、生成部1712は、例えば、XY断面、YZ断面、およびXZ断面の三つの断面について断層画像を再構成する。 Furthermore, the generation unit 1712 can reconstruct a tomographic image of an arbitrary cross section from the generated three-dimensional image. Note that any known method may be used to reconstruct the three-dimensional image and tomographic image. Here, the cross section from which the tomographic image is cut out from the three-dimensional image may be set based on predetermined initial settings, or may be set according to instructions from the operator. Further, the cross section may be automatically set by the control unit 1710 based on the detection result of the state of the inspection object detected based on the projected image or information from various sensors (not shown). , may be automatically set according to the selection of the inspection purpose based on the operator's operation or the like. Note that in this embodiment, the generation unit 1712 reconstructs tomographic images for three cross sections: an XY cross section, a YZ cross section, and an XZ cross section, for example.

第2の取得部1713は、再構成された断層画像を学習済モデルの入力データとして用いて、断層画像のセグメンテーションを行う。第2の取得部1713は、セグメンテーション結果として、当該断層画像内のはんだが適用されたはんだ領域、およびはんだ領域を含み、ICチップ等のチップが適用された領域であるチップ領域を抽出、取得することができる。 The second acquisition unit 1713 performs segmentation of the tomographic image using the reconstructed tomographic image as input data for the learned model. The second acquisition unit 1713 extracts and acquires, as a segmentation result, a solder area to which solder is applied in the tomographic image, and a chip area that includes a solder area and is an area to which a chip such as an IC chip is applied. be able to.

ここで、本実施例に係る学習済モデルの学習データとしては、再構成された断層画像を入力データとし、再構成された断層画像についてチップ領域やはんだ領域をラベル付けした画像を出力データとすればよい。なお、チップ領域を抽出する学習済モデルと、はんだ領域を抽出する学習済モデルを別々に設けてもよい。この場合には、ラベル付けした画像をそれぞれ分けて学習させればよい。具体的には、断層画像と、その断層画像内のチップ領域をラベル付けした画像との組み合わせ、および断層画像と、その断層画像内のはんだ領域をラベル付けした画像との組み合わせをそれぞれ教師データとして学習させることで、各学習済モデルが生成され得る。 Here, as the learning data for the trained model according to this example, the input data is a reconstructed tomographic image, and the output data is an image in which the chip area and solder area are labeled for the reconstructed tomographic image. Bye. Note that a trained model for extracting a chip area and a trained model for extracting a solder area may be provided separately. In this case, the labeled images may be trained separately. Specifically, a combination of a tomographic image and an image labeled with a chip area within that tomographic image, and a combination of a tomographic image and an image labeled with a solder area within that tomographic image are respectively used as training data. Through learning, each trained model can be generated.

第3の取得部1714は、第2の取得部1713によって取得されたはんだ領域を、はんだ領域とチップ領域の関係やはんだ領域内の領域同士の関係を用いて補正する。なお、第3の取得部1714による補正処理は実施例1に係る補正処理と同様に行われてよい。ここで、図19(a)乃至図19(c)を参照して、本実施例に係る補正処理についてより具体的に説明する。 The third acquisition unit 1714 corrects the solder area acquired by the second acquisition unit 1713 using the relationship between the solder area and the chip area and the relationship between the areas within the solder area. Note that the correction process by the third acquisition unit 1714 may be performed in the same manner as the correction process according to the first embodiment. Here, the correction processing according to this embodiment will be described in more detail with reference to FIGS. 19(a) to 19(c).

図19(a)は、チップ領域1901、1902、1903を含む基板の断層画像1900の一例を示す。なお、本例では基板にチップ領域が3つ含まれる例について述べるが、チップ領域の数はこれに限られず、所望の構成に応じて1つ以上の領域が設けられてよい。また、本例では、それぞれ別個のパターン(はんだパターン1910、1920、1930)で、チップ領域1901、1902、1903内にはんだ領域が設けられている。しかしながら、各チップ領域1901、1902、1903に関するはんだパターンは同一であってもよいし、別々であってもよい。なお、はんだパターンは、はんだ領域同士の関係だけでなく、チップ領域とはんだ領域との関係を規定することができる。なお、チップ領域およびはんだ領域の形状や数、位置は、所望の構成に応じて任意に設定されてよい。 FIG. 19A shows an example of a tomographic image 1900 of a substrate including chip regions 1901, 1902, and 1903. Although this example describes an example in which the substrate includes three chip regions, the number of chip regions is not limited to this, and one or more regions may be provided depending on the desired configuration. Further, in this example, solder regions are provided within chip regions 1901, 1902, and 1903 in separate patterns (solder patterns 1910, 1920, and 1930), respectively. However, the solder patterns for each chip region 1901, 1902, 1903 may be the same or different. Note that the solder pattern can define not only the relationship between the solder areas but also the relationship between the chip area and the solder area. Note that the shape, number, and position of the chip area and the solder area may be arbitrarily set depending on the desired configuration.

第2の取得部1713は、断層画像1900を学習済モデルの入力データとして用いることで、学習済モデルからチップ領域の抽出結果およびはんだ領域の抽出結果を取得する。図19(b)は、断層画像1900を学習済モデルの入力データとして用いたセグメンテーションにより取得した各チップ領域1901、1902、1903の一例を示す。また、図19(c)は、断層画像1900を学習済モデルの入力データとして用いたセグメンテーションにより取得したはんだ領域に関し、チップ領域1901におけるはんだ領域1911~1919の一例を示す。 The second acquisition unit 1713 uses the tomographic image 1900 as input data for the trained model to acquire the chip region extraction result and the solder region extraction result from the trained model. FIG. 19(b) shows an example of each chip region 1901, 1902, and 1903 obtained by segmentation using the tomographic image 1900 as input data of a trained model. Further, FIG. 19(c) shows an example of solder regions 1911 to 1919 in the chip region 1901 regarding the solder regions obtained by segmentation using the tomographic image 1900 as input data of the trained model.

図19(c)の例では、はんだ領域1911~1915、1918、1919が抽出されているが、はんだ領域1916、1917が抽出されていない。この場合、第3の取得部1714は、はんだ領域1911~1919に関する所定のはんだパターン1910に規定されるチップ領域1901とはんだ領域との関係およびはんだ領域内の領域同士の関係に基づいて、はんだ領域1916、1917を補正する。 In the example of FIG. 19(c), solder regions 1911 to 1915, 1918, and 1919 are extracted, but solder regions 1916 and 1917 are not extracted. In this case, the third acquisition unit 1714 acquires the solder area based on the relationship between the chip area 1901 and the solder area defined in the predetermined solder pattern 1910 regarding the solder areas 1911 to 1919 and the relationship between the areas within the solder area. Correct 1916 and 1917.

例えば、第3の取得部1714は、はんだ領域1913に関して、はんだ領域1913から下の領域における、次のはんだ領域との距離が閾値より大きい場合に、はんだ領域1913と当該次はんだ領域との間に追加のはんだ領域を設定する。図19(c)の例では、第3の取得部1714は、はんだ領域1913とはんだ領域1913の下の領域における次のはんだ領域1919の距離が閾値より大きいときに、これらのはんだ領域の中間位置にはんだ領域1916を設定する。なお、設定されるはんだ領域の大きさは、所望の構成に応じて設定されてよく、例えば、他のはんだ領域の大きさと同様にしてもよいし、はんだパターン1910に規定されるはんだ領域1916の大きさとしてもよい。 For example, with respect to the solder region 1913, if the distance to the next solder region in the region below the solder region 1913 is greater than a threshold, the third acquisition unit 1714 determines the distance between the solder region 1913 and the next solder region. Set up additional solder areas. In the example of FIG. 19(c), when the distance between the solder area 1913 and the next solder area 1919 in the area below the solder area 1913 is greater than the threshold, the third acquisition unit 1714 determines the intermediate position between these solder areas. A solder area 1916 is set. The size of the solder area to be set may be set depending on the desired configuration, for example, it may be the same as the size of other solder areas, or the size of the solder area 1916 defined in the solder pattern 1910 may be set. It can also be the size.

また、第3の取得部1714は、はんだ領域1914に関して、チップ領域1901の下端から、当該下端から上の領域におけるはんだ領域との距離が閾値より大きい場合に、チップ領域1901の下端と当該はんだ領域との間に追加のはんだ領域を設定する。図19(c)の例では、第3の取得部1714は、チップ領域1901の下端から、当該下端から上の領域におけるはんだ領域1914との距離が閾値より大きいときに、これらの中間位置にはんだ領域1917を設定する。なお、設定されるはんだ領域の大きさは、上記と同様に設定されてよい。 Further, with respect to the solder region 1914, if the distance between the lower end of the chip region 1901 and the solder region in the region above the lower end is greater than a threshold, the third acquisition unit 1714 detects the distance between the lower end of the chip region 1901 and the solder region. Set up additional solder area between. In the example of FIG. 19(c), when the distance from the lower end of the chip region 1901 to the solder region 1914 in the region above the lower end is greater than the threshold, the third acquisition unit 1714 acquires solder at an intermediate position between these regions. A region 1917 is set. Note that the size of the solder area to be set may be set in the same manner as described above.

なお、上記の例では、第3の取得部1714は、画像の上下方向における距離に基づいて、はんだ領域の補正を行ったが、画像の左右方向における距離や斜め方向における距離に基づいて、はんだ領域の補正を行ってもよい。また、補正処理の基準となる閾値は、実施例1と同様に、取得されたはんだ領域間の平均距離等に基づいて動的に設定されてもよいし、はんだパターン1910に基づいて予め設定されてもよい。なお、はんだ領域の位置は、はんだ領域の重心に基づいて判断されてよい。 Note that in the above example, the third acquisition unit 1714 corrected the solder area based on the distance in the vertical direction of the image, but the third acquisition unit 1714 corrected the solder area based on the distance in the horizontal direction and the distance in the diagonal direction of the image. Area correction may also be performed. Further, as in the first embodiment, the threshold value serving as a reference for the correction process may be dynamically set based on the average distance between the acquired solder areas, or may be set in advance based on the solder pattern 1910. It's okay. Note that the position of the solder area may be determined based on the center of gravity of the solder area.

また、はんだパターンは任意に設定されてよいため、例えば、はんだパターン1920、1930に示すように、はんだ領域同士が同じ距離間隔で配置されていない場合もある。このため、第3の取得部1714は、はんだ領域の補正を行う際に、所定のはんだパターンに基づいて、はんだ領域の補正の要否を判断することができる。例えば、第3の取得部1714は、はんだパターン1920については左下の領域を、はんだパターン1930については中央の領域をはんだ領域の補正を行わない箇所として判断することができる。 Furthermore, since the solder pattern may be arbitrarily set, the solder regions may not be arranged at the same distance from each other, as shown in solder patterns 1920 and 1930, for example. Therefore, when correcting the solder area, the third acquisition unit 1714 can determine whether correction of the solder area is necessary based on the predetermined solder pattern. For example, the third acquisition unit 1714 can determine that the lower left area of the solder pattern 1920 and the center area of the solder pattern 1930 are not to be corrected.

なお、上記の例では、はんだ領域について抜けが生じている例について述べたが、第3の取得部1714は、実施例1と同様に、余分なはんだ領域が取得されている場合には、当該はんだ領域を除外してよい。この場合も、第3の取得部1714は、はんだ領域同士の関係やはんだ領域とチップ領域との関係を用いて、余分なはんだ領域を特定し、除外することができる。当該余分なはんだ領域の特定方法は、実施例1と同様であってよく、例えば、取得されたはんだ領域間の距離が閾値より小さい場合、対応するはんだ領域のうち一方を外れ値(あるいは推論誤差)とみなして、はんだ領域から除外してよい。 In addition, in the above example, an example was described in which a solder area is missing, but as in the first embodiment, when an extra solder area is acquired, the third acquisition unit 1714 detects the missing solder area. Solder areas may be excluded. In this case as well, the third acquisition unit 1714 can use the relationship between the solder areas and the relationship between the solder area and the chip area to identify and exclude the extra solder area. The method for identifying the extra solder area may be the same as in Example 1. For example, if the distance between the acquired solder areas is smaller than a threshold, one of the corresponding solder areas may be identified as an outlier (or an inference error). ) and may be excluded from the solder area.

表示制御部1715は、制御部1710によって、解析領域について行われた解析結果である、はんだ領域におけるはんだの有無やこれに基づく電子部品の装着の良否等を表示部1720に表示させることができる。なお、解析結果は断層画像に重畳して表示されてもよく、操作者の指示等に応じて、断層画像と解析結果が重畳された断層画像とが切り替えて表示されてもよい。また、表示制御部1715は、複数の断面についての断層画像について解析結果が取得されている場合、各断層画像についての解析結果を表示部1720に並べて表示させたり、切り替えて表示させたりすることができる。これらの場合、表示制御部1715は、操作部1750を介した操作者の指示に応じて、複数の断層画像と解析結果や解析結果が重畳された複数の断層画像との表示の切り替えを一括して行ってもよい。 The display control unit 1715 can cause the display unit 1720 to display the presence or absence of solder in the solder area and the quality of mounting of the electronic component based on the analysis results performed on the analysis area by the control unit 1710. Note that the analysis results may be displayed superimposed on the tomographic image, or the tomographic image and the tomographic image on which the analysis results are superimposed may be switched and displayed according to an operator's instruction or the like. In addition, when analysis results have been acquired for tomographic images for multiple cross sections, the display control unit 1715 can display the analysis results for each tomographic image side by side on the display unit 1720, or display them in a switched manner. can. In these cases, the display control unit 1715 collectively switches the display between the plurality of tomographic images and the analysis results or the plurality of tomographic images on which the analysis results are superimposed, in response to instructions from the operator via the operation unit 1750. You can go.

また、表示制御部1715は、断層画像について取得された解析領域を表示部1720に表示させることができる。また、表示制御部1715は、断層画像に解析領域を重畳して表示部1720に表示させることもできる。なお、表示制御部1715は、複数の断面についての断層画像について解析領域が取得されている場合、これらの解析領域を対応する断層画像に重畳した画像等を表示部1720に並べて表示させたり、切り替えて表示させたりすることができる。また、表示制御部1715は、解析領域が重畳された画像と、元の断層画像とを切り替えて表示させてもよい。この場合、表示制御部1715は、操作部1750を介した操作者の指示に応じて複数の断層画像と解析領域が重畳された複数の断層画像の表示の切り替えを一括して行ってもよい。 Furthermore, the display control unit 1715 can cause the display unit 1720 to display the analysis region acquired for the tomographic image. Further, the display control unit 1715 can also display the superimposed analysis region on the tomographic image on the display unit 1720. Note that when analysis regions have been acquired for tomographic images of multiple cross sections, the display control section 1715 displays images etc. in which these analysis regions are superimposed on the corresponding tomographic images side by side on the display section 1720, or switches between them. It can also be displayed. Further, the display control unit 1715 may switch between displaying the image on which the analysis region is superimposed and the original tomographic image. In this case, the display control unit 1715 may collectively switch the display of a plurality of tomographic images in which a plurality of tomographic images and an analysis region are superimposed in accordance with an instruction from an operator via the operation unit 1750.

なお、本実施例では、第2の取得部1713により、はんだ領域とチップ領域をセグメンテーションにより取得し、第3の取得部1714により、解析領域であるはんだ領域を補正した。しかしながら、セグメンテーションにより取得する領域はこれらに限られず、上述したように、似た構造が連続して連なっている対象物に関する領域であればよい。そのため、実施例1乃至4と同様に、腰椎や頚椎、胸椎等の領域を解析領域とし、これらの領域や脊椎領域をセグメンテーションにより取得し、上述したような補正処理を適用してもよい。このような場合に対しても、本開示に係る画像処理を適用することで、取得すべき領域の抜けや取得された余分な領域の補正を行うことができ、最終的に取得すべき解析領域を高精度に取得することができる。 In this example, the second acquisition unit 1713 acquired the solder area and the chip area by segmentation, and the third acquisition unit 1714 corrected the solder area, which is the analysis area. However, the regions obtained by segmentation are not limited to these, and may be any region related to an object in which similar structures are connected in series, as described above. Therefore, similarly to Examples 1 to 4, regions such as the lumbar vertebrae, cervical vertebrae, and thoracic vertebrae may be used as analysis regions, and these regions and spinal regions may be obtained by segmentation, and the above-described correction processing may be applied. Even in such a case, by applying the image processing according to the present disclosure, it is possible to correct missing areas that should be acquired and extra areas that have been acquired, and ultimately improve the analysis area that should be acquired. can be obtained with high precision.

なお、本実施例に係る一連の処理に関しては、実施例1に係る一連の処理と同様であるため省略する。ただし、本実施例では放射線撮影が上記のようにワーク1702の撮影位置を変更しながら、ワーク1702に対して斜めに放射線を照射して複数の投影画像を撮影することに留意されたい。 Note that the series of processes according to this embodiment is the same as the series of processes according to the first embodiment, and therefore will be omitted. However, it should be noted that in this embodiment, radiation imaging is performed by obliquely irradiating radiation onto the workpiece 1702 while changing the imaging position of the workpiece 1702 as described above to photograph a plurality of projection images.

上記のように本実施例に係る制御部1710は、第1の取得部1711、第2の取得部1713、および第3の取得部1714を備える画像処理装置の一例として機能する。第1の取得部1711は、検査対象物に対して傾斜した方向に放射線を照射して得た画像を取得する第1の取得手段の一例として機能する。また、第2の取得部1713は、第1の取得部1711が取得した画像を学習済モデルの入力データとして用いて、第1の領域と、第1の領域を含み、第1の領域より広い第2の領域とを取得する第2の取得手段の一例として機能する。ここで、はんだ領域1911~1915、1918~1919は、取得された第1の領域の例であり、チップ領域1901は第2の領域の一例である。第3の取得部1714は、取得した第1の領域と取得した第2の領域との関係および取得した第1の領域内の複数の領域間の関係の少なくとも一方を用いて、取得した第1の領域を補正し、補正した第1の領域を用いて、画像解析処理を行う解析領域を取得する第3の取得手段の一例として機能する。なお、解析領域は、補正された第1の領域とすることができる。 As described above, the control unit 1710 according to this embodiment functions as an example of an image processing device including the first acquisition unit 1711, the second acquisition unit 1713, and the third acquisition unit 1714. The first acquisition unit 1711 functions as an example of a first acquisition unit that acquires an image obtained by irradiating the inspection object with radiation in an oblique direction. In addition, the second acquisition unit 1713 uses the image acquired by the first acquisition unit 1711 as input data for the trained model, and the second acquisition unit 1713 includes a first area and a wider area than the first area. It functions as an example of a second acquisition means that acquires the second area. Here, the solder regions 1911 to 1915 and 1918 to 1919 are examples of the acquired first regions, and the chip region 1901 is an example of the second region. The third acquisition unit 1714 uses at least one of the relationship between the acquired first area and the acquired second area and the relationship between the plurality of areas within the acquired first area, to obtain the acquired first area. It functions as an example of a third acquisition means that corrects the area and uses the corrected first area to acquire an analysis area for performing image analysis processing. Note that the analysis area can be the corrected first area.

より具体的には、第3の取得部1714は、第1の領域に関する所定のパターンと、取得した第1の領域と取得した第2の領域との関係および取得した第1の領域内の複数の領域間の関係の少なくとも一方とを用いて、取得した第1の領域を補正する。ここで、はんだパターン1910は所定のパターンの一例である。また、第3の取得部1714は、第1の領域に関する所定のパターンを用いて、取得した第1の領域の補正の要否を判断することができる。 More specifically, the third acquisition unit 1714 acquires a predetermined pattern regarding the first area, the relationship between the acquired first area and the acquired second area, and the plurality of patterns in the acquired first area. The acquired first region is corrected using at least one of the relationships between the regions. Here, the solder pattern 1910 is an example of a predetermined pattern. Further, the third acquisition unit 1714 can use a predetermined pattern regarding the first area to determine whether or not the acquired first area needs to be corrected.

本実施例に係る画像処理装置によれば、はんだ領域や腰椎領域等の似た構造が連続して連なる解析領域を高精度に取得することができる。また、検査対象物に対して斜め方向に放射線を照射するため、放射線源に検査対象物を近づけることができ、撮影の拡大率の調整が容易になり、検査装置のサイズもコンパクトにすることができる。 According to the image processing apparatus according to the present embodiment, an analysis region in which similar structures such as a solder region or a lumbar vertebrae region are consecutively connected can be acquired with high precision. In addition, since radiation is irradiated obliquely to the object to be inspected, the object to be inspected can be brought closer to the radiation source, making it easier to adjust the imaging magnification and making the size of the inspection device more compact. can.

また、本実施例に係る制御部1710は、第3の取得部1714によって取得された解析領域を表示部1720(表示手段)に表示させる表示制御手段の一例として機能する表示制御部1715を更に備える。さらに、第2の取得部1713は、学習済モデルを用いて、検査対象物の少なくとも2つの断面に対応する複数の断層画像に基づいて複数の第1の領域および複数の第2の領域を取得することができる。また、第3の取得部1714は、取得した複数の第1の領域を補正し、該補正した複数の第1の画像を用いて、複数の解析領域を取得することができる。この場合、表示制御部1715は、取得された複数の解析領域又は対応する解析領域が重畳された複数の断層画像を並べて表示部1720に表示させることができる。この場合、複数の断面に関する解析領域を確認することができ、検査対象物に関する検査をより効率的に行うことができる。 Furthermore, the control unit 1710 according to the present embodiment further includes a display control unit 1715 that functions as an example of a display control unit that causes a display unit 1720 (display unit) to display the analysis region acquired by the third acquisition unit 1714. . Further, the second acquisition unit 1713 uses the trained model to acquire a plurality of first regions and a plurality of second regions based on a plurality of tomographic images corresponding to at least two cross sections of the inspection object. can do. Further, the third acquisition unit 1714 can correct the acquired plurality of first regions and acquire a plurality of analysis regions using the corrected plurality of first images. In this case, the display control unit 1715 can cause the display unit 1720 to display the plurality of acquired analysis regions or the plurality of tomographic images in which the corresponding analysis regions are superimposed side by side. In this case, it is possible to confirm analysis regions related to a plurality of cross-sections, and the inspection of the inspection object can be performed more efficiently.

さらに、表示制御部1715は、操作者の指示に応じて、少なくとも2つの断面に対応する複数の断層画像と、複数の断層画像に対応する複数の解析領域又は対応する解析領域が重畳された複数の断層画像とを一括して切り替えて表示部1720に表示させることができる。この場合、取得された解析領域と再構成された断層画像とを容易に見比べることができる。そのため、検査対象物に関する検査をより効率的に行うことができる。 Furthermore, the display control unit 1715 displays a plurality of tomographic images corresponding to at least two cross-sections, a plurality of analysis regions corresponding to the plurality of tomographic images, or a plurality of superimposed corresponding analysis regions according to an instruction from the operator. The tomographic images can be switched all at once and displayed on the display unit 1720. In this case, the acquired analysis region and the reconstructed tomographic image can be easily compared. Therefore, the inspection on the inspection object can be performed more efficiently.

なお、複数の断層画像に関する断面は、初期設定、操作者の指示、検査対象の状態の検出結果、および検査目的の選択の少なくとも一つに応じて設定されることができる。このため、所望の設定に応じた断面の断層画像が生成され、当該断層画像に対応する解析領域が高精度に取得されることができる。これにより、検査対象物に関する検査をより効率的に行うことができる。 Note that the cross sections related to the plurality of tomographic images can be set according to at least one of initial settings, operator instructions, detection results of the state of the inspection object, and selection of the inspection purpose. Therefore, a tomographic image of a cross section according to the desired settings is generated, and an analysis region corresponding to the tomographic image can be acquired with high accuracy. Thereby, the inspection regarding the inspection object can be performed more efficiently.

なお、本実施例では、第2の取得部1713が、学習済モデルを用いて、断層画像に基づいて第1の領域および第2の領域を取得した。これに対して、第2の取得部1713は、投影画像、三次元画像、又はエネサブ画像に基づいて、第1の領域および第2の領域を取得してもよい。この場合には、学習済モデルの学習データの入力データとして、投影画像、三次元画像、又はエネサブ画像を用いればよい。また、学習データの出力データとしては、投影画像、三次元画像、又はエネサブ画像について第1の領域および第2の領域のラベル付けをした画像を用いればよい。なお、学習データの入力データとして三次元画像を用いる場合には、学習データの出力データとして、所定の断面の断層画像に第1の領域および第2の領域をラベル付けした画像を用いてもよい。 Note that in this example, the second acquisition unit 1713 used the learned model to acquire the first region and the second region based on the tomographic image. On the other hand, the second acquisition unit 1713 may acquire the first region and the second region based on the projection image, three-dimensional image, or energy sub-image. In this case, a projected image, a three-dimensional image, or an energy sub-image may be used as the input data of the learning data of the learned model. Further, as the output data of the learning data, an image in which the first region and the second region are labeled for a projected image, a three-dimensional image, or an energy sub-image may be used. Note that when a three-dimensional image is used as input data for the learning data, an image obtained by labeling a tomographic image of a predetermined cross section with a first region and a second region may be used as output data for the learning data. .

(変形例)
上記第実施例1乃至5および変形例に係る学習済モデルの学習データは、実際の撮影を行う放射線撮影装置自体を用いて得たデータに限られない。当該画像データは、所望の構成に応じて、同型の放射線撮影装置を用いて得たデータや、同種の放射線撮影装置を用いて得たデータ等であってもよい。
(Modified example)
The learning data of the trained models according to the first to fifth embodiments and the modified examples are not limited to data obtained using the radiation imaging apparatus itself that performs actual imaging. The image data may be data obtained using the same type of radiographic apparatus, data obtained using the same type of radiographic apparatus, etc., depending on the desired configuration.

また、学習済モデルへの入力として、複数の画像を用いる場合には、複数の入力画像を学習済モデルの複数の入力チャンネルにそれぞれ入力することができる。これに対し、複数の入力画像を結合して1つの画像とし、学習済モデルの1つのチャンネルに入力してもよい。この場合には、学習済モデルの学習データについても、同様に、入力画像を結合した1つの画像を入力データとして用いればよい。 Furthermore, when using a plurality of images as input to a trained model, the plurality of input images can be input to a plurality of input channels of the trained model, respectively. On the other hand, a plurality of input images may be combined into one image and input into one channel of the trained model. In this case, one image obtained by combining input images may be used as input data for the learning data of the trained model as well.

また、上記実施例1乃至5および変形例では、制御部101、1710は、不図示のボタンの操作等の操作者の指示に応じて、解析領域等のセグメンテーション結果を表示画像に重畳して表示部107、1720に表示させてもよい。なお、表示画像および対応するセグメンテーション結果が複数ある場合には、操作者の指示に応じて、一括してセグメンテーション結果を各表示画像に重畳して表示部107、1720に表示させてもよい。また、制御部101、1710は、骨密度解析領域および背景領域、又ははんだ領域およびチップ領域等の取得結果をそれぞれ異なる色を用いて色分けして表示してもよい。この場合も、操作者の指示に応じて、複数の画像について一括して色分けして表示されてもよい。 Further, in the above embodiments 1 to 5 and modified examples, the control units 101 and 1710 superimpose and display segmentation results such as analysis regions on the display image in response to instructions from the operator such as operating a button (not shown). It may be displayed on the sections 107 and 1720. Note that when there are a plurality of display images and corresponding segmentation results, the segmentation results may be superimposed on each display image and displayed on the display units 107 and 1720 at once according to an instruction from the operator. Further, the control units 101 and 1710 may display the acquired results of the bone density analysis region and the background region, or the solder region and the chip region, in different colors, respectively. In this case as well, a plurality of images may be displayed in different colors at once according to the operator's instructions.

なお、上述した上実施例1乃至5および変形例に係る学習済モデルでは、入力データの画像の輝度値の大小、明部と暗部の順番や傾き、位置、分布、連続性等を特徴量の一部として抽出して、推論処理に用いているものと考えらえる。 In addition, in the trained models according to the above-mentioned Examples 1 to 5 and the modified examples, the magnitude of the brightness value of the image of input data, the order and slope of bright and dark areas, position, distribution, continuity, etc. are used as feature quantities. It is thought that it is extracted as a part and used for inference processing.

また、上述した実施例1乃至5および変形例に係る各種学習済モデルは制御部101,1710に設けられることができる。学習済モデルは、例えば、CPUや、MPU、GPU、FPGA等のプロセッサによって実行されるソフトウェアモジュール等で構成されてもよいし、ASIC等の特定の機能を果たす回路等によって構成されてもよい。また、学習済モデルは、制御部101,1710と接続される別のサーバの装置等に設けられてもよい。この場合には、制御部101,1710は、インターネット等の任意のネットワークを介して学習済モデルを備えるサーバ等に接続することで、学習済モデルを用いることができる。ここで、学習済モデルを備えるサーバは、例えば、クラウドサーバや、フォグサーバ、エッジサーバ等であってよい。なお、施設内や、施設が含まれる敷地内、複数の施設が含まれる地域内等のネットワークを無線通信可能に構成する場合には、例えば、施設や、敷地、地域等に限定で割り当てられた専用の波長帯域の電波を用いるように構成することで、ネットワークの信頼性を向上させてもよい。また、高速や、大容量、低遅延、多数同時接続が可能な無線通信によりネットワークが構成されてもよい。 Further, various learned models according to the above-described embodiments 1 to 5 and modifications can be provided in the control units 101 and 1710. The trained model may be configured with a software module executed by a processor such as a CPU, MPU, GPU, or FPGA, or may be configured with a circuit that performs a specific function such as an ASIC. Further, the learned model may be provided in another server device connected to the control unit 101, 1710. In this case, the control units 101 and 1710 can use the trained model by connecting to a server or the like provided with the trained model via an arbitrary network such as the Internet. Here, the server provided with the trained model may be, for example, a cloud server, a fog server, an edge server, or the like. Note that when configuring a network within a facility, within a site that includes a facility, within an area that includes multiple facilities, etc. to enable wireless communication, for example, if a network is configured to enable wireless communication, The reliability of the network may be improved by configuring it to use radio waves in a dedicated wavelength band. Furthermore, the network may be constructed using wireless communication that is capable of high speed, large capacity, low delay, and multiple simultaneous connections.

また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した様々な実施例および変形例の1以上の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。 Further, the present invention can also be realized by executing the following processing. That is, software (programs) that implement one or more functions of the various embodiments and modifications described above is supplied to a system or device via a network or various storage media, and the computer (or CPU or (MPU, etc.) reads and executes a program.

また、本発明は、上述した様々な実施例および変形例の1以上の機能を実現するソフトウェア(プログラム)を、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(たとえば、ASIC)によっても実現可能である。コンピュータは、1つ又は複数のプロセッサ若しくは回路を有し、コンピュータ実行可能命令を読み出し実行するために、分離した複数のコンピュータ又は分離した複数のプロセッサ若しくは回路のネットワークを含みうる。 Furthermore, the present invention provides software (programs) for realizing one or more functions of the various embodiments and modifications described above to a system or device via a network or a storage medium, and a computer of the system or device This can also be achieved by reading and executing a program. It can also be realized by a circuit (for example, an ASIC) that realizes one or more functions. A computer has one or more processors or circuits and may include separate computers or a network of separate processors or circuits for reading and executing computer-executable instructions.

このとき、プロセッサ又は回路は、中央演算処理装置(CPU)、マイクロプロセッシングユニット(MPU)、グラフィクスプロセッシングユニット(GPU)、特定用途向け集積回路(ASIC)、又はフィールドプログラマブルゲートウェイ(FPGA)を含みうる。また、プロセッサ又は回路は、デジタルシグナルプロセッサ(DSP)、データフロープロセッサ(DFP)、又はニューラルプロセッシングユニット(NPU)を含みうる。 The processor or circuit may include a central processing unit (CPU), microprocessing unit (MPU), graphics processing unit (GPU), application specific integrated circuit (ASIC), or field programmable gateway (FPGA). The processor or circuit may also include a digital signal processor (DSP), a data flow processor (DFP), or a neural processing unit (NPU).

上記開示は、以下の構成および方法を含む。
(構成1)
入力画像内の脊椎領域と椎間領域とをそれぞれ取得する第1の取得手段と、
前記取得した脊椎領域と前記取得された椎間領域とを用いて腰椎の骨密度測定の対象領域である骨密度解析領域を取得する第2の取得手段と、
を有する画像処理装置。
(構成2)
前記第1の取得手段は、学習済モデルを用いて前記入力画像内の前記脊椎領域と前記椎間領域とをそれぞれ取得する構成1に記載の画像処理装置。
(構成3)
前記入力画像は、エネルギーサブトラクション画像である構成1又は2に記載の画像処理装置。
(構成4)
前記入力画像は、2種類の管電圧のX線を用いて取得された画像である構成1乃至3のいずれか1つに記載の画像処理装置。
(構成5)
前記入力画像は、X線吸収率の異なる2種類の素材を有するセンサを用いて取得された画像である構成1乃至3のいずれか1つに記載の画像処理装置。
(構成6)
前記入力画像は、単純X線画像である構成1又は2に記載の画像処理装置。
(構成7)
前記第1の取得手段は、前記脊椎領域を取得するための学習済モデルと、前記椎間領域を取得するための学習済モデルとを個別に備える構成2に記載の画像処理装置。
(構成8)
前記第1の取得手段は、前記脊椎領域と前記椎間領域とをそれぞれ取得する1つの学習済モデルを備える構成2に記載の画像処理装置。
(構成9)
前記第1の取得手段は、前記入力画像内の前記脊椎領域を取得し、取得結果に基づいて生成された脊椎画像から前記椎間領域を取得する構成1に記載の画像処理装置。
(構成10)
前記第2の取得手段は、前記取得された椎間領域を通る直線に挟まれた参照領域内で、前記取得された脊椎領域の内側の領域を椎体として取得し、
前記取得された椎体を骨盤側から数えることで前記腰椎の骨密度解析領域を取得する構成1乃至9のいずれか1つに記載の画像処理装置。
(構成11)
前記第2の取得手段は、前記取得された椎間領域の中で、前記取得された脊椎領域の外側の領域を除外する処理を行う構成1乃至10のいずれか1つに記載の画像処理装置。
(構成12)
前記第2の取得手段は、前記取得された脊椎領域および椎間領域の少なくとも一方の形状に基づいて、前記入力画像の回転補正を行う構成1乃至11のいずれか1つに記載の画像処理装置。
(構成13)
前記第2の取得手段は、前記取得された脊椎領域および椎間領域の少なくとも一方の形状に基づいて、前記参照領域を構成する直線を斜めに引く構成10に記載の画像処理装置。
(構成14)
前記第2の取得手段は、前記入力画像の輝度値の分散に基づいて背景領域を設定する構成1乃至13のいずれか1つに記載の画像処理装置。
(構成15)
前記第2の取得手段は、前記取得された椎間領域の数が所定の数よりも少なかった場合、前記取得された脊椎領域を前記所定の数に区分することで、前記骨密度解析領域を取得する構成1乃至14のいずれか1つに記載の画像処理装置。
(構成16)
前記第2の取得手段は、前記取得された脊椎領域の上端あるいは下端と1つ内側の椎間領域との距離に基づいて、補正処理を行う構成1乃至15のいずれか1つに記載の画像処理装置。
(構成17)
前記第1の取得手段は、前記入力画像内の前記脊椎領域、前記椎間領域、および骨盤領域を取得し、前記第2の取得手段は、前記脊椎領域、前記椎間領域、および前記骨盤領域の取得結果に基づいて前記腰椎の骨密度解析領域を取得する構成1乃至16のいずれか1つに記載の画像処理装置。
(構成18)
前記第1の取得手段は、前記入力画像内の前記脊椎領域、前記椎間領域、および肋骨領域を取得し、前記第2の取得手段は、前記脊椎領域、前記椎間領域、および前記肋骨領域の取得結果に基づいて前記腰椎の骨密度解析領域を取得する構成1乃至17のいずれか1つに記載の画像処理装置。
(構成19)
前記第2の取得手段は、前記取得された脊椎領域の上端から肋骨領域の下端までの距離、あるいは前記脊椎領域の下端から骨盤領域の上端までの距離の少なくとも1つに基づいて、前記脊椎領域を延長あるいは短縮する補正処理を行う構成1乃至18のいずれか1つに記載の画像処理装置。
(構成20)
前記第1の取得手段は、前記入力画像内の前記脊椎領域と、骨盤領域あるいは肋骨領域の少なくとも一方とを融合した外枠領域を取得する構成1乃至19のいずれか1つに記載の画像処理装置。
(構成21)
前記第1の取得手段は、DXA法を用いて取得された2枚の画像と、該2枚の画像から生成されるエネルギーサブトラクション画像との、3枚の画像のうち、少なくとも2枚の画像に対して前記脊椎領域と前記椎間領域とをそれぞれ取得し、
前記第2の取得手段は、前記少なくとも2枚の画像に対する前記脊椎領域と前記椎間領域との取得結果に基づいて前記骨密度解析領域を取得する構成1又は2に記載の画像処理装置。
(構成22)
前記第2の取得手段による取得結果あるいは取得過程を操作者へ表示する表示手段を備える構成1乃至21のいずれか1つに記載の画像処理装置。
(構成23)
操作者が第2の取得手段による取得結果あるいは取得過程を見ながら操作するための操作手段を備える構成1乃至22のいずれか1つに記載の画像処理装置。
(構成24)
検査対象物に対して傾斜した方向に放射線を照射して得た画像を取得する第1の取得手段と、
前記取得した画像を学習済モデルの入力データとして用いて、第1の領域と、該第1の領域を含み、該第1の領域より広い第2の領域とを取得する第2の取得手段と、
前記取得した第1の領域と前記取得した第2の領域との関係および前記取得した第1の領域内の複数の領域間の関係の少なくとも一方を用いて、前記取得した第1の領域を補正し、該補正した第1の領域を用いて、画像解析処理を行う解析領域を取得する第3の取得手段と、
を有する画像処理装置。
(構成25)
前記第3の取得手段は、前記第1の領域に関する所定のパターンと、前記取得した第1の領域と前記取得した第2の領域との関係および前記取得した第1の領域内の複数の領域間の関係の少なくとも一方とを用いて、前記取得した第1の領域を補正する構成24に記載の画像処理装置。
(構成26)
前記第3の取得手段は、前記所定のパターンを用いて、前記取得した第1の領域の補正の要否を判断する構成25に記載の画像処理装置。
(構成27)
前記解析領域は、前記補正された第1の領域である構成24乃至26のいずれか1つに記載の画像処理装置。
(構成28)
前記取得された解析領域を表示手段に表示させる表示制御手段を更に備え、
前記第2の取得手段は、前記学習済モデルを用いて、前記検査対象物の少なくとも2つの断面に対応する複数の断層画像に基づいて複数の前記第1の領域および複数の前記第2の領域を取得し、
前記第3の取得手段は、前記取得した複数の第1の領域を補正し、該補正した複数の第1の領域を用いて、複数の前記解析領域を取得し、
前記表示制御手段は、前記取得された複数の解析領域又は対応する解析領域が重畳された前記複数の断層画像を並べて前記表示手段に表示させる構成24乃至27のいずれか1つに記載の画像処理装置。
(構成29)
前記表示制御手段は、操作者の指示に応じて、前記複数の断層画像と、前記複数の解析領域又は前記対応する解析領域が重畳された前記複数の断層画像とを一括して切り替えて前記表示手段に表示させる構成28に記載の画像処理装置。
(構成30)
前記複数の断層画像に関する断面は、初期設定、操作者の指示、検査対象の状態の検出結果、および検査目的の選択の少なくとも一つに応じて設定される構成28乃至29のいずれか1つに記載の画像処理装置。
(方法1)
入力画像内の脊椎領域と椎間領域とをそれぞれ取得する第1の取得工程と、
前記取得した脊椎領域と前記取得した椎間領域とを用いて腰椎の骨密度測定の対象領域である骨密度解析領域を取得する第2の取得工程と、
を含む画像処理装置の作動方法。
(方法2)
検査対象物に対して傾斜した方向に放射線を照射して得た画像を取得する第1の取得工程と、
前記取得した画像を学習済モデルの入力データとして用いて、第1の領域と、該第1の領域を含み、該第1の領域より広い第2の領域とを取得する第2の取得工程と、
前記取得した第1の領域と前記取得した第2の領域との関係および前記取得した第1の領域内の複数の領域間の関係の少なくとも一方を用いて、前記取得した第1の領域を補正し、該補正した第1の領域を用いて、画像解析処理を行う解析領域を取得する第3の取得工程と、
を含む画像処理装置の作動方法。
(プログラム1)
コンピュータによって実行されると、該コンピュータに方法1又は2に記載の画像処理装置の作動方法の各工程を実行させるプログラム。
The above disclosure includes the following configurations and methods.
(Configuration 1)
a first acquisition means for respectively acquiring a spinal region and an intervertebral region in the input image;
a second acquisition means for acquiring a bone density analysis region that is a target region for bone density measurement of the lumbar vertebrae using the acquired spinal region and the acquired intervertebral region;
An image processing device having:
(Configuration 2)
The image processing device according to configuration 1, wherein the first acquisition means acquires the spinal region and the intervertebral region in the input image, respectively, using a learned model.
(Configuration 3)
The image processing device according to configuration 1 or 2, wherein the input image is an energy subtraction image.
(Configuration 4)
The image processing device according to any one of configurations 1 to 3, wherein the input image is an image acquired using X-rays with two types of tube voltages.
(Configuration 5)
The image processing device according to any one of configurations 1 to 3, wherein the input image is an image acquired using a sensor having two types of materials with different X-ray absorption rates.
(Configuration 6)
The image processing device according to configuration 1 or 2, wherein the input image is a simple X-ray image.
(Configuration 7)
The image processing device according to configuration 2, wherein the first acquisition means separately includes a trained model for acquiring the spinal region and a trained model for acquiring the intervertebral region.
(Configuration 8)
The image processing device according to configuration 2, wherein the first acquisition means includes one trained model that acquires the spinal region and the intervertebral region, respectively.
(Configuration 9)
The image processing device according to configuration 1, wherein the first acquisition means acquires the spinal region in the input image, and acquires the intervertebral region from a spinal image generated based on the acquisition result.
(Configuration 10)
The second acquisition means acquires a region inside the acquired spinal region as a vertebral body within a reference region sandwiched by straight lines passing through the acquired intervertebral region,
The image processing device according to any one of configurations 1 to 9, wherein the bone density analysis region of the lumbar vertebrae is acquired by counting the acquired vertebral bodies from the pelvic side.
(Configuration 11)
The image processing device according to any one of configurations 1 to 10, wherein the second acquisition means performs a process of excluding a region outside the acquired spinal region from the acquired intervertebral region. .
(Configuration 12)
The image processing device according to any one of configurations 1 to 11, wherein the second acquisition means performs rotation correction of the input image based on the acquired shape of at least one of the spinal region and the intervertebral region. .
(Configuration 13)
11. The image processing device according to configuration 10, wherein the second acquisition means draws a straight line constituting the reference region diagonally based on the acquired shape of at least one of the spinal region and the intervertebral region.
(Configuration 14)
14. The image processing apparatus according to any one of configurations 1 to 13, wherein the second acquisition means sets a background area based on a variance of brightness values of the input image.
(Configuration 15)
When the number of acquired intervertebral regions is less than a predetermined number, the second acquisition means divides the acquired spinal regions into the predetermined number, thereby determining the bone density analysis region. The image processing device according to any one of acquiring configurations 1 to 14.
(Configuration 16)
The image according to any one of configurations 1 to 15, wherein the second acquisition means performs a correction process based on a distance between an upper end or a lower end of the acquired spinal region and an intervertebral region one inside. Processing equipment.
(Configuration 17)
The first acquisition means acquires the spinal region, the intervertebral region, and the pelvic region in the input image, and the second acquisition means acquires the spinal region, the intervertebral region, and the pelvic region in the input image. 17. The image processing device according to any one of configurations 1 to 16, which acquires the bone density analysis region of the lumbar vertebrae based on the acquisition results.
(Configuration 18)
The first acquisition means acquires the spinal region, the intervertebral region, and the rib region in the input image, and the second acquisition means acquires the spinal region, the intervertebral region, and the rib region in the input image. 18. The image processing device according to any one of configurations 1 to 17, which acquires the bone density analysis region of the lumbar vertebrae based on the acquisition results.
(Configuration 19)
The second obtaining means determines the spinal region based on at least one of the acquired distance from the upper end of the spinal region to the lower end of the rib region, or the distance from the lower end of the spinal region to the upper end of the pelvic region. 19. The image processing apparatus according to any one of configurations 1 to 18, which performs a correction process to extend or shorten.
(Configuration 20)
The image processing according to any one of configurations 1 to 19, wherein the first acquisition means acquires an outer frame area that is a fusion of the spinal region and at least one of a pelvic region and a rib region in the input image. Device.
(Configuration 21)
The first acquisition means acquires at least two of the three images, two images acquired using the DXA method and an energy subtraction image generated from the two images. and obtaining the spinal region and the intervertebral region, respectively,
The image processing device according to configuration 1 or 2, wherein the second acquisition means acquires the bone density analysis region based on the acquisition results of the spinal region and the intervertebral region for the at least two images.
(Configuration 22)
22. The image processing apparatus according to any one of configurations 1 to 21, further comprising a display unit that displays the acquisition result or acquisition process by the second acquisition unit to an operator.
(Configuration 23)
23. The image processing apparatus according to any one of configurations 1 to 22, further comprising an operation means for an operator to operate while viewing the acquisition result or acquisition process by the second acquisition means.
(Configuration 24)
a first acquisition means for acquiring an image obtained by irradiating radiation in an oblique direction to the inspection object;
a second acquisition means for acquiring a first region and a second region that includes the first region and is wider than the first region, using the acquired image as input data for a trained model; ,
Correcting the acquired first area using at least one of the relationship between the acquired first area and the acquired second area and the relationship between a plurality of areas in the acquired first area. and a third acquisition means for acquiring an analysis area for performing image analysis processing using the corrected first area;
An image processing device having:
(Configuration 25)
The third acquisition means includes a predetermined pattern regarding the first area, a relationship between the acquired first area and the acquired second area, and a plurality of areas within the acquired first area. 25. The image processing device according to configuration 24, wherein the acquired first region is corrected using at least one of the relationships between.
(Configuration 26)
26. The image processing apparatus according to configuration 25, wherein the third acquisition means uses the predetermined pattern to determine whether correction of the acquired first area is necessary.
(Configuration 27)
27. The image processing device according to any one of configurations 24 to 26, wherein the analysis area is the corrected first area.
(Configuration 28)
further comprising display control means for displaying the acquired analysis region on a display means,
The second acquisition means uses the learned model to acquire the plurality of first regions and the plurality of second regions based on a plurality of tomographic images corresponding to at least two cross sections of the inspection object. get
The third acquisition means corrects the acquired plurality of first regions and uses the corrected plurality of first regions to acquire the plurality of analysis regions,
28. The image processing according to any one of 24 to 27, wherein the display control means displays the plurality of acquired analysis regions or the plurality of tomographic images on which the corresponding analysis regions are superimposed on the display means side by side. Device.
(Configuration 29)
The display control means displays the plurality of tomographic images by collectively switching between the plurality of tomographic images and the plurality of analysis regions or the plurality of tomographic images on which the corresponding analysis regions are superimposed, according to an instruction from an operator. 29. The image processing device according to 28, wherein the image processing device is displayed on a means.
(Configuration 30)
The cross sections related to the plurality of tomographic images are set according to any one of configurations 28 to 29, which are set according to at least one of initial settings, operator instructions, detection results of the state of the inspection target, and selection of the inspection purpose. The image processing device described.
(Method 1)
a first acquisition step of respectively acquiring a spinal region and an intervertebral region in the input image;
a second acquisition step of acquiring a bone density analysis region that is a target region for bone density measurement of the lumbar vertebrae using the acquired spinal region and the acquired intervertebral region;
A method of operating an image processing device including:
(Method 2)
a first acquisition step of acquiring an image obtained by irradiating radiation in an oblique direction to the inspection object;
a second acquisition step of acquiring a first region and a second region that includes the first region and is wider than the first region, using the acquired image as input data of the trained model; ,
Correcting the acquired first area using at least one of the relationship between the acquired first area and the acquired second area and the relationship between a plurality of areas in the acquired first area. and a third acquisition step of acquiring an analysis region for performing image analysis processing using the corrected first region;
A method of operating an image processing device including:
(Program 1)
A program that, when executed by a computer, causes the computer to execute each step of the method for operating an image processing apparatus according to method 1 or 2.

以上、実施例および変形例を参照して本発明について説明したが、本発明は上記実施例および変形例に限定されるものではない。本発明の趣旨に反しない範囲で変更された発明、および本発明と均等な発明も本発明に含まれる。また、上述の各実施例および変形例は、本発明の趣旨に反しない範囲で適宜組み合わせることができる。 Although the present invention has been described above with reference to the embodiments and modified examples, the present invention is not limited to the above embodiments and modified examples. The present invention includes inventions modified within the scope of the spirit of the present invention and inventions equivalent to the present invention. Furthermore, the above-described embodiments and modifications can be combined as appropriate within the scope of the spirit of the present invention.

120:画像処理装置、121:第1の取得部、122:第2の取得部 120: Image processing device, 121: First acquisition unit, 122: Second acquisition unit

Claims (33)

入力画像内の脊椎領域と椎間領域とをそれぞれ取得する第1の取得手段と、
前記取得した脊椎領域と前記取得した椎間領域とを用いて腰椎の骨密度測定の対象領域である骨密度解析領域を取得する第2の取得手段と、
を有する画像処理装置。
a first acquisition means for respectively acquiring a spinal region and an intervertebral region in the input image;
a second acquisition means for acquiring a bone density analysis region that is a target region for bone density measurement of the lumbar vertebrae using the acquired spinal region and the acquired intervertebral region;
An image processing device having:
前記第1の取得手段は、学習済モデルを用いて前記入力画像内の前記脊椎領域と前記椎間領域とをそれぞれ取得する請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the first acquisition means acquires the spinal region and the intervertebral region in the input image, respectively, using a learned model. 前記入力画像は、エネルギーサブトラクション画像である請求項1又は2に記載の画像処理装置。 The image processing device according to claim 1 or 2, wherein the input image is an energy subtraction image. 前記入力画像は、2種類の管電圧のX線を用いて取得された画像である請求項1又は2に記載の画像処理装置。 3. The image processing apparatus according to claim 1, wherein the input image is an image acquired using X-rays with two types of tube voltages. 前記入力画像は、X線吸収率の異なる2種類の素材を有するセンサを用いて取得された画像である請求項1又は2に記載の画像処理装置。 The image processing apparatus according to claim 1 or 2, wherein the input image is an image acquired using a sensor having two types of materials with different X-ray absorption rates. 前記入力画像は、単純X線画像である請求項1又は2に記載の画像処理装置。 The image processing apparatus according to claim 1 or 2, wherein the input image is a simple X-ray image. 前記第1の取得手段は、前記脊椎領域を取得するための学習済モデルと、前記椎間領域を取得するための学習済モデルとを個別に備える請求項2に記載の画像処理装置。 The image processing apparatus according to claim 2, wherein the first acquisition means separately includes a trained model for acquiring the spinal region and a trained model for acquiring the intervertebral region. 前記第1の取得手段は、前記脊椎領域と前記椎間領域とをそれぞれ取得する1つの学習済モデルを備える請求項2に記載の画像処理装置。 The image processing apparatus according to claim 2, wherein the first acquisition means includes one trained model that acquires the spinal region and the intervertebral region, respectively. 前記第1の取得手段は、前記入力画像内の前記脊椎領域を取得し、取得結果に基づいて生成された脊椎画像から前記椎間領域を取得する請求項1又は2に記載の画像処理装置。 The image processing device according to claim 1 or 2, wherein the first acquisition means acquires the spinal region in the input image, and acquires the intervertebral region from a spinal image generated based on the acquisition result. 前記第2の取得手段は、前記取得された椎間領域を通る直線に挟まれた参照領域内で、前記取得された脊椎領域の内側の領域を椎体として取得し、
前記取得された椎体を骨盤側から数えることで前記腰椎の骨密度解析領域を取得する請求項1又は2に記載の画像処理装置。
The second acquisition means acquires a region inside the acquired spinal region as a vertebral body within a reference region sandwiched by straight lines passing through the acquired intervertebral region,
The image processing device according to claim 1 or 2, wherein the bone density analysis region of the lumbar vertebrae is acquired by counting the acquired vertebral bodies from the pelvic side.
前記第2の取得手段は、前記取得された椎間領域の中で、前記取得された脊椎領域の外側の領域を除外する処理を行う請求項1又は2に記載の画像処理装置。 The image processing apparatus according to claim 1 or 2, wherein the second acquisition means performs a process of excluding a region outside the acquired spinal region from the acquired intervertebral region. 前記第2の取得手段は、前記取得された脊椎領域および椎間領域の少なくとも一方の形状に基づいて、前記入力画像の回転補正を行う請求項1又は2に記載の画像処理装置。 3. The image processing apparatus according to claim 1, wherein the second acquisition means performs rotational correction of the input image based on the acquired shape of at least one of the spinal region and the intervertebral region. 前記第2の取得手段は、前記取得された脊椎領域および椎間領域の少なくとも一方の形状に基づいて、前記参照領域を構成する直線を斜めに引く請求項10に記載の画像処理装置。 11. The image processing apparatus according to claim 10, wherein the second acquisition means diagonally draws a straight line constituting the reference area based on the acquired shape of at least one of the vertebral region and the intervertebral region. 前記第2の取得手段は、前記入力画像の輝度値の分散に基づいて背景領域を設定する請求項1又は2に記載の画像処理装置。 3. The image processing apparatus according to claim 1, wherein the second acquisition means sets a background area based on a variance of brightness values of the input image. 前記第2の取得手段は、前記取得された椎間領域の数が所定の数よりも少なかった場合、前記取得された脊椎領域を前記所定の数に区分することで、前記骨密度解析領域を取得する請求項1又は2に記載の画像処理装置。 When the number of acquired intervertebral regions is less than a predetermined number, the second acquisition means divides the acquired spinal regions into the predetermined number, thereby determining the bone density analysis region. The image processing apparatus according to claim 1 or 2, wherein the image processing apparatus acquires an image. 前記第2の取得手段は、前記取得された脊椎領域の上端あるいは下端と該上端あるいは下端から1つ内側の椎間領域との距離に基づいて、補正処理を行う請求項1又は2に記載の画像処理装置。 3. The second acquisition means performs the correction process based on the distance between the acquired upper end or lower end of the spinal region and an intervertebral region one position inside from the upper end or lower end. Image processing device. 前記第1の取得手段は、前記入力画像内の前記脊椎領域、前記椎間領域、および骨盤領域を取得し、前記第2の取得手段は、前記脊椎領域、前記椎間領域、および前記骨盤領域の取得結果に基づいて前記腰椎の骨密度解析領域を取得する請求項1又は2に記載の画像処理装置。 The first acquisition means acquires the spinal region, the intervertebral region, and the pelvic region in the input image, and the second acquisition means acquires the spinal region, the intervertebral region, and the pelvic region in the input image. The image processing apparatus according to claim 1 or 2, wherein the bone density analysis region of the lumbar vertebrae is acquired based on the acquisition result of. 前記第1の取得手段は、前記入力画像内の前記脊椎領域、前記椎間領域、および肋骨領域を取得し、前記第2の取得手段は、前記脊椎領域、前記椎間領域、および前記肋骨領域の取得結果に基づいて前記腰椎の骨密度解析領域を取得する請求項1又は2に記載の画像処理装置。 The first acquisition means acquires the spinal region, the intervertebral region, and the rib region in the input image, and the second acquisition means acquires the spinal region, the intervertebral region, and the rib region in the input image. The image processing apparatus according to claim 1 or 2, wherein the bone density analysis region of the lumbar vertebrae is acquired based on the acquisition result of. 前記第2の取得手段は、前記取得された脊椎領域の上端から肋骨領域の下端までの距離、あるいは前記脊椎領域の下端から骨盤領域の上端までの距離の少なくとも1つに基づいて、前記脊椎領域を延長あるいは短縮する補正処理を行う請求項1又は2に記載の画像処理装置。 The second obtaining means determines the spinal region based on at least one of the acquired distance from the upper end of the spinal region to the lower end of the rib region, or the distance from the lower end of the spinal region to the upper end of the pelvic region. 3. The image processing apparatus according to claim 1, wherein the image processing apparatus performs a correction process to extend or shorten. 前記第1の取得手段は、前記入力画像内の前記脊椎領域と、骨盤領域あるいは肋骨領域の少なくとも一方とを融合した外枠領域を取得する請求項1又は2に記載の画像処理装置。 3. The image processing apparatus according to claim 1, wherein the first acquisition means acquires an outer frame area that is a fusion of the spinal region and at least one of a pelvic region and a rib region in the input image. 前記第1の取得手段は、DXA法を用いて取得された2枚の画像と、該2枚の画像から生成されるエネルギーサブトラクション画像との、3枚の画像のうち、少なくとも2枚の画像に対して前記脊椎領域と前記椎間領域とをそれぞれ取得し、
前記第2の取得手段は、前記少なくとも2枚の画像に対する前記脊椎領域と前記椎間領域の取得結果に基づいて前記骨密度解析領域を取得する請求項1又は2に記載の画像処理装置。
The first acquisition means acquires at least two of the three images, two images acquired using the DXA method and an energy subtraction image generated from the two images. and obtaining the spinal region and the intervertebral region, respectively,
The image processing apparatus according to claim 1 or 2, wherein the second acquisition means acquires the bone density analysis region based on the acquisition results of the spinal region and the intervertebral region for the at least two images.
前記第2の取得手段による取得結果あるいは取得過程を操作者へ表示する表示手段を備える請求項1又は2に記載の画像処理装置。 3. The image processing apparatus according to claim 1, further comprising display means for displaying the acquisition result or acquisition process by the second acquisition means to an operator. 操作者が第2の取得手段による取得結果あるいは取得過程を見ながら操作するための操作手段を備える請求項1又は2に記載の画像処理装置。 3. The image processing apparatus according to claim 1, further comprising operation means for an operator to operate while viewing the acquisition result or acquisition process by the second acquisition means. 検査対象物に対して傾斜した方向に放射線を照射して得た画像を取得する第1の取得手段と、
前記取得した画像を学習済モデルの入力データとして用いて、第1の領域と、該第1の領域を含み、該第1の領域より広い第2の領域とを取得する第2の取得手段と、
前記取得した第1の領域と前記取得した第2の領域との関係および前記取得した第1の領域内の複数の領域間の関係の少なくとも一方を用いて、前記取得した第1の領域を補正し、該補正した第1の領域を用いて、画像解析処理を行う解析領域を取得する第3の取得手段と、
を有する画像処理装置。
a first acquisition means for acquiring an image obtained by irradiating radiation in an oblique direction to the inspection object;
a second acquisition means for acquiring a first region and a second region that includes the first region and is wider than the first region, using the acquired image as input data for a trained model; ,
Correcting the acquired first area using at least one of the relationship between the acquired first area and the acquired second area and the relationship between a plurality of areas in the acquired first area. and a third acquisition means for acquiring an analysis area for performing image analysis processing using the corrected first area;
An image processing device having:
前記第3の取得手段は、前記第1の領域に関する所定のパターンと、前記取得した第1の領域と前記取得した第2の領域との関係および前記取得した第1の領域内の複数の領域間の関係の少なくとも一方とを用いて、前記取得した第1の領域を補正する請求項24に記載の画像処理装置。 The third acquisition means includes a predetermined pattern regarding the first area, a relationship between the acquired first area and the acquired second area, and a plurality of areas within the acquired first area. 25. The image processing apparatus according to claim 24, wherein the acquired first region is corrected using at least one of the relationships between. 前記第3の取得手段は、前記所定のパターンを用いて、前記取得した第1の領域の補正の要否を判断する請求項25に記載の画像処理装置。 26. The image processing apparatus according to claim 25, wherein the third acquisition means uses the predetermined pattern to determine whether correction of the acquired first area is necessary. 前記解析領域は、前記補正された第1の領域である請求項24乃至26のいずれか一項に記載の画像処理装置。 The image processing device according to any one of claims 24 to 26, wherein the analysis area is the corrected first area. 前記取得された解析領域を表示手段に表示させる表示制御手段を更に備え、
前記第2の取得手段は、前記学習済モデルを用いて、前記検査対象物の少なくとも2つの断面に対応する複数の断層画像に基づいて複数の前記第1の領域および複数の前記第2の領域を取得し、
前記第3の取得手段は、前記取得した複数の第1の領域を補正し、該補正した複数の第1の領域を用いて、複数の前記解析領域を取得し、
前記表示制御手段は、前記取得された複数の解析領域又は対応する解析領域が重畳された前記複数の断層画像を並べて前記表示手段に表示させる請求項24に記載の画像処理装置。
further comprising display control means for displaying the acquired analysis region on a display means,
The second acquisition means uses the learned model to acquire the plurality of first regions and the plurality of second regions based on a plurality of tomographic images corresponding to at least two cross sections of the inspection object. get
The third acquisition means corrects the acquired plurality of first regions and uses the corrected plurality of first regions to acquire the plurality of analysis regions,
25. The image processing apparatus according to claim 24, wherein the display control means causes the display means to display the plurality of acquired analysis regions or the plurality of tomographic images in which the corresponding analysis regions are superimposed side by side on the display means.
前記表示制御手段は、操作者の指示に応じて、前記複数の断層画像と、前記複数の解析領域又は前記対応する解析領域が重畳された前記複数の断層画像とを一括して切り替えて前記表示手段に表示させる請求項28に記載の画像処理装置。 The display control means displays the plurality of tomographic images by collectively switching between the plurality of tomographic images and the plurality of analysis regions or the plurality of tomographic images on which the corresponding analysis regions are superimposed, according to an instruction from an operator. The image processing device according to claim 28, wherein the image processing device displays the image on a means. 前記複数の断層画像に関する断面は、初期設定、操作者の指示、検査対象の状態の検出結果、および検査目的の選択の少なくとも一つに応じて設定される請求項28に記載の画像処理装置。 29. The image processing apparatus according to claim 28, wherein the cross sections related to the plurality of tomographic images are set according to at least one of initial settings, an operator's instruction, a detection result of a state of the inspection object, and a selection of an inspection purpose. 入力画像内の脊椎領域と椎間領域とをそれぞれ取得する第1の取得工程と、
前記取得した脊椎領域と前記取得した椎間領域とを用いて腰椎の骨密度測定の対象領域である骨密度解析領域を取得する第2の取得工程と、
を含む画像処理装置の作動方法。
a first acquisition step of respectively acquiring a spinal region and an intervertebral region in the input image;
a second acquisition step of acquiring a bone density analysis region that is a target region for bone density measurement of the lumbar vertebrae using the acquired spinal region and the acquired intervertebral region;
A method of operating an image processing device including:
検査対象物に対して傾斜した方向に放射線を照射して得た画像を取得する第1の取得工程と、
前記取得した画像を学習済モデルの入力データとして用いて、第1の領域と、該第1の領域を含み、該第1の領域より広い第2の領域とを取得する第2の取得工程と、
前記取得した第1の領域と前記取得した第2の領域との関係および前記取得した第1の領域内の複数の領域間の関係の少なくとも一方を用いて、前記取得した第1の領域を補正し、該補正した第1の領域を用いて、画像解析処理を行う解析領域を取得する第3の取得工程と、
を含む画像処理装置の作動方法。
a first acquisition step of acquiring an image obtained by irradiating radiation in an oblique direction to the inspection object;
a second acquisition step of acquiring a first region and a second region that includes the first region and is wider than the first region, using the acquired image as input data of the trained model; ,
Correcting the acquired first area using at least one of the relationship between the acquired first area and the acquired second area and the relationship between a plurality of areas in the acquired first area. and a third acquisition step of acquiring an analysis region for performing image analysis processing using the corrected first region;
A method of operating an image processing device including:
コンピュータによって実行されると、該コンピュータに請求項31又は32に記載の画像処理装置の作動方法の各工程を実行させるプログラム。 A program that, when executed by a computer, causes the computer to execute each step of the method for operating an image processing apparatus according to claim 31 or 32.
JP2022064683A 2022-04-08 2022-04-08 Image processing device, method for operating image processing device, and program Pending JP2023154994A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022064683A JP2023154994A (en) 2022-04-08 2022-04-08 Image processing device, method for operating image processing device, and program
PCT/JP2023/013801 WO2023195443A1 (en) 2022-04-08 2023-04-03 Image processing device, operation method for image processing device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022064683A JP2023154994A (en) 2022-04-08 2022-04-08 Image processing device, method for operating image processing device, and program

Publications (1)

Publication Number Publication Date
JP2023154994A true JP2023154994A (en) 2023-10-20

Family

ID=88242970

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022064683A Pending JP2023154994A (en) 2022-04-08 2022-04-08 Image processing device, method for operating image processing device, and program

Country Status (2)

Country Link
JP (1) JP2023154994A (en)
WO (1) WO2023195443A1 (en)

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2756804A1 (en) * 2013-01-22 2014-07-23 Agfa Healthcare Method, apparatus and system for identifying a specific part of a spine in an image
CN105960203B (en) * 2014-02-03 2019-03-12 株式会社岛津制作所 Image processing method
CN103976756A (en) * 2014-05-21 2014-08-13 周勇 Real-time three-dimensional reconstruction method in spine posterior approach operation
US10062165B2 (en) * 2014-10-29 2018-08-28 Shimadzu Corporation Image processing device
CN105701438B (en) * 2014-11-26 2020-06-23 东芝医疗系统株式会社 Medical image processing apparatus and method, and medical imaging device
JP6401083B2 (en) * 2015-03-12 2018-10-03 富士フイルム株式会社 Medical image processing apparatus, method and program
US10872415B2 (en) * 2015-10-29 2020-12-22 Broncus Medical Inc. Learning-based spine vertebra localization and segmentation in 3D CT
JP7135473B2 (en) * 2018-01-31 2022-09-13 株式会社リコー MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE PROCESSING METHOD, PROGRAM AND MEDICAL IMAGE PROCESSING SYSTEM
JP7016294B2 (en) * 2018-06-08 2022-02-04 富士フイルム株式会社 Bone salt information acquisition device, method and program
CN113516614A (en) * 2020-07-06 2021-10-19 阿里巴巴集团控股有限公司 Spine image processing method, model training method, device and storage medium
JP7494678B2 (en) * 2020-09-17 2024-06-04 株式会社島津製作所 Medical image processing device, medical image processing method, and learning method for learning model

Also Published As

Publication number Publication date
WO2023195443A1 (en) 2023-10-12

Similar Documents

Publication Publication Date Title
CN108697375B (en) Spine arrangement estimation device, spine arrangement estimation method, and spine arrangement estimation program
JP5643304B2 (en) Computer-aided lung nodule detection system and method and chest image segmentation system and method in chest tomosynthesis imaging
US8675933B2 (en) Breast segmentation in radiographic images
US20150094516A1 (en) Medical image processing device, treatment system and medical image processing method
CN112165900A (en) Image analysis method, segmentation method, bone density measurement method, learning model generation method, and image generation device
US10593022B2 (en) Medical image processing apparatus and medical image diagnostic apparatus
CN111803110B (en) X-ray fluoroscopic apparatus
JP2006247268A (en) System and method for positioning patient
EP3590431B1 (en) Image display device, image display method, and image display program
JPWO2006028085A1 (en) X-ray CT apparatus, image processing program, and image processing method
US20230169666A1 (en) Methods and systems for image registration
JP4474304B2 (en) Ring artifact removal method and X-ray CT apparatus
JP6853376B2 (en) How to reconstruct a 2D image from multiple X-ray images
US12026927B2 (en) Learning device, learning method, learning program, trained model, radiographic image processing device, radiographic image processing method, and radiographic image processing program
WO2023195443A1 (en) Image processing device, operation method for image processing device, and program
JP2021003240A (en) X-ray tomosynthesis device, image processing device and program
WO2014136641A1 (en) Body motion display device and body motion display method
JP7341667B2 (en) Medical image processing equipment, X-ray diagnostic equipment, and medical information processing systems
WO2021044757A1 (en) Image processing device, image processing method, and program
WO2024122340A1 (en) Image processing device, operation method for image processing device, and program
US20050111615A1 (en) Radiography apparatus and radiation image processing method
WO2024048374A1 (en) Image processing device, photographing system, image processing method, and program
KR102588305B1 (en) Artificial intelligence-based devices and methods for geometric alignment and preprocessing of raw CT images
US11801019B2 (en) Positional information display device, positional information display method, positional information display program, and radiography apparatus
WO2023171073A1 (en) Image processing device, method, and program

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20220630