JP2022095182A - Radiation image processing device, radiation image processing method, and program - Google Patents

Radiation image processing device, radiation image processing method, and program Download PDF

Info

Publication number
JP2022095182A
JP2022095182A JP2020208358A JP2020208358A JP2022095182A JP 2022095182 A JP2022095182 A JP 2022095182A JP 2020208358 A JP2020208358 A JP 2020208358A JP 2020208358 A JP2020208358 A JP 2020208358A JP 2022095182 A JP2022095182 A JP 2022095182A
Authority
JP
Japan
Prior art keywords
boundary
image processing
region
radiation
radiographic image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020208358A
Other languages
Japanese (ja)
Inventor
秀昭 宮本
Hideaki Miyamoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020208358A priority Critical patent/JP2022095182A/en
Publication of JP2022095182A publication Critical patent/JP2022095182A/en
Pending legal-status Critical Current

Links

Images

Abstract

To effectively extract an area from a radiation image.SOLUTION: A radiation image processing device comprises: generation means which applies edge emphasis processing to a radiation image to generate a boundary of a target area; and extraction means which extracts the target area by using the generated boundary. The generation means generates the boundary of the target area based on either a pixel corresponding to an overshoot generated by the edge emphasis processing or a pixel corresponding to undershoot, in the radiation image.SELECTED DRAWING: Figure 1

Description

本発明は、放射線画像処理装置、放射線画像処理方法およびプログラムに関する。 The present invention relates to a radiographic image processing apparatus, a radiographic image processing method and a program.

従来、医療分野では、被写体に放射線を照射して、被写体を透過した放射線を検出し、被写体の放射線画像を得る、放射線透視撮影装置が広く利用されている。放射線透視撮影装置では一般に、放射線画像へ様々なデジタル画像処理を適用する。 Conventionally, in the medical field, a radioscopic fluoroscopy apparatus that irradiates a subject with radiation, detects the radiation transmitted through the subject, and obtains a radiation image of the subject has been widely used. Radiation fluoroscopy equipment generally applies various digital image processing to radiographic images.

その中で、放射線画像から被写体や被写体内部の解剖学的構造を切り分ける領域抽出処理は、切り分けた部位からの特徴量抽出や、部位の切り出し、部位別の強調・マスク処理を行うための前処理として重要である。領域抽出の対象としては、放射線画像中の、放射線画像が被写体を透過せずに直接放射線検出器に到達する直接照射領域、胸部放射線画像の肺野領域が考えられる。これらは放射線検出器への放射線到達量が比較的大きい領域である。その他にも、被写体内のインプラントなど金属領域、骨部領域、放射線絞りによって放射線検出器への放射線到達が遮られる照射野外領域などが考えられる。これらは放射線検出器への放射線到達量が比較的小さい領域である。これらの放射線検出器への放射線到達量が大きい、または小さい領域は切り分けることで様々な画像処理への応用が可能である。 Among them, the area extraction process that separates the subject and the anatomical structure inside the subject from the radiographic image is a preprocessing for extracting the feature amount from the separated part, cutting out the part, and emphasizing / masking each part. As important as. As the target of region extraction, a direct irradiation region in the radiographic image in which the radiological image reaches the radiodetector directly without passing through the subject, and a lung field region of the chest radiographic image can be considered. These are areas where the amount of radiation reaching the radiation detector is relatively large. In addition, a metal region such as an implant in the subject, a bone region, and an irradiation field region where radiation reaching the radiation detector is blocked by a radiation aperture can be considered. These are areas where the amount of radiation reaching the radiation detector is relatively small. It is possible to apply it to various image processing by separating the area where the amount of radiation reaching these detectors is large or small.

例えば、特許文献1では、放射線画像から階調変換極性決定のために不要な直接照射領域を背景領域として切り分ける方法が開示されている。 For example, Patent Document 1 discloses a method of separating a direct irradiation region unnecessary for determining the gradation conversion polarity from a radiation image as a background region.

倉爪亮(著)、「レベルセット法とその実装法について」、情報処理学会研究報告、pp.133-pp.145、2006.Ryo Kurazume (Author), "Level Set Method and Its Implementation Method", IPSJ Research Report, pp. 133-pp. 145, 2006.

特開2014-28313JP-A-2014-28313

しかしながら、特許文献1の方法では、必ずしも効果的に領域を切り分けることが出来ない場合があった。 However, the method of Patent Document 1 may not always be able to effectively divide the region.

例えば、直接照射線領域を抽出して診断要あるいは診断不要な領域としてマスクする場合、診断上の関心領域である被写体領域までマスクしてしまうことがないよう、直接照射線領域の境界よりわずかに内側に境界が配置されることが望ましい。 For example, when the direct irradiation line area is extracted and masked as an area requiring diagnosis or not requiring diagnosis, the area slightly above the boundary of the direct irradiation line area is not masked even to the subject area which is a diagnostic interest area. It is desirable that the boundary be placed inside.

また、肺野領域を抽出して切り出して表示する場合、肺野の端部に切り出し洩れが生じることのないよう、肺野領域の境界よりわずかに外側に境界が配置されることが望ましい。 Further, when the lung field region is extracted and cut out and displayed, it is desirable that the boundary is arranged slightly outside the boundary of the lung field region so that the cutout leakage does not occur at the end of the lung field.

本発明は、上記課題に鑑みてなされたものであり、放射線画像から効果的に領域を抽出することを目的の一つとする。 The present invention has been made in view of the above problems, and one of the objects of the present invention is to effectively extract a region from a radiographic image.

なお、前記目的に限らず、後述する発明を実施するための形態に示す各構成により導かれる作用効果であって、従来の技術によっては得られない作用効果を奏することも本発明の他の目的の1つとして位置付けることができる。 It should be noted that the other object of the present invention is not limited to the above-mentioned object, but is an action and effect derived by each configuration shown in the embodiment for carrying out the invention described later, and exerts an action and effect which cannot be obtained by the conventional technique. It can be positioned as one of.

上記目的を解決するために、本発明に係る放射線画像処理装置は、放射線画像に対してエッジ強調処理を施し、対象領域の境界を生成する生成手段と、前記生成された境界を用いて前記対象領域を抽出する抽出手段と、を備え、前記生成手段は、前記放射線画像における、前記エッジ強調処理により生じるオーバーシュートに相当する画素およびアンダーシュートに相当する画素のいずれかに基づいて前記対象領域の境界を生成することを特徴とする。 In order to solve the above object, the radiographic image processing apparatus according to the present invention applies edge enhancement processing to a radiographic image to generate a boundary of a target area, and the target using the generated boundary. The generation means includes an extraction means for extracting a region, and the generation means of the target region is based on either a pixel corresponding to an overshoot or a pixel corresponding to an undershoot generated by the edge enhancement process in the radiographic image. It is characterized by generating boundaries.

本発明によれば、放射線画像から効果的に領域を抽出することができる。 According to the present invention, a region can be effectively extracted from a radiographic image.

本実施形態の放射線透視撮影装置の概略構成を示す図The figure which shows the schematic structure of the radioscopic fluoroscopy apparatus of this embodiment. 実施例1による目的の領域抽出部113の処理手順を示すフローチャートA flowchart showing a processing procedure of the target area extraction unit 113 according to the first embodiment. 実施例1による境界生成部114におけるアンシャープマスキングで用いる鮮鋭化フィルタの一例を示す図The figure which shows an example of the sharpening filter used for the unsharp masking in the boundary generation part 114 by Example 1. 実施例1による境界生成部114におけるアンシャープマスキングの効果を説明する図The figure explaining the effect of unsharp masking in the boundary generation part 114 by Example 1. 実施例1において解像度変換部116をさらに備える場合を説明する図The figure explaining the case which further includes the resolution conversion unit 116 in Example 1. 実施例1による境界抽出部115における輪郭モデルを説明する図The figure explaining the contour model in the boundary extraction part 115 by Example 1. 実施例1による境界抽出部115における初期輪郭モデルを作成する方法の一例を示すフローチャートA flowchart showing an example of a method of creating an initial contour model in the boundary extraction unit 115 according to the first embodiment.

以下、図面を参照して本発明の好適な実施形態について説明する。 Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.

[実施形態1]
本発明は、例えば図1に示すような放射線透視撮影装置100に適用される。放射線透視撮影装置100は、放射線発生部101、放射線絞り102、放射線検出器105、データ収集部106、前処理部107、CPU108、記憶部109、メインメモリ110、操作部111、表示部112、画像処理部120、領域抽出部113を備える。すなわち、放射線透視撮影装置100は、生成手段、抽出手段、画像処理手段を備える放射線画像処理装置の一例に相当する。また、各部はCPUバス130を介して接続され、互いにデータ授受が可能である。
[Embodiment 1]
The present invention is applied to, for example, the fluoroscopy apparatus 100 as shown in FIG. The radiation fluoroscopic imaging device 100 includes a radiation generation unit 101, a radiation aperture 102, a radiation detector 105, a data collection unit 106, a preprocessing unit 107, a CPU 108, a storage unit 109, a main memory 110, an operation unit 111, a display unit 112, and an image. A processing unit 120 and an area extraction unit 113 are provided. That is, the radioscopic fluoroscopy apparatus 100 corresponds to an example of a radiographic image processing apparatus including a generation means, an extraction means, and an image processing means. Further, each unit is connected via the CPU bus 130 and can exchange data with each other.

放射線透視撮影装置100において、メインメモリ110は、CPU108での処理に必要なワーキングメモリとして機能する。CPU108は、メインメモリ110を用いて、操作部111からの操作及び、記憶部109に記憶されているパラメータに従った装置全体の動作制御等を行う。これにより放射線透視撮影装置100は、以下のように動作する。 In the fluoroscopy apparatus 100, the main memory 110 functions as a working memory required for processing by the CPU 108. The CPU 108 uses the main memory 110 to perform operations from the operation unit 111 and control the operation of the entire device according to the parameters stored in the storage unit 109. As a result, the radiation fluoroscopy apparatus 100 operates as follows.

まず、操作部111を介してユーザーから撮影指示が入力されると、この撮影指示はCPU108によりデータ収集部106に伝えられる。データ収集部106は、撮影指示を受けると、放射線発生部101及び放射線検出器105を制御して放射線撮影を実行させる。 First, when a shooting instruction is input from the user via the operation unit 111, the shooting instruction is transmitted to the data collection unit 106 by the CPU 108. Upon receiving an imaging instruction, the data acquisition unit 106 controls the radiation generating unit 101 and the radiation detector 105 to execute radiography.

放射線撮影では、まず放射線発生部101が、被検体104に対して放射線ビーム103を照射する。放射線発生部101から照射された放射線ビーム103は、放射線絞り102によって照射範囲を制限されて被検体104に入射し、被検体104を減衰しながら透過して、放射線検出器105に到達する。そして、放射線検出器105は到達した放射線ビーム103の強度に応じた信号を出力する。 In radiography, first, the radiation generating unit 101 irradiates the subject 104 with the radiation beam 103. The radiation beam 103 irradiated from the radiation generating unit 101 is incident on the subject 104 with the irradiation range limited by the radiation diaphragm 102, passes through the subject 104 while attenuating, and reaches the radiation detector 105. Then, the radiation detector 105 outputs a signal according to the intensity of the reached radiation beam 103.

データ収集部106は、放射線検出器105から出力された信号を所定のデジタル信号に変換して画像データとして前処理部107に供給する。 The data collection unit 106 converts the signal output from the radiation detector 105 into a predetermined digital signal and supplies it to the preprocessing unit 107 as image data.

前処理部107は、データ収集部106はから供給された画像データに対して、オフセット補正やゲイン補正等の前処理を行う。前処理部107で前処理が行われた画像データは、CPUバス130を介してメインメモリ110、領域抽出部113、画像処理部120、に順次転送される。 The pre-processing unit 107 performs pre-processing such as offset correction and gain correction on the image data supplied from the data acquisition unit 106. The image data preprocessed by the preprocessing unit 107 is sequentially transferred to the main memory 110, the area extraction unit 113, and the image processing unit 120 via the CPU bus 130.

領域抽出部113は、転送された画像データから目的の領域を抽出し、目的領域情報を出力する。 The area extraction unit 113 extracts a target area from the transferred image data and outputs the target area information.

画像処理部120は、転送された画像データに対し、領域抽出部113がこれらの目的の領域を抽出した結果である目的領域情報に基づく画像処理を行う。この画像処理は、例えば、目的の領域あるいは目的の領域以外に属する画素値の平均値や最大・最小値などの特徴量を算出する算出処理、目的の領域に属する画素のみの切り出し・拡大処理、コントラスト等の強調処理、マスク処理等である。また、画像処理部120は、目的領域情報に基づく画像処理を行った結果を、画像処理済み画像データとして出力する。目的領域情報や、画像処理済み画像データは、CPUバス130を介して例えば記憶部109、表示部112に転送される。 The image processing unit 120 performs image processing on the transferred image data based on the target area information which is the result of the area extraction unit 113 extracting these target areas. This image processing includes, for example, calculation processing for calculating feature quantities such as the average value and maximum / minimum values of pixel values belonging to the target area or other than the target area, cutting / enlarging processing of only pixels belonging to the target area, and processing. It is an enhancement process such as contrast, a mask process, and the like. Further, the image processing unit 120 outputs the result of image processing based on the target area information as image processed image data. The target area information and the image processed image data are transferred to, for example, the storage unit 109 and the display unit 112 via the CPU bus 130.

記憶部109は、転送された目的領域情報や画像処理済み画像データを記憶する。表示部112は転送された目的領域情報や画像処理済み画像データの表示を行う。ユーザーは表示された目的領域情報や画像処理済み画像データを確認し、操作部111を介して必要に応じた操作指示を行う。 The storage unit 109 stores the transferred target area information and image processed image data. The display unit 112 displays the transferred target area information and image processed image data. The user confirms the displayed target area information and the image processed image data, and gives an operation instruction as necessary via the operation unit 111.

以上のような構成を備えた放射線透視撮影装置100において、領域抽出部113はさらに境界生成部114、境界抽出部115を備える。 In the radiation fluoroscopy apparatus 100 having the above configuration, the region extraction unit 113 further includes a boundary generation unit 114 and a boundary extraction unit 115.

以下、本実施形態の特徴であるこの領域抽出部113が、画像データから目的の領域を認識し、目的領域情報として出力する動作について、図2に示すフローチャートを用いて具体的に説明する。なお、領域抽出部113が抽出する目的の領域(対象領域)とは、転送された画像データに含まれる、人体の大部分を占める軟部組織領域との間で比較的明瞭な境界を生じる領域である。例えば、放射線ビーム103が被写体104を透過せずに放射線検出器105は到達した直接線照射領域、被写体の肺野を透過して放射線検出器に放射線が到達した肺野領域、骨部を透過して到達した骨部領域、金属を透過して到達した金属領域、および、放射線ビーム103が放射線絞り102によって放射線検出器105への到達を遮られた照射野外領域などである。換言すると、軟部組織以外の領域である。 Hereinafter, an operation in which the region extraction unit 113, which is a feature of the present embodiment, recognizes a target region from image data and outputs it as target region information will be specifically described with reference to the flowchart shown in FIG. The target region (target region) extracted by the region extraction unit 113 is a region included in the transferred image data that creates a relatively clear boundary with the soft tissue region that occupies most of the human body. be. For example, the radiation beam 103 does not pass through the subject 104, but the radiation detector 105 penetrates the direct line irradiation region reached, the lung field of the subject and the lung field region where the radiation reaches the radiation detector, and the bone portion. The bone region reached, the metal region reached through the metal, and the irradiation field region where the radiation beam 103 was blocked from reaching the radiation detector 105 by the radiation throttle 102. In other words, it is a region other than soft tissue.

(S201:境界生成)
ステップS201において、領域抽出部113が備える境界生成部114は、転送された入力画像データI0から、本実施例の抽出対象である目的の領域の境界生成処理を行った結果を、境界生成画像I1として出力する。すなわち、境界生成部114は、放射線画像に対してエッジ強調処理を施し、対象領域の境界を生成する生成手段の一例に相当する。
(S201: Boundary generation)
In step S201, the boundary generation unit 114 included in the area extraction unit 113 obtains the result of performing the boundary generation processing of the target region to be extracted in this embodiment from the transferred input image data I0 to the boundary generation image I1. Is output as. That is, the boundary generation unit 114 corresponds to an example of a generation means that performs edge enhancement processing on a radiographic image to generate a boundary of a target area.

本実施形態では一例として、境界生成部114が、入力画像データI0に対してアンシャープマスキング処理を行った結果を、境界生成画像I1として出力する場合を説明する。アンシャープマスキングは、画像からエッジ部分を取り出し、所定の係数をかけ合わせて元の画像に足し合わせることでエッジを強調する処理である。例えば、図3のような鮮鋭化フィルタFを用いた空間フィルタリングによって実現することができる。本実施形態において、入力画像データI0にフィルタFを用いた空間フィルタリングを適用して境界生成画像I1を生成する場合、次式で表すことができる。

Figure 2022095182000002
In this embodiment, as an example, a case where the boundary generation unit 114 outputs the result of performing unsharp masking processing on the input image data I0 as the boundary generation image I1 will be described. Unsharp masking is a process of extracting an edge portion from an image, multiplying it by a predetermined coefficient, and adding it to the original image to emphasize the edge. For example, it can be realized by spatial filtering using the sharpening filter F as shown in FIG. In the present embodiment, when the boundary generation image I1 is generated by applying the spatial filtering using the filter F to the input image data I0, it can be expressed by the following equation.
Figure 2022095182000002

アンシャープマスキングについて図4を用いて説明する。 Unsharp masking will be described with reference to FIG.

アンシャープマスキングを、例えば、図4(a)に示す画像I0に適用し、図4(c)に示すようなアンシャープマスキング後の画像I1を得たものとする。図4(b)は、画像I0の点線で示すラインに属する画素の画素値プロファイルを示している。また、図4(d)は、画像I0の点線で示すラインに属する画素の画素値プロファイルを破線で、画像I1の点線で示すラインに属する画素の画素値プロファイルを実線で示している。すなわち図4(d)は、破線でアンシャープマスキング前を、実線でアンシャープマスキング後の画素値プロファイルを示している。 It is assumed that the unsharp masking is applied to, for example, the image I0 shown in FIG. 4A to obtain the image I1 after the unsharp masking as shown in FIG. 4C. FIG. 4B shows a pixel value profile of a pixel belonging to the line indicated by the dotted line of the image I0. Further, in FIG. 4D, the pixel value profile of the pixel belonging to the line indicated by the dotted line of the image I0 is shown by a broken line, and the pixel value profile of the pixel belonging to the line indicated by the dotted line of the image I1 is shown by a solid line. That is, in FIG. 4D, the broken line shows the pixel value profile before unsharp masking, and the solid line shows the pixel value profile after unsharp masking.

アンシャープマスキングでは、図4(d)の実線で示すように、境界を挟んだ高画素値領域側に高画素値領域画素値よりも高い画素値をもつオーバーシュート、低画素値領域側に低画素値領域画素値よりも低い画素値をもつアンダーシュートを生じる。これらオーバーシュートあるいはアンダーシュートに相当する画素を結ぶ連結画素の集合は、図4(c)の画像I1における白枠、黒枠のようになる。これらのオーバーシュート、アンダーシュートで構成される境界が、境界生成部114で生成することを目的としている境界である。 In unsharp masking, as shown by the solid line in FIG. 4D, overshoot having a pixel value higher than the pixel value in the high pixel value region on the high pixel value region side across the boundary and low on the low pixel value region side. Pixel value region An undershoot with a pixel value lower than the pixel value is generated. The set of the connected pixels connecting the pixels corresponding to the overshoot or the undershoot is like the white frame and the black frame in the image I1 of FIG. 4 (c). The boundary composed of these overshoots and undershoots is a boundary intended to be generated by the boundary generation unit 114.

(S202:境界抽出)
次に、ステップS202において、領域抽出部113は、境界抽出部115において、境界生成部114が出力する境界生成画像I1から、本実施例の抽出対象である目的の領域の境界を抽出した結果を、境界抽出結果Bとして出力する。
(S202: Boundary extraction)
Next, in step S202, the area extraction unit 113 extracts the result of extracting the boundary of the target region to be extracted in this embodiment from the boundary generation image I1 output by the boundary generation unit 114 in the boundary extraction unit 115. , Output as boundary extraction result B.

本実施形態では一例として、境界抽出部115が、境界生成画像I1に対してスネーク(snakes、または動的輪郭モデル)とよばれる手法(詳細は非特許文献1)を適用して得られる境界を、境界抽出結果Bとして出力する場合を説明する。 In the present embodiment, as an example, the boundary extraction unit 115 applies a method called snakes (snakes or dynamic contour model) to the boundary generation image I1 (details are in Non-Patent Document 1) to obtain a boundary. , The case of outputting as the boundary extraction result B will be described.

スネークは、画像上の境界を画素の集合からなる閉曲線で輪郭モデル化し、閉曲線の連続性や滑らかさ、閉曲線が位置している座標における画素値などに基づくエネルギーを定義し、エネルギー最小化問題を解くことで所望の境界画素の集合を取得する処理である。 Snake contours a boundary on an image with a closed curve consisting of a set of pixels, defines the energy based on the continuity and smoothness of the closed curve, the pixel value at the coordinates where the closed curve is located, etc., and solves the energy minimization problem. It is a process of acquiring a desired set of boundary pixels by solving.

本実施形態では、スネークのエネルギーに、閉曲線が画像I1上のオーバーシュートあるいはアンダーシュート上に位置した時最小値をとるエネルギーEshootを定義して用いる。このEshootは例えば次式で表すことができる。

Figure 2022095182000003
In the present embodiment, the energy Eshot that takes the minimum value when the closed curve is located on the overshoot or undershoot on the image I1 is defined and used as the energy of the snake. This Eshot can be expressed by, for example, the following equation.
Figure 2022095182000003

数2において、Nは閉曲線を構成する画素の数、nは画素のインデックスを表し、n番目の画素の座標を(x(n),y(n))、座標(x(n),y(n))における境界生成画像I1上の値をI1(x(n),y(n))で表す。さらに(vx(n),vy(n))は、画素(x(n),y(n))における法線の単位ベクトルを表す(図6)。すなわち、数2の下記の項は、画素(x(n),y(n))における閉曲線の法線方向を-M<m<Mの範囲で探索した場合の最大値あるいは最小値を意味し、最大値はオーバーシュート、最小値はアンダーシュートに一致する画素であることを期待している。

Figure 2022095182000004
In the number 2, N represents the number of pixels constituting the closed curve, n represents the index of the pixel, the coordinates of the nth pixel are (x (n), y (n)), and the coordinates (x (n), y ( The value on the boundary generation image I1 in (n)) is represented by I1 (x (n), y (n)). Further, (vx (n), vy (n)) represents a unit vector of normals in pixels (x (n), y (n)) (FIG. 6). That is, the following term of Equation 2 means the maximum value or the minimum value when the normal direction of the closed curve in the pixel (x (n), y (n)) is searched in the range of −M <m <M. , The maximum value is expected to be the pixel corresponding to the overshoot, and the minimum value is expected to be the pixel corresponding to the undershoot.
Figure 2022095182000004

すなわち数2は画素(x(n),y(n))がそれぞれの法線方向の最大値あるいは最小値に一致した場合に最小値ゼロをとるエネルギー関数である。 That is, the number 2 is an energy function that takes a minimum value of zero when the pixels (x (n), y (n)) match the maximum value or the minimum value in the respective normal directions.

なお、境界としてオーバーシュートを用いるか、あるいはアンダーシュートを用いるかは、画像処理部120が目的の領域に対して行う画像処理の種類によって選択される。または、対象領域に関する情報に基づいてオーバーシュートに相当する画素およびアンダーシュートに相当する画素のいずれに基づいて対象領域の境界を生成するかを選択してもよい。対象領域に関する情報は、例えば、対象領域が前記放射線画像におけるいずれの領域であるかを示す情報を少なくとも含む。 Whether to use overshoot or undershoot as the boundary is selected depending on the type of image processing performed by the image processing unit 120 on the target area. Alternatively, it may be selected whether to generate the boundary of the target area based on the pixel corresponding to the overshoot or the pixel corresponding to the undershoot based on the information about the target area. The information about the target area includes, for example, at least information indicating which area in the radiographic image the target area is.

例えば、目的の領域が直接照射領域であり、画像処理120が直接照射領域に対するマスク処理である場合、マスク処理される領域が診断上関心ある領域を侵食することのないよう、目的の領域を小さめに抽出することが望ましい。ここで、直接照射領域が放射線画像上の高画素値領域に相当する場合、オーバーシュートを境界として採用することで目的の領域を小さめに抽出することができる。 For example, when the target area is a direct irradiation area and the image processing 120 is a masking process for the direct irradiation area, the target area is made smaller so that the masked area does not erode the area of diagnostic interest. It is desirable to extract to. Here, when the direct irradiation region corresponds to the high pixel value region on the radiographic image, the target region can be extracted smaller by adopting the overshoot as the boundary.

あるいは、目的の領域が肺野領域であり、画像処理120が肺野領域に対する切り出し処理である場合、診断上関心ある肺野領域を境界において不足なく抽出できるよう、目的の領域を大きめに抽出することが望ましい。ここで目的の領域である肺野領域が画像I1上の高画素値領域に相当する場合、アンダーシュートを境界として採用することで目的の領域を大きめに抽出することができる。 Alternatively, when the target region is the lung field region and the image processing 120 is the cutout processing for the lung field region, the target region is extracted in a large size so that the lung field region of diagnostic interest can be extracted without any shortage at the boundary. Is desirable. Here, when the lung field region, which is the target region, corresponds to the high pixel value region on the image I1, the target region can be extracted to a large extent by adopting the undershoot as a boundary.

以上、スネークによって抽出される境界抽出結果Bは、閉曲線を構成する画素集合(x(n),y(n))(0≦n<N)として出力される。領域抽出部113はこの閉曲線の内側または外側を目的の領域として出力する。 As described above, the boundary extraction result B extracted by the snake is output as a pixel set (x (n), y (n)) (0 ≦ n <N) constituting the closed curve. The region extraction unit 113 outputs the inside or outside of this closed curve as a target region.

なお、以上の説明では、境界抽出部115が、境界生成画像I1に対してスネークを適用して境界を得る手法について説明したが、本発明は境界生成部114で生成された境界を抽出できるものであればこの方法に限られるものではない。例えばスネークと類似した輪郭モデルを用いる手法にLevel Set Methodと呼ばれるものがあり(非特許文献1)、これを用いて、数2を取り入れ、境界の抽出を行ってもよい。 In the above description, the boundary extraction unit 115 has described a method of applying a snake to the boundary generation image I1 to obtain a boundary, but the present invention can extract the boundary generated by the boundary generation unit 114. If so, it is not limited to this method. For example, there is a method called Level Set Method (Non-Patent Document 1) that uses a contour model similar to Snake, and the equation 2 may be incorporated and the boundary may be extracted using this method.

また、以上、説明した輪郭モデルを用いる手法は、初期輪郭モデルを必要とする。簡単には画像全体、あるいは画像中央の小矩形または円形を初期輪郭モデルとすればよいが、目的の領域を簡易な方法で粗く取得したものを初期輪郭モデルとして与えてもよい。 Further, the method using the contour model described above requires an initial contour model. Simply, the entire image or a small rectangle or circle in the center of the image may be used as the initial contour model, but a rough acquisition of the target area by a simple method may be given as the initial contour model.

例えば、入力画像データI0あるいは境界生成画像I1にヒストグラム解析で目的の領域とそれ以外を粗く切り分ける閾値を求め、閾値処理によって目的の領域を画素値1、それ以外を画素値0とする2値画像を取得する。この2値画像に対し、4近傍のいずれかに画素値1の画素を持つ画素値0の画素、といった条件で選択される画素を探索し、連結成分を追跡するといった手法によって取得した画素集合を初期輪郭モデルとする方法がある。 For example, a binary image in which the input image data I0 or the boundary generation image I1 is subjected to histogram analysis to obtain a threshold value for roughly dividing the target area from the rest, and the target area is set to a pixel value of 1 and the other areas are set to a pixel value of 0 by threshold processing. To get. For this binary image, a pixel set acquired by a method such as searching for pixels selected under the condition of having a pixel with a pixel value of 1 in any of the vicinity of 4 and tracking a connected component is obtained. There is a method of using an initial contour model.

すなわち、上記は閾値処理によって第1の境界を取得し、第1の境界の少なくとも一部の形状に基づく動的輪郭モデルにより補正された第2の境界から対象領域を抽出する方法である。 That is, the above is a method of acquiring the first boundary by threshold processing and extracting the target region from the second boundary corrected by the dynamic contour model based on the shape of at least a part of the first boundary.

あるいは、機械学習により初期領域推論器(学習モデル)を生成し、これを用いて初期輪郭モデルを推定するものであってもよい。すなわち、機械学習を用いて生成した学習モデルを用いて第1の境界を推定し、第1の境界の少なくとも一部の形状に基づく動的輪郭モデルにより補正された第2の境界から対象領域を抽出してもよい。 Alternatively, an initial region inferior (learning model) may be generated by machine learning, and the initial contour model may be estimated using this. That is, the first boundary is estimated using a learning model generated using machine learning, and the target area is extracted from the second boundary corrected by the dynamic contour model based on the shape of at least a part of the first boundary. It may be extracted.

ここで初期領域推論器は、予め多数の放射線画像と、それに対応する目的の領域の正解データとの組み合わせを教師データとして準備し、好ましくは深層学習に代表される教師あり学習により生成される。初期領域推論器は、画像データを入力すると初期領域推論結果を、学習により生成された多数のパラメータを用いて算出する計算モデルである。 Here, the initial region inferior prepares a combination of a large number of radiographic images and the corresponding correct answer data of the target region in advance as supervised data, and is preferably generated by supervised learning represented by deep learning. The initial region inference device is a calculation model that calculates the initial region inference result by inputting image data using a large number of parameters generated by learning.

なお、初期領域推論器は一般に解像度の大きな画像に対して用いると多くの計算リソースを必要とするため、領域抽出部113または画像処理部120が必要とする解像度での目的の領域を抽出することは難しい。 Since the initial region inferior generally requires a lot of calculation resources when used for an image having a large resolution, the region extraction unit 113 or the image processing unit 120 needs to extract the target region at the resolution required. Is difficult.

そこで、本実施形態では入力画像データI0あるいは境界生成画像I1に縮小処理を適用して縮小画像を生成し(ステップS701)、縮小画像に推論処理を適用して低解像度での初期領域推論結果を取得する(ステップS702)。そして低解像度での初期領域推論結果を領域抽出部113または画像処理部120が必要とする解像度になるよう拡大処理を行い(ステップS703)、上述した方法で輪郭を取得(ステップS704)したものを初期輪郭モデルとする(図7)。すなわち、第1の境界が推定された放射線画像に拡大処理を施し、拡大処理を施された放射線画像における第1の境界を初期輪郭モデルとして用いてもよい。 Therefore, in the present embodiment, a reduction process is applied to the input image data I0 or the boundary generation image I1 to generate a reduced image (step S701), and an inference process is applied to the reduced image to obtain an initial region inference result at a low resolution. Acquire (step S702). Then, the initial region inference result at low resolution is enlarged so as to have the resolution required by the region extraction unit 113 or the image processing unit 120 (step S703), and the contour is acquired by the above-mentioned method (step S704). The initial contour model is used (Fig. 7). That is, the radiation image in which the first boundary is estimated may be enlarged, and the first boundary in the enlarged radiation image may be used as the initial contour model.

このような方法で初期輪郭モデルを作成し、輪郭抽出部115で用いることで、より精度のよい境界の抽出が可能になる。 By creating an initial contour model by such a method and using it in the contour extraction unit 115, more accurate boundary extraction becomes possible.

以上、本実施形態によれば、オーバーシュートまたはアンダーシュートを生成するような処理を行い、生成したオーバーシュートまたはアンダーシュートを後段の画像処理に適した形式で境界として取得する。これにより、放射線画像から効果的に領域を抽出することが出来る。また、画像処理の目的に適した境界の抽出を精度よく行うことが可能となる。さらに、放射線画像から対象領域を抽出するにあたって、その境界において、適用する画像処理に応じた微妙な調整を精度よく行うことが可能である。 As described above, according to the present embodiment, processing for generating an overshoot or undershoot is performed, and the generated overshoot or undershoot is acquired as a boundary in a format suitable for image processing in the subsequent stage. This makes it possible to effectively extract the region from the radiographic image. In addition, it is possible to accurately extract boundaries suitable for the purpose of image processing. Further, when extracting the target region from the radiographic image, it is possible to accurately perform delicate adjustment according to the image processing to be applied at the boundary.

(変形例)
上述の実施形態において領域抽出部113は、境界生成画像I1に基づいて目的の領域を抽出し、画像処理部120はこの目的の領域に対して画像処理を行う。そのため、境界生成部114は、領域抽出部113および画像処理部120が所望する画像解像度で処理を行うことが好ましい。
(Modification example)
In the above-described embodiment, the region extraction unit 113 extracts a target region based on the boundary generation image I1, and the image processing unit 120 performs image processing on the target region. Therefore, it is preferable that the boundary generation unit 114 performs processing at the image resolution desired by the region extraction unit 113 and the image processing unit 120.

すなわち、境界生成部114は入力画像データI0に拡大縮小などの解像度変換処理を行う解像度変換部116をさらに備えていてもよい。そして、解像度変換処理を行って得られた解像度変換済み入力画像データI0’に対して境界生成処理を行うよう構成してもよい(図5)。 That is, the boundary generation unit 114 may further include a resolution conversion unit 116 that performs resolution conversion processing such as enlargement / reduction on the input image data I0. Then, the boundary generation processing may be performed on the resolution-converted input image data I0'obtained by performing the resolution conversion processing (FIG. 5).

画像処理部120が所望する画像解像度で境界生成処理を行うことで画像処理部120に適した境界の生成が可能になる。 When the image processing unit 120 performs the boundary generation processing at a desired image resolution, it becomes possible to generate a boundary suitable for the image processing unit 120.

[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路によっても実現可能である。
[Other embodiments]
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit that realizes one or more functions.

プロセッサまたは回路は、中央演算処理装置(CPU)、マイクロプロセッシングユニット(MPU)、グラフィクスプロセッシングユニット(GPU)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートウェイ(FPGA)を含みうる。また、プロセッサまたは回路は、デジタルシグナルプロセッサ(DSP)、データフロープロセッサ(DFP)、またはニューラルプロセッシングユニット(NPU)を含みうる。 The processor or circuit may include a central processing unit (CPU), a microprocessing unit (MPU), a graphics processing unit (GPU), an application specific integrated circuit (ASIC), a field programmable gateway (FPGA). Also, the processor or circuit may include a digital signal processor (DSP), a data flow processor (DFP), or a neural processing unit (NPU).

上述の各実施形態における放射線透視撮影装置は、単体の装置として実現してもよいし、複数の装置を互いに通信可能に組合せて上述の処理を実行する形態としてもよく、いずれも本発明の実施形態に含まれる。共通のサーバ装置あるいはサーバ群で、上述の処理を実行することとしてもよい。放射線透視撮影装置を構成する複数の装置は所定の通信レートで通信可能であればよく、また同一の施設内あるいは同一の国に存在することを要しない。 The radioscopic fluoroscopy device in each of the above-described embodiments may be realized as a single device, or may be a form in which a plurality of devices are combined so as to be able to communicate with each other to execute the above-mentioned processing, and both of them are the embodiments of the present invention. Included in the form. The above processing may be executed by a common server device or a group of servers. The plurality of devices constituting the fluoroscopic imaging device need not be present in the same facility or in the same country as long as they can communicate at a predetermined communication rate.

本発明の実施形態には、前述した実施形態の機能を実現するソフトウェアのプログラムを、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータが該供給されたプログラムのコードを読みだして実行するという形態を含む。 In the embodiment of the present invention, a software program that realizes the functions of the above-described embodiment is supplied to the system or device, and the computer of the system or device reads and executes the code of the supplied program. Including morphology.

したがって、実施形態に係る処理をコンピュータで実現するために、該コンピュータにインストールされるプログラムコード自体も本発明の実施形態の一つである。また、コンピュータが読みだしたプログラムに含まれる指示に基づき、コンピュータで稼働しているOSなどが、実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現され得る。 Therefore, in order to realize the processing according to the embodiment on the computer, the program code itself installed on the computer is also one of the embodiments of the present invention. Further, based on the instruction included in the program read by the computer, the OS or the like running on the computer performs a part or all of the actual processing, and the function of the above-described embodiment can be realized by the processing. ..

また、本発明は上記実施形態に限定されるものではなく、本発明の趣旨に基づき種々の変形(各実施形態の有機的な組合せを含む)が可能であり、それらを本発明の範囲から除外するものではない。即ち、上述した各実施形態を組み合わせた構成も全て本発明の実施形態に含まれるものである。 Further, the present invention is not limited to the above-described embodiment, and various modifications (including organic combinations of each embodiment) are possible based on the gist of the present invention, and these are excluded from the scope of the present invention. It's not something to do. That is, all the configurations combining the above-described embodiments are also included in the embodiments of the present invention.

101 放射線発生部
105 放射線検出器
113 領域抽出部
114 境界生成部
115 境界抽出部
120 画像処理部
101 Radiation generator 105 Radiation detector 113 Area extraction unit 114 Boundary generation unit 115 Boundary extraction unit 120 Image processing unit

Claims (18)

放射線画像に対してエッジ強調処理を施し、対象領域の境界を生成する生成手段と、
前記生成された境界を用いて前記対象領域を抽出する抽出手段と、
を備え、
前記生成手段は、前記放射線画像における、前記エッジ強調処理により生じるオーバーシュートに相当する画素およびアンダーシュートに相当する画素のいずれかに基づいて前記対象領域の境界を生成することを特徴とする放射線画像処理装置。
A generation means that applies edge enhancement processing to a radiographic image to generate a boundary of the target area,
An extraction means for extracting the target area using the generated boundary, and an extraction means.
Equipped with
The generation means is characterized in that a boundary of the target region is generated based on either a pixel corresponding to an overshoot or a pixel corresponding to an undershoot generated by the edge enhancement process in the radiation image. Processing device.
前記生成手段は、軟部組織を示す領域と前記軟部組織を示す領域以外の領域の境界を生成し、
前記抽出手段は、前記軟部組織以外の領域を前記対象領域として抽出することを特徴とする請求項1に記載の放射線画像処理装置。
The generation means creates a boundary between the region showing the soft tissue and the region other than the region showing the soft tissue.
The radiographic image processing apparatus according to claim 1, wherein the extraction means extracts a region other than the soft tissue as the target region.
前記抽出手段は、前記対象領域として、放射線検出器に直接放射線が到達した直接線照射領域、被写体の肺野を透過して放射線検出器に放射線が到達した肺野領域、骨部を透過して放射線検出器に放射線が到達した骨部領域、金属を透過して放射線検出器に放射線が到達した金属領域、および、放射線絞りにより放射線の到達が遮られた照射野外領域、のいずれかを抽出することを特徴とする請求項1または2に記載の放射線画像処理装置。 As the target area, the extraction means permeates the direct line irradiation region where the radiation directly reaches the radiation detector, the lung field region where the radiation reaches the radiation detector through the lung field of the subject, and the bone portion. Extract either the bone region where the radiation reaches the radiation detector, the metal region where the radiation reaches the radiation detector through the metal, or the irradiation field region where the radiation is blocked by the radiation throttle. The radiographic image processing apparatus according to claim 1 or 2, characterized in that. 前記抽出手段により抽出された前記対象領域に関する情報に基づいて前記放射線画像に画像処理を施す画像処理手段をさらに備えることを特徴とする請求項1乃至3のいずれか1項に記載の放射線画像処理装置。 The radiographic image processing according to any one of claims 1 to 3, further comprising an image processing means for performing image processing on the radiographic image based on the information about the target region extracted by the extraction means. Device. 前記画像処理手段は、特徴量の算出処理、切り出し処理、拡大処理、強調処理、および、マスク処理の少なくともいずれか1つの処理を前記放射線画像に対して施すことを特徴とする請求項4記載の放射線画像処理装置。 The fourth aspect of claim 4, wherein the image processing means performs at least one of a feature amount calculation process, a cutout process, an enlargement process, an enhancement process, and a mask process on the radiographic image. Radiation image processing equipment. 前記生成手段は、前記放射線画像に対してアンシャープマスキング処理を施し、前記対象領域の境界を生成することを特徴とする請求項1乃至5のいずれか1項に記載の放射線画像処理装置。 The radiation image processing apparatus according to any one of claims 1 to 5, wherein the generation means applies an unsharp masking process to the radiation image to generate a boundary of the target area. 前記抽出手段は、前記対象領域に関する情報に基づいてオーバーシュートに相当する画素およびアンダーシュートに相当する画素のいずれに基づいて前記対象領域の境界を生成するかを選択し、前記対象領域を抽出することを特徴とする請求項1乃至6のいずれか1項に記載の放射線画像処理装置。 The extraction means selects whether to generate the boundary of the target area based on whether the pixel corresponding to the overshoot or the pixel corresponding to the undershoot is generated based on the information about the target area, and extracts the target area. The radiographic image processing apparatus according to any one of claims 1 to 6, characterized in that. 前記対象領域に関する情報は、前記対象領域が前記放射線画像におけるいずれの領域であるかを示す情報を少なくとも含むことを特徴とする請求項7に記載の放射線画像処理装置。 The radiographic image processing apparatus according to claim 7, wherein the information regarding the target region includes at least information indicating which region in the radiographic image the target region is. 前記生成手段は、前記対象領域が直接照射領域である場合に、前記オーバーシュートに相当する画素に基づいて境界を生成し、
前記抽出手段は、前記オーバーシュートに相当する画素に基づいて生成された境界を用いて前記直接照射領域を抽出することを特徴とする請求項7または8に記載の放射線画像処理装置。
The generation means generates a boundary based on the pixel corresponding to the overshoot when the target area is a direct irradiation area.
The radiographic image processing apparatus according to claim 7, wherein the extraction means extracts the direct irradiation region using a boundary generated based on a pixel corresponding to the overshoot.
前記生成手段は、前記対象領域が肺野領域である場合に、前記アンダーシュートに相当する画素に基づいて境界を生成し、
前記抽出手段は、前記アンダーシュートに相当する画素に基づいて生成された境界を用いて前記肺野領域を抽出することを特徴とする請求項7または8に記載の放射線画像処理装置。
The generation means generates a boundary based on the pixel corresponding to the undershoot when the target region is the lung field region.
The radiographic image processing apparatus according to claim 7, wherein the extraction means extracts the lung field region using a boundary generated based on a pixel corresponding to the undershoot.
前記抽出手段は、前記画像処理手段によって施される画像処理の種類に基づいてオーバーシュートに相当する画素およびアンダーシュートに相当する画素のいずれに基づいて前記対象領域の境界を生成するかを選択し、前記対象領域を抽出することを特徴とする請求項5に記載の放射線画像処理装置。 The extraction means selects whether to generate the boundary of the target area based on whether the pixel corresponding to the overshoot or the pixel corresponding to the undershoot is generated based on the type of image processing performed by the image processing means. The radiographic image processing apparatus according to claim 5, wherein the target area is extracted. 前記抽出手段は、閾値処理によって第1の境界を取得し、前記第1の境界の少なくとも一部の形状に基づく動的輪郭モデルにより補正された第2の境界から前記対象領域を抽出することを特徴とする請求項1乃至11のいずれか1項に記載の放射線画像処理装置。 The extraction means obtains the first boundary by threshold processing, and extracts the target area from the second boundary corrected by the dynamic contour model based on the shape of at least a part of the first boundary. The radiographic image processing apparatus according to any one of claims 1 to 11. 前記抽出手段は、機械学習を用いて生成した学習モデルを用いて第1の境界を推定し、前記第1の境界の少なくとも一部の形状に基づく動的輪郭モデルにより補正された第2の境界から前記対象領域を抽出することを特徴とする請求項1乃至11のいずれか1項に記載の放射線画像処理装置。 The extraction means estimates the first boundary using a learning model generated using machine learning, and the second boundary corrected by a dynamic contour model based on the shape of at least a part of the first boundary. The radiographic image processing apparatus according to any one of claims 1 to 11, wherein the target region is extracted from the subject region. 前記抽出手段は、前記第1の境界が推定された放射線画像に拡大処理を施し、前記拡大処理を施された放射線画像における前記第1の境界の少なくとも一部の形状に基づく動的輪郭モデルにより補正された第2の境界から前記対象領域を抽出することを特徴とする請求項13に記載の放射線画像処理装置。 The extraction means performs an enlargement process on the radiographic image in which the first boundary is estimated, and uses a dynamic contour model based on the shape of at least a part of the first boundary in the magnified radiation image. The radiographic image processing apparatus according to claim 13, wherein the target region is extracted from the corrected second boundary. 前記抽出手段は、前記オーバーシュートに相当する画素または前記アンダーシュートに相当する画素において最小となるエネルギー関数を含む前記動的輪郭モデルにより補正された前記第2の境界から前記対象領域を抽出することを特徴とする請求項12乃至14のいずれか1項に記載の放射線画像処理装置。 The extraction means extracts the target region from the second boundary corrected by the dynamic contour model including the minimum energy function in the pixel corresponding to the overshoot or the pixel corresponding to the undershoot. The radiographic image processing apparatus according to any one of claims 12 to 14. 前記放射線画像を所定の解像度に変換する解像度変換手段をさらに備え、
前記生成手段は、解像度が変換された放射線画像から前記対象領域の境界を生成し、
前記画像処理手段は、前記解像度が変換された放射線画像に対して画像処理を行うことを特徴とする請求項4に記載の放射線画像処理装置。
Further provided with a resolution conversion means for converting the radiographic image to a predetermined resolution,
The generation means generates the boundary of the target area from the radiographic image whose resolution has been converted.
The radiation image processing apparatus according to claim 4, wherein the image processing means performs image processing on a radiation image whose resolution has been converted.
放射線画像に対してエッジ強調処理を施し、対象領域の境界を生成する生成工程と、
前記生成された境界を用いて前記対象領域を抽出する抽出工程と、
を備え、
前記生成工程は、前記放射線画像における、前記エッジ強調処理により生じるオーバーシュートに相当する画素およびアンダーシュートに相当する画素のいずれかに基づいて前記対象領域の境界を生成することを特徴とする放射線画像処理方法。
A generation process that applies edge enhancement processing to a radiographic image to generate a boundary of the target area,
An extraction step of extracting the target area using the generated boundary, and
Equipped with
The generation step is characterized in that a boundary of the target region is generated based on either a pixel corresponding to an overshoot or a pixel corresponding to an undershoot generated by the edge enhancement process in the radiation image. Processing method.
請求項1乃至16の何れか1項に記載の放射線画像処理装置の各手段としてコンピュータを機能させることを特徴とするプログラム。 A program characterized in that a computer functions as each means of the radiographic image processing apparatus according to any one of claims 1 to 16.
JP2020208358A 2020-12-16 2020-12-16 Radiation image processing device, radiation image processing method, and program Pending JP2022095182A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020208358A JP2022095182A (en) 2020-12-16 2020-12-16 Radiation image processing device, radiation image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020208358A JP2022095182A (en) 2020-12-16 2020-12-16 Radiation image processing device, radiation image processing method, and program

Publications (1)

Publication Number Publication Date
JP2022095182A true JP2022095182A (en) 2022-06-28

Family

ID=82163220

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020208358A Pending JP2022095182A (en) 2020-12-16 2020-12-16 Radiation image processing device, radiation image processing method, and program

Country Status (1)

Country Link
JP (1) JP2022095182A (en)

Similar Documents

Publication Publication Date Title
JP7134017B2 (en) Image processing device, image processing method, and program
US9002134B2 (en) Multi-scale image normalization and enhancement
JP5828649B2 (en) Image processing apparatus, image processing method, and computer program
CN111062947B (en) X-ray chest radiography focus positioning method and system based on deep learning
Bhairannawar Efficient medical image enhancement technique using transform HSV space and adaptive histogram equalization
JP2020014799A (en) X-ray image object recognition system
CN111166362B (en) Medical image display method and device, storage medium and electronic equipment
WO2020238817A1 (en) Systems and methods for processing x-ray images
JP4416823B2 (en) Image processing apparatus, image processing method, and computer program
US7680352B2 (en) Processing method, image processing system and computer program
EP3665643B1 (en) X-ray image processing method and system and computer storage medium
Johari et al. Metal artifact suppression in dental cone beam computed tomography images using image processing techniques
JP2022095182A (en) Radiation image processing device, radiation image processing method, and program
JP7418171B2 (en) Image processing device, radiography system, image processing method and program
Noviana et al. Axial segmentation of lungs CT scan images using canny method and morphological operation
US20220245806A1 (en) Method for learning threshold value
US10475180B2 (en) Radiation-image processing device and method
EP3935605A1 (en) Deep reinforcement learning for computer assisted reading and analysis
JP7277536B2 (en) Image processing device, image processing method, and program
Porto et al. Improving interpretability of 2-d ultrasound of the lumbar spine
JP7454456B2 (en) Image processing device, image processing method, and program
US11430126B2 (en) Method and image processing apparatus for the segmentation of image data and computer program product
JP6120913B2 (en) Image processing apparatus, image processing method, and computer program
JP2006181149A (en) Radiograph processing apparatus and method, program and computer readable medium
Romanowski et al. Improved X-ray Edge Detection Based on Background Extraction Algorithm

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210108

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213