JP7129754B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP7129754B2
JP7129754B2 JP2016229215A JP2016229215A JP7129754B2 JP 7129754 B2 JP7129754 B2 JP 7129754B2 JP 2016229215 A JP2016229215 A JP 2016229215A JP 2016229215 A JP2016229215 A JP 2016229215A JP 7129754 B2 JP7129754 B2 JP 7129754B2
Authority
JP
Japan
Prior art keywords
attribute
image
information
attribute information
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016229215A
Other languages
Japanese (ja)
Other versions
JP2018082996A5 (en
JP2018082996A (en
Inventor
和泉 小山
Original Assignee
医療法人社団皓有会
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 医療法人社団皓有会 filed Critical 医療法人社団皓有会
Priority to JP2016229215A priority Critical patent/JP7129754B2/en
Publication of JP2018082996A publication Critical patent/JP2018082996A/en
Publication of JP2018082996A5 publication Critical patent/JP2018082996A5/ja
Application granted granted Critical
Publication of JP7129754B2 publication Critical patent/JP7129754B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)

Description

本発明は、CT画像などの医用画像を処理する画像処理装置に関する。 The present invention relates to an image processing apparatus for processing medical images such as CT images.

従来より、ユーザの入力に応じて3次元画像内における所定の位置(座標値)を指定し、その座標値を含む領域を示す指示領域として、指示領域を覆い隠す遮蔽領域の表示を薄くする画像処理を行うことで、3次元画像の全体像と一部の内部構造とを同時に把握できるようにした画像処理装置が知られている(例えば特許文献1参照)。この特許文献1記載の装置では、ユーザがモニタ上の3次元画像を見ながら所定の位置を指定すると、ユーザが観測したいと考えられる領域が推定され、その領域が全体像から露出して表示される。 Conventionally, a predetermined position (coordinate values) in a three-dimensional image is specified in accordance with user input, and an image that dims the display of a shielding area that covers the specified area as an indication area that indicates an area that includes the coordinate values. There is known an image processing apparatus capable of simultaneously grasping the overall image and a part of the internal structure of a three-dimensional image by performing processing (see, for example, Patent Document 1). In the device described in Patent Document 1, when a user designates a predetermined position while viewing a three-dimensional image on a monitor, an area that the user wishes to observe is estimated, and that area is exposed from the overall image and displayed. be.

国際公開WO2013/021440号公報International Publication WO2013/021440

しかしながら、上記特許文献1記載の装置では、ユーザが3次元画像上で指示領域を観測するため、例えば、X線CT(Computerized Tomography)装置によって撮影された2次元画像群の各2次元画像から、各部位あるいは各点が何の臓器に属すのかといった、臓器の属性情報を得ることはできない。 However, in the device described in Patent Document 1, since the user observes the designated region on the three-dimensional image, for example, from each two-dimensional image of a two-dimensional image group captured by an X-ray CT (Computerized Tomography) device, It is not possible to obtain organ attribute information such as which organ each part or each point belongs to.

本発明の一態様は、臓器をX線CT撮影して得られる複数枚の2次元画像を構成する画像データを処理する画像処理装置であって、複数枚の2次元画像は、それぞれ、複数枚の2次元画像上の1ピクセルに対応して分割された複数の領域からなり、画像データは、複数枚の2次元画像に順次付された識別番号と、複数枚の2次元画像上の複数の領域のそれぞれの座標情報および白から黒までの濃淡情報と、を含み、識別番号と座標情報と濃淡情報との対応関係と、臓器の形状データと、を記憶する記憶部と、記憶部によって記憶された識別番号と座標情報と濃淡情報と、臓器の形状データと、の比較結果に基づいて、領域の属性情報を決定する属性決定部と、属性決定部によって決定された属性情報を、領域に関連付ける属性付加部と、を備える。属性付加部は、2次元画像の解像度を所定解像度に変更し、属性決定部によって決定された属性情報を、所定解像度に応じて明部および暗部が所定の規則に従って配列される2次元コード記号に変換し、領域を、変換された2次元コード記号に置き換えた属性情報付き2次元画像を生成するとともに、明部の濃淡が白より濃く、かつ、暗部の濃淡が黒より淡く、かつ、2次元コード記号を構成するすべての明部および暗部の濃淡の平均値が領域の全体の濃淡と一致するように、明部および暗部の濃淡を調整する。
One aspect of the present invention is an image processing device that processes image data constituting a plurality of two-dimensional images obtained by X-ray CT imaging of an organ, wherein each of the plurality of two-dimensional images is a plurality of The image data consists of a plurality of areas divided corresponding to one pixel on the two-dimensional image, and the image data consists of identification numbers sequentially attached to the plurality of two-dimensional images, and a plurality of regions on the two-dimensional images. a storage unit for storing each region's coordinate information and gradation information from white to black, the corresponding relationship between the identification number, the coordinate information and the gradation information, and the shape data of the organ, stored by the storage unit an attribute determination unit that determines attribute information of a region based on a comparison result of the identification number, coordinate information, grayscale information, and organ shape data; and an attribute addition unit associated with . The attribute addition unit changes the resolution of the two-dimensional image to a predetermined resolution, and converts the attribute information determined by the attribute determination unit into a two-dimensional code symbol in which bright portions and dark portions are arranged according to a predetermined rule according to the predetermined resolution . A two-dimensional image with attribute information is generated by replacing the area with the converted two-dimensional code symbol , and the light and dark areas are darker than white and the dark areas are lighter than black. Adjust the shading of the bright and dark areas so that the average value of the shading of all the bright and dark areas that make up the chord symbol matches the overall shading of the region.

本発明によれば、画像データに基づいて得られる臓器の属性情報を、画像データに付加するように構成したので、2次元画像を、臓器の属性情報を有する2次元画像に変換することができる。 According to the present invention, organ attribute information obtained based on image data is added to the image data, so that a two-dimensional image can be converted into a two-dimensional image having organ attribute information. .

本発明の実施形態に係る画像処理装置の全体構成を示す概略図。1 is a schematic diagram showing the overall configuration of an image processing apparatus according to an embodiment of the present invention; FIG. 図1の画像処理装置の制御構成を示すブロック図。2 is a block diagram showing the control configuration of the image processing apparatus in FIG. 1; FIG. 図2の属性決定部と属性付加部とによる属性情報の決定と付加の説明図。FIG. 3 is an explanatory diagram of determination and addition of attribute information by an attribute determining unit and an attribute adding unit shown in FIG. 2; 属性情報を付加する前の画像データの説明図。FIG. 4 is an explanatory diagram of image data before attribute information is added; 属性情報を付加した後の画像データの説明図。FIG. 4 is an explanatory diagram of image data after adding attribute information; 図2の属性付加部による属性情報の符号化の説明図。Explanatory drawing of encoding of attribute information by the attribute addition part of FIG. 濃淡情報と図1の表示部の明るさとの関係を示す図。FIG. 2 is a diagram showing the relationship between gradation information and the brightness of the display section in FIG. 1; 属性情報を付加する前後のピクセルの説明図。Explanatory drawing of the pixel before and after adding attribute information. 図2に示す処理部で実行される処理の一例を示すフローチャート。FIG. 3 is a flowchart showing an example of processing executed by a processing unit shown in FIG. 2; FIG. 図2の処理部の変形例の制御構成を示すブロック図。FIG. 3 is a block diagram showing a control configuration of a modified example of the processing unit in FIG. 2; 図9に示す処理部の変形例で実行される処理の一例を示すフローチャート。FIG. 10 is a flowchart showing an example of processing executed by a modification of the processing unit shown in FIG. 9; FIG. 図4Bの属性情報を付加した後の画像データの変形例を示す説明図。FIG. 4C is an explanatory diagram showing a modification of the image data after the attribute information in FIG. 4B is added;

以下、図1~図10を参照して本発明の実施形態について説明する。図1は、本発明の実施形態に係る画像処理装置(以下、装置という)10の概略構成を示す図である。装置10は、CPU(処理部)12a、ROM,RAM(メモリ)12b、その他の周辺回路などを有する演算処理装置を含んで構成されるコンピュータ12を有する。装置10には、X線CT装置20が接続される。 An embodiment of the present invention will be described below with reference to FIGS. 1 to 10. FIG. FIG. 1 is a diagram showing a schematic configuration of an image processing device (hereinafter referred to as device) 10 according to an embodiment of the present invention. The apparatus 10 has a computer 12 including an arithmetic processing unit having a CPU (processing unit) 12a, ROM, RAM (memory) 12b, and other peripheral circuits. An X-ray CT device 20 is connected to the device 10 .

図2は、装置10の制御構成を示すブロック図である。装置10には、X線CT装置20から、X線CT撮影して得られた一連のCTスライス画像(画像データ)22が入力される。装置10は、画像データ22に基づき所定の処理を実行し、CTスライス画像22の各領域Pが何の臓器に属すかといった臓器の属性情報を決定して画像データ(CTスライス画像)22に付加し、属性情報が付加された属性情報付きCTスライス画像24をコンピュータ12の表示部12cに出力する。装置10は、コンピュータ12の機能的構成として、記憶部13と、属性決定部14と、属性付加部16とを有する。 FIG. 2 is a block diagram showing the control configuration of the device 10. As shown in FIG. A series of CT slice images (image data) 22 obtained by X-ray CT imaging are input from the X-ray CT apparatus 20 to the apparatus 10 . The apparatus 10 performs predetermined processing based on the image data 22, determines organ attribute information such as which organ each region P of the CT slice image 22 belongs to, and adds it to the image data (CT slice image) 22. Then, the CT slice image 24 with attribute information to which the attribute information is added is output to the display section 12c of the computer 12. FIG. The device 10 has a storage unit 13 , an attribute determination unit 14 and an attribute addition unit 16 as functional components of the computer 12 .

記憶部13は、X線CT装置20から入力された画像データ22を記憶する。記憶部13は、例えば、コンピュータ12のメモリ12bによって構成される。記憶部13は、必ずしもコンピュータ12の一部である必要はなく、例えば、外付けのハードディスクやフラッシュメモリなどでもよいし、ネットワーク上の別のコンピュータのメモリなどでもよい。 The storage unit 13 stores image data 22 input from the X-ray CT apparatus 20 . The storage unit 13 is configured by the memory 12b of the computer 12, for example. The storage unit 13 is not necessarily a part of the computer 12, and may be, for example, an external hard disk or flash memory, or may be the memory of another computer on the network.

図3は、属性決定部14と属性付加部16とによる属性情報の決定と付加の説明図である。属性決定部14と属性付加部16とは、例えば、コンピュータ12の処理部12aによって構成される。属性決定部14は、図3左上側に示すような、X線CT装置20から入力されて記憶部13によって記憶された画像データ22を読み込み、図3右側に示すような3次元画像として認識する。なお、図3には簡略化して示すが、CTスライス画像22,24および3次元画像は、グレースケールによる濃淡表示画像である。属性決定部14は、認識した3次元画像と、記憶部13に予め格納された臓器の形状パターン情報とに基づいて、パターン解析により、3次元画像あるいはCTスライス画像22の各領域Pが何の臓器に属するかを決定する。すなわち、属性決定部14は、パターン解析により、3次元画像あるいはCTスライス画像22の各領域Pが何の臓器に属するかといった臓器の情報(属性情報)ATRを決定する。 FIG. 3 is an explanatory diagram of determination and addition of attribute information by the attribute determination unit 14 and the attribute addition unit 16. As shown in FIG. The attribute determining unit 14 and the attribute adding unit 16 are configured by the processing unit 12a of the computer 12, for example. The attribute determination unit 14 reads the image data 22 input from the X-ray CT apparatus 20 and stored in the storage unit 13 as shown in the upper left part of FIG. 3, and recognizes it as a three-dimensional image as shown in the right part of FIG. . It should be noted that the CT slice images 22 and 24 and the three-dimensional image are grayscale grayscale images, although they are simply shown in FIG. Based on the recognized three-dimensional image and the organ shape pattern information stored in advance in the storage unit 13, the attribute determination unit 14 analyzes the pattern to determine what each region P of the three-dimensional image or CT slice image 22 is. Determine which organ belongs. In other words, the attribute determining unit 14 determines organ information (attribute information) ATR to which organ each region P of the three-dimensional image or the CT slice image 22 belongs by pattern analysis.

パターン解析に関する技術として、3次元濃淡画像から線図形を抽出する手順を自動生成する3次元画像処理エキスパートシステム3D-IMPRESSが知られている。このシステムでは、3次元画像とそこから抽出したい図形(サンプル図形)の組を与えると、その図形を抽出するための3次元画像処理手順を自動生成する。詳細な説明は当業者にとって周知であるため省略する。 A three-dimensional image processing expert system 3D-IMPRESS, which automatically generates a procedure for extracting a line figure from a three-dimensional grayscale image, is known as a technique related to pattern analysis. In this system, given a set of a three-dimensional image and a figure (sample figure) to be extracted therefrom, a three-dimensional image processing procedure for extracting the figure is automatically generated. A detailed description is omitted because it is well known to those skilled in the art.

図4A,4Bは、それぞれ属性情報ATRを付加する前後の画像データ22,24の説明図である。属性情報ATRを付加する前の画像データ22(図3左上側)には、図4Aに示すように、一連のCTスライス画像22に順次付された識別番号NUMと、各CTスライス画像22の各領域Pの座標情報(x,y)と、濃淡情報CNTとが含まれる。領域Pは、例えば、各CTスライス画像22における1ピクセル、あるいは、3次元画像における1ボクセルに対応する。例えば、512×512ピクセルの各CTスライス画像22は、座標情報(1,1)~(512,512)のピクセル(領域P)で構成される。また、例えば、全体のスライス枚数が30枚の3次元CT画像は、(1,1,1)~(512,512,30)のボクセル(領域P)で構成される。領域Pは、必ずしも1ピクセルあるいは1ボクセルに対応させる必要はなく、例えば、2×2ピクセルあるいは2×2×2ボクセルに対応させてもよい。 4A and 4B are explanatory diagrams of image data 22 and 24 before and after addition of attribute information ATR, respectively. Image data 22 (upper left in FIG. 3) before attribute information ATR is added includes an identification number NUM sequentially assigned to a series of CT slice images 22 and each Coordinate information (x, y) of the area P and grayscale information CNT are included. Region P corresponds to, for example, one pixel in each CT slice image 22 or one voxel in a three-dimensional image. For example, each CT slice image 22 of 512×512 pixels is composed of pixels (area P) of coordinate information (1, 1) to (512, 512). Also, for example, a three-dimensional CT image with 30 total slices is composed of voxels (area P) of (1,1,1) to (512,512,30). The region P does not necessarily correspond to 1 pixel or 1 voxel, and may correspond to 2×2 pixels or 2×2×2 voxels, for example.

濃淡情報CNTは、各領域Pの濃淡に対応し、例えば、256諧調のグレースケールで表される。画像データ22は、これらの値の集合であり、例えば、CSVデータなどのテキストデータとして、記憶部13によって記憶され、属性決定部14、属性付加部16によって処理される。 The gradation information CNT corresponds to the gradation of each area P, and is represented by, for example, a 256-gradation gray scale. The image data 22 is a set of these values, and is stored by the storage unit 13 as text data such as CSV data, for example, and processed by the attribute determination unit 14 and the attribute addition unit 16 .

属性付加部16は、図4Bに示すように、属性決定部14によって決定された属性情報ATRを、領域Pに関連付ける。例えば、図3に示す領域Pについて考える。領域Pの含まれる2次元画像の識別番号NUMを20、領域Pの座標情報(x,y)を(100,200)、濃淡情報CNTを128とする。属性決定部14によって、領域Pを含む画像データ22のパターン解析がなされ、領域Pは、例えば、肝臓(liver)に属するという属性情報ATRが決定される。属性付加部16は、図4Bに示すように、領域Pに対応する識別番号、座標情報に、属性情報ATRとして、臓器名称の“liver”を関連付ける。換言すれば、属性付加部16は、画像データ22に、属性情報ATRを付加する。 The attribute addition unit 16 associates the attribute information ATR determined by the attribute determination unit 14 with the region P, as shown in FIG. 4B. For example, consider region P shown in FIG. Assume that the identification number NUM of the two-dimensional image containing the area P is 20, the coordinate information (x, y) of the area P is (100, 200), and the grayscale information CNT is 128. The attribute determination unit 14 performs pattern analysis of the image data 22 including the area P, and determines attribute information ATR that the area P belongs to, for example, liver. As shown in FIG. 4B, the attribute addition unit 16 associates the identification number and the coordinate information corresponding to the region P with the organ name "liver" as the attribute information ATR. In other words, the attribute adding section 16 adds attribute information ATR to the image data 22 .

図5は、属性付加部16による属性情報ATRの符号化の説明図である。図5は、属性情報ATRを付加した後の属性情報付きCTスライス画像24(図3左下側)の領域P付近の拡大図である。属性付加部16は、図4A,4Bに示すように、テキストデータとして属性情報ATRの関連付けを行なった後、各領域Pに対応する属性情報ATRを含むデータを符号化し、CTスライス画像22の各領域Pに対応するピクセルと置き換える。符号化を行うデータ範囲は、属性情報ATRのみでもよいが、識別番号や座標情報を含めてもよい。 FIG. 5 is an explanatory diagram of encoding of the attribute information ATR by the attribute adding unit 16. As shown in FIG. FIG. 5 is an enlarged view of the vicinity of the area P of the CT slice image 24 with attribute information (lower left side in FIG. 3) after adding the attribute information ATR. As shown in FIGS. 4A and 4B, after associating the attribute information ATR as text data, the attribute addition unit 16 encodes the data including the attribute information ATR corresponding to each region P, and converts each of the CT slice images 22 into Replace with pixels corresponding to region P. The data range to be encoded may include only the attribute information ATR, but may also include identification numbers and coordinate information.

具体的には、属性付加部16は、属性情報ATRを含むデータを、例えば、DataMatrix(登録商標)やQRコード(登録商標)などの2次元コード記号(2次元画像)に変換する。次いで、属性付加部16は、CTスライス画像22の各領域Pを、2次元コード記号に置き換えて、属性情報付きCTスライス画像24(図3左下側)を生成する。換言すれば、属性付加部16は、CTスライス画像22を、臓器の属性情報ATRを有する属性情報付きCTスライス画像24に変換することができる。なお、例えば、16×16の2次元コードに変換する場合は、元の画像データ22の解像度を16×16倍に変更しておく。すなわち、領域Pを、元の画像データ22の1ピクセルから、属性情報付きCTスライス画像24の16×16ピクセル(以下、セルと呼ぶ)に分割する。この際、識別番号NUM、座標情報(x,y)、濃淡情報CNTはそのまま維持される。 Specifically, the attribute adding unit 16 converts the data including the attribute information ATR into a two-dimensional code symbol (two-dimensional image) such as DataMatrix (registered trademark) or QR code (registered trademark). Next, the attribute addition unit 16 replaces each region P of the CT slice image 22 with a two-dimensional code symbol to generate a CT slice image 24 with attribute information (lower left side in FIG. 3). In other words, the attribute addition unit 16 can convert the CT slice image 22 into a CT slice image 24 with attribute information having the attribute information ATR of the organ. For example, when converting to a 16×16 two-dimensional code, the resolution of the original image data 22 is changed to 16×16 times. That is, the region P is divided from 1 pixel of the original image data 22 into 16×16 pixels (hereinafter referred to as cells) of the CT slice image 24 with attribute information. At this time, the identification number NUM, coordinate information (x, y), and gradation information CNT are maintained as they are.

属性付加部16は、属性情報ATRを含むデータを符号化する際、通常の符号化処理に加えて、元の領域Pの濃淡情報CNTを維持するための処理、換言すれば、表示部12cにおける元の領域Pの明るさBRTを維持するための処理を行う。 When encoding the data including the attribute information ATR, the attribute addition unit 16 performs processing for maintaining the grayscale information CNT of the original area P in addition to normal encoding processing. A process for maintaining the original brightness BRT of the area P is performed.

図6は、濃淡情報CNTと表示部12cの明るさBRTとの関係を示す図、図7は、属性情報ATRを付加する前後の領域Pの説明図である。なお、図7では、一例として、1ピクセル(PB,PA)を2×2セル(LC,DC)に分割している。グレースケールの濃淡情報CNTと、表示部12cの明るさBRTとの関係は、ガンマ値γ(例えば、γ=2.2)を用いて次式(i)で表される。
BRT=CNT^γ ・・・(i)
FIG. 6 is a diagram showing the relationship between the grayscale information CNT and the brightness BRT of the display section 12c, and FIG. 7 is an explanatory diagram of the area P before and after adding the attribute information ATR. In FIG. 7, one pixel (PB, PA) is divided into 2×2 cells (LC, DC) as an example. The relationship between the grayscale gradation information CNT and the brightness BRT of the display section 12c is expressed by the following equation (i) using a gamma value γ (eg γ=2.2).
BRT=CNT^γ (i)

属性付加部16は、属性情報ATR付加前の領域PBの明るさBRTと、属性情報ATR付加後の領域PA(2次元コード記号)全体の明るさBRTの平均値とが同じになるように、2次元コード記号における明部LCおよび暗部DCの濃淡情報CNTを調整する。すなわち、属性情報ATR付加前の領域PBの明るさBRTと、属性情報ATR付加後の領域PA、すなわち、2次元コード記号の各セル(明部LC×2セル、暗部DC×2セル)の明るさBRTの平均値とが同じになるようにする。例えば、属性情報ATR付加前の領域PBの濃淡情報CNTが128であれば、式(i)に基づいて、例えば、明部LCの濃淡情報CNTは150、暗部DCの濃淡情報CNTは100のように調整する。 The attribute adding unit 16 adjusts the average value of the brightness BRT of the area PB before adding the attribute information ATR to the average value of the brightness BRT of the entire area PA (two-dimensional code symbol) after adding the attribute information ATR. The grayscale information CNT of the light portion LC and the dark portion DC in the two-dimensional code symbol is adjusted. That is, the brightness BRT of the area PB before addition of the attribute information ATR and the area PA after addition of the attribute information ATR, that is, the brightness of each cell of the two-dimensional code symbol (bright area LC×2 cells, dark area DC×2 cells) be the same as the average value of the BRT. For example, if the grayscale information CNT of the area PB before the addition of the attribute information ATR is 128, the grayscale information CNT of the light area LC is 150, and the grayscale information CNT of the dark area DC is 100 based on the formula (i). adjust to

CTスライス画像22(2次元画像)における元の領域Pを、2次元コード記号に置き換える、あるいは、CTスライス画像22を、臓器の属性情報ATRを有する属性情報付きCTスライス画像24に変換することで、2次元画像である属性情報付きCTスライス画像24から臓器の属性情報ATRを得ることができる。しかしながら、属性情報ATR付加前後のCTスライス画像22,24に見え方の違いが生じた場合には、その画像を診断に用いたユーザ(医師など)が誤診をするおそれがある。元の画像の最小単位であるピクセルに対応する領域Pの濃淡情報CNTを維持することで、属性情報ATRを付加する前後のCTスライス画像22,24に、見え方の違いが生じることを防ぐことができる。すなわち、ユーザがCTスライス画像22,24を拡大するときの倍率は診断の内容によって異なるが、実際の診断に用いられるような倍率の範囲内では、ユーザが1ピクセルに相当する大きさの2次元コード記号を視認することは難しいため、ユーザに違和感を与えることがない。 By replacing the original region P in the CT slice image 22 (two-dimensional image) with a two-dimensional code symbol, or by converting the CT slice image 22 into a CT slice image 24 with attribute information having organ attribute information ATR, , the attribute information ATR of the organ can be obtained from the CT slice image 24 with attribute information, which is a two-dimensional image. However, if there is a difference in appearance between the CT slice images 22 and 24 before and after adding the attribute information ATR, a user (such as a doctor) who uses the images for diagnosis may misdiagnose. To prevent a difference in appearance between CT slice images 22 and 24 before and after adding the attribute information ATR by maintaining the grayscale information CNT of the area P corresponding to the pixel which is the minimum unit of the original image. can be done. That is, the magnification when the user magnifies the CT slice images 22 and 24 varies depending on the content of the diagnosis. Since it is difficult to visually recognize chord symbols, the user does not feel uncomfortable.

また、領域Pの濃淡情報CNTを維持したとしても、明部LCおよび暗部DCの濃淡情報CNTとして白(CNT=255)や黒(CNT=0)を用いた場合は、それを見たユーザが違和感を覚える可能性がある。このため、明部LCおよび暗部DCの濃淡情報CNTは、100~180程度とすることが望ましい。なお、画像処理装置10は、元の画像データをコピーしたデータを処理するため、元の画像データを損なうことがない。従って、ユーザは、必要に応じて元の画像データを使用して、あるいは、元の画像データと処理後の画像データとを使用して診断を行うこともできる。 Further, even if the grayscale information CNT of the region P is maintained, if white (CNT=255) or black (CNT=0) is used as the grayscale information CNT of the bright portion LC and the dark portion DC, the user who sees it may You may feel uncomfortable. For this reason, it is desirable that the grayscale information CNT of the light portion LC and the dark portion DC is about 100-180. Since the image processing apparatus 10 processes data obtained by copying the original image data, the original image data is not damaged. Therefore, the user can make a diagnosis using the original image data, or using the original image data and the processed image data, if desired.

なお、ユーザが属性情報付きCTスライス画像24から臓器の属性情報ATRを得るための具体的な手順としては、属性情報ATRを得たい領域Pを拡大表示して各種コード用のリーダで読み取るようにしてもよいが、同様の復号機能を備えた専用のソフトウェアを使用するようにしてもよい。 As a specific procedure for the user to obtain the attribute information ATR of the organ from the CT slice image 24 with attribute information, the area P for which the attribute information ATR is desired is displayed enlarged and read by a reader for various codes. Alternatively, dedicated software with a similar decoding function may be used.

図8は、画像処理装置10の処理部12aで実行される処理の一例を示すフローチャートである。まず、ステップS1で、X線CT装置20から入力されて記憶部13によって記憶された画像データ22を読み込む。次いで、ステップS2,S3で、属性決定部14での処理により、パターン解析による各臓器の属性情報ATRの決定を行う。 FIG. 8 is a flowchart showing an example of processing executed by the processing unit 12a of the image processing apparatus 10. As shown in FIG. First, in step S1, the image data 22 input from the X-ray CT apparatus 20 and stored in the storage unit 13 are read. Next, in steps S2 and S3, the attribute determination unit 14 determines attribute information ATR of each organ by pattern analysis.

次いで、ステップS4~S7で、属性付加部16での処理により、属性決定部14によって決定された属性情報ATRの画像データ22への関連付け、2次元データコード記号の生成、明部LCおよび暗部DCの濃淡情報CNTの調整、および、濃淡情報CNTが調整された2次元コード記号による領域Pの置換を行い、属性情報付きCTスライス画像24を生成する。次いで、ステップS8で、属性情報付きCTスライス画像24を表示部12cに出力する。 Next, in steps S4 to S7, the attribute information ATR determined by the attribute determination unit 14 is associated with the image data 22, the two-dimensional data code symbol is generated, the light area LC and the dark area DC are processed by the attribute addition unit 16. and the region P is replaced by the two-dimensional code symbol with the adjusted grayscale information CNT, thereby generating a CT slice image 24 with attribute information. Next, in step S8, the CT slice image 24 with attribute information is output to the display section 12c.

図9は、画像処理装置10の処理部12aの変形例の制御構成を示すブロック図、図10は、画像処理装置10の処理部12aの変形例で実行される処理の一例を示すフローチャートである。図9に示すように、装置10は、コンピュータ12の機能的構成として、上記した記憶部13、属性決定部14、属性付加部16に加えて、識別番号NUMと座標情報(x,y)と属性情報ATRとに基づいて超音波撮影のシミュレーション画像を生成する超音波画像生成部18を有するようにしてもよい。 FIG. 9 is a block diagram showing a control configuration of a modified example of the processing unit 12a of the image processing device 10, and FIG. . As shown in FIG. 9, the device 10 includes, as a functional configuration of the computer 12, the storage unit 13, the attribute determination unit 14, and the attribute addition unit 16, as well as the identification number NUM and the coordinate information (x, y). An ultrasonic image generation unit 18 may be provided for generating a simulation image of ultrasonic imaging based on the attribute information ATR.

この場合、属性情報ATRには、各臓器の名称に加えて、各臓器に対する超音波の透過率や反射率などの物理的特性を含める。そして、図10に示すように、ステップS10で、超音波画像生成部18での処理により、ユーザの入力に応じて超音波撮影をシミュレーションする視点を設定し、ステップS11で、属性情報付き画像データ24(例えば、CSVデータ)に基づいて、超音波画像を生成し、表示部12cに出力する。視点は、例えば、超音波測定装置のプローブを被験者に当てる位置および角度に相当する。 In this case, the attribute information ATR includes, in addition to the name of each organ, the physical characteristics of each organ, such as the transmittance and reflectance of ultrasonic waves. Then, as shown in FIG. 10, in step S10, the ultrasound image generation unit 18 performs processing to set a viewpoint for simulating ultrasound imaging according to user input, and in step S11, image data with attribute information is generated. 24 (for example, CSV data), an ultrasonic image is generated and output to the display unit 12c. The viewpoint corresponds to, for example, the position and angle at which the probe of the ultrasonic measurement device is applied to the subject.

なお、超音波画像を生成する目的に限れば、物理的特性は、少なくとも、超音波の透過率や反射率が変化する臓器と臓器の境界に当たる領域Pに付加すればよく、すべての領域Pに対して付加する必要はない。具体的には、パターン解析によって抽出された線図形が通過する領域Pのみに、物理的特性を含む属性情報ATRを付加すればよい。 As far as the purpose of generating an ultrasound image is concerned, the physical characteristics should be added at least to the area P corresponding to the boundary between organs where the transmittance and reflectance of ultrasound vary. No need to add to it. Specifically, the attribute information ATR including physical characteristics may be added only to the area P through which the line figure extracted by the pattern analysis passes.

CT画像などの2次元画像を処理して、診断用の3次元画像を再構成するソフトウェアとして、OsiriXが知られている。このソフトウェアでは、2次元CT画像に基づいて内視鏡画像を生成することができるが、2次元CT画像に基づいて超音波画像を生成することはできない。超音波の透過率や反射率は、体内の場所ごとに異なるため、これらの物理的特性を考慮しなければ超音波画像を算出することはできない。本願の画像処理装置10は、2次元画像データ群に、各座標における超音波の透過率や反射率などの物理的特性を含む属性情報ATRを付加するため、それに基づいて超音波画像を算出して生成することができる。 OsiriX is known as software for processing two-dimensional images such as CT images and reconstructing three-dimensional images for diagnosis. This software can generate an endoscopic image based on a two-dimensional CT image, but cannot generate an ultrasound image based on a two-dimensional CT image. Since the transmittance and reflectance of ultrasound vary from place to place in the body, an ultrasound image cannot be calculated without considering these physical characteristics. Since the image processing apparatus 10 of the present application adds attribute information ATR including physical characteristics such as ultrasonic transmittance and reflectance at each coordinate to a group of two-dimensional image data, an ultrasonic image is calculated based on the attribute information ATR. can be generated by

超音波画像に何の臓器が映っているかを的確に判断するには、ユーザの習熟が必要となるが、習熟には多くの画像を撮影、判断する経験が不可欠である。しかしながら、実際の患者などを被験者として撮影を行う場合には、被験者の身体的な負担を考慮しなければならないため、無制限に撮影を行うことは難しい。この点、属性情報付き画像データ24に基づく超音波撮影画像のシミュレーションであれば、そのような制限がないため、様々な臓器について、様々な視点からの、シミュレーション画像を生成することができる。 Accurate determination of which organs are shown in an ultrasound image requires the user to be proficient, and experience in photographing and judging many images is essential for proficiency. However, when imaging an actual patient or the like as a subject, the physical burden on the subject must be considered, so unlimited imaging is difficult. In this regard, simulation of ultrasonic images based on the image data 24 with attribute information does not have such limitations, and thus simulation images can be generated for various organs from various viewpoints.

本発明の実施形態によれば以下のような作用効果を奏することができる。
(1)画像処理装置(装置)10は、臓器をX線CT撮影して得られる複数枚の2次元画像(一連のCTスライス画像)22を構成する画像データ22を処理する画像処理装置であって、画像データ22は、複数枚の2次元画像に順次付された識別番号NUMと複数枚の2次元画像(CTスライス画像)22上の領域Pの座標情報(x,y)と濃淡情報CNTとを含み、識別番号NUMと座標情報(x,y)と濃淡情報CNTとの対応関係を記憶する記憶部13と、記憶部13によって記憶された識別番号NUMと座標情報(x,y)と濃淡情報CNTと、予め定められた臓器の形状データとの比較結果に基づいて領域Pの属性情報ATRを決定する属性決定部14と、属性決定部によって決定された属性情報ATRを、領域Pに関連付ける属性付加部16と、を備える(図2)。
According to the embodiment of the present invention, the following effects can be obtained.
(1) The image processing device (device) 10 is an image processing device that processes image data 22 forming a plurality of two-dimensional images (a series of CT slice images) 22 obtained by X-ray CT imaging of an organ. The image data 22 consists of identification numbers NUM sequentially attached to a plurality of two-dimensional images, coordinate information (x, y) of a region P on the plurality of two-dimensional images (CT slice images) 22, and grayscale information CNT. and a storage unit 13 for storing the correspondence relationship between the identification number NUM, the coordinate information (x, y), and the grayscale information CNT, and the identification number NUM and the coordinate information (x, y) stored by the storage unit 13. an attribute determination unit 14 for determining attribute information ATR of the region P based on the result of comparison between the gradation information CNT and predetermined organ shape data; and an associated attribute addition unit 16 (FIG. 2).

すなわち、画像データ22に基づいて得られる臓器の属性情報ATRを、画像データ22に付加するように構成したので、2次元CTスライス画像から、各部位あるいは各点が何の臓器に属すのかといった臓器の属性情報ATRを得ることができる。 That is, since the organ attribute information ATR obtained based on the image data 22 is added to the image data 22, it is possible to determine which organ each part or point belongs to from the two-dimensional CT slice image. attribute information ATR can be obtained.

(2)領域Pは、複数枚の2次元画像(CTスライス画像)22上の1ピクセルに対応する。このため、元の画像の最小単位であるピクセルに対応する領域Pの濃淡情報CNTを維持することで、属性情報ATRを付加する前後のCTスライス画像22,24に、見え方の違いが生じることを防ぐことができる。 (2) A region P corresponds to one pixel on a plurality of two-dimensional images (CT slice images) 22 . Therefore, by maintaining the gradation information CNT of the area P corresponding to the pixel, which is the minimum unit of the original image, the CT slice images 22 and 24 before and after adding the attribute information ATR have different appearances. can be prevented.

(3)属性付加部16は、属性決定部14によって決定された属性情報を、明部LCおよび暗部DCが所定の規則に従って配列されてなる2次元コード記号(一例として、QRコード(登録商標))に変換するとともに、領域の全体の濃淡に応じて、明部LCおよび暗部DCの濃淡を調整する。従って、属性情報ATR付加前後で2次元画像の濃淡情報CNTを維持することができ、属性情報ATRを付加する前後の2次元画像に見え方の違いが生じることを防ぐことができる。 (3) The attribute addition unit 16 converts the attribute information determined by the attribute determination unit 14 into a two-dimensional code symbol (for example, a QR code (registered trademark)) in which light areas LC and dark areas DC are arranged according to a predetermined rule. ), and adjusts the densities of the bright portion LC and the dark portion DC in accordance with the overall gradation of the area. Therefore, the gradation information CNT of the two-dimensional image can be maintained before and after adding the attribute information ATR, and it is possible to prevent the two-dimensional image from appearing differently before and after adding the attribute information ATR.

(4)属性付加部16は、2次元コード記号を構成するすべての明部LCおよび暗部DCの濃淡の平均値が、領域P全体の濃淡と一致するように、明部LCおよび暗部DCの濃淡を調整するため、属性情報ATRを付加する前後の2次元画像に見え方の違いが生じることを、より確実に防ぐことができる。 (4) The attribute addition unit 16 adds the gradation of the bright part LC and the dark part DC so that the average value of the gradation of all the bright part LC and the dark part DC that constitute the two-dimensional code symbol matches the gradation of the entire region P. is adjusted, it is possible to more reliably prevent a difference in the appearance of the two-dimensional image before and after adding the attribute information ATR.

-変形例-
本発明は、上記実施形態に限らず、種々の形態に変形することができる。図11は、図4Bの属性情報ATRを付加した後の画像データ24の変形例を示す説明図である。属性情報ATR、識別番号、座標情報など、より多くの情報を2次元コード記号に変換する場合、2次元コード記号のサイズ、すなわち、2次元コード記号のセル数が増大し、属性情報付きCTスライス画像24の解像度およびデータ容量が増大する。図11に示すように、変形例では、属性付加部16は、図4Bに示す属性情報ATRの関連付けを行なったテキストデータに対して、各領域Pに対応する連番SRをさらに付加する。属性付加部16によって属性情報ATRおよび連番SRが付加されたテキストデータは、データベースDBとして記憶部13によって記憶される。
-Modification-
The present invention is not limited to the above embodiments, and can be modified in various forms. FIG. 11 is an explanatory diagram showing a modified example of the image data 24 to which the attribute information ATR of FIG. 4B has been added. When converting more information such as attribute information ATR, identification number, and coordinate information into a two-dimensional code symbol, the size of the two-dimensional code symbol, that is, the number of cells of the two-dimensional code symbol increases, and the CT slice with attribute information increases. The resolution and data capacity of the image 24 are increased. As shown in FIG. 11, in the modified example, the attribute addition unit 16 further adds a serial number SR corresponding to each region P to the text data associated with the attribute information ATR shown in FIG. 4B. The text data to which the attribute information ATR and the serial number SR are added by the attribute addition unit 16 are stored by the storage unit 13 as the database DB.

さらに、変形例では、属性付加部16が符号化を行うデータ範囲を連番SRのみとし、連番SRを利用して属性情報ATRを含むデータベースDBを参照するように構成する。変形例では、属性付加部16が符号化を行うデータ範囲を連番SRのみとすることで、2次元コード記号のサイズを小さくすることができ、属性情報付きCTスライス画像24のデータ容量を低減することができる。 Furthermore, in the modified example, the data range to be encoded by the attribute adding unit 16 is limited to only the serial number SR, and the serial number SR is used to refer to the database DB containing the attribute information ATR. In the modification, the size of the two-dimensional code symbol can be reduced and the data volume of the CT slice image 24 with attribute information can be reduced by setting the data range to be encoded by the attribute addition unit 16 to only the serial number SR. can do.

上記実施形態では、図7に示すように、濃淡情報CNT(階調)の異なる明部LCおよび暗部DCからなる2次元コード記号を例示したが、2次元コード記号を構成するセルは、明部LCおよび暗部DCの2階調に限らない。2次元コード記号を構成するセルとして3つ以上の異なる濃淡情報CNTのセルを使用する、多階調の2次元コードを用いてもよい。多階調の2次元コードを用いる場合は、同じ数のセルで表現できる情報量が階調数に応じて整数倍されるため、必要セル数を低減して属性情報付きCTスライス画像24の解像度およびデータ容量を低減することができる。 In the above embodiment, as shown in FIG. 7, a two-dimensional code symbol composed of a bright portion LC and a dark portion DC having different density information CNT (gradation) is exemplified. It is not limited to two gradations of LC and dark DC. A multi-gradation two-dimensional code using three or more different density information CNT cells as cells constituting a two-dimensional code symbol may be used. When a multi-tone two-dimensional code is used, the amount of information that can be expressed with the same number of cells is multiplied by an integer according to the number of gradations. and data capacity can be reduced.

上記実施形態では、装置10にX線CT装置20が接続されるようにしたが、X線CT装置20によって撮影される2次元画像データ郡を入力することができれば、X線CT装置20は直接接続されなくてもよい。一連のCTスライス画像をスキャンして、2次元画像データ郡を生成するようにしてもよい。 In the above embodiment, the X-ray CT apparatus 20 is connected to the apparatus 10, but if the two-dimensional image data group captured by the X-ray CT apparatus 20 can be input, the X-ray CT apparatus 20 can directly It does not have to be connected. A series of CT slice images may be scanned to generate a two-dimensional image data set.

上記実施形態では、属性情報ATR付加後の2次元画像あるいは超音波画像を、コンピュータ12の表示部12cに出力して表示するようにしたが、画像データとして別の表示機器に出力または送信するようにしてもよい。 In the above-described embodiment, the two-dimensional image or ultrasonic image to which the attribute information ATR has been added is output to the display unit 12c of the computer 12 and displayed. can be

本発明の装置10は、上記で説明した用途以外にも、MRI(Magnetic Resonance Imaging)装置によって撮影された画像の歪みの補正に使用することができる。具体的には、同一の被験者に対して、MRI撮影とCT撮影とを行い、CTスライス画像を装置10によって処理して得られた座標情報と臓器の属性情報ATRとに基づいて、MRI画像における歪みの補正を行うことができる。 In addition to the uses described above, the apparatus 10 of the present invention can be used to correct distortion of images taken by an MRI (Magnetic Resonance Imaging) apparatus. Specifically, MRI imaging and CT imaging are performed on the same subject, and based on the coordinate information and organ attribute information ATR obtained by processing the CT slice image with the apparatus 10, in the MRI image Distortion correction can be performed.

以上の説明はあくまで一例であり、本発明の特徴を損なわない限り、上述した実施形態および変形例により本発明が限定されるものではない。上記実施形態および変形例の構成要素には、発明の同一性を維持しつつ置換可能かつ置換自明なものが含まれる。すなわち、本発明の技術的思想の範囲内で考えられる他の形態についても、本発明の範囲内に含まれる。また、上記実施形態と変形例の1つまたは複数を任意に組み合わせることも可能である。 The above description is merely an example, and the present invention is not limited by the above-described embodiments and modifications as long as the features of the present invention are not impaired. Components of the above-described embodiments and modifications include those that can be replaced and those that are obvious to replace while maintaining the identity of the invention. That is, other forms conceivable within the scope of the technical idea of the present invention are also included within the scope of the present invention. Moreover, it is also possible to arbitrarily combine one or more of the above embodiments and modifications.

10 画像処理装置(装置)、12 コンピュータ、12a 処理部、12b メモリ、12c 表示部、13 記憶部、14 属性決定部、16 属性付加部、18 超音波画像生成部、20 X線CT装置、22 CTスライス画像(画像データ)、24 属性情報付きCTスライス画像(画像データ) 10 image processing device (apparatus), 12 computer, 12a processing unit, 12b memory, 12c display unit, 13 storage unit, 14 attribute determination unit, 16 attribute addition unit, 18 ultrasonic image generation unit, 20 X-ray CT apparatus, 22 CT slice image (image data), 24 CT slice image with attribute information (image data)

Claims (1)

臓器をX線CT撮影して得られる複数枚の2次元画像を構成する画像データを処理する画像処理装置であって、
前記複数枚の2次元画像は、それぞれ、前記複数枚の2次元画像上の1ピクセルに対応して分割された複数の領域からなり、
前記画像データは、前記複数枚の2次元画像に順次付された識別番号と、前記複数枚の2次元画像上の前記複数の領域のそれぞれの座標情報および白から黒までの濃淡情報と、を含み、
前記識別番号と前記座標情報と前記濃淡情報との対応関係と、前記臓器の形状データと、を記憶する記憶部と、
前記記憶部によって記憶された前記識別番号と前記座標情報と前記濃淡情報と、前記臓器の形状データと、の比較結果に基づいて、前記領域の属性情報を決定する属性決定部と、
前記属性決定部によって決定された前記属性情報を、前記領域に関連付ける属性付加部と、を備え、
前記属性付加部は、前記2次元画像の解像度を所定解像度に変更し、前記属性決定部によって決定された前記属性情報を、前記所定解像度に応じて明部および暗部が所定の規則に従って配列される2次元コード記号に変換し、前記領域を、変換された2次元コード記号に置き換えた属性情報付き2次元画像を生成するとともに、前記明部の濃淡が白より濃く、かつ、前記暗部の濃淡が黒より淡く、かつ、前記2次元コード記号を構成するすべての前記明部および前記暗部の濃淡の平均値が前記領域の全体の濃淡と一致するように、前記明部および前記暗部の濃淡を調整することを特徴とする画像処理装置。
An image processing apparatus for processing image data constituting a plurality of two-dimensional images obtained by X-ray CT imaging of an organ,
each of the plurality of two-dimensional images consists of a plurality of regions divided corresponding to one pixel on the plurality of two-dimensional images,
The image data includes identification numbers sequentially assigned to the plurality of two-dimensional images, coordinate information of each of the plurality of regions on the plurality of two-dimensional images, and grayscale information from white to black. including
a storage unit that stores the correspondence relationship between the identification number, the coordinate information, and the gradation information, and shape data of the organ;
an attribute determination unit that determines attribute information of the region based on a comparison result of the identification number, the coordinate information, the grayscale information, and the shape data of the organ stored in the storage unit;
an attribute addition unit that associates the attribute information determined by the attribute determination unit with the region;
The attribute addition unit changes the resolution of the two-dimensional image to a predetermined resolution, and the attribute information determined by the attribute determination unit is arranged according to a predetermined rule for bright portions and dark portions according to the predetermined resolution. converting to a two-dimensional code symbol, generating a two-dimensional image with attribute information in which the region is replaced with the converted two-dimensional code symbol, and the light and shade of the bright portion are darker than white and the shade of the dark portion is The shading of the bright and dark portions is adjusted so that it is lighter than black and the average value of the shading of all the bright and dark portions constituting the two-dimensional code symbol matches the overall shading of the region. An image processing apparatus characterized by:
JP2016229215A 2016-11-25 2016-11-25 Image processing device Active JP7129754B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016229215A JP7129754B2 (en) 2016-11-25 2016-11-25 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016229215A JP7129754B2 (en) 2016-11-25 2016-11-25 Image processing device

Publications (3)

Publication Number Publication Date
JP2018082996A JP2018082996A (en) 2018-05-31
JP2018082996A5 JP2018082996A5 (en) 2020-01-09
JP7129754B2 true JP7129754B2 (en) 2022-09-02

Family

ID=62236753

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016229215A Active JP7129754B2 (en) 2016-11-25 2016-11-25 Image processing device

Country Status (1)

Country Link
JP (1) JP7129754B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006010732A (en) 2004-06-22 2006-01-12 Dainippon Printing Co Ltd Two-dimensional code poster, two-dimensional code display method
JP2007018478A (en) 2005-07-07 2007-01-25 Mayu Nagashima Framed bar code, assembled bar code, color bar code, program for drawing framed bar code, program for drawing assembled bar code, and bar code coloring program
JP2012075747A (en) 2010-10-04 2012-04-19 Toshiba Corp Image processor and program
WO2016185566A1 (en) 2015-05-19 2016-11-24 株式会社日立製作所 Information recording medium, information recording method, and information reproduction method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2845995B2 (en) * 1989-10-27 1999-01-13 株式会社日立製作所 Region extraction method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006010732A (en) 2004-06-22 2006-01-12 Dainippon Printing Co Ltd Two-dimensional code poster, two-dimensional code display method
JP2007018478A (en) 2005-07-07 2007-01-25 Mayu Nagashima Framed bar code, assembled bar code, color bar code, program for drawing framed bar code, program for drawing assembled bar code, and bar code coloring program
JP2012075747A (en) 2010-10-04 2012-04-19 Toshiba Corp Image processor and program
WO2016185566A1 (en) 2015-05-19 2016-11-24 株式会社日立製作所 Information recording medium, information recording method, and information reproduction method

Also Published As

Publication number Publication date
JP2018082996A (en) 2018-05-31

Similar Documents

Publication Publication Date Title
US10643401B2 (en) Two-dimensional cinematic medical imaging in color based on deep learning
JP6930283B2 (en) Image processing device, operation method of image processing device, and image processing program
JP4303598B2 (en) Pixel coding method, image processing method, and image processing method for qualitative recognition of an object reproduced by one or more pixels
JP7152455B2 (en) Segmentation device and learning model generation method
US20150287188A1 (en) Organ-specific image display
WO2020183799A1 (en) Medical image processing device, medical image processing method, and program
JP2020512129A (en) System and method for synthesizing low-dimensional image data from high-dimensional image data using object grid augmentation
JP6885517B1 (en) Diagnostic support device and model generation device
Venu et al. Comparison of Traditional Method with watershed threshold segmentation Technique
CN107862665B (en) CT image sequence enhancement method and device
CN104240271B (en) Medical image-processing apparatus
CN111815735B (en) Human tissue self-adaptive CT reconstruction method and reconstruction system
Baum et al. Fusion viewer: a new tool for fusion and visualization of multimodal medical data sets
CN115769249A (en) Method for denoising dental images by domain adaptation
JP6564075B2 (en) Selection of transfer function for displaying medical images
CN111918610A (en) Gradation conversion method for chest X-ray image, gradation conversion program, gradation conversion device, server device, and conversion method
US11631160B2 (en) Image processing apparatus, image processing method, and X-ray CT apparatus
CN108618797A (en) The contrast enhancing of spectral CT image data reproduces
JP7129754B2 (en) Image processing device
CN113299369B (en) Medical image window adjusting optimization method
CN114387259A (en) Method and device for predicting missing tooth coordinates and training method of recognition model
JP6481432B2 (en) Fundus image processing device
CN110506294A (en) The detection in the region in digital X-ray with the low information content
CN116912305B (en) Brain CT image three-dimensional reconstruction method and device based on deep learning
CN114512221A (en) Dental arch line image generation method and device and computer equipment

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191120

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220331

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220823

R150 Certificate of patent or registration of utility model

Ref document number: 7129754

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150