JP7129754B2 - Image processing device - Google Patents
Image processing device Download PDFInfo
- Publication number
- JP7129754B2 JP7129754B2 JP2016229215A JP2016229215A JP7129754B2 JP 7129754 B2 JP7129754 B2 JP 7129754B2 JP 2016229215 A JP2016229215 A JP 2016229215A JP 2016229215 A JP2016229215 A JP 2016229215A JP 7129754 B2 JP7129754 B2 JP 7129754B2
- Authority
- JP
- Japan
- Prior art keywords
- attribute
- image
- information
- attribute information
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 39
- 210000000056 organ Anatomy 0.000 claims description 32
- 238000013170 computed tomography imaging Methods 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 17
- 238000000034 method Methods 0.000 description 8
- 238000002604 ultrasonography Methods 0.000 description 7
- 238000012986 modification Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 238000003745 diagnosis Methods 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 238000002595 magnetic resonance imaging Methods 0.000 description 4
- 238000002834 transmittance Methods 0.000 description 4
- 238000004088 simulation Methods 0.000 description 3
- 210000004185 liver Anatomy 0.000 description 2
- 239000000523 sample Substances 0.000 description 2
- 238000012937 correction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000003325 tomography Methods 0.000 description 1
- 238000012285 ultrasound imaging Methods 0.000 description 1
Images
Landscapes
- Apparatus For Radiation Diagnosis (AREA)
Description
本発明は、CT画像などの医用画像を処理する画像処理装置に関する。 The present invention relates to an image processing apparatus for processing medical images such as CT images.
従来より、ユーザの入力に応じて3次元画像内における所定の位置(座標値)を指定し、その座標値を含む領域を示す指示領域として、指示領域を覆い隠す遮蔽領域の表示を薄くする画像処理を行うことで、3次元画像の全体像と一部の内部構造とを同時に把握できるようにした画像処理装置が知られている(例えば特許文献1参照)。この特許文献1記載の装置では、ユーザがモニタ上の3次元画像を見ながら所定の位置を指定すると、ユーザが観測したいと考えられる領域が推定され、その領域が全体像から露出して表示される。
Conventionally, a predetermined position (coordinate values) in a three-dimensional image is specified in accordance with user input, and an image that dims the display of a shielding area that covers the specified area as an indication area that indicates an area that includes the coordinate values. There is known an image processing apparatus capable of simultaneously grasping the overall image and a part of the internal structure of a three-dimensional image by performing processing (see, for example, Patent Document 1). In the device described in
しかしながら、上記特許文献1記載の装置では、ユーザが3次元画像上で指示領域を観測するため、例えば、X線CT(Computerized Tomography)装置によって撮影された2次元画像群の各2次元画像から、各部位あるいは各点が何の臓器に属すのかといった、臓器の属性情報を得ることはできない。
However, in the device described in
本発明の一態様は、臓器をX線CT撮影して得られる複数枚の2次元画像を構成する画像データを処理する画像処理装置であって、複数枚の2次元画像は、それぞれ、複数枚の2次元画像上の1ピクセルに対応して分割された複数の領域からなり、画像データは、複数枚の2次元画像に順次付された識別番号と、複数枚の2次元画像上の複数の領域のそれぞれの座標情報および白から黒までの濃淡情報と、を含み、識別番号と座標情報と濃淡情報との対応関係と、臓器の形状データと、を記憶する記憶部と、記憶部によって記憶された識別番号と座標情報と濃淡情報と、臓器の形状データと、の比較結果に基づいて、領域の属性情報を決定する属性決定部と、属性決定部によって決定された属性情報を、領域に関連付ける属性付加部と、を備える。属性付加部は、2次元画像の解像度を所定解像度に変更し、属性決定部によって決定された属性情報を、所定解像度に応じて明部および暗部が所定の規則に従って配列される2次元コード記号に変換し、領域を、変換された2次元コード記号に置き換えた属性情報付き2次元画像を生成するとともに、明部の濃淡が白より濃く、かつ、暗部の濃淡が黒より淡く、かつ、2次元コード記号を構成するすべての明部および暗部の濃淡の平均値が領域の全体の濃淡と一致するように、明部および暗部の濃淡を調整する。
One aspect of the present invention is an image processing device that processes image data constituting a plurality of two-dimensional images obtained by X-ray CT imaging of an organ, wherein each of the plurality of two-dimensional images is a plurality of The image data consists of a plurality of areas divided corresponding to one pixel on the two-dimensional image, and the image data consists of identification numbers sequentially attached to the plurality of two-dimensional images, and a plurality of regions on the two-dimensional images. a storage unit for storing each region's coordinate information and gradation information from white to black, the corresponding relationship between the identification number, the coordinate information and the gradation information, and the shape data of the organ, stored by the storage unit an attribute determination unit that determines attribute information of a region based on a comparison result of the identification number, coordinate information, grayscale information, and organ shape data; and an attribute addition unit associated with . The attribute addition unit changes the resolution of the two-dimensional image to a predetermined resolution, and converts the attribute information determined by the attribute determination unit into a two-dimensional code symbol in which bright portions and dark portions are arranged according to a predetermined rule according to the predetermined resolution . A two-dimensional image with attribute information is generated by replacing the area with the converted two-dimensional code symbol , and the light and dark areas are darker than white and the dark areas are lighter than black. Adjust the shading of the bright and dark areas so that the average value of the shading of all the bright and dark areas that make up the chord symbol matches the overall shading of the region.
本発明によれば、画像データに基づいて得られる臓器の属性情報を、画像データに付加するように構成したので、2次元画像を、臓器の属性情報を有する2次元画像に変換することができる。 According to the present invention, organ attribute information obtained based on image data is added to the image data, so that a two-dimensional image can be converted into a two-dimensional image having organ attribute information. .
以下、図1~図10を参照して本発明の実施形態について説明する。図1は、本発明の実施形態に係る画像処理装置(以下、装置という)10の概略構成を示す図である。装置10は、CPU(処理部)12a、ROM,RAM(メモリ)12b、その他の周辺回路などを有する演算処理装置を含んで構成されるコンピュータ12を有する。装置10には、X線CT装置20が接続される。
An embodiment of the present invention will be described below with reference to FIGS. 1 to 10. FIG. FIG. 1 is a diagram showing a schematic configuration of an image processing device (hereinafter referred to as device) 10 according to an embodiment of the present invention. The
図2は、装置10の制御構成を示すブロック図である。装置10には、X線CT装置20から、X線CT撮影して得られた一連のCTスライス画像(画像データ)22が入力される。装置10は、画像データ22に基づき所定の処理を実行し、CTスライス画像22の各領域Pが何の臓器に属すかといった臓器の属性情報を決定して画像データ(CTスライス画像)22に付加し、属性情報が付加された属性情報付きCTスライス画像24をコンピュータ12の表示部12cに出力する。装置10は、コンピュータ12の機能的構成として、記憶部13と、属性決定部14と、属性付加部16とを有する。
FIG. 2 is a block diagram showing the control configuration of the
記憶部13は、X線CT装置20から入力された画像データ22を記憶する。記憶部13は、例えば、コンピュータ12のメモリ12bによって構成される。記憶部13は、必ずしもコンピュータ12の一部である必要はなく、例えば、外付けのハードディスクやフラッシュメモリなどでもよいし、ネットワーク上の別のコンピュータのメモリなどでもよい。
The
図3は、属性決定部14と属性付加部16とによる属性情報の決定と付加の説明図である。属性決定部14と属性付加部16とは、例えば、コンピュータ12の処理部12aによって構成される。属性決定部14は、図3左上側に示すような、X線CT装置20から入力されて記憶部13によって記憶された画像データ22を読み込み、図3右側に示すような3次元画像として認識する。なお、図3には簡略化して示すが、CTスライス画像22,24および3次元画像は、グレースケールによる濃淡表示画像である。属性決定部14は、認識した3次元画像と、記憶部13に予め格納された臓器の形状パターン情報とに基づいて、パターン解析により、3次元画像あるいはCTスライス画像22の各領域Pが何の臓器に属するかを決定する。すなわち、属性決定部14は、パターン解析により、3次元画像あるいはCTスライス画像22の各領域Pが何の臓器に属するかといった臓器の情報(属性情報)ATRを決定する。
FIG. 3 is an explanatory diagram of determination and addition of attribute information by the
パターン解析に関する技術として、3次元濃淡画像から線図形を抽出する手順を自動生成する3次元画像処理エキスパートシステム3D-IMPRESSが知られている。このシステムでは、3次元画像とそこから抽出したい図形(サンプル図形)の組を与えると、その図形を抽出するための3次元画像処理手順を自動生成する。詳細な説明は当業者にとって周知であるため省略する。 A three-dimensional image processing expert system 3D-IMPRESS, which automatically generates a procedure for extracting a line figure from a three-dimensional grayscale image, is known as a technique related to pattern analysis. In this system, given a set of a three-dimensional image and a figure (sample figure) to be extracted therefrom, a three-dimensional image processing procedure for extracting the figure is automatically generated. A detailed description is omitted because it is well known to those skilled in the art.
図4A,4Bは、それぞれ属性情報ATRを付加する前後の画像データ22,24の説明図である。属性情報ATRを付加する前の画像データ22(図3左上側)には、図4Aに示すように、一連のCTスライス画像22に順次付された識別番号NUMと、各CTスライス画像22の各領域Pの座標情報(x,y)と、濃淡情報CNTとが含まれる。領域Pは、例えば、各CTスライス画像22における1ピクセル、あるいは、3次元画像における1ボクセルに対応する。例えば、512×512ピクセルの各CTスライス画像22は、座標情報(1,1)~(512,512)のピクセル(領域P)で構成される。また、例えば、全体のスライス枚数が30枚の3次元CT画像は、(1,1,1)~(512,512,30)のボクセル(領域P)で構成される。領域Pは、必ずしも1ピクセルあるいは1ボクセルに対応させる必要はなく、例えば、2×2ピクセルあるいは2×2×2ボクセルに対応させてもよい。
4A and 4B are explanatory diagrams of
濃淡情報CNTは、各領域Pの濃淡に対応し、例えば、256諧調のグレースケールで表される。画像データ22は、これらの値の集合であり、例えば、CSVデータなどのテキストデータとして、記憶部13によって記憶され、属性決定部14、属性付加部16によって処理される。
The gradation information CNT corresponds to the gradation of each area P, and is represented by, for example, a 256-gradation gray scale. The
属性付加部16は、図4Bに示すように、属性決定部14によって決定された属性情報ATRを、領域Pに関連付ける。例えば、図3に示す領域Pについて考える。領域Pの含まれる2次元画像の識別番号NUMを20、領域Pの座標情報(x,y)を(100,200)、濃淡情報CNTを128とする。属性決定部14によって、領域Pを含む画像データ22のパターン解析がなされ、領域Pは、例えば、肝臓(liver)に属するという属性情報ATRが決定される。属性付加部16は、図4Bに示すように、領域Pに対応する識別番号、座標情報に、属性情報ATRとして、臓器名称の“liver”を関連付ける。換言すれば、属性付加部16は、画像データ22に、属性情報ATRを付加する。
The
図5は、属性付加部16による属性情報ATRの符号化の説明図である。図5は、属性情報ATRを付加した後の属性情報付きCTスライス画像24(図3左下側)の領域P付近の拡大図である。属性付加部16は、図4A,4Bに示すように、テキストデータとして属性情報ATRの関連付けを行なった後、各領域Pに対応する属性情報ATRを含むデータを符号化し、CTスライス画像22の各領域Pに対応するピクセルと置き換える。符号化を行うデータ範囲は、属性情報ATRのみでもよいが、識別番号や座標情報を含めてもよい。
FIG. 5 is an explanatory diagram of encoding of the attribute information ATR by the
具体的には、属性付加部16は、属性情報ATRを含むデータを、例えば、DataMatrix(登録商標)やQRコード(登録商標)などの2次元コード記号(2次元画像)に変換する。次いで、属性付加部16は、CTスライス画像22の各領域Pを、2次元コード記号に置き換えて、属性情報付きCTスライス画像24(図3左下側)を生成する。換言すれば、属性付加部16は、CTスライス画像22を、臓器の属性情報ATRを有する属性情報付きCTスライス画像24に変換することができる。なお、例えば、16×16の2次元コードに変換する場合は、元の画像データ22の解像度を16×16倍に変更しておく。すなわち、領域Pを、元の画像データ22の1ピクセルから、属性情報付きCTスライス画像24の16×16ピクセル(以下、セルと呼ぶ)に分割する。この際、識別番号NUM、座標情報(x,y)、濃淡情報CNTはそのまま維持される。
Specifically, the
属性付加部16は、属性情報ATRを含むデータを符号化する際、通常の符号化処理に加えて、元の領域Pの濃淡情報CNTを維持するための処理、換言すれば、表示部12cにおける元の領域Pの明るさBRTを維持するための処理を行う。
When encoding the data including the attribute information ATR, the
図6は、濃淡情報CNTと表示部12cの明るさBRTとの関係を示す図、図7は、属性情報ATRを付加する前後の領域Pの説明図である。なお、図7では、一例として、1ピクセル(PB,PA)を2×2セル(LC,DC)に分割している。グレースケールの濃淡情報CNTと、表示部12cの明るさBRTとの関係は、ガンマ値γ(例えば、γ=2.2)を用いて次式(i)で表される。
BRT=CNT^γ ・・・(i)
FIG. 6 is a diagram showing the relationship between the grayscale information CNT and the brightness BRT of the
BRT=CNT^γ (i)
属性付加部16は、属性情報ATR付加前の領域PBの明るさBRTと、属性情報ATR付加後の領域PA(2次元コード記号)全体の明るさBRTの平均値とが同じになるように、2次元コード記号における明部LCおよび暗部DCの濃淡情報CNTを調整する。すなわち、属性情報ATR付加前の領域PBの明るさBRTと、属性情報ATR付加後の領域PA、すなわち、2次元コード記号の各セル(明部LC×2セル、暗部DC×2セル)の明るさBRTの平均値とが同じになるようにする。例えば、属性情報ATR付加前の領域PBの濃淡情報CNTが128であれば、式(i)に基づいて、例えば、明部LCの濃淡情報CNTは150、暗部DCの濃淡情報CNTは100のように調整する。
The
CTスライス画像22(2次元画像)における元の領域Pを、2次元コード記号に置き換える、あるいは、CTスライス画像22を、臓器の属性情報ATRを有する属性情報付きCTスライス画像24に変換することで、2次元画像である属性情報付きCTスライス画像24から臓器の属性情報ATRを得ることができる。しかしながら、属性情報ATR付加前後のCTスライス画像22,24に見え方の違いが生じた場合には、その画像を診断に用いたユーザ(医師など)が誤診をするおそれがある。元の画像の最小単位であるピクセルに対応する領域Pの濃淡情報CNTを維持することで、属性情報ATRを付加する前後のCTスライス画像22,24に、見え方の違いが生じることを防ぐことができる。すなわち、ユーザがCTスライス画像22,24を拡大するときの倍率は診断の内容によって異なるが、実際の診断に用いられるような倍率の範囲内では、ユーザが1ピクセルに相当する大きさの2次元コード記号を視認することは難しいため、ユーザに違和感を与えることがない。
By replacing the original region P in the CT slice image 22 (two-dimensional image) with a two-dimensional code symbol, or by converting the
また、領域Pの濃淡情報CNTを維持したとしても、明部LCおよび暗部DCの濃淡情報CNTとして白(CNT=255)や黒(CNT=0)を用いた場合は、それを見たユーザが違和感を覚える可能性がある。このため、明部LCおよび暗部DCの濃淡情報CNTは、100~180程度とすることが望ましい。なお、画像処理装置10は、元の画像データをコピーしたデータを処理するため、元の画像データを損なうことがない。従って、ユーザは、必要に応じて元の画像データを使用して、あるいは、元の画像データと処理後の画像データとを使用して診断を行うこともできる。
Further, even if the grayscale information CNT of the region P is maintained, if white (CNT=255) or black (CNT=0) is used as the grayscale information CNT of the bright portion LC and the dark portion DC, the user who sees it may You may feel uncomfortable. For this reason, it is desirable that the grayscale information CNT of the light portion LC and the dark portion DC is about 100-180. Since the
なお、ユーザが属性情報付きCTスライス画像24から臓器の属性情報ATRを得るための具体的な手順としては、属性情報ATRを得たい領域Pを拡大表示して各種コード用のリーダで読み取るようにしてもよいが、同様の復号機能を備えた専用のソフトウェアを使用するようにしてもよい。
As a specific procedure for the user to obtain the attribute information ATR of the organ from the
図8は、画像処理装置10の処理部12aで実行される処理の一例を示すフローチャートである。まず、ステップS1で、X線CT装置20から入力されて記憶部13によって記憶された画像データ22を読み込む。次いで、ステップS2,S3で、属性決定部14での処理により、パターン解析による各臓器の属性情報ATRの決定を行う。
FIG. 8 is a flowchart showing an example of processing executed by the
次いで、ステップS4~S7で、属性付加部16での処理により、属性決定部14によって決定された属性情報ATRの画像データ22への関連付け、2次元データコード記号の生成、明部LCおよび暗部DCの濃淡情報CNTの調整、および、濃淡情報CNTが調整された2次元コード記号による領域Pの置換を行い、属性情報付きCTスライス画像24を生成する。次いで、ステップS8で、属性情報付きCTスライス画像24を表示部12cに出力する。
Next, in steps S4 to S7, the attribute information ATR determined by the
図9は、画像処理装置10の処理部12aの変形例の制御構成を示すブロック図、図10は、画像処理装置10の処理部12aの変形例で実行される処理の一例を示すフローチャートである。図9に示すように、装置10は、コンピュータ12の機能的構成として、上記した記憶部13、属性決定部14、属性付加部16に加えて、識別番号NUMと座標情報(x,y)と属性情報ATRとに基づいて超音波撮影のシミュレーション画像を生成する超音波画像生成部18を有するようにしてもよい。
FIG. 9 is a block diagram showing a control configuration of a modified example of the
この場合、属性情報ATRには、各臓器の名称に加えて、各臓器に対する超音波の透過率や反射率などの物理的特性を含める。そして、図10に示すように、ステップS10で、超音波画像生成部18での処理により、ユーザの入力に応じて超音波撮影をシミュレーションする視点を設定し、ステップS11で、属性情報付き画像データ24(例えば、CSVデータ)に基づいて、超音波画像を生成し、表示部12cに出力する。視点は、例えば、超音波測定装置のプローブを被験者に当てる位置および角度に相当する。
In this case, the attribute information ATR includes, in addition to the name of each organ, the physical characteristics of each organ, such as the transmittance and reflectance of ultrasonic waves. Then, as shown in FIG. 10, in step S10, the ultrasound
なお、超音波画像を生成する目的に限れば、物理的特性は、少なくとも、超音波の透過率や反射率が変化する臓器と臓器の境界に当たる領域Pに付加すればよく、すべての領域Pに対して付加する必要はない。具体的には、パターン解析によって抽出された線図形が通過する領域Pのみに、物理的特性を含む属性情報ATRを付加すればよい。 As far as the purpose of generating an ultrasound image is concerned, the physical characteristics should be added at least to the area P corresponding to the boundary between organs where the transmittance and reflectance of ultrasound vary. No need to add to it. Specifically, the attribute information ATR including physical characteristics may be added only to the area P through which the line figure extracted by the pattern analysis passes.
CT画像などの2次元画像を処理して、診断用の3次元画像を再構成するソフトウェアとして、OsiriXが知られている。このソフトウェアでは、2次元CT画像に基づいて内視鏡画像を生成することができるが、2次元CT画像に基づいて超音波画像を生成することはできない。超音波の透過率や反射率は、体内の場所ごとに異なるため、これらの物理的特性を考慮しなければ超音波画像を算出することはできない。本願の画像処理装置10は、2次元画像データ群に、各座標における超音波の透過率や反射率などの物理的特性を含む属性情報ATRを付加するため、それに基づいて超音波画像を算出して生成することができる。
OsiriX is known as software for processing two-dimensional images such as CT images and reconstructing three-dimensional images for diagnosis. This software can generate an endoscopic image based on a two-dimensional CT image, but cannot generate an ultrasound image based on a two-dimensional CT image. Since the transmittance and reflectance of ultrasound vary from place to place in the body, an ultrasound image cannot be calculated without considering these physical characteristics. Since the
超音波画像に何の臓器が映っているかを的確に判断するには、ユーザの習熟が必要となるが、習熟には多くの画像を撮影、判断する経験が不可欠である。しかしながら、実際の患者などを被験者として撮影を行う場合には、被験者の身体的な負担を考慮しなければならないため、無制限に撮影を行うことは難しい。この点、属性情報付き画像データ24に基づく超音波撮影画像のシミュレーションであれば、そのような制限がないため、様々な臓器について、様々な視点からの、シミュレーション画像を生成することができる。
Accurate determination of which organs are shown in an ultrasound image requires the user to be proficient, and experience in photographing and judging many images is essential for proficiency. However, when imaging an actual patient or the like as a subject, the physical burden on the subject must be considered, so unlimited imaging is difficult. In this regard, simulation of ultrasonic images based on the
本発明の実施形態によれば以下のような作用効果を奏することができる。
(1)画像処理装置(装置)10は、臓器をX線CT撮影して得られる複数枚の2次元画像(一連のCTスライス画像)22を構成する画像データ22を処理する画像処理装置であって、画像データ22は、複数枚の2次元画像に順次付された識別番号NUMと複数枚の2次元画像(CTスライス画像)22上の領域Pの座標情報(x,y)と濃淡情報CNTとを含み、識別番号NUMと座標情報(x,y)と濃淡情報CNTとの対応関係を記憶する記憶部13と、記憶部13によって記憶された識別番号NUMと座標情報(x,y)と濃淡情報CNTと、予め定められた臓器の形状データとの比較結果に基づいて領域Pの属性情報ATRを決定する属性決定部14と、属性決定部によって決定された属性情報ATRを、領域Pに関連付ける属性付加部16と、を備える(図2)。
According to the embodiment of the present invention, the following effects can be obtained.
(1) The image processing device (device) 10 is an image processing device that processes
すなわち、画像データ22に基づいて得られる臓器の属性情報ATRを、画像データ22に付加するように構成したので、2次元CTスライス画像から、各部位あるいは各点が何の臓器に属すのかといった臓器の属性情報ATRを得ることができる。
That is, since the organ attribute information ATR obtained based on the
(2)領域Pは、複数枚の2次元画像(CTスライス画像)22上の1ピクセルに対応する。このため、元の画像の最小単位であるピクセルに対応する領域Pの濃淡情報CNTを維持することで、属性情報ATRを付加する前後のCTスライス画像22,24に、見え方の違いが生じることを防ぐことができる。
(2) A region P corresponds to one pixel on a plurality of two-dimensional images (CT slice images) 22 . Therefore, by maintaining the gradation information CNT of the area P corresponding to the pixel, which is the minimum unit of the original image, the
(3)属性付加部16は、属性決定部14によって決定された属性情報を、明部LCおよび暗部DCが所定の規則に従って配列されてなる2次元コード記号(一例として、QRコード(登録商標))に変換するとともに、領域の全体の濃淡に応じて、明部LCおよび暗部DCの濃淡を調整する。従って、属性情報ATR付加前後で2次元画像の濃淡情報CNTを維持することができ、属性情報ATRを付加する前後の2次元画像に見え方の違いが生じることを防ぐことができる。
(3) The
(4)属性付加部16は、2次元コード記号を構成するすべての明部LCおよび暗部DCの濃淡の平均値が、領域P全体の濃淡と一致するように、明部LCおよび暗部DCの濃淡を調整するため、属性情報ATRを付加する前後の2次元画像に見え方の違いが生じることを、より確実に防ぐことができる。
(4) The
-変形例-
本発明は、上記実施形態に限らず、種々の形態に変形することができる。図11は、図4Bの属性情報ATRを付加した後の画像データ24の変形例を示す説明図である。属性情報ATR、識別番号、座標情報など、より多くの情報を2次元コード記号に変換する場合、2次元コード記号のサイズ、すなわち、2次元コード記号のセル数が増大し、属性情報付きCTスライス画像24の解像度およびデータ容量が増大する。図11に示すように、変形例では、属性付加部16は、図4Bに示す属性情報ATRの関連付けを行なったテキストデータに対して、各領域Pに対応する連番SRをさらに付加する。属性付加部16によって属性情報ATRおよび連番SRが付加されたテキストデータは、データベースDBとして記憶部13によって記憶される。
-Modification-
The present invention is not limited to the above embodiments, and can be modified in various forms. FIG. 11 is an explanatory diagram showing a modified example of the
さらに、変形例では、属性付加部16が符号化を行うデータ範囲を連番SRのみとし、連番SRを利用して属性情報ATRを含むデータベースDBを参照するように構成する。変形例では、属性付加部16が符号化を行うデータ範囲を連番SRのみとすることで、2次元コード記号のサイズを小さくすることができ、属性情報付きCTスライス画像24のデータ容量を低減することができる。
Furthermore, in the modified example, the data range to be encoded by the
上記実施形態では、図7に示すように、濃淡情報CNT(階調)の異なる明部LCおよび暗部DCからなる2次元コード記号を例示したが、2次元コード記号を構成するセルは、明部LCおよび暗部DCの2階調に限らない。2次元コード記号を構成するセルとして3つ以上の異なる濃淡情報CNTのセルを使用する、多階調の2次元コードを用いてもよい。多階調の2次元コードを用いる場合は、同じ数のセルで表現できる情報量が階調数に応じて整数倍されるため、必要セル数を低減して属性情報付きCTスライス画像24の解像度およびデータ容量を低減することができる。 In the above embodiment, as shown in FIG. 7, a two-dimensional code symbol composed of a bright portion LC and a dark portion DC having different density information CNT (gradation) is exemplified. It is not limited to two gradations of LC and dark DC. A multi-gradation two-dimensional code using three or more different density information CNT cells as cells constituting a two-dimensional code symbol may be used. When a multi-tone two-dimensional code is used, the amount of information that can be expressed with the same number of cells is multiplied by an integer according to the number of gradations. and data capacity can be reduced.
上記実施形態では、装置10にX線CT装置20が接続されるようにしたが、X線CT装置20によって撮影される2次元画像データ郡を入力することができれば、X線CT装置20は直接接続されなくてもよい。一連のCTスライス画像をスキャンして、2次元画像データ郡を生成するようにしてもよい。
In the above embodiment, the
上記実施形態では、属性情報ATR付加後の2次元画像あるいは超音波画像を、コンピュータ12の表示部12cに出力して表示するようにしたが、画像データとして別の表示機器に出力または送信するようにしてもよい。
In the above-described embodiment, the two-dimensional image or ultrasonic image to which the attribute information ATR has been added is output to the
本発明の装置10は、上記で説明した用途以外にも、MRI(Magnetic Resonance Imaging)装置によって撮影された画像の歪みの補正に使用することができる。具体的には、同一の被験者に対して、MRI撮影とCT撮影とを行い、CTスライス画像を装置10によって処理して得られた座標情報と臓器の属性情報ATRとに基づいて、MRI画像における歪みの補正を行うことができる。
In addition to the uses described above, the
以上の説明はあくまで一例であり、本発明の特徴を損なわない限り、上述した実施形態および変形例により本発明が限定されるものではない。上記実施形態および変形例の構成要素には、発明の同一性を維持しつつ置換可能かつ置換自明なものが含まれる。すなわち、本発明の技術的思想の範囲内で考えられる他の形態についても、本発明の範囲内に含まれる。また、上記実施形態と変形例の1つまたは複数を任意に組み合わせることも可能である。 The above description is merely an example, and the present invention is not limited by the above-described embodiments and modifications as long as the features of the present invention are not impaired. Components of the above-described embodiments and modifications include those that can be replaced and those that are obvious to replace while maintaining the identity of the invention. That is, other forms conceivable within the scope of the technical idea of the present invention are also included within the scope of the present invention. Moreover, it is also possible to arbitrarily combine one or more of the above embodiments and modifications.
10 画像処理装置(装置)、12 コンピュータ、12a 処理部、12b メモリ、12c 表示部、13 記憶部、14 属性決定部、16 属性付加部、18 超音波画像生成部、20 X線CT装置、22 CTスライス画像(画像データ)、24 属性情報付きCTスライス画像(画像データ) 10 image processing device (apparatus), 12 computer, 12a processing unit, 12b memory, 12c display unit, 13 storage unit, 14 attribute determination unit, 16 attribute addition unit, 18 ultrasonic image generation unit, 20 X-ray CT apparatus, 22 CT slice image (image data), 24 CT slice image with attribute information (image data)
Claims (1)
前記複数枚の2次元画像は、それぞれ、前記複数枚の2次元画像上の1ピクセルに対応して分割された複数の領域からなり、
前記画像データは、前記複数枚の2次元画像に順次付された識別番号と、前記複数枚の2次元画像上の前記複数の領域のそれぞれの座標情報および白から黒までの濃淡情報と、を含み、
前記識別番号と前記座標情報と前記濃淡情報との対応関係と、前記臓器の形状データと、を記憶する記憶部と、
前記記憶部によって記憶された前記識別番号と前記座標情報と前記濃淡情報と、前記臓器の形状データと、の比較結果に基づいて、前記領域の属性情報を決定する属性決定部と、
前記属性決定部によって決定された前記属性情報を、前記領域に関連付ける属性付加部と、を備え、
前記属性付加部は、前記2次元画像の解像度を所定解像度に変更し、前記属性決定部によって決定された前記属性情報を、前記所定解像度に応じて明部および暗部が所定の規則に従って配列される2次元コード記号に変換し、前記領域を、変換された2次元コード記号に置き換えた属性情報付き2次元画像を生成するとともに、前記明部の濃淡が白より濃く、かつ、前記暗部の濃淡が黒より淡く、かつ、前記2次元コード記号を構成するすべての前記明部および前記暗部の濃淡の平均値が前記領域の全体の濃淡と一致するように、前記明部および前記暗部の濃淡を調整することを特徴とする画像処理装置。 An image processing apparatus for processing image data constituting a plurality of two-dimensional images obtained by X-ray CT imaging of an organ,
each of the plurality of two-dimensional images consists of a plurality of regions divided corresponding to one pixel on the plurality of two-dimensional images,
The image data includes identification numbers sequentially assigned to the plurality of two-dimensional images, coordinate information of each of the plurality of regions on the plurality of two-dimensional images, and grayscale information from white to black. including
a storage unit that stores the correspondence relationship between the identification number, the coordinate information, and the gradation information, and shape data of the organ;
an attribute determination unit that determines attribute information of the region based on a comparison result of the identification number, the coordinate information, the grayscale information, and the shape data of the organ stored in the storage unit;
an attribute addition unit that associates the attribute information determined by the attribute determination unit with the region;
The attribute addition unit changes the resolution of the two-dimensional image to a predetermined resolution, and the attribute information determined by the attribute determination unit is arranged according to a predetermined rule for bright portions and dark portions according to the predetermined resolution. converting to a two-dimensional code symbol, generating a two-dimensional image with attribute information in which the region is replaced with the converted two-dimensional code symbol, and the light and shade of the bright portion are darker than white and the shade of the dark portion is The shading of the bright and dark portions is adjusted so that it is lighter than black and the average value of the shading of all the bright and dark portions constituting the two-dimensional code symbol matches the overall shading of the region. An image processing apparatus characterized by:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016229215A JP7129754B2 (en) | 2016-11-25 | 2016-11-25 | Image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016229215A JP7129754B2 (en) | 2016-11-25 | 2016-11-25 | Image processing device |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018082996A JP2018082996A (en) | 2018-05-31 |
JP2018082996A5 JP2018082996A5 (en) | 2020-01-09 |
JP7129754B2 true JP7129754B2 (en) | 2022-09-02 |
Family
ID=62236753
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016229215A Active JP7129754B2 (en) | 2016-11-25 | 2016-11-25 | Image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7129754B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006010732A (en) | 2004-06-22 | 2006-01-12 | Dainippon Printing Co Ltd | Two-dimensional code poster, two-dimensional code display method |
JP2007018478A (en) | 2005-07-07 | 2007-01-25 | Mayu Nagashima | Framed bar code, assembled bar code, color bar code, program for drawing framed bar code, program for drawing assembled bar code, and bar code coloring program |
JP2012075747A (en) | 2010-10-04 | 2012-04-19 | Toshiba Corp | Image processor and program |
WO2016185566A1 (en) | 2015-05-19 | 2016-11-24 | 株式会社日立製作所 | Information recording medium, information recording method, and information reproduction method |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2845995B2 (en) * | 1989-10-27 | 1999-01-13 | 株式会社日立製作所 | Region extraction method |
-
2016
- 2016-11-25 JP JP2016229215A patent/JP7129754B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006010732A (en) | 2004-06-22 | 2006-01-12 | Dainippon Printing Co Ltd | Two-dimensional code poster, two-dimensional code display method |
JP2007018478A (en) | 2005-07-07 | 2007-01-25 | Mayu Nagashima | Framed bar code, assembled bar code, color bar code, program for drawing framed bar code, program for drawing assembled bar code, and bar code coloring program |
JP2012075747A (en) | 2010-10-04 | 2012-04-19 | Toshiba Corp | Image processor and program |
WO2016185566A1 (en) | 2015-05-19 | 2016-11-24 | 株式会社日立製作所 | Information recording medium, information recording method, and information reproduction method |
Also Published As
Publication number | Publication date |
---|---|
JP2018082996A (en) | 2018-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10643401B2 (en) | Two-dimensional cinematic medical imaging in color based on deep learning | |
JP6930283B2 (en) | Image processing device, operation method of image processing device, and image processing program | |
JP4303598B2 (en) | Pixel coding method, image processing method, and image processing method for qualitative recognition of an object reproduced by one or more pixels | |
JP7152455B2 (en) | Segmentation device and learning model generation method | |
US20150287188A1 (en) | Organ-specific image display | |
WO2020183799A1 (en) | Medical image processing device, medical image processing method, and program | |
JP2020512129A (en) | System and method for synthesizing low-dimensional image data from high-dimensional image data using object grid augmentation | |
JP6885517B1 (en) | Diagnostic support device and model generation device | |
Venu et al. | Comparison of Traditional Method with watershed threshold segmentation Technique | |
CN107862665B (en) | CT image sequence enhancement method and device | |
CN104240271B (en) | Medical image-processing apparatus | |
CN111815735B (en) | Human tissue self-adaptive CT reconstruction method and reconstruction system | |
Baum et al. | Fusion viewer: a new tool for fusion and visualization of multimodal medical data sets | |
CN115769249A (en) | Method for denoising dental images by domain adaptation | |
JP6564075B2 (en) | Selection of transfer function for displaying medical images | |
CN111918610A (en) | Gradation conversion method for chest X-ray image, gradation conversion program, gradation conversion device, server device, and conversion method | |
US11631160B2 (en) | Image processing apparatus, image processing method, and X-ray CT apparatus | |
CN108618797A (en) | The contrast enhancing of spectral CT image data reproduces | |
JP7129754B2 (en) | Image processing device | |
CN113299369B (en) | Medical image window adjusting optimization method | |
CN114387259A (en) | Method and device for predicting missing tooth coordinates and training method of recognition model | |
JP6481432B2 (en) | Fundus image processing device | |
CN110506294A (en) | The detection in the region in digital X-ray with the low information content | |
CN116912305B (en) | Brain CT image three-dimensional reconstruction method and device based on deep learning | |
CN114512221A (en) | Dental arch line image generation method and device and computer equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191120 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191120 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201118 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201208 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210205 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210706 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210831 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220215 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220331 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220809 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220823 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7129754 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |