JP5152377B2 - Image processing apparatus and image processing program - Google Patents
Image processing apparatus and image processing program Download PDFInfo
- Publication number
- JP5152377B2 JP5152377B2 JP2011186356A JP2011186356A JP5152377B2 JP 5152377 B2 JP5152377 B2 JP 5152377B2 JP 2011186356 A JP2011186356 A JP 2011186356A JP 2011186356 A JP2011186356 A JP 2011186356A JP 5152377 B2 JP5152377 B2 JP 5152377B2
- Authority
- JP
- Japan
- Prior art keywords
- peak
- image data
- pixel
- address
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000012545 processing Methods 0.000 title claims description 164
- 238000006243 chemical reaction Methods 0.000 claims description 125
- 238000000605 extraction Methods 0.000 claims description 58
- 230000006870 function Effects 0.000 claims description 55
- 230000002093 peripheral effect Effects 0.000 claims description 17
- 238000004364 calculation method Methods 0.000 claims description 8
- 238000012937 correction Methods 0.000 claims description 7
- 239000000284 extract Substances 0.000 claims description 4
- 230000002708 enhancing effect Effects 0.000 claims description 3
- 238000000034 method Methods 0.000 description 181
- 230000008569 process Effects 0.000 description 89
- 238000012360 testing method Methods 0.000 description 41
- 238000010586 diagram Methods 0.000 description 20
- 238000012986 modification Methods 0.000 description 15
- 230000004048 modification Effects 0.000 description 15
- 230000005484 gravity Effects 0.000 description 12
- 238000001514 detection method Methods 0.000 description 11
- 229940121896 radiopharmaceutical Drugs 0.000 description 11
- 239000012217 radiopharmaceutical Substances 0.000 description 11
- 230000002799 radiopharmaceutical effect Effects 0.000 description 11
- 238000009499 grossing Methods 0.000 description 10
- 238000013500 data storage Methods 0.000 description 6
- 230000004069 differentiation Effects 0.000 description 5
- 230000008707 rearrangement Effects 0.000 description 4
- 239000003086 colorant Substances 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000010354 integration Effects 0.000 description 3
- 239000000470 constituent Substances 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 238000002493 microarray Methods 0.000 description 2
- 238000009206 nuclear medicine Methods 0.000 description 2
- 230000001575 pathological effect Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 238000002603 single-photon emission computed tomography Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 238000009966 trimming Methods 0.000 description 2
- 206010028980 Neoplasm Diseases 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 201000011510 cancer Diseases 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000005251 gamma ray Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Nuclear Medicine (AREA)
- Image Processing (AREA)
Description
本発明は、複数の粒状パターンより像を示す画像データに関する画像処理装置に係るものであり、特に核医学におけるPET又はSPECTに代表されるガンマカメラにおける画像処理装置等に関する。 The present invention relates to an image processing apparatus related to image data representing an image from a plurality of granular patterns, and more particularly to an image processing apparatus in a gamma camera represented by PET or SPECT in nuclear medicine.
ガンマカメラは、被検体内に投与した放射性医薬品(ガンマ線を放出する放射性同位元素で標識した化合物)の分布を、ガンマ線を検出することにより映像化し、癌細胞の分布等を観察するための装置である。 A gamma camera is a device for visualizing the distribution of radiopharmaceuticals (compounds labeled with a radioisotope that emits gamma rays) administered into a subject by imaging the gamma rays and observing the distribution of cancer cells. is there.
ガンマカメラは、例えば特許文献1に記載の如く、撮像素子として光電子増倍管を使用し、その前段にガンマ線を可視光に変換させ画素に分解するためにパイプ構造のシンチレータを配置する構造となっている。このような構造により、検出器としてのガンマカメラ固有の空間分解能を再現することができるようになっている。
For example, as described in
しかし、このシンチレータのパイプ構造の配置と光電子増倍管アレイの配置の不整合や、装置に具備されたアンプゲイン設定の調整状態の不安定性等による受光感度ムラなど、種々の原因により撮像時において光学的な不均一が生じ、更に幾何学的な歪みが発生するという問題がある。このような問題に対し、特許文献2では光電子増倍管との距離に基づいて修正したアドレスを決定する方法に関する技術が開示されている。
However, during imaging due to various causes such as inconsistency in the arrangement of the pipe structure of this scintillator and the arrangement of the photomultiplier tube array, unevenness in the sensitivity of the adjustment of the amplifier gain setting provided in the apparatus, etc. There is a problem that optical non-uniformity occurs and geometric distortion occurs. For such a problem,
また、特許文献3には病理組織の画像診断支援に係る技術について、特許文献4にはマイクロアレイの画像解析に係る技術について、特許文献5にはアストロビジョンなどの評価検査に係る技術についてそれぞれ開示されている。 Patent Document 3 discloses a technique related to image diagnosis support for a pathological tissue, Patent Document 4 discloses a technique related to microarray image analysis, and Patent Document 5 discloses a technique related to evaluation inspection such as astrovision. ing.
このようなガンマカメラにおいては、特に光電子増倍管で撮像した画像をシンチレータ配置に基づく画像データに変換する際における変換精度が後段の画像を再構成する際に得られる断層像の精度を決定付ける重要な要因であるところ、上述した特許文献2に記載の手法では、シンチレータ配置に基づく画像データへの変換においてトリミング変換しか行なっておらず、アドレス決定の精度が低いという問題点がある。
In such a gamma camera, especially when an image captured by a photomultiplier tube is converted into image data based on a scintillator arrangement, the conversion accuracy determines the accuracy of a tomographic image obtained when a subsequent image is reconstructed. As an important factor, the method described in
そこで、本発明は上記課題に鑑みてなされたものであり、光電子増倍管によって撮像された画像など、複数の粒状パターンによって像を示す画像データを、シンチレータ配置に基づく画像データへの変換を高精度に行なうと共に、変換テーブルを簡便な手法によって色彩表示すること可能にする画像処理装置等を提供することを目的する。 Accordingly, the present invention has been made in view of the above problems, and it is highly effective to convert image data representing an image by a plurality of granular patterns, such as an image captured by a photomultiplier tube, into image data based on a scintillator arrangement. An object of the present invention is to provide an image processing apparatus and the like which can be displayed with high accuracy and color display of a conversion table by a simple method.
上記課題を解決すべく、請求項1に記載の発明は、複数の粒状パターンにより像を示す原画像データの前記粒状パターンの出力値が大きいほうから順に所定の数の画素に対して、最大画素値を与えてピーク画素として抽出し、低階調値画像を作成するピーク画素抽出手段と、各前記ピーク画素について、当該ピーク画素の周辺の画素に対して第1中間画素値を与えて、前記最大画素値又は前記第1中間画素値を有する画素から成るピーク領域を夫々抽出し、前記低階調値画像に付加するピーク領域抽出手段と、前記低階調値画像の水平方向及び垂直方向に、所定の数の前記ピーク領域と交差する交差線を決定し、当該交差線に対して垂直方向であって、かつ前記交差したピーク領域のピーク画素の位置に各々所定の数の稜線を抽出する稜線抽出手段と、前記低階調値画像の水平方向の各前記稜線と前記低階調値画像の垂直方向の各前記稜線とが交差する交点を、交差する各稜線の稜線番号情報に基づいてアドレス情報を付与して特定し、前記原画像データと前記低階調値画像を示す前記低階調値画像データとを対比させ、各交点について、当該交点の周辺領域に対応する前記粒状パターンの出力値が、当該交点に対応する前記粒状パターンの出力値より大きい出力値を有する場合には、当該交点を当該周辺領域の出力値が最も大きい箇所に前記アドレス情報を維持したまま再配置させてピーク点として夫々特定するピーク点特定手段と、前記低階調値画像を構成する各画素について、当該画素と各前記ピーク点の距離と、当該ピーク点に対応する前記原画像データの前記粒状パターンの出力値と、に基づいて前記各画素に対してアドレス情報を決定するアドレス情報決定手段と、決定された前記アドレス情報に基づいて、複数の粒状パターンにより像を示す画像データであってアドレス変換の対象となる変換対象画像データに対してアドレス変換を行なうためのアドレス変換テーブルを作成するアドレス変換テーブル作成手段と、を有することを特徴とする。
In order to solve the above-mentioned problem, the invention according to
これによれば、光電子増倍管によって撮像された画像など複数の粒状パターンによって像を示す画像データを、シンチレータ配置に基づく画像データへの変換を高精度に行なうことが可能になる。また、各アドレス分割領域の領域境界の形状を比較的滑らかに形成することができるため、アドレス変換後のノイズを最小限に抑えることができるアドレス変換テーブルを作成することができる。 According to this, it becomes possible to convert image data showing an image by a plurality of granular patterns such as an image picked up by a photomultiplier tube into image data based on the scintillator arrangement with high accuracy. Further, since the shape of the area boundary of each address division area can be formed relatively smoothly, an address conversion table capable of minimizing noise after address conversion can be created.
上記課題を解決すべく、請求項14に記載の発明は、コンピュータを、複数の粒状パターンにより像を示す原画像データ前記原画像データの前記粒状パターンの出力値が大きいほうから順に所定の数の画素に対して、最大画素値を与えてピーク画素として抽出し、低階調値画像を作成するピーク画素抽出手段、各前記ピーク画素について、当該ピーク画素の周辺の画素に対して第1中間画素値を与えて、前記最大画素値又は前記第1中間画素値を有する画素から成るピーク領域を夫々抽出し、前記低階調値画像に付加するピーク領域抽出手段、前記低階調値画像の水平方向及び垂直方向に、所定の数の前記ピーク領域と交差する交差線を決定し、当該交差線に対して垂直方向であって、かつ前記交差したピーク領域のピーク画素の位置に各々所定の数の稜線を抽出する稜線抽出手段、前記低階調値画像の水平方向の各前記稜線と前記低階調値画像の垂直方向の各前記稜線とが交差する交点を、交差する各稜線の稜線番号情報に基づいてアドレス情報を付与して特定し、前記原画像データと前記低階調値画像を示す前記低階調値画像データとを対比させ、各交点について、当該交点の周辺領域に対応する前記粒状パターンの出力値が、当該交点に対応する前記粒状パターンの出力値より大きい出力値を有する場合には、当該交点を当該周辺領域の出力値が最も大きい箇所に前記アドレス情報を維持したまま再配置させてピーク点として夫々特定するピーク点特定手段、前記低階調値画像を構成する各画素について、当該画素と各前記ピーク点の距離と、当該ピーク点に対応する前記原画像データの前記粒状パターンの出力値と、に基づいて前記各画素に対してアドレス情報を決定するアドレス情報決定手段、決定された前記アドレス情報に基づいて、複数の粒状パターンにより像を示す画像データであってアドレス変換の対象となる変換対象画像データに対してアドレス変換を行なうためのアドレス変換テーブルを作成するアドレス変換テーブル作成手段として機能させることを特徴とする。
In order to solve the above-mentioned problem, the invention according to
これによれば、各アドレス分割領域の領域境界の形状を比較的滑らかに形成することができるため、アドレス変換後のノイズを最小限に抑えることができるアドレス変換テーブルを作成することができる。 According to this, since the shape of the area boundary of each address division area can be formed relatively smoothly, an address conversion table capable of minimizing noise after address conversion can be created.
本発明によれば、光電子増倍管によって撮像された画像など複数の粒状パターンによって像を示す画像データを、シンチレータ配置に基づく画像データへの変換を高精度に行なうことが可能になる。また、各アドレス分割領域の領域境界の形状を比較的滑らかに形成することができるため、アドレス変換後のノイズを最小限に抑えることを可能にしたアドレス変換テーブルを作成することができる。 ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to convert into high accuracy the image data which shows an image with several granular patterns, such as the image imaged with the photomultiplier tube, to the image data based on scintillator arrangement | positioning. Further, since the shape of the area boundary of each address division area can be formed relatively smoothly, it is possible to create an address conversion table that makes it possible to minimize noise after address conversion.
以下、本発明の好適な実施の形態を添付図面に基づいて説明する。本実施形態は、動物等の被検体に投与した放射線医薬品から放射されるガンマ線を検出するガンマカメラ装置からの撮像画像データ(検出データ)であって、特に1の画像データを、光子の有効エネルギー準位(波長)が異なる32枚(z方向:z=1〜32)の画像データ(分割画像データ)で構成する場合において画像処理を行なう画像処理装置について本発明の画像処理装置及び表示制御装置を適用した例を示す。 DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described with reference to the accompanying drawings. This embodiment is imaged image data (detection data) from a gamma camera device that detects gamma rays emitted from a radiopharmaceutical administered to a subject such as an animal, and particularly, the image data of 1 is converted into effective photon energy. Image processing apparatus and display control apparatus according to the present invention for an image processing apparatus that performs image processing in the case of comprising 32 pieces (z direction: z = 1 to 32) of image data (divided image data) having different levels (wavelengths) An example where is applied.
[ガンマカメラ装置及び画像処理装置の構成及び機能]
図1は、本発明に係るガンマカメラ装置の一実施の形態を概略的に示した構成図である。このガンマカメラヘッドのガンマ線の入射面側にはピンホールコリメータ、22×22の二次元状に配列されたシンチレータ及び8×8の2次元状に配列された光電子増倍管が設けられており、このガンマカメラヘッドは傾動および回転可能なように支持部に支持され、例えば医療用診察台等に寝かされた被検体の周囲に3台備えられて、夫々が上下に移動し、且つ夫々が120度づつ被検体の周囲を回転することに被検体の全体表画像を撮影し、複数の粒状パターンにより像を示す画像データ(検出データ)(例えば256×256のフレームメモリカウンタ)を画像処理装置1内に取り込むようになっている。
[Configuration and Function of Gamma Camera Device and Image Processing Device]
FIG. 1 is a block diagram schematically showing an embodiment of a gamma camera device according to the present invention. A pinhole collimator, a 22 × 22 two-dimensionally arranged scintillator, and an 8 × 8 two-dimensionally arranged photomultiplier tube are provided on the gamma ray incident surface side of the gamma camera head. The gamma camera head is supported by a support portion so as to be tiltable and rotatable, and for example, three gamma camera heads are provided around a subject laid on a medical examination table and the like, and each moves up and down. An image processing device that captures a whole table image of the subject by rotating around the subject by 120 degrees and displays image data (detection data) (for example, a 256 × 256 frame memory counter) with a plurality of granular patterns. It is designed to be incorporated into 1.
図2は、本発明に係る画像処理装置の構成を示すブロック図である。同図に示す如く画像処理装置1は、演算機能を有するコンピュータとしてのCPU(Central Processing Unit)、作業用RAM(Random Access Memory)、各種データ及びプログラムを記憶する。
FIG. 2 is a block diagram showing the configuration of the image processing apparatus according to the present invention. As shown in FIG. 1, the
ROM(Read Only Memory)等から構成された制御部11と、ガンマカメラ装置に対して各種制御信号を送信すると共に、当該ガンマカメラ装置にて撮影された画像データを装置内部に取り込むための外部機器接続部13と、当該外部機器接続部13を介して装置内部に取り込んだ画像データを記憶するためのガンマカメラ検出データ記憶部12A及び12Bを含んで構成された記憶部12、画像処理装置1によって作成されたxyアドレス変換テーブルやz方向有効領域のビットマップデータ及び変換対象画像データについてアドレス変換をした結果得られた領域統合画像データ等を表示する表示装置としての表示部14に対して、例えばxyアドレス変換テーブルのアドレスの修正等を指示したり、或いは当該画像処理装置1を介してガンマカメラ装置に対して各種入力指示を行なう入力部15を備えて構成され、制御部11、記憶部12、外部機器接続部13、表示部14及び入力部15は、バス16を介して相互に接続されている。
An external device for transmitting various control signals to the control unit 11 composed of a ROM (Read Only Memory) or the like and the gamma camera device and capturing image data captured by the gamma camera device into the device The
制御部11は、図示しないCPU、作業用RAM、本発明の画像処理プログラム、表示制御プログラム等を含む各種制御プログラムやデータ等を記憶するROM及び発振回路等を備えて構成されており、図示しない操作部からの操作信号に基づいて、当該操作信号に含まれている操作情報に対応する動作を実現すべく上記各構成部材を制御するための制御情報を生成し、バス16を介して当該制御情報を該当する構成部材に出力して当該各構成部材の動作を統轄制御する。
The control unit 11 includes a CPU (not shown), a working RAM, a ROM for storing various control programs including the image processing program of the present invention, a display control program, data, and the like, an oscillation circuit, and the like (not shown). Based on an operation signal from the operation unit, control information for controlling each of the above-described components to generate an operation corresponding to the operation information included in the operation signal is generated, and the control is performed via the
また、制御部11は、ROM等に記憶された後述する画像処理プログラム及び表示制御プログラムを実行することにより、他の構成部材と協動して本発明の低階調値画像データ生成手段、直線画素群抽出手段、稜線抽出手段、境界線抽出手段、アドレス情報決定手段、アドレス変換テーブル作成手段、微分フィルタ処理手段、総和演算手段、アドレス変換手段、有効領域決定手段、領域統合画像データ作成手段、表示制御手段、ピーク画素抽出手段、ピーク領域抽出手段、稜線抽出手段、ピーク点特定手段、隣接領域抽出手段及び所属優先度算出手段として機能するようになっている。 In addition, the control unit 11 executes an image processing program and a display control program, which will be described later, stored in a ROM or the like, so that the low gradation value image data generating unit of the present invention, Pixel group extraction means, ridge line extraction means, boundary line extraction means, address information determination means, address conversion table creation means, differential filter processing means, summation calculation means, address conversion means, effective area determination means, area integrated image data creation means, It functions as a display control means, a peak pixel extraction means, a peak area extraction means, a ridge line extraction means, a peak point identification means, an adjacent area extraction means, and an affiliation priority calculation means.
また、外部機器接続部13は、シリアル方式、USB方式、IEEE1394、或いはその他の適宜な方式でガンマカメラ装置へ指示信号を送出する。
Further, the external
なお、本実施形態では表示部14を画像処理装置1内に内蔵したが、外部機器接続部13を介して外部接続したカラーモニタ等を表示装置として用いてもよい。この場合には、画像処理装置1に内蔵されたビデオカード、及び、VGAケーブル、DVIケーブル、BNCケーブルなどを介してカラーモニタ等を表示装置へ表示制御指示信号を送出するよう構成する。
Although the
1.検出データに対する画像処理
[1−1.画像処理手順1]
続いて、図を参照してガンマカメラ装置からの検出データに対する画像処理の具体的手法の一例について説明する。
1. Image processing on detection data [1-1. Image processing procedure 1]
Next, an example of a specific method of image processing for detection data from the gamma camera device will be described with reference to the drawings.
本実施形態においては、先ず初めに均一なガンマ線が放出されるパターンをテストパターンとして撮影したテストパターン原画像データを本発明における原画像データとして撮影し、これをガンマカメラ検出データ記憶部12Aに記憶させておき、当該テストパターン原画像データに基づいてアドレス領域及び有効波長領域を取得する。そして、当該テストパターン原画像データの撮影時と同一のガンマカメラ装置にて撮影されたこと、ガンマカメラ装置内のアンプゲインが同一であること及び放射性医薬品が同一であることを撮影条件として撮影された被検体の変換対象画像データに対して、テストパターン原画像データに基づいて取得されたxyアドレス変換テーブル及びz方向有効領域を用いて、アドレス変換を行ない領域統合画像データを作成し取得する。 In this embodiment, first, test pattern original image data obtained by photographing a pattern from which uniform gamma rays are emitted as a test pattern is photographed as original image data in the present invention, and this is stored in the gamma camera detection data storage unit 12A. In addition, an address area and an effective wavelength area are acquired based on the test pattern original image data. And it was photographed as photographing conditions that the test pattern original image data was photographed by the same gamma camera device, that the amplifier gain in the gamma camera device was the same, and that the radiopharmaceutical was the same. Then, using the xy address conversion table and the z-direction effective area acquired based on the test pattern original image data, address conversion is performed on the conversion target image data of the subject to generate and acquire area integrated image data.
図3は、テストパターン原画像データに対する画像処理を示すフローチャートである。なお、各処理における具体的な手順は後にフローチャートを用いて詳述する。 FIG. 3 is a flowchart showing image processing for the test pattern original image data. A specific procedure in each process will be described in detail later using a flowchart.
先ず、制御部11は低階調値画像データ生成手段及び微分フィルタ処理手段として機能し、テストパターン原画像データに対して微分フィルタ処理を行ない(ステップ11)、図1に示すテストパターン原画像データの粒状の光子パターン(粒状パターン)の夫々の出力値の差が明確になるよう強調化する。続いて、制御部11は直線画素群抽出手段及び稜線抽出手段として機能し、稜線抽出処理を行ない(ステップS12)、更にこれに基づいて制御部11は境界線抽出手段として機能し、アドレス情報を決定付けるための境界線抽出処理を行ない(ステップS13)、制御部11はアドレス変換テーブル作成手段として機能し、xy平面におけるアドレス変換テーブルを作成する(ステップS14)。 First, the control unit 11 functions as low gradation value image data generating means and differential filter processing means, performs differential filter processing on the test pattern original image data (step 11), and the test pattern original image data shown in FIG. Emphasis is made so that the difference between the output values of the granular photon patterns (granular patterns) becomes clear. Subsequently, the control unit 11 functions as a straight line pixel group extraction unit and a ridge line extraction unit, and performs a ridge line extraction process (step S12). Further, based on this, the control unit 11 functions as a boundary line extraction unit, and stores address information. A boundary line extraction process for determining is performed (step S13), and the control unit 11 functions as an address conversion table creation unit, and creates an address conversion table on the xy plane (step S14).
続いて、制御部11はアドレス変換手段及び有効領域決定手段として機能し、夫々のアドレス領域毎に分割されたアドレス分割領域毎にz方向有効領域決定処理を行ない(ステップS15)、光子の有効エネルギー準位(波長)を決定する。画像データは、光子の有効エネルギー準位が異なる、すなわち、波長(可視光領域)が異なる32枚(プレーン)の分割画像データとして取得され、このうち、統計的検定により有効な分割画像データ(有効データ)を各アドレス分割領域毎に決定する。 Subsequently, the control unit 11 functions as an address conversion unit and an effective region determination unit, and performs a z-direction effective region determination process for each address division region divided for each address region (step S15), and the effective energy of photons. Determine the level (wavelength). The image data is acquired as 32 pieces (plane) of divided image data having different effective energy levels of photons, that is, having different wavelengths (visible light regions). Data) is determined for each address division area.
そして、制御部11は表示制御手段として機能し、ステップS14で作成したxyアドレス変換テーブルと、ステップS15にて決定したz方向の有効領域とをビットマップデータとして作成し(ステップS16、17)、表示部14に表示して処理を終了する(ステップS18)。
Then, the control unit 11 functions as a display control unit, creates the xy address conversion table created in step S14 and the effective area in the z direction determined in step S15 as bitmap data (steps S16 and S17). It displays on the
続いて、各処理について具体的に説明する。 Subsequently, each process will be specifically described.
1−1−1.微分フィルタ処理
上記ステップS11における微分フィルタ処理について図4を参照して説明する。図4(A)は微分フィルタ処理を示すフローチャートである。
1-1-1. Differential Filter Process The differential filter process in step S11 will be described with reference to FIG. FIG. 4A is a flowchart showing differential filter processing.
先ず、ガンマカメラ検出データ記憶部12Aからテストパターン原画像データを取得する(ステップS21)。このテストパターン原画像データは予めガンマカメラ装置にて撮影されたテストパターンの画像データであって、2次元方向に256×256の画素によって構成されたとして、波長(可視光領域)が異なる32枚(プレーン)の分割画像データとして取得される。そして、制御部11は総和演算手段として機能し、32枚(z=1〜32)の分割画像データのフォトンカウント値(出力値)を総和演算し(ステップS22)、1つの画像データとする。そして、この画像データについて各粒状パターンのフォトンカウント値の差を強調するための微分フィルタを生成する(ステップS23)。図4(B)に生成した微分フィルタの一例を示す。 First, test pattern original image data is acquired from the gamma camera detection data storage unit 12A (step S21). This test pattern original image data is image data of a test pattern previously photographed by a gamma camera device, and is composed of 256 × 256 pixels in a two-dimensional direction, and has 32 different wavelengths (visible light regions). Acquired as (plane) divided image data. Then, the control unit 11 functions as a sum calculating means, and sums up the photon count values (output values) of 32 pieces (z = 1 to 32) of divided image data (step S22) to obtain one image data. Then, a differential filter for enhancing the difference between the photon count values of the respective granular patterns is generated for this image data (step S23). An example of the differential filter generated in FIG.
そして、生成した微分フィルタにてステップS22において総和演算して1の画像データとされたテストパターン原画像データに対して微分フィルタ処理を施し(ステップS24)、微分フィルタ処理後のテストパターン原画像データを微分処理後原画像データとして記憶部12に保存し(ステップS25)て、微分フィルタ処理を終了しステップS12の処理に移行する。
Then, a differential filter process is performed on the test pattern original image data that has been summed up in step S22 with the generated differential filter to become one image data (step S24), and the test pattern original image data after the differential filter process is performed. Is stored in the
1―1−2.稜線抽出処理
続いて、ステップS12における稜線抽出処理について図5乃至図7を参照して説明する。
1-1-2. Edge Line Extraction Process Subsequently, the edge line extraction process in step S12 will be described with reference to FIGS.
図5は稜線抽出処理を示すフローチャートである。 FIG. 5 is a flowchart showing the ridge line extraction processing.
先ず、制御部11は低階調値画像データ生成手段として機能し、記憶部12からステップS25にて保存した微分処理後原画像データを取得して、ヒストグラムを生成し2値化して画素値0又は1を有するM個の画素からなる低階調値画像データを生成する(ステップS31)。
First, the control unit 11 functions as a low gradation value image data generation unit, acquires the post-differentiation original image data stored in step S25 from the
図6(A)に示す如く、所定の閾値との大小関係に基づいて、所定の閾値よりも大きい画素には画素値1が与えられ、所定の閾値以下である画素には画素値0が与えられた総数Mの画素で構成される低階調値画像データ(二値化画像データ)を生成する。なお、当該閾値は、テストパターン原画像データ及びこれに基づいて生成される低階調値画像データを表示部14に表示して視認しているユーザが入力部15を操作することにより、低階調値画像データ上に22×22の像が視覚的に確認できるように入力設定される。
As shown in FIG. 6A, based on the magnitude relationship with a predetermined threshold, a
そして、制御部11は直線画素群抽出手段として機能し、低階調値画像(二値画像)を構成する画素のうち、画素値が他の画素と比して比較的大きい画素を所定の数だけ含む交差線を決定し、当該交差線に対して垂直な方向に直線画素群を、低階調値画像のx方向及びy方向(水平方向及び垂直方向)に夫々22本づつ抽出する(ステップS32、33)。 And the control part 11 functions as a linear pixel group extraction means, and among pixels which comprise a low gradation value image (binary image), the pixel whose pixel value is comparatively large compared with another pixel is a predetermined number. And a straight line pixel group is extracted in the x-direction and y-direction (horizontal direction and vertical direction) of the low-gradation-value image, 22 in each direction (steps). S32, 33).
図6(B)を用いて具体的に説明する。図6(B)左図に示す例によれば、黒色部分が画素値が1である箇所を示し、白色部分が画素値が0である箇所を示す。そして、図中低階調値画像の上から下(或いは下から上)に掃引され、画素値が1である箇所と交差したa、b、c及びdの走査線のうち、画素値が1である箇所を所定の個数(図に示す例によれば「4」)だけ含む走査線を交差線として決定する。図6(B)左図に示す例によれば、走査線aと走査線dのみが画素値が1である箇所を所定個数「4」通過している。更に、各黒色部分が低階調値画像上水平方向に均等に配置されていることが望ましい。従って、走査線dが交差線として決定され、当該走査線dに含まれる画素値1の位置に基づいて当該交差線と垂直な方向にy方向(垂直方向)の直線画素群を抽出する。
This will be specifically described with reference to FIG. According to the example shown in the left diagram of FIG. 6B, the black portion indicates a location where the pixel value is 1, and the white portion indicates a location where the pixel value is 0. Then, the pixel value is 1 out of the scanning lines a, b, c, and d that are swept from the top to the bottom (or from the bottom to the top) of the low gradation value image in FIG. A scanning line including a predetermined number of locations (“4” in the example shown in the figure) is determined as an intersection line. According to the example shown in the left diagram of FIG. 6B, only the scanning line a and the scanning line d pass through a predetermined number “4” through the part where the pixel value is 1. Furthermore, it is desirable that the black portions are evenly arranged in the horizontal direction on the low gradation value image. Accordingly, the scanning line d is determined as an intersection line, and a linear pixel group in the y direction (vertical direction) is extracted in a direction perpendicular to the intersection line based on the position of the
同様にして、図6(B)右図に示す如く、図中低階調値画像の左から右(或いは右から左)に掃引され、画素値が1である箇所と交差したa、b、c及びdの走査線のうち、画素値が1である箇所を所定の個数(図に示す例によれば「4」)だけ含む走査線を交差線として決定する。図6(B)右図に示す例によれば、走査線bと走査線cのみが画素値が1である箇所を所定個数「4」含んでいる。更に、各黒色部分が低階調値画像上垂直方向に均等に配置されていることが望ましい。従って、走査線cが交差線として決定され、当該走査線cに含まれる画素値1の位置に基づいて当該交差線と垂直な方向にx方向(水平方向)の直線画素群を抽出する。
Similarly, as shown in the right diagram of FIG. 6B, a, b, which are swept from the left to the right (or from the right to the left) of the low gradation value image in the diagram and intersect with the location where the pixel value is 1. Among the scanning lines c and d, scanning lines including a predetermined number of portions having a pixel value of 1 (“4” in the example shown in the figure) are determined as intersection lines. According to the example shown in the right diagram of FIG. 6B, only the scanning line b and the scanning line c include the predetermined number “4” where the pixel value is 1. Furthermore, it is desirable that the black portions are evenly arranged in the vertical direction on the low gradation value image. Accordingly, the scanning line c is determined as an intersection line, and a linear pixel group in the x direction (horizontal direction) is extracted in a direction perpendicular to the intersection line based on the position of the
なお、上記説明において図示及び説明の簡単のため所定個数(所定の数)を「4」としたが、ステップS31において低階調値画像データ上に22×22の像が視覚的に確認できるように当該閾値が入力設定されるため、この場合には22個の画素値1の箇所を通過するような走査線を交差線として決定する。 In the above description, the predetermined number (predetermined number) is “4” for simplicity of illustration and description. However, in step S31, a 22 × 22 image can be visually confirmed on the low gradation value image data. In this case, scanning lines that pass through 22 locations with a pixel value of 1 are determined as intersection lines.
続いて、制御部11は稜線抽出手段として機能し、微分処理後原画像データと低階調値画像データとを対比させ、低階調値画像データにおいて抽出した直線画素群を構成する各画素について、x方向(水平方向)の直線画素群の各画素に対してy方向(垂直方向)に位置する近隣の各画素のうち、当該直線画素群の各画素に対応する粒状パターンのフォトンカウント値と比べて大きいフォトンカウント値を有する粒状パターンに対応する画素がある場合には、当該画素を直線画素群を構成する新たな画素として再配置させる。y方向(垂直方向)に対しても同様にしてx方向(水平方向)に位置する近隣の各画素のうち、当該直線画素群の各画素に対応する粒状パターンのフォトンカウント値と比べて大きいフォトンカウント値を有する粒状パターンに対応する画素がある場合には、当該画素を直線画素群を構成する新たな画素として再配置させる。このようにして、x稜線及びy稜線を抽出する(ステップS34)。 Subsequently, the control unit 11 functions as a ridge line extraction unit, compares the original image data after differentiation processing with the low gradation value image data, and each pixel constituting the linear pixel group extracted in the low gradation value image data. Among the neighboring pixels located in the y direction (vertical direction) with respect to each pixel of the straight pixel group in the x direction (horizontal direction), the photon count value of the granular pattern corresponding to each pixel in the straight pixel group If there is a pixel corresponding to the granular pattern having a larger photon count value, the pixel is rearranged as a new pixel constituting the straight pixel group. Similarly for the y direction (vertical direction), among the neighboring pixels located in the x direction (horizontal direction), a photon that is larger than the photon count value of the granular pattern corresponding to each pixel of the linear pixel group. When there is a pixel corresponding to the granular pattern having the count value, the pixel is rearranged as a new pixel constituting the linear pixel group. In this way, the x ridge line and the y ridge line are extracted (step S34).
図7(C)に5つの画素で構成された1本のx方向(水平方向)直線画素群を、夫々対応する微分処理後原画像データの粒状パターンのフォトンカウント値に基づいて再配置させた例、5つの画素で構成された1本のy方向(垂直方向)直線画素群を、夫々対応する微分処理後原画像データの粒状パターンのフォトンカウント値に基づいて再配置させた例をそれぞれ示す。 In FIG. 7C, one x-direction (horizontal direction) linear pixel group composed of five pixels is rearranged based on the photon count value of the granular pattern of the corresponding post-differentiation original image data. An example in which one y-direction (vertical direction) linear pixel group composed of five pixels is rearranged based on the photon count value of the granular pattern of the corresponding post-differentiation original image data, respectively. .
その後、図7(E)及び(F)に示す如く、稜線を構成する画素のうち1つの画素だけが他の画素から突出している場合には、これを隣接する画素位置と合わせることによりx稜線及びy稜線を平滑化し(ステップS35)て、稜線抽出処理を終了しステップS13の処理に移行する。 Thereafter, as shown in FIGS. 7E and 7F, when only one pixel of the pixels constituting the ridge line protrudes from the other pixels, the x ridge line is obtained by matching this with the adjacent pixel position. Then, the y ridge line is smoothed (step S35), the ridge line extraction process is terminated, and the process proceeds to step S13.
1−1−3.境界線抽出処理
続いて、ステップS13における境界線抽出処理について図8を参照して説明する。図8(A)は境界線抽出処理を示すフローチャートである。
1-1-3. Boundary Line Extraction Process Subsequently, the boundary line extraction process in step S13 will be described with reference to FIG. FIG. 8A is a flowchart showing boundary line extraction processing.
先ず、制御部11は境界線抽出手段として機能し、稜線の間に介在する画素に基づいてアドレス情報を決定付けるための境界線を水平方向及び垂直方向それぞれ23本づつを抽出する(ステップS41)。より具体的には、図8(B)及び(C)に示す如く、微分処理後原画像データと低階調値画像データとを対比させ、低階調値画像データにおける互いに隣接する2本の稜線の中点(各稜線の間に介在する画素に相当)を、対応する微分後原画像データの粒状パターンのフォトンカウント値が最小値となる粒状パターンに対応する箇所を通るように移動させ、移動後の中点に位置する画素で構成された画素群を水平方向及び垂直方向にアドレス情報を決定するための境界線として、水平方向及び垂直方向それぞれ21本抽出する。更に、末端に位置する第1番目と第22番目の稜線については、それぞれ第2番目と第21番目の稜線と同じ間隔で、外側方向に、第0番目と第23番目の稜線が存在するものと仮定し、上述と同様な方法で、水平方向及び垂直方向にそれぞれ2本の境界線を追加抽出する(ステップS41)。 First, the control unit 11 functions as a boundary line extracting unit, and extracts 23 boundary lines for determining address information based on the pixels interposed between the ridge lines in each of the horizontal direction and the vertical direction (step S41). . More specifically, as shown in FIGS. 8B and 8C, the original image data after differentiation and the low gradation value image data are compared with each other, and the two adjacent gradation images in the low gradation value image data are compared. The middle point of the ridge line (corresponding to a pixel interposed between each ridge line) is moved so as to pass through the part corresponding to the granular pattern where the photon count value of the granular pattern of the corresponding original image data after differentiation is the minimum value, Twenty-one pixels in the horizontal direction and in the vertical direction are extracted from the pixel group including the pixels located at the midpoint after the movement, as boundary lines for determining address information in the horizontal direction and the vertical direction. Furthermore, for the first and twenty-second ridgelines located at the ends, the zeroth and twenty-third ridgelines exist in the outer direction at the same intervals as the second and twenty-first ridgelines, respectively. Assuming that, two boundary lines are additionally extracted in the horizontal and vertical directions in the same manner as described above (step S41).
そして、稜線抽出処理におけるステップS35の処理と同様に、x境界線及びy境界線を平滑化し(ステップS42)て、境界線抽出処理を終了しステップS14の処理に移行する。なお、各境界線にはx方向及びy方向に順に境界線番号が付与されるものとする。 Then, similarly to the process of step S35 in the ridge line extraction process, the x boundary line and the y boundary line are smoothed (step S42), the boundary line extraction process is terminated, and the process proceeds to step S14. In addition, a boundary line number shall be given to each boundary line in order in the x direction and the y direction.
1−1−4.xyアドレス変換テーブル作成処理
上述したxy方向夫々抽出した23本の境界線は、直線ではないので、x方向及びy方向にそれぞれ23本の境界線で区切られた領域は、22×22=484よりも多数の領域となる。従って、面積が小さい画素値領域を面積が大きい画素値領域に置換することにより、所望の数のアドレス分割領域を得ることができ、アドレス変換テーブルを作成できる。以下、具体的に説明する。
1-1-4. xy address conversion table creation processing Since the 23 boundary lines extracted in the xy direction described above are not straight lines, the area delimited by the 23 boundary lines in the x direction and the y direction is obtained from 22 × 22 = 484. Is also a large number of areas. Therefore, by replacing the pixel value region having a small area with the pixel value region having a large area, a desired number of address division regions can be obtained, and an address conversion table can be created. This will be specifically described below.
ステップS14におけるアドレス変換テーブル作成処理について図9及び図10を参照して説明する。図9はテストパターン原画像データと低階調値画像データとを対比させて境界線を決定し、xyアドレス変換テーブルを作成するまでを示す説明図である。 The address conversion table creation process in step S14 will be described with reference to FIGS. FIG. 9 is an explanatory view showing the process until the boundary line is determined by comparing the test pattern original image data and the low gradation value image data and the xy address conversion table is created.
図10(A)はxyアドレス変換テーブル作成処理を示すフローチャートである。 FIG. 10A is a flowchart showing an xy address conversion table creation process.
先ず、低階調値画像を構成する画素のうち、隣接する2つのx境界線で垂直方向に挿まれた画素のxアドレス値を、2つのx境界線のうち、境界線番号が小さいほうのxアドレス値とする(ステップS51)。例えば、境界線番号1のx境界線と境界線番号2のx境界線で垂直方向に挿まれた全ての画素のxアドレス値は、番号が小さい境界線番号1のxアドレス値(x=1)を有し、例えば、境界線番号13のx境界線と境界線番号14のx境界線で垂直方向に挿まれた全ての画素のxアドレス値は番号が小さい境界線番号13のxアドレス値(x=13)を有する。従って、全ての画素は境界線番号1のxアドレス値(x=1)から境界線番号22のxアドレス値(x=22)の何れかのxアドレス値を有することとなる。
First, of the pixels constituting the low gradation value image, the x-address value of the pixel inserted in the vertical direction by two adjacent x boundary lines is the smaller of the boundary numbers of the two x boundary lines. The x address value is set (step S51). For example, the x address values of all the pixels inserted in the vertical direction by the x boundary line of the
同様にして、低階調値画像を構成する画素のうち、隣接する2つのy境界線で水平方向に挿まれた画素のyアドレス値を、2つのy境界線のうち、境界線番号が小さいほうのyアドレス値とする(ステップS52)。同様に全ての画素は境界線番号1のyアドレス値(y=1)から境界線番号22のyアドレス値(y=22)の何れかのyアドレス値を有することとなる。 Similarly, the y address value of the pixel inserted in the horizontal direction between two adjacent y boundary lines among the pixels constituting the low gradation value image is the boundary line number of the two y boundary lines being small. This y address value is set (step S52). Similarly, all the pixels have any y address value from the y address value of the boundary line number 1 (y = 1) to the y address value of the boundary line number 22 (y = 22).
続いて、制御部11はアドレス情報決定手段として機能し、低階調値画像データを構成する各画素の画素値を、画素のxアドレス値と、yアドレス値を32倍した値との和として決定する(ステップS53)。例えば、xアドレス値が(12)でyアドレス値が(1)である画素の画素値は12+(1×32)=44となり、xアドレス値が(13)でy
アドレス値が(21)である画素の画素値は13+(21×32)=685となる。
Subsequently, the control unit 11 functions as address information determining means, and the pixel value of each pixel constituting the low gradation value image data is set as the sum of the x address value of the pixel and the value obtained by multiplying the y address value by 32. Determine (step S53). For example, the pixel value of the pixel whose x address value is (12) and y address value is (1) is 12+ (1 × 32) = 44, and the x address value is (13) and y
The pixel value of the pixel whose address value is (21) is 13+ (21 × 32) = 685.
ここで、yアドレス値の画素値を32倍としたのは、各画素のアドレス情報の計算を簡素化するために一次元で表現するためであるので、yアドレス値の画素値に乗算する値は32に限らず23以上の自然数であればよい。各画素のアドレス情報を二次元(xアドレス値、yアドレス値)のままその後の計算(平滑化処理)に用いることもできる。 Here, the reason why the pixel value of the y address value is set to 32 times is to express one-dimensionally in order to simplify the calculation of the address information of each pixel. Is not limited to 32 but may be a natural number of 23 or more. The address information of each pixel can also be used for subsequent calculations (smoothing process) with two dimensions (x address value, y address value).
そして、各アドレス分割領域の平滑化処理を行なう(ステップ54)。ここで、各アドレス分割領域の平滑化処理について、図10(B)乃至図12を用いて、各アドレス分割領域の平滑化処理について具体的に説明する。図10(B)は各アドレス分割領域の平滑化処理を示すフローチャートである。 Then, smoothing processing of each address division area is performed (step 54). Here, the smoothing process for each address division region will be specifically described with reference to FIGS. 10B to 12. FIG. 10B is a flowchart showing a smoothing process for each address division region.
先ず、各画素について、同一画素値を有する2つの画素で挿まれている場合には、画素値を当該画素の画素値に置換する(ステップS61)。図11を用いて具体的に説明する。図11は3×3の9つの画素を図示したものである。図11上段に示す図によれば、画素値31を有する画素は画素値33を有する画素で挿まれている。そのため、画素値31を有する画素の画素値を33に変換する。同様にして、図11下段に示す図によれば、画素値40を有する画素は画素値38を有する画素で挿まれている。そのため、画素値40を有する画素の画素値を38に変換する。
First, when each pixel is inserted by two pixels having the same pixel value, the pixel value is replaced with the pixel value of the pixel (step S61). This will be specifically described with reference to FIG. FIG. 11 illustrates nine 3 × 3 pixels. According to the diagram shown in the upper part of FIG. 11, a pixel having a
続いて、各画素値について、同一画素値を有する領域(同一画素値領域)の面積を積算する(ステップS62)。そして、面積が小さい画素値領域を、順に隣接する画素値領域の画素値に変換する(ステップS63)。例えば図12に示す如く、面積の小さい同一画素値領域Bの画素の画素値は、面積の大きい同一画素値領域Aの画素値に置換される。本実施の形態では、画素値領域(換言すれば、アドレス分割領域)が22×22=484領域となるまで上記ステップ62、63の変換処理を行なう。
Subsequently, for each pixel value, the area of the region having the same pixel value (same pixel value region) is integrated (step S62). Then, the pixel value region having a small area is converted into the pixel value of the adjacent pixel value region in order (step S63). For example, as shown in FIG. 12, the pixel value of the same pixel value region B having a small area is replaced with the pixel value of the same pixel value region A having a large area. In the present embodiment, the conversion processing in
これにより、x方向及びy方向にそれぞれ23本の境界線で区切られたアドレス分割領域(x=1〜22、y=1〜22)が生成される。 As a result, address division regions (x = 1 to 22, y = 1 to 22) partitioned by 23 boundary lines in the x direction and the y direction are generated.
そして、図10(A)のフローチャートに戻り、xyアドレス変換テーブルを作成して処理を終了する(ステップS55)。すなわち、ステップS62及び63の処理において区切った22×22=484のアドレス分割領域に基づいて図9に示すようなxyアドレス変換テーブル(22×22)が作成されることとなる。 Then, returning to the flowchart of FIG. 10A, the xy address conversion table is created and the process is terminated (step S55). That is, an xy address conversion table (22 × 22) as shown in FIG. 9 is created based on the address division area of 22 × 22 = 484 divided in the processes of steps S62 and S63.
1−1−5.z方向有効領域決定処理
続いて、ステップS15におけるz方向有効領域決定処理について図13を参照して説明する。図13(A)はz方向有効領域決定処理を示すフローチャートである。
1-1-5. z-direction Effective Area Determination Processing Subsequently, the z-direction effective area determination processing in step S15 will be described with reference to FIG. FIG. 13A is a flowchart showing the z-direction effective area determination process.
先ず、制御部11はアドレス変換手段として機能し、ステップS14にて作成したxyアドレス変換テーブルに基づいて、テストパターン原画像データを構成する光子のエネルギー準位(波長)が異なる32枚(プレーン)の分割画像データの粒状パターンをアドレス変換して32枚(z=1〜32)のアドレス変換画像データを取得する(ステップS71)。 First, the control unit 11 functions as an address conversion unit, and 32 sheets (planes) having different energy levels (wavelengths) of photons constituting the test pattern original image data based on the xy address conversion table created in step S14. The granular pattern of the divided image data is address-converted to obtain 32 (z = 1 to 32) address-converted image data (step S71).
続いて、32枚のアドレス変換画像データについて、各アドレス分割領域(22×22)毎にフォトンカウント値を総和演算する(ステップS72)。そして、各アドレス分割領域のz方向有効領域(有効データ)を決定して処理を終了する(ステップS73)。 Subsequently, the photon count value is summed for each address division area (22 × 22) for the 32 address-converted image data (step S72). Then, the z-direction effective area (effective data) of each address division area is determined, and the process ends (step S73).
図13(B)に各アドレス分割領域のz方向有効領域の説明図を示す。ガンマカメラ装置で検出されるフォトンカウント値は、被検体に投与した放射性医薬品が1種類の場合には、本来フォトンカウント値のピークとなる箇所は1箇所であるが、散乱成分など種々の撮影環境下においては必ずしも高精度に1ピークを有する曲線とはならず、光子のエネルギー準位(波長)を横軸とすると、フォトンカウント値は同図に示す如く歪んだ曲線となる。しかも、いわゆるカメラの収差によって、光子のエネルギー準位ごとにピンホールコリメータを通してシンチレータに結像される位置がずれ、各アドレス分割領域毎に対応する光電子増倍管の波長感度特性やアンプゲイン等が異なることから、夫々のアドレス分割領域においてもフォトンカウント値に差が生じる。 FIG. 13B shows an explanatory diagram of the z-direction effective area of each address division area. The photon count value detected by the gamma camera device is one location where the peak of the photon count value is originally one when there is only one type of radiopharmaceutical administered to the subject. Below, the curve does not necessarily have a single peak with high accuracy, and the photon count value is a distorted curve as shown in the figure, where the horizontal axis is the energy level (wavelength) of a photon. In addition, the so-called camera aberration shifts the image position on the scintillator through the pinhole collimator for each photon energy level, and the wavelength sensitivity characteristics, amplifier gain, etc. of the photomultiplier tube corresponding to each address division region Due to the difference, there is a difference in the photon count value in each address division region.
そこで、上述したように、各アドレス分割領域毎にフォトンカウント値を総和演算することにより、各アドレス分割領域(22×22)について、フォトンカウント値の例えばピークの10%前後に対応する波長領域を所定の有効領域(R1-1〜R22-22)として求める。つまり、あるアドレス分割領域では有効な分割画像データ(有効データ)がz方向に9〜20(z=9〜20)、あるアドレス分割領域では12〜20(z=12〜20)など、それぞれのアドレス分割領域毎に有効な分割画像データ(有効データ)を決定することができる。 Therefore, as described above, by calculating the sum of the photon count values for each address division region, for each address division region (22 × 22), a wavelength region corresponding to, for example, about 10% of the peak of the photon count value is obtained. It is determined as a predetermined effective area (R1-1 to R22-22). That is, effective divided image data (effective data) is 9 to 20 (z = 9 to 20) in the z direction in a certain address divided area, and 12 to 20 (z = 12 to 20) in a certain address divided area. Effective divided image data (effective data) can be determined for each address division area.
1−1−6.xyアドレス変換テーブルのビットマップデータの作成
ところで、アドレス分割領域毎にアドレス値を色分けによって表示部14に表示してやれば、ユーザに一目で各アドレス分割領域のアドレス値を認識させることができる。しかしながら、単に256階調でアドレスに応じて色彩表示する手法では、上述したようなアドレス分割領域の数が多いような場合には、アドレス分割領域間の色の違いを判別しにくくなる。また、各アドレス値に基づいて256階調で色分けを行なうことによって、多くの情報量を必要とする。また、各アドレス分割領域の輪郭線のみを明示することとし、アドレス分割領域の輪郭線を第1色、アドレス分割領域内部を第2色で表示すれば、2色分の情報量のみで足りるものの、アドレス分割領域の形状を修正する際には輪郭線のみの修正となり、修正の自由度が減少する。また、輪郭線がかなり入り組んだ曲線である場合などは、輪郭線で囲まれたアドレス分割領域内部がつぶれて、その箇所の各アドレス分割領域が識別困難になるという問題がある。
1-1-6. Creation of Bit Map Data of xy Address Conversion Table By the way, if the address value is displayed on the
そこで、本実施形態における上記ステップS16において、ステップS14で作成したxyアドレス変換テーブルを、アドレス分割領域毎にアドレス値を色分けによって表示させたアドレスxyアドレス変換テーブルをビットマップデータを作成する。 Therefore, in step S16 in the present embodiment, bitmap data is created from the xy address translation table created in step S14 and the address xy address translation table in which address values are displayed by color coding for each address division area.
図14にxyアドレス変換テーブル及びz方向有効領域をビットマップデータとして表示する際の説明図を示す。同図は、xyアドレス変換テーブル中左上に対応する4つのアドレス分割領域についてビットマップデータとして表示する際の一例である。 FIG. 14 is an explanatory diagram when the xy address conversion table and the z-direction effective area are displayed as bitmap data. This figure is an example when the four address division areas corresponding to the upper left in the xy address conversion table are displayed as bitmap data.
制御部11は表示制御手段として機能し、各アドレス分割領域のアドレス値に基づいて表示部14のRGB値の値を決定して、表示制御指示信号を表示部14に送出する。より具体的には、同図に示す如く、xyアドレス変換テーブル中左上に対応する4つのアドレス分割領域のうち、左上のアドレス分割領域のR値(R11)を(xアドレス値+200)とし、B値(B11)をyアドレス値とする。右上のアドレス分割領域のR値(R12)を(xアドレス値)とし、B値(B12)を(yアドレス値+200)とする。そして、左下のアドレス分割領域のR値(R21)を(xアドレス値)とし、B値(B21)を(yアドレス値+100)とし、右下のアドレス分割領域のR値(R22)を(xアドレス値+100)とし、B値(B22)をyアドレス値とする。なお、200を本発明における第一のオフセット値とし、100を本発明における第二のオフセット値とする。各オフセット値は、200と100に限らず、アドレス値(本実施形態では1〜22)とオーダーが異なるようにすればよい。
The control unit 11 functions as a display control unit, determines the RGB value of the
このように構成することにより、左上のアドレス分割領域はxyのアドレス値を強い赤色で表現され、右上のアドレス分割領域はxyのアドレス値を強い青色で表現され、左下のアドレス分割領域はxyのアドレス値を薄い青色で表現され、右下のアドレス分割領域はxyのアドレス値を薄い赤青色で表現されることとなる。 By configuring in this way, the upper left address division area is expressed with a strong red xy address value, the upper right address division area is expressed with a strong blue xy address value, and the lower left address division area is an xy address value. The address value is expressed in light blue, and the address division area in the lower right represents the xy address value in light red-blue.
このように、アドレス分割領域が矩形に近い形状であることを利用して、隣接するアドレス領域毎にコントラストのある色で表示させるよう構成し、縦横1つづつ異なる色を巡回して割り当てることにより、各アドレス情報を色で表示して確認することができるばかりでなく、各アドレス分割領域を視覚的に容易に確認することができる。 In this way, by using the fact that the address division area has a shape close to a rectangle, it is configured to display in a contrasting color for each adjacent address area, and a different color is circulated and assigned one by one in the vertical and horizontal directions. Not only can each address information be displayed and confirmed in color, but each address division area can be easily confirmed visually.
このような構成により、例えば、あるアドレス分割領域のアドレスデータを修正する際に、他のアドレス分割領域のR値及びB値をコピーして修正対象のアドレス分割領域のR値及びB値にそのまま上書きするだけで、容易に所望のxyアドレス変換テーブルの修正を行なうことができる。 With such a configuration, for example, when correcting the address data of a certain address division area, the R value and B value of another address division area are copied, and the R value and B value of the address division area to be corrected are directly unchanged. The desired xy address conversion table can be easily corrected simply by overwriting.
また、同図に示す如く、RGB値のうちG値に各アドレス分割領域に対応する原画像データのフォトンカウント値を例えば256段階にて与えることにより、元の原画像データのフォトンカウント値の情報までも含めて色彩表現することができ、前述のxyアドレス変換のテーブルの修正を表示装置上で対話形式に行なう際に、視覚的な判断の目安になる。 Further, as shown in the figure, the photon count value information of the original original image data is obtained by giving the photon count value of the original image data corresponding to each address division region to the G value among the RGB values in 256 steps, for example. In this way, the color expression can be performed including the above, and it becomes a guideline for visual judgment when the above-described xy address conversion table is corrected interactively on the display device.
1−1−7.z方向有効領域のビットマップデータの作成
続いて、ステップS17にてステップS15で決定したz方向有効領域について、z方向有効領域のビットマップデータとして作成して、表示部14に表示する。
1-1-7. Creation of Bitmap Data for the z-direction Effective Area Subsequently, the z-direction effective area determined in step S15 in step S17 is created as bitmap data for the z-direction effective area and displayed on the
図14に示す如くステップS15で決定したz方向有効領域(R1−1〜R22−22)を、各アドレス変換領域毎に有効領域を無効領域及びその境界箇所と区別できるよう色分けして(或いは階調分けして)を表示する。同図に示す例では、z方向(z=1〜32)及びフォトンカウント値をそれぞれ32段階で与えて、1つのアドレス変換領域のz方向有効領域を32×32の画素にてビットマップ表示する。同図に示す例では、有効領域と無効領域の境界箇所を黒色で、有効領域をグレーで表示し、無効領域は色彩表示しない。 As shown in FIG. 14, the z-direction effective area (R1-1 to R22-22) determined in step S15 is color-coded so that the effective area can be distinguished from the invalid area and its boundary portion for each address conversion area (or floor). Display). In the example shown in the figure, the z direction (z = 1 to 32) and the photon count value are given in 32 steps, respectively, and the z direction effective area of one address conversion area is displayed as a bitmap with 32 × 32 pixels. . In the example shown in the figure, the boundary between the valid area and the invalid area is displayed in black, the valid area is displayed in gray, and the invalid area is not displayed in color.
以上により、各アドレス分割領域のz方向有効領域を視覚的に確認することができる。 As described above, the z-direction effective area of each address division area can be visually confirmed.
1−1−8. z方向有効領域決定処理の変形形態
上述した「1−1−4z方向有効領域決定処理」では、図13(B)を用いて被検体に
投与した放射性医薬品が1種類の場合におけるz方向有効領域の決定手法について説明したが、ここでは被検体に投与した放射性医薬品が複数種類の場合におけるz方向有効領域の決定手法について説明する。具体的には、被検体に投与した放射性医薬品が2種類の場合におけるz方向有効領域決定処理である(ステップS73に相当)について、図15に示す任意のアドレス分割領域におけるz方向有効領域決定の説明を用いて説明する。
1-1-8. Modified form of z-direction effective area determination process In the above-mentioned “1-1-4 z-direction effective area determination process”, the z-direction effective area in the case where there is one type of radiopharmaceutical administered to the subject using FIG. The method for determining the z-direction effective region when there are a plurality of types of radiopharmaceuticals administered to the subject will be described here. Specifically, with respect to the z-direction effective region determination process (corresponding to step S73) in the case where there are two types of radiopharmaceuticals administered to the subject, the z-direction effective region determination in any address division region shown in FIG. This will be described using the explanation.
図15(A)に示す如くフォトンカウント値の最大値(第1ピーク)の半分(50%)のフォトンカウント値を有するz方向領域を仮第1領域とし、当該仮第1領域の前後で、最大値の次に大きい値(第2ピーク)を有するフォトンカウント値の半分(50%)のフォトンカウント値を有するz方向領域を仮第2領域とする。 As shown in FIG. 15A, a z-direction region having a photon count value that is half (50%) of the maximum value (first peak) of the photon count value as a temporary first region, and before and after the temporary first region, A z-direction region having a photon count value that is half (50%) of the photon count value having the second largest value (second peak) after the maximum value is set as a provisional second region.
そして、図15(B)に示す如く、仮第1領域と仮第2領域をz方向順に並べ替えを行ない、それぞれの最大値(第1ピーク及び第2ピーク)の10%のフォトンカウント値を有するz方向領域をそれぞれ第1z方向有効領域、第2z方向有効領域とする。なお、図15(B)に示す如く双方の有効領域が重なり合う場合には、両有効領域境界部は、フォトンカウント値の最小位置とする。 Then, as shown in FIG. 15B, the temporary first region and the temporary second region are rearranged in the z direction, and the photon count value of 10% of each maximum value (first peak and second peak) is obtained. The z-direction regions that are included are defined as a first z-direction effective region and a second z-direction effective region, respectively. When both effective areas overlap as shown in FIG. 15B, both effective area boundaries are set to the minimum position of the photon count value.
以上の説明したように、被検体に複数種類の放射性医薬品を投与した場合であっても、z方向有効領域を精度よく決定することができる。従って、z方向有効領域のビットマップデータを作成する際には、夫々の有効領域を区別できるよう色分けして(或いは階調分けして)表示部14に表示させて、ユーザに提示することができる。
As described above, even if a plurality of types of radiopharmaceuticals are administered to the subject, the z-direction effective region can be determined with high accuracy. Therefore, when creating bitmap data of the effective area in the z direction, the effective area can be displayed in the
[1−2.画像処理手順2]
次に、ガンマカメラ装置からの検出データに対する画像処理の具体的手法の他の例について説明する。上述した画像処理手順1では、xyアドレス変換テーブルを作成する際に、xy各稜線からxy境界線を夫々求め、境界線で挿まれた画素を境界線番号が小さい方のアドレス値として求めたが、以下に説明する画像処理手順2では、微分処理後のテストパターン原画像データの粒状パターンの出力値に基づいて所定の数のピーク点を抽出(特定)し、アドレス変換テーブルにおける各画素を当該各ピーク点から放射状に広がるガンマ分布形状領域に包含させることにより、アドレス分割を行なう手法とする。また、当該xyアドレス変換テーブル及びz方向有効領域のビットマップデータの作成のみならず、上記ピーク点についても表示部14に表示して、ユーザが入力部15を介して当該ピーク点の位置の修正を対話形式に行なうことができるように構成した。
[1-2. Image processing procedure 2]
Next, another example of a specific method of image processing for detection data from the gamma camera device will be described. In the
図16は、テストパターン原画像データに対する画像処理を示すフローチャートである。なお、各処理における具体的な手順は、後にフローチャートを用いて順次説明していくが、上述した画像処理手順1に記載した処理と同じ内容の処理についてはここでは詳細な説明を省略する。
FIG. 16 is a flowchart showing image processing for test pattern original image data. Note that specific procedures in each process will be sequentially described later with reference to flowcharts, but detailed description of processes having the same contents as the processes described in the
先ず、テストパターン原画像データに対して微分フィルタ処理を行ない(ステップ101)、図1に示すテストパターン原画像データの粒状の光子パターン(粒状パターン)の夫々の出力値の差が明確になるよう強調化する。続いて、稜線抽出処理を行ない(ステップS102)、更にこれに基づいてピーク点特定処理を行ない(ステップS103)、制御部11はアドレス変換テーブル作成手段として機能し、xy平面におけるアドレス変換テーブルを作成する(ステップS104)。 First, differential filter processing is performed on the original test pattern image data (step 101) so that the difference in output value between the granular photon patterns (granular patterns) of the original test pattern image data shown in FIG. Emphasize. Subsequently, ridge line extraction processing is performed (step S102), and further, peak point identification processing is performed based on the ridge line extraction processing (step S103), and the control unit 11 functions as an address conversion table generating unit to generate an address conversion table on the xy plane. (Step S104).
続いて、制御部11はアドレス変換手段及び有効領域決定手段として機能し、夫々のアドレス領域毎に分割されたアドレス分割領域毎にz方向有効領域決定処理を行ない(ステップS105)、光子の有効エネルギー準位(波長)を決定する。 Subsequently, the control unit 11 functions as an address conversion unit and an effective region determination unit, and performs a z-direction effective region determination process for each address division region divided for each address region (step S105), and the effective energy of the photon Determine the level (wavelength).
そして、制御部11は表示制御手段として機能し、ステップS104で作成したxyアドレス変換テーブルと、ステップS105にて決定したz方向の有効領域とをビットマップデータとして作成し(ステップS106、107)、表示部14に表示して処理を終了する(ステップS108)。
The control unit 11 functions as a display control unit, creates the xy address conversion table created in step S104 and the effective area in the z direction determined in step S105 as bitmap data (steps S106 and 107), The information is displayed on the
続いて、各処理について具体的に説明するが、ステップS101の微分フィルタ処理、ステップS106及び107のビットマップデータ作成処理、及びステップS108のビットマップデータの表示処理については、図4を参照して説明した「1−1−1.微分フィルタ処理」「1−1−6.xyアドレス変換テーブルのビットマップデータの作成」「1−1−7.z方向有効領域のビットマップデータの作成」及びステップS18における表示処理と同様の処理であるため、ここでの説明は省略する。 Subsequently, each process will be described in detail. The differential filter process in step S101, the bitmap data creation process in steps S106 and 107, and the bitmap data display process in step S108 are described with reference to FIG. “1-1-1. Differential Filter Processing”, “1-1-6. Creation of Bitmap Data of xy Address Conversion Table”, “1-1-7. Creation of Bitmap Data of z Direction Effective Area”, and Since it is the same process as the display process in step S18, description here is abbreviate | omitted.
1―2−2.稜線抽出処理
次に、上記ステップS102における稜線抽出処理について図17乃至図19を参照して説明する。
1-2-2. Edge Line Extraction Process Next, the edge line extraction process in step S102 will be described with reference to FIGS.
図17は稜線抽出処理を示すフローチャートである。 FIG. 17 is a flowchart showing the ridge line extraction process.
先ず、記憶部12から微分処理後のテストパターン原画像データ(以下、単に「テストパターン原画像データ」という。)を取得する(ステップS111)。 First, test pattern original image data after differentiation processing (hereinafter simply referred to as “test pattern original image data”) is acquired from the storage unit 12 (step S111).
そして、制御部11はピーク画素抽出手段として機能し、原画像データを低階調値化した複数の画素からなる低階調値画像を示す低階調値画像データを生成し、対応する原画像データの粒状パターンのフォトンカウント値(出力値)が大きいほうから順に所定の数の画素に対して最大画素値を与えて、ピーク画素をとして抽出し、抽出された複数の画素位置を明示する低階調値画像を生成(作成)する(ステップS112、S113)。より具体的に説明すると、低階調値画像を構成する複数の画素のうち、対応する原画像データにおいて、フォトンカウント値が最も大きい粒状パターンに対応する画素を図18(A)に示す如く、ピーク画素として抽出し、当該画素に対して最大画素値を与える。なお、本実施形態における低階調値画像データの階調数は、説明の簡単のため画素値0から画素値3の4段階とする。従って、ピーク画素に対しては最大画素値である画素値「3」が与えられるものとする。
Then, the control unit 11 functions as a peak pixel extraction unit, generates low gradation value image data indicating a low gradation value image composed of a plurality of pixels obtained by reducing the original image data, and generates a corresponding original image. The maximum pixel value is given to a predetermined number of pixels in descending order from the largest photon count value (output value) of the granular pattern of data, the peak pixel is extracted, and a plurality of extracted pixel positions are clearly indicated. A tone value image is generated (created) (steps S112 and S113). More specifically, as shown in FIG. 18A, the pixel corresponding to the granular pattern having the largest photon count value in the corresponding original image data among the plurality of pixels constituting the low gradation value image, Extract as a peak pixel and give the maximum pixel value for that pixel. It should be noted that the number of gradations of the low gradation value image data in this embodiment is assumed to be four levels from
続いて、制御部11はピーク領域抽出手段として機能し、当該ピーク画素に隣接する周辺の画素に対して、第1中間画素値の一例として画素値2を与えて、図18(B)に示す如くピーク領域を抽出する(ステップS114)。例えば、ピーク領域はピーク画素の周辺3×3の画素とする。
Subsequently, the control unit 11 functions as a peak area extraction unit, and gives a
次に、制御部11は隣接領域抽出手段として機能し、当該ピーク領域に隣接する周辺の画素に対して、第2中間画素値の一例として画素値1を与えて、図18(C)に示す如く隣接領域を抽出する(ステップS115)。例えば、隣接領域はピーク画素の周辺7×7の画素(ピーク画素を含むピーク領域3×3の画素を除く)とする。
Next, the control unit 11 functions as an adjacent region extracting unit, and gives a
そして、低階調値画像を構成する複数の画素のうち、対応する原画像データにおいて、対応するフォトンカウント値が大きいほうから順に粒状パターンのピーク画素を抽出し、図18(D)に示す如くピーク領域を抽出し、更に隣接領域を抽出し、所望のアドレス分割領域の数(例えば、22×22等の所定の数)だけステップS112乃至ステップS116の処理を繰り返し行なった後に、ステップS117に移行する。なお、最初にピーク画素を抽出する際には、低階調値画像を構成する全画素が検索対象となるが、2回目以降は、既にピーク画素、ピーク領域及び隣接領域として選ばれた画素は次のピーク画素の検索対象から除外するよう構成する。これにより、ピーク領域を分散させて後の処理において精度よくアドレス分割を行なうことができる。特に、隣接領域を設けたことによって、複数のピーク領域が近接して存在することを防ぎ、低階調値画像中に分散してピーク領域を設けることができ、アドレス分割を良好に行なうことが可能になる。 Then, among the plurality of pixels constituting the low gradation value image, the peak pixels of the granular pattern are extracted from the corresponding original image data in descending order of the corresponding photon count value, as shown in FIG. After extracting the peak area, further extracting adjacent areas, repeating the processing from step S112 to step S116 by the number of desired address division areas (for example, a predetermined number such as 22 × 22), and then proceeding to step S117 To do. Note that when extracting the peak pixel for the first time, all the pixels constituting the low gradation value image are searched, but after the second time, the pixels already selected as the peak pixel, the peak region, and the adjacent region are It is configured so as to be excluded from the search target of the next peak pixel. Thereby, it is possible to perform the address division with high accuracy in the subsequent processing by dispersing the peak area. In particular, by providing adjacent areas, it is possible to prevent a plurality of peak areas from being close to each other, disperse the peak areas in the low gradation value image, and to perform address division satisfactorily. It becomes possible.
また、図18(D)は図示の簡略のため、上記所望のアドレス分割領域の数(所定の数)を「16」として、ステップS112乃至ステップS116の処理を16回行い、16個のピーク領域を求めた例を示したが、22×22のアドレス分割を行ないたい場合には、22×22個のピーク領域を求めればよい。 For simplicity of illustration in FIG. 18D, the number of the desired address division regions (predetermined number) is set to “16”, and the processing from step S112 to step S116 is performed 16 times to obtain 16 peak regions. However, if 22 × 22 address division is desired, 22 × 22 peak areas may be obtained.
そして、制御部11は稜線抽出手段として機能し、低階調値画像を構成する画素のうち、所定の数(例えば22個)のピーク領域と交差する交差線を決定し、当該交差線に対して垂直方向であって、かつ当該交差線が交差するピーク領域のピーク画素の位置に、稜線を低階調値画像のx方向及びy方向(水平方向及び垂直方向)に夫々22本づつ抽出する(ステップS117、118)。 And the control part 11 functions as a ridge line extraction means, determines the crossing line which cross | intersects a predetermined number (for example, 22) peak area | region among the pixels which comprise a low gradation value image, and with respect to the said crossing line Thus, 22 ridge lines are extracted in the x direction and y direction (horizontal direction and vertical direction) of the low gradation value image at the position of the peak pixel in the peak region that is in the vertical direction and intersects with the intersection line. (Steps S117 and 118).
稜線抽出について図19を用いて具体的に説明する。なお、図19は図示の簡略のため所定の数を「4」としている。図19の左図に示す例によれば、図中低階調値画像の上から下(或いは下から上)に掃引され、ピーク領域と交差したa、b、c及びdの走査線のうち、4つのピーク領域と交差している走査線を交差線として決定する。図19の左図に示す例によれば、走査線aと走査線bのみが4つのピーク領域と交差している。更に、各ピーク領域が低階調値画像上水平方向に均等に配置されていることが望ましい。従って、水平方向により均等に4つのピーク領域と交差している走査線aを交差線として決定し、当該交差線と交差したピーク領域のピーク画素の位置にy方向(垂直方向)稜線(以下、単に「y稜線」という。)を抽出する。 The ridge line extraction will be specifically described with reference to FIG. In FIG. 19, the predetermined number is “4” for the sake of simplicity. According to the example shown in the left diagram of FIG. 19, among the scanning lines a, b, c, and d that are swept from the top to the bottom (or from the bottom to the top) of the low gradation value image and intersect the peak region. Scan lines that intersect the four peak regions are determined as intersection lines. According to the example shown in the left diagram of FIG. 19, only the scanning line a and the scanning line b intersect the four peak regions. Further, it is desirable that the peak areas are evenly arranged in the horizontal direction on the low gradation value image. Accordingly, the scanning line a that intersects the four peak areas equally in the horizontal direction is determined as the intersection line, and the y-direction (vertical direction) ridge line (hereinafter, referred to as the peak pixel position of the peak area that intersects the intersection line). Simply “y ridge line”).
同様にして、図19の右図に示す如く、x方向(水平方向)稜線は、図中低階調値画像の左から右(或いは右から左)に掃引され、ピーク領域と交差したa、b、c及びdの走査線のうち4つのピーク領域と交差している走査線を交差線として決定する。図19の右図に示す例によれば、走査線aと走査線cと走査線dが4つのピーク領域と交差している。更に、各ピーク領域が低階調値画像上垂直方向に均等に配置されていることが望ましい。従って、垂直方向により均等に4つのピーク領域と交差している走査線cを交差線として決定し、当該交差線と交差したピーク領域のピーク画素の位置にx方向(水平方向)稜線(以下、単に「x稜線」という。)を抽出する。 Similarly, as shown in the right diagram of FIG. 19, the ridge line in the x direction (horizontal direction) is swept from the left to the right (or from right to left) of the low gradation value image in the diagram, and a, Of the scanning lines b, c, and d, scanning lines that intersect the four peak regions are determined as intersection lines. According to the example shown in the right diagram of FIG. 19, the scanning line a, the scanning line c, and the scanning line d intersect the four peak regions. Furthermore, it is desirable that the peak areas are evenly arranged in the vertical direction on the low gradation value image. Accordingly, the scanning line c that intersects the four peak areas evenly in the vertical direction is determined as an intersection line, and an x-direction (horizontal direction) ridge line (hereinafter, referred to as a peak pixel position in the peak area that intersects the intersection line). Simply “x ridge line”).
そして、抽出した各x稜線及び各y稜線に対して夫々稜線番号(例えば、x=1〜22、y=1〜22)を付すこととする。 Then, a ridge line number (for example, x = 1 to 22, y = 1 to 22) is assigned to each extracted x ridge line and each y ridge line.
以上により、稜線抽出処理(S102)を終了しステップS103の処理に移行する。 As described above, the ridge line extraction process (S102) is terminated, and the process proceeds to step S103.
1−2−3.ピーク点特定処理
次に、ステップS103におけるピーク点特定処理について図20を参照して説明する。図20(A)はピーク点特定処理を示すフローチャートである。
1-2-3. Peak Point Identification Processing Next, the peak point identification processing in step S103 will be described with reference to FIG. FIG. 20A is a flowchart showing the peak point specifying process.
先ず、稜線抽出処理において抽出したx稜線及びy稜線が交差する交点を、当該各稜線の稜線番号を示す稜線番号情報をxアドレス値及びyアドレス値(アドレス情報)として付与して図20(B)に示す如く特定する(ステップS121)。つまり、各交点は、xアドレス値「1」〜「22」の何れかの値、yアドレス値「1」〜「22」の何れかの値をアドレス情報として有することとなる。 First, the intersection where the x ridge line and the y ridge line extracted in the ridge line extraction process intersect is assigned with ridge line number information indicating the ridge line number of each ridge line as an x address value and ay address value (address information). ) (Step S121). That is, each intersection has one of x address values “1” to “22” and one of y address values “1” to “22” as address information.
そして、制御部11はピーク点特定手段として機能し、各交点を、対応するテストパターン原画像データのフォトンカウント値が、周囲のカウント値と比して大きいカウント値を有する位置に、アドレス情報を維持したまま再配置し、図20(C)に示す如くピーク点として特定する(ステップS122)。ここで、隣接する交点が互いに衝突しない範囲で各交点を再配置しなければならないので、例えば、原画像が256×256画素で、交点数が22×22の場合には、各交点間の距離は約10画素強となり、1つの交点を、上下左右に3画素程度の範囲で再配置することとなる。したがって、上記「周囲のカウント値」とは、例えば、低階調値画像において交点に対応する画素の7×7の周辺画素に対応する原画像データのフォトンカウント値を示す。 Then, the control unit 11 functions as a peak point specifying unit, and sets the address information at each intersection at a position where the photon count value of the corresponding test pattern original image data has a larger count value than the surrounding count value. Rearrangement is performed while maintaining the peak point as shown in FIG. 20C (step S122). Here, since each intersection must be rearranged in a range where adjacent intersections do not collide with each other, for example, when the original image is 256 × 256 pixels and the number of intersections is 22 × 22, the distance between the intersections Becomes about 10 pixels, and one intersection is rearranged in the range of about 3 pixels vertically and horizontally. Therefore, the “surrounding count value” indicates, for example, the photon count value of the original image data corresponding to the 7 × 7 peripheral pixels of the pixel corresponding to the intersection in the low gradation value image.
続いて、特定した各ピーク点のアドレス情報に基づいてビットマップデータを作成し、表示部14に表示して(ステップS123)処理を終了する。 Subsequently, bitmap data is created based on the address information of each identified peak point, and is displayed on the display unit 14 (step S123), and the process is terminated.
ピーク点のビットマップデータは、256階調(所定階調)のxy平面濃淡画像データを生成し、R値、G値、B値が夫々等しいモノクロ画像の背景を特定する。そして、22×22点のピーク点画素をR値を最大階調値「255」、G値を「ピーク点のxアドレス値」、B値を「ピーク点のyアドレス値」で表示する。ピーク点は、後の領域分割の精度に大きな影響を与えるため、この時点で表示部14に一旦表示し、これを確認したユーザが必要に応じて入力部15を介してピーク点の位置修正を行なうことにより、領域分割後にxy変換テーブルを修正するよりも作業負担が少なく簡易に修正することができる。
The bitmap data of peak points generates 256-level (predetermined tone) xy plane grayscale image data, and specifies the background of a monochrome image having the same R value, G value, and B value. The 22 × 22 peak point pixels are displayed with the R value as the maximum gradation value “255”, the G value as the “peak address x address value”, and the B value as the “peak address y address value”. Since the peak point has a great influence on the accuracy of the subsequent area division, it is displayed once on the
なお、ピーク点が比較的整った格子パターンから著しく逸脱している場合には、各ピーク点の隣接関係が不鮮明となる。そこで、上述した「1−1−6.xyアドレス変換テーブルのビットマップデータの作成」の処理と同様に、隣接するピーク点同士でコントラストのある色で表示させるよう構成すると各ピーク点の位置関係がより鮮明になる。例えば、(1)ピーク点のxアドレス値が奇数、ピーク点のyアドレス値が奇数の場合、R値を「200」、G値を「ピーク点のxアドレス値」、B値を「ピーク点のyアドレス値」として表示(2)ピーク点のxアドレス値が偶数、ピーク点のyアドレス値が奇数の場合、R値を「0」、G値を「ピーク点のxアドレス値」、B値を「ピーク点のyアドレス値+200」として表示(3)ピーク点のxアドレス値が奇数、ピーク点のyアドレス値が偶数の場合、R値を「100」、G値を「ピーク点のxアドレス値」、B値を「ピーク点のyアドレス値」として表示(4)ピーク点のxアドレス値が偶数、ピーク点のyアドレス値が偶数の場合、R値を「0」、G値を「ピーク点のxアドレス値」、B値を「ピーク点のyアドレス値+100」として表示とすれば、各ピーク点の位置とアドレス情報を色で表示して確認することができるばかりでなく、各ピーク点の隣接関係を視覚的に容易に確認ができるのでより好適である。 Note that when the peak points deviate significantly from the relatively well-organized lattice pattern, the adjacent relationship between the peak points becomes unclear. Therefore, in the same manner as the processing of “1-1-6. Creation of bitmap data of xy address conversion table” described above, if the display is performed such that adjacent peak points are displayed in a color having a contrast, the positional relationship between the peak points. Becomes clearer. For example, (1) When the x address value of the peak point is odd and the y address value of the peak point is odd, the R value is “200”, the G value is “the x address value of the peak point”, and the B value is “the peak point” (2) When the x address value at the peak point is an even number and the y address value at the peak point is an odd number, the R value is “0”, the G value is “the x address value of the peak point”, and B The value is displayed as “peak point y address value +200”. (3) When the peak point x address value is odd and the peak point y address value is even, the R value is “100” and the G value is “peak point”. X address value "and B value are displayed as" y address value of peak point "(4) When the x address value of the peak point is even and the y address value of the peak point is even, the R value is" 0 ", G The value is “x address value of peak point”, and the B value is “y address value of peak point + 100 ”Is more preferable because not only the position and address information of each peak point can be displayed and confirmed in color, but also the adjacent relationship between the peak points can be easily visually confirmed. .
以上により、ピーク点特定処理を行ない、ステップS104の処理に移行する。 As described above, the peak point specifying process is performed, and the process proceeds to step S104.
1−2−4.xyアドレス変換テーブル作成処理
続いて、ステップS104におけるxyアドレス変換テーブル作成処理について図21乃至図22を参照して説明する。図21はxyアドレス変換テーブル作成処理を示すフローチャートである。
1-2-4. xy Address Conversion Table Creation Processing Next, the xy address conversion table creation processing in step S104 will be described with reference to FIGS. FIG. 21 is a flowchart showing the xy address conversion table creation process.
先ず、ピーク点特定処理において特定したピーク点を、擬似光源として定義する(ステップS131)。すなわち、各ピーク点に発光源が存在すると仮定し、低階調値画像を構成する画素に与えられた座標位置における全発光源からのエネルギー伝達量を所属優先度として算出し、この値が最も大きい発光源に当該画素は所属すると判断し、領域分割を行なう。換言すれば、各画素を当該各ピーク点から放射状に広がるガンマ分布形状領域に包含させることにより、アドレス分割を行なうこととなる。この手法により、ピーク点の位置関係が比較的整った格子パターンから逸脱し複雑な位置関係となっている場合であっても、当該ピーク点を発光源に見立て、当該発光源を中心とするガウス関数に基づいて領域分割が成されるため、平滑化等の処理を施すことなく滑らかな領域分割を実現することが可能になる。 First, the peak point specified in the peak point specifying process is defined as a pseudo light source (step S131). That is, assuming that there is a light source at each peak point, the amount of energy transfer from all the light sources at the coordinate positions given to the pixels constituting the low gradation value image is calculated as the belonging priority, and this value is the highest. It is determined that the pixel belongs to a large light source, and region division is performed. In other words, address division is performed by including each pixel in a gamma distribution shape region that radiates from each peak point. By this method, even when the peak point is in a complicated positional relationship that deviates from a relatively well-organized lattice pattern, the peak point is regarded as a light source and a Gaussian centered on the light source is used. Since region division is performed based on the function, smooth region division can be realized without performing processing such as smoothing.
なお、発光源と見立てたピーク点からのエネルギー伝達量の一例としての散乱カウント量Eに対して、本発明における所属優先度を適用した場合について説明する。 A case will be described in which the affiliation priority in the present invention is applied to the scattering count amount E as an example of the energy transfer amount from the peak point regarded as the light emission source.
先ず、制御部11はアドレス情報決定手段、所属優先度算出手段として機能し、ピーク点が対応するテストパターン原画像データのフォトンカウント値と、ピーク点と画素との距離とに基づいて、各ピーク点毎に散乱カウント量E(所属優先度)を以下の数式1に基づいて算出する(ステップS132)。 First, the control unit 11 functions as address information determination means and affiliation priority calculation means, and based on the photon count value of the test pattern original image data corresponding to the peak point and the distance between the peak point and the pixel, The scattering count amount E (affiliation priority) is calculated for each point based on the following formula 1 (step S132).
なお、以下の式において、ピーク点が対応するテストパターン原画像データのフォトンカウント値をVとし、ピーク点と画素との距離をrとし、kを正の実数定数とする。 In the following equation, the photon count value of the test pattern original image data corresponding to the peak point is V, the distance between the peak point and the pixel is r, and k is a positive real number constant.
ここで、全てのピーク点からの散乱カウント量Eが所定の閾値Eth未満である画素を、無効画素として記憶部12に記憶する(ステップS133)。所定の閾値Ethは、例えば最大散乱カウント量Eの10^(−6)程度である。 Here, the pixels whose scattering counts E from all the peak points are less than the predetermined threshold Eth are stored as invalid pixels in the storage unit 12 (step S133). The predetermined threshold Eth is, for example, about 10 ^ (-6) of the maximum scattering count amount E.
そして、無効画素以外の各画素について、最大の散乱カウント量となるピーク点を所属先のピーク点として決定する(ステップS134)。 Then, for each pixel other than the invalid pixels, the peak point that is the maximum scattering count is determined as the belonging peak point (step S134).
図を用いて具体的に説明する。図22は、画素Aの所属先ピーク点を求める説明図である。同図に示す例によれば、画素Aがピーク点P1乃至P5の何れの散乱カウント量Eが大きいかを求めた結果、ピーク点P1が所属先のピーク点として決定され、図22(B)においてピーク点P1の画素領域に所属している。なお、ピーク点P1は画素Aとの距離rが最も近いのであるが、もちろん、他のピーク点P2乃至P5が対応するテストパターン原画像データの粒状パターンのフォトンカウント値Vが大きければ、上記数式1に基づいて他のピーク点P2乃至P5との散乱カウント量Eが大きくなり、当該他のピーク点P2乃至P5のいずれかが画素Aを画素領域内に取り込む場合もある。
This will be specifically described with reference to the drawings. FIG. 22 is an explanatory diagram for obtaining the belonging peak point of the pixel A. According to the example shown in the figure, as a result of obtaining which scattering count amount E of the peak points P1 to P5 is larger in the pixel A, the peak point P1 is determined as the belonging peak point, and FIG. Belongs to the pixel region of the peak point P1. The peak point P1 has the shortest distance r from the pixel A. Of course, if the photon count value V of the granular pattern of the test pattern original image data corresponding to the other peak points P2 to P5 is large, the
そして、図23(C)に示す如く、ステップS133において記憶部12に記憶した無効画素について、各ピーク点との距離rを求め、最も距離が近いピーク点を所属先のピーク点として決定する(ステップS135)。
Then, as shown in FIG. 23C, for the invalid pixel stored in the
そして、制御部11はアドレス情報決定手段、xyアドレス変換テーブル作成手段として機能し、各画素のアドレス情報として、夫々が所属するピーク点のアドレス情報を付与して決定し、これに基づいて図23(D)に示す如く複数のアドレス分割領域から成るxyアドレス変換テーブルを作成して処理を終了する(ステップS136、S137)。 Then, the control unit 11 functions as an address information determining unit and an xy address conversion table creating unit, and determines and determines the address information of the peak point to which each pixel belongs as the address information of each pixel. As shown in (D), an xy address conversion table composed of a plurality of address division areas is created, and the process is terminated (steps S136 and S137).
なお、所属先のピーク点を決定する際に、対象画素の近傍4つのピーク点を所属先候補として予め選出しておき、それら4つのピーク点の散乱カウント量Eのみを算出すれば、処理時間の短縮化を図ることができる。しかし、ピーク点の位置関係が複雑である場合には、近傍の4ピークの選出が難しくなり、ピーク点の見落としや選出ミスなどの危険性がある。従って、本実施形態で説明したように、各画素について全ピーク点との散乱カウント量Eを算出する手法が確実である。 In determining the affiliation destination peak point, if four peak points in the vicinity of the target pixel are selected in advance as affiliation destination candidates and only the scattering count amount E of these four peak points is calculated, the processing time Can be shortened. However, when the positional relationship of the peak points is complicated, it becomes difficult to select four neighboring peaks, and there is a risk of oversight of the peak points or selection mistakes. Therefore, as described in the present embodiment, a method for calculating the scattering count amount E with respect to all peak points for each pixel is reliable.
以上説明した手法によれば、各アドレス分割領域の領域境界の形状を比較的滑らかに形成することができるため、アドレス変換後のノイズを最小限に抑えることを可能にしたアドレス変換テーブルを作成することができる。 According to the method described above, since the shape of the area boundary of each address division area can be formed relatively smoothly, an address conversion table that can minimize noise after address conversion is created. be able to.
1−2−5.z方向有効領域決定処理
続いて、ステップS105におけるz方向有効領域決定処理について説明する。
1-2-5. z-direction Effective Area Determination Process Subsequently, the z-direction effective area determination process in step S105 will be described.
なお、ここでは図13〜図15を用いて詳述した「1−1−4.z方向有効領域決定処理」及び「1−1−8. z方向有効領域決定処理の変形形態」と異なる箇所についてのみ詳細に説明することとし、詳細な手順については上記の説明部分と同様であるため省略する。 Here, the difference from “1-1-4.z-direction effective area determination process” and “1-1-8. Modified form of z-direction effective area determination process” described in detail with reference to FIGS. Only detailed description will be given, and the detailed procedure is the same as that described above, and will be omitted.
上述した「1−1−4.z方向有効領域決定処理」では、各アドレス分割領域(22×22)について、フォトンカウント値の例えばピークの10%前後に対応する波長領域を所定の有効領域(R1−1〜R22−22)として求めたが、ここでは、ピークを中央付近として前後に約10%の幅を有効領域として決定することとした。図24(A)の任意のアドレス分割領域におけるz方向有効領域の説明図に示すように、ピークとなるz値を中央として、右側(z値が大きいほう)+8%から左側(z値が小さいほう)−15%などと設定し、左右で異なる割合を設定してもよい。 In the “1-1-4.z-direction effective area determination process” described above, for each address division area (22 × 22), a wavelength area corresponding to, for example, about 10% of the peak of the photon count value is set to a predetermined effective area ( R1-1 to R22-22), but here, the peak is set near the center, and a width of about 10% before and after is determined as the effective region. As shown in the explanatory diagram of the z-direction effective area in the arbitrary address division area in FIG. 24A, with the z value at the peak as the center, the right side (the larger z value) + 8% to the left side (the z value is The smaller one may be set to -15% or the like, and different ratios may be set on the left and right.
また、本実施形態では、1の画像データは32枚の分割画像データからなることから、z値は、1から32という値をとることとなるが、ピークのz値が「16」である場合には、その10%は1.6であって、1.6を切り上げて2づつ左右に有効領域を設定することとなるが、1.6を2に切り上げて求めた有効領域では精度が低いとも言える。従って、1の画像データを例えば128枚の分割画像データで構成するなど、できるだけ細かい分割画像データを用いることにより、精度の高いz方向有効領域を決定することができる。 In the present embodiment, since one image data consists of 32 pieces of divided image data, the z value takes a value of 1 to 32, but the peak z value is “16”. 10% is 1.6, and 1.6 is rounded up to set the effective area to the left and right by 2. However, the accuracy is low in the effective area obtained by rounding 1.6 up to 2. It can also be said. Therefore, the z-direction effective region with high accuracy can be determined by using as much divided image data as possible, for example, one image data is composed of 128 pieces of divided image data.
なお、被検体に投与した放射性医薬品が複数種類の場合など、2つのピークが観測される場合にも「1−1−8. z方向有効領域決定処理の変形形態」と同様にして2つの仮領域を決定した後に、図24(B)に示す如くピークを中央付近として前後に約10%の幅を有効領域として決定するよう構成すればよい。 Even when two peaks are observed, such as when there are a plurality of types of radiopharmaceuticals administered to the subject, two temporary medicines can be obtained in the same manner as in “1-1-8. Modified embodiment of z-direction effective region determination process”. After determining the region, as shown in FIG. 24B, the peak may be set near the center, and a width of about 10% may be determined as the effective region before and after.
なお、上述した画像処理手順1及び2の夫々の工程における各処理は夫々別の組み合わせによってもよい。例えば、xyアドレス変換テーブル作成処理は画像処理手順1の手法で行ない、z方向有効領域決定処理は画像処理手順2の手法で行なってもよい。
It should be noted that the processes in the respective steps of the
2.変換対象画像データの領域統合画像データ作成手順
続いて、画像処理手順1又は画像処理手順2によって求めたxyアドレス変換テーブル及びz方向有効領域に基づいて、被検体を撮影して得られた変換対象画像データについてアドレス変換を行ない、領域統合画像データを作成する手順について説明する。
2. Region integrated image data creation procedure of conversion target image data Subsequently, the conversion target obtained by imaging the subject based on the xy address conversion table and the z-direction effective region obtained by the
図25は変換対象画像データの領域統合画像データ作成処理を示すフローチャートである。 FIG. 25 is a flowchart showing a region integration image data creation process of conversion target image data.
先ず、ガンマカメラ検出データ記憶部12Bより、変換対象画像データを取得する(ステップS201)。変換対象画像データは予めガンマカメラ装置にて撮影されてガンマカメラ検出データ記憶部12Bに記憶されているものとし、テストパターン原画像データと同様に2次元方向に256×256の画素として、波長(可視光領域)が異なる32枚(プレーン)の分割画像データにて構成される。
First, conversion target image data is acquired from the gamma camera detection
そして、制御部11はアドレス変換手段として機能し、ステップS14(又はステップS137)にて作成したxyアドレス変換テーブルを用いて、変換対象画像データの32枚(z=1〜32)の分割画像データについてそれぞれアドレス変換を行ない、各アドレス分割領域(22×22)毎に対応するフォトンカウント値(出力値)を取得する(ステップS202)。 The control unit 11 functions as an address conversion unit, and uses the xy address conversion table created in step S14 (or step S137) to generate 32 pieces (z = 1 to 32) of divided image data to be converted. The address conversion is performed for each address, and a photon count value (output value) corresponding to each address division region (22 × 22) is acquired (step S202).
続いて、制御部11は領域統合画像データ作成手段として機能し、ステップS15(又はステップS105)にて各アドレス分割領域(22×22)毎に決定したz方向有効領域を用いて、有効範囲である分割画像データ(有効データ)の粒状パターンのフォトンカウント値を総和演算してアドレス変換画像データ(領域統合画像データ)を作成して処理を終了する(ステップS203)。なお、作成した領域統合画像データは表示部14に表示してユーザに提示したり、或いは図示しないプリンタ等の出力部にて画像出力することが可能である。
Subsequently, the control unit 11 functions as a region integrated image data creation unit, and uses an effective range in the z direction effective region determined for each address division region (22 × 22) in step S15 (or step S105). The photon count value of the granular pattern of certain divided image data (valid data) is summed to generate address converted image data (region integrated image data), and the process is terminated (step S203). The created region integrated image data can be displayed on the
このように、テストパターンの粒状パターンに基づいて決定したアドレス分割領域に基づいてxyアドレス変換テーブルを作成することにより、ガンマカメラ装置にて取得した画像データ(変換対象画像データ)について高精度な領域統合画像データを作成することができる。この手法によれば、予め同条件のテストパターンを用いてxyアドレス変換テーブルを作成しているので、被検体に投与した放射性医薬品の特性、ガンマカメラ装置自身の特性、及びアンプの特性等を反映したアドレス変換を行なうことができるので、より正確なアドレス変換をおこなうことができ、高精度な領域統合画像データを作成することができる。 As described above, by creating the xy address conversion table based on the address division area determined based on the granular pattern of the test pattern, a highly accurate area for the image data (conversion target image data) acquired by the gamma camera device. Integrated image data can be created. According to this method, an xy address conversion table is created in advance using a test pattern under the same conditions, so that the characteristics of the radiopharmaceutical administered to the subject, the characteristics of the gamma camera device itself, the characteristics of the amplifier, etc. are reflected. Therefore, more accurate address conversion can be performed, and high-precision area integration image data can be created.
さらに、1の画像データが光子エネルギー準位(波長)の異なる複数の分割画像データにて構成されている場合であっても、テストパターンを用いて予め有効な光子エネルギー準位、つまり有効領域を求めることにより、ガンマカメラ装置にて取得した画像データ(変換対象画像データ)についてアドレス変換を行なう際にも、有効領域である分割画像データ(有効データ)のみを用いた高精度な領域統合画像データを作成することができる。 Further, even when one image data is composed of a plurality of divided image data having different photon energy levels (wavelengths), an effective photon energy level, that is, an effective region is previously determined using a test pattern. As a result, even when performing address conversion on image data (conversion target image data) acquired by the gamma camera device, highly accurate region integrated image data using only divided image data (effective data) that is an effective region. Can be created.
さらに、各アドレス分割領域の二次元の値で示されるアドレス値を、一方のアドレス値を表示部14のRGB要素のうち何れかの一の値で示し、他方のアドレス値をRGB要素のうち何れかの他の値で示すことにより、アドレス値を色彩にて視覚的にユーザに提示することができ、ユーザは当該アドレス値の修正を容易に行なうことができる。
Further, the address value indicated by the two-dimensional value of each address division region is indicated by one of the RGB elements of the
なお、本実施形態の画像処理手順1では、テストパターン原画像データを二値化した二値化画像データを生成しているがこれに限らず、階調値に対して微分フィルタ処理におけるフォトンカウント値の差の強調度合いに応じた閾値(図6(A)参照。)を設けられれば、二値化せずとも適当な範囲で低階調値化すればよい。
In the
3.変形例
3−1.変形例1
ガンマカメラ検出データ記憶部12Aから取得したテストパターン原画像データの総和演算後の4辺端部(「周辺部」と言う。)をカットして、ノイズ削除処理を行なった後に上述した画像処理(画像処理手順1及び2)を実行するよう構成すれば、画像処理精度を向上させることができ、より好ましい。図26に示す例では、縦方向横方向の長さの10%をノイズ部分として削除したが、ノイズの量や広がりに基づいて適宜変更可能である。
3. Modification 3-1.
The image processing (described above) is performed after cutting the four side ends (referred to as “peripheral portions”) after the sum calculation of the test pattern original image data acquired from the gamma camera detection data storage unit 12A and performing noise removal processing. It is more preferable to perform the
また、上述のように周辺部を切り取る処理を行なわずに、周辺部の画素を無効画素として扱ってもよい。画像処理手順2では、無効画素は近傍のいずれかのアドレス分割領域に包含するよう処理した(ステップS135、図23(D)参照)が、その際、上記周辺部については例外として、無効画素の状態を維持させ、後の処理に用いないよう構成すればよい。
Further, the peripheral pixels may be treated as invalid pixels without performing the process of cutting the peripheral portions as described above. In the
3−2.変形例2
更に、画像処理手順2に係るピーク点特定処理(図20参照。)において、稜線抽出処理(図19参照。)において抽出したx稜線及びy稜線が交差する各交点を、対応するテストパターン原画像データのフォトンカウント値が、周囲のカウント値と比して大きいカウント値を有する位置に、アドレス情報を維持したまま再配置し、これをピーク点として特定したが、各交点を再配置したものをそのままピーク点として用いるのではなく、ピーク点位置を対話形式に修正可能に構成することもできる。
3-2.
Furthermore, in the peak point specifying process (see FIG. 20) according to the
以下、画像処理手順2のピーク点特定処理の変形例として、図27(A)のフローチャートを用いて説明する。
Hereinafter, a modified example of the peak point specifying process of the
先ず、稜線抽出処理において抽出したx稜線及びy稜線が交差する交点を、当該各稜線の稜線番号を示す稜線番号情報をxアドレス値及びyアドレス値(アドレス情報)として付与して特定する(ステップS205)。この処理は、上述したステップS121(図20(B)。)の処理と同様であるので説明は省略する。 First, the intersection where the x ridge line and the y ridge line extracted in the ridge line extraction process intersect is specified by giving ridge line number information indicating the ridge line number of each ridge line as an x address value and ay address value (address information) (step) S205). Since this process is the same as the process of step S121 (FIG. 20B) described above, a description thereof will be omitted.
そして、制御部11はピーク点特定手段として機能し、各交点を、対応するテストパターン原画像データのフォトンカウント値が、周囲のカウント値と比して大きいカウント値を有する位置に、アドレス情報を維持したまま再配置し仮ピーク点とし、xy方向に隣接する各仮ピーク点を結んで折れ線グリッドを生成する(ステップS206)(図27(B)参照。)。 Then, the control unit 11 functions as a peak point specifying unit, and sets the address information at each intersection at a position where the photon count value of the corresponding test pattern original image data has a larger count value than the surrounding count value. Rearrangement is performed while maintaining it as temporary peak points, and a polygonal grid is generated by connecting temporary peak points adjacent in the xy direction (step S206) (see FIG. 27B).
このとき、低階調値画像データの内側に位置する4点の各仮ピーク点においては隣接する4点の仮ピーク点と直線で連結させ、低階調値画像データの4隅を除く周辺部に位置する各仮ピーク点(図27(B)に示す例では8点)においては隣接する3点の仮ピーク点と直線で連結させ、低階調値画像データの4隅の各仮ピーク点は隣接する2点の仮ピーク点と直線で連結させることによりグリッドを構成する。 At this time, each of the four temporary peak points located inside the low gradation value image data is connected to the adjacent four temporary peak points with a straight line, and the peripheral portion excluding the four corners of the low gradation value image data. Each temporary peak point located at (8 points in the example shown in FIG. 27B) is connected to three adjacent temporary peak points with straight lines, and each temporary peak point at the four corners of the low gradation value image data. Forms a grid by connecting two adjacent temporary peak points with a straight line.
次に、制御部11は、ピーク点補正手段として機能し、折れ線グリッドが交差しない範囲で、各仮ピーク点を修正し、修正後の仮ピーク点をピーク点として特定する(ステップS207)。図27(C)に示す例によれば、入力部15のマウス等で操作(クリック&ドラッグ)することにより、仮ピーク点Piを所望の位置に移動させて修正し、修正後の仮ピーク点をピーク点Piとして特定する。但し、当該位置の修正は、折れ線グリッドが交差しない範囲でのみ行なえることとする。例えば、図27(C)に示すように、仮ピーク点Pjを、仮ピーク点PsとPt間の折れ線グリッドを越えて位置修正を行ないピーク点Pjとして特定することはできない。
Next, the control unit 11 functions as a peak point correcting unit, corrects each temporary peak point within a range where the polygonal grid does not intersect, and specifies the corrected temporary peak point as a peak point (step S207). According to the example shown in FIG. 27C, by operating (clicking and dragging) with the mouse or the like of the
そして、特定した各ピーク点のアドレス情報に基づいてビットマップデータを作成し、表示部14に表示して(ステップS208)処理を終了する。 Then, bitmap data is created based on the address information of each identified peak point, and is displayed on the display unit 14 (step S208), and the process ends.
3−3.変形例3
また、上述した画像処理手順2では、各画素について、各ピーク点に所属する画素領域を決定することにより、アドレス分割領域を決定し、xyアドレス変換テーブルを作成したが(図21〜23参照。)、xyアドレス変換テーブル作成処理の変形例として、図28(A)のフローチャートを用いて説明する。この処理は、ピーク点を特定した後に行なわれるが、画像処理手順2のピーク点特定処理(図20)に従って特定したピーク点であっても、画像処理手順2のピーク点特定処理の変形例(図27)に従って特定したピーク点であっても、何れの場合にも実行可能である。
3-3. Modification 3
In the
先ず、特定したピーク点(図20又は図27)を直線で結んで折れ線グリッドを生成する(ステップS210)。画像処理手順2のピーク点特定処理(図27)に従ってピーク点が特定されている場合には、ステップS207の修正後の折れ線グリッドを用いることができる。
First, a polygonal grid is generated by connecting the identified peak points (FIG. 20 or FIG. 27) with straight lines (step S210). When the peak point is specified according to the peak point specifying process (FIG. 27) of the
続いて、図28(B)に示す如く、制御部11は、重心点決定手段及び重心点四角形生成手段として機能し、各折れ線グリッドで囲まれた四角形の重心点を求め(ステップS211)、仮アドレス分割領域を決定する(ステップS212、図28(C)参照。)。 Subsequently, as shown in FIG. 28B, the control unit 11 functions as a center-of-gravity point determination unit and a center-of-gravity point quadrangle generation unit, and obtains a center of gravity of a quadrangle surrounded by each polygonal line grid (step S211). An address division area is determined (see step S212, FIG. 28C).
上記ステップS211の処理では、重心点(図28(B)〜(D)中、△で図示)を求めると共に、低階調値画像データの境界線上に仮想重心点を決定する。この仮想重心点は、図28(C)に示すように、低階調値画像データの周辺部に位置する重心点(図28(C)の例では、中央の1つを除く8点が対象)と直線で結んだときに、該直線で生成される四角形(重心点四角形)に、低階調値画像データの周辺部に位置するピーク点が包含されるような箇所を、仮想重心点(図28(B)〜(D)中、▲で図示)として決定する。 In the process of step S211, the center of gravity (shown by Δ in FIGS. 28B to 28D) is obtained, and the virtual center of gravity is determined on the boundary line of the low gradation value image data. As shown in FIG. 28 (C), the virtual center of gravity is the center of gravity located in the peripheral portion of the low gradation value image data (in the example of FIG. 28 (C), the eight points excluding the center one) ) With a straight barycentric point (the barycentric point quadrangle) generated by the straight line includes a peak point located at the periphery of the low gradation value image data. In FIGS. 28B to 28D, it is determined as ▲.
そして、低階調値画像データの4隅の4点も仮想重心点に加え、9点の重心点に全16点の仮想重心点を加えた25点の重心点間を直線で連結してグリッドを構成する。具体的には、低階調値画像データの内側に位置する9点の各重心点においては隣接する4点の重心点と直線で連結させるが、4隅を除く周辺に位置する12点の仮想重心点においては隣接する3点の重心点または仮想重心点と直線で連結させ、4隅の仮想重心点においては隣接する2点の仮想重心点と直線で連結させることによりグリッドを構成している。 In addition, four points at the four corners of the low gradation value image data are added to the virtual centroid points, and the centroid points of the nine points are added to the 16 centroid points and the centroid points of 25 points are connected by a straight line. Configure. Specifically, each of the nine centroids located inside the low gradation value image data is connected to the four centroids adjacent to each other by a straight line, but 12 imaginary points located in the periphery except for the four corners. At the center of gravity, a grid is formed by connecting the three adjacent center of gravity or virtual center of gravity with a straight line, and connecting the four virtual center of gravity with the adjacent two virtual center of gravity with a straight line. .
尚、低階調値画像データの境界線としては、例えば、図26左におけるテストパターン原画像データの周辺部をトリミングするための境界線または図26右におけるテストパターン原画像データの境界線を使用する。 As the boundary line of the low gradation value image data, for example, the boundary line for trimming the peripheral portion of the test pattern original image data on the left side of FIG. 26 or the boundary line of the test pattern original image data on the right side of FIG. To do.
次に、制御部11は、重心点補正手段として機能し、各重心点(仮想重心点を含む)を結ぶ折れ線グリッドが交差しない範囲で、各重心点を修正し、修正後の重心点に基づいて各アドレス分割領域を決定する(ステップS213、図28(D)参照。)。 Next, the control unit 11 functions as a center-of-gravity point correcting unit, corrects each center-of-gravity point within a range where the polygonal grid connecting each center-of-gravity point (including the virtual center-of-gravity point) does not intersect, and based on the corrected center-of-gravity point Then, each address division area is determined (see step S213, FIG. 28D).
そして、折れ線グリッドで囲まれた四角形内の各画素のアドレス情報として、各四角形の所定方向の頂点のアドレス値を夫々付与して決定し、これに基づいて図28(E)に示す如く複数のアドレス分割領域から成るxyアドレス変換テーブルを作成して処理を終了する(ステップS214、S215)。図28(E)に示す例の場合、■で図示する箇所のアドレス値を、各四角形に含まれる各画素のアドレス情報として夫々付与する。 Then, as the address information of each pixel in the quadrangle surrounded by the polygonal line grid, the address value of the apex in the predetermined direction of each quadrangle is assigned and determined. Based on this, a plurality of address values are obtained as shown in FIG. An xy address conversion table composed of address division areas is created and the process is terminated (steps S214 and S215). In the case of the example shown in FIG. 28E, the address value at the location shown by (2) is assigned as address information of each pixel included in each square.
3−4.変形例4
また、z方向有効領域決定処理(図13〜15、図24)において、フォトンカウント値の最大値(第1ピーク又は第2ピーク)を検索するピーク検索範囲を決定し、該範囲からピークを検索するよう構成してもよい。例えば、図29に示す如く、光子のエネルギー準位が異なる(z=1〜32)アドレス変換画像データの中に、無効データが含まれる場合などに、有効データのみからフォトンカウント値の最大値を求めることができるので好ましい。
3-4. Modification 4
In addition, in the z-direction effective area determination process (FIGS. 13 to 15 and FIG. 24), the peak search range for searching for the maximum photon count value (first peak or second peak) is determined, and the peak is searched from the range. You may comprise. For example, as shown in FIG. 29, when address conversion image data having different photon energy levels (z = 1 to 32) includes invalid data, the maximum photon count value is determined from only valid data. This is preferable because it can be obtained.
更に、上述した図3乃至図5、図8、図10、図13、図16、図17、図20、図21、図25、図27及び図28に示すフローチャートに対応するプログラムを、フレキシブルディスク又はハードディスク等の情報記録媒体に記録しておき、又はインターネット等を介して取得して記録しておき、これらを汎用のコンピュータで読み出して実行することにより、当該コンピュータを実施形態に係る制御部11として機能させることも可能である。 Furthermore, a program corresponding to the flowcharts shown in FIGS. 3 to 5, 8, 10, 13, 13, 16, 17, 20, 21, 21, 25, 27, and 28 described above is stored on the flexible disk. Alternatively, it is recorded on an information recording medium such as a hard disk, or acquired and recorded via the Internet or the like, and these are read and executed by a general-purpose computer, whereby the computer is controlled by the control unit 11 according to the embodiment. It is also possible to function as.
以上夫々説明したように、本発明は核医学におけるPET及びSPECT向けのガンマカメラ装置の画像処理等病理組織の画像診断、マイクロアレイの画像解析、アストロビジョンなどの評価・検査の分野に利用することが可能であり、特にガンマカメラ装置の画像処理の分野に適用すれば特に顕著な効果が得られる。 As described above, the present invention can be used in the fields of pathological tissue image diagnosis such as image processing of a gamma camera device for PET and SPECT in nuclear medicine, evaluation / examination of microarray image analysis, astrovision, and the like. In particular, when applied to the field of image processing of a gamma camera device, a particularly remarkable effect can be obtained.
1 画像処理装置
11 制御部
12 記憶部
13 外部機器接続部
14 表示部
15 入力部
16 バス
R 有効領域
P ピーク点
E 散乱カウント量
Eth 散乱カウント量の閾値
r 距離
V フォトンカウント値
DESCRIPTION OF
Claims (26)
各前記ピーク画素について、当該ピーク画素の周辺の画素に対して第1中間画素値を与えて、前記最大画素値又は前記第1中間画素値を有する画素から成るピーク領域を夫々抽出し、前記低階調値画像に付加するピーク領域抽出手段と、
前記低階調値画像の水平方向及び垂直方向に、所定の数の前記ピーク領域と交差する交差線を決定し、当該交差線に対して垂直方向であって、かつ前記交差したピーク領域のピーク画素の位置に各々所定の数の稜線を抽出する稜線抽出手段と、
前記低階調値画像の水平方向の各前記稜線と前記低階調値画像の垂直方向の各前記稜線とが交差する交点を、交差する各稜線の稜線番号情報に基づいてアドレス情報を付与して特定し、前記原画像データと前記低階調値画像を示す前記低階調値画像データとを対比させ、各交点について、当該交点の周辺領域に対応する前記粒状パターンの出力値が、当該交点に対応する前記粒状パターンの出力値より大きい出力値を有する場合には、当該交点を当該周辺領域の出力値が最も大きい箇所に前記アドレス情報を維持したまま再配置させてピーク点として夫々特定するピーク点特定手段と、
前記低階調値画像を構成する各画素について、当該画素と各前記ピーク点の距離と、当該ピーク点に対応する前記原画像データの前記粒状パターンの出力値と、に基づいて前記各画素に対してアドレス情報を決定するアドレス情報決定手段と、
決定された前記アドレス情報に基づいて、複数の粒状パターンにより像を示す画像データであってアドレス変換の対象となる変換対象画像データに対してアドレス変換を行なうためのアドレス変換テーブルを作成するアドレス変換テーブル作成手段と、
を有することを特徴とする画像処理装置。 For a predetermined number of pixels in order from the largest output value of the granular pattern of the original image data showing an image by a plurality of granular patterns, a maximum pixel value is given and extracted as a peak pixel, and a low gradation value image is extracted. Peak pixel extraction means to be created;
For each of the peak pixels, a first intermediate pixel value is given to a pixel around the peak pixel, and a peak region composed of pixels having the maximum pixel value or the first intermediate pixel value is extracted, and the low pixel Peak area extracting means for adding to the gradation value image;
A crossing line intersecting a predetermined number of the peak areas is determined in the horizontal direction and the vertical direction of the low tone value image, and the peak of the intersecting peak area is perpendicular to the crossing line and Ridge line extracting means for extracting a predetermined number of ridge lines at each pixel position;
Address information is given based on the ridge line number information of each intersecting ridge line at the intersection of each ridge line in the horizontal direction of the low gradation value image and each ridge line in the vertical direction of the low gradation value image. The original image data is compared with the low gradation value image data indicating the low gradation value image, and for each intersection, the output value of the granular pattern corresponding to the peripheral area of the intersection is When the output value is larger than the output value of the granular pattern corresponding to the intersection, the intersection is rearranged while maintaining the address information at the position where the output value of the peripheral area is the largest, and specified as the peak point. Peak point identification means to
For each pixel constituting the low gradation value image, each pixel is determined based on the distance between the pixel and each peak point and the output value of the granular pattern of the original image data corresponding to the peak point. Address information determining means for determining address information for
Address conversion that creates an address conversion table for performing address conversion on image data to be converted, which is image data representing an image by a plurality of granular patterns, based on the determined address information Table creation means;
An image processing apparatus comprising:
前記ピーク領域抽出手段によって抽出された各前記ピーク領域について、当該ピーク領域の周辺の画素に対して第2中間画素値を与えて、隣接領域を夫々抽出する隣接領域抽出手段を有し、
前記ピーク画素抽出手段は、前記隣接領域及び前記ピーク領域に含まれる画素を除く画素を次の前記ピーク画素として抽出することを特徴とする画像処理装置。 The image processing apparatus according to claim 1.
For each of the peak areas extracted by the peak area extraction means, the second intermediate pixel value is given to pixels around the peak area, and the adjacent areas are extracted respectively.
The image processing apparatus according to claim 1, wherein the peak pixel extraction unit extracts pixels excluding the pixels included in the adjacent region and the peak region as the next peak pixel.
前記原画像データの各前記粒状パターンの出力値間の差を強調する微分フィルタ処理手段を有し、
前記ピーク画素抽出手段は、前記微分フィルタ処理後の前記原画像データの前記粒状パターンの出力値が大きいほうから順に前記ピーク画素を抽出し、
前記ピーク点特定手段は、前記微分フィルタ処理後の前記原画像データと前記低階調値画像データとを対比させ前記ピーク点を特定し、
前記アドレス情報決定手段は、前記ピーク点に対応する前記微分フィルタ処理後の前記原画像データの前記粒状パターンの出力値に基づいて、前記アドレス情報を決定することを特徴とする画像処理装置。 The image processing apparatus according to claim 1 or 2,
Differential filter processing means for enhancing a difference between output values of each of the granular patterns of the original image data;
The peak pixel extraction means extracts the peak pixels in order from the larger output value of the granular pattern of the original image data after the differential filter processing,
The peak point specifying means specifies the peak point by comparing the original image data after the differential filter processing and the low gradation value image data,
The address information determination means determines the address information based on an output value of the granular pattern of the original image data after the differential filter processing corresponding to the peak point.
前記アドレス情報決定手段は、当該画素と前記各ピーク点の距離と、当該ピーク点に対応する前記原画像データの前記粒状パターンの出力値と、を用いて、前記各ピーク点の所属優先度を画素毎に夫々算出する所属優先度算出手段を有し、かつ、前記低階調値画像を構成する各画素について、最も所属優先度が高い前記ピーク点が有する前記アドレス情報を、当該画素のアドレス情報として決定することを特徴とする画像処理装置。 In the image processing device according to any one of claims 1 to 3,
The address information determining means uses the distance between the pixel and each peak point and the output value of the granular pattern of the original image data corresponding to the peak point to determine the belonging priority of each peak point. For each pixel constituting the low gradation value image, the address information of the peak point having the highest affiliation priority is assigned to the address of the pixel. An image processing apparatus characterized by being determined as information.
前記アドレス情報決定手段は、全てのピーク点の所属優先度が所定の閾値未満である画素について、当該画素と距離が最も近い前記ピーク点が有する前記アドレス情報を、当該画素のアドレス情報として決定することを特徴とする画像処理装置。 The image processing apparatus according to claim 4.
The address information determination unit determines, as address information of the pixel, the address information of the peak point that is closest to the pixel with respect to a pixel in which the assignment priority of all peak points is less than a predetermined threshold. An image processing apparatus.
隣接する4つの前記ピーク点からなるピーク点四角形の重心点を各々決定する重心点決定手段と、
隣接する4つの前記重心点の間を直線で連結させてグリッドを構成し、前記直線で形成された重心点四角形を生成する重心点四角形生成手段と、を有し、
前記アドレス情報決定手段は、前記重心点四角形の所定方向の頂点に位置する前記画素が有する前記アドレス情報を、当該重心点四角形に含まれる前記画素の前記アドレス情報として夫々決定し、全ての前記重心点四角形にかかる前記所定方向は同一方向であることを特徴とする画像処理装置。 In the image processing device according to any one of claims 1 to 3,
Centroid point determining means for determining centroid points of peak point quadrilaterals composed of four adjacent peak points;
A centroid point quadrangle generating unit configured to connect the four adjacent centroid points with a straight line to form a grid and generate a centroid point quadrangle formed by the straight line; and
The address information determining means determines the address information of the pixels located at the vertices in a predetermined direction of the barycentric quadrangle as the address information of the pixels included in the barycentric quadrangle, The image processing apparatus according to claim 1, wherein the predetermined direction of the dotted rectangle is the same direction.
前記重心点決定手段は、前記低階調値画像の4隅を含む前記低階調値画像の境界線上に位置する仮想重心点であって、前記重心点四角形生成手段が、該仮想重心点と、前記低階調値画像の周辺部に位置する前記重心点と、の間を直線で連結して前記重心点四角形を生成する際、前記低階調値画像の周辺部に位置する前記各ピーク点を包含するように前記重心点四角形が生成される箇所を、前記仮想重心点として決定し、
前記重心点四角形生成手段は、隣接する4つの前記重心点及び前記仮想重心点との間を直線で連結させてグリッドを構成し、前記直線で形成された前記重心点四角形を生成することを特徴とする画像処理装置。 The image processing apparatus according to claim 6.
The barycentric point determining means is a virtual barycentric point located on a boundary line of the low tone value image including four corners of the low tone value image, and the barycentric point quadrangle generating unit includes the virtual barycentric point and the virtual barycentric point. When generating the center-of-gravity point rectangle by connecting the center-of-gravity point located at the periphery of the low gradation value image with a straight line, the peaks located at the periphery of the low-gradation value image A location where the barycentric quadrangle is generated so as to include a point is determined as the virtual barycentric point;
The center-of-gravity point quadrature generation unit forms a grid by connecting the four adjacent center-of-gravity points and the virtual center-of-gravity point with a straight line, and generates the center-of-gravity point quadrangle formed by the straight line. An image processing apparatus.
前記重心点及び前記仮想重心点を結ぶ前記各直線が互いに他の直線と交差しない範囲で、前記各重心点の位置を補正する重心点補正手段を有することを特徴とする画像処理装置。 The image processing apparatus according to claim 6 or 7,
An image processing apparatus, comprising: a center-of-gravity point correcting unit that corrects the position of each center-of-gravity point within a range in which the straight lines connecting the center-of-gravity point and the virtual center-of-gravity point do not intersect each other.
前記ピーク点特定手段は、隣接する前記ピーク点を直線で連結させたグリッドを構成し、各直線が互いに他の直線と交差しない範囲で、前記各ピーク点の位置を補正するピーク点補正手段を有することを特徴とする画像処理装置。 The image processing apparatus according to any one of claims 1 to 8,
The peak point specifying means constitutes a grid in which the adjacent peak points are connected by straight lines, and the peak point correcting means corrects the position of each peak point in a range where each straight line does not intersect with another straight line. An image processing apparatus comprising:
前記ピーク画素抽出手段は、前記原画像データの前記粒状パターンの出力値が大きいほうから順に、前記アドレス変換テーブル作成手段によって作成を所望するアドレス分割領域の数の画素に対して、最大画素値を与えて前記ピーク画素として抽出することを特徴とする画像処理装置。 The image processing apparatus according to any one of claims 1 to 9,
The peak pixel extracting means sets the maximum pixel value for the number of address division regions desired to be created by the address conversion table creating means in descending order of the output value of the granular pattern of the original image data. An image processing apparatus characterized by being given and extracted as the peak pixel.
複数の分割画像データによって1の前記原画像データが構成されている場合には、当該複数の分割画像データの前記粒状パターンの出力値を総和演算する総和演算手段を有し、
前記ピーク画素抽出手段、前記ピーク点特定手段、前記アドレス情報決定手段及び前記微分フィルタ処理手段は、総和演算後の出力値を前記原画像データの各前記粒状パターンの出力値とし、かつ、
各前記分割画像データの前記各粒状パターンを、前記アドレス変換テーブルを用いてアドレス変換を行なうアドレス変換手段と、
前記アドレス変換手段によって、各前記分割画像データの前記各粒状パターンをアドレス変換した後に、前記複数の分割画像データの前記粒状パターンの出力値に基づいて、夫々のアドレス分割領域毎に、前記複数の分割画像データうち有効データを決定する有効領域決定手段と、
を有することを特徴とする画像処理装置。 The image processing apparatus according to any one of claims 1 to 10,
In a case where one original image data is constituted by a plurality of divided image data, a sum calculating means for calculating the sum of the output values of the granular patterns of the plurality of divided image data,
The peak pixel extracting means, the peak point specifying means, the address information determining means, and the differential filter processing means are set to an output value after the sum operation as an output value of each granular pattern of the original image data, and
Address conversion means for performing address conversion on each granular pattern of each of the divided image data using the address conversion table;
After address-converting each granular pattern of each of the divided image data by the address converting means, the plurality of divided image data for each address divided area based on the output value of the granular pattern of the plurality of divided image data Effective area determining means for determining effective data among the divided image data;
An image processing apparatus comprising:
前記アドレス変換手段は、前記変換対象画像データの前記各粒状パターンを、前記アドレス変換テーブルを用いてアドレス変換を行なうことを特徴とする画像処理装置。 The image processing apparatus according to claim 11.
The image processing apparatus, wherein the address conversion unit performs address conversion on each granular pattern of the conversion target image data using the address conversion table.
複数の分割画像データによって1の前記変換対象画像データが構成されている場合には、
前記アドレス変換手段は、前記1の変換対象画像データを構成する各前記分割画像データの前記各粒状パターンを、前記アドレス変換テーブルを用いてアドレス変換を行ない、かつ、
前記有効領域決定手段によって決定された前記有効データに対応する前記分割画像データの前記粒状パターンの出力値を、前記アドレス分割領域毎に総和演算して領域統合画像データを作成する領域統合画像データ作成手段を有することを特徴とする画像処理装置。 The image processing apparatus according to claim 12.
When one piece of the conversion target image data is composed of a plurality of divided image data,
The address conversion means performs address conversion on each granular pattern of each of the divided image data constituting the one conversion target image data using the address conversion table, and
Region integrated image data creation for creating region integrated image data by summing up the output values of the granular patterns of the divided image data corresponding to the effective data determined by the effective region determining means for each address divided region An image processing apparatus comprising: means.
各前記ピーク画素について、当該ピーク画素の周辺の画素に対して第1中間画素値を与えて、前記最大画素値又は前記第1中間画素値を有する画素から成るピーク領域を夫々抽出し、前記低階調値画像に付加するピーク領域抽出手段、
前記低階調値画像の水平方向及び垂直方向に、所定の数の前記ピーク領域と交差する交差線を決定し、当該交差線に対して垂直方向であって、かつ前記交差したピーク領域のピーク画素の位置に各々所定の数の稜線を抽出する稜線抽出手段、
前記低階調値画像の水平方向の各前記稜線と前記低階調値画像の垂直方向の各前記稜線とが交差する交点を、交差する各稜線の稜線番号情報に基づいてアドレス情報を付与して特定し、前記原画像データと前記低階調値画像を示す前記低階調値画像データとを対比させ、各交点について、当該交点の周辺領域に対応する前記粒状パターンの出力値が、当該交点に対応する前記粒状パターンの出力値より大きい出力値を有する場合には、当該交点を当該周辺領域の出力値が最も大きい箇所に前記アドレス情報を維持したまま再配置させてピーク点として夫々特定するピーク点特定手段、
前記低階調値画像を構成する各画素について、当該画素と各前記ピーク点の距離と、当該ピーク点に対応する前記原画像データの前記粒状パターンの出力値と、に基づいて前記各画素に対してアドレス情報を決定するアドレス情報決定手段及び、
決定された前記アドレス情報に基づいて、複数の粒状パターンにより像を示す画像データであってアドレス変換の対象となる変換対象画像データに対してアドレス変換を行なうためのアドレス変換テーブルを作成するアドレス変換テーブル作成手段として機能させることを特徴とする画像処理プログラム。 The computer outputs a peak pixel by giving a maximum pixel value to a predetermined number of pixels in descending order of the output value of the granular pattern of the original image data representing an image by a plurality of granular patterns, and the low gradation Peak pixel extraction means for creating a value image;
For each of the peak pixels, a first intermediate pixel value is given to a pixel around the peak pixel, and a peak region composed of pixels having the maximum pixel value or the first intermediate pixel value is extracted, and the low pixel Peak area extraction means to be added to the gradation value image;
A crossing line intersecting a predetermined number of the peak areas is determined in the horizontal direction and the vertical direction of the low tone value image, and the peak of the intersecting peak area is perpendicular to the crossing line and Ridge line extracting means for extracting a predetermined number of ridge lines at each pixel position;
Address information is given based on the ridge line number information of each intersecting ridge line at the intersection of each ridge line in the horizontal direction of the low gradation value image and each ridge line in the vertical direction of the low gradation value image. The original image data is compared with the low gradation value image data indicating the low gradation value image, and for each intersection, the output value of the granular pattern corresponding to the peripheral area of the intersection is When the output value is larger than the output value of the granular pattern corresponding to the intersection, the intersection is rearranged while maintaining the address information at the position where the output value of the peripheral area is the largest, and specified as the peak point. Means for identifying peak points,
For each pixel constituting the low gradation value image, each pixel is determined based on the distance between the pixel and each peak point and the output value of the granular pattern of the original image data corresponding to the peak point. Address information determining means for determining address information for
Address conversion that creates an address conversion table for performing address conversion on image data to be converted, which is image data representing an image by a plurality of granular patterns, based on the determined address information An image processing program which functions as a table creation means.
前記ピーク領域抽出手段によって抽出された各前記ピーク領域について、当該ピーク領域の周辺の画素に対して第2中間画素値を与えて、隣接領域を夫々抽出する隣接領域抽出手段として更に機能させ、
前記ピーク画素抽出手段を、前記隣接領域及び前記ピーク領域に含まれる画素を除く画素を次の前記ピーク画素として抽出するよう機能させることを特徴とする画像処理プログラム。 15. The image processing program according to claim 14, wherein the computer is
For each of the peak areas extracted by the peak area extracting means, a second intermediate pixel value is given to pixels around the peak area, and further functions as an adjacent area extracting means for extracting adjacent areas,
An image processing program that causes the peak pixel extraction unit to function so as to extract a pixel excluding pixels included in the adjacent region and the peak region as the next peak pixel.
前記コンピュータを、前記原画像データの各前記粒状パターンの出力値間の差を強調する微分フィルタ処理手段として更に機能させ、
前記ピーク画素抽出手段を、前記微分フィルタ処理後の前記原画像データの前記粒状パターンの出力値が大きいほうから順に前記ピーク画素を抽出するよう機能させ、
前記ピーク点特定手段を、前記微分フィルタ処理後の前記原画像データと前記低階調値画像データとを対比させ前記ピーク点を特定するよう機能させ、
前記アドレス情報決定手段を、前記ピーク点に対応する前記微分フィルタ処理後の前記原画像データの前記粒状パターンの出力値に基づいて、前記アドレス情報を決定するよう機能させることを特徴とする画像処理プログラム。 The image processing program according to claim 14 or 15,
Causing the computer to further function as differential filter processing means for enhancing a difference between output values of the granular patterns of the original image data;
The peak pixel extraction means functions to extract the peak pixels in order from the larger output value of the granular pattern of the original image data after the differential filter processing,
The peak point specifying means functions to specify the peak point by comparing the original image data after the differential filter processing and the low gradation value image data,
Image processing characterized in that the address information determination means functions to determine the address information based on an output value of the granular pattern of the original image data after the differential filter processing corresponding to the peak point. program.
前記アドレス情報決定手段を、当該画素と前記各ピーク点の距離と、当該ピーク点に対応する前記原画像データの前記粒状パターンの出力値と、を用いて、前記各ピーク点の所属優先度を画素毎に夫々算出する所属優先度算出手段として機能させ、かつ、前記低階調値画像を構成する各画素について、最も所属優先度が高い前記ピーク点が有する前記アドレス情報を、当該画素のアドレス情報として決定するよう機能させることを特徴とする画像処理プログラム。 The image processing program according to any one of claims 14 to 16,
The address information determination means, using the distance between the pixel and each peak point, and the output value of the granular pattern of the original image data corresponding to the peak point, the belonging priority of each peak point For each pixel constituting the low gradation value image, the address information of the peak point having the highest affiliation priority is used as the affiliation priority calculation means for calculating each pixel, and the address of the pixel An image processing program that functions to be determined as information.
前記アドレス情報決定手段を、全てのピーク点の所属優先度が所定の閾値未満である画素について、当該画素と距離が最も近い前記ピーク点が有する前記アドレス情報を、当該画素のアドレス情報として決定するよう機能させることを特徴とする画像処理プログラム。 The image processing program according to claim 16,
The address information determination means determines the address information of the peak point that is closest to the pixel as the address information of the pixel, with respect to a pixel whose affiliation priority of all peak points is less than a predetermined threshold. An image processing program characterized by causing it to function.
隣接する4つの前記ピーク点からなるピーク点四角形の重心点を各々決定する重心点決定手段及び、
隣接する4つの前記重心点の間を直線で連結させてグリッドを構成し、前記直線で形成された重心点四角形を生成する重心点四角形生成手段として更に機能させ、
前記アドレス情報決定手段を、前記重心点四角形の所定方向の頂点に位置する前記画素が有する前記アドレス情報を、当該重心点四角形に含まれる前記画素の前記アドレス情報として夫々決定するよう機能させ、且つ、全ての前記重心点四角形にかかる前記所定方向は同一方向であることを特徴とする画像処理プログラム。 The image processing program according to any one of claims 14 to 16, wherein the computer is
A barycentric point determining means for determining barycentric points of a peak quadrangle consisting of four adjacent peak points, and
The four centroid points adjacent to each other are connected by a straight line to form a grid, and further function as a centroid point quadrangle generating means for generating a centroid point quadrangle formed by the straight line,
The address information determining means functions to determine the address information of the pixel located at a vertex in a predetermined direction of the barycentric quadrangle as the address information of the pixel included in the barycentric quadrangle; An image processing program characterized in that the predetermined directions for all the center-of-gravity point rectangles are the same direction.
前記重心点決定手段を、前記低階調値画像の4隅を含む前記低階調値画像の境界線上に位置する仮想重心点であって、前記重心点四角形生成手段が、該仮想重心点と、前記低階調値画像の周辺部に位置する前記重心点と、の間を直線で連結して前記重心点四角形を生成する際、前記低階調値画像の周辺部に位置する前記各ピーク点を包含するように前記重心点四角形が生成される箇所を、前記仮想重心点として決定するよう機能させ、
前記重心点四角形生成手段を、隣接する4つの前記重心点及び前記仮想重心点との間を直線で連結させてグリッドを構成し、前記直線で形成された前記重心点四角形を生成するよう機能させることを特徴とする画像処理プログラム。 The image processing program according to claim 19, wherein
The barycentric point determination means is a virtual barycentric point located on a boundary line of the low gradation value image including the four corners of the low gradation value image, and the barycentric point quadrangle generation means includes the virtual barycentric point and When generating the center-of-gravity point rectangle by connecting the center-of-gravity point located at the periphery of the low gradation value image with a straight line, the peaks located at the periphery of the low-gradation value image Function to determine the location where the barycentric quadrangle is generated so as to include a point as the virtual barycentric point,
The center-of-gravity point quadrature generation unit functions to generate a center-of-gravity point quadrangle formed by forming a grid by connecting the four adjacent barycentric points and the virtual barycentric point with a straight line. An image processing program characterized by that.
前記重心点及び前記仮想重心点を結ぶ前記各直線が互いに他の直線と交差しない範囲で、前記各重心点の位置を補正する重心点補正手段として更に機能させることを特徴とする画像処理プログラム。 The image processing program according to claim 19 or 20, wherein the computer is
An image processing program that further functions as a center-of-gravity point correcting unit that corrects the position of each center-of-gravity point within a range in which the straight lines connecting the center-of-gravity point and the virtual center-of-gravity point do not intersect each other.
前記ピーク点特定手段を、隣接する前記ピーク点を直線で連結させたグリッドを構成するよう機能させ、更に、各直線が互いに他の直線と交差しない範囲で、前記各ピーク点の位置を補正するピーク点補正手段として機能させることを特徴とする画像処理プログラム。 The image processing program according to any one of claims 14 to 21,
The peak point specifying unit functions to form a grid in which adjacent peak points are connected by straight lines, and further corrects the positions of the peak points within a range in which the straight lines do not intersect with each other. An image processing program that functions as a peak point correction unit.
前記ピーク画素抽出手段を、前記原画像データの前記粒状パターンの出力値が大きいほうから順に、前記アドレス変換テーブル作成手段によって作成を所望するアドレス分割領域の数の画素に対して、最大画素値を与えて前記ピーク画素として抽出するよう機能させることを特徴とする画像処理プログラム。 The image processing program according to any one of claims 14 to 22,
The peak pixel extraction means sets the maximum pixel value for the number of address division regions desired to be created by the address conversion table creation means in order from the largest output value of the granular pattern of the original image data. An image processing program characterized by being provided and functioning to be extracted as the peak pixel.
複数の分割画像データによって1の前記原画像データが構成されている場合には、当該複数の分割画像データの前記粒状パターンの出力値を総和演算する総和演算手段として更に機能させ、
前記ピーク画素抽出手段、前記ピーク点特定手段、前記アドレス情報決定手段及び前記微分フィルタ処理手段は、総和演算後の出力値を前記原画像データの各前記粒状パターンの出力値とし、かつ、
前記コンピュータを、各前記分割画像データの前記各粒状パターンを、前記アドレス変換テーブルを用いてアドレス変換を行なうアドレス変換手段及び、
前記アドレス変換手段によって、各前記分割画像データの前記各粒状パターンをアドレス変換した後に、前記複数の分割画像データの前記粒状パターンの出力値に基づいて、夫々のアドレス分割領域毎に、前記複数の分割画像データうち有効データを決定する有効領域決定手段、
として更に機能させることを特徴とする画像処理プログラム。 The image processing program according to any one of claims 14 to 23, wherein the computer is
When one original image data is composed of a plurality of divided image data, it further functions as a sum calculating means for calculating the sum of the output values of the granular patterns of the plurality of divided image data,
The peak pixel extracting means, the peak point specifying means, the address information determining means, and the differential filter processing means are set to an output value after the sum operation as an output value of each granular pattern of the original image data, and
Address conversion means for performing address conversion on each of the granular patterns of the divided image data using the address conversion table;
After address-converting each granular pattern of each of the divided image data by the address converting means, the plurality of divided image data for each address divided area based on the output value of the granular pattern of the plurality of divided image data Effective area determining means for determining effective data among the divided image data,
An image processing program characterized by further functioning as:
前記アドレス変換手段を、前記変換対象画像データの前記各粒状パターンを、前記アドレス変換テーブルを用いてアドレス変換を行なうよう機能させることを特徴とする画像処理プログラム。 The image processing program according to claim 24,
An image processing program causing the address conversion unit to function to perform address conversion on each granular pattern of the conversion target image data using the address conversion table.
複数の分割画像データによって1の前記変換対象画像データが構成されている場合には、前記アドレス変換手段を、前記1の変換対象画像データを構成する各前記分割画像データの前記各粒状パターンを、前記アドレス変換テーブルを用いてアドレス変換を行なうよう機能させ、かつ
前記コンピュータを、前記有効領域決定手段によって決定された前記有効データに対応する前記分割画像データの前記粒状パターンの出力値を、前記アドレス分割領域毎に総和演算して領域統合画像データを作成する領域統合画像データ作成手段として更に機能させることを特徴とする画像処理プログラム。 The image processing program according to claim 25,
When one conversion target image data is constituted by a plurality of pieces of divided image data, the address conversion unit is configured to change the granular patterns of the divided image data constituting the one conversion target image data, A function of performing address conversion using the address conversion table; andthe computer is configured to output an output value of the granular pattern of the divided image data corresponding to the effective data determined by the effective area determining unit as the address. An image processing program that further functions as a region integrated image data creation unit that creates a region integrated image data by calculating a sum for each divided region.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011186356A JP5152377B2 (en) | 2005-09-14 | 2011-08-29 | Image processing apparatus and image processing program |
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005266672 | 2005-09-14 | ||
JP2005266672 | 2005-09-14 | ||
JP2005288568 | 2005-09-30 | ||
JP2005288568 | 2005-09-30 | ||
JP2011186356A JP5152377B2 (en) | 2005-09-14 | 2011-08-29 | Image processing apparatus and image processing program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006051265A Division JP5050366B2 (en) | 2005-09-14 | 2006-02-27 | Image processing apparatus and image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012037523A JP2012037523A (en) | 2012-02-23 |
JP5152377B2 true JP5152377B2 (en) | 2013-02-27 |
Family
ID=45849627
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011186356A Expired - Fee Related JP5152377B2 (en) | 2005-09-14 | 2011-08-29 | Image processing apparatus and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5152377B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104107061A (en) * | 2014-06-30 | 2014-10-22 | 沈阳东软医疗系统有限公司 | Gain adjusting method and device |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4588897A (en) * | 1980-06-19 | 1986-05-13 | Elscint, Ltd. | Gamma camera correction system and method for using the same |
US5986266A (en) * | 1994-11-01 | 1999-11-16 | Andreaco; Mark S. | Method of calibrating multi-crystal single block radiation detectors |
JP4367903B2 (en) * | 2003-07-23 | 2009-11-18 | 株式会社島津製作所 | Radiation position detector calibration method and radiation position detector |
-
2011
- 2011-08-29 JP JP2011186356A patent/JP5152377B2/en not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104107061A (en) * | 2014-06-30 | 2014-10-22 | 沈阳东软医疗系统有限公司 | Gain adjusting method and device |
CN104107061B (en) * | 2014-06-30 | 2016-03-30 | 沈阳东软医疗系统有限公司 | A kind of gain adjusting method and device |
Also Published As
Publication number | Publication date |
---|---|
JP2012037523A (en) | 2012-02-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112955732B (en) | System and method for determining the type and size of defects on a blank photomask | |
EP3465626B1 (en) | Systems and methods for automated sinogram completion, combination, and completion by combination | |
KR102674646B1 (en) | Apparatus and method for obtaining distance information from a view | |
Russ | Computer-assisted microscopy: the measurement and analysis of images | |
JP4160258B2 (en) | A new perceptual threshold determination for gradient-based local contour detection | |
US9349184B2 (en) | Method and apparatus for identifying regions of interest in a medical image | |
US10182185B2 (en) | Image generation device, image generation method, recording medium, and method for generating an in-focus image based on feature points | |
US20130315454A1 (en) | Automated crystal identification achieved via watershed segmentation | |
US10176393B2 (en) | Method and system for crystal identification | |
US10295525B2 (en) | Image generation device, image generation method, recording medium, and processing method | |
US20180322329A1 (en) | Image processing device, imaging device, microscope device, image processing method, and image processing program | |
US20190273845A1 (en) | Vibration monitoring of an object using a video camera | |
JP5050366B2 (en) | Image processing apparatus and image processing program | |
JP2000287957A (en) | Mammogram image diagnostic supporting apparatus | |
US8831325B2 (en) | Radiographic image processing apparatus and radiographic image processing program | |
CN104285240A (en) | Stereo X-ray tube based suppression of outside body high contrast objects | |
JP5152377B2 (en) | Image processing apparatus and image processing program | |
CN115880371A (en) | Method for positioning center of reflective target under infrared visual angle | |
JP2006280713A (en) | Method for detecting candidate of abnormal shade, and medical image system | |
US7590271B2 (en) | System and method for automatic detection and localization of 3D bumps in medical images | |
JP2011040998A (en) | Image display device | |
WO2024177940A1 (en) | Ureteroscopy imaging system and methods | |
CN116188429A (en) | Image detection method, apparatus, device, storage medium, and program product | |
CN117078734A (en) | System and method for identifying cable structure size | |
CN110163147A (en) | Binarization method, device, equipment and the storage medium of stacking " five away from " detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121106 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121119 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151214 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5152377 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |