JP2007107932A - Apparatus and system for imaging - Google Patents

Apparatus and system for imaging Download PDF

Info

Publication number
JP2007107932A
JP2007107932A JP2005296840A JP2005296840A JP2007107932A JP 2007107932 A JP2007107932 A JP 2007107932A JP 2005296840 A JP2005296840 A JP 2005296840A JP 2005296840 A JP2005296840 A JP 2005296840A JP 2007107932 A JP2007107932 A JP 2007107932A
Authority
JP
Japan
Prior art keywords
image data
gamma
camera
optical
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005296840A
Other languages
Japanese (ja)
Other versions
JP4449081B2 (en
Inventor
Hideaki Haishi
秀昭 羽石
Hideki Hayashi
秀樹 林
Yutaka Fujiki
裕 藤木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chiba University NUC
Acrorad Co Ltd
Original Assignee
Chiba University NUC
Acrorad Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chiba University NUC, Acrorad Co Ltd filed Critical Chiba University NUC
Priority to JP2005296840A priority Critical patent/JP4449081B2/en
Publication of JP2007107932A publication Critical patent/JP2007107932A/en
Application granted granted Critical
Publication of JP4449081B2 publication Critical patent/JP4449081B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging system capable of accurate SN detection and provide an imaging apparatus used for the same. <P>SOLUTION: The imaging system comprises the imaging apparatus comprising a gamma camera 1 having a both a gamma detector 101 and a collimator 102 arranged at the gamma detector, an optical camera 2 fixed to the gamma camera and having a photo-detector, and a laser device 3 fixed to the gamma camera; a processing device comprising a gamma image data acquisition part 401 for acquiring gamma image data on the basis of signals from the gamma ray detector, an optical image data acquisition part 403 for acquiring optical image data on the basis of signals from the photo-detector, a projective transformation part 406 for performing projective transformation on the basis of gamma image data and creating post-projective-transformation gamma image data, and a composite image data creation part 407 for creating composite image data by combining both the optical image data and the post-projective-transformation gamma image data; and a display device 5 for displaying composite image data. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、撮像システム及びそれに用いられる撮像装置に関し、特に、RI(RadioIsotope)法を用いたセンチネルリンパ節検出に好適に用いることができるものに関する。   The present invention relates to an imaging system and an imaging apparatus used for the imaging system, and particularly relates to an imaging system that can be suitably used for sentinel lymph node detection using an RI (Radio Isotope) method.

近年、がんの原発巣からのリンパ流を最初に受けるリンパ節を検出して、その生検を行うことでがん転移の有無を調べる方法が関心を集めている。そのようなリンパ節はセンチネルリンパ節(以下「SNという」と呼ばれ、その検出の方法のひとつに放射性同位体(RI)でラベルした各種トレーサーを事前にがん原発巣に注入し、そこから流れ出てリンパ節に滞留したRIの分布をガンマカメラで画像化する方法がある。この方法としては、例えば下記非特許文献1に記載がある。   In recent years, there has been an interest in a method for examining the presence or absence of cancer metastasis by detecting a lymph node that first receives lymphatic flow from the primary cancer lesion and performing a biopsy thereof. Such a lymph node is called a sentinel lymph node (hereinafter referred to as “SN”), and one of its detection methods is pre-injection of various tracers labeled with a radioisotope (RI) into the primary tumor, and from there. There is a method of imaging the distribution of RI that has flowed out and stays in the lymph nodes with a gamma camera, for example, as described in Non-Patent Document 1 below.

Hideki Hayashiら、“Sentinel Lymph Node Mapping for Gastric Cancer Using a Dual Procedure with Dye− and Gamma Probe−Guided Techniques”、Journal of Americal College of Surgeons、Vol.196、No.6、pp.68−74、 January 2003Hideki Hayashi et al., “Sentinel Lymph Node Mapping for Gastric Cancer Using a Dual Procedure with Dye- and Gamma Probe-Guided Techniques”, Jumbo Probe-Guided Technologies. 196, no. 6, pp. 68-74, January 2003

しかしながら、上記ガンマカメラによる検出のみでは、ガンマカメラで取得されたRI分布と実際に肉眼で見える観測対象部位との位置関係が把握しにくく、SNの候補と考えられるRI高濃度部位を検出したとしても、観測対象部位のどの位置にあるのかが正確に特定できず、効率的な治療を行う上において課題が残ってしまう。   However, it is difficult to grasp the positional relationship between the RI distribution acquired by the gamma camera and the observation target part that is actually visible to the naked eye only by the detection by the gamma camera, and it is assumed that the RI high-concentration part considered to be a candidate for SN is detected. However, it is impossible to accurately identify the position of the observation target region, and a problem remains in performing efficient treatment.

そこで、本発明は、上記課題を解決し、より正確にSN検出が可能な撮像システム及びそれに用いられる撮像装置を提供することを目的とする。更には、これを広く適用し薬剤等の臓器集積性などを正確に検出可能な撮像システム及び撮像装置を提供することを目的とする。   Accordingly, an object of the present invention is to solve the above-described problems and provide an imaging system capable of detecting SN more accurately and an imaging apparatus used therefor. It is another object of the present invention to provide an imaging system and an imaging apparatus that can be widely applied to accurately detect organ accumulation such as drugs.

上記目的について本発明者らが鋭意検討を行った結果、RI法による手術(例えば胃癌切除手術)において、ガンマカメラ画像と光学カメラ画像を重ね合わせることで容易にSNを検出することができる撮像システムを開発した。なおこのシステムでは、光学カメラにおけるゆがみ補正、レーザー光の投影位置に基づく光学カメラと撮影対象物との距離の推定、およびガンマカメラ画像を光学カメラ画像へ重ね合わせるための射影変換に関する技術を用いている。   As a result of intensive studies by the present inventors for the above object, an imaging system capable of easily detecting SN by superimposing a gamma camera image and an optical camera image in an operation by an RI method (for example, gastric cancer resection operation). Developed. This system uses techniques related to distortion correction in the optical camera, estimation of the distance between the optical camera and the object to be photographed based on the projection position of the laser light, and projective transformation for superimposing the gamma camera image on the optical camera image. Yes.

即ち、本発明に係る撮像システムは、ガンマ検出器及び該ガンマ検出器に配置されるコリメータを有するガンマカメラ、このガンマカメラに固定され、光検出器を有する光学カメラ、ガンマカメラに固定されるレーザー装置と、を有する撮像装置と、ガンマカメラにおけるガンマ線検出器からの信号に基づきガンマ画像データを取得するガンマ画像データ取得部、光学カメラにおける光検出器からの信号に基づき光学画像データを取得する光学画像データ取得部、ガンマ画像データに基づいて射影変換を行い射影変換後ガンマ画像データを作成する射影変換部、光学画像データと射影変換ガンマ画像データを合成して合成画像データを作成する合成画像データ作成部、を有する処理装置と、処理装置における前記合成画像データ作成部が作成した前記合成画像データを表示する表示装置と、を有することを特徴とする。   That is, an imaging system according to the present invention includes a gamma camera having a gamma detector and a collimator disposed on the gamma detector, an optical camera having a photodetector and a laser fixed to the gamma camera. A gamma image data acquisition unit that acquires gamma image data based on a signal from a gamma ray detector in a gamma camera, and an optical that acquires optical image data based on a signal from a photodetector in the optical camera Image data acquisition unit, projection conversion unit that performs projection conversion based on gamma image data and creates gamma image data after projection conversion, composite image data that combines optical image data and projection conversion gamma image data to create composite image data Created by a processing device having a creation unit, and the composite image data creation unit in the processing device A display device for displaying the synthesized image data, and having a.

また、本発明に係る撮像システムは、光学画像データ取得部が取得した光学画像データに対して歪み補正を行い歪み補正後光学画像データを作成する歪み補正部を有し、合成画像データ作成部は、歪み補正後光学画像データと射影変換ガンマ画像データを合成して画像合成データを作成することも望ましい。   In addition, the imaging system according to the present invention includes a distortion correction unit that performs distortion correction on the optical image data acquired by the optical image data acquisition unit and generates optical image data after distortion correction. It is also desirable to synthesize optical image data after distortion correction and projective transformation gamma image data to create image composite data.

また、本発明に係る撮像システムは、光学画像データからレーザー装置が照射する光の照射位置を求め、光の照射位置からガンマカメラまでの高さ(以下単に「高さ」という。)を推定するカメラ高さ推定部、を有し、射影変換部は、ガンマ画像データとカメラ高さ推定部が推定する高さに基づいて射影変換を行い射影変換後ガンマ画像データを作成することも望ましい。   In addition, the imaging system according to the present invention obtains the irradiation position of the light irradiated by the laser device from the optical image data, and estimates the height from the light irradiation position to the gamma camera (hereinafter simply referred to as “height”). It is also preferable that the projection conversion unit includes a camera height estimation unit, and performs projection conversion based on the gamma image data and the height estimated by the camera height estimation unit to generate post-projection conversion gamma image data.

また、本発明に係る撮像システムは、光学画像データ取得部が取得した光学画像データに対して歪み補正を行い歪み補正後光学画像データを作成する歪み補正部、歪み補正後光学画像データからレーザー装置が照射する光の照射位置を求め、光の照射位置から高さを推定するカメラ高さ推定部、を有し、射影変換部は、ガンマ画像データとカメラ高さ推定部が推定する高さに基づいて射影変換を行い射影変換後ガンマ画像データを作成し、合成画像データ作成部は、歪み補正後光学画像データと射影変換ガンマ画像データを合成して画像合成データを作成することも望ましい。   In addition, an imaging system according to the present invention includes a distortion correction unit that performs distortion correction on the optical image data acquired by the optical image data acquisition unit to create optical image data after distortion correction, and a laser device from the optical image data after distortion correction. A camera height estimation unit that obtains the irradiation position of the light emitted by the camera and estimates the height from the light irradiation position, and the projective conversion unit has a gamma image data and a height estimated by the camera height estimation unit. It is also desirable to perform projective conversion based on this and create post-projection-converted gamma image data, and the composite image data creation unit composites the distortion-corrected optical image data and the projection-transformed gamma image data to create image composite data.

以上、本発明は、上記課題を解決し、より正確にSN検出が可能な撮像装置を提供することができる。更には、これを広く適用し薬剤等の臓器集積性などを正確に検出可能な撮像システム及び撮像装置を提供することができる。   As described above, the present invention can solve the above problems and provide an imaging apparatus capable of detecting SN more accurately. Furthermore, it is possible to provide an imaging system and an imaging apparatus that can be widely applied to accurately detect organ accumulation such as drugs.

以下、本発明の実施の形態について図面を用いて説明する。ただし、本発明は異なる多くの実施の形態が可能であり、以下に示す実施形態、実施例に限定されるわけではない。特に以下の実施形態では、非常に好適であるSN検出の実施形態を説明しているが、RI分布により正確にSNを検出する実施態様以外にも、例えば薬剤の臓器集積性等を調べることへの応用も考えられる。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, many different embodiments of the present invention are possible, and the present invention is not limited to the following embodiments and examples. In particular, in the following embodiment, an embodiment of SN detection that is very suitable is described. However, in addition to the embodiment in which the SN is accurately detected by the RI distribution, for example, to investigate the organ accumulation of the drug, etc. The application of is also conceivable.

まず図1は、本実施形態に係る撮像システムの概要を示す図である。本実施形態に係る撮像システムは、ガンマカメラ1と、このガンマカメラ1に設置される光学カメラ2と、ガンマカメラ1に設置されるレーザー装置3と、ガンマカメラ1及び光学カメラ2にそれぞれ接続され、上記カメラが撮影した画像を処理する画像処理装置4、この画像処理装置4が処理した画像を表示するための表示装置5と、を有して構成されている。そして本撮像システムは、例えば手術時において、ガンマカメラ1及び光学カメラ2(ガンマカメラ1及び光学カメラ2を含めたカメラ部分を本明細書では「撮像装置」とも表現する。)をSNが存在すると思われる術部近傍を近づけて撮影し、ガンマ線を検出して画像データを得るとともにこの画像データを画像処理装置4による処理、表示装置5による表示を経て、SN検出を可能とする。本撮像システムを使用する者は、手術等に先立ち、注射などでRIでラベルした各種トレーサーを撮影対象者の患部近傍に注入しておき、手術においてリンパ節切片を切り取り、このリンパ節に癌細胞が含まれているか否かを確認する(病理検査)ことで効率的な手術を行うことができる。   First, FIG. 1 is a diagram illustrating an overview of an imaging system according to the present embodiment. The imaging system according to this embodiment is connected to a gamma camera 1, an optical camera 2 installed in the gamma camera 1, a laser device 3 installed in the gamma camera 1, and the gamma camera 1 and the optical camera 2. The image processing device 4 that processes an image captured by the camera and the display device 5 that displays the image processed by the image processing device 4 are configured. In this imaging system, for example, at the time of surgery, the SN is present for the gamma camera 1 and the optical camera 2 (the camera portion including the gamma camera 1 and the optical camera 2 is also expressed as “imaging device” in this specification). The vicinity of the expected surgical site is photographed, gamma rays are detected to obtain image data, and this image data is processed by the image processing device 4 and displayed by the display device 5 to enable SN detection. Prior to surgery, a person using this imaging system injects various tracers labeled with RI by injection or the like into the vicinity of the affected area of the subject to be imaged, cuts out lymph node sections in surgery, and cancer cells in these lymph nodes It is possible to perform an efficient operation by confirming whether or not is included (pathological examination).

一方図2は、本実施形態にかかる撮像装置の模式断面図である。本撮像装置はガンマカメラ1と、光学カメラ2と、レーザー装置3とを有して構成されている。ガンマカメラ1はガンマ線を検出するための装置であって、半導体ガンマ検出器101と、この半導体ガンマ検出器101に接して配置され、平行成分のガンマ線を半導体ガンマ検出器101に入射させるためのコリメータ102と、半導体ガンマ検出器101に接続され、この半導体ガンマ検出器101が検出した信号を増幅するための増幅回路103と、をガンマカメラ用ハウジング104内に有して構成されている。   On the other hand, FIG. 2 is a schematic cross-sectional view of the imaging apparatus according to the present embodiment. The imaging apparatus includes a gamma camera 1, an optical camera 2, and a laser device 3. The gamma camera 1 is a device for detecting gamma rays, and is arranged in contact with the semiconductor gamma detector 101 and the semiconductor gamma detector 101, and a collimator for allowing the parallel component gamma rays to enter the semiconductor gamma detector 101. 102 and an amplifier circuit 103 that is connected to the semiconductor gamma detector 101 and amplifies a signal detected by the semiconductor gamma detector 101 is provided in the gamma camera housing 104.

手術を行う者は、術部近傍にこのガンマカメラ1を近づけて配置することで、ガンマ線を検出し、RI分布の二次元画像を得ることができる。具体的に説明すると、本ガンマカメラでは、ガンマ線が半導体ガンマ検出器101に入る前にコリメータ102を通過するような構成としているため、平行成分以外のガンマ線を遮蔽することができ、ガンマ線を多く放出するSNの二次元的な位置の把握を正確に行うことができる。なおガンマカメラ1は、使用時において、術部近傍に対してできる限り平行に配置させることが望ましい。   A person who performs an operation can detect the gamma rays and obtain a two-dimensional image of the RI distribution by arranging the gamma camera 1 close to the surgical site. More specifically, the gamma camera is configured such that gamma rays pass through the collimator 102 before entering the semiconductor gamma detector 101, so that gamma rays other than parallel components can be shielded and a large amount of gamma rays are emitted. It is possible to accurately grasp the two-dimensional position of the SN. In use, the gamma camera 1 is desirably arranged as parallel as possible to the vicinity of the surgical site.

一方、光学カメラ2は、ガンマカメラ1に設置されるものであって、ガンマカメラ1だけでは得ることのできない術部近傍の画像データを得るために用いられる。光学カメラ2は、撮像素子であるCCDセンサ201と、CCDセンサ201の前面に配置されるレンズ202と、を有して構成されており、術部近傍に対する肉眼による観察に近い画像データを得ることができる。詳細については後述するが、本撮像システムでは画像処理装置4によってガンマカメラ1と光学カメラ2により取得した夫々の画像データを重ね合わせる処理を行うため、二つのカメラの位置関係は少なくとも手術時において固定されていることが極めて望ましい。なおここでレンズ202は、術部近傍の画像をより広視野にするために広角レンズであることが望ましい。   On the other hand, the optical camera 2 is installed in the gamma camera 1 and is used to obtain image data in the vicinity of the surgical site that cannot be obtained by the gamma camera 1 alone. The optical camera 2 includes a CCD sensor 201 that is an image sensor and a lens 202 that is disposed in front of the CCD sensor 201, and obtains image data that is close to the observation of the surgical site by the naked eye. Can do. Although details will be described later, in this imaging system, the image processing device 4 performs processing for superimposing the respective image data acquired by the gamma camera 1 and the optical camera 2, so that the positional relationship between the two cameras is fixed at least during surgery. It is highly desirable that Here, the lens 202 is preferably a wide-angle lens in order to make the image near the surgical site a wider field of view.

ところでガンマカメラ1は、上述の構成により術部近傍から平行な光を取り込むことはできるが、術部近傍との距離に関するデータまでは得ることができない。そこで、本撮像装置のガンマカメラ1には更に、レーザー装置3が設置されており、ガンマカメラ1だけでは得ることができない術部近傍とガンマカメラ1との距離を得ることが可能となる。具体的な原理は画像処理装置4の説明において後述するが、レーザー装置3は手術部近傍にレーザー光を照射し、レーザー光が投影された位置(以下「レーザースポット」という。)を明確に示すことができる。そして光学カメラ2を用いてこのレーザースポットの位置を特定することでガンマカメラ1と術部近傍との距離とを求めることができる。なおこの点についても詳細は後述するが、レーザー装置3の位置とガンマカメラ1との位置関係は少なくとも手術時において固定されていることが極めて望ましい。   By the way, the gamma camera 1 can take in parallel light from the vicinity of the surgical site by the above-described configuration, but cannot obtain data relating to the distance from the vicinity of the surgical site. Therefore, the gamma camera 1 of the present imaging apparatus is further provided with a laser device 3, and the distance between the vicinity of the surgical site and the gamma camera 1 that cannot be obtained by the gamma camera 1 alone can be obtained. Although the specific principle will be described later in the description of the image processing apparatus 4, the laser apparatus 3 irradiates the vicinity of the surgical site with laser light, and clearly shows the position (hereinafter referred to as "laser spot") where the laser light is projected. be able to. Then, by specifying the position of the laser spot using the optical camera 2, the distance between the gamma camera 1 and the vicinity of the surgical site can be obtained. Although this point will also be described in detail later, it is highly desirable that the positional relationship between the position of the laser device 3 and the gamma camera 1 is fixed at least during surgery.

画像処理装置4は、ガンマカメラ1及び光学カメラ2に接続され、各カメラが取得した信号を画像データとして取り込み、これらに対し必要な処理を行う装置である。図3に本画像処理装置4のブロック図を示す。   The image processing device 4 is connected to the gamma camera 1 and the optical camera 2 and is a device that takes in signals acquired by each camera as image data and performs necessary processing on them. FIG. 3 shows a block diagram of the image processing apparatus 4.

本画像処理装置4は、ガンマ画像データ取得部401、キャリブレーション部402、光学画像データ取得部403、歪み補正部404、高さ推定部405、射影変換部406、合成画像データ作成部407、を少なくとも有して構成されており、このような構成を採用することで、ガンマカメラを用いて取得したRI分布と、実際に肉眼で見える述部近傍との位置関係を正確に特定することが可能となる。なお各構成要件の詳細について以下説明する。なお、本画像処理装置4は、限定されるわけではないが、いわゆるパーソナルコンピュータを用いて実現することができる。より具体的には、パーソナルコンピュータにおけるハードディスクやメモリなどの記録媒体にプログラムやデータを記録しておき、これらを実行したり読み込んだりすることによって実現できる。   The image processing apparatus 4 includes a gamma image data acquisition unit 401, a calibration unit 402, an optical image data acquisition unit 403, a distortion correction unit 404, a height estimation unit 405, a projective conversion unit 406, and a composite image data creation unit 407. By adopting such a configuration, it is possible to accurately identify the positional relationship between the RI distribution acquired using a gamma camera and the predicate neighborhood that is actually visible to the naked eye. It becomes. Details of each component will be described below. The image processing apparatus 4 is not limited, but can be realized using a so-called personal computer. More specifically, it can be realized by recording a program or data on a recording medium such as a hard disk or a memory in a personal computer, and executing or reading the program or data.

ガンマ画像データ取得部401は、ガンマカメラ1に接続され、ガンマカメラ1における半導体ガンマ検出器101により検出するガンマ線の個数に対応して生じる信号を、二次元のガンマ画像データとして記録する部である。なおガンマ画像データは、位置座標(x、y)とこの位置座標に対応するカウントデータとの組からなるデータ(以下「ガンマ画素データ」ともいう。)を複数(画像を構成する画素分)有して構成されるものである。   The gamma image data acquisition unit 401 is connected to the gamma camera 1 and records a signal generated corresponding to the number of gamma rays detected by the semiconductor gamma detector 101 in the gamma camera 1 as two-dimensional gamma image data. . The gamma image data includes a plurality of data (for pixels constituting the image) consisting of a set of position coordinates (x, y) and count data corresponding to the position coordinates (hereinafter also referred to as “gamma pixel data”). It is constituted as follows.

光学画像データ取得部403は、ガンマカメラ画像データ取得部401と機能においてほぼ同様であり、光学カメラ2に接続され、光学カメラ2におけるCCDセンサ201により検出する信号を、二次元の光学画像データとして記録する。なお光学画像データは、位置座標(x、y)とこの位置座標に対応する輝度データとの組からなるデータ(以下「光学画素データ」ともいう。)を複数(画像を構成する画素分)有して構成されている。   The optical image data acquisition unit 403 is substantially the same in function as the gamma camera image data acquisition unit 401, is connected to the optical camera 2, and detects a signal detected by the CCD sensor 201 in the optical camera 2 as two-dimensional optical image data. Record. The optical image data includes a plurality of pieces of data (hereinafter referred to as “optical pixel data”) composed of a set of position coordinates (x, y) and luminance data corresponding to the position coordinates (for pixels constituting the image). Configured.

キャリブレーション部402は、本画像処理装置4による各種データの処理に先立ち、装置における設定処理を行う部である。具体的には、レーザー装置3から照射されるレーザー光のレーザースポットと、ガンマカメラと撮像対象(例えば術部近傍)との距離(高さ)の関係データを記録する部位である。また、キャリブレーション部402は、ガンマ画像データを光学画像データと合成するために回転移動及び平行移動を行うが、この回転移動及び平行移動に対応したパラメータも予め記録する。これら詳細についてはカメラ高さ推定部405、射影変換部406において各々詳述する。   The calibration unit 402 is a unit that performs setting processing in the apparatus prior to processing of various data by the image processing apparatus 4. Specifically, it is a part that records relational data of the laser spot irradiated by the laser device 3 and the distance (height) between the gamma camera and the imaging target (for example, the vicinity of the surgical site). The calibration unit 402 performs rotational movement and parallel movement in order to synthesize gamma image data with optical image data, and also records parameters corresponding to the rotational movement and parallel movement in advance. These details will be described in detail in the camera height estimation unit 405 and the projection conversion unit 406, respectively.

なお上記の距離の関係データ、パラメータについては、ガンマカメラ1、光学カメラ2、レーザー装置3が常時固定された関係を有している場合は製造時において一度作成するのみでよく、これらカメラ等が適宜位置調整可能であれば測定において常時作成するようにすることができる。但し、本撮像装置の操作を行う者の負担を考えると、前者の場合が極めて望ましい。   The above-mentioned distance relationship data and parameters need only be created once at the time of manufacture if the gamma camera 1, the optical camera 2, and the laser device 3 have a fixed relationship. If the position can be adjusted appropriately, it can be always created in the measurement. However, considering the burden on the person who operates the imaging apparatus, the former case is extremely desirable.

歪み補正部404は、光学画像データ取得部403が取得した光学画像データに包含される歪み補正を行う部である(歪み補正が行われた光学画像データを「歪み補正後光学画像データ」という。)。この補正は、レーザー光を用いたカメラ−物体間の距離推定や、ガンマカメラ画像との画像合成を精度良く行うために行うことが極めて望ましいものである。歪みの要因としては、様々なものが挙げられるが、大きな歪みの一例として、広角レンズによる強い樽型歪みがある。なお広角であることは必須構成要件ではないが、CCDセンサ201と測定対象部位との間に配置され、より広い面積を画像データとして取得すべく設けることが極めて望ましいものである(広角レンズの視野角としては概ね140度程度あることが望ましい)。また、ここで扱う樽型歪みは、カメラによって定まるものであるため、事前(例えば製造時)にその特性を調べ、補正に必要なパラメータを求めてコンピュータの記録媒体に記録しておくことにより実現が可能であり、望ましい態様である。また、本歪み補正部404の具体的な処理については、歪み補正を行うことができる限りにおいて特段の限定は無く、公知の方法、例えば、羽石ら、“A new method for distortion correction of electronic endoscope images”、IEEE、Trans. on Medical Imaging、Vol.14、No.13、pp548−555、1995年に記載の方法を好適に用いることができる。   The distortion correction unit 404 is a unit that performs distortion correction included in the optical image data acquired by the optical image data acquisition unit 403 (the optical image data subjected to distortion correction is referred to as “post-distortion optical image data”). ). It is highly desirable to perform this correction in order to accurately estimate the distance between the camera and the object using laser light and to perform image synthesis with a gamma camera image. Various factors can be cited as a cause of the distortion, and an example of a large distortion is a strong barrel distortion caused by a wide-angle lens. Note that a wide angle is not an essential component, but it is highly desirable to be arranged between the CCD sensor 201 and the measurement target part and to provide a larger area as image data (the field of view of the wide angle lens). The angle is preferably about 140 degrees). In addition, since barrel distortion handled here is determined by the camera, it is realized by examining its characteristics in advance (for example, at the time of manufacturing), obtaining parameters necessary for correction, and recording them on a computer recording medium. This is a desirable embodiment. Further, the specific processing of the distortion correction unit 404 is not particularly limited as long as distortion correction can be performed. For example, Haneishi et al., “A new method for distortion correction of electronic endoscopic images”. "IEEE, Trans. on Medical Imaging, Vol. 14, no. 13, pp 548-555, 1995, can be preferably used.

射影変換部406は、カメラ高さ推定部405が推定した高さデータと、ガンマ画像データ取得部が取得したガンマ画像データに基づき、ガンマ画像データを射影変換する部である(射影変換された後のガンマ画像データを「射影変換後ガンマ画像データ」という。)。ガンマカメラから取得するガンマ画像データ自体は上述のとおり術部近傍を正面から見た二次元の画像データであり、光学画像データは術部近傍を斜めから見た画像データである。したがって、このまま光学画像データ(歪み補正が行われた場合も含む。)と組み合わせたのでは光学画像データの座標とガンマ画像データの座標とが整合せず、後述の合成画像データ作成部407により合成画像データを表示装置5に表示させたとしても正確にRIの位置を把握することができない。従って、本射影変換部406を用いて射影変換を行い、光学画像データとの座標をあわせておく必要がある。即ち、射影変換後ガンマ画像データは、後述する合成画像データ作成部407により、歪み補正後光学画像データと合成され、本撮像システムの効果達成に寄与する上で必須の構成である。   The projective conversion unit 406 is a unit that performs projective conversion on the gamma image data based on the height data estimated by the camera height estimation unit 405 and the gamma image data acquired by the gamma image data acquisition unit (after the projective conversion is performed). This gamma image data is referred to as “gamma image data after projective conversion”). As described above, the gamma image data itself acquired from the gamma camera is two-dimensional image data when the vicinity of the surgical site is viewed from the front, and the optical image data is image data when the vicinity of the surgical site is viewed obliquely. Therefore, when combined with optical image data (including the case where distortion correction is performed) as it is, the coordinates of the optical image data and the coordinates of the gamma image data do not match, and a composite image data creation unit 407 described later combines them. Even if the image data is displayed on the display device 5, the position of the RI cannot be accurately grasped. Therefore, it is necessary to perform projection conversion using the projection conversion unit 406 and match the coordinates with the optical image data. In other words, the post-projection-converted gamma image data is combined with the distortion-corrected optical image data by a composite image data creation unit 407, which will be described later, and is essential for contributing to the achievement of the effect of the present imaging system.

射影変換部406における変換処理の具体的な処理については、様々な態様が考えられ、限定されるわけではないが下記による処理が有用である。図4を用いて具体的に説明する。   Various modes can be considered for the specific processing of the conversion processing in the projective conversion unit 406, and although not limited thereto, the following processing is useful. This will be specifically described with reference to FIG.

本図は、本実施形態に係るガンマカメラを基準とした座標系(互いに直交するX軸、Y軸、Z軸を有し、XY平面がガンマカメラにおけるガンマ検出器表面に一致する。)、光学カメラを基準とした座標系(互いに直行するU軸,V軸,W軸を有し、UV平面が光学カメラにおけるCCDセンサ表面と一致する。)、及び、被写体(術部近傍)の近似平面を示す模式図である。なお本図では、ある物体がこれらの座標系に存在した場合、ガンマカメラを基準とした座標系における当該物体の座標(以下「ガンマ物体座標」という。)では(X,Y,Z)となり、光学カメラを基準とした座標系における当該物体の座標(以下「光学物体座標」という。)では(U,V,W)となる。なおここで、上記の物体がガンマ検出器表面(XY平面)に投影された場合、ガンマカメラはコリメータを有しており、また手術時において被写体に平行となるようガンマカメラを配置するため、XY平面と被写体の近似平面は平行となり、この座標(以下「ガンマ画像座標」という。)は(x,y)となる。一方、上記の物体がレンズを介して光学カメラのCCDセンサ表面(UV平面)に投影された場合、この座標(以下「光学画像座標」という。)は(u,v)となる。またこの場合において、レンズの光軸とW軸は一致しているものとする。 This figure is a coordinate system based on the gamma camera according to the present embodiment (having an X axis, a Y axis, and a Z axis orthogonal to each other, and the XY plane coincides with the gamma detector surface in the gamma camera), optical. A coordinate system based on the camera (having U axis, V axis, W axis orthogonal to each other, and the UV plane coincides with the surface of the CCD sensor in the optical camera), and an approximate plane of the subject (near the surgical site) It is a schematic diagram shown. In this figure, when an object exists in these coordinate systems, the coordinates of the object in the coordinate system based on the gamma camera (hereinafter referred to as “gamma object coordinates”) are (X, Y, Z) t . In the coordinate system of the optical camera as a reference (hereinafter referred to as “optical object coordinates”), (U, V, W) t . Here, when the above-mentioned object is projected onto the surface of the gamma detector (XY plane), the gamma camera has a collimator, and the gamma camera is arranged so as to be parallel to the subject at the time of surgery. The plane and the approximate plane of the subject are parallel, and the coordinates (hereinafter referred to as “gamma image coordinates”) are (x, y). On the other hand, when the object is projected onto the CCD sensor surface (UV plane) of the optical camera via the lens, the coordinates (hereinafter referred to as “optical image coordinates”) are (u, v). In this case, it is assumed that the optical axis of the lens and the W axis coincide.

一方、光学物体座標(U,V,W)から光学画像座標(u,v)への対応付けは、三角形の相似関係に注目して以下の式で与えられることが分かる(このような変換を「透視変換」とよぶ。)。なお本実施形態の光学カメラではCCDセンサの前面にレンズが配置されており、fはレンズの中心と原点との距離とする。
On the other hand, it can be seen that the correspondence from the optical object coordinates (U, V, W) to the optical image coordinates (u, v) is given by the following expression by paying attention to the similarity relation of the triangles (this conversion is performed). This is called “transparent transformation”.) In the optical camera of this embodiment, a lens is arranged on the front surface of the CCD sensor, and f is a distance between the center of the lens and the origin.

なお、この変換には光学カメラを基準とした座標系における物体座標Wを含んだ割り算が含まれており、光学カメラ座標は物体座標に対して線形な関係ではない。このままでも光学座標系の座標の対応関係を表しているが、座標間での原点の移動や軸の回転などを許して扱うことがより実用的であり、ここでは同次座標表現を用いる。例えば光学カメラを基準とした座標系における物体座標の一点(U,V,W)に対する同次座標は(kU,kV,kW,k)で定義される(kは0ではない任意の定数である。)。同次座標から光学物体座標に戻すには、単に4番目の座標値kで、初めの3つの座標値(kU,kV,kW)を割ればよい。   This conversion includes division including the object coordinate W in the coordinate system with the optical camera as a reference, and the optical camera coordinate is not linearly related to the object coordinate. Although the correspondence relationship of the coordinates in the optical coordinate system is expressed as it is, it is more practical to allow the movement of the origin and the rotation of the axis between the coordinates, and here, the homogeneous coordinate expression is used. For example, the homogeneous coordinates for one point (U, V, W) of object coordinates in the coordinate system based on the optical camera are defined by (kU, kV, kW, k) (k is an arbitrary constant which is not 0). .) To return from the homogeneous coordinates to the optical object coordinates, the first three coordinate values (kU, kV, kW) are simply divided by the fourth coordinate value k.

上記定義を用い、物体の同次座標を(U,V,W,1)とし、これをUV平面上の点(ku,kv,kw,k)に変換することを考慮すると、この変換は以下のように表すことができる。
Using the above definition, taking into account that the homogeneous coordinates of the object are (U, V, W, 1) and this is converted into a point (ku, kv, kw, k) on the UV plane, this conversion is It can be expressed as

一方、ガンマカメラを基準とした座標系と光学カメラを基準とした座標系とは回転移動と平行移動とにより関係付けられると考えられ、これらについて同次座標を用いて表現すると、以下の式で与えられる。なおここで、Tij(i=1〜3、j=1〜4)は回転移動および平行移動の特定により定まるパラメータである。
On the other hand, the coordinate system based on the gamma camera and the coordinate system based on the optical camera are considered to be related by rotational movement and parallel movement, and these can be expressed using homogeneous coordinates as follows: Given. Here, T ij (i = 1 to 3, j = 1 to 4) is a parameter determined by specifying rotational movement and parallel movement.

そして上記式(3)の変換と、上記式(4)の変換とを組み合わせることで以下の式を求めることができる。
And the following formula | equation can be calculated | required by combining the conversion of said Formula (3), and the conversion of said Formula (4).

なお、上記式の計算の結果、更に以下の式に変形できる。なおここでCij(i=1〜3、j=1〜4)は、パラメータf及びパラメータTijに基づいて定められるものである。なお、上記式においてkw=0となるため第3行は省略してある。また、Zは既知であることを明確にするためZ=Zcと表現する。
As a result of the calculation of the above formula, it can be further transformed into the following formula. Here, C ij (i = 1 to 3, j = 1 to 4) is determined based on the parameter f and the parameter T ij . Since kw = 0 in the above formula, the third line is omitted. Z is expressed as Z = Zc in order to clarify that Z is known.

ここで、上記Cijは、キャリブレーション部402により定めることができるパラメータであり、Zcは上述のカメラ高さ推定部405により定めることができる。以上により、X、Y、Zcを求めることができれば、u、vを求めることができるようになる。 Here, C ij is a parameter that can be determined by the calibration unit 402, and Zc can be determined by the above-described camera height estimation unit 405. As described above, if X, Y, and Zc can be obtained, u and v can be obtained.

ここで上記パラメータのキャリブレーションについて説明する。 Here, the calibration of the parameters will be described.

まず上記式(6)を変形すると、以下の関係式を導き出せる。
First, when the above equation (6) is modified, the following relational expression can be derived.

この結果、上記各パラメータは、既知の物体に対し、適当な6個以上の基準点を定め、最小二乗法等を用い、計算処理を行うことで求めることができる。例えば、n個の基準点について、ガンマ物体座標及び光学画像座標をそれぞれ(X(i),Y(i),Z(i)i=1,2,…,n、(u(i),v(i)i=1,…,n、と得られたとすると、下記にて表現される連立方程式を解くことによりパラメータを求めることができる。なおここにおいて各係数のスケールには任意性があるため、例としてC34=1として計算している。
As a result, each of the parameters can be obtained by determining appropriate six or more reference points for a known object and performing a calculation process using a least square method or the like. For example, with respect to n reference points, gamma object coordinates and optical image coordinates are (X (i) , Y (i) , Z (i) ) i = 1, 2,..., N , (u (i) , v (i) ) If i = 1,..., n , the parameters can be obtained by solving the simultaneous equations expressed below. Here, since the scale of each coefficient is arbitrary, it is calculated as C 34 = 1 as an example.

以上により、キャリブレーション及び射影変換を行うことで、後述の合成画像データ作成部407による合成が可能となる。   As described above, by performing calibration and projective transformation, it is possible to perform synthesis by a synthesized image data creation unit 407 described later.

カメラ高さ推定部405は、ガンマカメラ1と測定対象との距離(以下「高さ」という。)を推定するための部であって、この高さは上述した射影変換部406による射影変換において用いられる重要なパラメータである。細かく説明すると、RIを用いてSNを検出しようとする場合、ガンマカメラと被写体との距離は、撮影環境、RI分布の強度などによって適宜変える必要がある。一方、ガンマカメラ画像と光学カメラ画像との画面合成を考えた場合、ガンマカメラが撮影距離に因らず被写体のRI分布を等倍で撮影できるのに対し、光学カメラ画像は撮影距離に応じて倍率が変わる。したがって、想定される範囲の任意距離での撮影画像を正しく合成するためには、撮影距離を何らかの方法で取得し、その値に基づいた画像変換を行うことが極めて望ましい。以下、本カメラ高さ推定部405の処理について図5を用いて具体的に説明する。   The camera height estimation unit 405 is a unit for estimating the distance (hereinafter referred to as “height”) between the gamma camera 1 and the measurement target, and this height is used in the projective transformation by the projective transformation unit 406 described above. It is an important parameter used. More specifically, when the SN is detected using RI, the distance between the gamma camera and the subject needs to be appropriately changed depending on the imaging environment, the intensity of the RI distribution, and the like. On the other hand, when considering the screen composition of the gamma camera image and the optical camera image, the gamma camera can shoot the RI distribution of the subject at the same magnification regardless of the shooting distance, whereas the optical camera image depends on the shooting distance. The magnification changes. Therefore, in order to correctly synthesize a captured image at an arbitrary distance within an assumed range, it is extremely desirable to acquire the shooting distance by some method and perform image conversion based on the value. Hereinafter, the processing of the camera height estimation unit 405 will be specifically described with reference to FIG.

本図は、図4とほぼ同様であり、本実施形態に係るガンマカメラを基準とした座標系、光学カメラを基準とした座標系、及び、被写体(基準面)の近似平面を示す模式図である。   This figure is almost the same as FIG. 4, and is a schematic diagram showing a coordinate system based on the gamma camera according to the present embodiment, a coordinate system based on the optical camera, and an approximate plane of the subject (reference plane). is there.

高さ推定の方法としては様々な方法が採用できるが、一般的には、レーザー光を適当な角度で被写体の近似平面に照射してその光学カメラ画像上のレーザースポットを検出し、あらかじめキャリブレーションによりこのレーザースポットと高さとの関係を記録しておき、実際の測定においてレーザースポットを求め、上記の関係を参照することで推定することができる。   Various methods can be used to estimate the height, but in general, the laser spot is irradiated onto the approximate plane of the subject at an appropriate angle to detect the laser spot on the optical camera image, and calibration is performed in advance. Thus, the relationship between the laser spot and the height can be recorded, the laser spot can be obtained in actual measurement, and estimated by referring to the above relationship.

レーザースポットと高さとの関係については、様々な方法を採用することができ、レーザースポットと高さとの関係を複数有して構成されるデータテーブルを用いる方法や、高さをレーザースポットの関数として捉え、計算処理を行うことで求める方法等が挙げられ、高さをレーザースポットの関数として捉える方法は、データテーブルにおいて準備されていない像点位置を観測した場合であっても容易に正確な高さを推定できることができる点においてより有用である。したがって以下、当該方法の処理について説明する。   Various methods can be used for the relationship between the laser spot and the height, such as a method using a data table having a plurality of relationships between the laser spot and the height, or the height as a function of the laser spot. For example, the method of obtaining the height as a function of the laser spot is easy to obtain even if the image point position not prepared in the data table is observed. This is more useful in that it can be estimated. Therefore, the process of the method will be described below.

まず、レーザー装置3から発せられるレーザー光の軌跡は、ガンマカメラを基準とした座標系で表すと下記式で表現される。ここで(X,Y,Z)はレーザー光が通過する点であり、(a,a,a)は光線の方向を表す定数である。
First, the locus of the laser light emitted from the laser device 3 is expressed by the following equation when expressed in a coordinate system based on the gamma camera. Here, (X 0 , Y 0 , Z 0 ) is a point through which the laser beam passes, and (a x , a y , a z ) is a constant representing the direction of the light beam.

そして上記式より、X及びYをそれぞれZを用いて表すと以下の式となる。
From the above formula, when X and Y are each expressed using Z, the following formula is obtained.

なお、上記式(10)をより簡単な表記にすると以下の式にできる。
In addition, if the said Formula (10) is made simpler notation, it can be set as the following formula | equation.

そしてこの結果を、上述の射影変換部406にて説明した式(5)に代入すると、以下となる。
Then, substituting this result into Expression (5) described in the above-described projective transformation unit 406 yields the following.

更に、この式をZについて解き、整理すると以下となる。なお、定数部分はD、D、D、D、などで置き換えることにより、簡略化することができる。
Furthermore, when this equation is solved for Z and arranged, it becomes the following. The constant portion can be simplified by replacing it with D 1 , D 2 , D 3 , D 4 , etc.

そして上記式によると、uとZとの対応関係を求めることができるようになる。なお、vとZとの関係も上記と同様に得ることができる。以上、D、D、D、Dを求めておくことで、uの値、若しくはvの値を入力すればZを推定することができるようになる。 According to the above equation, the correspondence between u and Z can be obtained. The relationship between v and Z can be obtained in the same manner as described above. As described above, by obtaining D 1 , D 2 , D 3 , and D 4 , Z can be estimated by inputting the value of u or the value of v.

ところで、D、D、D、Dは、測定に先立つキャリブレーションにより定めることができる。具体的には、あらかじめZを制御できる装置を用いて種々のZについて画像を撮影し、それぞれ像点のu座標を求め、(u,Z)のセットを複数用意し、このセットについて計算し求めておくことができる。より具体的な方法について以下示す。 Incidentally, D 1 , D 2 , D 3 , and D 4 can be determined by calibration prior to measurement. Specifically, images are taken for various Z using a device capable of controlling Z in advance, u coordinates of image points are obtained, a plurality of (u, Z) sets are prepared, and this set is calculated and obtained. I can keep it. A more specific method will be described below.

まず、上記式(13)を更に下記式に表す。
First, the above formula (13) is further expressed by the following formula.

そしてこれに対しD=1とすると下記式(15)となり、(u,Z)のセットを(u(k),Z(k)),k=1、…Kとすると、以下の式(16)で表すことができる。
On the other hand, when D 4 = 1, the following equation (15) is obtained. When the set of (u, Z) is (u (k) , Z (k) ), k = 1,. 16).

そして上記式(16)からパラメータD、D、D、Dを定めることができる。 And parameters D 1 , D 2 , D 3 , D 4 can be determined from the above equation (16).

合成画像データ作成部407は、上記により得た射影変換後ガンマ画像データと、歪み補正後光学画像データとを合成し、一つの画像データ(以下「合成画像データ」という。)を作成する部である。合成の方法は種々の方法が得られ、以下に限定されるわけでないことは当然であるが、例えば、歪み補正後光学画像データをR、G、Bの3色の輝度データで表現した場合において、射影変換後ガンマ画像データにおける光強度を歪み補正後ガンマ画像データのR、G、Bいずれか一色の強度データに加算することが考えられる。具体的には、例えば、歪み補正後光学画像データの位置(u,v)におけるRGB3成分の輝度を[ROC(u,v),GOC(u,v),BOC(u,v)]、合成画像データの位置(u,v)におけるR,G,Bの輝度を[RSYN(u,v),GSYN(u,v),BSYN(u,v)]、射影変換後ガンマ画像データの位置(u,v)におけるカウントデータをIGC(u,v)とし、Rにこの射影変換後ガンマ画像データのカウントでータを加えるとすると、以下の関係により合成画像データを作成することができるようになる。なおこの場合、射影変換後ガンマ画像データの輝度データを加算することにより、Rが飽和してしまうようなときは、ゆがみ補正後光学カメラ画像に1より小さい定数をかける(少なくとも0より大きい)、又は、射影変換後ガンマ画像データの輝度データに1より小さい定数(少なくとも0より大きく、より望ましくは0.5以上である)をかけることにより、合成画像データを作成することが望ましい。
The composite image data creation unit 407 synthesizes the gamma image data after projective conversion obtained above and the optical image data after distortion correction to create one image data (hereinafter referred to as “composite image data”). is there. Various methods of synthesis can be obtained, and it is natural that the method is not limited to the following. For example, in the case where optical image data after distortion correction is expressed by luminance data of three colors of R, G, and B It is conceivable that the light intensity in the gamma image data after projective conversion is added to the intensity data of one color of R, G, B in the gamma image data after distortion correction. Specifically, for example, the luminances of the RGB three components at the position (u, v) of the optical image data after distortion correction are represented by [R OC (u, v), G OC (u, v), B OC (u, v). ], The brightness of R, G, B at the position (u, v) of the composite image data is [R SYN (u, v), G SYN (u, v), B SYN (u, v)], after projective transformation. Assuming that the count data at the position (u, v) of the gamma image data is I GC (u, v) and R is added to the R by the count of the gamma image data after the projective transformation, the composite image data is expressed by the following relationship Will be able to create. In this case, when R is saturated by adding luminance data of gamma image data after projective conversion, a constant smaller than 1 is applied to the optical camera image after distortion correction (at least greater than 0). Alternatively, it is desirable to generate composite image data by multiplying the luminance data of the gamma image data after projective conversion by a constant smaller than 1 (at least larger than 0, more desirably 0.5 or more).

なお、表示装置5は、上記画像処理装置4により得られた合成画像データを表示するための装置であって、画像を表示できる限りにおいて特段の制限は無く、一般に市販されている液晶ディスプレイ装置や、CRTディスプレイ装置など周知のディスプレイ装置を採用することができる。この装置に上記の合成画像データを表示させることで、手術を行う者は、光学カメラの画像を参照しつつ、RIの強度の強い位置を同時に把握することができるようになる。   The display device 5 is a device for displaying the composite image data obtained by the image processing device 4, and is not particularly limited as long as an image can be displayed. A known display device such as a CRT display device can be employed. By displaying the above-mentioned composite image data on this apparatus, a person who performs an operation can simultaneously grasp the position where the intensity of RI is strong while referring to the image of the optical camera.

以上、本撮像装置によれば、ガンマカメラに光学カメラ及びレーザー装置を設置し、ガンマカメラ及び光学カメラにより画像を取得した後、上記の種々の処理を行わせることで光学画像とガンマカメラによる画像とを合成し、RI分布と実際に肉眼で見える観測対象部位との位置関係を容易かつ正確に把握することができ、正確なSN検出及び効率的な治療を行うことができるようになる。   As described above, according to the present imaging device, an optical camera and a laser device are installed in a gamma camera, and after the image is acquired by the gamma camera and the optical camera, the above-described various processes are performed, so that the optical image and the image by the gamma camera are obtained. And the positional relationship between the RI distribution and the observation target part actually visible to the naked eye can be easily and accurately grasped, and accurate SN detection and efficient treatment can be performed.

以下、本実施形態に係る撮像装置を実際に作成し、装置の効果について確認を行った。以下説明する。   Hereinafter, an imaging apparatus according to the present embodiment was actually created, and the effects of the apparatus were confirmed. This will be described below.

本実施例においては、ガンマカメラ1として、アクロラド社製MGC1500を、光学カメラ2としてサイバーアイ社製広角カメラを、レーザー装置としてオーディオテクニカ社製レーザーモジュールH2−21(直流3V駆動,波長650nm)を用い、画像処理装置4及び画像処理装置5としては市販のパーソナルコンピュータを用い表示装置5としては市販のモニターを夫々用いて実現した。また、測定対象としては、黒い点を1cm間隔の正方格子状に描いた平らな紙の上に,99mTc0.1MBqのRIをシリンジの先端に入れた注射器とした。   In the present embodiment, an Acrorad MGC 1500 is used as the gamma camera 1, a Cybereye wide-angle camera is used as the optical camera 2, and a laser module H2-21 (DC 3V drive, wavelength 650 nm) is used as a laser device. The image processing device 4 and the image processing device 5 were realized using a commercially available personal computer, and the display device 5 was realized using a commercially available monitor. The measurement object was a syringe in which 99mTc 0.1 MBq of RI was put on the tip of a syringe on a flat paper in which black dots were drawn in a square lattice pattern with an interval of 1 cm.

図6は、本実施例においてガンマカメラ1で実際の測定対象を撮影した場合の画像の例を示し(撮影時間10秒)、図7は、図6に示すようなガンマカメラによる画像と光学カメラによる画像とを組み合わせた結果の図である。なお図7中の矢印にて示される場所が線源であり、本実施例では、高さを2種類(30mm、60mm)、及び、RIの位置を3箇所とし、全部で6パターンについて実施を行った。   FIG. 6 shows an example of an image when an actual measurement target is photographed by the gamma camera 1 in this embodiment (shooting time 10 seconds), and FIG. 7 shows an image and an optical camera by the gamma camera as shown in FIG. It is a figure of the result of having combined with the image by. In addition, the place shown by the arrow in FIG. 7 is a radiation source. In this embodiment, two types of heights (30 mm and 60 mm) and three RI positions are used, and a total of six patterns are implemented. went.

この結果、図7が示すとおり、RIの位置と注射器の位置とは良好に一致し、本撮像システムによりきわめて精度の高い合成画像を得ることができ、本撮像装置の有用性を立証することができた。   As a result, as shown in FIG. 7, the position of the RI and the position of the syringe are in good agreement, and a highly accurate composite image can be obtained by the imaging system, which proves the usefulness of the imaging apparatus. did it.

本発明に係る撮像装置は、上記のとおり、手術用の撮像装置として用いることができ、特にRI法によるSNを検出するにおいて非常に有用である。   As described above, the imaging apparatus according to the present invention can be used as an imaging apparatus for surgery, and is particularly useful in detecting SN by the RI method.

本撮像システムの概要を示す図。The figure which shows the outline | summary of this imaging system. 本撮像装置の概要を示す図。1 is a diagram illustrating an outline of the imaging apparatus. 画像処理装置の機能ブロックを示す図。The figure which shows the functional block of an image processing apparatus. ガンマカメラ、光学カメラの座標系と、近似平面の関係を示す図。The figure which shows the relationship between the coordinate system of a gamma camera and an optical camera, and an approximate plane. ガンマカメラ、光学カメラの座標系と、近似平面の関係を示す図。The figure which shows the relationship between the coordinate system of a gamma camera and an optical camera, and an approximate plane. ガンマ画像の一例を示す図。The figure which shows an example of a gamma image. 実施例の結果を示す図。The figure which shows the result of an Example.

符号の説明Explanation of symbols

1…ガンマカメラ、2…光学カメラ、3…レーザー装置、4…画像処理装置、5…表示装置、101…半導体ガンマ検出器、102…コリメータ、103…増幅回路、201…CCDセンサ、202…レンズ、401…ガンマ画像データ取得部、402…キャリブレーション部、403…光学画像データ取得部、404…歪み補正部、405…高さ推定部、406…射影変換部、407…合成画像データ作成部
DESCRIPTION OF SYMBOLS 1 ... Gamma camera, 2 ... Optical camera, 3 ... Laser apparatus, 4 ... Image processing apparatus, 5 ... Display apparatus, 101 ... Semiconductor gamma detector, 102 ... Collimator, 103 ... Amplifying circuit, 201 ... CCD sensor, 202 ... Lens 401 Gamma image data acquisition unit 402 Calibration unit 403 Optical image data acquisition unit 404 Distortion correction unit 405 Height estimation unit 406 Projection conversion unit 407 Composite image data generation unit

Claims (6)

ガンマ検出器及び該ガンマ検出器に配置されるコリメータを有するガンマカメラ、該ガンマカメラに固定され、光検出器を有する光学カメラ、前記ガンマカメラに固定されるレーザー装置と、を有する撮像装置と、
前記ガンマカメラにおける前記ガンマ線検出器からの信号に基づきガンマ画像データを取得するガンマ画像データ取得部、前記光学カメラにおける前記光検出器からの信号に基づき光学画像データを取得する光学画像データ取得部、前記ガンマ画像データに基づいて射影変換を行い射影変換後ガンマ画像データを作成する射影変換部、前記光学画像データと前記射影変換ガンマ画像データを合成して合成画像データを作成する合成画像データ作成部、を有する処理装置と、
前記処理装置における前記合成画像データ作成部が作成した前記合成画像データを表示する表示装置と、を有する撮像システム。
A gamma camera having a gamma detector and a collimator disposed on the gamma detector, an optical camera fixed to the gamma camera and having a light detector, and a laser device fixed to the gamma camera;
A gamma image data acquisition unit for acquiring gamma image data based on a signal from the gamma ray detector in the gamma camera, an optical image data acquisition unit for acquiring optical image data based on a signal from the photodetector in the optical camera, Projection conversion unit that performs projection conversion based on the gamma image data and generates post-projection conversion gamma image data, and a composite image data generation unit that combines the optical image data and the projection conversion gamma image data to generate composite image data A processing apparatus having
An imaging system comprising: a display device that displays the composite image data created by the composite image data creation unit in the processing device.
前記光学画像データ取得部が取得した光学画像データに対して歪み補正を行い歪み補正後光学画像データを作成する歪み補正部を有し、
前記合成画像データ作成部は、前記歪み補正後光学画像データと前記射影変換ガンマ画像データを合成して画像合成データを作成することを特徴とする請求項1記載の撮像システム。
A distortion correction unit that performs distortion correction on the optical image data acquired by the optical image data acquisition unit and creates optical image data after distortion correction;
The imaging system according to claim 1, wherein the composite image data creating unit creates image composite data by combining the optical image data after distortion correction and the projective transformation gamma image data.
前記光学画像データから前記レーザー装置が照射する光の照射位置を求め、当該光の照射位置から前記ガンマカメラまでの高さ(以下単に「高さ」という。)を推定するカメラ高さ推定部、を有し、
前記射影変換部は、前記ガンマ画像データと前記カメラ高さ推定部が推定する高さに基づいて射影変換を行い射影変換後ガンマ画像データを作成することを特徴とする請求項1記載の撮像システム。
A camera height estimation unit that obtains an irradiation position of light emitted from the laser device from the optical image data and estimates a height from the irradiation position of the light to the gamma camera (hereinafter simply referred to as “height”); Have
2. The imaging system according to claim 1, wherein the projective transformation unit performs projective transformation based on the gamma image data and a height estimated by the camera height estimating unit to generate post-projection-transformed gamma image data. .
前記光学画像データ取得部が取得した光学画像データに対して歪み補正を行い歪み補正後光学画像データを作成する歪み補正部、前記歪み補正後光学画像データから前記レーザー装置が照射する光の照射位置を求め、当該光の照射位置から高さを推定するカメラ高さ推定部、を有し、
前記射影変換部は、前記ガンマ画像データと前記カメラ高さ推定部が推定する高さに基づいて射影変換を行い射影変換後ガンマ画像データを作成し、前記合成画像データ作成部は、前記歪み補正後光学画像データと前記射影変換ガンマ画像データを合成して画像合成データを作成することを特徴とする請求項1記載の撮像システム。
A distortion correction unit that performs distortion correction on the optical image data acquired by the optical image data acquisition unit to create optical image data after distortion correction, and an irradiation position of light irradiated by the laser device from the optical image data after distortion correction A camera height estimation unit that estimates the height from the irradiation position of the light,
The projective transformation unit performs projective transformation based on the gamma image data and the height estimated by the camera height estimation unit to create post-conversion gamma image data, and the composite image data creation unit includes the distortion correction 2. The imaging system according to claim 1, wherein post-optical image data and the projective transformation gamma image data are synthesized to create image synthesis data.
前記射影変換部の変換処理に用いられるパラメータデータを予め記録してなるキャリブレーション部を有することを特徴とする請求項1記載の撮像システム。   The imaging system according to claim 1, further comprising a calibration unit configured to record in advance parameter data used for conversion processing of the projection conversion unit. ガンマ検出器及び該ガンマ検出器に配置されるコリメータを有するガンマカメラ、該ガンマカメラに固定され、光検出器を有する光学カメラ、前記ガンマカメラに固定されるレーザー装置と、を有する撮像装置。
A gamma camera having a gamma detector and a collimator disposed on the gamma detector, an optical camera fixed to the gamma camera and having a light detector, and a laser device fixed to the gamma camera.
JP2005296840A 2005-10-11 2005-10-11 Imaging apparatus and imaging system Active JP4449081B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005296840A JP4449081B2 (en) 2005-10-11 2005-10-11 Imaging apparatus and imaging system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005296840A JP4449081B2 (en) 2005-10-11 2005-10-11 Imaging apparatus and imaging system

Publications (2)

Publication Number Publication Date
JP2007107932A true JP2007107932A (en) 2007-04-26
JP4449081B2 JP4449081B2 (en) 2010-04-14

Family

ID=38033914

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005296840A Active JP4449081B2 (en) 2005-10-11 2005-10-11 Imaging apparatus and imaging system

Country Status (1)

Country Link
JP (1) JP4449081B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011502673A (en) * 2007-11-19 2011-01-27 クーカ・ロボター・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング Robot, medical workstation and method for projecting an image on the surface of an object
JP2013228305A (en) * 2012-04-26 2013-11-07 Shimadzu Corp Measurement program and measurement apparatus
JP2014185931A (en) * 2013-03-22 2014-10-02 Shimadzu Corp Measurement program and radioactivity measurement system
JP2016510410A (en) * 2013-02-04 2016-04-07 ノバダック テクノロジーズ インコーポレイテッド Scintigraphic imaging of automated 3D patient shapes with synthetic radiation-free.
JP2018516712A (en) * 2015-06-12 2018-06-28 アキュレイ インコーポレイテッド Image-based aperture verification system for multi-leaf collimator

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011502673A (en) * 2007-11-19 2011-01-27 クーカ・ロボター・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング Robot, medical workstation and method for projecting an image on the surface of an object
JP2013228305A (en) * 2012-04-26 2013-11-07 Shimadzu Corp Measurement program and measurement apparatus
JP2016510410A (en) * 2013-02-04 2016-04-07 ノバダック テクノロジーズ インコーポレイテッド Scintigraphic imaging of automated 3D patient shapes with synthetic radiation-free.
JP2014185931A (en) * 2013-03-22 2014-10-02 Shimadzu Corp Measurement program and radioactivity measurement system
JP2018516712A (en) * 2015-06-12 2018-06-28 アキュレイ インコーポレイテッド Image-based aperture verification system for multi-leaf collimator

Also Published As

Publication number Publication date
JP4449081B2 (en) 2010-04-14

Similar Documents

Publication Publication Date Title
US10948415B2 (en) Method of determining surgical margins using fluorescence biopsy specimen imager
US10610172B2 (en) Imaging system and method for enabling instrument guidance
US10706610B2 (en) Method for displaying an object
US9076246B2 (en) System and method of overlaying images of different modalities
US6801597B2 (en) Method and system for creating task-dependent three-dimensional images
EP2501290B1 (en) Scan plan field of view adjustor, determiner, and/or quality assessor
US7759625B2 (en) Systems and methods for multimodal imaging using a volumetric representation of an object
US20150359504A1 (en) Intraoral tomosynthesis systems, methods, and computer readable media for dental imaging
WO2013005833A1 (en) X-ray imaging device and calibration method therefor
WO2016174911A1 (en) Photodynamic diagnosis apparatus and photodynamic diagnosis method
JP2015128242A (en) Image projection device and calibration method of the same
JP4449081B2 (en) Imaging apparatus and imaging system
US20140218720A1 (en) Combined radiationless automated three dimensional patient habitus imaging with scintigraphy
US11025812B2 (en) Imaging apparatus, imaging method, and imaging system
Weersink et al. Improving superficial target delineation in radiation therapy with endoscopic tracking and registration
JP2015522826A (en) Color coding for 3D measurements, especially on transmissive and scattering surfaces
Nehmeh et al. A novel respiratory tracking system for smart‐gated PET acquisition
JP4561990B2 (en) X-ray equipment
CN104799874B (en) Projecting method, device and system and the Medical Devices of medical image
Brombal et al. Motion artifacts assessment and correction using optical tracking in synchrotron radiation breast CT
Sarmadi et al. 3D Reconstruction and alignment by consumer RGB-D sensors and fiducial planar markers for patient positioning in radiation therapy
KR20130057282A (en) Method for computer-aided diagnosis and computer-aided diagnosis apparatus thereof
Kainz et al. Fast marker based C-arm pose estimation
JP2013061280A (en) X-ray inspection device, control method of x-ray inspection device, program for controlling x-ray inspection device, and computer readable recording medium having the program stored therein
JP2007159769A (en) X-ray emission composite ct apparatus, and x-ray ct apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070302

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090925

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091222

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100117

R150 Certificate of patent or registration of utility model

Ref document number: 4449081

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130205

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20190205

Year of fee payment: 9

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250