JP2007244746A - Observation system - Google Patents

Observation system Download PDF

Info

Publication number
JP2007244746A
JP2007244746A JP2006074892A JP2006074892A JP2007244746A JP 2007244746 A JP2007244746 A JP 2007244746A JP 2006074892 A JP2006074892 A JP 2006074892A JP 2006074892 A JP2006074892 A JP 2006074892A JP 2007244746 A JP2007244746 A JP 2007244746A
Authority
JP
Japan
Prior art keywords
image
lymph
fluorescent
fluorescence
lymph node
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006074892A
Other languages
Japanese (ja)
Inventor
Daisuke Asada
大輔 浅田
Keiji Handa
啓二 半田
Hiroyuki Nishida
浩幸 西田
Yutaka Ishiwatari
裕 石渡
Kenji Harano
健二 原野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Olympus Medical Systems Corp
Original Assignee
Olympus Corp
Olympus Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp, Olympus Medical Systems Corp filed Critical Olympus Corp
Priority to JP2006074892A priority Critical patent/JP2007244746A/en
Publication of JP2007244746A publication Critical patent/JP2007244746A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an observation system capable of compounding images for estimating a blood vessel pathway of a large flow rate in an endoscopic picture of a lymph vessel of a small flow rate or lymph node. <P>SOLUTION: Three-dimensional image data, such as a CT lymph node detected by a CT image memory 43b, are converted into two-dimensional image data corresponding to a parameter in a section direction by an XYZ processing part 46 composed of an adjustment processing function by a CPU 44 with image data, such as a fluorescent lymph node detected by a fluorescent image memory 43a, as a reference image. Coincidences of size of image data are judged by a first judgement part 47 and, when they do not coincide, adjustment processing is performed by executing expansion and contraction by a scale reduction processing part 48 so that both images coincide. Then, a composite image in which a CT blood vessel image is superimposed upon the fluorescent image is generated and the composite image is displayed to a monitor 8. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、生体における対象部位の脂肪の下層側に存在するリンパ管、リンパ節、血管などを同定するのに適した観察システムに関する。   The present invention relates to an observation system suitable for identifying lymphatic vessels, lymph nodes, blood vessels, and the like existing on the lower layer side of fat at a target site in a living body.

近年、内視鏡装置は、医療分野において広く用いられるようになった。また、従来より、血管走行を反射観察によって同定する技術として、近赤外域でのヘモグロビンの吸光ピークを用いて観察する方法がある。しかしながら、この技術では臓器表層面の血管同定は可能であるが、脂肪下層に存在するリンパ管、リンパ節、血管などを同定することは困難となる。
また、特開2001−299676号公報には、インドシアニングリーン(ICGと略記)を、観察の対象部位に注入し、このICGが発する蛍光画像を撮像することにより、リンパ節を可視画像として表示する装置が開示されている。
特開2001−299676号公報
In recent years, endoscope apparatuses have come to be widely used in the medical field. Conventionally, as a technique for identifying blood vessel running by reflection observation, there is a method of observing using an absorption peak of hemoglobin in the near infrared region. However, although this technique can identify blood vessels on the surface of an organ, it is difficult to identify lymphatic vessels, lymph nodes, blood vessels, and the like that are present in the lower fat layer.
Japanese Patent Laid-Open No. 2001-299676 discloses indocyanine green (abbreviated as ICG) to a site to be observed, and displays a lymph node as a visible image by capturing a fluorescence image emitted from the ICG. An apparatus is disclosed.
JP 2001-299676 A

しかし、上記公報の従来例の装置は、脂肪下のリンパ管、リンパ節を同定することはできても、流量の大きい血管に対しては有効に機能しない。つまり、ICGが注入されても流量が大きい血管部分では、注入の時間から急速にICGが観察対象部位から散逸してしまうため、血管の位置道程もしくは走行位置の推定が困難になる欠点があった。
このため、内視鏡により得られる流量が小さいリンパ管、リンパ節に対する蛍光画像のみでは、内視鏡下の手術等を円滑に行い難い問題があった。
However, although the apparatus of the conventional example of the above publication can identify lymphatic vessels and lymph nodes under fat, it does not function effectively for blood vessels with a large flow rate. That is, in the blood vessel portion where the flow rate is large even when ICG is injected, ICG is rapidly dissipated from the observation target site from the time of injection, and thus there is a drawback that it is difficult to estimate the position path or running position of the blood vessel. .
For this reason, there has been a problem that it is difficult to perform an endoscopic operation or the like smoothly only with fluorescent images of lymph vessels and lymph nodes having a small flow rate obtained by an endoscope.

(発明の目的)
本発明は上述した点に鑑みてなされたもので、流量が小さいリンパ管或いはリンパ節に対する内視鏡画像中に、流量が大きい血管走行の推定ができる画像を合成できる観察システムを提供することを目的とする。
(Object of invention)
The present invention has been made in view of the above points, and provides an observation system capable of synthesizing an image capable of estimating blood vessel running with a high flow rate in an endoscopic image for a lymph vessel or lymph node with a low flow rate. Objective.

本発明の観察システムは、蛍光物質が投与された生体における血液の流量が小さいリンパ節及びリンパ管の少なくとも一方と血液の流量が大きい血管とを含む対象部位に対して励起光が照射された状態における前記蛍光物質が発生する蛍光を内視鏡の蛍光撮像手段により受光し、前記蛍光撮像手段から光電変換されて出力される撮像信号が入力され、前記撮像信号に対する信号処理を行い、前記リンパ節及びリンパ管の少なくとも一方の基準画像を含む蛍光画像を第1の画像として生成する映像信号を生成する映像処理手段と、
3次元画像生成手段により、前記対象部位における前記リンパ節及びリンパ管の少なくとも一方と前記血管とを含む3次元の画像が入力され、前記3次元の画像から2次元の第2の画像を生成すると共に、前記第2の画像における前記基準画像に対応する対応画像を、前記基準画像の位置及びサイズに合わせる調整処理を行う調整処理手段と、
前記調整処理手段により調整処理された後の調整状態で、前記2次元の画像における少なくとも前記血管部分の画像を前記蛍光画像に合成する合成手段と、
を具備したことを特徴とする。
上記構成により、内視鏡を用いて得られる蛍光画像と、3次元画像生成手段により生成され、前記蛍光画像における基準画像に対応する2次元の対応画像の位置及びサイズをその基準画像に合わせる調整処理後における前記3次元画像生成手段により生成される血管部分の画像を前記蛍光画像に重畳等で合成するようにしているので、流量が小さいリンパ節或いはリンパ管の蛍光画像と共に、蛍光撮像では得にくい流量が大きい血管部分の画像を合成して、内視鏡画像上で血管部分を推定できるようにしている。
The observation system of the present invention is a state in which excitation light is irradiated to a target region including at least one of a lymph node and lymph vessel with a low blood flow rate and a blood vessel with a high blood flow rate in a living body to which a fluorescent substance is administered. Fluorescence generated by the fluorescent material in the endoscope is received by a fluorescence imaging means of an endoscope, an imaging signal that is photoelectrically converted and output from the fluorescence imaging means is input, signal processing is performed on the imaging signal, and the lymph node And a video processing means for generating a video signal for generating a fluorescent image including at least one reference image of the lymphatic vessel as a first image;
The three-dimensional image generation means inputs a three-dimensional image including at least one of the lymph nodes and lymph vessels and the blood vessels in the target region, and generates a two-dimensional second image from the three-dimensional image. And an adjustment processing means for performing an adjustment process for matching a corresponding image corresponding to the reference image in the second image to the position and size of the reference image;
Synthesizing means for synthesizing at least the image of the blood vessel portion in the two-dimensional image with the fluorescence image in the adjusted state after being adjusted by the adjustment processing means;
It is characterized by comprising.
With the above configuration, the fluorescence image obtained using the endoscope and the adjustment generated by the three-dimensional image generation means and the position and size of the two-dimensional corresponding image corresponding to the reference image in the fluorescence image are adjusted to the reference image. Since the image of the blood vessel portion generated by the three-dimensional image generation means after processing is combined with the fluorescence image by superposition or the like, it can be obtained by fluorescence imaging together with the fluorescence image of lymph nodes or lymph vessels with a small flow rate. An image of a blood vessel part having a large flow rate that is difficult is synthesized so that the blood vessel part can be estimated on an endoscopic image.

本発明によれば、流量が小さいリンパ管或いはリンパ節の蛍光画像に、流量が大きく蛍光画像として得にくい血管走行を推定できる画像を合成できる。従って、本発明によれば、内視鏡下での手術等を円滑に行い易くなる効果もある。   ADVANTAGE OF THE INVENTION According to this invention, the image which can estimate the blood vessel running with a large flow volume and difficult to obtain as a fluorescence image can be synthesize | combined with the fluorescence image of a lymph vessel or a lymph node with a small flow volume. Therefore, according to the present invention, there is an effect that it is easy to perform an operation or the like under an endoscope smoothly.

以下、図面を参照して本発明の実施例を説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1ないし図5は本発明の実施例1に係り、図1は本発明の実施例1の観察システムの全体構成を示し、図2はカメラコントロールユニットによる画像処理回路の構成を示し、図3は励起フィルタ及び励起光カットフィルタの透過率特性等を示し、図4はCT装置及び内視鏡等により得られる画像を示し、図5は実施例1による処理内容を示す。
図1に示すように本発明の実施例1の観察システム1は、腹部等の患者2内部に先端側が挿入される例えば光学式内視鏡3に、撮像手段を内蔵したカメラヘッド4を装着したカメラ装着内視鏡(以下では、単に内視鏡と略記)5と、光学式内視鏡3に照明光を供給する光源装置6と、カメラヘッド4に内蔵された撮像手段に対する信号処理を行うカメラコントロールユニット(CCUと略記)7と、このCCU7から出力される標準的な映像信号が入力されることにより、撮像手段で撮像された内視鏡画像を表示するモニタ8と、患者2の3次元CT像を得るCT(コンピュータトモグラフィ)装置9とを有する。
1 to 5 relate to Embodiment 1 of the present invention, FIG. 1 shows the overall configuration of the observation system of Embodiment 1 of the present invention, FIG. 2 shows the configuration of an image processing circuit by a camera control unit, and FIG. Shows the transmittance characteristics of the excitation filter and the excitation light cut filter, FIG. 4 shows an image obtained by a CT apparatus, an endoscope, and the like, and FIG. 5 shows the processing contents of the first embodiment.
As shown in FIG. 1, in the observation system 1 according to the first embodiment of the present invention, a camera head 4 having a built-in image pickup unit is mounted on, for example, an optical endoscope 3 whose distal end is inserted into a patient 2 such as the abdomen. Signal processing is performed on a camera-mounted endoscope (hereinafter simply abbreviated as an endoscope) 5, a light source device 6 that supplies illumination light to the optical endoscope 3, and an imaging unit built in the camera head 4. A camera control unit (abbreviated as CCU) 7, a monitor 8 that displays an endoscopic image captured by the imaging means by inputting a standard video signal output from the CCU 7, and 3 of the patient 2 And a CT (computer tomography) device 9 for obtaining a three-dimensional CT image.

光学式内視鏡3は、例えば硬性の挿入部11と、この挿入部11の後端に設けられた把持部12と、この把持部12の後端に設けられた接眼部13とを有し、把持部12の口金にはライトガイドケーブル14が接続される。
挿入部11内には照明光を伝送するライトガイド15が挿通され、このライトガイド15は把持部12の側部の口金に接続されるライトガイドケーブル14を介してその端部に設けたライトガイドコネクタ16が光源装置6に着脱自在に接続される。
光源装置6内にはランプ点灯制御回路17から供給されるランプ点灯電源により点灯するキセノンランプ等のランプ18が設けてあり、このランプ18は、可視領域の波長帯から近赤外の波長帯をカバーする光を発生する。
The optical endoscope 3 includes, for example, a rigid insertion portion 11, a grip portion 12 provided at the rear end of the insertion portion 11, and an eyepiece portion 13 provided at the rear end of the grip portion 12. The light guide cable 14 is connected to the base of the grip portion 12.
A light guide 15 that transmits illumination light is inserted into the insertion portion 11, and the light guide 15 is provided at an end portion thereof via a light guide cable 14 connected to a base on the side of the grip portion 12. A connector 16 is detachably connected to the light source device 6.
A lamp 18 such as a xenon lamp that is lit by a lamp lighting power source supplied from a lamp lighting control circuit 17 is provided in the light source device 6, and the lamp 18 has a wavelength band from the visible region to the near infrared wavelength band. Generate light to cover.

このランプ18の光は、照明光路上に配置された励起フィルタ19により励起光のみが透過し、さらに集光レンズ20で集光されてライトガイドケーブル14のライトガイドを経て、光学式内視鏡3のライトガイド15に照明光が入射される。そして、このライトガイド15に入射された照明光は、その先端側に導光(伝送)される。そして、上記ライトガイド15の先端面から、この励起光がライトガイド15の先端面から患者2の内部の観察する対象部位21側に照射される。
本実施例においては、インドシアニングリーン(ICGと略記)を観察の対象部位に注入するため、この励起フィルタ19は、図3に示すように例えば680nm〜780nm付近の波長帯域を透過するように設定されている。なお、図3における点線で示す符号22で示す特性はリンパ液と混合したICGの吸光特性を示す。また、1点鎖線で示す符号23の特性がICGが発生する蛍光の強度分布を示している。
Only the excitation light passes through the excitation filter 19 disposed on the illumination optical path, and the light from the lamp 18 is further collected by the condenser lens 20 and passes through the light guide of the light guide cable 14 to be an optical endoscope. Illumination light is incident on the three light guides 15. The illumination light incident on the light guide 15 is guided (transmitted) to the tip side. Then, the excitation light is irradiated from the distal end surface of the light guide 15 toward the target site 21 to be observed inside the patient 2 from the distal end surface of the light guide 15.
In this embodiment, indocyanine green (abbreviated as ICG) is injected into the site to be observed, so this excitation filter 19 is set to transmit a wavelength band around 680 nm to 780 nm, for example, as shown in FIG. Has been. In addition, the characteristic shown with the code | symbol 22 shown with a dotted line in FIG. 3 shows the light absorption characteristic of ICG mixed with the lymph. Moreover, the characteristic of the code | symbol 23 shown with a dashed-dotted line has shown the intensity distribution of the fluorescence which ICG generate | occur | produces.

このように励起フィルタ19による略730nm付近を中心波長した上記680nm〜780nm付近の波長帯域の透過特性は、蛍光物質としてのICGを選択的に励起させるように、ICGの吸光特性と蛍光を発生する特性を考慮して設定されている。なお、680nm〜780nm付近の波長帯域は、後で説明する図3に示すような励起光カットフィルタ29と重なり合わないように、かつできるだけICGの吸収ピーク波長帯を含むように、ICGの最大の吸収ピークとなる波長から少し離れた波長帯でかなり吸収が大きい波長帯となっている。
また、挿入部11の先端部は、例えばリング状にライトガイド15が配置されており、そのリング内の中央に対物レンズ24が配置されている。この対物レンズ24の結像位置側には、光学像を伝送するリレーレンズ系25が配置されている。
そして、この対物レンズ24は、対象部位21側から入射される光を集光して、その結像位置に光学像を結び、その光学像は、挿入部11内に配置されたリレーレンズ系25により、挿入部11の後方の接眼部13側に伝送される。
Thus, the transmission characteristics in the wavelength band near 680 nm to 780 nm centered around approximately 730 nm by the excitation filter 19 generate the absorption characteristics and fluorescence of the ICG so as to selectively excite the ICG as the fluorescent material. It is set in consideration of characteristics. It should be noted that the wavelength band near 680 nm to 780 nm does not overlap with the excitation light cut filter 29 as shown in FIG. 3 to be described later and includes the ICG absorption peak wavelength band as much as possible. It is a wavelength band where the absorption is considerably large in a wavelength band slightly apart from the wavelength that becomes the absorption peak.
Moreover, the light guide 15 is arrange | positioned at the front-end | tip part of the insertion part 11, for example in ring shape, and the objective lens 24 is arrange | positioned in the center in the ring. A relay lens system 25 that transmits an optical image is disposed on the image forming position side of the objective lens 24.
The objective lens 24 condenses the light incident from the target portion 21 side, forms an optical image at the image forming position, and the optical image is the relay lens system 25 disposed in the insertion portion 11. Thus, the data is transmitted to the eyepiece 13 side behind the insertion unit 11.

伝送された光学像は、図1に示すように接眼部13に設けた接眼レンズ26を経て拡大観察可能となる。この接眼部13にカメラヘッド4が装着された場合には、カメラヘッド4内の撮像レンズ27を介して伝送された光学像が、近赤外まで受光感度のある撮像素子としての例えば、電荷結合素子(CCDと略記)28に結像される。また、このCCD28の直前となる撮像光路中には、励起光をカットし、ICGによる蛍光波長を透過する励起光カットフィルタ29が配置されている。
この励起光カットフィルタ29は、図3に示すように対象部位21に注入されたICGが発生する蛍光の強度ピークを透過し、かつ励起光を透過しない特性に設定されている。
このため、図3の例では、励起光カットフィルタ29は、ICGの蛍光の強度ピークとなる波長の830nmを含むようにこの波長より少し短波長の値から830nmよりも長波長側、例えば1000nmまでを透過する特性に設定されている。図3においては、1000nmより長波長側も透過する例で示している。
The transmitted optical image can be enlarged and observed through an eyepiece 26 provided on the eyepiece 13 as shown in FIG. When the camera head 4 is attached to the eyepiece 13, the optical image transmitted through the imaging lens 27 in the camera head 4 is, for example, an electric charge as an imaging device having light receiving sensitivity up to the near infrared. An image is formed on a coupling element (abbreviated as CCD) 28. An excitation light cut filter 29 that cuts the excitation light and transmits the fluorescence wavelength by ICG is disposed in the imaging optical path immediately before the CCD 28.
As shown in FIG. 3, the excitation light cut filter 29 is set to a characteristic that transmits the intensity peak of fluorescence generated by ICG injected into the target region 21 and does not transmit the excitation light.
For this reason, in the example of FIG. 3, the excitation light cut filter 29 is from a value slightly shorter than this wavelength to a longer wavelength side than 830 nm, for example, 1000 nm so as to include 830 nm of the wavelength that is the intensity peak of ICG fluorescence. It is set to the characteristic that passes through. FIG. 3 shows an example in which a longer wavelength than 1000 nm is transmitted.

従って、カメラヘッド4側には、対象部位21側から励起光で反射された反射光と共にICGが発生する蛍光が入力されてくるが、この励起光カットフィルタ29により、反射光は遮光され、CCD28に実際に結像される光学像は、蛍光による画像、つまり蛍光画像となる。このように、CCD28は蛍光撮像手段を構成している。
また、カメラヘッド4から延出されたカメラケーブル30は、CCU7に接続される。CCU7は、CCD駆動回路31と、画像処理回路32とを備え、CCD駆動回路31は、CCD28に対してCCD駆動信号を印加する。
そして、このCCD駆動信号の印加によりCCD28により光電変換され、蛍光撮像に相当する撮像信号(蛍光撮像信号)は、画像処理回路32に入力される。この画像処理回路32は、入力される蛍光撮像信号に対して映像信号を生成する映像処理手段を構成している。
Accordingly, the fluorescence generated by the ICG is input to the camera head 4 side together with the reflected light reflected by the excitation light from the target region 21 side. The reflected light is shielded by the excitation light cut filter 29, and the CCD 28 The optical image that is actually formed becomes an image by fluorescence, that is, a fluorescence image. Thus, the CCD 28 constitutes a fluorescence imaging means.
Further, the camera cable 30 extended from the camera head 4 is connected to the CCU 7. The CCU 7 includes a CCD drive circuit 31 and an image processing circuit 32, and the CCD drive circuit 31 applies a CCD drive signal to the CCD 28.
Then, the CCD 28 performs photoelectric conversion by the application of the CCD drive signal, and an imaging signal (fluorescence imaging signal) corresponding to fluorescence imaging is input to the image processing circuit 32. The image processing circuit 32 constitutes video processing means for generating a video signal for the input fluorescent imaging signal.

そして、画像処理回路32により生成された映像信号は、モニタ8に出力され、モニタ8の表示面には、CCD28により撮像された蛍光画像が表示される。
また、このCCU7の画像処理回路32には、CT装置9により撮像された患者2の術前の3次元のCT画像が格納される。そして、後述するように、画像処理回路32により調整処理が行われ、CT画像における血管の2次元画像が、CCD28により撮像された内視鏡画像としての蛍光画像に、例えば重畳により合成されてモニタ8に表示される。 なお、図1に模式的に示すように患者2内の対象部位21を実質的に構成する脂肪組織34の内部に血管35とリンパ管36及びリンパ節37とが混在して走行している場合、後述するように内視鏡5は、血液の流量の小さいリンパ管36及びリンパ節37の蛍光画像を撮像する。一方、血液の流量の大きい血管35部分に対しては、蛍光画像として得にくい。
The video signal generated by the image processing circuit 32 is output to the monitor 8, and the fluorescent image captured by the CCD 28 is displayed on the display surface of the monitor 8.
In addition, the image processing circuit 32 of the CCU 7 stores a pre-operative three-dimensional CT image of the patient 2 imaged by the CT apparatus 9. Then, as will be described later, adjustment processing is performed by the image processing circuit 32, and the two-dimensional image of the blood vessel in the CT image is combined with the fluorescence image as the endoscopic image captured by the CCD 28, for example, by superposition, and monitored. 8 is displayed. In addition, as schematically shown in FIG. 1, when the blood vessel 35, the lymphatic vessel 36, and the lymph node 37 are running in a mixed manner within the adipose tissue 34 that substantially constitutes the target region 21 in the patient 2. As will be described later, the endoscope 5 captures fluorescent images of the lymphatic vessels 36 and lymph nodes 37 having a small blood flow rate. On the other hand, it is difficult to obtain a fluorescent image for the blood vessel 35 portion where the blood flow rate is large.

このため、画像処理回路32は、この蛍光画像に、3次元画像生成手段としてのCT装置9により得られる血管35に対する3次元画像情報を、蛍光画像に位置及びサイズを合わせる調整処理を行った2次元画像にして、蛍光画像に重畳してモニタ8に表示する画像処理を行う。
このように画像の例えば重畳を行うことにより、内視鏡5により得られる蛍光画像上に、流量の大きい血管35の2次元画像を合成して表示することにより、術者は内視鏡画像中において、血管の走行状態を把握若しくは推定できるようにする。
図2は、このように蛍光画像に、CT装置9による血管35の画像を合成する機能を備えた画像処理回路32の構成を示す。CCD28からの蛍光撮像信号は、第1の入力端からA/D変換器41によりアナログ信号からデジタルの信号(画像)に変換された後、前処理回路42に入力される。
For this reason, the image processing circuit 32 performs an adjustment process for adjusting the position and size of the three-dimensional image information for the blood vessel 35 obtained by the CT apparatus 9 as the three-dimensional image generation unit to the fluorescence image. Image processing is performed in which a three-dimensional image is displayed on the monitor 8 while being superimposed on the fluorescence image.
By superimposing the images in this way, for example, the operator can synthesize and display a two-dimensional image of the blood vessel 35 with a large flow rate on the fluorescence image obtained by the endoscope 5 so that the operator can In this case, the running state of the blood vessel can be grasped or estimated.
FIG. 2 shows the configuration of the image processing circuit 32 having the function of synthesizing the image of the blood vessel 35 by the CT apparatus 9 with the fluorescence image. The fluorescence imaging signal from the CCD 28 is converted from an analog signal to a digital signal (image) by the A / D converter 41 from the first input end, and then input to the preprocessing circuit 42.

この前処理回路42は、入力される画像における例えばハレーション部分を除去する等の前処理を行う。この前処理回路42から出力される蛍光画像は、蛍光画像メモリ43aに入力され、蛍光画像メモリ43aに格納される。
この蛍光画像メモリ43aに格納された蛍光画像は、蛍光リンパ節検出回路45aにより、蛍光画像中における蛍光リンパ節及び蛍光リンパ管部分が抽出(検出)され、抽出された蛍光リンパ節及び蛍光リンパ管部分の画像データは、例えばCPU44による調整処理機能により構成されるXYZ処理部46に参照される基準画像として入力される。
蛍光リンパ節及び蛍光リンパ管部分の抽出(検出)は、特徴量の抽出機能を備えた画像処理手段により自動で行っても良いが、術者等のユーザがキーボードなどから、抽出する部分、範囲等をマーキング(指定)して、そのマーキングされた部分、範囲等を抽出するようにしても良い。
The preprocessing circuit 42 performs preprocessing such as removing a halation portion in the input image. The fluorescence image output from the preprocessing circuit 42 is input to the fluorescence image memory 43a and stored in the fluorescence image memory 43a.
The fluorescent image stored in the fluorescent image memory 43a is extracted (detected) by the fluorescent lymph node detection circuit 45a to extract (detect) the fluorescent lymph node and fluorescent lymph vessel portion in the fluorescent image, and the extracted fluorescent lymph node and fluorescent lymph vessel are extracted. The image data of the part is input as a reference image to be referred to, for example, an XYZ processing unit 46 configured by an adjustment processing function by the CPU 44.
Extraction (detection) of fluorescent lymph nodes and fluorescent lymph vessel portions may be automatically performed by an image processing means having a feature amount extraction function, but a portion or range to be extracted by a user such as an operator from a keyboard or the like. Etc. may be marked (designated), and the marked part, range, etc. may be extracted.

なお、以下の説明では、蛍光リンパ節検出回路45aにより、蛍光画像中における蛍光リンパ節及び蛍光リンパ管部分を抽出するとして説明するが、これらにおける一方のみでも良いし、さらにその一方における代表的な位置或いは部分でも良い。例えば蛍光リンパ節検出回路45aにより、蛍光画像中における蛍光リンパ節のみ或いはこの蛍光リンパ節の一部でも良い。同様に蛍光リンパ節検出回路45aにより、蛍光画像中における蛍光リンパ管部分やその一部のみを抽出するようにしても良い。また、本実施例は、蛍光画像として、蛍光リンパ節及び蛍光リンパ管の一方のみを観察するような場合にも適用できる。 また、CT装置9から出力される3次元の画像データは、第2の入力端からCT画像メモリ43bに格納される。なお、CT装置9は、CT撮影により、血管35、リンパ管36,リンパ節37の3次元のCT画像データを生成することができる。   In the following description, the fluorescent lymph node detection circuit 45a is described as extracting the fluorescent lymph node and the fluorescent lymph vessel portion in the fluorescent image, but only one of them may be used, or a representative one of them may be used. It may be a position or a part. For example, only the fluorescent lymph node in the fluorescent image or a part of the fluorescent lymph node may be used by the fluorescent lymph node detection circuit 45a. Similarly, the fluorescent lymph node detection circuit 45a may extract only the fluorescent lymph vessel portion or a part thereof in the fluorescent image. This embodiment can also be applied to the case where only one of the fluorescent lymph node and the fluorescent lymph vessel is observed as a fluorescent image. The three-dimensional image data output from the CT apparatus 9 is stored in the CT image memory 43b from the second input end. The CT apparatus 9 can generate three-dimensional CT image data of the blood vessel 35, the lymphatic vessel 36, and the lymph node 37 by CT imaging.

CT画像メモリ43bに格納された3次元のCT画像データは、CTリンパ節検出回路45bにより、CT画像中におけるCTリンパ節及びCTリンパ管部分の3次元画像データが抽出(検出)され、切替スイッチSWを介して、例えばCPU44の調整処理機能により構成されるXYZ処理部46に入力される。
上記CTリンパ節検出回路45bにより、CT画像中におけるCTリンパ節及びCTリンパ管部分の3次元画像データを抽出(検出)する場合、特徴量の抽出機能を備えた画像処理手段により自動で行っても良いが、術者等のユーザがキーボードなどから、抽出する部分、範囲等をマーキング(指定)して、そのマーキングされた部分、範囲等を抽出するようにしても良い。特にこの場合には、蛍光リンパ節及び蛍光リンパ管部分側の基準画像と対応する対応部分を対応画像として抽出することが望ましい。
The three-dimensional CT image data stored in the CT image memory 43b is extracted (detected) from the CT lymph node and CT lymph vessel portion in the CT image by the CT lymph node detection circuit 45b, and the changeover switch The data is input to the XYZ processing unit 46 configured by, for example, the adjustment processing function of the CPU 44 via the SW.
When the CT lymph node detection circuit 45b extracts (detects) three-dimensional image data of a CT lymph node and a CT lymph vessel portion in a CT image, it is automatically performed by an image processing means having a feature amount extraction function. However, a user such as an operator may mark (specify) a portion to be extracted, a range, or the like from a keyboard or the like, and extract the marked portion, range, or the like. Particularly in this case, it is desirable to extract a corresponding portion corresponding to the reference image on the fluorescent lymph node and fluorescent lymph vessel portion side as a corresponding image.

CT画像メモリ43bからCTリンパ節検出回路45bにより、CTリンパ節等の3次元画像データを最初に抽出する場合、例えば患者2の体位等の方向に関連する処理回数を示すパラメータiを初期値i=1に設定して、そのパラメータの状態で抽出されたCTリンパ節及びCTリンパ管部分の3次元画像データがXYZ処理部46に出力される。
また、CT画像メモリ43bに格納されたCT画像は、CT血管検出回路45cにより、CT画像中におけるCT血管部分の3次元画像データが抽出(検出)され、切替スイッチSWを介してXYZ処理部46に入力される。
この場合、XYZ処理部46には、(位置及びサイズ合わせの)調整処理時には、CTリンパ節検出回路45b側からの3次元画像データが入力され、第1判定部47から一致の判定信号が出力されると、この判定信号により切替スイッチSWが切り替えられてCT血管検出回路45cの3次元画像データが入力される。
When three-dimensional image data such as a CT lymph node is first extracted from the CT image memory 43b by the CT lymph node detection circuit 45b, for example, a parameter i indicating the number of processings related to the direction of the body position of the patient 2 is set to an initial value i. = 1 and the three-dimensional image data of the CT lymph node and CT lymph vessel portion extracted in the state of the parameter is output to the XYZ processing unit 46.
Further, the CT image stored in the CT image memory 43b is extracted (detected) by the CT blood vessel detection circuit 45c from the CT blood vessel portion in the CT image, and the XYZ processing unit 46 is connected via the changeover switch SW. Is input.
In this case, the three-dimensional image data from the CT lymph node detection circuit 45b side is input to the XYZ processing unit 46 during the adjustment process (position and size adjustment), and a coincidence determination signal is output from the first determination unit 47. Then, the changeover switch SW is switched by this determination signal, and the three-dimensional image data of the CT blood vessel detection circuit 45c is input.

上記のように、XYZ処理部46には、調整処理時にはCTリンパ節及びCTリンパ管部分の3次元画像データが入力され、このXYZ処理部46は、CTリンパ節及びCTリンパの断面方向のパラメータjにより2次元画像データに変換する。
つまり、蛍光リンパ節及び蛍光リンパ管の2次元画像データと比較できるようにするため、XYZ処理部46は、断面方向のパラメータj(初期値j=1)で設定された断面で蛍光リンパ節及び蛍光リンパ管の3次元画像データを2次元画像データに変換し、その変換した2次元画像データを第1判定部47に出力する。
この第1判定部47は、XYZ処理部46から出力されるCTリンパ節及びCTリンパ管の画像データと、蛍光リンパ節及び蛍光リンパ管の画像データとの比較判定を行う。そして、閾値Vt以内で一致していると、第1判定部47は、一致の判定信号を重畳処理部50に出力すると共に、切替スイッチSWを切り替える。
As described above, the three-dimensional image data of the CT lymph node and the CT lymph vessel part are input to the XYZ processing unit 46 during the adjustment processing. j is converted into two-dimensional image data.
That is, in order to be able to compare with the two-dimensional image data of the fluorescent lymph node and the fluorescent lymph vessel, the XYZ processing unit 46 performs the fluorescent lymph node and the cross-section with the cross section set by the parameter j (initial value j = 1). The three-dimensional image data of the fluorescent lymphatic vessel is converted into two-dimensional image data, and the converted two-dimensional image data is output to the first determination unit 47.
The first determination unit 47 compares and determines the CT lymph node and CT lymph vessel image data output from the XYZ processing unit 46 and the fluorescent lymph node and fluorescent lymph vessel image data. If the values match within the threshold value Vt, the first determination unit 47 outputs a match determination signal to the superimposition processing unit 50 and switches the changeover switch SW.

なお、第1判定部47は、両画像データの比較判定を行う場合、各画像データにおける代表的な複数の点間の距離が両画像データで一致するか否かの比較、つまりサイズが一致しているか否かの比較を行い、この比較判定が閾値Vt以内で一致すると、その後両画像データでの代表点の位置が平行移動のみで例えば閾値Vt以内で一致するか否かの位置の比較判定を行う。そして、サイズ及び位置が一致していると、第1判定部47は、一致の判定信号を出力する。
この場合には、CT血管検出回路45cにより検出されたCT血管部分の3次元の画像データがXYZ処理部46での断面方向の2次元画像データに変換され、この2次元画像データが第1判定部47を介して重畳処理部50に出力される。なお、この場合、第1判定部47は、平行移動により位置合わせするオフセット調整を行う。
When the first determination unit 47 performs comparison determination of both image data, the first determination unit 47 compares whether or not the distance between a plurality of representative points in each image data match in both image data, that is, the sizes match. If the comparison determination matches within the threshold value Vt, then the comparison determination of the position regarding whether the positions of the representative points in both image data match only within the threshold value Vt, for example, by only parallel movement. I do. If the size and position match, the first determination unit 47 outputs a determination signal for matching.
In this case, the three-dimensional image data of the CT blood vessel portion detected by the CT blood vessel detection circuit 45c is converted into two-dimensional image data in the cross-sectional direction in the XYZ processing unit 46, and this two-dimensional image data is the first determination. The data is output to the superimposition processing unit 50 via the unit 47. In this case, the first determination unit 47 performs offset adjustment for alignment by parallel movement.

一方、閾値Vt以内で一致しないと判定された場合には、XYZ処理部46から出力されるCTリンパ節及びCTリンパ管の画像データは、第1判定部47を経て縮尺処理部48に送られ、この縮尺処理部48は判定結果(比較結果)に応じて、CTリンパ節及びCTリンパ管の画像データに対して拡大或いは縮小する処理を行う。なお、位置のみが一致していない場合には、第1判定部47から第2判定部49にその情報が送られる。
つまり、縮尺処理部48は、CTリンパ節側が蛍光リンパ節側より大きいと判定された場合には所定の縮小率で縮小処理を行い、逆にCTリンパ節側が蛍光リンパ節側より小さいと判定された場合には所定の拡大率で拡大処理を行う。
この縮尺処理部48で縮尺処理された画像データは、再び第1判定部47に入力され、比較判定され、拡大或いは縮小の処理及び判定処理が繰り返される。
On the other hand, if it is determined that they do not match within the threshold Vt, the CT lymph node and CT lymph vessel image data output from the XYZ processing unit 46 is sent to the scale processing unit 48 via the first determination unit 47. The scale processing unit 48 performs processing for enlarging or reducing the image data of the CT lymph nodes and CT lymph vessels according to the determination result (comparison result). If only the positions do not match, the information is sent from the first determination unit 47 to the second determination unit 49.
That is, when it is determined that the CT lymph node side is larger than the fluorescent lymph node side, the scale processing unit 48 performs the reduction process at a predetermined reduction rate, and conversely, the CT lymph node side is determined to be smaller than the fluorescent lymph node side. If it does, the enlargement process is performed at a predetermined enlargement rate.
The image data scaled by the scale processing unit 48 is input again to the first determination unit 47, compared and determined, and the enlargement or reduction process and the determination process are repeated.

そして、第1判定部47が閾値Vt以内で一致する判定した場合には、第1判定部47は、上記のように一致の判定信号を重畳処理部50に出力する。この場合には、この状態での断面方向及び縮尺で、CT血管の画像データが縮尺処理部48を経て重畳処理部50に入力され、重畳処理部50は、CT血管の画像データと蛍光リンパ節検出回路45aの蛍光画像データとを重畳した重畳画像を出力する。
一方、第1判定部47は縮尺処理部48による縮尺処理を繰り返し行っても、閾値Vt以内で一致しないと判定した場合には、XYZ処理部46の断面方向のパラメータjを変更する。そして、異なる方向で同様の処理を行う。このようにしてXYZ処理部46の断面方向のパラメータjを変更して処理する回数が所定回数nを超えた場合、及びサイズは一致するが位置が一致しない場合には、第1判定部47はその判定結果の情報を第2判定部49に出力する。
When the first determination unit 47 determines that the values match within the threshold value Vt, the first determination unit 47 outputs a match determination signal to the superimposition processing unit 50 as described above. In this case, the CT blood vessel image data is input to the superposition processing unit 50 via the scale processing unit 48 with the cross-sectional direction and scale in this state, and the superposition processing unit 50 receives the CT blood vessel image data and the fluorescent lymph node. A superimposed image in which the fluorescence image data of the detection circuit 45a is superimposed is output.
On the other hand, the first determination unit 47 changes the parameter j in the cross-sectional direction of the XYZ processing unit 46 when it is determined that the scale processing by the scale processing unit 48 does not match within the threshold value Vt even if it is repeatedly performed. Then, the same processing is performed in different directions. In this way, when the number of times of processing by changing the parameter j in the cross-sectional direction of the XYZ processing unit 46 exceeds the predetermined number n, and when the sizes match but the positions do not match, the first determination unit 47 Information on the determination result is output to the second determination unit 49.

第2判定部49は、体位の方向等に関連する処理パラメータiがm以内である場合には、このパラメータiを変更する信号をCT画像メモリ43bに送り、CTリンパ節検出回路45bにより抽出されるCTリンパ節等の方向を変更してXYZ処理部46に出力させる。このようにして、処理パラメータiを変更してCPU44は同様の処理を行う。
重畳処理部50は、第1判定部47から一致の判定信号が出力されると、上記重畳画像をD/A変換器51に送り、このD/A変換器51は、重畳画像データをアナログの画像信号(映像信号)に変換してモニタ8に出力し、モニタ8の表示面には蛍光画像とCT画像とが重畳された重畳画像が表示される。
なお重畳処理部50は、第1判定部47から一致の判定信号が入力されていない場合には、蛍光画像メモリ43aに格納された蛍光画像を重畳処理することなくスルーしてD/A変換器51に出力する。或いは、蛍光画像メモリ43aに格納されている蛍光画像は、重畳処理部50から出力する重畳画像とずらした状態でモニタ8に常時出力されるようにし、この蛍光画像がモニタ8に常時表示される構成にしても良い。
When the processing parameter i related to the body posture direction or the like is within m, the second determination unit 49 sends a signal for changing the parameter i to the CT image memory 43b and is extracted by the CT lymph node detection circuit 45b. The direction of the CT lymph node or the like is changed and output to the XYZ processing unit 46. In this way, the processing parameter i is changed and the CPU 44 performs the same processing.
When the coincidence determination signal is output from the first determination unit 47, the superimposition processing unit 50 sends the superimposed image to the D / A converter 51, and the D / A converter 51 converts the superimposed image data into analog data. An image signal (video signal) is converted and output to the monitor 8, and a superimposed image in which the fluorescence image and the CT image are superimposed is displayed on the display surface of the monitor 8.
Note that when the coincidence determination signal is not input from the first determination unit 47, the superimposition processing unit 50 passes through the fluorescent image stored in the fluorescent image memory 43a without performing the superimposition process, and the D / A converter To 51. Alternatively, the fluorescent image stored in the fluorescent image memory 43a is always output to the monitor 8 in a state shifted from the superimposed image output from the superimposing processing unit 50, and this fluorescent image is always displayed on the monitor 8. It may be configured.

このような構成による本実施例の動作を図5のフローチャートを参照して以下に説明する。
図5の最初のステップS1において、内視鏡5による外科手術を行おうとする患者2に対して、手術を行おうとする対象部位周辺部を含むようにして、CT装置9によってCT撮影が行われ、CT装置9は3次元CT画像を生成する。この3次元CT画像は、CT装置9と接続されたCCU7のCT画像メモリ43bに格納される。
図4(A)は、CT装置9により得られるCT画像例を示す。なお、図4(A)は所定方向から見た場合のCT画像例を模式的に示している。例えば、図1に示す対象部位21内に血管35、リンパ管36及びリンパ節37が含まれている場合には、これに対応して血管35a、リンパ管36a、リンパ節37aのCT画像が得られる。
The operation of this embodiment having such a configuration will be described below with reference to the flowchart of FIG.
In the first step S1 of FIG. 5, CT imaging is performed by the CT apparatus 9 so as to include the peripheral portion of the target site to be operated on the patient 2 who is to perform a surgical operation with the endoscope 5, The device 9 generates a three-dimensional CT image. This three-dimensional CT image is stored in the CT image memory 43b of the CCU 7 connected to the CT apparatus 9.
FIG. 4A shows an example of a CT image obtained by the CT apparatus 9. FIG. 4A schematically shows an example of a CT image viewed from a predetermined direction. For example, when the blood vessel 35, the lymphatic vessel 36 and the lymph node 37 are included in the target region 21 shown in FIG. 1, CT images of the blood vessel 35a, the lymphatic vessel 36a and the lymph node 37a are obtained correspondingly. It is done.

次のステップS2において、外科手術を行う術者は、患者2の対象部位21周辺部に蛍光物質としてのICGを注射等で投与若しくは注入する処置を行う。次のステップS3において術者は、患者2の体内に内視鏡5の挿入部11を挿入し、対象部位21に対する蛍光観察を開始する。
この蛍光観察を開始すると、CCU7により、内視鏡5で得られる蛍光画像がモニタ8に内視鏡画像として表示される。この場合には、図4(B)に示すようにICGの投与による蛍光を撮像することにより、血液の流量が小さい部分、つまりICGも滞留し易いリンパ管36b及びリンパ節37bの蛍光画像が表示される。なお、参考の画像表示例として図4(D)は、蛍光観察でなく、反射光による通常観察の場合の画像表示例を示す。この場合には、励起フィルタ19を透過した励起光を、励起光カットフィルタ29で全てカットして撮像を行っているので、画像は殆ど得られない撮像条件となっており、観察したい画像を2点鎖線で示している。
In the next step S <b> 2, an operator who performs a surgical operation performs a treatment of administering or injecting ICG as a fluorescent material around the target site 21 of the patient 2 by injection or the like. In the next step S <b> 3, the surgeon inserts the insertion portion 11 of the endoscope 5 into the body of the patient 2 and starts fluorescence observation on the target site 21.
When this fluorescence observation is started, a fluorescence image obtained by the endoscope 5 is displayed on the monitor 8 as an endoscope image by the CCU 7. In this case, as shown in FIG. 4 (B), by imaging the fluorescence due to the administration of ICG, a fluorescence image of the lymph vessel 36b and lymph node 37b where the blood flow rate is small, that is, where the ICG is likely to stay is displayed. Is done. As an example of reference image display, FIG. 4D shows an image display example in the case of normal observation using reflected light instead of fluorescence observation. In this case, since all the excitation light that has passed through the excitation filter 19 is cut by the excitation light cut filter 29 and the image is taken, the image pickup condition is such that almost no image is obtained. It is indicated by a dotted line.

上記蛍光画像の表示と共に、CCU7内の画像処理回路32は、ステップS4以下の処理を開始し、CT装置9により得られるCT画像(より具体的にはCT血管画像)を内視鏡5により得られる蛍光画像のサイズ及び位置合わせした重畳画像を生成する処理を行う。
つまり、ステップS4に示すようにCTリンパ節検出回路45bは、CT画像メモリ43bからCTリンパ節及びCTリンパ管の3次元の画像データを抽出して、CPU44のXYZ処理部46に出力する。この場合、CTリンパ節検出回路45bにより抽出される3次元の画像データは、患者2の体位等の方向に関連した処理パラメータiが初期値1に設定されたものとなる。このパラメータiの値を変更することにより、異なる方向(方位)の3次元の画像データがCTリンパ節検出回路45bにより抽出される。
Along with the display of the fluorescent image, the image processing circuit 32 in the CCU 7 starts the processing in step S4 and subsequent steps, and obtains a CT image (more specifically, a CT blood vessel image) obtained by the CT apparatus 9 by the endoscope 5. A process for generating a superimposed image in which the size and position of the fluorescent image to be aligned is performed.
That is, as shown in step S4, the CT lymph node detection circuit 45b extracts the three-dimensional image data of the CT lymph node and the CT lymph vessel from the CT image memory 43b and outputs them to the XYZ processing unit 46 of the CPU 44. In this case, the three-dimensional image data extracted by the CT lymph node detection circuit 45b is obtained by setting the processing parameter i related to the direction such as the posture of the patient 2 to the initial value 1. By changing the value of the parameter i, three-dimensional image data in different directions (orientations) is extracted by the CT lymph node detection circuit 45b.

ステップS5に示すようにXYZ処理部46は、3次元から2次元のCTリンパ節及びCTリンパ管の画像データに変換し、その画像データを第1判定部47に出力する。
この場合、XYZ処理部46は、断面方向のパラメータjを初期値1に設定している。第1判定部47はステップS6aに示すように、CTリンパ節側の画像データと蛍光リンパ節側の画像データとがサイズ及び(平行移動のみの調整で)位置が閾値Vt以内で一致しているか否かの比較判定を行う。
そして、一致していると判定した場合には、ステップS7に示すように第1判定部47は、一致しているとの判定信号により切替スイッチSWを切替える。そして、CT画像メモリ43bからCT血管検出回路45cで抽出されたCT血管画像の3次元画像データがXYZ処理部46で2次元画像データに変換され、第1判定部47,縮尺処理部48を経て重畳処理部50に入力されるようにする。
As shown in step S <b> 5, the XYZ processing unit 46 converts the image data of 3D to 2D CT lymph nodes and CT lymph vessels, and outputs the image data to the first determination unit 47.
In this case, the XYZ processing unit 46 sets the parameter j in the cross-sectional direction to an initial value 1. As shown in step S6a, the first determination unit 47 determines whether the image data on the CT lymph node side and the image data on the fluorescent lymph node side coincide with each other within the threshold Vt in size and position (by adjusting only the translation). The comparison judgment of no is performed.
If it is determined that they match, the first determination unit 47 switches the selector switch SW according to a determination signal indicating that they match as shown in step S7. Then, the three-dimensional image data of the CT blood vessel image extracted from the CT image memory 43b by the CT blood vessel detection circuit 45c is converted into two-dimensional image data by the XYZ processing unit 46, and passes through the first determination unit 47 and the scale processing unit 48. It is made to input into the superimposition process part 50. FIG.

つまり、ステップS6aの判定結果により、CPU44によるサイズ及び位置合わせの調整処理状態(パラメータi,j,kの設定状態)は、蛍光画像と、これに対応する対応画像としてのCT画像(2次元画像)とが一致した状態となっているので、この調整処理状態のままでCT画像における血管の2次元画像をCPU44部分で生成し、この2次元画像を重畳処理部50に送る。なお、両画像がサイズが一致し、平行移動のみによる位置ずれ分は、その平行移動量のオフセット補正で解消される。
次のステップS8に示すように重畳処理部50によりCT血管画像と、蛍光リンパ節検出回路45aを経て抽出された蛍光リンパ節側の蛍光画像とが重畳され、モニタ8には図4(C)に示すような合成画像が表示されるようになる。なお、図5においてステップS8の処理の後、再びステップS3に戻り、異なるフレームでの内視鏡画像(蛍光画像)に対して同様の処理を行うようにしても良い。
That is, according to the determination result of step S6a, the size and alignment adjustment processing state (parameter i, j, k setting state) by the CPU 44 is a fluorescent image and a CT image (two-dimensional image) as a corresponding image corresponding thereto. ), The two-dimensional image of the blood vessel in the CT image is generated by the CPU 44 in this adjustment processing state, and this two-dimensional image is sent to the superimposition processing unit 50. It should be noted that the sizes of the two images are the same, and the amount of misalignment due to only the parallel movement is eliminated by offset correction of the parallel movement amount.
As shown in the next step S8, the CT blood vessel image and the fluorescence image on the fluorescent lymph node side extracted through the fluorescent lymph node detection circuit 45a are superimposed by the superimposition processing unit 50, and the monitor 8 is superimposed on FIG. A composite image as shown in FIG. In FIG. 5, after the process of step S <b> 8, the process may return to step S <b> 3 again, and the same process may be performed on the endoscopic image (fluorescence image) in a different frame.

一方、第1判定部47は、ステップS6aにおける判定処理において、一致していないと判定した場合には、ステップS6bに示すようにサイズが一致しているか否かの判定を行う。サイズが一致しており、平行移動においても位置が一致しない場合には、(CT画像の方位の変更が必要になるため)、第1判定部47、パラメータiを1つ増大する処理(ステップS15)を経てステップS4の処理に戻す。
一方、サイズが一致していない場合には、ステップS9に示すように第1判定部47は、比較結果の情報と共に、CTリンパ節側の画像データを縮尺処理部48に送る。
縮尺処理部48は、比較結果に応じて、CTリンパ節側の画像データを一定比率で拡大或いは縮小する処理を行い、第1判定部47に戻す。
On the other hand, if the first determination unit 47 determines that the sizes do not match in the determination process in step S6a, the first determination unit 47 determines whether the sizes match as shown in step S6b. If the sizes match and the positions do not match even during translation (because it is necessary to change the orientation of the CT image), the first determination unit 47 and the process of increasing the parameter i by one (step S15). ) To return to the process of step S4.
On the other hand, if the sizes do not match, the first determination unit 47 sends the image data on the CT lymph node side to the scale processing unit 48 together with the comparison result information, as shown in step S9.
The scale processing unit 48 performs processing for enlarging or reducing the image data on the CT lymph node side at a constant ratio according to the comparison result, and returns the processing to the first determination unit 47.

第1判定部47は、縮尺処理部48から拡大或いは縮小処理されたCTリンパ節側の画像データが入力される縮尺処理回数のパラメータkの初期値を1から順次計数し、そのパラメータkの値が例えば所定回数p以上か否かの判定を行う(ステップS10)。そして、k≧pを満たさない場合には、第1判定部47は、k=k+1(ステップS11)にして、ステップS6aの比較処理を繰り返す。
一方、k≧pの条件を満たす場合には、ステップS12に示すように第1判定部47は、パラメータjが所定回数n以上か否か、つまりj≧nか否かの判定を行う。そして、このj≧nを満たさない場合には、第1判定部47は、j=j+1(ステップS13)にして、ステップS5の処理に戻るようにする。この場合には断面方向のパラメータを変更して同様の処理を繰り返すことになる。
The first determination unit 47 sequentially counts an initial value of the parameter k of the number of scale processing times from which the image data on the CT lymph node side enlarged or reduced from the scale processing unit 48 is input, and the value of the parameter k For example, it is determined whether or not is a predetermined number of times p or more (step S10). If k ≧ p is not satisfied, the first determination unit 47 sets k = k + 1 (step S11) and repeats the comparison process of step S6a.
On the other hand, when the condition of k ≧ p is satisfied, as shown in step S12, the first determination unit 47 determines whether the parameter j is n or more a predetermined number of times, that is, whether j ≧ n. If j ≧ n is not satisfied, the first determination unit 47 sets j = j + 1 (step S13) and returns to the process of step S5. In this case, the same processing is repeated by changing the parameters in the cross-sectional direction.

また、ステップS12の条件を満たす場合には、ステップS14に示すように第1判定部47は、パラメータiが所定回数m以上か否か、つまりi≧mか否かの判定を行う。そして、このi≧mを満たさない場合には、第1判定部47は、i=i+1(ステップS15)にして、ステップS4の処理に戻るようにする。この場合には処理パラメータiを変更して同様の処理を繰り返すことになる。
また、ステップS14の判定処理において、i≧mの条件を満たす場合には、サイズを調整して重畳するための処理を終了する。この場合は、例えば設定されたパラメータの範囲、条件下では、CT画像と蛍光画像とを重畳する条件に適した条件に設定することができなかったような場合に相当する。従って、この場合には、術者は、パラメータの範囲等を変更することにより、解消することができる。
Further, when the condition of step S12 is satisfied, as shown in step S14, the first determination unit 47 determines whether or not the parameter i is a predetermined number m or more, that is, whether i ≧ m. If i ≧ m is not satisfied, the first determination unit 47 sets i = i + 1 (step S15) and returns to the process of step S4. In this case, the processing parameter i is changed and the same processing is repeated.
Further, in the determination process of step S14, when the condition of i ≧ m is satisfied, the process for adjusting the size and superimposing is terminated. This case corresponds to a case where, for example, the conditions suitable for the conditions for superimposing the CT image and the fluorescence image could not be set under the set parameter range and conditions. Therefore, in this case, the surgeon can be solved by changing the parameter range or the like.

このように動作する本実施例は、CT装置9により得られたCT画像中のCTリンパ節及びリンパ管のサイズ及び位置を、内視鏡5により得られる蛍光画像中の蛍光リンパ節及びリンパ管のサイズ及び位置に合わせる調整処理を行う。そして、本実施例は、この調整処理された状態でCT血管の画像を内視鏡5により得られる蛍光画像に重畳してモニタ8で表示する構成にしている。
従って本実施例によれば、内視鏡5により蛍光観察の状態においても血管の画像が蛍光リンパ節及び蛍光リンパ管と共に同時に表示できるようになる。つまり蛍光画像中に血管の走行状態を推定若しくは把握できる画像が合成されて表示されるので、術者は外科手術等を適切に行い易くなる。
In this embodiment, which operates in this way, the size and position of the CT lymph nodes and lymph vessels in the CT image obtained by the CT apparatus 9 are determined based on the fluorescence lymph nodes and lymph vessels in the fluorescence image obtained by the endoscope 5. Adjustment processing is performed to match the size and position. In the present embodiment, the CT blood vessel image is superimposed on the fluorescence image obtained by the endoscope 5 and displayed on the monitor 8 in the adjusted state.
Therefore, according to the present embodiment, a blood vessel image can be displayed simultaneously with the fluorescent lymph node and the fluorescent lymph vessel even in the fluorescence observation state by the endoscope 5. In other words, an image that can estimate or grasp the running state of the blood vessel is synthesized and displayed in the fluorescence image, so that the operator can easily perform a surgical operation or the like.

なお、上述の説明においては、蛍光リンパ節及び蛍光リンパ管に、CTリンパ節及びCTリンパ管のサイズ及び位置を合わせる調整処理を行うようにしているが、これらの一方のサイズ及び位置を合わせる調整処理を行うようにしても良い。例えば、蛍光リンパ節に対し、対応画像となるCTリンパ節のサイズ及び位置を合わせる調整処理を行うようにしても良い。
なお、内視鏡5により得られる蛍光画像と、この蛍光画像にCT装置9による蛍光画像のサイズ及び位置合わせした2次元の少なくとも血管を含むCT画像を重畳した合成画像とを隣接して表示するようにしても良い。
また、この場合、合成画像における2次元CT画像側としては、血管以外のリンパ節、リンパ管も同時に重畳等して合成しても良い。
In the above description, the adjustment process for adjusting the size and position of the CT lymph node and the CT lymph vessel is performed on the fluorescent lymph node and the fluorescent lymph vessel. Processing may be performed. For example, an adjustment process for adjusting the size and position of a CT lymph node that is a corresponding image may be performed on the fluorescent lymph node.
A fluorescent image obtained by the endoscope 5 and a composite image obtained by superimposing a fluorescent image obtained by the CT apparatus 9 and a CT image including at least two-dimensional blood vessels aligned with the size of the fluorescent image are displayed adjacently. You may do it.
In this case, on the two-dimensional CT image side in the synthesized image, lymph nodes other than blood vessels and lymph vessels may be superimposed and synthesized at the same time.

次に図6から図8を参照して、本発明の実施例2を説明する。
図6は本発明の実施例2の観察システム1Bの全体構成を示す。この観察システム1Bは、光学式内視鏡3及びカメラヘッド4Bからなる内視鏡5Bと、光源装置6Bと、CCU7Bと、モニタ8と、CT装置9とから構成される。なお、実施例1と同じ構成要素には、同じ符号を付け、その説明を省略する。
本実施例は、実施例1の観察システム1において、さらに通常観察も行えるようにしたものである。このため、図6に示す観察システム1Bにおいては、図1のカメラヘッド4に設けた励起光カットフィルタ29の代わりに、例えばモータ61により光路中に配置されるフィルタが切り替えられる切替フィルタ62が設けたカメラヘッド4Bが採用されている。
Next, Embodiment 2 of the present invention will be described with reference to FIGS.
FIG. 6 shows an overall configuration of an observation system 1B according to the second embodiment of the present invention. The observation system 1B includes an endoscope 5B including an optical endoscope 3 and a camera head 4B, a light source device 6B, a CCU 7B, a monitor 8, and a CT device 9. In addition, the same code | symbol is attached | subjected to the same component as Example 1, and the description is abbreviate | omitted.
In the present embodiment, the observation system 1 of the first embodiment can perform normal observation. Therefore, in the observation system 1B shown in FIG. 6, instead of the excitation light cut filter 29 provided in the camera head 4 in FIG. 1, for example, a switching filter 62 that switches a filter arranged in the optical path by a motor 61 is provided. The camera head 4B is employed.

この切替フィルタ62は、図7に示すように励起光カットフィルタ29と通常フィルタ63とがモータ61(図6参照)の回転軸の周方向に設けてある。そして、カメラヘッド4Bに設けた観察モード切替スイッチ64の切替操作により、光路中に配置されるフィルタを、これらのフィルタ29、63の一方となるように切り替えることができる。なお、通常フィルタ63は、可視領域の光を透過するフィルタで構成されている。
また、本実施例における光源装置6Bは、図1の光源装置6において、励起フィルタ19の代わりに、モータ65により照明光路中に配置されるフィルタが切り替えられる切替フィルタ66が設けてある。
この切替フィルタ66は、図8に示すように通常フィルタ63と励起フィルタ19とが設けたものである。つまり、この切替フィルタ66は、図7に示した切替フィルタ62において、励起光カットフィルタ29の代わりに励起フィルタ19が設けられたもので構成されている。
As shown in FIG. 7, the switching filter 62 includes an excitation light cut filter 29 and a normal filter 63 provided in the circumferential direction of the rotating shaft of the motor 61 (see FIG. 6). And the filter arrange | positioned in an optical path can be switched so that it may become one of these filters 29 and 63 by switching operation of the observation mode switch 64 provided in the camera head 4B. The normal filter 63 is a filter that transmits light in the visible region.
Further, the light source device 6B in the present embodiment is provided with a switching filter 66 in which the filter arranged in the illumination optical path is switched by the motor 65 instead of the excitation filter 19 in the light source device 6 of FIG.
The switching filter 66 is provided with a normal filter 63 and an excitation filter 19 as shown in FIG. That is, the switching filter 66 is configured by providing the excitation filter 19 in place of the excitation light cut filter 29 in the switching filter 62 shown in FIG.

図6に示すように観察モード切替スイッチ64により切替操作が行われると、その切替指示信号は、モータ61を駆動すると共に、CCU7Bを経て光源装置6B内のモータ65も連動して駆動する。
つまり、術者等のユーザは、観察モード切替スイッチ64を切替操作して、通常観察モードを選択すると、光源装置6B内及びカメラヘッド4B内の切替フィルタ66及び62は、それぞれ通常フィルタ63が光路中に配置される状態になる。
一方、ユーザが蛍光観察モードを選択すると、光源装置6B内の切替フィルタ66は光路中に励起フィルタ19が、カメラヘッド4B内の切替フィルタ62は光路中に励起光カットフィルタ29が配置される状態となる。この場合には、実質的に実施例1と同様の構成となる。
As shown in FIG. 6, when a switching operation is performed by the observation mode switching switch 64, the switching instruction signal drives the motor 61 and also drives the motor 65 in the light source device 6B via the CCU 7B.
That is, when a user such as an operator switches the observation mode changeover switch 64 and selects the normal observation mode, the normal filter 63 is used as the optical filter in the switching filters 66 and 62 in the light source device 6B and the camera head 4B, respectively. It will be placed inside.
On the other hand, when the user selects the fluorescence observation mode, the switching filter 66 in the light source device 6B has the excitation filter 19 in the optical path, and the switching filter 62 in the camera head 4B has the excitation light cut filter 29 in the optical path. It becomes. In this case, the configuration is substantially the same as in the first embodiment.

また、本実施例におけるCCU7Bは、図1のCCU7において、さらに通常画像に対する通常画像処理機能を備えた構成となっている。具体的には、図2に示す画像処理回路32において、前処理回路42の出力端に設けられた蛍光画像メモリ43aと並列に通常観察モードでCCD28で撮像した場合の画像(通常画像)を一時記憶する通常画像メモリを設けた画像処理回路32Bが設けてある。
そして、通常観察モードが選択された場合には、CCD28で撮像した通常画像を通常画像メモリに格納し、この通常画像メモリに格納された通常画像を所定周期で読み出し、D/A変換器51を経てモニタ8に出力する。
In addition, the CCU 7B in the present embodiment is configured to further include a normal image processing function for a normal image in the CCU 7 of FIG. Specifically, in the image processing circuit 32 shown in FIG. 2, an image (normal image) when captured by the CCD 28 in the normal observation mode in parallel with the fluorescent image memory 43 a provided at the output terminal of the preprocessing circuit 42 is temporarily stored. An image processing circuit 32B provided with a normal image memory for storing is provided.
When the normal observation mode is selected, the normal image captured by the CCD 28 is stored in the normal image memory, the normal image stored in the normal image memory is read at a predetermined period, and the D / A converter 51 is operated. Then, it outputs to the monitor 8.

また、本実施例においては、画像処理回路32Bには、キーボード68が接続されており、術者等のユーザは、このキーボード66から図5に示した処理を行う場合における各種のパラメータの値、範囲の指定などを行うことができるようにしている。
また、実施例1においても述べたように、図5の処理を行う場合、蛍光画像からサイズ及び位置合わせに際に比較される部分の基準画像として使用される蛍光リンパ節及び蛍光リンパ管の画像部分を抽出する場合、ユーザはキーボード68からマーキングを行い、このマーキングされた部分を抽出することができるようにしている。また、CT画像側に対しても基準画像にサイズ及び位置合わせする際の対応画像となるCTリンパ節及びCTリンパ管部分を抽出する場合にも、上記基準画像に対応する部分をマーキングして、その部分を抽出できるようにしている。
In the present embodiment, a keyboard 68 is connected to the image processing circuit 32B, and a user such as an operator can use various values of parameters when performing the processing shown in FIG. The range can be specified.
Further, as described in the first embodiment, when the processing of FIG. 5 is performed, the images of the fluorescent lymph nodes and the fluorescent lymph vessels used as the reference images of the portions to be compared in the size and alignment from the fluorescent images. When extracting a part, the user performs marking from the keyboard 68 so that the marked part can be extracted. In addition, when extracting the CT lymph node and CT lymph vessel portion as a corresponding image when aligning the size and position to the reference image also on the CT image side, marking the portion corresponding to the reference image, The part can be extracted.

なお、キーボード68の他に、マウスやジョイスティック等のポインチングデバイスなどを設けて、ユーザはマウスなどを操作してパラメータ等の設定を行うようにしても良い。
ユーザは、各種のパラメータを手動入力することにより、CT画像を蛍光画像のサイズ及び位置合わせする調整処理を行う場合、無駄なパラメータの設定条件で処理することを少なくし、サイズ及び位置合わせの処理を短時間で行うことができるようになる。
また、上記のようにユーザがサイズ及び位置合わせする際における基準画像及び対応画像を指定(マーキング)することにより、時間的に異なるフレームにおける蛍光画像に対してもサイズ及び位置合わせする処理を円滑に行うことができる。
また、この場合、最初にサイズ及び位置合わせした際のパラメータ等の条件を、時間的に後のフレーム(1/30secの後のフレームに限らず、適宜の周期のフレーム)で同様にサイズ及び位置合わせする際の初期値に設定(例えばCPU44はその情報を不揮発性のメモリとしての例えばEEPROMに記憶しておき、前記後のフレームにおいてその情報を読み出して使用)して、サイズ及び位置合わせの調整処理を行うことにより、短時間にサイズ及び位置合わせすることができる。
In addition to the keyboard 68, a pointing device such as a mouse or a joystick may be provided, and the user may set parameters and the like by operating the mouse.
When the user performs manual input of various parameters to perform adjustment processing for aligning the size and position of a CT image with a fluorescent image, the processing is reduced with unnecessary parameter setting conditions, and processing for size and alignment is performed. Can be performed in a short time.
In addition, by specifying (marking) the reference image and the corresponding image when the user performs size and position alignment as described above, the process of size and position alignment can be smoothly performed even for fluorescent images in temporally different frames. It can be carried out.
In this case, the parameters such as the size and position at the time of initial alignment are similarly set to the size and position in a temporally subsequent frame (not limited to a frame after 1/30 sec but a frame with an appropriate period). Adjusting the size and alignment by setting the initial value for the alignment (for example, the CPU 44 stores the information in, for example, an EEPROM as a non-volatile memory, and reads and uses the information in the subsequent frame) By performing the processing, the size and position can be adjusted in a short time.

また、このように時間的に異なるフレームにおいて、サイズ及び位置合わせを行う場合、例えば時間的に位置が移動する可能性がある基準画像側における最初にマーキングされた部分を、時間的に異なるフレームにおける対応する部分に位置補正させる処理を例えばCPU44で行うようにしても良い。
このようにして、基準画像側で最初にマーキングされた部分が、時間的に後になる蛍光画像において位置が移動しても基本的に同じマーキングされた部分が基準画像として保持できると、CT画像側でこれにサイズ及び位置を一致させる調整処理が、簡単になる。
In addition, when performing size and alignment in such temporally different frames, for example, the first marked part on the reference image side where the position may be temporally moved is changed in temporally different frames. For example, the CPU 44 may perform the process of correcting the position of the corresponding part.
In this way, if the portion marked first on the reference image side can be basically retained as the reference image even if the position of the fluorescent image that is later in time moves, the CT image side Thus, the adjustment process for making the size and position coincide with this becomes simple.

つまり、CT画像側でサイズ及び位置合わせする際、最初に蛍光画像における基準画像部分とCT画像側での対応画像とのマーキングを行っておけば、その後は蛍光画像が移動して基準画像も移動しても、その基準画像が位置補正して保持される。このため、CT画像側における対応画像部分として(基準画像に対応するものかの判別を行うことを不用として)同じものを使用でき、サイズ及び位置を一致させる調整処理が、簡単になる。
上記位置補正を行う処理の方法は、例えばMPEG2或いは4等における領域の動きベクトルを検出する方法で実現できる。つまり、基準画像部分におけるマーキングされた部分を含む所定領域のブロック部分が異なるフレームにおいてどのブロックに移動しているかを、例えばブロックマッチング法で検出することにより、位置補正ができる。この場合、サイズが変化する場合には、さらにサイズを若干変更する処理も行うようにすると、さらに高精度の位置補正ができる。
In other words, when aligning the size and position on the CT image side, if the reference image portion in the fluorescence image is first marked with the corresponding image on the CT image side, then the fluorescence image moves and the reference image also moves. Even so, the reference image is corrected and held. For this reason, the same image portion can be used as the corresponding image portion on the CT image side (without determining whether the image corresponds to the reference image), and the adjustment processing for matching the size and position is simplified.
The position correction processing method can be realized by, for example, a method for detecting a motion vector of an area in MPEG2 or 4 or the like. That is, position correction can be performed by detecting to which block the block portion of the predetermined area including the marked portion in the reference image portion has moved in a different frame by, for example, the block matching method. In this case, when the size changes, the position can be corrected with higher accuracy by further performing a process of slightly changing the size.

従って、本実施例によれば、通常画像での観察ができると共に、蛍光観察モードに設定した場合には実施例1のように蛍光画像にCT装置9で得られる血管画像を合成表示することができる。従って、血管の走行状態を推定若しくは把握でき、内視鏡観察下での手術を円滑に行うことができる。
また、本実施例の場合、ユーザ側において、調整処理する際のパラメータ、つまり調整処理を行う際の条件、範囲を適切にでき、無駄な調整処理を省くことができる。
なお、3次元画像生成手段としてCT装置9の場合で説明したが、本発明はこれに限定されるものでなく、例えばMRI装置による3次元画像を採用しても良い。
また、上述した実施例においては、光源装置6側において励起光を発生する構成にしているが、例えば内視鏡5の先端部に励起光用発光ダイオード(LED)を設け、この励起光用LEDから励起光を対象部位21側に照射する構成にしても良い。この場合、可視光で観察するモードがある場合には、可視光で発光する可視光用LEDを設け、モード切替スイッチで発光させるLEDを切り替えるようにしても良い。
Therefore, according to the present embodiment, a normal image can be observed, and when the fluorescence observation mode is set, a blood vessel image obtained by the CT apparatus 9 can be synthesized and displayed on the fluorescence image as in the first embodiment. it can. Therefore, the running state of the blood vessel can be estimated or grasped, and the operation under endoscopic observation can be performed smoothly.
In the case of the present embodiment, on the user side, parameters at the time of adjustment processing, that is, conditions and ranges at the time of performing adjustment processing can be made appropriate, and unnecessary adjustment processing can be omitted.
Note that although the case of the CT apparatus 9 has been described as the three-dimensional image generation means, the present invention is not limited to this, and for example, a three-dimensional image by an MRI apparatus may be adopted.
In the above-described embodiment, the excitation light is generated on the light source device 6 side. For example, a light emitting diode (LED) for excitation light is provided at the distal end portion of the endoscope 5 and the excitation light LED is provided. The excitation light may be irradiated to the target site 21 side. In this case, when there is a mode for observing with visible light, a visible light LED that emits light with visible light may be provided, and the LED that emits light may be switched by a mode changeover switch.

内視鏡により得られる蛍光画像中に、その蛍光画像と同じサイズ及び位置で血管の画像を重畳して表示できるようにしているので、内視鏡観察下で外科手術等を行う場合、血管の走行状態を把握でき、円滑な手術ができるようになる。   Since the blood vessel image can be superimposed and displayed in the same size and position as the fluorescence image in the fluorescence image obtained by the endoscope, when performing surgery or the like under endoscopic observation, The running state can be grasped and smooth surgery can be performed.

図1は本発明の実施例1の観察システムの全体構成図。1 is an overall configuration diagram of an observation system according to a first embodiment of the present invention. 図2はカメラコントロールユニットによる画像処理回路の構成を示すブロック図。FIG. 2 is a block diagram showing a configuration of an image processing circuit by the camera control unit. 図3は励起フィルタ及び励起光カットフィルタの透過率特性等を示す特性図。FIG. 3 is a characteristic diagram showing transmittance characteristics and the like of the excitation filter and the excitation light cut filter. 図4はCT装置及び内視鏡等により得られる画像を示す図。FIG. 4 is a diagram showing an image obtained by a CT apparatus and an endoscope. 図5は実施例1による処理内容を示すフローチャート図。FIG. 5 is a flowchart showing processing contents according to the first embodiment. 図6は本発明の実施例2の観察システムの全体構成図。FIG. 6 is an overall configuration diagram of the observation system according to the second embodiment of the present invention. 図7はカメラヘッド内の切替フィルタの構成を示す図。FIG. 7 is a diagram illustrating a configuration of a switching filter in the camera head. 図8は光源装置内の切替フィルタの構成を示す図。FIG. 8 is a diagram illustrating a configuration of a switching filter in the light source device.

符号の説明Explanation of symbols

1…観察システム
2…患者
3…光学式内視鏡
4…カメラヘッド
5…内視鏡
6…光源装置
7…CCU
8…モニタ
9…CT装置
19…励起フィルタ
28…CCD
29…励起光カットフィルタ
32…画像処理回路
43a…蛍光画像メモリ
43b…CT画像メモリ
44…CPU
45a…蛍光リンパ節検出回路
45b…CTリンパ節検出回路
45c…CT血管検出回路
46…XYZ処理部
47…第1判定部
48…縮尺処理部
49…第2判定部
50…重畳処理部
DESCRIPTION OF SYMBOLS 1 ... Observation system 2 ... Patient 3 ... Optical endoscope 4 ... Camera head 5 ... Endoscope 6 ... Light source device 7 ... CCU
8 ... Monitor 9 ... CT device 19 ... Excitation filter 28 ... CCD
29 ... Excitation light cut filter 32 ... Image processing circuit 43a ... Fluorescence image memory 43b ... CT image memory 44 ... CPU
45a ... Fluorescent lymph node detection circuit 45b ... CT lymph node detection circuit 45c ... CT blood vessel detection circuit 46 ... XYZ processing unit 47 ... First determination unit 48 ... Scale processing unit 49 ... Second determination unit 50 ... Superimposition processing unit

Claims (5)

蛍光物質が投与された生体における血液の流量が小さいリンパ節及びリンパ管の少なくとも一方と血液の流量が大きい血管とを含む対象部位に対して励起光が照射された状態における前記蛍光物質が発生する蛍光を内視鏡の蛍光撮像手段により受光し、前記蛍光撮像手段から光電変換されて出力される撮像信号が入力され、前記撮像信号に対する信号処理を行い、前記リンパ節及びリンパ管の少なくとも一方の基準画像を含む蛍光画像を第1の画像として生成する映像信号を生成する映像処理手段と、
3次元画像生成手段により、前記対象部位における前記リンパ節及びリンパ管の少なくとも一方と前記血管とを含む3次元の画像が入力され、前記3次元の画像から2次元の第2の画像を生成すると共に、前記第2の画像における前記基準画像に対応する対応画像を、前記基準画像の位置及びサイズに合わせる調整処理を行う調整処理手段と、
前記調整処理手段により調整処理された後の調整状態で、前記2次元の画像における少なくとも前記血管部分の画像を前記蛍光画像に合成する合成手段と、
を具備したことを特徴とする観察システム。
The fluorescent substance is generated in a state in which excitation light is irradiated to a target site including at least one of a lymph node and a lymph vessel having a low blood flow rate and a blood vessel having a high blood flow rate in a living body to which the fluorescent substance is administered. Fluorescence is received by the fluorescence imaging means of the endoscope, an imaging signal that is photoelectrically converted and output from the fluorescence imaging means is input, signal processing is performed on the imaging signal, and at least one of the lymph nodes and lymph vessels Video processing means for generating a video signal for generating a fluorescent image including a reference image as a first image;
The three-dimensional image generation means inputs a three-dimensional image including at least one of the lymph nodes and lymph vessels and the blood vessels in the target region, and generates a two-dimensional second image from the three-dimensional image. And an adjustment processing means for performing an adjustment process for matching a corresponding image corresponding to the reference image in the second image to the position and size of the reference image;
Synthesizing means for synthesizing at least the image of the blood vessel portion in the two-dimensional image with the fluorescence image in the adjusted state after being adjusted by the adjustment processing means;
An observation system comprising:
さらに、前記蛍光物質が投与された生体における前記対象部位に対して、前記蛍光物質を選択的に励起させる所定の波長帯の励起光を照射する励起光照射手段と、
前記蛍光物質が発生する蛍光を受光して、前記蛍光の強度がピークとなる波長帯を透過し、かつ前記励起光の波長帯の透過を抑制するフィルタ手段を備えた前記蛍光撮像手段と、
を有することを特徴とする請求項1に記載の観察システム。
Further, excitation light irradiation means for irradiating the target site in the living body to which the fluorescent material is administered with excitation light of a predetermined wavelength band for selectively exciting the fluorescent material;
Receiving the fluorescence generated by the fluorescent material, and transmitting the fluorescence imaging means comprising a filter means that transmits a wavelength band in which the intensity of the fluorescence reaches a peak, and suppresses transmission of the wavelength band of the excitation light;
The observation system according to claim 1, comprising:
前記調整処理手段は、前記対応画像を、前記基準画像の位置及びサイズに合わせる調整処理を行う際、対応画像の方向を調整する方向調整処理を行うことを特徴とする請求項1に記載の観察システム。   The observation according to claim 1, wherein the adjustment processing unit performs a direction adjustment process for adjusting a direction of the corresponding image when the adjustment process is performed to match the corresponding image with a position and a size of the reference image. system. 血管、リンパ節、リンパ管を含む対象部位に照射する光を発生する光発生手段と、
前記光発生手段と対象部位との間に配置され、蛍光物質を励起する励起光を透過する第1フィルタと、
前記蛍光物質の蛍光ピーク付近を含み、前記励起光をカットする特定の波長領域のみを透過する第2のフィルタと、
前記第2のフィルタを透過した光を受光し、リンパ管及びリンパ節が撮像された第1画像を取得する撮像手段と、
予め前記対象部位の血管、リンパ管、リンパ節の位置を記憶した第2画像を、前記第1画像のサイズ及び位置合わせして重畳する調整処理手段と、
を有することを特徴とする観察システム。
A light generating means for generating light to irradiate a target site including blood vessels, lymph nodes, lymphatic vessels;
A first filter disposed between the light generating means and the target site and transmitting excitation light for exciting the fluorescent material;
A second filter that includes a vicinity of a fluorescence peak of the fluorescent material and transmits only a specific wavelength region that cuts the excitation light;
Imaging means for receiving light transmitted through the second filter and acquiring a first image in which lymphatic vessels and lymph nodes are imaged;
Adjustment processing means for superimposing a second image in which the positions of blood vessels, lymphatic vessels, and lymph nodes of the target region are stored in advance, in accordance with the size and position of the first image;
An observation system comprising:
さらに前記第1画像内の所定のリンパ節又はリンパ管をマーキングするマーキング手段と、前記マーキング手段によりマーキングされたリンパ節又はリンパ管が、時間的に異なるフレームの第1画像内においてどの位置になるかの位置補正を行う位置補正手段とを有することを特徴とする請求項4に記載の観察システム。   Further, the marking means for marking a predetermined lymph node or lymph vessel in the first image, and the position of the lymph node or lymph vessel marked by the marking means in the first image of a temporally different frame The observation system according to claim 4, further comprising position correction means for performing position correction.
JP2006074892A 2006-03-17 2006-03-17 Observation system Pending JP2007244746A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006074892A JP2007244746A (en) 2006-03-17 2006-03-17 Observation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006074892A JP2007244746A (en) 2006-03-17 2006-03-17 Observation system

Publications (1)

Publication Number Publication Date
JP2007244746A true JP2007244746A (en) 2007-09-27

Family

ID=38589644

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006074892A Pending JP2007244746A (en) 2006-03-17 2006-03-17 Observation system

Country Status (1)

Country Link
JP (1) JP2007244746A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009178448A (en) * 2008-01-31 2009-08-13 Toshiba Corp Ultrasonic diagnostic apparatus, image diagnostic apparatus and program
JP2010227253A (en) * 2009-03-26 2010-10-14 Olympus Corp Image processor, imaging device, image processing program, and image processing method
JP2011062408A (en) * 2009-09-18 2011-03-31 Fujifilm Corp Fluorescent image imaging device
JP2011067486A (en) * 2009-09-28 2011-04-07 Fujifilm Corp Image acquisition method and device
JP2011101772A (en) * 2009-11-12 2011-05-26 Fujifilm Corp Fluorescent image imaging device
JP2011167337A (en) * 2010-02-18 2011-09-01 Fujifilm Corp Image obtaining method and image capturing apparatus
JP2013255813A (en) * 2013-07-17 2013-12-26 Fujifilm Corp Fluorescence image capturing device
CN103561627A (en) * 2011-06-01 2014-02-05 奥林巴斯株式会社 Image-processing apparatus
CN103654699A (en) * 2013-12-10 2014-03-26 西安电子科技大学 Fluorescence excitation binocular endoscopic system
CN103839048A (en) * 2014-02-21 2014-06-04 西安电子科技大学 Stomach CT image lymph gland recognition system and method based on low-rank decomposition
JP2015505502A (en) * 2012-02-06 2015-02-23 コーニンクレッカ フィリップス エヌ ヴェ Detection of invisible branches in blood vessel tree images
WO2018220930A1 (en) * 2017-05-30 2018-12-06 オリンパス株式会社 Image processing device

Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0984746A (en) * 1995-07-19 1997-03-31 Olympus Optical Co Ltd Magnetic resonance observation system
JPH10143652A (en) * 1996-11-14 1998-05-29 Toshiba Iyou Syst Eng Kk Medical image composing device
JPH11309A (en) * 1997-06-12 1999-01-06 Hitachi Ltd Image processor
JP2001133696A (en) * 1999-11-02 2001-05-18 Olympus Optical Co Ltd Microscope device for surgery
JP2001299676A (en) * 2000-04-25 2001-10-30 Fuji Photo Film Co Ltd Method and system for detecting sentinel lymph node
JP2002263053A (en) * 2001-03-06 2002-09-17 Olympus Optical Co Ltd Medical image display device and method
JP2002315721A (en) * 2001-04-20 2002-10-29 Mitaka Koki Co Ltd Stereoscopic system for enucleation of cancer tissue
JP2003126017A (en) * 2001-10-25 2003-05-07 Olympus Optical Co Ltd Surgical microscope system
JP2003290126A (en) * 2002-03-29 2003-10-14 Olympus Optical Co Ltd Sentinel lymph node-detecting apparatus and method therefor
JP2004000505A (en) * 2002-03-28 2004-01-08 Fuji Photo Film Co Ltd Endoscope apparatus
JP2004305382A (en) * 2003-04-04 2004-11-04 Olympus Corp Special light observation system
WO2005048826A1 (en) * 2003-11-20 2005-06-02 Hamamatsu Photonics K.K. Lymph node detector
JP2005169116A (en) * 2003-12-08 2005-06-30 Siemens Ag Fused image displaying method
JP2005177477A (en) * 2003-12-15 2005-07-07 Siemens Ag Catheter device
JP2005253963A (en) * 2004-03-08 2005-09-22 Siemens Ag Method of registering 2d image data of hollow tube together with 3d image data of hollow tube
JP2006026015A (en) * 2004-07-14 2006-02-02 Fuji Photo Film Co Ltd Optical tomographic image acquisition system

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0984746A (en) * 1995-07-19 1997-03-31 Olympus Optical Co Ltd Magnetic resonance observation system
JPH10143652A (en) * 1996-11-14 1998-05-29 Toshiba Iyou Syst Eng Kk Medical image composing device
JPH11309A (en) * 1997-06-12 1999-01-06 Hitachi Ltd Image processor
JP2001133696A (en) * 1999-11-02 2001-05-18 Olympus Optical Co Ltd Microscope device for surgery
JP2001299676A (en) * 2000-04-25 2001-10-30 Fuji Photo Film Co Ltd Method and system for detecting sentinel lymph node
JP2002263053A (en) * 2001-03-06 2002-09-17 Olympus Optical Co Ltd Medical image display device and method
JP2002315721A (en) * 2001-04-20 2002-10-29 Mitaka Koki Co Ltd Stereoscopic system for enucleation of cancer tissue
JP2003126017A (en) * 2001-10-25 2003-05-07 Olympus Optical Co Ltd Surgical microscope system
JP2004000505A (en) * 2002-03-28 2004-01-08 Fuji Photo Film Co Ltd Endoscope apparatus
JP2003290126A (en) * 2002-03-29 2003-10-14 Olympus Optical Co Ltd Sentinel lymph node-detecting apparatus and method therefor
JP2004305382A (en) * 2003-04-04 2004-11-04 Olympus Corp Special light observation system
WO2005048826A1 (en) * 2003-11-20 2005-06-02 Hamamatsu Photonics K.K. Lymph node detector
JP2005169116A (en) * 2003-12-08 2005-06-30 Siemens Ag Fused image displaying method
JP2005177477A (en) * 2003-12-15 2005-07-07 Siemens Ag Catheter device
JP2005253963A (en) * 2004-03-08 2005-09-22 Siemens Ag Method of registering 2d image data of hollow tube together with 3d image data of hollow tube
JP2006026015A (en) * 2004-07-14 2006-02-02 Fuji Photo Film Co Ltd Optical tomographic image acquisition system

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009178448A (en) * 2008-01-31 2009-08-13 Toshiba Corp Ultrasonic diagnostic apparatus, image diagnostic apparatus and program
US8911374B2 (en) 2008-01-31 2014-12-16 Kabushiki Kaisha Toshiba Ultrasonic diagnostic apparatus, diagnostic imaging apparatus, and program
US8767058B2 (en) 2009-03-26 2014-07-01 Olympus Corporation Image processing apparatus, imaging apparatus, computer-readable storage medium, and image processing method
JP2010227253A (en) * 2009-03-26 2010-10-14 Olympus Corp Image processor, imaging device, image processing program, and image processing method
CN102361583A (en) * 2009-03-26 2012-02-22 奥林巴斯株式会社 Image processing device, image capturing device, image processing program, and image processing method
JP2011062408A (en) * 2009-09-18 2011-03-31 Fujifilm Corp Fluorescent image imaging device
JP2011067486A (en) * 2009-09-28 2011-04-07 Fujifilm Corp Image acquisition method and device
JP2011101772A (en) * 2009-11-12 2011-05-26 Fujifilm Corp Fluorescent image imaging device
JP2011167337A (en) * 2010-02-18 2011-09-01 Fujifilm Corp Image obtaining method and image capturing apparatus
CN103561627A (en) * 2011-06-01 2014-02-05 奥林巴斯株式会社 Image-processing apparatus
JP2015505502A (en) * 2012-02-06 2015-02-23 コーニンクレッカ フィリップス エヌ ヴェ Detection of invisible branches in blood vessel tree images
JP2013255813A (en) * 2013-07-17 2013-12-26 Fujifilm Corp Fluorescence image capturing device
CN103654699A (en) * 2013-12-10 2014-03-26 西安电子科技大学 Fluorescence excitation binocular endoscopic system
CN103839048A (en) * 2014-02-21 2014-06-04 西安电子科技大学 Stomach CT image lymph gland recognition system and method based on low-rank decomposition
CN103839048B (en) * 2014-02-21 2017-05-10 西安电子科技大学 Stomach CT image lymph gland recognition system and method based on low-rank decomposition
WO2018220930A1 (en) * 2017-05-30 2018-12-06 オリンパス株式会社 Image processing device
JPWO2018220930A1 (en) * 2017-05-30 2019-06-27 オリンパス株式会社 Image processing apparatus, image processing system and operation method of image processing apparatus

Similar Documents

Publication Publication Date Title
JP2007244746A (en) Observation system
JP5444510B1 (en) Endoscope apparatus and medical system
WO2018034075A1 (en) Imaging system
JP5127639B2 (en) Endoscope system and method of operating the same
JP5492030B2 (en) Image pickup display device and method of operating the same
WO2017159335A1 (en) Medical image processing device, medical image processing method, and program
CN110099599B (en) Medical image processing apparatus, medical image processing method, and program
US20070173689A1 (en) Object observation system and method of controlling object observation system
US20100168584A1 (en) Biological observation apparatus, biological observation method, and endoscopic apparatus
JP2010063590A (en) Endoscope system and drive control method thereof
JP2011156203A (en) Image processor, endoscope system, program, and image processing method
CN110913744A (en) Surgical system, control method, surgical device, and program
JP2011200283A (en) Controller, endoscope system, program, and control method
JP7374280B2 (en) Endoscope device, endoscope processor, and method of operating the endoscope device
WO2019130868A1 (en) Image processing device, processor device, endoscope system, image processing method, and program
JPWO2019239942A1 (en) Surgical observation device, surgical observation method, surgical light source device, and surgical light irradiation method
WO2020262262A1 (en) Medical observation system, control device, and control method
JP2023014288A (en) Medical image processing device, processor device, endoscope system, operation method of medical image processing device, and program
JP2003126017A (en) Surgical microscope system
WO2017221491A1 (en) Control device, control system, and control method
JP2003334160A (en) Stereoscopic endoscope system
WO2021157487A1 (en) Medical image processing device, endoscope system, medical image processing method, and program
WO2020203225A1 (en) Medical system, information processing device, and information processing method
US20220022728A1 (en) Medical system, information processing device, and information processing method
WO2020009127A1 (en) Medical observation system, medical observation device, and medical observation device driving method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120117

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120522