JP2011067486A - Image acquisition method and device - Google Patents

Image acquisition method and device Download PDF

Info

Publication number
JP2011067486A
JP2011067486A JP2009222053A JP2009222053A JP2011067486A JP 2011067486 A JP2011067486 A JP 2011067486A JP 2009222053 A JP2009222053 A JP 2009222053A JP 2009222053 A JP2009222053 A JP 2009222053A JP 2011067486 A JP2011067486 A JP 2011067486A
Authority
JP
Japan
Prior art keywords
image
special
normal
unit
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009222053A
Other languages
Japanese (ja)
Other versions
JP5399187B2 (en
Inventor
Hideyuki Yamada
英之 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2009222053A priority Critical patent/JP5399187B2/en
Publication of JP2011067486A publication Critical patent/JP2011067486A/en
Application granted granted Critical
Publication of JP5399187B2 publication Critical patent/JP5399187B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

<P>PROBLEM TO BE SOLVED: To acquire a composite image in which a special image with enough intensity is synthesized with an ordinary image and acquire a suitable composite image without shifting of an image in an image acquiring device for acquiring a composite image based on an ordinary image and a special image. <P>SOLUTION: A first ordinary image imaged at a first point of time is acquired, and a second ordinary image imaged at a second point of time later than the first point of time is acquired, a feature amount showing a change in motion from an observed part of the first ordinary image to an observed part of the second ordinary image is acquired, a first special image imaged at a first point of time is corrected based on the motion feature amount, and a corrected third special image and the second ordinary image are synthesized to acquired a composite image. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、通常光の被観察部への照射によって取得した通常画像と特殊光の被観察部への照射によって取得した特殊画像とに基づいて合成画像を取得する画像取得方法および装置に関するものである。   The present invention relates to an image acquisition method and apparatus for acquiring a composite image on the basis of a normal image acquired by irradiating an observed part with normal light and a special image acquired by irradiating the observed part with special light. is there.

従来、体腔内の組織を観察する内視鏡システムが広く知られており、白色光の照射によって体腔内の被観察部を撮像して通常画像を得、この通常画像をモニタ画面上に表示する電子式内視鏡システムが広く実用化されている。   Conventionally, endoscope systems for observing tissue in a body cavity are widely known, and a normal image is obtained by imaging a portion to be observed in a body cavity by irradiation with white light, and this normal image is displayed on a monitor screen. Electronic endoscope systems have been widely put into practical use.

また、上記のような内視鏡システムとして、たとえば、特許文献1においては、通常画像とともに、励起光の照射によって被観察部から発せられた自家蛍光像を撮像して自家蛍光画像を得、これらの画像をモニタ画面上に表示する蛍光内視鏡システムが提案されている。   Moreover, as an endoscope system as described above, for example, in Patent Document 1, an autofluorescence image emitted from an observed part by irradiation of excitation light is captured together with a normal image to obtain autofluorescence images. There has been proposed a fluorescence endoscope system that displays the above image on a monitor screen.

また、蛍光内視鏡システムとしては、たとえば、ICG(インドシアニングリーン)を予め体内に投入し、励起光を被観察部に照射して血管内のICGの蛍光を検出することによって血管の蛍光画像を取得するものも提案されている。   In addition, as a fluorescence endoscope system, for example, ICG (Indocyanine Green) is introduced into the body in advance, and the fluorescence image of the blood vessel is detected by irradiating the observation part with excitation light and detecting the fluorescence of ICG in the blood vessel. Some have also been proposed.

そして、たとえば、特許文献1に記載の蛍光内視鏡システムにおいては、通常画像と自家蛍光画像とをモニタ上に切り替えて表示することが提案されている。   For example, in the fluorescence endoscope system described in Patent Document 1, it is proposed to display a normal image and an autofluorescence image by switching them on a monitor.

特開2005−204905号公報JP 2005-204905 A

しかしながら、特許文献1に記載の蛍光内視鏡システムのように、通常画像と蛍光画像とを切り替えて表示すれば2つの画像を比較することは可能であるが、通常画像と蛍光画像とを同時に比較することができないので、やはり通常画像上のどの位置に血管が存在するのかを正確に判断することができない。そこで、通常画像と蛍光画像とを合成して表示することが考えられる。   However, as in the fluorescence endoscope system described in Patent Document 1, it is possible to compare two images if the normal image and the fluorescent image are switched and displayed, but the normal image and the fluorescent image are simultaneously displayed. Since the comparison cannot be made, it is impossible to accurately determine at which position on the normal image the blood vessel exists. In view of this, it is conceivable to synthesize and display the normal image and the fluorescence image.

しかしながら、上述したようなICGを用いた血管画像の観察を行う場合、血中のICGは血流の動態により、観察に十分な強度で蛍光を発する時間が短い。したがって、現在撮像している通常画像と蛍光画像とを単に合成したのでは、既にICGが流れてしまった後であり、合成画像にICGの蛍光が十分に現れていない場合がある。また、たとえば静脈や動脈といった部位によって発光のタイミングが異なるため、複数の関心部位を一度に観察することができない。   However, when observing a blood vessel image using ICG as described above, ICG in blood has a short time to emit fluorescence with sufficient intensity for observation due to the dynamics of blood flow. Therefore, if the normal image currently captured and the fluorescence image are simply synthesized, the ICG has already flowed, and the ICG fluorescence may not sufficiently appear in the synthesized image. In addition, since the timing of light emission varies depending on a part such as a vein or an artery, a plurality of parts of interest cannot be observed at a time.

また、通常画像と蛍光画像とを合成する際、これらの画像を撮像したタイミングが異なる場合には、拍動によって被観察部の形態が異なるものとなるため、血管画像にずれが生じてしまい適切な合成画像を表示することができない。   In addition, when synthesizing a normal image and a fluorescent image, if the timings at which these images are captured are different, the form of the observed portion will differ depending on the pulsation, resulting in a deviation in the blood vessel image. A complex image cannot be displayed.

本発明は、上記の問題に鑑みてなされたものであり、通常画像と特殊画像とに基づいて、合成画像を取得する画像取得方法および装置において、十分な強度の特殊画像を通常画像に合成した合成画像を取得することができるとともに、画像ずれのない適切な合成画像を取得することができる画像取得方法および装置を提供することを目的とする。   The present invention has been made in view of the above problems, and in a method and apparatus for acquiring a composite image based on a normal image and a special image, a special image having sufficient strength is combined with the normal image. An object of the present invention is to provide an image acquisition method and apparatus capable of acquiring a composite image and acquiring an appropriate composite image without image shift.

本発明の画像取得方法は、通常光の被観察部への照射によって被観察部から反射された反射光を受光して所定の間隔で撮像された複数の通常画像と、特殊光の被観察部への照射によって被観察部から発せられた光を受光して所定の間隔で撮像された複数の特殊画像とを取得し、複数の通常画像のうちの第1の時点に撮像された第1の通常画像または複数の特殊画像のうちの第1の時点に撮像された第1の特殊画像を取得するとともに、第1の時点よりも後の第2の時点に撮像された第2の通常画像または第1の時点よりも後の第2の時点に撮像された第2の特殊画像を取得し、第1の通常画像の被観察部から第2の通常画像の被観察部への動きの変化を示す動き特徴量または第1の特殊画像の被観察部から第2の特殊画像の被観察部への動きの変化を示す動き特徴量を取得し、その取得した動き特徴量に基づいて、複数の特殊画像のうちの第1の時点に撮像された第1の特殊画像を補正して第3の特殊画像を取得し、その取得した第3の特殊画像と第2の通常画像とを合成して合成画像を取得することを特徴とする。   The image acquisition method of the present invention includes a plurality of normal images captured at a predetermined interval by receiving reflected light reflected from the observed portion by irradiating the observed portion with normal light, and a special light observed portion. A plurality of special images picked up at predetermined intervals by receiving light emitted from the observed portion by irradiation of the first and first images picked up at a first time among a plurality of normal images The first special image captured at the first time point among the normal image or the plurality of special images is acquired, and the second normal image captured at the second time point after the first time point or A second special image captured at a second time point after the first time point is acquired, and a change in movement from the observed portion of the first normal image to the observed portion of the second normal image is obtained. Motion feature amount or movement from the observed portion of the first special image to the observed portion of the second special image A motion feature amount indicating a change is acquired, and based on the acquired motion feature amount, the first special image captured at the first time point of the plurality of special images is corrected to obtain a third special image. The acquired third special image and the second normal image are combined to acquire a combined image.

本発明の画像取得装置は、通常光および特殊光を被観察部に照射する光照射部と、通常光の照射によって被観察部から反射された反射光を受光して複数の通常画像を所定の間隔で撮像するとともに、特殊光の照射によって被観察部から発せられた光を受光して複数の特殊画像を所定の間隔で撮像する撮像部と、撮像部によって取得された複数の通常画像のうちの少なくとも1つの第1の時点に撮像された第1の通常画像または複数の特殊画像のうちの少なくとも1つの第1の時点に撮像された第1の特殊画像を取得するとともに、第1の時点よりも後の第2の時点に撮像された第2の通常画像または第1の時点よりも後の第2の時点に撮像された第2の特殊画像を取得し、第1の通常画像の被観察部から第2の通常画像の被観察部への動きの変化を示す動き特徴量または第1の特殊画像の被観察部から第2の特殊画像の被観察部への動きの変化を示す動き特徴量を取得する動き特徴量取得部と、動き取得部により取得された動き特徴量に基づいて、複数の特殊画像のうちの第1の時点に撮像された第1の特殊画像を補正して第3の特殊画像を取得する動き補正部と、動き補正部により取得された第3の特殊画像と第2の通常画像とを合成して合成画像を取得する合成画像取得部とを備えたことを特徴とする。   The image acquisition apparatus of the present invention receives a light irradiation unit that irradiates the observed part with normal light and special light, and reflected light reflected from the observed part by irradiation of the normal light, and receives a plurality of normal images in a predetermined manner. Among the plurality of normal images acquired by the imaging unit and the imaging unit that captures a plurality of special images at a predetermined interval by receiving light emitted from the observed portion by irradiation of the special light while imaging at intervals A first normal image captured at least at a first time point of the first normal image or a first special image captured at a first time point among a plurality of special images, and a first time point A second normal image captured at a second time point after the second time point or a second special image captured at a second time point after the first time point is obtained, and the first normal image is captured. The movement of the second normal image from the observation unit to the observation unit A motion feature amount acquisition unit for acquiring a motion feature amount indicating a change in motion or a motion feature amount indicating a change in motion from the observed portion of the first special image to the observed portion of the second special image, and a motion acquisition unit. A motion correction unit that corrects the first special image captured at a first time point out of the plurality of special images based on the acquired motion feature amount, and acquires a third special image; and a motion correction unit And a synthesized image obtaining unit that obtains a synthesized image by synthesizing the third special image obtained by the above and the second normal image.

また、本発明の画像取得装置においては、撮像部により撮像された複数の特殊画像を時系列で順次表示する表示部と、表示部に順次表示される複数の特殊画像のうちの少なくとも1つの特殊画像を第1の特殊画像として選択する信号を受け付ける選択信号受付部とを設けることができる。   In the image acquisition device of the present invention, at least one special among a display unit that sequentially displays a plurality of special images captured by the imaging unit in time series and a plurality of special images that are sequentially displayed on the display unit. A selection signal receiving unit that receives a signal for selecting an image as the first special image can be provided.

また、所定の通常画像または所定の特殊画像における関心領域の設定を受け付ける関心領域受付部と、所定の通常画像において設定された関心領域に対応する複数の特殊画像の各関心領域内の画素信号または所定の特殊画像において設定された関心領域に対応する複数の特殊画像の各関心領域内の画素信号に基づいて第1の特殊画像を選択する過去画像選択部とを設けることができる。   In addition, a region of interest reception unit that receives a setting of a region of interest in a predetermined normal image or a predetermined special image, and a pixel signal in each region of interest of a plurality of special images corresponding to the region of interest set in the predetermined normal image or A past image selection unit that selects the first special image based on pixel signals in each region of interest of the plurality of special images corresponding to the region of interest set in the predetermined special image can be provided.

また、撮像部により撮像された複数の特殊画像を同時に表示する表示部と、表示部に同時に表示された複数の特殊画像のうちの少なくとも1つの特殊画像を第1の特殊画像として選択する信号を受け付ける選択信号受付部とを設けることができる。   In addition, a display unit that simultaneously displays a plurality of special images captured by the imaging unit, and a signal that selects at least one special image among the plurality of special images simultaneously displayed on the display unit as a first special image A selection signal receiving unit may be provided.

また、第3の特殊画像から被観察部に含まれる管部分を表す画像を抽出する管画像抽出部をさらに設け、合成画像取得部を、管画像抽出部により抽出された管部分を表す画像と第2の通常画像とを合成して合成画像を取得するものとすることができる。   In addition, a tube image extraction unit that extracts an image representing the tube portion included in the observed portion from the third special image is further provided, and the composite image acquisition unit is an image representing the tube portion extracted by the tube image extraction unit. The synthesized image can be obtained by synthesizing the second normal image.

また、合成画像取得部を、第3の特殊画像および第2の特殊画像と第2の通常画像とを合成して合成画像を取得するものとすることができる。   Further, the composite image acquisition unit may acquire the composite image by combining the third special image, the second special image, and the second normal image.

また、第1の特殊画像として複数のものを用いることができる。   A plurality of first special images can be used.

本発明の画像取得方法および装置によれば、第1の時点に撮像された第1の通常画像または第1の特殊画像を取得するとともに、第1の時点よりも後の第2の時点に撮像された第2の通常画像または第2の特殊画像を取得し、第1の通常画像の被観察部から第2の通常画像の被観察部への動きの変化を示す動き特徴量または第1の特殊画像の被観察部から第2の特殊画像の被観察部への動きの変化を示す動き特徴量を取得し、その取得した動き特徴量に基づいて、第1の時点に撮像された第1の特殊画像を補正して第3の特殊画像を取得し、その取得した第3の特殊画像と第2の通常画像とを合成して合成画像を取得するようにしたので、十分な強度の特殊画像を通常画像に合成した合成画像を取得することができるとともに、画像ずれのない適切な合成画像を取得することができる。   According to the image acquisition method and apparatus of the present invention, the first normal image or the first special image captured at the first time point is acquired, and the image is captured at the second time point after the first time point. The obtained second normal image or the second special image is acquired, and the motion feature amount or the first characteristic indicating the change in motion from the observed portion of the first normal image to the observed portion of the second normal image A motion feature amount indicating a change in motion from the observed portion of the special image to the observed portion of the second special image is acquired, and the first image captured at the first time point is acquired based on the acquired motion feature amount. The third special image is acquired by correcting the special image of the image, and the composite image is acquired by combining the acquired third special image and the second normal image. A composite image obtained by compositing an image with a normal image can be acquired, and there is no image shift. It is possible to obtain the appropriate synthesized image.

すなわち、たとえば、ICGを用いた血管画像の観察を行う場合、ICGが被観察部を通過する第1の時点における第1の特殊画像を取得し、この第1の特殊画像に対して動き補正を施した第3の特殊画像を第1の時点よりも後の第2の時点に撮像された第2の通常画像に合成するようにしたので、ICGの発光の強度が十分な特殊画像を通常画像に合成した合成画像を取得することができるとともに、血管画像にずれのない適切な合成画像を取得することができる。   That is, for example, when observing a blood vessel image using ICG, the first special image at the first time point when the ICG passes through the observed portion is acquired, and motion correction is performed on the first special image. Since the applied third special image is synthesized with the second normal image captured at the second time point after the first time point, the special image with sufficient ICG emission intensity is obtained as the normal image. It is possible to acquire a composite image synthesized in the above, and it is possible to acquire an appropriate composite image without any deviation in the blood vessel image.

また、本発明の画像取得装置において、撮像部により撮像された複数の特殊画像を時系列で順次表示させ、その順次表示される複数の特殊画像のうちの少なくとも1つの特殊画像を第1の特殊画像として選択するようにした場合には、操作者が合成対象としたい所望の特殊画像を容易に選択することができる。   In the image acquisition device of the present invention, a plurality of special images picked up by the image pickup unit are sequentially displayed in time series, and at least one of the plurality of special images displayed in order is displayed as the first special image. When selecting as an image, the operator can easily select a desired special image to be synthesized.

また、所定の通常画像または所定の特殊画像における関心領域の設定を受け付け、所定の通常画像において設定された関心領域に対応する複数の特殊画像の各関心領域内の画素信号または所定の特殊画像において設定された関心領域に対応する複数の特殊画像の各関心領域内の画素信号に基づいて第1の特殊画像を選択するようにした場合には、操作者が意識することなく自動的に装置が適切な合成対象の画像を選択することができるので、操作者の手間を省くことができる。   In addition, the setting of a region of interest in a predetermined normal image or a predetermined special image is accepted, and in a pixel signal or a predetermined special image in each region of interest of a plurality of special images corresponding to the region of interest set in the predetermined normal image When the first special image is selected on the basis of the pixel signal in each region of interest of the plurality of special images corresponding to the set region of interest, the apparatus automatically operates without being aware of the operator. Since an appropriate image to be synthesized can be selected, the operator's trouble can be saved.

また、撮像部により撮像された複数の特殊画像を同時に表示し、その同時に表示された複数の特殊画像のうちの少なくとも1つの特殊画像を第1の特殊画像として選択するようにした場合には、過去の画像同志を比較しながら、より適切な合成対象の画像を選択することができる。   When a plurality of special images captured by the imaging unit are displayed at the same time, and at least one special image among the plurality of special images displayed at the same time is selected as the first special image, A more appropriate image to be combined can be selected while comparing past images.

また、第3の特殊画像だけでなく、第2の特殊画像も第2の通常画像に合成して合成画像を取得するようにした場合には、第2の時点の特殊画像の発光状態も反映させた合成画像を取得することができる。   In addition, when the second special image is combined with the second normal image to obtain the composite image in addition to the third special image, the light emission state of the special image at the second time point is also reflected. It is possible to acquire the synthesized image.

また、第1の特殊画像として複数のものを用いるようにした場合には、たとえば、第1の特殊画像として、互いに発光タイミングが異なる動脈の特殊画像と静脈の特殊画像とを取得し、これらを通常画像に合成した合成画像を取得することができるので、複数の関心部位を一度に観察することができる。   When a plurality of first special images are used, for example, as a first special image, an arterial special image and a vein special image having different emission timings are obtained, and these are acquired. Since a synthesized image synthesized with a normal image can be acquired, a plurality of regions of interest can be observed at once.

本発明の画像取得装置の一実施形態を用いた腹腔鏡システムの概略構成図Schematic configuration diagram of a laparoscopic system using an embodiment of the image acquisition device of the present invention 硬質挿入部の概略構成図Schematic configuration diagram of hard insertion part 撮像ユニットの概略構成図Schematic configuration diagram of the imaging unit 画像処理装置および光源装置の概略構成を示すブロック図The block diagram which shows schematic structure of an image processing apparatus and a light source device 画像処理部の概略構成を示すブロック図Block diagram showing schematic configuration of image processing unit 過去の蛍光画像信号に動き補正を施した後、現在の通常画像信号に合成する作用を説明するためのフローチャートFlowchart for explaining the operation of applying motion correction to the past fluorescent image signal and then combining it with the current normal image signal 動き特徴量の取得方法を説明するためのフローチャートFlowchart for explaining a method for acquiring a motion feature amount 特徴点の一例を示す図Diagram showing an example of feature points マッチング演算処理の作用を説明するための図Diagram for explaining the operation of the matching calculation process 動き補正処理を説明するための図Diagram for explaining motion correction processing 動き補正処理後の蛍光画像信号の矩形領域の一例を示す図The figure which shows an example of the rectangular area | region of the fluorescence image signal after a motion correction process エッジ検出を用いた線分抽出処理を説明するためのフローチャートFlowchart for explaining line segment extraction processing using edge detection 合成画像の一例を示す図Diagram showing an example of a composite image 蛍光画像上における関心領域の設定を説明するための図The figure for demonstrating the setting of the region of interest on a fluorescence image 選択ボタンの表示態様の一例を示す図The figure which shows an example of the display mode of a selection button 過去の蛍光画像のサムネイル画像の表示態様の一例を示す図The figure which shows an example of the display mode of the thumbnail image of the past fluorescence image

以下、図面を参照して本発明の画像取得装置の一実施形態を用いた腹腔鏡システムについて詳細に説明する。図1は、本実施形態の腹腔鏡システム1の概略構成を示す外観図である。   Hereinafter, a laparoscopic system using an embodiment of an image acquisition device of the present invention will be described in detail with reference to the drawings. FIG. 1 is an external view showing a schematic configuration of a laparoscopic system 1 of the present embodiment.

本実施形態の腹腔鏡システム1は、図1に示すように、白色の通常光および特殊光を同時に射出する光源装置2と、光源装置2から射出された通常光および特殊光を導光して被観察部に照射するとともに、通常光の照射により被観察部から反射された反射光に基づく通常像および特殊光の照射により被観察部から発せられた蛍光に基づく蛍光像を撮像する硬性鏡撮像装置10と、硬性鏡撮像装置10によって撮像された画像信号に所定の処理を施す画像処理装置3と、画像処理装置3において生成された表示制御信号に基づいて被観察部の通常画像、蛍光画像および合成画像を表示するモニタ4とを備えている。   As shown in FIG. 1, the laparoscopic system 1 of the present embodiment guides the normal light and special light emitted from the light source device 2 and the light source device 2 that emits white normal light and special light simultaneously. Rigid mirror imaging that irradiates the observed part and captures a normal image based on reflected light reflected from the observed part by normal light irradiation and a fluorescent image based on fluorescence emitted from the observed part by special light irradiation An image processing apparatus 3 that performs predetermined processing on the image signal captured by the apparatus 10, the rigid endoscope imaging apparatus 10, and a normal image and a fluorescence image of the observed portion based on a display control signal generated by the image processing apparatus 3 And a monitor 4 for displaying a composite image.

硬性鏡撮像装置10は、図1に示すように、腹腔内に挿入される硬質挿入部30と、硬質挿入部30によって導光された被観察部の通常像および蛍光像を撮像する撮像ユニット20とを備えている。   As shown in FIG. 1, the rigid endoscope imaging apparatus 10 includes a hard insertion portion 30 that is inserted into the abdominal cavity and an imaging unit 20 that captures a normal image and a fluorescence image of the observed portion guided by the hard insertion portion 30. And.

また、硬性鏡撮像装置10は、図2に示すように、硬質挿入部30と撮像ユニット20とが着脱可能に接続されている。そして、硬質挿入部30は接続部材30a、挿入部材30b、ケーブル接続口30c、および照射窓30dを備えている。   In addition, as shown in FIG. 2, the rigid endoscope imaging apparatus 10 has a hard insertion portion 30 and an imaging unit 20 that are detachably connected. The hard insertion portion 30 includes a connection member 30a, an insertion member 30b, a cable connection port 30c, and an irradiation window 30d.

接続部材30aは、硬質挿入部30(挿入部材30b)の一端側30Xに設けられており、たとえば撮像ユニット20側に形成された開口20aに嵌め合わされることにより、撮像ユニット20と硬質挿入部30とが着脱可能に接続される。   The connection member 30a is provided on one end side 30X of the hard insertion portion 30 (insertion member 30b). For example, the connection member 30a is fitted into an opening 20a formed on the imaging unit 20 side, so that the imaging unit 20 and the hard insertion portion 30 are fitted. Are detachably connected.

挿入部材30bは、腹腔内の撮影を行う際に腹腔内に挿入されるものであって、硬質な材料から形成され、たとえば、直径略5mmの円柱形状を有している。挿入部材30bの内部には、被観察部の像を結像するためのレンズ群が収容されており、他端側30Yから入射された被観察部の通常像および蛍光像はレンズ群を介して一端側30Xの撮像ユニット20側に射出される。   The insertion member 30b is inserted into the abdominal cavity when photographing inside the abdominal cavity, and is formed of a hard material and has, for example, a cylindrical shape with a diameter of approximately 5 mm. A lens group for forming an image of the observed portion is accommodated inside the insertion member 30b, and the normal image and the fluorescent image of the observed portion incident from the other end 30Y pass through the lens group. The light is emitted to the imaging unit 20 side of the one end side 30X.

挿入部材30bの側面にはケーブル接続口30cが設けられており、このケーブル接続口30cに光ケーブルLCが機械的に接続される。これにより、光源装置2と挿入部材30bとが光ケーブルLCを介して光学的に接続されることになる。   A cable connection port 30c is provided on the side surface of the insertion member 30b, and the optical cable LC is mechanically connected to the cable connection port 30c. Thereby, the light source device 2 and the insertion member 30b are optically connected via the optical cable LC.

照射窓30dは、硬質挿入部30の他端側30Yに設けられており、光ケーブルLCによって導光された通常光および特殊光を被観察部に対し照射するものである。なお、挿入部材30b内にはケーブル接続口30cから照射窓30dまで通常光および特殊光を導光するライトガイドが収容されており(図示せず)、照射窓30dはライトガイドによって導光された通常光および特殊光を被観察部に照射するものである。   The irradiation window 30d is provided on the other end 30Y of the hard insertion portion 30, and irradiates the observed portion with normal light and special light guided by the optical cable LC. The insertion member 30b accommodates a light guide (not shown) for guiding normal light and special light from the cable connection port 30c to the irradiation window 30d. The irradiation window 30d is guided by the light guide. The target part is irradiated with normal light and special light.

図3は、撮像ユニット20の概略構成を示す図である。撮像ユニット20は、硬質挿入部30内のレンズ群により結像された被観察部の蛍光像を撮像して被観察部の蛍光画像信号を生成する第1の撮像系と、硬質挿入部30内のレンズ群により結像された被観察部の通常像を撮像して通常画像信号を生成する第2の撮像系とを備えている。これらの撮像系は、通常像を反射するとともに、蛍光像を透過する分光特性を有するダイクロイックプリズム21によって、互いに直交する2つの光軸に分けられている。   FIG. 3 is a diagram illustrating a schematic configuration of the imaging unit 20. The imaging unit 20 includes a first imaging system that captures a fluorescent image of the observed portion formed by the lens group in the hard insertion portion 30 and generates a fluorescent image signal of the observed portion, and the hard insertion portion 30. And a second imaging system that generates a normal image signal by capturing a normal image of the observed portion formed by the lens group. These imaging systems are divided into two optical axes orthogonal to each other by a dichroic prism 21 having a spectral characteristic that reflects a normal image and transmits a fluorescent image.

第1の撮像系は、被観察部において反射し、ダイクロイックプリズム21を透過した特殊光をカットする特殊光カットフィルタ22と、硬質挿入部30から射出され、ダイクロイックプリズム21および特殊光カットフィルタ22を透過した蛍光像L4を結像する第1結像光学系23と、第1結像光学系23により結像された蛍光像L4を撮像する高感度撮像素子24とを備えている。   The first imaging system includes a special light cut filter 22 that cuts off the special light reflected at the observed portion and transmitted through the dichroic prism 21, and the dichroic prism 21 and the special light cut filter 22 emitted from the hard insertion portion 30. A first imaging optical system 23 that images the transmitted fluorescent image L4 and a high-sensitivity imaging element 24 that images the fluorescent image L4 imaged by the first imaging optical system 23 are provided.

第2の撮像系は、硬質挿入部30から射出され、ダイクロイックプリズム21を反射した通常像L3を結像する第2結像光学系25と、第2結像光学系25により結像された通常像L3を撮像する撮像素子26を備えている。   The second imaging system is a normal image formed by the second imaging optical system 25 and a second imaging optical system 25 that forms a normal image L3 emitted from the hard insertion portion 30 and reflected by the dichroic prism 21. An image sensor 26 that captures the image L3 is provided.

高感度撮像素子24は、蛍光像L4の波長帯域の光を高感度に検出し、蛍光画像信号に変換して出力するものである。高感度撮像素子24はモノクロの撮像素子である。   The high-sensitivity imaging element 24 detects light in the wavelength band of the fluorescent image L4 with high sensitivity, converts it into a fluorescent image signal, and outputs it. The high sensitivity image sensor 24 is a monochrome image sensor.

撮像素子26は、通常像の波長帯域の光を検出し、通常画像信号に変換して出力するものである。撮像素子26の撮像面には、3原色の赤(R)、緑(G)および青(B)、またはシアン(C)、マゼンダ(M)およびイエロー(Y)のカラーフィルタがベイヤー配列またはハニカム配列で設けられている。   The image sensor 26 detects light in the wavelength band of the normal image, converts it into a normal image signal, and outputs it. On the image pickup surface of the image pickup element 26, color filters of three primary colors red (R), green (G) and blue (B), or cyan (C), magenta (M) and yellow (Y) are arranged in a Bayer array or a honeycomb. It is provided in an array.

また、撮像ユニット20は、撮像制御ユニット27を備えている。撮像制御ユニット27は、高感度撮像素子24から出力された蛍光画像信号および撮像素子26から出力された通常画像信号に対し、CDS/AGC(相関二重サンプリング/自動利得制御)処理やA/D変換処理を施し、ケーブル5(図1参照)を介して画像処理装置3に出力するものである。   In addition, the imaging unit 20 includes an imaging control unit 27. The imaging control unit 27 performs CDS / AGC (correlated double sampling / automatic gain control) processing and A / D on the fluorescence image signal output from the high-sensitivity imaging device 24 and the normal image signal output from the imaging device 26. A conversion process is performed and output to the image processing apparatus 3 via the cable 5 (see FIG. 1).

画像処理装置3は、図4に示すように、通常画像入力コントローラ31、蛍光画像入力コントローラ32、画像処理部33、メモリ34、ビデオ出力部35、操作部36、TG(タイミングジェネレータ)37およびCPU38を備えている。   As shown in FIG. 4, the image processing apparatus 3 includes a normal image input controller 31, a fluorescence image input controller 32, an image processing unit 33, a memory 34, a video output unit 35, an operation unit 36, a TG (timing generator) 37, and a CPU 38. It has.

通常画像入力コントローラ31および蛍光画像入力コントローラ32は、所定容量のラインバッファを備えており、撮像ユニット20の撮像制御ユニット27から出力された1フレーム毎の通常画像信号および蛍光画像信号をそれぞれ一時的に記憶するものである。そして、通常画像入力コントローラ31に記憶された通常画像信号および蛍光画像入力コントローラ32に記憶された蛍光画像信号はバスを介してメモリ34に格納される。   The normal image input controller 31 and the fluorescence image input controller 32 include a line buffer having a predetermined capacity, and temporarily store the normal image signal and the fluorescence image signal for each frame output from the imaging control unit 27 of the imaging unit 20. To remember. Then, the normal image signal stored in the normal image input controller 31 and the fluorescent image signal stored in the fluorescent image input controller 32 are stored in the memory 34 via the bus.

画像処理部33は、メモリ34から読み出された1フレーム毎の通常画像信号および蛍光画像信号が入力され、これらの画像信号に所定の画像処理を施し、バスに出力するものである。画像処理部33のより具体的な構成を図5に示す。   The image processing unit 33 receives a normal image signal and a fluorescence image signal for each frame read from the memory 34, performs predetermined image processing on these image signals, and outputs them to the bus. A more specific configuration of the image processing unit 33 is shown in FIG.

画像処理部33は、図5に示すように、入力された通常画像信号に対し、通常画像に適した所定の画像処理を施して出力する通常画像処理部33aと、入力された2つのフレームの通常画像信号に基づいて、被観察部の動き特徴量を取得する動き特徴量取得部33bと、入力された蛍光画像信号に対し、蛍光画像に適した所定の画像処理を施して出力する蛍光画像処理部33cと、過去に撮像された蛍光画像信号に対して、上記動き特徴量に基づいて動き補正を施す動き補正部33dと、動き補正部33dによって動き補正の施された過去の蛍光画像信号と現在の蛍光画像信号に対して、血管を表す画像信号を抽出する処理を施す血管抽出部33eと、過去の蛍光画像信号から抽出された血管を表す画像信号(以下、「過去血管蛍光画像信号」という)と現在の蛍光画像信号から抽出された血管を表す画像信号(以下、「現在血管蛍光画像信号」という)とを、通常画像処理部33aから出力された通常画像信号に合成して合成画像信号を生成する画像合成部33fとを備えている。なお、画像処理部33の各部における処理については、後で詳述する。   As shown in FIG. 5, the image processing unit 33 performs normal image processing unit 33 a that performs predetermined image processing suitable for the normal image on the input normal image signal, and outputs the normal image signal. Based on the normal image signal, the motion feature amount acquisition unit 33b that acquires the motion feature amount of the observed portion, and the fluorescence image that is output by performing predetermined image processing suitable for the fluorescence image on the input fluorescence image signal A processing unit 33c, a motion correction unit 33d that performs motion correction on the fluorescence image signal captured in the past based on the motion feature amount, and a past fluorescence image signal that has undergone motion correction by the motion correction unit 33d And a blood vessel extraction unit 33e for performing processing for extracting an image signal representing a blood vessel on the current fluorescence image signal, and an image signal representing a blood vessel extracted from the past fluorescence image signal (hereinafter referred to as “past blood vessel fluorescence image signal”). ) And an image signal representing a blood vessel extracted from the current fluorescence image signal (hereinafter referred to as “current blood vessel fluorescence image signal”) and a normal image signal output from the normal image processing unit 33a to synthesize the composite image. And an image composition unit 33f for generating a signal. The processing in each part of the image processing unit 33 will be described in detail later.

ビデオ出力部35は、画像処理部33から出力された通常画像信号、蛍光画像信号および合成画像信号がバスを介して入力され、所定の処理を施して表示制御信号を生成し、その表示制御信号をモニタ4に出力するものである。   The video output unit 35 receives the normal image signal, the fluorescence image signal, and the composite image signal output from the image processing unit 33 via the bus, performs predetermined processing to generate a display control signal, and displays the display control signal. Is output to the monitor 4.

操作部36は、種々の操作指示や制御パラメータなどの操作者による入力を受け付けるものである。また、TG37は、撮像ユニット20の高感度撮像素子24、撮像素子26および後述する光源装置2のLDドライバ45を駆動するための駆動パルス信号を出力するものである。また、CPU36は装置全体を制御するものである。   The operation unit 36 receives input by the operator such as various operation instructions and control parameters. The TG 37 outputs a driving pulse signal for driving the high-sensitivity imaging device 24, the imaging device 26 of the imaging unit 20, and the LD driver 45 of the light source device 2 described later. The CPU 36 controls the entire apparatus.

光源装置2は、図4に示すように、約400〜700nmの広帯域の波長からなる通常光(白色光)L1を射出する通常光源40と、通常光源40から射出された通常光L1を集光する集光レンズ42と、集光レンズ42によって集光された通常光L1を透過するとともに、後述する特殊光L2を反射し、通常光L1および特殊光L2とを光ケーブルLCの入射端に入射させるダイクロイックミラー43とを備えている。なお、通常光源40としては、たとえばキセノンランプが用いられる。また、通常光源40と集光レンズ42との間には、絞り41が設けられており、ALC(Automatic light control)からの制御信号に基づいてその絞り量が制御される。   As shown in FIG. 4, the light source device 2 condenses the normal light source 40 that emits normal light (white light) L <b> 1 having a broadband wavelength of about 400 to 700 nm and the normal light L <b> 1 emitted from the normal light source 40. And the normal light L1 collected by the condensing lens 42 is transmitted, the special light L2 described later is reflected, and the normal light L1 and the special light L2 are incident on the incident end of the optical cable LC. And a dichroic mirror 43. For example, a xenon lamp is used as the normal light source 40. A diaphragm 41 is provided between the normal light source 40 and the condenser lens 42, and the amount of the diaphragm is controlled based on a control signal from ALC (Automatic light control).

また、光源装置2は、700nm〜800nmの可視から近赤外帯域の光であり、たとえば蛍光色素としてICG(インドシアニングリーン)を用いた場合には750〜790nmの近赤外光を特殊光L2として射出するLD光源44と、LD光源44を駆動するLDドライバ45と、LD光源44から射出された特殊光L2を集光する集光レンズ46と、集光レンズ46によって集光された特殊光りL2をダイクロイックミラー43に向けて反射するミラー47とを備えている。   The light source device 2 is light in the visible to near-infrared band of 700 nm to 800 nm. For example, when ICG (Indocyanine Green) is used as a fluorescent dye, near-infrared light of 750 to 790 nm is used as the special light L2. The LD light source 44 that emits the light, the LD driver 45 that drives the LD light source 44, the condensing lens 46 that condenses the special light L2 emitted from the LD light source 44, and the special light condensed by the condensing lens 46 And a mirror 47 that reflects L2 toward the dichroic mirror 43.

なお、特殊光L2としては、広帯域の波長からなる通常光よりも狭帯域の波長が用いられる。そして、特殊光L2としては上記波長域の光に限定されず、蛍光色素の種類もしくは自家蛍光させる生体組織の種類によって適宜決定される。   As the special light L2, a wavelength in a narrower band than normal light having a wideband wavelength is used. The special light L2 is not limited to light in the above wavelength range, and is determined as appropriate depending on the type of fluorescent dye or the type of living tissue to be autofluorescent.

また、光源装置2は、光ケーブルLCを介して硬性鏡撮像装置10に光学的に接続されている。   The light source device 2 is optically connected to the rigid mirror imaging device 10 via the optical cable LC.

次に、本実施形態の腹腔鏡システムの作用について説明する。   Next, the operation of the laparoscopic system of this embodiment will be described.

まず、光ケーブルLCが接続された硬質挿入部30およびケーブル5が撮像ユニット20に取り付けられた後、光源装置2および撮像ユニット20および画像処理装置3の電源が投入され、これらが駆動される。   First, after the hard insertion portion 30 and the cable 5 to which the optical cable LC is connected are attached to the imaging unit 20, the light source device 2, the imaging unit 20, and the image processing device 3 are powered on and driven.

次に、操作者により硬質挿入部30が腹腔内に挿入され、硬質挿入部30の先端が被観察部の近傍に設置される。   Next, the hard insertion portion 30 is inserted into the abdominal cavity by the operator, and the distal end of the hard insertion portion 30 is placed in the vicinity of the observed portion.

そして、光源装置2の通常光源40から射出された通常光L1が、集光レンズ42、ダイクロイックミラー43および光ケーブルLCを介して硬質挿入部30に入射され、硬質挿入部30の照射窓30dから被観察部に照射される。一方、光源装置2のLD光源44から射出された特殊光L2が、集光レンズ46、ミラー47、ダイクロイックミラー43および光ケーブルLCを介して硬質挿入部30に入射され、硬質挿入部30の照射窓30dから被観察部に通常光と同時に照射される。なお、同時に照射するとは、必ずしも照射期間が完全に一致している必要はなく、少なくとも一部の照射期間が重複していればよい。   Then, the normal light L1 emitted from the normal light source 40 of the light source device 2 is incident on the hard insertion portion 30 via the condenser lens 42, the dichroic mirror 43, and the optical cable LC, and is irradiated from the irradiation window 30d of the hard insertion portion 30. Irradiate the observation part. On the other hand, the special light L2 emitted from the LD light source 44 of the light source device 2 is incident on the hard insertion portion 30 via the condenser lens 46, the mirror 47, the dichroic mirror 43, and the optical cable LC, and the irradiation window of the hard insertion portion 30 From 30d, the observed part is irradiated simultaneously with the normal light. Note that the simultaneous irradiation does not necessarily mean that the irradiation periods are completely the same, and it is sufficient that at least some of the irradiation periods overlap.

そして、通常光L1の照射によって被観察部から反射された反射光に基づく通常像が撮像されるとともに、特殊光L2の照射によって被観察部から発せられた蛍光に基づく蛍光像が通常像と同時に撮像される。なお、被観察部には、予めICGが投与されており、このICGから発せられる蛍光を撮像するものとする。   Then, a normal image based on the reflected light reflected from the observed portion by the irradiation of the normal light L1 is captured, and a fluorescent image based on the fluorescence emitted from the observed portion by the irradiation of the special light L2 is simultaneously with the normal image. Imaged. It should be noted that ICG is administered to the observed part in advance, and fluorescence emitted from the ICG is imaged.

より具体的には、通常像の撮像の際には、通常光L1の照射によって被観察部から反射された反射光に基づく通常像L3が挿入部材30bの先端30Yから入射し、挿入部材30b内のレンズ群により導光されて撮像ユニット20に向けて射出される。   More specifically, when the normal image is captured, the normal image L3 based on the reflected light reflected from the observed portion by the irradiation of the normal light L1 is incident from the tip 30Y of the insertion member 30b, and the inside of the insertion member 30b. Are guided by the lens group and emitted toward the imaging unit 20.

撮像ユニット20に入射された通常像L3は、ダイクロイックプリズム21により撮像素子26に向けて直角方向に反射され、第2結像光学系25により撮像素子26の撮像面上に結像され、撮像素子26によって所定間隔を空けて順次撮像される。なお、本実施形態においては、通常画像は30fpsのフレームレートで撮像されるものとする。   The normal image L3 incident on the imaging unit 20 is reflected by the dichroic prism 21 in the direction perpendicular to the imaging element 26, and is imaged on the imaging surface of the imaging element 26 by the second imaging optical system 25. 26 sequentially captures images at predetermined intervals. In the present embodiment, it is assumed that a normal image is captured at a frame rate of 30 fps.

撮像素子26から順次出力された通常画像信号は、撮像制御ユニット27においてCDS/AGC(相関二重サンプリング/自動利得制御)処理やA/D変換処理が施された後、ケーブル5を介して画像処理装置3に順次出力される。   The normal image signal sequentially output from the image sensor 26 is subjected to CDS / AGC (correlated double sampling / automatic gain control) processing and A / D conversion processing in the imaging control unit 27, and then the image is transmitted through the cable 5. The data is sequentially output to the processing device 3.

一方、蛍光像の撮像の際には、特殊光の照射によって被観察部から発せられた蛍光に基づく蛍光像L4が挿入部材30bの先端30Yから入射し、挿入部材30b内のレンズ群により導光されて撮像ユニット20に向けて射出される。   On the other hand, when the fluorescent image is picked up, a fluorescent image L4 based on the fluorescence emitted from the observed portion by the special light irradiation enters from the tip 30Y of the insertion member 30b and is guided by the lens group in the insertion member 30b. And emitted toward the imaging unit 20.

撮像ユニット20に入射された蛍光像L4は、ダイクロイックプリズム21および特殊光カットフィルタ22を通過した後、第1結像光学系23により高感度撮像素子24の撮像面上に結像され、高感度撮像素子24によって所定間隔を空けて撮像される。なお、本実施形態においては、通常画像は5〜10fpsのフレームレートで撮像されるものとする。   The fluorescent image L4 incident on the imaging unit 20 passes through the dichroic prism 21 and the special light cut filter 22, and then is imaged on the imaging surface of the high-sensitivity imaging device 24 by the first imaging optical system 23, and has high sensitivity. Images are taken at a predetermined interval by the image sensor 24. In the present embodiment, it is assumed that the normal image is captured at a frame rate of 5 to 10 fps.

高感度撮像素子24から順次出力された蛍光画像信号は、撮像制御ユニット27においてCDS/AGC(相関二重サンプリング/自動利得制御)処理やA/D変換処理が施された後、ケーブル5を介して画像処理装置3に順次出力される。   The fluorescent image signals sequentially output from the high-sensitivity image sensor 24 are subjected to CDS / AGC (correlated double sampling / automatic gain control) processing and A / D conversion processing in the imaging control unit 27, and then passed through the cable 5. Are sequentially output to the image processing apparatus 3.

次に、上記のようにして撮像ユニット20において撮像された通常画像信号および蛍光画像信号に基づいて通常画像、蛍光画像および合成画像を表示する作用について、図5から図15を参照しながら説明する。   Next, the operation of displaying the normal image, the fluorescence image, and the composite image based on the normal image signal and the fluorescence image signal captured by the imaging unit 20 as described above will be described with reference to FIGS. .

まず、通常画像および蛍光画像を表示する作用について説明する。画像処理装置3に入力された通常画像信号は、通常画像入力コントローラ31において一時的に記憶された後、メモリ34に格納される。そして、メモリ34から読み出された1フレーム毎の通常画像信号は、画像処理部33の通常画像処理部33aにおいて階調補正処理およびシャープネス補正処理が施された後、ビデオ出力部35に順次出力される。   First, the operation of displaying a normal image and a fluorescent image will be described. The normal image signal input to the image processing device 3 is temporarily stored in the normal image input controller 31 and then stored in the memory 34. The normal image signal for each frame read from the memory 34 is subjected to gradation correction processing and sharpness correction processing in the normal image processing unit 33a of the image processing unit 33, and then sequentially output to the video output unit 35. Is done.

そして、ビデオ出力部35は、入力された通常画像信号に所定の処理を施して表示制御信号を生成し、1フレーム毎の表示制御信号をモニタ4に順次出力する。そして、モニタ4は、入力された表示制御信号に基づいて通常画像を表示する。   Then, the video output unit 35 performs a predetermined process on the input normal image signal to generate a display control signal, and sequentially outputs the display control signal for each frame to the monitor 4. The monitor 4 displays a normal image based on the input display control signal.

また、画像処理装置3に入力された蛍光画像信号は、蛍光画像入力コントローラ32において一時的に記憶された後、メモリ34に格納される。そして、メモリ34から読み出された1フレーム毎の蛍光画像信号は、画像処理部33の蛍光画像処理部33cにおいて所定の画像処理が施された後、ビデオ出力部35に順次出力される。   The fluorescence image signal input to the image processing device 3 is temporarily stored in the fluorescence image input controller 32 and then stored in the memory 34. Then, the fluorescence image signal for each frame read from the memory 34 is subjected to predetermined image processing in the fluorescence image processing unit 33 c of the image processing unit 33 and then sequentially output to the video output unit 35.

そして、ビデオ出力部35は、入力された蛍光画像信号に所定の処理を施して表示制御信号を生成し、1フレーム毎の表示制御信号をモニタ4に順次出力する。そして、モニタ4は、入力された表示制御信号に基づいて蛍光画像を表示する。   The video output unit 35 performs a predetermined process on the input fluorescent image signal to generate a display control signal, and sequentially outputs the display control signal for each frame to the monitor 4. The monitor 4 displays a fluorescent image based on the input display control signal.

次に、通常画像信号および蛍光画像信号を合成して合成画像を表示する作用について説明する。   Next, the operation of displaying the composite image by combining the normal image signal and the fluorescence image signal will be described.

ここで、本実施形態の腹腔鏡システムにおいては、上述したように被観察部の血管中を流れるICGの蛍光を撮像するが、ICGは血管の同一箇所に留まっているわけではなく血流とともに流れるものであるので、現在撮像している通常画像信号と蛍光画像信号とを単に合成したのでは、既にICGが流れてしまった後であり、現在の蛍光画像信号にICGの蛍光が十分に現れていない場合がある。   Here, in the laparoscopic system of the present embodiment, the fluorescence of ICG flowing in the blood vessel of the observed part is imaged as described above, but the ICG does not stay in the same place of the blood vessel but flows with the blood flow. Therefore, simply synthesizing the normal image signal and the fluorescent image signal that are currently captured is after the ICG has already flowed, and the fluorescence of the ICG sufficiently appears in the current fluorescent image signal. There may not be.

そこで、本実施形態の腹腔鏡システムにおいては、現在の通常画像信号に対して、現在の蛍光画像信号だけでなく、ICGが被観察部の血管中を流れていた時点において撮像された過去の蛍光画像信号も合成する。   Therefore, in the laparoscopic system of the present embodiment, not only the current fluorescence image signal but also the past fluorescence imaged at the time when the ICG was flowing in the blood vessel of the observed portion with respect to the current normal image signal. The image signal is also synthesized.

そして、さらに、過去の蛍光画像信号を現在の通常画像信号に合成する際、過去の蛍光画像信号を撮像したときの被観察部の形態と現在の通常画像信号を撮像したときの被観察部の形態とが拍動によって異なる形態となっている場合があり、このような場合に過去の蛍光画像信号と現在の通常画像信号とをそのまま合成したのでは血管の画像にずれが生じて適切な合成画像を生成することができない。   Further, when the past fluorescent image signal is combined with the current normal image signal, the form of the observed portion when the past fluorescent image signal is imaged and the observed portion when the current normal image signal is imaged. The form may differ depending on the pulsation. In such a case, if the past fluorescence image signal and the current normal image signal are synthesized as they are, a deviation occurs in the blood vessel image and appropriate synthesis is performed. An image cannot be generated.

そこで、本実施形態の腹腔鏡システムにおいては、上記のような血管画像のずれが生じないように過去の蛍光画像信号に動き補正を施すようにしている。   Therefore, in the laparoscopic system of the present embodiment, motion correction is performed on the past fluorescence image signal so that the blood vessel image does not shift as described above.

以下に、過去の蛍光画像信号に動き補正を施した後、現在の通常画像信号に合成する作用についてより詳細に説明する。   Hereinafter, the operation of performing motion correction on the past fluorescent image signal and then combining it with the current normal image signal will be described in more detail.

まず、上述したように、画像処理装置3のメモリ34には、撮像ユニット20において所定間隔を空けて時系列に撮像された多数の通常画像信号と蛍光画像信号とが記憶されている。   First, as described above, the memory 34 of the image processing apparatus 3 stores a large number of normal image signals and fluorescent image signals that are imaged in time series at predetermined intervals in the imaging unit 20.

そして、図6に示すように、メモリ34に記憶された多数の過去の蛍光画像信号のうち、ICGの蛍光が適切に現れていると思われる1つの蛍光画像信号を第1の蛍光画像信号IF(old)として取得する(図6のS10)。なお、この第1の蛍光画像信号IF(old)の選択方法については、後で詳述する。   Then, as shown in FIG. 6, among the many past fluorescence image signals stored in the memory 34, one fluorescence image signal in which the fluorescence of ICG appears to appear appropriately is designated as the first fluorescence image signal IF. (Old) is acquired (S10 in FIG. 6). A method for selecting the first fluorescent image signal IF (old) will be described in detail later.

一方、メモリ34に記憶された多数の過去の通常画像信号のうち、S10で選択した第1の蛍光画像信号IF(old)と同じ時点において撮像された1つの通常画像信号を第1の通常画像信号IV(old)として取得する(図6のS12)。なお、上述したように、通常画像信号と蛍光画像信号の撮像間隔(フレームレート)は、互いに異なるものであるが、これらの位相は合っているものとする。すなわち、蛍光画像信号の方が撮像間隔が長いので、蛍光画像信号が撮像されているタイミングで通常画像信号も必ず撮像されているものとする。そして、同じ撮像タイミングで撮像された通常画像信号と蛍光画像信号とは対応付けがされてメモリ34に記憶されているものとする。   On the other hand, among the many past normal image signals stored in the memory 34, one normal image signal captured at the same time as the first fluorescent image signal IF (old) selected in S10 is used as the first normal image. Obtained as a signal IV (old) (S12 in FIG. 6). Note that, as described above, the imaging intervals (frame rates) of the normal image signal and the fluorescence image signal are different from each other, but they are assumed to be in phase. That is, since the fluorescence image signal has a longer imaging interval, it is assumed that the normal image signal is always captured at the timing when the fluorescence image signal is captured. It is assumed that the normal image signal and the fluorescence image signal captured at the same imaging timing are associated with each other and stored in the memory 34.

そして、上記のようにして取得した第1の通常画像信号IV(old)と現在の通常画像信号IV(new)(以下、「第2の通常画像信号IV(new)」という)とが、動き特徴量取得部33bに入力される。そして、動き特徴量取得部33bにおいて、第1の通常画像信号IV(old)と第2の通常画像信号IV(new)とに基づいて、被観察部の動き特徴量が算出される(図6のS14)。   Then, the first normal image signal IV (old) and the current normal image signal IV (new) (hereinafter referred to as “second normal image signal IV (new)”) acquired as described above move. It is input to the feature amount acquisition unit 33b. Then, the motion feature amount acquisition unit 33b calculates the motion feature amount of the observed portion based on the first normal image signal IV (old) and the second normal image signal IV (new) (FIG. 6). S14).

以下、動き特徴量の算出方法について、図7のフローチャートを参照しながら詳細に説明する。   Hereinafter, a method for calculating the motion feature amount will be described in detail with reference to the flowchart of FIG.

まず、上述したように、動き特徴量取得部33bにおいて、第1の通常画像信号IV(old)と第2の通常画像信号IV(new)が取得される(図7のS30)。そして、カラー画像信号である第1および第2の通常画像信号IV(old),IV(new)に対して、グレー画像処理が施されてグレー画像信号に変換される(図7のS32)。次に、グレー画像信号である第1および第2の通常画像信号IV(old),IV(new)に対して、コントラスト強調処理が施される(図7のS34)。このようにグレー画像処理およびコントラスト強調処理を施すのは、後述する特徴点抽出処理において特徴点を抽出しやすくするためである。   First, as described above, the motion feature quantity acquisition unit 33b acquires the first normal image signal IV (old) and the second normal image signal IV (new) (S30 in FIG. 7). Then, the first and second normal image signals IV (old) and IV (new), which are color image signals, are subjected to gray image processing and converted into gray image signals (S32 in FIG. 7). Next, contrast enhancement processing is performed on the first and second normal image signals IV (old) and IV (new) which are gray image signals (S34 in FIG. 7). The reason why the gray image processing and the contrast enhancement processing are performed in this way is to facilitate feature point extraction in feature point extraction processing described later.

そして、次に、コントラスト強調処理の施された第1および第2の通常画像信号IV(old),IV(new)に対して多重解像度画像生成処理が施され、それぞれの通常画像信号について、種々の解像度の通常画像信号が生成される(図7のS36)。なお、以下、第1の通常画像信号IV(old)に基づいて生成された種々の解像度の通常画像信号を第1の多重解像度画像信号IV(old)1〜mとし、第2の通常画像信号IV(new)に基づいて生成された種々の解像度の通常画像信号を第2の多重解像度信号IV(new)1〜nとする。このように多重解像度画像生成処理を行うのは、後述する特徴点抽出処理において、荒い解像度の多重解像度画像信号を用いて大まかな特徴点を抽出し、細かい解像度の多重解像度画像信号を用いて細かい特徴点を抽出するためである。 Next, multi-resolution image generation processing is performed on the first and second normal image signals IV (old) and IV (new) on which the contrast enhancement processing has been performed. A normal image signal having a resolution of 1 is generated (S36 in FIG. 7). Hereinafter, normal image signals of various resolutions generated based on the first normal image signal IV (old) are referred to as first multi-resolution image signals IV (old) 1 to m, and the second normal image signal. The normal image signals having various resolutions generated based on IV (new) are defined as second multi-resolution signals IV (new) 1 to n . In this way, the multi-resolution image generation process is performed by extracting rough feature points using a coarse-resolution multi-resolution image signal and fine-resolution using a multi-resolution image signal having a fine resolution. This is for extracting feature points.

そして、上記のようにして生成された第1および第2の多重解像度画像信号IV(old)1〜m,IV(new)1〜nに対して、ノイズ除去のための平滑化処理が施される(図7のS38)。 The first and second multi-resolution image signals IV (old) 1- m and IV (new) 1- n generated as described above are subjected to smoothing processing for noise removal. (S38 in FIG. 7).

次に、平滑化処理の施された第1および第2の多重解像度画像信号IV(old)1〜m,IV(new)1〜nに対して特徴点抽出処理が施され、各多重解像度画像信号について特徴点が抽出される(図7のS40)。特徴点抽出処理としては、たとえば、Hessain手法やHarris手法を用いた、いわゆるコーナー抽出法を用いることができる。または、DOG(Difference of Gaussian)やHOG(Histograms of Oriented Gradients)を用いて特徴点を抽出するようにしてもよい。これらの特徴点抽出の手法については公知であるので詳細な説明は省略する。図8に、特徴点抽出処理によって特徴点が抽出された多重解像度画像の1つの例を示す。 Next, feature point extraction processing is performed on the first and second multi-resolution image signals IV (old) 1 -m and IV (new) 1- n that have been subjected to smoothing processing, and each multi-resolution image is processed. Feature points are extracted from the signal (S40 in FIG. 7). As the feature point extraction process, for example, a so-called corner extraction method using the Hessain method or the Harris method can be used. Alternatively, feature points may be extracted using DOG (Difference of Gaussian) or HOG (Histograms of Oriented Gradients). Since these feature point extraction methods are known, a detailed description thereof will be omitted. FIG. 8 shows an example of a multi-resolution image from which feature points have been extracted by feature point extraction processing.

そして、次に、第1の通常画像信号IV(old)について抽出された特徴点と、第2の通常画像信号IV(new)について抽出された特徴点と対して、マッチング演算処理が施される(図7のS42)。マッチング演算処理とは、第1の通常画像信号IV(old)の特徴点と第2の通常画像信号IV(new)とで対応する特徴点の組を検出する演算処理である。具体的には、たとえば、一方の通常画像信号における所定の特徴点と、他方の通常画像信号における全ての特徴点間のユークリッド距離をそれぞれ演算し、そのユークリッド距離が最小となる2つの特徴点を対応する特徴点の組として検出するようにすればよい。図9に、第1の通常画像信号IV(old)と第2の通常画像信号IV(new)との間で対応する特徴点を直線で示した模式図を示す。   Then, a matching calculation process is performed on the feature points extracted for the first normal image signal IV (old) and the feature points extracted for the second normal image signal IV (new). (S42 in FIG. 7). The matching calculation process is a calculation process for detecting a pair of feature points corresponding to the feature points of the first normal image signal IV (old) and the second normal image signal IV (new). Specifically, for example, a Euclidean distance between a predetermined feature point in one normal image signal and all feature points in the other normal image signal is calculated, and two feature points having the minimum Euclidean distance are calculated. What is necessary is just to make it detect as a set of corresponding feature points. FIG. 9 shows a schematic diagram in which feature points corresponding to the first normal image signal IV (old) and the second normal image signal IV (new) are indicated by straight lines.

そして、上記のマッチング演算処理の結果に基づいて、第1の通常画像信号IV(old)の各特徴点から第2の通常画像信号IV(new)の対応する特徴点までの方向を示す動きベクトルが動き特徴量として算出される(図7のS44)。   Then, based on the result of the matching calculation process, a motion vector indicating the direction from each feature point of the first normal image signal IV (old) to the corresponding feature point of the second normal image signal IV (new). Is calculated as the movement feature amount (S44 in FIG. 7).

上記のようにして第1の通常画像信号IV(old)と第2の通常画像信号IV(new)とに基づいて、被観察部の動き特徴量が算出される(図6のS14)。   As described above, based on the first normal image signal IV (old) and the second normal image signal IV (new), the motion feature amount of the observed portion is calculated (S14 in FIG. 6).

次に、動き特徴量取得部33bにおいて取得された動き特徴量は、動き補正部33dに出力される。そして、動き補正部33dは、入力された動き特徴量に基づいて、第1の蛍光画像信号IF(old)に対して、動き補正処理を施す(図6のS16)。具体的には、まず、図10に示すように、第1の蛍光画像信号IF(old)を所定の大きさの矩形領域に区分するとともに、第1の蛍光画像信号IF(old)に対し第1の通常画像信号IV(old)の各特徴点とその動きベクトルとを対応づける。そして、各矩形領域のコーナーG近傍に存在する特徴点Dの中で最も評価値の高い特徴点Dの動きベクトルに基づいて各矩形領域を変形することによって第1の蛍光画像信号IF(old)を変形する。図11に、変形後の矩形領域およびそのコーナーG’の一例を示す。   Next, the motion feature amount acquired by the motion feature amount acquisition unit 33b is output to the motion correction unit 33d. Then, the motion correction unit 33d performs a motion correction process on the first fluorescent image signal IF (old) based on the input motion feature amount (S16 in FIG. 6). Specifically, first, as shown in FIG. 10, the first fluorescent image signal IF (old) is divided into rectangular regions of a predetermined size, and the first fluorescent image signal IF (old) is compared with the first fluorescent image signal IF (old). Each feature point of one normal image signal IV (old) is associated with its motion vector. Then, the first fluorescent image signal IF (old) is obtained by deforming each rectangular area based on the motion vector of the characteristic point D having the highest evaluation value among the characteristic points D existing in the vicinity of the corner G of each rectangular area. Transform. FIG. 11 shows an example of the rectangular region after deformation and its corner G ′.

そして、上記のようにして取得された動き補正処理の施された第1の蛍光画像信号IF(old)(以下、「第3の蛍光画像信号IF’(old)」という)および第2の蛍光画像信号IF(new)が、画像処理部33の血管抽出部33eに入力される。そして、血管抽出部33eにおいて各蛍光画像信号に対して血管抽出処理が施される(図6のS18,S20)。   Then, the first fluorescence image signal IF (old) (hereinafter referred to as “third fluorescence image signal IF ′ (old)”) subjected to the motion correction processing obtained as described above and the second fluorescence The image signal IF (new) is input to the blood vessel extraction unit 33e of the image processing unit 33. Then, blood vessel extraction processing is performed on each fluorescent image signal in the blood vessel extraction unit 33e (S18, S20 in FIG. 6).

血管抽出処理は、線分抽出処理を行うことによって行われる。本実施形態においては、エッジ検出とそのエッジ検出によって検出したエッジから孤立点を除去することによって線分抽出処理を行う。エッジ検出方法としては、たとえば、1次微分を用いたキャニー法を用いることができる。図12に、キャニー法によるエッジ検出を用いた線分抽出処理を説明するためのフローチャートを示す。   The blood vessel extraction process is performed by performing a line segment extraction process. In this embodiment, line segment extraction processing is performed by removing isolated points from edges detected by edge detection and edge detection. As an edge detection method, for example, a Canny method using first-order differentiation can be used. FIG. 12 is a flowchart for explaining line segment extraction processing using edge detection by the Canny method.

図12に示すように、まず、第2の蛍光画像信号IF(new)および第3の蛍光画像信号IF’(old)のそれぞれに対し、DOG(Derivative of Gaussian)フィルタを用いたフィルタ処理が施される(図12のS50〜S54)。このDOGフィルタを用いたフィルタ処理は、ノイズを減らすためのガウシアンフィルタ処理(平滑化処理)と濃度勾配を検出するためのx,y方向の1次微分フィルタ処理とを組み合わせた処理である。   As shown in FIG. 12, first, a filtering process using a DOG (Derivative of Gaussian) filter is performed on each of the second fluorescence image signal IF (new) and the third fluorescence image signal IF ′ (old). (S50 to S54 in FIG. 12). The filter process using the DOG filter is a process in which a Gaussian filter process (smoothing process) for reducing noise and a primary differential filter process in the x and y directions for detecting a density gradient are combined.

そして、フィルタ処理済の第2の蛍光画像信号IF(new)および第3の蛍光画像信号IF’(old)のそれぞれについて、濃度勾配の大きさと方向が計算される(図12のS56)。そして、濃度勾配の極大点を抽出し、それ以外の非極大点を除去する(図12のS58)。   Then, the magnitude and direction of the density gradient are calculated for each of the filtered second fluorescent image signal IF (new) and third fluorescent image signal IF ′ (old) (S56 in FIG. 12). Then, the local maximum point of the concentration gradient is extracted, and other non-maximal points are removed (S58 in FIG. 12).

そして、その極大点と所定の閾値とを比較し、所定の閾値以上の極大点をエッジとして検出する(図12のS60)。さらに、極大点であり所定の閾値以上であるが、連続したエッジを構成していない孤立点を除去する処理を行う(図12のS62)。孤立点の除去処理は、血管としては適当でない孤立点をエッジ検出結果から除去するための処理で、具体的には、検出された各エッジの長さをチェックすることによって孤立点を検出する。   Then, the maximum point is compared with a predetermined threshold value, and a maximum point equal to or greater than the predetermined threshold value is detected as an edge (S60 in FIG. 12). Further, a process of removing isolated points that are maximal points and are equal to or greater than a predetermined threshold but do not constitute a continuous edge is performed (S62 in FIG. 12). The isolated point removal process is a process for removing an isolated point that is not suitable as a blood vessel from the edge detection result. Specifically, the isolated point is detected by checking the length of each detected edge.

なお、エッジ検出のアルゴリズムは、上記に限らず、ノイズを減らすためのガウシアンフィルタ処理と2次微分処理とを行ってエッジを抽出するラプラシアンフィルタを組み合わせたLOG(Laplace of Gaussian)フィルタを用いてエッジ検出を行うようにしてもよい。   Note that the edge detection algorithm is not limited to the above, and the edge detection algorithm uses a LOG (Laplace of Gaussian) filter that combines a Laplacian filter that extracts edges by performing Gaussian filter processing for reducing noise and second-order differentiation processing. Detection may be performed.

また、本実施形態においては、エッジ検出を用いた線分抽出処理を行うことによって血管抽出を行うようにしたが、これに限らず、血管部分を抽出する処理であれば、たとえば、色相や輝度を用いた処理など如何なる処理を用いてもよい。   In the present embodiment, blood vessel extraction is performed by performing line segment extraction processing using edge detection. However, the present invention is not limited to this. Any processing, such as processing using the, may be used.

上記のようにして血管抽出処理を行うことによって、第2の蛍光画像信号IF(new)および第3の蛍光画像信号IF’(old)のそれぞれについて現在血管蛍光画像信号および過去血管蛍光画像信号が生成される。   By performing the blood vessel extraction process as described above, the current blood vessel fluorescent image signal and the past blood vessel fluorescent image signal are obtained for each of the second fluorescent image signal IF (new) and the third fluorescent image signal IF ′ (old). Generated.

そして、次に、血管抽出部33eにおいて生成された現在血管蛍光画像信号および過去血管蛍光画像信号が合成され、合成血管蛍光画像信号が生成される(図6のS22)。   Then, the current blood vessel fluorescence image signal and the past blood vessel fluorescence image signal generated in the blood vessel extraction unit 33e are combined to generate a combined blood vessel fluorescence image signal (S22 in FIG. 6).

血管抽出部33eにおいて生成された合成血管蛍光画像信号と第2の通常画像信号IV(now)とが画像合成部33fに出力され、画像合成部33fにおいて、第2の通常画像信号IV(now)に対して合成血管蛍光画像信号が合成されて合成画像信号が生成される(図6のS24)。   The synthetic blood vessel fluorescence image signal generated in the blood vessel extraction unit 33e and the second normal image signal IV (now) are output to the image synthesis unit 33f, and the image synthesis unit 33f outputs the second normal image signal IV (now). Are combined with each other to generate a composite image signal (S24 in FIG. 6).

そして、画像合成部33fにおいて生成された合成画像信号は、ビデオ出力部35に出力される。   Then, the composite image signal generated by the image composition unit 33 f is output to the video output unit 35.

そして、ビデオ出力部35は、入力された合成画像信号に所定の処理を施して表示制御信号を生成し、その表示制御信号をモニタ4に出力する。そして、モニタ4は、入力された表示制御信号に基づいて合成画像を表示する。図13に、合成画像信号に基づいて表示された合成画像の一例を示す。   Then, the video output unit 35 performs a predetermined process on the input composite image signal to generate a display control signal, and outputs the display control signal to the monitor 4. Then, the monitor 4 displays a composite image based on the input display control signal. FIG. 13 shows an example of a composite image displayed based on the composite image signal.

上記のように現在の通常画像信号に対して、現在の蛍光画像信号だけでなく、ICGが被観察部の血管中を流れていた時点において撮像された過去の蛍光画像信号も合成して合成画像を表示することによって血管画像を明確に表示することができる。   As described above, not only the current fluorescence image signal but also the past fluorescence image signal captured at the time when the ICG was flowing in the blood vessel of the observed portion is synthesized with the current normal image signal. By displaying, the blood vessel image can be clearly displayed.

次に、現在の通常画像信号に合成する過去の蛍光画像信号の選択方法について説明する。   Next, a method for selecting a past fluorescence image signal to be combined with the current normal image signal will be described.

過去の蛍光画像信号の選択方法の1つとして、たとえば、モニタ4に現在の蛍光画像を時系列に順次表示している際、図14に示すように、その蛍光画像上で関心領域Rを設定し、多数の過去の蛍光画像信号のうちその関心領域内の画素値情報が最大である蛍光画像信号を合成対象の過去の蛍光画像信号IF(old)として選択するようにすればよい。関心領域Rの設定は、たとえば、操作者がICGの蛍光が強く出ていたと考える領域を操作部36からの設定入力をCPU38によって受け付けることによって行うようにすればよい。また、画素値情報としては、たとえば、関心領域内の画素値の最大値、平均値などを用いるようにすればよい。また、蛍光画像上で関心領域を直接設定するのではなく、通常画像上で関心領域を設定し、その関心領域を蛍光画像上に対応させることによって間接的に蛍光画像上の関心領域を設定するようにしてもよい。   As one method of selecting past fluorescent image signals, for example, when the current fluorescent image is sequentially displayed on the monitor 4 in time series, a region of interest R is set on the fluorescent image as shown in FIG. Then, a fluorescent image signal having the maximum pixel value information in the region of interest among a large number of past fluorescent image signals may be selected as the past fluorescent image signal IF (old) to be synthesized. The region of interest R may be set by, for example, accepting a setting input from the operation unit 36 by the CPU 38 for a region that the operator thinks that the ICG fluorescence is strong. Further, as the pixel value information, for example, the maximum value or the average value of the pixel values in the region of interest may be used. Also, instead of setting the region of interest directly on the fluorescent image, the region of interest is set on the normal image, and the region of interest on the fluorescent image is set indirectly by associating the region of interest on the fluorescent image. You may do it.

また、関心領域の設定は、モニタ4に時系列に順次表示されている通常画像上で行うようにしてもよい。   The region of interest may be set on a normal image that is sequentially displayed on the monitor 4 in time series.

また、図15に示すように、モニタ4に現在の蛍光画像を時系列に順次表示している際、所定のタイミングで表示された蛍光画像を選択することができる選択ボタンSを表示させ、この選択ボタンSをマウスなどのポインティングデバイスによって操作者が押下した信号をCPU38により受け付けることによって、そのタイミングに表示された蛍光画像信号を合成対象の過去の蛍光画像信号IF(old)として選択するようにしてもよい。   Further, as shown in FIG. 15, when the current fluorescent image is sequentially displayed on the monitor 4 in time series, a selection button S for selecting the fluorescent image displayed at a predetermined timing is displayed. When the CPU 38 receives a signal that the operator presses the selection button S with a pointing device such as a mouse, the fluorescent image signal displayed at that timing is selected as the past fluorescent image signal IF (old) to be synthesized. May be.

また、図16に示すように、モニタ4に現在の蛍光画像を時系列に順次表示するとおもに、過去の多数の蛍光画像P1〜P6もサムネイル画像として同時に表示し、これらの過去の蛍光画像P1〜P6の中からフレーム枠Fなどによって操作者が所望の蛍光画像を選択し、その選択信号をCPU38により受け付けることによって操作者により選択された蛍光画像信号を合成対象の過去の蛍光画像信号IF(old)とするようにしてもよい。   In addition, as shown in FIG. 16, the current fluorescent images are sequentially displayed on the monitor 4 in time series, and a large number of past fluorescent images P1 to P6 are also simultaneously displayed as thumbnail images, and these past fluorescent images P1 to P6 are displayed. The operator selects a desired fluorescence image from the frame frame F or the like from P6, and the selection signal is received by the CPU 38, whereby the fluorescence image signal selected by the operator is converted into the past fluorescence image signal IF (old) to be synthesized. ).

なお、上記実施形態においては、第1の通常画像信号IV(old)と第2の通常画像信号IV(new)とに基づいて被観察部の動き特徴量を取得するようにしたが、これは通常画像信号の方が、感度が高くフレームレートも高いため動きへの追従性が高いからであるとともに、通常画像信号の方が散乱が少なくぼけていないからであるが、被観察部の動きがそれほど激しいものではない場合などには、第1の蛍光画像信号IF(old)と第2の蛍光画像信号IF(new)とに基づいて動き特徴量を取得するようにしてもよい。その取得方法は、上述した通常画像信号の場合とほぼ同様である。   In the above embodiment, the movement feature amount of the observed portion is acquired based on the first normal image signal IV (old) and the second normal image signal IV (new). This is because the normal image signal is more sensitive and has a higher frame rate, so the follow-up to the motion is higher, and the normal image signal is less blurred, but the movement of the observed part is If it is not so intense, the motion feature amount may be acquired based on the first fluorescent image signal IF (old) and the second fluorescent image signal IF (new). The acquisition method is almost the same as that of the normal image signal described above.

また、上記実施形態においては、合成対象となる過去の蛍光画像信号IF(old)を1つだけ選択するようにしたが、たとえば、動脈と静脈とではICGが通過するタイミングが異なり、すなわち蛍光が強くなるタイミングが異なるので、動脈が強く蛍光を発しているタイミングで撮像された過去の蛍光画像信号と、静脈が強く蛍光を発しているタイミングで撮像された過去の蛍光画像信号との2つを選択し、これらに動き補正処理を施した後、現在の通常画像信号IV(new)に合成するようにしてもよい。また、その他2つ以上の過去の蛍光画像信号を合成するようにしてもよい。   In the above embodiment, only one past fluorescence image signal IF (old) to be synthesized is selected. For example, the timing at which the ICG passes between the artery and the vein is different. Since the timing of strengthening is different, the past fluorescence image signal imaged at the timing when the artery is strongly emitting fluorescence and the past fluorescence image signal imaged at the timing when the vein is strongly emitting fluorescence are used. After selecting them and applying motion correction processing to them, they may be combined with the current normal image signal IV (new). In addition, two or more past fluorescent image signals may be synthesized.

また、上記実施形態においては、通常光源としてキセノンランプを用いるようにしたが、これに限らず、GaN系半導体レーザーを用いた高輝度白色光源(商品名:マイクロホワイト、日亜化学工業(株)製)を用いるようにしてもよい。この高輝度白色光源は、波長445nmの半導体レーザーから出射する光を,光学レンズを用いて光ファイバーに導光し,蛍光体材料を塗布した光ファイバーのもう一方の端面から,全光束が501nmの白色光を放出させるものである。   In the above embodiment, a xenon lamp is used as a normal light source. However, the present invention is not limited to this, and a high-intensity white light source using a GaN-based semiconductor laser (trade name: Micro White, Nichia Corporation) May be used. This high-intensity white light source guides light emitted from a semiconductor laser having a wavelength of 445 nm to an optical fiber using an optical lens, and emits white light having a total luminous flux of 501 nm from the other end face of the optical fiber coated with a phosphor material. Is to be released.

また、上記実施形態においては、特殊光源としてLD光源を用いるようにしたが、これに限らず、キセノンランプに励起フィルタを付加し、通常光と特殊光とを時系列に照射するようにしてもよい。   In the above embodiment, the LD light source is used as the special light source. However, the present invention is not limited to this, and an excitation filter is added to the xenon lamp so that normal light and special light are irradiated in time series. Good.

また、上記実施形態においては、第1の撮像系により蛍光画像を撮像するようにしたが、これに限らず、被観察部への特殊光の照射による被観察部の吸光特性に基づく画像を撮像するようにしてもよい。   In the above embodiment, the fluorescent image is picked up by the first image pickup system. However, the present invention is not limited to this, and an image based on the light absorption characteristic of the observed part by special light irradiation to the observed part is picked up. You may make it do.

また、上記実施形態においては、血管画像を抽出するようにしたが、これに限らず、たとえば、リンパ管、胆管などのその他の管部分を表す画像を抽出するようにしてもよい。   In the above-described embodiment, the blood vessel image is extracted. However, the present invention is not limited to this, and for example, an image representing other duct parts such as lymphatic vessels and bile ducts may be extracted.

また、上記実施形態は、本発明の画像取得装置を腹腔鏡システムに適用したものであるが、これに限らず、たとえば、軟性内視鏡装置を有するその他の内視鏡システムに適用してもよい。また、内視鏡システムに限らず、体内に挿入される挿入部を備えていない、いわゆるビデオカメラ型の医用画像撮像装置に適用してもよい。   Moreover, although the said embodiment applies the image acquisition apparatus of this invention to a laparoscopic system, it is not restricted to this, For example, even if applied to the other endoscope system which has a flexible endoscope apparatus. Good. Further, the present invention is not limited to an endoscope system, and may be applied to a so-called video camera type medical image capturing apparatus that does not include an insertion portion that is inserted into the body.

1 腹腔鏡システム
2 光源装置
3 画像処理装置
4 モニタ
10 硬性鏡撮像装置
20 撮像ユニット
30 硬質挿入部
33 画像処理部
33a 通常画像処理部
33b 動き特徴量取得部
33c 蛍光画像処理部
33d 補正部
33e 血管抽出部
33f 画像合成部
40 通常光源
44 LD光源
DESCRIPTION OF SYMBOLS 1 Laparoscope system 2 Light source device 3 Image processing device 4 Monitor 10 Rigid endoscope imaging device 20 Imaging unit 30 Hard insertion part 33 Image processing part 33a Normal image processing part 33b Motion feature-value acquisition part 33c Fluorescence image processing part 33d Correction | amendment part 33e Blood vessel Extraction unit 33f Image composition unit 40 Normal light source 44 LD light source

Claims (8)

通常光の被観察部への照射によって前記被観察部から反射された反射光を受光して所定の間隔で撮像された複数の通常画像と、特殊光の前記被観察部への照射によって前記被観察部から発せられた光を受光して所定の間隔で撮像された複数の特殊画像とを取得し、
前記複数の通常画像のうちの第1の時点に撮像された第1の前記通常画像または前記複数の特殊画像のうちの第1の時点に撮像された第1の前記特殊画像を取得するとともに、前記第1の時点よりも後の第2の時点に撮像された第2の前記通常画像または前記第1の時点よりも後の第2の時点に撮像された第2の前記特殊画像を取得し、
前記第1の通常画像の被観察部から前記第2の通常画像の被観察部への動きの変化を示す動き特徴量または前記第1の特殊画像の被観察部から前記第2の特殊画像の被観察部への動きの変化を示す動き特徴量を取得し、
該取得した動き特徴量に基づいて、前記複数の特殊画像のうちの前記第1の時点に撮像された第1の特殊画像を補正して第3の特殊画像を取得し、
該取得した第3の特殊画像と前記第2の通常画像とを合成して合成画像を取得することを特徴とする画像取得方法。
A plurality of normal images received at a predetermined interval by receiving reflected light reflected from the observed portion by irradiating the observed portion with normal light, and the observed portion by irradiating the observed portion with special light. Receiving light emitted from the observation unit to obtain a plurality of special images captured at predetermined intervals,
Obtaining the first normal image captured at a first time of the plurality of normal images or the first special image captured at a first time of the plurality of special images; The second normal image captured at a second time point after the first time point or the second special image captured at a second time point after the first time point is acquired. ,
A movement feature amount indicating a change in movement from the observed portion of the first normal image to the observed portion of the second normal image or the second special image of the second special image from the observed portion of the first special image. Acquire the movement feature amount indicating the change of movement to the observed part,
Based on the acquired motion feature amount, a first special image captured at the first time point among the plurality of special images is corrected to obtain a third special image,
An image acquisition method comprising: synthesizing the acquired third special image and the second normal image to acquire a composite image.
通常光および特殊光を被観察部に照射する光照射部と、
前記通常光の照射によって前記被観察部から反射された反射光を受光して複数の通常画像を所定の間隔で撮像するとともに、前記特殊光の照射によって前記被観察部から発せられた光を受光して複数の特殊画像を所定の間隔で撮像する撮像部と、
該撮像部によって取得された複数の通常画像のうちの少なくとも1つの第1の時点に撮像された第1の前記通常画像または前記複数の特殊画像のうちの少なくとも1つの第1の時点に撮像された第1の前記特殊画像を取得するとともに、前記第1の時点よりも後の第2の時点に撮像された第2の前記通常画像または前記第1の時点よりも後の第2の時点に撮像された第2の前記特殊画像を取得し、前記第1の通常画像の被観察部から前記第2の通常画像の被観察部への動きの変化を示す動き特徴量または前記第1の特殊画像の被観察部から前記第2の特殊画像の被観察部への動きの変化を示す動き特徴量を取得する動き特徴量取得部と、
該動き取得部により取得された動き特徴量に基づいて、前記複数の特殊画像のうちの前記第1の時点に撮像された第1の特殊画像を補正して第3の特殊画像を取得する動き補正部と、
該動き補正部により取得された第3の特殊画像と前記第2の通常画像とを合成して合成画像を取得する合成画像取得部とを備えたことを特徴とする画像取得装置。
A light irradiator that irradiates the observed part with normal light and special light; and
The reflected light reflected from the observed part by receiving the normal light is received to pick up a plurality of normal images at a predetermined interval, and the light emitted from the observed part by receiving the special light is received. An imaging unit that captures a plurality of special images at predetermined intervals;
Captured at the first time point of the first normal image or the plurality of special images captured at the first time point of at least one of the plurality of normal images acquired by the imaging unit. In addition to acquiring the first special image, the second normal image captured at the second time point after the first time point or at the second time point after the first time point. The captured second special image is acquired, and a motion feature amount indicating a change in motion from the observed portion of the first normal image to the observed portion of the second normal image or the first special image A motion feature amount acquisition unit that acquires a motion feature amount indicating a change in motion from the observed portion of the image to the observed portion of the second special image;
Based on the motion feature amount acquired by the motion acquisition unit, a motion for correcting the first special image captured at the first time point out of the plurality of special images to acquire a third special image A correction unit;
An image acquisition apparatus comprising: a composite image acquisition unit that acquires a composite image by combining the third special image acquired by the motion correction unit and the second normal image.
前記撮像部により撮像された前記複数の特殊画像を時系列で順次表示する表示部と、
該表示部に順次表示される前記複数の特殊画像のうちの少なくとも1つの特殊画像を前記第1の特殊画像として選択する信号を受け付ける選択信号受付部とを備えたことを特徴とする請求項2記載の画像取得装置。
A display unit for sequentially displaying the plurality of special images captured by the imaging unit in time series;
3. A selection signal receiving unit that receives a signal for selecting at least one special image among the plurality of special images sequentially displayed on the display unit as the first special image. The image acquisition device described.
所定の前記通常画像または前記所定の特殊画像における関心領域の設定を受け付ける関心領域受付部と、
前記所定の通常画像において設定された関心領域に対応する前記複数の特殊画像の各関心領域内の画素信号または前記所定の特殊画像において設定された関心領域に対応する前記複数の特殊画像の各関心領域内の画素信号に基づいて前記第1の特殊画像を選択する過去画像選択部とを備えたことを特徴とする請求項2記載の画像取得装置。
A region-of-interest receiving unit that receives a setting of a region of interest in the predetermined normal image or the predetermined special image;
Pixel signals in each region of interest of the plurality of special images corresponding to the region of interest set in the predetermined normal image or each interest in the plurality of special images corresponding to the region of interest set in the predetermined special image The image acquisition apparatus according to claim 2, further comprising: a past image selection unit that selects the first special image based on a pixel signal in the region.
前記撮像部により撮像された前記複数の特殊画像を同時に表示する表示部と、
該表示部に同時に表示された前記複数の特殊画像のうちの少なくとも1つの特殊画像を前記第1の特殊画像として選択する信号を受け付ける選択信号受付部とを備えたことを特徴とする請求項2記載の画像取得装置。
A display unit that simultaneously displays the plurality of special images captured by the imaging unit;
3. A selection signal receiving unit that receives a signal for selecting at least one special image of the plurality of special images simultaneously displayed on the display unit as the first special image. The image acquisition device described.
前記第3の特殊画像から前記被観察部に含まれる管部分を表す画像を抽出する管画像抽出部をさらに備え、
前記合成画像取得部は、前記管画像抽出部により抽出された管部分を表す画像と前記第2の通常画像とを合成して合成画像を取得するものであることを特徴とする請求項1から5いずれか1項記載の画像取得装置。
A tube image extraction unit that extracts an image representing a tube portion included in the observed portion from the third special image;
The composite image acquisition unit is configured to acquire a composite image by combining an image representing a tube portion extracted by the tube image extraction unit and the second normal image. The image acquisition device according to any one of 5.
前記合成画像取得部が、前記第3の特殊画像および前記第2の特殊画像と前記第2の通常画像とを合成して合成画像を取得するものであることを特徴とする請求項1から6いずれか1項記載の画像取得装置。   The composite image acquisition unit is configured to acquire a composite image by combining the third special image, the second special image, and the second normal image. The image acquisition device according to claim 1. 前記第1の特殊画像が複数であることを特徴とする請求項1から7いずれか1項記載の画像取得装置。   The image acquisition apparatus according to claim 1, wherein the first special image is plural.
JP2009222053A 2009-09-28 2009-09-28 Method of operating image acquisition apparatus and image acquisition apparatus Expired - Fee Related JP5399187B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009222053A JP5399187B2 (en) 2009-09-28 2009-09-28 Method of operating image acquisition apparatus and image acquisition apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009222053A JP5399187B2 (en) 2009-09-28 2009-09-28 Method of operating image acquisition apparatus and image acquisition apparatus

Publications (2)

Publication Number Publication Date
JP2011067486A true JP2011067486A (en) 2011-04-07
JP5399187B2 JP5399187B2 (en) 2014-01-29

Family

ID=44013403

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009222053A Expired - Fee Related JP5399187B2 (en) 2009-09-28 2009-09-28 Method of operating image acquisition apparatus and image acquisition apparatus

Country Status (1)

Country Link
JP (1) JP5399187B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013000176A (en) * 2011-06-13 2013-01-07 Fujifilm Corp Endoscope system, light source apparatus for the same, and light quantity control method
JPWO2015092882A1 (en) * 2013-12-18 2017-03-16 株式会社島津製作所 Infrared imaging device
JP2018134421A (en) * 2018-02-27 2018-08-30 株式会社島津製作所 Infrared imaging device
JP2019098008A (en) * 2017-12-06 2019-06-24 オリンパス株式会社 Endoscope system
CN110831487A (en) * 2017-07-14 2020-02-21 富士胶片株式会社 Medical image processing device, endoscope system, diagnosis support device, and medical service support device
JP2020524572A (en) * 2017-06-22 2020-08-20 ヘルムホルツ ツェントラム ミュンヘン ドイチェス フォーシュングスツェントラム フュール ゲズントハイト ウント ウンヴェルト ゲーエムベーハーHelmholtz Zentrum Muenchen Deutsches Forschungszentrum Fuer Gesundheit Und Umwelt Gmbh System for endoscopic imaging and method for processing images

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07250804A (en) * 1994-03-15 1995-10-03 Olympus Optical Co Ltd Fluorescence observer
JP2001299676A (en) * 2000-04-25 2001-10-30 Fuji Photo Film Co Ltd Method and system for detecting sentinel lymph node
JP2007244746A (en) * 2006-03-17 2007-09-27 Olympus Medical Systems Corp Observation system
JP2009131616A (en) * 2007-11-07 2009-06-18 Fujifilm Corp Image capturing system, image capturing method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07250804A (en) * 1994-03-15 1995-10-03 Olympus Optical Co Ltd Fluorescence observer
JP2001299676A (en) * 2000-04-25 2001-10-30 Fuji Photo Film Co Ltd Method and system for detecting sentinel lymph node
JP2007244746A (en) * 2006-03-17 2007-09-27 Olympus Medical Systems Corp Observation system
JP2009131616A (en) * 2007-11-07 2009-06-18 Fujifilm Corp Image capturing system, image capturing method, and program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013000176A (en) * 2011-06-13 2013-01-07 Fujifilm Corp Endoscope system, light source apparatus for the same, and light quantity control method
JPWO2015092882A1 (en) * 2013-12-18 2017-03-16 株式会社島津製作所 Infrared imaging device
JP2020524572A (en) * 2017-06-22 2020-08-20 ヘルムホルツ ツェントラム ミュンヘン ドイチェス フォーシュングスツェントラム フュール ゲズントハイト ウント ウンヴェルト ゲーエムベーハーHelmholtz Zentrum Muenchen Deutsches Forschungszentrum Fuer Gesundheit Und Umwelt Gmbh System for endoscopic imaging and method for processing images
CN110831487A (en) * 2017-07-14 2020-02-21 富士胶片株式会社 Medical image processing device, endoscope system, diagnosis support device, and medical service support device
JPWO2019012911A1 (en) * 2017-07-14 2020-06-11 富士フイルム株式会社 Medical image processing device, endoscope system, diagnosis support device, and medical service support device
US10891737B2 (en) 2017-07-14 2021-01-12 Fujifilm Corporation Medical image processing device, endoscope system, diagnosis support device, and medical service support device
JP2019098008A (en) * 2017-12-06 2019-06-24 オリンパス株式会社 Endoscope system
JP7029281B2 (en) 2017-12-06 2022-03-03 オリンパス株式会社 Endoscope system and how to operate the endoscope system
JP2018134421A (en) * 2018-02-27 2018-08-30 株式会社島津製作所 Infrared imaging device

Also Published As

Publication number Publication date
JP5399187B2 (en) 2014-01-29

Similar Documents

Publication Publication Date Title
JP5385350B2 (en) Image display method and apparatus
US9906739B2 (en) Image pickup device and image pickup method
JP5435796B2 (en) Method of operating image acquisition apparatus and image pickup apparatus
JP6488249B2 (en) Blood vessel information acquisition apparatus, endoscope system, and blood vessel information acquisition method
JP5358368B2 (en) Endoscope system
JP4566754B2 (en) Image processing device
JP2011200367A (en) Image pickup method and device
US9271635B2 (en) Fluorescence endoscope apparatus
JP5399187B2 (en) Method of operating image acquisition apparatus and image acquisition apparatus
JP5320268B2 (en) Image display device
JP6072374B2 (en) Observation device
JP2011098088A (en) Electronic endoscope system, processor device for electronic endoscope, and image processing method
WO2018211885A1 (en) Image acquisition system, control device, and image acquisition method
JP5385176B2 (en) Method for operating image display device and image display device
US9788709B2 (en) Endoscope system and image generation method to generate images associated with irregularities of a subject
JP5637783B2 (en) Image acquisition apparatus and operation method thereof
WO2014156604A1 (en) Endoscope system, operational method therefor and processor device
JP2009142415A (en) Endoscopic system
JP2011136005A (en) Endoscope apparatus
JP5570352B2 (en) Imaging device
JP2011110272A (en) Endoscope apparatus
JP2002102147A (en) Fluorescent image acquisition device
JP5196435B2 (en) Imaging device and imaging system
JP6535701B2 (en) Imaging device
US20230397801A1 (en) Medical imaging system, medical imaging device, and operation method

Legal Events

Date Code Title Description
RD15 Notification of revocation of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7435

Effective date: 20110519

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130618

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130819

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130924

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131023

R150 Certificate of patent or registration of utility model

Ref document number: 5399187

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees