JP2009039515A - Image processing system, image processing method and program - Google Patents

Image processing system, image processing method and program Download PDF

Info

Publication number
JP2009039515A
JP2009039515A JP2008167820A JP2008167820A JP2009039515A JP 2009039515 A JP2009039515 A JP 2009039515A JP 2008167820 A JP2008167820 A JP 2008167820A JP 2008167820 A JP2008167820 A JP 2008167820A JP 2009039515 A JP2009039515 A JP 2009039515A
Authority
JP
Japan
Prior art keywords
image
unit
depth
specific wavelength
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008167820A
Other languages
Japanese (ja)
Other versions
JP5435532B2 (en
Inventor
Hiroshi Yamaguchi
博司 山口
Hideyasu Ishibashi
磴  秀康
Kiyohiro Maeda
青広 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2008167820A priority Critical patent/JP5435532B2/en
Priority to US12/174,404 priority patent/US7767980B2/en
Publication of JP2009039515A publication Critical patent/JP2009039515A/en
Application granted granted Critical
Publication of JP5435532B2 publication Critical patent/JP5435532B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Endoscopes (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To correct blur of an object image when observing the object existing inside a substance using a reflected light from the object or a light emitted from a fluorescent substance such as ICG (Indocyanine Green). <P>SOLUTION: This image processing system is provided with: a specific wavelength image obtaining section that obtains a specific wavelength image being an image of light from an object existing inside a substance, the light belonging to a specific wavelength region; a depth calculator section that calculates a depth of the object from a surface of the substance, using a plurality of specific wavelength images corresponding to different specific wavelength regions from each other; and an object image generator that generates an image of the object according to the depth of the object calculated by the depth calculator section. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、画像処理システム、画像処理方法およびプログラムに関する。本発明は、特に、生体内部に存在する血管等、表面観察では視認が困難な物質内部に存在するオブジェクトの画像を鮮明に表示できる画像処理システム、画像処理方法およびプログラムに関する。   The present invention relates to an image processing system, an image processing method, and a program. In particular, the present invention relates to an image processing system, an image processing method, and a program that can clearly display an image of an object existing inside a substance that is difficult to view by surface observation, such as a blood vessel existing inside a living body.

たとえば非特許文献1に記載のように、生体にインドシアニングリーン(ICG)を投与するとともに波長780nmの赤外線レーザー光を照射して、生体内部の血液灌流をビデオ撮影する技術が知られている。また、内視鏡における像のボケの解消について、たとえば特許文献1に記載の内視鏡では、予め定められた所定範囲についての画像信号に対して、対物光学系の点ひろがり関数を用いて像回復処理を施す。これにより、撮像部への入射光量を大きく確保する一方、対物光学系の焦点深度不足による像のボケを解消できるとされている。
「インドシアニングリーンを用いた、皮下乳腺全摘出術後の乳頭乳輪の血液灌流の測定」、埼玉医科大学雑誌、第32巻、第2号、P45−50、平成17年4月 特開平10−165365号公報
For example, as described in Non-Patent Document 1, a technique is known in which indocyanine green (ICG) is administered to a living body and infrared laser light having a wavelength of 780 nm is irradiated to video-shoot blood perfusion inside the living body. Further, regarding the elimination of image blur in an endoscope, for example, in the endoscope described in Patent Document 1, an image is obtained using a point spread function of an objective optical system with respect to an image signal for a predetermined range. Apply recovery processing. Thereby, while ensuring a large amount of incident light to the imaging unit, it is said that blurring of an image due to insufficient depth of focus of the objective optical system can be eliminated.
“Measurement of blood perfusion of teat areola after total mammectomy with indocyanine green”, Saitama Medical University Journal, Vol. 32, No. 2, P45-50, April 2005 Japanese Patent Laid-Open No. 10-165365

生体内部の血管等物質内部に存在するオブジェクトを、オブジェクトからの反射光あるいはICG等蛍光物質からの発光を用いて観察する場合、オブジェクトの像がボケる問題がある。すなわち、反射光または発光が物質内を通過する間に散乱され、オブジェクトの輪郭が不明瞭になってしまう。医師が内視鏡を用いて診断あるいは施術する場合、血管等オブジェクトの位置を正確に認識することが望ましいから、オブジェクトの輪郭におけるボケを補正して、鮮明な画像を表示することが望まれる。また、物質内部のオブジェクトを撮像して表示する場合、オブジェクトの深さについての情報が同時に表示されることが好ましい。   When an object existing inside a substance such as a blood vessel inside a living body is observed using reflected light from the object or light emission from a fluorescent substance such as ICG, there is a problem that the image of the object is blurred. That is, the reflected light or light emission is scattered while passing through the substance, and the outline of the object becomes unclear. When a doctor performs diagnosis or treatment using an endoscope, it is desirable to accurately recognize the position of an object such as a blood vessel. Therefore, it is desirable to correct a blur in the contour of the object and display a clear image. In addition, when imaging and displaying an object inside a substance, it is preferable that information about the depth of the object is displayed at the same time.

上記課題を解決するために、本発明の第1の形態においては、と、物質の内部に存在するオブジェクトからの光であって特定波長領域に属する光の画像である特定波長画像を取得する特定波長画像取得部と、特定波長領域が異なる複数の特定波長画像から、オブジェクトの物質表面からの深さを算出する深さ算出部と、深さ算出部が算出したオブジェクトの深さに応じたオブジェクトの画像を生成するオブジェクト画像補正部と、を備える画像処理システムを提供する。   In order to solve the above-described problem, in the first aspect of the present invention, a specific wavelength image that is an image of light from an object existing in a substance and belonging to a specific wavelength region is acquired. A wavelength image acquisition unit, a depth calculation unit that calculates the depth of the object from the material surface from a plurality of specific wavelength images with different specific wavelength regions, and an object corresponding to the object depth calculated by the depth calculation unit An image processing system including an object image correction unit that generates an image of

物質の内部に存在するオブジェクトからの光の画像であるオブジェクト画像を取得するオブジェクト画像取得部をさらに備え、オブジェクト画像生成部は、深さ算出部が算出したオブジェクトの深さに応じてオブジェクト画像を補正するオブジェクト画像補正部を有してよい。   The image processing apparatus further includes an object image acquisition unit that acquires an object image that is an image of light from an object existing inside the substance, and the object image generation unit converts the object image according to the depth of the object calculated by the depth calculation unit. You may have the object image correction part to correct | amend.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.

図1は、本実施形態の画像処理システム10の一例をICG注入部700および検体800とともに示す。画像処理システム10は、内視鏡100、画像処理部200、表示部300、撮像制御部400、発光部500および発光制御部600を備える。なお、図1において、A部は、内視鏡100の先端部102を拡大して示す。   FIG. 1 shows an example of an image processing system 10 of this embodiment together with an ICG injection unit 700 and a specimen 800. The image processing system 10 includes an endoscope 100, an image processing unit 200, a display unit 300, an imaging control unit 400, a light emitting unit 500, and a light emission control unit 600. In FIG. 1, the A part shows the distal end part 102 of the endoscope 100 in an enlarged manner.

ICG注入部700は、ルミネッセンス物質であるインドシアニングリーン(ICG)を検体800に注入する。なお、本実施形態においてルミネッセンス物質としてICGを例示するが、ルミネッセンス物質として、ICG以外の蛍光物質を用いてもよい。ICGは、たとえば波長750nmの赤外線に励起されて、810nmを中心とするブロードなスペクトルの蛍光を発する。検体800が生体である場合、ICGは、静脈注射によって生体の血管内に注入できる。ICGからの蛍光を撮像することにより、生体内の血管を造影できる。   The ICG injection unit 700 injects indocyanine green (ICG), which is a luminescent substance, into the specimen 800. In addition, although ICG is illustrated as a luminescent substance in this embodiment, you may use fluorescent substances other than ICG as a luminescent substance. ICG is excited by infrared rays having a wavelength of 750 nm, for example, and emits a broad spectrum of fluorescence centering on 810 nm. When the specimen 800 is a living body, ICG can be injected into a blood vessel of the living body by intravenous injection. By imaging fluorescence from ICG, blood vessels in the living body can be imaged.

ICG注入部700は、画像処理システム10に組み込まれてもよい。生体内のICG濃度を管理して、生体内でのICG濃度が一定に維持されるようICG注入部700を制御できる。   The ICG injection unit 700 may be incorporated in the image processing system 10. By managing the ICG concentration in the living body, the ICG injection unit 700 can be controlled so that the ICG concentration in the living body is maintained constant.

検体800は、たとえば人体等の生体であってよく、画像処理システム10が処理する画像の撮像対象となる。検体800の内部には血管等オブジェクトが存在する。本実施形態の画像処理システム10は、検体800の表面(器官等の内表面を含む)より深部に存在するオブジェクトの撮像画像におけるボケを補正する。   The specimen 800 may be a living body such as a human body, for example, and is an imaging target of an image processed by the image processing system 10. An object such as a blood vessel exists inside the specimen 800. The image processing system 10 according to the present embodiment corrects a blur in a captured image of an object existing deeper than the surface of the specimen 800 (including the inner surface of an organ or the like).

内視鏡100は、撮像部110、ライトガイド120および鉗子口130を有する。内視鏡100の先端部102には、撮像部110の一部としての対物レンズ112を有する。また先端部102には、ライトガイド120の一部としてのIRライトガイド122、Rライトガイド124、Gライトガイド126およびBライトガイド128を有する。また先端部102には、ノズル140を有する。鉗子口130には鉗子135が挿入される。   The endoscope 100 includes an imaging unit 110, a light guide 120, and a forceps port 130. The distal end portion 102 of the endoscope 100 has an objective lens 112 as a part of the imaging unit 110. The distal end portion 102 has an IR light guide 122, an R light guide 124, a G light guide 126, and a B light guide 128 as a part of the light guide 120. Further, the tip portion 102 has a nozzle 140. A forceps 135 is inserted into the forceps opening 130.

撮像部110は、ルミネッセンス物質が発する光および照射光がオブジェクトで反射する反射光の画像を撮像する。撮像部110は、たとえばCCD等の2次元撮像デバイスと光学系とを含んでよく、光学系には対物レンズ112を含む。ルミネッセンス物質が発する光が赤外線である場合、撮像部110は、赤外線画像を撮像できる。オブジェクトへの照射光がRGBの各成分を含むたとえば白色光である場合、撮像部110は、R成分、G成分およびB成分の各成分光画像を撮像できる。   The imaging unit 110 captures images of reflected light in which light emitted from the luminescent material and reflected light reflected by the object are reflected. The imaging unit 110 may include, for example, a two-dimensional imaging device such as a CCD and an optical system, and the optical system includes an objective lens 112. When the light emitted from the luminescent material is infrared, the imaging unit 110 can capture an infrared image. When the irradiation light to the object is, for example, white light including RGB components, the imaging unit 110 can capture the component light images of the R component, the G component, and the B component.

撮像部110による赤外線、R成分、G成分およびB成分の各成分光は、たとえば入射光を分光フィルタにより分光して、フィルタリング後の光を1つのCCDにより撮像できる。この場合光軸上に配置する分光フィルタを切り替えて各成分光画像を撮像できる。あるいは、入射光をハーフミラー等により分割して、分割した光軸ごとに分光フィルタを配置できる。光軸ごとに複数のCCDを配置すれば、各成分光画像を同時に撮像できる。あるいは、1つのCCDの画素ごとに、赤外線、R成分、G成分およびB成分の各分光フィルタを配置すれば、1つのCCDで各成分光を同時に撮像できる。   The component light of the infrared ray, R component, G component, and B component by the imaging unit 110 can be obtained by, for example, separating incident light with a spectral filter and imaging the filtered light with one CCD. In this case, each component light image can be picked up by switching the spectral filter arranged on the optical axis. Or incident light can be divided | segmented with a half mirror etc., and a spectral filter can be arrange | positioned for every divided | segmented optical axis. If a plurality of CCDs are arranged for each optical axis, each component light image can be taken simultaneously. Alternatively, if each infrared filter, R component, G component, and B component spectral filter is arranged for each pixel of one CCD, each component light can be simultaneously imaged by one CCD.

ライトガイド120は、たとえば光ファイバで構成できる。ライトガイド120は、発光部500で発生した光を内視鏡100の先端部102にガイドする。ライトガイド120は、IRライトガイド122、Rライトガイド124、Gライトガイド126およびBライトガイド128を含むことができる。IRライトガイド122は、赤外線をガイドして、Rライトガイド124は、R成分光をガイドする。Gライトガイド126は、G成分光をガイドして、Bライトガイド128は、B成分光をガイドする。   The light guide 120 can be composed of, for example, an optical fiber. The light guide 120 guides light generated by the light emitting unit 500 to the distal end portion 102 of the endoscope 100. The light guide 120 can include an IR light guide 122, an R light guide 124, a G light guide 126 and a B light guide 128. The IR light guide 122 guides infrared rays, and the R light guide 124 guides R component light. The G light guide 126 guides the G component light, and the B light guide 128 guides the B component light.

ライトガイド120は、赤外線、R成分、G成分およびB成分の成分光ごとにIRライトガイド122、Rライトガイド124、Gライトガイド126およびBライトガイド128を備えるので各成分光を別々に照射できる。各成分光を別々に照射する場合、撮像部110には分光フィルタを備えなくてよく、各成分光を照射するタイミングに合わせて撮像することによりCCDも1つでよい。もとより、撮像部110に各成分光を分光して撮像する機能を備える場合には、成分光ごとに時分割で照射しなくてもよく、ライトガイド120を1つのライトガイドに統合してもよい。   The light guide 120 includes the IR light guide 122, the R light guide 124, the G light guide 126, and the B light guide 128 for each of the component light of the infrared ray, the R component, the G component, and the B component. . When irradiating each component light separately, the imaging unit 110 does not need to include a spectral filter, and only one CCD may be used by imaging in accordance with the timing of irradiating each component light. Of course, in the case where the imaging unit 110 has a function for spectrally imaging each component light, it is not necessary to irradiate each component light in a time-sharing manner, and the light guide 120 may be integrated into one light guide. .

鉗子口130は、鉗子135を先端部102にガイドする。図1において鉗子135の先端形状の図示は省略している。各種の先端形状を備える鉗子135を適用できる。ノズル140は、水あるいは空気を送出できる。   The forceps port 130 guides the forceps 135 to the distal end portion 102. In FIG. 1, illustration of the tip shape of the forceps 135 is omitted. Forceps 135 having various tip shapes can be applied. The nozzle 140 can send out water or air.

画像処理部200は、撮像部110から取得した画像データを処理する。表示部300は、画像処理部200が処理した画像データを表示する。撮像制御部400は、撮像部110による撮像を制御する。   The image processing unit 200 processes the image data acquired from the imaging unit 110. The display unit 300 displays the image data processed by the image processing unit 200. The imaging control unit 400 controls imaging by the imaging unit 110.

発光部500は、内視鏡100の先端部102から照射される光を発生する。発光部500で発生する光は、ルミネッセンス物質を励起する励起光である赤外線、検体800の内部のオブジェクトに照射する照射光を含む。照射光には、たとえばR成分、G成分およびB成分の成分光を含む。   The light emitting unit 500 generates light emitted from the distal end portion 102 of the endoscope 100. The light generated in the light emitting unit 500 includes infrared light that is excitation light that excites the luminescent substance, and irradiation light that irradiates an object inside the specimen 800. The irradiation light includes, for example, component light of R component, G component, and B component.

発光制御部600は、撮像制御部400からの制御を受けて、発光部500を制御する。たとえば撮像部110が、赤外線、R成分、G成分およびB成分の各成分光を時分割で撮像する場合に、各成分光の照射のタイミングと撮像のタイミングとを同期させるよう制御できる。   The light emission control unit 600 controls the light emission unit 500 under the control of the imaging control unit 400. For example, when the imaging unit 110 captures each component light of an infrared ray, an R component, a G component, and a B component in time division, it can be controlled to synchronize the irradiation timing of each component light and the imaging timing.

図2は、画像処理部200の構成例を示す。画像処理部200には、オブジェクト画像取得部210、特定波長画像取得部212、表面画像取得部214、オブジェクト領域特定部216、深さ算出部218、オブジェクト画像生成部230、補正テーブル222、補間画像生成部224および表示制御部226を有する。   FIG. 2 shows a configuration example of the image processing unit 200. The image processing unit 200 includes an object image acquisition unit 210, a specific wavelength image acquisition unit 212, a surface image acquisition unit 214, an object region specification unit 216, a depth calculation unit 218, an object image generation unit 230, a correction table 222, an interpolation image. A generation unit 224 and a display control unit 226 are included.

オブジェクト画像取得部210は、物質である検体800の内部に存在する血管等オブジェクトからの光の画像であるオブジェクト画像を取得する。オブジェクトからの光として、オブジェクト内に存在するルミネッセンス物質が発する蛍光、あるいはオブジェクトに照射された光の反射光を例示できる。なお、オブジェクト画像取得部210は、後述するように、オブジェクトからの光がオブジェクトから物質の表面までの間で散乱した散乱光による画像であるオブジェクト画像を取得してよい。   The object image acquisition unit 210 acquires an object image that is an image of light from an object such as a blood vessel that exists inside the specimen 800 that is a substance. Examples of the light from the object include fluorescence emitted by a luminescent substance present in the object, or reflected light of light irradiated on the object. Note that the object image acquisition unit 210 may acquire an object image that is an image of scattered light in which light from the object is scattered from the object to the surface of the substance, as will be described later.

オブジェクトからの光としてルミネッセンス物質が発する蛍光を利用する場合、オブジェクト画像取得部210が取得するオブジェクト画像には、物質の表面からルミネッセンス物質を励起する励起光が進入できる深さまでの範囲に存在するオブジェクトが含まれる。すなわち、内視鏡100の先端部102から照射されるルミネッセンス物質の励起光は、たとえば750nmの波長を有するから、検体800の比較的深部(たとえば1cm程度)にまで到達する。よって、オブジェクト画像取得部210が取得するオブジェクト画像には、検体800の比較的深部に存在する血管画像を含む。もとより、励起光の到達できる深さの範囲に存在するルミネッセンス物質は、当該励起光によって励起されるから、オブジェクト画像取得部210が取得するオブジェクト画像には、励起光が到達できる深さの範囲に存在する血管画像を含む。なお、血管が深い位置に存在するほど、血管からの蛍光が検体800で散乱されるから、深い位置の血管画像ほどボケを多く含むことになる。   When using fluorescence emitted from a luminescent substance as light from an object, the object image acquired by the object image acquisition unit 210 is an object that exists in a range from the surface of the substance to a depth at which excitation light for exciting the luminescent substance can enter. Is included. That is, the excitation light of the luminescent material irradiated from the distal end portion 102 of the endoscope 100 has a wavelength of, for example, 750 nm, and therefore reaches a relatively deep portion (for example, about 1 cm) of the specimen 800. Therefore, the object image acquired by the object image acquisition unit 210 includes a blood vessel image that exists relatively deep in the specimen 800. Of course, since the luminescent substance existing in the depth range where the excitation light can reach is excited by the excitation light, the object image acquired by the object image acquisition unit 210 is within the depth range where the excitation light can reach. Contains existing blood vessel images. In addition, since the fluorescence from a blood vessel is scattered by the specimen 800 as the blood vessel is present at a deeper position, the blood vessel image at a deeper position includes more blur.

オブジェクトからの光としてオブジェクトからの反射光を利用する場合、オブジェクト画像取得部210が取得するオブジェクト画像には、オブジェクトへの照射光が進入して反射する深さの範囲に存在するオブジェクトが含まれる。物質への照射光の進入深さは照射光の波長に依存するから、赤色光は青色光より物質内部に深く進入でき、緑色光はそれらの中間深さまで進入できる。赤外線は赤色光より物質内部に深く進入できる。よって、物質表面から照射する光の波長範囲を反映した進入深さまでの範囲に存在するオブジェクトがオブジェクト画像に含まれることになる。   When the reflected light from the object is used as the light from the object, the object image acquired by the object image acquisition unit 210 includes an object that exists within a depth range where the irradiation light enters the object and is reflected. . Since the penetration depth of the irradiation light into the material depends on the wavelength of the irradiation light, red light can penetrate deeper into the material than blue light, and green light can penetrate to their intermediate depth. Infrared rays can penetrate deeper into the material than red light. Therefore, an object existing in the range up to the depth of penetration reflecting the wavelength range of light irradiated from the material surface is included in the object image.

特定波長画像取得部212は、血管等オブジェクトからの光であって特定波長領域に属する光の画像である特定波長画像を取得する。特定波長領域は、任意の波長領域であってよく、たとえば可視光のR成分を中心とする赤色領域、G成分を中心とする緑色領域、B成分を中心とする青色領域を例示できる。また、ICGからの蛍光が属する波長領域を複数に分割した波長領域であってよく、たとえばICGからの蛍光における波長領域のうち、長波長領域、中波長領域、短波長領域を例示できる。   The specific wavelength image acquisition unit 212 acquires a specific wavelength image that is an image of light from an object such as a blood vessel and belonging to a specific wavelength region. The specific wavelength region may be any wavelength region, and examples thereof include a red region centered on the R component of visible light, a green region centered on the G component, and a blue region centered on the B component. The wavelength region to which the fluorescence from ICG belongs may be divided into a plurality of wavelengths. For example, among the wavelength regions in the fluorescence from ICG, a long wavelength region, a middle wavelength region, and a short wavelength region can be exemplified.

これら特定波長領域を利用した特定波長画像は、波長が相違すれば検体800への光の進入深さが相違する性質を利用して、あるいは、波長が相違すれば検体800内での光の吸収率が相違する性質を利用して、血管等オブジェクトの深さ検出に利用できる。すなわち、青色領域の特定波長画像により識別できる血管は、当該青色領域に属する波長の光が反射する深さ領域に存在すると判断できる。同様に、緑色領域の特定波長画像により識別できる血管は、当該緑色領域に属する波長の光が反射する深さ領域に存在すると判断でき、赤色領域の特定波長画像により識別できる血管は、当該赤色領域に属する波長の光が反射する深さ領域に存在すると判断できる。なお、青色光が反射する深さは赤色光が反射する深さより浅く、緑色光が反射する深さはこれらの中間に位置する。   The specific wavelength images using these specific wavelength regions use the property that the light penetration depth into the specimen 800 is different if the wavelengths are different, or the light absorption in the specimen 800 if the wavelengths are different. It can be used to detect the depth of an object such as a blood vessel by utilizing the property of different rates. That is, it can be determined that the blood vessel that can be identified by the specific wavelength image of the blue region exists in the depth region where the light of the wavelength belonging to the blue region is reflected. Similarly, a blood vessel that can be identified by a specific wavelength image in the green region can be determined to exist in a depth region where light having a wavelength belonging to the green region is reflected, and a blood vessel that can be identified by a specific wavelength image in the red region is It can be determined that the light exists in a depth region where light having a wavelength belonging to is reflected. The depth at which blue light is reflected is shallower than the depth at which red light is reflected, and the depth at which green light is reflected is located between these two.

また、血管内のICGが発した蛍光のうち、長波長領域に属する光の吸収は、短波長領域に属する光の吸収より小さいから、長波長領域、中波長領域あるいは短波長領域の特定波長画像に含まれる血管画像の明るさの比から当該血管の深さを推定できる。たとえば長波長領域の特定波長画像に係る血管画像の明るさに対して、短波長領域の特定波長画像に係る血管画像が暗ければ、当該血管は深い位置に存在すると推定できる。逆に長波長領域の特定波長画像に係る血管画像の明るさに対して、短波長領域の特定波長画像に係る血管画像が明るければ、短波長領域の光を吸収するであろう光の行路が長くなく、当該血管は浅い位置に存在すると推定できる。   Further, among the fluorescence emitted by ICG in the blood vessel, the absorption of light belonging to the long wavelength region is smaller than the absorption of light belonging to the short wavelength region, so that the specific wavelength image of the long wavelength region, medium wavelength region or short wavelength region The depth of the blood vessel can be estimated from the brightness ratio of the blood vessel image included in the blood vessel. For example, if the blood vessel image related to the specific wavelength image in the short wavelength region is darker than the brightness of the blood vessel image related to the specific wavelength image in the long wavelength region, it can be estimated that the blood vessel exists at a deep position. Conversely, if the blood vessel image related to the specific wavelength image in the short wavelength region is brighter than the brightness of the blood vessel image related to the specific wavelength image in the long wavelength region, the path of light that will absorb light in the short wavelength region is It is not long and it can be estimated that the blood vessel exists in a shallow position.

以上のような光の波長による物質への進入深さ(反射光の進入深さ)の相違を利用して血管等オブジェクトの深さを検出する場合、特定波長画像取得部212は、オブジェクトから反射した反射光の画像である反射光画像を、特定波長画像として取得する。特定波長画像取得部212は、オブジェクトに白色光を照射してオブジェクトから反射した反射光のうち、特定波長領域に属する反射光の画像である反射光画像を、特定波長画像として取得してもよい。あるいは特定波長画像取得部212は、オブジェクトに特定波長領域に属する照射光を照射してオブジェクトから反射した反射光の画像である反射光画像を、特定波長画像として取得してもよい。また、物質の深部で発光した蛍光の波長による吸収率の相違を利用して血管等オブジェクトの深さを検出する場合、特定波長画像取得部212は、ルミネッセンス物質が発した光のうち、特定波長領域に属する光の画像である発光画像を、特定波長画像として取得する。   When detecting the depth of an object such as a blood vessel using the difference in the depth of penetration into the substance (the depth of penetration of reflected light) due to the wavelength of light as described above, the specific wavelength image acquisition unit 212 reflects from the object. A reflected light image that is an image of the reflected light thus obtained is acquired as a specific wavelength image. The specific wavelength image acquisition unit 212 may acquire, as the specific wavelength image, a reflected light image that is an image of reflected light belonging to the specific wavelength region among the reflected light reflected from the object by irradiating the object with white light. . Or the specific wavelength image acquisition part 212 may acquire the reflected light image which is an image of the reflected light which irradiated the irradiation light which belongs to a specific wavelength area | region, and was reflected from the object as a specific wavelength image. In addition, when detecting the depth of an object such as a blood vessel using the difference in absorption rate depending on the wavelength of the fluorescence emitted in the deep part of the substance, the specific wavelength image acquisition unit 212 uses the specific wavelength of the light emitted from the luminescent substance. A light emission image that is an image of light belonging to the region is acquired as a specific wavelength image.

表面画像取得部214は、物質の表面の画像である表面画像を取得する。すなわち表面画像取得部214は、視認すると同等の画像を取得する。オブジェクト領域特定部216は、複数の特定波長画像ごとにオブジェクトの画像領域を特定する。すなわちオブジェクト領域特定部216は、特定波長画像に含まれる血管等のオブジェクトの画像領域を画定して血管画像等を特定する。   The surface image acquisition unit 214 acquires a surface image that is an image of the surface of the substance. That is, the surface image acquisition unit 214 acquires an equivalent image when visually recognized. The object area specifying unit 216 specifies the image area of the object for each of the plurality of specific wavelength images. That is, the object area specifying unit 216 specifies an image area of an object such as a blood vessel included in the specific wavelength image, and specifies a blood vessel image or the like.

深さ算出部218は、特定波長領域が異なる複数の特定波長画像から、オブジェクトの物質の表面からの深さを算出する。前記した通り、特定波長画像には光の進入深さの情報を含むから、特定波長画像に含まれるオブジェクトの明るさ(輝度)を比較または演算してオブジェクトの深さを計算できる。   The depth calculation unit 218 calculates the depth from the surface of the substance of the object from a plurality of specific wavelength images having different specific wavelength regions. As described above, since the specific wavelength image includes the information on the light penetration depth, the depth of the object can be calculated by comparing or calculating the brightness (luminance) of the object included in the specific wavelength image.

たとえば深さ算出部218は、オブジェクト領域特定部216が特定した画像領域における輝度に基づいて深さを算出できる。たとえば深さ算出部218は、長波長域の特定波長領域における画像領域の輝度に対する短波長域の特定波長領域における画像領域の輝度の比に基づいて深さを算出できる。たとえば深さ算出部218は、画像領域における最高輝度または平均輝度に基づいて深さを算出できる。たとえば深さ算出部218は、画像領域の端部における輝度の変化率に基づいて深さを算出できる。   For example, the depth calculation unit 218 can calculate the depth based on the luminance in the image region specified by the object region specification unit 216. For example, the depth calculation unit 218 can calculate the depth based on the ratio of the luminance of the image region in the specific wavelength region in the short wavelength region to the luminance of the image region in the specific wavelength region in the long wavelength region. For example, the depth calculation unit 218 can calculate the depth based on the maximum luminance or the average luminance in the image area. For example, the depth calculator 218 can calculate the depth based on the luminance change rate at the edge of the image area.

なお、深さ算出部218は、血管に存在しているICGの量および当該血管の画像の輝度に対応づけて、深さを予め記憶していてよい。深さ算出部218は、ICG注入部700から注入されたICGの量に基づき検体800に存在しているICGの量を算出して、算出したICGの量に応じた値、およびオブジェクト領域特定部216が特定した画像領域における輝度に応じた値に対応づけて予め記憶している深さを、血管の深さとして算出してよい。   The depth calculation unit 218 may store the depth in advance in association with the amount of ICG existing in the blood vessel and the luminance of the image of the blood vessel. The depth calculation unit 218 calculates the amount of ICG present in the specimen 800 based on the amount of ICG injected from the ICG injection unit 700, the value corresponding to the calculated amount of ICG, and the object region specifying unit The depth stored in advance in association with the value corresponding to the luminance in the image region specified by 216 may be calculated as the blood vessel depth.

画像領域の端部における輝度の変化率は、たとえば画像空間における位置(距離)を変数とする輝度の微分係数で表現できる。当該微分係数は画像領域に係るオブジェクトのボケの大きさを数値化した例であり、微分係数が大きいほどボケは小さく、オブジェクトはより浅い位置に存在すると推定できる。   The rate of change in luminance at the edge of the image area can be expressed, for example, by a luminance differential coefficient with the position (distance) in the image space as a variable. The differential coefficient is an example in which the size of the blur of the object related to the image area is digitized, and it can be estimated that the larger the differential coefficient, the smaller the blur and the object exists at a shallower position.

なお、特定波長画像取得部212は、上述したように、オブジェクトからの光であって、特定波長領域に属する光が物質の表面までの間で散乱された散乱光の画像である特定波長画像を取得する。そして、深さ算出部218は、オブジェクト領域特定部216が特定した画像領域における輝度、および物質が光を散乱する散乱特性に基づいて、深さを算出してよい。散乱特性としては、物質の散乱係数を例示することができる。   As described above, the specific wavelength image acquisition unit 212 obtains a specific wavelength image that is light from an object and is an image of scattered light that is scattered between the surface of the substance and light belonging to the specific wavelength region. get. Then, the depth calculation unit 218 may calculate the depth based on the luminance in the image region specified by the object region specification unit 216 and the scattering characteristic that the substance scatters light. An example of the scattering characteristic is a scattering coefficient of a substance.

なお、深さ算出部218は、検体800の部位毎の散乱特性を部位に対応づけて予め記憶している。そして、深さ算出部218は、部位に対応づけて、上述した輝度の比を予め記憶している。そして、深さ算出部218は、特定波長画像として撮像されたオブジェクトが存在する部位に対応づけて予め記憶している散乱特性、および当該部位に対応づけて予め記憶している輝度の比に基づいて、深さを算出してよい。このように、深さ算出部218は、オブジェクト領域特定部が特定した画像領域における輝度、および物質の光学特性に基づいて、深さを算出してよい。   The depth calculation unit 218 stores in advance the scattering characteristics of each part of the specimen 800 in association with the part. The depth calculation unit 218 stores the above-described luminance ratio in advance in association with the part. Then, the depth calculation unit 218 is based on the scattering characteristic stored in advance in association with the part where the object imaged as the specific wavelength image exists and the ratio of the brightness stored in advance in association with the part. And the depth may be calculated. As described above, the depth calculation unit 218 may calculate the depth based on the luminance in the image region specified by the object region specifying unit and the optical characteristics of the substance.

オブジェクト画像生成部230は、深さ算出部218が算出したオブジェクトの深さに応じたオブジェクトの画像を生成する。具体的には、オブジェクト画像生成部230は、深さ算出部218が算出したオブジェクトの深さに応じてオブジェクト画像を補正する。すなわち、オブジェクト画像生成部230は、補正値を適用して、オブジェクト画像におけるオブジェクトの広がりを補正する。なお、オブジェクト画像生成部230が補正した補正画像は表示部300に送られ、表示部300において表示される。なお、オブジェクト画像生成部230における具体的な処理については、図3に関連してより詳細に説明する。   The object image generation unit 230 generates an object image corresponding to the object depth calculated by the depth calculation unit 218. Specifically, the object image generation unit 230 corrects the object image according to the depth of the object calculated by the depth calculation unit 218. That is, the object image generation unit 230 corrects the spread of the object in the object image by applying the correction value. The corrected image corrected by the object image generation unit 230 is sent to the display unit 300 and displayed on the display unit 300. The specific processing in the object image generation unit 230 will be described in more detail with reference to FIG.

補正テーブル222は、オブジェクトの深さに対応付けて、オブジェクトのオブジェクト画像における広がりを補正する補正値を記録する。オブジェクト画像生成部230は、補正テーブル222が記録している補正値を利用してオブジェクト画像を補正できる。   The correction table 222 records a correction value for correcting the spread of the object in the object image in association with the depth of the object. The object image generation unit 230 can correct the object image using the correction value recorded in the correction table 222.

補間画像生成部224は、表面画像の撮像タイミングと補正画像の撮像タイミングとが異なる場合に、時系列に連続した複数の補正画像から、表面画像の撮像タイミングにおける補間画像を生成する。補間方法として、たとえば複数の補正画像における各画素の輝度から、補間画像における当該画素の輝度を内挿により求める方法が例示できる。   When the imaging timing of the surface image and the imaging timing of the correction image are different, the interpolation image generating unit 224 generates an interpolation image at the imaging timing of the surface image from a plurality of correction images that are continuous in time series. As an interpolation method, for example, a method of obtaining the luminance of each pixel in the interpolation image from the luminance of each pixel in a plurality of corrected images can be exemplified.

表示制御部226は、表面画像および補正画像の表示部300への表示を制御する。また表示制御部226は、補正画像におけるオブジェクトの明るさまたは色を深さに応じて変化させて表示部300に表示できる。あるいは表示制御部226は、表面画像と補正画像とを並べて表示部300に表示できる。あるいは表示制御部226は、補間画像を補正画像として表示部300に表示できる。その他、表示制御部226は、オブジェクトの深さ情報を数値として表示部300に表示してもよい。   The display control unit 226 controls display of the surface image and the corrected image on the display unit 300. In addition, the display control unit 226 can display on the display unit 300 by changing the brightness or color of the object in the corrected image according to the depth. Alternatively, the display control unit 226 can display the surface image and the corrected image side by side on the display unit 300. Alternatively, the display control unit 226 can display the interpolation image on the display unit 300 as a corrected image. In addition, the display control unit 226 may display the depth information of the object on the display unit 300 as a numerical value.

図3は、オブジェクト画像生成部230の構成例を示す。オブジェクト画像生成部230は、オブジェクト画像補正部220、オブジェクト予測画像生成部232、画像比較部234、位置関係特定部236、および大きさ特定部238を有する。   FIG. 3 shows a configuration example of the object image generation unit 230. The object image generating unit 230 includes an object image correcting unit 220, an object predicted image generating unit 232, an image comparing unit 234, a positional relationship specifying unit 236, and a size specifying unit 238.

オブジェクト画像補正部220は、深さ算出部218が算出したオブジェクトの深さに応じてオブジェクト画像を補正する。具体的には、オブジェクト画像補正部220は、深さ算出部218が算出したオブジェクトの深さに応じてオブジェクト画像を補正する。例えば、オブジェクト画像補正部220は、補正値を適用して、オブジェクト画像におけるオブジェクトの広がりを補正する。なお、オブジェクト画像補正部220は、補正テーブル222が記録している補正値を利用してオブジェクト画像を補正できる。オブジェクト画像補正部220が補正した補正画像は、補間画像生成部224および表示制御部226を通じて、表示部300に送られ、表示部300において表示される。   The object image correction unit 220 corrects the object image according to the object depth calculated by the depth calculation unit 218. Specifically, the object image correction unit 220 corrects the object image according to the object depth calculated by the depth calculation unit 218. For example, the object image correction unit 220 corrects the spread of the object in the object image by applying the correction value. Note that the object image correction unit 220 can correct the object image using the correction value recorded in the correction table 222. The corrected image corrected by the object image correction unit 220 is sent to the display unit 300 through the interpolation image generation unit 224 and the display control unit 226 and displayed on the display unit 300.

オブジェクト予測画像生成部232は、深さ算出部218が算出した深さにオブジェクトが存在する場合に得られるべきオブジェクトの画像であるオブジェクト予測画像を、オブジェクトが異なる大きさであるそれぞれの場合について、深さ算出部218が算出した深さに基づいて生成する。画像比較部234は、オブジェクト予測画像生成部232が生成した複数のオブジェクト予測画像を、オブジェクト画像とそれぞれ比較する。例えば、画像比較部234は、オブジェクト予測画像生成部232が生成した複数のオブジェクト予測画像を、オブジェクト画像とそれぞれ比較して、複数のオブジェクト予測画像のそれぞれと、オブジェクト画像との間における画像の一致度を算出してよい。   The object predicted image generation unit 232 displays an object predicted image that is an image of an object to be obtained when an object exists at the depth calculated by the depth calculation unit 218 for each case where the objects have different sizes. Generated based on the depth calculated by the depth calculation unit 218. The image comparison unit 234 compares the object prediction images generated by the object prediction image generation unit 232 with the object images. For example, the image comparison unit 234 compares the plurality of object prediction images generated by the object prediction image generation unit 232 with the object images, and matches each of the plurality of object prediction images with the object image. The degree may be calculated.

そして、大きさ特定部238は、画像比較部234による比較結果に基づいて、オブジェクト画像として撮像されているオブジェクトの大きさとして、オブジェクト画像とより一致したオブジェクト予測画像が得られた大きさをより優先して特定する。例えば、大きさ特定部238は、画像比較部234による比較結果に基づいて、オブジェクト画像として撮像されているオブジェクトの大きさとして、オブジェクト画像と最も一致したオブジェクト予測画像が得られた大きさをより優先して特定してよい。例えば、大きさ特定部238は、画像比較部234による比較結果に基づいて、オブジェクト画像として撮像されているオブジェクトの大きさとして、オブジェクト画像と予め定められた値より高い一致度で一致したオブジェクト予測画像が得られた大きさをより優先して特定してよい。   Then, based on the comparison result by the image comparison unit 234, the size specifying unit 238 further sets the size of the predicted object image that more closely matches the object image as the size of the object captured as the object image. Specify with priority. For example, based on the comparison result by the image comparison unit 234, the size specifying unit 238 determines the size of the predicted object image that most closely matches the object image as the size of the object captured as the object image. You may specify with priority. For example, based on the comparison result by the image comparison unit 234, the size specifying unit 238 predicts an object that matches the object image with a higher degree of matching than the predetermined value as the size of the object captured as the object image. The size of the obtained image may be specified with higher priority.

オブジェクト画像補正部220は、オブジェクト画像の大きさを、大きさ特定部238が特定した大きさに応じた大きさに補正してよい。このようにして、オブジェクト画像生成部230は、大きさ特定部238が特定した大きさに応じた大きさのオブジェクトの画像を生成することができる。   The object image correcting unit 220 may correct the size of the object image to a size according to the size specified by the size specifying unit 238. In this way, the object image generation unit 230 can generate an image of an object having a size corresponding to the size specified by the size specifying unit 238.

なお、深さ算出部218は、複数の特定波長画像から、特定波長画像における異なる複数の位置のそれぞれに撮像されているオブジェクトの深さを、当該複数の位置毎に算出してよい。オブジェクト予測画像生成部232は、複数のオブジェクトが近接して存在する場合に得られるべきオブジェクトの画像であるオブジェクト予測画像を、複数のオブジェクトの位置関係が異なるそれぞれの場合について、深さ算出部218が複数の位置毎に算出した深さに基づいて生成する。そして、画像比較部234は、オブジェクト予測画像生成部232が生成した複数のオブジェクト予測画像を、オブジェクト画像とそれぞれ比較する。例えば、画像比較部234は、オブジェクト予測画像生成部232が生成した複数のオブジェクト予測画像を、オブジェクト画像とそれぞれ比較して、複数のオブジェクト予測画像のそれぞれと、オブジェクト画像との間の画像の一致度を算出してよい。   Note that the depth calculation unit 218 may calculate the depth of an object captured at each of a plurality of different positions in the specific wavelength image from the plurality of specific wavelength images for each of the plurality of positions. The object predicted image generation unit 232 converts an object predicted image that is an image of an object to be obtained when a plurality of objects are present in proximity to each other in a case where the positional relationship between the plurality of objects is different. Is generated based on the depth calculated for each of a plurality of positions. Then, the image comparison unit 234 compares the plurality of object prediction images generated by the object prediction image generation unit 232 with the object images. For example, the image comparison unit 234 compares the plurality of object prediction images generated by the object prediction image generation unit 232 with the object images, respectively, and matches each of the plurality of object prediction images with the object image. The degree may be calculated.

位置関係特定部236は、画像比較部234による比較結果に基づいて、オブジェクト画像として撮像されている複数のオブジェクトが近接して存在する領域における位置関係として、オブジェクト画像とより一致したオブジェクト予測画像が得られた位置関係をより優先して特定する。このように、位置関係特定部236は、深さ算出部218が複数の位置毎に算出した深さに基づいて、オブジェクト画像として撮像されている複数のオブジェクトの位置関係を特定することができる。そして、オブジェクト画像補正部220は、深さ算出部218が複数の位置毎に算出した深さ、および位置関係特定部236が特定した位置関係に応じて、オブジェクト画像を補正する。   Based on the comparison result by the image comparison unit 234, the positional relationship specifying unit 236 obtains an object predicted image that more closely matches the object image as a positional relationship in a region where a plurality of objects imaged as object images exist in close proximity. The obtained positional relationship is specified with higher priority. As described above, the positional relationship specifying unit 236 can specify the positional relationship of a plurality of objects captured as object images based on the depth calculated by the depth calculation unit 218 for each of a plurality of positions. Then, the object image correction unit 220 corrects the object image according to the depth calculated by the depth calculation unit 218 for each of a plurality of positions and the positional relationship specified by the positional relationship specification unit 236.

図4は、検体800の内部で光が反射等する様子を模式的に示す。検体800の内部にはオブジェクトの一例である血管810が存在する。検体800にはルミネッセンス物質であるICGが注入されており、血管810の内部にはICGが存在する。検体800にはICGの励起光である赤外線Iirと、オブジェクトである血管810への照射光である赤色光Ir、緑色光Igおよび青色光Ibとが照射される。   FIG. 4 schematically shows how light is reflected inside the specimen 800. A blood vessel 810, which is an example of an object, exists inside the specimen 800. ICG, which is a luminescent substance, is injected into the specimen 800, and ICG exists inside the blood vessel 810. The specimen 800 is irradiated with an infrared ray Iir that is excitation light of ICG and red light Ir, green light Ig, and blue light Ib that are irradiation light to a blood vessel 810 that is an object.

赤外線Iirは、検体800の比較的深い位置(深さdir)まで進入でき、表面から深さdirの間に存在する血管810内のICGは赤外線Iirによって励起される。よって深さdirより浅い位置に存在する血管810の像は、ICGからの蛍光Rfによってオブジェクト画像として取得される。なお、オブジェクト画像として取得された血管810の像にはボケを伴う。   The infrared ray Iir can enter a relatively deep position (depth dir) of the specimen 800, and the ICG in the blood vessel 810 existing between the surface and the depth dir is excited by the infrared ray Iir. Therefore, the image of the blood vessel 810 existing at a position shallower than the depth dir is acquired as an object image by the fluorescence Rf from the ICG. Note that the image of the blood vessel 810 acquired as the object image is blurred.

赤色光Irは、深さdrまで進入して深さdrの近傍で反射される。よって、赤色光Irの赤色反射光Rrには深さdr近傍の血管810の像情報が含まれる。赤色反射光Rrによる血管810の像は赤色領域の特定波長画像として取得され、赤色領域の特定波長画像には、深さdr近傍の血管810の画像が含まれる。   The red light Ir enters the depth dr and is reflected in the vicinity of the depth dr. Therefore, the red reflected light Rr of the red light Ir includes image information of the blood vessel 810 near the depth dr. The image of the blood vessel 810 by the red reflected light Rr is acquired as a specific wavelength image in the red region, and the specific wavelength image in the red region includes an image of the blood vessel 810 in the vicinity of the depth dr.

緑色光Igは、深さdgまで進入して深さdgの近傍で反射される。よって、緑色光Igの緑色反射光Rgには深さdg近傍の血管810の像情報が含まれる。緑色反射光Rgによる血管810の像は緑色領域の特定波長画像として取得され、緑色領域の特定波長画像には、深さdg近傍の血管810の画像が含まれる。   The green light Ig enters the depth dg and is reflected in the vicinity of the depth dg. Therefore, the green reflected light Rg of the green light Ig includes image information of the blood vessel 810 near the depth dg. The image of the blood vessel 810 by the green reflected light Rg is acquired as a specific wavelength image of the green region, and the specific wavelength image of the green region includes an image of the blood vessel 810 near the depth dg.

青色光Ibは、深さdbまで進入して深さdbの近傍で反射される。よって、青色光Ibの青色反射光Rbには深さdb近傍の血管810の像情報が含まれる。青色反射光Rbによる血管810の像は青色領域の特定波長画像として取得され、青色領域の特定波長画像には、深さdb近傍の血管810の画像が含まれる。   The blue light Ib enters to the depth db and is reflected in the vicinity of the depth db. Therefore, the blue reflected light Rb of the blue light Ib includes image information of the blood vessel 810 near the depth db. The image of the blood vessel 810 by the blue reflected light Rb is acquired as a specific wavelength image of the blue region, and the specific wavelength image of the blue region includes an image of the blood vessel 810 near the depth db.

たとえば、赤色反射光Rr、緑色反射光Rg、緑色反射光Rgの各特定波長画像から血管810の深さを特定できる。特定した深さから蛍光Rfによるオブジェクト画像を補正できる。   For example, the depth of the blood vessel 810 can be specified from the specific wavelength images of the red reflected light Rr, the green reflected light Rg, and the green reflected light Rg. The object image by the fluorescence Rf can be corrected from the specified depth.

図5は、表示部300における表示画面310の一例を示す。表示画面310にはオブジェクト画像を補正した補正画像の血管330を、表面画像における血管320に重畳して表示している。表面画像の血管320は検体800の表面観察で視認できる。補正画像の血管330は表面観察では視認できないが、本実施形態の画像処理システム10によって視覚化できる。   FIG. 5 shows an example of the display screen 310 in the display unit 300. On the display screen 310, the blood vessel 330 of the corrected image obtained by correcting the object image is displayed superimposed on the blood vessel 320 in the surface image. The blood vessel 320 in the surface image can be visually recognized by observing the surface of the specimen 800. The blood vessel 330 in the corrected image cannot be visually recognized by surface observation, but can be visualized by the image processing system 10 of the present embodiment.

なお、表面画像の血管320は検体800の表面観察で視認できるので、オブジェクト画像生成部230は、所定の深さより浅い位置を示す深さが深さ算出部218により算出された血管810については補正画像を生成せず、所定の深さ以上の深さが深さ算出部218により算出された血管810については補正画像を生成してよい。そして、表示制御部226は、表面画像の血管320の色と異なる色で、補正画像の血管330を表示してよい。このように、画像処理システム10によると、浅い位置にある血管810と深い位置にある血管810とを、容易に区別して視認することができる画像を提供することができる。   Since the blood vessel 320 in the surface image can be visually recognized by observing the surface of the specimen 800, the object image generation unit 230 corrects the blood vessel 810 in which the depth indicating the position shallower than the predetermined depth is calculated by the depth calculation unit 218. A corrected image may be generated for the blood vessel 810 in which a depth equal to or greater than a predetermined depth is calculated by the depth calculation unit 218 without generating an image. Then, the display control unit 226 may display the blood vessel 330 of the correction image in a color different from the color of the blood vessel 320 of the surface image. As described above, according to the image processing system 10, it is possible to provide an image in which the blood vessel 810 at a shallow position and the blood vessel 810 at a deep position can be easily distinguished and visually recognized.

補正画像の血管330は、本実施形態の画像処理システム10によって補正されるから、血管画像の端部にボケは生じず、鮮明に表示される。なお、補正画像の血管330は、たとえば濃淡を変えて、あるいは色を変えて表面からの深さを表示できる。本実施形態の画像処理システム10を適用すれば、たとえば医師が表示部300の表示画面310を見つつ手術等を実施するとき、表面観察によっては視認できない内部の血管330を鮮明に認識できる場合がある。また、医師は内部の血管330の深さ情報を参照しつつ手術等を実施できる利点が得られる場合がある。   Since the blood vessel 330 in the corrected image is corrected by the image processing system 10 of the present embodiment, the blood vessel image is displayed clearly without blurring at the end of the blood vessel image. It should be noted that the blood vessel 330 of the corrected image can display the depth from the surface, for example, by changing the density or changing the color. If the image processing system 10 of this embodiment is applied, for example, when a doctor performs an operation or the like while viewing the display screen 310 of the display unit 300, the internal blood vessel 330 that cannot be visually recognized by surface observation may be clearly recognized. is there. In addition, there may be an advantage that the doctor can perform an operation or the like while referring to the depth information of the internal blood vessel 330.

図6は、交差している血管810の像である血管像の一例を示す。血管部分像610a〜dは、特定波長画像において、交差していない血管部分の像であるとする。また、領域630は、特定波長画像において血管810が交差している領域であるとする。なお、本実施形態における異なる血管810は、連続する血管810を形成する異なる複数の血管部分であってよい。以後の説明では、血管部分像610a〜dを血管部分像610と総称する場合がある。   FIG. 6 shows an example of a blood vessel image that is an image of intersecting blood vessels 810. The blood vessel partial images 610a to 610d are images of blood vessel portions that do not intersect in the specific wavelength image. Further, it is assumed that the region 630 is a region where the blood vessels 810 intersect in the specific wavelength image. Note that the different blood vessels 810 in the present embodiment may be a plurality of different blood vessel portions that form a continuous blood vessel 810. In the following description, blood vessel partial images 610a to 610d may be collectively referred to as blood vessel partial images 610.

深さ算出部218は、異なる血管810が交差していない領域における血管部分像610a〜dの輝度値に基づいて、上述したようにして血管810の深さを算出することができる。一方、異なる血管810が交差した領域からの光は、異なる血管810のそれぞれからの光が合わさった光になる。このため、領域630内の血管像の輝度値は、異なる血管810のそれぞれからの光の強度の和を示す値となる。このため、深さ算出部218は、領域630内の血管像の輝度値だけから、異なる血管810のそれぞれの深さを正確に算出することができない場合がある。   The depth calculation unit 218 can calculate the depth of the blood vessel 810 as described above based on the luminance values of the blood vessel partial images 610a to 610d in regions where different blood vessels 810 do not intersect. On the other hand, the light from the region where the different blood vessels 810 intersect becomes light that is combined with the light from each of the different blood vessels 810. For this reason, the luminance value of the blood vessel image in the region 630 is a value indicating the sum of the intensities of light from the different blood vessels 810. For this reason, the depth calculation unit 218 may not be able to accurately calculate the depth of each of the different blood vessels 810 from only the luminance value of the blood vessel image in the region 630.

この場合、オブジェクト画像生成部230は、後述する方法で異なる血管810の位置関係を特定して、特定した位置関係に応じた血管の画像を生成する。例えば、オブジェクト画像生成部230は、特定した位置関係に基づいて、特定した位置関係を示す血管の画像を生成したり、オブジェクト画像における交差した血管の像のぼけを補正した補正画像を生成する。なお、図中のsは、血管の走行方向に沿う経路を示しており、図8における説明で使用される。   In this case, the object image generation unit 230 specifies the positional relationship between different blood vessels 810 by a method described later, and generates a blood vessel image corresponding to the specified positional relationship. For example, the object image generation unit 230 generates a blood vessel image indicating the specified positional relationship based on the specified positional relationship, or generates a corrected image in which blurring of intersecting blood vessel images in the object image is corrected. Note that s in the figure indicates a route along the traveling direction of the blood vessel, and is used in the description in FIG.

図7は、血管の走行状態の一例を示す。図6に示した血管の像として撮像される血管810は、本図の(a)、(b)、および(c)のいずれかの走行状態にあるとみなすことができる。本図では、2つの血管810が、実線および破線で区別して示されている。   FIG. 7 shows an example of a running state of a blood vessel. The blood vessel 810 captured as a blood vessel image shown in FIG. 6 can be regarded as being in the traveling state of any one of (a), (b), and (c) in this figure. In this figure, two blood vessels 810 are shown separately by a solid line and a broken line.

位置関係特定部236は、血管部分像610a〜dのそれぞれとして撮像された血管部分のそれぞれの深さに基づいて、2つの血管810がa)、b)、c)のいずれの走行状態にあるかを特定する。なお、血管部分像610a〜dのそれぞれとして撮像された血管部分のそれぞれの深さは、上述したように深さ算出部218によって得ることができる。また、以後の説明では、血管部分像610a〜dのそれぞれとして撮像された血管部分の深さを、それぞれ血管部分像610a〜dからの深さと略称する。   The positional relationship specifying unit 236 has the two blood vessels 810 running in any one of a), b), and c) based on the respective depths of the blood vessel portions captured as the blood vessel partial images 610a to 610d. To identify. Note that the depth of each of the blood vessel portions imaged as each of the blood vessel partial images 610a to 610d can be obtained by the depth calculation unit 218 as described above. In the following description, the depth of the blood vessel part imaged as each of the blood vessel partial images 610a to 610d is abbreviated as the depth from the blood vessel partial images 610a to 610d, respectively.

例えば、位置関係特定部236は、血管部分像610aからの深さおよび血管部分像610cからの深さが、血管部分像610bからの深さおよび血管部分像610dからの深さのいずれよりも深いか浅い場合に、異なる血管810は本図の(a)が示す位置関係にあると判断することができる。また、位置関係特定部236は、血管部分像610aからの深さおよび血管部分像610bからの深さが、血管部分像610cからの深さおよび血管部分像610dからの深さのいずれよりも深いか浅い場合に、異なる血管810は本図の(b)が示す位置関係にあると判断することができる。他にも、位置関係特定部236は、血管部分像610aからの深さおよび血管部分像610dからの深さが、血管部分像610bからの深さおよび血管部分像610cからの深さのいずれよりも深いか浅い場合に、異なる血管810は本図の(c)が示す位置関係にあると判断することができる。このように、位置関係特定部236は、血管部分像610a〜dのそれぞれからの深さについて分類することにより、異なる血管810の位置関係を特定することができる。   For example, the positional relationship specifying unit 236 has a depth from the blood vessel partial image 610a and a depth from the blood vessel partial image 610c that are deeper than both the depth from the blood vessel partial image 610b and the depth from the blood vessel partial image 610d. If it is shallow, it can be determined that the different blood vessels 810 are in the positional relationship shown in FIG. Further, the positional relationship specifying unit 236 has a depth from the blood vessel partial image 610a and a depth from the blood vessel partial image 610b that are deeper than either the depth from the blood vessel partial image 610c or the depth from the blood vessel partial image 610d. If it is shallow, it can be determined that the different blood vessels 810 are in the positional relationship shown in FIG. In addition, the positional relationship specifying unit 236 determines whether the depth from the blood vessel partial image 610a and the depth from the blood vessel partial image 610d are any of the depth from the blood vessel partial image 610b and the depth from the blood vessel partial image 610c. If it is deeper or shallower, it can be determined that the different blood vessels 810 are in the positional relationship shown in FIG. In this manner, the positional relationship specifying unit 236 can specify the positional relationship of different blood vessels 810 by classifying the depth from each of the blood vessel partial images 610a to 610d.

このように、位置関係特定部236は、血管部分像610a〜dのそれぞれからの深さに基づいて、異なる血管810の位置関係を特定することができる。なお、位置関係特定部236は、複数の位置関係の中から、異なる血管810がそれらの位置関係にあるそれぞれの場合に予測される血管810の曲率に基づいて一の位置関係を選択して、選択した位置関係を血管810の位置関係として特定してもよい。   In this way, the positional relationship specifying unit 236 can specify the positional relationship of different blood vessels 810 based on the depth from each of the blood vessel partial images 610a to 610d. The positional relationship specifying unit 236 selects one positional relationship from a plurality of positional relationships based on the curvature of the blood vessel 810 predicted in each case where different blood vessels 810 are in the positional relationship, The selected positional relationship may be specified as the positional relationship of the blood vessel 810.

例えば、異なる血管810が本図の(c)が示す位置関係にあるとした場合、本図の(a)または(b)が示す位置関係である場合より曲率が著しく大きくなる。実際には、血管810が本図の(c)が示す走行状態にある可能性は、本図の(a)または(b)が示す走行状態にある可能性より著しく小さい。そこで、位置関係特定部236は、血管810の位置関係として、曲率が予め定められた値より小さくなる位置関係を、曲率が予め定められた値以上になる位置関係より優先して特定してよい。これにより、非現実的な血管810の位置関係が特定される可能性を著しく低減することができる。   For example, if different blood vessels 810 are in the positional relationship shown in (c) of the figure, the curvature is remarkably larger than that in the case of the positional relationship shown in (a) or (b) of the figure. Actually, the possibility that the blood vessel 810 is in the running state shown in (c) of the figure is significantly smaller than the possibility that the blood vessel 810 is in the running state shown in (a) or (b) of the figure. Therefore, the positional relationship specifying unit 236 may specify the positional relationship in which the curvature is smaller than a predetermined value as the positional relationship of the blood vessel 810 in preference to the positional relationship in which the curvature is greater than or equal to the predetermined value. . Thereby, possibility that the positional relationship of the unreal blood vessel 810 will be specified can be reduced significantly.

なお、位置関係特定部236は、上述の深さに基づく位置関係の特定方法と同様の方法で、血管部分像610a〜dのそれぞれとして撮像された血管部分のそれぞれの太さに基づいて、異なる血管810の位置関係を特定してもよい。例えば、大きさ特定部238は、血管部分像610a〜dのそれぞれとして撮像された血管部分のそれぞれの太さを特定する。なお、以後の説明では、血管部分像610a〜dのそれぞれとして撮像された血管部分のそれぞれの太さを、それぞれ血管部分像610a〜dのそれぞれからの太さと略称する。   The positional relationship specifying unit 236 differs in the same manner as the positional relationship specifying method based on the depth described above, based on the respective thicknesses of the blood vessel portions captured as the blood vessel partial images 610a to 610d. The positional relationship of the blood vessel 810 may be specified. For example, the size specifying unit 238 specifies the thickness of each blood vessel portion imaged as each of the blood vessel partial images 610a to 610d. In the following description, the thickness of each blood vessel part imaged as each of the blood vessel partial images 610a to 610d is abbreviated as the thickness from each of the blood vessel partial images 610a to 610d.

大きさ特定部238は、一例として、血管部分像610a〜dのそれぞれからの深さに基づいて、血管部分像610a〜dのそれぞれからの太さを特定することができる。例えば、血管部分像610のそれぞれの太さには、それぞれの血管部分の太さと、血管810からの光の散乱に起因するぼけが寄与していると考えることができる。そこで、大きさ特定部238は、血管部分像610a〜dのそれぞれからの深さに基づいて、光の散乱に起因するぼけの寄与分を算出する。そして、大きさ特定部238は、算出した寄与分、および血管部分像610a〜dのそれぞれの太さに基づいて、血管部分像610a〜dのそれぞれからの太さを特定する。例えば、大きさ特定部238は、血管部分像610aの太さから、算出した寄与分を減算することによって、血管部分像610aからの太さを特定することができる。なお、血管部分の太さは、この発明におけるオブジェクトの大きさの一例であってよい。   As an example, the size specifying unit 238 can specify the thickness from each of the blood vessel partial images 610a to 610d based on the depth from each of the blood vessel partial images 610a to 610d. For example, it can be considered that the thickness of each blood vessel portion image 610 is contributed by the thickness of each blood vessel portion and the blur caused by light scattering from the blood vessel 810. Therefore, the size specifying unit 238 calculates the contribution of blur caused by light scattering based on the depth from each of the blood vessel partial images 610a to 610d. Then, the size specifying unit 238 specifies the thickness from each of the blood vessel partial images 610a to 610d based on the calculated contribution and the thickness of each of the blood vessel partial images 610a to 610d. For example, the size specifying unit 238 can specify the thickness from the blood vessel partial image 610a by subtracting the calculated contribution from the thickness of the blood vessel partial image 610a. The thickness of the blood vessel portion may be an example of the size of the object in the present invention.

そして、位置関係特定部236は、血管部分像610aからの太さおよび血管部分像610cからの太さが、血管部分像610bからの太さおよび血管部分像610dからの太さのいずれよりも太いか細い場合に、異なる血管810は本図の(a)が示す位置関係にあると判断することができる。また、位置関係特定部236は、血管部分像610aからの太さおよび血管部分像610bからの太さが、血管部分像610cからの太さおよび血管部分像610dからの太さのいずれよりも太いか細い場合に、異なる血管810は本図の(b)が示す位置関係にあると判断することができる。他にも、位置関係特定部236は、血管部分像610aからの太さおよび血管部分像610dからの太さが、血管部分像610bからの太さおよび血管部分像610cからの太さのいずれよりも太いか細い場合に、異なる血管810は本図の(c)が示す位置関係にあると判断することができる。このように、位置関係特定部236は、血管部分像610a〜dのそれぞれからの太さについて分類することにより、異なる血管810の位置関係を特定することができる。   Then, the positional relationship specifying unit 236 has a larger thickness from the blood vessel partial image 610a and a thickness from the blood vessel partial image 610c than the thickness from the blood vessel partial image 610b and the thickness from the blood vessel partial image 610d. If it is thin, it can be determined that the different blood vessels 810 are in the positional relationship shown in FIG. In addition, the positional relationship specifying unit 236 has a larger thickness from the blood vessel partial image 610a and a thickness from the blood vessel partial image 610b than the thickness from the blood vessel partial image 610c and the thickness from the blood vessel partial image 610d. When it is thin, it can be determined that the different blood vessels 810 are in the positional relationship shown in FIG. In addition, the positional relationship specifying unit 236 is configured such that the thickness from the blood vessel partial image 610a and the thickness from the blood vessel partial image 610d are any of the thickness from the blood vessel partial image 610b and the thickness from the blood vessel partial image 610c. If it is thicker or thinner, it can be determined that the different blood vessels 810 are in the positional relationship shown in FIG. As described above, the positional relationship specifying unit 236 can specify the positional relationship of different blood vessels 810 by classifying the thicknesses from the blood vessel partial images 610a to 610d.

なお、位置関係特定部236は、血管部分像610a〜dのそれぞれからの深さおよび太さについて分類することにより、異なる血管810の位置関係を特定してもよい。このように、位置関係特定部236は、血管部分像610a〜dのそれぞれからの深さおよび太さに基づいて、異なる血管810の位置関係を特定してもよい。   The positional relationship specifying unit 236 may specify the positional relationship of different blood vessels 810 by classifying the depth and thickness from each of the blood vessel partial images 610a to 610d. As described above, the positional relationship specifying unit 236 may specify the positional relationship of different blood vessels 810 based on the depth and thickness from each of the blood vessel partial images 610a to 610d.

なお、大きさ特定部238は、上述した方法の他にも、深さ算出部218が算出した深さに血管810が存在すると仮定した場合に得られるべき血管予測像と、血管部分像610a〜dとの比較結果に基づいて、血管部分像610a〜dのそれぞれとして撮像された血管部分の太さを算出してもよい。具体的には、オブジェクト予測画像生成部232は、深さ算出部218が算出した深さに、所与の太さの血管810が存在する場合に得られるべき血管予測像を生成する。   In addition to the above-described method, the size specifying unit 238 also includes a predicted blood vessel image and blood vessel partial images 610a to 610a to be obtained when it is assumed that the blood vessel 810 exists at the depth calculated by the depth calculating unit 218. Based on the comparison result with d, the thickness of the blood vessel part imaged as each of the blood vessel partial images 610a to 610d may be calculated. Specifically, the predicted object image generation unit 232 generates a predicted blood vessel image to be obtained when a blood vessel 810 having a given thickness exists at the depth calculated by the depth calculation unit 218.

なお、オブジェクト予測画像生成部232は、血管部分像610に細線化処理を施すことによって血管の走行方向を特定して、特定した走行方向で走行する所与の太さの血管810が、深さ算出部218が算出した深さに存在する場合に得られるべき血管予測像を生成してよい。なお、オブジェクト予測画像生成部232は、異なる複数の太さのそれぞれについて血管予測像をそれぞれ生成することにより、複数の血管予測像を生成する。なお、血管予測像は、この発明におけるオブジェクト予測画像の一例であってよい。また、オブジェクト予測画像生成部232は、血管部分像610にスムージング処理および2値化処理を施してから、細線化処理を施してよい。   Note that the object predicted image generation unit 232 specifies the traveling direction of the blood vessel by performing thinning processing on the blood vessel partial image 610, and the blood vessel 810 having a given thickness traveling in the identified traveling direction has a depth. A blood vessel prediction image to be obtained when the calculation unit 218 exists at the calculated depth may be generated. The object predicted image generation unit 232 generates a plurality of predicted blood vessels by generating a predicted blood vessel for each of a plurality of different thicknesses. The blood vessel prediction image may be an example of the object prediction image in the present invention. The object predicted image generation unit 232 may perform the thinning process after performing the smoothing process and the binarization process on the blood vessel partial image 610.

なお、オブジェクト予測画像生成部232は、深さ算出部218が算出した深さに応じた血管810からの光の拡がり量に基づいて、血管予測像を生成することができる。例えば、オブジェクト予測画像生成部232は、所与の太さの血管部分が存在する場合の血管部分からの光強度の空間分布、および深さ算出部218が算出した深さにある点からの光に対する点拡がり関数に基づいて、血管予測像を生成することができる。   The object predicted image generation unit 232 can generate a predicted blood vessel image based on the amount of light spread from the blood vessel 810 corresponding to the depth calculated by the depth calculation unit 218. For example, the object predicted image generation unit 232 uses the spatial distribution of the light intensity from the blood vessel portion when a blood vessel portion having a given thickness exists, and the light from the point at the depth calculated by the depth calculation unit 218. A blood vessel prediction image can be generated based on the point spread function for.

そして、画像比較部234は、オブジェクト予測画像生成部232が生成した複数の血管予測像を、血管部分像610とそれぞれ比較することによって、画像の一致度を算出する。そして、大きさ特定部238は、最も高い一致度が得られた血管予測像を生成する場合に与えられた血管部分の太さを、血管部分像610として撮像された血管部分の太さとして特定する。このようにして、大きさ特定部238は、血管部分像610a〜dのそれぞれからの太さを特定することができる。なお、大きさ特定部238は、予め定められた一致度より高い一致度が得られた血管予測像を生成する場合に与えられた血管部分の太さを一致度に応じて重みづけ平均して得られた値を、血管部分像610として撮像された血管部分の太さとして特定してもよい。   Then, the image comparison unit 234 calculates the degree of coincidence of the images by comparing the plurality of blood vessel prediction images generated by the object prediction image generation unit 232 with the blood vessel partial images 610, respectively. Then, the size specifying unit 238 specifies the thickness of the blood vessel portion given when generating the predicted blood vessel image with the highest degree of coincidence as the thickness of the blood vessel portion captured as the blood vessel partial image 610. To do. In this manner, the size specifying unit 238 can specify the thickness from each of the blood vessel partial images 610a to 610d. Note that the size specifying unit 238 weights and averages the thickness of the blood vessel portion given in the case of generating a predicted blood vessel image having a higher matching degree than a predetermined matching degree according to the matching degree. The obtained value may be specified as the thickness of the blood vessel portion captured as the blood vessel partial image 610.

なお、画像処理部200は、深さ算出部218が算出した深さおよび大きさ特定部238が算出した太さを、血管部分像の輝度値および血管部分像の太さに対応づけて記憶してよい。そして、深さ算出部218は、新たに得られた血管部分像の輝度値および当該新たに得られた血管部分像の太さに対応づけて記憶している深さを、当該新たに得られた血管部分像として撮像された血管部分の深さとして算出してよい。そして、大きさ特定部238は、新たに得られた血管部分像の輝度値および当該新たに得られた血管部分像の太さに対応づけて記憶している太さを、当該新たに得られた血管部分像として撮像された血管部分の太さとして特定してよい。これにより、血管部分の深さおよび太さを速やかに算出することができ、ひいては血管810のジオメトリを速やかに決定することができる。   The image processing unit 200 stores the depth calculated by the depth calculation unit 218 and the thickness calculated by the size specifying unit 238 in association with the luminance value of the blood vessel partial image and the thickness of the blood vessel partial image. It's okay. Then, the depth calculation unit 218 newly obtains the brightness value of the newly obtained blood vessel partial image and the depth stored in association with the thickness of the newly obtained blood vessel partial image. It may be calculated as the depth of the blood vessel part imaged as a blood vessel partial image. Then, the size specifying unit 238 newly obtains the brightness value stored in association with the brightness value of the newly obtained blood vessel partial image and the thickness of the newly obtained blood vessel partial image. It may be specified as the thickness of the blood vessel portion captured as the blood vessel partial image. As a result, the depth and thickness of the blood vessel portion can be quickly calculated, and as a result, the geometry of the blood vessel 810 can be quickly determined.

図8は、血管810の走行方向sに沿った方向の深さ変化の一例を示す。本図において、(a)、(b)、(c)、および(d)は、それぞれ血管部分像610aからの深さ変化、血管部分像610bからの深さ変化、血管部分像610cからの深さ変化、および血管部分像610dからの深さ変化を示す。   FIG. 8 shows an example of a change in depth in the direction along the traveling direction s of the blood vessel 810. In this figure, (a), (b), (c), and (d) are the depth change from the blood vessel partial image 610a, the depth change from the blood vessel partial image 610b, and the depth from the blood vessel partial image 610c, respectively. The depth change from the blood vessel partial image 610d is shown.

本図の(a)および(c)は、走行方向sに沿って深さが増大しており、(b)および(d)は、走行方向sに沿って深さが減少している。このような場合、位置関係特定部236は、異なる血管810の位置関係として、図6の(a)が示す位置関係を特定してよい。このように、位置関係特定部236は、類似する深さ変化を示す血管部分像を同じ血管810の像とみなすことによって、血管810の位置関係を特定してよい。このように、位置関係特定部236は、血管810の深さの空間的変化に基づいて、位置関係を特定することができる。なお、深さの空間的変化としては、血管810の走行方向sに沿った方向の深さの微分値を例示することができる。なお、微分値の次数は一次であってよく、多次であってもよい。   The depths of (a) and (c) in this figure increase along the traveling direction s, and the depths of (b) and (d) decrease along the traveling direction s. In such a case, the positional relationship specifying unit 236 may specify the positional relationship shown in FIG. 6A as the positional relationship between the different blood vessels 810. As described above, the positional relationship specifying unit 236 may specify the positional relationship of the blood vessel 810 by regarding the blood vessel partial images showing similar depth changes as images of the same blood vessel 810. As described above, the positional relationship specifying unit 236 can specify the positional relationship based on the spatial change in the depth of the blood vessel 810. In addition, as a spatial change of depth, the differential value of the depth of the direction along the running direction s of the blood vessel 810 can be illustrated. The order of the differential value may be first order or multi-order.

なお、位置関係特定部236は、本図に関連して説明した深さ変化に替えて、血管810の太さ変化に基づいて位置関係を特定することができる。例えば、位置関係特定部236は、類似する太さ変化を示す血管部分像を同じ血管810の像とみなすことによって、血管810の位置関係を特定してよい。   The positional relationship specifying unit 236 can specify the positional relationship based on the change in the thickness of the blood vessel 810 instead of the change in depth described with reference to FIG. For example, the positional relationship specifying unit 236 may specify the positional relationship of the blood vessels 810 by regarding blood vessel partial images showing similar thickness changes as images of the same blood vessels 810.

図9は、血管810の位置関係の一例を示す。本図は、血管810が図6の(a)の位置関係にある場合に、血管部分像610aおよび血管部分像610cとして撮像された血管部分の中心線を含む断面で切断した切断面を示す。血管810が本図に示した位置関係にある場合、血管部分像610a〜dのそれぞれとして撮像された血管部分の表面900からの深さは、ほぼ同じになる。このため、血管部分像610a〜dの深さに基づいて、交差している領域における血管810の位置関係を特定することができない場合がある。例えば、血管810が交差する位置での位置関係として、本図の例のように血管部分像610aおよび血管部分像610cとして撮像された血管部分の方が他方より深い位置にある場合と、血管部分像610aおよび血管部分像610cとして撮像された血管部分の方が他方より浅い位置にある場合との双方が実際にあり得る。   FIG. 9 shows an example of the positional relationship of the blood vessel 810. This figure shows a cut surface cut along a cross section including a center line of a blood vessel part imaged as a blood vessel partial image 610a and a blood vessel partial image 610c when the blood vessel 810 is in the positional relationship of FIG. When the blood vessel 810 is in the positional relationship shown in this figure, the depth from the surface 900 of the blood vessel part imaged as each of the blood vessel partial images 610a to 610d is substantially the same. For this reason, the positional relationship of the blood vessel 810 in the intersecting region may not be specified based on the depth of the blood vessel partial images 610a to 610d. For example, as a positional relationship at the position where the blood vessel 810 intersects, the blood vessel part imaged as the blood vessel partial image 610a and the blood vessel partial image 610c as in the example of this figure is in a deeper position than the other, There can actually be both cases where the blood vessel part imaged as the image 610a and the blood vessel partial image 610c is at a position shallower than the other.

このような場合においても、位置関係特定部236は、血管810が所与の位置関係にあると仮定した場合に得られるべき血管予測像と、血管810の像との比較結果に基づいて、血管810の位置関係を特定することができる。具体的には、オブジェクト予測画像生成部232は、所与の太さの血管810が所与の位置関係で存在する場合に得られるべき血管予測像を生成する。   Even in such a case, the positional relationship specifying unit 236 determines the blood vessel based on the comparison result between the predicted blood vessel image and the image of the blood vessel 810 when it is assumed that the blood vessel 810 has a given positional relationship. The positional relationship of 810 can be specified. Specifically, the object predicted image generation unit 232 generates a predicted blood vessel image to be obtained when a blood vessel 810 having a given thickness exists in a given positional relationship.

位置関係としては、一例として図6で示した(a)、(b)、および(c)が示す走行方向に関する複数の位置関係と、交差している領域における血管810の深さに関する複数の位置関係の組み合わせを含む。オブジェクト予測画像生成部232は、血管810の太さが異なるそれぞれの場合において、位置関係が異なるそれぞれの場合の血管予測像をそれぞれ生成することにより、複数の血管予測像を生成する。なお、血管予測像は、この発明におけるオブジェクト予測画像の一例であってよい。   As the positional relationship, as an example, a plurality of positional relationships related to the traveling direction shown in FIGS. 6A and 6B and a plurality of positions related to the depth of the blood vessel 810 in the intersecting region. Includes a combination of relationships. The object predicted image generation unit 232 generates a plurality of predicted blood vessels by generating respective predicted blood vessels in different positional relationships in each case where the blood vessels 810 have different thicknesses. The blood vessel prediction image may be an example of the object prediction image in the present invention.

そして、画像比較部234は、オブジェクト予測画像生成部232が生成した複数の血管予測像を、領域630における血管810の像とそれぞれ比較することによって、画像の一致度を算出する。そして、大きさ特定部238は、最も高い一致度が得られた血管予測像を生成する場合に異なる血管810の太さとして与えられた値を、異なる血管810のそれぞれの太さとして算出する。また、位置関係特定部236は、最も高い一致度が得られた血管予測像を生成する場合に与えられた位置関係を、異なる血管810の位置関係として特定する。このようにして、位置関係特定部236および大きさ特定部238は、交差している血管810の位置関係および太さをより高い精度で特定することができる。   Then, the image comparison unit 234 compares the plurality of predicted blood vessel images generated by the object predicted image generation unit 232 with the images of the blood vessels 810 in the region 630, thereby calculating the degree of coincidence of the images. Then, the size specifying unit 238 calculates, as the thickness of each of the different blood vessels 810, the value given as the thickness of the different blood vessel 810 when generating the predicted blood vessel image having the highest degree of coincidence. Further, the positional relationship specifying unit 236 specifies the positional relationship given when generating a predicted blood vessel image with the highest degree of coincidence as the positional relationship of different blood vessels 810. In this way, the positional relationship specifying unit 236 and the size specifying unit 238 can specify the positional relationship and the thickness of the intersecting blood vessel 810 with higher accuracy.

なお、上記において、血管810の深さに基づいた位置関係の特定方法、血管810の太さに基づいた位置関係の特定方法、血管810の深さ変化に基づいた位置関係の特定方法、血管810の太さ変化に基づいた位置関係の特定方法、および血管予測像に基づいた位置関係の特定方法について説明した。位置関係特定部236は、それらの位置関係の特定方法の任意の組み合わせに基づき、異なる血管810の位置関係を特定することができる。   Note that, in the above, the positional relationship specifying method based on the depth of the blood vessel 810, the positional relationship specifying method based on the thickness of the blood vessel 810, the positional relationship specifying method based on the depth change of the blood vessel 810, and the blood vessel 810 The positional relationship specifying method based on the change in the thickness of the blood vessel and the positional relationship specifying method based on the blood vessel prediction image have been described. The positional relationship specifying unit 236 can specify the positional relationship of different blood vessels 810 based on any combination of the positional relationship specifying methods.

なお、オブジェクト画像補正部220は、オブジェクト画像において異なる血管810が重なって撮像されている領域の画像を、位置関係特定部236が特定した位置関係に基づき補正してよい。具体的には、オブジェクト画像補正部220は、位置関係特定部236が特定した位置関係に基づき、浅い位置にある血管810の画像を、深い位置にある血管810の画像より強調した補正画像を生成してよい。このように、オブジェクト画像補正部220は、より深い位置にあるオブジェクトの画像より、当該オブジェクトより浅い位置にあるオブジェクトが優先して表示されるべく、オブジェクト画像を補正してよい。   Note that the object image correction unit 220 may correct an image of an area captured by overlapping different blood vessels 810 in the object image based on the positional relationship specified by the positional relationship specifying unit 236. Specifically, the object image correcting unit 220 generates a corrected image in which the image of the blood vessel 810 at the shallow position is emphasized from the image of the blood vessel 810 at the deep position based on the positional relationship specified by the positional relationship specifying unit 236. You can do it. As described above, the object image correction unit 220 may correct the object image so that the object at a position shallower than the object is displayed with priority over the image of the object at a deeper position.

一例として、オブジェクト画像補正部220は、深い位置にある血管810の画像を深さに応じて補正して得られた画像に、浅い位置にある血管810の画像を深さに応じて補正して得られた画像で上書きしてよい。オブジェクト画像においては、血管810が重なって撮像されている領域の画素値は、深い位置にある血管810による画素値への寄与分と浅い位置にある血管810による画素値への寄与分との和に応じた値となっている。オブジェクト画像補正部220が、浅い位置にある血管810の画像を深さに応じて補正して得られた画像で上書きすることにより、血管810が重なって撮像される領域の画素値には、深い位置にある血管810は寄与せず、浅い位置にある血管810だけが寄与することになる。これにより、オブジェクト画像補正部220は、血管810が重なって撮像される領域においても、浅い位置にある血管810の境界および走行状態がより明確な補正画像を生成することができる。   As an example, the object image correction unit 220 corrects the image of the blood vessel 810 at the shallow position according to the depth to the image obtained by correcting the image of the blood vessel 810 at the deep position according to the depth. The obtained image may be overwritten. In the object image, the pixel value of the region where the blood vessel 810 is overlapped is the sum of the contribution to the pixel value by the blood vessel 810 at the deep position and the contribution to the pixel value by the blood vessel 810 at the shallow position. It is a value according to. The object image correction unit 220 overwrites the image of the blood vessel 810 at a shallow position with an image obtained by correcting the image according to the depth, so that the pixel value of the region where the blood vessel 810 is overlapped and captured is deep. The blood vessel 810 at the position does not contribute, and only the blood vessel 810 at the shallow position contributes. Thereby, the object image correction unit 220 can generate a corrected image in which the boundary and the running state of the blood vessel 810 at a shallow position are clearer even in the region where the blood vessel 810 is overlapped and imaged.

なお、図6から図9に関連して、2つの血管810の位置関係を特定して、特定した位置関係に応じた2つの血管810の画像を生成する場合を例に挙げて画像処理部200の動作を説明した。同様にして、画像処理部200は、3以上の血管810の位置関係を特定して、特定した位置関係に応じた3以上の血管810の画像を生成することができる。   6 to 9, the image processing unit 200 is exemplified by a case where the positional relationship between the two blood vessels 810 is specified and an image of the two blood vessels 810 corresponding to the specified positional relationship is generated. Explained the operation. Similarly, the image processing unit 200 can specify the positional relationship between the three or more blood vessels 810 and generate an image of the three or more blood vessels 810 according to the specified positional relationship.

以上説明したように、画像処理システム10によると、交差または重なって撮像された複数の血管810のジオメトリが適切に表現された補正画像を提供することができる。このため、医師などは、補正画像により血管810の走行状態を容易に視認することができる。   As described above, according to the image processing system 10, it is possible to provide a corrected image in which the geometry of a plurality of blood vessels 810 captured in an intersecting or overlapping manner is appropriately expressed. For this reason, a doctor or the like can easily visually recognize the traveling state of the blood vessel 810 using the corrected image.

図10は、本実施形態に係る画像処理システム10のハードウェア構成の一例を示す。本実施形態に係る画像処理システム10は、ホスト・コントローラ1582により相互に接続されるCPU1505、RAM1520、グラフィック・コントローラ1575、および表示装置1580を有するCPU周辺部と、入出力コントローラ1584によりホスト・コントローラ1582に接続される通信インターフェイス1530、ハードディスクドライブ1540、およびCD−ROMドライブ1560を有する入出力部と、入出力コントローラ1584に接続されるROM1510、フレキシブルディスク・ドライブ1550、および入出力チップ1570を有するレガシー入出力部と、を備える。   FIG. 10 shows an example of a hardware configuration of the image processing system 10 according to the present embodiment. The image processing system 10 according to this embodiment includes a CPU peripheral unit including a CPU 1505, a RAM 1520, a graphic controller 1575, and a display device 1580 that are connected to each other by a host controller 1582, and a host controller 1582 by an input / output controller 1584. I / O unit having a communication interface 1530, a hard disk drive 1540, and a CD-ROM drive 1560 connected to the I / O controller, and a legacy input having a ROM 1510, a flexible disk drive 1550, and an I / O chip 1570 connected to the I / O controller 1584. And an output unit.

ホスト・コントローラ1582は、RAM1520と、高い転送レートでRAM1520をアクセスするCPU1505およびグラフィック・コントローラ1575とを接続する。CPU1505は、ROM1510およびRAM1520に格納されたプログラムに基づいて動作して、各部を制御する。グラフィック・コントローラ1575は、CPU1505等がRAM1520内に設けたフレーム・バッファ上に生成する画像データを取得して、表示装置1580上に表示させる。これに代えて、グラフィック・コントローラ1575は、CPU1505等が生成する画像データを格納するフレーム・バッファを、内部に含んでもよい。   The host controller 1582 connects the RAM 1520 to the CPU 1505 and the graphic controller 1575 that access the RAM 1520 at a high transfer rate. The CPU 1505 operates based on programs stored in the ROM 1510 and the RAM 1520 to control each unit. The graphic controller 1575 acquires image data generated by the CPU 1505 or the like on a frame buffer provided in the RAM 1520 and displays the image data on the display device 1580. Alternatively, the graphic controller 1575 may include a frame buffer that stores image data generated by the CPU 1505 or the like.

入出力コントローラ1584は、ホスト・コントローラ1582と、比較的高速な入出力装置である通信インターフェイス1530、ハードディスクドライブ1540、CD−ROMドライブ1560を接続する。通信インターフェイス1530は、ネットワークを介して他の装置と通信する。ハードディスクドライブ1540は、画像処理システム10内のCPU1505が使用するプログラムおよびデータを格納する。CD−ROMドライブ1560は、CD−ROM1595からプログラムまたはデータを読み取り、RAM1520を介してハードディスクドライブ1540に提供する。   The input / output controller 1584 connects the host controller 1582 to the communication interface 1530, the hard disk drive 1540, and the CD-ROM drive 1560, which are relatively high-speed input / output devices. The communication interface 1530 communicates with other devices via a network. The hard disk drive 1540 stores programs and data used by the CPU 1505 in the image processing system 10. The CD-ROM drive 1560 reads a program or data from the CD-ROM 1595 and provides it to the hard disk drive 1540 via the RAM 1520.

また、入出力コントローラ1584には、ROM1510と、フレキシブルディスク・ドライブ1550、および入出力チップ1570の比較的低速な入出力装置とが接続される。ROM1510は、画像処理システム10が起動時に実行するブート・プログラム、画像処理システム10のハードウェアに依存するプログラム等を格納する。フレキシブルディスク・ドライブ1550は、フレキシブルディスク1590からプログラムまたはデータを読み取り、RAM1520を介してハードディスクドライブ1540に提供する。入出力チップ1570は、フレキシブルディスク・ドライブ1550、例えばパラレル・ポート、シリアル・ポート、キーボード・ポート、マウス・ポート等を介して各種の入出力装置を接続する。   The input / output controller 1584 is connected to the ROM 1510, the flexible disk drive 1550, and the relatively low-speed input / output device of the input / output chip 1570. The ROM 1510 stores a boot program that the image processing system 10 executes at startup, a program that depends on the hardware of the image processing system 10, and the like. The flexible disk drive 1550 reads a program or data from the flexible disk 1590 and provides it to the hard disk drive 1540 via the RAM 1520. The input / output chip 1570 connects various input / output devices via a flexible disk drive 1550 such as a parallel port, a serial port, a keyboard port, and a mouse port.

RAM1520を介してハードディスクドライブ1540に提供される通信プログラムは、フレキシブルディスク1590、CD−ROM1595、またはICカード等の記録媒体に格納されて利用者によって提供される。通信プログラムは、記録媒体から読み出され、RAM1520を介して画像処理システム10内のハードディスクドライブ1540にインストールされ、CPU1505において実行される。画像処理システム10にインストールされて実行される通信プログラムは、CPU1505等に働きかけて、画像処理システム10を、図1から図9にかけて説明した画像処理部200等として機能させる。   A communication program provided to the hard disk drive 1540 via the RAM 1520 is stored in a recording medium such as the flexible disk 1590, the CD-ROM 1595, or an IC card and provided by the user. The communication program is read from the recording medium, installed in the hard disk drive 1540 in the image processing system 10 via the RAM 1520, and executed by the CPU 1505. A communication program installed and executed in the image processing system 10 works on the CPU 1505 or the like to cause the image processing system 10 to function as the image processing unit 200 or the like described with reference to FIGS.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

たとえばICGからの蛍光強度は、ICGの検体800内部における濃度に依存すると考えられる。ICGは検体800で代謝されることによって減少するから、ICG濃度の減少による蛍光強度の補償を実施することが好ましい。当該補償の方法として、ICG投与からの経過時間に応じてICGを追加投与する方法が例示できる。また、ICG濃度の減少を補償するように励起光強度を増加する方法、あるいは蛍光強度に依存する補正値の値を補償する方法が例示できる。   For example, the fluorescence intensity from ICG is considered to depend on the concentration of ICG in the specimen 800. Since ICG is reduced by being metabolized in the specimen 800, it is preferable to compensate for the fluorescence intensity by reducing the ICG concentration. An example of the compensation method is a method of additionally administering ICG according to the elapsed time from ICG administration. Further, a method of increasing the excitation light intensity so as to compensate for the decrease in the ICG concentration, or a method of compensating the correction value value depending on the fluorescence intensity can be exemplified.

また、前記した実施形態では、内視鏡100を利用して検体800の内部の画像を補正する例を示した。しかし、本実施形態の画像処理システム10は、検体800内部の観察画像に適用が限定されるわけではない。たとえば検体800の外部から励起光あるいは照射光を照射して、検体800の外部から観察できる表面の深部に存在するオブジェクトの画像を補正する場合に適用してもよい。   In the above-described embodiment, an example in which an image inside the specimen 800 is corrected using the endoscope 100 has been described. However, the application of the image processing system 10 of the present embodiment is not limited to the observation image inside the specimen 800. For example, the present invention may be applied to a case where an image of an object existing in a deep portion of the surface that can be observed from the outside of the specimen 800 is corrected by irradiating excitation light or irradiation light from the outside of the specimen 800.

前記した実施形態では、オブジェクトの内部に含まれるルミネッセンス物質が発する蛍光を利用してオブジェクト画像を取得する例を主に説明した。しかし、オブジェクト画像は、オブジェクトに可視光、赤外線その他の波長範囲の光を照射して、その反射光を撮像することにより取得することもできる。   In the above-described embodiment, the example in which the object image is acquired using the fluorescence emitted from the luminescent substance contained in the object has been mainly described. However, the object image can also be obtained by irradiating the object with visible light, infrared light or other light in the wavelength range and imaging the reflected light.

本実施形態の画像処理システム10の一例をICG注入部700および検体800とともに示す。An example of the image processing system 10 of the present embodiment is shown together with an ICG injection unit 700 and a specimen 800. 画像処理部200の構成例を示す。2 shows a configuration example of an image processing unit 200. オブジェクト画像生成部230の構成例を示す図である。3 is a diagram illustrating a configuration example of an object image generation unit 230. FIG. 検体800の内部で光が反射等する様子を模式的に示す。A state in which light is reflected or the like inside the specimen 800 is schematically shown. 表示部300における表示画面310の一例を示す。An example of the display screen 310 in the display part 300 is shown. 交差している血管810の像である血管像の一例を示す図である。It is a figure which shows an example of the blood vessel image which is the image of the blood vessel 810 which cross | intersects. 血管の走行状態の一例を示す図である。It is a figure which shows an example of the running state of the blood vessel. 血管810の走行方向sに沿った方向の深さ変化の一例を示す図である。It is a figure which shows an example of the depth change of the direction along the running direction s of the blood vessel 810. FIG. 血管810の位置関係の一例を示す図である。5 is a diagram illustrating an example of a positional relationship of a blood vessel 810. FIG. 本実施形態に係る画像処理システム10のハードウェア構成の一例を示す。1 shows an example of a hardware configuration of an image processing system 10 according to the present embodiment.

符号の説明Explanation of symbols

10 画像処理システム
100 内視鏡
102 先端部
110 撮像部
112 対物レンズ
120 ライトガイド
122 IRライトガイド
124 Rライトガイド
126 Gライトガイド
128 Bライトガイド
130 鉗子口
135 鉗子
140 ノズル
200 画像処理部
210 オブジェクト画像取得部
212 特定波長画像取得部
214 表面画像取得部
216 オブジェクト領域特定部
218 算出部
220 オブジェクト画像補正部
222 補正テーブル
224 補間画像生成部
226 表示制御部
230 オブジェクト画像生成部
232 オブジェクト予測画像生成部
234 画像比較部
236 位置関係特定部
238 大きさ特定部
300 表示部
310 表示画面
320 血管
330 血管
400 撮像制御部
500 発光部
600 発光制御部
610 血管部分像
630 領域
900 表面
700 ICG注入部
800 検体
810 血管
1505 CPU
1510 ROM
1520 RAM
1530 通信インターフェイス
1540 ハードディスクドライブ
1550 フレキシブルディスク・ドライブ
1560 CD−ROMドライブ
1570 入出力チップ
1575 グラフィック・コントローラ
1580 表示装置
1582 ホスト・コントローラ
1584 入出力コントローラ
1590 フレキシブルディスク
1595 CD−ROM
DESCRIPTION OF SYMBOLS 10 Image processing system 100 Endoscope 102 Tip part 110 Imaging part 112 Objective lens 120 Light guide 122 IR light guide 124 R light guide 126 G light guide 128 B light guide 130 Forceps opening 135 Forceps 140 Nozzle 200 Image processing part 210 Object image Acquisition unit 212 Specific wavelength image acquisition unit 214 Surface image acquisition unit 216 Object region specification unit 218 Calculation unit 220 Object image correction unit 222 Correction table 224 Interpolated image generation unit 226 Display control unit 230 Object image generation unit 232 Object predicted image generation unit 234 Image comparison unit 236 Position relationship specifying unit 238 Size specifying unit 300 Display unit 310 Display screen 320 Blood vessel 330 Blood vessel 400 Imaging control unit 500 Light emitting unit 600 Light emission control unit 610 Blood vessel partial image 630 region 900 surface 700 ICG injection part 800 specimen 810 blood vessel 1505 CPU
1510 ROM
1520 RAM
1530 Communication interface 1540 Hard disk drive 1550 Flexible disk drive 1560 CD-ROM drive 1570 Input / output chip 1575 Graphic controller 1580 Display device 1582 Host controller 1584 Input / output controller 1590 Flexible disk 1595 CD-ROM

Claims (25)

物質の内部に存在するオブジェクトからの光であって特定波長領域に属する光の画像である特定波長画像を取得する特定波長画像取得部と、
前記特定波長領域が異なる複数の前記特定波長画像から、前記オブジェクトの前記物質の表面からの深さを算出する深さ算出部と、
前記深さ算出部が算出した前記オブジェクトの前記深さに応じた前記オブジェクトの画像を生成するオブジェクト画像生成部と、
を備える画像処理システム。
A specific wavelength image acquisition unit that acquires a specific wavelength image that is an image of light that belongs to a specific wavelength region and is light from an object existing inside the substance;
A depth calculator that calculates the depth of the object from the surface of the substance from a plurality of the specific wavelength images having different specific wavelength regions;
An object image generation unit that generates an image of the object according to the depth of the object calculated by the depth calculation unit;
An image processing system comprising:
前記オブジェクトからの光の画像であるオブジェクト画像を取得するオブジェクト画像取得部
をさらに備え、
前記オブジェクト画像生成部は、
前記深さ算出部が算出した前記オブジェクトの前記深さに応じて前記オブジェクト画像を補正するオブジェクト画像補正部
を有する
請求項1に記載の画像処理システム。
An object image acquisition unit that acquires an object image that is an image of light from the object;
The object image generation unit
The image processing system according to claim 1, further comprising: an object image correction unit that corrects the object image according to the depth of the object calculated by the depth calculation unit.
前記特定波長画像取得部は、前記オブジェクトから反射した反射光の画像である反射光画像を、前記特定波長画像として取得する、
請求項1または2に記載の画像処理システム。
The specific wavelength image acquisition unit acquires a reflected light image that is an image of reflected light reflected from the object as the specific wavelength image.
The image processing system according to claim 1 or 2.
前記特定波長画像取得部は、前記オブジェクトに白色光を照射して前記オブジェクトから反射した反射光のうち、前記特定波長領域に属する反射光の画像である反射光画像を、前記特定波長画像として取得する、
請求項3に記載の画像処理システム。
The specific wavelength image acquisition unit acquires, as the specific wavelength image, a reflected light image that is an image of reflected light belonging to the specific wavelength region among reflected light reflected from the object by irradiating the object with white light. To
The image processing system according to claim 3.
前記特定波長画像取得部は、前記オブジェクトに前記特定波長領域に属する照射光を照射して前記オブジェクトから反射した反射光の画像である反射光画像を、前記特定波長画像として取得する、
請求項3に記載の画像処理システム。
The specific wavelength image acquisition unit acquires a reflected light image, which is an image of reflected light reflected from the object by irradiating the object with irradiation light belonging to the specific wavelength region, as the specific wavelength image.
The image processing system according to claim 3.
前記特定波長画像取得部は、前記オブジェクトの内部のルミネッセンス物質が発した光のうち、前記特定波長領域に属する光の画像である発光画像を、前記特定波長画像として取得する、
請求項1または2に記載の画像処理システム。
The specific wavelength image acquisition unit acquires, as the specific wavelength image, a light emission image that is an image of light belonging to the specific wavelength region among light emitted from a luminescent substance inside the object.
The image processing system according to claim 1 or 2.
前記複数の特定波長画像ごとに前記オブジェクトの画像領域を特定するオブジェクト領域特定部、をさらに備え、
前記深さ算出部は、前記オブジェクト領域特定部が特定した前記画像領域における輝度に基づいて前記深さを算出する、
請求項1または2に記載の画像処理システム。
An object region specifying unit that specifies an image region of the object for each of the plurality of specific wavelength images;
The depth calculation unit calculates the depth based on luminance in the image region specified by the object region specification unit.
The image processing system according to claim 1 or 2.
前記深さ算出部は、長波長域の前記特定波長領域における前記画像領域の輝度に対する短波長域の前記特定波長領域における前記画像領域の輝度の比に基づいて前記深さを算出する、
請求項7に記載の画像処理システム。
The depth calculation unit calculates the depth based on a ratio of the luminance of the image region in the specific wavelength region in the short wavelength region to the luminance of the image region in the specific wavelength region in the long wavelength region,
The image processing system according to claim 7.
前記深さ算出部は、前記画像領域における最高輝度または平均輝度に基づいて前記深さを算出する、
請求項7に記載の画像処理システム。
The depth calculation unit calculates the depth based on a maximum luminance or an average luminance in the image region;
The image processing system according to claim 7.
前記深さ算出部は、前記画像領域の端部における輝度の変化率に基づいて前記深さを算出する、
請求項7に記載の画像処理システム。
The depth calculation unit calculates the depth based on a change rate of luminance at an end of the image region;
The image processing system according to claim 7.
前記深さ算出部は、前記オブジェクト領域特定部が特定した前記画像領域における輝度、および前記物質の光学特性に基づいて、前記深さを算出する
請求項7に記載の画像処理システム。
The image processing system according to claim 7, wherein the depth calculation unit calculates the depth based on luminance in the image region specified by the object region specification unit and optical characteristics of the substance.
オブジェクト画像取得部は、前記オブジェクトからの光が前記オブジェクトから前記表面までの間で散乱した散乱光による画像であるオブジェクト画像を取得する
請求項11に記載の画像処理システム。
The image processing system according to claim 11, wherein the object image acquisition unit acquires an object image that is an image of scattered light in which light from the object is scattered from the object to the surface.
前記深さ算出部は、前記オブジェクト領域特定部が特定した前記画像領域における輝度、および前記物質が光を散乱する散乱特性に基づいて、前記深さを算出する
請求項12に記載の画像処理システム。
The image processing system according to claim 12, wherein the depth calculation unit calculates the depth based on luminance in the image region specified by the object region specifying unit and scattering characteristics in which the substance scatters light. .
前記オブジェクトの深さに対応付けて、前記オブジェクトの前記オブジェクト画像における広がりを補正する補正値を記録した補正テーブルをさらに備え、
前記オブジェクト画像補正部は、前記補正値を適用して、前記オブジェクト画像における前記オブジェクトの広がりを補正する、
請求項2に記載の画像処理システム。
A correction table that records correction values for correcting the spread of the object in the object image in association with the depth of the object;
The object image correction unit applies the correction value to correct the spread of the object in the object image;
The image processing system according to claim 2.
前記オブジェクトの内部のルミネッセンス物質を励起する励起光および前記オブジェクトに照射する照射光を発生する発光部と、
前記ルミネッセンス物質が発する光および前記照射光が前記オブジェクトで反射する反射光の画像を撮像する撮像部と、
前記オブジェクト画像補正部が補正した補正画像を表示する表示部と、
をさらに備える請求項2に記載の画像処理システム。
A light emitting unit for generating excitation light for exciting a luminescent substance inside the object and irradiation light for irradiating the object;
An imaging unit that captures an image of light emitted from the luminescent material and reflected light reflected by the object with the irradiation light;
A display unit for displaying a corrected image corrected by the object image correction unit;
The image processing system according to claim 2, further comprising:
前記物質の表面の画像である表面画像を取得する表面画像取得部と、
前記表面画像および前記補正画像の前記表示部への表示を制御する表示制御部と、
をさらに備える請求項15に記載の画像処理システム。
A surface image acquisition unit that acquires a surface image that is an image of the surface of the substance;
A display control unit that controls display of the surface image and the correction image on the display unit;
The image processing system according to claim 15, further comprising:
前記表示制御部は、前記補正画像における前記オブジェクトの明るさまたは色を前記深さに応じて変化させて前記表示部に表示する、
請求項16に記載の画像処理システム。
The display control unit changes the brightness or color of the object in the corrected image according to the depth and displays the change on the display unit.
The image processing system according to claim 16.
前記表示制御部は、前記表面画像と前記補正画像とを並べて前記表示部に表示する、
請求項16に記載の画像処理システム。
The display control unit displays the surface image and the correction image side by side on the display unit.
The image processing system according to claim 16.
前記表面画像の撮像タイミングと前記補正画像の撮像タイミングとが異なる場合に、時系列に連続した複数の前記補正画像から、前記表面画像の撮像タイミングにおける補間画像を生成する補間画像生成部をさらに備え、
前記表示制御部は、前記補間画像を前記補正画像として前記表示部に表示する、
請求項16に記載の画像処理システム。
When the imaging timing of the surface image and the imaging timing of the correction image are different, an interpolation image generating unit that generates an interpolation image at the imaging timing of the surface image from the plurality of correction images that are continuous in time series is further provided. ,
The display control unit displays the interpolated image as the corrected image on the display unit.
The image processing system according to claim 16.
前記深さ算出部は、複数の前記特定波長画像から、前記特定波長画像における異なる複数の位置のそれぞれに撮像されている前記オブジェクトの前記深さを、当該複数の位置毎に算出し、
前記オブジェクト画像生成部は、
前記深さ算出部が複数の位置毎に算出した前記深さに基づいて、前記オブジェクト画像として撮像されている複数の前記オブジェクトの位置関係を特定する位置関係特定部をさらに有し、
前記オブジェクト画像補正部は、前記深さ算出部が複数の位置毎に算出した前記深さ、および前記位置関係特定部が特定した位置関係に応じて、前記オブジェクト画像を補正する
請求項2に記載の画像処理システム。
The depth calculation unit calculates, for each of the plurality of positions, the depth of the object captured at each of a plurality of different positions in the specific wavelength image from the plurality of the specific wavelength images,
The object image generation unit
A positional relationship specifying unit that specifies the positional relationship of the plurality of objects captured as the object image based on the depth calculated by the depth calculation unit for each of a plurality of positions;
The object image correction unit corrects the object image according to the depth calculated by the depth calculation unit for each of a plurality of positions and the positional relationship specified by the positional relationship specifying unit. Image processing system.
前記オブジェクト画像生成部は、
複数の前記オブジェクトが近接して存在する場合に得られるべき前記オブジェクトの画像であるオブジェクト予測画像を、複数の前記オブジェクトの位置関係が異なるそれぞれの場合について、前記深さ算出部が複数の位置毎に算出した前記深さに基づいて生成するオブジェクト予測画像生成部と、
前記オブジェクト予測画像生成部が生成した複数の前記オブジェクト予測画像を、前記オブジェクト画像とそれぞれ比較する画像比較部と、をさらに有し、
前記位置関係特定部は、前記画像比較部による比較結果に基づいて、前記オブジェクト画像として撮像されている複数の前記オブジェクトが近接して存在する領域における位置関係として、前記オブジェクト画像とより一致した前記オブジェクト予測画像が得られた位置関係をより優先して特定する
請求項20に記載の画像処理システム。
The object image generation unit
For each of the cases where the positional relationship of the plurality of objects is different, the depth calculation unit calculates the object prediction image that is an image of the object to be obtained when the plurality of the objects are close to each other. An object predicted image generation unit that generates based on the calculated depth;
An image comparison unit that compares each of the plurality of object prediction images generated by the object prediction image generation unit with the object image;
The positional relationship specifying unit is more closely matched to the object image as a positional relationship in a region where a plurality of the objects captured as the object image are present based on a comparison result by the image comparing unit. The image processing system according to claim 20, wherein the positional relationship from which the object predicted image is obtained is specified with higher priority.
前記オブジェクト画像補正部は、より浅い位置にある前記オブジェクトがより優先して表示されるべく、前記オブジェクト画像を補正する
請求項21に記載の画像処理システム。
The image processing system according to claim 21, wherein the object image correction unit corrects the object image so that the object at a shallower position is displayed with higher priority.
前記オブジェクト画像生成部は、
前記深さ算出部が算出した前記深さに前記オブジェクトが存在する場合に得られるべき前記オブジェクトの画像であるオブジェクト予測画像を、前記オブジェクトが異なる大きさであるそれぞれの場合について、前記深さ算出部が算出した前記深さに基づいて生成するオブジェクト予測画像生成部と、
前記オブジェクト予測画像生成部が生成した複数の前記オブジェクト予測画像を、前記オブジェクト画像とそれぞれ比較する画像比較部と、
前記画像比較部による比較結果に基づいて、前記オブジェクト画像として撮像されている前記オブジェクトの大きさとして、前記オブジェクト画像とより一致した前記オブジェクト予測画像が得られた大きさをより優先して特定する大きさ特定部と、をさらに有し、
前記オブジェクト画像補正部は、前記オブジェクト画像の大きさを、前記大きさ特定部が特定した大きさに応じた大きさに補正する
請求項2に記載の画像処理システム。
The object image generation unit
An object predicted image, which is an image of the object to be obtained when the object exists at the depth calculated by the depth calculation unit, is calculated for each case where the object has a different size. An object predicted image generation unit that generates based on the depth calculated by the unit;
An image comparison unit that compares the plurality of object prediction images generated by the object prediction image generation unit with the object image;
Based on the comparison result by the image comparison unit, the size of the object image captured as the object image is specified with higher priority as the size of the predicted object image that more closely matches the object image. A size specifying part,
The image processing system according to claim 2, wherein the object image correcting unit corrects the size of the object image to a size according to the size specified by the size specifying unit.
物質の内部に存在するオブジェクトからの光であって特定波長領域に属する光の画像である特定波長画像を取得する特定波長画像取得段階と、
前記特定波長領域が異なる複数の前記特定波長画像から、前記オブジェクトの前記物質の表面からの深さを算出する深さ算出段階と、
前記深さ算出段階において算出した前記オブジェクトの前記深さに応じた前記オブジェクトの画像を生成するオブジェクト画像生成段階と、
を備える画像処理方法。
A specific wavelength image acquisition step of acquiring a specific wavelength image, which is an image of light belonging to a specific wavelength region, which is light from an object existing inside the substance;
A depth calculating step of calculating a depth of the object from the surface of the substance from a plurality of the specific wavelength images having different specific wavelength regions;
An object image generation step of generating an image of the object according to the depth of the object calculated in the depth calculation step;
An image processing method comprising:
画像処理システム用のプログラムであって、前記画像処理システムを、
物質の内部に存在するオブジェクトからの光であって特定波長領域に属する光の画像である特定波長画像を取得する特定波長画像取得部、
前記特定波長領域が異なる複数の前記特定波長画像から、前記オブジェクトの前記物質の表面からの深さを算出する深さ算出部、
前記深さ算出部が算出した前記オブジェクトの前記深さに応じた前記オブジェクトの画像を生成するオブジェクト画像生成部、
として機能させるプログラム。
A program for an image processing system, wherein the image processing system is
A specific wavelength image acquisition unit that acquires a specific wavelength image that is an image of light that belongs to a specific wavelength region and is light from an object existing inside the substance;
A depth calculation unit for calculating a depth of the object from the surface of the substance from a plurality of the specific wavelength images having different specific wavelength regions;
An object image generation unit configured to generate an image of the object according to the depth of the object calculated by the depth calculation unit;
Program to function as.
JP2008167820A 2007-07-17 2008-06-26 Image processing system Active JP5435532B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008167820A JP5435532B2 (en) 2007-07-17 2008-06-26 Image processing system
US12/174,404 US7767980B2 (en) 2007-07-17 2008-07-16 Image processing system, image processing method and computer readable medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2007186198 2007-07-17
JP2007186198 2007-07-17
JP2008167820A JP5435532B2 (en) 2007-07-17 2008-06-26 Image processing system

Publications (2)

Publication Number Publication Date
JP2009039515A true JP2009039515A (en) 2009-02-26
JP5435532B2 JP5435532B2 (en) 2014-03-05

Family

ID=40440906

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008167820A Active JP5435532B2 (en) 2007-07-17 2008-06-26 Image processing system

Country Status (1)

Country Link
JP (1) JP5435532B2 (en)

Cited By (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011062408A (en) * 2009-09-18 2011-03-31 Fujifilm Corp Fluorescent image imaging device
JP2011167349A (en) * 2010-02-18 2011-09-01 Olympus Medical Systems Corp Image processor and image processing method
JP2012213552A (en) * 2011-04-01 2012-11-08 Fujifilm Corp Endoscope system, processor device of endoscope system, and image processing method
JP2013255813A (en) * 2013-07-17 2013-12-26 Fujifilm Corp Fluorescence image capturing device
US9262687B2 (en) 2012-12-19 2016-02-16 Olympus Corporation Image processing apparatus and method of operation of image processing appartus
JP2017184861A (en) * 2016-04-01 2017-10-12 富士フイルム株式会社 Image processing device and operation method of the same, and processor device for endoscope and operation method of the same
JP2021509831A (en) * 2017-12-28 2021-04-08 エシコン エルエルシーEthicon LLC Determining Backscattered Light Characteristics Using Laser Light and Red-Green-Blue Coloring
CN114469008A (en) * 2022-03-09 2022-05-13 浙江大学 Blood vessel puncture difficulty intelligent grading device based on blood vessel near-infrared imaging
US11589915B2 (en) 2018-03-08 2023-02-28 Cilag Gmbh International In-the-jaw classifier based on a model
US11589932B2 (en) 2017-12-28 2023-02-28 Cilag Gmbh International Usage and technique analysis of surgeon / staff performance against a baseline to optimize device utilization and performance for both current and future procedures
US11589865B2 (en) 2018-03-28 2023-02-28 Cilag Gmbh International Methods for controlling a powered surgical stapler that has separate rotary closure and firing systems
US11601371B2 (en) 2017-12-28 2023-03-07 Cilag Gmbh International Surgical network determination of prioritization of communication, interaction, or processing based on system or device needs
US11648022B2 (en) 2017-10-30 2023-05-16 Cilag Gmbh International Surgical instrument systems comprising battery arrangements
US11659023B2 (en) 2017-12-28 2023-05-23 Cilag Gmbh International Method of hub communication
US11666331B2 (en) 2017-12-28 2023-06-06 Cilag Gmbh International Systems for detecting proximity of surgical end effector to cancerous tissue
US11672605B2 (en) 2017-12-28 2023-06-13 Cilag Gmbh International Sterile field interactive control displays
US11678881B2 (en) 2017-12-28 2023-06-20 Cilag Gmbh International Spatial awareness of surgical hubs in operating rooms
US11696760B2 (en) 2017-12-28 2023-07-11 Cilag Gmbh International Safety systems for smart powered surgical stapling
US11701185B2 (en) 2017-12-28 2023-07-18 Cilag Gmbh International Wireless pairing of a surgical device with another device within a sterile surgical field based on the usage and situational awareness of devices
US11701139B2 (en) 2018-03-08 2023-07-18 Cilag Gmbh International Methods for controlling temperature in ultrasonic device
US11707293B2 (en) 2018-03-08 2023-07-25 Cilag Gmbh International Ultrasonic sealing algorithm with temperature control
US11737668B2 (en) 2017-12-28 2023-08-29 Cilag Gmbh International Communication hub and storage device for storing parameters and status of a surgical device to be shared with cloud based analytics systems
US11744604B2 (en) 2017-12-28 2023-09-05 Cilag Gmbh International Surgical instrument with a hardware-only control circuit
US11751872B2 (en) 2019-02-19 2023-09-12 Cilag Gmbh International Insertable deactivator element for surgical stapler lockouts
US11751958B2 (en) 2017-12-28 2023-09-12 Cilag Gmbh International Surgical hub coordination of control and communication of operating room devices
US11771487B2 (en) 2017-12-28 2023-10-03 Cilag Gmbh International Mechanisms for controlling different electromechanical systems of an electrosurgical instrument
US11775682B2 (en) 2017-12-28 2023-10-03 Cilag Gmbh International Data stripping method to interrogate patient records and create anonymized record
US11779337B2 (en) 2017-12-28 2023-10-10 Cilag Gmbh International Method of using reinforced flexible circuits with multiple sensors to optimize performance of radio frequency devices
US11786245B2 (en) 2017-12-28 2023-10-17 Cilag Gmbh International Surgical systems with prioritized data transmission capabilities
US11786251B2 (en) 2017-12-28 2023-10-17 Cilag Gmbh International Method for adaptive control schemes for surgical network control and interaction
US11801098B2 (en) 2017-10-30 2023-10-31 Cilag Gmbh International Method of hub communication with surgical instrument systems
US11818052B2 (en) 2017-12-28 2023-11-14 Cilag Gmbh International Surgical network determination of prioritization of communication, interaction, or processing based on system or device needs
US11832899B2 (en) 2017-12-28 2023-12-05 Cilag Gmbh International Surgical systems with autonomously adjustable control programs
US11844579B2 (en) 2017-12-28 2023-12-19 Cilag Gmbh International Adjustments based on airborne particle properties
US11857152B2 (en) 2017-12-28 2024-01-02 Cilag Gmbh International Surgical hub spatial awareness to determine devices in operating theater
US11864728B2 (en) 2017-12-28 2024-01-09 Cilag Gmbh International Characterization of tissue irregularities through the use of mono-chromatic light refractivity
US11871901B2 (en) 2012-05-20 2024-01-16 Cilag Gmbh International Method for situational awareness for surgical network or surgical network connected device capable of adjusting function based on a sensed situation or usage
US11890065B2 (en) 2017-12-28 2024-02-06 Cilag Gmbh International Surgical system to limit displacement
US11896322B2 (en) 2017-12-28 2024-02-13 Cilag Gmbh International Sensing the patient position and contact utilizing the mono-polar return pad electrode to provide situational awareness to the hub
US11896443B2 (en) 2017-12-28 2024-02-13 Cilag Gmbh International Control of a surgical system through a surgical barrier
US11903601B2 (en) 2017-12-28 2024-02-20 Cilag Gmbh International Surgical instrument comprising a plurality of drive systems
US11903587B2 (en) 2017-12-28 2024-02-20 Cilag Gmbh International Adjustment to the surgical stapling control based on situational awareness
US11911045B2 (en) 2017-10-30 2024-02-27 Cllag GmbH International Method for operating a powered articulating multi-clip applier
US11925350B2 (en) 2019-02-19 2024-03-12 Cilag Gmbh International Method for providing an authentication lockout in a surgical stapler with a replaceable cartridge
US11931027B2 (en) 2018-03-28 2024-03-19 Cilag Gmbh Interntional Surgical instrument comprising an adaptive control system
US11937769B2 (en) 2017-12-28 2024-03-26 Cilag Gmbh International Method of hub communication, processing, storage and display
US11969216B2 (en) 2017-12-28 2024-04-30 Cilag Gmbh International Surgical network recommendations from real time analysis of procedure variables against a baseline highlighting differences from the optimal solution
US11969142B2 (en) 2017-12-28 2024-04-30 Cilag Gmbh International Method of compressing tissue within a stapling device and simultaneously displaying the location of the tissue within the jaws
US11998193B2 (en) 2017-12-28 2024-06-04 Cilag Gmbh International Method for usage of the shroud as an aspect of sensing or controlling a powered surgical device, and a control algorithm to adjust its default operation
US12009095B2 (en) 2017-12-28 2024-06-11 Cilag Gmbh International Real-time analysis of comprehensive cost of all instrumentation used in surgery utilizing data fluidity to track instruments through stocking and in-house processes
US12029506B2 (en) 2017-12-28 2024-07-09 Cilag Gmbh International Method of cloud based data analytics for use with the hub
US12035890B2 (en) 2017-12-28 2024-07-16 Cilag Gmbh International Method of sensing particulate from smoke evacuated from a patient, adjusting the pump speed based on the sensed information, and communicating the functional parameters of the system to the hub
US12035983B2 (en) 2017-10-30 2024-07-16 Cilag Gmbh International Method for producing a surgical instrument comprising a smart electrical system
US12042207B2 (en) 2017-12-28 2024-07-23 Cilag Gmbh International Estimating state of ultrasonic end effector and control system therefor
US12048496B2 (en) 2017-12-28 2024-07-30 Cilag Gmbh International Adaptive control program updates for surgical hubs
US12062442B2 (en) 2017-12-28 2024-08-13 Cilag Gmbh International Method for operating surgical instrument systems
US12059169B2 (en) 2017-12-28 2024-08-13 Cilag Gmbh International Controlling an ultrasonic surgical instrument according to tissue location
US12059218B2 (en) 2017-10-30 2024-08-13 Cilag Gmbh International Method of hub communication with surgical instrument systems
US12076010B2 (en) 2017-12-28 2024-09-03 Cilag Gmbh International Surgical instrument cartridge sensor assemblies
US12096985B2 (en) 2021-03-24 2024-09-24 Cilag Gmbh International Surgical network recommendations from real time analysis of procedure variables against a baseline highlighting differences from the optimal solution

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997024066A1 (en) * 1995-12-27 1997-07-10 Toa Medical Electronics Co., Ltd. Noninvasive blood examination apparatus
JPH10165365A (en) * 1996-12-10 1998-06-23 Fuji Photo Film Co Ltd Endoscope
JP2001170009A (en) * 1999-12-20 2001-06-26 Olympus Optical Co Ltd Subject observing instrument
JP2002034893A (en) * 2000-07-27 2002-02-05 Olympus Optical Co Ltd Endoscope instrument
JP2002107291A (en) * 2000-10-03 2002-04-10 Sysmex Corp Non-invasive biological measuring device and method
JP2003290126A (en) * 2002-03-29 2003-10-14 Olympus Optical Co Ltd Sentinel lymph node-detecting apparatus and method therefor
JP2004181096A (en) * 2002-12-05 2004-07-02 Olympus Corp Method for processing image
JP2006138860A (en) * 1995-08-01 2006-06-01 Medispectra Inc Optical microprobe and spectral analysis method of material
JP2006341078A (en) * 2005-05-12 2006-12-21 Olympus Medical Systems Corp Biological observation system
JP2007313169A (en) * 2006-05-29 2007-12-06 Olympus Corp Lesion extractor and lesion extraction method

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006138860A (en) * 1995-08-01 2006-06-01 Medispectra Inc Optical microprobe and spectral analysis method of material
WO1997024066A1 (en) * 1995-12-27 1997-07-10 Toa Medical Electronics Co., Ltd. Noninvasive blood examination apparatus
JPH10165365A (en) * 1996-12-10 1998-06-23 Fuji Photo Film Co Ltd Endoscope
JP2001170009A (en) * 1999-12-20 2001-06-26 Olympus Optical Co Ltd Subject observing instrument
JP2002034893A (en) * 2000-07-27 2002-02-05 Olympus Optical Co Ltd Endoscope instrument
JP2002107291A (en) * 2000-10-03 2002-04-10 Sysmex Corp Non-invasive biological measuring device and method
JP2003290126A (en) * 2002-03-29 2003-10-14 Olympus Optical Co Ltd Sentinel lymph node-detecting apparatus and method therefor
JP2004181096A (en) * 2002-12-05 2004-07-02 Olympus Corp Method for processing image
JP2006341078A (en) * 2005-05-12 2006-12-21 Olympus Medical Systems Corp Biological observation system
JP2007313169A (en) * 2006-05-29 2007-12-06 Olympus Corp Lesion extractor and lesion extraction method

Cited By (79)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011062408A (en) * 2009-09-18 2011-03-31 Fujifilm Corp Fluorescent image imaging device
JP2011167349A (en) * 2010-02-18 2011-09-01 Olympus Medical Systems Corp Image processor and image processing method
JP2012213552A (en) * 2011-04-01 2012-11-08 Fujifilm Corp Endoscope system, processor device of endoscope system, and image processing method
US11871901B2 (en) 2012-05-20 2024-01-16 Cilag Gmbh International Method for situational awareness for surgical network or surgical network connected device capable of adjusting function based on a sensed situation or usage
US9262687B2 (en) 2012-12-19 2016-02-16 Olympus Corporation Image processing apparatus and method of operation of image processing appartus
JPWO2014097758A1 (en) * 2012-12-19 2017-01-12 オリンパス株式会社 Image processing device
JP2013255813A (en) * 2013-07-17 2013-12-26 Fujifilm Corp Fluorescence image capturing device
JP2017184861A (en) * 2016-04-01 2017-10-12 富士フイルム株式会社 Image processing device and operation method of the same, and processor device for endoscope and operation method of the same
US10986980B2 (en) 2016-04-01 2021-04-27 Fujifilm Corporation Image processing device, method for operating same, endoscope processor device, and method for operating same
US11911045B2 (en) 2017-10-30 2024-02-27 Cllag GmbH International Method for operating a powered articulating multi-clip applier
US11925373B2 (en) 2017-10-30 2024-03-12 Cilag Gmbh International Surgical suturing instrument comprising a non-circular needle
US12035983B2 (en) 2017-10-30 2024-07-16 Cilag Gmbh International Method for producing a surgical instrument comprising a smart electrical system
US12059218B2 (en) 2017-10-30 2024-08-13 Cilag Gmbh International Method of hub communication with surgical instrument systems
US11819231B2 (en) 2017-10-30 2023-11-21 Cilag Gmbh International Adaptive control programs for a surgical system comprising more than one type of cartridge
US11801098B2 (en) 2017-10-30 2023-10-31 Cilag Gmbh International Method of hub communication with surgical instrument systems
US11648022B2 (en) 2017-10-30 2023-05-16 Cilag Gmbh International Surgical instrument systems comprising battery arrangements
US11793537B2 (en) 2017-10-30 2023-10-24 Cilag Gmbh International Surgical instrument comprising an adaptive electrical system
US11759224B2 (en) 2017-10-30 2023-09-19 Cilag Gmbh International Surgical instrument systems comprising handle arrangements
US11696778B2 (en) 2017-10-30 2023-07-11 Cilag Gmbh International Surgical dissectors configured to apply mechanical and electrical energy
US11678881B2 (en) 2017-12-28 2023-06-20 Cilag Gmbh International Spatial awareness of surgical hubs in operating rooms
US11890065B2 (en) 2017-12-28 2024-02-06 Cilag Gmbh International Surgical system to limit displacement
US11696760B2 (en) 2017-12-28 2023-07-11 Cilag Gmbh International Safety systems for smart powered surgical stapling
US11672605B2 (en) 2017-12-28 2023-06-13 Cilag Gmbh International Sterile field interactive control displays
US11701185B2 (en) 2017-12-28 2023-07-18 Cilag Gmbh International Wireless pairing of a surgical device with another device within a sterile surgical field based on the usage and situational awareness of devices
US12076010B2 (en) 2017-12-28 2024-09-03 Cilag Gmbh International Surgical instrument cartridge sensor assemblies
JP2021509831A (en) * 2017-12-28 2021-04-08 エシコン エルエルシーEthicon LLC Determining Backscattered Light Characteristics Using Laser Light and Red-Green-Blue Coloring
US11712303B2 (en) 2017-12-28 2023-08-01 Cilag Gmbh International Surgical instrument comprising a control circuit
US11737668B2 (en) 2017-12-28 2023-08-29 Cilag Gmbh International Communication hub and storage device for storing parameters and status of a surgical device to be shared with cloud based analytics systems
US11744604B2 (en) 2017-12-28 2023-09-05 Cilag Gmbh International Surgical instrument with a hardware-only control circuit
US12059124B2 (en) 2017-12-28 2024-08-13 Cilag Gmbh International Surgical hub spatial awareness to determine devices in operating theater
US11751958B2 (en) 2017-12-28 2023-09-12 Cilag Gmbh International Surgical hub coordination of control and communication of operating room devices
US11666331B2 (en) 2017-12-28 2023-06-06 Cilag Gmbh International Systems for detecting proximity of surgical end effector to cancerous tissue
US11771487B2 (en) 2017-12-28 2023-10-03 Cilag Gmbh International Mechanisms for controlling different electromechanical systems of an electrosurgical instrument
US11775682B2 (en) 2017-12-28 2023-10-03 Cilag Gmbh International Data stripping method to interrogate patient records and create anonymized record
US11779337B2 (en) 2017-12-28 2023-10-10 Cilag Gmbh International Method of using reinforced flexible circuits with multiple sensors to optimize performance of radio frequency devices
US11786245B2 (en) 2017-12-28 2023-10-17 Cilag Gmbh International Surgical systems with prioritized data transmission capabilities
US11786251B2 (en) 2017-12-28 2023-10-17 Cilag Gmbh International Method for adaptive control schemes for surgical network control and interaction
US11659023B2 (en) 2017-12-28 2023-05-23 Cilag Gmbh International Method of hub communication
JP7234238B2 (en) 2017-12-28 2023-03-07 エシコン エルエルシー Characterization of backscattered light using laser light and red-green-blue coloration
US11818052B2 (en) 2017-12-28 2023-11-14 Cilag Gmbh International Surgical network determination of prioritization of communication, interaction, or processing based on system or device needs
US11601371B2 (en) 2017-12-28 2023-03-07 Cilag Gmbh International Surgical network determination of prioritization of communication, interaction, or processing based on system or device needs
US11832899B2 (en) 2017-12-28 2023-12-05 Cilag Gmbh International Surgical systems with autonomously adjustable control programs
US12059169B2 (en) 2017-12-28 2024-08-13 Cilag Gmbh International Controlling an ultrasonic surgical instrument according to tissue location
US12062442B2 (en) 2017-12-28 2024-08-13 Cilag Gmbh International Method for operating surgical instrument systems
US11844579B2 (en) 2017-12-28 2023-12-19 Cilag Gmbh International Adjustments based on airborne particle properties
US11857152B2 (en) 2017-12-28 2024-01-02 Cilag Gmbh International Surgical hub spatial awareness to determine devices in operating theater
US11864728B2 (en) 2017-12-28 2024-01-09 Cilag Gmbh International Characterization of tissue irregularities through the use of mono-chromatic light refractivity
US11864845B2 (en) 2017-12-28 2024-01-09 Cilag Gmbh International Sterile field interactive control displays
US12053159B2 (en) 2017-12-28 2024-08-06 Cilag Gmbh International Method of sensing particulate from smoke evacuated from a patient, adjusting the pump speed based on the sensed information, and communicating the functional parameters of the system to the hub
US12048496B2 (en) 2017-12-28 2024-07-30 Cilag Gmbh International Adaptive control program updates for surgical hubs
US11896322B2 (en) 2017-12-28 2024-02-13 Cilag Gmbh International Sensing the patient position and contact utilizing the mono-polar return pad electrode to provide situational awareness to the hub
US11896443B2 (en) 2017-12-28 2024-02-13 Cilag Gmbh International Control of a surgical system through a surgical barrier
US11903601B2 (en) 2017-12-28 2024-02-20 Cilag Gmbh International Surgical instrument comprising a plurality of drive systems
US11903587B2 (en) 2017-12-28 2024-02-20 Cilag Gmbh International Adjustment to the surgical stapling control based on situational awareness
US11589932B2 (en) 2017-12-28 2023-02-28 Cilag Gmbh International Usage and technique analysis of surgeon / staff performance against a baseline to optimize device utilization and performance for both current and future procedures
US11918302B2 (en) 2017-12-28 2024-03-05 Cilag Gmbh International Sterile field interactive control displays
US12042207B2 (en) 2017-12-28 2024-07-23 Cilag Gmbh International Estimating state of ultrasonic end effector and control system therefor
US12035890B2 (en) 2017-12-28 2024-07-16 Cilag Gmbh International Method of sensing particulate from smoke evacuated from a patient, adjusting the pump speed based on the sensed information, and communicating the functional parameters of the system to the hub
US12029506B2 (en) 2017-12-28 2024-07-09 Cilag Gmbh International Method of cloud based data analytics for use with the hub
US11937769B2 (en) 2017-12-28 2024-03-26 Cilag Gmbh International Method of hub communication, processing, storage and display
US11969216B2 (en) 2017-12-28 2024-04-30 Cilag Gmbh International Surgical network recommendations from real time analysis of procedure variables against a baseline highlighting differences from the optimal solution
US11969142B2 (en) 2017-12-28 2024-04-30 Cilag Gmbh International Method of compressing tissue within a stapling device and simultaneously displaying the location of the tissue within the jaws
US12009095B2 (en) 2017-12-28 2024-06-11 Cilag Gmbh International Real-time analysis of comprehensive cost of all instrumentation used in surgery utilizing data fluidity to track instruments through stocking and in-house processes
US11998193B2 (en) 2017-12-28 2024-06-04 Cilag Gmbh International Method for usage of the shroud as an aspect of sensing or controlling a powered surgical device, and a control algorithm to adjust its default operation
US11678927B2 (en) 2018-03-08 2023-06-20 Cilag Gmbh International Detection of large vessels during parenchymal dissection using a smart blade
US11707293B2 (en) 2018-03-08 2023-07-25 Cilag Gmbh International Ultrasonic sealing algorithm with temperature control
US11589915B2 (en) 2018-03-08 2023-02-28 Cilag Gmbh International In-the-jaw classifier based on a model
US11701139B2 (en) 2018-03-08 2023-07-18 Cilag Gmbh International Methods for controlling temperature in ultrasonic device
US11986233B2 (en) 2018-03-08 2024-05-21 Cilag Gmbh International Adjustment of complex impedance to compensate for lost power in an articulating ultrasonic device
US11844545B2 (en) 2018-03-08 2023-12-19 Cilag Gmbh International Calcified vessel identification
US11839396B2 (en) 2018-03-08 2023-12-12 Cilag Gmbh International Fine dissection mode for tissue classification
US11931027B2 (en) 2018-03-28 2024-03-19 Cilag Gmbh Interntional Surgical instrument comprising an adaptive control system
US11986185B2 (en) 2018-03-28 2024-05-21 Cilag Gmbh International Methods for controlling a surgical stapler
US11589865B2 (en) 2018-03-28 2023-02-28 Cilag Gmbh International Methods for controlling a powered surgical stapler that has separate rotary closure and firing systems
US12096916B2 (en) 2018-12-04 2024-09-24 Cilag Gmbh International Method of sensing particulate from smoke evacuated from a patient, adjusting the pump speed based on the sensed information, and communicating the functional parameters of the system to the hub
US11751872B2 (en) 2019-02-19 2023-09-12 Cilag Gmbh International Insertable deactivator element for surgical stapler lockouts
US11925350B2 (en) 2019-02-19 2024-03-12 Cilag Gmbh International Method for providing an authentication lockout in a surgical stapler with a replaceable cartridge
US12096985B2 (en) 2021-03-24 2024-09-24 Cilag Gmbh International Surgical network recommendations from real time analysis of procedure variables against a baseline highlighting differences from the optimal solution
CN114469008A (en) * 2022-03-09 2022-05-13 浙江大学 Blood vessel puncture difficulty intelligent grading device based on blood vessel near-infrared imaging

Also Published As

Publication number Publication date
JP5435532B2 (en) 2014-03-05

Similar Documents

Publication Publication Date Title
JP5435532B2 (en) Image processing system
JP5278854B2 (en) Image processing system and program
US7767980B2 (en) Image processing system, image processing method and computer readable medium
JP5257891B2 (en) Image processing system and program
US8633976B2 (en) Position specifying system, position specifying method, and computer readable medium
JP2018514349A (en) Multispectral laser imaging (MSLI) method and system for imaging and quantification of blood flow and perfusion
JP7190597B2 (en) endoscope system
JP2008522761A (en) Systems and methods for normalized fluorescence or bioluminescence imaging
JP2008173290A (en) Fluorescence observation apparatus and method
JP6319449B2 (en) Imaging device
WO2009120228A1 (en) Image processing systems and methods for surgical applications
EP3945986A1 (en) Near-infrared fluorescence imaging for blood flow and perfusion visualization and related systems and computer program products
JP2012050618A (en) Image acquiring and displaying method, and image capturing and display device
US12052526B2 (en) Imaging system having structural data enhancement for non-visible spectra
JP2018128294A (en) Area of interest tracking device
JP6485275B2 (en) Imaging device
AU2012236545B2 (en) Apparatus and method for identifying one or more amyloid beta plaques in a plurality of discrete OCT retinal layers
US20190239749A1 (en) Imaging apparatus
JP5087771B2 (en) Imaging system, endoscope system, and program
JP2018126234A (en) Time intensity curve measuring apparatus
JP6850358B2 (en) Medical image processing system, endoscopy system, diagnostic support device, and medical business support device
JP6721939B2 (en) Fluorescence image analyzer
EP4181758A1 (en) Image-based determination of a property of a fluorescing substance
WO2024039586A1 (en) Systems and methods for detecting and mitigating extraneous light at a scene

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120911

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130820

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131018

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131204

R150 Certificate of patent or registration of utility model

Ref document number: 5435532

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250