WO2013185317A1 - 双相机的多光谱成像系统和方法 - Google Patents

双相机的多光谱成像系统和方法 Download PDF

Info

Publication number
WO2013185317A1
WO2013185317A1 PCT/CN2012/076888 CN2012076888W WO2013185317A1 WO 2013185317 A1 WO2013185317 A1 WO 2013185317A1 CN 2012076888 W CN2012076888 W CN 2012076888W WO 2013185317 A1 WO2013185317 A1 WO 2013185317A1
Authority
WO
WIPO (PCT)
Prior art keywords
ccd camera
image
matrix
module
infrared
Prior art date
Application number
PCT/CN2012/076888
Other languages
English (en)
French (fr)
Inventor
田捷
迟崇巍
秦承虎
杨鑫
Original Assignee
中国科学院自动化研究所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 中国科学院自动化研究所 filed Critical 中国科学院自动化研究所
Priority to PCT/CN2012/076888 priority Critical patent/WO2013185317A1/zh
Publication of WO2013185317A1 publication Critical patent/WO2013185317A1/zh

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/0291Housings; Spectrometer accessories; Spatial arrangement of elements, e.g. folded path arrangements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/0264Electrical interface; User interface
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/10Arrangements of light sources specially adapted for spectrometry or colorimetry
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/2803Investigating the spectrum using photoelectric array detector
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/30Measuring the intensity of spectral lines directly on the spectrum itself
    • G01J3/36Investigating two or more bands of a spectrum by separate detectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/44Raman spectrometry; Scattering spectrometry ; Fluorescence spectrometry
    • G01J3/4406Fluorescence spectrometry

Definitions

  • the present invention relates to an imaging system, and more particularly to a system and method for multispectral imaging of a dual camera.
  • NIR Near-Infrared
  • the products on the market for detecting near-infrared light are real-time imaging using a single camera. Since the near-infrared light is invisible to the naked eye, the generally collected image is different from the image seen by the naked eye.
  • Dutch scientist Gooitzen M van Dam and others used three cameras to work together to capture fluorescent images, color images and flattened images.
  • Three of the cameras are mainly composed of three CCDs, which are used to capture color images (spectrum range 400nm-650nm), fluorescent images (spectral range 745nm-845nm) And background images (spectrum range 740 nm - 760 nm).
  • the captured images are processed synchronously, achieving the purpose of fluorescence, color, and flattening of three images. Summary of the invention
  • a dual camera multi-spectral imaging system includes: a light source module for providing near-infrared light and visible light;
  • An optical signal acquisition module for collecting fluorescent and visible light images
  • a computer module that processes the acquired image and displays the processed image on a computer display.
  • the invention adopts an optical beam splitting prism to divide the light passing through the lens into two, and simultaneously collects the real time by two CCD cameras.
  • Expanding the space available for optical molecular imaging probes extends the range of optical molecular imaging research and applications.
  • Figure 1 is a structural view of the present invention
  • Figure 2 is a schematic diagram of the system of the present invention
  • Figure 3 is a perspective view of a prism of the present invention
  • Figure 4 is a schematic view showing the structure of the system bracket of the present invention.
  • Figure 5 is a flow chart of the algorithm of the present invention.
  • Figure 6 is a graph showing the results of an embodiment of the present invention. detailed description
  • the present invention uses two cameras to realize the functions of fluorescence, color, and flattened image acquisition, and also achieves the purpose of three images.
  • the video and images captured by the system can reach the level of their coverage, and all operations are ultimately performed on a single computer.
  • a light source module (120) for providing near-infrared light and visible light
  • Filter one (122) represents a band pass filter with a spectral range of 710 nm to 770 nm; and filter two (133) represents a band pass filter with a spectral range of 810 nm to 870 nm ;
  • Filter 3 (124) represents a bandpass filter with a spectral range of 400 nm to 650 nm ;
  • filter 4 (125) represents a bandpass filter with a spectral range of 400 nm to 650 nm.
  • the system support module (110) includes a light source bracket (111), an optical table bracket (112), and a system bracket (113).
  • the light source bracket (111) is mainly used to support the LED near-infrared light source (121) by connecting the handle of the lamp into the front end of the light source bracket (111), as indicated by the arrow of the light source bracket (111) in FIG.
  • the system support device (110) is mainly for supporting the optical table support (112) and the light source support (111), and is guaranteed to be movable.
  • System support means (110) is longitudinally adjustable, the overall height range is 1500nun-1800mm o optical platform bracket (112) mounted at the upper end of the support system apparatus, the holder 4 as shown in FIG optical bench (112) the position of the arrow.
  • the light source module (120) includes an LED near-infrared light source (121), a halogen light white light source (123), and a filter one (122), and a filter four (125).
  • the filter (122) has a metal ring with a ring of external threads and a similar shape to the commercially available UV mirror.
  • the LED near-infrared light source (121) is soldered to a circular circuit board by 47 LED lamps.
  • the circuit board is jacketed with a metal sleeve.
  • the soldered circuit board is placed on the bottom of the metal sleeve.
  • the top is internally threaded and can be filtered.
  • the metal ring of the piece one (122) is screwed and fixed.
  • the power cord is led out from the bottom hole, external power adapter, voltage 24V, power 20W. Its shape is as shown in (121) in Figure 1.
  • the filter four (125) can be placed in the filter slot (104) of the halogen white light source (123), and the optical signal generated by the halogen white light source (123) is led out through the optical fiber (105).
  • the optical signal acquisition module (130) includes a lens (131), a dichroic prism (132), a filter two (133), a filter three (124), a near-infrared CCD camera (101), and color. CCD camera (102).
  • the beam splitting prism (132) is composed of a specially coated cubic glass (1324), a base (1325), and a metal casing (1326). As shown in Fig. 3, the cubic glass (1324) is placed on the base (1325). Upper, the base (1325) is covered with a metal casing (1326), and the base (1325) is fixed by screws. There are 4 circular holes in the metal casing (1326), and the hole (1321) is docked with the lens (131).
  • L (1322) is docked with a color CCD camera (102), and the hole (1323) is docked with a near-infrared CCD camera (101).
  • Filter 2 (133) is placed in the light entrance of the NIR CCD camera (101).
  • a filter three (124) is placed at the entrance aperture of the color CCD camera (102).
  • the lens (131), the dichroic prism (132), the near-infrared CCD camera (101), and the color CCD camera (102) are fixed on the same optical platform according to the principle of alignment of the central axis, and the position is placed as shown in FIG.
  • the computer module (140) includes a software control module (141) and an image processing module
  • the software control module (141) is connected to the computer module (140) through the data line (106) of the near-infrared CCD camera (101) and the color CCD camera (102).
  • the staff controls the near-infrared CCD camera by operating the software control module (141).
  • the image processing module (142) mainly processes the image data captured by the near-infrared CCD camera (101) and the color CCD camera (102), and performs the division point calculation and the image superposition function.
  • a dichroic prism (132) is used to divide the optical path into two, half transmissive, and half reflective.
  • the lens (131) is used to adjust the image for clarity.
  • LED near-infrared source (121) for emitting near-infrared light.
  • Filter 2 used to filter other wavelengths of light, to ensure that the wavelength of light enters the near-infrared CCD camera (101); Filter 3 (124), used to filter other wavelengths of light, to ensure that the wavelength of light is required to enter Color CCD camera (102).
  • the data line (106) is used to transfer the acquired image data.
  • the computer module (140) is used to control the camera and process image data.
  • ? L (1321), ?L (1322) and holes (1323) are used to ensure the entry and exit of the light.
  • Cube glass (1324) used to split the light into two, is the core component of the beam splitting prism (132).
  • the base (1325) is used to hold the cube glass (1324) and is attached to the metal housing (1326).
  • the metal housing (1326) is used to hold the cube glass (1324) from the other side. As shown in Figure 4,
  • the optical table bracket (112) is used to secure the components to the same platform.
  • the light source bracket (111) is used to support the LED near-infrared light source (121).
  • the system support device (110) is used to fix and adjust the optical table support (112) and the light source support (111), and to ensure that the whole can be moved.
  • a halogen white light source (123) illuminates the detection area (103);
  • System support module (110) adjust system bracket (113) to the appropriate height
  • optical signal acquisition module (130) adjust lens (131) focal length
  • software control module (141) capture color CCD camera (102) video image
  • computer module (140) The middle display module (141) performs real-time display and adjusts to clear imaging
  • the LED near-infrared light source (121) illuminates the detection area (103), and the software control module (141) in the computer module (140) switches to the photographing mode to obtain a set of calibration images;
  • the software control module (141) in the computer module (140) collects the near-infrared CCD camera (101) video image for real-time observation;
  • the software control module (141) in the computer module (140) switches to the photographing mode to obtain a set of images for archiving;
  • the image processing module (142) operates on the archived image to calculate a segmentation point, the image processing module (142) performs image stitching based on the calculated segmentation point, and the display module (143) displays the processed image on the computer display.
  • the image processing module (142) of the present invention is a flow chart of a segmentation point calculation algorithm.
  • Step 501 MATLAB reads a matrix of image gray values obtained by taking photos of two cameras;
  • the image resolution of the color CCD camera (102) is converted to 534*637, and the near-infrared CCD camera (101) obtains a data matrix of 534*637 based on i, j.
  • the interpolated color CCD camera (102) image matrix is assigned to B, wherein the variables i, j are set to 0;
  • Step 503 Calculate the mean of each point in the matrix A and assign it to mA, which is calculated by the formula.
  • Step 505 Calculated according to matrices A, B and mA, mB
  • j represents two program variables, which are used to record the vertex coordinates of the matrix in the operation process;
  • A, B respectively represent a data matrix of 534*637;
  • mA represents the average of the points in the A matrix;
  • mB represents the average of the points in the B matrix;
  • 3 ⁇ 4 represents the number of the ith row in the matrix A The value; 3 ⁇ 4 represents the value of the i-th row and the j-th column in the matrix B;
  • DA, DB, corAB, corrcoef-AB are respectively calculated by the formula.
  • the optical signal acquisition module (130) is assembled as shown in FIG. 2, and the optical signal acquisition module (130) is fixed on the optical platform bracket (112), and the optical platform bracket (112) is attached to the system support device according to FIG. 110)
  • the LED near-infrared source (121) is inserted into the light source bracket (111).
  • the system support module (110) moves directly above the detection area (103), and the data line (106) is connected to the corresponding port of the computer module (140).
  • the optical fiber (105) is fixed on the light source bracket (111), and the halogen light white light source (123) is irradiated to the detection area (103).
  • the software control module (141) controls the acquisition of the color CCD camera (102) video image, and the optical signal acquisition module (130) adjusts the focal length of the lens (131) to ensure clear imaging.
  • the software control module (141) acquires images of the near-infrared CCD camera (101) and the color CCD camera (102) and saves them.
  • the detection area (103) is protected from light by a blackout cloth.
  • the LED near-infrared source illuminates the quasi-detection area (103).
  • the software control module (141) controls the acquisition of the near-infrared CCD camera (101) video image, and the object is placed at the best shooting angle, and remains unchanged.
  • the software control module (141) acquires the near-infrared CCD camera (101) and the color CCD camera ( 102) Image.
  • the image processing module (142) calculates the image segmentation points of the near-infrared CCD camera (101) and the color CCD camera (102) acquired in 3. Image processing module (142) will be near red
  • the external CCD camera (101) acquires the image to add pseudo green
  • the image processing module (142) uses the split point to flatten the image of the color CCD camera (102) and the pseudo green of the near infrared CCD camera (101).
  • the experimental results are shown in Fig. 6.
  • the present invention was injected into an EP tube using a concentration of 0.01 mg/ml of phthalocyanine green fluorescent dye as an experiment to verify the feasibility of the system.
  • the image (601) is an image taken by a near-red CCD camera (101)
  • the image (602) is an image taken by a color CCD camera (102).
  • Figure (603) calculates the stitched image for the image processing module (142). It can be seen that although the transparent liquid is visible in the (602) by the naked eye, it is apparent that after the irradiation of the excitation light source, fluorescence is emitted (601), and the two images are combined by the image processing module (142).
  • the (602) image information is also seen on the macroscopic (601) image.

Landscapes

  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Investigating, Analyzing Materials By Fluorescence Or Luminescence (AREA)

Abstract

一种双相机的多光谱成像系统,包括:光源模块(120),用于提供近红外光和可见光;光学信号采集模块(130),用于采集荧光和可见光图像;计算机模块(140),用于处理采集到的图像,并将处理后的图像显示在计算机显示器上。本发明采用光学分光棱镜将通过镜头的光线一分为二,用两台CCD相机同时进行实时采集。在各相机前增加带通滤光片,使得两台相机分别在不同光波长范围内成像,最终通过软件进行图像处理,将不同谱段的图像拼合到一起,实现荧光与可见光融合的图像效果。拓展了光学分子影像探针可供选择的空间,延伸了光学分子影像研究与应用的范围。

Description

双相机的多光谱成像系统和方法
技术领域
本发明涉及一种成像系统,特别是关于一种双相机的多光谱成像 的系统和方法。
背景技术
近年来, 由于分子影像学技术的不断发展, 继放射性核素成像、 正电子发射断层扫描、单光子发射计算机断层和磁共振成像之后, 出 现了高分辨率的光学成像, 其中近红外荧光成像倍受关注。 由于光穿 透组织的能力与组织吸收光的强弱、光波的特性、生物组织结构及其 物理化学特性均有关系。 650〜900nm 的近红外光 (Near-Infrared, NIR) 被称为 "组织光窗 (Tissue Optical Window)", 与可见光相比具 有: (1)生物组织对此波段近红外光的吸收和散射效应最小, 与可见光 相比近红外光可穿透更深层的组织;(2)由于生物组织对此波段近红外 光的自体荧光较小, 信背比 (Signal-to- background ratio, SBR)相对 高等优点。
目前市场上有关探测近红外光线的产品均是采用单台相机进行 实时成像, 由于近红外光线肉眼不可见, 所以一般采集到的图像和肉 眼看到的图像有所不同。 根据 《Nature Medicine》 2011年 9 月报道 的国际最新进展, 荷兰科学家 Gooitzen M van Dam等人采用三台相 机协同工作的方法进行拍摄, 可以同时看到荧光图像、彩色图像以及 拼合图像。 其中三台相机主要由三个 CCD组成, 分别用来拍摄彩色 图像(光谱范围 400nm-650nm),荧光图像(光谱范围 745nm-845nm) 以及背景图像 (光谱范围 740nm-760nm)。 通过两台计算机进行协同 工作, 同步处理拍摄到的图像, 达到荧光、 彩色以及拼合三幅图像显 示的目的。 发明内容
本发明的目的是提供一种基于双 CCD相机的视频成像系统和方 法。
按照本发明的一方面, 一种双相机的多光谱成像系统, 包括: 光源模块, 用于提供近红外光和可见光;
光学信号采集模块, 用于采集荧光和可见光图像;
计算机模块, 用于处理采集到的图像, 并将处理后的图像显示在 计算机显示器上。
本发明采用光学分光棱镜将通过镜头的光线一分为二, 用两台 CCD 相机同时进行实时采集。 我们在各相机前增加带通滤光片, 使 得两台相机分别在不同光波长范围内成像,最终通过软件进行图像处 理, 将不同谱段的图像拼合到一起, 实现荧光与可见光融合的图像效 果。拓展了光学分子影像探针可供选择的空间, 延伸了光学分子影像 研究与应用的范围。 附图说明
图 1是本发明的组织结构图;
图 2是本发明的系统原理图; 图 3是本发明的棱镜结构图;
图 4是本发明的系统支架结构示意图;
图 5是本发明的算法流程图;
图 6是本发明实施案例的结果图。 具体实施方式
下面结合附图对本发明的实施做详细的描述。
我们根据近红外光线的特点,并基于长期在近红外成像领域的研 究经验, 本发明采用两台相机来实现荧光、彩色以及拼合图像的获取 功能,同样达到三幅图像显示的目的。 系统所拍摄的视频和图像均可 以达到其报道的水平, 并且所有的操作最终在一台计算机上运行实 现。
如图 1所示,
系统支撑模块 (110), 用于支撑和连接各部件;
光源模块 (120), 用于提供近红外光和可见光;
光学信号采集模块 (130), 用于采集荧光和可见光图像; 计算机模块(140), 软件控制模块(141 )控制近红外 CCD相机 ( 101 ) 和彩色 CCD相机 (102), 图像处理模块 (142 ) 处理采集到 的图像, 显示模块 (143 ) 将处理后的图像显示在计算机显示器上。
¾φ :
滤光片一 (122 ) 表示带通滤光片, 光谱范围是 710nm-770nm; 滤光片二 (133 ) 表示带通滤光片, 光谱范围是 810nm-870nm; 滤光片三 (124) 表示带通滤光片, 光谱范围是 400nm-650nm; 滤光片四 (125) 表示带通滤光片, 光谱范围是 400nm-650nm。 系统支撑模块(110)包括光源支架(111)、光学平台支架(112) 和系统支架 (113)。 光源支架 (111) 主要是用来支撑 LED近红外光 源 (121), 连接方式是将灯的手柄插入光源支架 (111) 的前端, 如 图 4光源支架 (111)箭头所指位置。 系统支撑装置 (110)主要是为 了支撑起光学平台支架 (112) 以及光源支架 (111), 并且保证可以 移动。 系统支撑装置 (110) 纵向可调节, 整体高度范围是 1500nun-1800mmo光学平台支架(112)挂接在系统支撑装置的上端, 如图 4光学平台支架 (112) 箭头所指位置。
光源模块(120)包括 LED近红外光源(121)、 卤素灯白光光源 (123)和滤光片一(122)、 滤光片四 (125)。 滤光片一(122)套有 金属圈, 圈上有一圈外螺纹, 外形类似市面销售的 UV镜。 LED近红 外光源 (121) 由 47个 LED灯焊接在一块圆形电路板上, 电路板外 套有金属套筒,焊接好的电路板放置在金属套筒底部,顶部有内螺紋, 可以与滤光片一(122)的金属圈旋紧固定。 电源线由底部小孔引出, 外接电源适配器, 电压 24V, 功率 20W。其外形如同图 1中的(121) 所示。 滤光片四 (125)可以放置在卤素灯白光光源(123) 的滤光片 槽(104) 内, 卤素灯白光光源(123)产生的光信号通过光纤(105) 引出。
光学信号采集模块 (130) 包括镜头 (131)、 分光棱镜 (132)、 滤光片二(133)、 滤光片三(124)、 近红外 CCD相机(101)和彩色 CCD相机 (102)。 分光棱镜(132) 是由一块经过特殊镀膜的立方体 玻璃(1324)、基座(1325)、金属外壳(1326)所组成, 如图 3所示, 立方体玻璃(1324)放置在基座(1325)上, 基座(1325)上方套有 金属外壳 (1326), 与基座 (1325) 由螺丝固定。 金属外壳 (1326) 上有 4个圆孔, 将孔 (1321) 与镜头 (131)对接, ? L (1322) 与彩 色 CCD相机(102)对接, 孔(1323) 与近红外 CCD相机(101)对 接。 滤光片二 (133) 放置在近红外 CCD相机 (101) 的进光孔处。 滤光片三( 124 )放置在彩色 CCD相机( 102 )的进光孔处。镜头( 131 )、 分光棱镜 (132)、 近红外 CCD相机 (101) 和彩色 CCD相机 (102) 按照中轴线对齐原则固定在同一光学平台上, 位置摆放如图 2 中
(101)、 (102)、 (131)、 (132)、 (133)、 (124) 所示。
计算机模块 (140) 包括软件控制模块 (141) 和图像处理模块
(142)。 其中软件控制模块 (141) 是通过近红外 CCD相机 (101) 和彩色 CCD相机(102)的数据线(106)与计算机模块(140)相连。 工作人员通过操作软件控制模块(141 )来达到控制近红外 CCD相机
(101)和彩色 CCD相机(102) 的目的。 图像处理模块(142)主要 是处理近红外 CCD相机(101)和彩色 CCD相机(102)拍摄的图像 数据, 完成分割点运算和图像叠加功能。
如图 2所示,
近红外 CCD相机 (101), 用于采集近红外图像。
彩色 CCD相机 (102), 用于采集可见光图像。
分光棱镜 (132), 用于将光路一分为二, 一半透射, 一半反射。 镜头 (131), 用于调节使得图像成像清晰。
LED近红外光源 (121), 用于发射近红外光线。
卤素灯白光光源(123), 用于发射可见光光线; 滤光片槽(104) 用于放置滤光片四 (125); 光纤 (105) 用于将光线引出。
滤光片二(133), 用于过滤其他波长光线, 保证需要波长的光线 进入近红外 CCD相机 (101); 滤光片三 (124), 用于过滤其他波长 光线, 保证需要波长的光线进入彩色 CCD相机 (102)。
数据线 (106) 用于传输采集的图像数据。
计算机模块 (140) 用于控制相机和处理图像数据。
图 3所示, ? L (1321)、 ?L (1322) 和孔 (1323) 均用于保证光 线的进出。
立方体玻璃 (1324), 用于将光线分成两路, 是分光棱镜 (132) 的核心部件。
基座(1325)用于托住立方体玻璃 (1324),并与金属外壳(1326) 固定。
金属外壳 (1326) 用于将立方体玻璃 (1324) 从其他面固定住。 图 4所示,
光学平台支架 (112) 用于将各元器件固定在同一平台上。
光源支架 (111) 用于将 LED近红外光源 (121) 进行支撑。 系统支撑装置(110)用于将光学平台支架(112)和光源支架(111) 进行固定和调节, 并保证整体可以移动。
下面描述本发明的方法。 卤素灯白光光源 (123) 对探测区域 (103) 进行照射;
系统支撑模块(110) 调整系统支架 (113)至合适高度, 光学信 号采集模块 (130) 调节镜头 (131) 焦距, 软件控制模块 (141) 采 集彩色 CCD相机 (102) 视频图像, 计算机模块 (140) 中显示模块 (141) 进行实时显示, 调整为清晰成像;
LED近红外光源 (121) 对探测区域 (103) 进行照射, 计算机 模块(140) 中软件控制模块(141)切换到拍照模式, 获取一组校准 图像;
计算机模块 (140) 中软件控制模块 (141) 采集近红外 CCD相 机 (101) 视频图像, 进行实时观测;
计算机模块(140) 中软件控制模块(141)切换到拍照模式, 获 取一组图像, 进行存档;
图像处理模块 (142) 对存档的图像进行运算, 计算分割点, 图 像处理模块( 142)根据计算出的分割点进行图像拼合,显示模块( 143 ) 将处理后的图像显示到计算机显示器上。
校准图像。 由于近红外 CCD相机(101 )和彩色 CCD相机(102) 感光芯片大小不同,所以当系统支撑模块(110)调整系统支架(113) 至合适高度, 光学信号采集模块(130) 调节镜头(131)焦距后, 我 们需要获取一组校准图像, 为图像处理模块 (142) 计算分割点做准 备。 如图 5所示, 本发明所述图像处理模块 (142) 分割点计算算法 流程图。
步骤 501: MATLAB读取两台相机拍照所得图像灰度值矩阵; 步骤 502: 通过硬件信息可以得知近红外 CCD相机(101 )芯片 面积为 1.3英寸, 图片分辨率为 1024*1024, 彩色 CCD相机 (102 ) 芯片面积为 2/3英寸,分辨率为 2136*2548。通过 MATLAB软件的工 具包插值运算,将彩色 CCD相机(102)图像分辨率转化为 534*637, 近红外 CCD相机(101 )取得图像中以 i, j为基点选择一块 534*637 的数据矩阵赋给 A,插值后的彩色 CCD相机(102 )图像矩阵赋给 B, 其中, 设置变量 i, j均为 0;
步骤 503 : 计算矩阵 A 中各点的均值赋给 mA, 通过公式计算
DA =∑∑ —mA j 步骤 504: 计算矩阵 B 中各点的均值赋给 mB, 通过公式计算
DB =∑∑ [ ,— mB 骤 505: 根据矩阵 A、 B 以及 mA、 mB, 计算
- mA ) X ( , - mB ] 然后计算得到 A、 B 的相关系攝 corAB
corrcoef _AB =
^jDA DB,
步骤 506: 得到该相关系数之后 i=i+533, j=j+636, 再重复步骤 3-5步骤, 比较两个相关系数的大小, 取较小值, 并记录 i, j的数值; 步骤 507: 迭代运算 200次, 最终返回 i, j的值, 公式中 1, j代 表两个程序变量, 用于记录运算过程中矩阵的顶点坐标; A, B分别 代表一个 534*637的数据矩阵; mA代表 A矩阵中各点的平均值; mB代表 B矩阵中各点的平均值; ¾代表矩阵 A中第 i行第」列的数 值; ¾代表矩阵 B中第 i行第 j列的数值; DA、DB、corAB、corrcoef—AB 分别是通过公式计算后的结果。 实施例
光学信号采集模块 (130) 按照图 2所示组装好, 光学信号采集 模块(130) 固定在光学平台支架 (112)上, 按照图 4所示光学平台 支架(112)挂接在系统支撑装置(110)端, LED近红外光源(121) 插入光源支架(111)中。系统支撑模块(110)移动到探测区域(103) 正上方, 数据线 (106) 与计算机模块 (140) 对应端口连接。
光源模块 (120) 中光纤 (105) 固定在光源支架 (111) 上, 卤 素灯白光光源 (123) 对准探测区域 (103) 进行照射。
软件控制模块(141)控制采集彩色 CCD相机(102)视频图像, 光学信号采集模块(130)调整镜头(131)焦距保证清晰成像。 软件 控制模块( 141 )获取近红外 CCD相机( 101 )和彩色 CCD相机(102) 图像, 并保存。
用遮光布对探测区域 (103) 进行避光处理。 LED近红外光源对 准探测区域 (103)进行照射。
软件控制模块 (141) 控制采集近红外 CCD相机 (101) 视频图 像, 拍摄物体放置最佳拍摄角度后, 保持不动, 软件控制模块(141) 采集近红外 CCD相机 (101) 和彩色 CCD相机 (102) 图像。
图像处理模块 (142) 计算 3中获取的近红外 CCD相机 (101) 和彩色 CCD相机 (102) 图像分割点。 图像处理模块 (142) 将近红 外 CCD相机 (101) 获取图像增加伪绿, 图像处理模块 (142) 用分 割点拼合 5 中采集彩色 CCD相机 (102) 图像和增加伪绿的近红外 CCD相机 (101) 图像。
实验结果如图 6所示,本发明使用 0.01mg/ml浓度的吲哚菁绿荧光 染料注入 EP管中作为实验, 验证系统的可行性。 可以看到图 (601) 为近红夕卜 CCD相机(101)拍到的图像,图(602)为彩色 CCD相机(102) 拍到的图像。 图 (603) 为图像处理模块 (142) 计算拼合后的图像。 可以看到, 虽然通过肉眼看到的 (602) 中为透明液体, 但是通过激 发光源照射后,明显看出有荧光发出(601),通过图像处理模块(142) 将两幅图像进行拼合, 我们便在肉眼可见的 (601) 图像上同时看到 了 (602) 图像信息。
尽管为说明目的公开了本发明的具体实施案例与附图,辅助理解 本发明的内容并据以实施, 但是专业技术人员可以理解: 在不脱离本 发明及所附的权利要求的精神与范围内, 各种替换和修改都是可能 的。 因此, 本发明不应该局限于最佳实施案例和附图所公幵的内容, 本发明要求保护的范围以权利要求书界定的范围为准。

Claims

权利要求
1 . 一种双相机的多光谱成像系统, 包括:
光源模块, 用于提供近红外光和可见光;
光学信号采集模块, 用于采集荧光和可见光图像;
计算机模块, 用于处理采集到的图像, 并将处理后的图像显示在 计算机显示器上。
2. 根据权利要求 1所述的系统, 其中, 所述光源模块包括 LED 近红外光源、 卤素灯白光光源、 第一滤光片和第四滤光片。
3. 根据权利要求 2所述的系统, 其中, 所述第一滤光片的光谱 范围是 710nm-770nm, 所述第四滤光片的光谱范围是 400nm-650nm。
4. 根据权利要求 1 所述的系统, 其中, 所述光学信号采集模块 包括镜头、 分光棱镜、 第二滤光片、 第三滤光片、 近红外 CCD相机 和彩色 CCD相机。
5. 根据权利要求 4所述的系统, 其中, 所述第二滤光片的光谱 范围是 810nm-870nm, 所述第三滤光片的光谱范围是 400nm-650nm。
6. 根据权利要求 1所述的系统, 其中, 所述计算机模块包括: 软件控制模块, 用于控制近红外 CCD相机和彩色 CCD相机; 图像处理模块,用于处理近红外 CCD相机和彩色 CCD相机拍摄 的图像数据, 并完成分割点运算和图像叠加功能;
显示模块, 用于在计算机显示器上显示图像。
7. 根据权利要求 1 所述的系统, 还包括系统支持模块用于支撑 和连接各部件, 所述支撑模块包括光源支架、光学平台支架和系统支
8. 一种基于双相机的多光谱成像方法, 包括步骤: 使用近红外光源和可见光源照射探测区域;
使用近红外 CCD相机和彩色 CCD相机采集荧光和可见光图像; 处理采集到的图像, 并将处理后的图像显示在计算机显示器上。
9. 根据权利要求 8所述的方法, 其中, 所述处理采集到的图像 包括分割点计算, 所述分割点计算包括- 步骤 1: 读取近红外 CCD相机和彩色 CCD相机拍照所得图像灰 度值矩阵;
步骤 2: 进行插值运算, 将图像分辨率转化为 534*637, 近红外 CCD相机(101)取得图像中以 1, j为基点选择一块 534*637的数据 矩阵赋给 A, 插值后彩色 CCD相机 (102) 图像矩阵赋给 B, 其中, 变量 i, j均为 0;
步骤 3: 计算矩阵 A 中各点的均值赋给 mA, 通过公式计算
DA =∑∑ —mAj 步骤 4: 计算矩阵 B 中各点的均值赋给 mB, 通过公式计算
DB =∑∑ {bi}-mB)
ϋ产 oL
骤 5 : 根据矩阵 八、 B 以及 mA、 mB, 计算
- mA ) X ( , -mB\ 然后计算得到 A、 B 的相关系攝 corAB
corrcoef _AB =
/DAxDB , 步骤 6:得到该相关系数之后 i=i+533, j=i+636,再重复步骤 3-5, 比较两个相关系数的大小, 取较小值, 并记录 1, j的数值;
步骤 7: 迭代运算 200次, 最终返回 i, 」的值,
其中, 公式中 i, j代表两个程序变量, 用于记录运算过程中矩阵 的顶点坐标; A, B分别代表一个 534*637的数据矩阵; mA代表 A 矩阵中各点的平均值; mB代表 B矩阵中各点的平均值; ¾代表矩阵 A中第 i行第」列的数值; 代表矩阵 B中第 i行第」列的数值; DA、 DB、 corAB、 corrcoef— AB分别是通过公式计算后的结果。
10. 根据权利要求 9所述的方法, 其中, 近红外 CCD相机的图 片分辨率为 1024*1024, 彩色 CCD相机的分辨率为 2136*2548。
PCT/CN2012/076888 2012-06-14 2012-06-14 双相机的多光谱成像系统和方法 WO2013185317A1 (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/CN2012/076888 WO2013185317A1 (zh) 2012-06-14 2012-06-14 双相机的多光谱成像系统和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2012/076888 WO2013185317A1 (zh) 2012-06-14 2012-06-14 双相机的多光谱成像系统和方法

Publications (1)

Publication Number Publication Date
WO2013185317A1 true WO2013185317A1 (zh) 2013-12-19

Family

ID=49757431

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2012/076888 WO2013185317A1 (zh) 2012-06-14 2012-06-14 双相机的多光谱成像系统和方法

Country Status (1)

Country Link
WO (1) WO2013185317A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113109306A (zh) * 2021-04-01 2021-07-13 合肥泰禾智能科技集团股份有限公司 一种具有黄曲霉毒素检测功能的分选装置及分选方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1553157A (zh) * 2003-12-12 2004-12-08 安徽大学特种电视技术研究中心 基于彩色和近红外双ccd的图像测温装置
US20070215817A1 (en) * 2006-03-15 2007-09-20 Masataka Shirai Fluorescence detection system
CN101476939A (zh) * 2009-02-12 2009-07-08 清华大学 一种双ccd温度场测量装置及方法
CN101487740A (zh) * 2009-02-12 2009-07-22 清华大学 一种三ccd温度场测量装置及方法
CN101710067A (zh) * 2009-12-14 2010-05-19 中国农业大学 一种畜肉品质检测系统及其检测方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1553157A (zh) * 2003-12-12 2004-12-08 安徽大学特种电视技术研究中心 基于彩色和近红外双ccd的图像测温装置
US20070215817A1 (en) * 2006-03-15 2007-09-20 Masataka Shirai Fluorescence detection system
CN101476939A (zh) * 2009-02-12 2009-07-08 清华大学 一种双ccd温度场测量装置及方法
CN101487740A (zh) * 2009-02-12 2009-07-22 清华大学 一种三ccd温度场测量装置及方法
CN101710067A (zh) * 2009-12-14 2010-05-19 中国农业大学 一种畜肉品质检测系统及其检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
GOOITZEN, M.V.D. ET AL.: "Intraoperative tumor-specific fluorescence imaging in ovarian cancer by folate receptor-a targeting: first in-human results.", NATURE MEDICINE., vol. 17, no. 10, October 2011 (2011-10-01), pages 1315 - 1319 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113109306A (zh) * 2021-04-01 2021-07-13 合肥泰禾智能科技集团股份有限公司 一种具有黄曲霉毒素检测功能的分选装置及分选方法

Similar Documents

Publication Publication Date Title
US11852461B2 (en) Generation of one or more edges of luminosity to form three-dimensional models of objects
CN102721469B (zh) 双相机的多光谱成像系统和方法
US11800980B2 (en) Augmented reality surgical microscope and microscopy method
CN111970953A (zh) 用于同时近红外光和可见光成像的系统和方法
US20160139039A1 (en) Imaging system and imaging method
WO2016011611A1 (zh) 内窥式光学分子影像导航系统和多光谱成像方法
CN102809429A (zh) 基于双相机的多光谱成像系统和方法
US11382487B2 (en) Micro CMOS scopes for medical imaging
CN103300812A (zh) 基于内窥镜的多光谱视频导航系统和方法
JP2008149107A (ja) 皮膚疾患の光学診断および治療のための装置、光源システムおよび方法
WO2014205738A1 (zh) 基于内窥镜的多光谱视频导航系统和方法
EP2967329B1 (en) Device for use in skin and scalp diagnosis, and method using said device
RU2726257C1 (ru) Установка для автоматического измерения параметров растений
CN110833399B (zh) 近红外二区单通道分时复用成像系统及其使用方法
TWM352055U (en) Image projection and capture apparatus
WO2019100449A1 (zh) 一种基于传像光纤的手术导航系统
CN108324242B (zh) 一种基于智能终端的多光谱眼底成像装置及方法
WO2013185317A1 (zh) 双相机的多光谱成像系统和方法
KR20120012191A (ko) 객체간 알지비 색상차이를 최대화하는 내시경용 엘이디 최적 조명장치
Uk et al. Multispectral fluorescence organoscopes for in vivo studies of laboratory animals and their organs
JP6398334B2 (ja) ダーモスコピー用撮像装置及びダーモスコピー用撮像装置の使用方法
CN117314754B (zh) 一种双摄超光谱图像成像方法、系统及双摄超光谱内窥镜
CN112229827B (zh) 一种实时的多光谱层析拍摄方法和装置
Clancy et al. A triple endoscope system for alignment of multispectral images of moving tissue
WO2007034525A2 (en) Device for taking digital photographs, especially for use in medical dermatology

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12878947

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12878947

Country of ref document: EP

Kind code of ref document: A1