WO2016181735A1 - 立体視内視鏡装置 - Google Patents

立体視内視鏡装置 Download PDF

Info

Publication number
WO2016181735A1
WO2016181735A1 PCT/JP2016/061668 JP2016061668W WO2016181735A1 WO 2016181735 A1 WO2016181735 A1 WO 2016181735A1 JP 2016061668 W JP2016061668 W JP 2016061668W WO 2016181735 A1 WO2016181735 A1 WO 2016181735A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
similarity
image signal
eye
unit
Prior art date
Application number
PCT/JP2016/061668
Other languages
English (en)
French (fr)
Inventor
樋野 和彦
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to EP16792460.4A priority Critical patent/EP3281576A1/en
Priority to CN201680011600.5A priority patent/CN107405048B/zh
Priority to JP2016564117A priority patent/JP6150955B2/ja
Publication of WO2016181735A1 publication Critical patent/WO2016181735A1/ja
Priority to US15/796,937 priority patent/US10820784B2/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • G02B23/2415Stereoscopic endoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000095Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00193Optical arrangements adapted for stereoscopic vision
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00194Optical arrangements adapted for three-dimensional imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7475User input or interface means, e.g. keyboard, pointing device, joystick
    • A61B5/748Selection of a region of interest, e.g. using a graphics tablet
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7475User input or interface means, e.g. keyboard, pointing device, joystick
    • A61B5/748Selection of a region of interest, e.g. using a graphics tablet
    • A61B5/7485Automatic selection of region of interest
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2476Non-optical details, e.g. housings, mountings, supports
    • G02B23/2484Arrangements in relation to a camera or imaging device
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/34Stereoscopes providing a stereoscopic pair of separated images corresponding to parallactically displaced views of the same object, e.g. 3D slide viewers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/158Switching image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/218Image signal generators using stereoscopic image cameras using a single 2D image sensor using spatial multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/286Image signal generators having separate monoscopic and stereoscopic modes
    • H04N13/289Switching between monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/341Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using temporal multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes

Definitions

  • the present invention relates to a stereoscopic endoscope apparatus, and more particularly to a stereoscopic endoscope apparatus that performs display switching from a three-dimensional image to a two-dimensional image.
  • the endoscope has an elongated insertion portion, and the user can observe a subject by displaying a subject image that has passed through an observation window provided at a distal end portion of the insertion portion on a monitor.
  • stereoscopic endoscope apparatuses that receive reflected light from a subject through two observation windows to enable stereoscopic viewing of the subject have been put into practical use.
  • the user can stereoscopically view the lesioned part, for example, and thus it is easy to observe and treat the lesioned part.
  • a stereoscopic endoscope apparatus in order to grasp the situation around the affected area, it is possible to switch between a three-dimensional image with a narrow visual field for stereoscopic vision and a two-dimensional image with a wide visual field capable of observing the peripheral part.
  • An endoscope apparatus is proposed and disclosed in Japanese Patent Laid-Open No. 2003-334160.
  • the user When a foreign object adheres to the observation window at the distal end of the insertion section during observation or treatment using the stereoscopic endoscope apparatus, the user operates the air / water supply button to inject water and air from the air / water supply nozzle. Thus, the foreign matter adhering to the observation window can be removed.
  • the user cannot correctly stereoscopically view the observation image when the foreign matter is attached only to one surface of the observation window.
  • an observation image that has been stereoscopically viewed until then becomes a state in which the stereoscopic image cannot be correctly viewed the user feels uncomfortable with the image being viewed.
  • the user can operate the air / water supply button to remove the foreign matter, but when performing a switching operation to switch from the three-dimensional image display to the two-dimensional image display. There is also. It is complicated for the user to perform a switching operation for switching from the three-dimensional image display to the two-dimensional image display every time the user feels uncomfortable with the image.
  • an area having a specific color in a wide-angle two-dimensional image is extracted to calculate an area, and the calculated area is compared with a predetermined threshold value and compared.
  • a technique for switching display between a stereoscopic three-dimensional image and a wide-angle two-dimensional image based on the result is disclosed.
  • Japanese Patent Application Laid-Open No. 2005-296467 discloses at least a part of an image of the same test signal displayed on two images for the left and right eyes, and a part of the obtained image.
  • a technique for performing display switching between a stereoscopic three-dimensional image and a wide-angle two-dimensional image when a difference between image signals is a predetermined value or more has been disclosed.
  • an object of the present invention is to provide a stereoscopic endoscope apparatus that can correctly perform display switching from a three-dimensional image to a two-dimensional image.
  • the stereoscopic endoscope apparatus includes an imaging unit that images the first and second optical images formed by an objective optical system that forms first and second optical images, and the imaging The first image signal based on the first optical image output from the unit and the second image signal based on the second optical image are input, and the first image based on the first image signal and the second image signal A similarity calculation unit that compares a second image based on a second image signal and calculates a similarity between the first image and the second image, and the similarity calculated by the similarity calculation unit Based on the three-dimensional image signal composed of the first image signal and the second image signal, and the two-dimensional image signal composed of either the first image signal or the second image signal; And an image signal output unit for switching and outputting.
  • FIG. 1 is a configuration diagram showing a configuration of a stereoscopic endoscope apparatus according to the present embodiment.
  • the stereoscopic endoscope apparatus 1 includes an endoscope 2, a video processor 3, a display unit 4, and a condition setting unit 5.
  • the endoscope 2 and the video processor 3 are connected via a cable 6.
  • the endoscope 2 is a stereoscopic endoscope that performs stereoscopic imaging.
  • the endoscope 2 has an elongated insertion portion 2a, and has two observation windows 11R and 11L through which reflected light from an observation target enters the distal end portion of the insertion portion 2a.
  • Objective optical systems 12R and 12L are disposed behind the two observation windows 11R and 11L, respectively.
  • the endoscope 2 includes an image sensor 13 such as a CCD disposed at the focal positions of the objective optical systems 12R and 12L.
  • the image sensor 13 is connected to the video processor 3 by a signal line 14 inserted through the cable 6.
  • the observation window 11R is an observation window for the right eye for stereoscopic viewing
  • the observation window 11L is an observation window for the left eye for stereoscopic viewing.
  • the light that has entered the observation windows 11R and 11L forms an image on the imaging surface of the imaging device 13 through the corresponding objective optical systems 12R and 12L.
  • the imaging element 13 photoelectrically converts an optical image formed on the imaging surface and outputs an imaging signal to the signal line 14.
  • the output imaging signal is an image signal of a rectangular imaging surface.
  • the imaging signal output from the imaging device 13 includes a right-eye image and a left-eye image.
  • the imaging element 13 constitutes an imaging unit that captures two optical images formed by an objective optical system that forms two optical images. More specifically, the image sensor 13 serving as an imaging unit forms objective optical images that form an optical image for the right eye and an optical image for the left eye formed by the objective optical system 12R that forms an optical image for the right eye. An optical image for the left eye imaged by the system 12L is captured.
  • the video processor 3 includes a camera control unit (hereinafter referred to as CCU) 21, a similarity determination unit 22, and an image signal output unit 23.
  • the CCU 21 is an image signal generation circuit that receives an imaging signal from the imaging device 13 and generates a right-eye image and a left-eye image included in the imaging signal.
  • the similarity determination unit 22 includes circuits such as a central processing unit (CPU), ROM, and RAM, and calculates the similarity between two images based on two image signals of a right-eye image and a left-eye image from the CCU 21. Then, a process of outputting a determination signal CS determined by comparing the calculated similarity with a predetermined threshold value is performed. A method for calculating the similarity will be described later.
  • the similarity determination unit 22 receives the first image signal based on the first optical image output from the image sensor 13 and the second image signal based on the second optical image, and receives the first image signal.
  • the similarity calculation part which calculates the similarity of a 1st image and a 2nd image by comparing the 1st image based on 2nd and the 2nd image based on a 2nd image signal is comprised. More specifically, the similarity determination unit 22 receives the right-eye image signal based on the right-eye optical image output from the image sensor 13 and the left-eye image signal based on the left-eye optical image, A similarity calculation unit is configured to calculate the similarity between the right-eye image and the left-eye image by comparing the right-eye image and the left-eye image.
  • the image signal output unit 23 receives the two image signals of the right-eye image and the left-eye image from the CCU 21, and based on the determination signal CS from the similarity determination unit 22, the left and right 2 for displaying the three-dimensional image.
  • One image signal or left and right image signals for two-dimensional image display are output to the display unit 4.
  • the image signal output unit 23 receives the control signal CS2, which is a determination signal CS for outputting a two-dimensional image, when the display of a three-dimensional image for stereoscopic vision is instructed, and the right-eye image. Only one of the two image signals of the left-eye image is output to the display unit 4. Further, the image signal output unit 23 outputs two image signals of the right-eye image and the left-eye image to the display unit 4 when receiving the control signal CS3 that is the determination signal CS for outputting the three-dimensional image.
  • the control signal CS2 which is a determination signal CS for outputting a two-dimensional image
  • the image signal output unit 23 switches between a three-dimensional image signal composed of two image signals and a two-dimensional image signal composed of one of the two image signals based on the calculated similarity. Output.
  • the image signal output unit 23 outputs two image signals of the right-eye image and the left-eye image to the display unit 4 when receiving the control signal CS3, but the similarity determination unit 22 Calculates the degree of similarity and outputs only the control signal CS2 when the degree of similarity satisfies a predetermined condition, and the image signal output unit 23 is for the right eye when receiving the control signal CS2. Only one of the two image signals of the image and the left-eye image is output to the display unit 4, and when the control signal CS2 is not received, the two image signals of the right-eye image and the left-eye image are output to the display unit 4. It may be.
  • the display unit 4 is a monitor such as a liquid crystal display device.
  • the display unit 4 displays left and right images alternately.
  • the user can stereoscopically view the subject image by viewing the left and right images displayed on the display unit 4 using the stereoscopic glasses and viewing the display unit 4.
  • the condition setting unit 5 is an input device for inputting and setting various conditions to the similarity determination unit 22.
  • the various conditions are the position and size of a template image area, which will be described later, a threshold value TH, which will be described later, and a period PD, which will be described later. be able to. Therefore, the condition setting unit 5 is a setting unit for changing the setting related to the predetermined threshold with respect to the similarity determination unit 22, and the period PD and the threshold TH can be changed.
  • the condition setting unit 5 is, for example, a keyboard or a personal computer connected to the video processor 3 or an operation panel of the video processor 3. Therefore, the user may set a desired region, for example, in the central portion of a main image MI described later as a template image TI described later, set the threshold TH to a desired value, and set the cycle PD to a desired value. Can be set to
  • the video processor 3 also includes an operation panel (not shown) and a control unit (not shown) that executes processing according to a user's operation input to the operation panel.
  • the stereoscopic endoscope apparatus 1 can display a three-dimensional image for stereoscopic viewing, and the CCU 21 generates two image signals of a right-eye image and a left-eye image and outputs them to the image signal output unit 23. To do. As a result, a three-dimensional image is displayed on the display unit 4, that is, a right-eye image and a left-eye image are alternately displayed, and the user can view stereoscopically, for example, having shutters that open and close alternately corresponding to the left and right images.
  • the subject image can be stereoscopically viewed by viewing the display unit 4 through the glasses.
  • FIG. 2 is a flowchart illustrating an example of a processing flow of the similarity determination unit 22. As shown in FIG. 1, two image signals of a right eye image and a left eye image are input to the similarity determination unit 22.
  • the similarity determination unit 22 executes a similarity calculation process in which the process of calculating the similarity R between the two image signals of the right-eye image and the left-eye image from the CCU 21 is executed with a predetermined period PD (S1).
  • a method for calculating the similarity R will be described.
  • the similarity R is calculated as follows.
  • FIG. 3 is a diagram illustrating an example of two image regions generated in the image sensor 13 for explaining a method of calculating the similarity R by the template matching method.
  • the image 31 corresponding to the imaging surface area of the imaging device 13 includes two image areas, a right-eye image area corresponding to the right-eye image 32 and a left-eye image area corresponding to the left-eye image 33. Including.
  • a preset image (for example, the left-eye image 33) is set as the main image MI, and a partial image of a predetermined region in the main image MI is cut out as a template image TI. .
  • the image CR (shown by a dotted line) in the entire sub-image DI (for example, the right-eye image) which is not the main image MI or in the sub-image DI.
  • the similarity R between the two images is calculated by template matching processing for determining whether or not there is an image that matches the template image TI.
  • the template image TI is an M ⁇ N rectangular image composed of M pixels and N pixels (M and N are integers), and the template image TI is superimposed on the template image TI.
  • M and N are integers
  • the similarity at each position is calculated while moving the template image TI in a predetermined order with respect to the sub image DI or image CR.
  • the pixel value at the position (i, j) on the template image TI is defined as T (i, j), and the pixel value at the position (i, j) on the image in the sub-image DI or image CR superimposed with the template image TI.
  • Is I (i, j) the similarity R is expressed by the following equation.
  • Equation (1) indicates that the value obtained by summing the square of the difference between the two pixel values within the M ⁇ N pixels is the similarity R.
  • the similarity determination unit 22 executes template matching processing at a predetermined period PD, and obtains a similarity Rs at a position where the similarity between the template image TI and the image in the sub-image DI is the highest.
  • the similarity determination unit 22 compares the set threshold TH with the similarity Rs. When the similarity Rs is equal to or higher than the threshold TH, the similarity determination unit 22 outputs a two-dimensional image to display the two-dimensional image on the display unit 4.
  • the control signal CS2 to be output is output to the image signal output unit 23.
  • the similarity determination unit 22 serving as the similarity calculation unit performs the image of the region set in the first image in the two images and the region set in the second image in the two images.
  • the similarity Rs is calculated by comparing the images.
  • the similarity determination unit 22 calculates the similarity Rs by comparing the first image and the second image by the template matching method.
  • the image signal output unit 23 switches from the three-dimensional image signal to the two-dimensional image signal and outputs to the display unit 4 when the similarity is lower than the predetermined threshold value TH.
  • the similarity Rs may be calculated using a template matching method other than the template matching method using the above-described equation (1). Furthermore, the similarity Rs may be calculated using a similarity determination method other than the template matching method.
  • each of the right-eye image 32 and the left-eye image 33 may be divided into a plurality of regions, and the similarity may be calculated based on the brightness distribution of the divided regions.
  • FIG. 4 is a diagram illustrating an example of an image obtained by dividing each of the right-eye image and the left-eye image included in the image signal output from the image sensor 13.
  • FIG. 4 shows an image 31 obtained by imaging with the image sensor 13.
  • the image 31 output from the CCU 21 includes a right eye image 32 and a left eye image 33.
  • the right eye image 32 and the left eye image 33 have the same size and shape.
  • the similarity determination unit 22 extracts a plurality of images obtained by dividing the right-eye image 32 into a predetermined shape, and also extracts a plurality of images divided for the left-eye image 33 in the same manner as the right-eye image 32.
  • each of the right eye image 32 and the left eye image 33 is divided into nine image regions.
  • the divided areas of the right-eye image 32 and the left-eye image 33 are set from the condition setting unit 5. That is, the number or range of the plurality of regions of the right eye image 32 and the left eye image 33 can be set and changed.
  • the right-eye image 32 is divided into nine image areas 32a to 32i, and the left-eye image 33 is divided into nine areas 33a to 33i.
  • the right eye image areas 32a to 32i correspond to the left eye areas 33a to 33i, respectively.
  • each of the right-eye image 32 and the left-eye image 33 is divided into nine image areas, but may be divided into a larger or smaller number.
  • the similarity determination unit 22 calculates the brightness of the divided areas 32a to 32i of the right eye image 32 and the brightness of the divided areas 33a to 33i of the left eye image 33, and the brightness of the right eye image 32 is calculated.
  • the brightness distribution and the brightness distribution of the left-eye image 33 are compared, and it is determined whether or not the distribution is similar.
  • the brightness of each area is determined from the sum or average value of the pixel values of a plurality of pixels in each image.
  • the similarity determination unit 22 calculates a difference in brightness between two corresponding divided regions, and determines that the right-eye image 32 and the left-eye image 33 are similar when the sum of the differences is less than a predetermined value.
  • the brightness Ra of the area 32a and the brightness La of the area 33a are calculated, and a brightness difference (Ra ⁇ La) is obtained.
  • the brightness Rb of the area 32b and the brightness Lb of the area 33b are calculated, and the brightness difference (Rb ⁇ Lb) is obtained. Differences are similarly obtained for the other regions 32c to 32i and 32c to 32i.
  • the similarity Rs which is the sum of the difference values
  • a predetermined value so it is determined that the right-eye image 32 and the left-eye image 33 are not similar.
  • the similarity determination unit 22 determines that the similarity Rs, which is the sum of the brightness difference values, is equal to or greater than a predetermined value and the right-eye image 32 and the left-eye image 33 are not similar, a control signal for outputting a two-dimensional image.
  • the similarity determination unit 22 calculates the similarity Rs by comparing the brightness distribution of the right-eye image 32 with the brightness distribution of the left-eye image 33. Specifically, the right-eye image 32 is divided into a plurality of regions, and the left-eye image 33 is divided into a plurality of regions in the same manner as the right-eye image 32. The similarity determination unit 22 then determines the brightness distribution of the plurality of divided regions of the right-eye image 32 as the brightness distribution of the right-eye image 32 and the left-eye image 33 as the brightness distribution of the left-eye image 33. The similarity Rs is calculated by comparing the brightness distributions of the plurality of divided areas.
  • each area may be weighted to calculate the sum of the difference values.
  • the central regions 32e and 33e of the right-eye image 32 and the left-eye image 33 may be weighted higher than the surrounding regions 32a, 32b, 33a, 33b, etc. .
  • the highest weight is given to the central region of each of the right-eye image 32 and the left-eye image 33, and the weight is gradually decreased toward the peripheral region. do.
  • each of the plurality of regions is weighted for calculating the similarity
  • the similarity determination unit 22 distributes the brightness of the weighted right eye image 32 and the left eye image 33 for each region. Are compared to calculate the similarity.
  • a desired divided region can be excluded from the target of calculating the similarity R.
  • the weighting coefficient By setting the weighting coefficient to 0 (zero), it is possible to set a region that is not subject to similarity calculation among the plurality of divided regions.
  • the setting or designation of the weighting coefficient or exclusion area is performed by the user from the condition setting unit 5, for example.
  • the similarity R between the right-eye image 32 and the left-eye image 33 may be calculated by a method other than the template matching determination and the brightness distribution determination.
  • the similarity determination unit 22 determines whether or not the calculated similarity Rs is equal to or greater than a predetermined threshold TH (S2).
  • the similarity determination unit 22 When the calculated similarity Rs is less than the predetermined threshold TH (S2: NO), the similarity determination unit 22 outputs a control signal CS3 for outputting a three-dimensional image to the image signal output unit 23 (S3). Return to the processing of S1.
  • the similarity determination unit 22 When the calculated similarity Rs is equal to or greater than the predetermined threshold TH (S2: YES), the similarity determination unit 22 outputs a control signal CS2 for outputting a two-dimensional image to the image signal output unit 23 (S4). Return to the processing of S1.
  • the similarity determination unit 22 repeats the processes S1 to S4.
  • the similarity determination unit 22 outputs a control signal CS2 for outputting a two-dimensional image to the image signal output unit 23.
  • the similarity determination unit 22 calculates the similarity Rs for each predetermined period PD and compares the similarity Rs with the threshold TH. When the calculated similarity Rs is equal to or greater than the predetermined threshold TH, always, A control signal CS2 for outputting a two-dimensional image is output to the image signal output unit 23.
  • the image signal output unit 23 When receiving the control signal CS2 for outputting the two-dimensional image from the similarity determination unit 22, the image signal output unit 23 outputs only one of the right-eye image and the left-eye image.
  • the image signal output unit 23 may output either the right-eye image or the left-eye image, but outputs an image with high contrast among the right-eye image and the left-eye image.
  • the image with the higher contrast is an image generated based on light passing through an observation window in which no foreign matter is attached or the amount of attached foreign matter is small. Therefore, the image signal output unit 23 also performs processing for obtaining the contrast between the input right-eye image 32 and the left-eye image 33.
  • the image signal output unit 23 outputs a higher-contrast image of the right-eye image and the left-eye image as a two-dimensional image signal including either the right-eye image signal or the left-eye image signal.
  • the image signal of the image is output.
  • the processing of FIG. 2 is always executed, and the above-described image comparison processing is performed in the background at a predetermined period PD even when a two-dimensional image is displayed on the display unit 4. Therefore, when a two-dimensional image is displayed on the display unit 4, if the foreign matter is removed by air / water supply or flows out of the observation window and disappears, and the value of the similarity R becomes smaller than the threshold TH, The determination unit 22 does not output the control signal CS2 for outputting the two-dimensional image to the image signal output unit 23.
  • the image signal output unit 23 displays the right-eye image 32 and the left-eye image for displaying the three-dimensional image. Both of the images 33 are output to the display unit 4.
  • FIG. 5 is a diagram illustrating a switching state of images displayed on the display unit 4 as time elapses.
  • the horizontal axis in FIG. 5 is time t, and the vertical axis corresponds to the similarity R.
  • FIG. 5 shows that when the similarity Rs calculated by the similarity determination unit 22 changes with time, and the similarity Rs exceeds a predetermined threshold TH, a two-dimensional image (2D) is displayed and the similarity Rs is displayed. Is less than the predetermined threshold TH, it indicates that a three-dimensional image (3D) is displayed.
  • the endoscope 2 may be used by inserting the insertion portion 2a into a lumen such as a digestive organ, and an observation window is provided at the distal end of the insertion portion 2a of the endoscope 2.
  • An air / water nozzle is provided in order to remove foreign matter adhering to the surface.
  • the light incident on the two observation windows 11R and 11L is configured to form an image on the imaging surface of one imaging element 13, but the observation windows 11R and 11L are configured. It may be configured such that the light incident on the light enters the respective image pickup devices.
  • FIG. 6 is a configuration diagram showing a configuration of the stereoscopic endoscope apparatus according to the first modification of the present embodiment.
  • the stereoscopic endoscope apparatus 1A according to the modification shown in FIG. 6 is configured so that light incident on the two observation windows 11R and 11L is incident on the imaging elements 13R and 13L, respectively.
  • the two image sensors 13R and 13L output the image signals for the right eye and the left eye to the CCUs 21R and 21L, respectively.
  • the image pickup devices 13R and 13L constitute an image pickup unit that picks up the right-eye and left-eye optical images formed by the objective optical systems 12R and 12L that form the left and right optical images.
  • the right-eye image and the left-eye image are output from the two CCUs 21R and 21L to the similarity determination unit 22 and the image signal output unit 23, respectively.
  • the operations of the similarity determination unit 22 and the image signal output unit 23 are the same as those described in the above embodiment.
  • the same effects as those of the stereoscopic endoscope apparatus 1 according to the above-described embodiment are produced.
  • the similarity determination unit 22 outputs the control signal CS2 for outputting a two-dimensional image to the image signal output unit 23 when the similarity R is equal to or greater than the predetermined threshold TH, and the image signal output unit 23
  • the display unit 4 displays only one of the right-eye image and the left-eye image (for example, an image with a higher contrast) so that the display unit 4 displays the two-dimensional image when the control signal CS2 for outputting the two-dimensional image is received. Output to.
  • the stereoscopic view is not displayed on the display unit 4 unless the state where the similarity R is equal to or higher than the predetermined threshold value TH continues for a predetermined time or longer.
  • the endoscope is configured.
  • the similarity Rs becomes a value equal to or higher than the predetermined threshold value TH, and the display may immediately change to a two-dimensional image. Thereafter, when the foreign object disappears from the observation window, the display returns to the three-dimensional image when the similarity Rs becomes a value less than the predetermined threshold value TH.
  • the image displayed on the display unit 4 is an image that is difficult for the user to see.
  • the similarity determination unit 22 is two-dimensional when the similarity Rs is equal to or greater than a predetermined threshold TH for a predetermined time TT or more.
  • a control signal CS2 for outputting an image is output to the image signal output unit 23.
  • the predetermined time TT can be changed from the condition setting unit 5.
  • FIG. 7 is a flowchart illustrating an example of a processing flow of the similarity determination unit 22 according to the second modification. In FIG. 7, the same processes as those in FIG.
  • the similarity determination unit 22 executes the similarity calculation process (S1) and the comparison process (S2). When the calculated similarity Rs is less than the predetermined threshold TH (S2: NO), the similarity determination unit 22 executes the process of S3 and then returns to the process of S1.
  • the similarity determination unit 22 executes a timer process (S11). In the timer processing of S11, when the similarity Rs becomes equal to or higher than a predetermined threshold value TH, counting by a predetermined timer, for example, a software timer is started. The similarity determination unit 22 executes the processes of S1 and S2 with a predetermined period PD, and when it is determined that the similarity Rs is equal to or greater than a predetermined threshold TH, YES is obtained in S2.
  • the time set in the timer is, for example, an average value of a general air supply / water supply time for cleaning the observation window. If the count value according to the average time of air / water supply is set, even if the user performs normal air / water supply processing, switching from the 3D image to the 2D image is not performed. Smooth observation with a three-dimensional image can be performed. Note that the timer may be cleared while the air / water supply button is being operated in order to prevent switching to a two-dimensional image when air / water supply is being performed.
  • the similarity determination unit 22 determines whether or not a timeout has occurred based on the count by the timer processing in S11 (S12). Whether or not the time-out has occurred is determined depending on, for example, whether the count value that has been counted up from 0 in the time-out timer process has reached a predetermined count value or the count value that has been counted down from the predetermined count value has become 0. Determined.
  • the similarity determination unit 22 outputs a control signal CS2 for outputting a two-dimensional image to the image signal output unit 23.
  • the image displayed on the display unit 4 does not become an image that is difficult for the user to see.
  • the similarity determination unit 22 calculates a predetermined similarity Rs and compares it with the threshold value TH. Whether the right-eye image 32 and the left-eye image 33 are similar may be determined based on a plurality of similarities.
  • FIG. 8 is a block diagram illustrating a configuration of the similarity determination unit 22A according to the third modification.
  • the similarity determination unit 22A includes two similarity determination units 41 and 42 and a comprehensive determination unit 43.
  • the first similarity determination unit 41 is, for example, a processing unit that calculates the similarity Rs1 by the pattern matching process described above, and the second similarity determination unit 42 is a divided region divided into the plurality of regions described above. Is a processing unit for calculating the similarity Rs2 based on the brightness distribution of
  • the condition setting unit 5 is connected to the similarity determination units 41 and 42, and can input and set various conditions.
  • the overall determination unit 43 finally determines whether the right-eye image 32 and the left-eye image 33 are similar based on the two determination signals CS-1 and CS-2 output from the two similarity determination units 41 and 42.
  • the determination signal CS is supplied to the image signal output unit 23.
  • the comprehensive determination unit 43 Outputs a control signal CS2 for outputting a two-dimensional image to the image signal output unit 23, or after the determination signal CS-1 determines that the right-eye image and the left-eye image are similar, the determination signal CS- Only when 2 determines that the image for the right eye and the image for the left eye are similar, the overall determination unit 43 determines that the control signal CS2 for outputting the two-dimensional image is output to the image signal output unit 23, etc.
  • the comprehensive determination unit 43 can perform this.
  • the similarity determination unit 22 calculates a plurality of similarities by different methods, and the image signal output unit 23 switches between the three-dimensional image signal and the two-dimensional image signal based on the calculated plurality of similarities. Output.
  • two similarity determination units 41 and 42 are used to perform image similarity determination by template matching processing and image similarity determination by brightness distribution determination of divided areas, respectively.
  • the signals of the two-dimensional display image which are the right-eye image and the left-eye image from the images acquired by the observation windows 11R and 11L. Is generated and output to the display unit 4, but without generating the signals for the right eye image and the left eye image, the signal of the image acquired by either the observation window 11R or 11L is directly displayed on the display unit. 4 may be transmitted and displayed.
  • the surgeon observes the display unit 4 by simultaneously displaying, for example, a plurality of two-dimensional display images for either the right eye or the left eye with the stereoscopic glasses removed. Is possible.
  • the display unit 4 is switched to display the 3D display image, and the surgeon wears stereoscopic glasses. Then, the three-dimensional display image is observed.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Optics & Photonics (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Signal Processing (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Astronomy & Astrophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Abstract

立体視内視鏡装置1は、右目及び左目の光学像を撮像する撮像素子13と、撮像素子13から出力された右目の光学像に基づく右目の画像信号及び左目の光学像に基づく左目の画像信号が入力され、右目の画像と左目の画像を比較して右目の画像と左目の画像の類似度を算出する類似度判定部22と、類似度判定部22の算出した類似度に基づいて、右目の画像信号及び左目の画像信号からなる三次元画像信号と、右目の画像信号又は左目の画像信号のうちいずれか一方からなる二次元画像信号と、を切り換えて出力する画像信号出力部23と、を備える。

Description

立体視内視鏡装置
 本発明は、立体視内視鏡装置に関し、特に、三次元画像から二次元画像への表示切換を行う立体視内視鏡装置に関する。
 従来より、内視鏡装置が医療分野及び工業分野で広く利用されている。内視鏡は、細長い挿入部を有し、ユーザは、挿入部の先端部に設けられた観察窓を通った被写体像をモニタに表示して被検体を観察することができる。
 また、近年は、2つの観察窓を通して被写体からの反射光を受光して被写体の立体視を可能とする立体視内視鏡装置も実用化されている。立体視内視鏡装置によれば、ユーザは、例えば病変部を立体視できるので、病変部の観察及び処置がし易い。
 また、立体視内視鏡装置において、患部周辺の状況把握をするために、立体視のための視野の狭い三次元画像と、周辺部を観察可能な視野の広い二次元画像の切換ができる内視鏡装置が、日本特開2003-334160号公報に提案されて開示されている。
 さらにまた、立体視内視鏡装置において、左右の画像のばらつきを低減して違和感のない立体視が可能な内視鏡装置が、日本特開2005-296467号公報に提案されて開示されている。
 立体視内視鏡装置により観察あるいは処置を行っているとき、挿入部の先端部の観察窓に異物が付着すると、ユーザは送気送水ボタンを操作して送気送水ノズルから水と空気を噴射して観察窓に付着した異物を除去することができる。
 しかし、観察窓の一方の表面のみに異物が付着した状態では、ユーザは観察画像を正しく立体視できない。それまで立体視していた観察画像が正しく立体視できない状態になると、ユーザは、見ている画像に違和感を覚える。
 その観察窓に付着した異物を除去する場合は、ユーザは、異物を除去するために送気送水ボタンを操作することもできるが、三次元画像表示から二次元画像表示に切り換える切換操作を行う場合もある。 
 ユーザが画像に違和感を覚える度に、三次元画像表示から二次元画像表示に切り換える切換操作を行うことは、ユーザには煩雑である。
 また、上述した日本特開2003-334160号公報には、広角二次元画像中における特定の色彩を有する領域を抽出して面積を算出し、算出された面積が所定の閾値と比較してその比較結果に基づいて立体視三次元画像と、広角二次元画像の表示切換を行う技術が開示されている。
 さらに、上述した日本特開2005-296467号公報には、左右目用の2つの画像に表示される同一のテスト信号の画像の少なくとも一部を撮影し、撮影して得られたその一部の画像の信号の差が所定値以上であるときに、立体視三次元画像と広角二次元画像の表示切換を行う技術が開示されている。
 しかし、いずれの先行技術においても、特定の色彩の領域の面積あるいは一部の画像の信号のみに基づいて表示切換を行うため、観察窓の一方に異物が付着することによりユーザが立体視できない場合、三次元画像から二次元画像への表示切換が正しく行われない虞がある。
 そこで、本発明は、三次元画像から二次元画像への表示切換を正しく行うことができる立体視内視鏡装置を提供することを目的とする。
 本発明の立体視内視鏡装置は、第1及び第2の光学像を結像する対物光学系により結像された前記第1及び前記第2の光学像を撮像する撮像部と、前記撮像部から出力された前記第1の光学像に基づく第1の画像信号及び前記第2の光学像に基づく第2の画像信号が入力され、前記第1の画像信号に基づく第1の画像と前記第2の画像信号に基づく第2の画像を比較して前記第1の画像と前記第2の画像の類似度を算出する類似度算出部と、前記類似度算出部の算出した前記類似度に基づいて、前記第1の画像信号及び前記第2の画像信号からなる三次元画像信号と、前記第1の画像信号又は前記第2の画像信号のうちいずれか一方からなる二次元画像信号と、を切り換えて出力する画像信号出力部と、を備える。
本発明の実施の形態に係わる立体視内視鏡装置の構成を示す構成図である。 本発明の実施の形態に係わる類似度判定部22の処理の流れの例を示すフローチャートである。 本発明の実施の形態に係わる、テンプレートマッチング法により類似度Rを算出する方法を説明するための、撮像素子13において生成された2つの画像の領域の例を示す図である。 本発明の実施の形態に係わる、撮像素子13から出力される画像信号に含まれる右目用画像と左目用画像の各々を分割した画像の例を示す図である。 本発明の実施の形態に係わる、時間経過に伴う、表示部4に表示される画像の切り換え状態を示す図である。 本発明の実施の形態の変形例1に係わる立体視内視鏡装置の構成を示す構成図である。 本発明の実施の形態の変形例2に係る類似度判定部22の処理の流れの例を示すフローチャートである。 本発明の実施の形態の変形例3に係る類似度判定部22Aの構成を示すブロック図である。
 以下、図面を参照して本発明の実施の形態を説明する。
(構成)
 図1は、本実施の形態に係わる立体視内視鏡装置の構成を示す構成図である。
 立体視内視鏡装置1は、内視鏡2と、ビデオプロセッサ3と、表示部4と、条件設定部5とを有して構成される。内視鏡2とビデオプロセッサ3は、ケーブル6を介して接続されている。
 内視鏡2は、立体撮像を行う立体視内視鏡である。内視鏡2は、細長の挿入部2aを有し、挿入部2aの先端部に観察対象からの反射光が入射する2つの観察窓11R、11Lを有する。2つの観察窓11Rと11Lの後ろ側には、それぞれ対物光学系12Rと12Lが配設されている。内視鏡2は、対物光学系12Rと12Lの焦点位置に配設された、CCDなどの撮像素子13を有する。撮像素子13は、ケーブル6に挿通された信号線14によりビデオプロセッサ3と接続されている。
 観察窓11Rは、立体視のための右目用の観察窓であり、観察窓11Lは、立体視のための左目用の観察窓である。各観察窓11R、11Lに入射した光は、対応する対物光学系12Rと12Lを通って撮像素子13の撮像面上に結像する。
 撮像素子13は、撮像面上に形成された光学像を光電変換して撮像信号を信号線14に出力する。出力される撮像信号は、矩形の撮像面の画像信号である。撮像素子13から出力される撮像信号には、右目用の画像と、左目用の画像を含む。
 すなわち、撮像素子13は、2つの光学像を結像する対物光学系により結像された2つの光学像を撮像する撮像部を構成する。より具体的には、撮像部である撮像素子13は、右目用の光学像を結像する対物光学系12Rにより結像された右目用の光学像及び左目用の光学像を結像する対物光学系12Lにより結像された左目用の光学像を撮像する。
 ビデオプロセッサ3は、カメラコントロールユニット(以下、CCUという)21と、類似度判定部22と、画像信号出力部23とを含む。 
 CCU21は、撮像素子13からの撮像信号を受信して、撮像信号に含まれる右目用画像と左目用画像を生成する画像信号生成回路である。
 CCU21において生成された右目用画像と左目用画像の2つの画像信号は、類似度判定部22と画像信号出力部23に出力される。 
 類似度判定部22は、中央処理装置(CPU)、ROM及びRAM等の回路を含み、CCU21からの右目用画像と左目用画像の2つの画像信号に基づいて、2つの画像の類似度を算出し、算出した類似度と所定の閾値を比較して判定した判定信号CSを出力する処理を行う。類似度の算出方法については、後述する。
 すなわち、類似度判定部22は、撮像素子13から出力された第1の光学像に基づく第1の画像信号及び第2の光学像に基づく第2の画像信号が入力され、第1の画像信号に基づく第1の画像と第2の画像信号に基づく第2の画像を比較して第1の画像と第2の画像の類似度を算出する類似度算出部を構成する。より具体的には、類似度判定部22は、撮像素子13から出力された右目用の光学像に基づく右目用画像信号及び左目用の光学像に基づく左目用画像信号が入力されることにより、右目用の画像と左目用の画像を比較して右目用の画像と左目用の画像の類似度を算出する類似度算出部を構成する。
 画像信号出力部23は、CCU21からの右目用画像と左目用画像の2つの画像信号を受信し、類似度判定部22からの判定信号CSに基づいて、三次元画像表示のための左右の2つの画像信号か二次元画像表示のための左右のいずれかの画像信号を表示部4へ出力する。
 具体的には、画像信号出力部23は、立体視のための三次元画像表示が指示されているときに、二次元画像を出力する判定信号CSである制御信号CS2を受信すると、右目用画像と左目用画像の2つの画像信号の一方のみを表示部4へ出力する。また、画像信号出力部23は、三次元画像を出力する判定信号CSである制御信号CS3を受信しているとき、右目用画像と左目用画像の2つの画像信号を表示部4へ出力する。
 すなわち、画像信号出力部23は、算出された類似度に基づいて、2つの画像信号からなる三次元画像信号と、2つの画像信号のうちいずれか一方からなる二次元画像信号と、を切り換えて出力する。
 なお、ここでは、画像信号出力部23は、制御信号CS3を受信しているとき、右目用画像と左目用画像の2つの画像信号を表示部4へ出力しているが、類似度判定部22は、類似度の算出をして、類似度が所定の条件を満たすときに制御信号CS2だけを出力するようにして、画像信号出力部23は、その制御信号CS2を受信しているとき右目用画像と左目用画像の2つの画像信号の一方のみを表示部4へ出力し、制御信号CS2を受信していないときには右目用画像と左目用画像の2つの画像信号を表示部4へ出力するようにしてもよい。
 表示部4は、液晶表示装置などのモニタである。表示部4には、左右の画像が交互に表示される。ユーザは、例えば表示部4に表示される左右の画像を立体視用の眼鏡を利用して表示部4を見ることで被写体像を立体視することができる。
 条件設定部5は、類似度判定部22へ各種条件を入力して設定するための入力装置である。各種条件は、ここでは、後述するテンプレート画像の領域の位置とサイズ、後述する閾値TH、後述する周期PDであり、ユーザである術者は、条件設定部5から各種条件を任意に設定変更することができる。よって、条件設定部5は、類似度判定部22に対して、所定の閾値に関する設定を変更するための設定部であり、周期PD及び閾値THは、設定変更可能である。
 条件設定部5は、例えば、ビデオプロセッサ3に接続されたキーボードあるいはパーソナルコンピュータ等、あるいはビデオプロセッサ3の操作パネルである。 
 よって、ユーザは、後述するテンプレート画像TIとして、後述する主画像MIにおける例えば中心部分の所望の領域を設定してもよいし、閾値THも、所望の値に設定し、周期PDも所望の値に設定することができる。
 なお、ビデオプロセッサ3は、操作パネル(図示せず)、及び操作パネルへのユーザの操作入力に応じた処理を実行する制御部(図示せず)なども有している。
(作用)
 立体視内視鏡装置1は、立体視のための三次元画像表示が可能であり、CCU21は、右目用画像と左目用画像の2つの画像信号を生成して、画像信号出力部23へ出力する。その結果、表示部4には、三次元画像が表示され、すなわち右目用画像と左目用画像が交互に表示され、ユーザは、例えば左右の画像に対応して交互に開閉するシャッタを有する立体視用の眼鏡を通して表示部4を見ることで被写体像を立体視することができる。
 図2は、類似度判定部22の処理の流れの例を示すフローチャートである。 
 類似度判定部22には、図1に示すようにCCU21からの右目用画像と左目用画像の2つの画像信号が入力されている。
 類似度判定部22は、CCU21からの右目用画像と左目用画像の2つの画像信号の類似度Rを算出する処理を所定の周期PDで実行する類似度算出処理を実行する(S1)。 
 ここで、類似度Rの算出方法について説明する。類似度Rの算出は、次のようにして行われる。図3は、テンプレートマッチング法により類似度Rを算出する方法を説明するための、撮像素子13において生成された2つの画像の領域の例を示す図である。
 図3に示すように、撮像素子13の撮像面領域に対応する画像31は、右目用画像32に対応する右目用画像領域と左目用画像33に対応する左目用画像領域の2つの画像領域を含む。
 右目用画像32と左目用画像33のうち、予め設定した方の画像(例えば左目用画像33)を主画像MIとし、主画像MI中の所定の領域の部分画像を切り出してテンプレート画像TIとする。
 そして、右目用画像32と左目用画像33の内、主画像MIでない方の従画像DI(例えば右目用画像)全体の中にあるいは従画像DI中に設定した領域の画像CR(点線で示す)の中に、テンプレート画像TIと一致する画像があるか否かを求めるテンプレートマッチング処理により、2つの画像の類似度Rを算出する。
 具体的には、テンプレートマッチング処理では、テンプレート画像TIを、M画素とN画素からなるM×Nの矩形画像(M,Nは整数である)とし、テンプレート画像TIと重ね合わされる従画像DI中あるいは画像CR中に、テンプレート画像TIと一致する画像領域があるか否かを、従画像DIあるいは画像CRに対してテンプレート画像TIを所定の順番で移動させながら各位置での類似度が算出される。
 テンプレート画像TI上の位置(i,j)における画素値をT(i,j)とし、テンプレート画像TIと重ね合わされる従画像DIあるいは画像CR中の画像上の位置(i,j)における画素値をI(i,j)とするとき、類似度Rは、次の式で表される。
Figure JPOXMLDOC01-appb-I000001
 式(1)は、両画素値の差の二乗の、M×N画素内で総和をとった値が、類似度Rであることを示している。
 テンプレート画像TIと、テンプレート画像TIと重ね合わされる従画像中の画像とが完全に一致すると、Rは0(ゼロ)となり、Rが0に近い程、一致度が高いすなわち類似度が高いことになる。 
 類似度判定部22は、所定の周期PDでテンプレートマッチング処理を実行し、テンプレート画像TIと、従画像DI中の画像との類似度が最も高い位置における類似度Rsを求める。
 類似度判定部22は、設定された閾値THと類似度Rsを比較し、類似度Rsが閾値TH以上であるときは、表示部4に二次元画像を表示させるために、二次元画像を出力する制御信号CS2を画像信号出力部23へ出力する。
 以上のように、類似度算出部である類似度判定部22は、2つの画像中の第1の画像において設定された領域の画像と、2つの画像中の第2の画像において設定された領域の画像を比較して類似度Rsを算出する。ここでは、類似度判定部22は、テンプレートマッチング法により第1の画像と第2の画像を比較して類似度Rsを算出する。画像信号出力部23は、類似度が所定の閾値THよりも低い場合に三次元画像信号から二次元画像信号へ切り換えて表示部4へ出力する。
 なお、類似度Rsは、上述した式(1)を用いるテンプレートマッチング法以外のテンプレートマッチング法を用いて算出するようにしてもよい。 
 さらになお、類似度Rsは、テンプレートマッチング法以外の類似度の判定方法を用いて算出するようにしてもよい。
 例えば、右目用画像32と左目用画像33の各々を複数の領域に分割し、分割領域の明るさ分布に基づいて、類似度を算出するようにしてもよい。
 図4は、撮像素子13から出力される画像信号に含まれる右目用画像と左目用画像の各々を分割した画像の例を示す図である。
 図4は、撮像素子13により撮像して得られる画像31を示す。CCU21から出力された画像31は、右目用画像32と左目用画像33を含む。右目用画像32と左目用画像33は、同じサイズと形状を有している。
 類似度判定部22は、右目用画像32を所定の形状に分割した複数の画像を抽出し、左目用画像33についても、右目用画像32と同様に分割した複数の画像を抽出する。図4では、右目用画像32と左目用画像33の各々は、9つの画像領域に分割されている。
 右目用画像32と左目用画像33の分割領域は、条件設定部5から設定される。すなわち、右目用画像32と左目用画像33の各々の複数の領域の数あるいは範囲は設定変更可能である。
 右目用画像32は、9つの画像領域32a~32iに分割され、左目用画像33は、9つの領域33a~33iに分割される。右目の画像領域32a~32iは、それぞれ左目の領域33a~33iに対応する。 
 なお、ここでは、右目用画像32と左目用画像33の各々は、9つの画像領域に分割されているが、より多い数あるいはより少ない数に分割してもよい。
 類似度判定部22は、右目用画像32の分割された各領域32a~32iの明るさと、左目用画像33の分割された各領域33a~33iの明るさを算出し、右目用画像32の明るさの分布と、左目用画像33の明るさの分布とを比較し、同様の分布であるか否かを判定する。
 各領域の明るさは、各画像内の複数の画素の画素値の総和あるいは平均値から決定される。 
 類似度判定部22は、対応する2つの分割領域の明るさの差を算出し、差の総和が所定値未満であるとき、右目用画像32と左目用画像33は類似している判定する。
 例えば、領域32aの明るさRaと、領域33aの明るさLaを算出し、明るさの差(Ra-La)を求める。同様に、領域32bの明るさRbと、領域33bの明るさLbを算出し、明るさの差(Rb-Lb)を求める。他の領域32c~32i、32c~32iについても同様に差を求める。求められた9つの差分値の和((Ra-La)+(Rb-Lb)+(Rc-Lc)+(Rd-Ld)+(Re-Le)+(Rf-Lf)+(Rg-La)+(Rh-Lh)+(Ri-Li))、を類似度Rとして、類似度Rが所定値未満であれば、右目用画像32と左目用画像33は類似していると判定される。
 もしも、片方の観察窓に異物が付着していると、差分値の総和である類似度Rsが所定値以上になるので、右目用画像32と左目用画像33は類似していないと判定される。 
 類似度判定部22は、明るさの差分値の総和である類似度Rsが所定値以上で右目用画像32と左目用画像33が類似していないと判定すると、二次元画像を出力させる制御信号CS2を画像信号出力部23へ出力し、明るさの差分値の総和である類似度Rsが所定値未満で右目用画像32と左目用画像33は類似していると判定すると、三次元画像を出力させる制御信号CS3を画像信号出力部23へ出力する。
 以上のように、類似度判定部22は、右目用画像32の明るさ分布と左目用画像33の明るさ分布を比較して類似度Rsを算出する。具体的には、右目用画像32は、複数の領域に分割されると共に、左目用画像33も右目用画像32と同様に複数に分割される。そして、類似度判定部22は、右目用画像32の明るさ分布としての右目用画像32の分割された複数の領域の明るさ分布と、左目用画像33の明るさ分布としての左目用画像33の分割された複数の領域の明るさ分布を比較して類似度Rsを算出する。
 よって、このような画像における明るさ分布に基づいても、2つの画像の類似度を判定することができる。 
 なお、各領域に重み付けをして、前記差分値の和を算出するようにしてもよい。例えば、右目用画像32と左目用画像33の各画像の中央部の領域32eと33eに対して、周囲の各領域32a、32b等、33a、33b等よりも高い重み付けをするようにしてもよい。
 例えば、複数の分割領域の中から、右目用画像32と左目用画像33の各画像の中央部の領域について最も高い重み付けをし、周辺領域に向かって重み付けが徐々に低くなっていくように重み付けをする。
 すなわち、複数の領域の各々に、類似度の算出のための重み付けをし、類似度判定部22は、各領域に対し、重み付けがされた右目用画像32と左目用画像33の明るさの分布を比較して類似度を算出する。
 また、重み付け係数を0(ゼロ)にすることにより、所望の分割領域を、類似度Rの算出の対象から除外することもできる。重み付け係数を0(ゼロ)にすることにより、分割された複数の領域中、類似度の算出の対象としない領域が設定可能である。
 重み付け係数あるいは除外領域の設定あるいは指定は、例えばユーザが条件設定部5から行う。
 さらに、右目用画像32と左目用画像33の類似度Rは、テンプレートマッチング判定、及び明るさ分布判定以外の他の方法により算出するようにしてもよい。 
 図2に戻り、類似度判定部22は、算出された類似度Rsが所定の閾値TH以上であるか否かを判定する(S2)。
 算出された類似度Rsが所定の閾値TH未満であるとき(S2:NO)、類似度判定部22は、三次元画像を出力させる制御信号CS3を画像信号出力部23へ出力して(S3)、S1の処理に戻る。
 算出された類似度Rsが所定の閾値TH以上であるとき(S2:YES)、類似度判定部22は、二次元画像を出力させる制御信号CS2を画像信号出力部23へ出力して(S4)、S1の処理に戻る。
 類似度判定部22は、S1~S4の処理を繰り返す。 
 図2の処理が実行されることにより、三次元画像が表示部4に表示されているとき、観察窓に液体等の異物が付着して、類似度Rsの値が大きくなって閾値TH以上になると、類似度判定部22は、二次元画像を出力する制御信号CS2を画像信号出力部23へ出力する。類似度判定部22は、所定の周期PD毎に類似度Rsを算出して閾値THとの比較を行っており、算出した類似度Rsの値が所定の閾値TH以上であるときは、常に、二次元画像を出力させる制御信号CS2を画像信号出力部23へ出力する。
 画像信号出力部23は、類似度判定部22から二次元画像を出力する制御信号CS2を受信すると、右目用画像と左目用画像の一方のみを出力する。 
 なお、画像信号出力部23は、右目用画像と左目用画像のいずれの画像を出力してもよいが、右目用画像と左目用画像のうちコントラストが高い画像を出力する。コントラストが高い方の画像は、異物が付着していないあるいは付着している異物の量が少ない観察窓を通った光に基づいて生成された画像である。そのため、画像信号出力部23は、入力された右目用画像32と左目用画像33のコントラストを求める処理も行っている。
 すなわち、画像信号出力部23は、右目用画像の画像信号又は左目用画像の画像信号のうちいずれか一方からなる二次元画像信号として、右目用画像及び左目用画像のうち、コントラストの高い方の画像の画像信号を出力する。
 図2の処理は、常に実行されており、表示部4に二次元画像が表示されているときにも、所定の周期PDでバックグラウンドで上述した画像比較処理が行われている。よって、表示部4に二次元画像が表示されているときに、異物が送気送水により除去されあるいは観察窓から流れ落ちて消えて、類似度Rの値が小さくなり閾値TH未満になると、類似度判定部22は、二次元画像を出力させる制御信号CS2は画像信号出力部23へ出力されない。
 類似度判定部22が、二次元画像を出力させる制御信号CS2を画像信号出力部23へ出力しなくなると、画像信号出力部23は、三次元画像を表示するための右目用画像32と左目用画像33の両方を表示部4へ出力する。
 図5は、時間経過に伴う、表示部4に表示される画像の切り換え状態を示す図である。図5の横軸は、時間tであり、縦軸は、類似度Rに対応する。 
 図5は、時間経過に伴い、類似度判定部22において算出される類似度Rsが変化し、類似度Rsが所定の閾値TH以上になると、二次元画像(2D)が表示され、類似度Rsが所定の閾値TH未満であるときは、三次元画像(3D)が表示されることを示している。
 以上のように、上述した実施の形態によれば、二次元画像と三次元画像の表示切換を正しく行うことができる立体視内視鏡装置を提供することができる。
 例えば、医療分野では、内視鏡2は、消化器などの管腔内に挿入部2aを挿入して使用される場合もあり、内視鏡2の挿入部2aの先端部には、観察窓に付着した異物を除去するために送気送水ノズルが設けられている。
 消化器内などには残渣なども多く、観察窓には異物が付着し易い。表示部4に表示された内視鏡画像から観察窓に異物が付着していることを認めると、ユーザである術者は、操作部に設けられた送気送水ボタンを押すことにより、観察窓に付着した異物を水及び空気の噴射により除去したり、二次元画像表示への切り換え操作をすることができるが、ユーザには、煩雑である。
 しかし、上述した内視鏡装置によれば、立体視用の2つの観察窓にのみ異物が付いた場合、自動的に三次元画像から二次元画像へ切り換わるため、ユーザは、煩雑なボタン操作なく、観察等を継続して行うことができる。
 次に変形例について説明する。
(変形例1)
 上述した実施の形態の立体視内視鏡装置では、2つの観察窓11Rと11Lに入射した光は、1つの撮像素子13の撮像面上に結像する構成であるが、観察窓11Rと11Lに入射した光がそれぞれ別々の撮像素子に入射するように構成してもよい。
 図6は、本実施の形態の変形例1に係わる立体視内視鏡装置の構成を示す構成図である。図6において図1と同じ構成要素については、同じ符号を付して説明は省略する。 
 図6に示す変形例に係る立体視内視鏡装置1Aは、2つの観察窓11Rと11Lに入射した光をそれぞれ撮像素子13Rと13Lに入射するように構成されている。そして、2つの撮像素子13Rと13Lは、それぞれ右目用と左目用の画像信号をCCU21Rと21Lに出力する。
 すなわち、撮像素子13Rと13Lは、左右の光学像を結像する対物光学系12Rと12Lにより結像された右目用と左目用の光学像を撮像する撮像部を構成する。
 2つのCCU21Rと21Lから、それぞれ右目用画像と左目用画像が類似度判定部22と画像信号出力部23へ出力される。類似度判定部22と画像信号出力部23の動作は、上述した実施の形態で説明した動作と同じである。
 本変形例に係る立体視内視鏡装置1Aにおいても、上述した実施の形態の立体視内視鏡装置1と同様の効果を生じる。
(変形例2)
 上述した実施の形態では、類似度判定部22は、類似度Rが所定の閾値TH以上になると、二次元画像を出力させる制御信号CS2を画像信号出力部23へ出力し、画像信号出力部23は、二次元画像を出力させる制御信号CS2を受信すると二次元画像を表示部4に表示するように、右目用画像と左目用画像の一方(例えばコントラストが高い方の画像)のみを表示部4に出力する。
 これに対して、変形例1では、類似度Rが所定の閾値TH以上である状態が所定の時間以上連続して継続しなければ、二次元画像を表示部4に表示しないように、立体視内視鏡は構成される。
 例えば、上述した実施の形態では、異物が観察窓に短い時間だけ付着しても、類似度Rsが所定の閾値TH以上の値となり、直ぐに二次元画像に表示が変わってしまう場合がある。その後、異物が観察窓からなくなると、類似度Rsが所定の閾値TH未満の値になると、三次元画像に表示が戻る。このような三次元画像と二次元画像の間での切換が頻繁に行わると、表示部4に表示される画像は、ユーザには、見づらい画像となる。
 そこで、本変形例2では、このような短い時間の画像の切換を防止するために、所定の時間TT以上類似度Rsが所定の閾値TH以上であるときに、類似度判定部22が二次元画像を出力させる制御信号CS2を画像信号出力部23へ出力する。なお、所定の時間TTは、条件設定部5から設定変更可能である。
 図7は、本変形例2に係る類似度判定部22の処理の流れの例を示すフローチャートである。 
 図7において、図2の処理と同じ処理については、同じステップ番号を付して説明は簡単にする。
 類似度判定部22は、類似度算出処理(S1)と比較処理(S2)を実行するが、算出された類似度Rsが所定の閾値TH未満であるとき(S2:NO)、類似度判定部22は、S3の処理を実行してから、S1の処理に戻る。
 算出された類似度Rsが所定の閾値TH以上であるとき(S2:YES)、類似度判定部22は、タイマ処理を実行する(S11)。 
 S11のタイマ処理では、類似度Rsが所定の閾値TH以上になったときに、所定のタイマ、例えばソフトウエアタイマ、によるカウントが開始される。類似度判定部22は、S1とS2の処理を所定の周期PDで実行し、類似度Rsが所定の閾値TH以上である判定されると、S2でYESとなる。
 S11のタイマ処理では、類似度Rsが所定の閾値TH以上であるとの判定が連続しているときは、カウントがカウントアップあるいはカウントダウンが行われ、類似度Rsが所定の閾値TH以上であるとの判定が連続して発生しない場合は、タイマはクリアされる。
 タイマに設定される時間は、例えば、観察窓を洗浄するために一般的な送気送水時間の平均値である。送気送水の平均的な時間に応じたカウント値が設定されれば、ユーザが通常の送気送水処理を行っても、三次元画像から二次元画像への切換が行われないので、ユーザは、スムーズに三次元画像による観察などを行うことができる。 
 なお、送気送水が行われているときに、二次元画像に切り換わらないようにするために、送気送水ボタンが操作されている間は、タイマがクリアされるようにしてもよい。
 類似度判定部22は、S11のタイマ処理によるカウントにより、タイムアウトしたか否かを判定する(S12)。タイムアウトしたか否かは、例えば、タイムアウトタイマ処理において0からカウントアップされてきたカウント値が所定のカウント値になったか、あるいは所定のカウント値からカウントダウンされてきたカウント値が0になったかにより、判定される。
 タイムアウトしなければ(S12:NO)、処理は、S1に戻る。 
 タイムアウトすると(S12:YES)、類似度判定部22は、二次元画像を出力させる制御信号CS2を画像信号出力部23へ出力する(S3)。
 図7の処理が実行されることにより、三次元画像が表示部4に表示されているとき、観察窓に液体等の異物が付着して、類似度Rsの値が大きくなって閾値TH以上になり、類似度Rsの値が閾値TH以上である状態が所定の時間以上継続すると、類似度判定部22は、二次元画像を出力する制御信号CS2を画像信号出力部23へ出力する。
 よって、三次元画像と二次元画像の間での切換が頻繁に行われることがないので、表示部4に表示される画像は、ユーザに見づらい画像とならない。
(変形例3)
 上述した実施の形態及び上述した各変形例では、類似度判定部22は、所定の類似度Rsを算出して閾値THと比較しているが、互いに異なる複数の類似度を算出して、その複数の類似度に基づいて、右目用画像32と左目用画像33が類似しているかを判定するようにしてもよい。
 図8は、変形例3に係る類似度判定部22Aの構成を示すブロック図である。 
 類似度判定部22Aは、2つの類似度判定部41、42と、総合判定部43を含む。第1の類似度判定部41は、例えば、上述したパターンマッチング処理による類似度Rs1を算出する処理部であり、第2の類似度判定部42は、上述した複数の領域に分割された分割領域の明るさの分布による類似度Rs2を算出する処理部である。
 各類似度判定部41,42には、CCU21からの右目用画像と左目用画像の2つの画像信号が入力される。 
 条件設定部5は、各類似度判定部41,42に接続され、各種条件を入力して設定することができる。
 総合判定部43は、2つの類似度判定部41、42から出力される2つの判定信号CS-1、CS-2に基づいて、右目用画像32と左目用画像33が類似しているかを最終的に判定し、判定信号CSを、画像信号出力部23へ供給する。
 例えば、2つの判定信号CS-1,CS-2が共に右目用画像と左目用画像が類似している(例えば類似度が閾値未満である)と判定しているときにのみ、総合判定部43は、二次元画像を出力する制御信号CS2を画像信号出力部23へ出力する、あるいは、判定信号CS-1が右目用画像と左目用画像が類似していると判定した後に、判定信号CS-2が右目用画像と左目用画像が類似していると判定したときにのみ、総合判定部43は、二次元画像を出力する制御信号CS2を画像信号出力部23へ出力する、等の判定を、総合判定部43は行うことができる。
 すなわち、類似度判定部22は、異なる手法による複数の類似度を算出し、画像信号出力部23は、算出された複数の類似度に基づいて三次元画像信号と二次元画像信号とを切り換えて出力する。
 このような構成によれば、右目用画像32と左目用画像33が類似しているかの判定を、より確実に行うことができる。 
 上述した例では、2つの類似度判定部41,42を用いて、それぞれテンプレートマッチング処理による画像の類似度判定と分割領域の明るさの分布判定による画像の類似度判定を行っているが、類似度判定部は、3つ以上あってもよく、類似度判定は、他の手法による類似度判定を行うものでもよい。
 以上説明したように、上述した実施の形態及び各変形例によれば、二次元画像と三次元画像の表示切換を正しく行うことができる立体視内視鏡装置を提供することができる。
 なお、実施形態及び各変形例においては、二次元表示用画像を表示させる際、観察窓11R、11L により取得される画像から右眼用画像と左眼用画像とする二次元表示用画像の信号を生成し、表示部4に対して出力するが、右眼用画像と左眼用画像の信号を生成せずに、観察窓11Rまたは11Lのいずれかにより取得される画像の信号を直接表示部4に送信して表示させても構わない。
 この構成によれば、術者は、立体視用の眼鏡を外した状態で右眼用または左眼用のいずれか一方の二次元表示用画像を、表示部4に例えば複数同時に表示させて観察することが可能である。二次元表示用画像から三次元表示用画像に表示を切り替える際には、表示部4は、三次元表示用画像を表示するように設定が切り替えられ、術者は、立体視用の眼鏡を着用して三次元表示用画像を観察する。
 本発明は、上述した実施の形態に限定されるものではなく、本発明の要旨を変えない範囲において、種々の変更、改変等が可能である。

 本出願は、2015年5月14日に日本国に出願された特願2015-99324号を優先権主張の基礎として出願するものであり、上記の開示内容は、本願明細書、請求の範囲に引用されるものとする。

Claims (14)

  1.  第1及び第2の光学像を結像する対物光学系により結像された前記第1及び前記第2の光学像を撮像する撮像部と、
     前記撮像部から出力された前記第1の光学像に基づく第1の画像信号及び前記第2の光学像に基づく第2の画像信号が入力され、前記第1の画像信号に基づく第1の画像と前記第2の画像信号に基づく第2の画像を比較して前記第1の画像と前記第2の画像の類似度を算出する類似度算出部と、
     前記類似度算出部の算出した前記類似度に基づいて、前記第1の画像信号及び前記第2の画像信号からなる三次元画像信号と、前記第1の画像信号又は前記第2の画像信号のうちいずれか一方からなる二次元画像信号と、を切り換えて出力する画像信号出力部と、
    を備えることを特徴とする立体視内視鏡装置。
  2.  前記撮像部は、右目用の光学像を結像する前記対物光学系により結像された右目用である前記第1の光学像及び左目用の光学像を結像する前記対物光学系により結像された左目用である前記第2の光学像を撮像し、
     前記類似度算出部は、前記撮像部から出力された前記第1の光学像に基づく右目用画像信号及び前記第2の光学像に基づく左目用画像信号が入力されることにより、前記第1の画像と前記第2の画像を比較して前記類似度を算出することを特徴とする請求項1に記載の立体視内視鏡装置。
  3.  前記画像信号出力部は、前記類似度が所定の閾値よりも低い場合に前記三次元画像信号から前記二次元画像信号へ切り換えて出力することを特徴とする請求項1に記載の立体視内視鏡装置。
  4.  前記類似度算出部に対し、前記所定の閾値に関する設定を変更する条件設定部を有することを特徴とする請求項3に記載の立体視内視鏡装置。
  5.  前記類似度算出部は、前記第1の画像において設定された領域の画像と前記第2の画像において設定された領域の画像を比較して前記類似度を算出することを特徴とする請求項1に記載の立体視内視鏡装置。
  6.  前記類似度算出部は、テンプレートマッチング法により前記第1の画像と前記第2の画像を比較して前記類似度を算出することを特徴とする請求項1に記載の立体視内視鏡装置。
  7.  前記類似度算出部は、前記第1の画像の第1の明るさ分布と前記第2の画像の第2の明るさ分布を比較して前記類似度を算出することを特徴とする請求項1に記載の立体視内視鏡装置。
  8.  前記第1の画像は、複数の領域に分割されると共に、前記第2の画像も前記第1の画像と同様に複数に分割され、
     前記類似度算出部は、前記第1の明るさ分布としての前記第1の画像の分割された前記複数の領域の明るさ分布と、前記第2の明るさ分布としての前記第2の画像の分割された前記複数の領域の明るさ分布を比較して前記類似度を算出することを特徴とする請求項7に記載の立体視内視鏡装置。
  9.  前記類似度算出部に対し、前記第1の画像及び前記第2の画像の各々の前記複数の領域の数あるいは範囲に関する設定を変更する条件設定部を有することを特徴とする請求項8に記載の立体視内視鏡装置。
  10.  前記類似度算出部に対し、前記複数の領域の各々に前記類似度の算出のための重み付けを行う条件設定部を有し、
     前記類似度算出部は、前記各領域に対し、前記重み付けがされた前記第1及び前記第2の明るさの分布を比較して前記類似度を算出することを特徴とする請求項8に記載の立体視内視鏡装置。
  11.  前記類似度算出部に対し、前記複数の領域中、前記類似度の算出の対象としない領域を設定する条件設定部を有することを特徴とする請求項8に記載の立体視内視鏡装置。
  12.  前記類似度算出部は、異なる手法による複数の類似度を算出し、
     前記画像信号出力部は、算出された前記複数の類似度に基づいて前記三次元画像信号と前記二次元画像信号とを切り換えて出力することを特徴とする請求項1に記載の立体視内視鏡装置。
  13.  前記三次元画像信号と前記二次元画像信号とを切り換える周期を設定する条件設定部を有することを特徴とする請求項1に記載の立体視内視鏡装置。
  14.  前記画像信号出力部は、前記第1の画像信号又は前記第2の画像信号のうちいずれか一方からなる前記二次元画像信号として、前記第1の画像及び前記第2の画像のうち、コントラストの高い方の画像の画像信号を出力することを特徴とする請求項1に記載の立体視内視鏡装置。
PCT/JP2016/061668 2015-05-14 2016-04-11 立体視内視鏡装置 WO2016181735A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP16792460.4A EP3281576A1 (en) 2015-05-14 2016-04-11 Stereoscopic endoscope device
CN201680011600.5A CN107405048B (zh) 2015-05-14 2016-04-11 立体视内窥镜装置
JP2016564117A JP6150955B2 (ja) 2015-05-14 2016-04-11 立体視内視鏡装置およびビデオプロセッサ
US15/796,937 US10820784B2 (en) 2015-05-14 2017-10-30 Stereoscopic endoscope apparatus and video processor using two images formed by objective optical system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015099324 2015-05-14
JP2015-099324 2015-05-14

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/796,937 Continuation US10820784B2 (en) 2015-05-14 2017-10-30 Stereoscopic endoscope apparatus and video processor using two images formed by objective optical system

Publications (1)

Publication Number Publication Date
WO2016181735A1 true WO2016181735A1 (ja) 2016-11-17

Family

ID=57247906

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/061668 WO2016181735A1 (ja) 2015-05-14 2016-04-11 立体視内視鏡装置

Country Status (5)

Country Link
US (1) US10820784B2 (ja)
EP (1) EP3281576A1 (ja)
JP (1) JP6150955B2 (ja)
CN (1) CN107405048B (ja)
WO (1) WO2016181735A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023045703A1 (zh) * 2021-09-22 2023-03-30 深圳市数泽科技有限公司 一种显示3d图像的医用内窥镜系统

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7014660B2 (ja) * 2018-03-28 2022-02-01 オリンパス株式会社 内視鏡装置、内視鏡装置における光学系の切り替え判定方法、プログラム、および記録媒体
WO2020243270A1 (en) * 2019-05-29 2020-12-03 Stryker Corporation Systems and methods for intraoperative surgical scope cleaning
DE102019114817B4 (de) 2019-06-03 2021-12-02 Karl Storz Se & Co. Kg Bildgebungssystem und Verfahren zur Beobachtung
CN114760457B (zh) * 2020-12-28 2024-03-26 生物岛实验室 3d显示系统的2d/3d图像自动切换方法和系统
WO2022141002A1 (zh) * 2020-12-28 2022-07-07 生物岛实验室 3d显示系统的2d/3d图像自动切换方法和系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06261341A (ja) * 1993-03-05 1994-09-16 Olympus Optical Co Ltd 映像表示装置
JP2007044153A (ja) * 2005-08-08 2007-02-22 Olympus Medical Systems Corp 立体視内視鏡装置
JP2010068309A (ja) * 2008-09-11 2010-03-25 Mitsubishi Electric Corp 映像表示装置及び方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003334160A (ja) 2002-05-21 2003-11-25 Olympus Optical Co Ltd 立体視内視鏡システム
JP2005296467A (ja) 2004-04-14 2005-10-27 Olympus Corp 立体内視鏡用表示制御装置
US8111947B2 (en) * 2004-06-08 2012-02-07 Canon Kabushiki Kaisha Image processing apparatus and method which match two images based on a shift vector
US7366278B2 (en) * 2004-06-30 2008-04-29 Accuray, Inc. DRR generation using a non-linear attenuation model
US8989349B2 (en) * 2004-09-30 2015-03-24 Accuray, Inc. Dynamic tracking of moving targets
EP2498667A4 (en) * 2009-11-13 2017-12-27 California Institute of Technology Stereo imaging miniature endoscope with single imaging chip and conjugated multi-bandpass filters
JP2013038454A (ja) * 2011-08-03 2013-02-21 Sony Corp 画像処理装置および方法、並びにプログラム
JP5919533B2 (ja) * 2011-12-15 2016-05-18 パナソニックIpマネジメント株式会社 内視鏡およびこれを備えた内視鏡システム
WO2014041860A1 (ja) * 2012-09-14 2014-03-20 ソニー株式会社 画像処理装置、画像処理方法、および、プログラム
US20150002812A1 (en) * 2013-06-27 2015-01-01 Nidek Co., Ltd. Image processing apparatus and storage medium
JP6402366B2 (ja) * 2013-08-26 2018-10-10 パナソニックIpマネジメント株式会社 3次元表示装置および3次元表示方法
EP3064122A4 (en) * 2013-12-05 2017-09-06 Olympus Corporation Stereoscopic endoscope system
WO2016059983A1 (ja) * 2014-10-14 2016-04-21 オリンパス株式会社 撮像システム
US10750930B2 (en) * 2014-11-06 2020-08-25 Sony Corporation Endoscope apparatus and method for operating endoscope apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06261341A (ja) * 1993-03-05 1994-09-16 Olympus Optical Co Ltd 映像表示装置
JP2007044153A (ja) * 2005-08-08 2007-02-22 Olympus Medical Systems Corp 立体視内視鏡装置
JP2010068309A (ja) * 2008-09-11 2010-03-25 Mitsubishi Electric Corp 映像表示装置及び方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023045703A1 (zh) * 2021-09-22 2023-03-30 深圳市数泽科技有限公司 一种显示3d图像的医用内窥镜系统

Also Published As

Publication number Publication date
CN107405048B (zh) 2019-07-02
US20180042453A1 (en) 2018-02-15
EP3281576A1 (en) 2018-02-14
US10820784B2 (en) 2020-11-03
JP6150955B2 (ja) 2017-06-21
CN107405048A (zh) 2017-11-28
JPWO2016181735A1 (ja) 2017-05-25

Similar Documents

Publication Publication Date Title
JP6150955B2 (ja) 立体視内視鏡装置およびビデオプロセッサ
US10561304B2 (en) Medical stereoscopic observation device, medical stereoscopic observation method, and program
JP6908039B2 (ja) 画像処理装置、画像処理方法、プログラム、及び画像処理システム
US20160295194A1 (en) Stereoscopic vision system generatng stereoscopic images with a monoscopic endoscope and an external adapter lens and method using the same to generate stereoscopic images
US10966592B2 (en) 3D endoscope apparatus and 3D video processing apparatus
CN112274105B (zh) 手术显微镜、图像处理装置和图像处理方法
JP5893808B2 (ja) 立体内視鏡画像処理装置
US20150018618A1 (en) Stereoscopic endscope system
US11030745B2 (en) Image processing apparatus for endoscope and endoscope system
WO2011070845A1 (ja) 頭部装着型表示装置および頭部装着型表示システム
US20120300032A1 (en) Endoscope
US20170251196A1 (en) Camera device
WO2020008672A1 (ja) 内視鏡システム
CN109068954A (zh) 内窥镜装置
EP3247113B1 (en) Image processing device, image processing method, program, and endoscope system
US10582840B2 (en) Endoscope apparatus
JP3869029B2 (ja) 立体視内視鏡システム
WO2016194446A1 (ja) 情報処理装置、情報処理方法、及び生体内撮像システム
CN110678116B (zh) 医疗系统和控制单元
JP2013183313A (ja) レンズ汚れを検知する方法と、この方法を用いた手術用カメラ
JP4246510B2 (ja) 立体内視鏡システム
JP6694964B2 (ja) 内視鏡装置
JP6080991B1 (ja) 光学機器
EP3806457A1 (en) Medical image processing apparatus

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2016564117

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16792460

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2016792460

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE