WO2016072490A1 - 撮像システム - Google Patents
撮像システム Download PDFInfo
- Publication number
- WO2016072490A1 WO2016072490A1 PCT/JP2015/081307 JP2015081307W WO2016072490A1 WO 2016072490 A1 WO2016072490 A1 WO 2016072490A1 JP 2015081307 W JP2015081307 W JP 2015081307W WO 2016072490 A1 WO2016072490 A1 WO 2016072490A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- imaging
- signal
- correction
- imaging signal
- image
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/0002—Operational features of endoscopes provided with data storages
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00163—Optical arrangements
- A61B1/00193—Optical arrangements adapted for stereoscopic vision
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00163—Optical arrangements
- A61B1/00194—Optical arrangements adapted for three-dimensional imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/05—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/06—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
- A61B1/0655—Control therefor
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B23/00—Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
- G02B23/24—Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
- G02B23/2476—Non-optical details, e.g. housings, mountings, supports
- G02B23/2484—Arrangements in relation to a camera or imaging device
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B23/00—Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
- G02B23/24—Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
- G02B23/26—Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes using light guides
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/46—Colour picture communication systems
- H04N1/56—Processing of colour picture signals
- H04N1/60—Colour correction or control
- H04N1/6027—Correction or control of colour gradation or colour contrast
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/46—Colour picture communication systems
- H04N1/56—Processing of colour picture signals
- H04N1/60—Colour correction or control
- H04N1/6077—Colour balance, e.g. colour cast correction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/133—Equalising the characteristics of different image components, e.g. their average brightness or colour balance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/25—Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/254—Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/286—Image signal generators having separate monoscopic and stereoscopic modes
- H04N13/289—Switching between monoscopic and stereoscopic modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/56—Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/71—Circuitry for evaluating the brightness variation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/73—Circuitry for compensating brightness variation in the scene by influencing the exposure time
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/74—Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
Definitions
- the present invention relates to an imaging system, and more particularly to an imaging system that includes two imaging optical systems and can acquire two captured images.
- an imaging system capable of acquiring two captured images having parallax with each other, that is, an imaging system that generates a stereoscopic image using two captured images having parallax is known.
- Japanese Patent No. 4955840 discloses a stereoscopic endoscope that generates a stereoscopic image using two captured images having parallax in order to stereoscopically observe a fine surgical part in a surgical operation in a body cavity. Is disclosed.
- This stereoscopic endoscope includes a pair of left and right observation optical systems and a pair of left and right imaging units corresponding to these observation optical systems.
- a solid-state imaging device such as a CCD may cause a difference in sensitivity characteristics for each individual or for each lot due to variations in the device itself.
- the stereoscopic endoscope as disclosed in Japanese Patent No. 4955840 includes two solid-state imaging elements on the left and right sides, and even in such a stereoscopic endoscope, a difference in sensitivity between the two solid-state imaging elements is also required. May occur.
- the captured image may be deteriorated, and when the two left and right imaging signals are combined in 3D, they are dragged toward the lower sensitivity. There is a possibility that it becomes difficult to generate an appropriate image.
- the present invention has been made in view of the above-described circumstances, and provides an imaging system that reduces differences in physical characteristics caused by variations between two imaging optical systems in an imaging system including two imaging optical systems. With the goal.
- An imaging system captures an optical image of a subject, captures an optical image of the subject, and captures the first imaging signal that can be output as a first imaging signal.
- a second imaging device capable of outputting as a second imaging signal having parallax, an imaging unit provided, and connected to the imaging unit, with respect to the first imaging signal and the second imaging signal
- a processor that performs signal processing, a storage unit that is provided in the imaging unit and stores correction parameters for performing predetermined correction on the first imaging signal and the second imaging signal, and the processor
- a correction processing unit that performs a correction process on at least one of the images expressed by the first imaging signal and the second imaging signal based on the correction parameter; and Tool To.
- An imaging system captures an optical image of a subject, outputs a first imaging signal that can be output as a first imaging signal, captures the optical image of the subject, and outputs the first imaging signal.
- a second imaging element that can output as a second imaging signal having parallax, and a correction parameter for performing predetermined correction on the first imaging signal and the second imaging signal
- An imaging system including a processor that is connectable to an imaging unit including a storage unit and performs signal processing on the first imaging signal and the second imaging signal.
- a correction processing unit configured to perform correction processing on at least one of the images expressed by the first imaging signal and the second imaging signal based on the correction parameter. .
- FIG. 1 is an external perspective view showing an overall configuration of an endoscope system according to a first embodiment of the present invention. It is a block diagram which shows the structure of the endoscope system of 1st Embodiment. It is a front view of an insertion part tip part of an endoscope in an endoscope system of a 1st embodiment. It is sectional drawing of the insertion part front-end
- FIG. 1 is an external perspective view showing the overall configuration of the endoscope system according to the first embodiment of the present invention
- FIG. 2 is a block diagram showing the configuration of the endoscope system according to the first embodiment
- FIG. 4 is a front view of the distal end portion of the endoscope insertion portion in the endoscope system according to the first embodiment.
- FIG. 4 is a cross-sectional view of the distal end portion of the insertion portion of the endoscope in the endoscope system according to the first embodiment. It is.
- an endoscope system 1 includes a stereoscopic endoscope 2 that is a so-called 3D endoscope that generates a stereoscopic image by two imaging units having parallax with each other.
- a processor 3 having a light source unit to which the stereoscopic endoscope 2 is detachably connected, performs predetermined signal processing on an imaging signal from the imaging unit and supplies illumination light to the stereoscopic endoscope 2;
- the monitor 5 as a display device that displays the image signal generated by the processor 3 as an endoscopic image constitutes a main part.
- the endoscope system 1 has various medical devices such as the processor 3 on a cart 9 such as an electric scalpel device, a pneumoperitoneum device, a video recorder, and the like, and carbon dioxide.
- a gas cylinder filled with carbon or the like is placed.
- the stereoscopic endoscope 2 is a rigid endoscope that is applied to, for example, an abdominal procedure, in which a surgical part in a body cavity is observed stereoscopically.
- the stereoscopic endoscope 2 includes an insertion portion to be inserted into a body cavity and a rigid insertion portion 6 having a length applied to an abdominal procedure, and various types of the stereoscopic endoscope 2 that are grasped by an operator.
- a universal cord 8 extending from the insertion portion 7 and connected to the processor 3.
- the insertion portion 6 is configured by connecting a distal end hard portion 11, a bending portion 12, and a hard portion 13 in order from the distal end portion 6a side to the proximal end portion 6b side. That is, the proximal end portion of the distal end hard portion 11 is connected to the distal end portion of the bending portion 12, and the proximal end portion of the bending portion 12 is connected to the distal end portion of the rigid portion 13.
- the hard portion 13 is a long and hard rigid tube, and its base end portion is connected to the operation portion 7 as a base end portion 6 b of the insertion portion 6.
- the distal end hard portion 11 in the insertion portion 6 includes a left imaging unit 21 ⁇ / b> L for a left image (left eye) and a left-side image (left eye) in order to stereoscopically observe the surgical site.
- a right imaging unit 21R for the right image (right eye) is disposed.
- the left imaging unit 21L includes an imaging optical system 22L for a left image (left eye) and an imaging element 23L
- the right imaging unit 21R includes an imaging optical system 22R and an imaging element 23R for a right image (right eye). Consists of.
- the imaging optical system 22L for the left image and the imaging optical system 22R for the right image both have an objective lens for observing the surgical site and the surgical site observed by the objective lens. And an imaging lens for forming an image.
- a left-side image pickup element 23L and a right-side image pickup element 23R are disposed at the image forming positions of the respective image forming lenses in the image pickup optical system 22L and the image pickup optical system 22R, respectively.
- the left image pickup device 23L and the right image pickup device 23R are constituted by, for example, a CCD image sensor, and both pass through the objective lens in the image pickup optical system 22L or the image pickup optical system 22R, and further form an image by an image forming lens.
- the obtained image (operational part) is photoelectrically converted to generate a predetermined imaging signal.
- CDS circuits correlated double sampling circuits
- a / D conversion circuits analog-digital conversion circuits
- the left-side image pickup device 23L and the right-side image pickup device 23R photoelectrically convert the subject images formed on the image pickup surface and output them to the CDS circuits 26L and 26R.
- the CDS circuits 26L and 26R perform correlated double sampling processing on the imaged signals and output them to the A / D conversion circuits 27L and 27R.
- the A / D conversion circuits 27L and 27R convert the imaging signal from an analog signal to a digital signal and output it to the processor 3.
- various cables 15 such as signal lines related to the left image sensor 23L and the right image sensor 23R are connected to the processor 3 through the insertion unit 6, the operation unit 7, and the universal cord 8. It is like that. Further, a light guide cable 16 that transmits illumination light from the light source unit in the processor 3 is inserted through the insertion unit 6, the operation unit 7, and the universal cord 8.
- the base end side of the universal cord 8 is provided with a light source connector 17a which is an end portion of the light guide cable 16, and is detachably connected to the light source connector portion 30a in the processor 3.
- a signal connector 17b which is branched from the light source connector 17a and is an end of the signal cable 15 is disposed, and is detachably connected to the signal connector 30b in the processor 3.
- the signal connector 30b is provided with an ID memory 20 which is a storage unit for storing individual information for each stereoscopic endoscope 2.
- ID memory 20 is a storage unit for storing individual information for each stereoscopic endoscope 2.
- information related to sensitivity characteristics of the left image sensor 23L and the right image sensor 23R mounted on the stereoscopic endoscope 2 is stored in the ID memory 20. ing.
- a solid-state imaging device such as a CCD has a difference in sensitivity characteristics for each individual due to variations in the device itself, but the left-side image pickup device 23L mounted on the stereoscopic endoscope 2 There is a possibility that the sensitivity characteristics of the right-side image pickup device 23R are also different.
- the correction parameters related to the sensitivity characteristics in the left image sensor 23L and the right image sensor 23R are the left correction parameter 20a and the correction parameter 20a, respectively.
- the right correction parameter 20b is stored in the ID memory 20. Details of the correction parameters will be described later.
- an illumination window 25 is disposed on the distal end surface 11 a of the distal end hard portion 11 of the insertion portion 6 at a position facing the distal end surface of the light guide cable 16.
- two light guide cables 16 are provided, and two illumination windows 25 are also provided.
- the light source connector 17a is connected to the light source connector portion 30a in the processor 3, and the illumination light emitted from the light source portion 4 provided in the processor 3 is transmitted by the light guide cable 16, and the distal end of the distal end rigid portion 11 is transmitted.
- the illumination light is emitted from the illumination window 25 provided on the surface 11 a so as to be opposed to the distal end surface of the light guide cable 16.
- observation windows 24L and 24R are disposed adjacent to the illumination window 25 so as to input an optical image of an illuminated subject such as an affected area. It has become. Note that these observation windows 24L and 24R are arranged at positions facing the above-described imaging optical system 22L and imaging optical system 22R, respectively.
- the stereoscopic endoscope 2 includes a left-side accommodation unit 29L that accommodates the left imaging unit 21L, and a right-side accommodation unit 29R that accommodates the right imaging unit 21R.
- the accommodating portion 31L and the accommodating portion 31R are separate bodies.
- CCD image sensors are employed as the left image sensor 23L and the right image sensor 23R.
- the present invention is not limited to this, and an image sensor such as a CMOS may be used.
- the processor 3 in this embodiment includes a power supply circuit (not shown) that generates power supplies of a plurality of power supply voltages necessary for the operation of the image sensor and the left-side image sensor in the stereoscopic endoscope 2.
- 23D and a right-side image pickup device 23R a CCD drive circuit (not shown), a control unit 31 that controls various circuits in the processor 3, and a left-side image pickup of two image pickup signals in the stereoscopic endoscope 2
- a first signal processing unit that inputs an imaging signal (hereinafter referred to as a first imaging signal) generated in the element 23L and that has passed through the CDS circuit 26L and the A / D conversion circuit 27L and performs predetermined signal processing under the control of the control unit 31.
- the control unit 31 controls various circuits in the processor 3 as described above, and detects a predetermined parameter information stored in the ID memory 20 in the signal connector 30b of the stereoscopic endoscope 2. 31a.
- the parameter detection unit 31a detects the left correction parameter 20a and the right correction parameter 20b stored in the ID memory 20 in the signal connector 30b, respectively, when the stereoscopic endoscope 2 is connected to the processor 3. It is like that.
- Each of the first signal processing unit 32 and the second signal processing unit 33 performs predetermined signal processing on the image pickup signal from the left image pickup device 23L or the right image pickup device 23R.
- a signal processing unit such as an automatic gain control circuit (AGC circuit), a white balance circuit, a gamma correction circuit, an enlargement / reduction circuit, and an edge emphasis circuit is provided to appropriately perform signal processing.
- the processor 3 is also connected to output terminals of the first signal processing unit 32 and the second signal processing unit 33, and is controlled by the control unit 31 in the first signal processing unit 32 and the second signal processing unit 33.
- a luminance level correction unit 34 that performs a luminance level correction process on the imaging signal that has been subjected to the predetermined processing is provided.
- the luminance level correction unit 34 is configured to control the first signal processing unit 32 and the luminance level correction unit 34 under the control of the control unit 31 based on the left correction parameter 20a and the right correction parameter 20b detected by the parameter detection unit 31a of the control unit 31.
- the first imaging signal and the second imaging signal that are output signals of the second signal processing unit 33 are subjected to correction processing so as to have respective predetermined luminance levels, and are output to the subsequent stage.
- a solid-state imaging device such as a CCD has a difference in sensitivity characteristics for each individual due to variations in the device itself.
- the left correction parameter 20a and the right correction parameter 20b are stereoscopically viewed. This is information for correcting the difference between the sensitivity characteristics of the two left and right solid-state imaging devices on the mirror side.
- the left correction parameter 20a is an image represented by the first image pickup signal related to the left image pickup device 23L according to the sensitivity characteristic caused by the physical characteristics of the left image pickup device 23L. Is a first correction parameter for causing the luminance level correction unit 34 to correct the first imaging signal so that the luminance level becomes a predetermined luminance value.
- the right correction parameter 20b is an image represented by the second image pickup signal related to the right image pickup device 23R in accordance with the sensitivity characteristic resulting from the physical characteristics of the right image pickup device 23R.
- This is a second correction parameter for causing the luminance level correction unit 34 to correct the second image pickup signal so that the luminance level becomes a predetermined luminance value.
- the left correction parameter 20a and the right correction parameter 20b can be said to be luminance level correction information for correcting the luminance level for each pixel in the first imaging signal and the second imaging signal.
- the luminance level correction unit 34 determines the luminance level of the image represented by the first imaging signal and the second imaging signal. The correction processing is performed so that the luminance level of the image represented by is equalized.
- the luminance level correction unit 34 based on these correction parameters, the first imaging signal related to the left image sensor 23L and the second imaging signal related to the right image sensor 23R. are subjected to the above-described predetermined positive processing so as to be output as a signal processed under the same sensitivity characteristic without being affected by the above-described variation of the solid-state imaging device.
- the first corrected imaging signal and the second corrected imaging signal which are output signals after the correction processing by the luminance level correcting unit 34, are two solid-state imaging substantially having the same sensitivity characteristics. It can be said that these are two imaging signals imaged by the element.
- the output signal of the luminance level correction unit 34 is based on the first corrected imaging signal and the second corrected imaging signal.
- One dimming detection unit 35 that performs predetermined dimming detection, a 3D synthesis unit 50 that synthesizes the first corrected imaging signal and the second corrected imaging signal, and generates a predetermined 3D image signal;
- the dimming detection unit 35 performs a known dimming detection function, and includes the first corrected image pickup signal (signal related to the left image pickup device 23L) and the second corrected image pickup signal (for the right image). And a photometric unit that measures the luminance of the image sensor 23R), and outputs an information signal related to the photometric luminance value.
- the dimming detection unit 35 includes an exposure time control unit that controls the exposure time of the left image sensor 23L and the right image sensor 23R according to the luminance value measured by the photometry unit.
- the exposure time control unit generates a control signal for electronic shutter control of the left image sensor 23L and the right image sensor 23R according to the photometric brightness value, and the left image sensor 23L and the right image.
- the image is sent to the image pickup device 23R.
- the first corrected image signal and the second corrected image signal can be said to be two image signals captured by two solid-state image sensors having substantially uniform sensitivity characteristics.
- the processor 3 generates an aperture control signal for controlling an aperture in the light source unit 4 in accordance with an information signal related to the photometric brightness value output from the dimming detection unit 35.
- the processor 3 includes a light source unit 4 for emitting illumination light to the light guide cable 16 in order to supply illumination light to the stereoscopic endoscope 2.
- the light source unit 4 includes a lamp 42, a diaphragm 43, and a lens 44, and includes a light source control unit 41. Illumination light from the lamp 42 is emitted toward the lens 44 through a diaphragm 43 controlled by the light source control unit 41.
- the lens 44 collects light at the proximal end of the light guide cable 16.
- the light collected at the base end portion of the light guide cable 16 is transmitted through the light guide cable 16 as illumination light supplied to the stereoscopic endoscope 2 and then from the distal end portion of the light guide cable 16. It will be emitted.
- the light source control unit 41 controls the aperture 43 based on the aperture control signal generated by the aperture control signal generation unit 52.
- control unit 31 detects the left correction parameter 20a and the right correction parameter 20b stored in the ID memory 20 by the parameter detection unit 31a.
- the brightness level correction unit 34 is controlled by the control unit 31 based on the left correction parameter 20a and the right correction parameter 20b detected by the parameter detection unit 31a of the control unit 31. And the correction process of each luminance level is performed with respect to the 1st image pick-up signal and the 2nd image pick-up signal which are the output signals of the 2nd signal processing part 33.
- FIG. 1st image pick-up signal and the 2nd image pick-up signal which are the output signals of the 2nd signal processing part 33.
- the luminance level correction unit 34 outputs the first image pickup signal and the second image pickup signal subjected to the correction process as a first correction image pickup signal and a second correction image pickup signal, respectively.
- the dimming detection unit 35 performs a predetermined dimming detection process on the first corrected imaging signal and the second corrected imaging signal, and measures the luminance of these corrected imaging signals to obtain the measured luminance value.
- the information signal is sent to the aperture control signal generation unit 52.
- the dimming detection unit 35 generates control signals for electronic shutter control related to the left-side image pickup device 23L and the right-side image pickup device 23R according to the photometric brightness value, and these left-side image pickup The image is sent to the element 23L and the right image pickup element 23R.
- the first corrected imaging signal and the second corrected imaging signal are synthesized to generate a predetermined 3D image signal, and the synthesized 3D imaging signal is directed to the 3D monitor 50. Send it out.
- the difference in sensitivity characteristics between the two left and right solid-state imaging elements on the stereoscopic endoscope side is corrected on the connected processor side based on these correction parameters so as to correct the difference in sensitivity characteristics between the two left and right solid-state imaging devices.
- a predetermined correction process was performed.
- the endoscope system of the present embodiment even if there is a difference in sensitivity characteristics due to variations or the like between the two solid-state image sensors mounted on the endoscope, the left and right two solid-state image sensors on the processor 3 side. Therefore, it is not necessary to provide the dimming detection unit 35 for each of the two imaging signals, and it is sufficient to provide only one, and the cost can be reduced.
- the left-side image pickup device 23L is used as a correction parameter for correcting the difference in sensitivity characteristics between the left and right two solid-state image pickup devices on the stereoscopic endoscope side.
- the two correction parameters 20b) and the correction parameter 20b) are stored and used.
- the endoscope system according to the second embodiment is the first implementation in that it is a correction parameter for correcting the difference in sensitivity characteristics between the left and right two solid-state imaging devices on the stereoscopic endoscope side.
- the first embodiment provides two correction parameters (a left correction parameter 20a and a right correction parameter 20b) for correcting the two left and right imaging signals related to the two left and right solid-state imaging devices.
- the second embodiment is characterized in that one correction parameter related to the difference information of the sensitivity characteristics between the two left and right solid-state imaging devices is stored and used.
- FIG. 5 is a diagram showing a configuration of an endoscope system according to the second embodiment of the present invention.
- the endoscope system 101 of the second embodiment has the same basic configuration as that of the first embodiment, but is arranged in the stereoscopic endoscope 102 as described above.
- the difference is that “difference information” of sensitivity characteristics in the two left and right imaging elements mounted on the stereoscopic endoscope 102 is stored in the provided ID memory 120. Therefore, here, only the parts different from the first embodiment will be described, and the description of the parts similar to the first embodiment will be omitted.
- the signal connector 30b in the stereoscopic endoscope 102 is provided with an ID memory 120 which is a storage unit for storing individual information for each stereoscopic endoscope 102.
- the ID memory 120 stores “difference information” of sensitivity characteristics between the left image sensor 23L and the right image sensor 23R mounted on the stereoscopic endoscope 102.
- a certain difference correction parameter 120a is stored.
- the difference correction parameter 120a is an image of an image represented by one of the first image pickup signal related to the left image pickup device 23L and the second image pickup signal related to the right image pickup device 23R. This is a correction parameter for correcting the luminance level to be equal to the luminance level of the image represented by the other imaging signal.
- the control unit 131 in the processor 103 controls various circuits in the processor 103 and detects a difference correction parameter 120 a that is the “difference information” stored in the ID memory 120 in the stereoscopic endoscope 102. It has a detector 131a.
- the brightness level correction unit 34 controls the sensitivity characteristics between the two left and right solid-state imaging devices based on the difference correction parameter 120a detected by the parameter detection unit 31a under the control of the control unit 31.
- a predetermined correction process is performed on either the left or right imaging signal so as to correct the difference.
- control unit 131 detects the difference correction parameter 120a stored in the ID memory 120 by the parameter detection unit 131a.
- the brightness level correction unit 34 performs the second imaging which is an output signal of the second signal processing unit 33 under the control of the control unit 31 based on the difference correction parameter 120a detected by the parameter detection unit 131a. Correction processing is performed so that the luminance level of the signal is equal to the luminance level of the first imaging signal that is the output signal of the first signal processing unit 32.
- the luminance level correction unit 34 outputs the first imaging signal, which is the output signal of the first signal processing unit 32, as it is, while the second imaging signal subjected to the correction process is output as the first imaging signal. 2 as a corrected imaging signal.
- the difference correction parameter 120a is a parameter related to the difference in sensitivity of the right image pickup device 23R with respect to the sensitivity of the left image pickup device 23L, but is not limited thereto. It may be a parameter related to the difference in sensitivity of the left image pickup device 23L with respect to the sensitivity of the right image pickup device 23R.
- the brightness level correction unit 34 is the first output signal of the first signal processing unit 32 under the control of the control unit 31 based on the difference correction parameter 120a detected by the parameter detection unit 131a. Correction processing is performed so that the luminance level of the imaging signal is equal to the luminance level of the second imaging signal that is an output signal of the second signal processing unit 33.
- the processor Since the difference in sensitivity characteristics between the two left and right solid-state image sensors can be corrected on the third side, it is not necessary to provide the dimming detector 35 for each of the two image signals, and it is sufficient to provide only one. Cost can be reduced.
- the present invention is not limited to this, and for example, the solid-state imaging device itself.
- the difference in sensitivity characteristics due to the above it is possible to deal with a case where a difference occurs in the sensitivity characteristics due to component processing accuracy or assembly accuracy of the imaging optical system or the like.
- a correction parameter for correcting the difference between the characteristics by paying attention to the difference in sensitivity characteristics (difference in luminance level) between the two solid-state imaging devices mounted on the endoscope can also be applied to a technique for correcting other characteristic differences.
- a tone correction technique for correcting a difference in tone characteristics for each pixel between two solid-state imaging devices For example, a tone correction technique for correcting a difference in tone characteristics for each pixel between two solid-state imaging devices, a tone correction technique for correcting a difference in tone characteristics for each pixel, and a parallax in a stereoscopic image becomes a predetermined parallax.
- the present invention can also be applied to an eccentricity correction technique for correcting the white defects, a white defect correction technique for correcting white defect pixels in two solid-state imaging devices, and the like.
- the third embodiment is an embodiment in which the present invention is applied to a gradation correction technique for correcting a difference in gradation characteristics for each pixel between two solid-state imaging devices. That is, in the present embodiment, the left correction parameter 220a and the right correction parameter 220b are information for correcting a difference in gradation characteristics for each pixel in the left and right two solid-state imaging devices on the stereoscopic endoscope side.
- FIG. 6 is a diagram showing a configuration of the endoscope system 201 in the third embodiment.
- the processor 203 in the present embodiment is similar to the first embodiment in that a power supply circuit (not shown) that generates a plurality of power supply voltages required for the operation of the image sensor and the like, a CCD drive (not shown)
- a control unit 231 for controlling various circuits in the processor 203 is included.
- the control unit 231 controls various circuits in the processor 203 as described above, and also detects a parameter parameter for detecting gradation parameter information stored in the ID memory 220 in the signal connector 30b of the stereoscopic endoscope 2. 231a.
- the processor 203 is also connected to output terminals of the first signal processing unit 32 and the second signal processing unit 33, and is controlled by the control unit 231 in the first signal processing unit 32 and the second signal processing unit 33.
- a gradation correction unit 234 that performs gradation correction processing on the imaging signal that has been subjected to predetermined processing is provided.
- the gradation correction unit 234 controls the first signal processing unit 32 and the control unit 231 based on the left correction parameter 220a and the right correction parameter 220b detected by the parameter detection unit 231a of the control unit 231.
- the first image pickup signal and the second image pickup signal that are output signals of the second signal processing unit 33 are subjected to correction processing so as to obtain respective predetermined gradations, and are output to the subsequent stage.
- the left-side correction parameter 220a is set to the left-side image pickup device 23L according to the gradation characteristics resulting from the physical characteristics of the left-side image pickup device 23L.
- This is a first correction parameter for causing the gradation correction unit 234 to correct the first imaging signal so that the gradation of the image represented by the first imaging signal according to the above becomes a predetermined value.
- the right correction parameter 220b is represented by the second image pickup signal related to the right image pickup device 23R according to the gradation characteristics caused by the physical characteristics of the right image pickup device 23R.
- This is a second correction parameter for causing the gradation correction unit 234 to correct the second imaging signal so that the gradation of the image becomes a predetermined value.
- the gradation correction unit 23 based on the left correction parameter 220a and the right correction parameter 220b, the gradation of the image represented by the first imaging signal and the second imaging signal. Correction processing is performed so as to make the gradation of the image represented by
- the left and right solid-state images are captured on the processor side. Differences in gradation characteristics between elements can be corrected.
- the fourth embodiment is an embodiment in which the present invention is applied to a color tone correction technique for correcting a difference in color tone characteristics for each pixel between two solid-state imaging devices. That is, in the present embodiment, the left correction parameter 320a and the right correction parameter 320b are information for correcting a difference in color tone characteristics for each pixel in the two left and right solid-state imaging devices on the stereoscopic endoscope side.
- FIG. 7 is a diagram showing a configuration of an endoscope system 301 in the fourth embodiment.
- the processor 303 in this embodiment is similar to the first embodiment in that a power supply circuit (not shown) that generates power supplies of a plurality of power supply voltages necessary for the operation of the image sensor and the like, CCD drive (not shown)
- a control unit 331 that controls various circuits in the processor 303 is included.
- the control unit 331 controls various circuits in the processor 303 as described above, and detects the color tone parameter information stored in the ID memory 320 in the signal connector 30b of the stereoscopic endoscope 2 as a parameter detection unit 331a.
- the processor 303 is also connected to the output terminals of the first signal processing unit 32 and the second signal processing unit 33, and in the first signal processing unit 32 and the second signal processing unit 33 under the control of the control unit 331.
- a color tone correction unit 334 that performs color tone correction processing on the imaging signal subjected to predetermined processing is provided.
- the color correction unit 334 controls the first signal processing unit 32 and the first signal processing unit 331 under the control of the control unit 331.
- the first image pickup signal and the second image pickup signal that are output signals of the two-signal processing unit 33 are subjected to correction processing so as to have respective predetermined color tones and output to the subsequent stage.
- the left correction parameter 320a is applied to the left image pickup device 23L according to the color tone characteristics resulting from the physical characteristics of the left image pickup device 23L.
- the right correction parameter 320b is an image represented by the second image pickup signal related to the right image pickup device 23R according to a color tone characteristic caused by the physical characteristics of the right image pickup device 23R.
- This is a second correction parameter for causing the color tone correction unit 334 to correct the second image pickup signal so that the color tone becomes a predetermined value.
- the color tone correction unit 334 is represented by the color tone of the image represented by the first imaging signal and the second imaging signal based on the left correction parameter 320a and the right correction parameter 320b. Correction processing is performed so as to make the tone of the images to be equal.
- the fourth embodiment even if there is a difference in color tone characteristics between the two solid-state image sensors mounted on the endoscope due to variations or the like, the left and right two solid-state image sensors on the processor side.
- the difference in color tone can be corrected.
- the fifth embodiment is an embodiment in which the present invention is applied to an eccentricity correction technique for correcting the parallax in a stereoscopic image to be a predetermined parallax. That is, in the present embodiment, the left correction parameter 420a and the right correction parameter 420b are information for correcting the parallax in the stereoscopic image that is the output image of the 3D synthesis unit to be a predetermined parallax.
- FIG. 8 is a diagram showing a configuration of an endoscope system 401 in the fifth embodiment.
- the processor 403 in the present embodiment is similar to the first embodiment in that a power supply circuit (not shown) that generates power supplies of a plurality of power supply voltages necessary for the operation of the image sensor and the like, a CCD drive (not shown)
- a control unit 431 that controls various circuits in the processor 403 is provided.
- the control unit 431 controls various circuits in the processor 403 as described above, and also detects a parameter detection unit 431a that detects eccentric parameter information stored in the ID memory 420 in the signal connector 30b of the stereoscopic endoscope 2.
- the processor 403 is also connected to the output terminals of the first signal processing unit 32 and the second signal processing unit 33, and is controlled by the control unit 431 in the first signal processing unit 32 and the second signal processing unit 33.
- An eccentricity correction unit 434 that performs an eccentricity correction process on the imaging signal that has been subjected to predetermined processing is provided.
- the eccentricity correction unit 434 is configured to control the first signal processing unit 32 and the A correction process is performed on the first imaging signal and the second imaging signal that are output signals of the two-signal processing unit 33 so that the parallax in the stereoscopic image that is the output image of the 3D synthesis unit 50 becomes a predetermined parallax, and the subsequent stage To output.
- the left correction parameter 420a is set so that the parallax of the image represented by the first image pickup signal related to the left image pickup device 23L has a predetermined value. It is a first correction parameter for causing the eccentricity correction unit 434 to correct the first imaging signal.
- the right correction parameter 420b provides the second correction signal to the eccentricity correction unit 434 so that the parallax of the image represented by the second image pickup signal related to the right image pickup element 23R becomes a predetermined value. Is a second correction parameter for correcting.
- the eccentricity correction unit 434 performs correction processing based on the left correction parameter 420a and the right correction parameter 420b so that the parallax in the stereoscopic image that is the output image of the 3D synthesis unit becomes a predetermined parallax. It is characterized by giving.
- the output image of the 3D synthesis unit is based on variations in two solid-state imaging devices mounted on the endoscope or parts processing accuracy or assembly accuracy of the imaging optical system. Even when the parallax in the stereoscopic image does not become an appropriate value, the parallax between the two left and right solid-state imaging devices can be corrected on the processor side, so that the stereoscopic image that is the output image of the 3D synthesis unit is displayed appropriately. can do.
- the sixth embodiment is an embodiment in which the present invention is applied to a white defect correction technique for correcting white defect pixels in two solid-state imaging devices. That is, in the present embodiment, the left correction parameter 520a and the right correction parameter 520b are information for correcting white scratched pixels in the two solid-state imaging devices.
- FIG. 9 is a diagram showing a configuration of an endoscope system 501 in the sixth embodiment.
- the processor 503 in the present embodiment is similar to the first embodiment in that a power supply circuit (not shown) that generates power supplies of a plurality of power supply voltages necessary for the operation of the image sensor and the like, a CCD drive (not shown)
- a control unit 531 for controlling various circuits in the processor 503 is provided.
- the control unit 531 controls the various circuits in the processor 503 as described above, and detects the color tone parameter information stored in the ID memory 520 in the signal connector 30b of the stereoscopic endoscope 2 as a parameter detection unit 531a.
- the processor 503 is also connected to the output terminals of the first signal processing unit 32 and the second signal processing unit 33, and is controlled by the control unit 531 in the first signal processing unit 32 and the second signal processing unit 33.
- a white defect correction unit 534 that performs white defect correction processing on the imaging signal that has been subjected to predetermined processing.
- the white defect correction unit 534 is controlled by the control unit 531 and the first signal processing unit 32 and A correction process for correcting white scratched pixels in the first imaging signal and the second imaging signal, which are output signals of the second signal processing unit 33, is performed and output to the subsequent stage.
- the left correction parameter 520a is a first correction parameter related to coordinate position information of white scratch pixels in the first imaging signal.
- the right correction parameter 520b is a second correction parameter related to the coordinate position information of the white scratch pixel in the second imaging signal.
- the white defect correction unit 534 performs a correction process on the white defect pixel by a predetermined correction method based on the left correction parameter 520a and the right correction parameter 520b.
- the correction processing unit such as the luminance level correction unit 34 is arranged at the subsequent stage of the first signal processing unit 32 and the second signal processing unit 33, and the dimming detection is further performed.
- the unit 35 is arranged after the correction processing unit.
- the present invention is not limited to this, and a dimming detection unit having the same effect as the dimming detection unit 35 is disposed in front of the first signal processing unit 32 and the second signal processing unit 33, and the correction processing unit is used.
- the present invention can also be applied to an endoscope system that employs a configuration in which light adjustment detection processing is performed on an imaging signal before correction processing is performed.
- FIG. 10 is a diagram showing an endoscope system according to the seventh embodiment.
- the endoscope system 601 is an endoscope system that performs imaging using the stereoscopic endoscope 2 as in the first and second embodiments, but switching between 2D and 3D. In addition to displaying a 3D image on the 3D monitor, a 2D image can be reproduced on the 2D monitor.
- the processor 603 is a control unit 631 that controls various circuits in the processor 603 and the above-described left-side image out of two imaging signals in the stereoscopic endoscope 2.
- a first signal processing unit 32 that receives the first image pickup signal generated in the image pickup device 23L and passes through the CDS circuit 26L and the A / D conversion circuit 27L and performs predetermined signal processing under the control of the control unit 631
- the right image A second signal processing unit 33 that receives the second imaging signal generated in the image pickup device 23R and passes through the CDS circuit 26R and the A / D conversion circuit 27R, and performs predetermined signal processing under the control of the control unit 631;
- control unit 631 compares the luminance value of the first imaging signal or the second imaging signal processed in the first signal processing unit 32 or the second signal processing unit 33 with a predetermined threshold. It has a value comparison unit.
- Each of the first signal processing unit 32 and the second signal processing unit 33 performs predetermined signal processing on the image pickup signal from the image pickup device 23L or the image pickup device 23R.
- AGC circuit a white balance circuit, a gamma correction circuit, an enlargement / reduction circuit, an edge emphasis circuit, and other signal processing units are provided to appropriately perform signal processing.
- the processor 603 includes a dimming detection unit 635 that performs dimming detection on the first imaging signal processed in the first signal processing unit 32 or the second imaging signal processed in the second signal processing unit 33.
- a 3D synthesis unit that synthesizes the first imaging signal signal-processed by the first signal processing unit 32 and the second imaging signal signal-processed by the second signal processing unit 33 to generate a predetermined 3D image signal 50.
- the processor 603 includes a 2D / 3D switching operation unit 53 that performs switching operation between 2D and 3D, and a 2D / 3D image signal switching unit 54 connected to the output unit of the first signal processing unit 32.
- the 2D / 3D image signal switching unit 54 includes an output end that can be connected to a 2D monitor 55 outside the processor 603, and an output end that can be connected to the 3D composition unit 50.
- the first imaging signal output from the first signal processing unit 32 in accordance with the operation of the 2D / 3D switching operation unit 53 under the control of the unit 631 is used as a 2D signal or 3D together with the second imaging signal. It plays a role of switching whether to use as a signal for synthesis.
- the dimming detection unit 635 performs a known dimming detection function, and includes a photometry unit that measures the luminance of the first correction imaging signal and the second correction imaging signal, An information signal related to the measured luminance value is output.
- the dimming detection unit 635 includes an exposure time control unit that controls the exposure time of the left image pickup device 23L and the right image pickup device 23R according to the luminance value measured by the photometry unit, as described above.
- the exposure time control unit generates a control signal for electronic shutter control of the left image sensor 23L and the right image sensor 23R according to the photometric brightness value, and the left image sensor 23L and the right image. The image is sent to the image pickup device 23R.
- the dimming detection unit 635 is controlled by the control unit 631 from the photometry unit according to the switching operation between 2D and 3D by the 2D / 3D switching operation unit 53.
- the information signal related to the luminance value is controlled.
- the dimming detection unit 635 controls the exposure time according to the switching operation between 2D and 3D by the 2D / 3D switching operation unit 53 under the control of the control unit 631.
- the control signal from the unit is controlled.
- the processor 603 generates an aperture control signal generation unit 52 that generates an aperture control signal for controlling the aperture in the light source unit 4 according to the information signal related to the photometric brightness value output from the dimming detection unit 635.
- the processor 603 includes the same light source unit 4 as described above for emitting illumination light to the light guide cable 16 in order to supply illumination light to the stereoscopic endoscope 2. To do.
- the light source unit 4 includes a lamp 42, a diaphragm 43, and a lens 44, and includes a light source control unit 41. Illumination light from the lamp 42 is emitted toward the lens 44 through a diaphragm 43 controlled by the light source control unit 41.
- the lens 44 collects light at the proximal end of the light guide cable 16.
- the light collected at the base end portion of the light guide cable 16 is transmitted through the light guide cable 16 as illumination light supplied to the stereoscopic endoscope 2 and then from the distal end portion of the light guide cable 16. It will be emitted.
- the light source control unit 41 controls the aperture 43 based on the aperture control signal generated by the aperture control signal generation unit 52.
- the control unit 631 confirms the operation state of the 2D / 3D switching operation unit 53.
- the control unit 631 controls the 2D / 3D image signal switching unit 54 to perform the first operation.
- the first imaging signal output from the signal processing unit 32 is switched to be used as a 2D signal.
- the control unit 631 controls the dimming detection unit 635 so that the photometry unit in the dimming detection unit 635
- the information signal related to the luminance value is controlled for the 2D output mode, and the control signal from the exposure time control unit is controlled for the 2D output mode.
- control unit 631 confirms the operation state of the 2D / 3D switching operation unit 53, and when a mode for outputting a 3D image signal (hereinafter referred to as 3D output mode) is selected, the 2D / 3D image signal switching is performed.
- the unit 54 is controlled so that the first imaging signal output from the first signal processing unit 32 is used as a signal for 3D synthesis.
- control unit 631 controls the dimming detection unit 635 and information on the luminance value from the photometry unit in the dimming detection unit 635.
- the signal is controlled for the 3D output mode, and the control signal from the exposure time control unit is controlled for the 3D output mode.
- the brightness (luminance value) of the subject image to be captured is controlled to be larger by a predetermined value than when the 2D output mode is selected. To do.
- the predetermined value related to the luminance value is a value that can ensure the same brightness as that in 2D observation even when dedicated 3D glasses are worn during 3D observation.
- the endoscope system of the seventh embodiment when the 3D image signal output mode is selected, it is automatically compared with the case where the 2D image signal output mode is selected. Since the brightness (luminance value) of the subject image to be imaged is controlled to be as large as a predetermined value, even when dedicated 3D glasses are worn during 3D observation, the same brightness as during 2D observation Can be secured.
- the endoscope system 701 of the eighth embodiment has the same basic configuration as the endoscope system 601 of the seventh embodiment, and the first and second implementations.
- An endoscope system that performs imaging using a stereoscopic endoscope 2 as shown in the embodiment includes a switching mechanism between 2D and 3D, and displays a 3D image on a 3D monitor. 2D images can also be reproduced.
- the eighth embodiment is characterized in that the brightness of a subject image to be imaged is adjusted according to the characteristics of the 3D monitor itself, and other configurations and operations are the same as those in the seventh embodiment. Therefore, only the differences are mentioned here, and detailed description of the same configuration and operation as in the seventh embodiment is omitted.
- the processor 603 in the eighth embodiment has the same configuration as the processor in the seventh embodiment, but the control unit 631 is installed in the 3D monitor 5 connected to the processor 603. Information in the ID memory 5a is acquired.
- the control unit 631 acquires characteristic information relating to the brightness of the 3D monitor 5 from the ID memory 5a, and based on this characteristic information.
- the dimming detector 635 is controlled.
- the control unit 631 confirms the operation state of the 2D / 3D switching operation unit 53.
- the 2D / 3D image signal switching unit 54 and the control unit 631 are the same as in the seventh embodiment described above.
- the dimming detector 635 is controlled.
- control unit 631 confirms the operation state of the 2D / 3D switching operation unit 53.
- the control unit 631 controls the 2D / 3D image signal switching unit 54 to control the first signal processing unit.
- the first image pickup signal output from 32 is switched to be used as a signal for 3D synthesis, and characteristic information relating to the brightness of the 3D monitor 5 is acquired from the ID memory 5a, and dimming is performed based on the characteristic information.
- the detection unit 635 is controlled.
- the characteristic information relating to the brightness of the 3D monitor connected to the processor is acquired. Since the brightness (luminance value) of the subject image to be captured is controlled based on the characteristic information, even when the dedicated 3D glasses are worn at the time of 3D observation, it is more accurately the same as at the time of 2D observation. High brightness can be secured.
- the basic configuration of the endoscope system 801 of the eighth embodiment is the same as that of the endoscope system 601 of the seventh embodiment.
- An endoscope system that performs imaging using a stereoscopic endoscope 2 as shown in the embodiment includes a switching mechanism between 2D and 3D, and displays a 3D image on a 3D monitor. On the other hand, 2D images can also be reproduced.
- the ninth embodiment is characterized in that the brightness of a subject image to be imaged is adjusted in accordance with the specifications of dedicated glasses used during 3D observation. Since it is the same as that of the eighth embodiment, only the differences will be referred to here, and a detailed description of the configuration and operation similar to those of the seventh and eighth embodiments will be omitted.
- the processor 603 in the ninth embodiment has the same configuration as the processor in the seventh embodiment, but is dedicated to 3D observation that is connected to the processor 603 by the control unit 631.
- Specification information related to the glasses 56 is acquired.
- the control unit 631 acquires predetermined specification information from the glasses 56, and adjusts based on this specification information.
- the optical detector 635 is controlled.
- the control unit 631 confirms the operation state of the 2D / 3D switching operation unit 53.
- the 2D / 3D image signal switching unit 54 and the control unit 631 are the same as in the seventh embodiment described above.
- the dimming detector 635 is controlled.
- control unit 631 confirms the operation state of the 2D / 3D switching operation unit 53.
- the control unit 631 controls the 2D / 3D image signal switching unit 54 to control the first signal processing unit.
- the first imaging signal output from 32 is switched to be used as a 3D synthesis signal, and predetermined specification information is acquired from the 3D dedicated glasses 56, and the dimming detection unit 635 is controlled based on the specification information. .
- the endoscope system of the ninth embodiment when the 3D image signal output mode is selected, the specification information related to the dedicated glasses 56 used during 3D observation is acquired, Since the brightness (luminance value) of the subject image to be imaged is controlled based on the specification information, even when the dedicated 3D glasses are worn at the time of 3D observation, it is more accurately the same as at the time of 2D observation. Brightness can be ensured.
- the brightness (luminance value) of the subject image is automatically adjusted when the 2D observation is switched to the 3D observation. It may be configured to automatically adjust the color (tone or gradation) of the image signal.
- the subject when the subject image is observed, the subject is automatically selected when switching from 2D observation to 3D observation according to the switching operation of the 2D / 3D switching operation unit 53.
- the brightness (brightness value) of the image is adjusted.
- the present invention is not limited to this, and when recording a captured subject image, it is automatically adjusted according to whether it is 2D recording or 3D recording. It may be.
Landscapes
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Surgery (AREA)
- Optics & Photonics (AREA)
- Medical Informatics (AREA)
- Veterinary Medicine (AREA)
- Molecular Biology (AREA)
- Radiology & Medical Imaging (AREA)
- Animal Behavior & Ethology (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Pathology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Biophysics (AREA)
- Public Health (AREA)
- Astronomy & Astrophysics (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Endoscopes (AREA)
- Instruments For Viewing The Inside Of Hollow Bodies (AREA)
Abstract
本発明の撮像システムは、被写体を撮像し、左目側の第1の撮像信号を出力する左側画像用撮像素子23Lと、第1の撮像信号に対して視差を有する右目側の第2の撮像信号を出力する右側画像用撮像素子23Rと、を備えた立体内視鏡2と、立体内視鏡2に接続され、第1の撮像信号及び第2の撮像信号に対して信号処理を施すプロセッサ3と、立体内視鏡2に設けれ、第1の撮像素子及び第2の撮像素子に係る補正パラメータを格納するIDメモリ20と、プロセッサ3に備えられ、前記補正パラメータに基づいて第1の撮像信号及び第2の撮像信号の輝度レベルが等しくなるよう補正処理を施す輝度レベル補正部34と、を具備する。
Description
本発明は、撮像システムに関し、特に、2つの撮像光学系を備え2つの撮像画像を取得可能な撮像システムに関する。
従来、互いに視差を有する2つの撮像画像を取得可能な撮像システム、すなわち、視差を有する2つの撮像画像を用いて立体画像を生成する撮像システムが知られている。
たとえば、日本国特許第4955840号公報には、体腔内の外科手術において微細な術部を立体的に観察するために、視差を有する2つの撮像画像を用いて立体画像を生成する立体内視鏡が開示されている。この立体内視鏡は、左右一対の観察光学系と、これら観察光学系に対応する左右一対の2つの撮像部を備えている。
ところで、一般にCCD等の固体撮像素子は、素子自体のばらつき等により個体毎に、またはロット毎にそれぞれ感度特性に違いを生じる虞がある。しかして上記日本国特許第4955840号公報において開示された如き立体内視鏡は左右2つの固体撮像素子を備えるが、斯様な立体内視鏡においても、2つの固体撮像素子間において感度の差が生じる虞がある。
このように左右2つの固体撮像素子間において感度の差が生じると、撮像された画像の悪化が懸念されるほか、左右2つの撮像信号を3D合成した際に、感度の低い方に引きずられて適切な画像を生成することが困難となる虞もあった。
この感度特性の差の問題に対して従来、左右2つの固体撮像素子に係る左右2つの撮像信号を、それぞれ調光検波するための2つの調光検波回路を設けて対処する技術も知られるが、回路規模が大きくなるという新たな課題が生じていた。
本発明は上述した事情に鑑みてなされたものであり、2つの撮像光学系を備えた撮像システムにおいて、2つの撮像光学系のばらつきに起因する物理特性の差を軽減する撮像システムを提供することを目的とする。
本発明の一態様の撮像システムは、被写体の光学像を撮像し、第1の撮像信号として出力可能な第1の撮像素子と、前記被写体の光学像を撮像し、前記第1の撮像信号に対して視差を有する第2の撮像信号として出力可能な第2の撮像素子と、備えた撮像部と、前記撮像部に接続され、前記第1の撮像信号および前記第2の撮像信号に対して信号処理を施すプロセッサと、前記撮像部に設けられ、前記第1の撮像信号および前記第2の撮像信号に対して所定の補正を施すための補正パラメータを格納する記憶部と、前記プロセッサに備えられ、前記補正パラメータに基づいて、前記第1の撮像信号および前記第2の撮像信号により表される画像の特性が等しくなるよう、少なくともいずれか一方に対して補正処理を施す補正処理部と、を具備する。
本発明の他の態様の撮像システムは、被写体の光学像を撮像し、第1の撮像信号として出力可能な第1の撮像素子と、前記被写体の光学像を撮像し、前記第1の撮像信号に対して視差を有する第2の撮像信号として出力可能な第2の撮像素子と、前記第1の撮像信号および前記第2の撮像信号に対して所定の補正を施すための補正パラメータを格納する記憶部と、を備えた撮像部に接続可能とされ、前記第1の撮像信号および前記第2の撮像信号に対して信号処理を施すプロセッサを備えた撮像システムであって、前記プロセッサに備えられ、前記補正パラメータに基づいて、前記第1の撮像信号および前記第2の撮像信号により表される画像の特性が等しくなるよう、少なくともいずれか一方に対して補正処理を施す補正処理部を具備する。
以下に、本発明の好ましい形態について図面を参照して説明する。なお、以下の説明に用いる各図においては、各構成要素を図面上で認識可能な程度の大きさとするため、構成要素毎に縮尺を異ならせてあるものであり、本発明は、これらの図に記載された構成要素の数量、構成要素の形状、構成要素の大きさの比率、及び各構成要素の相対的な位置関係のみに限定されるものではない。
(第1の実施形態)
図1から図4を用いて第1の実施形態の内視鏡システムの構成について説明する。図1は、本発明の第1の実施形態の内視鏡システムの全体構成を示す外観斜視図、図2は、第1の実施形態の内視鏡システムの構成を示すブロック図、図3は、第1の実施形態の内視鏡システムにおける内視鏡の挿入部先端部の正面図、図4は、第1の実施形態の内視鏡システムにおける内視鏡の挿入部先端部の断面図である。
図1から図4を用いて第1の実施形態の内視鏡システムの構成について説明する。図1は、本発明の第1の実施形態の内視鏡システムの全体構成を示す外観斜視図、図2は、第1の実施形態の内視鏡システムの構成を示すブロック図、図3は、第1の実施形態の内視鏡システムにおける内視鏡の挿入部先端部の正面図、図4は、第1の実施形態の内視鏡システムにおける内視鏡の挿入部先端部の断面図である。
図1に示すように本発明の第1の実施形態の内視鏡システム1は、互いに視差を有する2つの撮像ユニットにより立体画像を生成する、いわゆる3D内視鏡である立体内視鏡2と、立体内視鏡2が着脱自在に接続され、前記撮像ユニットからの撮像信号に対して所定の信号処理を行うと共に立体内視鏡2に対して照明光を供給する光源部を備えるプロセッサ3と、プロセッサ3により生成された画像信号を内視鏡画像として表示する表示装置としてのモニタ5と、で主要部が構成される。
なお、本実施形態の内視鏡システム1は、手術室においては、カート9上に前記プロセッサ3をはじめとする各種医療機器、たとえば電気メス装置、気腹装置、ビデオレコーダ等の装置類および二酸化炭素を充填したガスボンベ等が載置されるようになっている。
立体内視鏡2は、本実施形態においては、体腔内の術部を立体的に観察する、たとえば腹腔手技に適用される硬性内視鏡である。この立体内視鏡2は、体腔内に挿入される挿入部であって腹腔用手技に適用される長さを有した硬質の挿入部6と、操作者によって把持され立体内視鏡2の種々の操作を行う操作部7と、当該挿入部7から延設されプロセッサ3に接続されるユニバーサルコード8を備える。
前記挿入部6は、その先端部6a側から基端部6b側に向かって、順に先端硬質部11、湾曲部12および硬質部13が連結されて構成される。すなわち、先端硬質部11の基端部は湾曲部12の先端部に連結され、また湾曲部12の基端部は硬質部13の先端部に連結されている。また前記硬質部13は細長く硬質な硬性管であり、その基端部は、挿入部6の基端部6bとして操作部7に連結されている。
また、図2、図3および図4に示すように、挿入部6における先端硬質部11には、術部を立体的に観察するために、左側画像(左目)用の左側撮像ユニット21Lと、右側画像(右目)用の右側撮像ユニット21Rとが配設されている。
前記左側撮像ユニット21Lは、左側画像(左目)用の撮像光学系22Lと撮像素子23Lとで構成され、前記右側撮像ユニット21Rは、右側画像(右目)用の撮像光学系22Rと撮像素子23Rとで構成される。
また、図4に示すように、左側画像用の撮像光学系22Lと右側画像用の撮像光学系22Rとは、いずれも術部を観察する対物レンズと、この対物レンズによって観察される術部の像を結像するための結像レンズとで構成される。
さらに撮像光学系22Lおよび撮像光学系22Rにおけるそれぞれの前記結像レンズの結像位置には、それぞれ左側画像用撮像素子23L、右側画像用撮像素子23Rが配設されている。これら左側画像用撮像素子23Lおよび右側画像用撮像素子23Rは、たとえばCCDイメージセンサにより構成され、いずれも前記撮像光学系22Lまたは撮像光学系22Rにおける対物レンズを透過し、さらに結像レンズによって結像された像(術部)を光電変換し所定の撮像信号を生成するようになっている。
また、前記撮像素子23Lおよび右側画像用撮像素子23Rの後段には、それぞれ相関二重サンプリング回路(以下、CDS回路という)26L,26Rと、アナログデジタル変換回路(以下、A/D変換回路という)27L,27Rが設けられている。
そして、左側画像用撮像素子23Lおよび右側画像用撮像素子23Rは、撮像面上に形成された被写体像をそれぞれ光電変換してCDS回路26L,26Rに出力する。CDS回路26L,26Rは、撮像信号に相関二重サンプリング処理を施し、A/D変換回路27L,27Rに出力する。A/D変換回路27L,27Rは、撮像信号をアナログ信号からデジタル信号に変換してプロセッサ3に対して出力するようになっている。
一方、前記左側画像用撮像素子23Lおよび右側画像用撮像素子23Rに係る信号線等の各種ケーブル15は、挿入部6、操作部7およびユニバーサルコード8の内部を経由してプロセッサ3に接続されるようになっている。また、前記挿入部6、操作部7およびユニバーサルコード8には、プロセッサ3における光源部からの照明光を伝送するライトガイドケーブル16が挿通している。
前記ユニバーサルコード8の基端側には、ライトガイドケーブル16の端部である光源用コネクタ17aが配設され前記プロセッサ3における光源コネクタ部30aに着脱自在に接続されるようになっている。一方、前記光源コネクタ17aから分岐して前記信号ケーブル15の端部である信号用コネクタ17bが配設され、前記プロセッサ3における信号コネクタ部30bに着脱自在に接続されるようになっている。
この信号用コネクタ30bには、立体内視鏡2ごとの個別の情報を記憶する記憶部であるIDメモリ20が配設されている。本第1の実施形態においては、当該立体内視鏡2に搭載された前記左側画像用撮像素子23Lおよび右側画像用撮像素子23Rの感度特性に係る情報を前記IDメモリ20に記憶するようになっている。
すなわち、上述したように、一般にCCD等の固体撮像素子は、素子自体のばらつき等により個体毎にそれぞれ感度特性に違いを生じるが、当該立体内視鏡2に搭載する左側画像用撮像素子23Lと右側画像用撮像素子23Rとについても、それぞれ感度特性が異なる虞がある。
また、この2つの撮像素子間において感度特性に差が生じると、それぞれの撮像素子に係る撮像信号にも影響を与えることとなる。本第1の実施形態においては、これら撮像信号に与える影響を是正するために、これら左側画像用撮像素子23Lおよび右側画像用撮像素子23Rにおける感度特性に係る補正パラメータを、それぞれ左側補正パラメータ20aと右側補正パラメータ20bとして前記IDメモリ20に記憶するようになっている。なお、補正パラメータの詳細については後に詳述する。
図3に戻って、挿入部6の先端硬質部11の先端面11aには、前記ライトガイドケーブル16の先端面に対向した位置に照明窓25が配設されている。なお、本実施形態においては、前記ライトガイドケーブル16は2つ設けられ、併せて照明窓25も2つ配設されている。
そして、前記光源用コネクタ17aをプロセッサ3における光源コネクタ部30aに接続し、プロセッサ3に内設された光源部4から出射された照明光がライトガイドケーブル16により伝送され、先端硬質部11の先端面11aにおいて当該ライトガイドケーブル16の先端面に対向して設けられた前記照明窓25から当該照明光が出射されることとなる。
一方、前記先端硬質部11の先端面11aにおいては、前記照明窓25に隣接して、2つの観察窓24L,24Rが配設され、照明された患部等の被写体の光学像を入力するようになっている。なお、これら観察窓24L,24Rは、それぞれ上述した撮像光学系22L、撮像光学系22Rに対向する位置に配置されている。
また、立体内視鏡2は、図4に示すように、左側撮像ユニット21Lを収容する左側用の収容部29Lと、右側撮像ユニット21Rを収容する右側用の収容部29Rとを有している。なお、収容部31Lと収容部31Rとは、それぞれ別体である。
また、本実施形態においては、左側画像用撮像素子23Lおよび右側画像用撮像素子23RとしてCCDイメージセンサを採用したがこれに限らず、例えばCMOS等のイメージセンサであってもよい。
次に、本第1の実施形態の内視鏡システムにおけるプロセッサ3について詳述する。
図2に示すように、本実施形態におけるプロセッサ3は、撮像素子等の動作に必要な複数の電源電圧の電源を発生する図示しない電源回路と、立体内視鏡2における前記左側画像用撮像素子23Lおよび右側画像用撮像素子23Rを駆動する図示しないCCD駆動回路と、プロセッサ3内の各種回路の制御を行う制御部31と、立体内視鏡2における2つの撮像信号のうち、左側画像用撮像素子23Lにおいて生成され、CDS回路26LおよびA/D変換回路27Lを経た撮像信号(以下、第1の撮像信号)を入力し制御部31の制御下に所定の信号処理を施す第1信号処理部32と、右側画像用撮像素子23Rにおいて生成され、CDS回路26RおよびA/D変換回路27Rを経た撮像信号(以下、第2の撮像信号)を入力し制御部31の制御下に所定の信号処理を施す第2信号処理部33と、を有する。
制御部31は、上述したようにプロセッサ3内における各種回路を制御するとともに、立体内視鏡2の前記信号用コネクタ30bにおける前記IDメモリ20に記憶された所定のパラメータ情報を検出するパラメータ検出部31aを有する。
すなわち前記パラメータ検出部31aは、立体内視鏡2が当該プロセッサ3に接続された際、信号用コネクタ30bにおける前記IDメモリ20に記憶された前記左側補正パラメータ20aおよび右側補正パラメータ20bをそれぞれ検出するようになっている。
また、第1信号処理部32および第2信号処理部33は、いずれも左側画像用撮像素子23Lまたは右側画像用撮像素子23Rからの撮像信号に対して所定の信号処理を施すが、それぞれ公知の自動利得制御回路(AGC回路)、ホワイトバランス回路、ガンマ補正回路、拡大縮小回路、輪郭強調回路等の信号処理部を備え適宜信号処理を行うようになっている。
前記プロセッサ3はまた、第1信号処理部32および第2信号処理部33の出力端に接続され、制御部31の制御下に、前記第1信号処理部32および前記第2信号処理部33において所定の処理が施された撮像信号に輝度レベルの補正処理を施す輝度レベル補正部34を有する。
前記輝度レベル補正部34は、制御部31における前記パラメータ検出部31aにおいて検出した前記左側補正パラメータ20aおよび右側補正パラメータ20bに基づいて、制御部31の制御下に、前記第1信号処理部32および第2信号処理部33の出力信号である第1の撮像信号および第2の撮像信号に対してそれぞれの所定の輝度レベルになるよう補正処理を施して後段に出力するようになっている。
<第1の実施形態における補正パラメータ>
ここで、本第1の実施形態における補正パラメータについて説明する。
ここで、本第1の実施形態における補正パラメータについて説明する。
上述したように、一般にCCD等の固体撮像素子は素子自体のばらつき等により個体毎にそれぞれ感度特性に違いを生じるが、本実施形態において前記左側補正パラメータ20aおよび右側補正パラメータ20bは、立体内視鏡側において前記左右2つの固体撮像素子の感度特性の差を是正する情報である。
すなわち、前記左側補正パラメータ20aは、前記左側画像用撮像素子23Lの素子自体の物理特性に起因する感度特性に応じて、左側画像用撮像素子23Lに係る前記第1の撮像信号により表される画像の輝度レベルが所定の輝度値となるように前記輝度レベル補正部34に当該第1の撮像信号を補正させるための第1の補正パラメータである。
一方、前記右側補正パラメータ20bは、前記右側画像用撮像素子23Rの素子自体の物理特性に起因する感度特性に応じて、右側画像用撮像素子23Rに係る前記第2の撮像信号により表される画像の輝度レベルが所定の輝度値となるように前記輝度レベル補正部34に当該第2の撮像信号を補正させるための第2の補正パラメータである。
換言すれば、前記左側補正パラメータ20aおよび右側補正パラメータ20bは、前記第1の撮像信号と前記第2の撮像信号とにおける画素毎の輝度レベルを補正する輝度レベル補正情報といえる。
そして、輝度レベル補正部34は、本実施形態においては、前記左側補正パラメータ20aおよび右側補正パラメータ20bに基づいて、前記第1の撮像信号により表される画像の輝度レベルと前記第2の撮像信号により表される画像の輝度レベルとを等しくするよう補正処理を施すことを特徴とする。
換言すれば、前記輝度レベル補正部34は、これらの補正パラメータに基づいて、前記左側画像用撮像素子23Lに係る前記第1の撮像信号と右側画像用撮像素子23Rに係る前記第2の撮像信号とが、上述した固体撮像素子のばらつき等に影響されることなく同等の感度特性のもとに処理された信号として出力されるべく上述した所定の正処理を施すものである。
したがって、輝度レベル補正部34による前記補正処理が施された後の出力信号である、第1の補正撮像信号および第2の補正撮像信号は、実質的に感度特性が揃えられた2つの固体撮像素子により撮像された2つの撮像信号であるといえる。
図2に戻って、プロセッサ3における前記輝度レベル補正部34の後段には、当該輝度レベル補正部34の出力信号である、前記第1の補正撮像信号および前記第2の補正撮像信号に基づいて所定の調光検波を行う、1つの調光検波部35と、これら第1の補正撮像信号と第2の補正撮像信号とを合成し、所定の3D画像信号を生成する3D合成部50と、を有する。
この調光検波部35は、公知の調光検波機能を果たすものであり、前記第1の補正撮像信号(左側画像用撮像素子23Lに係る信号)および前記第2の補正撮像信号(右側画像用撮像素子23Rに係る信号)の輝度を測光する測光部を有し、測光した輝度値に係る情報信号を出力するようになっている。
また調光検波部35は、前記測光部において測光された輝度値に応じて、左側画像用撮像素子23Lおよび右側画像用撮像素子23Rの露光時間を制御する露光時間制御部を有する。この露光時間制御部は、前記測光した輝度値に応じて左側画像用撮像素子23Lおよび右側画像用撮像素子23Rの電子シャッター制御のための制御信号を生成し、左側画像用撮像素子23Lおよび右側画像用撮像素子23Rに対して送出するようになっている。
なお、上述したように、前記第1の補正撮像信号および前記第2の補正撮像信号は、実質的に感度特性が揃えられた2つの固体撮像素子により撮像された2つの撮像信号であるいえるので、前記調光検波部35も前記2つの撮像信号毎に設ける必要はなく、すなわち本実施形態においては1つのみ設けることで足りる。
さらにプロセッサ3は、前記調光検波部35から出力された前記測光した輝度値に係る情報信号に応じて、光源部4における絞りを制御するための絞り制御信号を生成する絞り制御信号生成部52を有する。
また本実施形態においてプロセッサ3は、前記立体内視鏡2に対して照明光を供給するために前記ライトガイドケーブル16に対して照明光を出射するための光源部4を内設する。
この光源部4は、ランプ42、絞り43およびレンズ44を有するとともに、光源制御部41と備えて構成されている。ランプ42からの照明光は、光源制御部41により制御される絞り43を介してレンズ44に向けて出射されるようになっている。また、レンズ44は、ライトガイドケーブル16の基端部に光を集光するようになっている。
さらに、前記ライトガイドケーブル16の基端部に集光した光は、立体内視鏡2に供給される照明光として、ライトガイドケーブル16内を伝送された後当該ライトガイドケーブル16の先端部から出射することとなる。
前記光源制御部41は、前記絞り制御信号生成部52において生成された絞り制御信号に基づいて絞り43を制御するようになっている。
<第1の実施形態の作用>
次に、本第1の実施形態の内視鏡システムの作用について説明する。
次に、本第1の実施形態の内視鏡システムの作用について説明する。
プロセッサ3に前記立体内視鏡2が接続されると、制御部31はパラメータ検出部31aによりIDメモリ20に記憶された左側補正パラメータ20aおよび右側補正パラメータ20bを検出する。
その後、輝度レベル補正部34は、制御部31における前記パラメータ検出部31aにおいて検出した前記左側補正パラメータ20aおよび右側補正パラメータ20bに基づいて、制御部31の制御下に、前記第1信号処理部32および第2信号処理部33の出力信号である第1の撮像信号および第2の撮像信号に対してそれぞれの輝度レベルの補正処理を施す。
さらに輝度レベル補正部34は、補正処理を施した第1の撮像信号および第2の撮像信号をそれぞれ第1の補正撮像信号および第2の補正撮像信号として出力する。
この後調光検波部35においては、前記第1の補正撮像信号および第2の補正撮像信号に対して所定の調光検波処理を施し、これら補正撮像信号の輝度を測光し測光した輝度値に係る情報信号を絞り制御信号生成部52に向けて送出する。
さらに調光検波部35は、前記測光された輝度値に応じて、左側画像用撮像素子23Lおよび右側画像用撮像素子23Rに係る電子シャッター制御のための制御信号を生成し、これら左側画像用撮像素子23Lおよび右側画像用撮像素子23Rに対して送出する。
一方、3D合成部50において、前記第1の補正撮像信号と第2の補正撮像信号とを合成して所定の3D画像信号を生成し、当該合成された3D撮像信号を3Dモニタ50に向けて送出する。
以上説明したように本実施形態によると、左右2つの固体撮像素子を搭載した立体内視鏡を有する内視鏡システムにおいて、立体内視鏡側においてこれら左右2つの固体撮像素子の感度特性の差を是正する情報である補正パラメータを記憶し、接続されるプロセッサ側においてこれら補正パラメータに基づいて、前記左右2つの固体撮像素子間の感度特性の差を是正するよう左右2つの撮像信号に対して所定の補正処理を施すようにした。
これにより本実施形態の内視鏡システムによると、内視鏡に搭載する2つの固体撮像素子間にばらつき等により感度特性に差が生じたとしても、プロセッサ3側においてこれら左右2つの固体撮像素子間の感度特性の差を是正することができるので、調光検波部35も前記2つの撮像信号毎に設ける必要はなく1つのみ設けることで足り、ひいてはコストを低減することができる。
(第2の実施形態)
次に、本発明の第2の実施形態について説明する。
次に、本発明の第2の実施形態について説明する。
上述したように上記第1の実施形態の内視鏡システムは、立体内視鏡側において左右2つの固体撮像素子間の感度特性の差を是正するための補正パラメータとして、左側画像用撮像素子23Lに係る第1の撮像信号を補正するための第1の補正パラメータ(左側補正パラメータ20a)と、右側画像用撮像素子23Rに係る第2の撮像信号を補正するための第2の補正パラメータ(右側補正パラメータ20b)との2つの補正パラメータを記憶し、利用するものとした。
これに対して本第2の実施形態の内視鏡システムは、立体内視鏡側において左右2つの固体撮像素子間の感度特性の差を是正するための補正パラメータである点では第1の実施形態と同様であるが、第1の実施形態が、左右2つの固体撮像素子に係る左右2つの撮像信号をそれぞれ補正するための2つの補正パラメータ(左側補正パラメータ20a、右側補正パラメータ20b)を用意したのに対して、第2の実施形態は、左右2つの固体撮像素子間の感度特性の差分情報に係る1つの補正パラメータを記憶し、利用することを特徴とするものである。
図5は、本発明の第2の実施形態の内視鏡システムの構成を示す図である。図5に示すように、本第2の実施形態の内視鏡システム101は、その基本的な構成は第1の実施形態と同様であるが、上述したように、立体内視鏡102に配設されたIDメモリ120に、当該立体内視鏡102に搭載された左右2つの撮像素子における感度特性の「差分情報」を記憶する点を異にする。したがって、ここでは、第1の実施形態と異なる部分の説明にとどめ、第1の実施形態と同様の部分についての説明は省略する。
図5に示すように、立体内視鏡102における信号用コネクタ30bには、立体内視鏡102ごとの個別の情報を記憶する記憶部であるIDメモリ120が配設されている。このIDメモリ120には、本第2の実施形態においては、当該立体内視鏡102に搭載された前記左側画像用撮像素子23Lと右側画像用撮像素子23Rとの感度特性の「差分情報」である差分補正パラメータ120aを記憶するようになっている。
前記差分補正パラメータ120aは、左側画像用撮像素子23Lに係る前記第1の撮像信号と右側画像用撮像素子23Rに係る前記第2の撮像信号とのうち、一方の撮像信号により表される画像の輝度レベルを他方の撮像信号により表される画像の輝度レベルと等しくするよう補正する補正パラメータである。
また、プロセッサ103における制御部131は、プロセッサ103内における各種回路を制御するとともに、立体内視鏡102における前記IDメモリ120に記憶された前記「差分情報」である差分補正パラメータ120aを検出するパラメータ検出部131aを有する。
そして、本第2の実施形態において輝度レベル補正部34は、制御部31制御下に、パラメータ検出部31aにおいて検出した前記差分補正パラメータ120aに基づいて、前記左右2つの固体撮像素子間の感度特性の差を是正するよう左右いずれかの撮像信号に対して所定の補正処理を施すようにしたことを特徴とするものである。
<第2の実施形態の作用>
次に、本第2の実施形態の内視鏡システムにおけるプロセッサの作用について説明する。
次に、本第2の実施形態の内視鏡システムにおけるプロセッサの作用について説明する。
プロセッサ103に前記立体内視鏡102が接続されると、制御部131はパラメータ検出部131aによりIDメモリ120に記憶された差分補正パラメータ120aを検出する。
その後、輝度レベル補正部34は、前記パラメータ検出部131aにおいて検出した前記差分補正パラメータ120aに基づいて、制御部31の制御下に、前記第2信号処理部33の出力信号である第2の撮像信号の輝度レベルを前記第1信号処理部32の出力信号である第1の撮像信号の輝度レベルに等しくするよう補正処理を施す。
そして、輝度レベル補正部34は、前記第1信号処理部32の出力信号である第1の撮像信号についてはそのままの状態で出力する一方で、補正処理を施した第2の撮像信号については第2の補正撮像信号として出力する。
なお、本実施形態においては、前記差分補正パラメータ120aは、前記左側画像用撮像素子23Lの感度に対する右側画像用撮像素子23Rの感度の差に係るパラメータであるとしたが、これに限らず、前記右側画像用撮像素子23Rの感度に対する左側画像用撮像素子23Lの感度の差に係るパラメータとしてもよい。
この場合、輝度レベル補正部34は、前記パラメータ検出部131aにおいて検出した前記差分補正パラメータ120aに基づいて、制御部31の制御下に、前記第1信号処理部32の出力信号である第1の撮像信号の輝度レベルを前記第2信号処理部33の出力信号である第2の撮像信号の輝度レベルに等しくするよう補正処理を施す。
この後の調光検波部35および3D合成部50における作用については、第1の実施形態と同様であるのでここでの説明は省略する。
以上説明したように本第2の実施形態によると、第1の実施形態と同様に、内視鏡に搭載する2つの固体撮像素子間にばらつき等により感度特性に差が生じたとしても、プロセッサ3側においてこれら左右2つの固体撮像素子間の感度特性の差を是正することができるので、調光検波部35も前記2つの撮像信号毎に設ける必要はなく1つのみ設けることで足り、ひいてはコストを低減することができる。
なお、上記第1および第2の実施形態においては、内視鏡に搭載する2つの固体撮像素子間における感度特性の差に着目したが、本発明はこれに限らず、たとえば、固体撮像素子自体に起因する感度特性の差のみならず、前記撮像光学系等の部品加工精度または組立精度等に起因する感度特性に差が生じる場合についても対応することができる。
すなわち、固体撮像素子を含む撮像光学系全体の感度特性に係る補正パラメータをIDメモリに記憶することで、2系統の撮像光学系間に感度特性の差が生じた場合であっても、これら感度特性の差を是正することができるので、上記実施形態と同様に、調光検波部については1つのみ設けることで足りコストを低減することができる。
また、上記第1および第2の実施形態においては、内視鏡に搭載する2つの固体撮像素子間における感度特性の差(輝度レベルの差)に着目し、これら特性の差を是正する補正パラメータを記憶し、利用する技術を示したが、本発明は、他の特性の差を是正する技術にも適用することができる。
たとえば、2つの固体撮像素子間における画素毎の階調特性の差を是正する階調補正技術、同画素毎の色調特性の差を是正する色調補正技術、立体画像における視差が所定の視差となるよう補正する偏心補正技術または2つの固体撮像素子における白傷画素を補正する白傷補正技術等にも適用することができる。
以下、本発明をこれら補正技術に適用した実施形態について説明する。
(第3の実施形態)
次に、本発明の第3の実施形態について説明する。
次に、本発明の第3の実施形態について説明する。
第3の実施形態は、本発明を2つの固体撮像素子間における画素毎の階調特性の差を是正する階調補正技術に適用した実施形態である。すなわち、本実施形態において前記左側補正パラメータ220aおよび右側補正パラメータ220bは、立体内視鏡側において前記左右2つの固体撮像素子における画素毎の階調特性の差を是正する情報である。
図6は、本第3の実施形態における内視鏡システム201の構成を示した図である。
図6に示すように、本実施形態におけるプロセッサ203は、第1の実施形態と同様の、撮像素子等の動作に必要な複数の電源電圧の電源を発生する図示しない電源回路、図示しないCCD駆動回路、第1信号処理部32、第2信号処理部33、調光検波部35、3D合成部50の他、プロセッサ203内の各種回路の制御を行う制御部231を有する。
制御部231は、上述したようにプロセッサ203内における各種回路を制御するとともに、立体内視鏡2の前記信号用コネクタ30bにおける前記IDメモリ220に記憶された階調パラメータ情報を検出するパラメータ検出部231aを有する。
前記プロセッサ203はまた、第1信号処理部32および第2信号処理部33の出力端に接続され、制御部231の制御下に、前記第1信号処理部32および前記第2信号処理部33において所定の処理が施された撮像信号に階調補正処理を施す階調補正部234を有する。
前記階調補正部234は、制御部231における前記パラメータ検出部231aにおいて検出した前記左側補正パラメータ220aおよび右側補正パラメータ220bに基づいて、制御部231の制御下に、前記第1信号処理部32および第2信号処理部33の出力信号である第1の撮像信号および第2の撮像信号に対してそれぞれの所定の階調になるよう補正処理を施して後段に出力するようになっている。
<第3の実施形態における補正パラメータ>
本第3の実施形態の内視鏡システム201において、前記左側補正パラメータ220aは、前記左側画像用撮像素子23Lの素子自体の物理特性に起因する階調特性に応じて、左側画像用撮像素子23Lに係る前記第1の撮像信号により表される画像の階調が所定の値となるように前記階調補正部234に当該第1の撮像信号を補正させるための第1の補正パラメータである。
本第3の実施形態の内視鏡システム201において、前記左側補正パラメータ220aは、前記左側画像用撮像素子23Lの素子自体の物理特性に起因する階調特性に応じて、左側画像用撮像素子23Lに係る前記第1の撮像信号により表される画像の階調が所定の値となるように前記階調補正部234に当該第1の撮像信号を補正させるための第1の補正パラメータである。
一方、前記右側補正パラメータ220bは、前記右側画像用撮像素子23Rの素子自体の物理特性に起因する階調特性に応じて、右側画像用撮像素子23Rに係る前記第2の撮像信号により表される画像の階調が所定の値となるように前記階調補正部234に当該第2の撮像信号を補正させるための第2の補正パラメータである。
そして、階調補正部234は、本実施形態においては、前記左側補正パラメータ220aおよび右側補正パラメータ220bに基づいて、前記第1の撮像信号により表される画像の階調と前記第2の撮像信号により表される画像の階調とを等しくするよう補正処理を施すことを特徴とする。
その他の構成、作用は第1の実施形態と同様であるので、ここでの説明は省略する。
以上説明したように本第3の実施形態によると、内視鏡に搭載する2つの固体撮像素子間にばらつき等により階調特性に差が生じたとしても、プロセッサ側においてこれら左右2つの固体撮像素子間の階調特性の差を是正することができる。
(第4の実施形態)
次に、本発明の第4の実施形態について説明する。
次に、本発明の第4の実施形態について説明する。
第4の実施形態は、本発明を2つの固体撮像素子間における画素毎の色調特性の差を是正する色調補正技術に適用した実施形態である。すなわち、本実施形態において前記左側補正パラメータ320aおよび右側補正パラメータ320bは、立体内視鏡側において前記左右2つの固体撮像素子における画素毎の色調特性の差を是正する情報である。
図7は、本第4の実施形態における内視鏡システム301の構成を示した図である。
図7に示すように、本実施形態におけるプロセッサ303は、第1の実施形態と同様の、撮像素子等の動作に必要な複数の電源電圧の電源を発生する図示しない電源回路、図示しないCCD駆動回路、第1信号処理部32、第2信号処理部33、調光検波部35、3D合成部50の他、プロセッサ303内の各種回路の制御を行う制御部331を有する。
制御部331は、上述したようにプロセッサ303内における各種回路を制御するとともに、立体内視鏡2の前記信号用コネクタ30bにおける前記IDメモリ320に記憶された色調パラメータ情報を検出するパラメータ検出部331aを有する。
前記プロセッサ303はまた、第1信号処理部32および第2信号処理部33の出力端に接続され、制御部331の制御下に、前記第1信号処理部32および前記第2信号処理部33において所定の処理が施された撮像信号に色調補正処理を施す色調補正部334を有する。
前記色調補正部334は、制御部331における前記パラメータ検出部331aにおいて検出した前記左側補正パラメータ320aおよび右側補正パラメータ320bに基づいて、制御部331の制御下に、前記第1信号処理部32および第2信号処理部33の出力信号である第1の撮像信号および第2の撮像信号に対してそれぞれの所定の色調になるよう補正処理を施して後段に出力するようになっている。
<第4の実施形態における補正パラメータ>
本第4の実施形態の内視鏡システム301において、前記左側補正パラメータ320aは、前記左側画像用撮像素子23Lの素子自体の物理特性に起因する色調特性に応じて、左側画像用撮像素子23Lに係る前記第1の撮像信号により表される画像の色調が所定の値となるように前記色調補正部334に当該第1の撮像信号を補正させるための第1の補正パラメータである。
本第4の実施形態の内視鏡システム301において、前記左側補正パラメータ320aは、前記左側画像用撮像素子23Lの素子自体の物理特性に起因する色調特性に応じて、左側画像用撮像素子23Lに係る前記第1の撮像信号により表される画像の色調が所定の値となるように前記色調補正部334に当該第1の撮像信号を補正させるための第1の補正パラメータである。
一方、前記右側補正パラメータ320bは、前記右側画像用撮像素子23Rの素子自体の物理特性に起因する色調特性に応じて、右側画像用撮像素子23Rに係る前記第2の撮像信号により表される画像の色調が所定の値となるように前記色調正部334に当該第2の撮像信号を補正させるための第2の補正パラメータである。
そして、色調補正部334は、本実施形態においては、前記左側補正パラメータ320aおよび右側補正パラメータ320bに基づいて、前記第1の撮像信号により表される画像の色調と前記第2の撮像信号により表される画像の色調を等しくするよう補正処理を施すことを特徴とする。
その他の構成、作用は第1の実施形態と同様であるので、ここでの説明は省略する。
以上説明したように本第4の実施形態によると、内視鏡に搭載する2つの固体撮像素子間にばらつき等により色調特性に差が生じたとしても、プロセッサ側においてこれら左右2つの固体撮像素子間の色調性の差を是正することができる。
(第5の実施形態)
次に、本発明の第5の実施形態について説明する。
次に、本発明の第5の実施形態について説明する。
第5の実施形態は、本発明を、立体画像における視差が所定の視差となるよう補正する偏心補正技術に適用した実施形態である。すなわち、本実施形態において前記左側補正パラメータ420aおよび右側補正パラメータ420bは、3D合成部の出力画像である立体画像における視差が所定の視差となるよう補正するための情報である。
図8は、本第5の実施形態における内視鏡システム401の構成を示した図である。
図8に示すように、本実施形態におけるプロセッサ403は、第1の実施形態と同様の、撮像素子等の動作に必要な複数の電源電圧の電源を発生する図示しない電源回路、図示しないCCD駆動回路、第1信号処理部32、第2信号処理部33、調光検波部35、3D合成部50の他、プロセッサ403内の各種回路の制御を行う制御部431を有する。
制御部431は、上述したようにプロセッサ403内における各種回路を制御するとともに、立体内視鏡2の前記信号用コネクタ30bにおける前記IDメモリ420に記憶された偏心パラメータ情報を検出するパラメータ検出部431aを有する。
前記プロセッサ403はまた、第1信号処理部32および第2信号処理部33の出力端に接続され、制御部431の制御下に、前記第1信号処理部32および前記第2信号処理部33において所定の処理が施された撮像信号に偏心補正処理を施す偏心補正部434を有する。
前記偏心補正部434は、制御部431における前記パラメータ検出部431aにおいて検出した前記左側補正パラメータ420aおよび右側補正パラメータ420bに基づいて、制御部431の制御下に、前記第1信号処理部32および第2信号処理部33の出力信号である第1の撮像信号および第2の撮像信号に対して3D合成部50の出力画像である立体画像における視差が所定の視差となるよう補正処理を施して後段に出力するようになっている。
<第5の実施形態における補正パラメータ>
本第5の実施形態の内視鏡システム401において、前記左側補正パラメータ420aは、左側画像用撮像素子23Lに係る前記第1の撮像信号により表される画像の視差が所定の値となるように前記偏心補正部434に当該第1の撮像信号を補正させるための第1の補正パラメータである。
本第5の実施形態の内視鏡システム401において、前記左側補正パラメータ420aは、左側画像用撮像素子23Lに係る前記第1の撮像信号により表される画像の視差が所定の値となるように前記偏心補正部434に当該第1の撮像信号を補正させるための第1の補正パラメータである。
一方、前記右側補正パラメータ420bは、右側画像用撮像素子23Rに係る前記第2の撮像信号により表される画像の視差が所定の値となるように前記偏心補正部434に当該第2の撮像信号を補正させるための第2の補正パラメータである。
そして、偏心補正部434は、本実施形態においては、前記左側補正パラメータ420aおよび右側補正パラメータ420bに基づいて、3D合成部の出力画像である立体画像における視差が所定の視差となるよう補正処理を施すことを特徴とする。
その他の構成、作用は第1の実施形態と同様であるので、ここでの説明は省略する。
以上説明したように本第5の実施形態によると、内視鏡に搭載する2つの固体撮像素子のばらつき、または撮像光学系の部品加工精度もしくは組立精度等により、3D合成部の出力画像である立体画像における視差が適正な値とならない場合であっても、プロセッサ側においてこれら左右2つの固体撮像素子の視差を補正することができるので、3D合成部の出力画像である立体画像を適正に表示することができる。
(第6の実施形態)
次に、本発明の第6の実施形態について説明する。
次に、本発明の第6の実施形態について説明する。
第6の実施形態は、本発明を、2つの固体撮像素子における白傷画素を補正する白傷補正技術等にも適用した実施形態である。すなわち、本実施形態において前記左側補正パラメータ520aおよび右側補正パラメータ520bは、2つの固体撮像素子における白傷画素を補正するための情報である。
図9は、本第6の実施形態における内視鏡システム501の構成を示した図である。
図9に示すように、本実施形態におけるプロセッサ503は、第1の実施形態と同様の、撮像素子等の動作に必要な複数の電源電圧の電源を発生する図示しない電源回路、図示しないCCD駆動回路、第1信号処理部32、第2信号処理部33、調光検波部35、3D合成部50の他、プロセッサ503内の各種回路の制御を行う制御部531を有する。
制御部531は、上述したようにプロセッサ503内における各種回路を制御するとともに、立体内視鏡2の前記信号用コネクタ30bにおける前記IDメモリ520に記憶された色調パラメータ情報を検出するパラメータ検出部531aを有する。
前記プロセッサ503はまた、第1信号処理部32および第2信号処理部33の出力端に接続され、制御部531の制御下に、前記第1信号処理部32および前記第2信号処理部33において所定の処理が施された撮像信号に白傷補正処理を施す白傷補正部534を有する。
前記白傷補正部534は、制御部531における前記パラメータ検出部531aにおいて検出した前記左側補正パラメータ520aおよび右側補正パラメータ520bに基づいて、制御部531の制御下に、前記第1信号処理部32および第2信号処理部33の出力信号である第1の撮像信号と第2の撮像信号とにおける白傷画素を補正する補正処理を施して後段に出力するようになっている。
<第6の実施形態における補正パラメータ>
本第6の実施形態の内視鏡システム501において、前記左側補正パラメータ520aは、第1の撮像信号における白傷画素の座標位置情報に係る第1の補正パラメータである。
本第6の実施形態の内視鏡システム501において、前記左側補正パラメータ520aは、第1の撮像信号における白傷画素の座標位置情報に係る第1の補正パラメータである。
一方、前記右側補正パラメータ520bは、第2の撮像信号における白傷画素の座標位置情報に係る第2の補正パラメータである。
そして、白傷補正部534は、本実施形態においては、前記左側補正パラメータ520aおよび右側補正パラメータ520bに基づいて、白傷画素を所定の補正方法により補正処理を施すことを特徴とする。
その他の構成、作用は第1の実施形態と同様であるので、ここでの説明は省略する。
以上説明したように本第6の実施形態によると、内視鏡に搭載する2つの固体撮像素子に白傷が生じている場合でも、プロセッサ側においてこれら白傷の座標位置情報に基づいて適宜補正することができる。
なお、上述した第1~第6実施形態におけるプロセッサは、輝度レベル補正部34等の補正処理部を第1信号処理部32および第2信号処理部33の後段に配置し、さらに、調光検波部35を当該補正処理部の後段に配置するものとした。
しかしながら本願発明はこれに限らず、調光検波部35と同等の作用効果を奏する調光検波部を、第1信号処理部32および第2信号処理部33の前段に配置し、補正処理部による補正処理が施される前の撮像信号に対して調光検波処理をする構成を採る内視鏡システムに対しても適用することができる。
(第7の実施形態)
次に、本発明の第7の実施形態について説明する。
次に、本発明の第7の実施形態について説明する。
ところで、近年、手術用観察装置において、3D観察の要望が高まっている。また、この3D観察において、3D観察用の専用の眼鏡を用いて3D観察を実施する技術も知られるところにあるが、この専用の眼鏡を用いる技術においては視界が暗くなることから、モニタ側において3D信号を検知した場合にのみ明るさを調整する技術が知られている。
しかしながら当該技術においては、3D信号のみを検知することから、画像データの明るさに拘わらず一定の調整しか行われないこととなる。このため、3D観察用の専用の眼鏡を用いて実際に観察した画像が、2D観察時に比較して暗くなるという問題があった。
本第7の実施形態は、係る問題に鑑みてなされたものであり、図10は、第7の実施形態の内視鏡システムを示した図である。
本第7の実施形態の内視鏡システム601は、第1、第2の実施形態と同様に立体内視鏡2を用いて撮像を行う内視鏡システムであるが、2Dと3Dとの切換機構を備えるとともに、3Dモニタへの3D画像の表示の他に、2Dモニタに対して2D画像の再生も可能とすることを特徴とする。
次に、本第7の実施形態の内視鏡システム601におけるプロセッサ603について説明する。
図10に示すように、本実施形態におけるプロセッサ603は、プロセッサ603内の各種回路の制御を行う制御部631と、立体内視鏡2における2つの撮像信号のうち、上述した、左側画像用の撮像素子23Lにおいて生成され、CDS回路26LおよびA/D変換回路27Lを経た第1の撮像信号を入力し制御部631の制御下に所定の信号処理を施す第1信号処理部32と、右側画像用の撮像素子23Rにおいて生成され、CDS回路26RおよびA/D変換回路27Rを経た第2の撮像信号を入力し制御部631の制御下に所定の信号処理を施す第2信号処理部33と、を有する。
ここで制御部631は、前記第1信号処理部32または第2信号処理部33において処理された第1の撮像信号または第2の撮像信号の輝度値を所定のしきい値と比較するしきい値比較部を有する。
前記第1信号処理部32および第2信号処理部33は、いずれも撮像素子23Lまたは撮像素子23Rからの撮像信号に対して所定の信号処理を施すが、上記同様、それぞれ公知の自動利得制御回路(AGC回路)、ホワイトバランス回路、ガンマ補正回路、拡大縮小回路、輪郭強調回路等の信号処理部を備え適宜信号処理を行うようになっている。
また、プロセッサ603は、第1信号処理部32において処理された第1の撮像信号または第2の信号処理部33において処理された第2の撮像信号の調光検波を行う調光検波部635と、第1信号処理部32において信号処理された第1の撮像信号と第2信号処理部33において信号処理された第2の撮像信号とを合成し、所定の3D画像信号を生成する3D合成部50と、を有する。
さらに、プロセッサ603は、2Dと3Dとの切換操作を行う2D/3D切換操作部53と、第1信号処理部32の出力部に接続された2D/3D画像信号切換部54と、を有する。
前記2D/3D画像信号切換部54は、プロセッサ603の外部における2D用のモニタ55に対して接続可能とする出力端と、3D合成部50に対して接続可能とする出力端とを備え、制御部631の制御下に前記2D/3D切換操作部53の操作に応じて第1信号処理部32から出力される第1の撮像信号を2D用の信号として用いるか、第2の撮像信号と共に3D合成用の信号として用いるかを切り換える役目を果たすようになっている。
前記調光検波部635は、上記同様に、公知の調光検波機能を果たすものであり、前記第1の補正撮像信号および前記第2の補正撮像信号の輝度を測光する測光部を有し、測光した輝度値に係る情報信号を出力するようになっている。
また調光検波部635は、上記同様、前記測光部において測光された輝度値に応じて、左側画像用撮像素子23Lおよび右側画像用撮像素子23Rの露光時間を制御する露光時間制御部を有する。この露光時間制御部は、前記測光した輝度値に応じて左側画像用撮像素子23Lおよび右側画像用撮像素子23Rの電子シャッター制御のための制御信号を生成し、左側画像用撮像素子23Lおよび右側画像用撮像素子23Rに対して送出するようになっている。
なお本第7の実施形態においては、前記調光検波部635は、制御部631の制御下に、前記2D/3D切換操作部53による2Dと3Dとの切換操作に応じて、前記測光部からの前記輝度値に係る情報信号が制御されるようになっている。
さらに本第7の実施形態においては、前記調光検波部635は、制御部631の制御下に、前記2D/3D切換操作部53による2Dと3Dとの切換操作に応じて、前記露光時間制御部からの前記制御信号が制御されるようになっている。
さらにプロセッサ603は、前記調光検波部635から出力された前記測光した輝度値に係る情報信号に応じて、光源部4における絞りを制御するための絞り制御信号を生成する絞り制御信号生成部52を有する。
また本実施形態においてプロセッサ603は、前記立体内視鏡2に対して照明光を供給するために前記ライトガイドケーブル16に対して照明光を出射するための、上記同様の光源部4を内設する。
この光源部4は、ランプ42、絞り43およびレンズ44を有するとともに、光源制御部41と備えて構成されている。ランプ42からの照明光は、光源制御部41により制御される絞り43を介してレンズ44に向けて出射されるようになっている。また、レンズ44は、ライトガイドケーブル16の基端部に光を集光するようになっている。
さらに、前記ライトガイドケーブル16の基端部に集光した光は、立体内視鏡2に供給される照明光として、ライトガイドケーブル16内を伝送された後当該ライトガイドケーブル16の先端部から出射することとなる。
前記光源制御部41は、前記絞り制御信号生成部52において生成された絞り制御信号に基づいて絞り43を制御するようになっている。
<第7の実施形態の作用>
次に、本第7の実施形態の内視鏡システムの作用について説明する。
次に、本第7の実施形態の内視鏡システムの作用について説明する。
制御部631は、2D/3D切換操作部53の操作状態を確認し、2Dの画像信号を出力するモードが選択されている場合は、2D/3D画像信号切換部54を制御して、第1信号処理部32から出力される第1の撮像信号を2D用の信号として用いるよう切り換える。
さらに制御部631は、2Dの画像信号を出力するモード(以下、2D出力モード)が選択されている場合は、調光検波部635を制御して、当該調光検波部635における前記測光部からの前記輝度値に係る情報信号を2D出力モード用として制御するとともに、前記露光時間制御部からの前記制御信号を2D出力モード用として制御する。
一方、制御部631は、2D/3D切換操作部53の操作状態を確認し、3Dの画像信号を出力するモード(以下、3D出力モード)が選択されている場合は、2D/3D画像信号切換部54を制御して、第1信号処理部32から出力される第1の撮像信号を3D合成用の信号として用いるよう切り換える。
さらに制御部631は、3Dの画像信号を出力するモードが選択されている場合は、調光検波部635を制御して、当該調光検波部635における前記測光部からの前記輝度値に係る情報信号を3D出力モード用として制御するとともに、前記露光時間制御部からの前記制御信号を3D出力モード用として制御する。
具体的には、3D出力モードが選択されている場合は、2D出力モードが選択されている場合に比して、撮像する被写体像の明るさ(輝度値)が所定値ほど大きくなるように制御する。
この輝度値に係る所定値は、3D観察時において専用の3D用眼鏡を装着した場合であっても、2D観察の際と同様な明るさが確保できる程度の値である。
以上説明したように本第7の実施形態の内視鏡システムによると、3D画像信号出力モードが選択された際には、自動的に、2D画像信号出力モードが選択された場合に比して撮像する被写体像の明るさ(輝度値)が所定値ほど大きくなるように制御するので、3D観察時において専用の3D用眼鏡を装着した場合であっても、2D観察の際と同様な明るさを確保することができる。
(第8の実施形態)
次に、本発明の第8の実施形態について図11を参照して説明する。
次に、本発明の第8の実施形態について図11を参照して説明する。
図11に示すように、本第8の実施形態の内視鏡システム701は、基本的な構成は第7の実施形態の内視鏡システム601と同様であって、第1、第2の実施形態に示す如き立体内視鏡2を用いて撮像を行う内視鏡システムであって、2Dと3Dとの切換機構を備えるとともに、3Dモニタへの3D画像の表示の他に、2Dモニタに対して2D画像の再生も可能とするものである。
そして本第8の実施形態は、3Dモニタ自体の特性に応じて撮像する被写体像の明るさを調整することを特徴とするものであり、その他の構成・作用は第7の実施形態と同様であるので、ここでは差異のみに言及し第7の実施形態と同様の構成・作用についての詳しい説明は省略する。
図11に示すように、本第8実施形態におけるプロセッサ603は、第7の実施形態におけるプロセッサと同様の構成をなすが、制御部631が当該プロセッサ603に接続する3Dモニタ5に内設されたIDメモリ5aの情報を取得するようになっている。
ここで制御部631は、2D/3D切換操作部53によって3D出力モードが選択された場合は、前記IDメモリ5aから3Dモニタ5の明るさに係る特性情報を取得し、この特性情報に基づいて、調光検波部635を制御するようになっている。
<第8の実施形態の作用>
次に、本第8の実施形態の内視鏡システムの作用について説明する。
次に、本第8の実施形態の内視鏡システムの作用について説明する。
制御部631は、2D/3D切換操作部53の操作状態を確認し、2D出力モードが選択されている場合は、上述した第7の実施形態と同様に、2D/3D画像信号切換部54および調光検波部635を制御する。
一方、制御部631は、2D/3D切換操作部53の操作状態を確認し、3D出力モードが選択されている場合は、2D/3D画像信号切換部54を制御して、第1信号処理部32から出力される第1の撮像信号を3D合成用の信号として用いるよう切り換えるとともに、前記IDメモリ5aから3Dモニタ5の明るさに係る特性情報を取得し、この特性情報に基づいて、調光検波部635を制御する。
以上説明したように本第8の実施形態の内視鏡システムによると、3D画像信号出力モードが選択された際には、プロセッサに接続された3Dモニタの明るさに係る特性情報を取得して、当該特性情報に基づいて撮像する被写体像の明るさ(輝度値)を制御するので、3D観察時において専用の3D用眼鏡を装着した場合であっても、より的確に2D観察の際と同様な明るさを確保することができる。
(第9の実施形態)
次に、本発明の第9の実施形態について図12を参照して説明する。
次に、本発明の第9の実施形態について図12を参照して説明する。
図12に示すように、本第8の実施形態の内視鏡システム801についても、基本的な構成は第7の実施形態の内視鏡システム601と同様であって、第1、第2の実施形態に示す如き立体内視鏡2を用いて撮像を行う内視鏡システムであって、2Dと3Dとの切換機構を備えるとともに、3Dモニタへの3D画像の表示の他に、2Dモニタに対して2D画像の再生も可能とするものである。
そして本第9の実施形態は、3D観察時に使用する専用の眼鏡の仕様に合わせて撮像する被写体像の明るさの調整することを特徴とするものであり、その他の構成・作用は第7、第8の実施形態と同様であるので、ここでは差異のみに言及し第7、第8の実施形態と同様の構成・作用についての詳しい説明は省略する。
図12に示すように、本第9実施形態におけるプロセッサ603は、第7の実施形態におけるプロセッサと同様の構成をなすが、制御部631が当該プロセッサ603に接続する、3D観察時に使用する専用の眼鏡56に係る仕様情報を取得するようになっている。 本第9の実施形態において制御部631は、2D/3D切換操作部53によって3D出力モードが選択された場合は、前記眼鏡56から所定の仕様情報を取得し、この仕様情報に基づいて、調光検波部635を制御するようになっている。
<第9の実施形態の作用>
次に、本第9の実施形態の内視鏡システムの作用について説明する。
次に、本第9の実施形態の内視鏡システムの作用について説明する。
制御部631は、2D/3D切換操作部53の操作状態を確認し、2D出力モードが選択されている場合は、上述した第7の実施形態と同様に、2D/3D画像信号切換部54および調光検波部635を制御する。
一方、制御部631は、2D/3D切換操作部53の操作状態を確認し、3D出力モードが選択されている場合は、2D/3D画像信号切換部54を制御して、第1信号処理部32から出力される第1の撮像信号を3D合成用の信号として用いるよう切り換えるとともに、3D専用眼鏡56から所定の仕様情報を取得し、この仕様情報に基づいて、調光検波部635を制御する。
以上説明したように本第9の実施形態の内視鏡システムによると、3D画像信号出力モードが選択された際には、3D観察時に使用する専用の眼鏡56に係る仕様情報を取得して、当該仕様情報に基づいて撮像する被写体像の明るさ(輝度値)を制御するので、3D観察時において専用の3D用眼鏡を装着した場合であっても、より的確に2D観察の際と同様な明るさを確保することができる。
なお、第7~第9の実施形態においては、2D観察から3D観察に切り換わった際に、自動的に被写体像の明るさ(輝度値)を調整するようにしたが、これに限らず、画像信号の色味(色調または階調)を自動的に調整する構成であってもよい。
また、第7~第9の実施形態においては、被写体像を観察する場合において、2D/3D切換操作部53の切換操作に応じて2D観察から3D観察に切り換わった際に、自動的に被写体像の明るさ(輝度値)を調整するようにしたが、これに限らず、撮像した被写体像を記録する際に、2D記録であるか3D記録であるかに応じて自動的に調整する構成であってもよい。
本発明は、上述した実施形態に限定されるものではなく、本発明の要旨を変えない範囲において、種々の変更、改変等が可能である。
本出願は、2014年11月7日に日本国に出願された特願2014-227335号を優先権主張の基礎として出願するものであり、上記の開示内容は、本願明細書、請求の範囲、図面に引用されたものとする。
Claims (10)
- 被写体の光学像を撮像し、第1の撮像信号として出力可能な第1の撮像素子と、前記被写体の光学像を撮像し、前記第1の撮像信号に対して視差を有する第2の撮像信号として出力可能な第2の撮像素子と、備えた撮像部と、
前記撮像部に接続され、前記第1の撮像信号および前記第2の撮像信号に対して信号処理を施すプロセッサと、
前記撮像部に設けられ、前記第1の撮像信号および前記第2の撮像信号に対して所定の補正を施すための補正パラメータを格納する記憶部と、
前記プロセッサに備えられ、前記補正パラメータに基づいて、前記第1の撮像信号および前記第2の撮像信号により表される画像の特性が等しくなるよう、少なくともいずれか一方に対して補正処理を施す補正処理部と、
を具備することを特徴とする撮像システム。 - 前記記憶部は、前記補正パラメータとして、前記第1の撮像信号により表される画像の特性が所定の特性値となるように前記補正処理部に前記第1の撮像信号を補正させるための第1補正パラメータと、前記第2の撮像信号により表される画像の特性が所定の特性値となるように前記補正処理部に前記第2の撮像信号を補正させるための第2補正パラメータと、を有することを特徴とする請求項1に記載の撮像システム。
- 前記記憶部は、前記第1の撮像信号と前記第2の撮像信号とのうち、一方の撮像信号により表される画像の特性を他方の撮像信号により表される画像の特性と等しくするよう補正する前記補正パラメータを有することを特徴とする請求項1に記載の撮像システム。
- 前記第1の撮像信号と前記第2の撮像信号とに画像処理を施す画像処理部と、
前記画像処理部において前記画像処理が施され、さらに前記補正処理部により前記所定の補正処理が施された前記第1の撮像信号または前記第2の撮像信号のいずれか一方の撮像信号が表す前記被写体の光学像の明るさを検出する検波部と、
をさらに備えたことを特徴とする請求項2または3に記載の撮像システム。 - 前記補正パラメータは、前記第1の撮像信号と前記第2の撮像信号とにおける画素毎の輝度レベルを補正する輝度レベル補正情報であり、
前記補正処理部は、前記輝度レベル補正情報に基づいて、前記第1の撮像信号により表される画像の輝度レベルと前記第2の撮像信号により表される画像の輝度レベルとを等しくするよう補正処理を施すことを特徴とする請求項2または3に記載の撮像システム。 - 前記補正パラメータは、前記第1の撮像信号と前記第2の撮像信号とにおける画素毎の階調を補正する階調補正情報であり、
前記補正処理部は、前記階調補正情報に基づいて、前記第1の撮像信号により表される画像の階調と前記第2の撮像信号により表される画像の階調とを等しくするよう補正処理を施すことを特徴とする請求項2または3に記載の撮像システム。 - 前記補正パラメータは、前記第1の撮像信号と前記第2の撮像信号とにおける画素毎の色調を補正する色調補正情報であり、
前記補正処理部は、前記色調補正情報に基づいて、前記第1の撮像信号により表される画像の色調と前記第2の撮像信号により表される画像の色調とを等しくするよう補正処理を施すことを特徴とする請求項2または3に記載の撮像システム。 - 前記第1の撮像信号と前記第2の撮像信号とを合成して、立体画像を生成する合成部をさらに備え、
前記補正パラメータは、前記合成部により生成された前記立体画像における視差が所定の視差となるよう補正する偏心補正情報であり、
前記補正処理部は、前記偏心補正情報に基づいて、前記立体画像における視差が前記所定の視差となるよう、前記第1の撮像信号と前記第2の撮像信号とに対して補正処理を施すことを特徴とする請求項2または3に記載の撮像システム。 - 前記補正パラメータは、前記第1の撮像信号と前記第2の撮像信号とにおける白傷画素を補正する白傷補正情報であり、
前記補正処理部は、前記白傷正情報に基づいて、前記第1の撮像信号と前記第2の撮像信号とにおける白傷画素に対して補正処理を施すことを特徴とする請求項2または3に記載の撮像システム。 - 被写体の光学像を撮像し、第1の撮像信号として出力可能な第1の撮像素子と、前記被写体の光学像を撮像し、前記第1の撮像信号に対して視差を有する第2の撮像信号として出力可能な第2の撮像素子と、前記第1の撮像素子および前記第2の撮像素子に係る補正パラメータを格納する記憶部と、を備えた撮像部に接続可能とされ、前記第1の撮像信号および前記第2の撮像信号に対して信号処理を施すプロセッサを備えた撮像システムであって、
前記プロセッサに備えられ、前記補正パラメータに基づいて、前記第1の撮像信号および前記第2の撮像信号により表される画像の特性が等しくなるよう、少なくともいずれか一方に対して補正処理を施す補正処理部を具備することを特徴とする撮像システム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016543090A JP6045760B2 (ja) | 2014-11-07 | 2015-11-06 | 撮像システム |
US15/581,066 US10523911B2 (en) | 2014-11-07 | 2017-04-28 | Image pickup system |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014227335 | 2014-11-07 | ||
JP2014-227335 | 2014-11-07 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
US15/581,066 Continuation US10523911B2 (en) | 2014-11-07 | 2017-04-28 | Image pickup system |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2016072490A1 true WO2016072490A1 (ja) | 2016-05-12 |
Family
ID=55909213
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2015/081307 WO2016072490A1 (ja) | 2014-11-07 | 2015-11-06 | 撮像システム |
Country Status (3)
Country | Link |
---|---|
US (1) | US10523911B2 (ja) |
JP (1) | JP6045760B2 (ja) |
WO (1) | WO2016072490A1 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017228936A (ja) * | 2016-06-22 | 2017-12-28 | オリンパス株式会社 | 画像処理システムおよび画像処理装置 |
WO2020084784A1 (ja) * | 2018-10-26 | 2020-04-30 | オリンパス株式会社 | 画像処理装置および内視鏡システム |
WO2021176717A1 (ja) * | 2020-03-06 | 2021-09-10 | オリンパス株式会社 | 内視鏡装置、内視鏡画像用プロセッサ、内視鏡画像の生成方法 |
WO2024009605A1 (ja) * | 2022-07-06 | 2024-01-11 | 日立Astemo株式会社 | 画像処理装置、および、画像処理方法 |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105899124B (zh) * | 2014-09-03 | 2018-07-10 | 奥林巴斯株式会社 | 内窥镜装置 |
JP2017055309A (ja) * | 2015-09-10 | 2017-03-16 | キヤノン株式会社 | 撮像装置及びその制御方法 |
JP2017055308A (ja) | 2015-09-10 | 2017-03-16 | キヤノン株式会社 | 撮像装置及びその制御方法 |
JP6790384B2 (ja) * | 2016-03-10 | 2020-11-25 | 富士ゼロックス株式会社 | 画像処理装置及びプログラム |
JP2018157918A (ja) * | 2017-03-22 | 2018-10-11 | ソニー株式会社 | 手術用制御装置、制御方法、手術システム、およびプログラム |
JP2019029875A (ja) * | 2017-07-31 | 2019-02-21 | パナソニックIpマネジメント株式会社 | 画像処理装置、カメラ装置及び画像処理方法 |
DE102022101527A1 (de) | 2022-01-24 | 2023-07-27 | Karl Storz Se & Co. Kg | Messvorrichtung und Messverfahren zum Überprüfen eines Messbildzustandes |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0829701A (ja) * | 1994-07-18 | 1996-02-02 | Olympus Optical Co Ltd | 立体視内視鏡システム |
JPH10248806A (ja) * | 1997-03-12 | 1998-09-22 | Olympus Optical Co Ltd | 計測内視鏡装置 |
JP2007044153A (ja) * | 2005-08-08 | 2007-02-22 | Olympus Medical Systems Corp | 立体視内視鏡装置 |
JP2012134875A (ja) * | 2010-12-22 | 2012-07-12 | Olympus Corp | 内視鏡装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4955840B2 (ja) | 2010-07-09 | 2012-06-20 | オリンパスメディカルシステムズ株式会社 | 立体内視鏡 |
-
2015
- 2015-11-06 WO PCT/JP2015/081307 patent/WO2016072490A1/ja active Application Filing
- 2015-11-06 JP JP2016543090A patent/JP6045760B2/ja active Active
-
2017
- 2017-04-28 US US15/581,066 patent/US10523911B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0829701A (ja) * | 1994-07-18 | 1996-02-02 | Olympus Optical Co Ltd | 立体視内視鏡システム |
JPH10248806A (ja) * | 1997-03-12 | 1998-09-22 | Olympus Optical Co Ltd | 計測内視鏡装置 |
JP2007044153A (ja) * | 2005-08-08 | 2007-02-22 | Olympus Medical Systems Corp | 立体視内視鏡装置 |
JP2012134875A (ja) * | 2010-12-22 | 2012-07-12 | Olympus Corp | 内視鏡装置 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017228936A (ja) * | 2016-06-22 | 2017-12-28 | オリンパス株式会社 | 画像処理システムおよび画像処理装置 |
WO2020084784A1 (ja) * | 2018-10-26 | 2020-04-30 | オリンパス株式会社 | 画像処理装置および内視鏡システム |
WO2021176717A1 (ja) * | 2020-03-06 | 2021-09-10 | オリンパス株式会社 | 内視鏡装置、内視鏡画像用プロセッサ、内視鏡画像の生成方法 |
WO2024009605A1 (ja) * | 2022-07-06 | 2024-01-11 | 日立Astemo株式会社 | 画像処理装置、および、画像処理方法 |
Also Published As
Publication number | Publication date |
---|---|
JP6045760B2 (ja) | 2016-12-14 |
US10523911B2 (en) | 2019-12-31 |
JPWO2016072490A1 (ja) | 2017-04-27 |
US20170230634A1 (en) | 2017-08-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6045760B2 (ja) | 撮像システム | |
JP5211269B2 (ja) | 撮像装置 | |
JP6017735B2 (ja) | 撮像システム | |
JP6109456B1 (ja) | 画像処理装置および撮像システム | |
WO2018079329A1 (ja) | 内視鏡システムおよび内視鏡 | |
CN107113405B (zh) | 图像处理装置、图像处理装置的工作方法、记录介质和内窥镜装置 | |
WO2016080130A1 (ja) | 観察装置 | |
WO2016104386A1 (ja) | 調光装置、撮像システム、調光装置の作動方法および調光装置の作動プログラム | |
JPWO2020178962A1 (ja) | 内視鏡システム、画像処理装置、総処理時間検出方法および処理装置 | |
US10390688B2 (en) | Image pickup system | |
WO2015056701A1 (ja) | 画像出力装置 | |
JP5926980B2 (ja) | 撮像装置および撮像システム | |
WO2016088628A1 (ja) | 画像評価装置、内視鏡システム、画像評価装置の作動方法および画像評価装置の作動プログラム | |
JP6489644B2 (ja) | 撮像システム | |
JP5989283B1 (ja) | 撮像システム及び信号処理装置 | |
JP6027793B2 (ja) | 内視鏡装置 | |
US20190052854A1 (en) | Image processing apparatus | |
JP2018023612A (ja) | 内視鏡システム | |
WO2019069542A1 (ja) | 処理装置、内視鏡、内視鏡システム、画像処理方法およびプログラム | |
JP6801990B2 (ja) | 画像処理システムおよび画像処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
ENP | Entry into the national phase |
Ref document number: 2016543090 Country of ref document: JP Kind code of ref document: A |
|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 15857138 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 15857138 Country of ref document: EP Kind code of ref document: A1 |