WO2015118911A1 - 撮像装置及び撮像装置の制御方法、並びに、撮像システム及び撮像システムの制御方法 - Google Patents

撮像装置及び撮像装置の制御方法、並びに、撮像システム及び撮像システムの制御方法 Download PDF

Info

Publication number
WO2015118911A1
WO2015118911A1 PCT/JP2015/050724 JP2015050724W WO2015118911A1 WO 2015118911 A1 WO2015118911 A1 WO 2015118911A1 JP 2015050724 W JP2015050724 W JP 2015050724W WO 2015118911 A1 WO2015118911 A1 WO 2015118911A1
Authority
WO
WIPO (PCT)
Prior art keywords
infrared
imaging
infrared light
light
projector
Prior art date
Application number
PCT/JP2015/050724
Other languages
English (en)
French (fr)
Inventor
関口 智
笹生 剛良
Original Assignee
株式会社Jvcケンウッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2014021002A external-priority patent/JP6090191B2/ja
Priority claimed from JP2014021004A external-priority patent/JP6183238B2/ja
Priority claimed from JP2014063134A external-priority patent/JP6090217B2/ja
Application filed by 株式会社Jvcケンウッド filed Critical 株式会社Jvcケンウッド
Priority to CN201580005174.XA priority Critical patent/CN105917638B/zh
Publication of WO2015118911A1 publication Critical patent/WO2015118911A1/ja
Priority to US15/212,814 priority patent/US10171759B2/en

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/02Illuminating scene
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3147Multi-projection systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present disclosure relates to an imaging apparatus, an imaging apparatus control method, an imaging system, and an imaging system control method.
  • an image obtained by imaging a subject by this imaging method is a monochrome image.
  • monochrome images it may be difficult to identify an object. If a color image can be captured even in an environment where there is no visible light, the object identification can be improved. For example, in a surveillance camera, it is desired to capture a color image even in an environment without visible light in order to improve the object identification.
  • Patent Document 1 describes an imaging apparatus that can capture a color image even in an environment without visible light.
  • an infrared projector is also used. If the technique described in Patent Document 1 is installed in the surveillance camera, it becomes possible to convert the subject into a color image and improve the object identification.
  • Patent Document 1 images a subject by sequentially projecting infrared light of three wavelengths with an infrared projector.
  • a subject to be monitored may be imaged using a plurality of surveillance cameras. It is conceivable to configure a monitoring system using the imaging device described in Patent Document 1 for each of a plurality of monitoring cameras.
  • the embodiment captures a preferable image even when there is another imaging device that projects an object by projecting infrared light in addition to its own imaging device that projects an object by projecting infrared light.
  • An object of the present invention is to provide an imaging apparatus capable of performing the above and a method for controlling the imaging apparatus.
  • An object of the embodiment is to provide an imaging system and an imaging system control method capable of imaging a preferable video even when there are a plurality of imaging apparatuses that project infrared light and image a subject.
  • the first projector that is an imaging device and controls the first infrared projector capable of projecting a plurality of infrared lights so as to selectively project the infrared lights.
  • a synchronization signal for synchronizing the timing at which infrared light is projected by the second infrared projector and the timing at which the first light projection control unit projects infrared light by the first infrared projector is externally provided.
  • An image pickup apparatus is provided that includes a synchronization signal transmission unit that transmits the signal.
  • the first infrared projector that is an imaging device and controls the first infrared projector capable of projecting a plurality of infrared lights to selectively project the infrared lights.
  • a light control unit ; an imaging unit that captures an image of the subject in a state where infrared light is projected by the first infrared projector; and the first light projection control unit configured to transmit infrared light by the first infrared projector.
  • the imaging device is characterized in that the first light projection control unit controls the first infrared projector based on the synchronization signal received by the synchronization signal reception unit. Is done.
  • a method for controlling an imaging device used in an imaging system including a plurality of imaging devices, wherein each of the plurality of imaging devices selectively receives infrared light by an individual infrared projector.
  • An imaging apparatus comprising: a synchronizing step that synchronizes the timing of projecting each other; and an imaging step that images a subject in a state where infrared light is selectively projected by each of the plurality of imaging apparatuses.
  • the imaging device includes a plurality of imaging devices and a synchronization signal supply device that supplies a synchronization signal to each of the plurality of imaging devices, and each of the plurality of imaging devices receives the synchronization signal.
  • Infrared light is selectively projected at a timing based on the synchronization signal received by the synchronization signal reception unit, and a synchronization signal reception unit that receives the infrared light projector capable of projecting a plurality of infrared lights.
  • an imaging system comprising: a projection control unit that controls the imaging unit; and an imaging unit that images a subject in a state where infrared light is projected by the infrared projector.
  • the synchronization signal supply device supplies a synchronization signal to each of the plurality of imaging devices, and each of the plurality of imaging devices receives the synchronization signal, and receives a plurality of infrared lights.
  • An infrared projector capable of projecting light is controlled to selectively project infrared light at a timing based on the synchronization signal, and the imaging unit is configured to project infrared light by the infrared projector.
  • the imaging device and the control method of the imaging device of the embodiment in addition to the own imaging device that projects infrared light and images the subject, other imaging devices that project infrared light and image the subject Even in the case where there is an image, a preferable image can be taken. According to the imaging system and the control method of the imaging system of the embodiment, it is possible to capture a preferable image even when there are a plurality of imaging devices that project infrared light and image a subject.
  • FIG. 1 is a block diagram illustrating an overall configuration of an imaging apparatus according to a first embodiment. It is a figure which shows an example of the arrangement
  • FIG. 6 is a diagram for describing a first example of operations of a master and a slave when the imaging devices of the first to third embodiments are set to a timing adjustment mode.
  • FIG. 6 is a characteristic diagram illustrating how the luminance levels of R, G, and B change with respect to a shift in infrared light projection timing in the first example of the master and slave operations.
  • FIG. 11 is a diagram for describing a second example of master and slave operations when the imaging devices of the first to third embodiments are set to the timing adjustment mode.
  • the 2nd example of operation of a master and a slave it is a characteristic figure showing how a luminance level of R, G, and B changes with a shift of projection timing of infrared light.
  • It is a block diagram which shows the whole structure of the imaging device of 2nd Embodiment.
  • FIG. 10 is a diagram for explaining operations of a master and a slave when the imaging devices of the fourth to sixth embodiments are set to a timing adjustment mode.
  • 10 is a characteristic diagram illustrating how the luminance levels of R, G, and B change with respect to a shift in the infrared light projection timing when the imaging devices of the fourth to sixth embodiments are set to the timing adjustment mode.
  • 10 is a flowchart showing a method for adjusting the projection timing of infrared light, which is executed when the imaging apparatus of the fourth to sixth embodiments is set in the timing adjustment mode.
  • It is a block diagram which shows the schematic structure of the imaging device of 5th Embodiment.
  • It is a block diagram which shows the schematic structure of the imaging device of 6th Embodiment.
  • It is a block diagram which shows the whole structure of the imaging device used with the imaging system of 8th Embodiment.
  • the imaging apparatus 101 according to the first embodiment illustrated in FIG. 1 includes a normal mode suitable for an environment where there is sufficient visible light such as daytime, and a night vision mode suitable for an environment where there is almost no visible light such as nighttime.
  • the imaging device can capture images in three modes, an intermediate mode suitable for an environment where slight visible light exists.
  • Both the night vision mode and the intermediate mode are infrared light projection modes in which imaging is performed while projecting infrared light in an environment with little visible light.
  • the infrared light projection mode may be only the night vision mode.
  • an imaging device capable of imaging in three modes including the intermediate mode is taken as an example.
  • the light indicated by the one-dot chain line reflected from the subject is collected by the optical lens 1.
  • the optical lens 1 has visible light in an environment in which visible light is sufficiently present, and infrared light in which an object reflects infrared light emitted from an infrared projector 9 described below in an environment with little visible light. Is incident.
  • the imaging apparatus 101 includes a plurality of optical lenses.
  • An optical filter 2 is provided between the optical lens 1 and the imaging unit 3.
  • the optical filter 2 has two parts, an infrared cut filter 21 and a dummy glass 22.
  • the optical filter 2 includes a state in which an infrared cut filter 21 is inserted between the optical lens 1 and the imaging unit 3 and a state in which a dummy glass 22 is inserted between the optical lens 1 and the imaging unit 3 by the driving unit 8. It is driven to either state.
  • the imaging unit 3 includes an imaging element 31 in which a plurality of light receiving elements (pixels) are arranged in the horizontal direction and the vertical direction, and any one of red (R), green (G), and blue (B) corresponding to each light receiving element. And a color filter 32 in which filter elements of these colors are arranged.
  • the image sensor 31 may be a CCD (Charge-Coupled Device) or a CMOS (Complementary Metal-Oxide Semiconductor).
  • the color filter 32 has R, G, and B filter elements arranged in an array called a Bayer array, as shown in FIG.
  • the Bayer array is an example of a predetermined array of R, G, and B filter elements.
  • the G filter element sandwiched between the R filter elements in each row is Gr
  • the G filter element sandwiched between the B filter elements is Gb.
  • FIG. 3 shows the spectral sensitivity characteristics of the wavelength of R light, G light, and B light and relative sensitivity in the imaging unit 3.
  • the relative sensitivity is normalized to 1 at the maximum value.
  • the drive unit 8 drives the optical filter 2 to insert the infrared cut filter 21 between the optical lens 1 and the imaging unit 3 based on the control by the control unit 7.
  • the imaging unit 3 has sensitivity even in an infrared light region having a wavelength of 700 nm or more. Therefore, when the imaging apparatus 101 is operated in the intermediate mode or the night vision mode, the driving unit 8 removes the infrared cut filter 21 between the optical lens 1 and the imaging unit 3 based on the control by the control unit 7 and performs a dummy. The optical filter 2 is driven so that the glass 22 is inserted.
  • the imaging apparatus 101 can obtain R, G, and B color information by using the sensitivity of the portion surrounded by the dashed ellipse in FIG.
  • the reason why the dummy glass 22 is inserted is to make the optical path length the same as the optical path length when the infrared cut filter 21 is inserted.
  • the infrared projector 9 includes projectors 91, 92, and 93 that project infrared light with wavelengths IR1, IR2, and IR3, respectively.
  • the light projection control unit 71 in the control unit 7 performs control so as to selectively project infrared light with wavelengths IR1 to IR3 from the light projection units 91 to 93 in a time-sharing manner. .
  • FIG. 4 shows the relationship between the wavelength and the relative detection rate when the reflectance at each wavelength is multiplied by the light receiving sensitivity of silicon when a material exhibiting each color of R, G, and B is irradiated with white light. Yes. Also in FIG. 4, the maximum value of the relative detection rate is normalized to 1.
  • the reflected light at a wavelength of 780 nm is highly correlated with the reflected light of a material exhibiting an R color
  • the reflected light at a wavelength of 870 nm is a reflection of a material exhibiting a B color.
  • Correlation with light is high
  • reflected light at a wavelength of 940 nm is highly correlated with reflected light of a material exhibiting G color.
  • the wavelengths IR1, IR2, and IR3 of the infrared light projected by the light projecting units 91, 92, and 93 are set to 780 nm, 940 nm, and 870 nm. These wavelengths are examples of the wavelengths IR1 to IR3, and may be other than 780 nm, 940 nm, and 870 nm.
  • the light projecting unit 91 irradiates the subject with infrared light having the wavelength IR1, and assigns an image signal obtained by imaging the light reflected from the subject to the R signal.
  • the light projecting unit 93 irradiates the subject with infrared light having a wavelength IR2, and assigns a video signal obtained by imaging the light reflected from the subject to the G signal.
  • the light projecting unit 92 irradiates the subject with infrared light having a wavelength IR3, and assigns a video signal obtained by imaging the light reflected from the subject to the B signal.
  • the wavelength IR1 of 780 nm may be assigned to the R light
  • the wavelength IR3 of 870 nm may be assigned to the G light
  • the wavelength IR2 of 940 nm may be assigned to the B light.
  • the wavelengths IR1, IR2, and IR3 can be arbitrarily assigned to the R light, G light, and B light.
  • the wavelengths IR1, IR2, and IR3 that best reproduce the color of the subject are assigned to R light, G light, and B light, respectively.
  • the control unit 7 controls imaging in the imaging unit 3 and each unit in the video processing unit 5.
  • An imaging signal imaged by the imaging unit 3 is A / D converted by the A / D converter 4 and input to the video processing unit 5.
  • the imaging unit 3 and the A / D converter 4 may be integrated.
  • the video processing unit 5 and the control unit 7 may be integrated.
  • the control unit 7 includes a mode switching unit 72 that switches between the normal mode, the intermediate mode, and the night vision mode.
  • the mode switching unit 72 appropriately switches the operation in the video processing unit 5 as described later in correspondence with the normal mode, the intermediate mode, and the night vision mode.
  • the mode switching unit 72 can be switched to a timing adjustment mode for adjusting the timing of projecting infrared light with wavelengths IR1, IR2, and IR3 by the infrared projector 9.
  • the control unit 7 sets the imaging device 101 as a master imaging device or a slave imaging device.
  • a master / slave setting unit 74 is provided.
  • the master / slave setting unit 74 may select a master and a slave by a mechanical switch and hold the setting state of the selected master or slave.
  • the master / slave setting unit 74 may select a master and a slave from a menu and hold the setting state of the selected master or slave.
  • control unit 7 synchronizes the timing (phase) at which the infrared projector 9 of the imaging device 101 and the infrared projector 9 included in the other imaging device 101 project infrared light with wavelengths IR1, IR2, and IR3.
  • the configuration is provided.
  • the control unit 7 includes a luminance level determination unit 75, a synchronization signal transmission unit 76t, and a synchronization signal reception unit 76r.
  • the synchronization signal transmission unit 76t transmits a synchronization signal Ssync based on the reference clock to the other imaging apparatus 101.
  • the synchronization signal Ssync is a signal based on the timing at which infrared light is projected in the imaging apparatus 101, for example. At this time, the synchronization signal receiving unit 76r does not operate.
  • the synchronization signal receiving unit 76r receives the synchronization signal Ssync sent from the other imaging device 101 as the master. At this time, the synchronization signal transmission unit 76t does not operate. Further, the synchronization signal Ssync may not be received directly from the master imaging device, and may be received via another device.
  • the video processing unit 5 includes switches 51 and 53, a previous signal processing unit 52, and a demosaic processing unit 54.
  • the switches 51 and 53 may be physical switches, or may be conceptual switches for switching between operation and non-operation of the previous signal processing unit 52.
  • a video signal is input from the video processing unit 5 to the control unit 7 in order to detect the brightness of the video being captured.
  • the previous signal processing unit 52 includes a surrounding pixel addition unit 521, a same-position pixel addition unit 522, and a synthesis unit 523.
  • the video processing unit 5 generates R, G, and B primary color data and supplies them to the video output unit 6.
  • the video output unit 6 outputs the three primary color data in a predetermined format to a display unit not shown.
  • the video output unit 6 may output the R, G, and B signals as they are, or may convert the R, G, and B signals into luminance signals and color signals (or color difference signals) and output them.
  • the video output unit 6 may output a composite video signal.
  • the video output unit 6 may output a digital video signal or may output a video signal converted into an analog signal by a D / A converter.
  • ⁇ Normal mode> In the normal mode, the control unit 7 causes the driving unit 8 to insert the infrared cut filter 21 between the optical lens 1 and the imaging unit 3.
  • the light projection control unit 71 turns off infrared light projection by the infrared projector 9.
  • the image signal picked up by the image pickup unit 3 is converted into video data that is a digital signal by the A / D converter 4 and input to the video processing unit 5.
  • the mode switching unit 72 controls the switches 51 and 53 to be connected to the terminal Tb.
  • FIG. 6A shows the exposures Ex1, Ex2, Ex3,... Of the imaging unit 3.
  • the exposures Ex1, Ex2, and Ex3 indicate the maximum exposure time.
  • FIG. 6 shows the timing at which each video signal frame is obtained. Based on an exposure (not shown) before the exposure Ex1, a frame F0 of the video signal is obtained after a predetermined time. Based on the exposure Ex1, a frame F1 of the video signal is obtained after a predetermined time. Based on the exposure Ex2, a frame F2 of the video signal is obtained after a predetermined time. The same applies to exposure Ex3 and thereafter.
  • the frame frequency of the video signal is set to 30 frames / second, for example.
  • the frame frequency of the video signal may be set as appropriate, such as 30 frames / second or 60 frames / second for the NTSC system and 25 frames / second or 50 frames / second for the PAL system.
  • the frame frequency of the video signal may be 24 frames / second used in movies.
  • the video data of each frame output from the A / D converter 4 is input to the demosaic processing unit 54 via the switches 51 and 53.
  • the demosaic processing unit 54 performs demosaic processing on the input video data of each frame.
  • the video processing unit 5 performs various video processing such as white balance correction and gain correction in addition to demosaic processing, and outputs R, G, and B primary color data.
  • the demosaic processing in the demosaic processing unit 54 will be described with reference to FIG. 7A shows an arbitrary frame Fm of video data.
  • the frame Fm is a frame composed of pixels in the effective video period.
  • the number of pixels of the video data is, for example, horizontal 640 pixels and vertical 480 pixels in the VGA standard.
  • the number of pixels of the frame Fm is significantly reduced, and the frame Fm is conceptually illustrated.
  • the video data generated using the Bayer array imaging unit 3 is data in which R, G, and B pixel data are mixed in the frame Fm.
  • the demosaic processing unit 54 generates R interpolation pixel data Ri obtained by calculating R pixel data at a pixel position where no R pixel data is present using surrounding R pixel data.
  • the demosaic processing unit 54 generates an R frame FmR in which all the pixels in one frame shown in FIG. 7B are made up of R pixel data.
  • the demosaic processing unit 54 generates G interpolated pixel data Gi obtained by calculating G pixel data at a pixel position where no G pixel data exists using surrounding G pixel data.
  • the demosaic processing unit 54 generates a G frame FmG in which all the pixels of one frame shown in FIG.
  • the demosaic processing unit 54 generates B interpolation pixel data Bi obtained by calculating B pixel data at a pixel position where B pixel data does not exist using surrounding B pixel data.
  • the demosaic processing unit 54 generates a B frame FmB in which all the pixels of one frame shown in FIG.
  • the demosaic processing unit 54 may use at least R pixel data when interpolating R pixel data, may use at least G pixel data when interpolating G pixel data, and B pixel data. When interpolation is performed, at least B pixel data may be used. In order to improve interpolation accuracy, the demosaic processing unit 54 may use pixel data of another color different from the color of the interpolation pixel data to be generated when interpolating R, G, and B pixel data. Good.
  • R, G, and B pixel data can be interpolated even in pixels located at the upper, lower, left, and right ends of the frame Fm.
  • the R frame FmR, G frame FmG, and B frame FmB generated by the demosaic processing unit 54 are output as R, G, and B primary color data.
  • R, G, and B pixel data has been described in units of frames in order to facilitate understanding, but actually, the R, G, and B pixel data are sequentially output for each pixel.
  • first intermediate mode> In the intermediate mode (first intermediate mode and second intermediate mode described later), the control unit 7 causes the driving unit 8 to insert the dummy glass 22 between the optical lens 1 and the imaging unit 3.
  • the light projection controller 71 turns on the infrared light projection by the infrared light projector 9.
  • the mode switching unit 72 controls the switches 51 and 53 to be connected to the terminal Ta.
  • FIG. 8 shows a state of infrared light projection by the infrared projector 9.
  • the control unit 7 divides one frame period of the normal mode into 1/3, and controls so as to project infrared light in the order of the light projecting units 91, 92, 93, for example.
  • infrared light having a wavelength IR1 (780 nm) is irradiated on the subject in the first 3 period of one frame.
  • the subject is irradiated with infrared light having a wavelength IR2 (940 nm).
  • the subject is irradiated with infrared light having a wavelength IR3 (870 nm).
  • the order of projecting infrared light with wavelengths IR1 to IR3 is arbitrary. However, the order of wavelengths IR1, IR2, IR3 is the best.
  • the imaging unit 3 performs the exposure Ex1R having a high correlation with the R light.
  • the imaging unit 3 performs the exposure Ex1G having a high correlation with the G light.
  • the imaging unit 3 performs exposure Ex1B having a high correlation with the B light.
  • the exposures Ex1R, Ex1G, Ex1B, Ex2R, Ex2G, Ex2B are exposures that combine exposure with visible light and exposure with infrared light.
  • a frame F1IR1 corresponding to the exposure Ex1R, a frame F1IR3 corresponding to the exposure Ex1G, and a frame F1IR2 corresponding to the exposure Ex1B are obtained after a predetermined time. It is done.
  • a frame F2IR1 corresponding to the exposure Ex2R, a frame F2IR3 corresponding to the exposure Ex2G, and a frame F2IR2 corresponding to the exposure Ex2B are obtained after a predetermined time. The same applies to exposures Ex3R, Ex3G, and Ex3B.
  • the frame frequency of the imaging signal in FIG. 8C is 90 frames / second.
  • one frame of the video signal in the normal mode is time-divided to project infrared light of wavelengths IR1 to IR3.
  • ( The frame frequency of the imaging signal in c) is three times the frame frequency in the normal mode.
  • one frame of a video signal having a frame frequency of 30 frames / second shown in FIG. 8D is generated based on the imaging signal of 3 frames shown in FIG.
  • a frame F1IR is generated based on the frames F1IR1, F1IR2, and F1IR3
  • a frame F2IR is generated based on the frames F2IR1, F2IR2, and F2IR3.
  • the video data of each frame corresponding to the imaging signal shown in FIG. 8C output from the A / D converter 4 is input to the previous signal processing unit 52 via the switch 51.
  • FIG. 9A shows an arbitrary frame FmIR1 of the video data generated at the timing when the infrared light having the wavelength IR1 is projected.
  • the R, B, Gr, and Gb pixel data in the frame FmIR1 is attached with a subscript 1 indicating that it is generated in a state where infrared light having the wavelength IR1 is projected.
  • FIG. 9 shows an arbitrary frame FmIR2 of the video data generated at the timing when the infrared light having the wavelength IR2 is projected.
  • the R, B, Gr, and Gb pixel data in the frame FmIR2 is attached with a subscript 2 indicating that it is generated in a state where infrared light having a wavelength IR2 is projected.
  • FIG. 9 shows an arbitrary frame FmIR3 of the video data generated at the timing when the infrared light having the wavelength IR3 is projected.
  • the R, B, Gr, and Gb pixel data in the frame FmIR3 has a subscript 3 indicating that it is generated in a state where infrared light having the wavelength IR3 is projected.
  • the frame FmIR1 shown in FIG. 9A is video data generated in a state where infrared light having a wavelength IR1 having a high correlation with the R light is projected, so that the R pixel data is projected.
  • the pixel data corresponding to the infrared light and the pixel data B and G are pixel data not corresponding to the projected infrared light.
  • the hatching attached to the B, Gr, and Gb pixel data means that the pixel data does not correspond to the projected infrared light.
  • the frame FmIR2 shown in FIG. 9B is video data generated in a state where infrared light having a wavelength IR2 having a high correlation with the G light is projected, so that the G pixel data is projected.
  • the pixel data corresponding to the infrared light, and the R and B pixel data are pixel data not corresponding to the projected infrared light.
  • the hatching attached to the R and B pixel data means that the pixel data does not correspond to the projected infrared light.
  • the frame FmIR3 shown in FIG. 9C is video data generated in a state where infrared light having a wavelength IR3 having a high correlation with the B light is projected, so that the B pixel data is projected.
  • the pixel data corresponding to the infrared light, and the R and G pixel data are pixel data not corresponding to the projected infrared light.
  • the hatching attached to the R, Gr, and Gb pixel data means pixel data that does not correspond to the projected infrared light.
  • the same-position pixel adding unit 522 in the previous signal processing unit 52 individually adds R, Gr, Gb, and B pixel data at the same pixel position according to the following equations (1) to (3), and adds pixels Data R123, Gr123, Gb123, and B123 are generated.
  • the surrounding pixel addition unit 521 in the previous signal processing unit 52 does not operate.
  • R123 ka ⁇ R1 + kb ⁇ R2 + kc ⁇ R3 (1)
  • G123 kd ⁇ G1 + ke ⁇ G2 + kf ⁇ G3 (2)
  • B123 kg ⁇ B1 + kh ⁇ B2 + ki ⁇ B3 (3)
  • R1, G1, and B1 are R, G, and B pixel data in the frame FmIR1, R2, G2, and B2 are R, G, and B pixel data in the frame FmIR2, R3, G3, B3 is R, G, B pixel data in the frame FmIR3. ka to ki are predetermined coefficients.
  • G123 in Formula (2) is Gr123 or Gb123.
  • the same-position pixel adding unit 522 adds R, Gr, Gb, and B pixel data at the same pixel position with hatching to the respective pixel data with R, Gr, Gb, and B that are not hatched. Is added.
  • the same-position pixel adding unit 522 adds the R pixel data at the same pixel position in the frames FmIR2 and FmIR3 to the R pixel data in the frame FmIR1 based on the equation (1), and adds the added pixel data R123.
  • the addition pixel data R123 for red is generated using only the pixel data of the region corresponding to the red color filter in the light receiving element.
  • the same-position pixel addition unit 522 adds the pixel data of Gr and Gb at the same pixel position in the frames FmIR1 and FmIR3 to the pixel data of Gr and Gb in the frame FmIR2 based on the equation (2), and adds pixel data Generate G123. That is, the green summed pixel data G123 is generated using only the pixel data of the region corresponding to the green color filter in the light receiving element.
  • the same-position pixel addition unit 522 adds the B pixel data at the same pixel position in the frames FmIR1 and FmIR2 to the B pixel data in the frame FmIR3 based on the equation (3) to generate the added pixel data B123. . That is, the blue addition pixel data B123 is generated using only the pixel data of the region corresponding to the blue color filter in the light receiving element.
  • the combining unit 523 in the previous signal processing unit 52 generates a frame FmIR123 of the combined video signal shown in (d) of FIG. 9 based on the added pixel data R123, Gr123, Gb123, and B123 generated at each pixel position. To do.
  • the combining unit 523 selects and combines the addition pixel data R123 in the frame FmIR1, the addition pixel data Gr123 and Gb123 in the frame FmIR2, and the addition pixel data B123 in the frame FmIR3. Thereby, the synthesis unit 523 generates a frame FmIR123 of the synthesized video signal.
  • the synthesis unit 523 generates a frame FmIR123 in which the addition pixel data R123, Gr123, Gb123, and B123 are arranged so as to have the same arrangement as the arrangement of the filter elements in the color filter 32.
  • the video data of the frame FmIR123 is generated using the pixel data that is not hatched and the pixel data that is hatched.
  • the reason why the pixel data at the same pixel position is added by the same position pixel addition unit 522 is as follows. Since the imaging is performed in an environment where visible light is present in the intermediate mode, the hatched pixel data includes respective color components based on exposure with visible light. Therefore, the sensitivity of each color can be increased by adding pixel data at the same pixel position.
  • the video data of the frame FmIR123 mainly includes components based on the video signal exposed with visible light. If visible light and infrared light are mixed and there is a relatively large amount of infrared light, exposure with infrared light becomes dominant. In this case, the video data of the frame FmIR123 mainly includes components based on the video signal exposed with infrared light.
  • the relationship between the coefficients ka, kb, and kc in equation (1) is ka> kb, kc, and the relationship between the coefficients kd, ke, and kf in equation (2).
  • Kf> kd, ke, and in equation (3) the magnitude relationship between the coefficients kg, kh, ki is preferably kh> kg, ki. This is because the wavelength IR1 has a high correlation with the R light, the wavelength IR2 has a high correlation with the G light, and the wavelength IR3 has a high correlation with the B light.
  • the R pixel data is mainly the R pixel data in the frame FmIR1
  • the G pixel data is the G pixel data in the frame FmIR2
  • the B pixel data is mainly the B pixel data in the frame FmIR3. it can.
  • the video data of the frame FmIR123 output from the previous signal processing unit 52 is input to the demosaic processing unit 54 via the switch 53.
  • the demosaic processing unit 54 performs demosaic processing on the video data of the input frame FmIR123, as in the normal mode.
  • the video processing unit 5 performs various video processing such as white balance correction and gain correction in addition to demosaic processing, and outputs R, G, and B primary color data.
  • the demosaic processing in the demosaic processing unit 54 will be described with reference to FIG. FIG. 10A shows a frame FmIR123.
  • the demosaic processing unit 54 calculates the R pixel data at the pixel position where the R pixel data does not exist using the surrounding R pixel data, and generates the R interpolation pixel data R123i.
  • the demosaic processing unit 54 generates an R frame FmIR123R in which all the pixels in one frame shown in FIG.
  • the demosaic processing unit 54 calculates the G pixel data at the pixel position where the G pixel data does not exist using the surrounding G pixel data, and generates the G interpolation pixel data G123i.
  • the demosaic processing unit 54 generates a G frame FmIR123G in which all the pixels of one frame shown in FIG.
  • the demosaic processing unit 54 calculates the B pixel data at the pixel position where the B pixel data does not exist using the surrounding B pixel data, and generates the B interpolation pixel data B123i.
  • the demosaic processing unit 54 generates a B frame FmIR123B in which all the pixels in one frame shown in FIG.
  • the previous signal processing unit 52 In the normal mode, the previous signal processing unit 52 is disabled, and in the intermediate mode, the previous signal processing unit 52 may be operated except for the surrounding pixel adding unit 521. In the normal mode and the intermediate mode, the demosaic processing unit 54 in the video processing unit 5 and the signal processing unit such as white balance correction and gain correction can be shared.
  • Second intermediate mode The operation in the second intermediate mode will be described with reference to FIGS. In the operation in the second intermediate mode, the description of the same part as the operation in the first intermediate mode is omitted.
  • the frames FmIR1, FmIR2, and FmIR3 in (a) to (c) of FIG. 11 are the same as the frames FmIR1, FmIR2, and FmIR3 in (a) to (c) of FIG.
  • the combining unit 523 selects and combines R1 which is R pixel data in the frame FmIR1, Gr2 and Gb2 which are G pixel data in the frame FmIR2, and B3 which is B pixel data in the frame FmIR3. As a result, the synthesis unit 523 generates a frame FmIR123 'of the synthesized video signal shown in FIG.
  • the frame FmIR123 ' is video data obtained by collecting R, Gr, Gb, and B pixel data not hatched in the frames FmIR1, FmIR3, and FmIR2 into one frame.
  • Only the pixel data for the green color using only the pixel data of the region corresponding to the green color filter in the selected state, and the pixel data of the region corresponding to the blue color filter in the state of projecting the infrared light having the wavelength IR3 are used.
  • the pixel data is for blue.
  • the synthesizing unit 523 generates a frame FmIR123 'in which the pixel data R1, Gr2, Gb2, and B3 are arranged so as to have the same arrangement as the arrangement of the filter elements in the color filter 32.
  • the same-position pixel adding unit 522 sets the coefficient ka in Equation (1) to 1, the coefficients kb and kc to 0, the coefficient ke in Equation (2) to 1, the coefficients kd and kf to 0,
  • the coefficient ki is 1 and the coefficients kg and kh are 0.
  • the R pixel data in the frame FmIR1 the Gr and Gb pixel data in the frame FmIR2, and the B pixel data in the frame FmIR3 have the same values.
  • the combining unit 523 selects the R pixel data in the frame FmIR1, the Gr and Gb pixel data in the frame FmIR2, and the B pixel data in the frame FmIR3. FmIR123 'can be generated.
  • the front signal processing unit 52 In the second intermediate mode, the front signal processing unit 52 generates pixel data (hatched) with infrared light projected to generate pixel data having the same color as the pixel data. Video data of the frame FmIR123 ′ is generated using only (non-pixel data).
  • the arithmetic processing can be simplified and the frame memory can be reduced.
  • the demosaic processing in the demosaic processing unit 54 will be described with reference to FIG. FIG. 12A shows the frame FmIR123 '.
  • the demosaic processing unit 54 calculates the R pixel data at the pixel position where the R pixel data does not exist using the surrounding R pixel data, and generates the R interpolation pixel data R1i.
  • the demosaic processing unit 54 generates an R frame FmIR123′R in which all the pixels in one frame shown in FIG. 12B are made up of R pixel data.
  • the demosaic processing unit 54 calculates the G pixel data at the pixel position where the G pixel data does not exist using the surrounding G pixel data, and generates the G interpolation pixel data G2i.
  • the demosaic processing unit 54 generates a G frame FmIR123′G in which all the pixels in one frame shown in FIG.
  • the demosaic processing unit 54 calculates the B pixel data at the pixel position where the B pixel data does not exist using the surrounding B pixel data, and generates the B interpolation pixel data B3i.
  • the demosaic processing unit 54 generates a B frame FmIR123′B in which all the pixels of one frame shown in FIG.
  • the pixel data for red is generated from the pixel data obtained from the region corresponding to the red color filter in the light receiving element, and obtained from the region corresponding to the green color filter in the light receiving element.
  • Green pixel data is generated from the pixel data
  • blue pixel data is generated from the pixel data obtained from the region corresponding to the blue color filter in the light receiving element.
  • ⁇ Night Vision Mode First Night Vision Mode>
  • the control unit 7 causes the drive unit 8 to place the dummy glass 22 between the optical lens 1 and the imaging unit 3. Insert it.
  • the light projection controller 71 turns on the infrared light projection by the infrared light projector 9.
  • the mode switching unit 72 controls the switches 51 and 53 to be connected to the terminal Ta.
  • the imaging unit 3 can be regarded as a monochromatic imaging device.
  • the surrounding pixel addition unit 521 in the previous signal processing unit 52 adds pixel data located in the vicinity to each pixel data in order to improve the sensitivity of infrared light.
  • the surrounding pixel addition unit 521 when the R pixel is the target pixel, the surrounding pixel addition unit 521 includes the G and B positioned around the R pixel data of the target pixel. The pixel data of 8 pixels are added.
  • red pixel data was generated from the pixel data obtained from the region corresponding to the red color filter in the light receiving element, but in the night vision mode, a wider area than in the intermediate mode.
  • Pixel data for red is generated from the pixel data obtained from the above.
  • pixel data obtained from an area corresponding to nine pixels including the target pixel is used for each color.
  • the surrounding pixel adding unit 521 has eight R, G, and B pixels positioned around the G pixel data of the target pixel. Are added.
  • the target pixel G is a Gb pixel
  • the surrounding G is a Gr pixel.
  • the pixel data for green was generated from the pixel data obtained from the area corresponding to the green color filter in the light receiving element, but in the night vision mode, a wider area than in the intermediate mode.
  • the pixel data for green is generated from the pixel data obtained from the above.
  • the surrounding pixel adding unit 521 when the B pixel is the target pixel, the surrounding pixel adding unit 521 includes the R and G pixels of 8 pixels positioned around the B pixel data of the target pixel. Add data.
  • blue pixel data was generated from the pixel data obtained from the region corresponding to the blue color filter in the light receiving element, but in the night vision mode, a wider area than in the intermediate mode.
  • the pixel data for blue is generated from the pixel data obtained from the above.
  • the surrounding pixel adding unit 521 may simply add 9 pixels of the pixel data of the target pixel and the surrounding 8 pixel pixel data, or may apply a predetermined weight to the surrounding 8 pixel pixel data. May be added to the pixel data of the pixel of interest.
  • the weighting for the pixel data of the surrounding 8 pixels may be partially 0. That is, the addition of the pixel data of the surrounding pixels to the pixel data of the target pixel in the surrounding pixel addition unit 521 is not limited to adding all the pixel data of 8 pixels.
  • the surrounding pixel addition unit 521 may add only pixel data of pixels located in the vertical and horizontal directions to pixel data of the target pixel, and may not add pixel data of pixels located in an oblique direction.
  • an image sensor that can read out a plurality of pixels called binning as a single pixel.
  • an addition process by an image sensor having a binning function may be performed instead of the addition process by the surrounding pixel addition unit 521.
  • Binning by the image sensor is substantially equivalent to addition processing by the surrounding pixel addition unit 521.
  • the frames FmIR1, FmIR3, and FmIR2 are the same as the frames FmIR1, FmIR3, and FmIR2 of FIGS. 9A to 9C.
  • R1ad, Gr1ad, Gb1ad, B1ad, R2ad, Gr2ad, Gb2ad, B2ad, R3ad, Gr3ad, Gb3ad, and B3ad are converted to R, Gr, Gb, and B pixel data, respectively.
  • the surrounding pixel addition unit 521 performs addition processing shown in FIG. 13 on the pixel data of the frames FmIR1, FmIR3, and FmIR2, thereby performing frames FmIR1ad, FmIR2ad, and FmIR3ad shown in (d) to (f) of FIG. Is generated.
  • the frames FmIR1ad, FmIR2ad, and FmIR3ad are the same as the frames FmIR1ad, FmIR2ad, and FmIR3ad in (d) to (f) of FIG.
  • the same-position pixel addition unit 522 adds the pixel data of R2ad and R3ad at the same pixel position in the frames FmIR2ad and FmIR3ad to the pixel data of R1ad in the frame FmIR1ad based on Expression (1). Then, the addition pixel data R123ad is generated.
  • the same-position pixel addition unit 522 adds the pixel data of Gr1ad, Gb1ad, Gr3ad, and Gb3ad at the same pixel position in the frames FmIR1ad and FmIR3ad to the pixel data of Gr2ad and Gb2ad in the frame FmIR2ad based on Expression (2).
  • the addition pixel data Gr123ad and Gb123ad are generated.
  • the same-position pixel addition unit 522 adds the pixel data of B1ad and B2ad at the same pixel position in the frames FmIR1ad and FmIR2ad to the pixel data of B3ad in the frame FmIR3ad based on the equation (3), and adds the added pixel data B123ad. Generate.
  • the synthesis unit 523 selects and synthesizes the addition pixel data R123ad in the frame FmIR1ad, the addition pixel data Gr123ad and Gb123ad in the frame FmIR2ad, and the addition pixel data B123ad in the frame FmIR3ad. As a result, the synthesis unit 523 generates a frame FmIR123ad of the synthesized video signal shown in FIG.
  • the synthesizing unit 523 generates a frame FmIR123ad in which the addition pixel data R123ad, Gr123ad, Gb123ad, and B123ad are arranged so as to have the same arrangement as the arrangement of the filter elements in the color filter 32.
  • FIG. 16 shows the frame FmIR123ad.
  • the demosaic processing unit 54 calculates the R pixel data at the pixel position where the R pixel data does not exist using the surrounding R pixel data, and generates the R interpolation pixel data R123adi.
  • the demosaic processing unit 54 generates an R frame FmIR123adR in which all pixels in one frame shown in FIG. 16B are made up of R pixel data.
  • the demosaic processing unit 54 calculates the G pixel data at the pixel position where the G pixel data does not exist using the surrounding G pixel data, and generates the G interpolation pixel data G123adi.
  • the demosaic processing unit 54 generates a G frame FmIR123adG in which all the pixels in one frame shown in FIG.
  • the demosaic processing unit 54 calculates the B pixel data at the pixel position where the B pixel data does not exist using the surrounding B pixel data, and generates the B interpolation pixel data B123adi.
  • the demosaic processing unit 54 generates a B frame FmIR123adB in which all the pixels in one frame shown in FIG.
  • the first intermediate mode and the first night-vision mode are different in that the former does not operate the surrounding pixel adding unit 521 while the latter operates the surrounding pixel adding unit 521.
  • the mode switching unit 72 may operate the surrounding pixel addition unit 521 in the night vision mode.
  • the operation of the demosaic processing unit 54 in the night vision mode is substantially the same as the operation of the demosaic processing unit 54 in the normal mode and the intermediate mode.
  • the demosaic processing unit 54 in the video processing unit 5 and a signal processing unit such as white balance correction and gain correction can be shared.
  • ⁇ Night Vision Mode: Second Night Vision Mode> The operation in the second night-vision mode will be described with reference to FIGS. In the operation in the second night vision mode, the description of the same part as the operation in the first night vision mode is omitted.
  • the frames FmIR1ad, FmIR2ad, and FmIR3ad in (a) to (c) of FIG. 17 are the same as the FmIR1ad, FmIR2ad, and FmIR3ad in (a) to (c) of FIG.
  • the synthesizing unit 523 selects and synthesizes R1ad that is R pixel data in the frame FmIR1ad, Gr2ad and Gb2ad that are G pixel data in the frame FmIR2, and B3ad that is B pixel data in the frame FmIR3. Thereby, the synthesis unit 523 generates a frame FmIR123′ad of the synthesized video signal shown in FIG.
  • the synthesizing unit 523 generates a frame FmIR123′ad in which the addition pixel data R1ad, Gr2ad, Gb2ad, and B3ad are arranged so that the arrangement is the same as the arrangement of the filter elements in the color filter 32.
  • the red addition pixel data R1ad in the frame FmIR123′ad is obtained from a wider area than the area used for generating the red pixel data in the intermediate mode. It is generated from the pixel data.
  • the additional pixel data Gr2ad for green in the frame FmIR123'ad is generated from pixel data obtained from an area larger than the area used for generating the pixel data for green in the intermediate mode. ing.
  • the additional pixel data B3ad for blue in the frame FmIR123'ad is generated from pixel data obtained from an area larger than the area used for generating the pixel data for blue in the intermediate mode. ing.
  • the same-position pixel addition unit 522 sets the coefficient ka in equation (1) to 1, the coefficients kb and kc to 0, and the coefficient ke in equation (2) to 1.
  • the coefficients kd and kf are set to 0, the coefficient ki in the equation (3) is set to 1, and the coefficients kg and kh are set to 0.
  • the pixel data of R1ad in the frame FmIR1ad, the pixel data of Gr2ad and Gb2ad in the frame FmIR2ad, and the pixel data of B3ad in the frame FmIR3ad have the same values.
  • the combining unit 523 selects the pixel data of R1ad in the frame FmIR1ad, the pixel data of Gr2ad and Gb2ad in the frame FmIR2ad, and the pixel data of B3ad in the frame FmIR3ad.
  • a frame FmIR123'ad can be generated.
  • the demosaic processing in the demosaic processing unit 54 will be described with reference to FIG. FIG. 18A shows a frame FmIR123′ad.
  • the demosaic processing unit 54 calculates the R pixel data at the pixel position where the R pixel data does not exist using the surrounding R1ad pixel data, and generates the R interpolation pixel data R1adi.
  • the demosaic processing unit 54 generates an R frame FmIR123′adR in which all the pixels of one frame shown in FIG. 18B are made up of R pixel data.
  • the demosaic processing unit 54 calculates the G pixel data at the pixel position where the G pixel data does not exist using the surrounding Gr2ad and Gb2ad pixel data, and generates the G interpolation pixel data G2adi.
  • the demosaic processing unit 54 performs interpolation to generate a G frame FmIR123′adG in which all the pixels of one frame shown in FIG.
  • the demosaic processing unit 54 generates B interpolation pixel data B3adi obtained by calculating B pixel data at a pixel position where B pixel data does not exist using surrounding B3ad pixel data.
  • the demosaic processing unit 54 generates a B frame FmIR123′adB in which all the pixels in one frame shown in FIG.
  • the second intermediate mode and the second night vision mode are different in that the former does not operate the surrounding pixel adding unit 521 while the latter operates the surrounding pixel adding unit 521.
  • pixel data for each color is generated from each pixel data obtained from the region corresponding to each color in the light receiving element, but in the night vision mode, the surrounding pixels are added. It can also be said that pixel data for each color is generated from pixel data obtained from a region wider than each region for generating pixel data for each color.
  • FIG. 19A schematically shows, as an example, how the brightness of the surrounding environment changes as time passes from the daytime period to the nighttime period.
  • the brightness decreases as time elapses from daytime to evening, and it becomes almost dark after time t3.
  • the brightness shown in FIG. 19A substantially indicates the amount of visible light, and there is almost no visible light after time t3.
  • the control unit 7 can determine the brightness of the surrounding environment based on the luminance level of the video signal (video data) input from the video processing unit 5. As shown in FIG. 19B, the mode switching unit 72 sets the normal mode when the brightness is equal to or higher than a predetermined threshold Th1 (first threshold), and sets the predetermined threshold Th2 (less than the threshold Th1). When it is equal to or greater than the second threshold), the intermediate mode is selected.
  • Th1 first threshold
  • Th2 less than the threshold Th1
  • the intermediate mode is selected.
  • the imaging apparatus 101 switches the mode to the normal mode from time t1 when the brightness reaches the threshold value Th1, to the intermediate mode from time t1 to time t2 when the brightness reaches the threshold value Th2, and to the night vision mode after time t2. Switch automatically.
  • the intermediate mode may be either the first intermediate mode or the second intermediate mode
  • the night vision mode may be either the first night vision mode or the second night vision mode.
  • the brightness immediately before time t3 when almost no visible light is present is set as the threshold value Th2, but the brightness at time t3 may be set as the threshold value Th2.
  • the mode switching unit 72 has a period of time t1 in which the visible light is relatively large in the intermediate mode period, the first intermediate mode, and a period of time t2 in which the visible light is relatively small.
  • the period may be set to the second intermediate mode.
  • the night-vision mode may be either the first night-vision mode or the second night-vision mode.
  • the light projection control unit 71 controls on / off of the infrared projector 9, and the mode switching unit 72 switches the operation / non-operation of each unit in the video processing unit 5.
  • a mode can be realized.
  • the infrared projector 9 is off, the surrounding pixel adding unit 521, the same position pixel adding unit 522 and the synthesizing unit 523 are not operating, and the demosaic processing unit 54 is operating.
  • the infrared projector 9 In the first intermediate mode, the infrared projector 9 is on, the surrounding pixel adding unit 521 is not operating, and the same-position pixel adding unit 522, the combining unit 523, and the demosaic processing unit 54 are operating. In the second intermediate mode, the infrared projector 9 is on, the surrounding pixel adding unit 521 and the same-position pixel adding unit 522 are not operating, and the synthesizing unit 523 and the demosaic processing unit 54 are operating.
  • the operation and non-operation in the same position pixel addition unit 522 can be easily switched by appropriately setting the values of the coefficients ka to ki in the equations (1) to (3) as described above.
  • the infrared projector 9 In the first night-vision mode, the infrared projector 9 is on, and the surrounding pixel adding unit 521, the same-position pixel adding unit 522, the synthesizing unit 523, and the demosaic processing unit 54 are all in an operating state. In the second night-vision mode, the infrared projector 9 is on, the same-position pixel adding unit 522 is not operating, and the surrounding pixel adding unit 521, the combining unit 523, and the demosaic processing unit 54 are operating.
  • the surrounding pixel adding unit 521 sets the coefficient multiplied by the surrounding pixel data to a coefficient exceeding 0 (for example, 1) in the calculation formula for adding the surrounding pixel data to the pixel data of the target pixel.
  • the surrounding pixel addition processing can be put into an operation state.
  • the surrounding pixel adding unit 521 can make the surrounding pixel addition processing inoperative when the coefficient multiplied by the surrounding pixel data is set to 0 in the calculation formula.
  • the operation and non-operation of the surrounding pixel addition unit 521 can be easily switched by appropriately setting the coefficient value.
  • the method by which the control unit 7 detects the brightness of the surrounding environment is not limited to the method based on the luminance level of the video signal.
  • the brightness sensor 11 may detect the brightness of the surrounding environment.
  • the brightness of the surrounding environment may be determined based on both the luminance level of the video signal and the brightness detected by the brightness sensor 11.
  • the control unit 7 does not directly detect the brightness of the surrounding environment, but roughly assumes the brightness of the surrounding environment based on the time (date) and time (time zone) in one year, and the mode switching unit 72 may be switched to each mode.
  • any one of the normal mode, the intermediate mode, and the night vision mode is set corresponding to the combination of the date and the time zone.
  • a clock 73 in the control unit 7 manages the date and time.
  • the control unit 7 refers to the date and time indicated by the clock 73 and reads the mode set from the mode setting table 12.
  • the light projection control unit 71 and the mode switching unit 72 control the imaging device so that the mode read from the mode setting table 12 is set.
  • the imaging device may be controlled so that the user manually selects a mode using the operation unit 13 and the projection control unit 71 and the mode switching unit 72 are in the selected mode.
  • the operation unit 13 may be an operation button provided on the housing of the imaging apparatus or a remote controller.
  • step S1 the control unit 7 determines whether or not the brightness of the surrounding environment is equal to or greater than the threshold value Th1. If it is equal to or greater than the threshold Th1 (YES), the control unit 7 causes the process in the normal mode to be executed in step S3. If it is not equal to or greater than the threshold value Th1 (NO), the control unit 7 determines whether or not the brightness of the surrounding environment is equal to or greater than the threshold value Th2 in step S2.
  • control unit 7 executes processing in the intermediate mode in step S4. If it is not greater than or equal to the threshold Th2 (NO), the control unit 7 causes the process in the night-vision mode to be executed in step S5.
  • the control unit 7 returns the process to step S1 after steps S3 to S5, and repeats step S1 and subsequent steps.
  • FIG. 25 shows specific processing in the normal mode in step S3.
  • the control part 7 (light projection control part 71) turns off the infrared light projector 9 in step S31.
  • the control unit 7 inserts the infrared cut filter 21.
  • the control unit 7 (mode switching unit 72) connects the switches 51 and 53 to the terminal Tb.
  • the order of steps S31 to S33 is arbitrary and may be simultaneous.
  • the control unit 7 causes the imaging unit 3 to image the subject in step S34.
  • the control unit 7 controls the video processing unit 5 so that the demosaic processing unit 54 performs demosaic processing on the frames constituting the video signal generated by the imaging unit 3 imaging the subject.
  • FIG. 26 shows specific processing in the intermediate mode in step S4.
  • the control unit 7 (light projection control unit 71) turns on the infrared projector 9 so that infrared light of wavelengths IR1 to IR3 is projected in a time-sharing manner from the light projecting units 91 to 93.
  • the control unit 7 inserts the dummy glass 22 in step S42.
  • the control unit 7 (mode switching unit 72) connects the switches 51 and 53 to the terminal Ta.
  • the order of steps S41 to S43 is arbitrary and may be simultaneous.
  • the control unit 7 causes the imaging unit 3 to image the subject in step S44.
  • the imaging unit 3 projects infrared light with a wavelength IR1 associated with R, infrared light with a wavelength IR2 associated with G, and infrared light with a wavelength IR3 associated with B, respectively. Take a picture of the subject in the
  • step S45 the control unit 7 (mode switching unit 72) controls the pre-signal processing unit 52 so that the surrounding pixel addition unit 521 is deactivated and the synthesis unit 523 is operated to generate a synthesized video signal.
  • the frames constituting the video signal generated when the imaging unit 3 images the subject in the state where infrared light of wavelengths IR1, IR2, and IR3 are respectively projected are the first frame, the second frame, 3 frames are assumed.
  • the synthesizing unit 523 converts the three primary color pixel data based on the R pixel data in the first frame, the G pixel data in the second frame, and the B pixel data in the third frame into color
  • the filters 32 are arranged so as to have the same arrangement as the filter elements.
  • the combining unit 523 generates a combined video signal by combining the first to third frames into one frame in this way.
  • step S46 the control unit 7 controls the video processing unit 5 so that the demosaic processing unit 54 performs demosaic processing on the frame of the composite video signal.
  • the demosaic processing unit 54 performs demosaic processing for generating an R frame, a G frame, and a B frame based on the frame of the composite video signal, and sequentially generates the demosaiced three primary color frames. .
  • the demosaic processing unit 54 can generate an R frame by interpolating the R pixel data at a pixel position where the R pixel data does not exist.
  • the demosaic processing unit 54 can generate the G frame by interpolating the G pixel data at the pixel position where the G pixel data does not exist.
  • the demosaic processing unit 54 can generate the B frame by interpolating the B pixel data at the pixel position where the B pixel data does not exist.
  • step S45 the same position pixel addition unit 522 is operated in step S45, and in the case of the second intermediate mode, the same position pixel addition unit 522 is not operated in step S45. do it.
  • FIG. 27 shows specific processing in the night-vision mode in step S5.
  • the control unit 7 (light projection control unit 71) turns on the infrared projector 9 so that infrared light of wavelengths IR1 to IR3 is projected in a time-sharing manner from the light projecting units 91 to 93.
  • the control unit 7 inserts the dummy glass 22 in step S52.
  • the control unit 7 (mode switching unit 72) connects the switches 51 and 53 to the terminal Ta.
  • the order of steps S51 to S53 is arbitrary and may be simultaneous.
  • the control unit 7 causes the imaging unit 3 to image the subject in step S54.
  • the control unit 7 (mode switching unit 72) controls the previous signal processing unit 52 to operate the surrounding pixel addition unit 521 and the synthesis unit 523 to generate a synthesized video signal.
  • step S56 the control unit 7 controls the video processing unit 5 so that the demosaic processing unit 54 performs demosaic processing on the frame of the composite video signal.
  • step S55 the same position pixel addition unit 522 is operated in step S55, and in the case of the second night vision mode, the same position pixel addition unit 522 is disabled in step S55. It may be an operation.
  • control unit 7 or an integrated part of the video processing unit 5 and the control unit 7 is configured by a computer (microcomputer), and the video signal processing program (computer program) is executed by the computer. It is also possible to realize the same operation as that of the imaging apparatus 101 of this embodiment.
  • FIG. 28 shows processing that the video signal processing program causes the computer to execute.
  • step S401 the video signal processing program controls the infrared projector 9 so as to project infrared light of wavelengths IR1, IR2, and IR3 associated with R, G, and B to the computer. To execute the process.
  • step S401 may be executed outside the video signal processing program.
  • the process of inserting the dummy glass 22 is omitted.
  • the process for inserting the dummy glass 22 may also be executed outside the video signal processing program.
  • step S402 the video signal processing program captures the first frame of the video signal generated by the imaging unit 3 imaging the subject in a state where infrared light having the wavelength IR1 is projected on the computer.
  • a process of acquiring pixel data to be configured is executed.
  • step S403 the video signal processing program captures the second frame of the video signal generated when the imaging unit 3 images the subject in a state where infrared light having the wavelength IR2 is projected on the computer.
  • a process of acquiring pixel data to be configured is executed.
  • step S404 the video signal processing program captures a third frame of the video signal generated when the imaging unit 3 images the subject in a state where infrared light having the wavelength IR3 is projected on the computer.
  • a process of acquiring pixel data to be configured is executed. The order of steps S402 to S404 is arbitrary.
  • step S405 the video signal processing program causes the computer to arrange the R, G, and B pixel data so as to be in the same arrangement as the arrangement of the filter elements in the color filter 32, and synthesize the synthesized video into one frame.
  • a process for generating a signal is executed.
  • the video signal processing program does not cause the computer to execute the step of adding surrounding pixels in step S405.
  • step S406 the video signal processing program causes the computer to perform a process of generating a R, G, B frame by performing a demosaic process on the frame of the composite video signal.
  • step S5 in FIG. 24 when the control in the night vision mode, which is step S5 in FIG. 24, is configured by the video signal processing program, the processing of adding peripheral pixels is executed in the computer in step S405 in FIG. You can do it.
  • the video signal processing program may be a computer program recorded on a computer-readable recording medium.
  • the video signal processing program may be provided in a state where it is recorded on a recording medium, or may be provided via a network such as the Internet so that the computer can download the video signal processing program.
  • the computer-readable recording medium may be any non-temporary arbitrary recording medium such as a CD-ROM or a DVD-ROM.
  • the imaging apparatus configured as shown in FIG. 1, for example, a plurality of units may be provided as necessary, and the intermediate mode and the night vision mode may be executed simultaneously.
  • the video output unit 6 may output both the video signal generated in the intermediate mode and the video signal generated in the night vision mode.
  • the mode switching unit 72 switches between a state in which the video output unit 6 outputs the video signal generated in the intermediate mode and a state in which the video output unit 6 outputs the video signal generated in the night vision mode. May be. At this time, as described above, switching may be performed according to the brightness of the surrounding environment, the time, or the like.
  • the video processing unit 5 (video processing device) may be separated from other units.
  • the normal mode is switched to the night vision mode or the night vision mode is switched to the normal mode without using the intermediate mode.
  • the intermediate mode When the intermediate mode is not used, it is sufficient to select and use either the normal mode or the night vision mode in an environment where the use of the intermediate mode described above is suitable. In this case, the color image signal is not satisfactory as compared with the case where the intermediate mode is used, but imaging is possible.
  • the subject is photographed with one imaging device in a situation where the ambient brightness changes, for example, when the subject is photographed all day with a surveillance camera. There is an effect that can be done.
  • the normal mode is switched to the intermediate mode and the intermediate mode is switched to the normal mode without using the night vision mode.
  • the night vision mode may not be installed.
  • the night vision mode may not be used.
  • An imaging apparatus equipped with only the normal mode and the intermediate mode can be used when the night vision mode does not have to be used.
  • the intermediate mode may be used in an environment where the above-described night vision mode is suitable.
  • the color image signal is not good as compared with the case of using the night vision mode, but imaging is possible.
  • ⁇ Infrared light projection timing synchronization method First example>
  • a case where an imaging system that images the subject SB1 with two imaging devices 101 is configured and the timing adjustment mode is set is considered.
  • infrared light is projected by the infrared projector 9 to synchronize the light projection timing of the infrared light. Therefore, it is preferable to set the timing adjustment mode at night when visible light is weak.
  • One of the two imaging devices 101 shown in FIG. 29 is the own imaging device 101, and the other is the other imaging device 101.
  • the two imaging devices 101 are connected by wire or wireless.
  • FIG. 30 shows infrared light projection by the infrared projector 9 of its own imaging device 101, and (c) shows infrared light projection by the infrared projector 9 of another imaging device 101.
  • the phases of infrared light projection by the infrared projectors 9 of the two imaging devices 101 are not synchronized and are shifted by a period shorter than the period of projecting infrared light of one wavelength.
  • (b) shows an exposure period (hereinafter, also simply referred to as a frame) of a frame generated by imaging by its own imaging apparatus 101.
  • FIG. 31 shows infrared light projection by the infrared projector 9 of its own imaging device 101, and (c) shows infrared light projection by the infrared projector 9 of another imaging device 101. . It is assumed that the infrared light projections by the infrared projectors 9 of the two imaging devices 101 are not synchronized and are shifted by a period during which infrared light of one wavelength is projected.
  • (b) shows a frame generated by imaging by its own imaging device 101.
  • infrared projectors 9 of the two imaging devices 101 individually project infrared light, infrared light of different wavelengths are mixed, and a color image capable of correct color reproduction cannot be captured.
  • a synchronization method for synchronizing the timings at which the infrared projectors 9 of the two imaging devices 101 project infrared light with wavelengths IR1, IR2, and IR3 will be described.
  • two imaging devices 101 are used, but three or more imaging devices may be used.
  • FIG. 32 schematically shows the configuration of the imaging apparatus 101 described in FIG.
  • the synchronization signal transmission unit 76t of the imaging apparatus 101M transmits a synchronization signal Ssync to the imaging apparatus 101S.
  • the synchronization signal receiving unit 76r of the imaging device 101S receives the synchronization signal Ssync.
  • the control unit 7 of the imaging device 101S controls the timing of projecting infrared light with wavelengths IR1, IR2, and IR3 based on the received synchronization signal Ssync.
  • the imaging apparatus 101S generates a reference clock based on the received synchronization signal Ssync using a PLL circuit (not shown) or the like.
  • the imaging device 101S operates each unit based on this reference clock.
  • the synchronization signal Ssync is a pulse indicating the head of one frame period for projecting infrared light of wavelengths IR1, IR2, and IR3 shown in FIG. 33B, as shown in FIG. Good. That is, the synchronization signal Ssync may be a pulse having a frame period.
  • the frame is a frame of the video signal output from the video output unit 6.
  • a pulse indicating the head of a period during which infrared light of wavelengths IR1, IR2, and IR3 is projected may be used as the synchronization signal Ssync.
  • a pulse indicating the head of a period during which infrared light of any one of the wavelengths IR1, IR2, and IR3 is projected may be used as the synchronization signal Ssync.
  • the synchronization signal Ssync only needs to be synchronized with a predetermined period (one frame period) in which infrared light with wavelengths IR1, IR2, and IR3 is projected.
  • the synchronization signal Ssync may be synchronized with one or two of the divided periods obtained by dividing the predetermined period into three. Further, a plurality of types of synchronization signals Ssync may be used, and different synchronization signals Ssync may be used in each of the divided periods obtained by dividing the predetermined period into three.
  • the synchronization signal Ssync is supplied from the imaging device 101M to the imaging device 101S, in principle, the infrared light projections by the respective infrared projectors 9 are synchronized, and infrared light with wavelengths IR1, IR2, and IR3 is generated.
  • the timing to project can be matched.
  • the wavelengths IR1 and IR2 are caused by the delay caused by the wiring length and the difference between the internal delay times of the two imaging devices 101.
  • IR3 infrared light projection timing may vary.
  • the timing of the infrared light by the infrared projector 9 of the imaging device 101S is matched with the timing of the infrared light by the infrared projector 9 of the imaging device 101M as follows.
  • the infrared light projections by the two infrared projectors 9 are synchronized.
  • the light projection control unit 71 is one infrared light among the infrared lights having wavelengths IR1, IR2, and IR3.
  • Infrared projector 9 is controlled so that only light is projected within one divided period in the three divided periods, and the remaining two divided periods are set to no light projection.
  • One infrared light may be any of infrared light having wavelengths IR1, IR2, and IR3. In the present embodiment, only infrared light having a wavelength IR1 is projected.
  • the light projection control unit 71 controls the infrared projector 9 so that infrared light is not projected in all periods.
  • the imaging device 101S captures the subject SB1 and generates a frame of the video signal in a state where only one infrared light is projected by the infrared projector 9 of the imaging device 101M as shown in FIG. To do.
  • the imaging device 101S When the imaging devices 101M and 101S are set to the timing adjustment mode, the imaging device 101S is effectively irradiated with infrared light projected from the infrared projector 9 of the imaging device 101M toward the imaging device 101S. You may do it.
  • Fig. 34 (b) shows a state in which the phase of the infrared light projection timing shown in Fig. 34 (a) matches the phase of the frame generated by imaging by the imaging device 101S.
  • the frame FIR1 is an R frame generated during a period in which infrared light having the wavelength IR1 is projected.
  • the frames FIR2 and FIR3 are G and B frames that are generated in the non-projection period when infrared light with wavelengths IR2 and IR3 is projected.
  • the R frame FIR1 is bright, and the G and B frames FIR2 and FIR3 are dark. Therefore, in the state of FIG. 34B, the luminance level determined by the luminance level determination unit 75 of the imaging apparatus 101S is increased only in the R luminance level in the frame FIR1, and the luminance in the G and B frames FIR2 and FIR3. The level is very low.
  • FIG. 34 (c) shows a case where the phase is slightly delayed
  • FIG. 34 (d) shows a case where the phase is slightly advanced.
  • the phase advances as shown in FIG. 34D, imaging for generating the G frame FIR2 is started before the projection of the infrared light with the wavelength IR1 is completed.
  • the frame FIR2 is in a slightly brighter and slightly darker state than in the case of FIG. Therefore, the G luminance level in the G frame FIR2 determined by the luminance level determination unit 75 is slightly higher than that in the case of FIG. 34B.
  • the luminance levels of R, G, and B are determined based on the timing at which the infrared projector 9 of the imaging device 101M projects infrared light having the wavelength IR1, and the R, G, and B frames FIR1, FIR2, and FIR3 in the imaging device 101S. It changes as shown in FIG. 35 according to the generation timing.
  • the luminance level of B becomes higher than the luminance level of G.
  • the luminance level of R is lower than the proper state.
  • the luminance level of G becomes higher than the luminance level of B.
  • the luminance level of R is lower than the proper state.
  • the luminance level determination unit 75 of the imaging device 101S determines the magnitude relationship between the G luminance level and the B luminance level.
  • the control unit 7 advances or delays the timing of operating the infrared projector 9 and the previous signal processing unit 52 based on the synchronization signal Ssync that operates the imaging device 101S, depending on the magnitude relationship.
  • the light projection control unit 71 sets the infrared light projector 9 to advance the timing of projecting infrared light of wavelengths IR1, IR2, and IR3. Control. At the same time, the control unit 7 controls the previous signal processing unit 52 to advance the timing of generating the R, G, and B frames FIR1, FIR2, and FIR3.
  • the light projecting control unit 71 controls the infrared light projector 9 so as to delay the timing of projecting the infrared light with wavelengths IR1, IR2, and IR3.
  • the control unit 7 controls the previous signal processing unit 52 so as to delay the timing of generating the R, G, and B frames FIR1, FIR2, and FIR3.
  • the control unit 7 controls the infrared light projector 9 and the front signal processing unit 52 until the luminance levels of G and B become equal values.
  • the control unit 7 holds the adjustment amount at the timing when the luminance levels of G and B become equal values.
  • the imaging apparatus 101S controls each unit so as to shift the timing for operating the imaging apparatus 101S by the adjustment amount obtained and held in the timing adjustment mode after canceling the timing adjustment mode.
  • the imaging system configured as shown in FIG. 29 can image the subject SB1 in a state where the infrared light projection timings of the infrared projectors 9 of the imaging device 101M and the imaging device 101S are synchronized. it can. In an environment where the brightness does not change much, the brightness level of R may be adjusted to the maximum.
  • the infrared light projection timing of the infrared projector 9 of the imaging device 101S matches the infrared light projection timing of the infrared projector 9 of the imaging device 101M. However, it may be reversed.
  • the infrared light projection timing of the infrared projector 9 of the imaging device 101M matches the infrared light projection timing of the infrared projector 9 of the imaging device 101S. Let In the description of the second example, description of common parts with the first example is omitted.
  • the light projection control unit 71 has infrared light with a wavelength IR1 out of infrared light with wavelengths IR1, IR2, and IR3.
  • the infrared projector 9 is controlled so that only light is projected within one divided period in the three divided periods, and the remaining two divided periods are set to no light projection.
  • the light projection control unit 71 controls the infrared projector 9 so that infrared light is not projected in all periods.
  • the imaging device 101M images the subject SB1 and projects a frame of a video signal in a state where only the infrared light having the wavelength IR1 is projected by the infrared projector 9 of the imaging device 101S. Generate.
  • FIG. 36 (b) shows a state in which the infrared light projection timing in FIG. 36 (a) matches the frame generated by the imaging by the imaging device 101M.
  • FIG. 36C shows a case where the phase is delayed
  • FIG. 36D shows a case where the phase is advanced.
  • the luminance levels of R, G, and B are determined by the timing at which the infrared projector 9 of the imaging apparatus 101S projects infrared light having the wavelength IR1, and the R, G, and B frames FIR1 in the imaging apparatus 101M. , FIR2, and FIR3 are changed as shown in FIG.
  • the luminance level of G becomes B Higher than the luminance level.
  • the luminance level of R is lower than the proper state.
  • the luminance level of B becomes higher than the luminance level of G.
  • the luminance level of R is lower than the proper state.
  • the control unit 7 of the imaging apparatus 101M controls the infrared projector 9 and the pre-signal processing unit 52 until the G and B luminance levels determined by the luminance level determination unit 75 become equal values.
  • the control unit 7 holds the adjustment amount at the timing when the luminance levels of G and B become equal values.
  • the imaging apparatus 101M controls each unit to shift the timing for operating the imaging apparatus 101M by the adjustment amount obtained and held in the timing adjustment mode after canceling the timing adjustment mode.
  • the second example in which the infrared light projection timing of the infrared projector 9 of the imaging device 101M is matched with the infrared light projection timing of the infrared projector 9 of the imaging device 101S is similar to that of the imaging device 101M. It is possible to synchronize the timing of projecting infrared light by the respective infrared projectors 9 with the imaging device 101S. Note that the second example can be used when there are only two imaging devices 101.
  • the imaging device 101M projects only infrared light having the wavelength IR1, and the imaging device 101S (or 101M) emits infrared light.
  • the subject SB1 is imaged to generate a video signal.
  • the brightness level of R may be adjusted to the maximum.
  • the imaging device 101M which is the reference side of the infrared light projection timing, projects infrared light with wavelengths IR1, IR2, and IR3 as usual.
  • the imaging device 101S (or 101M) on the side that adjusts the timing of projecting infrared light generates no image light and generates a video signal with the infrared cut filter 21 inserted.
  • the dummy glass 22 When the timing adjustment mode is set at night when visible light is weak, the dummy glass 22 is inserted. If an infrared cut filter 21 is inserted instead of the dummy glass 22 to generate a video signal, the imaging device 101M (or 101S) on the reference side may project all infrared light.
  • the light projecting unit 91 is a light emitting diode (LED) that emits infrared light of 780 nm.
  • the wavelength band of light from the LED partially depends on the visible light band. Therefore, if imaging is performed with the infrared cut filter 21 inserted, a state equivalent to that in which only infrared light having the wavelength IR1 is projected can be obtained. Therefore, the projection timing can be adjusted in the same manner as when only infrared light having the wavelength IR1 is projected.
  • the wavelength IR1 is assumed to be short enough not to be cut by the infrared cut filter 21.
  • an imaging system can be configured by a plurality of imaging devices 102.
  • the imaging device 102 includes an infrared projector 9 ⁇ / b> B instead of the infrared projector 9.
  • the infrared projector 9 ⁇ / b> B generates a synchronization signal Ssync indicating the timing of projecting infrared light with wavelengths IR ⁇ b> 1, IR ⁇ b> 2, IR ⁇ b> 3 and supplies the synchronization signal Ssync to the control unit 7.
  • the infrared projector 9B includes a synchronization signal transmission unit 9Bt that transmits the synchronization signal Ssync and a synchronization signal reception unit 9Br that receives the synchronization signal Ssync.
  • the control unit 7 in the imaging apparatus 102 has a configuration in which the synchronization signal transmitting unit 76t and the synchronization signal receiving unit 76r in the control unit 7 of the imaging apparatus 101 are omitted.
  • FIG. 39 schematically illustrates the configuration of the imaging apparatus 102 described with reference to FIG.
  • the synchronization signal transmission unit 9Bt of the imaging device 102M sends a synchronization signal Ssync to the imaging device 102S.
  • the synchronization signal receiver 9Br of the imaging device 102S receives the synchronization signal Ssync.
  • the synchronization signal Ssync may be a pulse having a frame period indicating the head of one frame period during which infrared light with wavelengths IR1, IR2, and IR3 is projected.
  • the imaging device 102S does not generate the synchronization signal Ssync by its own infrared projector 9B.
  • the infrared projector 9B of the imaging device 102S supplies the received synchronization signal Ssync to the control unit 7.
  • the infrared projector 9B of the imaging device 102S projects infrared light with wavelengths IR1, IR2, and IR3 at a timing based on the received synchronization signal Ssync.
  • the projection timing may be adjusted in the same manner as in FIGS. .
  • the infrared light projection timing by the infrared projector 9B of the imaging device 102M and the infrared light projection timing by the infrared projector 9B of the imaging device 102S are matched, and the infrared light by both infrared projectors 9B is matched. Synchronize the light emission.
  • the first to third modifications shown in FIGS. 21 to 23 can also be applied to the imaging apparatus 102 of the second embodiment. The same applies to imaging devices 103 to 106 according to third to sixth embodiments described later.
  • Imaging device 103 of the third embodiment shown in FIG. 40 the same parts as those of the imaging device 101 of the first embodiment shown in FIG. FIG. 40 schematically illustrates the configuration of the imaging device 3.
  • an imaging system can be configured by a plurality of imaging devices 103.
  • the own imaging device 103 is set as the master imaging device 103M
  • the other imaging device 103 is set as the slave imaging device 103S.
  • the infrared projector 9C of the master imaging device 103M has a synchronization signal transmitter 9Ct.
  • the infrared projector 9C projects infrared light having wavelengths IR1, IR2, and IR3 based on the control by the control unit 7.
  • the synchronization signal transmission unit 9Ct transmits a synchronization signal Ssync indicating the timing of projecting infrared light to the slave imaging device 103S.
  • the infrared projector 9C of the imaging device 103S has a synchronization signal receiver 9Cr.
  • the synchronization signal Ssync received by the imaging device 103S is supplied to the control unit 7.
  • the infrared projector 9C of the imaging device 103S projects infrared light with wavelengths IR1, IR2, and IR3 at a timing based on the received synchronization signal Ssync.
  • the imaging device 103S may have the same configuration as the imaging device 102S in FIG.
  • the timings are matched and the infrared projectors 9C of both are used. Synchronize the infrared light projection.
  • an imaging system can be configured by a plurality of imaging devices 104.
  • the control unit 7 in the imaging device 104 includes a reference clock transmission unit 77t and a reference clock reception unit 77r instead of the synchronization signal transmission unit 76t and the synchronization signal reception unit 76r in the control unit 7 of the imaging device 101.
  • the reference clock transmission unit 77t transmits the reference clock Sclk to the other imaging device 104. At this time, the reference clock receiver 77r does not operate.
  • the reference clock receiving unit 77r receives the reference clock Sclk sent from the other imaging device 104 as a master. At this time, the reference clock transmission unit 77t does not operate.
  • FIG. 42 schematically illustrates the configuration of the imaging device 104 described in FIG.
  • the reference clock transmission unit 77t of the imaging device 104M sends the reference clock Sclk to the imaging device 104S.
  • the reference clock receiver 77r of the imaging device 104S receives the reference clock Sclk.
  • the imaging device 104M and the imaging device 104S operate in synchronization with a common reference clock Sclk.
  • the reference clock Sclk is used in MPEG2, for example, a 14.32 MHz clock that is four times the color subcarrier frequency (3.58 MHz) of the video signal, a reference signal used in a broadcast studio called GenLock (Generator Lock), etc. A 27 MHz clock can be used.
  • GenLock Generator Lock
  • a 27 MHz clock can be used.
  • the reference clock Sclk is not limited to these clocks.
  • the imaging device 104M and the imaging device 104S can be synchronized in frequency.
  • the timings at which the infrared projectors 9 of the imaging devices 104M and 104S project infrared light with wavelengths IR1, IR2, and IR3 cannot be synchronized.
  • the imaging device 104 of the fourth embodiment when the imaging devices 104M and 104S are set to the timing adjustment mode, the infrared light projection timings by the infrared projectors 9 of the imaging devices 104M and 104S are matched. Adjust to synchronize with the state.
  • FIG. 43 shows the relationship between the timing of projection by the infrared projector 9 of the imaging device 104M and the phase of the frame generated by imaging by the imaging device 104S, as in FIG. 43B shows a state in which the timing of infrared light projection in FIG. 43A coincides with the frame, and FIG. 43C shows a case where the phase is slightly delayed. Yes.
  • the phase may be greatly advanced or significantly delayed as shown in FIG.
  • the luminance levels of R, G, and B are the timing at which the infrared projector 9 of the imaging device 104M projects infrared light having the wavelength IR1, and the imaging device 104S has the frames FIR1, FIR2. , And FIR3 are generated as shown in FIG.
  • the characteristic shown in FIG. 35 corresponds to that shown only in the vicinity of the proper state in FIG. In the first to third embodiments, it is sufficient to eliminate a slight shift in the light projection timing due to the delay due to the wiring length and the difference in delay time. In the fourth embodiment, since only frequency synchronization is obtained in the first place, as shown in FIG. 44, a considerably large amount of timing adjustment may be required.
  • control unit 7 determines whether or not the G luminance level and the B luminance level are equal in step S101.
  • control unit 7 determines whether or not the luminance level of R is the lowest in step S102. If it is not the lowest (NO), it is an appropriate state at the position of Ph0, so the processing is terminated.
  • step S102 If it is the lowest (YES) in step S102, it means that the 1 ⁇ 2 cycle is shifted (delayed or advanced) at the position of Ph (-3) or Ph (+3).
  • step S103 the (light projection control unit 71) advances or delays the timing by one-half cycle.
  • step S101 if they are not equal in step S101 (NO), the control unit 7 shifts the processing to step S104.
  • the control unit 7 shifts the process to step S104 even after the process of step S103 is completed.
  • step S104 the control unit 7 determines whether or not the G luminance level is greater than the B luminance level. If the luminance level of G is larger than the luminance level of B (YES), the control unit 7 delays the timing slightly and returns the process to step S101. If the luminance level of G is not greater than the luminance level of B (NO), the control unit 7 advances the timing a little and returns the process to step S101.
  • the imaging apparatus 104S controls each unit so as to shift the timing of operating the imaging apparatus 104S by the adjustment amount obtained and held in the timing adjustment mode after canceling the timing adjustment mode.
  • a reference clock may be output from a device separate from the imaging device, and each imaging device may receive the reference clock.
  • a switcher or the like for switching and displaying images of a plurality of imaging devices may generate and output a reference clock.
  • the imaging device that outputs the reference clock and the imaging device that operates as a master in the timing adjustment mode may be different.
  • an imaging system can be configured by a plurality of imaging devices 105.
  • the imaging device 105 includes a power supply circuit 15 that supplies necessary power to each unit of the imaging device 105 based on power from a commercial AC power source.
  • the imaging device 105 generates a reference clock synchronized with the frequency of the AC voltage and operates the imaging device 105. Therefore, it is possible to achieve frequency synchronization between the master imaging device 105M and the slave imaging device 105S.
  • the imaging device 105S adjusts the light projection timing of the infrared light by the infrared projector 9 in the same manner as in the fourth embodiment.
  • the imaging devices 105M and 105S can be synchronized in a state in which the timing of projecting infrared light by the respective infrared projectors 9 is matched.
  • an imaging system can be configured by a plurality of imaging devices 106.
  • the imaging device 106 includes an antenna 16a that receives radio waves from a satellite 200 for a global navigation satellite system (Global Navigation System: GNSS) and a GNSS receiver 16 that receives a GNSS signal output from the antenna 16a.
  • the GNSS signal is generally an RF signal.
  • GNSS is GPS (Global Positioning System) as an example.
  • the GNSS receiver 16 generates a clock signal based on time information included in the radio wave from the satellite 200.
  • the time information transmitted from the satellite 200 is synchronized with the atomic clock built in the satellite 200 with high accuracy.
  • the GNSS receiver 16 supplies a clock signal synchronized with the atomic clock with high accuracy to the controller 7.
  • the control unit 7 uses this clock signal as a reference clock.
  • the control unit 7 operates the imaging device 106 based on the reference clock.
  • the imaging device 106S adjusts the light projection timing of the infrared light by the infrared projector 9 in the same manner as in the fourth embodiment.
  • the imaging devices 106M and 106S can be synchronized in a state in which the timing of projecting infrared light by the respective infrared projectors 9 is matched.
  • ⁇ Configuration and Operation of Imaging Device of Seventh Embodiment> In the imaging devices 104 to 106 according to the fourth to sixth embodiments, it is assumed that frequency synchronization is achieved by a common reference clock. In the seventh embodiment, a common reference clock is not used in a plurality of imaging devices.
  • the imaging apparatus according to the seventh embodiment includes a reference clock generation source that individually generates a highly accurate reference clock.
  • An example of a reference clock generation source that generates a highly accurate reference clock is a crystal oscillator.
  • Seventh Embodiment A plurality of imaging devices periodically adjust the light projection timing so as to match the light projection timing with the same method as in the fourth embodiment. What is necessary is just to set the time interval which adjusts light projection timing according to the tolerance
  • the tolerance of phase shift becomes small, so it is better to set the time interval as short as possible.
  • the tolerance of phase shift increases, so the time interval may be set relatively long.
  • the imaging apparatus 108 of the eighth embodiment has a configuration in which the synchronization signal transmission unit 76t in the imaging apparatus 101 of the first embodiment is omitted.
  • the synchronization signal receiving unit 76r receives a synchronization signal Ssync supplied from an external synchronization signal supply device.
  • FIG. 49 illustrates a configuration example of an imaging system including a plurality of imaging devices 108 and a synchronization signal supply device that supplies a synchronization signal Ssync to each of the plurality of imaging devices 108.
  • the camera switch 180 is a synchronization signal supply device.
  • a display unit 280 is connected to the camera switcher 180.
  • an imaging system is configured by a plurality of imaging devices (for example, surveillance cameras), in order to select one or more video signals output from the plurality of imaging devices and display them on the display unit 280, a so-called switcher is used.
  • the camera switcher 180 called.
  • the camera switch 180 as a synchronization signal supply device that supplies the synchronization signal Ssync to each of the plurality of imaging devices 108.
  • the camera switcher 180 includes a video switching unit 181 and a synchronization signal generation unit 182 that generates a synchronization signal Ssync.
  • the video signal Svideo output from each imaging device 108 is input to the video switching unit 181.
  • each imaging device 108 outputs the video signal Svideo with a frame period and phase synchronized with the synchronization signal Ssync.
  • the imaging device 108 that performs imaging by sequentially emitting infrared light and the imaging device that performs normal imaging without using infrared light are mixed. However, you can switch between images smoothly and display multiple images simultaneously.
  • the video switching unit 181 selects one or a plurality of video signals Svideo and outputs them to the video output terminal 183.
  • a display unit 280 is connected to the video output terminal 183, and the video signal Svideo selected by the video switching unit 181 is displayed.
  • the video switching unit 181 may divide each frame of the four video signals Svideo into one frame so that the screen of the display unit 280 is divided into four and the video signal Svideo is displayed in each region. .
  • the number of screen divisions of the display unit 280 is arbitrary.
  • the camera switcher 180 has an individual video output terminal 184 that individually outputs the video signal Svideo output from each imaging device 108.
  • the individual video output terminal 184 can be omitted.
  • the synchronization signal Ssync generated by the synchronization signal generator 182 has a frame period as shown in FIG. Although the synchronization signal Ssync shown in FIG. 33A is a positive pulse, the synchronization signal Ssync shown in FIG. 50A is a negative pulse. Of course, the synchronization signal Ssync generated by the synchronization signal generator 182 may also be a positive pulse.
  • the video signal Svideo output from the imaging device 108 is, for example, an interlace method in which one frame is composed of two fields of an odd field and an even field.
  • the light projection control unit 71 of the imaging device 108 performs control so that infrared light is selectively projected at a timing based on the synchronization signal Ssync.
  • the infrared projector 9 sequentially projects infrared light with wavelengths IR1 to IR3, the imaging unit 3 images the subject, and then the imaging device 108 receives the video signal. It takes about 1.5 frames to output Svideo.
  • the frame of the video signal Svideo obtained based on the set IRset1 of the wavelengths IR1 to IR3 shown in (b) of FIG. 51 is a frame F11 shown in (c) of FIG.
  • the frame F11 of the video signal Svideo cannot be obtained based on the set IRset1 of the wavelengths IR1 to IR3, and must be the frame F12 of the next timing. For this purpose, the capacity of the buffer memory for delay increases.
  • the frame F11 of the video signal Svideo can be obtained based on the set IRset1 of the wavelengths IR1 to IR3.
  • the capacity of the buffer memory increases.
  • the time t11 in accordance with the time required to generate the frame of the video signal Svideo based on each set of wavelengths IR1 to IR3.
  • the time t11 between the synchronization signal Ssync and the infrared light projection timing of the wavelength IR1 is set, but the time between the synchronization signal Ssync and the infrared light projection timing of the wavelength IR2 or IR3 is set. May be.
  • the frame of the video signal Svideo generated based on the set IRset1 of the wavelengths IR1 to IR3 may be intentionally the frame F12 instead of the frame F11 for a predetermined reason.
  • the imaging device 108 that generates the frame F11 and the imaging device 108 that generates the frame F12 based on the set IRset1 of the wavelengths IR1 to IR3 may be mixed.
  • a common synchronization signal Ssync is supplied to each of the plurality of imaging devices 108. Therefore, like the imaging devices 101 to 103 of the first to third embodiments, the plurality of imaging devices 108, in principle, synchronize the infrared light projections by the respective infrared projectors 9 to obtain the wavelength IR1. , IR2 and IR3 can be made to coincide with the timing of projecting infrared light.
  • control unit 7 When there is a deviation in the timing of projecting infrared light of wavelengths IR1, IR2, and IR3, the control unit 7 operates the infrared projector 9 and the pre-signal processing unit 52 as described with reference to FIG. You can advance or delay the timing. It should be noted that since there is little influence on the video quality if there is a slight timing shift, there is no need for adjustment.
  • the master imaging devices 101M to 103M are configured as follows.
  • the light projecting control unit 71 controls the length and order of each divided period in which infrared light of wavelengths IR1 to IR3 is selectively projected in three divided periods obtained by dividing a predetermined period into three.
  • the projector 9 is controlled.
  • the imaging unit 3 images the subject in a state where infrared light with wavelengths IR1 to IR3 is selectively projected.
  • the synchronization signal transmission units 76t, 9Bt, and 9Ct transmit synchronization signals to the outside of the apparatus, specifically, to other imaging apparatuses (slave imaging apparatuses 101S to 103S) other than the master imaging apparatuses 101M to 103M.
  • the synchronization signal indicates the timing at which the light projection control unit 71 included in the slave-side imaging device projects infrared light by the infrared projector 9, and the master light projection control unit 71 projects infrared light by the infrared projector 9. It is used to synchronize with the timing.
  • the control unit 71 controls the infrared projector 9 as follows.
  • the light projection control unit 71 projects only one infrared light of the infrared light with wavelengths IR1 to IR3 within one divided period in the three divided periods, and the remaining two divided periods are not projected.
  • the light projecting control unit 71 and the infrared projector 9 in the master imaging devices 101M, 102M, and 103M are the first light projecting control unit and the first infrared projector
  • the light projecting control unit 71 in the slave image capturing devices 101S to 103S the light projecting control unit 71 in the slave image capturing devices 101S to 103S
  • the infrared projector 9 is a second light projection control unit and a second infrared projector.
  • the slave imaging devices 101S to 103S are configured as follows.
  • the light projecting control unit 71 controls the length and order of each divided period in which infrared light of wavelengths IR1 to IR3 is selectively projected in three divided periods obtained by dividing a predetermined period into three.
  • the projector 9 is controlled.
  • the imaging unit 3 images the subject in a state where infrared light with wavelengths IR1 to IR3 is selectively projected.
  • the video processing unit 5 generates R, G, and B video signals based on the imaging signal captured by the imaging unit 3.
  • the synchronization signal receivers 76r, 9Br, and 9Cr receive synchronization signals transmitted by other imaging devices (master imaging devices 101M to 103M) other than the slave imaging devices 101S to 103S.
  • the synchronization signal is synchronized with the timing at which the slave-side projection control unit 71 projects infrared light by the infrared projector 9 and the timing at which the master-side projection control unit 71 projects infrared light by the infrared projector 9. Used to make
  • the slave imaging devices 101S to 103S may include a luminance level determination unit 75 that determines the luminance level of the R, G, and B video signals generated by the video processing unit 5.
  • the slave imaging devices 101S to 103S operate as follows when the light projection control unit 71 is set to the timing adjustment mode for adjusting the timing at which the infrared light projector 9 projects the infrared light. Good.
  • the light projection control unit 71 controls the infrared projector 9 so that infrared light is not projected.
  • the infrared projector 9 on the master side projects only one infrared light of the infrared light with wavelengths IR1 to IR3 within one divided period in the three divided periods, and the remaining two divided parts.
  • the subject is imaged in a state where the period is not projected.
  • the infrared projector 9 on the master side projects infrared light of all wavelengths, and substantially only one wavelength of infrared light is projected through the infrared cut filter 21.
  • the subject is imaged as if The infrared cut filter 21 is the infrared cut filter 21 provided in the slave imaging devices 101S to 103S.
  • the light projection control unit adjusts the timing of projecting the infrared light based on the luminance levels of the R, G, and B video signals determined by the luminance level determination unit 75.
  • the light projection control unit 71 and the infrared projector 9 in the slave imaging devices 101S to 103S are the first light projection control unit and the first infrared projector
  • the light projection control unit 71 and the infrared projector in the master imaging devices 101M to 103M are the first light projection control unit and the first infrared projector
  • Reference numeral 9 denotes a second light projection control unit and a second infrared projector.
  • the slave imaging devices 101S to 106S of the first to sixth embodiments and the slave imaging device of the seventh embodiment include a light projection control unit 71 (first light projection control unit), an imaging unit 3, and video processing. Unit 5 and a luminance level determination unit 75.
  • the slave imaging device operates as follows when it is set to the timing adjustment mode.
  • the light projection control unit 71 controls the infrared light projector 9 (first infrared light projector) so that infrared light with wavelengths IR1 to IR3 is not projected.
  • the infrared projector 9 controlled by the light projection control unit 71 provided in another imaging device only divides one infrared light of wavelengths IR1 to IR3 into three divided periods. The subject is imaged in a state where light is projected within the period and the remaining two divided periods are not projected.
  • imaging devices are the master imaging devices 101M to 106M and the master imaging device of the seventh embodiment.
  • the light projection control unit 71 in the master imaging device is a second light projection control unit, and the infrared projector 9 in the master imaging device is a second infrared projector.
  • the second infrared projector projects infrared light with wavelengths IR1 to IR3 and images the subject through an infrared cut filter.
  • the light projection control unit 71 adjusts the timing for projecting infrared light with wavelengths IR1 to IR3 based on the luminance levels of the R, G, and B video signals determined by the luminance level determination unit 75.
  • the first light projection control unit may adjust the timing of projecting the infrared light so that the luminance level determination unit 75 determines as follows.
  • the luminance levels of the video signals of two colors other than the color associated with R projected by the second infrared projector are the same first level.
  • the luminance level of the video signal of the color corresponding to R projected by the second infrared projector is a second level higher than the first level.
  • An imaging device control method used in an imaging system including a plurality of imaging devices is as follows. Each of the plurality of imaging devices synchronizes with each other the timing of selectively projecting infrared light of wavelengths IR1 to IR3 in three divided periods obtained by dividing the predetermined period into three by the individual infrared projectors 9. Each of the plurality of imaging devices images a subject in a state where infrared light with wavelengths IR1 to IR3 is selectively projected.
  • An imaging device control method used in an imaging system including a plurality of imaging devices is as follows.
  • a plurality of imaging devices are operated with a common reference clock.
  • One imaging device among the plurality of imaging devices is a master imaging device, and a device other than the master imaging device is a slave imaging device.
  • the first light projection control unit provided in the master imaging device controls the first infrared light projector, and only one infrared light of wavelengths IR1 to IR3 is divided into three for a predetermined period. The light is projected within one divided period in the three divided periods, and the remaining two divided periods are set to no light projection. Alternatively, infrared light with wavelengths IR1 to IR3 is projected in three divided periods, respectively.
  • the second light projection control unit included in the slave imaging device controls the second infrared light projector so that infrared light with wavelengths IR1 to IR3 is not projected.
  • the image pickup unit 3 included in the slave image pickup device picks up an image of the subject in a state where only one infrared light is projected or in a state where infrared light having wavelengths IR1 to IR3 is passed through an infrared cut filter.
  • a luminance level determination unit 75 included in the slave imaging device determines the luminance level of each of the R, G, and B video signals generated based on the imaging signal captured by the imaging unit 3.
  • the second light projecting control unit projects infrared light with wavelengths IR1 to IR3 by the second infrared projector. Adjust timing.
  • the imaging system includes a plurality of imaging devices 108 and a synchronization signal supply device that supplies a synchronization signal Ssync to each of the plurality of imaging devices.
  • the camera switch 180 as a synchronization signal supply device by providing a synchronization signal generator 182 in the camera switch 180 that switches the video signal Svideo output from each of the plurality of imaging devices 108.
  • Each of the plurality of imaging devices 108 includes a synchronization signal receiving unit 76r that receives the synchronization signal Ssync, a light projection control unit 71, and the imaging unit 3.
  • the light projecting control unit 71 selectively projects the infrared light at the timing based on the synchronization signal Ssync received by the synchronization signal receiving unit 76r from the infrared projector 9 capable of projecting a plurality of infrared lights. Control as follows.
  • the imaging unit 3 images the subject in a state where infrared light is projected by the infrared projector 9.
  • the infrared projector 9 may be detachable from the housing of the imaging device.
  • the infrared projector 9 may be configured outside the imaging apparatus.
  • the imaging device may have a configuration for controlling the infrared projector 9 when the infrared projector 9 is attached.
  • the timing of emitting infrared light and the timing of turning off the light do not have to be completely matched. It is only necessary that the slave imaging device does not project infrared light other than the predetermined infrared light in the exposure section corresponding to the predetermined infrared light in the master imaging device.
  • the slave imaging device projects infrared light other than the predetermined infrared light in the exposure section corresponding to the predetermined infrared light in the master imaging device. You may allow that.
  • the slave imaging device does not project infrared light other than the predetermined infrared light in at least half of the exposure interval corresponding to the predetermined infrared light in the master imaging device. Good.
  • control unit 7 and the video processing unit 5 can be realized by using one or a plurality of hardware processors.
  • master and slave may be different in each embodiment.
  • the imaging apparatus and the imaging apparatus control method, and the imaging system and imaging system control method of the present invention can be used for a monitoring camera that monitors a subject in an environment with little visible light.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Studio Devices (AREA)

Abstract

 撮像装置(101)の第1の投光制御部(71)は、複数の波長の赤外光それぞれを投光可能な第1の赤外線投光器(9)を、複数の波長の赤外光を選択的に投光するよう制御する。撮像装置(101)の撮像部3は、第1の赤外線投光器(9)によって赤外光が投光されている状態で被写体を撮像する。撮像装置(101)の同期信号送信部(76t)は、撮像装置(101)以外の他の撮像装置が備える第2の投光制御部が第2の赤外線投光器によって赤外光を投光させるタイミングと、第1の投光制御部(71)が第1の赤外線投光器(9)によって赤外光を投光させるタイミングとを同期させるための同期信号を外部に送信する。

Description

撮像装置及び撮像装置の制御方法、並びに、撮像システム及び撮像システムの制御方法
 本開示は、撮像装置及び撮像装置の制御方法、並びに、撮像システム及び撮像システムの制御方法に関する。
 従来、例えば夜間等の可視光がほとんどない環境下において被写体を撮像するために、赤外線投光器によって被写体に赤外光を照射し、被写体から反射した赤外光を撮像する方法が用いられている。この方法は、可視光を照射するライトを用いることができない場合に有効な撮像方法である。
 しかしながら、この撮像方法によって被写体を撮像した映像は、モノクロ映像となる。モノクロ映像では物体の識別が困難となることがある。可視光がない環境下でもカラー映像を撮像することができれば、物体の識別性を向上させることができる。例えば監視カメラでは、物体の識別性を向上させるために、可視光がない環境下でもカラー映像を撮像することが望まれる。
 特許文献1には、可視光がない環境下でもカラー映像を撮像することができる撮像装置が記載されている。特許文献1に記載されている撮像装置においても、赤外線投光器が用いられる。監視カメラに特許文献1に記載の技術を搭載すれば、被写体をカラー映像化して物体の識別性を向上させることが可能となる。
特開2011-50049号公報
 特許文献1に記載されている撮像装置は、赤外線投光器によって3つの波長の赤外光を順次投光して被写体を撮像する。
 監視システム(撮像システム)では複数の監視カメラを用いて、監視対象の被写体を撮像することがある。特許文献1に記載されている撮像装置を複数の監視カメラそれぞれに用いて、監視システムを構成することが考えられる。
 複数の撮像装置が個々に赤外光を投光すると異なる波長の赤外光が混ざってしまい、好ましい色再現が可能なカラー映像を撮像することができない。
 実施形態は、赤外光を投光して被写体を撮像する自己の撮像装置以外に、赤外光を投光して被写体を撮像する他の撮像装置が存在する場合でも好ましい映像を撮像することができる撮像装置及び撮像装置の制御方法を提供することを目的とする。
 実施形態は、赤外光を投光して被写体を撮像する複数の撮像装置が存在する場合でも好ましい映像を撮像することができる撮像システム及び撮像システムの制御方法を提供することを目的とする。
 実施形態の第1の態様によれば、撮像装置であり、複数の赤外光を投光可能な第1の赤外線投光器を、赤外光を選択的に投光するよう制御する第1の投光制御部と、前記第1の赤外線投光器によって赤外光が投光されている状態で被写体を撮像する撮像部と、前記撮像装置以外の他の撮像装置が備える第2の投光制御部が第2の赤外線投光器によって赤外光を投光させるタイミングと、前記第1の投光制御部が前記第1の赤外線投光器によって赤外光を投光させるタイミングとを同期させるための同期信号を外部に送信する同期信号送信部とを備えることを特徴とする撮像装置が提供される。
 実施形態の第2の態様によれば、撮像装置であり、複数の赤外光を投光可能な第1の赤外線投光器を、赤外光を選択的に投光するよう制御する第1の投光制御部と、前記第1の赤外線投光器によって赤外光が投光されている状態で被写体を撮像する撮像部と、前記第1の投光制御部が前記第1の赤外線投光器によって赤外光を投光させるタイミングと、前記撮像装置以外の他の撮像装置が備える第2の投光制御部が第2の赤外線投光器によって赤外光を投光させるタイミングとを同期させるための同期信号を受信する同期信号受信部とを備え、前記第1の投光制御部は、前記同期信号受信部が受信した同期信号に基づいて前記第1の赤外線投光器を制御することを特徴とする撮像装置が提供される。
 実施形態の第3の態様によれば、複数の撮像装置を備える撮像システムに用いる撮像装置の制御方法であり、前記複数の撮像装置それぞれが、個々の赤外線投光器によって、赤外光を選択的に投光させるタイミングを互いに同期させる同期ステップと、前記複数の撮像装置それぞれによって、赤外光が選択的に投光されている状態で被写体を撮像させる撮像ステップとを有することを特徴とする撮像装置の制御方法が提供される。
 実施形態の第4の態様によれば、複数の撮像装置と、前記複数の撮像装置それぞれに同期信号を供給する同期信号供給装置とを備え、前記複数の撮像装置は、それぞれ、前記同期信号を受信する同期信号受信部と、複数の赤外光を投光可能な赤外線投光器を、前記同期信号受信部が受信した前記同期信号を基準としたタイミングで、赤外光を選択的に投光するよう制御する投光制御部と、前記赤外線投光器によって赤外光が投光されている状態で被写体を撮像する撮像部とを備えることを特徴とする撮像システムが提供される。
 実施形態の第5の態様によれば、同期信号供給装置より、複数の撮像装置それぞれに同期信号を供給し、前記複数の撮像装置は、それぞれ、前記同期信号を受信し、複数の赤外光を投光可能な赤外線投光器を、前記同期信号を基準としたタイミングで、赤外光を選択的に投光するよう制御し、前記赤外線投光器によって赤外光が投光されている状態で撮像部によって被写体を撮像することを特徴とする撮像システムの制御方法が提供される。
 実施形態の撮像装置及び撮像装置の制御方法によれば、赤外光を投光して被写体を撮像する自己の撮像装置以外に、赤外光を投光して被写体を撮像する他の撮像装置が存在する場合でも好ましい映像を撮像することができる。
 実施形態の撮像システム及び撮像システムの制御方法によれば、赤外光を投光して被写体を撮像する複数の撮像装置が存在する場合でも好ましい映像を撮像することができる。
第1実施形態の撮像装置の全体的な構成を示すブロック図である。 各実施形態の撮像装置に用いられるカラーフィルタにおけるフィルタエレメントの配列の一例を示す図である。 各実施形態の撮像装置を構成する撮像部における3原色光の波長と相対感度との分光感度特性を示す特性図である。 所定の物質からの3原色光の反射率にシリコンの受光感度を乗じたときの、波長と相対検出率との関係を示す特性図である。 図1中の前信号処理部52の具体的な構成例を示すブロック図である。 各実施形態の撮像装置が通常モードで動作しているときの露光と映像信号のフレームとの関係を概略的に示す図である。 各実施形態の撮像装置が通常モードで動作しているときのデモザイク処理を説明するための図である。 各実施形態の撮像装置が中間モード及び暗視モードで動作しているときの露光と映像信号のフレームとの関係を概略的に示す図である。 各実施形態の撮像装置が第1中間モードで動作しているときの前信号処理を説明するための図である。 各実施形態の撮像装置が第1中間モードで動作しているときのデモザイク処理を説明するための図である。 各実施形態の撮像装置が第2中間モードで動作しているときの前信号処理を説明するための図である。 各実施形態の撮像装置が第2中間モードで動作しているときのデモザイク処理を説明するための図である。 各実施形態の撮像装置が暗視モードで動作しているときの周囲画素の加算処理を説明するための図である。 周囲画素の加算処理が施されたフレームを示す図である。 各実施形態の撮像装置が第1暗視モードで動作しているときの前信号処理を説明するための図である。 各実施形態の撮像装置が第1暗視モードで動作しているときのデモザイク処理を説明するための図である。 各実施形態の撮像装置が第2暗視モードで動作しているときの前信号処理を説明するための図である。 各実施形態の撮像装置が第2暗視モードで動作しているときのデモザイク処理を説明するための図である。 各実施形態の撮像装置におけるモード切換の例を説明するための図である。 各実施形態の撮像装置がそれぞれのモードに設定されているときの各部の状態を示す図である。 各実施形態の撮像装置の第1の変形例を示す部分ブロック図である。 各実施形態の撮像装置の第2の変形例を示す部分ブロック図である。 各実施形態の撮像装置の第3の変形例を示す部分ブロック図である。 各実施形態の撮像装置で実行される映像信号処理方法を示すフローチャートである。 図24におけるステップS3に示す通常モードの具体的な処理を示すフローチャートである。 図24におけるステップS4の中間モードの具体的な処理を示すフローチャートである。 図24におけるステップS5の暗視モードの具体的な処理を示すフローチャートである。 各実施形態の撮像装置内に記憶されている映像信号処理プログラムがコンピュータに実行させる処理を示すフローチャートである。 複数の撮像装置によって構成した撮像システムを示すブロック図である。 複数の撮像装置による赤外光の投光タイミングがわずかにずれている場合の問題点を説明するための図である。 複数の撮像装置による赤外光の投光タイミングが大きくずれている場合の問題点を説明するための図である。 第1実施形態の2台の撮像装置の一方をマスタ、他方をスレーブとした状態を示す概略的なブロック図である。 第1~第3実施形態の撮像装置で用いる同期信号の例を説明するための図である。 第1~第3実施形態の撮像装置がタイミング調整モードに設定されているときのマスタ及びスレーブの動作の第1の例を説明するための図である。 マスタ及びスレーブの動作の第1の例において、赤外光の投光タイミングのずれに対するR,G,Bの輝度レベルの変化の仕方を示す特性図である。 第1~第3実施形態の撮像装置がタイミング調整モードに設定されているときのマスタ及びスレーブの動作の第2の例を説明するための図である。 マスタ及びスレーブの動作の第2の例において、赤外光の投光タイミングのずれに対するR,G,Bの輝度レベルの変化の仕方を示す特性図である。 第2実施形態の撮像装置の全体的な構成を示すブロック図である。 第2実施形態の2台の撮像装置の一方をマスタ、他方をスレーブとした状態を示す概略的なブロック図である。 第3実施形態の撮像装置の概略的な構成を示すブロック図である。 第4実施形態の撮像装置の全体的な構成を示すブロック図である。 第4実施形態の2台の撮像装置の一方をマスタ、他方をスレーブとした状態を示す概略的なブロック図である。 第4~第6実施形態の撮像装置がタイミング調整モードに設定されているときのマスタ及びスレーブの動作を説明するための図である。 第4~第6実施形態の撮像装置がタイミング調整モードに設定されているとき、赤外光の投光タイミングのずれに対するR,G,Bの輝度レベルの変化の仕方を示す特性図である。 第4~第6実施形態の撮像装置がタイミング調整モード設定されているときに実行される赤外光の投光タイミングの調整方法を示すフローチャートである。 第5実施形態の撮像装置の概略的な構成を示すブロック図である。 第6実施形態の撮像装置の概略的な構成を示すブロック図である。 第8実施形態の撮像システムで用いる撮像装置の全体的な構成を示すブロック図である。 第8実施形態の撮像システムの概略的な構成を示すブロック図である。 第8実施形態の撮像システムにおける同期信号と映像信号との関係を示す図である。 第8実施形態の撮像システムにおける同期信号と赤外光の投光と映像信号との関係を示す図である。
 以下、各実施形態の撮像装置及び撮像装置の制御方法、並びに、撮像システム及び撮像システムの制御方法について、添付図面を参照して説明する。
<第1実施形態の撮像装置の構成>
 まず、図1を用いて、第1実施形態の撮像装置101の全体的な構成について説明する。図1に示す第1実施形態の撮像装置101は、昼間等の可視光が十分に存在する環境下に適した通常モードと、夜間等の可視光がほとんどない環境下に適した暗視モードと、可視光がわずかに存在する環境下に適した中間モードとの3つのモードで撮像可能な撮像装置である。
 暗視モードと中間モードとはいずれも可視光が少ない環境下で、赤外線を投光しながら撮像する赤外光投光モードである。赤外光投光モードは暗視モードのみであってもよい。本実施形態では、好ましい構成として、中間モードを含む3つのモードで撮像可能な撮像装置を例とする。
 図1において、被写体から反射した一点鎖線にて示す光は、光学レンズ1によって集光される。ここで、光学レンズ1には、可視光が十分に存在する環境下では可視光、可視光がほとんどない環境下では後述する赤外線投光器9より発せられた赤外光を被写体が反射した赤外光が入射される。
 可視光がわずかに存在する環境下では、光学レンズ1には、可視光と赤外線投光器9より発せられた赤外光を被写体が反射した赤外光とが混在した光が入射される。
 図1では簡略化のため、光学レンズ1を1つのみとしているが、実際には、撮像装置101は複数の光学レンズを備える。
 光学レンズ1と撮像部3との間には、光学フィルタ2が設けられている。光学フィルタ2は、赤外線カットフィルタ21とダミーガラス22との2つの部分を有する。光学フィルタ2は、駆動部8によって、光学レンズ1と撮像部3との間に赤外線カットフィルタ21を挿入した状態と、光学レンズ1と撮像部3との間にダミーガラス22を挿入した状態とのいずれかの状態に駆動される。
 撮像部3は、水平方向及び垂直方向に複数の受光素子(画素)が配列した撮像素子31と、それぞれの受光素子に対応して赤色(R),緑色(G),青色(B)のいずれかの色のフィルタエレメントが配置されたカラーフィルタ32とを有する。撮像素子31は、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)でよい。
 カラーフィルタ32には、一例として、図2に示すように、R,G,Bのフィルタエレメントがベイヤ配列と称される配列で並べられている。ベイヤ配列は、R,G,Bのフィルタエレメントの所定の配列の一例である。図2において、各行のRのフィルタエレメントに挟まれたGのフィルタエレメントをGr、Bのフィルタエレメントに挟まれたGのフィルタエレメントをGbとしている。
 ベイヤ配列では、RのフィルタエレメントとGrのフィルタエレメントとが交互に配置された水平方向の行と、BのフィルタエレメントとGbのフィルタエレメントとが交互に配置された水平方向の行とが、垂直方向に交互に配列されている。
 図3は、撮像部3におけるR光,G光,B光の波長と相対感度との分光感度特性を示している。相対感度は、最大値が1に正規化されている。撮像装置101を通常モードで動作させるとき、可視光による良好なカラー映像を撮像するには、波長700nm以上の赤外光をカットする必要がある。
 そこで、駆動部8は、制御部7による制御に基づいて、光学レンズ1と撮像部3との間に赤外線カットフィルタ21を挿入するように光学フィルタ2を駆動する。
 図3より分かるように、撮像部3は、波長700nm以上の赤外光の領域においても感度を有する。そこで、撮像装置101を中間モードまたは暗視モードで動作させるときには、駆動部8は、制御部7による制御に基づいて、光学レンズ1と撮像部3との間の赤外線カットフィルタ21を外してダミーガラス22を挿入するように光学フィルタ2を駆動する。
 光学レンズ1と撮像部3との間にダミーガラス22を挿入した状態では、波長700nm以上の赤外光はカットされない。よって、撮像装置101は、図3に破線の楕円で囲んだ部分の感度を利用して、R,G,Bの各色情報を得ることが可能となる。ダミーガラス22を挿入するのは、光路長を、赤外線カットフィルタ21を挿入した場合の光路長と同じにするためである。
 赤外線投光器9は、それぞれ、波長IR1,IR2,IR3の赤外光を投光する投光部91,92,93を有する。中間モードまたは暗視モードのとき、制御部7内の投光制御部71は、時分割で投光部91~93より波長IR1~IR3の赤外光を選択的に投光させるように制御する。
 ところで、撮像素子31にはシリコンウェハが用いられている。図4は、R,G,Bそれぞれの色を呈する素材に白色光を照射した場合の各波長における反射率にシリコンの受光感度を乗じたときの、波長と相対検出率との関係を示している。図4においても、相対検出率は、最大値が1に正規化されている。
 図4に示すように、赤外光の領域において、例えば、波長780nmにおける反射光はR色を呈する素材の反射光との相関性が高く、波長870nmにおける反射光はB色を呈する素材の反射光との相関性が高く、波長940nmにおける反射光はG色を呈する素材の反射光との相関性が高い。
 そこで、本実施形態においては、投光部91,92,93が投光する赤外光の波長IR1,IR2,IR3を、780nm,940nm,870nmとする。これらの波長は、波長IR1~IR3の一例であり、780nm,940nm,870nm以外でもよい。
 投光部91が波長IR1の赤外光を被写体に照射し、被写体から反射した光を撮像した映像信号をR信号に割り当てる。投光部93が波長IR2の赤外光を被写体に照射し、被写体から反射した光を撮像した映像信号をG信号に割り当てる。投光部92が波長IR3の赤外光を被写体に照射し、被写体から反射した光を撮像した映像信号をB信号に割り当てる。
 このようにすれば、原理的に、中間モードまたは暗視モードにおいても、通常モードにおいて可視光が存在する環境下で被写体を撮像した場合と同様の色を再現することができる。
 色味が被写体の実際の色味と異なるカラー映像となるものの、780nmの波長IR1をR光、870nmの波長IR3をG光、940nmの波長IR2をB光に割り当ててもよい。波長IR1,IR2,IR3をR光,G光,B光に任意に割り当てることも可能である。
 本実施形態においては、被写体の色味を最もよく再現する、波長IR1,IR2,IR3をそれぞれR光,G光,B光に割り当てることとする。
 制御部7は、撮像部3における撮像と、映像処理部5内の各部とを制御する。撮像部3によって撮像された撮像信号はA/D変換器4によってA/D変換され、映像処理部5に入力される。撮像部3とA/D変換器4とが一体化されていてもよい。映像処理部5と制御部7とが一体化されていてもよい。
 制御部7は、通常モードと中間モードと暗視モードとを切り換えるモード切換部72を備える。モード切換部72は、通常モードと中間モードと暗視モードとに対応させて、映像処理部5内の動作を後述のように適宜切り換える。モード切換部72は、赤外線投光器9によって波長IR1,IR2,IR3の赤外光を投光するタイミングを調整するタイミング調整モードに切り換えることができる。
 また、制御部7は、1台の撮像装置101と他の撮像装置101とを含んで撮像システムを構成する場合に、撮像装置101をマスタの撮像装置とするか、スレーブの撮像装置とするかを設定するマスタ/スレーブ設定部74を備える。
 マスタ/スレーブ設定部74は、機械的なスイッチによってマスタとスレーブとを選択して、選択されたマスタまたはスレーブの設定状態を保持してもよい。マスタ/スレーブ設定部74は、メニューによってマスタとスレーブとを選択して、選択されたマスタまたはスレーブの設定状態を保持してもよい。
 さらに、制御部7は、撮像装置101の赤外線投光器9と他の撮像装置101が備える赤外線投光器9とが、波長IR1,IR2,IR3の赤外光を投光するタイミング(位相)を同期させるための構成を備える。具体的には、制御部7は、輝度レベル判定部75と、同期信号送信部76tと、同期信号受信部76rとを備える。
 撮像装置101がマスタの撮像装置として設定されているとき、同期信号送信部76tは基準クロックを基準とした同期信号Ssyncを他の撮像装置101へと送出する。同期信号Ssyncは、例えば、この撮像装置101における赤外光が投光されるタイミングに基づく信号である。なお、このとき、同期信号受信部76rは不動作である。
 撮像装置101がスレーブの撮像装置として設定されているとき、同期信号受信部76rは、マスタである他の撮像装置101が送出した同期信号Ssyncを受信する。このとき、同期信号送信部76tは不動作である。また、同期信号Ssyncは、マスタの撮像装置から直接受信しなくてもよく、その他の装置を介して受信してもよい。
 輝度レベル判定部75と、同期信号送信部76t及び同期信号受信部76rの具体的な動作については後述する。
 映像処理部5は、スイッチ51,53と、前信号処理部52と、デモザイク処理部54とを有する。スイッチ51,53は物理的なスイッチであってもよく、前信号処理部52の動作と不動作とを切り換えるための概念的なスイッチであってもよい。制御部7には、撮像している映像の明るさを検出するために、映像処理部5から映像信号が入力される。
 図5に示すように、前信号処理部52は、周囲画素加算部521と、同一位置画素加算部522と、合成部523とを有する。
 映像処理部5は、R,G,Bの3原色データを生成して、映像出力部6に供給する。映像出力部6は、3原色データを所定の形式で図示していない表示部等へと出力する。
 映像出力部6は、R,G,B信号をそのまま出力してもよいし、R,G,B信号を輝度信号と色信号(または色差信号)に変換して出力してもよい。映像出力部6は、コンポジット映像信号を出力してもよい。映像出力部6は、デジタル信号の映像信号を出力してもよいし、D/A変換器によってアナログ信号に変換した映像信号を出力してもよい。
 以下、通常モードと中間モードと暗視モードとのそれぞれの具体的な動作について説明する。
<通常モード>
 通常モードでは、制御部7は、駆動部8によって、光学レンズ1と撮像部3との間に赤外線カットフィルタ21を挿入させる。投光制御部71は、赤外線投光器9による赤外光の投光をオフにする。
 撮像部3によって撮像された撮像信号は、A/D変換器4によってデジタル信号である映像データに変換されて、映像処理部5に入力される。通常モードでは、モード切換部72は、スイッチ51,53を端子Tbに接続するように制御する。
 図6の(a)は、撮像部3の露光Ex1,Ex2,Ex3…を示している。実際には露光時間はシャッタスピード等の条件によって変化するが、ここでは露光Ex1,Ex2,Ex3は最大露光時間を示している。
 図6の(b)は、それぞれの映像信号のフレームが得られるタイミングを示している。露光Ex1の前の図示していない露光に基づいて、所定時間後に映像信号のフレームF0が得られる。露光Ex1に基づいて、所定時間後に映像信号のフレームF1が得られる。露光Ex2に基づいて、所定時間後に映像信号のフレームF2が得られる。露光Ex3以降も同様である。映像信号のフレーム周波数を、例えば30フレーム/秒とする。
 映像信号のフレーム周波数は、NTSC方式であれば30フレーム/秒または60フレーム/秒、PAL方式であれば25フレーム/秒または50フレーム/秒のように適宜設定すればよい。また、映像信号のフレーム周波数は、映画で使われている24フレーム/秒であってもよい。
 A/D変換器4より出力された各フレームの映像データは、スイッチ51,53を介してデモザイク処理部54に入力される。デモザイク処理部54は、入力された各フレームの映像データにデモザイク処理を施す。映像処理部5は、デモザイク処理の他、ホワイトバランス補正やゲイン補正等の各種の映像処理を施して、R,G,Bの3原色データを出力する。
 図7を用いて、デモザイク処理部54におけるデモザイク処理について説明する。図7において、(a)は映像データの任意のフレームFmを示している。フレームFmは、有効映像期間の画素によって構成されたフレームである。映像データの画素数は、例えばVGA規格では水平640画素、垂直480画素である。ここでは簡略化のため、フレームFmの画素数を大幅に少なくして、フレームFmを概念的に示している。
 ベイヤ配列の撮像部3を用いて生成された映像データは、フレームFm内で、R,G,Bの画素データが混在したデータである。デモザイク処理部54は、Rの画素データが存在しない画素位置のRの画素データを周囲のRの画素データを用いて算出したRの補間画素データRiを生成する。デモザイク処理部54は、図7の(b)に示す1フレームの全画素がRの画素データよりなるRフレームFmRを生成する。
 デモザイク処理部54は、Gの画素データが存在しない画素位置のGの画素データを周囲のGの画素データを用いて算出したGの補間画素データGiを生成する。デモザイク処理部54は、図7の(c)に示す1フレームの全画素がGの画素データよりなるGフレームFmGを生成する。
 デモザイク処理部54は、Bの画素データが存在しない画素位置のBの画素データを周囲のBの画素データを用いて算出したBの補間画素データBiを生成する。デモザイク処理部54は、図7の(d)に示す1フレームの全画素がBの画素データよりなるBフレームFmBを生成する。
 デモザイク処理部54は、Rの画素データを補間する際には少なくともRの画素データを用いればよく、Gの画素データを補間する際には少なくともGの画素データを用いればよく、Bの画素データを補間する際には少なくともBの画素データを用いればよい。デモザイク処理部54は、補間精度を向上させるために、R,G,Bの画素データを補間する際に、生成しようとする補間画素データの色とは異なる他の色の画素データを用いてもよい。
 撮像部3には、有効映像期間より外側の画素も存在しているため、フレームFmの上下左右端部に位置する画素においても、R,G,Bの画素データを補間することができる。
 デモザイク処理部54によって生成されたRフレームFmR,GフレームFmG,BフレームFmBがR,G,Bの3原色データとして出力される。図7では、理解を容易にするため、R,G,Bの画素データをフレーム単位で説明したが、実際には、R,G,Bの画素データは画素ごとに順次出力される。
<中間モード:第1中間モード>
 中間モード(第1中間モード及び後述する第2中間モード)では、制御部7は、駆動部8によって、光学レンズ1と撮像部3との間にダミーガラス22を挿入させる。投光制御部71は、赤外線投光器9による赤外光の投光をオンにする。モード切換部72は、スイッチ51,53を端子Taに接続するように制御する。
 図8の(a)は、赤外線投光器9による赤外光の投光の状態を示している。制御部7は、通常モードの1フレーム期間を1/3ずつに分け、例えば投光部91,92,93の順に赤外光を投光させるように制御する。
 図8の(a)に示す例では、1フレームの最初の1/3の期間では、波長IR1(780nm)の赤外光が被写体に照射される。1フレームの次の1/3の期間では、波長IR2(940nm)の赤外光が被写体に照射される。1フレームの最後の1/3の期間では、波長IR3(870nm)の赤外光が被写体に照射される。波長IR1~IR3の赤外光を投光する順番は任意である。但し、波長IR1,IR2,IR3の順が最もよい。
 図8の(b)に示すように、波長IR1の赤外光を投光しているタイミングでは、撮像部3はR光との相関性が高い露光Ex1Rが行われる。波長IR2の赤外光を投光しているタイミングでは、撮像部3はG光との相関性が高い露光Ex1Gが行われる。波長IR3の赤外光を投光しているタイミングでは、撮像部3はB光との相関性が高い露光Ex1Bが行われる。
 但し、中間モードでは、可視光がわずかに存在する環境下での撮像であるため、可視光と赤外線投光器9より投光された赤外光とが混在した状態である。よって、中間モードにおいては、露光Ex1R,Ex1G,Ex1B,Ex2R,Ex2G,Ex2B…は、可視光による露光と赤外光による露光とを合わせた露光となる。
 図8の(c)に示すように、露光Ex1R,Ex1G,Ex1Bに基づいて、所定時間後に、露光Ex1Rに対応したフレームF1IR1、露光Ex1Gに対応したフレームF1IR3、露光Ex1Bに対応したフレームF1IR2が得られる。
 また、露光Ex2R,Ex2G,Ex2Bに基づいて、所定時間後に、露光Ex2Rに対応したフレームF2IR1、露光Ex2Gに対応したフレームF2IR3、露光Ex2Bに対応したフレームF2IR2が得られる。露光Ex3R,Ex3G,Ex3B以降も同様である。
 図8の(c)の撮像信号のフレーム周波数は、90フレーム/秒である。中間モードでは、通常モードにおける映像信号の1フレームを時分割して波長IR1~IR3の赤外光を投光するため、通常モードと同じ形式の映像信号を出力するためには、図8の(c)の撮像信号のフレーム周波数は、通常モードにおけるフレーム周波数の3倍となる。
 後述するように、図8の(c)の3フレームの撮像信号に基づいて、図8の(d)に示す30フレーム/秒のフレーム周波数を有する映像信号の1フレームが生成される。例えば、フレームF1IR1,F1IR2,F1IR3に基づいてフレームF1IRが生成され、フレームF2IR1,F2IR2,F2IR3に基づいてフレームF2IRが生成される。
 図8の(c)の3フレームの撮像信号に基づいて、図8の(d)の各フレームの映像信号を生成する中間モードでの動作を具体的に説明する。
 A/D変換器4より出力された図8の(c)に示す撮像信号に対応する各フレームの映像データは、スイッチ51を介して前信号処理部52に入力される。
 図9を用いて、前信号処理部52における前信号処理について説明する。図9の(a)は、波長IR1の赤外光を投光しているタイミングで生成された映像データの任意のフレームFmIR1を示している。フレームFmIR1内のR,B,Gr,Gbの画素データには、波長IR1の赤外光を投光した状態で生成されたことを示す添え字1を付している。
 図9の(b)は、波長IR2の赤外光を投光しているタイミングで生成された映像データの任意のフレームFmIR2を示している。フレームFmIR2内のR,B,Gr,Gbの画素データには、波長IR2の赤外光を投光した状態で生成されたことを示す添え字2を付している。
 図9の(c)は、波長IR3の赤外光を投光しているタイミングで生成された映像データの任意のフレームFmIR3を示している。フレームFmIR3内のR,B,Gr,Gbの画素データには、波長IR3の赤外光を投光した状態で生成されたことを示す添え字3を付している。
 図9の(a)に示すフレームFmIR1は、R光との相関性が高い波長IR1の赤外光が投光された状態で生成された映像データであるので、Rの画素データは投光された赤外光と対応した画素データであり、B,Gの画素データは投光された赤外光と対応していない画素データである。B,Gr,Gbの画素データに付しているハッチングは、投光された赤外光と対応していない画素データであることを意味する。
 図9の(b)に示すフレームFmIR2は、G光との相関性が高い波長IR2の赤外光が投光された状態で生成された映像データであるので、Gの画素データは投光された赤外光と対応した画素データであり、R,Bの画素データは投光された赤外光と対応していない画素データである。R,Bの画素データに付しているハッチングは、投光された赤外光と対応していない画素データであることを意味する。
 図9の(c)に示すフレームFmIR3は、B光との相関性が高い波長IR3の赤外光が投光された状態で生成された映像データであるので、Bの画素データは投光された赤外光と対応した画素データであり、R,Gの画素データは投光された赤外光と対応していない画素データである。R,Gr,Gbの画素データに付しているハッチングは、投光された赤外光と対応していない画素データであることを意味する。
 前信号処理部52内の同一位置画素加算部522は、互いに同じ画素位置のR,Gr,Gb,Bの画素データを以下の式(1)~(3)に従って個別に加算して、加算画素データR123,Gr123,Gb123,B123を生成する。中間モードでは、前信号処理部52内の周囲画素加算部521は不動作である。
 R123=ka×R1+kb×R2 +kc×R3  …(1)
 G123=kd×G1+ke×G2+kf×G3  …(2)
 B123=kg×B1+kh×B2+ki×B3  …(3)
 式(1)~(3)において、R1,G1,B1はフレームFmIR1におけるR,G,Bの画素データ、R2,G2,B2はフレームFmIR2におけるR,G,Bの画素データ、R3,G3,B3はフレームFmIR3におけるR,G,Bの画素データである。ka~kiは所定の係数である。式(2)におけるG123はGr123またはGb123である。
 このとき、同一位置画素加算部522は、ハッチングを付していないR,Gr,Gb,Bのそれぞれの画素データに、ハッチングを付した同じ画素位置のR,Gr,Gb,Bの画素データそれぞれを加算する。
 即ち、同一位置画素加算部522は、式(1)に基づいて、フレームFmIR1におけるRの画素データに、フレームFmIR2,FmIR3における同じ画素位置のRの画素データを加算して、加算画素データR123を生成する。つまり、受光素子における赤色のカラーフィルタに対応する領域の画素データだけを用いて赤色用の加算画素データR123を生成する。
 同一位置画素加算部522は、式(2)に基づいて、フレームFmIR2におけるGr,Gbの画素データに、フレームFmIR1,FmIR3における同じ画素位置のGr,Gbの画素データを加算して、加算画素データG123を生成する。つまり、受光素子における緑色のカラーフィルタに対応する領域の画素データだけを用いて緑色用の加算画素データG123を生成する。
 同一位置画素加算部522は、式(3)に基づいて、フレームFmIR3におけるBの画素データに、フレームFmIR1,FmIR2における同じ画素位置のBの画素データを加算して、加算画素データB123を生成する。つまり、受光素子における青色のカラーフィルタに対応する領域の画素データだけを用いて青色用の加算画素データB123を生成する。
 前信号処理部52内の合成部523は、それぞれの画素位置において生成された加算画素データR123,Gr123,Gb123,B123に基づいて、図9の(d)に示す合成映像信号のフレームFmIR123を生成する。
 具体的には、合成部523は、フレームFmIR1における加算画素データR123と、フレームFmIR2における加算画素データGr123,Gb123と、フレームFmIR3における加算画素データB123とを選択して合成する。これによって合成部523は、合成映像信号のフレームFmIR123を生成する。
 このように、合成部523は、カラーフィルタ32におけるフィルタエレメントの配列と同じ配列となるように、加算画素データR123,Gr123,Gb123,B123を配列させたフレームFmIR123を生成する。
 第1中間モードにおいては、ハッチングを付していない画素データと、ハッチングを付した画素データとを用いて、フレームFmIR123の映像データを生成する。
 同一位置画素加算部522によって互いに同じ画素位置の画素データを加算するのは、次の理由による。中間モードではわずかではあるものの可視光が存在する環境下での撮像であるため、ハッチングを付した画素データは可視光による露光に基づくそれぞれの色の成分を含む。よって、同じ画素位置の画素データを加算することによって、それぞれの色の感度を上げることができる。
 可視光と赤外光とが混在している状況で可視光が比較的多ければ、可視光による露光が支配的となる。この場合、フレームFmIR123の映像データは、可視光によって露光した映像信号に基づく成分が主となる。可視光と赤外光とが混在している状況で赤外光が比較的多ければ、赤外光による露光が支配的となる。この場合、フレームFmIR123の映像データは、赤外光によって露光した映像信号に基づく成分が主となる。
 可視光が比較的少ない場合には、式(1)において、係数ka,kb,kcの大小関係を、ka>kb,kcとし、式(2)において、係数kd,ke,kfの大小関係を、kf>kd,keとし、式(3)において、係数kg,kh,kiの大小関係を、kh>kg,kiとするのがよい。これは、波長IR1はR光との相関性が高く、波長IR2はG光との相関性が高く、波長IR3はB光との相関性が高いからである。
 このようにすれば、Rの画素データではフレームFmIR1におけるRの画素データ、Gの画素データではフレームFmIR2におけるGの画素データ、Bの画素データではフレームFmIR3におけるBの画素データを主とすることができる。
 前信号処理部52より出力されたフレームFmIR123の映像データは、スイッチ53を介してデモザイク処理部54に入力される。デモザイク処理部54は、通常モードと同様に、入力されたフレームFmIR123の映像データにデモザイク処理を施す。映像処理部5は、デモザイク処理の他、ホワイトバランス補正やゲイン補正等の各種の映像処理を施して、R,G,Bの3原色データを出力する。
 図10を用いて、デモザイク処理部54におけるデモザイク処理について説明する。図10の(a)は、フレームFmIR123を示している。デモザイク処理部54は、Rの画素データが存在しない画素位置のRの画素データを周囲のRの画素データを用いて演算して、Rの補間画素データR123iを生成する。デモザイク処理部54は、図10の(b)に示す1フレームの全画素がRの画素データよりなるRフレームFmIR123Rを生成する。
 デモザイク処理部54は、Gの画素データが存在しない画素位置のGの画素データを周囲のGの画素データを用いて演算して、Gの補間画素データG123iを生成する。デモザイク処理部54は、図10の(c)に示す1フレームの全画素がGの画素データよりなるGフレームFmIR123Gを生成する。
 デモザイク処理部54は、Bの画素データが存在しない画素位置のBの画素データを周囲のBの画素データを用いて演算して、Bの補間画素データB123iを生成する。デモザイク処理部54は、図10の(d)に示す1フレームの全画素がBの画素データよりなるBフレームFmIR123Bを生成する。
 通常モードにおける図7に示すデモザイク処理部54の動作と、中間モードにおける図10に示すデモザイク処理部54の動作とを比較すれば分かるように、両者は実質的に同じである。デモザイク処理部54の動作は、通常モードであっても中間モードであっても変わらない。
 通常モードでは前信号処理部52を不動作とし、中間モードでは、周囲画素加算部521を除き、前信号処理部52を動作させればよい。通常モードと中間モードとで、映像処理部5におけるデモザイク処理部54、及び、ホワイトバランス補正やゲイン補正等の信号処理部を共用させることができる。
<中間モード:第2中間モード>
 図11及び図12を用いて、第2中間モードにおける動作を説明する。第2中間モードにおける動作において、第1中間モードにおける動作と同一部分は説明を省略する。図11の(a)~(c)のフレームFmIR1,FmIR2,FmIR3は、図9の(a)~(c)のフレームFmIR1,FmIR2,FmIR3と同じである。
 合成部523は、フレームFmIR1におけるRの画素データであるR1と、フレームFmIR2におけるGの画素データであるGr2,Gb2と、フレームFmIR3におけるBの画素データであるB3とを選択して合成する。これによって合成部523は、図11の(d)に示す合成映像信号のフレームFmIR123’を生成する。
 即ち、フレームFmIR123’は、フレームFmIR1,FmIR3,FmIR2におけるハッチングを付していないR,Gr,Gb,Bの画素データを1フレームに集結させた映像データである。
 つまり、フレームFmIR123’においては、波長IR1の赤外光を投光した状態における赤色のカラーフィルタに対応する領域の画素データだけを用いた赤色用の画素データ、波長IR2の赤外光を投光した状態における緑色のカラーフィルタに対応する領域の画素データだけを用いた緑色用の画素データ、波長IR3の赤外光を投光した状態における青色のカラーフィルタに対応する領域の画素データだけを用いた青色用の画素データとなっている。
 このように、合成部523は、カラーフィルタ32におけるフィルタエレメントの配列と同じ配列となるように、画素データR1,Gr2,Gb2,B3を配列させたフレームFmIR123’を生成する。
 第2中間モードでは、同一位置画素加算部522は、式(1)における係数kaを1、係数kb,kcを0とし、式(2)における係数keを1、係数kd,kfを0とし、式(3)における係数kiを1、係数kg,khを0とする。
 これによって、フレームFmIR1におけるRの画素データと、フレームFmIR2におけるGr,Gbの画素データと、フレームFmIR3におけるBの画素データは、それぞれそのままの値となる。
 よって、合成部523は、第1中間モードにおける動作と同様に、フレームFmIR1におけるRの画素データと、フレームFmIR2におけるGr,Gbの画素データと、フレームFmIR3におけるBの画素データを選択すれば、フレームFmIR123’を生成することができる。
 第2中間モードにおいては、前信号処理部52は、画素データの色と同じ色の画素データを生成するための赤外光が投光された状態で生成された画素データ(ハッチングを付していない画素データ)のみ用いて、フレームFmIR123’の映像データを生成する。
 第2中間モードによれば、第1中間モードよりも感度や色の再現性は低下するものの、演算処理を簡略化したり、フレームメモリを削減したりすることができる。
 図12を用いて、デモザイク処理部54におけるデモザイク処理について説明する。図12の(a)は、フレームFmIR123’を示している。デモザイク処理部54は、Rの画素データが存在しない画素位置のRの画素データを周囲のRの画素データを用いて演算して、Rの補間画素データR1iを生成する。デモザイク処理部54は、図12の(b)に示す1フレームの全画素がRの画素データよりなるRフレームFmIR123’Rを生成する。
 デモザイク処理部54は、Gの画素データが存在しない画素位置のGの画素データを周囲のGの画素データを用いて演算して、Gの補間画素データG2iを生成する。デモザイク処理部54は、図12の(c)に示す1フレームの全画素がGの画素データよりなるGフレームFmIR123’Gを生成する。
 デモザイク処理部54は、Bの画素データが存在しない画素位置のBの画素データを周囲のBの画素データを用いて演算して、Bの補間画素データB3iを生成する。デモザイク処理部54は、図12の(d)に示す1フレームの全画素がBの画素データよりなるBフレームFmIR123’Bを生成する。
 以上のように、中間モードにおいては、受光素子における赤色のカラーフィルタに対応する領域から得た画素データから赤色用の画素データを生成し、受光素子における緑色のカラーフィルタに対応する領域から得た画素データから緑色用の画素データを生成し、受光素子における青色のカラーフィルタに対応する領域から得た画素データから青色用の画素データを生成する。
<暗視モード:第1暗視モード>
 暗視モード(第1暗視モード及び後述する第2暗視モード)では、中間モードと同様、制御部7は、駆動部8によって、光学レンズ1と撮像部3との間にダミーガラス22を挿入させる。投光制御部71は、赤外線投光器9による赤外光の投光をオンにする。モード切換部72は、スイッチ51,53を端子Taに接続するように制御する。
 暗視モードにおける概略的な動作は、図8と同じである。但し、暗視モードでは、可視光がほとんど存在しない環境下での撮像であるため、図8の(b)における露光Ex1R,Ex1G,Ex1B,Ex2R,Ex2G,Ex2B…は、赤外光のみによる露光を想定している。
 可視光がほとんど存在せず赤外光のみが存在している環境下では、カラーフィルタ32におけるそれぞれのフィルタエレメントの特性には差がなくなるため、撮像部3を単色の撮像素子とみなすことができる。
 そこで、前信号処理部52内の周囲画素加算部521は、暗視モードでは、赤外光の感度を向上させるために、それぞれの画素データに対して、周囲に位置する画素データを加算する。
 具体的には、図13の(a)に示すように、Rの画素が注目画素であるとき、周囲画素加算部521は、注目画素のRの画素データに対して周囲に位置するG及びBの8画素の画素データを加算する。
 つまり、中間モードのときは、受光素子における赤色のカラーフィルタに対応する領域から得た画素データから赤色用の画素データを生成していたが、暗視モードでは、中間モードのときよりも広い領域から得た画素データから赤色用の画素データを生成することとなる。図13の例では、各色とも注目画素を含む9画素分の領域から得た画素データを用いている。
 図13の(b)に示すように、Gの画素が注目画素であるとき、周囲画素加算部521は、注目画素のGの画素データに対して周囲に位置するR,G,Bの8画素の画素データを加算する。図13の(b)における注目画素のGはGbの画素であり、周囲に位置するGはGrの画素である。図示を省略しているが、注目画素がGrの画素の場合も同様である。
 つまり、中間モードのときは、受光素子における緑色のカラーフィルタに対応する領域から得た画素データから緑色用の画素データを生成していたが、暗視モードでは、中間モードのときよりも広い領域から得た画素データから緑色用の画素データを生成することとなる。
 図13の(c)に示すように、Bの画素が注目画素であるとき、周囲画素加算部521は、注目画素のBの画素データに対して周囲に位置するR及びGの8画素の画素データを加算する。
 つまり、中間モードのときは、受光素子における青色のカラーフィルタに対応する領域から得た画素データから青色用の画素データを生成していたが、暗視モードでは、中間モードのときよりも広い領域から得た画素データから青色用の画素データを生成することとなる。
 周囲画素加算部521は、注目画素の画素データと周囲の8画素の画素データとの9画素を単純に加算してもよいし、周囲の8画素の画素データに対して所定の重み付けをした上で注目画素の画素データに加算してもよい。
 周囲の8画素の画素データに対する重み付けは、部分的に0であってもよい。即ち、周囲画素加算部521における注目画素の画素データに対する周囲画素の画素データの加算とは、8画素の画素データの全てを加算することに限定されない。
 例えば、周囲画素加算部521は、注目画素の画素データに対して上下及び左右に位置する画素の画素データのみを加算し、斜め方向に位置する画素の画素データを加算しなくてもよい。
 ところで、ビニングと称される複数の画素をまとめて1つの画素として読み出し可能な撮像素子が存在する。撮像素子31として、ビニング機能を有する撮像素子を用いる場合には、周囲画素加算部521による加算処理ではなく、ビニング機能を有する撮像素子による加算処理を行ってもよい。撮像素子によるビニングは、周囲画素加算部521による加算処理と実質的に等価である。
 図14の(a)~(c)のフレームFmIR1,FmIR3,FmIR2は、図9の(a)~(c)のフレームFmIR1,FmIR3,FmIR2と同じである。図14の(d)~(f)において、R1ad,Gr1ad,Gb1ad,B1ad,R2ad,Gr2ad,Gb2ad,B2ad,R3ad,Gr3ad,Gb3ad,B3adは、それぞれ、R,Gr,Gb,Bの画素データに対して周囲の8画素の画素データを加算した加算画素データである。
 周囲画素加算部521は、フレームFmIR1,FmIR3,FmIR2のそれぞれの画素データに対して図13に示す加算処理を施すことにより、図14の(d)~(f)に示すフレームFmIR1ad,FmIR2ad,FmIR3adを生成する。
 図15の(a)~(c)のフレームFmIR1ad,FmIR2ad,FmIR3adは、図14の(d)~(f)のフレームFmIR1ad,FmIR2ad,FmIR3adと同じである。
 同一位置画素加算部522は、第1中間モードと同様に、式(1)に基づいて、フレームFmIR1adにおけるR1adの画素データに、フレームFmIR2ad,FmIR3adにおける同じ画素位置のR2ad,R3adの画素データを加算して、加算画素データR123adを生成する。
 同一位置画素加算部522は、式(2)に基づいて、フレームFmIR2adにおけるGr2ad,Gb2adの画素データに、フレームFmIR1ad,FmIR3adにおける同じ画素位置のGr1ad,Gb1ad,Gr3ad,Gb3adの画素データを加算して、加算画素データGr123ad,Gb123adを生成する。
 同一位置画素加算部522は、式(3)に基づいて、フレームFmIR3adにおけるB3adの画素データに、フレームFmIR1ad,FmIR2adにおける同じ画素位置のB1ad,B2adの画素データを加算して、加算画素データB123adを生成する。
 合成部523は、第1中間モードと同様に、フレームFmIR1adにおける加算画素データR123adと、フレームFmIR2adにおける加算画素データGr123ad,Gb123adと、フレームFmIR3adにおける加算画素データB123adとを選択して合成する。これによって合成部523は、図15の(d)に示す合成映像信号のフレームFmIR123adを生成する。
 合成部523は、カラーフィルタ32におけるフィルタエレメントの配列と同じ配列となるように、加算画素データR123ad,Gr123ad,Gb123ad,B123adを配列させたフレームFmIR123adを生成する。
 図16の(a)はフレームFmIR123adを示している。デモザイク処理部54は、Rの画素データが存在しない画素位置のRの画素データを周囲のRの画素データを用いて演算して、Rの補間画素データR123adiを生成する。デモザイク処理部54は、図16の(b)に示す1フレームの全画素がRの画素データよりなるRフレームFmIR123adRを生成する。
 デモザイク処理部54は、Gの画素データが存在しない画素位置のGの画素データを周囲のGの画素データを用いて演算して、Gの補間画素データG123adiを生成する。デモザイク処理部54は、図16の(c)に示す1フレームの全画素がGの画素データよりなるGフレームFmIR123adGを生成する。
 デモザイク処理部54は、Bの画素データが存在しない画素位置のBの画素データを周囲のBの画素データを用いて演算して、Bの補間画素データB123adiを生成する。デモザイク処理部54は、図16の(d)に示す1フレームの全画素がBの画素データよりなるBフレームFmIR123adBを生成する。
 第1中間モードと第1暗視モードとは、前者が周囲画素加算部521を不動作としている一方で、後者が周囲画素加算部521を動作させている点で異なる。モード切換部72は、暗視モードのとき、周囲画素加算部521を動作させればよい。
 暗視モードにおけるデモザイク処理部54の動作は、通常モード及び中間モードにおけるデモザイク処理部54の動作と実質的に同じである。通常モードと中間モードと暗視モードとで、映像処理部5におけるデモザイク処理部54、及び、ホワイトバランス補正やゲイン補正等の信号処理部を共用させることができる。
<暗視モード:第2暗視モード>
 図17及び図18を用いて、第2暗視モードにおける動作を説明する。第2暗視モードにおける動作において、第1暗視モードにおける動作と同一部分は説明を省略する。図17の(a)~(c)のフレームFmIR1ad,FmIR2ad,FmIR3adは、図15の(a)~(c)のFmIR1ad,FmIR2ad,FmIR3adと同じである。
 合成部523は、フレームFmIR1adにおけるRの画素データであるR1adと、フレームFmIR2におけるGの画素データであるGr2ad,Gb2adと、フレームFmIR3におけるBの画素データであるB3adとを選択して合成する。これによって合成部523は、図17の(d)に示す合成映像信号のフレームFmIR123’adを生成する。
 合成部523は、カラーフィルタ32におけるフィルタエレメントの配列と同じ配列となるように、加算画素データR1ad,Gr2ad,Gb2ad,B3adを配列させたフレームFmIR123’adを生成する。
 なお、図13を用いて説明したように、フレームFmIR123’adにおける赤色用の加算画素データR1adは、中間モードのときに赤色用の画素データを生成するために用いた領域よりも広い領域から得た画素データから生成されたものとなっている。
 また、フレームFmIR123’adにおける緑色用の加算画素データGr2adは、中間モードのときに緑色用の画素データを生成するために用いた領域よりも広い領域から得た画素データから生成されたものとなっている。
 さらに、フレームFmIR123’adにおける青色用の加算画素データB3adは、中間モードのときに青色用の画素データを生成するために用いた領域よりも広い領域から得た画素データから生成されたものとなっている。
 第2暗視モードでは、第2中間モードと同様に、同一位置画素加算部522は、式(1)における係数kaを1、係数kb,kcを0とし、式(2)における係数keを1、係数kd,kfを0とし、式(3)における係数kiを1、係数kg,khを0とする。
 これによって、フレームFmIR1adにおけるR1adの画素データと、フレームFmIR2adにおけるGr2ad,Gb2adの画素データと、フレームFmIR3adにおけるB3adの画素データは、それぞれそのままの値となる。
 よって、合成部523は、第1暗視モードにおける動作と同様に、フレームFmIR1adにおけるR1adの画素データと、フレームFmIR2adにおけるGr2ad,Gb2adの画素データと、フレームFmIR3adにおけるB3adの画素データを選択すれば、フレームFmIR123’adを生成することができる。
 図18を用いて、デモザイク処理部54におけるデモザイク処理について説明する。図18の(a)は、フレームFmIR123’adを示している。デモザイク処理部54は、Rの画素データが存在しない画素位置のRの画素データを周囲のR1adの画素データを用いて演算して、Rの補間画素データR1adiを生成する。デモザイク処理部54は、図18の(b)に示す1フレームの全画素がRの画素データよりなるRフレームFmIR123’adRを生成する。
 デモザイク処理部54は、Gの画素データが存在しない画素位置のGの画素データを周囲のGr2ad,Gb2adの画素データを用いて演算して、Gの補間画素データG2adiを生成する。デモザイク処理部54は、補間して、図18の(c)に示す1フレームの全画素がGの画素データよりなるGフレームFmIR123’adGを生成する。
 デモザイク処理部54は、Bの画素データが存在しない画素位置のBの画素データを周囲のB3adの画素データを用いて算出したBの補間画素データB3adiを生成する。デモザイク処理部54は、図18の(d)に示す1フレームの全画素がBの画素データよりなるBフレームFmIR123’adBを生成する。
 第2中間モードと第2暗視モードとは、前者が周囲画素加算部521を不動作としている一方で、後者が周囲画素加算部521を動作させている点で異なる。
 また、中間モードにおいては、受光素子における各色に対応する領域から得た画素データそれぞれから各色用の画素データを生成していたが、暗視モードにおいては、周囲画素を加算するため、中間モードにおける各色用の画素データを生成するための領域それぞれよりも広い領域から得た画素データから各色用の画素データを生成するとも言える。
<モード切換の例>
 図19を用いて、モード切換部72によるモード切換の例を説明する。図19の(a)は、一例として、昼間の時間帯から夜の時間帯へと時間が経過していくとき、周囲環境の明るさが変化していく様子を概略的に示している。
 図19の(a)に示すように、昼間から夕刻へと時間が経過していくに従って明るさが低下していき、時刻t3以降、ほぼ真っ暗の状態となる。図19の(a)に示す明るさは実質的に可視光の量を示しており、時刻t3以降、可視光がほとんどない状態である。
 制御部7は、映像処理部5から入力される映像信号(映像データ)の輝度レベルに基づいて周囲環境の明るさを判断することができる。図19の(b)に示すように、モード切換部72は、明るさが所定の閾値Th1(第1の閾値)以上であるとき通常モードとし、明るさが閾値Th1未満で所定の閾値Th2(第2の閾値)以上であるとき中間モード、閾値Th2未満であるとき暗視モードとする。
 本実施形態の撮像装置101は、明るさが閾値Th1となる時刻t1までは通常モード、時刻t1から明るさが閾値Th2となる時刻t2まで中間モード、時刻t2以降は暗視モードに、モードを自動的に切り換える。図19の(b)において、中間モードは第1中間モードと第2中間モードとのいずれでもよく、暗視モードは第1暗視モードと第2暗視モードとのいずれでもよい。
 図19の(a)では可視光がほとんどなくなる時刻t3の直前の明るさを閾値Th2としているが、時刻t3の明るさを閾値Th2としてもよい。
 図19の(c)に示すように、モード切換部72は、中間モードの期間で、可視光が比較的多い時刻t1側の期間を第1中間モード、可視光が比較的少ない時刻t2側の期間を第2中間モードとしてもよい。図19の(c)において、暗視モードは第1暗視モードと第2暗視モードとのいずれでもよい。
 本実施形態の撮像装置101は、投光制御部71が赤外線投光器9のオン・オフを制御し、モード切換部72が映像処理部5内の各部の動作・不動作を切り換えることにより、それぞれのモードを実現することができる。
 図20に示すように、通常モードは、赤外線投光器9がオフ、周囲画素加算部521と同一位置画素加算部522と合成部523がいずれも不動作、デモザイク処理部54が動作の状態である。
 第1中間モードは、赤外線投光器9がオン、周囲画素加算部521が不動作、同一位置画素加算部522と合成部523とデモザイク処理部54とが動作の状態である。第2中間モードは、赤外線投光器9がオン、周囲画素加算部521と同一位置画素加算部522とが不動作、合成部523とデモザイク処理部54とが動作の状態である。
 同一位置画素加算部522における動作と不動作とは、前述のように、式(1)~(3)の係数ka~kiの値を適宜に設定することによって容易に切り換えることができる。
 第1暗視モードは、赤外線投光器9がオン、周囲画素加算部521と同一位置画素加算部522と合成部523とデモザイク処理部54との全てが動作の状態である。第2暗視モードは、赤外線投光器9がオン、同一位置画素加算部522が不動作、周囲画素加算部521と合成部523とデモザイク処理部54とが動作の状態である。
 ところで、周囲画素加算部521は、注目画素の画素データに対して周囲の画素データを加算するための計算式において、周囲の画素データに乗じる係数を、0を超える係数(例えば1)とすれば、周囲画素の加算処理を動作の状態とすることができる。
 また、周囲画素加算部521は、その計算式において、周囲の画素データに乗じる係数を0とすれば、周囲画素の加算処理を不動作の状態とすることができる。
 周囲画素加算部521における動作と不動作も、係数の値を適宜に設定することによって容易に切り換えることができる。
<第1の実施形態の撮像装置の第1の変形例>
 制御部7が周囲環境の明るさを検出する方法は、映像信号の輝度レベルに基づく方法に限定されない。
 図21に示すように、明るさセンサ11によって周囲環境の明るさを検出してもよい。図21において、映像信号の輝度レベルと明るさセンサ11によって検出した明るさとの双方に基づいて、周囲環境の明るさを判断してもよい。
<第1の実施形態の撮像装置の第2の変形例>
 制御部7は、周囲環境の明るさを直接的に検出せず、1年間における時期(日にち)及び時刻(時間帯)に基づいて周囲環境の明るさを概略的に想定して、モード切換部72が各モードに切り換えるようにしてもよい。
 図22に示すように、モード設定テーブル12には、日にちと時間帯との組み合わせに対応して、通常モードと中間モードと暗視モードとのいずれかが設定されている。制御部7内の時計73は、日にちと時刻を管理している。制御部7は、時計73が示す日にちと時刻とを参照して、モード設定テーブル12より設定されているモードを読み出す。
 投光制御部71とモード切換部72は、モード設定テーブル12より読み出されたモードとなるように、撮像装置を制御する。
<第1の実施形態の撮像装置の第3の変形例>
 図23に示すように、操作部13によってユーザがモードを手動で選択して、投光制御部71とモード切換部72が選択されたモードとなるように撮像装置を制御してもよい。操作部13は、撮像装置の筐体に設けられている操作ボタンであってもよく、リモートコントローラであってもよい。
<映像信号処理方法>
 図24を用いて、図1に示す撮像装置101で実行される映像信号処理方法を改めて説明する。
 図24において、撮像装置が動作を開始すると、制御部7は、ステップS1にて、周囲環境の明るさが閾値Th1以上であるか否かを判定する。閾値Th1以上であれば(YES)、制御部7は、ステップS3にて、通常モードでの処理を実行させる。閾値Th1以上でなければ(NO)、制御部7は、ステップS2にて、周囲環境の明るさが閾値Th2以上であるか否かを判定する。
 閾値Th2以上であれば(YES)、制御部7は、ステップS4にて、中間モードでの処理を実行させる。閾値Th2以上でなければ(NO)、制御部7は、ステップS5にて、暗視モードでの処理を実行させる。
 制御部7は、ステップS3~S5の後、処理をステップS1に戻し、ステップS1以降を繰り返す。
 図25は、ステップS3の通常モードの具体的な処理を示す。図25において、制御部7(投光制御部71)は、ステップS31にて、赤外線投光器9をオフにする。制御部7は、ステップS32にて、赤外線カットフィルタ21を挿入する。制御部7(モード切換部72)は、ステップS33にて、スイッチ51,53を端子Tbに接続させる。ステップS31~S33の順番は任意であり、同時であってもよい。
 制御部7は、ステップS34にて、撮像部3によって被写体を撮像させる。制御部7は、ステップS35にて、撮像部3が被写体を撮像することよって生成した映像信号を構成するフレームをデモザイク処理部54によってデモザイク処理させるよう、映像処理部5を制御する。
 図26は、ステップS4の中間モードの具体的な処理を示す。図26において、制御部7(投光制御部71)は、ステップS41にて、投光部91~93より波長IR1~IR3の赤外光を時分割で投光させるよう、赤外線投光器9をオンにする。
 制御部7は、ステップS42にて、ダミーガラス22を挿入する。制御部7(モード切換部72)は、ステップS43にて、スイッチ51,53を端子Taに接続させる。ステップS41~S43の順番は任意であり、同時であってもよい。
 制御部7は、ステップS44にて、撮像部3によって被写体を撮像させる。撮像部3は、Rに対応付けられた波長IR1の赤外光と、Gに対応付けられた波長IR2の赤外光と、Bに対応付けられた波長IR3の赤外光とがそれぞれ投光されている状態で被写体を撮像する。
制御部7(モード切換部72)は、ステップS45にて、周囲画素加算部521を不動作とし、合成部523を動作させて合成映像信号を生成させるよう、前信号処理部52を制御する。
 波長IR1,IR2,IR3の赤外光がそれぞれ投光されている状態で撮像部3が被写体を撮像することよって生成された映像信号を構成するフレームを第1のフレーム,第2のフレーム,第3のフレームとする。
 合成部523は、第1のフレーム内のRの画素データと、第2のフレーム内のGの画素データと、第3のフレーム内のBの画素データとに基づく3原色の画素データを、カラーフィルタ32におけるフィルタエレメントの配列と同じ配列となるように配列させる。合成部523は、このようにして第1~第3のフレームを1フレームに合成した合成映像信号を生成する。
 制御部7は、ステップS46にて、合成映像信号のフレームをデモザイク処理部54によってデモザイク処理させるよう、映像処理部5を制御する。
 デモザイク処理部54は、合成映像信号のフレームに基づいて、Rのフレームと、Gのフレームと、Bのフレームとを生成するデモザイク処理を施して、デモザイク処理された3原色のフレームを順次生成する。
 デモザイク処理部54は、Rの画素データが存在しない画素位置にRの画素データを補間することによって、Rのフレームを生成することができる。デモザイク処理部54は、Gの画素データが存在しない画素位置にGの画素データを補間することによって、Gのフレームを生成することができる。デモザイク処理部54は、Bの画素データが存在しない画素位置にBの画素データを補間することによって、Bのフレームを生成することができる。
 第1中間モードとする場合には、ステップS45にて、同一位置画素加算部522を動作させ、第2中間モードとする場合には、ステップS45にて、同一位置画素加算部522を不動作とすればよい。
 図27は、ステップS5の暗視モードの具体的な処理を示す。図27において、制御部7(投光制御部71)は、ステップS51にて、投光部91~93より波長IR1~IR3の赤外光を時分割で投光させるよう、赤外線投光器9をオンにする。
 制御部7は、ステップS52にて、ダミーガラス22を挿入する。制御部7(モード切換部72)は、ステップS53にて、スイッチ51,53を端子Taに接続させる。ステップS51~S53の順番は任意であり、同時であってもよい。
 制御部7は、ステップS54にて、撮像部3によって被写体を撮像させる。制御部7(モード切換部72)は、ステップS55にて、周囲画素加算部521と合成部523とを動作させて合成映像信号を生成させるよう、前信号処理部52を制御する。
 制御部7は、ステップS56にて、合成映像信号のフレームをデモザイク処理部54によってデモザイク処理させるよう、映像処理部5を制御する。
 第1暗視モードとする場合には、ステップS55にて、同一位置画素加算部522を動作させ、第2暗視モードとする場合には、ステップS55にて、同一位置画素加算部522を不動作とすればよい。
<映像信号処理プログラム>
 図1において、制御部7、または、映像処理部5と制御部7との一体化部分をコンピュータ(マイクロコンピュータ)で構成し、映像信号処理プログラム(コンピュータプログラム)をコンピュータで実行させることによって、上述した本実施形態の撮像装置101と同様の動作を実現させることも可能である。
 図28を用いて、図24のステップS4である中間モードにおける制御を映像信号処理プログラムで構成した場合にコンピュータに実行させる手順の例を説明する。図28は、映像信号処理プログラムがコンピュータに実行させる処理を示す。
 図28において、映像信号処理プログラムは、ステップS401にて、コンピュータに、R,G,Bに対応付けられた波長IR1,IR2,IR3の赤外光をそれぞれ投光するように赤外線投光器9を制御する処理を実行させる。
 ステップS401に示す処理を映像信号処理プログラムの外部にて実行させてもよい。図28では、ダミーガラス22を挿入させる処理を省略している。ダミーガラス22を挿入させる処理も映像信号処理プログラムの外部にて実行させてもよい。
 映像信号処理プログラムは、ステップS402にて、コンピュータに、波長IR1の赤外光が投光されている状態で、撮像部3が被写体を撮像することによって生成された映像信号の第1のフレームを構成する画素データを取得する処理を実行させる。
 映像信号処理プログラムは、ステップS403にて、コンピュータに、波長IR2の赤外光が投光されている状態で、撮像部3が被写体を撮像することによって生成された映像信号の第2のフレームを構成する画素データを取得する処理を実行させる。
 映像信号処理プログラムは、ステップS404にて、コンピュータに、波長IR3の赤外光が投光されている状態で、撮像部3が被写体を撮像することによって生成された映像信号の第3のフレームを構成する画素データを取得する処理を実行させる。ステップS402~S404の順番は任意である。
 映像信号処理プログラムは、ステップS405にて、コンピュータに、R,G,Bの画素データを、カラーフィルタ32におけるフィルタエレメントの配列と同じ配列となるように配列させて、1フレームに合成した合成映像信号を生成する処理を実行させる。
 中間モードでは、映像信号処理プログラムは、ステップS405にて、コンピュータに、周囲画素の加算処理のステップを実行させない。
 映像信号処理プログラムは、ステップS406にて、コンピュータに、合成映像信号のフレームにデモザイク処理を施して、R,G,Bのフレームを生成する処理を実行させる。
 図示は省略するが、図24のステップS5である暗視モードにおける制御を映像信号処理プログラムで構成する場合には、図28のステップS405にて、コンピュータに、周囲画素の加算処理の処理を実行させればよい。
 映像信号処理プログラムは、コンピュータで読み取り可能な記録媒体に記録されたコンピュータプログラムであってよい。映像信号処理プログラムが記録媒体に記録された状態で提供されてもよいし、映像信号処理プログラムをコンピュータにダウンロードさせるよう、インターネット等のネットワークを介して提供されてもよい。コンピュータで読み取り可能な記録媒体は、CD-ROM,DVD-ROM等の非一時的な任意の記録媒体でよい。
 図1のように構成される撮像装置において、例えば、必要に応じて各部を複数設けたりして、中間モードと暗視モードとを同時に実行するようにしてもよい。その場合、映像出力部6が、中間モードによって生成された映像信号と、暗視モードによって生成された映像信号との両方を出力するようにしてもよい。
 また、モード切換部72は、映像出力部6が中間モードによって生成された映像信号を出力する状態と、映像出力部6が暗視モードによって生成された映像信号を出力する状態とを切り換えるようにしてもよい。その際、前述のように、周囲環境の明るさや時刻等に応じて切り換えてもよい。また、映像処理部5(映像処理装置)を他の各部と別体にしてもよい。
 さらに、中間モードを使用せずに、通常モードから暗視モードに切り換えたり、暗視モードから通常モードに切り換えたりする場合があってもよい。
 中間モードを使用しない場合には、上述した中間モードの使用が適した環境下では、通常モードと暗視モードとのいずれかを選択して使用すればよい。この場合、中間モードを使用する場合と比較して良好なカラー映像信号とはならないが、撮像は可能である。
 しかしながら、通常モードと暗視モードのみを搭載した撮像装置であっても、例えば監視カメラで被写体を終日撮影する場合のような周囲の明るさが変化する状況で、1つの撮像装置で被写体を撮影することができる、という効果を奏する。
 さらにまた、暗視モードを使用せずに、通常モードから中間モードに切り換え、中間モードから通常モードに切り換える場合があってもよい。暗視モードを常時使用しない場合は、暗視モードを搭載しないようにしてもよい。
 電灯がある場所等では暗視モードを使用しなくてもよい場合がある。通常モードと中間モードのみを搭載した撮像装置は、暗視モードを使用しなくてもよい場合に利用できる。
 暗視モードを使用しない場合には、上述した暗視モードの使用が適した環境下では、中間モードを使用すればよい。この場合、暗視モードを使用する場合と比較して良好なカラー映像信号とはならないが、撮像は可能である。
 通常モードと中間モードのみを搭載した撮像装置であっても、同様に、周囲の明るさが変化する状況で、1つの撮像装置で被写体を撮影することができる、という効果を奏する。
<赤外光投光タイミングの同期方法:第1の例>
 次に、図29に示すように、例えば2台の撮像装置101によって被写体SB1を撮像する撮像システムを構成して、タイミング調整モードに設定されている場合を考える。タイミング調整モードでは、後述するように、赤外線投光器9によって赤外光を投光して、赤外光の投光タイミングを同期させる。よって、可視光が弱い夜間等にタイミング調整モードに設定するのがよい。
 図29に示す2台の撮像装置101のうちの一方を自己の撮像装置101、もう一方を他の撮像装置101とする。2台の撮像装置101は有線または無線にて接続されている。
 図30において、(a)は自己の撮像装置101の赤外線投光器9による赤外光の投光を、(c)は他の撮像装置101の赤外線投光器9による赤外光の投光を示している。2台の撮像装置101の赤外線投光器9による赤外光の投光における位相が同期しておらず、1つの波長の赤外光を投光する期間よりも短い期間だけずれているとする。図30において、(b)は自己の撮像装置101による撮像によって生成されるフレームの露光期間(以下、単にフレームとも称する)を示している。
 図30の(b)に示すように、2台の撮像装置101の赤外線投光器9による赤外光の投光のタイミングがずれているため、ハッチングを付した期間では、2つの波長の赤外光が混ざった状態となる。よって、ハッチングを付した期間では、色の再現性が損なわれる。
 図31において、(a)は自己の撮像装置101の赤外線投光器9による赤外光の投光を、(c)は他の撮像装置101の赤外線投光器9による赤外光の投光を示している。2台の撮像装置101の赤外線投光器9による赤外光の投光は同期しておらず、1つの波長の赤外光を投光する期間だけずれているとする。図31において、(b)は自己の撮像装置101による撮像によって生成されるフレームを示している。
 図31の(b)に示すように、2台の撮像装置101の赤外線投光器9による赤外光の投光のタイミングが完全にずれているため、全期間で、2つの波長の赤外光が混ざった状態となってしまう。よって、全期間で色の再現性が損なわれる。
 このように、2台の撮像装置101の赤外線投光器9が個々に赤外光を投光すると異なる波長の赤外光が混ざってしまい、正しい色再現が可能なカラー映像を撮像することができない。
 2台の撮像装置101の赤外線投光器9が波長IR1,IR2,IR3の赤外光を投光するタイミングを同期させる同期方法について説明する。図29では、撮像装置101を2台としているが、3台以上であってもよい。
 図32に示すように、マスタ/スレーブ設定部74によって自己の撮像装置101をマスタの撮像装置101M、他の撮像装置101をスレーブの撮像装置101Sに設定したとする。図32は、図1で説明した撮像装置101の構成を概略的に示している。
 撮像装置101Mの同期信号送信部76tは、撮像装置101Sに同期信号Ssyncを送出する。撮像装置101Sの同期信号受信部76rは、同期信号Ssyncを受信する。撮像装置101Sの制御部7は、受信した同期信号Ssyncに基づいて波長IR1,IR2,IR3の赤外光を投光するタイミングを制御する。
 撮像装置101Sは、図示していないPLL回路等を用いて、受信した同期信号Ssyncを基準とした基準クロックを生成する。撮像装置101Sは、この基準クロックに基づいて各部を動作させる。
 同期信号Ssyncは、一例として、図33の(a)に示すように、図33の(b)に示す波長IR1,IR2,IR3の赤外光を投光する1フレーム期間の先頭を示すパルスでよい。即ち、同期信号Ssyncは、フレーム周期のパルスでよい。ここでのフレームとは、映像出力部6より出力される映像信号のフレームである。
 波長IR1,IR2,IR3の赤外光それぞれを投光する期間の先頭を示すパルスを同期信号Ssyncとしてもよい。波長IR1,IR2,IR3のうちのいずれかの赤外光を投光する期間の先頭を示すパルスを同期信号Ssyncとしてもよい。同期信号Ssyncは、波長IR1,IR2,IR3の赤外光を投光する所定の期間(1フレーム期間)に同期していればよい。
 同期信号Ssyncは、所定の期間を3分割した分割期間の内の1つまたは2つに同期するようにしてもよい。また、複数種類の同期信号Ssyncを用いて、所定の期間を3分割した分割期間それぞれで異なる同期信号Ssyncを用いるようにしてもよい。
 撮像装置101Mから撮像装置101Sへと同期信号Ssyncを供給すれば、原理的には、それぞれの赤外線投光器9による赤外光の投光を同期させて、波長IR1,IR2,IR3の赤外光を投光するタイミングを一致させることができる。
 ところが、撮像装置101Mと撮像装置101Sとが有線にて接続されている場合であっても、配線長に起因する遅延、2つの撮像装置101の内部的な遅延時間の差によって、波長IR1,IR2,IR3の赤外光を投光するタイミングにずれが生じる場合がある。
 そこで、さらに精度を高める必要がある場合、次のようにして、撮像装置101Mの赤外線投光器9による赤外光のタイミングに、撮像装置101Sの赤外線投光器9による赤外光のタイミングを一致させて、両者の赤外線投光器9による赤外光の投光を同期させる。
 撮像装置101Mがタイミング調整モードに設定されているとき、図34の(a)に示すように、投光制御部71は、波長IR1,IR2,IR3の赤外光のうちの1つの赤外光のみを3つの分割期間における1つの分割期間内で投光させ、残りの2つの分割期間を無投光とするよう赤外線投光器9を制御する。1つの赤外光は、波長IR1,IR2,IR3の赤外光のうちのいずれでもよい。本実施形態では、波長IR1の赤外光のみを投光する。
 撮像装置101Sがタイミング調整モードに設定されているとき、投光制御部71は、全ての期間で赤外光を無投光とするよう赤外線投光器9を制御する。撮像装置101Sは、図34の(a)に示すように撮像装置101Mの赤外線投光器9によって1つの赤外光のみを投光している状態で、被写体SB1を撮像して映像信号のフレームを生成する。
 撮像装置101M,101Sをタイミング調整モードとしたとき、撮像装置101Mを撮像装置101Sに向けて、撮像装置101Mの赤外線投光器9から投光される赤外光が撮像装置101Sに効果的に照射されるようにしてもよい。
 図34の(b)は、図34の(a)の赤外光の投光のタイミングと、撮像装置101Sによる撮像によって生成されるフレームとの位相が一致している状態を示している。フレームFIR1は、波長IR1の赤外光が投光されている期間で生成されるRのフレームである。フレームFIR2,FIR3は、本来であればそれぞれ波長IR2,IR3の赤外光が投光される無投光の期間で生成されるG,Bのフレームである。
 図34の(b)に示すように、RのフレームFIR1は明るく、G,BのフレームFIR2,FIR3は暗い。よって、図34の(b)の状態では、撮像装置101Sの輝度レベル判定部75によって判定される輝度レベルは、フレームFIR1におけるRの輝度レベルのみ高くなり、G,BのフレームFIR2,FIR3の輝度レベルは非常に低くなる。
 図34の(c)は位相が少し遅れている場合、図34の(d)は位相が少し進んでいる場合を示している。
 図34の(c)のように位相が遅れると、BのフレームFIR3を生成するために撮像している期間内に波長IR1の赤外光の投光が開始するため、BのフレームFIR3は図34の(b)の場合よりも少し明るいやや暗い状態となる。よって、輝度レベル判定部75によって判定されるBのフレームFIR3におけるBの輝度レベルは、図34の(b)の場合と比較して若干高くなる。
 逆に、図34の(d)のように位相が進むと、波長IR1の赤外光の投光が終了するよりも前にGのフレームFIR2を生成するための撮像が開始するため、GのフレームFIR2は図34の(b)の場合よりも少し明るいやや暗い状態となる。よって、輝度レベル判定部75によって判定されるGのフレームFIR2におけるGの輝度レベルは、図34の(b)の場合と比較して若干高くなる。
 なお、図34の(c),(d)において、RのフレームFIR1に「やや明」と記載しているように、RのフレームFIR1におけるRの輝度レベルは、図34の(b)の場合と比較すれば若干低い。
 よって、R,G,Bの輝度レベルは、撮像装置101Mの赤外線投光器9が波長IR1の赤外光を投光するタイミングと、撮像装置101SにおいてR,G,BのフレームFIR1,FIR2,FIR3を生成するタイミングとに応じて、図35に示すように変化する。
 図35に示すように、撮像装置101Mの赤外線投光器9から投光される赤外光のタイミングと、撮像装置101Sによる撮像によって生成されるフレームとの位相が一致している適正な状態では、Rの輝度レベルが高く、G,Bの輝度レベルは同等の低い値となる。同等とは、所定の誤差を含んでほぼ同じとみなすことができる状態である。
 撮像装置101Mの赤外線投光器9から投光される赤外光のタイミングに対して、撮像装置101Sによる撮像によって生成されるフレームの位相が遅れると、Bの輝度レベルがGの輝度レベルよりも高くなる。Rの輝度レベルは適正な状態よりも低下する。
 撮像装置101Mの赤外線投光器9から投光される赤外光のタイミングに対して、撮像装置101Sによる撮像によって生成されるフレームの位相が進むと、Gの輝度レベルがBの輝度レベルよりも高くなる。Rの輝度レベルは適正な状態よりも低下する。
 そこで、撮像装置101Sの輝度レベル判定部75は、Gの輝度レベルとBの輝度レベルとの大小関係を判定する。制御部7は、大小関係に応じて、撮像装置101Sを動作させている同期信号Ssyncに基づいて赤外線投光器9及び前信号処理部52を動作させるタイミングを進ませたり、遅らせたりする。
 具体的には、投光制御部71は、Bの輝度レベルがGの輝度レベルよりも高ければ、波長IR1,IR2,IR3の赤外光を投光するタイミングを進ませるように赤外線投光器9を制御する。これに併せて、制御部7は、R,G,BのフレームFIR1,FIR2,FIR3を生成するタイミングを進ませるように前信号処理部52を制御する。
 投光制御部71は、Gの輝度レベルがBの輝度レベルよりも高ければ、波長IR1,IR2,IR3の赤外光を投光するタイミングを遅らせるように赤外線投光器9を制御する。これに併せて、制御部7は、R,G,BのフレームFIR1,FIR2,FIR3を生成するタイミングを遅らせるように前信号処理部52を制御する。
 制御部7(投光制御部71)は、G,Bの輝度レベルが同等の値となるまで赤外線投光器9及び前信号処理部52を制御する。制御部7は、G,Bの輝度レベルが同等の値となったタイミングの調整量を保持する。
 撮像装置101Sは、タイミング調整モードを解除した後、タイミング調整モードで求めて保持した調整量だけ撮像装置101Sを動作させるタイミングをずらすよう各部を制御する。
 以上によって、図29のように構成した撮像システムは、撮像装置101Mと撮像装置101Sとのそれぞれの赤外線投光器9による赤外光の投光タイミングを同期させた状態で、被写体SB1を撮像することができる。なお、明るさがあまり変わらない環境下であれば、Rの輝度レベルが最大となるように調整してもよい。
<赤外光投光タイミングの同期方法:第2の例>
 赤外光投光タイミングの同期方法の第1の例では、撮像装置101Mの赤外線投光器9による赤外光の投光タイミングに、撮像装置101Sの赤外線投光器9による赤外光の投光タイミングを一致させたが、逆にしてもよい。
 赤外光投光タイミングの同期方法の第2の例では、撮像装置101Sの赤外線投光器9による赤外光の投光タイミングに、撮像装置101Mの赤外線投光器9による赤外光の投光タイミングを一致させる。第2の例の説明において、第1の例と共通部分の説明を省略する。
 撮像装置101Sがタイミング調整モードに設定されているとき、図36の(a)に示すように、投光制御部71は、波長IR1,IR2,IR3の赤外光のうちの波長IR1の赤外光のみを3つの分割期間における1つの分割期間内で投光させ、残りの2つの分割期間を無投光とするよう赤外線投光器9を制御する。
 撮像装置101Mがタイミング調整モードに設定されているとき、投光制御部71は、全ての期間で赤外光を無投光とするよう赤外線投光器9を制御する。撮像装置101Mは、図36の(a)に示すように撮像装置101Sの赤外線投光器9によって波長IR1の赤外光のみを投光している状態で、被写体SB1を撮像して映像信号のフレームを生成する。
 図36の(b)は、図36の(a)の赤外光の投光のタイミングと、撮像装置101Mによる撮像によって生成されるフレームとが一致している状態を示している。図36の(c)は位相が遅れている場合、図36の(d)は位相が進んでいる場合を示している。
 第2の例においては、R,G,Bの輝度レベルは、撮像装置101Sの赤外線投光器9が波長IR1の赤外光を投光するタイミングと、撮像装置101MにおいてR,G,BのフレームFIR1,FIR2,FIR3を生成するタイミングとに応じて、図37に示すように変化する。
 図37に示すように、撮像装置101Sの赤外線投光器9から投光される赤外光のタイミングに対して、撮像装置101Mによる撮像によって生成されるフレームの位相が遅れると、Gの輝度レベルがBの輝度レベルよりも高くなる。Rの輝度レベルは適正な状態よりも低下する。
 撮像装置101Sの赤外線投光器9から投光される赤外光のタイミングに対して、撮像装置101Mによる撮像によって生成されるフレームの位相が進むと、Bの輝度レベルがGの輝度レベルよりも高くなる。Rの輝度レベルは適正な状態よりも低下する。
 撮像装置101Mの制御部7は、輝度レベル判定部75によって判定されるG,Bの輝度レベルが同等の値となるまで赤外線投光器9及び前信号処理部52を制御する。制御部7は、G,Bの輝度レベルが同等の値となったタイミングの調整量を保持する。
 撮像装置101Mは、タイミング調整モードを解除した後、タイミング調整モードで求めて保持した調整量だけ撮像装置101Mを動作させるタイミングをずらすよう各部を制御する。
 このように、撮像装置101Sの赤外線投光器9による赤外光の投光タイミングに撮像装置101Mの赤外線投光器9による赤外光の投光タイミングを一致させる第2の例おいても、撮像装置101Mと撮像装置101Sとのそれぞれの赤外線投光器9による赤外光の投光タイミングを同期させることができる。なお、第2の例は、撮像装置101が2台のみの場合に利用できる。
 以上説明した第1の例及び第2の例では、タイミング調整モードにおいて、撮像装置101M(または101S)が波長IR1の赤外光のみを投光し、撮像装置101S(または101M)が赤外光を無投光とした状態で被写体SB1を撮像して映像信号を生成する。なお、明るさがあまり変わらない環境下であれば、Rの輝度レベルが最大となるように調整してもよい。
 その代わりに次のようにすることもできる。赤外光の投光タイミングの基準側である撮像装置101M(または101S)は、波長IR1,IR2,IR3の赤外光を通常のように投光する。赤外光の投光タイミングを調整する側の撮像装置101S(または101M)は、赤外光を無投光とし、赤外線カットフィルタ21を挿入した状態で映像信号を生成する。
 可視光が弱い夜間等にタイミング調整モードに設定した場合には、ダミーガラス22が挿入された状態である。ダミーガラス22の代わりに赤外線カットフィルタ21を挿入して映像信号を生成すれば、基準側である撮像装置101M(または101S)は、全ての赤外光を投光してもよい。
 例えば、投光部91を780nmの赤外光を発光する発光ダイオード(LED)とする。LEDからの光の波長帯域は一部で可視光の帯域にかかっている。よって、赤外線カットフィルタ21を挿入した状態で撮像すれば、実質的に波長IR1の赤外光のみが投光されているのと同等の状態とすることができる。よって、波長IR1の赤外光のみを投光したのと同様に投光タイミングの調整が可能となる。なお、波長IR1は、赤外線カットフィルタ21によってカットされない程度に波長が短いものとする。
<第2実施形態の撮像装置の構成及び動作>
 図38に示す第2実施形態の撮像装置102において、図1に示す第1実施形態の撮像装置101と同一部分には同一符号を付し、その説明を省略する。図29に示すように、複数台の撮像装置102によって撮像システムを構成することができる。
 撮像装置102は、赤外線投光器9の代わりに赤外線投光器9Bを備える。赤外線投光器9Bは、波長IR1,IR2,IR3の赤外光を投光するタイミングを示す同期信号Ssyncを生成して、制御部7に供給する。赤外線投光器9Bは、同期信号Ssyncを送信する同期信号送信部9Btと同期信号Ssyncを受信する同期信号受信部9Brを有する。
 撮像装置102における制御部7は、撮像装置101の制御部7における同期信号送信部76t及び同期信号受信部76rを省いた構成を有する。
 図39に示すように、マスタ/スレーブ設定部74によって自己の撮像装置102をマスタの撮像装置102M、他の撮像装置102をスレーブの撮像装置102Sに設定したとする。図39は、図38で説明した撮像装置102の構成を概略的に示している。
 撮像装置102Mの同期信号送信部9Btは、撮像装置102Sに同期信号Ssyncを送出する。撮像装置102Sの同期信号受信部9Brは、同期信号Ssyncを受信する。同期信号Ssyncは、図33の(a)で説明したように、波長IR1,IR2,IR3の赤外光を投光する1フレーム期間の先頭を示すフレーム周期のパルスでよい。
 撮像装置102Sは、自己の赤外線投光器9Bによって同期信号Ssyncを生成しない。撮像装置102Sの赤外線投光器9Bは、受信した同期信号Ssyncを制御部7に供給する。撮像装置102Sの赤外線投光器9Bは、受信した同期信号Ssyncに基づいたタイミングで波長IR1,IR2,IR3の赤外光を投光する。
 撮像装置102Mと撮像装置102Sとで波長IR1,IR2,IR3の赤外光を投光するタイミングにずれが生じる場合には、図34~図37と同様にして、投光タイミングを調整すればよい。
 即ち、撮像装置102Mの赤外線投光器9Bによる赤外光の投光タイミングと、撮像装置102Sの赤外線投光器9Bによる赤外光の投光タイミングとを一致させて、両者の赤外線投光器9Bによる赤外光の投光を同期させる。
 図21~図23に示す第1~第3の変形例は、第2実施形態の撮像装置102においても適用することができる。後述する第3~第6実施形態の撮像装置103~106でも同様である。
<第3実施形態の撮像装置の構成及び動作>
 図40に示す第3実施形態の撮像装置103において、図1に示す第1実施形態の撮像装置101と同一部分には同一符号を付し、その説明を省略する。図40は、撮像装置3の構成を概略的に示している。
 図29に示すように、複数台の撮像装置103によって撮像システムを構成することができる。図40において、自己の撮像装置103をマスタの撮像装置103M、他の撮像装置103をスレーブの撮像装置103Sに設定している。
 マスタの撮像装置103Mの赤外線投光器9Cは、同期信号送信部9Ctを有する。赤外線投光器9Cは、制御部7による制御に基づいて、波長IR1,IR2,IR3の赤外光を投光する。同期信号送信部9Ctは、赤外光を投光するタイミングを示す同期信号Ssyncをスレーブの撮像装置103Sに送出する。
 撮像装置103Sの赤外線投光器9Cは、同期信号受信部9Crを有する。撮像装置103Sの受信した同期信号Ssyncを制御部7に供給する。撮像装置103Sの赤外線投光器9Cは、受信した同期信号Ssyncに基づいたタイミングで波長IR1,IR2,IR3の赤外光を投光する。撮像装置103Sは、図39の撮像装置102Sと同じ構成でよい。
 第3実施形態においても、撮像装置103Mと撮像装置103Sとで波長IR1,IR2,IR3の赤外光を投光するタイミングにずれが生じる場合には、タイミングを一致させて、両者の赤外線投光器9Cによる赤外光の投光を同期させる。
<第4実施形態の撮像装置の構成及び動作>
 図41に示す第4実施形態の撮像装置104において、図1に示す第1実施形態の撮像装置101と同一部分には同一符号を付し、その説明を省略する。図29に示すように、複数台の撮像装置104によって撮像システムを構成することができる。
 撮像装置104における制御部7は、撮像装置101の制御部7における同期信号送信部76t及び同期信号受信部76rの代わりに、基準クロック送信部77t及び基準クロック受信部77rを有する。
 撮像装置104がマスタの撮像装置として設定されているとき、基準クロック送信部77tは基準クロックSclkを他の撮像装置104へと送出する。このとき、基準クロック受信部77rは不動作である。
 撮像装置104がスレーブの撮像装置として設定されているとき、基準クロック受信部77rは、マスタである他の撮像装置104が送出した基準クロックSclkを受信する。このとき、基準クロック送信部77tは不動作である。
 図42に示すように、マスタ/スレーブ設定部74によって自己の撮像装置104をマスタの撮像装置104M、他の撮像装置104をスレーブの撮像装置104Sに設定したとする。図42は、図41で説明した撮像装置104の構成を概略的に示している。
 撮像装置104Mの基準クロック送信部77tは、撮像装置104Sに基準クロックSclkを送出する。撮像装置104Sの基準クロック受信部77rは、基準クロックSclkを受信する。撮像装置104Mと撮像装置104Sとは、共通の基準クロックSclkに同期して動作する。
 基準クロックSclkは、例えば、映像信号の色副搬送波周波数(3.58MHz)の4倍の14.32MHzのクロック、GenLock(Generator Lock)と称される放送スタジオ等で使用される基準信号、MPEG2で使用される27MHzのクロックを用いることができる。勿論、基準クロックSclkは、これらのクロックに限定されない。
 撮像装置104Mと撮像装置104Sとを共通の基準クロックSclkで動作させることにより、撮像装置104Mと撮像装置104Sとの周波数的な同期をとることができる。しかしながら、撮像装置104M,104Sそれぞれの赤外線投光器9が波長IR1,IR2,IR3の赤外光を投光するタイミングを同期させることはできない。
 そこで、第4実施形態の撮像装置104においては、撮像装置104M,104Sがタイミング調整モードに設定されているとき、撮像装置104M,104Sの赤外線投光器9による赤外光の投光タイミングを一致させた状態で同期させるように調整する。
 図43は、図43と同様に、撮像装置104Mの赤外線投光器9による投光のタイミングと、撮像装置104Sによる撮像によって生成されるフレームとの位相の関係を示している。図43の(b)は、図43の(a)の赤外光の投光のタイミングとフレームとが一致している状態、図43の(c)は位相が少し遅れている場合を示している。
 第4実施形態の撮像装置104においては、図43の(d)に示すように位相が大幅に進んだり、大幅に遅れたりする場合がある。
 第4実施形態の撮像装置104においては、R,G,Bの輝度レベルは、撮像装置104Mの赤外線投光器9が波長IR1の赤外光を投光するタイミングと、撮像装置104SがフレームFIR1,FIR2,FIR3を生成するタイミングとに応じて、図44に示すように変化する。
 図35に示す特性は、図44の適正の状態の近傍のみを示したものに相当する。第1~第3実施形態では、配線長に起因する遅延や遅延時間の差に起因するわずかな投光タイミングのずれを解消すればよい。第4実施形態では、そもそも周波数的な同期しかとれていないので、図44に示すように、かなり大きな量のタイミング調整が必要となる場合がある。
 図45に示すフローチャートを用いて、制御部7によるタイミング調整の処理を説明する。図45において、制御部7(輝度レベル判定部75)は、ステップS101にて、Gの輝度レベルとBの輝度レベルとが同等であるか否かを判定する。
 同等であるということは、図44の位相が一致している適正な状態であるPh0の位置、位相が遅れているPh(-3)の位置、位相が進んでいるPh(+3)の位置のいずれかということである。
 同等であれば(YES)、制御部7は、ステップS102にて、Rの輝度レベルは最低であるか否かを判定する。最低でなければ(NO)、Ph0の位置で適正な状態ということであるので、処理を終了させる。
 ステップS102にて最低であれば(YES)、Ph(-3)またはPh(+3)の位置で1/2周期がずれている(遅れているか進んでいる)ことであるので、制御部7(投光制御部71)は、ステップS103にて、タイミングを1/2周期進めるか遅らせる。
 一方、ステップS101にて同等でなければ(NO)、制御部7は、処理をステップS104に移行させる。制御部7は、ステップS103の処理を終了後も、処理をステップS104に移行させる。
 制御部7は、ステップS104にて、Gの輝度レベルはBの輝度レベルより大きいか否かを判定する。Gの輝度レベルがBの輝度レベルより大きければ(YES)、制御部7は、タイミングを少し遅らせて、処理をステップS101に戻す。Gの輝度レベルがBの輝度レベルより大きくなければ(NO)、制御部7は、タイミングを少し進めて、処理をステップS101に戻す。
 以上のステップS101~S106を繰り返すことにより、撮像装置104M,104Sの赤外線投光器9による赤外光の投光タイミングを一致させた状態で同期させることができる。
 撮像装置104Sは、タイミング調整モードを解除した後、タイミング調整モードで求めて保持した調整量だけ撮像装置104Sを動作させるタイミングをずらすよう各部を制御する。
 なお、撮像装置とは別体の装置から、基準クロックを出力し、各撮像装置でその基準クロックを受信するようにしてもよい。例えば、複数の撮像装置の画像を切り換えて表示するためのスイッチャ等が基準クロックを生成して出力するようにしてもよい。また、基準クロックを出力する撮像装置と、タイミング調整モードでマスタとして動作する撮像装置とが別のものであってもよい。
<第5実施形態の撮像装置の構成及び動作>
 図46に示す第5実施形態の撮像装置105において、図1に示す第1実施形態の撮像装置101と同一部分には同一符号を付し、その説明を省略する。図29に示すように、複数台の撮像装置105によって撮像システムを構成することができる。
 撮像装置105は、商用交流電源からの電力に基づいて、撮像装置105の各部に必要な電力を供給する電源回路15を備える。撮像装置105は、交流電圧の周波数に同期した基準クロックを生成して、撮像装置105を動作させる。よって、マスタの撮像装置105Mとスレーブの撮像装置105Sとの周波数的な同期をとることができる。
 撮像装置105Sは、第4実施形態と同じ方法で、赤外線投光器9による赤外光の投光タイミングを調整する。これによって、撮像装置105M,105Sは、それぞれの赤外線投光器9による赤外光の投光タイミングを一致させた状態で同期させることができる。
<第6実施形態の撮像装置の構成及び動作>
 図47に示す第6実施形態の撮像装置106において、図1に示す第1実施形態の撮像装置101と同一部分には同一符号を付し、その説明を省略する。図29に示すように、複数台の撮像装置106によって撮像システムを構成することができる。
 撮像装置106は、全地球航法衛星システム(Global Navigation Satellite System: GNSS)用の衛星200からの電波を受信するアンテナ16aと、アンテナ16aが出力するGNSS信号を受信するGNSS受信部16とを備える。GNSS信号は一般的にRF信号である。GNSSは、一例としてGPS(Global Positioning System)である。
 GNSS受信部16は、衛星200からの電波に含まれる時刻情報に基づいてクロック信号を生成する。衛星200から送信される時刻情報は、衛星200に内蔵されている原子時計と高精度に同期している。GNSS受信部16は、原子時計と高精度に同期するクロック信号を制御部7に供給する。制御部7は、このクロック信号を基準クロックとする。制御部7は、基準クロックに基づいて撮像装置106を動作させる。
 よって、マスタの撮像装置106Mとスレーブの撮像装置106Sとの周波数的な同期をとることができる。
 撮像装置106Sは、第4実施形態と同じ方法で、赤外線投光器9による赤外光の投光タイミングを調整する。これによって、撮像装置106M,106Sは、それぞれの赤外線投光器9による赤外光の投光タイミングを一致させた状態で同期させることができる。
<第7実施形態の撮像装置の構成及び動作>
 第4~第6実施形態の撮像装置104~106では、共通の基準クロックによって周波数的な同期をとることを前提としている。第7実施形態においては、複数の撮像装置で共通の基準クロックを用いない。第7実施形態の撮像装置は、複数の撮像装置それぞれが個別に、高精度な基準クロックを発生する基準クロック発生源を備える。
 高精度な基準クロックを発生する基準クロック発生源としては、一例として、水晶発振器である。
 第7実施形態複数の撮像装置は、定期的に、第4実施形態と同じ方法で、投光タイミングを一致させるよう投光タイミングを調整する。複数の撮像装置の投光タイミングのずれの許容度に応じて、投光タイミングを調整する時間間隔を設定すればよい。
 高い色再現性が求められる場合には位相のずれの許容度が小さくなるので、時間間隔を極力短く設定するのがよい。さほどの高い色再現性が求められない場合には位相のずれの許容度が大きくなるので、時間間隔を比較的長く設定してもよい。
<第8実施形態の撮像装置の構成及び動作>
 図48に示す第8実施形態の撮像装置108において、図1に示す第1実施形態の撮像装置101と同一部分には同一符号を付し、その説明を省略する。
 第8実施形態の撮像装置108は、第1実施形態の撮像装置101における同期信号送信部76tを省略した構成を有する。同期信号受信部76rは、外部の同期信号供給装置より供給される同期信号Ssyncを受信する。
 図49は、複数の撮像装置108と、複数の撮像装置108それぞれに同期信号Ssyncを供給する同期信号供給装置とを備える撮像システムの構成例を示している。図49においては、一例としてカメラ切換器180が同期信号供給装置となっている。カメラ切換器180には、表示部280が接続されている。
 通常、複数の撮像装置(例えば監視カメラ)によって撮像システムを構成する場合には、複数の撮像装置から出力される映像信号の1または複数を選択して表示部280に表示するために、いわゆるスイッチャと称されるカメラ切換器180を備える。
 そこで、カメラ切換器180を複数の撮像装置108それぞれに同期信号Ssyncを供給する同期信号供給装置とするのは好都合である。
 図49に示すように、カメラ切換器180は、映像切換部181と、同期信号Ssyncを発生する同期信号発生部182を備える。それぞれの撮像装置108より出力された映像信号Svideoは、映像切換部181に入力される。
 なお、一例として、各撮像装置108は、同期信号Ssyncに同期したフレーム周期及び位相で映像信号Svideoを出力するようにしている。このようにすれば、例えば、本実施形態のように赤外光を順次発光させて撮影を行う撮像装置108と、赤外光を用いない通常の撮影を行う撮像装置とが混在するような場合でも、スムーズに映像を切り換えたり、複数の映像を同時に表示したりすることができる。
 映像切換部181は、複数の映像信号Svideoの1または複数を選択し、映像出力端子183へと出力する。映像出力端子183には、表示部280が接続されており、映像切換部181が選択した映像信号Svideoが表示される。
 映像切換部181は、例えば表示部280の画面を4分割してそれぞれの領域に映像信号Svideoを表示するよう、4つの映像信号Svideoのそれぞれのフレームを縮小して1フレームに合成してもよい。表示部280の画面の分割数は任意である。
 カメラ切換器180は、それぞれの撮像装置108より出力された映像信号Svideoを個別に出力する個別映像出力端子184を有する。個別映像出力端子184は省略可能である。
 同期信号発生部182が発生する同期信号Ssyncは、図50の(a)に示すように、フレーム周期である。図33の(a)に示す同期信号Ssyncは正パルスとしたが、図50の(a)に示す同期信号Ssyncは負パルスとしている。勿論、同期信号発生部182が発生する同期信号Ssyncも、正パルスとしてもよい。
 図50の(b)に示すように、撮像装置108より出力される映像信号Svideoは、一例として、1フレームが奇数フィールドと偶数フィールドの2フィールドより構成されるインターレース方式であるとする。
 図51を用いて、各撮像装置108における赤外光の投光タイミングと、映像信号Svideoの生成タイミングとの関係の一例を説明する。撮像装置108の投光制御部71は、同期信号Ssyncを基準としたタイミングで、赤外光を選択的に投光するよう制御する。
 図51の(b),(c)に示すように、赤外線投光器9が波長IR1~IR3の赤外光を順に投光し、撮像部3が被写体を撮像してから、撮像装置108が映像信号Svideoを出力するまでには、1.5フレーム程度の時間を要する。図51の(b)に示す波長IR1~IR3の組IRset1に基づいて得られる映像信号Svideoのフレームは、図51の(c)に示すフレームF11となる。
 そこで、図51の(a),(b)に示すように、各撮像装置108の各投光制御部71は、同期信号Ssyncを受信したら、0.5フレーム程度の時間t11経過後に、波長IR1の赤外光を投光させるのがよい。
 なお、時間t11を0.5フレームより長くすると、波長IR1~IR3の組IRset1に基づいて映像信号SvideoのフレームF11を得ることができず、次のタイミングのフレームF12としなければならない。そのためには、遅延用のバッファメモリの容量が大きくなる。
 時間t11を0.5フレームより短くした場合には、波長IR1~IR3の組IRset1に基づいて映像信号SvideoのフレームF11を得ることができる。しかしながら、この場合には、時間t11を短くすることによる遅延量が増えるため、バッファメモリの容量が大きくなる。
 従って、波長IR1~IR3のそれぞれの組に基づいて映像信号Svideoのフレームを生成するのに必要な時間に合わせて、時間t11を設定するのがよい。
 図51では、同期信号Ssyncと波長IR1の赤外光の投光タイミングとの時間t11を設定しているが、同期信号Ssyncと波長IR2またはIR3の赤外光の投光タイミングとの時間を設定してもよい。
 波長IR1~IR3の組IRset1に基づいて生成する映像信号Svideoのフレームを、所定の理由により意図的に、フレームF11ではなくフレームF12としてもよい。
 ところで、図49における複数の撮像装置108として、波長IR1~IR3の組IRset1に基づいてフレームF11を生成する撮像装置108と、フレームF12を生成する撮像装置108とが混在していても構わない。
 図49に示す撮像システムにおいては、複数の撮像装置108それぞれに共通の同期信号Ssyncが供給されている。従って、第1~第3実施形態の撮像装置101~103と同様に、複数の撮像装置108は、原理的には、それぞれの赤外線投光器9による赤外光の投光を同期させて、波長IR1,IR2,IR3の赤外光を投光するタイミングを一致させることができる。
 波長IR1,IR2,IR3の赤外光を投光するタイミングにずれが生じる場合には、図35を参照して説明したように、制御部7が赤外線投光器9及び前信号処理部52を動作させるタイミングを進ませたり、遅らせたりすればよい。なお、多少のタイミングのずれであれば映像品質への影響は少ないため、調整しなくてもよい。
<第1~第3実施形態の撮像装置のまとめ>
 第1~第3実施形態において、マスタの撮像装置101M~103Mは、次のように構成される。
 投光制御部71は、波長IR1~IR3の赤外光を、所定の期間を3分割した3つの分割期間で選択的に投光させるそれぞれの分割期間の長さと順番とを制御するよう、赤外線投光器9を制御する。
 撮像部3は、波長IR1~IR3の赤外光の赤外光が選択的に投光されている状態で被写体を撮像する。同期信号送信部76t,9Bt,9Ctは、装置の外部、具体的には、マスタの撮像装置101M~103M以外の他の撮像装置(スレーブの撮像装置101S~103S)に同期信号を送信する。同期信号は、スレーブ側の撮像装置が備える投光制御部71が赤外線投光器9によって赤外光を投光させるタイミングを、マスタ側の投光制御部71が赤外線投光器9によって赤外光を投光させるタイミングと同期させるために用いられる。
 マスタの撮像装置101M~103Mが、スレーブ側の投光制御部71がスレーブ側の赤外線投光器9によって赤外光を投光させるタイミングを調整するためのタイミング調整モードに設定されているとき、投光制御部71は赤外線投光器9を次のように制御する。投光制御部71は、波長IR1~IR3の赤外光のうちの1つの赤外光のみを3つの分割期間における1つの分割期間内で投光させ、残りの2つの分割期間を無投光とする。
 マスタの撮像装置101M,102M,103Mにおける投光制御部71、赤外線投光器9を第1の投光制御部、第1の赤外線投光器とすると、スレーブの撮像装置101S~103Sにおける投光制御部71、赤外線投光器9は、第2の投光制御部、第2の赤外線投光器である。
 第1~第3実施形態において、スレーブの撮像装置101S~103Sは、次のように構成される。
 投光制御部71は、波長IR1~IR3の赤外光を、所定の期間を3分割した3つの分割期間で選択的に投光させるそれぞれの分割期間の長さと順番とを制御するよう、赤外線投光器9を制御する。
 撮像部3は、波長IR1~IR3の赤外光の赤外光が選択的に投光されている状態で被写体を撮像する。映像処理部5は、撮像部3によって撮像された撮像信号に基づいてR,G,Bそれぞれの映像信号を生成する。
 同期信号受信部76r,9Br,9Crは、スレーブの撮像装置101S~103S以外の他の撮像装置(マスタの撮像装置101M~103M)が送信した同期信号を受信する。同期信号は、スレーブ側の投光制御部71が赤外線投光器9によって赤外光を投光させるタイミングを、マスタ側の投光制御部71が赤外線投光器9によって赤外光を投光させるタイミングと同期させるために用いられる。
 スレーブの撮像装置101S~103Sは、映像処理部5が生成したR,G,Bの映像信号の輝度レベルを判定する輝度レベル判定部75を備えるのがよい。スレーブの撮像装置101S~103Sが、投光制御部71が赤外線投光器9によって赤外光を投光させるタイミングを調整するためのタイミング調整モードに設定されているとき、次のように動作するのがよい。
 投光制御部71は、赤外光を無投光とするよう赤外線投光器9を制御する。撮像部3は、マスタ側の赤外線投光器9が波長IR1~IR3の赤外光のうちの1つの赤外光のみを3つの分割期間における1つの分割期間内で投光し、残りの2つの分割期間を無投光とした状態で被写体を撮像する。
 または、撮像部3は、マスタ側の赤外線投光器9が全ての波長の赤外光を投光して、赤外線カットフィルタ21を介することによって実質的に1つの波長の赤外光のみが投光されている状態として被写体を撮像する。赤外線カットフィルタ21とは、スレーブの撮像装置101S~103Sに備えられている赤外線カットフィルタ21である。
 投光制御部は、輝度レベル判定部75が判定したR,G,Bの映像信号の輝度レベルに基づいて、赤外光を投光させるタイミングを調整する。
 スレーブの撮像装置101S~103Sにおける投光制御部71、赤外線投光器9を第1の投光制御部、第1の赤外線投光器とすると、マスタの撮像装置101M~103Mにおける投光制御部71、赤外線投光器9は、第2の投光制御部、第2の赤外線投光器である。
<第1~第7実施形態のスレーブの撮像装置のまとめ>
 第1~第6実施形態のスレーブの撮像装置101S~106S及び第7実施形態のスレーブの撮像装置は、投光制御部71(第1の投光制御部)と、撮像部3と、映像処理部5と、輝度レベル判定部75とを備える。スレーブの撮像装置は、タイミング調整モードに設定されているとき、次のように動作する。投光制御部71は、波長IR1~IR3の赤外光を無投光とするよう赤外線投光器9(第1の赤外線投光器)を制御する。
 撮像部3は、他の撮像装置が備える投光制御部71によって制御される赤外線投光器9が波長IR1~IR3の赤外光のうちの1つの赤外光のみを3つの分割期間における1つの分割期間内で投光し、残りの2つの分割期間を無投光とした状態で被写体を撮像する。
 他の撮像装置とは、マスタの撮像装置101M~106M及び第7実施形態のマスタの撮像装置である。マスタの撮像装置における投光制御部71は第2の投光制御部であり、マスタの撮像装置における赤外線投光器9は第2の赤外線投光器である。
 または、撮像部3は、第2の赤外線投光器が波長IR1~IR3の赤外光を投光して、赤外線カットフィルタを介した状態で被写体を撮像する。
 投光制御部71は、輝度レベル判定部75が判定したR,G,Bの映像信号の輝度レベルに基づいて、波長IR1~IR3の赤外光を投光させるタイミングを調整する。
 第1の投光制御部は、輝度レベル判定部75が次のように判定した状態となるように、赤外光を投光させるタイミングを調整するのがよい。第2の赤外線投光器が投光したRに対応付けられた色以外の2つの色の映像信号の輝度レベルが同等の第1のレベルである。かつ、第2の赤外線投光器が投光したRに対応付けられた色の映像信号の輝度レベルが第1のレベルより大きい第2のレベルである。
<第1~第7実施形態の撮像装置の制御方法のまとめ>
 複数の撮像装置を備える撮像システムに用いる撮像装置の制御方法は次のとおりである。複数の撮像装置それぞれが、個々の赤外線投光器9によって、波長IR1~IR3の赤外光を、所定の期間を3分割した3つの分割期間で選択的に投光させるタイミングを互いに同期させる。複数の撮像装置それぞれによって、波長IR1~IR3の赤外光が選択的に投光されている状態で被写体を撮像させる。
<第4~第6実施形態の撮像装置の制御方法のまとめ>
 複数の撮像装置を備える撮像システムに用いる撮像装置の制御方法は次のとおりである。複数の撮像装置を共通の基準クロックで動作させる。複数の撮像装置のうちの1つの撮像装置をマスタの撮像装置とし、マスタの撮像装置以外をスレーブの撮像装置とする。
 マスタの撮像装置が備える第1の投光制御部が第1の赤外線投光器を制御して、波長IR1~IR3の赤外光とのうちの1つの赤外光のみを、所定の期間を3分割した3つの分割期間における1つの分割期間内で投光させ、残りの2つの分割期間を無投光とする。または、波長IR1~IR3の赤外光を3つの分割期間でそれぞれ投光させる。
 スレーブの撮像装置が備える第2の投光制御部が波長IR1~IR3の赤外光を無投光とするよう第2の赤外線投光器を制御する。
 スレーブの撮像装置が備える撮像部3が、1つの赤外光のみが投光されている状態か、波長IR1~IR3の赤外光を、赤外線カットフィルタを介した状態で被写体を撮像する。スレーブの撮像装置が備える輝度レベル判定部75が、撮像部3によって撮像された撮像信号に基づいて生成されたR,G,Bそれぞれの映像信号の輝度レベルを判定する。
 第2の投光制御部が、輝度レベル判定部75が判定したR,G,Bの映像信号の輝度レベルに基づいて、第2の赤外線投光器によって波長IR1~IR3の赤外光を投光させるタイミングを調整する。
<第8実施形態の撮像システムのまとめ>
 撮像システムは、複数の撮像装置108と、複数の撮像装置それぞれに同期信号Ssyncを供給する同期信号供給装置とを備える。
 複数の撮像装置108それぞれより出力される映像信号Svideoを切り換えるカメラ切換器180内に同期信号発生部182を設けることにより、カメラ切換器180を同期信号供給装置とするのが都合がよい。
 複数の撮像装置108は、それぞれ、同期信号Ssyncを受信する同期信号受信部76rと、投光制御部71と、撮像部3とを備える。投光制御部71は、複数の赤外光を投光可能な赤外線投光器9を、同期信号受信部76rが受信した同期信号Ssyncを基準としたタイミングで、赤外光を選択的に投光するよう制御する。撮像部3は、赤外線投光器9によって赤外光が投光されている状態で被写体を撮像する。
 本発明は以上説明した本実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々変更可能である。例えば、図1,図38,図40,図41,図46,図47,図48に示す撮像装置において、赤外線投光器9を撮像装置の筐体と着脱自在にしてもよい。赤外線投光器9を、撮像装置外部の構成としてもよい。撮像装置は、赤外線投光器9を装着したときに、赤外線投光器9を制御する構成を有すればよい。
 また、複数の撮像装置における赤外光を投光させるタイミングを同期させるには、赤外光を発光させるタイミングと消灯させるタイミングとを完全に一致させなくてもよい。マスタの撮像装置における所定の赤外光に対応する露光区間において、スレーブの撮像装置が、その所定の赤外光以外の赤外光を投光しないようにすればよい。
 撮影に影響が少ない程度の時間であれば、マスタの撮像装置における所定の赤外光に対応する露光区間において、スレーブの撮像装置が、その所定の赤外光以外の赤外光を投光することを許容してもよい。
 例えば、マスタの撮像装置における所定の赤外光に対応する露光区間の少なくとも半分以上の区間において、スレーブの撮像装置が、その所定の赤外光以外の赤外光を投光しないようにすればよい。
 さらに、本発明は以上説明した本実施形態に限定されるものではなく、赤外光を用いた他の撮像技術にも適用可能である。制御部7や映像処理部5は、1または複数のハードウェアのプロセッサを用いて実現することができる。
 以上の説明において、マスタとスレーブの定義は各実施形態において異なっていてもよい。
 本発明の撮像装置及び撮像装置の制御方法、並びに、撮像システム及び撮像システムの制御方法は、可視光が少ない環境下で被写体を監視する監視カメラに利用できる。

Claims (16)

  1.  撮像装置であり、
     複数の波長の赤外光それぞれを投光可能な第1の赤外線投光器を、前記複数の波長の赤外光を選択的に投光するよう制御する第1の投光制御部と、
     前記第1の赤外線投光器によって赤外光が投光されている状態で被写体を撮像する撮像部と、
     前記撮像装置以外の他の撮像装置が備える第2の投光制御部が第2の赤外線投光器によって赤外光を投光させるタイミングと、前記第1の投光制御部が前記第1の赤外線投光器によって赤外光を投光させるタイミングとを同期させるための同期信号を外部に送信する同期信号送信部と、
     を備えることを特徴とする撮像装置。
  2.  前記第1の投光制御部は、赤色に対応付けられた第1の波長を有する第1の赤外光と、緑色に対応付けられた第2の波長を有する第2の赤外光と、青色に対応付けられた第3の波長を有する第3の赤外光とを、所定の期間を3分割した3つの分割期間で選択的に投光させるそれぞれの分割期間の長さと順番とを制御するよう、前記第1の赤外線投光器を制御し、
     前記撮像部は、前記第1~第3の赤外光が選択的に投光されている状態で被写体を撮像し、
     前記同期信号送信部は、前記第2の投光制御部が前記第2の赤外線投光器によって前記第1~第3の赤外光を投光させるタイミングを、前記第1の投光制御部が前記第1の赤外線投光器によって前記第1~第3の赤外光を投光させるタイミングと同期させるための同期信号を前記他の撮像装置に送信する、
     ことを特徴とする請求項1記載の撮像装置。
  3.  前記撮像装置が、前記第2の投光制御部が前記第2の赤外線投光器によって前記第1~第3の赤外光を投光させるタイミングを調整するためのタイミング調整モードに設定されているとき、前記第1の投光制御部は、前記第1~第3の赤外光のうちの1つの赤外光のみを前記3つの分割期間における1つの分割期間内で投光させ、残りの2つの分割期間を無投光とするよう前記第1の赤外線投光器を制御することを特徴とする請求項2記載の撮像装置。
  4.  前記同期信号は、前記第1の赤外線投光器によって赤外光が投光されるタイミングに基づく信号であることを特徴とする請求項1~3のいずれか1項に記載の撮像装置。
  5.  撮像装置であり、
     複数の波長の赤外光それぞれを投光可能な第1の赤外線投光器を、前記複数の波長の赤外光を選択的に投光するよう制御する第1の投光制御部と、
     前記第1の赤外線投光器によって赤外光が投光されている状態で被写体を撮像する撮像部と、
     前記第1の投光制御部が前記第1の赤外線投光器によって赤外光を投光させるタイミングと、前記撮像装置以外の他の撮像装置が備える第2の投光制御部が第2の赤外線投光器によって赤外光を投光させるタイミングとを同期させるための同期信号を受信する同期信号受信部と、
     を備え、
     前記第1の投光制御部は、前記同期信号受信部が受信した同期信号に基づいて前記第1の赤外線投光器を制御する
     ことを特徴とする撮像装置。
  6.  前記第1の投光制御部は、赤色に対応付けられた第1の波長を有する第1の赤外光と、緑色に対応付けられた第2の波長を有する第2の赤外光と、青色に対応付けられた第3の波長を有する第3の赤外光とを、所定の期間を3分割した3つの分割期間で選択的に投光させるそれぞれの期間の長さと順番とを制御するよう、第1の赤外線投光器を制御し、
     前記撮像部は、前記第1~第3の赤外光が選択的に投光されている状態で被写体を撮像し、
     前記同期信号受信部は、前記第1の投光制御部が前記第1の赤外線投光器によって前記第1~第3の赤外光を投光させるタイミングを、前記第2の投光制御部が前記第2の赤外線投光器によって前記第1~第3の赤外光を投光させるタイミングと同期させるために、前記他の撮像装置が送信した同期信号を受信し、
     前記第1の投光制御部は、前記同期信号受信部が受信した同期信号に同期させて前記第1~第3の赤外光を投光させるよう前記第1の赤外線投光器を制御する
     ことを特徴とする請求項5記載の撮像装置。
  7.  前記映像処理部が生成した赤色と緑色と青色の映像信号の輝度レベルを判定する輝度レベル判定部をさらに備え、
     前記撮像装置が、前記第1の投光制御部が前記第1の赤外線投光器によって前記第1~第3の赤外光を投光させるタイミングを調整するためのタイミング調整モードに設定されているとき、
     前記第1の投光制御部は、前記第1~第3の赤外光を無投光とするよう前記第1の赤外線投光器を制御し、
     前記撮像部は、前記第2の赤外線投光器が前記第1~第3の赤外光のうちの1つの赤外光のみを前記3つの分割期間における1つの分割期間内で投光し、残りの2つの分割期間を無投光とした状態で被写体を撮像するか、前記第2の赤外線投光器が前記第1~第3の赤外光を投光して、赤外線カットフィルタを介することによって実質的に前記第1~第3の赤外光のうちの1つの赤外光のみが投光されている状態として被写体を撮像し、
     前記第1の投光制御部は、前記輝度レベル判定部が判定した赤色と緑色と青色の映像信号の輝度レベルに基づいて、前記第1~第3の赤外光を投光させるタイミングを調整する
     ことを特徴とする請求項6記載の撮像装置。
  8.  前記同期信号は、前記第2の赤外線投光器によって赤外光が投光されるタイミングに基づく信号であることを特徴とする請求項5~7のいずれか1項に記載の撮像装置。
  9.  前記第1の投光制御部は、前記第1~第3の赤外光を投光させるタイミングを、前記輝度レベル判定部が、前記第2の赤外線投光器が投光した赤色に対応付けられた色以外の2つの色の映像信号の輝度レベルが同等の第1のレベルであり、前記第2の赤外線投光器が投光した赤色に対応付けられた色の映像信号の輝度レベルが前記第1のレベルより大きい第2のレベルであると判定した状態のタイミングに調整することを特徴とする請求項7記載の撮像装置。
  10.  複数の撮像装置を備える撮像システムに用いる撮像装置の制御方法であり、
     前記複数の撮像装置それぞれが、個々の赤外線投光器によって、赤外光を選択的に投光させるタイミングを互いに同期させる同期ステップと、
     前記複数の撮像装置それぞれによって、赤外光が選択的に投光されている状態で被写体を撮像させる撮像ステップと、
     を有することを特徴とする撮像装置の制御方法。
  11.  前記同期ステップにおいて、前記複数の撮像装置それぞれが、個々の赤外線投光器によって、赤色に対応付けられた第1の波長を有する第1の赤外光と、緑色に対応付けられた第2の波長を有する第2の赤外光と、青色に対応付けられた第3の波長を有する第3の赤外光とを、所定の期間を3分割した3つの分割期間で選択的に投光させるタイミングを互いに同期させ、
     前記撮像ステップにおいて、前記複数の撮像装置それぞれによって、前記第1~第3の赤外光が選択的に投光されている状態で被写体を撮像させる
     ことを特徴とする請求項10記載の撮像装置の制御方法。
  12.  前記複数の撮像装置を共通の基準クロックで動作させ、
     前記複数の撮像装置のうちの1つの撮像装置をマスタの撮像装置とし、前記マスタの撮像装置以外をスレーブの撮像装置とし、
     前記マスタの撮像装置が備える第1の投光制御部が第1の赤外線投光器を制御して、前記第1の赤外光と前記第2の赤外光と前記第3の赤外光とのうちの1つの赤外光を、前記3つの分割期間における1つの分割期間内で投光させ、残りの2つの分割期間を無投光とするか、前記第1~第3の赤外光を前記3つの分割期間でそれぞれ投光させ、
     前記スレーブの撮像装置が備える第2の投光制御部が前記第1~第3の赤外光を無投光とするよう第2の赤外線投光器を制御し、
     前記スレーブの撮像装置が備える撮像部が、前記1つの赤外光が投光されている状態か、前記第1~第3の赤外光を、赤外線カットフィルタを介した状態で被写体を撮像し、
     前記スレーブの撮像装置が備える輝度レベル判定部が、前記撮像部によって撮像された撮像信号に基づいて生成された赤色と緑色と青色それぞれの映像信号の輝度レベルを判定し、
     前記第2の投光制御部が、前記輝度レベル判定部が判定した赤色と緑色と青色の映像信号の輝度レベルに基づいて、前記第2の赤外線投光器によって前記第1~第3の赤外光を投光させるタイミングを調整する
     ことを特徴とする請求項11記載の撮像装置の制御方法。
  13.  複数の撮像装置と、前記複数の撮像装置それぞれに同期信号を供給する同期信号供給装置とを備え、
     前記複数の撮像装置は、それぞれ、
     前記同期信号を受信する同期信号受信部と、
     複数の波長の赤外光それぞれを投光可能な赤外線投光器を、前記同期信号受信部が受信した前記同期信号を基準としたタイミングで、前記複数の波長の赤外光を選択的に投光するよう制御する投光制御部と、
     前記赤外線投光器によって赤外光が投光されている状態で被写体を撮像する撮像部と、
     を備えることを特徴とする撮像システム。
  14.  前記同期信号供給装置は、前記撮像装置より出力される映像信号のフレーム周期の同期信号を前記複数の撮像装置それぞれに供給することを特徴とする請求項13記載の撮像システム。
  15.  前記同期信号供給装置は、前記複数の撮像装置それぞれより出力される映像信号を切り換えるカメラ切換器であることを特徴とする請求項13または14に記載の撮像システム。
  16.  同期信号供給装置より、複数の撮像装置それぞれに同期信号を供給し、
     前記複数の撮像装置は、それぞれ、
     前記同期信号を受信し、
     複数の波長の赤外光それぞれを投光可能な赤外線投光器を、前記同期信号を基準としたタイミングで、前記複数の波長の赤外光を選択的に投光するよう制御し、
     前記赤外線投光器によって赤外光が投光されている状態で撮像部によって被写体を撮像する
     ことを特徴とする撮像システムの制御方法。
PCT/JP2015/050724 2014-02-06 2015-01-14 撮像装置及び撮像装置の制御方法、並びに、撮像システム及び撮像システムの制御方法 WO2015118911A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201580005174.XA CN105917638B (zh) 2014-02-06 2015-01-14 摄像装置和摄像装置的控制方法、以及摄像系统和摄像系统的控制方法
US15/212,814 US10171759B2 (en) 2014-02-06 2016-07-18 Imaging device, method for controlling imaging device, imaging system, and method for controlling imaging system

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2014-021002 2014-02-06
JP2014021002A JP6090191B2 (ja) 2014-02-06 2014-02-06 撮像装置及び撮像装置の制御方法
JP2014-021004 2014-02-06
JP2014021004A JP6183238B2 (ja) 2014-02-06 2014-02-06 撮像装置及び撮像装置の制御方法
JP2014063134A JP6090217B2 (ja) 2014-03-26 2014-03-26 撮像システム及び撮像システムの制御方法
JP2014-063134 2014-03-26

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/212,814 Continuation US10171759B2 (en) 2014-02-06 2016-07-18 Imaging device, method for controlling imaging device, imaging system, and method for controlling imaging system

Publications (1)

Publication Number Publication Date
WO2015118911A1 true WO2015118911A1 (ja) 2015-08-13

Family

ID=53777719

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/050724 WO2015118911A1 (ja) 2014-02-06 2015-01-14 撮像装置及び撮像装置の制御方法、並びに、撮像システム及び撮像システムの制御方法

Country Status (3)

Country Link
US (1) US10171759B2 (ja)
CN (1) CN105917638B (ja)
WO (1) WO2015118911A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018007468A1 (de) * 2016-07-06 2018-01-11 Gerd Reime Vorrichtung und verfahren zur objektbeobachtung

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2018079372A1 (ja) 2016-10-28 2019-09-12 京セラ株式会社 撮像装置、撮像システム、移動体、及び撮像方法
WO2019023868A1 (zh) * 2017-07-31 2019-02-07 深圳市大疆创新科技有限公司 一种图像拍摄的控制方法、控制装置及控制系统
US20210075978A1 (en) * 2017-09-15 2021-03-11 Kent Imaging Hybrid Visible and Near Infrared Imaging with an RGB Color Filter Array Sensor
JP7285470B2 (ja) * 2018-05-17 2023-06-02 パナソニックIpマネジメント株式会社 投影システム、投影装置及び投影方法
CN110545411B (zh) * 2018-05-29 2021-06-15 中强光电股份有限公司 投影机、投影系统以及其传输延迟的侦测方法
US10893211B2 (en) * 2018-06-25 2021-01-12 Semiconductor Components Industries, Llc Methods and systems of limiting exposure to infrared light
JP7442522B2 (ja) * 2019-06-17 2024-03-04 株式会社小糸製作所 車載赤外線照明装置
CN112188181B (zh) * 2019-07-02 2023-07-04 中强光电股份有限公司 图像显示设备、立体图像处理电路及其同步信号校正方法
CN110568700B (zh) * 2019-08-17 2021-11-02 深圳市矽赫科技有限公司 激光光源控制方法、激光夜视成像装置以及存储介质
EP3930307B1 (en) * 2020-06-25 2022-06-01 Axis AB A method for enhancing the performance of a video camera
EP4191998A4 (en) * 2020-07-29 2024-01-03 Jvckenwood Corp INFRARED IMAGE CAPTURE DEVICE AND INFRARED IMAGE CAPTURE SYSTEM

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08130748A (ja) * 1994-10-31 1996-05-21 Sony Tektronix Corp カラー静止画像撮影装置
JP2013243589A (ja) * 2012-05-22 2013-12-05 Fujitsu General Ltd 暗視撮像装置および赤外線照射装置および暗視撮像システム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4477814A (en) * 1982-08-02 1984-10-16 The United States Of America As Represented By The Secretary Of The Air Force Dual mode radio frequency-infrared frequency system
JP2807487B2 (ja) * 1988-11-02 1998-10-08 オリンパス光学工業株式会社 内視鏡装置
US5685637A (en) * 1995-09-08 1997-11-11 Jimmy G. Cook Dual spectrum illumination system
US20030016290A1 (en) * 2001-07-18 2003-01-23 Oh-Bong Kwon Multi-functional image sensing device
US7474399B2 (en) * 2002-02-22 2009-01-06 Xenogen Corporation Dual illumination system for an imaging apparatus and method
JP5874116B2 (ja) * 2009-07-30 2016-03-02 国立研究開発法人産業技術総合研究所 画像撮影装置および画像撮影方法
JP5485004B2 (ja) * 2010-04-23 2014-05-07 パナソニック株式会社 撮像装置
CN101853492B (zh) * 2010-05-05 2012-07-04 浙江理工大学 一种夜视微光图像与红外图像融合方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08130748A (ja) * 1994-10-31 1996-05-21 Sony Tektronix Corp カラー静止画像撮影装置
JP2013243589A (ja) * 2012-05-22 2013-12-05 Fujitsu General Ltd 暗視撮像装置および赤外線照射装置および暗視撮像システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018007468A1 (de) * 2016-07-06 2018-01-11 Gerd Reime Vorrichtung und verfahren zur objektbeobachtung

Also Published As

Publication number Publication date
CN105917638B (zh) 2018-02-16
CN105917638A (zh) 2016-08-31
US10171759B2 (en) 2019-01-01
US20160330385A1 (en) 2016-11-10

Similar Documents

Publication Publication Date Title
WO2015118911A1 (ja) 撮像装置及び撮像装置の制御方法、並びに、撮像システム及び撮像システムの制御方法
WO2016035529A1 (ja) 撮像装置、撮像装置の制御方法及び制御プログラム
US10230883B2 (en) Imaging device, method for controlling imaging device, and control program
JP6183238B2 (ja) 撮像装置及び撮像装置の制御方法
US10178327B2 (en) Imaging device, method for controlling imaging device, and control program
JP6318789B2 (ja) 映像処理装置、映像処理方法、及び映像処理プログラム
JP6136948B2 (ja) 撮像装置、映像信号処理方法及び映像信号処理プログラム
JP6090217B2 (ja) 撮像システム及び撮像システムの制御方法
JP6090191B2 (ja) 撮像装置及び撮像装置の制御方法
JP5692446B1 (ja) 撮像装置、撮像装置の制御方法及び制御プログラム
JP6344279B2 (ja) 撮像装置、撮像装置の制御方法及び制御プログラム
WO2015115142A1 (ja) 撮像装置、撮像装置の制御方法及び制御プログラム
JP5655969B1 (ja) 撮像装置、撮像装置の制御方法及び制御プログラム
JP6331966B2 (ja) 撮像装置及び撮像装置の調整方法
JP6260512B2 (ja) 撮像装置、撮像方法、撮像プログラム
JP2015159526A (ja) 撮像装置、映像信号処理方法及び映像信号処理プログラム
JP6160546B2 (ja) 映像処理装置、撮像装置、映像処理方法、及び映像処理プログラム
JP6299556B2 (ja) 撮像装置、撮像方法、撮像プログラム
JP6330704B2 (ja) 撮像装置、撮像装置の制御方法及び制御プログラム
WO2012124401A1 (ja) 撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15746163

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15746163

Country of ref document: EP

Kind code of ref document: A1