WO2007129549A1 - カメラ装置および画像処理方法 - Google Patents

カメラ装置および画像処理方法 Download PDF

Info

Publication number
WO2007129549A1
WO2007129549A1 PCT/JP2007/058609 JP2007058609W WO2007129549A1 WO 2007129549 A1 WO2007129549 A1 WO 2007129549A1 JP 2007058609 W JP2007058609 W JP 2007058609W WO 2007129549 A1 WO2007129549 A1 WO 2007129549A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
captured image
captured
reception level
light reception
Prior art date
Application number
PCT/JP2007/058609
Other languages
English (en)
French (fr)
Inventor
Tatsuro Ogawa
Original Assignee
Opt Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Opt Corporation filed Critical Opt Corporation
Priority to US12/299,353 priority Critical patent/US20100007766A1/en
Priority to EP07742044A priority patent/EP2018050A4/en
Publication of WO2007129549A1 publication Critical patent/WO2007129549A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • H04N25/587Control of the dynamic range involving two or more exposures acquired sequentially, e.g. using the combination of odd and even image fields
    • H04N25/589Control of the dynamic range involving two or more exposures acquired sequentially, e.g. using the combination of odd and even image fields with different integration times, e.g. short and long exposures

Definitions

  • the present invention relates to a camera apparatus.
  • Japanese Patent Application Laid-Open No. 2004-271902 is disclosed as a camera device using an image sensor such as a CCD or a CMOS. Such a camera device is controlled so that the amount of charge accumulated by the captured image falls within the dynamic range of the image sensor by changing the aperture diameter according to the brightness of the subject or changing the frame rate.
  • the aperture diameter is increased to increase the brightness of the captured image, or the frame rate is decreased to store the charge on the imaging element.
  • the charge accumulation amount of the image sensor is made sufficiently large.
  • the brightness of the captured image can be reduced by reducing the aperture diameter so as not to saturate the charge storage amount of the image sensor. Or increase the frame rate to shorten the charge storage time of the image sensor.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2003-247902 (see description of abstract, etc.)
  • the aperture diameter is set in accordance with the overall brightness of the room.
  • the rate is set, the captured image of the subject in the lamp and its surroundings is overexposed. That is, the charge storage amount of the image sensor at the imaging position of the captured image of the electric lamp and its peripheral part is saturated. And the captured image of this part becomes a so-called whiteout state in which the image becomes whitish or is crushed white.
  • the captured image of the subject in a portion other than the lamp and its surroundings will be underexposed. That is, take a picture of this part
  • the image sensor at the image formation position of the image image is insufficient in the amount of accumulated charge.
  • the captured image of this part is in a so-called black blur state in which the image is darkened or crushed black.
  • an object of the present invention is to provide a camera device that can obtain a captured image that can confirm the entire contents of a subject even if there is a large difference in brightness depending on the portion of the subject.
  • a camera device of the present invention includes a photographing lens, an imaging unit on which subject light transmitted through the photographing lens forms an image, and image data of a captured image formed on the imaging unit.
  • An image processing control means for performing the image processing, and continuously photographing the subject, wherein the exposure time of the imaging means is changed at a predetermined timing in at least two stages.
  • the image data of the light receiving level inappropriate part is obtained.
  • image replacement means for replacing the image data corresponding to the light reception level appropriate part within the predetermined light reception level at the image position corresponding to the light reception level inappropriate part of the other captured image.
  • the camera device By configuring the camera device as described above, it is possible to obtain a plurality of captured images obtained by capturing one subject with different exposure times. Therefore, even if there is a part that falls outside the predetermined light reception level in one captured image, this part may be captured as a part within the predetermined light reception level in other captured images. Then, by replacing the portion that is outside the predetermined light reception level with the captured image of the portion that corresponds to this portion of the other captured image and that is within the predetermined light reception level, It is possible to obtain a captured image in which a portion outside the level falls within a predetermined luminance level.
  • a captured image having a light reception level inappropriate portion when there are a plurality of picked-up images having a light reception level appropriate portion to be replaced with a light reception level inappropriate portion, a captured image having a light reception level inappropriate portion. Will be replaced with the appropriate part of the received light level of the captured image that is closest to the time of imaging.
  • the exposure time changing means changes the exposure time for each imaging frame of the imaging means.
  • the exposure time changing means is frame rate changing means.
  • another invention is characterized in that the exposure time changing means is a shirt speed change means.
  • the exposure time can be easily changed at an early timing.
  • the exposure time of one of at least two stages of exposure time is an exposure time for setting the light reception level of the light reception level inappropriate portion within the predetermined light reception level. I will do it.
  • Another invention is based on the above-described invention, and the imaging lens is a wide-angle lens.
  • an image processing method of the present invention is an image processing method for performing image processing on a captured image of a subject imaged on an imaging means by a photographic lens.
  • An exposure time changing step that changes at a predetermined timing in two steps, a received light level measuring step that measures the received light level of the imaging means in units of a captured image, and a received light level of the imaging unit in units of a predetermined level within the predetermined received light level If the received light level is determined to be not within the predetermined received light level, the received light level is determined.
  • the image data of the improper level part is the part of the image position corresponding to the improper light receiving level part of the other captured image and within the predetermined light receiving level. It was decided and an image replacing step of replacing the image data of the light level proper portion.
  • a camera device of the present invention includes a photographing lens, an imaging unit that forms an image of subject light that has passed through the photographing lens, and image data of a captured image that is formed on the imaging unit.
  • the captured images were recorded or displayed by synthesizing clear parts of each other to make the whole clear.
  • each of the plurality of captured images has a clear captured image portion.
  • synthesizing these clear portions a captured image that is clear as a whole can be recorded or displayed.
  • an image processing method of the present invention is an image processing method for performing image processing on a captured image of a subject imaged on an imaging means by a photographic lens. Shooting multiple captured images with different exposure times in two stages, and recording or displaying captured images that are clear by combining clear portions of the multiple captured images with different exposure times It was decided.
  • each of the plurality of captured images has a clear captured image portion.
  • synthesizing these clear portions a captured image whose whole is clear can be recorded or displayed.
  • FIG. 1 is a perspective view showing a configuration of a camera device according to an embodiment of the present invention.
  • FIG. 2 is a block diagram showing a configuration of the camera device of FIG. 1.
  • FIG. 3 is a flowchart showing the operation of the camera apparatus of FIG.
  • FIG. 4 A view of photographing a subject having a high brightness portion with the camera apparatus of FIG. 1.
  • A is a view showing a subject having a high brightness portion
  • B is a view in (A).
  • C is a diagram showing a monitor image based on image data obtained by performing replacement processing on the image data of the captured image shown in (B)
  • D is a diagram showing a captured image obtained by photographing the subject shown in FIG.
  • FIG. 4 is a diagram showing the contents of image data for replacement processing of image data stored in a memory.
  • FIG. 5 is a diagram in the case of photographing a subject having a low luminance part with the camera device of FIG. 1,
  • A is a diagram showing a subject having a low luminance part
  • B is a diagram in (A).
  • C) is a diagram showing a monitor image based on image data obtained by performing replacement processing on the image data of the captured image shown in (B)
  • D is a diagram showing a captured image obtained by photographing the subject shown in FIG.
  • FIG. 4 is a diagram showing the contents of image data for replacement processing of image data stored in a memory.
  • FIG. 6 is a diagram in the case of photographing a subject having a high brightness portion and a low brightness portion with the camera device of FIG. 1, and (A) is a diagram showing a subject having a high brightness portion and a low brightness portion; (B) is a diagram showing a captured image obtained by photographing the subject shown in (A), and (C) is a monitor video based on the image data obtained by performing replacement processing on the image data of the captured image shown in (B). In the figure, (D) is a diagram showing the contents of image data for replacement processing of image data stored in the memory.
  • Circuit device (Image processing control means)
  • Received light level measurement unit (received light level measurement means)
  • Light reception level determination unit (light reception level determination means)
  • Image replacement unit (image replacement means) BEST MODE FOR CARRYING OUT THE INVENTION
  • a camera device 100 according to an embodiment of the present invention will be described with reference to FIGS. 1 to 6.
  • the camera device 100 can be used not only as a surveillance camera for home use or office use, but also as a camera device for taking pictures of meeting scenes and taking pictures for product inspection.
  • the image processing method will be described together with the operation of the camera device 100.
  • FIG. 1 shows an external configuration of camera apparatus 100 according to the embodiment of the present invention.
  • Camera part
  • the 100 includes an outer casing 110, an optical system 120, an imaging element 130 as an imaging unit, and a circuit device 140, which are illustrated by dotted lines in the drawing.
  • the exterior casing 110 has a small form, for example, having a substantially rectangular parallelepiped shape of 3 cm square.
  • the optical system 120 has a photographing lens 121 and a lens barrel 122.
  • the lens barrel 122 is accommodated in the outer casing 110, and the photographing lens 121 is exposed outside the outer casing 110.
  • the photographic lens 121 is a so-called wide-angle lens having optical characteristics with a wide field angle of 180 degrees.
  • the photographing lens 121 has a front surface on the object light incident side bulging like a normal convex lens, and is close to a flat surface.
  • the lens has been devised for processing the glass inside the lens, has a 180 degree field of view, and can shoot all around the optical axis, that is, all around 360 degrees.
  • An imaging element 130 as an imaging unit is disposed at the imaging position of the photographic lens 121.
  • a CMOS Complementary Metal Oxide Semiconductor
  • a CCD Charge Coupled Device
  • other photoelectric conversion element may be used instead of the CMOS.
  • the lens barrel 122 is provided with a focus adjustment knob 123.
  • the lens barrel 122 is configured to move forward and backward along the optical axis direction with respect to the imaging element 130 when the pin adjustment knob 123 is picked up with a finger and rotated around the optical axis. Therefore, the position of the photographic lens 121 in the optical axis direction can be adjusted by the focus adjustment knob 123 so that the imaging position of the photographic lens 121 becomes the imaging surface of the imaging device 130.
  • the camera apparatus 100 includes a microphone 101 and USB (Univereal Serial as a communication means).
  • USB connection unit 102 to which a cable is connected
  • AV signal output unit 103 that outputs audio and video signals.
  • the microphone 101 captures the sound of the place in the shooting range.
  • FIG. 2 is a block diagram showing a configuration of camera device 100 according to the embodiment of the present invention.
  • a captured image taken by the taking lens 121 and subjected to image processing by the circuit device 140 is displayed on a monitor 150 including a liquid crystal television or the like.
  • the monitor 150 is connected to the camera device 100 through a network or directly via a USB cable (not shown) connected to the USB connection unit 102 of the camera device 100.
  • the subject light that has passed through the photographing lens 121 forms an image on the imaging surface of the image sensor 130, and an image signal based on this combined image is output from the image sensor 130.
  • the image signal output from the image sensor 130 is input to the circuit device 140.
  • the circuit device 140 includes an image signal processing unit 141, an image compression processing unit 142, a control unit 143, a memory 144 provided for the control unit 143, a coordinate conversion unit 145, and the coordinates thereof, which are configured as an image processing control unit.
  • a memory 146 provided for the conversion unit 145 is provided.
  • the image signal output from the image sensor 130 is input to the image signal processing unit 141.
  • predetermined image processing such as color processing is performed on the image signal from the image sensor 130.
  • the image compression processing means 142 compresses the image data of the image signal subjected to the image processing by the image signal processing unit 141, and generates compressed image data in which the data amount of the image data is reduced.
  • JPEG ioint Photograph! C Experts Group is used to compress the image data.
  • the control unit 143 is configured by a CPU (Central Processing Unit), for example, and controls the operation of the camera apparatus 100 including a process of generating an image of the photographing lens 121 displayed on the monitor 150.
  • the control unit 143 includes a frame rate setting unit 143a, a received light level measurement unit 14 3b, a light reception level determination unit 143c, a replaceable determination unit 143d, an image replacement unit 143e, and the like.
  • the memory 144 is a work memory for executing the program in addition to a program for generating a captured image by the photographing lens 121 displayed on the monitor 150 and a program for operating each unit of the camera device 100. It has. The memory 144 is also used for processing in the image signal processing unit 141 and the image compression processing unit 142.
  • the coordinate conversion unit 145 performs image processing for generating a video corresponding to each display mode based on the image data from the image compression processing unit 142 together with the control unit 143.
  • This coordinate conversion unit 145 performs coordinate processing of the captured image on the imaging surface of the image sensor 130 so as to be an image displayed in each display mode and displays it on the monitor 150, and the coordinate position of the captured image on the imaging surface.
  • the memory 146 is a work memory when performing image processing using the coordinate conversion unit 145.
  • Camera device 100 shown in the present embodiment continuously captures a subject and outputs the captured image to monitor 150. Therefore, it is possible to observe the state of the subject from the image on the monitor 150.
  • continuous shooting refers to shooting of several frames to several tens of frames per second, as in the so-called video shooting, and shooting of one frame per several seconds or one frame in several tens of seconds. Including up to. In other words, only a few frames are taken, and after that, shooting is not performed, shooting is not included, and shooting is not performed.
  • the camera device 100 is configured to change the frame rate at the time of continuous shooting at a predetermined timing. If there is a captured image with overexposure or underexposure in one of these continuously captured images, the overexposure or underexposure part of this captured image Replaces the image that corresponds to the overexposed or underexposed part of the image with overexposed or underexposed areas. As a result, even if an overexposed or underexposed portion occurs in the captured image, the contents of this portion (the overexposed portion or underexposed portion) can be confirmed.
  • FIG. 4 (A) is a diagram showing a subject to be photographed by the camera device 100.
  • FIG. The time passes from left to right in the order of (1) to (6). These shall be 1H, 2H, 3H, 4H, 5H, and 6H, respectively.
  • the camera device 100 takes an image of the room, and each subject 1H, 2H,... Has a high brightness portion IHa, 2Ha, 3Ha, 4Ha, 5Ha, 6Ha with high brightness by an indoor lamp.
  • Indoor parts other than the part lHb, 2Hb, 3Hb, 4Hb, 5Hb, 6iib forces S are included.
  • FIG. 4 (B) shows the captured images obtained by continuously capturing the subjects 1H, 2H,... Shown in (A), arranged from left to right in time series.
  • the subjects 1H 2H, 3H, 4H 5H, and 6H are captured as captured images 1H ′ 2H 3H ; 4H r , 5H r , and 6H r , respectively.
  • FIG. 4C shows the display content of the monitor video when displayed on the monitor 150 based on the image data on which the image data replacement processing has been performed on the image data of the captured image shown in FIG. 4B.
  • FIG. The monitor 150 captured images 1H ', 2H r, 3H r , 4 ⁇ ; 5 ⁇ ; 6 ⁇ ' respectively corresponding to, the monitor picture 1H "2H / r, 3H / r, 4 ⁇ " 5 ⁇ "6 ⁇ ” is displayed .
  • FIG. 4D is a diagram showing the contents of the image data of the captured image recorded in the memory 144 for the above-described image data replacement process.
  • Image data force based on the monitor image displayed on the monitor 150 is recorded in the memory 144 as image data for replacement processing of image data.
  • Image data based on the monitor video 1H 2 3 ⁇ ", 4 ⁇ ", 5 ⁇ ", 6 ⁇ are recorded in the memory 144 as image data 1MH, 2 ⁇ , 3 ⁇ , 4 ⁇ , 5 ⁇ , 6 ⁇ , respectively.
  • the frame rate is set to a standard frame rate by the frame rate setting unit 143a as the exposure time changing means (step S1).
  • This standard frame rate is a predetermined frame rate according to the subject to be photographed.
  • the frame rate is set to be large so that the exposure time of the pixels of the image sensor 130 per frame is shortened. To avoid saturating.
  • the subject's brightness is expected to be low ( ⁇ )
  • set the frame rate small so that the exposure time of the pixels of the image sensor 130 per frame is long, Increase charge accumulation.
  • This frame rate is determined relative to the brightness of the subject and the aperture diameter of the optical system 120.
  • the standard frame is set so that the captured images of the room portions lHb to 6Hb have an appropriate amount of received light.
  • Set the rate to 20 frames per second, for example.
  • the appropriate amount of received light is the amount of received light that prevents the captured image from being overexposed or blackened.
  • step S2 When the subject 1H shown in (1) of FIG. 4 (A) is photographed at the above standard frame rate (step S2), the imaging surface of the image sensor 130 is placed on (1) of FIG. 4 (B).
  • the captured image 1H ′ has a captured image a of the high luminance portion lHa and a captured image ⁇ ′ b of the indoor portion lHb.
  • the frame rate is set in accordance with the luminance of the indoor portion lHb, so the image is overexposed and is captured in an overexposure state. That is, among the pixels of the image sensor 130, the charge accumulation amount is saturated for the pixels corresponding to the captured image 1H′a.
  • the frame rate is set in accordance with the luminance of the indoor part lHb, the charge accumulation amount of the image sensor 130 becomes an appropriate captured image, and the state of the indoor part lHb can be seen. Images are taken in a state.
  • the light reception level of each pixel of the image sensor 130 is measured by the light reception level measurement 1143b as the light reception level measurement means (step S3). Then, the light reception level determination unit 143c as the light reception level determination means determines whether each pixel of the captured image 1H ′ is within a predetermined light reception level (step S4).
  • the upper limit of the predetermined light reception level is determined based on whether or not the charge accumulation amount of the pixels of the image sensor 130 is saturated to such an extent that the captured image 1H 'is overexposed.
  • the lower limit is determined based on whether the charge accumulation amount of the pixels of the image sensor 130 is low enough to cause blackening in the captured image 1H ′.
  • the force S determined to be an appropriate light receiving level for the captured image 1H'b portion, and the charge accumulation amount of the pixel is saturated for the captured image 1H'a portion It is judged that That is, in the determination of the light reception level (step S4), the pixel of the captured image 1H′a is determined as a pixel outside the predetermined light reception level (No in step S4).
  • the replaceable determination unit 143d uses a pixel of the captured image captured before the captured image 1H ′ to have a pixel at a position corresponding to a pixel whose light reception level is not the predetermined light reception level and within the predetermined light reception level. It is determined whether or not there is a pixel (step S5). That is, a pixel in a position corresponding to the captured image 1H ′ a in the captured image captured before the captured image 1H ′, and a pixel within a predetermined light reception level is detected. It is determined whether or not there is (step S5).
  • the captured image 1H ' is the first captured image, it is determined that there is no such pixel (No in step S5), as shown in (1) of Fig. 4C.
  • the monitor image 1H "based on the image data of the captured image lH r is displayed on the monitor 150 (step S6).
  • the monitor image 1H ⁇ is the overexposed image 1H 7 for the captured image 1H'a. it is displayed as / a. Thus, appearance of the high-intensity part lHa subject 1H can not be seen by the monitor image 1H ⁇ .
  • the captured image 1H'b is displayed as an appropriate video 1H "b because it is captured at a frame rate suitable for the brightness of the indoor portion lHb. The situation can be seen with the proper video 1H b.
  • the image data based on the monitor video 1H is stored as image data 1MH as shown in (1) of FIG. It memorize
  • the monitor image 1H ′′ is based on the image data of the captured image 1H ′, that is, the captured images 1H ′ a and ⁇ ′ b. Therefore, the content of the image data 1MH is the captured image 1H 'Image data 1 am which is image data of a and image data bm which is image data of captured image 1H' b.
  • the process proceeds to the second frame shooting for shooting the subject 2H shown in (2) of Fig. 4A.
  • the frame rate is set to 40 frames / second (Step 1). Setting the frame rate is performed based on the previous (first frame) captured captured image IH 'receiving level measurement result of (step S3), and the captured image and overexposure when the previous shot lH r a Set the exposure time short so that the high-intensity part 2Ha picked up as is not overexposed.
  • step S2 When the subject 2H is photographed at a frame rate of 40 frames / second (step S2), the imaging element is captured. On the imaging surface of the child 130, a captured image 2H ′ shown in (2) of FIG. 4B is formed.
  • the frame rate for this shooting (second frame) is set so that the captured image of the high-intensity part 2Ha is captured with an appropriate exposure. Therefore, the captured image 2Ha ′ of the captured image corresponds to the portion corresponding to the captured image 1H′a of the captured image 1H ′.
  • the image sensor 130 has an appropriate charge accumulation amount. It becomes an image. In other words, the captured image 1H ′ a that has been captured in the previous (first frame) captured image 1H ′ is captured as an appropriate captured image 2H ′ a.
  • the captured image 2H'b of the captured image 2H ' is the force corresponding to the portion corresponding to the captured image 1H'b of the captured image 1H'. Is insufficient, and the image is captured as a blackout image. In other words, because the frame rate is 40 frames / second, the captured image 2H′b is underexposed, resulting in a blackened captured image with a small amount of charge accumulation.
  • the light reception level is measured (step S3), and it is determined whether each pixel of the captured image 2 is within a predetermined light reception level (step S4).
  • the captured image 2H ' As described above, the captured image 2b is a blackened captured image. Therefore, in the determination of the light reception level (step S4), the pixel of the captured image 2H′b is determined as a pixel outside the predetermined light reception level (No in step S4).
  • the memory 144 stores whether or not there is a pixel in a position corresponding to the captured image 2H 'in the captured image captured before the captured image 2H' and within a predetermined light reception level. The determination is made with reference to the processed image data (step S5).
  • the image data 1H ′ bm of the captured image 1H ′ b stored in the memory 144 is determined as data meeting the conditions (Yes in step S5).
  • image data corresponding to the captured image 2H′b is replaced with image data 1H′bm in the image data of the captured image by the image replacement unit 143e serving as an image replacement means (step S8).
  • the Is displayed on the monitor 150 step S6. That is, for the portion corresponding to the captured image 2H′b of the monitor video 2H ′′, the appropriate video 1H ⁇ b based on the image data 1bm is displayed.
  • FIG. 4 portion corresponding to the captured image a monitor image 2H ⁇ is proper picture 2H ⁇ a is a picture based on the image data of the captured image 2 H r a is displayed. Therefore, as a whole, an appropriate monitor image 2H ⁇ with no overexposure or underexposure is displayed on the monitor 150.
  • the person moves between (1) and (2), and the person is in a different position. Actually, it is less than 0.1 second between (1) and (2) It is such a short time. Therefore, the position of a moving object such as a person is almost the same between (1) and (2). Therefore, even if the image data bm of the memory 144 is used, there is no sense of incongruity in the monitor video 2H ⁇ .
  • the time interval between other frames and between the frames in FIGS. 5 and 6 to be described later is a short time that is less than 0.1 second, and the position of the movement of a person or the like drawn in the figure. There is very little deviation.
  • the proper video 1H "b of the monitor video 2H" is not a real-time video obtained by the current shooting, but is a video immediately before one frame. Therefore, there is no significant difference between the actual shooting content and the display content of the monitor video 2H ⁇ .
  • step S7 the image data of the captured image 1 b and the captured image 2H ′ a that are the basis of the monitor video 2H ′′ are stored in the memory 144 as the image data 2MH (step S7).
  • image data bm that is image data of the captured image 1H′b
  • image data 2am that is image data of the captured image 2H′a.
  • This frame rate is set based on the measurement result (Step S3) of the received light level of the captured image 2H 'captured in the previous (second frame), and the captured image 2H'
  • the indoor part 3Hb imaged as b is set not to be blackened.
  • a captured image 3 shown in (3) of FIG. 4B is formed on the imaging surface of the image sensor 130.
  • the frame rate of this shooting (third frame) is set so that the captured image of the low-luminance part 3Hb is captured with an appropriate exposure. Therefore, the captured image 3HI of the captured image 3 corresponds to the portion corresponding to the captured image 2H′b of the captured image 2H ′.
  • the image sensor 130 has an appropriate charge accumulation amount. It becomes an image. That is, the captured image b that was blacked out in the captured image 2H ′ captured last time is captured as an appropriate captured image 3H ′ b.
  • the captured image 3H ′ a of the captured image 3H ′ is the force applied to the portion corresponding to the captured image 2H ′ a of the captured image 2H ′. Is saturated and captured as an overexposed image. In other words, since the frame rate is 20 frames / second, the captured image 3H′a is overexposed, and the charge accumulation amount is saturated and the captured image is overexposed.
  • the luminance level is measured (step S3), and it is determined whether each pixel of the captured image 3H ′ is within a predetermined light reception level (step S4).
  • the captured image 3H ' is a captured image in which the portion of the captured image 3a is overexposed. Therefore, in the determination of the light reception level (step S4), the pixel of the captured image 3H′a is determined as a pixel outside the predetermined light reception level (No in step S4).
  • step S5 whether or not there is a pixel at a position corresponding to the captured image 3H'a in the captured image captured before the captured image 3 ⁇ 'and within a predetermined light reception level is stored in the memory 144. The determination is made with reference to the stored image data (step S5).
  • the image data 2H ⁇ am of the captured image 2H'a stored in the memory 144 is It is judged as data that meets the conditions (Yes in step S5). In accordance with this determination, the image data corresponding to the captured image 3H′a in the image data of the captured image 3H ′ is replaced with the image data 2H′am (step S8).
  • the monitor picture 3 ⁇ the image data of the captured image 3 a is based on the image data of the image data 2 H r captured image 3 ⁇ which replaced the am '" Is displayed on the monitor 150 (step S6), that is, the appropriate video 2H "a based on the image data am is displayed for the portion corresponding to the captured image 3H'a of the monitor video 3H".
  • portion corresponding to the captured image b of monitor picture 3H ⁇ is proper picture 3H ⁇ b is a picture based on the image data of the captured image 3 H r b is displayed. Therefore, as a whole, an appropriate monitor image 3H ⁇ with no overexposure or underexposure is displayed on the monitor 150.
  • the captured image 3H'a of the high-intensity part 3Ha is a whitened image, but it was captured with the appropriate amount of received light in the previous (second frame). Since the proper video 2H ⁇ a based on the image data am of the captured image 2H'a is displayed, the monitor video 3H ⁇ can be viewed as a proper video.
  • the proper video 2H "a of the monitor video 3H” is not the real-time video captured by the current time (third frame), but is the very previous video one frame before. Therefore, there is no significant difference between the actual shooting content and the display content of the monitor video 3H ⁇ .
  • the image data of the captured image 2H′a and the captured image b that are the basis of the monitor video 3H ′′ is stored as the image data 3MH in the memory 144 (step S7).
  • This image data 3MH Are image data am that is image data of the captured image 2H′a and image data 3bm that is image data of the captured image 3H′b.
  • the above-described first frame force is also performed at the third frame.
  • a video that has been subjected to the same image replacement processing as the above is displayed. Therefore, on the monitor 150, the captured images of the subjects 4H, 5H, 6H,... Can be seen in a state where there is no overexposure or underexposure.
  • the above description of the operation of the camera device 100 is for photographing subjects 1H, 2H,... Having high brightness portions lHa, 2Ha,.
  • the subject 1L has low-luminance parts lLa, 2La, ... such as shadows behind the furniture placed in the room. , 2L,... Will be described with reference to the block diagram of FIG. 2, the flowchart of FIG. 3, and FIG.
  • FIG. 5A is a diagram showing a subject to be photographed by the camera apparatus 100.
  • FIG. As in Fig. 4, time elapses from left to right in the order of (1) to (6), and the subjects at each time are 1L, 2L, 3L, 4L, 5L, and 6L, respectively.
  • the camera device 100 shoots the room, and each of the subjects 1L, 2L,... Has a low-brightness fraction lLa, 2La, 3La, 4La, 5La, 6La and other indoor parts lLb, 2Lb, 3Lb, 4Lb, 5Lb, 6Lb are included.
  • FIG. 5 (B) shows the captured images obtained by continuously capturing the subjects 1L, 2L,... Shown in (A), with the left force aligned to the right in time series.
  • the subjects 1L, 2L, 3L, 4L, 5L, and 6L are captured as captured images 1L ′, 21 /, 31 /, 4V, 5V, and 6, respectively.
  • FIG. 5C shows the display content of the monitor video displayed on the monitor 150 based on the image data obtained by performing the image data replacement process on the image data of the captured image shown in FIG. FIG.
  • Monitor image on monitor 150 corresponding to captured images 1L ', 2V, 3L', 4V, 5L ', 6L', monitor images 11 /, 21 /, 31 /, 41 /, 51 /, 61 / force S Is displayed.
  • FIG. 5D is a diagram showing the contents of the image data of the captured image recorded in the memory 144 for the above-described image data replacement process.
  • Image data force based on the monitor image displayed on the monitor 150 is recorded in the memory 144 as image data for replacement processing of image data.
  • Monitor image 11 /, 21 /, 31 /, 4L ", 5L", 6L "image data is stored in memory as image data 1ML, 2ML, 3ML, 4ML, 5ML, 6ML respectively It is recorded in 144.
  • the frame rate setting unit 143a sets the frame rate to a standard frame rate (step Sl).
  • a standard frame rate is set to, for example, 20 frames / second so that the captured images of the indoor parts lLb to 6 Lb have an appropriate amount of received light.
  • step S2 When the subject 1L shown in (1) of FIG. 5 (A) is photographed at the above standard frame rate (step S2), the imaging surface of the image sensor 130 is shown in (1) of FIG. 5 (B).
  • the captured image 11 / has a captured image 11 / a of the low luminance portion lLa and a captured image 11 / b of the indoor portion lLb.
  • the captured image 11 / a since the frame rate is set in accordance with the luminance of the indoor portion lLb, the captured image is underexposed and is blacked out. That is, among the pixels of the image sensor 130, the charge accumulation amount is insufficient for the pixels corresponding to the captured image 11 / a. In contrast, in the captured image 11 / b, since the frame rate is set in accordance with the luminance of the indoor portion lLb, the charge accumulation amount of the image sensor 130 becomes an appropriate captured image, and the state of the indoor portion lLb is known. Images are taken in a state.
  • the received light level is measured by the received light level measuring unit 143b (step S3), and each pixel of the captured image 1L 'is within the predetermined received light level by the received light level determining unit 143c. (Step S4).
  • the upper limit of the predetermined light reception level is determined based on whether or not the charge accumulation amount of the pixels of the image sensor 130 is saturated to such an extent that the captured image 11 / is overexposed.
  • the lower limit is determined based on whether the charge accumulation amount of the pixels of the image sensor 130 is low enough to cause blackening in the captured image 11 /.
  • the portion of the captured image 11 / b is determined to be an appropriate light reception level, but the portion of the captured image 11 / a is insufficient due to insufficient charge accumulation in the pixel. Is determined. That is, in the determination of the light reception level (step S4), the pixel of the captured image 1 U a is determined as a pixel outside the predetermined light reception level (No in step S4) 0
  • Step S5 it is determined whether there is a pixel at a position corresponding to the captured image 11 / a in the captured image captured before the captured image 11 / and within the predetermined light reception level (scan).
  • Step S5 since the captured image 11 / is the first captured image, it is determined that there is no such pixel (No in step S5), and as shown in (1) of FIG.
  • Monitor image 1 based on the image data of image 11 is displayed on monitor 150 (step S6).
  • the monitor image 11 / is displayed as a blacked-out image 1L ⁇ a for the captured image 11 / a. Therefore, the low luminance part lLa of the subject 1L cannot be seen depending on the monitor image 1L.
  • the captured image 11 / b is displayed as the appropriate video 1L ⁇ b because it is captured at a frame rate suitable for the brightness of the indoor portion lLb. Therefore, the state of the indoor part lLb can be seen in the appropriate video 1L ⁇ b.
  • the monitor image 11 / is displayed on the monitor 150 as described above, the image data that is the basis of the monitor image 11 / is converted into the image data 1ML as shown in (1) of Fig. 5 (D). Is stored in the memory 144 (step S7).
  • the monitor image 11 / is based on the image data of the captured image 11 /, that is, the captured images 11 / a and IVb. Therefore, the contents of the image data 1ML are image data 11 / am that is image data of the captured image 11 / a and image data 11 / bm that is image data of the captured image 11 / b.
  • the process proceeds to the second frame shooting for shooting the subject 2L shown in (2) of FIG.
  • the frame rate is set to 10 frames / second (Step 1).
  • This frame rate is set based on the measurement result (Step S3) of the received light level of the captured image 1L 'captured in the previous (first frame), and the captured image 1L' a Long exposure time so that the low-luminance part 2La captured as
  • the captured image 21 / shown in (2) of FIG. 5 (B) is formed on the imaging surface of the imaging element 130.
  • the frame rate of this shooting (second frame) is set so that the captured image of the low-luminance part 2La is captured with an appropriate exposure. Therefore, the captured image of the captured image 2L 'is a force S that strikes the portion corresponding to the captured image 11 / a of the captured image 11 /, and in this second frame, the charge accumulation amount of the image sensor 130 is appropriate.
  • a captured image In other words, the captured image 11 / a that was blacked out in the previously captured image 11 (first frame) was captured. Is captured as a proper captured image 21 / a.
  • the captured image 21 / b of the captured image 21 / is the force applied to the portion corresponding to the captured image 11 / b of the captured image 11 /.
  • the charge accumulation amount of the image sensor 130 Becomes saturated, and is captured as an overexposed image.
  • the frame rate is 10 frames / second
  • the portion of the captured image 21 / b is overexposed, and the captured image is a whiteout image in which the charge accumulation amount is saturated.
  • the light reception level is measured (step S3), and it is determined whether each pixel of the captured image 21 / is within a predetermined light reception level (step S4).
  • the captured image 2 is a captured image in which the captured image 21 / b is overexposed. Therefore, in the determination of the light reception level (step S4), the pixel of the captured image 2 U b is determined as a pixel outside the predetermined light reception level (No in step S4) 0
  • step S5 whether or not there is a pixel at a position corresponding to the captured image 21 / b in the captured image captured before the captured image 21 / and within the predetermined light reception level is stored. The determination is made with reference to the stored image data (step S5).
  • the image data 11 / bm of the captured image 11 / b of the captured image 11 / is determined as data meeting the conditions (Yes in step S5).
  • the image replacement unit 144e replaces the image data corresponding to the captured image 21 / b in the image data of the captured image 2L ′ with the image data 11bm (step S8).
  • the monitor video 2L ⁇ ⁇ ⁇ based on the image data of the captured image 21 / in which the image data of the captured image 21 / b is replaced with the image data 1 bm is displayed.
  • the appropriate image 21 / a that is an image based on the image data of the captured image 2L'a is displayed. Therefore, the proper monitor image 2L without any overexposure or underexposure is displayed on the monitor 150 as a whole.
  • the monitor image 11 / in the previous shooting the image of the low-luminance part lLa becomes a blackened image 1L ⁇ a, and the low-luminance part lLa is viewed on the monitor 150.
  • the monitor image 21 / in this time (second frame) it can be seen as the proper image 21 / a.
  • the captured image 2L'b of the indoor part 2Lb other than the low-intensity part 2La is an overexposed image.
  • the appropriate amount of received light in the previous (1st frame) Since the appropriate video 1L ⁇ b based on the image data 11 / bm of the captured image 11 / b taken at is displayed, the monitor video 2L ⁇ can be viewed as an appropriate video.
  • the proper video 11 / b of the monitor video 21 / is not a real-time video from the current shooting, but is a very previous video just one frame before. Therefore, there is no significant difference between the actual shooting content and the display content of the monitor video 21 /.
  • the captured image 1L'b and the image data of the captured image 21 / a which are the basis of the monitor video 21 /, are stored in the memory 144 as image data 2ML (step S7).
  • the contents of the image data 2ML are image data 11 / bm, which is image data of the captured image 11 / b, and image data 21 / am, which is image data of the captured image 21 / a.
  • the process shifts to the third frame shooting for shooting the subject 3L shown in (3) of FIG.
  • set the frame rate to 20 frames / second again.
  • This frame rate is set based on the measurement result (step S3) of the received light level of the captured image 21 / captured at the previous (second frame), and the captured image 21 /
  • the indoor part 3Lb imaged as b is set to be overexposed.
  • a captured image 31 / shown in (3) of FIG. 5B is formed on the imaging surface of the image sensor 130.
  • the frame rate of this shooting (3rd frame) is set so that the captured image of the indoor part 3Lb is taken with an appropriate exposure. Therefore, the captured image 3L1 of the captured image 3L 'corresponds to the portion corresponding to the captured image 21 / b of the captured image 21 /.
  • the charge accumulation amount of the image sensor 130 is appropriate. This is a captured image.
  • the captured image 21 / b that was overexposed in the captured image 21 / captured last time is captured as an appropriate captured image 31 / b.
  • the captured image 31 / a of the captured image 31 / is the force corresponding to the captured image 21 / a of the captured image 21 /.
  • the charge accumulation amount of the image sensor 130 Is lacking and is captured as a blackened captured image.
  • the frame rate is 20 frames Z seconds
  • the portion of the captured image 31 / a is underexposed, resulting in a captured image that is blackened due to insufficient charge accumulation.
  • the luminance level is measured (step S3), and it is determined whether or not each pixel of the captured image 31 / is within a predetermined light reception level (step S4).
  • the captured image 31 / is a captured image in which the portion of the captured image 31 / a is blacked out. Therefore, in the determination of the light reception level (step S4), the pixel of the captured image 31 / a is determined as a pixel outside the predetermined light reception level (No in step S4).
  • step S5 whether or not there is a pixel at a position corresponding to the captured image 31 / a in the captured image captured before the captured image 31 / and within the predetermined light reception level is stored in the memory 144. The determination is made with reference to the stored image data (step S5).
  • the image data 21 / am of the captured image 21 / a of the captured image 21 / is determined as data meeting the conditions (Yes in step S5).
  • the image data corresponding to the captured image 31 / a in the image data of the captured image 3 is replaced with the image data 21 / am (step S8).
  • the monitor image 31 / based on the image data of the captured image 31 / in which the image data of the captured image 31 / a is replaced with the image data 2 V am Is displayed on the monitor 150 step S6. That is, the appropriate video 2L ⁇ a based on the image data 2L′am is displayed for the portion corresponding to the captured image 31 / a of the monitor video 31 /.
  • the appropriate image 31 / b which is an image based on the image data of the captured image 3L′b, is displayed. Therefore, as a whole, an appropriate monitor image 3L without any overexposure or underexposure is displayed on the monitor 150.
  • the captured image 31 / a of the low luminance part 3La is black.
  • the captured image is blurred, the proper image 21 / a based on the image data 21 / am of the captured image 21 / a captured with the appropriate amount of received light in the previous (second frame) shooting is displayed.
  • the monitor image 31 / can be viewed as a proper image.
  • the proper video 21 / a of the monitor video 3 is not the real-time video taken by this time (3rd frame), but is the very previous video just one frame before. Therefore, there is no significant difference between the actual shooting content and the display content of the monitor video 3L ⁇ .
  • the image data of the captured image 2L'a and the captured image 31 / b that are the basis of the monitor video 31 / is stored as the image data 3ML in the memory 144 (step S7).
  • the contents of the image data 3ML are image data 21 / am that is image data of the captured image 21 / a and image data 31 / bm that is image data of the captured image 31 / b.
  • the above-described first frame force is also performed at the third frame.
  • a video that has been subjected to the same image replacement processing as the above is displayed. Therefore, on the monitor 150, the captured images of the subjects 4L, 5L, 6L,... Can be viewed without being overexposed or underexposed.
  • FIG. 6A is a diagram showing a subject to be photographed by the camera apparatus 100.
  • FIG. As in Fig. 4, time elapses from left to right in the order of (1) to (6), and the subjects at each time are IK, 2K, 3K, 4K, 5K, and 6K, respectively.
  • the camera device 100 is used to shoot the room, and each subject IK, 2K, ... (This is a high-intensity apportioned lKa, 2Ka, 3Ka, 4Ka, 5Ka, 6Ka, low-intensity part. 1Kb, 2Kb, 3Kb, 4Kb, 5Kb, 6Kb and other indoor parts lKc, 2Kc, 3Kc, 4Kc, 5Kc, 6Kc are included.
  • FIG. 6 (B) shows the captured images obtained by continuously capturing the subjects 1K, 2 ⁇ ,... Shown in (A), arranged from left to right in time series.
  • Subject 1K, 2 ⁇ , 3 ⁇ , 4 ⁇ , 5 ⁇ , 6 ⁇ it respectively, captured image 1K ', 2K r, 3K, 4K r, 5 ⁇ ;, 6 ⁇ ; being imaged as.
  • FIG. 6C image data replacement processing is performed on the image data of the captured image shown in (i).
  • FIG. 5 is a diagram showing the display content of a monitor video when displayed on a monitor 150 based on the image data that has been performed. Monitor images 1K 2K “, 3K 4K", 5K ", and 6K are displayed on the monitor 150 corresponding to the captured images IK ', 2K ; , 3K', 4K ; , 5K, and 6 ', respectively.
  • FIG. 6D is a diagram showing the contents of the image data of the captured image recorded in the memory 144 for the above-described image data replacement process.
  • Image data force based on the monitor image displayed on the monitor 150 is recorded in the memory 144 as image data for replacement processing of image data.
  • the frame rate setting unit 143a sets the frame rate to a standard frame rate (step S1).
  • the standard frame rate is set so that the captured image of the indoor part lKc 6 Kc has an appropriate amount of received light, for example Set to 20 frames per second.
  • the captured image 1K ′ includes a captured image lKa of the high brightness portion lKa, an captured image IK ′ b of the low brightness portion 1Kb, and a captured image IK ′ c of the indoor portion lKc.
  • the frame rate is set to match the brightness of the indoor part lKc, so the image is overexposed and is captured in an overexposed state. That is, among the pixels of the image sensor 130, the charge accumulation amount is saturated in the pixel corresponding to the captured image IK′a.
  • the captured image IK'b is underexposed and is captured in a blackened state. That is, among the pixels of the image sensor 130, the charge accumulation amount is insufficient for the pixels corresponding to the captured image IK′b.
  • the frame rate is set according to the brightness of the indoor part lKc. For this reason, the charge accumulation amount of the image sensor 130 becomes an appropriate captured image, and the image is taken in a state where the state of the indoor portion lKc is known.
  • the received light level is measured by the received light level measuring unit 143b (step S3), and whether each pixel of the captured image 1IT is within the predetermined received light level by the received light level determining unit 143c. Judgment is made (step S4).
  • the upper limit of the predetermined light reception level is determined based on whether or not the charge accumulation amount of the pixels of the image sensor 130 is saturated to such an extent that overshooting occurs in the captured image.
  • the lower limit is determined by whether or not the charge accumulation amount of the pixels of the image sensor 130 is low enough to cause blackening in the captured image 11 ⁇ .
  • the portion of the captured image 1ITc is determined to be an appropriate light reception level.
  • the charge accumulation amount of the pixel is determined to be saturated in the portion of the captured image IK'a, and the charge accumulation amount of the pixel is insufficient in the portion of the captured image IK'b. It is judged that That is, in the determination of the light reception level (step S4), it is determined that the captured image includes pixels outside the predetermined light reception level (No in step S4).
  • step S5 Whether or not there is a pixel in a position corresponding to the captured image IK'a or the captured image IK'b in the captured image captured before the captured image 1K 'and within the predetermined light reception level Is determined.
  • the captured image 1K ′ is the first captured image, it is determined that there is no such pixel (No in step S5), and as illustrated in (1) of FIG.
  • the monitor image 1K "based on the image data of the image 1K 'is displayed on the monitor 150 (step S6).
  • the monitor image 1K" is the overexposed image 1K ⁇ a for the portion of the captured image IK'a. Is displayed. Therefore, the high brightness portion lKa of the subject 1 K cannot be seen depending on the monitor image 1K ".
  • the captured image IK 'b is displayed as a blacked-out image IK "b. Therefore, the low-luminance part 1Kb of the subject 1K can be seen depending on the monitor image 1K". I can't.
  • the captured image IK'c is displayed as an appropriate video 1K ⁇ c because it is captured at a frame rate suitable for the brightness of the indoor part lKc.
  • This appropriate video 1K "With c, the interior lKc can be seen on the monitor 150.
  • the image data based on the monitor image 1K” is converted into the image data lMk as shown in (1) of Fig. 6 (D). Is stored in the memory 144 (step S7).
  • the monitor picture 1K is captured image 1K those based on the image data of ', ie captured image IK' a, lK r b and IK 'c.
  • the force S connexion, the contents of the image data lMk Are IK'am which is the image data of the captured image IK'a, IK'bm which is the image data of the captured image IK'b, and IK'cm which is the image data of the captured image IK'c.
  • the process proceeds to the second frame shooting for shooting the subject 2K shown in (2) of Fig. 6A.
  • the frame rate is first set to 40 frames / second (step 1). This frame rate is set based on the measurement result (Step S3) of the received light level of the captured image 1K 'captured in the previous (first frame).
  • the captured image IK' a Set the exposure time short so that the high-intensity part 2Ka captured as is not overexposed.
  • a captured image 2IT shown in (2) of FIG. 6B is formed on the imaging surface of the imaging element 130.
  • the frame rate of this shooting (second frame) is set so that the captured image of the high-brightness part lKa is captured with an appropriate exposure. Therefore, the captured image 2Ka ′ of the captured image 2K ′ has a force S that strikes the portion corresponding to the captured image IK ′ a of the captured image 1K ′.
  • the charge accumulation amount of the image sensor 130 is An appropriate captured image is obtained. In other words, the captured image 1K′a captured in the previous (first frame) image is overexposed, and the captured image 1K′a is captured as an appropriate captured image 2K′a.
  • the captured image 2K'b of the captured image 2K ' is the force that hits the portion corresponding to the captured image IK'b of the captured image 1K'. Is insufficient, and the captured image is captured as a blackened image.
  • the captured image 2K′b is further underexposed, resulting in a blackened captured image with insufficient charge accumulation.
  • the portion of the captured image 2 K rc is underexposed, and the blackout is in a state where the charge accumulation amount is insufficient. This is a captured image.
  • the light reception level is measured (step S3), and it is determined whether each pixel of the captured image 2K ′ is within a predetermined light reception level (step S4).
  • the captured image 2K r as described above, part of the captured image b and the image pickup image 2K 'c is a captured image of black solid. Therefore, in the determination of the light reception level (step S4), the pixels of the captured image b and the captured image 2K′c are determined as pixels outside the predetermined light reception level (No in step S4).
  • the pixel at the position corresponding to the pixel of the captured image 2K'b or the captured image 2K'c, and the pixel within the predetermined light reception level is Whether or not the image is present is determined with reference to the image data stored in the memory 144 (step S5).
  • the image data IK'cm of the captured image IK'c of the captured image 1K ' is determined as data meeting the conditions (Yes in step S5).
  • the image replacement unit 143e replaces the image data corresponding to the captured image 2K'c among the image data of the captured image 2K 'with the image data IK'cm (step S8).
  • the monitor image 2K "based on the image data of the captured image 2IT in which the image data of the captured image 2IT c is replaced with the image data 1 K 'cm is displayed.
  • the image is displayed on the monitor 150 (step S6), that is, the appropriate image IK "c based on the image data IK'cm is displayed for the portion corresponding to the captured image 2K'c of the monitor image 2K".
  • the appropriate video 2K ⁇ a that is a video based on the image data of the captured image 2K'a is displayed.
  • the blacked-out blacked-out image 2K ⁇ b which is an image based on the image data of the captured image b, is displayed.
  • the image of the high-intensity part lKa becomes an overexposed image IK" a, and the state of the subject in this part is displayed on the monitor 150.
  • the proper video 2K” c is not a real-time video by this shooting However, it is the very last video just one frame before. Therefore, there is no significant difference between the actual shooting content and the display content of the monitor video 2K.
  • the contents of the image data 2Mk are the image data am of the captured image 2K'a, the image data bm of the captured image 2 ⁇ 'b, and the image data of the captured image IK'c.
  • the data is IK 'cm.
  • the captured image IK'b in which the low-intensity part 1Kb was captured in the first frame was captured at a smaller frame rate than the captured image b in which the low-intensity part 2Kb was captured in the second frame.
  • the captured image ll ⁇ b may be less crushed than the captured image 2K'b. Therefore, instead of the monitor image 2Kb of the monitor image 2K ", an image based on the image data IK'bm of the image data lMk may be displayed.
  • step S5 even if it is determined that the pixel of the captured image lK ⁇ b is not a pixel within the predetermined light receiving level, it is within the predetermined level compared to the captured image 2K'b.
  • the image data of the captured image b may be replaced with IK ′ bm that is the image data of the captured image IK ′ b.
  • the procedure shifts to the third frame shooting for shooting the subject 3K shown in (3) of Fig. 6 (A).
  • the frame rate is first set to 10 frames / second (step 1).
  • This frame rate is set according to the measurement result of the received light level of the captured image 2K 'or captured image 1K' taken last time (2nd frame) or 2 times before (1st frame) (step S3).
  • the low-brightness portion 3Kb captured as blacked image 2K'b or captured image IK'b at the previous or previous shooting is set so as not to be blackened.
  • a captured image 3K ′ shown in (2) of FIG. 6B is formed on the imaging surface of the image sensor 130.
  • the frame rate of this shooting (third frame) is set so that a captured image of the low-luminance portion 3Kb is captured with an appropriate exposure. Therefore, the captured image 3Kb 'of the captured image 3K' is the force applied to the part corresponding to the captured image 2 'of the captured image 2' and the captured image 2K'b of the captured image 2 '.
  • the charge accumulation amount of the image sensor 130 is an appropriate captured image. In other words, the captured images IK ′ b and 2K ′ b that have been crushed black in the captured images 1K ′ and 2K captured in the first frame and the second frame are captured as appropriate captured images 3 ⁇ ′ b.
  • the captured image 3K'a of the captured image 3K ' is the force hitting the portion corresponding to the captured image 2K'a of the captured image 2K'. Becomes saturated, and is captured as an overexposed image. That is, since the frame rate is 10 frames / second, the portion of the captured image 3K′a is overexposed, the charge accumulation amount is saturated, and the captured image is overexposed.
  • the captured image 3K'c of the captured image 3K ' is the force applied to the portion corresponding to the captured image 2K'c of the captured image 2K'.
  • the charge accumulation amount of the image sensor 130 Becomes saturated, and is captured as an overexposed image. That is, since the frame rate is 10 frames / second, the portion of the captured image 3K′c is overexposed, the charge accumulation amount is saturated, and the captured image is overexposed.
  • step S3 The brightness level of the captured image 3K 'is measured (step S3), and it is determined whether each pixel of the captured image 3K' is within a predetermined light reception level (step S4).
  • the captured image 3K ′ is a captured image in which the captured image a and the captured image 3K ′ c are overexposed. Therefore, in the determination of the luminance level (step S4), the pixels of the captured image a and the captured image 3K′c are determined as pixels outside the predetermined light reception level (No in step S4).
  • the pixel at the position corresponding to the pixel of the captured image 3K'a or the captured image 3K'c, and the pixel within the predetermined light reception level is Determining whether or not it exists by referring to the image data stored in memory 144 (Step S5).
  • the image data 1K ′ cm of the captured image IK ′ c of the captured image IK ′ and the captured image 2K ′ a of the captured image 2K ′ 2 are image data 2K ′ am satisfying the conditions (in step S5) Leave it yes).
  • the image data corresponding to the captured image 3K′a is replaced with the image data 2K′am among the image data of the captured image 3K ′, and the image data corresponding to the captured image 3K′c is replaced with the image data.
  • Replace with data IK 'cm step S8.
  • the appropriate image 3K ⁇ b which is an image based on the image data of the captured image 3K'b, is displayed.
  • the captured image a of the high-luminance part 3Ka and the captured image 3K'c of the indoor part 3Kc are overexposed images.
  • “a and proper image IK” c is displayed. That is, the monitor video 3K ′′ is displayed on the monitor 150 as a proper video.
  • the proper video 2K "a of the monitor video 3K” is not the real-time video taken by this time (third frame), but is the very previous video just one frame before.
  • the proper video IK “c of the monitor video 3K” is not the real-time video by this shooting, but it is the video just before the last two frames. Therefore, there is no significant difference between the actual shooting content and the display content of the monitor video 3K.
  • the image data of the captured image a, the captured image 3IT b, and the captured image IK'c that are the basis of the monitor image 3 ⁇ are stored as the image data 3Mk in the memory 144 (step S7). .
  • the contents of this image data 3Mk are the image data am that is the image of the captured image 2K'a, the image data bm that is the image data of the captured image 3 ⁇ 'b, and the captured image c.
  • the image data is IK 'cm.
  • the above-described first frame force is also performed at the third frame. A video that has been subjected to the same image replacement processing as the above is displayed. Therefore, it is possible to view the subject image on the monitor 150 without overexposure or underexposure.
  • the imaging area of the image sensor 130 is determined, for example, for each area divided in a matrix, to determine whether the received light level is within a predetermined level. You can make a replacement. For example, it is determined whether or not the average received light level of the pixels in the area is within a predetermined light reception level. If not within the predetermined light reception level, it is within the predetermined light reception level at the corresponding area position of another captured image. Replace with the image data.
  • the area is as small as possible so that the difference in the light reception level between the pixels in the area becomes small. That is, for example, if there are high-luminance subjects in half of the area and low-luminance subjects in the other half, the received light levels of the captured images of both subjects even if the frame rate is changed At the same time, it may not be possible to achieve the specified light reception level. Therefore, the size of the area, that is, the number of pixels in the area, the shape of the area, and the like are determined according to the content of the subject to be photographed.
  • each of the subjects forms an image on the imaging surface within a narrow imaging range.
  • the brightness tends to vary greatly from subject to subject. In such cases, it is preferable to reduce the size of the area.
  • a subject image is displayed in real time via the monitor 150.
  • the power shown as an example of time taken Captured images shot at different frame rates are stored in the memory 144, and the image data to be replaced was taken after the shooting time of the captured image having the image data to be replaced.
  • a captured image may be used.
  • the frame rate is changed every frame, and the exposure time is changed every frame.
  • the frame rate is changed every several frames or the like. You may make it change at an appropriate timing according to the change of a brightness
  • the frame rate should be set to a large frame rate that matches the bright area of the subject, You can also use a small frame rate that matches the part. That is, the received light level determination of the captured image (step S4 described above) is not performed for each frame, but only for the first two times, and after that, this frame rate may be used. Alternatively, the light reception level determination (step S4 described above) may be performed intermittently, such as once every several times or once every several seconds.
  • the exposure time of the imaging element 130 is changed by changing the frame rate, but the exposure time is changed by electronically changing the accumulation time of the imaging element 130. May be changed. That is, the image sensor 130 may be operated as a so-called electronic shutter. As described above, when the image sensor 130 is operated as an electronic shirter, the shutter speed of the image sensor 130 in each frame is changed instead of changing the frame rate described above.
  • the frame rate setting unit 143a in FIG. 2 is configured as a shotta speed setting unit, and the frame rate setting (step S1) in FIG. 3 performs processing for setting the shotta speed. .
  • step S1 the shot rate is set to 1/60 seconds as the standard shot rate. Then, take the first frame at this shatter speed.
  • the received light level is measured on the captured image taken at this standard shot speed (step S3), and it is determined whether each pixel of the captured image is within the predetermined received light level ( Ste S4).
  • the shotta speed is adjusted so that the overexposed and blackened pixels are exposed with appropriate exposure in the first frame. Is set.
  • the shot speed is set to, for example, 1/90 sec to shorten the exposure time.
  • the shutter speed is set to, for example, 1Z30 seconds to increase the exposure time.
  • the camera speed is the same as that of the camera apparatus 100 described with reference to FIGS. 3 to 6 except that the shutter speed is set instead of setting the frame rate. Is performed.
  • a so-called mechanical shotter may be disposed in front of the image sensor 130 (on the subject side), and the exposure time may be controlled by this mechanical shotter.
  • the exposure time of the imaging element 130 is changed by changing the frame rate.
  • the optical system 120 includes An exposure amount per unit time may be changed at a predetermined timing by providing a variable iris and controlling the opening amount of the variable iris.
  • changing the exposure time of the image sensor 130 can change the exposure time more easily and at an earlier timing.
  • step S1 when setting the frame rate (step S1), measure the brightness levels of the bright and dark areas of the subject before the start of shooting, and select 2 or 3 to match the brightness levels.
  • the above frame rates may be set in advance. Then, shooting may be performed using these frame rates in an appropriate order. By increasing the number of frame rates to be set, increasing the number of captured images with different frame rates, and selecting and combining appropriate exposure parts, it is possible to improve the quality of the monitor video .
  • the force described as an example where the overexposure or underexposure occurs is an example. Even when such overexposure or underexposure does not occur, the captured image and frame with a large frame rate A captured image with a low rate may be obtained and these captured images may be combined. When compositing captured images, capture images with a large frame rate. The bright part in the inside and the dark part in the captured image with a small frame rate are synthesized.
  • the two captured images are synthesized without performing the determination of the light reception level in step S5 described above, and the monitor is performed. 150 may be displayed.
  • the camera apparatus 100 may be configured not to include the monitor 150 in the force camera apparatus 100 shown as an example including the monitor 150.
  • the video can be displayed on a monitor such as a personal computer connected via the network.
  • the image processing from step S4 to step S8 may be performed on a personal computer or the like, and the camera device 100 may include a personal computer or the like via a network.

Abstract

 被写体の部分により明るさに大きな差があっても、被写体の全体の内容を確認できる撮像画像を得ることができるカメラ装置を提供すること。  1つの被写体を異なる露光時間または異なる絞りで撮像した複数の撮像画像を得る。そして、ある撮像画像に、所定の受光レベル外となる部分を所定の受光レベル内の部分として撮影されている他の撮像画像の部分と置換をし、この置換によって合成され撮像画像をモニタ映像として表示する。

Description

明 細 書
カメラ装置および画像処理方法
技術分野
[0001] 本発明は、カメラ装置に関するものである。
背景技術
[0002] CCDあるいは CMOS等の撮像素子を用いるカメラ装置として、例えば、特開 2004 — 271902号が開示されている。このようなカメラ装置は、被写体の輝度に応じて絞り 径を変化させたり、あるいは、フレームレートを変化させることにより、撮像画像による 電荷蓄積量が、撮像素子のダイナミックレンジ内に納まるように制御される。
[0003] 例えば、室内を撮影する場合には、一般に被写体の輝度が低いことから、絞り径を 大きくして撮像画像の輝度を高くしたり、あるいはフレームレートを小さくして撮像素 子の電荷蓄積時間を長くすることにより、撮像素子の電荷蓄積量が充分多くなるよう にする。
[0004] 逆に、晴れた日中の屋外を撮影する場合には、被写体の輝度は充分に高いため、 撮像素子の電荷蓄積量が飽和しないように、絞り径を小さくして撮像画像の輝度を低 くしたり、あるいはフレームレートを大きくして撮像素子の電荷蓄積時間を短くする。
[0005] 特許文献 1 :特開 2003— 247902号公報(要約書の記載等を参照)
発明の開示
発明が解決しょうとする課題
[0006] し力 ながら、このような従来のカメラ装置においては、例えば、薄暗い室内と、その 中にある明るい電灯を一緒に撮影する場合に、室内の全体の明るさに合わせて絞り 径ゃフレームレートを設定すると、電灯とその周辺部分の被写体の撮像画像は露出 オーバーとなる。すなわち、電灯とその周辺部分の撮像画像の結像位置にある撮像 素子は、電荷の蓄積量が飽和状態となる。そして、この部分の撮像画像は、白っぽく なってしまったり、あるいは白くつぶれてしまういわゆる白とびの状態となる。
[0007] 逆に、電灯の明るさに合わせて絞り径ゃフレームレートを設定すると、電灯とその周 辺以外の部分の被写体の撮像画像は露出アンダーとなる。すなわち、この部分の撮 像画像の結像位置にある撮像素子は、電荷の蓄積量が不足する。そして、この部分 の撮像画像は、黒っぽくなつてしまったり、あるいは黒くつぶれてしまういわゆる黒つ ぶれの状態となる。
[0008] 晴れた日中の屋外を撮影する場合も同様の問題があり、明るい屋外の明るさに合 わせて絞り径ゃフレームレートを設定すると、 日陰の部分の撮像画像は露出がアンダ 一となり、黒つぶれの撮像画像になってしまう。逆に、 日陰部分の明るさに合わせて 絞り径ゃフレームレートを設定すると、 日陰部分を除いた部分の撮像画像は露出ォ 一バーとなり、白とびが生じることになる。
[0009] このように、被写体の各部分によって明るさに大きな差がある場合には、撮像画像 の中に、露出オーバーの部分あるいは露出アンダーの部分ができる。そのため、この 露出オーバーの部分では白とびが生じ、また、露出アンダーの部分では、黒つぶれ が生じ、白とびや黒つぶれの部分では、撮像画像の内容が見え難いものとなってし まう問題がある。
[0010] 力かる問題は、撮影レンズの画角が広くなると特に顕在化する傾向にある。すなわ ち、撮影レンズにレ、わゆる広角レンズを用いて広レ、範囲の被写体を撮像する場合に は、色々な輝度の被写体が撮像される可能性が高くなる。そのため、被写体の明るさ に大きな差が生じて、一部の被写体の明るさを基準にして絞り径ゃ露光時間を設定 すると、他の部分の撮像画像が露出オーバーや露出アンダーとなり、この他の部分 に白とびや黒つぶれが生じ撮像画像の内容が見え難いものとなってしまうという問題 が起こり易い。
[0011] そこで、本発明は、被写体の部分により明るさに大きな差があっても、被写体の全 体の内容を確認できる撮像画像を得ることができるカメラ装置を提供することを課題と する。
課題を解決するための手段
[0012] 上述の課題を解決するため、本発明のカメラ装置は、撮影レンズと、撮影レンズを 透過した被写体光が結像する撮像手段と、撮像手段に結像した撮像画像の画像デ ータの画像処理を行う画像処理制御手段とを備え、被写体を連続して撮影するカメ ラ装置であって、撮像手段の露光時間を少なくとも 2段階に所定のタイミングで変化さ せる露光時間変化手段と、撮像手段の受光レベルを撮像画像の部分単位で測定す る受光レベル測定手段と、撮像手段の部分単位の受光レベルが所定の受光レベル 内か否かを判断する受光レベル判定手段と、受光レベル判定手段により受光レベル を判定された部分が、所定の受光レベル内にないと判断された受光レベル不適正部 分であるときは、この受光レベル不適正部分の画像データを、他の撮像画像の受光 レベル不適正部分と対応する画像位置の部分であって所定の受光レベル内の受光 レベル適正部分の画像データに置換する画像置換手段とを備えることとする。
[0013] カメラ装置をこのような構成とすることにより、 1つの被写体を異なる露光時間で撮像 した複数の撮像画像を得ることができる。したがって、 1つの撮像画像には、所定の 受光レベル外となる部分があっても、他の撮像画像には、この部分が所定の受光レ ベル内の部分として撮影されている場合がある。そして、所定の受光レベル外となつ ている部分を、他の撮像画像のこの部分に対応する部分であって所定の受光レベル 内となっている部分の撮像画像に置換することにより、所定の受光レベル外となって レ、る部分を所定の輝度レベル内とした撮像画像を得ることができる。
[0014] また、他の発明は、上述の発明に加え、受光レベル不適正部分と置換される受光 レベル適正部分を有する撮像画像が複数あるときは、受光レベル不適正部分を有す る撮像画像を撮像した時期に一番近い撮像画像の受光レベル適正部分と置換する こととする。
[0015] カメラ装置をこのような構成とすることにより、置換される部分の撮像画像と置換する 部分の撮像画像の変化を少なレ、ものとすることができ、撮像画像の置換部分と置換 されていない部分とのつながりの違和感を少なくすることができる。
[0016] また、他の発明は、上述の発明にカ卩え、露光時間変化手段は、撮像手段の撮像フ レーム毎に露光時間を変化させることとする。
[0017] カメラ装置をこのような構成とすることにより、置換される部分の撮像画像と置換する 部分の撮像画像に変化が少なレ、ため、撮像画像の置換部分と置換されてレ、なレ、部 分とのつながりの違和感を少なくすることができる。
[0018] また、他の発明は、上述の発明にカ卩え、露光時間変化手段は、フレームレート変更 手段であることとする。 [0019] カメラ装置をこのような構成とすることにより、露光時間の変更を容易に、かつ、早い タイミングで変えることができる。
[0020] また、他の発明は、上述の発明に加え、露光時間変化手段は、シャツタ速度変更手 段であることとする。
[0021] カメラ装置をこのような構成とすることにより、露光時間の変更を容易に、かつ、早い タイミングで変えることができる。
[0022] また、他の発明は、上述の発明に加え、少なくとも 2段階の露光時間の 1の露光時 間は、受光レベル不適正部分の受光レベルを所定の受光レベル内にする露光時間 であることとする。
[0023] カメラ装置をこのような構成とすることにより、受光レベル不適正部分の受光レベル を効果的に所定の受光レベル内で撮像することができる。すなわち、受光レベル不 適正部分に置換するための受光レベル適正部分を確実に得ることができる。
[0024] また、他の発明は、上述の発明にカ卩え、撮像レンズは、広角レンズであることとする
[0025] カメラ装置をこのような構成とすることにより、上述の発明の効果に加え、広い範囲 の被写体を撮影することができる。
[0026] 上述の課題を解決するため、本発明の画像処理方法は、撮影レンズにより撮像手 段に結像した被写体の撮像画像について画像処理を行う画像処理方法において、 撮像手段の露光時間を少なくとも 2段階に所定のタイミングで変化させる露光時間変 化ステップと、撮像手段の受光レベルを撮像画像の部分単位で測定する受光レベル 測定ステップと、撮像手段の部分単位の受光レベルが所定の受光レベル内か否かを 判断する受光レベル判定ステップと、受光レベル判定ステップにより受光レベルを判 定された部分が、所定の受光レベル内にないと判断された受光レベル不適正部分で あるときは、この受光レベル不適正部分の画像データを、他の撮像画像の受光レベ ル不適正部分と対応する画像位置の部分であって所定の受光レベル内の受光レベ ル適正部分の画像データに置換する画像置換ステップとを備えることとした。
[0027] 画像処理方法をこのような方法とすることにより、 1つの被写体を異なる露光時間で 撮像した複数の撮像画像を得ることができる。したがって、 1つの撮像画像には、所 定の受光レベル外となる部分があっても、他の撮像画像には、この部分が所定の受 光レベル内の部分として撮影されている場合がある。そして、所定の受光レベル外と なっている部分を、他の撮像画像のこの部分に対応する部分であって所定の受光レ ベル内となっている部分の撮像画像に置換することにより、所定の受光レベル外とな つている部分を所定の輝度レベル内とした撮像画像を得ることができる。
[0028] 上述の課題を解決するため、本発明のカメラ装置は、撮影レンズと、撮影レンズを 透過した被写体光が結像する撮像手段と、撮像手段に結像した撮像画像の画像デ ータの画像処理を行う画像処理制御手段とを備え、被写体を連続して撮影するカメ ラ装置であって、撮像手段の露光時間を少なくとも 2段階に変化させて撮影した露光 時間が異なる複数の撮像画像の明瞭な部分同士を合成して全体が明瞭となる撮像 画像を記録または表示することとした。
[0029] カメラ装置をこのような構成とすることにより、 1つの被写体を異なる露光時間で撮像 した複数の撮像画像を得ることができる。したがって、複数の撮像画像にはそれぞれ 、明瞭な撮像画像の部分ができる。この明瞭な部分同士を合成することにより、全体 が明瞭ななる撮像画像を記録または表示することができる。
[0030] 上述の課題を解決するため、本発明の画像処理方法は、撮影レンズにより撮像手 段に結像した被写体の撮像画像について画像処理を行う画像処理方法において、 撮像手段の露光時間を少なくとも 2段階に変化させて露光時間が異なる複数の撮像 画像を撮影し、これらの露光時間が異なる複数の撮像画像の明瞭な部分同士を合 成して全体が明瞭となる撮像画像を記録または表示することとした。
[0031] 画像処理方法をこのような方法とすることにより、 1つの被写体を異なる露光時間で 撮像した複数の撮像画像を得ることができる。したがって、複数の撮像画像にはそれ ぞれ、明瞭な撮像画像の部分ができる。この明瞭な部分同士を合成することにより、 全体が明瞭ななる撮像画像を記録または表示することができる。
発明の効果
[0032] 本発明のカメラ装置および画像処理方法によれば、被写体の部分により明るさに大 きな差があっても、被写体の全体の内容を確認できる撮像画像を得ることができる。 図面の簡単な説明 [0033] [図 1]本発明の実施の形態に係るカメラ装置の構成を示す斜視図である。
[図 2]図 1のカメラ装置の構成を示すブロック図である。
[図 3]図 1のカメラ装置の動作を示すフローチャートである。
[図 4]図 1のカメラ装置で、高輝度部分を有する被写体を撮影する場合の図で、 (A) は、高輝度部分を有する被写体を示す図で、(B)は、(A)に示す被写体を撮影した 撮像画像を示す図で、(C)は、(B)に示す撮像画像の画像データに対して置換処理 を行った画像データに基づくモニタ映像を示す図で、(D)は、メモリに記憶された画 像データの置換処理用の画像データの内容を示す図である。
[図 5]図 1のカメラ装置で、低輝度部分を有する被写体を撮影する場合の図で、 (A) は、低輝度部分を有する被写体を示す図で、(B)は、(A)に示す被写体を撮影した 撮像画像を示す図で、(C)は、(B)に示す撮像画像の画像データに対して置換処理 を行った画像データに基づくモニタ映像を示す図で、(D)は、メモリに記憶された画 像データの置換処理用の画像データの内容を示す図である。
[図 6]図 1のカメラ装置で、高輝度部分と低輝度部分を有する被写体を撮影する場合 の図で、(A)は、高輝度部分と低輝度部分を有する被写体を示す図で、(B)は、(A) に示す被写体を撮影した撮像画像を示す図で、 (C)は、(B)に示す撮像画像の画像 データに対して置換処理を行った画像データに基づくモニタ映像を示す図で、(D) は、メモリに記憶された画像データの置換処理用の画像データの内容を示す図であ る。
符号の説明
[0034] 100 ·■· カメラ装置
121 ·■· 撮影レンズ
130 … 撮像素子 (撮像手段)
140 … 回路装置 (画像処理制御手段)
143a · · · フレームレート設定部(露光時間変化手段)
143b … 受光レベル測定部(受光レベル測定手段)
143c … 受光レベル判定部(受光レベル判定手段)
143e … 画像置換部(画像置換手段) 発明を実施するための最良の形態
[0035] 本発明の実施の形態に係るカメラ装置 100について、図 1から図 6を参照しながら 説明する。なお、このカメラ装置 100は、家庭用や事務所用の監視カメラとして使用 できる他、会議の風景の撮影、製品検査のための撮影を行うカメラ装置として使用す ること力 Sできる。なお、画像処理方法については、カメラ装置 100の動作に併せて説 明する。
[0036] 図 1に、本発明の実施の形態に係るカメラ装置 100の外観の構成を示す。カメラ部
100は、図面中点線にて図示をする外装筐体 110、光学系 120、撮像手段としての 撮像素子 130および回路装置 140を備えている。外装筐体 110は、例えば、 3cm四 方の略直方体を呈する小型の形態となっている。光学系 120は、撮影レンズ 121お よびレンズ鏡筒 122を有してレ、る。
[0037] 光学系 120は、そのレンズ鏡筒 122が外装筐体 110内に収容され、撮影レンズ 12 1を外装筐体 110の外部に露出させている。撮影レンズ 121は、 180度の広い画角 の光学特性を有するいわゆる広角レンズである。この撮影レンズ 121は、被写体光の 入射側となる前面が通常の凸レンズ程度の膨らみとなっており、平面に近いものとな つている。し力、し、レンズ内部のガラスの処理に工夫を施し、 180度の画角を有し、か つ光軸周りの全周囲、すなわち 360度の全周囲に亘つて撮影可能となっている。
[0038] 撮影レンズ 121の結像位置には、撮像手段としての撮像素子 130が配設されてい る。撮像素子 130としては、例えば、 CMOS (Complementary Metal OxideSe miconductor)を使用する。 CMOSの代ゎりにCCD (Charge Coupled Device) やその他の光電変換素子を使用してもよい。
[0039] レンズ鏡筒 122には、ピント調整ノブ 123が設けられている。レンズ鏡筒 122は、ピ ント調整ノブ 123を手指で摘んで光軸の周りに回転させると、撮像素子 130に対して 、光軸方向に沿って進退するように構成されている。したがって、ピント調整ノブ 123 により、撮影レンズ 121の結像位置が撮像素子 130の撮像面になるように、撮影レン ズ 121の光軸方向の位置を調整することができる。
[0040] この実施の形態においては、撮影レンズ 121による結像画像は、撮像素子 130の 撮像面内に全て収まるように撮像素子 130の撮像面の大きさ、および撮影レンズ 12 1と撮像素子 130との配置が構成されている。したがって、撮像素子 130の撮像面に は、撮影レンズ 121の形状に対応して円形の画像が結像することになる。
[0041] また、カメラ装置 100は、マイク 101、通信手段としての USB (Univereal Serial
Bus)ケーブルが接続する USB接続部 102、およびオーディオやビデオの信号を出 力する AV信号出力部 103とを有している。マイク 101は、撮影を行う範囲の場所の 音を取り込むものである。
[0042] 図 2に、本発明の実施の形態に係るカメラ装置 100の構成を示すブロック図を示す
。撮影レンズ 121で撮影し回路装置 140において画像処理された撮像画像は、液晶 テレビ等から構成されるモニタ 150に表示される。
[0043] モニタ 150は、カメラ装置 100の USB接続部 102に接続される USBケーブル(図 示省略)を介してネットワークを通じて、あるいは直接的にカメラ装置 100に接続され ている。
[0044] 撮影レンズ 121を透過した被写体光は、撮像素子 130の撮像面に結像し、この結 像画像に基づく画像信号が撮像素子 130から出力される。撮像素子 130から出力さ れた画像信号は、回路装置 140に入力する。この回路装置 140は、画像処理制御 手段として構成される、画像信号処理部 141、画像圧縮処理部 142、制御部 143、こ の制御部 143について備えられるメモリ 144、座標変換部 145、およびこの座標変換 部 145について備えられるメモリ 146を備えている。
[0045] 撮像素子 130から出力された画像信号は、画像信号処理部 141に入力する。この 画像信号処理部 141において、撮像素子 130からの画像信号に対して、カラー処理 等の所定の画像処理を施す。
[0046] 画像圧縮処理手段 142においては、画像信号処理部 141で画像処理を施された 画像信号の画像データを圧縮処理し、画像データのデータ量が減らされた圧縮画像 データを生成する。画像データの圧縮処理は、例えば、 JPEG ioint Photograph! c Experts Group)を用レヽて打つ。
[0047] 制御部 143は、例えば CPU (Central Processing Unit)により構成され、モニ タ 150に表示される撮影レンズ 121の映像の生成処理を含めてカメラ装置 100の動 作の制御を司る。制御部 143は、フレームレート設定部 143a、受光レベル測定部 14 3b、受光レベル判定部 143c、置換可能判定部 143dおよび画像置換部 143e等を 有している。
[0048] メモリ 144は、モニタ 150に表示される撮影レンズ 121による撮像画像の生成処理 のためのプログラムやカメラ装置 100の各部を動作させるためのプログラムの他、この プログラムを実行するためのワークメモリを備えている。画像信号処理部 141や画像 圧縮処理部 142における処理においてもこのメモリ 144が活用される。
[0049] 座標変換部 145は、制御部 143とともに、画像圧縮処理部 142からの画像データ に基づいて、各表示態様に応じた映像を生成する画像処理を行う。この座標変換部 145は、撮像素子 130の撮像面上の撮像画像を、各表示態様において表示される 映像になるように画像処理してモニタ 150表示する際に、撮像面における撮像画像 の座標位置をモニタ 150における映像の座標位置に変換する機能を有する。メモリ 1 46は、座標変換部 145を用いて画像処理を行う際のワークメモリとなっている。
[0050] 本実施の形態に示すカメラ装置 100は、被写体を連続して撮影し、撮影した撮像 画像をモニタ 150に出力する。したがって、モニタ 150の映像により被写体の様子を 観察すること力できる。なお、連続の撮影は、ここでは、いわゆるビデオ撮影のように 、 1秒間に数フレームから数十フレームの撮影を行うものの他、数秒に 1フレームある いは十数秒に 1フレームの撮影を行うものまでを含む。すなわち、数フレームだけの 撮影をして、その後は撮影をしなレ、撮影状態を含まなレ、撮影をレ、う。
[0051] そして、このカメラ装置 100は、以下に説明するように、連続して撮影する際のフレ ームレートを所定のタイミングで変化させるように構成している。これらの連続して撮 影した複数の撮像画像の中に、白とびや黒つぶれの部分がある撮像画像がある場 合には、この撮像画像の白とびや黒つぶれの部分を、他の撮像画像の白とびや黒 つぶれの部分と対応する部分であって白とびや黒つぶれの生じてレ、なレ、部分の画 像と置き換える。これにより、撮像画像に白とびや黒つぶれの部分が生じても、この部 分(白とび部分や黒つぶれ部分)の内容を確認することができる。
[0052] 図 2のブロック図、図 3のフローチャート、および図 4を参照しながら、カメラ装置 100 の動作を説明する。図 4 (A)は、カメラ装置 100の撮影対象となる被写体を示す図で ある。 (1)から(6)の順で左力、ら右に向かって時間が経過し、各時刻の被写体をそれ ぞれ 1H, 2H, 3H, 4H, 5H, 6Hとする。ここでは、カメラ装置 100は、室内を撮影 するものとし、各被写体 1H, 2H,…には、室内にある電灯等による輝度の高い高輝 度部分 IHa, 2Ha, 3Ha, 4Ha, 5Ha, 6Haとこの部分以外の室内部分 lHb, 2Hb , 3Hb, 4Hb, 5Hb, 6iib力 S含まれてレヽる。
[0053] 図 4 (B)は、(A)に示す被写体 1H, 2H,…を連続して撮影した各撮像画像を、時 系列に左から右に並べて示している。被写体 1H 2H, 3H, 4H 5H, 6Hは、それ ぞれ、撮像画像 1H' 2H 3H; 4Hr , 5Hr , 6Hr として撮像されている。
[0054] 図 4 (C)は、 (B)に示す撮像画像の画像データに対して画像データの置換処理が 行われた画像データに基づいてモニタ 150に表示されたとモニタ映像の表示内容を 示す図である。モニタ 150には、撮像画像 1H' , 2Hr , 3Hr , 4Η;; 6Η ' にそれぞれ対応して、モニタ映像 1H" 2H/r , 3H/r , 4Η" 5Η" 6Η" が表 示される。
[0055] 図 4 (D)は、上述の画像データの置換処理のためにメモリ 144に記録された撮像画 像の画像データの内容を示す図である。モニタ 150に表示されたモニタ映像の基に なっている画像データ力 画像データの置換処理のための画像データとしてメモリ 14 4に記録される。
[0056] モニタ映像 1H 2Η 3Η" , 4Η" , 5Η" , 6Η の基になっている画像デー タカ それぞれ、画像データ 1MH, 2ΜΗ, 3ΜΗ, 4ΜΗ, 5ΜΗ, 6ΜΗとしてメモリ 144に記録されている。
[0057] 先ず、撮影の開始に先立ち、露光時間変化手段としてのフレームレート設定部 143 aにより、フレームレートを標準のフレームレートに設定する(ステップ S l)。この標準フ レームレートは、撮影する被写体に応じて、予め決められたフレームレートである。一 般に、被写体の輝度が高い(明るい)と予想される場合には、 1フレームあたりの撮像 素子 130の画素の露光時間が短くなるように、フレームレートを大きく設定し、画素の 電荷蓄積量が飽和してしまわないようにする。逆に、被写体の輝度が低レ、(喑レ、)と 予想される場合には、 1フレームあたりの撮像素子 130の画素の露光時間が長くなる ように、フレームレートを小さく設定し、画素の電荷蓄積量を多くする。このフレームレ ートは、被写体の明るさおよび光学系 120の絞り径に対して相対的に決定される。 [0058] ここでは、被写体 1H〜6Hとなる室内の明るさに時間経過による大きな変化がない ことを前提として、室内部分 lHb〜6Hbの撮像画像が適正な受光量となるように、標 準フレームレートを、例えば、 20フレーム/秒に設定する。なお、適正な受光量とは 、撮像画像が白とびしたり、あるいは黒つぶれしない受光量である。
[0059] 上記の標準フレームレートで、図 4 (A)の(1)に示す被写体 1Hを撮影すると(ステツ プ S2)、撮像素子 130の撮像面には、図 4 (B)の(1)に示す撮像画像 1 が形成さ れる。撮像画像 1H' は、高輝度部分 lHaの撮像画像 aおよび室内部分 lHb の撮像画像 ΙΗ' bを有する。
[0060] 撮像画像 1H' aについては、フレームレートが室内部分 lHbの輝度に合わせて設 定されているため、露出オーバーとなり白とびの状態で撮像されている。すなわち、 撮像素子 130の画素の内、撮像画像 1H' aに対応する部分の画素については、電 荷蓄積量が飽和状態になってしまっている。これに対し、撮像画像 1H' bは、フレー ムレートが室内部分 lHbの輝度に合わせて設定されているため、撮像素子 130の電 荷蓄積量が適正な撮像画像となり、室内部分 lHbの様子が判る状態で撮像される。
[0061] 次いで、この撮像画像 1H' について、受光レベル測定手段としての受光レベル測 定 1143bにより、撮像素子 130の画素単位で、画素の受光レベルを測定する(ステツ プ S3)。そして、受光レベル判定手段としての受光レベル判定部 143cにより撮像画 像 1H' の各画素が所定の受光レベル内であるかどうかを判断する(ステップ S4)。
[0062] 所定の受光レベルの上限は、撮像画像 1H' に白とびが生じる程度に、撮像素子 1 30の画素の電荷蓄積量が飽和しているかどうかを基準に判断をする。下限について は、撮像画像 1H' に黒つぶれが生じる程度に、撮像素子 130の画素の電荷蓄積量 が低レ、かどうかを基準に判断をする。
[0063] 撮像画像 1H' については、撮像画像 1H' bの部分については、適正な受光レベ ルと判断される力 S、撮像画像 1H' aの部分について、画素の電荷蓄積量は飽和状 態となつていると判断される。すなわち、受光レベルの判定 (ステップ S4)において、 撮像画像 1H' aの画素が所定の受光レベル外の画素として判断される(ステップ S4 において No)。
[0064] 受光レベルが所定の受光レベル内にない画素が撮像画像 1H' の中に存在する 場合には、置換可能判定部 143dにより、撮像画像 1H' より前に撮像した撮像画像 の画素における当該受光レベルが所定の受光レベルでない画素と対応する位置の 画素であって所定の受光レベル内の画素があるかどうかを判定する(ステップ S5) すなわち、撮像画像 1H' より前に撮影した撮像画像における撮像画像 1H' aに対 応する位置の画素であって、所定の受光レベル内の画素があるかどうかを判定する( ステップ S 5)。
[0065] ここでは、撮像画像 1H' は最初に撮像された撮像画像であるので、このような画素 はないと判断され (ステップ S5において No)、図 4 (C)の(1)に示すように、撮像画像 lHr の画像データに基づくモニタ映像 1H" をモニタ 150に表示する(ステップ S6) 。 モニタ映像 1H〃 は、撮像画像 1H' aの部分については、白とびした白とび映像 1H7/ aとして表示される。したがって、被写体 1Hの高輝度部分 lHaの様子は、モニ タ映像 1H〃 によっては見ることができない。
[0066] 撮像画像 1H' bの部分については、室内部分 lHbの明るさに適したフレームレー トで撮像が行われているため、適正映像 1H" bとして表示される。したがって、室内 部分 lHbの様子は、適正映像 1H bにより見ること力 Sできる。
[0067] モニタ 150に上記のようにモニタ映像 1H が表示された後、モニタ映像 1H の基 になっている画像データを、図 4 (D)の(1)に示すように画像データ 1MHとしてメモリ 144に記憶する(ステップ S7)。ここでは、モニタ映像 1H" は、撮像画像 1H' 、すな わち撮像画像 1H' a, ΙΗ' bの画像データに基づくものである。したがって、画像デ ータ 1MHの内容は、撮像画像 1H' aの画像データである画像データ 1 amと、 撮像画像 1H' bの画像データである画像データ bmになっている。
[0068] 次いで、図 4 (A)の(2)に示す被写体 2Hを撮影する 2フレーム目の撮影に移行す る。この撮影では、フレームレートを 40フレーム/秒に設定する(ステップ 1)。このフ レームレートの設定は、前回(1フレーム目)撮像された撮像画像 1H' の受光レベル の測定結果 (ステップ S3)に基づいて行い、前回の撮影のときに白とびした撮像画像 lHr aとして撮像された高輝度部分 2Haが白とびしないように、露光時間を短く設定 する。
[0069] 40フレーム/秒のフレームレートで被写体 2Hを撮影すると(ステップ S2)、撮像素 子 130の撮像面には、図 4 (B)の(2)に示す撮像画像 2H' が形成される。この撮影 (2フレーム目 )のフレームレートは、高輝度部分 2Haの撮像画像が適正な露出で撮 像されるように設定されている。そのため、撮像画像 の撮像画像 2Ha' は、撮 像画像 1H' の撮像画像 1H' aに対応する部分に当るが、この 2フレーム目の撮影 においては、撮像素子 130の電荷蓄積量が適正な撮像画像となる。すなわち、前回 (1フレーム目)撮像された撮像画像 1H' におレ、ては白とびしてレ、た撮像画像 1H' aは、適正な撮像画像 2H' aとして撮像される。
[0070] 一方、撮像画像 2H' の撮像画像 2H' bは、撮像画像 1H' の撮像画像 1H' bに 対応する部分にあたる力 この 2フレーム目の撮影においては、撮像素子 130の電 荷蓄積量が不足し、黒つぶれの撮像画像として撮像される。つまり、フレームレートが 40フレーム/秒のため、撮像画像 2H' bの部分は露出アンダーとなり、電荷蓄積量 が少ない黒つぶれの撮像画像となる。この撮像画像 2H' について、受光レベルを 測定し (ステップ S3)、撮像画像 2 の各画素が所定の受光レベル内であるかどう かを判断する(ステップ S4)。
[0071] 撮像画像 2H' については、上述したように、撮像画像 2 bの部分が黒つぶれ の撮像画像となっている。したがって、この受光レベルの判断 (ステップ S4)において 、撮像画像 2H' bの画素が所定の受光レベル外の画素として判断される(ステップ S 4において No)。
[0072] そして、この撮像画像 2H' より前に撮像した撮像画像における撮像画像 2H' に 対応する位置の画素であって、所定の受光レベル内の画素が在るかどうかを、メモリ 144に記憶された画像データを参照しながら判定する(ステップ S5)。
[0073] ここでは、メモリ 144に記憶されている撮像画像 1H' bの画像データ 1H' bmが、 条件に合うデータとして判断される (スッテプ S5におおいて Yes)。この判断に従い、 画像置換手段としての画像置換部 143eにより撮像画像 の画像データのうち、 撮像画像 2H' bに対応する画像データを画像データ 1H' bmに置き換える(ステツ プ S8)。
[0074] そして、図 4 (C)の(2)に示すように、撮像画像 2H' bの画像データが画像データ lHr bmに置き換えられた撮像画像 2Η' の画像データに基づくモニタ映像 2Η" を 、モニタ 150に表示する(ステップ S6)。すなわち、モニタ映像 2H" の撮像画像 2H ' bに対応する部分については、画像データ 1 bmに基づく適正映像 1H〃 bが表 示される。
[0075] モニタ映像 2H〃 の撮像画像 aに対応する部分については、この撮像画像 2 Hr aの画像データに基づく映像である適正映像 2H〃 aが表示される。したがって、 全体として、白とびや黒つぶれのない適正なモニタ映像 2H〃 がモニタ 150に表示さ れる。なお、図 4では、 (1)と(2)の間で人物が動き、人物が異なる位置となっている 、実際は、(1)と(2)との間では、 0. 1秒に満たないような短時間である。したがつ て、人物等の動く物の位置は、 (1)と(2)の間ではほとんど同じである。そのため、メ モリ 144の画像データ bmを利用してもモニタ映像 2H〃 には違和感は発生しな レ、。なお、他のフレーム間や後述する図 5、図 6におけるフレーム間においても、その 時間間隔は、 0. 1秒に満たないような短時間であり、図中に描かれる人物等の動き の位置のずれはごく僅かである。
[0076] 前回(1フレーム目)の撮影におけるモニタ映像 1H" においては、高輝度部分 1H aの映像は白とび映像 1H〃 aとなってしまレ、、高輝度部分 lHaの様子をモニタ 150 上で見ることができなかったのに対し、今回(2フレーム目)の撮影におけるモニタ映 像 2H" においては、適正映像 2H" aとして見ることができる。また、今回(2フレーム 目)の撮影においては、高輝度部分 2Ha以外の室内部分 2Hbの撮像映像 2H' bは 黒つぶれした撮像画像であるが、前回(1フレーム目)の撮影にぉレ、て適正な受光量 で撮像された撮像画像 1H' bの画像データ 1 bmに基づく適正映像 1H〃 bが表 示されるため、モニタ映像 2H〃 は、適正な映像として見ることができる。
[0077] モニタ映像 2H" の適正映像 1H" bについては、今回の撮影によるリアルタイムの 映像ではないが、 1フレーム分だけ前の極めて直前の映像である。したがって、実際 の撮影内容とモニタ映像 2H〃 の表示内容には、大きな差はない。
[0078] そして、メモリ 144に、モニタ映像 2H " の基になっている撮像画像 1 bと撮像画 像 2H' aの画像データが画像データ 2MHとして記憶される(ステップ S7)。この画像 データ 2MHの内容は、撮像画像 1H' bの画像データである画像データ bmと 、撮影画像 2H' aの画像データである画像データ 2 amになっている。 [0079] 続いて、図 4 (A)の(3)に示す被写体 3Hを撮影する 3フレーム目の撮影に移行す る。この撮影では、フレームレートを再び 20フレーム/秒に設定する。このフレームレ ートの設定は、前回(2フレーム目)撮像された撮像画像 2H' の受光レベルの測定 結果 (ステップ S3)に基づいて行い、前回の撮影のときに黒つぶれした撮像画像 2H ' bとして撮像された室内部分 3Hbが黒つぶれしないように設定される。
[0080] 20フレーム/秒のフレームレートで被写体 3Hを撮影を行うと(ステップ S2)、撮像 素子 130の撮像面には、図 4 (B)の(3)に示す撮像画像 3 が形成される。この撮 影(3フレーム目)のフレームレートは、低輝度部分 3Hbの撮像画像が適正な露出で 撮像されるように設定されている。そのため、撮像画像 3 の撮像画像 3HI は、 撮像画像 2H' の撮像画像 2H' bに対応する部分に当るが、この 3フレーム目の撮 影においては、撮像素子 130の電荷蓄積量が適正な撮像画像となる。すなわち、前 回撮像された撮像画像 2H' においては黒つぶれしていた撮像画像 bは、適 正な撮像画像 3H' bとして撮像される。
[0081] 一方、撮像画像 3H' の撮像画像 3H' aは、撮像画像 2H' の撮像画像 2H' aに 対応する部分に当る力 この 3フレーム目の撮影においては、撮像素子 130の電荷 蓄積量が飽和し、白とびした撮像画像として撮像される。つまり、フレームレートが 20 フレーム/秒のため、撮像画像 3H' aの部分は露出オーバーとなり、電荷蓄積量が 飽和し白とびした撮像画像となる。この撮像画像 3H' について、輝度レベルを測定 し (ステップ S3)、撮像画像 3H' の各画素が所定の受光レベル内であるかどうかを 判断する(ステップ S4)。
[0082] 撮像画像 3H' については、上述したように、撮像画像 3 aの部分が白とびした 撮像画像となっている。したがって、この受光レベルの判断 (ステップ S4)において、 撮像画像 3H' aの画素が所定の受光レベル外の画素として判断される(ステップ S4 において No)。
[0083] そして、この撮像画像 3Η' より前に撮像した撮像画像における撮像画像 3H' aに 対応する位置の画素であって、所定の受光レベル内の画素が在るかどうかを、メモリ 144に記憶された画像データを参照しながら判定する(ステップ S5)。
[0084] ここでは、メモリ 144に記憶されている撮像画像 2H' aの画像データ 2H^ amが、 条件に合うデータとして判断される (スッテプ S5におおいて Yes)。この判断に従い、 撮像画像 3H' の画像データのうち、撮像画像 3H' aに対応する画像データを画像 データ 2H' amに置き換える(ステップ S8)。
[0085] そして、図 4 (C)の(3)に示すように、撮像画像 3 aの画像データが画像データ 2 Hr amに置き換えられた撮像画像 3Η' の画像データに基づくモニタ映像 3Η" を、 モニタ 150に表示する (ステップ S6)。すなわち、モニタ映像 3H" の撮像画像 3H' aに対応する部分については、画像データ amに基づく適正映像 2H" aが表示 される。
[0086] モニタ映像 3H〃 の撮像画像 bに対応する部分については、この撮像画像 3 Hr bの画像データに基づく映像である適正映像 3H〃 bが表示される。したがって、 全体として、白とびや黒つぶれのない適正なモニタ映像 3H〃 がモニタ 150に表示さ れる。
[0087] 今回(3フレーム目)の撮影においては、高輝度部分 3Haの撮像映像 3H' aは白と びした撮像画像であるが、前回(2フレーム目)の撮影において適正な受光量で撮像 された撮像画像 2H' aの画像データ amに基づく適正映像 2H〃 aが表示され るため、モニタ映像 3H〃 は、適正は映像として見ることができる。
[0088] モニタ映像 3H" の適正映像 2H" aについては、今回(3フレーム目)の撮影による リアルタイムの映像ではなレ、が、 1フレーム分だけ前の極めて直前の映像である。し たがって、実際の撮影内容とモニタ映像 3H〃 の表示内容には、大きな差はない。
[0089] そして、メモリ 144に、モニタ映像 3H" の基になっている撮像画像 2H' aと撮像画 像 bの画像データが画像データ 3MHとして記憶される(ステップ S7)。この画 像データ 3MHの内容は、撮像画像 2H' aの画像データである画像データ am と、撮影画像 3H' bの画像データである画像データ 3 bmになっている。
[0090] 以降の撮影、すなわち、 4フレーム目、 5フレーム目、 6フレーム目…の撮影を行つ た場合のモニタ 150におけるモニタ映像についても、上述した 1フレーム目力も 3フレ ーム目で行ったのと同様の画像の置換処理が行われた映像が表示される。したがつ て、モニタ 150において、被写体 4H, 5H, 6H, …の撮影映像を白とびや黒つぶれ のなレ、状態で見ることができる。 [0091] 上述したカメラ装置 100の動作の説明は、室内に電灯等による輝度の高い高輝度 部分 lHa, 2Ha,…を有する被写体 1H, 2H,…を撮影するときのものである。これ に対し、図 5 (A)の(1)から(6)に示すように、室内に置かれた家具等の陰になった 影部分等の低輝度部分 lLa, 2La,…を有する被写体 1L, 2L,…を撮影したときの カメラ装置 100の動作を、図 2のブロック図、図 3のフローチャート、および図 5を参照 しながら説明する。
[0092] 図 5 (A)は、カメラ装置 100の撮影対象となる被写体を示す図である。図 4と同様に 、(1)から(6)の順で左から右に向かって時間が経過し、各時刻の被写体をそれぞれ 1L, 2L, 3L, 4L, 5L, 6Lとする。ここでは、カメラ装置 100は、室内を撮影するもの であり、各被写体 1L, 2L,…には、低輝度き分 lLa, 2La, 3La, 4La, 5La, 6Laと この部分以外の室内部分 lLb, 2Lb, 3Lb, 4Lb, 5Lb, 6Lbが含まれている。
[0093] 図 5 (B)は、(A)に示す被写体 1L, 2L,…を連続して撮影した各撮像画像を、時 系列に左力も右に並べて示している。被写体 1L, 2L, 3L, 4L, 5L, 6Lは、それぞ れ、撮像画像 1L' , 21/ , 31/ , 4V , 5V , 6 として撮像されている。
[0094] 図 5 (C)は、 (B)に示す撮像画像の画像データに対して画像データの置換処理が 行われた画像データに基づいてモニタ 150に表示されたモニタ映像の表示内容を 示す図である。モニタ 150に ίま、撮像画像 1L' , 2V , 3L' , 4V , 5L' , 6L' にそれぞれ対応して、モニタ映像 11/ , 21/ , 31/ , 41/ , 51/ , 61/ 力 S表示さ れる。
[0095] 図 5 (D)は、上述の画像データの置換処理のためにメモリ 144に記録された撮像画 像の画像データの内容を示す図である。モニタ 150に表示されたモニタ映像の基に なっている画像データ力 画像データの置換処理のための画像データとしてメモリ 14 4に記録される。
[0096] モニタ映像 11/ , 21/ , 31/ , 4L" , 5L" , 6L" の基になっている画像データ が、それぞれ、画像データ 1ML, 2ML, 3 ML, 4ML, 5ML, 6MLとしてメモリ 144 に記録されている。
[0097] 先ず、撮影の開始に先立ち、フレームレート設定部 143aにより、フレームレートを 標準のフレームレートに設定する(ステップ Sl)。ここでは、被写体 1L〜6Lとなる室 内の明るさに時間経過による大きな変化がないことを前提として、室内部分 lLb〜6 Lbの撮像画像が適正な受光量となるように、標準フレームレートを、例えば、 20フレ ーム/秒に設定する。
[0098] 上記の標準フレームレートで、図 5 (A)の(1)に示す被写体 1Lを撮影すると (ステツ プ S2)、撮像素子 130の撮像面には、図 5 (B)の(1)に示す撮像画像 11/ が形成さ れる。撮像画像 11/ は、低輝度部分 lLaの撮像画像 11/ aおよび室内部分 lLbの 撮像画像 11/ bを有する。
[0099] 撮像画像 11/ aについては、フレームレートが室内部分 lLbの輝度に合わせて設 定されているため、露出アンダーとなり黒つぶれの状態で撮像されている。すなわち 、撮像素子 130の画素の内、撮像画像 11/ aに対応する部分の画素については、 電荷蓄積量が不足した状態になってしまっている。これに対し、撮像画像 11/ bは、 フレームレートが室内部分 lLbの輝度に合わせて設定されているため、撮像素子 13 0の電荷蓄積量が適正な撮像画像となり、室内部分 lLbの様子が判る状態で撮像さ れる。
[0100] 次いで、この撮像画像 11/ について、受光レベル測定部 143bにより受光レベル を測定し (ステップ S3)、受光レベル判定部 143cにより撮像画像 1L' の各画素が所 定の受光レベル内であるかどうかを判断する(ステップ S4)。
[0101] 所定の受光レベルの上限は、撮像画像 11/ に白とびが生じる程度に、撮像素子 1 30の画素の電荷蓄積量が飽和しているかどうかを基準に判断をする。下限について は、撮像画像 11/ に黒つぶれが生じる程度に、撮像素子 130の画素の電荷蓄積量 が低レ、かどうかを基準に判断をする。
[0102] 撮像画像 11/ については、撮像画像 11/ bの部分については、適正な受光レベ ルと判断されるが、撮像画像 11/ aの部分について、画素の電荷蓄積量が不足して レ、ると判断される。すなわち、受光レベルの判定 (ステップ S4)において、撮像画像 1 U aの画素が所定の受光レベル外の画素として判断される(ステップ S4において N o) 0
[0103] そして、撮像画像 11/ より前に撮影した撮像画像における撮像画像 11/ aに対応 する位置の画素であって、所定の受光レベル内の画素があるかどうかを判定する(ス テツプ S5)。ここでは、撮像画像 11/ は最初に撮像された撮像画像であるので、この ような画素はないと判断され (ステップ S5において No)、図 5 (C)の(1)に示すように 、撮像画像 11 の画像データに基づくモニタ映像 1 をモニタ 150に表示する(ス テツプ S6)。モニタ映像 11/ は、撮像画像 11/ aの部分については、黒つぶれした 黒つぶれ映像 1L〃 aとして表示される。したがって、被写体 1Lの低輝度部分 lLaの 様子は、モニタ映像 1L〃 によっては見ることができない。
[0104] 撮像画像 11/ bの部分については、室内部分 lLbの明るさに適したフレームレート で撮像が行われているため、適正映像 1L〃 bとして表示される。したがって、室内部 分 lLbの様子は、適正映像 1L〃 bにより見ることができる。
[0105] モニタ 150に上記のようにモニタ映像 11/ が表示された後、モニタ映像 11/ の基 になっている画像データを、図 5 (D)の(1)に示すように画像データ 1MLとしてメモリ 144に記憶する (ステップ S7)。ここでは、モニタ映像 11/ は、撮像画像 11/ 、すな わち撮像画像 11/ a, IV bの画像データに基づくものである。したがって、画像デ ータ 1MLの内容は、撮像画像 11/ aの画像データである画像データ 11/ amと、撮 像画像 11/ bの画像データである画像データ 11/ bmになっている。
[0106] 次いで、図 5 (A)の(2)に示す被写体 2Lを撮影する 2フレーム目の撮影に移行する 。この撮影では、フレームレートを 10フレーム/秒に設定する(ステップ 1)。このフレ ームレートの設定は、前回(1フレーム目)撮像された撮像画像 1L' の受光レベルの 測定結果 (ステップ S3)に基づいて行い、前回の撮影のときに黒つぶれした撮像画 像 1L' aとして撮像された低輝度部分 2Laが黒つぶれしないように、露光時間を長く
HX/L る。
[0107] 10フレーム/秒のフレームレートで被写体 2Lを撮影すると(ステップ S2)、撮像素 子 130の撮像面には、図 5 (B)の(2)に示す撮像画像 21/ が形成される。この撮影( 2フレーム目)のフレームレートは、低輝度部分 2Laの撮像画像が適正な露出で撮像 されるように設定されている。そのため、撮像画像 2L' の撮像画像 は、撮像 画像 11/ の撮像画像 11/ aに対応する部分に当る力 S、この 2フレーム目の撮影にお いては、撮像素子 130の電荷蓄積量が適正な撮像画像となる。すなわち、前回(1フ レーム目)撮像された撮像画像 11 においては黒つぶれしていた撮像画像 11/ a は、適正な撮像画像 21/ aとして撮像される。
[0108] 一方、撮像画像 21/ の撮像画像 21/ bは、撮像画像 11/ の撮像画像 11/ bに 対応する部分に当る力 この 2フレーム目の撮影においては、撮像素子 130の電荷 蓄積量が飽和状態となり、白とびした撮像画像として撮像される。つまり、フレームレ ートが 10フレーム/秒のため、撮像画像 21/ bの部分は露出オーバーとなり、電荷 蓄積量が飽和状態の白とびした撮像画像となる。
[0109] この撮像画像 21/ について、受光レベルを測定し (ステップ S3)、撮像画像 21/ の各画素が所定の受光レベル内であるかどうかを判断する(ステップ S4)。撮像画像 2 については、上述したように、撮像画像 21/ bの部分が白とびした撮像画像と なっている。したがって、この受光レベルの判断 (ステップ S4)において、撮像画像 2 U bの画素が所定の受光レベル外の画素として判断される(ステップ S4において N o) 0
[0110] そして、この撮像画像 21/ より前に撮像した撮像画像における撮像画像 21/ bに 対応する位置の画素であって、所定の受光レベル内の画素が在るかどうかを、メモリ 144に記憶された画像データを参照しながら判定する(ステップ S5)。
[0111] ここでは、撮像画像 11/ の撮像画像 11/ bの画像データ 11/ bmが、条件に合う データとして判断される(スッテプ S5において Yes)。この判断に従い、画像置換部 1 43eにより撮像画像 2L' の画像データのうち、撮像画像 21/ bに対応する画像デー タを画像データ 11 bmに置き換える(ステップ S8)。
[0112] そして、図 5 (C)の(2)に示すように、撮像画像 21/ bの画像データが画像データ 1 bmに置き換えられた撮像画像 21/ の画像データに基づくモニタ映像 2L〃 を、 モニタ 150に表示する(ステップ S6)。すなわち、モニタ映像 21/ の撮像画像 21/ b に対応する部分については、画像データ 1L' bmに基づく適正映像 1L〃 bが表示さ れる。
[0113] モニタ映像 2 の撮像画像 21/ aに対応する部分については、この撮像画像 2L ' aの画像データに基づく映像である適正映像 21/ aが表示される。したがって、全 体として、白とびや黒つぶれのない適正なモニタ映像 2L〃 がモニタ 150に表示され る。 [0114] 前回(1フレーム目)の撮影におけるモニタ映像 11/ においては、低輝度部分 lLa の映像は黒つぶれ映像 1L〃 aとなってしまい、低輝度部分 lLaの様子をモニタ 150 上で見ることができなかったのに対し、今回(2フレーム目)の撮影におけるモニタ映 像 21/ においては、適正映像 21/ aとして見ることができる。また、今回(2フレーム 目)の撮影においては、低輝度部分 2La以外の室内部分 2Lbの撮像映像 2L' bは 白とびした撮像画像である力 前回(1フレーム目)の撮影において適正な受光量で 撮像された撮像画像 11/ bの画像データ 11/ bmに基づく適正映像 1L〃 bが表示さ れるため、モニタ映像 2L〃 は、適正な映像として見ることができる。
[0115] モニタ映像 21/ の適正映像 11/ bについては、今回の撮影によるリアルタイムの 映像ではないが、 1フレーム分だけ前の極めて直前の映像である。したがって、実際 の撮影内容とモニタ映像 21/ の表示内容には、大きな差はない。
[0116] そして、メモリ 144に、モニタ映像 21/ の基になっている撮像画像 1L' bと撮像画 像 21/ aの画像データが画像データ 2MLとして記憶される(ステップ S7)。この画像 データ 2MLの内容は、撮像画像 11/ bの画像データである画像データ 11/ bmと、 撮影画像 21/ aの画像データである画像データ 21/ amになっている。
[0117] 続いて、図 5 (A)の(3)に示す被写体 3Lを撮影する 3フレーム目の撮影に移行する 。この撮影では、フレームレートを再び 20フレーム/秒に設定する。このフレームレ ートの設定は、前回(2フレーム目)撮像された撮像画像 21/ の受光レベルの測定 結果 (ステップ S3)に基づいて行い、前回の撮影のときに白とびした撮像画像 21/ b として撮像された室内部分 3Lbが白とびしなレ、ように設定される。
[0118] 20フレーム/秒のフレームレートで被写体 3Lを撮影を行うと(ステップ S2)、撮像 素子 130の撮像面には、図 5 (B)の(3)に示す撮像画像 31/ が形成される。この撮 影(3フレーム目)のフレームレートは、室内部分 3Lbの撮像画像が適正な露出で撮 像されるように設定されている。そのため、撮像画像 3L' の撮像画像 3L1 は、撮 像画像 21/ の撮像画像 21/ bに対応する部分に当るが、この 3フレーム目の撮影 においては、撮像素子 130の電荷蓄積量が適正な撮像画像となる。すなわち、前回 (2フレーム目)撮像された撮像画像 21/ においては白とびしていた撮像画像 21/ bは、適正な撮像画像 31/ bとして撮像される。 [0119] 一方、撮像画像 31/ の撮像画像 31/ aは、撮像画像 21/ の撮像画像 21/ aに 対応する部分にあたる力 この 3フレーム目の撮影においては、撮像素子 130の電 荷蓄積量が不足し、黒つぶれした撮像画像として撮像される。つまり、フレームレート が 20フレーム Z秒のため、撮像画像 31/ aの部分は露出アンダーとなり、電荷蓄積 量が不足し黒つぶれした撮像画像となる。この撮像画像 31/ について、輝度レベル を測定し (ステップ S3)、撮像画像 31/ の各画素が所定の受光レベル内であるかど う力、を判断する(ステップ S4)。
[0120] 撮像画像 31/ については、上述したように、撮像画像 31/ aの部分が黒つぶれし た撮像画像となっている。したがって、この受光レベルの判断 (ステップ S4)において 、撮像画像 31/ aの画素が所定の受光レベル外の画素として判断される(ステップ S 4において No)。
[0121] そして、この撮像画像 31/ より前に撮像した撮像画像における撮像画像 31/ aに 対応する位置の画素であって、所定の受光レベル内の画素が在るかどうかを、メモリ 144に記憶された画像データを参照しながら判定する(ステップ S5)。
[0122] ここでは、撮像画像 21/ の撮像画像 21/ aの画像データ 21/ amが、条件に合う データとして判断される(スッテプ S5におおいて Yes)。この判断に従い、撮像画像 3 の画像データのうち、撮像画像 31/ aに対応する画像データを画像データ 21/ amに置き換える(ステップ S8)。
[0123] そして、図 5 (C)の(3)に示すように、撮像画像 31/ aの画像データが画像データ 2 V amに置き換えられた撮像画像 31/ の画像データに基づくモニタ映像 31/ を、 モニタ 150に表示する(ステップ S6)。すなわち、モニタ映像 31/ の撮像画像 31/ a に対応する部分については、画像データ 2L' amに基づく適正映像 2L〃 aが表示さ れる。
[0124] モニタ映像 3 の撮像画像 31/ bに対応する部分については、この撮像画像 3L ' bの画像データに基づく映像である適正映像 31/ bが表示される。したがって、全 体として、白とびや黒つぶれのない適正なモニタ映像 3L〃 がモニタ 150に表示され る。
[0125] 今回(3フレーム目)の撮影においては、低輝度部分 3Laの撮像映像 31/ aは黒つ ぶれした撮像画像であるが、前回(2フレーム目)の撮影において適正な受光量で撮 像された撮像画像 21/ aの画像データ 21/ amに基づく適正映像 21/ aが表示され るため、モニタ映像 31/ は、適正は映像として見ることができる。
[0126] モニタ映像 3 の適正映像 21/ aについては、今回(3フレーム目)の撮影による リアルタイムの映像ではなレ、が、 1フレーム分だけ前の極めて直前の映像である。し たがって、実際の撮影内容とモニタ映像 3L〃 の表示内容には、大きな差はない。
[0127] そして、メモリ 144に、モニタ映像 31/ の基になっている撮像画像 2L' aと撮像画 像 31/ bの画像データが画像データ 3MLとして記憶される(ステップ S7)。この画像 データ 3MLの内容は、撮像画像 21/ aの画像データである画像データ 21/ amと、 撮影画像 31/ bの画像データである画像データ 31/ bmになっている。
[0128] 以降の撮影、すなわち、 4フレーム目、 5フレーム目、 6フレーム目…の撮影を行つ た場合のモニタ 150におけるモニタ映像についても、上述した 1フレーム目力も 3フレ ーム目で行ったのと同様の画像の置換処理が行われた映像が表示される。したがつ て、モニタ 150において、被写体 4L, 5L, 6L,…の撮影映像を白とびや黒つぶれの ない状態で見ることができる。
[0129] 次に、室内に電灯等による輝度の高い高輝度部分と家具等の陰になった影部分等 の低輝度部分を含む被写体を撮影したときのカメラ装置 100の動作を、図 2のブロッ ク図、図 3のフローチャート、および図 6を参照しながら説明する。
[0130] 図 6 (A)は、カメラ装置 100の撮影対象となる被写体を示す図である。図 4と同様に 、(1 )から(6)の順で左から右に向かって時間が経過し、各時刻の被写体をそれぞれ IK, 2K, 3K, 4K, 5K, 6Kとする。ここでは、カメラ装置 100は、室内を撮影するも のであり、各被写体 IK, 2K, ·■· (こ fま、高輝度咅分 lKa, 2Ka, 3Ka, 4Ka, 5Ka, 6 Ka、低輝度部分 1Kb, 2Kb, 3Kb, 4Kb, 5Kb, 6Kbおよびこれらの部分以外の室 内部分 lKc, 2Kc, 3Kc, 4Kc, 5Kc, 6Kcが含まれている。
[0131] 図 6 (B)は、(A)に示す被写体 1K, 2Κ,…を連続して撮影した各撮像画像を、時 系列に左から右に並べて示している。被写体 1K, 2Κ, 3Κ, 4Κ, 5Κ, 6Κは、それ ぞれ、撮像画像 1K' , 2Kr , 3K , 4Kr , 5Κ; , 6Κ; として撮像されている。
[0132] 図 6 (C)は、 (Β)に示す撮像画像の画像データに対して画像データの置換処理が 行われた画像データに基づいてモニタ 150に表示されたとモニタ映像の表示内容を 示す図である。モニタ 150には、撮像画像 IK' , 2K; , 3K' , 4K; , 5K , 6Κ ' にそれぞれ対応して、モニタ映像 1Κ 2K" , 3K 4K" , 5K" , 6K が表 示される。
[0133] 図 6 (D)は、上述の画像データの置換処理のためにメモリ 144に記録された撮像画 像の画像データの内容を示す図である。モニタ 150に表示されたモニタ映像の基に なっている画像データ力 画像データの置換処理のための画像データとしてメモリ 14 4に記録される。
[0134] モニタ映像 IK" , 2K" 3Κ" , 4K" 5K/r , 6K" の基になっている画像デー タカ それぞれ、画像データ lMk, 2Mk, 3Mk 4Mk 5Mk, 6Mkとしてメモリ 144 に記録されている。
[0135] 先ず、撮影の開始に先立ち、フレームレート設定部 143aにより、フレームレートを 標準のフレームレートに設定する(ステップ S l)。ここでは、被写体 1K 6Kとなる室 内の明るさに時間経過による大きな変化がないことを前提として、室内部分 lKc 6 Kcの撮像画像が適正な受光量となるように、標準フレームレートを、例えば、 20フレ ーム/秒に設定する。
[0136] 上述の標準フレームレートで、図 6 (A)の(1)に示す被写体 1Kを撮影すると(ステツ プ S2)、撮像素子 130の撮像面には、図 6 (B)の(1)に示す撮像画像 1K' が形成さ れる。撮像画像 1K' は、高輝度部分 lKaの撮像画像 lKa、低輝度部分 1Kbの撮 像画像 IK' bおよび室内部分 lKcの撮像画像 IK' cを有する。撮像画像 IK' aに ついては、フレームレートが室内部分 lKcの輝度に合わせて設定されているため、 露出オーバーとなり白とびの状態で撮像されている。すなわち、撮像素子 130の画 素の内、撮像画像 IK' aに対応する部分の画素については、電荷蓄積量が飽和状 態となつてしまっている。
[0137] 逆に、撮像画像 IK' bについては、露出アンダーとなり黒つぶれの状態で撮像さ れている。すなわち、撮像素子 130の画素の内、撮像画像 IK' bに対応する部分の 画素については、電荷蓄積量が不足した状態となってしまっている。これに対し、撮 像画像 IK' cは、フレームレートが室内部分 lKcの輝度に合わせて設定されている ため、撮像素子 130の電荷蓄積量が適正な撮像画像となり、室内部分 lKcの様子が 判る状態で撮像される。
[0138] 次いで、この撮像画像 1K' について、受光レベル測定部 143bにより受光レベル を測定し (ステップ S3)、受光レベル判定部 143cにより撮像画像 1IT の各画素が所 定の受光レベル内であるかどうかを判断する(ステップ S4)。所定の受光レベルの上 限は、撮像画像 に白とびが生じる程度に、撮像素子 130の画素の電荷蓄積量 が飽和しているかどうかで判断をする。下限については、撮像画像 11^ に黒つぶれ が生じる程度に、撮像素子 130の画素の電荷蓄積量が低レ、かどうかで判断する。撮 像画像 1K' については、撮像画像 1IT cの部分については、適正な受光レベルと 判断される。
[0139] これに対し、撮像画像 IK' aの部分については画素の電荷蓄積量が飽和状態で あると判断され、また、撮像画像 IK' bの部分については画素の電荷蓄積量が不足 していると判断される。すなわち、受光レベルの判定 (ステップ S4)において、撮像画 像 に所定の受光レベル外の画素が含まれていると判断される(ステップ S4にお いて No)。
[0140] そして、撮像画像 1K' より前に撮影した撮像画像における撮像画像 IK' aまたは 撮像画像 IK' bに対応する位置の画素であって、所定の受光レベル内の画素があ るかどうかを判定する(ステップ S5)。ここでは、撮像画像 1K' は最初に撮像された 撮像画像であるので、このような画素はないと判断され (ステップ S5において No)、 図 6 (C)の(1)に示すように、撮像画像 1K' の画像データに基づくモニタ映像 1K" をモニタ 150に表示する(ステップ S6)。モニタ映像 1K" は、撮像画像 IK' aの部 分については、白とびした白とび映像 1K〃 aとして表示される。したがって、被写体 1 Kの高輝度部分 lKaの様子は、モニタ映像 1K" によっては見ることができない。
[0141] また、撮像画像 IK' bの部分については、黒つぶれした黒つぶれ映像 IK" bとし て表示される。したがって、被写体 1Kの低輝度部分 1Kbの様子は、モニタ映像 1K " によっては見ることができない。
[0142] 撮像画像 IK' cの部分については、室内部分 lKcの明るさに適したフレームレー トで撮像が行われているため、適正映像 1K〃 cとして表示される。この適正映像 1K " cにより、室内部分 lKcの様子をモニタ 150により見ることができる。
[0143] モニタ 150に上記のようにモニタ映像 1K" が表示された後、モニタ映像 1K" の基 になっている画像データを、図 6 (D)の(1)に示すように画像データ lMkとしてメモリ 144に記憶する (ステップ S7)。ここでは、モニタ映像 1K" は、撮像画像 1K' 、すな わち撮像画像 IK' a, lKr bおよび IK' cの画像データに基づくものである。した 力 Sつて、画像データ lMkの内容は、撮像画像 IK' aの画像データである IK' am、 撮像画像 IK' bの画像データである IK' bmおよび撮像画像 IK' cの画像データ である IK' cmになっている。
[0144] 次いで、図 6 (A)の(2)に示す被写体 2Kを撮影する 2フレーム目の撮影に移行す る。この撮影では、先ず、フレームレートを 40フレーム/秒に設定する(ステップ 1)。 このフレームレートの設定は、前回(1フレーム目)撮像された撮像画像 1K' の受 光レベルの測定結果 (ステップ S3)に基づいて行い、前回の撮影のときに白とびした 撮像画像 IK' aとして撮像された高輝度部分 2Kaが白とびしないように、露光時間 を短く設定する。
[0145] 40フレーム/秒のフレームレートで被写体 2Kを撮影すると(ステップ S2)、撮像素 子 130の撮像面には、図 6 (B)の(2)に示す撮像画像 2IT が形成される。 この撮 影(2フレーム目)のフレームレートは、高輝度部分 lKaの撮像画像が適正な露出で 撮像されるように設定されている。そのため、撮像画像 2K' の撮像画像 2Ka' は、 撮像画像 1K' の撮像画像 IK' aに対応する部分に当る力 S、この 2フレーム目の撮 影においては、撮像素子 130の電荷蓄積量が適正な撮像画像となる。すなわち、前 回(1フレーム目 )撮像された撮像画像 1K' におレ、ては白とびしてレ、た撮像画像 1K ' aは、適正な撮像画像 2K' aとして撮像される。
[0146] 一方、撮像画像 2K' の撮像画像 2K' bは、撮像画像 1K' の撮像画像 IK' bに 対応する部分に当る力 この 2フレーム目の撮影においても、撮像素子 130の電荷 蓄積量が不足した状態となり、黒つぶれした撮像画像として撮像される。つまり、フレ ームレートが 40フレーム Z秒のため、撮像画像 2K' bの部分はさらに露出アンダー となり、電荷蓄積量が不足した状態の黒つぶれの撮像画像となる。また、撮像画像 2 Kr cの部分についても露出アンダーとなり、電荷蓄積量が不足した状態の黒つぶ れの撮像画像となる。
[0147] この撮像画像 2K' について、受光レベルを測定し (ステップ S3)、撮像画像 2K' の各画素が所定の受光レベル内であるかどうかを判断する(ステップ S4)。撮像画像 2Kr については、上述したように、撮像画像 bと撮像画像 2K' cの部分が黒 つぶれの撮像画像となっている。したがって、この受光レベルの判断 (ステップ S4)に おいて、撮像画像 bと撮像画像 2K' cの画素が所定の受光レベル外の画素と して判断される(ステップ S4において No)。
[0148] そして、この撮像画像 2Κ' より前に撮像した撮像画像において、撮像画像 2K' b または撮像画像 2K' cの画素に対応する位置の画素であって、所定の受光レベル 内の画素が在るかどうかを、メモリ 144に記憶された画像データを参照しながら判定 する(ステップ S 5)。
[0149] ここでは、撮像画像 2K' cについて、撮像画像 1K' の撮像画像 IK' cの画像デ ータ IK' cmが、条件に合うデータとして判断される(スッテプ S5におおいて Yes)。 この判断に従い、画像置換部 143eにより撮像画像 2K' の画像データのうち、撮像 画像 2K' cに対応する画像データを画像データ IK' cmに置き換える(ステップ S8)
[0150] そして、図 6 (C)の(2)に示すように、撮像画像 2IT cの画像データが画像データ 1 K' cmに置き換えられた撮像画像 2IT の画像データに基づくモニタ映像 2K" をモ ニタ 150に表示する(ステップ S6)。すなわち、モニタ映像 2K" の撮像画像 2K' c に対応する部分については、画像データ IK' cmに基づく適正映像 IK" cが表示さ れる。
[0151] モニタ映像 2K〃 の撮像画像 aに対応する部分については、この撮像画像 2K ' aの画像データに基づく映像である適正映像 2K〃 aが表示される。さらに、モニタ 映像 2K" の撮像画像 2K' bに対応する部分については、この撮像画像 bの 画像データに基づく映像である黒つぶれした黒つぶれ映像 2K〃 bが表示されること になる。
[0152] このように、前回の撮影におけるモニタ映像 1K" においては、高輝度部分 lKaの 映像は白とび映像 IK" aとなってしまい、この部分の被写体の様子をモニタ 150上 で見ることができなかった力 今回の撮影におけるモニタ映像 2K〃 においては、適 正映像 2Κ" aとして見ることができる。適正映像 2K" cについては、今回の撮影によ るリアルタイムの映像ではないが、 1フレーム分だけ前の極めて直前の映像である。し たがって、実際の撮影内容とモニタ映像 2K〃 の表示内容には、大きな差はない。
[0153] そして、メモリ 144に、モニタ映像 2Κ" の基になっている撮像画像 a、撮像画 像 bおよび撮像画像 IK' cの画像データが画像データ 2Mkとして記憶される( ステップ S 7)。
[0154] この画像データ 2Mkの内容は、撮像画像 2K' aの画像である画像データ am と撮像画像 2Κ' bの画像データである画像データ bm、および撮像画像 IK' c の画像データである画像データ IK' cmになっている。
[0155] なお、 2フレーム目に低輝度部分 2Kbを撮影した撮像画像 bよりも、 1フレーム 目に低輝度部分 1Kbを撮影した撮像画像 IK' bの方が、小さいフレームレートで撮 像されている。低輝度部分については、フレームレートを小さくして長い露光時間で 撮影した方が、黒つぶれの程度を抑えることができる。したがって、撮像画像 2K' b に比べて撮像画像 ll^ bの方が黒つぶれの程度が少ない場合がある。そこで、モニ タ映像 2K" のモニタ映像 2K bの替わりに、画像データ lMkの画像データ IK' b mに基づく映像を表示することにしてもよい。
[0156] すなわち、上述のステップ S5において、撮像画像 lK^ bの画素が所定の受光レベ ノレ内の画素でないと判断されても、撮像画像 2K' bに比べて所定レベル内により収 まっている場合には、撮像画像 bの画像データを撮像画像 IK' bの画像デー タである IK' bmと置き換えるようにしてもよい。
[0157] 続いて、図 6 (A)の(3)に示す被写体 3Kを撮影する 3フレーム目の撮影に移行す る。この撮影では、先ず、フレームレートを 10フレーム/秒に設定する(ステップ 1)。
[0158] このフレームレートの設定は、前回(2フレーム目の撮影)または前々回(1フレーム 目の撮影)撮像された撮像画像 2K' または撮像画像 1K' の受光レベルの測定結 果 (ステップ S3)に基づいて行い、前回または前々回の撮影のときに黒つぶれした撮 像画像 2K' bまたは撮像画像 IK' bとして撮像された低輝度部分 3Kbが黒つぶれ しないように設定される。そして、 10フレーム/秒のフレームレートで被写体 3Kの撮 影を行うと (ステップ S2)、撮像素子 130の撮像面には、図 6 (B)の(2)に示す撮像画 像 3K' が形成される。
[0159] この撮影(3フレーム目 )のフレームレートは、低輝度部分 3Kbの撮像画像が適正の 露出で撮像されるように設定されている。そのため、撮像画像 3K' の撮像画像 3Kb ' は、撮像画像 ΙΚ' の撮像画像 ΙΚ' bおよび撮像画像 2Κ' の撮像画像 2K' b に対応する部分に当る力 この 3フレーム目の撮影においては、撮像素子 130の電 荷蓄積量が適正な撮像画像となる。すなわち、 1フレーム目および 2フレーム目に撮 像された撮像画像 1K' , 2K においては黒つぶれしていた撮像画像 IK' b, 2K ' bは、適正な撮像画像 3Κ' bとして撮像される。
[0160] 一方、撮像画像 3K' の撮像画像 3K' aは、撮像画像 2K' の撮像画像 2K' aに 対応する部分に当る力 この 3フレーム目の撮影においては、撮像素子 130の電荷 蓄積量が飽和状態となり、白とびした撮像画像として撮像される。つまり、フレームレ ートが 10フレーム/秒のため、撮像画像 3K' aの部分は露出オーバーとなり、電荷 蓄積量が飽和状態となり白とびした撮像画像となる。
[0161] また、撮像画像 3K' の撮像画像 3K' cは、撮像画像 2K' の撮像画像 2K' cに 対応する部分に当る力 この 3フレーム目の撮影においては、撮像素子 130の電荷 蓄積量が飽和状態となり、白とびした撮像画像として撮像される。つまり、フレームレ ートが 10フレーム/秒のため、撮像画像 3K' cの部分は露出オーバーとなり、電荷 蓄積量が飽和状態となり白とびした撮像画像となる。
[0162] この撮像画像 3K' について、輝度レベルを測定し (ステップ S3)、撮像画像 3K' の各画素が所定の受光レベル内であるかどうかを判断する(ステップ S4)。
[0163] 撮像画像 3K' については、上述したように、撮像画像 aと撮像画像 3K' cの 部分が白とびした撮像画像となっている。そのため、この輝度レベルの判断 (ステップ S4)において、撮像画像 aと撮像画像 3K' cの画素が、所定の受光レベル外 の画素として判断される(ステップ S4におレ、て No)。
[0164] そして、この撮像画像 3Κ' より前に撮像した撮像画像において、撮像画像 3K' a または撮像画像 3K' cの画素に対応する位置の画素であって、所定の受光レベル 内の画素が在るかどうかを、メモリ 144に記憶された画像データを参照しながら判定 する(ステップ S5)。ここでは、撮像画像 IK' の撮像画像 IK' cの画像データ 1K' cmと撮像画像 2K' の撮像画像 2K' aの画像データ 2K' amとが条件に合うデータ として判断される(スッテプ S5におおいて Yes)。この判断に従レ、、撮像画像 3K' の 画像データのうち、撮像画像 3K' aに対応する画像データを画像データ 2K' amに 置き換える、また、撮像画像 3K' cに対応する画像データを画像データ IK' cmに 置き換える(ステップ S8)。
[0165] そして、撮像画像 3Κ' aと撮像画像 3Κ' cの画像データがそれぞれ画像データ 2 Kr amと画像データ IK' cmに置き換えられた撮像画像 3K' の画像データに基づ くモニタ映像 3K" をモニタ 150に表示する(ステップ S6)。すなわち、モニタ映像 3K の撮像画像 3K' aに対応する部分については、画像データ amに基づく適 正映像 2K" aが表示される。また、モニタ映像 3K" の撮像画像 3K' cに対応する 部分については、画像データ 1IT cmに基づく適正映像 1K〃 cが表示される。
[0166] モニタ映像 3Κ" の撮像画像 3Κ" bに対応する部分については、この撮像画像 3 K' bの画像データに基づく映像である適正映像 3K〃 bが表示される。今回(3フレ ーム目)の撮影においては、高輝度部分 3Kaの撮像映像 aと室内部分 3Kcの 撮像映像 3K' cは白とびた撮像画像である力 S、モニタ 150には、適正映像 2K" aと 適正映像 IK" cが表示される。すなわち、モニタ映像 3K" は、適正な映像としてモ ニタ 150に表示される。
[0167] モニタ映像 3K" の適正映像 2K" aについては、今回(3フレーム目)の撮影による リアルタイムの映像ではなレ、が、 1フレーム分だけ前の極めて直前の映像である。ま た、モニタ映像 3K" の適正映像 IK" cについても、今回の撮影によるリアルタイム の映像ではないが、 2フレーム分だけ前の極めて直前の映像である。したがって、実 際の撮影内容とモニタ映像 3K〃 の表示内容には、大きな差はない。
[0168] そして、メモリ 144に、モニタ映像 3Κ" の基になっている撮像画像 a、撮像画 像 3IT bおよび撮像画像 IK' cの画像データが画像データ 3Mkとして記憶される( ステップ S 7)。
[0169] この画像データ 3Mkの内容は、撮像画像 2K' aの画像である画像データ am と撮像画像 3Κ' bの画像データである画像データ bm、および撮像画像 c の画像データである画像データ IK' cmになっている。
[0170] 以降の撮影、すなわち、 4フレーム目、 5フレーム目、 6フレーム目…の撮影を行つ た場合のモニタ 150におけるモニタ映像についても、上述した 1フレーム目力も 3フレ ーム目で行ったのと同様の画像の置換処理が行われた映像が表示される。したがつ て、モニタ 150において、被写体の撮影映像を白とびや黒つぶれのない状態で見る こと力 Sできる。
[0171] 上述のカメラ装置 100においては、撮像素子 130の受光レベルが所定のレベル内 でるかどうかの判断を画素毎に行なう例を示した。このように画素毎に判断をする代 わりに、撮像素子 130の撮像エリアを、例えば、マトリクス状に分けたエリア毎に受光 レベルが所定レベル内かどうかを判断し、このエリア単位で、画像データの置換を行 うようにしてもよレ、。例えば、エリア内の画素の受光レベルの平均力 所定の受光レベ ル内かどうかを判断し、所定のレベル内にないときは、他の撮像画像の対応するエリ ァ位置にある所定の受光レベル内の画像データと置換をする。
[0172] エリア単位で画像の置換を行う場合には、エリア内の画素間の受光レベルの差が 小さくなるように、エリアはできるだけ小さい方が好ましい。すなわち、例えば、エリア の半分に高輝度の被写体があり、残りの半分に低輝度の被写体がある場合には、フ レームレートを変えて撮影を行っても、両方の被写体の撮像画像の受光レベルを同 時に所定の受光レベルにすることができないことがある。したがって、撮影する被写 体の内容に応じてエリアの大きさ、すなわち、エリア内の画素数やエリアの形状等を 決定する。
[0173] 例えば、本実施の形態のように画角の広い撮影レンズ 121により、沢山の被写体を 撮影する場合には、被写体の 1つ 1つが狭い結像範囲で撮像面に結像し、しかも、被 写体毎に輝度が大きく相違する傾向が強いことがある。このような場合には、エリアの 大きさを小さくすることが好ましレ、。
[0174] 逆に、撮影レンズ 121の画角を狭くすることにより、被写体の数が少なくなり、被写 体の輝度差があまりないことが予想される場合には、エリアの大きさを大きくすること により、画像処理のスピードを速くすることができる。
[0175] また、上述のカメラ装置 100においては、被写体の映像をモニタ 150を介してリアル タイムで見る例を示した力 フレームレートを変えて撮影した撮像画像をメモリ 144に 記憶しておき、置換する画像データを、置換される画像データを有する撮像画像の 撮影時点よりも後に撮影された撮像画像のものを用いても良い。
[0176] また、上述のカメラ装置 100においては、フレームレートを 1フレーム毎に変化させ て、 1フレーム毎に露光時間を変える構成とした力 フレームレートは数フレーム毎等 、被写体の変化や被写体の輝度の変化等に応じて適宜のタイミングで変化させるよう にしてもよい。
[0177] なお、フレームレートの設定は、被写体の明るい部分と暗い部分に合わせた後は、 被写体の明るさに大きな変化がない限りは、被写体の明るい部分に合わせた大きな フレームレートと、被写体の喑レ、部分に合わせた小さなフレームレートを交互に使用 するようにしてもよレ、。すなわち、撮像画像の受光レベル判断(上述のステップ S4)を 、フレーム毎に行なわず、最初の 2回のみ行い、その後は、このフレームレートを使用 するとうにしてもよレ、。あるいは、受光レベル判断(上述のステップ S4)は、数回に 1回 、または数秒に 1回等、間欠的に行なうようにしてもよい。
[0178] また、上述のカメラ装置 100においては、フレームレートを変えることにより、撮像素 子 130の露光時間を変えたが、撮像素子 130の蓄積時間を電子的に可変することに より、露光時間を変えるようにしてもよい。すなわち、撮像素子 130をいわゆる電子シ ャッタとして動作させてもよい。このように、撮像素子 130を電子シャツタとして動作さ せる場合には、上述したフレームレートを変える代わりに、各フレームにおける撮像素 子 130のシャツタ速度を変えることになる。
[0179] つまり、図 2におけるフレームレート設定部 143aは、シャツタ速度設定部として構成 し、また、図 3におけるフレームレートの設定 (ステップ S1)は、シャツタ速度を設定す る処理を行うことになる。
[0180] 具体的には、例えば、撮影の開始に先立ち、ステップ S1におけるフレームレートの 設定の代わりに、シャツタ速度を標準のシャツタ速度として 1/60秒に設定する。そし て、このシャツタ速度で 1フレーム目を撮影する。
[0181] この標準のシャツタ速度で撮影した撮像画像にっレ、て、受光レベルを測定し (ステ ップ S3)、撮像画像の各画素が所定の受光レベル内であるかどうかを判断する (ステ ップ S4)。そして、 2フレーム目においては、ステップ S3の受光レベルの測定結果に 基づいて、 1フレーム目の撮影で、白とびしたり黒つぶれした画素が適正な露出で露 光されるように、シャツタ速度が設定される。
[0182] 白とびしている高輝度部分を白とびしないようにするには、シャツタ速度を、例えば 、 1/90秒にして露光時間を短くする。また、黒つぶれしている低輝度部分を黒つぶ れしないようにするには、シャツタ速度を、例えば、 1Z30秒にして露光時間を長くす る。以降の撮影におけるフレームにおいても、フレームレートを設定する代わりにシャ ッタ速度の設定が行われる点を除いて、上述した図 3から図 6を参照しながら説明し たカメラ装置 100の動作と同様の動作が行われる。
[0183] なお、撮像素子 130を電子シャツタとして動作する代わりに、撮像素子 130の前 (被 写体側)にいわゆる機械シャツタを配置し、この機械シャツタにより露光時間を制御す るようにしてもよい。
[0184] また、上述のカメラ装置 100においては、フレームレートを変えることにより、撮像素 子 130の露光時間を変えたが、露光量の総量を変えることが重要であるため、光学 系 120に、可変アイリスを設け、この可変アイリスの開口量を制御することにより、単位 時間あたりの露光量を所定のタイミングで変えるようにしてもよい。し力 ながら、フレ ームレートを変えることにより、撮像素子 130の露光時間を変える方が、露光時間の 変更を容易に、かつ、早いタイミングで変えることができる。
[0185] また、フレームレートの設定 (ステップ S1)に当っては、撮影開始前の被写体の明る い所、暗い所の各輝度レベルを測定し、その各輝度レベルに合った 2つまたは 3っ以 上のフレームレートを予め設定しておいてもよい。そして、これらのフレームレートを適 宜の順で使用して撮影を行うようにしてもよい。設定するフレームレートの数を増やし 、フレームレートが異なる撮影画像の数を多くして、この中から適切な露光部分を選 択して合成すことにより、モニタ映像の画質の向上を図ることができる。
[0186] 上述の実施の形態では、白とびや黒つぶれの部分が生じた部分を例として説明し た力 そのような白とびや黒つぶれが発生しない場合でも、フレームレートが大きい 撮像画像とフレームレートが小さい撮像画像を得て、これらの撮像画像を合成するよ うにしてもよい。撮像画像を合成する場合には、フレームレートの大きい撮像画像の 中の明るい部分と、フレームレートの小さい撮像画像の中の暗い部分とを合成する。
[0187] この場合、フレームレートが大きい撮像画像とこれに隣接するフレームレートが小さ い撮像画像について、上述のステップ S5における受光レベルの判断を行なうことなく 、 2つの撮像画像を合成して、モニタ 150に表示するようにしてもよい。
[0188] 明るい部分と暗い部分以外は、フレームレートの大きい撮像画像のものを採用した り、フレームレートの小さい撮像画像の中のものを採用して、白とびや黒つぶれの部 分を含めて全体が明瞭となる撮像画像を生成する。明るい部分と暗い部分以外は、 フレームレートの大きい撮像画像とフレームレートの小さい撮像画像の両者の輝度の 中間的な値を用いるようにしてもよい。
[0189] 上述の実施の形態では、カメラ装置 100は、モニタ 150を備える例を示した力 カメ ラ装置 100にモニタ 150を有しない構成としてもよい。この場合には、映像は、ネット ワークを介して接続されるパソコン等のモニタに表示することができる。この場合、ス テツプ S4からステップ S8の画像処理をパソコン等において実施することとし、ネットヮ ークを介してのパソコン等を含めてカメラ装置 100としてもよい。

Claims

請求の範囲
[1] 撮影レンズと、
撮影レンズを透過した被写体光が結像する撮像手段と、
上記撮像手段に結像した撮像画像の画像データの画像処理を行う画像処理制御 手段とを備え、上記被写体を連続して撮影するカメラ装置にぉレ、て、
上記撮像手段の露光時間を少なくとも 2段階に所定のタイミングで変化させる露光 時間変化手段と、
上記撮像手段の受光レベルを撮像画像の部分単位で測定する受光レベル測定手 段と、
上記撮像手段の上記部分単位の受光レベルが所定の受光レベル内か否力を判断 する受光レベル判定手段と、
上記受光レベル判定手段により受光レベルを判定された部分が、所定の受光レベ ル内にないと判断された受光レベル不適正部分であるときは、この受光レベル不適 正部分の画像データを、他の撮像画像の上記受光レベル不適正部分と対応する画 像位置の部分であって所定の受光レベル内の受光レベル適正部分の画像データに 置換する画像置換手段と、
を備えることを特徴とするカメラ装置。
[2] 前記受光レベル不適正部分と置換される前記受光レベル適正部分を有する撮像 画像が複数あるときは、前記受光レベル不適正部分を有する撮像画像を撮像した時 期に一番近い撮像画像の前記受光レベル適正部分と置換することを特徴する請求 項 1に記載のカメラ装置。
[3] 前記露光時間変化手段は、前記撮像手段の撮像フレーム毎に前記露光時間を変 化させることを特徴とする請求項 1または請求項 2のいずれ力 4項に記載のカメラ装置
[4] 前記露光時間変化手段は、フレームレート変更手段であることを特長とする請求項
1から請求項 3のいずれ力 1項に記載のカメラ装置。
[5] 前記露光時間変化手段は、シャツタ速度変更手段であることを特長とする請求項 1 力 請求項 3のいずれか 1項に記載のカメラ装置。
[6] 前記少なくとも 2段階の露光時間の 1の露光時間は、前記受光レベル不適正部分 の受光レベルを所定の受光レベル内にする露光時間であることを特徴とする請求項
1から請求項 5のいずれ力 1項に記載のカメラ装置。
[7] 前記撮像レンズは、広角レンズであることを特徴とする請求項 1から請求項 6のいず れか 1項に記載するカメラ装置。
[8] 撮影レンズにより撮像手段に結像した被写体の撮像画像について画像処理を行う 画像処理方法において、
上記撮像手段の露光時間を少なくとも 2段階に所定のタイミングで変化させる露光 時間変化ステップと、
上記撮像手段の受光レベルを撮像画像の部分単位で測定する受光レベル測定ス テツプと、
上記撮像手段の上記部分単位の受光レベルが所定の受光レベル内か否力、を判断 する受光レベル判定ステップと、
上記受光レベル判定ステップにより受光レベルを判定された部分が、所定の受光レ ベル内にないと判断された受光レベル不適正部分であるときは、この受光レベル不 適正部分の画像データを、他の撮像画像の上記受光レベル不適正部分と対応する 画像位置の部分であって所定の受光レベル内の受光レベル適正部分の画像データ に置換する画像置換ステップと、
を備えることを特徴とする画像処理方法。
[9] 撮影レンズと、
撮影レンズを透過した被写体光が結像する撮像手段と、
上記撮像手段に結像した撮像画像の画像データの画像処理を行う画像処理制御 手段とを備え、上記被写体を連続して撮影するカメラ装置にぉレ、て、
上記撮像手段の露光時間を少なくとも 2段階に変化させて撮影した露光時間が異 なる複数の撮像画像の明瞭な部分同士を合成して全体が明瞭となる撮像画像を記 録または表示することを特徴とするカメラ装置
[10] 撮影レンズにより撮像手段に結像した被写体の撮像画像にっレ、て画像処理を行 う画像処理方法において、 上記撮像手段の露光時間を少なくとも 2段階に変化させて露光時間が異なる複数 の撮像画像を撮影し、これらの露光時間が異なる複数の撮像画像の明瞭な部分同 士を合成して全体が明瞭となる撮像画像を記録または表示することを特徴とする画 像処理方法。
PCT/JP2007/058609 2006-05-01 2007-04-20 カメラ装置および画像処理方法 WO2007129549A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US12/299,353 US20100007766A1 (en) 2006-05-01 2007-04-20 Camera device and image processing method
EP07742044A EP2018050A4 (en) 2006-05-01 2007-04-20 CAMERA AND IMAGE PROCESSING METHOD

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006-127518 2006-05-01
JP2006127518A JP2007300463A (ja) 2006-05-01 2006-05-01 カメラ装置および画像処理方法

Publications (1)

Publication Number Publication Date
WO2007129549A1 true WO2007129549A1 (ja) 2007-11-15

Family

ID=38667657

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/058609 WO2007129549A1 (ja) 2006-05-01 2007-04-20 カメラ装置および画像処理方法

Country Status (4)

Country Link
US (1) US20100007766A1 (ja)
EP (1) EP2018050A4 (ja)
JP (1) JP2007300463A (ja)
WO (1) WO2007129549A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6028382B2 (ja) * 2012-04-27 2016-11-16 株式会社デンソー 前方監視カメラ
JP2013255144A (ja) * 2012-06-08 2013-12-19 Hitachi Consumer Electronics Co Ltd 撮像装置
JP6198600B2 (ja) * 2013-12-16 2017-09-20 キヤノン株式会社 画像処理装置、撮像装置、その制御方法及びプログラム
JP5875611B2 (ja) * 2014-02-20 2016-03-02 キヤノン株式会社 画像処理装置及び画像処理装置の制御方法
EP3148188A1 (en) * 2015-09-24 2017-03-29 Airbus Operations GmbH Virtual windows for airborne verhicles
EP3148186A1 (en) * 2015-09-24 2017-03-29 Airbus Operations GmbH Virtual windows for airborne vehicles
EP3426537A4 (en) 2016-03-11 2019-11-06 Hyperloop Transportation Technologies, Inc. INCREASED WINDOWS
JP2020036091A (ja) * 2018-08-27 2020-03-05 キヤノン株式会社 撮像装置及びその制御方法、プログラム、記憶媒体

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63306779A (ja) * 1987-06-09 1988-12-14 Canon Inc 撮像装置
JPH05130499A (ja) * 1991-10-31 1993-05-25 Sony Corp 画像信号の輝度補正装置
JP2000050173A (ja) * 1998-07-24 2000-02-18 Olympus Optical Co Ltd 撮像装置および撮像プログラムを記録した記録媒体
JP2003247902A (ja) 2002-02-26 2003-09-05 Toshiba Eng Co Ltd テンション検出方法と検出装置及びテンション制御方法
JP2004271902A (ja) 2003-03-07 2004-09-30 Sanyo Electric Co Ltd 監視カメラ装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4647975A (en) * 1985-10-30 1987-03-03 Polaroid Corporation Exposure control system for an electronic imaging camera having increased dynamic range
US5638118A (en) * 1987-06-09 1997-06-10 Canon Kabushiki Kaisha Image sensing device with diverse storage times used in picture composition
US5309243A (en) * 1992-06-10 1994-05-03 Eastman Kodak Company Method and apparatus for extending the dynamic range of an electronic imaging system
US6219097B1 (en) * 1996-05-08 2001-04-17 Olympus Optical Co., Ltd. Image pickup with expanded dynamic range where the first exposure is adjustable and second exposure is predetermined
NZ332626A (en) * 1997-11-21 2000-04-28 Matsushita Electric Ind Co Ltd Expansion of dynamic range for video camera
JP4245699B2 (ja) * 1998-09-16 2009-03-25 オリンパス株式会社 撮像装置
JP3740394B2 (ja) * 2001-07-27 2006-02-01 日本電信電話株式会社 高ダイナミックレンジ映像の生成方法とその装置、及びこの方法の実行プログラムとこの実行プログラムの記録媒体
US20030184671A1 (en) * 2002-03-28 2003-10-02 Robins Mark N. Glare reduction system for image capture devices
US7379094B2 (en) * 2002-04-18 2008-05-27 Olympus Corporation Electronic still imaging apparatus and method having function for acquiring synthesis image having wide-dynamic range
JP3801126B2 (ja) * 2002-09-25 2006-07-26 ソニー株式会社 撮像装置,撮像装置の画像出力方法,およびコンピュータプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63306779A (ja) * 1987-06-09 1988-12-14 Canon Inc 撮像装置
JPH05130499A (ja) * 1991-10-31 1993-05-25 Sony Corp 画像信号の輝度補正装置
JP2000050173A (ja) * 1998-07-24 2000-02-18 Olympus Optical Co Ltd 撮像装置および撮像プログラムを記録した記録媒体
JP2003247902A (ja) 2002-02-26 2003-09-05 Toshiba Eng Co Ltd テンション検出方法と検出装置及びテンション制御方法
JP2004271902A (ja) 2003-03-07 2004-09-30 Sanyo Electric Co Ltd 監視カメラ装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2018050A4

Also Published As

Publication number Publication date
EP2018050A4 (en) 2009-04-29
EP2018050A1 (en) 2009-01-21
JP2007300463A (ja) 2007-11-15
US20100007766A1 (en) 2010-01-14

Similar Documents

Publication Publication Date Title
JP6911202B2 (ja) 撮像制御方法および撮像装置
WO2007129549A1 (ja) カメラ装置および画像処理方法
US8130280B2 (en) Electronic camera
CN103647898B (zh) 摄像设备及其控制方法
CN111684788A (zh) 一种图像处理的方法和装置
JP6017225B2 (ja) 撮像装置
JP5950678B2 (ja) 撮像装置、制御方法、及びプログラム
JP2007027967A (ja) 撮影装置
JP2012119858A (ja) 撮影装置、撮影方法、およびプログラム
JP4600684B2 (ja) 撮影装置及び撮影方法
JP2018072554A (ja) 撮像装置および焦点調節方法
CN104853066B (zh) 摄像装置、摄像方法
KR20110052506A (ko) 촬상장치 및 촬상방법
JP2011155396A (ja) 撮像装置
JP3999321B2 (ja) 電子カメラ
JP2012156807A (ja) 撮像装置及びその制御方法
CN107547795A (zh) 摄像装置、摄像方法
JP4187512B2 (ja) 撮像装置
JP2006148550A (ja) 画像処理装置及び撮像装置
JP6089634B2 (ja) 撮像装置及び撮像方法並びにプログラム
CN116266877A (zh) 图像处理设备和方法、摄像设备和计算机可读介质
JP4278429B2 (ja) 撮像装置
JP4553570B2 (ja) オートフォーカスカメラ
KR20110040249A (ko) 불꽃놀이를 인식하는 디지털 영상 처리 장치, 그 동작 방법 및 판독 가능 저장 매체
JP2018056941A (ja) 撮像装置、表示装置、電子機器、撮像方法、プログラム、撮像システム、表示システムおよび画像処理装置。

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07742044

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2007742044

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 12299353

Country of ref document: US