WO2007094219A1 - 撮影装置および撮影方法 - Google Patents

撮影装置および撮影方法 Download PDF

Info

Publication number
WO2007094219A1
WO2007094219A1 PCT/JP2007/052135 JP2007052135W WO2007094219A1 WO 2007094219 A1 WO2007094219 A1 WO 2007094219A1 JP 2007052135 W JP2007052135 W JP 2007052135W WO 2007094219 A1 WO2007094219 A1 WO 2007094219A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
subject
zoom
movement
focal length
Prior art date
Application number
PCT/JP2007/052135
Other languages
English (en)
French (fr)
Inventor
Hideto Motomura
Katsuhiro Kanamori
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to JP2007526079A priority Critical patent/JP4025362B2/ja
Priority to CN200780003724XA priority patent/CN101375590B/zh
Priority to US12/095,384 priority patent/US7701492B2/en
Publication of WO2007094219A1 publication Critical patent/WO2007094219A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/775Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television receiver
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/7921Processing of colour television signals in connection with recording for more than one processing mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal

Definitions

  • the present invention relates to image shooting, and more particularly to a technique for separately recording a video recording intention and video.
  • the camera cuts out part of the middle force of the scene 1801 and stores it as image data.
  • the position to cut out is determined by the photographer according to the intention to shoot, and is called framing in the sense of setting the cutting frame 1802 in the scene.
  • framing There are four factors that determine framing: camera position 1803, camera direction 1804, camera angle 1805 (horizontal force, vertical force) or camera angle of view 1806.
  • the camera position is tracking 1808 (horizontal movement left and right), booming 1809 (vertical movement), and draining 1810 (horizontal movement back and forth) as shown in Table 1807 in Figure 1B and Figure 1C. adjust.
  • the camera direction is adjusted by panning 1811 (rotates horizontally at the camera center) and tilting 1812 (rotates vertically at the camera center).
  • the rotation of the camera is adjusted by rolling 1813 (rotation around the optical axis) as shown in Fig. 1D.
  • the angle of view of the camera is adjusted with the draining 1810 and zooming 1814.
  • zooming an optical zoom that changes the focal length of the optical system and an electronic zoom by image processing are used. As described above, framing is determined by the photographer with seven types of camera work from tracking 1808 to zooming 1 814.
  • FIG. 2 shows that the photographer 1901 turns from the side of the subject 1902 to the front, and the multifocal lens of the video camera 2001 20
  • FIG. 10 is a diagram showing a shooting example in which the focal length of 02 is continuously increased to increase the zoom magnification (zoom in).
  • the image IC1, the image IC2, and the image IC3 indicate the captured images displayed on the viewfinder 2003 of the video camera 2001, and correspond to the shooting magnifications of 1 ⁇ , 2 ⁇ , and 4 ⁇ , respectively.
  • the photographer 1901 zooms while simultaneously tracking and panning with body movement and rotation.
  • FIG. 3 shows an example in which the subject 1902 has moved to the right, so that tracking and panning control could not be performed properly, and the subject 1902 was out of frame (out of frame) and was lost.
  • Fig. 2 he was unable to set the framing according to his intention to capture the subject 1902 always at the center of the screen.
  • Subject 1902 moves to the right as time progresses, time Tl, time ⁇ 2, time ⁇ 3, and photographer 1901 cannot control tracking and panning properly, as shown in image IC4, at time T1.
  • the subject 1902 captured at the center of the screen is shifted to the right side of the screen at time ⁇ 2 as shown in image IC5, and then framed out to the right side of the screen at time ⁇ 3 as shown in image I C6. Occurred
  • the image IC3 in Fig. 2 obtains a shot image with a zoom magnification of 4 as a frame 2201 by increasing the focal length of the multifocal lens 2002 of the video camera 2001 (for example, 140 mm) and narrowing the angle of view as the angle of view 2102. Yes. Therefore, as shown in the image IC3 in Fig. 2, the image IC8 is cut out at the frame 2202 and displayed in the viewfinder 2003 to match the shooting intention that the subject 1902 is to be captured at the center of the screen. .
  • the framing at the time of shooting was the same as that of the frame 2201. After this was shot, it was reset to the frame 2202 to ensure the framing as intended.
  • Patent Document 1 a high-definition image sensor with a large number of pixels and lines is used as a measure to deteriorate the image quality by electronic zoom, which is zooming by image processing.
  • the focal length of the multifocal lens 2002 is increased by 4 times, for example, from 35 mm to 140 mm, the angle of view is changed from the angle of view 2101 force to the angle of view 2102, and the viewfinder 2003 is 4 times as large as the angle of view 2101 Subject 1902 is projected in size.
  • the number of pixels and the number of lines of the image sensor of the video camera 2001 are the same as those of the finder 2003, for example, 640 pixels x 480 lines, when shooting at a wide angle with an angle of view 2101 so that the subject 1902 does not go out of frame, The area that you want to display in Find 2003 is reduced to 1Z4. Therefore, if the image IC7 is obtained with 640 pixels x 480 lines, the frame 2202 to be cut out will be 160 pixels x 120 lines, so that it will be displayed on the finder 2003 with 640 pixels x 480 lines. It is necessary to enlarge.
  • Patent Document 1 in order to avoid image enlargement due to image processing, the number of pixels and the number of lines of the image sensor of the video power camera 2001 are increased, and the image quality equivalent to the optical zoom 4 times of the angle of view 2102 is obtained only by the clipping process. .
  • the image size of the finder 2003 is 640 pixels ⁇ 480 lines, 2560 pixels ⁇ 1920 lines are used for the image sensor.
  • Patent Document 1 Japanese Patent Laid-Open No. 2005-12423 (Fig. 3)
  • Non-Patent Document 1 JVC Corporation, “Hard Disk Movie, Main Specifications”, [Search February 10, 2006], Internet URL: http: //www.jvc—victor, co.jp Z dvmain / gz—mg70 / spec.html>
  • the conventional technique has a problem that the recording capacity of the recording medium in which the photographed image is stored is not taken into consideration. For example, when a 2560-pixel XI 920-line image sensor is used, the capacity of one RGB 24-bit frame image is approximately 14.7 MB. If 30 frames are captured per second, the recording capacity per second is approximately 441 MB. . For example, assuming a non-patent document 1 video camera, the hard disk has a capacity of 30 GB. Recording video using the method of Permitted Document 1 will use up the disk space in about 68 seconds.
  • the video recording time is 7 hours (when the image quality mode is set to the highest level), so the captured image is compressed and 7 hours of video are stored in 30 GB.
  • the data volume must be reduced to about 0.3%.
  • the present invention has been made in view of the above circumstances, and even when a subject or a photographer moves, the shooting of the subject is minimized and recording is performed for a long time. It is an object to provide a photographing apparatus and a photographing method capable of performing the above.
  • an imaging apparatus is an imaging apparatus for imaging a subject by changing a zoom magnification by controlling a focal length of a multifocal optical lens, the motion of the subject Subject movement detecting means for detecting movement, photographing apparatus movement detecting means for detecting movement of the photographing apparatus, movement of the subject by the subject movement detecting means, and movement of the photographing apparatus by the photographing apparatus movement detecting means.
  • the focal length of the multifocal optical lens is calculated so that the zoom magnification is lower than the set zoom magnification, and the movement of the object and the photographing are performed by the object movement detection means.
  • the multifocal light is set so that the zoom magnification is set.
  • a focal length calculation unit that calculates a focal length of the lens, a focal length control unit that controls the focal length of the multifocal optical lens to match the focal length calculated by the focal length calculation unit, and the multifocal optical
  • a frame area setting means for cutting out a frame area whose position and size are determined by the zoom magnification from the optical zoom image formed by the lens; and the frame area cut out by the frame area setting means
  • An electronic zoom processing means for changing the image size with an electronic zoom so that the image size is displayed, an electronic zoom image electronically zoomed by the electronic zoom processing means, or a framing image display means for displaying the optical zoom image Recording medium means for storing the zoom magnification and the optical zoom image And wherein the door.
  • the subject or the video camera moves. If the framing cannot be controlled as intended, the framing can be corrected by cutting out the image with the wide-angle image power. Also, when the possibility of resetting the framing is low, the video recording time can be extended by reducing the recording capacity on the recording medium. Furthermore, the video recording time can be lengthened by adopting adaptive processing according to the possibility of being used as a display image for data management on the recording medium.
  • FIG. 1A is a diagram showing a background art of the present invention.
  • FIG. 1B is a diagram showing a background art of the present invention.
  • FIG. 1C is a diagram showing the background art of the present invention.
  • FIG. 1D is a diagram showing the background art of the present invention.
  • FIG. 2 is a diagram showing the background art of the present invention.
  • FIG. 3 is a diagram showing the background art of the present invention.
  • FIG. 4A is a diagram showing the background art of the present invention.
  • FIG. 4B is a diagram showing the background art of the present invention.
  • FIG. 5 is a block diagram showing a configuration of a photographing apparatus according to Embodiment 1 of the present invention.
  • FIG. 6 is a diagram showing the relationship between the focal length F, the angle of view L, the shooting distance D, and the size S of the image sensor.
  • FIG. 7A is a diagram for explaining an example of a method for detecting subject movement.
  • FIG. 7B is a diagram for explaining an example of a method for detecting subject movement.
  • FIG. 8 is a diagram for explaining an example in which the relative positional relationship between the photographing device and the subject at time Ti 1 and time Ti is stored.
  • Fig. 9 is a diagram for explaining a method of detecting the movement of the photographing apparatus.
  • FIG. 10 is a diagram showing details of the photographed image IC and the framing image IDF of FIG.
  • FIG. 11 is a diagram for explaining a linear interpolation method.
  • FIG. 12 is a diagram for explaining a database reference type image enlargement method.
  • FIG. 13 illustrates a method of expressing an image feature FIS with wavelet transform coefficients. It is a figure to do.
  • FIG. 14 is a flowchart for explaining the operation of the photographing apparatus.
  • FIG. 15A is a diagram for explaining a framing resetting method.
  • FIG. 15B is a diagram for explaining a framing resetting method.
  • FIG. 16 is a block diagram showing a configuration of a photographing apparatus according to Embodiment 2 of the present invention.
  • FIG. 17 is a block diagram showing a configuration of a photographing apparatus according to Embodiment 3 of the present invention.
  • FIG. 18A is a diagram illustrating a method of obtaining the degree of movement of a subject.
  • FIG. 18B is a diagram for explaining a method for obtaining the degree of movement of a subject.
  • FIG. 19 is a block diagram showing a configuration of a photographing apparatus according to Embodiment 4 of the present invention.
  • FIG. 20 is a diagram for explaining how the captured image data portion identifies the storage area of the frame area ICF and the storage area of the outer frame area ICM by memory addresses.
  • FIG. 21 is a block diagram showing a configuration of a photographing apparatus according to Embodiment 5 of the present invention.
  • FIG. 22 is a diagram for explaining the prefetching method using an example of panning the photographing apparatus in the right direction.
  • FIG. 23 is a block diagram showing a configuration of a photographing apparatus according to Embodiment 6 of the present invention.
  • FIG. 24 is a block diagram showing a configuration of an imaging apparatus according to Embodiment 7 of the present invention.
  • FIG. 25 is a schematic view of a photographing apparatus according to Embodiment 8 of the present invention.
  • FIG. 26 is a diagram showing an operation mode selection screen.
  • FIG. 27 is a diagram showing a setting screen for a subject shooting spill prevention mode.
  • FIG. 28 is a diagram showing a setting screen for a variable compression ratio mode.
  • FIG. 29 is a diagram showing a setting screen for an outer frame overwrite mode.
  • FIG. 30 is a diagram showing a setting screen for a framing reset mode.
  • FIG. 31 is a diagram showing a setting screen for the prefetch mode.
  • FIG. 32 is a diagram for explaining a color palette 1606 used for designating a specific color in the image feature detection unit.
  • FIG. 33 is a diagram for explaining an area designation 1609 used for designation of a specific color in the image feature detection unit.
  • FIG. 34 is a diagram showing a sound designation setting screen in the sound feature detection unit.
  • FIG. 35A is a block diagram showing a configuration of the photographing apparatus according to the ninth embodiment of the present invention.
  • FIG. 35B is a diagram showing an image photographed by the photographing apparatus according to the ninth embodiment of the present invention.
  • FIG. 35C is a diagram showing an image photographed by the photographing apparatus according to the ninth embodiment of the present invention.
  • FIG. 35D is a diagram showing an image photographed by the photographing apparatus according to the ninth embodiment of the present invention.
  • Attitude sensor 114 Attitude sensor 114
  • An imaging apparatus is an imaging apparatus for imaging a subject by changing a zoom magnification by controlling a focal length of a multifocal optical lens, and the movement of the subject is measured.
  • Subject motion detection means to detect photographing device motion detection means to detect motion of the photographing device, motion of the subject by the subject motion detection means, and motion of the photographing device by the photographing device motion detection means.
  • the focal length of the multifocal optical lens is calculated so that the zoom magnification is lower than the set zoom magnification, and the subject motion detection unit moves the subject and the photographing device motion.
  • the focus of the multifocal optical lens is set so that the set zoom magnification is obtained.
  • An electronic zoom processing means for changing the image size by electronic zoom, an electronic zoom image electronically zoomed by the electronic zoom processing means, or a framing image display means for displaying the optical zoom image, and the zoom magnification. And a recording medium means for storing the optical zoom image. That.
  • wide-angle shooting is selected on the assumption that framing that is not suitable for shooting intentions is likely to occur when the subject or the shooting apparatus moves, thereby preventing the subject from being missed.
  • the optical zoom is switched to wide angle photography (shortening the focal length of the multifocal lens), the scene is photographed over a wide range, and the subject is captured within the angle of view.
  • An electronic zoom is used to display the image on the viewfinder where the photographer confirms framing.
  • An area corresponding to 4x zoom magnification is cut out from a wide-angle shot image as a frame area, and enlarged to the size of the display image displayed on the viewfinder with electronic zoom.
  • the recording medium stores the wide-angle shot image determined by the optical zoom and the zoom factor specified by the photographer.
  • the zoom magnification the frame area confirmed by the photographer through the viewfinder can be specified on the wide-angle shot image, and the outer frame area other than the frame area can be used for framing resetting.
  • the photographing apparatus further resets at least one of the zoom magnification stored in the recording medium means and the position on the optical zoom image of the frame area determined by the zoom magnification. From the framing resetting means and the optical zoom image stored in the recording medium means, the zoom magnification and the frame area reset by the framing resetting means on the optical zoom image Framing changing means for cutting out the frame area using the position may be provided.
  • the photographing apparatus further performs compression coding for performing compression coding of an image at an individual compression rate on the frame region and an outer frame region obtained by removing the frame region from the optical zoom image.
  • Means, and decompression decoding means for performing decompression decoding of an image compression-encoded with the frame area and the outer frame area at individual compression rates.
  • the photographing apparatus further includes an address adjustment unit that individually performs address management on the recording medium unit for the frame region and an outer frame region obtained by removing the frame region from the optical zoom image. And capacity management means for overwriting the address of the outer frame area with the data of the frame area when the recording capacity of the recording medium means reaches the upper limit. As a result, it is possible to lengthen the time during which the video of the frame area more important for the photographer is recorded.
  • the frame region setting means detects regularity from the movement of the photographing apparatus detected by the photographing apparatus motion detection means, and prefetches the framing based on the detected regularity.
  • the frame region in the optical zoom image may be moved.
  • the frame area moves in the direction of movement of the photographic device within the optical zoom image, so that the subject can be captured in a shorter time and the spillage is minimized. Can do.
  • the frame region setting unit may include the optical zoom image in the region where the subject motion is detected when the subject motion detected by the subject motion detection unit is greater than or equal to a predetermined change.
  • the frame area may be moved. This makes it possible to move the frame area to, for example, a person who suddenly moves faster or a person who suddenly stops moving, so automatically capture important areas in detail, for example, with a surveillance camera. be able to.
  • the photographing apparatus further includes an image feature detection unit that detects at least one of a specific color and a specific image pattern from the optical zoom image
  • the focal length calculation unit includes: When at least one of the specific color and the specific image pattern is detected by the image feature detection means, the focal length of the multifocal optical lens is calculated so that the zoom magnification is lower than the set zoom magnification,
  • the frame area The area setting means may move the frame area in the optical zoom image so as to include the specific color and the specific image pattern detected by the image feature detection means. As a result, the frame area can be moved to an area including a specific color and a specific image pattern, so that an important area can be automatically photographed in detail with a surveillance camera, for example.
  • the present invention can be realized not only as such a photographing apparatus but also as a photographing method that uses characteristic means provided in such a photographing apparatus as a step, or to perform these steps. It can also be realized as a program executed by a computer. Needless to say, such a program can be distributed via a recording medium such as a CD-ROM or a transmission medium such as the Internet.
  • optical zoom and electronic zoom are used properly according to the motion detection of the subject or video camera, the possibility that the subject will miss the angle of view is minimized, and the video recording capacity is also minimized.
  • a photographing apparatus to be suppressed will be described.
  • FIG. 5 is a block diagram showing a configuration of the imaging apparatus according to Embodiment 1 of the present invention.
  • the imaging apparatus 100 is an apparatus for imaging the subject 200, and includes a multifocal optical lens unit 101, a focal length control unit 102, a focal length calculation unit 103, an image sensor unit 104, and a zoom magnification setting unit 105.
  • An attitude sensor unit 114 is provided.
  • a solid line indicates the flow of video data
  • a dotted line indicates the flow of control data.
  • the multifocal optical lens unit 101 changes the angle of view of the captured image IC formed on the image sensor unit 104 by changing the focal length.
  • the focal length is calculated by the focal length calculation unit 103 according to the zoom magnification ZF set by the zoom magnification setting unit 105, and the focal length of the multifocal optical lens unit 101 is set via the focal length control unit 102.
  • FIG. 6 shows the relationship between the focal length F, the length of the subject 200 to be imaged (corresponding to the angle of view) L, the distance D between the subject 200 and the multifocal optical lens 101, and the size S of the image sensor 104. These are the relationships of (Equation 1) have,
  • the focal length F and the angle of view L are inversely proportional. For example, if the focal length F is increased by 4 times from 35 mm to 14 Omm, the angle of view L is reduced by 1Z4 and an enlarged image with a magnification of 4 times is obtained. You can shoot.
  • zoom magnification setting section 105 the zoom magnification ZF is set by the photographer.
  • the zoom magnification ZF is set to 1 when the multifocal optical lens unit 101 has the shortest focal length and the widest field angle.
  • the zoom magnification ZF set by the zoom magnification setting unit 105 is input to the focal length calculation unit 103, the recording media unit 108, and the framing change unit 109.
  • the subject motion detection unit 106 detects the motion of the subject 200
  • the imaging device motion detection unit 107 detects the motion of the imaging device 100.
  • the detection result is input to the focal length calculation unit 103, and the focal length calculation unit 103 sets the focal length to the shortest (for example, 35 mm)
  • the multifocal optical lens unit 101 is set to a state where the optical zoom with the widest angle of view is 1 ⁇ .
  • the purpose of such an operation is that when at least one of the subject 200 and the photographing device 100 moves, the photographer cannot control the framing as intended, and the subject 200 is likely to lose the angle of view.
  • the focal length calculation unit 103 uses the zoom magnification setting unit 105. Is output to the focal length control unit 102, and the multifocal optical lens unit 101 is set to 4x optical zoom (for example, 140mm when 35mm is set to 1x).
  • the subject motion detection method has an arbitrary force.
  • FIGS. 7A and 7B a method of obtaining a difference between two images having different times is used.
  • FIG. 7A shows a case where the subject 200 moves in the right direction between time TO and time TE, and it is assumed that the photographing apparatus 100 is stationary.
  • the captured images be the captured image ICi1 and the captured image ICi, respectively.
  • the interval between time Ti-1 and time Ti depends on the frame rate and is usually 1/30 second.
  • a threshold is set for the difference value, and it is determined that there is movement when the threshold is exceeded. Also, the threshold setting is set for the number of pixels that is just the pixel value. If the threshold for the number of pixels is not exceeded, it is considered noise and ignored.
  • the photographing apparatus 100 is stationary.
  • the photographing apparatus 100 tracks to the left side, the same photographed image as in FIGS. 7A and 7B is obtained. Therefore, the movement of the imaging device 100 can also be detected by the principle of FIGS. 7A and 7B.
  • FIG. 8 when the photographing apparatus 100 and the subject 200 move simultaneously, the relative positional relationship between the time Ti-1 and the time Ti is stored, and the photographed image ICi1 and the photographed image ICi are the same. Can be considered.
  • the method for obtaining the difference value shown in FIGS. 7A and 7B cannot detect the movement of the photographing apparatus 100 or the movement of the subject 200. Therefore, as shown in FIG.
  • the posture sensor 114 is built in the photographing apparatus 100 to detect the movement of the photographing apparatus 100.
  • the subject motion detection method shown in FIG. 7A and FIG. 7B is an example, and the present invention can use any subject motion method. However, regardless of which method is applied, the motion of the photographing apparatus 100 is detected independently. Then, since the accuracy of motion detection of the subject 200 is improved, the posture sensor 114 can be used effectively.
  • As the attitude sensor 114 an angular velocity sensor, an acceleration sensor, or the like is used.
  • the recording media unit 108 stores the captured image IC output from the image sensor unit 104 and the zoom magnification ZF output from the zoom magnification ZF setting unit 105 with time.
  • the correspondence between the shot image IC and zoom magnification ZF can be found by referring to the recorded time.
  • the subject motion detection unit 106 or the imaging device motion detection unit 107 detects the motion of the subject 200 or the imaging device 100, the multifocal optical lens unit 101 is set to 1 optical zoom, so the zoom magnification ZF Regardless of the setting value, the recorded image IC with 1x optical zoom is recorded.
  • the framing resetting unit 109 and the framing changing unit 110 do not operate at the time of shooting, but operate when the recorded video is reproduced and the framing is reset. Therefore, at the time of shooting, the zoom magnification ZF given from the zoom magnification setting unit 105 passes through the framing change unit 110 and is input to the frame area setting unit 111 and the electronic zoom processing unit 112.
  • the operation description of the framing resetting unit 109 and the framing change unit 110 will be described later as the operation description during playback after the operation description during shooting.
  • the frame area setting unit 111 sets a frame area ICF to be cut out from the captured image IC output, which is the output of the image sensor unit 104, according to the zoom magnification ZF.
  • the electronic zoom processing unit 112 The frame area ICF is cut out, and a framing image IDF is generated by electronic zoom using image processing.
  • the framing image display unit 113 displays the framing image IDF to the photographer.
  • FIG. 10 shows details of the captured image IC and the framing image IDF of FIG.
  • the captured image IC has the number of pixels PC and the number of lines LC, and matches the number of pixels and the number of lines of the image sensor section 104.
  • the framing image IDF has the number of pixels PD and the number of lines LD, and matches the number of pixels and the number of lines of the framing image display unit 113.
  • the intersection of the dotted lines represents the optical axis position of the multifocal optical lens unit 101 and coincides with the center of the captured image IC and the framing image IDF.
  • the zoom magnification ZF is set to 1 when the multifocal optical zoom unit 101 has the widest angle
  • the number of pixels of the frame area ICF that is cut out with the angle of view narrowed according to the zoom magnification ZF is (PC) / (ZF), The number is (LC) Z (ZF).
  • the number of pixels (PC) / (ZF) is converted into the number of pixels PD, and the number of lines (LC) / (ZF) is converted into the number of lines LD.
  • Apply electronic zoom When the number of pixels PD is larger than the number of pixels (PC) Z (ZF), or when the number of lines LD is larger than the number of lines (LC) Z (ZF), the electronic zoom becomes image enlargement.
  • the image enlargement method is arbitrary, and FIGS. 11 and 12 show examples of the image enlargement method.
  • FIG. 11 is a diagram for explaining the linear interpolation method.
  • the solid line indicates the pixel position of the enlarged image (corresponding to the frame area ICF in Fig. 10), and the intersection of the solid lines indicates the pixel.
  • Pixel P1 has pixel value S1
  • pixel P2 has pixel value S2
  • pixel P3 has pixel value S3
  • pixel P4 has pixel value It has the value S4.
  • the dotted line indicates the pixel position of the enlarged image (corresponding to the framing image IDF in Fig. 10), and the pixel value SD of the pixel DFP is obtained by the linear interpolation calculation of (Equation 2).
  • FIG. 12 is a diagram for explaining a database reference type image enlargement method.
  • the electronic zoom processing unit 112 includes an image feature analysis unit 301, a densified database 302, a category selection unit 303, and an image generation unit 307 as shown in FIG.
  • the densified database 302 includes a feature category database 304, a conversion table database 305, and a densified image feature quantity database 306.
  • Image feature amount FIS is a feature amount that represents the texture of an image (a general term for patterns and patterns that express glossiness or unevenness).
  • the coefficient is the wavelet transform. Expressed as a multidimensional vector. In other words, wavelet transform outputs HL, LH, HH, and LL are obtained at each of n scalings, and these are bundled for each layer to obtain a (3n + l) -dimensional vector. This is used for the image feature FIS.
  • the densified database 302 converts the image feature amount FIS into a highly dense image feature amount FISH having a high spatial density.
  • the densification database 302 holds image feature amount conversion information for densification for each image feature category. Therefore, the category of the image feature amount FIS is selected by the category selection unit 303, and the image feature category # 2 is selected in the example of FIG. For example, if the image feature category is set for each type of material of the subject (for example, skin, wood, stone, fabric, etc.) and the image feature amount is increased, the texture of the material can be saved, and the image quality of the enlarged image can be improved. The quality can be controlled.
  • the image feature category specified by the category selection unit 303 is the image feature category database 304. Referring to FIG.
  • the image feature category # 2 is selected. If the category number (# 2 in this example) is determined by referring to the image feature category database 304, the same category number is selected in the conversion table database 305, and the category number of the dense image feature to be referenced (in this example, # 2) 10) is obtained. In accordance with the category number of the high-density image feature amount, the high-density image feature amount is selected from the high-density image feature amount database 06, and in this example, the high-density image feature amount # 10 is used as the high-density image feature amount FISH. It is output to 307.
  • the image generation unit 307 converts the densified image feature amount into the enlarged image IL by inverse conversion of the processing of the image feature analysis unit 301. When wavelet transform is used for the image feature analysis unit 301, inverse wavelet transform is applied.
  • FIG. 14 is a flowchart for explaining the operation of the photographing apparatus 100.
  • the focal length control unit 102 sets the focal length of the multifocal optical lens unit 101 to the shortest and resets the zoom magnification ZF to 1. Since the frame area setting unit 111 and the electronic zoom processing unit 112 operate with a zoom magnification ZF of 1, the framing image display unit 113 displays an image with the widest angle of view with the zoom magnification ZF of 1 (S102). The zoom magnification setting unit 105 is released to the photographer (S103), and the photographer can change the zoom magnification ZF at any timing.
  • the subject motion detection unit 106 starts monitoring the motion of the subject
  • the photographing device motion detection unit 107 Starts monitoring the movement of the photographing apparatus (S104).
  • the focal length calculation unit 103 calculates the focal length so that the zoom magnification ZF becomes 1, and the focal length control unit 102 multi-focuss.
  • the optical lens unit 101 is set to a wide angle corresponding to a magnification of 1 (S105).
  • a frame area ICF corresponding to the zoom magnification ZF is set from a wide-angle image with a magnification of 1, and the electronic zoom processing unit 112 cuts out the frame area ICF (S106).
  • the electronic zoom processing unit 112 enlarges or reduces the image so that the frame area ICF matches the image size of the framing image display unit 113 (S107).
  • the electronic zoom image is displayed on the framing image display unit 113 (S108), and the captured image IC and the zoom magnification ZF are stored in the recording media unit 108 (S109).
  • shooting ends YES in S110
  • the operation ends. If shooting continues (NO in S110), the process returns to the step of detecting at least one of the movement of the subject and the movement of the photographing apparatus (S104).
  • the multifocal optical lens unit 101 is set to the zoom magnification ZF set by the photographer (S112).
  • the captured image IC output from the image sensor section 104 is displayed on the framing image display section 113 (S108).
  • the framing resetting unit 109 is a means for correcting the framing set at the time of shooting after shooting, and can change the position of the frame area ICF and the zoom magnification ZF.
  • FIG. 15A and FIG. 15B are diagrams for explaining a framing resetting method.
  • the image ICTo is a captured image stored in the recording media unit 108 at the time of shooting, and includes an outer frame area ICM. The intention is to photograph the upper body of a person who moves to the right. Before the recorded image ICTo was recorded, it was a framing that captured the upper body of the subject 201. When the captured image ICT o was taken, it was found that the height of the subject 202 was larger than the subject 201, and the frame was out.
  • the method for specifying the center position of the frame area and the zoom magnification is the same as that at the time of shooting. Play back the captured image stored in the recording media section 108, and move the imaging apparatus 100 in the direction to be corrected while checking the framing on the framing image display section 113. At the same time, adjust the zoom setting section 105.
  • the movement of the photographing apparatus 100 is detected by the posture sensor 114 (FIG. 9), and the change in the optical axis position in the photographed image IC is read.
  • slow down the playback speed eg, 1Z5 seconds
  • the photographer may change the playback speed.
  • the center position ICFC 1 and the zoom magnification ZF of the changed frame area are stored in the recording media unit 108 via the framing change unit 110.
  • the photographer can select “overwrite mode” in which past data is deleted and only new changed data is left, or “copy mode” in which past changed data is recorded and new changed data is recorded.
  • “copy overwrite mode” can be used in which the temporary correction is performed in the copy mode, the correction result is reproduced and confirmed by the framing image display unit 113, and then the overwrite mode is executed.
  • the photographer can instruct the ability to delete the data in the outer frame area ICM after creating the changed data, and whether to keep it.
  • the size of the frame area ICFo is determined according to the zoom magnification ZF, and the number of pixels included in the frame area ICFo is 1 / (ZF) '2 of the entire image ICTo. For example, when the zoom magnification ZF is 2 times, it becomes 1Z4, and when the zoom magnification ZF power is double, it becomes 1Z16.
  • the number of pixels included in the outer frame area ICM is the number of pixels after subtracting the image ICTo overall power frame area ICFo, so when the zoom magnification ZF is 2 it becomes 3Z4, and when the zoom magnification ZF is 4 times, It becomes 15Z16.
  • Outer frame area that is relatively unlikely to be used Frame area that is likely to be used Since it includes more pixels than ICF, when the recording capacity of the recording media unit 108 is considered to be a certain value (for example, 30 GB), in order to extend the recording time, the outer frame area It can be easily understood that the deletion is effective. For example, assuming that the image size of the image sensor unit 104 is 2560 pixels x 1920 lines and the recording capacity of the recording media unit 108 is 30 GB, the upper limit of the recording capacity is reached in about 86 seconds for an RGB 24-bit image.
  • the image size of the framing image display unit 113 is 640 pixels x 480 lines
  • the image size of the frame area ICF is 1Z 4 for both the number of pixels and the line number of the captured image IC
  • the outer frame area ICM is 15Z16. It becomes. Therefore, if the subject 200 and the shooting device 100 are both stationary or if the outer frame area is deleted after shooting, the recording capacity will be reduced to 15 Z16, and if the recording limit is 30 GB, the recording time will be approximately Extends to 1080 seconds (approximately 18 minutes).
  • the electronic zoom processing unit 112 performs electronic zooming based on the image processing illustrated in FIGS. 11 and 12, the number of pixels and the number of lines in the image sensor unit 104 can be reduced. For example, if the imaging element unit 104 is set to 1280 pixels ⁇ 960 lines and the electronic zoom processing unit 112 performs double enlargement, a frame area ICF equivalent to 2560 pixels ⁇ 1920 lines can be obtained. Since both the number of pixels and the number of lines in the image sensor section 104 are reduced to 1Z2, the recording time on the recording media section 108 is four times longer. For example, if the recording capacity of the recording media section 108 is 30 GB, the recording capacity is about 334. Seconds (5 minutes 34 seconds). If the outer frame area ICM is not saved, it will be extended to 72 minutes.
  • the optical zoom is set to 1 when at least one of the subject motion and the photographing device motion is detected.
  • the present invention limits the magnification of the optical zoom. For example, it may be 1.5 times.
  • the essence of the operation is to change to wide-angle shooting when at least one of subject movement or camera movement is detected, and the numerical value can be set arbitrarily as long as the magnification is suitable for preventing shooting of the subject. it can.
  • FIG. 16 is a block diagram showing a configuration of the imaging apparatus according to Embodiment 2 of the present invention.
  • the same parts as those in the photographing apparatus shown in FIG. 5 are denoted by the same reference numerals, and detailed description thereof is omitted.
  • the imaging apparatus 400 is an apparatus for imaging the subject 200, and includes a multifocal optical lens unit 101, a focal length control unit 102, a focal length calculation unit 103, an image sensor unit 104, and a zoom magnification setting unit 105.
  • Subject motion detection unit 106, imaging device motion detection unit 107, recording media unit 108, framing resetting unit 109, framing change unit 110, frame area setting unit 111, electronic zoom processing unit 112, framing image display unit 113, posture A sensor 114, a compression encoding unit 401, and a decompression decoding unit 115 are provided.
  • the compression code unit 401 performs image compression processing on the frame area ICF and the outer frame area ICM set by the frame area setting unit 111 at different compression rates, and outputs them to the recording media unit 108.
  • the frame area ICF is highly likely to be used for image display. Since the outer frame area is unlikely to be used for image display, it is highly compressed to the outer frame area for the purpose of reducing recording capacity. Apply rate and extend recording time. Increasing the compression rate causes image quality deterioration, but providing the outer frame area can prevent missing images.
  • the image size of the image sensor unit 104 is 2560 pixels x 1920 lines and the recording capacity of the recording media unit 108 is 30 GB, the upper limit of the recording capacity is reached in about 86 seconds for an RGB 24-bit image.
  • the image size of the framing image display unit 113 is 640 pixels x 480 lines
  • the image size of the frame area ICF is 1 Z4 for both the number of pixels and the number of lines for the captured image IC, and the outer frame area ICM Occupies 15Z16.
  • the recording capacity of one frame is about 7.6 MB
  • the recording capacity of the recording media section 108 is 30 GB.
  • the recording time is about 132 seconds (2 minutes 12 seconds), which is about 1.5 times longer.
  • the decompression decoding unit 402 decompresses and decodes the compression-encoded photographed image IC to obtain an electronic zoom. Output to the image processing unit 112.
  • the frame area and the outer frame area may be compressed with the same compression ratio, but by switching the compression ratio as described above, it is possible to efficiently save the captured image on the recording medium. it can.
  • an imaging apparatus that controls at least one of the size of a frame area and the compression rate in accordance with the movement of a subject and the degree of movement of the imaging apparatus will be described.
  • FIG. 17 is a block diagram showing a configuration of the imaging apparatus according to Embodiment 3 of the present invention. Note that the same parts as those in the photographing apparatus shown in FIG. 16 are denoted by the same reference numerals, and detailed description thereof is omitted.
  • the imaging apparatus 500 is an apparatus for imaging the subject 200, and includes a multifocal optical lens unit 101, a focal length control unit 102, a focal length calculation unit 103, an image sensor unit 104, and a zoom magnification setting unit 105.
  • Subject motion detection unit 106, imaging device motion detection unit 107, recording media unit 108, framing resetting unit 109, framing change unit 110, frame area setting unit 503, electronic zoom processing unit 112, framing image display unit 113, posture A sensor 114, a compression code key unit 501, and a decompression decoding key unit 502 are provided.
  • the subject motion detection unit 106 outputs the subject motion detection result to the focal length calculation unit 103, and sends the subject motion detection result to the frame region setting unit 503, the compression encoding unit 501, and the decompression decoding unit 502. Output.
  • the subject motion detection unit 106 outputs a degree of subject motion that is not just binary information without motion Z in the output to the frame region setting unit 503, the compression encoding unit 501 and the decompression decoding unit 502. To do.
  • the degree of movement refers to the ratio of the number of pixels in which the subject movement is detected in the captured image IC, and, if attention is paid to changes over time, the collection of pixels in which the subject movement is detected There are two viewpoints: the force that is moving only.
  • the movement of the subject is two images that move back and forth in time (
  • the difference between the pixel values of the image ICi-1 at time Ti-1 and the image ICi) at time Ti is determined for each pixel, and it is determined that a motion has occurred in the pixel having the difference value. Therefore, it is determined that the greater the area of the hatched portion of the image ICOPT representing the distribution of the difference value, the greater the degree of movement of the subject.
  • the degree of movement of the subject increases, there is a high possibility that framing cannot be set as intended, so the frame area ICF is reduced and the outer frame area ICM is increased to improve the accuracy of preventing spillage.
  • FIGS. 18A and 18B show three captured images ICi-1, a captured image ICi, and a captured image ICi + 1 that are continuous at time Ti-1, time Ti, and time Ti + 1.
  • the difference between time Ti-1 and time Ti is image ICOPT1
  • the difference between time Ti and time Ti + 1 is image ICOPT2.
  • the center of gravity of the moving pixel indicated by the diagonal line in the image ICOPT1 is the point CP1
  • the center of gravity of the moving pixel indicated by the diagonal line in the image ICOPT2 is the point CP2. It can be seen that the group of elements is moving. That is, the vertical dotted line CV1 passing through the point CP1 and the vertical dotted line CV2 passing through the point CP2 are at different positions.
  • the method of changing the size of the frame region ICF with the compression ratio fixed according to the degree of movement of the subject has been described, but the size of the frame region ICF is fixed in the same manner.
  • the size control of the frame area ICF according to the degree of movement of the subject and the outer frame area I CM compression rate control can be performed simultaneously. At that time, the smaller the size of the frame area ICF, the larger the enlargement ratio of the image enlargement processing executed by the electronic zoom processing unit 112.
  • FIG. 17 has been described with respect to the movement of the subject.
  • the movement of the subject can be replaced with the movement of the photographing apparatus.
  • the degree of movement may be obtained when at least one of the movement of the subject or the movement of the photographing apparatus occurs.
  • FIG. 19 is a block diagram showing the configuration of the imaging apparatus according to Embodiment 4 of the present invention.
  • the same parts as those in the photographing apparatus shown in FIG. 5 are denoted by the same reference numerals, and detailed description thereof is omitted.
  • the imaging apparatus 600 is an apparatus for imaging the subject 200, and includes a multifocal optical lens unit 101, a focal length control unit 102, a focal length calculation unit 103, an image sensor unit 104, and a zoom magnification setting unit 105.
  • Subject motion detection unit 106, imaging device motion detection unit 107, recording media unit 604, framing resetting unit 109, framing change unit 110, frame area setting unit 111, electronic zoom processing unit 112, framing image display unit 113, posture A sensor 114, a captured image data unit 601, a memory address adjustment unit 602, and a memory capacity management unit 603 are provided.
  • the captured image data portion 601 has a storage area for the frame area ICF and a storage area for the outer frame area ICM separately, and is identified by a memory address.
  • memory addresses 0000 to 1FFF are used for the frame area
  • memory addresses 2000 to FFFF are used for the outer frame area.
  • the memory address adjustment unit 602 allocates memory addresses according to the frame region ICF and the outer frame region ICM given to the frame region setting unit 104. In charge.
  • the memory capacity management unit 603 monitors the recording capacity of the recording media unit 108, and when there is no remaining capacity, instructs the memory address adjustment unit 602 to overwrite the frame area ICF with the memory address space of the outer frame area ICM. I will do it. By such an operation, it is possible to increase the recording time by extending the recording time of the frame area that is likely to be used relatively.
  • the degree of movement is recorded from the subject motion detection unit 106 and the imaging device motion detection unit 107 into the captured image data unit via the memory address adjustment unit 602. Therefore, as shown in FIG. 20, all the outer frame regions ICM have the same degree of movement.
  • the remaining capacity of the recording capacity runs out and the frame area is overwritten in the memory space of the outer frame area ICM, the data power with a small degree of motion is overwritten in order.
  • the frame area and the outer frame area can be managed separately on the recording medium, and when the remaining recording procedure runs out, an imaging device can be provided to overwrite the outer frame area, thereby minimizing spillage. It can be reduced and the recording time can be extended.
  • the photographing device moves the posture sensor.
  • An imaging apparatus that moves the framing area in the pre-reading movement direction and captures the subject in a shorter V ⁇ time will be described.
  • FIG. 21 is a block diagram showing a configuration of an imaging apparatus according to Embodiment 5 of the present invention.
  • the same parts as those in the photographing apparatus shown in FIG. 5 are denoted by the same reference numerals, and detailed description thereof is omitted.
  • the imaging apparatus 700 is an apparatus for imaging the subject 200, and includes a multifocal optical lens unit 101, a focal length control unit 102, a focal length calculation unit 103, an image sensor unit 104, and a zoom magnification setting unit 105.
  • An indicator 113 and an attitude sensor 114 are provided.
  • the posture sensor unit 114 outputs the posture information of the photographing apparatus 700 to the frame region setting unit 701.
  • the frame area setting unit 701 continues to monitor the posture information in time, and if a certain regularity (for example, panning in the right direction continues for 2 seconds) is detected in the movement of the photographing apparatus 700.
  • the imaging device 700 predicts that the same movement will continue in the future, and the frame area is moved in the imaging image IC in the moving direction of the imaging device (for example, panning to the right). Quickly capture the subject.
  • FIG. 22 shows an example in which the photographing apparatus 700 is panned in the right direction.
  • the subjects are a person 201, a person 202, and a person 203.
  • a thin solid line square indicates the outer frame ICM, and a thick solid line square indicates the frame area ICF.
  • the photographer sets the zoom magnification ZF for framing the frame area ICF, and the electronic zoom processing unit 112 electronically zooms the frame area ICF and displays it on the framing image display unit 113.
  • the upper row in FIG. 22 is a conventional example, and the center of the frame area ICF coincides with the optical axis.
  • the bottom row is an example of prefetching the frame area ICF. Assume that continuous panning in the right direction is detected from monitoring of cumulative posture information up to time Ti 3 (for example, panning in the right direction lasts for 2 seconds). Therefore, at time Ti-2, the frame area ICFTi-2 moved to the right.
  • the photographer notices that the face of the subject 203 is framed out, tilts the photographing device 700 upward at time Ti-1, and captures the entire face of the subject 203 in the frame area ICF at time Ti. It was. Since the photographer confirmed that the entire face of the subject 203 was captured by the framing image display unit 113, it was not necessary to move the photographing device 700, and the panning to the right of the photographing device 700 stopped at the time Ti, and at the same time Prefetching of frame area ICF has also stopped. Therefore, the center of the frame area ICTi has returned to the optical axis.
  • the frame of the subject 203 is noticed at time Ti 1, and at the time Ti, the photographing device 700 is in the middle of tilting. Absent.
  • the face of the target subject 203 was chased only by the movement of the photographing device 700, but it was not completed yet at the time Ti. I quickly caught the face of the target 203.
  • the frame area moves in the direction of movement of the photographic device within the captured image IC, Short! Captures the subject in time and minimizes spillage.
  • the compression encoding unit 401 compresses and encodes the frame area ICF at a low compression rate, and compresses and encodes the outer frame ICM at a high compression rate.
  • the fact that the shooting device 700 is moving means that there is a subject that is important to the photographer ahead of the direction of movement, and capturing this within the frame area is the shooting intention.
  • the important frame area has little image quality deterioration! It is not important as a shooting intention!
  • the outer frame ICM uses a high compression ratio with large image quality deterioration.
  • the operations of the compression code key unit 401 and the decompression decoding unit 402 are the same as those in FIG.
  • FIG. 23 is a block diagram showing a configuration of an imaging apparatus according to Embodiment 6 of the present invention.
  • the same parts as those in the photographing apparatus shown in FIG. 5 are denoted by the same reference numerals, and detailed description thereof is omitted.
  • the imaging apparatus 800 is an apparatus for imaging the subject 200, and includes a multifocal optical lens unit 101, a focal length control unit 102, a focal length calculation unit 103, an image sensor unit 104, and a zoom magnification setting unit 105.
  • Subject motion detection unit 106 imaging device motion detection unit 107, recording media unit 108, framing resetting unit 109, framing change unit 110, frame area setting unit 801, electronic zoom processing unit 112, framing image display unit 113, and Equipped with attitude sensor 114 Yes.
  • the subject motion detection unit 106 outputs the degree of subject motion to the frame region setting unit 801.
  • the frame area setting unit 801 continues to monitor the degree of movement of the subject, and when a sudden change is detected, the frame area ICF automatically moves to that area.
  • a sudden change in motion is determined by the change in the center of gravity of the group of pixels in which the motion described with reference to FIGS. 18A and 18B, and if the amount of change in the center of gravity exceeds the threshold, it is assumed that a sudden motion has occurred.
  • the center of gravity that continues to move for a certain period of time automatically moves to the center of gravity where the center of the frame area ICF stopped when it suddenly stopped.
  • a zoom area is automatically assigned to a person who suddenly moves faster or a person who suddenly stops moving. For example, an important area is automatically captured in detail using a surveillance camera. be able to.
  • FIG. 24 is a block diagram showing a configuration of the imaging apparatus according to Embodiment 7 of the present invention.
  • the same parts as those in the photographing apparatus shown in FIG. 5 are denoted by the same reference numerals, and detailed description thereof is omitted.
  • the imaging apparatus 900 is an apparatus for imaging the subject 200, and includes a multifocal optical lens unit 101, a focal length control unit 102, a focal length calculation unit 103, an image sensor unit 104, and a zoom magnification setting unit 105.
  • Subject motion detection unit 106 imaging device motion detection unit 107, recording media unit 108, framing resetting unit 109, framing change unit 110, frame area setting unit 902, electronic zoom processing unit 112, framing image display unit 113, posture A sensor 114, an image feature detection unit 901, a sound sensor unit 903, and a sound feature detection unit 905 are provided.
  • the image feature detection unit 901 detects a specific color or a specific image pattern in the captured image IC.
  • a specific color is specified by a pixel value, for example, gray whose RGB values are both 100-120, or red whose R value is 200 or more and whose G and B values are 10 or less.
  • the type of pixel value is arbitrary and can be freely selected from YUV, HVC, and XYZ and LAB colorimetric values.
  • the specific image pattern is, for example, a feature vector in which the captured image IC is divided into blocks of 5 ⁇ 5 pixels, for example, and pixel values of 25 pixels are formed as elements.
  • the character image is divided into blocks, a feature vector is obtained, and stored in the image feature detection unit 901. Assume that an inner product with the feature vector of the character image is obtained for each block of the photographed image IC, and a character is detected when the inner product exceeds a threshold value.
  • the image feature detection unit 901 detects a specific color or image pattern
  • the image feature detection unit 901 outputs position information of the detection position to the frame region setting unit 902.
  • the frame area setting unit 902 moves the center position of the frame area ICF to the center position of the detection position.
  • the frame area setting unit 902 moves the frame area ICF so as to include all of these.
  • a zoom area is automatically assigned. For example, an important area can be automatically captured in detail with a surveillance camera or the like.
  • the sound sensor unit 903 senses sound from the sound source 904.
  • a plurality of directional microphones are incorporated, and the position of the sound source 904 is specified by the volume level.
  • the sound feature detection unit 905 has a threshold for a change in volume, and when a loud sound is suddenly heard, a sound volume is suddenly reduced, or a sound having a specific frequency pattern is detected.
  • the position information of the sound source 904 is output to the frame area setting unit 902.
  • the frame area setting unit 902 Set the frame area ICF with the sound source position in C as the center position of the frame area ICF.
  • a specific event is detected by a change or occurrence of sound, such as when the volume suddenly increases or decreases, or when a sound with a specific frequency pattern is generated.
  • a zoom area is assigned so that important areas can be automatically photographed in detail, for example, with a surveillance camera.
  • FIG. 25 shows an overview of the imaging apparatus according to Embodiment 8 of the present invention
  • FIG. 26 shows an operation mode selection screen, and the condition setting method for each operation mode is described with reference to FIGS. The
  • image capturing apparatus 1000 has an operation mode selection 'adjustment dial unit 1001. By operating this, operation mode for which setting is desired to be changed from the operation mode selection screen shown in FIG. Select.
  • the operation modes are given names such as a subject shooting spill prevention mode 12000, a compression rate variable mode 1300, an outer frame overwrite mode 1400, a framing reset mode 1500, and a prefetch mode 1600.
  • the subject shooting spill prevention mode 1200 is selected.
  • FIG. 27 is a setting screen for subject shooting spill prevention mode 1 200 displayed on framing image display unit 113. For each menu, a thick square BR is selected as the setting value.
  • the subject motion detection 1201 is turned ON, the subject motion detection unit 106 in FIG. 5 is enabled.
  • the subject motion detection sensitivity 1202 is increased, it is determined that the subject motion has occurred even when the number of motion detection pixels shown in FIGS. 7A and 7B is relatively small. If the subject motion detection sensitivity 1202 is lowered, it is determined that the subject motion has occurred when the number of motion detection pixels shown in FIGS. 7A and 7B is relatively large.
  • the photographing device motion detection 1203 is turned ON, the photographing device motion detection unit 107 in FIG. 5 is enabled.
  • the subject motion reflection degree 1205 represents the sensitivity of the size adjustment of the frame area ICF according to the degree of subject motion shown in FIG.
  • the subject motion reflection degree 1205 is high, the size of the frame area ICF changes sensitively even if the motion of the subject is relatively slow. Conversely, if the subject motion reflectivity 1205 is low, the size of the frame area ICF does not change abruptly even if the subject moves relatively quickly!
  • FIG. 28 is a setting screen of variable compression rate mode 1300 displayed on framing image display unit 113.
  • a bold square BR is selected as the setting value for each menu.
  • the frame area compression rate 1301 sets the compression rate of the image compression processing that the compression code unit 401 in FIG. 16 performs on the frame area ICF.
  • the outer frame compression rate 1302 sets the compression rate of the image compression processing that the compression encoding unit 401 performs on the outer frame region ICM. In this example, a low compression ratio is set in the frame area ICF and a high compression ratio is set in the outer frame area ICM, so that the recording capacity to the recording medium unit 108 is reduced.
  • the subject motion reflection degree 1303 represents the sensitivity of the size adjustment of the frame area ICF according to the degree of subject motion shown in FIG.
  • the frame area size-linked compression variable control 1304 When the subject movement reflection degree 1304 is high, the setting values of the frame area compression rate 1301 and the outer frame compression rate 1302 are sensitively applied to the compression code display unit 501 even if the subject movement is relatively slow. On the other hand, if the subject motion reflection degree 1304 is low, the set values of the frame area compression rate 1301 and the outer frame compression rate 1302 are suddenly applied to the compression code part 501 even if the subject moves relatively quickly. Not applicable.
  • the frame area size-linked compression variable control 1304 When the frame area size-linked compression variable control 1304 is turned ON, the compression ratio is lowered when the frame area ICF force S is small, and the compression ratio is increased when the frame area ICF is large. If the degree of movement of the object detected by the method shown in FIGS. 18A and 18B or the movement of the photographing apparatus 100 detected by the attitude sensor 114 in FIG. 9 is large, the frame area ICF is small in size. Therefore, take a large outer frame area to minimize spillage.
  • FIG. 29 is a setting screen for outer frame overwrite mode 1400 displayed on framing image display unit 113.
  • a bold square BR is selected as the setting value for each menu.
  • the recording time order overwriting 1401 overwrites the frame area ICF according to the order in which the outer frame area ICM is recorded in the recording media unit 108. Overwrite recording time order When 1401 is set to ON, the memory capacity management unit 603 in Fig. 9 notifies the memory address adjustment unit 602 that there is no remaining recording capacity. When this occurs, refer to the recording time of the outer frame area ICM and overwrite the oldest data power.
  • the subject movement degree overwriting order 1402 refers to the subject movement degree stored in the captured image data part 601 in FIG.
  • the subject movement degree is also overwritten in the frame area ICF in order.
  • the subject movement order overwriting 1402 is set to ON
  • the memory capacity management unit 603 in FIG. 19 notifies the memory address adjustment unit 602 that there is no remaining recording capacity
  • the subject motion degree is referred to.
  • the small data capacity will be overwritten.
  • the imaging device motion order overwriting 1403 refers to the motion degree of the photographing device stored in the photographed image data part 601 in FIG. 20, and the frame region ICF in ascending order of the degree of motion of the photographing device! Is overwritten. If the memory capacity management unit 603 in FIG. 19 notifies the memory address adjustment unit 602 that there is no remaining recording capacity, the shooting device motion order is overwritten by referring to the motion level of the shooting device.
  • the data power with small degree of movement is overwritten.
  • the subject motion order overwriting 1402 and the photographing device motion order overwriting 1403 are ON, so the frames in the outer frame area ICM are arranged in ascending order of the degree of motion of the subject and the photographing device together.
  • Area ICF is overwritten.
  • multiplication is used to match the movement degree of the subject and the movement degree of the photographing apparatus.
  • FIG. 30 is a setting screen for the framing reset mode 1500 displayed on the framing image display unit 113. For each menu, a bold square BR is selected as the setting value.
  • the playback speed 1501 is the speed at which the captured image is read from the recording media unit 108, and this is the refresh rate of the framing image IDF in the framing image display unit 113. Use this when you want to change the playback speed when you reset the framing, for example, to display 5 images per second.
  • the reset framing data overwrite mode 1502 overwrites the framing data at the time of shooting with the result of resetting the framing. That is, the framing changer 110 in FIG. 5 rewrites only the framing data and does not access the captured image.
  • the reset framing data copy mode 1503 newly stores the reset framing data in the recording media unit 108. That is, there is no data erased by the recording media unit 108.
  • Finalize 1504 selects whether to save or delete the outer frame area ICM when re-setting the framing. If the outer frame area ICM is stored, the ability to repeatedly correct framing consumes a large amount of the recording media unit 108 capacity. If the outer frame area ICM is deleted, the capacity of the recording media section 108 can be saved. The framing cannot be reset.
  • FIG. 31 is a setting screen for prefetch mode 1600 displayed on framing image display section 113.
  • a bold square BR is selected as the setting value for each menu.
  • the photographing apparatus moving direction 1601 cumulatively monitors the posture information from the posture sensor 114 and moves ahead of the frame area ICF in the moving direction of the photographing apparatus 700.
  • the subject motion change 1602 cumulatively monitors the motion information from the subject motion detection unit 106, and detects a subject that suddenly accelerated or stopped suddenly.
  • the frame area ICF is moved to the position of the center of gravity for motion detection. As described in FIG.
  • a specific color is set in the image feature detection unit 901 with an RGB value, a YUV value, or the like.
  • a specific color use the color palette 1606 as shown in Fig. 32, the method of numerical input 1607, or the area specification 1609 that specifies the area 1608 on the shot image as shown in Fig. 33. .
  • the frame area ICF moves to the position of the detection pattern.
  • the specific pattern is input using an area specification 1609 for specifying the area 1608 on the photographed image. As described with reference to FIG.
  • the sound 1605 moves the frame area ICF in the direction in which a sudden change in volume occurs or in the direction in which a sound having a specific frequency pattern is detected.
  • the sound feature detection unit 905 holds the conditions set in FIG. 34, and detects the volume change amount 1611, volume change direction 1612, and sound pattern 1613 of the sound information from the sound sensor unit 904.
  • the sound pattern 1613 records multiple types of voices (for example, men, women, children, adults, etc.), cars, buses, trains, doorbells, etc. in the memory of the sound feature detector 905 in advance. deep.
  • a user-defined area is provided in the memory of the sound feature detection unit 905 to record your own voice and family voice. Can record.
  • the initial value of the setting value is recorded in the memory for starting up the photographing apparatus, and the photographer changes the setting as necessary.
  • the changed set value is recorded in the memory for starting up the photographing apparatus, and the operation can be started under the photographer's setting conditions at the next start-up.
  • the operation described in the first to seventh embodiments can be divided into a plurality of modes for each function, and the photographer can adjust the setting conditions for each mode. Therefore, it is possible to prioritize recording time, prioritize image quality, and shoot video with a high degree of freedom while ensuring that the subject is not missed.
  • FIG. 35A is a block diagram showing a configuration of the imaging apparatus according to Embodiment 9 of the present invention.
  • the photographing apparatus 1700 is an apparatus for photographing the subject 200, and includes a multifocal optical lens unit 101, a focal length control unit 102, a focal length calculation unit 103, an image sensor unit 104, a zoom magnification setting unit 105, Subject motion detection unit 106, imaging device motion detection unit 107, recording media unit 108, framing resetting unit 109, framing change unit 110, frame area setting unit 701, electronic zoom processing unit 112, framing image display unit 113, posture sensor 114, a display image generation unit 1701, and a display method setting unit 1702.
  • Display image generation unit 1701 obtains optical zoom image ICO from imaging element unit 104, and obtains electronic zoom image IEC from electronic zoom processing unit 112.
  • the multi-focal optical lens unit 101 is set to a wide angle by capturing the movement of the subject 200 that the subject motion detection unit 106 walks, and a wide-angle image such as an image IDW shown in FIG.
  • the zoom magnification setting unit 105 gives a zoom magnification ZF (for example, 4 times) for enlargement shooting to the zoom processing unit 112, and an enlarged image for enlarging the face of the subject 200 like the image IDF shown in FIG. 35C is generated.
  • the display image generation unit 1701 receives the optical zoom from the display method setting unit 1702.
  • ICO mode Electronic zoom image Display only IEC on framing image display 113
  • ICE mode optical zoom image ICO
  • electronic zoom image IEC Receives instructions on how to display both on the framing image display unit 113
  • the photographer can view the image IDW on the framing image display unit 113, that is, confirm the framing of wide-angle shooting including the outer frame area ICM.
  • the photographer can see the image IDF on the framing image display unit 113, that is, the framing of the enlarged shooting of the frame area ICF.
  • the ICOE mode the photographer can view the image IDWF shown in FIG. 35D on the framing image display unit 113. That is, the framing of the frame area ICF and the wide-angle shooting including the outer frame area ICM can be performed. You can check framing at the same time.
  • the photographer can confirm a plurality of framing by selecting the optical zoom image and the electronic zoom image, or by displaying both at the same time.
  • the photographer can check the margin of framing reset by viewing the optical zoom image.
  • by viewing the optical zoom image and the electronic zoom image at the same time it is possible to confirm the appearance outside the angle of view captured by the framing area ICF, to detect an unexpected event, or to use the multifocal optical lens unit 101.
  • the new subject that has entered the angle of view can be noticed at an early stage, and the photographer can decide the framing with the electronic zoom at the same time while suppressing the spillage.
  • the photographing apparatus generates a display image with an electronic zoom by setting the optical zoom to a wide angle when movement of the subject or the movement of the photographing apparatus is detected, and minimizing the shooting of the subject. To do.
  • only the optical zoom photographed image can be stored in the recording medium, and the photographing time can be extended. Therefore, if it is installed in a consumer video camera, you can shoot video with confidence in sports and entertainment.
  • detailed image information can be recorded by zooming, capturing important subjects without losing them for surveillance purposes, relying on subject movement, color, pattern, and sound.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

 被写体または撮影者が動いた場合であっても、被写体の撮りこぼしを最小限に抑え、かつ長時間録画することができる撮影装置および撮影方法を提供する。撮影装置(100)は、動きが検出された場合、設定されたズーム倍率よりズーム倍率が低くなるように多焦点光学レンズの焦点距離を算出し、動きが検出されなかった場合、設定されたズーム倍率となるように焦点距離を算出する焦点距離算出部(103)、撮影画像とズーム倍率を時間とともに保存する記録メディア部(108)、ズーム倍率に従って撮像素子部(104)の出力である撮影画像から切り出すフレーム領域ICFを設定するフレーム領域設定部(111)、フレーム領域(ICF)から電子ズームでフレーミング画像(IDF)を生成する電子ズーム処理部(112)、およびフレーミング画像(IDF)を表示するフレーミング画像表示部(113)を備える。

Description

明 細 書
撮影装置および撮影方法
技術分野
[0001] 本発明は、画像撮影に係り、撮影意図と映像を分離して記録する技術に関するも のである。
背景技術
[0002] 近年、様々な機器のデジタルィ匕と集積ィ匕技術の高度化によって、映像をデジタル 記録できるカメラ、すなわち、デジタルビデオカメラが広く普及してきた。デジタル記 録は、他のメディアとの親和性が高ぐネットワークでの配信や映像編集など、様々な 利用形態が民生用途で広がりを見せている。
[0003] カメラは、図 1Aに示すように、シーン 1801の中力も一部を切り出して画像データと して保存する。切り出す位置は撮影者が撮影意図に応じて決定し、シーンの中に切 り出し枠 1802を設定する意味合いでフレーミングと呼ばれる。フレーミングを決める 要因は、カメラの位置 1803、カメラの方向 1804、カメラの角度 1805 (横向きに構え る力、縦向きに構える力 斜めに構えるか)、カメラの画角 1806の 4つである。このう ち、カメラの位置は、図 1Bの表 1807、および図 1Cに示すように、トラッキング 1808 ( 左右に水平移動)、ブーミング 1809 (鉛直移動)、ドリーイング 1810 (前後に水平移 動)で調整する。また、カメラの方向は、図 1Dに示すように、パンユング 1811 (カメラ 中心で水平方向に回転)、チルティング 1812 (カメラ中心で鉛直方向に回転)で調整 する。また、カメラの回転は、図 1Dに示すように、ローリング 1813 (光軸を中心に回 転)で調整する。カメラの画角は、ドリーイング 1810、ズーミング 1814で調整する。ズ 一ミングには、光学系の焦点距離を変更する光学ズームと、画像処理による電子ズ ームが利用される。以上のように、フレーミングは、トラッキング 1808からズーミング 1 814までの 7種類のカメラワークで撮影者によって決定される。
[0004] 撮影者は、撮影意図に応じて、図 1A〜図 1Dに示したカメラワークを使い分けて、 様々なフレーミングを作り出すことができる。たとえば、図 2は、撮影者 1901が被写体 1902の側面から正面に回りこみながら、かつ、ビデオカメラ 2001の多焦点レンズ 20 02の焦点距離を連続的に長くしてズーム倍率を上げる (ズームインする)撮影例を示 す図である。ここで、画像 IC1、画像 IC2、画像 IC3は、ビデオカメラ 2001のファイン ダ 2003に映し出される撮影画像を示し、それぞれ、撮影倍率 1倍、 2倍、 4倍に相当 する。この撮影例では、撮影者 1901は、体の移動と回転でトラッキングとパンユング を行いつつ、同時に、ズーミングを行う。
[0005] 以上のように、 7種類のカメラワークを自由に使 、分けることで、様々なフレーミング が設定でき、映像表現力を高めることができるが、同時に、自由度の高さ故に、カメラ ワークを撮影意図どおりに制御できず、フレーミングが不適正になる場合がある。たと えば、図 3は、被写体 1902が右方向に移動したため、トラッキングとパンユングの制 御が適正に実行できず、被写体 1902がフレーム力も外れて(フレームアウトして)撮 りこぼした例であり、図 2のように、常に被写体 1902を画面の中央に捉えたい、という 撮影意図どおりにフレーミングを設定できな力つた。被写体 1902は、時間 Tl、時間 Τ2、時間 Τ3と時間が進むごとに右に移動し、撮影者 1901は、トラッキングとパン- ングが適切に制御できず、画像 IC4に示すように、時間 T1で画面中央に捉えていた 被写体 1902が、画像 IC5に示すように、時間 Τ2では画面右側にずれ、次に、画像 I C6に示すように、時間 Τ3では画面右側にフレームアウトして、撮りこぼしが発生した
[0006] 以上のような撮影意図どおりにフレーミングが設定できな 、課題を解消するために 、フレーミングを撮影後に再設定できる技術が開示されている(例えば、特許文献 1 参照)。すなわち、図 4Αに示すように、ビデオカメラ 2001の多焦点レンズ 2002の焦 点距離を短く(たとえば 35mm)して、広角で撮影し、画角 2101を確保して被写体 1 902を捉え、取りこぼしを防ぐ。撮影画像は、図 4Bに示す画像 IC7のように、被写体 1902をフレーム内に捉えるが、トラッキングとパンユングが適切に制御できない影響 で、画面の右側にずれたフレーミングになる。図 3の画像 IC6は、ビデオカメラ 2001 の多焦点レンズ 2002の焦点距離を長く(たとえば 140mm)して画角を画角 2102の ように狭め、ズーム倍率 4倍の撮影画像をフレーム 2201として得ている。そこで、図 2 の画像 IC3のように、被写体 1902を画面中央に捉えたい、という撮影意図に合致さ せるために、フレーム 2202で画像 IC8を切り出し、これをファインダ 2003に表示する 。撮影時のフレーミングはフレーム 2201であった力 これを撮影後に、フレーム 220 2に再設定して、撮影意図どおりのフレーミングを確保している。
[0007] 力!]えて、特許文献 1では、画像処理によるズーミングである電子ズームで画質が劣 化する対策として、画素数とライン数の多い高精細撮像素子を利用する。多焦点レン ズ 2002の焦点距離を、たとえば 35mmから 140mmに 4倍長くすると、画角は、画角 2101力ら画角 2102に変更され、ファインダ 2003には、画角 2101の場合の 4倍の 大きさで被写体 1902が映し出される。もし、ビデオカメラ 2001の撮像素子の画素数 とライン数がファインダ 2003と同一で、たとえば 640画素 X 480ラインであったとする と、被写体 1902がフレームアウトしないように、画角 2101で広角撮影すると、フアイ ンダ 2003に表示したい領域は 1Z4に小さくなる。そこで、画像 IC7を 640画素 X 48 0ラインで得た場合、切り出したいフレーム 2202は、 160画素 X 120ラインになり、 6 40画素 X 480ラインのファインダ 2003に表示するために、画像処理で 4倍拡大を行 う必要がある。特許文献 1では、画像処置による画像拡大を避けるために、ビデオ力 メラ 2001の撮像素子の画素数とライン数を増やし、切り出し処理のみで、画角 2102 の光学ズーム 4倍と同等の画質を得る。すなわち、ファインダ 2003の画像サイズが、 640画素 X 480ラインであるとすると、撮像素子には、 2560画素 X 1920ラインを用 いる。
特許文献 1 :特開 2005— 12423号公報(図 3)
非特許文献 1 :日本ビクター株式会社、「ハードディスクムービー、主な仕様」、 [平成 18年 2月 10日検索]、インターネットく URL:http : //www. jvc— victor, co. jp Z dvmain/ gz— mg70/ spec. html>
発明の開示
発明が解決しょうとする課題
[0008] し力しながら、従来の技術では、撮影画像が保存される記録メディアの記録容量が 考慮されていない課題を有する。たとえば、 2560画素 X I 920ラインの撮像素子を 用いた場合、 RGB24ビットのフレーム画像 1枚の容量は約 14. 7MBであり、 1秒間 に 30フレーム撮影すると、 1秒間の記録容量は約 441MBになる。たとえば、非特許 文献 1のビデオカメラを想定した場合、ハードディスクの容量が 30GBであるので、特 許文献 1の方式で映像を記録すると、約 68秒でディスク容量を使い切る。また、非特 許文献 1のビデオカメラを想定した場合、動画記録時間は 7時間 (画質モードを最高 レベルにした場合)であるため、撮影画像を圧縮して、 7時間分の映像を 30GBのハ ードディスクに記録するには、約 0. 3%までデータ量を削減しなければならない。
[0009] そこで、本発明は上記の事情に鑑みてなされたものであり、被写体または撮影者が 動いた場合であっても、被写体の撮りこぼしを最小限に抑え、かつ長時間録画するこ とができる撮影装置および撮影方法を提供することを目的とする。
課題を解決するための手段
[0010] 上記目的を達成するため、本発明に係る撮影装置は、多焦点光学レンズの焦点距 離を制御することによってズーム倍率を替えて被写体を撮影する撮影装置であって、 前記被写体の動きを検出する被写体動き検出手段と、当該撮影装置の動きを検出 する撮影装置動き検出手段と、前記被写体動き検出手段によって前記被写体の動 き、および前記撮影装置動き検出手段によって当該撮影装置の動きのうち少なくとも 一方が検出された場合、設定されたズーム倍率よりズーム倍率が低くなるように前記 多焦点光学レンズの焦点距離を算出し、前記被写体動き検出手段によって前記被 写体の動き、および前記撮影装置動き検出手段によって当該撮影装置の動きが検 出されなかった場合、設定された前記ズーム倍率となるように前記多焦点光学レンズ の焦点距離を算出する焦点距離算出手段と、前記多焦点光学レンズの焦点距離を 前記焦点距離算出手段によって算出された焦点距離に合わせるように制御する焦 点距離制御手段と、前記多焦点光学レンズによって結像された前記光学ズーム画像 の中から前記ズーム倍率により位置と大きさが決定されるフレーム領域を切り出すフ レーム領域設定手段と、前記フレーム領域設定手段によって切り出された前記フレ ーム領域の画像を表示する画像サイズとなるように電子ズームで変更する電子ズー ム処理手段と、前記電子ズーム処理手段によって電子ズームされた電子ズーム画像 、または前記光学ズーム画像を表示するフレーミング画像表示手段と、前記ズーム倍 率と前記光学ズーム画像とを保存する記録メディア手段とを備えることを特徴とする。 発明の効果
[0011] 本発明に係る撮影装置および撮影方法よれば、被写体あるいはビデオカメラが動 いて撮影意図どおりにフレーミングが制御できな力つた場合に、広角撮影画像力も画 像を切り出すことでフレーミングを修正できる。また、フレーミングの再設定の可能性 が低い場合、記録メディアへの記録容量を削減することで、映像の記録時間を長くす ることができる。さらに、記録メディア上のデータ管理を、表示画像として利用される可 能性の大小に応じた適応処理とすることで、映像の記録時間を長くすることができる 図面の簡単な説明
[図 1A]図 1Aは、本発明の背景技術を示す図である。
[図 1B]図 1Bは、本発明の背景技術を示す図である。
[図 1C]図 1Cは、本発明の背景技術を示す図である。
[図 1D]図 1Dは、本発明の背景技術を示す図である。
[図 2]図 2は、本発明の背景技術を示す図である。
[図 3]図 3は、本発明の背景技術を示す図である。
[図 4A]図 4Aは、本発明の背景技術を示す図である。
[図 4B]図 4Bは、本発明の背景技術を示す図である。
[図 5]図 5は、本発明の実施の形態 1に係る撮影装置の構成を示すブロック図である
[図 6]図 6は、焦点距離 F、画角 L、撮影距離 D、撮像素子の大きさ Sの関係を示す図 である。
[図 7A]図 7Aは、被写体動きの検出方法の一例を説明する図である。
[図 7B]図 7Bは、被写体動きの検出方法の一例を説明する図である。
[図 8]図 8は、時間 Ti 1と時間 Tiにおける撮影装置と被写体の相対的位置関係が 保存される例を説明する図である。
[図 9]図 9は、撮影装置の動きを検出する方法を説明する図である。
[図 10]図 10は、図 5の撮影画像 ICとフレーミング画像 IDFの詳細を示す図である。
[図 11]図 11は、線形補間法を説明する図である。
[図 12]図 12は、データベース参照型の画像拡大方法を説明する図である。
[図 13]図 13は、画像特徴量 FISをウェーブレット変換の係数で表現する方法を説明 する図である。
圆 14]図 14は、撮影装置の動作を説明するフローチャートである。
[図 15A]図 15Aは、フレーミングの再設定方法を説明する図である。
[図 15B]図 15Bは、フレーミングの再設定方法を説明する図である。
[図 16]図 16は、本発明の実施の形態 2に係る撮影装置の構成を示すブロック図であ る。
[図 17]図 17は、本発明の実施の形態 3に係る撮影装置の構成を示すブロック図であ る。
[図 18A]図 18Aは、被写体の動きの度合いを求める方法を説明する図である。
[図 18B]図 18Bは、被写体の動きの度合いを求める方法を説明する図である。
[図 19]図 19は、本発明の実施の形態 4に係る撮影装置の構成を示すブロック図であ る。
[図 20]図 20は、撮影画像データ部がフレーム領域 ICFの保存領域と外枠領域 ICM の保存領域をメモリアドレスで識別する方法を説明する図である。
[図 21]図 21は、本発明の実施の形態 5に係る撮影装置の構成を示すブロック図であ る。
[図 22]図 22は、先読みの方法を右方向へ撮影装置をパンニングする例で説明する 図である。
[図 23]図 23は、本発明の実施の形態 6に係る撮影装置の構成を示すブロック図であ る。
[図 24]図 24は、本発明の実施の形態 7に係る撮影装置の構成を示すブロック図であ る。
[図 25]図 25は、本発明の実施の形態 8に係る撮影装置の概観図である。
[図 26]図 26は、動作モードの選択画面を示す図である。
[図 27]図 27は、被写体撮りこぼし防止モードの設定画面を示す図である。
[図 28]図 28は、圧縮率可変モードの設定画面を示す図である。
[図 29]図 29は、外枠上書きモードの設定画面を示す図である。
[図 30]図 30は、フレーミング再設定モードの設定画面を示す図である。 [図 31]図 31は、先読みモードの設定画面を示す図である。
[図 32]図 32は、画像特徴検出部における特定の色の指定に用いるカラーパレット 16 06を説明する図である。
[図 33]図 33は、画像特徴検出部における特定の色の指定に用いるエリア指定 1609 を説明する図である。
[図 34]図 34は、音特徴検出部における音指定の設定画面を示す図である。
圆 35A]図 35Aは、本発明の実施の形態 9に係る撮影装置の構成を示すブロック図 である。
圆 35B]図 35Bは、本発明の実施の形態 9に係る撮影装置により撮影された画像を 示す図である。
圆 35C]図 35Cは、本発明の実施の形態 9に係る撮影装置により撮影された画像を 示す図である。
圆 35D]図 35Dは、本発明の実施の形態 9に係る撮影装置により撮影された画像を 示す図である。
符号の説明
100、 400、 500、 600、 700、 800、 900、 1000、 1700 撮景装置
101 多焦点光学レンズ部
102 焦点制御部
103 焦点距離算出部
104 撮像素子部
105 ズーム倍率設定部
106 被写体動き検出部
107 撮影装置動き検出部
108 記録メディア部
109 フレーミング再設定部
110 フレーミング変更部
111 フレーム領域設定部
112 電子ズーム処理部 113 フレーミング画像表示部
114 姿勢センサ部 114
200 被写体
発明を実施するための最良の形態
[0014] 本発明の実施の形態に係る撮影装置は、多焦点光学レンズの焦点距離を制御す ることによってズーム倍率を替えて被写体を撮影する撮影装置であって、前記被写 体の動きを検出する被写体動き検出手段と、当該撮影装置の動きを検出する撮影装 置動き検出手段と、前記被写体動き検出手段によって前記被写体の動き、および前 記撮影装置動き検出手段によって当該撮影装置の動きのうち少なくとも一方が検出 された場合、設定されたズーム倍率よりズーム倍率が低くなるように前記多焦点光学 レンズの焦点距離を算出し、前記被写体動き検出手段によって前記被写体の動き、 および前記撮影装置動き検出手段によって当該撮影装置の動きが検出されなかつ た場合、設定された前記ズーム倍率となるように前記多焦点光学レンズの焦点距離 を算出する焦点距離算出手段と、前記多焦点光学レンズの焦点距離を前記焦点距 離算出手段によって算出された焦点距離に合わせるように制御する焦点距離制御 手段と、前記多焦点光学レンズによって結像された前記光学ズーム画像の中から前 記ズーム倍率により位置と大きさが決定されるフレーム領域を切り出すフレーム領域 設定手段と、前記フレーム領域設定手段によって切り出された前記フレーム領域の 画像を表示する画像サイズとなるように電子ズームで変更する電子ズーム処理手段 と、前記電子ズーム処理手段によって電子ズームされた電子ズーム画像、または前 記光学ズーム画像を表示するフレーミング画像表示手段と、前記ズーム倍率と前記 光学ズーム画像とを保存する記録メディア手段とを備えることを特徴とする。
[0015] 具体的には、第 1に、被写体または撮影装置が動いた場合、撮影意図に適さない フレーミングが発生しやすい、と想定して広角撮影を選択し、被写体の取りこぼしを 防ぐ。すなわち、被写体あるいは撮影装置の動きが検出されたら、光学ズームを広角 撮影に切り替え (多焦点レンズの焦点距離を短くする)、広い範囲でシーンを撮影し、 被写体を画角内に捉える。撮影者がフレーミングを確認するファインダへの映像表示 には、電子ズームを用い、たとえば、撮影者がズーム倍率を 4倍に設定した場合は、 広角撮影画像からズーム倍率 4倍に対応した領域をフレーム領域として切り出し、電 子ズームでファインダに表示する表示映像のサイズに拡大する。記録メディアには、 光学ズームで決定された広角撮影映像と撮影者が指定したズーム倍率を保存する。 ズーム倍率を参照すれば、撮影者がファインダで確認したフレーム領域を広角撮影 映像上に特定でき、フレーム領域以外の外枠領域は、フレーミング再設定に利用で きる。
[0016] 第 2に、被写体と撮影装置がともに静止している場合は、撮影意図どおりにフレーミ ングを制御しやす ヽ、と想定して撮影時に設定されたフレーム領域のみが記録メディ ァに保存され、外枠領域は設けられない。そこで、撮影者がフレーミングを確認する ファインダへの映像表示には、光学ズームで撮影された画像がそのまま使われ、電 子ズームは動作しない (倍率 1倍とする)。従って、被写体と撮影装置の両方で動きが 検出されない場合は、表示に必要な画像サイズのみを記録メディアに保存して、記 録容量を削減する。
[0017] これによつて、ズーミングの光学的制御(光学ズーム)と電子的制御(電子ズーム)の 両方を利用して撮影意図に応じたフレーミングを設定し、撮影者に撮影意図どおりの 映像を表示することができる。また、被写体または撮影者が動いた場合であっても、 被写体の撮りこぼしを最小限に抑え、かつ長時間録画することができる。
[0018] また、前記撮影装置は、さらに、前記記録メディア手段に保存された前記ズーム倍 率、および前記ズーム倍率で決まるフレーム領域の前記光学ズーム画像上の位置の うち少なくとも 1つを再設定するフレーミング再設定手段と、前記記録メディア手段に 保存されている前記光学ズーム画像上の中から、前記フレーミング再設定手段によ つて再設定された前記ズーム倍率および前記フレーム領域の前記光学ズーム画像 上の位置を用いて前記フレーム領域を切り出すフレーミング変更手段とを備えてもよ い。
[0019] また、前記撮影装置は、さらに、前記フレーム領域と、前記光学ズーム画像から前 記フレーム領域を除いた外枠領域とを個別の圧縮率で画像の圧縮符号化を行う圧 縮符号化手段と、前記フレーム領域と前記外枠領域とを個別の圧縮率で圧縮符号 化された画像の伸長復号化を行う伸長復号化手段とを備えてもよ!ヽ。これによつて、 記録メディアの記録容量を削減することができる。すなわち、外枠領域は、フレーミン グの再設定が行われない限り利用されず、また、外枠領域すべてがフレーミングの再 設定で選択される可能性は低いため、外枠領域は相対的に圧縮率を高めて記録容 量の削減を優先し、フレーム領域は相対的に圧縮率を低めて画質を優先することが できる。
[0020] また、前記撮影装置は、さらに、前記フレーム領域と、前記光学ズーム画像から前 記フレーム領域を除いた外枠領域とを前記記録メディア手段上で個別にアドレス管 理を行うアドレス調整手段と、前記記録メディア手段の記録容量が上限に達した場合 、前記フレーム領域のデータを前記外枠領域のアドレスに上書きする容量管理手段 とを備えてもよい。これによつて、撮影者にとって、より重要なフレーム領域の映像が 記録される時間を長くすることができる。
[0021] また、前記フレーム領域設定手段は、前記撮影装置動き検出手段によって検出さ れた当該撮影装置の動きから規則性を検出し、検出した前記規則性に基づいて、フ レーミングを先読みするように前記光学ズーム画像の中の前記フレーム領域を移動 させてもよい。これによつて、撮影装置の動きに加え、フレーム領域が光学ズーム画 像内で撮影装置の移動方向に移動するので、より短い時間で被写体を捉えることが でき、撮りこぼしを最小限の抑えることができる。
[0022] また、前記フレーム領域設定手段は、前記被写体動き検出手段によって検出され た前記被写体の動きが所定の変化以上である場合、前記被写体の動きが検出され た領域へ前記光学ズーム画像の中の前記フレーム領域を移動させてもよい。これに よって、例えば突然動きを早めた人物や、突然動きを止めた人物などにフレーム領 域を移動することができるので、例えば監視カメラなどで、自動的に重要な領域を詳 細に撮影することができる。
[0023] また、前記撮影装置は、さらに、前記光学ズーム画像の中から、特定の色および特 定の画像パターンの少なくとも 1つを検出する画像特徴検出手段を備え、前記焦点 距離算出手段は、前記画像特徴検出手段によって前記特定の色および前記特定の 画像パターンの少なくとも 1つが検出された場合、設定されたズーム倍率よりズーム 倍率が低くなるように前記多焦点光学レンズの焦点距離を算出し、前記フレーム領 域設定手段は、前記画像特徴検出手段によって検出された前記特定の色および前 記特定の画像パターンを含むように、前記光学ズーム画像の中の前記フレーム領域 を移動させてもよい。これによつて、特定の色および特定の画像パターンを含む領域 にフレーム領域を移動することができるので、例えば監視カメラなどで、自動的に重 要な領域を詳細に撮影することができる。
[0024] なお、本発明は、このような撮影装置として実現することができるだけでなぐこのよ うな撮影装置が備える特徴的な手段をステップとする撮影方法として実現したり、そ れらのステップをコンピュータに実行させるプログラムとして実現したりすることもでき る。そして、そのようなプログラムは、 CD— ROM等の記録媒体やインターネット等の 伝送媒体を介して配信することができるのは言うまでもない。
[0025] 以下、本発明の実施の形態につき図面を参照して詳細に説明する。
[0026] (実施の形態 1)
本実施の形態では、被写体あるいはビデオカメラの動き検出に応じて光学ズームと 電子ズームを使い分け、被写体が画角力 外れる撮りこぼしの可能性を最小限に抑 えて、かつ映像の記録容量も最小限に抑える撮影装置について説明する。
[0027] 図 5は本発明の実施の形態 1に係る撮影装置の構成を示すブロック図である。
[0028] 撮影装置 100は、被写体 200を撮影するための装置であり、多焦点光学レンズ部 1 01、焦点距離制御部 102、焦点距離算出部 103、撮像素子部 104、ズーム倍率設 定部 105、被写体動き検出部 106、撮影装置動き検出部 107、記録メディア部 108、 フレーミング再設定部 109、フレーミング変更部 110、フレーム領域設定部 111、電 子ズーム処理部 112、フレーミング画像表示部 113、および姿勢センサ部 114を備 えている。実線は映像データの流れを示し、点線は制御データの流れを示す。
[0029] 多焦点光学レンズ部 101は、焦点距離を変更することによって、撮像素子部 104に 結像される撮影画像 ICの画角を変更する。焦点距離は、ズーム倍率設定部 105で 設定されたズーム倍率 ZFに従って焦点距離算出部 103で算出され、焦点距離制御 部 102を介して多焦点光学レンズ部 101の焦点距離が設定される。図 6は、焦点距 離 F、撮像される被写体 200の長さ(画角に相当) L、被写体 200と多焦点光学レンズ 101との距離 D、撮像素子 104の大きさ Sの関係を示し、これらは次の(式 1)の関係 を持つ,
[0030] [数 1]
F = -D (式 1 )
[0031] 焦点距離 Fと画角 Lは反比例の関係にあり、たとえば、焦点距離 Fが 35mmから 14 Ommへ 4倍長くなつた場合、画角 Lは 1Z4狭くなり、倍率 4倍の拡大画像が撮影でき る。
[0032] ズーム倍率設定部 105では、撮影者によってズーム倍率 ZFが設定される。ズーム 倍率 ZFは、多焦点光学レンズ部 101の焦点距離が最短で最も画角が広い状態を 1 倍とする。ズーム倍率設定部 105で設定されたズーム倍率 ZFは、焦点距離算出部 1 03と記録メディア部 108とフレーミング変更部 109に入力する。
[0033] 被写体動き検出部 106は被写体 200の動きを検出し、撮影装置動き検出部 107は 撮影装置 100の動きを検出する。被写体 200の動き、あるいは撮影装置 100の動き の少なくとも一方が検出された場合、焦点距離算出部 103に検出結果が入力され、 焦点距離算出部 103は焦点距離を最短 (たとえば 35mm)に設定し、多焦点光学レ ンズ部 101は画角が最も広い光学ズーム 1倍の状態に設定される。このような動作の 目的は、被写体 200と撮影装置 100の少なくとも一方が動いた場合に、撮影者がフ レーミングを撮影意図どおりに制御できなくなり、被写体 200が画角力も外れる可能 性が高い、と想定して、画角が最も広い光学ズーム 1倍に設定して、撮りこぼしを防止 するところにある。逆に、被写体 200に動きがなぐかつ撮影装置 100に動きがない 場合は、被写体 200が画角力も外れて撮りこぼしをする可能性は低いため、焦点距 離算出部 103はズーム倍率設定部 105から与えられるズーム倍率 ZF (たとえば 4倍) を焦点距離制御部 102に出力し、多焦点光学レンズ部 101は光学ズーム 4倍 (たとえ ば 35mmを 1倍とした場合、 140mm)に設定される。
[0034] 本発明にお 、て、被写体動きの検出方法は任意である力 たとえば、図 7Aおよび 図 7Bに示すように、時間の異なる 2つの画像の差分を求める方法などを利用する。 図 7Aは、時間 TOから時間 TEの間で被写体 200が右方向に移動した場合であり、 撮影装置 100は静止していたとする。時間 TOと時間 TEの間で連続する時間 Ti— 1 と時間 Tiを考え、撮影画像をそれぞれ、撮影画像 ICi 1、撮影画像 ICiとする。時間 Ti— 1と時間 Tiの間隔は、フレームレートに依存し、通常、 1/30秒である。図 7Bに 示す画像 ICOPTは、撮影画像 ICi— 1と撮影画像 ICiを画素単位で差分を求めた結 果であり、画素値が異なる画素を斜線で示した。実際はカメラノイズや、背景のわず 力な動きなどを含めて様々なノイズが存在するために、差分値に閾値を設けて、閾値 を超えた場合に動きありと判定する。また、閾値設定は、画素値だけでなぐ画素数 に対しても設定し、画素数に対する閾値を超えない場合はノイズと考えて無視する。
[0035] 上記の説明では、撮影装置 100が静止している仮定をおいた。逆に、被写体 200 が静止していて、撮影装置 100が左側へトラッキングした場合、図 7Aおよび図 7Bと 同じ撮影画像が得られる。そこで、撮影装置 100の動きも図 7Aおよび図 7Bの原理 で検出できる。しかし、図 8に示すように、撮影装置 100と被写体 200が同時に移動 して、時間 Ti—1と時間 Tiにおける相対的位置関係が保存され、撮影画像 ICi 1と 撮影画像 ICiが同一になる場合が考えられる。この場合は、図 7Aおよび図 7Bに示し た差分値を求める方法では、撮影装置 100の動き、あるいは被写体 200の動きを検 出できない。そこで、図 9に示すように、撮影装置 100に姿勢センサ 114を内蔵し、撮 影装置 100の動きを検出する。図 7Aおよび図 7Bに示した被写体動き検出方法は一 例であり、本発明は任意の被写体動き方法を利用できるが、いずれの方法を適用し たとしても、撮影装置 100の動きが独立に検出されれば、被写体 200の動き検出の 精度向上につながるため、姿勢センサ 114は有効に利用できる。姿勢センサ 114に は、角速度センサや加速度センサなどを用いる。
[0036] 記録メディア部 108は、撮像素子部 104から出力される撮影画像 ICとズーム倍率 Z F設定部 105から出力されるズーム倍率 ZFを時間とともに保存する。撮影画像 ICと ズーム倍率 ZFは記録された時間を参照することで、対応関係がわかる。被写体動き 検出部 106、あるいは撮影装置動き検出部 107が、被写体 200あるいは撮影装置 1 00の動きを検出した際、多焦点光学レンズ部 101は光学ズーム 1倍に設定されるた め、ズーム倍率 ZFの設定値に関わらず、光学ズーム 1倍の撮影画像 ICが記録される [0037] フレーミング再設定部 109とフレーミング変更部 110は、撮影時には動作せず、記 録した映像を再生してフレーミングを再設定する際に動作する。そこで、撮影時は、 ズーム倍率設定部 105から与えられたズーム倍率 ZFがフレーミング変更部 110を通 過して、フレーム領域設定部 111と電子ズーム処理部 112に入力される。フレーミン グ再設定部 109とフレーミング変更部 110の動作説明は、撮影時の動作説明の後、 再生時の動作説明として後述する。
[0038] フレーム領域設定部 111は、ズーム倍率 ZFに従って、撮像素子部 104の出力であ る撮影画像 ICカゝら切り出すフレーム領域 ICFを設定し、電子ズーム処理部 112は、 撮影画像 ICカゝらフレーム領域 ICFを切り出して、画像処理による電子ズームでフレー ミング画像 IDFを生成し、フレーミング画像表示部 113で撮影者にフレーミング画像 I DFを表示する。
[0039] 図 10は、図 5の撮影画像 ICとフレーミング画像 IDFの詳細を示す。撮影画像 ICは 、画素数 PC、ライン数 LCを有し、撮像素子部 104の画素数とライン数に一致する。 フレーミング画像 IDFは、画素数 PD、ライン数 LDを有し、フレーミング画像表示部 1 13の画素数とライン数に一致する。点線の交点は多焦点光学レンズ部 101の光軸 位置を表し、撮影画像 ICとフレーミング画像 IDFの中心と一致する。ズーム倍率 ZF は、多焦点光学ズーム部 101が最も広角の場合を倍率 1とするため、ズーム倍率 ZF に従って画角を狭めて切り出されるフレーム領域 ICFの画素数は (PC) / (ZF)、ライ ン数は (LC)Z(ZF)となる。
[0040] 次にフレーム領域 ICFをフレーミング画像表示部 113に表示するために、画素数( PC) / (ZF)を画素数 PDに、ライン数 (LC) / (ZF)をライン数 LDに変換する電子ズ ームを施す。画素数 PDが画素数 (PC)Z(ZF)より大きい場合、あるいは、ライン数 L Dがライン数 (LC)Z(ZF)より大きい場合、電子ズームは画像拡大になる。本発明に おいて、画像拡大方法は任意であり、図 11と図 12に画像拡大方法の例を示す。
[0041] 図 11は、線形補間法を説明する図である。実線は、被拡大画像(図 10のフレーム 領域 ICFに相当)の画素位置を示し、実線の交点が画素を示す。画素 P1は画素値 S 1を持ち、画素 P2は画素値 S2を持ち、画素 P3は画素値 S3を持ち、画素 P4は画素 値 S4を持つ。点線は拡大画像(図 10のフレーミング画像 IDFに相当)の画素位置を 示し、画素 DFPの画素値 SDを (式 2)の線形補間演算で求める。
[0042] [数 2]
SD =SA +wL{SB -SA)
Figure imgf000017_0001
-S,) …… (式 2) SB =S3 +wP{S4 -S3)
[0043] 図 12は、データベース参照型の画像拡大方法を説明する図である。この場合、電 子ズーム処理部 112は、図 12に示すように画像特徴解析部 301、高密化データべ ース 302カテゴリ選定部 303、および画像生成部 307を備えている。また、高密化デ ータベース 302は、特徴カテゴリデータベース 304、変換テーブルデータベース 305 、および高密化画像特徴量データベース 306を備えて 、る。
[0044] 被拡大画像 IS (図 10のフレーム領域 ICFに相当)は、画像特徴解析部 301で画像 特徴量 FISに変換される。画像特徴量 FISは、画像のテクスチャ (光沢感ゃ凹凸感な どを表す模様やパターンの総称)を表現する特徴量であり、たとえば、図 13に示すよ うに、ウェーブレット変換の係数を要素とする多次元ベクトルで表現する。すなわち、 n回のスケーリングそれぞれにおいてウェーブレット変換の出力 HL、 LH、 HH、 LLを 求め、これらを階層ごとに束ねることによって、(3n+l)次元ベクトルを得る。これが、 画像特徴量 FISに用いられる。高密化データベース 302は、画像特徴量 FISを空間 的に密度の高い高密化画像特徴量 FISHに変換する。高密化データベース 302は、 高密化のための画像特徴量の変換情報を画像特徴カテゴリごとに保有して ヽる。そ こで、画像特徴量 FISのカテゴリが、カテゴリ選定部 303で選定され、図 12の例では 、画像特徴カテゴリ #2が選択されている。画像特徴カテゴリは、たとえば、被写体の 材質の種類ごと (たとえば肌、木、石、生地など)に設定して画像特徴量を高密化す れば、材質のテクスチャを保存でき、拡大画像の画質を高品位に制御できる。カテゴ リ選定部 303で特定された画像特徴カテゴリは、画像特徴カテゴリデータベース 304 を参照して、最も類似するカテゴリを選択し、図 12の例では、画像特徴カテゴリ # 2が 選択されている。画像特徴カテゴリデータベース 304の参照によって、カテゴリ番号( この例では # 2)が決定すると、変換テーブルデータベース 305で同じカテゴリ番号 が選択され、参照すべき高密化画像特徴量のカテゴリ番号 (この例では # 10)が得ら れる。高密化画像特徴量のカテゴリ番号に従って高密化画像特徴量データベース 3 06から高密化画像特徴量が選択され、この例では、高密化画像特徴量 # 10が高密 化画像特徴量 FISHとして、画像生成部 307に出力される。画像生成部 307は画像 特徴解析部 301の処理の逆変換で高密化画像特徴量を拡大画像 ILに変換する。 画像特徴解析部 301にウェーブレット変換を用いた場合は、ウェーブレット逆変換を 適用する。
[0045] 以上のように、被写体動き検出部 106が被写体 200の動きを検出する力、あるいは 撮影装置動き検出部 107が撮影装置 100の動きを検出するか、少なくとも何れか一 方が検出されると、被写体 200を取りこぼす可能性が高いと想定して、画角を最も広 く取り、外枠領域 ICFを含めて撮影画像 ICが記録メディア部 108に保存される。逆に 、被写体 200と撮影装置 100がともに静止している場合は、被写体 200を取りこぼす 可能性が低 ヽと想定して、フレーム領域 ICFのみが撮影画像 ICとして記録メディア部 108に保存される。このような動作原理により、撮りこぼしの可能性を最小限に抑えつ つ、かつ記録メディア部 108への記録容量を最大限に削減できる。
[0046] 上記のように構成された撮影装置 100を用いて撮影者が被写体 200を撮影する場 合の動作にっ 、て説明する。
[0047] 図 14は、撮影装置 100の動作を説明するフローチャートである。
[0048] 撮影装置 100は、起動されると初期設定 (S101)として、焦点距離制御部 102が多 焦点光学レンズ部 101の焦点距離を最短に設定し、ズーム倍率 ZFを 1にリセットする 。フレーム領域設定部 111と電子ズーム処理部 112はズーム倍率 ZFを 1として動作 するため、フレーミング画像表示部 113にズーム倍率 ZFが 1の最も画角の広 、画像 が表示される (S102)。ズーム倍率設定部 105が撮影者に解放され (S103)、撮影 者は任意のタイミングでズーム倍率 ZFを変更できる。撮影者が録画ボタンを押すと、 被写体動き検出部 106は、被写体の動きの監視を開始し、撮影装置動き検出部 107 は、撮影装置の動きの監視を開始する(S104)。被写体の動きと撮影装置の動きの 少なくとも一方が検出されたら (S104で YES)、焦点距離算出部 103はズーム倍率 Z Fが 1となるように焦点距離を算出し、焦点距離制御部 102が多焦点光学レンズ部 10 1を倍率 1に相当する広角に設定する(S105)。倍率 1の広角画像からズーム倍率 Z Fに相当するフレーム領域 ICFを設定し、電子ズーム処理部 112はこのフレーム領域 ICFを切り出す(S106)。そして、電子ズーム処理部 112はフレーム領域 ICFをフレ 一ミング画像表示部 113の画像サイズに合致するように、画像拡大、あるいは画像縮 小を行う(S107)。電子ズーム画像をフレーミング画像表示部 113に表示し (S108) 、撮影画像 ICとズーム倍率 ZFとを記録メディア部 108へ保存する(S 109)。撮影終 了の場合 (S110で YES)は、動作が終了する。撮影が続いている場合 (S 110で NO )は被写体の動きおよび撮影装置の動きの少なくとも一方を検出するステップ(S104 )へ戻る。一方、被写体の動きと撮影装置の動きがともに検出されな力つたら (S104 で NO)、多焦点光学レンズ部 101を撮影者が設定したズーム倍率 ZFに設定する(S 112)。撮像素子部 104の出力の撮影画像 ICがフレーミング画像表示部 113で表示 される(S108)。
[0049] 以上の説明は、撮影時の動作に関するものであった力 これらにカ卩えて、再生時の フレーミング再設定の動作を次に説明する。
[0050] フレーミング再設定部 109は、撮影時に設定したフレーミングを、撮影後に修正す る手段であり、フレーム領域 ICFの位置とズーム倍率 ZFを変更できる。図 15Aおよび 図 15Bは、フレーミングの再設定方法を説明する図である。画像 ICToは撮影時に記 録メディア部 108に保存された撮影画像であり、外枠領域 ICMを含んでいる。撮影 意図は、右方向へ移動する人物の上半身を撮影する、とする。撮影画像 ICToが記 録される前は、被写体 201の上半身を捉えるフレーミングであった力 撮影画像 ICT oが撮影された時点で、被写体 202の身長が被写体 201より大きくことがわかり、フレ ームアウトした。そこで、撮影画像 ICT1のように、フレーミングを再設定したい、とする 。すなわち、フレーム領域 ICFoの中心位置 ICFCoを、フレーム領域 ICF1の中心位 置 ICFC1に移動し、かつ画角を広く(ズーム倍率を小さく)する。
[0051] フレーム領域の中心位置とズーム倍率の指定方法は、撮影時と同様で、撮影者は 記録メディア部 108に保存された撮影画像を再生し、フレーミング画像表示部 113で フレーミングを確認しながら、修正したい方向へ撮影装置 100を動かす。同時に、ズ ーム設定部 105を調整する。撮影装置 100の動きは姿勢センサ 114 (図 9)で検出し 、撮影画像 ICにおける光軸位置の変化を読み取る。フレーミングの再設定時には、 再生速度を落として (たとえば 1Z5秒)フレーミングの確認と操作に対して時間の余 裕を与える。また、再生速度の変更を撮影者が行っても構わない。変更されたフレー ム領域の中心位置 ICFC 1とズーム倍率 ZFはフレーミング変更部 110を介して記録メ ディア部 108に保存される。この際、撮影者は、過去のデータを削除して新しい変更 データのみを残す「上書きモード」や、過去のデータを残し、別途新しい変更データ を記録する「コピーモード」を選択できる。また、コピーモードで仮修正をし、修正結果 を再生してフレーミング画像表示部 113で確認してから上書きモードを実行する「コ ピー上書きモード」も利用できる。さらに、変更データを作成した後に外枠領域 ICM のデータを削除する力、残しておくかを撮影者が指示できる。なお、記録メディアの 記録容量を節約するには、上書きモードを選択し、過去のデータと変更データの両 方で外枠領域を削除することが望ましい。逆に、フレーミングの再設定を繰り返す可 能性が残る場合は、過去のデータと変更データの両方で外枠領域を残すことが望ま しい。フレーミングの再設定を繰り返す場合は、過去のデータに対して実施するか、 変更データに対して追加の変更を実施するか、を撮影者が選択できる。以上のように 、撮影時と同じ操作方法でフレーミングを再設定すると、撮影時のフレーミングの記 録 (撮影装置を上に向けるべきだつた)を参考にできるため、再設定の操作がスムー スになり、かつ、複数のフレーム画像力もなる動画像を一気に修正できるメリットがあ る。
フレーム領域 ICFoの大きさは、ズーム倍率 ZFに従って決まり、フレーム領域 ICFo に含まれる画素数は、画像 ICTo全体の 1/ (ZF) '2にある。たとえば、ズーム倍率 Z Fが 2倍の場合、 1Z4になり、ズーム倍率 ZF力 倍の場合、 1Z16になる。外枠領域 ICMに含まれる画素数は、画像 ICTo全体力 フレーム領域 ICFoを差し引いた画素 数であるから、ズーム倍率 ZFが 2倍の場合、 3Z4になり、ズーム倍率 ZFが 4倍の場 合、 15Z16になる。相対的に見て、利用される可能性の低い外枠領域 ICM力 利 用される可能性の高いフレーム領域 ICFよりも多くの画素を含むため、記録メディア 部 108の記録容量をある一定値 (たとえば 30GB)で考えた場合、録画時間を延ばす には、外枠領域の削除が効果的であることが容易に理解できる。たとえば、撮像素子 部 104の画像サイズを 2560画素 X 1920ラインとし、記録メディア部 108の記録容量 を 30GBとすると、 RGB24ビット画像の場合、約 86秒で記録容量の上限に達する。 仮に、フレーミング画像表示部 113の画像サイズを 640画素 X 480ラインとした場合 、フレーム領域 ICFの画像サイズは撮影画像 ICに対して画素数、ライン数ともに 1Z 4であり、外枠領域 ICMは 15Z16となる。そこで、被写体 200と撮影装置 100がとも に静止している場合、あるいは、撮影後に外枠領域を削除した場合、記録容量が 15 Z16に削減され、 30GBの記録上限であれば、録画時間が約 1080秒 (約 18分)ま で延びる。
[0053] また、電子ズーム処理部 112で図 11や図 12に例示した画像処理による電子ズー ムを実行すれば、撮像素子部 104の画素数とライン数を少なくできる。たとえば、撮 像素子部 104を 1280画素 X 960ラインにし、電子ズーム処理部 112で 2倍拡大を行 えば 2560画素 X 1920ライン相当のフレーム領域 ICFを得られる。撮像素子部 104 の画素数とライン数がともに 1Z2に削減されるため、記録メディア部 108への録画時 間も 4倍長くなり、たとえば、記録メディア部 108の記録容量を 30GBとすると、約 334 秒(5分 34秒)となり、外枠領域 ICMを保存しない場合は、 72分に延びる。
[0054] なお、図 5の説明では、被写体動き、あるいは撮影装置動きの少なくとも一方が検 出された際に光学ズームを 1倍に設定したが、本発明は光学ズームの倍率を限定す るものではなぐたとえば、 1. 5倍であっても構わない。動作の本質は、被写体動き、 あるいは撮影装置動きの少なくとも一方が検出された際に広角撮影に変更する、とこ ろにあり、被写体の撮りこぼし防止に適する倍率であれば、その数値は任意に設定 できる。
[0055] 以上により、被写体と撮影者の動きを監視し、光学ズームと電子ズームを使い分け ることで、被写体の撮りこぼしを最小限に抑え、かつ長時間録画が可能な撮影装置 を提供できる。また、フレーミングの再設定は、撮影時と同様に撮影装置を動かし、ズ ーム倍率を変更するため、新たな操作方法を覚える必要がなぐかつ動画像をスム ースに修正できる。
[0056] (実施の形態 2)
本実施の形態では、フレーム領域と外枠領域で画像データの圧縮率を切り替えて 撮影画像を記録メディアに保存する撮影装置について説明する。
[0057] 図 16は本発明の実施の形態 2に係る撮影装置の構成を示すブロック図である。な お、図 5に示す撮影装置と同様の部分については同じ符号を付し、詳細な説明を省 略する。
[0058] 撮影装置 400は、被写体 200を撮影するための装置であり、多焦点光学レンズ部 1 01、焦点距離制御部 102、焦点距離算出部 103、撮像素子部 104、ズーム倍率設 定部 105、被写体動き検出部 106、撮影装置動き検出部 107、記録メディア部 108、 フレーミング再設定部 109、フレーミング変更部 110、フレーム領域設定部 111、電 子ズーム処理部 112、フレーミング画像表示部 113、姿勢センサ 114、圧縮符号ィ匕 部 401、および伸長復号ィ匕部 115を備えている。
[0059] 圧縮符号ィ匕部 401は、フレーム領域設定部 111で設定されたフレーム領域 ICFと 外枠領域 ICMに異なる圧縮率で画像圧縮処理を施して記録メディア部 108へ出力 する。相対的にみて、フレーム領域 ICFは画像表示に利用される可能性が高ぐ外 枠領域は画像表示に利用される可能性が低いため、記録容量の削減を目的に、外 枠領域に高い圧縮率を適用し、録画時間を延ばす。圧縮率を高くすることで画質劣 化を招くが、外枠領域を設けることで撮りこぼしを防ぐことはできる。たとえば、撮像素 子部 104の画像サイズを 2560画素 X 1920ラインとし、記録メディア部 108の記録容 量を 30GBとすると、 RGB24ビット画像の場合、約 86秒で記録容量の上限に達する 。仮に、フレーミング画像表示部 113の画像サイズを 640画素 X 480ラインとした場 合、フレーム領域 ICFの画像サイズは撮影画像 ICに対して画素数、ライン数ともに 1 Z4であり、外枠領域 ICMは 15Z16を占める。そこで、外枠領域 ICMのデータ量を 1Z2に圧縮し、フレーム領域 ICFのデータ量を 3Z4に圧縮した場合は、 1フレーム の記録容量は約 7. 6MBで、記録メディア部 108の記録容量を 30GBとすると、録画 時間は約 132秒(2分 12秒)となり、録画時間が約 1. 5倍延びる。
[0060] 伸長復号ィ匕部 402は、圧縮符号化された撮影画像 ICを伸長復号化し、電子ズー ム処理部 112へ出力する。
[0061] 以上により、フレーム領域と外枠領域で画像データの圧縮率を切り替えて撮影画像 を記録メディアに保存することにより、録画時間を長くする撮影装置を提供できる。な お、フレーム領域および外枠領域を同じ圧縮率で圧縮符号ィ匕しても構わないが、上 記のように圧縮率を切り替えることによって、効率的に撮影画像を記録メディアに保 存することができる。
[0062] (実施の形態 3)
本実施の形態では、被写体の動きと撮影装置の動きの度合いに応じてフレーム領 域の大きさ、あるいは圧縮率の少なくとも一方を制御する撮影装置について説明する
[0063] 図 17は本発明の実施の形態 3に係る撮影装置の構成を示すブロック図である。な お、図 16に示す撮影装置と同様の部分については同じ符号を付し、詳細な説明を 省略する。
[0064] 撮影装置 500は、被写体 200を撮影するための装置であり、多焦点光学レンズ部 1 01、焦点距離制御部 102、焦点距離算出部 103、撮像素子部 104、ズーム倍率設 定部 105、被写体動き検出部 106、撮影装置動き検出部 107、記録メディア部 108、 フレーミング再設定部 109、フレーミング変更部 110、フレーム領域設定部 503、電 子ズーム処理部 112、フレーミング画像表示部 113、姿勢センサ 114、圧縮符号ィ匕 部 501、および伸長復号ィ匕部 502を備えている。
[0065] 被写体動き検出部 106は、被写体の動き検出結果を焦点距離算出部 103へ出力 するとともに、フレーム領域設定部 503と圧縮符号化部 501と伸長復号化部 502へ 被写体の動き検出結果を出力する。被写体動き検出部 106は、フレーム領域設定部 503と圧縮符号ィ匕部 501と伸長復号ィ匕部 502への出力において、動きのある Zなし の 2値情報だけではなぐ被写体の動きの度合いを出力する。動きの度合いとは、撮 影画像 ICの中で被写体動きが検出された画素数の割合と、時間変化に注目した場 合、被写体動きが検出された画素の集まりが撮影画像 ICの中でどれだけ移動してい る力、の 2つの観点がある。
[0066] 図 7Aおよび図 7Bに示したように、被写体の動きは時間的に前後する 2枚の画像( 図 7Aおよび図 7Bでは、時間 Ti— 1の画像 ICi— 1と時間 Tiの画像 ICi)の画素値の 差分を画素ごとに求め、差分値を持つ画素に動きが発生したと判断する。そこで、差 分値の分布を表す画像 ICOPTの斜線部分の面積が広 、ほど、被写体の動きの度 合いが大きいと判定する。被写体の動きの度合いが大きいほど、撮影意図どおりにフ レーミングを設定できない可能性が高いため、フレーム領域 ICFを小さく取り、外枠領 域 ICMを大きく取って、撮りこぼし防止の確度を高める。
[0067] 図 18Aおよび図 18Bは、時間 Ti— 1、時間 Ti、時間 Ti+ 1に連続する 3枚の撮影 画像 ICi— 1、撮影画像 ICi、撮影画像 ICi + 1を示す。時間 Ti— 1と時間 Tiの差分が 画像 ICOPT1であり、時間 Tiと時間 Ti+ 1の差分が画像 ICOPT2である。画像 ICO PT1の斜線で示された動きのある画素の重心は点 CP1であり、画像 ICOPT2の斜 線で示された動きのある画素の重心は点 CP2であり、被写体の動きが検出された画 素の集まりが、移動していることがわかる。すなわち、点 CP1を通る垂直方向の点線 CV1と点 CP2を通る垂直方向の点線 CV2が異なる位置にある。なお、被写体 200 は平行移動しているため、点 CP1を通る水平方向の点線 CH1と点 CP2を通る水平 方向の点線 CH2は同じ位置にある。点線 CV1と点線 CV2の不一致力も被写体の動 きが時間 Ti— 1から時間 Ti+ 1に至るまで連続していることが理解でき、被写体の動 きの度合いが大きいと判定される。被写体の動きの度合いが大きいほど、撮影意図ど おりにフレーミングを設定できな 、可能性が高 、ため、フレーム領域 ICFを小さく取り 、外枠領域 ICMを大きく取って、撮りこぼし防止の確度を高める。被写体動きが検出 された画素の集まりの重心位置を時間的に連続して監視し、重心位置が動き続ける ほど、被写体の動きの度合!、が大き!、と判定する。
[0068] 以上のように、被写体の動きの度合いに応じて、圧縮率を固定としてフレーム領域 I CFの大きさを変更する方法を説明したが、同じ要領でフレーム領域 ICFの大きさを 固定として画像圧縮の圧縮率を制御しても構わない。すなわち、圧縮符号化部 501 は、入力された動きの度合 、が大き!、場合は外枠領域 ICMを用いてフレーミングを 再設定する可能性が高!ヽため、外枠領域 ICMに施す画像圧縮の圧縮率を低くして 、画質レベルを高く保つ。
[0069] また、被写体の動きの度合いに応じたフレーム領域 ICFの大きさ制御と外枠領域 I CMの圧縮率の制御は、同時に実行できる。その際、フレーム領域 ICFの大きさが小 さくなるほど、電子ズーム処理部 112が実行する画像拡大処理の拡大率が大きくなる
。そこで、フレーム領域 ICFの大きさが小さくなるほど、フレーム領域 ICFに施す画像 圧縮の圧縮率は低くし、画質レベルを維持する。
[0070] 以上の説明では、被写体の動きを対象に図 17の動作を説明したが、被写体の動き を撮影装置の動きと置き換えてことができる。また、被写体の動き、あるいは撮影装置 の動きの少なくとも一方が発生した場合に、動きの度合いを求めても構わない。
[0071] 以上により、被写体の動きと撮影装置の動きの度合いに応じてフレーム領域の大き さ、あるいは圧縮率の少なくとも一方を制御する撮影装置を提供でき、被写体の撮り こぼしの最小限に抑え、かつ録画時間を長くできる。
[0072] (実施の形態 4)
本実施の形態では、フレーム領域と外枠領域を記録メディア上で別々に管理し、記 録容量の残量がなくなったら、外枠領域の保存領域に上書きする撮影装置について 説明する。
[0073] 図 19は本発明の実施の形態 4に係る撮影装置の構成を示すブロック図である。な お、図 5に示す撮影装置と同様の部分については同じ符号を付し、詳細な説明を省 略する。
[0074] 撮影装置 600は、被写体 200を撮影するための装置であり、多焦点光学レンズ部 1 01、焦点距離制御部 102、焦点距離算出部 103、撮像素子部 104、ズーム倍率設 定部 105、被写体動き検出部 106、撮影装置動き検出部 107、記録メディア部 604、 フレーミング再設定部 109、フレーミング変更部 110、フレーム領域設定部 111、電 子ズーム処理部 112、フレーミング画像表示部 113、姿勢センサ 114、撮影画像デ ータ部 601、メモリアドレス調整部 602、およびメモリ容量管理部 603を備えている。
[0075] 撮影画像データ部 601は、図 20に示すように、フレーム領域 ICFの保存領域と外 枠領域 ICMの保存領域を別々に有し、メモリアドレスで識別する。この例では、メモリ アドレスの 0000から 1FFFをフレーム領域に利用し、メモリアドレスの 2000から FFF Fを外枠領域に利用している。メモリアドレス調整部 602は、フレーム領域設定部 104 力 与えられるフレーム領域 ICFと外枠領域 ICMに応じて、メモリアドレスの割り振り を担当する。メモリ容量管理部 603は、記録メディア部 108の記録容量を監視し、残 量がなくなった場合、メモリアドレス調整部 602に指示を出して、フレーム領域 ICFを 外枠領域 ICMのメモリアドレス空間に上書きしていく。このような動作によって、相対 的に見て、利用される可能性の高いフレーム領域の記録時間を延ばして、録画時間 を長くできる。
[0076] また、被写体動き検出部 106と撮影装置動き検出部 107から動きの度合いをメモリ アドレス調整部 602経由で撮影画像データ部に記録する。そこで、図 20に示すよう に、すべての外枠領域 ICMは動きの度合いを合わせ持つ。記録容量の残量がなく なって、外枠領域 ICMのメモリ空間にフレーム領域を上書きする際には、動きの度合 いの小さなデータ力も順に上書きする。このように動作させることで、相対的に見て、 利用される可能性の少ない動きの少ない外枠領域力 上書きし、撮りこぼしを最小限 に抑え、かつ録画時間を延ばすことができる。
[0077] 以上により、フレーム領域と外枠領域を記録メディア上で別々に管理し、記録要領 の残量がなくなったら、外枠領域に上書きする撮影装置を提供でき、撮りこぼしを最 小限に抑え、かつ録画時間を延ばすことができる。
[0078] (実施の形態 5)
本実施の形態では、撮影者が撮影したい被写体が画角外にあり、これを撮影者が 撮影装置を移動することで被写体を画角内に捉えるカメラワークにおいて、撮影装置 が姿勢センサの動き力 先読みした移動方向にフレーミング領域を移動して、より短 Vヽ時間で被写体を捉える撮影装置にっ 、て説明する。
[0079] 図 21は本発明の実施の形態 5に係る撮影装置の構成を示すブロック図である。な お、図 5に示す撮影装置と同様の部分については同じ符号を付し、詳細な説明を省 略する。
[0080] 撮影装置 700は、被写体 200を撮影するための装置であり、多焦点光学レンズ部 1 01、焦点距離制御部 102、焦点距離算出部 103、撮像素子部 104、ズーム倍率設 定部 105、被写体動き検出部 106、撮影装置動き検出部 107、記録メディア部 108、 フレーミング再設定部 109、フレーミング変更部 110、フレーム領域設定部 701、圧 縮符号化部 401、伸長復号化部 402、電子ズーム処理部 112、フレーミング画像表 示部 113、および姿勢センサ 114を備えている。
姿勢センサ部 114は、撮影装置 700の姿勢情報をフレーム領域設定部 701に出力 する。フレーム領域設定部 701は、姿勢情報を時間的に監視し続けて、撮影装置 70 0の動きに一定の規則性 (たとえば、右方向へのパンユングが 2秒間続くなど)が見つ カゝつたら、撮影装置 700は将来も同じ動きを続けると予測し、フレーム領域を撮影画 像 IC内で撮影装置の移動方向(たとえば、右方向へのパン-ング)へ移動し、撮影 装置の動きよりも早く被写体を捉える。たとえば、図 22は、右方向へ撮影装置 700を パン-ングする例を示す。被写体は人物 201、人物 202、人物 203であり、細い実線 の四角が外枠 ICMを示し、太い実線の四角がフレーム領域 ICFを示す。撮影者はフ レーム領域 ICFをフレーミングするズーム倍率 ZFを設定し、電子ズーム処理部 112 は、フレーム領域 ICFを電子ズームしてフレーミング画像表示部 113に表示する。図 22の上段の 1列は、従来例であり、フレーム領域 ICFの中心が光軸に一致している。 下段の 1列は、フレーム領域 ICFを先読みする一例である。時間 Ti 3に至るまでの 累積的な姿勢情報の監視 (たとえば、右方向へのパンニングが 2秒間続 、た)から、 連続する右方向へのパンユングを検出した、とする。そこで、時間 Ti— 2ではフレーム 領域 ICFTi— 2が右方向に移動した。この時点で、撮影者は被写体 203の顔がフレ ームアウトすることに気づき、時間 Ti—1で撮影装置 700を上方へチルティングし、時 間 Tiには被写体 203の顔全体をフレーム領域 ICFに捉えた。撮影者はフレーミング 画像表示部 113によって被写体 203の顔全体を捉えたことを確認したため、撮影装 置 700を移動する必要はなくなり、時間 Tiで撮影装置 700の右方向へのパンユング は停止し、同時にフレーム領域 ICFの先読みも停止した。そこで、フレーム領域 ICTi の中心は光軸に戻った。一方、フレーム領域 ICFの先読みがない上段では、時間 Ti 1で被写体 203のフレームアウトに気づき、時間 Tiでは撮影装置 700のチルティン グの途中であり、被写体 203の顔をフレーム領域 ICFTiFOは捉え切れていない。つ まり、上段では撮影装置 700の動きのみで目的の被写体 203の顔を追いかけたが、 時間 Tiではまだ完了しておらず、下段では撮影装置 700の動きに加え、フレーム領 域の先読みでより早く目的の被写体 203の顔を捉えた。このように、撮影装置の動き に加え、フレーム領域が撮影画像 IC内で撮影装置の移動方向に移動すれば、より 短!、時間で被写体を捉えられ、撮りこぼしを最小限の抑えることができる。
[0082] 以上のような動きに加え、圧縮符号部 401はフレーム領域 ICFを低圧縮率で圧縮 符号化し、外枠 ICMを高圧縮率で圧縮符号化する。撮影装置 700が移動していると いうことは、移動方向の先に撮影者にとって重要な被写体が存在することを意味し、 これをフレーム領域内で捉えることが撮影意図であるため、撮影意図として重要なフ レーム領域は画質劣化の少な!ヽ低圧縮率を用い、撮影意図として重要でな!、外枠 I CMは画質劣化の大きい高圧縮率を用いる。なお、圧縮符号ィ匕部 401と伸長復号部 402の動作は、図 16と同一である。
[0083] 撮像装置を素早く移動すると、ブラーと呼ばれるボケが画像に生じ、被写体の詳細 が確認できない画質劣化につながる。そこで、ブラーが発生しない範囲で撮影装置 を動かし、さらにフレーム領域の先読みで撮影装置の動きをカバーすると、撮りこぼし の最小化と画質を両立できる。たとえば、無人の監視カメラなどでは、関心のある被 写体を画角内に納めつつ、被写体の詳細を記録したいという、広角と狭角の両立が 必要である。そこで、狭角力メラをパン'チルトで移動し、広角撮影を確保する方式が 取られる。本実施の形態は、パン'チルトの最中に、監視カメラ映像を見ているオペレ ータが注目の被写体を検出し、いち早ぐカメラを注目の被写体へ向ける際に、短い 時間で目的を達成できる効果を発揮できる。
[0084] (実施の形態 6)
本実施の形態では、動きに急激な変化が発生した領域へ自動的にズーム領域を 動力してズーム領域を先読みする撮影装置について説明する。
[0085] 図 23は本発明の実施の形態 6に係る撮影装置の構成を示すブロック図である。な お、図 5に示す撮影装置と同様の部分については同じ符号を付し、詳細な説明を省 略する。
[0086] 撮影装置 800は、被写体 200を撮影するための装置であり、多焦点光学レンズ部 1 01、焦点距離制御部 102、焦点距離算出部 103、撮像素子部 104、ズーム倍率設 定部 105、被写体動き検出部 106、撮影装置動き検出部 107、記録メディア部 108、 フレーミング再設定部 109、フレーミング変更部 110、フレーム領域設定部 801、電 子ズーム処理部 112、フレーミング画像表示部 113、および姿勢センサ 114を備えて いる。
[0087] 被写体動き検出部 106は被写体の動きの度合いをフレーム領域設定部 801へ出 力する。フレーム領域設定部 801は、被写体の動きの度合いを監視し続け、急激な 変化を検出すると、その領域へフレーム領域 ICFを自動的に移動する。急激な動き の変化は、図 18Aおよび図 18Bで説明した動きの発生した画素の集まりの重心位置 の変化で判断し、重心位置の変化量が閾値を越えたら、急激な動きが発生したとし て、現時点の重心位置(図 18Aおよび図 18Bでは、 CP2)にフレーム領域 ICFの中 心位置を移動する。逆に、一定時間に渡り移動し続ける重心位置が、突然停止した 際にフレーム領域 ICFの中心位置を停止した重心位置に自動的に移動する。
[0088] 以上により、突然動きを早めた人物や、突然動きを止めた人物などに自動的にズー ム領域が割り当てられ、たとえば監視カメラなどで、自動的に重要な領域を詳細に撮 影することができる。
[0089] なお、本実施の形態を監視カメラに適用する場合は、ノ ンニングとチルティングの 自動制御と組み合わせることで、より広い範囲で注目領域にズーミングできる。すな わち、動きが検出された画素の集まりの重心が画角力も外れそうになると、フレーム 領域 ICFは画角内に収まらず、撮影画像 ICの外側に出てしまう。これは動きの激しい 被写体が画角力 外れそうな状態を意味するため、フレーム領域 ICFが撮影画像 IC の外側に外れた方向に撮影装置 800の向きを変更すれば、被写体を画角内に捉え られる。フレーム領域 ICFが撮影画像 ICの横方向に外れた場合はパンユングを、フ レーム領域 ICFが撮影画像 ICの縦方向に外れた場合は、チルティングを自動制御 する。
[0090] (実施の形態 7)
本実施の形態では、特定の色や画像パターン、音などを検出した場合、その検出 方向へ自動的にズーム領域を動力してズーム領域を先読みする撮影装置について 説明する。
[0091] 図 24は本発明の実施の形態 7に係る撮影装置の構成を示すブロック図である。な お、図 5に示す撮影装置と同様の部分については同じ符号を付し、詳細な説明を省 略する。 [0092] 撮影装置 900は、被写体 200を撮影するための装置であり、多焦点光学レンズ部 1 01、焦点距離制御部 102、焦点距離算出部 103、撮像素子部 104、ズーム倍率設 定部 105、被写体動き検出部 106、撮影装置動き検出部 107、記録メディア部 108、 フレーミング再設定部 109、フレーミング変更部 110、フレーム領域設定部 902、電 子ズーム処理部 112、フレーミング画像表示部 113、姿勢センサ 114、画像特徴検 出部 901、音センサ部 903、および音特徴検出部 905を備えている。
[0093] 画像特徴検出部 901は、撮影画像 IC中の特定の色や特定の画像パターンを検出 する。特定の色とは、たとえば、 RGB値がともに 100— 120であるグレーや、 R値が 2 00以上で、 G値と B値が 10以下である赤など、画素値で指定する。画素値の種類は 任意であり、 YUVや HVC、測色値である XYZや LABなど、自由に選択できる。特 定の画像パターンとは、撮影画像 ICを、たとえば 5 X 5画素のブロックに分け、 25画 素の画素値を要素として形成した特徴ベクトルなどである。たとえば、特定の文字を 検出したい場合は、あら力じめ、文字画像をブロックに分け、特徴ベクトルを求めて、 画像特徴検出部 901に保持しておく。撮影画像 ICのブロックごとに文字画像の特徴 ベクトルとの内積を求め、内積が閾値を超えたら文字が検出されたとする。画像特徴 検出部 901は、特定の色や画像パターンを検出したら、検出位置の位置情報をフレ ーム領域設定部 902に出力する。フレーム領域設定部 902は、検出位置の中心位 置にフレーム領域 ICFの中心位置を移動させる。また、特定の色や画像パターンが 同時に複数検出された場合には、フレーム領域設定部 902は、これらすベてを含む ように、フレーム領域 ICFを移動させる。
[0094] 以上により、特定の色やパターンを検出すると、自動的にズーム領域が割り当てら れ、たとえば監視カメラなどで、自動的に重要な領域を詳細に撮影することができる。
[0095] 音センサ部 903は、音源 904からの音をセンシングする。音源 904の位置を特定す るために、指向性を持つ複数本のマイクロフォンを内蔵し、音量の大小で音源 904の 位置を特定する。音特徴検出部 905は、音量の変化に対する閾値を持ち、急激に大 きな音がした場合、あるいは、急激に音量が落ちた場合、あるいは、特定の周波数パ ターンを持つ音を検出した場合に音源 904の位置情報をフレーム領域設定部 902 に出力する。音源 904の位置情報を受けたフレーム領域設定部 902は、撮影画像 I Cのおける音源位置をフレーム領域 ICFの中心位置としてフレーム領域 ICFを設定 する。
[0096] 以上により、突然音量が大きくなつたり、音量が小さくなつたり、特定の周波数バタ ーンを持つ音が発生するなど、特定のイベントを音の変化や発生で検知して、自動 的にズーム領域が割り当てられ、たとえば監視カメラなどで、自動的に重要な領域を 詳細に撮影することができる。
[0097] (実施の形態 8)
本実施の形態では、実施の形態 1から実施の形態 7で説明した動作の詳細設定が 撮影者は調整できる撮影装置にっ ヽて説明する。
[0098] 図 25は本発明の実施の形態 8に係る撮影装置の概観を示し、図 26は動作モード の選択画面を示し、図 27から図 34を用いて各動作モードの条件設定方法を説明す る。
[0099] 図 25に示すように、撮影装置 1000は、動作モード選択'調整ダイヤル部 1001を 持ち、これを操作することで、図 26に示す動作モードの選択画面から設定を変更し たい動作モードを選択する。動作モードには、仮に、被写体撮りこぼし防止モード 12 00、圧縮率可変モード 1300、外枠上書きモード 1400、フレーミング再設定モード 1 500、先読みモード 1600と名称を与える。この例では、被写体撮りこぼし防止モード 1200が選択されている。
[0100] 図 27は、フレーミング画像表示部 113に表示された被写体撮りこぼし防止モード 1 200の設定画面である。各メニューに対して太線の四角 BRが設定値として選択され ている。被写体動き検出 1201を ONにすると図 5の被写体動き検出部 106が有効に なる。被写体動き検出感度 1202を高くすると、図 7Aおよび図 7Bに示した動き検出 画素の画素数が相対的に少数でも被写体動きがあつたと判定される。被写体動き検 出感度 1202を低くすると、図 7Aおよび図 7Bに示した動き検出画素の画素数が相 対的に多数の場合に被写体動きがあつたと判定される。撮影装置動き検出 1203を ONにすると図 5の撮影装置動き検出部 107が有効になる。撮影装置動き検出感度 1204を高くすると、図 9に示した姿勢センサ 114の変化量が相対的に小さくても撮影 装置に動きがあつたと判定される。撮影装置動き検出感度 1204を低くすると、姿勢 センサ 114の変化量が相対的に大きい場合に撮影装置に動きがあつたと判定される 。被写体動き反映度 1205は、図 17に示した被写体の動きの度合いに応じたフレー ム領域 ICFの大きさ調整の感度を表わす。被写体動き反映度 1205が高いと、被写 体の動きが相対的に遅くてもフレーム領域 ICFのサイズは敏感に変化する。逆に、被 写体動き反映度 1205が低いと、被写体の動きが相対的に早くてもフレーム領域 ICF のサイズは急激に変化しな!、。
[0101] 図 28は、フレーミング画像表示部 113に表示された圧縮率可変モード 1300の設 定画面である。各メニューに対して太線の四角 BRが設定値として選択されている。フ レーム領域圧縮率 1301は、図 16の圧縮符号ィ匕部 401がフレーム領域 ICFに施す 画像圧縮処理の圧縮率を設定する。外枠圧縮率 1302は、圧縮符号化部 401が外 枠領域 ICMに施す画像圧縮処理の圧縮率を設定する。この例では、フレーム領域 I CFに低い圧縮率が、外枠領域 ICMに高い圧縮率が設定されて、記録メディア部 10 8への記録容量を削減している。被写体動き反映度 1303は、図 17に示した被写体 の動きの度合 、に応じたフレーム領域 ICFの大きさ調整の感度を表わす。被写体動 き反映度 1304が高いと、被写体の動きが相対的に遅くてもフレーム領域圧縮率 130 1と外枠圧縮率 1302の設定値が圧縮符号ィ匕部 501に敏感に適用される。逆に、被 写体動き反映度 1304が低いと、被写体の動きが相対的に早くてもフレーム領域圧 縮率 1301と外枠圧縮率 1302の設定値が圧縮符号ィ匕部 501に急激には適用されな い。フレーム領域サイズ連動圧縮可変制御 1304を ONにすると、フレーム領域 ICF 力 S小さい場合、圧縮率を低くし、フレーム領域 ICFが大きい場合、圧縮率を高くする。 図 18 Aおよび図 18Bに示した方法で検出された被写体の動き、あるいは図 9の姿勢 センサ 114で検出された撮影装置 100の動きの度合 ヽが大き 、場合、フレーム領域 I CFはサイズが小さくなり、外枠領域を大きく取って取りこぼしを最小限に抑える。
[0102] 図 29は、フレーミング画像表示部 113に表示された外枠上書きモード 1400の設定 画面である。各メニューに対して太線の四角 BRが設定値として選択されている。記 録時間順上書き 1401は、外枠領域 ICMが記録メディア部 108に記録された順番に 従ってフレーム領域 ICFを上書きする。記録時間順上書き 1401を ONにすると、図 1 9のメモリ容量管理部 603が記録容量の残量なしをメモリアドレス調整部 602に通知 したとき、外枠領域 ICMの記録時間を参照して最も古 、データ力 上書きして 、く。 被写体動き度合 ヽ順上書き 1402は、図 20の撮影画像データ部 601に保存された 被写体の動き度合 、を参照して、被写体の動き度合 、の小さ!/、もの力も順にフレー ム領域 ICFを上書きする。被写体動き度合い順上書き 1402を ONにすると、図 19の メモリ容量管理部 603が記録容量の残量なしをメモリアドレス調整部 602に通知した とき、被写体の動き度合 、を参照して被写体の動き度合 、の小さ 、データ力も上書 きしていく。撮影装置動き度合い順上書き 1403は、図 20の撮影画像データ部 601 に保存された撮影装置の動き度合 ヽを参照して、撮影装置の動き度合 ヽの小さ!/ヽも のから順にフレーム領域 ICFを上書きする。撮影装置動き度合い順上書き 1403を O Nにすると、図 19のメモリ容量管理部 603が記録容量の残量なしをメモリアドレス調 整部 602に通知したとき、撮影装置の動き度合いを参照して撮影装置の動き度合い の小さいデータ力も上書きしていく。図 29の例では、被写体動き度合い順上書き 14 02と撮影装置動き度合い順上書き 1403が ONとなっているため、被写体と撮影装置 の 2つを合わせた動き度合いの小さい順に外枠領域 ICMにフレーム領域 ICFが上 書きされる。被写体の動き度合いと撮影装置の動き度合いの合わせ方は、たとえば 掛け算を用いる。
図 30は、フレーミング画像表示部 113に表示されたフレーミング再設定モード 150 0の設定画面である。各メニューに対して太線の四角 BRが設定値として選択されて いる。再生速度 1501は、撮影画像を記録メディア部 108から読み出す際のスピード で、これがフレーミング画像表示部 113でのフレーミング画像 IDFのリフレッシュレー トになる。フレーミングの再設定を行う際に、たとえば秒 5枚画像を表示するなど、再 生速度を変更したい場合に利用する。再設定フレーミングデータ上書きモード 1502 は、フレーミングの再設定を行った結果を撮影時のフレーミングデータに上書きする 。すなわち、図 5のフレーミング変更部 110はフレーミングデータのみを書き換え、撮 影画像にはアクセスしない。従って、フレーミングの再設定は引き続き可能である。再 設定フレーミングデータコピーモード 1503は、再設定されたフレーミングデータを新 たに記録メディア部 108に保存する。すなわち、記録メディア部 108で消去されるデ ータはない。図 30の例では、再設定フレーミングデータ上書きモード 1502と再設定 フレーミングデータコピーモード 1503が ONになっているため、コピーモードで仮修 正をし、修正結果を再生してフレーミング画像表示部 113で確認して力も上書きモー ドが実行される。フアイナライズ 1504は、フレーミングの再設定を確定する際に、外 枠領域 ICMを保存するか、削除するかを選択する。外枠領域 ICMを保存すれば、 繰り返しフレーミングを修正できる力 記録メディア部 108の容量を大きく消費する。 外枠領域 ICMを削除すれば、記録メディア部 108の容量は節約できる力 フレーミン グの再設定はできない。
図 31は、フレーミング画像表示部 113に表示された先読みモード 1600の設定画 面である。各メニューに対して太線の四角 BRが設定値として選択されている。撮影 装置移動方向 1601は、図 22で説明したように、姿勢センサ 114からの姿勢情報を 累積的に監視し、撮影装置 700の移動方向にフレーム領域 ICFを先回りして移動す る。被写体動き変化 1602は、図 23で説明したように、被写体動き検出部 106からの 動き情報を累積的に監視し、急激に動きを早めたり、あるいは急激に動きを止めた被 写体を検出し、動き検出の重心位置にフレーム領域 ICFを移動する。色 1603は、図 24で説明したように、画像特徴検出部 901に特定の色を RGB値や YUV値などで設 定しておく。特定の色の指定は、図 32に示すように、カラーパレット 1606を用いる方 法や、数値入力 1607の方法、図 33に示すように、撮影画像上でエリア 1608を指定 するエリア指定 1609を用いる。図 31のパターン 1604は、画像特徴検出部 901に特 定のパターンを設定しておいて、撮影画像に同じパターンが検出されたら、フレーム 領域 ICFが検出パターンの位置に移動する。特定パターンの入力は、図 33と同様に 、撮影画像上でエリア 1608を指定するエリア指定 1609を用いる。音 1605は、図 24 で説明したように、フレーム領域 ICFを、急激な音量の変化が発生した方向や、特定 の周波数パターンを持つ音が検出された方向へ移動させる。音特徴検出部 905は、 図 34で設定される条件を保持し、音センサ部 904からの音情報の音量変化量 1611 、音量変化方向 1612、音パターン 1613を検出する。音パターン 1613は、あらかじ め音特徴検出部 905が持つメモリに複数種類の人物の声 (たとえば、男性、女性、子 供、大人など)や、自動車、バス、電車、呼び鈴などを記録しておく。また、音特徴検 出部 905が持つメモリにユーザー定義領域を設けて、自分の声や、家族の声などを 録音できる。
[0105] なお、すべてのモードでは、設定値の初期値が撮影装置立ち上げ用のメモリに記 録されており、必要に応じて撮影者が設定を変更する。また、変更された設定値は、 撮影装置立ち上げ用のメモリに記録され、次回立ち上げ時には撮影者の設定条件 で動作を開始できる。
[0106] 以上により、実施の形態 1から実施の形態 7で説明した動作を、機能ごとに複数の モードに分割し、モードごとに設定条件を撮影者が調整できる。そこで、被写体の撮 りこぼし防止を確保しつつ、録画時間を優先させたり、画質を優先させたり、自由度 の高い動画撮影が可能になる。
[0107] (実施の形態 9)
本実施の形態では、光学ズーム画像と電子ズーム画像の表示方法を複数提供す る撮影装置について説明する。
[0108] 図 35Aは本発明の実施の形態 9に係る撮影装置の構成を示すブロック図である。
なお、図 5に示す撮影装置と同様の部分については同じ符号を付し、詳細な説明を 省略する。
[0109] 撮影装置 1700は、被写体 200を撮影するための装置であり、多焦点光学レンズ部 101、焦点距離制御部 102、焦点距離算出部 103、撮像素子部 104、ズーム倍率設 定部 105、被写体動き検出部 106、撮影装置動き検出部 107、記録メディア部 108、 フレーミング再設定部 109、フレーミング変更部 110、フレーム領域設定部 701、電 子ズーム処理部 112、フレーミング画像表示部 113、姿勢センサ 114、表示画像生 成部 1701、および表示方法設定部 1702を備えて 、る。
[0110] 表示画像生成部 1701は、撮影素子部 104から光学ズーム画像 ICOを得て、電子 ズーム処理部 112から電子ズーム画像 IECを得る。被写体動き検出部 106が歩行す る被写体 200の動きを捉えて、多焦点光学レンズ部 101は広角に設定され、例えば 図 35Bに示す画像 IDWのような広角画像が撮影されている。また、ズーム倍率設定 部 105から拡大撮影のためのズーム倍率 ZF (たとえば 4倍)がズーム処理部 112に 与えられ、図 35Cに示す画像 IDFのような被写体 200の顔を拡大する拡大画像が生 成される。さら〖こ、表示画像生成部 1701は、表示方法設定部 1702から、光学ズー ム画像 ICOのみをフレーミング画像表示部 113に表示する(ICOモード)力 電子ズ ーム画像 IECのみをフレーミング画像表示部 113に表示する(ICEモード)か、光学 ズーム画像 ICOと電子ズーム画像 IECの両方をフレーミング画像表示部 113に表示 する(ICOEモード)力、の表示方法の指示を受ける。 ICOモードの場合、撮影者はフ レーミング画像表示部 113で画像 IDWを見ることができ、すなわち、外枠領域 ICM を含めた広角撮影のフレーミングを確認できる。また、 ICEモードの場合、撮影者は フレーミング画像表示部 113で画像 IDFを見ることができ、すなわち、フレーム領域 I CFの拡大撮影のフレーミングを確認できる。また、 ICOEモードの場合、撮影者はフ レーミング画像表示部 113で図 35Dに示す画像 IDWFを見ることができ、すなわち、 フレーム領域 ICFの拡大撮影のフレーミングと外枠領域 ICMを含めた広角撮影のフ レーミングを同時に確認できる。
[0111] 以上により、撮影者は、光学ズーム画像と電子ズーム画像を選択して、あるいは両 方を同時に表示して、複数のフレーミングを確認できる。撮影者が光学ズーム画像を 見ることでフレーミング再設定の余裕度を画像で確認できる。また、光学ズーム画像 と電子ズーム画像を同時に見ることで、フレーミング領域 ICFが捉えている画角の外 側の様子を確認でき、突発的に発生したイベントを発見できたり、多焦点光学レンズ 部 101の画角内に入ってきた新しい被写体に早い段階で気づくことができ、撮影者 は撮りこぼしを抑えつつ、電子ズームでのフレーミングも同時に決めることができる。 産業上の利用可能性
[0112] 本発明にかかる撮影装置は、被写体の動き、あるいは撮影装置の動きが検出され ると光学ズームを広角にして、被写体の撮りこぼしを最小限に抑え、電子ズームで表 示画像を生成する。また、被写体と撮影装置にともに動きがない場合は、光学ズーム の撮影画像のみを記録メディアに保存し、撮影時間を長くできる。そこで、民生用途 のビデオカメラに搭載すれば、スポーツやエンターテイメントの撮影で安心してビデ ォ撮影ができる。また、監視カメラに搭載すれば、被写体の動きや色、パターン、音 などを頼りに監視の目的上、重要な被写体を逃さず捉え、ズーミングで詳細な画像 情報を記録できる。

Claims

請求の範囲
[1] 多焦点光学レンズの焦点距離を制御することによってズーム倍率を替えて被写体 を撮影する撮影装置であって、
前記被写体の動きを検出する被写体動き検出手段と、
当該撮影装置の動きを検出する撮影装置動き検出手段と、
前記被写体動き検出手段によって前記被写体の動き、および前記撮影装置動き検 出手段によって当該撮影装置の動きのうち少なくとも一方が検出された場合、設定さ れたズーム倍率よりズーム倍率が低くなるように前記多焦点光学レンズの焦点距離を 算出し、前記被写体動き検出手段によって前記被写体の動き、および前記撮影装置 動き検出手段によって当該撮影装置の動きが検出されな力つた場合、設定された前 記ズーム倍率となるように前記多焦点光学レンズの焦点距離を算出する焦点距離算 出手段と、
前記多焦点光学レンズの焦点距離を前記焦点距離算出手段によって算出された 焦点距離に合わせるように制御する焦点距離制御手段と、
前記多焦点光学レンズによって結像された前記光学ズーム画像の中から前記ズー ム倍率により位置と大きさが決定されるフレーム領域を切り出すフレーム領域設定手 段と、
前記フレーム領域設定手段によって切り出された前記フレーム領域の画像を表示 する画像サイズとなるように電子ズームで変更する電子ズーム処理手段と、
前記電子ズーム処理手段によって電子ズームされた電子ズーム画像、または前記 光学ズーム画像を表示するフレーミング画像表示手段と、
前記ズーム倍率と前記光学ズーム画像とを保存する記録メディア手段とを備える ことを特徴とする撮影装置。
[2] 前記撮影装置は、さらに、
前記記録メディア手段に保存された前記ズーム倍率、および前記ズーム倍率で決 まるフレーム領域の前記光学ズーム画像上の位置のうち少なくとも 1つを再設定する フレーミング再設定手段と、
前記記録メディア手段に保存されて ヽる前記光学ズーム画像上の中から、前記フ レーミング再設定手段によって再設定された前記ズーム倍率および前記フレーム領 域の前記光学ズーム画像上の位置を用いて前記フレーム領域を切り出すフレーミン グ変更手段とを備える
ことを特徴とする請求項 1記載の撮影装置。
[3] 前記被写体動き検出手段は、前記光学ズーム画像中の前記被写体の動きを検出 する
ことを特徴とする請求項 1記載の撮影装置。
[4] 前記被写体動き検出手段は、複数の前記光学ズーム画像の輝度差および対応点 追跡の少なくとも 1つを用いて前記被写体の動きを検出する
ことを特徴とする請求項 3記載の撮影装置。
[5] 前記撮影装置動き検出手段は、角速度センサおよび加速度センサの少なくとも 1つ を用いて当該撮影装置の動きを検出する
ことを特徴とする請求項 1記載の撮影装置。
[6] 前記電子ズーム処理手段は、前記光学ズーム画像の画像座標と独立した画像特 徴量を高密化して高密化画像特徴量を生成し、前記高密化画像特徴量から前記電 子ズーム画像を生成する
ことを特徴とする請求項 1記載の撮影装置。
[7] 前記撮影装置は、さらに、
前記フレーム領域と、前記光学ズーム画像から前記フレーム領域を除 、た外枠領 域とを個別の圧縮率で画像の圧縮符号化を行う圧縮符号化手段と、
前記フレーム領域と前記外枠領域とを個別の圧縮率で圧縮符号化された画像の伸 長復号化を行う伸長復号化手段とを備える
ことを特徴とする請求項 1記載の撮影装置。
[8] 前記圧縮符号化手段は、前記被写体の動きおよび前記撮影装置の動きの度合 、 が大き!/ヽほど、前記外枠領域の圧縮率を低く圧縮符号化を行う
ことを特徴とする請求項 7記載の撮影装置。
[9] 前記撮影装置は、さらに、
前記フレーム領域と、前記光学ズーム画像から前記フレーム領域を除 、た外枠領 域とを前記記録メディア手段上で個別にアドレス管理を行うアドレス調整手段と、 前記記録メディア手段の記録容量が上限に達した場合、前記フレーム領域のデー タを前記外枠領域のアドレスに上書きする容量管理手段とを備える
ことを特徴とする請求項 1記載の撮影装置。
[10] 前記容量管理手段は、前記記録メディア手段の記録容量が上限に達した場合、前 記フレーム領域のデータを、前記外枠領域の中で前記被写体の動きの度合!/、およ び前記撮影装置の動きの度合!/ヽが小さ!/ヽ外枠領域から順に上書きする
ことを特徴とする請求項 9記載の撮影装置。
[11] 前記フレーム領域設定手段は、前記撮影装置動き検出手段によって検出された当 該撮影装置の動きから規則性を検出し、検出した前記規則性に基づいて、フレーミ ングを先読みするように前記光学ズーム画像の中の前記フレーム領域を移動させる ことを特徴とする請求項 1記載の撮影装置。
[12] 前記フレーム領域設定手段は、前記被写体動き検出手段によって検出された前記 被写体の動きが所定の変化以上である場合、前記被写体の動きが検出された領域 へ前記光学ズーム画像の中の前記フレーム領域を移動させる
ことを特徴とする請求項 1記載の撮影装置。
[13] 前記撮影装置は、さらに、
前記光学ズーム画像の中から、特定の色および特定の画像パターンの少なくとも 1 つを検出する画像特徴検出手段を備え、
前記焦点距離算出手段は、前記画像特徴検出手段によって前記特定の色および 前記特定の画像パターンの少なくとも 1つが検出された場合、設定されたズーム倍率 よりズーム倍率が低くなるように前記多焦点光学レンズの焦点距離を算出し、 前記フレーム領域設定手段は、前記画像特徴検出手段によって検出された前記 特定の色および前記特定の画像パターンを含むように、前記光学ズーム画像の中の 前記フレーム領域を移動させる
ことを特徴とする請求項 1記載の撮影装置。
[14] 前記フレーミング画像表示手段によって表示される画像を、前記光学ズーム画像、 前記電子ズーム画像、および前記光学ズーム画像と電子ズーム画像との両方の中 力 選択を受け付ける表示方法設定手段を備え、
前記フレーミング画像表示手段は、前記光学ズーム画像、前記電子ズーム画像、 および前記光学ズーム画像と電子ズーム画像との両方の中から、前記表示方法設 定手段によって選択された画像を表示する
ことを特徴とする請求項 1記載の撮影装置。
[15] 多焦点光学レンズの焦点距離を制御することによってズーム倍率を替えて被写体 を撮影する撮影方法であって、
前記被写体の動きを検出する被写体動き検出ステップと、
当該撮影装置の動きを検出する撮影装置動き検出ステップと、
前記被写体動き検出ステップにお!、て前記被写体の動き、および前記撮影装置動 き検出ステップにおいて当該撮影装置の動きのうち少なくとも一方が検出された場合 、設定されたズーム倍率よりズーム倍率が低くなるように前記多焦点光学レンズの焦 点距離を算出し、前記被写体動き検出ステップにおいて前記被写体の動き、および 前記撮影装置動き検出ステップにおいて当該撮影装置の動きが検出されな力つた 場合、設定された前記ズーム倍率となるように前記多焦点光学レンズの焦点距離を 算出する焦点距離算出ステップと、
前記多焦点光学レンズの焦点距離を前記焦点距離算出ステップにおいて算出さ れた焦点距離に合わせるように制御する焦点距離制御ステップと、
前記多焦点光学レンズによって結像された前記光学ズーム画像の中から前記ズー ム倍率により位置と大きさが決定されるフレーム領域を切り出すフレーム領域設定ス テツプと、
前記フレーム領域設定ステップにお 、て切り出された前記フレーム領域の画像を 表示する画像サイズとなるように電子ズームで変更する電子ズーム処理ステップと、 前記電子ズーム処理ステップにお 、て電子ズームされた電子ズーム画像、または 前記光学ズーム画像を表示するフレーミング画像表示ステップと、
前記ズーム倍率と前記光学ズーム画像とを保存する記録ステップとを含む ことを特徴とする撮影方法。
[16] 多焦点光学レンズの焦点距離を制御することによってズーム倍率を替えて被写体 を撮影するためのプログラムであって、
前記被写体の動きを検出する被写体動き検出ステップと、
当該撮影装置の動きを検出する撮影装置動き検出ステップと、
前記被写体動き検出ステップにお!、て前記被写体の動き、および前記撮影装置動 き検出ステップにおいて当該撮影装置の動きのうち少なくとも一方が検出された場合 、設定されたズーム倍率よりズーム倍率が低くなるように前記多焦点光学レンズの焦 点距離を算出し、前記被写体動き検出ステップにおいて前記被写体の動き、および 前記撮影装置動き検出ステップにおいて当該撮影装置の動きが検出されな力つた 場合、設定された前記ズーム倍率となるように前記多焦点光学レンズの焦点距離を 算出する焦点距離算出ステップと、
前記多焦点光学レンズの焦点距離を前記焦点距離算出ステップにおいて算出さ れた焦点距離に合わせるように制御する焦点距離制御ステップと、
前記多焦点光学レンズによって結像された前記光学ズーム画像の中から前記ズー ム倍率により位置と大きさが決定されるフレーム領域を切り出すフレーム領域設定ス テツプと、
前記フレーム領域設定ステップにお 、て切り出された前記フレーム領域の画像を 表示する画像サイズとなるように電子ズームで変更する電子ズーム処理ステップと、 前記電子ズーム処理ステップにお 、て電子ズームされた電子ズーム画像、または 前記光学ズーム画像を表示するフレーミング画像表示ステップと、
前記ズーム倍率と前記光学ズーム画像とを保存する記録ステップとをコンピュータ に実行させる
ことを特徴とするプログラム。
PCT/JP2007/052135 2006-02-15 2007-02-07 撮影装置および撮影方法 WO2007094219A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2007526079A JP4025362B2 (ja) 2006-02-15 2007-02-07 撮影装置および撮影方法
CN200780003724XA CN101375590B (zh) 2006-02-15 2007-02-07 摄影装置以及摄影方法
US12/095,384 US7701492B2 (en) 2006-02-15 2007-02-07 Image-capturing apparatus and image capturing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006038683 2006-02-15
JP2006-038683 2006-02-15

Publications (1)

Publication Number Publication Date
WO2007094219A1 true WO2007094219A1 (ja) 2007-08-23

Family

ID=38371406

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/052135 WO2007094219A1 (ja) 2006-02-15 2007-02-07 撮影装置および撮影方法

Country Status (4)

Country Link
US (1) US7701492B2 (ja)
JP (1) JP4025362B2 (ja)
CN (1) CN101375590B (ja)
WO (1) WO2007094219A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009296232A (ja) * 2008-06-04 2009-12-17 Casio Hitachi Mobile Communications Co Ltd 音入力装置、音入力方法およびプログラム
WO2009157569A1 (ja) * 2008-06-27 2009-12-30 京セラ株式会社 電子機器および撮像方法
JP2011029719A (ja) * 2009-07-21 2011-02-10 Canon Inc 撮像装置
JP2012065311A (ja) * 2010-08-20 2012-03-29 Panasonic Corp 撮像装置および撮像方法
JP2013046149A (ja) * 2011-08-23 2013-03-04 Canon Inc 撮像装置およびその制御方法
JP2014131218A (ja) * 2012-12-28 2014-07-10 Canon Inc 撮像装置及び撮像方法

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2928462B1 (fr) * 2008-03-04 2010-06-11 Thales Sa Dispositif optique mixte d'imagerie multi-focale et de calibration ir
JP4869270B2 (ja) * 2008-03-10 2012-02-08 三洋電機株式会社 撮像装置及び画像再生装置
US8861598B2 (en) * 2008-03-19 2014-10-14 Cisco Technology, Inc. Video compression using search techniques of long-term reference memory
US8620146B1 (en) * 2008-03-28 2013-12-31 Theresa Coleman Picture-in-picture video system for virtual exercise, instruction and entertainment
JP5100606B2 (ja) * 2008-10-24 2012-12-19 三洋電機株式会社 撮像装置
US20100141734A1 (en) * 2008-10-28 2010-06-10 Hitachi Maxell, Ltd. Imaging apparatus and optical axis correction method of imaging apparatus
JP2010183564A (ja) * 2009-01-09 2010-08-19 Canon Inc 画像記録装置及びその制御方法、プログラム
JP4760918B2 (ja) * 2009-01-23 2011-08-31 カシオ計算機株式会社 撮像装置、被写体追従方法、及びプログラム
JP4875117B2 (ja) * 2009-03-13 2012-02-15 株式会社東芝 画像処理装置
US8184180B2 (en) * 2009-03-25 2012-05-22 Broadcom Corporation Spatially synchronized audio and video capture
JP4730569B2 (ja) * 2009-03-27 2011-07-20 カシオ計算機株式会社 撮影装置、撮像方法、及びプログラム
JP4784678B2 (ja) * 2009-04-22 2011-10-05 カシオ計算機株式会社 撮像装置、撮像方法及びプログラム
US8233352B2 (en) * 2009-08-17 2012-07-31 Broadcom Corporation Audio source localization system and method
JP2011071605A (ja) * 2009-09-24 2011-04-07 Fujifilm Corp 立体撮像装置及び立体撮像方法
JPWO2011039947A1 (ja) * 2009-10-01 2013-02-21 日本電気株式会社 撮像装置、その制御方法、撮像システム、及びプログラム
TWI426782B (zh) * 2010-05-19 2014-02-11 Hon Hai Prec Ind Co Ltd 手持裝置及利用其動態監控特定區域的方法
JP5748422B2 (ja) * 2010-06-29 2015-07-15 株式会社ザクティ 電子機器
JP5700963B2 (ja) * 2010-06-29 2015-04-15 キヤノン株式会社 情報処理装置およびその制御方法
JP5748436B2 (ja) * 2010-09-10 2015-07-15 キヤノン株式会社 撮像装置及びその制御方法
US9578251B2 (en) 2010-09-13 2017-02-21 Canon Kabushiki Kaisha Imaging apparatus and control method for the same
JP5671957B2 (ja) * 2010-11-09 2015-02-18 ソニー株式会社 表示装置および表示方法
US20130176463A1 (en) * 2012-01-09 2013-07-11 Nokia Corporation Method and Apparatus for Image Scaling in Photography
JP6006024B2 (ja) * 2012-07-02 2016-10-12 オリンパス株式会社 撮像装置、撮像方法およびプログラム
JP6249202B2 (ja) * 2013-05-10 2017-12-20 ソニー株式会社 画像表示装置、画像表示方法、およびプログラム
JP6518409B2 (ja) * 2014-06-30 2019-05-22 オリンパス株式会社 撮影装置及び撮影方法
JP6373121B2 (ja) * 2014-08-20 2018-08-15 キヤノン株式会社 画像処理装置およびその制御方法
US9886633B2 (en) * 2015-02-23 2018-02-06 Vivint, Inc. Techniques for identifying and indexing distinguishing features in a video feed
US11196997B2 (en) 2015-05-15 2021-12-07 Hewlett-Packard Development Company, L.P. Image compression
KR20210149542A (ko) * 2020-06-02 2021-12-09 삼성에스디에스 주식회사 이미지 촬영 및 판독 방법, 이를 위한 장치

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0641281U (ja) * 1992-10-30 1994-05-31 日本ビクター株式会社 ビデオカメラ装置
JPH11289486A (ja) * 1998-04-02 1999-10-19 Sony Corp ビデオカメラ
JP2005012423A (ja) * 2003-06-18 2005-01-13 Fuji Photo Film Co Ltd 撮像装置及び信号処理装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2824716B2 (ja) 1992-07-22 1998-11-18 富士写真フイルム株式会社 ポリエチレンナフタレートの製造方法
US6236431B1 (en) * 1993-05-27 2001-05-22 Canon Kabushiki Kaisha Video camera apparatus with distance measurement area adjusted based on electronic magnification
US6670989B2 (en) * 1997-05-16 2003-12-30 Canon Kabushiki Kaisha Optical system driving control device and camera using the same
JP4314043B2 (ja) * 2003-03-10 2009-08-12 キヤノン株式会社 撮像装置
KR20040110155A (ko) * 2003-06-18 2004-12-31 삼성테크윈 주식회사 폴더 아이콘들이 이동하는 휴대용 디지털 장치의 제어 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0641281U (ja) * 1992-10-30 1994-05-31 日本ビクター株式会社 ビデオカメラ装置
JPH11289486A (ja) * 1998-04-02 1999-10-19 Sony Corp ビデオカメラ
JP2005012423A (ja) * 2003-06-18 2005-01-13 Fuji Photo Film Co Ltd 撮像装置及び信号処理装置

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009296232A (ja) * 2008-06-04 2009-12-17 Casio Hitachi Mobile Communications Co Ltd 音入力装置、音入力方法およびプログラム
WO2009157569A1 (ja) * 2008-06-27 2009-12-30 京セラ株式会社 電子機器および撮像方法
JP2010008823A (ja) * 2008-06-27 2010-01-14 Kyocera Corp 電子機器および撮像方法
JP2011029719A (ja) * 2009-07-21 2011-02-10 Canon Inc 撮像装置
JP2012065311A (ja) * 2010-08-20 2012-03-29 Panasonic Corp 撮像装置および撮像方法
US9774830B2 (en) 2010-08-20 2017-09-26 Panasonic Intellectual Property Management Co., Ltd. Imaging apparatus and imaging method
JP2013046149A (ja) * 2011-08-23 2013-03-04 Canon Inc 撮像装置およびその制御方法
JP2014131218A (ja) * 2012-12-28 2014-07-10 Canon Inc 撮像装置及び撮像方法

Also Published As

Publication number Publication date
JPWO2007094219A1 (ja) 2009-07-02
JP4025362B2 (ja) 2007-12-19
US20090268079A1 (en) 2009-10-29
US7701492B2 (en) 2010-04-20
CN101375590B (zh) 2010-12-22
CN101375590A (zh) 2009-02-25

Similar Documents

Publication Publication Date Title
JP4025362B2 (ja) 撮影装置および撮影方法
JP4212109B2 (ja) 撮影装置および撮影方法
US8525894B2 (en) Camera and camera control method
JP5309490B2 (ja) 撮影装置、被写体追尾ズーミング方法及び被写体追尾ズーミングプログラム
US8199212B2 (en) Image recording and playback device, and image recording and playback method
US20090102942A1 (en) Composition determining apparatus, composition determining method, and program
JP2007081594A (ja) 撮像装置、記録方法
JP6652300B2 (ja) 画像処理装置、撮像装置および制御方法
JP6721084B2 (ja) ズーム制御装置、ズーム制御方法およびプログラム
JP2009272840A (ja) 画像記録再生装置、画像記録再生方法、画像処理装置、および画像処理方法
JP2013229856A (ja) 画像処理装置、撮像装置、サーバ装置およびコンピュータプログラム
JP6031670B2 (ja) 撮像装置
JP3841033B2 (ja) モニタリングシステムおよび方法並びにプログラムおよび記録媒体
JP7353821B2 (ja) 画像処理装置、その制御方法、プログラム
JP2013009435A (ja) 撮影装置、被写体追尾ズーミング方法及び被写体追尾ズーミングプログラム
JP3243625B2 (ja) 撮像装置
JP3838149B2 (ja) モニタリングシステムおよび方法、並びにプログラムおよび記録媒体
JP4408397B2 (ja) 撮影装置および撮影方法およびプログラム
JP4438065B2 (ja) 撮影制御システム
JP2003324723A (ja) モニタリングシステムおよび方法並びにプログラムおよび記録媒体
JP2004228808A (ja) 撮影装置
JP3113365B2 (ja) 映像合成システム
JP3838151B2 (ja) モニタリングシステムおよび方法並びにプログラムおよび記録媒体
JP6708490B2 (ja) 画像処理方法および画像処理装置
JP6708495B2 (ja) 映像処理装置、撮像装置および映像処理プログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2007526079

Country of ref document: JP

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 12095384

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 200780003724.X

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 07708174

Country of ref document: EP

Kind code of ref document: A1