WO2011013544A1 - 制御装置、制御方法、プログラム、制御システム - Google Patents

制御装置、制御方法、プログラム、制御システム Download PDF

Info

Publication number
WO2011013544A1
WO2011013544A1 PCT/JP2010/062209 JP2010062209W WO2011013544A1 WO 2011013544 A1 WO2011013544 A1 WO 2011013544A1 JP 2010062209 W JP2010062209 W JP 2010062209W WO 2011013544 A1 WO2011013544 A1 WO 2011013544A1
Authority
WO
WIPO (PCT)
Prior art keywords
subject
unit
detected
lost
control
Prior art date
Application number
PCT/JP2010/062209
Other languages
English (en)
French (fr)
Inventor
真吾 善積
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US13/383,450 priority Critical patent/US20120105647A1/en
Priority to EP10804290.4A priority patent/EP2461567A4/en
Priority to RU2012102038/07A priority patent/RU2012102038A/ru
Priority to CN2010800431708A priority patent/CN102668535A/zh
Publication of WO2011013544A1 publication Critical patent/WO2011013544A1/ja
Priority to IN589DEN2012 priority patent/IN2012DN00589A/en

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/38Releasing-devices separate from shutter
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B37/00Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00132Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture in a digital photofinishing system, i.e. a system where digital photographic images undergo typical photofinishing processing, e.g. printing ordering
    • H04N1/00183Photography assistance, e.g. displaying suggestions to the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/51Housings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • G01S3/7864T.V. type tracking systems

Definitions

  • the present invention relates to a control apparatus and a method for performing imaging control using a subject detection result in a captured image by an imaging unit.
  • the present invention also relates to a program executed by the control device.
  • the present invention relates to a control system configured to include an imaging device including an imaging unit and a movable mechanism device that changes the field of view of the imaging unit.
  • Patent Documents 1 to 4 disclose various techniques relating to an automatic imaging operation for automatically recording a captured image by an imaging unit without depending on a user's release instruction.
  • the present invention realizes an automatic imaging operation that is more intelligent and more useful to the user than in the prior art, particularly when performing an automatic imaging operation using the subject detection result in the captured image as the automatic imaging operation. Is the subject.
  • the present invention is configured as follows as a control device. That is, a subject detection unit that detects a subject from an image captured by the imaging unit is provided. In addition, control related to the imaging operation is performed according to the positional relationship between the end region set on at least one side of the image frame of the captured image by the imaging unit and the subject detected in the captured image by the subject detection unit. A control unit was provided.
  • the present invention it is possible to perform control related to the imaging operation according to the positional relationship between the end region set as the end region of the image frame and the subject detected in the image frame.
  • the control relating to the imaging operation is performed on the basis of a completely new judgment criterion that is not related to the conventional positional relationship between the end region set as the end region of the image frame and the subject detected in the image frame. It can be carried out. As a result, it is possible to realize an automatic imaging operation that is more intelligent than ever and is more useful to the user.
  • FIG. 1 It is the figure which showed simply the external appearance of the digital still camera which is a component of the imaging control apparatus (imaging system) as embodiment with the front view and the rear view.
  • FIG. 1 It is a perspective view which shows the external appearance example of the pan head which is a component of the imaging control apparatus (imaging system) as embodiment.
  • FIG. 1 It is a side view showing an example of an imaging control device (imaging system) as an embodiment formed by attaching a digital still camera to a pan head, together with an example of movement in a tilt direction.
  • imaging control device imaging system
  • FIG. 1 It is a block diagram which shows the example of an internal structure of a digital still camera.
  • FIG. 1 It is a block diagram which shows the internal structural example of a pan head.
  • image frame refers to an area range corresponding to one screen where an image can be seen, for example, and generally has a frame shape as a vertically or horizontally long rectangle.
  • view angle is also called a zoom angle or the like, and represents a range within an image frame determined by the position of the zoom lens in the image pickup optical system by an angle. Strictly speaking, it is determined by the focal length of the imaging optical system and the size of the image plane (image sensor, film). Here, the image plane size is fixed, and an element that changes according to the focal length is determined.
  • the “imaging field of view” represents a field of view by the imaging optical system and corresponds to a range cut out by the image frame.
  • Imaging field selection angle is an angle that represents an element that determines which part of the landscape around the imaging device is cut out. This is determined by the angle and the swing angle (elevation angle, depression angle) in the tilt (vertical) direction.
  • Composition is also referred to as framing, and is determined by the setting of the imaging field selection angle, that is, the pan / tilt angle and the angle of view (zoom) in this case.
  • the imaging control device of the present invention is configured as an imaging system including a digital still camera and a camera platform that detachably holds the digital still camera will be described as an example. I will do it.
  • the imaging system includes a digital still camera 1 and a pan head 10 on which the digital still camera 1 is placed.
  • FIG. 1A and 1B are a front view and a rear view of the digital still camera 1, respectively.
  • the digital still camera 1 shown in this figure first includes a lens portion 21a on the front side of the main body 2 as shown in FIG.
  • the lens portion 21a is a portion that is exposed to the outside of the main body 2 as an optical system for imaging.
  • a release button 31 a is provided on the upper surface of the main body 2.
  • an image (captured image) captured by the lens unit 21a is generated as an image signal.
  • a captured image at that timing is recorded on the recording medium as image data of a still image. That is, photography is performed.
  • the digital still camera 1 has a display screen section 33a on the back side thereof as shown in FIG.
  • This display screen portion 33a is referred to as a through image in the imaging mode, and an image captured by the lens portion 21a at that time is displayed.
  • the image data recorded on the recording medium is reproduced and displayed.
  • an operation image as a GUI (Graphical User Interface) is displayed according to an operation performed by the user on the digital still camera 1.
  • a touch panel is combined with the display screen unit 33a.
  • the user can perform an appropriate operation by placing a finger on the display screen unit 33a.
  • the imaging system (imaging control device) of the present embodiment includes an imaging device unit as the digital still camera 1 and a movable mechanism device as a pan head 10 described below. It goes without saying that even if only the still camera 1 is used, photography can be performed in the same manner as a normal digital still camera.
  • FIG. 2 is a perspective view showing the external appearance of the camera platform 10.
  • 3 to 5 show a state where the digital still camera 1 is placed in an appropriate state with respect to the pan head 10 as the appearance of the imaging system of the present embodiment.
  • 3 is a front view
  • FIG. 4 is a plan view
  • FIG. 5 is a side view (particularly, in FIG. 5B, the movable range of the tilt mechanism is shown by the side view).
  • the camera platform 10 is largely configured by combining a main body 11 on a grounding base 15 and further a camera base with respect to the main body 11. It has the structure where the part 12 was attached.
  • the bottom surface side of the digital still camera 1 is placed against the top surface side of the camera base 12.
  • a projection 13 and a connector 14 are provided on the upper surface of the camera base 12 as shown in FIG.
  • a hole that engages with the protrusion 13 is formed on the lower surface of the main body 2 of the digital still camera 1.
  • a connector is also provided at a predetermined position on the lower surface portion thereof. As described above, in a state where the digital still camera 1 is properly placed on the camera base 12, the connector of the digital still camera 1 and the connector 14 of the camera platform 10 are connected, and at least communication between them is performed. It becomes possible.
  • the positions of the connector 14 and the protrusion 13 can be changed within a certain range in the camera base 12 in practice.
  • a digital still camera of a different model can be placed on the camera base 12 in a state where it can communicate with the camera platform 10. It has become.
  • communication between the digital still camera 1 and the camera base 12 may be performed wirelessly.
  • the camera 10 may be configured to charge the digital still camera 1 from the camera platform 10.
  • a video signal such as an image reproduced by the digital still camera 1 is also transmitted to the camera platform 10 side, and is output from the camera platform 10 to an external monitor device via a cable or wireless communication.
  • the pan head 10 can be used not only for changing the imaging field selection angle of the digital still camera 1 but also as a so-called cradle.
  • the basic movement in the pan direction is as follows. In a state where the camera platform 10 is placed on the floor surface or the like, the bottom surface of the ground platform 15 is grounded. In this state, as shown in FIG. 4, the main body 11 can be rotated in the clockwise direction and the counterclockwise direction around the rotation shaft 11a. In other words, this makes it possible to change the imaging field selection angle in the horizontal direction (left-right direction) of the digital still camera 1 placed on the camera platform 10 (so-called panning).
  • the pan mechanism of the pan head 10 has a structure in which the rotation of 360 ° or more can be freely performed in both the clockwise direction and the counterclockwise direction.
  • the reference position in the pan direction is determined.
  • the pan reference position is set to 0 ° (360 °)
  • the rotation position of the main body 11 along the pan direction that is, the pan position (pan angle) is set to 0 ° to 360. It shall be expressed in °.
  • FIG. 5A shows a state in which the camera base 12 is at the tilt reference position Y0 (0 °).
  • the imaging direction F1 that coincides with the imaging optical axis of the lens unit 21a (optical system unit) and the grounding surface part GR that is grounded by the grounding base part 15 are parallel to each other. Then, as shown in FIG.
  • the camera base 12 first, in the elevation direction, the camera base 12 has a predetermined maximum rotation angle + f ° from the tilt reference position Y0 (0 °) with the rotation axis 12a as the rotation center. Can move in a range of. Also in the depression angle direction, it can move within the range of a predetermined maximum rotation angle -g ° from the tilt reference position Y0 (0 °) with the rotation axis 12a as the rotation center. In this way, the camera base 12 moves within the range of the maximum rotation angle + f ° to the maximum rotation angle ⁇ g ° with the tilt reference position Y0 (0 °) as the base point, whereby the camera platform 10 (camera base 12).
  • the imaging field selection angle in the tilt direction (vertical direction) of the digital still camera 1 placed on the camera can be changed. That is, a tilting operation can be obtained.
  • the external configuration of the pan head 10 shown in FIGS. 2 to 5 is merely an example, and if the digital still camera 1 placed thereon can be moved in the pan direction and the tilt direction, The physical configuration and structure can be taken.
  • FIG. 6 is a block diagram showing a practical internal configuration example of the digital still camera 1.
  • the optical system unit 21 includes a predetermined number of imaging lens groups including a zoom lens, a focus lens, and the like, a diaphragm, and the like. An image is formed on the light receiving surface.
  • the optical system unit 21 also includes a drive mechanism unit for driving the zoom lens, the focus lens, the diaphragm, and the like. The operation of these drive mechanisms is controlled by so-called camera control such as zoom (viewing angle) control, automatic focus adjustment control, automatic exposure control, and the like executed by the control unit 27, for example.
  • the image sensor 22 performs so-called photoelectric conversion in which imaging light obtained by the optical system unit 21 is converted into an electric signal.
  • the image sensor 22 receives the imaging light from the optical system unit 21 on the light receiving surface of the photoelectric conversion element, and sequentially accumulates signal charges accumulated according to the intensity of the received light at a predetermined timing. Output. Thereby, an electrical signal (imaging signal) corresponding to the imaging light is output.
  • the photoelectric conversion element (imaging element) employed as the image sensor 22 is not particularly limited. However, in the present situation, for example, a CMOS (Complementary Metal Oxide Semiconductor) sensor, a CCD (Charge Coupled Device), or the like. Can be mentioned.
  • a device (component) corresponding to the image sensor 22 may include an analog-digital converter corresponding to an A / D converter 23 described below.
  • the imaging signal output from the image sensor 22 is input to the A / D converter 23 to be converted into a digital signal and input to the signal processing unit 24.
  • the signal processing unit 24 is constituted by a DSP (Digital Signal Processor) and performs predetermined signal processing according to a program on the digital imaging signal output from the A / D converter 23.
  • the signal processing unit 24 captures the digital imaging signal output from the A / D converter 23 in a unit corresponding to one still image (frame image), and captures the captured image unit in the still image unit in this way. Is subjected to predetermined signal processing to generate captured image data (captured still image data) that is image signal data corresponding to one still image.
  • the signal processing unit 24 is configured to be able to execute image processing as subject detection processing using the captured image data acquired in this way, as will be described later. This point will be described later.
  • the captured image data generated by the signal processing unit 24 as described above is recorded as image information in the memory card 40 as a recording medium, for example, captured image data corresponding to one still image is signaled.
  • the data is output from the processing unit 24 to the encoding / decoding unit 25.
  • the encoding / decoding unit 25 performs compression encoding on the captured image data in units of still images output from the signal processing unit 24 by a predetermined still image compression encoding method, and performs control of the control unit 27, for example. Accordingly, a header or the like is added to convert the image data into a format compressed into a predetermined format. Then, the image data generated in this way is transferred to the media controller 26.
  • the media controller 26 writes and records the transferred image data on the memory card 40 under the control of the control unit 27.
  • the memory card 40 in this case is a recording medium having a configuration including, for example, a card-type outer shape conforming to a predetermined standard and having a nonvolatile semiconductor memory element such as a flash memory inside.
  • the recording medium for recording image data may be of a type or format other than the memory card.
  • the digital still camera 1 displays a so-called through image that is an image currently being captured by causing the display unit 33 to perform image display using the captured image data obtained by the signal processing unit 24.
  • the signal processing unit 24 captures the imaging signal output from the A / D converter 23 as described above and generates captured image data corresponding to one still image, but this operation is continued.
  • captured image data corresponding to frame images in the moving image is sequentially generated.
  • the captured image data sequentially generated in this way is transferred to the display driver 32 under the control of the control unit 27. Thereby, a through image is displayed.
  • the display driver 32 generates a drive signal for driving the display unit 33 based on the captured image data input from the signal processing unit 24 as described above, and outputs the drive signal to the display unit 33.
  • the display unit 33 sequentially displays images based on the captured image data in units of still images. If the user sees this, the image captured at that time is displayed as a moving image on the display unit 33. That is, a through image is displayed.
  • the digital still camera 1 can also reproduce the image data recorded on the memory card 40 and display the image on the display unit 33.
  • the control unit 27 designates image data and instructs the media controller 26 to read data from the memory card 40.
  • the media controller 26 accesses the address on the memory card 40 where the designated image data is recorded, executes data reading, and sends the read data to the encoding / decoding unit 25. Forward.
  • the encode / decode unit 25 extracts, for example, actual data as compressed still image data from the captured image data transferred from the media controller 26 under the control of the control unit 27, and decodes the compressed still image data with respect to compression encoding. Processing is executed to obtain captured image data corresponding to one still image. Then, the captured image data is transferred to the display driver 32. Thereby, on the display unit 33, the image of the captured image data recorded in the memory card 40 is reproduced and displayed.
  • a user interface image (operation image) can be displayed together with the through image and the reproduced image data.
  • the control unit 27 generates display image data as a necessary user interface image according to the operation state at that time, and outputs the display image data to the display driver 32.
  • the user interface image is displayed on the display unit 33.
  • the user interface image can be displayed on the display screen of the display unit 33 separately from the monitor image and the reproduced image of the captured image data, such as a specific menu screen. It is also possible to display the image data so as to be superimposed and synthesized on a part of the reproduced image.
  • the control unit 27 includes a CPU (Central Processing Unit), and constitutes a microcomputer together with the ROM 28, the RAM 29, and the like.
  • ROM 28 for example, various setting information related to the operation of the digital still camera 1 is stored in addition to a program to be executed by the CPU as the control unit 27.
  • the RAM 29 is a main storage device for the CPU.
  • the flash memory 30 in this case is provided as a nonvolatile storage area used for storing various setting information that needs to be changed (rewritten) in accordance with, for example, a user operation or an operation history. It is what For example, if a non-volatile memory such as a flash memory is adopted as the ROM 28, a partial storage area in the ROM 28 may be used instead of the flash memory 30.
  • control unit 27 executes subject detection by the signal processing unit 24 while changing the imaging field of view to search for a subject around the digital still camera 1, and for the subject search.
  • Optimal composition determination for determining an optimal composition according to the detected subject according to a predetermined algorithm, composition adjustment with the optimal composition obtained by the optimal composition determination as a target composition, and after the composition adjustment Control and processing for realizing the automatic recording of the captured image is performed, which will be described later.
  • the operation unit 31 generates various operation elements provided in the digital still camera 1, and operation information signal output parts that generate operation information signals according to operations performed on these operation elements and output the operation information signals to the control unit 27. Are shown together.
  • the control unit 27 executes predetermined processing according to the operation information signal input from the operation unit 31. Thereby, the operation of the digital still camera 1 according to the user operation is executed.
  • the pan head communication unit 34 is a part that performs communication according to a predetermined communication method between the pan head 10 side and the digital still camera 1 side.
  • the digital still camera 1 communicates with the pan head 10.
  • a physical layer configuration for enabling transmission / reception of wired or wireless communication signals to / from the communication unit on the camera platform 10 side, and communication processing corresponding to a predetermined layer higher than this And a configuration for realizing.
  • the physical layer configuration includes a connector portion connected to the connector 14 in correspondence with FIG.
  • the pan head 10 includes a pan / tilt mechanism, and includes a pan mechanism unit 53, a pan motor 54, a tilt mechanism unit 56, and a tilt motor 57 as corresponding parts.
  • the pan mechanism unit 53 is configured to have a mechanism for giving movement in the pan (lateral / horizontal) direction shown in FIG. 4 with respect to the digital still camera 1 attached to the pan / tilt head 10. It is obtained by rotating the pan motor 54 in the forward and reverse directions.
  • the tilt mechanism unit 56 is configured to have a mechanism for giving a movement in the tilt (vertical / vertical) direction shown in FIG. 5 with respect to the digital still camera 1 attached to the camera platform 10. The movement of the mechanism is obtained by rotating the tilt motor 57 in the forward and reverse directions.
  • the control unit 51 includes a microcomputer formed by combining a CPU, a ROM, a RAM, and the like, for example, and controls the movement of the pan mechanism unit 53 and the tilt mechanism unit 56. For example, when the control unit 51 controls the movement of the pan mechanism unit 53, a signal instructing the direction to be moved and the moving speed is output to the pan driving unit 55.
  • the pan driving unit 55 generates a motor driving signal corresponding to the input signal and outputs the motor driving signal to the pan motor 54. For example, if the motor is a stepping motor, the motor drive signal is a pulse signal corresponding to PWM control.
  • the pan motor 54 rotates, for example, with a required rotation direction and rotation speed, and as a result, the pan mechanism unit 53 is also driven to move with the corresponding movement direction and movement speed.
  • the control unit 51 outputs to the tilt drive unit 58 a signal instructing the moving direction and moving speed necessary for the tilt mechanism unit 56.
  • the tilt drive unit 58 generates a motor drive signal corresponding to the input signal and outputs the motor drive signal to the tilt motor 57.
  • the tilt motor 57 rotates, for example, at a required rotation direction and rotation speed, and as a result, the tilt mechanism unit 56 is also driven to move according to the corresponding movement direction and speed.
  • the pan mechanism unit 53 includes a rotary encoder (rotation detector) 53a.
  • the rotary encoder 53 a outputs a detection signal indicating the rotation angle amount to the control unit 51 in accordance with the rotational movement of the pan mechanism unit 53.
  • the tilt mechanism unit 56 includes a rotary encoder 56a.
  • the rotary encoder 56 a also outputs a signal indicating the rotation angle amount to the control unit 51 in accordance with the rotational movement of the tilt mechanism unit 56.
  • the communication unit 52 is a part that performs communication according to a predetermined communication method with the pan-head compatible communication unit 34 in the digital still camera 1 attached to the pan head 10. Similarly, it has a physical layer configuration for enabling transmission / reception of wired or wireless communication signals with a counterpart communication unit, and a configuration for realizing communication processing corresponding to a predetermined layer higher than this. It consists of As the physical layer configuration, the connector 14 of the camera base 12 is included in correspondence with FIG.
  • the imaging system according to the present embodiment is determined to be optimum determined according to the form of the subject detected with the subject search by the above-described subject search, optimum composition determination, and composition adjustment operations.
  • An automatic composition adjustment operation with the composition as the target composition is performed.
  • a specific example of the automatic imaging operation as the present embodiment accompanied with such an automatic composition adjustment operation will be described.
  • a subject detection result by the signal processing unit 24 shown in FIG. 6 is used.
  • the signal processing unit 24 performs the following process as the subject detection process. That is, the signal processing unit 24 detects an image portion corresponding to a person's face from image signal data corresponding to one still image acquired as described above.
  • a face frame is set for each subject detected from within the image corresponding to the area of the image portion of the face using so-called face detection technology. Then, information on the number of subjects in the image frame, the size of each subject, and the position in each image frame is obtained from information such as the number, size, and position of the face frame.
  • the signal processing unit 24 executes the subject detection process as described above for each predetermined number of frames, such as for each image signal data corresponding to one still image (that is, for each frame). Has been.
  • a search for a subject existing around the digital still camera 1 is performed using detection information obtained by such subject detection processing.
  • the control unit 27 in the digital still camera 1 performs pan / tilt control with respect to the camera platform 10 and zoom control with respect to the optical system unit 21 while changing the imaging field selection angle,
  • the object detection is performed by the signal processing unit 24.
  • Such subject search processing ends when the subject is detected in the image frame by subject detection processing by the signal processing unit 24.
  • the control unit 27 After the subject search processing is completed, the control unit 27 performs image structure determination based on the subject detection result by the signal processing unit 24 (in this case, determination of the number of subjects, the subject size, and the subject position in the image frame). Then, the optimum composition determination process is executed. That is, as the optimum composition determination process, an optimum composition is determined according to a predetermined algorithm based on the image structure information determined by the above-described image structure determination.
  • the composition in this case is determined by the pan / tilt / zoom selection field of view, and accordingly, depending on the optimum composition determination process, the determination result As a result, information on the selected imaging field of view of pan, tilt, and zoom, which is optimized in accordance with the subject detection result (the subject mode in the image frame), is obtained.
  • the control unit 27 After executing the optimum composition determination process as described above, the control unit 27 performs composition adjustment control. That is, pan / tilt / zoom control is performed with the optimal composition as the target composition. Specifically, as the composition adjustment control, the control unit 27 instructs the control unit 51 on the pan head 10 side with information on the pan / tilt imaging field-of-view selection angles obtained by the optimal composition determination process. In response to this, the control unit 51 moves the pan mechanism unit 53 and the tilt mechanism unit 56 in order to point the digital still camera 1 in the imaging direction in which the designated pan / tilt imaging field selection angles are obtained. An amount is obtained, and a pan control signal is supplied to the pan motor 54 and a tilt control signal is supplied to the tilt motor 57 so that pan driving and tilt driving of the obtained movement amount are performed.
  • control unit 27 instructs the optical system unit 21 of information on the imaging field selection angle (that is, information on the angle of view) for the zoom obtained by the optimal composition determination process, thereby obtaining the instructed angle of view.
  • the zoom operation by the optical system unit 21 is executed as described above.
  • control unit 27 controls the encode / decode unit 25 and the media controller 26, and Recording of the captured image data to the memory card 40 is executed.
  • an automatic imaging operation by automatic composition adjustment is realized based on the control and processing by the control unit 27.
  • FIG. 8 and 9 are diagrams for explaining the automatic imaging control method according to the first embodiment.
  • FIG. 8 is an example of an end region set in the image frame.
  • FIG. A specific example of the automatic imaging control method of the embodiment is schematically shown.
  • the end region is set so as to correspond to the end of the image frame G of the captured image obtained by imaging with the optical system unit 21 shown in FIG.
  • the EDG is set.
  • the end area EDG is set so as to include end areas on all four sides of the image frame G.
  • the width of the region located at both ends in the horizontal direction of the image frame G is set to x / 10
  • the region located at both ends in the vertical direction of the image frame G Each width is set to y / 10.
  • x is the number of effective pixels in the horizontal direction (horizontal direction) of the captured image
  • y is the number of effective pixels in the vertical direction (vertical direction) of the captured image. It is.
  • FIG. 9A shows the behavior when the subject is lost after reaching the end region EDG during composition adjustment.
  • a subject detected within the image frame G is referred to as a subject HF.
  • the moving direction of the subject HF (the direction in which the subject is out of the frame) can be known from the position in the end region EDG where the subject HF has reached just before the lost. That is, when the subject HF has reached the right end region in the end region EDG as in the example of FIG. 9A, it is estimated that the subject HF has moved out of the frame and moved out of the frame. it can.
  • the edge area EDG is considered to be composed of four areas corresponding to each of the four sides of the image frame G
  • the frame-out direction of the subject HF is determined by the subject HF from among these four edge areas. It can be estimated by specifying the end region that has been reached immediately before the lost.
  • the imaging field-of-view selection angle is set so as to track (follow) the subject HF out of the frame. Take control. Specifically, in the example of FIG. 9A, it can be estimated that the subject HF has moved in the right direction. In this case, by performing control so that pan driving is performed in the right direction for a certain period, Track out the subject HF. Here, in this example, tracking is performed for 3 seconds, for example, as the above "fixed period".
  • FIG. 9 shows the behavior when the subject HF is lost in the area inside the end area EDG.
  • the subject HF is lost, if the subject HF has not reached the end region EDG before the disappearance, the subject HF is lost in the region inside the end region EDG (hereinafter also referred to as in-frame lost).
  • in-frame lost can be considered as a case where the subject HF cannot be detected due to a change in the orientation of the subject HF (face) or the like. , Wait for a certain period.
  • the subject HF waits for a certain period of time in anticipation of the subject HF turning back to the front soon. It is. In this example, 3 seconds is set as the period for such standby.
  • the target subject HF is the target after tracking for a certain period shown in FIG. 9A or after waiting for a certain period shown in FIG. 9B.
  • a process for confirming whether or not can be detected again is performed.
  • the control unit 27 obtains subject detection result information from the signal processing unit 24 after performing tracking for a certain period or waiting for a certain period, and re-detects the subject HF based on the information content. A determination is made as to whether or not it has been done.
  • the composition adjustment control is performed with the optimum composition determined by the optimum composition determination as the target composition. To do.
  • control is performed so that the subject search is executed. That is, in this case, assuming that the subject HF is lost, the subject search is repeated.
  • the automatic imaging control is performed accordingly. It is possible to prevent the subject from being searched again immediately. Specifically, when the subject HF is lost due to a frame-out, tracking in the frame-out direction is performed so that the target subject HF can be re-detected more quickly without re-starting the subject search. Can do. Further, in response to the case where the subject HF is lost within the frame, the target subject HF can be re-detected more quickly by waiting for a certain period without restarting the subject search.
  • the control method as the first embodiment compared with the conventional method in which the subject search is immediately started in accordance with the subject lost during composition adjustment, the chance of capturing and recording is not missed.
  • An imaging system designed to perform many imaging recordings can be realized. That is, from this point, according to the present embodiment, it is possible to achieve an intelligent automatic imaging operation as compared with the case where the conventional method is adopted, and as a result, it is possible to provide an imaging system that is more useful to the user. .
  • the frame-out direction of the subject HF is detected (determined) by specifying which region of the end region EDG the framed subject HF has reached before being lost.
  • a method of estimating the moving direction from the transition of the detection position before the subject HF is lost and setting the estimated direction as the frame-out direction can also be mentioned.
  • adjustment of the imaging field selection angle such as pan / tilt / zoom is performed, so that the change in the position of the subject HF obtained from the subject detection information is accompanied by the movement of the subject HF itself. It is very difficult to distinguish whether the subject is an object associated with pan / tilt / zoom adjustment, and as a result, there is a high possibility of erroneous determination of the moving direction of the subject HF.
  • the moving direction estimation processing is added with a calculation process for canceling the position change of the subject HF due to pan / tilt / zoom movement for composition adjustment.
  • the processing load increases.
  • the moving direction of the subject HF at the time of frame-out specifies which region of the end region EDG the subject HF has reached before disappearance. It is possible to make an accurate determination with a very simple process.
  • FIG. 10 shows a specific processing procedure to be performed in order to realize the automatic imaging control method as the first embodiment described above.
  • the processing procedure to be performed in order to realize the automatic imaging control method as the first embodiment is executed by the control unit 27 shown in FIG. 6 according to a program stored in the ROM 28, for example. This is shown as the procedure of the process.
  • step S101 subject search processing is executed. That is, as a process for searching for a subject existing around the digital still camera 1, a panning / tilting instruction to the control unit 51 on the camera platform 10 side and a zoom control to the optical system unit 21 are performed, thereby obtaining an imaging field selection angle.
  • the subject is detected by the signal processing unit 24 while changing.
  • step S102 it is determined whether or not a subject has been detected. That is, it is determined whether or not a subject HF is detected in the image frame G by subject detection processing by the signal processing unit 24. If a negative result is obtained in step S102 that no subject has been detected, the process returns to step S101, and subject search processing is executed again.
  • step S102 if a positive result is obtained in step S102 that the subject has been detected, the process proceeds to step S103, and the image structure determination process is executed.
  • the determination of the image structure in which the subject HF (person) such as the number, position, size, etc. of the subject HF detected in the image frame G is a main element is performed. Do.
  • the optimum composition is determined according to a predetermined algorithm based on the image structure information determined in the process of step S102. In other words, information on the imaging field selection angle of pan, tilt, and zoom that is optimal is determined.
  • step S105 a composition adjustment instruction is issued.
  • the pan / tilt / zoom imaging visual field selection angles obtained in step S104 are obtained so that the pan / tilt angle instruction to the control unit 51 on the camera platform 10 side and optical The zoom angle is instructed to the system unit 21.
  • step S105 After the composition adjustment instruction in step S105 is performed (that is, after composition adjustment control is started) until the composition adjustment is completed, the processes in steps S106 to S113 in the figure, and steps S120 to Through the process of S126, a process for determining whether or not the subject HF is lost or specifying a lost aspect, and when a lost occurs, a process for tracking / standby according to the lost aspect is performed.
  • the flag functions as an identifier for identifying whether the subject HF is lost due to frame out or in frame.
  • subject detection information is obtained from the signal processing unit 24 as subject detection information acquisition processing.
  • step S108 based on the subject detection information acquired as described above, it is determined whether or not the subject HF has been lost. If a negative result is obtained in step S108 that the subject HF is not lost, the process proceeds to step S109, and it is determined whether or not the subject HF covers the end region EDG. That is, it is determined whether or not the position in the image frame G of the subject HF specified by the subject detection information acquired in step S107 has reached a predetermined end region EDG.
  • step S113 it is determined whether or not composition adjustment is completed. That is, it is determined whether or not the pan / tilt / zoom imaging field selection angles set in step S105 have been set.
  • step S113 if the pan / tilt / zoom imaging field selection angle setting instructed in step S105 has not been completed yet and a negative result has been obtained that the composition adjustment has not been completed, then it is illustrated. In this way, the process returns to step S107. That is, by this, until the composition adjustment is completed, acquisition of subject detection information is performed at a predetermined cycle (S107), determination of the presence or absence of subject loss (S108), and confirmation of the positional relationship between the subject HF and the end region EDG (S109).
  • step S113 determines whether or not the composition is OK.
  • the composition currently obtained in this case, the composition specified from the subject detection information acquired in step S107
  • the composition determined in step S104 for example, a certain level or more. It is determined whether or not the state is an approximation degree.
  • step S114 If a negative result is obtained in step S114 that the composition is not OK, the process returns to step S105 as shown in the figure to instruct a composition adjustment.
  • step S114 If a positive result is obtained in step S114 that the composition is OK, final processing for release is performed by the processing in steps S115 to S121.
  • the subject HF is not in a state to be released immediately in response to the composition becoming OK, but the subject HF is in a predetermined specific state (for example, a smile). As a final condition, release is performed.
  • step S115 time counting is started.
  • step S116 a process for determining whether the state of the detected subject matches a predetermined specific state is executed as a release timing determination process. For example, in the case where smile is the final condition as described above, in the process of step S116, is the state of the subject HF specified from the subject detection information acquired in step S107 matched with the state of smile? Is the process of determining.
  • next step S117 it is determined whether the timing is OK based on the result of the determination process in step S116. Specifically, when the result of the determination process in step S116 indicates that the state of the detected subject matches a predetermined specific state, an affirmative result is obtained that the timing is OK. If the result of the determination process in step S116 indicates that the state of the detected subject does not match a predetermined specific state, a negative result is obtained that the timing is not OK.
  • step S117 If it is determined in step S117 that the timing is not OK and a negative result is obtained, the process proceeds to step S118 to determine whether the time is up. That is, it is determined whether or not the time count value started in step S115 has reached a predetermined value.
  • step S118 If a negative result is obtained in step S118 that the time is not UP, the process proceeds to step S119 to execute subject detection information acquisition processing, and then returns to step S116. In this way, a loop process of steps S116 ⁇ S117 ⁇ S118 ⁇ S119 is formed, and the loop process waits for either the state where the release timing is OK or the arrival of time UP.
  • step S118 if a positive result is obtained that the time is up, the time count is reset in step S120, and then the process returns to step S101. In other words, if the final condition is not satisfied and the time is up, the process starts again from the subject search.
  • step S117 if a positive result is obtained that the timing is OK, the process proceeds to step S121, and a release process is performed.
  • the encoding / decoding unit 25 and the media controller 26 are controlled to record the captured image data in the memory card 40.
  • processing flow described so far is the case where the subject HF is not lost during composition adjustment.
  • processing described below is executed.
  • step S108 If a positive result is obtained in step S108 described above that the subject HF has been lost, the process proceeds to step S122.
  • the process proceeds to step S124, and a process of waiting for a certain period of time is executed. In this case, the waiting period is 3 seconds.
  • step S123 or step S124 After the process of step S123 or step S124 is executed, subject detection information acquisition processing is executed in step S125, and then it is determined in step S126 whether or not the subject HF has been detected.
  • step S126 If an affirmative result is obtained in step S126 that the subject HF is detected, the process returns to step S103. That is, if the lost subject HF is re-detected after following a certain period of time or waiting for a certain period, the optimum composition determination for the re-detected subject HF is performed, and the composition adjustment is performed again. Is executed.
  • step S126 if a negative result is obtained in step S126 that the subject is not detected, the process returns to step S101 and the subject search is repeated.
  • step S115 to S120 the conditions other than the composition being OK (steps S115 to S120) are exemplified as the conditions for the release, but of course, such additional conditions are not imposed. It is also possible to release immediately in response to the composition being OK.
  • FIG. 11 schematically shows a specific example of the automatic imaging control technique as the second embodiment that should be taken corresponding to the case where there are a plurality of detected subjects.
  • FIG. 11A shows the behavior when one of the two (two) subjects HF1 and HF2 detected in the image frame G is out of frame and lost.
  • tracking of the subject HF out of the frame is not performed (that is, ignored) and is detected in the image frame G.
  • the composition is adjusted for the subject HF. That is, the optimum composition determination is performed again because there is a lost subject, but the optimum composition determination is not performed until the framed subject HF is tracked.
  • FIG. 11B shows a case where one of the two subjects HF1 and HF2 detected in the image frame G is lost within the frame (that is, the end region EDG has not been reached immediately before the loss). Behavior).
  • the subject HF1 lost in the frame is expected to return to the front in a short time, and is waited for a certain period.
  • illustration is omitted, after waiting for a certain period of time in this way, subject detection is also performed in this case, and after confirming that the subject HF has been detected again in the image frame G, the optimum composition determination is performed. And composition adjustment.
  • the subject search is repeated.
  • the control method as the second embodiment can be defined as follows. That is, When all of the lost subjects HF are due to frame out and there is a non-lost subject HF within the image frame G (in other words, there is no lost subject HF within the frame and all of them are lost If not, optimum composition determination / composition is performed for the detected subject in the image frame G. When there is a subject HF that has been lost within the frame among the lost subjects HF, it waits for a certain period of time.
  • the subject search After waiting for a certain period, it is determined whether or not the subject HF is re-detected in the image frame G. If the subject HF is re-detected, the optimum composition determination / composition is performed, and the subject HF is not re-detected. If so, start over from the subject search. When all the subjects HF are lost due to frame-out, the subject search is repeated.
  • the imaging and recording are performed. More imaging and recording can be performed without missing opportunities.
  • FIG. 12 shows a specific processing procedure to be performed to realize the automatic imaging control method according to the second embodiment described above.
  • the control unit 27 shown in FIG. 6 executes the procedure of processing to be performed to realize the automatic imaging control method as the second embodiment according to a program stored in the ROM 28, for example. This is shown as the procedure of the process.
  • the same step numbers are assigned to processes having the same contents as those already described, and the description thereof is omitted.
  • steps S101 to S103 the subject search and the image structure determination when the subject HF is detected by the subject search are performed.
  • step S201 After performing the image structure determination in step S103, it is determined in step S201 whether or not there are a plurality of subjects HF. If it is determined in step S201 that the result of the image structure determination is that there are not a plurality of subjects HF detected in the image frame G (that is, there is a single object), a negative result is obtained. . That is, the process in the range of steps S104 to S126 shown in FIG. 10 is executed. In this way, when the number of detected subjects is singular, processing corresponding to the singular time described in the first embodiment can be performed.
  • step S126 when an affirmative result is obtained in step S126 with respect to the processing of steps S104 to S126 shown in FIG. 10 executed as processing corresponding to the single time in this way, the processing proceeds to step S103 shown in FIG. (See the correspondence between the circled 1 mark shown in FIG. 10 and the circled 1 mark shown in FIG. 12).
  • step S103 shown in FIG.
  • appropriate switching is performed so that processing at a plurality of times described below is executed. It can be carried out.
  • step S201 if the result of the image structure determination in step S103 is a positive result that there are a plurality of subjects HF detected in the image frame G, the processing in FIG. The process after S104 is executed. First, the optimum composition determination in step S104 and the composition adjustment instruction in step S105 subsequent thereto are the same as those described in FIG.
  • step S204 if a negative result is obtained in step S204 that there is no subject HF in the edge region EDG, the process proceeds to step S206, and after the flag of the corresponding subject is set to 0, the process proceeds to step S113.
  • step S113 if a negative result is obtained that the composition adjustment has not been completed in the determination process of step S113, the process returns to step S107 (subject detection information acquisition process) shown in FIG. If an affirmative result is obtained in step S113 that the composition adjustment is completed, the processing after step S114 (range from S114 to S121) is executed.
  • step S114 range from S114 to S121
  • the processing after step S114 is executed.
  • step S208 if a negative result is obtained in step S208 that all members are not lost, the process returns to the image structure determination process in step S103 as shown in the figure. That is, when all of the lost subjects HF are due to a frame-out and there is a non-lost subject HF in the image frame G (when there is no lost subject HF within the frame and all are not lost). In this case, optimal composition determination / composition adjustment is performed on the detected subject in the image frame G.
  • step S208 if a positive result is obtained that all the members are lost, the process returns to step S101 to start again from the subject search. That is, as described above, in response to the case where all the subjects HF detected in the image frame G are lost due to the frame out, the subject search is performed again.
  • step S209 After waiting for a certain period by the process of step S209, the subject detection information is acquired in step S210, and then in step S211, it is determined whether or not the subject HF has been detected.
  • step S211 if a positive result is obtained that the subject HF is detected, the process returns to step S103. In other words, this makes it possible to perform the optimum composition determination for the subject HF that is re-detected after waiting for a certain period.
  • step S211 if a negative result is obtained because the subject HF is not detected in step S211, the process returns to step S101, and if the subject HF cannot be redetected even after waiting for a certain period of time. Then, start again from the subject search.
  • the subject set as the priority face can be defined as “subject HF that satisfies a specific condition”.
  • a pre-registered subject is set as a priority face, or a subject having a specific feature such as a child is automatically set as a priority face.
  • a method for pre-registering a subject as a priority face for example, a method for designating a subject to be registered as a priority face by touch panel operation or the like from subjects displayed in images captured and recorded in the past, or a subject to be registered as a priority face.
  • a method of causing a user to capture an image and registering the captured subject as a priority face can be used.
  • a method for automatically setting a subject having a specific characteristic such as a child as a priority face for example, in the image structure determination process, a predetermined specific characteristic such as a child's face is included in the image frame G.
  • a method of performing a process of confirming whether or not there is a subject to be detected and automatically setting the subject as a priority face when there is a corresponding subject as a result is included in the image frame G.
  • control unit 27 in the case of the present embodiment provides the user with a priority face in advance by at least one of the two methods described above regarding the “pre-registered subject”. Control and processing for registering the subject are executed.
  • FIG. 13 schematically shows a specific example of the automatic imaging control method as the third embodiment corresponding to the case where the priority face is set. 13 also illustrates a case where the number of detected subjects in the image frame G is two for ease of explanation.
  • a case where one of the two detected subjects HF is a subject as a priority face (hereinafter referred to as priority subject HFp) is illustrated.
  • the subject HF that is not the priority subject HFp is referred to as a subject HF1.
  • the priority subject HFp that is out of the frame is tracked. That is, in the previous second embodiment, when there are a plurality of detected subjects, tracking is not performed for the subject HF that is out of frame, but in the third embodiment, the subject that is out of frame.
  • the HF is the priority subject HFp, in order to preferentially capture and record the priority subject HFp, this is followed for a certain period.
  • FIG. 13 shows an example in which the number of detected subjects is “2” and one of them is the priority subject HFp and only the priority subject HFp is out of the frame as the simplest case.
  • various cases may occur such as when the number of detected subjects is 3 or more, a lost frame occurs instead of a frame out, or a priority subject HFp is not detected in the first place.
  • the priority subject HFp is always tracked. .
  • the priority subject HFp is within the image frame G, the other subject HF is not tracked even if there is another subject HF out of the frame.
  • the priority subject HFp is detected in the image frame G as described above, it may be assumed that another subject HF is lost within the frame instead of being out of the frame.
  • the priority subject HFp is detected in the image frame G and there is another subject HF in the frame, if only priority is given to the imaging and recording of the priority subject HFp, As described above, since the priority subject HFp is detected in the image frame G, it is conceivable not to wait for a certain period corresponding to the case where there is a subject HF lost in the frame. In other words, this is a technique in which image recording for the priority subject HFp is promptly performed accordingly.
  • the priority subject HFp may be lost within the frame.
  • standby is performed for a certain period.
  • the priority subject HFp may not be detected as the target subject for the optimum composition determination.
  • the correspondence in this case is the same as that described in the second embodiment. Specifically, when the priority subject HFp has not been detected in this way, If all the lost subjects HF are out of frame and there is a non-lost subject HF in the image frame G, optimum composition determination / composition adjustment for the subject HF in the image frame G is performed. To. When all the subjects HF are lost due to frame-out, the subject search is repeated.
  • the following processing for each case classification is as follows: I do. When there is a subject HF out of frame among the lost subjects HF and there is a priority subject HFp among the subjects HF out of the frame ⁇ Was the subject re-detected after tracking for a certain period in the frame out direction of the priority subject HFp? If the subject is re-detected, the optimum composition determination / composition adjustment for the re-detected subject is performed. If the subject is not re-detected, the subject search is repeated.
  • -Lost subject HF is all due to frame out, and there is no priority subject HFp among subjects HF lost due to frame out, and there is a non-lost subject HF in image frame G ⁇ in image frame G
  • the optimal composition determination / composition adjustment is performed on the detected object.
  • -Lost subject HF is all due to frame out, and there is no priority subject HFp among subjects HF lost due to frame out and all are lost.
  • FIG. 14 shows a specific processing procedure to be performed to realize the automatic imaging control method according to the third embodiment described above.
  • the procedure of processing to be performed in order to realize the automatic imaging control method as the third embodiment is performed according to a program stored in the ROM 28 by the control unit 27 shown in FIG. It is shown as a procedure of processing to be executed.
  • the processing procedure in the third embodiment is compared with the processing procedure in the second embodiment in step S204.
  • the priority subject HFp may be tracked, so the direction determination process in step S301 is executed.
  • the direction determination process in step S301 is performed at the timing after the flag update process in step S205 and before the determination process in step S113 as shown in the figure.
  • the processing in step S301 is processing for obtaining direction information for each subject HF that has reached the end region EDG.
  • a direction determination process can be performed only for the priority subject HFp when the priority subject HFp is included in the subject HF that has reached the end region EDG.
  • step S203 when compared with the processing procedure in the case of the second embodiment, in the processing procedure in the case of the third embodiment, the processing content after an affirmative result that there is a lost subject is obtained in step S203. Will also be different.
  • control unit 27 executes processing for accepting registration of the subject as the priority face described above, and this point is also different from the case of the second embodiment. .
  • step S304 After performing the follow-up process for a certain period in step S304, the process proceeds to step S210 to acquire subject detection information. Then, in step S211, it is determined whether or not the subject HF has been detected. Each behavior when a positive result or a negative result is obtained in step S211 is as described above with reference to FIG.
  • step S209 after execution of the standby process in step S209, the process from step S210 to S211 is executed as in the case of the second embodiment, whereby the subject HF Is detected again, and the optimum composition determination / composition adjustment when the subject HF is detected again, or the subject search is performed when the subject HF is not detected again.
  • Step S208 when it is determined that all the members are lost, all the subjects HF are lost due to frame-out, and the priority subject HFp is not included in them. For this reason, if an affirmative result is obtained in step S208 that all are lost, the process returns to step S101 and the subject search is performed again.
  • step S208 If it is determined in step S208 that all of the subjects are not lost, all the lost subjects HF are out of frame (however, the priority subjects HFp are not included) and are not lost. This means that there is a subject HF. For this reason, if a negative result indicating that all the members are not lost is obtained in step S208, the process proceeds to step S103, and the optimum composition determination and composition adjustment for the detected subject in the image frame G are performed. .
  • the non-tracking / tracking of the subject HF is performed according to the positional relationship between the subject HF before the loss and the end region EDG. Is switched (standby / tracking operation switching).
  • the zoom operation is continued / stopped according to the positional relationship between the subject HF and the end region EDG.
  • switching of the zoom operation is continued / stopped according to the positional relationship between the subject HF and the end region EDG. .
  • FIG. 15 is a diagram schematically showing a specific example of the automatic imaging control technique as the fourth embodiment for performing zoom continuation / stop switching using such an end region EDG.
  • adjustment of the zoom angle is included as an adjustment item for performing composition adjustment.
  • a zoom operation zoom-in operation
  • the zoom operation is performed along with the composition adjustment.
  • the zoom operation is performed. Is to stop.
  • the subject HF is out of the frame due to the zoom operation accompanying the composition adjustment using the end region EDG. Can be prevented.
  • the operation switching related to the automatic imaging operation is performed based on a completely new judgment criterion that the positional relationship between the end region EDG and the subject HF is not found in the past. This makes it possible to realize an automatic imaging operation that is more intelligent and more useful to the user.
  • FIG. 16 is a flowchart showing a specific processing procedure for realizing the automatic imaging control method according to the fourth embodiment described above.
  • the control procedure shown in FIG. 6 is executed by the control unit 27 shown in FIG. 6 according to a program stored in the ROM 28, for example, in order to realize the automatic imaging control method according to the fourth embodiment. This is shown as the procedure of the process.
  • FIG. 16 shows a procedure of processing after composition adjustment in the pan / tilt direction has already been completed and a zoom instruction is subsequently performed.
  • step S401 a zooming instruction for composition adjustment is performed. That is, information on the zoom angle specified from the information on the optimum composition (imaging field of view selection angle) determined by the optimal composition determination process not shown in this figure is instructed to the optical system unit 21, and the zoom mechanism Start driving.
  • step S402 subject detection information is acquired.
  • step S403 it is determined whether or not there is a subject HF that has reached (reached) the end region. If a positive result is obtained in step S403 that there is no subject HF in the end area EDG, the process proceeds to step S404, and it is determined whether or not the zoom operation is completed. If a negative result is obtained in step S404 that zooming has not been completed, the process returns to step S402 as shown.
  • a loop process in steps S402 ⁇ S403 ⁇ S404 ⁇ S402 is formed.
  • the loop process waits for the arrival of either the state in which the subject HF has reached the end region or the state in which the zoom operation has been completed.
  • step S404 If an affirmative result is obtained in step S404 that the zoom operation has been completed, the process proceeds to step S405 to determine whether or not the composition is OK.
  • the processing content of step S405 is the same as the processing content of step S114 described with reference to FIG.
  • step S405 If a negative result is obtained in step S405 because the composition is not OK, a composition adjustment instruction (corresponding to the processing in step S105 in FIG. 10) is performed as shown. If a positive result is obtained in step S405 that the composition is OK, the processing after step S115 described above in FIG. 10 (range S115 to S121) is executed. That is, also in this case, when the composition is OK, for example, the final release timing determination process such as a smile, the release process according to the release timing OK, the release timing is not OK, the time The subject is re-searched in the case of UP.
  • step S406 If a positive result is obtained in the above-described step S403 that there is a subject HF in the end region, the process proceeds to step S406 and a zoom stop instruction is issued. That is, a zoom stop instruction is given to the optical system unit 21.
  • step S406 the process proceeds to step S115 as shown in the figure. That is, when the subject HF reaches the end area EDG and the zoom is stopped, it is determined whether or not the composition is OK in step S405, and the process proceeds to the final release timing determination process. Is.
  • step S405 determines whether or not the composition in step S405 is OK after executing the process in step S406. Which of the above behaviors after zoom stop is selected as appropriate depending on the actual embodiment or the like.
  • the fifth embodiment differs from the previous embodiments in the content of the automatic imaging operation that is assumed. Specifically, the fifth embodiment is premised on an automatic imaging operation by a self-timer as an automatic imaging operation.
  • the automatic imaging operation by the self-timer corresponds to an operation of performing a release process (recording a captured image) automatically after a predetermined time has elapsed since the operation of the release button 31a was detected.
  • a release process recording a captured image
  • the user is instructed in advance to switch to the self-timer mode, and the digital still camera is switched to the self-timer mode.
  • a switching instruction is given, a release process is performed after waiting for a predetermined time in accordance with the pressing operation of the release button 31a.
  • the release process is performed uniformly as the predetermined time elapses after the release operation, regardless of the state of the subject HF in the image frame G. For this reason, there is a possibility that a failed photo such as the subject HF sticking out of the image frame G may be recorded.
  • a more intelligent automatic imaging operation is realized in consideration of the state of the subject HF in the image frame G.
  • FIG. 17 is a diagram schematically showing a specific example of the automatic imaging control method as the fifth embodiment.
  • the number of subjects HF number of persons
  • the number of subjects HF number of persons to be automatically imaged is set by the user in advance.
  • “2” is set as the number of persons to be automatically imaged.
  • the automatic imaging control of the fifth embodiment is performed in a region inside the end region EDG in the image frame G.
  • the self-timer is activated in response to the number of subjects HF set in advance as the number of subjects to be automatically imaged.
  • the process waits until a set number of subjects HF are detected in the area inside the end area EDG, and the end area
  • the self-timer is activated in response to the detection of a set number of subjects HF within the area inside the EDG.
  • the release process is performed in response to the time count value by the self-timer thus activated reaching a predetermined value.
  • the self-timer is activated in response to the detection of the subject HF to be automatically imaged in the area inside the end area EDG. Can be launched. That is, this can effectively prevent the failure photo as described above from being recorded.
  • the activation of the self-timer can be automated.
  • the operation of the release button 31a that can be regarded as a timer activation operation is required after the instruction to switch to the self-timer mode is given. According to the embodiment, such an operation for starting the timer can be unnecessary.
  • the set number of persons is set. Since the timer is automatically activated in response to being within the area, the operator can act with a margin, and in this respect, the usefulness can be enhanced more than in the past.
  • the self-timer automatic imaging operation it is possible to realize an automatic imaging operation that is more intelligent than before in consideration of the state of the subject HF in the image frame G.
  • the automatic imaging control method according to the fifth embodiment as described above is based on whether the self-timer has not been started / started according to the positional relationship between the subject HF and the end region EDG. It can be understood that the operation is switched.
  • FIG. 18 is a flowchart showing a specific processing procedure for realizing the automatic imaging control method according to the fifth embodiment.
  • the control unit 27 shown in FIG. 6 executes the processing procedure to be performed in order to realize the automatic imaging control method as the fifth embodiment according to a program stored in the ROM 28, for example. This is shown as the procedure of the process.
  • step S501 it waits until an instruction to switch to the self-timer mode is given by the process of step S501.
  • the switching instruction to the self-timer mode is made when the user performs an operation input using the GUI displayed on the display unit 33.
  • step S502 the number information input acceptance process is executed. Specifically, the display unit 33 displays a number information input screen for inputting the number information, and allows the user to input the number information.
  • the processing in step S502 ends in response to an operation for confirming the input number information.
  • the subject detection information is acquired in step S503 and then set in the frame in step S504. Determine whether there are people. That is, it is determined whether or not the number of subjects HF input (set) by the input receiving process in step S502 has been detected in a region inside the end region EDG.
  • step S504 If it is determined in step S504 that there is no set number of people in the frame and a negative result is obtained, the process returns to step S503. That is, by this, the information acquisition process in step S503 ⁇ the determination process in step S504 is repeated until the set number of people is detected in the frame.
  • step S504 if a positive result is obtained in step S504 that there is a set number of people within the frame, the process proceeds to step S505 to start time counting, and then waits until a predetermined time elapses in step S506. That is, the process waits until the time count value started in step S505 reaches a predetermined value.
  • step S507 If the predetermined time has elapsed, release processing is executed in step S507. After executing the release process in this way, the time count is reset in step S508. With the execution of the process in step S508, the series of processes shown in FIG.
  • the self-timer as a condition for starting the self-timer, only the condition that the set number of subjects HF are detected in the inner area than the end area EDG is imposed. Can also be added. For example, at the time of accepting a set number of persons, a specific face designation is also accepted, and a set number of subjects HF are detected in an area inside the end area EDG, and the above designation is made among the detected subjects HF.
  • the self-timer can be activated only when the condition that the specified face is included is satisfied. For example, when imaging is performed in an environment where many people gather, such as famous tourist spots, an unintended subject HF other than the operator is displayed immediately after the operator gives an instruction to switch to the self-timer mode.
  • the condition imposed together with the condition of the set number of people can include a condition related to the size (face size) of the subject HF.
  • the condition that the face sizes of all the subjects HF of the set number of people are the same size may be imposed.
  • the subject HF to be imaged is arranged at a position that is substantially equidistant from the digital still camera 1, while the unintended subject HF is thus equidistant.
  • a display representing the end region EDG is performed on the display unit 33. It can also be.
  • the case where the subject HF is tracked only in the pan direction (horizontal direction: left-right direction) is exemplified, but of course, tracking in the tilt direction (vertical direction: vertical direction) is performed.
  • the detection of the frame-out direction specifies which side of the end region EDG the lost subject HF has reached before the lost (in this case, on the upper side / lower side). It is done by specifying whether it has been reached).
  • the end area EDG is set so as to cover each of the four sides of the image frame G.
  • the end area EDG is set as the frame out direction of the subject HF. If only the pan direction (horizontal direction) is assumed and tracking of the subject HF is performed only in the pan direction, the end region EDG may be set only at least on the right side and the left side of the image frame G. Alternatively, when only the tracking in the tilt direction is performed, the end region EDG may be set only at least on the upper side and the lower side of the image frame G. Alternatively, tracking in only one specific direction may be performed, and in that case, the end region EDG may be set at least for one specific side of the image frame G.
  • the tracking of the subject HF is performed by panning (or tilting), but the tracking of the subject HF is originally performed within the image frame G.
  • tracking of the subject HF may be performed by zooming. That is, the subject HF is again detected in the image frame G by performing zoom-out according to the presence of the subject HF that has been lost after reaching the end region EDG. For confirmation, when performing such tracking by zooming out, it is not necessary to determine the frame-out direction.
  • the tracking of the subject HF out of the frame is more reliably performed by combining the tracking by such zoom-out and the tracking by pan / tilt driving as described in the first to third embodiments. It can also be aimed at.
  • the condition whether or not the subject HF is tracked includes the condition that the subject HF is lost, but the subject HF is not included in the condition.
  • the subject HF can be tracked in response to the subject HF reaching the end region EDG. In other words, this can be regarded as a technique for preventing frame-out in advance. For confirmation, even when such a method is employed, the tracking / non-tracking of the subject is switched according to the positional relationship between the subject HF and the end region EDG.
  • the processing procedures shown in the flowcharts as the flowcharts are executed by the control unit 27 of the digital still camera 1 according to the program.
  • at least one of the processing procedures shown in each drawing as a flowchart may be executed in the signal processing unit 24 or the control unit 51 on the camera platform 10 side.
  • the imaging control device of the present invention does not necessarily need to be configured so that the digital still camera 1 and the pan / tilt head 10 are detachable (that is, a state that can also be a separate device) as exemplified in the embodiment.
  • the digital still camera 1 and the pan head 10 may be integrated.
  • the digital still camera 1 and the camera platform 10 are configured to be detachable as in the embodiment, the digital still camera 1 can be normally used as a camera.
  • the image that is automatically captured and recorded is a still image, but can be a moving image generated from an image obtained by imaging.
  • At least a part of the configuration based on the present invention can be realized by causing a CPU or DSP to execute a program.
  • a program is written and stored in a ROM or the like at the time of manufacture, for example, and is stored in a removable storage medium and then installed (including update) from this storage medium. It is conceivable to store the data in a corresponding non-volatile storage area, the flash memory 30, or the like. It is also conceivable that a program can be installed through a data interface such as USB (Universal Serial Bus) or IEEE1394 under the control of another host device.
  • the digital still camera 1 can be provided with a network function after being stored in a storage device in a server or the like on a network, and can be configured to be downloaded and acquired from the server.
  • 1 digital still camera 2 body part, 21a lens part, 31a release button, 10 head, 11 body part, 12 camera base part, 13 projection part, 14 connector, 21 optical system, 22 image sensor, 23 A / D converter , 24 signal processing unit, 25 encoding / decoding unit, 26 media controller, 27 control unit, 28 ROM, 29 RAM, 30 flash memory, 31 operation unit, 32 display driver, 33 display unit, 34 pan head compatible communication unit, 40 Memory card, 51 control unit, 52 communication unit, 53 pan mechanism unit, 54 pan motor, 55 pan drive unit, 56 tilt mechanism unit, 57 tilt motor, 58 tilt drive unit, EDG end area

Abstract

 本発明は、撮像動作として特に撮像画像内での被写体検出結果を利用した自動撮像動作を行う場合において、従来にはないよりインテリジェントな、使用者にとってより有用となる撮像動作を実現することができる制御装置、制御方法、プログラム、制御システムに関する。 画枠の端部領域として設定された端領域と、上記画枠内に検出された被写体との位置関係に応じて撮像動作に関する制御を行う。自動撮像動作に関する制御を上記端領域と検出被写体との位置関係という従来にはない全く新しい判断基準に基づき行うことができ、従来にはないよりインテリジェントな、使用者にとってより有用となる自動撮像動作を実現することができる。

Description

制御装置、制御方法、プログラム、制御システム
 本発明は、撮像部による撮像画像内の被写体検出結果を利用した撮像制御を行う制御装置とその方法とに関する。また、この制御装置が実行するプログラムに関する。
 さらには、撮像部を備える撮像装置と上記撮像部による視野を変化させる可動機構装置とを備えて構成される制御システムに関する。
 上記特許文献1~4には、使用者のレリーズ指示に依らずに撮像部による撮像画像の自動記録を行う自動撮像動作に関する各種の技術が開示されている。
特開2005-99164号公報 特開2009-77143号公報 特開2009-100448号公報 特開2008-205838号公報
 本願発明は、自動撮像動作として特に撮像画像内での被写体検出結果を利用した自動撮像動作を行う場合において、従来にはないよりインテリジェントな、使用者にとってより有用となる自動撮像動作を実現することをその課題とする。
 このために本発明は、制御装置として以下のように構成することとした。
 すなわち、撮像部による撮像画像から被写体を検出する被写体検出部を備える。
 また、上記撮像部による撮像画像の画枠における少なくとも一辺に設定された端領域と、上記被写体検出部により上記撮像画像内に検出された被写体との位置関係に応じて、撮像動作に関する制御を行う制御部を備えるようにした。
 上記本発明によれば、画枠の端部領域として設定された端領域と、上記画枠内に検出された被写体との位置関係に応じて、撮像動作に関する制御を行うことができる。
 本発明によれば、撮像動作に関する制御を、画枠の端部領域として設定された端領域と、上記画枠内に検出された被写体との位置関係という従来にはない全く新しい判断基準に基づき行うことができる。これにより、従来にはないよりインテリジェントな、使用者にとってより有用となる自動撮像動作を実現することができる。
実施の形態としての撮像制御装置(撮像システム)の構成要素であるデジタルスチルカメラの外観を正面図及び背面図により簡単に示した図である。 実施の形態としての撮像制御装置(撮像システム)の構成要素である雲台の外観例を示す斜視図である。 雲台にデジタルスチルカメラが取り付けられて形成された実施の形態としての撮像制御装置(撮像システム)の形態例を示す正面図である。 雲台にデジタルスチルカメラが取り付けられて形成された実施の形態としての撮像制御装置(撮像システム)の形態例を、パン方向における動きの態様例とともに示す平面図である。 雲台にデジタルスチルカメラが取り付けられて形成された実施の形態としての撮像制御装置(撮像システム)の形態例を、チルト方向における動きの態様例とともに示す側面図である。 デジタルスチルカメラの内部構成例を示すブロック図である。 雲台の内部構成例を示すブロック図である。 端領域の設定例を示した図である。 第1の実施の形態の自動撮像制御手法の具体例を模式化して示した図である。 第1の実施の形態の自動撮像制御手法を実現するための具体例な処理の手順を示したフローチャートである。 第2の実施の形態の自動撮像制御手法の具体例を模式化して示した図である。 第2の実施の形態の自動撮像制御手法を実現するための具体例な処理の手順を示したフローチャートである。 第3の実施の形態の自動撮像制御手法の具体例を模式化して示した図である。 第3の実施の形態の自動撮像制御手法を実現するための具体例な処理の手順を示したフローチャートである。 第4の実施の形態の自動撮像制御手法の具体例を模式化して示した図である。 第4の実施の形態の自動撮像制御手法を実現するための具体例な処理の手順を示したフローチャートである。 第5の実施の形態の自動撮像制御手法の具体例を模式化して示した図である。 第5の実施の形態の自動撮像制御手法を実現するための具体例な処理の手順を示したフローチャートである。
 以下、本願発明を実施するための形態(以下、実施の形態という)について、下記の順序で説明する。
 <1.撮像システムの構成>
 [1-1.システム全体構成]
 [1-2.デジタルスチルカメラ]
 [1-3.雲台]
 [1-4.自動構図合わせによる自動撮像動作について]
 <2.第1の実施の形態としての自動撮像制御>
 [2-1.検出被写体が単数である場合の振る舞い]
 [2-2.処理手順]
 <3.第2の実施の形態としての自動撮像制御>
 [3-1.検出被写体が複数ある場合の振る舞い]
 [3-2.処理手順]
 <4.第3の実施の形態としての自動撮像制御>
 [4-1.優先顔が設定される場合の振る舞い]
 [4-2.処理手順]
 <5.第4の実施の形態としての自動撮像制御>
 [5-1.端領域を利用したズーム制限]
 [5-2.処理手順]
 <6.第5の実施の形態としての自動撮像制御>
 [6-1.端領域を利用したセルフタイマー起動制御]
 [6-2.処理手順]
 <7.変形例>
 なお、以下の説明においては、「画枠」「画角」「撮像視野」「撮像視野選択角」「構図」なる語を用いるが、各語の定義は以下の通りである。
 「画枠」は、例えば画像が嵌め込まれるようにしてみえる一画面相当の領域範囲をいい、一般には縦長若しくは横長の長方形としての枠形状を有する。
 「画角」は、ズーム角などともいわれるもので、撮像光学系におけるズームレンズの位置によって決まる画枠に収まる範囲を角度により表したものである。厳密には、撮像光学系の焦点距離と、像面(イメージセンサ、フィルム)のサイズによって決まるものとされるが、ここでは像面サイズは固定であり、焦点距離に対応して変化する要素を画角と呼ぶ。以降において、画角の値については、焦点距離(例えば35mm換算)により表す場合がある。
 「撮像視野」は、撮像光学系による視野を表し、上記の画枠によって切り取られる範囲に相当するものである。
 「撮像視野選択角」は、撮像装置の周囲の風景からどの部分を切り取るかを決定付ける要素を角度で表したものであり、ここでは、上記の画角に加え、パン(水平)方向における振り角度と、チルト(垂直)方向における振り角度(仰角、俯角)とにより決まるものをいう。
 「構図」は、フレーミングともいわれるもので、上記の撮像視野選択角の設定、すなわちこの場合はパン・チルト角度と画角(ズーム)との設定により決まるものをいう。
 ここで、本実施の形態では、本発明の撮像制御装置が、デジタルスチルカメラと、このデジタルスチルカメラを着脱可能に保持する雲台とを備えて成る撮像システムとして構成された場合を例に挙げることとする。
 <1.撮像システムの構成>
 [1-1.システム全体構成]
 実施の形態の撮像システムは、デジタルスチルカメラ1と、このデジタルスチルカメラ1が載置される雲台10とを備えて成る。
 先ず、図1にデジタルスチルカメラ1の外観例を示す。図1の(a)、図1の(b)は、それぞれデジタルスチルカメラ1の正面図、背面図である。
 この図に示されるデジタルスチルカメラ1は、先ず、図1の(a)に示すように、本体部2の前面側においてレンズ部21aを備える。このレンズ部21aは、撮像のための光学系として本体部2の外側に表出している部位である。
 また、本体部2の上面部には、レリーズボタン31aが設けられている。撮像モードにおいてはレンズ部21aにより撮像された画像(撮像画像)が画像信号として生成される。そして、この撮像モードにおいてレリーズボタン31aに対する操作が行われると、そのタイミングでの撮像画像が、静止画の画像データとして記録媒体に記録される。つまり、写真撮影が行われる。
 また、デジタルスチルカメラ1は、図1の(b)に示すようにして、その背面側に表示画面部33aを有する。
 この表示画面部33aには、撮像モード時においては、スルー画などといわれ、そのときにレンズ部21aにより撮像している画像が表示される。また、再生モード時においては、記録媒体に記録されている画像データが再生表示される。さらに、ユーザがデジタルスチルカメラ1に対して行った操作に応じて、GUI(Graphical User Interface)としての操作画像が表示される。
 なお、本実施の形態のデジタルスチルカメラ1は、表示画面部33aに対してタッチパネルが組み合わされているものとする。これにより、ユーザは、表示画面部33aに対して指を当てることによって、しかるべき操作を行うことができる。
 また、本実施の形態の撮像システム(撮像制御装置)は、デジタルスチルカメラ1としての撮像装置部と、次に説明する雲台10としての可動機構装置から成るものとしているが、ユーザは、デジタルスチルカメラ1単体のみを使用しても、通常のデジタルスチルカメラと同じように、写真撮影を行うことができることは言うまでもない。
 図2は、雲台10の外観を示す斜視図である。また、図3~図5は、本実施の形態の撮像システムの外観として、雲台10に対してデジタルスチルカメラ1が適切な状態で載置された状態を示している。図3は正面図、図4は平面図、図5は側面図(特に図5の(b)では側面図によりチルト機構の可動範囲を示している)である。
 図2、及び図3,図4,図5に示すように、雲台10は、大きくは接地台部15の上に本体部11が組み合わされたうえで、さらに本体部11に対してカメラ台座部12が取り付けられた構造を有する。
 雲台10にデジタルスチルカメラ1を載置しようとするときには、デジタルスチルカメラ1の底面側を、カメラ台座部12の上面側に対して置くようにする。
 この場合のカメラ台座部12の上面部には、図2に示すようにして、突起部13とコネクタ14が設けられている。
 その図示は省略するが、デジタルスチルカメラ1の本体部2の下面部には、突起部13と係合する孔部が形成されている。デジタルスチルカメラ1がカメラ台座部12に対して適正に置かれた状態では、この孔部と突起部13とが係合した状態となる。この状態であれば、通常の雲台10のパンニング・チルティングの動作であれば、デジタルスチルカメラ1が雲台10からずれたり、外れてしまったりすることがないようにされている。
 また、デジタルスチルカメラ1においては、その下面部の所定位置にもコネクタが設けられている。上記のようにして、カメラ台座部12にデジタルスチルカメラ1が適正に載置される状態では、デジタルスチルカメラ1のコネクタと雲台10のコネクタ14とが接続され、少なくとも、相互間の通信が可能な状態となる。
 なお、例えばコネクタ14と突起部13は、実際においては、カメラ台座部12においてその位置を或る範囲内で変更できるようになっている。そのうえで、例えばデジタルスチルカメラ1の底面部の形状に合わせたアダプタなどを併用することで、異なる機種のデジタルスチルカメラを、雲台10と通信可能な状態で、カメラ台座部12に載置できるようになっている。
 また、デジタルスチルカメラ1とカメラ台座部12との通信は無線により行われるようにしてもよい。
 また、例えば雲台10に対してデジタルスチルカメラ1が載置された状態では、雲台10からデジタルスチルカメラ1に対して充電が行えるように構成しても良い。さらには、デジタルスチルカメラ1にて再生している画像などの映像信号を雲台10側にも伝送し、雲台10からさらにケーブルや無線通信などを介して、外部モニタ装置に出力させるような構成とすることも考えられる。つまり、雲台10について、単に、デジタルスチルカメラ1の撮像視野選択角を変更させるためだけに用いるのではなく、いわゆるクレードルとしての機能を与えることが可能である。
 次に、雲台10によるデジタルスチルカメラ1のパン・チルト方向の基本的な動きについて説明する。
 まず、パン方向の基本的な動きは次のようになる。
 この雲台10を床面などに置いた状態では、接地台部15の底面が接地する。この状態において、図4に示すように、回転軸11aを回転中心として、本体部11は時計回り方向、及び反時計回り方向に回転できるようになっている。つまりこれにより、雲台10に載置されているデジタルスチルカメラ1の水平方向(左右方向)における撮像視野選択角を変化させることができる(所謂パンニング)。
 なお、この場合の雲台10のパン機構は、時計回り方向及び反時計回り方向の何れについても、360°以上の回転が無制限で自在に行える構造を有している。
 また、この雲台10のパン機構においては、パン方向における基準位置が決められている。ここでは、図4に示すようにして、パン基準位置を0°(360°)としたうえで、パン方向に沿った本体部11の回転位置、すなわちパン位置(パン角度)を0°~360°により表すものとする。
 また、雲台10のチルト方向の基本的な動きについては次のようになる。
 チルト方向の動きは、図5の(a)(b)に示すようにして、カメラ台座部12が回転軸12aを回転中心として、仰角、俯角の両方向に角度を振ることにより得られる。
 ここで、図5の(a)は、カメラ台座部12がチルト基準位置Y0(0°)にある状態が示されている。この状態では、レンズ部21a(光学系部)の撮像光軸と一致する撮像方向F1と、接地台部15が接地する接地面部GRとが平行となる。
 そのうえで、図5の(b)に示すように、先ず、仰角方向においては、カメラ台座部12は、回転軸12aを回転中心として、チルト基準位置Y0(0°)から所定の最大回転角度+f°の範囲で動くことができる。また、俯角方向においても、回転軸12aを回転中心として、チルト基準位置Y0(0°)から所定の最大回転角度-g°の範囲で動くことができるようになっている。このようにして、カメラ台座部12がチルト基準位置Y0(0°)を基点として、最大回転角度+f°~最大回転角度-g°の範囲で動くことで、雲台10(カメラ台座部12)に載置されたデジタルスチルカメラ1のチルト方向(上下方向)における撮像視野選択角を変化させることができる。つまりチルティングの動作が得られる。
 なお、図2~図5に示した雲台10の外観構成はあくまでも一例であり、載置されたデジタルスチルカメラ1をパン方向及チルト方向に動かすことができるようにされていれば、他の物理的構成、構造を採ることができる。
 [1-2.デジタルスチルカメラ]
 図6は、デジタルスチルカメラ1の実際的な内部構成例を示したブロック図である。
 この図6において、先ず、光学系部21は、例えばズームレンズ、フォーカスレンズなども含む所定枚数の撮像用のレンズ群、絞りなどを備えて成り、入射された光を撮像光としてイメージセンサ22の受光面に結像させる。
 また、光学系部21においては、上記のズームレンズ、フォーカスレンズ、絞りなどを駆動させるための駆動機構部も備えられる。これらの駆動機構部は、例えば制御部27が実行するとされるズーム(画角)制御、自動焦点調整制御、自動露出制御などのいわゆるカメラ制御によりその動作が制御される。
 イメージセンサ22は、上記光学系部21にて得られる撮像光を電気信号に変換する、いわゆる光電変換を行う。このために、イメージセンサ22は、光学系部21からの撮像光を光電変換素子の受光面にて受光し、受光された光の強さに応じて蓄積される信号電荷を、所定タイミングにより順次出力する。これにより、撮像光に対応した電気信号(撮像信号)が出力される。
 なお、イメージセンサ22として採用される光電変換素子(撮像素子)としては、特に限定されるものではないが、現状であれば、例えばCMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)などを挙げることができる。また、CMOSセンサを採用する場合には、イメージセンサ22に相当するデバイス(部品)として、次に述べるA/Dコンバータ23に相当するアナログ-デジタル変換器も含めた構造とすることができる。
 上記イメージセンサ22から出力される撮像信号は、A/Dコンバータ23に入力されることで、デジタル信号に変換され、信号処理部24に入力される。
 信号処理部24は、DSP(Digital Signal Processor)で構成され、上記A/Dコンバータ23から出力されるデジタル撮像信号について、プログラムに従った所定の信号処理を施す。例えば信号処理部24は、A/Dコンバータ23から出力されるデジタル撮像信号について、1つの静止画(フレーム画像)に相当する単位で取り込みを行い、このようにして取り込んだ静止画単位の撮像信号について所定の信号処理を施すことで、1枚の静止画に相当する画像信号データである撮像画像データ(撮像静止画像データ)を生成する。
 また、本実施の形態の場合、信号処理部24は、このようにして取得した撮像画像データを利用して、後述するように、被写体検出処理としての画像処理を実行可能に構成されるが、この点については後に改めて説明する。
 ここで、上記のようにして信号処理部24にて生成した撮像画像データを画像情報として記録媒体であるメモリカード40に記録させる場合には、例えば1つの静止画に対応する撮像画像データを信号処理部24からエンコード/デコード部25に対して出力する。
 エンコード/デコード部25は、信号処理部24から出力されてくる静止画単位の撮像画像データについて、所定の静止画像圧縮符号化方式により圧縮符号化を実行したうえで、例えば制御部27の制御に応じてヘッダなどを付加して、所定形式に圧縮された画像データの形式に変換する。そして、このようにして生成した画像データをメディアコントローラ26に転送する。メディアコントローラ26は、制御部27の制御に従って、メモリカード40に対して、転送されてくる画像データを書き込んで記録させる。この場合のメモリカード40は、例えば所定規格に従ったカード形式の外形形状を有し、内部には、フラッシュメモリなどの不揮発性の半導体記憶素子を備えた構成を採る記録媒体である。なお、画像データを記録する記録媒体については、上記メモリカード以外の種別、形式などとされてもよい。
 また、デジタルスチルカメラ1は、上記信号処理部24にて得られる撮像画像データを利用して表示部33に画像表示を実行させることで、現在撮像中の画像であるいわゆるスルー画を表示させることが可能とされる。例えば信号処理部24においては、先の説明のようにしてA/Dコンバータ23から出力される撮像信号を取り込んで1枚の静止画相当の撮像画像データを生成するのであるが、この動作を継続することで、動画におけるフレーム画像に相当する撮像画像データを順次生成していく。そして、このようにして順次生成される撮像画像データを、制御部27の制御に従って表示ドライバ32に対して転送する。これにより、スルー画の表示が行われる。
 表示ドライバ32は、上記のようにして信号処理部24から入力されてくる撮像画像データに基づいて表示部33を駆動するための駆動信号を生成し、表示部33に対して出力していく。これにより、表示部33においては、静止画単位の撮像画像データに基づく画像が順次的に表示されていくことになる。これをユーザが見れば、そのときに撮像している画像が表示部33において動画的に表示されることになる。つまり、スルー画が表示される。
 また、デジタルスチルカメラ1は、メモリカード40に記録されている画像データを再生して、その画像を表示部33に対して表示させることも可能とされる。
 このためには、制御部27が画像データを指定して、メディアコントローラ26に対してメモリカード40からのデータ読み出しを命令する。この命令に応答して、メディアコントローラ26は、指定された画像データが記録されているメモリカード40上のアドレスにアクセスしてデータ読み出しを実行し、読み出したデータを、エンコード/デコード部25に対して転送する。
 エンコード/デコード部25は、例えば制御部27の制御に従って、メディアコントローラ26から転送されてきた撮像画像データから圧縮静止画データとしての実体データを取り出し、この圧縮静止画データについて、圧縮符号化に対する復号処理を実行して、1つの静止画に対応する撮像画像データを得る。そして、この撮像画像データを表示ドライバ32に対して転送する。これにより、表示部33においては、メモリカード40に記録されている撮像画像データの画像が再生表示されることになる。
 また表示部33に対しては、上記のスルー画や画像データの再生画像などとともに、ユーザインターフェース画像(操作画像)も表示させることができる。この場合には、例えばそのときの動作状態などに応じて制御部27が必要なユーザインターフェース画像としての表示用画像データを生成し、これを表示ドライバ32に対して出力するようにされる。これにより、表示部33においてユーザインターフェース画像が表示されることになる。なお、このユーザインターフェース画像は、例えば特定のメニュー画面などのようにモニタ画像や撮像画像データの再生画像とは個別に表示部33の表示画面に表示させることも可能であるし、モニタ画像や撮像画像データの再生画像上の一部において重畳・合成されるようにして表示させることも可能である。
 制御部27は、CPU(Central Processing Unit)を備えて成るもので、ROM28、RAM29などとともにマイクロコンピュータを構成する。ROM28には、例えば制御部27としてのCPUが実行すべきプログラムの他、デジタルスチルカメラ1の動作に関連した各種の設定情報などが記憶される。RAM29は、CPUのための主記憶装置とされる。また、この場合のフラッシュメモリ30は、例えばユーザ操作や動作履歴などに応じて変更(書き換え)の必要性のある各種の設定情報などを記憶させておくために使用する不揮発性の記憶領域として設けられるものである。なおROM28について、例えばフラッシュメモリなどをはじめとする不揮発性メモリを採用することとした場合には、フラッシュメモリ30に代えて、このROM28における一部記憶領域を使用することとしてもよい。
 ここで、本実施の形態の場合、制御部27は、撮像視野を変化させながら上記信号処理部24による被写体検出を実行させてデジタルスチルカメラ1周囲の被写体を探索する被写体探索、該被写体探索に伴い検出された被写体の態様に応じた最適とされる構図を所定アルゴリズムに従って判定する最適構図判定、該最適構図判定により求まった最適とされる構図を目標構図とした構図合わせ、及び該構図合わせ後の撮像画像の自動記録、が実現されるようにするための制御・処理を行うが、これについては後述する。
 操作部31は、デジタルスチルカメラ1に備えられる各種操作子と、これらの操作子に対して行われた操作に応じた操作情報信号を生成して上記制御部27に出力する操作情報信号出力部位とを一括して示している。制御部27は、操作部31から入力される操作情報信号に応じて所定の処理を実行する。これによりユーザ操作に応じたデジタルスチルカメラ1の動作が実行されることになる。
 雲台対応通信部34は、雲台10側とデジタルスチルカメラ1側との間での所定の通信方式に従った通信を実行する部位であり、例えばデジタルスチルカメラ1が雲台10に対して取り付けられた状態において、雲台10側の通信部との間での有線若しくは無線による通信信号の送受信を可能とするための物理層構成と、これより上位となる所定層に対応する通信処理を実現するための構成とを有して成る。上記物理層構成として、図2との対応では、コネクタ14と接続されるコネクタの部位が含まれる。
 [1-3.雲台]
 図7のブロック図は、雲台10の内部構成例を示している。
 先に述べたように、雲台10は、パン・チルト機構を備えるものであり、これに対応する部位として、パン機構部53、パン用モータ54、チルト機構部56、チルト用モータ57を備える。
 パン機構部53は、雲台10に取り付けられたデジタルスチルカメラ1について、図4に示したパン(横・左右)方向の動きを与えるための機構を有して構成され、この機構の動きは、パン用モータ54が正逆方向に回転することによって得られる。同様にして、チルト機構部56は、雲台10に取り付けられたデジタルスチルカメラ1について、図5に示したチルト(縦・上下)方向の動きを与えるための機構を有して構成され、この機構の動きは、チルト用モータ57が正逆方向に回転することによって得られる。
 制御部51は、例えばCPU、ROM、RAMなどが組み合わされて形成されるマイクロコンピュータを有して成り、上記パン機構部53、チルト機構部56の動きをコントロールする。例えば制御部51がパン機構部53の動きを制御するときには、移動させるべき方向と移動速度を指示する信号をパン用駆動部55に対して出力する。パン用駆動部55は、入力される信号に対応したモータ駆動信号を生成してパン用モータ54に出力する。このモータ駆動信号は、例えばモータがステッピングモータであれば、PWM制御に対応したパルス信号となる。
 このモータ駆動信号により、パン用モータ54が例えば所要の回転方向、回転速度により回転し、この結果、パン機構部53も、これに対応した移動方向と移動速度により動くようにして駆動される。
 同様にして、チルト機構部56の動きを制御するときには、制御部51は、チルト機構部56に必要な移動方向、移動速度を指示する信号をチルト用駆動部58に対して出力する。チルト用駆動部58は、入力される信号に対応したモータ駆動信号を生成してチルト用モータ57に出力する。このモータ駆動信号によりチルト用モータ57が、例えば所要の回転方向及び回転速度で回転し、この結果、チルト機構部56も、これに対応した移動方向,速度により動くようにして駆動される。
 また、パン機構部53は、ロータリーエンコーダ(回転検出器)53aを備えている。ロータリーエンコーダ53aは、パン機構部53の回転の動きに応じて、その回転角度量を示す検出信号を制御部51に出力する。同様に、チルト機構部56はロータリーエンコーダ56aを備える。このロータリーエンコーダ56aも、チルト機構部56の回転の動きに応じて、その回転角度量を示す信号を制御部51に出力する。
 通信部52は、雲台10に取り付けられたデジタルスチルカメラ1内の雲台対応通信部34との間で所定の通信方式に従った通信を実行する部位であり、雲台対応通信部34と同様にして、相手側通信部と有線若しくは無線による通信信号の送受信を可能とするための物理層構成と、これより上位となる所定層に対応する通信処理を実現するための構成とを有して成る。上記物理層構成として、図2との対応では、カメラ台座部12のコネクタ14が含まれる。
 [1-4.自動構図合わせによる自動撮像動作について]
 ここで、本実施の形態の撮像システムは、先に述べた被写体探索、最適構図判定、構図合わせの各動作により、上記被写体探索に伴い検出された被写体の態様に応じて判定した最適とされる構図を目標構図とした自動構図合わせ動作を行うものとされる。
 以下、このような自動構図合わせ動作を伴う本実施の形態としての自動撮像動作についての具体例について説明しておく。
 先ず、上記のような自動構図合わせを行うにあたっては、図6に示した信号処理部24による被写体検出結果を利用することになる。
 信号処理部24は、被写体検出処理として、以下のような処理を実行する。
 すなわち信号処理部24は、先に説明したようにして取得した1枚の静止画に相当する画像信号データから、人物の顔に相当する画像部分を検出する。具体的に、本例の場合における被写体検出処理では、いわゆる顔検出技術を利用して、画像内から検出した被写体ごとにその顔の画像部分の領域に対応して顔枠を設定する。その上で、当該顔枠の数、サイズ、位置など情報から、画枠内における被写体数、各被写体のサイズやそれぞれの画枠内での位置の情報を得る。
 なお、顔検出の手法についてはいくつか知られているが、本実施の形態において、どのような検出手法を採用するのかについては特に限定されるべきものではなく、検出精度や設計難易度などを考慮して適宜適切とされる方式が採用されるようにすればよい。
 また、信号処理部24は、上記のような被写体検出処理を、1枚の静止画に相当する画像信号データごと(つまり1フレームごと)など、予め定められた所定のフレーム数ごとに実行するようにされている。
 自動構図合わせを行うにあたっては、このような被写体検出処理による検出情報を利用して、先ずはデジタルスチルカメラ1の周囲に存在する被写体の探索を行う。
 具体的に、この被写体探索としては、デジタルスチルカメラ1における制御部27が、雲台10に対するパン・チルト制御や光学系部21に対するズーム制御を行うことによって、撮像視野選択角を変化させながら、信号処理部24による被写体検出を実行させること行う。このような被写体探索処理は、信号処理部24による被写体検出処理により画枠内に被写体が検出された状態が得られたことに応じて終了する。
 被写体探索処理が終了した後、制御部27は、信号処理部24による被写体検出結果に基づく画構造の判定(この場合は画枠内における被写体数、被写体サイズ、被写体位置の判定)を行った上で、最適構図判定処理を実行する。すなわち、この最適構図判定処理としては、上記の画構造判定により判定した画構造の情報に基づき、所定アルゴリズムに従って最適とされる構図を判定する。ここで、先の説明からも理解されるように、この場合の構図は、パン・チルト・ズームの各撮像視野選択角によって決定づけられるものであり、従って当該最適構図判定処理によっては、その判定結果として、上記被写体検出結果(画枠内での被写体の態様)に応じた最適とされるパン・チルト・ズームの各撮像視野選択角の情報が得られるものとなる。
 上記のような最適構図判定処理を実行した後、制御部27は、構図合わせ制御を行う。
すなわち、最適構図を目標構図としたパン・チルト・ズーム制御を行う。
 具体的に制御部27は、当該構図合わせ制御として、上記最適構図判定処理により求まったパン・チルトの各撮像視野選択角の情報を雲台10側の制御部51に指示する。
 これに応じて上記制御部51は、指示されたパン・チルトの各撮像視野選択角が得られる撮像方向にデジタルスチルカメラ1を向かせるための、パン機構部53・チルト機構部56についての移動量を求め、この求めた移動量のパン駆動、チルト駆動が行われるように、パン用モータ54に対するパン制御信号の供給、チルト用モータ57に対するチルト制御信号の供給を行う。
 また、制御部27は、上記最適構図判定処理により求まったズームについての撮像視野選択角の情報(つまり画角の情報)を、光学系部21に指示することで、該指示した画角が得られるように光学系部21によるズーム動作を実行させる。
 そして、制御部27は、上記構図合わせ制御に基づく構図合わせ動作が完了し、上記最適とされる構図が得られたとされた場合において、エンコード/デコード部25及びメディアコントローラ26に対する制御を行って、撮像画像データのメモリカード40への記録を実行させる。
 以上のようにして本実施の形態の撮像システムでは、制御部27による制御・処理に基づき、自動構図合わせによる自動撮像動作が実現されるようになっている。
 <2.第1の実施の形態としての自動撮像制御>
 [2-1.検出被写体が単数である場合の振る舞い]
 ここで、上記のような自動構図合わせによる自動撮像動作を行う撮像システムとして、本例の場合のようにメカ機構を駆動して構図合わせを行うシステムでは、構図合わせ制御が開始されてから目標構図が得られるまでの間に、相応のタイムラグが生じる。そしてこの点から、構図合わせ制御が開始されてから目標構図が得られるまでの間おいては、最適構図判定時に画枠内に検出された被写体が画枠外へと移動したり、或いは移動しなくとも被写体の向きが変わるなどして顔検出ができなくなるなどして、画枠内から検出被写体がロスト(消失)してしまうことがある。
 このようにして、構図合わせ中に画枠内から被写体がロストしたことに応じては、被写体探索からやり直すことが順当に考えられる。
 実際、本出願人は、現在開発中である撮像システムについて、これまでは被写体探索からやり直す手法を採用するものとしていた。
 しかしながら、実験を重ねた結果、このような従来手法には以下のような問題点があることが判明した。
 具体的に、上記のように画枠外への移動(つまりフレームアウト)により被写体がロストしたことに応じて再探索を実行した場合を考えてみると、被写体探索処理としては、単に予め定められた方向・順序でパン・チルト角を振って被写体を探索するようにされているので、例えば実際に被写体が移動した方向と探索時にパン・チルト角を振る方向とが一致しないというケースが生じ得る。つまり、被写体がフレームアウトした方向とは異なる方向に再探索がかけられてしまうという状況に陥る可能性がある。
 或いは、画枠内において被写体がロストしたケースとしては、実際には、単に被写体が俯いたり後方に振り返ったりしたのみで、その後程なくして正面に向き返る場合が多々ある。つまり、このことを踏まえると、上記の従来手法を採用する場合には、このように被写体が正面に向き返るケースが多々あるにもかかわらず、被写体がロストしたことを以て直ちに再探索が行われてしまうものとなり、結果、本来は最適構図で撮像記録ができたケース(つまりシャッタチャンス)であったにも関わらず、その機を逃してしまうことになる。
 このようにして構図合わせ中に画枠内から被写体がロストしたことに応じて被写体を再探索する従来手法を採る場合には、撮像システムとしてのインテリジェントさに大いに欠くものとなってしまい、その結果、使用者にとっての有用性を低下させてしまうことになる。
 そこで、本実施の形態では、最適構図への構図合わせ中に画枠内から被写体がロストした場合には、そのロスト態様に応じて被写体を追従したり、或いは一定期間待機するという手法を採る。
 先ずは、第1の実施の形態では、検出された被写体数が単数であった場合の振る舞いについて説明する。
 図8、図9は、第1の実施の形態としての自動撮像制御手法について説明するための図であり、図8は、画枠に設定される端領域の例、図9は、第1の実施の形態の自動撮像制御手法の具体例を模式化して示している。
 先ず図8に示されるようにして、本実施の形態の場合、図6に示した光学系部21により撮像して得られる撮像画像の画枠Gの端部に対応させるようにして、端領域EDGを設定するものとしている。
 本例の場合、当該端領域EDGは、画枠Gの四辺全ての端部領域を含むように設定するものとしている。具体的に、この場合の端領域EDGは、画枠Gの横方向の両端部に位置する領域の幅がそれぞれx/10に設定され、画枠Gの縦方向における両端部に位置する領域の幅がそれぞれy/10に設定される。
 ここで、図からも明らかなように、上記xは、撮像画像の横方向(水平方向)の有効画素数であり、上記yは撮像画像の縦方向(垂直方向)の有効画素数を表すものである。
 第1の実施の形態では、このように画枠G内に設定された端領域EDGを用いて、図9に示されるような制御動作を行うものとしている。
 先ず図9の(a)は、構図合わせ中に被写体が端領域EDGに達した後にロストした場合の振る舞いを示している。
 なお以下の説明において、画枠G内にて検出された被写体については、被写体HFと表記する。
 この図9の(a)に示すように、被写体HFが端領域EDGに達した後にロストした場合は、当該被写体HFが移動していって顔が見えなくなった場合であると見なすことができる。またこのとき、被写体HFの移動方向(フレームアウトした方向)は、当該被写体HFがロスト直前に達していた端領域EDG内の位置によって知ることができる。すなわち、図9の(a)の例のように被写体HFが端領域EDGにおける右端部の領域に達していた場合には、被写体HFは右方向に移動してフレームアウトしたものとして推定することができる。
 ここで、端領域EDGが、画枠Gの四辺のそれぞれ一辺ごとに対応した4つの領域から成るものとして捉えれば、被写体HFのフレームアウト方向は、これら4つの端領域のうちから上記被写体HFがロスト直前に達していた端領域を特定することによって推定することができるものとなる。
 このように端領域EDGを利用して、被写体HFのロスト原因がフレームアウトによるものであるとされた場合には、当該フレームアウトした被写体HFを追尾(追従)するようにして撮像視野選択角の制御を行う。具体的に、図9の(a)の例では、被写体HFは右方向に移動したと推定できるので、この場合には右方向に一定期間パン駆動が行われるように制御を行うことで、フレームアウトした被写体HFを追尾する。
 ここで本例では、上記「一定期間」として、例えば3秒間の追尾を行うものとしている。
 一方、図9の(b)は、端領域EDGよりも内側の領域内で被写体HFのロストが生じた場合の振る舞いについて示している。
 被写体HFがロストした際、当該被写体HFがその消失前に端領域EDGに達していなかったのであれば、その被写体HFは端領域EDGよりも内側の領域内でロスト(以下、枠内ロストとも称する)したものと見なすことができる。このような枠内ロストが生じた場合としては、被写体HF(顔)の向きが変わったなどの原因で被写体HFが検出できなくなった場合であると見なすことができるので、これに対応しては、一定期間待機する。つまり、このように被写体HFの向きが変わったなどの原因で被写体HFが検出できなくなった場合には、程なくして被写体HFが正面に向き返ることを期待して、一定期間の待機を行うものである。
 本例の場合、このような待機についても、その期間としては3秒を設定している。
 ここで、図9では図示を省略したが、図9の(a)に示す一定期間の追尾、又は図9の(b)に示す一定期間の待機を行った後においては、ターゲットとする被写体HFが再検出できたか否かを確認する処理を行う。具体的に、制御部27は、上記の一定期間の追尾、又は一定期間の待機を行った後、信号処理部24からの被写体検出結果情報を取得し、その情報内容に基づき被写体HFが再検出されたか否かについての判別を行う。
 この判別により、被写体HFが再検出されたとした場合は、先に説明した最適構図の判定を行った後、該最適構図判定により判定した最適とされる構図を目標構図とした構図合わせ制御を実行する。
 一方、上記判別により、被写体HFが再検出されなかったとした場合は、被写体探索が実行されるように制御を行う。つまり、この場合は対象とする被写体HFを見失ったとして、被写体探索からやり直すものである。
 以上で説明した第1の実施の形態としての自動撮像制御が行われることで、被写体ロスト前の当初の最適構図判定で対象とした被写体HFが、構図合わせ中にロストしたとしても、それに応じて即座に被写体の再探索が行われてしまわないようにできる。
 具体的に、被写体HFがフレームアウトによりロストした場合には、フレームアウト方向への追尾を行うことで、被写体探索からやり直すことなくターゲットとする被写体HFがより迅速に再検出されるように図ることができる。
 また、被写体HFが枠内ロストした場合に対応しては、一定期間の待機により、被写体探索からやり直すことなくターゲットとする被写体HFがより迅速に再検出されるように図ることができる。
 このようにして第1の実施の形態としての制御手法によれば、構図合わせ中の被写体ロストに応じて直ちに被写体探索に入る従来手法と比較して、撮像記録の機会をみすみす逃すことなく、より多くの撮像記録が行われるように図られた撮像システムを実現できる。 つまりこの点より、本実施の形態によれば、従来手法を採用する場合よりもインテリジェントな自動撮像動作とすることができ、結果、使用者にとってより有用性のある撮像システムを提供することができる。
 ところで、本実施の形態では、被写体HFのフレームアウト方向を、フレームアウトした被写体HFがロスト前に端領域EDGの何れの領域に達していたかを特定することで検出(判定)するものとしているが、このような手法とすることで、被写体HFのフレームアウト方向の判定は非常に簡易な処理で実現できる。
 ここで、フレームアウト方向を検出する手法としては、被写体HFのロスト前における検出位置の遷移からその移動方向を推定し、該推定した方向をフレームアウト方向とする手法も挙げることができる。
 しかしながら、構図合わせ中においては、パン・チルト・ズームなどの撮像視野選択角の調整が行われていることから、被写体検出情報から得られる被写体HFの位置の変化は、被写体HF自体の移動に伴うものであるのか、パン・チルト・ズームの調整に伴うものであるかの区別が非常に困難となり、結果、被写体HFの移動方向の判定を誤る可能性が高い。
 或いは、被写体HFの移動方向の判定精度を上げるために、構図合わせのためのパン・チルト・ズームの動きに伴う被写体HFの位置変化分をキャンセルする演算処理を付加した移動方向推定処理とすることも考えられるが、その場合には、処理負担の増大化を招く結果となる。
 これに対し、上記により説明した本実施の形態の手法によれば、被写体HFのフレームアウト時の移動方向は、当該被写体HFが消失前に端領域EDGの何れの領域に達していたかを特定するという非常に簡易な処理で、且つ正確に判定することができる。
 [2-2.処理手順]
 図10のフローチャートは、上記により説明した第1の実施の形態としての自動撮像制御手法を実現するために行われるべき具体的な処理の手順を示している。
 なお、図10においては、第1の実施の形態としての自動撮像制御手法を実現するために行われるべき処理の手順を、図6に示した制御部27が例えばROM28に格納されるプログラムに従って実行する処理の手順として示している。
 先ず、ステップS101においては、被写体探索処理を実行する。すなわち、デジタルスチルカメラ1周囲に存在する被写体の探索を行うための処理として、雲台10側の制御部51に対するパン・チルト指示や光学系部21に対するズーム制御を行うことによって、撮像視野選択角を変化させながら、信号処理部24による被写体検出を実行させる。
 次のステップS102においては、被写体が検出されたか否かを判別する。すなわち、信号処理部24による被写体検出処理によって画枠G内に被写体HFが検出されたか否かを判別するものである。
 ステップS102において、被写体が検出されなかったとして否定結果が得られた場合は、ステップS101に戻り、再度、被写体探索処理を実行する。
 一方、上記ステップS102において、被写体が検出されたとして肯定結果が得られた場合は、ステップS103に進み、画構造判定処理を実行する。すなわち、信号処理部24から取得した被写体検出情報に基づき、画枠G内に検出された被写体HFの数や位置、サイズなどといった被写体HF(人物)を主体要素に据えた画構造についての判定を行う。
 そして、続くステップS104では、最適構図判定処理として、上記ステップS102の処理で判定した画構造の情報に基づき、予め定められた所定アルゴリズムに従って最適とされる構図を判定する。すなわち、最適とされるパン・チルト・ズームの各撮像視野選択角の情報を判定するものである。
 次のステップS105においては、構図合わせ指示を行う。つまり、上記ステップS104にて得られた最適とされるパン・チルト・ズームの各撮像視野選択角が得られるようにして、雲台10側の制御部51に対するパン・チルト角の指示、及び光学系部21に対するズーム角の指示を行う。
 上記ステップS105による構図合わせ指示が行われた以降(つまり構図合わせ制御が開始された以降)から、構図合わせが完了するまでの期間においては、図中のステップS106~S113の処理、及びステップS120~S126の処理により、被写体HFのロスト有無の判別やロスト態様の特定のための処理、またロストが生じた場合にはロスト態様に応じた追尾/待機のための処理が行われる。
 先ず、ステップS106においては、flag=0とする処理を実行する。ここで当該flagは、被写体HFがフレームアウトによりロストしたか、或いは枠内ロストしたかを識別するための識別子として機能する。
 続くステップS107では、被写体検出情報取得処理として、信号処理部24からの被写体検出情報の取得を行う。
 次のステップS108においては、上記のように取得した被写体検出情報に基づき、被写体HFがロストしたか否かを判別する。
 ステップS108において、被写体HFがロストしていないとして否定結果が得られた場合は、ステップS109に進み、被写体HFは端領域EDGにかかっているか否かを判別する。すなわち、上記ステップS107にて取得した被写体検出情報によって特定される被写体HFの画枠G内の位置が、予め定められた端領域EDGに達しているか否かを判別する。
 上記ステップS109において、被写体HFが端領域にかかっているとして肯定結果が得られた場合は、ステップS110に進み、flag=1に更新する処理を実行する。
 その上で、次のステップS111において、方向判定処理を実行する。すなわち、後述するステップS123による追従処理が行われる際に必要となる被写体HFのフレームアウト方向を表す情報を得るべく、被写体HFが端領域EDGの少なくとも右辺、左辺の何れの領域に達したかについての判定を行った結果から、右又は左の方向情報を得るものである。
 当該ステップS111の処理を実行した後は、ステップS113に処理を進める。
 一方、上記ステップS109において、被写体HFが端領域EDGにかかってはいないとして否定結果が得られた場合は、ステップS112に進んでflag=0とした後、ステップS113に処理を進める。
 ステップS113においては、構図合わせが完了したか否かを判別する。すなわち、ステップS105にて指示したパン・チルト・ズームの各撮像視野選択角の設定が完了したか否かを判別する。
 ステップS113において、ステップS105にて指示したパン・チルト・ズームの各撮像視野選択角の設定が未だ完了しておらず、構図合わせが完了していないとして否定結果が得られた場合は、図示するようにしてステップS107に戻る。つまりこれにより、構図合わせが完了するまでの間は、所定周期により被写体検出情報の取得(S107)、被写体ロスト有無の判別(S108)、被写体HFと端領域EDGとの位置関係の確認(S109)、及び被写体HFと端領域EDGとの位置関係に応じたflag更新やflag=1の場合の方向判定(S110、S112、S111)の処理が繰り返し行われるようになっている。
 一方、上記ステップS113において、構図合わせが完了したとして肯定結果が得られた場合は、ステップS114に進み、構図がOKであるか否かを判別する。すなわち、現在得られている構図(この場合はステップS107にて取得した被写体検出情報から特定される構図)が、先のステップS104により判定した構図と同じであるとみなされる状態(例えば一定以上の近似度となる状態など)であるか否かを判別するものである。
 ステップS114において、構図がOKではないとして否定結果が得られた場合は、図示するようにしてステップS105に戻り、構図合わせ指示を行う。
 また、上記ステップS114において、構図がOKであるとして肯定結果が得られた場合は、ステップS115~S121の処理により、レリーズのための最終処理を行う。
 ここで、本例の自動撮像動作においては、構図がOKとなったことに応じて直ちにレリーズを行うものとはせず、被写体HFが予め定められた特定の状態(例えば笑顔など)となることを最終条件として、レリーズを行うものとしている。
 先ず、ステップS115では、タイムカウントをスタートする。
 そして、続くステップS116においては、レリーズタイミング判定処理として、検出被写体の状態が予め定められた特定の状態と一致するものとなっているかを判定するための処理を実行する。例えば上記のように笑顔を最終条件とする場合、当該ステップS116の処理は、ステップS107にて取得した被写体検出情報から特定される被写体HFの状態が、笑顔としての状態と一致するものであるかを判定する処理となる。
 次のステップS117においては、上記ステップS116による判定処理の結果に基づき、タイミングOKであるか否かを判別する。具体的には、上記ステップS116の判定処理による結果が、検出被写体の状態が予め定められた特定の状態と一致する旨を表すものである場合には、タイミングOKであるとして肯定結果を得る。また、上記ステップS116の判定処理による結果が検出被写体の状態が予め定められた特定の状態と一致するものではない旨を表すものである場合は、タイミングOKではないとして否定結果を得る。
 上記ステップS117において、タイミングOKではないとして否定結果が得られた場合は、ステップS118に進み、タイムUPか否かを判別する。つまり、ステップS115にてスタートしたタイムカウントの値が予め定められた所定値に達したか否かを判別する。
 上記ステップS118において、タイムUPではないとして否定結果が得られた場合は、ステップS119に進んで被写体検出情報の取得処理を実行した後、ステップS116に戻る。
 このようにしてステップS116→S117→S118→S119のループ処理が形成され、該ループ処理により、レリーズタイミングがOKとなる状態、又はタイムUPの何れかの到来を待機するようにされている。
 上記ステップS118において、タイムUPであるとして肯定結果が得られた場合は、ステップS120にてタイムカウントをリセットした後、ステップS101に戻る。すなわち、最終条件が成立せずにタイムUPとなった場合は、被写体探索からやり直すものである。
 また、上記ステップS117において、タイミングOKであるとして肯定結果が得られた場合は、ステップS121に進み、レリーズ処理を行う。すなわち、エンコード/デコード部25及びメディアコントローラ26に対する制御を行って、撮像画像データのメモリカード40への記録を実行させる。
 ここで、これまでで説明した処理の流れは、構図合わせ中に被写体HFがロストしなかった場合のものとなる。
 構図合わせ中において被写体HFがロストした場合には、以下で説明する処理が実行される。
 上述したステップS108において、被写体HFがロストしたとして肯定結果が得られた場合は、ステップS122に処理を進める。
 ステップS122においては、ロストした被写体HFが、端領域EDGに達した後にロストしたものであるか否かを判別する。つまり、flag=1であるか否かを判別するものである。
 ステップS122において、flag=1であり、端領域EDGに達した後にロストしたとの肯定結果が得られた場合は、ステップS123に進み、一定期間追従(追尾)するための処理を実行する。すなわち、先のステップS111の方向判定処理によって判定した方向と一致する方向に一定期間パン駆動が行われるように、雲台10側の制御部51に対する指示を行う。なお先に述べたように、この場合の被写体HFの追尾期間は3秒に設定される。
 一方、上記ステップS122において、flag=1ではない(つまりflag=0である)として否定結果が得られた場合は、ステップS124に進み、一定期間待機する処理を実行する。なお待機期間についてもこの場合は3秒である。
 上記ステップS123又は上記ステップS124の処理を実行した後は、ステップS125において、被写体検出情報の取得処理を実行し、その上で、ステップS126において、被写体HFが検出されたか否かを判別する。
 上記ステップS126において、被写体HFが検出されたとして肯定結果が得られた場合は、ステップS103に戻るようにされる。すなわち、一定期間の追従又は一定期間の待機後において、ロストした被写体HFが再検出されたとした場合には、当該再検出された被写体HFを対象とした最適構図判定が行われ、再度の構図合わせが実行されるものである。
 一方、上記ステップS126において、被写体が検出されなかったとして否定結果が得られた場合は、ステップS101に戻り、被写体探索からやり直すことになる。
 ここで、本例においては、レリーズのための条件として、構図がOKとなること以外の条件(ステップS115~S120)を課す場合を例示したが、もちろんこのような別途の条件は課さずに、構図がOKとなったことに応じて直ちにレリーズを行うようにすることも可能である。
 <3.第2の実施の形態としての自動撮像制御>
 [3-1.検出被写体が複数ある場合の振る舞い]
 ここで、第1の実施の形態では、画枠G内にて検出された被写体HFが単数であることを前提とした説明を行った。
 第2の実施の形態では、画枠G内にて検出された被写体HFが複数である場合に対応して行われるべき動作について説明する。
 なお、第2の実施の形態を始めとして以降で説明する各実施の形態において、撮像システム(デジタルスチルカメラ1・雲台10)の構成については先の図1~7にて説明したものと同様となることから、改めての図示による説明は省略する。
 図11は、検出被写体が複数である場合に対応して採られるべき第2の実施の形態としての自動撮像制御手法の具体例を模式化して示している。
 図11の(a)は、画枠G内にて検出された2つ(2人)の被写体HF1,HF2のうち、一方の被写体HF2がフレームアウトしてロストした場合の振る舞いを示している。
 この図からも明らかなように、一方の被写体HFがフレームアウトしてロストした場合は、当該フレームアウトした被写体HFを追尾するということは行わず(つまり無視し)、画枠G内に検出される被写体HFを対象とした構図合わせを行うようにする。すなわち、ロスト被写体があることから最適構図判定はやり直すものの、フレームアウトした被写体HFを追尾しての最適構図判定までは行わないというものである。
 また、図11の(b)は、画枠G内にて検出された2つの被写体HF1,HF2のうち、一方の被写体HF1が枠内ロストした場合(つまりロスト直前に端領域EDGに達していなかった場合)の振る舞いを示している。
 図示するようにこの場合は、枠内ロストした被写体HF1が程なくして正面に向き返ることを期待して、一定期間待機する。
 そして、図示は省略したが、このように一定期間待機した後は、この場合も被写体検出を行って、画枠G内に被写体HFが再検出されたことを確認した上で、最適構図判定、及び構図合わせを行うことになる。
 なおこの場合も、一定期間待機後の被写体検出により被写体HFを再検出できなかった場合には、被写体探索からやり直すことになる。
 ところで、ケースとしては希であると考えられるが、構図合わせ中において、画枠Gにて検出されていた全ての被写体HFがフレームアウトによりロストしてしまうといった事態も想定できる。
 図示は省略したが、このように画枠G内の被写体HFが全てフレームアウトしてロストした場合には、被写体探索からやり直すようにする。
 ここで、図11においては、説明の簡単のため、検出被写体数が2つである場合について例示したが、被写体数が複数(3以上である場合も含む)であるものとして一般化した場合、第2の実施の形態としての制御手法は、以下のように定義できる。
 すなわち、
 ・ロストした被写体HFの全てがフレームアウトによるものであり且つ画枠G内に非ロストの被写体HFがある場合(換言すれば、ロストした被写体HFのうちに枠内ロストしたものがなく且つ全員ロストでない場合)は、画枠G内の検出被写体を対象とした最適構図判定・構図合わせを行う。
 ・ロストした被写体HFのうちに枠内ロストした被写体HFがある場合は、一定期間待機する。一定期間待機後には、画枠G内に被写体HFが再検出されたか否かを判別し、被写体HFが再検出された場合は最適構図判定・構図合わせを行い、被写体HFが再検出されなかった場合は被写体探索からやり直す。
 ・被写体HF全てがフレームアウトによりロストした場合には、被写体探索からやり直す。
 上記による第2の実施の形態としての制御手法によれば、検出被写体が複数である場合にも、構図合わせ中の被写体ロストに応じて直ちに被写体探索に入る従来手法と比較して、撮像記録の機会をみすみす逃すことなくより多くの撮像記録が行われるように図ることができる。
 [3-2.処理手順]
 図12のフローチャートは、上記により説明した第2の実施の形態としての自動撮像制御手法を実現するために行われるべき具体的な処理の手順を示している。
 なお、図12においても、第2の実施の形態としての自動撮像制御手法を実現するために行われるべき処理の手順を、図6に示した制御部27が例えばROM28に格納されるプログラムに従って実行する処理の手順として示している。
 また、以降の説明において、既に説明済みとなったものと同内容となる処理については同一ステップ番号を付して説明を省略する。
 先ず、図12に示す処理においても、先ずはステップS101~S103によって、被写体探索、及び該被写体探索により被写体HFが検出された場合の画構造判定が行われる。
 そしてこの場合、上記ステップS103による画構造判定を行った後には、ステップS201において、被写体HFが複数であるか否かを判別する。
 このステップS201において、上記画構造判定の結果、画枠G内に検出された被写体HFが複数ではない(つまり単数である)として否定結果が得られた場合は、単数時の処理へと移行する。すなわち、先の図10に示したステップS104~S126の範囲の処理を実行するものである。
 このようにすることで、検出被写体が単数である場合には、先の第1の実施の形態で説明した単数時に対応した処理を行うことができる。
 ここで、このように単数時に対応した処理として実行される図10に示したステップS104~S126の処理に関して、ステップS126にて肯定結果が得られた際には、図12に示すステップS103に処理を進めるようにする(図10に示す丸で囲った1の印と図12に示す丸で囲った1の印との対応関係を参照)。
 これにより、当初は単数であった被写体HFが一定期間の追尾又は一定期間の待機後に複数に増えるといったケースに対応して、以下で説明する複数時の処理が実行されるように適正な切り換えを行うことができる。
 また、上記ステップS201において、ステップS103による画構造判定の結果、画枠G内に検出された被写体HFが複数であるとして肯定結果が得られた場合は、複数時の処理として、図12におけるステップS104以降の処理を実行する。
 先ず、上記ステップS104による最適構図判定、及びこれに続くステップS105の構図合わせ指示に関しては、図10にて説明したものと同様となる。
 この場合、上記ステップS105による構図合わせ指示を行った後は、ステップS202において、被写体HFごとのflag=0とする処理を実行する。
 そして、このように被写体HFごとのflag=0とした後は、ステップS107にて被写体検出情報の取得を行い、その後、ステップS203において、ロストした被写体HFがあるか否かについて判別を行う。
 ステップS203において、ロストした被写体HFがないとして否定結果が得られた場合は、ステップS204に進み、端領域EDGにかかる被写体HFがあるか否かについて判別を行う。
 ステップS204において、端領域EDGにかかる(達した)被写体HFがあるとして肯定結果が得られた場合は、ステップS205に進み、該当する被写体のflag=1とする処理を実行する。すなわち、端領域EDGに達した被写体HFのflagを1に更新するものである。
 当該ステップS205のflag更新処理の実行後は、ステップS113に処理を進める。
 一方、上記ステップS204において、端領域EDGにかかる被写体HFがないとして否定結果が得られた場合は、ステップS206に進み、該当する被写体のflag=0とした後、ステップS113に処理を進める。
 この場合、上記ステップS113の判別処理において構図合わせが完了していないとの否定結果が得られた場合は、図12に示すステップS107(被写体検出情報取得処理)に戻ることになる。
 また、上記ステップS113において構図合わせが完了したとして肯定結果が得られた場合は、ステップS114以降の処理(S114~S121の範囲)を実行する。これにより、この場合も構図合わせの完了後には、構図がOKであった場合の最終的なレリーズタイミングの判定処理、及びレリーズタイミングOKとなったことに応じたレリーズ処理、レリーズタイミングがOKとならずタイムUPした場合の被写体探索、或いは構図がOKではなかった場合の構図合わせ指示、が行われる。
 上記説明からも理解されるように、検出被写体が複数である場合にも、構図合わせ中における被写体ロストが生じなかった場合には、構図がOKか否かの判別、最終的なレリーズタイミングがOKとなったか否かの判別の結果に応じて、レリーズ処理(自動撮像記録)や被写体の再探索が行われるものとなる。
 一方、構図合わせ中に被写体ロストが生じ、上述したステップS203においてロストした被写体HFがあるとの肯定結果が得られた場合は、ステップS207以降の処理に移行する。
 先ず、ステップS207では、ロストした全ての被写体HFのflag=1であるか否かを判別する。すなわち、ロストした被写体HFが全てフレームアウトによるものであるか否かを判別するものである。
 ステップS207において、ロストした全ての被写体HFのflag=1であるとして肯定結果が得られた場合は、ステップS208に進み、全員ロストか否かについて判別する。つまり、画枠G内に検出されていた(ステップS104による最適構図判定前に検出されていた)被写体HFの全てがロストしたか否かを判別する。
 確認のため述べておくと、このステップS208において、全員ロストではないとして否定結果が得られた場合としては、ロストした被写体HFの全てがフレームアウトによるものであり且つ画枠G内に非ロストの被写体HFがあるということになる(図11の(a)のケースが該当)。
 一方、ステップS208において全員ロストであるとして肯定結果が得られた場合は、画枠G内に検出されていた全ての被写体HFがフレームアウトによりロストしたということになる。
 この点を踏まえた上で、上記ステップS208において全員ロストではないとして否定結果が得られた場合には、図示するようにステップS103の画構造判定処理に戻るようにされる。すなわち、ロストした被写体HFの全てがフレームアウトによるものであり且つ画枠G内に非ロストの被写体HFがある場合(ロストした被写体HFのうちに枠内ロストしたものがなく且つ全員ロストでない場合)には、画枠G内の検出被写体を対象とした最適構図判定・構図合わせが行われるようにするものである。
 また、上記ステップS208において、全員ロストであるとして肯定結果が得られた場合は、ステップS101に戻り、被写体探索からやり直すようにされる。すなわち先に説明した通り、画枠G内に検出されていた全ての被写体HFがフレームアウトによりロストしたものである場合に対応しては、被写体探索からやり直すものである。
 また、上述したステップS207において、ロストした全ての被写体HFのflag=1ではないとして否定結果が得られた場合としては、ロストした被写体HFのうちに枠内ロストのものがあるということになる(図11の(b)のケースが該当)。
 このため、上記ステップS207において否定結果が得られた場合には、ステップS209に進み、一定期間待機する。
 上記ステップS209の処理により一定期間待機した後は、ステップS210において被写体検出情報の取得を行い、その上で、ステップS211において、被写体HFが検出されたか否かについての判別を行う。
 上記ステップS211において、被写体HFが検出されたとして肯定結果が得られた場合は、ステップS103に戻る。つまりこれにより、一定期間待機後に再検出された被写体HFを対象とした最適構図判定が行われるようにできる。
 一方、上記ステップS211において被写体HFが検出されなかったとして否定結果が得られた場合は、ステップS101に戻ることになり、これにより一定期間待機しても被写体HFを再検出できなかった場合には、被写体探索からやり直すことになる。
 <4.第3の実施の形態としての自動撮像制御>
 [4-1.優先顔が設定される場合の振る舞い]
 ここで、近年のデジタルスチルカメラでは、顔認識技術を応用して、いわゆる「優先顔」の設定を行うものがある。具体的には、例えば予め登録された特定の顔(被写体)に関して、優先的にその被写体に合ったフォーカスや露出などの撮像パラメータの自動調整が行われるようにするといったものである。
 本例における自動構図合わせによる自動撮像動作に関しても、このような優先顔の概念を取り入れて、例えば優先顔として設定された被写体の撮像画像がより多く記録されるようにするといった制御手法を採ることができる。
 第3の実施の形態は、このように優先顔としての被写体の撮像画像がより多く記録されるようにする優先顔モードが設定された場合に好適な自動撮像制御手法を提案するものである。
 なお、本例において、優先顔として設定される被写体は、「特定の条件を満す被写体HF」と定義できる。具体的には、予め登録された被写体を優先顔として設定したり、或いは例えば子供などの特定の特徴を有する被写体を自動的に優先顔として設定するといったことが挙げられる。
 優先顔としての被写体を予め登録する手法に関しては、例えば過去に撮像記録した画像に映し出される被写体のうちからタッチパネル操作などで優先顔として登録する被写体を指定させる手法や、優先顔として登録したい被写体を使用者に撮像させ、該撮像された被写体を優先顔として登録する手法などを挙げることができる。
 また、子供などの特定の特徴を有する被写体を優先顔として自動設定する手法としては、例えば画構造判定処理において、画枠G内に例えば子供の顔など予め定められた特定の特徴を有するとされる被写体が存在するか否かを確認する処理を行い、その結果該当する被写体があった場合に当該被写体を優先顔として自動設定するといった手法を挙げることができる。
 以下では説明の簡単のため、優先顔としての被写体は、予め登録された被写体であるものとする。
 このことに対応して、本実施の形態の場合における制御部27は、「予め登録された被写体」に関して上述した2つの手法のうちの、少なくとも何れかの手法により使用者に予め優先顔としての被写体を登録させるための制御・処理を実行する。
 以上の前提を踏まえた上で、第3の実施の形態としての自動撮像制御手法について説明する。
 図13は、優先顔が設定される場合に対応した第3の実施の形態としての自動撮像制御手法の具体例を模式化して示している。
 なおこの図13においても、説明の簡単のため、画枠G内における検出被写体数が2つである場合を例示している。ここでは検出された2つの被写体HFのうち、一方の被写体HFが優先顔としての被写体(以下、優先被写体HFpと称する)である場合を例示している。なお、図中に示されるように、優先被写体HFpではない方の被写体HFについては被写体HF1と表記する。
 この図13に示すように、画枠G内に優先被写体HFpが検出されていた場合において、構図合わせ中に当該優先被写体HFpがフレームアウトによりロストしたときには、当該フレームアウトした優先被写体HFpを追尾する。
 すなわち、先の第2の実施の形態では、検出被写体が複数ある場合において、フレームアウトした被写体HFに関してはその追尾を行わないようにしていたが、第3の実施の形態では、フレームアウトした被写体HFが優先被写体HFpであった場合には、当該優先被写体HFpについての撮像記録が優先的に行われるようにするため、これを一定期間の追尾するものとしている。
 ここで、図13においては、最もシンプルなケースとして、検出被写体数が「2」の場合で且つ、そのうちの一方が優先被写体HFpであって当該優先被写体HFpのみがフレームアウトする例を示したが、実際のケースとしては、検出被写体数が3以上であったり、フレームアウトではなく枠内のロストが生じたり、或いはそもそも優先被写体HFpが検出されなかった場合などの、様々なケースが生じ得る。
 このとき、優先被写体HFpについての撮像記録がより多く行われるようにするのであれば、優先被写体HFpがフレームアウトによりロストした際には、常時、当該優先被写体HFpが追尾されるようにすればよい。
 或いは、優先被写体HFpが画枠G内にあるときには、他にフレームアウトした被写体HFがあったとしても、これら他の被写体HFを追尾するようなことがないようにする。
 また、上記のように優先被写体HFpが画枠G内にて検出されている場合において、他の被写体HFがフレームアウトではなく枠内ロストする場合も想定され得る。
 ここで、このように優先被写体HFpが画枠G内にて検出されており且つ他に枠内ロストの被写体HFがある場合において、あくまで優先被写体HFpの撮像記録のみを優先するのであれば、上記のように画枠G内に優先被写体HFpが検出されていることを以て、枠内ロストした被写体HFがある場合に対応した一定期間待機は行わないようにすることが考えられる。つまりその分、迅速に優先被写体HFpについての撮像記録が行われるように図るといった手法である。
 但し本例では、上記のように画枠G内に優先被写体HFpが検出されてはいるが他に枠内ロストした被写体HFがあるというケースに対応しては、一定期間待機する手法を採るものとしている。
 なお、上記の何れの手法を採用するかは実際の実施形態などに応じて適宜選択すればよい。
 また、画枠G内に優先被写体HFpが検出されていた場合にあっては、当該優先被写体HFpが枠内ロストする場合もある。
 このように優先被写体HFpが枠内ロストした場合に対応しては、一定期間の待機を行う。
 また、上述もしたように、そもそも最適構図判定の対象被写体として優先被写体HFpが検出されていなかった場合もある。
 この場合の対応は、先の第2の実施の形態で説明したものと同様となる。
 具体的に、このように優先被写体HFpが検出されていなかった場合においては、
 ・ロストした被写体HFが全てフレームアウトによるものであり且つ画枠G内に非ロストの被写体HFがある場合は、画枠G内における被写体HFを対象とした最適構図判定・構図合わせが行われるようにする。
 ・被写体HF全てがフレームアウトによりロストした場合には、被写体探索からやり直す。
 ・ロストした被写体HFのうちに枠内ロストの被写体HFがある場合には、一定期間待機した後、画枠G内に被写体が再検出されたか否かを判別し、被写体が再検出された場合は最適構図判定・構図合わせを行い、被写体が再検出されなかった場合は被写体探索からやり直す。
 ここで、上記により説明したような動作が実現されるべく、具体的に第3の実施の形態では、構図合わせ中に被写体ロストが生じた場合において、以下のような各場合分けごとの対応処理を行う。
 ・ロストした被写体HFのうちフレームアウトした被写体HFがあり且つ当該フレームアウトした被写体HFのうちに優先被写体HFpがある場合
 → 優先被写体HFpのフレームアウト方向に一定期間追尾後、被写体が再検出されたか否かを判別し、被写体が再検出された場合は当該再検出された被写体を対象とした最適構図判定・構図合わせが行われるようにし、被写体が再検出されなかった場合は被写体探索からやり直す。
 ・枠内ロストの被写体HFがあり、且つフレームアウトによりロストした被写体HFもあるが当該フレームアウトによりロストした被写体HFのうちに優先被写体HFpが無い場合
 → 一定期間待機した後、被写体が再検出されたか否かを判別し、被写体が再検出された場合は当該再検出された被写体を対象とした最適構図判定・構図合わせが行われるようにし、被写体が再検出されなかった場合は被写体探索からやり直す。
 ・ロストした被写体HFは全てフレームアウトによるものであり、且つフレームアウトによりロストした被写体HFのうちに優先被写体HFpが無く、且つ画枠G内に非ロストの被写体HFがある場合
 →画枠G内の検出被写体を対象とした最適構図判定・構図合わせが行われるようにする。
 ・ロストした被写体HFは全てフレームアウトによるものであり、且つフレームアウトによりロストした被写体HFのうちに優先被写体HFpが無く、且つ全員ロストである場合
 →被写体探索からやり直す。
 上記のような各場合分けに応じた対応処理を実行することで、フレームアウトした優先被写体HFpの一定期間追尾や枠内ロストした優先被写体HFpについての一定期間待機を実現することができ、これによって優先被写体HFpについての撮像記録がより多く行われるように図ることができる。
 また同時に、優先被写体HFpが検出されていなかった場合に対応しては、第2の実施の形態と同様の動作が行われるようにすることができる。
 [4-2.処理手順]
 図14のフローチャートは、上記により説明した第3の実施の形態としての自動撮像制御手法を実現するために行われるべき具体的な処理の手順を示している。
 なお、この図14においても、第3の実施の形態としての自動撮像制御手法を実現するために行われるべき処理の手順を、図6に示した制御部27が例えばROM28に格納されるプログラムに従って実行する処理の手順として示している。
 この図14と先の図12とを比較して分かるように、第3の実施の形態の場合の処理手順は、第2の実施の形態の場合の処理手順と比較して、ステップS204にて端領域にかかる被写体HFがあると判別された場合に、該当する被写体HFのflag=0とする処理(S205)と共に、ステップS301による方向判定処理を実行する点が異なる。
 すなわち、先の第2の実施の形態では、検出被写体が複数である場合には「追尾」自体を行うことがなかったので、被写体HFが複数検出された場合における方向判定処理は不要であったが、第3の実施の形態では優先被写体HFpについての追尾を行う場合があるので、上記ステップS301による方向判定処理を実行するものである。
 具体的に、当該ステップS301による方向判定処理としては、図のようにステップS205のflag更新処理の実行後で且つステップS113による判別処理の実行前となるタイミングで実行するものとしている。
 なお確認のために述べておくと、端領域EDGに達する被写体HFが複数である場合には、上記ステップS301の処理は、端領域EDGに達した被写体HFごとの方向情報を得る処理となる。
 ここで、このような方向判定処理は、端領域EDGに達した被写体HFに優先被写体HFpが含まれる場合に、当該優先被写体HFpについてのみ行われるようにすることもできる。
 また、第2の実施の形態の場合の処理手順と比較した場合、第3の実施の形態の場合の処理手順では、ステップS203にてロスト被写体ありとの肯定結果が得られた以降における処理内容も異なるものとなる。
 また、図示は省略したが、この場合の制御部27は、先に説明した優先顔としての被写体の登録を受け付ける処理を実行するものとなり、この点も第2の実施の形態の場合とは異なる。
 ここで、第3の実施の形態の場合、上記ステップS203においてロスト被写体ありとして肯定結果が得られた場合には、図中のステップS302の処理により、flag=1でロストした被写体HFがあるか否かを判別する。すなわち、先ずはロストした被写体HFのうち、フレームアウトによりロストした被写体HFがあるか否かを判別するものである。
 ステップS302において、flag=1でロストした被写体HFがあるとして肯定結果が得られた場合は、ステップS303において、flag=1でロストした被写体HFのうち優先顔のものがあるか否かを判別する。
 そして当該ステップS303において、flag=1でロストした被写体HFのうち優先顔のものがあるとして肯定結果が得られた場合は、ステップS304に進んで一定期間追従するための処理を実行する。すなわち、flag=1でロストした(フレームアウトによりロストした)優先被写体HFpについて、そのフレームアウト方向と同方向のパン駆動が一定期間行われるようにするものである。
 上記ステップS304により一定期間追従処理を実行した後は、ステップS210に進んで被写体検出情報を取得し、その上で、ステップS211において、被写体HFが検出されたか否かを判別する。
 当該ステップS211において肯定結果又は否定結果が得られた場合のそれぞれの振る舞いは、先の図12にて説明した通りである。
 また、上記ステップS303において、flag=1でロストした被写体HFのうち優先顔のものがないとして否定結果が得られた場合は、ステップS305に進み、flag=0でロストした被写体HFがあるか否かを判別する。
 ここで確認のための述べておくと、当該ステップS305にてflag=0でロストした被写体HFがあると判別される場合としては、枠内ロストの被写体HFがあり、且つフレームアウトによりロストした被写体HFもあるが、フレームアウトによりロストした被写体HFのうちに優先被写体HFpが無い場合であることになる。
 一方で、上記ステップS305にてflag=0でロストした被写体HFがないと判別される場合は、ロストした被写体HFは全てフレームアウトによるもので且つこれらフレームアウトした被写体HFのうちに優先被写体HFpが無い場合であることになる。
 この点を踏まえた上で、上記ステップS305においてflag=0でロストした被写体HFがあるとの肯定結果が得られた場合は、ステップS209に進み、一定期間待機する。
 つまりこの場合は、枠内ロストの被写体HF又は枠内における非ロストの被写体HFに優先被写体HFpが含まれている可能性があるので、追従や被写体HFの探索に入らず、一定期間の待機を行うものである。
 なお仮に、枠内ロスト又は枠内非ロストの被写体HFに優先被写体HFpが含まれていなくとも、この場合は少なくとも枠内ロストの被写体HFがあることは確定しているので、その意味で一定期間の待機を行うことに有効性はある。
 また、確認のために述べておくと、この場合も上記ステップS209の待機処理の実行後には、第2の実施の形態の場合と同様にステップS210→S211の処理が実行され、これにより被写体HFが再検出されたか否かの判別と、被写体HFが再検出された場合の最適構図判定・構図合わせ、又は被写体HFが再検出されなかった場合の被写体探索が行われるものとなる。
 また、上記ステップS305において、flag=0でロストした被写体HFがないとの否定結果が得られた場合は、ステップS208に進み、全員ロストであるか否かを判別する。
 ここで、当該ステップS208において、全員ロストであるとの判別結果が得られる場合は、全ての被写体HFがフレームアウトによりロストし且つそれらのうちに優先被写体HFpは含まれていなかった場合となる。このため、ステップS208において全員ロストであるとの肯定結果が得られた場合は、ステップS101に戻って被写体探索をやり直すことになる。
 また、上記ステップS208において全員ロストではないとの判別結果が得られる場合は、ロストした全ての被写体HFがフレームアウトによるもの(但し、そのうちに優先被写体HFpは含まれていない)であり且つ非ロストの被写体HFがあるということになる。このため、ステップS208にて全員ロストではないとの否定結果が得られた場合は、ステップS103に進み、画枠G内の検出被写体を対象とした最適構図判定、構図合わせが行われるようにする。
 <5.第4の実施の形態としての自動撮像制御>
 [5-1.端領域を利用したズーム制限]
 ここで、これまでの説明からも理解されるように、第1~第3の実施の形態は、ロスト前の被写体HFと端領域EDGとの位置関係に応じて、被写体HFの非追尾/追尾の動作切換(待機/追尾の動作切換)を行うものである。
 これに対し、以下で説明する第4の実施の形態は、被写体HFと端領域EDGとの位置関係に応じて、ズーム動作の継続/停止の動作切換を行うものものとなる。具体的に、第4の実施の形態は、構図合わせの一要素として行われるズーム動作に関して、被写体HFと端領域EDGとの位置関係に応じてズーム動作の継続/停止の切り換えを行うものである。
 図15は、このような端領域EDGを利用したズームの継続/停止切り換えを行う第4の実施の形態としての自動撮像制御手法の具体例を模式化して示した図である。
 ここで、これまでの説明からも理解されるように、本例の自動構図合わせによる自動撮像動作では、構図合わせを行うにあたっての調整項目としてズーム角の調整が含まれる。換言すれば、構図合わせに伴ってはズーム動作(ズームイン動作)が行われる。
 第4の実施の形態では、このような構図合わせに伴うズームイン動作中において、画枠G内に検出されていた被写体HFが図示するように端領域EDGに達した(かかった)場合にズーム動作を停止するものである。
 図中では、画枠G内に検出されていた被写体HF1と被写体HF2の2つの被写体HFのうち、被写体HF1の方が端領域EDGに達した場合を例示している。このように、画枠G内に複数の被写体HFが検出されていた場合は、そのうちの少なくとも何れか一方が端領域EDGに達したことに応じて、ズーム動作を停止する。
 上記のような第4の実施の形態としての自動撮像制御手法によれば、端領域EDGを利用して、構図合わせに伴うズーム動作に起因して被写体HFがフレームアウトしてしまうことを未然に防ぐことができる。
 つまり、上記第4の実施の形態の自動撮像制御手法によっても、端領域EDGと被写体HFとの位置関係という従来にはない全く新しい判断基準に基づき自動撮像動作に関する動作切換を行うことによって、従来にはないよりインテリジェントな、使用者にとってより有用となる自動撮像動作を実現できる。
 [5-2.処理手順]
 図16は、上記により説明した第4の実施の形態としての自動撮像制御手法を実現するための具体的な処理の手順を示すフローチャートである。
 なおこの図16においても、第4の実施の形態としての自動撮像制御手法を実現するために行われるべき処理の手順を、図6に示した制御部27が例えばROM28に格納されるプログラムに従って実行する処理の手順として示している。
 ここで、本例において、構図合わせのための調整項目としては、ズームと共にパン・チルトがあるが、これら3方向の調整による構図合わせを行う際には、先ずはパン・チルトの調整を完了した後、最後にズーム調整を行うのが通常となる。
 このことを前提として、図16においては、既にパン・チルト方向の構図合わせが完了しており、その後にズーム指示が行われる以降の処理の手順を示している。
 先ず、ステップS401においては、構図合わせのためのズーミング指示を行う。すなわち、この図では図示を省略した最適構図判定処理により判定した最適とされる構図(撮像視野選択角)の情報から特定されるズーム角の情報を光学系部21に対して指示し、ズーム機構の駆動を開始させる。
 続くステップS402では、被写体検出情報を取得し、さらに続くステップS403において、端領域にかかった(達した)被写体HFがいるか否かを判別する。
 上記ステップS403において、端領域EDGにかかった被写体HFがいないとして肯定結果が得られた場合は、ステップS404に進み、ズーム動作が完了したか否かを判別する。当該ステップS404において、ズームが完了していないとの否定結果が得られた場合は、図示するようにステップS402に戻ることになる。
 上記説明からも理解されるように、図16においては、ステップS402→S403→S404→S402によるループ処理が形成される。該ループ処理により、端領域に達した被写体HFが検出された状態、又はズーム動作が完了した状態の何れかの到来を待機するようにされている。
 上記ステップS404において、ズーム動作が完了したとして肯定結果が得られた場合は、ステップS405に進み、構図がOKであるか否かを判別する。当該ステップS405の処理内容は、先の図10にて説明したステップS114の処理内容と同様となる。
 上記ステップS405において、構図がOKでないとして否定結果が得られた場合は、図示するようにして構図合わせ指示(先の図10におけるステップS105の処理に相当)を行う。
 また、上記ステップS405において、構図がOKであるとして肯定結果が得られた場合は、先の図10にて説明したステップS115以降の処理(S115~S121の範囲)を実行する。すなわち、この場合も構図がOKとされた場合には、例えば笑顔などの最終的なレリーズタイミングの判定処理、及びレリーズタイミングOKとなったことに応じたレリーズ処理、レリーズタイミングがOKとならずタイムUPした場合の被写体再探索を行うものである。
 また、上述したステップS403において、端領域にかかった被写体HFがあるとして肯定結果が得られた場合は、ステップS406に進んでズーム停止指示を行う。つまり、光学系部21に対するズーム停止指示を行う。
 ここで、上記ステップS406によるズーム停止指示を行った後は、図示するようにステップS115に処理を進める。すなわち、被写体HFが端領域EDGに達してズームを停止した場合には、ステップS405による構図がOKか否かの判別は行わず、そのまま最終的なレリーズタイミングの判定処理に移行するようにしているものである。
 なおもちろん、上記ステップS406の処理の実行後にステップS405による構図がOKか否かの判別処理を行うようにすることもできる。
 ズーム停止後の振る舞いを上記の何れとするかは、実際の実施形態などに応じて適宜適切とされる方を選択すればよい。
 <6.第5の実施の形態としての自動撮像制御>
 [6-1.端領域を利用したセルフタイマー起動制御]
 続いて、第5の実施の形態について説明する。
 第5の実施の形態は、これまでの各実施の形態とは前提とする自動撮像動作の内容が異なる。具体的に第5の実施の形態は、自動撮像動作として、セルフタイマーによる自動撮像動作を前提としたものとなる。
 ここで、セルフタイマーによる自動撮像動作は、従来で言えば、レリーズボタン31aの操作が検知されてから所定時間の経過後に自動的にレリーズ処理(撮像画像の記録)を行う動作が該当するものとなる。具体的に、このようなセルフタイマーによる自動撮像を行うとしたときは、事前に使用者がセルフタイマーモードへの切換指示を行うようにされ、デジタルスチルカメラは、このようなセルフタイマーモードへの切換指示が為された場合は、レリーズボタン31aの押圧操作に応じて所定時間待機した後に、レリーズ処理を行うことになる。
 しかしながら、このような従来のセルフタイマー自動撮像動作によっては、画枠G内の被写体HFの状況の如何に関わらず、レリーズ操作後の所定時間の経過に応じて一様にレリーズ処理が実行されてしまうことになり、そのために、例えば被写体HFが画枠G外にはみ出していたりするなどの失敗写真が記録されてしまう虞があった。
 そこで第5の実施の形態としては、セルフタイマー自動撮像動作に関して、画枠G内の被写体HFの状況を考慮したよりインテリジェントな自動撮像動作の実現化を図る。
 図17は、第5の実施の形態としての自動撮像制御手法の具体例を模式化して示した図である。
 先ず前提として、本例のセルフタイマー自動撮像では、予め自動撮像の対象とする被写体HFの数(人数)を使用者に設定させるものとしている。図17の例においては、このような自動撮像対象人数として「2」が設定されているものとする。
 第5の実施の形態の自動撮像制御としては、図17の(a)から図17の(b)の遷移として示すようにして、画枠G内における端領域EDGよりも内側となる領域内に予め上記自動撮像対象人数として設定された数の被写体HFが収まったことに応じて、セルフタイマーを起動するものである。
 具体的にこの場合は、セルフタイマーモードへの切換指示が行われたことに対応して、端領域EDGよりも内側の領域内において設定人数の被写体HFが検出されるまで待機し、上記端領域EDGよりも内側領域内に設定人数の被写体HFが検出されたことに応じて、セルフタイマーを起動する。そして、このように起動したセルフタイマーによるタイムカウント値が所定値に達したことに応じて、レリーズ処理を行う。
 上記のような第5の実施の形態としての自動撮像制御手法によれば、自動撮像の対象とすべき被写体HFが端領域EDGよりも内側領域内にて検出されたことに応じて、セルフタイマーを起動することができる。つまりこれにより、上述のような失敗写真が記録されてしまうことを効果的に防止できる。
 また上記第5の実施の形態としての自動撮像制御手法によれば、セルフタイマーの起動をも自動化することができる。すなわち、従来のセルフタイマー自動撮像では、セルフタイマーモードへの切換指示を行った後には、タイマー起動操作として捉えることのできるレリーズボタン31aの操作を要するものとされていたが、第5の実施の形態によれば、このようなタイマー起動のための操作は不要とできる。
 ここで、従来においては、操作者がタイマー起動操作を行ってから慌てて画枠Gに収まる位置に移動するということが多々見受けられるが、上記のように第5の実施の形態では設定人数が領域内に収まったことに応じてタイマーが自動的に起動されるので、その分、操作者は余裕を持って行動することができ、この点で従来よりも有用性を高めることができる。
 このようにして第5の実施の形態によれば、セルフタイマー自動撮像動作に関して、画枠G内の被写体HFの状況を考慮した従来よりインテリジェントな自動撮像動作を実現できる。
 なお確認のために述べておくと、上記のような第5の実施の形態としての自動撮像制御手法は、被写体HFと端領域EDGとの位置関係に応じて、セルフタイマーの未起動/起動の動作切換を行うものであるとして捉えることができるものである。
 [6-2.処理手順]
 図18は、第5の実施の形態としての自動撮像制御手法を実現するための具体的な処理の手順を示したフローチャートである。
 なおこの図18においても、第5の実施の形態としての自動撮像制御手法を実現するために行われるべき処理の手順を、図6に示した制御部27が例えばROM28に格納されるプログラムに従って実行する処理の手順として示している。
 先ず、ステップS501の処理により、セルフタイマーモードへの切換指示が為されるまで待機する。本例の場合、セルフタイマーモードへの切換指示は、使用者が表示部33に表示されたGUIを利用した操作入力を行うことで為されるものとする。
 そして、例えば上記のようなGUIを利用した操作入力によって上記セルフタイマーモードへの切換指示が為された場合は、ステップS502において、人数情報入力受付処理を実行する。具体的には、表示部33上に人数情報の入力を行わせるための人数情報入力画面の表示を行わせ、使用者に人数情報の入力を行わせる。当該ステップS502の処理は、入力した人数情報を確定する操作が行われたことに応じて終了する。
 上記ステップS502の処理により使用者による人数情報の入力を受け付けた後(つまり人数情報が設定された後)は、ステップS503にて被写体検出情報を取得した上で、ステップS504において、枠内に設定人数がいるか否かを判別する。すなわち、端領域EDGよりも内側となる領域内において、上記ステップS502の入力受付処理によって入力(設定)された人数の被写体HFが検出されているか否かを判別するものである。
 上記ステップS504において、枠内に設定人数がいないとして否定結果が得られた場合は、ステップS503に戻る。つまりこれにより、枠内に設定人数が検出されるまでステップS503の情報取得処理→ステップS504の判別処理が繰り返されるものである。
 一方、上記ステップS504において、枠内に設定人数がいるとして肯定結果が得られた場合は、ステップS505に進んでタイムカウントをスタートした後、ステップS506において、所定時間が経過するまで待機する。つまり、上記ステップS505にてスタートしたタイムカウントの値が予め定められた所定値に達するまで待機するものである。
 そして、上記所定時間が経過した場合は、ステップS507においてレリーズ処理を実行する。
 このようにレリーズ処理を実行した後は、ステップS508においてタイムカウントをリセットする。当該ステップS508の処理の実行を以て、この図に示す一連の処理は終了となる。
 ここで、上記による説明では、セルフタイマーを起動するための条件として、設定人数の被写体HFが端領域EDGよりも内側領域内に検出されるという条件のみを課すものとしたが、さらに他の条件を加えることもできる。
 例えば、設定人数の受付時において、併せて特定の顔の指定も受け付けるものとし、設定人数の被写体HFが端領域EDGよりも内側領域で検出され、且つそれら検出された被写体HFのうちに上記指定された特定の顔が含まれるという条件が満たされる場合にのみ、セルフタイマーの起動を行うといったこともできる。
 例えば、有名観光地など人が大勢集う環境下での撮像を行うとしたときなどには、操作者がセルフタイマーモードへの切換指示を行った直後に、操作者以外の意図しない被写体HFが画枠G内に入り込んでしまうといった可能性がある。そのような場合において、上述のように端領域EDGよりも内側領域内での設定人数の検出のみに応じてタイマー起動を行ってしまうと、操作者としての被写体HFが写っていない、或いは写っていたとしても枠外にはみ出しているなどの失敗写真が記録されてしまう虞がある。
 上述のように顔の条件も課す手法を採るものとすれば、特定の顔(上記の例であれば操作者の顔を設定する)が写っていなければタイマー起動・レリーズが行われないようにできるので、上記の例のような状況下においても適正に意図した撮像画像が記録されるように図ることができる。
 或いは、設定人数の条件と共に課す条件としては、被写体HFのサイズ(顔サイズ)に関する条件を挙げることができる。一例としては、設定人数の全ての被写体HFの顔サイズが同等とされるサイズであるという条件を課すことが挙げられる。
 例えばセルフタイマーを利用した自動撮像時には、撮像対象とする被写体HFがデジタルスチルカメラ1からほぼ等距離となる位置に並んでいる可能性が高く、一方で意図しない被写体HFはこのように等距離となる位置に並んだ撮影対象の被写体HFの前や後ろを横切るといった可能性が高い。従って上記のように被写体HFの顔サイズが同等であるという条件も課すものとすれば、意図しない被写体HFの検出に応じた意図しないタイミングでの自動タイマー起動を防止でき、結果、この場合としても適正に意図した撮像画像が記録されるように図ることができる。
 また、操作者(構図決定者と捉えることができる)に画枠G内での端領域EDGの位置を容易に把握させるなどの目的で、表示部33上に端領域EDGを表す表示を行うようにすることもできる。
 <7.変形例>
 以上、本発明の各実施の形態について説明したが、本発明としてはこれまでで説明した具体例に限定されるべきものではない。
 例えば、端領域EDGの領域幅や、追尾・待機を行う時間長(一定期間)について記載した数値はあくまで一例を挙げたものに過ぎず、それらの数値に限定されるべきものではない。また、追尾・待機を行う時間長は一定でなくても良い。
 また、第1~第3の実施の形態では、パン方向(水平方向:左右方向)にのみ被写体HFの追尾を行う場合を例示したが、もちろん、チルト方向(垂直方向:上下方向)への追尾も併せて行う、或いはチルト方向のみの追尾を行うようにすることもできる。チルト方向についても、フレームアウト方向の検出は、ロストした被写体HFがそのロスト前に端領域EDGの何れの側の領域に達していたかを特定する(つまりこの場合は上辺側/下辺側の何れに達していたかを特定する)ことで行うことになる。
 また、端領域EDGは、画枠Gの四辺のそれぞれをカバーするように設定するものとしたが、例えば第1~第3の実施の形態で一例として挙げたように被写体HFのフレームアウト方向としてパン方向(水平方向)のみを想定し、被写体HFの追尾をパン方向にのみ行うとした場合には、端領域EDGは、少なくとも画枠Gの右辺、左辺のみに設定するものとすればよい。
 或いは、チルト方向の追尾のみを行うとした場合には、端領域EDGを少なくとも画枠Gの上辺、下辺のみに設定すればよい。
 或いは、特定の1方向のみの追尾を行うものとしてもよく、その場合には、端領域EDGは、画枠Gの特定の1辺に対して少なくとも設定すればよい。
 また、第1~第3の実施の形態では、被写体HFの追尾は、パン(又はチルト)により行うものとしたが、そもそも被写体HFの追尾は、対象とする被写体HFを画枠G内にて再検出できるようにすることを目的として行うものであり、この点に鑑みれば、被写体HFの追尾は、ズームによって行うようにしてもよい。すなわち、端領域EDGに達した後にロストした被写体HFがあることに応じてズームアウトを行うことで、被写体HFが再び画枠G内に検出されるように図るものである。
 なお確認のために述べておくと、このようなズームアウトによる追尾を行う際には、フレームアウト方向の判定は不要とできる。
 またもちろん、このようなズームアウトによる追尾と、第1~第3の実施の形態で説明したようなパン/チルト駆動による追尾とを組み合わせて、フレームアウトした被写体HFの追尾がより確実に行われるように図るといったこともできる。
 また、第1~第3の実施の形態では、被写体HFを追尾するか否かの条件に、その被写体HFがロストしたという条件を含むものとしたが、被写体HFのロストは条件に含めずに、被写体HFが端領域EDGに達したことに応じて当該被写体HFを追尾するようにもできる。これは、換言すれば、フレームアウトを未然に防ぐようにする手法であるとも捉えることができる。
 確認のために述べておくと、このような手法を採る場合においても、被写体HFと端領域EDGとの位置関係に応じて被写体の追尾/非追尾の切り換えを行っていることに変わりはない。
 また、これまでの説明では、フローチャートとして各図に示した処理手順は、デジタルスチルカメラ1の制御部27がプログラムに従って実行するものであるとした。
 しかしながら、例えばフローチャートとして各図に示した処理手順の少なくとも1つが信号処理部24や雲台10側の制御部51において実行されるようにして構成してもよい。但し、主立った被写体探索、構図判定、及び自動撮像記録のための制御機能を、デジタルスチルカメラ1側に設けることで、多様な機種のデジタルスチルカメラ1と雲台10とを組み合わせることが可能になって、汎用性という点では有利とできる。
 また、本発明の撮像制御装置としては、必ずしも、実施の形態で例示したようにデジタルスチルカメラ1と雲台10とが着脱可能(つまり別装置にも成り得る状態)に構成される必要はなく、デジタルスチルカメラ1と雲台10とが一体化された構成でもよい。但し、実施の形態のようにしてデジタルスチルカメラ1と雲台10とを着脱可能に構成すれば、デジタルスチルカメラ1を通常にカメラとして使用できる。
 また、これまでの説明では、自動撮像記録される画像については静止画像であるとしているが、撮像により得られた画像から生成した動画像とすることもできる。
 また、本発明に基づく構成における少なくとも一部は、CPUやDSPにプログラムを実行させることで実現できる。
 このようなプログラムは、例えばROMなどに対して製造時などに書き込んで記憶させるほか、リムーバブルの記憶媒体に記憶させておいたうえで、この記憶媒体からインストール(アップデートも含む)させるようにしてDSP対応の不揮発性の記憶領域やフラッシュメモリ30などに記憶させることが考えられる。また、USB(Universal Serial Bus)やIEEE1394などのデータインターフェース経由により、他のホストとなる機器からの制御によってプログラムのインストールが行えるようにすることも考えられる。さらに、ネットワーク上のサーバなどにおける記憶装置に記憶させておいたうえで、デジタルスチルカメラ1にネットワーク機能を持たせることとし、サーバからダウンロードして取得できるように構成することもできる。
 1 デジタルスチルカメラ、2 本体部、21a レンズ部、31a レリーズボタン、10 雲台、11 本体部、12 カメラ台座部、13 突起部、14 コネクタ、21 光学系、22 イメージセンサ、23 A/Dコンバータ、24 信号処理部、25 エンコード/デコード部、26 メディアコントローラ、27 制御部、28 ROM、29 RAM、30 フラッシュメモリ、31 操作部、32 表示ドライバ、33 表示部、34 雲台対応通信部、40 メモリカード、51 制御部、52 通信部、53 パン機構部、54 パン用モータ、55 パン用駆動部、56 チルト機構部、57 チルト用モータ、58 チルト用駆動部、EDG 端領域

Claims (18)

  1.  撮像部による撮像画像から被写体を検出する被写体検出部と、
     上記撮像部による撮像画像の画枠における少なくとも一辺に設定された端領域と、上記被写体検出部により上記撮像画像内に検出された被写体との位置関係に応じて、撮像動作に関する制御を行う制御部と
     を備える制御装置。
  2.  上記制御部は、
     上記撮像部により連続して得られる撮像画像に基づき上記画枠内から消失した被写体があるか否かを判別し、上記画枠内から消失した被写体がある場合は、当該消失した被写体がその消失前に上記端領域に達していたか否かに応じて上記撮像動作に関する制御を行う
     請求項1に記載の制御装置。
  3.  上記撮像部をパン又はチルト方向に駆動し上記撮像部による視野を変化させる撮像視野変化部をさらに備え、
     上記制御部は、上記消失した被写体がその消失前に上記端領域に達していた場合は、上記撮像視野変化部を制御して上記撮像部による視野を変化させる
     請求項2に記載の制御装置。
  4.  上記制御部は、
     上記消失した被写体がその消失前に上記端領域に達していた場合は、上記消失した被写体が達した端領域の設けられる側に上記撮像部が駆動されるように上記撮像視野変化部を制御する
     請求項3に記載の制御装置。
  5.  上記制御部は、上記消失した被写体がその消失前に上記端領域に達していなかった場合は待機する
     請求項3又は請求項4に記載の制御装置。
  6.  上記制御部は、
     上記撮像画像内に検出された被写体が複数である場合に、複数の被写体のうちの消失前の位置が上記端領域に達していた被写体に応じた上記撮像動作に関する制御を行う
     請求項2に記載の制御装置。
  7.  上記制御部は、
     上記撮像画像内の検出被写体数が複数であるか否かを判別し、
     上記消失前に上記端領域に達していた被写体があり、且つ上記撮像画像内の検出被写体数が複数でなかった場合に、上記消失した被写体が達した端領域の設けられる側に上記撮像部が駆動されるように上記撮像視野変化部を制御する
     請求項3に記載の制御装置。
  8.  上記制御部は、
     上記撮像部による視野を変化させながら上記被写体検出部による被写体検出を実行させて被写体を探索する被写体探索、該被写体探索に伴い検出された被写体の態様に応じた最適とされる構図を所定アルゴリズムに従って判定する最適構図判定、該最適構図判定により求まった最適とされる構図を目標構図とした構図合わせ、及び該構図合わせ後の撮像画像の記録媒体への自動記録、が実現されるようにするための制御・処理を行い、
     且つ上記構図合わせ動作中において、上記画枠内から消失した被写体があるか否かについて判別する上記消失被写体有無判別処理を実行すると共に、
     上記撮像画像内の検出被写体数が複数であった場合で且つ上記消失被写体有無判別処理により消失被写体があると判別した場合において、消失した被写体が全てその消失前に上記端領域に達していた被写体であり且つ上記画枠内に非消失の被写体があるという第1の条件が成立する場合には、上記最適構図判定と上記構図合わせの実行制御とを行う
     請求項7に記載の制御装置。
  9.  上記制御部は、
     上記撮像部による視野を変化させながら上記被写体検出部による被写体検出を実行させて被写体を探索する被写体探索、該被写体探索に伴い検出された被写体の態様に応じた最適とされる構図を所定アルゴリズムに従って判定する最適構図判定、該最適構図判定により求まった最適とされる構図を目標構図とした構図合わせ、及び該構図合わせ後の撮像画像の記録媒体への自動記録、が実現されるようにするための制御・処理を行い、
     且つ上記構図合わせ動作中において、上記画枠内から消失した被写体があるか否かについて判別する上記消失被写体有無判別処理を実行すると共に、
     上記撮像画像内の検出被写体数が複数であった場合で且つ上記消失被写体有無判別処理により消失被写体があると判別した場合において、消失した被写体のうち上記端領域に達することなく消失したものがあるという第2の条件が成立する場合には、待機した上で、上記画枠内に被写体が検出されたか否かを判別し、当該判別の結果上記画枠内に被写体が検出されたとした場合は上記最適構図判定と上記構図合わせの実行制御とを行い、上記判別の結果上記画枠内に被写体が検出されなかったとした場合は上記被写体探索の実行制御を行う
     請求項7に記載の制御装置。
  10.  上記制御部は、
     上記撮像部による視野を変化させながら上記被写体検出部による被写体検出を実行させて被写体を探索する被写体探索、該被写体探索に伴い検出された被写体の態様に応じた最適とされる構図を所定アルゴリズムに従って判定する最適構図判定、該最適構図判定により求まった最適とされる構図を目標構図とした構図合わせ、及び該構図合わせ後の撮像画像の記録媒体への自動記録、が実現されるようにするための制御・処理を行い、
     且つ上記構図合わせ動作中において、上記画枠内から消失した被写体があるか否かについて判別する上記消失被写体有無判別処理を実行すると共に、
     上記撮像画像内の検出被写体数が複数であった場合で且つ上記消失被写体有無判別処理により消失被写体があると判別した場合において、全ての被写体がその消失前に上記端領域に達して消失したという第3の条件が成立する場合には、上記被写体探索の実行制御を行う
     請求項7に記載の制御装置。
  11.  上記制御部は、
     上記撮像画像内に検出された被写体に優先被写体に該当するものがあるか否かをさらに判別し、
     上記撮像画像内の検出被写体数が複数であった場合において、上記消失前に上記端領域に達していた被写体があり且つそのうちに上記優先被写体に該当するものがあった場合は、当該優先被写体がその消失前に達していた上記端領域の設けられる側に上記撮像部が駆動されるように上記撮像視野変化部を制御する
     請求項7に記載の制御装置。
  12.  上記制御部は、
     上記撮像部による視野を変化させながら上記被写体検出部による被写体検出を実行させて被写体を探索する被写体探索、該被写体探索に伴い検出された被写体の態様に応じた最適とされる構図を所定アルゴリズムに従って判定する最適構図判定、該最適構図判定により求まった最適とされる構図を目標構図とした構図合わせ、及び該構図合わせ後の撮像画像の記録媒体への自動記録、が実現されるようにするための制御・処理を行い、
     且つ上記構図合わせ動作中において、上記画枠内から消失した被写体があるか否かについて判別する上記消失被写体有無判別処理を実行すると共に、
     上記撮像画像内の検出被写体数が複数であった場合で且つ上記消失被写体有無判別処理により消失被写体があると判別した場合において、
     上記消失前に上記端領域に達していた被写体があり且つそのうちに上記優先被写体に該当する被写体があるという第4の条件が成立する場合は、当該優先被写体がその消失前に達していた上記端領域の設けられる側に上記撮像部が駆動されるように上記撮像視野変化部を制御し、
     消失した被写体のうちに上記端領域に達することなく消失したものがあり且つ消失前に上記端領域に達していた被写体もあるが、当該消失前に上記端領域に達していた被写体のうちに上記優先被写体に該当するものがないという第5の条件が成立する場合は、待機すると共に、
     上記第4の条件の成立に伴い上記撮像部の駆動が行われるように制御を行った後、又は上記第5の条件の成立に伴い待機した後の双方において、上記画枠内に被写体が検出されたか否かを判別し、当該判別の結果上記画枠内に被写体が検出されたとした場合は、上記最適構図判定と上記構図合わせの実行制御とを行い、上記画枠内に被写体が検出されなかったとした場合は上記被写体探索の実行制御を行う
     請求項11に記載の制御装置。
  13.  上記撮像部による撮像画像の画角を変化させるズーム部をさらに備え、
     上記制御部は、
     上記消失した被写体がその消失前に上記端領域に達していたと判別した場合は、ズームアウト動作が行われるように上記ズーム部を制御し、
     上記消失した被写体がその消失前に上記端領域に達していなかったと判別した場合は待機する
     請求項2に記載の制御装置。
  14.  上記撮像部による撮像画像の画角を変化させるズーム部をさらに備え、
     上記制御部は、
     上記ズーム部に対してズームイン指示を行った後において、上記端領域に達した被写体があるか否かを判別し、当該判別により上記端領域に達した被写体があるとした場合は、上記ズーム部に対してズーム停止指示を行う
     請求項1に記載の制御装置。
  15.  上記制御部は、
     セルフタイマーモードへの切り換え指示が行われたことに応じて、上記画枠内における上記端領域よりも内側の領域内にて予め定められた所定数の被写体が検出されたか否かを判別し、その結果上記内側の領域内に上記所定数の被写体が検出されたと判別した場合は、当該判別結果が得られたタイミングに応じてセルフタイマーを起動し、当該セルフタイマーの起動後所定時間が経過したことに応じて上記撮像部による撮像画像の記録媒体への自動記録が行われるように制御を行う
     請求項1に記載の制御装置。
  16.  撮像部による撮像画像から被写体を検出する被写体検出ステップと、
     上記撮像部による撮像画像の画枠における少なくとも一辺に設定された端領域と、上記被写体検出ステップにより上記撮像画像内に検出された被写体との位置関係に応じて、撮像動作に関する制御を行う制御ステップと
     を有する制御方法。
  17.  撮像部による撮像画像から被写体を検出する被写体検出部を有する制御装置に実行させるプログラムであって、
     上記撮像部による撮像画像の画枠における少なくとも一辺に設定された端領域と、上記被写体検出部により上記撮像画像内に検出された被写体との位置関係に応じて、撮像動作に関する制御を行う処理
     を上記制御装置に実行させるプログラム。
  18.  撮像部を備える撮像装置と、上記撮像部による視野を変化させる可動機構装置とを備えた制御システムであって、
     上記撮像部による撮像画像から被写体を検出する被写体検出部と、
     上記撮像部による撮像画像の画枠における少なくとも一辺に設定された端領域と、上記被写体検出部により上記撮像画像内に検出された被写体との位置関係に応じた上記可動機構装置に対する制御を行う制御部と
     を備える制御システム。
PCT/JP2010/062209 2009-07-28 2010-07-21 制御装置、制御方法、プログラム、制御システム WO2011013544A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
US13/383,450 US20120105647A1 (en) 2009-07-28 2010-07-21 Control device, control method, program, and control system
EP10804290.4A EP2461567A4 (en) 2009-07-28 2010-07-21 CONTROL DEVICE, CONTROL METHOD, PROGRAM AND CONTROL SYSTEM
RU2012102038/07A RU2012102038A (ru) 2009-07-28 2010-07-21 Устройство управления, способ управления, программа и система управления
CN2010800431708A CN102668535A (zh) 2009-07-28 2010-07-21 控制设备、控制方法、程序和控制系统
IN589DEN2012 IN2012DN00589A (ja) 2009-07-28 2012-01-20

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009175041A JP5446546B2 (ja) 2009-07-28 2009-07-28 撮像制御装置、撮像制御方法、プログラム、撮像システム
JP2009-175041 2009-07-28

Publications (1)

Publication Number Publication Date
WO2011013544A1 true WO2011013544A1 (ja) 2011-02-03

Family

ID=43529203

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/062209 WO2011013544A1 (ja) 2009-07-28 2010-07-21 制御装置、制御方法、プログラム、制御システム

Country Status (9)

Country Link
US (1) US20120105647A1 (ja)
EP (1) EP2461567A4 (ja)
JP (1) JP5446546B2 (ja)
KR (1) KR20120038451A (ja)
CN (1) CN102668535A (ja)
IN (1) IN2012DN00589A (ja)
RU (1) RU2012102038A (ja)
TW (1) TW201121307A (ja)
WO (1) WO2011013544A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5206095B2 (ja) 2008-04-25 2013-06-12 ソニー株式会社 構図判定装置、構図判定方法、プログラム
JP5646582B2 (ja) * 2012-12-05 2014-12-24 オリンパスイメージング株式会社 撮像装置
JP6337779B2 (ja) * 2013-01-09 2018-06-06 ソニー株式会社 画像処理装置、画像処理方法、プログラム
EP2847983A1 (en) * 2013-04-09 2015-03-18 Huawei Technologies Co., Ltd. Mobile electronic device with a rotatable camera
JP6107354B2 (ja) * 2013-04-15 2017-04-05 オムロン株式会社 画像表示装置、画像表示装置の制御方法、画像表示プログラム、および、これを記録したコンピュータ読み取り可能な記録媒体
US9253410B2 (en) * 2013-04-25 2016-02-02 Canon Kabushiki Kaisha Object detection apparatus, control method therefor, image capturing apparatus, and storage medium
WO2016038971A1 (ja) 2014-09-10 2016-03-17 富士フイルム株式会社 撮像制御装置、撮像制御方法、カメラ、カメラシステム及びプログラム
US9665804B2 (en) * 2014-11-12 2017-05-30 Qualcomm Incorporated Systems and methods for tracking an object
US10042031B2 (en) * 2015-02-11 2018-08-07 Xerox Corporation Method and system for detecting that an object of interest has re-entered a field of view of an imaging device
CN104994284B (zh) * 2015-06-30 2018-11-13 广东欧珀移动通信有限公司 一种广角摄像头的控制方法及电子终端
CN104994292B (zh) * 2015-06-30 2018-07-06 广东欧珀移动通信有限公司 一种广角摄像头的控制方法及电子终端
CN110427020A (zh) * 2015-09-16 2019-11-08 深圳市大疆灵眸科技有限公司 用于支持具有不同效果的摄影术的系统和方法
WO2020246317A1 (ja) * 2019-06-04 2020-12-10 ソニー株式会社 撮像装置、および撮像制御方法
CN112119627A (zh) * 2019-08-14 2020-12-22 深圳市大疆创新科技有限公司 基于云台的目标跟随方法、装置、云台和计算机存储介质
JP7421534B2 (ja) 2021-12-10 2024-01-24 株式会社モリタ製作所 クレードルおよび撮像セット
CN117528262B (zh) * 2023-12-29 2024-04-05 江西赛新医疗科技有限公司 一种医疗设备数据传输的控制方法及系统

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0965197A (ja) * 1995-08-18 1997-03-07 Sony Corp 自動ズーム制御装置、自動ズーム制御方法、及び撮像装置
JPH09186927A (ja) * 1995-12-28 1997-07-15 Sony Corp 追尾装置および追尾方法
JP2005099164A (ja) 2003-09-22 2005-04-14 Fuji Photo Film Co Ltd 自動撮影システム
JP2007318225A (ja) * 2006-05-23 2007-12-06 Fujifilm Corp 撮影装置および撮影方法
JP2008078712A (ja) * 2006-09-19 2008-04-03 Fujifilm Corp 撮影装置および方法並びにプログラム
JP2008205838A (ja) 2007-02-20 2008-09-04 Canon Inc 撮像装置及びその制御方法
JP2009033450A (ja) * 2007-07-26 2009-02-12 Casio Comput Co Ltd 撮影装置、被写体追尾ズーミング方法及び被写体追尾ズーミングプログラム
JP2009077143A (ja) 2007-09-20 2009-04-09 Fujifilm Corp 自動撮影装置
JP2009100448A (ja) 2007-09-28 2009-05-07 Fujifilm Corp 撮影装置及び撮影方法
JP2009100301A (ja) * 2007-10-17 2009-05-07 Sony Corp 構図判定装置、構図判定方法、プログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100426174B1 (ko) * 2001-10-29 2004-04-06 삼성전자주식회사 영상압축 알고리즘을 이용한 카메라 제어방법
JP2005065265A (ja) * 2003-07-31 2005-03-10 Omron Corp フレーム調節装置、撮像装置および印刷装置
JP4378636B2 (ja) * 2005-02-28 2009-12-09 ソニー株式会社 情報処理システム、情報処理装置および情報処理方法、プログラム、並びに記録媒体
US20070115351A1 (en) * 2005-11-18 2007-05-24 Mccormack Kenneth Methods and systems for enhanced motion detection
JP4572815B2 (ja) * 2005-11-18 2010-11-04 富士フイルム株式会社 撮像装置及び撮像方法
NO327899B1 (no) * 2007-07-13 2009-10-19 Tandberg Telecom As Fremgangsmate og system for automatisk kamerakontroll
US20090097704A1 (en) * 2007-10-10 2009-04-16 Micron Technology, Inc. On-chip camera system for multiple object tracking and identification
US7855737B2 (en) * 2008-03-26 2010-12-21 Fotonation Ireland Limited Method of making a digital camera image of a scene including the camera user

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0965197A (ja) * 1995-08-18 1997-03-07 Sony Corp 自動ズーム制御装置、自動ズーム制御方法、及び撮像装置
JPH09186927A (ja) * 1995-12-28 1997-07-15 Sony Corp 追尾装置および追尾方法
JP2005099164A (ja) 2003-09-22 2005-04-14 Fuji Photo Film Co Ltd 自動撮影システム
JP2007318225A (ja) * 2006-05-23 2007-12-06 Fujifilm Corp 撮影装置および撮影方法
JP2008078712A (ja) * 2006-09-19 2008-04-03 Fujifilm Corp 撮影装置および方法並びにプログラム
JP2008205838A (ja) 2007-02-20 2008-09-04 Canon Inc 撮像装置及びその制御方法
JP2009033450A (ja) * 2007-07-26 2009-02-12 Casio Comput Co Ltd 撮影装置、被写体追尾ズーミング方法及び被写体追尾ズーミングプログラム
JP2009077143A (ja) 2007-09-20 2009-04-09 Fujifilm Corp 自動撮影装置
JP2009100448A (ja) 2007-09-28 2009-05-07 Fujifilm Corp 撮影装置及び撮影方法
JP2009100301A (ja) * 2007-10-17 2009-05-07 Sony Corp 構図判定装置、構図判定方法、プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2461567A4

Also Published As

Publication number Publication date
IN2012DN00589A (ja) 2015-06-12
TW201121307A (en) 2011-06-16
RU2012102038A (ru) 2013-07-27
US20120105647A1 (en) 2012-05-03
KR20120038451A (ko) 2012-04-23
EP2461567A4 (en) 2013-06-05
CN102668535A (zh) 2012-09-12
EP2461567A1 (en) 2012-06-06
JP5446546B2 (ja) 2014-03-19
JP2011030040A (ja) 2011-02-10

Similar Documents

Publication Publication Date Title
JP5446546B2 (ja) 撮像制御装置、撮像制御方法、プログラム、撮像システム
JP4510713B2 (ja) デジタルカメラ
JP5967473B2 (ja) 撮像装置及び撮像システム
US8638372B2 (en) Image capture unit with changeable image capture direction
US8199221B2 (en) Image recording apparatus, image recording method, image processing apparatus, image processing method, and program
JP6328255B2 (ja) マルチ撮像装置、マルチ撮像方法、プログラム、及び記録媒体
US20110181690A1 (en) Imaging control apparatus, imaging apparatus, imaging control method, and program
WO2011013563A1 (ja) 制御装置、撮像システム、制御方法、プログラム
JP5991514B2 (ja) 撮像装置及び撮像システム
JP6071436B2 (ja) 撮像装置、撮像方法およびプログラム
CN102111540A (zh) 图像处理装置、图像处理方法以及程序
JP2010193031A (ja) 撮影装置および撮影装置の制御方法
JP5251779B2 (ja) 携帯型電子機器、制御方法、プログラム、撮像システム
JP2010268323A (ja) 撮像装置およびプログラム
JP2013013063A (ja) 撮像装置及び撮像システム
US8786722B2 (en) Composition control device, imaging system, composition control method, and program
CN101990064A (zh) 控制设备、操作设置方法和程序
JP5942260B2 (ja) 撮像装置、画像再生装置
KR20090103790A (ko) 촬상 장치, 촬상 방법 및 프로그램
JP2002084412A (ja) 画像処理装置及び画像処理方法
JP5293769B2 (ja) 撮像装置及びそのプログラム
JP2008268732A (ja) 撮像装置及び撮像装置の測距制御方法
JP6256298B2 (ja) 撮像装置、その制御方法とプログラム
JP2008064980A (ja) 光学装置、光学装置の制御方法
JP2009206647A (ja) カメラシステム、その制御方法及びプログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080043170.8

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10804290

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13383450

Country of ref document: US

ENP Entry into the national phase

Ref document number: 20127001608

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2010804290

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2012102038

Country of ref document: RU

Ref document number: 589/DELNP/2012

Country of ref document: IN

NENP Non-entry into the national phase

Ref country code: DE