WO2011013544A1 - 制御装置、制御方法、プログラム、制御システム - Google Patents
制御装置、制御方法、プログラム、制御システム Download PDFInfo
- Publication number
- WO2011013544A1 WO2011013544A1 PCT/JP2010/062209 JP2010062209W WO2011013544A1 WO 2011013544 A1 WO2011013544 A1 WO 2011013544A1 JP 2010062209 W JP2010062209 W JP 2010062209W WO 2011013544 A1 WO2011013544 A1 WO 2011013544A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- subject
- unit
- detected
- lost
- control
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B17/00—Details of cameras or camera bodies; Accessories therefor
- G03B17/38—Releasing-devices separate from shutter
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B37/00—Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/00127—Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
- H04N1/00132—Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture in a digital photofinishing system, i.e. a system where digital photographic images undergo typical photofinishing processing, e.g. printing ordering
- H04N1/00183—Photography assistance, e.g. displaying suggestions to the user
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/51—Housings
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/695—Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S3/00—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
- G01S3/78—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
- G01S3/782—Systems for determining direction or deviation from predetermined direction
- G01S3/785—Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
- G01S3/786—Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
- G01S3/7864—T.V. type tracking systems
Definitions
- the present invention relates to a control apparatus and a method for performing imaging control using a subject detection result in a captured image by an imaging unit.
- the present invention also relates to a program executed by the control device.
- the present invention relates to a control system configured to include an imaging device including an imaging unit and a movable mechanism device that changes the field of view of the imaging unit.
- Patent Documents 1 to 4 disclose various techniques relating to an automatic imaging operation for automatically recording a captured image by an imaging unit without depending on a user's release instruction.
- the present invention realizes an automatic imaging operation that is more intelligent and more useful to the user than in the prior art, particularly when performing an automatic imaging operation using the subject detection result in the captured image as the automatic imaging operation. Is the subject.
- the present invention is configured as follows as a control device. That is, a subject detection unit that detects a subject from an image captured by the imaging unit is provided. In addition, control related to the imaging operation is performed according to the positional relationship between the end region set on at least one side of the image frame of the captured image by the imaging unit and the subject detected in the captured image by the subject detection unit. A control unit was provided.
- the present invention it is possible to perform control related to the imaging operation according to the positional relationship between the end region set as the end region of the image frame and the subject detected in the image frame.
- the control relating to the imaging operation is performed on the basis of a completely new judgment criterion that is not related to the conventional positional relationship between the end region set as the end region of the image frame and the subject detected in the image frame. It can be carried out. As a result, it is possible to realize an automatic imaging operation that is more intelligent than ever and is more useful to the user.
- FIG. 1 It is the figure which showed simply the external appearance of the digital still camera which is a component of the imaging control apparatus (imaging system) as embodiment with the front view and the rear view.
- FIG. 1 It is a perspective view which shows the external appearance example of the pan head which is a component of the imaging control apparatus (imaging system) as embodiment.
- FIG. 1 It is a side view showing an example of an imaging control device (imaging system) as an embodiment formed by attaching a digital still camera to a pan head, together with an example of movement in a tilt direction.
- imaging control device imaging system
- FIG. 1 It is a block diagram which shows the example of an internal structure of a digital still camera.
- FIG. 1 It is a block diagram which shows the internal structural example of a pan head.
- image frame refers to an area range corresponding to one screen where an image can be seen, for example, and generally has a frame shape as a vertically or horizontally long rectangle.
- view angle is also called a zoom angle or the like, and represents a range within an image frame determined by the position of the zoom lens in the image pickup optical system by an angle. Strictly speaking, it is determined by the focal length of the imaging optical system and the size of the image plane (image sensor, film). Here, the image plane size is fixed, and an element that changes according to the focal length is determined.
- the “imaging field of view” represents a field of view by the imaging optical system and corresponds to a range cut out by the image frame.
- Imaging field selection angle is an angle that represents an element that determines which part of the landscape around the imaging device is cut out. This is determined by the angle and the swing angle (elevation angle, depression angle) in the tilt (vertical) direction.
- Composition is also referred to as framing, and is determined by the setting of the imaging field selection angle, that is, the pan / tilt angle and the angle of view (zoom) in this case.
- the imaging control device of the present invention is configured as an imaging system including a digital still camera and a camera platform that detachably holds the digital still camera will be described as an example. I will do it.
- the imaging system includes a digital still camera 1 and a pan head 10 on which the digital still camera 1 is placed.
- FIG. 1A and 1B are a front view and a rear view of the digital still camera 1, respectively.
- the digital still camera 1 shown in this figure first includes a lens portion 21a on the front side of the main body 2 as shown in FIG.
- the lens portion 21a is a portion that is exposed to the outside of the main body 2 as an optical system for imaging.
- a release button 31 a is provided on the upper surface of the main body 2.
- an image (captured image) captured by the lens unit 21a is generated as an image signal.
- a captured image at that timing is recorded on the recording medium as image data of a still image. That is, photography is performed.
- the digital still camera 1 has a display screen section 33a on the back side thereof as shown in FIG.
- This display screen portion 33a is referred to as a through image in the imaging mode, and an image captured by the lens portion 21a at that time is displayed.
- the image data recorded on the recording medium is reproduced and displayed.
- an operation image as a GUI (Graphical User Interface) is displayed according to an operation performed by the user on the digital still camera 1.
- a touch panel is combined with the display screen unit 33a.
- the user can perform an appropriate operation by placing a finger on the display screen unit 33a.
- the imaging system (imaging control device) of the present embodiment includes an imaging device unit as the digital still camera 1 and a movable mechanism device as a pan head 10 described below. It goes without saying that even if only the still camera 1 is used, photography can be performed in the same manner as a normal digital still camera.
- FIG. 2 is a perspective view showing the external appearance of the camera platform 10.
- 3 to 5 show a state where the digital still camera 1 is placed in an appropriate state with respect to the pan head 10 as the appearance of the imaging system of the present embodiment.
- 3 is a front view
- FIG. 4 is a plan view
- FIG. 5 is a side view (particularly, in FIG. 5B, the movable range of the tilt mechanism is shown by the side view).
- the camera platform 10 is largely configured by combining a main body 11 on a grounding base 15 and further a camera base with respect to the main body 11. It has the structure where the part 12 was attached.
- the bottom surface side of the digital still camera 1 is placed against the top surface side of the camera base 12.
- a projection 13 and a connector 14 are provided on the upper surface of the camera base 12 as shown in FIG.
- a hole that engages with the protrusion 13 is formed on the lower surface of the main body 2 of the digital still camera 1.
- a connector is also provided at a predetermined position on the lower surface portion thereof. As described above, in a state where the digital still camera 1 is properly placed on the camera base 12, the connector of the digital still camera 1 and the connector 14 of the camera platform 10 are connected, and at least communication between them is performed. It becomes possible.
- the positions of the connector 14 and the protrusion 13 can be changed within a certain range in the camera base 12 in practice.
- a digital still camera of a different model can be placed on the camera base 12 in a state where it can communicate with the camera platform 10. It has become.
- communication between the digital still camera 1 and the camera base 12 may be performed wirelessly.
- the camera 10 may be configured to charge the digital still camera 1 from the camera platform 10.
- a video signal such as an image reproduced by the digital still camera 1 is also transmitted to the camera platform 10 side, and is output from the camera platform 10 to an external monitor device via a cable or wireless communication.
- the pan head 10 can be used not only for changing the imaging field selection angle of the digital still camera 1 but also as a so-called cradle.
- the basic movement in the pan direction is as follows. In a state where the camera platform 10 is placed on the floor surface or the like, the bottom surface of the ground platform 15 is grounded. In this state, as shown in FIG. 4, the main body 11 can be rotated in the clockwise direction and the counterclockwise direction around the rotation shaft 11a. In other words, this makes it possible to change the imaging field selection angle in the horizontal direction (left-right direction) of the digital still camera 1 placed on the camera platform 10 (so-called panning).
- the pan mechanism of the pan head 10 has a structure in which the rotation of 360 ° or more can be freely performed in both the clockwise direction and the counterclockwise direction.
- the reference position in the pan direction is determined.
- the pan reference position is set to 0 ° (360 °)
- the rotation position of the main body 11 along the pan direction that is, the pan position (pan angle) is set to 0 ° to 360. It shall be expressed in °.
- FIG. 5A shows a state in which the camera base 12 is at the tilt reference position Y0 (0 °).
- the imaging direction F1 that coincides with the imaging optical axis of the lens unit 21a (optical system unit) and the grounding surface part GR that is grounded by the grounding base part 15 are parallel to each other. Then, as shown in FIG.
- the camera base 12 first, in the elevation direction, the camera base 12 has a predetermined maximum rotation angle + f ° from the tilt reference position Y0 (0 °) with the rotation axis 12a as the rotation center. Can move in a range of. Also in the depression angle direction, it can move within the range of a predetermined maximum rotation angle -g ° from the tilt reference position Y0 (0 °) with the rotation axis 12a as the rotation center. In this way, the camera base 12 moves within the range of the maximum rotation angle + f ° to the maximum rotation angle ⁇ g ° with the tilt reference position Y0 (0 °) as the base point, whereby the camera platform 10 (camera base 12).
- the imaging field selection angle in the tilt direction (vertical direction) of the digital still camera 1 placed on the camera can be changed. That is, a tilting operation can be obtained.
- the external configuration of the pan head 10 shown in FIGS. 2 to 5 is merely an example, and if the digital still camera 1 placed thereon can be moved in the pan direction and the tilt direction, The physical configuration and structure can be taken.
- FIG. 6 is a block diagram showing a practical internal configuration example of the digital still camera 1.
- the optical system unit 21 includes a predetermined number of imaging lens groups including a zoom lens, a focus lens, and the like, a diaphragm, and the like. An image is formed on the light receiving surface.
- the optical system unit 21 also includes a drive mechanism unit for driving the zoom lens, the focus lens, the diaphragm, and the like. The operation of these drive mechanisms is controlled by so-called camera control such as zoom (viewing angle) control, automatic focus adjustment control, automatic exposure control, and the like executed by the control unit 27, for example.
- the image sensor 22 performs so-called photoelectric conversion in which imaging light obtained by the optical system unit 21 is converted into an electric signal.
- the image sensor 22 receives the imaging light from the optical system unit 21 on the light receiving surface of the photoelectric conversion element, and sequentially accumulates signal charges accumulated according to the intensity of the received light at a predetermined timing. Output. Thereby, an electrical signal (imaging signal) corresponding to the imaging light is output.
- the photoelectric conversion element (imaging element) employed as the image sensor 22 is not particularly limited. However, in the present situation, for example, a CMOS (Complementary Metal Oxide Semiconductor) sensor, a CCD (Charge Coupled Device), or the like. Can be mentioned.
- a device (component) corresponding to the image sensor 22 may include an analog-digital converter corresponding to an A / D converter 23 described below.
- the imaging signal output from the image sensor 22 is input to the A / D converter 23 to be converted into a digital signal and input to the signal processing unit 24.
- the signal processing unit 24 is constituted by a DSP (Digital Signal Processor) and performs predetermined signal processing according to a program on the digital imaging signal output from the A / D converter 23.
- the signal processing unit 24 captures the digital imaging signal output from the A / D converter 23 in a unit corresponding to one still image (frame image), and captures the captured image unit in the still image unit in this way. Is subjected to predetermined signal processing to generate captured image data (captured still image data) that is image signal data corresponding to one still image.
- the signal processing unit 24 is configured to be able to execute image processing as subject detection processing using the captured image data acquired in this way, as will be described later. This point will be described later.
- the captured image data generated by the signal processing unit 24 as described above is recorded as image information in the memory card 40 as a recording medium, for example, captured image data corresponding to one still image is signaled.
- the data is output from the processing unit 24 to the encoding / decoding unit 25.
- the encoding / decoding unit 25 performs compression encoding on the captured image data in units of still images output from the signal processing unit 24 by a predetermined still image compression encoding method, and performs control of the control unit 27, for example. Accordingly, a header or the like is added to convert the image data into a format compressed into a predetermined format. Then, the image data generated in this way is transferred to the media controller 26.
- the media controller 26 writes and records the transferred image data on the memory card 40 under the control of the control unit 27.
- the memory card 40 in this case is a recording medium having a configuration including, for example, a card-type outer shape conforming to a predetermined standard and having a nonvolatile semiconductor memory element such as a flash memory inside.
- the recording medium for recording image data may be of a type or format other than the memory card.
- the digital still camera 1 displays a so-called through image that is an image currently being captured by causing the display unit 33 to perform image display using the captured image data obtained by the signal processing unit 24.
- the signal processing unit 24 captures the imaging signal output from the A / D converter 23 as described above and generates captured image data corresponding to one still image, but this operation is continued.
- captured image data corresponding to frame images in the moving image is sequentially generated.
- the captured image data sequentially generated in this way is transferred to the display driver 32 under the control of the control unit 27. Thereby, a through image is displayed.
- the display driver 32 generates a drive signal for driving the display unit 33 based on the captured image data input from the signal processing unit 24 as described above, and outputs the drive signal to the display unit 33.
- the display unit 33 sequentially displays images based on the captured image data in units of still images. If the user sees this, the image captured at that time is displayed as a moving image on the display unit 33. That is, a through image is displayed.
- the digital still camera 1 can also reproduce the image data recorded on the memory card 40 and display the image on the display unit 33.
- the control unit 27 designates image data and instructs the media controller 26 to read data from the memory card 40.
- the media controller 26 accesses the address on the memory card 40 where the designated image data is recorded, executes data reading, and sends the read data to the encoding / decoding unit 25. Forward.
- the encode / decode unit 25 extracts, for example, actual data as compressed still image data from the captured image data transferred from the media controller 26 under the control of the control unit 27, and decodes the compressed still image data with respect to compression encoding. Processing is executed to obtain captured image data corresponding to one still image. Then, the captured image data is transferred to the display driver 32. Thereby, on the display unit 33, the image of the captured image data recorded in the memory card 40 is reproduced and displayed.
- a user interface image (operation image) can be displayed together with the through image and the reproduced image data.
- the control unit 27 generates display image data as a necessary user interface image according to the operation state at that time, and outputs the display image data to the display driver 32.
- the user interface image is displayed on the display unit 33.
- the user interface image can be displayed on the display screen of the display unit 33 separately from the monitor image and the reproduced image of the captured image data, such as a specific menu screen. It is also possible to display the image data so as to be superimposed and synthesized on a part of the reproduced image.
- the control unit 27 includes a CPU (Central Processing Unit), and constitutes a microcomputer together with the ROM 28, the RAM 29, and the like.
- ROM 28 for example, various setting information related to the operation of the digital still camera 1 is stored in addition to a program to be executed by the CPU as the control unit 27.
- the RAM 29 is a main storage device for the CPU.
- the flash memory 30 in this case is provided as a nonvolatile storage area used for storing various setting information that needs to be changed (rewritten) in accordance with, for example, a user operation or an operation history. It is what For example, if a non-volatile memory such as a flash memory is adopted as the ROM 28, a partial storage area in the ROM 28 may be used instead of the flash memory 30.
- control unit 27 executes subject detection by the signal processing unit 24 while changing the imaging field of view to search for a subject around the digital still camera 1, and for the subject search.
- Optimal composition determination for determining an optimal composition according to the detected subject according to a predetermined algorithm, composition adjustment with the optimal composition obtained by the optimal composition determination as a target composition, and after the composition adjustment Control and processing for realizing the automatic recording of the captured image is performed, which will be described later.
- the operation unit 31 generates various operation elements provided in the digital still camera 1, and operation information signal output parts that generate operation information signals according to operations performed on these operation elements and output the operation information signals to the control unit 27. Are shown together.
- the control unit 27 executes predetermined processing according to the operation information signal input from the operation unit 31. Thereby, the operation of the digital still camera 1 according to the user operation is executed.
- the pan head communication unit 34 is a part that performs communication according to a predetermined communication method between the pan head 10 side and the digital still camera 1 side.
- the digital still camera 1 communicates with the pan head 10.
- a physical layer configuration for enabling transmission / reception of wired or wireless communication signals to / from the communication unit on the camera platform 10 side, and communication processing corresponding to a predetermined layer higher than this And a configuration for realizing.
- the physical layer configuration includes a connector portion connected to the connector 14 in correspondence with FIG.
- the pan head 10 includes a pan / tilt mechanism, and includes a pan mechanism unit 53, a pan motor 54, a tilt mechanism unit 56, and a tilt motor 57 as corresponding parts.
- the pan mechanism unit 53 is configured to have a mechanism for giving movement in the pan (lateral / horizontal) direction shown in FIG. 4 with respect to the digital still camera 1 attached to the pan / tilt head 10. It is obtained by rotating the pan motor 54 in the forward and reverse directions.
- the tilt mechanism unit 56 is configured to have a mechanism for giving a movement in the tilt (vertical / vertical) direction shown in FIG. 5 with respect to the digital still camera 1 attached to the camera platform 10. The movement of the mechanism is obtained by rotating the tilt motor 57 in the forward and reverse directions.
- the control unit 51 includes a microcomputer formed by combining a CPU, a ROM, a RAM, and the like, for example, and controls the movement of the pan mechanism unit 53 and the tilt mechanism unit 56. For example, when the control unit 51 controls the movement of the pan mechanism unit 53, a signal instructing the direction to be moved and the moving speed is output to the pan driving unit 55.
- the pan driving unit 55 generates a motor driving signal corresponding to the input signal and outputs the motor driving signal to the pan motor 54. For example, if the motor is a stepping motor, the motor drive signal is a pulse signal corresponding to PWM control.
- the pan motor 54 rotates, for example, with a required rotation direction and rotation speed, and as a result, the pan mechanism unit 53 is also driven to move with the corresponding movement direction and movement speed.
- the control unit 51 outputs to the tilt drive unit 58 a signal instructing the moving direction and moving speed necessary for the tilt mechanism unit 56.
- the tilt drive unit 58 generates a motor drive signal corresponding to the input signal and outputs the motor drive signal to the tilt motor 57.
- the tilt motor 57 rotates, for example, at a required rotation direction and rotation speed, and as a result, the tilt mechanism unit 56 is also driven to move according to the corresponding movement direction and speed.
- the pan mechanism unit 53 includes a rotary encoder (rotation detector) 53a.
- the rotary encoder 53 a outputs a detection signal indicating the rotation angle amount to the control unit 51 in accordance with the rotational movement of the pan mechanism unit 53.
- the tilt mechanism unit 56 includes a rotary encoder 56a.
- the rotary encoder 56 a also outputs a signal indicating the rotation angle amount to the control unit 51 in accordance with the rotational movement of the tilt mechanism unit 56.
- the communication unit 52 is a part that performs communication according to a predetermined communication method with the pan-head compatible communication unit 34 in the digital still camera 1 attached to the pan head 10. Similarly, it has a physical layer configuration for enabling transmission / reception of wired or wireless communication signals with a counterpart communication unit, and a configuration for realizing communication processing corresponding to a predetermined layer higher than this. It consists of As the physical layer configuration, the connector 14 of the camera base 12 is included in correspondence with FIG.
- the imaging system according to the present embodiment is determined to be optimum determined according to the form of the subject detected with the subject search by the above-described subject search, optimum composition determination, and composition adjustment operations.
- An automatic composition adjustment operation with the composition as the target composition is performed.
- a specific example of the automatic imaging operation as the present embodiment accompanied with such an automatic composition adjustment operation will be described.
- a subject detection result by the signal processing unit 24 shown in FIG. 6 is used.
- the signal processing unit 24 performs the following process as the subject detection process. That is, the signal processing unit 24 detects an image portion corresponding to a person's face from image signal data corresponding to one still image acquired as described above.
- a face frame is set for each subject detected from within the image corresponding to the area of the image portion of the face using so-called face detection technology. Then, information on the number of subjects in the image frame, the size of each subject, and the position in each image frame is obtained from information such as the number, size, and position of the face frame.
- the signal processing unit 24 executes the subject detection process as described above for each predetermined number of frames, such as for each image signal data corresponding to one still image (that is, for each frame). Has been.
- a search for a subject existing around the digital still camera 1 is performed using detection information obtained by such subject detection processing.
- the control unit 27 in the digital still camera 1 performs pan / tilt control with respect to the camera platform 10 and zoom control with respect to the optical system unit 21 while changing the imaging field selection angle,
- the object detection is performed by the signal processing unit 24.
- Such subject search processing ends when the subject is detected in the image frame by subject detection processing by the signal processing unit 24.
- the control unit 27 After the subject search processing is completed, the control unit 27 performs image structure determination based on the subject detection result by the signal processing unit 24 (in this case, determination of the number of subjects, the subject size, and the subject position in the image frame). Then, the optimum composition determination process is executed. That is, as the optimum composition determination process, an optimum composition is determined according to a predetermined algorithm based on the image structure information determined by the above-described image structure determination.
- the composition in this case is determined by the pan / tilt / zoom selection field of view, and accordingly, depending on the optimum composition determination process, the determination result As a result, information on the selected imaging field of view of pan, tilt, and zoom, which is optimized in accordance with the subject detection result (the subject mode in the image frame), is obtained.
- the control unit 27 After executing the optimum composition determination process as described above, the control unit 27 performs composition adjustment control. That is, pan / tilt / zoom control is performed with the optimal composition as the target composition. Specifically, as the composition adjustment control, the control unit 27 instructs the control unit 51 on the pan head 10 side with information on the pan / tilt imaging field-of-view selection angles obtained by the optimal composition determination process. In response to this, the control unit 51 moves the pan mechanism unit 53 and the tilt mechanism unit 56 in order to point the digital still camera 1 in the imaging direction in which the designated pan / tilt imaging field selection angles are obtained. An amount is obtained, and a pan control signal is supplied to the pan motor 54 and a tilt control signal is supplied to the tilt motor 57 so that pan driving and tilt driving of the obtained movement amount are performed.
- control unit 27 instructs the optical system unit 21 of information on the imaging field selection angle (that is, information on the angle of view) for the zoom obtained by the optimal composition determination process, thereby obtaining the instructed angle of view.
- the zoom operation by the optical system unit 21 is executed as described above.
- control unit 27 controls the encode / decode unit 25 and the media controller 26, and Recording of the captured image data to the memory card 40 is executed.
- an automatic imaging operation by automatic composition adjustment is realized based on the control and processing by the control unit 27.
- FIG. 8 and 9 are diagrams for explaining the automatic imaging control method according to the first embodiment.
- FIG. 8 is an example of an end region set in the image frame.
- FIG. A specific example of the automatic imaging control method of the embodiment is schematically shown.
- the end region is set so as to correspond to the end of the image frame G of the captured image obtained by imaging with the optical system unit 21 shown in FIG.
- the EDG is set.
- the end area EDG is set so as to include end areas on all four sides of the image frame G.
- the width of the region located at both ends in the horizontal direction of the image frame G is set to x / 10
- the region located at both ends in the vertical direction of the image frame G Each width is set to y / 10.
- x is the number of effective pixels in the horizontal direction (horizontal direction) of the captured image
- y is the number of effective pixels in the vertical direction (vertical direction) of the captured image. It is.
- FIG. 9A shows the behavior when the subject is lost after reaching the end region EDG during composition adjustment.
- a subject detected within the image frame G is referred to as a subject HF.
- the moving direction of the subject HF (the direction in which the subject is out of the frame) can be known from the position in the end region EDG where the subject HF has reached just before the lost. That is, when the subject HF has reached the right end region in the end region EDG as in the example of FIG. 9A, it is estimated that the subject HF has moved out of the frame and moved out of the frame. it can.
- the edge area EDG is considered to be composed of four areas corresponding to each of the four sides of the image frame G
- the frame-out direction of the subject HF is determined by the subject HF from among these four edge areas. It can be estimated by specifying the end region that has been reached immediately before the lost.
- the imaging field-of-view selection angle is set so as to track (follow) the subject HF out of the frame. Take control. Specifically, in the example of FIG. 9A, it can be estimated that the subject HF has moved in the right direction. In this case, by performing control so that pan driving is performed in the right direction for a certain period, Track out the subject HF. Here, in this example, tracking is performed for 3 seconds, for example, as the above "fixed period".
- FIG. 9 shows the behavior when the subject HF is lost in the area inside the end area EDG.
- the subject HF is lost, if the subject HF has not reached the end region EDG before the disappearance, the subject HF is lost in the region inside the end region EDG (hereinafter also referred to as in-frame lost).
- in-frame lost can be considered as a case where the subject HF cannot be detected due to a change in the orientation of the subject HF (face) or the like. , Wait for a certain period.
- the subject HF waits for a certain period of time in anticipation of the subject HF turning back to the front soon. It is. In this example, 3 seconds is set as the period for such standby.
- the target subject HF is the target after tracking for a certain period shown in FIG. 9A or after waiting for a certain period shown in FIG. 9B.
- a process for confirming whether or not can be detected again is performed.
- the control unit 27 obtains subject detection result information from the signal processing unit 24 after performing tracking for a certain period or waiting for a certain period, and re-detects the subject HF based on the information content. A determination is made as to whether or not it has been done.
- the composition adjustment control is performed with the optimum composition determined by the optimum composition determination as the target composition. To do.
- control is performed so that the subject search is executed. That is, in this case, assuming that the subject HF is lost, the subject search is repeated.
- the automatic imaging control is performed accordingly. It is possible to prevent the subject from being searched again immediately. Specifically, when the subject HF is lost due to a frame-out, tracking in the frame-out direction is performed so that the target subject HF can be re-detected more quickly without re-starting the subject search. Can do. Further, in response to the case where the subject HF is lost within the frame, the target subject HF can be re-detected more quickly by waiting for a certain period without restarting the subject search.
- the control method as the first embodiment compared with the conventional method in which the subject search is immediately started in accordance with the subject lost during composition adjustment, the chance of capturing and recording is not missed.
- An imaging system designed to perform many imaging recordings can be realized. That is, from this point, according to the present embodiment, it is possible to achieve an intelligent automatic imaging operation as compared with the case where the conventional method is adopted, and as a result, it is possible to provide an imaging system that is more useful to the user. .
- the frame-out direction of the subject HF is detected (determined) by specifying which region of the end region EDG the framed subject HF has reached before being lost.
- a method of estimating the moving direction from the transition of the detection position before the subject HF is lost and setting the estimated direction as the frame-out direction can also be mentioned.
- adjustment of the imaging field selection angle such as pan / tilt / zoom is performed, so that the change in the position of the subject HF obtained from the subject detection information is accompanied by the movement of the subject HF itself. It is very difficult to distinguish whether the subject is an object associated with pan / tilt / zoom adjustment, and as a result, there is a high possibility of erroneous determination of the moving direction of the subject HF.
- the moving direction estimation processing is added with a calculation process for canceling the position change of the subject HF due to pan / tilt / zoom movement for composition adjustment.
- the processing load increases.
- the moving direction of the subject HF at the time of frame-out specifies which region of the end region EDG the subject HF has reached before disappearance. It is possible to make an accurate determination with a very simple process.
- FIG. 10 shows a specific processing procedure to be performed in order to realize the automatic imaging control method as the first embodiment described above.
- the processing procedure to be performed in order to realize the automatic imaging control method as the first embodiment is executed by the control unit 27 shown in FIG. 6 according to a program stored in the ROM 28, for example. This is shown as the procedure of the process.
- step S101 subject search processing is executed. That is, as a process for searching for a subject existing around the digital still camera 1, a panning / tilting instruction to the control unit 51 on the camera platform 10 side and a zoom control to the optical system unit 21 are performed, thereby obtaining an imaging field selection angle.
- the subject is detected by the signal processing unit 24 while changing.
- step S102 it is determined whether or not a subject has been detected. That is, it is determined whether or not a subject HF is detected in the image frame G by subject detection processing by the signal processing unit 24. If a negative result is obtained in step S102 that no subject has been detected, the process returns to step S101, and subject search processing is executed again.
- step S102 if a positive result is obtained in step S102 that the subject has been detected, the process proceeds to step S103, and the image structure determination process is executed.
- the determination of the image structure in which the subject HF (person) such as the number, position, size, etc. of the subject HF detected in the image frame G is a main element is performed. Do.
- the optimum composition is determined according to a predetermined algorithm based on the image structure information determined in the process of step S102. In other words, information on the imaging field selection angle of pan, tilt, and zoom that is optimal is determined.
- step S105 a composition adjustment instruction is issued.
- the pan / tilt / zoom imaging visual field selection angles obtained in step S104 are obtained so that the pan / tilt angle instruction to the control unit 51 on the camera platform 10 side and optical The zoom angle is instructed to the system unit 21.
- step S105 After the composition adjustment instruction in step S105 is performed (that is, after composition adjustment control is started) until the composition adjustment is completed, the processes in steps S106 to S113 in the figure, and steps S120 to Through the process of S126, a process for determining whether or not the subject HF is lost or specifying a lost aspect, and when a lost occurs, a process for tracking / standby according to the lost aspect is performed.
- the flag functions as an identifier for identifying whether the subject HF is lost due to frame out or in frame.
- subject detection information is obtained from the signal processing unit 24 as subject detection information acquisition processing.
- step S108 based on the subject detection information acquired as described above, it is determined whether or not the subject HF has been lost. If a negative result is obtained in step S108 that the subject HF is not lost, the process proceeds to step S109, and it is determined whether or not the subject HF covers the end region EDG. That is, it is determined whether or not the position in the image frame G of the subject HF specified by the subject detection information acquired in step S107 has reached a predetermined end region EDG.
- step S113 it is determined whether or not composition adjustment is completed. That is, it is determined whether or not the pan / tilt / zoom imaging field selection angles set in step S105 have been set.
- step S113 if the pan / tilt / zoom imaging field selection angle setting instructed in step S105 has not been completed yet and a negative result has been obtained that the composition adjustment has not been completed, then it is illustrated. In this way, the process returns to step S107. That is, by this, until the composition adjustment is completed, acquisition of subject detection information is performed at a predetermined cycle (S107), determination of the presence or absence of subject loss (S108), and confirmation of the positional relationship between the subject HF and the end region EDG (S109).
- step S113 determines whether or not the composition is OK.
- the composition currently obtained in this case, the composition specified from the subject detection information acquired in step S107
- the composition determined in step S104 for example, a certain level or more. It is determined whether or not the state is an approximation degree.
- step S114 If a negative result is obtained in step S114 that the composition is not OK, the process returns to step S105 as shown in the figure to instruct a composition adjustment.
- step S114 If a positive result is obtained in step S114 that the composition is OK, final processing for release is performed by the processing in steps S115 to S121.
- the subject HF is not in a state to be released immediately in response to the composition becoming OK, but the subject HF is in a predetermined specific state (for example, a smile). As a final condition, release is performed.
- step S115 time counting is started.
- step S116 a process for determining whether the state of the detected subject matches a predetermined specific state is executed as a release timing determination process. For example, in the case where smile is the final condition as described above, in the process of step S116, is the state of the subject HF specified from the subject detection information acquired in step S107 matched with the state of smile? Is the process of determining.
- next step S117 it is determined whether the timing is OK based on the result of the determination process in step S116. Specifically, when the result of the determination process in step S116 indicates that the state of the detected subject matches a predetermined specific state, an affirmative result is obtained that the timing is OK. If the result of the determination process in step S116 indicates that the state of the detected subject does not match a predetermined specific state, a negative result is obtained that the timing is not OK.
- step S117 If it is determined in step S117 that the timing is not OK and a negative result is obtained, the process proceeds to step S118 to determine whether the time is up. That is, it is determined whether or not the time count value started in step S115 has reached a predetermined value.
- step S118 If a negative result is obtained in step S118 that the time is not UP, the process proceeds to step S119 to execute subject detection information acquisition processing, and then returns to step S116. In this way, a loop process of steps S116 ⁇ S117 ⁇ S118 ⁇ S119 is formed, and the loop process waits for either the state where the release timing is OK or the arrival of time UP.
- step S118 if a positive result is obtained that the time is up, the time count is reset in step S120, and then the process returns to step S101. In other words, if the final condition is not satisfied and the time is up, the process starts again from the subject search.
- step S117 if a positive result is obtained that the timing is OK, the process proceeds to step S121, and a release process is performed.
- the encoding / decoding unit 25 and the media controller 26 are controlled to record the captured image data in the memory card 40.
- processing flow described so far is the case where the subject HF is not lost during composition adjustment.
- processing described below is executed.
- step S108 If a positive result is obtained in step S108 described above that the subject HF has been lost, the process proceeds to step S122.
- the process proceeds to step S124, and a process of waiting for a certain period of time is executed. In this case, the waiting period is 3 seconds.
- step S123 or step S124 After the process of step S123 or step S124 is executed, subject detection information acquisition processing is executed in step S125, and then it is determined in step S126 whether or not the subject HF has been detected.
- step S126 If an affirmative result is obtained in step S126 that the subject HF is detected, the process returns to step S103. That is, if the lost subject HF is re-detected after following a certain period of time or waiting for a certain period, the optimum composition determination for the re-detected subject HF is performed, and the composition adjustment is performed again. Is executed.
- step S126 if a negative result is obtained in step S126 that the subject is not detected, the process returns to step S101 and the subject search is repeated.
- step S115 to S120 the conditions other than the composition being OK (steps S115 to S120) are exemplified as the conditions for the release, but of course, such additional conditions are not imposed. It is also possible to release immediately in response to the composition being OK.
- FIG. 11 schematically shows a specific example of the automatic imaging control technique as the second embodiment that should be taken corresponding to the case where there are a plurality of detected subjects.
- FIG. 11A shows the behavior when one of the two (two) subjects HF1 and HF2 detected in the image frame G is out of frame and lost.
- tracking of the subject HF out of the frame is not performed (that is, ignored) and is detected in the image frame G.
- the composition is adjusted for the subject HF. That is, the optimum composition determination is performed again because there is a lost subject, but the optimum composition determination is not performed until the framed subject HF is tracked.
- FIG. 11B shows a case where one of the two subjects HF1 and HF2 detected in the image frame G is lost within the frame (that is, the end region EDG has not been reached immediately before the loss). Behavior).
- the subject HF1 lost in the frame is expected to return to the front in a short time, and is waited for a certain period.
- illustration is omitted, after waiting for a certain period of time in this way, subject detection is also performed in this case, and after confirming that the subject HF has been detected again in the image frame G, the optimum composition determination is performed. And composition adjustment.
- the subject search is repeated.
- the control method as the second embodiment can be defined as follows. That is, When all of the lost subjects HF are due to frame out and there is a non-lost subject HF within the image frame G (in other words, there is no lost subject HF within the frame and all of them are lost If not, optimum composition determination / composition is performed for the detected subject in the image frame G. When there is a subject HF that has been lost within the frame among the lost subjects HF, it waits for a certain period of time.
- the subject search After waiting for a certain period, it is determined whether or not the subject HF is re-detected in the image frame G. If the subject HF is re-detected, the optimum composition determination / composition is performed, and the subject HF is not re-detected. If so, start over from the subject search. When all the subjects HF are lost due to frame-out, the subject search is repeated.
- the imaging and recording are performed. More imaging and recording can be performed without missing opportunities.
- FIG. 12 shows a specific processing procedure to be performed to realize the automatic imaging control method according to the second embodiment described above.
- the control unit 27 shown in FIG. 6 executes the procedure of processing to be performed to realize the automatic imaging control method as the second embodiment according to a program stored in the ROM 28, for example. This is shown as the procedure of the process.
- the same step numbers are assigned to processes having the same contents as those already described, and the description thereof is omitted.
- steps S101 to S103 the subject search and the image structure determination when the subject HF is detected by the subject search are performed.
- step S201 After performing the image structure determination in step S103, it is determined in step S201 whether or not there are a plurality of subjects HF. If it is determined in step S201 that the result of the image structure determination is that there are not a plurality of subjects HF detected in the image frame G (that is, there is a single object), a negative result is obtained. . That is, the process in the range of steps S104 to S126 shown in FIG. 10 is executed. In this way, when the number of detected subjects is singular, processing corresponding to the singular time described in the first embodiment can be performed.
- step S126 when an affirmative result is obtained in step S126 with respect to the processing of steps S104 to S126 shown in FIG. 10 executed as processing corresponding to the single time in this way, the processing proceeds to step S103 shown in FIG. (See the correspondence between the circled 1 mark shown in FIG. 10 and the circled 1 mark shown in FIG. 12).
- step S103 shown in FIG.
- appropriate switching is performed so that processing at a plurality of times described below is executed. It can be carried out.
- step S201 if the result of the image structure determination in step S103 is a positive result that there are a plurality of subjects HF detected in the image frame G, the processing in FIG. The process after S104 is executed. First, the optimum composition determination in step S104 and the composition adjustment instruction in step S105 subsequent thereto are the same as those described in FIG.
- step S204 if a negative result is obtained in step S204 that there is no subject HF in the edge region EDG, the process proceeds to step S206, and after the flag of the corresponding subject is set to 0, the process proceeds to step S113.
- step S113 if a negative result is obtained that the composition adjustment has not been completed in the determination process of step S113, the process returns to step S107 (subject detection information acquisition process) shown in FIG. If an affirmative result is obtained in step S113 that the composition adjustment is completed, the processing after step S114 (range from S114 to S121) is executed.
- step S114 range from S114 to S121
- the processing after step S114 is executed.
- step S208 if a negative result is obtained in step S208 that all members are not lost, the process returns to the image structure determination process in step S103 as shown in the figure. That is, when all of the lost subjects HF are due to a frame-out and there is a non-lost subject HF in the image frame G (when there is no lost subject HF within the frame and all are not lost). In this case, optimal composition determination / composition adjustment is performed on the detected subject in the image frame G.
- step S208 if a positive result is obtained that all the members are lost, the process returns to step S101 to start again from the subject search. That is, as described above, in response to the case where all the subjects HF detected in the image frame G are lost due to the frame out, the subject search is performed again.
- step S209 After waiting for a certain period by the process of step S209, the subject detection information is acquired in step S210, and then in step S211, it is determined whether or not the subject HF has been detected.
- step S211 if a positive result is obtained that the subject HF is detected, the process returns to step S103. In other words, this makes it possible to perform the optimum composition determination for the subject HF that is re-detected after waiting for a certain period.
- step S211 if a negative result is obtained because the subject HF is not detected in step S211, the process returns to step S101, and if the subject HF cannot be redetected even after waiting for a certain period of time. Then, start again from the subject search.
- the subject set as the priority face can be defined as “subject HF that satisfies a specific condition”.
- a pre-registered subject is set as a priority face, or a subject having a specific feature such as a child is automatically set as a priority face.
- a method for pre-registering a subject as a priority face for example, a method for designating a subject to be registered as a priority face by touch panel operation or the like from subjects displayed in images captured and recorded in the past, or a subject to be registered as a priority face.
- a method of causing a user to capture an image and registering the captured subject as a priority face can be used.
- a method for automatically setting a subject having a specific characteristic such as a child as a priority face for example, in the image structure determination process, a predetermined specific characteristic such as a child's face is included in the image frame G.
- a method of performing a process of confirming whether or not there is a subject to be detected and automatically setting the subject as a priority face when there is a corresponding subject as a result is included in the image frame G.
- control unit 27 in the case of the present embodiment provides the user with a priority face in advance by at least one of the two methods described above regarding the “pre-registered subject”. Control and processing for registering the subject are executed.
- FIG. 13 schematically shows a specific example of the automatic imaging control method as the third embodiment corresponding to the case where the priority face is set. 13 also illustrates a case where the number of detected subjects in the image frame G is two for ease of explanation.
- a case where one of the two detected subjects HF is a subject as a priority face (hereinafter referred to as priority subject HFp) is illustrated.
- the subject HF that is not the priority subject HFp is referred to as a subject HF1.
- the priority subject HFp that is out of the frame is tracked. That is, in the previous second embodiment, when there are a plurality of detected subjects, tracking is not performed for the subject HF that is out of frame, but in the third embodiment, the subject that is out of frame.
- the HF is the priority subject HFp, in order to preferentially capture and record the priority subject HFp, this is followed for a certain period.
- FIG. 13 shows an example in which the number of detected subjects is “2” and one of them is the priority subject HFp and only the priority subject HFp is out of the frame as the simplest case.
- various cases may occur such as when the number of detected subjects is 3 or more, a lost frame occurs instead of a frame out, or a priority subject HFp is not detected in the first place.
- the priority subject HFp is always tracked. .
- the priority subject HFp is within the image frame G, the other subject HF is not tracked even if there is another subject HF out of the frame.
- the priority subject HFp is detected in the image frame G as described above, it may be assumed that another subject HF is lost within the frame instead of being out of the frame.
- the priority subject HFp is detected in the image frame G and there is another subject HF in the frame, if only priority is given to the imaging and recording of the priority subject HFp, As described above, since the priority subject HFp is detected in the image frame G, it is conceivable not to wait for a certain period corresponding to the case where there is a subject HF lost in the frame. In other words, this is a technique in which image recording for the priority subject HFp is promptly performed accordingly.
- the priority subject HFp may be lost within the frame.
- standby is performed for a certain period.
- the priority subject HFp may not be detected as the target subject for the optimum composition determination.
- the correspondence in this case is the same as that described in the second embodiment. Specifically, when the priority subject HFp has not been detected in this way, If all the lost subjects HF are out of frame and there is a non-lost subject HF in the image frame G, optimum composition determination / composition adjustment for the subject HF in the image frame G is performed. To. When all the subjects HF are lost due to frame-out, the subject search is repeated.
- the following processing for each case classification is as follows: I do. When there is a subject HF out of frame among the lost subjects HF and there is a priority subject HFp among the subjects HF out of the frame ⁇ Was the subject re-detected after tracking for a certain period in the frame out direction of the priority subject HFp? If the subject is re-detected, the optimum composition determination / composition adjustment for the re-detected subject is performed. If the subject is not re-detected, the subject search is repeated.
- -Lost subject HF is all due to frame out, and there is no priority subject HFp among subjects HF lost due to frame out, and there is a non-lost subject HF in image frame G ⁇ in image frame G
- the optimal composition determination / composition adjustment is performed on the detected object.
- -Lost subject HF is all due to frame out, and there is no priority subject HFp among subjects HF lost due to frame out and all are lost.
- FIG. 14 shows a specific processing procedure to be performed to realize the automatic imaging control method according to the third embodiment described above.
- the procedure of processing to be performed in order to realize the automatic imaging control method as the third embodiment is performed according to a program stored in the ROM 28 by the control unit 27 shown in FIG. It is shown as a procedure of processing to be executed.
- the processing procedure in the third embodiment is compared with the processing procedure in the second embodiment in step S204.
- the priority subject HFp may be tracked, so the direction determination process in step S301 is executed.
- the direction determination process in step S301 is performed at the timing after the flag update process in step S205 and before the determination process in step S113 as shown in the figure.
- the processing in step S301 is processing for obtaining direction information for each subject HF that has reached the end region EDG.
- a direction determination process can be performed only for the priority subject HFp when the priority subject HFp is included in the subject HF that has reached the end region EDG.
- step S203 when compared with the processing procedure in the case of the second embodiment, in the processing procedure in the case of the third embodiment, the processing content after an affirmative result that there is a lost subject is obtained in step S203. Will also be different.
- control unit 27 executes processing for accepting registration of the subject as the priority face described above, and this point is also different from the case of the second embodiment. .
- step S304 After performing the follow-up process for a certain period in step S304, the process proceeds to step S210 to acquire subject detection information. Then, in step S211, it is determined whether or not the subject HF has been detected. Each behavior when a positive result or a negative result is obtained in step S211 is as described above with reference to FIG.
- step S209 after execution of the standby process in step S209, the process from step S210 to S211 is executed as in the case of the second embodiment, whereby the subject HF Is detected again, and the optimum composition determination / composition adjustment when the subject HF is detected again, or the subject search is performed when the subject HF is not detected again.
- Step S208 when it is determined that all the members are lost, all the subjects HF are lost due to frame-out, and the priority subject HFp is not included in them. For this reason, if an affirmative result is obtained in step S208 that all are lost, the process returns to step S101 and the subject search is performed again.
- step S208 If it is determined in step S208 that all of the subjects are not lost, all the lost subjects HF are out of frame (however, the priority subjects HFp are not included) and are not lost. This means that there is a subject HF. For this reason, if a negative result indicating that all the members are not lost is obtained in step S208, the process proceeds to step S103, and the optimum composition determination and composition adjustment for the detected subject in the image frame G are performed. .
- the non-tracking / tracking of the subject HF is performed according to the positional relationship between the subject HF before the loss and the end region EDG. Is switched (standby / tracking operation switching).
- the zoom operation is continued / stopped according to the positional relationship between the subject HF and the end region EDG.
- switching of the zoom operation is continued / stopped according to the positional relationship between the subject HF and the end region EDG. .
- FIG. 15 is a diagram schematically showing a specific example of the automatic imaging control technique as the fourth embodiment for performing zoom continuation / stop switching using such an end region EDG.
- adjustment of the zoom angle is included as an adjustment item for performing composition adjustment.
- a zoom operation zoom-in operation
- the zoom operation is performed along with the composition adjustment.
- the zoom operation is performed. Is to stop.
- the subject HF is out of the frame due to the zoom operation accompanying the composition adjustment using the end region EDG. Can be prevented.
- the operation switching related to the automatic imaging operation is performed based on a completely new judgment criterion that the positional relationship between the end region EDG and the subject HF is not found in the past. This makes it possible to realize an automatic imaging operation that is more intelligent and more useful to the user.
- FIG. 16 is a flowchart showing a specific processing procedure for realizing the automatic imaging control method according to the fourth embodiment described above.
- the control procedure shown in FIG. 6 is executed by the control unit 27 shown in FIG. 6 according to a program stored in the ROM 28, for example, in order to realize the automatic imaging control method according to the fourth embodiment. This is shown as the procedure of the process.
- FIG. 16 shows a procedure of processing after composition adjustment in the pan / tilt direction has already been completed and a zoom instruction is subsequently performed.
- step S401 a zooming instruction for composition adjustment is performed. That is, information on the zoom angle specified from the information on the optimum composition (imaging field of view selection angle) determined by the optimal composition determination process not shown in this figure is instructed to the optical system unit 21, and the zoom mechanism Start driving.
- step S402 subject detection information is acquired.
- step S403 it is determined whether or not there is a subject HF that has reached (reached) the end region. If a positive result is obtained in step S403 that there is no subject HF in the end area EDG, the process proceeds to step S404, and it is determined whether or not the zoom operation is completed. If a negative result is obtained in step S404 that zooming has not been completed, the process returns to step S402 as shown.
- a loop process in steps S402 ⁇ S403 ⁇ S404 ⁇ S402 is formed.
- the loop process waits for the arrival of either the state in which the subject HF has reached the end region or the state in which the zoom operation has been completed.
- step S404 If an affirmative result is obtained in step S404 that the zoom operation has been completed, the process proceeds to step S405 to determine whether or not the composition is OK.
- the processing content of step S405 is the same as the processing content of step S114 described with reference to FIG.
- step S405 If a negative result is obtained in step S405 because the composition is not OK, a composition adjustment instruction (corresponding to the processing in step S105 in FIG. 10) is performed as shown. If a positive result is obtained in step S405 that the composition is OK, the processing after step S115 described above in FIG. 10 (range S115 to S121) is executed. That is, also in this case, when the composition is OK, for example, the final release timing determination process such as a smile, the release process according to the release timing OK, the release timing is not OK, the time The subject is re-searched in the case of UP.
- step S406 If a positive result is obtained in the above-described step S403 that there is a subject HF in the end region, the process proceeds to step S406 and a zoom stop instruction is issued. That is, a zoom stop instruction is given to the optical system unit 21.
- step S406 the process proceeds to step S115 as shown in the figure. That is, when the subject HF reaches the end area EDG and the zoom is stopped, it is determined whether or not the composition is OK in step S405, and the process proceeds to the final release timing determination process. Is.
- step S405 determines whether or not the composition in step S405 is OK after executing the process in step S406. Which of the above behaviors after zoom stop is selected as appropriate depending on the actual embodiment or the like.
- the fifth embodiment differs from the previous embodiments in the content of the automatic imaging operation that is assumed. Specifically, the fifth embodiment is premised on an automatic imaging operation by a self-timer as an automatic imaging operation.
- the automatic imaging operation by the self-timer corresponds to an operation of performing a release process (recording a captured image) automatically after a predetermined time has elapsed since the operation of the release button 31a was detected.
- a release process recording a captured image
- the user is instructed in advance to switch to the self-timer mode, and the digital still camera is switched to the self-timer mode.
- a switching instruction is given, a release process is performed after waiting for a predetermined time in accordance with the pressing operation of the release button 31a.
- the release process is performed uniformly as the predetermined time elapses after the release operation, regardless of the state of the subject HF in the image frame G. For this reason, there is a possibility that a failed photo such as the subject HF sticking out of the image frame G may be recorded.
- a more intelligent automatic imaging operation is realized in consideration of the state of the subject HF in the image frame G.
- FIG. 17 is a diagram schematically showing a specific example of the automatic imaging control method as the fifth embodiment.
- the number of subjects HF number of persons
- the number of subjects HF number of persons to be automatically imaged is set by the user in advance.
- “2” is set as the number of persons to be automatically imaged.
- the automatic imaging control of the fifth embodiment is performed in a region inside the end region EDG in the image frame G.
- the self-timer is activated in response to the number of subjects HF set in advance as the number of subjects to be automatically imaged.
- the process waits until a set number of subjects HF are detected in the area inside the end area EDG, and the end area
- the self-timer is activated in response to the detection of a set number of subjects HF within the area inside the EDG.
- the release process is performed in response to the time count value by the self-timer thus activated reaching a predetermined value.
- the self-timer is activated in response to the detection of the subject HF to be automatically imaged in the area inside the end area EDG. Can be launched. That is, this can effectively prevent the failure photo as described above from being recorded.
- the activation of the self-timer can be automated.
- the operation of the release button 31a that can be regarded as a timer activation operation is required after the instruction to switch to the self-timer mode is given. According to the embodiment, such an operation for starting the timer can be unnecessary.
- the set number of persons is set. Since the timer is automatically activated in response to being within the area, the operator can act with a margin, and in this respect, the usefulness can be enhanced more than in the past.
- the self-timer automatic imaging operation it is possible to realize an automatic imaging operation that is more intelligent than before in consideration of the state of the subject HF in the image frame G.
- the automatic imaging control method according to the fifth embodiment as described above is based on whether the self-timer has not been started / started according to the positional relationship between the subject HF and the end region EDG. It can be understood that the operation is switched.
- FIG. 18 is a flowchart showing a specific processing procedure for realizing the automatic imaging control method according to the fifth embodiment.
- the control unit 27 shown in FIG. 6 executes the processing procedure to be performed in order to realize the automatic imaging control method as the fifth embodiment according to a program stored in the ROM 28, for example. This is shown as the procedure of the process.
- step S501 it waits until an instruction to switch to the self-timer mode is given by the process of step S501.
- the switching instruction to the self-timer mode is made when the user performs an operation input using the GUI displayed on the display unit 33.
- step S502 the number information input acceptance process is executed. Specifically, the display unit 33 displays a number information input screen for inputting the number information, and allows the user to input the number information.
- the processing in step S502 ends in response to an operation for confirming the input number information.
- the subject detection information is acquired in step S503 and then set in the frame in step S504. Determine whether there are people. That is, it is determined whether or not the number of subjects HF input (set) by the input receiving process in step S502 has been detected in a region inside the end region EDG.
- step S504 If it is determined in step S504 that there is no set number of people in the frame and a negative result is obtained, the process returns to step S503. That is, by this, the information acquisition process in step S503 ⁇ the determination process in step S504 is repeated until the set number of people is detected in the frame.
- step S504 if a positive result is obtained in step S504 that there is a set number of people within the frame, the process proceeds to step S505 to start time counting, and then waits until a predetermined time elapses in step S506. That is, the process waits until the time count value started in step S505 reaches a predetermined value.
- step S507 If the predetermined time has elapsed, release processing is executed in step S507. After executing the release process in this way, the time count is reset in step S508. With the execution of the process in step S508, the series of processes shown in FIG.
- the self-timer as a condition for starting the self-timer, only the condition that the set number of subjects HF are detected in the inner area than the end area EDG is imposed. Can also be added. For example, at the time of accepting a set number of persons, a specific face designation is also accepted, and a set number of subjects HF are detected in an area inside the end area EDG, and the above designation is made among the detected subjects HF.
- the self-timer can be activated only when the condition that the specified face is included is satisfied. For example, when imaging is performed in an environment where many people gather, such as famous tourist spots, an unintended subject HF other than the operator is displayed immediately after the operator gives an instruction to switch to the self-timer mode.
- the condition imposed together with the condition of the set number of people can include a condition related to the size (face size) of the subject HF.
- the condition that the face sizes of all the subjects HF of the set number of people are the same size may be imposed.
- the subject HF to be imaged is arranged at a position that is substantially equidistant from the digital still camera 1, while the unintended subject HF is thus equidistant.
- a display representing the end region EDG is performed on the display unit 33. It can also be.
- the case where the subject HF is tracked only in the pan direction (horizontal direction: left-right direction) is exemplified, but of course, tracking in the tilt direction (vertical direction: vertical direction) is performed.
- the detection of the frame-out direction specifies which side of the end region EDG the lost subject HF has reached before the lost (in this case, on the upper side / lower side). It is done by specifying whether it has been reached).
- the end area EDG is set so as to cover each of the four sides of the image frame G.
- the end area EDG is set as the frame out direction of the subject HF. If only the pan direction (horizontal direction) is assumed and tracking of the subject HF is performed only in the pan direction, the end region EDG may be set only at least on the right side and the left side of the image frame G. Alternatively, when only the tracking in the tilt direction is performed, the end region EDG may be set only at least on the upper side and the lower side of the image frame G. Alternatively, tracking in only one specific direction may be performed, and in that case, the end region EDG may be set at least for one specific side of the image frame G.
- the tracking of the subject HF is performed by panning (or tilting), but the tracking of the subject HF is originally performed within the image frame G.
- tracking of the subject HF may be performed by zooming. That is, the subject HF is again detected in the image frame G by performing zoom-out according to the presence of the subject HF that has been lost after reaching the end region EDG. For confirmation, when performing such tracking by zooming out, it is not necessary to determine the frame-out direction.
- the tracking of the subject HF out of the frame is more reliably performed by combining the tracking by such zoom-out and the tracking by pan / tilt driving as described in the first to third embodiments. It can also be aimed at.
- the condition whether or not the subject HF is tracked includes the condition that the subject HF is lost, but the subject HF is not included in the condition.
- the subject HF can be tracked in response to the subject HF reaching the end region EDG. In other words, this can be regarded as a technique for preventing frame-out in advance. For confirmation, even when such a method is employed, the tracking / non-tracking of the subject is switched according to the positional relationship between the subject HF and the end region EDG.
- the processing procedures shown in the flowcharts as the flowcharts are executed by the control unit 27 of the digital still camera 1 according to the program.
- at least one of the processing procedures shown in each drawing as a flowchart may be executed in the signal processing unit 24 or the control unit 51 on the camera platform 10 side.
- the imaging control device of the present invention does not necessarily need to be configured so that the digital still camera 1 and the pan / tilt head 10 are detachable (that is, a state that can also be a separate device) as exemplified in the embodiment.
- the digital still camera 1 and the pan head 10 may be integrated.
- the digital still camera 1 and the camera platform 10 are configured to be detachable as in the embodiment, the digital still camera 1 can be normally used as a camera.
- the image that is automatically captured and recorded is a still image, but can be a moving image generated from an image obtained by imaging.
- At least a part of the configuration based on the present invention can be realized by causing a CPU or DSP to execute a program.
- a program is written and stored in a ROM or the like at the time of manufacture, for example, and is stored in a removable storage medium and then installed (including update) from this storage medium. It is conceivable to store the data in a corresponding non-volatile storage area, the flash memory 30, or the like. It is also conceivable that a program can be installed through a data interface such as USB (Universal Serial Bus) or IEEE1394 under the control of another host device.
- the digital still camera 1 can be provided with a network function after being stored in a storage device in a server or the like on a network, and can be configured to be downloaded and acquired from the server.
- 1 digital still camera 2 body part, 21a lens part, 31a release button, 10 head, 11 body part, 12 camera base part, 13 projection part, 14 connector, 21 optical system, 22 image sensor, 23 A / D converter , 24 signal processing unit, 25 encoding / decoding unit, 26 media controller, 27 control unit, 28 ROM, 29 RAM, 30 flash memory, 31 operation unit, 32 display driver, 33 display unit, 34 pan head compatible communication unit, 40 Memory card, 51 control unit, 52 communication unit, 53 pan mechanism unit, 54 pan motor, 55 pan drive unit, 56 tilt mechanism unit, 57 tilt motor, 58 tilt drive unit, EDG end area
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Studio Devices (AREA)
- Details Of Cameras Including Film Mechanisms (AREA)
- Accessories Of Cameras (AREA)
- Image Analysis (AREA)
Abstract
Description
さらには、撮像部を備える撮像装置と上記撮像部による視野を変化させる可動機構装置とを備えて構成される制御システムに関する。
すなわち、撮像部による撮像画像から被写体を検出する被写体検出部を備える。
また、上記撮像部による撮像画像の画枠における少なくとも一辺に設定された端領域と、上記被写体検出部により上記撮像画像内に検出された被写体との位置関係に応じて、撮像動作に関する制御を行う制御部を備えるようにした。
<1.撮像システムの構成>
[1-1.システム全体構成]
[1-2.デジタルスチルカメラ]
[1-3.雲台]
[1-4.自動構図合わせによる自動撮像動作について]
<2.第1の実施の形態としての自動撮像制御>
[2-1.検出被写体が単数である場合の振る舞い]
[2-2.処理手順]
<3.第2の実施の形態としての自動撮像制御>
[3-1.検出被写体が複数ある場合の振る舞い]
[3-2.処理手順]
<4.第3の実施の形態としての自動撮像制御>
[4-1.優先顔が設定される場合の振る舞い]
[4-2.処理手順]
<5.第4の実施の形態としての自動撮像制御>
[5-1.端領域を利用したズーム制限]
[5-2.処理手順]
<6.第5の実施の形態としての自動撮像制御>
[6-1.端領域を利用したセルフタイマー起動制御]
[6-2.処理手順]
<7.変形例>
「画枠」は、例えば画像が嵌め込まれるようにしてみえる一画面相当の領域範囲をいい、一般には縦長若しくは横長の長方形としての枠形状を有する。
「画角」は、ズーム角などともいわれるもので、撮像光学系におけるズームレンズの位置によって決まる画枠に収まる範囲を角度により表したものである。厳密には、撮像光学系の焦点距離と、像面(イメージセンサ、フィルム)のサイズによって決まるものとされるが、ここでは像面サイズは固定であり、焦点距離に対応して変化する要素を画角と呼ぶ。以降において、画角の値については、焦点距離(例えば35mm換算)により表す場合がある。
「撮像視野」は、撮像光学系による視野を表し、上記の画枠によって切り取られる範囲に相当するものである。
「撮像視野選択角」は、撮像装置の周囲の風景からどの部分を切り取るかを決定付ける要素を角度で表したものであり、ここでは、上記の画角に加え、パン(水平)方向における振り角度と、チルト(垂直)方向における振り角度(仰角、俯角)とにより決まるものをいう。
「構図」は、フレーミングともいわれるもので、上記の撮像視野選択角の設定、すなわちこの場合はパン・チルト角度と画角(ズーム)との設定により決まるものをいう。
[1-1.システム全体構成]
実施の形態の撮像システムは、デジタルスチルカメラ1と、このデジタルスチルカメラ1が載置される雲台10とを備えて成る。
先ず、図1にデジタルスチルカメラ1の外観例を示す。図1の(a)、図1の(b)は、それぞれデジタルスチルカメラ1の正面図、背面図である。
この図に示されるデジタルスチルカメラ1は、先ず、図1の(a)に示すように、本体部2の前面側においてレンズ部21aを備える。このレンズ部21aは、撮像のための光学系として本体部2の外側に表出している部位である。
この表示画面部33aには、撮像モード時においては、スルー画などといわれ、そのときにレンズ部21aにより撮像している画像が表示される。また、再生モード時においては、記録媒体に記録されている画像データが再生表示される。さらに、ユーザがデジタルスチルカメラ1に対して行った操作に応じて、GUI(Graphical User Interface)としての操作画像が表示される。
この場合のカメラ台座部12の上面部には、図2に示すようにして、突起部13とコネクタ14が設けられている。
その図示は省略するが、デジタルスチルカメラ1の本体部2の下面部には、突起部13と係合する孔部が形成されている。デジタルスチルカメラ1がカメラ台座部12に対して適正に置かれた状態では、この孔部と突起部13とが係合した状態となる。この状態であれば、通常の雲台10のパンニング・チルティングの動作であれば、デジタルスチルカメラ1が雲台10からずれたり、外れてしまったりすることがないようにされている。
また、デジタルスチルカメラ1とカメラ台座部12との通信は無線により行われるようにしてもよい。
まず、パン方向の基本的な動きは次のようになる。
この雲台10を床面などに置いた状態では、接地台部15の底面が接地する。この状態において、図4に示すように、回転軸11aを回転中心として、本体部11は時計回り方向、及び反時計回り方向に回転できるようになっている。つまりこれにより、雲台10に載置されているデジタルスチルカメラ1の水平方向(左右方向)における撮像視野選択角を変化させることができる(所謂パンニング)。
なお、この場合の雲台10のパン機構は、時計回り方向及び反時計回り方向の何れについても、360°以上の回転が無制限で自在に行える構造を有している。
チルト方向の動きは、図5の(a)(b)に示すようにして、カメラ台座部12が回転軸12aを回転中心として、仰角、俯角の両方向に角度を振ることにより得られる。
ここで、図5の(a)は、カメラ台座部12がチルト基準位置Y0(0°)にある状態が示されている。この状態では、レンズ部21a(光学系部)の撮像光軸と一致する撮像方向F1と、接地台部15が接地する接地面部GRとが平行となる。
そのうえで、図5の(b)に示すように、先ず、仰角方向においては、カメラ台座部12は、回転軸12aを回転中心として、チルト基準位置Y0(0°)から所定の最大回転角度+f°の範囲で動くことができる。また、俯角方向においても、回転軸12aを回転中心として、チルト基準位置Y0(0°)から所定の最大回転角度-g°の範囲で動くことができるようになっている。このようにして、カメラ台座部12がチルト基準位置Y0(0°)を基点として、最大回転角度+f°~最大回転角度-g°の範囲で動くことで、雲台10(カメラ台座部12)に載置されたデジタルスチルカメラ1のチルト方向(上下方向)における撮像視野選択角を変化させることができる。つまりチルティングの動作が得られる。
図6は、デジタルスチルカメラ1の実際的な内部構成例を示したブロック図である。
この図6において、先ず、光学系部21は、例えばズームレンズ、フォーカスレンズなども含む所定枚数の撮像用のレンズ群、絞りなどを備えて成り、入射された光を撮像光としてイメージセンサ22の受光面に結像させる。
また、光学系部21においては、上記のズームレンズ、フォーカスレンズ、絞りなどを駆動させるための駆動機構部も備えられる。これらの駆動機構部は、例えば制御部27が実行するとされるズーム(画角)制御、自動焦点調整制御、自動露出制御などのいわゆるカメラ制御によりその動作が制御される。
なお、イメージセンサ22として採用される光電変換素子(撮像素子)としては、特に限定されるものではないが、現状であれば、例えばCMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)などを挙げることができる。また、CMOSセンサを採用する場合には、イメージセンサ22に相当するデバイス(部品)として、次に述べるA/Dコンバータ23に相当するアナログ-デジタル変換器も含めた構造とすることができる。
エンコード/デコード部25は、信号処理部24から出力されてくる静止画単位の撮像画像データについて、所定の静止画像圧縮符号化方式により圧縮符号化を実行したうえで、例えば制御部27の制御に応じてヘッダなどを付加して、所定形式に圧縮された画像データの形式に変換する。そして、このようにして生成した画像データをメディアコントローラ26に転送する。メディアコントローラ26は、制御部27の制御に従って、メモリカード40に対して、転送されてくる画像データを書き込んで記録させる。この場合のメモリカード40は、例えば所定規格に従ったカード形式の外形形状を有し、内部には、フラッシュメモリなどの不揮発性の半導体記憶素子を備えた構成を採る記録媒体である。なお、画像データを記録する記録媒体については、上記メモリカード以外の種別、形式などとされてもよい。
このためには、制御部27が画像データを指定して、メディアコントローラ26に対してメモリカード40からのデータ読み出しを命令する。この命令に応答して、メディアコントローラ26は、指定された画像データが記録されているメモリカード40上のアドレスにアクセスしてデータ読み出しを実行し、読み出したデータを、エンコード/デコード部25に対して転送する。
図7のブロック図は、雲台10の内部構成例を示している。
先に述べたように、雲台10は、パン・チルト機構を備えるものであり、これに対応する部位として、パン機構部53、パン用モータ54、チルト機構部56、チルト用モータ57を備える。
パン機構部53は、雲台10に取り付けられたデジタルスチルカメラ1について、図4に示したパン(横・左右)方向の動きを与えるための機構を有して構成され、この機構の動きは、パン用モータ54が正逆方向に回転することによって得られる。同様にして、チルト機構部56は、雲台10に取り付けられたデジタルスチルカメラ1について、図5に示したチルト(縦・上下)方向の動きを与えるための機構を有して構成され、この機構の動きは、チルト用モータ57が正逆方向に回転することによって得られる。
このモータ駆動信号により、パン用モータ54が例えば所要の回転方向、回転速度により回転し、この結果、パン機構部53も、これに対応した移動方向と移動速度により動くようにして駆動される。
同様にして、チルト機構部56の動きを制御するときには、制御部51は、チルト機構部56に必要な移動方向、移動速度を指示する信号をチルト用駆動部58に対して出力する。チルト用駆動部58は、入力される信号に対応したモータ駆動信号を生成してチルト用モータ57に出力する。このモータ駆動信号によりチルト用モータ57が、例えば所要の回転方向及び回転速度で回転し、この結果、チルト機構部56も、これに対応した移動方向,速度により動くようにして駆動される。
ここで、本実施の形態の撮像システムは、先に述べた被写体探索、最適構図判定、構図合わせの各動作により、上記被写体探索に伴い検出された被写体の態様に応じて判定した最適とされる構図を目標構図とした自動構図合わせ動作を行うものとされる。
以下、このような自動構図合わせ動作を伴う本実施の形態としての自動撮像動作についての具体例について説明しておく。
信号処理部24は、被写体検出処理として、以下のような処理を実行する。
すなわち信号処理部24は、先に説明したようにして取得した1枚の静止画に相当する画像信号データから、人物の顔に相当する画像部分を検出する。具体的に、本例の場合における被写体検出処理では、いわゆる顔検出技術を利用して、画像内から検出した被写体ごとにその顔の画像部分の領域に対応して顔枠を設定する。その上で、当該顔枠の数、サイズ、位置など情報から、画枠内における被写体数、各被写体のサイズやそれぞれの画枠内での位置の情報を得る。
なお、顔検出の手法についてはいくつか知られているが、本実施の形態において、どのような検出手法を採用するのかについては特に限定されるべきものではなく、検出精度や設計難易度などを考慮して適宜適切とされる方式が採用されるようにすればよい。
また、信号処理部24は、上記のような被写体検出処理を、1枚の静止画に相当する画像信号データごと(つまり1フレームごと)など、予め定められた所定のフレーム数ごとに実行するようにされている。
具体的に、この被写体探索としては、デジタルスチルカメラ1における制御部27が、雲台10に対するパン・チルト制御や光学系部21に対するズーム制御を行うことによって、撮像視野選択角を変化させながら、信号処理部24による被写体検出を実行させること行う。このような被写体探索処理は、信号処理部24による被写体検出処理により画枠内に被写体が検出された状態が得られたことに応じて終了する。
すなわち、最適構図を目標構図としたパン・チルト・ズーム制御を行う。
具体的に制御部27は、当該構図合わせ制御として、上記最適構図判定処理により求まったパン・チルトの各撮像視野選択角の情報を雲台10側の制御部51に指示する。
これに応じて上記制御部51は、指示されたパン・チルトの各撮像視野選択角が得られる撮像方向にデジタルスチルカメラ1を向かせるための、パン機構部53・チルト機構部56についての移動量を求め、この求めた移動量のパン駆動、チルト駆動が行われるように、パン用モータ54に対するパン制御信号の供給、チルト用モータ57に対するチルト制御信号の供給を行う。
また、制御部27は、上記最適構図判定処理により求まったズームについての撮像視野選択角の情報(つまり画角の情報)を、光学系部21に指示することで、該指示した画角が得られるように光学系部21によるズーム動作を実行させる。
[2-1.検出被写体が単数である場合の振る舞い]
ここで、上記のような自動構図合わせによる自動撮像動作を行う撮像システムとして、本例の場合のようにメカ機構を駆動して構図合わせを行うシステムでは、構図合わせ制御が開始されてから目標構図が得られるまでの間に、相応のタイムラグが生じる。そしてこの点から、構図合わせ制御が開始されてから目標構図が得られるまでの間おいては、最適構図判定時に画枠内に検出された被写体が画枠外へと移動したり、或いは移動しなくとも被写体の向きが変わるなどして顔検出ができなくなるなどして、画枠内から検出被写体がロスト(消失)してしまうことがある。
実際、本出願人は、現在開発中である撮像システムについて、これまでは被写体探索からやり直す手法を採用するものとしていた。
具体的に、上記のように画枠外への移動(つまりフレームアウト)により被写体がロストしたことに応じて再探索を実行した場合を考えてみると、被写体探索処理としては、単に予め定められた方向・順序でパン・チルト角を振って被写体を探索するようにされているので、例えば実際に被写体が移動した方向と探索時にパン・チルト角を振る方向とが一致しないというケースが生じ得る。つまり、被写体がフレームアウトした方向とは異なる方向に再探索がかけられてしまうという状況に陥る可能性がある。
或いは、画枠内において被写体がロストしたケースとしては、実際には、単に被写体が俯いたり後方に振り返ったりしたのみで、その後程なくして正面に向き返る場合が多々ある。つまり、このことを踏まえると、上記の従来手法を採用する場合には、このように被写体が正面に向き返るケースが多々あるにもかかわらず、被写体がロストしたことを以て直ちに再探索が行われてしまうものとなり、結果、本来は最適構図で撮像記録ができたケース(つまりシャッタチャンス)であったにも関わらず、その機を逃してしまうことになる。
先ずは、第1の実施の形態では、検出された被写体数が単数であった場合の振る舞いについて説明する。
本例の場合、当該端領域EDGは、画枠Gの四辺全ての端部領域を含むように設定するものとしている。具体的に、この場合の端領域EDGは、画枠Gの横方向の両端部に位置する領域の幅がそれぞれx/10に設定され、画枠Gの縦方向における両端部に位置する領域の幅がそれぞれy/10に設定される。
ここで、図からも明らかなように、上記xは、撮像画像の横方向(水平方向)の有効画素数であり、上記yは撮像画像の縦方向(垂直方向)の有効画素数を表すものである。
先ず図9の(a)は、構図合わせ中に被写体が端領域EDGに達した後にロストした場合の振る舞いを示している。
なお以下の説明において、画枠G内にて検出された被写体については、被写体HFと表記する。
ここで本例では、上記「一定期間」として、例えば3秒間の追尾を行うものとしている。
被写体HFがロストした際、当該被写体HFがその消失前に端領域EDGに達していなかったのであれば、その被写体HFは端領域EDGよりも内側の領域内でロスト(以下、枠内ロストとも称する)したものと見なすことができる。このような枠内ロストが生じた場合としては、被写体HF(顔)の向きが変わったなどの原因で被写体HFが検出できなくなった場合であると見なすことができるので、これに対応しては、一定期間待機する。つまり、このように被写体HFの向きが変わったなどの原因で被写体HFが検出できなくなった場合には、程なくして被写体HFが正面に向き返ることを期待して、一定期間の待機を行うものである。
本例の場合、このような待機についても、その期間としては3秒を設定している。
一方、上記判別により、被写体HFが再検出されなかったとした場合は、被写体探索が実行されるように制御を行う。つまり、この場合は対象とする被写体HFを見失ったとして、被写体探索からやり直すものである。
具体的に、被写体HFがフレームアウトによりロストした場合には、フレームアウト方向への追尾を行うことで、被写体探索からやり直すことなくターゲットとする被写体HFがより迅速に再検出されるように図ることができる。
また、被写体HFが枠内ロストした場合に対応しては、一定期間の待機により、被写体探索からやり直すことなくターゲットとする被写体HFがより迅速に再検出されるように図ることができる。
しかしながら、構図合わせ中においては、パン・チルト・ズームなどの撮像視野選択角の調整が行われていることから、被写体検出情報から得られる被写体HFの位置の変化は、被写体HF自体の移動に伴うものであるのか、パン・チルト・ズームの調整に伴うものであるかの区別が非常に困難となり、結果、被写体HFの移動方向の判定を誤る可能性が高い。
或いは、被写体HFの移動方向の判定精度を上げるために、構図合わせのためのパン・チルト・ズームの動きに伴う被写体HFの位置変化分をキャンセルする演算処理を付加した移動方向推定処理とすることも考えられるが、その場合には、処理負担の増大化を招く結果となる。
図10のフローチャートは、上記により説明した第1の実施の形態としての自動撮像制御手法を実現するために行われるべき具体的な処理の手順を示している。
なお、図10においては、第1の実施の形態としての自動撮像制御手法を実現するために行われるべき処理の手順を、図6に示した制御部27が例えばROM28に格納されるプログラムに従って実行する処理の手順として示している。
ステップS102において、被写体が検出されなかったとして否定結果が得られた場合は、ステップS101に戻り、再度、被写体探索処理を実行する。
ステップS108において、被写体HFがロストしていないとして否定結果が得られた場合は、ステップS109に進み、被写体HFは端領域EDGにかかっているか否かを判別する。すなわち、上記ステップS107にて取得した被写体検出情報によって特定される被写体HFの画枠G内の位置が、予め定められた端領域EDGに達しているか否かを判別する。
その上で、次のステップS111において、方向判定処理を実行する。すなわち、後述するステップS123による追従処理が行われる際に必要となる被写体HFのフレームアウト方向を表す情報を得るべく、被写体HFが端領域EDGの少なくとも右辺、左辺の何れの領域に達したかについての判定を行った結果から、右又は左の方向情報を得るものである。
当該ステップS111の処理を実行した後は、ステップS113に処理を進める。
ここで、本例の自動撮像動作においては、構図がOKとなったことに応じて直ちにレリーズを行うものとはせず、被写体HFが予め定められた特定の状態(例えば笑顔など)となることを最終条件として、レリーズを行うものとしている。
そして、続くステップS116においては、レリーズタイミング判定処理として、検出被写体の状態が予め定められた特定の状態と一致するものとなっているかを判定するための処理を実行する。例えば上記のように笑顔を最終条件とする場合、当該ステップS116の処理は、ステップS107にて取得した被写体検出情報から特定される被写体HFの状態が、笑顔としての状態と一致するものであるかを判定する処理となる。
このようにしてステップS116→S117→S118→S119のループ処理が形成され、該ループ処理により、レリーズタイミングがOKとなる状態、又はタイムUPの何れかの到来を待機するようにされている。
構図合わせ中において被写体HFがロストした場合には、以下で説明する処理が実行される。
ステップS122においては、ロストした被写体HFが、端領域EDGに達した後にロストしたものであるか否かを判別する。つまり、flag=1であるか否かを判別するものである。
[3-1.検出被写体が複数ある場合の振る舞い]
ここで、第1の実施の形態では、画枠G内にて検出された被写体HFが単数であることを前提とした説明を行った。
第2の実施の形態では、画枠G内にて検出された被写体HFが複数である場合に対応して行われるべき動作について説明する。
なお、第2の実施の形態を始めとして以降で説明する各実施の形態において、撮像システム(デジタルスチルカメラ1・雲台10)の構成については先の図1~7にて説明したものと同様となることから、改めての図示による説明は省略する。
図11の(a)は、画枠G内にて検出された2つ(2人)の被写体HF1,HF2のうち、一方の被写体HF2がフレームアウトしてロストした場合の振る舞いを示している。
この図からも明らかなように、一方の被写体HFがフレームアウトしてロストした場合は、当該フレームアウトした被写体HFを追尾するということは行わず(つまり無視し)、画枠G内に検出される被写体HFを対象とした構図合わせを行うようにする。すなわち、ロスト被写体があることから最適構図判定はやり直すものの、フレームアウトした被写体HFを追尾しての最適構図判定までは行わないというものである。
図示するようにこの場合は、枠内ロストした被写体HF1が程なくして正面に向き返ることを期待して、一定期間待機する。
そして、図示は省略したが、このように一定期間待機した後は、この場合も被写体検出を行って、画枠G内に被写体HFが再検出されたことを確認した上で、最適構図判定、及び構図合わせを行うことになる。
なおこの場合も、一定期間待機後の被写体検出により被写体HFを再検出できなかった場合には、被写体探索からやり直すことになる。
図示は省略したが、このように画枠G内の被写体HFが全てフレームアウトしてロストした場合には、被写体探索からやり直すようにする。
すなわち、
・ロストした被写体HFの全てがフレームアウトによるものであり且つ画枠G内に非ロストの被写体HFがある場合(換言すれば、ロストした被写体HFのうちに枠内ロストしたものがなく且つ全員ロストでない場合)は、画枠G内の検出被写体を対象とした最適構図判定・構図合わせを行う。
・ロストした被写体HFのうちに枠内ロストした被写体HFがある場合は、一定期間待機する。一定期間待機後には、画枠G内に被写体HFが再検出されたか否かを判別し、被写体HFが再検出された場合は最適構図判定・構図合わせを行い、被写体HFが再検出されなかった場合は被写体探索からやり直す。
・被写体HF全てがフレームアウトによりロストした場合には、被写体探索からやり直す。
図12のフローチャートは、上記により説明した第2の実施の形態としての自動撮像制御手法を実現するために行われるべき具体的な処理の手順を示している。
なお、図12においても、第2の実施の形態としての自動撮像制御手法を実現するために行われるべき処理の手順を、図6に示した制御部27が例えばROM28に格納されるプログラムに従って実行する処理の手順として示している。
また、以降の説明において、既に説明済みとなったものと同内容となる処理については同一ステップ番号を付して説明を省略する。
このステップS201において、上記画構造判定の結果、画枠G内に検出された被写体HFが複数ではない(つまり単数である)として否定結果が得られた場合は、単数時の処理へと移行する。すなわち、先の図10に示したステップS104~S126の範囲の処理を実行するものである。
このようにすることで、検出被写体が単数である場合には、先の第1の実施の形態で説明した単数時に対応した処理を行うことができる。
これにより、当初は単数であった被写体HFが一定期間の追尾又は一定期間の待機後に複数に増えるといったケースに対応して、以下で説明する複数時の処理が実行されるように適正な切り換えを行うことができる。
先ず、上記ステップS104による最適構図判定、及びこれに続くステップS105の構図合わせ指示に関しては、図10にて説明したものと同様となる。
そして、このように被写体HFごとのflag=0とした後は、ステップS107にて被写体検出情報の取得を行い、その後、ステップS203において、ロストした被写体HFがあるか否かについて判別を行う。
ステップS204において、端領域EDGにかかる(達した)被写体HFがあるとして肯定結果が得られた場合は、ステップS205に進み、該当する被写体のflag=1とする処理を実行する。すなわち、端領域EDGに達した被写体HFのflagを1に更新するものである。
当該ステップS205のflag更新処理の実行後は、ステップS113に処理を進める。
また、上記ステップS113において構図合わせが完了したとして肯定結果が得られた場合は、ステップS114以降の処理(S114~S121の範囲)を実行する。これにより、この場合も構図合わせの完了後には、構図がOKであった場合の最終的なレリーズタイミングの判定処理、及びレリーズタイミングOKとなったことに応じたレリーズ処理、レリーズタイミングがOKとならずタイムUPした場合の被写体探索、或いは構図がOKではなかった場合の構図合わせ指示、が行われる。
先ず、ステップS207では、ロストした全ての被写体HFのflag=1であるか否かを判別する。すなわち、ロストした被写体HFが全てフレームアウトによるものであるか否かを判別するものである。
確認のため述べておくと、このステップS208において、全員ロストではないとして否定結果が得られた場合としては、ロストした被写体HFの全てがフレームアウトによるものであり且つ画枠G内に非ロストの被写体HFがあるということになる(図11の(a)のケースが該当)。
一方、ステップS208において全員ロストであるとして肯定結果が得られた場合は、画枠G内に検出されていた全ての被写体HFがフレームアウトによりロストしたということになる。
このため、上記ステップS207において否定結果が得られた場合には、ステップS209に進み、一定期間待機する。
[4-1.優先顔が設定される場合の振る舞い]
ここで、近年のデジタルスチルカメラでは、顔認識技術を応用して、いわゆる「優先顔」の設定を行うものがある。具体的には、例えば予め登録された特定の顔(被写体)に関して、優先的にその被写体に合ったフォーカスや露出などの撮像パラメータの自動調整が行われるようにするといったものである。
本例における自動構図合わせによる自動撮像動作に関しても、このような優先顔の概念を取り入れて、例えば優先顔として設定された被写体の撮像画像がより多く記録されるようにするといった制御手法を採ることができる。
第3の実施の形態は、このように優先顔としての被写体の撮像画像がより多く記録されるようにする優先顔モードが設定された場合に好適な自動撮像制御手法を提案するものである。
優先顔としての被写体を予め登録する手法に関しては、例えば過去に撮像記録した画像に映し出される被写体のうちからタッチパネル操作などで優先顔として登録する被写体を指定させる手法や、優先顔として登録したい被写体を使用者に撮像させ、該撮像された被写体を優先顔として登録する手法などを挙げることができる。
また、子供などの特定の特徴を有する被写体を優先顔として自動設定する手法としては、例えば画構造判定処理において、画枠G内に例えば子供の顔など予め定められた特定の特徴を有するとされる被写体が存在するか否かを確認する処理を行い、その結果該当する被写体があった場合に当該被写体を優先顔として自動設定するといった手法を挙げることができる。
このことに対応して、本実施の形態の場合における制御部27は、「予め登録された被写体」に関して上述した2つの手法のうちの、少なくとも何れかの手法により使用者に予め優先顔としての被写体を登録させるための制御・処理を実行する。
図13は、優先顔が設定される場合に対応した第3の実施の形態としての自動撮像制御手法の具体例を模式化して示している。
なおこの図13においても、説明の簡単のため、画枠G内における検出被写体数が2つである場合を例示している。ここでは検出された2つの被写体HFのうち、一方の被写体HFが優先顔としての被写体(以下、優先被写体HFpと称する)である場合を例示している。なお、図中に示されるように、優先被写体HFpではない方の被写体HFについては被写体HF1と表記する。
すなわち、先の第2の実施の形態では、検出被写体が複数ある場合において、フレームアウトした被写体HFに関してはその追尾を行わないようにしていたが、第3の実施の形態では、フレームアウトした被写体HFが優先被写体HFpであった場合には、当該優先被写体HFpについての撮像記録が優先的に行われるようにするため、これを一定期間の追尾するものとしている。
或いは、優先被写体HFpが画枠G内にあるときには、他にフレームアウトした被写体HFがあったとしても、これら他の被写体HFを追尾するようなことがないようにする。
ここで、このように優先被写体HFpが画枠G内にて検出されており且つ他に枠内ロストの被写体HFがある場合において、あくまで優先被写体HFpの撮像記録のみを優先するのであれば、上記のように画枠G内に優先被写体HFpが検出されていることを以て、枠内ロストした被写体HFがある場合に対応した一定期間待機は行わないようにすることが考えられる。つまりその分、迅速に優先被写体HFpについての撮像記録が行われるように図るといった手法である。
但し本例では、上記のように画枠G内に優先被写体HFpが検出されてはいるが他に枠内ロストした被写体HFがあるというケースに対応しては、一定期間待機する手法を採るものとしている。
なお、上記の何れの手法を採用するかは実際の実施形態などに応じて適宜選択すればよい。
このように優先被写体HFpが枠内ロストした場合に対応しては、一定期間の待機を行う。
この場合の対応は、先の第2の実施の形態で説明したものと同様となる。
具体的に、このように優先被写体HFpが検出されていなかった場合においては、
・ロストした被写体HFが全てフレームアウトによるものであり且つ画枠G内に非ロストの被写体HFがある場合は、画枠G内における被写体HFを対象とした最適構図判定・構図合わせが行われるようにする。
・被写体HF全てがフレームアウトによりロストした場合には、被写体探索からやり直す。
・ロストした被写体HFのうちに枠内ロストの被写体HFがある場合には、一定期間待機した後、画枠G内に被写体が再検出されたか否かを判別し、被写体が再検出された場合は最適構図判定・構図合わせを行い、被写体が再検出されなかった場合は被写体探索からやり直す。
・ロストした被写体HFのうちフレームアウトした被写体HFがあり且つ当該フレームアウトした被写体HFのうちに優先被写体HFpがある場合
→ 優先被写体HFpのフレームアウト方向に一定期間追尾後、被写体が再検出されたか否かを判別し、被写体が再検出された場合は当該再検出された被写体を対象とした最適構図判定・構図合わせが行われるようにし、被写体が再検出されなかった場合は被写体探索からやり直す。
・枠内ロストの被写体HFがあり、且つフレームアウトによりロストした被写体HFもあるが当該フレームアウトによりロストした被写体HFのうちに優先被写体HFpが無い場合
→ 一定期間待機した後、被写体が再検出されたか否かを判別し、被写体が再検出された場合は当該再検出された被写体を対象とした最適構図判定・構図合わせが行われるようにし、被写体が再検出されなかった場合は被写体探索からやり直す。
・ロストした被写体HFは全てフレームアウトによるものであり、且つフレームアウトによりロストした被写体HFのうちに優先被写体HFpが無く、且つ画枠G内に非ロストの被写体HFがある場合
→画枠G内の検出被写体を対象とした最適構図判定・構図合わせが行われるようにする。
・ロストした被写体HFは全てフレームアウトによるものであり、且つフレームアウトによりロストした被写体HFのうちに優先被写体HFpが無く、且つ全員ロストである場合
→被写体探索からやり直す。
また同時に、優先被写体HFpが検出されていなかった場合に対応しては、第2の実施の形態と同様の動作が行われるようにすることができる。
図14のフローチャートは、上記により説明した第3の実施の形態としての自動撮像制御手法を実現するために行われるべき具体的な処理の手順を示している。
なお、この図14においても、第3の実施の形態としての自動撮像制御手法を実現するために行われるべき処理の手順を、図6に示した制御部27が例えばROM28に格納されるプログラムに従って実行する処理の手順として示している。
すなわち、先の第2の実施の形態では、検出被写体が複数である場合には「追尾」自体を行うことがなかったので、被写体HFが複数検出された場合における方向判定処理は不要であったが、第3の実施の形態では優先被写体HFpについての追尾を行う場合があるので、上記ステップS301による方向判定処理を実行するものである。
具体的に、当該ステップS301による方向判定処理としては、図のようにステップS205のflag更新処理の実行後で且つステップS113による判別処理の実行前となるタイミングで実行するものとしている。
なお確認のために述べておくと、端領域EDGに達する被写体HFが複数である場合には、上記ステップS301の処理は、端領域EDGに達した被写体HFごとの方向情報を得る処理となる。
ここで、このような方向判定処理は、端領域EDGに達した被写体HFに優先被写体HFpが含まれる場合に、当該優先被写体HFpについてのみ行われるようにすることもできる。
そして当該ステップS303において、flag=1でロストした被写体HFのうち優先顔のものがあるとして肯定結果が得られた場合は、ステップS304に進んで一定期間追従するための処理を実行する。すなわち、flag=1でロストした(フレームアウトによりロストした)優先被写体HFpについて、そのフレームアウト方向と同方向のパン駆動が一定期間行われるようにするものである。
当該ステップS211において肯定結果又は否定結果が得られた場合のそれぞれの振る舞いは、先の図12にて説明した通りである。
ここで確認のための述べておくと、当該ステップS305にてflag=0でロストした被写体HFがあると判別される場合としては、枠内ロストの被写体HFがあり、且つフレームアウトによりロストした被写体HFもあるが、フレームアウトによりロストした被写体HFのうちに優先被写体HFpが無い場合であることになる。
一方で、上記ステップS305にてflag=0でロストした被写体HFがないと判別される場合は、ロストした被写体HFは全てフレームアウトによるもので且つこれらフレームアウトした被写体HFのうちに優先被写体HFpが無い場合であることになる。
つまりこの場合は、枠内ロストの被写体HF又は枠内における非ロストの被写体HFに優先被写体HFpが含まれている可能性があるので、追従や被写体HFの探索に入らず、一定期間の待機を行うものである。
なお仮に、枠内ロスト又は枠内非ロストの被写体HFに優先被写体HFpが含まれていなくとも、この場合は少なくとも枠内ロストの被写体HFがあることは確定しているので、その意味で一定期間の待機を行うことに有効性はある。
また、確認のために述べておくと、この場合も上記ステップS209の待機処理の実行後には、第2の実施の形態の場合と同様にステップS210→S211の処理が実行され、これにより被写体HFが再検出されたか否かの判別と、被写体HFが再検出された場合の最適構図判定・構図合わせ、又は被写体HFが再検出されなかった場合の被写体探索が行われるものとなる。
ここで、当該ステップS208において、全員ロストであるとの判別結果が得られる場合は、全ての被写体HFがフレームアウトによりロストし且つそれらのうちに優先被写体HFpは含まれていなかった場合となる。このため、ステップS208において全員ロストであるとの肯定結果が得られた場合は、ステップS101に戻って被写体探索をやり直すことになる。
[5-1.端領域を利用したズーム制限]
ここで、これまでの説明からも理解されるように、第1~第3の実施の形態は、ロスト前の被写体HFと端領域EDGとの位置関係に応じて、被写体HFの非追尾/追尾の動作切換(待機/追尾の動作切換)を行うものである。
これに対し、以下で説明する第4の実施の形態は、被写体HFと端領域EDGとの位置関係に応じて、ズーム動作の継続/停止の動作切換を行うものものとなる。具体的に、第4の実施の形態は、構図合わせの一要素として行われるズーム動作に関して、被写体HFと端領域EDGとの位置関係に応じてズーム動作の継続/停止の切り換えを行うものである。
ここで、これまでの説明からも理解されるように、本例の自動構図合わせによる自動撮像動作では、構図合わせを行うにあたっての調整項目としてズーム角の調整が含まれる。換言すれば、構図合わせに伴ってはズーム動作(ズームイン動作)が行われる。
第4の実施の形態では、このような構図合わせに伴うズームイン動作中において、画枠G内に検出されていた被写体HFが図示するように端領域EDGに達した(かかった)場合にズーム動作を停止するものである。
図中では、画枠G内に検出されていた被写体HF1と被写体HF2の2つの被写体HFのうち、被写体HF1の方が端領域EDGに達した場合を例示している。このように、画枠G内に複数の被写体HFが検出されていた場合は、そのうちの少なくとも何れか一方が端領域EDGに達したことに応じて、ズーム動作を停止する。
つまり、上記第4の実施の形態の自動撮像制御手法によっても、端領域EDGと被写体HFとの位置関係という従来にはない全く新しい判断基準に基づき自動撮像動作に関する動作切換を行うことによって、従来にはないよりインテリジェントな、使用者にとってより有用となる自動撮像動作を実現できる。
図16は、上記により説明した第4の実施の形態としての自動撮像制御手法を実現するための具体的な処理の手順を示すフローチャートである。
なおこの図16においても、第4の実施の形態としての自動撮像制御手法を実現するために行われるべき処理の手順を、図6に示した制御部27が例えばROM28に格納されるプログラムに従って実行する処理の手順として示している。
このことを前提として、図16においては、既にパン・チルト方向の構図合わせが完了しており、その後にズーム指示が行われる以降の処理の手順を示している。
上記ステップS403において、端領域EDGにかかった被写体HFがいないとして肯定結果が得られた場合は、ステップS404に進み、ズーム動作が完了したか否かを判別する。当該ステップS404において、ズームが完了していないとの否定結果が得られた場合は、図示するようにステップS402に戻ることになる。
また、上記ステップS405において、構図がOKであるとして肯定結果が得られた場合は、先の図10にて説明したステップS115以降の処理(S115~S121の範囲)を実行する。すなわち、この場合も構図がOKとされた場合には、例えば笑顔などの最終的なレリーズタイミングの判定処理、及びレリーズタイミングOKとなったことに応じたレリーズ処理、レリーズタイミングがOKとならずタイムUPした場合の被写体再探索を行うものである。
ズーム停止後の振る舞いを上記の何れとするかは、実際の実施形態などに応じて適宜適切とされる方を選択すればよい。
[6-1.端領域を利用したセルフタイマー起動制御]
続いて、第5の実施の形態について説明する。
第5の実施の形態は、これまでの各実施の形態とは前提とする自動撮像動作の内容が異なる。具体的に第5の実施の形態は、自動撮像動作として、セルフタイマーによる自動撮像動作を前提としたものとなる。
先ず前提として、本例のセルフタイマー自動撮像では、予め自動撮像の対象とする被写体HFの数(人数)を使用者に設定させるものとしている。図17の例においては、このような自動撮像対象人数として「2」が設定されているものとする。
具体的にこの場合は、セルフタイマーモードへの切換指示が行われたことに対応して、端領域EDGよりも内側の領域内において設定人数の被写体HFが検出されるまで待機し、上記端領域EDGよりも内側領域内に設定人数の被写体HFが検出されたことに応じて、セルフタイマーを起動する。そして、このように起動したセルフタイマーによるタイムカウント値が所定値に達したことに応じて、レリーズ処理を行う。
図18は、第5の実施の形態としての自動撮像制御手法を実現するための具体的な処理の手順を示したフローチャートである。
なおこの図18においても、第5の実施の形態としての自動撮像制御手法を実現するために行われるべき処理の手順を、図6に示した制御部27が例えばROM28に格納されるプログラムに従って実行する処理の手順として示している。
このようにレリーズ処理を実行した後は、ステップS508においてタイムカウントをリセットする。当該ステップS508の処理の実行を以て、この図に示す一連の処理は終了となる。
例えば、設定人数の受付時において、併せて特定の顔の指定も受け付けるものとし、設定人数の被写体HFが端領域EDGよりも内側領域で検出され、且つそれら検出された被写体HFのうちに上記指定された特定の顔が含まれるという条件が満たされる場合にのみ、セルフタイマーの起動を行うといったこともできる。
例えば、有名観光地など人が大勢集う環境下での撮像を行うとしたときなどには、操作者がセルフタイマーモードへの切換指示を行った直後に、操作者以外の意図しない被写体HFが画枠G内に入り込んでしまうといった可能性がある。そのような場合において、上述のように端領域EDGよりも内側領域内での設定人数の検出のみに応じてタイマー起動を行ってしまうと、操作者としての被写体HFが写っていない、或いは写っていたとしても枠外にはみ出しているなどの失敗写真が記録されてしまう虞がある。
上述のように顔の条件も課す手法を採るものとすれば、特定の顔(上記の例であれば操作者の顔を設定する)が写っていなければタイマー起動・レリーズが行われないようにできるので、上記の例のような状況下においても適正に意図した撮像画像が記録されるように図ることができる。
例えばセルフタイマーを利用した自動撮像時には、撮像対象とする被写体HFがデジタルスチルカメラ1からほぼ等距離となる位置に並んでいる可能性が高く、一方で意図しない被写体HFはこのように等距離となる位置に並んだ撮影対象の被写体HFの前や後ろを横切るといった可能性が高い。従って上記のように被写体HFの顔サイズが同等であるという条件も課すものとすれば、意図しない被写体HFの検出に応じた意図しないタイミングでの自動タイマー起動を防止でき、結果、この場合としても適正に意図した撮像画像が記録されるように図ることができる。
以上、本発明の各実施の形態について説明したが、本発明としてはこれまでで説明した具体例に限定されるべきものではない。
例えば、端領域EDGの領域幅や、追尾・待機を行う時間長(一定期間)について記載した数値はあくまで一例を挙げたものに過ぎず、それらの数値に限定されるべきものではない。また、追尾・待機を行う時間長は一定でなくても良い。
或いは、チルト方向の追尾のみを行うとした場合には、端領域EDGを少なくとも画枠Gの上辺、下辺のみに設定すればよい。
或いは、特定の1方向のみの追尾を行うものとしてもよく、その場合には、端領域EDGは、画枠Gの特定の1辺に対して少なくとも設定すればよい。
なお確認のために述べておくと、このようなズームアウトによる追尾を行う際には、フレームアウト方向の判定は不要とできる。
またもちろん、このようなズームアウトによる追尾と、第1~第3の実施の形態で説明したようなパン/チルト駆動による追尾とを組み合わせて、フレームアウトした被写体HFの追尾がより確実に行われるように図るといったこともできる。
確認のために述べておくと、このような手法を採る場合においても、被写体HFと端領域EDGとの位置関係に応じて被写体の追尾/非追尾の切り換えを行っていることに変わりはない。
しかしながら、例えばフローチャートとして各図に示した処理手順の少なくとも1つが信号処理部24や雲台10側の制御部51において実行されるようにして構成してもよい。但し、主立った被写体探索、構図判定、及び自動撮像記録のための制御機能を、デジタルスチルカメラ1側に設けることで、多様な機種のデジタルスチルカメラ1と雲台10とを組み合わせることが可能になって、汎用性という点では有利とできる。
このようなプログラムは、例えばROMなどに対して製造時などに書き込んで記憶させるほか、リムーバブルの記憶媒体に記憶させておいたうえで、この記憶媒体からインストール(アップデートも含む)させるようにしてDSP対応の不揮発性の記憶領域やフラッシュメモリ30などに記憶させることが考えられる。また、USB(Universal Serial Bus)やIEEE1394などのデータインターフェース経由により、他のホストとなる機器からの制御によってプログラムのインストールが行えるようにすることも考えられる。さらに、ネットワーク上のサーバなどにおける記憶装置に記憶させておいたうえで、デジタルスチルカメラ1にネットワーク機能を持たせることとし、サーバからダウンロードして取得できるように構成することもできる。
Claims (18)
- 撮像部による撮像画像から被写体を検出する被写体検出部と、
上記撮像部による撮像画像の画枠における少なくとも一辺に設定された端領域と、上記被写体検出部により上記撮像画像内に検出された被写体との位置関係に応じて、撮像動作に関する制御を行う制御部と
を備える制御装置。 - 上記制御部は、
上記撮像部により連続して得られる撮像画像に基づき上記画枠内から消失した被写体があるか否かを判別し、上記画枠内から消失した被写体がある場合は、当該消失した被写体がその消失前に上記端領域に達していたか否かに応じて上記撮像動作に関する制御を行う
請求項1に記載の制御装置。 - 上記撮像部をパン又はチルト方向に駆動し上記撮像部による視野を変化させる撮像視野変化部をさらに備え、
上記制御部は、上記消失した被写体がその消失前に上記端領域に達していた場合は、上記撮像視野変化部を制御して上記撮像部による視野を変化させる
請求項2に記載の制御装置。 - 上記制御部は、
上記消失した被写体がその消失前に上記端領域に達していた場合は、上記消失した被写体が達した端領域の設けられる側に上記撮像部が駆動されるように上記撮像視野変化部を制御する
請求項3に記載の制御装置。 - 上記制御部は、上記消失した被写体がその消失前に上記端領域に達していなかった場合は待機する
請求項3又は請求項4に記載の制御装置。 - 上記制御部は、
上記撮像画像内に検出された被写体が複数である場合に、複数の被写体のうちの消失前の位置が上記端領域に達していた被写体に応じた上記撮像動作に関する制御を行う
請求項2に記載の制御装置。 - 上記制御部は、
上記撮像画像内の検出被写体数が複数であるか否かを判別し、
上記消失前に上記端領域に達していた被写体があり、且つ上記撮像画像内の検出被写体数が複数でなかった場合に、上記消失した被写体が達した端領域の設けられる側に上記撮像部が駆動されるように上記撮像視野変化部を制御する
請求項3に記載の制御装置。 - 上記制御部は、
上記撮像部による視野を変化させながら上記被写体検出部による被写体検出を実行させて被写体を探索する被写体探索、該被写体探索に伴い検出された被写体の態様に応じた最適とされる構図を所定アルゴリズムに従って判定する最適構図判定、該最適構図判定により求まった最適とされる構図を目標構図とした構図合わせ、及び該構図合わせ後の撮像画像の記録媒体への自動記録、が実現されるようにするための制御・処理を行い、
且つ上記構図合わせ動作中において、上記画枠内から消失した被写体があるか否かについて判別する上記消失被写体有無判別処理を実行すると共に、
上記撮像画像内の検出被写体数が複数であった場合で且つ上記消失被写体有無判別処理により消失被写体があると判別した場合において、消失した被写体が全てその消失前に上記端領域に達していた被写体であり且つ上記画枠内に非消失の被写体があるという第1の条件が成立する場合には、上記最適構図判定と上記構図合わせの実行制御とを行う
請求項7に記載の制御装置。 - 上記制御部は、
上記撮像部による視野を変化させながら上記被写体検出部による被写体検出を実行させて被写体を探索する被写体探索、該被写体探索に伴い検出された被写体の態様に応じた最適とされる構図を所定アルゴリズムに従って判定する最適構図判定、該最適構図判定により求まった最適とされる構図を目標構図とした構図合わせ、及び該構図合わせ後の撮像画像の記録媒体への自動記録、が実現されるようにするための制御・処理を行い、
且つ上記構図合わせ動作中において、上記画枠内から消失した被写体があるか否かについて判別する上記消失被写体有無判別処理を実行すると共に、
上記撮像画像内の検出被写体数が複数であった場合で且つ上記消失被写体有無判別処理により消失被写体があると判別した場合において、消失した被写体のうち上記端領域に達することなく消失したものがあるという第2の条件が成立する場合には、待機した上で、上記画枠内に被写体が検出されたか否かを判別し、当該判別の結果上記画枠内に被写体が検出されたとした場合は上記最適構図判定と上記構図合わせの実行制御とを行い、上記判別の結果上記画枠内に被写体が検出されなかったとした場合は上記被写体探索の実行制御を行う
請求項7に記載の制御装置。 - 上記制御部は、
上記撮像部による視野を変化させながら上記被写体検出部による被写体検出を実行させて被写体を探索する被写体探索、該被写体探索に伴い検出された被写体の態様に応じた最適とされる構図を所定アルゴリズムに従って判定する最適構図判定、該最適構図判定により求まった最適とされる構図を目標構図とした構図合わせ、及び該構図合わせ後の撮像画像の記録媒体への自動記録、が実現されるようにするための制御・処理を行い、
且つ上記構図合わせ動作中において、上記画枠内から消失した被写体があるか否かについて判別する上記消失被写体有無判別処理を実行すると共に、
上記撮像画像内の検出被写体数が複数であった場合で且つ上記消失被写体有無判別処理により消失被写体があると判別した場合において、全ての被写体がその消失前に上記端領域に達して消失したという第3の条件が成立する場合には、上記被写体探索の実行制御を行う
請求項7に記載の制御装置。 - 上記制御部は、
上記撮像画像内に検出された被写体に優先被写体に該当するものがあるか否かをさらに判別し、
上記撮像画像内の検出被写体数が複数であった場合において、上記消失前に上記端領域に達していた被写体があり且つそのうちに上記優先被写体に該当するものがあった場合は、当該優先被写体がその消失前に達していた上記端領域の設けられる側に上記撮像部が駆動されるように上記撮像視野変化部を制御する
請求項7に記載の制御装置。 - 上記制御部は、
上記撮像部による視野を変化させながら上記被写体検出部による被写体検出を実行させて被写体を探索する被写体探索、該被写体探索に伴い検出された被写体の態様に応じた最適とされる構図を所定アルゴリズムに従って判定する最適構図判定、該最適構図判定により求まった最適とされる構図を目標構図とした構図合わせ、及び該構図合わせ後の撮像画像の記録媒体への自動記録、が実現されるようにするための制御・処理を行い、
且つ上記構図合わせ動作中において、上記画枠内から消失した被写体があるか否かについて判別する上記消失被写体有無判別処理を実行すると共に、
上記撮像画像内の検出被写体数が複数であった場合で且つ上記消失被写体有無判別処理により消失被写体があると判別した場合において、
上記消失前に上記端領域に達していた被写体があり且つそのうちに上記優先被写体に該当する被写体があるという第4の条件が成立する場合は、当該優先被写体がその消失前に達していた上記端領域の設けられる側に上記撮像部が駆動されるように上記撮像視野変化部を制御し、
消失した被写体のうちに上記端領域に達することなく消失したものがあり且つ消失前に上記端領域に達していた被写体もあるが、当該消失前に上記端領域に達していた被写体のうちに上記優先被写体に該当するものがないという第5の条件が成立する場合は、待機すると共に、
上記第4の条件の成立に伴い上記撮像部の駆動が行われるように制御を行った後、又は上記第5の条件の成立に伴い待機した後の双方において、上記画枠内に被写体が検出されたか否かを判別し、当該判別の結果上記画枠内に被写体が検出されたとした場合は、上記最適構図判定と上記構図合わせの実行制御とを行い、上記画枠内に被写体が検出されなかったとした場合は上記被写体探索の実行制御を行う
請求項11に記載の制御装置。 - 上記撮像部による撮像画像の画角を変化させるズーム部をさらに備え、
上記制御部は、
上記消失した被写体がその消失前に上記端領域に達していたと判別した場合は、ズームアウト動作が行われるように上記ズーム部を制御し、
上記消失した被写体がその消失前に上記端領域に達していなかったと判別した場合は待機する
請求項2に記載の制御装置。 - 上記撮像部による撮像画像の画角を変化させるズーム部をさらに備え、
上記制御部は、
上記ズーム部に対してズームイン指示を行った後において、上記端領域に達した被写体があるか否かを判別し、当該判別により上記端領域に達した被写体があるとした場合は、上記ズーム部に対してズーム停止指示を行う
請求項1に記載の制御装置。 - 上記制御部は、
セルフタイマーモードへの切り換え指示が行われたことに応じて、上記画枠内における上記端領域よりも内側の領域内にて予め定められた所定数の被写体が検出されたか否かを判別し、その結果上記内側の領域内に上記所定数の被写体が検出されたと判別した場合は、当該判別結果が得られたタイミングに応じてセルフタイマーを起動し、当該セルフタイマーの起動後所定時間が経過したことに応じて上記撮像部による撮像画像の記録媒体への自動記録が行われるように制御を行う
請求項1に記載の制御装置。 - 撮像部による撮像画像から被写体を検出する被写体検出ステップと、
上記撮像部による撮像画像の画枠における少なくとも一辺に設定された端領域と、上記被写体検出ステップにより上記撮像画像内に検出された被写体との位置関係に応じて、撮像動作に関する制御を行う制御ステップと
を有する制御方法。 - 撮像部による撮像画像から被写体を検出する被写体検出部を有する制御装置に実行させるプログラムであって、
上記撮像部による撮像画像の画枠における少なくとも一辺に設定された端領域と、上記被写体検出部により上記撮像画像内に検出された被写体との位置関係に応じて、撮像動作に関する制御を行う処理
を上記制御装置に実行させるプログラム。 - 撮像部を備える撮像装置と、上記撮像部による視野を変化させる可動機構装置とを備えた制御システムであって、
上記撮像部による撮像画像から被写体を検出する被写体検出部と、
上記撮像部による撮像画像の画枠における少なくとも一辺に設定された端領域と、上記被写体検出部により上記撮像画像内に検出された被写体との位置関係に応じた上記可動機構装置に対する制御を行う制御部と
を備える制御システム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/383,450 US20120105647A1 (en) | 2009-07-28 | 2010-07-21 | Control device, control method, program, and control system |
RU2012102038/07A RU2012102038A (ru) | 2009-07-28 | 2010-07-21 | Устройство управления, способ управления, программа и система управления |
EP10804290.4A EP2461567A4 (en) | 2009-07-28 | 2010-07-21 | CONTROL DEVICE, CONTROL METHOD, PROGRAM AND CONTROL SYSTEM |
CN2010800431708A CN102668535A (zh) | 2009-07-28 | 2010-07-21 | 控制设备、控制方法、程序和控制系统 |
IN589DEN2012 IN2012DN00589A (ja) | 2009-07-28 | 2012-01-20 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009175041A JP5446546B2 (ja) | 2009-07-28 | 2009-07-28 | 撮像制御装置、撮像制御方法、プログラム、撮像システム |
JP2009-175041 | 2009-07-28 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2011013544A1 true WO2011013544A1 (ja) | 2011-02-03 |
Family
ID=43529203
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2010/062209 WO2011013544A1 (ja) | 2009-07-28 | 2010-07-21 | 制御装置、制御方法、プログラム、制御システム |
Country Status (9)
Country | Link |
---|---|
US (1) | US20120105647A1 (ja) |
EP (1) | EP2461567A4 (ja) |
JP (1) | JP5446546B2 (ja) |
KR (1) | KR20120038451A (ja) |
CN (1) | CN102668535A (ja) |
IN (1) | IN2012DN00589A (ja) |
RU (1) | RU2012102038A (ja) |
TW (1) | TW201121307A (ja) |
WO (1) | WO2011013544A1 (ja) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5206095B2 (ja) | 2008-04-25 | 2013-06-12 | ソニー株式会社 | 構図判定装置、構図判定方法、プログラム |
JP5646582B2 (ja) * | 2012-12-05 | 2014-12-24 | オリンパスイメージング株式会社 | 撮像装置 |
CN104956659B (zh) * | 2013-01-09 | 2018-12-14 | 索尼公司 | 图像处理装置、图像处理方法和程序 |
EP2847983A1 (en) * | 2013-04-09 | 2015-03-18 | Huawei Technologies Co., Ltd. | Mobile electronic device with a rotatable camera |
JP6107354B2 (ja) | 2013-04-15 | 2017-04-05 | オムロン株式会社 | 画像表示装置、画像表示装置の制御方法、画像表示プログラム、および、これを記録したコンピュータ読み取り可能な記録媒体 |
US9253410B2 (en) * | 2013-04-25 | 2016-02-02 | Canon Kabushiki Kaisha | Object detection apparatus, control method therefor, image capturing apparatus, and storage medium |
CN106688228B (zh) | 2014-09-10 | 2019-06-14 | 富士胶片株式会社 | 摄像控制装置、摄像控制方法、相机、及相机系统 |
US9665804B2 (en) * | 2014-11-12 | 2017-05-30 | Qualcomm Incorporated | Systems and methods for tracking an object |
US10042031B2 (en) * | 2015-02-11 | 2018-08-07 | Xerox Corporation | Method and system for detecting that an object of interest has re-entered a field of view of an imaging device |
CN104994292B (zh) * | 2015-06-30 | 2018-07-06 | 广东欧珀移动通信有限公司 | 一种广角摄像头的控制方法及电子终端 |
CN104994284B (zh) * | 2015-06-30 | 2018-11-13 | 广东欧珀移动通信有限公司 | 一种广角摄像头的控制方法及电子终端 |
EP3350499A4 (en) * | 2015-09-16 | 2018-08-01 | SZ DJI Osmo Technology Co., Ltd. | System and method for supporting photography with different effects |
EP3982623A4 (en) * | 2019-06-04 | 2022-07-27 | Sony Group Corporation | IMAGE FORMING DEVICE AND IMAGE FORMING CONTROL METHOD |
WO2021026804A1 (zh) * | 2019-08-14 | 2021-02-18 | 深圳市大疆创新科技有限公司 | 基于云台的目标跟随方法、装置、云台和计算机存储介质 |
EP4097963B1 (en) * | 2020-01-31 | 2024-08-21 | Hover Inc. | Techniques for enhanced image capture |
JP7421534B2 (ja) * | 2021-12-10 | 2024-01-24 | 株式会社モリタ製作所 | クレードルおよび撮像セット |
JP2024071823A (ja) * | 2022-11-15 | 2024-05-27 | キヤノン株式会社 | 情報処理装置、情報処理方法、及びコンピュータプログラム |
CN117528262B (zh) * | 2023-12-29 | 2024-04-05 | 江西赛新医疗科技有限公司 | 一种医疗设备数据传输的控制方法及系统 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0965197A (ja) * | 1995-08-18 | 1997-03-07 | Sony Corp | 自動ズーム制御装置、自動ズーム制御方法、及び撮像装置 |
JPH09186927A (ja) * | 1995-12-28 | 1997-07-15 | Sony Corp | 追尾装置および追尾方法 |
JP2005099164A (ja) | 2003-09-22 | 2005-04-14 | Fuji Photo Film Co Ltd | 自動撮影システム |
JP2007318225A (ja) * | 2006-05-23 | 2007-12-06 | Fujifilm Corp | 撮影装置および撮影方法 |
JP2008078712A (ja) * | 2006-09-19 | 2008-04-03 | Fujifilm Corp | 撮影装置および方法並びにプログラム |
JP2008205838A (ja) | 2007-02-20 | 2008-09-04 | Canon Inc | 撮像装置及びその制御方法 |
JP2009033450A (ja) * | 2007-07-26 | 2009-02-12 | Casio Comput Co Ltd | 撮影装置、被写体追尾ズーミング方法及び被写体追尾ズーミングプログラム |
JP2009077143A (ja) | 2007-09-20 | 2009-04-09 | Fujifilm Corp | 自動撮影装置 |
JP2009100301A (ja) * | 2007-10-17 | 2009-05-07 | Sony Corp | 構図判定装置、構図判定方法、プログラム |
JP2009100448A (ja) | 2007-09-28 | 2009-05-07 | Fujifilm Corp | 撮影装置及び撮影方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100426174B1 (ko) * | 2001-10-29 | 2004-04-06 | 삼성전자주식회사 | 영상압축 알고리즘을 이용한 카메라 제어방법 |
JP2005065265A (ja) * | 2003-07-31 | 2005-03-10 | Omron Corp | フレーム調節装置、撮像装置および印刷装置 |
JP4378636B2 (ja) * | 2005-02-28 | 2009-12-09 | ソニー株式会社 | 情報処理システム、情報処理装置および情報処理方法、プログラム、並びに記録媒体 |
US20070115351A1 (en) * | 2005-11-18 | 2007-05-24 | Mccormack Kenneth | Methods and systems for enhanced motion detection |
JP4572815B2 (ja) * | 2005-11-18 | 2010-11-04 | 富士フイルム株式会社 | 撮像装置及び撮像方法 |
NO327899B1 (no) * | 2007-07-13 | 2009-10-19 | Tandberg Telecom As | Fremgangsmate og system for automatisk kamerakontroll |
US20090097704A1 (en) * | 2007-10-10 | 2009-04-16 | Micron Technology, Inc. | On-chip camera system for multiple object tracking and identification |
US7855737B2 (en) * | 2008-03-26 | 2010-12-21 | Fotonation Ireland Limited | Method of making a digital camera image of a scene including the camera user |
-
2009
- 2009-07-28 JP JP2009175041A patent/JP5446546B2/ja not_active Expired - Fee Related
-
2010
- 2010-07-14 TW TW099123117A patent/TW201121307A/zh unknown
- 2010-07-21 CN CN2010800431708A patent/CN102668535A/zh active Pending
- 2010-07-21 US US13/383,450 patent/US20120105647A1/en not_active Abandoned
- 2010-07-21 RU RU2012102038/07A patent/RU2012102038A/ru not_active Application Discontinuation
- 2010-07-21 WO PCT/JP2010/062209 patent/WO2011013544A1/ja active Application Filing
- 2010-07-21 KR KR1020127001608A patent/KR20120038451A/ko not_active Application Discontinuation
- 2010-07-21 EP EP10804290.4A patent/EP2461567A4/en not_active Withdrawn
-
2012
- 2012-01-20 IN IN589DEN2012 patent/IN2012DN00589A/en unknown
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0965197A (ja) * | 1995-08-18 | 1997-03-07 | Sony Corp | 自動ズーム制御装置、自動ズーム制御方法、及び撮像装置 |
JPH09186927A (ja) * | 1995-12-28 | 1997-07-15 | Sony Corp | 追尾装置および追尾方法 |
JP2005099164A (ja) | 2003-09-22 | 2005-04-14 | Fuji Photo Film Co Ltd | 自動撮影システム |
JP2007318225A (ja) * | 2006-05-23 | 2007-12-06 | Fujifilm Corp | 撮影装置および撮影方法 |
JP2008078712A (ja) * | 2006-09-19 | 2008-04-03 | Fujifilm Corp | 撮影装置および方法並びにプログラム |
JP2008205838A (ja) | 2007-02-20 | 2008-09-04 | Canon Inc | 撮像装置及びその制御方法 |
JP2009033450A (ja) * | 2007-07-26 | 2009-02-12 | Casio Comput Co Ltd | 撮影装置、被写体追尾ズーミング方法及び被写体追尾ズーミングプログラム |
JP2009077143A (ja) | 2007-09-20 | 2009-04-09 | Fujifilm Corp | 自動撮影装置 |
JP2009100448A (ja) | 2007-09-28 | 2009-05-07 | Fujifilm Corp | 撮影装置及び撮影方法 |
JP2009100301A (ja) * | 2007-10-17 | 2009-05-07 | Sony Corp | 構図判定装置、構図判定方法、プログラム |
Non-Patent Citations (1)
Title |
---|
See also references of EP2461567A4 |
Also Published As
Publication number | Publication date |
---|---|
EP2461567A4 (en) | 2013-06-05 |
RU2012102038A (ru) | 2013-07-27 |
IN2012DN00589A (ja) | 2015-06-12 |
TW201121307A (en) | 2011-06-16 |
JP2011030040A (ja) | 2011-02-10 |
US20120105647A1 (en) | 2012-05-03 |
CN102668535A (zh) | 2012-09-12 |
KR20120038451A (ko) | 2012-04-23 |
JP5446546B2 (ja) | 2014-03-19 |
EP2461567A1 (en) | 2012-06-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5446546B2 (ja) | 撮像制御装置、撮像制御方法、プログラム、撮像システム | |
JP4510713B2 (ja) | デジタルカメラ | |
JP5967473B2 (ja) | 撮像装置及び撮像システム | |
US8638372B2 (en) | Image capture unit with changeable image capture direction | |
US8199221B2 (en) | Image recording apparatus, image recording method, image processing apparatus, image processing method, and program | |
JP6328255B2 (ja) | マルチ撮像装置、マルチ撮像方法、プログラム、及び記録媒体 | |
US20110181690A1 (en) | Imaging control apparatus, imaging apparatus, imaging control method, and program | |
JP5251779B2 (ja) | 携帯型電子機器、制御方法、プログラム、撮像システム | |
WO2011013563A1 (ja) | 制御装置、撮像システム、制御方法、プログラム | |
JP5991514B2 (ja) | 撮像装置及び撮像システム | |
JP6071436B2 (ja) | 撮像装置、撮像方法およびプログラム | |
CN102111540A (zh) | 图像处理装置、图像处理方法以及程序 | |
JP2010193031A (ja) | 撮影装置および撮影装置の制御方法 | |
JP2010268323A (ja) | 撮像装置およびプログラム | |
JP2013013063A (ja) | 撮像装置及び撮像システム | |
US20110019012A1 (en) | Composition control device, imaging system, composition control method, and program | |
CN101990064A (zh) | 控制设备、操作设置方法和程序 | |
JP5942260B2 (ja) | 撮像装置、画像再生装置 | |
KR20090103790A (ko) | 촬상 장치, 촬상 방법 및 프로그램 | |
JP7527839B2 (ja) | 撮像装置、及び撮像システム | |
JP2002084412A (ja) | 画像処理装置及び画像処理方法 | |
JP6256298B2 (ja) | 撮像装置、その制御方法とプログラム | |
JP5293769B2 (ja) | 撮像装置及びそのプログラム | |
JP2008268732A (ja) | 撮像装置及び撮像装置の測距制御方法 | |
JP2008064980A (ja) | 光学装置、光学装置の制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WWE | Wipo information: entry into national phase |
Ref document number: 201080043170.8 Country of ref document: CN |
|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 10804290 Country of ref document: EP Kind code of ref document: A1 |
|
WWE | Wipo information: entry into national phase |
Ref document number: 13383450 Country of ref document: US |
|
ENP | Entry into the national phase |
Ref document number: 20127001608 Country of ref document: KR Kind code of ref document: A |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2010804290 Country of ref document: EP |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2012102038 Country of ref document: RU Ref document number: 589/DELNP/2012 Country of ref document: IN |
|
NENP | Non-entry into the national phase |
Ref country code: DE |