WO2016006149A1 - 撮像制御装置、撮像制御方法及びプログラム - Google Patents

撮像制御装置、撮像制御方法及びプログラム Download PDF

Info

Publication number
WO2016006149A1
WO2016006149A1 PCT/JP2015/002480 JP2015002480W WO2016006149A1 WO 2016006149 A1 WO2016006149 A1 WO 2016006149A1 JP 2015002480 W JP2015002480 W JP 2015002480W WO 2016006149 A1 WO2016006149 A1 WO 2016006149A1
Authority
WO
WIPO (PCT)
Prior art keywords
imaging
unit
user operation
user
detected
Prior art date
Application number
PCT/JP2015/002480
Other languages
English (en)
French (fr)
Inventor
高橋 正宏
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to CN201580035665.9A priority Critical patent/CN106576137A/zh
Priority to EP15818961.3A priority patent/EP3151531B1/en
Priority to KR1020167036728A priority patent/KR20170030496A/ko
Priority to US15/321,219 priority patent/US10270960B2/en
Priority to JP2016532408A priority patent/JP6414218B2/ja
Publication of WO2016006149A1 publication Critical patent/WO2016006149A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/58Means for changing the camera field of view without moving the camera body, e.g. nutating or panning of optics or image sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals

Definitions

  • This technology relates to a technology such as an imaging control device that causes an imaging unit to perform imaging.
  • an imaging method called so-called self-portrait that captures an image of himself / herself using an imaging device such as a mobile terminal (for example, a mobile phone) equipped with an image sensor or a digital camera is widely known. .
  • the user When the user takes a self-portrait, the user generally takes a self-portrait by holding the imaging device and pressing a shutter button while checking a live view image displayed on the display unit.
  • the imaging device When the user takes a self-portrait, the user generally takes a self-portrait by holding the imaging device and pressing a shutter button while checking a live view image displayed on the display unit.
  • a shutter button When the user takes a self-portrait, the user generally takes a self-portrait by holding the imaging device and pressing a shutter button while checking a live view image displayed on the display unit.
  • a mobile terminal is provided with a camera (sub camera) at a position above the display unit, and this camera is used when taking a selfie.
  • the display unit of a digital camera is generally provided on the side opposite to the imaging unit, the user can display the live image displayed on the display unit with such a positional relationship between the display unit and the imaging unit. I can't take a selfie while checking the view image. For this reason, a method in which the display unit is rotated 180 degrees and the display unit is directed toward the imaging unit may be used (see, for example, Patent Document 1).
  • a method of displaying a shutter button using a GUI (Graphical User Interface) on the screen may be used.
  • the user can take an image by touching the position where the shutter button is displayed on the display unit.
  • the purpose of the present technology is to allow the user to intuitively select whether to perform imaging using the immediate shutter function or the self-timer function when performing self-shooting. It is an object of the present invention to provide a technique such as an imaging control device that can be used.
  • the imaging control device includes a control unit.
  • the control unit displays imaging guidance including a first object, a second object, and a third object on a screen of a display unit, and the first object, the second object, and the third object
  • the imaging unit performs imaging, and when a user operation on the second object is detected, the user operation is performed.
  • the imaging unit performs imaging, and when a user operation on the third object is detected, the first operation is detected after the user operation on the third object is detected.
  • the imaging unit performs imaging after the elapse of a second time different from the time.
  • “User operation” includes operations on the screen of the display unit (touch operation, flick operation, etc.) and gesture operations at a position away from the screen (gesture operations by hand or line of sight). The same applies to “User operation”.
  • the user can perform imaging (self-portrait) using the immediate shutter function by performing a user operation on the first object among the three objects displayed on the screen.
  • the user can perform imaging (self-portrait) using the cell timer function by performing a user operation on the second object and the third object among the three objects displayed on the screen.
  • the count period is different between when the user operation is performed on the second object and when the operation is performed on the third object (first time, second time). time of). For this reason, the user can also intuitively select the count period by the self-timer function with immediacy.
  • the imaging guidance includes the first object, the second object, and the third object on a circle or arc corresponding to a reference point set in the screen. You may do it.
  • the control unit determines that a user operation on the first object is detected when a user operation in a direction in which the first object is arranged from the reference point is detected.
  • a user operation in the direction in which the second object is arranged from the reference point it is determined that a user operation on the second object has been detected, and the third object is detected from the reference point.
  • a user operation in the arranged direction it may be determined that a user operation on the third object has been detected.
  • the user can select an arbitrary object by performing a user operation in the direction in which each object is arranged from the reference point.
  • the intuitiveness of operation further improves.
  • control unit may determine whether a predetermined user operation is detected, and may display the imaging guidance on a screen when the predetermined user operation is detected.
  • the user can display the imaging guidance on the screen as necessary.
  • the control unit determines a position in the screen where the predetermined user operation is detected, and the predetermined user operation is detected.
  • the reference point may be set at the position.
  • the user can display the imaging guidance at the position by performing a predetermined user operation.
  • control unit may change a display mode of the imaging guidance according to a position in the screen where the predetermined user operation is detected.
  • control unit may display an image captured by the imaging unit on the screen as a live view image, and display the imaging guidance superimposed on the live view image.
  • control unit may control the imaging unit to focus on the position of the subject in the live view image corresponding to the position in the screen where the predetermined user operation is detected. Good.
  • the user can focus on the position of an arbitrary subject by performing a predetermined user operation.
  • the imaging guidance may include a fourth object.
  • the control unit determines the detection of a user operation on the fourth object.
  • the control unit continuously captures images at the first time interval. It may be done.
  • the user can perform imaging by the continuous shooting function by performing a user operation on the fourth object.
  • control unit may display an expression / pose guidance for guiding at least one of facial expression and posing to the user on the screen within the first time interval.
  • the imaging guidance may include a fifth object.
  • the control unit determines the detection of a user operation on the fifth object, and when a user operation on the fifth object is detected, a second time interval different from the first time interval. Then, the imaging unit may continuously perform imaging.
  • the user can intuitively select the imaging interval by the continuous shooting function with immediacy.
  • the imaging guidance may include a sixth object.
  • the control unit determines the detection of the user operation on the sixth object, and when the operation on the sixth object is detected, the control unit causes the imaging unit to perform imaging while emitting a flashlight. Also good.
  • the user can perform imaging by the flash imaging function by performing a user operation on the sixth object.
  • the imaging control method includes displaying imaging guidance including a first object, a second object, and a third object on a screen of a display unit. Detection of a user operation on the first object, the second object, and the third object is determined. When a user operation on the first object is detected, imaging is performed by the imaging unit. When a user operation on the second object is detected, an image is taken by the imaging unit after a first time has elapsed since the user operation was detected. When a user operation on the third object is detected, imaging is performed by the imaging unit after a second time different from the first time has elapsed since the user operation on the third object was detected.
  • the program according to the present technology is stored in the imaging control device. Displaying imaging guidance including a first object, a second object, and a third object on a screen of a display unit; Determining the detection of a user operation on the first object, the second object and the third object; When a user operation on the first object is detected, causing the imaging unit to perform imaging; When a user operation on the second object is detected, causing the imaging unit to perform imaging after a first time has elapsed since the user operation was detected; When a user operation on the third object is detected, causing the imaging unit to take an image after a second time different from the first time since the user operation on the third object is detected; and Is executed.
  • the user when taking a self-portrait, the user can intuitively select whether to perform imaging using the immediate shutter function or to perform imaging using the self-timer function. It is possible to provide a technique such as a possible imaging control device.
  • FIG. 1 is a front view illustrating an external configuration of a digital camera 100 according to the first embodiment of the present technology.
  • FIG. 2 is a rear view showing the external configuration of the digital camera 100.
  • a digital camera 100 (imaging control device) according to the present embodiment is a digital still camera that can capture a still image.
  • the digital camera 100 can also be configured to capture a moving image in addition to a still image.
  • the digital camera 100 is sized so that the user can hold it with one hand so that the user can easily carry and take an image. It has a shape.
  • the digital camera 100 includes a digital camera body 10 and a rotating body 20 that is provided so as to be rotatable with respect to the digital camera body 10.
  • a display unit 11 is provided on the back side of the digital camera body 10.
  • the display unit 11 includes, for example, a liquid crystal display or an organic EL (EL) display.
  • a touch sensor 12 that detects contact of the user's finger is provided.
  • the touch sensor 12 constitutes a part of the operation unit 15 that inputs a user operation.
  • Examples of the method of the touch sensor 12 include a capacitance method and a resistive film method, but the method of the touch sensor 12 is not particularly limited.
  • a shutter button 13 is provided on the side surface of the digital camera body 10.
  • the shutter button 13 is an operation unit 15 for recording image data as still image data.
  • the rotating body 20 is provided so as to be rotatable with respect to the digital camera body 10 with the axis in the Z direction (short direction) as the central axis.
  • the rotating body 20 is provided with an imaging unit 21 and a flashlight 22.
  • the flashlight 22 is a member that irradiates the subject with light when the surroundings are dark.
  • the digital camera 100 rotates the rotator 20 by 180 ° to change the state where the display unit 11 and the imaging unit 21 are arranged on the opposite side and the state where the display unit 11 and the imaging unit 21 are arranged on the same side. It is possible to switch arbitrarily.
  • FIG. 3 shows a state where the display unit 11 and the imaging unit 21 are arranged on the same side.
  • the rotator 20 is rotatable about the Z-direction axis.
  • the rotator 20 has an axis in the Y direction (longitudinal direction). You may be comprised so that rotation is possible as a central axis.
  • the display unit 11 When the user uses the digital camera 100 in the same manner as a normal camera, such as when taking a picture of a landscape spreading in front of the user or other people in front of the user, the display unit 11 The digital camera 100 is used with the imaging unit 21 on the opposite side (see FIGS. 1 and 2). On the other hand, when taking a self-portrait, the user places the display unit 11 and the imaging unit 21 on the same side and performs imaging (see FIG. 3).
  • the digital camera 100 sets the imaging mode to the standard imaging mode.
  • the digital camera 100 sets the imaging mode to the self-taking mode.
  • the operation unit 15 can perform various operations such as a power switch, a menu button, a cross key, and a determination button. Part 15 is included.
  • the power switch is an operation unit 15 for switching on / off the power of the digital camera 100.
  • the menu button is an operation unit 15 for causing the display unit 11 to display a menu screen.
  • the cross key is the operation unit 15 for moving the cursor on the menu screen, and the enter button is the operation unit 15 for determining the item selected by the cursor.
  • the digital camera 100 is provided with a movable stand.
  • This movable stand is used when the digital camera is placed at an arbitrary position (for example, on a table or the like) when taking a selfie.
  • FIG. 4 is a functional block diagram showing the internal configuration of the digital camera 100.
  • the digital camera 100 includes an imaging unit 21, a control unit 31, a display unit 11, an image storage unit 14, an operation unit 15, a storage unit 16, a communication unit 17, and a rotation angle.
  • a detection unit 18 and a flashlight 22 are provided.
  • the imaging unit 21 includes a lens system 23, a diaphragm 24, and an imaging element 25.
  • the control unit 31 includes a system controller 32, a lens driver 33, a timing generator (TG) 34, an analog signal processing unit 35, an A / D conversion unit 36, and a digital signal processing unit 37.
  • TG timing generator
  • the lens system 23 includes various lenses such as a zoom lens and a focus lens, and the subject light is imaged on the exposure surface of the image sensor 25 by these lenses.
  • the diaphragm 24 is configured to be able to mechanically adjust the amount of subject light by adjusting the opening degree.
  • the diaphragm 24 is disposed behind the lens system 23, but the diaphragm 24 is disposed in the optical path inside the lens system 23 (for example, between the zoom lens and the focus lens). It may be.
  • the lens driver 33 controls the positions of the zoom lens and the focus lens and controls the opening degree of the diaphragm 24 according to an instruction from the system controller 32.
  • the image sensor 25 is configured by a CMOS (Complementary Metal Oxide Semiconductor) sensor, a CCD (Charge Coupled Device) sensor, or the like.
  • the image sensor 25 has a plurality of pixels (R pixel, G pixel, and B pixel). The three primary colors obtained by converting subject light incident on the exposure surface into an electronic signal by photoelectric conversion for each pixel.
  • the signals (R, G, B) are output to the analog signal processing unit 35 as analog image data.
  • the timing generator 34 (TG) generates a drive pulse necessary for driving the image sensor 25 in accordance with an instruction from the system controller 32 and supplies the drive pulse to the image sensor 25.
  • the image pickup device 25 is driven by the timing generator 34 to pick up a subject image, and the subject image is acquired.
  • the exposure time is controlled by adjusting the shutter speed of the image sensor 25 by the timing generator 34.
  • the analog signal processing unit 35 executes CDS processing (CDS: Correlated Double Sampling), gain processing, and the like on the image signal output from the image sensor 25.
  • CDS processing CDS: Correlated Double Sampling
  • gain processing and the like on the image signal output from the image sensor 25.
  • the A / D conversion unit 36 converts the analog image data output from the analog signal processing unit 35 into digital image data, and outputs the digital image data to the digital signal processing unit 37.
  • the digital signal processing unit 37 is configured by, for example, a DSP (digital signal processor).
  • the digital signal processing unit 37 performs various digital signals such as noise removal processing, white balance adjustment processing, color correction processing, edge enhancement processing, and gamma correction processing on the digital image data output from the A / D conversion unit 36. Execute the process. Then, the digital signal processing unit 37 outputs the image data subjected to these processes to the display unit 11.
  • the digital signal processing unit 37 outputs the image data subjected to the above processing to the image storage unit 14 in accordance with the imaging timing.
  • the digital signal processing unit 37 is a process for causing the display unit 11 to display the imaging guidance 1 (see FIG. 9) used when taking a selfie in response to an instruction from the system controller 32 in the selfie mode. Execute.
  • a live view image, a playback image, a menu screen, and the like are displayed.
  • the live view image is an image displayed on the display unit 11 so that the user can confirm the angle of view.
  • the live view image is displayed on the screen by displaying the image data output from the digital signal processing unit 37 in real time.
  • the reproduced image is an image displayed on the display unit 11 so that the user can confirm the captured still image.
  • the reproduced image is displayed on the screen by reading and displaying the image stored in the image storage unit 14 as a still image.
  • the menu screen is displayed on the screen for the user to set various parameters relating to imaging.
  • the user can set, for example, zoom ratio, focus position, aperture 24 aperture, shutter speed, brightness, white balance, flash light 22 ON / OFF, and the like on the menu screen.
  • the image storage unit 14 stores image data output from the digital signal processing unit 37 and metadata related to the image data (for example, date and time when the image data was acquired).
  • the image storage unit 14 is configured by, for example, a semiconductor memory, an optical disk, an HD (hard disc), and the like.
  • the image storage unit 14 may be fixed inside the digital camera 100 or may be configured to be detachable from the digital camera 100.
  • the system controller 32 is configured by, for example, a CPU (Central Processing Unit) and the like, and comprehensively controls each unit of the digital camera 100. Specific processing of the system controller 32 will be described in detail later in the operation description column.
  • a CPU Central Processing Unit
  • the storage unit 16 includes various programs necessary for the processing of the control unit 31 and a non-volatile memory (for example, ROM (Read Only Memory)) in which various types of data are fixedly stored.
  • the storage unit 16 also includes a volatile memory (for example, RAM (Random Access Memory)) used as a work area of the system controller 32.
  • the program may be read from a portable recording medium such as an optical disk or a semiconductor memory, or may be downloaded from a server device on a network.
  • the communication unit 17 has a wireless LAN function (for example, Wi-fi: wireless fidelity).
  • the digital camera 100 can transmit and receive information to and from other devices having a wireless LAN function using the wireless LAN function of the communication unit 17.
  • the rotation angle detector 18 detects the rotation angle of the rotating body 20 with respect to the digital camera body 10 and outputs the detected rotation angle to the system controller 32.
  • the rotation angle detector 18 is constituted by, for example, a rotary encoder.
  • the rotation angle is set to the reference (0 °) when the display unit 11 and the imaging unit 21 are arranged on the opposite side (see FIGS. 1 and 2), and the display unit 11 and the imaging unit 21 are the same.
  • the state arranged on the side (see FIG. 3) is set to 180 °.
  • FIG. 5 and 6 are flowcharts showing processing of the digital camera 100 according to the first embodiment.
  • the system controller 32 sets the imaging mode to either the standard imaging mode or the self-portrait mode based on the information on the rotation angle detected by the rotation angle detection unit 18 (step 101). ).
  • the system controller 32 provides information on the rotation angle from the rotation angle detection unit 18 (0 °). Based on the above, the imaging mode is set to the standard imaging mode. On the other hand, when the display unit 11 and the imaging unit 21 are disposed on the same side (see FIG. 3), the system controller 32 performs imaging based on the rotation angle information (180 °) from the rotation angle detection unit 18. Set the mode to selfie mode.
  • the system controller 32 determines whether or not the current imaging mode is the self-shooting mode (step 102).
  • the current imaging mode is not the self-portrait mode (NO in step 102)
  • processing according to the standard imaging mode is executed (step 103).
  • the image data captured by the image sensor 25 is processed by the analog signal processing unit 35, the A / D conversion unit 36, and the digital signal processing unit 37 and displayed on the display unit 11 as a live view image.
  • the user adjusts the angle of view while confirming the live view image, and presses the shutter button 13.
  • the system controller 32 instructs the digital signal processing unit 37 to output the image data to the image storage unit 14 at the timing when the shutter button 13 is pressed.
  • the image storage unit 14 stores the image data output from the digital signal processing unit 37 as a still image. In the standard imaging mode, a still image is captured in this way.
  • imaging of a still image refers to any image data acquired from the image capturing unit 21 and used as a live view image, such as the shutter button 13 or the image data. It means that it is specified in response to an operation on the objects 2, 3, 4 (see FIG. 9) on the display unit 11.
  • imaging guidance 1 when the current imaging mode is the standard imaging mode, unlike the case where the current mode is the self-portrait mode, imaging guidance 1 (see FIG. 9) described later is displayed on the screen. Is not displayed. However, even in the standard imaging mode, imaging guidance 1 described later may be displayed on the screen, and imaging may be performed in response to a user operation on the imaging guidance 1.
  • step 102 when the current mode is the self-portrait mode (YES in step 102), the system controller 32 executes the processing after step 104.
  • FIG. 7 shows a state where the user sets the digital camera 100 to the self-shooting mode and performs the self-shooting.
  • a state where the user holds the digital camera 100 in the left hand and takes an image of himself / herself from diagonally above in front of the user is shown.
  • the subject is only one user.
  • the user and several friends can be the subject.
  • the system controller 32 determines whether a touch operation (predetermined user operation) on the screen of the display unit 11 has been detected by the touch sensor 12 (step 104).
  • the image data captured by the image sensor 25 is processed by the analog signal processing unit 35, the A / D conversion unit 36, and the digital signal processing unit 37, as in the standard imaging mode. It is displayed on the display unit 11 as a live view image. Accordingly, even in the self-portrait mode, the user can adjust the angle of view while checking the live view image.
  • Step 104 the system controller 32 returns to Step 101, and sets the imaging mode to the standard imaging mode or to the own imaging mode based on the rotation angle information detected by the rotation angle detection unit 18. Set to one of the shooting modes.
  • the system controller 32 focuses the image on the subject in the live view image corresponding to the position where the touch operation is detected. (Focus lens position) is controlled (step 105).
  • step 105 the system controller 32 executes AF processing (AF: Auto Focus).
  • AF processing a contrast AF method is typically used, but a phase difference AF method may be used.
  • phase difference AF method is used, a mirror and a focus detection sensor are added to the digital camera 100.
  • the system controller 32 next sets the touched position as a reference point (step 106). Then, using the reference point as a reference, an instruction is issued to the digital signal processing unit 37 so that the imaging guidance 1 for taking a selfie is displayed on the screen (step 107). As a result, the imaging guidance 1 is displayed superimposed on the live view image on the screen of the display unit 11.
  • the display process of the imaging guidance 1 is executed after the AF process, but the display process of the imaging guidance 1 may be executed in parallel with the AF process.
  • FIG. 9 is a diagram illustrating an example of the imaging guidance 1 displayed in a superimposed manner on the live view image.
  • the imaging guidance 1 includes a shutter object 2 (first object), five timer objects 3 (second object, third object), and a continuous shooting object 4 (fourth object).
  • the object is a user interface displayed on the screen, and includes, for example, a figure, a line segment, an icon, a character, and the like. Further, the object is not limited to a visually recognizable object. For example, the object may be set as a predetermined area on the screen where a specific display is not performed.
  • these objects 2, 3, and 4 are arranged on the circumference centered on the reference point.
  • the 12 o'clock direction on the circumference is 0 ° and the angle increases clockwise.
  • the shutter object 2 is an object for performing imaging with the immediate shutter function.
  • the shutter object 2 is disposed at a position of 0 ° (position at 12 o'clock) on the circumference of the imaging guidance 1.
  • a camera figure is adopted as the shutter object 2 figure.
  • the figure of the shutter object 2 may be any figure as long as the user can easily recall the immediate shutter function.
  • the five timer objects 3 are objects for performing imaging with the self-timer function.
  • the five timer objects 3 are arranged at equal intervals (36 ° intervals) from the upper right position to the lower side on the circumference of the imaging guidance 1.
  • the five timer objects 3 are assigned with different count periods, and the count periods are 1 second, 2 seconds, 3 seconds, 4 seconds, 5 seconds (first time, second time) in order clockwise. Time).
  • a black circle is adopted as the figure of the four timer objects 3 corresponding to the counting period of 1 to 4 seconds, and the timer object 3 corresponding to the counting period of 5 seconds (arranged at the 6 o'clock position).
  • the figure of the stopwatch is adopted as the figure of the (object).
  • the figure of the timer object 3 may be any figure as long as the user can easily recall the self-timer function.
  • each timer object 3 may be configured by a graphic representing the number of seconds.
  • the first, second, third, fourth, and fifth timer objects 3a, 3b, 3c, and 3d are sequentially turned clockwise. 3e.
  • the continuous shooting object 4 is an object for performing imaging using a continuous shooting function (a function for performing continuous imaging at predetermined intervals).
  • the continuous shooting object 4 is arranged at a position of 270 ° (position at 9 o'clock) on the circumference of the imaging guidance 1.
  • a figure in which a quadrangle (a figure pronounced of a photograph) is superimposed is adopted as the figure of the continuous shooting object 4.
  • the figure of the continuous shooting object 4 may be any figure as long as the user can easily recall the continuous shooting function.
  • arrow figures are arranged from the center of the imaging guidance 1 in four directions, up, down, left and right.
  • This arrow graphic is a graphic for guiding the user to slide the finger in that direction.
  • system controller 32 upon displaying imaging guidance 1 on the screen, system controller 32 next determines whether or not the touch operation has been released based on the output from touch sensor 12 (step 108). .
  • Step 109 the system controller 32 instructs the digital signal processing unit 37 to delete the imaging guidance 1 from the screen (Step 109). Thereby, when the user lifts his / her finger from the screen, the imaging guidance 1 is erased from the screen.
  • the user can display the imaging guidance 1 at an arbitrary position on the screen by touching the screen, and can erase the imaging guidance 1 from the screen by canceling the touch operation. That is, the user can display the imaging guidance 1 on the screen as necessary.
  • the system controller 32 returns to step 104 and determines again whether a touch operation has been detected.
  • the system controller 32 determines whether or not a flick operation has been detected on the screen based on the output from the touch sensor 12 (step 110).
  • the flick operation means an operation in which the user slides his / her finger on the screen and gradually releases the finger from the screen without losing the momentum of the slid finger.
  • step 110 the system controller 32 returns to step 108 and determines again whether the touch operation has been released.
  • the system controller 32 deletes the imaging guidance 1 (step 111). Thereafter, the system controller 32 determines whether the flick operation is a flick operation on the shutter object 2 according to the direction of the flick operation (step 112).
  • step 112 the system controller 32 determines that the flick operation on the shutter object 2 is detected when the direction of the flick operation is the direction of 0 ° (the direction at 12 o'clock). Note that the direction of the flick operation does not have to be strictly 0 °, and there is some margin in the direction of the flick operation. In this embodiment, when the direction of the flick operation is within a range of ⁇ 18 ° with respect to the direction of 0 °, it is determined that the flick operation on the shutter object 2 has been detected.
  • the system controller 32 performs imaging using the immediate shutter function (step 113).
  • imaging using the immediate shutter function the system controller 32 issues an instruction to the digital signal processing unit 37 in accordance with the timing when the flick operation is detected, and causes the digital signal processing unit 37 to output image data to the image storage unit 14.
  • the image storage unit 14 stores the image data output from the digital signal processing unit 37 as still image data.
  • the user can perform imaging by the immediate shutter function by touching the screen with a finger and performing a flick operation in a predetermined direction (0 ° ⁇ 18 °) without releasing the finger from the screen. Can do.
  • the hand holding the digital camera 100 may shake, and the angle of view adjusted by the user while viewing the live view image may shift.
  • the system controller 32 is not immediately after the flick operation is detected in the imaging by the immediate shutter function, but for a predetermined time from the time when the flick operation is detected (the shortest count in the self timer function). Imaging may be performed after elapse of a time (for example, about 0.5 seconds) shorter than the period (1 second).
  • the system controller 32 When imaging is performed using the immediate shutter function, the system controller 32 returns to step 104 and determines again whether a touch operation has been detected.
  • the system controller 32 determines whether the flick operation is a flick operation on the timer object 3 (step 114).
  • step 114 the system controller 32 performs the flick operation in the order of 36 ° ⁇ 16 °, 72 ° ⁇ 16 °, 108 ° ⁇ 16 °, 144 ° ⁇ 16 °, and 180 ° ⁇ 16 °, respectively.
  • the system controller 32 When a flick operation on the first, second, third, fourth, and fifth timer objects 3a, 3b, 3c, 3d, and 3e is detected (YES in step 114), the system controller 32 performs the flick operation. Imaging is performed 1 second, 2 seconds, 3 seconds, 4 seconds, and 5 seconds after detection. That is, the system controller 32 performs imaging using the self-timer function (step 115).
  • the system controller 32 In imaging using the self-timer function, when a flick operation is detected, the system controller 32 sets a count value of the number of seconds corresponding to the timer object 3 that is the target of the flick operation in a timer (not shown). Then, the system controller 32 starts a countdown (may be counted up) by a timer.
  • FIG. 10 is a diagram illustrating an example of the countdown guidance 5.
  • FIG. 10 shows an example of the countdown guidance 5 displayed on the screen when the flick operation on the fifth timer object 3e is detected and the countdown for 5 seconds is executed.
  • the countdown guidance 5 is arranged at a position based on the position where the touch operation is detected.
  • the countdown guidance 5 has a number object 6 indicating the remaining number of seconds until imaging is performed at the center position.
  • the countdown guidance 5 has a countdown object 7 on the circumference of a circle centered on the reference point.
  • the countdown object 7 is arranged at a position corresponding to the arrangement position of the shutter object 2 and the timer object 3 in the imaging guidance 1.
  • the countdown object 7 is a white circle, but the countdown object 7 may be any shape.
  • the display of the countdown object 7 is changed one by one counterclockwise every time the countdown advances 1 second.
  • FIG. 10 shows an example in which a white circle shape changes to a translucent white circle each time the countdown advances by 1 second.
  • the method of changing the display can be changed as appropriate. For example, a method may be used in which the countdown object 7 corresponding to the remaining number of seconds until imaging is performed is highlighted, and the highlighting is terminated one by one every time the countdown advances by 1 second.
  • a stopwatch graphic is displayed at the upper left position of the screen to indicate to the user that the timer is being down.
  • the system controller 32 issues an instruction to the digital signal processing unit 37 in accordance with this timing, and causes the digital signal processing unit 37 to output image data to the image storage unit 14.
  • the image storage unit 14 stores the image data output from the digital signal processing unit 37 as still image data.
  • the user can touch the screen with a finger and release the finger from the screen in a predetermined direction (36 ° ⁇ 16 °, 72 ° ⁇ 16 °, 108 ° ⁇ 16 °, 144 ° ⁇ 16 °). , 180 ° ⁇ 16 °), a self-timer function can be used for imaging. At this time, the user can arbitrarily select a counting period by the timer according to the direction of the flick operation.
  • the system controller 32 When imaging by the self-timer function is performed, the system controller 32 thereafter returns to step 104 and determines again whether the touch operation has been detected.
  • the system controller 32 determines whether the flick operation is a flick operation on the continuous shooting object 4 (step 116).
  • step 116 the system controller 32 determines that the flick operation on the continuous shooting object 4 has been detected when the direction of the flick operation is within a range of 270 ° ⁇ 16 °.
  • the system controller 32 performs imaging using the continuous shooting function (step 117).
  • the system controller 32 first issues an instruction to the digital signal processing unit 37 at the timing when the flick operation is detected, and outputs image data from the digital signal processing unit 37 to the image storage unit 14. Let The image storage unit 14 stores the image data output from the digital signal processing unit 37 as still image data. Thereby, the first still image data is acquired.
  • imaging in order to eliminate the influence of camera shake, it is not performed immediately after the flick operation is detected, but for a short time (for example, 0.5 seconds) from the time when the flick operation is detected. About) imaging may be performed after elapse. Alternatively, imaging may be performed after a time of about 1 to 5 seconds has passed, as in the case of imaging with the self-timer function.
  • the system controller 32 sets a predetermined count value (for example, about 3 to 5 seconds) in the timer, and executes countdown (may be counted up) by the timer. Then, the system controller 32 issues an instruction to the digital signal processing unit 37 at the timing when the countdown by the timer ends, and causes the digital signal processing unit 37 to output image data to the image storage unit 14.
  • the image storage unit 14 stores the image data output from the digital signal processing unit 37 as still image data, thereby acquiring the second still image data.
  • the third and subsequent still images are captured in the same manner as the second still image.
  • imaging is continuously performed at a predetermined time interval (first time interval: 3 seconds to 5 seconds).
  • first time interval 3 seconds to 5 seconds.
  • the system controller 32 ends imaging by the continuous shooting function, and returns to step 104 again.
  • the user can perform imaging by the continuous shooting function by performing a flick operation in a predetermined direction (270 ° ⁇ 16 °) without touching the screen with a finger and releasing the finger from the screen. it can.
  • the period from when the imaging is performed until the next imaging is set to a relatively long period of about 3 to 5 seconds. For this reason, the user can change the facial expression and posing during this period.
  • a facial expression / posing guidance for guiding at least one of them to the user may be displayed on the screen.
  • This facial expression / pose guidance is an image of a character (or an image of an actual person) with various facial expressions and various poses. This facial expression / pose guidance is displayed superimposed on the live view image at the end position on the screen, for example.
  • the facial expression / pose guidance is a facial expression or outline of a characteristic part in posing.
  • the facial expression / pose guidance is displayed at a corresponding position in the subject on the screen (for example, the mouth position in the live view image when the mouth has a feature in the facial expression).
  • facial expressions examples include “duck mouth” (a duck-like mouth shape that slightly projects the upper lip while spreading the mouth horizontally), “Chun face” (a sparrow that slightly opens its mouth and slightly projects its lips) Mouth shape like), “Tehepero” (an expression that puts out the tongue with an embarrassing expression (failed to something)), “a troubled face”, “a surprised face” and so on.
  • poses examples include “V-sign”, “salute”, “pause with palm on cheek”, “quiet pose” (pose with index finger on nose), “cat pose” (see palm) For example, a pose in which a finger is lightly folded and the palm is directed toward the imaging unit 21). It should be noted that facial expression and posing may be combined (for example, V-sign etc. while duck mouth).
  • the facial expression / pose guidance is sequentially switched to a different facial expression / pose every time an image is taken.
  • the user can acquire various facial expressions and posing images without wondering what facial expression or posing is to be performed next.
  • the facial expression / pose guidance may be displayed on the screen not only with the continuous shooting function but also with the above-described self-timer function. Further, in the imaging by the continuous shooting function, the countdown guidance 5 (see FIG. 10) may be displayed on the screen (alone or together with the facial expression / pose guidance).
  • the count period by the timer is set in advance in the imaging by the continuous shooting function.
  • the count period in the imaging by the continuous shooting function may be determined according to the direction of the flick operation similarly to the count period by the self timer function. That is, the continuous shooting function and the self-timer function (every hour) may be combined.
  • a plurality of continuous shooting / timer objects are arranged at equal intervals (for example, 36 ° intervals) on the circumference of the imaging guidance 1 (for example, the left half). .
  • These continuous shooting / timer objects are assigned different count periods (first time interval and second time interval).
  • the system controller 32 determines the counting period until the next imaging is performed. Set to the count period corresponding to the object.
  • the system controller 32 performs imaging by the continuous shooting function at intervals of 5 seconds (for the first imaging, imaging is performed immediately. Imaging may be performed after a count period of 5 seconds has elapsed). As a result, the user can arbitrarily set the interval in imaging by the continuous shooting function according to the direction of the flick operation.
  • the number of still images acquired by the continuous shooting function is determined in advance.
  • the number of still images may be determined according to the direction of the flick operation.
  • a plurality of continuous shooting / number of objects assigned different numbers are arranged at equal intervals (for example, 36 ° intervals).
  • the system controller 32 obtains the number of still images corresponding to the continuous shooting / number of objects.
  • the imaging is performed by the continuous shooting function. Thereby, the user can arbitrarily set the number of still images acquired in the imaging by the continuous shooting function according to the direction of the flick operation.
  • the user can perform imaging (self-portrait) using the immediate shutter function by performing a flick operation on the shutter object 2 among the objects displayed on the screen. it can.
  • the user can perform imaging (self-portrait) using the self-timer function by performing a flick operation on the timer object 3.
  • the user when taking a self-portrait, the user can intuitively select whether to perform imaging using the immediate shutter function or to perform imaging using the self-timer function with immediacy. Furthermore, in the present embodiment, different count periods are assigned to the plurality of timer objects 3, respectively. For this reason, the user can arbitrarily select the count period by the self-timer function according to the direction of the flick operation.
  • the user can freely select whether to perform imaging using the immediate shutter function or the self-timer function every time the imaging is performed, and each time the imaging is performed, the user can use the self-timer function.
  • the count period can be arbitrarily selected.
  • the user can take a selfie while having fun using the digital camera 100 according to the present embodiment, and the user experience is improved.
  • the digital camera 100 according to the present embodiment has a simple operation when taking a self-portrait, and is also suitable for taking a self-portrait while walking.
  • the imaging guidance 1 is displayed with the position where the touch operation is detected on the screen as a reference point. Accordingly, when the end position on the screen is touched, it may be difficult to display the imaging guidance 1 in a circular shape.
  • processing such as changing the display mode of the imaging guidance 1 is executed according to the position (reference point position) where the touch operation is detected.
  • FIG. 11 shows a state on the screen when the user performs a touch operation near the left end in the screen.
  • a touch operation is performed near the left end
  • a reference point is set at the touched position
  • the imaging guidance 1 is displayed at a position corresponding to the reference point.
  • This imaging guidance 1 has a shutter object 2, five timer objects 3, and a continuous shooting object 4 on the circumference of the right half (on the circumference of the arc).
  • the shutter object 2 is arranged at the 0 ° position (12 o'clock position), and the five timer objects 3 are arranged at equal intervals from the upper right to the lower left. Further, the shutter object 2 is disposed at a position of 180 ° (position at 6 o'clock).
  • the center of the arc in which each object is arranged coincides with the reference point (position where the touch operation is performed).
  • the center of the arc does not necessarily coincide with the reference point, and the center of the arc may be located outside the screen, for example. This is the same in FIGS. 12 and 13 described later.
  • FIG. 12 shows a state on the screen when the user performs a touch operation near the upper end in the screen.
  • the shutter object 2 when the vicinity of the upper end is touched, the shutter object 2, the five timer objects 3, and the continuous shooting object 4 are arranged on the circumference of the lower half (around the arc).
  • the shutter object 2 is arranged at a 90 ° position (3 o'clock position), and five timer objects 3 are arranged at equal intervals from the lower right to the lower left.
  • the shutter object 2 is arranged at a position of 270 ° (position at 9 o'clock).
  • FIG. 13 shows a state on the screen when the user performs a touch operation near the lower left end in the screen.
  • the shutter object 2 when a touch operation is performed near the lower left end, the shutter object 2, the five timer objects 3, and the continuous shooting object 4 are arranged on the circumference of the upper right quarter (on the circumference of the arc). Is done.
  • the shutter object 2 is arranged at a position of 0 ° (position at 12 o'clock), and the five timer objects 3 are arranged at equal intervals on the upper right circle. Further, the shutter object 2 is arranged at a 90 ° position (position at 3 o'clock).
  • FIG. 9 when FIG. 9 is compared with FIGS. 11 to 13, although the relative positions of the shutter object 2, the five timer objects 3, and the continuous shooting object 4 have changed, their relative positions are It is maintained as much as possible. Also, the interval between the five timer objects 3 is maintained as much as possible. For this reason, the user can perform an operation on each object with a certain operation feeling regardless of the position of the touch operation.
  • Another example of changing the display mode of the imaging guidance 1 is a method of changing the overall size of the imaging guidance 1 according to the position of the touch operation. In this case, the closer the position of the touch operation is to the end, the smaller the overall size of the imaging guidance 1 (the direction in which each object is arranged with respect to the reference point does not change).
  • the imaging guidance 1 Other functions that can be assigned in the imaging guidance 1 include a flashlight imaging function.
  • the flashlight object (sixth object) is arranged on the circumference of the imaging guidance 1 (for example, at a position of 270 °).
  • the system controller 32 causes the imaging unit 21 to perform imaging while making the flashlight 22 emit light (immediate shutter).
  • the flashlight imaging function can be combined with the self-timer function (every hour).
  • a plurality of flash timer objects are arranged at equal intervals on the circumference of the imaging guidance 1 (for example, the left half). Different count periods are set for the plurality of flash timer objects.
  • a count period of seconds corresponding to the flash timer object subjected to the flick operation is set, and flashlight imaging is performed at the end of the cant down.
  • the flashlight imaging function and the continuous shooting function can be combined.
  • the flash / continuous shooting object is arranged on the circumference of the imaging guidance 1 (for example, at a position of 270 °).
  • flashlight imaging is continuously performed at a predetermined time interval (3 to 5 seconds).
  • the flashlight imaging function, the continuous shooting function, and the self-timer function may be combined.
  • a plurality of flash, continuous shooting, and timer objects are arranged at equal intervals on the circumference of the imaging guidance 1 (for example, the left half).
  • a different count period is set for each of the plurality of flash, continuous shooting, and timer objects.
  • flashlight imaging is performed for each count period corresponding to the flash, continuous shooting, and timer object that are the targets of the flick operation.
  • Other functions that can be assigned in the imaging guidance 1 include a shutter speed adjustment function, a zoom ratio adjustment function, a focus position adjustment function, an aperture opening adjustment function, a brightness adjustment function, a white balance adjustment function, and the like. It is done.
  • the shutter speed adjustment function will be described representatively.
  • a plurality of shutter speed objects respectively corresponding to the respective shutter speeds are arranged at equal intervals on the circumference of the imaging guidance 1 (for example, the left half).
  • the shutter speed is set to a value corresponding to the shutter speed object that is the target of the flick operation.
  • the user touches the screen to display the imaging guidance 1 and performs a flick operation on any shutter speed object among the plurality of shutter speed objects. Thereby, the user can set the shutter speed to an arbitrary shutter speed. Thereafter, the user touches the screen again to display the imaging guidance 1 and performs a flick operation on the shutter object 2 (or the timer object 3, the continuous shooting object 4, etc.), so that the shutter speed is set. Imaging can be performed.
  • the zoom rate adjustment function, the focus position adjustment function, the aperture opening adjustment function, the brightness adjustment function, and the white balance adjustment function can be applied in the same manner as the shutter speed adjustment function, and thus will be described in detail. Is omitted.
  • imaging guidance 1 since various functions can be assigned in this way in the imaging guidance 1, it is expected that an arbitrary function cannot be arranged with only one imaging guidance 1. Accordingly, a plurality of imaging guidances 1 to which different functions are assigned may be prepared. In this case, different imaging guidances 1 may be displayed on the screen according to the user operation method.
  • the first imaging guidance 1 is displayed on the screen when a touch operation or a tap operation (an operation to release the finger from the screen immediately after touching the screen) is detected. Then, when a double tap operation (operation for repeating the tap operation twice) is detected, the second imaging guidance 1 is displayed on the screen. Similarly, when an n-tap operation is detected, the n-th imaging guidance 1 is displayed on the screen.
  • At least an immediate shutter function and a self-timer function are assigned to the first imaging guidance 1 among the plurality of imaging guidances 1.
  • the continuous shooting function and the flashlight imaging function (or a combination of at least two of the self-timer function, the continuous shooting function, and the flashlight imaging function) are functions directly related to the act of performing imaging. .
  • these functions are preferentially assigned to the first imaging guidance 1.
  • the function is assigned to the second imaging guidance 1, the third imaging guidance 1,.
  • the shutter speed adjustment function, the zoom ratio adjustment function, the focus position adjustment function, the aperture opening adjustment function, the brightness adjustment function, and the white balance adjustment function are not functions directly related to the act of imaging, This function is indirectly related to imaging.
  • the various adjustment functions described above have lower priority than functions directly related to imaging, and typically are assigned to the imaging guidance 1 after functions directly related to imaging are assigned. It is done. For example, when the assignment of the function directly related to imaging is completed in the third imaging guidance 1, the above-described adjustment function is assigned in the fourth imaging guidance 1, the fifth imaging guidance 1,. .
  • Imaging guidance 1 Display and erase timing of imaging guidance 1
  • the imaging guidance 1 may not be erased even if the touch operation is released, and the imaging guidance 1 may be erased from the screen when a position other than the position where the imaging guidance 1 is displayed is touched.
  • the imaging guidance 1 may always be displayed at a predetermined position on the screen (for example, the position of the edge of the screen) in the self-portrait mode.
  • the imaging guidance 1 is displayed based on the position where the touch operation is detected.
  • the imaging guidance 1 may be displayed at a position unrelated to the position where the touch operation is detected.
  • the imaging guidance 1 may be displayed at a preset position such as the center of the screen or the position of the edge of the screen regardless of the position where the touch operation is detected. In this case, the imaging guidance 1 is not erased from the screen even if the touch operation is released.
  • the flick operation in the direction in which each object is arranged has been described as an example of the user operation on each object.
  • the operation on each object is not limited to the flick operation.
  • this user operation may be an operation in which a finger is continuously slid from a reference point to a position where each object is arranged.
  • the user operation for each object may be a touch operation, a tap operation, or a double tap operation for each object.
  • the imaging guidance is always displayed on the screen, or is erased from the screen when a position other than the position where the imaging guidance 1 is displayed is touched (the operation for each object is performed). If not).
  • the user operation on each object may be an operation of sliding a finger along the circumference and releasing (or stopping) the finger at a position where an arbitrary object is displayed.
  • the user slides his / her finger clockwise along the circumference to display an arbitrary timer object 3. You may release your finger at the position.
  • the user touches the position where the fifth timer object 3e is displayed, the user slides his / her finger counterclockwise along the circumference and moves the finger at the position where the arbitrary timer object 3 is displayed. May be released.
  • the imaging guidance 1 is always displayed on the screen, or is deleted from the screen when a position other than the position where the imaging guidance 1 is displayed is touched (for each object). If there was no operation).
  • the user operation on each object may be a combination of an operation of sliding a finger from the reference point to a position where the object is arranged and an operation of sliding the finger along the circumference.
  • the user slides his / her finger from the reference point to a position where the shutter object 2 is displayed, and then slides his / her finger clockwise along the circumference.
  • You may perform operation which lifts a finger
  • the user slides the finger from the reference point to the position where the fifth timer object 3e is displayed, and then slides the finger counterclockwise along the circumference, so that an arbitrary timer object 3 is displayed. You may perform operation which lifts a finger
  • any of the various examples described above may be used as the display timing and the erasing timing of the imaging guidance 1.
  • gesture operations for displaying (calling) the imaging guidance 1 on the screen include an operation of drawing a circle with a finger and an operation of repeatedly opening a closed hand.
  • the gesture operation may be an operation that repeats blinking quickly.
  • gesture operations for objects include a swinging arm from the reference point in the direction in which an arbitrary object is placed, or a circle with your finger by aligning your finger to the position where the arbitrary object is displayed. For example, drawing.
  • this gesture operation may be an operation of turning a line of sight in a direction in which an arbitrary object is displayed.
  • gesture operations For example, the user shakes his / her arm, moves the fingertip from the reference point to the position where the shutter object 2 is displayed, and then moves the fingertip clockwise along the circumference to move any timer object 3.
  • a circle may be drawn with a finger at a position where is displayed.
  • the system controller 32 may determine whether the gesture operation has been performed based on the image captured by the imaging unit 21.
  • Remote control It is also possible to take a selfie by placing the digital camera 100 at a predetermined position and performing remote control with another device.
  • a smartphone imaging control apparatus
  • This smartphone can transmit and receive information to and from the digital camera 100 by a wireless LAN function (for example, Wi-fi) by the communication unit.
  • a wireless LAN function for example, Wi-fi
  • the digital camera 100 transmits the image data captured by the imaging unit 21 to the smartphone via the communication unit 17.
  • the smartphone displays the received image data as a live view image on the screen of the display unit.
  • the smartphone displays the imaging guidance 1 superimposed on the live view image. The user can take a selfie by operating the imaging guidance 1 displayed on the screen of the smartphone.
  • the smartphone uses the digital camera 100 to perform imaging using the immediate shutter function, the self-timer function, and the continuous shooting function.
  • the digital camera 100 performs imaging with an immediate shutter function, a self-timer function, and a continuous shooting function.
  • the digital camera 100 when the digital camera 100 is placed at a predetermined position and self-portrait is performed by gesture operation or remote operation, it is not limited to imaging by one user or several people including the user, but by a large number of people including the user in a sightseeing spot or the like It is also possible to take an image of the group.
  • imaging control device In the above description, the digital camera 100 and the smartphone have been described as examples of the imaging control device, but the imaging control device is not limited thereto.
  • the imaging control device may be a PC (Personal Computer), a television device, a portable game machine, a game machine, or the like.
  • An imaging guidance including a first object, a second object, and a third object is displayed on a screen of a display unit, and the first object, the second object, and the third object are displayed. It is determined whether a user operation is detected. When a user operation on the first object is detected, the imaging unit performs imaging. When a user operation on the second object is detected, the user operation is detected. When a first operation has been performed and the imaging unit performs imaging, and when a user operation on the third object is detected, the first time after the user operation on the third object is detected.
  • An imaging control apparatus comprising: a control unit that causes the imaging unit to perform imaging after the elapse of a second time different from the first time.
  • the imaging control device determines that a user operation on the first object is detected when a user operation in a direction in which the first object is arranged from the reference point is detected, and the control unit determines from the reference point that the first operation is performed.
  • a user operation in the direction in which the second object is arranged it is determined that a user operation on the second object has been detected, and in the direction in which the third object is arranged from the reference point.
  • An imaging control device that determines that a user operation on the third object has been detected when a user operation is detected.
  • the control unit determines whether a predetermined user operation is detected, and displays the imaging guidance on a screen when the predetermined user operation is detected.
  • the imaging control device according to (4) above When the predetermined user operation is detected, the control unit determines a position in the screen where the predetermined user operation is detected, and sets the reference point at a position where the predetermined user operation is detected. Set the imaging control device.
  • the imaging control device displays the image imaged by the said imaging part on the said screen as a live view image, and superimposes and displays the said imaging guidance on the said live view image.
  • the imaging control device controls the imaging unit to focus on the position of the subject in the live view image corresponding to the position in the screen where the predetermined user operation is detected.
  • the imaging guidance has a fourth object, The control unit determines detection of a user operation on the fourth object, and causes the imaging unit to continuously perform imaging at a first time interval when an operation on the fourth object is detected. Control device.
  • the control unit displays an expression / pose guidance on the screen for guiding at least one of facial expression and posing to the user within the first time interval.
  • the imaging guidance has a fifth object, The control unit determines the detection of a user operation on the fifth object, and when a user operation on the fifth object is detected, the imaging unit is at a second time interval different from the first time interval.
  • An imaging control device that allows continuous imaging.
  • the imaging control device according to any one of (1) to (11) above, The imaging guidance has a sixth object, The control unit determines whether or not a user operation on the sixth object is detected.
  • the control unit When an operation on the sixth object is detected, the control unit causes the imaging unit to perform imaging while emitting a flashlight.
  • Control device. (13) Display imaging guidance including the first object, the second object, and the third object on the screen of the display unit; Determining the detection of a user operation on the first object, the second object and the third object; When a user operation on the first object is detected, the imaging unit performs imaging, When a user operation on the second object is detected, the imaging unit performs imaging after a first time has elapsed since the user operation was detected; When a user operation on the third object is detected, the imaging unit causes the imaging unit to take an image after a second time different from the first time since the user operation on the third object is detected.
  • Imaging control device Displaying imaging guidance including a first object, a second object, and a third object on a screen of a display unit; Determining the detection of a user operation on the first object, the second object and the third object; When a user operation on the first object is detected, the imaging unit performs imaging, When a user operation on the second object is detected, causing the imaging unit to perform imaging after a first time has elapsed since the user operation was detected; When a user operation on the third object is detected, causing the imaging unit to take an image after a second time different from the first time since the user operation on the third object is detected; and A program that executes

Abstract

【課題】自分撮りを行う場合に、即時シャッタ機能による撮像を行うか、セルフタイマ機能による撮像を行うかをユーザが即時性を持って直感的に選択することが可能な撮像制御装置などの技術を提供すること。 【解決手段】本技術に係る撮像制御装置は、制御部を具備する。前記制御部は、第1のオブジェクト、第2のオブジェクト、及び第3のオブジェクトを含む撮像ガイダンスを表示部の画面上に表示させ、前記第1のオブジェクト、前記第2のオブジェクト及び前記第3のオブジェクトに対するユーザ操作の検出を判断し、前記第1のオブジェクトに対するユーザ操作が検出されたとき、撮像部に撮像を行わせ、前記第2のオブジェクトへのユーザ操作が検出されたとき、ユーザ操作が検出されてから第1の時間経過後に前記撮像部に撮像を行わせ、前記第3のオブジェクトへのユーザ操作が検出されたとき、前記第3のオブジェクトへのユーザ操作が検出されてから第1時間とは異なる第2の時間経過後に撮像部に撮像を行わせる。

Description

撮像制御装置、撮像制御方法及びプログラム
 本技術は、撮像部に撮像を行わせる撮像制御装置などの技術に関する。
 従来から、撮像素子が搭載された携帯端末(例えば、携帯電話機など)や、デジタルカメラなどの撮像装置を用いて、自分で自分を撮像するいわゆる自分撮りとよばれる撮像方法が広く知られている。
 ユーザが自分撮りを行う場合、一般的に、ユーザは、撮像装置を手に持ち、表示部に表示されたライブビュー画像を確認しながらシャッタボタンを押すことで自分撮りを行う。近年においては、このような自分撮りは、特に若い女性の間で世界的な流行になりつつある。
 携帯端末には、一般的に、表示部の上側の位置にカメラ(サブカメラ)が設けられており、自分撮りを行う場合には、このカメラが用いられる。一方、デジタルカメラは、一般的に、表示部が撮像部とは反対側に設けられているため、このような表示部と撮像部の位置関係のままでは、ユーザは表示部に表示されたライブビュー画像を確認しながら自分撮りを行うことができない。このため、表示部を180度回転させて、表示部を撮像部側に向けるといった方法が用いられる場合がある(例えば、特許文献1参照)。
 自分撮りにおいては、一般的に、シャッタボタンが押されたときに撮像を行うという方法(即時シャッタ機能)の他に、タイマによりカウントダウンを行ってタイマがゼロになったときに撮像を行うという方法(セルフタイマ機能)が用いられる(例えば、特許文献2参照)。
特開2013-219537号公報 特開2004-343653号公報
 近年においては、機械的なシャッタボタンに代えて、GUI(Graphical User Interface)によるシャッタボタンを画面上に表示させるといった方法が用いられる場合がある。ユーザは、表示部上においてシャッタボタンが表示されている位置に触れることで撮像を行うことができる。
一方、セルフタイマ機能を設定するためには、ユーザは、メニュー画面を開いた後に、このメニュー画面においてセルフタイマ機能を有効にするかどうかや、セルフタイマ機能によるカウント期間を設定する必要があり、多くのステップが必要とされる。
このため、即時シャッタ機能による撮像を行うか、セルフタイマ機能による撮像を行うかをユーザが即時性を持って直感的に選択することができないといった問題がある。
 以上のような事情に鑑み、本技術の目的は、自分撮りを行う場合に、即時シャッタ機能による撮像を行うか、セルフタイマ機能による撮像を行うかをユーザが即時性を持って直感的に選択することが可能な撮像制御装置などの技術を提供することにある。
 本技術に係る撮像制御装置は、制御部を具備する。
 前記制御部は、第1のオブジェクト、第2のオブジェクト、及び第3のオブジェクトを含む撮像ガイダンスを表示部の画面上に表示させ、前記第1のオブジェクト、前記第2のオブジェクト及び前記第3のオブジェクトに対するユーザ操作の検出を判断し、前記第1のオブジェクトに対するユーザ操作が検出されたとき、撮像部に撮像を行わせ、前記第2のオブジェクトへのユーザ操作が検出されたとき、ユーザ操作が検出されてから第1の時間経過後に前記撮像部に撮像を行わせ、前記第3のオブジェクトへのユーザ操作が検出されたとき、前記第3のオブジェクトへのユーザ操作が検出されてから第1時間とは異なる第2の時間経過後に撮像部に撮像を行わせる。
 「ユーザ操作」には、表示部の画面に対する操作(タッチ操作、フリック操作等)と、画面から離れた位置でのジェスチャ操作(手や目線によるジェスチャ操作)とが含まれる(後述の「所定のユーザ操作」も同様)。
 本技術に係る撮像制御装置では、ユーザは、画面上に表示されている3つのオブジェクトのうち、第1のオブジェクトに対するユーザ操作を行うことで即時シャッタ機能による撮像(自分撮り)を行うことができる。また、ユーザは、画面上に表示されている3つのオブジェクトのうち、第2のオブジェクト、第3のオブジェクトに対するユーザ操作を行うことで、セルタイマ機能による撮像(自分撮り)を行うことができる。
 これにより、ユーザは、自分撮りを行う場合に、即時シャッタ機能による撮像を行うか、セルフタイマ機能による撮像を行うかを、即時性を持って直感的に選択することができる。さらに、この撮像制御装置では、第2のオブジェクトに対するユーザ操作が行われた場合と、第3のオブジェクトに対する操作が行われた場合とで、カウント期間が異なっている(第1の時間、第2の時間)。このため、ユーザは、セルフタイマ機能によるカウント期間を、即時性を持って直感的に選択することもできる。
 上記撮像制御装置において、前記撮像ガイダンスは、前記画面内において設定された基準点に対応する円又は円弧の周上に前記第1のオブジェクト、前記第2のオブジェクト、及び前記第3のオブジェクトを有していてもよい。
 上記撮像制御装置において、前記制御部は、前記基準点から第1のオブジェクトが配置されている方向へのユーザ操作が検出されたとき、前記第1のオブジェクトに対するユーザ操作が検出されたと判断し、前記基準点から前記第2のオブジェクトが配置されている方向へのユーザ操作が検出されたとき、前記第2のオブジェクトに対するユーザ操作が検出されたと判断し、前記基準点から前記第3のオブジェクトが配置されている方向へのユーザ操作が検出されたとき、前記第3のオブジェクトに対するユーザ操作が検出されたと判断してもよい。
 これにより、ユーザは、基準点から各オブジェクトが配置されている方向へのユーザ操作を行うことで、任意のオブジェクトを選択することができる。これにより、操作の直感性がさらに向上する。
 上記撮像制御装置において、前記制御部は、所定のユーザ操作が検出されたどうかを判断し、前記所定のユーザ操作が検出された場合に、前記撮像ガイダンスを画面上に表示させてもよい。
 これにより、ユーザは、必要に応じて画面上に撮像ガイダンスを画面上に表示させることができる。
 上記撮像制御装置において、前記制御部は、前記所定のユーザ操作が検出された場合に、前記所定のユーザ操作が検出された前記画面内における位置を判断し、前記所定のユーザ操作が検出された位置に前記基準点を設定してもよい。
 これにより、ユーザは、所定のユーザ操作を行うことで、その位置に撮像ガイダンスを表示させることができる。
 上記撮像制御装置において、前記制御部は、前記所定のユーザ操作が検出された前記画面内における位置に応じて、前記撮像ガイダンスの表示態様を変化させてもよい。
 これにより、所定のユーザ操作が行われた位置が画面内のどの位置であっても、一定の操作感をユーザに提供することができる。
 上記撮像制御装置において、前記制御部は、前記撮像部によって撮像された画像をライブビュー画像として前記画面上に表示させ、前記撮像ガイダンスを前記ライブビュー画像に重畳して表示させてもよい。
 これにより、ユーザは、ライブビュー画像を見ながら画角を調整することができる。
 上記撮像制御装置において、前記制御部は、前記所定のユーザ操作が検出された前記画面内における位置に対応した、前記ライブビュー画像における被写体の位置にフォーカスを合わせるように撮像部を制御してもよい。
 これにより、ユーザは、所定のユーザ操作を行うことで、任意の被写体の位置にフォーカスを合わせることができる。
 上記撮像制御装置において、前記撮像ガイダンスは、第4のオブジェクトを有していてもよい。
 この場合、前記制御部は、前記第4のオブジェクトに対するユーザ操作の検出を判断し、前記第4のオブジェクトに対する操作が検出された場合、第1の時間間隔で前記撮像部に連続して撮像を行わせてもよい。
 これにより、ユーザは、第4のオブジェクトに対するユーザ操作を行うことで、連写機能による撮像を行うことができる。
 上記撮像制御装置において、前記制御部は、前記第1の時間間隔内において、顔の表情及びポージングのうち少なくとも一方をユーザにガイドする表情/ポージングガイダンスを画面上に表示させてもよい。
 これにより、ユーザは、表情/ポージングガイダンスに合わせて自分撮りを行うことができる。
 上記撮像制御装置において、前記撮像ガイダンスは、第5のオブジェクトを有していてもよい。
 この場合、前記制御部は、前記第5のオブジェクトに対するユーザ操作の検出を判断し、前記第5のオブジェクトに対するユーザ操作が検出された場合、前記第1の時間間隔とは異なる第2の時間間隔で撮像部に連続して撮像を行わせてもよい。
 これにより、ユーザは、連写機能による撮像の間隔を、即時性を持って直感的に選択することができる。
 上記撮像制御装置において、前記撮像ガイダンスは、第6のオブジェクトを有していてもよい。
 この場合、前記制御部は、前記第6のオブジェクトに対するユーザ操作の検出を判断し、前記第6のオブジェクトに対する操作が検出された場合、フラッシュライトを発光させつつ前記撮像部に撮像を行わせてもよい。
 これにより、ユーザは、第6のオブジェクトに対するユーザ操作を行うことで、フラッシュ撮像機能による撮像を行うことができる。
 本技術に係る撮像制御方法は、第1のオブジェクト、第2のオブジェクト、及び第3のオブジェクトを含む撮像ガイダンスを表示部の画面上に表示させることを含む。
 前記第1のオブジェクト、前記第2のオブジェクト及び前記第3のオブジェクトに対するユーザ操作の検出が判断される。
 前記第1のオブジェクトに対するユーザ操作が検出されたとき、撮像部によって撮像が行われる。
 前記第2のオブジェクトへのユーザ操作が検出されたとき、ユーザ操作が検出されてから第1の時間経過後に前記撮像部によって撮像が行われる。
 前記第3のオブジェクトへのユーザ操作が検出されたとき、前記第3のオブジェクトへのユーザ操作が検出されてから第1時間とは異なる第2の時間経過後に撮像部によって撮像が行われる。
 本技術に係るプログラムは、撮像制御装置に、
 第1のオブジェクト、第2のオブジェクト、及び第3のオブジェクトを含む撮像ガイダンスを表示部の画面上に表示させるステップと、
 前記第1のオブジェクト、前記第2のオブジェクト及び前記第3のオブジェクトに対するユーザ操作の検出を判断するステップと、
 前記第1のオブジェクトに対するユーザ操作が検出されたとき、撮像部に撮像を行わせるステップと、
 前記第2のオブジェクトへのユーザ操作が検出されたとき、ユーザ操作が検出されてから第1の時間経過後に前記撮像部に撮像を行わせるステップと、
 前記第3のオブジェクトへのユーザ操作が検出されたとき、前記第3のオブジェクトへのユーザ操作が検出されてから第1時間とは異なる第2の時間経過後に撮像部に撮像を行わせるステップとを実行させる。
 以上のように、本技術によれば、自分撮りを行う場合に、即時シャッタ機能による撮像を行うか、セルフタイマ機能による撮像を行うかをユーザが即時性を持って直感的に選択することが可能な撮像制御装置などの技術を提供することができる。
本技術の一実施形態に係るデジタルカメラの外観構成を示す正面図である。 本技術の一実施形態に係るデジタルカメラの外観構成を示す背面図である。 表示部及び撮像部が同じ側に配置されているときの様子を示す図である。 デジタルカメラの内部構成を示す機能的なブロック図である。 本技術の一実施形態に係るデジタルカメラの処理を示すフローチャートである。 本技術の一実施形態に係るデジタルカメラの処理を示すフローチャートである。 ユーザがデジタルカメラを自分撮りモードに設定して、自分撮りを行っているときの様子を示す図である。 顔の位置にフォーカスが合わされたときの様子を示す図である。 ライブビュー画像に重畳して表示される撮像ガイダンスの一例を示す図である。 ライブビュー画像に重畳して表示されるカウントダウンガイダンスの一例を示す図である。 タッチ操作が検出された位置に応じて、撮像ガイダンスの表示態様を変化させる場合の一例を示す図である。 タッチ操作が検出された位置に応じて、撮像ガイダンスの表示態様を変化させる場合の一例を示す図である。 タッチ操作が検出された位置に応じて、撮像ガイダンスの表示態様を変化させる場合の一例を示す図である。
 以下、本技術に係る各実施形態を、図面を参照しながら説明する。
〈第1実施形態〉
[デジタルカメラ100の全体構成及び各部の構成]
 図1は、本技術の第1実施形態に係るデジタルカメラ100の外観構成を示す正面図である。図2は、デジタルカメラ100の外観構成を示す背面図である。本実施形態に係るデジタルカメラ100(撮像制御装置)は、静止画を撮像可能なデジタルスチルカメラである。なお、このデジタルカメラ100は、静止画に加えて、動画を撮像可能なように構成することもできる。
 図1及び図2に示すように、デジタルカメラ100は、ユーザが携帯及び撮像を行いやすいように、ユーザが片手で把持することができる程度の大きさとされており、全体として矩形の平板状の形状を有している。デジタルカメラ100は、デジタルカメラ本体10と、デジタルカメラ本体10に対して回転可能に設けられた回転体20とを備えている。
 デジタルカメラ本体10の背面側には、表示部11が設けられている。この表示部11は、例えば、液晶ディスプレイや、有機EL(EL:Electro luminescence)ディスプレイなどにより構成されている。
 表示部11の画面上には、ユーザの指の接触を検出するタッチセンサ12が設けられている。タッチセンサ12は、ユーザ操作を入力する操作部15の一部を構成する。タッチセンサ12の方式としては、例えば、静電容量方式、抵抗膜方式等が挙げられるが、タッチセンサ12の方式は特に限定されない。
 また、デジタルカメラ本体10の側面には、シャッタボタン13が設けられている。このシャッタボタン13は、画像データを静止画データとして記録するための操作部15である。
 回転体20は、デジタルカメラ本体10に対してZ方向(短手方向)の軸を中心軸として回転可能に設けられている。回転体20には、撮像部21及びフラッシュライト22が設けられている。フラッシュライト22は、周囲が暗い場合に、被写体に対して光を照射する部材である。
 デジタルカメラ100は、回転体20を180°回転させることによって、表示部11及び撮像部21が反対側に配置される状態と、表示部11及び撮像部21が同じ側に配置される状態とを任意に切り換えることが可能とされている。図3には、表示部11及び撮像部21が同じ側に配置されているときの様子が示されている。
 なお、図1~図3に示す例では、回転体20がZ方向の軸を中心軸として回転可能である場合が示されているが、回転体20は、Y方向(長手方向)の軸を中心軸として回転可能に構成されていてもよい。
 典型的には、ユーザは、ユーザの前に広がる景色や、ユーザの前にいる他人を撮像する場合など、通常のカメラと同様の使用方法でデジタルカメラ100を使用する場合には、表示部11及び撮像部21を反対側にしてデジタルカメラ100を使用する(図1、2参照)。一方、ユーザは、自分撮りを行う場合には、表示部11及び撮像部21を同じ側に配置して撮像を行う(図3参照)。
 なお、表示部11及び撮像部21が反対側に配置されているとき、デジタルカメラ100は、撮像モードを標準撮像モードに設定している。一方、表示部11及び撮像部21が反対側に配置されているとき、デジタルカメラ100は、撮像モードを自分撮りモードに設定している。
 図1~3に示す例では、操作部15のうちシャッタボタン13及びタッチセンサ12のみが示されているが、操作部15は、電源スイッチ、メニューボタン、十字キー、決定ボタンなどの各種の操作部15を含む。
 電源スイッチは、デジタルカメラ100の電源のON/OFFを切替えるための操作部15である。また、メニューボタンは、表示部11にメニュー画面を表示させるための操作部15である。十字キーは、メニュー画面においてカーソルを移動させるための操作部15であり、決定ボタンは、カーソルで選択されている項目を決定するための操作部15である。
 なお、図1~図3において図示を省略しているが、デジタルカメラ100には、可動式のスタンドが設けられている。この可動式のスタンドは、自分撮りを行う場合に、デジタルカメラを任意の位置(例えば、テーブル上など)に置くときに使用される。
 図4は、デジタルカメラ100の内部構成を示す機能的なブロック図である。図4に示すように、デジタルカメラ100は、撮像部21と、制御部31と、表示部11と、画像記憶部14と、操作部15と、記憶部16と、通信部17と、回転角検出部18と、フラッシュライト22とを備えている。
 撮像部21は、レンズ系23と、絞り24と、撮像素子25とを含む。制御部31は、システムコントローラ32と、レンズドライバ33と、タイミングジェネレータ(TG)34と、アナログ信号処理部35と、A/D変換部36と、デジタル信号処理部37とを含む。
 レンズ系23は、ズームレンズ、フォーカスレンズ等の各種のレンズを含み、これらのレンズによって、被写体光を撮像素子25の露光面に結像させる。絞り24は、その開度を調整することにより機械的に被写体光の光量を調整することが可能に構成されている。図1に示す例では、絞り24は、レンズ系23の後方に配置されているが、絞り24は、レンズ系23の内部における光路内(例えば、ズームレンズとフォーカスレンズとの間)に配置されていてもよい。
 レンズドライバ33は、システムコントローラ32からの指示に応じて、ズームレンズ、フォーカスレンズの位置を制御したり、絞り24の開度を制御したりする。
 撮像素子25は、CMOS(Complementary Metal Oxide Semiconductor)センサや、CCD(Charge Coupled Device)センサなどにより構成されている。撮像素子25は、複数の画素(R画素、G画素、B画素)を有しており、露光面に入射された被写体光を画素毎に光電変換により電子信号に変換し、得られた3原色信号(R、G、B)をアナログ画像データとしてアナログ信号処理部35へ出力する。
 タイミングジェネレータ34(TG)は、システムコントローラ32からの指示に応じて撮像素子25の駆動に必要な駆動パルスを生成して撮像素子25に供給する。このタイミングジェネレータ34によって撮像素子25が駆動されることで被写体像が撮像され、被写体像の画像が取得される。また、タイミングジェネレータ34によって撮像素子25のシャッタスピードが調整されることによって露光時間が制御される。
 アナログ信号処理部35は、撮像素子25から出力された画像信号に対して、CDS処理(CDS:Correlated Double Sampling)や、ゲイン処理などを実行する。
 A/D変換部36は、アナログ信号処理部35から出力されたアナログ画像データをデジタル画像データに変換して、デジタル信号処理部37へ出力する。
 デジタル信号処理部37は、例えば、DSP(digital Signal Processor)などにより構成されている。デジタル信号処理部37は、A/D変換部36から出力されたデジタル画像データに対して、ノイズ除去処理、ホワイトバランス調整処理、色補正処理、エッジ強調処理、ガンマ補正処理などの各種のデジタル信号処理を実行する。そして、デジタル信号処理部37は、これらの処理が施された画像データを表示部11に対して出力する。また、デジタル信号処理部37は、上記処理が施された画像データを、撮像タイミングに合わせて画像記憶部14に出力する。
 また、デジタル信号処理部37は、自分撮りモードにおいて、システムコントローラ32からの指示に応じて、自分撮りを行うときに用いられる撮像ガイダンス1(図9参照)を表示部11に表示させるための処理を実行する。
 表示部11上には、ライブビュー画像や、再生画像、メニュー画面などが表示される。
 ライブビュー画像は、ユーザが画角を確認するために表示部11上に表示される画像である。ライブビュー画像は、デジタル信号処理部37から出力された画像データがリアルタイムに表示されることによって、画面上に表示される。再生画像は、撮像された静止画をユーザが確認するために表示部11上に表示される画像である。再生画像は、静止画として画像記憶部14に記憶された画像が読みだされて表示されることによって、画面上に表示される。メニュー画面は、ユーザが撮像に関する各種のパラメータを設定するために画面上に表示される。
 ユーザは、メニュー画面上において、例えば、ズーム率、フォーカス位置、絞り24の開度、シャッタスピード、輝度、ホワイトバランス、フラッシュライト22のON/OFFなどを設定することが可能とされている。
 画像記憶部14は、デジタル信号処理部37から出力された画像データや、その画像データに関連するメタデータ(例えば、その画像データが取得された日時等)を記憶する。画像記憶部14は、例えば、半導体メモリ、光ディスク、HD(hard Disc)などにより構成される。画像記憶部14は、デジタルカメラ100の内部に固定されていてもよいし、デジタルカメラ100に対して着脱可能に構成されていてもよい。
 システムコントローラ32は、例えば、CPU(Central Processing Unit)などにより構成されており、デジタルカメラ100の各部を統括的に制御する。このシステムコントローラ32の具体的な処理については、動作説明の欄において後に詳述する。
 記憶部16は、制御部31の処理に必要な各種のプログラムや、各種のデータが固定的に記憶されている不揮発性のメモリ(例えば、ROM(Read Only memory))を含む。また、記憶部16は、システムコントローラ32の作業領域として用いられる揮発性のメモリ(例えば、RAM(Random Access Memory))を含む。上記プログラムは、光ディスク、半導体メモリ等の可搬性の記録媒体から読み取られてもよいし、ネットワーク上のサーバ装置からダウンロードされてもよい。
 通信部17は、無線LAN機能(例えば Wi-fi:wireless fidelity)を有している。デジタルカメラ100は、通信部17による無線LAN機能を使用して、無線LAN機能を有する他の装置との間で情報を送受信することが可能とされている。
 回転角検出部18は、デジタルカメラ本体10に対する回転体20の回転角を検出し、検出された回転角をシステムコントローラ32に出力する。この回転角検出部18は、例えば、ロータリエンコーダにより構成されている。回転角は、表示部11と撮像部21とが反対側に配置されている状態(図1、2参照)が基準(0°)に設定されており、表示部11と撮像部21とが同じ側に配置されている状態(図3参照)が180°に設定されている。
 [動作説明]
 次に、第1実施形態に係るデジタルカメラ100による処理について具体的に説明する。図5及び図6は、第1実施形態に係るデジタルカメラ100の処理を示すフローチャートである。
 図5を参照して、まず、システムコントローラ32は、回転角検出部18によって検出された回転角の情報に基づいて、撮像モードを標準撮像モード又は自分撮りモードのいずれかに設定する(ステップ101)。
 具体的には、システムコントローラ32は、表示部11と撮像部21とが反対側に配置されている場合(図1、2参照)、回転角検出部18からの回転角の情報(0°)に基づいて、撮像モードを標準撮像モードに設定する。一方、システムコントローラ32は、表示部11と撮像部21とが同じ側に配置されている場合(図3参照)、回転角検出部18からの回転角の情報(180°)に基づいて、撮像モードを自分撮りモードに設定する。
 次に、システムコントローラ32は、現在の撮像モードが自分撮りモードであるかどうかを判定する(ステップ102)。現在の撮像モードが自分撮りモードではない場合(ステップ102のNO)、つまり、現在の撮像モードが標準撮像モードである場合、標準撮像モードに応じた処理が実行される(ステップ103)。
 標準撮像モードにおいては、撮像素子25により撮像された画像データが、アナログ信号処理部35、A/D変換部36、デジタル信号処理部37によって処理されてライブビュー画像として表示部11上に表示される。ユーザは、ライブビュー画像を確認しながら画角を調整し、シャッタボタン13を押す。
 シャッタボタン13が押されると、システムコントローラ32は、シャッタボタン13が押されたタイミングに合わせて、画像データを画像記憶部14に出力するようにデジタル信号処理部37に指示を出す。画像記憶部14は、デジタル信号処理部37から出力された画像データを静止画として記憶する。標準撮像モードにおいては、このようにして静止画が撮像される。なお、本実施形態の説明において、静止画の「撮像」とは、撮像部21によって取得された、ライブビュー画像としても使用される画像データの中から、任意の画像データが、シャッタボタン13や、表示部11上のオブジェクト2、3、4(図9参照)等に対する操作に応じて特定されることを意味する。
 なお、本実施形態においては、現在の撮像モードが標準撮像モードである場合には、現在のモードが自分撮りモードである場合とは異なり、後述の撮像ガイダンス1(図9参照)は、画面上に表示されない。但し、標準撮像モードにおいても、後述の撮像ガイダンス1が画面上に表示されてもよく、この撮像ガイダンス1に対するユーザ操作に応じて撮像が行われてもよい。
 ステップ102において、現在のモードが自分撮りモードである場合(ステップ102のYES)、システムコントローラ32は、ステップ104以降の処理を実行する。
 図7には、ユーザがデジタルカメラ100を自分撮りモードに設定して、自分撮りを行っているときの様子が示されている。図7に示す例では、ユーザがデジタルカメラ100を左手に持ち、ユーザの正面において斜め上方から自分を撮像するときの様子が示されている。
 なお、本実施形態では、被写体がユーザ一人だけである場合について説明するが、例えば、そのユーザ及び数人の友人を被写体とすることも可能である。
 再び図5を参照して、システムコントローラ32は、表示部11の画面に対するタッチ操作(所定のユーザ操作)がタッチセンサ12により検出されたかどうかを判定する(ステップ104)。
 なお、自分撮りモードである場合についても標準撮像モードと同様に、撮像素子25により撮像された画像データが、アナログ信号処理部35、A/D変換部36、デジタル信号処理部37によって処理されてライブビュー画像として表示部11上に表示される。従って、自分撮りモードにおいても、ユーザは、ライブビュー画像を確認しながら画角を調整することができる。
 画面に対するタッチ操作が検出されない場合(ステップ104のNO)、システムコントローラ32は、ステップ101へ戻り、回転角検出部18によって検出された回転角の情報に基づいて、撮像モードを標準撮像モード又は自分撮りモードのいずれかに設定する。
 一方、画面に対するタッチ操作が検出された場合(ステップ104のYES)、システムコントローラ32は、タッチ操作が検出された位置に対応した、ライブビュー画像における被写体の位置にフォーカスを合わせるように撮像部21(フォーカスレンズの位置)を制御する(ステップ105)。
 すなわち、ステップ105において、システムコントローラ32は、AF処理(AF:Auto Focus)を実行する。AF処理としては、典型的にはコントラストAF方式が用いられるが、位相差AF方式が用いられても構わない。なお、位相差AF方式が用いられる場合には、ミラーや、焦点検出用センサがデジタルカメラ100に追加される。
 図7、図8を参照して、これらの図では、ユーザが、デジタルカメラ100を把持している左手の親指で顔が写っている位置をタッチし、顔の位置にフォーカスが合わされたときの様子が示されている。このように、本実施形態では、ユーザは、画面上の任意の位置をタッチ操作することで、任意の被写体の位置にフォーカスを合わせることができる。
 再び図5を参照して、システムコントローラ32は、AF処理を実行すると、次に、タッチ操作された位置を基準点に設定する(ステップ106)。そして、基準点を基準として、自分撮りを行うための撮像ガイダンス1を画面上に表示させるように、デジタル信号処理部37に指示を出す(ステップ107)。これにより、表示部11の画面上においてライブビュー画像に重畳して撮像ガイダンス1が表示される。
 なお、ここでの例では、AF処理の後に、撮像ガイダンス1の表示処理が実行されているが、AF処理と並行して撮像ガイダンス1の表示処理が実行されてもよい。
 図9は、ライブビュー画像に重畳して表示される撮像ガイダンス1の一例を示す図である。図9に示すように、撮像ガイダンス1は、シャッタオブジェクト2(第1のオブジェクト)と、5つのタイマオブジェクト3(第2のオブジェクト、第3のオブジェクト)と、連写オブジェクト4(第4のオブジェクト)とを含む。ここで、オブジェクトとは、画面上に表示されるユーザーインターフェイスであり、例えば、図形、線分、アイコン、文字などを含む。また、オブジェクトは、視認可能なものに限られない。例えば、オブジェクトは、特定の表示がされない画面上の所定の領域として設定されていていてもよい。
 図9に示す例では、これらのオブジェクト2、3、4は、基準点を中心とした円周上に配置されている。なお、各オブジェクトの配置の説明では、円周における12時の方向を0°とし、時計回りに角度が増えるものとして説明する。
 シャッタオブジェクト2は、即時シャッタ機能による撮像を行うためのオブジェクトである。図9に示す例では、シャッタオブジェクト2は、撮像ガイダンス1の円周上において0°の位置(12時の位置)に配置されている。また、シャッタオブジェクト2の図形としては、カメラの図形が採用されている。なお、シャッタオブジェクト2の図形としては、ユーザが即時シャッタ機能を想起しやすい図形であればどのような図形であっても構わない。
 5つのタイマオブジェクト3は、セルフタイマ機能による撮像を行うためのオブジェクトである。図9に示す例では、5つのタイマオブジェクト3は、撮像ガイダンス1の円周上において、右上の位置から下側にかけて等間隔(36°間隔)に配置されている。この5つのタイマオブジェクト3には、それぞれ異なるカウント期間が割り当てられており、時計回りに順番に、カウント期間が1秒、2秒、3秒、4秒、5秒(第1の時間、第2の時間)とされている。
 図9に示す例では、1秒~4秒のカウント期間に対応する4つのタイマオブジェクト3の図形として黒丸が採用され、5秒のカウント期間に対応するタイマオブジェクト3(6時の位置に配置されたオブジェクト)の図形としてストップウォッチの図形が採用されている。なお、タイマオブジェクト3の図形としては、ユーザがセルフタイマ機能を想起しやすい図形であればどのような図形であっても構わない。例えば、各タイマオブジェクト3は、秒数を表す図形によって構成されていてもよい。
 なお、以降の説明では、5つのタイマオブジェクトを特に区別する必要がある場合、時計回りに順番に、第1、第2、第3、第4、第5のタイマオブジェクト3a、3b、3c、3d、3eと呼ぶ。
 連写オブジェクト4は、連写機能(所定間隔毎に連続して撮像を行う機能)による撮像を行うためのオブジェクトである。図9に示す例では、連写オブジェクト4は、撮像ガイダンス1の円周上において270°の位置(9時の位置)に配置されている。また、連写オブジェクト4の図形として四角形(写真を連想させる図形)を重ね合わせた図形が採用されている。なお、連写オブジェクト4の図形としては、ユーザが連写機能を想起しやすい図形であればどのような図形であっても構わない。
 また、撮像ガイダンス1においては、撮像ガイダンス1の中心から上下左右の4方向に向けて矢印の図形が配置されている。この矢印の図形は、その方向に指をスライドさせることをユーザにガイドするための図形である。
 図6を参照して、システムコントローラ32は、撮像ガイダンス1を画面上に表示させると、次に、タッチセンサ12からの出力に基づいて、タッチ操作が解除されたかどうかを判定する(ステップ108)。
 タッチ操作が解除された場合(ステップ108のYES)、システムコントローラ32は、画面上から撮像ガイダンス1を消去するようにデジタル信号処理部37に指示を出す(ステップ109)。これにより、ユーザが画面から指を離すと、撮像ガイダンス1が画面上から消去される。
 すなわち、ユーザは、画面上の任意の位置をタッチ操作することでその位置に撮像ガイダンス1を表示させることができ、タッチ操作を解除することで撮像ガイダンス1を画面上から消去することができる。つまり、ユーザは、必要に応じて撮像ガイダンス1を画面上に表示させることができる。
 撮像ガイダンス1が画面上から消去されると、システムコントローラ32は、ステップ104へ戻り、再びタッチ操作が検出されたかどうかを判定する。
 タッチ操作が解除されていない場合(ステップ108のNO)、システムコントローラ32は、タッチセンサ12からの出力に基づいて、画面上でフリック操作が検出されたかどうかを判定する(ステップ110)。ここで、フリック操作とは、ユーザが指を画面上でスライドさせ、スライドさせた指の勢いを殺さずに徐々に指を画面から離す操作のことを意味する。
 フリック操作が検出されない場合(ステップ110のNO)、システムコントローラ32は、ステップ108へ戻り、再びタッチ操作が解除されたかどうかを判定する。
 フリック操作が検出された場合(ステップ110のYES)、システムコントローラ32は、撮像ガイダンス1を消去する(ステップ111)。その後、システムコントローラ32は、フリック操作の方向に応じて、そのフリック操作がシャッタオブジェクト2に対するフリック操作であるかを判定する(ステップ112)。
 ステップ112では、システムコントローラ32は、フリック操作の方向が0°の方向(12時の方向)である場合に、シャッタオブジェクト2に対するフリック操作が検出されたと判定する。なお、フリック操作の方向は、厳密に0°の方向である必要はなく、フリック操作の方向にはある程度の余裕がある。本実施形態では、フリック操作の方向が0°の方向に対して±18°の範囲内にある場合には、シャッタオブジェクト2に対するフリック操作が検出されたと判定される。
 フリック操作がシャッタオブジェクト2に対するフリック操作である場合(ステップ112のYES)、システムコントローラ32は、即時シャッタ機能による撮像を行う(ステップ113)。即時シャッタ機能による撮像においては、システムコントローラ32は、フリック操作が検出されたタイミングに合わせてデジタル信号処理部37に指示を出し、デジタル信号処理部37から画像記憶部14に画像データを出力させる。画像記憶部14は、デジタル信号処理部37から出力された画像データを静止画データとして記憶する。
 このような処理により、ユーザは、画面を指でタッチ操作して画面から指を離さずに所定の方向(0°±18°)にフリック操作を行うことによって、即時シャッタ機能による撮像を行うことができる。
 ここで、フリック操作の際にデジタルカメラ100を把持している手が振れてしまい、ユーザがライブビュー画像を見ながら調整した画角がずれてしまう場合がある。この手振れの影響を排除するために、システムコントローラ32は、即時シャッタ機能による撮像において、フリック操作が検出された直後ではなく、フリック操作が検出された時点から所定時間(セルフタイマ機能における最も短いカウント期間(1秒)よりも短い時間(例えば、0.5秒程度))の経過後に撮像を行ってもよい。
 即時シャッタ機能による撮像を行うと、システムコントローラ32は、ステップ104へ戻り、再びタッチ操作が検出されたかどうかを判定する。
 フリック操作がシャッタオブジェクト2に対するフリック操作ではない場合(ステップ112のNO)、システムコントローラ32は、フリック操作がタイマオブジェクト3に対するフリック操作であるかどうかを判定する(ステップ114)。
 ステップ114では、システムコントローラ32は、フリック操作の方向が36°±16°、72°±16°、108°±16°、144°±16°、180°±16°である場合に、それぞれ順番に、第1、第2、第3、第4、第5のタイマオブジェクト3a、3b、3c、3d、3eに対するフリック操作が検出されたと判定する。
 第1、第2、第3、第4、第5のタイマオブジェクト3a、3b、3c、3d、3eに対するフリック操作が検出された場合(ステップ114のYES)、システムコントローラ32は、そのフリック操作が検出されてから1秒後、2秒後、3秒後、4秒後、5秒後に撮像を行う。つまり、システムコントローラ32は、セルフタイマ機能による撮像を行う(ステップ115)。
 セルフタイマ機能による撮像においては、システムコントローラ32は、フリック操作が検出されたとき、フリック操作の対象となったタイマオブジェクト3に対応する秒数のカウント値をタイマ(図示せず)に設定する。そしてシステムコントローラ32はタイマによるカウントダウン(カウントアップでもよい)を開始する。
 タイマによるカウント期間においては、カウント期間中であることを示すカウントダウンガイダンス5がプレビュー画像に重畳して表示される。図10は、カウントダウンガイダンス5の一例を示す図である。図10には、第5のタイマオブジェクト3eに対するフリック操作が検出され、5秒間のカウントダウンが実行される場合に画面上に表示されるカウントダウンガイダンス5の一例が示されている。
 カウントダウンガイダンス5は、撮像ガイダンス1と同様に、タッチ操作が検出された位置を基準とした位置に配置される。このカウントダウンガイダンス5は、その中央の位置に、撮像が行われるまでの残りの秒数を示す数字オブジェクト6を有している。
 また、カウントダウンガイダンス5は、基準点を中心とした円の円周上にカウントダウンオブジェクト7を有している。このカウントダウンオブジェクト7は、撮像ガイダンス1におけるシャッタオブジェクト2、タイマオブジェクト3の配置位置に対応する位置に配置されている。図10に示す例では、カウントダウンオブジェクト7は、白丸の図形とされていているが、カウントダウンオブジェクト7はどのような図形であっても構わない。
 カウントダウンオブジェクト7は、カウントダウンが1秒進む度に、反時計回りに1つずつ表示が変化される。図10では、カウントダウンが1秒進む度に、白丸の図形が半透明の白丸に変化する場合の一例が示されている。なお、表示の変化の方法は適宜変更することができる。例えば、撮像が行われるまでの残りの秒数に対応するカウントダウンオブジェクト7を強調表示させ、カウントダウンが1秒進む度に、1つずつ強調表示を終了させるといった方法が用いられてもよい。
 ユーザは、数字オブジェクト6や、カウントダウンオブジェクト7を視認することで、撮像が行われるまでの残り秒数が何秒であるかを容易に把握することができる。なお、図10に示す例では、タイマによるカントダウン中であることをユーザに示すために、画面の左上の位置にストップウォッチの図形が表示されている。
 システムコントローラ32は、タイマによるカウントダウンがゼロになると、このタイミングに合わせてデジタル信号処理部37に指示を出し、デジタル信号処理部37から画像記憶部14に画像データを出力させる。画像記憶部14は、デジタル信号処理部37から出力された画像データを静止画データとして記憶する。
 このような処理により、ユーザは、画面を指でタッチして画面から指を離さずに所定の方向(36°±16°、72°±16°、108°±16°、144°±16°、180°±16°)にフリック操作を行うことによって、セルフタイマ機能による撮像を行うことができる。また、このとき、ユーザは、フリック操作の方向に応じて、タイマによるカウント期間を任意に選択することができる。
 セルフタイマ機能による撮像を行うと、システムコントローラ32は、その後、ステップ104へ戻り、再びタッチ操作が検出されたかどうかを判定する。
 フリック操作がタイマオブジェクト3に対するフリック操作ではない場合(ステップ114のNO)、システムコントローラ32は、フリック操作が連写オブジェクト4に対するフリック操作であるかどうかを判定する(ステップ116)。
 ステップ116では、システムコントローラ32は、フリック操作の方向が270°±16°の範囲内にある場合に、連写オブジェクト4に対するフリック操作が検出されたと判定する。
 フリック操作が連写オブジェクト4に対するフリック操作である場合(ステップ116のYES)、システムコントローラ32は、連写機能による撮像を行う(ステップ117)。
 連写機能による撮像においては、システムコントローラ32は、まず、フリック操作が検出されたタイミングに合わせてデジタル信号処理部37に指示を出し、デジタル信号処理部37から画像記憶部14に画像データを出力させる。画像記憶部14は、デジタル信号処理部37から出力された画像データを静止画データとして記憶する。これにより、1枚目の静止画データが取得される。
 なお、この1枚目の静止画の撮像においては、手振れの影響を排除するために、フリック操作が検出された直後ではなく、フリック操作が検出された時点から短時間(例えば、0.5秒程度)経過後に撮像が行われてもよい。あるいは、セルフタイマ機能による撮像と同様に1秒~5秒程度の時間が経過した後に撮像が行われてもよい。
 1枚目の静止画が撮像されると、システムコントローラ32は、タイマに所定のカウント値(例えば、3秒~5秒程度)を設定し、タイマによるカウントダウン(カウントアップでもよい)を実行する。そして、システムコントローラ32は、タイマによるカウントダウンが終了したタイミングに合わせてデジタル信号処理部37に指示を出し、デジタル信号処理部37から画像記憶部14に画像データを出力させる。画像記憶部14は、デジタル信号処理部37から出力された画像データを静止画データとして記憶し、これにより、2枚目の静止画データが取得される。
 3枚目以降の静止画は、2枚目の静止画と同様にして撮像が行われる。このような処理により、所定の時間間隔(第1の時間間隔:3秒~5秒間隔)で連続して撮像が行われる。そして、あらかじめ設定された枚数(例えば、5枚~10枚程度)の静止画の撮像が終了すると、システムコントローラ32は、連写機能による撮像を終了し、再びステップ104へ戻る。
 このような処理により、ユーザは、画面を指でタッチ操作して画面から指を離さずに所定の方向(270°±16°)フリック操作を行うことによって、連写機能による撮像を行うことができる。
 なお、本実施形態においては、連写機能による撮像において、撮像が行われてから次の撮像が行われるまでの期間が3秒~5秒程度と比較的長い期間に設定されている。このため、ユーザは、この期間において、顔の表情やポージングを変えることができる。
 撮像が行われてから次の撮像が行われるまでの期間(最初の撮像においてセルフタイマ機能と同様のカウント期間が設定される場合には、この期間も含む)において、顔の表情及びポージングのうち少なくとも一方をユーザにガイドする表情/ポージングガイダンスが画面上に表示されてもよい。
 この表情/ポージングガイダンスは、各種の顔の表情や各種のポージングをとったキャラクタの画像(あるいは、実際の人物の画像)である。この表情/ポージングガイダンスは、例えば、画面上の端の位置にライブビュー画像に重畳して表示される。
 あるいは、表情/ポージングガイダンスは、顔の表情や、ポージングにおける特徴部分の輪郭線である。この場合、表情/ポージングガイダンスは、画面上に写っている被写体における対応する位置(例えば、顔の表情のうち口に特徴がある場合には、ライブビュー画像における口の位置)に表示される。
 顔の表情の一例としては、例えば、「アヒル口」(口を横方向に広げつつ上唇を少し突き出すアヒルのような口の形)、「チュン顔」(少し口を開いて少し唇を突き出す雀のような口の形)、「テヘペロ」((何かに失敗して)恥ずかしそうな表情をしながら舌を出す表情)、「困り顔」、「びっくり顔」などが挙げられる。
 また、ポージングの一例としては、「Vサイン」、「敬礼」、「手の平を頬に当てるポーズ」、「静かにのポーズ」(人差し指を鼻先につけるポーズ)、「猫のポーズ」(手の平が見える程度に指を軽く畳んで手のひらを撮像部21側に向けるポーズ)などが挙げられる。なお、顔の表情とポージングとが組み合わされてもよい(例えば、アヒル口をしながらVサイン等)。
 表情/ポージングガイダンスは、撮像が行われる度に異なる表情/ポージングに順次切り替えられる。ユーザは、このガイダンスに従って顔の表情やポージングをとることで、次にどのような表情やポージングをとるかを迷うことなく、様々な表情、ポージングの画像を取得することができる。
 なお、連写機能による撮像に限られず、上述のセルフタイマ機能による撮像においても、表情/ポージングガイダンスが画面上に表示されてもよい。また、連写機能による撮像において、カウントダウンガイダンス5(図10参照)が(単独であるいは表情/ポージングガイダンスとともに)画面上に表示されてもよい。
 ここでの説明では、連写機能による撮像において、タイマによるカウント期間が予め設定されている場合について説明した。一方、連写機能による撮像におけるカウント期間は、セルフタイマ機能によるカウント期間と同様にフリック操作の方向に応じて決定されてもよい。つまり、連写機能と、(時間毎の)セルフタイマ機能とが組み合わされてもよい。
 この場合、撮像ガイダンス1における円周上(例えば、左半分)に、複数の連写・タイマオブジェクト(第4のオブジェクト、第5のオブジェクト)が等間隔(例えば、36°間隔)に配置される。これらの連写・タイマオブジェクトには、それぞれ異なるカウント期間(第1の時間間隔、第2の時間間隔)が割り当てられている。
 そして、複数の連写・タイマオブジェクト3のうち1つの連写・タイマオブジェクトに対するフリック操作が検出されると、システムコントローラ32は、次に撮像が行われるまでのカウント期間を、その連写・タイマオブジェクトに対応するカウント期間に設定する。
 例えば、5秒に対応する連写・タイマオブジェクトに対応するフリック操作が検出された場合、システムコントローラ32は、5秒間隔で連写機能による撮像を行う(最初の撮像については、即座に撮像が行われてもよいし、5秒のカウント期間の経過後に撮像が行われてもよい)。これにより、ユーザは、連写機能による撮像における間隔を、フリック操作の方向に応じて任意に設定することができる。
 また、ここでの説明では、連写機能により取得される静止画の枚数が予め決定されている場合について説明した。一方、この静止画の枚数がフリック操作の方向に応じて決定されてもよい。
 この場合、撮像ガイダンス1における円周上(例えば、左半分)に、それぞれ異なる枚数が割り当てられた複数の連写・枚数オブジェクトが等間隔(例えば、36°間隔)に配置される。そして、複数の連写・枚数オブジェクトのうち1つの連写・枚数オブジェクトに対するフリック操作が検出されると、システムコントローラ32は、その連写・枚数オブジェクトに対応する枚数の静止画が取得されるまで、連写機能による撮像を行う。これにより、ユーザは、連写機能による撮像において取得される静止画の枚数を、フリック操作の方向に応じて任意に設定することができる。
 〈作用等〉
 以上説明したように、本実施形態においては、ユーザは、画面上に表示されている各オブジェクトのうち、シャッタオブジェクト2に対するフリック操作を行うことで即時シャッタ機能による撮像(自分撮り)を行うことができる。また、ユーザは、タイマオブジェクト3に対するフリック操作を行うことで、セルフタイマ機能による撮像(自分撮り)を行うことができる。
 これにより、ユーザは、自分撮りを行う場合に、即時シャッタ機能による撮像を行うか、セルフタイマ機能による撮像を行うかを、即時性を持って直感的に選択することができる。
さらに、本実施形態では、複数のタイマオブジェクト3においてそれぞれ異なるカウント期間が割り当てられている。このため、ユーザは、セルフタイマ機能によるカウント期間を、フリック操作の方向に応じて任意に選択することもできる。
 また、本実施形態では、ユーザは、撮像の都度、即時シャッタ機能による撮像を行うか、セルフタイマ機能による撮像を行うかを自由に選択することができ、また、撮像の都度、セルフタイマ機能によるカウント期間を任意に選択することができる。
 ユーザは、本実施形態に係るデジタルカメラ100を用いて楽しみながら自分撮りを行うことができ、ユーザ体験が向上する。特に、本実施形態に係るデジタルカメラ100では、自分撮りを行うときの操作が簡単であり、歩きながら自分撮りを行うことにも適している。
 〈第2実施形態〉
 次に、本技術の第2実施形態について説明する。なお、第2実施形態以降の説明では、上述の第1実施形態と同様の機能及び構成を有する各部については同一符号を付し、説明を省略又は簡略化する。
 ここで、上述のように、撮像ガイダンス1は、画面上においてタッチ操作が検出された位置を基準点として表示される。従って、画面上における端の位置がタッチ操作された場合、撮像ガイダンス1を円形状に表示させることが困難となる場合がある。
 そこで、第2実施形態では、タッチ操作が検出された位置(基準点の位置)に応じて、撮像ガイダンス1の表示態様を変化させるといった処理を実行することとしている。
 図11、図12、図13には、タッチ操作が検出された位置に応じて、撮像ガイダンス1の表示態様を変化させる場合の一例が示されている。
 図11には、ユーザが画面内における左端付近をタッチ操作したときの画面上の様子が示されている。図11に示すように、左側の端付近がタッチ操作された場合、タッチされた位置に基準点が設定され、この基準点に対応する位置に撮像ガイダンス1が表示される。この撮像ガイダンス1は、右半分の円周上(円弧の周上)に、シャッタオブジェクト2、5つのタイマオブジェクト3、連写オブジェクト4を有している。図11に示す例では、シャッタオブジェクト2が0°の位置(12時の位置)に配置されており、5つのタイマオブジェクト3が右上から左下に掛けて等間隔に配置されている。また、シャッタオブジェクト2が180°の位置(6時の位置)に配置されている。なお、図11に示す例では、各オブジェクトが配置される円弧は、その中心が基準点(タッチ操作された位置)に一致している。一方、この円弧の中心は、必ずしも基準点に一致している必要はなく、円弧の中心は、例えば、画面外に位置していてもよい。これについては、後述の図12、13において同様である。
 図12には、ユーザが画面内における上側の端付近をタッチ操作したときの画面上の様子が示されている。図12に示すように、上側の端付近がタッチ操作された場合、下半分の円周上(円弧の周上)に、シャッタオブジェクト2、5つのタイマオブジェクト3、連写オブジェクト4が配置される。図12に示す例では、シャッタオブジェクト2が90°の位置(3時の位置)に配置されており、5つのタイマオブジェクト3が右下から左下に掛けて等間隔に配置されている。また、シャッタオブジェクト2が270°の位置(9時の位置)に配置されている。
 図13には、ユーザが画面内における左下の端付近をタッチ操作したときの画面上の様子が示されている。図13に示すように、左下の端付近がタッチ操作された場合、右上1/4の円周上(円弧の周上)に、シャッタオブジェクト2、5つのタイマオブジェクト3、連写オブジェクト4が配置される。図13に示す例では、シャッタオブジェクト2が0°の位置(12時の位置)に配置されており、5つのタイマオブジェクト3が右上の円周上において等間隔に配置されている。また、シャッタオブジェクト2が90°の位置(3時の位置)に配置されている。
 ここで、図9と、図11~図13とを比較すると、シャッタオブジェクト2、5つのタイマオブジェクト3、連写オブジェクト4の相対的な位置は変化しているものの、これらの相対的な位置はできるだけ維持されている。また、5つのタイマオブジェクト3間の間隔もできるだけ維持されている。このため、ユーザは、タッチ操作の位置によらず、一定の操作感覚で各オブジェクトに対する操作を行うことができる。
 なお、図11~図13に示す例では、基準点の位置に対する各オブジェクト2、3、4の位置が変化するため、各オブジェクト2、3、4に対する操作がされたかどうかの判定が行われるときのフリック操作の方向についても当然変化することになる。
 撮像ガイダンス1の表示態様を変化させる他の例として、タッチ操作の位置に応じて、撮像ガイダンス1全体の大きさを変化させるといった方法が挙げられる。この場合、タッチ操作の位置が端に近づくほど、撮像ガイダンス1全体の大きさが小さくなる(基準点に対して各オブジェクトが配置される方向は変化しない)。
〈各種変形例〉
 [撮像ガイダンス1に割り当てられる機能]
 上述の各実施形態の説明では、撮像ガイダンス1において、即時シャッタ機能、セルフタイマ機能及び連写機能が割り当てられる場合について説明した。一方、連写機能については必ずしも割り当てられている必要はなく、省略することもできる。また、撮像ガイダンス1において、連写機能に代えて(あるいは、連写機能に加えて)、他の機能が割り当てられていてもよい。
 撮像ガイダンス1において割り当てることができる他の機能としては、フラッシュライト撮像機能が挙げられる。この場合、撮像ガイダンス1における円周上(例えば、270°の位置)にフラッシュライトオブジェクト(第6のオブジェクト)が配置される。
 そして、システムコントローラ32は、フラッシュライトオブジェクトに対するフリック操作が検出された場合に、フラッシュライト22を発光させつつ撮像部21によって撮像を行わせる(即時シャッタ)。
 また、フラッシュライト撮像機能と、(時間毎の)セルフタイマ機能とを組み合わせることもできる。この場合、例えば、複数のフラッシュ・タイマオブジェクトが、撮像ガイダンス1の円周上(例えば、左半分)に等間隔で配置される。この複数のフラッシュ・タイマオブジェクトには、それぞれ異なるカウント期間が設定されている。そして、フリック操作が検出されると、フリック操作の対象となったフラッシュ・タイマオブジェクトに対応する秒数のカウント期間が設定され、カントダウン終了時にフラッシュライト撮像が行われる。
 さらに、フラッシュライト撮像機能と、連写機能とを組み合わせることもできる。この場合、例えば、フラッシュ・連写オブジェクトが、撮像ガイダンス1の円周上(例えば、270°の位置)に配置される。そして、フラッシュ・連写オブジェクトに対するフリック操作が検出されると、所定の時間間隔(3秒~5秒間隔)で連続してフラッシュライト撮像が行われる。
 フラッシュライト撮像機能と、連写機能と、(時間毎の)セルフタイマ機能とが組み合わされてもよい。この場合、例えば、複数のフラッシュ・連写・タイマオブジェクトが、撮像ガイダンス1の円周上(例えば、左半分)に等間隔で配置される。この複数のフラッシュ・連写・タイマオブジェクトには、それぞれ異なるカウント期間が設定されている。そして、フリック操作が検出されると、フリック操作の対象となったフラッシュ・連写・タイマオブジェクトに対応するカウント期間毎に、フラッシュライト撮像が行われる。
 また、撮像ガイダンス1において割り当てることができる他の機能としては、シャッタスピード調整機能、ズーム率調整機能、フォーカス位置調整機能、絞り24の開度調整機能、輝度調整機能、ホワイトバランス調整機能などが挙げられる。
 これらの各種の調整機能のうち、シャッタスピード調整機能について代表的に説明する。この場合、撮像ガイダンス1における円周上(例えば、左半分)に、各シャッタスピードにそれぞれ対応する複数のシャッタスピードオブジェクトが等間隔に配置される。そして、フリック操作が検出されると、フリック操作の対象となったシャッタスピードオブジェクトに対応する値にシャッタスピードが設定される。
 ユーザは、画面上をタッチ操作して撮像ガイダンス1を表示させ、複数のシャッタスピードオブジェクトのうち任意のシャッタスピードオブジェクトに対するフリック操作を行う。これにより、ユーザはシャッタスピードを任意のシャッタスピードに設定することができる。その後、ユーザは、再び画面上をタッチ操作して撮像ガイダンス1を表示させ、シャッタオブジェクト2(あるいは、タイマオブジェクト3、連写オブジェクト4等)に対するフリック操作を行うことで、設定されたシャッタスピードで撮像を行うことができる。
 なお、ズーム率調整機能、フォーカス位置調整機能、絞り24の開度調整機能、輝度調整機能、ホワイトバランス調整機能については、シャッタスピード調整機能と同様の考え方を適用することができるため、詳細な説明については省略する。
 ここで、撮像ガイダンス1においては、このように各種の機能を割り当てることができるため、1つの撮像ガイダンス1だけでは、任意の機能を配置しきれないことが予想される。従って、異なる機能が割り当てられた複数の撮像ガイダンス1が用意されていてもよい。この場合、ユーザ操作の方法に応じて、異なる撮像ガイダンス1が画面上に表示されてもよい。
 例えば、タッチ操作あるいはタップ操作(画面上をタッチしてすぐに画面から指を離す操作)が検出されたときに、第1の撮像ガイダンス1が画面上に表示される。そして、ダブルタップ操作(タップ操作を2回繰り返す操作)が検出された場合に、第2の撮像ガイダンス1が画面上に表示される。同様にして、nタップ操作が検出された場合に、第nの撮像ガイダンス1が画面上に表示される。
 なお、複数の撮像ガイダンス1のうち、第1の撮像ガイダンス1には、少なくとも、即時シャッタ機能と、セルフタイマ機能とが割り当てられる。ここで、連写機能、フラッシュライト撮像機能(あるいは、セルフタイマ機能、連写機能、フラッシュライト撮像機能のうち少なくとも2以上の組み合わせ)は、撮像を行うという行為に直接的に関連する機能である。
 従って、典型的には、これらの機能については、優先的に第1の撮像ガイダンス1に割り当てられる。あるいは、第1の撮像ガイダンス1に割り当てられない場合には、その機能は、第2の撮像ガイダンス1、第3の撮像ガイダンス1・・に割り当てられる。
 一方、シャッタスピード調整機能、ズーム率調整機能、フォーカス位置調整機能、絞り24の開度調整機能、輝度調整機能、ホワイトバランス調整機能は、撮像を行うという行為に直接的に関連する機能でなく、間接的に撮像に関連する機能である。
 従って、上述の各種の調整機能については、撮像に直接的に関連する機能よりも優先度が低く、典型的には、撮像に直接的に関連する機能が割り当てられた後に、撮像ガイダンス1に割り当てられる。例えば、撮像に直接的に関連する機能の割り当てが第3の撮像ガイダンス1において完了した場合には、第4の撮像ガイダンス1、第5の撮像ガイダンス1・・・において上述の調整機能が割り当てられる。
[撮像ガイダンス1の表示及び消去タイミング]
 上述の例では、タッチ操作が解除されたタイミングで、撮像ガイダンス1が画面上から消去される場合について説明した。一方、タッチ操作が解除されても撮像ガイダンス1が消去されず、撮像ガイダンス1が表示されている位置以外の位置がタッチ操作された場合に、画面上から撮像ガイダンス1が消去されてもよい。
 また、上述の例では、タッチ操作が検出されたタイミングで、画面上に撮像ガイダンス1が表示される場合について説明した。一方、撮像ガイダンス1は、自分撮りモードにおいて、画面上の所定の位置(例えば、画面の端の位置)に常に表示されていてもよい。
[タッチ操作の位置と、撮像ガイダンス1の表示位置との関係]
 上述の説明では、タッチ操作が検出された位置を基準として撮像ガイダンス1が表示される場合について説明した。しかしながら、撮像ガイダンス1はタッチ操作が検出された位置とは無関係な位置に表示されてもよい。例えば、撮像ガイダンス1は、タッチ操作が検出された位置に関わらず、画面の中央や、画面の端の位置など、予め設定された位置に表示されてもよい。なお、この場合、タッチ操作が解除されても撮像ガイダンス1は画面上から消去されない。
 [オブジェクトに対する操作]
 上述の例では、各オブジェクトに対するユーザ操作の一例として、各オブジェクトが配置されている方向へのフリック操作を例に挙げて説明した。一方、各オブジェクトに対する操作は、フリック操作に限られない。例えば、このユーザ操作は、基準点から各オブジェクトが配置されている位置まで指をスライドさせ続ける操作であってもよい。
 あるいは、各オブジェクトに対するユーザ操作は、各オブジェクトに対するタッチ操作、タップ操作、ダブルタップ操作であっても構わない。なお、この場合、撮像ガイダンスは画面上において常に表示されているか、あるいは、撮像ガイダンス1が表示されている位置以外の位置がタッチ操作された場合に画面上から消去される(各オブジェクトに対する操作がなかった場合)。
 あるいは、各オブジェクトに対するユーザ操作は、円周に沿って指をスライドさせて、任意のオブジェクトが表示されている位置で指を離す(あるいは、停止させる)操作であってもよい。図9を参照して、例えば、ユーザは、シャッタオブジェクト2が表示されている位置をタッチ操作した後、円周に沿って時計回りに指をスライドさせ、任意のタイマオブジェクト3が表示されている位置で指を離してもよい。あるいは、ユーザは、第5のタイマオブジェクト3eが表示されている位置をタッチ操作した後、円周に沿って反時計回りに指をスライドさせ、任意のタイマオブジェクト3が表示されている位置で指を離してもよい。
 なお、この場合も、撮像ガイダンス1は画面上において常に表示されているか、あるいは、撮像ガイダンス1が表示されている位置以外の位置がタッチ操作された場合に画面上から消去される(各オブジェクトに対する操作がなかった場合)。
 あるいは、各オブジェクトに対するユーザ操作は、基準点からオブジェクトが配置されている位置まで指をスライドさせる操作と、円周に沿って指をスライドさせる操作との組み合わせであってもよい。図9を参照して、例えば、ユーザは、基準点からシャッタオブジェクト2が表示されている位置まで指をスライドさせ、その後、円周に沿って時計回りに指をスライドさせ、任意のタイマオブジェクト3が表示されている位置で指を離す操作を行ってもよい。あるいは、ユーザは、基準点から第5のタイマオブジェクト3eが表示されている位置まで指をスライドさせ、その後、円周に沿って反時計回りに指をスライドさせ、任意のタイマオブジェクト3が表示されている位置で指を離す操作を行ってもよい。
 なお、この場合、撮像ガイダンス1の表示タイミング及び消去タイミングは、上記した各種の例のうちどのタイミングが用いられてもよい。
 [ジェスチャ操作]
 上述の例では、撮像ガイダンス1を画面上に表示させる(呼び出す)ためのユーザ操作(所定のユーザ操作)、並びに、各オブジェクトに対するユーザ操作の例として、画面への操作を例に挙げて説明した。一方、画面へのユーザ操作の代わりに、画面から離れた位置でのジェスチャ操作が用いられてもよい。
 なお、ジェスチャ操作での入力が行われる場合、デジタルカメラ100を手に持って撮像を行う必要はなく、デジタルカメラ100を任意の位置に置いて、デジタルカメラ100から離れた位置で自分撮りを行うことも可能である。
 ここで、撮像ガイダンス1を画面上に表示させる(呼び出す)ためのジェスチャ操作としては、指で円を描く動作や、閉じた手を開く動作を繰り返す動作などが挙げられる。あるいは、このジェスチャ操作は、素早く瞬きを繰り返す動作であってもよい。
 また、オブジェクトに対するジェスチャ操作としては、基準点から任意のオブジェクトが配置されている方向へ向けて腕を振る動作や、任意のオブジェクトが表示されている位置に指の位置を合わせて指で円を描く動作などが挙げられる。あるいは、このジェスチャ操作は、任意のオブジェクトが表示されている方向へ視線を向ける動作であってもよい。
 上述の"オブジェクトに対する操作"の欄において説明した操作方法は、全てジェスチャ操作に適用することができる。例えば、ユーザは、腕を振って、基準点からシャッタオブジェクト2が表示されている位置へ指先を移動させて、その後、円周に沿って時計回りに指先を移動させて、任意のタイマオブジェクト3が表示されている位置において指で円を描いてもよい。
 なお、ジェスチャ操作の検出においては、システムコントローラ32は、撮像部21によって撮像された画像に基づいてジェスチャ操作が行われたかどうかを判断すればよい。
 ここで、自分撮りを行う場合、ユーザは、ポージングを行いながら撮像を行う必要があるため、無理な姿勢での画面への操作を強要されるような場合もある。一方、ジェスチャ操作が用いられることで、ユーザは、画面へ触れる操作から解放されるため、自由なアングルで撮像を試みることができ、身体への負荷が軽減される。
 [遠隔操作]
 デジタルカメラ100を所定の位置に置き、他の装置で遠隔制御を行うことで、自分撮りを行うことも可能である。例えば、遠隔制御を行うための他の装置として、通信部及び表示部を有するスマートフォン(撮像制御装置)を例に挙げて説明する。このスマートフォンは、通信部による無線LAN機能(例えば Wi-fi)により、デジタルカメラ100との間で情報を送受信することができる。
 デジタルカメラ100は、通信部17を介して、撮像部21により撮像された画像データをスマートフォンに送信する。スマートフォンは、受信した画像データを表示部の画面上にライブビュー画像として表示させる。さらに、スマートフォンは、ライブビュー画像に重畳して撮像ガイダンス1を表示させる。ユーザは、スマートフォンの画面上に表示された撮像ガイダンス1を操作することによって、自分撮りを行うことができる。
 スマートフォンは、例えば、シャッタオブジェクト2、タイマオブジェクト3、連写オブジェクト4などのオブジェクトに対する操作が検出された場合、即時シャッタ機能、セルフタイマ機能、連写機能による撮像を行うように、デジタルカメラ100に指示を出す。デジタルカメラ100は、この指示に応じて、即時シャッタ機能、セルフタイマ機能、連写機能による撮像を行う。
 なお、デジタルカメラ100を所定の位置に置き、ジェスチャ操作または遠隔操作により自分撮りを行う場合、ユーザ一人、あるいは、ユーザを含む数人による撮像に限られず、観光地などにおいてユーザを含む大人数でのグループの撮像を行うこともできる。
 [撮像制御装置の他の例]
 上述の説明では、撮像制御装置の一例としてデジタルカメラ100、スマートフォンを例に挙げて説明したが、撮像制御装置はこれに限られない。例えば、撮像制御装置は、PC(Personal Computer)、テレビジョン装置、携帯ゲーム機、ゲーム機等であっても構わない。
 本技術は、以下の構成をとることもできる。
(1)第1のオブジェクト、第2のオブジェクト、及び第3のオブジェクトを含む撮像ガイダンスを表示部の画面上に表示させ、前記第1のオブジェクト、前記第2のオブジェクト及び前記第3のオブジェクトに対するユーザ操作作の検出を判断し、前記第1のオブジェクトに対するユーザ操作が検出されたとき、撮像部に撮像を行わせ、前記第2のオブジェクトへのユーザ操作が検出されたとき、ユーザ操作が検出されてから第1の時間経過後に前記撮像部に撮像を行わせ、前記第3のオブジェクトへのユーザ操作が検出されたとき、前記第3のオブジェクトへのユーザ操作が検出されてから第1時間とは異なる第2の時間経過後に撮像部に撮像を行わせる制御部
 を具備する撮像制御装置。
(2)上記(1)に記載の撮像制御装置であって、
 前記撮像ガイダンスは、前記画面内において設定された基準点に対応する円又は円弧の周上に前記第1のオブジェクト、前記第2のオブジェクト、及び前記第3のオブジェクトを有する
 撮像制御装置。
(3)上記(2)に記載の撮像制御装置であって、
 前記制御部は、前記基準点から第1のオブジェクトが配置されている方向へのユーザ操作が検出されたとき、前記第1のオブジェクトに対するユーザ操作が検出されたと判断し、前記基準点から前記第2のオブジェクトが配置されている方向へのユーザ操作が検出されたとき、前記第2のオブジェクトに対するユーザ操作が検出されたと判断し、前記基準点から前記第3のオブジェクトが配置されている方向へのユーザ操作が検出されたとき、前記第3のオブジェクトに対するユーザ操作が検出されたと判断する
 撮像制御装置。
(4)上記(2)又は(3)に記載の撮像制御装置であって、
 前記制御部は、所定のユーザ操作が検出されたどうかを判断し、前記所定のユーザ操作が検出された場合に、前記撮像ガイダンスを画面上に表示させる
 撮像制御装置。
(5)上記(4)に記載の撮像制御装置であって、
 前記制御部は、前記所定のユーザ操作が検出された場合に、前記所定のユーザ操作が検出された前記画面内における位置を判断し、前記所定のユーザ操作が検出された位置に前記基準点を設定する
 撮像制御装置。
(6)上記(4)又は(5)に記載の撮像制御装置であって、
 前記制御部は、前記所定のユーザ操作が検出された前記画面内における位置に応じて、前記撮像ガイダンスの表示態様を変化させる
 撮像制御装置。
(7)上記(5)に記載の撮像制御装置であって、
前記制御部は、前記撮像部によって撮像された画像をライブビュー画像として前記画面上に表示させ、前記撮像ガイダンスを前記ライブビュー画像に重畳して表示させる
 撮像制御装置。
(8)上記(7)に記載の撮像制御装置であって、
 前記制御部は、前記所定のユーザ操作が検出された前記画面内における位置に対応した、前記ライブビュー画像における被写体の位置にフォーカスを合わせるように撮像部を制御する
 撮像制御装置。
(9)上記(1)~(8)のうちいずれか1つに記載の撮像制御装置であって、
 前記撮像ガイダンスは、第4のオブジェクトを有し、
 前記制御部は、前記第4のオブジェクトに対するユーザ操作の検出を判断し、前記第4のオブジェクトに対する操作が検出された場合、第1の時間間隔で前記撮像部に連続して撮像を行わせる
 撮像制御装置。
(10)上記(9)に記載の撮像制御装置において、
 前記制御部は、前記第1の時間間隔内において、顔の表情及びポージングのうち少なくとも一方をユーザにガイドする表情/ポージングガイダンスを画面上に表示させる
 撮像制御装置。
(11)上記(9)又は(10)に記載の撮像制御装置であって、
 前記撮像ガイダンスは、第5のオブジェクトを有し、
 前記制御部は、前記第5のオブジェクトに対するユーザ操作の検出を判断し、前記第5のオブジェクトに対するユーザ操作が検出された場合、前記第1の時間間隔とは異なる第2の時間間隔で撮像部に連続して撮像を行わせる
 撮像制御装置。
(12)上記(1)~(11)のうちいずれか1つに記載の撮像制御装置であって、
 前記撮像ガイダンスは、第6のオブジェクトを有し、
 前記制御部は、前記第6のオブジェクトに対するユーザ操作が検出されたかどうかを判定し、前記第6のオブジェクトに対する操作が検出された場合、フラッシュライトを発光させつつ前記撮像部に撮像を行わせる
 撮像制御装置。
(13)第1のオブジェクト、第2のオブジェクト、及び第3のオブジェクトを含む撮像ガイダンスを表示部の画面上に表示させ、
 前記第1のオブジェクト、前記第2のオブジェクト及び前記第3のオブジェクトに対するユーザ操作の検出を判断し、
 前記第1のオブジェクトに対するユーザ操作が検出されたとき、撮像部に撮像を行わせ、
 前記第2のオブジェクトへのユーザ操作が検出されたとき、ユーザ操作が検出されてから第1の時間経過後に前記撮像部に撮像を行わせ、
 前記第3のオブジェクトへのユーザ操作が検出されたとき、前記第3のオブジェクトへのユーザ操作が検出されてから第1時間とは異なる第2の時間経過後に撮像部に撮像を行わせる
 撮像制御方法。
(14)撮像制御装置に、
 第1のオブジェクト、第2のオブジェクト、及び第3のオブジェクトを含む撮像ガイダンスを表示部の画面上に表示させるステップと、
 前記第1のオブジェクト、前記第2のオブジェクト及び前記第3のオブジェクトに対するユーザ操作の検出を判断するステップと、
 前記第1のオブジェクトに対するユーザ操作が検出されたとき、撮像部に撮像を行わせ、
 前記第2のオブジェクトへのユーザ操作が検出されたとき、ユーザ操作が検出されてから第1の時間経過後に前記撮像部に撮像を行わせるステップと、
 前記第3のオブジェクトへのユーザ操作が検出されたとき、前記第3のオブジェクトへのユーザ操作が検出されてから第1時間とは異なる第2の時間経過後に撮像部に撮像を行わせるステップと
 を実行させるプログラム。
1…撮像ガイダンス
2…シャッタオブジェクト
3…タイマオブジェクト
4…連写オブジェクト
5…カウントダウンガイダンス
6…数字オブジェクト
7…カウントダウンオブジェクト
10…デジタルカメラ本体
11…表示部
12…タッチセンサ
13…シャッタボタン
20…回転体
21…撮像部
22…フラッシュライト
31…制御部
32…システムコントローラ
100…デジタルカメラ

Claims (14)

  1.  表示部上に表示された第1のオブジェクトに対するユーザ操作に基づいて、撮像部に撮像を行わせる制御と、前記表示部上に表示された第2のオブジェクトに対するユーザ操作に基づいて、第1の時間経過後に前記撮像部に撮像を行わせる制御と、前記表示部に表示された第3のオブジェクトに対するユーザ操作に基づいて、前記第1時間とは異なる第2の時間経過後に撮像部に撮像を行わせる制御とを行う制御部
     を具備する撮像制御装置。
  2.  請求項1に記載の撮像制御装置であって、
     前記制御部は、前記第1のオブジェクト、前記第2のオブジェクト、及び前記第3のオブジェクトを、円又は円弧の周上に表示させる
     撮像制御装置。
  3.  請求項2に記載の撮像制御装置であって、
     前記円又は前記円弧は、前記表示部内に基準点を有し、
     前記制御部は、前記基準点から、第1のオブジェクトが配置されている方向へのユーザ操作に基づいて、前記撮像部に撮像を行わせる
     撮像制御装置。
  4.  請求項3に記載の撮像制御装置であって、
     前記制御部は、所定のユーザ操作に基づいて、前記第1のオブジェクト、前記第2のオブジェクト、及び前記第3のオブジェクトを前記表示部上に表示させる
     撮像制御装置。
  5.  請求項4に記載の撮像制御装置であって、
     前記制御部は、前記所定のユーザ操作が行われた前記表示部内における位置に応じた位置に前記基準点を設定する
     撮像制御装置。
  6.  請求項4に記載の撮像制御装置であって、
     前記制御部は、前記所定のユーザ操作が行われた前記表示部内における位置に応じて、前記第1のオブジェクト、前記第2のオブジェクト、及び前記第3のオブジェクトの全体の表示態様を異なる表示態様とする
     撮像制御装置。
  7.  請求項1に記載の撮像制御装置であって、
     前記制御部は、前記撮像部によって取得された画像をライブビュー画像として前記表示部上に表示させ、かつ、前記第1のオブジェクト、前記第2のオブジェクト、及び前記第3のオブジェクトを前記ライブビュー画像と共に表示させる
     撮像制御装置。
  8.  請求項7に記載の撮像制御装置であって、
     前記制御部は、所定のユーザ操作に基づいて、前記第1のオブジェクト、前記第2のオブジェクト、及び前記第3のオブジェクトを前記表示部上に表示させ、前記所定のユーザ操作が行われた前記表示部内における位置に基づいて、前記所定のユーザ操作の位置に対応する前記ライブビュー画像における被写体の位置にフォーカスを合わせるように撮像部を制御する
     撮像制御装置。
  9.  請求項1に記載の撮像制御装置であって、
     前記制御部は、前記表示部上に表示された第4のオブジェクトに対するユーザ操作に基づいて、第1の時間間隔で前記撮像部に連続して撮像を行わせる
     撮像制御装置。
  10.  請求項9に記載の撮像制御装置において、
     前記制御部は、前記第1の時間間隔内において、顔の表情及びポージングのうち少なくとも一方をユーザにガイドするガイダンスを画面上に表示させる
     撮像制御装置。
  11.  請求項9に記載の撮像制御装置であって、
     前記制御部は、前記表示部上に表示された第5のオブジェクトに対するユーザ操作に基づいて、前記第1の時間間隔とは異なる第2の時間間隔で撮像部に連続して撮像を行わせる
     撮像制御装置。
  12.  請求項1に記載の撮像制御装置であって、
     前記制御部は、前記表示部上に表示された第6のオブジェクトに対するユーザ操作に基づいて、フラッシュライトを発光させつつ前記撮像部に撮像を行わせる
     撮像制御装置。
  13.  表示部上に表示された第1のオブジェクトに対するユーザ操作に基づいて、撮像部に撮像を行わせ、
     前記表示部上に表示された第2のオブジェクトに対するユーザ操作に基づいて、第1の時間経過後に前記撮像部に撮像を行わせ、
     前記第3のオブジェクトに対するユーザ操作に基づいて、前記第1時間とは異なる第2の時間経過後に撮像部に撮像を行わせる
     撮像制御方法。
  14.  撮像制御装置に、
     前記第1のオブジェクトに対するユーザ操作に基づいて、撮像部に撮像を行わせるステップと、
     前記第2のオブジェクトに対するユーザ操作に基づいて、第1の時間経過後に前記撮像部に撮像を行わせるステップと、
     前記第3のオブジェクトに対するユーザ操作に基づいて、前記第1時間とは異なる第2の時間経過後に撮像部に撮像を行わせるステップと
     を実行させるプログラム。
PCT/JP2015/002480 2014-07-08 2015-05-18 撮像制御装置、撮像制御方法及びプログラム WO2016006149A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN201580035665.9A CN106576137A (zh) 2014-07-08 2015-05-18 图像拾取控制设备、图像拾取控制方法和程序
EP15818961.3A EP3151531B1 (en) 2014-07-08 2015-05-18 Image pickup control device, image pickup control method and program
KR1020167036728A KR20170030496A (ko) 2014-07-08 2015-05-18 촬상 제어 장치, 촬상 제어 방법 및 프로그램
US15/321,219 US10270960B2 (en) 2014-07-08 2015-05-18 Image pickup control apparatus by which a user can select instant-shutter function or a self-timer function when taking a selfie
JP2016532408A JP6414218B2 (ja) 2014-07-08 2015-05-18 制御装置、制御方法及びプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014140359 2014-07-08
JP2014-140359 2014-07-08

Publications (1)

Publication Number Publication Date
WO2016006149A1 true WO2016006149A1 (ja) 2016-01-14

Family

ID=55063811

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/002480 WO2016006149A1 (ja) 2014-07-08 2015-05-18 撮像制御装置、撮像制御方法及びプログラム

Country Status (6)

Country Link
US (1) US10270960B2 (ja)
EP (1) EP3151531B1 (ja)
JP (1) JP6414218B2 (ja)
KR (1) KR20170030496A (ja)
CN (1) CN106576137A (ja)
WO (1) WO2016006149A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017157057A (ja) * 2016-03-03 2017-09-07 京セラドキュメントソリューションズ株式会社 表示制御装置
JP2018133674A (ja) * 2017-02-14 2018-08-23 キヤノン株式会社 撮像装置及びその制御方法
WO2022259491A1 (ja) * 2021-06-10 2022-12-15 日本電信電話株式会社 撮影支援装置、撮影支援方法、及びプログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104156149B (zh) * 2014-07-18 2016-04-13 小米科技有限责任公司 拍摄参数调节方法及装置
US11087552B2 (en) 2019-11-26 2021-08-10 Rufina Shatkina Collaborative on-demand experiences
US11381676B2 (en) * 2020-06-30 2022-07-05 Qualcomm Incorporated Quick launcher user interface

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011193249A (ja) * 2010-03-15 2011-09-29 Canon Inc 撮像装置及びその制御方法
JP2013025357A (ja) * 2011-07-15 2013-02-04 Sony Corp 情報処理装置、情報処理方法、及びプログラム
JP2013058958A (ja) * 2011-09-09 2013-03-28 Canon Inc 撮像装置、その制御方法及びプログラム並びに記録媒体
JP2013172282A (ja) * 2012-02-21 2013-09-02 Kyocera Corp 携帯端末、撮影キー制御プログラムおよび撮影キー制御方法
JP2014067457A (ja) * 2014-01-23 2014-04-17 Sony Corp 情報処理装置、情報処理方法およびプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4906227B2 (ja) 2003-05-19 2012-03-28 ソニー株式会社 撮像装置
KR101058011B1 (ko) 2004-10-01 2011-08-19 삼성전자주식회사 터치 스크린을 이용한 디지털 카메라 조작 방법
KR101436839B1 (ko) * 2008-07-31 2014-09-03 삼성전자주식회사 사람 수 체크를 이용한 셀프타이머 촬영 장치 및 방법
JP4840474B2 (ja) * 2008-08-11 2011-12-21 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP5464083B2 (ja) * 2010-07-07 2014-04-09 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
CN201821414U (zh) * 2010-08-06 2011-05-04 天津三星光电子有限公司 一种具有参照拍照姿态功能的数码相机
US20120236173A1 (en) * 2011-03-17 2012-09-20 Telek Michael J Digital camera user interface which adapts to environmental conditions
JP2013219537A (ja) 2012-04-09 2013-10-24 Sony Corp 撮像装置および入力制御方法
KR102064596B1 (ko) * 2013-03-11 2020-02-11 삼성전자 주식회사 카메라 모듈을 포함하는 전자장치
US20150381895A1 (en) * 2014-04-22 2015-12-31 Lo Mei-Ling Method of Generating Selfie for a Portable Device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011193249A (ja) * 2010-03-15 2011-09-29 Canon Inc 撮像装置及びその制御方法
JP2013025357A (ja) * 2011-07-15 2013-02-04 Sony Corp 情報処理装置、情報処理方法、及びプログラム
JP2013058958A (ja) * 2011-09-09 2013-03-28 Canon Inc 撮像装置、その制御方法及びプログラム並びに記録媒体
JP2013172282A (ja) * 2012-02-21 2013-09-02 Kyocera Corp 携帯端末、撮影キー制御プログラムおよび撮影キー制御方法
JP2014067457A (ja) * 2014-01-23 2014-04-17 Sony Corp 情報処理装置、情報処理方法およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3151531A4 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017157057A (ja) * 2016-03-03 2017-09-07 京セラドキュメントソリューションズ株式会社 表示制御装置
JP2018133674A (ja) * 2017-02-14 2018-08-23 キヤノン株式会社 撮像装置及びその制御方法
WO2022259491A1 (ja) * 2021-06-10 2022-12-15 日本電信電話株式会社 撮影支援装置、撮影支援方法、及びプログラム

Also Published As

Publication number Publication date
US10270960B2 (en) 2019-04-23
KR20170030496A (ko) 2017-03-17
US20170155822A1 (en) 2017-06-01
EP3151531B1 (en) 2022-03-30
JPWO2016006149A1 (ja) 2017-06-08
CN106576137A (zh) 2017-04-19
EP3151531A4 (en) 2018-02-28
EP3151531A1 (en) 2017-04-05
JP6414218B2 (ja) 2018-10-31

Similar Documents

Publication Publication Date Title
JP6414218B2 (ja) 制御装置、制御方法及びプログラム
US9338362B2 (en) Image capturing apparatus, image capturing control method and storage medium for capturing a subject to be recorded with intended timing
JP5185150B2 (ja) 携帯機器および操作制御方法
US9106836B2 (en) Imaging apparatus, control method for the same, and recording medium, where continuous shooting or single shooting is performed based on touch
US9036073B2 (en) Imaging apparatus and for controlling an automatic focus (AF) area and an enlargement area in a live view
US20100166404A1 (en) Device and Method Using a Touch-Detecting Surface
JP6331244B2 (ja) 撮像装置、撮像装置の制御方法およびコンピュータプログラム。
JP2014078855A (ja) 電子機器、駆動方法およびプログラム
KR20110004085A (ko) 촬영 장치 및 촬영 방법
US11137666B2 (en) Control device and control method
JP2013009189A (ja) 撮影装置および撮像方法
US20110242396A1 (en) Imaging device, display device, control method, and method for controlling area change
JP5565433B2 (ja) 撮像装置及び撮像処理方法並びにプログラム
US11849216B2 (en) Imaging apparatus detecting a pupil in moving and still images
JP2010181968A (ja) カメラ
JP5272773B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6761228B2 (ja) 表示装置及びその制御方法、プログラム、並びに記憶媒体
JP2013110499A (ja) 操作入力判定装置および撮像装置
JP5053158B2 (ja) 表示装置、操作制御方法およびプログラム
JP5945388B2 (ja) 撮影装置および撮像方法
US20230328354A1 (en) Electronic device, control method therefor, program, and storage medium
WO2023058328A1 (ja) 撮像装置、制御方法、プログラム
JP7034601B2 (ja) 撮像制御装置およびその制御方法
JP5797301B2 (ja) 撮像装置および撮像方法
WO2017159127A1 (ja) 撮像装置、撮像方法および撮像プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15818961

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2015818961

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2015818961

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2016532408

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15321219

Country of ref document: US

ENP Entry into the national phase

Ref document number: 20167036728

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE