WO2015080210A1 - カメラ機能を有する機器および撮影制御方法 - Google Patents

カメラ機能を有する機器および撮影制御方法 Download PDF

Info

Publication number
WO2015080210A1
WO2015080210A1 PCT/JP2014/081408 JP2014081408W WO2015080210A1 WO 2015080210 A1 WO2015080210 A1 WO 2015080210A1 JP 2014081408 W JP2014081408 W JP 2014081408W WO 2015080210 A1 WO2015080210 A1 WO 2015080210A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
shooting
unit
camera function
control unit
Prior art date
Application number
PCT/JP2014/081408
Other languages
English (en)
French (fr)
Inventor
角田 浩
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Publication of WO2015080210A1 publication Critical patent/WO2015080210A1/ja
Priority to US15/166,046 priority Critical patent/US20160277656A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/02Illuminating scene
    • G03B15/03Combinations of cameras with lighting apparatus; Flash units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders

Definitions

  • the present invention relates to a device having a camera function, such as a digital camera, a mobile phone with a camera, a PDA with a camera (Personal Digital Assistant), a tablet PC with a camera (Tablet PC).
  • the present invention also relates to a shooting control method applicable to a device having such a camera function.
  • a wide-angle camera has a deep depth of field and focuses on a wide range from the front to the back. For this reason, both the subject and the background are clearly shown in the photographed image.
  • the user may desire a photographed image with a clear subject and a blurred background in order to make the subject stand out.
  • the mobile terminal device includes an auto-focus type wide-angle camera
  • the focus lens is controlled to shoot a focused image and an unfocused image, and the two captured images are combined to obtain a subject. It is possible to obtain a photographed image with a clear and blurred background.
  • the above method cannot be used when the camera cannot change the focus position. Therefore, it is conceivable to obtain a photographed image with a blurred background by applying a blurring process using a known method such as a Blur filter, a Gaussian filter, or a Median filter to the background.
  • the first aspect of the present invention relates to a device having a camera function.
  • An apparatus having a camera function includes an imaging unit that captures an image, a light emitting unit that emits light in a direction in which the imaging unit captures, and an imaging control unit that controls the imaging unit and the light emitting unit.
  • the shooting control unit is configured to take a first shooting for shooting an image with the shooting unit without causing the light emitting unit to emit light based on a shutter operation, and to take an image with the shooting unit by causing the light emitting unit to emit light.
  • the first image is obtained based on a difference in state between the same parts of the first image photographed by the first photographing and the second image photographed by the second photographing. Are divided into a subject area and a background area.
  • the second aspect of the present invention relates to a shooting control method.
  • the shooting control method the first shooting for shooting an image without emitting light in the shooting direction and the second shooting for shooting an image by emitting light in the shooting direction based on a shutter operation.
  • the first shooting for shooting an image without emitting light in the shooting direction Based on the difference in state between the same parts of the first image captured by the first image capturing and the second image captured by the second image capturing. Partitioning the region into a subject region and a background region.
  • subject may mean all the shooting targets including the background and the main shooting target located in front of the background, and may mean the main shooting target positioned in front of the background.
  • subject means the latter, the main subject to be photographed, located in front of the background.
  • the captured image area can be divided into the subject area and the background area by a simple process.
  • FIG. 6 is a flowchart illustrating shooting processing in a background blur mode according to the first embodiment. It is a figure which shows the display with which the imaging
  • FIG. 6 is a diagram illustrating a first captured image, a second captured image, a subject region and a background region set in the first captured image, and a first captured image in which blurring processing is applied to the background region, according to the first embodiment.
  • . 10 is a flowchart illustrating a shooting process in a background blur mode according to a first modification. It is a figure which shows the flowchart which shows the imaging
  • FIG. 14 is a flowchart illustrating a photographing process in a background blur mode according to a modification example 4.
  • 10 is a flowchart illustrating a photographing process in an image composition mode according to the second embodiment.
  • the image of the subject area cut out from the first captured image, the display on which the background selection screen is displayed, and the composite image in which the image of the cut out subject area is pasted on the selected background image.
  • FIG. It is a figure which shows the display which displayed the message to the effect of flash light emission based on the example of a change of Example 1.
  • FIGS. 1A to 1C are a front view, a rear view, and a right side view of the mobile phone 1, respectively.
  • the longitudinal direction of the cabinet 2 is defined as the vertical direction
  • the short direction of the cabinet 2 is defined as the horizontal direction
  • the vertical direction and the direction perpendicular to the horizontal direction are defined as the front-rear direction.
  • the mobile phone 1 includes a cabinet 2, a display 3, a touch panel 4, a microphone 5, a call speaker 6, an external speaker 7, and an in-camera 8. , And out camera 9.
  • the cabinet 2 has a substantially rectangular outline when viewed from the front.
  • a display 3 is arranged on the front side of the cabinet 2.
  • Various images (screens) are displayed on the display 3.
  • the display 3 is a liquid crystal display, and includes a liquid crystal panel and an LED backlight that illuminates the liquid crystal panel.
  • the display 3 may be another type of display such as an organic EL display.
  • a touch panel 4 is disposed so as to cover the display 3.
  • the touch panel 4 is formed in a transparent sheet shape.
  • various types of touch panels such as a capacitance type, an ultrasonic type, a pressure sensitive type, a resistance film type, and a light detection type can be used.
  • a microphone 5 is arranged at the lower end. Further, inside the cabinet 2, a call speaker 6 is arranged at the upper end. The microphone 5 receives sound that has passed through a microphone hole 5 a formed in the front of the cabinet 2. The microphone 5 generates an electrical signal corresponding to the input sound. The call speaker 6 outputs sound. The output sound passes through an output hole 6 a formed in the front of the cabinet 2 and is emitted to the outside of the cabinet 2.
  • the received voice received from the communication destination device such as a mobile phone
  • the call speaker 6 is output from the call speaker 6, and the uttered voice uttered by the user is input to the microphone 5.
  • the sound includes various sounds such as sound and notification sound.
  • An external speaker 7 is arranged inside the cabinet 2. On the back surface of the cabinet 2, an output hole 7 a is formed in a region facing the external speaker 7. The sound output from the external speaker 7 passes through the output hole 7a and is emitted to the outside of the cabinet 2.
  • an in camera 8 is arranged on the front side, and an out camera 9 is arranged on the back side.
  • Both the in-camera 8 and the out-camera 9 are single-focus wide-angle cameras.
  • the in-camera 8 captures an imaging target that exists in the front direction of the mobile phone 1.
  • the in-camera 8 includes an image sensor such as a CCD or CMOS sensor, and a single-focus wide-angle lens that forms an image to be photographed on the image sensor.
  • the out camera 9 captures a subject to be photographed that exists in the back direction of the mobile phone 1.
  • the out camera 9 includes an image sensor such as a CCD or CMOS sensor, a single-focus wide-angle lens that forms an image to be photographed on the image sensor, and a focus lens for focus adjustment.
  • FIG. 2 is a block diagram showing the overall configuration of the mobile phone 1.
  • the mobile phone 1 includes a control unit 11, a storage unit 12, an image output unit 13, a touch detection unit 14, a voice input unit 15, a voice output unit 16, and a voice processing unit. 17, a key input unit 18, a communication unit 19, a first imaging unit 20, a second imaging unit 21, and an illuminance detection unit 22.
  • the storage unit 12 includes a ROM, a RAM, and an external memory.
  • the storage unit 12 stores various programs.
  • Programs stored in the storage unit 12 include various application programs (hereinafter simply referred to as “applications”) in addition to a control program for controlling each unit of the mobile phone 1, such as a telephone, a message, a camera, a web browser, Includes applications such as maps, games and schedule management.
  • the program stored in the storage unit 12 includes a program for executing shooting processing in various shooting modes such as a background blur mode, which will be described later.
  • the program is stored in the storage unit 12 by the manufacturer when the mobile phone 1 is manufactured, and is also stored in the storage unit 12 via a storage medium such as a communication network, a memory card, or a CD-ROM.
  • the storage unit 12 also includes a working area for storing data that is temporarily used or generated when the program is executed.
  • the storage unit 12 temporarily stores an image (image data) and a temporary storage folder 12a for temporarily storing images (image data) for images taken by the in-camera 8 and the out-camera 9.
  • a permanent storage folder 12b is prepared.
  • the storage unit 12 is provided with an editing folder 12c that temporarily stores images (image data) obtained by the first shooting and the second shooting in the shooting process in the background blur mode.
  • the control unit 11 includes a CPU. In accordance with the program stored in the storage unit 12, the control unit 11 includes each unit (storage unit 12, image output unit 13, touch detection unit 14, audio input unit 15, audio output unit 16, audio processing unit) that constitutes the mobile phone 1. 17, the key input unit 18, the communication unit 19, the first imaging unit 20, the second imaging unit 21, the illuminance detection unit 22, and the like.
  • the image output unit 13 includes the display 3 shown in FIG.
  • the image output unit 13 displays an image (screen) on the display 3 based on the control signal and the image signal from the control unit 11.
  • the image output unit 13 performs lighting and extinguishing of the display 3 and adjustment of luminance in accordance with a control signal from the control unit 11.
  • the image output unit 13 emits a flash from the display 3 by applying a voltage higher than that during normal operation to the LED backlight for a short time in accordance with a control signal from the control unit 11.
  • a white (colorless) flash is emitted.
  • a predetermined chromatic color such as red, blue, or green
  • a predetermined chromatic color flash is emitted. Is done.
  • the touch detection unit 14 includes the touch panel 4 illustrated in FIG. 1A, and detects a touch operation on the touch panel 4. More specifically, the touch detection unit 14 detects a position (hereinafter referred to as “touch position”) where a touch target such as a user's finger contacts the touch panel 4. The touch detection unit 14 outputs a position signal generated based on the detected touch position to the control unit 11. In other words, the touch operation on the touch panel 4 is performed on a screen or an object displayed on the display 3 and is a touch operation on the display 3.
  • the touch detection unit 14 may be configured to detect a position where the finger is approached as a touch position when the user's finger approaches the display 3, that is, the touch panel 4.
  • the touch panel 4 of the touch detection unit 14 is a capacitance type
  • the sensitivity is adjusted so that the change in capacitance exceeds the detection threshold when the finger approaches the touch panel 4.
  • the front surface of the cabinet 2 including the touch panel 4 is covered with a transparent cover made of glass or the like, a finger trying to touch the touch panel 4 comes into contact with the cover instead of the touch panel 4.
  • the touch panel 4 detects the touch position when the finger contacts the cover or approaches the cover.
  • the touch operation includes, for example, a tap operation, a flick operation, a slide operation, and the like.
  • the tap operation is an operation in which the user releases the finger from the touch panel 4 within a short time after the user touches or makes the finger touch the touch panel 4.
  • the flick operation is an operation in which the user touches or touches the touch panel 4 and then flicks or sweeps the touch panel 4 in any direction.
  • the slide operation is an operation in which the user moves the finger in an arbitrary direction while keeping the finger in contact with or close to the touch panel 4.
  • the control unit 11 determines that the touch operation is a tap operation. judge. When the touch position is no longer detected after the touch position has been moved within a predetermined second time after the touch position is detected and the touch position is not detected, the control unit 11 performs a flick operation on the touch operation. Is determined. After the touch position is detected, when the touch position moves by a predetermined second distance or more, the control unit 11 determines that the touch operation is a slide operation.
  • the voice input unit 15 includes a microphone 5.
  • the voice input unit 15 outputs an electrical signal from the microphone 5 to the voice processing unit 17.
  • the audio output unit 16 includes a call speaker 6 and an external speaker 7. An electrical signal from the audio processing unit 17 is input to the audio output unit 16. The audio output unit 16 outputs sound from the call speaker 6 or the external speaker 7.
  • the audio processing unit 17 performs A / D conversion or the like on the electrical signal from the audio input unit 15 and outputs the converted digital audio signal to the control unit 11.
  • the audio processing unit 17 performs decoding processing, D / A conversion, and the like on the digital audio signal from the control unit 11, and outputs the converted electric signal to the audio output unit 16.
  • the key input unit 18 includes at least one hard key.
  • the key input unit 18 includes a power key for turning on the mobile phone 1.
  • the key input unit 18 outputs a signal corresponding to the pressed hard key to the control unit 11.
  • the communication unit 19 includes a circuit for converting a signal, an antenna for transmitting and receiving radio waves, and the like for performing communication and communication.
  • the communication unit 19 converts a call or communication signal input from the control unit 11 into a radio signal, and transmits the converted radio signal to a communication destination such as a base station or another communication device via an antenna. To do. Further, the communication unit 19 converts the radio signal received via the antenna into a signal in a format that can be used by the control unit 11, and outputs the converted signal to the control unit 11.
  • the first imaging unit 20 includes the in-camera 8 and the imaging control circuit shown in FIG.
  • the first photographing unit 20 performs various image processes on the image data of the image photographed by the in-camera 8 and outputs the image data after the image processing to the control unit 11.
  • the first photographing unit 20 has an automatic exposure function, and adjusts the exposure value (aperture value, shutter speed) according to the amount of light taken into the wide-angle lens so that proper exposure can be obtained. Further, the first photographing unit 20 has an automatic white balance function, and adjusts the white balance value according to the light taken into the wide-angle lens.
  • the second imaging unit 21 includes the out camera 9 and the imaging control circuit shown in FIG.
  • the second imaging unit 21 performs various image processing on the image data of the image captured by the out-camera 9 and outputs the image data after the image processing to the control unit 11.
  • the second photographing unit 21 Similar to the first photographing unit 20, the second photographing unit 21 has an automatic exposure function and an automatic white balance function. Further, the second photographing unit 21 has an autofocus function, and moves the focus lens to adjust the focus.
  • the illuminance detection unit 22 includes an illuminance sensor and the like, and detects ambient brightness. From the illuminance sensor, a detection signal corresponding to the ambient brightness is output and input to the control unit 11. The control unit 11 adjusts the luminance of the display 3 according to the ambient brightness.
  • FIG. 3 is a diagram showing the display 3 on which the home screen 101 is displayed.
  • various screens are displayed on the display 3, and various touch operations are performed by the user on the screen.
  • the home screen 101 is displayed on the display 3 as an initial screen.
  • the home screen 101 includes an activation icon 101a for activating various applications.
  • the startup icon 101a includes, for example, a telephone icon 101b, a camera icon 101c, a mail icon 101d, and the like.
  • a notification bar 102 and an operation key group 103 are displayed on the display 3.
  • the notification bar 102 is displayed above the home screen 101 displayed on the display 3.
  • the notification bar 102 includes a current time, a remaining amount meter indicating the remaining battery level, an intensity meter indicating the intensity of the radio wave, and the like.
  • the operation key group 103 is displayed below the home screen 101.
  • the operation key group 103 includes a setting key 103a, a home key 103b, and a back key 103c.
  • the setting key 103a is a key mainly for causing the display 3 to display a setting screen for performing various settings.
  • the home key 103 b is a key for mainly shifting the display 3 on the display 3 from another screen to the home screen 101.
  • the back key 103c is a key for returning the executed process to the process one step before.
  • the user When using various applications, the user performs a tap operation on the activation icon 101a corresponding to the application to be used.
  • the application is activated and an execution screen based on the application is displayed. Note that the notification bar 102 and the operation key group 103 continue to be displayed on the display 3 even if the execution screen of the executed application is displayed or the execution screen changes as the application progresses.
  • the camera application has various shooting modes.
  • the in-camera 8 and the out-camera 9 mounted on the mobile phone 1 are wide-angle cameras, and when shooting is performed in a normal shooting mode, a wide range is focused from the front to the back. For this reason, in the image shot in the normal shooting mode, both the subject in the foreground and the background in the back are clearly projected.
  • the user desires a captured image with a clear subject and a blurred background in order to make the subject stand out. Therefore, in this embodiment, the mobile phone 1 has a background blur mode as one of the shooting modes.
  • the background blur mode is a shooting mode in which a subject is clearly projected in a photographed image and a background is blurred in order to make a subject such as a person stand out.
  • the in-camera 8 (first photographing unit 20) is used for photographing in the background blur mode.
  • the shooting mode is set to the background blur mode.
  • the background blur mode will be described.
  • FIG. 4 is a flowchart showing the shooting process in the background blur mode.
  • FIG. 5A is a diagram showing the display 3 on which the photographing screen 104 including the preview image 104a is displayed.
  • FIG. 5B is a diagram illustrating the display 3 in which the storage window 105 is superimposed on the shooting screen 104.
  • the control unit 11 activates the in-camera 8 (S101) and controls the image output unit 13 to display the photographing screen 104 on the display 3 (S102).
  • the shooting screen 104 includes a preview image 104a and a shutter object 104b.
  • the preview image 104a is displayed for the user to confirm in advance what kind of image is to be taken.
  • the preview image 104a is an image having a lower resolution than the captured image, and is displayed in a moving image state.
  • the shutter object 104b is used for a shutter operation.
  • the control unit 11 determines whether or not a shutter operation has been performed (S103). When the user performs a tap operation on the shutter object 104b, it is determined that the shutter operation has been performed.
  • the control unit 11 When the shutter operation is performed (S103: YES), the control unit 11 performs the first photographing with the in-camera 8 (S104). In the first shooting, the control unit 11 does not release the flash from the display 3. Further, the control unit 11 determines an exposure value at which an appropriate exposure can be obtained by using the automatic exposure function, and performs photographing with the determined exposure value. The control unit 11 stores image data of an image obtained by the first photographing (hereinafter referred to as “first photographed image”) in the editing folder 12c (S105).
  • the control unit 11 performs the second imaging following the first imaging (S106).
  • the interval between the first shooting and the second shooting is set to a short time during which the subject does not move.
  • the control unit 11 causes the display 3 to emit a flash.
  • the control unit 11 makes one surface of the display 3 white.
  • a white (colorless) flash is emitted from the display 3.
  • the control unit 11 performs shooting with the exposure value used for the first shooting without using the automatic exposure function.
  • the control unit 11 stores image data of an image obtained by the second imaging (hereinafter referred to as “second captured image”) in the editing folder 12c (S107).
  • FIG. 6A is a diagram showing a first photographed image
  • FIG. 6B is a diagram showing a second photographed image
  • FIG. 6C is a diagram illustrating the subject area and the background area set in the first captured image
  • FIG. 6D is a diagram illustrating a first captured image in which the blurring process is applied to the background area. 6A to 6D show an example in which a person is photographed in a room.
  • the person who is the subject when viewed from the in-camera 8, the person who is the subject is located in front and the background of the room which is the background is located in the back.
  • a white flash is used.
  • a subject person
  • a background room landscape
  • the flash is difficult to reach because it is located in the back. Is projected to the same brightness as the first captured image.
  • the exposure is not adjusted according to the increased amount of light by the automatic exposure function. The exposure value is used. Therefore, in the second shooting, the subject is projected brighter.
  • the control unit 11 compares the brightness of the same pixels of the first captured image and the second captured image (S108), and based on the comparison result, the first captured image region is changed to the subject region (hereinafter referred to as “subject region”). (Referred to as “subject area”) and a background area (hereinafter referred to as “background area”) (S109). That is, as shown in FIG. 6C, the control unit 11 sets an area composed of pixels with different brightness as a subject area in the first photographed image, and an area composed of pixels with the same brightness. To the background area.
  • control unit 11 A pixel is regarded as a pixel with different brightness.
  • the control unit 11 applies the blurring process to the background area (S110).
  • a blurring processing method a known method such as a Blur filter, a Gaussian filter, or a Median filter can be used.
  • FIG. 6D the first photographed image is edited into an image in which the subject is clearly projected and the background is blurred.
  • the control unit 11 temporarily stores the edited image data of the first captured image in the temporary storage folder 12a (S111), and superimposes a storage window 105 on which the user can determine whether or not the image can be stored on the shooting screen 104.
  • the save window 105 includes a save object 105a and a cancel object 105b.
  • the shooting screen 104 includes an image 104c to be saved, which is the first shot image after editing, instead of the preview image 104a.
  • the control unit 11 determines whether or not to save the image 104c to be saved (S113).
  • the user confirms the image 104c to be saved, and operates the save object 105a when saving, and operates the cancel object 105b when not saving.
  • a touch operation for example, a tap operation
  • the control unit 11 determines to save (S113: YES), and saves the image data of the image 104c to be saved in the permanent storage folder 12b (S114).
  • the control unit 11 closes the save window 105, returns to the process of step S103, and waits for the shutter operation again.
  • the control unit 11 determines not to save (S113: NO), and saves the image data of the image 104c to be saved in the permanent storage folder 12b. Instead, the save window 105 is closed, and the process returns to step S103.
  • the control unit 11 stops the in-camera 8 (S116). The shooting process in the background blur mode is terminated.
  • the mobile phone 1 is provided with the background blur mode in which the area of the captured image is divided into the subject area and the background area, and the blur process is applied to the background area. For this reason, the user can obtain a photographed image (photograph) in which the subject stands out by photographing in the background blur mode.
  • the first shooting without flash emission and the second shooting with flash emission are continuously performed, and the same pixels in two shot images are detected.
  • the brightness is compared, and based on the comparison result, the area of the captured image is divided into a subject area and a background area. Therefore, the area of the captured image can be divided into the subject area and the background area by a simple process of determining the brightness of the same pixels in the two captured images, rather than a relatively complicated process such as image recognition. .
  • the exposure adjustment by the automatic exposure function is not performed in the second shooting with flash emission. Accordingly, the subject is projected more brightly, so that the captured image region can be easily divided into the subject region and the background region.
  • the display 3 can be used as the image output unit 13 and the flash light emitting unit.
  • FIG. 13 shows an example in which a message indicating that flash light emission is performed is displayed on the display 3.
  • the first photographing is performed while notifying that flash emission is performed, it is possible to prevent the photographing from being significantly delayed for the notification.
  • ⁇ Modification 1> in the above embodiment, white light is used as a flash, and the subject area and the background area are classified based on the difference in brightness between the same pixels of the two captured images.
  • background blur mode chromatic light such as red, blue, and green is used as a flash, and based on the difference in color between the same pixels of two captured images, Partitioning with the background area is performed.
  • FIG. 7 is a flowchart showing the shooting process in the background blur mode according to the present modification example.
  • the process of step 106 to step S109 of the photographing process of FIG. 4 is replaced with the process of step S121 to step S124.
  • a process different from the shooting process of FIG. 4 will be mainly described.
  • the control unit 11 When the control unit 11 stores the first captured image (S105), the control unit 11 performs the second imaging (S121). In the second shooting, the control unit 11 causes the display 3 to emit a flash. At this time, the control unit 11 changes one surface of the display 3 to a predetermined chromatic color. As a result, a predetermined chromatic flash is emitted from the display 3.
  • the color of the flash can be a predetermined chromatic color such as red, blue, or green.
  • the control unit 11 performs shooting with the exposure value used for the first shooting without using the automatic exposure function.
  • the control unit 11 stores the image data of the second captured image in the editing folder 12c (S122).
  • the control unit 11 compares the colors of the same pixels of the first captured image and the second captured image (S123), and classifies the region of the first captured image into a subject region and a background region based on the comparison result. (S124). That is, in the first captured image, the control unit 11 sets an area composed of pixels of different colors as the subject area, and sets an area composed of pixels of the same color as the background area. For example, the control unit 11 determines that the difference between the chromaticity (X value, Y value) of a certain pixel in the first captured image and the chromaticity of the pixel in the second captured image at the same position as the pixel is greater than a predetermined threshold. If it is large, a pixel in the first captured image is regarded as a pixel having a different color.
  • the control unit 11 applies the blurring process to the background area (S110).
  • the first captured image is edited into an image in which the subject is clearly projected and the background is blurred.
  • the subject of the first photographed image even if the subject is irradiated with the flash if the surroundings of the mobile phone 1 are very bright, such as in daylight sunlight. And the subject of the second photographed image are unlikely to have a difference in brightness, and it may be difficult to distinguish between the subject region and the background region.
  • chromatic light is used for the flash as in this modified example, even if the surroundings of the mobile phone 1 are very bright, the difference in color between the subjects of the two captured images is obtained by irradiating the flash. It is easy to distinguish the subject area and the background area.
  • the color of the flash is set for each captured image by a user's selection operation. More specifically, the main color of the subject is selected by the user, and the complementary color of the selected color is set as the flash color.
  • FIG. 8A is a flowchart showing the shooting process in the background blur mode according to this modification.
  • FIG. 8B is a diagram showing the display 3 on which the color selection window 106 is displayed.
  • the processes of steps S131 to S133 are inserted between the process of step 102 and the process of step S103 in the shooting process of FIG.
  • FIG. 8A the description of a part of the processing that is the same as the photographing processing of FIG. 7 is omitted.
  • processing different from the imaging processing in FIG. 7 will be mainly described.
  • the control unit 11 displays the color selection window 106 on the shooting screen 104 (S131).
  • the color selection window 106 as shown in FIG. 8B, selection objects 106a corresponding to the respective selection candidate colors are arranged. The user is prompted to select the main color of the subject by a message on the color selection window 106.
  • a color is selected by a touch operation (for example, a tap operation) on any of the selection windows 106a (S132: YES)
  • the control unit 11 sets a complementary color of the selected color as a flash color (S133).
  • the first shooting and the second shooting are performed (S103 to S122).
  • the color flash set in step S133 is emitted from the display 3.
  • the subject can be irradiated with a flash of a complementary color of the main color of the subject, so a color difference is likely to appear between the subject of the first photographed image and the subject of the second photographed image. Therefore, the subject area and the background area can be easily divided.
  • any color is selected by the user from a plurality of candidates on the color selection window 106.
  • the color of the part of the subject touched by the user is acquired, and the complementary color of the acquired color is set as the flash color.
  • FIG. 9A is a flowchart showing the shooting process in the background blur mode according to this modification.
  • FIG. 9B is a diagram illustrating a state in which a message 107 for prompting touch is displayed on the display 3 and the user touches a predetermined position of the subject.
  • the processes of steps S141 to S143 are inserted between the process of step 102 and the process of step S103 in the shooting process of FIG.
  • FIG. 9A the description of a part of the processing that is the same as the photographing processing in FIG. 7 is omitted.
  • processing different from the imaging processing in FIG. 7 will be mainly described.
  • the control unit 11 displays a message 107 that urges the user to touch the position where the color is to be acquired, superimposed on the shooting screen 104 (S141). As shown in FIG. 9B, the user performs a touch operation (for example, a tap operation) on a portion that occupies the main color of the subject. When a touch operation is performed (S142: YES), the control unit 11 acquires the color at the touched position from the preview image 104a, and sets the complementary color of the acquired color as the flash color (S143).
  • a touch operation for example, a tap operation
  • the first shooting and the second shooting are performed (S103 to S122).
  • the color flash set in step S143 is emitted from the display 3.
  • the subject can be irradiated with the flash of the complementary color of the main color of the subject, so that a color difference is likely to appear between the subject of the first photographed image and the subject of the second photographed image. Therefore, the subject area and the background area can be easily divided.
  • the user can select the actual color of the subject and can set the complementary color of the actual color as the flash color.
  • ⁇ Modification 4> whether the flash is white or chromatic is automatically selected according to the brightness around the mobile phone 1. For the reasons described above, it is desirable to use a chromatic flash when the surroundings are very bright.
  • the LED backlight of the display 3 emits light with the same luminance, white light from the LED backlight passes through the liquid crystal panel in the white flash, whereas in the chromatic flash, the LED backlight Part of the white color light (wavelength) is removed by the liquid crystal panel, and the remaining light passes through the liquid crystal panel as chromatic light.
  • the brightness of the white flash is higher than the brightness of the chromatic flash. Therefore, since the white flash is easier to reach far away, it is desirable to use the white flash when the surrounding brightness is not so bright.
  • FIG. 10 is a flowchart showing the shooting process in the background blur mode according to the present modification example.
  • the processes of step S151 and step S152 are inserted between the process of step 105 and the process of step S106 in the shooting process of FIG. 4, and further, the processes of steps S121 to S124 are added. Yes.
  • FIG. 10 the description of some processes is omitted for the same process as the imaging process of FIG. Hereinafter, processing different from the imaging processing of FIG. 4 will be mainly described.
  • the illuminance detection unit 22 detects the brightness around the mobile phone 1 (S151).
  • the control unit 11 determines whether or not the detected brightness exceeds a predetermined threshold (S152).
  • the predetermined threshold is set in advance by a test or the like.
  • the control unit 11 When the detected brightness does not exceed the predetermined threshold (S152: NO), the control unit 11 performs the second shooting in a state where the white flash is released, and the first captured image and the second captured image are displayed. Based on the difference in brightness between the same pixels, the area of the first captured image is divided into a subject area and a background area (S106 to S109). On the other hand, when the detected brightness exceeds the predetermined threshold (S152: YES), the control unit 11 performs the second shooting in a state where the chromatic flash is released, and the first captured image and the second captured image are captured. Based on the color difference between the same pixels of the captured image, the region of the first captured image is divided into a subject region and a background region (S121 to S124).
  • the state (brightness, color) of the subject of the first photographed image and the subject of the second photographed image of the flash color is white or chromatic. ) Is set to a color that is likely to cause a difference. Therefore, the subject area and the background area can be easily divided.
  • Example 2 A user may want to create a composite image by pasting a subject of a captured image on another background. For example, it is assumed that an ID photo is created by pasting a subject included in an image taken outdoors on a plain background. Therefore, in this embodiment, the mobile phone 1 has an image composition mode as one of the shooting modes.
  • the in-camera 8 (first photographing unit 20) is used for photographing in the image composition mode.
  • the photographing mode is set to the image composition mode.
  • the image composition mode will be described.
  • FIG. 11 is a flowchart showing a photographing process in the image composition mode.
  • FIG. 12A is a diagram illustrating an image of a subject area cut out from the first captured image.
  • FIG. 12B is a diagram showing the display 3 on which the background selection screen 108 is displayed.
  • FIG. 12C is a diagram illustrating a composite image in which an image of the cut subject area is pasted on the selected background image.
  • the imaging process in the image composition mode includes a process for dividing the area of the captured image into a subject area and a background area, as in the first embodiment.
  • the control unit 11 activates the in-camera 8 (S201) and displays the imaging screen 104 on the display 3 as in the first embodiment. (S202).
  • the shutter operation is performed (S203: YES)
  • the first shooting and the second shooting are continuously performed, and the first shooting is performed based on the difference in brightness between the same pixels of the first shooting image and the second shooting image.
  • the area of the captured image is divided into a subject area and a background area (S204 to S209).
  • the control unit 11 cuts out the image of the subject area from the first captured image (S210).
  • the control unit 11 displays a background selection screen 108 for the user to select a background image on the display 3 (S211).
  • the background selection screen 108 includes a thumbnail 108a of a background image that is a selection candidate and a decision object 108b.
  • the user selects a thumbnail 108a of a desired background image by a touch operation (for example, a tap operation), and performs a touch operation (for example, a tap operation) on the determined object 108b.
  • the control unit 11 determines that the selection of the background image has been completed (S212: YES), and pastes the clipped image of the subject area on the selected background image (S213). As shown in FIG. 12C, a composite image is generated.
  • the control unit 11 temporarily stores the generated composite image data in the temporary storage folder 12a (S214).
  • the control unit 11 displays the storage window 105 so as to overlap the photographing screen 104 as in the first embodiment (S215, see FIG. 5B).
  • a touch operation for example, a tap operation
  • the control unit 11 determines to save (S216: YES), and saves the image data of the composite image in the permanent storage folder 12b (S217).
  • the control unit 11 stops the in-camera 8 (S219) and ends the photographing process in the image composition mode. .
  • the cellular phone has the image composition mode in which the region of the captured image is divided into the subject region and the background region, and the image of the subject region is cut out and pasted on a predetermined background image to generate a composite image. 1 has. For this reason, the user can obtain a composite image (composite photograph) in which the subject is superimposed on a desired background by photographing in the image composition mode.
  • the region of the captured image is divided into the subject region and the background region by a simple process of determining the brightness of the same pixels in the two captured images. it can.
  • or the said modification 4 can be combined with the structure of a present Example suitably.
  • the process in step S110 of the shooting process in the first to fourth modifications is replaced with the process in steps S210 to S213 in the shooting process of the present embodiment.
  • the second shooting is performed following the first shooting.
  • the first shooting may be performed following the second shooting.
  • the exposure value used for the second shooting is set according to the amount of light taken into the wide-angle lens before shooting, for example.
  • the display 3 (image output unit 13) is also used as a flash light emitting unit.
  • a dedicated light emitting unit that emits a flash may be arranged in the cabinet 2.
  • the in-camera 8 (first photographing unit 20) is used for the background blur mode and the image composition mode.
  • the out camera 9 (second imaging unit 21) may be used in the background blur mode and the image composition mode.
  • a dedicated light emitting unit that emits a flash in the shooting direction of the out-camera 9 is preferably arranged in the cabinet 2.
  • the sub-display may also be used as a flash light emitting unit.
  • a single-focus wide-angle camera is used for the in-camera 8 and the out-camera 9.
  • the in-camera 8 and the out-camera 9 are not necessarily a single-focus wide-angle camera, and may be other types of cameras.
  • the mobile phone 1 includes two cameras, an in camera 8 and an out camera 9.
  • the mobile phone 1 does not need to include two cameras, and may have at least one camera.
  • the complementary color of the selected color is set as the flash color.
  • the color selection window 106 may select a flash color, and the selected color may be set as the flash color. In this case, the user selects a complementary color of the main color of the subject on the color selection window 106.
  • the automatic exposure function is stopped at the time of the second shooting, but a configuration in which the automatic exposure function works at the time of the second shooting may be adopted.
  • the present invention is applied to a smartphone-type mobile phone.
  • the present invention is not limited to this, and the present invention may be applied to other types of mobile phones such as a straight type, a folding type, and a sliding type.
  • the present invention is not limited to a mobile phone, but can be applied to mobile terminal devices with various cameras such as a PDA (Personal Digital Assistant) and a tablet PC (Tablet PC). Furthermore, the present invention can be applied to a digital camera. In other words, the present invention can be applied to devices having various camera functions.
  • the first aspect of the present invention relates to a device having a camera function.
  • An apparatus having a camera function includes an imaging unit that captures an image, a light emitting unit that emits light in a direction in which the imaging unit captures, and an imaging control unit that controls the imaging unit and the light emitting unit.
  • the shooting control unit is configured to take a first shooting for shooting an image with the shooting unit without causing the light emitting unit to emit light based on a shutter operation, and to take an image with the shooting unit by causing the light emitting unit to emit light.
  • the first image is obtained based on a difference in state between the same parts of the first image photographed by the first photographing and the second image photographed by the second photographing. Are divided into a subject area and a background area.
  • the imaging control unit causes the light emitting unit to emit white light in the second imaging, and brightness of the same portion of the first image and the second image is increased. Based on the difference, the area of the first image may be divided into the area of the subject and the area of the background.
  • the imaging control unit causes the light emitting unit to emit chromatic light in the second imaging, and the colors of the same parts of the first image and the second image are the same. Based on the difference, the area of the first image may be divided into the area of the subject and the area of the background.
  • the photographing control unit may be configured to accept a setting operation for setting a color of light emitted from the light emitting unit.
  • the setting operation may include an operation for allowing the user to select a color included in the subject.
  • the photographing control unit may be configured to set a complementary color of the selected color to a color of light emitted from the light emitting unit.
  • a device having a camera function When configured to accept a setting operation as described above, a device having a camera function further includes a display unit and a position detection unit that detects an instruction position pointed to by the user on the display unit Can be.
  • the photographing control unit displays an image photographed by the photographing unit on the display unit before the second photographing is performed, and in the state where the image is displayed, the position detecting unit displays the image.
  • the complementary color of the color of the image at the detected indicated position may be set to the color of light emitted by the light emitting unit.
  • the device having the camera function may be configured to further include a brightness detection unit that detects the brightness around the device having the camera function.
  • the shooting control unit causes the light emitting unit to emit white light in the second shooting, and the first Based on the difference in brightness between the same parts of the image and the second image, the region of the first image is divided into the region of the subject and the region of the background, and detected by the brightness detection unit
  • the light emitting unit emits chromatic light in the second photographing, and based on the color difference between the same parts of the first image and the second image.
  • the area of the first image may be divided into the area of the subject and the area of the background.
  • the photographing control unit may be configured to execute a process of blurring the image of the background area.
  • the second aspect of the present invention relates to a shooting control method.
  • the shooting control method the first shooting for shooting an image without emitting light in the shooting direction and the second shooting for shooting an image by emitting light in the shooting direction based on a shutter operation.
  • the first shooting for shooting an image without emitting light in the shooting direction Based on the difference in state between the same parts of the first image captured by the first image capturing and the second image captured by the second image capturing. Partitioning the region into a subject region and a background region.
  • control unit shooting control unit
  • 13 image output unit light emitting unit, display unit
  • 14 touch detection unit position detection unit
  • 20 first shooting unit shooting unit
  • 22 illuminance detection unit (brightness detection unit)

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Image Input (AREA)

Abstract

 携帯電話機(1)は、画像を撮影する第1撮影部(20)と、第1撮影部(20)が撮影する方向へ発光する画像出力部(13)と、第1撮影部(20)および画像出力部(13)を制御する制御部(11)と、を備える。ここで、制御部(11)は、シャッター操作に基づいて、画像出力部(13)を発光させずに第1撮影部(20)で画像を撮影する第1の撮影と画像出力部(13)を発光させて第1撮影部(20)で画像を撮影する第2の撮影とを行い、第1の撮影により撮影された第1撮影画像と第2の撮影により撮影された第2撮影画像の同じ部位同士の状態の違いに基づいて、前記第1撮影画像の領域を、被写体の領域と背景の領域とに区分する。

Description

カメラ機能を有する機器および撮影制御方法
 本発明は、デジタルカメラ、カメラ付き携帯電話機、カメラ付きPDA(Personal Digital Assistant)、カメラ付きタブレットPC(Tablet PC)等のカメラ機能を有する機器に関する。また、本発明は、かかるカメラ機能を有する機器に適用できる撮影制御方法に関する。
 従来、携帯電話機等の携帯端末装置の多くに、カメラが搭載されている。携帯端末装置は厚みが小さく、携帯端末装置には、収容スペースの関係から、単焦点の広角カメラが用いられやすい。広角カメラは、被写界深度が深く、手前から奥へと広い範囲に焦点が合う。このため、撮影された画像には、被写体と背景の双方がはっきりと映し出される。
 ユーザは、被写体を際立たせるために被写体がはっきりし背景がぼけた撮影画像を望む場合がある。携帯端末装置が、オートフォーカスタイプの広角カメラを備える場合には、フォーカスレンズを制御して焦点が合った画像と焦点が合わない画像を撮影し、これら2つの撮影画像を合成することにより、被写体がはっきりし背景がぼけた撮影画像を得ることができる。
 上記の手法は、カメラがピントを合わせる位置を変更できない場合は用いることができない。そこで、Blurフィルタ、Gaussianフィルタ、Medianフィルタ等、既知の手法を用いたぼかし処理を背景に適用することにより、背景がぼけた撮影画像を得ることが考えられる。
 しかしながら、背景にぼかし処理を適用するためには、撮影画像において、被写体の領域と背景の領域とが区分される必要がある。
 この場合、機器に複雑な処理が求められないようにすること、即ち、簡易な処理にて、被写体の領域と背景の領域とを区分できることが望ましい。
 そこで、簡易な処理にて、撮影画像の領域を、被写体の領域と背景の領域とに区分できる、カメラ機能を有する機器を提供することが望まれている。
 本発明の第1の態様は、カメラ機能を有する機器に関する。本態様に係るカメラ機能を有する機器は、画像を撮影する撮影部と、前記撮影部が撮影する方向へ発光する発光部と、前記撮影部および前記発光部を制御する撮影制御部と、を備える。ここで、前記撮影制御部は、シャッター操作に基づいて、前記発光部を発光させずに前記撮影部で画像を撮影する第1の撮影と前記発光部を発光させて前記撮影部で画像を撮影する第2の撮影とを行い、前記第1の撮影により撮影された第1画像と前記第2の撮影により撮影された第2画像の同じ部位同士の状態の違いに基づいて、前記第1画像の領域を、被写体の領域と背景の領域とに区分する。
 本発明の第2の態様は、撮影制御方法に関する。本態様に係る撮影制御方法は、シャッター操作に基づいて、撮影方向に向けた発光を行わずに画像を撮影する第1の撮影と前記撮影方向に向けた発光を行って画像を撮影する第2の撮影とを行うステップと、前記第1の撮影により撮影された第1画像と前記第2の撮影により撮影された第2画像の同じ部位同士の状態の違いに基づいて、前記第1画像の領域を、被写体の領域と背景の領域とに区分するステップと、を含む。
 なお、「被写体」とは、背景と背景の手前に位置する主たる撮影対象とを合わせた全ての撮影対象を意味する場合と、背景の手前に位置する主たる撮影対象を意味する場合とがあるが、本実施の形態の「被写体」は、後者の、背景の手前に位置する主たる撮影対象を意味する。
 本発明の第1の態様または第2の態様によれば、簡易な処理にて、撮影画像の領域を、被写体の領域と背景の領域とに区分できる。
 本発明の効果ないし意義は、以下に示す実施の形態の説明によりさらに明らかとなろう。ただし、以下の実施の形態は、あくまでも、本発明を実施化する際の一つの例示であって、本発明は、以下の実施の形態に記載されたものに何ら制限されるものではない。
実施の形態に係る、携帯電話機の構成を示す図である。 実施の形態に係る、携帯電話機の全体構成を示すブロック図である。 実施の形態に係る、ホーム画面が表示されたディスプレイを示す図である。 実施例1に係る、背景ぼかしモードの撮影処理を示すフローチャートである。 実施例1に係る、プレビュー画像を含む撮影画面が表示されたディスプレイ、および、保存ウィンドウが撮影画面に重ねられたディスプレイを示す図である。 実施例1に係る、第1撮影画像、第2撮影画像、第1撮影画像に設定された被写体領域と背景領域、および、背景領域にぼかし処理が適用された第1撮影画像を示す図である。 変更例1に係る、背景ぼかしモードの撮影処理を示すフローチャートである。 変更例2に係る、背景ぼかしモードの撮影処理を示すフローチャート、および、色選択ウィンドウが表示されたディスプレイを示す図である。 変更例3に係る、背景ぼかしモードの撮影処理を示すフローチャート、および、ディスプレイにタッチを促すメッセージが表示され、ユーザにより被写体の所定の位置がタッチされる様子を示す図である。 変更例4に係る、背景ぼかしモードの撮影処理を示すフローチャートである。 実施例2に係る、画像合成モードの撮影処理を示すフローチャートである。 実施例2に係る、第1撮影画像から切り取られた被写体領域の画像、背景選択画面が表示されたディスプレイ、および、選択された背景画像に、切り取られた被写体領域の画像が張り付けられた合成画像を示す図である。 実施例1の変更例に係る、フラッシュ発光が行われる旨のメッセージが表示されたディスプレイを示す図である。
 以下、本発明の実施の形態について、図面を参照して説明する。
 <携帯電話機の構成>
 図1(a)ないし(c)は、それぞれ、携帯電話機1の正面図、背面図および右側面図である。以下、説明の便宜上、図1(a)ないし(c)に示すように、キャビネット2の長手方向を上下方向と定義し、キャビネット2の短手方向を左右方向と定義する。さらに、これら上下方向および左右方向に垂直な方向を前後方向と定義する。
 図1(a)ないし(c)に示されるように、携帯電話機1は、キャビネット2と、ディスプレイ3と、タッチパネル4と、マイクロフォン5と、通話スピーカ6と、外部スピーカ7と、インカメラ8と、アウトカメラ9とを含む。
 キャビネット2は、正面から見て、ほぼ長方形の輪郭を有する。キャビネット2の正面側に、ディスプレイ3が配されている。ディスプレイ3には、各種の画像(画面)が表示される。ディスプレイ3は、液晶ディスプレイであり、液晶パネルと、液晶パネルを照明するLEDバックライトを含む。ディスプレイ3は、有機ELディスプレイ等、他の種類のディスプレイであってもよい。さらに、ディスプレイ3を覆うように、タッチパネル4が配置されている。タッチパネル4は、透明なシート状に形成されている。タッチパネル4として、静電容量式、超音波式、感圧式、抵抗膜式、光検知式等、各種方式のタッチパネルが用いられ得る。
 キャビネット2の内部には、下端部にマイクロフォン5が配されている。また、キャビネット2の内部には、上端部に通話スピーカ6が配されている。マイクロフォン5は、キャビネット2の正面に形成されたマイク孔5aを通過した音声を受け付ける。マイクロフォン5は、入力された音に応じた電気信号を生成する。通話スピーカ6は、音を出力する。出力された音は、キャビネット2の正面に形成された出力孔6aを通過してキャビネット2の外に放出される。通話の際には、通信先の機器(携帯電話機等)から受信された受話音声が通話スピーカ6から出力され、ユーザが発した発話音声がマイクロフォン5に入力される。なお、音は、音声、報知音等、様々な音を含む。
 キャビネット2の内部には、外部スピーカ7が配されている。キャビネット2の背面には、外部スピーカ7と対向する領域に出力孔7aが形成されている。外部スピーカ7から出力された音は、出力孔7aを通過してキャビネット2の外に放出される。
 キャビネット2の上部には、正面側にインカメラ8が配されており、背面側にアウトカメラ9が配されている。インカメラ8およびアウトカメラ9は、何れも、単焦点の広角カメラである。インカメラ8は、携帯電話機1の正面方向に存在する撮影対象を撮影する。インカメラ8は、CCD、CMOSセンサ等の撮像素子と、撮影対象の像を撮像素子に結像させる単焦点の広角レンズとを含む。アウトカメラ9は、携帯電話機1の背面方向に存在する撮影対象を撮影する。アウトカメラ9は、CCD、CMOSセンサ等の撮像素子と、撮影対象の像を撮像素子に結像させる単焦点の広角レンズと、フォーカス調整のためのフォーカスレンズとを含む。
 図2は、携帯電話機1の全体構成を示すブロック図である。
 図2に示されるように、携帯電話機1は、制御部11と、記憶部12と、画像出力部13と、タッチ検出部14と、音声入力部15と、音声出力部16と、音声処理部17と、キー入力部18と、通信部19と、第1撮影部20と、第2撮影部21と、照度検出部22とを含む。
 記憶部12は、ROM、RAM、外部メモリを含む。記憶部12には、各種のプログラムが記憶されている。記憶部12に記憶されるプログラムは、携帯電話機1の各部を制御するための制御プログラムの他、各種アプリケーションプログラム(以下、単に「アプリケーション」と称する)、たとえば、電話、メッセージ、カメラ、ウェブブラウザ、地図、ゲーム、スケジュール管理、等のアプリケーションを含む。さらに、記憶部12に記憶されるプログラムは、後述する、背景ぼかしモード等、各種の撮影モードの撮影処理を実行するためのプログラムを含む。プログラムは、メーカによって携帯電話機1の製造時に記憶部12に記憶される他、通信網やメモリカード、CD-ROM等の記憶媒体を介して記憶部12に記憶される。
 記憶部12には、プログラムの実行の際、一時的に利用または生成されるデータを記憶するワーキング領域も含まれる。
 記憶部12には、インカメラ8およびアウトカメラ9で撮影された画像のために、画像(画像データ)を一時的に記憶する一時記憶フォルダ12aと、画像(画像データ)を恒久的に記憶する恒久記憶フォルダ12bとが用意されている。さらに、記憶部12には、背景ぼかしモードの撮影処理において、第1の撮影と第2の撮影で得られた画像(画像データ)を一時的に記憶する編集フォルダ12cが用意されている。
 制御部11は、CPUを含む。制御部11は、記憶部12に記憶されたプログラムに従って、携帯電話機1を構成する各部(記憶部12、画像出力部13、タッチ検出部14、音声入力部15、音声出力部16、音声処理部17、キー入力部18、通信部19、第1撮影部20、第2撮影部21、照度検出部22等)を制御する。
 画像出力部13は、図1(a)に示すディスプレイ3を含む。画像出力部13は、制御部11からの制御信号と画像信号に基づき、ディスプレイ3に画像(画面)を表示する。また、画像出力部13は、制御部11からの制御信号に応じて、ディスプレイ3の点灯、消灯および輝度の調整を行う。さらに、画像出力部13は、制御部11からの制御信号に応じて、通常の動作時より高い電圧を短い時間、LEDバクライトへ印加することにより、ディスプレイ3からフラッシュを放出させる。このとき、液晶パネルの一面を白色とすると、白色(無色)のフラッシュが放出され、液晶パネルの一面を、赤、青、緑など、所定の有彩色とすると、所定の有彩色のフラッシュが放出される。
 タッチ検出部14は、図1(a)に示すタッチパネル4を含み、タッチパネル4に対するタッチ操作を検出する。より具体的には、タッチ検出部14は、タッチパネル4に対する、ユーザの指などの接触対象が接触する位置(以下、「タッチ位置」と称する)を検出する。タッチ検出部14は、検出したタッチ位置に基づいて生成された位置信号を制御部11へ出力する。タッチパネル4に対するタッチ操作は、ディスプレイ3に表示される画面やオブジェクトを対象として行われるものであり、ディスプレイ3に対するタッチ操作である、と言い換えることができる。
 なお、タッチ検出部14は、ユーザの指がディスプレイ3、すなわち、タッチパネル4に近接したときに、指が近接した位置をタッチ位置として検出する構成であってもよい。たとえば、タッチ検出部14のタッチパネル4が、静電容量式である場合、指がタッチパネル4に近接したときに静電容量の変化が検出閾値を超えるように、その感度が調整される。また、タッチパネル4を含むキャビネット2の正面が、ガラス等で構成される透明なカバーで覆われる場合、タッチパネル4へ触れようとする指はタッチパネル4でなくカバーに接触する。この場合、タッチパネル4は、指がカバーに接触したとき、あるいはカバーに近接したときにタッチ位置を検出する。
 ユーザは、タッチパネル4が設けられることにより、タッチパネル4に指を触れるあるいは近接させることにより、ディスプレイ3に対し様々なタッチ操作を行うことができる。タッチ操作は、たとえば、タップ操作、フリック操作、スライド操作等を含む。タップ操作とは、ユーザがタッチパネル4に指を接触あるいは近接させた後、短時間のうちに指をタッチパネル4から離す操作である。フリック操作とは、ユーザがタッチパネル4に指を接触あるいは近接させた後、タッチパネル4を指で任意の方向に弾くあるいは掃う操作である。スライド操作とは、ユーザがタッチパネル4に指を接触あるいは近接させたまま、任意の方向へ指を移動させる操作である。
 たとえば、タッチ検出部14がタッチ位置を検出した場合に、タッチ位置が検出されてから予め定められた第1時間以内にタッチ位置が検出されなくなると、制御部11は、タッチ操作をタップ操作と判定する。タッチ位置が検出されてから予め定められた第2時間以内に予め定められた第1距離以上タッチ位置が移動した後、タッチ位置が検出されなくなった場合、制御部11は、タッチ操作をフリック操作と判定する。タッチ位置が検出された後、予め定めた第2距離以上タッチ位置が移動すると、制御部11は、タッチ操作をスライド操作と判定する。
 音声入力部15は、マイクロフォン5を含む。音声入力部15は、マイクロフォン5からの電気信号を音声処理部17へ出力する。
 音声出力部16は、通話スピーカ6および外部スピーカ7を含む。音声出力部16には、音声処理部17からの電気信号が入力される。音声出力部16は、通話スピーカ6または外部スピーカ7から音を出力させる。
 音声処理部17は、音声入力部15からの電気信号にA/D変換等を施し、変換後のデジタルの音声信号を制御部11へ出力する。音声処理部17は、制御部11からのデジタルの音声信号にデコード処理およびD/A変換等を施し、変換後の電気信号を音声出力部16に出力する。
 キー入力部18は、少なくとも1つ以上のハードキーを含む。たとえば、キー入力部18は、携帯電話機1に電源を投入するための電源キー等を含む。キー入力部18は、押下されたハードキーに対応する信号を制御部11に出力する。
 通信部19は、通話や通信を行うため、信号を変換するための回路、電波を送受信するアンテナ等を含む。通信部19は、制御部11から入力される通話や通信のための信号を無線信号に変換し、変換された無線信号を、アンテナを介して基地局や他の通信装置等の通信先へ送信する。さらに、通信部19は、アンテナを介して受信した無線信号を制御部11が利用できる形式の信号へ変換し、変換された信号を制御部11へ出力する。
 第1撮影部20は、図1(a)に示すインカメラ8、撮像制御回路などを含む。第1撮影部20は、インカメラ8により撮影された画像の画像データに各種の画像処理を施し、画像処理後の画像データを制御部11に出力する。第1撮影部20は、自動露出機能を有し、適正露出が得られるよう、広角レンズに取り込まれる光量に応じて露出値(絞り値、シャッタースピード)を調整する。さらに、第1撮影部20は、自動ホワイトバランス機能を有し、広角レンズに取り込まれる光に応じてホワイトバランス値を調整する。
 第2撮影部21は、図1(b)に示すアウトカメラ9、撮像制御回路などを含む。第2撮影部21は、アウトカメラ9により撮影された画像の画像データに各種の画像処理を施し、画像処理後の画像データを制御部11に出力する。第2撮影部21は、第1撮影部20と同様、自動露出機能および自動ホワイトバランス機能を有する。さらに、第2撮影部21は、オートフォーカス機能を有し、フォーカスレンズを移動させて、フォーカスを調整する。
 照度検出部22は、照度センサ等を含み、周囲の明るさを検出する。照度センサからは、周囲の明るさに応じた検出信号が出力され、制御部11へ入力される。制御部11は、周囲の明るさに応じて、ディスプレイ3の輝度を調整する。
 図3は、ホーム画面101が表示されたディスプレイ3を示す図である。
 携帯電話機1では、種々の画面がディスプレイ3に表示され、画面上においてユーザにより種々のタッチ操作がなされる。たとえば、初期画面として、ホーム画面101がディスプレイ3に表示される。図3に示すように、ホーム画面101は、各種のアプリケーションを起動するための起動用アイコン101aを含む。起動用アイコン101aには、たとえば、電話アイコン101b、カメラアイコン101c、メールアイコン101d等が含まれる。
 ディスプレイ3には、ホーム画面101の他に、通知バー102および操作キー群103が表示される。通知バー102は、ディスプレイ3に表示されたホーム画面101の上方に表示される。通知バー102は、現在時刻、バッテリー残量を示す残量メータ、電波の強度を示す強度メータ等を含む。操作キー群103は、ホーム画面101の下方に表示される。操作キー群103は、設定キー103a、ホームキー103bおよびバックキー103cから構成されている。設定キー103aは、主に、各種設定を行う設定画面をディスプレイ3に表示させるためのキーである。ホームキー103bは、主に、ディスプレイ3の表示を他の画面からホーム画面101に移行させるためのキーである。バックキー103cは、主に、実行された処理を1ステップ前の処理に戻すためのキーである。
 各種アプリケーションを利用する場合、ユーザは、利用するアプリケーションに対応する起動用アイコン101aに対してタップ操作を行う。アプリケーションが起動されて、アプリケーションに基づく実行画面が表示される。なお、実行されたアプリケーションの実行画面が表示されても、あるいは、アプリケーションの進行に伴って実行画面が遷移しても、通知バー102および操作キー群103は、ディスプレイ3に表示され続ける。
 さて、ホーム画面101において、ユーザが、カメラアイコン101cに対するタップ操作を行うと、カメラのアプリケーションが起動する。カメラのアプリケーションは、各種の撮影モードを有する。
 <実施例1>
 携帯電話機1に搭載されたインカメラ8およびアウトカメラ9は、広角カメラであり、通常の撮影モードで撮影が行われた場合、手前から奥へと広い範囲に焦点が合う。このため、通常の撮影モードで撮影された画像では、手前の被写体と奥の背景の双方がはっきりと映し出される。ユーザは、被写体を際立たせるために被写体がはっきりし背景がぼけた撮影画像を望む場合がある。そこで、本実施例では、携帯電話機1が、撮影モードの一つとして背景ぼかしモードを備えている。背景ぼかしモードは、人物等の被写体を際立たせるために、撮影画像において、被写体ははっきりと映し出し背景はぼかす撮影モードである。背景ぼかしモードの撮影には、インカメラ8(第1撮影部20)が用いられる。
 ディスプレイ3に表示された撮影モードの選択画面(図示せず)から、ユーザにより、背景ぼかしモードが選択されると、撮影モードが背景ぼかしモードに設定される。以下、背景ぼかしモードについて説明する。
 図4は、背景ぼかしモードの撮影処理を示すフローチャートである。図5(a)は、プレビュー画像104aを含む撮影画面104が表示されたディスプレイ3を示す図である。図5(b)は、保存ウィンドウ105が撮影画面104に重ねられたディスプレイ3を示す図である。
 背景ぼかしモードに設定された状態で、カメラのアプリケーションが起動すると、背景ぼかしモードの撮影処理が開始される。
 制御部11は、インカメラ8を起動するとともに(S101)、画像出力部13を制御して、撮影画面104をディスプレイ3に表示する(S102)。
 図5(a)に示すように、撮影画面104は、プレビュー画像104aおよびシャッターオブジェクト104bを含む。プレビュー画像104aは、どのような画像が撮影されるかをユーザが事前に確認するために表示される。プレビュー画像104aは、撮影される画像より低解像度の画像であり、動画の状態で表示される。シャッターオブジェクト104bは、シャッター操作に用いられる。
 制御部11は、シャッター操作がなされたか否かを判定する(S103)。ユーザがシャッターオブジェクト104b対してタップ操作を行うと、シャッター操作がなされたと判定される。
 シャッター操作がなされると(S103:YES)、制御部11は、インカメラ8により第1の撮影を行う(S104)。第1の撮影では、制御部11は、ディスプレイ3からフラッシュを放出させない。さらに、制御部11は、自動露出機能を働かせて適正露出が得られる露出値を決定し、決定した露出値で撮影を行う。制御部11は、第1の撮影により得られた画像(以下、「第1撮影画像」と称する)の画像データを編集フォルダ12cに記憶する(S105)。
 制御部11は、第1の撮影に続けて第2の撮影を行う(S106)。第1の撮影と第2の撮影との間隔は、その間に被写体が動いてしまわないような短い時間に設定される。第2の撮影では、制御部11は、ディスプレイ3からフラッシュを放出させる。このとき、制御部11は、ディスプレイ3の一面を白色にする。これにより、ディスプレイ3からは、白色(無色)のフラッシュが放出される。さらに、制御部11は、自動露出機能を働かせず、第1の撮影に用いた露出値で撮影を行う。制御部11は、第2の撮影により得られた画像(以下、「第2撮影画像」と称する)の画像データを編集フォルダ12cに記憶する(S107)。
 図6(a)は、第1撮影画像を示す図であり、図6(b)は、第2撮影画像を示す図である。図6(c)は、第1撮影画像に設定された被写体領域と背景領域を示す図である。図6(d)は、背景領域にぼかし処理が適用された第1撮影画像を示す図である。図6(a)ないし(d)には、部屋の中で人物が撮影された事例が示されている。
 図6(a)および(b)を参照し、インカメラ8から見て、被写体である人物は手前に位置し、背景である部屋の風景は奥に位置する。第2の撮影では、白色のフラッシュが使用される。このため、第2撮影画像において、手前に位置するためフラッシュが届きやすい被写体(人物)は、第1撮影画像に比べて明るく写し出され、奥に位置するためフラッシュが届きにくい背景(部屋の風景)は、第1撮影画像と同程度の明るさに映し出される。第2の撮影では、フラッシュが放出されるため、インカメラ8に取り込まれる光量が多くなるが、自動露出機能による、多くなった光量に応じた露出の調整は行われず、第1の撮影時の露出値が用いられる。よって、第2の撮影では、被写体がより明るく映し出される。
 制御部11は、第1撮影画像と第2撮影画像の同じ画素同士の明るさを比較し(S108)、その比較結果に基づいて、第1撮影画像の領域を、被写体の領域(以下、「被写体領域」と称する)と背景の領域(以下、「背景領域」と称する)に区分する(S109)。すなわち、制御部11は、図6(c)に示すように、第1撮影画像において、明るさの異なる画素で構成される領域を被写体領域に設定し、明るさの同じ画素で構成される領域を背景領域に設定する。たとえば、制御部11は、第1撮影画像のある画素の明るさと、その画素と同じ位置にある第2撮影画像の画素の明るさとの差が所定の閾値より大きい場合に、第1撮影画像のある画素を、明るさの異なる画素と看做す。
 制御部11は、背景領域にぼかし処理を適用する(S110)。ぼかし処理の手法として、既知の手法、たとえば、Blurフィルタ、Gaussianフィルタ、Medianフィルタ等の手法を用いることができる。図6(d)に示すように、第1撮影画像が、被写体がはっきりと映し出され背景がぼけた画像に編集される。
 制御部11は、編集された第1撮影画像の画像データを、一時記憶フォルダ12aに一時的に記憶し(S111)、保存の可否をユーザが決定するための保存ウィンドウ105を撮影画面104に重ねて表示する(S112)。図5(b)に示すように、保存ウィンドウ105は、保存オブジェクト105aと取消オブジェクト105bとを含む。なお、撮影画面104には、プレビュー画像104aに代わって、編集後の第1撮影画像である保存対象の画像104cが含まれる。
 制御部11は、保存対象の画像104cを保存するか否かを判定する(S113)。ユーザは、保存対象の画像104cを確認し、保存する場合は保存オブジェクト105aを操作し、保存しない場合は取消オブジェクト105bを操作する。保存オブジェクト105aに対するタッチ操作(たとえば、タップ操作)がなされると、制御部11は、保存すると判定し(S113:YES)、保存対象の画像104cの画像データを恒久記憶フォルダ12bに保存する(S114)。制御部11は、保存ウィンドウ105を閉じ、ステップS103の処理に戻って、再びシャッター操作を待つ。一方、取消オブジェクト105bに対するタッチ操作(たとえば、タップ操作)がなされると、制御部11は、保存しないと判定し(S113:NO)、保存対象の画像104cの画像データを恒久記憶フォルダ12bに保存しないで、保存ウィンドウ105を閉じ、ステップS103の処理に戻る。
 シャッター操作がなされる前に、カメラのアプリケーションを終了する操作、たとえば、バックキー103cへのタップ操作がなされると(S115:YES)、制御部11は、インカメラ8を停止して(S116)、背景ぼかしモードの撮影処理を終了する。
 以上、本実施例によれば、撮影画像の領域を、被写体領域と背景領域とに区分し、背景領域にぼかし処理を適用する背景ぼかしモードを、携帯電話機1が備えている。このため、ユーザは、背景ぼかしモードで撮影を行うことにより、被写体が際立った撮影画像(写真)を得ることができる。
 さらに、本実施例によれば、フラッシュ発光を行わない状態での第1の撮影とフラッシュ発光を行った状態での第2の撮影とが続けて行われ、2つ撮影画像における同じ画素同士の明るさが比較され、その比較結果に基づいて、撮影画像の領域が、被写体領域と背景領域とに区分される。よって、画像認識のような比較的複雑な処理でなく、2つ撮影画像における同じ画素同士の明るさを判断するという簡易な処理にて、撮影画像の領域を被写体領域と背景領域とに区分できる。
 さらに、本実施例では、フラッシュ発光を行う第2の撮影では、自動露出機能による露出の調整が行われない。よって、被写体がより明るく映し出されるので、撮影画像の領域を、被写体領域と背景領域とに区分しやすくなる。
 さらに、本実施例では、背景ぼかしモードに、ディスプレイ3と同じ側に配されたインカメラ8が用いられているので、画像出力部13とフラッシュの発光部とにディスプレイ3を兼用できる。
 なお、急なフラッシュ発光によりユーザが驚かないように、フラッシュ発光を行った状態での第2の撮影が行われる直前に、フラッシュ発光が行われることが報知されてもよい。たとえば、ディスプレイ3にフラッシュ発光が行われる旨のメッセージが表示される、またはフラッシュ発光が行われる旨のアナウンスが音声出力されるといった報知の少なくともいずれか一つが実施されてよい。図13には、ディスプレイ3にフラッシュ発光が行われる旨のメッセージが表示される例が示されている。
 また、フラッシュ発光が行われることを報知している間に第1の撮影を行う構成とすれば、報知のために撮影が大幅に遅延することを防ぐことができる。
 <変更例1>
 上記実施例では、背景ぼかしモードにおいて、白色の光がフラッシュとして用いられ、2つの撮影画像の同じ画素同士の明るさの違いに基づいて、被写体領域と背景領域との区分けが行われる。これに対し、本変更例では、背景ぼかしモードにおいて、赤、青、緑等の有彩色の光がフラッシュとして用いられ、2つの撮影画像の同じ画素同士の色の違いに基づいて、被写体領域と背景領域との区分けが行われる。
 図7は、本変更例に係る、背景ぼかしモードの撮影処理を示すフローチャートである。図7の撮影処理では、図4の撮影処理のステップ106ないしステップS109の処理が、ステップS121ないしステップS124の処理に置き換えられる。以下、主に、図4の撮影処理と異なる処理について説明する。
 制御部11は、第1撮影画像を記憶すると(S105)、第2の撮影を行う(S121)。第2の撮影では、制御部11は、ディスプレイ3からフラッシュを放出させる。このとき、制御部11は、ディスプレイ3の一面を所定の有彩色にする。これにより、ディスプレイ3からは、所定の有彩色のフラッシュが放出される。フラッシュの色は、赤、青、緑など、予め定めた有彩色とすることができる。さらに、制御部11は、自動露出機能を働かせず、第1の撮影に用いた露出値で撮影を行う。制御部11は、第2撮影画像の画像データを編集フォルダ12cに記憶する(S122)。
 第2の撮影では、有彩色のフラッシュが使用される。このため、第2撮影画像において、手前に位置するためフラッシュが届きやすい被写体は、フラッシュの色味を帯びる。一方、奥に位置するためフラッシュが届きにくい背景は、フラッシュの色味を帯びず、第1撮影画像から変化しない。
 制御部11は、第1撮影画像と第2撮影画像の同じ画素同士の色を比較し(S123)、その比較結果に基づいて、第1撮影画像の領域を、被写体領域と背景領域に区分する(S124)。すなわち、制御部11は、第1撮影画像において、色の異なる画素で構成される領域を被写体領域に設定し、色の同じ画素で構成される領域を背景領域に設定する。たとえば、制御部11は、第1撮影画像のある画素の色度(X値、Y値)と、その画素と同じ位置にある第2撮影画像の画素の色度との差が所定の閾値より大きい場合に、第1撮影画像のある画素を、色の異なる画素と看做す。
 制御部11は、背景領域にぼかし処理を適用する(S110)。第1撮影画像が、被写体がはっきりと映し出され背景がぼけた画像に編集される。
 上記実施例のように白色の光をフラッシュに用いた場合、昼間の太陽光の下など、携帯電話機1の周囲が非常に明るいと、被写体にフラッシュを照射しても、第1撮影画像の被写体と第2撮影画像の被写体とに明るさの差が出にくく、被写体領域と背景領域との区分けを行いにくい場合がある。これに対し、本変更例のように、有彩色の光をフラッシュに用いた場合、携帯電話機1の周囲が非常に明るいときでも、フラッシュを照射することにより2つの撮影画像の被写体に色の差を与えることができ、被写体領域と背景領域との区分けを行いやすい。
 <変更例2>
 本変更例では、ユーザの選択操作によって、撮影画像毎にフラッシュの色が設定される。より詳しくは、ユーザにより被写体の主な色が選択され、選択された色の補色がフラッシュの色に設定される。
 図8(a)は、本変更例に係る、背景ぼかしモードの撮影処理を示すフローチャートである。図8(b)は、色選択ウィンドウ106が表示されたディスプレイ3を示す図である。図8(a)の撮影処理では、図7の撮影処理におけるステップ102の処理とステップS103の処理の間に、ステップS131ないしステップS133の処理が挿入される。なお、便宜上、図8(a)では、図7の撮影処理と同じ処理について、一部の処理の記載が省略されている。以下、主に、図7の撮影処理と異なる処理について説明する。
 撮影画面104がディスプレイ3に表示されると(S102)、制御部11は、撮影画面104に重ねて色選択ウィンドウ106を表示する(S131)。色選択ウィンドウ106には、図8(b)に示すように、選択候補の各色に対応する選択オブジェクト106aが配されている。ユーザは、色選択ウィンドウ106上のメッセージにより、被写体の主な色を選択するように促される。何れかの選択ウィンドウ106aに対するタッチ操作(たとえば、タップ操作)により色が選択されると(S132:YES)、制御部11は、選択された色の補色をフラッシュの色に設定する(S133)。
 ユーザによりシャッター操作がなされると、第1の撮影および第2の撮影が行われる(S103~S122)。第2の撮影では、ステップS133で設定された色のフラッシュがディスプレイ3から放出される。
 本変更例によれば、被写体の主な色の補色のフラッシュを被写体に照射できるので、第1撮影画像の被写体と第2撮影画像の被写体に色の差が出やすい。よって、被写体領域と背景領域との区分が行いやすくなる。
 <変更例3>
 上記変更例2では、色選択ウィンドウ106上で、複数の候補の中からユーザにより何れかの色が選択される。これに対し、本変更例では、ユーザによりタッチされた被写体の部位の色が取得され、取得された色の補色がフラッシュの色に設定される。
 図9(a)は、本変更例に係る、背景ぼかしモードの撮影処理を示すフローチャートである。図9(b)は、ディスプレイ3にタッチを促すメッセージ107が表示され、ユーザにより被写体の所定の位置がタッチされる様子を示す図である。図9(a)の撮影処理では、図7の撮影処理におけるステップ102の処理とステップS103の処理の間に、ステップS141ないしステップS143の処理が挿入される。なお、便宜上、図9(a)では、図7の撮影処理と同じ処理について、一部の処理の記載が省略されている。以下、主に、図7の撮影処理と異なる処理について説明する。
 撮影画面104がディスプレイ3に表示されると(S102)、制御部11は、撮影画面104に重ねて、色を取得する位置へのタッチをユーザに促すメッセージ107を表示する(S141)。図9(b)に示すように、ユーザは、被写体の主要な色を占める部位に対してタッチ操作(たとえば、タップ操作)を行う。タッチ操作がなされると(S142:YES)、制御部11は、プレビュー画像104aからタッチされた位置の色を取得し、取得した色の補色をフラッシュの色に設定する(S143)。
 ユーザによりシャッター操作がなされると、第1の撮影および第2の撮影が行われる(S103~S122)。第2の撮影では、ステップS143で設定された色のフラッシュがディスプレイ3から放出される。
 本変更例によれば、被写体の主な色の補色のフラッシュを被写体に照射できるので、第1撮影画像の被写体と第2撮影画像被写体に色の差が出やすい。よって、被写体領域と背景領域との区分が行いやすくなる。
 さらに、本変更例によれば、ユーザは、被写体が有する実際の色を選択でき、実際の色の補色をフラッシュの色に設定できる。
 <変更例4>
 本変更例では、携帯電話機1の周囲の明るさに応じてフラッシュを白色とするか有彩色とするかが自動的に選択される。上述した理由により、周囲が非常に明るいときは、有彩色のフラッシュを用いることが望ましい。一方、ディスプレイ3のLEDバックライトを同じ輝度で発光させた場合、白色のフラッシュでは、LEDバックライトからの白色の光が液晶パネルを全て通過するのに対し、有彩色のフラッシュでは、LEDバックライトからの白色の光の一部の色(波長)の光が液晶パネルで除かれ、残りの光が有彩色の光として液晶パネルを通過する。このため、有彩色のフラッシュの輝度に比べて、白色のフラッシュの輝度が高くなる。よって、白色のフラッシュの方が遠くへ届きやすいため、周囲の輝度がそれほど明るくない場合は、白色のフラッシュを用いることが望ましい。
 図10は、本変更例に係る、背景ぼかしモードの撮影処理を示すフローチャートである。図10の撮影処理では、図4の撮影処理におけるステップ105の処理とステップS106の処理の間に、ステップS151およびステップS152の処理が挿入され、さらに、ステップS121ないしステップS124の処理が追加されている。なお、便宜上、図10では、図4の撮影処理と同じ処理について、一部の処理の記載が省略されている。以下、主に図4の撮影処理と異なる処理について説明する。
 制御部11は、第1撮影画像を記憶すると(S105)、照度検出部22により携帯電話機1の周囲の明るさを検出する(S151)。制御部11は、検出された明るさが所定の閾値を超えているか否かを判定する(S152)。所定の閾値は、試験等により予め設定される。
 検出された明るさが所定の閾値を超えていない場合(S152:NO)、制御部11は、白色のフラッシュを放出した状態で第2の撮影を行い、第1撮影画像と第2撮影画像の同じ画素同士の明るさの違いに基づいて、第1撮影画像の領域を、被写体領域と背景領域とに区分する(S106~S109)。一方、検出された明るさが所定の閾値を超えている場合(S152:YES)、制御部11は、有彩色のフラッシュを放出した状態で第2の撮影を行い、第1撮影画像と第2撮影画像の同じ画素同士の色の違いに基づいて、第1撮影画像の領域を、被写体領域と背景領域とに区分する(S121~S124)。
 本変更例によれば、携帯電話機1の周囲の明るさに応じて、フラッシュの色が白色または有彩色のうち、第1撮影画像の被写体と第2撮影画像の被写体に状態(明るさ、色)の差が生じやすい色に設定される。よって、被写体領域と背景領域との区分が行いやすくなる。
 <実施例2>
 ユーザは、ある撮影画像の被写体を別の背景に張り付けて合成画像を作成したい場合がある。たとえば、屋外で撮影した画像に含まれる被写体を無地の背景に張り付けて証明写真を作成する場合などが想定される。そこで、本実施例では、携帯電話機1が、撮影モードの一つとして画像合成モードを備えている。画像合成モードの撮影には、インカメラ8(第1撮影部20)が用いられる。
 ディスプレイ3に表示された撮影モードの選択画面(図示せず)から、ユーザにより、画像合成モードが選択されると、撮影モードが画像合成モードに設定される。以下、画像合成モードについて説明する。
 図11は、画像合成モードの撮影処理を示すフローチャートである。図12(a)は、第1撮影画像から切り取られた被写体領域の画像を示す図である。図12(b)は背景選択画面108が表示されたディスプレイ3を示す図である。図12(c)は、選択された背景画像に、切り取られた被写体領域の画像が張り付けられた合成画像を示す図である。
 撮影画像から被写体を切り取るためには、撮影画像の領域を、被写体領域と背景領域とに区分する必要がある。このため、画像合成モードの撮影処理には、上記実施例1と同様、撮影画像の領域を、被写体領域と背景領域に区分するための処理が含まれている。
 図11を参照して、画像合成モードの撮影処理が開始されると、上記実施例1と同様、制御部11は、インカメラ8を起動し(S201)、撮影画面104をディスプレイ3に表示する(S202)。シャッター操作がなされると(S203:YES)、第1の撮影と第2の撮影を続けて行い、第1撮影画像と第2撮影画像の同じ画素同士の明るさの違いに基づいて、第1撮影画像の領域を、被写体領域と背景領域とに区分する(S204~S209)。そして、制御部11は、図12(a)に示すように、第1撮影画像から被写体領域の画像を切り取る(S210)。
 制御部11は、ユーザが背景画像を選択するための背景選択画面108をディスプレイ3に表示する(S211)。図12(b)に示すように、背景選択画面108は選択候補である背景画像のサムネイル108aと決定オブジェクト108bとを含む。
 ユーザは、所望の背景画像のサムネイル108aをタッチ操作(たとえば、タップ操作)により選択し、決定オブジェクト108bへのタッチ操作(たとえば、タップ操作)を行う。制御部11は、背景画像の選択が完了したと判定し(S212:YES)、切り取られた被写体領域の画像を、選択された背景画像に張り付ける(S213)。図12(c)に示すように、合成画像が生成される。制御部11は、生成された合成画像の画像データを、一時記憶フォルダ12aに一時的に記憶する(S214)。
 制御部11は、上記実施例1と同様、保存ウィンドウ105を撮影画面104に重ねて表示する(S215、図5(b)参照)。保存オブジェクト105aに対するタッチ操作(たとえば、タップ操作)がなされると、制御部11は、保存すると判定し(S216:YES)、合成画像の画像データを恒久記憶フォルダ12bに保存する(S217)。
 シャッター操作がなされる前に、カメラのアプリケーションを終了する操作がなされると(S218:YES)、制御部11は、インカメラ8を停止して(S219)、画像合成モードの撮影処理を終了する。
 以上、本実施例によれば、撮影画像の領域を、被写体領域と背景領域とに区分し、被写体領域の画像を切り取り所定の背景画像に張り付けて合成画像を生成する画像合成モードを、携帯電話機1が備えている。このため、ユーザは、画像合成モードで撮影を行うことにより、被写体を所望の背景に重ねた合成画像(合成写真)を得ることができる。
 さらに、本実施例によれば、上記実施例1と同様、2つ撮影画像における同じ画素同士の明るさを判断するという簡易な処理にて、撮影画像の領域を被写体領域と背景領域とに区分できる。
 なお、本実施例の構成に、上記変更例1ないし上記変更例4の構成を、適宜、組み合わせることができる。この場合、上記変更例1ないし上記変更例4における撮影処理のステップS110の処理が、本実施例の撮影処理におけるステップS210ないしステップS213の処理に置き換えられる。
 <その他の変更例>
 以上、本発明の実施の形態について説明したが、本発明は、上記実施の形態等によって何ら制限されるものではなく、また、本発明の実施の形態も、上記以外に種々の変更が可能である。
 たとえば、上記実施例1等では、第1の撮影に続いて第2の撮影が行われる。しかしながら、第2の撮影に続いて第1の撮影が行われても良い。この場合、第2の撮影に用いられる露出値は、たとえば、撮影前に広角レンズに取り込まれる光量に応じて設定される。
 また、第2の撮影に続いて第1の撮影が行われる場合、シャッター操作に基づくシャッター音と第2の撮影の発光とを同時に発生させることが可能となり、それらの発生タイミングの大幅なずれを防ぐことができるため、ユーザにとって比較的違和感のない操作が可能となる。
 さらに、上記実施例1等では、ディスプレイ3(画像出力部13)がフラッシュの発光部として兼用される。しかしながら、フラッシュを放出する専用の発光部がキャビネット2に配されても良い。
 さらに、上記実施例1等では、背景ぼかしモードおよび画像合成モードにインカメラ8(第1撮影部20)が用いられる。しかしながら、背景ぼかしモードおよび画像合成モードにアウトカメラ9(第2撮影部21)が用いられても良い。この場合、アウトカメラ9での撮影方向にフラッシュを放出する専用の発光部がキャビネット2に配されると良い。あるいは、キャビネット2の背面側にサブディスプレイが配される場合には、サブディスプレイがフラッシュの発光部に兼用されても良い。
 さらに、上記実施例1等では、インカメラ8およびアウトカメラ9に、単焦点の広角カメラが用いられている。しかしながら、インカメラ8およびアウトカメラ9は、必ずしも単焦点の広角カメラでなくてよく、その他の種類のカメラでも良い。
 さらに、上記実施例1等では、携帯電話機1がインカメラ8およびアウトカメラ9の2つのカメラを備えている。しかしながら、携帯電話機1は、2つのカメラを備える必要はなく、少なくとも1つのカメラを備えていれば良い。
 さらに、上記変更例2では、色選択ウィンドウ106上でユーザが被写体の主な色を選択すると、選択された色の補色がフラッシュの色に設定される。しかしながら、色選択ウィンドウ106が、フラッシュの色を選択するものとされ、選択された色がフラッシュの色に設定されても良い。この場合、ユーザは、被写体の主な色の補色を、色選択ウィンドウ106上で選択する。
 さらに、上記実施例1等では、第2の撮影の際に自動露出機能が停止されるが、第2の撮影の際に自動露出機能が働くような構成が採られても良い。
 さらに、上記実施の形態では、スマートフォン型の携帯電話機に本発明が適用されている。しかしながら、これに限らず、ストレート式、折りたたみ式、スライド式等、他のタイプの携帯電話機に本発明が適用されても良い。
 さらに、本発明は、携帯電話機に限られず、PDA(Personal Digital Assistant)、タブレットPC(Tablet PC)等、種々のカメラ付きの携帯端末装置に適用可能である。さらに、本発明は、デジタルカメラに適用可能である。すなわち、本発明は、各種のカメラ機能を有する機器に適用可能である。
 この他、本発明の実施形態は、請求の範囲に示された技術的思想の範囲内において、適宜、種々の変更が可能である。
 本発明の第1の態様は、カメラ機能を有する機器に関する。本態様に係るカメラ機能を有する機器は、画像を撮影する撮影部と、前記撮影部が撮影する方向へ発光する発光部と、前記撮影部および前記発光部を制御する撮影制御部と、を備える。ここで、前記撮影制御部は、シャッター操作に基づいて、前記発光部を発光させずに前記撮影部で画像を撮影する第1の撮影と前記発光部を発光させて前記撮影部で画像を撮影する第2の撮影とを行い、前記第1の撮影により撮影された第1画像と前記第2の撮影により撮影された第2画像の同じ部位同士の状態の違いに基づいて、前記第1画像の領域を、被写体の領域と背景の領域とに区分する。
 本態様に係るカメラ機能を有する機器において、前記撮影制御部は、前記第2の撮影において前記発光部に白色の光を発せさせ、前記第1画像と前記第2画像の同じ部位同士の明るさの違いに基づいて、前記第1画像の領域を、前記被写体の領域と前記背景の領域とに区分するよう構成され得る。
 本態様に係るカメラ機能を有する機器において、前記撮影制御部は、前記第2の撮影において前記発光部に有彩色の光を発せさせ、前記第1画像と前記第2画像の同じ部位同士の色の違いに基づいて、前記第1画像の領域を、前記被写体の領域と前記背景の領域とに区分するよう構成され得る。
 上記構成とされた場合、さらに、前記撮影制御部は、前記発光部から発せられる光の色を設定するための設定操作を受け付けるよう構成され得る。
 上記のように設定操作を受け付ける構成とされた場合、前記設定操作は、ユーザに前記被写体に含まれる色を選択させる操作を含み得る。この場合、前記撮影制御部は、選択された色の補色を前記発光部が発する光の色に設定するよう構成され得る。
 上記のように設定操作を受け付ける構成とされた場合、カメラ機能を有する機器は、表示部と、当該表示部上のユーザに指し示された指示位置を検出する位置検出部と、をさらに備える構成とされ得る。この場合、前記撮影制御部は、前記第2の撮影がなされる前に、前記撮影部により撮影された画像を前記表示部に表示させ、当該画像が表示された状態において、前記位置検出部により前記指示位置が検出されると、検出された前記指示位置における前記画像の色の補色を前記発光部が発する光の色に設定するよう構成され得る。
 本態様に係るカメラ機能を有する機器は、当該カメラ機能を有する機器の周囲の明るさを検出する明るさ検出部を、さらに備えるよう構成され得る。この場合、前記撮影制御部は、前記明るさ検出部により検出された明るさが所定の明るさを超えない場合、前記第2の撮影において前記発光部に白色の光を発せさせ、前記第1画像と前記第2画像の同じ部位同士の明るさの違いに基づいて、前記第1画像の領域を、前記被写体の領域と前記背景の領域とに区分し、前記明るさ検出部により検出された明るさが前記所定の明るさを超える場合、前記第2の撮影において前記発光部に有彩色の光を発せさせ、前記第1画像と前記第2画像の同じ部位同士の色の違いに基づいて、前記第1画像の領域を、前記被写体の領域と前記背景の領域とに区分するよう構成され得る。
 本態様に係るカメラ機能を有する機器において、前記撮影制御部は、前記背景の領域の画像をぼかす処理を実行するよう構成され得る。
 本態様に係るカメラ機能を有する機器において、前記撮影制御部は、前記被写体の領域の画像を前記第1画像から切り取って背景となる所定の画像に張り付けるよう構成され得る。
 本発明の第2の態様は、撮影制御方法に関する。本態様に係る撮影制御方法は、シャッター操作に基づいて、撮影方向に向けた発光を行わずに画像を撮影する第1の撮影と前記撮影方向に向けた発光を行って画像を撮影する第2の撮影とを行うステップと、前記第1の撮影により撮影された第1画像と前記第2の撮影により撮影された第2画像の同じ部位同士の状態の違いに基づいて、前記第1画像の領域を、被写体の領域と背景の領域とに区分するステップと、を含む。
 11 制御部(撮影制御部)、13 画像出力部(発光部、表示部)、14 タッチ検出部(位置検出部)、20 第1撮影部(撮影部)、22 照度検出部(明るさ検出部)。

Claims (10)

  1.  画像を撮影する撮影部と、
     前記撮影部が撮影する方向へ発光する発光部と、
     前記撮影部および前記発光部を制御する撮影制御部と、を備え、
     前記撮影制御部は、
      シャッター操作に基づいて、前記発光部を発光させずに前記撮影部で画像を撮影する第1の撮影と前記発光部を発光させて前記撮影部で画像を撮影する第2の撮影とを行い、
      前記第1の撮影により撮影された第1画像と前記第2の撮影により撮影された第2画像の同じ部位同士の状態の違いに基づいて、前記第1画像の領域を、被写体の領域と背景の領域とに区分する、
    ことを特徴とするカメラ機能を有する機器。
  2.  請求項1に記載のカメラ機能を有する機器において、
     前記撮影制御部は、前記第2の撮影において前記発光部に白色の光を発せさせ、前記第1画像と前記第2画像の同じ部位同士の明るさの違いに基づいて、前記第1画像の領域を、前記被写体の領域と前記背景の領域とに区分する、
    ことを特徴とするカメラ機能を有する機器。
  3.  請求項1に記載のカメラ機能を有する機器において、
     前記撮影制御部は、前記第2の撮影において前記発光部に有彩色の光を発せさせ、前記第1画像と前記第2画像の同じ部位同士の色の違いに基づいて、前記第1画像の領域を、前記被写体の領域と前記背景の領域とに区分する、
    ことを特徴とするカメラ機能を有する機器。
  4.  請求項3に記載のカメラ機能を有する機器において、
     前記撮影制御部は、前記発光部から発せられる光の色を設定するための設定操作を受け付ける、
    ことを特徴とするカメラ機能を有する機器。
  5.  請求項4に記載のカメラ機能を有する機器において、
     前記設定操作は、ユーザに前記被写体に含まれる色を選択させる操作を含み、
     前記撮影制御部は、選択された色の補色を前記発光部が発する光の色に設定する、
    ことを特徴とするカメラ機能を有する機器。
  6.  請求項4に記載のカメラ機能を有する機器において、
     表示部と、当該表示部上のユーザに指し示された指示位置を検出する位置検出部と、をさらに備え、
     前記撮影制御部は、
      前記第2の撮影がなされる前に、前記撮影部により撮影された画像を前記表示部に表示させ、
      当該画像が表示された状態において、前記位置検出部により前記指示位置が検出されると、検出された前記指示位置における前記画像の色の補色を前記発光部が発する光の色に設定する、
    ことを特徴とするカメラ機能を有する機器。
  7.  請求項1に記載のカメラ機能を有する機器において、
     前記カメラ機能を有する機器の周囲の明るさを検出する明るさ検出部を、さらに備え、
     前記撮影制御部は、
      前記明るさ検出部により検出された明るさが所定の明るさを超えない場合、前記第2の撮影において前記発光部に白色の光を発せさせ、前記第1画像と前記第2画像の同じ部位同士の明るさの違いに基づいて、前記第1画像の領域を、前記被写体の領域と前記背景の領域とに区分し、
      前記明るさ検出部により検出された明るさが前記所定の明るさを超える場合、前記第2の撮影において前記発光部に有彩色の光を発せさせ、前記第1画像と前記第2画像の同じ部位同士の色の違いに基づいて、前記第1画像の領域を、前記被写体の領域と前記背景の領域とに区分する、
    ことを特徴とするカメラ機能を有する機器。
  8.  請求項1に記載のカメラ機能を有する機器において、
     前記撮影制御部は、前記背景の領域の画像をぼかす処理を実行する、
    ことを特徴とするカメラ機能を有する機器。
  9.  請求項1に記載のカメラ機能を有する機器において、
     前記撮影制御部は、前記被写体の領域の画像を前記第1画像から切り取って背景となる所定の画像に張り付ける、
    ことを特徴とするカメラ機能を有する機器。
  10.  シャッター操作に基づいて、撮影方向に向けた発光を行わずに画像を撮影する第1の撮影と前記撮影方向に向けた発光を行って画像を撮影する第2の撮影とを行うステップと、
     前記第1の撮影により撮影された第1画像と前記第2の撮影により撮影された第2画像の同じ部位同士の状態の違いに基づいて、前記第1画像の領域を、被写体の領域と背景の領域とに区分するステップと、を含む、
    ことを特徴とする撮影制御方法。
PCT/JP2014/081408 2013-11-27 2014-11-27 カメラ機能を有する機器および撮影制御方法 WO2015080210A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/166,046 US20160277656A1 (en) 2013-11-27 2016-05-26 Device having camera function and method of image capture

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-244502 2013-11-27
JP2013244502A JP6285160B2 (ja) 2013-11-27 2013-11-27 カメラ機能を有する機器、撮影制御方法およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/166,046 Continuation US20160277656A1 (en) 2013-11-27 2016-05-26 Device having camera function and method of image capture

Publications (1)

Publication Number Publication Date
WO2015080210A1 true WO2015080210A1 (ja) 2015-06-04

Family

ID=53199147

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/081408 WO2015080210A1 (ja) 2013-11-27 2014-11-27 カメラ機能を有する機器および撮影制御方法

Country Status (3)

Country Link
US (1) US20160277656A1 (ja)
JP (1) JP6285160B2 (ja)
WO (1) WO2015080210A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9215433B2 (en) * 2014-02-11 2015-12-15 Duelight Llc Systems and methods for digital photography
US11030778B2 (en) * 2014-03-31 2021-06-08 Healthy.Io Ltd. Methods and apparatus for enhancing color vision and quantifying color interpretation
US10104302B2 (en) * 2015-10-27 2018-10-16 Pixart Imaging Inc. Image determining method and image sensing apparatus applying the image determining method
US10009536B2 (en) * 2016-06-12 2018-06-26 Apple Inc. Applying a simulated optical effect based on data received from multiple camera sensors
US10834329B2 (en) * 2017-06-02 2020-11-10 Apple Inc. Method and device for balancing foreground-background luminosity
CN108921802B (zh) * 2018-06-29 2021-09-14 联想(北京)有限公司 一种图像处理方法及装置
JP6427711B1 (ja) 2018-08-27 2018-11-21 京セラ株式会社 電子機器、方法及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10210340A (ja) * 1997-01-27 1998-08-07 Matsushita Electric Ind Co Ltd 画像撮像装置および画像合成装置
US20080297621A1 (en) * 2007-05-29 2008-12-04 Microsoft Corporation Strategies for extracting foreground information using flash and no-flash image pairs
JP2009200924A (ja) * 2008-02-22 2009-09-03 Nikon Corp 撮像装置
JP2012074962A (ja) * 2010-09-29 2012-04-12 Nikon Corp 撮像装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4321287B2 (ja) * 2004-02-10 2009-08-26 ソニー株式会社 撮影装置および撮影方法、並びに、プログラム
JP2007114233A (ja) * 2005-10-18 2007-05-10 Intec Web & Genome Informatics Corp 撮影方法と装置
US7692696B2 (en) * 2005-12-27 2010-04-06 Fotonation Vision Limited Digital image acquisition system with portrait mode
US9179130B2 (en) * 2013-06-05 2015-11-03 Htc Corporation Image-capturing device and method having image identification mechanism

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10210340A (ja) * 1997-01-27 1998-08-07 Matsushita Electric Ind Co Ltd 画像撮像装置および画像合成装置
US20080297621A1 (en) * 2007-05-29 2008-12-04 Microsoft Corporation Strategies for extracting foreground information using flash and no-flash image pairs
JP2009200924A (ja) * 2008-02-22 2009-09-03 Nikon Corp 撮像装置
JP2012074962A (ja) * 2010-09-29 2012-04-12 Nikon Corp 撮像装置

Also Published As

Publication number Publication date
JP6285160B2 (ja) 2018-02-28
JP2015104031A (ja) 2015-06-04
US20160277656A1 (en) 2016-09-22

Similar Documents

Publication Publication Date Title
JP6285160B2 (ja) カメラ機能を有する機器、撮影制御方法およびプログラム
US10313604B2 (en) Image capturing apparatus and control method thereof
KR101712529B1 (ko) 플래시 제어 방법, 장치, 단말기, 프로그램 및 컴퓨터가 판독가능한 기록매체
JP5655175B2 (ja) 携帯型電子機器及び表示制御方法
CN105282441B (zh) 拍照方法及装置
JP2012529831A (ja) フラッシュを用いた写真撮影のためのカメラシステムおよび方法
US9681048B2 (en) Image capturing apparatus and method for controlling the same
EP3352453B1 (en) Photographing method for intelligent flight device and intelligent flight device
CN108040204B (zh) 一种基于多摄像头的图像拍摄方法、装置及存储介质
KR20220012798A (ko) 이미지 수집 모듈, 전자 기기, 이미지 수집 방법 및 저장 매체
CN107820025B (zh) 进行拍照处理的方法和装置
US11617023B2 (en) Method for brightness enhancement of preview image, apparatus, and medium
CN111277754B (zh) 移动终端拍摄方法及装置
JP2014187663A (ja) 携帯電子機器及びその制御方法
WO2012140884A1 (ja) 撮影装置、撮影方法及び撮影プログラム
US20230410260A1 (en) Method and apparatus for processing image
JPWO2019172437A1 (ja) 撮像制御装置、撮像装置、撮像制御方法、及び撮像制御プログラム
JP2014064634A (ja) 画像処理装置および視線特定装置ならびに瞳画像検出プログラムおよび方法
JP2011171917A (ja) 携帯端末及び撮影方式設定方法、撮影方式設定プログラム
JP2010258753A (ja) 携帯端末および投影プログラム
JP2005333482A (ja) 撮影制限システム、撮影装置及び撮影制限方法
JP6290726B2 (ja) 撮影機能を有する機器、撮影制御方法およびプログラム
CN116208859A (zh) 拍摄装置、方法、终端和存储介质
CN112752010A (zh) 一种拍摄方法、装置及介质
CN118689022A (zh) 闪光灯组件及电子设备、闪光灯控制方法、装置、存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14866318

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14866318

Country of ref document: EP

Kind code of ref document: A1