WO2014109129A1 - 表示制御装置、プログラム及び表示制御方法 - Google Patents

表示制御装置、プログラム及び表示制御方法 Download PDF

Info

Publication number
WO2014109129A1
WO2014109129A1 PCT/JP2013/080914 JP2013080914W WO2014109129A1 WO 2014109129 A1 WO2014109129 A1 WO 2014109129A1 JP 2013080914 W JP2013080914 W JP 2013080914W WO 2014109129 A1 WO2014109129 A1 WO 2014109129A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
display control
processed images
processed
display
Prior art date
Application number
PCT/JP2013/080914
Other languages
English (en)
French (fr)
Inventor
陽方 川名
翼 塚原
智也 成田
麻紀 井元
野田 卓郎
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to EP13870589.2A priority Critical patent/EP2945364B1/en
Priority to JP2014556335A priority patent/JP6245182B2/ja
Priority to US14/758,715 priority patent/US9894262B2/en
Publication of WO2014109129A1 publication Critical patent/WO2014109129A1/ja
Priority to US15/861,766 priority patent/US10440260B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming

Definitions

  • the present disclosure relates to a display control device, a program, and a display control method.
  • a digital camera is manufactured as a dedicated device, or built in any device (for example, a smartphone).
  • an image generated through an image sensor, an image processing circuit, or the like of a digital camera is stored as digital data and displayed on a monitor.
  • Digital cameras are usually provided with functions for automatically performing exposure adjustment during imaging, color balance adjustment according to the type of light source, and the like.
  • many digital cameras are provided with a plurality of imaging modes according to the type of subject such as a person, a flower, a landscape, a night view, or the purpose of imaging.
  • imaging conditions such as a shutter speed, an aperture value, and a light source type are automatically set to be suitable for the type of subject or the purpose of imaging.
  • a function for changing the image tone by an effect according to the preference of the user of the digital camera is also provided.
  • a sample image obtained by changing the tone of a captured image at any time while displaying a live view image (or a through image) on a monitor is also used as a thumbnail.
  • a technique for displaying on the monitor is disclosed in Patent Document 1. According to this technique, a user of a digital camera causes the digital camera to set imaging conditions by selecting a thumbnail with a desired image tone while viewing a live view image.
  • the frame rate of thumbnails can be lower than the frame rate of live view images.
  • the thumbnails may not be displayed smoothly but may be displayed as if frames have been dropped. Therefore, there is a concern that the user who sees the thumbnail feels a strong stress.
  • a live view image generated based on image data obtained through an image sensor and an image data at any point in time among the image data are generated under respective image processing conditions.
  • a display control device including a display control unit that displays one or more processed images on a display device, and a determination unit that determines whether a predetermined user operation is recognized.
  • the display control unit updates the displayed one or more processed images when it is determined that the predetermined user operation is recognized.
  • the computer can display each image based on the live view image generated based on the image data obtained through the image sensor and the image data at any point in time among the image data.
  • a program is provided for causing one or more processed images generated under the processing conditions to function as a display control unit for displaying on a display device and a determination unit for determining whether a predetermined user operation has been recognized.
  • the display control unit updates the displayed one or more processed images when it is determined that the predetermined user operation is recognized.
  • a live view image generated based on image data obtained through an image sensor, and image data at any point in time among the image data, under each image processing condition.
  • a display control method includes displaying one or more generated processed images on a display device and determining whether a predetermined user operation has been recognized. The one or more processed images displayed are updated when it is determined that the predetermined user operation has been recognized.
  • a user can easily check a captured image after image processing at the time of imaging without stress.
  • FIG. 4 is an explanatory diagram for describing an example of an appearance of a display control device according to an embodiment of the present disclosure.
  • FIG. It is a block diagram which shows an example of the hardware constitutions of the display control apparatus which concerns on one Embodiment. It is a block diagram which shows an example of a structure of the display control apparatus which concerns on 1st Embodiment.
  • FIG. 1 is an explanatory diagram for describing an example of an appearance of a display control apparatus 100 according to an embodiment of the present disclosure.
  • a display control device 100 is shown.
  • the display control apparatus 100 is a smartphone.
  • the display control device 100 includes a display device 101.
  • the display control apparatus 100 displays on the display apparatus 101 a screen for showing to the user of the display control apparatus 100.
  • the display control device 100 includes a touch panel.
  • the display device 101 is a display surface of a touch panel. Then, the display control apparatus 100 detects a user's touch on the touch panel and recognizes the user's touch operation from the detection result.
  • the display control apparatus 100 includes a camera 103.
  • An image generated through the camera 103 is stored in the display control device 100 and displayed on the display device 101.
  • FIG. 2 is a block diagram illustrating an example of a hardware configuration of the display control apparatus 100 according to an embodiment.
  • the display control apparatus 100 includes, for example, a CPU (Central Processing Unit) 71, a lens block 73, a motor 75, a motor driver 77, an image sensor 79, an image sensor driver 81, a timing generator 83, and a signal processing circuit.
  • a CPU Central Processing Unit
  • the display control apparatus 100 includes, for example, a CPU (Central Processing Unit) 71, a lens block 73, a motor 75, a motor driver 77, an image sensor 79, an image sensor driver 81, a timing generator 83, and a signal processing circuit.
  • 85 an image processing circuit 87, an SDRAM (Synchronous Dynamic Random Access Memory) 89, a monitor 91, an internal memory 93, an external memory 95, a key input device 97, and a touch detection surface 99.
  • SDRAM Synchronous Dynamic Random Access Memory
  • CPU 71 controls the entire display control apparatus 100.
  • the lens block 73 is an optical system and is driven by a motor 75.
  • the motor 75 is controlled by a motor driver 77.
  • the motor driver 77 controls the motor 75 in accordance with a control signal from the CPU 71 to perform lens extension and storage, change of the optical system zoom magnification, focus adjustment, aperture adjustment, and the like when the power is turned on and off.
  • the image sensor 79 is an arbitrary image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor).
  • the image sensor driver 81 controls the image sensor 79 based on the timing signal generated by the timing generator 83 according to the control signal of the CPU 71.
  • the image sensor 79 photoelectrically converts the optical image of the subject formed by the lens block 73 into an image signal under the control of the image sensor driver 81, and outputs the image signal to the signal processing circuit 85.
  • the signal processing circuit 85 includes a circuit that removes noise included in the imaging signal, an analog / digital converter that converts the imaging signal after noise removal into a digital signal, and the like.
  • the signal processing circuit 85 outputs the digitized imaging signal to the image processing circuit 87.
  • the imaging signal is RAW format image data (hereinafter referred to as “RAW data”).
  • the image processing circuit 87 converts the imaging signal into YUV format image data (hereinafter referred to as “YUV data”) including a luminance (Y) signal and a color difference (UV) signal. Further, the image processing circuit 87 performs pixel complementation as necessary. In addition, the image processing circuit 87 performs image processing such as white balance adjustment, contour enhancement, and tone change according to control by the CPU 71.
  • the YUV data converted by the image processing circuit 87 is sequentially stored in the SDRAM 89. In the imaging standby state in the recording mode, every time one frame of YUV data is accumulated in the SDRAM 89, a live view image (or a through image) corresponding to the YUV data is displayed on the monitor 91.
  • the monitor 91 can be realized using a liquid crystal, an organic EL (Organic Light-Emitting Diode: OLED), a CRT (Cathode Ray Tube), or the like.
  • the monitor 91 is a display surface of a touch panel, for example.
  • the YUV data is compressed into image data in any format such as JPEG (Joint Photographic Experts Group) format, JPEG2000 format, etc.
  • the compressed image data is stored in the internal memory 93 built in the display control apparatus 100 or a removable external memory 95 (for example, a memory) connected to the display control apparatus 100 via an interface (not shown). Card).
  • the image data stored in the internal memory 93 or the external memory 95 is appropriately read out by the CPU 71 according to a user operation, converted into YUV data, and read into the SDRAM 89. Then, the YUV data is displayed on the monitor 91.
  • a microcomputer (not shown) is connected to the CPU 71.
  • the microcomputer is connected to a key input device 97 (such as a tact switch), a touch detection surface 99, and a power supply control circuit (not shown).
  • the touch detection surface 99 is, for example, a touch detection surface of a touch panel.
  • the microcomputer regularly scans the key input operation on the key input device 97 and the touch operation on the touch detection surface 99.
  • the microcomputer detects the user's key input operation on the key input device 97 and provides the detection result to the CPU 71.
  • the microcomputer detects a user touch on the touch detection surface 99 and provides the detection result to the CPU 71.
  • the microcomputer controls the power supply from the power control circuit.
  • the display control apparatus 100 may include other components such as a communication circuit in addition to the components described above, or may not necessarily include the components described above.
  • First Embodiment a live view image and a processed image after image processing are displayed, and the one or more processed images are updated according to a predetermined user operation.
  • FIG. 3 is a block diagram showing an example of the configuration of the display control apparatus 100-1 according to the first embodiment.
  • the display control device 100-1 includes an imaging unit 110, an input unit 120, a display unit 130, a storage unit 140, and a control unit 150.
  • the imaging unit 110 obtains image data through the imaging element.
  • the image data is, for example, RAW data.
  • the imaging unit 110 outputs an imaging signal by an imaging element, and performs noise removal, analog / digital conversion, and the like included in the imaging signal. As a result, the image data is obtained.
  • the imaging unit 110 provides the image data to the control unit 150 (image processing unit 153).
  • the imaging unit 110 is mounted by a lens block 73, a motor 75, a motor driver 77, an imaging element 79, an imaging element driver 81, a timing generator 83, a signal processing circuit 85, and the like.
  • the input unit 120 detects a user operation. Then, the input unit 120 provides the detection result to the control unit 150 (operation recognition unit 155).
  • the input unit 120 detects a user touch on the touch panel. Then, the input unit 120 provides the detection result (for example, touch position information) to the control unit 150 (operation recognition unit 155).
  • the detection result for example, touch position information
  • the input unit 120 detects a user key input operation in the key input device. Then, the input unit 120 provides the detection result to the control unit 150 (operation recognition unit 155).
  • the input unit 120 can be implemented by the key input device 97, the touch detection surface 99, the microcomputer (not shown), and the like.
  • the display unit 130 displays a screen for showing to the user of the display control apparatus 100-1. That is, the display unit 130 corresponds to the display device 101. For example, the display unit 130 displays the screen according to control by the control unit 150 (display control unit 157).
  • the display unit 130 is mounted by the monitor 91 or the like. That is, the display unit 130 is a display surface of a touch panel, for example.
  • the storage unit 140 stores a program and data for the operation of the display control apparatus 100-1.
  • the storage unit 140 stores image data obtained through the imaging unit 110 and / or the control unit 150 (image processing unit 153).
  • the storage unit 140 can be implemented by the SDRAM 89, the internal memory 93, the external memory 95, and the like.
  • Control unit 150 The control unit 150 provides various functions of the display control apparatus 100-1. For example, the control unit 150 provides the various functions described above by executing a program stored in the storage unit 140 or another storage medium.
  • the control unit 150 includes an imaging control unit 151, an image processing unit 153, an operation recognition unit 155, an operation determination unit 156, a display control unit 157, and a parameter change unit 159.
  • the image processing unit 153 can be implemented by the CPU 71, the image processing circuit 87, and the like.
  • Imaging control unit 151 The imaging control unit 151 performs control related to imaging by the imaging unit 110.
  • the imaging control unit 151 controls the timing of imaging. More specifically, for example, the imaging control unit 151 controls the imaging timing by providing an imaging timing control signal to the imaging unit 110.
  • the imaging control unit 151 controls driving of the imaging unit 110. More specifically, for example, the imaging control unit 151 transmits a drive control signal to the imaging unit 110, thereby extending and retracting the lens when the power is turned on and off, changing the zoom magnification of the optical system, focus adjustment, Adjust the aperture.
  • the image processing unit 153 generates an image by performing image processing. For example, the image processing unit 153 generates an image based on image data obtained through the image sensor. That is, an image is generated based on the image data provided by the imaging unit 110.
  • the image data is, for example, RAW data.
  • the image processing unit 153 generates a live view image (or a through image) based on image data obtained through the image sensor. For example, in the standby state in the imaging mode, the image processing unit 153 generates a live view image based on image data sequentially obtained through the imaging element.
  • the image processing unit 153 generates one or more processed images under each image processing condition based on the image data at any point of the image data.
  • the image data is RAW data
  • the one or more processed images are arbitrary images that can be generated by image processing based on the RAW data.
  • the image processing condition is an arbitrary condition related to image processing.
  • the image processing conditions include conditions for developing RAW data (hereinafter referred to as “developing conditions”).
  • the development conditions include conditions such as white balance, contrast, and brightness.
  • the first processed image is an image generated by a developing process under the first developing condition
  • the second processed image is an image generated by a developing process under the second developing condition. May be.
  • the first processed image may be an image having a higher contrast than the normal image
  • the second processed image may be an image brighter than the normal image.
  • the image processing conditions include processing (and processing conditions for the processing) further performed on the image after the development processing.
  • the processing includes, for example, extraction of a specific color (part color), conversion to a negative image, conversion to an illustration-like image, and the like.
  • the third processed image may be an image that has been subjected to the first processing
  • the fourth processed image may be an image that has been subjected to the second processing.
  • the third processed image may be an image obtained by extracting a specific color
  • the fourth processed image may be an image converted into an illustration.
  • the image processing unit 153 can generate a processed image under an arbitrary condition related to image processing based on the image data.
  • the image processing unit 153 generates one or more processed images based on the image data at any point in the image data.
  • Any one of the time points includes, for example, any time point (for example, the time point immediately after) after the display control unit 157 is instructed to generate a new processed image. That is, the image processing unit 153 generates a new processed image after receiving an instruction from the display control unit 157.
  • any one of the above points may include the start point of the imaging mode. That is, the image processing unit 153 may generate the first processed image when the imaging mode is started.
  • the one or more processed images are images that are captured in a state where a subject that is partially or entirely included in the live view image is further reduced. That is, the image processing unit 153 generates one or more processed images that are captured in a state in which a subject that is partially or entirely included in the live view image is further reduced. As an example, the one or more processed images are images that are captured in a state in which the entire subject captured in the live view image is further reduced.
  • the one or more processed images are a plurality of processed images. That is, the image processing unit 153 generates a plurality of processed images under each image processing condition. For example, a subject that appears in each of the plurality of processed images overlaps at least partially with a subject that appears in one or more other processed images of the plurality of processed images. As an example, the subject that appears in each of the plurality of processed images overlaps with the subject that appears in any other processed image of the plurality of processed images. That is, the subjects shown in the plurality of processed images are common subjects.
  • the operation recognition unit 155 recognizes a user operation. For example, when detecting the user operation by the user of the display control apparatus 100-1, the input unit 120 provides the detection result of the user operation to the operation recognition unit 155, and the operation recognition unit 155 acquires the detection result. Then, the operation recognition unit 155 recognizes the user operation based on the detection result.
  • the user operation includes a touch operation on the touch panel. That is, the operation recognition unit 155 recognizes a touch operation on the touch panel. More specifically, for example, the operation recognition unit 155 recognizes a touch event as a touch operation on the touch panel.
  • the touch event includes, for example, a tap, a double tap, a drag, a flick, and a pinch.
  • the operation recognizing unit 155 sequentially acquires touch position information as a detection result of the user operation, and recognizes a touch event from the sequentially acquired touch position information.
  • the user operation includes a user key input operation in the key input device.
  • the operation recognition unit 155 recognizes a key input operation in the key input device. More specifically, for example, the operation recognition unit 155 recognizes the type of key input operation as a key input operation in the key input device.
  • the operation determination unit 156 determines whether a predetermined user operation (hereinafter referred to as "update operation”) has been recognized.
  • the update operation is a predetermined touch operation on the touch panel. More specifically, for example, the update operation is a touch operation at a predetermined position on the touch panel. As an example, the update operation is a touch operation at a position on the touch panel where the one or more processed images are displayed. That is, the operation determination unit 156 determines whether a touch operation (that is, an update operation) at a position on the touch panel where the one or more processed images are displayed is recognized.
  • a touch operation that is, an update operation
  • the operation determination unit 156 monitors the user operation recognized by the operation recognition unit 155, and determines whether the update operation is recognized by determining whether the user operation matches the update operation. Then, when the update operation is recognized, the operation determination unit 156 notifies the display control unit 157 that the update operation has been recognized.
  • the operation determination unit 156 determines whether a predetermined other user operation (hereinafter referred to as “parameter change operation”) has been recognized.
  • a parameter changing unit 159 changes a parameter for generating at least one of the one or more processed images.
  • the parameter changing operation is a touch operation at a display position of an object for changing the parameter (hereinafter referred to as a parameter changing object) on the touch panel.
  • the operation determination unit 156 determines whether a touch operation (that is, a parameter change operation) at a position on the touch panel where the parameter change object is displayed is recognized.
  • the operation determination unit 156 determines whether the parameter change operation has been recognized by monitoring the user operation recognized by the operation recognition unit 155 and determining whether the user operation matches the parameter change operation. To do. Then, when the parameter changing operation is recognized, the operation determining unit 156 notifies the parameter changing unit 159 that the parameter changing operation has been recognized.
  • the display control unit 157 causes the display device 101 to display a screen for showing to the user. As described above, since the display device 101 corresponds to the display unit 130, the display control unit 157 causes the display unit 130 to display the screen.
  • the display control unit 157 displays the live view image generated based on the image data obtained through the image sensor and any time point of the image data.
  • One or more processed images generated under the respective image processing conditions based on the image data are displayed on the display unit 130.
  • the display control unit 157 causes the display unit 130 to display a screen including a live view image generated by the image processing unit 153 and one or more processed images.
  • the one or more processed images are images that are captured in a state in which a subject that is partially or entirely included in the live view image is further reduced. That is, the display control unit 157 causes the display unit 130 to display one or more processed images that are captured in a state in which a subject that is partially or entirely included in the live view image is further reduced. As an example, the one or more processed images are images that are captured in a state in which a subject that appears in the entire live view image is further reduced.
  • the one or more processed images are a plurality of processed images. That is, the display control unit 157 causes the display unit 130 to display the live view image and the plurality of processed images.
  • the plurality of processed images are displayed side by side. That is, the display control unit 157 causes the display unit 130 to display a plurality of processed images side by side.
  • the plurality of processed images are displayed side by side, so that the user can more easily compare the plurality of processed images. That is, the user can more easily determine which image processing conditions are more desirable.
  • a subject that appears in each of the plurality of processed images overlaps at least partially with a subject that appears in one or more other processed images of the plurality of processed images.
  • the subject that appears in each of the plurality of processed images overlaps with the subject that appears in any other processed image of the plurality of processed images. That is, the subjects shown in the plurality of processed images are common subjects.
  • the subject appearing in the processed image overlaps between the plurality of processed images, so that the user can more easily compare the plurality of processed images. That is, the user can more easily determine which image processing conditions are more desirable.
  • FIG. 4 is an explanatory diagram for explaining an example of a screen including a live view image and a processed image.
  • the display control device 100-1 is shown.
  • the live view image 10 and the plurality of processed images 20 are shown on the display device 101 of the display control device 100-1.
  • the plurality of processed images 20 are displayed side by side.
  • each of the plurality of processed images 20 is an image generated under each image processing condition.
  • each of the plurality of processed images 20 is an image that is captured in a state where the entire subject captured in the live view image 10 is further reduced. Therefore, the subject that appears in the plurality of processed images 20 is a common subject.
  • the live view image and the processed image are displayed.
  • the display control unit 157 updates the displayed one or more processed images when it is determined that the update operation has been recognized.
  • the display control unit 157 when an update operation is recognized, the display control unit 157 is notified by the operation determination unit 156 that the update operation has been recognized. Then, the display control unit 157 instructs the image processing unit 153 to generate a new processed image. Then, the display control unit 157 causes the display unit 130 to display the live view image and one or more processed images generated based on the image data at the new time point. In this way, the one or more processed images are updated.
  • FIGS. 5A and 5B a specific example of the update of the processed image will be described with reference to FIGS. 5A and 5B.
  • FIG. 5A and FIG. 5B are explanatory diagrams for explaining an example of the update of the processed image.
  • a display control apparatus 100-1 is shown.
  • the live view image 10 and the plurality of processed images 20 are shown on the display device 101 of the display control device 100-1.
  • FIG. 5A shows an example when the display control device 100-1 shown in the example of FIG. 4 is moved.
  • the plurality of processed images 20 shown in FIG. 5A are the same as the plurality of processed images 20 shown in FIG. 4, but the live view image 10 shown in FIG. 5A is the live view image shown in FIG. Different from 10. That is, in the example shown in FIG.
  • the subject that appears in the live view image 10 and the subject that appears in the plurality of processed images 20 are different. For this reason, it is difficult for the user of the display control apparatus 100-1 to imagine what the captured image after image processing will look like when the subject captured in the live view image 10 is captured.
  • the user performs a touch operation (for example, a tap) at a position where the plurality of processed images 20 are displayed with the finger 30. Then, the plurality of processed images 20 are updated. That is, the subject that appears in the live view image 10 is the same as the subject that appears in the plurality of processed images 20.
  • a touch operation for example, a tap
  • the user can view a processed image in which the same subject as the live view image is captured. Therefore, the user can easily confirm the captured image after image processing.
  • the processed image is updated only when an update operation is performed, the processed image is displayed as if the processed image has been dropped, as in the case where the processed image is not updated at the frame rate like the live view image. There is nothing. Therefore, the user can check the captured image after image processing without stress. In other words, the user can easily check the captured image after image processing at the time of imaging without stress.
  • the update operation is a touch operation
  • the user can easily perform the operation while looking at the screen, so that the processed image can be updated more easily.
  • the update operation is a touch operation at the display position of the processed image, the user can update the processed image with a more intuitive operation.
  • the display control unit 157 is a screen including the live view image and the one or more processed images, and updates the one or more processed images.
  • the screen to be notified is displayed on the display unit 130.
  • the screen includes an animation of the one or more processed images (hereinafter referred to as “notification animation”) that notifies the update of the one or more processed images. That is, when it is determined that the update operation is recognized, the display control unit 157 causes the display unit 130 to display a screen including the notification animation.
  • the notification animation is, for example, a fade-in for the one or more processed images.
  • the notification animation may be another animation such as blinking of the one or more processed images, zooming in on the one or more processed images.
  • a specific example of the notification animation will be described with reference to FIG.
  • FIG. 6 is an explanatory diagram for explaining an example of a notification animation for notifying update of a processed image.
  • the display state of the processed image 20 from time T 1 to time T 3 is shown. If it is determined that the update operation has been recognized, for example, a new processed image 20 is displayed in a fade-in manner from time T 1 to time T 3 as described above.
  • the screen may include an object (hereinafter referred to as “notification object”) that notifies the update of the one or more processed images. That is, the display control unit 157 may cause the display unit 130 to display a screen including the notification object when it is determined that the update operation has been recognized.
  • the notification object is, for example, a graphic object surrounded by the one or more processed images.
  • the notification object may be another object such as an arrow object pointing to the one or more processed images or an object including character information such as “Updated”.
  • a specific example of the notification object will be described with reference to FIG.
  • FIG. 7 is an explanatory diagram for explaining an example of a notification object for notifying update of a processed image.
  • the display control device 100-1 is shown as in FIG. 5B.
  • the display device 101 displays a live view image 10 and a plurality of processed images 20.
  • a rectangular notification object 40 surrounding the plurality of processed images 20 is further displayed on the display device 101. If it is determined that the update operation has been recognized, for example, the notification object 40 is displayed as described above.
  • the notification of the update of the processed image ensures that the user notices that the processed image has been updated. Further, the user can understand the relationship between the update operation and the update of the processed image.
  • the notification on the screen allows the user who is viewing the screen to more reliably notice that the processed image has been updated.
  • the notification animation as described above is very conspicuous on the screen. Therefore, according to the notification animation, the user who is looking at the screen is more surely aware that the processed image has been updated.
  • the notification object as described above has a small processing amount for display. Therefore, according to the notification object, it is possible to suppress the processing amount in the display processing while making the user watching the screen aware of the update. Can do.
  • a parameter changing unit 159 changes a parameter for generating at least one processed image among the one or more processed images. Then, the display control unit 157 causes the display unit 130 to display an object for changing the parameter (that is, a parameter changing object).
  • the parameter changing object is a scroll bar.
  • FIG. 8 is an explanatory diagram for explaining an example of the parameter changing object.
  • the display control device 100-1 is shown as in FIG. 5B.
  • the display device 101 displays a live view image 10 and a plurality of processed images 20.
  • a parameter changing object 50 that is a scroll bar is further displayed on the display device 101.
  • the scroll bar 50 includes a knob portion 51.
  • the parameter changing object is displayed in this way.
  • the parameter changing unit 159 changes a parameter for generating a processed image.
  • the parameter is the degree of contrast of the processed image.
  • the parameter changing unit 159 generates at least one processed image of the one or more processed images when the live view image and the one or more processed images are displayed on the display unit 130. Change the parameters for
  • the parameter changing unit 159 changes the parameter when it is determined that the parameter changing operation has been recognized.
  • the parameter changing unit 159 when the parameter changing operation is recognized, the parameter changing unit 159 is notified by the operation determining unit 156 that the parameter changing operation has been recognized. Then, the parameter changing unit 159 changes a parameter for generating at least one processed image in accordance with the parameter operation.
  • the knob 51 of the parameter changing object 50 which is a scroll bar, is moved by the parameter changing operation.
  • the parameter changing unit 159 sets the parameter for generating the selected processed image 20 (for example, the processed image 20B) among the plurality of processed images 20 by an amount corresponding to the amount of movement of the knob. change.
  • the parameters for generating the processed image are changed.
  • the user can adjust the parameters while actually viewing the processed image. Therefore, the user can easily confirm what the captured image after the image processing will be when the parameter is adjusted. That is, convenience for the user is enhanced.
  • FIG. 9 is a flowchart illustrating an example of a schematic flow of the display control process according to the first embodiment.
  • the display control process is started by starting an application for imaging.
  • step S301 an imaging mode of an application for imaging starts.
  • step S303 the image processing unit 153 generates one or more new processed images.
  • step S305 the image processing unit 153 generates a live view image.
  • step S307 the display control unit 157 updates the screen including the live view image and one or more processed images.
  • step S309 the operation determination unit 156 determines whether there is an operation for ending the application or the imaging mode. If there is an end operation, the process ends. Otherwise, the process proceeds to step S311.
  • step S311 the operation determination unit 156 determines whether an update operation has been performed. If there is an update operation, the process proceeds to step S313. Otherwise, the process returns to step S305.
  • step S313 the display control unit 157 instructs the image processing unit 153 to generate a new processed image. Then, the process returns to step S303.
  • Japanese Patent Application Laid-Open No. 2007-94819 discloses a sample obtained by changing the tone of a captured image at any point in time while displaying a live view image (or a through image) on a monitor.
  • a technique for displaying an image as a thumbnail on the monitor is disclosed. According to this technique, a user of a digital camera causes the digital camera to set imaging conditions by selecting a thumbnail with a desired image tone while viewing a live view image.
  • the sample image is displayed as a thumbnail, it is an image further reduced than the live view image. Therefore, even if the user looks at the sample image displayed as a thumbnail, it may be difficult to confirm in detail what captured image is obtained.
  • a live view image and a processed image in which a subject is captured in a more enlarged state than the live view image are displayed.
  • FIG. 10 is a block diagram showing an example of the configuration of the display control apparatus 100-2 according to the second embodiment.
  • the display control device 100-2 includes an imaging unit 110, an input unit 120, a display unit 130, a storage unit 140, and a control unit 160.
  • the imaging unit 110 the input unit 120, the display unit 130, and the storage unit 140.
  • the imaging control unit 151, the image processing unit 153, the operation recognition unit 155, the operation determination unit 156, and the parameter change unit 159 included in the control unit 160 are also between the first embodiment and the second embodiment. There is no difference. Therefore, here, the image processing unit 163 and the display control unit 167 included in the control unit 160 will be described.
  • the image processing unit 163 generates an image by performing image processing. For example, the image processing unit 163 generates an image based on image data obtained through the image sensor. That is, an image is generated based on the image data provided by the imaging unit 110.
  • the image data is, for example, RAW data.
  • the image processing unit 163 generates a live view image (or a through image) based on image data obtained through the image sensor. This point is as described for the image processing unit 153 according to the first embodiment.
  • the image processing unit 163 generates one or more processed images under each image processing condition based on the image data at any point of the image data.
  • the image data is RAW data
  • the one or more processed images are arbitrary images that can be generated by image processing based on the RAW data.
  • the image processing condition is an arbitrary condition related to image processing.
  • the image processing conditions include conditions for developing RAW data (hereinafter referred to as “developing conditions”). Further, for example, the image processing conditions include processing (and processing conditions for the processing) further performed on the image after the development processing. These points are as described for the image processing unit 153 according to the first embodiment.
  • the image processing unit 163 can generate a processed image under an arbitrary condition related to image processing based on the image data.
  • any one of the above points includes, for example, any point (eg, a point immediately after) after the display control unit 157 is instructed to generate a new processed image. This point is also as described for the image processing unit 153 according to the first embodiment.
  • the one or more processed images are images in which a subject is captured in a more enlarged state than the live view image.
  • the image processing unit 163 generates one or more processed images in which the subject is captured in a more enlarged state than the live view image.
  • the one or more processed images are a plurality of processed images. That is, the image processing unit 163 generates a plurality of processed images under each image processing condition. For example, a subject that appears in each of the plurality of processed images overlaps at least partially with a subject that appears in one or more other processed images of the plurality of processed images.
  • Display control unit 167 causes the display device 101 to display a screen for showing to the user. As described above, since the display device 101 corresponds to the display unit 130, the display control unit 157 causes the display unit 130 to display the screen.
  • the display control unit 167 displays the live view image generated based on the image data obtained through the image sensor, and at any point of the image data.
  • One or more processed images generated under the respective image processing conditions based on the image data are displayed on the display unit 130.
  • the display control unit 167 causes the display unit 130 to display a screen including a live view image generated by the image processing unit 163 and one or more processed images.
  • the one or more processed images are images in which the subject is captured in a more enlarged state than the live view image.
  • the display control unit 157 causes the display unit 130 to display one or more processed images in which the subject is captured in an enlarged state as compared with the live view image.
  • the one or more processed images are a plurality of processed images.
  • the plurality of processed images are displayed side by side.
  • a subject that appears in each of the plurality of processed images overlaps at least partially with a subject that appears in one or more other processed images of the plurality of processed images.
  • FIG. 11 is an explanatory diagram for explaining a first example of a screen including a live view image and a processed image according to the second embodiment.
  • the display control device 100-2 is shown.
  • the live view image 10 and the plurality of processed images 20 are shown on the display device 101 of the display control device 100-2.
  • Each of the plurality of processed images 20 is an image generated under each image processing condition.
  • Each of the plurality of processed images 20 is an image in which the subject is captured in an enlarged state as compared with the live view image 10.
  • each of the plurality of processed images 20 is an image that is captured in a state where the subject that is captured in a part 11 of the live view image 10 is further enlarged.
  • the subject that appears in the plurality of processed images 20 is a common subject.
  • the plurality of processed images 20 are displayed side by side.
  • a part 11 of the live view image 10 may be shown on the display device 101.
  • the part 11 may be indicated by a broken-line square object.
  • FIG. 12 is an explanatory diagram for explaining a second example of a screen including a live view image and a processed image according to the second embodiment.
  • a display control device 100-2 is shown.
  • the live view image 10 and the plurality of processed images 20 are shown on the display device 101 of the display control device 100-2.
  • Each of the plurality of processed images 20 is an image generated under each image processing condition.
  • Each of the plurality of processed images 20 is an image in which the subject is captured in an enlarged state as compared with the live view image 10.
  • the subject that appears in each processed image 20 partially overlaps the subject that appears in another adjacent processed image 20.
  • FIG. 13 is an explanatory diagram for explaining a third example of a screen including a live view image and a processed image according to the second embodiment.
  • a display control device 100-2 is shown.
  • the live view image 10 and the plurality of processed images 20 are shown on the display device 101 of the display control device 100-2.
  • Each of the plurality of processed images 20 is an image generated under each image processing condition.
  • Each of the plurality of processed images 20 is an image in which the subject is captured in an enlarged state as compared with the live view image 10.
  • the subject that appears in each processed image 20 partially overlaps the subject that appears in another adjacent processed image 20.
  • the live view image and the processed image are displayed.
  • the display control unit 167 updates the displayed one or more processed images when it is determined that the update operation has been recognized. This point is as described for the display control unit 157 according to the first embodiment.
  • the display control unit 167 causes the display unit 130 to display an object for changing the parameter (that is, an object for parameter change). .
  • an object for parameter change that is, an object for parameter change.
  • the display control process according to the second embodiment is the same as the display control process according to the first embodiment described with reference to FIG.
  • the difference between the first embodiment and the second embodiment is that the processed image generated in step S303 shown in FIG. 9 is different.
  • each of the image processing based on the live view image generated based on the image data obtained through the image sensor and the image data at any point of the image data are displayed on the display device. It is also determined whether an update operation has been recognized. When it is determined that the update operation has been recognized, the one or more processed images to be displayed are updated.
  • the user can view a processed image in which the same subject as the live view image is captured. Therefore, the user can easily confirm the captured image after image processing.
  • the processed image is updated only when an update operation is performed, the processed image is displayed as if the processed image has been dropped, as in the case where the processed image is not updated at the frame rate like the live view image. There is nothing. Therefore, the user can check the captured image after image processing without stress. In other words, the user can easily check the captured image after image processing at the time of imaging without stress.
  • the display device is a display surface of a touch panel
  • the update operation is a predetermined touch operation on the touch panel.
  • the update operation is a touch operation at a position on the touch panel where the one or more processed images are displayed.
  • the user who performed the update operation is notified of the update of the one or more processed images.
  • the screen when it is determined that the update operation has been recognized, the screen includes the live view image and the one or more processed images, and notifies the update of the one or more processed images. Is displayed on the display device.
  • the screen includes an animation (that is, a notification animation) for the one or more processed images that notifies the update of the one or more processed images.
  • an animation that is, a notification animation
  • the notification animation is very conspicuous on the screen. According to the notification animation, the user watching the screen can more surely notice that the processed image has been updated.
  • the screen includes an object (that is, a notification object) that notifies the update of the one or more processed images.
  • the notification object Since the notification object has a small processing amount for display, according to the notification object, it is possible to suppress the processing amount in the display process while notifying the user who is viewing the screen of the update.
  • the one or more processed images are images in which the subject is captured in a more enlarged state than the live view image.
  • the one or more processed images are images that are captured in a state where a subject that is partially or entirely included in the live view image is further reduced.
  • the one or more processed images are a plurality of processed images.
  • the plurality of processed images are displayed side by side.
  • a subject that appears in each of the plurality of processed images overlaps at least partially with a subject that appears in one or more other processed images of the plurality of processed images.
  • a parameter for generating at least one processed image of the one or more processed images is set. Be changed. Further, it is determined whether or not the parameter changing operation has been recognized. Further, when it is determined that the parameter changing operation has been recognized, the parameter is changed.
  • the display device is a display surface of a touch panel.
  • an object for changing the parameter is further displayed on the display device.
  • the parameter changing operation is a touch operation at the display position of the object in the touch panel.
  • the update operation is a touch operation at a position where one or more processed images are displayed
  • the update operation is not a touch operation at a position where one or more processed images are displayed, but indicates another position (for example, a position near a position where one or more processed images are displayed, or a button. It may be a touch operation at a position where the object is displayed.
  • the update operation may be a touch operation at an arbitrary position (for example, a double tap at an arbitrary position, a pinch at an arbitrary position, etc.) instead of a touch operation at a predetermined position.
  • the update operation may be a different operation (for example, a key input operation, a voice input operation, an input operation using a sensor, etc.) instead of a touch operation.
  • the operation recognition unit may notify the operation determination unit that the update operation or the parameter change operation has been recognized. Then, the operation determination unit may determine that the update operation or the parameter change operation has been recognized based on the notification.
  • the update of the processed image is notified by the screen displayed on the display device
  • the present disclosure is not limited to the example.
  • the update of the processed image may be notified by another means (for example, sound, vibration, etc.) instead of the notification by the screen or in combination with the notification by the screen.
  • the display control device may be another device (for example, a digital camera, a tablet terminal, or the like) having a camera and a display device other than a smartphone.
  • the display control device may be a device that does not have a camera or a display device.
  • the display control device may be a device (for example, a server) that communicates with a camera or another device having a display device.
  • processing steps in the display control processing of this specification do not necessarily have to be executed in time series in the order described in the flowchart.
  • the processing steps in the display control process may be executed in an order different from the order described in the flowchart, or may be executed in parallel.
  • the following configurations also belong to the technical scope of the present disclosure.
  • (1) One or more processes generated under respective image processing conditions based on live view images generated based on image data obtained through an image sensor and image data at any point in time among the image data
  • a display control unit for displaying an image on a display device;
  • a determination unit that determines whether a predetermined user operation is recognized;
  • the display control unit updates the one or more processed images to be displayed when it is determined that the predetermined user operation is recognized.
  • Display control device (2)
  • the display device is a display surface of a touch panel,
  • the predetermined user operation is a predetermined touch operation on the touch panel.
  • the display control apparatus wherein the predetermined user operation is a touch operation at a position on the touch panel where the one or more processed images are displayed.
  • the predetermined user operation is a touch operation at a position on the touch panel where the one or more processed images are displayed.
  • the user who has performed the predetermined user operation is notified of the update of the one or more processed images, any one of (1) to (3)
  • the display control device according to item.
  • the display control unit is a screen including the live view image and the one or more processed images when it is determined that the predetermined user operation is recognized, and updates the one or more processed images.
  • the display control device according to any one of (1) to (4), wherein the display screen is displayed on the display device.
  • the display control device according to (5), wherein the screen includes an animation of the one or more processed images that notifies the update of the one or more processed images.
  • the display control device according to (5), wherein the screen includes an object for notifying update of the one or more processed images.
  • the display control apparatus according to any one of (1) to (7), wherein the one or more processed images are images in which a subject is captured in an enlarged state as compared with the live view image.
  • the one or more processed images are images that are captured in a state in which a subject captured in a part or the whole of the live view image is further reduced. Control device.
  • the display control apparatus according to any one of (1) to (9), wherein the one or more processed images are a plurality of processed images.
  • the display control device according to (10), wherein the plurality of processed images are displayed side by side.
  • the subject shown in each of the plurality of processed images is at least partially overlapped with a subject shown in one or more other processed images of the plurality of processed images, according to (10) or (11).
  • Display control device (13)
  • a changing unit that changes a parameter for generating at least one processed image of the one or more processed images when the live view image and the one or more processed images are displayed on the display device. Further comprising The determination unit determines whether another predetermined user operation is recognized, The changing unit changes the parameter when it is determined that the predetermined another user operation is recognized.
  • the display control apparatus according to any one of (1) to (12).
  • the display device is a display surface of a touch panel, The display control unit further displays an object for changing the parameter on the display device,
  • the predetermined another user operation is a touch operation at a display position of the object in the touch panel.
  • the display control device according to (13).
  • Computer One or more processes generated under respective image processing conditions based on live view images generated based on image data obtained through an image sensor and image data at any point in time among the image data A display control unit for displaying an image on a display device; A determination unit that determines whether a predetermined user operation is recognized; Function as The display control unit updates the one or more processed images to be displayed when it is determined that the predetermined user operation is recognized. program.
  • One or more processes generated under respective image processing conditions based on live view images generated based on image data obtained through an image sensor and image data at any point in time among the image data Displaying an image on a display device; Determining whether a predetermined user operation has been recognized; Including The one or more processed images to be displayed are updated when it is determined that the predetermined user operation has been recognized. Display control method.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】ユーザが撮像時に画像処理後の撮像画像をストレスなく容易に確認することを可能にする。 【解決手段】撮像素子を通じて得られる画像データに基づいて生成されるライブビュー画像、及び、上記画像データのうちのいずれかの時点での画像データに基づいてそれぞれの画像処理条件で生成される1つ以上の処理画像を、表示装置に表示させる表示制御部と、所定のユーザ操作が認識されたかを判定する判定部と、を備える表示制御装置が提供される。上記表示制御部は、上記所定のユーザ操作が認識されたと判定される場合に、表示される上記1つ以上の処理画像を更新する。

Description

表示制御装置、プログラム及び表示制御方法
 本開示は、表示制御装置、プログラム及び表示制御方法に関する。
 近年、デジタルカメラが広く普及している。例えば、デジタルカメラは、専用の装置として製造され、又はいずれかの装置(例えば、スマートフォン)に内蔵される。一般に、デジタルカメラの撮像素子、画像処理回路等を通じて生成される画像は、デジタルデータとして記憶されるとともに、モニタに表示される。
 デジタルカメラには、通常、撮像時の露光調整、光源の種類に応じた色バランス調整等を自動的に行う機能が設けられている。また、多くのデジタルカメラには、例えば、人物、花、風景、夜景のような被写体の種類又は撮像の目的に応じた複数の撮像モードが用意されている。そして、撮像時に所望の撮像モードが選択されると、シャッタースピード、絞り値、光源の種類等の撮像条件が、被写体の種類又は撮像の目的に適したものに自動的に設定される。さらに、デジタルカメラのユーザの好みに応じてエフェクトにより画調を変更する機能も用意されている。
 上述したような機能を有するデジタルカメラにおいて、ライブビュー画像(又はスルー画像)をモニタに表示しつつ、いずれかの時点での撮像画像に画調の変更を加えることにより得られる見本画像もサムネイルとして当該モニタに表示する技術が、特許文献1に開示されている。当該技術によれば、デジタルカメラのユーザは、ライブビュー画像を見ながら、所望の画調を伴うサムネイルを選択することにより、デジタルカメラに撮像条件を設定させる。
特開2007-194819号公報
 しかし、上記特許文献1に開示される技術では、サムネイルとして表示される見本画像は、いずれかの時点での撮像画像をもとに得られる画像であるので、ライブビュー画像とサムネイルとが一致しなくなり得る。そのため、ユーザは、サムネイルを見たとしても、ライブビュー画像にどの画調変更を加えることが望ましいかを想像しにくい。即ち、ユーザは、どのサムネイルの撮像条件を選択することが望ましいかを判断しにくい。
 一方、ライブビュー画像のフレームレートに近いフレームレートでサムネイルを更新することも考えられる。しかし、サムネイルについての画像処理に時間がかかるので、実際には、サムネイルのフレームレートは、ライブビュー画像のフレームレートよりも低くなり得る。その結果、サムネイルは、滑らかに表示されず、コマ落ちしたように表示され得る。そのため、サムネイルを見るユーザが強いストレスを感じてしまうことが、懸念される。
 そこで、ユーザが撮像時に画像処理後の撮像画像をストレスなく容易に確認することを可能にする仕組みが提供されることが望ましい。
 本開示によれば、撮像素子を通じて得られる画像データに基づいて生成されるライブビュー画像、及び、上記画像データのうちのいずれかの時点での画像データに基づいてそれぞれの画像処理条件で生成される1つ以上の処理画像を、表示装置に表示させる表示制御部と、所定のユーザ操作が認識されたかを判定する判定部と、を備える表示制御装置が提供される。上記表示制御部は、上記所定のユーザ操作が認識されたと判定される場合に、表示される上記1つ以上の処理画像を更新する。
 また、本開示によれば、コンピュータを、撮像素子を通じて得られる画像データに基づいて生成されるライブビュー画像、及び、上記画像データのうちのいずれかの時点での画像データに基づいてそれぞれの画像処理条件で生成される1つ以上の処理画像を、表示装置に表示させる表示制御部と、所定のユーザ操作が認識されたかを判定する判定部と、として機能させるためのプログラムが提供される。上記表示制御部は、上記所定のユーザ操作が認識されたと判定される場合に、表示される上記1つ以上の処理画像を更新する。
 また、本開示によれば、撮像素子を通じて得られる画像データに基づいて生成されるライブビュー画像、及び、上記画像データのうちのいずれかの時点での画像データに基づいてそれぞれの画像処理条件で生成される1つ以上の処理画像を、表示装置に表示させることと、所定のユーザ操作が認識されたかを判定することと、を含む表示制御方法が提供される。表示される上記1つ以上の処理画像は、上記所定のユーザ操作が認識されたと判定される場合に更新される。
 以上説明したように本開示によれば、ユーザが撮像時に画像処理後の撮像画像をストレスなく容易に確認することが可能になる。
本開示の一実施形態に係る表示制御装置の外観の一例を説明するための説明図である。 一実施形態に係る表示制御装置のハードウェア構成の一例を示すブロック図である。 第1の実施形態に係る表示制御装置の構成の一例を示すブロック図である。 ライブビュー画像及び処理画像を含む画面の一例を説明するための説明図である。 処理画像の更新の一例を説明するための第1の説明図である。 処理画像の更新の一例を説明するための第2の説明図である。 処理画像の更新を通知する通知アニメーションの一例を説明するための説明図である。 処理画像の更新を通知する通知オブジェクトの一例を説明するための説明図である。 パラメータ変更用オブジェクトの一例を説明するための説明図である。 第1の実施形態に係る表示制御処理の概略的な流れの一例を示すフローチャートである。 第2の実施形態に係る表示制御装置の構成の一例を示すブロック図である。 第2の実施形態に係るライブビュー画像及び処理画像を含む画面の第1の例を説明するための説明図である。 第2の実施形態に係るライブビュー画像及び処理画像を含む画面の第2の例を説明するための説明図である。 第2の実施形態に係るライブビュー画像及び処理画像を含む画面の第3の例を説明するための説明図である。
 以下に添付の図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 1.表示制御装置の外観
 2.第1の実施形態
  2.1.表示制御装置の構成
  2.2.処理の流れ
 3.第2の実施形態
  3.1.表示制御装置の構成
  3.2.処理の流れ
 4.ハードウェア構成
 5.まとめ
 <<1.表示制御装置の外観>>
 まず、図1を参照して、本開示の一実施形態に係る表示制御装置の外観を説明する。図1は、本開示の一実施形態に係る表示制御装置100の外観の一例を説明するための説明図である。図1を参照すると、表示制御装置100が示されている。この例では、表示制御装置100は、スマートフォンである。
 例えば、表示制御装置100は、表示装置101を備える。表示制御装置100は、表示制御装置100のユーザに見せるための画面を、表示装置101に表示する。
 また、例えば、表示制御装置100は、タッチパネルを備える。この場合に、表示装置101は、タッチパネルの表示面である。そして、表示制御装置100は、タッチパネルにおけるユーザのタッチを検出し、当該検出結果からユーザのタッチ操作を認識する。
 また、例えば、表示制御装置100は、カメラ103を備える。カメラ103を通じて生成される画像は、表示制御装置100に記憶され、表示装置101に表示される。
 <<2.ハードウェア構成>>
 続いて、図2を参照して、本開示の一実施形態に表示制御装置100のハードウェア構成の一例を説明する。図2は、一実施形態に係る表示制御装置100のハードウェア構成の一例を示すブロック図である。図2を参照すると、表示制御装置100は、例えば、CPU(Central Processing Unit)71、レンズブロック73、モータ75、モータドライバ77、撮像素子79、撮像素子ドライバ81、タイミング発生器83、信号処理回路85、画像処理回路87、SDRAM(Synchronous Dynamic Random Access Memory)89、モニタ91、内部メモリ93、外部メモリ95、キー入力装置97及びタッチ検出面99を備える。
 CPU71は、表示制御装置100全体の制御を行う。
 レンズブロック73は、光学系であり、モータ75により駆動される。また、モータ75は、モータドライバ77により制御される。モータドライバ77は、CPU71からの制御信号に応じてモータ75を制御することにより、電源オンオフ時等におけるレンズの繰り出し及び収納、光学系のズーム倍率の変更、フォーカス調整、絞り調整等を行う。
 撮像素子79は、例えば、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)のような任意の撮像素子である。撮像素子ドライバ81は、CPU71の制御信号に応じてタイミング発生器83が生成するタイミング信号に基づいて、撮像素子79を制御する。撮像素子79は、撮像素子ドライバ81による制御に応じて、レンズブロック73により結像された被写体の光学像を撮像信号に光電変換し、当該撮像信号を信号処理回路85に出力する。
 信号処理回路85は、撮像信号に含まれるノイズを除去する回路、ノイズ除去後の撮像信号をデジタル信号に変換するアナログ/デジタル変換器等を含む。信号処理回路85は、デジタル化された撮像信号を画像処理回路87へ出力する。当該撮像信号は、RAW形式の画像データ(以下、「RAWデータ」と呼ぶ)である。
 画像処理回路87は、撮像信号を輝度(Y)信号及び色差(UV)信号を含むYUV形式の画像データ(以下、「YUVデータ」と呼ぶ)に変換する。また、画像処理回路87は、必要に応じて画素補完を行う。また、画像処理回路87は、CPU71による制御に応じて、ホワイトバランス調整、輪郭強調、画調変更等の画像処理を行う。画像処理回路87により変換されたYUVデータは、SDRAM89に順次格納される。また、記録モードの撮像待機状態では、SDRAM89に1フレーム分のYUVデータが蓄積される度に、当該YUVデータに対応するライブビュー画像(又はスルー画像)が、モニタ91により表示される。当該モニタ91は、液晶、有機EL(Organic Light-Emitting Diode:OLED)、CRT(Cathode Ray Tube)等を用いて実現され得る。モニタ91は、例えばタッチパネルの表示面である。
 YUVデータは、例えば、JPEG(Joint Photographic Experts Group)形式、JPEG2000形式等のいずれかの形式の画像データに圧縮される。そして、圧縮された画像データは、表示制御装置100に内蔵された内部メモリ93、又は、インターフェース(図示せず)を介して表示制御装置100に接続された着脱可能な外部メモリ95(例えば、メモリカード)に記憶される。なお、再生モードにおいて、内部メモリ93又は外部メモリ95に記憶される画像データは、ユーザ操作に応じてCPU71により適宜読み出され、YUVデータに変換され、SDRAM89に読み込まれる。そして、当該YUVデータが、モニタ91に表示される。
 CPU71にはマイクロコンピュータ(図示せず)が接続されている。また、当該マイクロコンピュータには、キー入力装置97(タクトスイッチ等)、及びタッチ検出面99及び電源制御回路(図示せず)が接続されている。タッチ検出面99は、例えばタッチパネルのタッチ検出面である。上記マイクロコンピュータは、キー入力装置97におけるキー入力操作、及びタッチ検出面99におけるタッチ操作を定常的にスキャンする。そして、上記マイクロコンピュータは、キー入力装置97におけるユーザのキー入力操作を検出し、検出結果をCPU71に提供する。また、上記マイクロコンピュータは、タッチ検出面99におけるユーザのタッチを検出し、検出結果をCPU71に提供する。また、上記マイクロコンピュータは、電源制御回路からの電源供給を制御する。
 以上、表示制御装置100のハードウェア構成の一例を説明した。これはあくまで一例であるので、表示制御装置100は、上述した構成要素の他に、通信回路等の他の構成要素を含んでもよく、又は、上述した構成要素を必ずしも含まなくてもよい。
 <<3.第1の実施形態>>
 まず、本開示の第1の実施形態を説明する。本開示の第1の実施形態によれば、ライブビュー画像と画像処理後の処理画像とが表示され、当該1つ以上の処理画像は、所定のユーザ操作に応じて更新される。
 <3.1.表示制御装置の構成>
 図3~図7を参照して、第1の実施形態に係る表示制御装置100-1の構成の一例を説明する。図3は、第1の実施形態に係る表示制御装置100-1の構成の一例を示すブロック図である。図3を参照すると、表示制御装置100-1は、撮像部110、入力部120、表示部130、記憶部140及び制御部150を備える。
 (撮像部110)
 撮像部110は、撮像素子を通じて画像データを得る。当該画像データは、例えばRAWデータである。
 例えば、撮像部110は、撮像素子により、撮像信号を出力し、当該撮像信号に含まれるノイズ除去、アナログ/デジタル変換等を行う。その結果、上記画像データが得られる。撮像部110は、当該画像データを制御部150(画像処理部153)に提供する。
 なお、一例として、撮像部110は、レンズブロック73、モータ75、モータドライバ77、撮像素子79、撮像素子ドライバ81、タイミング発生器83及び信号処理回路85等により実装される。
 (入力部120)
 入力部120は、ユーザ操作を検出する。そして、入力部120は、当該検出結果を制御部150(操作認識部155)に提供する。
 例えば、入力部120は、タッチパネルにおけるユーザのタッチを検出する。そして、入力部120は、当該検出結果(例えば、タッチ位置情報)を制御部150(操作認識部155)に提供する。
 また、入力部120は、キー入力装置におけるユーザのキー入力操作を検出する。そして、入力部120は、当該検出結果を制御部150(操作認識部155)に提供する。
 なお、一例として、入力部120は、キー入力装置97、タッチ検出面99、上記マイクロコンピュータ(図示せず)等により実装され得る。
 (表示部130)
 表示部130は、表示制御装置100-1のユーザに見せるための画面を表示する。即ち、表示部130は、表示装置101に対応する。例えば、表示部130は、制御部150(表示制御部157)による制御に応じて、上記画面を表示する。
 なお、一例として、表示部130は、モニタ91等により実装される。即ち、表示部130は、例えばタッチパネルの表示面である。
 (記憶部140)
 記憶部140は、表示制御装置100-1の動作のためのプログラム及びデータを記憶する。また、例えば、記憶部140は、撮像部110及び/又は制御部150(画像処理部153)を通じて得られる画像データを記憶する。
 なお、一例として、記憶部140は、SDRAM89、内部メモリ93、外部メモリ95等により実装され得る。
 (制御部150)
 制御部150は、表示制御装置100-1の様々な機能を提供する。例えば、制御部150は、記憶部140又は他の記憶媒体に記憶されるプログラムを実行することにより、上記様々な機能を提供する。制御部150は、撮像制御部151、画像処理部153、操作認識部155、操作判定部156、表示制御部157及びパラメータ変更部159を含む。
 なお、一例として、画像処理部153は、CPU71、画像処理回路87等により実装され得る。
 (撮像制御部151)
 撮像制御部151は、撮像部110による撮像に関する制御を行う。
 例えば、撮像制御部151は、撮像のタイミングを制御する。より具体的には、例えば、撮像制御部151は、撮像のタイミングの制御信号を撮像部110に提供することにより、撮像のタイミングを制御する。
 また、例えば、撮像制御部151は、撮像部110の駆動を制御する。より具体的には、例えば、撮像制御部151は、駆動の制御信号を撮像部110に送信することにより、電源オンオフ時等におけるレンズの繰り出し及び収納、光学系のズーム倍率の変更、フォーカス調整、絞り調整等を行う。
 (画像処理部153)
 画像処理部153は、画像処理を行うことにより画像を生成する。例えば、画像処理部153は、撮像素子を通じて得られる画像データに基づいて画像を生成する。即ち、撮像部110により提供される画像データに基づいて画像を生成する。当該画像データは、例えばRAWデータである。
 -ライブビュー画像
 とりわけ本実施形態では、画像処理部153は、撮像素子を通じて得られる画像データに基づいて、ライブビュー画像(又はスルー画像)を生成する。例えば、撮像モードでの待機状態において、画像処理部153は、撮像素子を通じて順次得られる画像データに基づいて、ライブビュー画像を生成する。
 -処理画像
 また、とりわけ本実施形態では、画像処理部153は、上記画像データのうちのいずれかの時点での画像データに基づいて、1つ以上の処理画像をそれぞれの画像処理条件で生成する。例えば、上記画像データは、RAWデータであり、上記1つ以上の処理画像は、RAWデータに基づいて画像処理により生成され得る任意の画像である。また、上記画像処理条件は、画像処理に関する任意の条件である。
 例えば、上記画像処理条件は、RAWデータの現像処理の条件(以下、「現像条件」と呼ぶ)を含む。当該現像条件は、例えば、ホワイトバランス、コントラスト、明るさ等の条件を含む。一例として、第1の処理画像は、第1の現像条件での現像処理により生成される画像であり、第2の処理画像は、第2の現像条件での現像処理により生成される画像であってもよい。具体例として、第1の処理画像は、通常の画像よりも高コントラストの画像であってもよく、第2の処理画像は、通常の画像よりも明るい画像であってもよい。
 また、例えば、上記画像処理条件は、現像処理後の画像に対して更に行う加工処理(及び当該加工処理の加工条件)を含む。当該加工処理は、例えば、特定の色の抽出(パートカラー)、ネガ画像への変換、イラスト風の画像への変換等を含む。一例として、第3の処理画像は、第1の加工処理を施された画像であり、第4の処理画像は、第2の加工処理を施された画像であってもよい。具体例として、第3の処理画像は、特定の色が抽出された画像であってもよく、第4の処理画像は、イラスト風に変換された画像であってもよい。
 以上のように、画像処理部153は、画像データに基づいて、画像処理に関する任意の条件で処理画像を生成し得る。
 また、上述したように、画像処理部153は、上記画像データのうちのいずれかの時点での画像データに基づいて、1つ以上の処理画像を生成する。当該いずれかの時点は、例えば、表示制御部157により新たな処理画像の生成を指示された後のいずれかの時点(例えば、直後の時点)を含む。即ち、画像処理部153は、表示制御部157による指示を受けた後に、新たな処理画像を生成する。また、上記いずれかの時点は、撮像モードの開始時点を含んでもよい。即ち、画像処理部153は、撮像モードが開始すると、はじめの処理画像を生成してもよい。
 また、例えば、上記1つ以上の処理画像は、上記ライブビュー画像の一部又は全体に写る被写体がより縮小された状態で写る画像である。即ち、画像処理部153は、上記ライブビュー画像の一部又は全体に写る被写体がより縮小された状態で写る1つ以上の処理画像を生成する。一例として、当該1つ以上の処理画像は、上記ライブビュー画像に写る被写体の全体がより縮小された状態で写る画像である。
 また、例えば、上記1つ以上の処理画像は、複数の処理画像である。即ち、画像処理部153は、複数の処理画像をそれぞれの画像処理条件で生成する。そして、例えば、上記複数の処理画像の各々に写る被写体は、上記複数の処理画像のうちの1つ以上の別の処理画像に写る被写体と少なくとも一部で重複する。一例として、上記複数の処理画像の各々に写る被写体は、当該複数の処理画像のうちの別のいずれの処理画像に写る被写体とも全体で重複する。即ち、上記複数の処理画像に写る被写体は、共通の被写体である。
 (操作認識部155)
 操作認識部155は、ユーザ操作を認識する。例えば、入力部120は、表示制御装置100-1のユーザによるユーザ操作を検出すると、当該ユーザ操作の検出結果を操作認識部155に提供し、操作認識部155は、当該検出結果を取得する。そして、操作認識部155は、当該検出結果に基づいて、ユーザ操作を認識する。
 例えば、上記ユーザ操作は、タッチパネルにおけるタッチ操作を含む。即ち、操作認識部155は、タッチパネルにおけるタッチ操作を認識する。より具体的には、例えば、操作認識部155は、タッチパネルにおけるタッチ操作として、タッチイベントを認識する。当該タッチイベントは、例えば、タップ、ダブルタップ、ドラッグ、フリック、ピンチ等を含む。例えば、操作認識部155は、ユーザ操作の検出結果としてタッチ位置情報を順次取得し、順次取得される当該タッチ位置情報から、タッチイベントを認識する。
 また、例えば、上記ユーザ操作は、キー入力装置におけるユーザのキー入力操作を含む。即ち、操作認識部155は、キー入力装置におけるキー入力操作を認識する。より具体的には、例えば、操作認識部155は、キー入力装置におけるキー入力操作として、キー入力操作の種類を認識する。
 (操作判定部156)
 -更新操作の判定
 操作判定部156は、所定のユーザ操作(以下、「更新操作」と呼ぶ)が認識されたかを判定する。
 例えば、上記更新操作は、タッチパネルにおける所定のタッチ操作である。さらに具体的には、例えば、上記更新操作は、タッチパネルのうちの所定の位置でのタッチ操作である。一例として、上記更新操作は、タッチパネルのうちの上記1つ以上の処理画像が表示される位置でのタッチ操作である。即ち、操作判定部156は、タッチパネルのうちの上記1つ以上の処理画像が表示されている位置でのタッチ操作(即ち、更新操作)が認識されたかを判定する。
 例えば、操作判定部156は、操作認識部155により認識されるユーザ操作を監視し、当該ユーザ操作が上記更新操作と一致するかを判定することにより、上記更新操作が認識されたかを判定する。そして、操作判定部156は、更新操作が認識された場合に、更新操作が認識されたことを表示制御部157に通知する。
 -パラメータ変更操作の判定
 操作判定部156は、所定の別のユーザ操作(以下、「パラメータ変更操作」と呼ぶ)が認識されたかを判定する。
 例えば、後述するように、上記1つ以上の処理画像のうちの少なくとも1つの処理画像の生成のためのパラメータが、パラメータ変更部159により変更される。そして、上記パラメータ変更操作は、タッチパネルのうちの、上記パラメータの変更のためのオブジェクト(以下、パラメータ変更用オブジェクト)の表示位置での、タッチ操作である。操作判定部156は、タッチパネルのうちのパラメータ変更用オブジェクトが表示されている位置でのタッチ操作(即ち、パラメータ変更操作)が認識されたかを判定する。
 例えば、操作判定部156は、操作認識部155により認識されるユーザ操作を監視し、当該ユーザ操作が上記パラメータ変更操作と一致するかを判定することにより、上記パラメータ変更操作が認識されたかを判定する。そして、操作判定部156は、パラメータ変更操作が認識された場合に、パラメータ変更操作が認識されたことをパラメータ変更部159に通知する。
 (表示制御部157)
 表示制御部157は、ユーザに見せるための画面を表示装置101に表示させる。上述したとおり、表示装置101は、表示部130に対応するので、表示制御部157は、上記画面を表示部130に表示させる。
 -ライブビュー画像・処理画像の表示
 とりわけ本実施形態では、表示制御部157は、撮像素子を通じて得られる画像データに基づいて生成されるライブビュー画像、及び、当該画像データのうちのいずれかの時点での画像データに基づいてそれぞれの画像処理条件で生成される1つ以上の処理画像を、表示部130に表示させる。例えば、表示制御部157は、画像処理部153により生成されるライブビュー画像及び1つ以上の処理画像を含む画面を、表示部130に表示させる。
 例えば、上記1つ以上の処理画像は、上記ライブビュー画像の一部又は全体に写る被写体がより縮小された状態で写る画像である。即ち、表示制御部157は、上記ライブビュー画像の一部又は全体に写る被写体がより縮小された状態で写る1つ以上の処理画像を、表示部130に表示させる。一例として、当該1つ以上の処理画像は、上記ライブビュー画像の全体に写る被写体がより縮小された状態で写る画像である。
 このようにライブビュー画像に写る被写体がより縮小された状態で写る処理画像が表示されることにより、ユーザにとってライブビュー画像と処理画像とを見比べ易くなる。そのため、ユーザは、ライブビュー画像と処理画像とを見ることにより、どのような撮像画像が得られるかを容易に想像することができる。
 また、例えば、上記1つ以上の処理画像は、複数の処理画像である。即ち、表示制御部157は、ライブビュー画像及び複数の処理画像を、表示部130に表示させる。
 このように複数の処理画像の表示により、それぞれ別々の画像処理条件で生成される複数の処理画像を見比べることが可能になる。そのため、ユーザは、どの画像処理が望ましいかをより容易に判断することができる。
 また、例えば、上記複数の処理画像は、並べて表示される。即ち、表示制御部157は、表示部130に、複数の処理画像を並べて表示させる。
 このように複数の処理画像が並べて表示されることにより、ユーザは、複数の処理画像をより容易に見比べることができる。即ち、ユーザは、どの画像処理条件がより望ましいかをより容易に判断することができる。
 また、例えば、上記複数の処理画像の各々に写る被写体は、上記複数の処理画像のうちの1つ以上の別の処理画像に写る被写体と少なくとも一部で重複する。一例として、上記複数の処理画像の各々に写る被写体は、当該複数の処理画像のうちの別のいずれの処理画像に写る被写体とも全体で重複する。即ち、上記複数の処理画像に写る被写体は、共通の被写体である。
 このように複数の処理画像間で処理画像に写る被写体が重複することにより、ユーザが複数の処理画像をより容易に見比べることが可能になる。即ち、ユーザは、どの画像処理条件がより望ましいかをより容易に判断することができる。
 例えば以上のような処理画像が表示される。以下、図4を参照して具体的な画面の例を説明する。
 図4は、ライブビュー画像及び処理画像を含む画面の一例を説明するための説明図である。図4を参照すると、表示制御装置100-1が示されている。また、表示制御装置100-1の表示装置101には、ライブビュー画像10及び複数の処理画像20が示されている。複数の処理画像20は、並べて表示されている。また、当該複数の処理画像20の各々は、それぞれの画像処理条件で生成された画像である。また、複数の処理画像20の各々は、ライブビュー画像10に写る被写体の全体がより縮小された状態で写る画像である。そのため、複数の処理画像20に写る被写体は、共通の被写体である。
 以上のように、ライブビュー画像及び処理画像が表示される。
 -処理画像の更新
 また、とりわけ本実施形態では、表示制御部157は、上記更新操作が認識されたと判定される場合に、表示される上記1つ以上の処理画像を更新する。
 例えば、更新操作が認識された場合には、表示制御部157は、更新操作が認識されたことを操作判定部156により通知される。すると、表示制御部157は、画像処理部153に新たな処理画像の生成を指示する。そして、表示制御部157は、ライブビュー画像と、新たな時点での画像データに基づいて生成される1つ以上の処理画像を、表示部130に表示させる。このように上記1つ以上の処理画像が更新される。以下、処理画像の更新の具体例を図5A及び図5Bを参照して説明する。
 図5A及び図5Bは、処理画像の更新の一例を説明するための説明図である。図5Aを参照すると、表示制御装置100-1が示されている。また、表示制御装置100-1の表示装置101には、ライブビュー画像10及び複数の処理画像20が示されている。例えば、図5Aは、図4の例に示される表示制御装置100-1が動かされた場合の例を示す。その結果、図5Aに示される複数の処理画像20は、図4に示される複数の処理画像20と同じであるが、図5Aに示されるライブビュー画像10は、図4に示されるライブビュー画像10とは異なる。即ち、図5Aに示される例では、ライブビュー画像10に写る被写体と、複数の処理画像20に写る被写体とが、異なっている。そのため、表示制御装置100-1のユーザは、ライブビュー画像10に写る被写体を撮像した場合に画像処理後の撮像画像がどのようなものになるかを想像しにくい。
 そこで、図5Bに示されるように、ユーザは、指30で、複数の処理画像20が表示されている位置でのタッチ操作(例えば、タップ)を行う。すると、複数の処理画像20が更新される。即ち、ライブビュー画像10に写る被写体と、複数の処理画像20に写る被写体とが同様になる。
 これにより、ユーザは、必要に応じて更新操作を行えば、ライブビュー画像と同様の被写体が写る処理画像を見ることが可能になる。そのため、ユーザが画像処理後の撮像画像を容易に確認することが可能になる。また、処理画像は、あくまで更新操作が行われた場合に更新されるので、処理画像がライブビュー画像のようなフレームレートで更新されない場合のように、処理画像がコマ落ちしたように表示されることもない。そのため、ユーザが画像処理後の撮像画像をストレスなく確認することが可能になる。即ち、ユーザが撮像時に画像処理後の撮像画像をストレスなく容易に確認することが可能になる。
 また、更新操作がタッチ操作であることにより、ユーザは、画面をみながら容易に操作を行うことができるので、処理画像の更新をより容易に行うことが可能になる。また、更新操作が処理画像の表示位置でのタッチ操作であることにより、ユーザは、より直感的な操作で処理画像の更新を行うことが可能になる。
 -処理画像の更新の通知
 また、例えば、上記1つ以上の処理画像が更新される場合に、上記更新操作を行ったユーザに上記1つ以上の処理画像の更新が通知される。例えば、表示制御部157は、上記更新操作が認識されたと判定された場合に、上記ライブビュー画像及び上記1つ以上の処理画像を含む画面であって、当該1つ以上の処理画像の更新を通知する当該画面を、表示部130に表示させる。
 より具体的には、例えば、上記画面は、上記1つ以上の処理画像の更新を通知する、上記1つ以上の処理画像についてのアニメーション(以下、「通知アニメーション」と呼ぶ)を含む。即ち、表示制御部157は、更新操作が認識されたと判定された場合に、上記通知アニメーションを含む画面を、表示部130に表示させる。当該通知アニメーションは、一例として、上記1つ以上の処理画像についてのフェードインである。また、当該通知アニメーションは、上記1つ以上の処理画像の点滅、上記1つ以上の処理画像についてのズームイン等の別のアニメーションであってもよい。以下、図6を参照して通知アニメーションの具体例を説明する。
 図6は、処理画像の更新を通知する通知アニメーションの一例を説明するための説明図である。図6を参照すると、時間T~時間Tにおける処理画像20の表示状態が示されている。更新操作が認識されたと判定されると、例えばこのように、時間T~時間Tにわたって、新たな処理画像20がフェードインで表示される。
 なお、通知アニメーションの代わりに、上記画面は、上記1つ以上の処理画像の更新を通知するオブジェクト(以下、「通知オブジェクト」と呼ぶ)を含んでもよい。即ち、表示制御部157は、更新操作が認識されたと判定された場合に、上記通知オブジェクトを含む画面を、表示部130に表示させてもよい。当該通知オブジェクトは、一例として、上記1つ以上の処理画像の囲う図形のオブジェクトである。また、当該通知オブジェクトは、上記1つ以上の処理画像を指し示す矢印のオブジェクト、「Updated」のような文字情報を含むオブジェクト等の別のオブジェクトであってもよい。以下、図7を参照して通知オブジェクトの具体例を説明する。
 図7は、処理画像の更新を通知する通知オブジェクトの一例を説明するための説明図である。図7を参照すると、図5Bと同様に、表示制御装置100-1が示されている。そして、表示装置101には、ライブビュー画像10及び複数の処理画像20が表示されている。そして、この例では、複数の処理画像20を囲う長方形の通知オブジェクト40が、表示装置101にさらに表示されている。更新操作が認識されたと判定されると、例えばこのように、通知オブジェクト40が表示される。
 このように処理画像の更新の通知により、ユーザは、処理画像が更新されたことにより確実に気づくようになる。また、更新操作と処理画像の更新との関連をユーザに理解させることができる。また、画面での通知により、画面を見ているユーザは、処理画像が更新されたことにさらに確実に気づくようになる。例えば、上述したような通知アニメーションは、画面において非常に目立つので、通知アニメーションによれば、画面を見ているユーザは、処理画像が更新されたことにさらに確実に気づくようになる。また、例えば、上述したような通知オブジェクトは、表示のための処理量が少ないので、通知オブジェクトによれば、画面を見ているユーザに上記更新に気づかせつつ、表示処理における処理量を抑えることができる。
 -パラメータ変更のためのオブジェクトの表示
 また、例えば、後述するように、上記1つ以上の処理画像のうちの少なくとも1つの処理画像の生成のためのパラメータが、パラメータ変更部159により変更される。そして、表示制御部157は、上記パラメータの変更のためのオブジェクト(即ち、パラメータ変更用オブジェクト)を、表示部130に表示させる。一例として、当該パラメータ変更用オブジェクトは、スクロールバーである。以下、この点について図8を参照して具体例を説明する。
 図8は、パラメータ変更用オブジェクトの一例を説明するための説明図である。図8を参照すると、図5Bと同様に、表示制御装置100-1が示されている。そして、表示装置101には、ライブビュー画像10及び複数の処理画像20が表示されている。そして、この例では、スクロールバーであるパラメータ変更用オブジェクト50が、表示装置101にさらに表示されている。当該スクロールバー50は、つまみ部分51を含む。例えばこのように、パラメータ変更用オブジェクトが表示される。
 (パラメータ変更部159)
 パラメータ変更部159は、処理画像の生成のためのパラメータを変更する。一例として、処理画像が、通常の画像よりも高コントラストの画像である場合に、上記パラメータは、処理画像のコントラストの程度である。
 とりわけ、パラメータ変更部159は、上記ライブビュー画像及び上記1つ以上の処理画像が表示部130に表示されている際に、上記1つ以上の処理画像のうちの少なくとも1つの処理画像の生成のためのパラメータを変更する。
 また、とりわけ、パラメータ変更部159は、上記パラメータ変更操作が認識されたと判定される場合に、上記パラメータを変更する。
 例えば、パラメータ変更操作が認識された場合には、パラメータ変更部159は、パラメータ変更操作が認識されたことを操作判定部156により通知される。すると、パラメータ変更部159は、当該パラメータ操作に応じて、少なくとも1つの処理画像の生成のためのパラメータを変更する。
 一例として、図8に示されるような画面が表示装置101により表示されている場合に、パラメータ変更操作により、スクロールバーであるパラメータ変更用オブジェクト50のつまみ51が動かされる。この場合に、パラメータ変更部159は、複数の処理画像20のうちの選択されている処理画像20(例えば、処理画像20B)の生成のためのパラメータを、上記つまみの移動量に応じた量だけ変更する。
 このように、処理画像が表示されている際に当該処理画像の生成のためのパラメータが変更される。これにより、ユーザが処理画像を実際に見ながらパラメータを調整することが可能になる。そのため、ユーザは、パラメータを調整した場合に画像処理後の撮像画像がどのようになるかを容易に確認することができる。即ち、ユーザにとっての利便性が高まる。
 また、パラメータ変更用オブジェクトを用いたタッチ操作によれば、画面を見つつ容易な操作でパラメータを調整することが可能になる。
 <3.2.処理の流れ>
 次に、図9を参照して、第1の実施形態に係る表示制御処理の一例を説明する。図9は、第1の実施形態に係る表示制御処理の概略的な流れの一例を示すフローチャートである。当該表示制御処理は、撮像のためのアプリケーションの起動により開始する。
 まず、ステップS301で、撮像のためのアプリケーションの撮像モードが開始する。
 ステップS303で、画像処理部153は、1つ以上の新たな処理画像を生成する。
 ステップS305で、画像処理部153は、ライブビュー画像を生成する。
 ステップS307で、表示制御部157は、ライブビュー画像及び1つ以上の処理画像を含む画面を更新する。
 ステップS309で、操作判定部156は、アプリケーション又は撮像モードの終了操作があったかを判定する。当該終了操作があった場合には、処理は終了する。そうでなければ、処理はステップS311へ進む。
 ステップS311で、操作判定部156は、更新操作があったかを判定する。更新操作があった場合には、処理はステップS313へ進む。そうでなければ、処理はステップS305へ戻る。
 ステップS313で、表示制御部157は、画像処理部153に新たな処理画像の生成を指示する。そして、処理はステップS303へ戻る。
 <<4.第2の実施形態>>
 続いて、本開示の第2の実施形態を説明する。
 上述したように、特開2007-194819号公報には、ライブビュー画像(又はスルー画像)をモニタに表示しつつ、いずれかの時点での撮像画像に画調の変更を加えることにより得られる見本画像もサムネイルとして当該モニタに表示する技術が、開示されている。当該技術によれば、デジタルカメラのユーザは、ライブビュー画像を見ながら、所望の画調を伴うサムネイルを選択することにより、デジタルカメラに撮像条件を設定させる。
 しかし、上記技術では、見本画像は、サムネイルとして表示されるので、ライブビュー画像よりもより縮小された画像である。そのため、ユーザは、サムネイルとして表示される見本画像を見たとしても、どのような撮像画像が得られるかを詳細に確認することが難しいことも考えられる。
 そのため、ユーザが画像処理後の撮像画像をより詳細に確認することを可能にする仕組みが提供されることが望ましい。
 そこで、本開示の第2の実施形態によれば、ライブビュー画像と、当該ライブビュー画像と比べてより拡大された状態で被写体が写る処理画像とが、表示される。
 <4.1.表示制御装置の構成>
 図10~図13を参照して、第2の実施形態に係る表示制御装置100-2の構成の一例を説明する。図10は、第2の実施形態に係る表示制御装置100-2の構成の一例を示すブロック図である。図10を参照すると、表示制御装置100-2は、撮像部110、入力部120、表示部130、記憶部140及び制御部160を備える。
 なお、撮像部110、入力部120、表示部130及び記憶部140については、第1の実施形態と第2の実施形態との間に差異はない。また、制御部160に含まれる撮像制御部151、画像処理部153、操作認識部155、操作判定部156及びパラメータ変更部159についても、第1の実施形態と第2の実施形態との間に差異はない。よって、ここでは、制御部160に含まれる画像処理部163及び表示制御部167を説明する。
 (画像処理部163)
 画像処理部163は、画像処理を行うことにより画像を生成する。例えば、画像処理部163は、撮像素子を通じて得られる画像データに基づいて画像を生成する。即ち、撮像部110により提供される画像データに基づいて画像を生成する。当該画像データは、例えばRAWデータである。
 -ライブビュー画像
 画像処理部163は、撮像素子を通じて得られる画像データに基づいて、ライブビュー画像(又はスルー画像)を生成する。この点は、第1の実施形態に係る画像処理部153について説明したとおりである。
 -処理画像
 また、画像処理部163は、上記画像データのうちのいずれかの時点での画像データに基づいて、1つ以上の処理画像をそれぞれの画像処理条件で生成する。例えば、上記画像データは、RAWデータであり、上記1つ以上の処理画像は、RAWデータに基づいて画像処理により生成され得る任意の画像である。また、上記画像処理条件は、画像処理に関する任意の条件である。
 例えば、上記画像処理条件は、RAWデータの現像処理の条件(以下、「現像条件」と呼ぶ)を含む。また、例えば、上記画像処理条件は、現像処理後の画像に対して更に行う加工処理(及び当該加工処理の加工条件)を含む。これらの点は、第1の実施形態に係る画像処理部153について説明したとおりである。
 このように、画像処理部163は、画像データに基づいて、画像処理に関する任意の条件で処理画像を生成し得る。
 また、上記いずれかの時点は、例えば、表示制御部157により新たな処理画像の生成を指示された後のいずれかの時点(例えば、直後の時点)を含む。この点も、第1の実施形態に係る画像処理部153について説明したとおりである。
 とりわけ本実施形態では、上記1つ以上の処理画像は、上記ライブビュー画像と比べてより拡大された状態で被写体が写る画像である。即ち、画像処理部163は、上記ライブビュー画像と比べてより拡大された状態で被写体が写る1つ以上の処理画像を生成する。
 また、例えば、上記1つ以上の処理画像は、複数の処理画像である。即ち、画像処理部163は、複数の処理画像をそれぞれの画像処理条件で生成する。そして、例えば、上記複数の処理画像の各々に写る被写体は、上記複数の処理画像のうちの1つ以上の別の処理画像に写る被写体と少なくとも一部で重複する。
 (表示制御部167)
 表示制御部167は、ユーザに見せるための画面を表示装置101に表示させる。上述したとおり、表示装置101は、表示部130に対応するので、表示制御部157は、上記画面を表示部130に表示させる。
 -ライブビュー画像・処理画像の表示
 本実施形態では、表示制御部167は、撮像素子を通じて得られる画像データに基づいて生成されるライブビュー画像、及び、当該画像データのうちのいずれかの時点での画像データに基づいてそれぞれの画像処理条件で生成される1つ以上の処理画像を、表示部130に表示させる。例えば、表示制御部167は、画像処理部163により生成されるライブビュー画像及び1つ以上の処理画像を含む画面を、表示部130に表示させる。
 また、とりわけ本実施形態では、上記1つ以上の処理画像は、上記ライブビュー画像と比べてより拡大された状態で被写体が写る画像である。即ち、表示制御部157は、上記ライブビュー画像と比べてより拡大された状態で被写体が写る1つ以上の処理画像を、表示部130に表示させる。
 このように被写体がより拡大された状態で写る画像が表示されることにより、ユーザは、画像処理後の撮像画像の詳細を見ることが可能になる。そのため、ユーザは、処理画像により、どのような撮像画像が得られるかをより詳細に確認することができる。
 また、例えば、上記1つ以上の処理画像は、複数の処理画像である。また、例えば、上記複数の処理画像は、並べて表示される。また、例えば、上記複数の処理画像の各々に写る被写体は、上記複数の処理画像のうちの1つ以上の別の処理画像に写る被写体と少なくとも一部で重複する。これらの点は、第1の実施形態に係る表示制御部157について説明したとおりである。
 例えば以上のような処理画像が表示される。以下、図11~図13を参照して具体的な画面の例を説明する。
 図11は、第2の実施形態に係るライブビュー画像及び処理画像を含む画面の第1の例を説明するための説明図である。図11を参照すると、表示制御装置100-2が示されている。また、表示制御装置100-2の表示装置101には、ライブビュー画像10及び複数の処理画像20が示されている。当該複数の処理画像20の各々は、それぞれの画像処理条件で生成された画像である。そして、複数の処理画像20の各々は、ライブビュー画像10と比べてより拡大された状態で被写体が写る画像である。とりわけこの例では、複数の処理画像20の各々は、ライブビュー画像10の一部11に写る被写体がより拡大された状態で写る画像である。そのため、複数の処理画像20に写る被写体は、共通の被写体である。また、当該複数の処理画像20は、並べて表示されている。なお、ライブビュー画像10の一部11は、表示装置101において示されてもよい。一例として、当該一部11は、破線の四角形のオブジェクトにより示されてもよい。
 図12は、第2の実施形態に係るライブビュー画像及び処理画像を含む画面の第2の例を説明するための説明図である。図12を参照すると、表示制御装置100-2が示されている。また、表示制御装置100-2の表示装置101には、ライブビュー画像10及び複数の処理画像20が示されている。当該複数の処理画像20の各々は、それぞれの画像処理条件で生成された画像である。そして、複数の処理画像20の各々は、ライブビュー画像10と比べてより拡大された状態で被写体が写る画像である。また、各処理画像20に写る被写体は、隣接する別の処理画像20に写る被写体と一部重複する。
 図13は、第2の実施形態に係るライブビュー画像及び処理画像を含む画面の第3の例を説明するための説明図である。図13を参照すると、表示制御装置100-2が示されている。また、表示制御装置100-2の表示装置101には、ライブビュー画像10及び複数の処理画像20が示されている。当該複数の処理画像20の各々は、それぞれの画像処理条件で生成された画像である。そして、複数の処理画像20の各々は、ライブビュー画像10と比べてより拡大された状態で被写体が写る画像である。また、各処理画像20に写る被写体は、隣接する別の処理画像20に写る被写体と一部重複する。
 以上のように、ライブビュー画像及び処理画像が表示される。
 -処理画像の更新
 また、例えば、第2の実施形態でも、表示制御部167は、上記更新操作が認識されたと判定される場合に、表示される上記1つ以上の処理画像を更新する。この点は、第1の実施形態に係る表示制御部157について説明したとおりである。
 -処理画像の更新の通知
 また、例えば、第2の実施形態でも、上記1つ以上の処理画像が更新される場合に、上記更新操作を行ったユーザに上記1つ以上の処理画像の更新が通知される。この点は、第1の実施形態に係る表示制御部157について説明したとおりである。
 -パラメータ変更のためのオブジェクトの表示
 また、例えば、第2の実施形態でも、表示制御部167は、上記パラメータの変更のためのオブジェクト(即ち、パラメータ変更用オブジェクト)を、表示部130に表示させる。この点は、第1の実施形態に係る表示制御部157について説明したとおりである。
 <4.2.処理の流れ>
 第2の実施形態に係る表示制御処理は、図9を参照して説明した第1の実施形態に係る表示制御処理と同様である。第1の実施形態と第2の実施形態との間の相違点は、図9に示されるステップS303で生成される処理画像が異なるという点である。
 <<5.まとめ>>
 ここまで、図1~図13を用いて、本開示の実施形態に係る表示制御装置100及び表示制御処理を説明した。本開示に係る実施形態によれば、撮像素子を通じて得られる画像データに基づいて生成されるライブビュー画像、及び、上記画像データのうちのいずれかの時点での画像データに基づいてそれぞれの画像処理条件で生成される1つ以上の処理画像が、表示装置に表示される。また、更新操作が認識されたかが判定される。また、上記更新操作が認識されたと判定される場合に、表示される上記1つ以上の処理画像が更新される。
 これにより、ユーザは、必要に応じて更新操作を行えば、ライブビュー画像と同様の被写体が写る処理画像を見ることが可能になる。そのため、ユーザが画像処理後の撮像画像を容易に確認することが可能になる。また、処理画像は、あくまで更新操作が行われた場合に更新されるので、処理画像がライブビュー画像のようなフレームレートで更新されない場合のように、処理画像がコマ落ちしたように表示されることもない。そのため、ユーザが画像処理後の撮像画像をストレスなく確認することが可能になる。即ち、ユーザが撮像時に画像処理後の撮像画像をストレスなく容易に確認することが可能になる。
 また、例えば、上記表示装置は、タッチパネルの表示面であり、上記更新操作は、上記タッチパネルにおける所定のタッチ操作である。
 これにより、ユーザは、画面をみながら容易に操作を行うことができるので、処理画像の更新をより容易に行うことが可能になる。
 また、例えば、上記更新操作は、上記タッチパネルのうちの上記1つ以上の処理画像が表示される位置でのタッチ操作である。
 これにより、ユーザは、より直感的な操作で処理画像の更新を行うことが可能になる。即ち、操作性が高まる。
 また、例えば、上記1つ以上の処理画像が更新される場合に、上記更新操作を行ったユーザに上記1つ以上の処理画像の更新が通知される。
 これにより、ユーザは、処理画像が更新されたことにより確実にユーザに気づくようになる。また、更新操作と処理画像の更新との関連をユーザに理解させることができる。
 また、例えば、上記更新操作が認識されたと判定された場合に、上記ライブビュー画像及び上記1つ以上の処理画像を含む画面であって、上記1つ以上の処理画像の更新を通知する上記画面が、上記表示装置に表示される。
 これにより、画面を見ているユーザは、処理画像が更新されたことにさらに確実に気づくようになる。
 また、例えば、上記画面は、上記1つ以上の処理画像の更新を通知する、上記1つ以上の処理画像についてのアニメーション(即ち、通知アニメーション)を含む。
 上記通知アニメーションは、画面において非常に目立つので、通知アニメーションによれば、画面を見ているユーザは、処理画像が更新されたことに、さらに確実に気づくようになる。
 また、例えば、上記画面は、上記1つ以上の処理画像の更新を通知するオブジェクト(即ち、通知オブジェクト)を含む。
 上記通知オブジェクトは、表示のための処理量が少ないので、通知オブジェクトによれば、画面を見ているユーザに上記更新に気づかせつつ、表示処理における処理量を抑えることができる。
 また、例えば、上記1つ以上の処理画像は、上記ライブビュー画像と比べてより拡大された状態で被写体が写る画像である。
 これにより、ユーザは、画像処理後の撮像画像の詳細を見ることが可能になる。そのため、ユーザは、処理画像により、どのような撮像画像が得られるかをより詳細に確認することができる。
 また、例えば、上記1つ以上の処理画像は、上記ライブビュー画像の一部又は全体に写る被写体がより縮小された状態で写る画像である。
 これにより、ユーザにとってライブビュー画像と処理画像とを見比べ易くなる。そのため、ユーザは、ライブビュー画像と処理画像とを見ることにより、どのような撮像画像が得られるかを容易に想像することができる。
 また、例えば、上記1つ以上の処理画像は、複数の処理画像である。
 これにより、それぞれ別々の画像処理条件で生成される複数の処理画像を見比べることが可能になる。そのため、ユーザは、どの画像処理が望ましいかをより容易に判断することができる。
 また、例えば、上記複数の処理画像は、並べて表示される。
 これにより、ユーザが複数の処理画像をより容易に見比べることが可能になる。即ち、ユーザは、どの画像処理条件がより望ましいかをより容易に判断することができる。
 また、例えば、上記複数の処理画像の各々に写る被写体は、上記複数の処理画像のうちの1つ以上の別の処理画像に写る被写体と少なくとも一部で重複する。
 これにより、ユーザが複数の処理画像をより容易に見比べることが可能になる。即ち、ユーザは、どの画像処理条件がより望ましいかをより容易に判断することができる。
 また、例えば、上記ライブビュー画像及び上記1つ以上の処理画像が上記表示装置に表示されている際に、上記1つ以上の処理画像のうちの少なくとも1つの処理画像の生成のためのパラメータが変更される。また、パラメータ変更操作が認識されたかが判定される。また、上記パラメータ変更操作が認識されたと判定される場合に、上記パラメータが変更される。
 これにより、ユーザが処理画像を実際に見ながらパラメータを調整することが可能になる。そのため、ユーザは、パラメータを調整した場合に画像処理後の撮像画像がどのようになるかを容易に確認することができる。即ち、ユーザにとっての利便性が高まる。
 また、例えば、上記表示装置は、タッチパネルの表示面である。また、上記パラメータの変更のためのオブジェクトが、上記表示装置にさらに表示される。そして、上記パラメータ変更操作は、上記タッチパネルのうちの上記オブジェクトの表示位置でのタッチ操作である。
 これにより、ユーザが画面を見つつ容易な操作でパラメータを調整することが可能になる。
 以上、添付図面を参照しながら本開示の好適な実施形態を説明したが、本開示は係る例に限定されないことは言うまでもない。当業者であれば、請求の範囲に記載された範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。
 例えば、また、更新操作が、1つ以上の処理画像が表示されている位置でのタッチ操作である例を説明したが、本開示は係る例に限定されない。上記更新操作は、1つ以上の処理画像が表示されている位置でのタッチ操作ではなく、別の位置(例えば、1つ以上の処理画像が表示されている位置の近傍の位置、ボタンを示すオブジェクトが表示される位置、等)でのタッチ操作であってもよい。また、上記更新操作は、所定の位置でのタッチ操作ではなく、任意の位置でのタッチ操作(例えば、任意の位置でのダブルタップ、任意の位置でのピンチ、等)であってもよい。また、上記更新操作は、タッチ操作ではなく、別の操作(例えば、キー入力操作、音声入力操作、センサを用いた入力操作、等)であってもよい。
 また、認識されるユーザ操作を操作判定部が監視する例を説明したが、本開示は係る例に限定されない。例えば、更新操作又はパラメータ変更操作が認識された場合に、当該更新操作又は当該パラメータ変更操作が認識されたことを操作認識部が操作判定部に通知してもよい。そして、操作判定部は、当該通知があったことをもって、上記更新操作又は上記パラメータ変更操作が認識されたと判定してもよい。
 また、処理画像の更新が、表示装置に表示される画面により通知される例を説明したが、本開示は係る例に限定されない。例えば、処理画像の更新は、画面による通知の代わりに、又は画面による通知と併せて、別の手段(例えば、音、振動、等)で通知されてもよい。
 また、表示制御装置がスマートフォンである例を説明したが、本開示は係る例に限定されない。例えば、表示制御装置は、スマートフォン以外の、カメラ及び表示装置を有する別の装置(例えば、デジタルカメラ、タブレット端末、等)であってもよい。また、表示制御装置は、カメラ又は表示装置を有しない装置であってもよい。即ち、表示制御装置は、カメラ又は表示装置を有する別の装置と通信する装置(例えば、サーバ等)であってもよい。
 また、本明細書の表示制御処理における処理ステップは、必ずしもフローチャートに記載された順序に沿って時系列に実行されなくてよい。例えば、表示制御処理における処理ステップは、フローチャートとして記載した順序と異なる順序で実行されても、並列的に実行されてもよい。
 また、表示制御装置に内蔵されるCPU、ROM及びRAM等のハードウェアに、上記表示制御装置の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させた記憶媒体も提供される。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 撮像素子を通じて得られる画像データに基づいて生成されるライブビュー画像、及び、前記画像データのうちのいずれかの時点での画像データに基づいてそれぞれの画像処理条件で生成される1つ以上の処理画像を、表示装置に表示させる表示制御部と、
 所定のユーザ操作が認識されたかを判定する判定部と、
を備え、
 前記表示制御部は、前記所定のユーザ操作が認識されたと判定される場合に、表示される前記1つ以上の処理画像を更新する、
表示制御装置。
(2)
 前記表示装置は、タッチパネルの表示面であり、
 前記所定のユーザ操作は、前記タッチパネルにおける所定のタッチ操作である、
前記(1)に記載の表示制御装置。
(3)
 前記所定のユーザ操作は、前記タッチパネルのうちの前記1つ以上の処理画像が表示される位置でのタッチ操作である、前記(2)に記載の表示制御装置。
(4)
 前記1つ以上の処理画像が更新される場合に、前記所定のユーザ操作を行ったユーザに前記1つ以上の処理画像の更新が通知される、前記(1)~(3)のいずれか1項に記載の表示制御装置。
(5)
 前記表示制御部は、前記所定のユーザ操作が認識されたと判定された場合に、前記ライブビュー画像及び前記1つ以上の処理画像を含む画面であって、前記1つ以上の処理画像の更新を通知する前記画面を、前記表示装置に表示させる、前記(1)~(4)のいずれか1項に記載の表示制御装置。
(6)
 前記画面は、前記1つ以上の処理画像の更新を通知する、前記1つ以上の処理画像についてのアニメーションを含む、前記(5)に記載の表示制御装置。
(7)
 前記画面は、前記1つ以上の処理画像の更新を通知するオブジェクトを含む、前記(5)に記載の表示制御装置。
(8)
 前記1つ以上の処理画像は、前記ライブビュー画像と比べてより拡大された状態で被写体が写る画像である、前記(1)~(7)のいずれか1項に記載の表示制御装置。
(9)
 前記1つ以上の処理画像は、前記ライブビュー画像の一部又は全体に写る被写体がより縮小された状態で写る画像である、前記(1)~(7)のいずれか1項に記載の表示制御装置。
(10)
 前記1つ以上の処理画像は、複数の処理画像である、前記(1)~(9)のいずれか1項に記載の表示制御装置。
(11)
 前記複数の処理画像は、並べて表示される、前記(10)に記載の表示制御装置。
(12)
 前記複数の処理画像の各々に写る被写体は、前記複数の処理画像のうちの1つ以上の別の処理画像に写る被写体と少なくとも一部で重複する、前記(10)又は(11)に記載の表示制御装置。
(13)
 前記ライブビュー画像及び前記1つ以上の処理画像が前記表示装置に表示されている際に、前記1つ以上の処理画像のうちの少なくとも1つの処理画像の生成のためのパラメータを変更する変更部
をさらに備え、
 前記判定部は、所定の別のユーザ操作が認識されたかを判定し、
 前記変更部は、前記所定の別のユーザ操作が認識されたと判定される場合に、前記パラメータを変更する、
前記(1)~(12)のいずれか1項に記載表示制御装置。
(14)
 前記表示装置は、タッチパネルの表示面であり、
 前記表示制御部は、前記パラメータの変更のためのオブジェクトを、前記表示装置にさらに表示させ、
 前記所定の別のユーザ操作は、前記タッチパネルのうちの前記オブジェクトの表示位置でのタッチ操作である、
前記(13)に記載の表示制御装置。
(15)
 コンピュータを、
 撮像素子を通じて得られる画像データに基づいて生成されるライブビュー画像、及び、前記画像データのうちのいずれかの時点での画像データに基づいてそれぞれの画像処理条件で生成される1つ以上の処理画像を、表示装置に表示させる表示制御部と、
 所定のユーザ操作が認識されたかを判定する判定部と、
として機能させ、
 前記表示制御部は、前記所定のユーザ操作が認識されたと判定される場合に、表示される前記1つ以上の処理画像を更新する、
プログラム。
(16)
 撮像素子を通じて得られる画像データに基づいて生成されるライブビュー画像、及び、前記画像データのうちのいずれかの時点での画像データに基づいてそれぞれの画像処理条件で生成される1つ以上の処理画像を、表示装置に表示させることと、
 所定のユーザ操作が認識されたかを判定することと、
を含み、
 表示される前記1つ以上の処理画像は、前記所定のユーザ操作が認識されたと判定される場合に更新される、
表示制御方法。
 10       ライブビュー画像
 20       処理画像
 30       指
 40       通知オブジェクト
 100      表示制御装置
 110      撮像部
 120      入力部
 130      表示部
 140      記憶部
 150、160  制御部
 151      撮像制御部
 153      画像処理部
 155      操作認識部
 156      操作判定部
 157、167  表示制御部
 159      パラメータ変更部

Claims (16)

  1.  撮像素子を通じて得られる画像データに基づいて生成されるライブビュー画像、及び、前記画像データのうちのいずれかの時点での画像データに基づいてそれぞれの画像処理条件で生成される1つ以上の処理画像を、表示装置に表示させる表示制御部と、
     所定のユーザ操作が認識されたかを判定する判定部と、
    を備え、
     前記表示制御部は、前記所定のユーザ操作が認識されたと判定される場合に、表示される前記1つ以上の処理画像を更新する、
    表示制御装置。
  2.  前記表示装置は、タッチパネルの表示面であり、
     前記所定のユーザ操作は、前記タッチパネルにおける所定のタッチ操作である、
    請求項1に記載の表示制御装置。
  3.  前記所定のユーザ操作は、前記タッチパネルのうちの前記1つ以上の処理画像が表示される位置でのタッチ操作である、請求項2に記載の表示制御装置。
  4.  前記1つ以上の処理画像が更新される場合に、前記所定のユーザ操作を行ったユーザに前記1つ以上の処理画像の更新が通知される、請求項1に記載の表示制御装置。
  5.  前記表示制御部は、前記所定のユーザ操作が認識されたと判定された場合に、前記ライブビュー画像及び前記1つ以上の処理画像を含む画面であって、前記1つ以上の処理画像の更新を通知する前記画面を、前記表示装置に表示させる、請求項1に記載の表示制御装置。
  6.  前記画面は、前記1つ以上の処理画像の更新を通知する、前記1つ以上の処理画像についてのアニメーションを含む、請求項5に記載の表示制御装置。
  7.  前記画面は、前記1つ以上の処理画像の更新を通知するオブジェクトを含む、請求項5に記載の表示制御装置。
  8.  前記1つ以上の処理画像は、前記ライブビュー画像と比べてより拡大された状態で被写体が写る画像である、請求項1に記載の表示制御装置。
  9.  前記1つ以上の処理画像は、前記ライブビュー画像の一部又は全体に写る被写体がより縮小された状態で写る画像である、請求項1に記載の表示制御装置。
  10.  前記1つ以上の処理画像は、複数の処理画像である、請求項1に記載の表示制御装置。
  11.  前記複数の処理画像は、並べて表示される、請求項10に記載の表示制御装置。
  12.  前記複数の処理画像の各々に写る被写体は、前記複数の処理画像のうちの1つ以上の別の処理画像に写る被写体と少なくとも一部で重複する、請求項10に記載の表示制御装置。
  13.  前記ライブビュー画像及び前記1つ以上の処理画像が前記表示装置に表示されている際に、前記1つ以上の処理画像のうちの少なくとも1つの処理画像の生成のためのパラメータを変更する変更部
    をさらに備え、
     前記判定部は、所定の別のユーザ操作が認識されたかを判定し、
     前記変更部は、前記所定の別のユーザ操作が認識されたと判定される場合に、前記パラメータを変更する、
    請求項1に記載表示制御装置。
  14.  前記表示装置は、タッチパネルの表示面であり、
     前記表示制御部は、前記パラメータの変更のためのオブジェクトを、前記表示装置にさらに表示させ、
     前記所定の別のユーザ操作は、前記タッチパネルのうちの前記オブジェクトの表示位置でのタッチ操作である、
    請求項13に記載の表示制御装置。
  15.  コンピュータを、
     撮像素子を通じて得られる画像データに基づいて生成されるライブビュー画像、及び、前記画像データのうちのいずれかの時点での画像データに基づいてそれぞれの画像処理条件で生成される1つ以上の処理画像を、表示装置に表示させる表示制御部と、
     所定のユーザ操作が認識されたかを判定する判定部と、
    として機能させ、
     前記表示制御部は、前記所定のユーザ操作が認識されたと判定される場合に、表示される前記1つ以上の処理画像を更新する、
    プログラム。
  16.  撮像素子を通じて得られる画像データに基づいて生成されるライブビュー画像、及び、前記画像データのうちのいずれかの時点での画像データに基づいてそれぞれの画像処理条件で生成される1つ以上の処理画像を、表示装置に表示させることと、
     所定のユーザ操作が認識されたかを判定することと、
    を含み、
     表示される前記1つ以上の処理画像は、前記所定のユーザ操作が認識されたと判定される場合に更新される、
    表示制御方法。
PCT/JP2013/080914 2013-01-08 2013-11-15 表示制御装置、プログラム及び表示制御方法 WO2014109129A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP13870589.2A EP2945364B1 (en) 2013-01-08 2013-11-15 Display control device, program, and display control method
JP2014556335A JP6245182B2 (ja) 2013-01-08 2013-11-15 表示制御装置、プログラム及び表示制御方法
US14/758,715 US9894262B2 (en) 2013-01-08 2013-11-15 Display control apparatus to enable a user to check a captured image after image processing
US15/861,766 US10440260B2 (en) 2013-01-08 2018-01-04 Display control apparatus to enable a user to check a captured image after image processing

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013001016 2013-01-08
JP2013-001016 2013-01-08

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US14/758,715 A-371-Of-International US9894262B2 (en) 2013-01-08 2013-11-15 Display control apparatus to enable a user to check a captured image after image processing
US15/861,766 Continuation US10440260B2 (en) 2013-01-08 2018-01-04 Display control apparatus to enable a user to check a captured image after image processing

Publications (1)

Publication Number Publication Date
WO2014109129A1 true WO2014109129A1 (ja) 2014-07-17

Family

ID=51166794

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/080914 WO2014109129A1 (ja) 2013-01-08 2013-11-15 表示制御装置、プログラム及び表示制御方法

Country Status (4)

Country Link
US (2) US9894262B2 (ja)
EP (1) EP2945364B1 (ja)
JP (1) JP6245182B2 (ja)
WO (1) WO2014109129A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6617428B2 (ja) * 2015-03-30 2019-12-11 株式会社ニコン 電子機器
JP7050067B2 (ja) * 2016-12-14 2022-04-07 サムスン エレクトロニクス カンパニー リミテッド ディスプレイ装置及びその制御方法
CN109348137B (zh) * 2018-11-30 2021-11-16 努比亚技术有限公司 移动终端拍照控制方法、装置、移动终端以及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11284884A (ja) * 1998-03-30 1999-10-15 Sanyo Electric Co Ltd デジタルカメラ
JP2005078343A (ja) * 2003-08-29 2005-03-24 Olympus Corp データ書換装置
JP2005110097A (ja) * 2003-10-01 2005-04-21 Sony Corp 撮像装置および撮像方法
JP2005229326A (ja) * 2004-02-13 2005-08-25 Casio Comput Co Ltd カメラ装置及びスルー画像表示方法
JP2007194819A (ja) 2006-01-18 2007-08-02 Casio Comput Co Ltd カメラ装置、及び撮影条件設定方法
JP2012015827A (ja) * 2010-07-01 2012-01-19 Nec Casio Mobile Communications Ltd 端末装置及びプログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030169350A1 (en) * 2002-03-07 2003-09-11 Avi Wiezel Camera assisted method and apparatus for improving composition of photography
US7349020B2 (en) * 2003-10-27 2008-03-25 Hewlett-Packard Development Company, L.P. System and method for displaying an image composition template
KR100724426B1 (ko) * 2005-10-11 2007-06-04 엘지전자 주식회사 영상촬영 장치 및 방법
US9148618B2 (en) * 2009-05-29 2015-09-29 Apple Inc. Systems and methods for previewing newly captured image content and reviewing previously stored image content
JP5457217B2 (ja) * 2010-02-02 2014-04-02 オリンパスイメージング株式会社 カメラ
US8332429B2 (en) * 2010-06-22 2012-12-11 Xerox Corporation Photography assistant and method for assisting a user in photographing landmarks and scenes
US20120198386A1 (en) * 2011-01-31 2012-08-02 Nokia Corporation Causing display of thumbnail images
JP5806512B2 (ja) * 2011-05-31 2015-11-10 オリンパス株式会社 撮像装置、撮像方法および撮像プログラム
JP5880263B2 (ja) * 2012-05-02 2016-03-08 ソニー株式会社 表示制御装置、表示制御方法、プログラムおよび記録媒体
KR101969424B1 (ko) * 2012-11-26 2019-08-13 삼성전자주식회사 촬영된 이미지를 표시하는 촬영 장치 및 그 촬영 방법
US9497384B2 (en) * 2013-11-26 2016-11-15 Kathleen Panek-Rickerson Template photography and methods of using the same

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11284884A (ja) * 1998-03-30 1999-10-15 Sanyo Electric Co Ltd デジタルカメラ
JP2005078343A (ja) * 2003-08-29 2005-03-24 Olympus Corp データ書換装置
JP2005110097A (ja) * 2003-10-01 2005-04-21 Sony Corp 撮像装置および撮像方法
JP2005229326A (ja) * 2004-02-13 2005-08-25 Casio Comput Co Ltd カメラ装置及びスルー画像表示方法
JP2007194819A (ja) 2006-01-18 2007-08-02 Casio Comput Co Ltd カメラ装置、及び撮影条件設定方法
JP2012015827A (ja) * 2010-07-01 2012-01-19 Nec Casio Mobile Communications Ltd 端末装置及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2945364A4

Also Published As

Publication number Publication date
JPWO2014109129A1 (ja) 2017-01-19
US20150358532A1 (en) 2015-12-10
EP2945364B1 (en) 2021-12-29
US20180131867A1 (en) 2018-05-10
US9894262B2 (en) 2018-02-13
JP6245182B2 (ja) 2017-12-13
EP2945364A1 (en) 2015-11-18
EP2945364A4 (en) 2016-07-06
US10440260B2 (en) 2019-10-08

Similar Documents

Publication Publication Date Title
JP6445219B2 (ja) デジタルカメラ及びデジタルカメラの表示方法
US10805522B2 (en) Method of controlling camera of device and device thereof
JP4655135B2 (ja) 撮像装置、撮像領域表示方法および撮像領域表示プログラム
US8582891B2 (en) Method and apparatus for guiding user with suitable composition, and digital photographing apparatus
US20140176776A1 (en) Display control apparatus and display control method
US20080136942A1 (en) Image sensor equipped photographing apparatus and picture photographing method
JP2006303651A (ja) 電子装置
US10440260B2 (en) Display control apparatus to enable a user to check a captured image after image processing
JP2007199311A (ja) 画像表示装置及び撮像装置
JP2006261912A (ja) 撮影装置
JP2006344168A (ja) 画像表示装置及び撮影装置
US9160926B2 (en) Image processing apparatus having display device, control method therefor, and storage medium
JP6742789B2 (ja) 表示制御装置、その制御方法、プログラムおよび記憶媒体
JP2007178735A (ja) 撮像装置、ズーム時の画角表示方法、およびプログラム
KR101812656B1 (ko) 디지털 촬영 장치 및 이의 제어 방법
JP5479190B2 (ja) 撮像装置及び撮像装置の制御方法
JP2009282436A (ja) 液晶表示装置及び液晶表示方法
JP5003803B2 (ja) 画像出力装置、および、プログラム
JP2007123961A (ja) 画像表示装置及びビデオ信号生成方法
JP2011035918A (ja) デジタルズーム機能付きカメラ
JP2011210204A (ja) 差分画像生成装置、プログラム及び差分画像生成方法
JP2019009527A (ja) 画像処理装置およびその制御方法ならびにプログラム
KR20080017977A (ko) 영상 촬영 장치 및 영상 촬영 조건 변경 방법
JPH10224677A (ja) 情報処理装置および記録媒体
JP2006211434A (ja) デジタルズーム機能付きカメラ

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13870589

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014556335

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2013870589

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 14758715

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE