WO2013175784A1 - 電子カメラ、画像表示装置および画像表示プログラム - Google Patents

電子カメラ、画像表示装置および画像表示プログラム Download PDF

Info

Publication number
WO2013175784A1
WO2013175784A1 PCT/JP2013/003253 JP2013003253W WO2013175784A1 WO 2013175784 A1 WO2013175784 A1 WO 2013175784A1 JP 2013003253 W JP2013003253 W JP 2013003253W WO 2013175784 A1 WO2013175784 A1 WO 2013175784A1
Authority
WO
WIPO (PCT)
Prior art keywords
filter
image
electronic camera
display area
area
Prior art date
Application number
PCT/JP2013/003253
Other languages
English (en)
French (fr)
Inventor
嘉明 宮川
成倫 藤尾
Original Assignee
株式会社ニコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ニコン filed Critical 株式会社ニコン
Priority to CN201380026576.9A priority Critical patent/CN104322050B/zh
Priority to US14/402,004 priority patent/US9774778B2/en
Priority to IN10919DEN2014 priority patent/IN2014DN10919A/en
Priority to JP2014516674A priority patent/JP6455147B2/ja
Publication of WO2013175784A1 publication Critical patent/WO2013175784A1/ja
Priority to US15/694,761 priority patent/US10057482B2/en
Priority to US16/038,894 priority patent/US10547778B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure

Definitions

  • an object of the present invention is to divide an image displayed on a monitor screen at the time of image shooting or image editing into an arbitrary plurality of areas and perform different types of filter processing for each area to obtain a filter effect. It is an object to provide an electronic camera, an image display device, and an image display program capable of intuitively and easily performing an operation for comparing the above.
  • An electronic camera includes a display unit having an image display area for displaying an image, an operation unit for movably designating a predetermined area of the image display region, and movably designated by the operation unit. And filtering means for performing a filtering process on the image corresponding to the predetermined area.
  • the image display device further includes image input means for inputting a photographed image or a photographed image in the image display device excluding the photographing function from the electronic camera, and the image input means is provided inside or outside.
  • An interface means for inputting an image stored in a connected storage medium or an interface means for inputting an image via broadcasting or communication, and an image inputted from the interface means is displayed on the display means, and the operation means Filtering is performed by the filter means in accordance with the operation.
  • An image display program performs filtering on an image of input image data in an image display program executed by a computer having a display medium for displaying an image and an operation member for providing a man-machine interface.
  • An electronic camera, an image display device, and an image display program according to the present invention divide an image displayed on a screen at the time of image shooting or image editing into an arbitrary plurality of regions, and perform different types of filter processing for each region.
  • the operation of comparing the filter effects can be performed intuitively and easily.
  • FIG. 1 is a diagram illustrating a configuration example of an electronic camera 100.
  • FIG. It is a figure which shows the example of basic operation of a filter. It is a figure which shows the example of operation which adjusts the strength of a filter effect. It is a figure which shows the example of another filter operation. It is a figure which shows the imaging operation example during filter operation. It is a figure which shows the synthesis
  • an electronic camera including the function of an image display apparatus that operates according to an image display program according to the present invention
  • a personal computer or a mobile phone that performs image display processing by inputting captured images. It may be a terminal program, or a single image display device such as a television or a digital photo frame (electronic photo frame).
  • FIG. 1 is an external view of the electronic camera 100.
  • FIG. 1A is a view of the camera body 101 viewed from the display unit 203.
  • FIG. 1B is a view of the camera body 101 viewed from the lens unit 102.
  • the camera body unit 101 is provided with operation buttons such as a power button 204a and a release button 204b.
  • the display unit 203 includes a touch panel type liquid crystal monitor, and a touch panel 204c is disposed on the screen.
  • an image display area 211 for displaying an image to be filtered and a type of filtering (including OFF) are selected.
  • the filter list display area 212 is displayed on the screen of the display unit 203, and the display can be performed by simply selecting the type of filter using the touch panel 204c and dragging the image on the image in the image display area 211. It is possible to apply a selected type of filter processing to a part or all of the image, and to confirm the filter effect of the image subjected to the filter processing. The operation method will be described in detail later.
  • FIG. 2 is a block diagram illustrating a configuration example of the electronic camera 100.
  • symbol as FIG. 1 shows the same thing.
  • the electronic camera 100 includes a camera body unit 101 and a lens unit 102.
  • the electronic camera 100 may be a lens-integrated camera in which the lens unit 102 and the camera body unit 101 are integrated, or an interchangeable lens camera in which the lens unit 102 can be removed from the camera body unit 101 and replaced.
  • the imaging unit 201 captures a subject image formed by the optical system 301 of the lens unit 102, converts it into image data, and outputs the image data to the camera control unit 202.
  • the camera control unit 202 includes a CPU (Central Processing Unit) that controls the operation of the entire electronic camera 100, and according to a program stored in advance in a memory inside the CPU, the imaging unit 201, the display unit 203, the operation unit 204, and a recording
  • the unit 205, the lens unit 102, and the like are controlled.
  • the power button 204 a of the operation unit 204 is pressed, the electronic camera 100 is activated, and a through image input in real time from the imaging unit 201 is displayed on the display unit 203.
  • the release button 204b is pressed, the image data input from the imaging unit 201 is recorded in the recording unit 205.
  • the camera control unit 202 instructs the lens control unit 302 of the lens unit 102 to control the aperture of the optical system 301 and the position control of the focus lens at the time of shooting.
  • the process executed by the camera control unit 202 will be described in detail later.
  • the display unit 203 is, for example, a liquid crystal monitor. Then, the camera control unit 202 displays menu screens and images such as text and graphics.
  • the image display area 211 is an image such as a through image or a captured image
  • the filter list display area 212 is a type of filter processing (including OFF). Each button for selecting is displayed.
  • the operation unit 204 includes operation members such as a power button 204a, a release button 204b, and a touch panel 204c.
  • buttons such as a cursor button and a determination button may be provided and operated using the cursor button and the determination button instead of the touch panel 204c.
  • the operation unit 204 includes a recording button for shooting a moving image, operation buttons such as a playback button for playing back the shot moving image, a selection dial for switching between a shooting mode and a playback mode, and the like.
  • the lens control unit 302 has a CPU (Central Processing Unit) that controls the operation of the lens unit 102 and operates according to a program stored in advance in a memory inside the CPU. For example, when there is a command to move the position of the focus lens from the camera control unit 202, the focus lens is moved to the commanded position.
  • CPU Central Processing Unit
  • the electronic camera 100 is configured, and can display an image captured by the imaging unit 201 and a captured image stored in the recording unit 205 on the display unit 203. Then, as described with reference to FIG. 1A, a filter process can be performed on the image displayed on the display unit 203.
  • the camera control unit 202 executes an operation processing unit 202a, an imaging processing unit 202b, a display processing unit 202c, a recording processing unit 202d, and a filter processing unit 202e.
  • the operation processing unit 202a inputs operation information from the operation unit 204 and passes it to each process corresponding to the operation information. For example, in the case of the release button 204b, when the operation information indicating that the release button 204b is pressed is input from the operation unit 204, the operation processing unit 202a outputs the operation information to the imaging processing unit 202b. In the case of the touch panel 204c, the operation processing unit 202a inputs a coordinate position where the touch panel 204c is touched with a finger or the like. Then, the information (button indicating the type of filter in the case of FIG. 1A) displayed at the coordinate position on the screen of the display unit 203 is output to the filter processing unit 202e.
  • the recording processing unit 202d performs processing for storing image data of an image captured by the imaging processing unit 202b in a memory card of the recording unit 205 or the like.
  • the filter processing unit 202e performs the specified type of filter processing on the specified region according to the information on the type of filter received from the operation processing unit 202a and the information on the region to be filtered.
  • the electronic camera 100 can perform any operation on an image displayed on the screen of the display unit 203 with a simple operation of the operation unit 204 with respect to the image displayed on the display unit 203. Filter processing.
  • buttons of filter A, filter B, filter C, filter D, and filter OFF are drawn by graphic as filter types. Then, the button of the filter A is touched with the finger 1 and is slid into the image display area 211 by the drag operation 151 as it is and moved to the vicinity of the center of the screen. At this time, the button display indicating the type of filter touched with the finger 1 is pulled out in the dragging direction, and when entering the image display area 211, the boundary line 161 slides in at the position on the screen touched with the finger 1. Displayed in a direction orthogonal to the direction.
  • the boundary line 161 moves in the image display area 211 according to the movement of the finger 1 performing the drag operation, is arranged at a position where the finger 1 is stopped, and is separated from the position where the finger 1 slides into the image display area 211.
  • the selected type of filter processing (filter A (Filter A) processing in the example of FIG. 3) is performed on the area 402 between the lines 161.
  • the region 401 where the finger 1 does not perform the drag operation 151 is not subjected to the processing of the filter A, and is in a state of no filter (no filter).
  • the selection of the filter type and the setting of the area where the selected type of filter processing is performed can be performed with a simple operation.
  • the boundary position 161 is movably set by the drag operation 151 of the finger 1, so that the effect of the presence or absence of the filtering process can be obtained by changing the area to be processed by the filter A freely. You can compare within the screen.
  • the boundary position 161 when the drag operation 151 with the finger 1 is moved back in the direction in which the drag operation 151 is slid in (the right side of the drawing), the boundary position 161 also returns to the right side of the drawing according to the movement of the finger 1, and an unfiltered area 401 Is widened on the right side of the page, and conversely, the region 402 subjected to the processing of the filter A is narrowed.
  • the boundary position 161 returns to the sliding-in direction so that it is pulled back by the spring, and the area 402 subjected to the processing of the filter A disappears and the entire image display area 211 has no filter.
  • the image may be displayed.
  • FIG. 4 is a diagram illustrating a state in which an operation of adjusting the effect of the filter A is performed in a state where the operation of applying the filter A described with reference to FIG. 3 is performed. Note that even when the finger 1 is released, the boundary position 161 is not erased, and the region 402 is maintained in a state where the filter A is applied.
  • the strength of the filter effect can be adjusted.
  • FIG. 4A when the slide operation 152 is performed on the screen of the area 402 with the finger 2 in the upward direction on the paper surface, the effect of the filter A is strengthened, and the finger 2 is moved to the electronic camera as shown in FIG.
  • the slide operation 153 in the downward direction of the sheet the effect of the filter A is weakened.
  • the slide operation is an operation of moving a finger while touching the touch panel 204c.
  • the strength of the filter effect can be adjusted with a simple operation.
  • the filter list display area 212 is a single frame, such as a 35 mm film, and a plurality of different types of frames are continuously connected.
  • the filter layer may be scrolled left and right to perform filter processing according to the position of the frame in the image display area 211 of the display unit 203 so that the filter effect can be compared at the boundary position between adjacent frames.
  • the filter list display area 212 shown in FIG. 1 or the like is not necessary.
  • the filter boundary position 162 By stopping the filter boundary position 162 at an arbitrary position on the screen of the display unit 203, the difference between the boundary position 162 and the OFF is included. Since the image with the filter type is displayed, it is possible to compare two types of filter effects in which the frames of the filter layer are adjacent. The order of the filter types may be arbitrarily set on a menu screen or the like.
  • FIG. 6 is a diagram illustrating a state in which a photographing operation is performed without pressing the release button 204b of the operation unit 204 of the electronic camera 100 in a state where the operation of applying the filter A described in FIG. 3 is performed.
  • FIG. 3 it is assumed that the boundary position 161 is not erased even when the finger 1 is released, and the region 402 is kept in a state where the filter A is applied.
  • FIG. 6A when the flick operation 154 is performed on the area 402 on which the filter A is applied with the finger 3 on the screen of the area 402 at a predetermined acceleration or more in the left direction, a boundary as shown in FIG. An area 402 where the filter A is moved so that the position 161 slides out to the left is spread over the entire image display area 211, and the image is taken in the same manner as when the release button 204b is pressed when the filter A is applied to the entire surface. Processing is performed.
  • the flick operation 154 is performed, but an image may be taken when the drag operation in the left direction is performed at a predetermined acceleration or more.
  • shooting when shooting is performed in the middle of the comparison operation of the filter effect, shooting can be performed without pressing the release button 204b.
  • the release button 204b is difficult to press. Therefore, it is possible to perform the release operation on the touch panel 204c. Shooting becomes possible.
  • the shooting operation is performed when a flick operation or a drag operation is performed at a predetermined acceleration or higher so that there is no malfunction due to other operations. If no special operation is performed, the image may be automatically captured when the filtering process is applied to the entire screen by a normal flick operation or drag operation.
  • an image in a state where a plurality of filter processes are applied may be taken when a flick operation is performed.
  • an image subjected to a plurality of filter processes may be taken.
  • the filter list display area 212 is arranged on the right side of the display unit 203 and slides in from the right side to the left side of the image display area 211.
  • the filter list may be horizontal or vertical.
  • the image display area 211 may be located anywhere on the four sides, and may be located not only on one side but also on two or more sides.
  • a filter list display area 213 that displays buttons of the same filter type as the filter list display area 212 is also arranged on the upper side of the image display area 211.
  • the first filter type (filter A in the figure) is selected in the right filter list display area 212, and the image display area 211 is left dragged.
  • a boundary position 163 is arranged by sliding in in the direction, and a state in which the processing of the filter A is performed on the region 404 between the sliding position and the boundary position 163 is shown (first operation). At this time, the region 403 on the left side of the boundary position 163 is not filtered.
  • the second filter type filter C in the figure
  • the boundary position 164 is arranged by sliding in the direction (second operation).
  • the type of filter C selected in the filter list display area 213 is an image.
  • the processing of the filter C is performed on the region from the upper side slid in the display area 211 to the boundary position 164. Since the second operation is performed after the first operation, the first operation is performed. Two types of filter processing are performed on the overlapping area between the operation and the second operation. For example, as shown in FIG.
  • the filter effect when a plurality of types of filters are combined and the filter effect when the filters are not combined can be compared in a matrix format.
  • the filter list is arranged on the upper side and the right side of the image display area 211, and the filter A is slid into the image display area 211 from the right side and the filter C is slid into the image display area 211.
  • 4 types of filter effects can be compared: filter A only, filter C only, and synthesis of filter A and filter C.
  • an operation target switching button 501 button for switching the operation target and changing the layer up and down
  • the filter A may be switched to a higher layer or the filter C may be switched to a higher layer.
  • filter A is the lower layer and filter C is the upper layer (the one that is inserted later is the upper layer)
  • the filter type in the filter list display area 212 or the filter list display area 213 without providing the operation target switching button 501, the area on which the filter is applied is switched to a higher layer. Good.
  • the boundary position 164 arranged by selecting the type of filter in the upper filter list display area 213 and sliding in the image display area 211 is placed on the entire left and right sides of the image display area 211.
  • the boundary position 165 is disposed only in the region 404, and the filter A and the filter A are disposed in the region 407.
  • the processing of the filter B may be combined.
  • the filter list display area 212 and the filter list display area 213 are arranged on the right side and the upper side of the image display area 211, but as shown in FIG. A filter list display area 212 and a filter list display area 214 may be arranged on the right side and the left side.
  • the filter A is selected from the filter list display area 212 with the finger 1 and the processing of the filter A is performed on the area 410 up to the boundary position 166 slid in the image display area 211, and the filter list display area 214 with the finger 2.
  • Filter B is applied to the area 411 up to the boundary position 167 that is slid into the image display area 211 by selecting the filter B, and the area 412 between the boundary position 166 and the boundary position 167 is in the no filter state. .
  • the filter list display area 212 and the filter list display area 213 are arranged on two sides of the image display area 211 to combine a plurality of types of filter processing in a matrix format.
  • An operation of combining a plurality of types of filter processing may be performed only in the filter list display area 212.
  • FIG. 9A first, the processing of the filter A is performed on the region 407 of the entire image display area 211 (or part of the image display area 211 as shown in FIG. 3), While A is selected and dragged, it is slid into the image display area 211 and a boundary position 168 is arranged (FIG. 9B).
  • the process of the filter A is performed twice, and the effect of the filter A is doubled.
  • the process of the filter A is performed twice.
  • the filter B is selected for the second time as shown in FIG. And the combined result of two types of filters B and B are displayed.
  • the effect of applying the filter A once and the effect of applying the filter A twice are compared side by side by sliding the same filter A so as to overlap. be able to. Further, after applying the filter A over the entire surface, sliding in so as to overlap different filters B, it is possible to compare the effects when the filters A and B are combined with the effects of the filter A side by side.
  • FIG. 10A from the region 409 where the two types of filters A and B are combined, only the effect of the filter B applied after erasing the processing of the filter A applied earlier is removed.
  • An example of an operation for confirming will be described with reference to FIG. First, when the finger 2 is slid in from the lower side of the area 409 and the page 2 is turned while holding the finger 1 on which the operation of arranging the boundary position 168 of the filter B is held, the finger 2 is moved upward. Border positions 169 are displayed on the left and right of the moving area 409. Then, the processing of the filter A in the region 410 from the position where the finger 2 slides into the region 409 to the boundary position 169 is deleted, and only the processing of the filter B is performed. Although the finger 2 slides in from the lower side of the area 409, it may slide in from the upper side.
  • the drag operation is performed so that the filter A and the filter B are flipped upward from the lower end of the region where the filter A and the filter B are combined by another finger while the filter B is slid in. And only that part is the filter B, and the effect of the filter A, the effect of the filter B, and the effect when the filter A and the filter B are combined can be compared on the same screen. Note that when the user slides the filter B up and down while operating the filter B with the finger 1, the strength of the filter B may be adjusted.
  • the same operation may be performed without applying the filter B after the filter A is applied to the entire surface.
  • two images can be displayed and compared on the same screen, that is, an image in which the upper part of the image is subjected to the effect of the filter A and an image in which the lower part of the image has no filter.
  • the effect of the filter A may be applied only to the upper right region of the image, for example.
  • Step S101 The camera control unit 202 acquires an image (through image) captured by the imaging unit 201.
  • the through image is updated by sequentially acquiring new images from the imaging unit 201.
  • Step S102 The camera control unit 202 checks whether or not there is an area to be filtered or an area to which filtering has already been performed, in other words, whether or not there is a portion to which filtering is applied. For example, if the boundary position is set in the image display area 211, the process proceeds to step S103 with the application part present, and if the boundary position is not set in the image display area 211, the process proceeds to step S104 with no application part.
  • Step S103 The camera control unit 202 performs the type of filter processing designated in the filter application portion. For example, in the case of FIG.
  • the camera control unit 202 acquires the operation status of the filter operation from the operation unit 204. For example, operations such as a state in which the filter type in the filter list display area 212 is touched, a state in which the filter is slid in the image display area 211 and a drag operation is performed, presence or absence of a flick operation, acceleration of a flick operation, operation direction of a drag operation, etc. Get the status.
  • Step S106 The camera control unit 202 determines the operation location. Here, it is determined whether the operation is a filter-related operation or the release button 204b of the operation unit 204. If the release button 204b is pressed, the process proceeds to step S107. If a filter-related operation is performed, the process proceeds to step S108. If no operation is performed, the process returns to step S101.
  • the filter-related operation is an operation of touching a button indicating the filter type in the filter list display area 212, an operation of selecting a filter type and dragging it as it is, or a flick during filter processing. For example, an operation or a drag operation.
  • Step S ⁇ b> 1057 The camera control unit 202 performs processing for saving the image captured by the imaging unit 201 in the recording unit 205. At this time, when the filtering process is performed on the through image, the camera control unit 202 applies the filtering process having the same effect as the filtering process performed on the through image in step S102 and step S103 to the captured image. Save to.
  • Step S108 The camera control unit 202 determines whether the operation is a new filter operation (or operation filter switching) or an operation related to the selected filter. If it is a new filter operation, the process proceeds to step S109, and if it is an operation related to the selected filter, the process proceeds to step S110.
  • Step S109 The camera control unit 202 starts a processing mode of a new filter (or a switched filter), and returns to step S101.
  • Step S110 The camera control unit 202 determines the direction of the filter operation. Here, it is determined whether the operation is in the same direction as the direction in which the type of filter is slid into the image display area 211 (drawing direction) or in the direction orthogonal to the drawing direction. If there is, the process proceeds to step S113, and if the operation is in a direction orthogonal to the pull-out direction, the process proceeds to step S111.
  • Step S111 The camera control unit 202 confirms whether or not an operation in a direction orthogonal to the drawing direction is performed on the filtered region 402. For example, in the case of FIG. 4, if the slide operation is performed in the region 402 where the process of the filter A is performed in the direction orthogonal to the extraction direction of the filter A, the process proceeds to step S112 as there being an applicable part and the slide is performed in the orthogonal direction. If the area 401 is not subjected to the filter process even though the operation is performed, the process returns to step S101 because there is no application portion.
  • Step S113 The camera control unit 202 determines the acceleration of a flick operation or a drag operation performed in the same direction as the pull-out direction. If the acceleration is less than a predetermined value, the process proceeds to step S114. If the acceleration is greater than the predetermined value, the process proceeds to step S115.
  • the acceleration can be obtained, for example, as a change in speed of moving the coordinate position of the touch panel 204c.
  • Step S114 The camera control unit 202 changes the boundary position of the area to be filtered according to the drag operation, and returns to step S101.
  • Step S115 The camera control unit 202 performs the filtering process being processed on the entire surface of the image displayed in the image display area 211, and proceeds to step S107.
  • the boundary position may be processed so as to be gradually spread over the entire surface while being moved by an animation operation so as to be filtered.
  • the electronic camera 100 divides the image displayed on the screen of the display unit 203 at the time of image capturing or image editing into an arbitrary plurality of areas, and different types for each area.
  • the operation of comparing the filter effects by performing the filtering process can be performed intuitively and easily.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • User Interface Of Digital Computer (AREA)
  • Television Signal Processing For Recording (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

 本発明では、画像を表示するための画像表示領域を有する表示手段と、画像表示領域の所定領域を可動的に指定するための操作手段と、操作手段により可動的に指定された所定領域に対応する画像に対して、フィルタ処理を施すフィルタ手段と、を有することを特徴とする。 これにより、複雑なフィルタ操作を行うことなく、複数のフィルタ効果を重ねる操作やフィルタ効果の有無や異なるフィルタ効果による画像の比較を容易に行うことができる。

Description

電子カメラ、画像表示装置および画像表示プログラム
 本発明は、電子カメラ、画像表示装置および画像表示プログラムに関する。
 近年の電子カメラでは、デジタル画像処理によって撮影画像に様々なフィルタ処理を施すことができ、容易に好みの画像に仕上げることができるようになってきた。ところが、一般にモニタに表示されている画像全体に対してフィルタ処理が施されてしまうので、フィルタ効果の有無や異なるフィルタ効果による比較を行うことが難しいという問題があった。また、フィルタ効果の強さを調節する場合でも様々な強さの違いによるフィルタ効果を同じ画面で比較することが難しかった。そこで、複数の特殊効果を1画面内にサムネイル表示して、好みのフィルタ効果を選択し易いようにする技術が考えられている(例えば、特許文献1参照)。また、1画面内を複数の領域に分割し、領域毎に異なる量子化ステップで処理して表示する技術も検討されている(例えば、特許文献2参照)。
特開2011-185999号公報 特開2011-015092号公報
 しかしながら、従来は、使用するフィルタの種類をメニューから選択するなど、複雑な操作を行わなければならず、複数のフィルタ効果を重ねる操作、フィルタ効果の有無や異なるフィルタ効果による画像の比較などを容易に行うことができないという問題があった。
 上記課題に鑑み、本発明の目的は、画像撮影時または画像編集時にモニタ画面に表示される画像を任意の複数領域に可動的に分割して領域毎に異なる種類のフィルタ処理を施してフィルタ効果を比較する操作を感覚的に分かり易く行うことができる電子カメラ、画像表示装置および画像表示プログラムを提供することである。
 本発明に係る電子カメラは、画像を表示するための画像表示領域を有する表示手段と、前記画像表示領域の所定領域を可動的に指定するための操作手段と、前記操作手段により可動的に指定された前記所定領域に対応する前記画像に対して、フィルタ処理を施すフィルタ手段と、を有することを特徴とする。
 本発明に係る画像表示装置は、前記電子カメラから撮影機能を除いた画像表示装置において、撮影画像又は撮影済み画像を入力する画像入力手段をさらに有し、前記画像入力手段は、内部または外部に接続される記憶媒体に記憶された画像を入力するインターフェース手段または放送や通信を介して画像を入力するインターフェース手段で構成され、前記インターフェース手段から入力する画像を前記表示手段に表示し、前記操作手段の操作に応じて前記フィルタ手段によりフィルタ処理を施すことを特徴とする。
 本発明に係る画像表示プログラムは、画像を表示する表示媒体と、マンマシンインターフェースを提供する操作部材と、を有するコンピュータで実行される画像表示プログラムにおいて、入力する画像データの画像にフィルタ処理を施すフィルタ処理ステップと、前記画像を表示するための画像表示領域を有する画面を前記表示媒体に表示する表示処理ステップと、前記画像表示領域の所定領域を可動的に指定するための前記操作部材による操作情報を取得する操作処理ステップと、前記操作処理ステップにより可動的に指定された前記所定領域に対応する前記画像に対して、フィルタ処理を施すフィルタ処理ステップとを有し、前記フィルタ処理ステップは、前記操作処理ステップにより可動的に指定された前記所定領域に対応する前記画像に対して、フィルタ処理を施すことを特徴とする。
 本発明に係る電子カメラ、画像表示装置および画像表示プログラムは、画像撮影時または画像編集時に画面に表示される画像を任意の複数の領域に可動的に分割して領域毎に異なる種類のフィルタ処理を施してフィルタ効果を比較する操作を感覚的に分かり易く行うことができる。
本実施形態に係る電子カメラ100の外観を示す図である。 電子カメラ100の構成例を示す図である。 フィルタの基本操作例を示す図である。 フィルタ効果の強弱を調整する操作例を示す図である。 その他のフィルタ操作例を示す図である。 フィルタ操作中の撮影操作例を示す図である。 フィルタの合成操作例を示す図である。 その他のフィルタ操作例を示す図である。 フィルタの合成操作例を示す図である。 合成操作の応用例を示す図である。 フィルタ操作の流れを示すフローチャートである。 フィルタ操作の応用例を示す図である。
 以下、本発明に係る電子カメラ、画像表示装置および画像表示プログラムの実施形態について図面を用いて詳しく説明する。尚、以下の実施形態では、本発明に係る画像表示プログラムにより動作する画像表示装置の機能を含む電子カメラの例として説明するが、撮影済みの画像を入力して画像表示処理を行うパソコンや携帯端末のプログラムであってもよいし、テレビやデジタルフォトフレーム(電子写真立て)などの単体の画像表示装置であってもよい。
 先ず、本実施形態に係る電子カメラ100の概要について説明する。図1は電子カメラ100の外観を示す図で、図1(a)はカメラボディ部101を表示部203側から見た図、図1(b)は、カメラボディ部101をレンズ部102側から見た図である。カメラボディ部101には、電源ボタン204a、レリーズボタン204bなどの操作ボタンが配置されている。また、表示部203はタッチパネル式の液晶モニタで構成され、画面上にタッチパネル204cが配置されている。
 本実施形態に係る電子カメラ100は、撮影時に被写体を確認するためのスルー画像や記憶媒体などに記憶された撮影済の画像に対して、様々なフィルタ処理を施すことが可能であり、またそのフィルタ処理を施した画像のフィルタ効果を簡単に確認できる機能を有している。ここで、フィルタ効果とは、スルー画像や撮影済みの画像などに対して視覚効果が変わる画像処理であって、具体例としては、ソフトフォーカス、カラーフィルタ、クロスフィルタ、彩度調整、明度調整、モノクロ、セピア調、エッジ強調、ノイズ除去などがある。また、各フィルタにおいても強弱などの調整が可能である。尚、フィルタ処理を施す画像は、静止画像であってもよいし、動画像であってもよい。
 そして、本実施形態に係る電子カメラ100では、例えば図1(a)に示したように、フィルタ処理を施す画像を表示する画像表示エリア211と、フィルタ処理の種類(OFFを含む)を選択するためのフィルタリスト表示エリア212と、を表示部203の画面に表示して、タッチパネル204cでフィルタの種類を選択して画像表示エリア211の画像上にドラッグ操作をするだけの簡単な操作で、表示画像の一部または全部に選択した種類のフィルタ処理を施すことが可能であり、またそのフィルタ処理を施した画像のフィルタ効果を確認することができる。尚、操作方法については後で詳しく説明する。
 次に、電子カメラ100の構成および基本動作について説明する。図2は、電子カメラ100の構成例を示すブロック図である。尚、図1と同符号のブロックは同じものを示す。図2において、電子カメラ100は、カメラボディ部101と、レンズ部102と、を有する。ここで、電子カメラ100は、レンズ部102とカメラボディ部101とが一体化されたレンズ一体型カメラでもよいし、レンズ部102をカメラボディ部101から取り外して交換できるレンズ交換式カメラでもよい。
 図2において、電子カメラ100のカメラボディ部101は、撮像部201と、カメラ制御部202と、表示部203と、操作部204と、記録部205と、を有する。また、電子カメラ100のレンズ部102は、光学系301と、レンズ制御部302と、を有する。
 撮像部201は、レンズ部102の光学系301により結像される被写体像を撮像して画像データに変換し、カメラ制御部202に出力する。
 カメラ制御部202は、電子カメラ100全体の動作を制御するCPU(中央演算装置)を有し、CPU内部のメモリに予め記憶されたプログラムに従って、撮像部201、表示部203、操作部204、記録部205、レンズ部102などを制御する。例えば操作部204の電源ボタン204aが押下されると電子カメラ100を起動し、表示部203に撮像部201からリアルタイムで入力するスルー画像を表示する。そして、レリーズボタン204bが押下されると撮像部201から入力する画像データを記録部205に記録する。また、カメラ制御部202は、撮影時に、レンズ部102のレンズ制御部302に光学系301の絞り制御やフォーカスレンズの位置制御を指令する。尚、カメラ制御部202により実行される処理については後で詳しく説明する。
 表示部203は、例えば液晶モニタが用いられる。そして、カメラ制御部202により、テキストやグラフィックなどのメニュー画面や画像が表示される。本実施形態に係る電子カメラ100では、図1(b)で説明したように、画像表示エリア211にスルー画像や撮影画像などの画像、フィルタリスト表示エリア212にフィルタ処理の種類(OFFを含む)を選択するためのボタンをそれぞれ表示する。
 操作部204は、例えば電源ボタン204a、レリーズボタン204b、タッチパネル204cなどの操作部材を有する。また、カーソルボタンや決定ボタンなどのボタンを設けて、タッチパネル204cの代わりにカーソルボタンや決定ボタンを用いて操作するようにしてもよい。さらに、操作部204は、動画像を撮影するための録画ボタン、撮影した動画像を再生するための再生ボタンなどの操作ボタン、撮影モードと再生モードの切り替えなどを行う選択ダイヤルなども備える。
 記録部205は、例えば不揮発性のメモリカードやハードディスクなどが用いられ、撮影された静止画像や動画像の画像データを記録する。この時、記録部205が記録する画像データは、フィルタ処理を施した画像データであってもよいし、フィルタ処理を施さない画像データであってもよい。
 光学系301は、フォーカスレンズ、ズームレンズ、絞りなどを有し、レンズ制御部302により、フォーカスレンズ位置、ズームレンズ位置、絞り値などが制御される。
 レンズ制御部302は、レンズ部102の動作を制御するCPU(中央演算装置)を有し、CPU内部のメモリに予め記憶されたプログラムに従って動作する。例えばカメラ制御部202からフォーカスレンズの位置を移動する指令があった場合は、指令された位置にフォーカスレンズを移動する。
 このように、本実施形態に係る電子カメラ100は構成され、撮像部201により撮影された画像や記録部205に記憶された撮影済の画像を表示部203に表示することができる。そして、図1(a)で説明したように、表示部203に表示された画像に対してフィルタ処理を施すことができる。
 次に、カメラ制御部202の処理内容について説明する。図1の例では、カメラ制御部202は、操作処理部202aと、撮像処理部202bと、表示処理部202cと、記録処理部202dと、フィルタ処理部202eと、を実行する。
 操作処理部202aは、操作部204から操作情報を入力し、その操作情報に対応する各処理に引き渡す。例えばレリーズボタン204bの場合、操作処理部202aは、操作部204からレリーズボタン204bが押下されたという操作情報を入力すると、撮像処理部202bに出力する。また、タッチパネル204cの場合、操作処理部202aは、タッチパネル204cを指などでタッチした座標位置を入力する。そして、表示部203の画面の当該座標位置に表示されている情報(図1(a)の場合はフィルタの種類を示すボタン)をフィルタ処理部202eに出力する。
 撮像処理部202bは、例えば操作処理部202aからレリーズボタン204bが押下されたという操作情報を受け取ると、撮像部201で被写体像を撮像する。また、撮像処理部202bはレンズ制御部302と協働して、レンズ部102の光学系301のフォーカス制御や絞り制御などの処理を行う。
 表示処理部202cは、メニュー画面や画像を表示部203に表示する。例えばフィルタ処理部202eが出力するフィルタの種類を示す情報を表示部203の画面のフィルタリスト表示エリア212に表示し、画像を画像表示エリア211に表示する。
 記録処理部202dは、撮像処理部202bにより撮影された画像の画像データを記録部205のメモリカードなどに保存する処理を行う。
 フィルタ処理部202eは、操作処理部202aから受け取るフィルタの種類の情報と、フィルタ処理を施す領域の情報と、に応じて指定された種類のフィルタ処理を指定された領域に施す。
 このように、本実施形態に係る電子カメラ100は、表示部203に表示された画像に対して操作部204の簡単な操作で表示部203の画面に表示されている画像の任意の領域に対してフィルタ処理を施すことができる。
 [フィルタ処理の基本操作]
 先ず、表示部203に表示されている画像にフィルタ処理を施す基本操作例について説明する。図3は、電子カメラ100の表示部203に表示される画面例を示した図である。尚、図1(a)と同符号の部分は同じものを示す。
 図3において、表示部203のフィルタリスト表示エリア212には、フィルタの種類としてフィルタA,フィルタB,フィルタC,フィルタDおよびフィルタOFFの5つの種類のボタンがグラフィックにより描かれている。そして、指1でフィルタAのボタンにタッチして、そのままドラッグ操作151により画像表示エリア211にスライドインし、画面の中央付近まで移動する。この時、指1でタッチしたフィルタの種類を示すボタン表示がドラッグ操作をする方向に引き出され、画像表示エリア211に入ると指1でタッチしている画面上の位置に境界線161がスライドイン方向と直交する方向に表示される。そして、境界線161は、ドラッグ操作をする指1の動きに応じて画像表示エリア211を移動し、指1を止めた位置に配置され、指1が画像表示エリア211にスライドインした位置から境界線161までの間の領域402に選択された種類のフィルタ処理(図3の例ではフィルタA(Filter A)の処理)を施す。ここで、指1でドラッグ操作151をしていない領域401にはフィルタAの処理が施されず、フィルタなし(Filterなし)の状態になる。
 このようにして、フィルタ種類の選択と、選択した種類のフィルタ処理を施す領域の設定と、を簡単な操作で行うことができる。特にフィルタ処理を施す領域402は、指1のドラッグ操作151により境界位置161が可動的に設定されるのでフィルタAの処理を施す領域を自由に変えながらフィルタ処理の有無の効果を同じ画像の1画面内で比較することができる。
 ここで、指1によるドラッグ操作151をスライドインした方向(紙面右側)にドラッグ操作をしたまま逆戻りした場合は、境界位置161も指1の動きに応じて紙面右側に戻り、フィルタなしの領域401が紙面右側に広くなり、逆にフィルタAの処理を施した領域402は狭くなる。
 尚、指1をタッチパネル204cから離した場合でも、境界位置161がバネにより引き戻されるようにスライドインした方向に戻り、フィルタAの処理を施した領域402が消えて画像表示エリア211全面にフィルタなしの画像が表示されるようにしてもよい。
 或いは、指1をタッチパネル204cから離した場合は、当該位置に境界位置161を配置した状態にしてもよい。この場合は、指1を再び境界位置161の上にタッチしてドラッグ操作を再開することができる。また、フィルタAの領域402上において、指1でスライドインした方向にフリック操作(指で画面にタッチして意図する方向に弾く操作)を行った場合、境界位置161をバネのようにスライドインした方向に戻し、フィルタAの処理を施した領域402を消去するようにしてもよい。或いは、指1でフィルタリスト表示エリア212のOFFボタンをタッチした場合に、フィルタAの処理の効果を消去するようにしてもよい。
 次に、フィルタ効果の強弱を調整する操作例について説明する。図4は、図3で説明したフィルタAを施す操作を行った状態でフィルタAの効果を調整する操作を行う様子を示した図である。尚、指1を離しても境界位置161は消去されず、領域402はフィルタAが施された状態が保持されているものとする。
 図4の例では、図3でフィルタ処理を施す操作を行ったドラッグ操作151の方向(図3の例では左右方向)と直交する方向(図4の例では上下方向)に指2でスライド操作152,153を行うことにより、フィルタ効果の強弱を調整することができる。例えば図4(a)では、領域402の画面上で指2により紙面上方向にスライド操作152を行うと、フィルタAの効果が強くなり、図4(b)のように、指2を電子カメラ100の紙面下方向にスライド操作153を行うことにより、フィルタAの効果が弱くなる。ここで、スライド操作とは、タッチパネル204cに触れた状態で指を動かす操作である。
 このように、本実施形態に係る電子カメラ100では、フィルタ効果の強弱を簡単な操作で調整することができる。
 尚、上記の説明では、フィルタリスト表示エリア212にフィルタの種類を選択するためのボタンを表示してフィルタのOFFを含む二種類のフィルタ効果を比較する例について説明したが、上記のようにフィルタの種類を1つ1つ引き出すような操作方法ではなく、図5に示すように、35mmフィルムのようにフィルタ処理を施す領域を1つのコマとして、複数のコマが連続して繋がった異なる種類のフィルタレイヤーを左右にスクロールして表示部203の画像表示エリア211にあるコマの位置に応じてフィルタ処理を施し、隣接するコマの境界位置でフィルタ効果を比較できるようにしてもよい。この場合は、図1などに示したフィルタリスト表示エリア212は不要であり、表示部203の画面の任意の位置でフィルタの境界位置162を止めることによって、境界位置162の左右にOFFを含む異なるフィルタの種類を施した画像が表示されるので、フィルタレイヤーのコマが隣接する2種類のフィルタ効果を比較することができる。尚、フィルタの種類の順番は、メニュー画面などで任意に設定できるようにしてもよい。
 次に、本実施形態に係る電子カメラ100において、フィルタ処理を行った画像を撮影する操作例について説明する。図6は、図3で説明したフィルタAを施す操作を行った状態で電子カメラ100の操作部204のレリーズボタン204bを押下せずに撮影操作を行う様子を示した図である。尚、図3において、指1を離しても境界位置161は消去されず、領域402はフィルタAが施された状態が保持されているものとする。
 図6(a)において、領域402の画面上で指3によりフィルタAを施した領域402を左方向に予め設定された加速度以上でフリック操作154を行うと、図6(b)のように境界位置161が左側にスライドアウトするように移動してフィルタAを施す領域402が画像表示エリア211全体に広がり、全面にフィルタAが施された時点でレリーズボタン204bが押下された場合と同様に撮影処理が行われる。
 尚、上記の説明では、フリック操作154を行うようにしたが、左方向へのドラッグ操作を予め設定した加速度以上で行った場合に画像を撮影するようにしてもよい。
 このように、本実施形態に係る電子カメラ100では、フィルタ効果の比較操作を行っている途中で撮影する場合に、レリーズボタン204bを押下せずに撮影を行うことができる。特に上記のようなタッチパネル204cでフィルタ操作を行う場合は、レリーズボタン204bが押しづらいので、タッチパネル204c上でのレリーズ操作を可能とすることで、電子カメラ100を持ち直す必要がなくなり、手振れ防止や迅速な撮影が可能になる。
 尚、上記の説明では、他の操作による誤動作がないように、予め設定された加速度以上でフリック操作やドラッグ操作が行われた場合に撮影操作であると判断するようにしたが、他の複雑な操作を行わない場合は、通常のフリック操作やドラッグ操作などでフィルタ処理が全画面に施された時点で自動的に撮影するようにしてもよい。
 また、フィルタ処理を全面に施した時点で撮影を行うのではなく、フリック操作が行われた時点で複数のフィルタ処理が施された状態の画像を撮影するようにしてもよい。或いは、操作部204のレリーズボタン204bが押下された場合だけ、複数のフィルタ処理が施された画像を撮影するようにしてもよい。
 [フィルタ処理の応用操作例]
 上記の実施形態では、フィルタリスト表示エリア212を表示部203の右側に配置して画像表示エリア211の右辺側から左辺側にスライドインするようにしたが、フィルタリストは横方向でも縦方向でもよく、また画像表示エリア211の4辺のどこにあってもよく、1辺だけでなく2辺以上にあってもよい。例えば図7では、フィルタリスト表示エリア212と同じフィルタの種類のボタンを表示するフィルタリスト表示エリア213を画像表示エリア211の上辺側にも配置されている。
 図7(a)は、先に説明したように、右側のフィルタリスト表示エリア212で第1のフィルタの種類(同図ではフィルタA)を選択して画像表示エリア211にドラッグ操作をしたまま左方向にスライドインして境界位置163を配置し、スライドインした位置から境界位置163までの間の領域404にフィルタAの処理を施す様子を示している(第1の操作)。この時、境界位置163より左側の領域403にはフィルタが施されていない。この状態で、図7(b)に示すように、上側のフィルタリスト表示エリア213で第2のフィルタの種類(同図ではフィルタC)を選択して画像表示エリア211にドラッグ操作をしたまま下方向にスライドインして境界位置164を配置する(第2の操作)。
 ここで、もし図7(a)の第1の操作が行われていない状態(全面にフィルタ処理が施されていない状態)であれば、フィルタリスト表示エリア213で選択した種類のフィルタCが画像表示エリア211にスライドインした上辺から境界位置164までの領域にフィルタCの処理が施されるが、第1の操作が行われた後で第2の操作が行われているので、第1の操作と第2の操作で重複する領域は2つの種類のフィルタ処理が施される。例えば図7(b)に示すように、第1の操作によるフィルタAの処理だけが行われた領域404と、第2の操作によるフィルタCの処理だけが行われた領域405と、第1の操作によるフィルタAの処理と第2の操作によるフィルタCの処理との両方の処理が行われた領域406と、いずれのフィルタ処理も施されていない領域403の4つの領域がマトリックス形式で表示される。
 このように、本実施形態に係る電子カメラ100では、複数の種類のフィルタを合成した場合のフィルタ効果と、合成しない場合のフィルタ効果とをマトリックス形式で比較することができる。例えば図7(b)では、画像表示エリア211の上側および右側の2辺にフィルタリストを配置し、右側からフィルタA、上側からフィルタCをそれぞれ画像表示エリア211にスライドインさせることで、フィルタなし、フィルタAのみ、フィルタCのみ、フィルタAとフィルタCの合成、の4種類のフィルタ効果を比較することができる。
 尚、図6で説明したように、図7(b)において、フィルタAが途中状態でも、フィルタCの操作にてある加速度以上のフリック操作が実施された場合は、フィルタCが全面適用された時点で自動的に撮影されるようにしてもよい。
 また、図7(c)に示したように、操作対象切替ボタン501(操作対象の切り替えやレイヤーの上下入れ替えを行うためのボタン)を設けて、フィルタAとフィルタCとが重なっている領域406でフィルタ操作(強弱の調整や撮影操作など)を行う場合に、フィルタAを上位のレイヤーにするか、フィルタCを上位のレイヤーにするかを切り替えるようにしてもよい。これにより、フィルタAが下レイヤー、フィルタCが上レイヤー(後から入れた方が上)とした場合、フィルタAの上にフィルタCが重なっている部分は、フィルタAを操作できないという問題がなくなる。或いは、操作対象切替ボタン501を設けずに、フィルタリスト表示エリア212またはフィルタリスト表示エリア213のフィルタの種類をタッチすることにより、当該フィルタが施された領域を上位のレイヤーに切り替えるようにしてもよい。
 さらに、図7(b)の例では、上側のフィルタリスト表示エリア213でフィルタの種類を選択して画像表示エリア211にスライドインして配置される境界位置164を画像表示エリア211の左右全体に配置するようにしたが、図8(a)に示すように、フィルタAが施された領域404上にスライドインした場合は領域404だけに境界位置165を配置して、領域407にフィルタAとフィルタBの処理を合成して施すようにしてもよい。
 また、図7の例では、画像表示エリア211の右辺と上辺とにフィルタリスト表示エリア212とフィルタリスト表示エリア213とを配置したが、図8(b)に示すように、画像表示エリア211の右辺と左辺とにフィルタリスト表示エリア212とフィルタリスト表示エリア214とを配置してもよい。この場合は、指1でフィルタリスト表示エリア212からフィルタAを選択して画像表示エリア211にスライドインした境界位置166までの領域410にフィルタAの処理を施し、指2でフィルタリスト表示エリア214からフィルタBを選択して画像表示エリア211にスライドインした境界位置167までの領域411にフィルタBの処理を施し、境界位置166と境界位置167との間の領域412はフィルタ無しの状態になる。
 尚、図8(b)において、指1により設定される境界位置166と指2により設定される境界位置167とが交差する場合は、図8(c)に示すように、境界位置166と境界位置167とで囲まれる領域414はフィルタAとフィルタBの両方の処理が施されて合成される。
 ここで、図7の例では、画像表示エリア211の二辺にフィルタリスト表示エリア212とフィルタリスト表示エリア213とを配置して、マトリックス形式で複数の種類のフィルタ処理を合成したが、右側のフィルタリスト表示エリア212だけで複数の種類のフィルタ処理を合成する操作を行ってもよい。例えば図9(a)に示したように、先ず、画像表示エリア211全体(図3のように一部でもよい)の領域407にフィルタAの処理を施し、再び、フィルタリスト表示エリア212からフィルタAを選択してドラッグ操作をしたまま画像表示エリア211にスライドインして境界位置168を配置する(図9(b))。この場合、スライドインした位置から境界位置168までの領域408は、フィルタAの処理が2回行われ、フィルタAの効果が倍増する。尚、図9(b)の例では、フィルタAの処理を2回行うようにしたが、図10(a)に示すように、2回目にフィルタBを選択すれば、領域409にはフィルタAとフィルタBの2種類のフィルタの合成結果が表示される。
 このように、フィルタAを全面適用後、同じフィルタAを重ねるようにスライドインすることで、フィルタAを1回施した時の効果とフィルタAを2回施した時の効果とを並べて比較することができる。また、フィルタAを全面適用後、異なるフィルタBを重ねるようにスライドインすることで、フィルタAとフィルタBとを合成した時の効果とフィルタAの効果とを並べて比較することができる。
 ここで、図10(a)において、フィルタAとフィルタBの2種類のフィルタが合成された領域409から、先に施したフィルタAの処理を消去して後で施したフィルタBの効果だけを確認したい場合の操作例について図10(b)を用いて説明する。先ず、フィルタBの境界位置168を配置する操作を行った指1を保持したまま指2で領域409の下辺側からスライドインしてページをめくるように上方向にドラッグ操作をすると、指2が移動する領域409の左右に境界位置169が表示される。そして、指2で領域409にスライドインした位置から境界位置169までの領域410のフィルタAの処理が消去されてフィルタBの処理だけが施された状態になる。尚、指2で領域409の下側からスライドインするようにしたが、上側からスライドインするようにしてもよい。
 このように、フィルタAを全面適用後、フィルタBをスライドインしたままで、他の指によりフィルタAとフィルタBとが合成処理された領域の下端から上方向にめくり上げるようにドラッグ操作を行うと、その部分だけフィルタBのみとなり、フィルタAの効果と、フィルタBの効果と、フィルタAとフィルタBを合成した時の効果との3つを同一画面で比較することができる。尚、指1でフィルタBを操作したまま上下方向にスライドさせる操作を行った場合は、フィルタBの強弱を調整するようにしてもよい。
 尚、フィルタAを全面適用後にフィルタBを重ねる例について説明したが、フィルタAを全面に適用後に、フィルタBを重ねずに、同操作を行うようにしてもよい。それにより、画像の上部をフィルタAの効果の施した画像と、画像の下部をフィルタなしとした画像との2つの画像を同一画面に表示して、比較することができる。また、フィルタAを全面に適用する前に同操作を行うことで、たとえば画像の右上の領域のみにフィルタAの効果を施すようにしてもよい。
 [フィルタ操作のフローチャート]
 次に、上記で説明したフィルタ操作のフローチャートについて図11を用いて説明する。尚、図11のフローチャートが行う処理は、カメラ制御部202に予め記憶されたプログラムにより実行される。尚、初期状態ではフィルタ処理なしの状態にあるものとし、境界位置などは設定されていないものとする。また、フィルタ処理のモードが起動され、表示部203の画面には、例えば図3で説明したように、画像表示エリア211と、フィルタリスト表示エリア212とが表示されている。
 (ステップS101)カメラ制御部202は、撮像部201で撮影した画像(スルー画像)を取得する。スルー画像は、逐次新たな画像を撮像部201から取得して更新される。
 (ステップS102)カメラ制御部202は、フィルタ処理を施す領域または既に施した領域があるか否か、換言するとフィルタ処理を適用した部分があるか否かを確認する。例えば境界位置が画像表示エリア211内に設定されている場合は適用部分有りとしてステップS103に進み、境界位置が画像表示エリア211内に設定されていない場合は適用部分無しとしてステップS104に進む。
 (ステップS103)カメラ制御部202は、フィルタ適用部分に指定された種類のフィルタ処理を施す。例えば図3の場合は、領域402にフィルタAの処理を施す。
 (ステップS104)カメラ制御部202は、表示部203の画像表示エリア211に画像を表示する。尚、フィルタ操作が行われていない場合は、撮像部201で撮像されるスルー画像をそのまま表示し、フィルタ操作が行われている場合は、フィルタ処理された画像が表示される。
 (ステップS105)カメラ制御部202は、フィルタ操作の操作状況を操作部204から取得する。例えばフィルタリスト表示エリア212のフィルタの種類がタッチされた状態、画像表示エリア211にスライドインされてドラッグ操作されている状態、フリック操作の有無やフリック操作の加速度、ドラッグ操作の操作方向などの操作状況を取得する。
 (ステップS106)カメラ制御部202は、操作箇所を判別する。ここでは、フィルタ関連の操作であるか、操作部204のレリーズボタン204bの操作であるかの判別を行う。そして、レリーズボタン204bが押下された場合はステップS107に進み、フィルタ関連の操作が行われた場合はステップS108に進み、いずれの操作も行われていない場合はステップS101に戻る。尚、フィルタ関連の操作とは、例えば図3の場合、フィルタリスト表示エリア212のフィルタの種類を示すボタンにタッチする操作、フィルタの種類を選択してそのままドラッグ操作する操作、フィルタ処理中のフリック操作やドラッグ操作などである。
 (ステップS107)カメラ制御部202は、撮像部201で撮影した画像を記録部205に保存する処理を行う。この時、カメラ制御部202は、スルー画像に対してフィルタ処理を施した場合、ステップS102およびステップS103でスルー画像に施したフィルタ処理と同じ効果のフィルタ処理を撮影した画像に施して記録部205に保存する。
 (ステップS108)カメラ制御部202は、新規のフィルタ操作(または操作フィルタの切り替え)であるか、選択中のフィルタに関する操作であるかを判別する。そして、新規のフィルタ操作である場合はステップS109に進み、選択中のフィルタに関する操作である場合はステップS110に進む。
 (ステップS109)カメラ制御部202は、新規のフィルタ(または切り替えられたフィルタ)の処理モードを開始し、ステップS101に戻る。
 (ステップS110)カメラ制御部202は、フィルタ操作の方向を判別する。ここでは、フィルタの種類を選択して画像表示エリア211にスライドインする方向(引出方向)と同じ方向であるか、引出方向と直交する方向の操作であるかを判別し、引出方向の操作である場合はステップS113に進み、引出方向に直交する方向の操作である場合はステップS111に進む。
 (ステップS111)カメラ制御部202は、引出方向に直交する方向の操作がフィルタ処理を施された領域402上で行われているか否かを確認する。例えば図4の場合、フィルタAの引出方向と直交する方向にフィルタAの処理が施されている領域402でスライド操作が行われている場合は適用部分有りとしてステップS112に進み、直交方向にスライド操作が行われていてもフィルタ処理が施されていない領域401である場合は適用部分無しとしてステップS101に戻る。
 (ステップS112)カメラ制御部202は、引出方向と直交する方向の操作に応じてフィルタの強弱を調整する。例えば図4(a)の場合はフィルタAの効果を強くし、図4(b)の場合はフィルタAの効果を弱くする。
 (ステップS113)カメラ制御部202は、引出方向と同じ方向に行われるフリック操作やドラッグ操作の加速度を判別する。そして、加速度が予め設定された規定値未満の場合はステップS114に進み、規定値以上の場合はステップS115に進む。尚、加速度は、例えばタッチパネル204cの座標位置を移動する速度の変化として求めることができる。
 (ステップS114)カメラ制御部202は、ドラッグ操作に従ってフィルタ処理を行う領域の境界位置の変更を行い、ステップS101に戻る。
 (ステップS115)カメラ制御部202は、処理中のフィルタ処理を画像表示エリア211に表示されている画像全面に施して、ステップS107に進む。この時、境界位置をアニメーション動作で移動しながら徐々に全面に広がってフィルタ処理が施されるように処理してもよい。
 動画像を撮影する場合は、ステップS107の撮影・記録のステップを、動画像の撮影が終了したか否か、または動画像の撮影がまだ開始されていないかを判定するステップに変更する。動画像の撮影が終了した場合は、動画像に対してフィルタ処理を施して、本フローを終了する。動画像の撮影が継続される場合、または動画像の撮影が開始されていない場合は、ステップS101に戻る。
 静止画を撮影する場合は、ステップS106にてレリーズボタン204bが押下された場合にステップS107に進んだが、動画像を撮影する場合は、ステップS106にて録画ボタンが押下された場合にステップS107に進む。録画ボタンが押下されると動画像の撮影が開始する。動画像の撮影中に再度録画ボタンが押下されると、動画像の撮影を終了する。
 画像編集時においても、同様の操作を可能とする。画像編集時には、選択ダイヤルの操作によって再生モードが設定され、記録部205から静止画像または動画像を読み出すことで、ステップS101の画像取得とする。
 ステップS106にてレリーズボタン204bが押下された場合にステップS107に進んだが、静止画像に対して画像編集をする場合には、決定ボタンが押下された場合にステップS107に進む。ステップS107にて静止画像に対してフィルタ処理を施し、記録部205に保存する。保存する画像は、フィルタ処理を施した静止画像のみを保存するようにしてもよいし、フィルタ処理を施した静止画像とフィルタ処理を施す前の元の静止画像(元画像)との2つの静止画像を保存するようにしてもよい。
 動画像の画像編集時には、ステップS106にてレリーズボタン204bが押下された場合にステップS107に進んだが、動画像に対して画像編集する場合には、再生ボタンが押下された場合にステップS107に進む。再生ボタンが押下されると動画像が再生される。ステップS107にて、動画像の再生が終了したか否かを判定する。動画像の再生の終了は、動画像の再生中に再生ボタンが再度押下されたか、動画像を終りまで再生したかのいずれかで判定する。動画像の再生が終了した場合は、本フローを終了し、動画像の再生が終了していない場合は、ステップS101に戻り、動画像の再生中にフィルタ処理を施すことができる。
 このようにして、本実施形態に係る電子カメラ100は、画像撮影時または画像編集時に表示部203の画面に表示される画像を任意の複数の領域に可動的に分割し、領域毎に異なる種類のフィルタ処理を施してフィルタ効果を比較する操作を感覚的に分かり易く行うことができる。
 [被写体認識技術の適用例]
 上記の各実施形態では、ユーザーの操作により、境界位置を表示部203の画面の各辺に平行な直線で配置するようにしたが、顔認識技術などで被写体を認識し、被写体の特徴となる部分(顔部分、身体全体など)にフィルタ境界位置を自動配置する。例えば認識した顔の中心位置の周辺に円形状に境界位置を自動的に配置して、円形領域内にぼかし処理などを施すことができる。或いは、逆に境界領域外のみにフィルタ処理(例えば色彩強調処理)を適用することにより、例えば顔の色調を変えずに服の色彩を鮮やかにするなどのフィルタ効果を施すことができる。
 被写体認識技術を利用した具体的な操作例として、フィルタリスト表示エリア212からフィルタの種類を指でフリックするだけで、リスト位置から被写体認識位置の中央まで円形などの境界位置を自動的に移動して停止し、境界内の画像領域(例えば顔部分)に選択された種類のフィルタ処理を施す。さらに、認識位置(顔部分)を予め設定された大きさになるまで自動的に拡大して、比較し易くしてもよい。
 このように、本実施形態に係る電子カメラ100は、周知の被写体認識技術と組み合わせて簡単な操作でフィルタ効果を確認することができる。
 [境界位置の応用例]
 先に説明した各実施形態において、配置する境界線の方向は矩形状のモニタ画面に対して、左右方向(水平方向)または上下方向(垂直方向)のいずれかに設定する例について説明したが、フィルタ境界は回転可能としてもよい。例えば図12(a)に示すように、二本の指(指1、指2)を回転したい境界線170上に置いて感覚的に時計回りに回転させる操作を行うことによって、図12(b)に示すように、境界線170を任意の位置まで回転できるようにしてもよい。或いは、図12(c)に示すように、画像は固定したまま画面上のフィルタ領域全体をそのまま回転させてもよい。このようにして、複数の斜め方向に配置した境界線で形成される領域毎に異なる種類のフィルタ処理を施して、ステンドグラス風の写真を作れるようにしてもよい。
 尚、本実施形態では、境界線を直線とした例について説明したが、境界線を曲線や自由曲線としてもよい。この場合の具体的な操作例として、タッチパネル上を指で操作し、曲線や自由曲線の境界線を決定する。そして、フィルタリスト表示エリア212からフィルタの種類を指でフリック操作をするだけで、リスト位置から境界位置を境界線まで自動的に移動して停止し、選択された種類のフィルタ処理を施す。さらに、フィルタ効果を施した画像表示エリア211に対して、フィルタ効果が徐々に強くなったり、弱くなったりするような効果が段階的に変化するようにしてもよい。
 [操作インターフェースの応用例]
 尚、本実施形態では、操作部204の操作インターフェースとしてタッチパネルを用いる例について説明したが、マウスやジョイスティックなどのコントローラや上下左右のカーソルボタンなどによって操作できるようにしてもよい。この場合は、指の代わりにカーソル(矢印)を画面に表示し、カーソルボタンでカーソルをフィルタリスト表示エリア212の選択したいフィルタの種類ボタン上に移動してマウスの左クリックでフィルタの種類を選択し、そのままカーソルをドラッグ操作して、先の実施形態で説明したように、フィルタ処理を施したい領域の境界位置を設定することができる。
 尚、本実施形態では、表示部203に画像表示エリア211とフィルタ表示エリア212をそれぞれ表示する例として説明したが、画像表示エリア211のみを表示するようにしてもよい。この場合、メニュー画面よりフィルタの種類を予め選択し、表示部203の画像表示エリア211においてフィルタ効果を施したい辺からドラッグ操作を行うようにし、境界位置を設定するようにしてもよい。または、境界位置を予め設定し、その後、メニュー画面よりフィルタの種類を選択するようにしてもよい。
 [電子カメラ100以外の適用例]
 先に説明した各実施形態では、電子カメラ100で撮影時に表示部203に表示されるスルー画像にフィルタ処理を施してフィルタ効果を確認できるようにしたが、記録部205のメモリカードなどに記憶された撮影済の画像を再生時の編集操作として、表示部203に表示される再生画像にフィルタ処理を施してフィルタ効果を確認できるようにしてもよい。
 また、電子カメラ100ではなく、メモリやハードディスクなどの記録媒体に記憶された画像をタッチパネルの操作インターフェースを有するモニタに表示するデジタルフォトフレームなどの専用の画像表示装置であってもよいし、テレビであってもよい。
 或いは、タッチパネルやマウスなどの操作インターフェースを有するパソコンに先に説明した画面操作処理やフィルタ処理などを行うアプリケーションソフトウェアをインストールして、メモリやハードディスクなどの記録媒体に記憶された画像やインターネットなどからダウンロードする画像などに対してフィルタ効果の比較をできるようにしてもよい。
 以上、本実施形態に係る電子カメラ100のフィルタ操作について様々な例を挙げて説明したように、フィルタ操作自体を感覚的に簡単に行うことができ、表示部203に表示された画像上の任意の位置で比較することができる。
 また、同じ種類のフィルタ処理を含む複数のフィルタ処理を重ねて行った場合のフィルタ効果を簡単な操作で確認することができる。
 さらに、フィルタ操作後やフィルタ操作中に、電子カメラ100を持ち直さずに簡単に撮影操作を行うことができる。この時、フィルタ処理を全面に施した時点で撮影を行ってもよいし、部分的に異なるフィルタ処理を施した状態のまま撮影を行うようにしてもよい。
 このように、本発明に係る電子カメラ、画像表示装置および画像表示プログラムは、画像撮影時または画像編集時に画面に表示される画像を任意の複数の領域に可動的に分割して領域毎に異なる種類のフィルタ処理を施してフィルタ効果を比較する操作を感覚的に分かり易く行うことができる。
 以上、本発明に係る電子カメラ、画像表示装置および画像表示プログラムについて、各実施形態で例を挙げて説明してきたが、その精神またはその主要な特徴から逸脱することなく他の多様な形で実施することができる。そのため、上述した実施形態はあらゆる点で単なる例示に過ぎず、限定的に解釈してはならない。本発明は、特許請求の範囲によって示されるものであって、本発明は明細書本文にはなんら拘束されない。さらに、特許請求の範囲の均等範囲に属する変形や変更は、全て本発明の範囲内である。

Claims (17)

  1.  画像を表示するための画像表示領域を有する表示手段と、
     前記画像表示領域の所定領域を可動的に指定するための操作手段と、
     前記操作手段により可動的に指定された前記所定領域に対応する前記画像に対して、フィルタ処理を施すフィルタ手段と、
     を有することを特徴とする電子カメラ。
  2.  請求項1に記載の電子カメラにおいて、
     前記表示手段は、少なくとも1つの種類の前記フィルタ処理のリストを表示するフィルタリスト表示領域をさらに有する
     ことを特徴とする電子カメラ。
  3.  請求項1または2に記載の電子カメラにおいて、
     前記操作手段は、前記表示手段の画面上に配置されたタッチパネルで構成され、前記タッチパネルを操作して前記所定領域を指定し、
     前記フィルタ手段は、前記タッチパネルの操作により指定された前記所定領域に対応する前記画像に対してフィルタ処理を施す
     ことを特徴とする電子カメラ。
  4.  請求項3に記載の電子カメラにおいて、
     前記操作手段は、前記フィルタリスト表示領域から前記フィルタ処理の種類を選択した状態で前記画像表示領域にスライドインして境界位置を設定し、前記所定領域を指定する
     ことを特徴とする電子カメラ。
  5.  請求項2から4のいずれか一項に記載の電子カメラにおいて、
     前記フィルタリスト表示領域は、前記フィルタ処理の消去が選択可能であり、
     前記操作手段により、前記フィルタリスト表示領域から前記フィルタ処理の消去が選択された場合、前記所定領域を指定する操作が行われた方向とは異なる方向に操作された場合、の少なくとも一方に該当するとき、前記フィルタ手段は、前記フィルタ処理を施した前記所定領域に対応する前記画像のフィルタ効果を解除する
     ことを特徴とする電子カメラ。
  6.  請求項4に記載の電子カメラにおいて、
     前記タッチパネルの操作による前記境界位置の設定中に、前記タッチパネルの操作による前記境界位置の設定が解除された場合は、前記境界位置を前記境界位置を指定する操作が行われた方向とは異なる方向に変更し、
     前記フィルタ手段は、前記境界位置が変更される方向に前記フィルタ処理を施した領域のフィルタ効果を解除する
     ことを特徴とする電子カメラ。
  7.  請求項1から6のいずれか一項に記載の電子カメラにおいて、
     前記操作手段により、フィルタ処理が施された前記所定領域に対応する前記画像において、前記所定領域を指定するために操作が行われた方向に対して直交方向に操作が行われた場合、
     前記フィルタ手段は、前記直交方向に対して第1の方向に前記操作手段による操作が行われた場合は前記所定領域に対応する前記画像に施されたフィルタ効果を強め、前記直交方向に対して第2の方向に前記操作手段による操作が行われた場合は前記所定領域に対応する前記画像に施されたフィルタ効果を弱めるように前記フィルタ処理を施す
     ことを特徴とする電子カメラ。
  8.  請求項2から7のいずれか一項に記載の電子カメラにおいて、
     前記画像表示領域の少なくとも第1の辺と第2の辺にそれぞれ前記フィルタリスト表示領域を配置して、前記フィルタリスト表示領域に少なくとも1つの種類の前記フィルタ処理のリストを表示し、
     前記操作手段により、前記第1の辺に表示されたフィルタの種類を操作して前記画像表示領域上に可動的に第1の所定領域を指定し、前記第2の辺に表示されたフィルタの種類を操作して前記画像表示領域上に可動的に第2の所定領域を指定し、
     前記フィルタ手段は、前記第1の所定領域に対応する前記画像に対して第1のフィルタ処理を施し、前記第2の所定領域に対応する前記画像に対して第2のフィルタ処理を施し、前記第1の所定領域と前記第2の所定領域とが重なる領域に対応する前記画像に対して前記第1のフィルタ処理と前記第2のフィルタ処理とを施す
     ことを特徴とする電子カメラ。
  9.  請求項2から8のいずれか一項に記載の電子カメラにおいて、
     前記フィルタ手段は、前記操作手段による前記所定領域を指定する操作が繰り返し行われた場合、前記所定領域に対して前記操作が繰り返し行われる毎に選択された種類のフィルタ処理を重ねて施す
     ことを特徴とする電子カメラ。
  10.  請求項8に記載の電子カメラにおいて、
     前記フィルタ手段は、前記操作手段により前記画像に対してフィルタ処理が施された前記所定領域とフィルタ処理が施されていない領域との境界線である第1の境界線と前記第1の境界線に対して直交する第2の境界線が設定されると、前記第2の境界線の設定開始位置から前記第2の境界線までの前記所定領域内の領域に対してフィルタ処理を解除する
     ことを特徴とする電子カメラ。
  11.  請求項1から10のいずれか一項に記載の電子カメラにおいて、
     前記画像は、撮影画像又は撮影済画像である
     ことを特徴とする電子カメラ。
  12.  画像を表示するための画像表示領域を有する表示手段と、
     前記表示手段に表示された前記画像に対して、フィルタ処理を施すフィルタ手段と、
     複数の種類のフィルタ処理を施すフィルタ領域が連結されたフィルタレイヤーを前記画像表示領域上で移動する操作を行う操作手段と
     で構成され、
     前記フィルタ手段は、前記画像表示領域上で前記操作手段により操作される前記フィルタ領域に対応するフィルタ処理を前記フィルタ領域内の画像に施す
     ことを特徴とする電子カメラ。
  13.  請求項1から12のいずれか一項に記載の電子カメラにおいて、
     撮像処理を行う撮像手段をさらに有し、
     前記撮像手段は、前記フィルタ処理が前記画像表示領域の全画面に施された後、撮像処理を行う
     ことを特徴とする電子カメラ。
  14.  請求項3または4に記載の電子カメラにおいて、
     撮像処理を行う撮像手段をさらに有し、
     前記撮像手段は、予め設定した加速度以上で前記タッチパネルのフリック操作またはドラッグ操作が行われた場合に、前記操作が行われた領域のフィルタ処理が全画面に施された後、撮像処理を行う
     ことを特徴とする電子カメラ。
  15.  請求項13に記載の電子カメラにおいて、
     前記撮像手段は、前記フィルタ手段による前記フィルタ処理が前記画像表示領域の全画面に施された場合でも、前記画像表示領域内の複数の領域に異なるフィルタ処理が施されている場合は、撮像処理を禁止する
     ことを特徴とする電子カメラ。
  16.  請求項1から12のいずれか一項に記載の電子カメラから撮影機能を除いた画像表示装置において、
     撮影画像又は撮影済み画像を入力する画像入力手段をさらに有し、
     前記画像入力手段は、内部または外部に接続される記憶媒体に記憶された画像を入力するインターフェース手段または放送や通信を介して画像を入力するインターフェース手段で構成され、
     前記インターフェース手段から入力する画像を前記表示手段に表示し、前記操作手段の操作に応じて前記フィルタ手段によりフィルタ処理を施す
     ことを特徴とする画像表示装置。
  17.  画像を表示する表示媒体と、マンマシンインターフェースを提供する操作部材と、を有するコンピュータで実行される画像表示プログラムにおいて、
     入力する画像データの画像にフィルタ処理を施すフィルタ処理ステップと、
     前記画像を表示するための画像表示領域を有する画面を前記表示媒体に表示する表示処理ステップと、
     前記画像表示領域の所定領域を可動的に指定するための前記操作部材による操作情報を取得する操作処理ステップとを有し、
     前記フィルタ処理ステップは、前記操作処理ステップにより可動的に指定された前記所定領域に対応する前記画像に対して、フィルタ処理を施す
     ことを特徴とするコンピュータで実行可能な画像表示プログラム。
PCT/JP2013/003253 2012-05-22 2013-05-22 電子カメラ、画像表示装置および画像表示プログラム WO2013175784A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
CN201380026576.9A CN104322050B (zh) 2012-05-22 2013-05-22 电子相机、图像显示装置和记录介质
US14/402,004 US9774778B2 (en) 2012-05-22 2013-05-22 Electronic camera, image display device, and storage medium storing image display program, including filter processing
IN10919DEN2014 IN2014DN10919A (ja) 2012-05-22 2013-05-22
JP2014516674A JP6455147B2 (ja) 2012-05-22 2013-05-22 電子カメラ、画像表示装置および画像表示プログラム
US15/694,761 US10057482B2 (en) 2012-05-22 2017-09-01 Electronic camera, image display device, and storage medium storing image display program
US16/038,894 US10547778B2 (en) 2012-05-22 2018-07-18 Image display device for displaying an image in an image display area, and storage medium storing image display program for displaying an image in an image display area

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012116258 2012-05-22
JP2012-116258 2012-05-22

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US14/402,004 A-371-Of-International US9774778B2 (en) 2012-05-22 2013-05-22 Electronic camera, image display device, and storage medium storing image display program, including filter processing
US15/694,761 Continuation US10057482B2 (en) 2012-05-22 2017-09-01 Electronic camera, image display device, and storage medium storing image display program

Publications (1)

Publication Number Publication Date
WO2013175784A1 true WO2013175784A1 (ja) 2013-11-28

Family

ID=49623494

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/003253 WO2013175784A1 (ja) 2012-05-22 2013-05-22 電子カメラ、画像表示装置および画像表示プログラム

Country Status (5)

Country Link
US (3) US9774778B2 (ja)
JP (2) JP6455147B2 (ja)
CN (1) CN104322050B (ja)
IN (1) IN2014DN10919A (ja)
WO (1) WO2013175784A1 (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103997607A (zh) * 2014-06-11 2014-08-20 深圳市东方拓宇科技有限公司 一种图像获取方法、对应装置及含该装置的电子移动终端
CN105323456A (zh) * 2014-12-16 2016-02-10 维沃移动通信有限公司 用于拍摄装置的图像预览方法、图像拍摄装置
JP2016052092A (ja) * 2014-09-02 2016-04-11 カシオ計算機株式会社 撮像装置、画像処理装置、表示制御装置、画像補正方法及びプログラム
EP3104590A1 (en) * 2015-06-12 2016-12-14 Samsung Electronics Co., Ltd. Electronic device and method for displaying image therein
KR20170040244A (ko) * 2014-07-07 2017-04-12 스냅 인코포레이티드 콘텐츠 인식 포토 필터들을 공급하기 위한 장치 및 방법
CN107295251A (zh) * 2017-06-09 2017-10-24 腾讯科技(深圳)有限公司 图像处理方法、装置、终端及存储介质
WO2018154827A1 (ja) * 2017-02-21 2018-08-30 株式会社東芝 画像処理装置、画像処理システムおよびプログラム
JP2019075796A (ja) * 2012-05-22 2019-05-16 株式会社ニコン 電子機器およびプログラム
JP2019114142A (ja) * 2017-12-25 2019-07-11 キヤノン株式会社 表示制御装置及びその制御方法、並びにプログラム
JP2019135645A (ja) * 2018-01-31 2019-08-15 ハイパーコネクト インコーポレイテッド 端末機及びこれのイメージ処理方法(terminal and image processing method thereof)
JP2021512436A (ja) * 2018-06-29 2021-05-13 北京微播視界科技有限公司Beijing Microlive Vision Technology Co.,Ltd. グローバル特効の切替方法、装置、端末装置及び記憶媒体
CN113747240A (zh) * 2021-09-10 2021-12-03 荣耀终端有限公司 视频处理方法、设备、存储介质和程序产品
US11856152B2 (en) 2020-04-02 2023-12-26 Beijing Bytedance Network Technology Co., Ltd. Video special effect configuration file generation method and apparatus, and video rendering method and apparatus

Families Citing this family (196)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8554868B2 (en) 2007-01-05 2013-10-08 Yahoo! Inc. Simultaneous sharing communication interface
IL306019A (en) 2011-07-12 2023-11-01 Snap Inc Methods and systems for delivering editing functions to visual content
JP5451944B2 (ja) 2011-10-07 2014-03-26 パナソニック株式会社 撮影装置及び撮影方法
US11734712B2 (en) 2012-02-24 2023-08-22 Foursquare Labs, Inc. Attributing in-store visits to media consumption based on data collected from user devices
US8972357B2 (en) 2012-02-24 2015-03-03 Placed, Inc. System and method for data collection to validate location data
US10155168B2 (en) 2012-05-08 2018-12-18 Snap Inc. System and method for adaptable avatars
WO2014031899A1 (en) 2012-08-22 2014-02-27 Goldrun Corporation Augmented reality virtual content platform apparatuses, methods and systems
KR102063915B1 (ko) 2013-03-14 2020-01-08 삼성전자주식회사 사용자 기기 및 그 동작 방법
US10439972B1 (en) 2013-05-30 2019-10-08 Snap Inc. Apparatus and method for maintaining a message thread with opt-in permanence for entries
US9705831B2 (en) 2013-05-30 2017-07-11 Snap Inc. Apparatus and method for maintaining a message thread with opt-in permanence for entries
US9742713B2 (en) 2013-05-30 2017-08-22 Snap Inc. Apparatus and method for maintaining a message thread with opt-in permanence for entries
US9413966B2 (en) * 2013-08-06 2016-08-09 Htc Corporation Method of previewing processed image, device using the same, and storage medium having computer program stored thereon
CN103593828A (zh) * 2013-11-13 2014-02-19 厦门美图网科技有限公司 一种局部添加滤镜的图像处理方法
CA2863124A1 (en) 2014-01-03 2015-07-03 Investel Capital Corporation User content sharing system and method with automated external content integration
US9628950B1 (en) 2014-01-12 2017-04-18 Investment Asset Holdings Llc Location-based messaging
US10082926B1 (en) 2014-02-21 2018-09-25 Snap Inc. Apparatus and method for alternate channel communication initiated through a common message thread
US8909725B1 (en) 2014-03-07 2014-12-09 Snapchat, Inc. Content delivery network for ephemeral objects
US9250796B2 (en) * 2014-04-01 2016-02-02 Ideo Llc Video editor
US9276886B1 (en) 2014-05-09 2016-03-01 Snapchat, Inc. Apparatus and method for dynamically configuring application component tiles
US9396354B1 (en) 2014-05-28 2016-07-19 Snapchat, Inc. Apparatus and method for automated privacy protection in distributed images
US9537811B2 (en) 2014-10-02 2017-01-03 Snap Inc. Ephemeral gallery of ephemeral messages
US11625443B2 (en) 2014-06-05 2023-04-11 Snap Inc. Web document enhancement
US9113301B1 (en) 2014-06-13 2015-08-18 Snapchat, Inc. Geo-location based event gallery
EP3182692B1 (en) * 2014-08-12 2023-12-20 Sony Group Corporation Information processing device, program, and information processing method
US10055717B1 (en) 2014-08-22 2018-08-21 Snap Inc. Message processor with application prompts
US10423983B2 (en) 2014-09-16 2019-09-24 Snap Inc. Determining targeting information based on a predictive targeting model
US10824654B2 (en) 2014-09-18 2020-11-03 Snap Inc. Geolocation-based pictographs
US11216869B2 (en) 2014-09-23 2022-01-04 Snap Inc. User interface to augment an image using geolocation
US10284508B1 (en) 2014-10-02 2019-05-07 Snap Inc. Ephemeral gallery of ephemeral messages with opt-in permanence
US9015285B1 (en) 2014-11-12 2015-04-21 Snapchat, Inc. User interface for accessing media at a geographic location
US10311916B2 (en) 2014-12-19 2019-06-04 Snap Inc. Gallery of videos set to an audio time line
US9385983B1 (en) 2014-12-19 2016-07-05 Snapchat, Inc. Gallery of messages from individuals with a shared interest
US9754355B2 (en) 2015-01-09 2017-09-05 Snap Inc. Object recognition based photo filters
US11388226B1 (en) 2015-01-13 2022-07-12 Snap Inc. Guided personal identity based actions
US10133705B1 (en) 2015-01-19 2018-11-20 Snap Inc. Multichannel system
US9521515B2 (en) 2015-01-26 2016-12-13 Mobli Technologies 2010 Ltd. Content request by location
US10223397B1 (en) 2015-03-13 2019-03-05 Snap Inc. Social graph based co-location of network users
EP3272078B1 (en) 2015-03-18 2022-01-19 Snap Inc. Geo-fence authorization provisioning
US9692967B1 (en) 2015-03-23 2017-06-27 Snap Inc. Systems and methods for reducing boot time and power consumption in camera systems
US9781393B2 (en) * 2015-03-27 2017-10-03 Olympus Corporation Imaging apparatus, control method of imaging apparatus, and non-transitory storage medium storing control program of imaging apparatus
US10135949B1 (en) 2015-05-05 2018-11-20 Snap Inc. Systems and methods for story and sub-story navigation
US9881094B2 (en) 2015-05-05 2018-01-30 Snap Inc. Systems and methods for automated local story generation and curation
US9583142B1 (en) 2015-07-10 2017-02-28 Musically Inc. Social media platform for creating and sharing videos
US10993069B2 (en) 2015-07-16 2021-04-27 Snap Inc. Dynamically adaptive media content delivery
USD788137S1 (en) * 2015-07-27 2017-05-30 Musical.Ly, Inc Display screen with animated graphical user interface
USD801348S1 (en) 2015-07-27 2017-10-31 Musical.Ly, Inc Display screen with a graphical user interface for a sound added video making and sharing app
USD801347S1 (en) 2015-07-27 2017-10-31 Musical.Ly, Inc Display screen with a graphical user interface for a sound added video making and sharing app
US10817898B2 (en) 2015-08-13 2020-10-27 Placed, Llc Determining exposures to content presented by physical objects
US9652896B1 (en) 2015-10-30 2017-05-16 Snap Inc. Image based tracking in augmented reality systems
US9984499B1 (en) 2015-11-30 2018-05-29 Snap Inc. Image and point cloud based tracking and in augmented reality systems
US10474321B2 (en) 2015-11-30 2019-11-12 Snap Inc. Network resource location linking and visual content sharing
CN105357451B (zh) * 2015-12-04 2019-11-29 Tcl集团股份有限公司 基于滤镜特效的图像处理方法及装置
US10354425B2 (en) 2015-12-18 2019-07-16 Snap Inc. Method and system for providing context relevant media augmentation
US10430051B2 (en) * 2015-12-29 2019-10-01 Facebook, Inc. Multi-user content presentation system
US10285001B2 (en) 2016-02-26 2019-05-07 Snap Inc. Generation, curation, and presentation of media collections
US10679389B2 (en) 2016-02-26 2020-06-09 Snap Inc. Methods and systems for generation, curation, and presentation of media collections
US11023514B2 (en) 2016-02-26 2021-06-01 Snap Inc. Methods and systems for generation, curation, and presentation of media collections
US10225471B2 (en) * 2016-03-18 2019-03-05 Kenneth L. Poindexter, JR. System and method for autonomously recording a visual media
US20190174069A1 (en) * 2016-03-18 2019-06-06 Kenneth L. Poindexter, JR. System and Method for Autonomously Recording a Visual Media
CN105808145A (zh) * 2016-03-28 2016-07-27 努比亚技术有限公司 一种实现图像处理的方法及终端
US10339365B2 (en) 2016-03-31 2019-07-02 Snap Inc. Automated avatar generation
CN107292945B (zh) * 2016-03-31 2021-01-26 阿里巴巴集团控股有限公司 视频图像的图层渲染处理方法及其系统
US11900418B2 (en) 2016-04-04 2024-02-13 Snap Inc. Mutable geo-fencing system
CN105847728A (zh) * 2016-04-13 2016-08-10 腾讯科技(深圳)有限公司 一种信息处理方法及终端
US10009536B2 (en) 2016-06-12 2018-06-26 Apple Inc. Applying a simulated optical effect based on data received from multiple camera sensors
US11044393B1 (en) 2016-06-20 2021-06-22 Pipbin, Inc. System for curation and display of location-dependent augmented reality content in an augmented estate system
US11785161B1 (en) 2016-06-20 2023-10-10 Pipbin, Inc. System for user accessibility of tagged curated augmented reality content
US11201981B1 (en) 2016-06-20 2021-12-14 Pipbin, Inc. System for notification of user accessibility of curated location-dependent content in an augmented estate
US10334134B1 (en) 2016-06-20 2019-06-25 Maximillian John Suiter Augmented real estate with location and chattel tagging system and apparatus for virtual diary, scrapbooking, game play, messaging, canvasing, advertising and social interaction
US11876941B1 (en) 2016-06-20 2024-01-16 Pipbin, Inc. Clickable augmented reality content manager, system, and network
US10805696B1 (en) 2016-06-20 2020-10-13 Pipbin, Inc. System for recording and targeting tagged content of user interest
US10638256B1 (en) 2016-06-20 2020-04-28 Pipbin, Inc. System for distribution and display of mobile targeted augmented reality content
CN106201242A (zh) * 2016-06-27 2016-12-07 北京金山安全软件有限公司 一种图像处理方法、装置及电子设备
US10430838B1 (en) 2016-06-28 2019-10-01 Snap Inc. Methods and systems for generation, curation, and presentation of media collections with automated advertising
US9681265B1 (en) 2016-06-28 2017-06-13 Snap Inc. System to track engagement of media items
US10387514B1 (en) 2016-06-30 2019-08-20 Snap Inc. Automated content curation and communication
US10348662B2 (en) 2016-07-19 2019-07-09 Snap Inc. Generating customized electronic messaging graphics
US10447910B2 (en) * 2016-08-04 2019-10-15 International Business Machines Corporation Camera notification and filtering of content for restricted sites
JP6816402B2 (ja) * 2016-08-12 2021-01-20 セイコーエプソン株式会社 表示装置および表示装置の制御方法
KR102420857B1 (ko) 2016-08-30 2022-07-15 스냅 인코포레이티드 동시 로컬화 및 매핑을 위한 시스템 및 방법
US10432559B2 (en) 2016-10-24 2019-10-01 Snap Inc. Generating and displaying customized avatars in electronic messages
CN106569666B (zh) * 2016-10-26 2020-07-24 浙江利恩工程设计咨询有限公司 一种蒙版处理控制装置、方法及终端
KR102257909B1 (ko) 2016-11-07 2021-05-28 스냅 인코포레이티드 이미지 변경자들의 선택적 식별 및 순서화
US10203855B2 (en) 2016-12-09 2019-02-12 Snap Inc. Customized user-controlled media overlays
US11616745B2 (en) 2017-01-09 2023-03-28 Snap Inc. Contextual generation and selection of customized media content
US10454857B1 (en) 2017-01-23 2019-10-22 Snap Inc. Customized digital avatar accessories
US10915911B2 (en) 2017-02-03 2021-02-09 Snap Inc. System to determine a price-schedule to distribute media content
US10319149B1 (en) 2017-02-17 2019-06-11 Snap Inc. Augmented reality anamorphosis system
US11250075B1 (en) 2017-02-17 2022-02-15 Snap Inc. Searching social media content
US10074381B1 (en) 2017-02-20 2018-09-11 Snap Inc. Augmented reality speech balloon system
US10565795B2 (en) 2017-03-06 2020-02-18 Snap Inc. Virtual vision system
US10523625B1 (en) 2017-03-09 2019-12-31 Snap Inc. Restricted group content collection
US10581782B2 (en) 2017-03-27 2020-03-03 Snap Inc. Generating a stitched data stream
US10582277B2 (en) 2017-03-27 2020-03-03 Snap Inc. Generating a stitched data stream
US11170393B1 (en) 2017-04-11 2021-11-09 Snap Inc. System to calculate an engagement score of location based media content
US10387730B1 (en) 2017-04-20 2019-08-20 Snap Inc. Augmented reality typography personalization system
US10212541B1 (en) 2017-04-27 2019-02-19 Snap Inc. Selective location-based identity communication
US11893647B2 (en) 2017-04-27 2024-02-06 Snap Inc. Location-based virtual avatars
US11409407B2 (en) 2017-04-27 2022-08-09 Snap Inc. Map-based graphical user interface indicating geospatial activity metrics
US10467147B1 (en) 2017-04-28 2019-11-05 Snap Inc. Precaching unlockable data elements
US10803120B1 (en) 2017-05-31 2020-10-13 Snap Inc. Geolocation based playlists
DK180859B1 (en) 2017-06-04 2022-05-23 Apple Inc USER INTERFACE CAMERA EFFECTS
CN107517348A (zh) * 2017-08-30 2017-12-26 广东欧珀移动通信有限公司 图像的渲染方法和装置
US11475254B1 (en) 2017-09-08 2022-10-18 Snap Inc. Multimodal entity identification
US10740974B1 (en) 2017-09-15 2020-08-11 Snap Inc. Augmented reality system
CN115236892B (zh) * 2017-09-28 2024-06-11 荣耀终端有限公司 一种彩膜基板、显示屏及终端
US10499191B1 (en) 2017-10-09 2019-12-03 Snap Inc. Context sensitive presentation of content
US10573043B2 (en) 2017-10-30 2020-02-25 Snap Inc. Mobile-based cartographic control of display content
US11265273B1 (en) 2017-12-01 2022-03-01 Snap, Inc. Dynamic media overlay with smart widget
US11017173B1 (en) 2017-12-22 2021-05-25 Snap Inc. Named entity recognition visual context and caption data
US10678818B2 (en) 2018-01-03 2020-06-09 Snap Inc. Tag distribution visualization system
WO2019152525A1 (en) * 2018-01-30 2019-08-08 Aero Vironment, Inc. Methods and systems for cloud-based management of images captured by aerial vehicles
US11112964B2 (en) 2018-02-09 2021-09-07 Apple Inc. Media capture lock affordance for graphical user interface
US11507614B1 (en) 2018-02-13 2022-11-22 Snap Inc. Icon based tagging
US10979752B1 (en) 2018-02-28 2021-04-13 Snap Inc. Generating media content items based on location information
US10885136B1 (en) 2018-02-28 2021-01-05 Snap Inc. Audience filtering system
CN110221794B (zh) * 2018-03-02 2023-05-23 阿里巴巴集团控股有限公司 一种对象显示方法及终端
US10327096B1 (en) 2018-03-06 2019-06-18 Snap Inc. Geo-fence selection system
EP3766028A1 (en) 2018-03-14 2021-01-20 Snap Inc. Generating collectible items based on location information
US11163941B1 (en) 2018-03-30 2021-11-02 Snap Inc. Annotating a collection of media content items
CN108600614B (zh) * 2018-04-02 2022-03-08 珠海格力电器股份有限公司 一种图像处理方法及装置
US10219111B1 (en) 2018-04-18 2019-02-26 Snap Inc. Visitation tracking system
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
US10375313B1 (en) 2018-05-07 2019-08-06 Apple Inc. Creative camera
US10896197B1 (en) 2018-05-22 2021-01-19 Snap Inc. Event detection system
CN108986017B (zh) * 2018-06-29 2023-06-20 北京微播视界科技有限公司 图像特效处理方法、装置和计算机可读存储介质
CN110662102B (zh) * 2018-06-29 2021-11-09 武汉斗鱼网络科技有限公司 滤镜渐变效果展示方法、存储介质、设备及系统
CN109144361A (zh) * 2018-07-09 2019-01-04 维沃移动通信有限公司 一种图像处理方法及终端设备
US10679393B2 (en) 2018-07-24 2020-06-09 Snap Inc. Conditional modification of augmented reality object
CN109144384A (zh) * 2018-07-27 2019-01-04 北京微播视界科技有限公司 显示方法、装置、硬件装置和计算机可读存储介质
KR102558166B1 (ko) * 2018-08-08 2023-07-24 삼성전자주식회사 복수의 객체들을 포함하는 이미지를 보정하는 전자 장치 및 그 제어 방법
US10997760B2 (en) 2018-08-31 2021-05-04 Snap Inc. Augmented reality anthropomorphization system
DK201870623A1 (en) 2018-09-11 2020-04-15 Apple Inc. USER INTERFACES FOR SIMULATED DEPTH EFFECTS
US11770601B2 (en) 2019-05-06 2023-09-26 Apple Inc. User interfaces for capturing and managing visual media
US10674072B1 (en) 2019-05-06 2020-06-02 Apple Inc. User interfaces for capturing and managing visual media
US11321857B2 (en) 2018-09-28 2022-05-03 Apple Inc. Displaying and editing images with depth information
US10698583B2 (en) 2018-09-28 2020-06-30 Snap Inc. Collaborative achievement interface
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
CN109525888A (zh) * 2018-09-28 2019-03-26 Oppo广东移动通信有限公司 图像显示方法、装置、电子设备以及存储介质
US10778623B1 (en) 2018-10-31 2020-09-15 Snap Inc. Messaging and gaming applications communication platform
US20200159394A1 (en) * 2018-11-15 2020-05-21 Spintura, Inc. Electronic Picture Carousel
CN111221444A (zh) * 2018-11-23 2020-06-02 北京字节跳动网络技术有限公司 分屏特效处理方法、装置、电子设备和存储介质
US11199957B1 (en) 2018-11-30 2021-12-14 Snap Inc. Generating customized avatars based on location information
US10939236B1 (en) 2018-11-30 2021-03-02 Snap Inc. Position service to determine relative position to map features
US11032670B1 (en) 2019-01-14 2021-06-08 Snap Inc. Destination sharing in location sharing system
US10939246B1 (en) 2019-01-16 2021-03-02 Snap Inc. Location-based context information sharing in a messaging system
US11294936B1 (en) 2019-01-30 2022-04-05 Snap Inc. Adaptive spatial density based clustering
US11972529B2 (en) 2019-02-01 2024-04-30 Snap Inc. Augmented reality system
US10936066B1 (en) 2019-02-13 2021-03-02 Snap Inc. Sleep detection in a location sharing system
US10838599B2 (en) 2019-02-25 2020-11-17 Snap Inc. Custom media overlay system
US10964082B2 (en) 2019-02-26 2021-03-30 Snap Inc. Avatar based on weather
US10852918B1 (en) 2019-03-08 2020-12-01 Snap Inc. Contextual information in chat
US11868414B1 (en) 2019-03-14 2024-01-09 Snap Inc. Graph-based prediction for contact suggestion in a location sharing system
US11852554B1 (en) 2019-03-21 2023-12-26 Snap Inc. Barometer calibration in a location sharing system
US11249614B2 (en) 2019-03-28 2022-02-15 Snap Inc. Generating personalized map interface with enhanced icons
US10810782B1 (en) 2019-04-01 2020-10-20 Snap Inc. Semantic texture mapping system
US11706521B2 (en) 2019-05-06 2023-07-18 Apple Inc. User interfaces for capturing and managing visual media
US10582453B1 (en) 2019-05-30 2020-03-03 Snap Inc. Wearable device location systems architecture
US10560898B1 (en) 2019-05-30 2020-02-11 Snap Inc. Wearable device location systems
US10893385B1 (en) 2019-06-07 2021-01-12 Snap Inc. Detection of a physical collision between two client devices in a location sharing system
US11307747B2 (en) 2019-07-11 2022-04-19 Snap Inc. Edge gesture interface with smart interactions
US11821742B2 (en) 2019-09-26 2023-11-21 Snap Inc. Travel based notifications
US11218838B2 (en) 2019-10-31 2022-01-04 Snap Inc. Focused map-based context information surfacing
US10880496B1 (en) 2019-12-30 2020-12-29 Snap Inc. Including video feed in message thread
US11128715B1 (en) 2019-12-30 2021-09-21 Snap Inc. Physical friend proximity in chat
US11429618B2 (en) 2019-12-30 2022-08-30 Snap Inc. Surfacing augmented reality objects
US11343323B2 (en) 2019-12-31 2022-05-24 Snap Inc. Augmented reality objects registry
US11169658B2 (en) 2019-12-31 2021-11-09 Snap Inc. Combined map icon with action indicator
KR20210100444A (ko) * 2020-02-06 2021-08-17 삼성전자주식회사 필터를 제공하는 방법 및 이를 지원하는 전자 장치
US11228551B1 (en) 2020-02-12 2022-01-18 Snap Inc. Multiple gateway message exchange
US11516167B2 (en) 2020-03-05 2022-11-29 Snap Inc. Storing data based on device location
US11619501B2 (en) 2020-03-11 2023-04-04 Snap Inc. Avatar based on trip
US11430091B2 (en) 2020-03-27 2022-08-30 Snap Inc. Location mapping for large scale augmented-reality
US10956743B1 (en) 2020-03-27 2021-03-23 Snap Inc. Shared augmented reality system
US11054973B1 (en) 2020-06-01 2021-07-06 Apple Inc. User interfaces for managing media
US11503432B2 (en) 2020-06-15 2022-11-15 Snap Inc. Scalable real-time location sharing framework
US11483267B2 (en) 2020-06-15 2022-10-25 Snap Inc. Location sharing using different rate-limited links
US11314776B2 (en) 2020-06-15 2022-04-26 Snap Inc. Location sharing using friend list versions
US11290851B2 (en) 2020-06-15 2022-03-29 Snap Inc. Location sharing using offline and online objects
US11308327B2 (en) 2020-06-29 2022-04-19 Snap Inc. Providing travel-based augmented reality content with a captured image
US11349797B2 (en) 2020-08-31 2022-05-31 Snap Inc. Co-location connection service
US11212449B1 (en) * 2020-09-25 2021-12-28 Apple Inc. User interfaces for media capture and management
CN112153288B (zh) * 2020-09-25 2023-10-13 北京字跳网络技术有限公司 用于发布视频或图像的方法、装置、设备和介质
US11606756B2 (en) 2021-03-29 2023-03-14 Snap Inc. Scheduling requests for location data
CN113190148A (zh) * 2021-03-29 2021-07-30 北京达佳互联信息技术有限公司 图像的处理方法、装置、电子设备、存储介质及程序产品
CN113206948B (zh) * 2021-03-31 2022-11-22 北京达佳互联信息技术有限公司 图像效果的预览方法、装置、电子设备及存储介质
US11645324B2 (en) 2021-03-31 2023-05-09 Snap Inc. Location-based timeline media content system
US11539876B2 (en) 2021-04-30 2022-12-27 Apple Inc. User interfaces for altering visual media
US11778339B2 (en) 2021-04-30 2023-10-03 Apple Inc. User interfaces for altering visual media
WO2022256200A1 (en) * 2021-06-01 2022-12-08 Apple Inc. User interfaces for managing media styles
CN113473019A (zh) * 2021-07-01 2021-10-01 北京字跳网络技术有限公司 一种图像处理方法、装置、设备及存储介质
CN113473017A (zh) * 2021-07-01 2021-10-01 北京字跳网络技术有限公司 一种图像处理方法、装置、设备及存储介质
CN113923353A (zh) * 2021-09-29 2022-01-11 维沃移动通信(杭州)有限公司 图像处理方法、装置、电子设备及存储介质
US11829834B2 (en) 2021-10-29 2023-11-28 Snap Inc. Extended QR code
CN115022696B (zh) * 2022-04-18 2023-12-26 北京有竹居网络技术有限公司 视频预览方法、装置、可读介质及电子设备
US12001750B2 (en) 2022-04-20 2024-06-04 Snap Inc. Location-based shared augmented reality experience system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008217785A (ja) * 2007-03-01 2008-09-18 Seiko Epson Corp 表示コントローラおよび画像データ変換方法
JP2010079780A (ja) * 2008-09-29 2010-04-08 Keyence Corp 画像処理装置、画像処理方法及びコンピュータプログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005227897A (ja) 2004-02-10 2005-08-25 Fuji Photo Film Co Ltd 画像表示方法、画像表示装置及び画像表示プログラム
US20080051989A1 (en) * 2006-08-25 2008-02-28 Microsoft Corporation Filtering of data layered on mapping applications
US8645857B2 (en) * 2008-03-26 2014-02-04 Intellectual Ventures Fund 83 Llc Method for controlling information display
US9141640B2 (en) * 2008-07-09 2015-09-22 MLSListings, Inc. Methods and systems of advanced real estate searching
JP2011015092A (ja) 2009-06-30 2011-01-20 Canon Inc 撮像装置
JP5606755B2 (ja) 2010-03-04 2014-10-15 オリンパスイメージング株式会社 撮像装置
JP2011244421A (ja) 2010-04-21 2011-12-01 Olympus Imaging Corp 撮影機器
CN102238331B (zh) * 2010-04-21 2015-05-13 奥林巴斯映像株式会社 摄影设备
US8717381B2 (en) * 2011-01-11 2014-05-06 Apple Inc. Gesture mapping for image filter input parameters
EP2634751B1 (en) * 2012-03-01 2018-12-26 BlackBerry Limited Drag handle for applying image filters in picture editor
WO2013175784A1 (ja) * 2012-05-22 2013-11-28 株式会社ニコン 電子カメラ、画像表示装置および画像表示プログラム
US9250796B2 (en) * 2014-04-01 2016-02-02 Ideo Llc Video editor

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008217785A (ja) * 2007-03-01 2008-09-18 Seiko Epson Corp 表示コントローラおよび画像データ変換方法
JP2010079780A (ja) * 2008-09-29 2010-04-08 Keyence Corp 画像処理装置、画像処理方法及びコンピュータプログラム

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019075796A (ja) * 2012-05-22 2019-05-16 株式会社ニコン 電子機器およびプログラム
CN103997607A (zh) * 2014-06-11 2014-08-20 深圳市东方拓宇科技有限公司 一种图像获取方法、对应装置及含该装置的电子移动终端
EP3907980A1 (en) * 2014-07-07 2021-11-10 Snap Inc. Apparatus and method for supplying content aware photo filters
JP2020021516A (ja) * 2014-07-07 2020-02-06 スナップ インコーポレイテッドSnap Inc. コンテンツ認識フォトフィルタを供給するための装置および方法
US10602057B1 (en) 2014-07-07 2020-03-24 Snap Inc. Supplying content aware photo filters
JP2017520855A (ja) * 2014-07-07 2017-07-27 スナップ インコーポレイテッド コンテンツ認識フォトフィルタを供給するための装置および方法
KR102199255B1 (ko) * 2014-07-07 2021-01-06 스냅 인코포레이티드 콘텐츠 인식 포토 필터들을 공급하기 위한 장치 및 방법
US11122200B2 (en) 2014-07-07 2021-09-14 Snap Inc. Supplying content aware photo filters
KR102300721B1 (ko) * 2014-07-07 2021-09-10 스냅 인코포레이티드 콘텐츠 인식 포토 필터들을 공급하기 위한 장치 및 방법
KR20210113430A (ko) * 2014-07-07 2021-09-15 스냅 인코포레이티드 콘텐츠 인식 포토 필터들을 공급하기 위한 장치 및 방법
KR20210002761A (ko) * 2014-07-07 2021-01-08 스냅 인코포레이티드 콘텐츠 인식 포토 필터들을 공급하기 위한 장치 및 방법
EP3167446B1 (en) * 2014-07-07 2022-02-16 Snap Inc. Apparatus and method for supplying content aware photo filters
US11595569B2 (en) 2014-07-07 2023-02-28 Snap Inc. Supplying content aware photo filters
KR102409294B1 (ko) * 2014-07-07 2022-06-15 스냅 인코포레이티드 콘텐츠 인식 포토 필터들을 공급하기 위한 장치 및 방법
US10432850B1 (en) 2014-07-07 2019-10-01 Snap Inc. Apparatus and method for supplying content aware photo filters
AU2015288188B2 (en) * 2014-07-07 2021-03-11 Snap Inc. Apparatus and method for supplying content aware photo filters
KR20170040244A (ko) * 2014-07-07 2017-04-12 스냅 인코포레이티드 콘텐츠 인식 포토 필터들을 공급하기 위한 장치 및 방법
JP2016052092A (ja) * 2014-09-02 2016-04-11 カシオ計算機株式会社 撮像装置、画像処理装置、表示制御装置、画像補正方法及びプログラム
CN105323456A (zh) * 2014-12-16 2016-02-10 维沃移动通信有限公司 用于拍摄装置的图像预览方法、图像拍摄装置
EP3104590A1 (en) * 2015-06-12 2016-12-14 Samsung Electronics Co., Ltd. Electronic device and method for displaying image therein
US9942484B2 (en) 2015-06-12 2018-04-10 Samsung Electronics Co., Ltd Electronic device and method for displaying image therein
JP2018137560A (ja) * 2017-02-21 2018-08-30 株式会社東芝 画像処理装置、画像処理システムおよびプログラム
WO2018154827A1 (ja) * 2017-02-21 2018-08-30 株式会社東芝 画像処理装置、画像処理システムおよびプログラム
CN107295251B (zh) * 2017-06-09 2018-09-25 腾讯科技(深圳)有限公司 图像处理方法、装置、终端及存储介质
CN107295251A (zh) * 2017-06-09 2017-10-24 腾讯科技(深圳)有限公司 图像处理方法、装置、终端及存储介质
JP7005337B2 (ja) 2017-12-25 2022-01-21 キヤノン株式会社 表示制御装置及びその制御方法、並びにプログラム
JP2019114142A (ja) * 2017-12-25 2019-07-11 キヤノン株式会社 表示制御装置及びその制御方法、並びにプログラム
JP2019135645A (ja) * 2018-01-31 2019-08-15 ハイパーコネクト インコーポレイテッド 端末機及びこれのイメージ処理方法(terminal and image processing method thereof)
JP2021512436A (ja) * 2018-06-29 2021-05-13 北京微播視界科技有限公司Beijing Microlive Vision Technology Co.,Ltd. グローバル特効の切替方法、装置、端末装置及び記憶媒体
US11249630B2 (en) 2018-06-29 2022-02-15 Beijing Microlive Vision Technology Co., Ltd Method, apparatus, terminal device, and storage medium for switching global special effects
US11856152B2 (en) 2020-04-02 2023-12-26 Beijing Bytedance Network Technology Co., Ltd. Video special effect configuration file generation method and apparatus, and video rendering method and apparatus
CN113747240A (zh) * 2021-09-10 2021-12-03 荣耀终端有限公司 视频处理方法、设备、存储介质和程序产品
CN113747240B (zh) * 2021-09-10 2023-04-07 荣耀终端有限公司 视频处理方法、设备和存储介质

Also Published As

Publication number Publication date
JP6455147B2 (ja) 2019-01-23
IN2014DN10919A (ja) 2015-09-18
US10057482B2 (en) 2018-08-21
US20150172534A1 (en) 2015-06-18
US20170366742A1 (en) 2017-12-21
CN104322050B (zh) 2020-04-28
US9774778B2 (en) 2017-09-26
JP2019075796A (ja) 2019-05-16
CN104322050A (zh) 2015-01-28
JPWO2013175784A1 (ja) 2016-01-12
US20180324354A1 (en) 2018-11-08
US10547778B2 (en) 2020-01-28

Similar Documents

Publication Publication Date Title
JP6455147B2 (ja) 電子カメラ、画像表示装置および画像表示プログラム
JP5906097B2 (ja) 電子機器、その制御方法、プログラム、及び記録媒体
TWI486864B (zh) 具有顯示功能之行動設備
JP5384190B2 (ja) 撮像デバイス内でタッチ式調節を実行する方法及び装置
KR101608556B1 (ko) 정보 표시 장치 및 정보 표시 방법
US8274592B2 (en) Variable rate browsing of an image collection
WO2015030126A1 (ja) 画像処理装置、および画像処理プログラム
CN106993131B (zh) 信息处理方法及电子设备
KR20120074215A (ko) 표시 제어 장치, 방법 및 컴퓨터 프로그램 제품
JP6004756B2 (ja) 表示制御装置及びその制御方法
JP2009063727A (ja) 画像表示装置、撮像装置およびプログラム
JP2012133490A (ja) 表示制御装置及びその制御方法、プログラム、及び記録媒体
CN111418202A (zh) 相机缩放级别和图像帧捕获控制
KR20150139159A (ko) 촬영 장치 및 촬영 장치의 비디오 생성방법
JP6198459B2 (ja) 表示制御装置、表示制御装置の制御方法、プログラム及び記憶媒体
JP5212521B2 (ja) 画像表示装置
US9064351B2 (en) Display control apparatus and method for controlling the same
JP5930693B2 (ja) 動画記録装置及びその制御方法
JP2008236011A (ja) 撮影装置
JP6120541B2 (ja) 表示制御装置及びその制御方法
JP2016201710A (ja) 撮像装置
JP2015106745A (ja) 撮像装置、画像処理方法および画像処理プログラム
JP2015106744A (ja) 撮像装置、画像処理方法および画像処理プログラム
JP2016010079A (ja) 表示制御装置
KR20140089134A (ko) 듀얼 카메라를 구비하는 장치의 이미지 처리 장치 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13793935

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014516674

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 14402004

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 13793935

Country of ref document: EP

Kind code of ref document: A1